CN111369589B - 一种基于多策略融合的无人机跟踪方法 - Google Patents

一种基于多策略融合的无人机跟踪方法 Download PDF

Info

Publication number
CN111369589B
CN111369589B CN202010120410.5A CN202010120410A CN111369589B CN 111369589 B CN111369589 B CN 111369589B CN 202010120410 A CN202010120410 A CN 202010120410A CN 111369589 B CN111369589 B CN 111369589B
Authority
CN
China
Prior art keywords
unmanned aerial
aerial vehicle
image
algorithm
acquiring
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010120410.5A
Other languages
English (en)
Other versions
CN111369589A (zh
Inventor
纪元法
何传骥
孙希延
付文涛
严素清
符强
王守华
黄建华
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guilin University of Electronic Technology
Original Assignee
Guilin University of Electronic Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guilin University of Electronic Technology filed Critical Guilin University of Electronic Technology
Priority to CN202010120410.5A priority Critical patent/CN111369589B/zh
Publication of CN111369589A publication Critical patent/CN111369589A/zh
Application granted granted Critical
Publication of CN111369589B publication Critical patent/CN111369589B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/12Target-seeking control
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

本发明公开了一种基于多策略融合的无人机跟踪方法,包括以深度学习网络中的Centernet网络为结构主体,结合频谱探测模块和舵机控制模块,提出了一种新的视觉与频谱联合评估算法,能够有效计算出视频图像里的无人机位置,并通过该位置的中心点控制摄像机舵机转动,能够在3公里范围内精准跟踪飞行中的无人机,并以更加直观的视觉跟踪方式将飞行中的无人机显示出来,解决了无人机飞行时跟踪困难的问题。

Description

一种基于多策略融合的无人机跟踪方法
技术领域
本发明涉及图像处理领域,尤其涉及一种基于多策略融合的无人机跟踪方法。
背景技术
无人机通常是指一种有动力、可控制、可执行多种任务,并能重复使用的无人驾驶飞行器。与有人驾驶飞机相比,无人机具有重量轻、雷达反射截面小、运行成本低、灵活性高且不存在机组人员安全问题等优点,可广泛用于侦察、攻击等军事任务;在民用方面,可用于气象探测、灾害监测、地质勘探、地图测绘等诸多领域,因此受到越来越多国家的重视,发展迅猛。
无人机的飞行速度较快,且一般具有独特的几何形状,表现为缺乏完整的结构信息,因此在飞行中跟踪困难。
发明内容
本发明的目的在于提供一种基于多策略融合的无人机跟踪方法,旨在解决无人机在飞行时跟踪困难的问题。
为实现上述目的,本发明提供了一种基于多策略融合的无人机跟踪方法,
包括:
基于Centernet网络对无人机图像样本进行训练,生成特征图;
获取无人机信号,并对无人机信号进行分析处理后得到无人机的方向参数;
基于无人机的方向参数输出控制信号控制摄像机镜头转动,采集无人机的视频图像,得到无人机的估计位置;
对采集的视频图像进行图像块加权处理,基于视觉与频谱联合评估算法,得到无人机在视频图像里的具***置;
基于opencv函数获取无人机的中心坐标,实时跟踪无人机。
其中,所述基于Centernet网络对无人机图像样本进行训练,生成特征图的具体步骤,是:
获取无人机图像输入RGB三通道,并基于卷积神经网络处理,输出预测值;
基于网络前向传播,提取特征,得到特征图。
其中,所述获取无人机信号,并对无人机信号进行分析处理后得到无人机的方向参数得具体步骤,是:
检测并获取3公里范围内的无人机信号;
基于使用环境进行数据融合;
通过下变频、A/D采样、数字信道化和阵列信号处理提取无人机信号参数;
基于不同天线的参数进行幅相一体化测向处理,并与数据库比对,得到无人机型号;
基于多站测向交叉定位体制进行定位,得到无人机方向参数。
其中,所述基于无人机的方向参数输出控制信号控制摄像机镜头转动,采集无人机的视频图像,得到无人机的估计位置的具体步骤,是
读取输出的无人机方向参数;
计算方向参数与图像中心的差值;
通过数学模型计算出云台的转动量;
通过位置PD算法进行控制云台转动,所述位置PD算法模型如下:
Figure BDA0002392787820000021
其中,S(n)为控制输出,Kp为比例控制参数,Td为微分控制参数,e(n)为当前状态值与目标值之间的差值,n为控制次数,
Figure BDA0002392787820000022
用Kd表示,则有:
S(n)=Kpe(n)+Kd[e(n)-e(n-1)]。
其中,所述对采集的视频图像进行图像块加权处理,基于视觉与频谱联合评估算法,得到无人机在视频图像里的具***置的具体步骤,是:
将图像分为三个图像块,并赋予加权参数;
基于Centernet网络提取特征图每个类别的关键点;
对关键点进行置信度判断,获取具***置。
其中,所述对关键点进行置信度判断,获取具***置的具体步骤,是,
基于原始的Centernet算法对摄像机采集的原始图像进行第一次置信度判断,若特征图里的关键点小于阈值A,则摄像机放大固定倍数;
若特征图里的关键点大于阈值A,基于加权参数和特征响应值计算方式,使用Centernet算法进行二次置信度判断;
若二次置信度判断特征峰值大于阈值B,用opencv函数画框显示,并回传无人机在图像里的中心坐标(x,y)。
其中,所述特征响应值计算方式的具体计算步骤,是,
建立如下公式:
y(t)=(ω+B(n))x(t)t≥0,n≥0
其中,y(t)代表特征响应值,t代表特征点排序号,x(t)代表原始Centernet算法计算的每个特征点的响应值,ω代表图像块权重,B(n)表示摄像机每放大一次倍数提高的准确度,n代表摄像机放大倍数的次数;
B(n)=(1.1)nβn≥0
其中,β为初始常量。
本发明的一种基于多策略融合的无人机跟踪方法,使用基于多策略融合的无人机跟踪方法能够将频谱探测和视觉跟踪融为一体,在用频谱探测对无人机进行粗略定位后使用视觉跟踪实现对无人机位置的准确定位,同时以更加直观的形式将无人机在视频中的位置标示出来,方便无人机使用者和监测者能够更加清楚地观察无人机的位置。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明的一种基于多策略融合的无人机跟踪方法的流程图;
图2是本发明的一种基于多策略融合的无人机跟踪方法的运行框图;
图3是本发明的一种基于多策略融合的无人机跟踪方法的图像分块图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本发明,而不能理解为对本发明的限制。
在本发明的描述中,需要理解的是,术语“长度”、“宽度”、“上”、“下”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。此外,在本发明的描述中,“多个”的含义是两个或两个以上,除非另有明确具体的限定。
实施例
请参阅图1,本发明的一种基于多策略融合的无人机跟踪方法,包括:
S101、基于Centernet网络对无人机图像样本进行训练,生成特征图。
获取无人机图像输入RGB三通道,并基于卷积神经网络处理,输出预测值;
24bit RGB图像也叫全彩图,其有三个通道,分别为R(red),G(green),B(blue),用halcon程序以及halcon自带图像进行理解RGB图像和灰度值。三通道图像的灰度值是三个单通道的灰度值的组合。灰度值为0-255,每个通道都是0-255,值越大图像看起来越亮,值越小图像越暗。在三通道图像上看到哪部分的哪种颜色越深,证明在该部分的哪种颜色分量越大,反应到该单通道上越亮。
基于网络前向传播,提取特征,得到特征图。
网络前向传播是一个神经元有多个输入和一个输出,每个神经元的输入既可以是其他神经元的输出也可以是整个神经网络的输入。特征图(featuremap)相当于卷积神经网络提取原始图像特征之后形成的图像,从概率大小的角度来看,特征图里的每个类型的点都有自己的概率,即响应值,这就形成了热点图(heatmap),反应的是颜色深度,即响应值大小,响应值最大的点就是跟踪目标所在的点。
S102、获取无人机信号,并对无人机信号进行分析处理后得到无人机的方向参数。
开启摄像头,开启频谱探测模块,此时由频谱探测模块拥有舵机控制模块的所有权,检测并捕获3公里范围内的无人机信号,信号数据根据使用环境进行数据融合;截获地面遥控器发出的遥控器信号和无人机下传的图传信号,通过下变频、A/D采样、数字信道化和阵列信号处理提取信号参数;根据不同天线的参数进行幅相一体化测向处理,通过实测参数与数据库比对,得到无人机型号;基于多站测向交叉定位体制进行定位,得到无人机的方向参数。
S103、基于无人机的方向参数输出控制信号控制摄像机镜头转动,采集无人机的视频图像,得到无人机的估计位置。
读取输出的无人机方向参数,如无人机相对于摄像机的方向,角度等;计算方向参数与图像中心的差值;通过数学模型计算出云台的转动量;通过位置PD算法进行控制云台转动,所述位置PD算法模型如下:
Figure BDA0002392787820000051
Figure BDA0002392787820000052
用Kd表示,则有:
S(n)=Kpe(n)+Kd[e(n)-e(n-1)]
其中,Kp为比例控制参数,Td为微分控制参数,e(n)为当前状态值与目标值之间的差值。
摄像机图像的中心位置即为无人机的估计位置。
S104、对采集的视频图像进行图像块加权处理,基于视觉与频谱联合评估算法,得到无人机在视频图像里的具***置。
将采集的1920*1080大小的视频图像以(960,540)为图像中心点,如图3所示,将整张图像分为3个图像块,分别为image_inside,image_middle,image_outside。image_inside表示图像的正中间部分,image_inside图像块里理应具有较大的可能性存在无人机目标,而image_outside远离图像中心,理应具有较小的可能性存在无人机目标。设image_inside,image_middle,image_outside的参数分别为ω1,ω2,ω3,则ω2=0.8ω1,ω3=0.4ω1
Centernet检测器将特征图上的所有特征点与其连接的8个临近点进行比较,如果该点响应值大于或等于其八个临近点值则保留,得到所有满足要求的前100个关键点。
Figure BDA0002392787820000053
是用上述方法检测得到的c类别的n个关键点的集合,每个关键点以整型坐标(xi,yi)的形式给出,则
Figure BDA0002392787820000054
产生如下的检测框:
Figure BDA0002392787820000061
其中,
Figure BDA0002392787820000062
是偏移预测结果,
Figure BDA0002392787820000063
是尺度预测结果。
所有检测框组成一个粗略框图,然后设定一个阈值,
Figure BDA0002392787820000064
小于阈值的舍弃,
Figure BDA0002392787820000065
大于阈值的框图形成最终的无人机框图。
请参阅图2,使用Centernet算法对摄像机采集的原始图像进行第一次置信度判断,若特征图里的关键点小于阈值A,则摄像机放大固定倍数,n加1,更新B(n);若特征图里的关键点大于阈值A则进行第二次置信度判断,此时在摄像机采集视频里引入图像块权重,采用特征响应值计算方式,使用Centernet算法再次进行置信度判断。最后,若经过第二次置信度判断,特征峰值大于阈值B,则确定跟踪目标,用opencv函数画框显示,并回传无人机在图像里的中心坐标(x,y),此时视觉跟踪模块重新拥有舵机控制权,通过(x,y)重新控制舵机转动。
本算法在在引入图像块权重的基础上,设计了一种新的特征响应值计算方式,如下:
y(t)=(ω+B(n))x(t)t≥0,n≥0
其中t代表特征点排序号,x(t)代表原始Centernet算法计算的每个特征点的响应值,y(t)代表最终每个特征点的的响应值。ω代表图像块权重,根据3个不同的区域image_inside,image_middle,image_outside分为3个不同的值,分别为ω1,ω2,ω3,其中ω2=0.8ω1,ω3=0.4ω1。B(n)是一个线性增加的函数,用来表示摄像机每放大一次倍数(固定倍数),图像的分辨率越高,Centernet跟踪算法的准确度也就越高,其中n代表摄像机放大倍数的次数,方程如下:
B(n)=(1.1)nβn≥0
其中,β为初始常量。
S105、基于opencv函数获取无人机的中心坐标,实时跟踪无人机。
确定无人机在视频图像里的位置后,使用opencv函数画出无人机所在的矩形框,计算并回传矩形框的中心坐标(x,y),舵机控制所有权交给视觉跟踪模块,通过该中心坐标重新控制舵机转动,实时跟踪无人机。
以上所揭露的仅为本发明一种较佳实施例而已,当然不能以此来限定本发明之权利范围,本领域普通技术人员可以理解实现上述实施例的全部或部分流程,并依本发明权利要求所作的等同变化,仍属于发明所涵盖的范围。

Claims (5)

1.一种基于多策略融合的无人机跟踪方法,其特征在于,
包括:
基于Centernet网络对无人机图像样本进行训练,生成特征图;
获取无人机信号,并对无人机信号进行分析处理后得到无人机的方向参数;
基于无人机的方向参数输出控制信号控制摄像机镜头转动,采集无人机的视频图像,得到无人机的估计位置;
对采集的视频图像进行图像块加权处理,基于视觉与频谱联合评估算法,得到无人机在视频图像里的具***置,具体步骤是:将图像分为三个图像块,并赋予加权参数;基于Centernet网络提取特征图每个类别的关键点;对关键点进行置信度判断,获取具***置,具体步骤是基于Centernet算法对摄像机采集的原始图像进行第一次置信度判断,若特征图里的关键点小于阈值A,则摄像机放大固定倍数;若特征图里的关键点大于阈值A,基于加权参数和特征响应值计算方式,使用Centernet算法进行二次置信度判断;若二次置信度判断特征峰值大于阈值B,用opencv函数画框显示,并回传无人机在图像里的中心坐标(x,y);
基于opencv函数获取无人机的中心坐标,实时跟踪无人机。
2.如权利要求1所述的一种基于多策略融合的无人机跟踪方法,其特征在于,所述基于Centernet网络对无人机图像样本进行训练,生成特征图的具体步骤,是:
获取无人机图像输入RGB三通道,并基于卷积神经网络处理,输出预测值;
基于网络前向传播,提取特征,得到特征图。
3.如权利要求1所述的一种基于多策略融合的无人机跟踪方法,其特征在于,所述获取无人机信号,并对无人机信号进行分析处理后得到无人机的方向参数得具体步骤,是:
检测并获取3公里范围内的无人机信号;
基于使用环境进行数据融合;
通过下变频、A/D采样、数字信道化和阵列信号处理提取无人机信号参数;
基于不同天线的参数进行幅相一体化测向处理,并与数据库比对,得到无人机型号;
基于多站测向交叉定位体制进行定位,得到无人机方向参数。
4.如权利要求1所述的一种基于多策略融合的无人机跟踪方法,其特征在于,所述基于无人机的方向参数输出控制信号控制摄像机镜头转动,采集无人机的视频图像,得到无人机的估计位置的具体步骤,是:
读取无人机方向参数;
计算方向参数与图像中心的差值;
通过数学模型计算出云台的转动量;
通过位置PD算法进行控制云台转动,所述位置PD算法模型如下:
Figure FDA0003533045680000021
其中,S(n)为控制输出,Kp为比例控制参数,Td为微分控制参数,e(n)为当前状态值与目标值之间的差值,n为控制次数,
Figure FDA0003533045680000022
用Kd表示,则有:
S(n)=Kpe(n)+Kd[e(n)-e(n-1)]。
5.如权利要求1所述的一种基于多策略融合的无人机跟踪方法,其特征在于,所述特征响应值计算方式的计算公式,是,
y(t)=(ω+B(n))x(t)t≥0,n≥0
其中,y(t)代表特征响应值,t代表特征点排序号,x(t)代表原始Centernet算法计算的每个特征点的响应值,ω代表图像块权重,B(n)表示摄像机每放大一次倍数提高的准确度,n代表摄像机放大倍数的次数;
B(n)=(1.1)nβn≥0
其中,β为初始常量。
CN202010120410.5A 2020-02-26 2020-02-26 一种基于多策略融合的无人机跟踪方法 Active CN111369589B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010120410.5A CN111369589B (zh) 2020-02-26 2020-02-26 一种基于多策略融合的无人机跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010120410.5A CN111369589B (zh) 2020-02-26 2020-02-26 一种基于多策略融合的无人机跟踪方法

Publications (2)

Publication Number Publication Date
CN111369589A CN111369589A (zh) 2020-07-03
CN111369589B true CN111369589B (zh) 2022-04-22

Family

ID=71211009

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010120410.5A Active CN111369589B (zh) 2020-02-26 2020-02-26 一种基于多策略融合的无人机跟踪方法

Country Status (1)

Country Link
CN (1) CN111369589B (zh)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016141100A2 (en) * 2015-03-03 2016-09-09 Prenav Inc. Scanning environments and tracking unmanned aerial vehicles
CN109099779A (zh) * 2018-08-31 2018-12-28 江苏域盾成鹫科技装备制造有限公司 一种无人机侦测与智能拦截***
CN109283491A (zh) * 2018-08-02 2019-01-29 哈尔滨工程大学 一种基于矢量探测单元的无人机定位***
CN109816695A (zh) * 2019-01-31 2019-05-28 中国人民解放军国防科技大学 一种复杂背景下的红外小型无人机目标检测与跟踪方法
CN110133573A (zh) * 2019-04-23 2019-08-16 四川九洲电器集团有限责任公司 一种基于多元传感器信息融合的自主低空无人机防御***
CN110262529A (zh) * 2019-06-13 2019-09-20 桂林电子科技大学 一种基于卷积神经网络的无人机监控方法及***
CN110398720A (zh) * 2019-08-21 2019-11-01 深圳耐杰电子技术有限公司 一种反无人机探测跟踪干扰***及光电跟踪***工作方法
CN110647931A (zh) * 2019-09-20 2020-01-03 深圳市网心科技有限公司 物体检测方法、电子设备、***及介质

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016141100A2 (en) * 2015-03-03 2016-09-09 Prenav Inc. Scanning environments and tracking unmanned aerial vehicles
CN109283491A (zh) * 2018-08-02 2019-01-29 哈尔滨工程大学 一种基于矢量探测单元的无人机定位***
CN109099779A (zh) * 2018-08-31 2018-12-28 江苏域盾成鹫科技装备制造有限公司 一种无人机侦测与智能拦截***
CN109816695A (zh) * 2019-01-31 2019-05-28 中国人民解放军国防科技大学 一种复杂背景下的红外小型无人机目标检测与跟踪方法
CN110133573A (zh) * 2019-04-23 2019-08-16 四川九洲电器集团有限责任公司 一种基于多元传感器信息融合的自主低空无人机防御***
CN110262529A (zh) * 2019-06-13 2019-09-20 桂林电子科技大学 一种基于卷积神经网络的无人机监控方法及***
CN110398720A (zh) * 2019-08-21 2019-11-01 深圳耐杰电子技术有限公司 一种反无人机探测跟踪干扰***及光电跟踪***工作方法
CN110647931A (zh) * 2019-09-20 2020-01-03 深圳市网心科技有限公司 物体检测方法、电子设备、***及介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于深度神经网络的低空弱小无人机目标检测研究;王靖宇等;《西北工业大学学报》;20180415(第02期);全文 *

Also Published As

Publication number Publication date
CN111369589A (zh) 2020-07-03

Similar Documents

Publication Publication Date Title
US11915502B2 (en) Systems and methods for depth map sampling
CN111326023B (zh) 一种无人机航线预警方法、装置、设备及存储介质
CN110988912B (zh) 自动驾驶车辆的道路目标与距离检测方法、***、装置
EP2771842B1 (en) Identification and analysis of aircraft landing sites
CN110866887A (zh) 一种基于多传感器的目标态势融合感知方法和***
CN110793544B (zh) 路侧感知传感器参数标定方法、装置、设备及存储介质
CN113050074B (zh) 无人驾驶环境感知中相机与激光雷达标定***及标定方法
CN110006444B (zh) 一种基于优化混合高斯模型的抗干扰视觉里程计构建方法
CN109697428B (zh) 基于rgb_d和深度卷积网络的无人机识别定位***
Ivanovas et al. Block matching based obstacle avoidance for unmanned aerial vehicle
Hartley et al. Using roads for autonomous air vehicle guidance
RU2513900C1 (ru) Способ и устройство определения координат объектов
Vitiello et al. Detection and tracking of non-cooperative flying obstacles using low SWaP radar and optical sensors: an experimental analysis
CN111369589B (zh) 一种基于多策略融合的无人机跟踪方法
US11244470B2 (en) Methods and systems for sensing obstacles in an indoor environment
CN114217303B (zh) 目标定位跟踪方法及装置、水下机器人和存储介质
RU2787946C1 (ru) Способ определения координат объектов и их распознавания
CN114322943B (zh) 一种基于无人机前视图像的目标距离测量方法及装置
Wang et al. Probability map based aerial target detection and localisation using networked cameras
CN118279770A (zh) 一种基于slam算法的无人机跟拍方法
CN118015089A (zh) 基于多维感知数据的地质勘探视觉标定方法和***
CN115880496A (zh) 点云信息的识别方法及装置
CN114217303A (zh) 目标定位跟踪方法及装置、水下机器人和存储介质
CN114581346A (zh) 一种面向城市低空遥感监测目标的多光谱影像融合方法
CN118115968A (zh) 障碍物检测方法、装置、设备以及计算机可读存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
EE01 Entry into force of recordation of patent licensing contract

Application publication date: 20200703

Assignee: Guangxi Huantai Aerospace Technology Co.,Ltd.

Assignor: GUILIN University OF ELECTRONIC TECHNOLOGY

Contract record no.: X2022450000392

Denomination of invention: A tracking method of uav based on multi strategy fusion

Granted publication date: 20220422

License type: Common License

Record date: 20221226

EE01 Entry into force of recordation of patent licensing contract