CN111369589B - 一种基于多策略融合的无人机跟踪方法 - Google Patents
一种基于多策略融合的无人机跟踪方法 Download PDFInfo
- Publication number
- CN111369589B CN111369589B CN202010120410.5A CN202010120410A CN111369589B CN 111369589 B CN111369589 B CN 111369589B CN 202010120410 A CN202010120410 A CN 202010120410A CN 111369589 B CN111369589 B CN 111369589B
- Authority
- CN
- China
- Prior art keywords
- unmanned aerial
- aerial vehicle
- image
- algorithm
- acquiring
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 25
- 230000004927 fusion Effects 0.000 title claims abstract description 20
- 238000001228 spectrum Methods 0.000 claims abstract description 10
- 238000011156 evaluation Methods 0.000 claims abstract description 5
- 238000012545 processing Methods 0.000 claims description 20
- 238000004364 calculation method Methods 0.000 claims description 8
- 238000012549 training Methods 0.000 claims description 5
- 238000006243 chemical reaction Methods 0.000 claims description 4
- 238000013527 convolutional neural network Methods 0.000 claims description 4
- 238000013178 mathematical model Methods 0.000 claims description 3
- 238000005070 sampling Methods 0.000 claims description 3
- 238000001514 detection method Methods 0.000 abstract description 8
- 238000013135 deep learning Methods 0.000 abstract 1
- 238000010586 diagram Methods 0.000 description 5
- 230000000007 visual effect Effects 0.000 description 4
- 210000002569 neuron Anatomy 0.000 description 3
- 241001292396 Cirrhitidae Species 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/12—Target-seeking control
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Multimedia (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
本发明公开了一种基于多策略融合的无人机跟踪方法,包括以深度学习网络中的Centernet网络为结构主体,结合频谱探测模块和舵机控制模块,提出了一种新的视觉与频谱联合评估算法,能够有效计算出视频图像里的无人机位置,并通过该位置的中心点控制摄像机舵机转动,能够在3公里范围内精准跟踪飞行中的无人机,并以更加直观的视觉跟踪方式将飞行中的无人机显示出来,解决了无人机飞行时跟踪困难的问题。
Description
技术领域
本发明涉及图像处理领域,尤其涉及一种基于多策略融合的无人机跟踪方法。
背景技术
无人机通常是指一种有动力、可控制、可执行多种任务,并能重复使用的无人驾驶飞行器。与有人驾驶飞机相比,无人机具有重量轻、雷达反射截面小、运行成本低、灵活性高且不存在机组人员安全问题等优点,可广泛用于侦察、攻击等军事任务;在民用方面,可用于气象探测、灾害监测、地质勘探、地图测绘等诸多领域,因此受到越来越多国家的重视,发展迅猛。
无人机的飞行速度较快,且一般具有独特的几何形状,表现为缺乏完整的结构信息,因此在飞行中跟踪困难。
发明内容
本发明的目的在于提供一种基于多策略融合的无人机跟踪方法,旨在解决无人机在飞行时跟踪困难的问题。
为实现上述目的,本发明提供了一种基于多策略融合的无人机跟踪方法,
包括:
基于Centernet网络对无人机图像样本进行训练,生成特征图;
获取无人机信号,并对无人机信号进行分析处理后得到无人机的方向参数;
基于无人机的方向参数输出控制信号控制摄像机镜头转动,采集无人机的视频图像,得到无人机的估计位置;
对采集的视频图像进行图像块加权处理,基于视觉与频谱联合评估算法,得到无人机在视频图像里的具***置;
基于opencv函数获取无人机的中心坐标,实时跟踪无人机。
其中,所述基于Centernet网络对无人机图像样本进行训练,生成特征图的具体步骤,是:
获取无人机图像输入RGB三通道,并基于卷积神经网络处理,输出预测值;
基于网络前向传播,提取特征,得到特征图。
其中,所述获取无人机信号,并对无人机信号进行分析处理后得到无人机的方向参数得具体步骤,是:
检测并获取3公里范围内的无人机信号;
基于使用环境进行数据融合;
通过下变频、A/D采样、数字信道化和阵列信号处理提取无人机信号参数;
基于不同天线的参数进行幅相一体化测向处理,并与数据库比对,得到无人机型号;
基于多站测向交叉定位体制进行定位,得到无人机方向参数。
其中,所述基于无人机的方向参数输出控制信号控制摄像机镜头转动,采集无人机的视频图像,得到无人机的估计位置的具体步骤,是
读取输出的无人机方向参数;
计算方向参数与图像中心的差值;
通过数学模型计算出云台的转动量;
通过位置PD算法进行控制云台转动,所述位置PD算法模型如下:
S(n)=Kpe(n)+Kd[e(n)-e(n-1)]。
其中,所述对采集的视频图像进行图像块加权处理,基于视觉与频谱联合评估算法,得到无人机在视频图像里的具***置的具体步骤,是:
将图像分为三个图像块,并赋予加权参数;
基于Centernet网络提取特征图每个类别的关键点;
对关键点进行置信度判断,获取具***置。
其中,所述对关键点进行置信度判断,获取具***置的具体步骤,是,
基于原始的Centernet算法对摄像机采集的原始图像进行第一次置信度判断,若特征图里的关键点小于阈值A,则摄像机放大固定倍数;
若特征图里的关键点大于阈值A,基于加权参数和特征响应值计算方式,使用Centernet算法进行二次置信度判断;
若二次置信度判断特征峰值大于阈值B,用opencv函数画框显示,并回传无人机在图像里的中心坐标(x,y)。
其中,所述特征响应值计算方式的具体计算步骤,是,
建立如下公式:
y(t)=(ω+B(n))x(t)t≥0,n≥0
其中,y(t)代表特征响应值,t代表特征点排序号,x(t)代表原始Centernet算法计算的每个特征点的响应值,ω代表图像块权重,B(n)表示摄像机每放大一次倍数提高的准确度,n代表摄像机放大倍数的次数;
B(n)=(1.1)nβn≥0
其中,β为初始常量。
本发明的一种基于多策略融合的无人机跟踪方法,使用基于多策略融合的无人机跟踪方法能够将频谱探测和视觉跟踪融为一体,在用频谱探测对无人机进行粗略定位后使用视觉跟踪实现对无人机位置的准确定位,同时以更加直观的形式将无人机在视频中的位置标示出来,方便无人机使用者和监测者能够更加清楚地观察无人机的位置。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明的一种基于多策略融合的无人机跟踪方法的流程图;
图2是本发明的一种基于多策略融合的无人机跟踪方法的运行框图;
图3是本发明的一种基于多策略融合的无人机跟踪方法的图像分块图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本发明,而不能理解为对本发明的限制。
在本发明的描述中,需要理解的是,术语“长度”、“宽度”、“上”、“下”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。此外,在本发明的描述中,“多个”的含义是两个或两个以上,除非另有明确具体的限定。
实施例
请参阅图1,本发明的一种基于多策略融合的无人机跟踪方法,包括:
S101、基于Centernet网络对无人机图像样本进行训练,生成特征图。
获取无人机图像输入RGB三通道,并基于卷积神经网络处理,输出预测值;
24bit RGB图像也叫全彩图,其有三个通道,分别为R(red),G(green),B(blue),用halcon程序以及halcon自带图像进行理解RGB图像和灰度值。三通道图像的灰度值是三个单通道的灰度值的组合。灰度值为0-255,每个通道都是0-255,值越大图像看起来越亮,值越小图像越暗。在三通道图像上看到哪部分的哪种颜色越深,证明在该部分的哪种颜色分量越大,反应到该单通道上越亮。
基于网络前向传播,提取特征,得到特征图。
网络前向传播是一个神经元有多个输入和一个输出,每个神经元的输入既可以是其他神经元的输出也可以是整个神经网络的输入。特征图(featuremap)相当于卷积神经网络提取原始图像特征之后形成的图像,从概率大小的角度来看,特征图里的每个类型的点都有自己的概率,即响应值,这就形成了热点图(heatmap),反应的是颜色深度,即响应值大小,响应值最大的点就是跟踪目标所在的点。
S102、获取无人机信号,并对无人机信号进行分析处理后得到无人机的方向参数。
开启摄像头,开启频谱探测模块,此时由频谱探测模块拥有舵机控制模块的所有权,检测并捕获3公里范围内的无人机信号,信号数据根据使用环境进行数据融合;截获地面遥控器发出的遥控器信号和无人机下传的图传信号,通过下变频、A/D采样、数字信道化和阵列信号处理提取信号参数;根据不同天线的参数进行幅相一体化测向处理,通过实测参数与数据库比对,得到无人机型号;基于多站测向交叉定位体制进行定位,得到无人机的方向参数。
S103、基于无人机的方向参数输出控制信号控制摄像机镜头转动,采集无人机的视频图像,得到无人机的估计位置。
读取输出的无人机方向参数,如无人机相对于摄像机的方向,角度等;计算方向参数与图像中心的差值;通过数学模型计算出云台的转动量;通过位置PD算法进行控制云台转动,所述位置PD算法模型如下:
S(n)=Kpe(n)+Kd[e(n)-e(n-1)]
其中,Kp为比例控制参数,Td为微分控制参数,e(n)为当前状态值与目标值之间的差值。
摄像机图像的中心位置即为无人机的估计位置。
S104、对采集的视频图像进行图像块加权处理,基于视觉与频谱联合评估算法,得到无人机在视频图像里的具***置。
将采集的1920*1080大小的视频图像以(960,540)为图像中心点,如图3所示,将整张图像分为3个图像块,分别为image_inside,image_middle,image_outside。image_inside表示图像的正中间部分,image_inside图像块里理应具有较大的可能性存在无人机目标,而image_outside远离图像中心,理应具有较小的可能性存在无人机目标。设image_inside,image_middle,image_outside的参数分别为ω1,ω2,ω3,则ω2=0.8ω1,ω3=0.4ω1。
Centernet检测器将特征图上的所有特征点与其连接的8个临近点进行比较,如果该点响应值大于或等于其八个临近点值则保留,得到所有满足要求的前100个关键点。
请参阅图2,使用Centernet算法对摄像机采集的原始图像进行第一次置信度判断,若特征图里的关键点小于阈值A,则摄像机放大固定倍数,n加1,更新B(n);若特征图里的关键点大于阈值A则进行第二次置信度判断,此时在摄像机采集视频里引入图像块权重,采用特征响应值计算方式,使用Centernet算法再次进行置信度判断。最后,若经过第二次置信度判断,特征峰值大于阈值B,则确定跟踪目标,用opencv函数画框显示,并回传无人机在图像里的中心坐标(x,y),此时视觉跟踪模块重新拥有舵机控制权,通过(x,y)重新控制舵机转动。
本算法在在引入图像块权重的基础上,设计了一种新的特征响应值计算方式,如下:
y(t)=(ω+B(n))x(t)t≥0,n≥0
其中t代表特征点排序号,x(t)代表原始Centernet算法计算的每个特征点的响应值,y(t)代表最终每个特征点的的响应值。ω代表图像块权重,根据3个不同的区域image_inside,image_middle,image_outside分为3个不同的值,分别为ω1,ω2,ω3,其中ω2=0.8ω1,ω3=0.4ω1。B(n)是一个线性增加的函数,用来表示摄像机每放大一次倍数(固定倍数),图像的分辨率越高,Centernet跟踪算法的准确度也就越高,其中n代表摄像机放大倍数的次数,方程如下:
B(n)=(1.1)nβn≥0
其中,β为初始常量。
S105、基于opencv函数获取无人机的中心坐标,实时跟踪无人机。
确定无人机在视频图像里的位置后,使用opencv函数画出无人机所在的矩形框,计算并回传矩形框的中心坐标(x,y),舵机控制所有权交给视觉跟踪模块,通过该中心坐标重新控制舵机转动,实时跟踪无人机。
以上所揭露的仅为本发明一种较佳实施例而已,当然不能以此来限定本发明之权利范围,本领域普通技术人员可以理解实现上述实施例的全部或部分流程,并依本发明权利要求所作的等同变化,仍属于发明所涵盖的范围。
Claims (5)
1.一种基于多策略融合的无人机跟踪方法,其特征在于,
包括:
基于Centernet网络对无人机图像样本进行训练,生成特征图;
获取无人机信号,并对无人机信号进行分析处理后得到无人机的方向参数;
基于无人机的方向参数输出控制信号控制摄像机镜头转动,采集无人机的视频图像,得到无人机的估计位置;
对采集的视频图像进行图像块加权处理,基于视觉与频谱联合评估算法,得到无人机在视频图像里的具***置,具体步骤是:将图像分为三个图像块,并赋予加权参数;基于Centernet网络提取特征图每个类别的关键点;对关键点进行置信度判断,获取具***置,具体步骤是基于Centernet算法对摄像机采集的原始图像进行第一次置信度判断,若特征图里的关键点小于阈值A,则摄像机放大固定倍数;若特征图里的关键点大于阈值A,基于加权参数和特征响应值计算方式,使用Centernet算法进行二次置信度判断;若二次置信度判断特征峰值大于阈值B,用opencv函数画框显示,并回传无人机在图像里的中心坐标(x,y);
基于opencv函数获取无人机的中心坐标,实时跟踪无人机。
2.如权利要求1所述的一种基于多策略融合的无人机跟踪方法,其特征在于,所述基于Centernet网络对无人机图像样本进行训练,生成特征图的具体步骤,是:
获取无人机图像输入RGB三通道,并基于卷积神经网络处理,输出预测值;
基于网络前向传播,提取特征,得到特征图。
3.如权利要求1所述的一种基于多策略融合的无人机跟踪方法,其特征在于,所述获取无人机信号,并对无人机信号进行分析处理后得到无人机的方向参数得具体步骤,是:
检测并获取3公里范围内的无人机信号;
基于使用环境进行数据融合;
通过下变频、A/D采样、数字信道化和阵列信号处理提取无人机信号参数;
基于不同天线的参数进行幅相一体化测向处理,并与数据库比对,得到无人机型号;
基于多站测向交叉定位体制进行定位,得到无人机方向参数。
5.如权利要求1所述的一种基于多策略融合的无人机跟踪方法,其特征在于,所述特征响应值计算方式的计算公式,是,
y(t)=(ω+B(n))x(t)t≥0,n≥0
其中,y(t)代表特征响应值,t代表特征点排序号,x(t)代表原始Centernet算法计算的每个特征点的响应值,ω代表图像块权重,B(n)表示摄像机每放大一次倍数提高的准确度,n代表摄像机放大倍数的次数;
B(n)=(1.1)nβn≥0
其中,β为初始常量。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010120410.5A CN111369589B (zh) | 2020-02-26 | 2020-02-26 | 一种基于多策略融合的无人机跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010120410.5A CN111369589B (zh) | 2020-02-26 | 2020-02-26 | 一种基于多策略融合的无人机跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111369589A CN111369589A (zh) | 2020-07-03 |
CN111369589B true CN111369589B (zh) | 2022-04-22 |
Family
ID=71211009
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010120410.5A Active CN111369589B (zh) | 2020-02-26 | 2020-02-26 | 一种基于多策略融合的无人机跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111369589B (zh) |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016141100A2 (en) * | 2015-03-03 | 2016-09-09 | Prenav Inc. | Scanning environments and tracking unmanned aerial vehicles |
CN109099779A (zh) * | 2018-08-31 | 2018-12-28 | 江苏域盾成鹫科技装备制造有限公司 | 一种无人机侦测与智能拦截*** |
CN109283491A (zh) * | 2018-08-02 | 2019-01-29 | 哈尔滨工程大学 | 一种基于矢量探测单元的无人机定位*** |
CN109816695A (zh) * | 2019-01-31 | 2019-05-28 | 中国人民解放军国防科技大学 | 一种复杂背景下的红外小型无人机目标检测与跟踪方法 |
CN110133573A (zh) * | 2019-04-23 | 2019-08-16 | 四川九洲电器集团有限责任公司 | 一种基于多元传感器信息融合的自主低空无人机防御*** |
CN110262529A (zh) * | 2019-06-13 | 2019-09-20 | 桂林电子科技大学 | 一种基于卷积神经网络的无人机监控方法及*** |
CN110398720A (zh) * | 2019-08-21 | 2019-11-01 | 深圳耐杰电子技术有限公司 | 一种反无人机探测跟踪干扰***及光电跟踪***工作方法 |
CN110647931A (zh) * | 2019-09-20 | 2020-01-03 | 深圳市网心科技有限公司 | 物体检测方法、电子设备、***及介质 |
-
2020
- 2020-02-26 CN CN202010120410.5A patent/CN111369589B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016141100A2 (en) * | 2015-03-03 | 2016-09-09 | Prenav Inc. | Scanning environments and tracking unmanned aerial vehicles |
CN109283491A (zh) * | 2018-08-02 | 2019-01-29 | 哈尔滨工程大学 | 一种基于矢量探测单元的无人机定位*** |
CN109099779A (zh) * | 2018-08-31 | 2018-12-28 | 江苏域盾成鹫科技装备制造有限公司 | 一种无人机侦测与智能拦截*** |
CN109816695A (zh) * | 2019-01-31 | 2019-05-28 | 中国人民解放军国防科技大学 | 一种复杂背景下的红外小型无人机目标检测与跟踪方法 |
CN110133573A (zh) * | 2019-04-23 | 2019-08-16 | 四川九洲电器集团有限责任公司 | 一种基于多元传感器信息融合的自主低空无人机防御*** |
CN110262529A (zh) * | 2019-06-13 | 2019-09-20 | 桂林电子科技大学 | 一种基于卷积神经网络的无人机监控方法及*** |
CN110398720A (zh) * | 2019-08-21 | 2019-11-01 | 深圳耐杰电子技术有限公司 | 一种反无人机探测跟踪干扰***及光电跟踪***工作方法 |
CN110647931A (zh) * | 2019-09-20 | 2020-01-03 | 深圳市网心科技有限公司 | 物体检测方法、电子设备、***及介质 |
Non-Patent Citations (1)
Title |
---|
基于深度神经网络的低空弱小无人机目标检测研究;王靖宇等;《西北工业大学学报》;20180415(第02期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN111369589A (zh) | 2020-07-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11915502B2 (en) | Systems and methods for depth map sampling | |
CN111326023B (zh) | 一种无人机航线预警方法、装置、设备及存储介质 | |
CN110988912B (zh) | 自动驾驶车辆的道路目标与距离检测方法、***、装置 | |
EP2771842B1 (en) | Identification and analysis of aircraft landing sites | |
CN110866887A (zh) | 一种基于多传感器的目标态势融合感知方法和*** | |
CN110793544B (zh) | 路侧感知传感器参数标定方法、装置、设备及存储介质 | |
CN113050074B (zh) | 无人驾驶环境感知中相机与激光雷达标定***及标定方法 | |
CN110006444B (zh) | 一种基于优化混合高斯模型的抗干扰视觉里程计构建方法 | |
CN109697428B (zh) | 基于rgb_d和深度卷积网络的无人机识别定位*** | |
Ivanovas et al. | Block matching based obstacle avoidance for unmanned aerial vehicle | |
Hartley et al. | Using roads for autonomous air vehicle guidance | |
RU2513900C1 (ru) | Способ и устройство определения координат объектов | |
Vitiello et al. | Detection and tracking of non-cooperative flying obstacles using low SWaP radar and optical sensors: an experimental analysis | |
CN111369589B (zh) | 一种基于多策略融合的无人机跟踪方法 | |
US11244470B2 (en) | Methods and systems for sensing obstacles in an indoor environment | |
CN114217303B (zh) | 目标定位跟踪方法及装置、水下机器人和存储介质 | |
RU2787946C1 (ru) | Способ определения координат объектов и их распознавания | |
CN114322943B (zh) | 一种基于无人机前视图像的目标距离测量方法及装置 | |
Wang et al. | Probability map based aerial target detection and localisation using networked cameras | |
CN118279770A (zh) | 一种基于slam算法的无人机跟拍方法 | |
CN118015089A (zh) | 基于多维感知数据的地质勘探视觉标定方法和*** | |
CN115880496A (zh) | 点云信息的识别方法及装置 | |
CN114217303A (zh) | 目标定位跟踪方法及装置、水下机器人和存储介质 | |
CN114581346A (zh) | 一种面向城市低空遥感监测目标的多光谱影像融合方法 | |
CN118115968A (zh) | 障碍物检测方法、装置、设备以及计算机可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
EE01 | Entry into force of recordation of patent licensing contract |
Application publication date: 20200703 Assignee: Guangxi Huantai Aerospace Technology Co.,Ltd. Assignor: GUILIN University OF ELECTRONIC TECHNOLOGY Contract record no.: X2022450000392 Denomination of invention: A tracking method of uav based on multi strategy fusion Granted publication date: 20220422 License type: Common License Record date: 20221226 |
|
EE01 | Entry into force of recordation of patent licensing contract |