CN115526906A - 一种无人机目标跟踪方法、***、无人机云台及无人机 - Google Patents

一种无人机目标跟踪方法、***、无人机云台及无人机 Download PDF

Info

Publication number
CN115526906A
CN115526906A CN202211084874.0A CN202211084874A CN115526906A CN 115526906 A CN115526906 A CN 115526906A CN 202211084874 A CN202211084874 A CN 202211084874A CN 115526906 A CN115526906 A CN 115526906A
Authority
CN
China
Prior art keywords
tracking
unmanned aerial
aerial vehicle
tracker
confidence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211084874.0A
Other languages
English (en)
Inventor
胡华智
何炜雄
胡海生
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ehang Intelligent Equipment Guangzhou Co Ltd
Original Assignee
Ehang Intelligent Equipment Guangzhou Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ehang Intelligent Equipment Guangzhou Co Ltd filed Critical Ehang Intelligent Equipment Guangzhou Co Ltd
Priority to CN202211084874.0A priority Critical patent/CN115526906A/zh
Publication of CN115526906A publication Critical patent/CN115526906A/zh
Priority to PCT/CN2023/116204 priority patent/WO2024051574A1/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

本发明提出一种无人机目标跟踪方法、***、无人机云台及无人机,涉及无人驾驶航空器技术领域,在获取了目标图像后,首先引入两个置信度阈值,考虑基于相关滤波算法及其变形的***的跟踪帧率高,但容易跟丢目标的特点,结合基于深度学习的***跟踪帧率低,但不易跟丢目标的特点,将两种***配合,最后根据不同***跟踪结果置信度与两个置信度阈值的比较,基于比较结果确定最终目标跟踪结果,在保证跟踪帧率的前提下,有效地解决由于目标运动较快、短暂被遮挡等情况出现导致的目标丢失、跟错的问题,增强了视觉目标跟踪能力,兼顾帧率及准确性。

Description

一种无人机目标跟踪方法、***、无人机云台及无人机
技术领域
本发明涉及无人驾驶航空器技术领域,特别是涉及一种无人机目标跟踪方法、***、无人机云台及无人机。
背景技术
随着电子信息技术的发展,无人机广泛应用于各个领域,其在执行任务过程中需要跟踪目标物。视觉跟踪是指对图像序列中的运动目标进行检测、提取、识别和跟踪,获得运动目标的运动参数,如位置、速度、加速度和运动轨迹等,从而进行下一步的处理与分析,实现对运动目标的行为理解,以完成更高一级的检测任务。
当前应用于无人机的视觉跟踪方法,大部分通过相关滤波的方式对图像帧的目标进行跟踪,相关滤波视觉跟踪算法具有运算速度快、帧率高的优点,现有技术中公开了一种结合相关滤波与视觉显著性的低空慢速无人机跟踪方法,通过相关滤波算法对目标进行跟踪,再利用视觉显著性算法构建检测器对目标进行检测,随后对上述算法的输出进行稳定性判别,再将两算法进行融合,最后输出融合后的结果。本发明针对跟踪无人机尤其是在目标较小与复杂背景情况下具有良好的跟踪效果、并能进行实时计算、实用性强,然而相关滤波跟踪算法在目标运动较快、目标出现轻微的非刚性形变、目标短暂被遮挡等情况下容易出现目标丢失甚至出现跟错目标的问题,且目标丢失后不能对目标进行全局找回,导致跟踪失败。
近年来,一些基于机器学习的跟踪算法逐渐兴起,基于机器学习的跟踪算法具有跟踪鲁棒性高、可全局重定位的优点,但大部分基于机器学习的跟踪方法需要较大的运算资源才能保证帧率,而无人机对于重量及功耗特别敏感,难以为基于机器学习的跟踪算法提供足够运算能力以保证帧率。
发明内容
为解决无人机在目标跟踪时,无法兼顾目标跟踪帧率与目标跟踪准确性的问题,本发明提出一种无人机目标跟踪方法、***、无人机云台及无人机,在保证跟踪帧率的前提下,有效地解决由于目标运动较快、短暂被遮挡等情况出现导致的目标丢失、跟错的问题,增强了视觉跟踪能力,兼顾帧率及准确性。
为了达到上述技术效果,本发明的技术方案如下:
一种无人机目标跟踪方法,所述方法包括以下步骤:
S1.获取当前目标图像;
S2.设置第一置信度阈值T1与第二置信度阈值T2,分别利用任意基于相关滤波算法及其变形的***与任意基于深度学习的***同时对目标图像当前帧进行跟踪;
S3.分别确定S2中的***对目标图像当前帧的跟踪结果置信度,并设为第一跟踪结果置信度与第二跟踪结果置信度;
S4.将第一跟踪结果置信度与第一置信度阈值T1比较、第二跟踪结果置信度与第二置信度阈值T2比较,根据比较结果确定最终目标跟踪结果。
本技术方案实现了无人机的目标跟踪功能,可应用于无人机空中飞行时,无人机云台对地上、高楼或空中的静态或动态物体的跟踪,在获取了目标图像后,首先引入两个置信度阈值,考虑基于相关滤波算法及其变形的***的跟踪帧率高,但容易跟丢目标的特点,结合基于深度学习的***跟踪帧率低,但不易跟丢目标的特点,将两种***配合,最后根据不同***跟踪结果置信度与两个置信度阈值的比较,基于比较结果确定最终目标跟踪结果,增强了无人机目标跟踪能力,且兼顾帧率及准确性。
优选地,基于相关滤波算法及其变形的***与基于深度学习的***处于不同的线程中,分别以设定频率运行,在保证了同时跟踪且互不干扰。
优选地,获取当前目标图像后,确定当前目标图像的帧状态,包括初始帧状态与非初始帧状态,若当前目标图像的帧状态为初始帧状态,则对基于相关滤波算法及其变形的***与基于深度学习的***均进行初始化,再一次获取当前目标图像;若当前目标图像的帧状态为非初始帧状态,则执行步骤S2。
优选地,第一跟踪结果置信度为基于相关滤波算法及其变形的***对目标图像当前帧的跟踪结果置信度,在步骤S4中,将第一跟踪结果置信度与第一置信度阈值T1比较的过程为:
判断第一跟踪结果置信度是否高于第一置信度阈值T1,若是,将基于相关滤波算法及其变形的***对目标图像当前帧的跟踪结果作为最终目标跟踪结果,并执行是否确认是否结束跟踪的步骤;否则,将第二跟踪结果置信度与第二置信度阈值T2比较;
若确认结束跟踪,则结束;否则,返回步骤S1。
在此,当第一跟踪结果置信度高于第一置信度阈值T1时,说明基于相关滤波算法及其变形的***保持对目标的跟踪,目标为丢失,则将跟踪结果作为最红目标跟踪结果。
优选地,第二跟踪结果置信度为基于深度学习的***对目标图像当前帧的跟踪结果置信度,第二跟踪结果置信度与第二置信度阈值T2比较的过程为:
判断第二跟踪结果置信度是否高于第二置信度阈值T2,若是,则将基于深度学习的***对目标图像当前帧的跟踪结果作为最终目标跟踪结果,并利用该跟踪结果对基于相关滤波算法及其变形的***重新进行初始化,并执行是否确认是否结束跟踪的步骤;否则,判定当前帧目标丢失,返回步骤S1;
若确认结束跟踪,则结束;否则,返回步骤S1。
在此,当第一跟踪结果置信度不高于第一置信度阈值T1时,说明基于相关滤波算法及其变形的***跟丢目标,但同时基于深度学习的***仍保持对目标的跟踪,因此将基于深度学习的***对目标图像当前帧的跟踪结果作为最终目标跟踪结果,又因为基于深度学习的***此时能够跟踪识别目标,利用该跟踪结果对基于相关滤波算法及其变形的***重新进行初始化,使得基于相关滤波算法及其变形的***对该目标结果进行跟踪,在确认结束跟踪后,结束目标跟踪流程。
优选地,对基于相关滤波算法及其变形的***重新进行初始化时,将基于深度学习的***对目标图像当前帧的跟踪结果输入基于相关滤波算法及其变形的***,使得基于相关滤波算法及其变形的***获得目标,对该目标进行跟踪。
优选地,所述基于相关滤波算法及其变形的***为KCF***。
优选地,所述基于深度学习的***SiamRPN***,SiamRPN的网络结构包括Siamese Network孪生神经网络和Region Proposal Network区域生成网络RPN两部分,Siamese Network用来提取图片特征,RPN用来预测目标的位置和置信度。
本发明还提出一种无人机目标跟踪***,所述***包括:
目标图像获取装置,用于获取当前目标图像;
第一***,为任意基于相关滤波算法及其变形的***;
第二***,为任意基于深度学习的***;
设置第一置信度阈值T1与第二置信度阈值T2,第一***与第二***用于同时对目标图像当前帧进行跟踪,分别得到对目标图像当前帧的跟踪结果置信度,并设为第一跟踪结果置信度与第二跟踪结果置信度;
双阈值比较装置,用于将第一跟踪结果置信度与第一置信度阈值T1比较、第二跟踪结果置信度与第二置信度阈值T2比较,根据比较结果确定最终目标跟踪结果。
优选地,所述第一***与第二***处于不同的线程中,分别以设定频率运行。
本申请提出一种无人机云台,所述无人机云台上包括无人机目标跟踪***,能够实现所述的无人机目标跟踪方法。
本申请提出一种无人机,所述无人机上设有无人机云台,所述无人机能够实现所述的无人机目标跟踪方法。
与现有技术相比,本发明技术方案的有益效果是:
本发明提出一种无人机目标跟踪方法、***、无人机云台及无人机,在获取了目标图像后,首先引入两个置信度阈值,考虑基于相关滤波算法及其变形的***的跟踪帧率高,但容易跟丢目标的特点,结合基于深度学习的***跟踪帧率低,但不易跟丢目标的特点,将两种***配合,最后根据不同***跟踪结果置信度与两个置信度阈值的比较,基于比较结果确定最终目标跟踪结果,在保证跟踪帧率的前提下,有效地解决由于目标运动较快、短暂被遮挡等情况出现导致的目标丢失、跟错的问题,增强了视觉跟踪能力,兼顾帧率及准确性。
附图说明
图1表示本发明实施例1中提出的一种无人机目标跟踪方法的流程示意图;
图2表示本发明实施例2中提出的另一种无人机目标跟踪方法的流程示意图;
图3表示本发明实施例3提出的无人机视觉跟踪***的结构示意图。
具体实施方式
附图仅用于示例性说明,不能理解为对本专利的限制;
为了更好地说明本实施例,附图某些部位会有省略、放大或缩小,并不代表实际尺寸;
对于本领域技术人员来说,附图中某些公知内容说明可能省略是可以理解的。
下面结合附图和实施例对本发明的技术方案做进一步的说明。
附图中描述位置关系的仅用于示例性说明,不能理解为对本专利的限制;
实施例1
本实施例提出一种无人机目标跟踪方法,该方法的流程示意图如图1所示,所述方法包括以下步骤:
S1.获取当前目标图像;
S2.设置第一置信度阈值T1与第二置信度阈值T2,分别利用任意基于相关滤波算法及其变形的***与任意基于深度学习的***同时对目标图像当前帧进行跟踪;
S3.分别确定S2中的***对目标图像当前帧的跟踪结果置信度,并设为第一跟踪结果置信度与第二跟踪结果置信度;
S4.将第一跟踪结果置信度与第一置信度阈值T1比较、第二跟踪结果置信度与第二置信度阈值T2比较,根据比较结果确定最终目标跟踪结果。
基于相关滤波算法及其变形的***与基于深度学习的***处于不同的线程中,分别以设定频率运行,在保证了同时跟踪且互不干扰。
在本实施例中,第一跟踪结果置信度为基于相关滤波算法及其变形的***对目标图像当前帧的跟踪结果置信度,第二跟踪结果置信度为基于深度学习的***对目标图像当前帧的跟踪结果置信度。
在本实施例中,基于相关滤波算法及其变形的***为选用KCF***,基于深度学习的***SiamRPN***,SiamRPN的网络结构包括Siamese Network孪生神经网络和Region Proposal Network区域生成网络RPN两部分,Siamese Network用来提取图片特征,RPN用来预测目标的位置和置信度。
获取当前目标图像后,确定当前目标图像的帧状态,包括初始帧状态与非初始帧状态,若当前目标图像的帧状态为初始帧状态,则对基于相关滤波算法及其变形的***与基于深度学习的***均进行初始化,再一次获取当前目标图像;若当前目标图像的帧状态为非初始帧状态,则执行步骤S2。
本实施例中提出的方法实现了无人机的目标跟踪功能,可应用于无人机空中飞行时,无人机云台对地上、高楼或空中的静态或动态物体的跟踪,在获取了目标图像后,首先引入两个置信度阈值,考虑基于相关滤波算法及其变形的***的跟踪帧率高,但容易跟丢目标的特点,结合基于深度学习的***跟踪帧率低,但不易跟丢目标的特点,将两种***配合,最后根据不同***跟踪结果置信度与两个置信度阈值的比较,基于比较结果确定最终目标跟踪结果,增强了无人机目标跟踪能力,且兼顾帧率及准确性。
实施例2
本实施例提出了另一种无人机目标跟踪方法,所述方法的流程示意图参见图2,包括:
S101.获取当前目标图像;
S102.确定当前目标图像的帧状态,若当前目标图像的帧状态为初始帧状态,则对基于相关滤波算法及其变形的***与基于深度学习的***均进行初始化,返回S101再一次获取当前目标图像;若当前目标图像的帧状态为非初始帧状态,则执行步骤S103;
S103.设置第一置信度阈值T1与第二置信度阈值T2,分别利用任意基于相关滤波算法及其变形的***与任意基于深度学习的***同时对目标图像当前帧进行跟踪;
S104.分别确定S103中的***对目标图像当前帧的跟踪结果置信度,并设为第一跟踪结果置信度与第二跟踪结果置信度;
S105.将第一跟踪结果置信度与第一置信度阈值T1比较、第二跟踪结果置信度与第二置信度阈值T2比较:
S106.判断第一跟踪结果置信度是否高于第一置信度阈值T1,若是,将基于相关滤波算法及其变形的***对目标图像当前帧的跟踪结果作为最终目标跟踪结果,执行步骤S108;否则,将第二跟踪结果置信度与第二置信度阈值T2比较;
具体为:
S107.判断第二跟踪结果置信度是否高于第二置信度阈值T2,若是,则将基于深度学习的***对目标图像当前帧的跟踪结果作为最终目标跟踪结果,并利用该跟踪结果对基于相关滤波算法及其变形的***重新进行初始化,执行步骤S108,否则,判定当前帧目标丢失,返回步骤S101;
S108.确认是否结束跟踪,若是,结束,否则,返回步骤S101。
在此,当第一跟踪结果置信度高于第一置信度阈值T1时,说明基于相关滤波算法及其变形的***保持对目标的跟踪,目标为丢失,则将跟踪结果作为最红目标跟踪结果;当第一跟踪结果置信度不高于第一置信度阈值T1时,说明基于相关滤波算法及其变形的***跟丢目标,但同时基于深度学习的***仍保持对目标的跟踪,因此将基于深度学习的***对目标图像当前帧的跟踪结果作为最终目标跟踪结果,又因为基于深度学习的***此时能够跟踪识别目标,利用该跟踪结果对基于相关滤波算法及其变形的***重新进行初始化,使得基于相关滤波算法及其变形的***对该目标结果进行跟踪。
对基于相关滤波算法及其变形的***重新进行初始化时,将基于深度学习的***对目标图像当前帧的跟踪结果输入基于相关滤波算法及其变形的***,使得基于相关滤波算法及其变形的***获得目标,对该目标进行跟踪。
在本实施例中,基于相关滤波算法及其变形的***为KCF***,基于深度学习的***SiamRPN***,SiamRPN的网络结构包括Siamese Network孪生神经网络和Region Proposal Network区域生成网络RPN两部分,Siamese Network用来提取图片特征,RPN用来预测目标的位置和置信度。
实施例3
如图3所示,本实施例提出一种无人机目标跟踪***,所述***包括:
目标图像获取装置101,用于获取当前目标图像;
第一***102,为任意基于相关滤波算法及其变形的***;
第二***103,为任意基于深度学习的***;
设置第一置信度阈值T1与第二置信度阈值T2,第一***与第二***用于同时对目标图像当前帧进行跟踪,分别得到对目标图像当前帧的跟踪结果置信度,并设为第一跟踪结果置信度与第二跟踪结果置信度;
双阈值比较装置104,用于将第一跟踪结果置信度与第一置信度阈值T1比较、第二跟踪结果置信度与第二置信度阈值T2比较,根据比较结果确定最终目标跟踪结果。
在本实施例中,第一***与第二***处于不同的线程中,分别以设定频率运行。
实施例4
本申请提出一种无人机云台,所述无人机云台上包括所述的无人机目标跟踪***,能够实现所述的无人机目标跟踪方法
实施例5
本申请提出一种无人机,所述无人机上设有无人机云台,所述无人机能够实现所述的无人机目标跟踪方法。
显然,本发明的上述实施例仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。

Claims (12)

1.一种无人机目标跟踪方法,其特征在于,所述方法包括以下步骤:
S1.获取当前目标图像;
S2.设置第一置信度阈值T1与第二置信度阈值T2,分别利用任意基于相关滤波算法及其变形的***与任意基于深度学习的***同时对目标图像当前帧进行跟踪;
S3.分别确定S2中的***对目标图像当前帧的跟踪结果置信度,并设为第一跟踪结果置信度与第二跟踪结果置信度;
S4.将第一跟踪结果置信度与第一置信度阈值T1比较、第二跟踪结果置信度与第二置信度阈值T2比较,根据比较结果确定最终目标跟踪结果。
2.根据权利要求1所述的无人机目标跟踪方法,其特征在于,基于相关滤波算法及其变形的***与基于深度学习的***处于不同的线程中,分别以设定频率运行。
3.根据权利要求2所述的无人机目标跟踪方法,其特征在于,获取当前目标图像后,确定当前目标图像的帧状态,包括初始帧状态与非初始帧状态,若当前目标图像的帧状态为初始帧状态,则对基于相关滤波算法及其变形的***与基于深度学习的***均进行初始化,再一次获取当前目标图像;若当前目标图像的帧状态为非初始帧状态,则执行步骤S2。
4.根据权利要求3所述的无人机目标跟踪方法,其特征在于,第一跟踪结果置信度为基于相关滤波算法及其变形的***对目标图像当前帧的跟踪结果置信度,在步骤S4中,将第一跟踪结果置信度与第一置信度阈值T1比较的过程为:
判断第一跟踪结果置信度是否高于第一置信度阈值T1,若是,将基于相关滤波算法及其变形的***对目标图像当前帧的跟踪结果作为最终目标跟踪结果,并执行确认是否结束跟踪的步骤;否则,将第二跟踪结果置信度与第二置信度阈值T2比较;
若确认结束跟踪,则结束;否则,返回步骤S1。
5.根据权利要求4所述的无人机目标跟踪方法,其特征在于,第二跟踪结果置信度为基于深度学习的***对目标图像当前帧的跟踪结果置信度,第二跟踪结果置信度与第二置信度阈值T2比较的过程为:
判断第二跟踪结果置信度是否高于第二置信度阈值T2,若是,则将基于深度学习的***对目标图像当前帧的跟踪结果作为最终目标跟踪结果,并利用该跟踪结果对基于相关滤波算法及其变形的***重新进行初始化,并执行确认是否结束跟踪的步骤;否则,判定当前帧目标丢失,返回步骤S1;
若确认结束跟踪,则结束;否则,返回步骤S1。
6.根据权利要求5所述的无人机目标跟踪方法,其特征在于,对基于相关滤波算法及其变形的***重新进行初始化时,将基于深度学习的***对目标图像当前帧的跟踪结果输入基于相关滤波算法及其变形的***,使得基于相关滤波算法及其变形的***获得目标,对该目标进行跟踪。
7.根据权利要求1~6任意一项所述的无人机目标跟踪方法,其特征在于,所述基于相关滤波算法及其变形的***为KCF***。
8.根据权利要求1~6任意一项所述的无人机目标跟踪方法,其特征在于,所述基于深度学习的***SiamRPN***,SiamRPN的网络结构包括Siamese Network孪生神经网络和Region Proposal Network区域生成网络RPN两部分,Siamese Network用来提取图片特征,RPN用来预测目标的位置和置信度。
9.一种无人机目标跟踪***,其特征在于,所述***包括:
目标图像获取装置,用于获取当前目标图像;
第一***,为任意基于相关滤波算法及其变形的***;
第二***,为任意基于深度学习的***;
设置第一置信度阈值T1与第二置信度阈值T2,第一***与第二***用于同时对目标图像当前帧进行跟踪,分别得到对目标图像当前帧的跟踪结果置信度,并设为第一跟踪结果置信度与第二跟踪结果置信度;
双阈值比较装置,用于将第一跟踪结果置信度与第一置信度阈值T1比较、第二跟踪结果置信度与第二置信度阈值T2比较,根据比较结果确定最终目标跟踪结果。
10.根据权利要求9所述的无人机目标跟踪***,其特征在于,所述第一***与第二***处于不同的线程中,分别以设定频率运行。
11.一种无人机云台,其特征在于,所述无人机云台上包括权利要求9或10所述的无人机目标跟踪***,能够实现权利要求1~6任意一项所述的无人机目标跟踪方法。
12.一种无人机,其特征在于,所述无人机上设有无人机云台,所述无人机能够实现实现权利要求1~6任意一项所述的无人机目标跟踪方法。
CN202211084874.0A 2022-09-06 2022-09-06 一种无人机目标跟踪方法、***、无人机云台及无人机 Pending CN115526906A (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202211084874.0A CN115526906A (zh) 2022-09-06 2022-09-06 一种无人机目标跟踪方法、***、无人机云台及无人机
PCT/CN2023/116204 WO2024051574A1 (zh) 2022-09-06 2023-08-31 一种无人机目标跟踪方法、***、无人机云台及无人机

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211084874.0A CN115526906A (zh) 2022-09-06 2022-09-06 一种无人机目标跟踪方法、***、无人机云台及无人机

Publications (1)

Publication Number Publication Date
CN115526906A true CN115526906A (zh) 2022-12-27

Family

ID=84696996

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211084874.0A Pending CN115526906A (zh) 2022-09-06 2022-09-06 一种无人机目标跟踪方法、***、无人机云台及无人机

Country Status (2)

Country Link
CN (1) CN115526906A (zh)
WO (1) WO2024051574A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024051574A1 (zh) * 2022-09-06 2024-03-14 亿航智能设备(广州)有限公司 一种无人机目标跟踪方法、***、无人机云台及无人机

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107767405B (zh) * 2017-09-29 2020-01-03 华中科技大学 一种融合卷积神经网络的核相关滤波目标跟踪方法
US10628961B2 (en) * 2017-10-13 2020-04-21 Qualcomm Incorporated Object tracking for neural network systems
CN110398720B (zh) * 2019-08-21 2024-05-03 深圳耐杰电子技术有限公司 一种反无人机探测跟踪干扰***及光电跟踪***工作方法
CN113344971B (zh) * 2021-05-21 2023-03-28 河南科技大学 一种融合卡尔曼滤波的孪生红外目标跟踪方法
CN115526906A (zh) * 2022-09-06 2022-12-27 亿航智能设备(广州)有限公司 一种无人机目标跟踪方法、***、无人机云台及无人机

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024051574A1 (zh) * 2022-09-06 2024-03-14 亿航智能设备(广州)有限公司 一种无人机目标跟踪方法、***、无人机云台及无人机

Also Published As

Publication number Publication date
WO2024051574A1 (zh) 2024-03-14

Similar Documents

Publication Publication Date Title
US20180204070A1 (en) Image processing apparatus and image processing method
CN102903119B (zh) 一种目标跟踪方法和装置
CN106651908B (zh) 一种多运动目标跟踪方法
CN110361727A (zh) 一种毫米波雷达多目标跟踪方法
Yin et al. Fast-moving target tracking based on mean shift and frame-difference methods
CN107564034A (zh) 一种监控视频中多目标的行人检测与跟踪方法
CN109035295B (zh) 多目标跟踪方法、装置、计算机设备和存储介质
CN113723190A (zh) 一种面向同步移动目标的多目标跟踪方法
CN102509074A (zh) 一种目标识别方法和设备
CN108596946A (zh) 一种运动目标实时检测方法及***
CN111639570B (zh) 一种基于运动模型和单目标线索的在线多目标跟踪方法
CN115526906A (zh) 一种无人机目标跟踪方法、***、无人机云台及无人机
CN114549549A (zh) 一种动态环境下基于实例分割的动态目标建模跟踪方法
CN112164093A (zh) 一种基于边缘特征和相关滤波的人物自动跟踪方法
CN113643330B (zh) 一种基于动态语义特征的目标跟踪方法及***
Yu et al. Drso-slam: A dynamic rgb-d slam algorithm for indoor dynamic scenes
KR20190009006A (ko) 전역적 움직임 기반의 실시간 다중 객체 추적 장치 및 방법
CN101877135B (zh) 一种基于背景重构的运动目标检测方法
Le et al. Human detection and tracking for autonomous human-following quadcopter
Saif et al. Adaptive long term motion pattern analysis for moving object detection using UAV aerial images
US12002371B2 (en) Neuromorphic cameras for aircraft
CN115082519A (zh) 一种基于背景感知相关滤波的飞机跟踪方法、存储介质和电子设备
Chung et al. Low-complexity and reliable moving objects detection and tracking for aerial video surveillance with small uavs
CN111242980B (zh) 一种面向点目标的红外焦平面盲元动态检测方法
Wang et al. Pmds-slam: Probability mesh enhanced semantic slam in dynamic environments

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination