CN114973033B - 一种无人机自动检测目标和跟踪方法 - Google Patents

一种无人机自动检测目标和跟踪方法 Download PDF

Info

Publication number
CN114973033B
CN114973033B CN202210597472.4A CN202210597472A CN114973033B CN 114973033 B CN114973033 B CN 114973033B CN 202210597472 A CN202210597472 A CN 202210597472A CN 114973033 B CN114973033 B CN 114973033B
Authority
CN
China
Prior art keywords
image
target
stage
feature
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202210597472.4A
Other languages
English (en)
Other versions
CN114973033A (zh
Inventor
刘明华
邵洪波
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qingdao University of Science and Technology
Original Assignee
Qingdao University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qingdao University of Science and Technology filed Critical Qingdao University of Science and Technology
Priority to CN202210597472.4A priority Critical patent/CN114973033B/zh
Publication of CN114973033A publication Critical patent/CN114973033A/zh
Application granted granted Critical
Publication of CN114973033B publication Critical patent/CN114973033B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/17Terrestrial scenes taken from planes or by drones
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Remote Sensing (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种无人机自动检测目标和跟踪方法,涉及无人机自动检测和跟踪技术领域,本发明能够根据立体建模以及loop算法,获取检测目标进行多角度采集时的图像,再对采集图像进行特征提取处理,得到不同采集角度下的图像特征数据,从而对实时采集数据进行比对计算,得出相邻帧图像中目标的运动速度,并根据目标移动速度调节无人机的拍摄角度及移动速度,极大地提升了无人机对目标的检测跟踪效果。

Description

一种无人机自动检测目标和跟踪方法
技术领域
本发明涉及无人机自动检测和跟踪技术领域,具体涉及一种无人机自动检测目标和跟踪方法。
背景技术
目标的检测跟踪作为图像处理技术中的重要组成,包含目标检测和目标跟踪两个子任务。目标检测就是在图像中检测出目标物体并将其分类的过程。目标跟踪技术就是以视频序列的某一帧为起点,利用手动选定或者检测器给出的跟踪目标,在后续帧中不断得到目标的运动状态的过程。
单独使用检测方法虽然能很好地得到所有目标的位置并且标注其类别,但是检测的处理速度偏慢。单独使用跟踪方法首先需要手动给定要跟踪的目标初始位置,其次对于新出现的目标无法进行处理,虽然速度较快,但是无法应对实际场景。因此需要寻找一种结合检测与跟踪的方法,从而兼顾两者优势,能应用到复杂的任务中。
而现有的检测及技术手段,只能对特定的基础几何物体在检测帧中形成的检测框大小作为依据进行检测跟踪,而未考虑到多面体目标在移动时会发生旋转,从而使得无人机连续帧的检测角度不同,即使在同一检测位置,检测角度的改变也会导致检测框大小发生改变,极易对无人机的跟踪判断发生影响。
发明内容
针对现有技术中的缺陷,本发明提供一种无人机自动检测目标和跟踪方法,包括以下步骤:
步骤1:建立目标立体模型,获取目标立体模型的图像特征信息总集的特征向量并分类命名;
步骤2:当无人机获取目标的第n(n≥2)帧图像后,确定目标所在图像中对应的图像特征信息,采用Two-Stage算法得出第n帧图像中目标所在的后级检测框区域;采用Two-Stage算法得出将第n-1帧图像中目标所在的前级检测框区域;
步骤3:将后级检测框区域与前级检测框区域进行图像特征信息比对,获取目标在空间中移动的速度,调节无人机的移动速度,使其与目标保持一致。
作为优选地,建立目标立体模型后,基于立体模型获取目标多角度图像数据,记录每个角度图像数据经检测得到的图像特征区域,形成图像特征信息总集。
作为优选地,步骤1中,所述图像特征信息总集获取过程具体包括以下步骤:
步骤11:采用loop细分算法获取目标图像数据采集角度,根据采集角度获取若干采集图像形成图像总集,根据采集角度对图像总集进行打标;
步骤12:进行数据与处理,以平均像素高度为单位对图像总集进行数据归一化处理得到相对高度;以平均像素宽度为单位对图像总集进行归一化处理得到相对宽度,规则范围内图像像素点均值为单位进行归一化处理得到相对占比;
步骤13:将处理后的图像总集输入Transformer网络中,进行特征提取和信息理解,最终得到特征向量;
步骤14:对特征向量采用全连接层,得到图像特征信息最终的分类维度和分类结果,记为图像特征信息总集。
作为优选地,所述步骤3中,将后级检测框区域与前级检测框区域进行图像特征信息比对,获取目标在空间中移动的速度时,具体包括以下步骤:
步骤31:将第n帧图像记为后级待测图像、第n-1帧图像记为前级待测图像,将后级待测图像输入特征点检测网络得到后级待测特征结果,将前级待测图像输入特征点检测网络得到前级待测特征结果,判断目标是否丢失;
步骤32:在目标未丢失的情况下,根据后级待测特征结果与前级待测特征结果进行比对,获取目标移速。
作为优选地,步骤31中,所述特征点检测网络由特征提取模块、先验区域生成模块和注意力机制模块组成,所述特征提取模块包括对根据图像特征总集对采集图像进行边缘特征、纹理特征以及语义特征提取;先验区域生成模块用于在采集图像上生成固定大小的先验框,这些区域对应采集图像的若干区域,该先验框区域对应单个采集图像的若干区域,降低图像特征区域的提取难度;所述注意力机制模块用于使特征点检测网络将更多的注意力放在图像特征区域。
作为优选地,步骤32中,根据后级待测特征结果与前级待测特征结果进行比对,获取目标移速时,具体包括以下步骤:
步骤321:根据后级待测特征结果与前级待测特征结果,得出第n帧图像的后级采集角度与第n-1帧图像的前级采集角度;
步骤322:获取前级采集角度在图像总集中对应的前级采集图像,采用种子生长算法对目标区域进行筛选,得处前级标准检测框,计算前级检测框与前级标准检测框的前级相对占比;
步骤323:获取后级采集角度在图像总集中对应的后级采集图像,采用种子生长算法对目标区域进行筛选,得出后级标准检测框,计算后级检测框与后级标准检测框的后级相对占比;
步骤324:通过前级相对占比与后级相对占比的差值得出目标的移速。
作为优选地,步骤31中,判断所述目标是否丢失时,具体包括以下步骤:
步骤311:对从第一帧图像至第n帧图像中目标的置信度进行累加处理,得到参数置信度;
步骤312:判断所述参数置信度是否小于第一预设值,若是,则确定目标丢失,若否,则目标未丢失。
作为优选地,步骤2中,采用Two-Stage算法得出图像中目标所在的检测框区域时,通过HrNet18网络作为其主干网络进行特征提取,以筛选出质量不达预期的目标图像。
作为优选地,通过HrNet18网络筛选出质量不达预期的目标图像时,具体包括以下步骤:
S21:进行数据预处理,包括数据尺寸变化和图像数据的归一化,图像数据的归一化包括图像旋转及图像翻转;
S22:将增强的图像数据输入到HrNet18网络中,进行特征提取,最终得到特征向量,对特征向量通过全连接层,得到最终分类的维度;
S23:对照片进行打标,分为正常品质图像和异常品质图像,将异常品质图像删除。
作为优选地,步骤3中,调节无人机的移动速度,使其与目标保持一致时,具体为将无人机中拍摄设备的拍照视野中心位置对准后级检测框的几何中心,并调整无人机的移速。
本发明的有益效果体现在:
本发明能够根据立体建模以及loop算法,获取检测目标进行多角度采集时的图像,再对采集图像进行特征提取处理,得到不同采集角度下的图像特征数据,从而对实时采集数据进行比对计算,得出相邻帧图像中目标的运动速度,并根据目标移动速度调节无人机的拍摄角度及移动速度,极大地提升了无人机对目标的检测跟踪效果。
附图说明
为了更清楚地说明本发明具体实施方式或现有技术中的技术方案,下面将对具体实施方式或现有技术描述中所需要使用的附图作简单地介绍。在所有附图中,类似的元件或部分一般由类似的附图标记标识。附图中,各元件或部分并不一定按照实际的比例绘制。
图1为本发明提供的一种无人机自动检测目标和跟踪方法的流程图;
图2为本发明提供的一种无人机自动检测目标和跟踪方法的图像特征信息总集获取过程的流程。
具体实施方式
下面将结合附图对本发明技术方案的实施例进行详细的描述。以下实施例仅用于更加清楚地说明本发明的技术方案,因此只作为示例,而不能以此来限制本发明的保护范围。
需要注意的是,除非另有说明,本申请使用的技术术语或者科学术语应当为本发明所属领域技术人员所理解的通常意义。
如图1所示,一种无人机自动检测目标和跟踪方法,包括以下步骤:
步骤1:建立目标立体模型,获取目标立体模型的图像特征信息总集的特征向量并分类命名;
步骤2:当无人机获取目标的第n(n≥2)帧图像后,确定目标所在图像中对应的图像特征信息,采用Two-Stage算法得出第n帧图像中目标所在的后级检测框区域;采用Two-Stage算法得出将第n-1帧图像中目标所在的前级检测框区域;
步骤3:将后级检测框区域与前级检测框区域进行图像特征信息比对,获取目标在空间中移动的速度,调节无人机的移动速度,使其与目标保持一致。
更为具体的,建立目标立体模型后,基于立体模型获取目标多角度图像数据,记录每个角度图像数据经检测得到的图像特征区域,形成图像特征信息总集。
此处建立立体模型可采用C4D建模软件。
如图2所示,更为具体的,所述图像特征信息总集获取过程具体包括以下步骤:
步骤11:采用loop细分算法获取目标图像数据采集角度,根据采集角度获取若干采集图像形成图像总集,根据采集角度对图像总集进行打标;
步骤12:进行数据与处理,以平均像素高度为单位对图像总集进行数据归一化处理得到相对高度;以平均像素宽度为单位对图像总集进行归一化处理得到相对宽度,规则范围内图像像素点均值为单位进行归一化处理得到相对占比;
步骤13:将处理后的图像总集输入Transformer网络中,进行特征提取和信息理解,最终得到特征向量;
步骤14:对特征向量采用全连接层,得到图像特征信息最终的分类维度和分类结果,记为图像特征信息总集。
loop subdivision是一种三角网格细分方法,loop细分的基本思想就是把一个三角形分成四个三角形,区分新顶点和老顶点分别进行位置的改变,最终让模型表面变得更加光滑,采用loop细分算法获取目标图像数据的采集角度时,先根据目标的立体模型,得出立体模型的几何中心,以几何中心为原点建立正二十面体,采用loop细分算法对正二十面体进行多次细分,得出多个顶点,此时该若干个顶点连接形成的图形近似于球体,以单个顶点为一个采集角度,从而能够得到若干采集图像,形成图像总集。
更为具体的,所述步骤3中,将后级检测框区域与前级检测框区域进行图像特征信息比对,获取目标在空间中移动的速度时,具体包括以下步骤:
步骤31:将第n帧图像记为后级待测图像、第n-1帧图像记为前级待测图像,将后级待测图像输入特征点检测网络得到后级待测特征结果,将前级待测图像输入特征点检测网络得到前级待测特征结果,判断目标是否丢失;
步骤32:在目标未丢失的情况下,根据后级待测特征结果与前级待测特征结果进行比对,获取目标移速。
更为具体的,所述特征点检测网络由特征提取模块、先验区域生成模块和注意力机制模块组成,所述特征提取模块包括对根据图像特征总集对采集图像进行边缘特征、纹理特征以及语义特征提取;先验区域生成模块用于在采集图像上生成固定大小的先验框,这些区域对应采集图像的若干区域,该先验框区域对应单个采集图像的若干区域,降低图像特征区域的提取难度;所述注意力机制模块用于使特征点检测网络将更多的注意力放在图像特征区域。
特征提取模块包括卷积层和池化层,该模块的主要作用是根据图像特征总集提取采集图像的特征;先验区域生成模块能够让网络从全局检测特征点转移到局部检测,降低了从整张图像中提取特征点的难度;通过引入注意力机制模块,网络会对特征点附近的区域投入更多的资源,过滤掉一些无关信息。
更为具体的,所述步骤32中,根据后级待测特征结果与前级待测特征结果进行比对,获取目标移速时,具体包括以下步骤:
步骤321:根据后级待测特征结果与前级待测特征结果,得出第n帧图像的后级采集角度与第n-1帧图像的前级采集角度;
步骤322:获取前级采集角度在图像总集中对应的前级采集图像,采用种子生长算法对目标区域进行筛选,得处前级标准检测框,计算前级检测框与前级标准检测框的前级相对占比;
步骤323:获取后级采集角度在图像总集中对应的后级采集图像,采用种子生长算法对目标区域进行筛选,得出后级标准检测框,计算后级检测框与后级标准检测框的后级相对占比;
步骤324:通过前级相对占比与后级相对占比的差值得出目标的移速。
更为具体的,所述步骤31中,判断所述目标是否丢失时,具体包括以下步骤:
步骤311:对从第一帧图像至第n帧图像中目标的置信度进行累加处理,得到参数置信度;
步骤312:判断所述参数置信度是否小于第一预设值,若是,则确定目标丢失,若否,则目标未丢失。
更为具体的,步骤2中,采用Two-Stage算法得出图像中目标所在的检测框区域时,通过HrNet18网络作为其主干网络进行特征提取,以筛选出质量不达预期的目标图像。
更为具体的,通过HrNet18网络筛选出质量不达预期的目标图像时,具体包括以下步骤:
S21:进行数据预处理,包括数据尺寸变化和图像数据的归一化,图像数据的归一化包括图像旋转及图像翻转;
S22:将增强的图像数据输入到HrNet18网络中,进行特征提取,最终得到特征向量,对特征向量通过全连接层,得到最终分类的维度;
S23:对照片进行打标,分为正常品质图像和异常品质图像,将异常品质图像删除。
更为具体的,所述步骤3中,调节无人机的移动速度,使其与目标保持一致时,具体为将无人机中拍摄设备的拍照视野中心位置对准后级检测框的几何中心,并调整无人机的移速。
最后应说明的是:以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围,其均应涵盖在本发明的权利要求和说明书的范围当中。

Claims (4)

1.一种无人机自动检测目标和跟踪方法,其特征在于,包括如下步骤:
步骤1:建立目标立体模型,获取目标立体模型的图像特征信息总集的特征向量并分类命名,建立目标立体模型后,基于立体模型获取目标多角度图像数据,记录每个角度图像数据经检测得到的图像特征区域,形成图像特征信息总集;
步骤2:当无人机获取目标的第n(n≥2)帧图像后,确定目标所在图像中对应的图像特征信息,采用Two-Stage算法得出第n帧图像中目标所在的后级检测框区域;采用Two-Stage算法得出第n-1帧图像中目标所在的前级检测框区域;
步骤3:将后级检测框区域与前级检测框区域进行图像特征信息比对,获取目标在空间中移动的速度,调节无人机的移动速度,使其与目标保持一致;
所述步骤3中,将后级检测框区域与前级检测框区域进行图像特征信息比对,获取目标在空间中移动的速度时,具体包括以下步骤:
步骤31:将第n帧图像记为后级待测图像、第n-1帧图像记为前级待测图像,将后级待测图像输入特征点检测网络得到后级待测特征结果,将前级待测图像输入特征点检测网络得到前级待测特征结果,判断目标是否丢失;
步骤32:在目标未丢失的情况下,根据后级待测特征结果与前级待测特征结果进行比对,获取目标移速;
所述步骤32中,根据后级待测特征结果与前级待测特征结果进行比对,获取目标移速时,具体包括以下步骤:
步骤321:根据后级待测特征结果与前级待测特征结果,得出第n帧图像的后级采集角度与第n-1帧图像的前级采集角度;
步骤322:获取前级采集角度在图像总集中对应的前级采集图像,采用种子生长算法对目标区域进行筛选,得出前级标准检测框,计算前级检测框与前级标准检测框的前级相对占比;其中,采用loop细分算法获取目标图像数据采集角度,根据采集角度获取若干图像特征区域形成图像总集,具体为:采用loop细分算法获取目标图像数据的采集角度时,先根据目标的立体模型,得出立体模型的几何中心,以几何中心为原点建立正二十面体,采用loop细分算法对正二十面体进行多次细分,得出多个顶点,以单个顶点为一个采集角度,从而能够得到若干采集图像,形成图像总集;
步骤323:获取后级采集角度在图像总集中对应的后级采集图像,采用种子生长算法对目标区域进行筛选,得出后级标准检测框,计算后级检测框与后级标准检测框的后级相对占比;
步骤324:通过前级相对占比与后级相对占比的差值得出目标的移速。
2.根据权利要求1所述的无人机自动检测目标和跟踪方法,其特征在于,步骤31中,所述特征点检测网络由特征提取模块、先验区域生成模块和注意力机制模块组成,所述特征提取模块包括根据图像特征总集对采集图像进行边缘特征、纹理特征以及语义特征提取;先验区域生成模块用于在采集图像上生成固定大小的先验框,这些区域对应采集图像的若干区域,该先验框区域对应单个采集图像的若干区域,降低图像特征区域的提取难度;所述注意力机制模块用于使特征点检测网络将更多的注意力放在图像特征区域。
3.根据权利要求1所述的无人机自动检测目标和跟踪方法,其特征在于,步骤31中,判断所述目标是否丢失时,具体包括以下步骤:
步骤311:对从第一帧图像至第n帧图像中目标的置信度进行累加处理,得到参数置信度;
步骤312:判断所述参数置信度是否小于第一预设值,若是,则确定目标丢失,若否,则目标未丢失。
4.根据权利要求1所述的无人机自动检测目标和跟踪方法,其特征在于,步骤3中,调节无人机的移动速度,使其与目标保持一致时,具体为将无人机中拍摄设备的拍照视野中心位置对准后级检测框的几何中心,并调整无人机的移速。
CN202210597472.4A 2022-05-30 2022-05-30 一种无人机自动检测目标和跟踪方法 Active CN114973033B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210597472.4A CN114973033B (zh) 2022-05-30 2022-05-30 一种无人机自动检测目标和跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210597472.4A CN114973033B (zh) 2022-05-30 2022-05-30 一种无人机自动检测目标和跟踪方法

Publications (2)

Publication Number Publication Date
CN114973033A CN114973033A (zh) 2022-08-30
CN114973033B true CN114973033B (zh) 2024-03-01

Family

ID=82957483

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210597472.4A Active CN114973033B (zh) 2022-05-30 2022-05-30 一种无人机自动检测目标和跟踪方法

Country Status (1)

Country Link
CN (1) CN114973033B (zh)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9443320B1 (en) * 2015-05-18 2016-09-13 Xerox Corporation Multi-object tracking with generic object proposals
CN107292297A (zh) * 2017-08-09 2017-10-24 电子科技大学 一种基于深度学习和重叠率跟踪的视频车流量检测方法
CN109001484A (zh) * 2018-04-18 2018-12-14 广州视源电子科技股份有限公司 旋转速度的检测方法和装置
CN110401799A (zh) * 2019-08-02 2019-11-01 睿魔智能科技(深圳)有限公司 一种自动跟踪拍摄方法及***
CN110458868A (zh) * 2019-08-15 2019-11-15 湖北经济学院 基于sort的多目标跟踪识别展示***
CN111798482A (zh) * 2020-06-16 2020-10-20 浙江大华技术股份有限公司 一种目标跟踪方法及设备
CN112184760A (zh) * 2020-10-13 2021-01-05 中国科学院自动化研究所 基于动态视觉传感器的高速运动目标检测跟踪方法
CN112907634A (zh) * 2021-03-18 2021-06-04 沈阳理工大学 基于无人机的车辆跟踪方法
WO2021189507A1 (zh) * 2020-03-24 2021-09-30 南京新一代人工智能研究院有限公司 一种用于车辆检测跟踪的旋翼无人机***及检测跟踪方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10460600B2 (en) * 2016-01-11 2019-10-29 NetraDyne, Inc. Driver behavior monitoring
CN106228112B (zh) * 2016-07-08 2019-10-29 深圳市优必选科技有限公司 人脸检测跟踪方法及机器人头部转动控制方法和机器人

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9443320B1 (en) * 2015-05-18 2016-09-13 Xerox Corporation Multi-object tracking with generic object proposals
CN107292297A (zh) * 2017-08-09 2017-10-24 电子科技大学 一种基于深度学习和重叠率跟踪的视频车流量检测方法
CN109001484A (zh) * 2018-04-18 2018-12-14 广州视源电子科技股份有限公司 旋转速度的检测方法和装置
CN110401799A (zh) * 2019-08-02 2019-11-01 睿魔智能科技(深圳)有限公司 一种自动跟踪拍摄方法及***
CN110458868A (zh) * 2019-08-15 2019-11-15 湖北经济学院 基于sort的多目标跟踪识别展示***
WO2021189507A1 (zh) * 2020-03-24 2021-09-30 南京新一代人工智能研究院有限公司 一种用于车辆检测跟踪的旋翼无人机***及检测跟踪方法
CN111798482A (zh) * 2020-06-16 2020-10-20 浙江大华技术股份有限公司 一种目标跟踪方法及设备
CN112184760A (zh) * 2020-10-13 2021-01-05 中国科学院自动化研究所 基于动态视觉传感器的高速运动目标检测跟踪方法
CN112907634A (zh) * 2021-03-18 2021-06-04 沈阳理工大学 基于无人机的车辆跟踪方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Fast Visual Object Tracking with Rotated Bounding Boxes;Bao Xin Chen 等;《arXiv:1907.03892v5》;全文 *
图像处理在客流检测中的算法研究;王晓 等;《中国海洋大学学报》;全文 *
第一人称视角下的社会力优化多行人跟踪;杨廷召 等;《中国图象图形学报》;全文 *

Also Published As

Publication number Publication date
CN114973033A (zh) 2022-08-30

Similar Documents

Publication Publication Date Title
CN110427839B (zh) 基于多层特征融合的视频目标检测方法
CN108985169B (zh) 基于深度学习目标检测与动态背景建模的商店跨门经营检测方法
CN106845364B (zh) 一种快速自动目标检测方法
CN111768388A (zh) 一种基于正样本参考的产品表面缺陷检测方法及***
CN111222396A (zh) 一种全天候多光谱行人检测方法
CN112734761B (zh) 工业品图像边界轮廓提取方法
CN111738071B (zh) 一种基于单目摄像机的运动变化的逆透视变换方法
CN110189375A (zh) 一种基于单目视觉测量的图像目标识别方法
CN103942786B (zh) 无人机可见光和红外图像的自适应团块目标检测方法
CN116664565A (zh) 一种光伏太阳能电池片的隐裂检测方法及***
CN113223044A (zh) 一种结合特征聚合和注意力机制的红外视频目标检测方法
CN115908354A (zh) 一种基于双尺度策略和改进的yolov5网络的光伏面板缺陷检测方法
CN115861799A (zh) 基于注意力梯度的轻量化空对地目标检测方法
Prakoso et al. Vehicle detection using background subtraction and clustering algorithms
CN114973033B (zh) 一种无人机自动检测目标和跟踪方法
CN117036404A (zh) 一种单目热成像同时定位与建图方法和***
CN113112479A (zh) 基于关键区块提取的渐进式目标检测方法和装置
Cheng et al. A fast mosaic approach for remote sensing images
CN101567088B (zh) 一种运动物体检测的方法和装置
CN107564029B (zh) 基于高斯极值滤波和群稀疏rpca的运动目标检测方法
CN113780462B (zh) 基于无人机航拍图像的车辆检测网络建立方法及其应用
CN116189037A (zh) 一种火焰检测的识别方法、装置及终端设备
CN113496159B (zh) 一种多尺度卷积与动态权重代价函数的烟尘目标分割方法
CN114926456A (zh) 一种半自动标注和改进深度学习的铁轨异物检测方法
CN108510517B (zh) 一种自适应的视觉背景提取方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant