CN111460968A - 基于视频的无人机识别与跟踪方法及装置 - Google Patents
基于视频的无人机识别与跟踪方法及装置 Download PDFInfo
- Publication number
- CN111460968A CN111460968A CN202010231230.4A CN202010231230A CN111460968A CN 111460968 A CN111460968 A CN 111460968A CN 202010231230 A CN202010231230 A CN 202010231230A CN 111460968 A CN111460968 A CN 111460968A
- Authority
- CN
- China
- Prior art keywords
- unmanned aerial
- aerial vehicle
- video
- tracking
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 44
- 238000001514 detection method Methods 0.000 claims abstract description 41
- 238000013135 deep learning Methods 0.000 claims abstract description 13
- 230000015654 memory Effects 0.000 claims description 21
- 230000006870 function Effects 0.000 claims description 18
- 238000004590 computer program Methods 0.000 claims description 8
- 230000007246 mechanism Effects 0.000 claims description 6
- 230000008569 process Effects 0.000 claims description 4
- 238000012549 training Methods 0.000 abstract description 5
- 238000002372 labelling Methods 0.000 abstract 2
- 238000011176 pooling Methods 0.000 description 8
- 230000000694 effects Effects 0.000 description 7
- 238000012544 monitoring process Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000008450 motivation Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000011897 real-time detection Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
- G06V20/42—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items of sport video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了一种基于视频的无人机识别与跟踪方法及装置,该方法包括:对收集的数据集逐个进行手工无人机的标注,获得多个型号且不同尺寸的无人机标注样本;以此数据集对基于YOLOv3的网络进行训练,得到训练后的深度学习目标检测模型;采用Retinex图像增强手段提高待检测的无人机视频的图像质量,通过深度学习目标检测模型识别待检测的无人机视频每一帧;基于Sort算法实现快速对视频中的无人机跟踪。本发明可以高鲁棒高精度识别视频中的无人机并跟踪无人机,并且当无人机图像不清晰时,可以进行图像增强,适用于各种复杂场景。
Description
技术领域
本发明涉及无人机识别与跟踪领域,尤其涉及基于视频的无人机识别与跟踪方法及装置。
背景技术
基于视频的运动目标检测和跟踪问题在科学技术发展和工程应用上有了一定的研究基础,在智能交通、智能监控以及人工智能研究领域都已经有了一些比较成熟的解决方法。现代无人机发挥着越来越重要的作用,目前已经受到各方的重视。随着人们对智能化提出更高的要求,无人机理所当然地被各行各业所青睐:演唱会现场的无人机录制、顺丰快递的无人机送货、户外探险的无人机拍摄等等,表明无人机已经较好地应用于人们的日常生活当中,为人们带来诸多便利。近几年,对无人机实现实时监控已经展现出巨大的军事及民用价值,引起了学术界及产业界的高度重视,作为典型的基于视频的运动目标检测与跟踪问题,如何将现有技术应用于无人机运动目标的视频监控,实现无人机目标的实时检测和跟踪,该技术在军事警戒、公共安保等许多方面都具有显著的经济效益与社会效益。
由于小型无人机目标具有尺寸小、飞行速度易变、飞行环境复杂等特点,因此仅仅使用雷达探测、无源定位等方法容易受其他信号杂波的影响,多产生虚警的结果,且获取到的可能只是几个像素的结果,仅仅获得了无人机目标的位置信息,不能高精度地监控无人机的飞行区域与飞行动机,无法为后续的干扰拦截提供精准的目标定位,所以难以有理想的结果。近年来出现基于光学图像处理的无人机识别与跟踪方法,但是效果并不尽如人意。
经检索,中国发明专利申请CN201911268966.2,CN110706266A,公开了一种基于YOLOv3的空中目标跟踪方法,包括:生成模型文件;实时采集视频文件,创建YOLOv3目标检测和KCF目标跟踪两个线程;YOLOv3目标跟踪线程进行目标检测;将步骤S03中的目标位置信息发送给KCF目标跟踪线程,同时执行步骤S07和步骤S11;启动KCF目标跟踪线程,判断KCF目标跟踪线程是否完成初始化;手动设置检测框;完成KCF参数初始化;KCF目标跟踪线程进行目标检测;将响应值最大的检测框作为目标;更新位置参数;得到最终的目标位置信息。该专利中虽然采用YOLOv3,但是跟踪的速度还有待进一步提高。
发明内容
针对上述现有技术中存在的问题,本发明提出一种基于视频的无人机识别与跟踪方法及装置,大大提高了跟踪的实时性。
为解决上述技术问题,本发明是通过如下技术方案实现的:
根据本发明的第一方面,提供一种基于视频的无人机识别与跟踪方法,其包括:
S11:获得多个型号且不同尺寸的无人机标注图像样本,作为数据集;
S12:采用YOLOv3网络训练所述数据集,得到训练后的深度学习目标检测模型;
S13:采用Retinex图像增强方法提高输入视频的图像质量,通过训练好的所述YOLOv3深度学习目标检测模型识别输入的无人机视频每一帧,得到每一帧的目标无人机检测框,为后续跟踪任务做准备;
S14:根据S13的识别结果,采用Sort算法实现快速对视频中的无人机跟踪。
本发明采用基于YOLOv3网络和Sort跟踪算法的改进,在提升跟踪速度的同时,能同时也保证良好的精度。
较佳地,所述S11具体为:
收集大量包含无人机的图像,涵盖各种型号的无人机,每种无人机型号多张图像,设置无人机图像为统一大小,对每个图像逐个进行无人机的标注。
较佳地,S12中,所述YOLOv3网络训练所述数据集,调整网络超参,得到梯度下降稳定、损失函数降到预期值、拟合度达到要求的深度学习目标检测模型。
较佳地,在所述YOLOv3网络的Darknet-53中加入注意力机制,以快速提取数据的重要特征,改进网络识别效果,注意力机制可以将注意力放在重要的信息上节约***资源,常见的卷积神经网络池化层直接用最大池化或者平均池化的方式太过于简单粗暴而且会导致关键信息无法识别出来,因此采用注意力机制可以改善这一问题,提高模型的准确性。
较佳地,所述YOLOv3网络,其中损失函数采用GIoU函数作为衡量目标检测定位性能的指标:
上式中,A表示预测框,B表示真实框,C表示包含A与B在内的最小封闭区域面积,分子表示C中没有同时覆盖A和B的区域面积;损失函数值GIoU的范围是从-1到1,能更好的体现预测框与真实框之间的关系,IoU为YOLOv3网络中IoU损失函数值。本发明改进损失函数IoU为GIoU,可以更好地体现预测框与真实框之间的关系,有利于提高网络的识别准确率。。
较佳地,所述S13中,还包括:
将输入视频的图像转换成恒常性的图像,可以保持图像高保真度与对图像动态范围进行压缩的同时,增强色彩,保持颜色恒常性,有利于提高后续的识别网络的鲁棒性。
恒常性图像r(x,y)为
上式中,K是高斯中心环绕函数的个数分别为1,2,3,wk是第k个尺度所对应的权值,Fk(x,y)第k个中心环绕函数。
较佳地,S14中,所述采用Sort算法实现快速对视频中的无人机跟踪,包括:
每一帧中,以检测出的无人机检测框为基准,同时采用卡尔曼滤波器预测无人机的跟踪框,计算当前帧所有目标的检测框与卡尔曼预测的所有跟踪框之间的IoU,通过匈牙利算法得到检测框与跟踪框IoU的最优匹配对,将匹配的检测框表示为当前帧的跟踪结果,并用当前检测到的目标位置信息去更新卡尔曼***,继续进行下一帧的预测框与下一帧的检测框进行匹配;
重复上述过程,实现对无人机的持续跟踪。
根据本发明的第二方面,提供一种基于视频的无人机识别与跟踪装置,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时可用于执行所述的基于视频的无人机识别与跟踪方法。
与现有技术相比,本发明具有如下的有益效果:
本发明提供的基于视频的无人机识别与跟踪方法,根据大量的数据集训练网络模型,并利用深度学习方法进行无人机识别与跟踪,对现有网络进行改进,对图像进行增强,得到更加精确且效果鲁棒性更强的识别跟踪结果。
本发明提供的基于视频的无人机识别与跟踪方法,针对目前目标跟踪无法兼顾实时性与精度的情况下,提供了一种在保证跟踪精度较高的前提下,跟踪速度非常快速的方法,可以适用于实际的目标跟踪任务。
附图说明
通过阅读参照以下附图对非限制性实施例所作的详细描述,本发明的其它特征、目的和优点将会变得更明显:
图1是本发明一实施例的基于视频的无人机识别与跟踪方法流程图;
图2是本发明一实施例的基于YOLOv3网络的Darknet-53修改的网络结构示意图;
图3是本发明一实施例的基于视频的无人机识别与跟踪方法流程框图。
具体实施方式
下面对本发明的实施例作详细说明:本实施例在以本发明技术方案为前提下进行实施,给出了详细的实施方式和具体的操作过程。应当指出的是,对本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。
如图1所示为本发明的实施例的基于视频的无人机识别与跟踪方法的流程图。
请参考图1,本实施例的基于视频的无人机识别与跟踪方法包括以下步骤:
S11:获得多个型号且不同尺寸的无人机标注图像样本;
收集大量包含无人机的图像,涵盖各种型号的无人机,每种无人机型号多张图像,对每个图像逐个进行无人机的标注,得到无人机标注图像样本作为训练用数据集。
S12:基于YOLOv3网络训练S11得到的数据集,得到训练后的深度学习目标检测模型。
S13:采用Retinex图像增强手段提高待检测的无人机视频的图像质量,通过深度学习目标检测模型识别待检测的无人机视频每一帧,得到每一帧的目标无人机检测框,为后续跟踪任务做准备;
S14:根据S13得到的目标无人机的检测框,采用Sort算法实现快速对视频中的无人机跟踪。
本实施例根据大量的数据集训练网络模型,利用深度学习方法进行无人机识别跟踪,提高了无人机识别与跟踪的精确度和鲁棒性,并且当无人机图像不清晰时,可以进行图像增强,适用于各种复杂场景。在提升跟踪速度的同时,能同时也保证良好的精度。
在一优选实施例中,上述S11可以使用2664张无人机图片作为训练数据集,这些图片基本涵盖各种类型的、不同状态、各种背景下的无人机,图像大小尺寸均相同。当然,这里的图片数量仅仅是举例说明,在其他实施例中,也可以是其他数量的无人机图片,并不限于2664张。
在另一优选实施例中,上述S12使用基于YOLOv3网络的训练S11得到的数据集,调整网络超参,得到梯度下降稳定、损失函数降到预期值、拟合度达到要求的深度学习模型。本实施例将常应用于车辆等图像领域的YOLOv3网络应用在无人机识别与跟踪上。为了取得更好效果,在原有的YOLOv3网络基础上做了如下改进:
1)在YOLOv3网络的Darknet-53中加入注意力机制,可以快速提取数据的重要特征,改进网络识别效果,注意力机制可以将注意力放在重要的信息上节约***资源,常见的卷积神经网络池化层直接用最大池化或者平均池化的方式太过于简单粗暴而且会导致关键信息无法识别出来,因此采用注意力机制可以改善这一问题,提高模型的准确性。
2)改进损失函数IoU(Intersection over Union)为GIoU(GeneralizedIntersection over Union),可以更好地体现预测框与真实框之间的关系,弥补IoU的不足。
在YOLOv3网络中采用IoU作为衡量目标检测定位性能的指标,
上式中,A表示预测框,B表示真实框,分子表示预测框与真实框的的并集,分母表示预测框与真实框的交集。但是如果预测框与真实框没有相交,那么IoU为零,且无法优化;即使相同的IoU,也不能代表检测效果相同。GIoU针对上述问题做出了改进,
上式中,C表示包含A与B在内的最小封闭区域面积,分子表示C中没有同时覆盖A和B的区域面积。由于IoU的范围是从0到1,而GIoU的范围是从-1到1,能更好的体现预测框与真实框之间的关系,有利于提高网络的识别准确率。
如图3所示,基于YOLOv3网络的Darknet-53修改的网络结构,其中具体包括52层卷积和23个残差单元。此网络是一个全卷积网络,大量使用残差的跳层连接,并且为了降低池化带来的梯度负面效果,所以摒弃了池化层,用步长为2的卷积来进行5次降采样。在5级降采样过程中,卷积层后都跟上残差单元与注意力机制。比如,如果输入为416x416,则输出为13x13(416/25=13),从而进行张量的尺寸变换。通过这些改进,可以很好地提高无人机识别与跟踪的精确度和鲁棒性。
在另一优选实施例中,上述S13,可以将无人机视频的图像转换成恒常性的图像,可以保持图像高保真度与对图像动态范围进行压缩的同时,增强色彩,保持颜色恒常性。具体的,恒常性图像r(x,y)为
上式中,K为3分别表示RGB三通道,wk是第k个尺度所对应的权值,值都为1/3,三尺度分别为15,101,301,S(x,y)是观察到的图像,Fk(x,y)第k个中心环绕函数。
在另一优选实施例中,上述S14,采用Sort算法实现快速对视频中的无人机跟踪,可以按照以下方法实现:
将视频通过训练好的所述YOLOv3深度学习目标检测模型,检测输入的无人机视频每一帧,得到每一帧的目标无人机检测框。每一帧中,以检测出的无人机检测框为基准,同时采用卡尔曼滤波器预测无人机的跟踪框,计算当前帧所有目标的检测框与卡尔曼预测的所有跟踪框之间的IoU,通过匈牙利算法得到检测框与跟踪框IoU的最优匹配对,将匹配的检测框表示为当前帧的跟踪结果,并用当前检测到的目标位置信息去更新卡尔曼***,继续进行下一帧的预测框与下一帧的检测框进行匹配。即可实现对目标的持续跟踪。
上述实施例中的基于视频的无人机识别与跟踪方法,根据大量的数据集训练网络模型,并利用深度学习方法进行无人机识别与跟踪,对现有网络进行改进,对图像进行增强,得到更加精确且效果鲁棒性更强的识别跟踪结果。
本发明另一实施例中还提供一种基于视频的无人机识别与跟踪装置,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行所述程序时可用于执行上述各实施例的基于视频的无人机识别与跟踪方法。
可选地,存储器,用于存储程序;存储器,可以包括易失性存储器(英文:volatilememory),例如随机存取存储器(英文:random-access memory,缩写:RAM),如静态随机存取存储器(英文:static random-access memory,缩写:SRAM),双倍数据率同步动态随机存取存储器(英文:Double Data Rate Synchronous Dynamic Random Access Memory,缩写:DDR SDRAM)等;存储器也可以包括非易失性存储器(英文:non-volatile memory),例如快闪存储器(英文:flash memory)。存储器62用于存储计算机程序(如实现上述方法的应用程序、功能模块等)、计算机指令等,上述的计算机程序、计算机指令等可以分区存储在一个或多个存储器中。并且上述的计算机程序、计算机指令、数据等可以被处理器调用。
上述的计算机程序、计算机指令等可以分区存储在一个或多个存储器中。并且上述的计算机程序、计算机指令、数据等可以被处理器调用。
处理器,用于执行存储器存储的计算机程序,以实现上述实施例涉及的方法中的各个步骤。具体可以参见前面方法实施例中的相关描述。
处理器和存储器可以是独立结构,也可以是集成在一起的集成结构。当处理器和存储器是独立结构时,存储器、处理器可以通过总线耦合连接。
本申请实施例还提供一种计算机可读存储介质,计算机可读存储介质中存储有计算机执行指令,当用户设备的至少一个处理器执行该计算机执行指令时,用户设备执行上述各种可能的方法。
此处公开的仅为本发明的优选实施例,本说明书选取并具体描述这些实施例,是为了更好地解释本发明的原理和实际应用,并不是对本发明的限定。任何本领域技术人员在说明书范围内所做的修改和变化,均应落在本发明所保护的范围内。上述各较佳特征,可以在任一实施例中单独使用,在互不冲突的前提下,也可以任一组合使用。
Claims (8)
1.一种基于视频的无人机识别与跟踪方法,其特征在于,包括:
S11:获得多个型号且不同尺寸的无人机标注图像样本,作为数据集;
S12:采用YOLOv3网络训练所述数据集,得到训练后的深度学习目标检测模型;
S13:采用Retinex图像增强方法提高输入视频的图像质量,通过训练好的所述YOLOv3深度学习目标检测模型识别输入的无人机视频每一帧,得到每一帧的目标无人机检测框;
S14:根据S13的识别结果,采用Sort算法实现快速对视频中的无人机跟踪。
2.根据权利要求1所述的基于视频的无人机识别与跟踪方法,其特征在于,所述S11具体为:收集大量包含无人机的图像,涵盖各种型号的无人机,每种无人机型号多张图像,设置无人机图像为统一大小,对每个图像逐个进行无人机的标注。
3.根据权利要求1所述的基于视频的无人机识别与跟踪方法,其特征在于,S12中,所述YOLOv3网络训练所述数据集,调整网络超参,得到梯度下降稳定、损失函数降到预期值、拟合度达到要求的深度学习目标检测模型。
4.根据权利要求3所述的基于视频的无人机识别与跟踪方法,其特征在于,在所述YOLOv3网络的Darknet-53中加入注意力机制,以快速提取数据的重要特征。
7.根据权利要求1-5任一项所述的基于视频的无人机识别与跟踪方法,其特征在于,S14中,所述采用Sort算法实现快速对视频中的无人机跟踪,包括:
每一帧中,以检测出的无人机检测框为基准,同时采用卡尔曼滤波器预测无人机的跟踪框,计算当前帧所有目标的检测框与卡尔曼预测的所有跟踪框之间的IoU,通过匈牙利算法得到检测框与跟踪框IoU的最优匹配对,将匹配的检测框表示为当前帧的跟踪结果,并用当前检测到的目标位置信息去更新卡尔曼***,继续进行下一帧的预测框与下一帧的检测框进行匹配;
重复上述过程,实现对无人机的持续跟踪。
8.一种基于视频的无人机识别与跟踪装置,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时可用于执行权利要求1-7任一所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010231230.4A CN111460968B (zh) | 2020-03-27 | 2020-03-27 | 基于视频的无人机识别与跟踪方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010231230.4A CN111460968B (zh) | 2020-03-27 | 2020-03-27 | 基于视频的无人机识别与跟踪方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111460968A true CN111460968A (zh) | 2020-07-28 |
CN111460968B CN111460968B (zh) | 2024-02-06 |
Family
ID=71680515
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010231230.4A Active CN111460968B (zh) | 2020-03-27 | 2020-03-27 | 基于视频的无人机识别与跟踪方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111460968B (zh) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112132032A (zh) * | 2020-09-23 | 2020-12-25 | 平安国际智慧城市科技股份有限公司 | 交通标志牌检测方法、装置、电子设备及存储介质 |
CN112184767A (zh) * | 2020-09-22 | 2021-01-05 | 深研人工智能技术(深圳)有限公司 | 对运动物体进行轨迹跟踪的方法、装置、设备及存储介质 |
CN112348057A (zh) * | 2020-10-20 | 2021-02-09 | 歌尔股份有限公司 | 一种基于yolo网络的目标识别方法与装置 |
CN112419368A (zh) * | 2020-12-03 | 2021-02-26 | 腾讯科技(深圳)有限公司 | 运动目标的轨迹跟踪方法、装置、设备及存储介质 |
CN112465854A (zh) * | 2020-12-17 | 2021-03-09 | 北京三川未维科技有限公司 | 基于无锚点检测算法的无人机跟踪方法 |
CN112734794A (zh) * | 2021-01-14 | 2021-04-30 | 北京航空航天大学 | 一种基于深度学习的运动目标跟踪与定位方法 |
CN112819858A (zh) * | 2021-01-29 | 2021-05-18 | 北京博雅慧视智能技术研究院有限公司 | 基于视频增强的目标跟踪方法、装置、设备及存储介质 |
CN112884811A (zh) * | 2021-03-18 | 2021-06-01 | 中国人民解放军国防科技大学 | 一种针对无人机集群的光电探测跟踪方法及*** |
CN112906523A (zh) * | 2021-02-04 | 2021-06-04 | 上海航天控制技术研究所 | 一种硬件加速的深度学习目标机型识别方法 |
CN113139419A (zh) * | 2020-12-28 | 2021-07-20 | 西安天和防务技术股份有限公司 | 一种无人机检测方法及装置 |
CN114140501A (zh) * | 2022-01-30 | 2022-03-04 | 南昌工程学院 | 目标跟踪方法、装置及可读存储介质 |
CN117455955A (zh) * | 2023-12-14 | 2024-01-26 | 武汉纺织大学 | 一种基于无人机视角下的行人多目标跟踪方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101674490A (zh) * | 2009-09-23 | 2010-03-17 | 电子科技大学 | 一种基于视网膜视觉机制的彩色图像颜色恒常方法 |
CN101706964A (zh) * | 2009-08-27 | 2010-05-12 | 北京交通大学 | 一种基于图像导数结构的颜色恒常性计算方法及*** |
WO2018133666A1 (zh) * | 2017-01-17 | 2018-07-26 | 腾讯科技(深圳)有限公司 | 视频目标跟踪方法和装置 |
CN110070561A (zh) * | 2019-03-13 | 2019-07-30 | 合肥师范学院 | 一种模糊视觉条件的图像增强与目标跟踪方法和*** |
US20190362190A1 (en) * | 2018-05-28 | 2019-11-28 | Samsung Electronics Co., Ltd. | Method and system for dnn based imaging |
CN110516556A (zh) * | 2019-07-31 | 2019-11-29 | 平安科技(深圳)有限公司 | 基于Darkflow-DeepSort的多目标追踪检测方法、装置及存储介质 |
CN110706266A (zh) * | 2019-12-11 | 2020-01-17 | 北京中星时代科技有限公司 | 一种基于YOLOv3的空中目标跟踪方法 |
-
2020
- 2020-03-27 CN CN202010231230.4A patent/CN111460968B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101706964A (zh) * | 2009-08-27 | 2010-05-12 | 北京交通大学 | 一种基于图像导数结构的颜色恒常性计算方法及*** |
CN101674490A (zh) * | 2009-09-23 | 2010-03-17 | 电子科技大学 | 一种基于视网膜视觉机制的彩色图像颜色恒常方法 |
WO2018133666A1 (zh) * | 2017-01-17 | 2018-07-26 | 腾讯科技(深圳)有限公司 | 视频目标跟踪方法和装置 |
US20190362190A1 (en) * | 2018-05-28 | 2019-11-28 | Samsung Electronics Co., Ltd. | Method and system for dnn based imaging |
CN110070561A (zh) * | 2019-03-13 | 2019-07-30 | 合肥师范学院 | 一种模糊视觉条件的图像增强与目标跟踪方法和*** |
CN110516556A (zh) * | 2019-07-31 | 2019-11-29 | 平安科技(深圳)有限公司 | 基于Darkflow-DeepSort的多目标追踪检测方法、装置及存储介质 |
CN110706266A (zh) * | 2019-12-11 | 2020-01-17 | 北京中星时代科技有限公司 | 一种基于YOLOv3的空中目标跟踪方法 |
Non-Patent Citations (1)
Title |
---|
徐义鎏,贺鹏: "改进损失函数的Yolov3车型检测算法", no. 12, pages 4 - 7 * |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112184767A (zh) * | 2020-09-22 | 2021-01-05 | 深研人工智能技术(深圳)有限公司 | 对运动物体进行轨迹跟踪的方法、装置、设备及存储介质 |
CN112132032A (zh) * | 2020-09-23 | 2020-12-25 | 平安国际智慧城市科技股份有限公司 | 交通标志牌检测方法、装置、电子设备及存储介质 |
CN112348057A (zh) * | 2020-10-20 | 2021-02-09 | 歌尔股份有限公司 | 一种基于yolo网络的目标识别方法与装置 |
CN112419368A (zh) * | 2020-12-03 | 2021-02-26 | 腾讯科技(深圳)有限公司 | 运动目标的轨迹跟踪方法、装置、设备及存储介质 |
CN112465854A (zh) * | 2020-12-17 | 2021-03-09 | 北京三川未维科技有限公司 | 基于无锚点检测算法的无人机跟踪方法 |
CN113139419B (zh) * | 2020-12-28 | 2024-05-31 | 西安天和防务技术股份有限公司 | 一种无人机检测方法及装置 |
CN113139419A (zh) * | 2020-12-28 | 2021-07-20 | 西安天和防务技术股份有限公司 | 一种无人机检测方法及装置 |
CN112734794B (zh) * | 2021-01-14 | 2022-12-23 | 北京航空航天大学 | 一种基于深度学习的运动目标跟踪与定位方法 |
CN112734794A (zh) * | 2021-01-14 | 2021-04-30 | 北京航空航天大学 | 一种基于深度学习的运动目标跟踪与定位方法 |
CN112819858A (zh) * | 2021-01-29 | 2021-05-18 | 北京博雅慧视智能技术研究院有限公司 | 基于视频增强的目标跟踪方法、装置、设备及存储介质 |
CN112819858B (zh) * | 2021-01-29 | 2024-03-22 | 北京博雅慧视智能技术研究院有限公司 | 基于视频增强的目标跟踪方法、装置、设备及存储介质 |
CN112906523A (zh) * | 2021-02-04 | 2021-06-04 | 上海航天控制技术研究所 | 一种硬件加速的深度学习目标机型识别方法 |
CN112884811A (zh) * | 2021-03-18 | 2021-06-01 | 中国人民解放军国防科技大学 | 一种针对无人机集群的光电探测跟踪方法及*** |
CN114140501A (zh) * | 2022-01-30 | 2022-03-04 | 南昌工程学院 | 目标跟踪方法、装置及可读存储介质 |
CN117455955A (zh) * | 2023-12-14 | 2024-01-26 | 武汉纺织大学 | 一种基于无人机视角下的行人多目标跟踪方法 |
CN117455955B (zh) * | 2023-12-14 | 2024-03-08 | 武汉纺织大学 | 一种基于无人机视角下的行人多目标跟踪方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111460968B (zh) | 2024-02-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111460968A (zh) | 基于视频的无人机识别与跟踪方法及装置 | |
US20210342643A1 (en) | Method, apparatus, and electronic device for training place recognition model | |
WO2021022521A1 (zh) | 数据处理的方法、训练神经网络模型的方法及设备 | |
CN111507378A (zh) | 训练图像处理模型的方法和装置 | |
US20230162522A1 (en) | Person re-identification method of integrating global features and ladder-shaped local features and device thereof | |
Cepni et al. | Vehicle detection using different deep learning algorithms from image sequence | |
CN113160062B (zh) | 一种红外图像目标检测方法、装置、设备及存储介质 | |
CN110555420B (zh) | 一种基于行人区域特征提取和重识别融合模型网络及方法 | |
CN112884742A (zh) | 一种基于多算法融合的多目标实时检测、识别及跟踪方法 | |
CN111640138B (zh) | 一种目标跟踪方法、装置、设备及存储介质 | |
CN109087337B (zh) | 基于分层卷积特征的长时间目标跟踪方法及*** | |
CN110992378B (zh) | 基于旋翼飞行机器人的动态更新视觉跟踪航拍方法及*** | |
CN110222572A (zh) | 跟踪方法、装置、电子设备及存储介质 | |
Der Yang et al. | Real-time crop classification using edge computing and deep learning | |
Yang et al. | Visual tracking with long-short term based correlation filter | |
CN110084284A (zh) | 基于区域卷积神经网络的目标检测与二级分类算法及装置 | |
CN113569657A (zh) | 一种行人重识别方法、装置、设备及存储介质 | |
Li et al. | Insect detection and counting based on YOLOv3 model | |
CN116453033A (zh) | 一种视频监控场景下高精度低算量的人群密度估计方法 | |
CN112668662B (zh) | 基于改进YOLOv3网络的野外山林环境目标检测方法 | |
CN109448024A (zh) | 利用深度数据构建约束相关滤波器的视觉跟踪方法、*** | |
CN117576149A (zh) | 一种基于注意力机制的单目标跟踪方法 | |
Yu et al. | Motion target detection and recognition based on YOLOv4 algorithm | |
Zhang et al. | Point clouds classification of large scenes based on blueprint separation convolutional neural network | |
CN116630362A (zh) | 模型训练、图像处理方法、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |