CN112101113A - 一种轻量化的无人机图像小目标检测方法 - Google Patents

一种轻量化的无人机图像小目标检测方法 Download PDF

Info

Publication number
CN112101113A
CN112101113A CN202010819487.1A CN202010819487A CN112101113A CN 112101113 A CN112101113 A CN 112101113A CN 202010819487 A CN202010819487 A CN 202010819487A CN 112101113 A CN112101113 A CN 112101113A
Authority
CN
China
Prior art keywords
target
sequence
frame
branch
aerial vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010819487.1A
Other languages
English (en)
Other versions
CN112101113B (zh
Inventor
李红光
王蒙
丁文锐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beihang University
Original Assignee
Beihang University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beihang University filed Critical Beihang University
Priority to CN202010819487.1A priority Critical patent/CN112101113B/zh
Publication of CN112101113A publication Critical patent/CN112101113A/zh
Application granted granted Critical
Publication of CN112101113B publication Critical patent/CN112101113B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/32Normalisation of the pattern dimensions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Astronomy & Astrophysics (AREA)
  • Remote Sensing (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明提供了一种轻量化的无人机图像小目标检测方法,属于无人机图像处理技术领域。本发明对输入的待测无人机图像视频按时序对每一帧图像进行处理,包括:将图像缩放后输入Revised MobileNetV2特征提取器,输出特征图;特征图输入同步上采样和检测模块,获得目标中心点位置和对应尺度,得到帧内所有预测目标边界框;对待测视频的所有帧进行处理后,对所有帧的预测结果进行快速序列非最大值抑制处理,输出待测视频的目标检测结果。本发明使用轻量化的骨干网进行无人机图像中小目标检测,降低了小目标的误检,提高了检测效率,可实现无人机图像视频中小目标快速、准确地检测。

Description

一种轻量化的无人机图像小目标检测方法
技术领域
本发明属于无人机图像处理技术领域,具体涉及一种轻量化的无人机图像小目标检测方法。
背景技术
随着无人机技术的成熟和无人机供应商数量的增长,无人机成本逐渐降低,近年来,无人机在地质学、农林业、人流/车流监控等多个领域均受到广泛关注。无人机自身可以携带多种外设传感器,包括红外图像传感器、可见光图像传感器、加速度传感器、气压传感器等等,其中可见光图像传感器能够提供丰富的环境信息,因此,无人机可见光图像理解技术是无人机应用研究的热门领域之一。其中目标检测技术可以定位图像中的感兴趣类别目标,无疑能够为各种无人机任务提供有效支持。
根据MS COCO(Microsoft Common Objects in Context)数据集的定义,像素数≤32×32的目标被认定为小目标。无人机图像中的典型目标存在尺度小、数量大、分布密集的特点。
目标检测技术发展已久,从基于手工设计特征的传统方法到基于卷积神经网络的深度学***台的目标检测具有重要意义,不仅能提升无人机应用的灵活性和无人机自身的智能化水平,还能克服恶劣的通信环境进行工作。但是,无人机机上平台的存储和计算资源受限,需要目标检测算法具有较低的计算量和参数量。
发明内容
基于目前无人机目标检测的重要性以及需要检测方法计算量和参数量低的要求,本发明针对可见光无人机图像,结合在无人机机上平台进行目标检测的场景,提出了一个轻量化的无人机图像小目标检测方法。其中,无人机图像数据源为视频格式,即输入无人机图像为按照时序顺序的视频各帧。
本发明提供的轻量化的无人机图像小目标检测方法,包括以下步骤:
步骤一:将当前待检测帧图像缩放至512×512像素的大小;
步骤二:缩放后的图像输入Revised MobileNetV2特征提取器,输出尺度为16×16的特征图;
步骤三:将提取的特征图输入同步上采样和检测模块。同步上采样和检测模块包含基于子像素卷积结构的四个分支。四个分支分别为中心点分支、中心点偏移分支、中心点目标性分支和尺度分支。前三个分支共同决定中心点的位置,尺度分支决定各中心点对应目标的尺度;
步骤四:通过预测的目标中心点位置和对应尺度得到当前帧的所有预测目标框,保存结果。判断当前待测视频的所有帧是否都得到了检测,如果是,检测完毕进入步骤五,否则,对未检测的帧返回步骤一继续执行;
步骤五:对待测视频的所有帧预测结果进行快速序列非最大值抑制处理,得到最终的目标检测结果。
所述的快速序列非最大值抑制处理,首先对预测目标框抑制去重,再依次进行预测目标框序列选择和重打分;其中,序列选择是指选取各帧去重后分数降序排列的前K个预测目标框后,计算相邻前后帧的预测目标框间的IOU值,将IOU值大于阈值B的预测目标框联系起来,此时整个视频序列对应得到多条不同长短的有重叠的时序目标框序列,选择其中目标框总分数最大的时序目标框序列;重打分是指对选择的时序目标框序列,将序列的目标框的分数平均值赋给序列中的每个边界框;在执行完上述三个步骤后,排除当前总分数最大的时序目标框序列,重新进行预测目标框序列选择和重打分,直至没有时序目标框序列可以选择;其中,K为正整数,B为大于0的实数。
相对于现有技术,本发明的优点与积极效果在于:(1)本发明在基于中心点预测方法的典型框架上进行了轻量化设计,使用了轻量化的骨干网,设计了同步上采样和检测模块,形成了一个更高效的检测架构;(2)本发明在检测头部增加一个二分类中心点目标性分支,为中心点预测带来新的信息,一定程度上降低了小目标的误检;(3)本发明在后处理部分提出了一种快速序列非最大值抑制方法,结合目标时序信息优化检测结果。在无人机上采用本发明方法可实现目标快速、准确地检测。
附图说明
图1是基于中心点预测方法的典型框架;
图2是本发明的轻量化的无人机图像小目标检测网络结构示意图;
图3是本发明的快速序列非最大值抑制方法的流程图;
图4是本发明的轻量化的无人机图像小目标检测框架流程图。
具体实施方式
下面将结合附图和实施例对本发明作进一步的详细说明。
本发明方法基于中心点预测方法的典型框架进行设计,如图1所示。输入图像(Image)经过缩放(Resize)后输入特征提取器(Feature Extractor)进行特征提取,提取的特征经过上采样(Up-sampling)后输入检测头部(Detection Head)进行目标中心点(Center Point)和尺度(Scale)的预测。特征提取器通常是基于分类网络的结构,特征提取器和上采样模块共同构成基于中心点预测框架的骨干网。检测头部负责根据提取的特征进行目标预测,包含三个分支:中心点分支、中心点偏移分支和尺度分支。
如图2所示,本发明的轻量化的无人机图像目标检测框架主要包括如下部分:
第一部分是Revised MobileNetV2特征提取器,该特征提取器作为本发明方法网络结构的骨干网。第二部分是同步上采样和检测模块(Simultaneous Up-sampling andDetection Module),该模块作为本发明方法网络结构的检测头部,同时兼顾上采样功能。同步上采样和检测模块包含四个分支,分别为中心点分支cls、中心点偏移分支offset、中心点目标性分支obj和尺度分支wh。
(1)Revised MobileNetV2特征提取器。
本发明特征提取器使用基于轻量化分类网络MobileNetV2的结构。MobileNetV2采用深度可分离卷积和倒置残差(Inverted Residual)结构,是一种已经广泛应用于检测、分割等多种任务上的移动端网络结构。一般选择分类网络池化层前的结构在其他任务算法中用于特征提取,通过实验发现MobileNetV2池化层前的结构作为本发明的骨干网,最后一层1×1卷积(Conv)对检测精度有负面影响。MobileNetV2是为分类任务设计的结构,最终目标是获得良好区分度的特征向量,再通过全连接层对特征向量进行分类,MobileNetV2不一定完全适合检测任务。正如MobilNetV2使用线性瓶颈结构(Bottleneck)代替传统的非线性瓶颈结构一样,经过非线性RELU激活的最后一层1×1卷积输出的特征图相对最后一个线性残差块输出的特征图可能损失了检测所需的某些必要信息。同时,最后一层1×1卷积输出的维度相当大,有1280维,这也给后面的同步上采样和检测模块带来了较大的计算负担,因此,本发明去掉MobileNetV2特征提取器的最后一层1×1卷积形成一个RevisedMobileNetV2特征提取器。
(2)同步上采样和检测模块。
反卷积是一种常用的上采样方法,相对于Up-sampling或Up-pooling等方法,优势在于反卷积是可学习的,可以使结果更加精细。但是,反卷积同时也受较大的计算复杂度和棋盘效应的限制。
本发明使用子像素卷积来代替反卷积,子像素卷积同样是一种基于学习的上采样方法,可以定义为:
FMHR=PS(WL×FMLR+bL)
其中PS是周期性重排操作(Periodic Shuffling),将低分辨率的H×W×C·r2特征图重排为rH×rw×C尺度的高分辨率特征图FMHR。WL和bL是卷积操作符,用来对低分辨率特征图FMLR进行r2倍的升维,r为上采样倍数。简单来讲,子像素卷积就是先利用卷积层对输入特征图进行升维,再通过周期重排来得到上采样输出的。由于子像素卷积与反卷积的原理迥异,因此子像素卷积不会有棋盘效应,同时因为子像素卷积和检测头部中同有普通卷积结构,因此本发明将这两层的计算共享,形成一个同步上采样和检测模块。
同步上采样和检测模块可以看为一个集成了上采样功能的检测头部,待上采样的特征图直接输入检测头部的各个分支,每个分支包含一层1×1卷积结构,它输出的维度为对应分支最终输出维度的82倍,此处即r=8,最后这层卷积的输出经过周期性重排即得到对应分支的预测结果。这一设计利用子像素卷积的特性,不仅解决了反卷积参数量过大的问题,同时将检测头部与上采样共享计算,进一步减轻算法的计算负担。
同步上采样和检测模块的输入为Revised MobileNetV2特征提取器输出的16×16尺度的特征图,同步上采样和检测模块具备8倍上采样的功能,因此同步上采样和检测模块中中心点分支、中心点偏移分支、中心点目标性分支和尺度分支的输出均为128×128尺度。各分支的结构基本相同,都由1×1卷积层和周期性重排操作构成,不同的仅是输出维度。中心点分支的输出是类别数维度的热图,中心点目标性分支输出的是常数2维度的热图,中心点偏移分支输出的是常数2维度的各中心点对应的偏移,尺度分支输出的是常数2维度的各中心点对应目标的尺度。
相对基于中心点预测的常规框架中的检测头部的分支定义,本发明新增了一个中心点目标性分支。由于本发明设计了极轻量的特征提取器和检测头部,使得提取的特征以及检测头部对特征的分辨能力变差,这在目标尺度小、分布密集,难以进行特征学习的无人机图像中会带来漏检错检的风险。尤其在环境复杂的无人机图像中,复杂背景极其容易被错检为目标。受YOLO(You Only Look Once)启发,YOLO为每个锚点框额外预测一个目标性分数,这个目标性分数的物理意义是锚点框与真值框的IOU(Intersection Over Union)值。YOLO执行检测时,目标框的实际分数是分类分数和目标性分数的乘积。本发明为检测头部增加了一个中心点目标性分支,是一个二分类分支,这个分支预测的是一个二分类热图,即标记图像空间中某一点是否为任一感兴趣类别目标的中心点,而不去具体区分类别。这样本发明在目标中心点的预测过程中增加了新的信息,有利于产生更好的预测结果。二分类中心点目标性分支和多分类中心点分支输出的热图独立训练和预测。本发明算法的整体损失函数Ldet定义为:
Ldet=LclssizeLsizeoffLoffobjLobj
其中,Lcls为中心点分类损失,为Focal Loss损失,具体定义与CenterNet网络相同。Lsize为目标框尺度损失,Loff为中心点偏移损失,二者均为L1损失,λsize和λoff为对应损失的系数。Lobj为中心点目标性损失,为Focal Loss损失,定义同Lcls,λsize为目标性损失对应的系数,本发明取为0.5。执行检测时,最终的目标框分数Score由每个中心点的分类分数和目标性分数结合得到:
Score=heatmapcls×F(heatmapobj)
Figure BDA0002633960300000051
其中F(x)为目标性分数的预处理函数,此处x代表热图中像素点的值,heatmapcls为中心点分支输出的逐类别预测的热图,heatmapobj为中心点目标性分支输出的二分类目标性热图。目标性分支的引入,降低了目标性低的边界框的分数可以有效的降低虚警的风险。
本发明实现的目标检测网络的一个具体结构参数如表1所示:
表1本发明的目标检测网络的结构参数表
Figure BDA0002633960300000052
其中,Conv2d指常规卷积层,bottleneck指MobileNet中的倒置残差模块,t、c、n、s为倒置残差结构的参数,t为通道扩展系数,c为输出维度,n为倒置残差模块数、s为步长。cls为检测的类别数,ratio为上采样倍数。
目标检测网络输出大量的预测目标框,同一目标可能有多个预测框,因此,本发明在得到所有帧的目标预测边界框后,使用快速序列非最大值抑制(Fast seq-NMS,Fastsequence Non-maximum Suppression)对所有帧的目标检测结果进行去重处理,并通过帧间目标的时序联系来对检测结果进行修正。
在时序图像序列中,临近帧间大概率存在同一目标,且这个目标的位置和尺度变化的程度较小。根据这一个假设,可以在目标检测网络预测的结果的基础上,根据相邻帧预测框间的IOU值来建立同一目标的帧间联系,从而对预测边界框的分数进行重新评估。序列非最大值抑制(Seq-NMS)如图3所示,包含3个步骤:1)边界框序列选择,2)边界框序列重打分,3)抑制去重。边界框序列选择首先计算所有相邻前后帧的预测目标边界框间的IOU值,然后把IOU大于阈值B的预测框联系起来,此时整个视频序列会产生多条不同长短的有重叠的时序边界框序列,最后选择预测目标框总分数最大的边界框序列。边界框序列重打分把被选择边界框序列的分数平均值赋给序列中的每个边界框。抑制去重则把被选择边界框序列移除,同时将帧内与被选择边界框序列元素IOU大于一定阈值的边界框去除。完成3个步骤后会重新开始新的边界框序列选择,直至没有序列可以选择。阈值B一般设置为0.5。
考虑预测目标框较多,出于提升效率的考虑,本发明提出一种更为高效的快速序列非最大值抑制(Fast seq-NMS)方法。Fast seq-NMS首先进行预测边界框的去重,再进行帧间边界框序列的选择和重打分。去重方式为在各帧帧内对该帧的所有预测目标边界框进行非最大值抑制(NMS,Non-maximum Suppression)处理。同时,Fast seq-NMS仅对去重后分数升序排列的前K个边界框进行边界框序列的选择和重打分,本发明实施例中设置K为100,这相对seq-NMS采取的方式,极大的降低了计算负担。边界框序列选择和重打分的步骤同seq-NMS,对当前总分最高的边界框序列进行重打分后,排除该边界框序列,重新开始进行预测目标框序列选择和重打分,依次重复直至没有序列可以选择。本发明中K可以按数量比例设置,也可以设置为固定值。
如图4所示,为本发明方法的一个实现流程,包括:对输入的无人机视频,按时序序列取出当前待测帧,将待测帧尺度缩放到512×512像素大小,然后输入本发明上述的轻量化小目标检测网络中,保存所有预测目标边界框;对待测视频的所有帧都进行尺度缩放和轻量化小目标检测网络检测;然后利用快速序列非最大值抑制方法对待测视频的所有帧的检测结果进行处理,输出去重和修正后的待测视频的目标检测结果。

Claims (7)

1.一种轻量化的无人机图像小目标检测方法,对输入的待测无人机图像视频,执行如下步骤:
步骤一:按时序取一帧图像,将当前帧图像缩放至设定尺寸大小;
步骤二:缩放后的图像输入Revised MobileNetV2特征提取器,输出尺度为16×16的特征图;
步骤三:将提取的特征图输入同步上采样和检测模块;所述的同步上采样和检测模块包含基于子像素卷积结构的四个分支,分别为中心点分支、中心点偏移分支、中心点目标性分支和尺度分支,前三个分支共同决定中心点的位置,尺度分支决定各中心点对应目标的尺度;
步骤四:通过预测的目标中心点位置和对应尺度得到当前帧的所有预测目标框,保存结果;判断是否对当前待测视频的所有帧都进行了检测,若是,进入步骤五执行,否则,返回步骤一执行;
步骤五:对待测视频的所有帧预测结果进行快速序列非最大值抑制处理,得到最终的目标检测结果。
2.根据权利要求1所述的方法,其特征在于,所述的步骤一中,将图像缩放至512×512像素大小。
3.根据权利要求1所述的方法,其特征在于,所述的步骤二中,去掉MobileNetV2特征提取器的最后一层1×1卷积形成Revised MobileNetV2特征提取器。
4.根据权利要求1所述的方法,其特征在于,所述的步骤三中,在同步上采样和检测模块中,在每个分支,使用子像素卷积对特征图先进行升维,再通过周期重排得到上采样输出。
5.根据权利要求1所述的方法,其特征在于,所述的步骤三中,中心点目标性分支输出一个二分类目标性热图,标记对应图像中的各个点是否为任一感兴趣类别目标的中心点。
6.根据权利要求1或5所述的方法,其特征在于,所述的步骤三中,同步上采样和检测模块对特征图进行检测时,预测的目标框的分数由每个中心点的分类分数和目标性分数结合得到,表示如下:
Score=heatmapcls×F(heatmapobj)
Figure FDA0002633960290000011
其中,Score为目标框分数,heatmapcls为中心点分支输出的逐类别预测的热图,heatmapobj为中心点目标性分支输出的二分类目标性热图,F(x)为目标性分数的预处理函数,x代表热图中像素点的值。
7.根据权利要求1所述的方法,其特征在于,所述的步骤五中,进行快速序列非最大值抑制处理,包括:首先对预测目标框抑制去重,再进行预测目标框序列选择和重打分;其中,抑制去重是指在各帧帧内对该帧的所有预测目标框进行非最大值抑制处理;序列选择是指选取各帧去重后分数降序排列的前K个预测目标框后,计算相邻前后帧的预测目标框间的IOU值,将IOU值大于阈值B的预测目标框联系起来,此时整个视频序列对应得到多条不同长短的有重叠的时序目标框序列,选择其中目标框总分数最大的时序目标框序列;重打分是指对选择的时序目标框序列,将序列的目标框的分数平均值赋给序列中的每个预测目标框;然后排除当前总分数最大的时序目标框序列,重新进行预测目标框序列选择和重打分,直至没有时序目标框序列可以选择;其中,K为正整数,B为大于0的实数。
CN202010819487.1A 2020-08-14 2020-08-14 一种轻量化的无人机图像小目标检测方法 Active CN112101113B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010819487.1A CN112101113B (zh) 2020-08-14 2020-08-14 一种轻量化的无人机图像小目标检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010819487.1A CN112101113B (zh) 2020-08-14 2020-08-14 一种轻量化的无人机图像小目标检测方法

Publications (2)

Publication Number Publication Date
CN112101113A true CN112101113A (zh) 2020-12-18
CN112101113B CN112101113B (zh) 2022-05-27

Family

ID=73753773

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010819487.1A Active CN112101113B (zh) 2020-08-14 2020-08-14 一种轻量化的无人机图像小目标检测方法

Country Status (1)

Country Link
CN (1) CN112101113B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112733630A (zh) * 2020-12-28 2021-04-30 深圳市捷顺科技实业股份有限公司 一种通道闸检测方法、装置、设备及存储介质
CN115861891B (zh) * 2022-12-16 2023-09-29 北京多维视通技术有限公司 视频目标检测方法、装置、设备及介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170147905A1 (en) * 2015-11-25 2017-05-25 Baidu Usa Llc Systems and methods for end-to-end object detection
CN109816695A (zh) * 2019-01-31 2019-05-28 中国人民解放军国防科技大学 一种复杂背景下的红外小型无人机目标检测与跟踪方法
CN111027547A (zh) * 2019-12-06 2020-04-17 南京大学 一种针对二维图像中的多尺度多形态目标的自动检测方法
CN111401201A (zh) * 2020-03-10 2020-07-10 南京信息工程大学 一种基于空间金字塔注意力驱动的航拍图像多尺度目标检测方法
CN111476252A (zh) * 2020-04-03 2020-07-31 南京邮电大学 一种面向计算机视觉应用的轻量化无锚框目标检测方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170147905A1 (en) * 2015-11-25 2017-05-25 Baidu Usa Llc Systems and methods for end-to-end object detection
CN109816695A (zh) * 2019-01-31 2019-05-28 中国人民解放军国防科技大学 一种复杂背景下的红外小型无人机目标检测与跟踪方法
CN111027547A (zh) * 2019-12-06 2020-04-17 南京大学 一种针对二维图像中的多尺度多形态目标的自动检测方法
CN111401201A (zh) * 2020-03-10 2020-07-10 南京信息工程大学 一种基于空间金字塔注意力驱动的航拍图像多尺度目标检测方法
CN111476252A (zh) * 2020-04-03 2020-07-31 南京邮电大学 一种面向计算机视觉应用的轻量化无锚框目标检测方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
陈映雪 等: "基于视频帧间运动估计的无人机图像车辆检测", 《北京航空航天大学学报》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112733630A (zh) * 2020-12-28 2021-04-30 深圳市捷顺科技实业股份有限公司 一种通道闸检测方法、装置、设备及存储介质
CN115861891B (zh) * 2022-12-16 2023-09-29 北京多维视通技术有限公司 视频目标检测方法、装置、设备及介质

Also Published As

Publication number Publication date
CN112101113B (zh) 2022-05-27

Similar Documents

Publication Publication Date Title
CN110503112B (zh) 一种增强特征学习的小目标检测及识别方法
CN109584248B (zh) 基于特征融合和稠密连接网络的红外面目标实例分割方法
CN108961235B (zh) 一种基于YOLOv3网络和粒子滤波算法的缺陷绝缘子识别方法
CN111950453B (zh) 一种基于选择性注意力机制的任意形状文本识别方法
CN110991311B (zh) 一种基于密集连接深度网络的目标检测方法
CN112507777A (zh) 一种基于深度学习的光学遥感图像舰船检测与分割方法
CN112257569B (zh) 一种基于实时视频流的目标检测和识别方法
CN111079739B (zh) 一种多尺度注意力特征检测方法
CN110659664B (zh) 一种基于ssd的高精度识别小物体的方法
CN111126359A (zh) 基于自编码器与yolo算法的高清图像小目标检测方法
CN110991444B (zh) 面向复杂场景的车牌识别方法及装置
CN111079604A (zh) 面向大尺度遥感图像的微小目标快速检测方法
CN111462140B (zh) 一种基于区块拼接的实时图像实例分割方法
CN112101113B (zh) 一种轻量化的无人机图像小目标检测方法
CN111860175B (zh) 一种基于轻量化网络的无人机影像车辆检测方法及装置
CN111126278A (zh) 针对少类别场景的目标检测模型优化与加速的方法
CN114781514A (zh) 一种融合注意力机制的漂浮物目标检测方法及***
CN115937819A (zh) 基于多模态融合的三维目标检测方法及***
CN113743505A (zh) 基于自注意力和特征融合的改进ssd目标检测方法
CN117011655A (zh) 基于自适应区域选择特征融合方法、目标跟踪方法及***
CN105184809A (zh) 运动对象检测方法和运动对象检测装置
CN114219757B (zh) 一种基于改进Mask R-CNN的车辆智能定损方法
CN112487911B (zh) 智能监控环境下基于改进yolov3的实时行人检测方法及装置
CN115272819A (zh) 一种基于改进Faster-RCNN的小目标检测方法
CN111178158A (zh) 一种骑车人检测方法及***

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant