CN116310850B - 基于改进型RetinaNet的遥感图像目标检测方法 - Google Patents

基于改进型RetinaNet的遥感图像目标检测方法 Download PDF

Info

Publication number
CN116310850B
CN116310850B CN202310597005.6A CN202310597005A CN116310850B CN 116310850 B CN116310850 B CN 116310850B CN 202310597005 A CN202310597005 A CN 202310597005A CN 116310850 B CN116310850 B CN 116310850B
Authority
CN
China
Prior art keywords
image
feature
feature map
preliminary
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202310597005.6A
Other languages
English (en)
Other versions
CN116310850A (zh
Inventor
戚有伟
刘茜
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Information Science and Technology
Original Assignee
Nanjing University of Information Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Information Science and Technology filed Critical Nanjing University of Information Science and Technology
Priority to CN202310597005.6A priority Critical patent/CN116310850B/zh
Publication of CN116310850A publication Critical patent/CN116310850A/zh
Application granted granted Critical
Publication of CN116310850B publication Critical patent/CN116310850B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Image Processing (AREA)

Abstract

本申请涉及一种基于改进型RetinaNet的遥感图像目标检测方法。该方法包括:将待检测遥感图像输入特征提取模块进行特征提取,生成不同尺度的初步图像特征,再输入第一注意力模块进行权重信息分析,生成不同尺度的初步权重图像特征输入特征融合模块进行特征融合,生成不同尺度的融合特征,再将不同尺度的初步图像特征和不同尺度的融合特征输入特征增强模块,生成不同尺度的增强融合特征输入第二注意力模块进行权重信息分析,生成不同尺度的增强权重图像特征输入卷积模块进行处理,生成不同尺度的最终图像特征,将不同尺度的最终图像特征输入分类与回归模块进行目标检测,输出目标检测结果。提高了遥感图像的目标检测的精度。

Description

基于改进型RetinaNet的遥感图像目标检测方法
技术领域
本申请涉及目标检测技术领域,特别是涉及一种基于改进型RetinaNet的遥感图像目标检测方法。
背景技术
目标检测是计算机视觉领域中的热门问题,它通常应用在人脸识别、文本识别、行人检测、遥感检测、工业检测等领域;遥感图像目标检测广泛应用于军事国防、海洋检测、智能交通、突发灾害和应急响应等各个方面。遥感图像目标检测旨在从复杂的遥感背景图像中找到感兴趣的目标,并精确高效的标注其位置和类别。与现有的自然图像相比,遥感图像背景信息复杂、待检测目标具有不确定性、尺度变化大,遥感图像经过多次卷积池化操作之后到达网络深层的目标信息会逐渐丢失,导致目标检测平均准确率降低。
近年来,随着深度学习的发展,目标检测算法在精度和速度方面都有所提升。这些算法模型可以分为两类:双阶段目标检测器和单阶段目标检测算法。在双阶段算法中,如R-CNN,第一阶段预设定的9个anchor后,再用算法生成一系列候选框,第二阶段使用卷积神经网络将每个候选框分类为前景或背景。RetinaNet是单阶段算法,在预设9个锚框(anchor)后,不用产生候选框,而是直接将目标边框定位问题转化为回归问题处理。但是RetinaNet 检测器的设计与双阶段算法有许多相似之处,特别是“anchor”的概念,以及特征金字塔网络(FPN)的使用。
FPN可以用来优化不同层次的特征。FPN将不同大小的物体分布到不同的特征层进行检测。随着网络的深入,特征图的语义信息更加丰富,而浅层特征的位置信息更加丰富。为了使浅层特征能够获得更多的语义信息,FPN提出了自顶向下的结构,将特征图从高层传递到低层,以增强浅层特征图的语义信息。FPN减轻了多尺度检测的难度,获得了更好的目标特征。但是FPN的top-down结构更加关注相邻层的特征,因此特征从高层到低层的传播存在障碍。因此基于 FPN 的检测器无法通过使用低级特征来获得目标的最佳结果,使得目前的图像目标检测方法的目标检测精度较低。
发明内容
基于此,有必要针对上述技术问题,提供一种能够目标检测精度的基于改进型RetinaNet的遥感图像目标检测方法。
一种基于改进型RetinaNet的遥感图像目标检测方法,所述方法包括:
将待检测遥感图像输入改进型RetinaNet目标检测模型的特征提取模块进行特征提取,生成不同尺度的初步图像特征;
将所述不同尺度的初步图像特征输入所述改进型RetinaNet目标检测模型的第一注意力模块进行权重信息分析,生成不同尺度的初步权重图像特征;
将所述不同尺度的初步权重图像特征输入所述改进型RetinaNet目标检测模型的特征融合模块进行特征融合,生成不同尺度的融合特征;
将所述不同尺度的初步图像特征和所述不同尺度的融合特征输入所述改进型RetinaNet目标检测模型的特征增强模块,生成不同尺度的增强融合特征;
将所述不同尺度的增强融合特征输入所述改进型RetinaNet目标检测模型的第二注意力模块进行权重信息分析,生成不同尺度的增强权重图像特征;
将所述不同尺度的增强权重图像特征输入所述改进型RetinaNet目标检测模型的卷积模块进行处理,生成不同尺度的最终图像特征;
将所述不同尺度的最终图像特征输入所述改进型RetinaNet目标检测模型的分类与回归模块进行目标检测,输出目标检测结果。
上述基于改进型RetinaNet的遥感图像目标检测方法,通过将待检测遥感图像输入改进型RetinaNet目标检测模型的特征提取模块进行特征提取,生成不同尺度的初步图像特征,再将不同尺度的初步图像特征输入改进型RetinaNet目标检测模型的第一注意力模块进行权重信息分析,生成不同尺度的初步权重图像特征,可以使得重要的信息得到加强,不重要的则进行相应地削弱,进而将不同尺度的初步权重图像特征输入改进型RetinaNet目标检测模型的特征融合模块进行特征融合,生成不同尺度的融合特征,再将不同尺度的初步图像特征和不同尺度的融合特征输入改进型RetinaNet目标检测模型的特征增强模块,生成不同尺度的增强融合特征,可以使得低层特征得到细化,弥补FPN的缺陷,将不同尺度的增强融合特征输入改进型RetinaNet目标检测模型的第二注意力模块进行权重信息分析,生成不同尺度的增强权重图像特征,可以进一步使得重要的信息得到加强,不重要的则进行相应地削弱,将不同尺度的增强权重图像特征输入改进型RetinaNet目标检测模型的卷积模块进行处理,生成不同尺度的最终图像特征,将不同尺度的最终图像特征输入改进型RetinaNet目标检测模型的分类与回归模块进行目标检测,输出目标检测结果。由此,通过增加特征增强模块和注意力模块提高了遥感图像的目标检测的精度。
附图说明
图1为一个实施例中基于改进型RetinaNet的遥感图像目标检测方法的流程示意图;
图2为一个实施例中改进型RetinaNet目标检测模型的结构示意图;
图3为一个实施例中注意力网络的网络结构示意图;
图4为一个实施例中特征融合单元的网络结构示意图;
图5为一个实施例中特征增强模块的网络结构示意图;
图6为一个实施例中采用anchor-based算法的分类与回归单元的网络结构示意图;
图7为一个实施例中采用anchor-free算法的Centerness与回归单元的网络结构示意图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
在一个实施例中,如图1和图2所示,提供了一种基于改进型RetinaNet的遥感图像目标检测方法,以该方法应用于终端为例进行说明,包括以下步骤:
步骤S220,将待检测遥感图像输入改进型RetinaNet目标检测模型的特征提取模块进行特征提取,生成不同尺度的初步图像特征。
其中,待检测遥感图像,可以是需要进行目标检测的遥感图像。
在一个实施例中,特征提取模块包括:特征提取单元、第一卷积单元、第二卷积单元、第三卷积单元和第四卷积单元。
其中,特征提取单元可以使用Resnet50网络,该Resnet50网络将待检测遥感图像变成特征图。
在一个实施例中,将待检测遥感图像输入改进型RetinaNet目标检测模型的特征提取模块进行特征提取,生成不同尺度的初步图像特征,包括:
将待检测遥感图像输入特征提取单元提取出遥感特征图后输入第一卷积单元进行下采样,输出第一初步特征图,第一初步特征图的尺度是遥感特征图的1/4;将第一初步特征图输入第二卷积单元进行下采样,输出第二初步特征图,第二初步特征图的尺度是遥感特征图的1/8;将第二初步特征图输入第三卷积单元进行下采样,输出第三初步特征图,第三初步特征图的尺度是遥感特征图的1/16;将第三初步特征图输入第四卷积单元进行下采样,输出第四初步特征图,第四初步特征图的尺度是遥感特征图的1/32。
其中,初步图像特征包括第一初步特征图、第二初步特征图、第三初步特征图和第四初步特征图。
其中,遥感特征图大小可以为640*640。
其中,第一卷积单元包括3个第一卷积组;第二卷积单元包括4个第二卷积组;第三卷积单元包括6个第三卷积组;第四卷积单元包括3个第四卷积组。
其中,第一卷积组包括3个卷积,该3个卷积分别为一个卷积核大小为1*1和通道数为64的卷积,一个卷积核大小为3*3和通道数为64的卷积,一个卷积核大小为1*1和通道数为256的卷积。
其中,第二卷积组包括3个卷积,该3个卷积分别为卷积核大小为1*1和通道数为128的卷积,卷积核大小为3*3和通道数为128的卷积,卷积核大小为1*1和通道数为512的卷积。
其中,第三卷积组包括3个卷积,该3个卷积分别为一个卷积核大小为1*1和通道数为256的卷积,一个卷积核大小为3*3和通道数为256的卷积,一个卷积核大小为1*1和通道数为1024的卷积。
其中,第四卷积组包括3个卷积,该3个卷积分别为一个卷积核大小为1*1和通道数为512的卷积,一个卷积核大小为3*3和通道数为512的卷积,一个卷积核大小为1*1和通道数为2048的卷积。
在一个实施例中,将640*640的待检测遥感图像输入特征提取模块,先通过特征提取单元提取特征后,再进行尺度变换,通过四个不同尺度的卷积块(即第一卷积单元、第二卷积单元、第三卷积单元和第四卷积单元)进行下采样,最后输出为第一初步特征图、第二初步特征图、第三初步特征图和第四初步特征图,它们的尺度分别是遥感特征图的1/4、1/8、1/16、1/32。
其中,特征提取单元包含卷积层、归一化层以及ReLU激活函数层。
其中,第一卷积单元、第二卷积单元、第三卷积单元和第四卷积单元包含卷积层。
步骤S240,将不同尺度的初步图像特征输入改进型RetinaNet目标检测模型的第一注意力模块进行权重信息分析,生成不同尺度的初步权重图像特征。
在一个实施例中,第一注意力模块包括:第一注意力单元、第二注意力单元、第三注意力单元和第四注意力单元。
其中,第一注意力单元、第二注意力单元、第三注意力单元和第四注意力单元分别包括一个通道注意力和一个空间注意力,分别从通道维度和空间维度推理出更重要的权重信息,得到的注意力权重和原输入特征图进行相乘后输出。
在一个实施例中,将不同尺度的初步图像特征输入改进型RetinaNet目标检测模型的第一注意力模块进行权重信息分析,生成不同尺度的初步权重图像特征,包括:
将第一初步特征图输入第一注意力单元进行权重信息分析,生成第一初步权重图像,第一初步权重图像的尺度是遥感特征图的1/4;将第二初步特征图输入第二注意力单元进行权重信息分析,生成第二初步权重图像,第二初步权重图像的尺度是遥感特征图的1/8;将第三初步特征图输入第三注意力单元进行权重信息分析,生成第三初步权重图像,第三初步权重图像的尺度是遥感特征图的1/16;将第四初步特征图输入第四注意力单元进行权重信息分析,生成第四初步权重图像,第四初步权重图像的尺度是遥感特征图的1/32;其中,初步权重图像特征包括第一初步权重图像、第二初步权重图像、第三初步权重图像和第四初步权重图像。
在一个实施例中,如图3所示,第一注意力单元、第二注意力单元、第三注意力单元和第四注意力单元的注意力网络结构相同,该注意力网络包括:第一MaxPool变换、第一AvgPool变换、第一多层感知机、第一相加操作、第一Sigmoid 激活函数、第一相乘操作、第一卷积层、第二MaxPool变换、第二AvgPool变换、拼接操作、第二卷积层、第二Sigmoid 激活函数和第二相乘操作;将特征图输入至第一MaxPool变换和第一AvgPool变换处理后输入第一多层感知机,在将第一多层感知机输出的特征通过第一相加操作相加后经过第一Sigmoid 激活函数得到第一权重系数; 将权重系数与输入的特征图通过第一相乘操作后获得第一特征图;将第一特征图输入第一卷积层处理,生成第二特征图;将第二特征图输入第二MaxPool变换和第二AvgPool变换后通过拼接操作进行拼接,获得第三特征图;将第三特征图输入第二卷积层处理后经过第二Sigmoid 激活函数得到第二权重系数;将第二权重系数与第一特征图通过第二相乘操作后输出。
其中,如图3所示,特征图经过并行的第一MaxPool变换和第一AvgPool变换,将特征图大小从C*H*W均变为C*1*1,其中,C为通道数,H为特征图的高,W为特征图的宽,再将其输入到第一多层感知机(MLP)中使得通道数变为C/16和C。再将MLP的两个输出相加后经过第一 Sigmoid 激活函数得到第一权重系数,并将第一权重系数与原输入特征图相乘得到新的输出第一特征图。将第一特征图输入第一卷积层处理,生成第二特征图;最后将第二特征图输入第二MaxPool变换和第二AvgPool变换,在通道维度进行MaxPool和AvgPool,压缩通道大小,并进行拼接操作,得到大小为H*W*2的第三特征图,最后进行卷积核大小为7*7的第二卷积层提取特征得到大小为H*W*1的特征图,将所得到的特征图进行sigmoid激活得到第二权重系数,将第二权重系数与第一特征图进行相乘运算得到新的特征图记为,新的特征图即为注意力网络的输出。
步骤S260,将不同尺度的初步权重图像特征输入改进型RetinaNet目标检测模型的特征融合模块进行特征融合,生成不同尺度的融合特征。
在一个实施例中,特征融合模块包括:第五卷积单元、第一特征融合单元、第二特征融合单元和第三特征融合单元。
在一个实施例中,将不同尺度的初步权重图像特征输入改进型RetinaNet目标检测模型的特征融合模块进行特征融合,生成不同尺度的融合特征,包括:
第四初步权重图像输入第五卷积单元进行降维操作,获得待融合特征图像P5,待融合特征图像P5的尺度是遥感特征图的1/32;将待融合特征图像P5和第三初步权重图像输入第一特征融合单元进行特征融合,获得第一融合特征图P4,第一融合特征图P4的尺度是遥感特征图的1/16;将第一融合特征图P4和第二初步权重图像输入第二特征融合单元进行特征融合,获得第二融合特征图P3,第二融合特征图P3的尺度是遥感特征图的1/8;将第二融合特征图P3和第一初步权重图像输入第三特征融合单元进行特征融合,获得第三融合特征图P2,第三融合特征图P2的尺度是遥感特征图的1/4;其中,融合特征包括待融合特征图像P5、第一融合特征图P4、第二融合特征图P3和第三融合特征图P2。
其中,第五卷积单元可以是卷积核大小为1*1的卷积,用于改变第四初步权重图像的通道数。
其中,第一特征融合单元、第二特征融合单元和第三特征融合单元的结构相同,包括卷积核大小为1*1的卷积层和邻近点插值操作;如图4所示,首先将输入的初步权重图像分别通过卷积核大小为1*1的卷积层做卷1*1的卷积修改通道数进行降维的操作,然后对输入的融合特征图像通过采用最近邻插值算法的邻近点插值操作进行上采样,再将其与1*1卷积修改通道数所得到的特征图进行相加融合,从而得到最终的输出特征图。
步骤S280,将不同尺度的初步图像特征和不同尺度的融合特征输入改进型RetinaNet目标检测模型的特征增强模块,生成不同尺度的增强融合特征。
在一个实施例中,如图5所示,特征增强模块包括:第六卷积单元、第七卷积单元、第八卷积单元、第九卷积单元、特征相加单元、第一下采样单元、第二下采样单元、第三下采样单元、第一相加融合单元、第二相加融合单元、第三相加融合单元和第四相加融合单元。
其中,第六卷积单元、第七卷积单元、第八卷积单元和第九卷积单元的卷积核大小可以为1*1,也可以为3*3。
在一个实施例中,将不同尺度的初步图像特征和不同尺度的融合特征输入改进型RetinaNet目标检测模型的特征增强模块,生成不同尺度的增强融合特征,包括:
将第一初步特征图输入第六卷积单元进行处理后,获得处理后的第一初步特征图;将第二初步特征图输入第七卷积单元进行处理后,获得处理后的第二初步特征图;将第三初步特征图输入第八卷积单元进行处理后,获得处理后的第三初步特征图;将第四初步特征图输入第九卷积单元进行处理后,获得处理后的第四初步特征图;采用线性插值将处理后的第二初步特征图、处理后的第三初步特征图和处理后的第四初步特征图的大小增加至与处理后的第一初步特征图的大小相同后,与处理后的第一初步特征图输入至特征相加单元进行相加操作,获得第一细化特征图;将第一细化特征图输入第一下采样单元进行下采样,获得第二细化特征图;将第二细化特征图输入第二下采样单元进行下采样,获得第三细化特征图;将第三细化特征图输入第三下采样单元进行下采样,获得第四细化特征图;将第四细化特征图与待融合特征图像输入第一相加融合单元进行融合,生成第一增强融合特征图;将第三细化特征图与第一融合特征图输入第二相加融合单元进行融合,生成第二增强融合特征图;将第二细化特征图与第二融合特征图输入第三相加融合单元进行融合,生成第三增强融合特征图;将第一细化特征图与第三融合特征图输入第四相加融合单元进行融合,生成第四增强融合特征图;其中,增强融合特征包括第一增强融合特征图、第二增强融合特征图、第三增强融合特征图和第四增强融合特征图。
其中,第一增强融合特征图的尺度是遥感特征图的1/32,第二增强融合特征图的尺度是遥感特征图的1/16,第三增强融合特征图的尺度是遥感特征图的1/8,第四增强融合特征图的尺度是遥感特征图的1/4。
步骤S300,将不同尺度的增强融合特征输入改进型RetinaNet目标检测模型的第二注意力模块进行权重信息分析,生成不同尺度的增强权重图像特征。
在一个实施例中,第二注意力模块包括:第五注意力单元、第六注意力单元、第七注意力单元和第八注意力单元。
其中,第五注意力单元、第六注意力单元、第七注意力单元和第八注意力单元分别包括一个通道注意力和一个空间注意力,分别从通道维度和空间维度推理出更重要的权重信息,得到的注意力权重和原输入特征图进行相乘后输出。
在一个实施例中,将不同尺度的增强融合特征输入改进型RetinaNet目标检测模型的第二注意力模块进行权重信息分析,生成不同尺度的增强权重图像特征,包括:
将第一增强融合特征图输入第五注意力单元进行权重信息分析,生成第一增强权重特征图像;将第二增强融合特征图输入第六注意力单元进行权重信息分析,生成第二增强权重特征图像;将第三增强融合特征图输入第七注意力单元进行权重信息分析,生成第三增强权重特征图像;将第四增强融合特征图输入第八注意力单元进行权重信息分析,生成第四增强权重特征图像;其中,增强权重图像特征包括第一增强权重特征图像、第二增强权重特征图像、第三增强权重特征图像和第四增强权重特征图像。
其中,第一增强权重特征图像的尺度是遥感特征图的1/32,第二增强权重特征图像的尺度是遥感特征图的1/16,第三增强权重特征图像的尺度是遥感特征图的1/8,第四增强权重特征图像的尺度是遥感特征图的1/4。
在一个实施例中,如图3所示,第一注意力单元、第二注意力单元、第三注意力单元、第四注意力单元、第五注意力单元、第六注意力单元、第七注意力单元和第八注意力单元的注意力网络结构相同,该注意力网络包括:第一MaxPool变换、第一AvgPool变换、第一多层感知机、第一相加操作、第一Sigmoid 激活函数、第一相乘操作、第一卷积层、第二MaxPool变换、第二AvgPool变换、拼接操作、第二卷积层、第二Sigmoid 激活函数和第二相乘操作。
将特征图输入至第一MaxPool变换和第一AvgPool变换处理后输入第一多层感知机,在将第一多层感知机输出的特征通过第一相加操作相加后经过第一Sigmoid 激活函数得到第一权重系数; 将权重系数与输入的特征图通过第一相乘操作后获得第一特征图;将第一特征图输入第一卷积层处理,生成第二特征图;将第二特征图输入第二MaxPool变换和第二AvgPool变换后通过拼接操作进行拼接,获得第三特征图;将第三特征图输入第二卷积层处理后经过第二Sigmoid 激活函数得到第二权重系数;将第二权重系数与第一特征图通过第二相乘操作后输出。
步骤S320,将不同尺度的增强权重图像特征输入改进型RetinaNet目标检测模型的卷积模块进行处理,生成不同尺度的最终图像特征。
在一个实施例中,卷积模块包括卷积核大小为3*3的第三卷积层、第四卷积层、第五卷积层和第六卷积层。
在一个实施例中,将不同尺度的增强权重图像特征输入改进型RetinaNet目标检测模型的卷积模块进行处理,生成不同尺度的最终图像特征,包括:
将第一增强权重特征图像输入第三卷积层进行处理,生成第一最终图像;将第二增强权重特征图像输入第四卷积层进行处理,生成第二最终图像;将第三增强权重特征图像输入第五卷积层进行处理,生成第三最终图像;将第四增强权重特征图像输入第六卷积层进行处理,生成第四最终图像;其中,最终图像特征包括第一最终图像、第二最终图像、第三最终图像和第四最终图像。
其中,第一最终图像的尺度是遥感特征图的1/32,第二最终图像的尺度是遥感特征图的1/16,第三最终图像的尺度是遥感特征图的1/8,第四最终图像的尺度是遥感特征图的1/4。
步骤S340,将不同尺度的最终图像特征输入改进型RetinaNet目标检测模型的分类与回归模块进行目标检测,输出目标检测结果。
在一个实施例中,分类与回归模块包括:第一分类与回归单元、第二分类与回归单元、第三分类与回归单元和第四分类与回归单元。
在一个实施例中,将不同尺度的最终图像特征输入改进型RetinaNet目标检测模型的分类与回归模块进行目标检测,输出目标检测结果,包括:
将第一增强权重特征图像输入第一分类与回归单元进行目标检测,输出第一初步检测结果;将第二增强权重特征图像输入第二分类与回归单元进行目标检测,输出第二初步检测结果;将第三增强权重特征图像输入第三分类与回归单元进行目标检测,输出第三初步检测结果;将第四增强权重特征图像输入第四分类与回归单元进行目标检测,输出第四初步检测结果;根据预设的IOU阈值,对第一初步检测结果、第二初步检测结果、第三初步检测结果和第四初步检测结果进行非极大值抑制,获得目标检测结果,其中,预设的IOU阈值为0.5,目标检测结果包括目标框检测结果以及目标分类结果。
在一个实施例中,第一分类与回归单元、第二分类与回归单元和第三分类与回归单元采用的目标检测算法为anchor-based算法。
在一个实施例中,第四分类与回归单元采用的目标检测算法为anchor-based算法和anchor-free算法。
其中,第四分类与回归单元包括采用anchor-based算法的分类与回归单元和采用anchor-free算法的Centerness与回归单元。
在一个实施例中,如图6所示,采用anchor-based算法的分类与回归单元的包括分类分支和回归分支,对于anchor中的每一个类别都预测一个概率。输入该分类与回归单元的特征图像输入分类分支和回归分支,特征图像在分类分支中经过4个卷积核大小为3*3、通道数为256的卷积,最后再经过一个卷积核大小为3*3、通道数为K*A的卷积,输出大小为K*A的向量,用于表示边界框中的每个类别的分类概率。其中K为类别数量,A为anchor数量;特征图像在回归分支中经过4个卷积核大小为3*3、通道数为256的卷积,最后再经过一个卷积核大小为3*3、通道数为4*A的卷积,输出大小为4*A的向量,用于表示边界框中的每个类别的位置,其中,4*A 中的4为回归的四维向量(即:anchor的宽度、高度和左上角的坐标值)大小,A为anchor数量。
在一个实施例中,如图7所示,采用anchor-free算法的Centerness与回归单元包括centerness分支和回归分支,用于预测当前的anchor和它所对应的真实框的偏移量,即不同网格的位置与边界框(bounding box)中心的置信度。输入该Centerness与回归单元的特征图像输入该centerness分支和该回归分支,特征图像在该centerness分支经过4个卷积核大小为3*3、通道数为256的卷积后,再分别经过卷积核大小为3*3、通道数为H*W*1的卷积输出预测anchor的中心位置,特征图像在该回归分支经过4个卷积核大小为3*3、通道数为256的卷积后,再分别经过卷积核大小为3*3、通道数为H*W*4的卷积输出前网格中心点(xy)到真实框上、下、左、右边框的距离,其中,当前网格中心点(xy)到真实框上、下、左、右边框的距离的计算公式为:
其中,t为当前网格中心点到真实框上边框的距离,b为当前网格中心点到真实框下边框的距离,l为当前网格中心点到真实框左边框的距离,q为当前网格中心点到真实框右边框的距离,为真实框的左上角坐标, />为真实框的右下角坐标。centerness为网格的置信度,越靠近真实框中心的点的置信度越接近1,越远离的越接近0。网格的置信度公式为:
应理解,分类与回归模块中的采用anchor-free算法的分类与回归单元可以检测到原RetinaNet方法中预定义anchor尺度范围之外的目标,可以提高遥感图像的检测精度。
上述基于改进型RetinaNet的遥感图像目标检测方法,通过将待检测遥感图像输入改进型RetinaNet目标检测模型的特征提取模块进行特征提取,生成不同尺度的初步图像特征,再将不同尺度的初步图像特征输入改进型RetinaNet目标检测模型的第一注意力模块进行权重信息分析,生成不同尺度的初步权重图像特征,可以使得重要的信息得到加强,不重要的则进行相应地削弱,进而将不同尺度的初步权重图像特征输入改进型RetinaNet目标检测模型的特征融合模块进行特征融合,生成不同尺度的融合特征,再将不同尺度的初步图像特征和不同尺度的融合特征输入改进型RetinaNet目标检测模型的特征增强模块,生成不同尺度的增强融合特征,可以使得低层特征得到细化,弥补FPN的缺陷,将不同尺度的增强融合特征输入改进型RetinaNet目标检测模型的第二注意力模块进行权重信息分析,生成不同尺度的增强权重图像特征,可以进一步使得重要的信息得到加强,不重要的则进行相应地削弱,将不同尺度的增强权重图像特征输入改进型RetinaNet目标检测模型的卷积模块进行处理,生成不同尺度的最终图像特征,将不同尺度的最终图像特征输入改进型RetinaNet目标检测模型的分类与回归模块进行目标检测,输出目标检测结果。由此,通过增加特征增强模块和注意力模块提高了遥感图像的目标检测的精度。
在一个实施例中,改进型RetinaNet目标检测模型的训练方式为:
步骤1,获取遥感图像样本数据集,并对遥感图像样本数据集中的遥感图像样本进行预处理,并按比例将遥感图像样本数据集中的遥感图像样本随机划分为训练集、验证集和测试集。
其中,步骤1包括:从开源数据集网站下载或自制遥感图像样本数据集;将遥感图像样本数据集中遥感图像样本以及其标签进行尺寸缩放;将缩放后的遥感图像样本及标签放入不同文件夹,并按比例划分为训练集、验证集和测试集。
其中,可以将遥感图像样本缩放为640×640尺寸。
其中,可以按照3:1:1比例将遥感图像样本数据集中遥感图像样本随机划分为训练集、验证集和测试集,划分后的文件名列表文件分别为train.txt、val.txt、test.txt。
步骤2,构建改进型RetinaNet目标检测网络。
其中,改进型RetinaNet目标检测网络包括特征提取模块、第一注意力模块、特征融合模块、特征增强模块、第二注意力模块、分类与回归模块。
其中,特征提取模块用于对图像进行特征提取。
其中,第一注意力模块包括空间注意力和通道注意力,位于特征提取之后,让改进型RetinaNet目标检测网络更能把握重点。
其中,特征融合模块主要是对特征提取模块提取出来的特征进行上采样处理,与低层的信息进行融合。
其中,特征增强模块对特征融合模块输出结果进行下采样处理,增强图像的浅层特征。
其中,第二注意力模块包括空间注意力和通道注意力,位于特征增强模块之后,让改进型RetinaNet目标检测网络更能把握重点。
其中,分类与回归模块包括采用anchor-based算法的分类与回归单元和采用anchor-free算法的Centerness与回归单元;采用anchor-free算法的Centerness与回归单元包括回归分支和centerness分支;采用anchor-based算法的分类与回归单元包括回归分支和分类分支。
其中,采用anchor-based算法的分类与回归单元得到目标类别和目标位置信息,采用anchor-free算法的Centerness与回归单元用于检出不在原RetinaNet方法中预定义anchor尺度范围之外的目标,采用anchor-free算法的Centerness与回归单元的centerness分支得到不同网格的位置与边界框(bounding box)中心的置信度,置信度越接近1,则网格离边界框中心越近。
步骤3:利用步骤1得到的训练集、验证集对改进型RetinaNet目标检测网络进行训练,获得训练好的改进型RetinaNet目标检测网络。
其中,步骤3包括:步骤31:设定改进型RetinaNet目标检测网络的初始参数;步骤32:在训练过程中使用Dropout进行正则化,分类分支采用Focal损失函数计算loss,回归分支采用Giou损失函数计算loss,centerness分支使用BCE损失函数计算loss;步骤33:根据Focal损失函数、Giou损失函数以及BCE损失函数计算梯度,采用Adam优化器更新改进型RetinaNet目标检测网络的权重以及偏置;步骤34:重复步骤32-33训练过程,每训练完一轮使用验证集对改进型RetinaNet目标检测网络进行评估,直至训练轮数全部完成,保存最优的改进型RetinaNet目标检测网络,作为训练好的改进型RetinaNet目标检测网络。
其中,在训练过程中使用Dropout进行正则化,分类分支中采用Focal损失函数计算loss,Focal损失函数表示为:
其中,为Focal损失函数,/>为抑制正负样本的数量失衡的影响参数,/>为正样本的概率,r为控制简单/难区分样本数量失衡的影响参数。
其中,回归分支采用的是Giou(Generalized IOU)损失函数,Giou损失函数表示为:
其中,A为目标实际区域,B为目标预测区域,C为包围A和B的最小区域,IOU(Intersection over Union)为交并比函数,交并比函数用于衡量真实框和预测框位置偏差大小的指标,GIOU为Giou损失函数,Giou损失函数用于衡量真实框和预测框位置偏差大小的指标,是IOU指标的改进方案。
其中,Centerness分支是采用BCE损失函数,BCE损失函数表示为:
其中,BCE 为BCE损失函数,BCE损失函数用于表示Centerness预测值和真实值的距离,为第n个样本对应的loss,N为样本总个数, />表示第n个样本真实标签值,/>表示第n个样本实际预测值,w表示权重值大小。
步骤4:将步骤1得到的测试集输入到步骤3所得到的改进型RetinaNet目标检测网络进行测试,当测试结果满足精度要求时,获得改进型RetinaNet目标检测模型。
其中,步骤4包括:设置改进型RetinaNet目标检测网络的loss、学习率、优化器等参数;导入步骤S3中获得的训练好的改进型RetinaNet目标检测网络,输入测试集进行测试,当测试结果满足精度要求时,获得改进型RetinaNet目标检测模型。
应该理解的是,虽然图1的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图1中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。

Claims (6)

1.一种基于改进型RetinaNet的遥感图像目标检测方法,其特征在于,所述方法包括:
将待检测遥感图像输入改进型RetinaNet目标检测模型的特征提取模块进行特征提取,生成不同尺度的初步图像特征;
将所述不同尺度的初步图像特征输入所述改进型RetinaNet目标检测模型的第一注意力模块进行权重信息分析,生成不同尺度的初步权重图像特征;
将所述不同尺度的初步权重图像特征输入所述改进型RetinaNet目标检测模型的特征融合模块进行特征融合,生成不同尺度的融合特征;
将所述不同尺度的初步图像特征和所述不同尺度的融合特征输入所述改进型RetinaNet目标检测模型的特征增强模块,生成不同尺度的增强融合特征;
将所述不同尺度的增强融合特征输入所述改进型RetinaNet目标检测模型的第二注意力模块进行权重信息分析,生成不同尺度的增强权重图像特征;
将所述不同尺度的增强权重图像特征输入所述改进型RetinaNet目标检测模型的卷积模块进行处理,生成不同尺度的最终图像特征;
将所述不同尺度的最终图像特征输入所述改进型RetinaNet目标检测模型的分类与回归模块进行目标检测,输出目标检测结果;
所述特征提取模块包括:特征提取单元、第一卷积单元、第二卷积单元、第三卷积单元和第四卷积单元;所述将待检测遥感图像输入改进型RetinaNet目标检测模型的特征提取模块进行特征提取,生成不同尺度的初步图像特征,包括:
将待检测遥感图像输入所述特征提取单元提取出遥感特征图后输入第一卷积单元进行下采样,输出第一初步特征图,所述第一初步特征图的尺度是所述遥感特征图的1/4;
将所述第一初步特征图输入所述第二卷积单元进行下采样,输出第二初步特征图,所述第二初步特征图的尺度是所述遥感特征图的1/8;
将所述第二初步特征图输入所述第三卷积单元进行下采样,输出第三初步特征图,所述第三初步特征图的尺度是所述遥感特征图的1/16;
将所述第三初步特征图输入所述第四卷积单元进行下采样,输出第四初步特征图,所述第四初步特征图的尺度是所述遥感特征图的1/32;
其中,初步图像特征包括所述第一初步特征图、所述第二初步特征图、所述第三初步特征图和所述第四初步特征图;
所述第一注意力模块包括:第一注意力单元、第二注意力单元、第三注意力单元和第四注意力单元;
所述将所述不同尺度的初步图像特征输入所述改进型RetinaNet目标检测模型的第一注意力模块进行权重信息分析,生成不同尺度的初步权重图像特征,包括:
将所述第一初步特征图输入所述第一注意力单元进行权重信息分析,生成第一初步权重图像,所述第一初步权重图像的尺度是所述遥感特征图的1/4;
将所述第二初步特征图输入所述第二注意力单元进行权重信息分析,生成第二初步权重图像,所述第二初步权重图像的尺度是所述遥感特征图的1/8;
将所述第三初步特征图输入所述第三注意力单元进行权重信息分析,生成第三初步权重图像,所述第三初步权重图像的尺度是所述遥感特征图的1/16;
将所述第四初步特征图输入所述第四注意力单元进行权重信息分析,生成第四初步权重图像,所述第四初步权重图像的尺度是所述遥感特征图的1/32;
其中,所述初步权重图像特征包括第一初步权重图像、第二初步权重图像、第三初步权重图像和第四初步权重图像;
所述特征融合模块包括:第五卷积单元、第一特征融合单元、第二特征融合单元和第三特征融合单元;
所述将所述不同尺度的初步权重图像特征输入所述改进型RetinaNet目标检测模型的特征融合模块进行特征融合,生成不同尺度的融合特征,包括:
所述第四初步权重图像输入所述第五卷积单元进行降维操作,获得待融合特征图像,所述待融合特征图像的尺度是所述遥感特征图的1/32;
将所述待融合特征图像和所述第三初步权重图像输入第一特征融合单元进行特征融合,获得第一融合特征图,所述第一融合特征图的尺度是所述遥感特征图的1/16;
将所述第一融合特征图和所述第二初步权重图像输入第二特征融合单元进行特征融合,获得第二融合特征图,所述第二融合特征图的尺度是所述遥感特征图的1/8;
将所述第二融合特征图和所述第一初步权重图像输入第三特征融合单元进行特征融合,获得第三融合特征图,所述第三融合特征图的尺度是所述遥感特征图的1/4;
其中,所述融合特征包括所述待融合特征图像、所述第一融合特征图、所述第二融合特征图和所述第三融合特征图;
所述特征增强模块包括:第六卷积单元、第七卷积单元、第八卷积单元、第九卷积单元、特征相加单元、第一下采样单元、第二下采样单元、第三下采样单元、第一相加融合单元、第二相加融合单元、第三相加融合单元和第四相加融合单元;
所述将所述不同尺度的初步图像特征和所述不同尺度的融合特征输入所述改进型RetinaNet目标检测模型的特征增强模块,生成不同尺度的增强融合特征,包括:
将所述第一初步特征图输入第六卷积单元进行处理后,获得处理后的第一初步特征图;
将所述第二初步特征图输入第七卷积单元进行处理后,获得处理后的第二初步特征图;
将所述第三初步特征图输入第八卷积单元进行处理后,获得处理后的第三初步特征图;
将所述第四初步特征图输入第九卷积单元进行处理后,获得处理后的第四初步特征图;
采用线性插值将所述处理后的第二初步特征图、处理后的第三初步特征图和所述处理后的第四初步特征图的大小增加至与所述处理后的第一初步特征图的大小相同后,与所述处理后的第一初步特征图输入至特征相加单元进行相加操作,获得第一细化特征图;
将所述第一细化特征图输入第一下采样单元进行下采样,获得第二细化特征图;
将所述第二细化特征图输入第二下采样单元进行下采样,获得第三细化特征图;
将所述第三细化特征图输入第三下采样单元进行下采样,获得第四细化特征图;
将所述第四细化特征图与所述待融合特征图像输入第一相加融合单元进行融合,生成第一增强融合特征图,所述第一增强融合特征图的尺度是所述遥感特征图的1/32;
将所述第三细化特征图与所述第一融合特征图输入第二相加融合单元进行融合,生成第二增强融合特征图,所述第二增强融合特征图的尺度是所述遥感特征图的1/16;
将所述第二细化特征图与所述第二融合特征图输入第三相加融合单元进行融合,生成第三增强融合特征图,所述第三增强融合特征图的尺度是所述遥感特征图的1/8;
将所述第一细化特征图与所述第三融合特征图输入第四相加融合单元进行融合,生成第四增强融合特征图,所述第四增强融合特征图的尺度是所述遥感特征图的1/4;
其中,所述增强融合特征包括第一增强融合特征图、第二增强融合特征图、第三增强融合特征图和第四增强融合特征图。
2.根据权利要求1所述的基于改进型RetinaNet的遥感图像目标检测方法,其特征在于,所述第二注意力模块包括:第五注意力单元、第六注意力单元、第七注意力单元和第八注意力单元;
所述将所述不同尺度的增强融合特征输入所述改进型RetinaNet目标检测模型的第二注意力模块进行权重信息分析,生成不同尺度的增强权重图像特征,包括:
将所述第一增强融合特征图输入所述第五注意力单元进行权重信息分析,生成第一增强权重特征图像,所述第一增强权重特征图像的尺度是所述遥感特征图的1/32;
将所述第二增强融合特征图输入所述第六注意力单元进行权重信息分析,生成第二增强权重特征图像,所述第二增强权重特征图像的尺度是所述遥感特征图的1/16;
将所述第三增强融合特征图输入所述第七注意力单元进行权重信息分析,生成第三增强权重特征图像,所述第三增强权重特征图像的尺度是所述遥感特征图的1/8;
将所述第四增强融合特征图输入所述第八注意力单元进行权重信息分析,生成第四增强权重特征图像,所述第四增强权重特征图像的尺度是所述遥感特征图的1/4;
其中,所述增强权重图像特征包括所述第一增强权重特征图像、所述第二增强权重特征图像、所述第三增强权重特征图像和所述第四增强权重特征图像。
3.根据权利要求2所述的基于改进型RetinaNet的遥感图像目标检测方法,其特征在于,所述第一注意力单元、第二注意力单元、第三注意力单元、第四注意力单元、第五注意力单元、第六注意力单元、第七注意力单元和第八注意力单元的注意力网络结构相同,该注意力网络包括:第一MaxPool变换、第一AvgPool变换、第一多层感知机、第一相加操作、第一Sigmoid激活函数、第一相乘操作、第一卷积层、第二MaxPool变换、第二AvgPool变换、拼接操作、第二卷积层、第二Sigmoid激活函数和第二相乘操作;
将特征图输入至第一MaxPool变换和第一AvgPool变换处理后输入第一多层感知机,在将所述第一多层感知机输出的特征通过第一相加操作相加后经过第一Sigmoid激活函数得到第一权重系数;
将所述权重系数与输入的所述特征图通过第一相乘操作后获得第一特征图;
将所述第一特征图输入第一卷积层处理,生成第二特征图;
将所述第二特征图输入第二MaxPool变换和第二AvgPool变换后通过拼接操作进行拼接,获得第三特征图;
将所述第三特征图输入第二卷积层处理后经过第二Sigmoid激活函数得到第二权重系数;
将所述第二权重系数与所述第一特征图通过所述第二相乘操作后输出。
4.根据权利要求3所述的基于改进型RetinaNet的遥感图像目标检测方法,其特征在于,所述卷积模块包括卷积核大小为3*3的第三卷积层、第四卷积层、第五卷积层和第六卷积层;
所述将所述不同尺度的增强权重图像特征输入所述改进型RetinaNet目标检测模型的卷积模块进行处理,生成不同尺度的最终图像特征,包括:
将所述第一增强权重特征图像输入所述第三卷积层进行处理,生成第一最终图像,所述第一最终图像的尺度是所述遥感特征图的1/32;
将所述第二增强权重特征图像输入所述第四卷积层进行处理,生成第二最终图像,所述第二最终图像的尺度是所述遥感特征图的1/16;
将所述第三增强权重特征图像输入所述第五卷积层进行处理,生成第三最终图像,所述第三最终图像的尺度是所述遥感特征图的1/8;
将所述第四增强权重特征图像输入所述第六卷积层进行处理,生成第四最终图像,所述第四最终图像的尺度是所述遥感特征图的1/4;
其中,所述最终图像特征包括所述第一最终图像、所述第二最终图像、所述第三最终图像和所述第四最终图像。
5.根据权利要求4所述的基于改进型RetinaNet的遥感图像目标检测方法,其特征在于,所述分类与回归模块包括:第一分类与回归单元、第二分类与回归单元、第三分类与回归单元和第四分类与回归单元;
所述将所述不同尺度的最终图像特征输入所述改进型RetinaNet目标检测模型的分类与回归模块进行目标检测,输出目标检测结果,包括:
将所述第一最终图像输入所述第一分类与回归单元进行目标检测,输出第一初步检测结果;
将所述第二最终图像输入所述第二分类与回归单元进行目标检测,输出第二初步检测结果;
将所述第三最终图像输入所述第三分类与回归单元进行目标检测,输出第三初步检测结果;
将所述第四最终图像输入所述第四分类与回归单元进行目标检测,输出第四初步检测结果;
根据预设的IOU阈值,对所述第一初步检测结果、所述第二初步检测结果、所述第三初步检测结果和所述第四初步检测结果进行非极大值抑制,获得目标检测结果,其中,所述预设的IOU阈值为0.5,所述目标检测结果包括目标框检测结果以及目标分类结果。
6.根据权利要求5所述的基于改进型RetinaNet的遥感图像目标检测方法,其特征在于,所述第一分类与回归单元、第二分类与回归单元和第三分类与回归单元采用的目标检测算法为anchor-based算法;
所述第四分类与回归单元采用的目标检测算法为anchor-based算法和anchor-free算法。
CN202310597005.6A 2023-05-25 2023-05-25 基于改进型RetinaNet的遥感图像目标检测方法 Active CN116310850B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310597005.6A CN116310850B (zh) 2023-05-25 2023-05-25 基于改进型RetinaNet的遥感图像目标检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310597005.6A CN116310850B (zh) 2023-05-25 2023-05-25 基于改进型RetinaNet的遥感图像目标检测方法

Publications (2)

Publication Number Publication Date
CN116310850A CN116310850A (zh) 2023-06-23
CN116310850B true CN116310850B (zh) 2023-08-15

Family

ID=86832722

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310597005.6A Active CN116310850B (zh) 2023-05-25 2023-05-25 基于改进型RetinaNet的遥感图像目标检测方法

Country Status (1)

Country Link
CN (1) CN116310850B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117710827A (zh) * 2024-02-06 2024-03-15 华东交通大学 基于改进RetinaNet的遥感图像目标检测模型

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110287927A (zh) * 2019-07-01 2019-09-27 西安电子科技大学 基于深度多尺度和上下文学习的遥感影像目标检测方法
AU2019101133A4 (en) * 2019-09-30 2019-10-31 Bo, Yaxin MISS Fast vehicle detection using augmented dataset based on RetinaNet
CN114972851A (zh) * 2022-05-12 2022-08-30 北京理工大学 一种基于遥感影像的船只目标智能检测方法
CN115861772A (zh) * 2023-02-22 2023-03-28 杭州电子科技大学 基于RetinaNet的多尺度单阶段目标检测方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110287927A (zh) * 2019-07-01 2019-09-27 西安电子科技大学 基于深度多尺度和上下文学习的遥感影像目标检测方法
AU2019101133A4 (en) * 2019-09-30 2019-10-31 Bo, Yaxin MISS Fast vehicle detection using augmented dataset based on RetinaNet
CN114972851A (zh) * 2022-05-12 2022-08-30 北京理工大学 一种基于遥感影像的船只目标智能检测方法
CN115861772A (zh) * 2023-02-22 2023-03-28 杭州电子科技大学 基于RetinaNet的多尺度单阶段目标检测方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于深度学习的可见光遥感图像目标检测算法研究;凡文俊;中国优秀硕士学位论文全文数据库(月刊)(第01期);正文第20-50页 *

Also Published As

Publication number Publication date
CN116310850A (zh) 2023-06-23

Similar Documents

Publication Publication Date Title
Yang et al. Pipeline magnetic flux leakage image detection algorithm based on multiscale SSD network
Kong et al. YOLOv3-DPFIN: A dual-path feature fusion neural network for robust real-time sonar target detection
CN109086811B (zh) 多标签图像分类方法、装置及电子设备
CN114202672A (zh) 一种基于注意力机制的小目标检测方法
CN112396002A (zh) 一种基于SE-YOLOv3的轻量级遥感目标检测方法
CN112541904B (zh) 一种无监督遥感图像变化检测方法、存储介质及计算设备
CN113128558B (zh) 基于浅层空间特征融合与自适应通道筛选的目标检测方法
CN107784288A (zh) 一种基于深度神经网络的迭代定位式人脸检测方法
US20200065664A1 (en) System and method of measuring the robustness of a deep neural network
CN111368634B (zh) 基于神经网络的人头检测方法、***及存储介质
CN113469088A (zh) 一种无源干扰场景下的sar图像舰船目标检测方法及***
CN112560733B (zh) 面向两期遥感影像的多任务处理***及方法
CN113592060A (zh) 一种神经网络优化方法以及装置
CN114332473A (zh) 目标检测方法、装置、计算机设备、存储介质及程序产品
CN116310850B (zh) 基于改进型RetinaNet的遥感图像目标检测方法
CN111179270A (zh) 基于注意力机制的图像共分割方法和装置
CN113408663B (zh) 融合模型构建方法、融合模型使用方法、装置和电子设备
CN116805387B (zh) 基于知识蒸馏的模型训练方法、质检方法和相关设备
CN112634174B (zh) 一种图像表示学习方法及***
US20230410465A1 (en) Real time salient object detection in images and videos
CN117011640A (zh) 基于伪标签滤波的模型蒸馏实时目标检测方法及装置
CN116311004A (zh) 基于稀疏光流提取的视频运动目标检测方法
US11587345B2 (en) Image identification device, method for performing semantic segmentation, and storage medium
CN116030347B (zh) 一种基于注意力网络的高分辨率遥感影像建筑物提取方法
CN117557775B (zh) 基于红外和可见光融合的变电站电力设备检测方法及***

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant