CN113313128A - 一种基于改进YOLOv3网络的SAR图像目标检测方法 - Google Patents

一种基于改进YOLOv3网络的SAR图像目标检测方法 Download PDF

Info

Publication number
CN113313128A
CN113313128A CN202110613778.XA CN202110613778A CN113313128A CN 113313128 A CN113313128 A CN 113313128A CN 202110613778 A CN202110613778 A CN 202110613778A CN 113313128 A CN113313128 A CN 113313128A
Authority
CN
China
Prior art keywords
sar image
network
frame
box
candidate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110613778.XA
Other languages
English (en)
Other versions
CN113313128B (zh
Inventor
蒋忠进
王强
曾祥书
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Southeast University
Original Assignee
Southeast University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Southeast University filed Critical Southeast University
Priority to CN202110613778.XA priority Critical patent/CN113313128B/zh
Publication of CN113313128A publication Critical patent/CN113313128A/zh
Application granted granted Critical
Publication of CN113313128B publication Critical patent/CN113313128B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Health & Medical Sciences (AREA)
  • Probability & Statistics with Applications (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于改进YOLOv3网络的SAR图像目标检测方法,步骤为:将SAR图像训练数据集输入到Darknet53网络,对SAR图像进行特征提取,得到SAR图像的基础特征图;对应于SAR图像大中小三种网格划分,将基础特征图按照大中小三种尺度进行特征提取和特征融合,得到与SAR图像对应的多尺度特征图;将多尺度特征图输入到预测网络,进行候选框参数的调整和优化;将优化后的候选框参数和标注框参数代入损失函数,计算当前网络的损失值;基于得到的损失值,反向传播更新网络参数,通过反复训练,直至网络参数收敛;输入SAR图像测试数据集,进行网络测试,输出和目标一对一匹配的检测框,以及各项检测指标。

Description

一种基于改进YOLOv3网络的SAR图像目标检测方法
技术领域
本发明涉及一种基于改进YOLOv3网络的SAR图像目标检测方法,属于深度学习和机器视觉技术领域。
背景技术
近年来,人工智能发展迅速,在军事、地探、医疗、城市规划等诸多领域都得到广泛应用,并取得了不错的效果,尤其是以卷积神经网络(convolutional neural network,CNN)为核心的深度学习框架在图像处理和机器视觉方面展现出了强大的能力。CNN不仅在光学图像处理上表现优异,在SAR(Synthetic Aperture Radar)图像自动解译中也卓有成效,能够高效准确地进行目标检测与识别。
目前基于深度学习的目标检测方法主要可以分为两种:双阶段(two-stage)检测模型和单阶段(one-stage)检测模型。双阶段指的是先进行特征提取和区域筛选,得到一系列候选框,再进一步进行分类识别,主要包括Fast-RCNN、Faster-RCNN等,双阶段算法的优点就是精度高,但是检测速度慢,难以实现目标的实时检测。单阶段检测是基于参数回归的检测方法,其特点就是将生成候选框和分类回归合并成一个步骤,主要包括YOLO(You OnlyLook Once)系列的方法。2015年Redmon J等提出YOLO算法,时隔一年便再次提出了YOLOv2算法,大大降低了计算复杂度,加快了目标检测的速度。在2018年4月,该作者推出了YOLOv3算法,在精度和速度上又一次得到明显的改进。但是直接将常规YOLOv3网络用来作SAR图像目标检测,会出现较多的虚检和漏检现象。如何改进YOLOv3网络,使其更适合于SAR图像目标检测,从而提高查准率和查全率,是科研人员面临的一个问题。
发明内容
为了克服现有技术中存在的不足,本发明的目的是提供一种基于改进YOLOv3网络的SAR图像目标检测方法。为了更好地进行候选框参数优化,采用k-means聚类方法产生了9组先验锚点框,作为候选框尺寸的初始值;为了更好地描述两个边界框的吻合度,引入rGIOU来代替交并比rIOU,重新计算了框回归损失和置信度损失,优化了总体损失函数,从而通过反向传播来更有效地更新网络参数。
为实现上述目的,本发明采用的技术方案为:
一种基于改进YOLOv3网络的SAR图像目标检测方法,包括以下步骤:
步骤1,准备好SAR图像训练数据集,数据集中为每个已知目标附上标注框参数,包括:框中心坐标、框宽度和高度、目标类别和置信度;将SAR图像训练数据集输入到Darknet53网络,对SAR图像进行特征提取,得到SAR图像的基础特征图;
步骤2,对应于SAR图像大中小三种网格划分,将基础特征图按照大中小三种尺度进行特征提取和特征融合,得到SAR图像的多尺度特征图;每个SAR图像网格配有三个尺寸的候选框,每个候选框具有如下参数:框中心坐标、框宽度和高度、目标类别和置信度;
步骤3,将多尺度特征图输入到预测网络,进行候选框参数的调整和优化;
步骤4,将优化后的候选框参数和标注框参数代入损失函数,计算当前网络的损失值;
步骤5,基于得到的损失值,反向传播更新网络参数,通过反复训练,直至网络参数收敛;
步骤6,输入SAR图像测试数据集,进行网络测试,输出和目标一对一匹配的检测框,以及各项检测指标。
所述步骤3中,对候选框参数进行优化前需要对候选框参数进行初始化,其中框宽度和高度参数的初始值计算如下:
(1)将训练数据集中所有的标注框的中心对齐,列举所有标注框的尺寸数据;
(2)通过k-means聚类方法进行标注框尺寸的聚类,聚类用到的距离度量d计算如下:
d(A,B)=1-rIOU(A,B)
Figure BDA0003097153400000021
其中,A和B是两个不同的边界框,rIOU表示交并比运算,rIOU(A,B)表示边界框A和B之间的交并比,∩表示求交运算,∪表示求并运算;
(3)提取最密集存在的9个尺寸,得到9组先验锚点框,作为候选框尺寸的初始值;其中,存在大、中、小三种尺度的网格,每种尺度的网格配备3种尺寸的候选框,一共9种候选框尺寸。
所述步骤4中,损失函数表示如下:
ltotal=lbox+lcls+lobj
其中,lbox表示框回归损失,lcls表示分类损失,lobj表示置信度损失;
框回归损失lbox表示如下:
Figure BDA0003097153400000022
其中,λcoord为权重因子;每幅图像分为S*S个网格,每个网格具有J个候选框;
Figure BDA0003097153400000031
Figure BDA0003097153400000032
分别为第i个网格对应的标注框的宽度和高度;
Figure BDA0003097153400000033
代表第i个网格的第j个候选框是否包含目标,有目标为1,否则为0;
Figure BDA0003097153400000034
表示Bi,j
Figure BDA0003097153400000035
之间的rGIOU值,其中Bi,j表示第i个网格的第j个候选框,
Figure BDA0003097153400000036
表示第i个网格对应的标注框;
分类损失lcls表示如下:
Figure BDA0003097153400000037
其中,pi,j为第i个网格的第j个候选框被预测为包含目标的概率,
Figure BDA0003097153400000038
为第i个网格对应的标注框包含目标的概率,fetrp()表示二分类交叉熵函数;
置信度损失lobj表示如下:
Figure BDA0003097153400000039
其中,λnoobj为权重因子;
Figure BDA00030971534000000310
代表第i个网格的第j个候选框是否包含目标,没有目标时值为1,否则值为0;Ci,j表示第i个网格的第j个候选框的置信度分数,
Figure BDA00030971534000000311
表示第i个网格对应的标注框的置信度分数;
上述的rGIOU计算如下:
Figure BDA00030971534000000312
其中,D是边界框A和边界框B的最小闭合凸面,即能够包住它们的最小方框;D\(A∪B)表示D中去除A和B并集的剩下部分;
上述的二分类交叉熵函数fetrp()表示如下:
Figure BDA00030971534000000313
其中,u是候选框参数,
Figure BDA00030971534000000314
是标注框参数。
上述的置信度分数Ci,j计算如下:
Figure BDA00030971534000000315
其中,pi,j为第i个网格的第j个候选框被预测为包含目标的概率;
Figure BDA0003097153400000041
表示Bi,j
Figure BDA0003097153400000042
之间的rGIOU值,其中Bi,j表示第i个网格的第j个候选框,
Figure BDA0003097153400000043
表示第i个网格对应的标注框。
本发明中改进YOLOv3网络使用k-means聚类方法,以交并比rIOU作为度量距离,对SAR图像训练数据集中的标注框尺寸进行聚类,得到9组先验锚点框,作为候选框优化的框尺寸初始值。
本发明中改进YOLOv3网络改进了框回归损失函数和置信度损失函数,从而优化了总体损失函数。
本发明中改进YOLOv3网络引入了基于rGIOU的相似性度量,更新了置信度分数的计算方法,能更好地计算两个边界框之间的吻合度。
有益效果:和常规YOLOv3网络相比,本发明提出的改进YOLOv3网络在训练时的网络收敛速度更快。在SAR图像目标检测指标方面,具有更低的虚检和漏检,更加适合于图像背景复杂和目标尺寸大小不一时的目标检测。
附图说明
图1为改进YOLOv3网络结构框图;
图2为港口场景舰船目标检测虚警对比图;其中,(a)常规YOLOv3网络检测结果;(b)改进YOLOv3网络检测结果;
图3为港口场景舰船目标检测漏警对比图;其中,(a)常规YOLOv3网络检测结果;(b)改进YOLOv3网络检测结果;
图4为常规YOLOv3网络和改进YOLOv3网络损失函数曲线对比图。
具体实施方式
下面结合附图和具体实施例,进一步阐明本发明,应理解这些实例仅用于说明本发明而不用于限制本发明的范围。在阅读了本发明之后,本领域技术人员对本发明的各种等价形式的修改均落于本申请所附权利要求所限定的范围。
本发明公开了一种基于改进YOLOv3网络的SAR图像目标检测方法,其网络结构图如图1所示。将SAR图像训练数据集输入到Darknet53网络,对SAR图像进行特征提取,得到SAR图像的基础特征图;将基础特征图按照大中小三种尺度,进行特征提取和特征融合,得到多尺度特征图;将多尺度特征图输入到预测网络,进行候选框参数的调整和优化;将优化后的候选框参数和标注框参数代入损失函数,计算当前网络的损失值;基于得到的损失值,反向传播更新网络参数,通过反复训练,直至网络参数收敛;输入SAR图像测试数据集,进行网络测试,输出和目标一对一匹配的检测框,以及各项检测指标。
下面以SAR图像舰船目标检测作为具体实施例,具体步骤如下:
步骤1,准备好SAR图像训练数据集,将所有图像的大小调整为416×416;训练数据集中为每个已知目标附上标注框参数,包括:框中心坐标、框宽度和高度、目标类别和置信度;将SAR图像训练数据集输入到Darknet53网络,对SAR图像进行特征提取,得到SAR图像的基础特征图;
步骤2,对应于SAR图像的13×13、26×26、52×52三种网格划分,将基础特征图按照大中小三种尺度进行特征提取和特征融合,得到SAR图像的多尺度特征图;每个SAR图像网格配有三个尺寸的候选框,每个候选框具有如下参数:框中心坐标、框宽度和高度、目标类别和置信度;
步骤3、将多尺度特征图输入到预测网络,进行候选框参数的调整和优化。
对候选框参数进行优化前需要对候选框参数进行初始化,其中框宽度和高度初始值计算如下:
1)将训练数据集中所有的标注框的中心对齐,列举所有标注框的尺寸数据。
2)通过k-means聚类方法进行标注框尺寸的聚类,聚类用到的距离度量d计算如下:
d(A,B)=1-rIOU(A,B)
Figure BDA0003097153400000051
其中,A和B是两个不同的边界框,rIOU表示交并比运算,rIOU(A,B)表示边界框A和B之间的交并比,∩表示求交运算,∪表示求并运算。
3)提取最密集存在的9个尺寸,得到9组先验锚点框,作为候选框尺寸的初始值。其中,存在大、中、小三种尺度的网格,每种尺度的网格需要3种尺寸的候选框,一共9种候选框尺寸。
步骤4、将优化后的候选框参数和标注框参数代入损失函数,计算当前网络的损失值。
所用到的损失函数表示如下:
ltotal=lbox+lcls+lobj
其中,lbox表示框回归损失,lcls表示分类损失,lobj表示置信度损失。
框回归损失lbox表示如下:
Figure BDA0003097153400000061
其中,λcoord为权重因子;每幅图像分为S*S个网格,每个网格具有J个候选框;
Figure BDA0003097153400000062
Figure BDA0003097153400000063
分别为第i个网格对应的标注框的宽度和高度;
Figure BDA0003097153400000064
代表第i个网格的第j个候选框是否包含目标,有目标为1,否则为0;
Figure BDA0003097153400000065
表示Bi,j
Figure BDA0003097153400000066
之间的rGIOU值,其中Bi,j表示第i个网格的第j个候选框,
Figure BDA0003097153400000067
表示第i个网格对应的标注框。
分类损失lcls表示如下:
Figure BDA0003097153400000068
其中,pi,j为第i个网格的第j个候选框被预测为包含目标的概率,
Figure BDA0003097153400000069
为第i个网格对应的标注框包含目标的概率,fetrp()表示二分类交叉熵函数。
置信度损失lobj表示如下:
Figure BDA00030971534000000610
其中λnoobj为权重因子,
Figure BDA00030971534000000611
代表第i个网格的第j个候选框是否包含目标,没有目标时值为1,否则值为0;Ci,j表示第i个网格的第j个候选框的置信度分数,
Figure BDA00030971534000000612
表示第i个网格对应的标注框的置信度分数。
上述的rGIOU计算如下:
Figure BDA00030971534000000613
其中,D是边界框A和边界框B的最小闭合凸面,即能够包住它们的最小方框;D\(A∪B)表示D中去除A和B并集的剩下部分。
上述的二分类交叉熵函数fetrp()表示如下:
Figure BDA00030971534000000614
其中,u是候选框参数,
Figure BDA00030971534000000615
是标注框参数。
上述的置信度分数Ci,j计算如下:
Figure BDA0003097153400000071
步骤5、基于损失值,反向传播更新网络参数;通过反复训练,直至网络参数收敛。
步骤6、准备SAR图像测试数据集,将所有图像的大小调整为416×416,用于改进版YOLOv3网络测试。将测试数据集输入网络进行处理,直至得到参数优化后的候选框;采用非最大值抑制(NMS)算法,将属于同一类目标的重叠率较高而置信度较小的多个候选框删除,得到和目标一对一匹配的多个检测框;统计查全率和查准率等各项检测指标,输出检测结果。
性能评价指标包括查准率rP,查全率rR以及二者的调和平均数F1,计算公式分别为:
Figure BDA0003097153400000072
Figure BDA0003097153400000073
Figure BDA0003097153400000074
其中NTP为正确检出的目标个数,NFP为虚检的目标个数,NFN是漏检的目标个数。
实施例:
本实施例采用高分辨SAR舰船目标检测数据集AIR-SARShip-2.0对本发明提出的改进版YOLOv3网络进行了验证。该数据集由雷达学报于2020年公开,一共包括300幅SAR图像,图像分辨率包括1m和3m。图像尺寸约为1000×1000像素,图像格式为Tiff、单通道、8/16位图像深度,标注文件提供相应图像的长宽尺寸、标注目标的类别以及标注矩形框的位置。该数据集中的SAR图像涉及到港口、岛礁、海面等不同场景,包含运输船、油船、渔船等不同舰船目标,每张图像包括不同数量的舰船目标。
本实施例首先利用翻转、平移、改变亮度等方法扩充数据集,扩充后一共得到1500幅SAR图像,并为每张SAR图像建立相应的标签。使用随机抽取的1200张SAR图像作为训练数据集,剩下的300张作为测试数据集。
设置改进YOLOv3网络的网络参数。采用COCO权重文件进行模型的初始化训练,滑动平均衰减率设为0.9995,初始化学习率为1e-4,最终学习率为1e-6,上采样使用最近邻插值法将图像放大两倍。设置BatchSize为6,分两次迭代训练,第一次局部训练的代数为20个epoch,第二次全局训练的代数为30个epoch。IOU阈值设为0.5,类别数为1,即ship类别。
实验结果显示,改进YOLOv3网络的查准率相比常规YOLOv3网络提高了1.4个百分点,这说明改进YOLOv3网络降低了虚检率。图2给出了两种网络在复杂海港背景下的舰船目标检测结果,图(a)为常规YOLOv3网络的检测结果,图(b)为改进YOLOv3网络的检测结果。可以看到在同一场景下,常规YOLOv3网络的检测结果中存在两个虚检,而改进YOLOv3网络的检测结果中则没有虚检。
除此之外,改进YOLOv3网络相比常规YOLOv3网络,查全率也提高了1.17个百分点,这说明改进YOLOv3网络的漏检率更低,对于一些容易被漏检的小目标舰船具有更强的检测能力。如图3所示,图(a)为常规YOLOv3网络的检测结果,图(b)为改进YOLOv3网络的检测结果,图(a)中圆圈圈起来的是没有被检测到的舰船目标,而在图(b)中则被检测出来。
使用常规YOLOv3网络和改进YOLOv3网络进行训练和测试时,损失函数对比曲线如图4所示。可以看到改进YOLOv3网络相比常规YOLOv3网络收敛得更快,在损失函数趋于稳定后,改进YOLOv3网络的损失函数降得更低。
以上所述仅是本发明的优选实施方式,应当指出:对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。

Claims (4)

1.一种基于改进YOLOv3网络的SAR图像目标检测方法,其特征在于:包括以下步骤:
步骤1,准备好SAR图像训练数据集,数据集中为每个已知目标附上标注框参数,包括:框中心坐标、框宽度和高度、目标类别和置信度;将SAR图像训练数据集输入到Darknet53网络,对SAR图像进行特征提取,得到SAR图像的基础特征图;
步骤2,对应于SAR图像大中小三种网格划分,将基础特征图按照大中小三种尺度进行特征提取和特征融合,得到SAR图像的多尺度特征图;每个SAR图像网格配有三个尺寸的候选框,每个候选框具有如下参数:框中心坐标、框宽度和高度、目标类别和置信度;
步骤3,将多尺度特征图输入到预测网络,进行候选框参数的调整和优化;
步骤4,将优化后的候选框参数和标注框参数代入损失函数,计算当前网络的损失值;
步骤5,基于得到的损失值,反向传播更新网络参数,通过反复训练,直至网络参数收敛;
步骤6,输入SAR图像测试数据集,进行网络测试,输出和目标一对一匹配的检测框,以及各项检测指标。
2.根据权利要求1所述的一种基于改进YOLOv3网络的SAR图像目标检测方法,其特征在于:所述步骤3中,对候选框参数进行优化前需要对候选框参数进行初始化,其中框宽度和高度参数的初始值计算如下:
(1)将训练数据集中所有的标注框的中心对齐,列举所有标注框的尺寸数据;
(2)通过k-means聚类方法进行标注框尺寸的聚类,聚类用到的距离度量d计算如下:
d(A,B)=1-rIOU(A,B)
Figure FDA0003097153390000011
其中,A和B是两个不同的边界框,rIOU表示交并比运算,rIOU(A,B)表示边界框A和B之间的交并比,∩表示求交运算,∪表示求并运算;
(3)提取最密集存在的9个尺寸,得到9组先验锚点框,作为候选框尺寸的初始值;其中,存在大、中、小三种尺度的网格,每种尺度的网格配备3种尺寸的候选框,一共9种候选框尺寸。
3.根据权利要求1所述的一种基于改进YOLOv3网络的SAR图像目标检测方法,其特征在于:在步骤4中,损失函数表示如下:
ltotal=lbox+lcls+lobj
其中,lbox表示框回归损失,lcls表示分类损失,lobj表示置信度损失;
框回归损失lbox表示如下:
Figure FDA0003097153390000021
其中,λcoord为权重因子;每幅图像分为S*S个网格,每个网格具有J个候选框;
Figure FDA0003097153390000022
Figure FDA0003097153390000023
分别为第i个网格对应的标注框的宽度和高度;
Figure FDA0003097153390000024
代表第i个网格的第j个候选框是否包含目标,有目标为1,否则为0;
Figure FDA0003097153390000025
表示Bi,j
Figure FDA0003097153390000026
之间的rGIOU值,其中Bi,j表示第i个网格的第j个候选框,
Figure FDA0003097153390000027
表示第i个网格对应的标注框;
分类损失lcls表示如下:
Figure FDA0003097153390000028
其中,pi,j为第i个网格的第j个候选框被预测为包含目标的概率,
Figure FDA0003097153390000029
为第i个网格对应的标注框包含目标的概率,fetrp()表示二分类交叉熵函数;
置信度损失lobj表示如下:
Figure FDA00030971533900000210
其中,λnoobj为权重因子;
Figure FDA00030971533900000211
代表第i个网格的第j个候选框是否包含目标,没有目标时值为1,否则值为0;Ci,j表示第i个网格的第j个候选框的置信度分数,
Figure FDA00030971533900000212
表示第i个网格对应的标注框的置信度分数;
上述的rGIOU计算如下:
Figure FDA00030971533900000213
其中,D是边界框A和边界框B的最小闭合凸面,即能够包住它们的最小方框;D\(A∪B)表示D中去除A和B并集的剩下部分;
上述的二分类交叉熵函数fetrp()表示如下:
Figure FDA00030971533900000214
其中,u是候选框参数,
Figure FDA00030971533900000215
是标注框参数。
4.根据权利要求3所述的一种基于改进YOLOv3网络的SAR图像目标检测方法,其特征在于:所述的置信度分数Ci,j计算如下:
Figure FDA0003097153390000031
其中,pi,j为第i个网格的第j个候选框被预测为包含目标的概率;
Figure FDA0003097153390000032
表示Bi,j
Figure FDA0003097153390000033
之间的rGIOU值,其中Bi,j表示第i个网格的第j个候选框,
Figure FDA0003097153390000034
表示第i个网格对应的标注框。
CN202110613778.XA 2021-06-02 2021-06-02 一种基于改进YOLOv3网络的SAR图像目标检测方法 Active CN113313128B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110613778.XA CN113313128B (zh) 2021-06-02 2021-06-02 一种基于改进YOLOv3网络的SAR图像目标检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110613778.XA CN113313128B (zh) 2021-06-02 2021-06-02 一种基于改进YOLOv3网络的SAR图像目标检测方法

Publications (2)

Publication Number Publication Date
CN113313128A true CN113313128A (zh) 2021-08-27
CN113313128B CN113313128B (zh) 2022-10-28

Family

ID=77377202

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110613778.XA Active CN113313128B (zh) 2021-06-02 2021-06-02 一种基于改进YOLOv3网络的SAR图像目标检测方法

Country Status (1)

Country Link
CN (1) CN113313128B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113903009A (zh) * 2021-12-10 2022-01-07 华东交通大学 一种基于改进YOLOv3网络的铁路异物检测方法与***
CN114092739A (zh) * 2021-11-02 2022-02-25 北京百度网讯科技有限公司 图像处理方法、装置、设备、存储介质和程序产品

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111401148A (zh) * 2020-02-27 2020-07-10 江苏大学 一种基于改进的多级YOLOv3的道路多目标检测方法
CN111723748A (zh) * 2020-06-22 2020-09-29 电子科技大学 一种红外遥感图像舰船检测方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111401148A (zh) * 2020-02-27 2020-07-10 江苏大学 一种基于改进的多级YOLOv3的道路多目标检测方法
CN111723748A (zh) * 2020-06-22 2020-09-29 电子科技大学 一种红外遥感图像舰船检测方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
刘洁瑜等: "基于RetinaNet的SAR图像舰船目标检测", 《湖南大学学报(自然科学版)》 *
张筱晗等: "双向特征融合的数据自适应SAR图像舰船目标检测模型", 《中国图象图形学报》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114092739A (zh) * 2021-11-02 2022-02-25 北京百度网讯科技有限公司 图像处理方法、装置、设备、存储介质和程序产品
CN113903009A (zh) * 2021-12-10 2022-01-07 华东交通大学 一种基于改进YOLOv3网络的铁路异物检测方法与***

Also Published As

Publication number Publication date
CN113313128B (zh) 2022-10-28

Similar Documents

Publication Publication Date Title
US11429818B2 (en) Method, system and device for multi-label object detection based on an object detection network
CN109977918B (zh) 一种基于无监督域适应的目标检测定位优化方法
CN109871902B (zh) 一种基于超分辨率对抗生成级联网络的sar小样本识别方法
Mahmoud et al. Object detection using adaptive mask RCNN in optical remote sensing images
CN110096994B (zh) 一种基于模糊标签语义先验的小样本PolSAR图像分类方法
CN111898432B (zh) 一种基于改进YOLOv3算法的行人检测***及方法
CN111091095B (zh) 一种遥感图像中船只目标的检测方法
CN110991257B (zh) 基于特征融合与svm的极化sar溢油检测方法
CN113313128B (zh) 一种基于改进YOLOv3网络的SAR图像目标检测方法
CN109033944B (zh) 一种全天空极光图像分类与关键局部结构定位方法及***
CN111368690A (zh) 基于深度学习的海浪影响下视频图像船只检测方法及***
CN112507896B (zh) 一种采用改进的yolo-v4模型对樱桃果实进行检测的方法
CN115761736A (zh) 基于多维探地雷达图像的地下空洞智能检测方法与***
CN113159215A (zh) 一种基于Faster Rcnn的小目标检测识别方法
Li et al. Insect detection and counting based on YOLOv3 model
CN113657414B (zh) 一种物体识别方法
Zhang et al. Nearshore vessel detection based on Scene-mask R-CNN in remote sensing image
CN115272865A (zh) 一种基于自适应激活函数和注意力机制的目标检测方法
Karunakaran Deep learning based object detection using mask RCNN
Chen et al. Ship detection with optical image based on attention and loss improved YOLO
Yang et al. SAR image target detection and recognition based on deep network
CN117218545A (zh) 基于LBP特征与改进Yolov5的雷达图像检测方法
Wang et al. FPA-DNN: a forward propagation acceleration based deep neural network for ship detection
CN114283323A (zh) 一种基于图像深度学习的海上目标识别***
Yu et al. A lightweight ship detection method in optical remote sensing image under cloud interference

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant