CN112163450A - 基于s3d学习算法的高频地波雷达船只目标检测方法 - Google Patents
基于s3d学习算法的高频地波雷达船只目标检测方法 Download PDFInfo
- Publication number
- CN112163450A CN112163450A CN202010853777.8A CN202010853777A CN112163450A CN 112163450 A CN112163450 A CN 112163450A CN 202010853777 A CN202010853777 A CN 202010853777A CN 112163450 A CN112163450 A CN 112163450A
- Authority
- CN
- China
- Prior art keywords
- target
- network
- training
- learning algorithm
- wave radar
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 56
- 238000004422 calculation algorithm Methods 0.000 title claims abstract description 37
- 238000012549 training Methods 0.000 claims abstract description 49
- 238000004821 distillation Methods 0.000 claims abstract description 16
- 230000006870 function Effects 0.000 claims abstract description 13
- 238000013528 artificial neural network Methods 0.000 claims abstract description 12
- 230000002708 enhancing effect Effects 0.000 claims abstract description 7
- 230000001629 suppression Effects 0.000 claims abstract description 4
- 230000009466 transformation Effects 0.000 claims description 19
- 238000001228 spectrum Methods 0.000 claims description 13
- 238000012360 testing method Methods 0.000 claims description 8
- 238000004364 calculation method Methods 0.000 claims description 5
- 238000002156 mixing Methods 0.000 claims description 3
- 238000000844 transformation Methods 0.000 claims description 2
- 238000000034 method Methods 0.000 abstract description 30
- 238000002474 experimental method Methods 0.000 description 7
- 238000013519 translation Methods 0.000 description 6
- 238000013527 convolutional neural network Methods 0.000 description 5
- 238000000605 extraction Methods 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 3
- 238000002679 ablation Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000012512 characterization method Methods 0.000 description 2
- 239000002131 composite material Substances 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/13—Satellite images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/10—Image enhancement or restoration using non-spatial domain filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
- G06T2207/10044—Radar image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Astronomy & Astrophysics (AREA)
- Remote Sensing (AREA)
- Image Analysis (AREA)
Abstract
本发明提出基于S3D学***均恒虚警率定位训练样本、选取目标窗口并生成训练样本、数据增强、构建自蒸馏学习网络、使用无监督的损失函数和交叉熵损失函数实现半监督的自蒸馏学习算法、训练神经网络、使用训练完成的神经网络对候选目标进行分类、采用非极大值抑制算法去除多余目标框、完成基于S3D学习算法的高频地波雷达船只目标检测。
Description
技术领域
本发明公开了基于S3D学习算法的高频地波雷达船只目标检测方法,属于雷达目标检测技术领域。
背景技术
传统的高频地波雷达船只目标检测方法往往判断条件较为单一而且多是根据人为经验取值,如恒虚警率的检测门限,小波变换的小波尺度,稀疏表达中完备字典集的选取等等。在遇到较为复杂的检测环境时,根据单一的人为经验的判断往往会出现较高的虚警率或者较低的检测率。对于一些如OES-ELM,Faster R-CNN和YOLOv2等智能方法,往往需要大量的有标签样本。由于高频地波雷达环境较为复杂,RD谱图上往往有较多的目标,而且目标点的能量有些较弱,全部标注目标点非常困难,会耗费大量的时间和人力成本。以往的方法往往采用特征提取算子来提取特征,如SIFT特征,HOG特征等。如OES-ELM中采取SIFT进行特征提取,这种手工提取的特征往往不具有针对性,表征能力较弱,极大地限制了分类的准确性。
现有技术主要有以下缺陷:易出现较高的虚警率或者较低的检测率、有标签样本需求量大、特征提取算子提取的特征表征能力较弱往往不具有针对性。
发明内容
本发明公开了基于S3D学习算法的高频地波雷达船只目标检测方法,以解决现有技术存在较高的虚警率、较低的检测率、有标签样本需求量大的问题。
基于S3D学习算法的高频地波雷达船只目标检测方法,包括以下实施步骤:
S1.单元平均恒虚警率检测,进行训练样本检测与定位;
S2.选取目标窗口,生成训练样本;
S3.数据增强;
S4.构建自蒸馏学习网络;
S5.使用无监督的损失函数和交叉熵损失函数实现半监督的自蒸馏学习算法;
S6.训练神经网络;
S7.使用训练后的神经网络对候选目标进行分类,采用非极大值抑制算法去除多余目标框;
S8.完成高频地波雷达船只的目标检测。
步骤S1中,单元平均恒虚警率检测步骤如下:获得每个样本的灰度图,输入沿着频率和距离方向的灰度值,参考单元数量N为40,保护单元设置为2,通过以下公式确定目标点:利用目标检测率Pd和虚警率Pf作为参考指标,计算公式如下: 式中,TP为检测到的真实目标点,FN是未检测到的目标点,TP+FN 是所有目标点个数,FP是检测到的虚假目标点,阈值因子α在训练阶段中设置为大于0.8,在测试阶段中取α=0.8。
步骤S2中,选取训练样本包括以下步骤:
S2.1.利用单元平均恒虚警率检测选出训练样本,包含目标点和非目标点,训练样本坐标集合S1={(al,bl);l∈{xCUT=1}},(al,bl)为训练样本的中心坐标;
S2.2.选择11×11的窗口使目标周围留有一定的背景信息,以S1为中心坐标用11×11大 小的窗口在RD谱截取训练样本集合T1,将T1中的样本改变成网络输入32×32的大小,人为 选择一部分预选目标点赋予标签L={(xi,pi);i∈{T1}},剩余的样本为无标签数据 U={uj;j∈{T1},j≠i};
步骤S3中,数据增强包括以下步骤:采用RandAugment结合Cutout的数据增强策略,将其中的变换主要分为三类第一类主要在像素上进行变换,空间结构没有改变,例如:Autocontrast, Brightness,Color,Contrast,Equalize,Identity,Sharpness,Posterize,Solarize;第二类改变图像的空间结构,例如:Rotate,Shear_x,Shear_y,Tanslate_x,Translate_y;第三类为Cutout,通过训练网络学习整张图像和学习残缺图像,是学习全局和局部信息。弱增强变换是在第一类里随机选择一种变换方式,而强增强变换为随机选取多种变换结合。
步骤S4包括如下步骤:首先将网络划分为四个区段,最深的网络最为教师网络,浅层的三个分支作为三个学生网络,网络结构可将深层网络的知识压缩到浅层网络中,浅层网络对深层网络有反馈;
步骤S5中半监督的自蒸馏学习算法(S3D)包括如下步骤:
S5.1.该学习算法计算公式为: 式中,θ代表网络参数,y代表网络的预测结果,为每一批数据大小,为每一批无标签数据ub经过弱增强T1后的结果,为同一批无标签数据ub经过强增强T2后的结果。将教师网络预测的置信度大于τ的弱增强样本的预测标签赋予无标签数据,通过一致性损失迫使教师网络和学生网络对于强增强样本也有相同的预测;
S5.2.交叉熵损失函数形式为H(X)=-∑xy*log(y),式中,y代表教师网络或者学生网络对于弱增强的有标签样本的预测结果,y*代表有标签样本的真实标签,通过交叉熵损失使学生网络和教师网络预测相同的语义类别。
步骤S6包括如下步骤:利用S3D算法对网络参数进行更新,判断条件为 判断最深层的教师网络对于无标签数据的预测置信度是否大于阈值τ,符合条件的样本利用一致性损失更新网络,对于所有有标签样本则无需经过判断条件,直接利用交叉熵损失函数对网路进行更新,保存训练后的网络参数。
步骤S7包括如下子步骤:
S7.1.将整张RD谱图送入恒虚警率检测步骤中获得预选目标的中心坐标集合S2={(ak,bk);k∈{xCUT=1}},截取候选目标得到图像集结合T1,将T1送入到训练好的神经网络中进行分类,得到每个图像的预测结果为Q,其中预测为目标点的置信度集合为Q*,由此得到每个预测目标点的信息为
S7.2.将Q*中的值由大到小进行排序,计算Q*中最大值对应的目标框与其他目标框之间的交并比IOU,公式为:k≠1,其中C=11,表示目标边的边长,如果Ix或者Iy等于零,则IOU=0,(a1,b1)为Q*中最大值对应的目标框中心坐标,(ak,bk)则为Q*中其余值所对应的目标框中心坐标;
S7.3.判断IOU是否大于设定阈值如果大于则将k对对应的目标从Q*中移除,将Q*最大值对应的目标移到R中,逐步更新Q*和R到Q*仅剩一个元素位置,将Q*仅剩的一个元素对应的目标移到R中,R即为所得到的最终预测结果坐标集合。
步骤S8中将R中的所有目标框在RD谱上标注出来,即完成高频地波雷达船只的目标检测。
与现有技术相比,本发明的有益效果是:大量地减少人为标注,提升网络的泛化性能,在利用极少量的标签数据的情况下能取得更好的结果,对于杂波周边目标以及部分杂波中目标能够进行有效的检测,相较于现有技术准确率大大提高而虚警率保持在较低的水平。
附图说明
图1为高频地波雷达目标检测流程图;
图2为检测率变化图;
图3为虚警率变化图;
图4为自蒸馏学习网络结构图。
具体实施方式
下面结合附图以及具体实施方式对本发明作进一步详细说明:
基于S3D学习算法的高频地波雷达船只目标检测方法,流程图如图1所示,包括以下实施步骤:
S1.单元平均恒虚警率检测,进行训练样本检测与定位;
S2.选取目标窗口,生成训练样本;
S3.数据增强;
S4.构建自蒸馏学习网络;
S5.使用无监督的损失函数和交叉熵损失函数实现半监督的自蒸馏学习算法;
S6.训练神经网络;
S7.使用训练后的神经网络对候选目标进行分类,采用非极大值抑制算法去除多余目标框;
S8.完成高频地波雷达船只的目标检测。
步骤S1中,单元平均恒虚警率检测步骤如下:获得每个样本的灰度图,输入沿着频率和距离方向的灰度值,参考单元数量N为40,保护单元设置为2,通过以下公式确定目标点:利用目标检测率Pd和虚警率Pf作为参考指标,检测率变化图如图2 所示,虚警率变化图如图3所示,计算公式如下: 式中,TP为检测到的真实目标点,FN是未检测到的目标点,TP+FN是所有目标点个数,FP是检测到的虚假目标点,阈值因子α在训练阶段中设置为大于0.8,在测试阶段中取α=0.8。
步骤S2中,选取训练样本包括以下步骤:
S2.1.利用单元平均恒虚警率检测选出训练样本,包含目标点和非目标点,训练样本坐标集合S1={(al,bl);l∈{xCUT=1}},(al,bl)为训练样本的中心坐标;
S2.2.选择11×11的窗口使目标周围留有一定的背景信息,以S1为中心坐标用11×11大 小的窗口在RD谱截取训练样本集合T1,将T1中的样本改变成网络输入32×32的大小,人为 选择一部分预选目标点赋予标签L={(xi,pi);i∈{T1}},剩余的样本为无标签数据 U={uj;j∈{T1},j≠i};
步骤S3中,数据增强包括以下步骤:采用RandAugment结合Cutout的数据增强策略,将其中的变换主要分为三类第一类主要在像素上进行变换,空间结构没有改变,例如:Autocontrast, Brightness,Color,Contrast,Equalize,Identity,Sharpness,Posterize,Solarize;第二类改变图像的空间结构,例如:Rotate,Shear_x,Shear_y,Tanslate_x,Translate_y;第三类为Cutout,通过训练网络学习整张图像和学习残缺图像,是学习全局和局部信息。弱增强变换是在第一类里随机选择一种变换方式,强增强变换为随机选取多种变换结合。
步骤S4中,自蒸馏学习网络结构图如图4所示,包括如下步骤:首先将网络划分为四个区段,最深的网络最为教师网络,浅层的三个分支作为三个学生网络,网络结构可将深层网络的知识压缩到浅层网络中,浅层网络对深层网络有反馈;
步骤S5中半监督的自蒸馏学习算法(S3D)包括如下步骤:
S5.1. 式中,θ代表网络参数,y代表网络的预测结果,为每一批数据大小,为每一批无标签数据ub经过弱增强T1后的结果,为同一批无标签数据ub经过强增强T2后的结果。将教师网络预测的置信度大于τ的弱增强样本的预测标签赋予无标签数据,通过一致性损失迫使教师网络和学生网络对于强增强样本也有相同的预测;
S5.2.H(X)=-∑xy*log(y),式中,y代表教师网络或者学生网络对于弱增强的有标签样本的预测结果,y*代表有标签样本的真实标签,通过交叉熵损失使学生网络和教师网络预测相同的语义类别。
步骤S6包括如下步骤:利用S3D算法对网络参数进行更新,判断条件为 判断最深层的教师网络对于无标签数据的预测置信度是否大于阈值τ,符合条件的样本利用一致性损失更新网络,对于所有有标签样本则无需经过判断条件,直接利用交叉熵损失函数对网路进行更新,保存训练后的网络参数。
步骤S7包括如下子步骤:
S7.1.将整张RD谱图送入恒虚警率检测步骤中获得预选目标的中心坐标集合S2={(ak,bk);k∈{xCUT=1}},截取候选目标得到图像集结合T1,将T1送入到训练好的神经网络中进行分类,得到每个图像的预测结果为Q,其中预测为目标点的置信度集合为Q*,由此得到每个预测目标点的信息为
S7.2.将Q*中的值由大到小进行排序,计算Q*中最大值对应的目标框与其他目标框之间的交并比IOU,公式为:k≠1,其中C=11,表示目标边的边长,如果Ix或者Iy等于零,则IOU=0,(a1,b1)为Q*中最大值对应的目标框中心坐标,(ak,bk)则为Q*中其余值所对应的目标框中心坐标;
S7.3.判断IOU是否大于设定阈值如果大于则将k对对应的目标从Q*中移除,将Q*最大值对应的目标移到R中,逐步更新Q*和R到Q*仅剩一个元素位置,将Q*仅剩的一个元素对应的目标移到R中,R即为所得到的最终预测结果坐标集合。
步骤S8中将R中的所有目标框在RD谱上标注出来,即完成高频地波雷达船只的目标检测。
为了对比本发明提出的基于S3D学***台GTX 1080Ti硬件支持下,使用pytorch进行相关仿真实验,采用随机梯度下降(SGD)算法对网络进行优化,在公开数据集和实测地波雷达数据上进行实验,验证S3D方法的有效性。
SVHN是一个用于开发机器学习的真实图像数据集,包括73257位用于训练的数字图像, 26032位用于测试的数字图像和531131位额外数字图像。共有‘1’到‘10’,10个数字类别。与其它方法相同,在不利用额外的数据情况下进行比较,实验结果如表1所示,对比了利用模型EMA算法的Mean teacher,以及利用标签EMA算法的Π模型以及其他模型,结果表明本文所提的方法具有更好的性能。
表1在SVHN上的测试结果
方法 | 标签数据(1k) |
Pseudo-Label | 7.62±0.29 |
ΠModel | 4.82±0.17 |
Mean Teacher | 3.95±0.19 |
VAT+EntMin | 3.86±0.11 |
Deep Co-training | 3.29±0.03 |
ICT | 3.53±0.07 |
MixMatch | 2.89±0.06 |
S<sup>3</sup>D | 2.77±0.03 |
CIFAR-10是半监督学习算法最常使用的数据集,它由60k张32x32大小共彩色图片组成。共包含十个类别,每个类别6k张图片,其中有50k张训练集和10k张测试集。实验结果如表2 所示,在同样的实验环境和代码基础下,本文所提的方法优于FixMatch,并且优于以wider ResNet或者Conv-Large为模型的相关方法。
表2在CIFAR-10上的测试结果
为了更加全面的对比实验,取两个数据集X1和X2,X1为作为分类器的训练集,X2作为深度学习目标检测网络的训练集,两个都是由实测RD谱(大小:681像素×538像素)生成,这些RD谱中均含有所有种类的杂波和背景噪声,且目标均为真实船舰目标点,数据集信息如表3所示,验证集是由与训练图像相同大小的10张完整的RD谱图生成的有标签图像。
表3数据集信息
数据集 | RD谱数量 | 训练样本数量 | 标签样本数量 | 无标签样本数量 |
X<sub>1</sub> | 17 | 1415 | 150 | 1265 |
X<sub>2</sub> | 62 | 200 | 200 | 无 |
对于自蒸馏学习网络的训练集,输入数据X1的每个样本的输入维度为32×32,由11×11在 RD谱上的截图再经过双线性插值法放大生成,输出两类,判断是否为目标点,由于负样本数量远高于正样本数量,将正负样本的比例设置为1:2使样本更加均衡。
Faster R-CNN和YOLOv2目标检测算法用于检测雷达目标,训练集X2与X1相同,都在原始的RD谱上截取生成。由于雷达的目标点在RD谱上呈现极小,直接传入神经网络,经过深层的卷积可能会使主要特征消失,因此利用70×70的滑动窗口在RD谱图上截取图像集,再将图像集放大成224×224大小的图像,经过放大后的目标点经过深层卷积后特征能够较好地被保留。
本文采用RandAugment结合Cutout的数据增强策略,如表4所示,包含了数据增强方法。 RandAugment对于每一批量的样本随机抽取数据增强方式对数据进行变换。
表4用于RandAugment和Cutout的变换列表
RanAugment里的数据增强方法大致分为三类,探讨这三类对于雷达目标检测的影响程度。第一类主要在像素上进行变换,空间结构没有改变,例如:Autocontrast,Brightness,Color, Contrast,Equalize,Identity,Sharpness,Posterize,Solarize;第二类改变图像的空间结构,例如:Rotate,Shear_x,Shear_y,Tanslate_x,Translate_y;第三类为Cutout,通过训练网络学习整张图像和学习残缺图像,是学习全局和局部信息。由于强增强变换相对于弱增强变换对于图像外观的变化更大,因此弱增强变换往往是在第一类里随机选择一种变换方式,而强增强变换则是多种变换结合。对于强增强变换采用消融学习,每次实验选取网络最佳结果最为最终结果,如表5所示。
表5数据增强的消融学习
非空间变换 | Cutout | 空间变换 | 检测率(P<sub>d</sub>) |
√ | √ | √ | 93.92 |
√ | √ | 94.43 | |
√ | √ | 93.41 | |
√ | 94.17 | ||
√ | √ | 91.89 |
通过对比传统的方法和深度学习方法以及Faster R-CNN和YOLOv2的目标检测方法,来评估所提雷达目标检测框架的有效性。大量的实测实验表明,本文所提的S3D方法仅需要少量的有标签样本,即可因此X中的有标签样本的数量要远小于无标签样本。实验采用目标点检测率Pd、虚警率Pf、目标漏检率Mr、错误率Er为目标检测性能的评估指标,Mr和Er的定义如下:Mr=1-Pd Er=Pf+Mr。
为了验证本文所提的算法的检测性能,采用10张完整的已知舰船位置的实测RD谱图像进行目标点检测实验,并以上文中定义的评价指标作为评价标准,对比实验结果如表6所示。
表6六种雷达目标检测算法对比
方法 | P<sub>d</sub>(检测率) | P<sub>f</sub>(虚警率) | M<sub>r</sub>(漏检率) | E<sub>r</sub>(错误率) |
改进恒虚警率 | 85% | 13% | 15% | 28% |
自适应小波变换 | 90% | 8% | 10% | 18% |
OES-ELM | 92% | 6% | 8% | 14% |
Faster R-CNN | 60.7% | 3.33% | 59.3% | 62.63% |
YOLOv2 | 41.7% | 0% | 58.3% | 58.3% |
本文所提方法 | 95.69% | 5% | 4.31% | 9.31% |
从表6的实验结果中可以看出,本文所提的方法准确率达到了95.69%,虚警率降低到了5%,漏检率和错误率分别是4.31%和9.31%。相较于OES-ELM的方法在各项指标上都保持较大的优势;相较于Faster R-CNN和YOLOv2来说虽说虚警率较高,但是准确率远远高于这两种方法。
当然,上述说明并非是对本发明的限制,本发明也并不仅限于上述举例,本技术领域的技术人员在本发明的实质范围内所做出的变化、改型、添加或替换,也应属于本发明的保护范围。
Claims (5)
1.基于S3D学习算法的高频地波雷达船只目标检测方法,其特征在于,包括以下实施步骤:
S1.单元平均恒虚警检测,进行训练样本检测与定位;
S2.选取目标窗口,生成训练样本;
S3.数据增强;
S4.构建自蒸馏学习网络;
S5.使用无监督的损失函数和交叉熵损失函数实现半监督的自蒸馏学习算法;
S6.训练神经网络;
S7.使用训练后的神经网络对候选目标进行分类,采用非极大值抑制算法去除多余目标框;
S8.完成高频地波雷达船只的目标检测。
2.根据权利要求1所述的基于S3D学***均恒虚警率检测步骤如下:获得每个样本的灰度图,输入沿着频率和距离方向的灰度值,参考单元数量N为40,保护单元设置为2,通过以下公式确定目标点:设置阈值因子α进行训练样本检测与定位时,利用目标检测率Pd和虚警率Pf作为参考指标,计算公式如下:式中,TP为检测到的真实目标点,FN是未检测到的目标点,TP+FN是所有目标点个数,FP是检测到的虚假目标点,阈值因子α在训练阶段中设置为大于0.8,在测试阶段中取α=0.8;步骤S2中,选取目标窗口生成训练样本包括以下步骤:
S2.1.利用单元平均恒虚警率检测选出训练样本,包含目标点和非目标点,训练样本坐标集合S1={(al,bl);l∈{xCUT=1}},(al,bl)为训练样本的中心坐标;
S2.2.选择11×11的窗口,以S1为中心坐标用11×11大小的窗口在RD谱截取训练样本集合T1,将T1中的样本改变成网络输入32×32的大小,人为选择一部分预选目标点赋予标签L={(xi,pi);i∈{T1}},剩余的样本为无标签数据U={uj;j∈{T1},j≠i}。
3.根据权利要求1所述的基于S3D学习算法的高频地波雷达船只目标检测方法,其中步骤S3中,数据增强采用RandAugment结合Cutout的数据增强策略,其相关变换有以下三类:在像素上进行变换,空间结构不改变;改变图像的空间结构;通过训练网络学习整张图像和学习残缺图像,学习全局和局部信息;弱增强变换在第一类里随机选择一种变换方式,强增强变换为随机选取多种变换结合;步骤S4包括如下步骤:将网络划分为四个区段,最深的网络为教师网络,浅层的三个分支作为三个学生网络,将深层网络的知识压缩到浅层网络中,浅层网络对深层网络产生反馈;步骤S5中半监督的自蒸馏学习算法包括如下步骤:
S5.1.半监督的自蒸馏学习算法计算公式为: 式中,θ代表网络参数,y代表网络的预测结果,为每一批数据大小,为每一批无标签数据ub经过弱增强T1后的结果,为同一批无标签数据ub经过强增强T2后的结果,将教师网络预测的置信度大于τ的弱增强样本的预测标签赋予无标签数据;
S5.2.交叉熵损失函数形式为:H(X)=-∑xy*log(y),式中,y代表教师网络或者学生网络对于弱增强的有标签样本的预测结果,y*代表有标签样本的真实标签。
4.根据权利要求1所述的基于S3D学习算法的高频地波雷达船只目标检测方法,其中步骤S6包括如下步骤:利用半监督的自蒸馏学习算法对网络参数进行更新,判断条件为判断最深层的教师网络对于无标签数据的预测置信度是否大于阈值τ,符合条件的样本利用一致性损失更新网络,有标签样本无需经过判断条件,直接利用交叉熵损失函数对网路进行更新,保存训练后的网络参数;步骤S7包括如下步骤:
S7.1.将整张RD谱图送入恒虚警率检测步骤中获得预选目标的中心坐标集合S2={(ak,bk);k∈{xCUT=1}},截取候选目标得到图像集结合T1,将T1送入到训练好的神经网络中进行分类,得到每个图像的预测结果为Q,其中预测为目标点的置信度集合为Q*,由此得到每个预测目标点的信息为
S7.2.将Q*中的值由大到小进行排序,计算Q*中最大值对应的目标框与其他目标框之间的交并比IOU,公式为:其中C=11,表示目标边的边长,如果Ix或者Iy等于零,则IOU=0,(a1,b1)为Q*中最大值对应的目标框中心坐标,(ak,bk)则为Q*中其余值所对应的目标框中心坐标;
5.根据权利要求1所述的基于S3D学习算法的高频地波雷达船只目标检测方法,其中步骤S8中,将R中的所有目标框在RD谱上标注出来,完成高频地波雷达船只的目标检测。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010853777.8A CN112163450A (zh) | 2020-08-24 | 2020-08-24 | 基于s3d学习算法的高频地波雷达船只目标检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010853777.8A CN112163450A (zh) | 2020-08-24 | 2020-08-24 | 基于s3d学习算法的高频地波雷达船只目标检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112163450A true CN112163450A (zh) | 2021-01-01 |
Family
ID=73859730
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010853777.8A Pending CN112163450A (zh) | 2020-08-24 | 2020-08-24 | 基于s3d学习算法的高频地波雷达船只目标检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112163450A (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113255603A (zh) * | 2021-06-29 | 2021-08-13 | 中国人民解放军国防科技大学 | 基于黎曼流形监督降维的增强矩阵恒虚警率检测方法 |
CN113486899A (zh) * | 2021-05-26 | 2021-10-08 | 南开大学 | 一种基于互补分支网络的显著性目标检测方法 |
CN113808219A (zh) * | 2021-09-17 | 2021-12-17 | 西安电子科技大学 | 基于深度学习的雷达辅助相机标定方法 |
CN114399683A (zh) * | 2022-01-18 | 2022-04-26 | 南京甄视智能科技有限公司 | 一种基于改进yolov5的端到端半监督目标检测方法 |
WO2023284698A1 (zh) * | 2021-07-14 | 2023-01-19 | 浙江大学 | 一种基于深度神经网络的多目标恒虚警率检测方法 |
CN117058556A (zh) * | 2023-07-04 | 2023-11-14 | 南京航空航天大学 | 基于自监督蒸馏的边缘引导sar图像舰船检测方法 |
US12044799B2 (en) | 2021-07-14 | 2024-07-23 | Zhejiang University | Deep neural network (DNN)-based multi-target constant false alarm rate (CFAR) detection methods |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101271160A (zh) * | 2007-03-21 | 2008-09-24 | 中国科学院电子学研究所 | 选小单元平均恒虚警率实时检测sar运动目标方法、装置 |
CN101329400A (zh) * | 2008-07-30 | 2008-12-24 | 电子科技大学 | 一种基于拟合优度检验的雷达目标恒虚警检测方法 |
CN105894847A (zh) * | 2016-06-27 | 2016-08-24 | 华南理工大学 | 一种云平台环境下无监督学习的实时公交动态调度***及方法 |
CN109117802A (zh) * | 2018-08-21 | 2019-01-01 | 东北大学 | 面向大场景高分遥感影像的舰船检测方法 |
CN109583293A (zh) * | 2018-10-12 | 2019-04-05 | 复旦大学 | 星载sar图像中的飞机目标检测与鉴别方法 |
CN109711544A (zh) * | 2018-12-04 | 2019-05-03 | 北京市商汤科技开发有限公司 | 模型压缩的方法、装置、电子设备及计算机存储介质 |
CN109886218A (zh) * | 2019-02-26 | 2019-06-14 | 西安电子科技大学 | 基于超像素统计相异性的sar图像舰船目标检测方法 |
CN110870019A (zh) * | 2017-10-16 | 2020-03-06 | 因美纳有限公司 | 用于训练深层卷积神经网络集合的半监督学习 |
CN110889843A (zh) * | 2019-11-29 | 2020-03-17 | 西安电子科技大学 | 基于最大稳定极值区域的sar图像舰船目标检测方法 |
CN111160481A (zh) * | 2019-12-31 | 2020-05-15 | 苏州安智汽车零部件有限公司 | 基于深度学习的adas目标检测方法及*** |
CN111160474A (zh) * | 2019-12-30 | 2020-05-15 | 合肥工业大学 | 一种基于深度课程学习的图像识别方法 |
-
2020
- 2020-08-24 CN CN202010853777.8A patent/CN112163450A/zh active Pending
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101271160A (zh) * | 2007-03-21 | 2008-09-24 | 中国科学院电子学研究所 | 选小单元平均恒虚警率实时检测sar运动目标方法、装置 |
CN101329400A (zh) * | 2008-07-30 | 2008-12-24 | 电子科技大学 | 一种基于拟合优度检验的雷达目标恒虚警检测方法 |
CN105894847A (zh) * | 2016-06-27 | 2016-08-24 | 华南理工大学 | 一种云平台环境下无监督学习的实时公交动态调度***及方法 |
CN110870019A (zh) * | 2017-10-16 | 2020-03-06 | 因美纳有限公司 | 用于训练深层卷积神经网络集合的半监督学习 |
CN109117802A (zh) * | 2018-08-21 | 2019-01-01 | 东北大学 | 面向大场景高分遥感影像的舰船检测方法 |
CN109583293A (zh) * | 2018-10-12 | 2019-04-05 | 复旦大学 | 星载sar图像中的飞机目标检测与鉴别方法 |
CN109711544A (zh) * | 2018-12-04 | 2019-05-03 | 北京市商汤科技开发有限公司 | 模型压缩的方法、装置、电子设备及计算机存储介质 |
CN109886218A (zh) * | 2019-02-26 | 2019-06-14 | 西安电子科技大学 | 基于超像素统计相异性的sar图像舰船目标检测方法 |
CN110889843A (zh) * | 2019-11-29 | 2020-03-17 | 西安电子科技大学 | 基于最大稳定极值区域的sar图像舰船目标检测方法 |
CN111160474A (zh) * | 2019-12-30 | 2020-05-15 | 合肥工业大学 | 一种基于深度课程学习的图像识别方法 |
CN111160481A (zh) * | 2019-12-31 | 2020-05-15 | 苏州安智汽车零部件有限公司 | 基于深度学习的adas目标检测方法及*** |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113486899A (zh) * | 2021-05-26 | 2021-10-08 | 南开大学 | 一种基于互补分支网络的显著性目标检测方法 |
CN113255603A (zh) * | 2021-06-29 | 2021-08-13 | 中国人民解放军国防科技大学 | 基于黎曼流形监督降维的增强矩阵恒虚警率检测方法 |
CN113255603B (zh) * | 2021-06-29 | 2021-09-24 | 中国人民解放军国防科技大学 | 基于黎曼流形监督降维的增强矩阵恒虚警率检测方法 |
WO2023284698A1 (zh) * | 2021-07-14 | 2023-01-19 | 浙江大学 | 一种基于深度神经网络的多目标恒虚警率检测方法 |
US12044799B2 (en) | 2021-07-14 | 2024-07-23 | Zhejiang University | Deep neural network (DNN)-based multi-target constant false alarm rate (CFAR) detection methods |
CN113808219A (zh) * | 2021-09-17 | 2021-12-17 | 西安电子科技大学 | 基于深度学习的雷达辅助相机标定方法 |
CN113808219B (zh) * | 2021-09-17 | 2024-05-14 | 西安电子科技大学 | 基于深度学习的雷达辅助相机标定方法 |
CN114399683A (zh) * | 2022-01-18 | 2022-04-26 | 南京甄视智能科技有限公司 | 一种基于改进yolov5的端到端半监督目标检测方法 |
CN114399683B (zh) * | 2022-01-18 | 2024-06-25 | 小视科技(江苏)股份有限公司 | 一种基于改进yolov5的端到端半监督目标检测方法 |
CN117058556A (zh) * | 2023-07-04 | 2023-11-14 | 南京航空航天大学 | 基于自监督蒸馏的边缘引导sar图像舰船检测方法 |
CN117058556B (zh) * | 2023-07-04 | 2024-03-22 | 南京航空航天大学 | 基于自监督蒸馏的边缘引导sar图像舰船检测方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112163450A (zh) | 基于s3d学习算法的高频地波雷达船只目标检测方法 | |
CN110334765B (zh) | 基于注意力机制多尺度深度学习的遥感影像分类方法 | |
CN113486981B (zh) | 基于多尺度特征注意力融合网络的rgb图像分类方法 | |
CN111369572B (zh) | 一种基于图像修复技术的弱监督语义分割方法和装置 | |
CN111161311A (zh) | 一种基于深度学习的视觉多目标跟踪方法及装置 | |
CN107563433B (zh) | 一种基于卷积神经网络的红外小目标检测方法 | |
CN108960330A (zh) | 基于快速区域卷积神经网络的遥感图像语义生成方法 | |
Zhang et al. | A GANs-based deep learning framework for automatic subsurface object recognition from ground penetrating radar data | |
CN107832797B (zh) | 基于深度融合残差网的多光谱图像分类方法 | |
CN104268593A (zh) | 一种小样本情况下多稀疏表示的人脸识别方法 | |
CN104537647A (zh) | 一种目标检测方法及装置 | |
CN103714148B (zh) | 基于稀疏编码分类的sar图像检索方法 | |
CN109325490A (zh) | 基于深度学习和rpca的太赫兹图像目标识别方法 | |
CN111222545B (zh) | 基于线性规划增量学习的图像分类方法 | |
CN105989336A (zh) | 基于带权重的解卷积深度网络学习的场景识别方法 | |
CN113221987A (zh) | 一种基于交叉注意力机制的小样本目标检测方法 | |
CN112528058B (zh) | 基于图像属性主动学习的细粒度图像分类方法 | |
CN104881684A (zh) | 一种立体图像质量客观评价方法 | |
CN115966010A (zh) | 一种基于注意力和多尺度特征融合的表情识别方法 | |
Naqvi et al. | Feature quality-based dynamic feature selection for improving salient object detection | |
CN112597798A (zh) | 一种使用神经网络鉴别商品真伪的方法 | |
CN112329771A (zh) | 一种基于深度学习的建筑材料样本识别方法 | |
CN106203520B (zh) | 基于深度相关向量机的sar图像分类方法 | |
CN114387270A (zh) | 图像处理方法、装置、计算机设备和存储介质 | |
CN112766381B (zh) | 有限样本下属性引导的sar图像生成方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20210101 |