CN110163275B - 基于深度卷积神经网络的sar图像目标分类方法 - Google Patents
基于深度卷积神经网络的sar图像目标分类方法 Download PDFInfo
- Publication number
- CN110163275B CN110163275B CN201910407093.2A CN201910407093A CN110163275B CN 110163275 B CN110163275 B CN 110163275B CN 201910407093 A CN201910407093 A CN 201910407093A CN 110163275 B CN110163275 B CN 110163275B
- Authority
- CN
- China
- Prior art keywords
- layer
- neural network
- convolution
- sar image
- sar
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013527 convolutional neural network Methods 0.000 title claims abstract description 50
- 238000000034 method Methods 0.000 title claims abstract description 36
- 238000012549 training Methods 0.000 claims abstract description 36
- 238000012360 testing method Methods 0.000 claims abstract description 32
- 230000004913 activation Effects 0.000 claims abstract description 20
- 238000003062 neural network model Methods 0.000 claims abstract description 8
- 230000007547 defect Effects 0.000 claims abstract description 7
- 230000000877 morphologic effect Effects 0.000 claims abstract description 5
- 238000011176 pooling Methods 0.000 claims description 16
- 230000009466 transformation Effects 0.000 claims description 13
- 230000007797 corrosion Effects 0.000 claims description 3
- 238000005260 corrosion Methods 0.000 claims description 3
- 238000006243 chemical reaction Methods 0.000 claims description 2
- 238000010606 normalization Methods 0.000 claims description 2
- 238000000605 extraction Methods 0.000 abstract description 6
- 238000007500 overflow downdraw method Methods 0.000 abstract 1
- 238000004088 simulation Methods 0.000 description 5
- 108010049931 Bone Morphogenetic Protein 2 Proteins 0.000 description 4
- 102100024506 Bone morphogenetic protein 2 Human genes 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 238000002474 experimental method Methods 0.000 description 3
- 238000013519 translation Methods 0.000 description 3
- 238000013145 classification model Methods 0.000 description 2
- 230000007123 defense Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 230000003213 activating effect Effects 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000002401 inhibitory effect Effects 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/20—Image enhancement or restoration using local operators
- G06T5/30—Erosion or dilatation, e.g. thinning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明提出了一种基于深度卷积神经网络的SAR图像目标分类方法,用于提高SAR图像目标分类精度。实现步骤为:获取包含SAR目标图像的训练样本集和测试样本集;去除训练样本集和测试样本集中每幅SAR图像的背景杂波;构建包含变换sigmoid激活函数构成Enhanced‑SE层的深度卷积神经网络模型;对深度卷积神经网络模型进行训练;用训练后的深度卷积神经网络模型对测试样本集进行分类。本发明通过形态学闭运算方法在去除SAR目标图像中背景杂波时融合目标区域的边缘缺口并填补目标区域的内部缺损,有效保留目标区域的形状特征;通过对sigmoid函数的改造构成Enhanced‑SE层,抑制深度卷积网络对于冗余特征自动提取,提高SAR图像目标分类的精度。
Description
技术领域
本发明属于雷达技术领域,涉及一种SAR图像目标分类方法,具体涉及一种基于深度卷积神经网络的SAR图像目标分类方法,可用于SAR图像的目标检测、目标识别和侦查监视。
背景技术
图像目标分类,是一种根据不同类别的目标各自在图像信息中所反映的不同特征,把不同类别的目标区分开来的图像处理方法。图像目标分类可基于色彩、纹理、形状、空间关系等图像特征对图像目标进行分类。
合成孔径雷达SAR具有全天时、全天候、远作用距离、高分辨等特点,在侦察、探测制导等领域发挥了重要作用。由SAR拍摄的图像被称为SAR图像,高分辨的SAR图像能够体现出目标的散射特性,反映出目标的形状、尺寸、结构等特征,同时包含背景杂波的纹理特征。
与一般图像相比,SAR图像信噪比较低,所以SAR影像中所包含的振幅信息远达不到其他光学影像的成像水平。不同于一般图像的分类方法,如何去除SAR图像中的噪声一直是SAR图像分类技术难点。基于SAR图像的目标分类技术受到各领域的广泛关注。SAR图像的目标分类方法包括模板匹配方法、基于专家设计分类模型的方法、基于神经网络的方法三大类。
与模板匹配方法和基于专家设计分类模型的方法相比,神经网络方法并不需要人工提取特征以及过多专业知识,能够通过神经网络模型的训练自动稳健地提取图像特征,完成图像的分类。卷积神经网络是神经网络中的一种,由于具有局部连接、权值共享、下采样等优势,已成为图像识别与分割、语音识别、人类行为监测等领域的研究热点。
作为卷积神经网络中的一种,深度卷积神经网络由于具有更多的卷积层等结构,能够更多地提取SAR图像特征,完成对于SAR图像的准确分类。
例如申请公布号为CN 108510467A,名称为“基于深度可变形卷积神经网络的SAR图像目标识别方法”的专利申请,公开了一种基于深度可变形卷积神经网络的SAR图像目标分类方法,该方法首先对SAR图像目标切片数据进行数据扩增,构建含有基于像素级的峰值特征提取模块、连通区域标记模块的深度可变性卷积神经网络模型,将数据扩充后的SAR图像输入深度可变性卷积神经网络模型中进行训练及测试,得到SAR图像目标的分类结果。该发明在深度卷积网络中加入可变形卷积网络,带有偏移量的卷积核可以在采样点位置附近任意采样,解决了SAR图像目标分类方法中SAR图像目标特征位置不定影响SAR图像目标准确分类造成的分类精度低的问题,但是该方法由于只采用中值滤波等简单操作去除人工拼接的背景杂波,仍未对SAR图像目标图像中背景杂波进行有效去除以及抑制深度卷积神经网络对于冗余特征的自动提取,因此对SAR图像目标分类的精度依然较低。
发明内容
本发明的目的在于针对上述现有技术的不足,提出一种基于深度卷积神经网络的SAR图像目标分类方法,用于提高SAR图像目标分类的精度。
为了实现上述目的,本发明采用的技术方案包括如下步骤:
(1)获取训练样本集R0和测试样本集E0:
(1a)选取包含T类目标且大小为l×l的SAR图像,T≥2,l≥2,每类SAR图像的数量为H幅,H≥10;
(1b)随机选取每类SAR图像中的30%以上组成训练样本集R0,剩余部分组成测试样本集E0,并对R0中每幅SAR图像类别进行标记;
(2)去除训练样本集R0和测试样本集E0中每幅SAR图像的背景杂波:
(2a)对训练样本集R0和测试样本集E0中的每幅SAR图像I0进行幂变换,得到T×H幅幂变换后的SAR图像I1;
(2b)使用边长为w的正方形滑窗,按照先行后列的顺序,以步长1在每幅I1上滑动,w≤l,统计每个滑窗区域内像素的均值,并选取所有均值中的最大值a;
(2d)设置a的权重为u1,b的权重为u2,且u1+u2=1,阈值t=u1×a+u2×b,将每幅I1像素值中所有大于或等于t的像素点组成的区域作为目标区域,并令该目标区域中每一个像素点的像素值为1,同时将其余像素点组成的区域作为背景区域,并令该背景区域中每一个像素点的像素值为0,得到包含目标区域和背景区域的T×H幅SAR图像I2;
(2e)采用形态学闭运算方法,对每幅I2中目标区域的边缘缺口进行融合,同时对目标区域的内部缺损进行填补,得到T×H幅SAR图像I3:
(2f)令每幅I3中面积最大的连通域内所有像素点的像素值为1,其余区域内所有像素点的像素值为0,得到T×H幅图像I4;
(2g)将每幅I0与每幅I0对应的I4点乘,得T×H幅去除背景杂波SAR图像,并根据每幅SAR图像的类别标记,将归属于R0的每幅I0对应的去除背景杂波SAR图像组合成训练样本集R1,同时将归属于E0的每幅I0对应的去除背景杂波SAR图像组合成测试样本集E1;
(3)构建深度卷积神经网络模型:
(3a)构建由依次层叠的全局池化层、第一全连接层、ReLu激活层、第二全连接层和sigmoid激活层组成的SE层;
其中sigmoid激活层的sigmoid激活函数为:
其中xi为SE层中第二全连接层输出的分类权重,i=1,2,...,T;
(3b)构建由依次层叠的卷积层、ReLu激活层、全连接层和Enhanced-sigmoid激活层组成的Enhanced-SE层;
其中Enhanced-SE层的Enhanced-sigmoid激活函数p(yi)的表达式为:
p(yi)=(m+n·s(yi))q
n是对sigmoid激活函数s(yi)进行的尺度变换,m为n·s(yi)的平移参数,q为m+n·s(yi)的幂次变换;其中yi为Enhanced-SE层中全连接层输出的分类权重,i=1,2,...,T;
(3c)构建由依次层叠的输入层、隐藏层和输出层组成的深度卷积神经网络模型,其中隐藏层包括SE层、Enhanced-SE层、多个卷积层、多个池化层和多个Dropout层,输出层由依次层叠的全连接层和LM-softmax分类器组成;
(4)对深度卷积神经网络模型进行训练:
将带类别标记的训练样本集R1作为深度卷积神经网络模型的输入对该模型进行K次迭代监督训练,得到训练后的深度卷积神经网络模型,其中,K≥10000;
(5)获取SAR图像目标的分类结果:
将测试样本集E1输入训练后的深度卷积神经网络模型中对E1中的每幅SAR图像包含的目标进行分类,得到SAR图像目标的分类结果。
本发明与现有技术相比,具有以下优点:
1.本发明构建深度卷积神经网络中的Enhanced-SE层的Enhanced-sigmoid激活函数中的尺度变化参数、平移参数、幂变换参数能够有效调整各图像特征的权值,提高了sigmoid激活函数对不同图像特征的提取效率,抑制深度卷积神经网络对于冗余特征的自动提取,提高SAR图像目标的分类的精度。
2.本发明在根据SAR图像特性去除SAR图像中的背景杂波,减少背景杂波对于分类的影响时,基于形态学闭运算方法对每幅SAR图像中目标区域的边缘缺口进行融合并对目标区域的内部缺损进行填补,有效保留目标区域的形状特征,提高SAR图像目标的分类的精度。
附图说明
图1是本发明的实现流程图;
图2是本发明对一副SAR图像去除背景杂波的示例。
具体实施方式
下面结合附图和具体实施例,对本发明进一步详细说明。
参照图1,一种基于深度卷积神经网络的SAR图像目标分类方法,包括如下步骤:
步骤1)获取训练样本集R0和测试样本集E0:
步骤1a)本实施例使用MSTAR数据集中包括俯仰角在15°及17°下的十类地面车辆目标:装甲车:BMP-2、BRDM-2、BTR-60、BTR-70;坦克:T62、T72;火箭发射器:2S1;防空单元:ZSU-234;卡车:ZIL-131;推土机:D7。实验中选取17°俯仰角下包含该10类地面车辆目标且大小为128×128的3671幅SAR图像作为训练样本集R0;选取15°俯仰角下包含该10类地面车辆目标且大小为128×128的3203幅SAR图像作为测试样本集E0,每类目标数据集的构成如表1所示,
表1 实施例中的训练集和测试集
步骤1b)R0和E0共计包含10类车面目标6800幅SAR图像,BMP-2、BRDM-2、BTR-60、BTR-70、T62、T72、2S1、ZSU-234、ZIL-131、D7类别SAR图像的54.32%、52.10%、56.76%、54.31%、52.27%、54.28%、52.18%、52.18%、52.18%、52.18%为R0,各类别剩余部分为E0,对R0中每幅SAR图像类别进行标记;
步骤2)参照图2,由于SAR图像中具有相似性十分高的背景杂波,因此会影响SAR图像目标的准确分类,所以去除训练样本集R0和测试样本集E0中每幅SAR图像的背景杂波:
步骤2a)对训练样本集R0和测试样本集E0中的每幅SAR图像I0进行0.5次幂变换,得到6800幅0.5次幂变换后的SAR图像I1;
步骤2b)为得到图像中目标区域的平均像素值,使用边长为15的正方形滑窗,按照先行后列的顺序,以步长1在每幅I1上滑动,统计每个滑窗区域内像素的均值,并选取所有均值中的最大值a;
步骤2c)为得到图像中背景区域的平均像素值,计算每幅I1左上角5×5大小的区域内像素的均值b;
步骤2d)为高效率提取目标区域,通过设置合理阈值对图像中的目标区域和背景区域进行0、1二值区分,设置a的权重为0.65,b的权重为0.35,阈值t=0.65×a+0.35×b,将每幅I1像素值中所有大于或等于t的像素点组成的区域作为目标区域,并令该目标区域中每一个像素点的像素值为1,同时将其余像素点组成的区域作为背景区域,并令该背景区域中每一个像素点的像素值为0,通过对阈值的设置来区分目标区域和背景区域,得到包含目标区域和背景区域的6800幅SAR图像I2;
步骤2e)由于I2中不光滑的目标区域的边缘缺口和不完整的目标区域的内部缺损造成的目标区域形状的缺失,会影响深度卷积网络对于图像特征的提取,造成SAR图像目标分类的精度降低,采用形态学闭运算方法,对每幅I2中目标区域的边缘缺口进行融合,同时对目标区域的内部缺损进行填补,得到6800幅SAR图像I3:
步骤2f)为准确选择出图像中的目标区域,令每幅I3中面积最大的连通域内所有像素点的像素值为1,其余区域内所有像素点的像素值为0,得到6800幅图像I4;
步骤2g)将每幅I0与每幅I0对应的I4点乘,得6800幅去除背景杂波SAR图像,并根据每幅SAR图像的类别标记,将归属于R0的每幅I0对应的去除背景杂波SAR图像组合成训练样本集R1,同时将归属于E0的每幅I0对应的去除背景杂波SAR图像组合成测试样本集E1;
步骤3)构建深度卷积神经网络模型:
步骤3a)构建由依次层叠的全局池化层、第一全连接层、ReLu激活层、第二全连接层和sigmoid激活层组成的SE层;
其中sigmoid激活层的sigmoid激活函数为:
其中xi为SE层中第二全连接层输出的分类权重,i=1,2,...,T;
步骤3b)构建由依次层叠的卷积层、ReLu激活层、全连接层和Enhanced-sigmoid激活层组成的Enhanced-SE层;
由于sigmoid函数输出各图像特征的大部分权值都非常接近1,不能有效区分图像特征,即原始的SE层对深度卷积神经网络从SAR图像中自动提取的冗余特征的抑制效果有限,影响深度卷积神经网络对SAR图像各目标类别之间不同显著性特征的提取,其中Enhanced-SE层的Enhanced-sigmoid激活函数p(yi):
p(yi)=(m+n·s(yi))q
是通过对sigmoid激活函数s(yi)先进行n倍的尺度变换得到n·s(yi),后对n·s(yi)平移m单位得到m+n·s(yi)、再对m+n·s(yi)进行q次幂变换得到,其中yi为Enhanced-SE层中全连接层输出的分类权重,i=1,2,...,T,m、n、q是对sigmoid函数的平移参数、尺度变换参数,幂变换参数,本实验分别设置m、n、q为0、1、2;
步骤3c)构建由依次层叠的输入层、隐藏层和输出层组成的深度卷积神经网络模型,其中隐藏层包括SE层、Enhanced-SE层、多个卷积层、多个池化层和多个Dropout层,输出层由依次层叠的全连接层和LM-softmax分类器组成,其中隐藏层的结构和参数设置为:
隐藏层的结构为:第一卷积层→归一化层→第一池化层→第二卷积层→SE层→第二池化层→第三卷积层→第一Dropout层→Enhanced-SE层→第三池化层→第四卷积层→第二Dropout层;
隐藏层的参数设置:
为了较高效率并且较完整地提取SAR图像目标特征,卷积核大小随网络层数的递增而递减,卷积核个数随网络层数的递增而递增,第一卷积层的卷积核大小设置为5,卷积核个数设置为16;
第二卷积层卷积核大小设置为3,卷积核个数设置为32;
SE层中卷积层大小设置为3,卷积核个数设置为32;
第三卷积层的卷积核大小设置为4,卷积核个数设置为64;
第一Dropout层的比率设置为0.5;
Enhanced-SE层中卷积层层大小设置为4,卷积核个数设置为64;
第四卷积层的卷积核大小设置为5,卷积核个数设置为64;
第二Dropout层的比率设置为0.25;
步骤4)对深度卷积神经网络模型进行训练:
首先对网络中所有卷积核的权值赋予初始值,将带类别标记的训练样本集R1作为深度卷积神经网络模型的输入,输入经过深度卷积神经网络中卷积层、池化层等向前传播得出输出分类类别,求出输出分类类别与标记的目标真实类别的误差,当误差大于阈值时,将误差传回深度卷积神经网络中;否则结束训练。对深度卷积神经网络模型进行如上述10000次迭代监督训练,得到训练后的深度卷积神经网络模型;
步骤5)通过训练后的深度卷积神经网络模型对测试样本集E1进行分类:
将测试样本集E1输入训练后的深度卷积神经网络模型中对E1中的每幅SAR图像包含的目标进行分类,得到SAR图像目标的分类结果。
以下结合仿真实验,对本发明的技术效果作进一步说明:
1.仿真条件:
本仿真实验使用MSTAR数据集中包括俯仰角在15°及17°下的十类地面车辆目标:装甲车:BMP-2、BRDM-2、BTR-60、BTR-70;坦克:T62、T72;火箭发射器:2S1;防空单元:ZSU-234;卡车:ZIL-131;推土机:D7。
2.仿真内容与结果:
本实验中选取17°俯仰角下包含该10类地面车辆目标且大小为128×128的3671幅SAR图像作为训练样本集R0;选取15°俯仰角下包含该10类地面车辆目标且大小为128×128的3203幅SAR图像作为测试样本集E0,每类目标数据集的构成如表2所示,
表2 仿真实验中的训练集和测试集
R0和E0共计包含10类车面目标6800幅SAR图像,BMP-2、BRDM-2、BTR-60、BTR-70、T62、T72、2S1、ZSU-234、ZIL-131、D7类别SAR图像的54.32%、52.10%、56.76%、54.31%、52.27%、54.28%、52.18%、52.18%、52.18%、52.18%为R0,各类别剩余部分为E0,对R0中每幅SAR图像类别进行标记,将归属于R0的每幅I0对应的去除背景杂波SAR图像组合成训练样本集R1,同时将归属于E0的每幅I0对应的去除背景杂波SAR图像组合成测试样本集E1;
构建由依次层叠的输入层、隐藏层和输出层组成的卷积神经网络模型,其隐藏层结构和参数设置为:
隐藏层的结构为:输入层→第一卷积层→第一池化层→第二卷积层→第二池化层→第三卷积层→第三池化层→全连接层;
隐藏层的参数设置:
第一卷积层的卷积核大小设置为5,卷积核个数设置为16;
第二卷积层卷积核大小设置为3,卷积核个数设置为32;
第三卷积层的卷积核大小设置为4,卷积核个数设置为64;
输出层由依次层叠的全连接层和分类器组成;
将训练样本集R1作为输入训练该卷积神经网络模型和本发明的深度卷积神经网络模型,将训练样本E1作为输入测试训练后的该卷积神经网络模型和训练后的本发明的深度卷积神经网络模型,统计两种卷积神经网络模型分类方法对于测试样本集E1中SAR图像目标的分类正确率Accuracy,
其中,N为输入测试样本数量,ti为第i个测试样本两个不同网络所判别的类别,labeli为第i个测试样本真实类别,得到分类正确率结果如表3所示,
表3 卷积神经网络方法与本发明分类正确率对比
网络结构 | 卷积神经网络方法 | 本发明方法 |
分类正确率(%) | 94.79% | 97.32% |
由表1可以看出,本发明方法的分类正确率较卷积神经网络方法提高了2.53%,说明该方法中构建对sigmoid激活函数平移、尺度变换、幂变换得到Enhanced-SE激活函数的Enhanced-SE层提高了对SAR图像目标的分类精度。
Claims (2)
1.一种基于深度卷积神经网络的SAR图像目标分类方法,其特征在于,包括如下步骤:
(1)获取训练样本集R0和测试样本集E0:
(1a)选取包含T类目标且大小为l×l的SAR图像,T≥2,l≥2,每类SAR图像的数量为H幅,H≥10;
(1b)随机选取每类SAR图像中的30%以上组成训练样本集R0,剩余部分组成测试样本集E0,并对R0中每幅SAR图像类别进行标记;
(2)去除训练样本集R0和测试样本集E0中每幅SAR图像的背景杂波:
(2a)对训练样本集R0和测试样本集E0中的每幅SAR图像I0进行幂变换,得到T×H幅幂变换后的SAR图像I1;
(2b)使用边长为w的正方形滑窗,按照先行后列的顺序,以步长1在每幅I1上滑动,w≤l,统计每个滑窗区域内像素的均值,并选取所有均值中的最大值a;
(2d)设置a的权重为u1,b的权重为u2,且u1+u2=1,阈值t=u1×a+u2×b,将每幅I1像素值中所有大于或等于t的像素点组成的区域作为目标区域,并令该目标区域中每一个像素点的像素值为1,同时将其余像素点组成的区域作为背景区域,并令该背景区域中每一个像素点的像素值为0,得到包含目标区域和背景区域的T×H幅SAR图像I2;
(2e)采用形态学闭运算方法,对每幅I2中目标区域的边缘缺口进行融合,同时对目标区域的内部缺损进行填补,得到T×H幅SAR图像I3:
(2f)令每幅I3中面积最大的连通域内所有像素点的像素值为1,其余区域内所有像素点的像素值为0,得到T×H幅图像I4;
(2g)将每幅I0与每幅I0对应的I4点乘,得T×H幅去除背景杂波SAR图像,并根据每幅SAR图像的类别标记,将归属于R0的每幅I0对应的去除背景杂波SAR图像组合成训练样本集R1,同时将归属于E0的每幅I0对应的去除背景杂波SAR图像组合成测试样本集E1;
(3)构建深度卷积神经网络模型:
(3a)构建由依次层叠的全局池化层、第一全连接层、ReLu激活层、第二全连接层和sigmoid激活层组成的SE层;
其中sigmoid激活层的sigmoid激活函数为:
其中xi为SE层中第二全连接层输出的分类权重,i=1,2,...,T;
(3b)构建由依次层叠的卷积层、ReLu激活层、全连接层和Enhanced-sigmoid激活层组成的Enhanced-SE层;
其中Enhanced-SE层的Enhanced-sigmoid激活函数p(yi)的表达式为:
p(yi)=(m+n·s(yi))q
n是对sigmoid激活函数s(yi)进行的尺度变换,m为n·s(yi)的平移参数,q为m+n·s(yi)的幂次变换;其中yi为Enhanced-SE层中全连接层输出的分类权重,i=1,2,...,T;
(3c)构建由依次层叠的输入层、隐藏层和输出层组成的深度卷积神经网络模型,其中隐藏层包括SE层、Enhanced-SE层、多个卷积层、多个池化层和多个Dropout层,输出层由依次层叠的全连接层和LM-softmax分类器组成;
(4)对深度卷积神经网络模型进行训练:
将带类别标记的训练样本集R1作为深度卷积神经网络模型的输入对该模型进行K次迭代监督训练,得到训练后的深度卷积神经网络模型,其中,K≥10000;
(5)获取SAR图像目标的分类结果:
将测试样本集E1输入训练后的深度卷积神经网络模型中对E1中的每幅SAR图像包含的目标进行分类,得到SAR图像目标的分类结果。
2.根据权利要求1所述的基于深度卷积神经网络的SAR图像目标分类方法,其中特征在于,步骤(3c)所述深度卷积神经网络模型,其隐藏层的结构和参数设置为:
隐藏层的结构为:第一卷积层→归一化层→第一池化层→第二卷积层→SE层→第二池化层→第三卷积层→第一Dropout层→Enhanced-SE层→第三池化层→第四卷积层→第二Dropout层;
隐藏层的参数设置:
第一卷积层的卷积核大小设置为5,卷积核个数设置为16;
第二卷积层卷积核大小设置为3,卷积核个数设置为32;
SE层中卷积层大小设置为3,卷积核个数设置为32;
第三卷积层的卷积核大小设置为4,卷积核个数设置为64;
第一Dropout层的比率设置为0.5;
Enhanced-SE层中卷积层层大小设置为4,卷积核个数设置为64;
第四卷积层的卷积核大小设置为5,卷积核个数设置为64;
第二Dropout层的比率设置为0.25。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910407093.2A CN110163275B (zh) | 2019-05-16 | 2019-05-16 | 基于深度卷积神经网络的sar图像目标分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910407093.2A CN110163275B (zh) | 2019-05-16 | 2019-05-16 | 基于深度卷积神经网络的sar图像目标分类方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110163275A CN110163275A (zh) | 2019-08-23 |
CN110163275B true CN110163275B (zh) | 2021-10-29 |
Family
ID=67634700
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910407093.2A Active CN110163275B (zh) | 2019-05-16 | 2019-05-16 | 基于深度卷积神经网络的sar图像目标分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110163275B (zh) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110781830B (zh) * | 2019-10-28 | 2023-03-10 | 西安电子科技大学 | 基于空-时联合卷积的sar序列图像分类方法 |
CN111126385A (zh) * | 2019-12-13 | 2020-05-08 | 哈尔滨工程大学 | 一种可变形活体小目标的深度学习智能识别方法 |
CN112101251B (zh) * | 2020-09-18 | 2022-06-10 | 电子科技大学 | 基于可变卷积神经网络的sar自动目标识别方法 |
CN112244863A (zh) * | 2020-10-23 | 2021-01-22 | 京东方科技集团股份有限公司 | 信号识别方法、信号识别装置、电子设备及可读存储介质 |
CN112949731A (zh) * | 2021-03-11 | 2021-06-11 | 江苏禹空间科技有限公司 | 基于多专家模型的目标检测方法、装置、存储介质及设备 |
CN113436200B (zh) * | 2021-07-27 | 2023-05-30 | 西安电子科技大学 | 基于轻量分割卷积网络的rgb图像分类方法 |
CN114708236B (zh) * | 2022-04-11 | 2023-04-07 | 徐州医科大学 | 一种基于tsn和ssn在超声图像中的甲状腺结节良恶性分类方法 |
CN114937206A (zh) * | 2022-06-15 | 2022-08-23 | 西安电子科技大学 | 基于迁移学习和语义分割的高光谱图像目标检测方法 |
CN116141178B (zh) * | 2023-04-17 | 2023-07-18 | 杭州鄂达精密机电科技有限公司 | 一种半导体阀门的加工***及其方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103955702A (zh) * | 2014-04-18 | 2014-07-30 | 西安电子科技大学 | 基于深度rbf网络的sar图像地物分类方法 |
CN106228124A (zh) * | 2016-07-17 | 2016-12-14 | 西安电子科技大学 | 基于卷积神经网络的sar图像目标检测方法 |
CN107145874A (zh) * | 2017-05-13 | 2017-09-08 | 复旦大学 | 复杂背景sar图像中的舰船目标检测与鉴别方法 |
CN107247930A (zh) * | 2017-05-26 | 2017-10-13 | 西安电子科技大学 | 基于cnn和选择性注意机制的sar图像目标检测方法 |
CN108280460A (zh) * | 2017-12-04 | 2018-07-13 | 西安电子科技大学 | 基于改进卷积神经网络的sar车辆目标识别方法 |
US10289910B1 (en) * | 2014-07-10 | 2019-05-14 | Hrl Laboratories, Llc | System and method for performing real-time video object recognition utilizing convolutional neural networks |
-
2019
- 2019-05-16 CN CN201910407093.2A patent/CN110163275B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103955702A (zh) * | 2014-04-18 | 2014-07-30 | 西安电子科技大学 | 基于深度rbf网络的sar图像地物分类方法 |
US10289910B1 (en) * | 2014-07-10 | 2019-05-14 | Hrl Laboratories, Llc | System and method for performing real-time video object recognition utilizing convolutional neural networks |
CN106228124A (zh) * | 2016-07-17 | 2016-12-14 | 西安电子科技大学 | 基于卷积神经网络的sar图像目标检测方法 |
CN107145874A (zh) * | 2017-05-13 | 2017-09-08 | 复旦大学 | 复杂背景sar图像中的舰船目标检测与鉴别方法 |
CN107247930A (zh) * | 2017-05-26 | 2017-10-13 | 西安电子科技大学 | 基于cnn和选择性注意机制的sar图像目标检测方法 |
CN108280460A (zh) * | 2017-12-04 | 2018-07-13 | 西安电子科技大学 | 基于改进卷积神经网络的sar车辆目标识别方法 |
Non-Patent Citations (2)
Title |
---|
SAR ATR of Ground Vehicles Based on LM-BN-CNN;Feng Zhou等;《IEEE TRANSACTIONS ON GEOSCIENCE AND REMOTE SENSING》;20181231;第56卷(第12期);第7282-7292页 * |
结合注意力机制的长文本分类方法;卢玲等;《计算机应用》;20180510;第1272-1277页 * |
Also Published As
Publication number | Publication date |
---|---|
CN110163275A (zh) | 2019-08-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110163275B (zh) | 基于深度卷积神经网络的sar图像目标分类方法 | |
CN108510467B (zh) | 基于深度可变形卷积神经网络的sar图像目标识别方法 | |
CN110516561B (zh) | 基于dcgan和cnn的sar图像目标识别方法 | |
CN109271856B (zh) | 基于扩张残差卷积的光学遥感图像目标检测方法 | |
CN108776779B (zh) | 基于卷积循环网络的sar序列图像目标识别方法 | |
Kampffmeyer et al. | Semantic segmentation of small objects and modeling of uncertainty in urban remote sensing images using deep convolutional neural networks | |
CN105809198B (zh) | 基于深度置信网络的sar图像目标识别方法 | |
CN106529508B (zh) | 基于局部和非局部多特征语义高光谱图像分类方法 | |
CN109766835B (zh) | 基于多参数优化生成对抗网络的sar目标识别方法 | |
CN111091105A (zh) | 基于新的边框回归损失函数的遥感图像目标检测方法 | |
CN109684922B (zh) | 一种基于卷积神经网络的多模型对成品菜的识别方法 | |
CN108596108B (zh) | 基于三元组语义关系学习的航拍遥感图像变化检测方法 | |
CN108280460B (zh) | 基于改进卷积神经网络的sar车辆目标识别方法 | |
CN109284704A (zh) | 基于cnn的复杂背景sar车辆目标检测方法 | |
CN109284786B (zh) | 基于分布和结构匹配生成对抗网络的sar图像地物分类方法 | |
CN109410184B (zh) | 基于稠密对抗网络半监督学习的直播色情图像检测方法 | |
US20230351576A9 (en) | Half-cast mark identification and damaged flatness evaluation and classification method for blastholes in tunnel blasting | |
CN109389080A (zh) | 基于半监督wgan-gp的高光谱图像分类方法 | |
CN110533069B (zh) | 一种基于支持向量机算法的二维箔条分布特性识别方法 | |
CN105844279A (zh) | 基于深度学习和sift特征的sar图像变化检测方法 | |
CN111539957B (zh) | 一种用于目标检测的图像样本生成方法、***及检测方法 | |
CN112396619B (zh) | 一种基于语义分割的内部复杂组成的小型颗粒分割方法 | |
CN111738114B (zh) | 基于无锚点精确采样遥感图像车辆目标检测方法 | |
CN101114337A (zh) | 一种地面建筑物识别定位方法 | |
CN109558803B (zh) | 基于卷积神经网络与np准则的sar目标鉴别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |