CN107909109A - 基于显著性和多尺度深度网络模型的sar图像分类方法 - Google Patents

基于显著性和多尺度深度网络模型的sar图像分类方法 Download PDF

Info

Publication number
CN107909109A
CN107909109A CN201711143858.3A CN201711143858A CN107909109A CN 107909109 A CN107909109 A CN 107909109A CN 201711143858 A CN201711143858 A CN 201711143858A CN 107909109 A CN107909109 A CN 107909109A
Authority
CN
China
Prior art keywords
target
network model
training
conspicuousness
layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201711143858.3A
Other languages
English (en)
Other versions
CN107909109B (zh
Inventor
焦李成
屈嵘
侯瑶淇
马文萍
杨淑媛
侯彪
刘芳
陈璞花
古晶
张丹
唐旭
马晶晶
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xidian University
Original Assignee
Xidian University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xidian University filed Critical Xidian University
Priority to CN201711143858.3A priority Critical patent/CN107909109B/zh
Publication of CN107909109A publication Critical patent/CN107909109A/zh
Application granted granted Critical
Publication of CN107909109B publication Critical patent/CN107909109B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/188Vegetation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

一种基于显著性和多尺度深度网络模型的SAR图像分类方法。其步骤为:读入数据集;获得训练场景图和显著特征图;生成显著性检测训练数据集;生成目标分类训练样本集;构建显著性网络模型;训练显著性网络模型;构建多尺度深度网络模型;构建曲线波Curvelet重构层;生成目标分类网络模型;训练目标分类网络模型;获得显著特征图;对显著特征图进行形态学处理;提取检测切片;对检测切片进行分类;对分类结果进行投票;标记检测与分类结果图。本发明提高了分类准确率和分类速度,本发明可应用于对合成孔径雷达SAR图像的目标准确地进行分类、识别。

Description

基于显著性和多尺度深度网络模型的SAR图像分类方法
技术领域
本发明属于图像处理技术领域,更进一步涉及雷达图像分类技术领域中的一种基于显著性和多尺度深度网络模型的SAR图像分类方法。本发明是一种结合多尺度深度和显著性网络模型的合成孔径雷达SAR(Synthetic Aperture Radar)图像分类方法。本发明可应用于对合成孔径雷达SAR图像的目标准确地进行分类、识别。
背景技术
合成孔径雷达SAR图像分类是通过对SAR数据的分析,划分出感兴趣的目标或区域的过程。合成孔径雷达SAR图像分类是遥感图像分类的主要组成部分,随着雷达技术的发展,利用合成孔径雷达SAR图像分类的研究日益受到人们的重视。合成孔径雷达SAR图像分类技术在地质勘探、森林状态监控、海冰分布监视以及农作物生长状况评估等多个领域得到广泛的应用。
由于雷达图像在成像过程中不可避免地会产生相干斑,从分类的角度看,相干斑可被认为是噪声,而基于像素的分类方法对噪声的敏感度很高,所以合成孔径雷达SAR图像的分类方法经常是基于目标或对象的区域处理方式。例如:
Jinxin Li等人在其发表的论文“Classification of very high resolutionSAR image based on convolutional neural network”(2017International Workshopon Remote Sensing with Intelligent Processing(RSIP))中提出了一种基于卷积神经网络的SAR图像分类方法。该方法先利用卷积神经网络滑窗式提取SAR图像的局部特征,再利用softmax分类器对每一个目标进行分类,从而有效地提高了分类的精度,但是该方法仍然存在的不足之处是,该方法使用了传统的卷积神经网络自动学习图像特征,没有利用到SAR图像的特性和多尺度信息,分类精度较低。此外,该方法使用滑窗选取局部目标,计算量大。
西安电子科技大学在其申请的专利文献“基于稠密SAR-SIFT和稀疏编码的SAR分类方法”(专利申请号:2016102178991,公开号:CN105913083A)中提出一种基于稠密SAR-SIFT和稀疏编码的SAR分类方法。该方法首先利用稠密SAR-SIFT提取图像的局部特征,然后对图像的特征编码进行空域最大值池化,得到图像的特征向量,最后采用快速稀疏SVM分类器对特征向量进行分类。该方法存在的不足之处是,该方法使用了稀疏编码技术,需要大量的计算且分类精度较低。
发明内容
本发明的目的在于克服上述现有技术的不足,提出一种基于显著性和多尺度深度网络模型的SAR图像分类方法。本发明相比基于人工特征提取或传统卷积神经网络的方法提高了对SAR图像信息的利用效率,充分利用了SAR图像本身的特性和SAR图像的多尺度信息,提高了SAR图像目标分类的精度。
本发明实现上述目的的思路是:首先通过显著性模型,得到目标可能存在的区域,然后通过形态学处理对目标可能存在的区域进行鉴别,确定目标的存在,最后利用Curvelet重构层和多尺度深度网络模型对目标进行分类,得到最终的分类结果。
本发明的步骤包括如下:
(1)读入数据集:
读入由20幅场景图和1200幅目标切片组成的合成孔径雷达SAR数据集;其中,每幅目标切片的大小为128*128个像素;
(2)获得训练场景图和显著特征图:
(2a)从1200幅目标切片图中随机选取15个目标切片,组成一个目标切片组;
(2b)从20幅场景图中随机选取一幅场景图,将目标切片组中的所有目标切片随机分布到所选取的场景图中,得到一幅训练场景图;
(2c)生成与训练场景图大小相等的全零矩阵;
(2d)将目标切片组中的所有目标切片在训练场景图中的位置所对应的全零矩阵中的位置设置为1,得到显著特征图;
(2e)判断从1200幅目标切片图中重复选取15个目标切片,组成一个目标切片组的数目是否达到3000组,若是,则执行步骤(3);否则,执行步骤(2a);
(3)生成显著性检测训练数据集:
将3000幅训练场景图和与之对应的显著特征图,组成显著性检测训练数据集;
(4)生成目标分类训练样本集:
(4a)从1200幅目标切片中随机选取600幅作为目标训练集,其余600幅作为目标测试集;
(4b)从目标训练集中随机选取一幅目标切片,从所选目标切片中随机裁剪6个88*88像素的小切片;
(4c)判断目标训练集中的目标切片是否选完,若是,则执行步骤(4e);否则,执行步骤(4b);
(4e)将所有的小切片组成目标分类训练数据集;
(5)构建显著性网络模型:
利用深度学习平台,构建一个九层的显著性网络模型;
该模型的结构为:第一层至第四层为卷积下采样层,第五层至第八层为卷积上采样层,第九层为卷积层;
该模型的参数设置为:卷积采样层的参数设置为:8个卷积核,卷积核窗口大小为3*3个像素,相邻局部接受域的大小为1,激活函数为Relu函数,采样窗口大小为2*2个像素;卷积层的参数设置为:1个卷积核,卷积核窗口大小为3*3个像素,相邻局部接受域的大小为1,激活函数为Sigmoid函数;
(6)训练显著性网络模型:
将显著性检测训练数据集输入到显著性网络模型中,使用训练参数对显著性网络模型进行迭代训练,得到训练好的显著性网络模型;
(7)构建多尺度深度网络模型:
利用深度学习平台,构建一个七层的多尺度深度网络模型:
该模型的结构为:第一层到第五层均为卷积下采样层,第六层为转换层,第七层为全连接层;
该模型的参数设置为:卷积下采样层的参数设置为:16个卷积核,卷积核窗口大小为3*3个像素,相邻局部接受域的大小为1,激活函数为Relu函数,下采样窗口大小为2*2个像素;全连接层的参数设置为:神经元个数为128个,激活函数为softmax;
(8)构建曲线波Curvelet重构层:
利用程序语言,构建重构系数为0.5的曲线波Curvelet重构层;
(9)生成目标分类网络模型:
将曲线波Curvelet重构层与多尺度深度网络,组成目标分类网络模型;
(10)训练目标分类网络模型:
将目标分类训练数据集输入到目标分类网络模型中,使用训练参数对目标分类网络模型进行迭代训练,得到训练好的目标分类网络模型;
(11)获得显著特征图:
将待测试的场景图输入到训练好的显著性网络模型中,得到显著特征图;
(12)对显著特征图进行形态学处理:
(12a)对显著特征图进行膨胀系数为10个像素的膨胀处理,去除显著特征图内部的缝隙;
(12b)对膨胀后的显著特征图进行去除小连通域的处理,去除面积小于300个像素的连通域;
(12c)对显著特征图进行连通域标记,计算连通域的质心,作为目标区域质心;
(13)提取检测切片:
以目标区域质心为中心,在10*10个像素范围的像素中,随机选取6个像素,以每个所选取的像素为中心,提取6个88*88像素的检测切片;
(14)对检测切片进行分类:
将6个检测切片送入训练好的目标分类网络模型中,得到6个分类结果;
(15)对分类结果进行投票:
对6个分类结果进行多数投票,得到最终分类结果;
(16)标记检测与分类结果图:
在待测试的场景图中,分别标记每个目标区域质心对应的88*88像素的目标区域与最终分类结果,得到检测与分类结果图。
本发明与现有技术相比具有以下优点:
第一,由于本发明采用显著性网络模型,使用该模型筛选出了目标可能存在的区域,克服了现有技术中滑窗式处理带来的巨大计算量,使得本发明的计算速度高于现有技术,提高了处理效率。
第二,由于本发明采用多尺度深度网络模型,融合了多个尺度的信息,克服了传统卷积神经网络对多尺度信息的利用不足的问题,使得本发明得到了多尺度、多分辨的图像特征,提高了分类精度。
第三,由于本发明采用Curvelet滤波层对图像进行重构,克服了现有技术无法利用SAR图像本身特点滤除噪声的缺点,滤掉了部分噪声信息,使得本发明提高了数据质量,提高了分类准确率。
附图说明
图1为本发明的流程图;
图2为本发明的仿真图。
具体实施方式
下面结合附图,对本发明做进一步的详细描述。
参照附图1,对本发明的实现步骤做进一步的详细描述。
步骤1.读入数据集:
读入由20幅场景图和1200幅目标切片组成的合成孔径雷达SAR数据集;其中,每幅目标切片的大小为128*128个像素。
步骤2.获得训练场景图和显著特征图。
第1步,从1200幅目标切片图中随机选取15个目标切片,组成一个目标切片组。
第2步,从20幅场景图中随机选取一幅场景图,将目标切片组中的所有目标切片随机分布到所选取的场景图中,得到一幅训练场景图。
第3步,生成与训练场景图大小相等的全零矩阵。
第4步,将目标切片组中的所有目标切片在训练场景图中的位置所对应的全零矩阵中的位置设置为1,得到显著特征图。
第5步,判断从1200幅目标切片图中重复选取15个目标切片,组成一个目标切片组的数目是否达到3000组,若是,则执行步骤3;否则,执行步骤2的第一步。
步骤3.生成显著性检测训练数据集。
将3000幅训练场景图和与之对应的显著特征图,组成显著性检测训练数据集。
步骤4.生成目标分类训练样本集。
第1步,从1200幅目标切片中随机选取600幅作为目标训练集,其余600幅作为目标测试集。
第2步,从目标训练集中随机选取一幅目标切片,从所选目标切片中随机裁剪6个88*88像素的小切片。
第3步,判断目标训练集中的目标切片是否选完,若是,则执行步骤4的第4步;否则,执行步骤4的第2步。
第4步,将所有的小切片组成目标分类训练数据集。
步骤5.构建显著性网络模型。
利用深度学习平台,构建一个九层的显著性网络模型。
该模型的结构为:第一层至第四层为卷积下采样层,第五层至第八层为卷积上采样层,第九层为卷积层。
该模型的参数设置为:卷积采样层的参数设置为:8个卷积核,卷积核窗口大小为3*3个像素,相邻局部接受域的大小为1,激活函数为Relu函数,采样窗口大小为2*2个像素;卷积层的参数设置为:1个卷积核,卷积核窗口大小为3*3个像素,相邻局部接受域的大小为1,激活函数为Sigmoid函数。
步骤6.训练显著性网络模型。
将显著性检测训练数据集输入到显著性网络模型中,使用训练参数对显著性网络模型进行迭代训练,得到训练好的显著性网络模型。
所述的训练参数是指,损失函数为二值交叉熵,优化算法为自适应学习率调整算法adadelta,迭代次数为10次。
步骤7.构建多尺度深度网络模型。
利用深度学习平台,构建一个七层的多尺度深度网络模型。
该模型的结构为:第一层到第五层均为卷积下采样层,第六层为转换层,第七层为全连接层。
该模型的参数设置为:卷积下采样层的参数设置为:16个卷积核,卷积核窗口大小为3*3个像素,相邻局部接受域的大小为1,激活函数为Relu函数,下采样窗口大小为2*2个像素;全连接层的参数设置为:神经元个数为128个,激活函数为softmax。
步骤8.构建曲线波Curvelet重构层。
利用程序语言,构建重构系数为0.5的曲线波Curvelet重构层。
步骤9.生成目标分类网络模型。
将曲线波Curvelet重构层与多尺度深度网络,组成目标分类网络模型。
步骤10.训练目标分类网络模型。
将目标分类训练数据集输入到目标分类网络模型中,使用训练参数对目标分类网络模型进行迭代训练,得到训练好的目标分类网络模型。
所述的训练参数是指,损失函数为二值交叉熵,优化算法为自适应学习率调整算法adadelta,迭代次数为150次。
步骤11.获得显著特征图。
将待测试的场景图输入到训练好的显著性网络模型中,得到显著特征图。
步骤12.对显著特征图进行形态学处理。
第1步,对显著特征图进行膨胀系数为10个像素的膨胀处理,去除显著特征图内部的缝隙。
膨胀处理是指,用10*10像素大小的全1二值图像作为结构元素,扫描显著特征图的每一个像素,用结构元素与其覆盖的二值图像做“与”操作,判断“与”操作的结果是否为0,若是,将显著特征图的像素置为0,否则,置为1。
第2步,对膨胀后的显著特征图进行去除小连通域的处理,去除面积小于300个像素的连通域。
所述的去除小连通域的处理是指,统计每一个连通域的面积,将面积小于300个像素的连通域的值置为0。
第3步,对显著特征图进行连通域标记,计算连通域的质心,作为目标区域质心。
步骤13.提取检测切片。
以目标区域质心为中心,在10*10个像素范围的像素中,随机选取6个像素,以每个所选取的像素为中心,提取6个88*88像素的检测切片。
步骤14.对检测切片进行分类。
将6个检测切片送入训练好的目标分类网络模型中,得到6个分类结果。
步骤15.对分类结果进行投票。
对6个分类结果进行多数投票,得到最终分类结果。
步骤16.标记检测与分类结果图。
在待测试的场景图中,分别标记每个目标区域质心对应的88*88像素的目标区域与最终分类结果,得到检测与分类结果图。
下面结合仿真实验对本发明的效果做进一步的说明。
1仿真条件:
本发明的仿真是在惠普Z840、内存8GB的硬件环境和Matlab2014Ra、Keras1.0的软件环境下进行的。
2仿真内容:
本发明使用MSTAR数据集进行仿真实验。采集该数据集的传感器为高分辨率的聚束式合成孔径雷达,分辨率为0.3m×0.3m。该数据集包含场景图和目标切片两部分。其中目标包括3大类:BTR70(装甲运输车),BMP2(步兵战车),T72(坦克)。
3仿真效果分析:
图2为本发明在两幅不同待检测场景图上进行仿真的结果图。每幅待检测的场景图都是由一幅农村背景的场景图和一定数目的目标切片人工合成的。其中标注的边框为目标存在的位置,边框上方的文字为目标的类别。由图2的仿真结果可以看到,本发明的检测结果准确,没有误检和漏检。
表1为在MSTAR数据集的目标切片数据集上,使用本发明方法进行测试得到的分类准确率与使用卷积神经网络得到的分类准确率对比表。
表1本发明与卷积神经网络分类准确率对比表
分类方法 准确率
本发明 99.05%
卷积神经网络 98.24%
由表1可见,本发明的分类准确率高于卷积神经网络。
综上所述,本发明通过引入了显著性网络模型和多尺度深度网络模型,提高了SAR图像目标检测和分类准确率。

Claims (5)

1.一种基于显著性和多尺度深度网络模型的SAR图像分类方法,其特征在于,包括如下步骤:
(1)读入数据集:
读入由20幅场景图和1200幅目标切片组成的合成孔径雷达SAR数据集;其中,每幅目标切片的大小为128*128个像素;
(2)获得训练场景图和显著特征图:
(2a)从1200幅目标切片图中随机选取15个目标切片,组成一个目标切片组;
(2b)从20幅场景图中随机选取一幅场景图,将目标切片组中的所有目标切片随机分布到所选取的场景图中,得到一幅训练场景图;
(2c)生成与训练场景图大小相等的全零矩阵;
(2d)将目标切片组中的所有目标切片在训练场景图中的位置所对应的全零矩阵中的位置设置为1,得到显著特征图;
(2e)判断从1200幅目标切片图中重复选取15个目标切片,组成一个目标切片组的数目是否达到3000组,若是,则执行步骤(3);否则,执行步骤(2a);
(3)生成显著性检测训练数据集:
将3000幅训练场景图和与之对应的显著特征图,组成显著性检测训练数据集;
(4)生成目标分类训练样本集:
(4a)从1200幅目标切片中随机选取600幅作为目标训练集,其余600幅作为目标测试集;
(4b)从目标训练集中随机选取一幅目标切片,从所选目标切片中随机裁剪6个88*88像素的小切片;
(4c)判断目标训练集中的目标切片是否选完,若是,则执行步骤(4e);否则,执行步骤(4b);
(4e)将所有的小切片组成目标分类训练数据集;
(5)构建显著性网络模型:
利用深度学习平台,构建一个九层的显著性网络模型;
该模型的结构为:第一层至第四层为卷积下采样层,第五层至第八层为卷积上采样层,第九层为卷积层;
该模型的参数设置为:卷积采样层的参数设置为:8个卷积核,卷积核窗口大小为3*3个像素,相邻局部接受域的大小为1,激活函数为Relu函数,采样窗口大小为2*2个像素;卷积层的参数设置为:1个卷积核,卷积核窗口大小为3*3个像素,相邻局部接受域的大小为1,激活函数为Sigmoid函数;
(6)训练显著性网络模型:
将显著性检测训练数据集输入到显著性网络模型中,使用训练参数对显著性网络模型进行迭代训练,得到训练好的显著性网络模型;
(7)构建多尺度深度网络模型:
利用深度学习平台,构建一个七层的多尺度深度网络模型:
该模型的结构为:第一层到第五层均为卷积下采样层,第六层为转换层,第七层为全连接层;
该模型的参数设置为:卷积下采样层的参数设置为:16个卷积核,卷积核窗口大小为3*3个像素,相邻局部接受域的大小为1,激活函数为Relu函数,下采样窗口大小为2*2个像素;全连接层的参数设置为:神经元个数为128个,激活函数为softmax;
(8)构建曲线波Curvelet重构层:
利用程序语言,构建重构系数为0.5的曲线波Curvelet重构层;
(9)生成目标分类网络模型:
将曲线波Curvelet重构层与多尺度深度网络,组成目标分类网络模型;
(10)训练目标分类网络模型:
将目标分类训练数据集输入到目标分类网络模型中,使用训练参数对目标分类网络模型进行迭代训练,得到训练好的目标分类网络模型;
(11)获得显著特征图:
将待测试的场景图输入到训练好的显著性网络模型中,得到显著特征图;
(12)对显著特征图进行形态学处理:
(12a)对显著特征图进行膨胀系数为10个像素的膨胀处理,去除显著特征图内部的缝隙;
(12b)对膨胀后的显著特征图进行去除小连通域的处理,去除面积小于300个像素的连通域;
(12c)对显著特征图进行连通域标记,计算连通域的质心,作为目标区域质心;
(13)提取检测切片:
以目标区域质心为中心,在10*10个像素范围的像素中,随机选取6个像素,以每个所选取的像素为中心,提取6个88*88像素的检测切片;
(14)对检测切片进行分类:
将6个检测切片送入训练好的目标分类网络模型中,得到6个分类结果;
(15)对分类结果进行投票:
对6个分类结果进行多数投票,得到最终分类结果;
(16)标记检测与分类结果图:
在待测试的场景图中,分别标记每个目标区域质心对应的88*88像素的目标区域与最终分类结果,得到检测与分类结果图。
2.根据权利要求1所述的基于显著性和多尺度深度网络模型的SAR图像分类方法,其特征在于:步骤(6)中所述的训练参数是指,损失函数为二值交叉熵,优化算法为自适应学习率调整算法adadelta,迭代次数为10次。
3.根据权利要求1所述的基于显著性和多尺度深度网络模型的SAR图像分类方法,其特征在于:步骤(10)中所述的训练参数是指,损失函数为二值交叉熵,优化算法为自适应学习率调整算法adadelta,迭代次数为150次。
4.根据权利要求1所述的基于显著性和多尺度深度网络模型的SAR图像分类方法,其特征在于:步骤(12a)所述的膨胀处理是指,用10*10像素大小的全1二值图像作为结构元素,扫描显著特征图的每一个像素,用结构元素与其覆盖的二值图像做“与”操作,判断“与”操作的结果是否为0,若是,将显著特征图的像素置为0,否则,置为1。
5.根据权利要求1所述的基于显著性和多尺度深度网络模型的SAR图像分类方法,其特征在于:步骤(12b)所述的去除小连通域的处理是指,统计每一个连通域的面积,将面积小于300个像素的连通域的值置为0。
CN201711143858.3A 2017-11-17 2017-11-17 基于显著性和多尺度深度网络模型的sar图像分类方法 Active CN107909109B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201711143858.3A CN107909109B (zh) 2017-11-17 2017-11-17 基于显著性和多尺度深度网络模型的sar图像分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201711143858.3A CN107909109B (zh) 2017-11-17 2017-11-17 基于显著性和多尺度深度网络模型的sar图像分类方法

Publications (2)

Publication Number Publication Date
CN107909109A true CN107909109A (zh) 2018-04-13
CN107909109B CN107909109B (zh) 2019-06-21

Family

ID=61845881

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711143858.3A Active CN107909109B (zh) 2017-11-17 2017-11-17 基于显著性和多尺度深度网络模型的sar图像分类方法

Country Status (1)

Country Link
CN (1) CN107909109B (zh)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109242889A (zh) * 2018-08-27 2019-01-18 大连理工大学 基于上下文显著性检测与sae的sar图像变化检测方法
CN109359631A (zh) * 2018-11-30 2019-02-19 南京大学 一种基于卷积神经网络的海冰类型遥感分类方法
CN110163213A (zh) * 2019-05-16 2019-08-23 西安电子科技大学 基于视差图和多尺度深度网络模型的遥感图像分割方法
CN110176005A (zh) * 2019-05-16 2019-08-27 西安电子科技大学 基于归一化指数和多尺度模型的遥感图像分割方法
CN110807754A (zh) * 2018-08-01 2020-02-18 华中科技大学 基于深度语义分割的真菌显微图像分割检测方法及***
CN110826567A (zh) * 2019-11-06 2020-02-21 北京字节跳动网络技术有限公司 光学字符识别方法、装置、设备及存储介质
WO2020093866A1 (zh) * 2018-11-05 2020-05-14 北京达佳互联信息技术有限公司 拍摄引导方法、装置及移动终端和存储介质
CN111274727A (zh) * 2020-01-17 2020-06-12 南京星火技术有限公司 电子设备、微波产品模型设计装置和计算机可读介质
CN112329793A (zh) * 2020-11-05 2021-02-05 天津大学 基于结构自适应和规模自适应感受野的显著性检测方法
CN112906564A (zh) * 2021-02-19 2021-06-04 中国人民解放***箭军工程大学 用于无人机载sar图像自动目标识别的智能决策支持***设计及实现方法
CN115223062A (zh) * 2022-06-30 2022-10-21 桂林理工大学 基于uav数据的桉树人工林区域林分蓄积量时间差校正方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2138956A1 (en) * 2008-06-23 2009-12-30 Raytheon Company Adaptive match metric selection for automatic target recognition
US20140301662A1 (en) * 2013-03-17 2014-10-09 ISC8 Inc. Analysis, Labeling and Exploitation of Sensor Data in Real Time
CN107103338A (zh) * 2017-05-19 2017-08-29 杭州电子科技大学 融合卷积特征和集成超限学习机的sar目标识别方法
CN107247930A (zh) * 2017-05-26 2017-10-13 西安电子科技大学 基于cnn和选择性注意机制的sar图像目标检测方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2138956A1 (en) * 2008-06-23 2009-12-30 Raytheon Company Adaptive match metric selection for automatic target recognition
US20140301662A1 (en) * 2013-03-17 2014-10-09 ISC8 Inc. Analysis, Labeling and Exploitation of Sensor Data in Real Time
CN107103338A (zh) * 2017-05-19 2017-08-29 杭州电子科技大学 融合卷积特征和集成超限学习机的sar目标识别方法
CN107247930A (zh) * 2017-05-26 2017-10-13 西安电子科技大学 基于cnn和选择性注意机制的sar图像目标检测方法

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110807754A (zh) * 2018-08-01 2020-02-18 华中科技大学 基于深度语义分割的真菌显微图像分割检测方法及***
CN110807754B (zh) * 2018-08-01 2022-05-31 华中科技大学 基于深度语义分割的真菌显微图像分割检测方法及***
CN109242889A (zh) * 2018-08-27 2019-01-18 大连理工大学 基于上下文显著性检测与sae的sar图像变化检测方法
WO2020093866A1 (zh) * 2018-11-05 2020-05-14 北京达佳互联信息技术有限公司 拍摄引导方法、装置及移动终端和存储介质
CN109359631A (zh) * 2018-11-30 2019-02-19 南京大学 一种基于卷积神经网络的海冰类型遥感分类方法
CN110163213B (zh) * 2019-05-16 2022-12-06 西安电子科技大学 基于视差图和多尺度深度网络模型的遥感图像分割方法
CN110163213A (zh) * 2019-05-16 2019-08-23 西安电子科技大学 基于视差图和多尺度深度网络模型的遥感图像分割方法
CN110176005A (zh) * 2019-05-16 2019-08-27 西安电子科技大学 基于归一化指数和多尺度模型的遥感图像分割方法
CN110176005B (zh) * 2019-05-16 2023-03-24 西安电子科技大学 基于归一化指数和多尺度模型的遥感图像分割方法
CN110826567A (zh) * 2019-11-06 2020-02-21 北京字节跳动网络技术有限公司 光学字符识别方法、装置、设备及存储介质
CN111274727A (zh) * 2020-01-17 2020-06-12 南京星火技术有限公司 电子设备、微波产品模型设计装置和计算机可读介质
CN112329793A (zh) * 2020-11-05 2021-02-05 天津大学 基于结构自适应和规模自适应感受野的显著性检测方法
CN112329793B (zh) * 2020-11-05 2022-09-27 天津大学 基于结构自适应和规模自适应感受野的显著性检测方法
CN112906564A (zh) * 2021-02-19 2021-06-04 中国人民解放***箭军工程大学 用于无人机载sar图像自动目标识别的智能决策支持***设计及实现方法
CN115223062A (zh) * 2022-06-30 2022-10-21 桂林理工大学 基于uav数据的桉树人工林区域林分蓄积量时间差校正方法
CN115223062B (zh) * 2022-06-30 2023-10-20 桂林理工大学 基于uav数据的桉树人工林区域林分蓄积量时间差校正方法

Also Published As

Publication number Publication date
CN107909109B (zh) 2019-06-21

Similar Documents

Publication Publication Date Title
CN107909109B (zh) 基于显著性和多尺度深度网络模型的sar图像分类方法
CN110135267A (zh) 一种大场景sar图像细微目标检测方法
CN105809198B (zh) 基于深度置信网络的sar图像目标识别方法
CN107016405B (zh) 一种基于分级预测卷积神经网络的害虫图像分类方法
CN107239751B (zh) 基于非下采样轮廓波全卷积网络的高分辨sar图像分类方法
CN107292343A (zh) 一种基于六层卷积神经网络和光谱‑空间信息联合的高光谱遥感图像分类方法
Al Bashish et al. A framework for detection and classification of plant leaf and stem diseases
CN107247930A (zh) 基于cnn和选择性注意机制的sar图像目标检测方法
CN109145992A (zh) 协作生成对抗网络和空谱联合的高光谱图像分类方法
CN107945153A (zh) 一种基于深度学习的路面裂缝检测方法
CN111639587B (zh) 基于多尺度谱空卷积神经网络的高光谱图像分类方法
CN108846426A (zh) 基于深度双向lstm孪生网络的极化sar分类方法
CN107392130A (zh) 基于阈值自适应和卷积神经网络的多光谱图像分类方法
CN106682569A (zh) 一种基于卷积神经网络的快速交通标识牌识别方法
CN108564115A (zh) 基于全卷积gan的半监督极化sar地物分类方法
CN107358203B (zh) 一种基于深度卷积阶梯网络的高分辨sar图像分类方法
CN106600595A (zh) 一种基于人工智能算法的人体特征尺寸自动测量方法
CN104299232B (zh) 一种基于自适应窗方向波域和改进fcm的sar图像分割方法
CN105844279A (zh) 基于深度学习和sift特征的sar图像变化检测方法
CN107590515A (zh) 基于熵率超像素分割的自编码器的高光谱图像分类方法
CN107145836A (zh) 基于栈式边界辨别自编码器的高光谱图像分类方法
CN107967474A (zh) 一种基于卷积神经网络的海面目标显著性检测方法
CN105913081A (zh) 基于改进的PCAnet的SAR图像分类方法
CN105787517B (zh) 基于小波稀疏自编码器的极化sar图像分类方法
Chen et al. Agricultural remote sensing image cultivated land extraction technology based on deep learning

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant