CN108549866A - 基于密集卷积神经网络的遥感飞机识别方法 - Google Patents
基于密集卷积神经网络的遥感飞机识别方法 Download PDFInfo
- Publication number
- CN108549866A CN108549866A CN201810326575.0A CN201810326575A CN108549866A CN 108549866 A CN108549866 A CN 108549866A CN 201810326575 A CN201810326575 A CN 201810326575A CN 108549866 A CN108549866 A CN 108549866A
- Authority
- CN
- China
- Prior art keywords
- intensive
- class
- remote sensing
- training
- neural networks
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/13—Satellite images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Astronomy & Astrophysics (AREA)
- Remote Sensing (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明提出一种基于密集卷积神经网络的联合监督识别方法,利用密集卷积网络结构的特征重用,密集连接等优势,产生高度参数化的高效率模型。并且改进损失函数,将原有的softmax损失函数改为使用softmax损失和中心损失的联合监督,通过联合监督,不仅扩大了不同类之间特征差异,而且减少了同类别的类内特征变化。从而解决飞机识别时遇到遮挡、噪声、模糊情况识别率低的问题。
Description
技术领域:
本文发明涉及遥感飞机图像的飞机机型识别技术。是一种基于密集卷积神经网络的联合监督识别方法。
背景技术:
遥感飞机目标的识别无论在民用还是军用领域都有巨大研究意义,可实现飞机精确定位识别,用来监控民用飞机以及精确军事打击。但是遥感图像存在信息量大,图像不清晰且受环境因素影响较大的问题,卷积神经网络作为解决这一问题的方法引起广泛关注,它会经过不断训练调整权重参数自动提取图像中的感兴趣特征,从而实现精确的遥感飞机识别。
目前飞机目标种类繁多,数据量巨大,且采集的图像受环境、气象等条件干扰较大,因此研究面向实际应用的飞机识别方法是必要的。传统飞机识别算法主要有模板匹配和支持向量机。早期模板匹配算法原理是计算模板图像与目标图像之间的相似性实现目标识别,其识别准确率较高,但是计算量较大,对于遮挡、模糊、旋转等异常情况的鲁棒性较差。后来随着机器学习的发展提出支持向量机算法,其识别准确率有一定提升,且鲁棒性较模板匹配更优,但是支持向量机的核函数、带宽等很难确定。近年来卷积神经网络(CNN)因其卓越的性能已成为机器视觉领域领头羊,能够经过多层卷积网络以及反向传播后提取出需要的特征再进行飞机的识别。
基于此,本发明提出一种基于密集卷积神经网络的联合监督识别方法,利用密集卷积网络结构的特征重用,密集连接等优势,产生高度参数化的高效率模型。损失函数使用softmax损失和中心损失的联合监督,通过联合监督,不仅扩大了不同类之间特征差异,而且减少了同类别的类内特征变化。从而解决飞机识别时遇到遮挡、噪声、模糊情况识别率低的问题。
发明内容:
如今使用深度学习方法实现对遥感飞机识别的成为飞机识别研究热点。大部分基于深度学习飞机识别算法的损失函数为softmax损失函数,针对受到天气、噪声、模糊等异常影响的遥感飞机图像,传统softmax函数的缺点主要有三个方面:一是从聚类的角度来讲,其提取到的特征在很多情况下类内间距要大于类间间距,不利于特征区分;二占据的面积大,我们期望每类占据较小的部分,因为飞机类别很多,期望模型能识别出在训练数据标签中没有的分类;三是softmax会使得模型过度自信,分类结果基本非1即0。因此为解决以上问题本发明采取基于密集卷积神经网络的联合监督遥感飞机识别方法,该方法主要包括以下步骤:
步骤一:将密集卷积神经网络结构在自建遥感飞机数据库上训练,训练样本为五类遥感飞机图像,并且经过旋转、加噪声、加不同程度遮挡以及不同像素运动模糊的预处理。密集卷积神经网络结构如图2所示,网络第一层卷积层;之后是最大池化层P1;随后是网络的核心部分密集连接的3个密集块D1、D2、D3,每个密集块中包含两个卷积层;且密集块之间使用过渡层T1、T2来降低输出维数;再是池化层P2以及全连接层F;最后使用联合监督方法输出识别结果。
步骤二:初始化参数设置,网络训练中学***衡两个损失函数,α控制中心的学习率,λ设置在0.008~0.03范围内,α设置在0.2~0.5范围内。
步骤三:如图2所示首先将一张178×178像素的遥感图像经过第一个卷积层得到16个89×89的特征图;随后经过最大池化P1得到16个46×46的特征图;其次经过3个密集块D1、D2、D3后得到80个46×46的特征图。由于密集连接特性,80由16+16×4得到;然后经过包含卷积层、池化层的过渡层T1得到40个23×23的特征图;同理在经过14个密集块和一个过渡层后得到196个6×6特征图。最后经过平均池化层得到196个1×1的特征图送到全连接层。
步骤四:将全连接层输出的1×10向量输入到联合监督的损失函数L中如公式1,且Ls代表softmax损失函数,Lc代表中心损失函数。
其中:xi代表d维空间中第i个深层特征,属于第yi类;d:特征空间的维度;W:全连接层的参数矩阵(W={d×n},d行n列)。Wj:W的第j列;m:批处理的大小;n:类别数;b:偏置。Cyi代表第yi类深层特征的类心。λ用于平衡两个损失函数。如果将λ设置为0,那么可以看作是这种联合监督的一个特例,表示仅用softmax损失函数。
步骤五:计算联合损失并与图3中设定阈值比较,未达到要求则对联合损失求偏导计算反向传播误差,方程如下
步骤六:得到误差后更新权值与深度特征类心的方程如下,且训练过程中深度特征类心的更新采用一种基于小批量训练集更新深层特征类心的训练方法。而且为了避免少量误标样本造成的大扰动,我们使用α来控制中心的学习率。计算Lc对xi的梯度和的Cyi更新方程:
其中如果条件满足则δ(条件)=1,如果不满足则δ(条件)=0。α在[0,1]范围内。之后则如图3所示,循环进行权值以及类心调整如以下方程,直到达到要求后输出损失函数计算结果。
步骤七:网络测试。为了验证本发明方法的有效性,在自建测试集中验证本发明提出算法对于噪声、模糊、遮挡三种异常情况的鲁棒性,通过前向传播算法预测遥感飞机识别结果。
附图说明
图1:基于密集卷积神经网络的联合监督飞机识别方法训练过程图
图2:密集卷积神经网络结构示意图
图3:结合softmax损失函数与中心损失的联合监督算法流程图
本发明与现有技术相比具有的优点或积极效果:
1、密集卷积神经网络的优势:它比传统卷积网络需要更少的参数,因为不需要重新学习冗余特征图,相同卷积层数情况下训练速度更快且识别精度较高。密集卷积网络明确区分了添加到网络的信息和保留的信息,它是通过特征重用来利用网络的潜力,产生易于训练和高度参数化的精简模型。
2、联合监督的优势:通过联合监督在softmax损失函数基础上根据中心损失公式最小化深度特征与深度特征类心距离,惩罚距离深度特征类心远的特征。从而有效地将同一类的深层特征拉到了其深度特征类心附近。通过联合监督,不仅扩大了五类遥感飞机之间特征差异,而且减少了每类飞机的类内特征变化,因此通过联合监督能提高密集卷积网络的判别能力,提高识别准确率。
具体实施方式:
步骤一:将密集卷积神经网络结构在自建遥感飞机数据库上训练,训练样本为五类遥感飞机图像,并且经过旋转、加噪声、加不同程度遮挡以及不同像素运动模糊的预处理。密集卷积神经网络结构如图2所示,网络第一层卷积层;之后是最大池化层P1;随后是网络的核心部分密集连接的3个密集块D1、D2、D3,每个密集块中包含两个卷积层;且密集块之间使用过渡层T1、T2降低输出维数;再是池化层P2以及全连接层F;最后使用联合监督方法输出识别结果。
步骤二:初始化参数设置,网络训练中学***衡两个损失函数,α控制中心的学习率,λ设置在0.008~0.03范围内,α设置在0.2~0.5范围内。
步骤三:如图2所示首先将一张178×178像素的遥感图像经过第一个卷积层得到16个89×89的特征图;随后经过最大池化P1得到16个46×46的特征图;其次经过3个密集块D1、D2、D3后得到80个46×46的特征图。由于密集连接特性,80由16+16×4得到;然后经过包含卷积层、池化层的过渡层T1得到40个23×23的特征图;同理在经过14个密集块和一个过渡层后得到196个6×6特征图。最后经过平均池化层得到196个1×1的特征图送到全连接层。
步骤四:将全连接层输出的1×10向量输入到联合监督的损失函数L中如公式1,且Ls代表softmax损失函数,Lc代表中心损失函数。
其中:xi代表d维空间中第i个深层特征,属于第yi类;d:特征空间的维度;W:全连接层的参数矩阵(W={d×n},d行n列)。Wj:W的第j列;m:批处理的大小;n:类别数;b:偏置。Cyi代表第yi类深层特征的类心。λ用于平衡两个损失函数。如果将λ设置为0,那么可以看作是这种联合监督的一个特例,表示仅用softmax损失函数。
步骤五:计算联合损失并与图3中设定阈值比较,未达到要求则对联合损失求偏导计算反向传播误差,方程如下
步骤六:得到误差后更新权值与深度特征类心的方程如下,且训练过程中深度特征类心的更新采用一种基于小批量训练集更新深层特征类心的训练方法。而且为了避免少量误标样本造成的大扰动,我们使用α来控制中心的学习率。计算Lc对xi的梯度和的Cyi更新方程:
其中如果条件满足则δ(条件)=1,如果不满足则δ(条件)=0。α在[0,1]范围内。之后则如图3所示,循环进行权值以及类心调整如以下方程,直到达到要求后输出损失函数计算结果。
步骤七:网络测试。为了验证本发明方法的有效性,在自建测试集中验证本发明提出算法对于噪声、模糊、遮挡三种异常情况的鲁棒性,通过前向传播算法预测遥感飞机识别结果。
综上所述:本文发明所提方法表明,密集卷积神经网络的密集连接特性能够比较完整的提取图像特征信息,给图像识别提供可靠依据,产生高参数化的精简模型;结合softmax损失与中心损失的联合监督能够实现类内聚合、类间分散,提高网络对模糊、遮挡、噪声等异常情况的鲁棒性;因此基于密集卷积神经网络的联合监督方法能够实现复杂遥感飞机图像的准确识别。
Claims (1)
1.一种基于密集卷积神经网络的联合监督遥感飞机识别方法,其特征在于包括以下步骤:
步骤一:将密集卷积神经网络结构在自建遥感飞机数据库上训练,训练样本为十类遥感飞机图像,并且经过旋转、加噪声、加不同程度遮挡以及不同像素运动模糊的预处理;网络第一层是卷积层,之后是最大池化层,随后是网络的核心部分密集连接的3个密集块,每个密集块中包含两个卷积层,且密集块之间使用过渡层降低输出维数,再是池化层以及全连接层,最后使用联合监督方法输出识别结果;
步骤二:初始化参数设置,网络训练中学***衡两个损失函数,α控制中心的学习率,λ设置在0.008~0.03范围内,α设置在0.2~0.5范围内;
步骤三:首先将一张178×178像素的遥感图像经过第一个卷积层得到16个89×89的特征图,随后经过最大池化得到16个46×46的特征图,其次经过3个密集块后得到80个46×46的特征图,由于密集连接特性,80由16+16×4得到,然后经过包含卷积层、池化层的过渡层得到40个23×23的特征图,同理在经过14个密集块和一个过渡层后得到196个6×6特征图,最后经过平均池化层得到196个1×1的特征图送到全连接层;
步骤四:将全连接层输出的1×10向量输入到联合监督的损失函数L中,如公式1,且Ls代表softmax损失函数,Lc代表中心损失函数;
其中:xi代表d维空间中第i个深层特征,属于第yi类;d:特征空间的维度;W:全连接层的参数矩阵(W={d×n},d行n列);Wj:W的第j列;m:批处理的大小;n:类别数;b:偏置,代表第yi类深层特征的类心,λ用于平衡两个损失函数,如果将λ设置为0,那么可以看作是这种联合监督的一个特例,表示仅用softmax损失函数;
步骤五:计算联合损失并与设定阈值比较,未达到要求则对联合损失求偏导计算反向传播误差,方程如下
步骤六:得到误差后更新权值与深度特征类心的方程如下,且训练过程中深度特征类心的更新采用一种基于小批量训练集更新深层特征类心的训练方法,而且为了避免少量误标样本造成的大扰动,我们使用α来控制中心的学习率,计算Lc对xi的梯度和的更新方程:
其中如果条件满足则δ(条件)=1,如果不满足则δ(条件)=0,α在[0,1]范围内,之后循环进行权值以及类心调整如以下方程,直到达到要求后输出损失函数计算结果;
步骤七:网络测试。为了验证本发明方法的有效性,在自建测试集中验证本发明提出算法对于噪声、模糊、遮挡三种异常情况的鲁棒性,通过前向传播算法预测遥感飞机识别结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810326575.0A CN108549866B (zh) | 2018-04-12 | 2018-04-12 | 基于密集卷积神经网络的遥感飞机识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810326575.0A CN108549866B (zh) | 2018-04-12 | 2018-04-12 | 基于密集卷积神经网络的遥感飞机识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108549866A true CN108549866A (zh) | 2018-09-18 |
CN108549866B CN108549866B (zh) | 2020-06-23 |
Family
ID=63514761
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810326575.0A Active CN108549866B (zh) | 2018-04-12 | 2018-04-12 | 基于密集卷积神经网络的遥感飞机识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108549866B (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109829923A (zh) * | 2018-12-24 | 2019-05-31 | 五邑大学 | 一种基于深度神经网络的基站天线下倾角测量***及方法 |
CN110059538A (zh) * | 2019-02-27 | 2019-07-26 | 成都数之联科技有限公司 | 一种基于深度密集神经网络的水体识别方法 |
CN110087097A (zh) * | 2019-06-05 | 2019-08-02 | 西安邮电大学 | 一种基于电子内窥镜的自动去除无效视频剪辑方法 |
CN110232370A (zh) * | 2019-06-21 | 2019-09-13 | 华北电力大学(保定) | 一种改进ssd模型的输电线路航拍图像金具检测方法 |
CN111325239A (zh) * | 2020-01-21 | 2020-06-23 | 上海眼控科技股份有限公司 | 一种基于图像的天气识别的方法及设备 |
CN113705489A (zh) * | 2021-08-31 | 2021-11-26 | 中国电子科技集团公司第二十八研究所 | 基于先验区域知识指导的遥感影像细粒度飞机识别方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6423926B1 (en) * | 2000-11-16 | 2002-07-23 | Joseph K. Kelly | Direct-metal-deposition (DMD) nozzle fault detection using temperature measurements |
CN105512684A (zh) * | 2015-12-09 | 2016-04-20 | 江苏大为科技股份有限公司 | 基于主成分分析卷积神经网络的车标自动识别方法 |
US20170287109A1 (en) * | 2016-04-05 | 2017-10-05 | Flipboard, Inc. | Image scaling using a convolutional neural network |
CN107330405A (zh) * | 2017-06-30 | 2017-11-07 | 上海海事大学 | 基于卷积神经网络的遥感图像飞机目标识别方法 |
CN107818302A (zh) * | 2017-10-20 | 2018-03-20 | 中国科学院光电技术研究所 | 基于卷积神经网络的非刚性多尺度物体检测方法 |
CN107844743A (zh) * | 2017-09-28 | 2018-03-27 | 浙江工商大学 | 一种基于多尺度分层残差网络的图像多字幕自动生成方法 |
-
2018
- 2018-04-12 CN CN201810326575.0A patent/CN108549866B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6423926B1 (en) * | 2000-11-16 | 2002-07-23 | Joseph K. Kelly | Direct-metal-deposition (DMD) nozzle fault detection using temperature measurements |
CN105512684A (zh) * | 2015-12-09 | 2016-04-20 | 江苏大为科技股份有限公司 | 基于主成分分析卷积神经网络的车标自动识别方法 |
US20170287109A1 (en) * | 2016-04-05 | 2017-10-05 | Flipboard, Inc. | Image scaling using a convolutional neural network |
CN107330405A (zh) * | 2017-06-30 | 2017-11-07 | 上海海事大学 | 基于卷积神经网络的遥感图像飞机目标识别方法 |
CN107844743A (zh) * | 2017-09-28 | 2018-03-27 | 浙江工商大学 | 一种基于多尺度分层残差网络的图像多字幕自动生成方法 |
CN107818302A (zh) * | 2017-10-20 | 2018-03-20 | 中国科学院光电技术研究所 | 基于卷积神经网络的非刚性多尺度物体检测方法 |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109829923A (zh) * | 2018-12-24 | 2019-05-31 | 五邑大学 | 一种基于深度神经网络的基站天线下倾角测量***及方法 |
CN110059538A (zh) * | 2019-02-27 | 2019-07-26 | 成都数之联科技有限公司 | 一种基于深度密集神经网络的水体识别方法 |
CN110087097A (zh) * | 2019-06-05 | 2019-08-02 | 西安邮电大学 | 一种基于电子内窥镜的自动去除无效视频剪辑方法 |
CN110087097B (zh) * | 2019-06-05 | 2021-08-03 | 西安邮电大学 | 一种基于电子内窥镜的自动去除无效视频剪辑方法 |
CN110232370A (zh) * | 2019-06-21 | 2019-09-13 | 华北电力大学(保定) | 一种改进ssd模型的输电线路航拍图像金具检测方法 |
CN111325239A (zh) * | 2020-01-21 | 2020-06-23 | 上海眼控科技股份有限公司 | 一种基于图像的天气识别的方法及设备 |
CN113705489A (zh) * | 2021-08-31 | 2021-11-26 | 中国电子科技集团公司第二十八研究所 | 基于先验区域知识指导的遥感影像细粒度飞机识别方法 |
CN113705489B (zh) * | 2021-08-31 | 2024-06-07 | 中国电子科技集团公司第二十八研究所 | 基于先验区域知识指导的遥感影像细粒度飞机识别方法 |
Also Published As
Publication number | Publication date |
---|---|
CN108549866B (zh) | 2020-06-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108549866A (zh) | 基于密集卷积神经网络的遥感飞机识别方法 | |
CN106599797B (zh) | 一种基于局部并行神经网络的红外人脸识别方法 | |
CN104330721B (zh) | 集成电路硬件木马检测方法和*** | |
CN110222769A (zh) | 一种基于YOLOV3-tiny的改进目标检测方法 | |
CN109508715A (zh) | 一种基于深度学习的车牌定位和识别方法 | |
CN109409252A (zh) | 一种基于改进型ssd网络的车辆行人多目标检测方法 | |
CN108447080A (zh) | 基于分层数据关联和卷积神经网络的目标跟踪方法、***和存储介质 | |
CN108171184A (zh) | 基于Siamese网络的用于行人重识别的方法 | |
CN107506702A (zh) | 基于多角度的人脸识别模型训练及测试***及方法 | |
CN110334741A (zh) | 基于循环神经网络的雷达一维距离像识别方法 | |
CN106504233A (zh) | 基于Faster R‑CNN的无人机巡检图像电力小部件识别方法及*** | |
CN109800629A (zh) | 一种基于卷积神经网络的遥感图像目标检测方法 | |
CN110188733A (zh) | 基于3d区域卷积神经网络的时序行为检测方法及*** | |
Ye et al. | CT-Net: An efficient network for low-altitude object detection based on convolution and transformer | |
CN112200262B (zh) | 支持多任务和跨任务的小样本分类训练方法及装置 | |
CN104850867A (zh) | 一种基于直觉模糊c均值聚类的目标识别方法 | |
CN104008402A (zh) | 一种基于改进som算法的地基云图识别方法 | |
CN109344856A (zh) | 一种基于多层判别式特征学习的脱机签名鉴别方法 | |
CN111062423A (zh) | 基于自适应特征融合的点云图神经网络的点云分类方法 | |
CN109919246A (zh) | 基于自适应特征聚类和多重损失融合的行人重识别方法 | |
CN108664986A (zh) | 基于lp范数正则化的多任务学习图像分类方法及*** | |
CN107132515A (zh) | 一种基于多维信息约束的点迹筛选方法 | |
CN110082738A (zh) | 基于高斯混合和张量循环神经网络的雷达目标识别方法 | |
CN110008899A (zh) | 一种可见光遥感图像候选目标提取与分类方法 | |
CN104268553A (zh) | 基于核模糊Foley-Sammon转换的SAR图像目标识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |