CN113971674A - 一种基于深度学习的卫星图像目标检测方法 - Google Patents

一种基于深度学习的卫星图像目标检测方法 Download PDF

Info

Publication number
CN113971674A
CN113971674A CN202010723845.9A CN202010723845A CN113971674A CN 113971674 A CN113971674 A CN 113971674A CN 202010723845 A CN202010723845 A CN 202010723845A CN 113971674 A CN113971674 A CN 113971674A
Authority
CN
China
Prior art keywords
layer
image
detection
satellite image
data set
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010723845.9A
Other languages
English (en)
Inventor
杨海东
史扬艺
黄坤山
李泽辉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Foshan Nanhai Guangdong Technology University CNC Equipment Cooperative Innovation Institute
Foshan Guangdong University CNC Equipment Technology Development Co. Ltd
Original Assignee
Foshan Nanhai Guangdong Technology University CNC Equipment Cooperative Innovation Institute
Foshan Guangdong University CNC Equipment Technology Development Co. Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Foshan Nanhai Guangdong Technology University CNC Equipment Cooperative Innovation Institute, Foshan Guangdong University CNC Equipment Technology Development Co. Ltd filed Critical Foshan Nanhai Guangdong Technology University CNC Equipment Cooperative Innovation Institute
Priority to CN202010723845.9A priority Critical patent/CN113971674A/zh
Publication of CN113971674A publication Critical patent/CN113971674A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4053Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/60Rotation of whole images or parts thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20132Image cropping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于深度学习的卫星图像目标检测方法,包括16倍下采样使得416x416像素的输入图像经过模型后,生成26x26的feature map。该网络结构在YOLO基础上降低下采样率以及减少网络层数来提高对小目标和密集目标的检测。网络结构中直通层的作用:直通层即跳跃连接层,是为了改进小物体的保真度。在网络结构中表现为对8层和16层的特征图进行融合。模型中使用到的直通层类似于ResNet网络模型中的identity mappings即恒等映射,使得检测器可以在扩展的特征图上得到更加细粒度的特征。在该卫星图像目标检测模型中,实现了通过多个传感器上相对较少的训练数据快速检测出各种规模的物体。

Description

一种基于深度学习的卫星图像目标检测方法
技术领域
本发明涉及卫星图像目标检测技术领域,尤其涉及一种基于深度学习的卫星图像目标检测方法。
背景技术
在目标检测领域,很多目标检测算法对原始图像的输入大小都是存在一定限制的,例如:Faster R-CNN要求原始图像的输入大小是1000x 600pixel;SSD要求原始图像的输入大小是300x 300pixel或者512x 512pixel;YOLO要求原始图片的输入大小是416x416pixel或者544x 544pixel。卫星图像的目标检测和普通场景的目标检测最大的区别在于卫星图像尺寸很大,比如16000x 16000pixel,并且在图像中目标通常很小且容易聚集在一起。
标准的深度神经网络,如AlexNet、ResNet、VGG与GoogLeNet,都是针对低分辨率图像进行图像分类与目标检测的框架,所以对于卫星图像这样的高分辨率图像进行目标检测并不适用。
在大尺寸图像中检测小物体是卫星图像目标检测领域感兴趣的主要点之一。早期的工作是利用本地滑动窗口和HOG特征描述来确定目标的位置,但这种传统方法的缺点是不适用于不均匀背景的数据集,此时检测效果不理想。
在一些研究报告中,也有使用YOLO框架完成卫星图像的目标检测,该框架使用单一卷积层预测目标类别和边界。这种方法结合获取背景信息的能力在卫星图像的目标检测中能起到一定效果,但是缺点也很显著。卷积本身不具有旋转不变性,而卫星图像中的物体不会因为物体发生旋转而改变属性,所以说需要训练一个具有旋转不变性的网络。当某类数据样本少时,可能会造成过拟合使得训练结果不理想。卫星图像往往图片尺寸很大,单靠下采样是不可行的。
因此,现有技术需要进一步改进和完善。
发明内容
本发明的目的在于克服现有技术的不足,提供一种基于深度学习的卫星图像目标检测方法。
本发明的目的通过下述技术方案实现:
一种基于深度学习的卫星图像目标检测方法,该方法主要包括如下具体步骤:
1)准备数据集,数据集中包含了开放水域的船、在港湾的船、飞机以及飞机场这四类目标的卫星图。
2)对训练数据集进行预处理,采用滑动窗口将训练数据集裁剪成指定尺寸大小。
3)扩充数据集,对输入的训练图像在色相和饱和度上进行旋转和缩放。
4)采用超分辨率技术来增强卫星图像。
5)由于飞机场图像少,并且飞机场与其他样本在尺度上存在较大差异,所以单独针对飞机场训练了一个检测模型。
6)构造针对卫星图像目标检测的卷积神经网络模型,借鉴YOLO框架,在YOLO基础上降低下采样率以及减少网络层数来提高对小目标和密集目标的检测。
7)项目中使用到的网络模型在8层和16层卷积层间增添了直通层。
8)模型中设置扰动层,通过优化前一层与当前层的凸组合来扩展自身结构。
9)项目中使用到的网络模型结构除了18层卷积层的激活函数使用Linear激活函数,结构中在18层前的所有卷积层,其激活函数都采用LeakyReLU加上BatchNormalization(批量归一化处理)。
10)准备测试数据集。对测试数据的处理与训练数据的处理过程类似。
11)对结果后处理。目标检测过程中,重叠部分会被重复检测到两次,把非极大值抑制方法应用于边界框预测的全局矩阵,来减轻此类重叠检测。
12)将不同检测模型、不同划分区域的检测结果合并在一起,得到最终一张卫星图像的输出。
进一步的,步骤1)还包括:从收集的卫星图像中挑选出如下四类目标构成训练数据集:开放水域的船、在港湾的船、飞机以及飞机场。数据集的选择上需要满足如下几个条件:在数据集中需要包含尺度变化明显的图像;目标类别特点鲜明;希望能从检测结果中判断背景对于目标检测的影响。
进一步的,步骤2)还包括:因为数据集中图片分辨率太大,所以需要采用滑动窗口裁剪成指定尺寸后再作为模型的输入。裁剪后相邻小图会有15%的重叠,重叠比例是为了保证每个区域都能被完整检测到。
进一步的,步骤3)还包括:对输入的训练图像在色相和饱和度上进行旋转和缩放是一种增强数据的手段。
进一步的,步骤4)还包括:对于卫星图像,地面采样距离(GSD)是用来衡量图像质量的方法,表示了图像单个像素所表征的实际物理距离。可以通过降低卫星图像中的地面采样距离实现图像增强。
进一步的,步骤5)还包括:由于飞机场数据量相对于其他类图像存在严重不平衡;另一方面,飞机场相对于其他三类数据尺度更大,存在尺度量级上的差异,所以针对飞机场目标单独训练检测模型。训练不同的网络用来检测大小差异悬殊的物体,并且对于小物体的检测,可以将IoU阈值调低以提升对小物体的检测效果。
进一步的,步骤6)还包括:项目中构建的网络结构是基于YOLO改进而来,YOLO结构包含卷积层和最大池化层。网络结构里27层和24层合并到一起输出到下一层,route层的作用是进行层的合并。
进一步的,步骤7)还包括:项目中使用到的网络模型在8层和16层卷积层间增添了直通层,这是为了将不同层的特征图进行融合,使得检测器可以在扩展的特征图上得到更加细粒度的特征。在YOLO的模型结构中,也存在直通层即步骤6提及的route层,本质就是特征重排,直通层本身是不学习参数的,把模型中前面层的特征重排后拼接到后面的层,网络模型中越位于前面的层,感受野越小,越有利于小目标的检测,所以才需要把前面层的特征重排后拼接到后面的层。
进一步的,步骤8)还包括:在网络模型中引入适合图像增强任务的扰动层,旨在从降质图像中复原出原始图像。这也是数据预处理的一环。
进一步的,步骤9)还包括:Linear激活函数用于回归神经网络的输出,LeakyReLU是ReLU的变体,LeakyReLU保留了输入小于0时的梯度。
进一步的,步骤10)还包括:对于测试集,和训练数据集一样,需要一系列的预处理步骤。
进一步的,步骤11)还包括:目标检测过程中,重叠部分会被重复检测,所以会产生多个bounding box的预测值,采用非极大值抑制算法的意义在于只剔除IoU高于阈值,即高度重叠的bounding box,而不会影响目标检测的结果。
进一步的,步骤12)还包括:该网络模型可以得到卫星图像上目标的位置信息,实现了通过多个传感器上相对较少的训练数据快速检测各种规模的物体。
本发明的工作过程和原理是:本发明提供一种基于深度学习的卫星图像目标检测方法,在卫星图像上进行目标检测,卫星图像中想要检测到的物体通常是十分小和密集的,卷积本身不具有旋转不变性,而卫星图像中的物体不会因为物体发生旋转而改变属性,则训练一个具有旋转不变性的网络,所以需要数据增强。在数据预处理的过程中使用到了多种数据增强的手段,对输入的训练图像在色相和饱和度上进行旋转和缩放以及超分辨率技术。在输出结果上也做了后处理工作,用非极大值抑制算法减轻重叠检测,将不同检测模型、不同划分区域的检测结果合并得到一张卫星图像的输出。本发明还具有逻辑清晰、处理效果好、容易实施的优点。
本发明的工作过程和原理是:
与现有技术相比,本发明还具有以下优点:
(1)本发明所提供的基于深度学习的卫星图像目标检测方法与传统技术相比,在传统方法中,当输入图片尺寸很大时,一般会采用下采样,但是有时单靠下采样是不可行的,极易造成数据丢失;传统方法在数据样本不足时,可能会造成模型过拟合使得训练结果不理想。本方法解决了上述问题,使用滑动窗口上采样寻找小物体,在多尺度数据集上运行探测器,通过滑动窗口分区、裁切原始数据不仅避免了输入数据尺寸过大,还能增加数据样本。
(2)本发明所提供的基于深度学习的卫星图像目标检测方法实现了不同尺度的模型融合以及针对特殊目标单独训练模型。将不同检测模型、不同划分区域的检测结果合并在一起,得到最终一张卫星图像的输出。之所以采取不同尺度的模型融合是因为卫星图像整体所包含的信息比裁剪得到的一系列小图像更有用。针对特殊目标单独训练模型是从数据出发,解决了实际场景中目标数据太少带来的问题。
(3)本发明所提供的基于深度学习的卫星图像目标检测方法是应用在卫星图像上具有高鲁棒性的目标检测方案,实现了通过多个传感器上相对较少的训练数据快速检测出各种规模的物体。
附图说明
图1是本发明所提供的基于深度学习的卫星图像目标检测方法的流程图。
图2是本发明所提供的网络模型的结构示意图。
图3是本发明所提供的网络模型中扰动层的结构示意图。
图4是本发明所提供的目标检测输出结果的示意图。
具体实施方式
为使本发明的目的、技术方案及优点更加清楚、明确,以下参照附图并举实施例对本发明作进一步说明。
以下首先就本发明的技术术语进行解释与说明:
感受野:感受野表示输入空间中一个特定CNN特征的范围区域。一个特征的感受野可以采用区域的中心位置和特征大小进行描述。CNN中每层的Feature Map上的像素点在原始图像中映射的区域大小,相当于高层的特征图中的像素点受原图多大区域的影响。
上采样:上采样又称为放大图像或图像插值,主要目的是放大原图像,从而可以显示在更高分辨率的显示设备上。图像放大几乎都是采用内插值方法,即在原有图像像素的基础上在像素点之间采用合适的插值算法***新的元素。
下采样:即缩小图像,主要目的有两个:使得图像符合显示区域的大小以及生成对应图像的缩略图。
数据增强:图像增强的方式有很多,如裁剪、翻转、旋转、缩放、扭曲等几何变换,还有像素扰动、添加噪声、光照调节、对比度调节、样本加和或插值、分割补丁等,另外还有用强化学习做数据增强。数据增强可以提高模型性能,原因在于:增强的样本和原来的样本存在强相关性,数据增强扩充了数据集,并且可以带来某种正则化作用,因为模型会更集中地观测数据总的普遍模式,而消除了某些和普遍模式无关的数据,进而可以减小模型的结构风险。
地面采样距离:对于卫星图像而言,地面采样距离(GSD)是一种常见的衡量图像质量的方法,其表示图像中单个像素表示的实际物理距离。
超分辨率技术:可以通过降低(优化)卫星图像中的地面采样距离实现图像增强,通过合成图像中的子像素信息来提高图像分辨率。
非极大值抑制算法:非极大值抑制就是一个寻找局部最大值的过程。目标检测时采用窗口滑动,在图像上生成很多候选框,把候选框特征提取后送入分类器,对得分排序后,在每个局部区域选取得分最高的框,计算其他框与当前框的重合程度,得到IoU值,如果该值大于一定阈值就删除对应的框。
实施例1:
如图1至图4所示,本实施例公开了一种基于深度学习的卫星图像目标检测方法,包括如下具体实施步骤:
1)准备数据集,数据集中包含了开放水域的船、在港湾的船、飞机以及飞机场这四类目标的卫星图。
2)对训练数据集进行预处理,分区通过滑动窗口进行,滑动窗口具有可定义的裁剪尺寸和重叠比例。采用滑动窗口将训练数据集裁剪成指定尺寸大小。
3)为了扩充数据集,对输入的训练图像在色相和饱和度上进行旋转和缩放。
4)采用超分辨率技术来增强卫星图像,通过合成图像中的子像素信息来提高图像分辨率。
5)因为训练数据集中飞机场类别的训练数据非常少,在项目中采用的解决办法是:单独针对飞机场图像训练了一个检测模型,该解决方法不仅解决了飞机场图像少的问题,还解决了飞机场与其他类别在图像尺度上的差异,在处理测试图像时也是类似的做法。
6)构造针对卫星图像目标检测的卷积神经网络模型。该网络结构基于YOLO改进而来,在YOLO基础上降低下采样率以及减少网络层数来提高对小目标和密集目标的检测。
7)项目中使用到的网络模型在第8层和第16层卷积层间增添了直通层。
8)搭建网络模型时增添了扰动层,通过优化前一层与当前层的凸组合来扩展自身结构,每次仅扩展一层,并产生可训练参数。
9)项目中使用到的网络模型结构除了18层卷积层的激活函数使用Linear激活函数,结构中在18层前的所有卷积层,其激活函数都采用LeakyRule加上BatchNormalization(批量归一化处理)。
10)准备测试数据集。对测试数据的处理与训练数据的处理过程是类似的,也是从原图裁剪出多个小图再输入到网络。
11)对结果进行后处理。目标检测过程中,重叠部分会被重复检测到两次,所以会产生两个bounding box的预测值,把非极大值抑制方法应用于边界框预测的全局矩阵,来减轻此类重叠检测。
12)由于卫星图像整体所包含的信息比裁剪得到的一系列小图像更有用,最后将不同检测模型、不同划分区域的检测结果合并在一起,得到最终一张卫星图像的输出。
步骤1)从收集的卫星图像中挑选出如下四类目标构成训练数据集:开放水域的船、在港湾的船、飞机以及飞机场,之所以选择这四类目标,原因有如下几个方面,其一是在数据集中需要包含尺度变化明显的图像,比如飞机场和飞机这两类图像;其二是目标类别特点鲜明,这里选择了船和飞机;其三是考虑背景对于目标检测的影响,这里选择了开放水域的船、在港湾的船这两类数据。
步骤2)因为数据集中图片分辨率太大,所以需要采用滑动窗口裁剪成指定尺寸后再作为模型的输入。裁剪后相邻的小图会有15%的重叠,重叠比例是为了保证每个区域都能被完整检测到,虽然这带来了一些重复检测,但可以通过NMS非极大抑制算法滤掉。通过这种操作,一张卫星图像会被裁剪出数百上千张指定尺寸的图像,进而间接扩充了数据集。
步骤3)对输入的训练图像在色相和饱和度上进行旋转和缩放是一种增强数据的手段。图像增强的方式有很多,除了上面使用到的在色相和饱和度上进行旋转和缩放,还有降噪等。
步骤4)对于卫星图像,地面采样距离(GSD)是用来衡量图像质量的方法,表示了图像单个像素所表征的实际物理距离。可以通过降低(优化)卫星图像中的地面采样距离实现图像增强,也就是通常所说的超分辨率技术。超分辨率技术通过合成图像中的子像素信息来提高图像分辨率。合成方法有图像相邻像素间插值、影像中相邻帧间插值、频域滤波。
步骤5)针对飞机场目标单独训练检测模型,这是因为一方面飞机场数据量相对于其他三类图像存在严重不平衡,类别不平衡会对训练效果产生不好的影响;另一方面,飞机场相对于其他三类数据尺度更大,存在尺度量级上的差异,如果用同一个检测模型去检测大小十分悬殊的不同目标,检测效果可能不理想。训练不同的网络用来检测大小差异悬殊的物体,并且对于小物体的检测,可以将IoU阈值调低以提升对小物体的检测效果。
步骤6)项目中构建的网络结构是基于YOLO改进而来,YOLO网络结构中第23层以上是Darknet-19网络,后面是添加的检测网络。结构包含卷积层和最大池化层,其中包含了1x1卷积层。网络结构里27层和24层合并到一起输出到下一层,route层的作用是进行层的合并。
步骤7)项目中使用到的网络模型在8层和16层卷积层间增添了直通层,这是为了将不同层的特征图进行融合,使得检测器可以在扩展的特征图上得到更加细粒度的特征。在YOLO的模型结构中,也存在直通层即步骤6提及到的route层,本质就是特征重排,例如26x 26x 512的feature map分别按行和列隔点采样,可以得到4幅13x 13x 512的featuremap,把这4张feature map按channel串联,得到13x 13x 2048的feature map。直通层本身是不学习参数的,把模型中前面层的特征重排后拼接到后面的层,网络模型中越位于前面的层,感受野越小,越有利于小目标的检测,所以才需要把前面层的特征重排后拼接到后面的层。
步骤8)对于航天行业中日益增多的低成本卫星图像,项目中使用到的卫星图像增强方法用于改善低质量传感器返回的图像。在网络模型中引入适合图像增强任务的扰动层,在神经网络中嵌入高分辨率图像的图像细节,并且在增强地理相似图像时提取这些图像细节,旨在从降质图像中复原出原始图像。这也是数据预处理的一环。扰动层包含两个卷积层,每个卷积层间还包含一个非线性ReLU层。扰动层中更多的卷积层提高了扰动层增强图像的能力。
步骤9)Linear激活函数用于回归神经网络的输出,LeakyReLU是ReLU的变体,ReLU对于所有负值输入都输出零,LeakyReLU所有负值输入在输出时赋予一个非零斜率,可以用于隐层神经元的输出。ReLU缓解了梯度消失的问题,提供了神经网络的稀疏表达能力。随着训练进行,可能会出现神经元死亡,权重无法更新,如果是使用ReLU激活函数,那么这种神经元死亡是不可逆的。换用LeakyReLU可以避免这种情况,因为LeakyReLU保留了输入小于0时的梯度。
步骤10)对于测试集,和训练数据集一样,同样需要一系列的预处理步骤。
步骤11)目标检测过程中,重叠部分会被重复检测,所以会产生多个bounding box的预测值,同一个类别可能会检测出多个物体,每个物体又可能存在多个高度重叠的bounding box,如果只选择得分最高的bounding box,则一个类别只能检测出一个物体,采用非极大值抑制算法的意义在于只剔除IoU高于阈值,即高度重叠的bounding box,而不会影响目标检测的结果。
步骤12)使用相同的评价标准评估测试图像,在相同区域上进行输出结果的对比与分析,该网络模型可以得到卫星图像上目标的位置信息,实现了通过多个传感器上相对较少的训练数据快速检测各种规模的物体。
本发明的工作过程和原理是:本发明提供一种基于深度学习的卫星图像目标检测方法,在卫星图像上进行目标检测,卫星图像中想要检测到的物体通常是十分小和密集的,卷积本身不具有旋转不变性,而卫星图像中的物体不会因为物体发生旋转而改变属性,则训练一个具有旋转不变性的网络,所以需要数据增强。在数据预处理的过程中使用到了多种数据增强的手段,对输入的训练图像在色相和饱和度上进行旋转和缩放以及超分辨率技术。在输出结果上也做了后处理工作,用非极大值抑制算法减轻重叠检测,将不同检测模型、不同划分区域的检测结果合并得到一张卫星图像的输出。本发明还具有逻辑清晰、处理效果好、容易实施的优点。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。

Claims (7)

1.一种基于深度学习的卫星图像目标检测方法,其特征在于,包括如下步骤:
步骤S1:自制训练数据集与数据预处理;
步骤S2:设计网络模型,把处理后的数据输入网络进行训练;
步骤S3:把测试数据集输入训练后的检测模型,输出检测结果进行后处理。
2.根据权利要求1所述的基于深度学习的卫星图像目标检测方法,其特征在于,所述步骤S1还包括:训练数据集中包含了开放水域的船、在港湾的船、飞机以及飞机场这四类目标的卫星图;数据预处理包括了:采用滑动窗口将训练数据集裁剪成指定尺寸大小;对输入的训练图像在色相和饱和度上进行旋转和缩放;采用超分辨率技术来增强卫星图像。
3.根据权利要求2所述的基于深度学习的卫星图像目标检测方法,其特征在于,采用滑动窗口把训练数据集裁剪成指定尺寸后再作为模型的输入,裁剪后相邻的小图会有15%的重叠,重叠比例是为了保证每个区域都能被完整检测到;一张卫星图像被裁剪出数百上千张指定尺寸的图像,进而间接扩充了数据集;通过超分辨率技术,降低卫星图像中的地面采样距离实现图像增强。
4.根据权利要求1所述的基于深度学习的卫星图像目标检测方法,其特征在于,所述步骤S2还包括:在YOLO基础上降低下采样率以及减少网络层数来提高对小目标和密集目标的检测;设置扰动层,旨在从降质图像中复原出原始图像;在8层和16层卷积层间增添直通层;针对飞机场目标单独训练检测模型;训练不同的网络用来检测大小差异悬殊的物体。
5.根据权利要求4所述的基于深度学习的卫星图像目标检测方法,其特征在于,扰动层包含两个卷积层,每个卷积层间还包含一个非线性ReLU层;扰动层中更多的卷积层提高了扰动层增强图像的能力;在网络中增添直通层是为了将不同层的特征图进行融合,使得检测器可以在扩展的特征图上得到更加细粒度的特征;网络模型中越位于前面的层,感受野越小,越有利于小目标的检测,所以才需要把前面层的特征重排后拼接到后面的层。
6.根据权利要求1所述的基于深度学习的卫星图像目标检测方法,其特征在于,所述步骤S3还包括:测试数据集与训练数据集一样的预处理;目标检测过程中,重叠部分会被重复检测到两次,把非极大值抑制方法应用于边界框预测的全局矩阵,来减轻此类重叠检测;将不同检测模型、不同划分区域的检测结果合并在一起,得到最终一张卫星图像的输出。
7.根据权利要求6所述的基于深度学习的卫星图像目标检测方法,其特征在于,目标检测过程中,重叠部分会被重复检测,所以会产生多个bounding box的预测值,采用非极大值抑制算法的意义在于只剔除IoU高于阈值,即高度重叠的bounding box;该网络模型可以得到卫星图像上目标的位置信息,实现了通过多个传感器上相对较少的训练数据快速检测各种规模的物体。
CN202010723845.9A 2020-07-24 2020-07-24 一种基于深度学习的卫星图像目标检测方法 Pending CN113971674A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010723845.9A CN113971674A (zh) 2020-07-24 2020-07-24 一种基于深度学习的卫星图像目标检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010723845.9A CN113971674A (zh) 2020-07-24 2020-07-24 一种基于深度学习的卫星图像目标检测方法

Publications (1)

Publication Number Publication Date
CN113971674A true CN113971674A (zh) 2022-01-25

Family

ID=79585983

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010723845.9A Pending CN113971674A (zh) 2020-07-24 2020-07-24 一种基于深度学习的卫星图像目标检测方法

Country Status (1)

Country Link
CN (1) CN113971674A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117274957A (zh) * 2023-11-23 2023-12-22 西南交通大学 一种基于深度学习的道路交通标志检测方法及***

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117274957A (zh) * 2023-11-23 2023-12-22 西南交通大学 一种基于深度学习的道路交通标志检测方法及***
CN117274957B (zh) * 2023-11-23 2024-03-01 西南交通大学 一种基于深度学习的道路交通标志检测方法及***

Similar Documents

Publication Publication Date Title
Henry et al. Road segmentation in SAR satellite images with deep fully convolutional neural networks
CN108460764B (zh) 基于自动上下文和数据增强的超声图像智能分割方法
CN110210463B (zh) 基于Precise ROI-Faster R-CNN的雷达目标图像检测方法
CN108830285B (zh) 一种基于Faster-RCNN的加强学习的目标检测方法
WO2022147969A1 (zh) 基于深度学习的机场道面地下结构病害自动检测方法
Zhu et al. Oil spill contextual and boundary-supervised detection network based on marine SAR images
CN110009010B (zh) 基于兴趣区域重检测的宽幅光学遥感目标检测方法
CN109284669A (zh) 基于Mask RCNN的行人检测方法
CN110163213B (zh) 基于视差图和多尺度深度网络模型的遥感图像分割方法
CN108596108B (zh) 基于三元组语义关系学习的航拍遥感图像变化检测方法
CN111311563A (zh) 一种基于多域特征融合的图像篡改检测方法
CN108510467A (zh) 基于深度可变形卷积神经网络的sar图像目标识别方法
CN111401293B (zh) 一种基于Head轻量化Mask Scoring R-CNN的手势识别方法
CN111353544B (zh) 一种基于改进的Mixed Pooling-YOLOV3目标检测方法
CN113076871A (zh) 一种基于目标遮挡补偿的鱼群自动检测方法
CN113468968B (zh) 一种基于无锚框的遥感图像旋转目标检测方法
CN107092884A (zh) 一种快速粗精级联行人检测方法
KR101941043B1 (ko) 고화질 항공 이미지에서의 물체 검출 방법
CN114332473A (zh) 目标检测方法、装置、计算机设备、存储介质及程序产品
Cui et al. A graph-based dual convolutional network for automatic road extraction from high resolution remote sensing images
CN113971674A (zh) 一种基于深度学习的卫星图像目标检测方法
CN110490170A (zh) 一种人脸候选框提取方法
Li et al. A new algorithm of vehicle license plate location based on convolutional neural network
CN114792300B (zh) 一种基于多尺度注意力x光断针检测方法
CN113963265A (zh) 一种复杂遥感陆地环境小样本小目标快速检测识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination