CN110826485A - 一种遥感影像的目标检测方法及*** - Google Patents

一种遥感影像的目标检测方法及*** Download PDF

Info

Publication number
CN110826485A
CN110826485A CN201911071646.8A CN201911071646A CN110826485A CN 110826485 A CN110826485 A CN 110826485A CN 201911071646 A CN201911071646 A CN 201911071646A CN 110826485 A CN110826485 A CN 110826485A
Authority
CN
China
Prior art keywords
target
detected
remote sensing
detection
target area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201911071646.8A
Other languages
English (en)
Other versions
CN110826485B (zh
Inventor
王俊强
李建胜
周学文
吴峰
郑凯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Information Engineering University of PLA Strategic Support Force
Original Assignee
Information Engineering University of PLA Strategic Support Force
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Information Engineering University of PLA Strategic Support Force filed Critical Information Engineering University of PLA Strategic Support Force
Priority to CN201911071646.8A priority Critical patent/CN110826485B/zh
Publication of CN110826485A publication Critical patent/CN110826485A/zh
Application granted granted Critical
Publication of CN110826485B publication Critical patent/CN110826485B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/182Network patterns, e.g. roads or rivers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Computing Systems (AREA)
  • Multimedia (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Remote Sensing (AREA)
  • Astronomy & Astrophysics (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种遥感影像的目标检测方法及***,目标检测***包括存储器、处理器以及存储在存储器中并可在处理器上运行的计算机程序,处理器在运行计算机程序时步骤:(1)训练得到深度学习网络;(2)获取待检测目标区域大小和目标实际大小;(3)根据所述待检测目标区域大小和目标实际大小的比例关系对所述待检测目标区域进行划分,得到若干小网格;(4)将步骤(3)中得到的所有小网格图像依次输入步骤(1)得到的深度学习网络中进行目标检测,最终得到检测结果。适应性划分的网格不会过度切割目标、甚至不会造成目标被切割开,再通过快速、高精度的深度学习网络模型进行目标检测识别后,能够更加准确的检测出待检测遥感影像中的目标。

Description

一种遥感影像的目标检测方法及***
技术领域
本发明涉及一种遥感影像的目标检测方法及***。
背景技术
遥感影像目标检测是确定遥感图像中是否存在感兴趣目标,并对其进行探测和精确定位,是影像解译的重要研究方向之一。传统的目标检测流程首先采用滑动窗口选择区域,然后提取浅层次特征,最后进行类别的判定。其目标识别效果严重依赖于设定的特征,很难充分挖掘影像中深层特征。特征提取鲁棒性差,不能适应多源遥感影像光照变化、分辨率不一致等情况,难以满足大范围自动化应用的需求。
近年来,随着计算机计算能力的不断增强,深度学习得以广泛应用,基于深度学习的遥感影像目标检测技术也在迅速发展,深度卷积神经网络在目标检测问题上不需要手工设计特征,对遥感影像数据自行进行特征提取,性能表现超过传统算法。
但是在对高空拍摄的遥感影像进行目标检测时,由于图像整个图像的像素太大,处理器无法一次性进行检测,因此会对待检测图像进行划分,然后进行检测,而待检测目标区域的划分往往会将待检测目标切割,导致对遥感图像中的目标无法精准识别,基于上述分析,如何借助深度学习实现对遥感图像中目标的精确检测并定位,是亟需解决的技术问题。
发明内容
本发明的目的在于提供一种遥感影像的目标检测方法及***,以解决现有遥感影像中目标检测不精准的问题。
为实现上述目的,本发明提出一种遥感影像的目标检测方法,步骤为:
(1)训练得到深度学习网络;
(2)获取待检测目标区域大小和目标实际大小;
(3)根据所述待检测目标区域大小和目标实际大小的比例关系对所述待检测目标区域进行划分,得到若干小网格;
(4)将步骤(3)中得到的所有小网格图像依次输入步骤(1)得到的深度学习网络中进行目标检测,最终得到检测结果。
有益效果:本发明中遥感影像的目标检测方法,首先对待检测目标区域进行网格划分,网格的划分是依据待检测目标区域大小和目标实际大小进行的适应性划分,该适应性划分的网格不会过度切割目标、甚至不会造成目标被切割开,再通过快速、高精度的深度学习网络模型进行目标检测识别后,能够更加准确的检测出待检测遥感影像中的目标。
进一步的,步骤(3)中所述待检测目标区域划分为m行n列的小网格,
Figure RE-GDA0002311772860000021
式中,
Figure RE-GDA0002311772860000022
表示向上取整数,Xmax为待检测目标区域X方向的坐标最大值, Xmin为待检测目标区域X方向的坐标最小值,Ymax为待检测目标区域Y方向的坐标最大值,Ymin为待检测目标区域Y方向的坐标最小值;Xwidth为待检测目标区域在某影像层级下地图容器加载区域实际长度,Yheight为待检测目标区域在某影像层级下地图容器加载区域实际宽度;overlapx是X方向的重叠率,由目标大小与待检测目标区域X方向长度的比例确定;overlapy是Y方向的重叠率,由目标大小与待检测目标区域Y方向长度的比例确定。
进一步的,所述X方向的重叠率和所述Y方向的重叠率为:
Figure RE-GDA0002311772860000023
式中,lobject为目标实际长度,wobject为目标实际宽度。
进一步的,划分后的小网格坐标表示为
其中,为第i行第j列网格X方向的坐标最大值,
Figure RE-GDA0002311772860000032
为第i行第j列网格X方向的坐标最小值,
Figure RE-GDA0002311772860000033
为第i行第j列网格Y方向的坐标最大值,为第i行第j列网格Y方向的坐标最小值;i=1,2,……m,j=1,2,……n。
进一步的,所述影像层级为18层。在18层的影响层级下,检测的效果更好。
进一步的,所述深度学习网络包括Faster R-CNN网络和RPN网络。
进一步的,所述Faster R-CNN网络包括深度残差网络,所述深度残差网络为50层。
进一步的,所述RPN网络通过卷积输出矩形候选框。
进一步的,所述RPN网络中矩形候选框的生成机制为:根据训练样本图像的面积缩放因子个数和长宽比个数,确定矩形候选框的个数。
为实现上述目的,本发明提出一种遥感影像的目标检测***,包括存储器、处理器以及存储在存储器中并可在处理器上运行的计算机程序,处理器在运行所述计算机程序时实现上述目标检测方法的步骤。
附图说明
图1为本发明遥感影像的目标检测方法流程图;
图2为本发明实施例中构建的Faster R-CNN模型结构示意图;
图3-a为本发明数据增强方式处理前的原影像图;
图3-b为本发明进行随机颜色数据增强处理下的影像图;
图3-c为本发明进行噪声扰动数据增强处理下的影像图;
图3-d为本发明进行随机缩放数据增强处理下的影像图;
图3-e为本发明进行随机旋转数据增强处理下的影像图;
图3-f为本发明进行随机翻转数据增强处理下的影像图;
图4为本发明对遥感影像进行网格划分示意图;
图5为本发明多层级的目标检测流程图;
图6为本发明四种生成机制下的总损失训练结果对比图;
图7-a为本发明anchor机制1下不同目标尺度检测结果对比图;
图7-b为本发明anchor机制2下不同目标尺度检测结果对比图;
图7-c为本发明anchor机制3下不同目标尺度检测结果对比图;
图7-d为本发明anchor机制4下不同目标尺度检测结果对比图;
图8-a为本发明在影像17层级下网格划分及飞机目标大小图;
图8-b为本发明在影像18层级下网格划分及飞机目标大小图;
图8-c为本发明在影像19层级下网格划分及飞机目标大小图;
图9-a为本发明18层级下的检测边界框图;
图9-b为本发明19层级下的检测边界框图。
具体实施方式
为使本发明的目的、技术方案及优点更加清楚,下面结合附图及实施例,对本发明作进一步的详细说明,但本发明的实施方式并不局限于此。
本发明的技术构思:依据在X方向和Y方向的重叠率对待检测图像进行网格划分,再将划分后的小网格依次输入构建并学习训练后的Faster R-CNN检测模型中进行目标的检测,能够实现对待检测图像中的目标进行更加准确、可靠的检测。
目标检测方法实施例:
本实施例中以飞机、田径场为例进行说明。需要注意的是,本发明也适用于舰船、油桶等其他结构形式的待检测目标。该目标检测方法的实现流程如图1 所示,具体实现步骤如下:
步骤1,获取训练样本图像和测试样本图像。
利用目标检测服务***,在全球范围内随机从数字地球卫星影像手动采集不同尺度、不同类别的目标样本图像。并对目标样本图像进行标记后形成包含目标的训练样本图像。在本实施了中选取的目标类别有飞机、田径场,其中飞机样本 1000张,田径场样本900张。使用其70%图片样本作为训练集,其余30%的图片样本作为测试集,并且测试集中引入大量的小飞机目标作为验证模型检测小目标的精度。通过数据增强操作,最终训练集总数为7980张,测试集为3420张。
步骤2,构建基于Faster R-CNN的深度学习网络模型
本实施例中的深度学习网络模型的结构如图2所示,通过Faster R-CNN网络与RPN网络结合构造得到深度学习网络模型。
Faster R-CNN网络中采用50层的深度残差网络(ResNet-50)进行基础特征的提取,以获取特征图;深度残差网络在神经网络的结构层面能够解决梯度在反向传播过程中消失的问题,就算网络很深,梯度也不会消失,从而保证采集的精度。
RPN网络,用于根据特征图产生矩形候选区域,并通过卷积输出矩形候选框 (即锚点anchor)的位置参数和矩形候选框是目标的概率,然后输出建议框给 Faster R-CNN用于训练、学习。
由于上述,Faster R-CNN网络和RPN网络均属于现有技术,因此,在此就不进一步展开说明了。
步骤3,深度学习网络的学习、训练
将训练样本图像输入到深度学习网络模型中进行学习、训练。关于深度学习网络的学习和训练过程,现有技术中有很多论述,因此在此仅介绍比较有特色的相关设计环节:
3.1本发明的RNP网络中矩形候选框(即锚点anchor)的生成机制为:对于一个训练样本图像,根据该训练样本图像的面积缩放因子个数和长宽比个数,确定矩形候选框的个数。例如,51×39的训练样本图像,其为256通道图像,其面积就为256×256,该面积实际表示缩放因子为1、长宽比为1的矩形候选框。
基于本发明的生成机制,本发明设置了四种anchor生成机制,如下表1所示:
表1
Figure RE-GDA0002311772860000051
3.2RPN网络中的损失函数
RPN网络采用多任务损失计算总损失,表示为:
Figure RE-GDA0002311772860000052
其中,i表示为第i个矩形候选框,pi为第i个矩形候选框预测为有目标的概率;
Figure RE-GDA0002311772860000053
为真实概率,表示若矩形候选框有目标为1,否则为0;ti为四维向量,代表预测值相对于矩形候选框i的坐标变换参数(平移与缩放),
Figure RE-GDA0002311772860000054
代表矩形候选框相对于真实标记框的变换参数,{pi}为所有矩形候选框预测概率列表集合, {ti}为所有预测的坐标变换参数列表集合,λ为平衡系数,Ncls与Nreg为标准化系数,
Figure RE-GDA0002311772860000061
为分类损失,可利用交叉熵损失计算,为位置回归损失,使用SmoothL1损失函数进行计算。
3.3分类回归过程的损失函数
在进行目标分类回归时,采用多任务损失同步计算,对于Faster R-CNN网络中的每个池化(RoI)层,其损失函数表示为:
L(p,u,tu,v)=Lcls(p,u)+λ[u≥1]Lloc(tu,v)
式中p=(p0,.....pk)表示K+1类别(包括背景)的概率,u代表RoI的真实类别,v=(vx,vy,vw,vh)代表真实位置,
Figure RE-GDA0002311772860000063
代表预测位置,[u≥1]表示当u≥1 时取1,否则取0,λ为平衡系数,Lcls(p,u)为分类损失,可利用交叉熵损失计算, Lloc(tu,v)为边框回归损失,使用SmoothL1损失函数进行计算。
3.4利用数据增强方式能够提高训练样本的多样性,防止训练过程中样本不足带来的过拟合,同时增强模型的鲁棒性。
本文采用五种方式进行,分别为随机旋转变换0°至360°,噪声扰动,色彩抖动,随机非等比例缩放0.8至1.2倍,翻转变换180°、90°或者270°,分别如图3-a、图3-b、图3-c、图3-d、图3-e、图3-f所示。训练时,设置初始学习速率为0.0003,学习动量为0.9。训练过程中,基于公开数据集的预训练模型进行迁移学习,对网络权值初始化。
3.5通过训练集在深度学习网络模型中的学习、训练,即完成训练得到具有检测功能的深度学习网络。
步骤4,将待检测遥感影像进行动态网格划分,得到若干个小网格图像。
4.1动态网格划分依据地图容器进行,如图4所示,图中的坐标系为地图容器中的真实坐标系(一般取投影坐标系)。
根据图中的坐标系能够获知待检测遥感影像的待检测目标区域X方向、Y 方向最大值及最小值:Xmax为待检测目标区域X方向的坐标最大值,Xmin为待检测目标区域X方向的坐标最小值,Ymax为待检测目标区域Y方向的坐标最大值,Ymin为待检测目标区域Y方向的坐标最小值。
4.2根据待检测目标区域确定检测遥感影像在某层级下地图容器加载区域实际大小。
本发明具体要确定遥感影像在18层级下地图容器加载区域实际大小,Xwidth为待检测目标区域在18层级下地图容器加载区域实际长度,Yheight为待检测目标区域在18层级下地图容器加载区域实际宽度。
基于网格划分可实现大区域范围目标检测定位,但如果检测影像瓦片层级过高,虽然精度会提高,但划分网格数量过多,效率大幅度降低,满足不了生产需求。因此,在检测过程中选择合适的影像层级至关重要,其确定主要依据目标在影像中所占幅面比例。
4.3依据X方向和Y方向的重叠率对遥感影像的待检测目标区域进行的划分,划分后形成m行n列的若干小网格:
Figure RE-GDA0002311772860000071
式中,
Figure RE-GDA0002311772860000072
表示向上取整数,overlapx为X方向重叠率,由目标大小与待检测目标区域X方向长度的比例确定;overlapy为Y方向重叠率,由目标大小与待检测目标区域Y方向长度的比例确定。
X方向、Y方向重叠率overlapx和overlapy表达式为:
Figure RE-GDA0002311772860000073
其中,lobject为目标实际长度,wobject为目标实际宽度。
4.4划分后的小网格待检测目标区域在X方向和Y方向坐标的最大值及最小值为:
Figure RE-GDA0002311772860000081
其中,
Figure RE-GDA0002311772860000082
为第i行第j列网格X方向的坐标最大值,
Figure RE-GDA0002311772860000083
为第i行第j列网格X方向的坐标最小值,
Figure RE-GDA0002311772860000084
为第i行第j列网格Y方向的坐标最大值,
Figure RE-GDA0002311772860000085
为第i行第j列网格Y方向的坐标最小值;i=1,2,……m,j=1,2,……n。
4.5按照步骤4.4的公式计算每个边框后,即可按照边框坐标进行小网格的绘制。
步骤5,将小网格图像依次输入深度学习网络模型中进行目标检测。
按照步骤4实现对待检测目标区域的网格绘制,然后在地图控件的作用下自动操作小网格加载18层的瓦片影像及待检测遥感影像,获得待检测目标范围边框即位置信息,二者相互结合确定目标的检测定位;即对遥感图像中的飞机进行检查识别并定位出具***置。最后再通过空间分析方法对重叠网格部分的重叠检测目标进行过滤操作。
基于网格划分可实现大区域范围目标检测定位,但如果检测影像瓦片层级过高,虽然精度会提高,但划分网格数量过多,效率大幅度降低,满足不了生产需求。针对以上问题,本文设计了多层级的目标检测流程,首先在低层级影像中检测目标,然后以待检测目标为中心,进行高层级判定及精确定位,整个流程如图 5所示。
实验分析:
基于ArcGIS API for JavaScript组件、TensorFlow深度学习框架以及Django 框架开发构建B/S构架下的目标检测服务***,通过客户端操作实现大范围目标检测。服务器端操作***为Ubuntu16.04,16G内存并配置GTX1080Ti显卡。利用步骤1中的3420张测试集进行测试对比分析。
一、对比基于SSD的深度学习网络模型模型与基于Faster R-CNN的深度学习网络模型的训练精度
SSD采用inceptionv3网络作为特征提取网络,其网络参数略复杂于ResNet-50,本发明分别训练四种anchor生成机制,在测试集上进行精度验证。
在进行精度的验证时,对测试集分别计算各类型准确率均值(AP),并以平均准确率均值(mAP)作为衡量模型训练结果精度。简单讲,每一个类别都可以根据召回率(recall)和准确率(precision)绘制一条曲线,那么AP就是该曲线下的面积,而mAP是多个类别AP的平均值。
对比两种模型及其对应参数配置下的测试结果如表2:
表2
Figure RE-GDA0002311772860000091
通过表2的对比分析,飞机的检测准确率均值要低于田径场,原因是飞机目标普遍小于田径场目标,在影像检测开始前,模型需要对图像进行resize操作,使得不少小飞机目标特征消失,从而可能造成目标漏检或错检。本发明基于 Raster R-CNN的深度学习网络模型的目标检测精度要优于SSD框架,尤其是在检测飞机目标上优势更明显,体现Faster R-CNN框架小目标检测性能上要优于 SSD框架。
二、对比Faster R-CNN四种不同anchor生成机制性能情况
如图6所示为四种anchor生成机制下损失函数训练情况,四种生成机制的总损失均能达到收敛效果,所有生成机制的总损失在训练40万步后最终在0.1 以下,尤其是PRN损失控制得更小,证明模型训练效果良好,anchor机制3的各类损失函数波动最小,训练效果最优。
从表2可知Faster R-CNN四种不同anchor生成机制都能够达到将近90%的 mAP值。对比anchor机制4与anchor机制1,anchor机制4增加了更小的面积缩放因子,其mAP值也优于anchor机制1,说明更小的目标候选框能够提高小目标的检测精度,对比anchor机制3与anchor机制4,anchor机制3相对于anchor 机制4增加了长宽比系数0.25,其mAP值相当,说明针对本数据集,增加长宽比系数提升不了精度,对比anchor机制3与anchor机制2,anchor机制3相对于anchor机制2的面积缩放因子一致,但长宽比系数总数相同系数不一致,两者最终mAP值也不一样,说明合适的长宽比系数能够保证精度。
从目标候选框的边框预测精度来看,anchor机制2和anchor机制3相当,且优于anchor机制1与anchor机制4机制,主要是因为增大了长宽比例系数,在预测长宽比较大的目标效果更好(如田径场),如图7-a、7-b、7-c、7-d所示,为几种不同目标尺度检测结果。因此,综合mAP值及边框预测效果,本文将选择anchor机制3作为Faster R-CNN目标检测框架的anchor机制。
三、对比三种影像层级(17,18,19)下的检测精度及效率
基于动态网格划分的方式对新郑机场所有飞机目标进行检测,检测范围21.5 平方公里,对比三种影像层级(17,18,19)下的检测精度及效率,网格划分如图 8-a、图8-b和图8-c所示,网格之间重叠度依据目标大小及检测层级动态生成。对检测结果统计,采用准确率和召回率来评判识别的准确性,召回率为正确识别飞机数量除以测试图像中飞机总数量,准确率为正确识别飞机数量除以模型识别为飞机数量,以IoU(检测框与真实边框交集的面积占它们并集面积的比例)超过 0.5时判定为识别正确,统计结果如表3所示,其中,检测耗时为影像瓦片加载、网络传输、执行检测及结果反馈的总计。
表3
Figure RE-GDA0002311772860000101
从表3可知,尽管训练样本集未引入高分影像数据,但依然能够取得较好效果。在17层级下检测效率最高,但是由于飞机目标占图幅幅面比例过小,在将图像输入特征提取网络之前需要resize操作,会使小飞机目标特征消失,是识别率较低的主要原因,18层级下检测效率较17层级降低,但精度有了大幅度提高,而19层级精度最高,召回率达到97.6%,准确率达到95%,但由于划分网格过多,效率大幅度降低。因此,在检测过程中,依据检测目标大小,选择合适的检测影像级别非常重要。本发明的实验选择18层级作为格网检测影像等级,利用本文设计的精确定位方法在19层级上对检测目标边框精确定位。如图9-a和图9-b所示,图中显示了两种层级下的检测边界框情况,显然19层级影像边框位置精度优于18层级,能够达到精确定位效果。
总的来讲,Faster R-CNN目标检测框架具有较高检测精度,通过采用合理数据增强方式,丰富了训练样本集,本文设计的anchor生成机制,能够实现较小目标检测,但如果检测影像分辨率较低,仍然会使召回率保持较低水准,因此,选择合适的影像分辨率进行典型检测在平衡效率及精度方面也很重要。通过实验验证了本发明设计的基于动态格网划分的目标检测及影像多层级下的精确定位方法能够实现大区域范围内的目标检测及边框精确定位,对于基于深度学习方法的遥感目标快速检索运用到工业生产领域具有一定的参考价值。
目标检测***实施例:
遥感影像的目标检测***包括存储器、处理器以及存储在所述存储器中并可在处理器上运行的计算机程序,处理器在运行计算机程序时实现上述目标检测方法,目标检测方法的过程以在上述实施例中详细介绍,此处不再赘述。
最后应当说明的是,以上实施例仅用于说明本发明的技术方案而非对其保护范围的限制,尽管参照上述实施例对本申请进行了详细的说明,所属领域的普通技术人员应当理解,本领域技术人员阅读本申请后依然可对申请的具体实施方式进行种种变更、修改或者等同替换,但这些变更、修改或者等同替换,均在本发明的权利要求保护范围之内。

Claims (10)

1.一种遥感影像的目标检测方法,其特征在于,步骤为:
(1)训练得到深度学习网络;
(2)获取待检测目标区域大小和目标实际大小;
(3)根据所述待检测目标区域大小和目标实际大小的比例关系对所述待检测目标区域进行划分,得到若干小网格;
(4)将步骤(3)中得到的所有小网格图像依次输入步骤(1)得到的深度学习网络中进行目标检测,最终得到检测结果。
2.根据权利要求1所述的遥感影像的目标检测方法,其特征在于,步骤(3)中所述待检测目标区域划分为m行n列的小网格:
Figure FDA0002261134060000011
式中,
Figure FDA0002261134060000012
表示向上取整数,Xmax为待检测目标区域X方向的坐标最大值,Xmin为待检测目标区域X方向的坐标最小值,Ymax为待检测目标区域Y方向的坐标最大值,Ymin为待检测目标区域Y方向的坐标最小值;Xwidth为待检测目标区域在某影像层级下地图容器加载区域实际长度,Yheight为待检测目标区域在某影像层级下地图容器加载区域实际宽度;overlapx是X方向的重叠率,由目标大小与待检测目标区域X方向长度的比例确定,overlapy是Y方向的重叠率,由目标大小与待检测目标区域Y方向长度的比例确定。
3.根据权利要求2所述的遥感影像的目标检测方法,其特征在于,所述X方向的重叠率和所述Y方向的重叠率为:
Figure FDA0002261134060000013
式中,lobject为目标实际长度,wobject为目标实际宽度。
4.根据权利要求3所述的遥感影像的目标检测方法,其特征在于,划分后的小网格坐标表示为
其中,
Figure FDA0002261134060000022
为第i行第j列网格X方向的坐标最大值,
Figure FDA0002261134060000023
为第i行第j列网格X方向的坐标最小值,
Figure FDA0002261134060000024
为第i行第j列网格Y方向的坐标最大值,
Figure FDA0002261134060000025
为第i行第j列网格Y方向的坐标最小值;i=1,2,……m,j=1,2,……n。
5.根据权利要求2所述的遥感影像的目标检测方法,其特征在于,所述影像层级为18层。
6.根据权利要求1-5任一项所述的遥感影像的目标检测方法,其特征在于,所述深度学习网络包括Faster R-CNN网络和RPN网络。
7.根据权利要求6所述的遥感影像的目标检测方法,其特征在于,所述Faster R-CNN网络包括深度残差网络,所述深度残差网络为50层。
8.根据权利要求7所述的遥感影像的目标检测方法,其特征在于,所述RPN网络通过卷积输出矩形候选框。
9.根据权利要求8所述的遥感影像的目标检测方法,其特征在于,所述RPN网络中矩形候选框的生成机制为:根据训练样本图像的面积缩放因子个数和长宽比个数,确定矩形候选框的个数。
10.一种遥感影像的目标检测***,其特征在于,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器在运行所述计算机程序时实现权利要求1-9任一项所述的遥感影像的目标检测方法。
CN201911071646.8A 2019-11-05 2019-11-05 一种遥感影像的目标检测方法及*** Active CN110826485B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911071646.8A CN110826485B (zh) 2019-11-05 2019-11-05 一种遥感影像的目标检测方法及***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911071646.8A CN110826485B (zh) 2019-11-05 2019-11-05 一种遥感影像的目标检测方法及***

Publications (2)

Publication Number Publication Date
CN110826485A true CN110826485A (zh) 2020-02-21
CN110826485B CN110826485B (zh) 2023-04-18

Family

ID=69552492

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911071646.8A Active CN110826485B (zh) 2019-11-05 2019-11-05 一种遥感影像的目标检测方法及***

Country Status (1)

Country Link
CN (1) CN110826485B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112560933A (zh) * 2020-12-10 2021-03-26 中邮信息科技(北京)有限公司 一种模型训练方法、装置、电子设备和介质
CN113377489A (zh) * 2020-03-09 2021-09-10 中科星图股份有限公司 基于云平台的遥感智能监测应用的构建运行方法和装置
CN115063428A (zh) * 2022-08-18 2022-09-16 中国科学院国家空间科学中心 一种基于深度强化学习的空间暗弱小目标检测方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180089530A1 (en) * 2015-05-11 2018-03-29 Siemens Healthcare Gmbh Method and system for landmark detection in medical images using deep neural networks
CN108304873A (zh) * 2018-01-30 2018-07-20 深圳市国脉畅行科技股份有限公司 基于高分辨率光学卫星遥感影像的目标检测方法及其***
CN108427912A (zh) * 2018-02-05 2018-08-21 西安电子科技大学 基于稠密目标特征学习的光学遥感图像目标检测方法
CN108460341A (zh) * 2018-02-05 2018-08-28 西安电子科技大学 基于集成深度卷积网络的光学遥感图像目标检测方法
CN109344774A (zh) * 2018-10-08 2019-02-15 国网经济技术研究院有限公司 遥感影像中的火力发电站目标识别方法
CN109800637A (zh) * 2018-12-14 2019-05-24 中国科学院深圳先进技术研究院 一种遥感影像小目标检测方法
CN109919108A (zh) * 2019-03-11 2019-06-21 西安电子科技大学 基于深度哈希辅助网络的遥感图像快速目标检测方法
WO2019144575A1 (zh) * 2018-01-24 2019-08-01 中山大学 一种快速行人检测方法及装置

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180089530A1 (en) * 2015-05-11 2018-03-29 Siemens Healthcare Gmbh Method and system for landmark detection in medical images using deep neural networks
WO2019144575A1 (zh) * 2018-01-24 2019-08-01 中山大学 一种快速行人检测方法及装置
CN108304873A (zh) * 2018-01-30 2018-07-20 深圳市国脉畅行科技股份有限公司 基于高分辨率光学卫星遥感影像的目标检测方法及其***
CN108427912A (zh) * 2018-02-05 2018-08-21 西安电子科技大学 基于稠密目标特征学习的光学遥感图像目标检测方法
CN108460341A (zh) * 2018-02-05 2018-08-28 西安电子科技大学 基于集成深度卷积网络的光学遥感图像目标检测方法
CN109344774A (zh) * 2018-10-08 2019-02-15 国网经济技术研究院有限公司 遥感影像中的火力发电站目标识别方法
CN109800637A (zh) * 2018-12-14 2019-05-24 中国科学院深圳先进技术研究院 一种遥感影像小目标检测方法
CN109919108A (zh) * 2019-03-11 2019-06-21 西安电子科技大学 基于深度哈希辅助网络的遥感图像快速目标检测方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
孙梓超;谭喜成;洪泽华;董华萍;沙宗尧;周松涛;杨宗亮;: "基于深度卷积神经网络的遥感影像目标检测" *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113377489A (zh) * 2020-03-09 2021-09-10 中科星图股份有限公司 基于云平台的遥感智能监测应用的构建运行方法和装置
CN112560933A (zh) * 2020-12-10 2021-03-26 中邮信息科技(北京)有限公司 一种模型训练方法、装置、电子设备和介质
CN115063428A (zh) * 2022-08-18 2022-09-16 中国科学院国家空间科学中心 一种基于深度强化学习的空间暗弱小目标检测方法

Also Published As

Publication number Publication date
CN110826485B (zh) 2023-04-18

Similar Documents

Publication Publication Date Title
CN107871119B (zh) 一种基于目标空间知识和两阶段预测学习的目标检测方法
CN109801293B (zh) 遥感影像分割方法、装置及存储介质、服务器
CN108460382B (zh) 基于深度学习单步检测器的光学遥感图像舰船检测方法
CN111563473B (zh) 基于密集特征融合和像素级注意力的遥感舰船识别方法
CN110826485B (zh) 一种遥感影像的目标检测方法及***
CN107665498B (zh) 基于典型示例挖掘的全卷积网络飞机检测方法
CN109492561B (zh) 一种基于改进的yolo v2模型的光学遥感图像舰船检测方法
CN111179217A (zh) 一种基于注意力机制的遥感图像多尺度目标检测方法
CN110796048B (zh) 一种基于深度神经网络的船舰目标实时检测方法
CN111914924B (zh) 一种快速舰船目标检测方法、存储介质及计算设备
CN110222769B (zh) 一种基于YOLOV3-tiny的改进目标检测方法
CN106228125B (zh) 基于集成学习级联分类器的车道线检测方法
CN108304761A (zh) 文本检测方法、装置、存储介质和计算机设备
CN111091095B (zh) 一种遥感图像中船只目标的检测方法
CN112766184B (zh) 基于多层级特征选择卷积神经网络的遥感目标检测方法
CN109242019B (zh) 一种水面光学小目标快速检测与跟踪方法
CN112800955A (zh) 基于加权双向特征金字塔的遥感影像旋转目标检测方法及***
CN113487600B (zh) 一种特征增强尺度自适应感知船舶检测方法
CN110674674A (zh) 一种基于yolo v3的旋转目标检测方法
CN111144234A (zh) 一种基于深度学习的视频sar目标检测方法
CN110633727A (zh) 基于选择性搜索的深度神经网络舰船目标细粒度识别方法
CN113486819A (zh) 一种基于YOLOv4算法的船舶目标检测方法
CN116563726A (zh) 一种基于卷积神经网络的遥感图像舰船目标检测方法
CN114565824A (zh) 基于全卷积网络的单阶段旋转舰船检测方法
CN114241314A (zh) 一种基于CenterNet的遥感影像建筑物变化检测模型及算法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant