CN113469052B - 基于多尺度特征反卷积的超分辨率建筑物精细识别方法 - Google Patents

基于多尺度特征反卷积的超分辨率建筑物精细识别方法 Download PDF

Info

Publication number
CN113469052B
CN113469052B CN202110747982.0A CN202110747982A CN113469052B CN 113469052 B CN113469052 B CN 113469052B CN 202110747982 A CN202110747982 A CN 202110747982A CN 113469052 B CN113469052 B CN 113469052B
Authority
CN
China
Prior art keywords
resolution
super
building
deconvolution
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110747982.0A
Other languages
English (en)
Other versions
CN113469052A (zh
Inventor
张滔
李朋龙
丁忆
马泽忠
李晓龙
罗鼎
肖禾
文力
李胜
王亚林
敖影
段松江
曾攀
舒文强
贾雯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing Geographic Information And Remote Sensing Application Center
Original Assignee
Chongqing Geographic Information And Remote Sensing Application Center
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing Geographic Information And Remote Sensing Application Center filed Critical Chongqing Geographic Information And Remote Sensing Application Center
Priority to CN202110747982.0A priority Critical patent/CN113469052B/zh
Publication of CN113469052A publication Critical patent/CN113469052A/zh
Application granted granted Critical
Publication of CN113469052B publication Critical patent/CN113469052B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于多尺度特征反卷积的超分辨率建筑物精细识别方法,包括步骤:制作训练样本集;构建包括编码器模块、解码器模块、多尺度特征反卷积模块、特征融合模块与类别判定模块的超分辨率语义分割卷积神经网络;输入所述训练样本集对超分辨率语义分割卷积神经网络进行训练;采用训练后的超分辨率语义分割卷积神经网络对待识别影像进行处理,获得识别结果。其显著效果是:提出了基于多尺度特征反卷积的超分辨率语义分割网络MLSRSS‑Net,综合了编码器的多尺度初级特征反卷积上采样和解码器的高级对象语义特征反卷积上采样,实现了输入为较低空间分辨率的遥感影像,输出为高空间分辨率的建筑物语义图,显著提高了目标提取精度。

Description

基于多尺度特征反卷积的超分辨率建筑物精细识别方法
技术领域
本发明涉及到遥感影像特征提取及语义分割技术领域,具体涉及一种基于多尺度特征反卷积的超分辨率建筑物精细识别方法。
背景技术
建筑物作为重要的地物类型之一,从遥感影像准确识别建筑物可以为土地管理、城市规划等政府部门开展土地利用现状调查和宏观规划等工作提供重要决策支持,其在智慧城市建设、农村违法建房占用耕地的检测、以及军事侦察等多个领域都有着重要的应用。
从遥感影像上识别建筑物,根据影像分辨率的不同,识别结果的细节精准程度也不同,如米级或亚米级的高分辨率影像能反映建筑物的精细轮廓,几十米级的中等分辨率影像能反映区域建筑的密集程度、空间布局等特点,而公里级的低分辨率影像只能体现人类活动密集的主要区域。目前在大范围利用米级或亚米级高分影像识别建筑物,存在影像采集难度大、成本高、数据量大、处理时间长等问题,而中等分辨率的影像识别结果不够精细,无法区分单栋建筑物。
如果有一种方法,能够从中分辨率影像得到高分辨率建筑物识别结果,那将具有重大的现实应用意义。目前超分辨率图像重建(从低分辨率图像进行插值重建,得到高分辨率图像)的相关技术方法较多,而缺乏超分辨率语义分割(从低分辨率图像得到高分辨率语义分割结果)的技术。
发明内容
针对现有技术的不足,且鉴于深度卷积神经网络的反卷积层能够实现特征的超分辨率(特征的尺寸扩大),本发明提供一种利用深度学习卷积神经网络来实现从中分辨率影像得到高分辨率建筑物语义分割结果的方法。该方法提出一种基于多尺度特征反卷积的超分辨率语义分割神经网络,综合编码器和解码器的多尺度特征反卷积,网络名称为MLSRSS-Net。该网络模型训练后能够从较低空间分辨率的遥感影像,输出高空间分辨率的精细化建筑物语义识别图
为达到上述目的,本发明采用的技术方案如下:
一种基于多尺度特征反卷积的超分辨率建筑物精细识别方法,其关键在于包括如下步骤:
步骤1、制作训练样本集;
步骤2、构建包括编码器模块、解码器模块、多尺度特征反卷积模块、特征融合模块与类别判定模块的超分辨率语义分割卷积神经网络;
对于尺寸为n*n的影像,所述编码器模块用于对影像进行卷积池化下采样提取多尺度初级特征,所述解码器模块用于对编码器模块多次下采样后的特征进行反卷积上采样提取多尺度对象级语义特征,所述多尺度特征反卷积模块用于对编码器模块的多尺度初级特征图与解码器模块的多尺度对象级语义特征图分别进行反卷积操作,实现将所有不同尺度的特征图尺寸均扩大至(n*m)*(n*m),所述特征融合模块用于对所有尺寸为(n*m)*(n*m)的特征图进行叠加融合,所述类别判定模块用于对叠加融合后的特征图进行类别判定,获得尺寸为(n*m)*(n*m)的语义分割结果,其中m=2x,m为输出语义分割结果与输入影像的尺寸倍数,x为正整数;
步骤3、输入所述训练样本集对超分辨率语义分割卷积神经网络进行训练;
步骤4、采用训练后的超分辨率语义分割卷积神经网络对待识别影像进行处理,获得识别结果。
进一步的,步骤1中所述训练样本集的制作过程为:
步骤1.1、获取影像数据集,并对影像数据集中的影像进行批量裁切处理,删除像素全为背景的样本,获得初始样本集;
步骤1.2、采用增强型形态学建筑物指数EMBI与大津阈值法,对初始样本集进行精化提纯与迭代筛选,获得所需训练样本集。
进一步的,步骤1.1中所述初始样本集的获取步骤为:
获取建筑物地表真值,并对比影像和建筑物地表真值,利用滑动窗口批量切割样本,且删除像素全为背景的样本,得到初始样本集。
进一步的,步骤1.2中对初始样本集进行样本精化提纯与迭代筛选的具体步骤如下:
对初始样本集中每个样本,计算样本影像每个波段的增强型形态学建筑物指数EMBI;
采用大津阈值法对计算获得的EMBI灰度图进行分割,得到建筑物二值栅格图;
将建筑物二值栅格图和选取样本对应的建筑物地表真值进行对比,计算建筑物的交并比;
筛选出交并比大于预设阈值的样本,获得训练样本集。
进一步的,所述增强型形态学建筑物指数EMBI的计算公式为:
Figure BDA0003145026600000031
其中,DN和SN分别表示结构元素的方向个数和尺寸个数,
Figure BDA0003145026600000032
表示结构体方向为di和大小为sj的差分形态学特征。
进一步的,所述编码器模块包括五个尺寸不变的卷积层,在前四个卷积层后均连接有一个池化层。
进一步的,所述解码器模块包括四个反卷积层,在每个反卷积层后均连接有一个尺寸不变的卷积层。
进一步的,步骤3中对超分辨率语义分割卷积神经网络进行训练时,训练模型的损失函数使用二值交叉熵,其计算公式为:
Loss=-[y*lnp+(1-y)*ln(1-p)],
其中,y为样本像素的标签,即建筑物像素为1,背景像素为0,p表示样本的像素被预测为建筑物的概率。
进一步的,步骤3中对超分辨率语义分割卷积神经网络进行训练时,训练模型的优化器使用Adam,设置批处理大小为64,学习率为0.001,训练轮次为400。
相较于现有技术,本发明的显著效果是:
(1)提出了基于多尺度特征反卷积的超分辨率语义分割网络MLSRSS-Net,综合了编码器和解码器的多尺度多层次特征反卷积,能够从中低分辨率影像精细识别建筑物,对于细小密集的建筑物仍然有较好的识别能力,比其他网络(如U-Net)从相同的输入影像识别得到的中低分辨率建筑物结果更好更精细。
(2)采用特征反卷积进行上采样,相比于插值上采样(最近邻插值、双线性插值等)、反池化上采样(池化的逆过程),具有参数在训练网络模型反向传递时自动学习、灵活巧妙、性能优良等优势。
附图说明
图1是本发明的方法流程图;
图2是本发明提纯精化和筛选后的部分样本示意图;
图3是本发明构建的多尺度特征反卷积超分辨率语义分割网络MLSRSS-Net的逻辑结构图;
图4是本发明实施例所用的MLSRSS-Net的具体结构图;
图5是本发明网络模型训练过程的精度和损失曲线示意图;
图6是本发明的建筑物识别结果图。
具体实施方式
下面结合附图对本发明的具体实施方式以及工作原理作进一步详细说明。
如图1所示,一种基于多尺度特征反卷积的超分辨率建筑物精细识别方法,具体步骤如下:
步骤1、制作训练样本集和精度评价样本集;
所述训练样本集的制作过程为:
步骤1.1、获取影像数据集:下载23个城市(19个训练区、4个定量精度评价区)的Sentinel-2A影像,包括四个10米分辨率的波段:红绿蓝和近红外,以及对应的天地图数字线画地图,其中,数字线画地图的空间分辨率约为0.5米,通过像素颜色值过滤提取出建筑物二值化栅格;
利用ArcGIS的Resample工具对建筑物二值化栅格进行最近邻重采样,将空间分辨率下采样至10米和2.5米作为建筑物地表真值Ground-truth,并将23个城市的影像和重采样后的建筑物地表真值裁切至相同的空间范围;
对比影像和建筑物地表真值,利用64*64的滑动窗口批量切割样本,且删除像素全为背景的样本,得到初始样本集;
步骤1.2、采用增强型形态学建筑物指数EMBI与大津阈值法,对初始样本集进行精化提纯与迭代筛选,获得所需训练样本集,具体的步骤如下:
对初始样本集中每个样本,计算样本影像每个波段的增强型形态学建筑物指数EMBI;
EMBI的具体方式如下:
Figure BDA0003145026600000041
其中DN和SN分别表示结构元素的方向个数和尺寸个数,
Figure BDA0003145026600000042
表示结构体方向为di和大小为sj的差分形态学特征。EMBI是该多方向和多尺度的差分形态学序列的平均值。像元的EMBI值越大,越表明该像元属于建筑物。
利用大津阈值法-OTSU对计算获得的EMBI灰度图进行分割,得到建筑物二值栅格图;
本实施例设置结构元素的方向个数DN=18、尺寸个数SN=15,差分形态学特征
Figure BDA0003145026600000051
中的结构元素方向di的取值序列为D={6,7,8,9,10,11,12,13,14,15,16,17,18,19,20},尺寸sj的取值序列为S={10°,20°,30°,40°,50°,60°,70°,80°,90°,100°,110°,120°,130°,140°,150°,160°,170°,180°}。
将建筑物二值栅格图和选取样本对应的建筑物地表真值进行对比,并计算建筑物的交并比IOU,计算公式为:
Figure BDA0003145026600000052
将计算获得的交并比IOU与预设阈值0.6进行比较,若IOU值大于0.6,则保留该样本,反之则删除该样本,筛选出交并比大于预设阈值的样本,获得训练样本集。
对初始样本集的每个样本影像进行上述操作,实现对样本的精化提纯和筛选过滤,最终得到训练样本8432个,定量精度评价样本746个。
其中,本实施例的部分训练样本如图2所示,每个样本由一个10米分辨率(64*64像素)的影像块,以及两种不同分辨率的建筑物Ground-truth组成,即分别为10米(64*64像素数)和2.5米(256*256像素数)。
步骤2、构建包括编码器模块、解码器模块、多尺度特征反卷积模块、特征融合模块与类别判定模块的超分辨率语义分割卷积神经网络,实现输入较低分辨率遥感影像,输出高分辨率建筑物识别结果,其网络逻辑结构如图3所示;
对于尺寸为n*n的影像,所述编码器模块用于对影像进行卷积池化下采样提取多尺度初级特征,所述解码器模块用于对编码器模块多次下采样后的特征进行反卷积上采样提取多尺度对象级语义特征,所述多尺度特征反卷积模块用于对编码器模块的多尺度初级特征图与解码器模块的多尺度对象级语义特征图分别进行反卷积操作,实现将所有不同尺度的特征图尺寸均扩大至(n*m)*(n*m),所述特征融合模块用于对所有尺寸为(n*m)*(n*m)的特征图进行叠加融合,所述类别判定模块用于对叠加融合后的特征图进行类别判定,获得尺寸为(n*m)*(n*m)的语义分割结果,其中m=2x,m为输出语义分割结果与输入影像的尺寸倍数,一般取2的整数幂,x为正整数;
也即是,MLSRSS-Net网络结构中,包含了一个编-解码器(没有类别判定层)、两类特征的反卷积上采样(编码器的多尺度特征反卷积、解码器的抽象高级语义特征反卷积)。特别地,图3的MLSRSS-Net网络逻辑结构中,卷积层是采用尺度的不变的卷积操作,池化层是卷积核为2*2的最大值池化(特征尺寸缩减一半),反卷积层则采用反卷积核为2*2的反卷积操作(特征尺寸扩大一倍)。
实施例所用中等分辨率影像是10米Sentinel-2A的四波段,由于单栋建筑物的长宽约为5~50个像素,训练样本的影像尺寸设置为64*64(可囊括大型单栋建筑物),因此具体的MLSRSS-Net网络结构如图4所示。
编码器模块和解码器模块所对应的两类特征反卷积上采样包括:
(1)编码器模块的多尺度特征反卷积上采样:输入样本影像的尺寸为64*64,编码器模块包括五个尺寸不变的卷积层和四个池化层,前四个卷积层的每一个后紧跟一个池化层(使特征尺寸缩减一半),这五个卷积层的尺寸依次为64*64、32*32、16*16、8*8、4*4,将逐渐提取到对象的光谱、纹理、几何形态等多层次特征,多尺度特征反卷积模块再对这五个卷积层分别进行2次、3次、4次、5次、6次的反卷积(每次反卷积都使特征尺寸扩大一倍),使其特征尺寸都扩大至256*256;
(2)解码器模块的抽象高级语义特征反卷积:解码器模块包括四个反卷积层和四个尺寸不变的卷积层,每个反卷积层(使特征尺寸扩大一倍)后紧跟一个卷积层,这四个卷积层将提取到不同尺度的抽象高级语义特征,其尺寸依次为8*8、16*16、32*32、64*64,多尺度特征反卷积模块再对这四个卷积层分别进行5次、4次、3次、2次的反卷积(每次反卷积都使特征尺寸扩大一倍),使其特征尺寸都扩大至256*256;
之后,特征融合模块将这9个特征尺寸为256*256的卷积层进行特征叠加融合,再经过类别判定模块中的两个尺寸不变的卷积层,最后由Softmax层进行类别判定。
需要说明的是,因为在编-解码器语义分割神经网络(如U-Net、SegNet等)中,编码器主要包括卷积层和池化层,用于提取对象的多层次特征,其卷积层的尺寸逐渐缩减,提取到对象的光谱、纹理、几何形态等多层次特征;解码器主要包括反卷积上采样层和类别判定层,每一次反卷积都将扩大特征的尺寸,逐渐提取到抽象的、高级的对象语义特征。所以综合编-解码器的两类多层次特征反卷积,将显著提高本方法(多尺度特征反卷积超分辨率语义分割)的目标提取精度,实现MLSRSS-Net网络精细识别建筑物。
进一步的,特征反卷积属于上采样方式的一种,相比于插值上采样(最近邻插值、双线性插值等)、反池化上采样(池化的逆过程),具有参数在训练网络模型反向传递时自动学习、灵活巧妙、性能优良等优势。
步骤3、输入所述训练样本集对超分辨率语义分割卷积神经网络进行训练;
运用8个NVIDIA Tesla K80的GPU来训练网络模型,训练模型的优化器使用Adam,设置主要超参数:批处理大小(batch size)为32,学习率为0.001,训练轮次(epoch)为400。
训练模型的损失函数使用二值交叉熵,其计算公式为:
Loss=-[y*lnp+(1-y)*ln(1-p)],
其中,y为样本像素的标签,即建筑物像素为1,背景像素为0。p表示样本的像素被预测为建筑物的概率。
在训练时,记录每个轮次的精度和损失值,绘制如图5的训练过程曲线(精度损失曲线),从图5可以看出,本实施例构建的MLSRSS-Net模型训练精度值稳定在0.914。
步骤4、采用训练后的超分辨率语义分割卷积神经网络对待识别影像进行处理,获得识别结果。
待识别影像以上海为例(215个样本),运用完成训练的超分辨率语义分割卷积神经网络的识别结果绘制空间分布图如图6所示,从整个区域和局部来看:MLSRSS-Net的2.5米建筑物提取结果比U-Net的10米结果更加精确,清晰地识别和描绘出建筑物的轮廓。显而易见,10米分辨率的建筑物提取结果存在不足:(1)无法准确识别小型建筑物;(2)存在严重的漏分和误分。
本发明提出多尺度特征反卷积超分辨率语义分割策略,设计出综合编-解码器中多尺度多层次特征反卷积的网络MLSRSS-Net,实现从10米分辨率影像(Sentinel-2A)产生2.5米高分辨率的建筑物识别结果。对MLSRSS-Net网络和其他诸如U-Net等网络模型进行对比分析,结果表明MLSRSS-Net识别的2.5米建筑物比U-Net的10米结果具有更高的精度、具有更精细的轮廓,并经过定量精度评价,证实MLSRSS-Net具有更精细识别建筑物的优势,具有实际应用意义。
以上对本发明所提供的技术方案进行了详细介绍。本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想。应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以对本发明进行若干改进和修饰,这些改进和修饰也落入本发明权利要求的保护范围内。

Claims (9)

1.一种基于多尺度特征反卷积的超分辨率建筑物精细识别方法,其特征在于包括如下步骤:
步骤1、制作训练样本集;
步骤2、构建包括编码器模块、解码器模块、多尺度特征反卷积模块、特征融合模块与类别判定模块的超分辨率语义分割卷积神经网络;
对于尺寸为n*n的影像,所述编码器模块用于对影像进行卷积池化下采样提取多尺度初级特征,所述解码器模块用于对编码器模块多次下采样后的特征进行反卷积上采样提取多尺度对象级语义特征,所述多尺度特征反卷积模块用于对编码器模块的多尺度初级特征图与解码器模块的多尺度对象级语义特征图分别进行反卷积操作,实现将所有不同尺度的特征图尺寸均扩大至(n*m)*(n*m),所述特征融合模块用于对所有尺寸为(n*m)*(n*m)的特征图进行叠加融合,所述类别判定模块用于对叠加融合后的特征图进行类别判定,获得尺寸为(n*m)*(n*m)的语义分割结果,其中m=2x,m为输出语义分割结果与输入影像的尺寸倍数,x为正整数;
步骤3、输入所述训练样本集对超分辨率语义分割卷积神经网络进行训练;
步骤4、采用训练后的超分辨率语义分割卷积神经网络对待识别影像进行处理,获得识别结果。
2.根据权利要求1所述的基于多尺度特征反卷积的超分辨率建筑物精细识别方法,其特征在于:步骤1中所述训练样本集的制作过程为:
步骤1.1、获取影像数据集,并对影像数据集中的影像进行批量裁切处理,删除像素全为背景的样本,获得初始样本集;
步骤1.2、采用增强型形态学建筑物指数EMBI与大津阈值法,对初始样本集进行精化提纯与迭代筛选,获得所需训练样本集。
3.根据权利要求2所述的基于多尺度特征反卷积的超分辨率建筑物精细识别方法,其特征在于:步骤1.1中所述初始样本集的获取步骤为:
获取建筑物地表真值,并对比影像和建筑物地表真值,利用滑动窗口批量切割样本,且删除像素全为背景的样本,得到初始样本集。
4.根据权利要求2所述的基于多尺度特征反卷积的超分辨率建筑物精细识别方法,其特征在于:步骤1.2中对初始样本集进行样本精化提纯与迭代筛选的具体步骤如下:
对初始样本集中每个样本,计算样本影像每个波段的增强型形态学建筑物指数EMBI;
采用大津阈值法对计算获得的EMBI灰度图进行分割,得到建筑物二值栅格图;
将建筑物二值栅格图和选取样本对应的建筑物地表真值进行对比,计算建筑物的交并比;
筛选出交并比大于预设阈值的样本,获得训练样本集。
5.根据权利要求2或4所述的基于多尺度特征反卷积的超分辨率建筑物精细识别方法,其特征在于:所述增强型形态学建筑物指数EMBI的计算公式为:
Figure FDA0003145026590000021
其中,DN和SN分别表示结构元素的方向个数和尺寸个数,
Figure FDA0003145026590000022
表示结构体方向为di和大小为sj的差分形态学特征。
6.根据权利要求1所述的基于多尺度特征反卷积的超分辨率建筑物精细识别方法,其特征在于:所述编码器模块包括五个尺寸不变的卷积层,在前四个卷积层后均连接有一个池化层。
7.根据权利要求1所述的基于多尺度特征反卷积的超分辨率建筑物精细识别方法,其特征在于:所述解码器模块包括四个反卷积层,在每个反卷积层后均连接有一个尺寸不变的卷积层。
8.根据权利要求1所述的基于多尺度特征反卷积的超分辨率建筑物精细识别方法,其特征在于:步骤3中对超分辨率语义分割卷积神经网络进行训练时,训练模型的损失函数使用二值交叉熵,其计算公式为:
Loss=-[y*lnp+(1-y)*ln(1-p)],
其中,y为样本像素的标签,即建筑物像素为1,背景像素为0,p表示样本的像素被预测为建筑物的概率。
9.根据权利要求1或8所述的基于多尺度特征反卷积的超分辨率建筑物精细识别方法,其特征在于:步骤3中对超分辨率语义分割卷积神经网络进行训练时,训练模型的优化器使用Adam,设置批处理大小为64,学习率为0.001,训练轮次为400。
CN202110747982.0A 2021-07-02 2021-07-02 基于多尺度特征反卷积的超分辨率建筑物精细识别方法 Active CN113469052B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110747982.0A CN113469052B (zh) 2021-07-02 2021-07-02 基于多尺度特征反卷积的超分辨率建筑物精细识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110747982.0A CN113469052B (zh) 2021-07-02 2021-07-02 基于多尺度特征反卷积的超分辨率建筑物精细识别方法

Publications (2)

Publication Number Publication Date
CN113469052A CN113469052A (zh) 2021-10-01
CN113469052B true CN113469052B (zh) 2022-01-11

Family

ID=77877321

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110747982.0A Active CN113469052B (zh) 2021-07-02 2021-07-02 基于多尺度特征反卷积的超分辨率建筑物精细识别方法

Country Status (1)

Country Link
CN (1) CN113469052B (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113920412A (zh) * 2021-10-21 2022-01-11 航天科工海鹰集团有限公司 一种基于深度学习的城市建筑物提取方法
CN115527027A (zh) * 2022-03-04 2022-12-27 西南民族大学 一种基于多特征融合机制的遥感影像地物分割方法
CN115661655B (zh) * 2022-11-03 2024-03-22 重庆市地理信息和遥感应用中心 高光谱和高分影像深度特征融合的西南山区耕地提取方法
CN115810139B (zh) * 2022-12-16 2023-09-01 西北民族大学 一种spect图像的目标区域识别方法及***
CN117315455A (zh) * 2023-01-31 2023-12-29 重庆市地理信息和遥感应用中心(重庆市测绘产品质量检验测试中心) 顾及云信息表征指数与几何形态特征的遥感云检测方法
JP7429482B1 (ja) 2023-10-27 2024-02-08 マイクロベース株式会社 建物変化検出装置、方法およびプログラム

Also Published As

Publication number Publication date
CN113469052A (zh) 2021-10-01

Similar Documents

Publication Publication Date Title
CN113469052B (zh) 基于多尺度特征反卷积的超分辨率建筑物精细识别方法
CN111767801A (zh) 一种基于深度学习的遥感影像水域自动提取方法及***
CN107239751B (zh) 基于非下采样轮廓波全卷积网络的高分辨sar图像分类方法
CN109102469B (zh) 一种基于卷积神经网络的遥感图像全色锐化方法
CN109447160B (zh) 一种影像和矢量道路交叉点自动匹配的方法
Chen et al. Large-scale individual building extraction from open-source satellite imagery via super-resolution-based instance segmentation approach
CN110070091B (zh) 用于街景理解的基于动态插值重建的语义分割方法及***
CN110427836A (zh) 一种基于多尺度优化的高分辨率遥感影像水体提取方法
CN110706239B (zh) 融合全卷积神经网络与改进aspp模块的场景分割方法
CN113902915A (zh) 一种基于低光照复杂道路场景下的语义分割方法及***
CN110598564B (zh) 基于OpenStreetMap的高空间分辨率遥感影像迁移学习分类方法
CN111640116B (zh) 基于深层卷积残差网络的航拍图建筑物分割方法及装置
CN110717921B (zh) 改进型编码解码结构的全卷积神经网络语义分割方法
CN116797787B (zh) 基于跨模态融合与图神经网络的遥感影像语义分割方法
CN115775316A (zh) 基于多尺度注意力机制的图像语义分割方法
CN113239736A (zh) 一种基于多源遥感数据的土地覆盖分类标注图获取方法、存储介质及***
CN114943902A (zh) 基于多尺度特征感知网络的城市植被无人机遥感分类方法
Jia et al. Diffused convolutional neural network for hyperspectral image super-resolution
CN111275732B (zh) 一种基于深度卷积神经网络的前景对象图像分割方法
CN115862010A (zh) 一种基于语义分割模型的高分遥感影像水体提取方法
CN117197686A (zh) 一种基于卫星影像的高标准农田地块边界自动识别方法
CN113205016B (zh) 恒等残差型Unet与遥感水体指数的河湖岸线变化检测方法
CN114612315A (zh) 一种基于多任务学习的高分辨率影像缺失区域重建方法
Li et al. Local-Global Context-Aware Generative Dual-Region Adversarial Networks for Remote Sensing Scene Image Super-Resolution
CN114862883A (zh) 一种目标边缘提取方法、图像分割方法及***

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant