CN116091918A - 一种基于数据增强的土地利用分类方法及*** - Google Patents

一种基于数据增强的土地利用分类方法及*** Download PDF

Info

Publication number
CN116091918A
CN116091918A CN202211678876.2A CN202211678876A CN116091918A CN 116091918 A CN116091918 A CN 116091918A CN 202211678876 A CN202211678876 A CN 202211678876A CN 116091918 A CN116091918 A CN 116091918A
Authority
CN
China
Prior art keywords
layer
features
ground object
convolution
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211678876.2A
Other languages
English (en)
Inventor
王海鹰
郑康
秦奋
张慧怡
张华博
赵春红
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Henan University
Original Assignee
Henan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Henan University filed Critical Henan University
Priority to CN202211678876.2A priority Critical patent/CN116091918A/zh
Publication of CN116091918A publication Critical patent/CN116091918A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/42Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • G06V10/765Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects using rules for classification or partitioning the feature space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于数据增强的土地利用分类方法及***,涉及土地分类领域,所述方法,包括:获取目标地物图像;将目标地物图像输入土地利用分类模型中,得到目标地物图像的地物类型;土地利用分类模型是采用数据增强地物集合对语义分割网络进行训练得到的;数据增强地物集合,包括:GID数据集、地物合成图和地物合成图对应的地物类型标签图像;地物合成图是将GID数据集输入GauGAN网络得到的;语义分割网络为融合有Dropout层的DeepLabV3+网络。本发明能提高土地利用分类的精度。

Description

一种基于数据增强的土地利用分类方法及***
技术领域
本发明涉及土地分类领域,特别是涉及一种基于数据增强的土地利用分类方法及***。
背景技术
目前,土地利用分类中存在数据不平衡且样本数量相对较少的问题,将其用于分类,地物分类结果表现较差,一定程度上影响着土地利用分类精度的提升。
发明内容
基于此,本发明实施例提供一种基于数据增强的土地利用分类方法及***,以提高土地利用分类的精度。
为实现上述目的,本发明提供了如下方案:
一种基于数据增强的土地利用分类方法,包括:
获取目标地物图像;
将所述目标地物图像输入土地利用分类模型中,得到所述目标地物图像的地物类型;
其中,所述土地利用分类模型是采用数据增强地物集合对语义分割网络进行训练得到的;
所述数据增强地物集合,包括:GID数据集、地物合成图和地物合成图对应的地物类型标签图像;所述地物合成图是将所述GID数据集输入GauGAN网络得到的;所述语义分割网络为融合有Dropout层的DeepLab V3+网络。
可选地,所述GauGAN网络,包括:依次连接的图像编码模块、生成器和判别器;
所述图像编码模块用于根据输入的所述GID数据集中的真实图像和真实图像对应的地物类型标签图像进行编码,得到编码结果;
所述生成器为由空间自适应归一化残差块构成的全卷积网络;所述生成器用于根据输入的所述编码结果和目标地物类型标签图像,合成地物合成图;
所述判别器用于判断所述地物合成图的地物类型是否与所述目标地物类型标签图像一致。
可选地,所述语义分割网络,包括:依次连接的编码器和解码器;
所述编码器用于对输入图像进行特征提取,采用Dropout层对特征提取得到的多尺度特征进行正则化,得到编码特征;
所述解码器用于对所述编码特征进行上采样,采用Dropout层对上采样结果进行正则化,得到解码特征,并采用所述解码特征预测输入图像的地物类型。
可选地,所述编码器,包括:依次连接的深度卷积神经网络、空洞空间金字塔池化模块、第一特征融合层、第一Dropout层和第一卷积层;
所述深度卷积神经网络用于对输入的图像进行特征提取,得到第一特征和第二特征;所述第一特征的尺寸小于所述第二特征的尺寸;
所述空洞空间金字塔池化模块,包括:并行的空洞卷积模块和金字塔池化模块;所述空洞卷积模块用于对所述第二特征在不同的空洞率下进行空洞卷积,输出不同尺度的局部特征;所述金字塔池化模块用于对所述第二特征进行全局平局池化,输出全局特征;
所述第一特征融合层用于将不同尺度的局部特征和所述全局特征进行融合,得到多尺度特征;
所述第一Dropout层用于多所述多尺度特征进行正则化处理;
所述第一卷积层用于对所述第一Dropout层正则化处理后的特征进行维度调整,得到编码特征。
可选地,所述空洞卷积模块,包括:并行的第二卷积层、第一空洞卷积层、第二空洞卷积层、第三空洞卷积层和第四空洞卷积层;
所述第一空洞卷积层的空洞率为3;所述第二空洞卷积层的空洞率为6;所述第三空洞卷积层的空洞率为12;所述第四空洞卷积层的空洞率为18。
可选地,所述解码器,包括:
第一上采样层、第三卷积层、第二特征融合层、第二Dropout层、第四卷积层、第三Dropout层和第二上采样层;
所述第一上采样层用于对所述第一卷积层输出的所述编码特征进行上采样;
所述第三卷积层用于对所述深度卷积神经网络输出的所述第一特征进行维度调整;
所述第二特征融合层用于将所述第一上采样层输出的特征与所述第三卷积层输出的特征进行融合,得到深度融合特征;
所述第二Dropout层用于所述深度融合特征进行正则化处理;
所述第四卷积层用于对所述第二Dropout层正则化处理后的特征进行维度调整;
所述第三Dropout层用于对所述第四卷积层输出的特征进行正则化处理;
所述第二上采样层用于对所述第三Dropout层正则化处理后的特征进行上采样得到解码特征,并采用所述解码特征预测输入图像的地物类型。
可选地,所述第一上采样层和所述第二上采样层均为四倍上采样层。
可选地,所述第一卷积层、所述第二卷积层和所述第三卷积层的尺寸均为1×1;所述第四卷积层的尺寸为3×3。
本发明还提供了一种基于数据增强的土地利用分类***,包括:
图像获取模块,用于获取目标地物图像;
土地利用分类模块,用于将所述目标地物图像输入土地利用分类模型中,得到所述目标地物图像的地物类型;
其中,所述土地利用分类模型是采用数据增强地物集合对语义分割网络进行训练得到的;
所述数据增强地物集合,包括:GID数据集、地物合成图和地物合成图对应的地物类型标签图像;所述地物合成图是将所述GID数据集输入GauGAN网络得到的;所述语义分割网络为融合有Dropout层的DeepLab V3+网络。
与现有技术相比,本发明的有益效果是:
本发明实施例提出了一种基于数据增强的土地利用分类方法及***,基于GauGAN网络生成语义丰富且效果逼真的地物合成图,将GID数据集和地物合成图构成的数据增强地物集合作为训练数据,增加了训练数据的多样性,保持了训练数据各地类之间的平衡,因此,将由数据增强地物集合对语义分割网络进行训练得到的土地利用分类模型用于分类,能提高土地利用分类的精度;并且语义分割网络采用融合有Dropout层的DeepLab V3+网络,能提高土地利用分类模型的泛化能力。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的基于数据增强的土地利用分类方法的流程图;
图2为小样本的GID数据集的示意图;
图3为GID数据集地类样本占比示意图;
图4为pix2pixhd网络示意图;
图5为GauGAN网络示意图;
图6为SPADE结构示意图;
图7为语义分割网络的结构示意图;
图8为空洞空间金字塔池化模块的结构示意图;
图9为土地利用分类方法的一个具体实现过程示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
图1为本发明实施例提供的基于数据增强的土地利用分类方法的流程图。
参见图1,所述基于数据增强的土地利用分类方法,包括:
步骤101:获取目标地物图像。
步骤102:将所述目标地物图像输入土地利用分类模型中,得到所述目标地物图像的地物类型;其中,所述土地利用分类模型是采用数据增强地物集合对语义分割网络进行训练得到的;所述数据增强地物集合,包括:GID数据集、地物合成图和地物合成图对应的地物类型标签图像;所述地物合成图是将所述GID数据集输入GauGAN网络得到的;所述语义分割网络为融合有Dropout层的DeepLab V3+网络。
首先对数据增强地物集合进行介绍:
原始GID数据集是基于高分2号遥感卫星影像的高分辨率土地利用数据集,采集时间是在2014年12月到2016年10月,采集范围是在中国60多个不同城市,地理范围超过了50000km2,包含了150多幅遥感影像,单幅图像尺寸为6800*7200像素,空间分辨率为1m,有RGB格式和NIR+RGB格式。
本实施例数据增强地物集合中采用小样本的GID数据集。该数据集是按照224*224的尺寸对原始GID数据集进行裁剪得到的,总共1391张,如图2所示,图2中第一行为剪裁后的真实图像,第二行为真实图像对应的地物类型标签图像。地物类型标签图像表示土地利用类别,是以Chinese Land Use Classification Criteria(GB/T21010-2017)为参考依据,包含built-up、farmland、meadow、water和forest五类地物,其RGB组成分别是:(255,0,0)、(0,255,0)、(0,255,255)、(255,255,0)、(0,0,255),分别代表了五种不同颜色red、green、cyan、yellow和blue。其中,GID数据集中各地类样本像素占比情况如图3所示。GID数据集存在明显数据不平衡问题,meadow和forest地物属于少样本地物类型。
因此,要进行数据增强,基于GID数据集生成语义丰富且效果逼真的地物合成图,利用GID数据集、地物合成图和地物合成图对应的地物类型标签构成图像数据增强地物集合,用于后续模型的训练,以提高分类精度。
下面对生成地物合成图的GauGAN网络进行介绍:
GauGAN网络是在pix2pixhd网络基础上进行修改的生成对抗网络,可以在给定语义标签的情况下生成高保真的图像。
pix2pixhd网络如图4所示,该网络是基于CGAN框架提出,主要用于图像到图像的翻译,可以生成具备高分辨率的图像。pix2pixhd网络包括生成器和判别器,生成器是由残差网络组成,作用是将标签映射在真实图像上,合成新的图像,判别器就是多尺度的,主要用来将真实图像和合成图像区分开来。损失函数由GAN loss、feature matching loss和content loss组成。图4中G1和G2是pix2pixhd网络的生成器;D1、D2和D3共同组成多尺度的判别器。
GauGAN网络如图5所示,所述GauGAN网络,包括:依次连接的图像编码模块(ImageEncoder)1、生成器(Generator)2和判别器(Discriminator)3,如图5的(a)部分所示。Generator是由空间自适应归一化残差块(Spatially-Adaptive Normalization ResidualBlock,SPADE ResBlk)组成的全卷积网络,如图5的(b)部分所示,其输入是经过归一化处理后的特征图,随后,通过在SPADE ResBlk中计算完成上采样,最后生成图像,在生成的过程中不断使用标注数据进行语义信息的增强。
SPADE归一化方式是GauGAN和pix2pixhd的主要区别,pix2pixhd采用的是一种无条件的归一化方式,这样会带来语义信息丢失。SPADE通过对batch normalization进行修改,将特征图的所有像素设置不同的参数来实现更好地归一化,而不是仅在特征图的通道中设置参数进行归一化。
SPADE结构如图6所示,SPADE并不是直接对特征图进行归一化处理,而是先通过空间自适应机制进行调节,仅对前一层进行标准化。目的是学习特征图上不同位置上的语义信息,更好地保护语义信息不受常见地归一化层地影响,增强GauGAN对不同语义信息的辨别力。参见图6,在SPADE中,图像标签首先投影到嵌入空间,然后进行卷积以产生调制参数γ和β。与先前的条件归一化方法不同,γ和β不是向量,而是具有空间维度的张量。产生的γ和β相乘并添加到归一化的激活元素中。
具体的:所述图像编码模块用于根据输入的所述GID数据集中的真实图像和真实图像对应的地物类型标签图像进行编码,得到编码结果,所述编码结果用于指导生成器生成具备一定风格的图像。所述生成器为由空间自适应归一化残差块构成的全卷积网络;所述生成器用于根据输入的所述编码结果和目标地物类型标签图像,合成地物合成图。所述判别器用于判断所述地物合成图的地物类型是否与所述目标地物类型标签图像一致。
下面对语义分割网络进行介绍:
其中,所述语义分割网络为改进的DeepLab V3+网络,改进指出在于在DeepLab V3+网络中融合Dropout层。
语义分割网络如图7所示,语义分割网络包括:依次连接的编码器和解码器。所述编码器用于对输入图像进行特征提取,采用Dropout层对特征提取得到的多尺度特征进行正则化,得到编码特征。所述解码器用于对所述编码特征进行上采样,采用Dropout层对上采样结果进行正则化,得到解码特征,并采用所述解码特征预测输入图像的地物类型。
编码器是带有空洞卷积的深度卷积网络和空间金字塔池化模块组成,主要学习不同尺度的地物信息,尤其是细小的土地利用地物特征信息;解码器是简单的上采样过程,其中添加了Dropout正则化,将底层特征和高层特征深度融合,从而提高边缘分割精度。
其中,编码器中主要对空洞空间金字塔池化(Atrous Spatial Pyramid Pooling,ASPP)模块中空洞率进行针对性修改,以及在网络中融合了Dropout层,提高了模型泛化能力,网络整体结构如图7所示。
ASPP是一种特征提取的方法,空洞空间金字塔池化模块如图8所示。该方法通过学习不同尺度的特征图,可以提取更稠密的特征,并且卷积方式采用空洞卷积,进一步地加强网络提取密集特征的能力。其原理是采用不同空洞率的空洞卷积和池化层通过多个并行连接,最终融合在一起来提取多尺度信息。
ASPP模块中空洞率愈大的空洞卷积,有利于提取越大尺寸的地物,反之则有利于提取小尺寸地物,原始ASPP模块的空洞率分别为6,12,18,为了进一步提高模型对小尺寸的土地利用地物学习能力,本实施例增加空洞率为3的空洞卷积融入ASPP模块,如图7所示,最后对以上的不同尺度特征在通道维度上进行融合(联合),然后输入Dropout层进行正则化和1x1的卷积层进行降维得到新特征图,输出给解码器。
具体的,所述编码器,包括:依次连接的深度卷积神经网络、空洞空间金字塔池化模块、第一特征融合层、第一Dropout层和第一卷积层。所述第一卷积层尺寸均可以1×1。
所述深度卷积神经网络用于对输入的图像进行特征提取,得到第一特征和第二特征;所述第一特征的尺寸小于所述第二特征的尺寸。
所述空洞空间金字塔池化模块,包括:并行的空洞卷积模块和金字塔池化模块;所述空洞卷积模块用于对所述第二特征在不同的空洞率下进行空洞卷积,输出不同尺度的局部特征;所述金字塔池化模块用于对所述第二特征进行全局平局池化,输出全局特征。所述空洞卷积模块,包括:并行的第二卷积层、第一空洞卷积层、第二空洞卷积层、第三空洞卷积层和第四空洞卷积层。所述第二卷积层的尺寸可以为1×1;所述第一空洞卷积层的空洞率为3;所述第二空洞卷积层的空洞率为6;所述第三空洞卷积层的空洞率为12;所述第四空洞卷积层的空洞率为18。
所述第一特征融合层用于将不同尺度的局部特征和所述全局特征进行融合,得到多尺度特征。
所述第一Dropout层用于多所述多尺度特征进行正则化处理。
所述第一卷积层用于对所述第一Dropout层正则化处理后的特征进行维度调整,得到编码特征。
所述解码器,包括:第一上采样层、第三卷积层、第二特征融合层、第二Dropout层、第四卷积层、第三Dropout层和第二上采样层。所述第一上采样层和所述第二上采样层均为四倍上采样层。所述第三卷积层的尺寸可以为1×1;所述第四卷积层的尺寸可以为3×3。
所述第一上采样层用于对所述第一卷积层输出的所述编码特征进行上采样。
所述第三卷积层用于对所述深度卷积神经网络输出的所述第一特征进行维度调整。
所述第二特征融合层用于将所述第一上采样层输出的特征与所述第三卷积层输出的特征进行融合,得到深度融合特征。
所述第二Dropout层用于所述深度融合特征进行正则化处理。
所述第四卷积层用于对所述第二Dropout层正则化处理后的特征进行维度调整。
所述第三Dropout层用于对所述第四卷积层输出的特征进行正则化处理。
所述第二上采样层用于对所述第三Dropout层正则化处理后的特征进行上采样得到解码特征,并采用所述解码特征预测输入图像的地物类型。
下面对Dropout层的正则化过程进行介绍:
DeepLab V3+模型参数量大,容易出现过拟合现象,因此,采用Dropout方法对其进行正则化。Dropout是通过随机删除网络模型的某些神经单元,将输入神经单元在删除后的网络进行前向传播,将误差在删除后的网络中进行反向传播,在不同批次的训练样本中重复上述过程。
本实施例通过在DeepLab V3+模型中融入Dropout正则化模块,设置合适的Dropoutrate,从而得到节点更少,规模更小,泛化性能更强的DeepLabV3+网络模型。
本实施例还对土地利用分类模型的精度进行了评价。
本实施例精度评价主要是从定性和定量两个方面进行评价。定性方面,包括对pix2pixhd和GauGAN生成的新数据样本进行对比,从地物特征和清晰情况等方面进行评价;对土地利用分类结果,根据主观经验例如地物是否连续和边缘轮廓是否清楚等方面进行评价。定量方面,主要是针对土地利用分类后的结果,采用召回率(Recall)、精确度(Precision)、F1-score、总体精度(Overall Accuracy,OA)和MIoU等指标进行分析。TP是正样本中预测为正的样本,FN是正样本中预测为负的样本,FP是样本中预测为正的样本,TN是负样本中预测为负的样本。
Recall是正样本中分类正确的个数占正样本总数的比例,公式如下:
Precision是正样本中分类正确的个数占分类结果中的所有正样本个数的比例,公式如下:
F1score是基于Recall和Precision提出来的指标,是对该两个指标的整体评价,公式如下:
OA是分类正确的样本个数占样本总数的比例,公式如下:
MIoU是指真实值和预测值的交集和并集之比的平均数,得到的是对语义分割结果在全局上的评价,具体定义如下:
其中,i为类别序号,表示第i类,i从0开始。k为类别总数。因此,MIoU为k+1个类别的IoU平均数,IoU表示交集和并集之比。
在实际应用中,上述土地利用分类方法的一个具体实现过程如图9所示。
本实施例为了提高土地利用分类的精度,基于GauGAN数据增强策略来解决数据不平衡问题,提出了进一步针对DeepLab V3+网络改进后的土地利用分类方法。该方法在GID数据集上进行训练测试,GauGAN合成的地物图像具有更加丰富的语义信息和清晰的地物纹理特征,GauGAN-GID数据集(数据增强地物集合)精度表现优异,最终降低了样本不平衡问题的干扰,提高了土地利用分类精度。
在未来的研究工作中,首先,需要对模型方法进行改进,在减少的参数量同时,不降低模型训练的性能。还需要收集真实地物数据,完成土地利用数据集的扩充,有助于GAN网络生成包含丰富语义信息且效果逼真的土地利用数据,从而实现图像增强,提升土地利用分类精度。
本发明还提供了一种基于数据增强的土地利用分类***,包括:
图像获取模块,用于获取目标地物图像。
土地利用分类模块,用于将所述目标地物图像输入土地利用分类模型中,得到所述目标地物图像的地物类型。
其中,所述土地利用分类模型是采用数据增强地物集合对语义分割网络进行训练得到的。
所述数据增强地物集合,包括:GID数据集、地物合成图和地物合成图对应的地物类型标签图像;所述地物合成图是将所述GID数据集输入GauGAN网络得到的;所述语义分割网络为融合有Dropout层的DeepLab V3+网络。
本实施例的***,通过对比不同GAN网络合成的地物数据,选择结果表现最优的GauGAN网络来生成语义丰富且效果逼真的土地利用样本数据,增加数据的多样性,保持数据集各地类之间的平衡。同时,对DeepLabV3+网络进行改进,完成土地利用分类。本实施例可以为解决数据不平衡问题提供新的思路,较好地提升土地利用分类模型的泛化学习能力和分类精度。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的***而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处。综上所述,本说明书内容不应理解为对本发明的限制。

Claims (9)

1.一种基于数据增强的土地利用分类方法,其特征在于,包括:
获取目标地物图像;
将所述目标地物图像输入土地利用分类模型中,得到所述目标地物图像的地物类型;
其中,所述土地利用分类模型是采用数据增强地物集合对语义分割网络进行训练得到的;
所述数据增强地物集合,包括:GID数据集、地物合成图和地物合成图对应的地物类型标签图像;所述地物合成图是将所述GID数据集输入GauGAN网络得到的;所述语义分割网络为融合有Dropout层的DeepLabV3+网络。
2.根据权利要求1所述的一种基于数据增强的土地利用分类方法,其特征在于,所述GauGAN网络,包括:依次连接的图像编码模块、生成器和判别器;
所述图像编码模块用于根据输入的所述GID数据集中的真实图像和真实图像对应的地物类型标签图像进行编码,得到编码结果;
所述生成器为由空间自适应归一化残差块构成的全卷积网络;所述生成器用于根据输入的所述编码结果和目标地物类型标签图像,合成地物合成图;
所述判别器用于判断所述地物合成图的地物类型是否与所述目标地物类型标签图像一致。
3.根据权利要求1所述的一种基于数据增强的土地利用分类方法,其特征在于,所述语义分割网络,包括:依次连接的编码器和解码器;
所述编码器用于对输入图像进行特征提取,采用Dropout层对特征提取得到的多尺度特征进行正则化,得到编码特征;
所述解码器用于对所述编码特征进行上采样,采用Dropout层对上采样结果进行正则化,得到解码特征,并采用所述解码特征预测输入图像的地物类型。
4.根据权利要求3所述的一种基于数据增强的土地利用分类方法,其特征在于,所述编码器,包括:依次连接的深度卷积神经网络、空洞空间金字塔池化模块、第一特征融合层、第一Dropout层和第一卷积层;
所述深度卷积神经网络用于对输入的图像进行特征提取,得到第一特征和第二特征;所述第一特征的尺寸小于所述第二特征的尺寸;
所述空洞空间金字塔池化模块,包括:并行的空洞卷积模块和金字塔池化模块;所述空洞卷积模块用于对所述第二特征在不同的空洞率下进行空洞卷积,输出不同尺度的局部特征;所述金字塔池化模块用于对所述第二特征进行全局平局池化,输出全局特征;
所述第一特征融合层用于将不同尺度的局部特征和所述全局特征进行融合,得到多尺度特征;
所述第一Dropout层用于多所述多尺度特征进行正则化处理;
所述第一卷积层用于对所述第一Dropout层正则化处理后的特征进行维度调整,得到编码特征。
5.根据权利要求4所述的一种基于数据增强的土地利用分类方法,其特征在于,所述空洞卷积模块,包括:并行的第二卷积层、第一空洞卷积层、第二空洞卷积层、第三空洞卷积层和第四空洞卷积层;
所述第一空洞卷积层的空洞率为3;所述第二空洞卷积层的空洞率为6;所述第三空洞卷积层的空洞率为12;所述第四空洞卷积层的空洞率为18。
6.根据权利要求5所述的一种基于数据增强的土地利用分类方法,其特征在于,所述解码器,包括:
第一上采样层、第三卷积层、第二特征融合层、第二Dropout层、第四卷积层、第三Dropout层和第二上采样层;
所述第一上采样层用于对所述第一卷积层输出的所述编码特征进行上采样;
所述第三卷积层用于对所述深度卷积神经网络输出的所述第一特征进行维度调整;
所述第二特征融合层用于将所述第一上采样层输出的特征与所述第三卷积层输出的特征进行融合,得到深度融合特征;
所述第二Dropout层用于所述深度融合特征进行正则化处理;
所述第四卷积层用于对所述第二Dropout层正则化处理后的特征进行维度调整;
所述第三Dropout层用于对所述第四卷积层输出的特征进行正则化处理;
所述第二上采样层用于对所述第三Dropout层正则化处理后的特征进行上采样得到解码特征,并采用所述解码特征预测输入图像的地物类型。
7.根据权利要求6所述的一种基于数据增强的土地利用分类方法,其特征在于,所述第一上采样层和所述第二上采样层均为四倍上采样层。
8.根据权利要求6所述的一种基于数据增强的土地利用分类方法,其特征在于,所述第一卷积层、所述第二卷积层和所述第三卷积层的尺寸均为1×1;所述第四卷积层的尺寸为3×3。
9.一种基于数据增强的土地利用分类***,其特征在于,包括:
图像获取模块,用于获取目标地物图像;
土地利用分类模块,用于将所述目标地物图像输入土地利用分类模型中,得到所述目标地物图像的地物类型;
其中,所述土地利用分类模型是采用数据增强地物集合对语义分割网络进行训练得到的;
所述数据增强地物集合,包括:GID数据集、地物合成图和地物合成图对应的地物类型标签图像;所述地物合成图是将所述GID数据集输入GauGAN网络得到的;所述语义分割网络为融合有Dropout层的DeepLabV3+网络。
CN202211678876.2A 2022-12-27 2022-12-27 一种基于数据增强的土地利用分类方法及*** Pending CN116091918A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211678876.2A CN116091918A (zh) 2022-12-27 2022-12-27 一种基于数据增强的土地利用分类方法及***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211678876.2A CN116091918A (zh) 2022-12-27 2022-12-27 一种基于数据增强的土地利用分类方法及***

Publications (1)

Publication Number Publication Date
CN116091918A true CN116091918A (zh) 2023-05-09

Family

ID=86213008

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211678876.2A Pending CN116091918A (zh) 2022-12-27 2022-12-27 一种基于数据增强的土地利用分类方法及***

Country Status (1)

Country Link
CN (1) CN116091918A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117611909A (zh) * 2023-12-04 2024-02-27 桂林理工大学 一种基于深度学习和影像空间分辨率的湿地植被分类方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117611909A (zh) * 2023-12-04 2024-02-27 桂林理工大学 一种基于深度学习和影像空间分辨率的湿地植被分类方法

Similar Documents

Publication Publication Date Title
CN111259905B (zh) 一种基于下采样的特征融合遥感图像语义分割方法
CN110443143B (zh) 多分支卷积神经网络融合的遥感图像场景分类方法
CN111626300B (zh) 基于上下文感知的图像语义分割模型的图像分割方法及建模方法
CN110889449A (zh) 一种增强边缘的、多尺度的遥感影像建筑物语义特征提取方法
CN112348036A (zh) 基于轻量化残差学习和反卷积级联的自适应目标检测方法
CN114943876A (zh) 一种多级语义融合的云和云影检测方法、设备及存储介质
CN114943963A (zh) 一种基于双分支融合网络的遥感图像云和云影分割方法
CN112489164B (zh) 基于改进深度可分离卷积神经网络的图像着色方法
CN111832453B (zh) 基于双路深度神经网络的无人驾驶场景实时语义分割方法
CN113837191B (zh) 基于双向无监督域适应融合的跨星遥感图像语义分割方法
CN112733693B (zh) 一种全局感知高分辨率遥感影像多尺度残差道路提取方法
CN111627080A (zh) 基于卷积神经与条件生成对抗性网络的灰度图像上色方法
CN115620010A (zh) 一种rgb-t双模态特征融合的语义分割方法
CN113762396A (zh) 一种二维图像语义分割方法
CN115565056A (zh) 基于条件生成对抗网络的水下图像增强方法及***
CN114693929A (zh) 一种rgb-d双模态特征融合的语义分割方法
CN111160481A (zh) 基于深度学习的adas目标检测方法及***
CN116612283A (zh) 一种基于大卷积核骨干网络的图像语义分割方法
CN114092815A (zh) 一种大范围光伏发电设施遥感智能提取方法
CN116091918A (zh) 一种基于数据增强的土地利用分类方法及***
CN117809200A (zh) 一种基于增强小目标特征提取的多尺度遥感图像目标检测方法
CN112149526A (zh) 一种基于长距离信息融合的车道线检测方法及***
CN116229106A (zh) 一种基于双u结构的视频显著性预测方法
CN117252936A (zh) 一种适配多种训练策略的红外图像彩色化方法及***
CN116485867A (zh) 一种面向自动驾驶的结构化场景深度估计方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination