CN111914611B - 城市绿地高分遥感监测方法与*** - Google Patents

城市绿地高分遥感监测方法与*** Download PDF

Info

Publication number
CN111914611B
CN111914611B CN202010386282.9A CN202010386282A CN111914611B CN 111914611 B CN111914611 B CN 111914611B CN 202010386282 A CN202010386282 A CN 202010386282A CN 111914611 B CN111914611 B CN 111914611B
Authority
CN
China
Prior art keywords
image
remote sensing
net
model
urban green
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010386282.9A
Other languages
English (en)
Other versions
CN111914611A (zh
Inventor
周艺
王丽涛
王世新
朱金峰
刘文亮
徐知宇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aerospace Information Research Institute of CAS
Original Assignee
Aerospace Information Research Institute of CAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aerospace Information Research Institute of CAS filed Critical Aerospace Information Research Institute of CAS
Priority to CN202010386282.9A priority Critical patent/CN111914611B/zh
Publication of CN111914611A publication Critical patent/CN111914611A/zh
Application granted granted Critical
Publication of CN111914611B publication Critical patent/CN111914611B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/188Vegetation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A30/00Adapting or protecting infrastructure or their operation
    • Y02A30/60Planning or developing urban green infrastructure

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明涉及一种城市绿地高分遥感监测方法和***,该方法包括训练样本集构建步骤、多维特征空间构建步骤、U‑Net+模型构建步骤以及影像后处理步骤,通过构建多维特征空间、增强特征丰富度,同时构建U‑Net+深度学习模型,再结合影像后处理方法,提高监测方法的泛化性和鲁棒性,解决训练样本有限而易出现的过拟合问题,从而达到提高城市绿地高分辨率遥感监测的精度和时效性。

Description

城市绿地高分遥感监测方法与***
技术领域
本发明涉及遥感监测技术领域,特别是一种城市绿地高分遥感监测方法和***。
背景技术
城市绿地在城市生态***中起着非常重要的作用,与人类健康、居民生活质量、生物多样性、社会安全息息相关。城市绿地的分布具有异质性和高度分散性,如何实现城市绿地的时空格局精确量化是当前研究的热点问题,对城市绿地规划和管理至关重要。
目前已有大量的关于城市绿地分类提取的研究,随着遥感技术的发展,越来越多高分辨的遥感影像应用于城市绿地测绘和变化分析,例如SPOT,IKONOS,Quick-Bird,Worldview,高分系列等等。高分辨率遥感影像包含着丰富的地物信息,光谱特征明显,几何特征更加清晰,纹理细节也更丰富,能够在亚米级尺度识别城市街道树木,住宅区花园,提供更精细的城市绿地特征。
利用遥感进行分类的方法很多,传统遥感影像分类方法主要是基于像素分类和面向对象分类。基于像素的分类主要是参考像元的光谱信息,而高分辨率遥感影像因其空间分辨率较高,光谱信息相对匮乏,而形状、纹理等特征相对较多,这些信息应该在高分辨率遥感影像分类中发挥重要作用。面向对象的分类方法综合了地物的光谱特征、几何特征和纹理特征,其实验步骤是“分割-特征选取-分类”。面向对象方法没有固定的分割参数,若分割尺度过大,则会出现大量混合像元,若分割尺度过小,则形状信息缺失,其参数在分割阶段需要通过反复实验确定,这无疑在分类过程中增加了大量工作量。传统机器学习方法如支持向量机、决策树等方法不能从复杂的特征中充分学习,也无法适应数据量较大的高分辨率影像样本,得到的分类结果不能满足分类的需求。虽然传统的城市绿地遥感信息分类提取方法已经比较成熟,但由于其方法本身的局限性,需要人工进行最优分割参数选择和对象特征选取,精度相对较低。
目前深度学习方法在高分辨率遥感影像分类方面有很强的应用潜力,尤其是U-Net模型在遥感影像分类应用中也崭露头角。深度学习目前已被广泛应用于图像识别、目标检测和图像分类等多种不同的任务中,并且都取得了不错的效果。目前较常见的遥感图像分类的深度学习神经网络模型包括深度置信网络(DBN)、栈式自编码网络(SAE)和卷积神经网络(CNN)大量的实验和研究表明,卷积神经网络在图像分类和分割等领域表现出众,是应用最广泛的深度学习模型之一。但目前的研究中存在以下问题:
(1)现有的深度学***滑,因此有必要加入影像后处理方法来优化分类结果,得到更接近真实地物情况的分类结果。
发明内容
本发明针对现有技术存在的问题,提出一种城市绿地高分遥感监测方法,通过构建多维特征空间、增强特征丰富度,同时构建U-Net+深度学习模型,再结合影像后处理方法,提高监测方法的泛化性和鲁棒性,解决训练样本有限而易出现的过拟合问题,从而达到提高城市绿地高分辨率遥感监测的精度和时效性。本发明还涉及一种城市绿地高分遥感监测***。
本发明的技术方案如下:
一种城市绿地高分遥感监测方法,其特征在于,包括下述步骤:
训练样本集构建步骤,针对高分辨遥感影像特征,选择样本区域,构建训练样本数据集;
多维特征空间构建步骤,将训练样本数据集进行数据增强、随机裁剪和特征计算处理,构建包括植被特征、空间特征、对比度特征、纹理特征和物候特征的多维特征空间;通过构建归一化植被指数将其作为城市绿地的植被特征,构建nDSM数字表面模型将其作为城市绿地的空间特征,通过AC算法计算局部对比度特征图将其作为城市绿地的对比度特征,通过灰度共生矩阵获取图像纹理特征图将其作为城市绿地的纹理特征,并加入同期冬季影像将其作为城市绿地的物候特征;
U-Net+模型构建步骤,基于构建的所述多维特征空间,面向城市绿地特征,依次利用图像边缘补零改进方式、批归一化处理改进方式以及正则化改进方式改进U-net模型,建立面向城市绿地并基于多维特征的U-Net+深度学习模型;再将训练样本的多维特征数据加入 U-net+深度学习模型中进行训练,并在训练完成后进行城市绿地空间分布的预测,获取U-Net+ 模型预测结果;
影像后处理步骤,对U-Net+模型预测结果进行后处理,得到城市绿地高分辨率遥感监测成果。
优选地,所述训练样本集构建步骤,针对高分辨遥感影像特征,将部分典型区域作为样本区域,利用目视解译方法进行高分遥感影像的样本提取,将目视解译得到的矢量文件进行要素转栅格获得标签图像,记录遥感影像中不同类型植被位置的地表真实图像,构建训练样本数据集;所述多维特征空间构建步骤先利用数据增强的方法进行影像处理以突出有效光谱信息,然后利用随机裁剪的方法将标签图像以及数据增强后的遥感影像裁剪,并基于裁剪后的标签图像和遥感影像进行特征计算处理从而构建多维特征空间。
优选地,所述U-Net+模型构建步骤中的批归一化处理改进方式是在模型卷积层后面加入批归一化处理,再把归一化处理后的数据输入所述模型卷积层的下一层;所述正则化改进方式是在模型每一次反卷积后都加入具有特定丢弃神经元概率的dropout层。
优选地,所述U-Net+模型构建步骤中将训练样本的多维特征数据加入U-net+深度学习模型中进行训练,是将训练样本的遥感影像、多维特征数据和相应标签图像输入U-net+深度学习模型中,U-net+深度学习模型在编码部分提取出输入影像的特征,在解码部分恢复其空间位置与分辨率,在像素分类层对每一像素进行分类获得类别信息;将预测的分类图与输入的标签图在交叉熵函数中计算损失值,将损失值传递至U-net+深度学习模型中进行反向传播,逐层优化模型中的参数,当损失值达到一定阈值后,训练停止。
优选地,所述影像后处理步骤,利用全连接CRFs影像后处理方法对U-Net+模型预测结果进行后处理,结合原始高分辨遥感影像中所有像素之间的关系对分类结果进行处理,从而对预测结果优化,得到城市绿地高分辨率遥感监测成果。
一种城市绿地高分遥感监测***,其特征在于,包括依次连接的训练样本集构建模块、多维特征空间构建模块、U-Net+模型构建模块和影像后处理模块,所述训练样本集构建模块和U-Net+模型构建模块相连接,
所述训练样本集构建模块,针对高分辨遥感影像特征,选择样本区域,构建训练样本数据集;
所述多维特征空间构建模块,将训练样本集构建模块的训练样本数据集进行数据增强、随机裁剪和特征计算处理,构建包括植被特征、空间特征、对比度特征、纹理特征和物候特征的多维特征空间;通过构建归一化植被指数将其作为城市绿地的植被特征,构建nDSM数字表面模型将其作为城市绿地的空间特征,通过AC算法计算局部对比度特征图将其作为城市绿地的对比度特征,通过灰度共生矩阵获取图像纹理特征图将其作为城市绿地的纹理特征,并加入同期冬季影像将其作为城市绿地的物候特征;
所述U-Net+模型构建模块,基于多维特征空间构建模块构建的所述多维特征空间,面向城市绿地特征,依次利用图像边缘补零改进方式、批归一化处理改进方式以及正则化改进方式改进U-net模型,建立面向城市绿地并基于多维特征的U-Net+深度学习模型;再将训练样本的多维特征数据加入U-net+深度学习模型中进行训练,并在训练完成后进行城市绿地空间分布的预测,获取U-Net+模型预测结果;
所述影像后处理模块,对U-Net+模型预测结果进行后处理,得到城市绿地高分辨率遥感监测成果。
优选地,所述训练样本集构建模块,针对高分辨遥感影像特征,将部分典型区域作为样本区域,利用目视解译方法进行高分遥感影像的样本提取,将目视解译得到的矢量文件进行要素转栅格获得标签图像,记录遥感影像中不同类型植被位置的地表真实图像,构建训练样本数据集;所述多维特征空间构建模块先利用数据增强的方法进行影像处理以突出有效光谱信息,然后利用随机裁剪的方法将标签图像以及数据增强后的遥感影像裁剪,并基于裁剪后的标签图像和遥感影像进行特征计算处理从而构建多维特征空间。
优选地,所述U-Net+模型构建模块中的批归一化处理改进方式是在模型卷积层后面加入批归一化处理,再把归一化处理后的数据输入所述模型卷积层的下一层;所述正则化改进方式是在模型的每一次反卷积后都加入具有特定丢弃神经元概率的dropout层。
优选地,所述U-Net+模型构建模块中将训练样本的多维特征数据加入U-net+深度学习模型中进行训练,是将训练样本的遥感影像、多维特征数据和相应标签图像输入U-net+深度学习模型中,U-net+深度学习模型在编码部分提取出输入影像的特征,在解码部分恢复其空间位置与分辨率,在像素分类层对每一像素进行分类获得类别信息;将预测的分类图与输入的标签图在交叉熵函数中计算损失值,将损失值传递至U-net+深度学习模型中进行反向传播,逐层优化模型中的参数,当损失值达到一定阈值后,训练停止。
优选地,所述影像后处理模块,利用全连接CRFs影像后处理方法对U-Net+模型预测结果进行后处理,结合原始高分辨遥感影像中所有像素之间的关系对分类结果进行处理,从而对预测结果优化,得到城市绿地高分辨率遥感监测成果。
本发明的技术效果如下:
本发明涉及一种城市绿地高分遥感监测方法,在样本区域内获取充足的训练样本数据集,再采用数据增强、随机裁剪和特征计算相结合的方法对训练样本数据集进行处理后构建特定的多维特征空间,在泛化网络模型的同时避免过拟合问题;通过构建包括植被特征、空间特征、对比度特征、纹理特征和物候特征的五类遥感影像特征的多维特征空间、增强特征丰富度,尤其是在前四个特征的基础上再结合物候特征,冬季落叶树凋零,采用高分遥感影像多时相遥感影像,结合植被的物候学理论将冬季影像加入深度学习模型中,用以区分常绿树和落叶树,对单夏季影像进行分类结果优化,为后续城市绿地高分遥感监测的准确性提供基础。基于构建的所述多维特征空间,面向城市绿地特征,依次利用图像边缘补零改进方式、批归一化处理改进方式以及正则化改进方式改进U-net模型,建立面向城市绿地并基于多维特征的U-Net+深度学习模型,提出基于多维特征的U-Net+深度学习模型的概念,实现对U-Net 模型的优化,并采用了一系列特定的改进方式,该U-Net+深度学习模型具有极高的稳定性和安全性,再将训练样本的多维特征数据加入U-net+深度学习模型中进行训练,实现样本的训练和模型的训练,在训练完成后进行城市绿地空间分布的预测,获取U-Net+模型预测结果,再结合影像后处理方法得到城市绿地高分辨率遥感监测成果,提高了监测方法的泛化性和鲁棒性,解决训练样本有限而易出现的过拟合问题,从而达到提高城市绿地高分辨率遥感监测的精度和时效性。
本发明还涉及一种城市绿地高分遥感监测***,该***与上述的城市绿地高分遥感监测方法相对应,可理解为是实现上述城市绿地高分遥感监测方法的***,设置相应的训练样本集构建模块、多维特征空间构建模块、U-Net+模型构建模块和影像后处理模块,各模块相互协同工作,在构建充足的训练样本数据集后,通过构建多维特征空间、增强特征丰富度,同时建立面向城市绿地并基于多维特征的U-Net+深度学习模型,结合影像后处理方式,提高监测方法的泛化性和鲁棒性,进而提高城市绿地高分辨率遥感监测的精度。
附图说明
图1为本发明城市绿地高分遥感监测方法的流程图。
图2为本发明城市绿地高分遥感监测方法的优选流程图。
图3为训练样本集构建步骤中的数据集部分影像及对应标签图像。
图4a和图4b为U-Net+模型构建步骤中的图像边缘补零改进方式对比图。
图5a和图5b为U-Net+模型构建步骤中的正则化改进方式的对比图。
图6为本发明基于多维特征的U-Net+深度学习模型的结构图。
图7为对多维特征的U-Net+深度学习模型进行训练的流程图。
图8为本发明U-Net+模型预测结果与真实地表对比图。
图9为本发明城市绿地高分遥感监测***的结构图。
具体实施方式
下面结合附图对本发明进行说明。
本发明涉及一种城市绿地高分遥感监测方法,其流程如图1所示,包括:训练样本集构建步骤,针对高分辨遥感影像特征,选择样本区域并在样本区域内构建训练样本数据集;多维特征空间构建步骤,将训练样本数据集进行数据增强、随机裁剪和特征计算处理,也就是说,对数据增强和随机裁剪处理后的训练样本数据集进行特征计算处理,构建包括植被特征、空间特征、对比度特征、纹理特征和物候特征的五类特征的多维特征空间;通过构建归一化植被指数将其作为城市绿地的植被特征,构建nDSM数字表面模型将其作为城市绿地的空间特征,通过AC算法计算局部对比度特征图将其作为城市绿地的对比度特征,通过灰度共生矩阵获取图像纹理特征图将其作为城市绿地的纹理特征,并加入同期冬季影像将其作为城市绿地的物候特征;U-Net+模型构建步骤,基于构建的所述多维特征空间,面向城市绿地特征,依次利用图像边缘补零改进方式、批归一化处理改进方式以及正则化改进方式改进U-net模型,建立面向城市绿地并基于多维特征的U-Net+深度学习模型;再将训练样本的多维特征数据加入U-net+深度学习模型中进行训练,并在训练完成后进行城市绿地空间分布的预测,获取U-Net+模型预测结果;影像后处理步骤,对U-Net+模型预测结果进行后处理,得到城市绿地高分辨率遥感监测成果。该方法通过构建多维特征空间、增强特征丰富度,同时构建U-Net+ 深度学习模型并进行样本训练和模型训练,再结合影像后处理方法,对预测结果优化,提高监测方法的泛化性和鲁棒性,解决训练样本有限而易出现的过拟合问题,从而达到提高城市绿地高分辨率遥感监测的精度和时效性。
图2为本发明城市绿地高分遥感监测方法的优选流程图。优选地,
一、训练样本集构建步骤:
针对高分辨遥感影像特征,将部分典型区域作为样本区域,利用目视解译方法进行高分遥感影像的样本提取,将目视解译得到的矢量文件进行要素转栅格获得标签图像,记录遥感影像中不同类型植被位置的地表真实图像,获取充足的训练样本数据集。
如图2所示,高分辨率遥感数据输入后,进行样本区选择和目标解释。首先,根据城市绿地的空间形态、组织方式和植被类型,选择部分典型区域作为样本区域,也可称为是典型样本区域,如公园区选择几处典型区域、高尔夫球场选择几处典型区域、居民区选择几处典型区域等等。再利用目视解译方法进行高分遥感影像的样本提取,将目视解译得到的矢量文件进行要素转栅格获得标签图像,即记录遥感影像中不同类型植被位置的地表真实图像。如图3所示的数据集部分影像及对应标签图像,显示了标签为落叶树、常绿树、草地和非植被区的标签图像。
二、多维特征空间构建步骤:
先利用数据增强的方法进行影像处理以突出有效光谱信息,然后利用随机裁剪的方法将标签图像以及数据增强后的遥感影像裁剪,并基于裁剪后的标签图像和遥感影像进行特征计算处理,构建多维特征空间。对训练样本数据集进行数据增强和随机裁剪,能够充足数据集,提高训练样本集构建的效率,在泛化网络模型的同时避免过拟合问题,并且是构建多维特征空间数据的基础前提。
首先,利用数据增强的方法进行影像处理,突出有效光谱信息,提升深度学习过程中的收敛效率。本发明采用min-max标准化法,也成离差标准化,将每个通道的像元值数据范围从区间[0,255]缩小至[0,1]。
Figure RE-GDA0002699480330000071
其中,xmin表示样本数据的最小值,xmax表示样本数据的最大值。
其次,利用随机裁剪的方法,提高训练样本数量,保证深度学习的样本数量需求。设定裁剪尺寸的大小(如256×256),同时,根据设定数量,结合随机函数,设定裁剪起始位置点。根据起始位置点和裁剪尺寸,将目视解译后的样本区域和高分遥感影像裁剪出样本数据,从而大幅提升样本数据的数据量。
然后,根据数据增强和随机裁剪处理后的训练样本数据集进行特征计算处理,构建包括植被特征、空间特征、对比度特征、纹理特征和物候特征的五类特征的多维特征空间。针对高分辨率遥感影像数据波段较少,模型特征学习丰富度有限的现状,本发明从五个不同的维度分别构建了五类遥感影像特征,即植被特征、空间特征、对比度特征、纹理特征和物候特征。即从光谱、空间、对比度、纹理和物候等五个方面,构建多维特征空间,从而丰富深度学习的信息。
第一,通过构建归一化植被指数将其作为城市绿地的植被特征;第二,构建了nDSM数字表面模型将其作为城市绿地的空间特征;第三,通过AC算法计算局部对比度特征图,将其作为城市绿地的对比度特征;第四,通过灰度共生矩阵获取图像纹理特征图,将其作为城市绿地的纹理特征;第五,加入同期冬季影像将其作为城市绿地的物候特征。
(1)植被特征
植被特征我们选取归一化植被指数,它是衡量植被覆盖程度、检测植物生长状况等的重要指标,它可以综合相关的光谱信息,突出影像中的植被,而减少其中的非植被信息。
Figure RE-GDA0002699480330000072
式中,NIR表示近红外波段的值,R表示红波段的值。当NDVI<0,该区域可能存在水、雪或者云等地物;当NDVI>0时,表明该区域可能覆盖有植被;当NDVI=0时,该区域极有可能覆盖有岩石或裸地等地物。
(2)空间特征
本发明选择nDSM作为城市绿地的空间特征。nDSM是指消除了地形的影响,记录了所有地面物体相对于地面的高度信息的数据模型。数字表面模型(DSM,Digital SurfaceModel) 是指包含了地表建筑物、桥梁和树木等高度的地面高程模型。数字高程模型(DEM,Digital Elevation Model)是描述地表起伏形态特征的空间数据模型。将包含地物高度及地形起伏高度的DSM与DEM相减,即可得到只含地物高度的数据模型nDSM。计算公式如下:
nDSM(i,j)=DSM(i,j)-DEM(i,j) (3)
其中:nDSM(i,j)表示nDSM在第i行第j列的高程值;DSM(i,j)表示DSM在第i行第j列的高程值;DEM(i,j)表示DEM在第i行第j列的高程值。
(3)对比度特征
AC算法是一种基于局部对比度的特征提取算法,它的基本思路是将图像从RGB颜色空间转换到LAB颜色空间中,然后对于图像中的每一个感知单元在不同尺寸大小的窗口上分别计算局部对比度值,再将得到的不同窗口尺寸大小下的多个局部对比度值相加,以此方式遍历整张图像得到最终的影像特征图。
举例来讲,假设内部区域R1,外部区域R2,计算内部区域R1和外部区域R2的局部对比度时,通过改变R2的大小实现多尺度显著性计算。感知单元R1可以是一个像素或一个像素块,其邻域为R2,(R1)R2所包含的所有像素的特征值的平均值作为(R1)R2的特征值。设像素p为R1和R2的中心,p所在位置局部对比度为:
Figure RE-GDA0002699480330000081
其中N1和N2分别是R1和R2中像素的个数。vk是k这个位置的特征值或特征向量。由于AC方法采用Lab颜色空间,所以采用欧氏距离来计算特征距离。R1默认为一个像素,R2 边长为[L/8,L/2]之间的正方形区域,L为长宽中较小者。多个尺度的特征显著图通过直接相加得到完整的显著图。
(4)纹理特征
图像的纹理特征能够更好地兼顾图像宏观性质与细微结构两个方面,是地物分类提取的重要特征。提取纹理特征的方法很多,如基于局部统计特性的特征、基于随机场模型的特征、基于空间频率的特征、分形特征等,应用最广泛的是基于灰值共生矩阵的特征。
1973年提出的灰度共生矩阵方法,是目前公认的一种重要纹理分析方法。共生矩阵是距离和方向的函数,其描述在θ方向上,相隔d像元距离的一对像元,分别具有灰度值i和j 的出现概率,其元素可记为P(i,j|d,θ)。灰度共生矩阵的各元素计算公式如下:
Figure RE-GDA0002699480330000091
假定待分析的图像在水平和垂直方向上各有Nx和Ny个像素。设Zx={1,2,…,Nx}为水平空间域,Zy={1,2,…,Ny}为垂直空间域。当距离为1,θ分别为0度、45度、90度、135度时的公式分别为:
Figure RE-GDA0002699480330000092
Figure RE-GDA0002699480330000093
Figure RE-GDA0002699480330000094
Figure RE-GDA0002699480330000095
其中,k、m和l、n分别表示在所选计算窗口中的变动,#表示使大括号成立的像素对数。
进行特征值的计算,根据上述公式(6-9)构造四个方向的共生矩阵,然后分别计算这四个共生矩阵的能量、熵、惯性矩、相关这4个纹理参数,得到图像的纹理特征。
(5)物候特征
冬季落叶树凋零,本发明采用高分遥感影像多时相遥感影像,结合植被的物候学理论将冬季影像加入深度学习模型中,用以区分常绿树和落叶树,对单夏季影像进行分类结果优化。
三、U-Net+模型构建步骤:
基于构建的所述多维特征空间,面向城市绿地特征,依次利用图像边缘补零改进方式、批归一化处理改进方式以及正则化改进方式改进U-net模型,建立面向城市绿地并基于多维特征的U-Net+深度学习模型。
采用图像边缘填充策略,保证输入网络和输出网络的影像大小一致;为提高模型的泛化性和鲁棒性,添加Dropout正则化以及BN层,改进对U-Net模型,可以保证模型在避免过拟合的同时加快训练速度;为剔除图像边缘预测精度较低对损失函数计算结果的影响,改进交叉熵函数提高预测精度。
同时,针对前四类特征,将高分辨遥感影像(真彩色/假彩色)与先前构建的植被、空间、对比度、纹理特征进行波段组合,得到4通道的多特征高分辨率影像。针对物候特征,冬季落叶植被进入休眠期,与夏季植被的光谱差异显著,结合植被物候学理论在模型中加入高分二号冬季影像,可以把冬季落叶树进行剔除,对夏季影像分类结果进行校正。将制作好的训练集输入至U-Net+深度学习模型中进行训练,得到最佳参数组合,在模型预测时采用膨胀预测获得分类结果。将获取的植被特征、空间特征、对比度特征、纹理特征和物候特征分类图进行投票法融合,进一步优选出最佳的比如北京主城区城市绿地预测结果。
U-Net模型是一种改进的FCN结构,是目前扩展性最好的全连接神经网络。其结构清晰呈现字母U形,由左半边的压缩通道(Contracting Path)和右半边扩展通道(Expansive Path) 组成。U-Net巧妙的融合了编码-解码结构和跳跃网络的特点,压缩通道是一个编码器,用于逐层提取影像的特征。它采用2个卷积层和1个最大池化层的结构,每进行一次池化操作后特征图的维数就增加1倍。扩展通道是一个解码器,用于还原影像的位置信息,在扩展通道,先进行1次反卷积操作,使特征图的维数减半,然后拼接对应压缩通道裁剪得到的特征图,重新组成一个2倍大小的特征图,再采用2个卷积层进行特征提取,并重复这一结构。在最后的输出层,用2个卷积层将64维的特征图映射成2维的输出图。但是现有的U-Net模型还存在一些不足,本发明对原始的网络结构进行特定的改进,建立面向城市绿地并基于多维特征的U-Net+深度学习模型。
(1)图像边缘补零改进
为保证输入图像与输出图像大小一致,采用图像边缘补零策略,如图4a和图4b所示对比图,图4a为valid方式,即没有补零的情况;图4b为same方式,即补零的情况。
(2)批归一化处理方法改进
深度学习在训练的过程中不断更新参数,因此除了输入层以外,训练参数更新将导致其后层输入数据分布的变化,这极易导致梯度弥散的发生,训练的速度也会降低。由于网络训练参数繁多,为了防止梯度消失和梯度***,本发明采用批归一化(BatchNormalization, BN)处理方法,在卷积层后面加入批归一化处理,然后再把归一化后的数据输入上述的卷积层的下一层,从而防止梯度消失和梯度***,提高网络训练速度。这样做可以更好的将上层网络的输出连接到最后一层上采样的结果中。这里的归一化层是一个可学习、有参数的网络层,如式1所示。
Figure RE-GDA0002699480330000101
其中,
Figure RE-GDA0002699480330000102
为标准差归一化结果,即
Figure RE-GDA0002699480330000103
γ(k)、β(k)为学习参数,其中
Figure RE-GDA0002699480330000104
β(k)=E[x(k)]。
(3)Dropout层改进
Dropout是深度学习中正则化的一种方法,是指在网络训练时,以一定的概率暂时丢弃神经元,防止模型对少量样本过度学习出现过拟合现象。如果在模型的每一次反卷积后都加入 dropout层,在一定程度上防止过拟合情况的发生,如图5a和图5b所示对比图,图5a为不添加Dropout层的原网络,图5b为添加Dropout层后的网络。
改进后的面向城市绿地并基于多维特征的U-Net+深度学***黑色剪头),将输入数据转换为32维的特征图,然后再重复采用1个最大池化层和2个卷积层的结构。扩展通道是一个解码器,它能够逐渐还原影像的细节信息和位置信息。在扩展通道,先进行了1次反卷积操作(竖向空心箭头),使特征图的维数减半,然后拼接对应压缩通道的特征图(斜线填充框),重新组成一个2倍维数的特征图,再采用2个卷积层,并重复这一结构,拼接操作能够使网络学习多尺度和不同层级的特征,增加网络健壮性,有利于提高分类精度;在最后的输出层,采用一个卷积核为 1×1大小的6维卷积层将上一层得到的特征图映射成6维输出特征图。图中所标的字母“D”代表在该位置的卷积层后添加丢弃神经元概率为0.5的Dropout层。线性激活函数使用了 Relu,池化都选择了max-pooling,优化器使用了Adam。
将训练样本的多维特征数据加入U-net+模型中进行训练。如图7所述的训练流程图,在模型训练中,共有350个256×256的遥感影像、多维特征数据和对应标签输入U-net+模型中,模型在编码部分提取出输入影像的特征,在解码部分恢复其空间位置与分辨率,在像素分类层对每一像素进行分类获得类别信息。将预测的分类图与输入的标签图在交叉熵函数中计算损失值(loss),将损失值传递至模型中的进行反向传播,逐层优化模型中的参数。
卷积层的激活函数采用RELU函数,卷积层的计算公式可表示为:
Figure RE-GDA0002699480330000111
其中,
Figure RE-GDA0002699480330000112
分别为第l层第k维的权重值与偏置项,
Figure RE-GDA0002699480330000113
为第l层第k维的特征图,
Figure RE-GDA0002699480330000114
表示第l-1层第k维的输出特征图,
Figure RE-GDA0002699480330000115
表示卷积运算。
深度学习模型一般用损失函数计算地面真实数据与预测概率之间的loss值来量化两者之间的差距,当loss值越小,说明分类越准确。本发明使用分类交叉熵函数(Categorical Crossentropy)计算loss值,公式为:
Figure RE-GDA0002699480330000116
模型训练的过程即优化loss函数、缩小loss值的过程,即后向传播。本发明优选采用 Adam优化算法进行模型训练,逐层更新模型中的参数,Adam算法容易实现,计算效率高且内存需求低。当loss值达到一定阈值后,训练停止。
U-net+模型训练完成后,每层的参数都取得了最优值,此时再次使用测试集图像进行前向传播即为模型预测的过程。如图8所示的模型预测结果与真实地表对比。
四、影像后处理步骤:
对U-Net+模型预测结果进行后处理,优选利用全连接CRFs影像后处理方法对U-Net+模型预测结果进行后处理,结合原始高分辨遥感影像中所有像素之间的关系对分类结果进行处理,从而对预测结果优化,得到城市绿地高分辨率遥感监测成果。
全连接CRFs将图像中所有的像素两两连接,描述了每个像素与其他所有像素之间的关系,并用像素间的颜色和实际相对距离来衡量像素间的差距,同时鼓励差距大的像素分配不同标签,使全连接CRFs能够尽量在边界处分割,不容易造成边界的过度平滑。
在全连接CRFs中,预测的标签值x的能量定义为:
Figure RE-GDA0002699480330000121
其中,i,j∈{1,2,...N,N为图像像素总个数},ψu(xi)为一元势能,ψp(xi,xj)为二元势能。一元势能ψu(xi)表示网络模型对图像中每一个像素i独立预测得到的类别概率分布图,它包含很多噪音和不连续性。二元势能ψp(xi,xj)表示一个全连接图,连接了图像中所有像素对,在实际应用过程中将原始影像提供的信息作为二元势能,它的模型表达示式为:
Figure RE-GDA0002699480330000122
其中,u(xi,yj)为标签兼容项,其约束了像素间传导的条件,即只有在相同标签的条件下,能量才可以相互传导。ω(m)为权值参数,
Figure RE-GDA0002699480330000123
为特征函数,公式如下:
Figure RE-GDA0002699480330000124
其中,Ii,Ij为颜色向量,pi,pj为位置向量。特征函数
Figure RE-GDA0002699480330000125
以特征的形式表示了不同像素之前的“亲密度”,第一项被称作表面核,第二项被称作平滑核。在全连接CRFs进行影像后处理的实际过程中,一元势能是概率分布图,是每一个像素的类别分配概率,由网络模型输出的特征图经过softmax函数运算后得到的结果;二元势能中的位置信息和颜色信息是由原始影像提供。
使用全连接CRFs方法对U-Net+模型预测结果进行后处理。全连接CRFs能够结合原始影像中所有像素之间的关系对分类结果进行处理,改善错分现象,细化地物边缘,优化预测结果,从而形成高精度的城市绿地高分遥感监测成果。
本发明还涉及一种城市绿地高分遥感监测***,该***与上述的城市绿地高分遥感监测方法相对应,可理解为是实现上述城市绿地高分遥感监测方法的***,该***结构如图9所示,包括依次连接的训练样本集构建模块、多维特征空间构建模块、U-Net+模型构建模块和影像后处理模块,训练样本集构建模块和U-Net+模型构建模块相连接,各模块相互协同工作,在构建充足的训练样本数据集后,通过构建多维特征空间、增强特征丰富度,同时建立面向城市绿地并基于多维特征的U-Net+深度学习模型,结合影像后处理方式,提高监测方法的泛化性和鲁棒性,进而提高城市绿地高分辨率遥感监测的精度。
其中,训练样本集构建模块,针对高分辨遥感影像特征,选择样本区域并在样本区域内构建训练样本数据集;多维特征空间构建模块,将训练样本集构建模块的训练样本数据集进行数据增强、随机裁剪和特征计算处理,构建包括植被特征、空间特征、对比度特征、纹理特征和物候特征的多维特征空间;通过构建归一化植被指数将其作为城市绿地的植被特征,构建nDSM数字表面模型将其作为城市绿地的空间特征,通过AC算法计算局部对比度特征图将其作为城市绿地的对比度特征,通过灰度共生矩阵获取图像纹理特征图将其作为城市绿地的纹理特征,并加入同期冬季影像将其作为城市绿地的物候特征;U-Net+模型构建模块,基于多维特征空间构建模块构建的所述多维特征空间,面向城市绿地特征,依次利用图像边缘补零改进方式、批归一化处理改进方式以及正则化改进方式改进U-net模型,建立面向城市绿地并基于多维特征的U-Net+深度学习模型;再将训练样本的多维特征数据加入U-net+深度学习模型中进行训练,并在训练完成后进行城市绿地空间分布的预测,获取U-Net+模型预测结果;影像后处理模块,对U-Net+模型预测结果进行后处理,得到城市绿地高分辨率遥感监测成果。
优选地,所述训练样本集构建模块,针对高分辨遥感影像特征,将部分典型区域作为样本区域,利用目视解译方法进行高分遥感影像的样本提取,将目视解译得到的矢量文件进行要素转栅格获得标签图像,记录遥感影像中不同类型植被位置的地表真实图像,构建训练样本数据集,如图3所示的数据集部分影像及对应标签图像。多维特征空间构建模块先利用数据增强的方法进行影像处理以突出有效光谱信息,然后利用随机裁剪的方法将标签图像以及数据增强后的遥感影像裁剪,并基于裁剪后的标签图像和遥感影像进行特征计算处理,构建多维特征空间。
优选地,所述U-Net+模型构建模块中图像边缘补零改进方式如图4b所示;批归一化处理(BN)改进方式是在模型卷积层后面加入批归一化处理,再把归一化处理后的数据输入所述模型卷积层的下一层,从而将上层网络的输出连接到最后一层上采样的结果中,防止梯度消失和梯度***,提高网络训练速度;正则化改进方式(dropout)如图5b所示,是在模型的每一次反卷积后都加入具有特定丢弃神经元概率的dropout层。
优选地,基于多维特征的U-Net+深度学习模型的结构如图6所示,训练流程如图7所示,所述U-Net+模型构建模块中将训练样本的多维特征数据加入U-net+深度学习模型中进行训练,是将训练样本的多维特征数据中的遥感影像、多维特征数据和相应标签图像输入U-net+ 深度学习模型中,U-net+深度学习模型在编码部分提取出输入影像的特征,在解码部分恢复其空间位置与分辨率,在像素分类层对每一像素进行分类获得类别信息;将预测的分类图与输入的标签图在交叉熵函数中计算损失值,将损失值传递至U-net+深度学习模型中进行反向传播,逐层优化模型中的参数,当损失值达到一定阈值后,训练停止。
优选地,所述影像后处理模块,利用全连接CRFs影像后处理方法对U-Net+模型预测结果进行后处理,结合原始高分辨遥感影像中所有像素之间的关系对分类结果进行处理,从而对预测结果优化,得到城市绿地高分辨率遥感监测成果。
应当指出,以上所述具体实施方式可以使本领域的技术人员更全面地理解本发明创造,但不以任何方式限制本发明创造。因此,尽管本说明书参照附图和实施例对本发明创造已进行了详细的说明,但是,本领域技术人员应当理解,仍然可以对本发明创造进行修改或者等同替换,总之,一切不脱离本发明创造的精神和范围的技术方案及其改进,其均应涵盖在本发明创造专利的保护范围当中。

Claims (8)

1.一种城市绿地高分遥感监测方法,其特征在于,包括下述步骤:
训练样本集构建步骤,针对高分辨遥感影像特征,选择样本区域,构建训练样本数据集;
多维特征空间构建步骤,将训练样本数据集进行数据增强、随机裁剪和特征计算处理,构建包括植被特征、空间特征、对比度特征、纹理特征和物候特征的多维特征空间;通过构建归一化植被指数将其作为城市绿地的植被特征,构建nDSM数字表面模型将其作为城市绿地的空间特征,通过AC算法计算局部对比度特征图将其作为城市绿地的对比度特征,通过灰度共生矩阵获取图像纹理特征图将其作为城市绿地的纹理特征,并加入同期冬季影像将其作为城市绿地的物候特征;
U-Net+模型构建步骤,基于构建的所述多维特征空间,面向城市绿地特征,依次利用图像边缘补零改进方式、批归一化处理改进方式以及正则化改进方式改进U-net模型,建立面向城市绿地并基于多维特征的U-Net+深度学习模型;再将训练样本的多维特征数据加入U-net+深度学习模型中进行训练,并在训练完成后进行城市绿地空间分布的预测,获取U-Net+模型预测结果;所述批归一化处理改进方式是在模型卷积层后面加入批归一化处理,再把归一化处理后的数据输入所述模型卷积层的下一层;所述正则化改进方式是在模型每一次反卷积后都加入具有特定丢弃神经元概率的dropout层;
影像后处理步骤,对U-Net+模型预测结果进行后处理,得到城市绿地高分辨率遥感监测成果。
2.根据权利要求1所述的城市绿地高分遥感监测方法,其特征在于,所述训练样本集构建步骤,针对高分辨遥感影像特征,将部分典型区域作为样本区域,利用目视解译方法进行高分遥感影像的样本提取,将目视解译得到的矢量文件进行要素转栅格获得标签图像,记录遥感影像中不同类型植被位置的地表真实图像,构建训练样本数据集;所述多维特征空间构建步骤先利用数据增强的方法进行影像处理以突出有效光谱信息,然后利用随机裁剪的方法将标签图像以及数据增强后的遥感影像裁剪,并基于裁剪后的标签图像和遥感影像进行特征计算处理从而构建多维特征空间。
3.根据权利要求1所述的城市绿地高分遥感监测方法,其特征在于,所述U-Net+模型构建步骤中将训练样本的多维特征数据加入U-net+深度学习模型中进行训练,是将训练样本的遥感影像、多维特征数据和相应标签图像输入U-net+深度学习模型中,U-net+深度学习模型在编码部分提取出输入影像的特征,在解码部分恢复其空间位置与分辨率,在像素分类层对每一像素进行分类获得类别信息;将预测的分类图与输入的标签图在交叉熵函数中计算损失值,将损失值传递至U-net+深度学习模型中进行反向传播,逐层优化模型中的参数,当损失值达到一定阈值后,训练停止。
4.根据权利要求1或2所述的城市绿地高分遥感监测方法,其特征在于,所述影像后处理步骤,利用全连接CRFs影像后处理方法对U-Net+模型预测结果进行后处理,结合原始高分辨遥感影像中所有像素之间的关系对分类结果进行处理,从而对预测结果优化,得到城市绿地高分辨率遥感监测成果。
5.一种城市绿地高分遥感监测***,其特征在于,包括依次连接的训练样本集构建模块、多维特征空间构建模块、U-Net+模型构建模块和影像后处理模块,所述训练样本集构建模块和U-Net+模型构建模块相连接,
所述训练样本集构建模块,针对高分辨遥感影像特征,选择样本区域,构建训练样本数据集;
所述多维特征空间构建模块,将训练样本集构建模块的训练样本数据集进行数据增强、随机裁剪和特征计算处理,构建包括植被特征、空间特征、对比度特征、纹理特征和物候特征的多维特征空间;通过构建归一化植被指数将其作为城市绿地的植被特征,构建nDSM数字表面模型将其作为城市绿地的空间特征,通过AC算法计算局部对比度特征图将其作为城市绿地的对比度特征,通过灰度共生矩阵获取图像纹理特征图将其作为城市绿地的纹理特征,并加入同期冬季影像将其作为城市绿地的物候特征;
所述U-Net+模型构建模块,基于多维特征空间构建模块构建的所述多维特征空间,面向城市绿地特征,依次利用图像边缘补零改进方式、批归一化处理改进方式以及正则化改进方式改进U-net模型,建立面向城市绿地并基于多维特征的U-Net+深度学习模型;再将训练样本的多维特征数据加入U-net+深度学习模型中进行训练,并在训练完成后进行城市绿地空间分布的预测,获取U-Net+模型预测结果;所述批归一化处理改进方式是在模型卷积层后面加入批归一化处理,再把归一化处理后的数据输入所述模型卷积层的下一层;所述正则化改进方式是在模型的每一次反卷积后都加入具有特定丢弃神经元概率的dropout层;
所述影像后处理模块,对U-Net+模型预测结果进行后处理,得到城市绿地高分辨率遥感监测成果。
6.根据权利要求5所述的城市绿地高分遥感监测***,其特征在于,所述训练样本集构建模块,针对高分辨遥感影像特征,将部分典型区域作为样本区域,利用目视解译方法进行高分遥感影像的样本提取,将目视解译得到的矢量文件进行要素转栅格获得标签图像,记录遥感影像中不同类型植被位置的地表真实图像,构建训练样本数据集;所述多维特征空间构建模块先利用数据增强的方法进行影像处理以突出有效光谱信息,然后利用随机裁剪的方法将标签图像以及数据增强后的遥感影像裁剪,并基于裁剪后的标签图像和遥感影像进行特征计算处理从而构建多维特征空间。
7.根据权利要求5所述的城市绿地高分遥感监测***,其特征在于,所述U-Net+模型构建模块中将训练样本的多维特征数据加入U-net+深度学习模型中进行训练,是将训练样本的遥感影像、多维特征数据和相应标签图像输入U-net+深度学习模型中,U-net+深度学习模型在编码部分提取出输入影像的特征,在解码部分恢复其空间位置与分辨率,在像素分类层对每一像素进行分类获得类别信息;将预测的分类图与输入的标签图在交叉熵函数中计算损失值,将损失值传递至U-net+深度学习模型中进行反向传播,逐层优化模型中的参数,当损失值达到一定阈值后,训练停止。
8.根据权利要求5或6所述的城市绿地高分遥感监测***,其特征在于,所述影像后处理模块,利用全连接CRFs影像后处理方法对U-Net+模型预测结果进行后处理,结合原始高分辨遥感影像中所有像素之间的关系对分类结果进行处理,从而对预测结果优化,得到城市绿地高分辨率遥感监测成果。
CN202010386282.9A 2020-05-09 2020-05-09 城市绿地高分遥感监测方法与*** Active CN111914611B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010386282.9A CN111914611B (zh) 2020-05-09 2020-05-09 城市绿地高分遥感监测方法与***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010386282.9A CN111914611B (zh) 2020-05-09 2020-05-09 城市绿地高分遥感监测方法与***

Publications (2)

Publication Number Publication Date
CN111914611A CN111914611A (zh) 2020-11-10
CN111914611B true CN111914611B (zh) 2022-11-15

Family

ID=73237554

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010386282.9A Active CN111914611B (zh) 2020-05-09 2020-05-09 城市绿地高分遥感监测方法与***

Country Status (1)

Country Link
CN (1) CN111914611B (zh)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112580484B (zh) * 2020-12-14 2024-03-29 中国农业大学 基于深度学习的遥感影像玉米秸秆覆盖识别方法及装置
CN112651145B (zh) * 2021-02-05 2021-09-10 河南省航空物探遥感中心 基于遥感数据反演的城市多样性指数分析与可视化建模
CN113011294B (zh) * 2021-03-08 2023-11-07 中国科学院空天信息创新研究院 基于遥感影像识别圆形喷灌地的方法、计算机设备和介质
CN112990024B (zh) * 2021-03-18 2024-03-26 深圳博沃智慧科技有限公司 一种城市扬尘的监测方法
CN112990365B (zh) * 2021-04-22 2021-08-17 宝略科技(浙江)有限公司 一种面向遥感图像语义分割的深度学习模型的训练方法
CN113705326B (zh) * 2021-07-02 2023-12-15 重庆交通大学 一种基于全卷积神经网络的城市建设用地识别方法
CN113822220A (zh) * 2021-10-09 2021-12-21 海南长光卫星信息技术有限公司 一种建筑物检测方法及***
CN114283286A (zh) * 2021-12-30 2022-04-05 北京航天泰坦科技股份有限公司 遥感图像分割方法、装置和电子设备
CN114529721B (zh) * 2022-02-08 2024-05-10 山东浪潮科学研究院有限公司 一种基于深度学习的城市遥感影像植被覆盖识别方法
CN115761518B (zh) * 2023-01-10 2023-04-11 云南瀚哲科技有限公司 一种基于遥感图像数据的作物分类方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7284502B2 (ja) * 2018-06-15 2023-05-31 大学共同利用機関法人情報・システム研究機構 画像処理装置及び方法
CN109446992B (zh) * 2018-10-30 2022-06-17 苏州中科天启遥感科技有限公司 基于深度学习的遥感影像建筑物提取方法及***、存储介质、电子设备
CN109919206B (zh) * 2019-02-25 2021-03-16 武汉大学 一种基于全空洞卷积神经网络的遥感影像地表覆盖分类方法

Also Published As

Publication number Publication date
CN111914611A (zh) 2020-11-10

Similar Documents

Publication Publication Date Title
CN111914611B (zh) 城市绿地高分遥感监测方法与***
CN108961235B (zh) 一种基于YOLOv3网络和粒子滤波算法的缺陷绝缘子识别方法
CN109871798B (zh) 一种基于卷积神经网络的遥感影像建筑物提取方法
CN109086773B (zh) 基于全卷积神经网络的断层面识别方法
CN113421269B (zh) 一种基于双分支深度卷积神经网络的实时语义分割方法
CN110969088B (zh) 一种基于显著性检测与深度孪生神经网络的遥感影像变化检测方法
CN111915592B (zh) 基于深度学习的遥感图像云检测方法
CN104462494B (zh) 一种基于无监督特征学习的遥感图像检索方法及***
CN108052966A (zh) 基于卷积神经网络的遥感图像场景自动提取和分类方法
CN111639587B (zh) 基于多尺度谱空卷积神经网络的高光谱图像分类方法
CN114444791A (zh) 一种基于机器学习的洪涝灾害遥感监测评估方法
CN110675421B (zh) 基于少量标注框的深度图像协同分割方法
CN113312993B (zh) 一种基于PSPNet的遥感数据土地覆盖分类方法
KR101941043B1 (ko) 고화질 항공 이미지에서의 물체 검출 방법
CN112950780A (zh) 一种基于遥感影像的网络地图智能生成方法及***
CN113486886A (zh) 一种自然场景下的车牌识别方法和装置
CN113920472A (zh) 一种基于注意力机制的无监督目标重识别方法及***
CN116524189A (zh) 一种基于编解码索引化边缘表征的高分辨率遥感图像语义分割方法
CN116091937A (zh) 基于深度学习的高分辨率遥感影像地物识别模型计算方法
CN115019163A (zh) 基于多源大数据的城市要素识别方法
CN111242028A (zh) 基于U-Net的遥感图像地物分割方法
CN114495170A (zh) 一种基于局部抑制自注意力的行人重识别方法及***
CN112861802A (zh) 基于时空深度学习融合技术的农作物全自动化分类方法
CN117132884A (zh) 一种基于地块尺度的农作物遥感智能提取方法
CN116682026A (zh) 一种智能深度学习环境遥感***

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant