CN111832518B - 基于时空融合的tsa遥感影像土地利用方法 - Google Patents

基于时空融合的tsa遥感影像土地利用方法 Download PDF

Info

Publication number
CN111832518B
CN111832518B CN202010710556.5A CN202010710556A CN111832518B CN 111832518 B CN111832518 B CN 111832518B CN 202010710556 A CN202010710556 A CN 202010710556A CN 111832518 B CN111832518 B CN 111832518B
Authority
CN
China
Prior art keywords
data
space
time
modis
landsat8
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010710556.5A
Other languages
English (en)
Other versions
CN111832518A (zh
Inventor
孙希延
时慧恩
黄建华
纪元法
付文涛
赵松克
李有明
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guilin University of Electronic Technology
Original Assignee
Guilin University of Electronic Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guilin University of Electronic Technology filed Critical Guilin University of Electronic Technology
Priority to CN202010710556.5A priority Critical patent/CN111832518B/zh
Publication of CN111832518A publication Critical patent/CN111832518A/zh
Application granted granted Critical
Publication of CN111832518B publication Critical patent/CN111832518B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • G06F18/24137Distances to cluster centroïds
    • G06F18/2414Smoothing the distance, e.g. radial basis function networks [RBFN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/30Noise filtering

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Multimedia (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Astronomy & Astrophysics (AREA)
  • Remote Sensing (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于时空融合的TSA遥感影像土地利用方法,对获取的Modis高时间分辨率影像和Landsat8高空间分辨率影像进行预处理后,分别进行滤波和云雾滤除;然后将得到的对应的Modis数据和Landsat8数据进行时空融合,得到高时空精度数据;接着利用监督分类算法对土地覆盖物进行分类处理后,利用土地覆盖变化检测法对分类后的影像进行变化分析;最后利用RBF神经网络对分析结果进行拟合处理,并根据得到的变化趋势预测曲线进行地物变化预测,能够得到高时空分辨率数据,提高对土地覆盖变化趋势预测结果的准确性。

Description

基于时空融合的TSA遥感影像土地利用方法
技术领域
本发明涉及图像处理技术领域,尤其涉及一种基于时空融合的TSA遥感影像土地利用方法。
背景技术
高时空分辨率遥感数据在监测土地变化、作物生长及物候参数反演等方面具有重要的作用,遥感数据的时空精细度成为了制约其在各领域应用的重要因素。高空间分辨率的遥感数据可以得到丰富的地表细节信息,但是其重访周期长,易受地面气象因素(云、雨和雾等)对传感器成像的影响,造成了单个传感器有效数据重访周期的延长,使得监测具有很大程度上的“时空数据缺失”,导致监测研究中基础观测数据出现“空窗”;且部分高空间分辨率数据较为昂贵,不适合大量推广使用。高时间分辨率的遥感数据具有较短的重访周期,但是其空间分辨率较低,一个像元范围内可能会包括几种不同的土地覆盖类型,限制了其在景观破碎和异质性较强区域的应用。其中,Landsat遥感具有空间分辨率较高,能够反应农田***的复杂变化的特点,不足之处是时间分辨率相对较低,容易受云和阴雨天气等的影响,造成作物检测的关键时期无卫星覆盖等现象。MODIS遥感卫星具有时间分辨率较高的特点,但空间分辨率相对较低,不利于种植结构复杂或者景观破碎、异质性较强的区域。
近年来,我国对地观测卫星陆续发射,遥感技术逐渐被广泛应用于农情监测、大气与水文研究等多个领域。随着遥感技术的应用发展,研究土地覆盖于土地利用对遥感技术提出了更高的要求,大范围、高精度、快速变化的地表信息遥感监测研究需要同时具有高空间分辨率和高时间分辨率特征的遥感数据,而光学卫星遥感数据在高空间分辨率和高时间分辨率之间存在相互制约的问题,导致对土地覆盖变化趋势预测结果不准确。
发明内容
本发明的目的在于提供一种基于时空融合的TSA遥感影像土地利用方法,能够得到高时空分辨率数据,提高对土地覆盖变化趋势预测结果的准确性。
为实现上述目的,本发明提供了一种基于时空融合的TSA遥感影像土地利用方法,包括:
对获取的Modis高时间分辨率影像进行预处理和滤波处理,得到Modis数据;
对获取的Modis高时间分辨率影像进行预处理和滤波处理,得到Modis数据;
对获取的Landsat8高空间分辨率影像进行预处理和云雾滤除,得到Landsat8数据;
对所述Modis数据和所述Landsat8数据进行时空融合,得到高时空精度数据;
根据所述高时空精度数据,利用监督分类算法对土地覆盖物进行分类处理;
利用土地覆盖变化检测法对分类后的影像进行变化分析;
利用RBF神经网络对分析结果进行拟合处理,并根据得到的变化趋势预测曲线进行地物变化预测。
其中,对获取的Modis高时间分辨率影像进行预处理和滤波处理,得到Modis数据,包括:
对获取的Modis高时间分辨率影像进行重投影转换成Geotif格式,并采用最近邻域法重采样到480m空间分辨率,同时利用查找表法进行几何校正,并计算出对应的辐射定标后,进行滤波处理,得到Modis数据。
其中,对获取的Landsat8高空间分辨率影像进行预处理和云雾滤除,得到Landsat8数据,包括:
将获取的Landsat8高空间分辨率影像进行辐射校正,并将辐射亮度或者表面反射率转换为地表实际反射率后,利用时间序列模型估计值与Landsat观测值检测异常值,得到Landsat8数据。
其中,对所述Modis数据和所述Landsat8数据进行时空融合,得到高时空精度数据,包括:
对所述Modis数据和所述Landsat8数据进行处理,并利用局部方差确定设定移动窗口尺寸,同时得到中心像元和相似像元。
其中,对所述Modis数据和所述Landsat8数据进行时空融合,得到高时空精度数据,还包括:
根据所述相似像元计算出对应的像元反射率,并计算出所有移动窗口的平均局部方差。
其中,利用土地覆盖变化检测法对分类后的影像进行变化分析,包括:
利用最小二乘法计算融合后的每个Landsat波段的均方根误差值,并与利用最小二乘法对时间序列拟合后得到的预测值计算差异值,并将所述差异值大于三倍所述均方根误差值对应的所述均方根误差值标记为更改值,将所述差异值小于三倍所述均方根误差值对应的所述均方根误差值标记为离散值。
其中,利用RBF神经网络对分析结果进行拟合处理,并根据得到的变化趋势预测曲线进行地物变化预测,包括:
将获取的所有像素值输入RBF神经网络中进行归一化训练,并根据输出的地物变化趋势预测值建立RBF神经网络趋势拟合模型,同时将检验时序影像像元数输入所述RBF神经网络趋势拟合模型中,得到对应的神经网络趋势拟合值,并生成对应的变化趋势拟合曲线。
本发明的一种基于时空融合的TSA遥感影像土地利用方法,对获取的Modis高时间分辨率影像和Landsat8高空间分辨率影像进行预处理后,分别进行滤波和云雾滤除;然后将得到的对应的Modis数据和Landsat8数据进行时空融合,得到高时空精度数据;接着利用监督分类算法对土地覆盖物进行分类处理后,利用土地覆盖变化检测法对分类后的影像进行变化分析;最后利用RBF神经网络对分析结果进行拟合处理,并根据得到的变化趋势预测曲线进行地物变化预测,能够得到高时空分辨率数据,提高对土地覆盖变化趋势预测结果的准确性。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明提供的一种基于时空融合的TSA遥感影像土地利用方法的步骤示意图。
图2是本发明提供的时空融合算法流程图。
图3是本发明提供的RBF神经网络拓扑结构图。
图4是本发明提供的基于时空融合的TSA遥感影像土地利用方法的流程示意图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本发明,而不能理解为对本发明的限制。
请参阅图1,本发明提供一种基于时空融合的TSA遥感影像土地利用方法,包括:
S101、对获取的Modis高时间分辨率影像进行预处理和滤波处理,得到Modis数据。
具体的,获取2013年到2018年可用的Modis高时间分辨率影像,重投影为UTM-WGS84坐标系,转换成Geotif格式,并采用最近邻域法重采样到480m空间分辨率,以便于后续的运算,然后采用查找表法对图像进行几何校正,规定投影、基准面和区位信息,可以生成一个查找表文件。这个查找表文件的实质是两幅图像,分别在每个像元上保存着经纬度值,并且像元位置是拉伸到我们规定的输出投影上面去。把想要矫正的信息和查找表匹配起来即可完成几何校正;接着根据Modis辐射定标公式:R=scales*(DN-offsets)即可计算出辐射定标后的结果,其中R代表辐射定标之后的辐亮度,scales和offsets分别代表列表中的定标系数,DN代表图像原始数码值,然后采用目前常见的中值滤波法、全局滤波等对辐射标定后的图像进行滤波处理,滤除影像中干扰性噪声,减少对后续影像分类带来的误差。
S102、对获取的Landsat8高空间分辨率影像进行预处理和云雾滤除,得到Landsat8数据。
具体的,获取2013年到2018年可用的Landsat8高空间分辨率影像,将记录的原始DN值转换为大气外层表面反射率。消除传感器本身的误差,获取传感器入口处的准确辐射值,完成辐射校正;然后将辐射亮度或者表面反射率转换为地表实际反射率,为除大气散射、吸收、反射引起的误差,最终得到30m分辨率的影像,即完成大气校正;对预处理后的Landsat8数据进行云雾滤除,具体为:首先根据Fmask先验识别的清晰观测值估计时间序列模型,然后通过比较模型估计值和Landsat观测值来检测异常值,从而减少云雾覆盖对后续影像分类带来的误差。
S103、对所述Modis数据和所述Landsat8数据进行时空融合,得到高时空精度数据。
具体的,地物存在空间异质性,空间异质性是指***或属性在空间上的复杂性和变异性。空间异质性是产生空间格局的主要原因。遥感影像的空间异质性,可使用平均局部方差来表示,在遥感影像上是一个指示邻域像元间相似程度的指标,而平均局部方差是在遥感影像上求所有给定大小的窗口内的局部方差平均值。f(x,y)是影像(x,y)处像元反射率,则以f(x,y)为中心的(2n+1)×(2m+1)大小窗口内的局部方差S2,如下所示,
Figure BDA0002596387920000051
在上式中,f是在(2n+1)×(2m+1)大小窗口内所有像元的平均值。当影像像元的大小约等于地物类型大小时,相邻像元分别属于不同的地物类型,此时空间相关性最弱,局部方差最大。
基于地表空间结构信息的时空融合算法,选取局部方差来指示地表空间的异质性,再根据地表空间异质性的结果来选取设定移动窗口即最佳移动窗口大小。选取中心像元为林地像元,将中心像元的邻域范围内的相似像元都筛选出,制定不同大小的移动窗口,分别计算不同大小移动窗口内的平均局部方差,最后选取平均局部方差最大值所对应的窗口大小作为该中心像元在时空融合所在窗口的大小。在时空融合算法中,为了简化算法,在算法内移动窗口大小的选取阈值在[30,150],步长为10,单位为像元。
基于地表空间信息特征的时空融合算法实现包括数据处理、最佳移动窗口大小选取与相似像元选取、计算相似像元的权重与转换系数和计算预测期像元的反射率。算法流程如图2所示。数据处理包括对Landsat和MODIS数据进行处理。最佳移动窗口大小选取与相似像元选取,在中心像元所在的邻域范围内,分别计算30*30个Landsat像元大小窗口到150*150个Landsat像元大小窗口内的局部方差,并取局部方差最小所对应的移动窗口大小作为该中心像元的移动窗口,并在此窗口内寻找中心像元的相似像元,然后计算所述相似像元权重和转换次数,最后计算预测影像的反射率。采用基于地表空间信息特征的时空融合算法,能够准确高效地对Landsat和Modis数据进行时空融合。
S104、根据所述高时空精度数据,利用监督分类算法对土地覆盖物进行分类处理。
具体的,利用随机森林法(Random Forest,RF)对研究区遥感影像进行分类,RF是一种基于决策树的分类器,通过投票得到最终的分类或预测结果。RF在遥感数据分类中具有较高的分类精度,优于传统的分类方法,它允许在不同的土地覆盖类别之间进行较大的区分;RF对训练数据集的噪声有较强的鲁棒性,且RF不存在过拟合。对于每个RF分类器,使用每个节点的特征总数的平方根来生长500棵树的默认值。所提模型将研究区的地物类型分为四类,分别是水体、建筑物、林地和建设用地,其中,蓝色为水体,红色为建筑物,黄色为建设用地,绿色为林地。利用监督分类方法中的随机森林法(Random Forest,RF)对研究区遥感影像进行分类,可以显著提高地物分类精度。
S105、利用土地覆盖变化检测法对分类后的影像进行变化分析。
具体的,在整个时间序列中采用模型拟合的方法来实现最大数据拟合。由于地表覆盖的复杂性,不能准确的确定增长趋势模型是饱和增长模型还是分段线性模型。因此对于时间序列LULC数据,以年度为周期来研究,可以很好的刻画历年地表覆盖变化。为了最小化短暂影响,在多个连续的图像中长期观察到一个像素的变化,连续三个日期识别的变化显示出最终的结果。因此,连续一两次显示更改的像素将被标记为“可能的更改”,如果发现第三次连续更改,则将像素分配给“更改”类。
要检测一种土地覆盖变化就单一类别变化的像素而言,可以设置一个固定的阈值。对于不同类型的土地覆盖变化,定义变化的阈值也可能不同,因此使用所有融合后的光谱波段和数据驱动阈值(针对每个像素进行调整)来检测多种土地覆盖变化。将最小二乘法(OLS方法)应用于所有7个Landsat波段,计算每个波段的均方根误差RMSE。每个Landsat波段的观测结果和模型预测之间的差异值是均方根误差RMSE的三倍。当地表覆盖发生变化时,光谱信号与模型预测的偏差通常是RMSE的三倍以上,并将所述差异值大于三倍所述均方根误差值对应的所述均方根误差值标记为更改值。否则,如果所述差异值小于三倍所述均方根误差值,即只有一个或两个连续的观测值大于1,它将被视为一个短暂的变化,而观测值将被标记为离散值。其中,最小二乘法计算均方根误差的公式为:
Figure BDA0002596387920000071
Figure BDA0002596387920000072
Figure BDA0002596387920000073
其中,x为儒略日,x1为在模型初始化期间的第一次观察,xn为模型初始化时最后一次观测的儒略日,i为第i个融合数据波段,k为融合数据波段数(取k=7),RMSE为第i个融合影像波段的均方根误差,Tmodel为用于模型初始化的总时间,ci,j为第i个融合后影像波段的年际变化系数,ρ(i,x1)为儒略日日期x第i个陆地卫星波段的观测值,
Figure BDA0002596387920000074
基于最小二乘法OLS拟合的儒略日x第i个融合影像波段的预测值。采用最小二乘法OLS方法对土地覆盖变化进行连续监测从而产生有效的分析数据,为后续的数据拟合及预测提供可靠的数据
S106、利用RBF神经网络对分析结果进行拟合处理,并根据得到的变化趋势预测曲线进行地物变化预测。
具体的,RBF神经网络是一种3层前向网络,第1层为输入层,第2层为隐含层,第3层为输出层,如图3提供的RBF神经网络拓扑结构图所示。RBF神经网络基本学习算法流程如下:
输入训练样本,获取网络聚类中心ci,求取方差δi(i=1,2,3,...,m)
基于径向基函数(高斯函数)求取隐含层输出值:
Figure BDA0002596387920000075
其中,j=1,2,3,...,m
求取输出权值:
Figure BDA0002596387920000076
其中,j=1,2,3,...,m,p=1,2,3,...,P(P为样本数)
求取网络输出值:
Figure BDA0002596387920000081
基于RBF神经网络的地物变化趋势拟合基本原理为:将获取的已知各类地物的所有像素值作为网络的输入层,对应的地物变化趋势预测值作为网络的输出层,并通过地物变化拟合数据建立RBF神经网络趋势拟合模型;同时将检验点数据输入所述RBF神经网络趋势拟合模型中,得到对应的神经网络趋势拟合值,并生成对应的变化趋势拟合曲线,实现对地物变化的预测。RBF神经网络地物变化趋势拟合,可以很好的将历年数据进行拟合并对地物覆盖变化进行预测。
如图4所提供的基于时空融合的TSA遥感影像土地利用方法的流程示意图所示,首先分别选取2013年到2018年可用的高空间分辨率Landsat8影像数据和Modis高时间分辨率影像数据并对其进行预处理,该过程包括:大气校正、几何校正、辐射定标;接着对预处理后的Modis数据进行滤波从而滤除影像中干扰性噪声,对预处理后的Landsat8数据进行云雾滤除从而减少云雾覆盖对后续影像分类带来的误差;将Modis数据和Landsat8数据进行时空融合,得到高时空精度的数据;对高时空精度数据进行分类处理,采用监督分类算法对土地覆盖物进行分类处理;分类后的影像采用土地覆盖变化检测技术进行变化分析,探究地物变化;利用RBF神经网络预测技术将所得到的地物变化数据进行拟合处理,从而生成变化趋势预测曲线,实现对地物变化的预测。
本发明的一种基于时空融合的TSA遥感影像土地利用方法,对获取的Modis高时间分辨率影像和Landsat8高空间分辨率影像进行预处理后,分别进行滤波和云雾滤除;然后将得到的对应的Modis数据和Landsat8数据进行时空融合,得到高时空精度数据;接着利用监督分类算法对土地覆盖物进行分类处理后,利用土地覆盖变化检测法对分类后的影像进行变化分析;最后利用RBF神经网络对分析结果进行拟合处理,并根据得到的变化趋势预测曲线进行地物变化预测,能够得到高时空分辨率数据,提高对土地覆盖变化趋势预测结果的准确性。
以上所揭露的仅为本发明一种较佳实施例而已,当然不能以此来限定本发明之权利范围,本领域普通技术人员可以理解实现上述实施例的全部或部分流程,并依本发明权利要求所作的等同变化,仍属于发明所涵盖的范围。

Claims (5)

1.一种基于时空融合的TSA遥感影像土地利用方法,其特征在于,包括:
对获取的Modis高时间分辨率影像进行预处理和滤波处理,得到Modis数据;
对获取的Landsat8高空间分辨率影像进行预处理和云雾滤除,得到Landsat8数据;
对所述Modis数据和所述Landsat8数据进行时空融合,得到高时空精度数据;
根据所述高时空精度数据,利用监督分类算法对土地覆盖物进行分类处理;
利用土地覆盖变化检测法对分类后的影像进行变化分析;
利用RBF神经网络对分析结果进行拟合处理,并根据得到的变化趋势预测曲线进行地物变化预测;
利用土地覆盖变化检测法对分类后的影像进行变化分析,包括:
利用最小二乘法计算融合后的每个Landsat波段的均方根误差值,并与利用最小二乘法对时间序列拟合后得到的预测值计算差异值,并将所述差异值大于三倍所述均方根误差值对应的所述均方根误差值标记为更改值,将所述差异值小于三倍所述均方根误差值对应的所述均方根误差值标记为离散值;
利用RBF神经网络对分析结果进行拟合处理,并根据得到的变化趋势预测曲线进行地物变化预测,包括:
将获取的所有像素值输入RBF神经网络中进行归一化训练,并根据输出的地物变化趋势预测值建立RBF神经网络趋势拟合模型,同时将检验时序影像像元数输入所述RBF神经网络趋势拟合模型中,得到对应的神经网络趋势拟合值,并生成对应的变化趋势拟合曲线。
2.如权利要求1所述的基于时空融合的TSA遥感影像土地利用方法,其特征在于,对获取的Modis高时间分辨率影像进行预处理和滤波处理,得到Modis数据,包括:
对获取的Modis高时间分辨率影像进行重投影转换成Geotif格式,并采用最近邻域法重采样到480m空间分辨率,同时利用查找表法进行几何校正,并计算出对应的辐射定标后,进行滤波处理,得到Modis数据。
3.如权利要求2所述的基于时空融合的TSA遥感影像土地利用方法,其特征在于,对获取的Landsat8高空间分辨率影像进行预处理和云雾滤除,得到Landsat8数据,包括:
将获取的Landsat8高空间分辨率影像进行辐射校正,并将辐射亮度或者表面反射率转换为地表实际反射率后,利用时间序列模型估计值与Landsat观测值检测异常值,得到Landsat8数据。
4.如权利要求3所述的基于时空融合的TSA遥感影像土地利用方法,其特征在于,对所述Modis数据和所述Landsat8数据进行时空融合,得到高时空精度数据,包括:
对所述Modis数据和所述Landsat8数据进行处理,并利用局部方差确定设定移动窗口尺寸,同时得到中心像元和相似像元。
5.如权利要求4所述的基于时空融合的TSA遥感影像土地利用方法,其特征在于,对所述Modis数据和所述Landsat8数据进行时空融合,得到高时空精度数据,还包括:
根据所述相似像元计算出对应的像元反射率,并计算出所有移动窗口的平均局部方差。
CN202010710556.5A 2020-07-22 2020-07-22 基于时空融合的tsa遥感影像土地利用方法 Active CN111832518B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010710556.5A CN111832518B (zh) 2020-07-22 2020-07-22 基于时空融合的tsa遥感影像土地利用方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010710556.5A CN111832518B (zh) 2020-07-22 2020-07-22 基于时空融合的tsa遥感影像土地利用方法

Publications (2)

Publication Number Publication Date
CN111832518A CN111832518A (zh) 2020-10-27
CN111832518B true CN111832518B (zh) 2022-08-19

Family

ID=72924698

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010710556.5A Active CN111832518B (zh) 2020-07-22 2020-07-22 基于时空融合的tsa遥感影像土地利用方法

Country Status (1)

Country Link
CN (1) CN111832518B (zh)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112819697B (zh) * 2021-02-04 2023-04-14 北京师范大学 一种遥感影像时空融合方法及***
CN112818605B (zh) * 2021-02-07 2022-04-26 武汉大学 一种地表反照率的快速估计方法及***
CN112861824B (zh) * 2021-04-06 2022-08-12 中国科学院地理科学与资源研究所 海岸线提取方法、装置、终端设备和可读存储介质
CN113327197B (zh) * 2021-05-10 2023-01-24 香港理工大学深圳研究院 遥感影像时空融合方法、智能终端及计算机可读存储介质
CN113408347B (zh) * 2021-05-14 2022-03-15 桂林电子科技大学 监控摄像头远距离建筑物变化检测的方法
CN115063332B (zh) * 2022-06-29 2024-04-30 河北科技师范学院 一种构建高空间分辨率时序遥感数据的方法
CN115830446B (zh) * 2022-11-25 2023-06-13 中国水利水电科学研究院 一种动态水体产品融合方法、装置、设备及可读存储介质
CN116665066A (zh) * 2023-07-31 2023-08-29 平安科技(深圳)有限公司 遥感数据处理方法、平台、计算机设备和可读存储介质

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108613933A (zh) * 2018-06-13 2018-10-02 中南林业科技大学 基于多源遥感数据融合的林地干旱时空动态监测方法
CN108985493A (zh) * 2018-06-22 2018-12-11 哈尔滨理工大学 一种基于自适应可变滤镜的地类变化预测方法

Also Published As

Publication number Publication date
CN111832518A (zh) 2020-10-27

Similar Documents

Publication Publication Date Title
CN111832518B (zh) 基于时空融合的tsa遥感影像土地利用方法
CN109581372B (zh) 一种生态环境遥感监测方法
Lenney et al. The status of agricultural lands in Egypt: the use of multitemporal NDVI features derived from Landsat TM
CN102565778B (zh) 一种自动提取伪不变特征的遥感图像相对辐射校正方法
CN110414738B (zh) 一种农作物产量预测方法及***
CN112183209A (zh) 一种基于多维特征融合的区域农作物分类方法及***
CN116519557B (zh) 一种气溶胶光学厚度反演方法
Hu et al. Coupling of machine learning methods to improve estimation of ground coverage from unmanned aerial vehicle (UAV) imagery for high-throughput phenotyping of crops
CN114627087B (zh) 一种多时相卫星遥感图像的地物变化自动检测方法及***
CN115271217A (zh) 一种基于无人机多源遥感数据的小麦产量预测方法
CN113033279A (zh) 一种基于多源遥感影像的作物精细分类方法及其***
CN116824384A (zh) 一种基于标准曲线的大豆识别方法
CN112285710A (zh) 一种多源遥感水库蓄水量估算方法与装置
CN112836725A (zh) 基于时序遥感数据的弱监督lstm循环神经网络稻田识别方法
CN114778483A (zh) 用于监测山地的遥感影像近红外波段地形阴影校正方法
CN112434569A (zh) 一种无人机热成像***
CN115343226A (zh) 一种基于无人机的多尺度植被覆盖度遥感计算方法
NO20211116A1 (en) Method and system for delineating agricultural fields in satellite images
CN117409339A (zh) 一种用于空地协同的无人机作物状态视觉识别方法
CN117075138A (zh) 一种区域30米森林冠层高度遥感测算方法、***及介质
Wang et al. A scaling-based method for the rapid retrieval of FPAR from fine-resolution satellite data in the remote-sensing trend-surface framework
CN117197668A (zh) 基于深度学习的作物倒伏级别的预测方法及***
Smit et al. Vine signal extraction-an application of remote sensing in precision viticulture
Pauly Applying conventional vegetation vigor indices to UAS-derived orthomosaics: issues and considerations
CN117218531B (zh) 一种面向海陆生态交错带红树林植物地上碳储量估算方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant