CN114926511A - 一种基于自监督学习的高分辨率遥感影像变化检测方法 - Google Patents
一种基于自监督学习的高分辨率遥感影像变化检测方法 Download PDFInfo
- Publication number
- CN114926511A CN114926511A CN202210509781.1A CN202210509781A CN114926511A CN 114926511 A CN114926511 A CN 114926511A CN 202210509781 A CN202210509781 A CN 202210509781A CN 114926511 A CN114926511 A CN 114926511A
- Authority
- CN
- China
- Prior art keywords
- image
- remote sensing
- layer
- target
- twin
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000008859 change Effects 0.000 title claims abstract description 88
- 238000001514 detection method Methods 0.000 title claims abstract description 72
- 238000000605 extraction Methods 0.000 claims abstract description 59
- 238000012549 training Methods 0.000 claims abstract description 37
- 238000002372 labelling Methods 0.000 claims abstract description 21
- 230000003595 spectral effect Effects 0.000 claims abstract description 12
- 238000004364 calculation method Methods 0.000 claims abstract description 8
- 230000005855 radiation Effects 0.000 claims abstract description 8
- 238000012937 correction Methods 0.000 claims abstract description 7
- 238000000034 method Methods 0.000 claims description 87
- 230000011218 segmentation Effects 0.000 claims description 42
- 238000004422 calculation algorithm Methods 0.000 claims description 20
- 238000011176 pooling Methods 0.000 claims description 7
- 230000004913 activation Effects 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 11
- 238000012545 processing Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 10
- 238000004458 analytical method Methods 0.000 description 8
- 238000001228 spectrum Methods 0.000 description 8
- 238000012360 testing method Methods 0.000 description 8
- 230000008569 process Effects 0.000 description 7
- 238000004590 computer program Methods 0.000 description 5
- 238000013135 deep learning Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 235000002566 Capsicum Nutrition 0.000 description 3
- 239000006002 Pepper Substances 0.000 description 3
- 241000722363 Piper Species 0.000 description 3
- 235000016761 Piper aduncum Nutrition 0.000 description 3
- 235000017804 Piper guineense Nutrition 0.000 description 3
- 235000008184 Piper nigrum Nutrition 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 238000003709 image segmentation Methods 0.000 description 3
- 239000000463 material Substances 0.000 description 3
- 238000010606 normalization Methods 0.000 description 3
- 150000003839 salts Chemical class 0.000 description 3
- 238000004088 simulation Methods 0.000 description 3
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000011158 quantitative evaluation Methods 0.000 description 2
- 238000010200 validation analysis Methods 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000000513 principal component analysis Methods 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000004083 survival effect Effects 0.000 description 1
- 238000011426 transformation method Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4053—Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20016—Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于自监督学习的高分辨率遥感影像变化检测方法,包括:获取两幅高分辨率遥感影像并进行辐射校正和配准,得到两幅目标图像;对两幅目标图像进行光谱特征的比较得到像素级差异图;通过孪生特征提取网络获取目标图像对应的多个特征图;根据特征图计算两幅目标图像的多个目标级差异图;对像素级差异图以及多个目标级差异图进行融合,根据融合图像得到变化检测结果;孪生特征提取网络是一深度孪生卷积网络模型中的子网络;训练样本来自于高分辨率的样本遥感影像对,标注信息基于样本遥感影像对自动计算生成。本发明将深度网络的自监督学习应用到高分辨率遥感影像变化检测中,以此提高了高分辨率遥感影像变化检测的性能。
Description
技术领域
本发明属于遥感影像处理领域,具体涉及一种基于自监督学习的高分辨率遥感影像变化检测方法。
背景技术
随着遥感技术的迅猛发展,搭载各种先进传感器的新型卫星陆续发射升空并实现在轨运行,卫星对地成像的时间、空间以及光谱分辨率得到了显著提升。作为目前遥感数据的重要来源,高分辨率遥感影像直观地反映了特定地理空间的地物目标分布和信息表征,并且包含丰富的光谱、纹理和空间结构特征。因此,利用高分辨率遥感影像进行变化检测对于深刻理解人类自身活动与自然环境的关系及其相互作用机理具有举足轻重的意义。
遥感影像变化检测旨在利用从同一地理区域不同历史时期获取的遥感影像数据,采用图像处理理论及统计学***台数据的开放共享和变化检测算法的推陈出新,遥感影像变化检测技术已在国土资源调查、农林监测、城市扩张、自然灾害评估等领域得到了广泛应用。
对于中/低分辨率的遥感影像来说,单个像素的光谱信息足以表征不同地物的类型,因此直接对两幅遥感影像进行逐像素比较,即可有效凸显观测区域中实际发生的变化,相关的检测方法如图像差值/比值法、图像变换法或者变化向量分析法等。而对于高分辨率遥感影像来说,由于要在不同的光谱下进行成像等因素,地面上的单个目标通常是由一组像素组成,并且目标彼此之间是空间相关的,因此相较于中/低分辨率遥感影像,高分辨率遥感影像通常包含更加丰富的地物信息。同时,由于“同物异谱、同谱异物”特性的存在,导致逐像素比较两幅遥感影像差异的方法难以充分利用影像中的地物信息,使得变化检测结果中极易出现“椒盐”现象(如图1所示)。
为了实现高分辨率遥感影像变化检测,近年来,以卷积神经网络为代表的深度学习技术被逐步引入到遥感影像处理领域中来。然而,现有技术中基于深度学习方法来实现遥感影像处理的方法,其性能往往建立在拥有充足标注样本的基础上。其中,有些方法需要借助于开放样本库,有些方法则需要人工标注大量的样本,即样本的标注信息必须依靠人的主观经验进行预判得到。但是,开放样本库中的样本有时与检测任务中所要处理影像的类型或大小不匹配,导致训练好的模型的实际使用效果不佳。而人工标注大量样本的方式,检测结果依赖于人工标注,存在一定的主观不确定性,且及时准确获取大量的标注数据通常需要耗费大量的人力、物力以及时长,极大地限制了这类方法在真实场景的应用范围。
发明内容
为了解决现有技术中所存在的上述问题,本发明提供了一种基于自监督学习的高分辨率遥感影像变化检测方法。
本发明要解决的技术问题通过以下技术方案实现:
一种基于自监督学习的高分辨率遥感影像变化检测方法,包括:
获取针对同一区域在不同时刻拍摄的两幅高分辨率遥感影像,并对所述两幅高分辨率遥感影像进行辐射校正和配准,得到配准后的两幅目标图像;
对所述两幅目标图像进行光谱特征的比较,得到像素级差异图;
通过预设的孪生特征提取网络,获取每幅目标图像各自对应的多个特征图;其中,所述多个特征图分别对应所述孪生特征提取网络的单个分支的多个不同操作层;
计算所述两幅目标图像的、来自于同级操作层的特征图间的差异,得到多个目标级差异图;
对所述像素级差异图以及所述多个目标级差异图进行融合,并根据融合图像得到变化检测结果;
其中,所述孪生特征提取网络是预先训练完成的深度孪生卷积网络模型中的特征提取子网络;训练所述深度孪生卷积网络模型所用的训练样本均来自于已配准的高分辨率的样本遥感影像对,且训练样本的标注信息是将所述样本遥感影像对输入至预设的标注算法中自动计算生成的。
可选地,所述深度孪生卷积网络模型用于对成对的图像块进行重叠度预测;
所述标注算法包括:
对所述样本遥感影像对进行光谱特征的比较,得到样本像素级差异图;
对所述样本像素级差异图进行超像素分割,得到第一分割结果;
以所述第一分割结果中每一超像素的质心位置坐标为图像块的中心,并以预设尺寸为图像块的大小,计算所述样本遥感影像对间的每对图像块的重叠度;
根据所述样本遥感影像对间的各对图像块以及图像块间的重叠度,构建所述训练样本以及所述标注信息。
可选地,基于预设的孪生特征提取网络,获取每幅目标图像各自对应的多个特征图,包括:
对所述像素级差异图进行超像素分割,得到第二分割结果;
以所述第二分割结果中每一超像素的质心位置坐标为图像块的中心,并以所述预设尺寸为图像块的大小,生成多个模板窗口;
根据所述多个模板窗口,对每幅目标图像均进行图像块的划分,得到所述两幅目标图像间、位置一一对应的多对图像块;
利用所述孪生特征提取网络,从得到的每对图像块中分别提取每个图像块的多层特征;
对属于同一目标图像的多层特征进行同层拼接,得到每幅目标图像各自对应的多个特征图。
可选地,所述超像素分割是利用简单线性迭代聚类法实现的。
可选地,所述重叠度的计算方式包括:
其中,图像块p和图像块q分别来自于样本遥感影像对中的两个不同影像;y(p,q)表示图像块p和图像块q的重叠度;IoU表示图像块间的交并比。
可选地,在利用所述孪生特征提取网络,从得到的每对图像块中分别提取每个图像块的多层特征之前,所述方法还包括:
对得到的图像块进行归一化处理;
并且,构成所述训练样本的图像块同样是经归一化处理的图像块。
可选地,计算所述两幅目标图像的、来自于同级操作层的特征图间的差异,包括:
计算所述两幅目标图像的、来自于同级操作层的特征图间的欧氏距离。
可选地,对所述像素级差异图以及所述多个目标级差异图进行融合,包括:
求取所述像素级差异图以及所述多个目标级差异图的加权平均结果,得到所述融合图像。
可选地,根据融合图像得到变化检测结果,包括:
采用大津阈值法对融合图像进行二值分割,得到的二值分割结果为变化检测结果;其中,所述二值分割结果中的1表示存在变化,0表示无变化。
可选地,所述深度孪生卷积网络模型沿数据流向包括:所述孪生特征提取网络、用于对所述孪生特征提取网络末端输出的特征求取绝对差值的特征比较层以及一全连接层;
其中,所述孪生特征提取网络的每个分支沿数据流向均依次包括:第一卷积层、第一BN层、最大池化层以及残差层,作为该分支的多个不同操作层;其中,所述残差层包括两个串行连接的残差模块;
所述残差模块沿数据流向依次包括:第二卷积层、第二BN层、第三卷积层、第三BN层以及一加法模块;其中,所述第二卷积层的输入特征以及所述第三BN层的输出特征共同送入所述加法模块中进行求和;
所述第一BN层和所述第二BN层还分别连接有Relu激活层;
所述第一卷积层包括64个大小为3×3的卷积核,卷积步长为2;
所述最大池化层中的卷积核大小为3×3,卷积步长为2;
所述第二卷积层以及所述第三卷积层均包括64个大小为3×3的卷积核,卷积步长为1。
本发明提供的基于自监督学习的高分辨率遥感影像变化检测方法中,通过一孪生特征提取网络获取了每幅目标图像各自对应的多个特征图,从而能够以目标图像中的目标为分析单元,有效提取目标图像中包含的光谱、纹理、几何形状等特征信息,有助于更好地挖掘目标图像中的关键信息,实现图像上下文信息的充分利用。这样,在计算出两幅目标图像的、来自于同级操作层的特征图间的差异后,将得到的多个目标级差异图与两幅目标图像的像素级差异图进行融合,得到的变化检测结果更加准确。并且,本发明使用的孪生特征提取网络是预先训练完成的深度孪生卷积网络模型中的特征提取子网络,训练该深度孪生卷积网络模型所用的训练样本均来自于已配准的高分辨率的样本遥感影像对,与检测任务相匹配,确保了孪生特征提取网络的实际使用性能与训练完成时得到的性能相一致。并且,本发明中训练样本的标注信息是将样本遥感影像对输入至预设的标注算法中自动计算生成的,不依赖于人的主观经验,不会引入主观不确定性,标注精度更高;且机器化的标注方式效率得到了很大的提升,无需耗费大量的人力、物力以及时长,能够及时准确地获取有用的样本,这就使得本发明在真实场景的应用范围更为广泛。
以下将结合附图及对本发明做进一步详细说明。
附图说明
图1是椒盐现象的示意图;
图2是本发明实施例提供的一种基于自监督学习的高分辨率遥感影像变化检测方法的流程图;
图3是本发明实施例中为样本遥感影像对构造标注信息的示意图;
图4是本发明实施例中使用的一种深度孪生卷积网络模型的网络结构示意图。
图5是本发明实施例进行实验验证时所使用的一组测试数据集;
图6是本发明实施例进行实验验证时所使用的另一组测试数据集;
图7中示出了利用现有IR-MAD方法、PCANet方法、DCVA方法以及本发明提供的方法针对图5中的测试数据集得到的检测结果;
图8中示出了利用现有IR-MAD方法、PCANet方法、DCVA方法以及本发明提供的方法针对图6中的测试数据集得到的检测结果;
图9中示出了图7和图8的检测结果的定量评价指标。
具体实施方式
下面结合具体实施例对本发明做进一步详细的描述,但本发明的实施方式不限于此。
为了能够切实、有效地利用深度学习技术来提升高分辨率遥感影像变化检测的性能,本发明实施例提供了一种基于自监督学习的高分辨率遥感影像变化检测方法。如图2所示,该方法包括以下步骤:
S10:获取针对同一区域在不同时刻拍摄的两幅高分辨率遥感影像,并对两幅高分辨率遥感影像进行辐射校正和配准,得到配准后的两幅目标图像。
其中,对两幅高分辨率遥感影像进行辐射校正,可以消除由传感器灵敏度特性、太阳高度角、大气条件以及地形起伏等因素的不同造成的影像辐射误差;具体的辐射校正方式与相关现有技术相同,本发明实施例不再进行赘述。
在对两幅高分辨率遥感影像进行辐射校正之后,继续对校正后的两幅高分辨率遥感影像进行配准,使得相同地物的像素对应同一空间位置。具体的配准方式存在多种,例如可以采用现有的SIFT(Scale-invariant Feature Transform,尺度不变特征变换)方法来实现,本发明实施例不再进行赘述。
可以理解的是,配准之后得到的两幅高分辨率遥感影像即是两幅目标图像。
S20:对两幅目标图像进行光谱特征的比较,得到像素级差异图。
具体的,可以利用变化向量分析法对两幅目标图像进行光谱特征的比较,实现过程用公式进行表示如下:
S30:通过预设的孪生特征提取网络,获取每幅目标图像各自对应的多个特征图;其中,多个特征图分别对应孪生特征提取网络的单个分支的多个不同操作层;孪生特征提取网络是预先训练完成的深度孪生卷积网络模型中的特征提取子网络;训练该深度孪生卷积网络模型所用的样本遥感影像对均来自于已配准的高分辨率的样本遥感影像对,且训练样本的标注信息是将样本遥感影像对输入至预设的标注算法中自动计算生成的。
可以理解的是,高分辨率遥感影像通常包含更加丰富的地物信息,但随着数据规模的增加逐渐呈现出海量、高维和多样化的特点。传统浅层学习模型在处理这类数据时,由于模型容量有限易遭遇过拟合和欠拟合的问题,导致模型特征表达能力弱,且泛化性能差。相比之下,深度学习模型有着更深的网络结构,能够利用训练样本自动学习原始数据中更为本质的特征表示,具有更强的特征提取能力和泛化性能。对于高分辨率遥感影像变化检测任务而言,由深度神经网络学习到更高层次的特征表示可以放大感知输入中对分类很重要的因素并抑制一些无关的变化(如光照和噪声干扰),进而促进对地面真实变化区域的识别。因此,本发明实施例中采用了深度孪生卷积网络模型中的特征提取子网络来从目标图像中提取特征图。
在实际应用中,深度孪生卷积网络模型的所具体实现的功能可以存在多种可能。示例性的,在一种实现方式中,该深度孪生卷积网络模型可以用于对成对的图像块进行重叠度预测;也就是说,将一对图像块输入到该深度孪生卷积网络模型中后,该模型可以输出这对图像块的重叠度。相应的,其特征提取子网络,即上述的孪生特征提取网络,具体是通过两个孪生的分支从成对的图像块中分层提取特征的。这样,将属于同一图像的各个图像块的特征进行同层拼接,即可得到该图像对应的多个特征图。
或者,在另一种实现方式中,该深度孪生卷积网络模型可以用于对一对图像进行相似性区域的分割;也就是说,将一对图像输入到该深度孪生卷积网络模型中后,该模型可以输出这对图像间的相似区域的坐标,这也是可以的。相应的,其特征提取子网络,即上述的孪生特征提取网络,则具体可以通过两个孪生的分支从成对的图像中分层提取特征。
可以理解的是,深度孪生卷积网络模型的网络结构与深度孪生卷积网络模型所具体要实现的功能相关,为了使说明书的布局清楚,后续对深度孪生卷积网络模型的网络结构进行举例说明。
S40:计算两幅目标图像的、来自于同级操作层的特征图间的差异,得到多个目标级差异图。
例如,可以计算两幅目标图像的、来自于同级操作层的特征图间的欧式距离:
Xj=d(x1j,x2j)=||x1j-x2j||2;
其中,x1j表示目标图像I1所进入的分支中,由该分支的第j个操作层输出的特征图,x2j表示目标图像I2所进入的分支中,由该分支的第j个操作层输出的特征图,||·||2为二范数,d是欧式距离函数,Xj表示计算得到的第j个目标级差异图,即j用于对孪生特征提取网络的操作层进行编号。
S50:对像素级差异图以及多个目标级差异图进行融合,并根据融合图像得到变化检测结果。
具体的,对像素级差异图以及多个目标级差异图进行融合,可以对像素级差异图以及多个目标级差异图求平均,得到一平均的融合图像。
或者,在一种优选实现方式中,可以求取像素级差异图以及多个目标级差异图的加权平均结果(如下式所示),得到加权平均的融合图像。这样,可以实现它们的深度融合,从而保留更多有用的变化信息。
该式中,XD表示融合图像,k取值不同时的Xk分别表示像素级差异图以及多个目标级差异图,μk是Xk对应的权重因子。其中,优选地,像素级差异图对应的权重因子可以略高于各目标级差异图对应的权重因子。
得到融合图像后,根据融合图像得到变化检测结果的具体实现方式存在多种。示例性的,在一种实现方式中,可以将融合图像中像素值大于预设阈值的像素所在的区域确定为存在变化的区域。其中,阈值可根据人工经验确定。
在另一种实现方式中,为了减少人为设定的阈值对检测结果的影响,可以使用大津阈值法对融合图像进行二值分割,并将得到的二值分割结果为变化检测结果;其中,二值分割结果中的1表示存在变化,0表示无变化。
这里,对融合图像XD使用大津阈值法,即是基于融合图像XD的灰度直方图计算得出使其类间方差最大的划分阈值T。具体的,假如用w0表示前景点数占图像比例,其平均灰度用u0表示,用w1表示背景点数占图像比例,其平均灰度用u1表示;将阈值T从最小灰度值遍历到最大灰度值,当遍历中的某个T值使得方差δ=w0*w1*(u0-u1)*(u0-u1)最大时,此时的T即为大津阈值法所确定的最佳分割阈值。
然后,利用阈值T对差异图进行二值化处理,其表达式如下:
其中,XD(r,c)表示融合图像XD中位置(r,c)处的像素值,CM(r,c)表示变化检测结果中位置(r,c)处的像素值,1表示(r,c)处存在变化,0表示(r,c)处无变化。
本发明实施例提供的基于自监督学习的高分辨率遥感影像变化检测方法中,通过一孪生特征提取网络获取了每幅目标图像各自对应的多个特征图,从而能够以目标图像中的目标为分析单元,有效提取目标图像中包含的光谱、纹理、几何形状等特征信息,有助于更好地挖掘目标图像中的关键信息,实现图像上下文信息的充分利用。这样,在计算出两幅目标图像的、来自于同级操作层的特征图间的差异后,将得到的多个目标级差异图与两幅目标图像的像素级差异图进行融合,得到的变化检测结果更加准确,具体表现为漏检率和误检率较低,且有效地避免了“椒盐”现象的发生。并且,本发明实施例使用的孪生特征提取网络是预先训练完成的深度孪生卷积网络模型中的特征提取子网络,训练该深度孪生卷积网络模型所用的训练样本均来自于已配准的高分辨率的样本遥感影像对,与检测任务相匹配,确保了孪生特征提取网络的实际使用性能与训练完成时的性能相一致。并且,本发明实施例中训练样本的标注信息是将样本遥感影像对输入至预设的标注算法中自动计算生成的,不依赖于人的主观经验,不会引入主观不确定性,标注精度更高;且机器化的标注方式效率得到了很大的提升,无需耗费大量的人力、物力以及时长,能够及时准确地获取有用的样本,这就使得本发明在真实场景的应用范围更为广泛。
综上可见,本发明实施例是一种完全无监督的方法,能够实现复杂场景下高分辨率遥感影像变化检测的自动化和高效化,进一步提升变化检测的性能。
可以理解的是,根据分析单元的不同和特征提取手段的差异,遥感影像变化检测方法可以分为基于像素的变化检测方法和基于目标的变化检测方法。在本发明实施例中,计算像素级差异图采用的是基于像素的变化检测方法的思路,而利用孪生特征提取网络提取特征图并计算目标级差异图则采用的是基于目标的变化检测方法的思路。
其中,基于目标的变化检测方法通常是由图像分割、特征提取和变化识别三个环节组成。其中,图像分割是基于目标的变化检测方法的核心,其旨在将遥感影像划分为光谱相似、空间相邻的多个目标,为后续的特征提取和变化分析奠定基础。因此,如何选择合适的分割尺度并准确表征图像中的关键信息是决定检测效果好坏的关键因素。为了达到这一目的,本发明实施例中采用了一种标注算法,实现对图像的自动分割,从而构建了面向图像块分类任务的标注样本数据集,无需人工标注,适用于任何类型的遥感影像。相应的,上述深度孪生卷积网络模型则被设计为一种用于对成对的图像块进行重叠度预测的自监督学习模型。
具体而言,本发明实施例提出的这种优选的标注算法包括:
(1)对样本遥感影像对进行光谱特征的比较,得到样本像素级差异图。
该步骤的具体实现方式可参见上述步骤S20。
(2)对样本像素级差异图进行超像素分割,得到第一分割结果。
可以理解的是,超像素是指具有相似纹理、颜色、亮度等特征的相邻像素构成的有一定视觉意义的不规则像素块。
示例性的,该步骤中可以采用简单线性迭代聚类法对样本像素级差异图进行超像素分割。具体的,设定分割尺度s(例如可以设定为10),采用简单线性迭代聚类法对样本像素级差异图进行分割,从而得到具有光谱相似、空间相邻的超像素,并得到相应的超像素的分割掩膜IM。
该步骤中,实现超像素分割的方法并不局限于此,例如也可以采用FS算法来对样本像素级差异图进行超像素分割。其中,FS算法是一种采用模糊c均值(FCM,Fuzzy C-Means)聚类算法生成超像素对方法。
(3)以第一分割结果中每一超像素的质心位置坐标为图像块的中心,并以预设尺寸为图像块的大小,计算样本遥感影像对间的每对图像块的重叠度。
具体的,针对每个超像素,利用分割掩膜IM计算该超像素的质心位置坐标;然后,分别在样本遥感影像对所包含的两幅样本图像中,以上述质心位置左边为中心取大小为S×S的图像块,S=2s+2;这样,超像素有多少个,每个样本遥感影像就可以取多少个图像块。然后,计算样本遥感影像对间的每对图像块的重叠度。例如,假设分割结果中包括10个超像素,则每个样本遥感影像可以取10个图像块,则需要计算样本遥感影像对间的10×10=100对图像块的重叠度。
其中,计算重叠度主要是计算两个图像块的交并比,计算方式表示如下:
其中,图像块p和图像块q分别来自于样本遥感影像对中的两个不同影像;y(p,q)表示图像块p和图像块q的重叠度,即图像块p和图像块q的类别标签;IoU表示图像块间的交并比。
示例性的,图3中示出了为样本遥感影像对构造标注信息的示意图。其中,左右分别是样本遥感影像对包含的两幅影像;其中,图像块1和图像块3部分重叠,两者的交并比位于[0,1]之间时,将该对图像块(1,3)的类别标签标注为1;图像块1和图像块4完全重叠,两者的交并比为1,将该对图像块(1,4)的类别标签标注为2;图像块1和图像块2完全不重叠,两者的交并比为0,两将该对图像块(1,2)的类别标签标注为0。
按照上述过程标注完各对图像块的标签之后,这些成对的图像块便可以作为训练样本,为它们标注的标签即是对应的标注信息。
由此,在步骤S30中,通过孪生特征提取网络,获取每幅目标图像各自对应的多个特征图,包括:
(1)对步骤S20中得到的像素级差异图进行超像素分割,得到第二分割结果。
这里,进行超像素分割的方式与上文中构建训练样本时所使用的方式相同。
(2)以第二分割结果中每一超像素的质心位置坐标为图像块的中心,并以预设尺寸为图像块的大小,生成多个模板窗口。
这里,预设尺寸的大小与上文中构建训练样本时所使用的预设尺寸大小相同。
(3)根据多个模板窗口,对每幅目标图像均进行图像块的划分,得到两幅目标图像间、位置一一对应的多对图像块。
可以理解的是,由于此时要执行变化检测任务,因此只需取两幅目标图像间、位置一一对应的各对图像块,而不必考虑位置不对应的成对图像块。
(4)利用孪生特征提取网络,从得到的每对图像块中分别提取每个图像块的多层特征。
具体的,将步骤(3)中得到的每对图像块分别输入到孪生特征提取网络中,以使得该孪生特征提取网络输出每个图像块的多层特征。可以理解的是,这里说的多层特征与图像块进入该孪生特征提取网络的分支的多个不同操作层一一对应。
(5)对属于同一目标图像的多层特征进行同层拼接,得到每幅目标图像各自对应的多个特征图。
具体的,针对每个目标图像,对从其所包含的各个图像块中提取的、对应同一操作层的特征进行拼接,得到该目标图像对应于各操作层的完整的特征图。
本发明实施例中,适用于上文示出的这种标注算法的深度孪生卷积网络模型可以存着多种。示例性的,所设计的深度孪生卷积网络模型可以如图4所示的,沿数据流向包括:孪生特征提取网络、用于对孪生特征提取网络末端输出的特征求取绝对差值的特征比较层以及一全连接层。
其中,如图4所示,孪生特征提取网络的每个分支沿数据流向均依次包括:第一卷积层、第一BN层、最大池化层以及残差层,作为该分支的多个不同操作层;其中,残差层包括两个串行连接的残差模块;残差模块沿数据流向依次包括:第二卷积层、第二BN层、第三卷积层、第三BN层以及一加法模块;其中,第二卷积层的输入特征以及第三BN层的输出特征共同送入加法模块中进行求和;第一BN层和第二BN层还分别连接有Relu激活层。
其中,为了减少模型的参数量,第一卷积层优选包括64个大小为3×3的卷积核,卷积步长为2;最大池化层中的卷积核大小为3×3,卷积步长为2;第二卷积层以及第三卷积层均包括64个大小为3×3的卷积核,卷积步长为1。
需要说明的是,上述卷积核大小、数量以及卷积步长等设置仅仅作为示例,并不构成对本发明实施例的限定,实际中可根据目标图像的实际分辨率大小等因素进行适应性的调整。
基于图4所示的深度孪生卷积网络模型可知,其中的孪生特征提取网络有4个不同的操作层,相应的步骤S30中针对每幅目标图像获取的特征图都有4个,这样步骤S40中计算出的目标级差异图就有4个,再加上像素级差异图,对它们进行融合时,权重因子优选设置为{0.4,0.1,0.3,0.1,0.1}。其中,0.4为像素级差异图对应的权重因子,0.1为根据两个第一卷积层输出的特征得到的目标级差异图对应的权重因子,随后的0.3为根据两个第一BN层输出的特征图得到的目标级差异图对应的权重因子,随后的0.1为根据两个最大池化层输出的特征图得到的目标级差异图对应的权重因子,随后的0.1为根据两个残差层输出的特征图得到的目标级差异图对应的权重因子。
此外,适用于上述的标注算法且能够实现上述重叠度预测功能的网络模型并不局限于图4中所示出的网络模型;例如,还可以利用ResNet18网络或其他残差网络为骨干网络来搭建其他具有相似功能的网络,或者也可以用两个VGG16网络来搭建上述的孪生特征提取网络等等,这都是可实现的。
构建好网络模型以及数据集之后,便可以对模型展开训练。
首先,为模型设置初始参数。这里,为了加快模型的收敛速度,提高模型的特征提取能力,可以参考现有数据集在网络模型上训练好的权重作为所搭建模型的初始参数。例如,当采用ResNet18网络为骨干网络来搭建深度孪生卷积网络模型时,可将在ImageNet数据集上预先训练好的ResNet18网络的权重作为该深度孪生卷积网络模型的初始参数。
然后,将训练样本库中的训练样本输入至搭建好的模型中,使得该模型输出预测结果。然后,根据预测结果和所输入的训练样本的标注信息来计算损失值,当损失值小于预设的损失阈值时,模型收敛,得到训练完成的深度孪生卷积网络模型。
其中,由于模型执行的是一个多分类的任务,因此使用Softmax损函数作为网络的损失函数,其可以表示为:
其中,N表示训练样本的数量,用于表示第n个训练样本是否属于第i类,其取值为0时代表第n个训练样本不属于第i类,取值为1时代表第n个训练样本属于第i类,的具体取值由第n个训练样本的标注信息决定;表示网络模型输出的第n个训练样本属于第i类的概率,wi表示属于第i类样本的权重。
在训练过程中,采用Adam算法(Adaptive Momentum Estimation)对网络进行优化,学习率的参数可以设置为0.001,权重衰减系数可以设置为0.00005,训练代数可以设置为200,当然,这些设置都是可以进行调整的。
在其他实现方式中,若深度孪生卷积网络模型是一个用于对输入的样本遥感影像对进行相似性区域分割的自监督学习模型,则可以使用FCN、SegNet、U-Net或者PSPNet等常见的图像分割模型来搭建其主体结构。其中,在为样本遥感影像对构建标注信息时,可以用一个预设大小的图像块为模板对样本遥感影像对中的每幅图像进行遍历,遍历步进可以调整,既可以等于图像块的直径,也可以小于该直径,这样每幅图像都被划分为多个图像块;然后,通过计算样本遥感影像对间每两个位置对应的图像块之间的相似度,并根据相似度的阈值来确定样本遥感影像对中的变化区域和未变化区域,以此来实现标注信息的自动构造,实现自监督学习。
可选地,在一种实现方式中,为了加快模型的收敛速度,在利用孪生特征提取网络,从得到的每对图像块中分别提取每个图像块的多层特征之前,本发明实施例提供的方法还可以包括:对得到的图像块进行归一化处理。并且,在训练深度孪生卷积网络模型时,所用的训练样本中的图像块同样是经归一化处理的图像块。
这里,归一化处理的过程可以用公式表示如下:
其中,X(r,c)为图像块在位置(r,c)处的像素值,Xout为对应归一化后的输出像素值,Xmax和Xmin为目标图像中像素的最大值和最小值,此处分别为255和0。
综上可见,本发明实施例能够解决现有技术无法有效表征图像的地物信息、高质量标注样本不足以及变化信息提取不充分等多种问题,从而切实、有效地将深度学习技术利用到高分辨率遥感影像变化检测中,并以此提升了变化检测的性能。
本发明实施例的有益效果可通过以下仿真进行进一步的说明:
仿真条件:在AMD Ryzen 5800X CPU、3.8GHz Windows 10***下和Python3.7运行平台上进行,完成本发明提供的方法以及现有IR-MAD(Iteratively ReweightedMultivariate Alteration Detection,迭代加权多元检测算法)方法、PCANet(基于多通道主成分分析网络)方法和DCVA(深度变化向量分析)算法的仿真对比实验。
评价指标:
(1)精准率(Precision):指变化检测结果中被正确识别为变化像素的个数占结果中预测为变化类的像素个数的比重,计算公式如下:
其中,TP和FP分别表示变化检测结果中被正确划分为变化类的像素个数和被误分为变化类的像素个数。
(2)召回率(Recall):指变化检测结果中被正确识别为变化像素的个数占真实变化像素个数的比重,计算公式如下:
其中,FN表示在变化检测结果中未被正确识别为变化类的像素个数。
(3)准确率(Accuracy):指变化检测结果中检测正确的像素个数占整幅图像像素个数的比重,计算公式如下:
其中,TN表示在变化检测结果中被正确划分为未变化类的像素个数。
(4)Kappa系数:用来衡量变化检测算法的整体分类能力,取值越大表示,算法的分类性能越好,计算公式如下:
其中,RC和RU分别表示根据先验知识人工手动标注的参考影像中变化类和未变化类的像素个数。
实验数据:
第一组测试数据集是在国内某地拍摄的数据集,如图5中的子图(a)和图子(b)所示,主要反映了由地面植被引起的土地类型变化。其中每幅影像包含红色、绿色和近红外三个波段,影像的大小为877×738,影像的空间分辨率为2.5米。图5中的子图(c)则是由专家根据图像的先验知识人工手动标注得到的参考影像,其中白色表示发生变化的区域,黑色表示未发生变化的区域。
第二组测试数据集是在国内另一地拍摄的数据集,如图7中的子图(a)和图子(b)所示,主要反映了城市化进程中土地类型的变化。其中,每幅影像均包含红色、绿色和蓝色三个波段,影像大小为1431×1431,空间分辨率为2米。图7中的子图(c)则是根据图像视觉解译人工标注得到的参考影像。
实验内容与结果:
图6中的子图(a)~(d)分别为利用现有IR-MAD方法、PCANet方法、DCVA方法以及本发明实施例提供的方法针对第一组实验数据得到的检测结果。
对比可见,IR-MAD方法将未发生变化的道路错误地识别为变化类,导致其糟糕的检测结果;通过考虑像素的邻域信息,PCANet方法可以检测出主要的变化区域,但许多小的变化未能有效识别;DCVA方法可以检测出地表上大部分的变化区域,但结果中出现大量白色的噪点;而本发明实施例提供的方法能够较为准确地识别出变化区域,且变化结果整体上较为干净。
图8中的子图(a)~(d)分别为利用现有IR-MAD方法、PCANet方法、DCVA方法以及本发明实施例提供的方法针对第二组实验数据得到的检测结果。
对比可见,IR-MAD方法无法有效识别出发生变化的区域,检测结果中充满大量的斑点;PCANet方法仅能检测出小部分的变化区域,且一些未变化的区域也被识别为了变化类;DCVA方法可以识别出主要的变化区域,但却丢失了大量变化细节;而本发明实施例提供的方法能够有效凸显地表发生的变化,且结果中含有较少的噪点。
图9中展示了不同变化检测方法在上述两组实验数据上的定量评价指标,从图9中可以看出,本发明实施例提供的方法在第一组测试数据集上的Accuracy和Kappa数值分别为0.9754和0.9013,远优于现有方法。对于第二组测试数据集来说,由于其包含更多的地物类型,导致变化检测的难度更大,本发明实施例提供的方法在该数据集上的Recall、Accuracy和Kappa三个指标都是最高的,进一步说明了本发明方法的有效性和可行性。
综上,本发明实施例所提供的基于自监督学习的高分辨率遥感影像变化检测方法,以超像素为基本分析单元,通过自监督学习方式提取图像中的有用特征,并结合特征比较和阈值分割得到最终的变化检测结果。相比于现有方法,本发明实施例提供的方法在高分辨率遥感影像变化检测问题上能够取得更优的性能,具有更广泛的应用范围和更强的鲁棒性。
本发明实施例提供的方法可以应用于电子设备。具体的,该电子设备可以为:台式计算机、便携式计算机、终端设备、服务器等,在此不作限定,任何可以实现本发明的电子设备,均属于本发明的保护范围。
需要说明的是,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括一个或者更多个特征。在本发明的描述中,“多个”的含义是两个或两个以上,除非另有明确具体的限定。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。此外,本领域的技术人员可以将本说明书中描述的不同实施例或示例进行接合和组合。
尽管在此结合各实施例对本发明进行了描述,然而,在实施所要求保护的本发明过程中,本领域技术人员通过查看所述附图、公开内容、以及所附权利要求书,可理解并实现所述公开实施例的其他变化。
本发明是参照本发明实施例的方法、装置(设备)和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
以上内容是结合具体的优选实施方式对本发明所作的进一步详细说明,不能认定本发明的具体实施只局限于这些说明。对于本发明所属技术领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干简单推演或替换,都应当视为属于本发明的保护范围。
Claims (10)
1.一种基于自监督学习的高分辨率遥感影像变化检测方法,其特征在于,包括:
获取针对同一区域在不同时刻拍摄的两幅高分辨率遥感影像,并对所述两幅高分辨率遥感影像进行辐射校正和配准,得到配准后的两幅目标图像;
对所述两幅目标图像进行光谱特征的比较,得到像素级差异图;
通过预设的孪生特征提取网络,获取每幅目标图像各自对应的多个特征图;其中,所述多个特征图分别对应所述孪生特征提取网络的单个分支的多个不同操作层;
计算所述两幅目标图像的、来自于同级操作层的特征图间的差异,得到多个目标级差异图;
对所述像素级差异图以及所述多个目标级差异图进行融合,并根据融合图像得到变化检测结果;
其中,所述孪生特征提取网络是预先训练完成的深度孪生卷积网络模型中的特征提取子网络;训练所述深度孪生卷积网络模型所用的训练样本均来自于已配准的高分辨率的样本遥感影像对,且训练样本的标注信息是将所述样本遥感影像对输入至预设的标注算法中自动计算生成的。
2.根据权利要求1所述的方法,其特征在于,所述深度孪生卷积网络模型用于对成对的图像块进行重叠度预测;
所述标注算法包括:
对所述样本遥感影像对进行光谱特征的比较,得到样本像素级差异图;
对所述样本像素级差异图进行超像素分割,得到第一分割结果;
以所述第一分割结果中每一超像素的质心位置坐标为图像块的中心,并以预设尺寸为图像块的大小,计算所述样本遥感影像对间的每对图像块的重叠度;
根据所述样本遥感影像对间的各对图像块以及图像块间的重叠度,构建所述训练样本以及所述标注信息。
3.根据权利要求2所述的方法,其特征在于,基于预设的孪生特征提取网络,获取每幅目标图像各自对应的多个特征图,包括:
对所述像素级差异图进行超像素分割,得到第二分割结果;
以所述第二分割结果中每一超像素的质心位置坐标为图像块的中心,并以所述预设尺寸为图像块的大小,生成多个模板窗口;
根据所述多个模板窗口,对每幅目标图像均进行图像块的划分,得到所述两幅目标图像间、位置一一对应的多对图像块;
利用所述孪生特征提取网络,从得到的每对图像块中分别提取每个图像块的多层特征;
对属于同一目标图像的多层特征进行同层拼接,得到每幅目标图像各自对应的多个特征图。
4.根据权利要求2或3所述的方法,其特征在于,所述超像素分割是利用简单线性迭代聚类法实现的。
6.根据权利要求3所述的方法,其特征在于,在利用所述孪生特征提取网络,从得到的每对图像块中分别提取每个图像块的多层特征之前,所述方法还包括:
对得到的图像块进行归一化处理;
并且,构成所述训练样本的图像块同样是经归一化处理的图像块。
7.根据权利要求1所述的方法,其特征在于,计算所述两幅目标图像的、来自于同级操作层的特征图间的差异,包括:
计算所述两幅目标图像的、来自于同级操作层的特征图间的欧氏距离。
8.根据权利要求1所述的方法,其特征在于,对所述像素级差异图以及所述多个目标级差异图进行融合,包括:
求取所述像素级差异图以及所述多个目标级差异图的加权平均结果,得到所述融合图像。
9.根据权利要求1所述的方法,其特征在于,根据融合图像得到变化检测结果,包括:
采用大津阈值法对融合图像进行二值分割,得到的二值分割结果为变化检测结果;其中,所述二值分割结果中的1表示存在变化,0表示无变化。
10.根据权利要求1所述的方法,其特征在于,所述深度孪生卷积网络模型沿数据流向包括:所述孪生特征提取网络、用于对所述孪生特征提取网络末端输出的特征求取绝对差值的特征比较层以及一全连接层;
其中,所述孪生特征提取网络的每个分支沿数据流向均依次包括:第一卷积层、第一BN层、最大池化层以及残差层,作为该分支的多个不同操作层;其中,所述残差层包括两个串行连接的残差模块;
所述残差模块沿数据流向依次包括:第二卷积层、第二BN层、第三卷积层、第三BN层以及一加法模块;其中,所述第二卷积层的输入特征以及所述第三BN层的输出特征共同送入所述加法模块中进行求和;
所述第一BN层和所述第二BN层还分别连接有Relu激活层;
所述第一卷积层包括64个大小为3×3的卷积核,卷积步长为2;
所述最大池化层中的卷积核大小为3×3,卷积步长为2;
所述第二卷积层以及所述第三卷积层均包括64个大小为3×3的卷积核,卷积步长为1。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210509781.1A CN114926511A (zh) | 2022-05-11 | 2022-05-11 | 一种基于自监督学习的高分辨率遥感影像变化检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210509781.1A CN114926511A (zh) | 2022-05-11 | 2022-05-11 | 一种基于自监督学习的高分辨率遥感影像变化检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114926511A true CN114926511A (zh) | 2022-08-19 |
Family
ID=82808749
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210509781.1A Pending CN114926511A (zh) | 2022-05-11 | 2022-05-11 | 一种基于自监督学习的高分辨率遥感影像变化检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114926511A (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115170575A (zh) * | 2022-09-09 | 2022-10-11 | 阿里巴巴(中国)有限公司 | 遥感影像变化检测及模型训练的方法及设备 |
CN115761529A (zh) * | 2023-01-09 | 2023-03-07 | 阿里巴巴(中国)有限公司 | 图像处理方法和电子设备 |
CN115861823A (zh) * | 2023-02-21 | 2023-03-28 | 航天宏图信息技术股份有限公司 | 一种基于自监督深度学习的遥感变化检测方法和装置 |
CN117115679A (zh) * | 2023-10-25 | 2023-11-24 | 北京佳格天地科技有限公司 | 一种时空融合遥感影像对筛选方法 |
CN117173104A (zh) * | 2023-08-04 | 2023-12-05 | 山东大学 | 一种低空无人机图像变化检测方法及*** |
CN117808807A (zh) * | 2024-02-29 | 2024-04-02 | 中国人民解放军国防科技大学 | 光学卫星遥感图像实例级变化检测方法 |
-
2022
- 2022-05-11 CN CN202210509781.1A patent/CN114926511A/zh active Pending
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115170575A (zh) * | 2022-09-09 | 2022-10-11 | 阿里巴巴(中国)有限公司 | 遥感影像变化检测及模型训练的方法及设备 |
CN115170575B (zh) * | 2022-09-09 | 2022-12-23 | 阿里巴巴(中国)有限公司 | 遥感影像变化检测及模型训练的方法及设备 |
CN115761529A (zh) * | 2023-01-09 | 2023-03-07 | 阿里巴巴(中国)有限公司 | 图像处理方法和电子设备 |
CN115861823A (zh) * | 2023-02-21 | 2023-03-28 | 航天宏图信息技术股份有限公司 | 一种基于自监督深度学习的遥感变化检测方法和装置 |
CN117173104A (zh) * | 2023-08-04 | 2023-12-05 | 山东大学 | 一种低空无人机图像变化检测方法及*** |
CN117173104B (zh) * | 2023-08-04 | 2024-04-16 | 山东大学 | 一种低空无人机图像变化检测方法及*** |
CN117115679A (zh) * | 2023-10-25 | 2023-11-24 | 北京佳格天地科技有限公司 | 一种时空融合遥感影像对筛选方法 |
CN117808807A (zh) * | 2024-02-29 | 2024-04-02 | 中国人民解放军国防科技大学 | 光学卫星遥感图像实例级变化检测方法 |
CN117808807B (zh) * | 2024-02-29 | 2024-05-14 | 中国人民解放军国防科技大学 | 光学卫星遥感图像实例级变化检测方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114926511A (zh) | 一种基于自监督学习的高分辨率遥感影像变化检测方法 | |
CN111986099B (zh) | 基于融合残差修正的卷积神经网络的耕地监测方法及*** | |
CN108961235B (zh) | 一种基于YOLOv3网络和粒子滤波算法的缺陷绝缘子识别方法 | |
CN106778605B (zh) | 导航数据辅助下的遥感影像道路网自动提取方法 | |
CN110969088B (zh) | 一种基于显著性检测与深度孪生神经网络的遥感影像变化检测方法 | |
CN110287932B (zh) | 基于深度学习图像语义分割的道路阻断信息提取方法 | |
Prathap et al. | Deep learning approach for building detection in satellite multispectral imagery | |
CN110705457A (zh) | 一种遥感影像建筑物变化检测方法 | |
CN108846835B (zh) | 基于深度可分离卷积网络的图像变化检测方法 | |
CN109255317B (zh) | 一种基于双网络的航拍图像差异检测方法 | |
CN109766936B (zh) | 基于信息传递和注意力机制的图像变化检测方法 | |
CN109934154B (zh) | 一种遥感影像变化检测方法及检测装置 | |
CN109740639B (zh) | 一种风云卫星遥感影像云检测方法、***及电子设备 | |
US11308714B1 (en) | Artificial intelligence system for identifying and assessing attributes of a property shown in aerial imagery | |
CN109271990A (zh) | 一种针对rgb-d图像的语义分割方法及装置 | |
CN112541508A (zh) | 果实分割识别方法及***、果实采摘机器人 | |
CN114092697B (zh) | 注意力融合全局和局部深度特征的建筑立面语义分割方法 | |
CN114494821B (zh) | 基于特征多尺度感知与自适应聚合的遥感影像云检测方法 | |
CN112163588A (zh) | 基于智能进化的异源图像目标检测方法、存储介质及设备 | |
CN113158789B (zh) | 一种遥感图像的目标检测方法、***、装置及介质 | |
CN109886146B (zh) | 基于机器视觉检测的洪灾信息遥感智能采集方法及设备 | |
CN111914804A (zh) | 多角度旋转遥感图像小目标检测方法 | |
CN113989681A (zh) | 遥感影像变化检测方法、装置、电子设备及存储介质 | |
CN113420619A (zh) | 一种遥感影像建筑物提取方法 | |
CN114998251A (zh) | 一种基于联邦学***台地面异常检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |