CN110211138B - 基于置信点的遥感图像分割方法 - Google Patents
基于置信点的遥感图像分割方法 Download PDFInfo
- Publication number
- CN110211138B CN110211138B CN201910494015.0A CN201910494015A CN110211138B CN 110211138 B CN110211138 B CN 110211138B CN 201910494015 A CN201910494015 A CN 201910494015A CN 110211138 B CN110211138 B CN 110211138B
- Authority
- CN
- China
- Prior art keywords
- image
- green
- pixel
- red
- test set
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30181—Earth observation
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于置信点的遥感图像分割方法,主要解决现有技术中高分辨率遥感影像分割精度不高的缺陷。本发明的具体步骤如下:(1)构建卷积神经网络;(2)生成两个训练集;(3)生成两个测试集;(4)对测试集进行地物类别标签预测;(5)标记每个置信点像素;(6)修正建筑物类别;(7)更新植物类别;(8)得到最终的地物类别标签。本发明具有提高植被与建筑物类别精度,不仅对低分辨率的遥感图像有较好的分割效果,而且对高分辨率的遥感图像也具有较好的分割效果。
Description
技术领域
本发明属于图像处理技术领域,更进一步涉及遥感图像处理技术领域中的一种基于置信点的遥感图像分割方法。本发明可用于对卫星获取的高分辨率多波段遥感图像进行分割,得到具有地物类别标签的分割图。
背景技术
遥感图像分割是将遥感图像分成若干个特定的、具有独特性质的区域的技术和过程。目前,工程实践中更多采用U-Net、PSPNet、DeepLab等深度神经网络学习技术。用基于深度学习神经网络的方法分割遥感图像是利用神经网络提取遥感图像特征,经过训练网络来预测每一个像素的类别,从而最终得到具有类别标签的分割图。现有技术的方法对于分辨率较低的公共数据集有较好的分割效果,但是,对于高分辨率的遥感图像,例如WorldView-3卫星遥感图像,效果则不理想。
长安大学在其申请的专利文献“一种基于区域的多特征融合高分辨率遥感影像分割方法”(专利申请号:201610643629.7,公开号:106296680A)中公开了一种基于区域的多特征融合高分辨率遥感影像分割方法。该方法首先分割初始遥感图像,其次计算初始分割图像中每一个分割区域中任一邻域的纹理特征距离、光谱特征距离和形状特征距离,最后应用RAG和NNG方法进行相关区域合并。虽然该方法在分辨率为1米的高分二号遥感图像上分割精度高且执行效率高,但是,该方法仍然存在的不足之处是,该方法采用光谱特征距离、纹理特征距离、形状特征距离来对遥感图像进行分割,没有利用到遥感图像其他波段的信息,导致植被类别分割精度不高。此外,由于建筑物阴影的存在和遮挡问题,导致具体建筑物类别分割精度不高。
海河大学在其申请的专利文献“基于灰度共生矩阵的多波段高分辨率遥感影像分割方法”(专利申请号:201310563019.2,公开号:103578110A)中公开了一种基于灰度共生矩阵的多波段高分辨率遥感影像分割方法。该方法采用降水分水岭变换单独分割每个波段影像,然后叠加各个波段的分割结果。最后,运用基于多波段光谱信息的区域合并策略合并过分割结果中的碎片区域,从而实现影像分割。虽然该方法能够克服过分割及欠分割的现象,分割精度及稳定性较好,但是,该方法仍然存在的不足之处是,由于该方法适用于分辨率为2.5米的中国上海地区的三波段全色-多光谱融合遥感图像上,对分辨率较高的遥感图像普适性不高,此外,由于该方法采用灰度共生矩阵的方法分割遥感图像,未考虑建筑物阴影的存在和遮挡问题,导致具体建筑物类别分割精度不高。。
发明内容
本发明的目的在于针对上述已有技术的不足,提出一种基于置信点的遥感图像分割方法。该方法不仅分割效率较高,而且对于高分辨率的遥感图像尤其是植被与建筑物类别,可以实现较好的分割结果。
实现本发明目的的思路是,先构建两个训练集和两个测试集,搭建LinkNet网络,设置每层参数,进行训练后得到训练后的两个网络,再将两个测试集分别送入训练好的两个网络,通过网络对测试集进行地物类别标签预测,最后通过标记置信点像素、更新植被类别和修正建筑物类别得到遥感图像分割后的地物类别标签。
为了实现上述目的,本发明的具体步骤如下:
(1)构建LinkNet神经网络:
(1a)搭建一个14层的LinkNet神经网络;
(1b)设置LinkNet神经网络中各层的参数;
(2)生成两个训练集:
(2a)从遥感图像数据集中选取至少20000张图像,组成基础训练集,其中选10000张红绿蓝RGB图像,其余的10000张为多光谱图像;基础训练集中的每张图像的每一个像素的地物类别标签为道路、高架桥、建筑物、植被和地面五种地物类别标签中的一种,每张红绿蓝RGB图像对应一个卫星拍摄区域,每张多光谱图像均包含八波段信息,每张多光谱图像的卫星拍摄区域与每张红绿蓝RGB图像的卫星拍摄区域对应相同;
(2b)利用合成方法,将基础训练集中所有的红绿蓝RGB图像合成为增强型红绿蓝RGB图像,作为第一个训练集;
(2c)利用合成方法,将基础训练集中所有的多光谱图像合成为多波段伪彩色图像,作为第二个训练集;
(3)训练神经网络:
(3a)将第一个训练集输入到LinkNet网络中进行训练,得到训练好的第一个分割网络;
(3b)将第二个训练集输入到LinkNet网络中进行训练,得到训练好的第二个分割网络;
(4)生成两个测试集:
(4a)从遥感图像数据集中选取至少6000张图像,组成基础测试集,其中选3000张红绿蓝RGB图像,其余的3000张为多光谱图像;基础测试集中的每张图像的每一个像素的地物类别标签为道路、高架桥、建筑物、植被和地面五种地物类别标签中的一种,每张红绿蓝RGB图像对应一个卫星拍摄区域,每张多光谱图像均包含八波段信息,每张多光谱图像的卫星拍摄区域与每张红绿蓝RGB图像的卫星拍摄区域对应相同;
(4b)利用合成方法,将基础测试集中的红绿蓝RGB图像合成为增强型红绿蓝RGB图像,作为第一个测试集;
(4c)利用合成方法,将基础测试集中的多光谱图像合成为多波段伪彩色图像,作为第二个测试集;
(5)对测试集进行地物类别标签预测:
(5a)将第一个测试集的每一张图像依次输入到第一个分割网络中,输出第一个测试集中每一张图像中的每一个像素的地物类别标签及每一张图像中的每一个像素的地物类别标签概率值;
(5b)将第二个测试集的每一张图像依次输入到第二个分割网络中,输出第二个测试集中每一张图像中的每一个像素的地物类别标签及每一张图像中的每一个像素的地物类别标签概率值;
(6)标记每个置信点像素:
遍历第一个测试集中每张图像中的每个像素;将其中像素的地物类别标签概率值大于0.9的所有的像素均标记为置信点像素;
(7)修正建筑物类别:
遍历第一个测试集中所有地物类别标签为建筑物的每个像素,将与每个像素相邻5×5个像素点范围内存在置信点像素的所有像素的地物类别标签均更改为建筑物,其余的像素的地物类别标签均更改为地面;得到更新后的第一个测试集中每一张图像中的每一个像素的地物类别标签
(8)更新植物类别:
(8a)将第二个测试集中所有类别为植被的像素对应于海岸线波段Coastal的像素值的均值与0.8相乘,得到海岸线波段Coastal的阈值,将第二个测试集中所有类别为植被的像素对应于黄色波段Yellow的像素值的均值与0.8相乘,得到黄色波段Yellow的阈值,将第二个测试集中所有类别为植被的像素对应于近红外二波段NIR2的像素值的均值与0.2相乘,得到近红外二波段NIR2的阈值;
(8b)遍历第二个测试集中每一张图像中的每一个像素,将地物类别标签概率值小于等于0.5、对应于海岸线波段Coastal的像素值小于海岸线波段Coastal的阈值、黄色波段Yellow的像素值小于黄色波段Yellow的阈值、近红外二波段NIR2的像素值大于近红外二波段NIR2的阈值的所有像素的地物类别标签均更新为植被,其余的像素均保持原有的地物类别标签不变;得到更新后的第二个测试集中每一张图像中的每一个像素的地物类别标签;
(9)得到最终的地物类别标签:
(9a)用更新后的第二个测试集中每一张图像中的每一个像素的植被类别标签,替换更新后的第一个测试集中每一张图像中的每一个像素的植被类别标签,得到植被类别替换后的第一个测试集中每一张图像中的每一个像素的地物类别标签;
(9b)植被类别替换后的后的第一个测试集中每一张图像中的每一个像素的地物类别标签,作为遥感图像分割后的地物类别标签。
与现有技术相比,本发明具有如下优点:
第一,由于本发明通过设定海岸线波段Coastal、黄色波段Yellow、近红外二波段NIR2的三个阈值更新分割网络输出的植被的地物类别标签,克服了现有技术采用光谱特征距离、纹理特征距离、形状特征距离来对遥感图像进行分割,导致植被类别分割精度不高的缺陷,使得本发明即使是零散的植被也可以被分割出来,提高了植被类别的分割精度。
第二,由于本发明输入增强型红绿蓝RGB图像和多波段伪彩色图像到LinkNet神经网络进行训练,克服了现有技术对于分辨率较低的公共数据集有较好的分割效果,而对高分辨率的遥感图像普适性不高的缺陷,使得本发明不仅对低分辨率的遥感图像有较好的分割效果,而且对高分辨率的遥感图像也具有较好的分割效果。
第三,由于本发明利用置信点像素修正分割网络输出的建筑物的地物类别标签,克服了现有技术中由于建筑物阴影的存在和遮挡问题导致具体建筑物类别分割精度不高的缺陷,使得本发明提高了建筑物类别的分割精度。
附图说明
图1为本发明的整体流程图。
具体实施方式:
步骤1,构建神经网络。
搭建一个14层的LinkNet神经网络;
14层的LinkNet神经网络的结构依次为:输入层→第1卷积层→第1最大池化层→第1编码器→第2编码器→第3编码器→第4编码器→第4解码器→第3解码器→第2解码器→第1解码器→第1全卷积层→第2卷积层→第2全卷积层;其中,第1编码器的输出连接第1解码器的输入,第2编码器的输出连接第2解码器的输入,第3编码器的输出连接第3解码器的输入。
编码器的结构依次为:输入层→第1编码卷积层→第2编码卷积层→第3编码卷积层→第4编码卷积层;其中,输入层连接第2编码卷积层的输出,第3编码卷积层的输入连接第4编码卷积层的输出;解码器结构为:输入层→第1解码卷积层→第1解码全卷积层→第2解码卷积层。
设置LinkNet神经网络中各层的参数;
设置LinkNet神经网络中各层的参数如下:将第1卷积层的卷积核大小设置为7*7,步长设置为2;将第1最大池化的层池化窗口大小设置为3*3,步长设置为2;将第1、2全卷积层的卷积核大小依次设置为3*3、2*2,步长均设置为2;将第2卷积层的卷积核大小设置为3*3,步长设置为1。
其中,编码器的参数设置如下:将第1、2、3、4编码卷积层的卷积核大小均设置为3*3,步长依次设置为2、1、1、1;解码器的参数如下:将第1、2解码卷积层的卷积核大小均设置为1*1,步长设置为1;将第1解码全卷积层的卷积核大小设置为3*3,步长设置为2。
步骤2,生成两个训练集。
从遥感图像数据集中选取至少20000张图像,组成基础训练集,其中选10000张红绿蓝RGB图像,其余的10000张为多光谱图像;基础训练集中的每张图像的每一个像素的地物类别标签为道路、高架桥、建筑物、植被和地面五种地物类别标签中的一种,每张红绿蓝RGB图像对应一个卫星拍摄区域,每张多光谱图像均包含八波段信息,每张多光谱图像的卫星拍摄区域与每张红绿蓝RGB图像的卫星拍摄区域对应相同;
八波段信息是指:海岸线波段Coastal、蓝色波段Blue、绿色波段Green、黄色波段Yellow、红色波段Red、红边波段Red edge、近红外一波段NIR1、近红外二波段NIR2。
利用合成方法,将基础训练集中所有的红绿蓝RGB图像合成为增强型红绿蓝RGB图像,作为第一个训练集;
增强型红绿蓝RGB图像结合了原始的红绿蓝RGB图像与近红外二NIR2波段的信息,增强了遥感图像的对比度和细节纹理等信息,使得其对地面、楼房、高架路等类别的检测效果较好。
利用合成方法,将基础训练集中所有的多光谱图像合成为多波段伪彩色图像,作为第二个训练集。
多波段伪彩色图像使用多光谱图像中海岸线Coastal波段、黄色Yellow波段与近红外二NIR2三个波段进行组合,凸显了植被的类别信息。
合成方法的步骤如下:
第1步,按照下式,将基础训练集或基础测试集中的每一张红绿蓝RGB图像中的绿色通道与所对应的近红外二NIR2波段信息,合成该张红绿蓝RGB图像的增强型红绿蓝RGB图像的绿色通道:
N=G*w+R*(1-w)
其中,N表示增强型红绿蓝RGB图像的绿色通道,G表示基础训练集或基础测试集的红绿蓝RGB图像的绿色通道,*表示相乘操作,w表示增强型红绿蓝RGB图像的绿色通道和基础训练集或基础测试集中的红绿蓝RGB图像的绿色通道加权的权重,用于控制增强红绿蓝RGB图像的程度,该权重值为0.8,R表示基础训练集或基础测试集中的红绿蓝RGB图像所对应的多光谱图像中的近红外二NIR2波段。
第2步,用每一张增强型红绿蓝RGB图像的绿色通道替换其在基础训练集或基础测试集中所对应的红绿蓝RGB图像中的绿色通道,得到该张红绿蓝RGB图像更新后的增强型红绿蓝RGB图像。
第3步,将所有的增强型红绿蓝RGB图像组成第一个训练集或第一个测试集。
第4步,将每一张多光谱图像中的海岸线波段Coastal、黄色波段Yellow与近红外二波段NIR2三个波段的值分别归一化,将归一化后的三个值分别乘以255,将其乘积分别替换该张多光谱图像所对应的基础训练集或基础测试集中红绿蓝RGB图像的红色通道R、绿色通道G、蓝色通道B,将更新后的红R、绿G、蓝B三个通道组成该张多波段伪彩色图像。
第5步,将所有的多波段伪彩色图像组成第二个训练集或第二个测试集;
步骤3,训练神经网络。
将第一个训练集输入到LinkNet网络中进行训练,得到训练好的第一个分割网络;
将第二个训练集输入到LinkNet网络中进行训练,得到训练好的第二个分割网络。
LinkNet是2018年NIPS论文《LinkNet:Exploiting Encoder Representationsfor Efficient Semantic Segmentation》所提出的网络结构,主要侧重语义分割的速度问题,同时获得了较好的分割效果。
步骤4,生成两个测试集。
从遥感图像数据集中选取至少6000张图像,组成基础测试集,其中选3000张红绿蓝RGB图像,其余的3000张为多光谱图像;基础测试集中的每张图像的每一个像素的地物类别标签为道路、高架桥、建筑物、植被和地面五种地物类别标签中的一种,每张红绿蓝RGB图像对应一个卫星拍摄区域,每张多光谱图像均包含八波段信息,每张多光谱图像的卫星拍摄区域与每张红绿蓝RGB图像的卫星拍摄区域对应相同;
利用合成方法,将基础测试集中的红绿蓝RGB图像合成为增强型红绿蓝RGB图像,作为第一个测试集;
利用合成方法,将基础测试集中的多光谱图像合成为多波段伪彩色图像,作为第二个测试集;
合成方法如步骤2中所述。
步骤5,对测试集进行地物类别标签预测。
将第一个测试集的每一张图像依次输入到第一个分割网络中,输出第一个测试集中每一张图像中的每一个像素的地物类别标签及每一张图像中的每一个像素的地物类别标签概率值;
将第二个测试集的每一张图像依次输入到第二个分割网络中,输出第二个测试集中每一张图像中的每一个像素的地物类别标签及每一张图像中的每一个像素的地物类别标签概率值;
地物类别标签概率值是指,输入每一张图像到分割网络,分割网络输出每张图像每个像素分别对应道路、高架桥、建筑物、植被和地面的五个输出值,对该五个值进行归一化操作,取归一化后五个值中的最大值,将该最大值作为该像素的地物类别标签概率值。
步骤6,标记每个置信点像素。
遍历第一个测试集中每张图像中的每个像素;将其中像素的地物类别标签概率值大于0.9的所有的像素均标记为置信点像素。
步骤7,修正建筑物类别。
遍历第一个测试集中所有地物类别标签为建筑物的每个像素,将与每个像素相邻5×5个像素点范围内存在置信点像素的所有像素的地物类别标签均更改为建筑物,其余的像素的地物类别标签均更改为地面;得到更新后的第一个测试集中每一张图像中的每一个像素的地物类别标签;
由于卫星拍摄时太阳高度角和拍摄角度不同,建筑物周围会出现阴影和遮挡问题,导致这些困难区域的分割结果不够精确,所以分割网络输出的分割结果中,会在这些区域形成较为零散的分割结果,因此通过置信点像素来修正建筑物的类别。
步骤8,更新植物类别。
将第二个测试集中所有类别为植被的像素对应于海岸线波段Coastal的像素值的均值与0.8相乘,得到海岸线波段Coastal的阈值,将第二个测试集中所有类别为植被的像素对应于黄色波段Yellow的像素值的均值与0.8相乘,得到黄色波段Yellow的阈值,将第二个测试集中所有类别为植被的像素对应于近红外二波段NIR2的像素值的均值与0.2相乘,得到近红外二波段NIR2的阈值;
遍历第二个测试集中每一张图像中的每一个像素,将地物类别标签概率值小于等于0.5、对应于海岸线波段Coastal的像素值小于海岸线波段Coastal的阈值、黄色波段Yellow的像素值小于黄色波段Yellow的阈值、近红外二波段NIR2的像素值大于近红外二波段NIR2的阈值的所有像素的地物类别标签均更新为植被,其余的像素均保持原有的地物类别标签不变;得到更新后的第二个测试集中每一张图像中的每一个像素的地物类别标签;
由于只采用三个波段的阈值来分割植被区域可能会受噪声影响,比如与植被有相似颜色的目标等,所以引入地物类别标签概率值来避免此问题的发生。
步骤9,得到最终的地物类别标签。
用更新后的第二个测试集中每一张图像中的每一个像素的植被类别标签,替换更新后的第一个测试集中每一张图像中的每一个像素的植被类别标签,得到植被类别替换后的第一个测试集中每一张图像中的每一个像素的地物类别标签;
植被类别替换后的后的第一个测试集中每一张图像中的每一个像素的地物类别标签,作为遥感图像分割后的地物类别标签。
由于第二个测试集中每一张图像中的每一个像素的植被类别分割精度较高,而第一个测试集中每一张图像中的每一个像素对其他类别,如地面、建筑、高架桥等的分割效果较好,所以对两个分割结果进行融合,得到最终精确的遥感图像分割后的地物类别标签。
Claims (6)
1.一种基于置信点的遥感图像分割方法,其特征在于,利用神经网络预测地物类别标签,融合根据多视图与双数据模型所获得的类别标签,利用置信点修正分割图中的建筑物类别,该方法的步骤包括如下:
(1)构建LinkNet神经网络:
(1a)搭建一个14层的LinkNet神经网络;
(1b)设置LinkNet神经网络中各层的参数;
(2)生成两个训练集:
(2a)从遥感图像数据集中选取至少20000张图像,组成基础训练集,其中选10000张红绿蓝RGB图像,其余的10000张为多光谱图像;基础训练集中的每张图像的每一个像素的地物类别标签为道路、高架桥、建筑物、植被和地面五种地物类别标签中的一种,每张红绿蓝RGB图像对应一个卫星拍摄区域,每张多光谱图像均包含八波段信息,每张多光谱图像的卫星拍摄区域与每张红绿蓝RGB图像的卫星拍摄区域对应相同;
(2b)利用合成方法,将基础训练集中所有的红绿蓝RGB图像合成为增强型红绿蓝RGB图像,作为第一个训练集;
(2c)利用合成方法,将基础训练集中所有的多光谱图像合成为多波段伪彩色图像,作为第二个训练集;
(3)训练神经网络:
(3a)将第一个训练集输入到LinkNet网络中进行训练,得到训练好的第一个分割网络;
(3b)将第二个训练集输入到LinkNet网络中进行训练,得到训练好的第二个分割网络;
(4)生成两个测试集:
(4a)从遥感图像数据集中选取至少6000张图像,组成基础测试集,其中选3000张红绿蓝RGB图像,其余的3000张为多光谱图像;基础测试集中的每张图像的每一个像素的地物类别标签为道路、高架桥、建筑物、植被和地面五种地物类别标签中的一种,每张红绿蓝RGB图像对应一个卫星拍摄区域,每张多光谱图像均包含八波段信息,每张多光谱图像的卫星拍摄区域与每张红绿蓝RGB图像的卫星拍摄区域对应相同;
(4b)利用合成方法,将基础测试集中的红绿蓝RGB图像合成为增强型红绿蓝RGB图像,作为第一个测试集;
(4c)利用合成方法,将基础测试集中的多光谱图像合成为多波段伪彩色图像,作为第二个测试集;
(5)对测试集进行地物类别标签预测:
(5a)将第一个测试集的每一张图像依次输入到第一个分割网络中,输出第一个测试集中每一张图像中的每一个像素的地物类别标签及每一张图像中的每一个像素的地物类别标签概率值;
(5b)将第二个测试集的每一张图像依次输入到第二个分割网络中,输出第二个测试集中每一张图像中的每一个像素的地物类别标签及每一张图像中的每一个像素的地物类别标签概率值;
(6)标记每个置信点像素:
遍历第一个测试集中每张图像中的每个像素;将其中像素的地物类别标签概率值大于0.9的所有的像素均标记为置信点像素;
(7)修正建筑物类别:
遍历第一个测试集中所有地物类别标签为建筑物的每个像素,将与每个像素相邻5×5个像素点范围内存在置信点像素的所有像素的地物类别标签均更改为建筑物,其余的像素的地物类别标签均更改为地面;得到更新后的第一个测试集中每一张图像中的每一个像素的地物类别标签;
(8)更新植物类别:
(8a)将第二个测试集中所有类别为植被的像素对应于海岸线波段Coastal的像素值的均值与0.8相乘,得到海岸线波段Coastal的阈值,将第二个测试集中所有类别为植被的像素对应于黄色波段Yellow的像素值的均值与0.8相乘,得到黄色波段Yellow的阈值,将第二个测试集中所有类别为植被的像素对应于近红外二波段NIR2的像素值的均值与0.2相乘,得到近红外二波段NIR2的阈值;
(8b)遍历第二个测试集中每一张图像中的每一个像素,将地物类别标签概率值小于等于0.5、对应于海岸线波段Coastal的像素值小于海岸线波段Coastal的阈值、黄色波段Yellow的像素值小于黄色波段Yellow的阈值、近红外二波段NIR2的像素值大于近红外二波段NIR2的阈值的所有像素的地物类别标签均更新为植被,其余的像素均保持原有的地物类别标签不变;得到更新后的第二个测试集中每一张图像中的每一个像素的地物类别标签;
(9)得到最终的地物类别标签:
(9a)用更新后的第二个测试集中每一张图像中的每一个像素的植被类别标签,替换更新后的第一个测试集中每一张图像中的每一个像素的植被类别标签,得到植被类别替换后的第一个测试集中每一张图像中的每一个像素的地物类别标签;
(9b)植被类别替换后的第一个测试集中每一张图像中的每一个像素的地物类别标签,作为遥感图像分割后的地物类别标签。
2.根据权利要求1所述的基于置信点的遥感图像分割方法,其特征在于,步骤(1a)中所述14层的LinkNet神经网络的结构依次为:输入层→第1卷积层→第1最大池化层→第1编码器→第2编码器→第3编码器→第4编码器→第4解码器→第3解码器→第2解码器→第1解码器→第1全卷积层→第2卷积层→第2全卷积层;其中,第1编码器的输出连接第1解码器的输入,第2编码器的输出连接第2解码器的输入,第3编码器的输出连接第3解码器的输入;
编码器的结构依次为:输入层→第1编码卷积层→第2编码卷积层→第3编码卷积层→第4编码卷积层;其中,输入层连接第2编码卷积层的输出,第3编码卷积层的输入连接第4编码卷积层的输出;解码器结构为:输入层→第1解码卷积层→第1解码全卷积层→第2解码卷积层。
3.根据权利要求1所述的基于置信点的遥感图像分割方法,其特征在于,步骤(1b)中所述设置LinkNet神经网络中各层的参数如下:将第1卷积层的卷积核大小设置为7*7,步长设置为2;将第1最大池化的层池化窗口大小设置为3*3,步长设置为2;将第1、2全卷积层的卷积核大小依次设置为3*3、2*2,步长均设置为2;将第2卷积层的卷积核大小设置为3*3,步长设置为1;
其中,编码器的参数设置如下:将第1、2、3、4编码卷积层的卷积核大小均设置为3*3,步长依次设置为2、1、1、1;解码器的参数如下:将第1、2解码卷积层的卷积核大小均设置为1*1,步长设置为1;将第1解码全卷积层的卷积核大小设置为3*3,步长设置为2。
4.根据权利要求1所述的基于置信点的遥感图像分割方法,其特征在于,步骤(2a)、步骤(4a)中所述的八波段信息是指:海岸线波段Coastal、蓝色波段Blue、绿色波段Green、黄色波段Yellow、红色波段Red、红边波段Rededge、近红外一波段NIR1、近红外二波段NIR2。
5.根据权利要求1所述的基于置信点的遥感图像分割方法,其特征在于,步骤(2b)、步骤(2c)、步骤(4b)、步骤(4c)中所述的合成方法的步骤如下:
第一步,按照下式,将基础训练集或基础测试集中的每一张红绿蓝RGB图像中的绿色通道与所对应的近红外二NIR2波段信息,合成该张红绿蓝RGB图像的增强型红绿蓝RGB图像的绿色通道:
N=G*w+R*(1-w)
其中,N表示增强型红绿蓝RGB图像的绿色通道,G表示基础训练集或基础测试集的红绿蓝RGB图像的绿色通道,*表示相乘操作,w表示增强型红绿蓝RGB图像的绿色通道和基础训练集或基础测试集中的红绿蓝RGB图像的绿色通道加权的权重,该权重值为0.8,R表示基础训练集或基础测试集中的红绿蓝RGB图像所对应的多光谱图像中的近红外二NIR2波段;
第二步,用每一张增强型红绿蓝RGB图像的绿色通道替换其在基础训练集或基础测试集中所对应的红绿蓝RGB图像中的绿色通道,得到该张红绿蓝RGB图像更新后的增强型红绿蓝RGB图像;
第三步,将所有的增强型红绿蓝RGB图像组成第一个训练集或第一个测试集;
第四步,将每一张多光谱图像中的海岸线波段Coastal、黄色波段Yellow与近红外二波段NIR2三个波段的值分别归一化,将归一化后的三个值分别乘以255,将其乘积分别替换该张多光谱图像所对应的基础训练集或基础测试集中红绿蓝RGB图像的红色通道R、绿色通道G、蓝色通道B,将更新后的红R、绿G、蓝B三个通道组成该张多波段伪彩色图像;
第五步,将所有的多波段伪彩色图像组成第二个训练集或第二个测试集。
6.根据权利要求1所述的基于置信点的遥感图像分割方法,其特征在于,步骤(5a)、步骤(5b)中所述的地物类别标签概率值是指,输入每一张图像到分割网络,分割网络输出每张图像每个像素分别对应道路、高架桥、建筑物、植被和地面的五个输出值,对该五个值进行归一化操作,取归一化后五个值中的最大值,将该最大值作为该像素的地物类别标签概率值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910494015.0A CN110211138B (zh) | 2019-06-08 | 2019-06-08 | 基于置信点的遥感图像分割方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910494015.0A CN110211138B (zh) | 2019-06-08 | 2019-06-08 | 基于置信点的遥感图像分割方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110211138A CN110211138A (zh) | 2019-09-06 |
CN110211138B true CN110211138B (zh) | 2022-12-02 |
Family
ID=67791544
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910494015.0A Active CN110211138B (zh) | 2019-06-08 | 2019-06-08 | 基于置信点的遥感图像分割方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110211138B (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111401275B (zh) * | 2020-03-20 | 2022-11-25 | 内蒙古工业大学 | 一种用于识别草地边缘的信息处理方法和装置 |
CN112348823A (zh) * | 2020-09-22 | 2021-02-09 | 陕西土豆数据科技有限公司 | 一种面向对象的高分辨率遥感影像分割算法 |
CN112800915B (zh) * | 2021-01-20 | 2023-06-27 | 北京百度网讯科技有限公司 | 建筑物变化检测方法、装置、电子设备以及存储介质 |
CN113139550B (zh) * | 2021-03-29 | 2022-07-12 | 山东科技大学 | 一种基于深度语义分割网络的遥感影像海岸线提取方法 |
CN113284171B (zh) * | 2021-06-18 | 2023-04-07 | 成都天巡微小卫星科技有限责任公司 | 一种基于卫星遥感立体成像对的植被高度分析方法及*** |
CN113538280B (zh) * | 2021-07-20 | 2022-03-04 | 江苏天汇空间信息研究院有限公司 | 基于矩阵二值化的遥感影像去除彩线和残缺影像拼接方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103971115A (zh) * | 2014-05-09 | 2014-08-06 | 中国科学院遥感与数字地球研究所 | 一种基于NDVI和PanTex指数的高分辨率遥感影像新增建设用地图斑自动提取方法 |
CN105427309A (zh) * | 2015-11-23 | 2016-03-23 | 中国地质大学(北京) | 面向对象高空间分辨率遥感信息提取的多尺度分层处理方法 |
CN106683112A (zh) * | 2016-10-10 | 2017-05-17 | 中国交通通信信息中心 | 一种基于高分辨率图像的道路路域建筑物变化提取方法 |
CN106709948A (zh) * | 2016-12-21 | 2017-05-24 | 浙江大学 | 一种基于超像素分割的快速双目立体匹配方法 |
CN107392130A (zh) * | 2017-07-13 | 2017-11-24 | 西安电子科技大学 | 基于阈值自适应和卷积神经网络的多光谱图像分类方法 |
CN107392925A (zh) * | 2017-08-01 | 2017-11-24 | 西安电子科技大学 | 基于超像素编码和卷积神经网络的遥感影像地物分类方法 |
CN108573276A (zh) * | 2018-03-12 | 2018-09-25 | 浙江大学 | 一种基于高分辨率遥感影像的变化检测方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9704068B2 (en) * | 2012-06-22 | 2017-07-11 | Google Inc. | System and method for labelling aerial images |
-
2019
- 2019-06-08 CN CN201910494015.0A patent/CN110211138B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103971115A (zh) * | 2014-05-09 | 2014-08-06 | 中国科学院遥感与数字地球研究所 | 一种基于NDVI和PanTex指数的高分辨率遥感影像新增建设用地图斑自动提取方法 |
CN105427309A (zh) * | 2015-11-23 | 2016-03-23 | 中国地质大学(北京) | 面向对象高空间分辨率遥感信息提取的多尺度分层处理方法 |
CN106683112A (zh) * | 2016-10-10 | 2017-05-17 | 中国交通通信信息中心 | 一种基于高分辨率图像的道路路域建筑物变化提取方法 |
CN106709948A (zh) * | 2016-12-21 | 2017-05-24 | 浙江大学 | 一种基于超像素分割的快速双目立体匹配方法 |
CN107392130A (zh) * | 2017-07-13 | 2017-11-24 | 西安电子科技大学 | 基于阈值自适应和卷积神经网络的多光谱图像分类方法 |
CN107392925A (zh) * | 2017-08-01 | 2017-11-24 | 西安电子科技大学 | 基于超像素编码和卷积神经网络的遥感影像地物分类方法 |
CN108573276A (zh) * | 2018-03-12 | 2018-09-25 | 浙江大学 | 一种基于高分辨率遥感影像的变化检测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110211138A (zh) | 2019-09-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110211138B (zh) | 基于置信点的遥感图像分割方法 | |
CN109558806B (zh) | 高分遥感图像变化的检测方法 | |
CN111274865A (zh) | 一种基于全卷积神经网络的遥感图像云检测方法及装置 | |
CN108647568B (zh) | 基于全卷积神经网络的草地退化自动提取方法 | |
CN108416784B (zh) | 城市建成区边界快速提取方法、装置及终端设备 | |
CN110866879B (zh) | 一种基于多密度雨纹感知的图像去雨方法 | |
CN111832518B (zh) | 基于时空融合的tsa遥感影像土地利用方法 | |
CN110751727A (zh) | 一种基于Landsat长时间序列的合成图像构建方法 | |
CN110717921B (zh) | 改进型编码解码结构的全卷积神经网络语义分割方法 | |
CN114494821B (zh) | 基于特征多尺度感知与自适应聚合的遥感影像云检测方法 | |
CN109961105B (zh) | 一种基于多任务深度学习的高分辨率遥感影像分类方法 | |
CN114005042A (zh) | 基于阴影补偿和U-net的遥感影像城市建筑提取方法 | |
CN116343053B (zh) | 基于光学遥感影像和sar遥感影像融合的固废自动提取方法 | |
CN109060813A (zh) | 基于图像优化分类的土石料级配自动检测方法 | |
CN102063700A (zh) | 卫星遥感图像生成方法及其*** | |
Van de Voorde et al. | Extraction of land use/land cover related information from very high resolution data in urban and suburban areas | |
CN1489111A (zh) | 基于局部统计特性和彩色空间变换的遥感影像融合方法 | |
CN111539965A (zh) | 协同多源信息的城市地表水国产高分遥感自适应提取方法 | |
CN115205713A (zh) | 一种无人机遥感图像阴影区景物颜色与纹理细节恢复方法 | |
CN107507151B (zh) | 一种多光谱遥感图像真实色彩还原方法及*** | |
CN115527027A (zh) | 一种基于多特征融合机制的遥感影像地物分割方法 | |
CN102222235A (zh) | 基于对象集成高度信息的面向对象的高光谱分类处理方法 | |
CN113705538A (zh) | 基于深度学习的高分遥感影像道路变化检测装置及方法 | |
CN107564024B (zh) | 基于单侧聚集线段的sar图像聚集区域提取方法 | |
CN116682026A (zh) | 一种智能深度学习环境遥感*** |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |