CN112183432A - 一种基于中分辨率sar图像的建筑区提取方法以及*** - Google Patents
一种基于中分辨率sar图像的建筑区提取方法以及*** Download PDFInfo
- Publication number
- CN112183432A CN112183432A CN202011084022.2A CN202011084022A CN112183432A CN 112183432 A CN112183432 A CN 112183432A CN 202011084022 A CN202011084022 A CN 202011084022A CN 112183432 A CN112183432 A CN 112183432A
- Authority
- CN
- China
- Prior art keywords
- building
- extraction
- extraction network
- building area
- module
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/176—Urban or other man-made structures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2148—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本公开涉及一种基于中分辨率SAR图像的建筑区提取方法以及***,首先对所有SAR图像进行预处理,根据预处理后的SAR图像制作多类别建筑的像素级标记样本,然后构建包括基于注意力机制的特征提取网络和多尺度金字塔结构的金字塔多尺度城市提取网络的建筑区提取网络,使用训练数据集和测试数据集对网络进行训练和测试,并进行网络优化,最后将预处理后的SAR图像输入建筑区提取网络得到初步提取结果,对初步提取的建筑区进行后处理,对提取结果进行优化,提高了建筑区提取的精度,有效去除植被等非建筑地物的影响。
Description
技术领域
本公开涉及图像处理领域,更具体地,涉及一种基于中分辨率SAR图像的建筑区提取方法以及***。
背景技术
城市化现已成为影响世界大多公民的全球趋势。随着城市化进程的加快,获取准确、及时的城市信息对于城市风险评估、基础设施规划、城市蔓延、人口估计、环境保护以及城市可持续发展至关重要。
卫星遥感已被广泛认为是在大范围内获取人类居住区信息的最经济可行的方法。以前的区域或全球土地覆盖产品多是基于时间序列光学卫星数据,这些土地覆盖产品的提取效果总体上是可观的,区域或全球城市范围已经由一系列数据集和算法绘制,但城市区域的提取结果尚不能满足城市变化检测的需要。由于云雨天气造成数据可获取性低,利用光学数据进行区域或全球城市制图仍然是一个巨大的挑战。
与光学数据相比,SAR数据全天时、全天候的可获取性和独特的地物信息使其具有对地表观测的优势,越来越多地被应用于全球城市范围的提取。2012年德国DLR的Esch研究团队通过实验验证了高分辨率X波段SAR数据在自动绘制人类居住区域方面的应用潜力,并发布了城市足迹处理器(UFP),基于TanDEM-X任务(TDM)开发的全新的无监督和全自动分类***。之后,受到几项研究结果的启发,该团队在原有的***中添加一个自动编辑模块来优化和修改UFP***,消除误差;该方法随后在全球范围内应用,生产了空间分辨率为12米的全球城市足迹(GUF)数据集。2013年Gamba和Lisini等人基于分辨率75m的ENVISAT ASAR宽幅模式数据,开发了一种快速高效的方法来提取全球城市范围,实验表明其提取结果比现有的全球土地利用数据集(包括GlobCover 2009)更为准确。为了评估ENVISAT SAR数据在全球城市区提取的应用潜力,2014年Ban等人开发了KTH-Pavia城市提取器,使用ENVISATASAR 30m数据有效地提取了中心城市和小城镇。2015年Jacob和Ban等人利用Sentinel-1ASAR数据对KTH-Pavia城市提取器进行城市范围提取评价,初步结果认为Sentinel-1A条带模式非常适合城市提取,精确率达到83%以上。Cao等人将空间指数和纹理特征以及Sentinel-1SAR数据的强度引入到种子选择过程中,成功提取出中国城市建成区。
基于SAR数据进行城市区域提取的传统算法主要有基于纹理特征和强度的阈值法、支持向量机(SVM)、神经网络等。近年来,深度学***顶建筑顶部散射回波较弱,在SAR图像中仅显示出轮廓。中国农村区域,一些较小的村落,后向散射值较低,容易产生漏检。(2)错分误差。SAR图像像素间具有空间相关性,景观的基本物理结构与建筑区非常相似,譬如分散的树林,在稻田或湿地与稀疏植被混合的情况下,也可能出现高后向散射值;其次,一些桥梁和船舶的后向散射值也较大,容易造成误分。
因此,为实现复杂区域建筑区高精度制图,需要获取建筑区丰富的深层纹理特征信息,同时还需要网络具备对非常小或非常大的城市区域的提取性能。
发明内容
提供了本公开以解决现有技术中存在的上述问题。本公开提出了一种结合基于注意力机制的特征提取网络和多尺度金字塔结构的金字塔多尺度城市提取网络的建筑区提取网络。基于注意力机制的特征提取网络将注意力放到主要目标上,有效提高了目标提取和分类的精度;金字塔多尺度城市提取网络并行考虑了多个感受野下的目标特征,适合多尺度建筑区提取。此外,针对像素级分类中正负样本占比不均衡问题,本公开把Focal Loss引入到分类器中,替换原有的交叉熵损失函数,进一步提高了分类的精度。
根据本公开的第一方面,提供了一种基于中分辨率SAR图像的建筑区提取方法,所述提取方法包括:
S1.建立多类别建筑区的像素级标记样本;
S2.建立建筑区提取网络,其中所述建筑区提取网络包括基于注意力机制的特征提取网络和多尺度金字塔结构的金字塔多尺度城市提取网络;
S3.对所述建筑区提取网络进行训练和测试,并进行网络优化;
S4.将预处理后的SAR图像输入优化后的建筑区提取网络,得到初步提取的建筑区;
S5.对所述初步提取的建筑区进行后处理,对提取结果进行优化。
根据本公开的第二方面,提供了一种基于中分辨率SAR图像的建筑区提取***,包括样本建立模块、建筑区提取网络建立模块、优化模块、初步提取模块和后处理模块:
所述样本建立模块:用于建立多类别建筑区的像素级标记样本;
所述建筑区提取网络建立模块:用于建立建筑区提取网络,其中所述建筑区提取网络包括基于注意力机制的特征提取网络模块和多尺度金字塔结构的金字塔多尺度城市提取网络模块;
所述优化模块:用于对所述建筑区提取网络进行训练和测试,并进行网络优化;
所述初步提取模块:用于将预处理后的SAR图像输入优化后的建筑区提取网络,得到初步提取的建筑区;
所述后处理模块:用于对所述初步提取的建筑区进行后处理,对提取结果进行优化。
根据本公开的第三方面,提供一种非易失性计算机存储介质,所述存储介质上存储有计算机程序,所述处理器在执行所述存储介质上的所述计算机程序时实现上述基于中分辨率SAR图像的建筑区提取方法中的步骤。
本公开在建筑区提取网络训练过程中,建立的多类别建筑区的像素级标记样本使得网络很好的学习多种建筑区的纹理、强度和空间关系特征。本公开结合基于注意力机制的特征提取网络和多尺度金字塔结构的金字塔多尺度城市提取网络作为建筑区提取网络,多尺度输入层使得网络充分学习SAR图像中的建筑区特征,使用金字塔多尺度城市提取网络能够提取建筑区的多尺度特征,深层和多尺度特征的结合提高了建筑区提取的精度,而解码器部分的注意力门控模块将注意力集中在了建筑区目标的提取和识别,进一步提高了提取的精度。本公开还结合光学数据丰富的地物光谱信息,有效去除植被等非建筑地物的影响,进一步提高了提取的精度。
附图说明
在不一定按比例绘制的附图中,相同的附图标记可以在不同的视图中描述相似的部件。具有字母后缀或不同字母后缀的相同附图标记可以表示相似部件的不同实例。附图大体上通过举例而不是限制的方式示出各种实施例,并且与说明书以及权利要求书一起用于对所公开的实施例进行说明。在适当的时候,在所有附图中使用相同的附图标记指代同一或相似的部分。这样的实施例是例证性的,而并非旨在作为本装置或方法的穷尽或排他实施例。
图1示出了根据本公开实施例的基于中分辨率SAR图像的建筑区提取方法的流程图;
图2示出了根据本公开实施例的建筑区提取网络的结构示意图;
图3示出了根据本公开实施例的金字塔多尺度城市提取网络的结构示意图;
图4示出了根据本公开实施例的基于中分辨率SAR图像的建筑区提取***的示意图;
图5示出了根据本公开实施例的样本建立模块的示意图;
图6示出了根据本公开实施例的基于注意力机制的特征提取网络模块的示意图;
图7示出了根据本公开实施例的金字塔多尺度城市提取网络模块的示意图;
图8示出了根据本公开实施例的优化模块的示意图;
图9示出了根据本公开的四个区域的城市区域制图结果;
图10示出了根据本公开提取的四个区域的建筑区结果;
图11示出了根据本公开的四个区域提取结果与GUF产品的对比结果;
图12示出了根据本公开提取的北京市中心城区与GUF产品的对比结果;
图13示出了根据本公开提取的漯河市区和郊区与GUF产品的对比结果;
图14示出了根据本公开的提取结果与光学产品的对比结果;
图15示出了根据本公开提取的城市区结果与Attention U-Net和Residual U-Net的对比结果;以及
图16示出了根据本公开实施例的Sentinel-1和ALOS-2/PALSAR-2数据的提取结果。
具体实施方式
为使本领域技术人员更好的理解本公开的技术方案,下面结合附图和具体实施方式对本公开作详细说明。下面结合附图和具体实施例对本公开的实施例作进一步详细描述,但不作为对本公开的限定。本文中所描述的各个步骤,如果彼此之间没有前后关系的必要性,则本文中作为示例对其进行描述的次序不应视为限制,本领域技术人员应知道可以对其进行顺序调整,只要不破坏其彼此之间的逻辑性导致整个流程无法实现即可。
图1示出了根据本公开实施例的基于中分辨率SAR图像的建筑区提取方法的流程图。如图1所示,包括以下步骤:
S1.建立多类别建筑区的像素级标记样本;
在SAR图像中,中心城区的写字楼、商场和高层住宅区等建筑物较高,建筑物形成的叠掩区较宽,建筑物总体表现的回波特性较强,SAR图像中的这类建筑区的后向散射值较高,易与非建筑区分开;低矮密集分布的建筑区,如城中村等,建筑物总体表现的回波特性较弱,不易与非建筑区分开。而厂房等平顶建筑,由于平顶主要发生单次散射,因此散射回波较弱,在SAR图像中只表现出轮廓。总体来说,各个城市的城市分布具有多尺度特性,中心城区建筑区成片分布,郊区建筑区规模小且分散。但不同城市受地形、历史等因素的影响,建筑的空间布局还是存在一定差异。一些城市有较多的厂房和城中村分布;部分城市地形起伏较大,建筑多沿着道路和河流分布。而有些城市中存在较小的民区且散乱分布在平原上。
本公开设计了一个包含城市中心区域、山区村落、平原村落、城中村等的多类别建筑区的像素级样本标记策略如下:
S11.对所有SAR图像进行辐射定标、对比度增强和地理编码预处理;
建筑物的性质、高度和规模的不同都会导致SAR图像中散射特性的差异。高楼大厦与低矮建筑在回波强度存在很大差异,建筑区域的规模差异使得SAR图像中建筑区表征为多尺度性,此外,植被、道路、山体当在某些成像条件下与建筑的散射特性也有相似性。为了提高准确性,需要对图片进行预处理。
S12.根据预处理后的SAR图像制作多类别建筑的像素级标记样本,并将样本图像切割成n×n大小的切片,在切片制作过程中设置多个像素的重叠区域使得面积较小的建筑的边界不被破坏;
本公开将样本图像切割成256×256大小的切片,在对所述样本进行切割时,面积较小的建筑的边界容易被破坏,因此在切片制作过程中设置30个像素的重叠区域,保证面积较小的建筑的边界不被破坏,从而提高样本质量。
S13.将所述样本中的残缺切片剔除;
将所述样本中残缺切片剔除,以保证样本质量,例如SAR图像的边缘,包含较少的建筑信息,这样的切片需剔除,从而提高分类准确性。
S14.确定切片中是否包含建筑区目标,若是则为正样本,若否则为负样本,将所述正样本和负样本分别存放在不同的子集中;
根据研究区域实际情况,平原和沿海地势平坦区域,建筑区与非建筑区可区分度高,样本集中这两类样本均为正样本;而山区建筑样本包含正样本和负样本,可以保证建筑区提取网络充分学习建筑特征和山体特征,并能精确将其区分开,从而提高建筑区提取网络的分类结果的准确性。
S2.建立建筑区提取网络,其中所述建筑区提取网络包括基于注意力机制的特征提取网络和多尺度金字塔结构的金字塔多尺度城市提取网络;
本公开提出了一种结合基于注意力机制的特征提取网络和多尺度金字塔结构的金字塔多尺度城市提取网络的建筑区提取网络。所述基于注意力机制的特征提取网络用于特征提取和分类,将注意力放到主要目标上,有效提高了目标提取和分类的精度;所述金字塔多尺度城市提取网络用于特征的深层次多尺度的提取,并行考虑了多个感受野下的目标特征,适合多尺度建筑区提取。
S3.对所述建筑区提取网络进行训练和测试,并进行网络优化;
本公开采用多个数据集对建筑区提取网络进行训练和测试,不断进行迭代直至最优,提高了目标提取和分类的精度。
S4.将预处理后的SAR图像输入优化后的建筑区提取网络,得到初步提取的建筑区;
对所有SAR图像进行辐射定标、对比度增强和地理编码预处理,将预处理后的SAR图像输入训练好的建筑区提取网络,得到初步提取的建筑区。
S5.对所述初步提取的建筑区进行后处理,对提取结果进行优化;
建筑区提取网络初步提取的建筑区结果可能还存在一定的虚警,需要进一步进行后处理以提高提取精度。常见的虚警包括:植被、道路、山体等。本公开利用辅助数据获取几大类非建筑地物的掩膜图层,使用逻辑计算去除初始提取结果与掩膜图层的交集,得到优化后的结果。对初步提取的建筑区进行后处理进一步提高了多尺度建筑区的提取精度。
图2示出了根据本公开实施例的建筑区提取网络的结构示意图。如图2所示,所述建筑区提取网络包括基于注意力机制的特征提取网络和多尺度金字塔结构的金字塔多尺度城市提取网络,其中所述基于注意力机制的特征提取网络分为左右两部分,左半部分网络用于特征提取,右半部分上采样,也被称为编码器和解码器部分,编码器部分对输入图像通过一系列的卷积与池化得到特征图,编码器被配置为包括卷积块(Conv2D block)、最大池化层(Maxpooling layer)以及级联结构(Concatenation)。其中,卷积块被配置为包括两组卷积核为n×n的卷积层(Conv2D)、归一化层(Batch Normalization layer)以及激活函数层(ReLU Activator),本公开采用3×3的卷积核。解码器部分通过一系列的反卷积和卷积,将特征图恢复为输出图像,解码器部分被配置为包括反卷积结构(Transconv2D)、卷积块结构、级联结构以及注意力块结构(Attention block);其中,反卷积结构的作用是对特征图进行上采样,实现像素级的分类。
基于CNN模型改进的基于注意力机制的特征提取网络将注意力放到主要目标上,使用下采样阶段得到的特征作为门控信号从而得到注意力系数,然后通过将注意系数和特征图相乘来抑制特征图中与任务无关的特征响应,该结构中权值参数的更新遵循梯度下降的反向传播算法,有效提高了目标提取和分类的精度。
本公开采用基于注意力机制的特征提取网络提取特征包括以下步骤:
S21.将SAR图像输入所述基于注意力机制的特征提取网络的编码器中得到原始特征图,将所述原始特征图经过1×1卷积操作、ReLU激活函数映射后作为下采样层的门控信号g并输出;
门控信号g表示每个像素是否被激活,提供由浅层网络获取的上下文信息,是编码器结构中得到的浅层特征。
S22.将所述编码器得到的所述原始特征图输入解码器进行上采样得到特征图xl;
xl表示跳跃连接传递过来的上采样层的特征图,是解码器结构中输入给反卷积层的深层特征。
S23.对步骤S21得到的门控信号g进行上采样操作,使得其与步骤S22中的特征图xl的尺寸相同;
由于特征图xl的尺寸比当前的门控信号大一倍,因此需要对g进行上采样操作,保证其与xl尺寸相同。
S24.使用膨胀卷积核对步骤S23得到的门控信号进行均值池化操作得到特征图;
使用膨胀卷积核进行均值池化操作,减少特征图通道数,得到对特征图的描述。
S25.将特征图xl经过卷积操作后与步骤S24中的特征图连接,然后依次经过ReLU激活函数层、卷积层和Sigmoid激活函数层后得到空间注意力系数α;
将特征图xl经过卷积操作后可减少特征图通道数,然后与步骤S24中的特征图相加,并使用ReLU激活函数增强非线性,接着进行1×1卷积操作进行降维,最后利用Sigmoid激活函数输出在0到1范围内的数即空间注意力系数α。
S26.识别突出的图像区域并删除特征响应,只保留与特定任务相关的激活;
通过将注意系数和特征图相乘来抑制特征图中与任务无关的特征响应。
将α系数与xl进行点乘运算得到的特征作为输入传输到下一层网络,结构中的权值参数采用正态分布初始化方法,遵循梯度下降的反向传播算法进行更新。
图3示出了根据本公开实施例的金字塔多尺度城市提取网络的结构示意图。如图3所示,金字塔场景解析网络(PSPNet),通过金字塔池化结构能够将难解析的场景信息特征嵌入基于FCN预测框架中,为像素级场景解析提供有效的全局上下文先验。本公开将金字塔池化模块引入到多尺度建筑区提取网络中。本公开使用的金字塔池化模块是一个四层结构,bin大小分别为1×1、2×2、3×3、6×6,融合了四种不同的金字塔尺度下的特征。金字塔级别将特征图分成不同的子区域,并将不同的位置信息集成起来。金字塔池化模块中不同层次的输出包含不同大小的特征映射。为了维护全局特性的权重,如果金字塔共有N个级别,则在每个级别后使用1×1卷积,将对应级别的通道数量降为原本的1/N,然后通过双线性插值直接对低维特征图进行上采样,得到与原始特征映射相同尺寸的特征图。最后,将不同级别的特征级联起来,作为最终的金字塔池化全局特性,在此基础上实现后续分类。
本公开的金字塔多尺度城市提取网络位于所述基于注意力机制的特征提取网络的编码器和解码器之间,搜集了多尺度建筑区的多层信息,再与原始特征图结合,提高了建筑区提取的精确性。
本公开对所述建筑区提取网络进行训练和测试,包括以下步骤:
S31.将样本分为训练集和测试集;
将样本集划分为训练集和测试集,可根据具体需求,设置训练集和测试集的比例。
S32.将所述训练集输入所述建筑区提取网络进行训练,其中分类器采用FocalLoss函数,公式如下:
建筑切片中包含一些郊区小村落和沿河流分布的村落,这类建筑区的切片中的建筑区面积在切片中面积占比较小,存在建筑正负样本严重失衡问题。为了解决这个问题,我们使用Focal Loss替代原有交叉熵损失函数,Focal Loss是在交叉熵损失函数基础上进行的修改,首先分析二分类交叉熵损失,其公式为:普通的交叉熵对于正样本而言,输出概率越大损失越小;对于负样本而言,输出概率越小则损失越小。此时的损失函数在大量简单样本的迭代过程中比较缓慢且可能无法优化至最优。因此,本公开Focal Loss在此基础上进行改进,公式如下:
在原有的基础上加了一个因子,其中γ>0,可以减少易分类样本的损失,使分类更关注于困难的、错分的样本。此外,加入平衡因子α,用来平衡正负样本本身的比例不均衡。通过一系列调参,确定α=0.25,γ=2的参数在本公开建筑区提取中效果较好。
S33.将所述测试集输入训练好的建筑区提取网络中,输出分类结果;
将所述测试集输入训练好的建筑区提取网络中,最终输出建筑区图像的分类结果。
本公开对所述初步提取的建筑区进行后处理,包括以下步骤:
S41.以Sentinel-2光学数据为数据源,利用ENVI软件中光谱指数模块获取NDVI和MNDWI图像;
S42.设置阈值,得到植被和水体掩膜图层;
水体掩膜图层涵盖湿地和水上非建筑物体,本公开植被和水体掩膜图层的阈值分别为0.42和0.38。
S43.将30m SRTM DEM重采样到10m SAR分辨率,并获取坡度数据;
本公开将坡度阈值设置为15°。
S44.将提取的建筑区结果图层与掩膜图层叠加,并求取交集,然后擦除交集图层,最终得到后处理建筑区结果图层;
本公开基于NDVI和MNDWI指数消除具有高后向散射值的其他地物引起的误差。
图4示出了根据本公开实施例的基于中分辨率SAR图像的建筑区提取***的示意图。如图4所示,包括:样本建立模块41、建筑区提取网络建立模块42、优化模块43、初步提取模块44和后处理模块45:
样本建立模块41:用于建立多类别建筑区的像素级标记样本;
建筑区提取网络建立模块42:用于建立建筑区提取网络,其中所述建筑区提取网络包括基于注意力机制的特征提取网络模块和多尺度金字塔结构的金字塔多尺度城市提取网络模块;
优化模块43:用于对所述建筑区提取网络进行训练和测试,并进行网络优化;
初步提取模块44:用于将预处理后的SAR图像输入优化后的建筑区提取网络,得到初步提取的建筑区;
后处理模块45:用于对所述初步提取的建筑区进行后处理,对提取结果进行优化。
图5示出了根据本公开实施例的样本建立模块的示意图。如图5所示,样本建立模块41包括预处理模块51、切割模块52、剔除模块53和区分模块54:
预处理模块51:用于对所有SAR图像进行辐射定标、对比度增强和地理编码预处理;
切割模块52:用于根据预处理后的SAR图像制作多类别建筑的像素级标记样本,并将样本图像切割成n×n大小的切片,在切片制作过程中设置多个像素的重叠区域保证面积较小的建筑的边界不被破坏;
剔除模块53:用于将所述样本中的残缺切片剔除;
区分模块54:用于确定切片中是否包含建筑区目标,若是则为正样本,若否则为负样本,将所述正样本和负样本分别存放在不同的子集中。
图6示出了根据本公开实施例的基于注意力机制的特征提取网络模块的示意图。如图6所示,基于注意力机制的特征提取网络模块包括编码器模块61和解码器模块62:编码器模块61被配置为包括卷积块、最大池化层以及级联结构,解码器模块62被配置为包括反卷积结构、卷积块结构、级联结构以及注意力块结构。编码器模块61中的卷积块被配置为包括两组卷积核为n×n的卷积层、归一化层以及激活函数层,本公开采用3×3的卷积核;解码器模块62中的反卷积结构对特征图进行上采样,实现像素级的分类。
图7示出了根据本公开实施例的金字塔多尺度城市提取网络模块的示意图。如图7所示,金字塔多尺度城市提取网络模块包括池化层71、卷积层72、上采样层73和级联结构74。金字塔多尺度城市提取网络模块位于基于注意力机制的特征提取网络模块的编码器模块61和解码器模块62之间。
本公开的建筑区提取网络建立模块42还用于:
S51.将SAR图像输入所述基于注意力机制的特征提取网络模块的编码器模块中得到原始特征图,将所述原始特征图经过1×1卷积操作、ReLU激活函数映射后作为下采样层的门控信号g并输出;
S52.将所述编码器模块得到的所述原始特征图输入解码器模块进行上采样得到特征图xl;
S153.对步骤S51得到的门控信号g进行上采样操作,使得其与特征图xl的尺寸相同;
S54.使用膨胀卷积核对步骤S53得到的门控信号进行均值池化操作得到特征图;
S55.将特征图xl经过卷积操作后与步骤S54中得到的特征图连接,然后依次经过ReLU激活函数层、卷积层和Sigmoid激活函数层后得到空间注意力系数α;
S56.识别突出的图像区域并删除特征响应,只保留与特定任务相关的激活;
其中,α系数的值域为[0,1]。
图8示出了根据本公开实施例的优化模块的示意图。如图8所示,所述优化模块43包括训练模块81和测试模块82:
所述训练模块81用于将样本建立模块41得到的样本分为训练集和测试集,将所述训练集输入所述建筑区提取网络进行训练,其中分类器采用Focal Loss函数,公式如下:
所述测试模块82用于将所述测试集输入训练好的建筑区提取网络中,输出分类结果。
其中,所述激活函数为sigmoid函数,α=0.25,γ=2。
本公开的后处理模块45用于:
S61.以Sentinel-2光学数据为数据源,利用ENVI软件中光谱指数模块获取NDVI和MNDWI图像;
S62.设置阈值,得到植被和水体掩膜图层;
S63.将30m SRTM DEM重采样到10m SAR分辨率,并获取坡度数据;
S64.从提取的建筑区结果图层与掩膜图层叠加,并求取交集,然后擦除交集图层,最终得到后处理建筑区结果图层。
其中,植被和水体掩膜图层的阈值分别为0.42和0.38。
本公开为评估金字塔多尺度建筑区提取网络在高分辨率SAR图像中的建筑区提取的鲁棒性,设计了两个实验:A.使用GF-3SAR数据评估本文所提方法在不同区域建筑区的检测性能。B.评估本文所提方法在不同SAR传感器数据中的适用性。
(1)研究区和实验数据:
对于实验A,北京市、河南省漯河市、重庆市和福建省福州市被选择为实验区。北京市和漯河市位于平原地区,重庆市是山城,福州市位于沿海地区。对于实验B,选取L波段ALOS-2数据为数据源,北京作为研究区。表1和表2列出了实验中使用的SAR数据的详细信息。
表1.GF-3SAR数据的基本信息
表2.Sentinel-1和ALOS-2SAR数据的基本信息
数据 | 区域 | 获取时间 | 分辨率 | 极化方式 |
Sentinel-1 | 北京 | 2019-06 | 20米 | VV/VH |
ALOS-2 | 北京 | 2019-06 | 10米 | HH/HV |
(2)不同建筑区分布的样本:
这四个区域在不同的地形场景下,建筑的空间布局和类型是不同的。为了提高网络的提取性能,根据样本制作设计策略,本公开制作了约9000个覆盖不同类型的建筑区有效样本切片(见图9)。训练数据和测试数据的基本信息如表3所示。为提高检测精度,去除不包含建筑的样本切片。所有切片大小为256×256。训练样本与测试样本比例为7:3,训练样本中平原地区样本:山区样本:沿海地区样本比例为5:3:2,本公开实验区中平原地区建筑分布较多,山区建筑分布较少,建筑切片中建筑占比小于山体占比,因此在训练样本中加入了负样本(山体),使得网络充分学习山区建筑区与山体的差异。测试样本中三种地区的建筑区切片数目比例也是5:3:2。
图9为多类别标记样本。(a1)-(f1)是Google Earth图像切片,(a2)-(f2)为对应的SAR图像切片,(a3)-(f3)为对应的像素级标签切片。a1为山区建筑区,b1为平原分布村落,c1为平顶建筑,d1线型分布村落,e1为密集分布建筑区,f1为平原分布村落中的网状村落。
表3.训练样本集和测试样本集的基本信息
(3)参数设置:
本公开的残差特征提取网络主要的参数如下所述:学习率、迭代次数和批量大小分别为0.0005,200,和20。
(4)结果分析:
图9为四个区域基于本公开的建筑区提取网络的城市区域制图结果。图10为基于本公开提取的四个区域的建筑区结果。图10是北京、武汉、河南和广州四个城市的提取结果。从图10可以看出,本公开提取到的城市区域与SAR图像中建筑区表征基本一致。在城市中心、郊区村镇、密集连片建筑区和小尺度村落的检测效果都很好,且在重庆和福州市的山区也具有较好的检测效果。
本公开选取德国DLR团队生产的全球人类居住层GUF产品作为对比,GUF产品分辨率为12米,由地面分辨率为3米的TanDEM-X和TerraSAR-X雷达影像经全自动提取框架UrbanFootprint Processor(UFP)***解译而来。本公开四个区域的提取结果与GUF结果的可视化结果如图11所示。从对比图中可以看到,北京地区GUF产品提取的建筑区范围比本公开提取的建筑区范围大,而在漯河地区,本公开提取结果明显比GUF产品提取的建筑区范围大,在重庆市和福州市两种产品差异较小。为证明提取结果的差异,我们将北京市提取结果叠加到同时期10米分辨率的Sentinel-2光学图像上,漯河市提取结果叠加到Google Earth影像上进行可视化显示对比。图12显示了北京市中心城区提取结果与GUF产品的对比。从图12可以看出GUF产品存在较多的误检,黑色标记显示很多非建筑区被检测为建筑区。图13显示了漯河市区和郊区的可视化对比结果,可以看出市区GUF产品存在较高的漏检,郊区GUF产品也存在较多漏检。表4是本文提取结果与GUF产品的精度评价对比,从表4可以看出,本公开中北京地区的总体提取精度大于GUF产品,而漯河市、重庆市和福州市的提取精度都小于GUF产品。
表4.本公开的提取结果与GUF产品精度对比结果
本公开选取全球人类居住层(GHSL)和FROMGLC 10产品与本公开提取结果进行比较。GHSL是基于卫星SPOT(2和5)、CBERS 2B、RapidEye(2和4)、WorldView(1和2)、GeoEye 1、QuickBird2、Ikonos 2和机载传感器获取多种数据源,生产的分辨率为0.5到10m的GHSL产品。FROMGLC 30产品是清华大学宫鹏教授的团队以Sentinel-2光学数据为数据源使用随机森林分类方法制作的全球10m分辨率土地覆盖图,本公开提取的结果与GHSL、FROMGLC10的对比结果如图14所示。从图中可以看出,本公开提取的城市区域与其他三种产品基本一致。但是GHSL存在一定程度的过拟合,其中城市区域的边界范围和密度大于其他三种产品,北京地区尤为明显。对于小尺度村落,本公开很好的提取了河南省漯河市的小尺度的村落,相比本公开提取结果,GHSL产品具有一定漏检,而FROMGLC10产品漏检了大量的村落。表5展示了四个地区本公开提取结果与光学产品的对比结果。从表5可以看出,北京地区,本公开提取结果和FROMGLC 10产品结果具有较高一致性,但是FROMGLC10产品的误检率高于本公开,为6.55%,GHSL产品的误检率(CE)达到了30.40%。漯河市地区,三种结果的总体精度都在90%以上,但是GHSL产品误检率最高,为10.86%,而FROMGLC10产品的漏检率比较高,达到了25.90%。重庆和福州市地区,本公开与GHSL产品提取精度相当,而FROMGLC10产品的误检率最高。整体来看,四个区域本公开提取的建筑区结果误检率最低,但是在四个区域本公开也存在一定漏检,如北京、重庆和福州地区,漏检率分别达到了5.74%、6.54%和6.10%,漏检主要发生在建筑后向散射较低的区域,建筑在图像中的纹理、几何结构不完整,这些建筑特征在卷积神经网络中表现不稳定,在分类层被分为非建筑区。因此从空间尺度看,本公开能够较准确进行区域建筑区制图,且本公开在小尺度村落提取方面能够在一定程度上弥补10米分辨率光学制图,为基于多源遥感数据地表监测应用提供技术支持。
表5.本公开提取的建筑区结果与光学产品对比
(5)对比试验:
1)本公开与Attention U-Net和Residual U-Net方法的比较:
为了验证本公开的提取性能,将其与Attention U-Net和Residual U-Net进行了比较,使用相同的训练数据训练Attention U-Net和残差U-Net模型。三种方法提取的城市区结果对比如图15所示,表6是三种方法的精度评价结果。图15显示本公开在四个区域的的可视化检测结果最好。在河南地区,Residual U-Net的检测效果最差,存在大量漏检。从表6可以看出,本公开在四个区域的建筑区检测总体精度在94.06%到95.79%之间(Kappa平均值为0.83),而Attention U-Net和残差U-Net方法在四个区域检测结果的Kappa平均值分别为0.81和0.73,三种方法中提取效果最差的是Residual U-Net法。相比于本公开,在北京、漯河、重庆和福州四个地区Residual U-Net具有最高的漏检率,其次是Attention U-Net方法,而在重庆地区,Residual U-Net方法的漏检率最高,为27.30%,这与图15可视化结果一致。从方法上分析,Attention U-Net方法总体比Residual U-Net方法提取精度高,主要是Attention U-Net不仅利用U型结构将编码的特征传递到了解码器部分,在解码器部分还添加了空间注意力模块,使得网络集中于建筑区目标。本公开的提取精度最高,主要是把Attention U-Net作为特征提取网络,首先多尺度输入层使得建筑区的几何结构和纹理特征被充分学习和提取,然后引入金字塔多尺度城市提取网络,使得网络进一步提取建筑区不同子区域的特征,最后将深层特征和多尺度特征结合起来,空间注意力模块让网络集中于建筑区目标的识别,实现了多尺度建筑区的精确提取。
表6.建筑区提取结果精度评价
2)本公开在不同SAR数据源建筑区提取应用的鲁棒性分析:
为测试本公开使用不同SAR数据进行区域制图的鲁棒性,我们选取了Sentinel-1和ALOS-2/PALSAR-2数据作为实验数据源。表7显示了训练数据和测试数据的详细信息。图16显示了Sentinel-1和ALOS-2/PALSAR-2数据的提取结果。表8展示了本公开在两种SAR数据建筑区提取结果的精度评价,从表中可以看出,总体提取精度高于80%,并且Kappa系数高于0.7。这些结果显示本公开的建筑区提取网络在不同传感器SAR数据进行区域制图具有很好的泛化能力。
表7.训练样本和测试样本的基本信息
数据源 | 极化方式 | 训练样本 | 测试样本 |
Sentinel-1 | VV/VH | 686 | 70 |
ALOS-2 | HH/HV | 686 | 70 |
表8.两种数据建筑区提取结果精度评价
在基于GF-3数据进行区域建筑区制图实验中,本公开提出的建筑区提取方法不仅比传统的基于FCN方法更能精确的识别建筑区,并且在小尺度村落提取方面比光学数据产品具有更高精度。本公开在应用Sentinel-1和ALOS-2/PALSAR-2数据进行区域制图中具有鲁棒性,因为本公开的建筑区提取网络具有很好的泛化性能。
此外,尽管已经在本文中描述了示例性实施例,其范围包括任何和所有基于本公开的具有等同元件、修改、省略、组合(例如,各种实施例交叉的方案)、改编或改变的实施例。权利要求书中的元件将被基于权利要求中采用的语言宽泛地解释,并不限于在本说明书中或本申请的实施期间所描述的示例,其示例将被解释为非排他性的。因此,本说明书和示例旨在仅被认为是示例,真正的范围和精神由以下权利要求以及其等同物的全部范围所指示。
Claims (10)
1.一种基于中分辨率SAR图像的建筑区提取方法,其特征在于,所述提取方法包括:
S1.建立多类别建筑区的像素级标记样本;
S2.建立建筑区提取网络,其中所述建筑区提取网络包括基于注意力机制的特征提取网络和多尺度金字塔结构的金字塔多尺度城市提取网络;
S3.对所述建筑区提取网络进行训练和测试,并进行网络优化;
S4.将预处理后的SAR图像输入优化后的建筑区提取网络,得到初步提取的建筑区;
S5.对所述初步提取的建筑区进行后处理,对提取结果进行优化。
2.根据权利要求1所述的基于中分辨率SAR图像的建筑区提取方法,其特征在于,所述步骤S1包括:
S11.对所有SAR图像进行辐射定标、对比度增强和地理编码预处理;
S12.根据预处理后的SAR图像制作多类别建筑的像素级标记样本,并将样本图像切割成n×n大小的切片,在切片制作过程中设置多个像素的重叠区域保证面积较小的建筑的边界不被破坏;
S13.将所述样本中的残缺切片剔除;
S14.确定所述切片中是否包含建筑区目标,若是则为正样本,若否则为负样本,将所述正样本和所述负样本分别存放在不同的子集中。
3.根据权利要求2所述的基于中分辨率SAR图像的建筑区提取方法,其特征在于,所述步骤S2中的基于注意力机制的特征提取网络包括编码器和解码器:
所述编码器被配置为包括:卷积块、最大池化层以及级联结构,所述解码器被配置为包括反卷积结构、卷积块结构、级联结构以及注意力块结构。
4.根据权利要求2所述的基于中分辨率SAR图像的建筑区提取方法,其特征在于,所述步骤S2中的金字塔多尺度城市提取网络包括池化层、卷积层、上采样层和级联结构,所述金字塔多尺度城市提取网络位于所述基于注意力机制的特征提取网络的编码器和解码器之间。
5.根据权利要求4所述的基于中分辨率SAR图像的建筑区提取方法,其特征在于,所述金字塔多尺度城市提取网络提取特征的步骤包括:
S21.金字塔级别将特征图分成不同的子区域,并将不同的位置信息集成起来,不同层次的输出包含不同大小的特征映射;
S22.设置金字塔级别为N,在每个级别后使用1×1卷积,将对应级别的通道数量降为原本的1/N;
S23.通过双线性插值对低维特征图进行上采样,得到与原始特征映射相同尺寸的特征图;
S24.将不同级别的特征级联起来,作为最终的金字塔池化全局特性。
6.根据权利要求3所述的基于中分辨率SAR图像的建筑区提取方法,其特征在于,所述基于注意力机制的特征提取网络提取特征的步骤包括:
S31.将SAR图像输入所述基于注意力机制的特征提取网络的编码器中得到原始特征图,将所述原始特征图经过n×n卷积操作、ReLU激活函数映射后作为下采样层的门控信号g并输出;
S32.将所述编码器得到的所述原始特征图输入解码器进行上采样得到特征图xl;
S33.对所述步骤S31得到的门控信号g进行上采样操作,使得与所述特征图xl的尺寸相同;
S34.使用膨胀卷积核对所述步骤S33得到的门控信号进行均值池化操作得到特征图;
S35.将所述特征图xl经过卷积操作后与所述步骤S34中得到的特征图连接,然后依次经过ReLU激活函数层、卷积层和Sigmoid激活函数层后得到空间注意力系数α;
S36.识别突出的图像区域并删除特征响应,只保留与特定任务相关的激活;
8.根据权利要求1所述的基于中分辨率SAR图像的建筑区提取方法,其特征在于,所述步骤S5包括:
S51.以Sentinel-2光学数据为数据源,利用ENVI软件中光谱指数模块获取NDVI和MNDWI图像;
S52.设置阈值,得到植被和水体掩膜图层;
S53.将SRTM DEM重采样到SAR分辨率,并获取坡度数据;
S54.将提取的建筑区结果图层与掩膜图层叠加,并求取交集,然后擦除交集图层,最终得到后处理建筑区结果图层。
9.一种基于中分辨率SAR图像的建筑区提取***,其特征在于,包括样本建立模块、建筑区提取网络建立模块、优化模块、初步提取模块和后处理模块:
所述样本建立模块:用于建立多类别建筑区的像素级标记样本;
所述建筑区提取网络建立模块:用于建立建筑区提取网络,其中所述建筑区提取网络包括基于注意力机制的特征提取网络模块和多尺度金字塔结构的金字塔多尺度城市提取网络模块;
所述优化模块:用于对所述建筑区提取网络进行训练和测试,并进行网络优化;
所述初步提取模块:用于将预处理后的SAR图像输入优化后的建筑区提取网络,得到初步提取的建筑区;
所述后处理模块:用于对所述初步提取的建筑区进行后处理,对提取结果进行优化。
10.一种非易失性计算机存储介质,所述存储介质上存储有计算机程序,所述处理器在执行所述存储介质上的所述计算机程序时实现如权利要求1-8所述的基于中分辨率SAR图像的建筑区提取方法中的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011084022.2A CN112183432B (zh) | 2020-10-12 | 2020-10-12 | 一种基于中分辨率sar图像的建筑区提取方法以及*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011084022.2A CN112183432B (zh) | 2020-10-12 | 2020-10-12 | 一种基于中分辨率sar图像的建筑区提取方法以及*** |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112183432A true CN112183432A (zh) | 2021-01-05 |
CN112183432B CN112183432B (zh) | 2022-04-15 |
Family
ID=73948339
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011084022.2A Active CN112183432B (zh) | 2020-10-12 | 2020-10-12 | 一种基于中分辨率sar图像的建筑区提取方法以及*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112183432B (zh) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112949550A (zh) * | 2021-03-19 | 2021-06-11 | 中国科学院空天信息创新研究院 | 一种基于深度学习的水体识别方法、***和介质 |
CN112950473A (zh) * | 2021-03-04 | 2021-06-11 | 清华大学深圳国际研究生院 | 一种mr图像超分辨方法 |
CN113033321A (zh) * | 2021-03-02 | 2021-06-25 | 深圳市安软科技股份有限公司 | 目标行人属性识别模型的训练方法及行人属性识别方法 |
CN113312998A (zh) * | 2021-05-19 | 2021-08-27 | 中山大学·深圳 | 基于高分辨率网络的sar图像目标识别方法、装置和存储介质 |
CN113361662A (zh) * | 2021-07-22 | 2021-09-07 | 全图通位置网络有限公司 | 一种城市轨道交通遥感图像数据的处理***及方法 |
CN113408540A (zh) * | 2021-05-17 | 2021-09-17 | 中国电子科技集团公司电子科学研究院 | 一种合成孔径雷达图像叠掩区提取方法及存储介质 |
CN113591685A (zh) * | 2021-07-29 | 2021-11-02 | 武汉理工大学 | 一种基于多尺度池化的地理对象空间关系识别方法及*** |
CN114066876A (zh) * | 2021-11-25 | 2022-02-18 | 北京建筑大学 | 一种基于分类结果及cva-sgd法的建筑垃圾变化检测方法 |
CN115049160A (zh) * | 2022-08-12 | 2022-09-13 | 江苏省测绘工程院 | 时空大数据的平原工业型城市碳排放量评估方法及*** |
CN115331087A (zh) * | 2022-10-11 | 2022-11-11 | 水利部交通运输部国家能源局南京水利科学研究院 | 融合区域语义与像素特征的遥感影像变化检测方法及*** |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9799327B1 (en) * | 2016-02-26 | 2017-10-24 | Google Inc. | Speech recognition with attention-based recurrent neural networks |
CN110136170A (zh) * | 2019-05-13 | 2019-08-16 | 武汉大学 | 一种基于卷积神经网络的遥感影像建筑物变化检测方法 |
CN110533631A (zh) * | 2019-07-15 | 2019-12-03 | 西安电子科技大学 | 基于金字塔池化孪生网络的sar图像变化检测方法 |
CN110675408A (zh) * | 2019-09-19 | 2020-01-10 | 成都数之联科技有限公司 | 基于深度学习的高分辨率影像建筑物提取方法及*** |
CN110705457A (zh) * | 2019-09-29 | 2020-01-17 | 核工业北京地质研究院 | 一种遥感影像建筑物变化检测方法 |
CN111192200A (zh) * | 2020-01-02 | 2020-05-22 | 南京邮电大学 | 基于融合注意力机制残差网络的图像超分辨率重建方法 |
CN111291622A (zh) * | 2020-01-16 | 2020-06-16 | 武汉汉达瑞科技有限公司 | 一种遥感影像中建筑物变化检测的方法及装置 |
CN111709387A (zh) * | 2020-06-22 | 2020-09-25 | 中国科学院空天信息创新研究院 | 一种高分辨率遥感影像的建筑物分割方法及*** |
-
2020
- 2020-10-12 CN CN202011084022.2A patent/CN112183432B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9799327B1 (en) * | 2016-02-26 | 2017-10-24 | Google Inc. | Speech recognition with attention-based recurrent neural networks |
CN110136170A (zh) * | 2019-05-13 | 2019-08-16 | 武汉大学 | 一种基于卷积神经网络的遥感影像建筑物变化检测方法 |
CN110533631A (zh) * | 2019-07-15 | 2019-12-03 | 西安电子科技大学 | 基于金字塔池化孪生网络的sar图像变化检测方法 |
CN110675408A (zh) * | 2019-09-19 | 2020-01-10 | 成都数之联科技有限公司 | 基于深度学习的高分辨率影像建筑物提取方法及*** |
CN110705457A (zh) * | 2019-09-29 | 2020-01-17 | 核工业北京地质研究院 | 一种遥感影像建筑物变化检测方法 |
CN111192200A (zh) * | 2020-01-02 | 2020-05-22 | 南京邮电大学 | 基于融合注意力机制残差网络的图像超分辨率重建方法 |
CN111291622A (zh) * | 2020-01-16 | 2020-06-16 | 武汉汉达瑞科技有限公司 | 一种遥感影像中建筑物变化检测的方法及装置 |
CN111709387A (zh) * | 2020-06-22 | 2020-09-25 | 中国科学院空天信息创新研究院 | 一种高分辨率遥感影像的建筑物分割方法及*** |
Non-Patent Citations (2)
Title |
---|
JIANGYE YUAN: ""Automatic Building Extraction in Aerial Scenes Using Convolutional Networks"", 《ARXIV》 * |
田青林 等: ""基于注意力金字塔网络的航空影像建筑物变化检测"", 《光学学报》 * |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113033321A (zh) * | 2021-03-02 | 2021-06-25 | 深圳市安软科技股份有限公司 | 目标行人属性识别模型的训练方法及行人属性识别方法 |
CN112950473A (zh) * | 2021-03-04 | 2021-06-11 | 清华大学深圳国际研究生院 | 一种mr图像超分辨方法 |
CN112949550A (zh) * | 2021-03-19 | 2021-06-11 | 中国科学院空天信息创新研究院 | 一种基于深度学习的水体识别方法、***和介质 |
CN113408540B (zh) * | 2021-05-17 | 2022-11-18 | 中国电子科技集团公司电子科学研究院 | 一种合成孔径雷达图像叠掩区提取方法及存储介质 |
CN113408540A (zh) * | 2021-05-17 | 2021-09-17 | 中国电子科技集团公司电子科学研究院 | 一种合成孔径雷达图像叠掩区提取方法及存储介质 |
CN113312998A (zh) * | 2021-05-19 | 2021-08-27 | 中山大学·深圳 | 基于高分辨率网络的sar图像目标识别方法、装置和存储介质 |
CN113361662A (zh) * | 2021-07-22 | 2021-09-07 | 全图通位置网络有限公司 | 一种城市轨道交通遥感图像数据的处理***及方法 |
CN113361662B (zh) * | 2021-07-22 | 2023-08-29 | 全图通位置网络有限公司 | 一种城市轨道交通遥感图像数据的处理***及方法 |
CN113591685A (zh) * | 2021-07-29 | 2021-11-02 | 武汉理工大学 | 一种基于多尺度池化的地理对象空间关系识别方法及*** |
CN113591685B (zh) * | 2021-07-29 | 2023-10-27 | 武汉理工大学 | 一种基于多尺度池化的地理对象空间关系识别方法及*** |
CN114066876B (zh) * | 2021-11-25 | 2022-07-08 | 北京建筑大学 | 一种基于分类结果及cva-sgd法的建筑垃圾变化检测方法 |
CN114066876A (zh) * | 2021-11-25 | 2022-02-18 | 北京建筑大学 | 一种基于分类结果及cva-sgd法的建筑垃圾变化检测方法 |
CN115049160A (zh) * | 2022-08-12 | 2022-09-13 | 江苏省测绘工程院 | 时空大数据的平原工业型城市碳排放量评估方法及*** |
CN115049160B (zh) * | 2022-08-12 | 2022-11-11 | 江苏省测绘工程院 | 时空大数据的平原工业型城市碳排放量评估方法及*** |
CN115331087A (zh) * | 2022-10-11 | 2022-11-11 | 水利部交通运输部国家能源局南京水利科学研究院 | 融合区域语义与像素特征的遥感影像变化检测方法及*** |
Also Published As
Publication number | Publication date |
---|---|
CN112183432B (zh) | 2022-04-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112183432B (zh) | 一种基于中分辨率sar图像的建筑区提取方法以及*** | |
CN109446992B (zh) | 基于深度学习的遥感影像建筑物提取方法及***、存储介质、电子设备 | |
Verma et al. | Transfer learning approach to map urban slums using high and medium resolution satellite imagery | |
Wang et al. | Deprivation pockets through the lens of convolutional neural networks | |
CN111476159B (zh) | 一种基于双角回归的检测模型训练、检测方法及装置 | |
CN114565860B (zh) | 一种多维度增强学习合成孔径雷达图像目标检测方法 | |
CN112949550B (zh) | 一种基于深度学习的水体识别方法、***和介质 | |
CN108122008A (zh) | 基于稀疏表示和多特征决策级融合的sar图像识别方法 | |
CN112287983B (zh) | 一种基于深度学习的遥感图像目标提取***和方法 | |
CN103353988A (zh) | 异源sar景象特征匹配算法性能评估方法 | |
Wang et al. | The poor generalization of deep convolutional networks to aerial imagery from new geographic locations: an empirical study with solar array detection | |
CN116168240A (zh) | 基于注意力增强的任意方向密集舰船目标检测方法 | |
CN114943902A (zh) | 基于多尺度特征感知网络的城市植被无人机遥感分类方法 | |
Xia et al. | Submesoscale oceanic eddy detection in SAR images using context and edge association network | |
Yang et al. | Deep learning-based automated terrain classification using high-resolution DEM data | |
Chen et al. | A novel lightweight bilateral segmentation network for detecting oil spills on the sea surface | |
CN113628180A (zh) | 一种基于语义分割网络的遥感建筑物检测方法及*** | |
CN112613354A (zh) | 一种基于稀疏降噪自编码器的异质遥感图像变化检测方法 | |
CN115456957B (zh) | 一种全尺度特征聚合的遥感影像变化检测的方法 | |
CN108109156B (zh) | 基于比值特征的sar图像道路检测方法 | |
CN114550016B (zh) | 一种基于上下文信息感知的无人机定位方法及*** | |
CN102902982A (zh) | 基于观测向量差的sar图像纹理分类方法 | |
CN113705326B (zh) | 一种基于全卷积神经网络的城市建设用地识别方法 | |
CN114862883A (zh) | 一种目标边缘提取方法、图像分割方法及*** | |
Lian et al. | End-to-end building change detection model in aerial imagery and digital surface model based on neural networks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |