CN115331087B - 融合区域语义与像素特征的遥感影像变化检测方法及*** - Google Patents
融合区域语义与像素特征的遥感影像变化检测方法及*** Download PDFInfo
- Publication number
- CN115331087B CN115331087B CN202211237501.2A CN202211237501A CN115331087B CN 115331087 B CN115331087 B CN 115331087B CN 202211237501 A CN202211237501 A CN 202211237501A CN 115331087 B CN115331087 B CN 115331087B
- Authority
- CN
- China
- Prior art keywords
- remote sensing
- change detection
- sensing image
- pixel
- module
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/70—Labelling scene content, e.g. deriving syntactic or semantic representations
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Databases & Information Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明提出了一种融合区域语义与像素特征的遥感影像变化检测方法及***,属于遥感影像变化检测的技术领域。首先,构建基于孪生网络架构的多尺度特征融合变化检测网络模型,利用端到端深度学习完成双时相遥感影像的直接变化检测;其次,利用语义分割模型赋予检测对象的区域语义,借助对象语义的区域连续属性,结合集合运算对直接变化检测结果的边缘进行逐像素分类优化,减少变化检测结果中的粘连等误检,提升双时相遥感影像变化检测精度。本发明通过将区域语义和像素特征结合,既能基于深度学习直接完成变化检测区域的识别,又解决了直接变化检测中的多类误检问题,高精度地实现了双时相影像的端到端变化检测。
Description
技术领域
本发明涉及遥感影像变化检测的技术领域,特别是涉及一种融合区域语义与像素特征的遥感影像变化检测方法及***。
背景技术
遥感影像变化检测是从同一场景不同时刻的两幅或多幅图像之间,通过一系列相应方法提取出自然或人工变化区域的过程。遥感影像变化检测技术应用广泛,当自然灾害发生时,利用变化检测技术可以快速有效识别地震、台风、洪水、泥石流等自然灾害破坏的范围和程度,并对自然灾害的影响进行评估,帮助制定灾后救灾、重建工作。将变化检测技术应用在人类社会科学发展上,能够及时监控建筑的建设与拆除,合理规划城市乡镇发展,减少违法建筑安全隐患及杜绝非法占用土地资源的情况。遥感影像的变化检测也可用于对地表植被进行监控,保护林业资源、打击乱采乱伐,还能帮助合理调节农作物的种植计划,增加作物产量、保障粮食安全。
遥感影像的变化检测技术是一种涉及到遥感技术、图像处理、机器学习、深度学习等多知识领域交叉的技术。目前已有的变化检测方法根据不同的分类规则有多种不同的分类。可以按照是否使用了深度学习技术将其分为传统变化检测方法与基于深度学习的变化检测方法,传统变化检测方法的代表有图像差值/比值法、均值或图像对数比值法、变化向量分析法(Change Vector Analysis)、主成分分析法(Principal Component Analysis)、多元变化检测法(Multivariate Alteration Detection)等,基于深度学习的变化检测方法则大多数采用卷积神经网络作为特征提取主体来对图像的变化特征进行提取,还可以根据对图像分类与对比的顺序将算法分为直接比较法(先对比后分类)与分类后比较法(先分类后比较)。随着我国遥感技术的不断发展,遥感技术的相关应用也朝着复杂化、精确化的方向发展,目前已有的传统变化检测方法已经无法满足当前的检测任务,在当前的实际工程应用中存在很大的局限性,因此基于深度学习的变化检测方法成为目前遥感影像变化检测任务的主流解决方案。
目前基于深度学习的变化检测方法中,如何利用深度学习提高检测的精度是当前的研究热点,在已有的深度学习方法中,主要还是使用卷积神经网络作为特征提取主干,与普通可见光图像相比,遥感影像内部特征复杂,细节丰富,因此常规的卷积神经网络已无法满足对遥感影像变化信息的提取任务。此外基于分类后比较法十分依赖分类算法的精度,从机器学习的最小距离分类法(Minimum Distance Classification)、极大似然分类法(Maximum Likelihood Classification)、支持向量机(Support Vector Machine)、决策树(Decision Tree)、人工神经网络(Artificial Neural Network)到深度学习的FCN网络、SegNet网络、U-Net系列网络、DeepLab系列网络等,虽然在分类精度上有所提升,但是由于变化检测要对双时相影像进行处理,因此该类算法受到环境变化、季节变化、光照变化、非目标变化影像而产生的误检测现象严重,影像了变化检测的精准度。
发明内容
发明目的:提出一种融合区域语义与像素特征的遥感影像变化检测方法及***,以解决现有技术存在的上述问题,通过区域语义和像素特征的融合,以及逐像素分类优化,高精度地实现双时相影像的端到端变化检测。
技术方案:第一方面,提出了一种融合区域语义与像素特征的遥感影像变化检测方法,该方法具体包括以下步骤:
步骤1、构建遥感影像数据集;
步骤2、构建基于孪生网络架构的多尺度特征融合变化检测网络模型,并接收遥感数据集进行数据分析;
步骤3、基于对象语义的区域连续属性和基于并集、交集运算,对数据分析结果进行优化;
步骤4、根据优化结果获取最终检测到的变化内容,并输出。
在第一方面的一些可实现方式中,构建遥感影像数据集的过程中,由于尺度、亮度等信息对遥感影像变化检测区域的识别影响较大,对双时相遥感影像采用SIFT尺度不变特征变换算法进行配准;将配准的影像分别按和/>的比例进行放缩以获得不同尺度的配准影像,并统一裁切为标准尺寸/>;通过对比配准影像中的差异性,完成变化区域的像素级标注及对象语义标注;为了获得模型训练需要的样本数量,降低数据集制作成本,使用可体现遥感影像变化区域形状多样性的平移、旋转和镜像等几何形变及可增加图像质量多样性的噪声添加等操作完成数据增强,最终构建了1728张遥感影像的变化检测数据集和890张语义分割数据集。
在第一方面的一些可实现方式中,为了提升遥感影像特征图的表达能力、双时相遥感影像差异性对比和像素级变化检测识别,构建基于孪生网络架构的多尺度特征融合变化检测网络模型,该模型具体包括:基于孪生网络架构的多尺度残差网络模块、基于嵌套型多尺度自注意力机制的上下文信息融合模块、特征度量模块。
基于孪生网络架构的多尺度残差网络模块,基于权值共享模式利用孪生结构,并行提取双时相遥感影像的不同尺度的特征,并分别将每个时相遥感影像提取的多个尺度的特征图进行融合,最后再将双时相遥感影像融合后的特征进行通道拼接,作为下一个模块的输入。该模块包括:输入模块、特征提取模块和融合模块。
其中,输入模块用于在孪生结构中同时输入匹配后,且尺寸统一的双时相遥感影像。
特征提取模块包括:输入层、卷积层、残差层和池化层,用于提取双时相遥感影像的数据特征,并按照需求形成不同大小的特征图后输出至融合模块中。7个独立的卷积层中包括1个用于第1个卷积层的7*7卷积核,4个分别用于第2、3、4、5个卷积层的1*1卷积核和2个分别用于第6、7个卷积层的3*3卷积核;残差层中的两个卷积层的卷积核大小为3*3;池化层采用最大池化策略,并按等步长策略选择多尺度特征图,分别选择第2、4、6、8个残差层输出得到的56*56、28*28、14*14和7*7大小的特征图。
融合模块用于将单时相遥感影像不同尺度上的特征进行通道融合,并输入到不同的卷积层中降低融合后特征图的通道数。
基于嵌套型多尺度自注意力机制的上下文信息融合模块,用于接收基于孪生网络架构的多尺度残差网络模块输出的数据,并提取不同层次空间上下文信息和尺度上下文信息。为了增强从整体到细节不同层次空间上下文信息和尺度上下文信息的提取能力,设计三层嵌套两次融合的整体结构。最内层使用自注意力机制通过计算特征张量的全局权值对全局特征进行加权求和,捕捉图像全方位的空间上下文信息;中间层使用多尺度自注意力机制获取并融合不同尺度的尺度上下文信息;最外层则设计了记录图像位置信息的特征图拼接结构,通过将对应的特征图进行拼接并融合以扩大网络的感受野。
其中,最内层使用自注意力机制通过计算特征张量的全局权值对全局特征进行加权求和,捕捉图像全方位的空间上下文信息。
中间层包括四个并行的数据处理分支,使用多尺度自注意力机制对孪生结构中提取的特征图进行尺度上下文信息的提取与融合。将双时相遥感影像的多尺度特征通道拼接图直接输入到四个并行分支中。每个分支可以将输入特征张量平均分割为/>个相同大小的子区域,其中/>,/>,这样便得到了四个不同尺度划分的特征图。对四个分支分别使用四个自注意力机制,彼此之间互不关联。在每个分支中分别对所有子区域应用自注意力机制,生成更新后的自注意力特征张量,并仍按照原子区域所在位置进行拼接,生成该分支在/>尺度下的自注意力特征张量。之后将四个分支的特征张量通过通道融合串联后送入一层卷积层进行降维,并生成多尺度自注意力机制的特征图/>。最后将生成的多尺度自注意力机制特征图/>与原始特征图/>相加,得到融合后的输出特征图/>。
最外层包含记录图像位置信息的特征图拼接结构,记录每张裁切图像在原图像中的位置以及与之相邻的图像,对每张图像经过孪生网络与多尺度自注意力机制进行特征提取,并根据这一位置信息对获取的特征张量在空间维度进行重新拼接。在完成拼接后对拼接特征图通过一次自注意力机制进行特征融合,使每个图像对应的特征张量融合相邻图像的上下文信息,以此扩大网络的感受野,最终获取拼接后图像的上下文信息,同时使用残差连接将拼接后的输入特征与经过上下文信息融合后的输出特征进行连接,获得融合后的输出特征图。
特征度量模块,用于利用对比损失函数进行双时相影像差异度量,以及在模型训练阶段用于反向传播优化网络参数。将经过上下文信息融合网络得到的特征图分解为双时相遥感影像的特征图,并使用双线性差值将其尺寸调整到输入影像的大小,根据这两个特征图逐像素计算出两个时相影像的距离映射,依距离映射逐像素识别出变化区域与未变化区域,实现像素级的遥感影像变化检测识别。
其中,对比损失函数的表达式为:
将提取的特征张量在通道维度上进行分解,恢复为与双时相遥感影像对应的特征张量/>和/>,通过双线性差值将特征张量/>和/>的尺寸还原到输入影像的大小,然后计算两者的欧氏距离,代入对比损失函数,在训练过程中保留损失函数最小值对应的模型参数,并依此模型预测图像变化概率,识别变化区域与未变化区域,得到像素级的初步变化检测结果/>。
在第一方面的一些可实现方式中,为了提高数据分析结果的准确性,采用基于语义分割和集合运算的方法,对双时相遥感影像像素级变化初步检测结果进行优化。具体的优化过程包括:利用语义分割数据集完成语义分割模型的训练,并获取双时相遥感影像中的对象语义;随后基于对象语义的区域连续属性和集合运算,对双时相遥感影像像素级变化检测结果中的边缘部分进行逐像素分类优化,减少变化检测结果中的粘连等误检现象,提升端到端的双时相遥感影像的变化检测精度。
基于并集和交集运算优化过程包括:并集运算优化和交集运算优化;首先获得基于分割模型得到的双时相影像的对象级语义分割图为、/>;随后,利用并集剔除变化检测结果/>中不在并集内的变化区域,剔除因环境变化、非目标变化等因素而产生的误检;最后,再对前后时相的建筑语义分割结果做交集运算,当变化检测结果与该交集作差可剔除因未变化目标的表征发生变化而造成的误检,达到优化目标。
其中,并集运算优化的表达式为:
交集运算优化的表达式为:
第二方面,提出一种融合区域语义与像素特征的遥感影像变化检测***,用于实现双时相遥感影像变化检测方法,该***具体以下模块:
数据集构建模块,用于根据需求构建所需的遥感影像数据集;
模型构建模块,用于构建分析遥感影像数据集的网络模型;
数据优化模块,用于优化网络模型分析出的数据结果;
数据输出模块,用于输出数据优化模块优化后的结果。
第三方面,提出一种融合区域语义与像素特征的双时相遥感影像变化检测设备,该设备包括:处理器以及存储有计算机程序指令的存储器。
其中,处理器读取并执行计算机程序指令,以实现遥感影像变化检测方法。
第四方面,提出一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序指令。计算机程序指令被处理器执行时,以实现遥感影像变化检测方法。
有益效果:本发明提出了一种融合区域语义与像素特征的双时相遥感影像变化检测方法及***,针对现有技术中的不足,通过将区域语义和像素特征结合的方式,既能基于深度学习直接完成变化检测区域的识别,又解决了直接变化检测中的多类误检问题,高精度地实现了双时相影像的端到端变化检测。
附图说明
图1为本发明实施例中的融合区域语义与像素特征的双时相遥感影像变化检测方法流程图。
图2为基于孪生网络架构的多尺度特征融合变化检测网络模型结构图。
图3为基于嵌套型多尺度自注意力机制的上下文信息融合网络模型结构图。
图4为基于多尺度注意力机制的特征图的特征提取网络模型。
图5为变化检测实验效果图。
具体实施方式
在下文的描述中,给出了大量具体的细节以便提供对本发明更为彻底的理解。然而,对于本领域技术人员而言显而易见的是,本发明可以无需一个或多个这些细节而得以实施。在其他的例子中,为了避免与本发明发生混淆,对于本领域公知的一些技术特征未进行描述。
实施例一
在一个实施例中,提出一种融合区域语义与像素特征的遥感影像变化检测方法,如图1所示,该方法具体包括以下步骤:
步骤1、构建遥感影像数据集;
步骤2、构建基于孪生网络架构的多尺度特征融合变化检测网络模型MFSNet,并接收遥感数据集进行数据分析;
步骤3、基于对象语义的区域连续属性和基于并集、交集运算,对数据分析结果进行优化;
步骤4、根据优化结果获取最终检测到的变化内容,并输出。
本实施例通过基于孪生网络架构的多尺度特征融合变化检测网络模型,对双时相遥感影像进行变化检测,同时结合对象的区域语义对检测结果进行优化,有效解决了误检现象的产生,提高双时相遥感影像变化检测的精度。
实施例二
在实施例一基础上的进一步实施例中,由于尺度、亮度等信息对遥感影像变化检测区域的识别影响较大,因此在构建遥感影像数据集的过程中,进一步对获取到的原始数据进行处理。
具体包括以下步骤:首先,读取遥感影像数据集中的影像数据,并进行影像数据预处理操作;其次,对经过预处理后的影响数据进行配准;再次,按照预设划分比例对配准后的影像数据进行缩放,获得不同尺度下的配准影像;从次,对不同尺度下的配准影像进行尺寸裁剪,获得同一尺寸的配准影像数据;最后,比对配准影像数据中的差异性,获得变化区域,并对变化区域进行像素级标注和对象语义标注。
优选实施例中,遥感影像数据集由同一区域不同时相的遥感影像构成,为了提高数据处理效率,针对初始读取的遥感影像数据,首先采用辐射定标、大气校正、正射校正和图像融合等预处理操作。为了克服环境因素导致的变化区域识别影响,对预处理后的双时相遥感影像采用SIFT尺度不变特征变换算法进行配准。随后,将配准的影像按照和的比例进行缩放,获得不同尺度的配准影像,并通过裁切的方式将不同尺度的配准影像统一为/>的尺寸。最后,通过对比配准影像中的差异性,使用Labelme软件完成变化区域的像素级标注及对象语义标注。
实施例三
在实施例一基础上的进一步实施例中,网络模型MFSNet包含基于孪生网络架构的多尺度残差网络模块、基于嵌套型多尺度自注意力机制的上下文信息融合模块和特征度量模块。
具体的,如图2所示,基于孪生网络架构的多尺度残差网络模块包括:输入模块、特征提取模块和融合模块。其中,输入模块用于同时输入统一尺寸下相互匹配的双时相遥感影像。特征提取模块包括1个输入层、7个独立的卷积层、8个残差层和1个池化层;7个独立的卷积层中包括1个用于第1个卷积层的7*7卷积核,4个分别用于第2、3、4、5个卷积层的1*1卷积核和2个分别用于第6、7个卷积层的3*3卷积核;残差层中的两个卷积层的卷积核大小为3*3;池化层采用最大池化策略,并按等步长策略选择多尺度特征图,分别选择第2、4、6、8个残差层输出得到的56*56、28*28、14*14和7*7大小的特征图。融合模块将第2、4、6、8个残差层输出得到的56*56、28*28、14*14和7*7大小的4个尺度的特征进行通道融合,并输入到两个不同的卷积层中降低融合后特征图的通道维数,最终形成56*56*64大小的特征图。如图2所示,将获得的特征图设为多尺度特征图,其中C表示特征图的通道维数,H表示特征图的高度,W表示特征图的宽度;将/>和/>进行通道拼接,形成一个特征图/>;并将其作为下一个模块的输入。
基于嵌套型多尺度自注意力机制的上下文信息融合模块用于接收基于孪生网络架构的多尺度残差网络模块输出的数据,并提取不同层次空间上下文的信息。为了增强从整体到细节不同层次空间上下文信息和尺度上下文信息的提取能力,当前模块设计三层嵌套两次融合的整体结构。如图3所示,最内层使用自注意力机制通过计算特征张量的全局权值对全局特征进行加权求和,捕捉图像全方位的空间上下文信息;中间层使用多尺度自注意力机制获取并融合不同尺度的尺度上下文信息;最外层则设计了记录图像位置信息的特征图拼接结构,通过将对应的特征图进行拼接并融合以扩大网络的感受野。
其中,如图4所示,中间层设计的多尺度自注意力机制包含四个并行分支,用于对孪生结构中提取的特征图进行尺度上下文信息的提取与融合。将双时相遥感影像的多尺度特征通道拼接图直接输入到四个并行分支中。每个分支可以将输入特征张量平均分割为个相同大小的子区域,其中/>,/>,这样便得到了四个不同尺度划分的特征图。在同一个分支中,将每个子区域定义为/>,/>,其中/>是子区域在原特征张量中的位置。对四个分支分别使用四个自注意力机制,彼此之间互不关联,在每个分支中分别对所有子区域/>应用自注意力机制生成更新后的自注意力特征张量,并仍按照原子区域所在位置/>进行拼接,生成该分支在/>尺度下的自注意力特征张量/>。之后将四个分支的特征张量/>通过通道融合串联后送入一层卷积层进行降维,并生成多尺度自注意力机制的特征图/>。最后将特征图与原始特征图/>相加,得到融合后的输出特征图/>。
在进一步的实施例中,由于遥感影像尺寸大,在实际训练中为了缩短模型训练时间及符合GPU显存限制,一般将其裁切为尺寸较小的影像作为网络的输入。但图像裁切会损失部分上下文信息,从而使基于多尺度自注意力机制无法获取裁切图像之外的信息,限制了感受野大小,丢失整体的信息特征。针对该问题本实施例提出一种记录图像位置信息的特征图拼接结构,将裁切后图像块的位置信息进行记录,并在嵌套型多尺度自注意力网络中根据该位置信息在空间维度进行拼接,扩大原有多尺度自注意力机制的感受野,获取大于原输入图像尺寸的上下文信息。优选实施例中,最外层采用特征图拼接结构,用于将裁切后图像块的位置信息进行记录,并在嵌套型多尺度自注意力网络中根据该位置信息在空间维度进行拼接,扩大原有多尺度自注意力机制的感受野,获取大于原输入图像尺寸的上下文信息。记录每张裁切图像在原图像中的位置以及与之相邻的图像,对每张图像经过孪生网络与多尺度自注意力机制进行特征提取,并根据这一位置信息对获取的特征张量在空间维度进行重新拼接。在完成拼接后对拼接特征图通过一次自注意力机制进行特征融合,使每个图像对应的特征张量融合相邻图像的上下文信息,以此扩大网络的感受野,最终获取拼接后图像的上下文信息,同时使用残差连接将拼接后的输入特征与经过上下文信息融合后的输出特征进行连接,获得融合后的输出特征图。
特征度量模块用于利用对比损失函数进行双时相影像差异度量,在模型训练阶段用于反向传播优化网络参数。将经过上下文信息融合网络得到的特征图分解为双时相遥感影像的特征图,并使用双线性差值将其尺寸调整到输入影像的大小,根据这两个特征图逐像素计算出两个时相影像的距离映射,依距离映射逐像素识别出变化区域与未变化区域,实现像素级的遥感影像变化检测识别。
优选实施例中,对比损失函数的表达式为:
式中,表示双时相影像对应的样本特征之间的欧氏距离;/>表示两个样本与标签匹配情况的返回值,若两个样本在标签中匹配,则/>;若两个样本在标签中不匹配,则;/>表示预先设置的阈值;/>表示样本的数量。将提取的特征张量/>在通道维度上进行分解,恢复为与双时相遥感影像对应的特征张量/>和/>,通过双线性差值将特征张量/>和/>的尺寸还原到输入影像的大小,然后计算两者的欧氏距离,代入对比损失函数,在训练过程中保留损失函数最小值对应的模型参数,并依此模型预测图像变化概率,识别变化区域与未变化区域,得到像素级的初步变化检测结果/>。
本实施例提出的变化检测网络模型相比与现有技术,在遥感影像特征图的表达能力、双时相遥感影像差异性对比和像素级变化检测识别方面,具备更高的性能效果。
实施例四
在实施例一基础上的进一步实施例中,为了提高获取对象语义过程中采用的语义分割模型性能,进一步采用语义分割数据集对语义分割模型进行性能训练。
具体的,为了获得模型训练需要的样本数量,降低数据集制作成本,使用可体现遥感影像变化区域形状多样性的平移、旋转和镜像等几何形变及可增加图像质量多样性的噪声添加等操作完成数据增强。优选实施例中,构建了1728张遥感影像的变化检测数据集和890张语义分割数据集。
实施例五
在实施例一基础上的进一步实施例中,基于对象语义的区域连续属性和基于并集、交集运算,对数据分析结果进行优化的过程包括以下步骤:首先利用分割数据集完成语义分割模型的训练,并获取双时相遥感影像中的对象语义;随后,基于对象语义的区域连续属性和基于并集运算对像素级的初步变化检测结果进行优化;最后,基于对象语义的区域连续属性和基于交集运算的优化,实现变化区域逐像素分类优化,剔除直接变化检测中出现的粘连等多类误检。完成结果优化后,将优化结果作为最终的检测结果,并输出。
具体的,基于分割模型得到的双时相影像的对象级语义分割图为、/>,首先采用并集运算进行优化,利用并集剔除变化检测结果/>中不在并集内的变化区域,剔除因环境变化、非目标变化等因素而产生的误检;随后,再对前后时相的建筑语义分割结果做交集运算,当变化检测结果与该交集作差可剔除因未变化目标的表征发生变化而造成的误检,达到优化目标。
并集运算优化的过程中,将前后时相的对象级语义分割图做并集处理,即,由于并集的物理含义为语义分割对象至少存在于某时相的遥感影像中,那么并集之外的部分则不可能发生对象级的变化。因此,利用并集剔除变化检测结果P中不在并集内的变化区域,剔除因环境变化、非目标变化等因素而产生的误检,其集合运算表达式为:/>
交集运算优化的过程中,将前后时相的对象语义分割结果做交集处理,即,由于交集部分的物理含义为语义分割对象在两个影像的成像时间同时存在,即分割对象未发生变化,当变化检测结果与该交集作差可剔除因未变化目标的表征发生变化而造成的误检。因此,并将检测结果/>与该交集作差,剔除因未变化目标的表征发生变化而造成的误检的集合运算表达式为:
实施例六
在一个实施例中,提出一种融合区域语义与像素特征的遥感影像变化检测***,用于实现双时相遥感影像变化检测方法,该***具体包括以下模块:
数据集构建模块,用于根据需求构建所需的遥感影像数据集;
模型构建模块,用于构建分析遥感影像数据集的网络模型;
数据优化模块,用于优化网络模型分析出的数据结果;
数据输出模块,用于输出数据优化模块优化后的结果。
在进一步的实施例中,数据集构建模块通过读取遥感影像的历史数据,获得遥感影像历史数据集,为了提高后续数据分析的结果,针对构建好的遥感影像历史数据集进行数据预处理。在预处理操作完成后,将数据集划分为变化检测数据集和语义分割数据集,用于后续的网络模型训练。
在进一步的实施例中,模型构建模块构建用于分析遥感影像数据集的网络模型,并接收数据集构建模块构建出的遥感影像数据集进行数据分析。该网络模型是基于孪生网络架构的多尺度特征融合变化检测模型,相比于现有技术,可提升遥感影像特征图的表达能力、双时相遥感影像差异性对比和像素级变化检测识别,具体包括:基于孪生网络架构的多尺度残差网络模块、基于嵌套型多尺度自注意力机制的上下文信息融合网络模块和特征度量模块。
其中,基于孪生网络架构的多尺度残差网络模块,基于权值共享模式利用孪生结构并行提取双时相遥感影像的不同尺度的特征,并分别将每个时相遥感影像提取的多个尺度的特征图进行融合,最后再将双时相遥感影像融合后的特征进行通道拼接,作为下一个模块的输入。
基于嵌套型多尺度自注意力机制的上下文信息融合网络模块,为了增强从整体到细节不同层次空间上下文信息和尺度上下文信息的提取能力,设计三层嵌套两次融合的整体结构。最内层使用自注意力机制通过计算特征张量的全局权值对全局特征进行加权求和,捕捉图像全方位的空间上下文信息;中间层使用多尺度自注意力机制获取并融合不同尺度的尺度上下文信息;最外层则设计了记录图像位置信息的特征图拼接结构,通过将对应的特征图进行拼接并融合以扩大网络的感受野。
特征度量模块,利用对比损失函数进行双时相影像差异度量,在模型训练阶段用于反向传播优化网络参数。将经过上下文信息融合网络得到的特征图分解为双时相遥感影像的特征图,并使用双线性差值将其尺寸调整到输入影像的大小,根据这两个特征图逐像素计算出两个时相影像的距离映射,依距离映射逐像素识别出变化区域与未变化区域,实现像素级的遥感影像变化检测识别。
在进一步的实施例中,数据优化模块利用语义分割数据集完成语义分割模型的训练,并获取双时相遥感影像中的对象语义。基于对象语义的区域连续属性和集合运算对双时相遥感影像像素级变化检测结果中的边缘进行逐像素分类优化,减少变化检测结果中的粘连等误检现象,提升端到端的双时相遥感影像的变化检测精度。
实施例七
在一个实施例中,提出一种融合区域语义与像素特征的双时相遥感影像变化检测设备,该设备包括:处理器以及存储有计算机程序指令的存储器。
其中,处理器读取并执行计算机程序指令,以实现遥感影像变化检测方法。
实施例八
在一个实施例中,提出一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序指令。
其中,计算机程序指令被处理器执行时,以实现遥感影像变化检测方法。
如上所述,尽管参照特定的优选实施例已经表示和表述了本发明,但其不得解释为对本发明自身的限制。在不脱离所附权利要求定义的本发明的精神和范围前提下,可对其在形式上和细节上做出各种变化。
Claims (7)
1.一种融合区域语义与像素特征的遥感影像变化检测方法,其特征在于,包括:
步骤1、构建遥感影像数据集;所述遥感数据集被划分为变化检测数据集和语义分割数据集,用于对所述变化检测网络模型进行性能训练;划分遥感数据集的过程中,包括以下步骤:
步骤1.1、读取历史遥感影像数据;
步骤1.2、对所述历史遥感影像数据进行校正预处理;所述预处理包括:辐射定标、大气校正、正射校正和图像融合;
步骤1.3、对校正预处理后的数据集进行配准;
步骤1.4、按照预设划分比例对配准后的影像数据进行缩放,获得不同尺度下的配准影像;
步骤1.5、对不同尺度下的配准影像进行尺寸裁剪,获得同一尺寸的配准影像数据;
步骤1.6、通过对比配准影像中的差异性,对变化区域进行像素级标注和对象语义标注;
步骤1.7、采用几何形变和添加噪声的方式对遥感影像数据集进行数据增强,并按照预设比例,划分变化检测数据集和语义分割数据集;
步骤2、构建基于孪生网络架构的多尺度特征融合变化检测网络模型,并接收遥感数据集进行数据分析;构建所述基于孪生网络架构的多尺度特征融合变化检测网络模型的过程中,包括以下步骤:
步骤2.1、构建基于孪生网络架构的多尺度残差网络模块;
步骤2.2、构建基于嵌套型多尺度自注意力机制的上下文信息融合模块;
步骤2.3、构建特征度量模块;
所述基于孪生网络架构的多尺度残差网络模块用于基于权值共享模式利用孪生结构,并行提取双时相遥感影像的不同尺度的特征,并分别将每个时相遥感影像提取的多个尺度的特征图进行融合,最后再将双时相遥感影像融合后的特征进行通道拼接,作为下一个模块的输入;
所述基于嵌套型多尺度自注意力机制的上下文信息融合模块用于接收基于孪生网络架构的多尺度残差网络模块输出的数据,并提取不同层次空间上下文信息和尺度上下文信息;所述基于嵌套型多尺度自注意力机制的上下文信息融合模块整体被划分为三层嵌套两次融合的数据处理结构;最内层使用自注意力机制通过计算特征张量的全局权值对全局特征进行加权求和,捕捉图像全方位的空间上下文信息;中间层包括四个并行的数据处理分支,使用多尺度自注意力机制对孪生结构中提取的特征图进行尺度上下文信息的提取与融合;最外层包含记录图像位置信息的特征图拼接结构,通过将对应的特征图进行拼接并融合,扩大网络的感受野;
所述特征度量模块用于利用对比损失函数进行双时相影像差异度量,以及在模型训练阶段用于反向传播优化网络参数;将经过上下文信息融合网络得到的特征图分解为双时相遥感影像的特征图,并使用双线性差值将其尺寸调整到输入影像的大小,根据这两个特征图逐像素计算出两个时相影像的距离映射,依距离映射逐像素识别出变化区域与未变化区域,实现像素级的遥感影像变化检测识别;
步骤3、基于对象语义的区域连续属性和基于并集、交集运算,对数据分析结果进行优化;
步骤4、根据优化结果获取最终检测到的变化内容,并输出。
2.根据权利要求1所述的一种融合区域语义与像素特征的遥感影像变化检测方法,其特征在于,所述基于孪生网络架构的多尺度残差网络模块包括:输入模块、特征提取模块和融合模块;
所述输入模块用于在孪生结构中同时输入匹配后的双时相遥感影像;
所述特征提取模块包括:输入层、卷积层、残差层和池化层,用于提取双时相遥感影像的数据特征,并按照需求形成不同大小的特征图后输出至融合模块中;
所述融合模块用于将单时相遥感影像不同尺度上的特征进行通道融合,并输入到不同的卷积层中降低融合后特征图的通道数。
4.根据权利要求1所述的一种融合区域语义与像素特征的遥感影像变化检测方法,其特征在于,对数据分析结果进行优化的过程具体包括以下步骤:
步骤3.1、利用语义分割数据集完成语义分割模型的训练,并获取双时相遥感影像数据集中的对象语义;
步骤3.2、基于对象语义的区域连续属性和基于并集运算,对初步变化检测结果进行初步优化;
步骤3.3、在初步优化的基础上,基于对象语义的区域连续属性和基于交集运算进行再次优化,实现变化区域逐像素分类优化,剔除直接变化检测中出现的粘连误检。
5.一种融合区域语义与像素特征的双时相遥感影像变化检测***,用于实现如权利要求1-4任意一项所述的遥感影像变化检测方法,其特征在于,包括以下模块:
数据集构建模块,用于根据需求构建所需的遥感影像数据集;
模型构建模块,用于构建分析遥感影像数据集的网络模型;
数据优化模块,用于优化网络模型分析出的数据结果;
数据输出模块,用于输出数据优化模块优化后的结果。
6.一种融合区域语义与像素特征的遥感影像变化检测设备,其特征在于,所述设备包括:
处理器以及存储有计算机程序指令的存储器;
所述处理器读取并执行所述计算机程序指令,以实现如权利要求1-4任意一项所述的遥感影像变化检测方法。
7.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序指令,所述计算机程序指令被处理器执行时实现如权利要求1-4任意一项所述的遥感影像变化检测方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211237501.2A CN115331087B (zh) | 2022-10-11 | 2022-10-11 | 融合区域语义与像素特征的遥感影像变化检测方法及*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211237501.2A CN115331087B (zh) | 2022-10-11 | 2022-10-11 | 融合区域语义与像素特征的遥感影像变化检测方法及*** |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115331087A CN115331087A (zh) | 2022-11-11 |
CN115331087B true CN115331087B (zh) | 2023-03-24 |
Family
ID=83915082
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211237501.2A Active CN115331087B (zh) | 2022-10-11 | 2022-10-11 | 融合区域语义与像素特征的遥感影像变化检测方法及*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115331087B (zh) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115830448B (zh) * | 2022-11-30 | 2024-02-09 | 广州市地质调查院(广州市地质环境监测中心) | 一种基于多视角融合的遥感图像对比分析方法 |
CN116012307A (zh) * | 2022-12-14 | 2023-04-25 | 广州科盛隆纸箱包装机械有限公司 | 基于孪生网络的瓦楞纸箱印刷图案色差检测方法、***及存储介质 |
CN116012364B (zh) * | 2023-01-28 | 2024-01-16 | 北京建筑大学 | Sar图像变化检测方法和装置 |
CN116309431B (zh) * | 2023-03-14 | 2023-10-27 | 中国人民解放军空军军医大学 | 一种基于医学影像的视觉解释方法 |
CN116052007B (zh) * | 2023-03-30 | 2023-08-11 | 山东锋士信息技术有限公司 | 一种融合时间和空间信息的遥感图像变化检测方法 |
CN116091492B (zh) * | 2023-04-06 | 2023-07-14 | 中国科学技术大学 | 一种图像变化像素级检测方法与*** |
CN116740569B (zh) * | 2023-06-15 | 2024-01-16 | 安徽理工大学 | 一种基于深度学习的降雪区域云检测*** |
CN117173579B (zh) * | 2023-11-02 | 2024-01-26 | 山东科技大学 | 一种基于固有特征与多级特征融合的图像变化检测方法 |
CN117739925B (zh) * | 2023-12-19 | 2024-05-24 | 广东省水利水电第三工程局有限公司 | 一种无人机的影像智能分析方法 |
CN117612017B (zh) * | 2024-01-23 | 2024-05-24 | 江西啄木蜂科技有限公司 | 一种环境自适应的遥感影像变化检测方法 |
CN117975484B (zh) * | 2024-03-27 | 2024-07-05 | 腾讯科技(深圳)有限公司 | 变化检测模型的训练方法、变化检测方法、装置及设备 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112183432B (zh) * | 2020-10-12 | 2022-04-15 | 中国科学院空天信息创新研究院 | 一种基于中分辨率sar图像的建筑区提取方法以及*** |
AU2020103901A4 (en) * | 2020-12-04 | 2021-02-11 | Chongqing Normal University | Image Semantic Segmentation Method Based on Deep Full Convolutional Network and Conditional Random Field |
CN112949549B (zh) * | 2021-03-19 | 2023-04-18 | 中山大学 | 一种基于超分辨率的多分辨率遥感影像的变化检测方法 |
CN113420662B (zh) * | 2021-06-23 | 2023-04-07 | 西安电子科技大学 | 基于孪生多尺度差异特征融合的遥感影像变化检测方法 |
-
2022
- 2022-10-11 CN CN202211237501.2A patent/CN115331087B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN115331087A (zh) | 2022-11-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN115331087B (zh) | 融合区域语义与像素特征的遥感影像变化检测方法及*** | |
CN113298818B (zh) | 基于注意力机制与多尺度特征的遥感图像建筑物分割方法 | |
Hou et al. | High-resolution triplet network with dynamic multiscale feature for change detection on satellite images | |
CN113076871B (zh) | 一种基于目标遮挡补偿的鱼群自动检测方法 | |
CN111222396B (zh) | 一种全天候多光谱行人检测方法 | |
CN111353544B (zh) | 一种基于改进的Mixed Pooling-YOLOV3目标检测方法 | |
CN113609889B (zh) | 基于敏感特征聚焦感知的高分辨遥感影像植被提取方法 | |
CN114972191A (zh) | 一种耕地变化检测方法和装置 | |
Zuo et al. | HF-FCN: Hierarchically fused fully convolutional network for robust building extraction | |
CN113609896A (zh) | 基于对偶相关注意力的对象级遥感变化检测方法及*** | |
CN114494821B (zh) | 基于特征多尺度感知与自适应聚合的遥感影像云检测方法 | |
Delibasoglu et al. | Improved U-Nets with inception blocks for building detection | |
CN114863236A (zh) | 基于双重注意力机制的图像目标检测方法 | |
CN114565860A (zh) | 一种多维度增强学习合成孔径雷达图像目标检测方法 | |
CN111768415A (zh) | 一种无量化池化的图像实例分割方法 | |
CN110866938B (zh) | 一种全自动视频运动目标分割方法 | |
CN113888557A (zh) | 一种基于rgb-d特征融合的场景语义分割方法及*** | |
Chen et al. | ASF-Net: Adaptive screening feature network for building footprint extraction from remote-sensing images | |
CN111523439A (zh) | 一种基于深度学习的目标检测的方法、***、设备及介质 | |
Huang et al. | Attention-guided label refinement network for semantic segmentation of very high resolution aerial orthoimages | |
CN116071676A (zh) | 一种基于注意力导向金字塔融合的红外小目标检测方法 | |
CN116168240A (zh) | 基于注意力增强的任意方向密集舰船目标检测方法 | |
CN114926826A (zh) | 场景文本检测*** | |
CN117671500A (zh) | 一种基于改进的YOLOv7芒果病叶检测识别方法 | |
CN117351487A (zh) | 一种邻近区域与边缘信息融合的医学图像分割方法、*** |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |