CN111797920B - 门控特征融合的深度网络不透水面遥感提取方法及*** - Google Patents

门控特征融合的深度网络不透水面遥感提取方法及*** Download PDF

Info

Publication number
CN111797920B
CN111797920B CN202010619048.6A CN202010619048A CN111797920B CN 111797920 B CN111797920 B CN 111797920B CN 202010619048 A CN202010619048 A CN 202010619048A CN 111797920 B CN111797920 B CN 111797920B
Authority
CN
China
Prior art keywords
gating
image
remote sensing
feature fusion
impervious surface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010619048.6A
Other languages
English (en)
Other versions
CN111797920A (zh
Inventor
邵振峰
程涛
姚远
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan University WHU
Original Assignee
Wuhan University WHU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan University WHU filed Critical Wuhan University WHU
Priority to CN202010619048.6A priority Critical patent/CN111797920B/zh
Publication of CN111797920A publication Critical patent/CN111797920A/zh
Application granted granted Critical
Publication of CN111797920B publication Critical patent/CN111797920B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/30Assessment of water resources

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computational Linguistics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Evolutionary Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

一种门控特征融合的深度网络不透水面遥感提取方法及***,包括获取目标区域的高分辨率遥感影像,统计训练影像各个波段均值和标准差,进行归一化和分块,构建训练样本影像;构建基于门控特征融合的卷积神经网络,提取训练影像特征,卷积神经网络由残差网络、门控特征融合模块和解码模块构成,门控特征融合模块将低层特征的空间细节信息与高层特征的语义信息通过门控机制进行融合;设不同标签分别代表不透水面、非不透水面和水体,通过交叉熵损失函数进行更新训练;利用训练结果,使用基于门控特征融合的卷积神经网络实现不透水面提取。本发明能够对遥感影像中不透水面进行精确地自动化提取,满足城市内涝分析等应用需求。

Description

门控特征融合的深度网络不透水面遥感提取方法及***
技术领域
本发明属于遥感影像数据的信息提取领域,涉及门控特征融合的深度网络不透水面遥感提取技术方案。
背景技术
不透水面(Impervious Surface)是指地面阻止水分向土壤渗透的人工地表,常见的有建筑、道路、广场、停车场等,是评价城市生态***健康及人居环境质量的关键指标之一。在许多城市环境应用中,不透水面信息被作为关键参数参与其中。由于浅层机器学习方法的局限性,大数据量的不透水面提取依然很难实现,而卷积神经网络的出现正好解决了这个问题。卷积神经网络采用一系列的非线性变换,从原始影像中提取由低层到高层、由具体到抽象、由一般到特定语义的特征,已经在自然图像上的场景分类、语义分割和图像检索等领域得到了广泛应用。但是由于卷积神经网络的特性,其特征图会逐渐变小,这会带来地物提取上的信息损耗,尤其是那些细小地物,对于空间分辨率较低,地物复杂场景的遥感影像,传统卷积神经网络很难恢复损失掉的地物信息,从而导致无法更精确地提取不透水面。因此,亟需符合该需求的新技术方案的出现。
发明内容
针对现有方法的不足,本发明的目的是提供门控特征融合的深度网络不透水面遥感提取方法和***,有效的弥补卷积神经网络中特征图尺寸变化所带来信息损失的缺点,提高了高分辨率遥感影像不透水面提取的精度。
为实现上述目的,本发明的技术方案为一种门控特征融合的深度网络不透水面遥感提取方法,包括以下步骤,
步骤a,获取目标区域的高分辨率遥感影像,统计训练影像各个波段的均值和标准差,并对各影像进行归一化处理,将影像进行分块,构建训练样本影像;
步骤b,构建基于门控特征融合的卷积神经网络,提取训练样本影像的特征,将提取得到的影像特征进行逐像素类别预测,所述基于门控特征融合的卷积神经网络由残差网络、门控特征融合模块和解码模块构成,所述门控特征融合模块将低层特征的空间细节信息与高层特征的语义信息通过门控机制进行融合;
步骤c,设不同标签分别代表不透水面、非不透水面和水体,通过交叉熵损失函数计算训练样本影像的预测值与真值之间的误差,最小化该误差来对基于门控特征融合的卷积神经网络相应网络参数进行更新训练,得到性能最优的网络模型;
步骤d,利用步骤c的训练结果,使用基于门控特征融合的卷积神经网络对待测试的高分辨率遥感影像进行特征提取,将提取得到的影像特征进行逐像素类别预测,实现不透水面提取。
而且,步骤a中,对高分辨率遥感影像进行归一化处理实现方式为,统计所有训练影像每个波段的均值和标准差,并对所有遥感影像各个波段减去训练数据统计后对应波段的均值,然后除以对应波段的标准差,从而实现归一化处理。
而且,残差网络中包括四个卷积层和四个残差块,将四个残差块的输出引出,构建出三个门控特征融合模块,这三个门控特征融合模块分别将低层特征的空间细节信息与相邻高层特征的语义信息进行融合;将该三个门控特征融合模块的输出与残差网络的输出进行拼接,合并多个特征形成一个组合特征;拼接后输出依次经过解码模块中的卷积层以及Softmax层、上采样,通过上采样把Softmax层提取出的影像特征映射到每一个像素点位置,最终实现高分辨率遥感影像的逐像素特征提取及类别概率预测。
而且,所述门控特征融合模块表达为公式如下:
Figure BDA0002562390690000021
Figure BDA0002562390690000022
其中,函数Gate=sigmoid(wi*Xi),代表将输入的特征映射到0,1之间,得到门控值,sigmoid函数是S型函数,Xl代表网络中间引出的第l个特征,Xl-1代表网络中间引出的第l-1个特征,
Figure BDA0002562390690000031
代表相邻两个特征的空间差异,用于得到两个特征之间差异化的门控值,
Figure BDA0002562390690000032
代表经过门控融合的特征。
而且,步骤c中,通过最小化交叉熵损失函数,来对卷积神经网络里的参数进行训练,并使用梯度下降法来逐步更新网络参数,直至交叉熵损失函数不再减小且变化趋于平稳,得到性能最优的网络模型,最终实现不透水面的精确提取。
本发明提供一种门控特征融合的深度网络不透水面遥感提取***,用于实现如上所述门控特征融合的深度网络不透水面遥感提取方法。
综上所述,本发明提出了门控特征融合的深度网络不透水面遥感提取技术方案,针对高分辨率遥感影像构建了基于门控特征融合的卷积神经网络进行影像特征的自动提取,并创新性地将低层特征和高层特征通过门控机制将两者的有效信息进行融合,从而得到细节信息更丰富的不透水面提取结果。本发明是以数据为驱动基础,自动提取数据中的特征,并利用门控特征融合方法,来细化遥感影像不透水面的提取结果,并且数据源便于获取,操作步骤明确可重复,该发明非常符合实际的城市环境应用中基础环境数据提取需求,可以用于为城市内涝分析、城市规划等方面提供技术支持。
附图说明
图1为本发明实施例的流程图。
图2为本发明实施例的门控特征融合模块原理图。
图3为本发明实施例的基于门控特征融合的卷积神经网络结构图。
具体实施方式
为了更好地理解本发明的技术方案,下面结合附图和实施例对本发明做进一步的详细说明。
本发明为针对现有技术缺陷,提出利用卷积网络,引入门控特征融合模块,训练卷积神经网络模型对不透水面进行精确提取。
参见图1,本发明实施例提供的一种门控特征融合的深度网络不透水面遥感提取方法,包括以下步骤:
步骤a,获取高分辨率遥感影像,统计影像各个波段的均值和标准差,并对影像进行归一化处理,将影像进行分块构建训练样本影像;
对高分辨率遥感影像进行归一化处理是为了消除量纲的影响,加快后续步骤梯度下降求最优解的速度。高分辨率遥感影像一般是指空间分辨率在10m以内的遥感影像。
具体实施时,获取用户定义的目标区域的多幅高分辨率遥感影像(如武汉市主城区高分2号影像),将一部分影像作为训练影像,一部分影像作为测试影像,统计所有训练影像每个波段的均值和标准差,根据基于训练影像所得数据统计结果,对训练影像和测试影像分别进行相同处理:
对所有训练影像各个波段减去训练数据统计后对应波段的均值,然后除以对应波段的标准差,从而实现归一化处理。最后将影像划分为256x256大小的影像块。对所有训练影像相应处理得到的影像块构成步骤b的输入影像。
对所有测试影像各个波段减去训练数据统计后对应波段的均值,然后除以对应波段的标准差,从而实现归一化处理。最后将影像划分为256x256大小的影像块。对测试影像相应处理得到的影像块可作为步骤d的输入影像。
步骤b,构建基于门控特征融合的卷积神经网络,提取训练样本影像的特征,将提取得到的影像特征进行逐像素类别预测,所述基于门控特征融合的卷积神经网络,其由残差网络、门控特征融合模块和解码模块构成;
所述卷积神经网络前半段包括多个卷积层,可由卷积、批规范化、激活函数交叉堆叠构成,并引出中间四个输出特征,基于引出的四个输出特征构建出三个门控特征融合模块,这三个门控特征融合模块将低层特征的空间细节信息与高层特征的语义信息进行了融合;将该三个门控特征融合模块的输出与前半段网络的输出进行拼接;后面将上述的拼接输出经过解码模块,解码模块包括卷积层、Softmax层和上采样,把中间提出的影像特征映射到每一个像素点位置,最终实现高分辨率遥感影像的逐像素特征提取及类别概率预测。
具体实施时,如图3,所述卷积神经网络以残差网络(依次包括层1-8)为骨干网络,残差网络中包括四个卷积层(层1-4)和四个残差块(层5-8),将残差网络的四个残差块(层5-8)引出,构建出三个门控特征融合模块(层9-11),这三个门控特征融合模块将低层特征的空间细节信息与高层特征的语义信息进行了融合;将该三个门控特征融合模块的输出与残差网络的输出进行Concat拼接(层12),合并多个特征形成一个组合特征;后面将上述的拼接输出依次经过解码模块中的卷积层(层13-16)以及Softmax层(层17)、上采样(层18),通过上采样把Softmax层提取出的影像特征映射到每一个像素点位置,最终实现高分辨率遥感影像的逐像素特征提取及类别概率预测。在Softmax层中,采用softmax函数对每个像素点属于各个类别的概率进行计算,从而得到影像上每个位置属于各个地物类别的概率。
通常,每个卷积层包含卷积、批规范化和激活函数。具体细节见表1:
表1网络结构
Figure BDA0002562390690000051
Figure BDA0002562390690000061
其中,#为层编号,Layer表示层,例如Conv为卷积层,Max-Pool为最大池化层,Block表示残差块,Gatefusion表示门控特征融合模块,Concat表示拼接,Softmax表示归一化指数函数,Interpolate表示上采样;Filters表示所使用的卷积核的个数,Size表示卷积核的尺寸,Input表示网络输入的尺寸大小,Output表示网络输出的尺寸大小。
参见图2,Gatefusion门控特征融合模块的原理可表达为公式如下:
Figure BDA0002562390690000062
Figure BDA0002562390690000063
其中,函数Gate=sigmoid(wi*Xi),代表将输入的特征映射到0,1之间,得到门控值,sigmoid函数是S型函数,Xl代表网络中间引出的第l个特征,Xl-1代表网络中间引出的第l-1个特征,
Figure BDA0002562390690000071
代表相邻两个特征的空间差异,即得到两个特征之间差异化的门控值,
Figure BDA0002562390690000072
代表经过门控融合的特征。输入低层特征Xl-1和高层特征Xl,计算Xl-1+Xl和Xl的差异化门控值
Figure BDA0002562390690000073
将高层特征Xl乘以
Figure BDA0002562390690000074
然后加上低层特征Xl-1乘以
Figure BDA0002562390690000075
得到了融合的特征
Figure BDA0002562390690000076
该门控特征模块可以有效的把低层特征的空间细节信息和高层特征的语义信息进行融合。
实施例中,层5和层6的特征输出到层9,层6和层7的特征输出到层10,层7和层8的特征输出到层10。
步骤c,通过交叉熵损失函数计算训练样本影像的预测值与真值之间的误差,最小化该误差来对网络参数进行更新训练,得到性能最优的网络模型;
通过最小化交叉熵损失函数,来对卷积神经网络里的参数进行训练,并使用梯度下降法来逐步更新网络参数,直至交叉熵损失函数不再减小且变化趋于平稳,得到性能最优的网络模型,最终实现不透水面的精确提取。
具体实施时,将训练样本影像与其对应的真值影像(标签为0,1,2,分别代表不透水面、非不透水面、水体)代入到网络模型里进行训练,通过网络模型输出预测的影像逐像素类别概率,将预测的逐像素类别概率与真值影像代入到交叉熵损失函数,然后,将求解出的损失值进行反向传播,并利用梯度下降法迭代更新训练参数,直至损失值降低至满足预设条件,例如预设得某一个阈值范围或损失变化趋于稳定。训练完成后,则进入步骤d。
步骤d,利用步骤c的训练结果,使用基于门控特征融合的卷积神经网络对高分辨率遥感影像进行特征提取,将提取得到的影像特征进行逐像素类别预测,实现不透水面提取。
具体实施时,利用步骤c已训练好的网络模型参数,对目标区域的测试遥感影像(采用步骤a对测试影像相应处理得到的影像块作为输入)通过构建的基于门控特征融合的卷积神经网络提取影像特征,利用网络提取的影像特征进行逐像素类别预测(采用与步骤b一致的方式),获取最大概率的地物标签,最终得到不透水面的提取结果。具体实施时,对于需要检测的遥感影像按照步骤a进行预处理后,利用基于门控特征融合的卷积神经网络即可得到相应不透水面的提取结果。
具体实施时,该方法可采用计算机软件技术实现自动运行流程,实施方法流程的相应***装置也在本发明的保护范围内。
本发明中所描述的具体实施例仅仅是对本发明精神作举例说明。本发明所属技术领域的技术人员可以对所描述的具体实施例做各种各样的修改或补充或采用类似的方式替代,但并不会偏离本发明的精神或者超越所附权利要求书所定义的范围。

Claims (5)

1.一种门控特征融合的深度网络不透水面遥感提取方法,其特征在于:包括以下步骤,
步骤a,获取目标区域的高分辨率遥感影像,统计训练影像各个波段的均值和标准差,并对各影像进行归一化处理,将影像进行分块,构建训练样本影像;
步骤b,构建基于门控特征融合的卷积神经网络,提取训练样本影像的特征,将提取得到的影像特征进行逐像素类别预测,所述基于门控特征融合的卷积神经网络由残差网络、门控特征融合模块和解码模块构成,所述门控特征融合模块将低层特征的空间细节信息与高层特征的语义信息通过门控机制进行融合;
残差网络中包括四个卷积层和四个残差块,将四个残差块的输出引出,构建出三个门控特征融合模块,这三个门控特征融合模块分别将低层特征的空间细节信息与相邻高层特征的语义信息进行融合;将该三个门控特征融合模块的输出与残差网络的输出进行拼接,合并多个特征形成一个组合特征;拼接后输出依次经过解码模块中的卷积层以及Softmax层、上采样,通过上采样把Softmax层提取出的影像特征映射到每一个像素点位置,最终实现高分辨率遥感影像的逐像素特征提取及类别概率预测;
步骤c,设不同标签分别代表不透水面、非不透水面和水体,通过交叉熵损失函数计算训练样本影像的预测值与真值之间的误差,最小化该误差来对基于门控特征融合的卷积神经网络相应网络参数进行更新训练,得到性能最优的网络模型;
步骤d,利用步骤c的训练结果,使用基于门控特征融合的卷积神经网络对待测试的高分辨率遥感影像进行特征提取,将提取得到的影像特征进行逐像素类别预测,实现不透水面提取。
2.根据权利要求1所述门控特征融合的深度网络不透水面遥感提取方法,其特征在于:步骤a中,对高分辨率遥感影像进行归一化处理实现方式为,统计所有训练影像每个波段的均值和标准差,并对所有遥感影像各个波段减去训练数据统计后对应波段的均值,然后除以对应波段的标准差,从而实现归一化处理。
3.根据权利要求1所述门控特征融合的深度网络不透水面遥感提取方法,其特征在于:所述门控特征融合模块表达为公式如下:
Figure FDA0003751728670000011
Figure FDA0003751728670000012
其中,函数Gate=sigmoid(),代表将输入的特征映射到0,1之间,得到门控值,sigmoid函数是S型函数,Xl代表网络中间引出的第l个特征,Xl-1代表网络中间引出的第l-1个特征,
Figure FDA0003751728670000021
代表相邻两个特征的空间差异,用于得到两个特征之间差异化的门控值,
Figure FDA0003751728670000022
代表经过门控融合的特征。
4.根据权利要求1或2或3所述门控特征融合的深度网络不透水面遥感提取方法,其特征在于:步骤c中,通过最小化交叉熵损失函数,来对卷积神经网络里的参数进行训练,并使用梯度下降法来逐步更新网络参数,直至交叉熵损失函数不再减小且变化趋于平稳,得到性能最优的网络模型,以支持最终实现不透水面的精确提取。
5.一种门控特征融合的深度网络不透水面遥感提取***,其特征在于:用于实现如权利要求1至4任一项所述门控特征融合的深度网络不透水面遥感提取方法。
CN202010619048.6A 2020-06-30 2020-06-30 门控特征融合的深度网络不透水面遥感提取方法及*** Active CN111797920B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010619048.6A CN111797920B (zh) 2020-06-30 2020-06-30 门控特征融合的深度网络不透水面遥感提取方法及***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010619048.6A CN111797920B (zh) 2020-06-30 2020-06-30 门控特征融合的深度网络不透水面遥感提取方法及***

Publications (2)

Publication Number Publication Date
CN111797920A CN111797920A (zh) 2020-10-20
CN111797920B true CN111797920B (zh) 2022-08-30

Family

ID=72809769

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010619048.6A Active CN111797920B (zh) 2020-06-30 2020-06-30 门控特征融合的深度网络不透水面遥感提取方法及***

Country Status (1)

Country Link
CN (1) CN111797920B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111968064B (zh) * 2020-10-22 2021-01-15 成都睿沿科技有限公司 一种图像处理方法、装置、电子设备及存储介质
CN112560716B (zh) * 2020-12-21 2024-05-28 浙江万里学院 一种基于低层特征融合的高分辨率遥感影像水体提取方法
CN112712033B (zh) * 2020-12-30 2021-11-19 哈尔滨工业大学 一种城市排水管网汇水区自动划分方法
CN113269787A (zh) * 2021-05-20 2021-08-17 浙江科技学院 一种基于门控融合的遥感图像语义分割方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110705457A (zh) * 2019-09-29 2020-01-17 核工业北京地质研究院 一种遥感影像建筑物变化检测方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103824077B (zh) * 2014-03-17 2017-02-22 武汉大学 一种基于多源遥感数据的城市不透水层率息提取方法
US11501042B2 (en) * 2014-03-24 2022-11-15 Imagars Llc Decisions with big data
US9892646B2 (en) * 2014-07-22 2018-02-13 Sikorsky Aircraft Corporation Context-aware landing zone classification
CN108985238B (zh) * 2018-07-23 2021-10-22 武汉大学 联合深度学习和语义概率的不透水面提取方法及***
CN109934153B (zh) * 2019-03-07 2023-06-20 张新长 基于门控深度残差优化网络的建筑物提取方法
CN109919951B (zh) * 2019-03-14 2022-07-19 武汉大学 语义关联的面向对象城市不透水面遥感提取方法及***
CN111243591B (zh) * 2020-02-25 2023-03-21 上海麦图信息科技有限公司 一种引入外部数据校正的空中管制语音识别方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110705457A (zh) * 2019-09-29 2020-01-17 核工业北京地质研究院 一种遥感影像建筑物变化检测方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
融合位置信息的卷积门控网络实现与应用;时昭丽等;《信息技术与网络安全》;20200110(第01期);全文 *

Also Published As

Publication number Publication date
CN111797920A (zh) 2020-10-20

Similar Documents

Publication Publication Date Title
CN111797920B (zh) 门控特征融合的深度网络不透水面遥感提取方法及***
CN108985238B (zh) 联合深度学习和语义概率的不透水面提取方法及***
CN109145939B (zh) 一种小目标敏感的双通道卷积神经网络语义分割方法
CN108647585B (zh) 一种基于多尺度循环注意力网络的交通标识符检测方法
CN108846835B (zh) 基于深度可分离卷积网络的图像变化检测方法
CN113780296B (zh) 基于多尺度信息融合的遥感图像语义分割方法及***
CN110929577A (zh) 一种基于YOLOv3的轻量级框架改进的目标识别方法
CN109446970A (zh) 一种基于深度学习的变电站巡检机器人道路场景识别方法
CN108805070A (zh) 一种基于嵌入式终端的深度学习行人检测方法
CN111950453A (zh) 一种基于选择性注意力机制的任意形状文本识别方法
CN113052106B (zh) 一种基于PSPNet网络的飞机起降跑道识别方法
CN112950780B (zh) 一种基于遥感影像的网络地图智能生成方法及***
CN110956196B (zh) 一种城市建筑物窗墙比自动识别方法
CN114943876A (zh) 一种多级语义融合的云和云影检测方法、设备及存储介质
CN114359130A (zh) 一种基于无人机影像的道路裂缝检测方法
CN112560716A (zh) 一种基于低层特征融合的高分辨率遥感影像水体提取方法
CN116524189A (zh) 一种基于编解码索引化边缘表征的高分辨率遥感图像语义分割方法
CN114897781A (zh) 基于改进R-UNet深度学习的透水混凝土孔隙自动识别方法
CN111104850A (zh) 一种基于残差网络的遥感影像建筑物自动提取方法和***
Hosseinpoor et al. Convolutional neural network for building extraction from high-resolution remote sensing images
CN115512222A (zh) 一种线下训练-线上学习的灾害场景地物损毁评估方法
CN116206112A (zh) 基于多尺度特征融合和sam的遥感图像语义分割方法
CN116403121A (zh) 水体指数与极化信息多路径融合的遥感图像水域分割方法、***及设备
CN113077438B (zh) 针对多细胞核彩色图像的细胞核区域提取方法及成像方法
CN115496788A (zh) 一种使用空域传播后处理模块的深度补全方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant