CN116844039A - 一种联合多注意的跨尺度遥感图像耕地提取方法 - Google Patents

一种联合多注意的跨尺度遥感图像耕地提取方法 Download PDF

Info

Publication number
CN116844039A
CN116844039A CN202310662702.5A CN202310662702A CN116844039A CN 116844039 A CN116844039 A CN 116844039A CN 202310662702 A CN202310662702 A CN 202310662702A CN 116844039 A CN116844039 A CN 116844039A
Authority
CN
China
Prior art keywords
attention
remote sensing
features
sensing image
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310662702.5A
Other languages
English (en)
Inventor
张波
邢青涛
朱济帅
李海霞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hainan Juneng Technology Innovation Research Institute Co ltd
Original Assignee
Hainan Juneng Technology Innovation Research Institute Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hainan Juneng Technology Innovation Research Institute Co ltd filed Critical Hainan Juneng Technology Innovation Research Institute Co ltd
Priority to CN202310662702.5A priority Critical patent/CN116844039A/zh
Publication of CN116844039A publication Critical patent/CN116844039A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一个联合多注意以及跨尺度特征融合网络来充分提取遥感图像的空间特征和纹理特征。多注意模块包括通道注意和空间注意,以进一步关注重要区域的信息。此外,本发明提出了一种跨尺度特征融合模块,以充分融合浅层和深层信息进行预测,使得特征表示和学习后的混合信息包含了多层次的特征。该网络在两个遥感图像分割数据集上进行了测试,显示了良好的分类性能。结果表明,该方法对遥感图像中的深层语义信息非常有效。

Description

一种联合多注意的跨尺度遥感图像耕地提取方法
技术领域
本发明属于遥感图像分割领域,具体涉及一种联合多注意的跨尺度遥感图像耕地提取方法。
背景技术
遥感图像分割是指将遥感图像中的像素按照其所属的不同类别进行划分的过程。遥感图像分割技术已经在许多领域得到了广泛应用,如农业、城市规划、环境监测、天文学和地质学等领域。通过遥感图像分割,可以提取出地表覆盖类型、道路网络、建筑物轮廓、森林覆盖范围等信息,从而为相关领域的决策提供支持。
耕地提取是指利用遥感技术和图像处理算法,从高分辨率的远程遥感图像中准确提取出农业耕地的过程。它是精准农业中的重要任务之一。在农业生产中,对耕地的识别和提取具有重要意义,可以在农业管理、决策制定、精准施肥等方面提供有力的支持。
由于遥感图像具有分辨率高、维度多、背景复杂、目标尺度不一致等特点,因此传统的图像分割方法在遥感图像分割中面临着很大的挑战。为提高分割准确率,当前的前沿方法往往基于神经网络,考虑多尺度或引入注意力机制。这些方法可以学***衡全局信息和局部信息。现有的多尺度方法没有考虑遥感图像的信息密集性和广泛性,导致模型无法充分学习遥感图像的全局轮廓,也容易忽略遥感图像的局部特征。其次,这些方法缺乏上下文相关性信息,忽略了不同维度之间的潜在特征,这使得上下文信息缺失。最后,这些方法没有考虑像素类别边界信息对图像分割的影响。
发明内容
本发明的目的是针对上述的不足,提出了一种新的遥感图像分割方法,它结合了注意力机制和跨尺度融合,可以更好地提高遥感图像的分割准确率。本发明采用了语义分割中的Encoder-Decoder架构。对于Encoder,本发明利用Swin Transformer作为骨干网络结构提取遥感图像中丰富的语义信息以及上下文信息。对于Decoder,通过注意力机制,使网络关注到更重要的区域,最后通过跨尺度特征融合,将经过注意力之后得到的深层特征与浅层特征进行融合,最后将融合的特征进行预测,提升了遥感图像分割的性能。
本发明解决该问题采用的技术方案为:
一种联合多注意的跨尺度遥感图像耕地提取方法,包括如下步骤:
步骤1,划分训练数据集和测试数据集;
步骤2,对训练集遥感图像数据进行预处理,得到经过数据增强后的遥感图像数据;
步骤3,将训练集图像输入构建网络的编码器进行编码,得到多尺度特征;
步骤4,对于编码器得到的多尺度特征,执行包含通道注意(CA)、空间注意(SA)的跨尺度融合模块,得到融合特征;
步骤5,将融合的特征上采样到统一分辨率得到最终的融合特征;
步骤6,使用softmax函数来识别标签。
更优的,步骤3中我们使用的Swin Transformer每个Stage的Block数量分别为2,6,18,2;经过每个Stage后得到的特征图大小分别为H/4×W/4,H/8×W/8,H/16×W/16,H/32×W/32,通道数分别为96,192,384,768。
更优的,步骤4中通道注意的处理过程如下;
对于输入特征F,对其进行平均池化和最大池化操作,得到两个不同的空间上下文描述符和/>然后将它们输入到一个共享的多层感知器(MLP)中,MLP的隐藏层大小设置为RC/r×1×1,其中r是缩减比,C是通道数,然后逐元素求和得到最终的输出特征;该过程用数学公式表示为:
其中Sig为sigmoid函数,W0∈RC/r×C,MLP权重W0和W1是共享的,ReLU激活函数后面是W0
更优的,对于空间注意力模块部分,首先将输入特征F进行平均池化和最大池化操作,从而分别获取特征和/>接着,将这两个结果特征连接起来,然后使用卷积层对它们进行处理,最后生成空间注意特征图;
其中Sig为sigmoid函数,f3×3表示卷积核大小为3×3的卷积运算。
更优的,步骤4中生成跨尺度融合特征的过程如下;
首先定义经过Swin Transformer的4个Stage得到的由浅至深的特征为F1,F2,F3,F4,采用跨层融合方式进行;(F1,F3)和(F2,F4)分别表示由浅层和深层特征组成的特征对;
具体来说,对于特征对(F1,F3)(另一个特征对同理),对于深层特征F3来说,依次经过通道注意力,1×1卷积,Sigmoid函数以及4倍上采样得到浅层注意权重W;接着,对于浅层特征F1,依次经过空间注意力模块以及1×1卷积得到特征图F1';接着F1'和W进行点积操作得到融合特征F';该过程用数学公式表示为:
F'=f1×1(SA(F1))*Sig(Upsample(f1×1(CA(F3)) (3)
其中,f1×1表示1×1卷积,Sig表示Sigmoid函数,SA表示空间注意力,CA表示通道注意力,Upsample表示四倍上采样操作,*表示1×1点积操作。
更优的,步骤5中将步骤4中得到的融合特征均上采样到输入图像的1/4大小,并且使用Concat函数进行拼接,最后在步骤6中使用Softmax函数进行预测。
更优的,训练整体网络模型时,使用Adam算法进行优化,学习率设置为6×10-5,批量大小设置为8,训练40000轮迭代,通过训练模型从而得到网络的权重参数W和偏置参数B。
本发明的有益效果是:本发明设计了一种结合通道注意以及空间注意的跨尺度多注意力模块。我们分别定义模块中的两个特征为浅层特征和深层特征。对于深层特征来说,通道数量大,该模块先利用通道注意对通道进行选择,通道注意力可以根据不同通道的重要性自适应地加权图像中的特征,从而使得模型更加关注对于特定任务最为重要的特征,并且通道注意力可以自适应地调整通道的权重,从而可以在一定程度上应对不同的数据集和应用场景,提高模型的鲁棒性。而对于浅层特征来说,特征图分辨率较大,所包含的空间位置信息更加丰富,通过空间注意力机制,模型能够更加聚焦于图像中具有重要特征的区域,强化关键区域的特征表示。之后,深层特征经过Sigmoid函数以及上采样后,得到的特征与浅层特征进行融合得到融合特征进行预测。关于Decoder设计部分,我们定义通过SwinTransformer的4个Stage得到的特征分别为F1,F2,F3,F4.本发明使用跨层特征融合的方式,即(F1,F3)和(F2,F4)对应两个(深层特征,浅层特征)的特征对进行特征融合,从而达到更高的分割效果。
与现有用于遥感图像分割的网络结构相比,本发明提出的网络框架结合了多种注意力机制,既包括通道力也包括了空间注意力,为了融合缓解Transformer不同层Encoder对特征提取程度的巨大差异以及充分利用Transformer框架提取出来的全局信息,我们采用了跨层融合的结构,将跨层次信息融合后再用于后续分割,使网络对于遥感图像中这些样本数较少的类别具有更强的容错能力以及更好的鲁棒性。
附图说明
图1为本发明的网络框架结构图。
图2为本发明中通道注意机制图。
图3为本发明中空间注意机制图。
图4为本发明中跨层特征自适应融合结构图。
具体实施方式
下面结合附图对本发明的技术方案作进一步描述。
如图1-4所示,本发明提供的一种联合多注意的跨尺度遥感图像耕地提取方法,具体步骤如下:
步骤1,划分训练数据集和测试数据集;
步骤2,对训练集遥感图像数据进行预处理,得到经过数据增强后的遥感图像数据;
步骤3,将训练集图像输入构建网络的编码器进行编码,得到多尺度特征;
步骤4,对于编码器得到的多尺度特征,执行包含通道注意(CA)、空间注意(SA)的跨尺度融合模块,得到融合特征;
步骤5,将融合的特征上采样到统一分辨率得到最终的融合特征;
步骤6,使用softmax函数来识别标签。
进一步的,步骤3中我们使用Swin Transformer作为编码器,共4个Stage,每个Stage包含多个Swin TransfomerBlock。
进一步的,步骤3中我们使用的Swin Transformer每个Stage的Block数量分别为2,6,18,2。经过每个Stage后得到的特征图大小分别为H/4×W/4,H/8×W/8,H/16×W/16,H/32×W/32,通道数分别为96,192,384,768。
进一步的,在步骤4中,为了设计通道注意力,我们使用了一个具体的过程,如图2所示。对于输入特征F,我们对其进行平均池化和最大池化操作,得到两个不同的空间上下文描述符和/>然后将它们输入到一个共享的多层感知器(MLP)中,MLP的隐藏层大小设置为RC/r×1×1,其中r是缩减比,C是通道数,然后逐元素求和得到最终的输出特征。该过程用数学公式表示为:
其中Sig为sigmoid函数,W0∈RC/r×C,MLP权重W0和W1是共享的,ReLU激活函数后面是W0
进一步的,为了实现空间注意力模块,我们首先将输入特征F进行平均池化和最大池化操作,从而分别获取特征和/>接着,将这两个结果特征连接起来,然后使用卷积层对它们进行处理,最后生成空间注意特征图。具体过程如附图3所示。
其中Sig为sigmoid函数,F为输入特征,f3×3表示卷积核大小为3×3的卷积运算。
进一步的,步骤4中的跨尺度融合模块具体操作过程如下:
首先定义经过Swin Transformer的4个Stage得到的由浅至深的特征为F1,F2,F3,F4。本发明采用跨层融合方式进行,具体来说(F1,F3)和(F2,F4)分别表示由浅层和深层特征组成的特征对。具体来说,以特征对(F1,F3)为例,对于深层特征F3来说,依次经过通道注意力,1×1卷积,Sigmoid函数以及4倍上采样得到浅层注意权重W。接着,对于浅层特征F1,依次经过空间注意力模块以及1×1卷积得到特征图F1'。接着F1'和W进行点积操作得到融合特征F'。该过程用数学公式表示为:
F'=f1×1(SA(F1))*Sig(Upsample(f1×1(CA(F3)) (3)
其中,f1×1表示1×1卷积(输出通道数均设置为512),Sig表示Sigmoid函数,SA表示空间注意力,CA表示通道注意力,Upsample表示四倍上采样操作,*表示1×1点积操作。
进一步的,步骤5中从步骤4中得到的融合特征F'上采样到输入大小的1/4大小,并且使用Concat函数进行拼接,最后在步骤6中使用Softmax函数进行预测。
进一步的,训练整体网络模型时,使用交叉熵(Cross-Entropy,CE)损失函数,使用Adam算法进行优化,学习率设置为6×10-5,批量大小设置为8,训练40000轮迭代,通过训练模型从而得到网络的权重参数W和偏置参数B。
本实施例采用的环境是Intel Xeon(R)Silver 4210R CPU,64GB RAM,and anNVIDIA Quadro RTX 500016GB GPU、linux操作***,运用Python和开源库pytorch进行开发。
接下来,我们以ISPRS Potsdam数据集为例来说明我们设计的分类网络框架。
使用ISPRS Potsdam数据集,对于该数据集的划分如下:
ISPRS Potsdam数据集一共有38个图像块,每个图像块大小为6000×6000分辨率,我们根据mmsegmentation的基准进行数据集的切分,使用24张图像块用于训练,使用14张图像块用于测试,将每张图像块都切割成512×512大小的图像作为网络的输入。
将512×512的图像输入到Swin Transformer进行特征提取,经过四个Stage得到由浅至深的四个特征F1,F2,F3,以及F4。大小分别为128×128×96,64×64×192,32×32×384以及16×16×768。
接着,F1和F3作为一个特征对,F2以及F4作为一个特征对。以F2和F4为例,对于F4,执行一个通道注意模块和一个使用512个1×1的二维卷积层,接着利用四倍上采样以及Sigmoid函数后获得的特征图F4'大小为64×64×512。对于F2,执行一个空间注意模块和一个使用512个1×1的二维卷积层,以获得特征图F2',大小为64×64×512,接着将F2'和F4'做点积操作获得最终的融合特征F24。特征F1和F3同理获得融合特征F13
然后,将F24上采样到和F13同样的大小128×128×512,两个特征进行拼接,最后利用Softmax函数得到最终的预测结果。
计算检索精度及测试:
使用上述训练的网络计算测试数据集中样本并计算三个评价指标,它们分别是:平均像素准确度(mPA)、平均准确率(mAcc)、平均交并比(mIoU)。这三个指标的值越大,分割结果就越好。
为了评估本发明方法的有效性,我们在两个公共遥感图像分割数据集(ISPRSPotsdam数据集、ISPRS vaihingen数据集)上选择了几种具有代表性的方法进行比较实验:DANet,PSPNet,DeepLabV3+、GCNet、Segformer和我们提出的方法。同时,对于不同方法中训练集和测试集的划分,我们保持了一致,以体现对比实验的公平性。
表1
表1是本发明与其他方法在ISPRS Potsdam数据集上的比较实验结果。
表2
表2是本发明与其他方法在ISPRS Vaihingen数据集上的比较实验结果。
本发明的实施方案仅仅为了清楚地说明本发明的举例,并不局限上述举例。本领域人员在此方法上的基础上作不同形式的改变或等同替换,但凡与本发明类似的变化都属于本发明权利要求的保护范围之中。

Claims (7)

1.一种联合多注意的跨尺度遥感图像耕地提取方法,其特征在于,包括如下步骤:
步骤1,划分训练数据集和测试数据集;
步骤2,对训练集遥感图像数据进行预处理,得到经过数据增强后的遥感图像数据;
步骤3,将训练集图像输入构建网络的编码器进行编码,得到多尺度特征;
步骤4,对于编码器得到的多尺度特征,执行包含通道注意CA、空间注意SA的跨尺度融合模块,得到融合特征;
步骤5,将融合的特征上采样到统一分辨率得到最终的融合特征;
步骤6,使用softmax函数来识别标签。
2.如权利要求1所述的一种联合多注意的跨尺度遥感图像耕地提取方法,其特征在于:步骤3中我们使用的SwinTransformer每个Stage的Block数量分别为2,6,18,2;经过每个Stage后得到的特征图大小分别为H/4×W/4,H/8×W/8,H/16×W/16,H/32×W/32,通道数分别为96,192,384,768。
3.如权利要求1所述的一种联合多注意的跨尺度遥感图像耕地提取方法,其特征在于:步骤4中通道注意的处理过程如下;
对于输入特征F,对其进行平均池化和最大池化操作,得到两个不同的空间上下文描述符和/>然后将它们输入到一个共享的多层感知器MLP中,MLP的隐藏层大小设置为RC /r×1×1,其中r是缩减比,C是通道数,然后逐元素求和得到最终的输出特征;该过程用数学公式表示为:
其中Sig为sigmoid函数,W0∈RC/r×C,MLP权重W0和W1是共享的,ReLU激活函数后面是W0
4.如权利要求1所述的一种联合多注意的跨尺度遥感图像耕地提取方法,其特征在于:对于空间注意力模块部分,首先将输入特征F进行平均池化和最大池化操作,从而分别获取特征和/>接着,将这两个结果特征连接起来,然后使用卷积层对它们进行处理,最后生成空间注意特征图;
其中Sig为sigmoid函数,f3×3表示卷积核大小为3×3的卷积运算。
5.如权利要求1所述的一种联合多注意的跨尺度遥感图像耕地提取方法,其特征在于:步骤4中生成跨尺度融合特征的过程如下;
首先定义经过SwinTransformer的4个Stage得到的由浅至深的特征为F1,F2,F3,F4,采用跨层融合方式进行;(F1,F3)和(F2,F4)分别表示由浅层和深层特征组成的特征对;
具体来说,对于特征对(F1,F3)(另一个特征对同理),对于深层特征F3来说,依次经过通道注意力,1×1卷积,Sigmoid函数以及4倍上采样得到浅层注意权重W;接着,对于浅层特征F1,依次经过空间注意力模块以及1×1卷积得到特征图F1';接着F1'和W进行点积操作得到融合特征F';该过程用数学公式表示为:
F'=f1×1(SA(F1))*Sig(Upsample(f1×1(CA(F3)) (3)
其中,f1×1表示1×1卷积,Sig表示Sigmoid函数,SA表示空间注意力,CA表示通道注意力,Upsample表示四倍上采样操作,*表示1×1点积操作。
6.如权利要求1所述的一种联合多注意的跨尺度遥感图像耕地提取方法,其特征在于:步骤5中将步骤4中得到的融合特征均上采样到输入图像的1/4大小,并且使用Concat函数进行拼接,最后在步骤6中使用Softmax函数进行预测。
7.如权利要求1所述的一种联合多注意的跨尺度遥感图像耕地提取方法,其特征在于:训练整体网络模型时,使用Adam算法进行优化,学习率设置为6×10-5,批量大小设置为8,训练40000轮迭代,通过训练模型从而得到网络的权重参数W和偏置参数B。
CN202310662702.5A 2023-06-06 2023-06-06 一种联合多注意的跨尺度遥感图像耕地提取方法 Pending CN116844039A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310662702.5A CN116844039A (zh) 2023-06-06 2023-06-06 一种联合多注意的跨尺度遥感图像耕地提取方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310662702.5A CN116844039A (zh) 2023-06-06 2023-06-06 一种联合多注意的跨尺度遥感图像耕地提取方法

Publications (1)

Publication Number Publication Date
CN116844039A true CN116844039A (zh) 2023-10-03

Family

ID=88164364

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310662702.5A Pending CN116844039A (zh) 2023-06-06 2023-06-06 一种联合多注意的跨尺度遥感图像耕地提取方法

Country Status (1)

Country Link
CN (1) CN116844039A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN118196638A (zh) * 2024-05-13 2024-06-14 湖南省第二测绘院 一种基于多层次特征细化的遥感影像耕地提取方法及***

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN118196638A (zh) * 2024-05-13 2024-06-14 湖南省第二测绘院 一种基于多层次特征细化的遥感影像耕地提取方法及***

Similar Documents

Publication Publication Date Title
CN111695467B (zh) 基于超像素样本扩充的空谱全卷积高光谱图像分类方法
CN110263912B (zh) 一种基于多目标关联深度推理的图像问答方法
CN111368896A (zh) 基于密集残差三维卷积神经网络的高光谱遥感图像分类方法
Xiao et al. Enhancing multiscale representations with transformer for remote sensing image semantic segmentation
Wang et al. RSCNet: A residual self-calibrated network for hyperspectral image change detection
CN112784782B (zh) 一种基于多视角双注意网络的三维物体识别方法
CN114724155A (zh) 基于深度卷积神经网络的场景文本检测方法、***及设备
CN115222998B (zh) 一种图像分类方法
CN116912708A (zh) 一种基于深度学习的遥感影像建筑物提取方法
CN114019467A (zh) 一种基于MobileNet模型迁移学习的雷达信号识别与定位方法
CN115311502A (zh) 基于多尺度双流架构的遥感图像小样本场景分类方法
CN116844039A (zh) 一种联合多注意的跨尺度遥感图像耕地提取方法
CN113435254A (zh) 一种基于哨兵二号影像的耕地深度学习提取方法
CN115965789A (zh) 一种基于场景感知类注意力的遥感图像语义分割方法
Jiang et al. Tabcellnet: Deep learning-based tabular cell structure detection
CN115439679A (zh) 一种联合多注意及Transformer的高光谱图像分类方法
CN116977747B (zh) 基于多路多尺度特征孪生网络的小样本高光谱分类方法
Ahmed et al. DeepRoadNet: A deep residual based segmentation network for road map detection from remote aerial image
Pang et al. DCTN: a dense parallel network combining CNN and transformer for identifying plant disease in field
CN112818982A (zh) 基于深度特征自相关性激活的农业害虫图像检测方法
CN115909045B (zh) 一种基于对比学习的two-stage滑坡图谱特征智能识别方法
Wang et al. [Retracted] Quantitative Evaluation of Plant and Modern Urban Landscape Spatial Scale Based on Multiscale Convolutional Neural Network
CN117994667B (zh) 基于多模型融合的遥感影像重点关注区域精确识别方法
Li et al. Bisupervised network with pyramid pooling module for land cover classification of satellite remote sensing imagery
CN111339825B (zh) 基于特征关系图谱学习的模型训练方法及数据分类方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination