CN116740370A - 一种基于深度自注意力变换网络的复杂目标识别方法 - Google Patents

一种基于深度自注意力变换网络的复杂目标识别方法 Download PDF

Info

Publication number
CN116740370A
CN116740370A CN202310561755.8A CN202310561755A CN116740370A CN 116740370 A CN116740370 A CN 116740370A CN 202310561755 A CN202310561755 A CN 202310561755A CN 116740370 A CN116740370 A CN 116740370A
Authority
CN
China
Prior art keywords
attention
self
complex
feature
deep
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310561755.8A
Other languages
English (en)
Inventor
刘福祥
时俊祺
李磊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Institute of Technology BIT
Original Assignee
Beijing Institute of Technology BIT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Institute of Technology BIT filed Critical Beijing Institute of Technology BIT
Priority to CN202310561755.8A priority Critical patent/CN116740370A/zh
Publication of CN116740370A publication Critical patent/CN116740370A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • G06T5/30Erosion or dilatation, e.g. thinning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/17Terrestrial scenes taken from planes or by drones
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20036Morphological image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Remote Sensing (AREA)
  • Geometry (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于深度自注意力变换网络的复杂目标识别方法,涉及目标识别方法技术领域。本发明与之前的卷积特征提取网络相比,改进了其浅层纹理信息和深层语义信息无法兼顾的问题,通过自注意力机制,增强了特征提取网络的全局建模能力,改善了特征提取效果,并通过加入形态学处理层,对结果进行连续性和连通性处理,以解决遮挡问题带来的误检、漏检。在结果上,该网络在复杂目标识别任务中,识别效果获得了提升,识别结果精度获得了提高。

Description

一种基于深度自注意力变换网络的复杂目标识别方法
技术领域
本发明涉及目标识别方法技术领域,尤其涉及一种基于深度自注意力变换网络的复杂目标识别方法。
背景技术
随着遥感技术的发展和飞行器性能的提升,以地表影像为主要内容的遥感航拍图像正向着高分辨率、大数据量发展。同时,遥感航拍图像的应用场景不断增加,其在各个领域信息化、数字化、智能化发展中起着越来越重要的作用,从遥感航拍图像中提取有效信息的方法在遥感航拍图像的应用流程中起着关键作用。复杂目标识别任务的结果在国土资源普查、地理信息测绘、自动驾驶导航等多个领域有着极大的应用价值,准确有效地从遥感航拍图像中进行复杂目标识别有着实际需求。
复杂目标识别方法可分为传统方法和深度学习方法两类,传统方法通常需要研究人员通过人工手动设计的方式来获取物体特征,不能达到理想的效率和精度。常见的复杂目标识别方法主要是基于深度学习卷积神经网络的方法,通过卷积操作逐层提取特征图,再对多级特征图进行结合,以同时获取浅层纹理信息和深层语义信息,最后获得结果。特征提取的效果极大地影响着复杂目标识别任务的最终精度。
目前市面上常见的基于卷积神经网络的复杂目标识别方法,使用级联的卷积和池化操作进行特征提取。由于卷积核的大小通常为3×3或5×5等小尺寸,因此卷积操作的感受野有限,相当于每次卷积操作都是对图像或特征图中一块极小区域的运算。在较浅的卷积层,仅能提取出小尺度特征,无法建立有效的长距离依赖,而在较深的卷积层,能够得到全局语义信息,但丢失了部分细节。此外,遥感图像中的复杂目标如路桥目标等常受汽车、树冠等物体遮挡,通常情况下,依靠特征提取网络提供的局部上下文信息,小面积遮挡不会影响识别结果,但部分大面积遮挡仍然会造成错检、漏检,反映在识别结果上通常表现为道路目标内部有“空泡”,部分道路被遮挡处出现中断。为了解决上述问题,本发明提出一种基于深度自注意力变换网络的复杂目标识别方法。
发明内容
本发明的目的在于提出一种基于深度自注意力变换网络的复杂目标识别方法以解决背景技术中所提出的问题:
(1)卷积神经网络存在难以平衡大尺度和小尺度特征的问题,最终影响复杂目标识别任务的精度;
(2)车辆、树冠等物体对目标的大面积遮挡可能会造成漏检、错检,降低识别结果的准确度。
为了实现上述目的,本发明采用了如下技术方案:
一种基于深度自注意力变换网络的复杂目标识别方法,具体包括以下步骤:
S1、将输入的图片划分为若干个小方格,然后将其作为输入序列送入Transformer模块中进行特征提取;
S2、将输入序列一次经过若干个Transformer模块,在Transformer模块内进行自注意力计算,生成1/4,1/8,1/16,1/32四种不同深度的特征图;
S3、完整特征图提取后,通过特征融合网格对不同尺度的特征图进行融合;
S4、将S3中所得的融合特征图输入分割头,对每个像素进行分类,将像素分为复杂目标和非目标背景两类,得到初步的复杂目标识别结果;
S5、对S4中所得的初步结果进行形态学处理,通过闭运算消除目标区域内部的“空泡”,并通过迭代提取骨架和膨胀操作,连接复杂目标中断处,最终得到复杂目标识别结果。
优选地,S2中所述自注意力计算具体包括以下内容:
对于输入序列的每个元素,通过与不同的矩阵相乘得到查询(Query)向量矩阵、键(Key)向量矩阵和值(Value)向量矩阵,记作Q, K, V,自注意力计算公式如下:
Att(Q,K,V)=ω(QKT)V
其中,Att(Q,K,V)表示计算得到的注意力;ω表示激活函数;对于输入序列的一个元素,其Q与包括自身在内的所有元素的K相乘,计算其与各元素的相关度,并以相关度作为权值,由上式计算得到所有注意力值,所有自注意力值的总和为输出序列对应位置的元素。
优选地,S2中所述1/4,1/8,1/16,1/32四种不同深度的特征图,每到更深一层,其宽和高均为上一层的1/2,其通道数为上一层的2倍;其中,浅层的特征图含有丰富的细节特征信息,同时也具有全局感知能力,深层的特征图含有高级语义信息,可以对图像的不同区域进行分类。
优选地,所述S3具体包括以下内容:
深层的特征图通过上采样恢复到上一层的尺寸,并与上一层的特征图融合,最终恢复到输入图像的原始尺寸。
优选地,所述S5具体包括以下内容:
S5.1、通过膨胀操作和腐蚀操作构成的闭运算,消除目标区域内部的空泡区域;
S5.2、通过循环多次进行提取骨架和膨胀操作,延长识别结果中断处,在中断处重新建立连接;
S5.3、将S5.1与S5.2中所得的结果进行相加,在通过周长和面积筛选,去除与其他区域不连通的孤立点,得到最终复杂目标识别结果。
与现有技术相比,本发明提供了一种基于深度自注意力变换网络的复杂目标识别方法,具备以下有益效果:
本发明相较于市面上常见的复杂目标识别方法,使用了新的Transformer结构而非卷积神经网络进行特征提取,利用Transformer自注意力计算机制,增强了特征提取网络的全局建模能力,改善了特征提取的效果,同时对于遮挡问题,本发明通过在网络中加入形态学处理层,对识别结果进行闭合处理和连通性处理,最终提高了复杂目标识别的精度。
附图说明
图1为本发明实施例1中提到的网络结构图。
图2为本发明实施例1中提到的自注意力机制示意图。
图3为本发明实施例1中提到的形态学处理层流程图。
图4为本发明实施例1中提到的形态学处理层效果示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。
实施例1:
本发明在总结现有的基于卷积神经网络复杂目标识别方法的基础上,提出了一种基于深度自注意力变换网络(Transformer)的复杂目标识别方法,该方法通过Transformer结构的自注意力机制进行特征提取,改善了特征提取的效果。对于遮挡问题,本发明通过在网络中加入形态学处理层,对识别结果进行闭合处理和连通性处理,最终提高了复杂目标识别的精度,具体包括以下内容。
如图1所示,基于深度自注意力变换网络的复杂目标识别方法主要分为两个部分,基于Transformer的特征提取网络和特征融合网络及分割头。从输入图片开始,具体步骤如下:
步骤一:由于Transformer的输入为一个一维序列,而非二维图片,因此需要将图片转换为输入序列。同时,遥感航拍图像分辨率通常很大,若以像素为单位作为输入序列的元素,会使输入序列过长,带来极高的计算复杂度。因此,将输入图片划分为若干小方格,每个方格作为输入序列的元素,送入Transformer结构进行特征提取。
步骤二:进入特征提取网络,输入序列依次经过若干个Transformer模块,在Transformer模块内进行自注意力计算,自注意力计算的具体方法如下:自注意力机制的构成如图2所示,对于输入序列的每个元素,通过与不同的矩阵相乘得到查询(Query)向量矩阵、键(Key)向量矩阵和值(Value)向量矩阵,即Q, K, V,自注意力计算公式如下:
Att(Q,K,V)=ω(QKT)V
其中,Att(Q,K,V)为计算得到的注意力值,ω为激活函数,通常为Softmax。如图2所示,对于输入序列的一个元素,其Q与包括自身在内的所有元素的K相乘,计算其与各元素的相关度,并以相关度作为权值,由上式计算得到所有注意力值。所有自注意力值的总和即为输出序列对应位置的元素。
特征提取网络级联生成1/4,1/8,1/16,1/32四种不同深度的特征图,每个深度的特征图都会保留,以进行特征图融合。
步骤三:完成特征提取后,通过特征融合网格对不同尺度的特征图进行融合。最深层的1/32特征图经过PPM Head后,逐层进行上采样,并与特征提取网络得到的各层特征图进行融合,同时,同样保留各尺度的融合特征图。
步骤四:各尺度融合特征图经过Fuse模块得到最终的融合特征图,其包含高级语义分类信息和丰富的低层细节信息,将其输入分割头,分割头将给出每个像素的类别概率,并通过双线性插值恢复到原始输入图像的分辨率。网络的输出为一张分辨率与原图一致的单通道灰度图,每个像素的值为其类别概率,在复杂目标识别任务中,类别0代表非目标也即背景,类别1代表目标,类别概率为一个0到1之间的小数。通过简单的阈值判断和颜色映射,可得到初步的的复杂目标识别结果,其中,黑色部分像素值为0,代表背景;白色部分像素值为255,代表目标。
步骤五:在绝大多数情况下,地表的道路等复杂目标应当是连续的、连通的,以此作为先验信息,可以使用形态学处理方法对识别结果进行补充优化,以降低车辆、树冠等物体遮挡带来的影响,减少误检、漏检,改善识别效果。因此,在网络中增加了形态学处理层,形态学处理层的流程图如图3所示,形态学处理层的效果如图4所示。初步结果进入形态学处理层,将分为两部分进行处理。第一部分:通过循环多次进行“提取骨架-膨胀”操作,延长识别结果中断处,最终在中断处重新建立连接。提取骨架操作会生成宽度仅为1像素的目标区域骨架,膨胀会在所有方向扩大目标区域,因此,“提取骨架-膨胀”的组合操作相当于在长度方向延长了道路区域,而在宽度方向没有影响,通过多次迭代,即可实现在不影响正常区域的情况下连接道路中断处。第二部分:通过“膨胀-腐蚀”操作构成的闭运算,消除目标区域内部的空泡区域。将两个部分结果相加,再通过周长和面积筛选,去除与其他区域不连通的孤立点,即可得到最终识别结果。
综上所述,本发明设计了一种基于Transformer结构的特征提取网络用于复杂目标识别任务,与之前的卷积特征提取网络相比,改进了其浅层纹理信息和深层语义信息无法兼顾的问题,通过自注意力机制,增强了特征提取网络的全局建模能力,改善了特征提取效果,并通过加入形态学处理层,对结果进行连续性和连通性处理,以解决遮挡问题带来的误检、漏检。在结果上,该网络在复杂目标识别任务中,识别效果获得了提升,识别结果精度获得了提高。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,根据本发明的技术方案及其发明构思加以等同替换或改变,都应涵盖在本发明的保护范围之内。

Claims (5)

1.一种基于深度自注意力变换网络的复杂目标识别方法,其特征在于,具体包括以下步骤:
S1、将输入的图片划分为若干个小方格,然后将其作为输入序列送入Transformer模块中进行特征提取;
S2、将输入序列一次经过若干个Transformer模块,在Transformer模块内进行自注意力计算,生成1/4,1/8,1/16,1/32四种不同深度的特征图;
S3、完整特征图提取后,通过特征融合网格对不同尺度的特征图进行融合;
S4、将S3中所得的融合特征图输入分割头,对每个像素进行分类,将像素分为复杂目标和非目标背景两类,得到初步的复杂目标识别结果;
S5、对S4中所得的初步结果进行形态学处理,通过闭运算消除目标区域内部的“空泡”,并通过迭代提取骨架和膨胀操作,连接复杂目标中断处,最终得到复杂目标识别结果。
2.根据权利要求1所述的一种基于深度自注意力变换网络的复杂目标识别方法,其特征在于,S2中所述自注意力计算具体包括以下内容:
对于输入序列的每个元素,通过与不同的矩阵相乘得到查询向量矩阵、键向量矩阵和值向量矩阵,记作Q, K, V,自注意力计算公式如下:
Att(Q,K,V)=ω(QKT)V
其中,Att(Q,K,V)表示计算得到的注意力;ω表示激活函数;对于输入序列的一个元素,其Q与包括自身在内的所有元素的K相乘,计算其与各元素的相关度,并以相关度作为权值,由上式计算得到所有注意力值,所有自注意力值的总和为输出序列对应位置的元素。
3.根据权利要求1所述的一种基于深度自注意力变换网络的复杂目标识别方法,其特征在于,S2中所述1/4,1/8,1/16,1/32四种不同深度的特征图,每到更深一层,其宽和高均为上一层的1/2,其通道数为上一层的2倍;其中,浅层的特征图含有丰富的细节特征信息,深层的特征图含有高级语义信息。
4.根据权利要求1所述的一种基于深度自注意力变换网络的复杂目标识别方法,其特征在于,所述S3具体包括以下内容:
深层的特征图通过上采样恢复到上一层的尺寸,并与上一层的特征图融合,最终恢复到输入图像的原始尺寸。
5.根据权利要求1所述的一种基于深度自注意力变换网络的复杂目标识别方法,其特征在于,所述S5具体包括以下内容:
S5.1、通过膨胀操作和腐蚀操作构成的闭运算,消除目标区域内部的空泡区域;
S5.2、通过循环多次进行提取骨架和膨胀操作,延长识别结果中断处,在中断处重新建立连接;
S5.3、将S5.1与S5.2中所得的结果进行相加,在通过周长和面积筛选,去除与其他区域不连通的孤立点,得到最终复杂目标识别结果。
CN202310561755.8A 2023-05-18 2023-05-18 一种基于深度自注意力变换网络的复杂目标识别方法 Pending CN116740370A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310561755.8A CN116740370A (zh) 2023-05-18 2023-05-18 一种基于深度自注意力变换网络的复杂目标识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310561755.8A CN116740370A (zh) 2023-05-18 2023-05-18 一种基于深度自注意力变换网络的复杂目标识别方法

Publications (1)

Publication Number Publication Date
CN116740370A true CN116740370A (zh) 2023-09-12

Family

ID=87903565

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310561755.8A Pending CN116740370A (zh) 2023-05-18 2023-05-18 一种基于深度自注意力变换网络的复杂目标识别方法

Country Status (1)

Country Link
CN (1) CN116740370A (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111179217A (zh) * 2019-12-04 2020-05-19 天津大学 一种基于注意力机制的遥感图像多尺度目标检测方法
CN113159061A (zh) * 2021-03-10 2021-07-23 哈尔滨工业大学 一种基于实例分割的实际隧道围岩碴片识别方法
CN115019182A (zh) * 2022-07-28 2022-09-06 北京卫星信息工程研究所 遥感图像目标细粒度识别方法、***、设备及存储介质
CN115047421A (zh) * 2022-04-14 2022-09-13 杭州电子科技大学 一种基于Transformer的雷达目标识别方法
CN115565066A (zh) * 2022-09-26 2023-01-03 北京理工大学 一种基于Transformer的SAR图像舰船目标检测方法
CN115830302A (zh) * 2023-02-24 2023-03-21 国网江西省电力有限公司电力科学研究院 一种多尺度特征提取融合配电网设备定位识别方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111179217A (zh) * 2019-12-04 2020-05-19 天津大学 一种基于注意力机制的遥感图像多尺度目标检测方法
CN113159061A (zh) * 2021-03-10 2021-07-23 哈尔滨工业大学 一种基于实例分割的实际隧道围岩碴片识别方法
CN115047421A (zh) * 2022-04-14 2022-09-13 杭州电子科技大学 一种基于Transformer的雷达目标识别方法
CN115019182A (zh) * 2022-07-28 2022-09-06 北京卫星信息工程研究所 遥感图像目标细粒度识别方法、***、设备及存储介质
CN115565066A (zh) * 2022-09-26 2023-01-03 北京理工大学 一种基于Transformer的SAR图像舰船目标检测方法
CN115830302A (zh) * 2023-02-24 2023-03-21 国网江西省电力有限公司电力科学研究院 一种多尺度特征提取融合配电网设备定位识别方法

Similar Documents

Publication Publication Date Title
CN111310861B (zh) 一种基于深度神经网络的车牌识别和定位方法
Guo et al. Scene-driven multitask parallel attention network for building extraction in high-resolution remote sensing images
CN112818903B (zh) 一种基于元学习和协同注意力的小样本遥感图像目标检测方法
Guo et al. CDnetV2: CNN-based cloud detection for remote sensing imagery with cloud-snow coexistence
Zhan et al. Distinguishing cloud and snow in satellite images via deep convolutional network
Xie et al. Multilevel cloud detection in remote sensing images based on deep learning
CN111598174B (zh) 基于半监督对抗学习的模型训练方法及图像变化分析方法
Wan et al. DA-RoadNet: A dual-attention network for road extraction from high resolution satellite imagery
Shi et al. Learning multiscale temporal–spatial–spectral features via a multipath convolutional LSTM neural network for change detection with hyperspectral images
CN111462126A (zh) 一种基于边缘增强的语义图像分割方法及***
Liu et al. GAFNet: Group attention fusion network for PAN and MS image high-resolution classification
CN111553869B (zh) 一种空基视角下的生成对抗网络图像补全方法
CN113609896A (zh) 基于对偶相关注意力的对象级遥感变化检测方法及***
CN111738113A (zh) 基于双注意力机制与语义约束的高分辨遥感图像的道路提取方法
CN115082675B (zh) 一种透明物体图像分割方法及***
Chen et al. ASF-Net: Adaptive screening feature network for building footprint extraction from remote-sensing images
CN115631344B (zh) 一种基于特征自适应聚合的目标检测方法
Lei et al. Boundary extraction constrained siamese network for remote sensing image change detection
Zhao et al. Semantic segmentation of remote sensing image based on regional self-attention mechanism
CN112101153A (zh) 基于感受野模块与多重特征金字塔的遥感目标检测方法
CN116363526B (zh) MROCNet模型构建与多源遥感影像变化检测方法及***
Guo et al. ClouDet: A dilated separable CNN-based cloud detection framework for remote sensing imagery
Wu et al. TAL: Topography-aware multi-resolution fusion learning for enhanced building footprint extraction
Noman et al. ELGC-Net: Efficient Local-Global Context Aggregation for Remote Sensing Change Detection
Wang et al. Multi-size object detection in large scene remote sensing images under dual attention mechanism

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination