CN112800895B - 基于深度学习算法识别建筑物的方法 - Google Patents
基于深度学习算法识别建筑物的方法 Download PDFInfo
- Publication number
- CN112800895B CN112800895B CN202110061615.5A CN202110061615A CN112800895B CN 112800895 B CN112800895 B CN 112800895B CN 202110061615 A CN202110061615 A CN 202110061615A CN 112800895 B CN112800895 B CN 112800895B
- Authority
- CN
- China
- Prior art keywords
- deep learning
- building
- learning algorithm
- remote sensing
- accuracy
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013135 deep learning Methods 0.000 title claims abstract description 31
- 238000000034 method Methods 0.000 title claims abstract description 31
- 238000000605 extraction Methods 0.000 claims abstract description 14
- 239000011159 matrix material Substances 0.000 claims abstract description 9
- 238000007781 pre-processing Methods 0.000 claims abstract description 7
- 238000012549 training Methods 0.000 claims description 13
- 238000012937 correction Methods 0.000 claims description 9
- 230000008569 process Effects 0.000 claims description 7
- 230000005855 radiation Effects 0.000 claims description 3
- 230000009467 reduction Effects 0.000 claims description 3
- 238000012795 verification Methods 0.000 claims description 3
- 239000011800 void material Substances 0.000 claims description 3
- 230000003595 spectral effect Effects 0.000 abstract description 4
- 238000005516 engineering process Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 5
- 230000011218 segmentation Effects 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- 238000013461 design Methods 0.000 description 3
- 238000012544 monitoring process Methods 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000003912 environmental pollution Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 239000002360 explosive Substances 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 238000009440 infrastructure construction Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000013508 migration Methods 0.000 description 1
- 230000005012 migration Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000013526 transfer learning Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/176—Urban or other man-made structures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biophysics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Evolutionary Biology (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于深度学习算法识别建筑物的方法,包括获取包含建筑物的遥感影像,并进行影像预处理工作,得到处理过后的带坐标***的卫星影像图;针对需要进行智能识别的地物,根据其具体特征进行具体归类,并做好表格记录;根据先前做好的分类,进行各样本的样本标签数据勾选,建立各类的样本数据库;利用深度学习算法进行建筑物的提取;利用混淆矩阵对建筑物提取结果进行精度验证。本发明利用深度学习的方法对遥感影像进行建筑物的智能解译提取,实现全智能无人工干预的精准识别解译,达到省时省力的目的;且获取的建筑物遥感影像,各建筑物的样本均满足统一的光谱特征、纹理特征、空间特征关系;可使深度学习提取算法结果精度更加准确。
Description
技术领域
本发明属于遥感影像智能解译技术领域,具体涉及一种基于深度学习算法识别建筑物的方法。
背景技术
近年来,随着城市规模的不断扩充,城市土地利用、空间规划、基础设施建设,以及城市环境污染监控评估、城市人口数据空间化等方面都为城市管理者提出了各种难题。作为城市最主要的组成部分,各种建筑物是我们最需要进行精确探测和管理的目标。然而,随着城市化进程的加快,城市中的建筑物数量和密度越来越大,及时准确的实现二维或三维城市空间建筑物信息的生成或更新是“智慧城市”构建的必然需求。面对这样的需求,显然,传统的土地测量、车载信息采集等方式面对城市规模的爆发式增长在人力成本和经济成本方面越来越高,这与“智慧城市”的理念越来越远。为此,世界各地的卫星、航空和无人机等地球监测平台得到了前所未有的大发展,他们能够及时获取大量的高分辨率光学图像,这些亚米级、分米级的高分辨率图像,尤其是可见光图像,包含着大量关于建筑物目标的颜色、形状、对比度等信息,充分的、及时的利用这些高分辨率可见光遥感图像进行城市区域内街区、社区尺度内建筑物的自动、精确、可靠的提取具有非常广泛的现实意义。
传统的建筑物提取方法,比如构建遥感专题指数模型法、逻辑判别法、面向对象法等,这些方法虽然也取得了较好的效果,但并不太适合大范围的实时更新的数据处理。近些年来,随着深度学习技术不断发展,以高分辨率的遥感影像为基础,使用深度学习技术来对影像数据进行建筑物提取,那么这些需要耗费大量人力、物力的工作,将变得极为轻松。这样,不但海量的遥感数据会得到充分利用,而且建筑物提取的效率也会大大提高,遥感影像的使用价值也会得到显著提升。
遥感是指通过各种传感器,在不接触目标条件下探测目标地物,获取其反射、辐射和散射的电磁波信息的技术手段。遥感影像的获取来源有星载传感器、机载传感器和地基传感器,具有多空间,多时间,多光谱分辨率等特征。利用遥感影像对其空间特征、纹理特征以及光谱特征进行解译分析能够获得地表地物的相关信息以达到影像解译的目的。随着对地观测技术的快速发展,亚米级甚至厘米级空间分辨率的遥感影像被不断获取,为基础测绘、地理国情监测、城市规划等部门进行精细化制图提供了数据基础。
以深度学习为代表的人工智能技术是近年来快速发展起来的一门新技术,目前已经在图像分类、目标检测、语义分割、人脸识别、语音识别、视频分类和自然语言处理等多个领域成功运用。其在图像处理方面的研究大多集中于卷积神经网络,并发展了一系列卷积神经网络基础模型。采用深度学习进行遥感影像解译主要有以下几个优点:
(1)具有增量学习能力。目前,主流的深度学习优化方法往往利用基于小批量样本的随机梯度下降法,无须一次将所有样本供给模型进行训练,通过迭代的方式令模型进行学习,因此可以利用大量的历史数据进行训练。
(2)模型迁移能力强。深度学习在进行具备小数据量的领域或任务时,可以基于相近领域或任务的大数据进行预训练,采用小数据量的领域数据对于深度神经网络进行微调,从而实现不同领域或任务的迁移学习。
(3)无须人工设计特征。深度学习与传统机器学习的最大不同就在于无须人工设计特征,由深度学习模型自动提取并进行训练,因此可以避免大量的特征工程工作以及认为设计对训练精度的影响。
当前的建筑物的提取方法可归结为如下三类:基于传统边缘/直线检测技术的方法、基于曲线传播类技术的方法、基于分割类技术的方法。但是这些方法往往需要耗费更多的时间和更大的代价,远远不能满足在实际工作中的高效率、低成本的作业要求。
因此急需研发出一种基于深度学习算法识别建筑物的方法来解决以上问题。
发明内容
为解决上述背景技术中提出的问题,本发明提供了基于深度学习算法识别建筑物的方法。
为实现上述目的,本发明提供如下技术方案:
基于深度学习算法识别建筑物的方法,包括以下步骤:
S1、通过无人机航空影像或高分辨率的星载传感器获取的包含建筑物的遥感影像,并进行影像预处理工作,得到处理过后的带坐标***的卫星影像图;
S2、针对需要进行智能识别的地物,根据其具体特征进行具体归类,并做好表格记录;
S3、根据先前做好的分类,利用ENVI或labelme进行各样本的样本标签数据勾选,建立各类的样本数据库;
S4、利用深度学习算法进行建筑物的提取;
S5、利用混淆矩阵对建筑物提取结果进行精度验证。
具体地,在步骤S1中,影像预处理工作包括大气校正、辐射校正、正射校正。
具体地,在步骤S4中,深度学习算法在基于U-net网络模型的基础上进行,采用ResNet50,ResNet101作为U-net的主干网络,对原网络的解码部分进行微调,微调包括:
A、引入Tversky系数:
式(1)中,为标签像素的前景概率,/>为预测像素的前景概率,α为控制参数,通常0<S<10-6保证T>0;
B、使用空洞卷积定义式:
y(i)=∑Kx(i+dK)h(K) (2)
式(2)中,d为空洞率,x、y分别为输入、输出,h波器,K波器大小;
空洞卷积时感受野计算如下:
式(3)中,r为感受野大小,K为波器大小,S为卷积运算时的步长;
在训练过程中采用early stopping和学习率下降训练技巧进行训练。
具体地,在步骤S5中,利用混淆矩阵对建筑物提取结果进行精度验证具体为采用混淆矩阵计算均方根(RMSE)和平均绝对误差(MAE),对提取结果进行精度评价以验证结果准确性与可使用性。
与现有技术相比,本发明的有益效果是:
采用遥感影像,利用深度学习的方法对遥感影像进行建筑物的智能解译提取,实现全智能无人工干预的精准识别解译,达到省时省力的目的;且获取的建筑物遥感影像,各建筑物的样本均满足统一的光谱特征、纹理特征、空间特征关系;即每一建筑物样本实例在颜色、形状、空间关系信息都满足一定条件;采用明确的判定准则可使深度学习提取算法结果精度更加准确。
附图说明
图1为基于深度学习算法识别建筑物的方法的流程框图;
图2为流程处理实施例图;
图3为Res50-Unet网络结构示意图。
具体实施方式
下面将对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明提供以下技术方案:
如图1所示,基于深度学习算法识别建筑物的方法,包括:
S1、通过无人机航空影像或高分辨率的星载传感器获取的包含建筑物的遥感影像,并进行影像预处理工作,得到处理过后的带坐标***的卫星影像图;
S2、针对需要进行智能识别的地物,根据其具体特征进行具体归类,并做好表格记录;
S3、根据先前做好的分类,利用ENVI或labelme进行各样本的样本标签数据勾选,建立各类的样本数据库;
S4、利用深度学习算法进行建筑物的提取;
S5、利用混淆矩阵对建筑物提取结果进行精度验证。
具体为:
(1)通过获取的包含建筑物的高分辨率星载或者机载遥感影像,首先进行影像预处理工作。具体流程包括,大气校正、辐射校正、正射校正等,得到处理过后的带坐标***的卫星影像图。
(2)针对需要进行智能识别的建筑物等地物,根据其具体特征进行具体归类,并做好表格记录。
(3)根据先前做好的分类,利用ENVI或labelme进行各样本的样本标签数据勾选,建立各类的样本数据库,为后续的深度学习算法做准备。
(4)U-net网络构建:本发明中的算法基于U-net网络模型的基础上进行改进,采用ResNet50,ResNet101等作为U-net的主干网络,对原网络的解码部分进行微调。为降低图像分割时前景和背景像素数量差异造成的影响,引入Tversky系数:
式(1)中,为标签像素的前景概率,/>为预测像素的前景概率,α为控制参数,通常0<S<10-6保证T>0。
为了更好的应对下采样时参数量大幅度增加的问题,同时增大RDU-Net的感受野,采用空洞卷积以较少的运算量获得更细致的纹理信息。使用空洞卷积定义式(2)所示:
y(i)=∑Kx(i+dK)h(K) (2)
式(2)中,d为空洞率,x、y分别为输入、输出,h波器,K波器大小。
空洞卷积时感受野计算如下:
式(3)中,r为感受野大小,K为波器大小,S为卷积运算时的步长。
在训练过程中采用early stopping和学习率下降等训练技巧进行训练。
如图2所示,U-net网络结构是Olaf Ronneberge、Philipp Fischer和Thomas Brox在2015年ISBI竞赛中提出的网络结构,改网络结构由收缩子网络和扩张子网络两部分组成,构成了一个U型结构,因此命名为U-net。U-net网络如图1所示。首先通过卷积核池化下采样提取特征信息,然后通过转置卷积来上采样并裁剪之间的低层特征图进行融合用来精准定位。重复这个过程,知道获得输出的特征图,最后经过激活函数获得分割图。
虽然U-net具有较少的参数,网络结构简单的优点,但是相对于ResNet、VGG等网络显得深度不足。因此对传统U-net网络模型进行结合,提出Res-Unet网络。Res50-Unet网络结构如图3所示:
Res-Unet网络相对比U-net网络有以下几点优势:
(1)加深网络层数,提高了网络的分割精度;
(2)网络中间可以添加更多的跳转连接,这样就能更好的结合图像的背景语义信息,进行多尺度的分割;
(3)ResNet具有快速收敛,减小模型数据量的优势;
(4)ResNet使得模型更加的容易训练,既能防止模型退化,又能防止梯度消失,Loss不收敛;
(5)根据深度学***均绝对误差(MAE),对提取结果进行精度评价以验证本方法的准确性与可使用性。
尽管已经示出和描述了本发明的实施例,对于本领域的普通技术人员而言,可以理解在不脱离本发明的原理和精神的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由所附权利要求及其等同物限定。
Claims (3)
1.基于深度学习算法识别建筑物的方法,其特征在于,包括以下步骤:
S1、通过无人机航空影像或高分辨率的星载传感器获取的包含建筑物的遥感影像,并进行影像预处理工作,得到处理过后的带坐标***的卫星影像图;
S2、针对需要进行智能识别的地物,根据其具体特征进行具体归类,并做好表格记录;
S3、根据先前做好的分类,利用ENVI或labelme进行各样本的样本标签数据勾选,建立各类的样本数据库;
S4、利用深度学习算法进行建筑物的提取;深度学习算法在基于U-net网络模型的基础上进行,采用ResNet50,ResNet101作为U-net的主干网络,对原网络的解码部分进行微调,微调包括:
A、引入Tversky系数:
式(1)中,为标签像素的前景概率,/>为预测像素的前景概率,α为控制参数,通常0<S<10-6保证T>0;
B、使用空洞卷积定义式:
y(i)=∑Kx(i+dK)h(K) (2)
式(2)中,d为空洞率,x、y分别为输入、输出,h波器,K波器大小;
空洞卷积时感受野计算如下:
式(3)中,r为感受野大小,K为波器大小,S为卷积运算时的步长;
在训练过程中采用early stopping和学习率下降训练技巧进行训练;
S5、利用混淆矩阵对建筑物提取结果进行精度验证。
2.根据权利要求1所述的基于深度学习算法识别建筑物的方法,其特征在于,在步骤S1中,影像预处理工作包括大气校正、辐射校正、正射校正。
3.根据权利要求1所述的基于深度学***均绝对误差(MAE),对提取结果进行精度评价以验证结果准确性与可使用性。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110061615.5A CN112800895B (zh) | 2021-01-18 | 2021-01-18 | 基于深度学习算法识别建筑物的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110061615.5A CN112800895B (zh) | 2021-01-18 | 2021-01-18 | 基于深度学习算法识别建筑物的方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112800895A CN112800895A (zh) | 2021-05-14 |
CN112800895B true CN112800895B (zh) | 2024-02-27 |
Family
ID=75810033
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110061615.5A Active CN112800895B (zh) | 2021-01-18 | 2021-01-18 | 基于深度学习算法识别建筑物的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112800895B (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107111869A (zh) * | 2014-09-15 | 2017-08-29 | 淡马锡生命科学研究院有限公司 | 图像辨识***及方法 |
US10140515B1 (en) * | 2016-06-24 | 2018-11-27 | A9.Com, Inc. | Image recognition and classification techniques for selecting image and audio data |
CN110929607A (zh) * | 2019-11-11 | 2020-03-27 | 桂林理工大学 | 一种城市建筑物施工进度的遥感识别方法和*** |
WO2020108358A1 (zh) * | 2018-11-29 | 2020-06-04 | 腾讯科技(深圳)有限公司 | 图像修复方法、装置、计算机设备和存储介质 |
CN111815579A (zh) * | 2020-06-24 | 2020-10-23 | 浙江大华技术股份有限公司 | 一种图像变化检测方法、装置及计算机可读存储介质 |
CN112087625A (zh) * | 2020-08-27 | 2020-12-15 | 西安万像电子科技有限公司 | 图像处理方法、装置、服务器及存储介质 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10503843B2 (en) * | 2017-12-19 | 2019-12-10 | Eagle View Technologies, Inc. | Supervised automatic roof modeling |
-
2021
- 2021-01-18 CN CN202110061615.5A patent/CN112800895B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107111869A (zh) * | 2014-09-15 | 2017-08-29 | 淡马锡生命科学研究院有限公司 | 图像辨识***及方法 |
US10140515B1 (en) * | 2016-06-24 | 2018-11-27 | A9.Com, Inc. | Image recognition and classification techniques for selecting image and audio data |
WO2020108358A1 (zh) * | 2018-11-29 | 2020-06-04 | 腾讯科技(深圳)有限公司 | 图像修复方法、装置、计算机设备和存储介质 |
CN110929607A (zh) * | 2019-11-11 | 2020-03-27 | 桂林理工大学 | 一种城市建筑物施工进度的遥感识别方法和*** |
CN111815579A (zh) * | 2020-06-24 | 2020-10-23 | 浙江大华技术股份有限公司 | 一种图像变化检测方法、装置及计算机可读存储介质 |
CN112087625A (zh) * | 2020-08-27 | 2020-12-15 | 西安万像电子科技有限公司 | 图像处理方法、装置、服务器及存储介质 |
Non-Patent Citations (3)
Title |
---|
基于混合卷积神经网络的火灾识别研究;熊卫华;任嘉锋;吴之昊;姜明;;计算机技术与发展(07);全文 * |
多模态融合的高分遥感图像语义分割方法;李万琦;李克俭;陈少波;;中南民族大学学报(自然科学版)(04);全文 * |
遥感影像地物分类多注意力融和U型网络法;李道纪;郭海涛;卢俊;赵传;林雨准;余东行;;测绘学报(08);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN112800895A (zh) | 2021-05-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111598174B (zh) | 基于半监督对抗学习的模型训练方法及图像变化分析方法 | |
CN112287807B (zh) | 一种基于多分支金字塔神经网络的遥感影像道路提取方法 | |
CN113449594B (zh) | 一种多层网络组合的遥感影像地类语义分割与面积计算方法 | |
CN110728658A (zh) | 一种基于深度学习的高分辨率遥感影像弱目标检测方法 | |
CN112950780B (zh) | 一种基于遥感影像的网络地图智能生成方法及*** | |
CN111738113A (zh) | 基于双注意力机制与语义约束的高分辨遥感图像的道路提取方法 | |
CN113052106B (zh) | 一种基于PSPNet网络的飞机起降跑道识别方法 | |
CN109886147A (zh) | 一种基于单网络多任务学习的车辆多属性检测方法 | |
CN112633140A (zh) | 多光谱遥感图像城中村多类别建筑物语义分割方法及*** | |
CN113591617B (zh) | 基于深度学习的水面小目标检测与分类方法 | |
CN115049841A (zh) | 基于深度无监督多步对抗域自适应的高分辨sar图像地物要素提取方法 | |
CN111104850A (zh) | 一种基于残差网络的遥感影像建筑物自动提取方法和*** | |
CN111259733A (zh) | 一种基于点云图像的船舶识别方法及装置 | |
CN112766409A (zh) | 一种遥感图像目标检测的特征融合方法 | |
CN114519819A (zh) | 一种基于全局上下文感知的遥感图像目标检测方法 | |
CN113628180A (zh) | 一种基于语义分割网络的遥感建筑物检测方法及*** | |
CN117725141A (zh) | 基于深度学习的露天矿区矢量路网地图构建方法及相关装置 | |
CN113378642A (zh) | 一种对农村违法占地建筑物进行检测的方法 | |
CN112488190A (zh) | 一种基于深度学习的点云数据分类方法及*** | |
CN116012709B (zh) | 一种高分辨率遥感影像建筑物提取方法及*** | |
CN117078925A (zh) | 一种基于RDSA-DeepLabV3+网络的建筑垃圾年产量精算方法 | |
CN116503750A (zh) | 融合目标检测和视觉注意机制的大范围遥感影像农村街区式居民地提取方法及*** | |
CN112800895B (zh) | 基于深度学习算法识别建筑物的方法 | |
CN115527118A (zh) | 一种融合注意力机制的遥感图像目标检测方法 | |
CN116664826A (zh) | 一种小样本点云语义分割方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |