CN113361496A - 一种基于U-Net的城市建成区统计方法 - Google Patents
一种基于U-Net的城市建成区统计方法 Download PDFInfo
- Publication number
- CN113361496A CN113361496A CN202110905311.2A CN202110905311A CN113361496A CN 113361496 A CN113361496 A CN 113361496A CN 202110905311 A CN202110905311 A CN 202110905311A CN 113361496 A CN113361496 A CN 113361496A
- Authority
- CN
- China
- Prior art keywords
- built
- area
- net
- training
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/62—Analysis of geometric attributes of area, perimeter, diameter or volume
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Biology (AREA)
- Geometry (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于U‑Net的城市建成区统计方法,该方法包括以下的步骤:S10、采集建成区遥感图像数据;S20、建成区标注;S30、图像块分割;S40、格式转换;S50、数据集划分;S60、构建U‑Net模型进行训练;S70、完成模型训练后,将待预测图像按规则分割,输入网络中进行区域分割提取;S80、拼接识别完毕的图像块,获得原图像的检测结果,检测结果覆盖了建成区;S90、合并统计图像块面积,获取建成区面积;本发明的有益效果是:可大幅度提高人员工作效率,减少人工成本。
Description
技术领域
本发明涉及图像处理技术领域,更具体的说,本发明涉及一种基于U-Net的城市建成区统计方法。
背景技术
深度学习是人工智能技术中的一种先进方法,近年来发展迅速,在人脸识别,物体检测等领域都取得了空前的优异效果,推进着自动驾驶技术从科幻慢慢走向现实。
深度学习方法在测绘领域有着得天独厚的优势,例如遥感,点云等具有明显特征的基础数据,深度学习图像识别方法都能发挥巨大的作用。
建成区,指市行政区范围内经过征收的土地和实际建设发展起来的非农业生产建设地段,该区域具有明显特征,项目内容是从遥感图像中提取出建成区有关区域并进行面积计算,传统方法是通过人员进行标注统计,求取面积,工作内容简单,但耗费人力物力。
发明内容
为了克服现有技术的不足,本发明提供一种基于U-Net的城市建成区统计方法,可大幅度提高人员工作效率,减少人工成本。
本发明解决其技术问题所采用的技术方案是:一种基于U-Net的城市建成区统计方法,其改进之处在于,该方法包括以下的步骤:
S10、采集建成区遥感图像数据,获得建成区遥感图像;
S20、建成区标注,针对建成区建筑进行数据标注,按照建成区定义进行标注;
S30、图像块分割,按照服务器计算能力对建成区遥感图像进行分割处理,形成若干等大小的图像块,以获得多个样本;
S40、格式转换,将VOC格式转换为COCO数据集,制作用于训练的数据集;
S50、数据集划分,将数据集划分为训练集和测试集,训练集用于训练模型,测试集用于评估模型的准确率和鲁棒性;
S60、构建U-Net模型进行训练,以判断是否满足评估指数要求,当不满足评估指数要求时,则调整评估参数后,继续构建U-Net模型进行训练;当满足评估指数要求时,则进入下一步;
S70、完成模型训练后,将待预测图像按规则分割,输入网络中进行区域分割提取;
S80、拼接识别完毕的图像块,获得原图像的检测结果,检测结果覆盖了建成区;
S90、合并统计图像块面积,获取建成区面积。
进一步的,步骤S10中,在理解区域特性后,进行遥感图像的分割,以减少服务器运算压力。
进一步的,步骤S20中,利用labelme标注工具进行标注。
进一步的,步骤S20中,标注数据分为背景和检测区域两部分,其中背景是指非建成区包含的位置,检测区域涵盖建成区要素。
进一步的,步骤S20中,标注方式按照多边形框进行拉伸。
进一步的,步骤S30中,将图像块分割为300×300的大小,以获得3312个样本。
进一步的,步骤S50中,按照训练集与测试集9:1的比例进行划分。
进一步的,步骤S60中,评估参数包括像素精度Pixel Accuracy、召回率Recall以及平均交并比Mean IoU。
进一步的,构建U-Net模型进行训练包括以下的步骤:
S601、设定数据集中包含有K+1类,其中0表示背景;
S602、使用Pii表示原本为i类同时预测为i类,即真阳性TP和真阴性TN;使用Pij表示原本为i类被预测为j类,即假阳性FP和假阴性FN;
S603、像素精度Pixel Accuracy为标记正确的像素占总像素的百分比,其公式如下:
召回率Recall为预测值为1且真实值也为1的样本,在真实值为1的所有样本中所占的比例,其公式如下:
平均交并比Mean IoU为在所有类别的IoU上取平均值,其公式如下:
进一步的,步骤S70中,将区域遥感图像按照16×16进行分割,以获得256张小图;
步骤S90中,建成区面积公式如下:
其中,S为建成区总面积,Si为检测图件块内建成区面积。
本发明的有益效果是:本发明的一种基于深度学习的建成区面积估计方法,可大幅度提高人员工作效率,减少人工成本。
附图说明
图1为本发明中针对U-Net模型所作出改进的示意图。
图2为最大池化方法的示意图。
图3为本发明的一种基于U-Net的城市建成区统计方法的流程示意图。
图4为本发明的一种基于U-Net的城市建成区统计方法的具体实施例图。
图5为本发明的一种基于U-Net的城市建成区统计方法的具体实施例图。
图6为本发明采用了参数修正线性单元PReLU的原理示意图。
具体实施方式
下面结合附图和实施例对本发明进一步说明。
以下将结合实施例和附图对本发明的构思、具体结构及产生的技术效果进行清楚、完整地描述,以充分地理解本发明的目的、特征和效果。显然,所描述的实施例只是本发明的一部分实施例,而不是全部实施例,基于本发明的实施例,本领域的技术人员在不付出创造性劳动的前提下所获得的其他实施例,均属于本发明保护的范围。另外,专利中涉及到的所有联接/连接关系,并非单指构件直接相接,而是指可根据具体实施情况,通过添加或减少联接辅件,来组成更优的联接结构。本发明创造中的各个技术特征,在不互相矛盾冲突的前提下可以交互组合。
本发明揭示了一种基于U-Net的城市建成区统计方法,该方法主要选用U-Net作为架构进模型搭建, U-Net主要由两部分组成,包括特征表示部分和上采样恢复部分,整个网络呈现了“U”字形。特征表示部分,用于提取各层次特征,经过若干卷积,池化操作,可提取不同层次特征,卷积操作具有局部连接与权值共享的特性,卷积核按照一定步长在输入图像中进行移动,计算获得特征层,大幅度降低了参数,且不受图像旋转,平移等变化影响。在第i层,第j个卷积核在深度为N的输入的(x, y)位置上,该卷积和激活的操作可表示为公式:
其中,φ是激活函数,i表示神经网络层数;j表示卷积核序号;N为图像通道数,P和Q是卷积核的高度和宽度,m、p、q分别表示N、P、Q当前的值;x为图像像素横坐标,y为图像像素纵坐标;w表示权重值,v表示激活值,b为偏置值。经过卷积和激活后生成的特征图给出了在每个空间位置处卷积核的反应。直观地来说,神经网络会让卷积核学习到当它看到某些类型的视觉特征时就激活的能力,具体的视觉特征可能是某些方位上的边界,或者在第一层上某些颜色的斑点,甚至可以是网络更高层上的蜂巢状或者车轮状图案。每个卷积核都会生成一个不同的二维特征图。
将每个卷积核生成的不同特征图映射在深度方向上层叠起来就生成了输出数据。卷积操作可分为“VALID”和“SAME”两种操作方式,“VALID”指的在卷积过程中,不向边缘填充零值,每次卷积会使得特征图大小缩小,“SAME”指在卷积过程中,给图像或特征图边缘进行填充,输出的特征图尺寸与输入不变。
在连续的卷积层之间会周期性地***一个池化层。它的作用是逐渐降低数据体的空间尺寸,这样的话就能减少网络中参数的数量,使得计算资源耗费变少,也能有效控制过拟合。
池化方式多种多样,如:最大池化、平均池化、范数池化、对数池化等等。常用的池化方式为最大池化,输出结果为池化范围内的一个最大值。最大池化的范围通常为的区域,步长也为2,这样的池化结果不会有重叠区域。平均池化也有使用,其将池化范围内的取值的平均作为输出。图2为最大池化方法的示意图。
上采样部分,每进行一次采样,将特征表部分所对应的通道与上采样部分进行相同尺度的融合,融合前若尺度不一致,则需要进行裁剪,融合的意思即是特征拼接,从图1可知,输入与输出尺度并不一致,说明图像信息经过网络传递后,尺度会发生变化,输出的结果与原图并不是完全对应的大小。
图1中,即为针对U-Net模型所作出的改进,称之为新型U-Net模型或者Zone-Unet模型,在实施例中,称为Zone-Unet模型,该Zone-Unet模型中包含有箭头1至箭头6,代表了不同的含义,其中,箭头1含义为Dilated conv_5x5,指的是5x5空洞卷积;箭头3表示进行3x3的卷积操作,步长为1,采用padding的方法为“Valid”,不进行边界填充,由此可知,当特征图尺寸大小为奇数时,每次卷积操作后,特征图的尺寸都会减小2;箭头5表示特征图进行最大池化操作,相同的池化也采用了“Valid”,不进行边界填充,则当尺寸为奇数时,会顺势一部分信息。所以输入大小需要优选。箭头6含义为up_conv_2x2,指的2x2反卷积,表示上采样的过程,即反卷积操作,随着层数加深,层倍数进行增长,箭头2含义为copy and crop,表示的是复制和剪切的操作,可以发现,同一层中左侧部分比右侧部分的大,故在使用浅层特征时需要进行剪切操作,左右相一致后进行拼接。分类部分采用了1x1卷积进行分类操作,最终可以输出两部分,前景和背景,这里前景指关注目标,而背景指无关场景。箭头4含义为max_pool_2x2,指的2x2最大池化;箭头5含义为avg_pool_2x2,指的是2x2平均池化。
在本实施例中,Zone-UNet网络模型根据实际场景做出以下修正:
(1)采用5x5空洞卷积对编码区特征进行卷积,步数为1;
(2)编码区每两次卷积完,降采样一次,采用最大池化,遇到池化后为奇数长宽的情况,补充两边区域,再进行池化,保证长宽为偶数;
(3)编码器最后一层采用平均池化,综合信息;
(4)解码区逐层向上进行反卷积,在同一层采用5*5空洞卷积进行卷积;
(5)解码区输出层采用1x1卷积改变其特征数,使其内容按照分割内容呈现;
(6)编码区特征经过裁剪以及复制与解码区同一层特征进行融合,获取前验信;
(7)采用Adam反向传播算法根据标注信息进行反向传播误差,使输出与标签尽量靠近,以此完成训练阶段;
(8)最终输出包括两部分,目标建成区分割以及背景,记录图像顺序以及分割面积;
(9)结合图6所示,本模型采用了参数修正线性单元PReLU,相较原模型更具生物特性,灵活变化。
其中аi是根据Adam算法根据误差反向传播进行更新,采用的带动量进行更新的方式。
其中m是动量项,l是学习率,更新аi不加入权重衰减项,避免аi置为0。该模型有效提高了分割图像的准确率,降低了原模型的计算要求,提高了训练速度,综合运用到了整体的特征信息,空洞卷积有效扩大了感受野,捕捉了多尺度的上下文信息,更能有效区分建成区内容与背景,降低了模糊内容的误判情况。
U-Net在损失函数部分采用了pixel-wise softmax,每个像素都对应着softmax输出,若图像为w*h大小,则softmax相对应,也应该是w*h大小。其中,x被当作某一个像素点,c(x)表示了x点对应的标签值,Pk(x)表示了x点在输出类别为k的softmax为多少,其中k为c(x)输出具体的标签值;
其中w(x)可见于以下公式,d1 和d2分别是与像素点最近和第二近物体的距离,这个权重值是用来调整图像中区域的重要程度;
本发明的一种基于U-Net的城市建成区统计方法,结合图3所示,提供了一具体实施例,该实施例中该方法包括以下的步骤:
S10、采集建成区遥感图像数据,获得建成区遥感图像;该步骤中,在理解区域特性后,进行遥感图像的分割,以减少服务器运算压力;
S20、建成区标注,针对建成区建筑进行数据标注,按照建成区定义进行标注;
步骤S20中,利用labelme标注工具进行标注;并且,标注数据分为背景和检测区域两部分,其中背景是指非建成区包含的位置,检测区域涵盖建成区要素;标注方式按照多边形框进行拉伸,尽可能包含关注部分;
S30、图像块分割,按照服务器计算能力对建成区遥感图像进行分割处理,形成若干等大小的图像块,以获得多个样本;该步骤中,将图像块分割为300×300的大小,以获得3312个样本;
S40、格式转换,将VOC格式转换为COCO数据集,制作用于训练的数据集;该步骤中,由于目前开源的标注工具仅提供VOC格式的标注,故需编写格式转化程序;
S50、数据集划分,将数据集划分为训练集和测试集,训练集用于训练模型,测试集用于评估模型的准确率和鲁棒性;步骤S50中,按照训练集与测试集9:1的比例进行划分;
S60、构建U-Net模型进行训练,以判断是否满足评估指数要求,当不满足评估指数要求时,则调整评估参数后,继续构建U-Net模型进行训练;当满足评估指数要求时,则进入下一步;
步骤S60中,评估参数包括像素精度Pixel Accuracy、召回率Recall以及平均交并比Mean IoU;构建U-Net模型进行训练包括以下的步骤:
S601、设定数据集中包含有K+1类(0…K),其中0表示背景;
S602、使用Pii表示原本为i类同时预测为i类,即真阳性TP和真阴性TN;使用Pij表示原本为i类被预测为j类,即假阳性FP和假阴性FN;
S603、像素精度Pixel Accuracy为标记正确的像素占总像素的百分比,其公式如下:
召回率Recall为预测值为1且真实值也为1的样本,在真实值为1的所有样本中所占的比例,其公式如下:
平均交并比Mean IoU为在所有类别的IoU上取平均值,其公式如下:
U-Net网络是种模型结构,其主干网络可选取VGG、ResNet、darknet等经典模型,本实施例中,选取了ResNet作为主干网络和相对应的预训练模型,将数据集分为训练集以及测试集,训练集用于训练,测试集用于验证图件的泛化能力。
训练采用迁移学习的方式进行,大幅度的降低了计算力的需求,其中将U-Net输入图像更改为300x300,首个特征层节点数为32,按倍数增加,中间连接层节点个数翻倍为1024,此时进行反卷积,形成U型模型结构,两两相对应。经过1000epoch多次调整训练后,获得识别模型,在已有测试集中建成区像素精度可达到94%,召回率93.3%,MIoU达到81%。
S70、完成模型训练后,将待预测图像按规则分割,输入网络中进行区域分割提取;步骤S70中,将区域遥感图像按照16×16进行分割,以获得256张小图;其部分结果如图4所示;
S80、拼接识别完毕的图像块,获得原图像的检测结果,检测结果覆盖了建成区;由图5所示,经过U-Net进行语义分割后,获得了若干的检测图件,按照定义规则进行图件拼接,获得原图件的检测结果,检测结果覆盖了建成区;
S90、合并统计图像块面积,获取建成区面积;本实施例中,检测所占图件面积比例可通过检测区域占比进行获取,结合图件的比例尺可获得最终的统计面积:
其中,S为建成区总面积,Si为检测图件块内建成区面积。
以上是对本发明的较佳实施进行了具体说明,但本发明创造并不限于所述实施例,熟悉本领域的技术人员在不违背本发明精神的前提下还可做出种种的等同变形或替换,这些等同的变形或替换均包含在本申请权利要求所限定的范围内。
Claims (10)
1.一种基于U-Net的城市建成区统计方法,其特征在于,该方法包括以下的步骤:
S10、采集建成区遥感图像数据,获得建成区遥感图像;
S20、建成区标注,针对建成区建筑进行数据标注,按照建成区定义进行标注;
S30、图像块分割,按照服务器计算能力对建成区遥感图像进行分割处理,形成若干等大小的图像块,以获得多个样本;
S40、格式转换,将VOC格式转换为COCO数据集,制作用于训练的数据集;
S50、数据集划分,将数据集划分为训练集和测试集,训练集用于训练模型,测试集用于评估模型的准确率和鲁棒性;
S60、构建U-Net模型进行训练,以判断是否满足评估指数要求,当不满足评估指数要求时,则调整评估参数后,继续构建U-Net模型进行训练;当满足评估指数要求时,则进入下一步;
S70、完成模型训练后,将待预测图像按规则分割,输入网络中进行区域分割提取;
S80、拼接识别完毕的图像块,获得原图像的检测结果,检测结果覆盖了建成区;
S90、合并统计图像块面积,获取建成区面积。
2.根据权利要求1所述的一种基于U-Net的城市建成区统计方法,其特征在于,步骤S10中,在理解区域特性后,进行遥感图像的分割,以减少服务器运算压力。
3.根据权利要求1所述的一种基于U-Net的城市建成区统计方法,其特征在于,步骤S20中,利用labelme标注工具进行标注。
4.根据权利要求1所述的一种基于U-Net的城市建成区统计方法,其特征在于,步骤S20中,标注数据分为背景和检测区域两部分,其中背景是指非建成区包含的位置,检测区域涵盖建成区要素。
5.根据权利要求1所述的一种基于U-Net的城市建成区统计方法,其特征在于,步骤S20中,标注方式按照多边形框进行拉伸。
6.根据权利要求1所述的一种基于U-Net的城市建成区统计方法,其特征在于,步骤S30中,将图像块分割为300×300的大小,以获得3312个样本。
7.根据权利要求1所述的一种基于U-Net的城市建成区统计方法,其特征在于,步骤S50中,按照训练集与测试集9:1的比例进行划分。
8.根据权利要求1所述的一种基于U-Net的城市建成区统计方法,其特征在于,步骤S60中,评估参数包括像素精度Pixel Accuracy、召回率Recall以及平均交并比Mean IoU。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110905311.2A CN113361496B (zh) | 2021-08-09 | 2021-08-09 | 一种基于U-Net的城市建成区统计方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110905311.2A CN113361496B (zh) | 2021-08-09 | 2021-08-09 | 一种基于U-Net的城市建成区统计方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113361496A true CN113361496A (zh) | 2021-09-07 |
CN113361496B CN113361496B (zh) | 2021-12-17 |
Family
ID=77540646
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110905311.2A Active CN113361496B (zh) | 2021-08-09 | 2021-08-09 | 一种基于U-Net的城市建成区统计方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113361496B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113723373A (zh) * | 2021-11-02 | 2021-11-30 | 深圳市勘察研究院有限公司 | 一种基于无人机全景影像的违建检测方法 |
CN116052019A (zh) * | 2023-03-31 | 2023-05-02 | 深圳市规划和自然资源数据管理中心(深圳市空间地理信息中心) | 适合于大区域高分辨率卫星影像的建成区高质量检测方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108564588A (zh) * | 2018-03-21 | 2018-09-21 | 华中科技大学 | 一种基于深度特征和图割法的建成区自动提取方法 |
CN110770784A (zh) * | 2017-06-21 | 2020-02-07 | 佳能株式会社 | 图像处理装置、成像装置、图像处理方法、程序、以及存储介质 |
CN111986099A (zh) * | 2020-06-30 | 2020-11-24 | 武汉大学 | 基于融合残差修正的卷积神经网络的耕地监测方法及*** |
-
2021
- 2021-08-09 CN CN202110905311.2A patent/CN113361496B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110770784A (zh) * | 2017-06-21 | 2020-02-07 | 佳能株式会社 | 图像处理装置、成像装置、图像处理方法、程序、以及存储介质 |
CN108564588A (zh) * | 2018-03-21 | 2018-09-21 | 华中科技大学 | 一种基于深度特征和图割法的建成区自动提取方法 |
CN111986099A (zh) * | 2020-06-30 | 2020-11-24 | 武汉大学 | 基于融合残差修正的卷积神经网络的耕地监测方法及*** |
Non-Patent Citations (4)
Title |
---|
OLAF RONNEBERGER ET AL.: "U-Net: Convolutional Networks for Biomedical Image Segmentation", 《ARXIV:1505.04597V1 [CS.CV]》 * |
刘钊 等: "基于PSPNet 的遥感影像城市建成区提取及其优化方法", 《国土资源遥感》 * |
吕兵 等: "基于卷积神经网的CCTV 视频中排水管道缺陷的智能检测", 《测绘通报》 * |
沈言善 等: "基于深度学习的遥感图像地物分割方法", 《液晶与显示》 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113723373A (zh) * | 2021-11-02 | 2021-11-30 | 深圳市勘察研究院有限公司 | 一种基于无人机全景影像的违建检测方法 |
CN113723373B (zh) * | 2021-11-02 | 2022-01-18 | 深圳市勘察研究院有限公司 | 一种基于无人机全景影像的违建检测方法 |
CN116052019A (zh) * | 2023-03-31 | 2023-05-02 | 深圳市规划和自然资源数据管理中心(深圳市空间地理信息中心) | 适合于大区域高分辨率卫星影像的建成区高质量检测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113361496B (zh) | 2021-12-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110287849B (zh) | 一种适用于树莓派的轻量化深度网络图像目标检测方法 | |
CN111783590A (zh) | 一种基于度量学习的多类别小目标检测方法 | |
CN108805070A (zh) | 一种基于嵌入式终端的深度学习行人检测方法 | |
CN113609896B (zh) | 基于对偶相关注意力的对象级遥感变化检测方法及*** | |
CN113240691A (zh) | 一种基于u型网络的医学图像分割方法 | |
CN113361496B (zh) | 一种基于U-Net的城市建成区统计方法 | |
CN114092697B (zh) | 注意力融合全局和局部深度特征的建筑立面语义分割方法 | |
CN112489054A (zh) | 一种基于深度学习的遥感图像语义分割方法 | |
CN112927253B (zh) | 基于卷积神经网络的岩心fib-sem图像分割方法 | |
CN112818849B (zh) | 基于对抗学习的上下文注意力卷积神经网络的人群密度检测算法 | |
CN112529090B (zh) | 一种基于改进YOLOv3的小目标检测方法 | |
CN110334719B (zh) | 一种提取遥感影像中建筑物图像的方法及*** | |
CN111882620A (zh) | 一种基于多尺度信息道路可行驶区域分割方法 | |
CN115512103A (zh) | 多尺度融合遥感图像语义分割方法及*** | |
CN115205672A (zh) | 一种基于多尺度区域注意力的遥感建筑物语义分割方法及*** | |
CN115205667A (zh) | 一种基于YOLOv5s的密集目标检测方法 | |
CN114120141A (zh) | 一种可全天候遥感监测自动分析方法及其*** | |
CN112700476A (zh) | 一种基于卷积神经网络的红外船视频跟踪方法 | |
CN113496480A (zh) | 一种焊缝图像缺陷的检测方法 | |
CN115908793A (zh) | 一种基于位置注意力机制的编解码结构语义分割模型 | |
CN114926826A (zh) | 场景文本检测*** | |
CN113723558A (zh) | 基于注意力机制的遥感图像小样本舰船检测方法 | |
CN116485783A (zh) | 一种改进的深度分离层聚合和空间增强注意力的布匹瑕疵检测方法 | |
CN112990336B (zh) | 基于竞争注意力融合的深度三维点云分类网络构建方法 | |
CN115063655A (zh) | 一种融合超列的类激活映射图生成方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |