CN114612787B - 一种尺度变化策略支持的城市绿地深度学习提取方法 - Google Patents
一种尺度变化策略支持的城市绿地深度学习提取方法 Download PDFInfo
- Publication number
- CN114612787B CN114612787B CN202210277432.1A CN202210277432A CN114612787B CN 114612787 B CN114612787 B CN 114612787B CN 202210277432 A CN202210277432 A CN 202210277432A CN 114612787 B CN114612787 B CN 114612787B
- Authority
- CN
- China
- Prior art keywords
- scene
- object unit
- green space
- urban green
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000605 extraction Methods 0.000 title claims abstract description 31
- 238000013135 deep learning Methods 0.000 title claims abstract description 20
- 230000008859 change Effects 0.000 title claims abstract description 19
- 238000012549 training Methods 0.000 claims abstract description 33
- 238000000034 method Methods 0.000 claims abstract description 30
- 230000011218 segmentation Effects 0.000 claims abstract description 11
- 238000005520 cutting process Methods 0.000 claims abstract description 9
- 238000005070 sampling Methods 0.000 claims abstract description 6
- 238000012360 testing method Methods 0.000 claims description 15
- 238000012795 verification Methods 0.000 claims description 7
- 238000004364 calculation method Methods 0.000 claims description 6
- 238000002372 labelling Methods 0.000 claims description 6
- 230000008569 process Effects 0.000 claims description 5
- 101100425560 Rattus norvegicus Tle4 gene Proteins 0.000 claims description 4
- 101100327317 Saccharomyces cerevisiae (strain ATCC 204508 / S288c) CDC1 gene Proteins 0.000 claims description 4
- 238000011156 evaluation Methods 0.000 claims description 4
- 230000006870 function Effects 0.000 claims description 2
- 238000010187 selection method Methods 0.000 claims description 2
- 230000009466 transformation Effects 0.000 claims description 2
- 230000009467 reduction Effects 0.000 abstract description 2
- 238000006243 chemical reaction Methods 0.000 abstract 1
- 238000010586 diagram Methods 0.000 description 4
- 238000011160 research Methods 0.000 description 4
- OKTJSMMVPCPJKN-UHFFFAOYSA-N Carbon Chemical compound [C] OKTJSMMVPCPJKN-UHFFFAOYSA-N 0.000 description 2
- 229910052799 carbon Inorganic materials 0.000 description 2
- 238000013145 classification model Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 241001632422 Radiola linoides Species 0.000 description 1
- 238000010521 absorption reaction Methods 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- QVGXLLKOCUKJST-UHFFFAOYSA-N atomic oxygen Chemical compound [O] QVGXLLKOCUKJST-UHFFFAOYSA-N 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000003344 environmental pollutant Substances 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000013508 migration Methods 0.000 description 1
- 230000005012 migration Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 229910052760 oxygen Inorganic materials 0.000 description 1
- 239000001301 oxygen Substances 0.000 description 1
- 231100000719 pollutant Toxicity 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
Abstract
本发明公开一种尺度变化策略支持的城市绿地深度学习提取方法,主要包括四部分:(1)对象单元提取:利用尺度寻优算法支持的影像多尺度分割,获得对象单元与对象级特征;(2)场景种子点提取:利用二叉树采样算法,逐对象单元计算场景种子点个数,并采用无监督算法计算场景种子点集合;(3)场景分类网络训练:以种子点为中心进行影像裁切,构建场景分类数据集并训练场景分类网络;(4)场景分类与像素级结果还原:预测场景分类结果,利用多数投票法获取单个对象单元的分类结果,并生成城市绿地像素级提取结果。本算法通过尺度变化策略,实现了样本由像素级向场景级的转换,降低了样本标注难度,达到以较低的成本自动提取城市绿地的目的。
Description
技术领域
本发明属于遥感智能信息提取技术领域,具体涉及一种尺度变化策略支持的城市绿地深度学习提取方法。
背景技术
城市绿地是指城市建成区空间范围内以自然/人工植被组成的城市土地利用类型,是城市生态用地的主要组成部分。城市绿地在城市中发挥着固碳释氧、调节微气候、涵养水源、吸收污染物等重要生态效益。随着我国城镇化发展的不断推进,城市人工地表快速扩张,与城市绿地相互穿插交织。因此城市绿地相对于森林、草原等天然绿地存在破碎度高、形状多样性复杂等特点,给城市绿地的精细化制图带来了一定的困难。城市绿地的高效精准提取,对自然资源管理、城市生态环境监测、城市碳汇估算等工作具有重要意义。随着对地观测技术的不断发展,遥感影像具有越来越高的分辨率,地物细节更加丰富,城市绿地的精准提取提供了数据基础。当前深度学习为主的人工智能方法成为了高分影像地物提取的主流技术手段,以U-Net、SegNet、DeepLabV3等为代表的的语义分割网络在遥感影像智能解译研究与应用中得到了广泛的使用。虽然当前语义分割为主的深度学习算法在精度上可以一定程度满足地物精细提取制图需求,但是此类方法与样本数据集质量与数量具有极强的依赖关系,且其像素级尺度样本制作及标注过程复杂且繁琐,需具备较高的领域专家知识及人力、物力成本,同时需要以辅助影像、数据为参考,乃至实地调查来确保样本标注真实可靠。
因此,对于遥感影像城市绿地提取问题,传统基于像素级样本的深度学习的遥感影像提取方法存在以下局限性:1)高质量像素级训练样本制作成本较高,需要大量的人力、物力及时间成本投入;2)对于边缘信息,由于其对整体影像的裁切操作、人工标注的不确定性以及训练过程中数据的卷积操作,导致边缘信息残缺,难以保持边缘信息的完整性,使得提取成果轮廓信息较差,无法达到理想状态。
发明内容
本发明针对现有技术中的不足,提供一种尺度变化策略支持的城市绿地深度学习提取方法,采用的技术方案如下:
一种尺度变化策略支持的城市绿地深度学习提取方法,包括以下步骤:
步骤1:利用尺度寻优算法支持的影像多尺度分割,获取遥感影像中的对象单元并提取每个对象单元的对象级特征;
步骤2:通过设定对象级特征的多层次阈值及各层次阈值影响因子,利用二叉树采样算法分别计算每个对象单元的场景个数,并将场景个数作为场景种子点数量;
步骤3:以步骤2中的场景种子点数量为聚类簇数,采用K-Means算法分别计算每个对象单元中各场景的聚类中心,并将对象单元中与该聚类中心距离最近的像素点作为该场景的中心位置;
步骤4:设定场景尺寸,规定边界限制,以步骤3中获取的场景中心位置为中心构建矩形范围并裁剪遥感影像,分别对裁剪得到的单场景图像进行类别标注,形成场景分类数据集;
步骤5:利用步骤4中构建的场景分类数据集训练场景分类网络,并对训练完成的场景分类网络进行精度评估和泛化性测试,若不达标则重新训练;
步骤6:对待提取城市绿地的遥感影像图,按照步骤1到4获取该遥感影像图的单场景图像,并将其分别输入到训练完成的场景分类网络中以获取场景类别;
步骤7:分别对单个对象单元中的所有场景类别进行统计,并利用多数投票法获取对象单元的类别,即,若单个对象单元中的所有场景类别中多数为城市绿地,则该对象单元的类别也为城市绿地,否则该对象单元为非城市绿地;
步骤8:根据对象单元及其像素点的空间位置关系,对待提取城市绿地的遥感影像图进行逐像素类别标定,以获取像素级城市绿地提取结果,即,若对象单元的类别为城市绿地,则待提取城市绿地的遥感影像图中与该对象单元对应的每个像素的类别也为城市绿地。
进一步地,步骤1中,通过在eCognition软件中使用多尺度分割算法完成对遥感影像的分割,其中尺度因子由ESP2插件计算获得,获取遥感影像中的对象单元并提取每个对象单元的对象级特征,所述对象级特征包括面积和密度。
进一步地,步骤2中:
若对象单元的面积小于0.1,则其面积影响因子ta为0.5,
若对象单元的面积大于0.8,则其面积影响因子ta为1.0,
若对象单元的面积不小于0.1且不大于0.8,则其面积影响因子ta为0.8;
若对象单元的密度T小于0.1,则其密度影响因子tb为0.5,
若对象单元的密度T大于0.8,则其密度影响因子tb为1.0,
若对象单元的密度T不小于0.1且不大于0.8,则其密度影响因子tb为0.8;
每个对象单元的场景个数num的计算公式为:num=Max_num*ta*T*tb,其中Max_num为该对象单元的最大场景个数,且pts为该对象单元的总像素点数,/>表示取整。
进一步地,步骤3中,以步骤2中获取的单个对象单元的场景种子点数量为聚类簇数k,利用K-Means++算法完成聚类中心的初始化:首先,从该对象单元的像素点集Py={p1,p2,…,pn}中随机选择一个点作为第一个聚类中心,记为C1;然后,计算Py中的每个点到聚类中心的欧式距离,用Dx表示,Dx越大则其被选为下一个聚类中心的概率越大;最后,采用轮盘选择法选取第二个聚类中心,按照此步骤,依次初始化k个聚类中心;
聚类中心初始化完成后,采用标准的K-Means算法完成聚类过程,获得最终的k个聚类中心,并将对象单元中与该k个聚类中心距离最近的像素点作为对应聚类中心代表的场景的中心位置。
进一步地,步骤5中,选取ResNet50网络作为场景分类网络,将场景分类数据集按照一定比例分为训练集、测试集和验证集,利用训练集通过变换损失函数、调整学习率和迭代次数训练场景分类网络,并利用测试集和验证集对训练后的场景分类网络进行精度评估和泛化性测试,若测试精度小于设定阈值则重新训练。
进一步地,训练集、测试集和验证集的划分比例为6:2:2,并将单张遥感影像的最大训练样本量设为100000,以防止训练过拟合;场景分类网络训练时的优化器为SGD,学习率为0.002,动量因子为0.9,权重衰减为0.0001,迭代次数为100,步长为32。
本发明的有益效果如下:
(1)提出了一种尺度变化策略,解决了像素级样本标注困难的问题;实现了由影像-对象-场景-像素的尺度变化,通过标注场景样本类别信息,即可最终完成像素级成果提取。
(2)引入了以二叉树采样与K-means结合的场景种子点计算方法,以对象单元采样个数为聚类簇数,使用K-means逐对象计算其内场景种子点位置,达到场景自动化提取的目的,该方法计算不同对象单元时相互独立,并可采用并行计算保障其运行效率。
(3)构建了像素级成果还原方法,通过反映射字典及多数投票算法,结合空间位置匹配关系,逐像素复原类别,实现场景-像素的尺度变化,获得像素级城市绿地提取结果。
本发明方法在多期国产高分辨率遥感影像城市绿地提取中取得了良好的提取效果,边缘精细,提取总体精度高且模型迁移性强。相较于传统深度学习方法,能够有效降低样本标注成本,更加高效的完成城市绿地的提取,为城市绿地深度学习提取提供了新的解决思路。
附图说明
图1为本发明中的尺度变化示意图;
图2为本发明方法的流程图;
图3为场景分类数据集生成方法的流程图;
图4为像素级成果还原方法的流程图;
图5为城市绿地原始图像、真值标签及提取结果示意图。
具体实施方式
本发明实例研究区域为南京主城地区,产品类型为0.5m国产高分辨率遥感影像,产品数据获取时间为2019年,为了方便描述,后续将产品简称为“主城高分2019”。
本实施案例基于一种尺度变化策略支持的城市绿地深度学习提取方法,其中尺度变化示意图如图1所示,方法流程图如图2所示,包括以下步骤:
第一步:获取南京市主城六区国产高分辨率遥感影像(空间分辨率0.5m),在ArcMap中生成矢量文件,对影像进行裁剪获得研究区原始影像。通过使用遥感处理软件ENVI(The Environment for Visualizing Image),对研究区原始影像进行数据预处理以及感兴趣地物标注,生成真实值标签图“eCogResult2019”。
第二步:在eCognition软件中使用ESP2插件完成多尺度遥感影像分割,获取对象单元及其对象级特征提取。读取栅格格式的“主城高分2019”,在其进程树中加载ESP2插件,执行插件并设置参数:Shape为0.1,Compactness为0.5,Produce LV Graph为1。分割完成后,为尽可能保证其分割单元的精细性及后续计算步骤的边缘信息,导出Level1级对象单元结果及其面积、密度等对象级特征,分别以“.GIF”和“.csv”文件形式进行保存。
第三步:利用Python编程完成单个对象单元场景种子点个数的提取。利用二叉树采样算法,设定对象级特征:面积和密度的阈值范围及其影响因子,读取第一步中的栅格结果eCogResult2019与表格结果,依据序号一一对应,遍历其中所有的对象单元;对每个对象单元计算最大场景种子点个数限制,生成种子点个数3×3矩阵,以面积与密度为参数,获取其单个对象单元场景种子点个数。具体参数及公式如表1所示。
第四步:利用Python编程实现K-Means++算法初始化K-Means算法,获得初始聚类中心并最终得到每个对象单元全部种子点位置。以第三步获取的单个对象单元场景种子点个数为聚类簇数k,从点集Py={p1,p2,…,pn}中随机选择一个点作为第一个聚类中心,记为C1;然后计算Py中的每一个点到聚类中心的欧式距离,用Dx表示,Dx越大,则被选为下一个聚类中心的概率越大,最后,采用轮盘法选取第二个聚类中心,按照此步骤,依次初始化k个聚类中心。
当获得第k个聚类中心时,即使用K-Means++完成聚类中心初始化的目标,后续便可使用标准K-Means算法,计算并获取最终的k个聚类中心,即对应k个种子点。对所获取到的k个种子点,计算其与所有点的欧式距离,选取与其最邻近点的值替换相应的种子点,以达到取整的目标,以文档的形式记录并保存场景种子点位置信息。
相比于K-Means算法随机选取聚类中心,K-Means++则按照如下的思想选取k个聚类中心:假设已经选取了n个初始聚类中心(0<n<k),则在选取第n+1个聚类中心时:距离当前n个聚类中心越远的点会有更高的概率被选为第n+1个聚类中心。这也更符合我们的直觉,聚类中心当然是互相离得越远越好。
表1
pts表示单个分割单元的总像素点数,样本个数需最终取整;Max_num即为对象单元的最大场景个数,ta表示面积影响因子,tb表示密度影响因子。
第五步:利用Python编程实现场景分类数据集的构建,整体流程如图3所示。利用第四步所获取的种子点作为中心点,设定场景尺寸,以种子点x,y坐标为原点,获取裁剪矩形框四点坐标,参数及其位置分别为:
读取原始影像,依据矩形框坐标,裁切影像,若坐标位置超出整体图幅范围,则使用图幅范围作为边界,形成无标签场景样本;利用人机交互,赋值无标签样本场景类别:背景值设为0,城市绿地设为1,达到以对象单元为基础,重新划分其中各个场景类别信息的目的,最终形成场景分类数据集。
第六步:数据集构建完成后,按6:2:2的比例划分训练集、测试集与验证集,设置单张原始影像最大训练样本量为100000,以防止训练过拟合。利用Python编程实现深度学习场景分类网络训练,选择ResNet50作为基础训练网络,将训练集送入网络中,设置其网络基础参数。优化器选择SGD,其学习率设置为0.002,动量因子设置为0.9,权重衰减设置为0.0001,迭代次数为100,步长为32,完成场景分类模型训练。
第七步:模型训练完成后,使用第六步划分的测试集,对场景分类模型的总体精度进行评定,输出模型并以文本形式记录单一场景图片属性信息及其类别信息。重选同期不同区域或不同期数据,按步骤生成无标签场景数据集,利用模型进行预测,再次评定其总体精度,完成模型迁移性测试。
第八步:读取第七步所获得的场景分类结果,统计单个对象单元中所有场景类别,以多数投票算法评定对象单元类别,依据反映射字典,重建对象单元类别标签。读取第二步获取的“eCogResult2019”结果,利用单个像素点所在对象单元的位置信息,逐像素赋值其所匹配的对象单元类别属性,从而完成像素级结果还原,具体流程图如图4所示。结合第一步所标注的部分真值标签,计算像素级结果精度,包含:总体精度、召回率、F1、MIoU四项指标。最终实现城市绿地深度学习提取的目的,城市绿地提取结果图如图5所示,结果图中的高亮区域即为提取到的城市绿地区域。
以上仅是本发明的优选实施方式,本发明的保护范围并不仅局限于上述实施例,凡属于本发明思路下的技术方案均属于本发明的保护范围。应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理前提下的若干改进和润饰,应视为本发明的保护范围。
Claims (6)
1.一种尺度变化策略支持的城市绿地深度学习提取方法,其特征在于,包括以下步骤:
步骤1:利用尺度寻优算法支持的影像多尺度分割,获取遥感影像中的对象单元并提取每个对象单元的对象级特征;
步骤2:通过设定对象级特征的多层次阈值及各层次阈值影响因子,利用二叉树采样算法分别计算每个对象单元的场景个数,并将场景个数作为场景种子点数量;
步骤3:以步骤2中的场景种子点数量为聚类簇数,采用K-Means算法分别计算每个对象单元中各场景的聚类中心,并将对象单元中与该聚类中心距离最近的像素点作为该场景的中心位置;
步骤4:设定场景尺寸,规定边界限制,以步骤3中获取的场景中心位置为中心构建矩形范围并裁剪遥感影像,分别对裁剪得到的单场景图像进行类别标注,形成场景分类数据集;
步骤5:利用步骤4中构建的场景分类数据集训练场景分类网络,并对训练完成的场景分类网络进行精度评估和泛化性测试,若不达标则重新训练;
步骤6:对待提取城市绿地的遥感影像图,按照步骤1到4获取该遥感影像图的单场景图像,并将其分别输入到训练完成的场景分类网络中以获取场景类别;
步骤7:分别对单个对象单元中的所有场景类别进行统计,并利用多数投票法获取对象单元的类别,即,若单个对象单元中的所有场景类别中多数为城市绿地,则该对象单元的类别也为城市绿地,否则该对象单元为非城市绿地;
步骤8:根据对象单元及其像素点的空间位置关系,对待提取城市绿地的遥感影像图进行逐像素类别标定,以获取像素级城市绿地提取结果,即,若对象单元的类别为城市绿地,则待提取城市绿地的遥感影像图中与该对象单元对应的每个像素的类别也为城市绿地。
2.如权利要求1所述的一种尺度变化策略支持的城市绿地深度学习提取方法,其特征在于,步骤1中,通过在eCognition软件中使用多尺度分割算法完成对遥感影像的分割,其中尺度因子由ESP2插件计算获得;获取遥感影像中的对象单元并提取每个对象单元的对象级特征,所述对象级特征包括面积和密度。
3.如权利要求2所述的一种尺度变化策略支持的城市绿地深度学习提取方法,其特征在于,步骤2中:
若对象单元的面积小于0.1,则其面积影响因子ta为0.5,
若对象单元的面积大于0.8,则其面积影响因子ta为1.0,
若对象单元的面积不小于0.1且不大于0.8,则其面积影响因子ta为0.8;
若对象单元的密度T小于0.1,则其密度影响因子tb为0.5,
若对象单元的密度T大于0.8,则其密度影响因子tb为1.0,
若对象单元的密度T不小于0.1且不大于0.8,则其密度影响因子tb为0.8;
每个对象单元的场景个数num的计算公式为:num=Max_num*ta*T*tb,其中Max_num为该对象单元的最大场景个数,且pts为该对象单元的总像素点数,/>表示取整。
4.如权利要求1所述的一种尺度变化策略支持的城市绿地深度学习提取方法,其特征在于,步骤3中,以步骤2中获取的单个对象单元的场景种子点数量为聚类簇数k,利用K-Means++算法完成聚类中心的初始化:首先,从该对象单元的像素点集Py={p1,p2,…,pn}中随机选择一个点作为第一个聚类中心,记为C1;然后,计算Py中的每个点到聚类中心的欧式距离,用Dx表示,Dx越大则其被选为下一个聚类中心的概率越大;最后,采用轮盘选择法选取第二个聚类中心,按照此步骤,依次初始化k个聚类中心;
聚类中心初始化完成后,采用标准的K-Means算法完成聚类过程,获得最终的k个聚类中心,并将对象单元中与该k个聚类中心距离最近的像素点作为对应聚类中心代表的场景的中心位置。
5.如权利要求1所述的一种尺度变化策略支持的城市绿地深度学习提取方法,其特征在于,步骤5中,选取ResNet50网络作为场景分类网络,将场景分类数据集按照一定比例分为训练集、测试集和验证集,利用训练集通过变换损失函数、调整学习率和迭代次数训练场景分类网络,并利用测试集和验证集对训练后的场景分类网络进行精度评估和泛化性测试,若测试精度小于设定阈值则重新训练。
6.如权利要求5所述的一种尺度变化策略支持的城市绿地深度学习提取方法,其特征在于,训练集、测试集和验证集的划分比例为6:2:2,并将单张遥感影像的最大训练样本量设为100000,以防止训练过拟合;场景分类网络训练时的优化器为SGD,学习率为0.002,动量因子为0.9,权重衰减为0.0001,迭代次数为100,步长为32。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210277432.1A CN114612787B (zh) | 2022-03-21 | 2022-03-21 | 一种尺度变化策略支持的城市绿地深度学习提取方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210277432.1A CN114612787B (zh) | 2022-03-21 | 2022-03-21 | 一种尺度变化策略支持的城市绿地深度学习提取方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114612787A CN114612787A (zh) | 2022-06-10 |
CN114612787B true CN114612787B (zh) | 2024-05-10 |
Family
ID=81864852
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210277432.1A Active CN114612787B (zh) | 2022-03-21 | 2022-03-21 | 一种尺度变化策略支持的城市绿地深度学习提取方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114612787B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116363520B (zh) * | 2023-06-02 | 2023-08-04 | 青岛海滨风景区小鱼山管理服务中心 | 一种城市绿地规划用景观生态检测*** |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112215186A (zh) * | 2020-10-21 | 2021-01-12 | 深圳市赛为智能股份有限公司 | 沼泽湿地植被分类方法、装置、计算机设备及存储介质 |
CN112396029A (zh) * | 2020-12-03 | 2021-02-23 | 宁波大学 | 一种聚类分割与耦合端元提取协同的高光谱滨海湿地亚像元变化检测方法 |
CN112836614A (zh) * | 2021-01-27 | 2021-05-25 | 国网江苏省电力有限公司泰州供电分公司 | 一种基于残差网络和迁移学习的高分遥感图像分类方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9946931B2 (en) * | 2015-04-20 | 2018-04-17 | Los Alamos National Security, Llc | Change detection and change monitoring of natural and man-made features in multispectral and hyperspectral satellite imagery |
-
2022
- 2022-03-21 CN CN202210277432.1A patent/CN114612787B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112215186A (zh) * | 2020-10-21 | 2021-01-12 | 深圳市赛为智能股份有限公司 | 沼泽湿地植被分类方法、装置、计算机设备及存储介质 |
CN112396029A (zh) * | 2020-12-03 | 2021-02-23 | 宁波大学 | 一种聚类分割与耦合端元提取协同的高光谱滨海湿地亚像元变化检测方法 |
CN112836614A (zh) * | 2021-01-27 | 2021-05-25 | 国网江苏省电力有限公司泰州供电分公司 | 一种基于残差网络和迁移学习的高分遥感图像分类方法 |
Non-Patent Citations (2)
Title |
---|
基于DeepLabv3+语义分割模型的GF-2影像城市绿地提取;刘文雅;岳安志;季珏;师卫华;邓孺孺;梁业恒;熊龙海;;国土资源遥感;20200615(02);全文 * |
高空间分辨率遥感图像语义分割研究;张学良;《中国博士学位论文全文数据库工程科技Ⅱ辑》;20210531;C028-3 * |
Also Published As
Publication number | Publication date |
---|---|
CN114612787A (zh) | 2022-06-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Zhao et al. | Cloud shape classification system based on multi-channel cnn and improved fdm | |
CN110443143B (zh) | 多分支卷积神经网络融合的遥感图像场景分类方法 | |
CN102622607B (zh) | 一种基于多特征融合的遥感图像分类方法 | |
CN114092832B (zh) | 一种基于并联混合卷积网络的高分辨率遥感影像分类方法 | |
CN111639587B (zh) | 基于多尺度谱空卷积神经网络的高光谱图像分类方法 | |
CN113449594A (zh) | 一种多层网络组合的遥感影像地类语义分割与面积计算方法 | |
CN113223042B (zh) | 一种遥感影像深度学习样本智能采集方法及设备 | |
CN113111716B (zh) | 一种基于深度学习的遥感影像半自动标注方法和装置 | |
CN102542302A (zh) | 基于分等级对象语义图的复杂目标自动识别方法 | |
CN110176005B (zh) | 基于归一化指数和多尺度模型的遥感图像分割方法 | |
CN114694038A (zh) | 基于深度学习的高分辨率遥感影像分类方法及*** | |
CN110675421B (zh) | 基于少量标注框的深度图像协同分割方法 | |
CN109635726B (zh) | 一种基于对称式深度网络结合多尺度池化的滑坡识别方法 | |
CN112836614B (zh) | 一种基于残差网络和迁移学习的高分遥感图像分类方法 | |
Zhu et al. | Change detection based on the combination of improved SegNet neural network and morphology | |
CN105631469A (zh) | 一种多层稀疏编码特征的鸟类图像识别方法 | |
CN114283285A (zh) | 交叉一致性自训练遥感图像语义分割网络训练方法及装置 | |
CN112001293A (zh) | 结合多尺度信息和编解码网络的遥感影像地物分类方法 | |
CN114612787B (zh) | 一种尺度变化策略支持的城市绿地深度学习提取方法 | |
CN116563205A (zh) | 基于小目标检测和改进YOLOv5的麦穗计数检测方法 | |
Deng et al. | A paddy field segmentation method combining attention mechanism and adaptive feature fusion | |
CN114743042A (zh) | 一种基于深度特征和TrAdaBoost的龙井茶品质鉴别方法 | |
CN114202694A (zh) | 基于流形混合插值和对比学习的小样本遥感场景图像分类方法 | |
He et al. | Fast and Accurate Sea-Land Segmentation Based on Improved SeNet and Coastline Database for Large-Scale Image | |
CN117975172B (zh) | 一种整株豆荚识别模型构建与训练方法及*** |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |