CN114898097B - 图像识别方法及*** - Google Patents
图像识别方法及*** Download PDFInfo
- Publication number
- CN114898097B CN114898097B CN202210623004.XA CN202210623004A CN114898097B CN 114898097 B CN114898097 B CN 114898097B CN 202210623004 A CN202210623004 A CN 202210623004A CN 114898097 B CN114898097 B CN 114898097B
- Authority
- CN
- China
- Prior art keywords
- image data
- data
- mangrove
- remote sensing
- sentinel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 45
- 240000002044 Rhizophora apiculata Species 0.000 claims abstract description 151
- 238000012549 training Methods 0.000 claims abstract description 96
- 238000012545 processing Methods 0.000 claims abstract description 47
- 238000005070 sampling Methods 0.000 claims abstract description 14
- 230000011218 segmentation Effects 0.000 claims description 68
- 238000012795 verification Methods 0.000 claims description 46
- 238000012360 testing method Methods 0.000 claims description 38
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 claims description 24
- 230000006870 function Effects 0.000 claims description 22
- 238000005314 correlation function Methods 0.000 claims description 12
- 238000002372 labelling Methods 0.000 claims description 6
- 238000007781 pre-processing Methods 0.000 claims description 6
- 230000008569 process Effects 0.000 claims description 5
- 230000010365 information processing Effects 0.000 claims description 3
- 230000004927 fusion Effects 0.000 claims description 2
- 238000005516 engineering process Methods 0.000 description 11
- 238000012706 support-vector machine Methods 0.000 description 8
- 238000013136 deep learning model Methods 0.000 description 6
- 239000000243 solution Substances 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000013507 mapping Methods 0.000 description 4
- 238000004519 manufacturing process Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 2
- 238000003709 image segmentation Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 238000012952 Resampling Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000009193 crawling Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000002347 injection Methods 0.000 description 1
- 239000007924 injection Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000002689 soil Substances 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/143—Sensing or illuminating at different wavelengths
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/13—Satellite images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/188—Vegetation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/194—Terrestrial scenes using hyperspectral data, i.e. more or other wavelengths than RGB
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/70—Labelling scene content, e.g. deriving syntactic or semantic representations
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A90/00—Technologies having an indirect contribution to adaptation to climate change
- Y02A90/30—Assessment of water resources
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Remote Sensing (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Astronomy & Astrophysics (AREA)
- Computational Linguistics (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明提供了一种图像识别方法及***,先对10米级分辨率的Sentinel‑2数据进行升采样处理以得到亚米级图像数据,对亚米级图像数据进行波段运算,将波段运算后得到的指数信息和多个波段信息与亚米级分辨率的RGB遥感图像数据的波段信息融合得到第二图像数据;再对RGB遥感图像数据进行分割、去除非红树林生长区域和二值化,得到标签图像数据;之后将RGB遥感图像数据、第二图像数据和标签图像数据均进行瓦片化处理,构建用于训练图像识别模型的初始样本集;最终根据预先训练好的图像识别模型对待预测遥感图像数据进行红树林对象的预测。采用本发明可以快速准确的识别出全球范围内的红树林,进而得到全球范围内的红树林分布图。
Description
技术领域
本发明涉及遥感技术领域,尤其是涉及一种图像识别方法及***。
背景技术
遥感图像识别是一种利用计算机对遥感图像中各类地物的光谱信息和空间信息进行分析,将图像中各个像元划分到各自地物类型的技术。因而可利用遥感图像识别技术识别目标区域的红树林,并生成红树林分布图的技术。现有的红树林识别依照其识别尺度可分为大尺度和小尺度。小尺度红树林识别的实现方案是基于SPORT5影像,采用SVM(Support Vector Machine,支持向量机)的分类方法进行红树林种类分析和制图。大尺度红树林制图是基于Landsat、Sentinel-2影像的全球红树林制图。
基于SPORT5加彩色合成影像,依据图谱特征分析建立的四种典型红树林遥感的解译标志,应用SVM的分类方法,完成了研究区内红树林的分类制图,最后结合随机样点对制图结果进行了精度验证。但SVM分类器为像素级,空间特征利用不完全。
此外,SPORT5影像的最高空间分辨率为2.5米,分类的精度不够高。SPORT5影像数据不开放,获取价格昂贵。Landsat、Sentinel-2数据开放但分辨率低。且采用机器学习网络进行红树林识别的效率和准确性低。
发明内容
有鉴于此,本发明的目的在于提供一种图像识别方法及***,以利用中高分辨率遥感图像分类技术、深度学习技术和图像分割技术快速准确的识别出全球范围内的红树林,进而得到全球范围内的红树林分布图。
第一方面,本发明实施例提供了一种图像识别方法,所述方法包括:获取全球范围红树林生长区域的RGB遥感图像数据和Sentinel-2数据;其中,所述RGB遥感图像数据的分辨率小于1米;所述Sentinel-2数据为卫星携带分辨率大于1米的多光谱成像仪采集到的数据,其分辨率为10米;对所述Sentinel-2数据进行升采样处理,得到第一图像数据;其中,所述第一图像数据的分辨率与所述RGB遥感图像数据的分辨率相同;通过波段运算计算出所述第一图像数据的归一化水体指数信息和红树林指数信息,并将所述第一图像数据的归一化水体指数信息、红树林指数信息、一个近红外波段信息和一个短波红外波段信息与所述RGB遥感图像数据的红绿蓝三个可见光波段信息进行叠加融合,得到第二图像数据;按照预设分割参数对所述RGB遥感图像数据进行分割,得到所述RGB遥感图像数据的多个分割图像区域;其中,同一分割图像区域所包含的对象的类型相同,不同分割区域图像所包含的对象的类型不同;所述预设分割参数包括分割尺度、形状因子和平滑度;根据所述Sentinel-2数据,将所述RGB遥感图像数据的多个分割图像区域中不包含红树林对象的分割图像区域去除,再进行二值化处理,得到标签图像数据;将所述RGB遥感图像数据、所述第二图像数据和所述标签图像数据均进行瓦片化处理,得到包含多个尺寸相等的瓦片的初始样本集;根据预先用所述初始样本集训练好的图像识别模型,对待预测遥感图像数据进行红树林对象的预测,得到所述待预测遥感图像数据的红树林预测结果。
作为一种可能的实现,所述根据所述Sentinel-2数据,将所述RGB遥感图像数据的多个分割图像区域中不包含红树林对象的分割图像区域去除,再进行二值化处理,得到标签图像数据,包括:根据所述Sentinel-2数据和每个分割图像区域所包含的对象的类型,为每个分割图像区域进行人工标注类别标签,得到第一标签图像数据;其中,所述对象的类型分为红树林和非红树林,且红树林对应第一类别标签,非红树林对应第二类别标签;将所述第一标签图像数据中具有第一类别标签的分割图像区域去除,得到第二标签图像数据;对所述第二标签图像数据进行二值化处理,得到所述标签图像数据。
作为一种可能的实现,所述获取全球范围红树林生长区域的RGB遥感图像数据和Sentinel-2数据,包括:获取全球红树林生长区域的RGB遥感图像数据;获取全球红树林生长区域的Sentinel-2数据。
作为一种可能的实现,所述图像识别模型的训练,包括:按照预设比例关系将所述初始样本集分成训练集、验证集和测试集;设置模型训练参数;其中,所述模型训练参数包括训练批量、学习率和迭代次数;用所述训练集对语义分割模型进行迭代训练,并用所述验证集对每一次迭代训练后的语义分割模型的精度进行验证;其中,所述训练集和所述验证集关于语义分割模型的精度验证指标为第一预设损失函数和第一交并比函数;直至所述训练集和所述验证集关于所述语义分割模型的精度验证指标稳定,且满足模型收敛条件,停止训练,得到所述图像识别模型;用所述测试集对训练完成的语义分割模型进行测试;其中,所述训练集和所述测试集关于语义分割模型的测试指标为第二预设损失函数和第二交并比函数。
作为一种可能的实现,所述对所述Sentinel-2数据进行升采样处理,得到第一图像数据之前,所述方法还包括:对所述RGB遥感图像数据和所述Sentinel-2数据进行去云处理。
第二方面,本发明实施例还提供一种图像识别***,所述***包括:数据获取模块,用于获取全球范围红树林生长区域的RGB遥感图像数据和Sentinel-2数据;其中,所述RGB遥感图像数据的分辨率小于1米;所述Sentinel-2数据为卫星携带分辨率大于1米的多光谱成像仪采集到的数据,其分辨率为10米;数据预处理模块,用于对所述Sentinel-2数据进行升采样处理,得到第一图像数据;其中,所述第一图像数据的分辨率与所述RGB遥感图像数据的分辨率相同;信息处理模块,用于通过波段运算计算出所述第一图像数据的归一化水体指数信息和红树林指数信息,并将所述第一图像数据的归一化水体指数信息、红树林指数信息、一个近红外波段信息和一个短波红外波段信息与所述RGB遥感图像数据的红绿蓝三个可见光波段信息进行叠加融合,得到第二图像数据;数据分割模块,用于按照预设分割参数对所述RGB遥感图像数据进行分割,得到所述RGB遥感图像数据的多个分割图像区域;其中,同一分割图像区域所包含的对象的类型相同,不同分割区域图像所包含的对象的类型不同;所述预设分割参数包括分割尺度、形状因子和平滑度;标签数据制作模块,用于根据所述Sentinel-2数据,将所述RGB遥感图像数据的多个分割图像区域中不包含红树林对象的分割图像区域去除,再进行二值化处理,得到标签图像数据;初始样本集形成模块,用于将所述RGB遥感图像数据、所述第二图像数据和所述标签图像数据均进行瓦片化处理,得到包含多个尺寸相等的瓦片的初始样本集;模型预测模块,用于根据预先用所述初始样本集训练好的图像识别模型,对待预测遥感图像数据进行红树林对象的预测,得到所述待预测遥感图像数据的红树林预测结果。
作为一种可能的实现,所述标签数据制作模块还用于:根据所述Sentinel-2数据和每个分割图像区域所包含的对象的类型,为每个分割图像区域进行人工标注类别标签,得到第一标签图像数据;其中,所述对象的类型分为红树林和非红树林,且红树林对应第一类别标签,非红树林对应第二类别标签;将所述第一标签图像数据中具有第一类别标签的分割图像区域去除,得到第二标签图像数据;对所述第二标签图像数据进行二值化处理,得到所述标签图像数据。
作为一种可能的实现,所述数据获取模块还用于:获取全球红树林生长区域的RGB遥感图像数据;获取全球红树林生长区域的Sentinel-2数据。
作为一种可能的实现,所述***还包括:模型训练模块,用于按照预设比例关系将所述初始样本集分成训练集、验证集和测试集;设置模型训练参数;其中,所述模型训练参数包括训练批量、学习率和迭代次数;用所述训练集对语义分割模型进行迭代训练,并用所述验证集对每一次迭代训练后的语义分割模型的精度进行验证;其中,所述训练集和所述验证集关于语义分割模型的精度验证指标为第一预设损失函数和第一交并比函数;直至所述训练集和所述验证集关于所述语义分割模型的精度验证指标稳定,用所述测试集对训练完成的语义分割模型进行测试;其中,所述训练集和所述测试集关于语义分割模型的测试指标为第二预设损失函数和第二交并比函数;直至所述训练集和所述测试集关于所述语义分割模型的测试指标满足模型收敛条件,停止训练,得到所述图像识别模型。
作为一种可能的实现,所述数据预处理模块,还用于:在所述对所述Sentinel-2数据进行升采样处理,得到第一图像数据之前,对所述RGB遥感图像数据和所述Sentinel-2数据进行去云处理。
本发明实施例提供的一种图像识别方法及***,先获取全球范围红树林生长区域的RGB遥感图像数据和Sentinel-2数据,对Sentinel-2数据进行升采样处理以得到第一图像数据,通过波段运算计算出第一图像数据的归一化水体指数信息和红树林指数信息并将第一图像数据的归一化水体指数信息、红树林指数信息、一个近红外波段信息和一个短波红外波段信息与RGB遥感图像数据的红绿蓝三个可见光波段信息进行叠加融合以得到第二图像数据,之后按照预设分割参数对RGB遥感图像数据进行分割以得到RGB遥感图像数据的多个分割图像区域,根据Sentinel-2数据将RGB遥感图像数据的多个分割图像区域中不包含红树林对象的分割图像区域去除,再进行二值化处理以得到标签图像数据,之后将RGB遥感图像数据、第二图像数据和标签图像数据均进行瓦片化处理以得到包含多个尺寸相等的瓦片的初始样本集,最终根据预先用初始样本集训练好的图像识别模型对待预测遥感图像数据进行红树林对象的预测,从而得到待预测遥感图像数据的红树林预测结果。采用上述技术,将亚米级RGB遥感图像数据和非亚米级Sentinel-2数据作为初始图像数据,能够保证分类的精度较高;在制作标签图像数据时利用半自动的方式对图像进行分割,缩短了样本制作的时长;采用深度学习模型对红树林进行识别,减少了人为识别红树林造成的不完备性,同时大大提高了红树林识别的准确性和效率,从而为大尺度大范围的精细制图提供了技术保障。
本发明的其他特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明而了解。本发明的目的和其他优点在说明书、权利要求书以及附图中所特别指出的结构来实现和获得。
为使本发明的上述目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附附图,作详细说明如下。
附图说明
为了更清楚地说明本发明具体实施方式或现有技术中的技术方案,下面将对具体实施方式或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施方式,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的一种图像识别方法的流程示意图;
图2为本发明实施例提供的另一种图像识别方法的流程示意图;
图3为本发明实施例中loss动态变化示例图;
图4为本发明实施例中MIoU动态变化示例图;
图5为本发明实施例提供的一种图像识别***的结构示意图;
图6为本发明实施例提供的另一种图像识别***的结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合实施例对本发明的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
目前,现有的红树林识别依照其识别尺度可分为大尺度和小尺度。小尺度红树林识别的实现方案是基于SPORT5影像,采用SVM(Support Vector Machine,支持向量机)的分类方法进行红树林种类分析和制图。大尺度红树林制图是基于Landsat、Sentinel-2影像的全球红树林制图。基于SPORT5加彩色合成影像,依据图谱特征分析建立的四种典型红树林遥感的解译标志,应用SVM的分类方法,完成了研究区内红树林的分类制图,最后结合随机样点对制图结果进行了精度验证。但SVM分类器为像素级,空间特征利用不完全。此外,SPORT5影像的最高空间分辨率为2.5米,分类的精度不够高。SPORT5影像数据不开放,获取价格昂贵。Landsat、Sentinel-2数据开放但分辨率低。且采用机器学习网络进行红树林识别的效率和准确性低。
基于此,本发明实施提供的图像识别方法及***,可以利用中高分辨率遥感图像分类技术、深度学习技术和图像分割技术快速准确的识别出全球范围内的红树林,进而得到全球范围内的红树林分布图。
为便于对本实施例进行理解,首先对本发明实施例所公开的一种图像识别方法进行详细介绍,参见图1所示的一种图像识别方法的流程示意图,该方法可以包括以下步骤:
步骤S102,获取全球范围红树林生长区域的RGB遥感图像数据和Sentinel-2数据;其中,RGB遥感图像数据的分辨率小于1米;Sentinel-2数据为卫星携带分辨率大于1米的多光谱成像仪采集到的数据,其分辨率为10米。
上述RGB遥感图像数据和上述Sentinel-2数据的获取方式,具体可以采用通过网络爬取的方式,也可以采用从预先保存在本地的资源中获取的方式,具体可根据实际需要自行确定,对此并不进行限定。例如,上述RGB遥感图像数据来自于Google Earth。
步骤S104,对Sentinel-2数据进行升采样处理,得到第一图像数据;其中,第一图像数据的分辨率与RGB遥感图像数据的分辨率相同。
由于RGB遥感图像数据的分辨率小于1米(即分辨率为亚米级),而Sentinel-2数据的分辨率大于1米(即分辨率为非亚米级),为了将非亚米级分辨率提升至亚米级分辨率,可对Sentinel-2数据进行升采样处理,得到亚米级分辨率的第一图像数据,从而保证后续图像数据处理过程中所得到的图像数据的分辨率均为亚米级。
步骤S106,通过波段运算计算出第一图像数据的归一化水体指数信息和红树林指数信息,并将第一图像数据的归一化水体指数信息、红树林指数信息、一个近红外波段信息和一个短波红外波段信息与RGB遥感图像数据的红绿蓝三个可见光波段信息进行叠加融合,得到第二图像数据。
上述归一化水体指数信息通常为MNDWI,用于区分水体与非水体;上述红树林指数信息通常为WFI等,用于区分红树林与非红树林。
步骤S108,按照预设分割参数对RGB遥感图像数据进行分割,得到RGB遥感图像数据的多个分割图像区域;其中,同一分割图像区域所包含的对象的类型相同,不同分割区域图像所包含的对象的类型不同;预设分割参数包括分割尺度、形状因子和平滑度。
一般来说,分辨率越高,分割尺度越小,因而分割尺度的设置值需要根据RGB遥感图像数据的分辨率确定。此外,形状因子和平滑度的设置值可根据实际需要自行确定,对此不进行限定。
在对RGB遥感图像数据进行分割后,每个分割图像区域所包含的对象可以为植被、河流或土壤等,同一分割图像区域所包含的对象的类型相同,不同分割区域图像所包含的对象的类型不同。
步骤S110,根据Sentinel-2数据,将RGB遥感图像数据的多个分割图像区域中不包含红树林对象的分割图像区域去除,再进行二值化处理,得到标签图像数据。
具体地,由于上述Sentinel-2数据包含红树林对象,因此可参考上述Sentinel-2数据中的红树林生长区域,从分割后的RGB遥感图像数据中人工去除不包含红树林对象的分割图像区域,再进行二值化处理,得到上述标签图像数据。
步骤S112,将RGB遥感图像数据、第二图像数据和标签图像数据均进行瓦片化处理,得到包含多个尺寸相等的瓦片的初始样本集。
为了便于后续深度学习模型的训练,可将RGB遥感图像数据、第二图像数据和标签图像数据均切分成多个尺寸相等的瓦片,之后将每一个瓦片作为一个图像样本组成上述初始样本集。
步骤S114,根据预先用初始样本集训练好的图像识别模型,对待预测遥感图像数据进行红树林对象的预测,得到待预测遥感图像数据的红树林预测结果。
上述图像识别模型具体可由一个初始深度学习模型训练得到,该初始深度学习模型的具体架构可根据实际需要自行确定,对此不进行限定。
为了提高上述图像识别模型预测的准确性,还可在上述图像识别模型中引入空间注意力机制,在进行分类的过程中,将更多的权重分配给红树林特征,将更少的权重分配给非红树林特征,从而提高红树林识别的准确性。例如,在上述初始语义分割模型的某一个或多个层上设计一个空间注意力模块,通过该空间注意力模块采用空间注意力机制为红树林特征和非红树林特征分配相应的权重。
本发明实施例提供的一种图像识别方法,先获取全球范围红树林生长区域的RGB遥感图像数据和Sentinel-2数据,对Sentinel-2数据进行升采样处理以得到第一图像数据,通过波段运算计算出第一图像数据的归一化水体指数信息和红树林指数信息并将第一图像数据的归一化水体指数信息、红树林指数信息、一个近红外波段信息和一个短波红外波段信息与RGB遥感图像数据的红绿蓝三个可见光波段信息进行叠加融合以得到第二图像数据,之后按照预设分割参数对RGB遥感图像数据进行分割以得到RGB遥感图像数据的多个分割图像区域,根据Sentinel-2数据将RGB遥感图像数据的多个分割图像区域中不包含红树林对象的分割图像区域去除,再进行二值化处理以得到标签图像数据,之后将RGB遥感图像数据、第二图像数据和标签图像数据均进行瓦片化处理以得到包含多个尺寸相等的瓦片的初始样本集,最终根据预先用初始样本集训练好的图像识别模型对待预测遥感图像数据进行红树林对象的预测,从而得到待预测遥感图像数据的红树林预测结果。采用上述技术,将亚米级RGB遥感图像数据和非亚米级Sentinel-2数据作为初始图像数据,能够保证分类的精度较高;在制作标签图像数据时利用半自动的方式对图像进行分割,缩短了样本制作的时长;采用深度学习模型对红树林进行识别,减少了人为识别红树林造成的不完备性,同时大大提高了红树林识别的准确性和效率,从而为大尺度大范围的精细制图提供了技术保障。
在上述图像识别方法的基础上,为了便于操作,上述步骤S110(即根据Sentinel-2数据,将RGB遥感图像数据的多个分割图像区域中不包含红树林对象的分割图像区域去除,再进行二值化处理,得到标签图像数据)可以包括:
(11)根据Sentinel-2数据和每个分割图像区域所包含的对象的类型,为每个分割图像区域进行人工标注类别标签,得到第一标签图像数据;其中,对象的类型分为红树林和非红树林,且红树林对应第一类别标签,非红树林对应第二类别标签。
(12)将第一标签图像数据中具有第一类别标签的分割图像区域去除,得到第二标签图像数据。
(13)对第二标签图像数据进行二值化处理,得到标签图像数据。
例如,对于RGB遥感图像数据的多个分割图像区域,为包含红树林的分割图像区域标注第一类别标签2,为只包含非红树林的分割图像区域标注第二类别标签1,之后将具有第二类别标签1的分割图像区域去除,再将保留下来的具有第一类别标签2的分割图像区域进行二值化处理,从而得到标签图像数据。
在上述图像识别方法的基础上,为了便于操作,上述步骤S102(即获取全球范围红树林生长区域的RGB遥感图像数据和Sentinel-2数据)可以包括:
(21)获取全球红树林生长区域的RGB遥感图像数据。
(22)获取全球红树林生长区域的Sentinel-2数据。
例如,在水经注中下载分辨率小于1米的RGB遥感图像数据,在遥感云计算平台GEE(Google Earth Engine)中下载分辨率为10米的Sentinel-2数据。
作为一种可能的实施方式,上述图像识别模型的训练,可以包括:
(31)按照预设比例关系将初始样本集分成训练集、验证集和测试集。
上述预设比例关系具体可根据实际需要自行确定,例如,训练集、验证集和测试集三者的比例关系为6:2:2、7:2:1、8:1:1等,对此并不进行限定。
(32)设置模型训练参数;其中,模型训练参数包括训练批量、学习率和迭代次数。
上述训练批量、学习率和迭代次数具体可根据实际需要自行确定,例如,将训练批量(即batch_size)设置为15、20或30等,将学习率(即learning)设置为0.001等,将迭代次数(即epoch)设置为120、150或200等,对此并不进行限定。
(33)用训练集对语义分割模型进行迭代训练,并用验证集对每一次迭代训练后的语义分割模型的精度进行验证;其中,训练集和验证集关于语义分割模型的精度验证指标为第一预设损失函数和第一交并比函数。
上述语义分割模型可采用Deeplab v1、Deeplab v2、Deeplab v3、Deeplab v3+等,具体可根据实际需要自行确定,对此不进行限定。
上述第一预设损失函数和上述第一交并比函数,具体可根据实际需要自行确定,例如,第一预设损失函数采用交叉熵loss、softmax loss等,第一交并比函数采用MIoU等,对此不进行限定。
(34)直至训练集和验证集关于语义分割模型的精度验证指标稳定,满足模型收敛条件,停止训练,得到图像识别模型;用测试集对训练完成的语义分割模型进行测试;其中,训练集和测试集关于语义分割模型的测试指标为第二预设损失函数和第二交并比函数。
上述第二预设损失函数和上述第二交并比函数与上述第一预设损失函数和上述第一交并比函数类似,对此不再赘述。
上述模型收敛条件,至少可以包括以下之一:第一预设损失函数小于预先设定的较小的值或稳定在一个较低的值附近,第一交并比函数大于预先设定的接近1的值或稳定在一个接近1的值附近,迭代次数超过设定的最大迭代次数。
在上述图像识别方法的基础上,为了进一步增强图像数据的有效性,在进行上述步骤S104(即对Sentinel-2数据进行升采样处理,得到第一图像数据)之前,上述方法还可以包括:对RGB遥感图像数据和Sentinel-2数据进行去云处理。
基于上述图像识别方法,本发明实施例还公开了另一种图像识别方法,参见图2所示,该方法可以包括以下步骤:
步骤S202,在水经注中下载分辨率为0.56米的RGB遥感图像数据,在GEE中下载分辨率为10米的Sentinel-2数据。
步骤S204,对RGB遥感图像数据和Sentinel-2数据进行去云处理。
步骤S206,利用ARCGIS软件的重采样工具对Sentinel-2数据进行升采样处理,得到分辨率为0.56米的第一图像数据。
步骤S208,通过波段运算计算出第一图像数据的MNDWI指数信息和WFI指数信息,并将第一图像数据的MNDWI指数信息、WFI指数信息、近红外波段信息B8和短波红外波段信息B11与RGB遥感图像数据的红绿蓝三个可见光波段信息进行叠加融合,得到第二图像数据。
表1分别示出了近红外波段信息B8、短波红外波段信息B11和短波红外波段信息B12,表2分别示出了MNDWI指数信息和WFI指数信息的计算方式。
表1波段信息
表2指数信息
步骤S210,通过eCognition软件设置分割参数,并按照设置的分割参数对RGB遥感图像数据进行多尺度优化分割,得到RGB遥感图像数据的多个分割图像区域;其中,同一分割图像区域所包含的对象的类型相同,不同分割区域图像所包含的对象的类型不同;预设分割参数包括分割尺度、形状因子和平滑度。
可将分割尺度设置为30~100之间的值,如将分割尺度设置为50;可将形状因子设置为0~1之间的值,如将形状因子设置为0.4;可将平滑度设置为0~1之间的值,如将平滑度设置为0.5。此外,还可通过eCognition软件设置图层名称、波段权重等。
步骤S212,将分割后的RGB遥感图像数据与Sentinel-2数据进行叠加,并为将分割后的RGB遥感图像数据的不包含红树林对象的分割图像区域去除,再进行二值化处理,得到标签图像数据。
步骤S214,将RGB遥感图像数据、第二图像数据和标签图像数据均切分成多个256*256(或512*512)的瓦片,得到包含多个瓦片的初始样本集。
步骤S216,从初始样本集中抽取空间上均匀分布的60%样本组成训练集,从初始样本集的剩余40%样本中抽取样本分别组成验证集和测试集;其中,训练集与验证集的比例关系为4:1。
步骤S218,将训练批量设置为20,将学习率设置为0.001,将迭代次数设置为150(或200);用训练集对Deeplab v3+模型进行迭代训练,并用验证集对每一次迭代训练后的Deeplab v3+模型的精度进行验证;其中,训练集和验证集关于Deeplab v3+模型的精度验证指标为交叉熵loss和MIoU;直至训练集和验证集关于Deeplab v3+模型的精度验证指标稳定,且满足模型收敛条件,停止训练,得到红树林识别模型;用测试集对训练完成的Deeplab v3+模型进行测试;其中,训练集和测试集关于Deeplab v3+模型的测试指标为交叉熵loss和MIoU。
在训练过程中,还可记录交叉熵loss与MIoU的变化,并生成相应的图像。例如图3,横轴为迭代次数,纵轴为交叉熵loss;例如图4,横轴为迭代次数,纵轴为MIoU。
上述模型收敛条件与前述相关内容类似,在此不再赘述。
步骤S220,用训练好的红树林识别模型对待预测遥感图像数据进行红树林对象的预测,得到待预测遥感图像数据的红树林预测结果。
具体地,在得到训练好的红树林识别模型后,先将待预测遥感图像数据切分成多个256*256(或512*512)的瓦片,再将每一个瓦片分别输入到红树林识别模型中,通过红树林识别模型输出每一个瓦片对应的256*256(或512*512)的预测图像数据,之后再将所有瓦片对应的预测图像数据进行拼接并赋坐标,得到待预测遥感图像数据的红树林预测图像数据。
可利用目视解译对待预测遥感图像数据的红树林预测结果进行验证,从而计算出红树林识别模型的预测精度。
基于上述图像识别方法,本发明实施例还提供了一种图像识别***,参见图5所示,该***包括以下模块:
数据获取模块502,用于获取全球范围红树林生长区域的RGB遥感图像数据和Sentinel-2数据;其中,所述RGB遥感图像数据的分辨率小于1米;所述Sentinel-2数据为卫星携带分辨率大于1米的多光谱成像仪采集到的数据,其分辨率为10米。
数据预处理模块504,用于对所述Sentinel-2数据进行升采样处理,得到第一图像数据;其中,所述第一图像数据的分辨率与所述RGB遥感图像数据的分辨率相同。
信息处理模块506,用于通过波段运算计算出所述第一图像数据的归一化水体指数信息和红树林指数信息,并将所述第一图像数据的归一化水体指数信息、红树林指数信息、一个近红外波段信息和一个短波红外波段信息与所述RGB遥感图像数据的红绿蓝三个可见光波段信息进行叠加融合,得到第二图像数据。
数据分割模块508,用于按照预设分割参数对所述RGB遥感图像数据进行分割,得到所述RGB遥感图像数据的多个分割图像区域;其中,同一分割图像区域所包含的对象的类型相同,不同分割区域图像所包含的对象的类型不同;所述预设分割参数包括分割尺度、形状因子和平滑度。
标签数据制作模块510,用于根据所述Sentinel-2数据,将所述RGB遥感图像数据的多个分割图像区域中不包含红树林对象的分割图像区域去除,再进行二值化处理,得到标签图像数据。
初始样本集形成模块512,用于将所述RGB遥感图像数据、所述第二图像数据和所述标签图像数据均进行瓦片化处理,得到包含多个尺寸相等的瓦片的初始样本集。
模型预测模块514,用于根据预先用所述初始样本集训练好的图像识别模型,对待预测遥感图像数据进行红树林对象的预测,得到所述待预测遥感图像数据的红树林预测结果。
本发明实施例提供的一种图像识别***,先获取全球范围红树林生长区域的RGB遥感图像数据和Sentinel-2数据,对Sentinel-2数据进行升采样处理以得到第一图像数据,通过波段运算计算出第一图像数据的归一化水体指数信息和红树林指数信息并将第一图像数据的归一化水体指数信息、红树林指数信息、一个近红外波段信息和一个短波红外波段信息与所述RGB遥感图像数据的红绿蓝三个可见光波段信息进行叠加融合以得到第二图像数据,之后按照预设分割参数对RGB遥感图像数据进行分割以得到RGB遥感图像数据的多个分割图像区域,根据Sentinel-2数据将RGB遥感图像数据的多个分割图像区域中不包含红树林对象的分割图像区域去除,再进行二值化处理以得到标签图像数据,之后将RGB遥感图像数据、第二图像数据和标签图像数据均进行瓦片化处理以得到包含多个尺寸相等的瓦片的初始样本集,最终根据预先用初始样本集训练好的图像识别模型对待预测遥感图像数据进行红树林对象的预测,从而得到待预测遥感图像数据的红树林预测结果。采用上述技术,将亚米级RGB遥感图像数据和非亚米级Sentinel-2数据作为初始图像数据,能够保证分类的精度较高;在制作标签图像数据时利用半自动的方式对图像进行分割,缩短了样本制作的时长;采用深度学习模型对红树林进行识别,减少了人为识别红树林造成的不完备性,同时大大提高了红树林识别的准确性和效率,从而为大尺度大范围的精细制图提供了技术保障。
上述标签数据制作模块510还用于:根据所述Sentinel-2数据和每个分割图像区域所包含的对象的类型,为每个分割图像区域进行人工标注类别标签,得到第一标签图像数据;其中,所述对象的类型分为红树林和非红树林,且红树林对应第一类别标签,非红树林对应第二类别标签;将所述第一标签图像数据中具有第一类别标签的分割图像区域去除,得到第二标签图像数据;对所述第二标签图像数据进行二值化处理,得到所述标签图像数据。
上述数据获取模块502还用于:获取全球红树林生长区域的RGB遥感图像数据;获取全球红树林生长区域的Sentinel-2数据。
上述数据预处理模块504还用于:在所述对所述Sentinel-2数据进行升采样处理,得到第一图像数据之前,对所述RGB遥感图像数据和所述Sentinel-2数据进行去云处理。
基于上述图像识别***,本发明实施例还提供另一种图像识别***,参见图6所示,该***还包括:
模型训练模块516,用于按照预设比例关系将所述初始样本集分成训练集、验证集和测试集;设置模型训练参数;其中,所述模型训练参数包括训练批量、学习率和迭代次数;用所述训练集对语义分割模型进行迭代训练,并用所述验证集对每一次迭代训练后的语义分割模型的精度进行验证;其中,所述训练集和所述验证集关于语义分割模型的精度验证指标为第一预设损失函数和第一交并比函数;直至所述训练集和所述验证集关于所述语义分割模型的精度验证指标稳定,且满足模型收敛条件,停止训练,得到所述图像识别模型;用所述测试集对训练完成的语义分割模型进行测试;其中,所述训练集和所述测试集关于语义分割模型的测试指标为第二预设损失函数和第二交并比函数。
本发明实施例所提供的图像识别***,其实现原理及产生的技术效果和前述方法实施例相同,为简要描述,***实施例部分未提及之处,可参考前述图像识别方法实施例中相应内容。
最后应说明的是:以上所述实施例,仅为本发明的具体实施方式,用以说明本发明的技术方案,而非对其限制,本发明的保护范围并不局限于此,尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,其依然可以对前述实施例所记载的技术方案进行修改或可轻易想到变化,或者对其中部分技术特征进行等同替换;而这些修改、变化或者替换,并不使相应技术方案的本质脱离本发明实施例技术方案的精神和范围,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应所述以权利要求的保护范围为准。
Claims (10)
1.一种图像识别方法,其特征在于,所述方法包括:
获取全球范围红树林生长区域的RGB遥感图像数据和Sentinel-2数据;其中,所述RGB遥感图像数据的分辨率小于1米;所述Sentinel-2数据为Sentinel-2卫星携带分辨率大于1米的多光谱成像仪采集到的数据,其分辨率为10米;
对所述Sentinel-2数据进行升采样处理,得到第一图像数据;其中,所述第一图像数据的分辨率与所述RGB遥感图像数据的分辨率相同;
通过波段运算计算出所述第一图像数据的归一化水体指数信息和红树林指数信息,并将所述第一图像数据的归一化水体指数信息、红树林指数信息、一个近红外波段信息和一个短波红外波段信息与所述RGB遥感图像数据的红绿蓝三个可见光波段信息进行叠加融合,得到第二图像数据;
按照预设分割参数对所述RGB遥感图像数据进行分割,得到所述RGB遥感图像数据的多个分割图像区域;其中,同一分割图像区域所包含的对象的类型相同,不同分割区域图像所包含的对象的类型不同;所述预设分割参数包括分割尺度、形状因子和平滑度;
根据所述Sentinel-2数据,将所述RGB遥感图像数据的多个分割图像区域中不包含红树林对象的分割图像区域去除,再进行二值化处理,得到标签图像数据;
将所述RGB遥感图像数据、所述第二图像数据和所述标签图像数据均进行瓦片化处理,得到包含多个尺寸相等的瓦片的初始样本集;
根据预先用所述初始样本集训练好的图像识别模型,对待预测遥感图像数据进行红树林对象的预测,得到所述待预测遥感图像数据的红树林预测结果。
2.根据权利要求1所述的图像识别方法,其特征在于,所述根据所述Sentinel-2数据,将所述RGB遥感图像数据的多个分割图像区域中不包含红树林对象的分割图像区域去除,再进行二值化处理,得到标签图像数据,包括:
根据所述Sentinel-2数据和每个分割图像区域所包含的对象的类型,为每个分割图像区域进行人工标注类别标签,得到第一标签图像数据;其中,所述对象的类型分为红树林和非红树林,且红树林对应第一类别标签,非红树林对应第二类别标签;
将所述第一标签图像数据中具有第一类别标签的分割图像区域去除,得到第二标签图像数据;
对所述第二标签图像数据进行二值化处理,得到所述标签图像数据。
3.根据权利要求1所述的图像识别方法,其特征在于,所述获取全球范围红树林生长区域的RGB遥感图像数据和Sentinel-2数据,包括:
获取全球范围红树林生长区域的RGB遥感图像数据;
获取全球范围红树林生长区域的Sentinel-2数据。
4.根据权利要求1所述的图像识别方法,其特征在于,所述图像识别模型的训练,包括:
按照预设比例关系将所述初始样本集分成训练集、验证集和测试集;
设置模型训练参数;其中,所述模型训练参数包括训练批量、学习率和迭代次数;
用所述训练集对语义分割模型进行迭代训练,并用所述验证集对每一次迭代训练后的语义分割模型的精度进行验证;其中,所述训练集和所述验证集关于语义分割模型的精度验证指标为第一预设损失函数和第一交并比函数;
直至所述训练集和所述验证集关于所述语义分割模型的精度验证指标稳定,且满足模型收敛条件,停止训练,得到所述图像识别模型;用所述测试集对训练完成的语义分割模型进行测试;其中,所述训练集和所述测试集关于语义分割模型的测试指标为第二预设损失函数和第二交并比函数。
5.根据权利要求1所述的图像识别方法,其特征在于,所述对所述Sentinel-2数据进行升采样处理,得到第一图像数据之前,所述方法还包括:
对所述RGB遥感图像数据和所述Sentinel-2数据进行去云处理。
6.一种图像识别***,其特征在于,所述***包括:
数据获取模块,用于获取全球范围红树林生长区域的RGB遥感图像数据和Sentinel-2数据;其中,所述RGB遥感图像数据的分辨率小于1米;所述Sentinel-2数据为卫星携带分辨率大于1米的多光谱成像仪采集到的数据,其分辨率为10米;
数据预处理模块,用于对所述Sentinel-2数据进行升采样处理,得到第一图像数据;其中,所述第一图像数据的分辨率与所述RGB遥感图像数据的分辨率相同;
信息处理模块,用于通过波段运算计算出所述第一图像数据的归一化水体指数信息和红树林指数信息,并将所述第一图像数据的归一化水体指数信息、红树林指数信息、一个近红外波段信息和一个短波红外波段信息与所述RGB遥感图像数据的红绿蓝三个可见光波段信息进行叠加融合,得到第二图像数据;
数据分割模块,用于按照预设分割参数对所述RGB遥感图像数据进行分割,得到所述RGB遥感图像数据的多个分割图像区域;其中,同一分割图像区域所包含的对象的类型相同,不同分割区域图像所包含的对象的类型不同;所述预设分割参数包括分割尺度、形状因子和平滑度;
标签数据制作模块,用于根据所述Sentinel-2数据,将所述RGB遥感图像数据的多个分割图像区域中不包含红树林对象的分割图像区域去除,再进行二值化处理,得到标签图像数据;
初始样本集形成模块,用于将所述RGB遥感图像数据、所述第二图像数据和所述标签图像数据均进行瓦片化处理,得到包含多个尺寸相等的瓦片的初始样本集;
模型预测模块,用于根据预先用所述初始样本集训练好的图像识别模型,对待预测遥感图像数据进行红树林对象的预测,得到所述待预测遥感图像数据的红树林预测结果。
7.根据权利要求6所述的图像识别***,其特征在于,所述标签数据制作模块还用于:
根据所述Sentinel-2数据和每个分割图像区域所包含的对象的类型,为每个分割图像区域进行人工标注类别标签,得到第一标签图像数据;其中,所述对象的类型分为红树林和非红树林,且红树林对应第一类别标签,非红树林对应第二类别标签;
将所述第一标签图像数据中具有第一类别标签的分割图像区域去除,得到第二标签图像数据;
对所述第二标签图像数据进行二值化处理,得到所述标签图像数据。
8.根据权利要求6所述的图像识别***,其特征在于,所述数据获取模块还用于:
获取全球范围红树林生长区域的RGB遥感图像数据;
获取全球范围红树林生长区域的Sentinel-2数据。
9.根据权利要求6所述的图像识别***,其特征在于,所述***还包括:
模型训练模块,用于按照预设比例关系将所述初始样本集分成训练集、验证集和测试集;设置模型训练参数;其中,所述模型训练参数包括训练批量、学习率和迭代次数;用所述训练集对语义分割模型进行迭代训练,并用所述验证集对每一次迭代训练后的语义分割模型的精度进行验证;其中,所述训练集和所述验证集关于语义分割模型的精度验证指标为第一预设损失函数和第一交并比函数;直至所述训练集和所述验证集关于所述语义分割模型的精度验证指标稳定,且满足模型收敛条件,停止训练,得到所述图像识别模型;用所述测试集对训练完成的语义分割模型进行测试;其中,所述训练集和所述测试集关于语义分割模型的测试指标为第二预设损失函数和第二交并比函数。
10.根据权利要求6所述的图像识别***,其特征在于,所述数据预处理模块,还用于:在所述对所述Sentinel-2数据进行升采样处理,得到第一图像数据之前,对所述RGB遥感图像数据和所述Sentinel-2数据进行去云处理。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210623004.XA CN114898097B (zh) | 2022-06-01 | 2022-06-01 | 图像识别方法及*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210623004.XA CN114898097B (zh) | 2022-06-01 | 2022-06-01 | 图像识别方法及*** |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114898097A CN114898097A (zh) | 2022-08-12 |
CN114898097B true CN114898097B (zh) | 2024-05-10 |
Family
ID=82726327
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210623004.XA Active CN114898097B (zh) | 2022-06-01 | 2022-06-01 | 图像识别方法及*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114898097B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115601688B (zh) * | 2022-12-15 | 2023-02-21 | 中译文娱科技(青岛)有限公司 | 基于深度学习的视频主体内容检测方法及*** |
CN116862836A (zh) * | 2023-05-30 | 2023-10-10 | 北京透彻未来科技有限公司 | 一种泛器官***转移癌检测***及计算机设备 |
CN117036982B (zh) * | 2023-10-07 | 2024-01-09 | 山东省国土空间数据和遥感技术研究院(山东省海域动态监视监测中心) | 海上养殖区的光学卫星图像处理方法和装置、设备和介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108564587A (zh) * | 2018-03-07 | 2018-09-21 | 浙江大学 | 一种基于全卷积神经网络的大范围遥感影像语义分割方法 |
CN109543630A (zh) * | 2018-11-28 | 2019-03-29 | 苏州中科天启遥感科技有限公司 | 基于深度学习的遥感影像林地提取方法及***、存储介质、电子设备 |
CN110852225A (zh) * | 2019-10-31 | 2020-02-28 | 中国地质大学(武汉) | 基于深度卷积神经网络的遥感影像红树林提取方法及*** |
WO2021184891A1 (zh) * | 2020-03-20 | 2021-09-23 | 中国科学院深圳先进技术研究院 | 遥感影像地物分类方法及*** |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108985238B (zh) * | 2018-07-23 | 2021-10-22 | 武汉大学 | 联合深度学习和语义概率的不透水面提取方法及*** |
-
2022
- 2022-06-01 CN CN202210623004.XA patent/CN114898097B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108564587A (zh) * | 2018-03-07 | 2018-09-21 | 浙江大学 | 一种基于全卷积神经网络的大范围遥感影像语义分割方法 |
CN109543630A (zh) * | 2018-11-28 | 2019-03-29 | 苏州中科天启遥感科技有限公司 | 基于深度学习的遥感影像林地提取方法及***、存储介质、电子设备 |
CN110852225A (zh) * | 2019-10-31 | 2020-02-28 | 中国地质大学(武汉) | 基于深度卷积神经网络的遥感影像红树林提取方法及*** |
WO2021184891A1 (zh) * | 2020-03-20 | 2021-09-23 | 中国科学院深圳先进技术研究院 | 遥感影像地物分类方法及*** |
Non-Patent Citations (2)
Title |
---|
李想 ; 刘凯 ; 朱远辉 ; 蒙琳 ; 于晨曦 ; 曹晶晶 ; .基于资源三号影像的红树林物种分类研究.遥感技术与应用.2018,(第02期),全文. * |
蒙良莉 ; 凌子燕 ; 蒋卫国 ; 钟仕全 ; 陈燕丽 ; 孙明 ; .基于Sentinel遥感数据的红树林信息提取研究――以广西茅尾海为例.地理与地理信息科学.2020,(第04期),全文. * |
Also Published As
Publication number | Publication date |
---|---|
CN114898097A (zh) | 2022-08-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114898097B (zh) | 图像识别方法及*** | |
Ji et al. | Fully convolutional networks for multisource building extraction from an open aerial and satellite imagery data set | |
Huang et al. | Individual tree crown detection and delineation from very-high-resolution UAV images based on bias field and marker-controlled watershed segmentation algorithms | |
CN110929607B (zh) | 一种城市建筑物施工进度的遥感识别方法和*** | |
CN103400151B (zh) | 一体化的光学遥感影像与gis自动配准与水体提取方法 | |
CA2840436C (en) | System for mapping and identification of plants using digital image processing and route generation | |
CN110263717B (zh) | 一种融入街景影像的土地利用类别确定方法 | |
CN108734143A (zh) | 一种巡检机器人的基于双目视觉的输电线路在线检测方法 | |
Münzinger et al. | Mapping the urban forest in detail: From LiDAR point clouds to 3D tree models | |
CN105809194B (zh) | 一种sar影像翻译为光学影像的方法 | |
CN110675408A (zh) | 基于深度学习的高分辨率影像建筑物提取方法及*** | |
CN104778721A (zh) | 一种双目图像中显著性目标的距离测量方法 | |
CN113610070A (zh) | 一种基于多源数据融合的滑坡灾害识别方法 | |
Liu et al. | Building footprint extraction from unmanned aerial vehicle images via PRU-Net: Application to change detection | |
CN113378785A (zh) | 森林类型识别方法及装置 | |
Li et al. | Pixel‐Level Recognition of Pavement Distresses Based on U‐Net | |
CN113298042B (zh) | 遥感影像数据的处理方法及装置、存储介质、计算机设备 | |
CN111079807A (zh) | 一种地物分类方法及装置 | |
Ibrahim et al. | Smart monitoring of road pavement deformations from UAV images by using machine learning | |
CN116503677B (zh) | 一种湿地分类信息提取方法、***、电子设备及存储介质 | |
Tejeswari et al. | Building footprint extraction from space-borne imagery using deep neural networks | |
CN114821484B (zh) | 机场跑道fod图像检测方法、***和存储介质 | |
Faisal et al. | Machine learning approach to extract building footprint from high-resolution images: the case study of Makkah, Saudi Arabia | |
CN113627292B (zh) | 基于融合网络的遥感图像识别方法及装置 | |
CN112036246B (zh) | 遥感影像分类模型的构建方法,遥感影像分类方法及*** |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |