CN116188968B - 一种基于神经网络的遥感图像厚云区域检测方法 - Google Patents

一种基于神经网络的遥感图像厚云区域检测方法 Download PDF

Info

Publication number
CN116188968B
CN116188968B CN202211545313.6A CN202211545313A CN116188968B CN 116188968 B CN116188968 B CN 116188968B CN 202211545313 A CN202211545313 A CN 202211545313A CN 116188968 B CN116188968 B CN 116188968B
Authority
CN
China
Prior art keywords
representing
module
feature
remote sensing
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202211545313.6A
Other languages
English (en)
Other versions
CN116188968A (zh
Inventor
李冠群
俞伟学
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Genyu Muxing Beijing Space Technology Co ltd
Original Assignee
Genyu Muxing Beijing Space Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Genyu Muxing Beijing Space Technology Co ltd filed Critical Genyu Muxing Beijing Space Technology Co ltd
Priority to CN202211545313.6A priority Critical patent/CN116188968B/zh
Publication of CN116188968A publication Critical patent/CN116188968A/zh
Application granted granted Critical
Publication of CN116188968B publication Critical patent/CN116188968B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/10Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明涉及图像数据处理技术领域,公开了一种基于神经网络的遥感图像厚云区域检测方法,包括:获取带云遥感图像,根据位置确定分支得到位置特征,根据边缘完善分支得到边缘特征,融合所述位置特征和所述边缘特征得到融合特征,将所述融合特征输入至U型卷积神经网络,得到厚云区域检测结果。本发明利用并行U型卷积神经网络,采用位置确定分支和边缘完善分支分别进行厚云区域整体检测和云区边缘精细,且将两个分支提取到的特征进行合并融合,从而获得检测准确且边缘细化完整的遥感图像厚云区域检测结果。

Description

一种基于神经网络的遥感图像厚云区域检测方法
技术领域
本发明涉及图像数据处理领域,尤其涉及一种基于神经网络的遥感图像厚云区域检测方法。
背景技术
光学遥感图像可以提供对地物信息的丰富观测,然而,云层会对地面信息进行广泛地大面积的遮挡,从而影响对地面信息的估计和观测。因此,对光学遥感图像中的厚云区域覆盖的检测是进一步分析和利用遥感图像信息的基础和关键。
传统的遥感图像厚云区域检测方法主要基于光谱阈值策略,该策略通过对遥感图像的不同光谱设置阈值,从而实现了对于厚云的自动检测。该策略无需对遥感图像进行像素级的标签标记,也无需进行复杂的模型训练。然而,基于光谱阈值的方法往往泛化性能较差,对于复杂遥感场景的厚云检测精度较差,对于不同类别场景的遥感图像的检测鲁棒性也不足。近年来,卷积神经网络在各种计算机视觉和遥感图像处理任务中都表现出了突出的效果,这也启发了基于卷积神经网络的遥感图像厚云区域检测方法。如中国发明专利“一种基于DeepLabV3+的遥感卫星云检测方法”(CN202010241130.X)公开了一种基于DeepLabV3+的遥感卫星云检测方法,将带有云覆盖的遥感图像输入至语义分割网络DeepLabV3+中,得到对应的云区检测结果图。在该方法中,引入了空洞卷积和金字塔结构,增大了卷积的感受野,提高了云区检测的精度。再如中国发明专利“基于多尺度卷积神经网络的遥感图像云检测方法”(CN202111108889.1)公开了一种基于多尺度卷积神经网络的遥感图像云检测方法,该方法利用多尺度的卷积与池化操作,提高了对于不同尺寸的云的检测通用性。然而,为了提高遥感图像中厚云区域检测精度,如何在准确确定厚云区域大***置的同时对云区边缘进行精细,仍然是一个极具困难的问题。
目前关于遥感图像厚云区域检测的研究比较多,但是现有的研究一般采用具有单个分支的卷积神经网络进行遥感图像厚云区域检测,未见利用具有多个分支的网络模型分别进行整体厚云检测和云区边缘精细的方法。
发明内容
本发明的目的在于克服上述一种或多种现有的技术问题,提供一种基于神经网络的遥感图像厚云区域检测方法。
为实现上述目的,本发明提供的一种基于神经网络的遥感图像厚云区域检测方法,包括:
获取带云遥感图像;
根据位置确定分支得到位置特征;
根据边缘完善分支得到边缘特征;
融合所述位置特征和所述边缘特征得到融合特征;
将所述融合特征输入至U型卷积神经网络,得到厚云区域检测结果。
根据本发明的一个方面,所述根据位置确定分支得到位置特征的方法为:
将带云遥感图像输入至所述位置确定分支,将输入至所述位置确定分支的带云遥感图像标记为
Figure DEST_PATH_IMAGE001
,将/>
Figure 948238DEST_PATH_IMAGE001
依次通过所述压缩模块从而压缩/>
Figure 788018DEST_PATH_IMAGE001
的尺寸,得到/>
Figure 940782DEST_PATH_IMAGE002
,通过所述压缩模块的公式为,
Figure DEST_PATH_IMAGE003
Figure 170906DEST_PATH_IMAGE004
Figure DEST_PATH_IMAGE005
Figure 398975DEST_PATH_IMAGE006
其中,
Figure DEST_PATH_IMAGE007
通过第一个压缩模块后的输出;
Figure 30945DEST_PATH_IMAGE008
表示通过第二个压缩模块后的输出;
Figure DEST_PATH_IMAGE009
表示通过第三个压缩模块后的输出;
Figure 620189DEST_PATH_IMAGE002
表示通过第四个压缩模块后的输出;
Figure 101724DEST_PATH_IMAGE010
、/>
Figure DEST_PATH_IMAGE011
、/>
Figure 700196DEST_PATH_IMAGE012
和/>
Figure DEST_PATH_IMAGE013
分别表示第一个到第四个压缩模块;
Figure 921092DEST_PATH_IMAGE002
通过所述特征精细模块进行精细得到/>
Figure 946817DEST_PATH_IMAGE014
,/>
Figure 213851DEST_PATH_IMAGE014
与/>
Figure 851899DEST_PATH_IMAGE002
的尺寸相同,通过所述特征精细模块的公式为,
Figure DEST_PATH_IMAGE015
其中,
Figure 192881DEST_PATH_IMAGE014
表示特征精细模块的输出;
Figure 389507DEST_PATH_IMAGE016
表示经过泄漏整流线性激活单元;
Figure DEST_PATH_IMAGE017
表示3×3的卷积;
叠加
Figure 81520DEST_PATH_IMAGE002
和/>
Figure 254750DEST_PATH_IMAGE014
进行特征通道层面的叠加,使得/>
Figure 981398DEST_PATH_IMAGE002
和/>
Figure 411242DEST_PATH_IMAGE014
的特征通道数变为原来的两倍,将/>
Figure 59392DEST_PATH_IMAGE002
和/>
Figure 537778DEST_PATH_IMAGE014
输入至所述重建模块得到所述位置特征,得到所述位置特征的公式为,
Figure 181249DEST_PATH_IMAGE018
Figure DEST_PATH_IMAGE019
Figure 973141DEST_PATH_IMAGE020
Figure DEST_PATH_IMAGE021
其中,
Figure 577429DEST_PATH_IMAGE022
表示第一个重建模块的输出;
Figure DEST_PATH_IMAGE023
表示第二个重建模块的输出;
Figure 593927DEST_PATH_IMAGE024
表示第三个重建模块的输出;
Figure DEST_PATH_IMAGE025
表示位置特征;
Figure 528122DEST_PATH_IMAGE026
、/>
Figure DEST_PATH_IMAGE027
、/>
Figure 909556DEST_PATH_IMAGE028
和/>
Figure DEST_PATH_IMAGE029
分别表示第一个到第四个重建模块;
Figure 797878DEST_PATH_IMAGE030
表示特征通道层面的叠加操作。
根据本发明的一个方面,所述根据边缘完善分支得到边缘特征的方法为:
将带云遥感图像输入至所述边缘完善分支,将输入至所述边缘完善分支的带云遥感图像标记为
Figure DEST_PATH_IMAGE031
,所述位置确定分支包含九个特征提取模块,所述特征提取模块的特征相同,9个所述特征提取模块的所述扩张卷积单元的扩张率不同,将/>
Figure 853952DEST_PATH_IMAGE031
依次通过所述依次通过前五个所述特征提取模块,得到/>
Figure 409698DEST_PATH_IMAGE032
和/>
Figure DEST_PATH_IMAGE033
,通过前五个所述提取模块的公式为,
Figure 289930DEST_PATH_IMAGE034
Figure DEST_PATH_IMAGE035
Figure 632924DEST_PATH_IMAGE036
Figure DEST_PATH_IMAGE037
Figure 725645DEST_PATH_IMAGE038
其中,
Figure DEST_PATH_IMAGE039
通过第一个特征提取模块后的输出;
Figure 870318DEST_PATH_IMAGE040
表示通过第二个特征提取模块后的输出;
Figure DEST_PATH_IMAGE041
表示通过第三个特征提取模块后的输出;
Figure 390293DEST_PATH_IMAGE033
表示通过第四个特征提取模块后的输出;
Figure 14391DEST_PATH_IMAGE032
表示通过第五个特征提取模块后的输出;
Figure 707541DEST_PATH_IMAGE042
、/>
Figure DEST_PATH_IMAGE043
、/>
Figure 175562DEST_PATH_IMAGE044
、/>
Figure DEST_PATH_IMAGE045
和/>
Figure 630552DEST_PATH_IMAGE046
分别表示第一个到第五个特征提取模块;
Figure 511920DEST_PATH_IMAGE033
和/>
Figure 477602DEST_PATH_IMAGE032
进行特征通道层面的叠加,使得/>
Figure 128026DEST_PATH_IMAGE033
和/>
Figure 786541DEST_PATH_IMAGE014
的特征通道数变为原来的两倍,将/>
Figure 155205DEST_PATH_IMAGE033
和/>
Figure 924578DEST_PATH_IMAGE032
输入至剩下的提取模块后得到所述边缘特征,得到所述边缘特征的公式为,
Figure DEST_PATH_IMAGE047
Figure 134236DEST_PATH_IMAGE048
Figure DEST_PATH_IMAGE049
Figure 432493DEST_PATH_IMAGE050
其中,
Figure DEST_PATH_IMAGE051
表示通过第六个特征提取模块后的输出;
Figure 491716DEST_PATH_IMAGE052
表示通过第七个特征提取模块后的输出;
Figure DEST_PATH_IMAGE053
表示通过第八个特征提取模块后的输出;
Figure 766577DEST_PATH_IMAGE054
表示边缘特征;
Figure DEST_PATH_IMAGE055
、/>
Figure 594856DEST_PATH_IMAGE056
、/>
Figure DEST_PATH_IMAGE057
和/>
Figure 64015DEST_PATH_IMAGE058
分别表示第六个到第九个特征提取模块;
Figure 141692DEST_PATH_IMAGE030
表示特征通道层面的叠加操作。
根据本发明的一个方面,融合所述位置特征和所述边缘特征得到所述融合特征,根据所述融合特征得到所述U型卷积神经网络,得到所述融合特征的计算公式为,
Figure DEST_PATH_IMAGE059
其中,
Figure 482894DEST_PATH_IMAGE060
表示融合特征;
Figure 962417DEST_PATH_IMAGE030
表示特征通道层面的叠加操作;
Figure 133635DEST_PATH_IMAGE017
表示3×3的卷积;
Figure DEST_PATH_IMAGE061
表示位置特征;
Figure 901871DEST_PATH_IMAGE062
表示带云遥感图像;
Figure DEST_PATH_IMAGE063
表示边缘特征。
根据本发明的一个方面,使用二元交叉熵损失函数训练对所述U型卷积神经网络进行训练,使用所述二元交叉熵损失函数的计算公式为:
Figure 518535DEST_PATH_IMAGE064
其中,
Figure DEST_PATH_IMAGE065
表示二元交叉熵损失函数;
Figure 321406DEST_PATH_IMAGE062
表示带云遥感图像;
Figure DEST_PATH_IMAGE067
表示带云遥感图像的厚云掩码标签;
Figure 132367DEST_PATH_IMAGE068
表示输入至U型卷积神经网络得到的结果;
Figure DEST_PATH_IMAGE069
表示二元交叉熵计算。
为实现上述目的,本发明提供一种基于神经网络的遥感图像厚云区域检测***,包括:
图像获取模块:获取带云遥感图像;
位置特征获取模块:根据位置确定分支得到位置特征;
边缘特征获取模块:根据边缘完善分支得到边缘特征;
融合特征获取模块:融合所述位置特征和所述边缘特征得到融合特征;
厚云区域检测模块:将所述融合特征输入至U型卷积神经网络,得到厚云区域检测结果。
为实现上述目的,本发明提供一种电子设备,包括处理器、存储器及存储在存储器上并可在处理器上运行的计算机程序,计算机程序被处理器执行时实现上述针对一种基于神经网络的遥感图像厚云区域检测方法。
为实现上述目的,本发明提供一种计算机可读存储介质,计算机可读存储介质上存储计算机程序,计算机程序被处理器执行时实现上述针对一种基于神经网络的遥感图像厚云区域检测方法。
基于此,本发明的有益效果在于:
本发明利用并行U型卷积神经网络,采用两个分支分别进行厚云区域整体检测和云区边缘精细,且将两个分支提取到的特征进行合并融合,从而获得检测准确且边缘细化完整的遥感图像厚云区域检测结果。
附图说明
图1示意性表示根据本发明的一种基于神经网络的遥感图像厚云区域检测方法的流程图;
图2示意性表示根据本发明的一种基于神经网络的遥感图像厚云区域检测方法的U型卷积神经网络图;
图3示意性表示根据本发明的一种基于神经网络的遥感图像厚云区域检测***的流程图。
具体实施方式
现在将参照示例性实施例来论述本发明的内容,应当理解,论述的实施例仅是为了使得本领域普通技术人员能够更好地理解且因此实现本发明的内容,而不是暗示对本发明的范围的任何限制。
如本文中所使用的,术语“包括”及其变体要被解读为意味着“包括但不限于”的开放式术语。术语“基于”要被解读为“至少部分地基于”,术语“一个实施例”和“一种实施例”要被解读为“至少一个实施例”。
图1示意性表示根据本发明的一种基于神经网络的遥感图像厚云区域检测方法的流程图,如图1所示,本发明的一种基于神经网络的遥感图像厚云区域检测方法,包括:
获取带云遥感图像;
根据位置确定分支得到位置特征;
根据边缘完善分支得到边缘特征;
融合位置特征和边缘特征得到融合特征;
将融合特征输入至U型卷积神经网络,得到厚云区域检测结果。
根据本发明的一个实施方式,根据位置确定分支得到位置特征的方法为:
将带云遥感图像输入至位置确定分支,将输入至位置确定分支的带云遥感图像标记为
Figure 889364DEST_PATH_IMAGE001
,将/>
Figure 342342DEST_PATH_IMAGE001
依次通过压缩模块从而压缩/>
Figure 796457DEST_PATH_IMAGE001
的尺寸,得到/>
Figure 575057DEST_PATH_IMAGE002
,通过压缩模块的公式为,
Figure 849044DEST_PATH_IMAGE003
Figure 371292DEST_PATH_IMAGE004
Figure 912869DEST_PATH_IMAGE005
Figure 596792DEST_PATH_IMAGE006
其中,
Figure 358074DEST_PATH_IMAGE007
通过第一个压缩模块后的输出;
Figure 418434DEST_PATH_IMAGE008
表示通过第二个压缩模块后的输出;
Figure 315983DEST_PATH_IMAGE009
表示通过第三个压缩模块后的输出;
Figure 436386DEST_PATH_IMAGE002
表示通过第四个压缩模块后的输出;
Figure 180570DEST_PATH_IMAGE010
、/>
Figure 779042DEST_PATH_IMAGE011
、/>
Figure 796676DEST_PATH_IMAGE012
和/>
Figure 87980DEST_PATH_IMAGE013
分别表示第一个到第四个压缩模块;
Figure 558276DEST_PATH_IMAGE002
通过特征精细模块进行精细得到/>
Figure 960438DEST_PATH_IMAGE014
,/>
Figure 596694DEST_PATH_IMAGE014
与/>
Figure 58899DEST_PATH_IMAGE002
的尺寸相同,通过特征精细模块的公式为,
Figure 750912DEST_PATH_IMAGE015
其中,
Figure 222344DEST_PATH_IMAGE014
表示特征精细模块的输出;
Figure 948992DEST_PATH_IMAGE016
表示经过泄漏整流线性激活单元;
Figure 316519DEST_PATH_IMAGE017
表示3×3的卷积;
叠加
Figure 528451DEST_PATH_IMAGE002
和/>
Figure 272416DEST_PATH_IMAGE014
进行特征通道层面的叠加,使得/>
Figure 853570DEST_PATH_IMAGE002
和/>
Figure 657578DEST_PATH_IMAGE014
的特征通道数变为原来的两倍,将/>
Figure 324183DEST_PATH_IMAGE002
和/>
Figure 137418DEST_PATH_IMAGE014
输入至重建模块得到位置特征,得到位置特征的公式为,
Figure 337193DEST_PATH_IMAGE018
Figure 46523DEST_PATH_IMAGE019
Figure 731582DEST_PATH_IMAGE020
Figure 817350DEST_PATH_IMAGE021
其中,
Figure 638675DEST_PATH_IMAGE022
表示第一个重建模块的输出;
Figure 518907DEST_PATH_IMAGE023
表示第二个重建模块的输出;
Figure 679147DEST_PATH_IMAGE024
表示第三个重建模块的输出;
Figure 834184DEST_PATH_IMAGE025
表示位置特征;
Figure 244437DEST_PATH_IMAGE026
、/>
Figure 826728DEST_PATH_IMAGE027
、/>
Figure 955221DEST_PATH_IMAGE028
和/>
Figure 648371DEST_PATH_IMAGE029
分别表示第一个到第四个重建模块;
Figure 677244DEST_PATH_IMAGE030
表示特征通道层面的叠加操作。
根据本发明的一个实施方式,根据边缘完善分支得到边缘特征的方法为:
将带云遥感图像输入至边缘完善分支,将输入至边缘完善分支的带云遥感图像标记为
Figure 430437DEST_PATH_IMAGE031
,位置确定分支包含九个特征提取模块,特征提取模块的特征相同,9个特征提取模块的扩张卷积单元的扩张率不同,将/>
Figure 577384DEST_PATH_IMAGE031
依次通过依次通过前五个特征提取模块,得到/>
Figure 277487DEST_PATH_IMAGE032
Figure 662332DEST_PATH_IMAGE033
,通过前五个提取模块的公式为,
Figure 586426DEST_PATH_IMAGE034
Figure 689511DEST_PATH_IMAGE035
Figure 960349DEST_PATH_IMAGE036
Figure 465279DEST_PATH_IMAGE037
Figure 294695DEST_PATH_IMAGE038
其中,
Figure 885076DEST_PATH_IMAGE039
通过第一个特征提取模块后的输出;
Figure 458140DEST_PATH_IMAGE040
表示通过第二个特征提取模块后的输出;
Figure 817577DEST_PATH_IMAGE041
表示通过第三个特征提取模块后的输出;
Figure 582009DEST_PATH_IMAGE033
表示通过第四个特征提取模块后的输出;
Figure 394107DEST_PATH_IMAGE032
表示通过第五个特征提取模块后的输出;
Figure 505282DEST_PATH_IMAGE042
、/>
Figure 984805DEST_PATH_IMAGE043
、/>
Figure 156024DEST_PATH_IMAGE044
、/>
Figure 720997DEST_PATH_IMAGE045
和/>
Figure 131469DEST_PATH_IMAGE046
分别表示第一个到第五个特征提取模块;
Figure 465498DEST_PATH_IMAGE033
和/>
Figure 73197DEST_PATH_IMAGE032
进行特征通道层面的叠加,使得/>
Figure 594308DEST_PATH_IMAGE033
和/>
Figure 578445DEST_PATH_IMAGE014
的特征通道数变为原来的两倍,将/>
Figure 766981DEST_PATH_IMAGE033
和/>
Figure 44116DEST_PATH_IMAGE032
输入至剩下的提取模块后得到边缘特征,得到边缘特征的公式为,
Figure 52523DEST_PATH_IMAGE047
Figure 574772DEST_PATH_IMAGE048
Figure 617814DEST_PATH_IMAGE049
Figure 567315DEST_PATH_IMAGE050
其中,
Figure 594177DEST_PATH_IMAGE051
表示通过第六个特征提取模块后的输出;
Figure 388958DEST_PATH_IMAGE052
表示通过第七个特征提取模块后的输出;
Figure 53551DEST_PATH_IMAGE053
表示通过第八个特征提取模块后的输出;
Figure 908374DEST_PATH_IMAGE054
表示边缘特征;
Figure 156953DEST_PATH_IMAGE055
、/>
Figure 755425DEST_PATH_IMAGE056
、/>
Figure 38639DEST_PATH_IMAGE057
和/>
Figure 64363DEST_PATH_IMAGE058
分别表示第六个到第九个特征提取模块;
Figure 298773DEST_PATH_IMAGE030
表示特征通道层面的叠加操作。
根据本发明的一个实施方式,融合位置特征和边缘特征得到融合特征,根据融合特征得到U型卷积神经网络,得到融合特征的计算公式为,
Figure 700936DEST_PATH_IMAGE059
其中,
Figure 573077DEST_PATH_IMAGE060
表示融合特征;
Figure 35282DEST_PATH_IMAGE030
表示特征通道层面的叠加操作;
Figure 258453DEST_PATH_IMAGE017
表示3×3的卷积;
Figure 464307DEST_PATH_IMAGE061
表示位置特征;
Figure 686560DEST_PATH_IMAGE062
表示带云遥感图像;
Figure 585245DEST_PATH_IMAGE063
表示边缘特征。
根据本发明的一个实施方式,使用二元交叉熵损失函数训练对U型卷积神经网络进行训练,使用二元交叉熵损失函数的计算公式为:
Figure 826871DEST_PATH_IMAGE064
其中,
Figure 305257DEST_PATH_IMAGE065
表示二元交叉熵损失函数;
Figure 620832DEST_PATH_IMAGE062
表示带云遥感图像;
Figure 221577DEST_PATH_IMAGE067
表示带云遥感图像的厚云掩码标签;
Figure 622603DEST_PATH_IMAGE068
表示输入至U型卷积神经网络得到的结果;
Figure 403215DEST_PATH_IMAGE069
表示二元交叉熵计算。
根据本发明的一个实施例,图2示意性表示根据本发明的一种基于U型卷积神经网络的遥感图像厚云区域检测方法的U型卷积神经网络图,如图2所示,位置确定分支包含四个压缩模块、一个特征精细模块和四个重建模块,压缩模块包含两个3×3的卷积、两个泄漏整流线性激活单元和一个最大池化层,特征精细模块包含两个3×3的卷积和两个泄漏整流线性激活单元,重建模块包含一个上采样操作单元、两个3×3的卷积和两个泄漏整流线性激活单元,特征提取模块包含一个扩张卷积单元和一个泄漏整流线性激活单元。
不仅如此,为实现上述发明目的,本发明还提供一种基于神经网络的遥感图像厚云区域检测***,图3示意性表示根据本发明的一种基于神经网络的遥感图像厚云区域检测***的流程图,如图3所示,根据本发明的一种基于神经网络的遥感图像厚云区域检测***,该***包括:
图像获取模块:获取带云遥感图像;
位置特征获取模块:根据位置确定分支得到位置特征;
边缘特征获取模块:根据边缘完善分支得到边缘特征;
融合特征获取模块:融合位置特征和边缘特征得到融合特征;
厚云区域检测模块:将融合特征输入至U型卷积神经网络,得到厚云区域检测结果。
根据本发明的一个实施方式,根据位置确定分支得到位置特征的方法为:
将带云遥感图像输入至位置确定分支,将输入至位置确定分支的带云遥感图像标记为
Figure 635613DEST_PATH_IMAGE001
,将/>
Figure 344943DEST_PATH_IMAGE001
依次通过压缩模块从而压缩/>
Figure 295581DEST_PATH_IMAGE001
的尺寸,得到/>
Figure 115770DEST_PATH_IMAGE002
,通过压缩模块的公式为,
Figure 405937DEST_PATH_IMAGE003
Figure 348485DEST_PATH_IMAGE004
Figure 225568DEST_PATH_IMAGE005
Figure 911764DEST_PATH_IMAGE006
其中,
Figure 56437DEST_PATH_IMAGE007
通过第一个压缩模块后的输出;
Figure 107570DEST_PATH_IMAGE008
表示通过第二个压缩模块后的输出;
Figure 32801DEST_PATH_IMAGE009
表示通过第三个压缩模块后的输出;
Figure 194792DEST_PATH_IMAGE002
表示通过第四个压缩模块后的输出;
Figure 958086DEST_PATH_IMAGE010
、/>
Figure 976858DEST_PATH_IMAGE011
、/>
Figure 327068DEST_PATH_IMAGE012
和/>
Figure 292750DEST_PATH_IMAGE013
分别表示第一个到第四个压缩模块;
Figure 474332DEST_PATH_IMAGE002
通过特征精细模块进行精细得到/>
Figure 867267DEST_PATH_IMAGE014
,/>
Figure 501511DEST_PATH_IMAGE014
与/>
Figure 500910DEST_PATH_IMAGE002
的尺寸相同,通过特征精细模块的公式为,
Figure 740262DEST_PATH_IMAGE015
其中,
Figure 366415DEST_PATH_IMAGE014
表示特征精细模块的输出;
Figure 425638DEST_PATH_IMAGE016
表示经过泄漏整流线性激活单元;
Figure 733123DEST_PATH_IMAGE017
表示3×3的卷积;
叠加
Figure 889297DEST_PATH_IMAGE002
和/>
Figure 122570DEST_PATH_IMAGE014
进行特征通道层面的叠加,使得/>
Figure 731406DEST_PATH_IMAGE002
和/>
Figure 577003DEST_PATH_IMAGE014
的特征通道数变为原来的两倍,将/>
Figure 525367DEST_PATH_IMAGE002
和/>
Figure 493323DEST_PATH_IMAGE014
输入至重建模块得到位置特征,得到位置特征的公式为,
Figure 527138DEST_PATH_IMAGE018
Figure 677890DEST_PATH_IMAGE019
Figure 543078DEST_PATH_IMAGE020
Figure 619618DEST_PATH_IMAGE021
其中,
Figure 203046DEST_PATH_IMAGE022
表示第一个重建模块的输出;
Figure 656024DEST_PATH_IMAGE023
表示第二个重建模块的输出;
Figure 313402DEST_PATH_IMAGE024
表示第三个重建模块的输出;
Figure 623160DEST_PATH_IMAGE025
表示位置特征;
Figure 130103DEST_PATH_IMAGE026
、/>
Figure 121193DEST_PATH_IMAGE027
、/>
Figure 960973DEST_PATH_IMAGE028
和/>
Figure 379316DEST_PATH_IMAGE029
分别表示第一个到第四个重建模块;
Figure 937336DEST_PATH_IMAGE030
表示特征通道层面的叠加操作。
根据本发明的一个实施方式,根据边缘完善分支得到边缘特征的方法为:
将带云遥感图像输入至边缘完善分支,将输入至边缘完善分支的带云遥感图像标记为
Figure 466537DEST_PATH_IMAGE031
,位置确定分支包含九个特征提取模块,特征提取模块的特征相同,9个特征提取模块的扩张卷积单元的扩张率不同,将/>
Figure 617550DEST_PATH_IMAGE031
依次通过依次通过前五个特征提取模块,得到/>
Figure 534690DEST_PATH_IMAGE032
Figure 252111DEST_PATH_IMAGE033
,通过前五个提取模块的公式为,
Figure 585003DEST_PATH_IMAGE034
Figure 399375DEST_PATH_IMAGE035
Figure 159521DEST_PATH_IMAGE036
Figure 862773DEST_PATH_IMAGE037
Figure 61673DEST_PATH_IMAGE038
其中,
Figure 137076DEST_PATH_IMAGE039
通过第一个特征提取模块后的输出;
Figure 599281DEST_PATH_IMAGE040
表示通过第二个特征提取模块后的输出;
Figure 556873DEST_PATH_IMAGE041
表示通过第三个特征提取模块后的输出;
Figure 762727DEST_PATH_IMAGE033
表示通过第四个特征提取模块后的输出;
Figure 990839DEST_PATH_IMAGE032
表示通过第五个特征提取模块后的输出;
Figure 889525DEST_PATH_IMAGE042
、/>
Figure 334413DEST_PATH_IMAGE043
、/>
Figure 78378DEST_PATH_IMAGE044
、/>
Figure 925111DEST_PATH_IMAGE045
和/>
Figure 463540DEST_PATH_IMAGE046
分别表示第一个到第五个特征提取模块;
Figure 159838DEST_PATH_IMAGE033
和/>
Figure 707494DEST_PATH_IMAGE032
进行特征通道层面的叠加,使得/>
Figure 408734DEST_PATH_IMAGE033
和/>
Figure 383643DEST_PATH_IMAGE014
的特征通道数变为原来的两倍,将/>
Figure 803123DEST_PATH_IMAGE033
和/>
Figure 154470DEST_PATH_IMAGE032
输入至剩下的提取模块后得到边缘特征,得到边缘特征的公式为,
Figure 205822DEST_PATH_IMAGE047
Figure 351632DEST_PATH_IMAGE048
Figure 258408DEST_PATH_IMAGE049
Figure 147867DEST_PATH_IMAGE050
其中,
Figure 823699DEST_PATH_IMAGE051
表示通过第六个特征提取模块后的输出;
Figure 405990DEST_PATH_IMAGE052
表示通过第七个特征提取模块后的输出;
Figure 534483DEST_PATH_IMAGE053
表示通过第八个特征提取模块后的输出;
Figure 726168DEST_PATH_IMAGE054
表示边缘特征;
Figure 256506DEST_PATH_IMAGE055
、/>
Figure 744119DEST_PATH_IMAGE056
、/>
Figure 359908DEST_PATH_IMAGE057
和/>
Figure 856749DEST_PATH_IMAGE058
分别表示第六个到第九个特征提取模块;
Figure 241594DEST_PATH_IMAGE030
表示特征通道层面的叠加操作。
根据本发明的一个实施方式,融合位置特征和边缘特征得到融合特征,根据融合特征得到U型卷积神经网络,得到融合特征的计算公式为,
Figure 401573DEST_PATH_IMAGE059
其中,
Figure 504658DEST_PATH_IMAGE060
表示融合特征;
Figure 274031DEST_PATH_IMAGE030
表示特征通道层面的叠加操作;
Figure 44541DEST_PATH_IMAGE017
表示3×3的卷积;
Figure 873957DEST_PATH_IMAGE061
表示位置特征;
Figure 464338DEST_PATH_IMAGE062
表示带云遥感图像;
Figure 302981DEST_PATH_IMAGE063
表示边缘特征。
根据本发明的一个实施方式,使用二元交叉熵损失函数训练对U型卷积神经网络进行训练,使用二元交叉熵损失函数的计算公式为:
Figure 895374DEST_PATH_IMAGE064
其中,
Figure 161270DEST_PATH_IMAGE065
表示二元交叉熵损失函数;
Figure 973369DEST_PATH_IMAGE062
表示带云遥感图像;
Figure 350123DEST_PATH_IMAGE067
表示带云遥感图像的厚云掩码标签;
Figure 829646DEST_PATH_IMAGE068
表示输入至U型卷积神经网络得到的结果;
Figure 865DEST_PATH_IMAGE069
表示二元交叉熵计算。
根据本发明的一个实施例,图2示意性表示根据本发明的一种基于U型卷积神经网络的遥感图像厚云区域检测方法的U型卷积神经网络图,如图2所示,位置确定分支包含四个压缩模块、一个特征精细模块和四个重建模块,压缩模块包含两个3×3的卷积、两个泄漏整流线性激活单元和一个最大池化层,特征精细模块包含两个3×3的卷积和两个泄漏整流线性激活单元,重建模块包含一个上采样操作单元、两个3×3的卷积和两个泄漏整流线性激活单元,特征提取模块包含一个扩张卷积单元和一个泄漏整流线性激活单元。
为实现上述发明目的,本发明还提供一种电子设备,该电子设备包括:处理器、存储器及存储在所述存储器上并可在所述处理器上运行的计算机程序,计算机程序被处理器执行时实现上述一种基于神经网络的遥感图像厚云区域检测方法。
为实现上述发明目的,本发明还提供一种计算机可读存储介质,计算机可读存储介质上存储计算机程序,计算机程序被处理器执行时实现上述一种基于神经网络的遥感图像厚云区域检测方法。
基于此,本发明的有益效果在于,本发明利用并行U型卷积神经网络,采用两个分支分别进行厚云区域整体检测和云区边缘精细,且将两个分支提取到的特征进行合并融合,从而获得检测准确且边缘细化完整的遥感图像厚云区域检测结果。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的模块及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的装置和设备的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个模块或组件可以结合或者可以集成到另一个***,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或模块的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理模块,即可以位于一个地方,或者也可以分布到多个网络模块上。可以根据实际的需要选择其中的部分或者全部模块来实现本发明实施例方案的目的。
另外,在本发明实施例中的各功能模块可以集成在一个处理模块中,也可以是各个模块单独物理存在,也可以两个或两个以上模块集成在一个模块中。
所述功能如果以软件功能模块的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例节能信号发送/接收的方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
以上描述仅为本申请的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本申请中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离所述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本申请中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
应理解,本发明的发明内容及实施例中各步骤的序号的大小并不绝对意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施过程构成任何限定。

Claims (7)

1.一种基于神经网络的遥感图像厚云区域检测方法,其特征在于,包括:
获取带云遥感图像;
根据位置确定分支得到位置特征;
所述根据位置确定分支得到位置特征的方法为:
将带云遥感图像输入至所述位置确定分支,将输入至所述位置确定分支的带云遥感图像标记为
Figure QLYQS_1
,将/>
Figure QLYQS_2
依次通过压缩模块从而压缩/>
Figure QLYQS_3
的尺寸,得到/>
Figure QLYQS_4
,通过所述压缩模块的公式为,
Figure QLYQS_5
Figure QLYQS_6
Figure QLYQS_7
Figure QLYQS_8
其中,
Figure QLYQS_9
通过第一个压缩模块后的输出;
Figure QLYQS_10
表示通过第二个压缩模块后的输出;
Figure QLYQS_11
表示通过第三个压缩模块后的输出;
Figure QLYQS_12
表示通过第四个压缩模块后的输出;
Figure QLYQS_13
、/>
Figure QLYQS_14
、/>
Figure QLYQS_15
和/>
Figure QLYQS_16
分别表示第一个到第四个压缩模块;
Figure QLYQS_17
通过特征精细模块进行精细得到/>
Figure QLYQS_18
,/>
Figure QLYQS_19
与/>
Figure QLYQS_20
的尺寸相同,通过所述特征精细模块的公式为,
Figure QLYQS_21
其中,
Figure QLYQS_22
表示特征精细模块的输出;
Figure QLYQS_23
表示经过泄漏整流线性激活单元;
Figure QLYQS_24
表示3×3的卷积;
叠加
Figure QLYQS_25
和/>
Figure QLYQS_26
进行特征通道层面的叠加,使得/>
Figure QLYQS_27
和/>
Figure QLYQS_28
的特征通道数变为原来的两倍,将/>
Figure QLYQS_29
和/>
Figure QLYQS_30
输入至重建模块得到所述位置特征,得到所述位置特征的公式为,
Figure QLYQS_31
Figure QLYQS_32
Figure QLYQS_33
Figure QLYQS_34
其中,
Figure QLYQS_35
表示第一个重建模块的输出;
Figure QLYQS_36
表示第二个重建模块的输出;
Figure QLYQS_37
表示第三个重建模块的输出;
Figure QLYQS_38
表示位置特征;
Figure QLYQS_39
、/>
Figure QLYQS_40
、/>
Figure QLYQS_41
和/>
Figure QLYQS_42
分别表示第一个到第四个重建模块;
Figure QLYQS_43
表示特征通道层面的叠加操作;根据边缘完善分支得到边缘特征;
融合所述位置特征和所述边缘特征得到融合特征;
将所述融合特征输入至U型卷积神经网络,得到厚云区域检测结果。
2.根据权利要求1所述的一种基于神经网络的遥感图像厚云区域检测方法,其特征在于,所述根据边缘完善分支得到边缘特征的方法为:
将带云遥感图像输入至所述边缘完善分支,将输入至所述边缘完善分支的带云遥感图像标记为
Figure QLYQS_44
,所述边缘完善分支包含九个特征提取模块,所述特征提取模块的特征相同,9个所述特征提取模块的扩张卷积单元的扩张率不同,将/>
Figure QLYQS_45
依次通过所述依次通过前五个所述特征提取模块,得到/>
Figure QLYQS_46
和/>
Figure QLYQS_47
,通过前五个所述提取模块的公式为,
Figure QLYQS_48
Figure QLYQS_49
Figure QLYQS_50
Figure QLYQS_51
Figure QLYQS_52
其中,
Figure QLYQS_53
通过第一个特征提取模块后的输出;
Figure QLYQS_54
表示通过第二个特征提取模块后的输出;
Figure QLYQS_55
表示通过第三个特征提取模块后的输出;
Figure QLYQS_56
表示通过第四个特征提取模块后的输出;
Figure QLYQS_57
表示通过第五个特征提取模块后的输出;
Figure QLYQS_58
、/>
Figure QLYQS_59
、/>
Figure QLYQS_60
、/>
Figure QLYQS_61
和/>
Figure QLYQS_62
分别表示第一个到第五个特征提取模块;
Figure QLYQS_63
和/>
Figure QLYQS_64
进行特征通道层面的叠加,使得/>
Figure QLYQS_65
和/>
Figure QLYQS_66
的特征通道数变为原来的两倍,将
Figure QLYQS_67
和/>
Figure QLYQS_68
输入至剩下的提取模块后得到所述边缘特征,得到所述边缘特征的公式为,
Figure QLYQS_69
Figure QLYQS_70
Figure QLYQS_71
Figure QLYQS_72
其中,
Figure QLYQS_73
表示通过第六个特征提取模块后的输出;
Figure QLYQS_74
表示通过第七个特征提取模块后的输出;
Figure QLYQS_75
表示通过第八个特征提取模块后的输出;
Figure QLYQS_76
表示边缘特征;
Figure QLYQS_77
、/>
Figure QLYQS_78
、/>
Figure QLYQS_79
和/>
Figure QLYQS_80
分别表示第六个到第九个特征提取模块;
Figure QLYQS_81
表示特征通道层面的叠加操作。
3.根据权利要求2所述的一种基于神经网络的遥感图像厚云区域检测方法,其特征在于,融合所述位置特征和所述边缘特征得到所述融合特征,根据所述融合特征得到所述U型卷积神经网络,得到所述融合特征的计算公式为,
Figure QLYQS_82
其中,
Figure QLYQS_83
表示融合特征;
Figure QLYQS_84
表示特征通道层面的叠加操作;
Figure QLYQS_85
表示3×3的卷积;
Figure QLYQS_86
表示位置特征;
Figure QLYQS_87
表示带云遥感图像;
Figure QLYQS_88
表示边缘特征。
4.根据权利要求3所述的一种基于神经网络的遥感图像厚云区域检测方法,其特征在于,使用二元交叉熵损失函数训练对所述U型卷积神经网络进行训练,使用所述二元交叉熵损失函数的计算公式为:
Figure QLYQS_89
其中,
Figure QLYQS_90
表示二元交叉熵损失函数;
Figure QLYQS_91
表示带云遥感图像;
Figure QLYQS_92
表示带云遥感图像的厚云掩码标签;
Figure QLYQS_93
表示输入至U型卷积神经网络得到的结果;
Figure QLYQS_94
表示二元交叉熵计算。
5.一种基于神经网络的遥感图像厚云区域检测***,其特征在于,包括:
图像获取模块:获取带云遥感图像;
位置特征获取模块:根据位置确定分支得到位置特征;
所述根据位置确定分支得到位置特征的方法为:
将带云遥感图像输入至所述位置确定分支,将输入至所述位置确定分支的带云遥感图像标记为
Figure QLYQS_95
,将/>
Figure QLYQS_96
依次通过压缩模块从而压缩/>
Figure QLYQS_97
的尺寸,得到/>
Figure QLYQS_98
,通过所述压缩模块的公式为,
Figure QLYQS_99
Figure QLYQS_100
Figure QLYQS_101
Figure QLYQS_102
其中,
Figure QLYQS_103
通过第一个压缩模块后的输出;
Figure QLYQS_104
表示通过第二个压缩模块后的输出;
Figure QLYQS_105
表示通过第三个压缩模块后的输出;
Figure QLYQS_106
表示通过第四个压缩模块后的输出;
Figure QLYQS_107
、/>
Figure QLYQS_108
、/>
Figure QLYQS_109
和/>
Figure QLYQS_110
分别表示第一个到第四个压缩模块;
Figure QLYQS_111
通过特征精细模块进行精细得到/>
Figure QLYQS_112
,/>
Figure QLYQS_113
与/>
Figure QLYQS_114
的尺寸相同,通过所述特征精细模块的公式为,
Figure QLYQS_115
其中,
Figure QLYQS_116
表示特征精细模块的输出;
Figure QLYQS_117
表示经过泄漏整流线性激活单元;
Figure QLYQS_118
表示3×3的卷积;
叠加
Figure QLYQS_119
和/>
Figure QLYQS_120
进行特征通道层面的叠加,使得/>
Figure QLYQS_121
和/>
Figure QLYQS_122
的特征通道数变为原来的两倍,将/>
Figure QLYQS_123
和/>
Figure QLYQS_124
输入至重建模块得到所述位置特征,得到所述位置特征的公式为,
Figure QLYQS_125
Figure QLYQS_126
Figure QLYQS_127
Figure QLYQS_128
其中,
Figure QLYQS_129
表示第一个重建模块的输出;
Figure QLYQS_130
表示第二个重建模块的输出;
Figure QLYQS_131
表示第三个重建模块的输出;
Figure QLYQS_132
表示位置特征;
Figure QLYQS_133
、/>
Figure QLYQS_134
、/>
Figure QLYQS_135
和/>
Figure QLYQS_136
分别表示第一个到第四个重建模块;
Figure QLYQS_137
表示特征通道层面的叠加操作;边缘特征获取模块:根据边缘完善分支得到边缘特征;
融合特征获取模块:融合所述位置特征和所述边缘特征得到融合特征;
厚云区域检测模块:将所述融合特征输入至U型卷积神经网络,得到厚云区域检测结果。
6.一种电子设备,其特征在于,包括处理器、存储器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现如权利要求1至4中任一项所述的一种基于神经网络的遥感图像厚云区域检测方法。
7.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储计算机程序,所述计算机程序被处理器执行时实现如权利要求1至4中任一项所述的一种基于神经网络的遥感图像厚云区域检测方法。
CN202211545313.6A 2022-12-05 2022-12-05 一种基于神经网络的遥感图像厚云区域检测方法 Active CN116188968B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211545313.6A CN116188968B (zh) 2022-12-05 2022-12-05 一种基于神经网络的遥感图像厚云区域检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211545313.6A CN116188968B (zh) 2022-12-05 2022-12-05 一种基于神经网络的遥感图像厚云区域检测方法

Publications (2)

Publication Number Publication Date
CN116188968A CN116188968A (zh) 2023-05-30
CN116188968B true CN116188968B (zh) 2023-07-14

Family

ID=86451280

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211545313.6A Active CN116188968B (zh) 2022-12-05 2022-12-05 一种基于神经网络的遥感图像厚云区域检测方法

Country Status (1)

Country Link
CN (1) CN116188968B (zh)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109493347B (zh) * 2017-09-12 2021-03-23 深圳科亚医疗科技有限公司 在图像中对稀疏分布的对象进行分割的方法和***
CN112084872A (zh) * 2020-08-10 2020-12-15 浙江工业大学 一种融合语义分割与边缘的高分遥感目标精准检测方法
CN113239830B (zh) * 2021-05-20 2023-01-17 北京航空航天大学 一种基于全尺度特征融合的遥感图像云检测方法

Also Published As

Publication number Publication date
CN116188968A (zh) 2023-05-30

Similar Documents

Publication Publication Date Title
WO2022257408A1 (zh) 一种基于u型网络的医学图像分割方法
CN107862698B (zh) 基于k均值聚类的光场前景分割方法及装置
CN109344701A (zh) 一种基于Kinect的动态手势识别方法
CN109255324A (zh) 手势处理方法、交互控制方法及设备
CN108319972A (zh) 一种针对图像语义分割的端到端差异网络学习方法
CN104200461B (zh) 基于互信息图像选块和sift特征的遥感图像配准方法
CN108960404B (zh) 一种基于图像的人群计数方法及设备
Yue et al. A novel attention fully convolutional network method for synthetic aperture radar image segmentation
CN104657980A (zh) 一种改进的基于Meanshift的多通道图像分割算法
CN105718552A (zh) 基于服装手绘草图的服装图像检索方法
CN110245600B (zh) 自适应起始快速笔画宽度无人机道路检测方法
CN110298227A (zh) 一种基于深度学习的无人机航拍图像中的车辆检测方法
US11042986B2 (en) Method for thinning and connection in linear object extraction from an image
CN104851089A (zh) 一种基于三维光场的静态场景前景分割方法和装置
CN109063630B (zh) 一种基于可分离卷积技术和帧差补偿策略的快速车辆检测方法
CN111415373A (zh) 基于孪生卷积网络的目标跟踪与分割方法、***及介质
CN108876810A (zh) 视频摘要中利用图割算法进行运动目标检测的方法
Wang et al. Enhanced spinning parallelogram operator combining color constraint and histogram integration for robust light field depth estimation
CN115457277A (zh) 一种智能化路面病害识别检测方法及***
CN108573238A (zh) 一种基于双网络结构的车辆检测方法
CN116188968B (zh) 一种基于神经网络的遥感图像厚云区域检测方法
CN106023184A (zh) 一种基于各向异性中心环绕差异的深度显著性检测方法
CN109784145A (zh) 基于深度图的目标检测方法及存储介质
CN117541652A (zh) 一种基于深度lk光流法与d-prosac采样策略的动态slam方法
CN112070035A (zh) 基于视频流的目标跟踪方法、装置及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant