CN117611494B - 一种全色遥感图像薄云去除方法 - Google Patents

一种全色遥感图像薄云去除方法 Download PDF

Info

Publication number
CN117611494B
CN117611494B CN202410095039.XA CN202410095039A CN117611494B CN 117611494 B CN117611494 B CN 117611494B CN 202410095039 A CN202410095039 A CN 202410095039A CN 117611494 B CN117611494 B CN 117611494B
Authority
CN
China
Prior art keywords
remote sensing
cloud
sensing image
full
deep learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202410095039.XA
Other languages
English (en)
Other versions
CN117611494A (zh
Inventor
徐其志
闫昕宇
李开琦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Institute of Technology BIT
Original Assignee
Beijing Institute of Technology BIT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Institute of Technology BIT filed Critical Beijing Institute of Technology BIT
Priority to CN202410095039.XA priority Critical patent/CN117611494B/zh
Publication of CN117611494A publication Critical patent/CN117611494A/zh
Application granted granted Critical
Publication of CN117611494B publication Critical patent/CN117611494B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/10Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种全色遥感图像薄云去除方法,包括如下步骤:获取目标场景的全色遥感图像;对全色遥感图像进行预处理;将预处理后的全色遥感图像输入至训练好的薄云去除模型中,输出全色遥感图像对应的无云遥感图像;上述薄云去除模型包含残差卷积层和混合注意力机制。该方法可以有效解决在遥感去云领域中方法陈旧、模型训练代价高昂的问题,以及克服传统方法细节损失严重等问题。

Description

一种全色遥感图像薄云去除方法
技术领域
本发明涉及数字图像处理技术领域,更具体的说是涉及一种全色遥感图像薄云去除方法。
背景技术
卫星遥感图像去云是卫星遥感领域中一项重要的技术任务。卫星遥感图像通过卫星传感器获取地球表面的图像信息,但由于大气条件和云层的存在,遥感图像中常常包含大片的云状遮挡物,这对图像的解译和分析造成了干扰。
去除云层遮挡是解决这一问题的关键。为了实现这一目标,研究者们提出了多种去云方法。一种常用的方法是基于光谱信息的方法。该方法通过分析遥感图像中不同波段之间的差异,并对云和非云像素的光谱特征进行分类和分析,来实现云的检测和去除。这种方法可以根据云的光谱特征与其他地物的差异来判断云层的存在,并将其从图像中去除。
然而受限于现实条件,许多高清的遥感图像并非高光谱图像,而传统方法在对单光谱图像去云时会严重伤害无云区域的地表特征,并且非深度学习方法在去除薄云薄雾上达不到均匀且稳定。
因此,如何有效解决在遥感去云领域中方法陈旧、模型训练代价高昂的问题,以及克服传统方法细节损失严重,误将无云区域的地面特征当做云雾进行去除的问题;是本领域技术人员亟需解决的问题。
发明内容
鉴于上述问题,本发明提供一种全色遥感图像薄云去除方法,以至少解决上述背景技术中提到的部分技术问题。
为了实现上述目的,本发明采用如下技术方案:
一种全色遥感图像薄云去除方法,包括如下步骤:
获取目标场景的全色遥感图像;
对所述全色遥感图像进行预处理;
将预处理后的全色遥感图像输入至训练好的薄云去除模型中,输出所述全色遥感图像对应的无云遥感图像;
所述薄云去除模型包含残差卷积层和混合注意力机制。
进一步地,所述薄云去除模型的训练步骤包括:
S1、获取全色遥感图像仿真数据集;所述全色遥感图像仿真数据集中包括无云遥感图像集及对应的仿真含云遥感图像集;
S2、构建深度学习网络;
S3、构建损失函数;将仿真含云遥感图像输入所述深度学习网络,输出去云遥感图像;利用所述损失函数,计算所述去云遥感图像和对应无云遥感图像之间的损失;利用反向传播对所述深度学习网络进行训练,直至总损失收敛,生成薄云去除模型。
进一步地,所述步骤S1具体包括:
S11、获取无云遥感图像集;
S12、将所述无云遥感图像集中的无云遥感图像预处理为目标尺寸大小;
S13、利用Perlin噪声和FBM噪声获得预处理后无云遥感图像对应的目标尺寸大小的仿真薄云蒙版;
S14、对所述目标尺寸大小的无云遥感图像和仿真薄云蒙版进行加性处理,获取具有薄云效果的仿真含云遥感图像集;
S15、将无云遥感图像集和对应的仿真含云遥感图像集作为全色遥感图像仿真数据集。
进一步地,所述预处理包括:缩放处理或分块处理。
进一步地,所述加性处理,具体表示为:
其中,表示仿真含云遥感图像;/>表示完成预处理的无云遥感图像的权重;表示目标尺寸大小的无云遥感图像;/>表示仿真薄云蒙版。
进一步地,所述深度学习网络以残差卷积层为基础,并在所述残差卷积层前段增加多尺度卷积和混合注意力机制。
进一步地,在所述步骤S2具体包括:
S21、使用3x3的卷积层对所述深度学习网络的输入图像进行卷积处理,得到基础特征图;
S22、分别使用3x3、5x5、11x11的卷积层对所述基础特征图进行卷积处理,获得不同尺度的特征图;
S23、使用3x3的卷积层对所述不同尺度的特征图进行卷积处理,并使用混合注意力机制以提取遥感图像云雾下的地面特征;
S24、对所述地面特征进行拼接处理,并将拼接结果输入至n层残差卷积层中,输出掩膜图;
S25、将所述掩膜图与所述输入图像的对应像素进行叠加,获得所述深度学习网络的输出图像。
进一步地,所述步骤S3具体包括:
S31、将所述仿真含云遥感图像输入至所述深度学习网络中,前向传播输出去云遥感图像;
S32、利用损失函数计算所述深度学习网络输出的去云遥感图像与对应无云遥感图像的真值图像之间的总损失,计算公式为:
其中,L表示总损失;表示深度学***均绝对值误差;/>表示真值图像在像素坐标/>处的像素值;/>表示深度学习网络输出的无云遥感图像在像素坐标/>处的像素值;/>表示频谱误差;/>为坐标/>距离图片中心点的距离;/>表示真值图像频谱图在像素坐标/>处的像素值;/>为深度学习网络输出的无云遥感图像的频谱图在像素坐标处的像素值;
S33、通过反向传播算法不断优化深度学习网络的参数,若在训练过程中发现连续预设次数的训练总损失L的下降幅度不超过总损失的预设百分比,则认为总损失收敛,此时停止训练,生成薄云去除模型。
进一步地,所述频谱图的计算方法表示为:
其中,表示输入图像在像素坐标/>处的像素值;/>表示频谱图在坐标/>处的像素值;/>表示虚数;/>表示圆周率;/>表示自然对数。
进一步地,利用步骤S3中的损失函数,采用损失计算和局部特征对比法评估所述薄云去除模型的效果。
经由上述的技术方案可知,与现有技术相比,本发明公开提供了一种全色遥感图像薄云去除方法,包括如下有益效果:
1.本发明通过模型的多尺度卷积,残差卷积块等结构实现较佳的云雾去除效果,同时提高对纹理的保护。
2.本发明通过混合注意力机制和残差卷积层,实现降低对无云区域地表特征的影响。
本发明的其它特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明而了解。
下面通过附图和实施例,对本发明的技术方案做进一步的详细描述。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为本发明实施例提供的全色遥感图像薄云去除方法流程示意图。
图2为本发明实施例提供的深度学习网络的主体结构示意图。
图3为本发明实施例提供的全色遥感图像薄云去除方法效果示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
参见图1所示,本发明实施例公开了一种全色遥感图像薄云去除方法,包括如下步骤:获取目标场景的全色遥感图像;对全色遥感图像进行预处理;将预处理后的全色遥感图像输入至训练好的薄云去除模型中,输出全色遥感图像对应的无云遥感图像;其中,薄云去除模型包含残差卷积层和混合注意力机制;
该方法有效解决了在遥感去云领域中方法陈旧、模型训练代价高昂的问题,克服了传统方法细节损失严重,无法区分云雾与地面特征的困难。
上述薄云去除模型的训练步骤包括:
S1、获取全色遥感图像仿真数据集;全色遥感图像仿真数据集中包括无云遥感图像集及对应的仿真含云遥感图像集;
S2、构建深度学习网络;该深度学习网络以残差卷积层为基础,并在残差卷积层前段增加多尺度卷积和混合注意力机制;
S3、构建损失函数;将仿真含云遥感图像输入深度学习网络,输出去云遥感图像;利用损失函数,计算去云遥感图像和对应无云遥感图像之间的损失;利用反向传播对深度学习网络进行训练,直至总损失收敛,生成薄云去除模型。
接下来分别对上述各个步骤进行详细说明。
在上述步骤S1中,具体包括如下内容:
S11、获取无云遥感图像集;
S12、将无云遥感图像集中的无云遥感图像预处理为目标尺寸大小;其中,预处理包括缩放处理或分块处理(剪裁处理)等,且在本发明实施例中,将目标尺寸设为512x512;
S13、利用Perlin噪声和FBM噪声获得预处理后无云遥感图像对应的目标尺寸大小的仿真薄云蒙版;
S14、对目标尺寸大小的无云遥感图像和仿真薄云蒙版进行加性处理,获取具有薄云效果的仿真含云遥感图像集;其中加性处理表示为:
其中,表示仿真含云遥感图像;/>表示完成预处理后的无云遥感图像的权重;表示目标尺寸大小的无云遥感图像;/>表示仿真薄云蒙版。
S15、将无云遥感图像集和对应的仿真含云遥感图像集作为全色遥感图像仿真数据集。
在上述步骤S2中,参见图2所示,具体包括如下内容:
S21、使用3x3的卷积层对深度学习网络的输入图像进行卷积处理,得到基础特征图;
S22、分别使用3x3、5x5、11x11的卷积层对基础特征图进行卷积处理,获得不同尺度的特征图;
S23、使用3x3的卷积层对不同尺度的特征图进行卷积处理,并使用混合注意力机制以提取遥感图像云雾下的地面特征;
S24、对所述地面特征进行拼接处理,并将拼接结果输入至n层残差卷积层中,输出掩膜图;
S25、将掩膜图与输入图像的对应像素进行叠加,获得深度学习网络的输出图像。
在上述步骤S3中,具体包括如下内容:
S31、将仿真含云遥感图像输入至深度学习网络中,前向传播输出去云遥感图像;
S32、利用损失函数计算所述深度学习网络输出的去云遥感图像与对应无云遥感图像的真值图像之间的总损失,计算公式为:
其中,L表示总损失;表示深度学***均绝对值误差;/>表示真值图像在像素坐标/>处的像素值;/>表示深度学习网络输出的无云遥感图像在像素坐标/>处的像素值;/>表示频谱误差;/>表示坐标/>距离图片中心点的距离;/>表示真值图像频谱图在像素坐标处的像素值;/>为深度学习网络输出的无云遥感图像的频谱图在像素坐标/>处的像素值;
S33、通过反向传播算法不断优化深度学习网络的参数,若在训练过程中发现连续预设次数的训练总损失L的下降幅度不超过总损失的预设百分比,则认为总损失收敛,此时停止训练,生成薄云去除模型;
在本发明实施例中,若在训练过程中发现连续三轮训练总损失L的下降幅度不超过总损失的0.5%则认为模型已经基本收敛,可以停止训练;在该过程中,如果连续预设次数超过三轮会使模型的泛化能力下降,去云能力异常下降;将预设百分比设为0.5%可以确保模型泛化性,防止过拟合;
其中,频谱图的计算方法表示为:
其中,表示输入图像在像素坐标/>处的像素值;/>表示频谱图在坐标/>处的像素值;/>表示虚数;/>表示圆周率;/>表示自然对数。
在另一个实施例中,还包括:利用步骤S3中的损失函数,采用损失计算和局部特征对比法评估所述薄云去除模型的效果。
图3为本发明实施例的结果示意图;其中图3中的(a)所示为现实中的含云全色遥感图像;图3中的(b)所述为本发明实施例中去除薄云后的无云遥感图像。
本发明上述所提供的基于混合注意力机制和残差卷积网络的全色遥感图像薄云去除方法主要是为对全色图像去云处理专门提出的。但显然,本说明书中所描述的去云方法也适用于红外图像等单光谱图像,所取得的有益效果也是相似的。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的装置而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。

Claims (5)

1.一种全色遥感图像薄云去除方法,其特征在于,包括如下步骤:
获取目标场景的全色遥感图像;
对所述全色遥感图像进行预处理;
将预处理后的全色遥感图像输入至训练好的薄云去除模型中,输出所述全色遥感图像对应的无云遥感图像;
所述薄云去除模型包含残差卷积层和混合注意力机制;
所述薄云去除模型的训练步骤包括:
S1、获取全色遥感图像仿真数据集;所述全色遥感图像仿真数据集中包括无云遥感图像集及对应的仿真含云遥感图像集;
S2、构建深度学习网络;
S3、构建损失函数;将仿真含云遥感图像输入所述深度学习网络,输出去云遥感图像;利用所述损失函数,计算所述去云遥感图像和对应无云遥感图像之间的损失;利用反向传播对所述深度学习网络进行训练,直至总损失收敛,生成薄云去除模型;
所述深度学习网络以残差卷积层为基础,并在所述残差卷积层前段增加多尺度卷积和混合注意力机制;
在所述步骤S2具体包括:
S21、使用3x3的卷积层对所述深度学习网络的输入图像进行卷积处理,得到基础特征图;
S22、分别使用3x3、5x5、11x11的卷积层对所述基础特征图进行卷积处理,获得不同尺度的特征图;
S23、使用3x3的卷积层对所述不同尺度的特征图进行卷积处理,并使用混合注意力机制以提取遥感图像云雾下的地面特征;
S24、对所述地面特征进行拼接处理,并将拼接结果输入至n层残差卷积层中,输出掩膜图;
S25、将所述掩膜图与所述输入图像的对应像素进行叠加,获得所述深度学习网络的输出图像;
所述步骤S3具体包括:
S31、将所述仿真含云遥感图像输入至所述深度学习网络中,前向传播输出去云遥感图像;
S32、利用损失函数计算所述深度学习网络输出的去云遥感图像与对应无云遥感图像的真值图像之间的总损失,计算公式为:
L=L1+L2
其中,L表示总损失;L1表示深度学***均绝对值误差;ftrue(x,y)表示真值图像在像素坐标(x,y)处的像素值;fpredict(x,y)表示深度学习网络输出的无云遥感图像在像素坐标(x,y)处的像素值;L2表示频谱误差;R表示坐标(x,y)距离图片中心点的距离;Ftrue(x,y)表示真值图像频谱图在像素坐标(x,y)处的像素值;Fpredict(x,y)为深度学习网络输出的无云遥感图像的频谱图在像素坐标(x,y)处的像素值;
S33、通过反向传播算法不断优化深度学习网络的参数,若在训练过程中发现连续预设次数的训练总损失L的下降幅度不超过总损失的预设百分比,则认为总损失收敛,此时停止训练,生成薄云去除模型;
所述频谱图的计算方法表示为:
其中,f(x,y)表示输入图像在像素坐标(x,y)处的像素值;F(u,v)表示频谱图在坐标(u,v)处的像素值;j表示虚数;π表示圆周率;e表示自然对数。
2.根据权利要求1所述的一种全色遥感图像薄云去除方法,其特征在于,所述步骤S1具体包括:
S11、获取无云遥感图像集;
S12、将所述无云遥感图像集中的无云遥感图像预处理为目标尺寸大小;
S13、利用Perlin噪声和FBM噪声获得预处理后无云遥感图像对应的目标尺寸大小的仿真薄云蒙版;
S14、对所述目标尺寸大小的无云遥感图像和仿真薄云蒙版进行加性处理,获取具有薄云效果的仿真含云遥感图像集;
S15、将无云遥感图像集和对应的仿真含云遥感图像集作为全色遥感图像仿真数据集。
3.根据权利要求1或2所述的一种全色遥感图像薄云去除方法,其特征在于,所述预处理包括:缩放处理或分块处理。
4.根据权利要求2所述的一种全色遥感图像薄云去除方法,其特征在于,所述加性处理,具体表示为:
Po=α×Pinput+(1-α)×Pcloud
其中,Po表示仿真含云遥感图像;α表示完成预处理的无云遥感图像的权重;Pinput表示目标尺寸大小的无云遥感图像;Pcloud表示仿真薄云蒙版。
5.根据权利要求1所述的一种全色遥感图像薄云去除方法,其特征在于,还包括:利用步骤S3中的损失函数,采用损失计算和局部特征对比法评估所述薄云去除模型的效果。
CN202410095039.XA 2024-01-24 2024-01-24 一种全色遥感图像薄云去除方法 Active CN117611494B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202410095039.XA CN117611494B (zh) 2024-01-24 2024-01-24 一种全色遥感图像薄云去除方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202410095039.XA CN117611494B (zh) 2024-01-24 2024-01-24 一种全色遥感图像薄云去除方法

Publications (2)

Publication Number Publication Date
CN117611494A CN117611494A (zh) 2024-02-27
CN117611494B true CN117611494B (zh) 2024-04-30

Family

ID=89960262

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202410095039.XA Active CN117611494B (zh) 2024-01-24 2024-01-24 一种全色遥感图像薄云去除方法

Country Status (1)

Country Link
CN (1) CN117611494B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN118314052A (zh) * 2024-06-07 2024-07-09 北京数慧时空信息技术有限公司 一种遥感图像薄云去除的方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108460739A (zh) * 2018-03-02 2018-08-28 北京航空航天大学 一种基于生成对抗网络的遥感图像薄云去除方法
CN108921799A (zh) * 2018-06-22 2018-11-30 西北工业大学 基于多尺度协同学习卷积神经网络的遥感图像薄云去除方法
CN114066755A (zh) * 2021-11-11 2022-02-18 南京航空航天大学 一种基于全波段特征融合的遥感影像薄云去除方法及***
WO2022095253A1 (zh) * 2020-11-04 2022-05-12 常州工学院 一种基于深度通道感知的去除云雾方法
CN115222614A (zh) * 2022-04-22 2022-10-21 湘潭大学 一种先验引导的多降质特征夜光遥感影像质量提升方法
CN115546076A (zh) * 2022-12-05 2022-12-30 耕宇牧星(北京)空间科技有限公司 一种基于卷积网络的遥感图像薄云去除方法
CN115661677A (zh) * 2022-10-18 2023-01-31 武汉大学 一种基于暗通道特征引导的轻量级卫星影像云检测方法
CN116823664A (zh) * 2023-06-30 2023-09-29 中国地质大学(武汉) 一种遥感图像云去除方法及***

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108460739A (zh) * 2018-03-02 2018-08-28 北京航空航天大学 一种基于生成对抗网络的遥感图像薄云去除方法
CN108921799A (zh) * 2018-06-22 2018-11-30 西北工业大学 基于多尺度协同学习卷积神经网络的遥感图像薄云去除方法
WO2022095253A1 (zh) * 2020-11-04 2022-05-12 常州工学院 一种基于深度通道感知的去除云雾方法
CN114066755A (zh) * 2021-11-11 2022-02-18 南京航空航天大学 一种基于全波段特征融合的遥感影像薄云去除方法及***
CN115222614A (zh) * 2022-04-22 2022-10-21 湘潭大学 一种先验引导的多降质特征夜光遥感影像质量提升方法
CN115661677A (zh) * 2022-10-18 2023-01-31 武汉大学 一种基于暗通道特征引导的轻量级卫星影像云检测方法
CN115546076A (zh) * 2022-12-05 2022-12-30 耕宇牧星(北京)空间科技有限公司 一种基于卷积网络的遥感图像薄云去除方法
CN116823664A (zh) * 2023-06-30 2023-09-29 中国地质大学(武汉) 一种遥感图像云去除方法及***

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Hyperspectral Image Classification Based on Multiscale Spectral–Spatial Deformable Network;Jinnan Nie et.al。;IEEE GEOSCIENCE AND REMOTE SENSING LETTERS;20200923;第19卷;全文 *
基于多尺度特征融合与混合注意力的云检测算法;胡威等;电子测量技术;20230228;第46卷(第3期);第143-149页 *
遥感影像云检测和去除方法综述;徐萌等;计算机研究与发展;20230825;全文 *

Also Published As

Publication number Publication date
CN117611494A (zh) 2024-02-27

Similar Documents

Publication Publication Date Title
CN108830796B (zh) 基于谱空结合和梯度域损失的高光谱图像超分辨重构方法
CN112767251B (zh) 基于多尺度细节特征融合神经网络的图像超分辨率方法
Kim et al. An advanced contrast enhancement using partially overlapped sub-block histogram equalization
CN117611494B (zh) 一种全色遥感图像薄云去除方法
CN108564597B (zh) 一种融合高斯混合模型和h-s光流法的视频前景目标提取方法
CN112767279B (zh) 一种基于离散小波集成生成对抗网络的水下图像增强方法
CN103226832B (zh) 基于光谱反射率变化分析的多光谱遥感影像变化检测方法
CN111626951B (zh) 一种基于内容感知信息的图像阴影消除方法
Chen et al. Remote sensing image quality evaluation based on deep support value learning networks
CN111612741B (zh) 一种基于失真识别的精确无参考图像质量评价方法
CN111738954B (zh) 一种基于双层空洞U-Net模型的单帧湍流退化图像去畸变方法
US11983854B2 (en) Denoising images rendered using Monte Carlo renderings
CN111985381B (zh) 一种基于伸缩卷积神经网络的引导区域密集人群计数方法
CN112561846A (zh) 训练图像融合模型的方法、装置和电子设备
CN111179196B (zh) 一种基于分而治之的多分辨率深度网络图像去高光方法
CN114494821A (zh) 基于特征多尺度感知与自适应聚合的遥感影像云检测方法
Moghimi et al. Real-time underwater image resolution enhancement using super-resolution with deep convolutional neural networks
CN115358952A (zh) 一种基于元学习的图像增强方法、***、设备和存储介质
Zhao et al. Motion-blurred image restoration framework based on parameter estimation and fuzzy radial basis function neural networks
CN113705538A (zh) 基于深度学习的高分遥感影像道路变化检测装置及方法
CN106778822B (zh) 基于漏斗变换的图像直线检测方法
CN111461999A (zh) 一种基于超像素相似性测量的sar图像相干斑抑制方法
CN116703750A (zh) 基于边缘注意力和多阶微分损失的图像去雾方法及***
CN115984712A (zh) 基于多尺度特征的遥感图像小目标检测方法及***
Guan et al. DiffWater: Underwater image enhancement based on conditional denoising diffusion probabilistic model

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant