CN114240814A - 基于金字塔调制注入的多光谱与全色遥感影像融合方法 - Google Patents

基于金字塔调制注入的多光谱与全色遥感影像融合方法 Download PDF

Info

Publication number
CN114240814A
CN114240814A CN202111557631.XA CN202111557631A CN114240814A CN 114240814 A CN114240814 A CN 114240814A CN 202111557631 A CN202111557631 A CN 202111557631A CN 114240814 A CN114240814 A CN 114240814A
Authority
CN
China
Prior art keywords
spatial
space
spectral
multispectral
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202111557631.XA
Other languages
English (en)
Other versions
CN114240814B (zh
Inventor
袁媛
孙义
张园林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northwestern Polytechnical University
Original Assignee
Northwestern Polytechnical University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northwestern Polytechnical University filed Critical Northwestern Polytechnical University
Priority to CN202111557631.XA priority Critical patent/CN114240814B/zh
Publication of CN114240814A publication Critical patent/CN114240814A/zh
Application granted granted Critical
Publication of CN114240814B publication Critical patent/CN114240814B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • G06T2207/10036Multispectral image; Hyperspectral image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于金字塔调制注入的多光谱与全色遥感影像融合方法,首先将一对多光谱影像和全色影像进行分割,得到多组内容相同的配对的多光谱影像块和全色影像块;然后进行特征空间映射与转换,得到光谱映射向量和空间映射向量;接下来进行特征提取,再根据光谱特征图和空间特征图得到注入系数,将注入***注入到光谱特征图中,得到空谱联合特征;最终经过上两轮上采样得到同时具备高空间分辨率和高光谱分辨率的影像。本发明依靠光谱信息和空间信息的全局依赖关系完成对多光谱影像的空间分辨率提升,使得融合影像在光谱和空间域上做到了有效的双重保真。

Description

基于金字塔调制注入的多光谱与全色遥感影像融合方法
技术领域
本发明属于图像处理技术领域,具体涉及一种多光谱与全色遥感影像融合方法。
背景技术
基于多光谱影像与全色影像的遥感影像融合任务的目标是:充分利用高分辨率全色影像和低分辨率多光谱影像,得到同时具有高空间分辨率、高光谱分辨率的融合影像。
现有融合方法可以划分为传统线性和深度学习这两类的方法。传统方法采用空间转换,空间分解操作或手工添加一定的约束内容在融合的过程中,在过去的一段时间里,这些方法都取得了不错的效果。但随着深度学习的兴起,传统方法有限的学习能力暴露了出来,而深度学习方法能够客观,自动地学习特征,并以极强的非线性能力和简洁的优化方式,使得融合方法的性能得到大幅提升。下面将对目前存在的深度学习融合方法进行详细的描述。
第一个是Deng等人在文献“L.Deng,G.Vivone,C.Jin,and J.Chanussot,DetailInjection-Based Deep Convolutional Neural Networks for Pansharpening,IEEETransactions on Geoscience and Remote Sensing,vol.59,no.8,pp.6995-7010,2021.”中提出了使用细节注入的遥感影像融合方法。该工作使用全色影像与上采样多光谱影像的差分信息作为训练输入,利用卷积神经网络的学习能力,为融合图像生成各波段所需要的空间细节信息。但是该方法直接将多光谱影像简单插值处理到与全色影像在一个统一的尺度上,并将生成的空间细节直接注入到多光谱影像中,忽略了对空间特征的调制,导致融合影像的光谱特性和空间特性被破坏。
第二个是Liu等人在文献“L.Liu,J.Wang,E.Zhang,B.Li,X.Zhu,Y.Zhang,andJ.Peng,Shallow–Deep Convolutional Network and Spectral-Discrimination-BasedDetail Injection for Multispectral Imagery Pan-Sharpening,IEEE Journal ofSelected Topics in Applied Earth Observations and Remote Sensing,vol.13,pp.1772-1783,2020.”提出了一种基于多波段空间注入的浅-深层卷积神经网络。该工作通过为全色影像生成多个波段来实现对多光谱影像的空间增强。由于考虑到了多光谱影像各波段需要的空间细节不同这一重要因素,所以融合效果有所提升。但是该项工作在特征提取的过程中仍是直接将多光谱影像简单插值处理到与全色影像在一个统一的尺度上,同时简单的加权平均后就直接将全色影像的空间信息注入到多光谱影像中,使得融合影像出现了十分严重的光谱真或空间失真。
发明内容
为了克服现有技术的不足,本发明提供了一种基于金字塔调制注入的多光谱与全色遥感影像融合方法,首先将一对多光谱影像和全色影像进行分割,得到多组内容相同的配对的多光谱影像块和全色影像块;然后进行特征空间映射与转换,得到光谱映射向量和空间映射向量;接下来进行特征提取,再根据光谱特征图和空间特征图得到注入系数,将注入***注入到光谱特征图中,得到空谱联合特征;最终经过上两轮上采样得到同时具备高空间分辨率和高光谱分辨率的影像。本发明依靠光谱信息和空间信息的全局依赖关系完成对多光谱影像的空间分辨率提升,使得融合影像在光谱和空间域上做到了有效的双重保真。
本发明解决其技术问题所采用的技术方案包括如下步骤:
步骤1:输入影像制作;
将一对多光谱影像和全色影像进行分割,得到多组内容相同的配对的多光谱影像块和全色影像块;
步骤2:特征空间映射与转换;
将一组配对的多光谱影像块和全色影像块输入双流特征提取模块,所述双流特征提取模块分为两个并行支路,每个支路包括多个卷积层和多个残差块;多光谱影像块和全色影像块分别进入双流特征提取模块的两个支路,分别通过多个卷积层后完成由低维影像空间到各自高维特征空间的映射和转换,由多光谱影像得到光谱映射向量,由全色影像块得到空间映射向量;
步骤3:特征提取;
再将光谱映射向量和空间映射向量分别输入各自支路的多个残差块进行特征提取,分别得到光谱特征图和空间特征图;
步骤4:光谱特征图空间细节增强;
步骤4-1:线性映射;
对光谱特征图和空间特征图分别进行线性映射,并分别对线性映射后的得到的光谱向量和空间向量做维度匹配,使光谱向量和空间向量能够进行矩阵相乘运算;
步骤4-2:注入系数生成;
对维度匹配的光谱向量和空间向量做矩阵运算,得到光谱和空间的全局特征表示;并将光谱和空间的全局特征表示归一化后形成空间特征图的注入系数;
步骤4-3:空间注入;
将空间特征图的注入系数与空间特征图相乘,得到校准后的空间特征图;再将校准后的空间特征与光谱特征图相加,得到空间细节增强的光谱特征图;
步骤5:空谱联合特征提取;
将空间细节增强的光谱特征图输入多个残差块,进行特征提取,得到空谱联合特征图;
步骤6:上采样;
对空谱联合特征图执行上采样,实现空谱联合特征图在空间维度的2倍扩大;
步骤7:迭代融合;
返回步骤4,将空谱联合特征图作为步骤4中的光谱特征图,保持空间特征图不变,重新执行步骤4到步骤6,得到新的空间维度4倍扩大的空谱联合特征图;
步骤8:遍历步骤1得到的多组内容相同的配对的多光谱影像块和全色影像块,执行步骤2到步骤7,将所有配对的多光谱影像块和全色影像块生成的空谱联合特征图进行拼接,最终得到同时具备高空间分辨率和高光谱分辨率的影像。
优选地,所述步骤4-1中的线性映射1x1卷积线性映射。
优选地,所述上采样为金字塔渐进式上采样、插值上采样、转置卷积上采样和通道洗牌上采样中之一。
本发明的有益效果如下:
1、对源影像的跨尺度差异更鲁棒。本发明基于金字塔渐进式上采样完成对多光谱影像的逐步上采样以及在不同尺度级别上的特征处理,增大了对源影像尺度差异的缓冲,提高了方法的跨尺度学习能力。
2、对空间细节注入更匹配。本发明考虑到了多光谱影像和全色影像的成像范围差异,将所提取到的空间特征进行调制,从而得到更加符合光谱特征的空间细节,降低了对光谱特性和空间特性的破坏。
3、融合性能更好,推理速度快。本发明依靠光谱信息和空间信息的全局依赖关系完成对多光谱影像的空间分辨率提升,使得融合影像在光谱和空间域上做到了有效的双重保真,同时结合多次的残差学习及渐进式学习,使得网络收敛更快,学习更易,同时避免造成大量的计算。
4、方法更有实用价值。本发明是基于多光谱和全色的遥感影像融合,融合所得到的高空间和高光谱分辨率的影像,其应用范围十分广泛。相比于源影像,本发明对土地覆盖分类,变化检测,城市规划等任务,具有更高的实用价值及更多的实用领域。
附图说明
图1为本发明方法的框架图。
图2为本发明方法的流程图。
图3为本发明方法与其它对比方法的生成的高空间和高分辨率影像的结果,其中(a)低分辨率多光谱影像,(b)全色影像,(c)PNN,(d)PanNet,(e)DICNN,(f)DCNN,(g)SRPPNN,(h)PDIMN。。
具体实施方式
下面结合附图和实施例对本发明进一步说明。
本发明基于深度学习的方法,主要提出了一种新的融合框架及空间调制方式,分别适用于解决多光谱影像和全色影像内在的影像尺度差异,以及在不同尺度上空间调制的保真。由于本发明有效地保护了融合影像的光谱特性和空间特性,因此本发明的融合结果在光谱和空间上可以做到双重保真,且融合性能有进一步的提升。
如图1和图2所示,一种基于金字塔调制注入的多光谱与全色遥感影像融合方法,包括如下步骤:
步骤1:输入影像制作;
将一对多光谱影像和全色影像进行分割,得到多组内容相同的配对的多光谱影像块和全色影像块;
步骤2:特征空间映射与转换;
将一组配对的多光谱影像块和全色影像块输入双流特征提取模块,所述双流特征提取模块分为两个并行支路,每个支路包括多个卷积层和多个残差块;多光谱影像块和全色影像块分别进入双流特征提取模块的两个支路,分别通过多个卷积层后完成由低维影像空间到各自高维特征空间的映射和转换,由多光谱影像得到光谱映射向量,由全色影像块得到空间映射向量;
步骤3:特征提取;
再将光谱映射向量和空间映射向量分别输入各自支路的多个残差块进行特征提取,分别得到光谱特征图和空间特征图;
步骤4:光谱特征图空间细节增强;
步骤4-1:线性映射;
对光谱特征图和空间特征图分别进行线性映射,并分别对线性映射后的得到的光谱向量和空间向量做维度匹配,使光谱向量和空间向量能够进行矩阵相乘运算;具体为:
1x1卷积对光谱特征图线性映射一次,得到一个维度为(H,W,C)的向量,并将维度转换为(C,HW),1x1卷积对空间特征图线性映射两次,得到两个维度为(H,W,C)的向量,并将维度转为(HW,C)和(C,HW)的向量;
步骤4-2:注入系数生成;
对维度匹配的光谱向量和空间向量做矩阵运算,得到光谱和空间的全局特征表示;并将光谱和空间的全局特征表示归一化后形成空间特征图的注入系数;具体为:
将光谱映射维度为(C,HW)的向量与空间映射维度为(HW,C)的向量做矩阵乘法输出维度为(C,C)的向量;利用softmax函数将其归一化后,与空间映射维度为(C,HW)的向量做矩阵乘法,得到维度为(C,HW),最后维度转换到(H,W,C),形成注入系数;
步骤4-3:空间注入;
将空间特征图的注入系数与空间特征图相乘,得到校准后的空间特征图;再将校准后的空间特征与光谱特征图相加,得到空间细节增强的光谱特征图;
步骤5:空谱联合特征提取;
将空间细节增强的光谱特征图输入多个残差块,进行特征提取,得到空谱联合特征图;
步骤6:金字塔上采样;
对空谱联合特征图执行金字塔渐进式上采样,实现空谱联合特征图在空间维度的2倍扩大;
步骤7:迭代融合;
返回步骤4,将空谱联合特征图作为步骤4中的光谱特征图,保持空间特征图不变,重新执行步骤4到步骤6,得到新的空间维度4倍扩大的空谱联合特征图;
步骤8:遍历步骤1得到的多组内容相同的配对的多光谱影像块和全色影像块,执行步骤2到步骤7,将所有配对的多光谱影像块和全色影像块生成的空谱联合特征图进行拼接,最终得到同时具备高空间分辨率和高光谱分辨率的影像。
具体实施例:
1.仿真条件
本实施例是在TITAN-X GPU、显存12G、Ubuntu 18.04操作***上,运行Pytorch深度学习框架进行的仿真。
2.仿真内容
仿真中使用的数据为来自QuickBird卫星(公开数据集)的1505张配对的多光谱影像和全色影像(尺寸大小分别为32x 32和128x 128),每一个影像经过下采样得到低分辨率下的影像作为训练数据,而自身作为真实影像存在,以便作为评判标准。
为了证明方法的有效性,在QuickBird卫星上选择了PNN,PanNet,MSDCNN,DiCNN,DCNN和SRPPNN作为对比方法。
其中,PNN是利用文献“G.Masi,D.Cozzolino,L.Verdoliva,and G.Scarpa,Pansharpening by convolutional neural networks,Remote Sensing,vol.8,no.7,p.594,2016.”提出的融合方法;
PanNet是利用文献“J.Yang,X.Fu,Y.Hu,Y.Huang,X.Ding,and J.Paisley,PanNet:A Deep Network Architecture for Pan-Sharpening,in Proc.IEEEInternational Conference on Computer Vision,2017,pp.1753-1761.”提出的融合方法;
MSDCNN是在文献“Q.Yuan,Y.Wei,X.Meng,H.Shen,and L.Zhang,A Multiscaleand Multidepth Convolutional Neural Network for Remote Sensing Imagery Pan-Sharpening,IEEE Journal of Selected Topics in Applied Earth Observations andRemote Sensing,vol.11,no.3,pp.978-989,2018.”中提出的融合方法;
DiCNN是在文献“L.He,Y.Rao,J.Li,J.Chanussot,A.Plaza,J.Zhu,and B.Li,Pansharpening via Detail Injection Based Convolutional Neural Networks,IEEEJournal of Selected Topics in Applied Earth Observations and Remote Sensing,vol.12,no.4,pp.1188-1204,2019.”中提出的融合方法;
DCNN是在文献“L.Deng,G.Vivone,C.Jin,and J.Chanussot,Detail Injection-Based Deep Convolutional Neural Networks for Pansharpening,IEEE Transactionson Geoscience and Remote Sensing,vol.59,no.8,pp.6995-7010,2021.”中提出的融合方法;
SRPPNN是在文献“J.Cai and B.Huang,Super-resolution-guided progressivepansharpening based on a deep convolutional neural network,IEEE Transactionson Geoscience and Remote Sensing,vol.59,no.6,pp.5206–5220,2021.”中提出的融合方法。
PDIMN是我们的方法所得到的结果,PSNR、SSIM、CC、SAM是融合影像质量的评价指标,对比结果如表1所示:
表1 QuickBird数据集验证实验
方法 PNN PanNet DiCNN DCDNN SRPPNN PDIMN
PSNR 34.3108 23.6141 29.4532 38.6042 38.5339 38.6292
SSIM 0.9335 0.7230 0.7546 0.9704 0.9703 0.9714
CC 0.9791 0.7724 0.9353 0.9922 0.9921 0.9922
SAM 0.1481 0.1737 0.1443 0.1346 0.1355 0.1345
从表1可见,在QuickBird数据库上,本发明的融合影像质量要明显优于其它方法。
图3是为本发明以及其它对比方法的生成的高空间和高分辨率影像的结果。从中看出,现有的方法生成的融合影像要么有光谱畸变,要么有空间畸变。而利用本发明方法(PDIMN)生成的融合影像和真实影像几乎完全相同。

Claims (3)

1.一种基于金字塔调制注入的多光谱与全色遥感影像融合方法,其特征在于,包括如下步骤:
步骤1:输入影像制作;
将一对多光谱影像和全色影像进行分割,得到多组内容相同的配对的多光谱影像块和全色影像块;
步骤2:特征空间映射与转换;
将一组配对的多光谱影像块和全色影像块输入双流特征提取模块,所述双流特征提取模块分为两个并行支路,每个支路包括多个卷积层和多个残差块;多光谱影像块和全色影像块分别进入双流特征提取模块的两个支路,分别通过多个卷积层后完成由低维影像空间到各自高维特征空间的映射和转换,由多光谱影像得到光谱映射向量,由全色影像块得到空间映射向量;
步骤3:特征提取;
再将光谱映射向量和空间映射向量分别输入各自支路的多个残差块进行特征提取,分别得到光谱特征图和空间特征图;
步骤4:光谱特征图空间细节增强;
步骤4-1:线性映射;
对光谱特征图和空间特征图分别进行线性映射,并分别对线性映射后的得到的光谱向量和空间向量做维度匹配,使光谱向量和空间向量能够进行矩阵相乘运算;
步骤4-2:注入系数生成;
对维度匹配的光谱向量和空间向量做矩阵运算,得到光谱和空间的全局特征表示;并将光谱和空间的全局特征表示归一化后形成空间特征图的注入系数;
步骤4-3:空间注入;
将空间特征图的注入系数与空间特征图相乘,得到校准后的空间特征图;再将校准后的空间特征与光谱特征图相加,得到空间细节增强的光谱特征图;
步骤5:空谱联合特征提取;
将空间细节增强的光谱特征图输入多个残差块,进行特征提取,得到空谱联合特征图;
步骤6:上采样;
对空谱联合特征图执行上采样,实现空谱联合特征图在空间维度的2倍扩大;
步骤7:迭代融合;
返回步骤4,将空谱联合特征图作为步骤4中的光谱特征图,保持空间特征图不变,重新执行步骤4到步骤6,得到新的空间维度4倍扩大的空谱联合特征图;
步骤8:遍历步骤1得到的多组内容相同的配对的多光谱影像块和全色影像块,执行步骤2到步骤7,将所有配对的多光谱影像块和全色影像块生成的空谱联合特征图进行拼接,最终得到同时具备高空间分辨率和高光谱分辨率的影像。
2.根据权利要求1所述的一种基于金字塔调制注入的多光谱与全色遥感影像融合方法,其特征在于,所述步骤4-1中的线性映射1x1卷积线性映射。
3.根据权利要求1所述的一种基于金字塔调制注入的多光谱与全色遥感影像融合方法,其特征在于,所述上采样为金字塔渐进式上采样、插值上采样、转置卷积上采样和通道洗牌上采样中之一。
CN202111557631.XA 2021-12-19 2021-12-19 基于金字塔调制注入的多光谱与全色遥感影像融合方法 Active CN114240814B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111557631.XA CN114240814B (zh) 2021-12-19 2021-12-19 基于金字塔调制注入的多光谱与全色遥感影像融合方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111557631.XA CN114240814B (zh) 2021-12-19 2021-12-19 基于金字塔调制注入的多光谱与全色遥感影像融合方法

Publications (2)

Publication Number Publication Date
CN114240814A true CN114240814A (zh) 2022-03-25
CN114240814B CN114240814B (zh) 2024-02-23

Family

ID=80758875

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111557631.XA Active CN114240814B (zh) 2021-12-19 2021-12-19 基于金字塔调制注入的多光谱与全色遥感影像融合方法

Country Status (1)

Country Link
CN (1) CN114240814B (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120000736A (ko) * 2010-06-28 2012-01-04 서울대학교산학협력단 영상의 분광 및 공간특성이 반영된 융합계수를 이용하여 고해상도 위성영상을 융합하는 방법
CN109767412A (zh) * 2018-12-28 2019-05-17 珠海大横琴科技发展有限公司 一种基于深度残差神经网络的遥感影像融合方法及***
CN112669248A (zh) * 2020-12-28 2021-04-16 西安电子科技大学 基于cnn与拉普拉斯金字塔的高光谱与全色图像融合方法
CN113689370A (zh) * 2021-07-27 2021-11-23 南京信息工程大学 基于深度卷积神经网络的遥感图像融合方法
CN113763299A (zh) * 2021-08-26 2021-12-07 中国人民解放军军事科学院国防工程研究院工程防护研究所 一种全色与多光谱图像融合方法、装置及其应用

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120000736A (ko) * 2010-06-28 2012-01-04 서울대학교산학협력단 영상의 분광 및 공간특성이 반영된 융합계수를 이용하여 고해상도 위성영상을 융합하는 방법
CN109767412A (zh) * 2018-12-28 2019-05-17 珠海大横琴科技发展有限公司 一种基于深度残差神经网络的遥感影像融合方法及***
CN112669248A (zh) * 2020-12-28 2021-04-16 西安电子科技大学 基于cnn与拉普拉斯金字塔的高光谱与全色图像融合方法
CN113689370A (zh) * 2021-07-27 2021-11-23 南京信息工程大学 基于深度卷积神经网络的遥感图像融合方法
CN113763299A (zh) * 2021-08-26 2021-12-07 中国人民解放军军事科学院国防工程研究院工程防护研究所 一种全色与多光谱图像融合方法、装置及其应用

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
方帅;潮蕾;曹风云;: "自适应权重注入机制遥感图像融合", 中国图象图形学报, no. 03, 16 March 2020 (2020-03-16) *

Also Published As

Publication number Publication date
CN114240814B (zh) 2024-02-23

Similar Documents

Publication Publication Date Title
CN110415199B (zh) 基于残差学习的多光谱遥感图像融合方法及装置
CN110660038B (zh) 一种基于生成对抗网络的多光谱图像与全色图像融合方法
CN111127374B (zh) 一种基于多尺度密集网络的Pan-sharpening方法
CN109727207B (zh) 基于光谱预测残差卷积神经网络的高光谱图像锐化方法
CN114119444B (zh) 一种基于深度神经网络的多源遥感图像融合方法
Hu et al. Pan-sharpening via multiscale dynamic convolutional neural network
CN110544212B (zh) 基于层级特征融合的卷积神经网络高光谱图像锐化方法
CN112488978A (zh) 基于模糊核估计的多光谱图像融合成像方法及***
Yang et al. License plate image super-resolution based on convolutional neural network
CN114254715A (zh) 一种gf-1 wfv卫星影像超分辨率方法、***及应用
Huang et al. Deep Gaussian scale mixture prior for image reconstruction
Dong et al. Real-world remote sensing image super-resolution via a practical degradation model and a kernel-aware network
Hui et al. Two-stage convolutional network for image super-resolution
CN115760814A (zh) 一种基于双耦合深度神经网络的遥感图像融合方法及***
CN114266957A (zh) 一种基于多降质方式数据增广的高光谱图像超分辨率复原方法
Wang et al. Multiresolution analysis pansharpening based on variation factor for multispectral and panchromatic images from different times
Deng et al. Multiple frame splicing and degradation learning for hyperspectral imagery super-resolution
CN114140357A (zh) 一种基于协同注意力机制的多时相遥感图像云区重建方法
CN113744134A (zh) 基于光谱解混卷积神经网络的高光谱图像超分辨方法
Li et al. Super-resolution of Sentinel-2 images at 10m resolution without reference images
CN114240814B (zh) 基于金字塔调制注入的多光谱与全色遥感影像融合方法
Cheng et al. Remote sensing image super-resolution using multi-scale convolutional sparse coding network
CN111899166A (zh) 一种基于深度学习的医学高光谱显微图像超分辨重构方法
CN116309221A (zh) 一种多光谱图像融合模型的构建方法
CN115100075A (zh) 基于光谱约束和残差注意力网络的高光谱全色锐化方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant