CN112270646B - 基于残差密集跳跃网络的超分辨增强方法 - Google Patents
基于残差密集跳跃网络的超分辨增强方法 Download PDFInfo
- Publication number
- CN112270646B CN112270646B CN202011224196.4A CN202011224196A CN112270646B CN 112270646 B CN112270646 B CN 112270646B CN 202011224196 A CN202011224196 A CN 202011224196A CN 112270646 B CN112270646 B CN 112270646B
- Authority
- CN
- China
- Prior art keywords
- network
- super
- layer
- image
- resolution
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 40
- 230000006870 function Effects 0.000 claims abstract description 15
- 238000001914 filtration Methods 0.000 claims abstract description 11
- 230000008447 perception Effects 0.000 claims abstract description 10
- 230000008569 process Effects 0.000 claims description 12
- 239000011159 matrix material Substances 0.000 claims description 5
- 230000004913 activation Effects 0.000 claims description 4
- 238000004364 calculation method Methods 0.000 claims description 2
- 239000010410 layer Substances 0.000 abstract description 63
- 230000000007 visual effect Effects 0.000 abstract description 11
- 238000005070 sampling Methods 0.000 abstract description 4
- 238000010276 construction Methods 0.000 abstract description 3
- 239000002356 single layer Substances 0.000 abstract description 2
- 238000012549 training Methods 0.000 description 24
- 238000005516 engineering process Methods 0.000 description 6
- 238000013135 deep learning Methods 0.000 description 3
- 238000013461 design Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000005457 optimization Methods 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 101100498818 Arabidopsis thaliana DDR4 gene Proteins 0.000 description 1
- 101100365548 Caenorhabditis elegans set-14 gene Proteins 0.000 description 1
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 230000008485 antagonism Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- PCHJSUWPFVWCPO-UHFFFAOYSA-N gold Chemical compound [Au] PCHJSUWPFVWCPO-UHFFFAOYSA-N 0.000 description 1
- 239000010931 gold Substances 0.000 description 1
- 229910052737 gold Inorganic materials 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4053—Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/10—Image enhancement or restoration using non-spatial domain filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于残差密集跳跃网络的超分辨增强方法,属于计算机视觉图像超分辨领域。首先将输入图像利用导向滤波分成两个成分:基层xb和细节层xd,并分别与原图连接组成新的输入分量Xbase layer和Xdetail layer,两分量分别通过一层卷积获取浅层特征,再经过三层双通道式SRDN网络学习深层特征分布,将两个通道信息组合,经上采样反卷积网络和单层卷积操作获得最终的超分辨图像。其中损失项引入内容损失、感知损失和颜色判别损失组成本网络结构的联合损失函数,以保证超分辨图像的纹理视觉信息和每个像素RGB向量的颜色正确性。本发明模型构建合理,算法鲁棒性强,超分辨增强后图像细节清晰自然,更符合人眼视觉需求,有着广泛的应用前景。
Description
技术领域
本发明属于计算机视觉图像超分辨领域,具体涉及一种基于残差密集跳跃网络的超分辨增强方法。
背景技术
超分辨技术作为计算机视觉的研究热点,越来越受到人工智能领域的关注。如:通过超分辨算法可使经典老电影的细节变得栩栩如生;通过将图像压缩传输,再用超分辨算法复原,可大大减少传输数据量,并减轻网络传输的带宽压力。基于超分辨技术处理后的图像或视频在分辨率和细节信息上提升很大,已广泛应用于老电影修复、遥感侦察、医学图像处理、超高清产业等领域。
从超分辨技术路线进行分类,超分辨率增强技术大致可以分为以下几类:基于插值方法、基于重构约束的方法和基于深度学***滑的结果,因为PSNR度量从根本上不同于人类视觉的主观评价,随后感知型驱动方法—基于生成对抗网络的超分辨模型被提出,并通过进一步结合语义图像先验来改进恢复的纹理细节,来提高超分辨后视觉质量。虽然以上方法能取得很好的效果,但仍存在一些不足,如基于卷积神经网络的超分辨模型没有引入感知损失,从而不能学习到更鲁棒更令人信服的视觉结果。基于生成对抗网络的超分辨网络模型利用感知损失能够达到比较好的视觉效果,但PSNR和SSIM(Structural Similarity,结构相似性)都不好,并且可解释性差,具有难以训练、不收敛。
发明内容
本发明提出一种基于残差密集跳跃网络(Skip Residual Dense Net,SRDN)的超分辨增强网络模型,能获取高质量的超分辨纹理细节等视觉信息。
一种基于残差密集跳跃网络的超分辨增强方法,该方法由以下步骤实现,网络结构流程图如:
步骤一、将输入图像利用导向滤波分成两个成分:基层xb和细节层xd,并分别与原图连接组成新的输入分量,即基层分量Xbase layer和细节层分量Xdetail layer;
步骤二、设计双通道式跳跃密集残差网络(SRDN),将基层分量Xbase layer和细节层分量Xdetail layer分别通过双通道式跳跃密集残差网络提取特征信息,得到两个通道特征信息;
步骤三、将两个通道特征信息利用同维连接操作组合,最后经反卷积和卷积操作获得最终的超分辨图像,建立超分辨增强网络模型;
步骤四、步骤四、在超分辨增强网络模型训练过程中,将内容损失、感知损失和颜色判别损失联合构建本网络模型的联合损失函数,利用联合损失函数对超分辨增强网络模型进行优化训练,获得最终的网络模型参数。
步骤一中所述的将输入图像转化成两个分量Xbase layer和Xdetail layer,其计算方式为:
Xbase layer=(x,xb),Xdetail layer=(x,xd),其中xb=GF(x),xd=x/xb
式中x为输入图像,GF表示导向滤波过程,/为矩阵点除。
所述步骤二中,所述的双通道式跳跃密集残差网络(SRDN)包括:两个并行设置的第一卷积网络通道和第二卷积网络通道,第一卷积网络通道包括:三个串联的残差密集网络,所述的残差密集网络由密度块网络和卷积层密集连接相加组成,第二卷积网络通道包括:三个串联的残差密集网络,所述的残差密集网络由密度块网络和卷积层密集连接相加组成,所述的第一卷积网络通道和第二卷积网络通道设置了跳跃连接。
所述步骤四中的损失函数,设计的联合损失函数,计算如下
LMSE=∑||gt-yt||2
式中,LMSE是内容损失,gt代表原始高清图像,yt代表通过本发明网络结构生成的超分辨图像;是引入的以预训练19层VGG网络的ReLU激活层为基础的VGG感知损失,通过计算第19层VGG网络特征空间中的像素距离获得,ΦVGG表示图像经19层VGG网络后提取的特征向量;LRGB是结合颜色深度特征针对性增加的余弦距离,以保证每个像素RGB向量的颜色正确性,其中/>代表图像gt的第j个像素值,N代表图像的像素总个数;λp和λD是平衡不同损失项的系数。
本发明的有益效果:
本发明首先将输入图像利用导向滤波分成两个成分:基层xb和细节层xd,并分别与原图连接组成新的输入分量Xbase layer和Xdetail layer,两分量分别通过一层卷积获取浅层特征,再经过三层双通道式SRDN网络学习深层特征分布,并利用同维连接操作将两个通道信息组合,最后经上采样反卷积网络和单层卷积操作获得最终的超分辨图像。其中损失项引入内容损失、感知损失和颜色判别损失组成本网络结构的联合损失函数,以保证超分辨图像的纹理视觉信息和每个像素RGB向量的颜色正确性。本发明模型构建合理,算法鲁棒性强,超分辨增强后图像细节清晰自然,更符合人眼视觉需求,有着广泛的应用前景。
本发明结合了基于卷积神经网络超分辨方法和基于对抗神经网络超分辨方法的优点,通过导向滤波将输入图像分成两个分量,以DNnet网络块为基础构建新的双通道跳跃式网络模型,能提取更多的深层特征信息,并抑制了伪像影响,提高了泛化能力;同时设计了新的损失函数,新损失函数引入内容损失、感知损失和颜色判别损失,进一步提高了超分辨图像的纹理视觉清晰度和每个像素RGB向量的颜色正确性。本发明模型构建合理,算法鲁棒性强,超分辨增强后图像细节清晰自然,更符合人眼视觉需求。
附图说明
图1是本发明所述的基于残差密集跳跃网络的超分辨增强方法中网络结构流程图。
图2是本发明所述的基于残差密集跳跃网络的超分辨增强方法中SRDN Block模块示意图。
图3是本发明所述的基于残差密集跳跃网络的超分辨增强方法中训练过程epoch与PSNR的对应变化曲线。
图4是本发明Dense block结构示意图;
图5是训练过程epoch与PSNR的对应变化曲线;
图6是本发明所述的基于残差密集跳跃网络的超分辨增强方法中2倍超分辨增强后图像,其中,(a)为原图,(b)为低分辨率图像,(c)为本发明超分辨图像。
图7是本发明所述的基于残差密集跳跃网络的超分辨增强方法中4倍超分辨增强后图像,其中,(a)为原图,(b)为低分辨率图像,(c)为本发明超分辨图像。
具体实施方式
具体实施方式一、结合图1说明本实施方式,图中Conv代表卷积层,Guided Filter表示导向滤波,SRDN即残差密集跳跃网络,Upsampling表示反卷积过程,Xbase layer和Xdetail layer分别代表基层输入分量和细节层输入分量,Concatenation表示同维连接。基于残差密集跳跃网络的超分辨增强方法,该方法通过导向滤波将输入图像分成两个分量,并针对性设计三层双通道式SRDN网络提取更多的特征信息,接着利用同维连接操作将两个通道信息组合,最后经反卷积和卷积操作获得最终的超分辨图像。
该方法由以下步骤实现:
步骤一、将输入图像利用导向滤波方法分成两个成分:基层xb和细节层xd,并分别与原图连接组成新的输入分量Xbase layer和Xdetail layer;
步骤二、设计双通道式残差密集跳跃网络(SRDN)网络,将基层分量Xbase layer和细节层分量Xdetail layer分别通过双通道SRDN提取特征信息;
步骤三、将两个通道特征信息利用同维连接操作组合,最后经反卷积和卷积操作获得最终的超分辨图像;
步骤四、超分辨增强网络模型通过以上步骤搭建,在网络模型训练过程中,本发明设计将内容损失、感知损失和颜色判别损失联合构建本网络模型的损失函数;
步骤一中,将输入图像通过导向滤波求解基层xb,代表包含低频分量的模糊彩色图像;再将输入图像与基层xb做矩阵点除获得细节层xd,其具有更多高频分量的边缘和细节信息;最后将两个滤波分量xb和xd分别与原图像连接组成新的分量:基层输入分量Xbase layer=(x,xb)和细节层输入分量Xdetail layer=(x,xd)作为新的输入。本发明求解分量的过程为
xb=GF(x) (1)
xd=x/xb (2)
其中,x为输入图像,GF表示导向滤波过程,/为矩阵点除。
步骤二中,残差密集跳跃网络(SRDN)如图2所示,具有两个并行卷积网络通道,即基层特征提取网络和细节层特征提取网络,前者网络主要集中重建彩色图像低频分量,后者网络集中恢复高频细节边缘分量,两者具有同样的卷积网络框架,但在两个并行网络通道中设计了跳跃连接,以连接两网络通道特征(图2下层网络左边第一个即表示跳跃连接,/>属于加法操作)。
两个特征网络通道皆由三个密度块网络(dense block net,DBnet)和卷积层密集连接(conv)相加组成,此设计的网络结构改进主要有两点:1)DBnet模块由四个稠密块(dense block,DB)密集级联组成,其更多的层和连接能提取更深的特征从而取得更好的效果,如图3所示。2)当训练和测试数据集的统计数据存在较大差异时,BN层(BatchNormalization,批归一化)容易产生不良伪像影响,限制泛化能力,因此本节在原有稠密块基础上设计了新的稠密块DB(图4),新稠密块移除了BN层,其能进一步提高泛化能力并降低计算复杂度和内存使用,同时在新稠密块的激活函数方面将Relu替换成PRelu,PRelu是带参数线性修正单元。
步骤三中,同维连接即将双通道特征信息矩阵按深度链接起来,上采样过程采用转置卷积方式。
步骤四中,本发明针对提出的网络结构,设计新的联合损失函数,如下
LMSE=∑||gt-yt||2 (4)
其中,LMSE是内容损失,gt代表原始高清图像,yt代表通过本发明网络结构生成的超分辨图像;是引入的以预训练19层VGG网络的ReLU激活层为基础的VGG感知损失,通过计算第19层VGG网络特征空间中的像素距离获得;LRGB是结合颜色深度特征针对性增加的余弦距离,以保证每个像素RGB向量的颜色正确性,其中/>代表图像gt的第j个像素值,N代表图像的像素总个数;λp和λD是平衡不同损失项的系数。
具体实施方式二、结合图1至图5说明本实施方式,本实施方式将具体实施方式一所述的方法用深度学习工作站进行训练和测试。硬件实验环境搭载Intel(R)Xeon(R)[email protected]、包含一块Tesla V100卡、32GB DDR4内存;软件使用tensorflow2.0框架、python3.7和linux***。
首先,进行2×超分辨增强模型训练,采用DIV2K数据集构建本发明网络模型训练集:将原数据集图像采用2倍下采样做为训练集输入,原数据集做为训练集标签图像,然后输入到网络进行训练优化。网络参数初始化阶段设置100个epoch,学习率设置为0.0001,动量设置为0.9;网络共设置1000的epoch,网络训练学习率初始设置为0.1,并随着epoch增大逐渐减小学习率,动量设置为0.9。在整个训练过程,梯度下降优化方法采用Adam算法,batch-size设置为8,训练完成后获得2倍超分辨增强模型参数。训练过程epoch与PSNR的对应变化曲线如图5所示。
其次,利用相同的DIV2K数据集进行4×超分辨增强模型训练,本发明网络模型训练集如下:将原数据集图像采用4倍下采样做为训练集输入,原数据集做为训练集标签图像,然后输入到网络进行训练优化。其它学习率、动量和batch-size等参数设置不变,训练完成后获得4倍超分辨增强模型参数。
然后,2×和4×超分辨增强网络结构参数训练完成后,利用超分辨领域通用的Set5和Set14数据分别进行测试对比测试,超分辨后的图像如图6、7所示。
通过实验可以看出,本发明超分辨增强图像细节清晰自然,提高了分辨率,符合人眼视觉需求,证明了本发明的有效性。
Claims (2)
1.一种基于残差密集跳跃网络的超分辨增强方法,其特征在于,包括以下步骤:
步骤一、将输入图像利用导向滤波分成两个成分:基层xb和细节层xd,并分别与原图连接组成新的输入分量,即基层分量Xbase layer和细节层分量Xdetail layer;
步骤二、设计双通道式跳跃密集残差网络,将基层分量Xbase layer和细节层分量Xdetail layer分别通过双通道式跳跃密集残差网络提取特征信息,得到两个通道特征信息;
所述步骤二中所述的双通道式跳跃密集残差网络包括:两个并行设置的第一卷积网络通道和第二卷积网络通道,第一卷积网络通道包括:三个串联的残差密集网络,所述的残差密集网络由密度块网络和卷积层密集连接相加组成,第二卷积网络通道包括:三个串联的残差密集网络,所述的残差密集网络由密度块网络和卷积层密集连接相加组成,所述的第一卷积网络通道和第二卷积网络通道设置了跳跃连接;
步骤三、将两个通道特征信息利用同维连接操作组合,最后经反卷积和卷积操作获得最终的超分辨图像,建立超分辨增强网络模型;
步骤四、将内容损失、感知损失和颜色判别损失联合构建本网络模型的联合损失函数,利用联合损失函数对超分辨增强网络模型进行优化训练,获得最终的网络模型参数;
所述步骤四中设计的联合损失函数,计算如下:
LMSE=∑||gt-yt||2
2.根据权利要求1所述的基于残差密集跳跃网络的超分辨增强方法,其特征在于,步骤一中所述的将输入图像转化成两个分量Xbase layer和Xdetail layer,其计算方式为:
Xbase layer=(x,xb),Xdetail layer=(x,xd),其中xb=GF(x),xd=x/xb
式中x为输入图像,GF表示导向滤波过程,/为矩阵点除。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011224196.4A CN112270646B (zh) | 2020-11-05 | 2020-11-05 | 基于残差密集跳跃网络的超分辨增强方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011224196.4A CN112270646B (zh) | 2020-11-05 | 2020-11-05 | 基于残差密集跳跃网络的超分辨增强方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112270646A CN112270646A (zh) | 2021-01-26 |
CN112270646B true CN112270646B (zh) | 2023-06-09 |
Family
ID=74345815
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011224196.4A Active CN112270646B (zh) | 2020-11-05 | 2020-11-05 | 基于残差密集跳跃网络的超分辨增强方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112270646B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112991199B (zh) * | 2021-02-08 | 2024-02-09 | 西安理工大学 | 一种基于残差密集网络的图像高低频分解噪声去除方法 |
CN115552415A (zh) * | 2021-04-30 | 2022-12-30 | 京东方科技集团股份有限公司 | 图像处理方法、装置、电子设备及存储介质 |
CN114049261B (zh) * | 2022-01-13 | 2022-04-01 | 武汉理工大学 | 一种关注前景信息的图像超分辨率重建方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104361557A (zh) * | 2014-10-17 | 2015-02-18 | 中山大学 | 一种基于稀疏编码的快速视频放大方法及*** |
CN109978762A (zh) * | 2019-02-27 | 2019-07-05 | 南京信息工程大学 | 一种基于条件生成对抗网络的超分辨率重建方法 |
CN110120011A (zh) * | 2019-05-07 | 2019-08-13 | 电子科技大学 | 一种基于卷积神经网络和混合分辨率的视频超分辨方法 |
CN111784582A (zh) * | 2020-07-08 | 2020-10-16 | 桂林电子科技大学 | 一种基于dec_se的低照度图像超分辨率重建方法 |
-
2020
- 2020-11-05 CN CN202011224196.4A patent/CN112270646B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104361557A (zh) * | 2014-10-17 | 2015-02-18 | 中山大学 | 一种基于稀疏编码的快速视频放大方法及*** |
CN109978762A (zh) * | 2019-02-27 | 2019-07-05 | 南京信息工程大学 | 一种基于条件生成对抗网络的超分辨率重建方法 |
CN110120011A (zh) * | 2019-05-07 | 2019-08-13 | 电子科技大学 | 一种基于卷积神经网络和混合分辨率的视频超分辨方法 |
CN111784582A (zh) * | 2020-07-08 | 2020-10-16 | 桂林电子科技大学 | 一种基于dec_se的低照度图像超分辨率重建方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112270646A (zh) | 2021-01-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110969577B (zh) | 一种基于深度双重注意力网络的视频超分辨率重建方法 | |
CN112270646B (zh) | 基于残差密集跳跃网络的超分辨增强方法 | |
CN107123089B (zh) | 基于深度卷积网络的遥感图像超分辨重建方法及*** | |
CN106952228B (zh) | 基于图像非局部自相似性的单幅图像的超分辨率重建方法 | |
CN111028150B (zh) | 一种快速时空残差注意力视频超分辨率重建方法 | |
CN109889800B (zh) | 图像增强方法和装置、电子设备、存储介质 | |
CN111861902A (zh) | 基于深度学习的Raw域视频去噪方法 | |
CN111951164B (zh) | 一种图像超分辨率重建网络结构及图像重建效果分析方法 | |
CN111612695B (zh) | 一种低分辨率人脸图像超分辨重建方法 | |
CN116051428B (zh) | 一种基于深度学习的联合去噪与超分的低光照图像增强方法 | |
CN116797462B (zh) | 基于深度学习的实时视频超分辨率重建方法 | |
CN115880158A (zh) | 一种基于变分自编码的盲图像超分辨率重建方法及*** | |
CN113379606B (zh) | 一种基于预训练生成模型的人脸超分辨方法 | |
CN117408924A (zh) | 一种基于多重语义特征融合网络的低光照图像增强方法 | |
CN117422653A (zh) | 一种基于权重共享和迭代数据优化的低光照图像增强方法 | |
CN116823662A (zh) | 一种融合原生特征的图像去噪去模糊方法 | |
CN113674154B (zh) | 一种基于生成对抗网络的单幅图像超分辨率重建方法及*** | |
Fuentes-Hurtado et al. | MID3A: microscopy image denoising meets differentiable data augmentation | |
CN114549361B (zh) | 一种基于改进U-Net模型的去图像运动模糊方法 | |
CN112348745B (zh) | 一种基于残差卷积网络的视频超分辨率重构方法 | |
CN115861749A (zh) | 一种基于窗***叉注意力的遥感图像融合方法 | |
CN115375540A (zh) | 一种基于深度学习算法的太赫兹图像超分辨方法 | |
CN114638761A (zh) | 一种高光谱图像全色锐化方法、设备及介质 | |
CN114998138B (zh) | 一种基于注意力机制的高动态范围图像去伪影方法 | |
CN118071656B (zh) | 一种基于Vision Transformer的水下图像增强方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |