CN109272450A - 一种基于卷积神经网络的图像超分方法 - Google Patents

一种基于卷积神经网络的图像超分方法 Download PDF

Info

Publication number
CN109272450A
CN109272450A CN201810959380.XA CN201810959380A CN109272450A CN 109272450 A CN109272450 A CN 109272450A CN 201810959380 A CN201810959380 A CN 201810959380A CN 109272450 A CN109272450 A CN 109272450A
Authority
CN
China
Prior art keywords
feature
image
unit
network
layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810959380.XA
Other languages
English (en)
Other versions
CN109272450B (zh
Inventor
颜波
马晨曦
巴合提亚尔·巴热
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fudan University
Original Assignee
Fudan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fudan University filed Critical Fudan University
Priority to CN201810959380.XA priority Critical patent/CN109272450B/zh
Publication of CN109272450A publication Critical patent/CN109272450A/zh
Application granted granted Critical
Publication of CN109272450B publication Critical patent/CN109272450B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4053Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
    • G06T3/4076Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution using the original low-resolution images to iteratively correct the high-resolution images

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明属于图像编辑技术领域,具体为一种基于卷积神经网络的图像超分方法。卷积神经网络包括:特征提取网络、特征学习网络、图像重构网络;方法包括:通过特征提取网络,提取图像特征;通过特征学习网络,学习出高分辨率图像特征;通过图像重构网络重构图像三个阶段。本发明提出的分层特征学习的网络结构可以让网络中的每一阶段充分利用网络中所有不同层级学到的特征信息,还很大程度上保留了网络中的重要特征,减少特征损失,实现了最大程度的特征利用,同时避免了特征的重复及冗余。实验结果表明,本方法生成了具有更符合主观视觉质量的高分辨率图像,恢复了逼真的细节纹理信息,还实现了较高效的图像超分过程,具有较强的实用价值。

Description

一种基于卷积神经网络的图像超分方法
技术领域
本发明属于图像编辑技术领域,具体涉及一种图像超分方法。
背景技术
图像分辨率是衡量图像质量的一项重要指标,分辨率越高,细节越精细,质量越佳,图像包含的信息量越丰富。因此具有更高分辨率的图像在各种计算机视觉任务,如军事安全,卫星监控,交通监管,刑事调查等应用中都有着重要的应用价值及研究前景。但由于成本问题,通常在实际情况中的图像采集、存储、传输过程会不可避免受到外在条件限制或其它干扰,导致其存在不同程度的质量退化。
图像超分技术是作为图像质量增强技术的研究分支。它旨在从低分辨率图像恢复出高分辨率图像中的信息,是一门科学研究价值高、应用领域广泛的现代图像处理技术。图像超分不仅是简单的扩大图像的尺寸,它产生了新的包含更有价值信息的图像。而图像超分技术采用基于信号处理的方法提高图像分辨率,是一种有效提高图像分辨率、改善图像性能的途径,并且该方法成本低,因此对高效高质量的图像超分技术的研究显得更加重要。
图像超分可以通过基于插值的算法、基于实例方法和基于神经网络的方法来实现。早期的超分方法是基于插值的,如双三次插值和兰索斯重采样[1],由于超分是一种不适定问题,每个像素从低分辨率图像到高分辨率图像的映射上有许多解,并且这类方法仅使用低分辨率图像的信息,因此很难模拟真实图像的视觉复杂性,对于纹理复杂、平滑着色的图像,插值法很可能生成不真实的效果。不能很好地重构出高分辨率图像。
因此,超分需要很强的先验来约束解空间,最近大多数较好的方法采用基于实例的策略来学习强大的先验知识。该方法通过找到多个低分辨率碎片与高分辨率碎片间的对应关系,为每个低分辨率碎片在低分辨率图像中找到与该碎片最相似的几个碎片,并计算出使重构代价最小的权值参数,最后使用多个低分辨率片和权值参数来生成高分辨率片形成高分辨率图像。该方法的不足是会损失图像中的高频内容,此外由于存在重叠片的计算会导致计算量的增大。
近年来,随着卷积神经网络(CNN)在计算机视觉领域的应用,出现了许多基于CNN的图像超分方法。这些方法实现了这一技术突破性的发展,其中以SRCNN[2]及VDSR[3]方法最具代表性。通过对图像每一帧采用这些方法可以简单地将图像超分扩展到图像超分领域。
C.Dong等人在2015年提出来基于卷积神经网络的图像超分方法(SRCNN),通过学习低分辨率和高分辨率图像间的映射关系来重建高分辨率图像。映射表现为一个CNN,将低分辨率图像作为输入,将高分辨率图像作为输出。该方法利用了神经网络的优越性,将图像超分问题建模为神经网络结构,通过优化目标函数训练合适的神经网络得到简单有效的增强图像分辨率的模型。
神经网络容易对大量训练集数据学习得到,此外一旦训练好超分的模型后,对高分辨率图像的重构就是简单的前馈过程,因此计算复杂度也得到大幅度降低。C.Dong等人又对SRCNN方法进行了改进,提出了FSRCNN[4]方法,改进了神经网络的结构实现更快的超分效果。Kim J等人2016年通过加深神经网络结构在图像分辨率上取得了更好的效果,同时利用残差学习提高网络效率加快网络的训练速度。随着卷积神经网络在超分领域实现不断提升的效果,更多学者通过继续改进网络结构在超分结果的主观视觉质量及客观数值标准上得到不断突破。
本发明方法涉及图像超分技术,是基于深度学习的思想构建一个参数效率更高的超分卷积神经网络。所构建的网络结构可以在已有的低分辨率图像的基础上通过利用图像内局部结构及细节信息的相关性,学习出图像中的高频细节及纹理内容,重构出具有更好的视觉质量的清晰图像。
发明内容
为了改进现有技术得到更好的超分效果,本发明提供一种提高图像空间分辨率的方法,以增强图像的质量,提升超分效率。
本发明提供的图像超分方法,是基于卷积神经网络的图像超分方法,所述卷积神经网络包括:特征提取网络FFE、特征学习网络FFL、图像重构网络FIR,具体步骤如下:
(1)图像特征的提取
将低分辨率图像ILR输入到卷积神经网络中,首先经过特征提取网络FFE,经过卷积操作将输入图像从像素空间转换到特征空间,生成输入图像的特征:
FLR=FFE(ILR)
(2)图像特征的学习
这一步将提取到的低分辨率图像的特征FLR作为输入,经过一个多层的特征学习网络FFL,从原始的图像中学习出高分辨率图像中的细节特征FHR
FHR=FFL(FLR)
(3)高分辨率图像的重构
将上一步预测的含有丰富图像细节信息的特征FHR经过图像重构网络FIR,恢复出原始图像中的高频细节内容,以重构具有更高质量的高分辨率图像ISR
ISR=FIR(FHR)
本发明采用的多层网络结构(包括特征提取网络FFE、特征学习网络FFL、图像重构网络FIR)是由多个结构相同的基本单元U组成;其中每一单元U都包括两个卷积块和一个连接节点,卷积块的结构采用论文[5]中提出的GEU单元,连接节点由一个卷积核大小为3×3的卷积层来实现;每个单元U的具体结构为:
首先,设fin表示单元U的输入,将其输入到单元U中的第一个GEU(记为GEU1)块中生成特征f1:
f1=GEU1(fin)
将生成的特征f1输入到下一个GEU(记为GEU2)单元,得到特征f2:)
f2=GEU2(f1)
最后将两个GEU单元的输出f1、f1同时输入一个卷积核大小为3×3的卷积层进行特征融合,生成该单元的输出特征fout
fout=Conv(f1,f2)。
本发明步骤(1)中,特征提取网络FE采用一层网络结构,即由一个基本单元U组成,该单元具体步骤为:
首先,将低分辨率图像输入到特征提取网络FE,经过一个单元U提取出低分辨率图像的特征FLR
FLR=U(ILR)。
本发明步骤(2)中,特征学习网络FFL是一个多层的网络结构,具体的特征学习步骤为:
首先将步骤(1)输出的FLR输入特征学习网络FFL中,经过单元U1,1生成特征f1,1
f1,1=U1,1(FLR)
将f1,1输入到第二层的单元U2,1中,生成特征f2,1
f2,1=U2,1(f1,1)
再将第二层单元U2,1输出的特征f2,1输入到第一层的下一个单元U1,2中,输出特征f1,2
f1,2=U1,2(f2,1)
将f1,2输入到下一个第二层的单元U2,2中,生成特征f2,2
f2,2=U2,2(f1,2)
再将第二层的单元U2,2的输出特征f2,2输入到第一层单元U1,3中,输出特征f1,3
f1,3=U1,3(f2,2)
最后将第一层的最后一个单元的输出f1,3和第二层最后一个单元的输出f2,2一同输入第三层的单元U3,1中生成特征f3,1,由于本发明的网络结构只采用了三层结构,因此第三层的第一个单元的输出f3,1就作为特征学习部分学到的高分辨率图像的细节特征FSR
FSR=f1,3
单元U1,1,U2,1,U1,2,U2,2,U1,3,U3,1,均为基本单元U。
本发明步骤(3)中,图像重构网络FIR采用一层的网络结构,即由一个基本单元U组成,具体步骤为:
首先,将上一步的输出FSR作为输入,经过一个基本单元U1及去卷积层放大图像分辨率生成重构图像与真实高分辨率图像间的残差图Ires
Ires=Deconv(U1(FSR))
最后,将使用Bicubic方法上采样后的低分辨率图像与残差图Ires相加,得到网络最终输出的高分辨率图像ISR
ISR=Ires+Bic(ILR)。
本发明采用的多层网络结构来学习图像特征,将网络中不同层之间学到的图像特征通过分层聚合的方式连接起来,充分利用网络中每一层的结构信息,恢复出更准确的高频图像内容,有效减少图像特征在网络传播过程中的信息损失,挖掘出更深层次的图像特征,最终得到更好的重构效果。
附图说明
图1为本发明的流程图。
图2为利用本方法对低分辨率图像进行超分重构的结果。
具体实施方式
对于一张低分辨率图像,可以采用图1所示的方法,进行超分处理。具体步骤为:
(1)首先将低分辨率图像输入到网络,经一个卷积层、一个单元U。
每个单元具体步骤参见图1,首先将单元U的输入传给第一个GEU1块,将生成特征输入下一个GEU2块,最后将两个GEU单元的输出再同时输入一个卷积核大小为3×3的卷积层,生成该单元的输出特征f1
(2)将f1输入到第一层单元U1,1生成特征f1,1;将f1,1输入到第二层单元U2,1生成特征f2,1;将f2,1输入到第一层单元U1,2中,输出特征f1,2;将f1,2输入第二层单元U2,2生成特征f2,2;将f2,2传回到第一层单元U1,3输出特征f1,3;将f1,3和f2,2传给第三层单元U3,1生成特征f3,1
(3)将f3,1传给一个单元U生成特征f2,将f2通过一个去卷积层生成残差图Ires;最后使用双三次插值法上采样原低分辨率图像生成Ibic,将Ibic与残差图Ires相加,生成高分辨率图像IHR
图2为一个实验例子。其中,(a)、(d)图分别是输入的低分辨率图像,(b)、(e)图则是对应的使用本发明方法进行4倍超分重构出来的高分辨率图像,(c)、(f)是真实的高分辨率图像。可以看出,本发明方法可以有效地恢复出原始高分辨率图像中的纹理及边缘信息,带来较好的视觉效果。
参考文献:
[1]C.E.Duchon.Lanczos filtering in one and two dimensions.Journal ofApplied Meteorology,18(8):1016–1022,1979.
[2]C.Dong,C.C.Loy,K.He,and X.Tang.Image super-resolution using deepconvolutional networks.IEEE Transactions on Pattern Analysis and MachineIntelligence (TPAMI),38(2):295–307,2015.
[3]Kim J,Lee J K,Lee K M.Accurate Image Super-Resolution Using VeryDeep Convolutional Networks[C]//IEEE Conference on Computer Vision andPattern Recognition.IEEE Computer Society,2016:1646-1654.
[4]C.Dong,C.C.Loy,and X.Tang.Accelerating the super-resolutionconvolutional neural network.In European Conference on Computer Vision(ECCV),pages 391–407.Springer International Publishing,2016.
[5]Ke Li,Bahetiyaer Bare,B.Y.B.F.,and Yao,C.2018.Face hallucinationbased on key parts enhancement.In IEEE International Conference on Acoustics,Speech and Signal Processing.。

Claims (4)

1.一种基于卷积神经网络的图像超分方法,所述卷积神经网络包括:特征提取网络FFE、特征学习网络FFL、图像重构网络FIR,其特征在于,具体步骤如下:
(1)图像特征的提取
将低分辨率图像ILR输入到卷积神经网络中,首先经过特征提取网络FFE,经过卷积操作将输入图像从像素空间转换到特征空间,生成输入图像的特征:
FLR=FFE(ILR)
(2)图像特征的学习
将提取到的低分辨率图像的特征FLR作为输入,经过特征学习网络FFL,从原始的图像中学习出高分辨率图像中的细节特征FHR
FHR=FFL(FLR)
(3)高分辨率图像的重构
将上一步预测的含有丰富图像细节信息的特征FHR经过图像重构网络FIR,恢复出原始图像中的高频细节内容,以重构具有更高质量的高分辨率图像ISR
ISR=FIR(FHR);
这里,特征提取网络FFE、特征学习网络FFL、图像重构网络FIR,由不同数量的结构相同的基本单元U组成;其中每一单元U都包括两个卷积块和一个连接节点,卷积块的结构采用GEU单元,连接节点由一个卷积核大小为3×3的卷积层来实现;每个单元U的处理流程为:
首先,设fin表示单元U的输入,将其输入到单元U中的第一个GEU(记为GEU1)块中生成特征f1:
f1=GEU1(fin)
将生成的特征f1输入到下一个GEU(记为GEU2)单元,得到特征f2
f2=GEU2(f1)
最后,将两个GEU单元的输出f1、f1同时输入一个卷积核大小为3×3的卷积层进行特征融合,生成该单元的输出特征fout
fout=Conv(f1,f2)。
2.根据权利要求1所述的基于卷积神经网络的图像超分方法,其特征在于,步骤(1)中,特征提取网络FE采用一层网络结构,即由一个基本单元U组成,具体处理流程为:
首先,将低分辨率图像输入到特征提取网络FE,经过一个单元U提取出低分辨率图像的特征FLR
FLR=U(ILR)。
3.根据权利要求1所述的基于卷积神经网络的图像超分方法,其特征在于,步骤(2)中,特征学习网络FFL是一个多层的网络结构,特征学习流程为:
首先,将步骤(1)输出的FLR输入特征学习网络FFL中,经过单元U1,1生成特征f1,1
f1,1=U1,1(FLR)
将f1,1输入到第二层的单元U2,1中,生成特征f2,1
f2,1=U2,1(f1,1)
再将第二层单元U2,1输出的特征f2,1输入到第一层的下一个单元U1,2中,输出特征f1,2
f1,2=U1,2(f2,1)
将f1,2输入到下一个第二层的单元U2,2中,生成特征f2,2
f2,2=U2,2(f1,2)
再将第二层的单元U2,2的输出特征f2,2输入到第一层单元U1,3中,输出特征f1,3
f1,3=U1,3(f2,2)
最后,将第一层的最后一个单元的输出f1,3和第二层最后一个单元的输出f2,2一同输入第三层的单元U3,1中生成特征f3,1,由于本发明的网络结构采用三层结构,因此第三层的第一个单元的输出f3,1就作为特征学习部分学到的高分辨率图像的细节特征FSR
FSR=f1,3
其中,单元U1,1,U2,1,U1,2,U2,2,U1,3,U3,1,均为基本单元U。
4.根据权利要求1所述的基于卷积神经网络的图像超分方法,其特征在于,步骤(3)中,图像重构网络FIR采用一层的网络结构,即由一个基本单元U组成,处理的具体流程为:
首先,将上一步的输出FSR作为输入,经过一个基本单元U(U1)及去卷积层放大图像分辨率,生成重构图像与真实高分辨率图像间的残差图Ires
Ires=Deconv(U1(FSR))
最后,将使用Bicubic方法上采样后的低分辨率图像与残差图Ires相加,得到网络最终输出的高分辨率图像ISR
ISR=Ires+Bic(ILR)。
CN201810959380.XA 2018-08-22 2018-08-22 一种基于卷积神经网络的图像超分方法 Active CN109272450B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810959380.XA CN109272450B (zh) 2018-08-22 2018-08-22 一种基于卷积神经网络的图像超分方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810959380.XA CN109272450B (zh) 2018-08-22 2018-08-22 一种基于卷积神经网络的图像超分方法

Publications (2)

Publication Number Publication Date
CN109272450A true CN109272450A (zh) 2019-01-25
CN109272450B CN109272450B (zh) 2023-01-06

Family

ID=65153956

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810959380.XA Active CN109272450B (zh) 2018-08-22 2018-08-22 一种基于卷积神经网络的图像超分方法

Country Status (1)

Country Link
CN (1) CN109272450B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109978785A (zh) * 2019-03-22 2019-07-05 中南民族大学 多级递归特征融合的图像超分辨率重构***及其方法
CN111182254A (zh) * 2020-01-03 2020-05-19 北京百度网讯科技有限公司 一种视频处理方法、装置、设备及存储介质
CN113556496A (zh) * 2020-04-23 2021-10-26 京东方科技集团股份有限公司 视频分辨率提升方法及装置、存储介质及电子设备

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106204449A (zh) * 2016-07-06 2016-12-07 安徽工业大学 一种基于对称深度网络的单幅图像超分辨率重建方法
CN106683067A (zh) * 2017-01-20 2017-05-17 福建帝视信息科技有限公司 一种基于残差子图像的深度学习超分辨率重建方法
CN106709875A (zh) * 2016-12-30 2017-05-24 北京工业大学 一种基于联合深度网络的压缩低分辨率图像复原方法
CN107358576A (zh) * 2017-06-24 2017-11-17 天津大学 基于卷积神经网络的深度图超分辨率重建方法
CN107392855A (zh) * 2017-07-19 2017-11-24 苏州闻捷传感技术有限公司 基于稀疏自编码网络与极速学习的图像超分辨重建方法
CN107492070A (zh) * 2017-07-10 2017-12-19 华北电力大学 一种双通道卷积神经网络的单图像超分辨率计算方法
CN108259994A (zh) * 2018-01-15 2018-07-06 复旦大学 一种提高视频空间分辨率的方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106204449A (zh) * 2016-07-06 2016-12-07 安徽工业大学 一种基于对称深度网络的单幅图像超分辨率重建方法
CN106709875A (zh) * 2016-12-30 2017-05-24 北京工业大学 一种基于联合深度网络的压缩低分辨率图像复原方法
CN106683067A (zh) * 2017-01-20 2017-05-17 福建帝视信息科技有限公司 一种基于残差子图像的深度学习超分辨率重建方法
CN107358576A (zh) * 2017-06-24 2017-11-17 天津大学 基于卷积神经网络的深度图超分辨率重建方法
CN107492070A (zh) * 2017-07-10 2017-12-19 华北电力大学 一种双通道卷积神经网络的单图像超分辨率计算方法
CN107392855A (zh) * 2017-07-19 2017-11-24 苏州闻捷传感技术有限公司 基于稀疏自编码网络与极速学习的图像超分辨重建方法
CN108259994A (zh) * 2018-01-15 2018-07-06 复旦大学 一种提高视频空间分辨率的方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
KE LI; BAHETIYAER BARE; BO YAN; BAILAN FENG; CHUNFENG YAO: "HNSR: Highway Networks Based Deep Convolutional Neural Networks Model for Single Image Super-Resolution", 《2018 IEEE INTERNATIONAL CONFERENCE ON ACOUSTICS, SPEECH AND SIGNAL PROCESSING (ICASSP)》 *
兰妙萍: "基于卷积神经网络的图像复原方法研究", 《中国优秀硕士学位论文全文数据库》 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109978785A (zh) * 2019-03-22 2019-07-05 中南民族大学 多级递归特征融合的图像超分辨率重构***及其方法
CN111182254A (zh) * 2020-01-03 2020-05-19 北京百度网讯科技有限公司 一种视频处理方法、装置、设备及存储介质
CN111182254B (zh) * 2020-01-03 2022-06-24 北京百度网讯科技有限公司 一种视频处理方法、装置、设备及存储介质
US11416967B2 (en) 2020-01-03 2022-08-16 Beijing Baidu Netcom Science And Technology Co., Ltd. Video processing method, apparatus, device and storage medium
CN113556496A (zh) * 2020-04-23 2021-10-26 京东方科技集团股份有限公司 视频分辨率提升方法及装置、存储介质及电子设备
CN113556496B (zh) * 2020-04-23 2022-08-09 京东方科技集团股份有限公司 视频分辨率提升方法及装置、存储介质及电子设备

Also Published As

Publication number Publication date
CN109272450B (zh) 2023-01-06

Similar Documents

Publication Publication Date Title
CN111047515B (zh) 一种基于注意力机制的空洞卷积神经网络图像超分辨率重建方法
CN111861961B (zh) 单幅图像超分辨率的多尺度残差融合模型及其复原方法
CN111105352B (zh) 超分辨率图像重构方法、***、计算机设备及存储介质
CN111932461B (zh) 一种基于卷积神经网络的自学习图像超分辨率重建方法及***
CN110889895B (zh) 一种融合单帧重建网络的人脸视频超分辨率重建方法
CN108259994B (zh) 一种提高视频空间分辨率的方法
CN106204449A (zh) 一种基于对称深度网络的单幅图像超分辨率重建方法
CN109949222B (zh) 基于语义图的图像超分辨率重建方法
CN109035146A (zh) 一种基于深度学习的低质量图像超分方法
CN111768340B (zh) 一种基于密集多路径网络的超分辨图像重构方法和***
CN107590775B (zh) 一种利用回归树场的图像超分辨率放大方法
CN109272452A (zh) 小波域中基于集团结构子带共同学习超分辨率网络的方法
CN113205096B (zh) 一种基于注意力的联合图像与特征自适应的语义分割方法
CN109272450A (zh) 一种基于卷积神经网络的图像超分方法
Yang et al. Image super-resolution based on deep neural network of multiple attention mechanism
CN114463183A (zh) 基于频域和空域的图像超分辨率方法
CN112200720A (zh) 一种基于滤波器融合的超分辨率图像重建方法及***
CN115953294A (zh) 一种基于浅层通道分离与聚合的单图像超分辨率重建方法
CN116563100A (zh) 一种基于内核引导网络的盲超分辨率重建方法
Zang et al. Cascaded dense-UNet for image super-resolution
CN117078516B (zh) 基于残差混合注意力的矿井图像超分辨率重建方法
CN109087247A (zh) 一种对立体图像进行超分的方法
Wu et al. Single depth map super-resolution via a deep feedback network
CN117274064B (zh) 一种图像超分辨率方法
Wang et al. Real-World Image Super Resolution via Unsupervised Bi-directional Cycle Domain Transfer Learning based Generative Adversarial Network

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant