CN112419150A - 一种基于双边上采样网络的任意倍数图像超分辨率重建方法 - Google Patents

一种基于双边上采样网络的任意倍数图像超分辨率重建方法 Download PDF

Info

Publication number
CN112419150A
CN112419150A CN202011229051.3A CN202011229051A CN112419150A CN 112419150 A CN112419150 A CN 112419150A CN 202011229051 A CN202011229051 A CN 202011229051A CN 112419150 A CN112419150 A CN 112419150A
Authority
CN
China
Prior art keywords
resolution
low
super
image
bilateral
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202011229051.3A
Other languages
English (en)
Other versions
CN112419150B (zh
Inventor
凌强
张梦磊
李峰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Science and Technology of China USTC
Original Assignee
University of Science and Technology of China USTC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Science and Technology of China USTC filed Critical University of Science and Technology of China USTC
Priority to CN202011229051.3A priority Critical patent/CN112419150B/zh
Publication of CN112419150A publication Critical patent/CN112419150A/zh
Application granted granted Critical
Publication of CN112419150B publication Critical patent/CN112419150B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4053Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)

Abstract

本发明涉及一种基于双边上采样网络的任意倍数图像超分辨率重建方法,输入待处理的低分辨率图像和放大倍数,待处理的输入图像称为低分辨率图像,使用超分辨率重建方法放大的图像称为高分辨率图像;首先使用位置图构造模块构造位置图,然后使用空域权重预测模块预测双边上采样卷积核的空域权重;通过卷积神经网络特征提取模块提取低分辨率图像特征作为双边上采样卷积核的值域权重;预测得到的空域权重和值域权重,通过双边上采样参数计算模块,计算双边上采卷积核参数;进行上采样处理,得到超分辨率特征图;将超分辨率特征图的通道数转换到输入图像的通道大小,输出重建的超分辨率图像。本发明可以应用于任意倍数低分辨率图像超分辨率重建,可以有效提高低分辨率图像超分辨率重建准确度。

Description

一种基于双边上采样网络的任意倍数图像超分辨率重建方法
技术领域
本发明涉及图像重建方法领域,具体涉及一种基于双边上采样网络的任意倍数图像超分辨率重建方法。
背景技术
随着智能移动设备的普及,人们越来越倾向于从图像中获取信息。图像分辨率是衡量图像信息量的一个关键指标。图像分辨率越高,所包含的信息量也就越丰富,越能够更加真实详细的描述客观场景。但是现实生活中受到网络传输速度以及传感器水平等硬件条件的制约,呈现出的图像分辨率一般较低,很难满足人们的实际使用需求,因此需要使用基于软件的图像超分辨率重建方法来有效的解决这一问题。
单张图像超分辨率重建方法旨在使用低分辨率图像恢复重建尽可能真实的高分辨率图像。它在安防、监控成像、医学成像以及卫星和遥感成像中具有非常广泛的应用。目前,大多数基于卷积神经网络的单张图像超分辨率重建方法仅仅使用固定放大倍数(2倍、3倍、4倍或者8倍)对低分辨率图像进行超分辨率重建。但是现实生活中人们往往需要对图像进行任意倍数的放大以查看图像的局部细节。因此,解决任意放大倍数的图像超分辨率重建问题对于图像超分辨率重建投入实际使用有非常重大的意义。
现有的图像超分辨率重建方法可以分为三种类型:基于插值的方法,基于统计的方法和基于学习的方法。在早期,前两类方法因其计算效率优势而得到广泛的关注。但是,这两类方法总是局限于较小的超分辨率倍数(2倍超分辨),超分辨率倍数增大时(4倍或者8倍超分辨)效果较差。基于学习的方法【1】使用大量的低分辨率-高分辨率图像对来训练图像超分辨率重建模型,使得训练好的模型可以根据输入数据来推断出低分辨率图片所缺失的高频信息,并且在较大放大倍数时也可以得到较好的超分辨率重建效果。基于深度学习的方法具有从大规模数据库中学习知识的强大能力,因而被引入到图像超分辨率重建问题。但是这些基于卷积神经网络的方法仅仅使用固定的整数放大倍数【2】来学习低分辨率图像到高分辨率图像之间的映射关系,当需要任意放大倍数或者非整数放大倍数时这些方法并不适用。
目前图像超分辨率重建领域主要有三种方法来应对任意放大倍数问题。第一种是使用双线性插值方法对低分辨率特征图进行上采样。董等人【3】初次提出使用卷积神经网络学习端到端的单张图像超分辨率重建任务,并使用双线性插值方法将低分辨特征图上采样到高分辨率特征图,但是使用双线性插值的方法无法自适应的学习上采样参数,因此超分辨率重建效果较差。赖等人【4】使用拉普拉斯金字塔网络对低分辨率特征图进行逐级上采样以此改善超分辨率重建效果,但是这种在高分辨率图像上进行特征提取的方法计算量较大。第二种方法是针对不同的上采样倍数学习不同的上采样模块。施等人【5】提出使用使用子像素卷积的方法对低分辨率特征图进行上采样处理,以此加快上采样网络的运行速度,但是子像素卷积只适用于整数倍的放大倍数,无法处理非整数倍的放大倍数。林等人【6】使用共享特征提取模块训练不同的上采样模块的方法学习不同的放大倍数,但是这种方法同样只适用于整数倍放大倍数。第三中方法是根据不同的放大倍数自适应的学习上采样模块的参数。胡等人【7】引入元学习的思想构造上采样模块,首次实现低分辨率图像通过单模型进行任意尺度的上采样,通过动态预测上采样卷积参数,在应用上达成类似在图片查看器中滚动滑轮查看图片的效果。但是这种方法只使用放大倍数估计上采样卷积参数,没有用到图像的内容信息【8】,使得超分辨率重建结果比较模糊,因此需要针对这一问题加以改进。
【1】Ledig C,Theis L,Huszár F,et al.Photo-realistic single image super-resolution using a generative adversarial network[C]//Proceedings of the IEEEconference on computer vision and pattern recognition.2017:4681-4690.
【2】Kim J,Kwon Lee J,Mu Lee K.Accurate image super-resolution usingvery deep convolutional networks[C]//Proceedings of the IEEE conference oncomputer vision and pattern recognition.2016:1646-1654.
【3】Dong C,Loy C C,He K,et al.Image super-resolution using deepconvolutional networks[J].IEEE transactions on pattern analysis and machineintelligence,2015,
38(2):295-307.
【4】Lai W S,Huang J B,Ahuja N,et al.Fast and accurate image super-resolution with deep laplacian pyramid networks[J].IEEE transactions onpattern analysis and machine intelligence,2018,41(11):2599-2613.
【5】Shi W,Caballero J,Huszár F,et al.Real-time single image and videosuper-resolution using an efficient sub-pixel convolutional neural network[C]//Proceedings of the IEEE conference on computer vision and patternrecognition.2016:1874-1883.
【6】Lim B,Son S,Kim H,et al.Enhanced deep residual networks for singleimage super-resolution[C]//Proceedings of the IEEE conference on computervision and pattern recognition workshops.2017:136-144.
【7】Hu X,Mu H,Zhang X,et al.Meta-SR:A magnification-arbitrary networkfor super-resolution[C]//Proceedings of the IEEE Conference on ComputerVision and Pattern Recognition.2019:1575-1584.
【8】Tomasi C,Manduchi R.Bilateral filtering for gray and color images[C]//Sixth international conference on computer vision(IEEECat.No.98CH36271).IEEE,1998:839-846.
发明内容
本发明技术解决问题:克服现有技术的不足,提供一种基于双边上采样网络的任意倍数图像超分辨率重建方法,能够使用单一模型对低分辨率图像进行任意倍数的超分辨率重建,使用双边滤波上采样网络提高任意倍数低分辨率图像超分辨率重建精度。
本发明的技术方案:一种基于双边上采样网络的任意倍数图像超分辨率重建方法,包括以下步骤:
步骤1:输入待处理的低分辨率图像和放大倍数,待处理的输入图像称为低分辨率图像,使用超分辨率重建方法放大的图像称为高分辨率图像;
步骤2:使用步骤1中输入的放大倍数通过位置图构造模块构造位置图,然后使用空域权重预测模块预测双边上采样卷积核的空域权重;
步骤3:使用步骤1中输入的低分辨率图像通过卷积神经网络特征提取模块提取低分辨率图像特征作为双边上采样卷积核的值域权重;
步骤4:使用步骤3中提取的低分辨率特征图作为值域权重和步骤2中位置图预测得到的空域权重,通过双边上采样参数计算模块,计算双边上采卷积核参数;
步骤5:使用步骤4计算得到的双边上采样卷积核参数对低分辨率特征图进行上采样处理,得到超分辨率特征图;
步骤6:将步骤5得到的超分辨率特征图的通道数转换到输入图像的通道大小,输出重建的超分辨率图像。
所述步骤2:使用步骤1中输入的放大倍数通过位置图构造模块构造位置图,然后使用空域权重预测模块预测双边上采样卷积核的空域权重,具体实现如下:
(1)将高分辨率图像的每个像素映射到低分辨率图像空间,然后得到每个高分辨率像素在低分辨率图像空间中所对应的2×2邻域像素,超分辨率图像上每个位置的像素值就由低分辨率图像上的2×2邻域像素值和超分辨率像素与低分辨率像素之间的位置关系决定;
(2)根据超分辨率图像坐标和放大倍数构造位置图,
Figure BDA0002764550770000041
其中P为构造的位置图,r为放大倍数,(i,j)为位置图对应的超分辨率像素坐标,Ph,i,j为坐标(i,j)像素所对应位置图上的第h个通道的值;h=1时,Ph,i,j就是P1,i,j,h=2同理;
(3)构造得到位置图之后,采用全连接层+ReLU层+全连接层结构作为空域权重预测模块,隐藏层特征通道数设为256,利用构造的位置图自适应预测双边上采样卷积核的空域权重。
所述步骤3:使用步骤1输入的低分辨率图像通过卷积神经网络特征提取模块提取低分辨率图像特征作为双边上采样卷积核的值域权重,具体实现如下:
(1)使用步骤1输入的低分辨率图像通过卷积神经网络特征提取模块提取低分辨率图像特征;
FLR=Conv(xLR)
其中xLR为步骤1输入的低分辨率图像,Conv(.)为卷积神经网络特征提取模块,FLR为提取的低分辨率图像特征;
(2)使用提取的低分辨率图像特征作为双边上采样卷积核的值域权重,用于后续双边上采样卷积核构造。
所述步骤4中,使用步骤3中提取的低分辨率特征图作为值域权重和步骤2中位置图预测得到的空域权重,通过双边上采样参数计算模块,计算双边上采卷积核参数,具体实现如下:
(1)使用双边上采样参数计算模块合并步骤2中得到的空域权重和步骤3中得到的值域权重计算双边上采样参数,
Figure BDA0002764550770000042
Figure BDA0002764550770000043
Figure BDA0002764550770000044
其中:(i,j)为高分辨率像素坐标,(i′,j′)为映射到低分辨率图像中的最近邻像素坐标,k为上采样卷积核大小,(k1,k2)为上采样卷积核坐标,c为特征图通道数,WP为预测的空域权重,wp为使用空域权重构造的k×k大小空域上采样卷积核,FLR为低分辨率特征图,wB为计算得到的双边上采样参数;
(2)使用计算得到的双边上采样参数作为双边上采样卷积核权重,用于双边上采样卷积操作。
所述步骤5中,使用步骤4计算得到的双边上采样卷积核参数对低分辨率特征图进行上采样处理,得到超分辨率特征图,具体实现如下:
(1)使用步骤4预测得到的双边上采样参数构造双边上采样卷积核
Figure BDA0002764550770000051
其中wB为步骤4计算得到的双边上采样参数,c为特征图通道数,(i,j)为像素坐标,(k1,k2)为卷积核坐标;
(2)使用双边上采样卷积核对低分辨率特征图进行逐通道上采样卷积操作,得到超分辨率特征图,
Figure BDA0002764550770000052
其中FsR表示超分辨率特征图,wB为计算得到的双边上采样卷积参数,FLR为低分辨率特征图。
本发明与现有技术相比的优点在于:
(1)能够使用单一模型对低分辨率图像进行任意倍数的超分辨率重建
传统的基于反卷积和子像素卷积的图像超分辨率重建方法仅仅适用于整数倍的图像超分辨率重建任务,且单一模型只能应对单个或者有限个放大倍数。本发明针对不同放大倍数自适应的学习不同的上采样模块参数,可以使用单一模型将低分辨率图像进行任意倍数的超分辨率重建,提高了超分辨率方法的实用性。
(2)能够有效提高低分辨率图像超分辨率重建准确度
传统的基于双线性插值和元学习的图像超分辨率重建方法仅仅使用放大倍数计算上采样模块的参数,无法根据不同的图像内容自适应的学习,因此超分辨率重建效果并不理想。本发明使用双边上采样网络,使上采样模块参数可以根据不同的图像内容和不同的放大倍数自适应的学习,最大程度利用低分辨率图像信息,更加有利于提高低分辨率图像超分辨率重建准确度。
附图说明
图1为本发明的任意倍数图像超分辨率重建流程图;
图2为本发明的使用单一模型对低分辨率图像进行任意倍数超分辨率重建的双边上采样网络整体结构;
图3为本发明的双边上采样卷积层结构,双边上采样卷积层使用逐通道卷积将低分辨率特征图逐通道的上采样得到超分辨率特征图;
图4为本发明的单一模型对低分辨率图像进行任意倍数超分辨率重建结果,包含整数倍和非整数倍的超分辨率重建结果;
图5为不同方法超分辨率重建结果与细节放大比较(a).原始高分辨率图像,(b).高分辨率图像的局部细节(c).双三次插值上采样(d).元学习方法上采样(d).本发明提出的基于双边上采样网络的任意倍数图像超分辨率方法。
具体实施方式
下面结合附图及实施例对本发明进行详细说明。
如图1所示,本发明首先输入待处理的低分辨率图像和放大倍数;然后使用输入的放大倍数计算双边上采样卷积核的空域权重;接着使用卷积神经网络特征提取模块提取低分辨率图像特征作为低分辨率特征图;接着使用低分辨率特征图和空域权重计算双边上采样卷积核参数;接着使用计算得到的双边上采样卷积核参数对低分辨率特征图进行上采样处理,得到超分辨率特征图;最后使用1x1卷积将超分辨率特征图的通道数转换到输入图像的通道大小,输出重建的超分辨率图像。
本发明方法具体实现如下:
Step 1):输入待处理的低分辨率图像和放大倍数;
Step 2):使用输入的放大倍数通过位置图构造模块构造位置图,然后使用空域权重预测模块预测双边上采样卷积核的空域权重;
Step 3):使用卷积神经网络特征提取模块提取低分辨率图像特征作为低分辨率特征图核双边上采样卷积核的值域权重;
Step 4):使用低分辨率特征图作为值域参数和位置图预测得到的空域权重,通过双边上采样参数计算模块,计算双边上采卷积核参数;
Step 5):使用计算得到的双边上采样卷积核参数对低分辨率特征图进行上采样处理,得到超分辨率特征图;
Step 6);使用1x1卷积将超分辨率特征图的通道数转换到输入图像的通道大小;
Step 7):输出重建的超分辨率图像。
下面再进行详细说明。
1.空域权重预测模块
本发明提出的使用单一模型对低分辨率图像进行任意倍数超分辨率重建的双边上采样网络整体结构如图2所示。针对任意倍数图像超分辨率重建任务,首先将高分辨率图像的每个像素映射到低分辨率图像空间,然后找到每个高分辨率像素在低分辨率图像空间中所对应的2×2邻域像素,超分辨率图像上每个位置的像素值就可以由低分辨率图像上的2×2邻域像素值和超分辨率像素与低分辨率像素之间的位置关系决定。为此设计一个空域权重预测模块,根据高分辨率像素与低分辨率像素之间的位置关系自适应的预测双边上采样卷积层的空域权重值。为了使不同的位置关系对应不同的空域参数,以此计算不同的超分辨率像素值,本发明根据位置关系和上采样倍数构造位置图用于预测上采样卷积核的空域权重。这样设计可以使不同的位置关系和不同的放大倍数都对应不同的空域权重,使得预测的空域权重能够根据不同的位置关系和不同的放大倍数自适应的调节。首先我们根据超分辨率图像坐标和放大倍数构造位置图,
Figure BDA0002764550770000071
其中P为构造的位置图,r为放大倍数,(i,j)为位置图对应的超分辨率像素坐标,Ph,i,j为坐标(i,j)像素所对应位置图上的第h个通道的值。
构造得到位置图之后,则使用构造的位置图预测双边上采样卷积核的空域权重。本发明使用全连接层+ReLU层+全连接层结构作为空域权重预测模块。为了尽可能的减少计算量,隐藏层特征通道数设为256。由于神经网络的强大拟合能力,两层全连接层就足够拟合非常复杂的函数。可以根据构造的位置图,自适应的预测双边上采样卷积参数的空域权重。
2、双边上采样参数计算模块
仅仅使用空域上采样权重对低分辨率特征图进行上采样操作无法充分利用低分辨率输入图像的内容信息,容易重建得到模糊的高分辨率图像。为了解决这一问题,本发明将双边滤波器引入到任意放大倍数图像超分辨率重建任务,使用双边滤波公式计算双边上采样卷积核参数。传统的双边滤波器合并空域滤波器和值域滤波器,可以在对图像进行滤波的同时保留图像的纹理细节等结构信息。为了将双边滤波器引入到任意倍数图像超分辨率重建任务,首先使用构造的位置图预测空域滤波器权重。然后使用特征提取模块提取低分辨率图像特征,将低分辨率图像特征作为值域滤波器权重,合并空域滤波器权重和值域滤波器权重就可以计算得到双边上采样参数权重,
Figure BDA0002764550770000072
Figure BDA0002764550770000073
Figure BDA0002764550770000081
其中:(i,j)为高分辨率像素坐标,(i′,j′)为映射到低分辨率图像中的最近邻像素坐标,k为上采样卷积核大小,(k1,k2)为上采样卷积核坐标,WP为预测的空域权重,wp为使用空域权重构造的k×k大小空域上采样卷积核,FLR为低分辨率特征图,wB为计算得到的双边上采样参数。
双边上采样卷积核参数由空域权重和值域权重计算得到。由公式可以看出,在卷积核中,距离中心像素越远的位置参数权重越低,对高分辨率像素计算的贡献越小。同时,与中心像素值相差越大的位置权重也越低。通过合并值域权重与空域权重,双边上采样卷积可以保存图像的边缘信息,同时重建尽可能准确的高分辨率图像。计算得到双边上采样参数之后,就可以使用双边上采样参数将低分辨率特征图上采样到高分辨率特征图。
3、双边上采样卷积层
计算得到双边上采样卷积核参数之后,使用双边上采样卷积将低分辨率特征图上采样得到高分辨率特征图。为了减少双边上采样卷积核参数预测所需要的计算量,本发明使用逐通道卷积代替普通卷积。逐通道卷积可以只使用每个通道的信息,逐通道的将低分辨率特征图上采样到高分辨率特征图。通过逐通道的上采样,可以大大减小双边上采样卷积层的参数量核计算量。
基于逐通道卷积的双边上采样卷积层结构如图3所示。首先使用预测得到的双边上采样参数构造双边上采样卷积核,然后使用双边上采样卷积核对低分辨率特征图进行逐通道上采样卷积操作,得到超分辨率特征图,
Figure BDA0002764550770000082
其中FSR表示超分辨率特征图,c为特征图通道数,(i,j)为超分辨率像素坐标,(k1,k2)为卷积核坐标,wB为计算得到的双边上采样卷积参数,FLR为低分辨率特征图。
计算得到低分辨率特征图之后,本发明使用1×1的逐像素卷积将超分辨率特征图的通道数转换到输入图像大小,如图2所示。1×1卷积的使用可以大大减少在高分辨率特征图上进行卷积计算所需要的计算量,保证本发明的实用性。图4展示了本发明提出的单一模型对低分辨率图像进行任意倍数超分辨率重建结果,可以看出本发明的方法可以应用于任意放大倍数,包括整数倍和非整数倍的放大倍数。图5展示了本发明提出的基于双边上采样网络的任意倍数图像超分辨率重建方法与传统方法比较结果,可以看出本发明的方法可以在恢复更多纹理信息的同时保证超分辨结果的准确性。

Claims (5)

1.一种基于双边上采样网络的任意倍数图像超分辨率重建方法,其特征在于,包括以下步骤:
步骤1:输入待处理的低分辨率图像和放大倍数,待处理的输入图像称为低分辨率图像,使用超分辨率重建方法放大的图像称为高分辨率图像;
步骤2:使用步骤1中输入的放大倍数通过位置图构造模块构造位置图,然后使用空域权重预测模块预测双边上采样卷积核的空域权重;
步骤3:使用步骤1中输入的低分辨率图像通过卷积神经网络特征提取模块提取低分辨率图像特征作为双边上采样卷积核的值域权重;
步骤4:使用步骤3中提取的低分辨率特征图作为值域权重和步骤2中位置图预测得到的空域权重,通过双边上采样参数计算模块,计算双边上采卷积核参数;
步骤5:使用步骤4计算得到的双边上采样卷积核参数对低分辨率特征图进行上采样处理,得到超分辨率特征图;
步骤6:将步骤5得到的超分辨率特征图的通道数转换到输入图像的通道大小,输出重建的超分辨率图像。
2.根据权利要求1所述的基于双边上采样网络的任意倍数图像超分辨率重建方法,其特征在于:所述步骤2:使用步骤1中输入的放大倍数通过位置图构造模块构造位置图,然后使用空域权重预测模块预测双边上采样卷积核的空域权重,具体实现如下:
(1)将高分辨率图像的每个像素映射到低分辨率图像空间,然后得到每个高分辨率像素在低分辨率图像空间中所对应的2×2邻域像素,超分辨率图像上每个位置的像素值就由低分辨率图像上的2×2邻域像素值和超分辨率像素与低分辨率像素之间的位置关系决定;
(2)根据超分辨率图像坐标和放大倍数构造位置图,
Figure FDA0002764550760000011
其中P为构造的位置图,r为放大倍数,(i,j)为位置图对应的超分辨率像素坐标,Ph,i,j为坐标(i,j)像素所对应位置图上的第h个通道的值;h=1时,Ph,i,j就是P1,i,j,h=2同理;
(3)构造得到位置图之后,采用全连接层+ReLU层+全连接层结构作为空域权重预测模块,隐藏层特征通道数设为256,利用构造的位置图自适应预测双边上采样卷积核的空域权重。
3.根据权利要求1所述的基于双边上采样网络的任意倍数图像超分辨率重建方法,其特征在于:所述步骤3:使用步骤1输入的低分辨率图像通过卷积神经网络特征提取模块提取低分辨率图像特征作为双边上采样卷积核的值域权重,具体实现如下:
(1)使用步骤1输入的低分辨率图像通过卷积神经网络特征提取模块提取低分辨率图像特征;
FLR=Conv(xLR)
其中xLR为步骤1输入的低分辨率图像,Conv(.)为卷积神经网络特征提取模块,FLR为提取的低分辨率图像特征;
(2)使用提取的低分辨率图像特征作为双边上采样卷积核的值域权重,用于后续双边上采样卷积核构造。
4.根据权利要求1所述的基于双边上采样网络的任意倍数图像超分辨率重建方法,其特征在于:所述步骤4中,使用步骤3中提取的低分辨率特征图作为值域权重和步骤2中位置图预测得到的空域权重,通过双边上采样参数计算模块,计算双边上采卷积核参数,具体实现如下:
(1)使用双边上采样参数计算模块合并步骤2中得到的空域权重和步骤3中得到的值域权重计算双边上采样参数,
Figure FDA0002764550760000021
Figure FDA0002764550760000022
Figure FDA0002764550760000023
其中:(i,j)为高分辨率像素坐标,(i′,j′)为映射到低分辨率图像中的最近邻像素坐标,k为上采样卷积核大小,(k1,k2)为上采样卷积核坐标,c为特征图通道数,WP为预测的空域权重,wp为使用空域权重构造的k×k大小空域上采样卷积核,FLR为低分辨率特征图,wB为计算得到的双边上采样参数;
(2)使用计算得到的双边上采样参数作为双边上采样卷积核权重,用于双边上采样卷积操作。
5.根据权利要求1所述的基于双边上采样网络的任意倍数图像超分辨率重建方法,其特征在于:所述步骤5中,使用步骤4计算得到的双边上采样卷积核参数对低分辨率特征图进行上采样处理,得到超分辨率特征图,具体实现如下:
(1)使用步骤4预测得到的双边上采样参数构造双边上采样卷积核
Figure FDA0002764550760000031
其中wB为步骤4计算得到的双边上采样参数,c为特征图通道数,(i,j)为像素坐标,(k1,k2)为卷积核坐标;
(2)使用双边上采样卷积核对低分辨率特征图进行逐通道上采样卷积操作,得到超分辨率特征图,
Figure FDA0002764550760000032
其中FSR表示超分辨率特征图,wB为计算得到的双边上采样卷积参数,FLR为低分辨率特征图。
CN202011229051.3A 2020-11-06 2020-11-06 一种基于双边上采样网络的任意倍数图像超分辨率重建方法 Active CN112419150B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011229051.3A CN112419150B (zh) 2020-11-06 2020-11-06 一种基于双边上采样网络的任意倍数图像超分辨率重建方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011229051.3A CN112419150B (zh) 2020-11-06 2020-11-06 一种基于双边上采样网络的任意倍数图像超分辨率重建方法

Publications (2)

Publication Number Publication Date
CN112419150A true CN112419150A (zh) 2021-02-26
CN112419150B CN112419150B (zh) 2024-04-02

Family

ID=74780503

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011229051.3A Active CN112419150B (zh) 2020-11-06 2020-11-06 一种基于双边上采样网络的任意倍数图像超分辨率重建方法

Country Status (1)

Country Link
CN (1) CN112419150B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113096011A (zh) * 2021-03-25 2021-07-09 北京达佳互联信息技术有限公司 图像处理方法、装置及电子设备
CN113538231A (zh) * 2021-06-17 2021-10-22 杭州电子科技大学 一种基于像素分布估计的单张图像超分辨重建***及方法
CN115861343A (zh) * 2022-12-12 2023-03-28 中山大学·深圳 基于动态隐式图像函数的任意尺度图像表示方法及***
CN116245736A (zh) * 2023-05-11 2023-06-09 南京信息工程大学 图像块的正交位置编码表示方法及上采样模块实现方法
CN116452696A (zh) * 2023-06-16 2023-07-18 山东省计算中心(国家超级计算济南中心) 一种基于双域特征采样的图像压缩感知重构方法及***

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180137603A1 (en) * 2016-11-07 2018-05-17 Umbo Cv Inc. Method and system for providing high resolution image through super-resolution reconstruction
CN109255755A (zh) * 2018-10-24 2019-01-22 上海大学 基于多列卷积神经网络的图像超分辨率重建方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180137603A1 (en) * 2016-11-07 2018-05-17 Umbo Cv Inc. Method and system for providing high resolution image through super-resolution reconstruction
CN109255755A (zh) * 2018-10-24 2019-01-22 上海大学 基于多列卷积神经网络的图像超分辨率重建方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
倪申龙;曾接贤;周世健;: "整体车牌图像超分辨率重建研究", 计算机技术与发展, no. 04 *
范佩佩;董秀成;李滔;任磊;李亦宁;: "基于非局部均值约束的深度图像超分辨率重建", 计算机辅助设计与图形学学报, no. 10 *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113096011A (zh) * 2021-03-25 2021-07-09 北京达佳互联信息技术有限公司 图像处理方法、装置及电子设备
CN113096011B (zh) * 2021-03-25 2024-02-09 北京达佳互联信息技术有限公司 图像处理方法、装置及电子设备
CN113538231A (zh) * 2021-06-17 2021-10-22 杭州电子科技大学 一种基于像素分布估计的单张图像超分辨重建***及方法
CN113538231B (zh) * 2021-06-17 2024-04-02 杭州电子科技大学 一种基于像素分布估计的单张图像超分辨重建***及方法
CN115861343A (zh) * 2022-12-12 2023-03-28 中山大学·深圳 基于动态隐式图像函数的任意尺度图像表示方法及***
CN115861343B (zh) * 2022-12-12 2024-06-04 中山大学·深圳 基于动态隐式图像函数的任意尺度图像表示方法及***
CN116245736A (zh) * 2023-05-11 2023-06-09 南京信息工程大学 图像块的正交位置编码表示方法及上采样模块实现方法
CN116452696A (zh) * 2023-06-16 2023-07-18 山东省计算中心(国家超级计算济南中心) 一种基于双域特征采样的图像压缩感知重构方法及***
CN116452696B (zh) * 2023-06-16 2023-08-29 山东省计算中心(国家超级计算济南中心) 一种基于双域特征采样的图像压缩感知重构方法及***

Also Published As

Publication number Publication date
CN112419150B (zh) 2024-04-02

Similar Documents

Publication Publication Date Title
CN112419150B (zh) 一种基于双边上采样网络的任意倍数图像超分辨率重建方法
CN107123089B (zh) 基于深度卷积网络的遥感图像超分辨重建方法及***
CN107154023B (zh) 基于生成对抗网络和亚像素卷积的人脸超分辨率重建方法
CN107895345B (zh) 一种提高人脸图像分辨率的方法和装置
CN111242846B (zh) 基于非局部增强网络的细粒度尺度图像超分辨率方法
CN110570353A (zh) 密集连接生成对抗网络单幅图像超分辨率重建方法
CN109685716B (zh) 一种基于高斯编码反馈的生成对抗网络的图像超分辨率重建方法
CN110070489A (zh) 一种基于视差注意力机制的双目图像超分辨方法
CN111598778A (zh) 一种绝缘子图像超分辨率重建方法
CN107392854B (zh) 一种基于局部自适应增益因子的联合上采样方法
KR20190059157A (ko) 영상 화질 개선방법 및 그 장치
CN114549308B (zh) 面向感知的具有大感受野的图像超分辨率重建方法及***
CN112001843A (zh) 一种基于深度学习的红外图像超分辨率重建方法
Yang et al. Image super-resolution based on deep neural network of multiple attention mechanism
CN111861884A (zh) 一种基于深度学习的卫星云图超分辨率重建方法
CN113469884A (zh) 基于数据仿真的视频超分辨方法、***、设备及存储介质
CN112907448A (zh) 一种任意比率图像超分辨率方法、***、设备及存储介质
CN115713462A (zh) 超分辨模型训练方法、图像识别方法、装置及设备
CN116523743A (zh) 一种基于循环神经网络的游戏超分辨率方法
CN113538231B (zh) 一种基于像素分布估计的单张图像超分辨重建***及方法
CN113674154B (zh) 一种基于生成对抗网络的单幅图像超分辨率重建方法及***
CN112348745B (zh) 一种基于残差卷积网络的视频超分辨率重构方法
CN115511733A (zh) 一种图像退化建模方法、神经网络训练方法和装置
CN111382845B (zh) 一种基于自注意力机制的模板重建方法
CN113674151A (zh) 一种基于深度神经网络的图像超分辨率重建方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant