CN109741256B - 基于稀疏表示和深度学习的图像超分辨率重建方法 - Google Patents
基于稀疏表示和深度学习的图像超分辨率重建方法 Download PDFInfo
- Publication number
- CN109741256B CN109741256B CN201811525354.2A CN201811525354A CN109741256B CN 109741256 B CN109741256 B CN 109741256B CN 201811525354 A CN201811525354 A CN 201811525354A CN 109741256 B CN109741256 B CN 109741256B
- Authority
- CN
- China
- Prior art keywords
- resolution
- image
- resolution image
- sparse representation
- super
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于稀疏表示和深度学习的图像超分辨率重建方法,解决了图像超分过程计算复杂,重建图像质量差的问题。实现步骤包括:收集提取训练数据块,色度和亮度字典联合优化训练;高分辨率图像块独立重构;稀疏表示的高分辨率图像重构;基于深度学习训练残差网络优化高频细节;图像超分辨率重建。本发明为防止边缘效应和模糊效应将色度和亮度数据区分独立重构,为优化稀疏表示输出高分辨率图像的高频细节信息,将基于稀疏表示重构的高分辨率图像输入残差网络,经4次卷积提取特征,特征融合输出高频残差图与输入按位相加重构超分辨率图像。本发明计算复杂度低,图像重建质量高,广泛用于遥感监测、犯罪侦查、交通管理等领域。
Description
技术领域
本发明属于图像处理技术领域,具体涉及超分辨率图像重建,具体是一种基于稀疏表示和深度学习的图像超分辨重建方法。用于遥感监测、军事侦察、交通及安全监控、医学诊断和模式识别、高清视频信号等应用中。
背景技术
图像获取过程中,由于成像距离、成像设备分辨率等因素的限制,成像***难以无失真地获取原始场景中的信息,成像***通常会受到变形、模糊、降采样和噪声等诸多因素的影响,从而导致获取图像质量的下降。因此,如何提高图像的空间分辨率,改善图像质量,一直以来都是成像技术领域亟待解决的问题。超分辨率重建技术是指通过图像处理算法来获得在成像***分辨率极限之上的更高分辨率图像,其实现成本相较于减小成像***像素尺寸和改变探测元排列方式等要低廉得多。为了获得更为精确和鲁棒的图像处理结果,通常需要通过从一幅或多幅具有互补信息的低分辨率图像中估计或合成出高分辨率图像。压缩感知理论指出,一幅图像能够在非常苛刻的条件下由它的一组稀疏表示系数在超完备字典上得到精确重建,本文基于稀疏表示和深度学习来实现单幅图像超分辨重建。信号稀疏表示理论及其应用研究的发展是伴随着压缩感知理论和机器学习研究进步取得的。稀疏理论源于神经科学,是机器学习和压缩感知理论中的重要组成部分。借鉴了压缩感知的思想,通过对大量低分辨率图像和高分辨率图像的稀疏表示和训练降维,实现超分辨率在整个学习样本空间的优化求解。一方面保证了足够的先验知识,减少了重构时所需的数据,提高了效率;另一方面有效克服了领域嵌入方法的过拟合或欠拟合现象。基于稀疏字典的图像超分辨率复原方法取得了较好的图像重建质量.但是,稀疏编码和重建过程需要多次迭代,算法复杂度较大,且基于稀疏表示重建出的高分辨率图像高频细节信息不够丰富。
针对基于传统学习方法的不足,深度学习引起了广泛关注,它的出现弥补了传统浅层学习方法的不足。国内外学者借鉴深度学习在图像分类及图像分割等任务中的成功经验,提出了基于深度学习的图像超分辨率复原方法。在基于深度学习的超分辨率复原方法中,深度网络结构的设计需要参照传统SR方法的思想和方案。结合深度网络的优势,基于深度学习的SR方法在网络结构与类型设计、先验信息结合方式及训练策略等方面做出贡献,并且提升了图像超分辨率复原的主客观质量。图像稀疏理论与超分辨算法结合具有重要的实际和理论价值。该技术不但可以改进图像的视觉效果,而且对图像的后续处理如特征提取、信息识别等具有十分重要的意义,例如在遥感监测、军事侦察、交通及安全监控、医学诊断和模式识别、高清视频信号等应用中,图像超分辨重建就为其提供了丰富的细节信息。因此本发明结合稀疏表示和深度学习进行图像超分辨率重建。
综上:基于传统的稀疏表示重建出的高分辨率图像高频细节信息不够丰富,恢复图像性能差;原始深度学习网络结构中时间、计算复杂度大,且残差网络通过双三次插值恢复超分辨率图像性能差。
发明内容
本发明的目的是针对现有技术的不足,提出一种时间、计算复杂度低且PSNR值高的基于稀疏表示和深度学习的图像超分辨率重建方法。
本发明是一种基于稀疏表示和深度学习的图像超分辨率重建方法,其特征在于,包括如下步骤:
(1)收集提取训练数据块:收集待重建图像同领域的任意高清图像,划分形成训练数据库和测试数据库,输入训练数据库中高分辨率图像和待重建的低分辨率图像,提取亮度信息Y和色度信息UV并各自分割形成相同分辨率的高分辨率图像样本块Xh和低分辨率图像样本块Xl;
(2)色度和亮度的字典联合优化训练:采用亮度信息和色度信息不同通道样本数据为训练前提,根据稀疏表示理论及字典学习,通过四个梯度算子提取低分辨率图像块Xl特征,并结合相同位置高分辨率特征合并成向量得到训练样本集,用此样本集作为训练字典的输入,通过传统稀疏表示理论法训练分别得到高分辨率字典Dh和低分辨率字典Dl;通过求解最小约束公式合并和更新高、低分辨率字典,分别得到色度和亮度通道对应的高分辨率字典Dh和低分辨率字典Dl;
(3)色度和亮度的高分辨率图像块独立重构:利用高分辨率字典Dh和低分辨率字典Dl将测试数据库中低分辨率图像块Yl转换为对应的高分辨率图像块Yh;
(4)基于稀疏表示的高分辨率图像重构:将所述高分辨率图像块Yh组合成为重建的高分辨率图像IHR;
(5)基于深度学习训练残差网络优化高频细节:优化基于稀疏表示重建的高分辨率图像IHR,将其输入至残差网络经过卷积层卷积得到特征图,将各层特征图融合输出高频残差细节图像,通过反向梯度传播减小输出图像与真实图像误差,更新和优化高频细节残差图;
(6)图像超分辨率重建:将基于稀疏表示重建高分辨率图像与网络优化高频细节残差图重构输出超分辨率图像,通过反向梯度传播减小输出图像与训练库中高分辨率图像的误差,更新和优化高频细节残差图,即更新超分辨率图像,此超分辨率图像保留更佳丰富的高频细节信息。
本发明有效的将稀疏表示与深度学习结合起来处理图像超分辨率重构问题,在提升图像质量性能的同时保证时间、计算复杂度。
与现有技术相比,本发明的有益之处在于:
本发明在权衡计算效率和图像质量前提下,将传统的基于稀疏表示方法中色度和亮度信息独立计算分别进行超分辨重建,重构高分辨率图像,抑制仅对亮度信息做超分辨重建,色度信息仅做双三次插值重建所带来的颜色块效应或模糊现象,进而提升图像质量性能;
本发明在基于稀疏表示重构的高分辨率图像基础上采用残差网络训练优化高频细节残差图,通过卷积提取输入的高分辨率图像的特征图,并将所得特征图融合,在有效迭代次数下,通过反向梯度计算损失函数,更新修正高分辨率的高频细节信息,输出高质量的高频细节残差图,进而提升图像质量性能;
残差网络仅采用4层卷积和特征融合相加的计算方式,网络层数少且仅通过卷积计算,计算量大大减少,计算效率有效提升,时间和计算复杂度低,保证算法有效性。
附图说明
图1为本发明图像超分辨率流程框图;
图2(a)为原始高分辨率图像;
图2(b)为采用双线性插值方法处理后所得图像;
图2(c)为采用稀疏表示重建法处理后所得图像;
图2(d)采用VDSR网络重建法处理后所得图像;
图2(e)为采用深度学习残差网络处理后所得图像;
图2(f)为采用本发明处理后所得图像。
具体实施方式
为了便于理解本发明,下面结合附图和具体实施例,对本发明详细说明。
实施例1
图像相比于文字含有更多的信息,且可以很直观的提供给人类信息,在遥感监测、军事侦察、交通等应用中,图像超分辨重建为其提供了丰富的细节信息,但是目前基于传统的稀疏表示重建出的高分辨率图像高频细节信息不够丰富,具有边缘效应,恢复图像性能差;原始深度学习网络结构庞大,层数复杂导致时间、计算复杂度大,且基于深度学习的残差网络通过双三次插值恢复超分辨率图像性能差。针对这些问题本发明展开研究,提出一种基于稀疏表示和深度学习的图像超分辨率重建方法,参见图1,包括如下步骤,收集训练数据库,训练样本块提取,字典联合训练,高分辨率图像重构,基于深度学习训练残差网络优化高频细节,图像超分辨重建。
(1)收集提取训练数据块:收集待重建图像同领域的任意高清图像,划分形成训练数据库和测试数据库,输入训练数据库中高分辨率图像和待重建的低分辨率图像,提取所有输入图像的亮度信息Y和色度信息UV并各自分割形成相同分辨率的高分辨率图像样本块Xh和低分辨率图像样本块Xl。
(2)色度和亮度的字典联合优化训练:采用亮度信息和色度信息不同通道样本数据为训练前提,根据稀疏表示理论及字典学习,通过四个梯度算子提取低分辨率图像块Xl特征,并结合相同位置高分辨率特征合并成向量得到训练样本集,作为训练字典输入训练对应的高分辨率字典Dh和低分辨率字典Dl;用训练样本集作为训练字典的输入,首先通过传统稀疏表示理论法训练分别得到高分辨率字典Dh和低分辨率字典Dl;为了满足两个字典在稀疏表示下的同构性及不同通道的差异性,通过求解最小约束公式合并和更新高、低分辨率字典,分别得到色度和亮度通道对应的高分辨率字典Dh和低分辨率字典Dl。
(3)色度和亮度的高分辨率图像块独立重构:分别以色度和亮度信息独立条件为前提,通过上述不同通道信息对应得到的高低分辨率字典,将测试数据库中仅含色度信息的低分辨率图像块Yl通过其对应的高、低分辨率字典转换为对应的高分辨率图像块Yh,同样的方法,再将含亮度信息的低分辨率图像块Yl通过其对应的高、低分辨率字典转换为对应的高分辨率图像块Yh,独立完成各自高分辨率图像块的重构。
(4)基于稀疏表示的高分辨率图像重构:将所述的色度的高分辨率图像块Yh组合成仅含色度信息通道的高分辨率图像,将所述的亮度的高分辨率图像块Yh组合成仅含亮度信息通道的高分辨率图像,通过图像格式转换将其转换为RGB图像格式的彩色高分辨率图像,成为重建的高分辨率图像IHR。
(5)基于深度学习训练残差网络优化高频细节:优化基于稀疏表示重建的高分辨率图像IHR,将其输入至残差网络经过卷积层卷积得到特征图,并通过线性整流激活函数(ReLU)去除负数数据,更新特征图,将各层特征图经过卷积,统一化数据通道后分别与上一层特征图融合输出高频残差细节图像,并通过反向梯度传播减小输出图像与训练库中高分辨率图像的误差,更新和优化高频细节残差图。
(6)图像超分辨率重建:将步骤4中得到的基于稀疏表示重建高分辨率图像与步骤5中得到的网络优化高频细节残差图按位相加重构输出超分辨率图像,通过反向梯度传播减小输出图像与训练库中高分辨率图像的误差,更新和优化高频细节残差图,即更新输出的超分辨率图像,此超分辨率图像保留更佳丰富的高频细节信息。
现有技术中重建出的高分辨率图像高频细节信息不够丰富,恢复图像性能差;深度学习网络结构庞大,时间、计算复杂度大,本发明在权衡计算效率和图像质量前提下,将传统的基于稀疏表示方法中色度和亮度信息独立计算分别进行超分辨重建;有效的将稀疏表示与深度学习结合起来处理图像超分辨率重构问题,给出了整体的技术方案,提升了图像质量性能;在提升图像质量性能的同时保证时间、计算复杂度。
本发明大幅度提升超分辨图像的高频细节图,不但可以改进图像的视觉效果,而且对图像的后续处理如特征提取、信息识别等具有十分重要的意义,图像超分辨重建为其提供了丰富的细节信息,针对图像中小目标信息可以通过超分辨率重建将其放大,直观的获得感兴趣区域信息,例如在遥感监测观测图像中地面,山川等目标更直观,犯罪侦察中观测犯罪分子的容貌特征信息更佳清晰详细。
实施例2
基于稀疏表示和深度学习的图像超分辨率重建方法同实施例1,步骤2中稀疏表示理论及字典学习,稀疏系数描述如下数学表达式:
其中,x∈Rm是某个图像(块)的向量表示,D∈RN*L是超完备字典,a是图像x在字典D下的稀疏系数,若a中仅极少数系数不为零,即||a||0<<N,则图像x是稀疏的。
在上述稀疏理论基础上,求解所有的训练集约束优化问题,得到稀疏矩阵α和超完备字典D:
其中,X为训练样本对,Dh和Dl是具有一致的稀疏矩阵α的高分辨率字典和低分辨率字典,λ为正则化参数;
2.稀疏编码阶段:使用某种追踪算法优化以下方程式,计算每个输入样本X的对应的稀疏表示系数矢量α。
3.字典更新阶段:对于D(J-1)中的每一列进行更新,k=1,2,…,N,
本发明通过对大量低分辨率图像和高分辨率图像的稀疏表示和训练降维,实现超分辨率在整个学习样本空间的优化求解,求解速度快和良好的抗噪性能,适用于求解具有几百个图像样本的字典设计问题,有效克服了过拟合或欠拟合现象。
实施例3
基于稀疏表示和深度学习的图像超分辨率重建方法同实施例1-2,步骤2中所述的字典联合训练,通过传统稀疏表示理论训练分别得到高分辨率字典Dh和低分辨率字典Dl,在字典训练阶段,为保证能获得相同的稀疏系数,根据下式进行训练:
为了满足两个字典在稀疏表示下的同构性及不同通道的差异性,保证稀疏矩阵相同条件下,合并上述两式需要求解最小约束公式:
其中,i代表y,cb,cr三个通道即YUV亮度和色度通道,N和M分别表示高低图像样本特征块的向量维度。λ为正则化参数,α表示稀疏表示系数矢量。
本发明在基于传统稀疏表示方法中考虑高、低分辨率两个字典在稀疏表示下的同构性及不同通道的差异性,将训练图像的色度和亮度信息分别处理为不同通道,根据亮度信息数据按照如上的传统稀疏表示方法计算其对应的高、低分辨率字典,色度信息数据也按照独立计算如上的传统稀疏表示方法计算其对应的高、低分辨率字典,考虑联合计算的同构和不同通道计算的差异性,合并各个通道的计算公式,进一步联合更新计算高分辨率字典,在此计算方式下高分辨率字典更加稀疏,通过此重构的高分辨率图像质量更佳。
实施例4
基于稀疏表示和深度学习的图像超分辨率重建方法同实施例1-3,步骤3和步骤4所述的高分辨率图像块独立重构和高分辨率图像重构,具体过程是:在得到y,cb,cr三个通道各自对应的高分辨率字典Dh和低分辨率字典Dl后;对于每个低分辨率的测试图像提取y,cb,cr通道数据,通过各自对应的低分辨率字典和通道图像数据计算得到各自对应的稀疏表示系数α;使用基于稀疏表示算法求解其在各自对应的低分辨率字典Dl上的稀疏系数α:
最后,y,cb,cr通道的高分辨率的图像数据通过各自的稀疏系数α和高分辨率字典重构:
Y=Dh*α
通过将Ycbcr通道数据转换为RGB格式重构获得稀疏表示的高分辨率图像IHR。
本发明将色度和亮度信息独立计算,分别将色度和亮度信息根据各自对应的高低分辨率字典,恢复出高分辨率图像块,将高分辨率图像块按位组合出高分辨率图像,通过图像格式转换成理想的高分辨率图像,本发明这样的独立计算,避免了统一计算的边缘效应和抑制了模糊效应,进而提升图像质量性能。
实施例5
基于稀疏表示和深度学习的图像超分辨率重建方法同实施例1-4,步骤5所述的基于深度学习训练残差网络优化高频细节,将基于稀疏表示重构的高分辨率图像IHR输入残差网络(Residual network)以获得高频细节残差图像,并与稀疏表示重构的对应的高分辨率图像IHR按位相加重构得到超分辨率图像,通过反向梯度传播减小输出图像与训练库中高分辨率图像的误差,更新和优化高频细节残差图;即更新超分辨率图像,其特征分如下几个步骤:
5.1初始化,输入基于稀疏表示重构的高分辨率图像和训练库中的高分辨率图像,对比输入原始训练库中待重建低分辨率图像经过上采样成高分辨率图像,输入经稀疏表示重构的高分辨率图像,改善输入端为下一步提取特征提供更多信息。
5.2通过4层卷积网络和ReLU激活函数依次提取图像的四层特征;网络结构仅采用四层卷积网络,在达到预期效果的同时大幅度减少计算复杂度,采用ReLU函数不涉及求导及除法,计算量相对小且会是一部分神经元的输出为0,使网络稀疏,减少参数间相互依存关系,缓解过拟合问题的发生。
5.3通过特征融合将第4层卷积网络的输出特征与第3层卷积网络输出的结果经过3*3卷积输出特征,保证输出均为1个通道,将上述的两个特征结果融合,输出融合后的特征。
5.4将5.3输出的特征与第2层卷积网络输出的特征经过3*3卷积输出特征,保证输出均为1个通道,将上述的两个特征结果融合,输出融合后的特征。
5.5将5.4输出的特征与第1层卷积网络输出的特征经过3*3卷积输出特征,保证输出均为1个通道,将上述的两个特征结果融合,输出融合后的特征,以提取更佳丰富的高频细节信息,经过卷积后输出高频细节残差图像。
本发明通过残差网络更新和训练基于稀疏表示输出的高频细节图,使其含有更佳丰富的细节信息,即小目标信息更佳,有助于提升图像质量,网络层数少采用ReLU激活函数,仅通过卷积及取绝对值计算,保证网路稀疏性,时间和计算复杂度低,提高算法有效性。
实施例6
基于稀疏表示和深度学习的图像超分辨率重建方法同实施例1-5,步骤6所述的图像超分辨率重建,以训练库中原始高分辨率图像为标签(label),将基于深度学习残差网络训练得到的高频细节残差图像与基于稀疏表示获得的高分辨率图像按位相加重构超分辨率图像;以label及重构超分辨率图像为损失函数(loss)输入,通过梯度反向传播更新高频细节残差图像的输出,即更新输出超分辨率图像。
本发明通过实现了一种基于稀疏表示和深度学习的图像超分辨率重构方法,在传统基于稀疏表示算法和深度学习知识结合框架下,丰富修正高分辨率的高频细节信息,减少边缘效应,将图像中小目标信息通过超分辨率重建将其放大,直观的获得感兴趣区域信息,在保证计算复杂度基础上大幅度提升恢复图像质量。
实施例7
基于稀疏表示和深度学习的图像超分辨率重建方法同实施例1-6,图像的稀疏表示信号的稀疏性指的是该信号通过一个超完备字典里极少的基本信号(又称为原子)的线性组合进行表示,稀疏表示的目标是寻找仅包含少量未知非零元素的线性解。
其中,x∈Rm是某个图像(块)的向量表示,D∈RN*L是超完备字典,a是图像x在字典D下的稀疏系数,若a中仅极少数系数不为零,即||a||0<<N,则图像x是稀疏的。
针对所有的训练集求解约束优化问题,一般会在求解公式中增加拉格朗日乘子项,转化求解约束优化问题:
其中,公式前半部分是在l2范数下的正则化约束求解,后半部分是在l0范数下的正则化约束求解。最后得到信号的稀疏系数a和超完备字典D;X为训练样本对,Dh和Dl是具有一致的稀疏矩阵α的高分辨率字典和低分辨率字典,λ为正则化参数;
(一)字典学习和高分辨图像重构
基于稀疏表示的字典学习设计速度有很大提升,在字典设计过程中更新字典步骤,采用以步长为1的迭代方式逐列进行更新,每次更新一次且增加新的一列数据,有效解决关于矩阵计算复杂问题,同时更新字典原子和稀疏表示系数,在字典训练阶段,为保证能获得相同的稀疏系数,根据下式进行训练:
为了满足两个字典在稀疏表示下的同构性及不同通道的差异性,保证稀疏矩阵相同条件下,更新求解公式如下,算法分两个步骤训练和迭代:
其中,i代表y,cb,cr三个通道即YUV亮度和色度通道,N和M分别表示高低图像样本特征块的向量维度,λ为正则化参数,稀疏表示系数矢量α。
2.稀疏编码阶段:使用某种追踪算法优化以下方程式,计算每个输入样本X的对应的稀疏表示系数矢量α。
3.字典更新阶段:对于D(J-1)中的每一列进行更新,k=1,2,…,N,
(5)通过反向梯度迭代优化稀疏系数矩阵α和更新字典D。
高分辨率图像块独立重构和高分辨率图像重构,具体过程是:在得到y,cb,cr三个通道各自对应的高分辨率字典Dh和低分辨率字典Dl后;对于每个低分辨率的测试图像提取y,cb,cr通道数据,通过各自对应的低分辨率字典和通道图像数据计算得到各自对应的稀疏表示系数α;使用基于稀疏表示算法求解其在各自对应的低分辨率字典Dl上的稀疏系数α:
最后,y,cb,cr通道的高分辨率的图像数据通过各自的稀疏系数α和高分辨率字典重构:
Y=Dh*α
通过将Ycbcr通道数据转换为RGB格式重构获得稀疏表示的高分辨率图像IHR。
(二)深度学习残差网络训练超分辨率图像
基于深度学习训练残差网络优化高频细节,将基于稀疏表示重构的高分辨率图像IHR输入残差网络(Residual network)以获得高频细节残差图像,并与稀疏表示重构的对应的高分辨率图像IHR按位相加重构得到超分辨率图像,通过反向梯度传播减小输出图像与训练库中高分辨率图像的误差,更新和优化高频细节残差图;即更新超分辨率图像,其特征分如下几个步骤:
5.1初始化,输入基于稀疏表示重构的高分辨率图像和训练库中的高分辨率图像,改善输入端为下一步提取特征提供更多信息。
5.2通过4层卷积网络和ReLU激活函数依次提取图像的四层特征。
5.3通过特征融合将第4层卷积网络的输出特征与第3层卷积网络输出的结果经过3*3卷积输出特征,将上述的两个特征结果融合,输出融合后的特征。
5.4将5.3输出的特征与第2层卷积网络输出的特征经过3*3卷积输出特征,将上述的两个特征结果融合,输出融合后的特征。
5.5将5.4输出的特征与第1层卷积网络输出的特征经过3*3卷积输出特征,将上述的两个特征结果融合,输出融合后的特征,以提取更佳丰富的高频细节信息,经过卷积后输出高频细节残差图像。
以训练库中原始高分辨率图像为标签(label),将基于深度学习残差网络训练得到的高频细节残差图像与基于稀疏表示获得的高分辨率图像按位相加重构超分辨率图像;以label及重构超分辨率图像为损失函数(loss)输入,通过梯度反向传播更新高频细节残差图像的输出,即更新输出超分辨率图像。
本发明对彩色图像进行高性能的超分辨重建。实现步骤为:基于稀疏表示训练样本的提取模块将连续生成高低分辨率图像样本块;字典学习阶段将训练图像样本块得到高低分辨率字典;在图像重构阶段,通过低分辨率字典和低分辨率图像计算得到稀疏表示系数α;依据高分辨率字典和稀疏表示系数α重构输出基于稀疏表示的高分辨率图像。
为修正基于稀疏表示输出高分辨率图像的高频细节信息,将基于稀疏表示重构的高分辨率图像输入残差网络,经过4次卷积及ReLU激活函数提取特征,通过特征融合输出高频残差图。基于稀疏表示输出高分辨率图像与残差网络输出高频残差图重构输出超分辨率图像。
下面给出技术方案和实验数据结合的例子,对本发明进一步说明。
实施例7
基于稀疏表示和深度学习的图像超分辨率重建方法同实施例1-6,下面结合附图和具体实施例,对本发明进行更详细的说明。
参见图1,本发明是一种基于深度学习和稀疏表示的图像超分辨重建方法,首先利用基于稀疏表示的方法,以配对的彩色训练图像的高分辨率图像和低分辨图像为输入训练获得色度(UV)和亮度Y通道的高分辨率和低分辨率字典对。然后对测试图像使用低分辨率字典进行稀疏表示以得到稀疏矩阵α,最后使用高分辨率字典进行色度(UV)和亮度的Y的超分辨率重建,最后将Ycbcr通道数据转换为RGB格式彩色图像即得到基于稀疏表示重建的高分辨率图像IHR。
参见图1,以基于稀疏表示重建高分辨率图像为输入图像,以训练图像中原始高分辨率图像为label,通过深度学习残差网络训练得到高频细节图,优化残差网络仅使用四层卷积和ReLU激活函数,将第四层输出特征与第三层输出特征经过卷积后融合(concat),与第二层、第一层依次类推,将特征融合,最后卷积输出高频残差图。
以训练库中原始高分辨率图像为标签(label),将基于深度学习残差网络训练得到的高频细节残差图像与基于稀疏表示获得的高分辨率图像按位相加重构超分辨率图像;以label及重构超分辨率图像为损失函数(loss)输入,通过梯度反向传播更新高频细节残差图像的输出,即更新输出超分辨率图像。
本发明字典学习具体步骤为:
1.初始化设置。设定低分辨率图像块的大小为5*5,重叠部分是1个像素,超分辨率倍数是2;低分辨率图像样本特征块的向量维度N为100,因此,高分辨率图像块的大小为10*10,重叠部分是2个像素。高分辨率图像样本特征块的向量维度N为100,λ为正则化参数设为1。
2.对彩色图像进行转换,将RGB彩色空间转换到YUV彩色空间,亮度Y和色度UV均保留信息。
3.分别对彩色图像的亮度Y信息和色度UV信息进行下采样,得其低分辨率图像信息。
4.对低分辨率图像和高分辨率图像按照初始设置的图像大小进行分块操作。
5.使用训练图像块进行字典学习,即求解
稀疏表示超分辨率步骤为:
1.初始化设置。设定低分辨率图像块的大小为5*5,重叠部分是1个像素,低分辨率图像样本特征块向量维度N为100,字典大小为512,超分辨率倍数是2;因此,高分辨率图像块的大小为10*10,重叠部分是4个像素。高分辨率图像样本特征块的向量维度N为100,λ为正则化参数设为0.2。
2.对彩色图像进行转换,将RGB彩色空间转换到YUV彩色空间,亮度Y和色度UV均保留信息。
3.分别对彩色图像的亮度Y信息和色度UV信息进行下采样,得其低分辨率图像信息。
5.使用上一步中求解的稀疏系数,在高分辨率字典下分别对亮度和色度进行超分辨重建,即yi=Dhai。
6.将亮度信息和色度信息融合,将YUV彩色空间转换为RGB彩色空间,得到基于稀疏表示的高分辨率图像。
深度学习残差网络超分辨率步骤为:
1.初始化设置。基于稀疏表示重构的高分辨率图像作为网络的输入图像,高分辨率图像经过下采样后得到低分辨率图像,且以原始高分辨率图像为label。
本例中,batch size设定为64,网络经过四层卷积,每一层设定的参数为:卷积核大小为3*3,步长为1,padding为1,w滤波器的类型为msra,w的衰减指数为0.0001。b滤波器的类型为constant,b的修正指数为0.0001。最大迭代935840次。采用在GPU下训练和测试图像。
2.低分辨率图像输入预训练好的卷积神经网络,得到各层网络参数w和b;
3.将低分辨率图像与训练好的网络卷积依次得到第1、2、3、4层特征图。
4.将第三层特征图经过卷积核大小为3*3的卷积,输出一个通道与第四层特征图卷积后相加,输出此时特征图。
5.将上个步骤输出的特征图与第二层特征图经过卷积核大小为3*3的卷积输出的特征相加,输出此时特征图。
6.将上个步骤输出的特征图与第一层特征图经过卷积核大小为3*3的卷积输出的特征相加,经过卷积得到高频细节残差图。
7.将高频细节残差图与网络输入的基于稀疏表示重构的高分辨率图像相加以获得超分辨率图像。
8.通过反向梯度传播,原始高分辨率图像和超分辨率图像作为loss的输入,按照初始化设定的loss阈值和迭代次数更新高频细节残差图即更新优化获得最终的超分辨率图像。
为了验证算法的有效性,本发明方法使用set5数据集,其中包括所需的训练图像和测试图像样本,其中测试图像不包含于训练图像,本文结合主观测评和客观测评的结果,比较本发明和其他常用插值法以及其他较为先进的超分辨率方法的结果。
为了主观和客观的衡量本发明算法的性能,表1给出了峰值信噪比(PSNR)和结构相似性(SSIM)的性能指标,可以得出无论PSNR还是SSIM,本发明的方法优于其他各类方法。
表1
双三次插值 | 稀疏表示 | VDSR | 本发明 | |
PSNR | 27.4577dB | 30.0997dB | 30.3417dB | 31.1532dB |
SSIM | 0.9816 | 0.9834 | 0.9861 | 0.9868 |
图2(a)~(f)中分别给出了原始高分辨率图像以及双三次插值、稀疏表示、VDSR网络和本发明对待重建低分辨率图像的超分辨图像。仅从肉眼的观测可见,图2(b)双三次插值和图2(c)稀疏表示相比,明显存在细节模糊,图2(d)VDSR网络恢复的图像中细节信息更佳清晰,但是某些局部区域存在细节模糊,图2(e)是本发明得到的高频细节图含有更佳丰富的细节信息,图2(f)超分辨率图像对比图2(a)~图2(d)更佳接近图2(a),模糊效应更小含有更佳丰富的信息无边缘效应,无论从肉眼视觉效果还是客观评价指标。
总之,无论从肉眼视觉效果还是客观评价指标,均表明本发明方法可以更好地进行图像超分辨处理,获得更好的图像重建质量。
简而言之,本发明公开的一种基于深度学习和稀疏表示的图像超分辨重建方法,解决了图像超分过程计算复杂,恢复图像质量差的问题。实现步骤包括:收集提取训练数据块,色度和亮度字典联合优化训练;高分辨率图像块独立重构;稀疏表示的高分辨率图像重构;基于深度学习训练残差网络优化高频细节;图像超分辨率重建。本发明为防止边缘效应和模糊效应将色度和亮度数据区分独立重构,为优化稀疏表示输出高分辨率图像的高频细节信息,将基于稀疏表示重构的高分辨率图像输入残差网络,经4次卷积提取特征,特征融合输出高频残差图与输入按位相加重构超分辨率图像。本发明计算复杂度低,图像超分质量高,广泛用于遥感监测、犯罪侦查、交通管理等领域。
Claims (5)
1.一种基于稀疏表示和深度学习的图像超分辨率重建方法,其特征在于,包括如下步骤,
(1)收集提取训练数据块:收集待重建图像同领域的任意高清图像,划分形成训练数据库和测试数据库,输入训练数据库中高分辨率图像和待重建的低分辨率图像,提取亮度信息Y和色度信息UV并各自分割形成相同分辨率的高分辨率图像样本块Xh和低分辨率图像样本块Xl;
(2)色度和亮度的字典联合优化训练:采用亮度信息和色度信息不同通道样本数据为训练前提,根据稀疏表示理论及字典学习,通过四个梯度算子提取低分辨率图像块Xl特征,并结合相同位置高分辨率特征合并成向量得到训练样本集,用此样本集作为训练字典的输入,通过传统稀疏表示理论法训练分别得到高分辨率字典Dh和低分辨率字典Dl;通过求解最小约束公式合并和更新高、低分辨率字典,分别得到色度和亮度通道对应的高分辨率字典Dh和低分辨率字典Dl;
(3)色度和亮度的高分辨率图像块独立重构:利用高分辨率字典Dh和低分辨率字典Dl将测试数据库中低分辨率图像块Yl转换为对应的高分辨率图像块Yh;
(4)基于稀疏表示的高分辨率图像重构:将所述高分辨率图像块Yh组合成为重建的高分辨率图像IHR;
(5)基于深度学习训练残差网络优化高频细节:优化基于稀疏表示重建的高分辨率图像IHR,将其输入至残差网络经过卷积层卷积得到特征图,将各层特征图融合输出高频残差细节图像,通过反向梯度传播减小输出图像与真实图像误差,更新和优化高频细节残差图;
(6)图像超分辨率重建:将基于稀疏表示重建高分辨率图像与网络优化高频细节残差图重构输出超分辨率图像,此超分辨率图像保留更佳丰富的高频细节信息。
3.根据权利要求1所述的基于稀疏表示和深度学习的图像超分辨率重建方法,其特征在于:步骤3和步骤4所述的高分辨率图像块独立重构和高分辨率图像重构,具体过程是:在得到y,cb,cr三个通道各自对应的高分辨率字典Dh和低分辨率字典Dl后;对于每个低分辨率的测试图像提取y,cb,cr通道数据,通过各自对应的低分辨率字典和通道图像数据计算得到各自对应的稀疏表示系数α;使用基于稀疏表示算法求解其在各自对应的低分辨率字典Dl上的稀疏系数α:
最后,y,cb,cr通道的高分辨率的图像数据通过各自的稀疏系数α和高分辨率字典重构:
Y=Dh*α
通过将Ycbcr通道数据转换为RGB格式重构获得稀疏表示的高分辨率图像IHR。
4.根据权利要求1所述的基于稀疏表示和深度学习的图像超分辨率重建方法,其特征在于:步骤5所述的基于深度学习训练残差网络优化高频细节,分如下几个步骤:
5.1初始化,输入基于稀疏表示重构的高分辨率图像和训练库中的高分辨率图像;
5.2通过4层卷积网络和线性整流激活函数(ReLU)依次提取图像的四层特征;
5.3通过特征融合将第4层卷积网络的输出特征与第3层卷积网络输出的特征经过3*3卷积后的结果融合输出特征;
5.4将5.3输出的特征与第2层卷积网络输出的特征经过3*3卷积后的结果融合输出特征;
5.5将5.4输出的特征与第1层卷积网络输出的特征经过3*3卷积后的结果融合输出特征;以提取更佳丰富的高频细节信息,经过卷积后输出高频细节残差图像。
5.根据权利要求1中所述的基于稀疏表示和深度学习的图像超分辨率重建方法,其特征在于:步骤6所述的图像超分辨率重建,以训练库中原始高分辨率图像为标签(label),将基于深度学习残差网络训练得到的高频细节残差图像与基于稀疏表示获得的高分辨率图像按位相加重构超分辨率图像;以label及重构超分辨率图像为损失函数(loss)输入,通过梯度反向传播更新高频细节残差图像的输出,即更新输出超分辨率图像。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811525354.2A CN109741256B (zh) | 2018-12-13 | 2018-12-13 | 基于稀疏表示和深度学习的图像超分辨率重建方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811525354.2A CN109741256B (zh) | 2018-12-13 | 2018-12-13 | 基于稀疏表示和深度学习的图像超分辨率重建方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109741256A CN109741256A (zh) | 2019-05-10 |
CN109741256B true CN109741256B (zh) | 2023-01-06 |
Family
ID=66359326
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811525354.2A Active CN109741256B (zh) | 2018-12-13 | 2018-12-13 | 基于稀疏表示和深度学习的图像超分辨率重建方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109741256B (zh) |
Families Citing this family (41)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111968067B (zh) * | 2019-05-20 | 2023-08-22 | 北京航空航天大学 | 基于硅传感器相机的短波红外图像处理方法、装置及设备 |
CN112017267B (zh) * | 2019-05-28 | 2023-07-25 | 上海科技大学 | 基于机器学习的流体快速合成方法、装置、***和介质 |
CN110288526B (zh) * | 2019-06-14 | 2023-06-13 | 中国科学院光电技术研究所 | 一种基于深度学习的图像重建算法提升单像素相机成像质量的优化方法 |
CN112116526B (zh) * | 2019-06-19 | 2024-06-11 | 中国石油化工股份有限公司 | 基于深度卷积神经网络的火炬烟雾图像的超分辨率方法 |
CN110232670B (zh) * | 2019-06-19 | 2023-05-12 | 重庆大学 | 一种基于高低频分离的图像视觉效果增强的方法 |
CN110660021B (zh) * | 2019-08-16 | 2022-12-20 | 西安理工大学 | 一种基于深度学习的脉冲涡流热成像高分辨率清晰化方法 |
CN110706156B (zh) * | 2019-09-16 | 2023-03-07 | 昆明理工大学 | 基于多成分分析和残差补偿的图像融合与超分辨率重建联合实现方法 |
CN110827198B (zh) * | 2019-10-14 | 2023-11-21 | 唐山学院 | 基于压缩感知和超分辨率重构的多相机全景图像构建方法 |
CN112767290B (zh) * | 2019-11-01 | 2022-11-11 | RealMe重庆移动通信有限公司 | 图像融合方法、图像融合装置、存储介质与终端设备 |
CN111080516B (zh) * | 2019-11-26 | 2023-04-28 | 广东石油化工学院 | 基于自样例增强的超分辨率图像重建方法 |
CN110956671B (zh) * | 2019-12-12 | 2022-08-02 | 电子科技大学 | 一种基于多尺度特征编码的图像压缩方法 |
CN111105354A (zh) * | 2019-12-24 | 2020-05-05 | 武汉工程大学 | 基于多源深度残差网络的深度图像超分辨率方法及装置 |
CN111445388A (zh) * | 2019-12-27 | 2020-07-24 | 珠海大横琴科技发展有限公司 | 一种图像超分辨重建模型训练方法、船只跟踪方法及装置 |
CN111260566B (zh) * | 2020-01-09 | 2022-08-09 | 复旦大学 | 一种基于稀疏先验的图像复原方法 |
CN111402126B (zh) * | 2020-02-15 | 2023-12-22 | 北京中科晶上科技股份有限公司 | 一种基于分块的视频超分辨率方法和*** |
CN111402141B (zh) * | 2020-03-25 | 2024-02-09 | 中国计量大学 | 串联式单图像超分辨率重建方法 |
CN111713035B (zh) * | 2020-04-07 | 2022-12-20 | 东莞理工学院 | 基于人工智能的mimo多天线信号传输与检测技术 |
CN111784571A (zh) * | 2020-04-13 | 2020-10-16 | 北京京东尚科信息技术有限公司 | 一种提高图像分辨率的方法、装置 |
CN111524072B (zh) * | 2020-04-26 | 2022-08-26 | 重庆紫光华山智安科技有限公司 | 超分辨重构网络训练方法和装置、电子设备及存储介质 |
CN111696042B (zh) * | 2020-06-04 | 2023-06-27 | 四川轻化工大学 | 基于样本学习的图像超分辨重建方法 |
CN111915481B (zh) * | 2020-06-08 | 2024-03-29 | 北京大米未来科技有限公司 | 图像处理方法、装置、电子设备及介质 |
CN111784584B (zh) * | 2020-07-14 | 2023-08-01 | 云南电网有限责任公司昆明供电局 | 一种基于深度学习的绝缘子遥感影像超分辨率方法 |
CN112116674A (zh) * | 2020-08-13 | 2020-12-22 | 香港大学 | 图像重建方法、装置、终端及存储介质 |
CN112529777A (zh) * | 2020-10-30 | 2021-03-19 | 肇庆市博士芯电子科技有限公司 | 基于多模态学习卷积稀疏编码网络的图像超分辨率分析方法 |
CN112734646B (zh) * | 2021-01-19 | 2024-02-02 | 青岛大学 | 一种基于特征通道划分的图像超分辨率重建方法 |
CN112734645B (zh) * | 2021-01-19 | 2023-11-03 | 青岛大学 | 一种基于特征蒸馏复用的轻量化图像超分辨率重建方法 |
CN112837220B (zh) * | 2021-01-21 | 2023-07-25 | 华北电力大学(保定) | 一种提高红外图像分辨率的方法及其用途 |
CN112837221B (zh) * | 2021-01-26 | 2022-08-19 | 合肥工业大学 | 一种基于双重判别的sar图像超分辨率重建方法 |
CN112509071B (zh) * | 2021-01-29 | 2021-04-30 | 电子科技大学 | 一种亮度信息辅助的色度信息压缩重建方法 |
CN113034414B (zh) * | 2021-03-22 | 2022-11-11 | 上海交通大学 | 一种图像重构方法、***、装置及存储介质 |
CN112949636B (zh) * | 2021-03-31 | 2023-05-30 | 上海电机学院 | 一种车牌超分辨率识别方法、***及计算机可读介质 |
CN113327196B (zh) * | 2021-04-30 | 2023-04-07 | 哈尔滨工业大学 | 一种面向mr图像超分辨的联合字典训练优化方法 |
CN113419931B (zh) * | 2021-05-24 | 2024-05-17 | 北京达佳互联信息技术有限公司 | 分布式机器学习***的性能指标确定方法及装置 |
CN113628108B (zh) * | 2021-07-05 | 2023-10-27 | 上海交通大学 | 基于离散表示学习的图像超分辨率方法和***、终端 |
CN114187181B (zh) * | 2021-12-17 | 2024-06-07 | 福州大学 | 基于残差信息精炼的双路径肺部ct图像超分辨率方法 |
CN114820326B (zh) * | 2022-05-25 | 2024-05-31 | 厦门大学 | 基于可调节核稀疏化的高效单帧图像超分方法 |
CN115880157B (zh) * | 2023-01-06 | 2023-05-26 | 中国海洋大学 | 一种k空间金字塔特征融合的立体图像超分辨率重建方法 |
CN116205806B (zh) * | 2023-01-28 | 2023-09-19 | 荣耀终端有限公司 | 一种图像增强方法及电子设备 |
CN115797183B (zh) * | 2023-02-06 | 2023-11-21 | 泉州装备制造研究所 | 一种图像超分辨率重建方法 |
CN117148347A (zh) * | 2023-06-13 | 2023-12-01 | 中国人民解放军空军预警学院 | 一种基于深度学习网络的二维联合成像与自聚焦方法 |
CN118052811B (zh) * | 2024-04-10 | 2024-06-11 | 南京航空航天大学 | 一种基于nam-dssd模型的飞机蒙皮缺陷检测方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105931179B (zh) * | 2016-04-08 | 2018-10-26 | 武汉大学 | 一种联合稀疏表示与深度学习的图像超分辨率方法及*** |
CN107481189B (zh) * | 2017-06-28 | 2020-04-28 | 西安邮电大学 | 一种基于学习的稀疏表示的超分辨率图像重建方法 |
-
2018
- 2018-12-13 CN CN201811525354.2A patent/CN109741256B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN109741256A (zh) | 2019-05-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109741256B (zh) | 基于稀疏表示和深度学习的图像超分辨率重建方法 | |
CN110119780B (zh) | 基于生成对抗网络的高光谱图像超分辨重建方法 | |
CN109102477B (zh) | 一种基于非凸低秩稀疏约束的高光谱遥感图像恢复方法 | |
CN106952228B (zh) | 基于图像非局部自相似性的单幅图像的超分辨率重建方法 | |
CN114119444B (zh) | 一种基于深度神经网络的多源遥感图像融合方法 | |
CN111080567A (zh) | 基于多尺度动态卷积神经网络的遥感图像融合方法及*** | |
CN108921786A (zh) | 基于残差卷积神经网络的图像超分辨率重构方法 | |
CN106920214B (zh) | 空间目标图像超分辨率重建方法 | |
Huang et al. | Deep hyperspectral image fusion network with iterative spatio-spectral regularization | |
CN106709875A (zh) | 一种基于联合深度网络的压缩低分辨率图像复原方法 | |
CN108269244B (zh) | 一种基于深度学习和先验约束的图像去雾*** | |
CN110136060B (zh) | 基于浅层密集连接网络的图像超分辨率重建方法 | |
CN113516601B (zh) | 基于深度卷积神经网络与压缩感知的图像恢复方法 | |
CN106447632B (zh) | 一种基于稀疏表示的raw图像去噪方法 | |
CN105761251A (zh) | 一种基于低秩和结构稀疏的视频前景背景分离方法 | |
CN107590779A (zh) | 一种基于图像块聚类字典训练的图像去噪去模糊方法 | |
CN104408697B (zh) | 基于遗传算法和正则先验模型的图像超分辨重建方法 | |
CN115861083B (zh) | 一种多尺度和全局特征的高光谱与多光谱遥感融合方法 | |
CN115578255A (zh) | 一种基于帧间亚像素块匹配的超分辨率重建方法 | |
CN104299193A (zh) | 一种基于高频和中频信息的图像超分辨率重建方法 | |
CN109615576B (zh) | 基于级联回归基学习的单帧图像超分辨重建方法 | |
Xiong et al. | Gradient boosting for single image super-resolution | |
CN108550111B (zh) | 一种基于多级字典学习的残差实例回归超分辨重建方法 | |
CN113240581A (zh) | 一种针对未知模糊核的真实世界图像超分辨率方法 | |
CN117392065A (zh) | 一种云边协同太阳能板覆灰状况自主评估方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |