CN109785279B - 一种基于深度学习的图像融合重建方法 - Google Patents

一种基于深度学习的图像融合重建方法 Download PDF

Info

Publication number
CN109785279B
CN109785279B CN201811621318.6A CN201811621318A CN109785279B CN 109785279 B CN109785279 B CN 109785279B CN 201811621318 A CN201811621318 A CN 201811621318A CN 109785279 B CN109785279 B CN 109785279B
Authority
CN
China
Prior art keywords
image
training
images
test
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811621318.6A
Other languages
English (en)
Other versions
CN109785279A (zh
Inventor
张英东
余南南
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jiangsu Normal University
Original Assignee
Jiangsu Normal University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jiangsu Normal University filed Critical Jiangsu Normal University
Priority to CN201811621318.6A priority Critical patent/CN109785279B/zh
Publication of CN109785279A publication Critical patent/CN109785279A/zh
Application granted granted Critical
Publication of CN109785279B publication Critical patent/CN109785279B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于深度学习的图像融合重建方法,该方法具体步骤如下:(1)获取源图像,对源图像分别进行不同程度的模糊处理,构建测试与训练数据集;(2)对测试图像的预处理操作得到图像A和B,将两幅源图像进行分块,编纂成新的矩阵,再按列组成联合矩阵;(3)特征提取,将步骤(2)中得到的联合矩阵作为输入信号输入到深度学习网络框架中,得到一幅与目标差值图像相似的预测残差图像;(4)图像的重构,将测试图像A与预测残差图像相加重构得到高分辨率的融合图。

Description

一种基于深度学习的图像融合重建方法
技术领域
本发明属于图像融合及超分辨技术领域,尤其涉及一种基于深度学习的图像融合重建方法。
背景技术
图像融合可以将同一场景的多幅图像集成到人工图像中,其中包含的有用信息比任何单个图像都多。经过多年的研究,大多数方法都是通过选择一个分析工具提取图像的特征,然后根据人工规则将其组合起来,因此其性能在一定程度上取决于用户的体验。图像的空间分辨率是度量图像质量的一个重要指标,高分辨率的图像往往包含着更加丰富的细节信息,对于观赏体验的提升以及后续的图像处理步骤都有着较大的帮助。拥有高分辨率的高清图像,一直是学术界和工业界不懈追求的目标。
融合过程主要包含三个步骤:特征提取、特征合并、图像重构。超分辨率过程也主要包含三个步骤:低分辨率图像特征提取、低分辨率图像特征向高分辨率图像特征转换、图像重构。特征提取、合并与转换过程都具有较强的盲目性,提取特征的方法、合并规则与转换的方法都是通过经验选择再通过测试验证确定的,这样的算法无法得到最优的融合及超分辨率效果。图像融合是一个多个图像向一个图像转换的过程,必然丢弃大量图像信息。图像超分辨率是一个欠定信号处理问题,将需要信息或图像特性的补充。因此融合及超分辨率是一个互补的过程,可将融合中丢弃的信息用于超分辨率中的信息补充。而现有方法通常将这两个问题分别处理,造成了信息的浪费,丧失了同时解决融合和超分辨率两大技术难题的机遇。
发明内容
发明目的:为了克服上述现有技术的缺点,本发明提供一种基于深度学习的图像融合重建方法,最大程度提取测试图像的特征信息,保障了融合重构图像的清晰度以及准确性。
技术方案:为实现本发明的目的,本发明所采用的技术方案是:一种基于深度学习的图像融合重建方法,该方法包括如下步骤:
(1)获取源图像,将得到的源图像按照一定比例选取构成训练图像数据集和测试图像数据集;
(2)构建深度学习网络框架,网络框架是一个7层框架,包括3个卷积层和3个relu层以及回归层;
(3)使用训练图像数据集对网络框架进行训练;
(4)将测试图像数据输入到步骤(3)训练好的框架中,输出预测残差图像;
(5)将预测残差图像与相对应的测试图像依行依列相加得到最终的融合高分辨率图像。
进一步的,步骤(2)中的深度学习网络框架,具体设计如下:
(2.1)基于卷积核的大小随机初始化参数wi,bi,w代表权重矩阵,即每个卷积核内参数组成的矩阵,b代表偏置矩阵,i代表对应的卷积层,设置直接误差项、权值惩罚项均为0;
(2.2)采用前向传播算法计算出神经网络各节点的线性组合值和激活值,公式(1)为卷积层内的卷积操作,公式(2),(3)为relu层内操作,具体如下所示:
zi=Wi×xi+bi (1)
ai=relu(zi) (2)
其中,relu函数表示为:
Figure BDA0001926933020000021
xi是每个卷积层的输入特征矩阵,xi在卷积层内的进行卷积操作后输出为zi,也即relu层的输入特征矩阵,每一层输出的特征矩阵,也是下一层的输入矩阵,网络框架通过训练进行自主学习,实现对框架参数的更新。
进一步的,步骤(3)中,使用训练图像数据集对网络框架进行训练前,需对训练图像数据集进行如下处理:
(3.1)对训练集内的源图像使用下采样操作变成原来大小的二分之一和四分之一,将下采样后的图像用双三次插值法变成和源图像一样大小,将同一张源图像变成二分之一模糊训练图像A1和四分之一模糊训练图像B1,大小均为128×128;
(3.2)对两幅训练图像用滑动窗进行分块,采用的是大小为8×8且滑动步长为1的滑动小块,滑动得到的小块经过编纂成列向量组合形成新的矩阵aa1和bb1,大小都变成了64×14641。
进一步的,步骤(3)中,学习网络框架训练时,设置如下损失函数:
Figure BDA0001926933020000031
r(i)是第i个源图像X与其训练图像A1之间的残差图像,
Figure BDA0001926933020000032
是预测残差图像,也即框架的输出;其中,
Figure BDA0001926933020000033
Figure BDA0001926933020000034
分别表示两幅输入图像的特征矩阵,i取值为1到n,n代表批量训练图像的数量。
进一步的,步骤(3)中,训练时,如果L小于预设的值,则停止训练。
进一步的,步骤(4),将测试图像数据输入到步骤(3)训练好的框架中进行训练之前,先对测试图像数据进行如下处理:
(4.1)对测试集内的源图像使用下采样操作变成原来大小的二分之一和四分之一,将下采样后的图像用双三次插值法变成和源图像一样大小,将同一张源图像变成二分之一模糊测试图像A2和四分之一模糊测试图像B2,大小均为128×128;
(4.2)对两幅测试图像用滑动窗进行分块,采用的是大小为8×8且滑动步长为1的滑动小块,滑动得到的小块经过编纂成列向量组合形成新的矩阵aa2和bb2,大小都变成了64×14641,作为两个分支同时输入深度学习网络框架。
进一步的,步骤(5)将预测残差图像与相对应的测试图像依行依列相加得到最终的融合高分辨率图像,方法如下:将网络框架输出的残差图像与相对应的测试图像A2依行依列相加得到最终的融合高分辨率图像。
有益效果:与现有技术相比,本发明的技术方案具有以下有益技术效果:
本方法利用残差学习思想直接得到残差图像,减轻网络框架的负担。利用卷积神经网络的自主学习能力,通过输入训练数据自动更新网络参数。通过卷积神经网络对图像进行特征提取,避免手动提取特征的麻烦,最大程度提取图像的深层特征,保证图像融合的清晰度与准确性。
附图说明
图1为本发明算法的框图;
图2为本发明网络框架结构图。
具体实施方式
下面结合附图和实施例对本发明的技术方案作进一步的说明。
如图1所示,一种基于深度学习的图像融合重建方法,具体步骤如下:
首先,源图像的获取,采取的是从开源的图像库里面的源图像。将得到的源图像按照九比一的比例构成训练数据集和测试数据集。
然后,对网络框架的构建与训练。网络框架为一个7层结构,包括3个卷积层,3个relu层和回归层。框架的训练利用深度学习的自主学习能力,通过反向传播算法实现对框架内参数的调整。
其中,本方法中网络框架就是一种基于自我监督特征学习和特征层次结构的学习结构模型。深度学习其实就是神经网络的一种延伸,网络框架是一个7层框架,包括3个卷积层和3个relu层以及回归层。第一个卷积层含有64个大小为3x3x2的卷积核,第二个卷积层含有64个大小为3x3x64的卷积核,最后一个卷积层含有1个大小为3x3x64的卷积核。将图像信息直接输入,让网络框架获取图像的基础信息,利用卷积神经网络提取图像特征,利用relu函数增加***的非线性,通过反向传播算法对框架进行训练,通过数据反馈实现对网络参数的调整,得到最终的目标效果。
1、网络框架的训练
对训练集内的源图像使用下采样操作变成原来大小的二分之一和四分之一,将下采样后的图像用双三次插值法变成和源图像一样大小,将同一张源图像变成二分之一模糊训练图像A1和四分之一模糊训练图像B1,大小均为128×128,对两幅训练图像用滑动窗进行分块,这里采用的是大小为8×8且滑动步长为1的滑动小块,滑动得到的小块经过编纂成列向量组合形成新的矩阵aa1和bb1,大小都变成了64×14641,作为两个分支同时输入深度学习网络框架,将源图像与二分之一模糊训练图像A1的差值图像作为目标残差图像。这里,训练集与测试集选取的是同一个数据库的数据,训练图像经过网络框架训练后得到的是一张预测残差图像。想要利用网络框架提取测试图像特征,不是将图片直接输入框架就可以得到特征图像,网络参数是随机设定的,需要利用训练图片对网络参数进行调整,得到可以实现目标效果的参数。
具体地,首先基于卷积核的大小随机初始化参数wi,bi,w代表权重矩阵,也就是每个卷积核内参数组成的矩阵,b代表偏置矩阵,i代表对应的卷积层,定直接误差项、权值惩罚项均为0;
然后采用前向传播算法计算出神经网络各节点的线性组合值和激活值,前向传播算法就是把网络正向的运行一遍,即输入层到中间层到输出层,计算每个结点对其下一层结点的影响。一组向量乘一组系数的操作就叫做线性组合,输入矩阵与卷积核进行卷积操作输出就是线性组合值。激活函数并不是去激活什么,而是指如何把“激活的神经元的特征”通过函数把特征保留并映射出来,去除一些数据中的冗余信息,将卷积层输出的特征矩阵输入relu层,输出就是激活值,公式(1)为卷积层内的卷积操作,计算各节点的线性组合值,公式(2),(3)为relu层内操作,计算各节点的激活值,具体内容如下所示:
zi=Wi×xi+bi (1)
ai=relu(zi) (2)
其中,relu函数表示为:
Figure BDA0001926933020000051
网络框架采用7层的结构,w是权值矩阵,b是偏置矩阵,分别是对应的框架层数的参数,xi是每个卷积层的输入特征矩阵,zi代表relu层的输入特征矩阵。每一层输出的特征矩阵,也是下一层的输入矩阵,在开始时会对w和b进行随机初始化,网络框架通过训练进行自主学习,实现对框架内参数的更新。
图像的训练采用反向传播算法实现对网络框架参数的更新,利用梯度下降法将误差见到最少,利用均方误差作为损失函数。本方法创造一个r=X-A1来体现源图像X与训练图像A1之间的差异,也就是目标残差图像,图片输入计算机后会自动识别为矩阵,X-A1是两个矩阵的相减,因为目标残差图像只有一张,选择A1还是选择B1与源图像的差值做目标残差图像是没有本质区别的,因为网络框架的输出是一张预测残差图像,融合图像的重构就是预测残差与测试图像依行依列相加,选择不同图像与源图像做差值得到的是不同的目标残差图像,框架训练目的是框架输出图像与目标图像越来越相似,最终输出图像要与相对应的测试图像相加作为融合图像,所以目标残差图像也可以使用r=X-B1求得,即在训练时使用r=X-B1作为目标残差图像进行训练。这个方法选择A1与源图像差值做目标残差图像,那么测试图像B1的作用是对框架训练和测试的信息补充,因为单单由一种模糊程度的测试图像训练训练得到残差图像是很困难的,此方法采用两种不同模糊程度训练图像做框架输入,其中一种训练图像与源图像的差值作为目标残差图像,另外一种训练图像为框架训练提供有用的图像信息。残差图像中的像素值大多为零或较小,因此整个剩余图像是稀疏的。可以忽略图像的冗余信息,只关注提高图像分辨率的特征。拟选择均方误差函数做为损失函数,损失函数表示为:
Figure BDA0001926933020000061
r(i)是第i个源图像X与其对应的训练图像A1之间的实际残差图像,
Figure BDA0001926933020000062
是预测残差图像g这个函数就代表了整个框架,将
Figure BDA0001926933020000063
输入框架中,
Figure BDA0001926933020000064
就是框架的输出,
Figure BDA0001926933020000065
就是输入的训练图像A1,B1;其中,i代表1到n的数字,n代表批量训练图像的数量。当L数值低于预设值时,说明训练达到理想状态,训练结束。
再次,对测试图像的预处理操作,对测试集内的源图像使用下采样操作变成原来大小的二分之一和四分之一,将下采样后的图像用双三次插值法变成和源图像一样大小,双三次插值的作用就是放大图像,降低图像的质量,将同一张源图像变成二分之一模糊测试图像A2和四分之一模糊测试图像B2,大小均为128×128,对两幅测试图像用滑动窗进行分块,这里采用的是大小为8×8且滑动步长为1的滑动小块,滑动得到的小块经过编纂成列向量组合形成新的矩阵aa2和bb2,大小都变成了64×14641,作为两个分支同时输入深度学习网络框架,将源图像与二分之一模糊测试图像A2的差值图像作为目标残差图像。
其次,对测试图像进行特征提取,将上述得到的联合矩阵作为输入信号输入到深度学习网络框架中,对于深度学习网络框架而言,它的输出是预测残差图像,不是最终的融合图像。
最后,进行图像的重构,将测试图像输入到网络框架中得到预测残差图像与相对应的测试图像A2依行依列相加,就是最终的融合高分辨率图像。如果训练的时候使用的是r=X-B1作为目标残差图像,那么此处进行图像的重构时,将测试图像输入到网络框架中得到预测残差图像与相对应的测试图像B2依行依列相加,就是最终的融合高分辨率图像。

Claims (2)

1.一种基于深度学习的图像融合重建方法,其特征在于,该方法包括如下步骤:
(1)获取源图像,将得到的源图像按照一定比例选取构成训练图像数据集和测试图像数据集;
(2)构建深度学习网络框架,网络框架是一个7层框架,包括3个卷积层和3个relu层以及回归层;
(3)使用训练图像数据集对网络框架进行训练;
(4)将测试图像数据输入到步骤(3)训练好的框架中,输出预测残差图像;
(5)将预测残差图像与相对应的测试图像依行依列相加得到最终的融合高分辨率图像;
步骤(2)中的深度学习网络框架,具体设计如下:
(2.1)基于卷积核的大小随机初始化参数wi,bi,w代表权重矩阵,即每个卷积核内参数组成的矩阵,b代表偏置矩阵,i代表对应的卷积层,设置直接误差项、权值惩罚项均为0;
(2.2)采用前向传播算法计算出神经网络各节点的线性组合值和激活值,公式(1)为卷积层内的卷积操作,公式(2),(3)为relu层内操作,具体如下所示:
zi=Wi×xi+bi (1)
ai=relu(zi) (2)
其中,relu函数表示为:
Figure FDA0003931857080000011
其中,xi是每个卷积层的输入特征矩阵,xi在卷积层内的进行卷积操作后输出为zi,也即relu层的输入特征矩阵,每一层输出的特征矩阵,也是下一层的输入矩阵,网络框架通过训练进行自主学习,实现对框架参数的更新;
步骤(3)中,使用训练图像数据集对网络框架进行训练前,需对训练图像数据集的图像进行如下处理:
(3.1)对训练集内的源图像使用下采样操作变成原来大小的二分之一和四分之一,将下采样后的图像用双三次插值法变成和源图像一样大小,将同一张源图像变成二分之一模糊训练图像A1和四分之一模糊训练图像B1,大小均为128×128;
(3.2)对两幅训练图像用滑动窗进行分块,采用的是大小为8×8且滑动步长为1的滑动小块,滑动得到的小块经过编纂成列向量组合形成新的矩阵aa1和bb1,大小都变成了64×14641;
步骤(3)中,学习网络框架训练时,设置如下损失函数:
Figure FDA0003931857080000021
r(i)是第i个源图像X与其训练图像A1之间的残差图像,
Figure FDA0003931857080000022
是预测残差图像,也即框架的输出;其中,
Figure FDA0003931857080000023
Figure FDA0003931857080000024
分别表示两幅输入图像的特征矩阵,i取值为1到n,n代表批量训练图像的数量;
步骤(4),将测试图像数据输入到步骤(3)训练好的框架中进行训练之前,先对测试图像数据进行如下处理:
(4.1)对测试集内的源图像使用下采样操作变成原来大小的二分之一和四分之一,将下采样后的图像用双三次插值法变成和源图像一样大小,将同一张源图像变成二分之一模糊测试图像A2和四分之一模糊测试图像B2,大小均为128×128;
(4.2)对两幅测试图像用滑动窗进行分块,采用的是大小为8×8且滑动步长为1的滑动小块,滑动得到的小块经过编纂成列向量组合形成新的矩阵aa2和bb2,大小都变成了64×14641,作为两个分支同时输入深度学习网络框架;
步骤(5)将预测残差图像与相对应的测试图像依行依列相加得到最终的融合高分辨率图像,方法如下:将网络框架输出的残差图像与相对应的测试图像A2依行依列相加得到最终的融合高分辨率图像。
2.根据权利要求1所述的一种基于深度学习的图像融合重建方法,其特征在于,步骤(3)中,训练时,如果L小于预设的值,则停止训练。
CN201811621318.6A 2018-12-28 2018-12-28 一种基于深度学习的图像融合重建方法 Active CN109785279B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811621318.6A CN109785279B (zh) 2018-12-28 2018-12-28 一种基于深度学习的图像融合重建方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811621318.6A CN109785279B (zh) 2018-12-28 2018-12-28 一种基于深度学习的图像融合重建方法

Publications (2)

Publication Number Publication Date
CN109785279A CN109785279A (zh) 2019-05-21
CN109785279B true CN109785279B (zh) 2023-02-10

Family

ID=66498612

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811621318.6A Active CN109785279B (zh) 2018-12-28 2018-12-28 一种基于深度学习的图像融合重建方法

Country Status (1)

Country Link
CN (1) CN109785279B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110349071B (zh) * 2019-06-13 2022-11-08 西安理工大学 一种基于稠密网络对图像进行水印提取的方法
KR20210020387A (ko) * 2019-08-14 2021-02-24 삼성전자주식회사 전자 장치 및 그 제어 방법
US11133100B2 (en) * 2019-11-21 2021-09-28 GE Precision Healthcare LLC System and methods for reconstructing medical images using deep neural networks and recursive decimation of measurement data
CN111626940A (zh) * 2020-06-06 2020-09-04 徐州飞梦电子科技有限公司 一种基于深度学习的红外和可见光图像融合方法
CN112116674A (zh) * 2020-08-13 2020-12-22 香港大学 图像重建方法、装置、终端及存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107369147A (zh) * 2017-07-06 2017-11-21 江苏师范大学 基于自我监督学习的图像融合方法
CN108012157A (zh) * 2017-11-27 2018-05-08 上海交通大学 用于视频编码分数像素插值的卷积神经网络的构建方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107369147A (zh) * 2017-07-06 2017-11-21 江苏师范大学 基于自我监督学习的图像融合方法
CN108012157A (zh) * 2017-11-27 2018-05-08 上海交通大学 用于视频编码分数像素插值的卷积神经网络的构建方法

Also Published As

Publication number Publication date
CN109785279A (zh) 2019-05-21

Similar Documents

Publication Publication Date Title
CN109785279B (zh) 一种基于深度学习的图像融合重建方法
CN109191382B (zh) 图像处理方法、装置、电子设备及计算机可读存储介质
CN111091045B (zh) 一种基于时空注意力机制的手语识别方法
EP3678059B1 (en) Image processing method, image processing apparatus, and a neural network training method
CN111028177B (zh) 一种基于边缘的深度学习图像去运动模糊方法
CN111784602B (zh) 一种生成对抗网络用于图像修复的方法
CN111369440B (zh) 模型训练、图像超分辨处理方法、装置、终端及存储介质
CN109035142B (zh) 一种对抗网络结合航拍图像先验的卫星图像超分辨方法
CN109087273B (zh) 基于增强的神经网络的图像复原方法、存储介质及***
CN112184554B (zh) 一种基于残差混合膨胀卷积的遥感图像融合方法
CN113177882B (zh) 一种基于扩散模型的单帧图像超分辨处理方法
CN110349087B (zh) 基于适应性卷积的rgb-d图像高质量网格生成方法
CN109544457A (zh) 基于致密链接神经网络的图像超分辨率方法、存储介质和终端
Chen et al. Single image super-resolution using deep CNN with dense skip connections and inception-resnet
CN114119444A (zh) 一种基于深度神经网络的多源遥感图像融合方法
CN107369147B (zh) 基于自我监督学习的图像融合方法
CN109447897B (zh) 一种真实场景图像合成方法及***
CN112561799A (zh) 一种红外图像超分辨率重建方法
DE102020133963A1 (de) Systeme und Verfahren zur Abbildrauschunterdrückung unter Verwendung von tiefen gefalteten Netzwerken
CN109949217A (zh) 基于残差学习和隐式运动补偿的视频超分辨率重建方法
CN112184560A (zh) 基于深度闭环神经网络的高光谱图像超分辨优化方法
CN115936992A (zh) 一种轻量级Transformer的垃圾图像超分辨方法及***
US20230260083A1 (en) Computer-implemented method, computer program product and system for processing images
CN114332625A (zh) 基于神经网络的遥感图像彩色化和超分辨率方法及***
CN112686830B (zh) 基于图像分解的单一深度图的超分辨率方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant