CN104866900A - 一种反卷积神经网络训练方法 - Google Patents

一种反卷积神经网络训练方法 Download PDF

Info

Publication number
CN104866900A
CN104866900A CN201510046974.8A CN201510046974A CN104866900A CN 104866900 A CN104866900 A CN 104866900A CN 201510046974 A CN201510046974 A CN 201510046974A CN 104866900 A CN104866900 A CN 104866900A
Authority
CN
China
Prior art keywords
training
image
wave filter
characteristic pattern
layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201510046974.8A
Other languages
English (en)
Other versions
CN104866900B (zh
Inventor
施云惠
张轶昀
丁文鹏
尹宝才
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing University of Technology
Original Assignee
Beijing University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing University of Technology filed Critical Beijing University of Technology
Priority to CN201510046974.8A priority Critical patent/CN104866900B/zh
Publication of CN104866900A publication Critical patent/CN104866900A/zh
Application granted granted Critical
Publication of CN104866900B publication Critical patent/CN104866900B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种反卷积神经网络训练方法,其能够有效地提取图像特征,有益于分类正确率的提高,提高反卷积神经网络的训练收敛效率及收敛精度,降低反卷积神经网络在实际应用中的训练成本,同时可被应用于其他基于卷积运算的优化问题求解中。这种反卷积神经网络训练方法,包括训练阶段和重建阶段,训练阶段包括步骤:(1)对训练图像进行预处理;(2)对训练图像进行批设置;(3)设置训练图像的网络训练参数;(4)开始第一层训练;重建阶段包括步骤:(5)对待重构图像进行预处理;(6)设置待重构图像的网络训练参数;(7)按批输入待重构图像直到完成所有批图像的重构。

Description

一种反卷积神经网络训练方法
技术领域
本发明属于人工智能的技术领域,具体地涉及一种反卷积神经网络训练方法。
背景技术
深度学习是目前人工智能领域的研究热点之一。基于神经网络的思想,深度学习致力于模仿人脑的分层感知方式,通过构造多层感知器(Multilayer Perception,MLP)由低层次特征组合出能够代表属性类别或特征的抽象高层表示,从而成为目前提取复杂图像特征的有效模型之一。
经典的深度学习模型主要包括深度置信网(Deep Belief Networks,DBNs)、多层稀疏的自动编码模型(Auto Encode,AE)与卷积神经网络(Convolutional Neural Networks,CNNs)。通常,这些模型均通过编码器由输入图像提取特征,从底向上逐层贪心地将图像转化到特征空间,相对的,使用解码器将特征空间的特征通过网络自顶向下重构输入图像。其中,DBNs与AE是无监督的网络模型,他们可以自底向上地分层学习丰富的图像特征并为高层次应用,例如模式识别,提供一定的增益。然而,由于编码器通常使用一些简单的非线性函数,有可能会严重限制对潜在特征的提取,从而使得模型学习到次优化的特征,从而制约其在识别领域应用实际精确度的提高。此外,它们的训练复杂度及时间开销均十分巨大。
CNNs模型为有监督的学习模型,被誉为真正有效训练多层网络模型的第一个算法。该模型使用可训练的卷积滤波器集合以及相应的池化下采样算法构成多层网络。与DBNs以及AE相同,该模型自底向上训练网络,只能完成特征提取的功能及相关高层次应用,如模式识别,不能完成图像重构功能及相应的低层次应用。
Zeiler等人于2010年首次提出了反卷积神经网络模型(Deconvolutional Networks,DN)。该模型为无监督的深度学***移不变性的缺点。特殊地,可以认为卷积稀疏编码模型是单层反卷积神经网络模型的特例。通过多层结构的学习集表示,模型可以有效提取图像不同尺度的特征,并在高层应用,如识别、分类中取得了诸多令人满意的效果。陈扬钛提出,DN图像去噪的应用中同样表现优异,展示了其在低层次应用中的潜力。
然而,对DN模型的求解涉及大量卷积运算以及一系列优化问题。Zeiler等人将整个优化问题分解为两个子问题:固定特征图求解滤波器的滤波器子问题以及固定滤波器求解特征图的特征图子问题。实际求解时,对这两个子问题进行交替优化求解直到整个模型收敛。两个子问题均使用共轭梯度法(Conjugate Gradient,CG)进行求解,计算复杂度高,运算缓慢。Zeiler引入FISTA算法用于求解特征图的子问题,并在层间加入池化下采样算法,以提高模型的整体运算速度,然而卷积的大量使用以及多层的复杂结构使得目标函数的求解依然复杂度很高,收敛慢。除优化训练算法外,主流的DN优化方法还包括使用GPU运算及使用多线程编程方法等。
由于卷积稀疏编码模型是单层的反卷积神经网络模型的特例,一些基于卷积稀疏编码模型的优化求解算法可视为对单层反卷积神经网络模型的优化求解特例。Bristow等人通过将卷积运算变换到傅里叶域并使用快速傅里叶运算提高卷积运算的速度以改进模型的收敛效率。Rigamonti等人提出了带可分离滤波器罚项的卷积稀疏编码模型,通过训练可分离的滤波器以降低卷积运算的复杂度,提高卷积运算的速度。然而将此类方法拓展到多层反卷积神经网络模型仍然需要较多工作与改进。
发明内容
本发明的技术解决问题是:克服现有技术的不足,提供一种反卷积神经网络训练方法,其能够有效地提取图像特征,有益于分类正确率的提高,提高反卷积神经网络的训练收敛效率及收敛精度,降低反卷积神经网络在实际应用中的训练成本,同时可被应用于其他基于卷积运算的优化问题求解中。
本发明的技术解决方案是:这种反卷积神经网络训练方法,包括训练阶段和重建阶段,训练阶段包括以下步骤:
(1)对训练图像进行预处理:选定训练集图像,处理为灰度图像,并统一长宽像素;
(2)对训练图像进行批设置:根据所训练网络进行的应用,对训练图像进行批次划分;
(3)设置训练图像的网络训练参数,训练图像的网络训练参数包括网络层数、每层滤波器尺寸、每层特征图数量、FISTA重构步数与重构步长、总循环epoch次数、特征图稀疏控制参数;
(4)开始第一层训练:用随机数初始化第一层特征图与第一层滤波器,输入一批训练图像;首先解特征图子问题,使用FISTA方法求出特征图,然后解滤波器子问题,每计算一次当前残差仅用于更新一个滤波器,每次用于更新滤波器的梯度步长均来自当前重新计算的重构残差,反复重复解特征图子问题和解滤波器子问题这两个步骤直到重构残差收敛;输入第二批训练图像,用随机数初始化第二批图像的特征图且沿用上一批训练得到的滤波器,如此反复,直到完成所有批次的训练图像训练,作为一个epoch,随后再输入第一批图像开始第二个epoch训练,直到完成步骤(3)的总循环epoch次数;
重建阶段包括以下步骤:
(5)对待重构图像进行预处理:将待重构图像处理为灰度图像,并统一长宽像素;
(6)设置待重构图像的网络训练参数,待重构图像的网络训练参数包括FISTA重构步长、重构次数与特征图稀疏度控制参数;
(7)按批输入待重构图像直到完成所有批图像的重构:按批依次输入待重构图像,网络使用之前由训练图像训练得到的各层滤波器计算特征图子问题至收敛后得到重构图像与各层特征图。
本发明通过改进解滤波器子问题,每计算一次当前残差仅用于更新一个滤波器,每次用于更新滤波器的梯度步长均来自当前重新计算的重构残差,这样能够有效地提取图像特征,有益于分类正确率的提高,提高反卷积神经网络的训练收敛效率及收敛精度,降低反卷积神经网络在实际应用中的训练成本,同时可被应用于其他基于卷积运算的优化问题求解中。
附图说明
图1示出了反卷积神经网络模型逻辑结构。
图2是训练实验中SFU算法与传统CG算法表现客观数据对比;图2中(a)(b)为第一层训练结果,(c)(d)为第二层的训练结果。
图3是重构实验中SFU算法与传统CG算法表现客观数据对比;图3中(a)(b)为第一层训练结果,(c)(d)为第二层的训练结果。
图4是根据本发明的反卷积神经网络训练方法的流程图。
具体实施方式
如图4所示,这种反卷积神经网络训练方法,包括训练阶段和重建阶段,训练阶段包括以下步骤:
(1)对训练图像进行预处理:选定训练集图像,处理为灰度图像,并统一长宽像素;
(2)对训练图像进行批设置:根据所训练网络进行的应用,对训练图像进行批次划分;
(3)设置训练图像的网络训练参数,训练图像的网络训练参数包括网络层数、每层滤波器尺寸、每层特征图数量、FISTA重构步数与重构步长、总循环epoch次数、特征图稀疏控制参数;
(4)开始第一层训练:用随机数初始化第一层特征图与第一层滤波器,输入一批训练图像;首先解特征图子问题,使用FISTA方法求出特征图,然后解滤波器子问题,每计算一次当前残差仅用于更新一个滤波器,每次用于更新滤波器的梯度步长均来自当前重新计 算的重构残差,反复重复解特征图子问题和解滤波器子问题这两个步骤直到重构残差收敛;输入第二批训练图像,用随机数初始化第二批图像的特征图且沿用上一批训练得到的滤波器,如此反复,直到完成所有批次的训练图像训练,作为一个epoch,随后再输入第一批图像开始第二个epoch训练,直到完成步骤(3)的总循环epoch次数;
重建阶段包括以下步骤:
(5)对待重构图像进行预处理:将待重构图像处理为灰度图像,并统一长宽像素;
(6)设置待重构图像的网络训练参数,待重构图像的网络训练参数包括FISTA重构步长、重构次数与特征图稀疏度控制参数;
(7)按批输入待重构图像直到完成所有批图像的重构:按批依次输入待重构图像,网络使用之前由训练图像训练得到的各层滤波器计算特征图子问题至收敛后得到重构图像与各层特征图。
本发明通过改进解滤波器子问题,每计算一次当前残差仅用于更新一个滤波器,每次用于更新滤波器的梯度步长均来自当前重新计算的重构残差,这样能够有效地提取图像特征,有益于分类正确率的提高,提高反卷积神经网络的训练收敛效率及收敛精度,降低反卷积神经网络在实际应用中的训练成本,同时可被应用于其他基于卷积运算的优化问题求解中。
优选地,所述步骤(2)中将相似度高的同类图像作为同批训练。
优选地,所述步骤(4)中通过公式(1)解滤波器子问题:
min u 1 2 | | u - v | | 2 2 - - - ( 1 )
其中u=fk其中,u=fk是当前待更新的滤波器, 是当前待更新滤波器在上一次迭代中得到的值,L>0是莱布尼茨梯度的上界常量参数,g(fk)是以当前待更新滤波器为变量表示的总代价函数。
优选地,所述步骤(4)和(5)之间还包括以下步骤:
(a)开始第二层训练:使用第一层训练得到的第一层滤波器,用随机数初始化第二层滤波器以及特征图;将第一批训练图像输入网络,对滤波器与特征图进行优化计算直到收敛;输入下一批训练图像,用随机数初始化该下一批特征图,训练至收敛,如此反复直到完成所有批次训练图像的训练;
(b)开始第n层训练,n为大于2的整数:使用前n-1层训练得到的滤波器,用随机数初始化第n层滤波器以及特征图;将第一批训练图像输入网络,对滤波器与特征图进行优化计算直到收敛;输入下一批训练图像,用随机数初始化该下一批特征图,训练至收敛,如此反复直到完成所有批次训练图像的训练。
优选地,所述步骤(a)和(b)中通过公式(2)对滤波器与特征图进行优化计算:
min f k , h 1 2 | | f k , h l - ( f ^ k , h l - L l 2 ▿ g l ( f ^ k , h l ) ) | | 2 2 - - - ( 2 )
其中,是第l层当前待更新的滤波器,是该滤波器在上一次迭代中得到的值,Ll是第l层莱布尼茨梯度的上界常量参数,gl是第l层以为单变量的总代价函数。
以下具体说明本发明:
为了提高反卷积神经网络的训练收敛效率及收敛精度,降低反卷积神经网络在实际应用中的训练成本,本发明提出了基于顺序更新滤波器策略的反卷积神经网络训练算法。该算法同时可被应用于其他基于卷积运算的优化问题求解中,如卷积稀疏编码模型。
经典的反卷积神经网络模型目标函数可递归地表示为:
min f , z | | y - y ^ l | | 2 2 + β Σ i = 1 K l | | z i l | | 1 y ^ l = F 1 F 2 · · · F l z l = R l z l
其中,y是输入图像,是使用第l层的特征图通过网络恢复的重构图像,是第l层第i个特征图,Kl是第l层拥有的特征图数量,β是重建权重参数,||·||1范数,是第l层特征图集合,下文中使用单向量zl表示,Rl是一个将第l层特征图集合恢复到重建图像的重建算子,Fl是一个包含了第l层卷积以及求和运算的运算矩阵,其定义如下:
y ^ l = Σ i = 1 K 1 f i 1 * z i 1 = F 1 z 1 z j l - 1 = Σ i = 1 K l f i , j l * z i l = F l z l
其中是第一层的滤波器,是第一层的特征图,*代表二维卷积运算符,是第l层编号为(i,j)的滤波器,该滤波器是重建上一层特征图的滤波器之一。对于训练完成的反卷积神经网络而言,网络内各层滤波器对所有输入图像通用,而每张输入图像通过网络的提取后拥有自己唯一的一组来自最高层的特征图。
反卷积神经网络模型的逻辑结构如图1所示,其中⊕表示二维卷积运算符。为了便于理解,图例只包含两层网络结构以及单一输入图像。实际应用中可构建多层网络,并同时处理多幅输入图像。
传统的反卷积神经网络训练方法通常基于梯度下降算法。这些方法均使用同一重构残差计算所有滤波器的优化步长并对所有滤波器进行成批更新,由此引入了更多的误差。
本发明的主要工作基于以上模型,将传统的成批更新滤波器算法改进为贪心地逐个顺序更新滤波器,即每计算一次当前残差仅用于更新一个滤波器,每次用于更新滤波器的梯度步长均来自当前重新计算的重构残差。为使这种更新策略可计算,本发明应用泰勒展开公式,将待更新滤波器逐个分离出来,从而使更新计算得以实施。
1.特征图子问题的求解方法
反卷积神经网络模型的求解包括滤波器子问题与特征图子问题两个子问题的交替求解优化问题。本发明仅对滤波器子问题的求解方法进行了改进,而特征图子问题的求解沿用经典求解方案,即使用FISTA方法。为了便于理解本发明的计算方法并能够重现本发明的实验,本文在此简要叙述FISTA方法应用于解特征图子问题的计算步骤。
特征图子问题意在固定当前滤波器集合,优化求解特征图。当对该问题进行逐层求解时,则退化为一范式的卷积稀疏编码问题。首先,使用上文模型目标函数计算重构图像然后使用下式计算特征图集合:
e l = R l T ( y - y ^ l ) z l = z ^ l - α l e l z l = max ( | z l | - β l , 0 ) sign ( z l )
其中,y是输入图像,是用于将残差从第一层传递到第l层的运算符,l是第l层残差,αl是ISTA梯度步长。
2.滤波器子问题的求解方法
滤波器子问题的内容为固定特征图,优化求解滤波器集合。为了便于阐述及理解,本发明首先对单层反卷积神经网络的训练求解方法进行说明,随后拓展到多层网络求解方法说明。
1.1 单层反卷积神经网络模型求解
如上文目标函数所示,将分解为从而可将单层目标函数化简为如下形式:
min f k 1 , z k 1 | | E k 1 - f k 1 * z k 1 | | 2 2 + Γ 1
其中继而可重写为如下形式:
min f k 1 g ( f k 1 ) = min f k 1 | | E k 1 - f k 1 * z k 1 | | 2 2
对于第一层的滤波器集合而言,包含了K1-1个元素的集合是固定且已知的,仅第k个滤波器为未知量。当固定特征图,仅更新时,Γ1为常量,函数是连续凸函数,从而可被泰勒展开与拉布尼茨余项逼近。将函数g在点进行泰勒展开,可获得下式:
min f k 1 g ( f ^ k ) + ( f k 1 - f ^ k ) T ▿ g ( f ^ k ) + L 2 | | f k 1 - f ^ k | | 2 2
该展开式的值在每次迭代中均逼近函数g在点的真实值,L>0是莱布尼茨梯度的上界常量参数。对该式进行化简后可得到下式:
min f k 1 1 2 | | f k 1 - ( f ^ k - L 2 ▿ g ( f ^ k ) ) | | 2 2
使用u=fk替换参变量,将该式重写为:
min u 1 2 | | u - v | | 2 2 - - - ( 1 )
其中v为已知量,u可直接由v计算得出。 
1.2 多层反卷积神经网络模型求解
根据上文所示的多层反卷积神经网络模型目标函数,求解第l层网络的目标函数可表示为:
min { f i , j l } , { z i l } Σ j = 1 K l - 1 | | z j l - 1 - Σ i = 1 K l z i l * f i , j l | | 2 2 + β l Σ i = 1 K l | | z i l | | 1
其中,Kl是第l层的特征图个数,是第l层第j个特征图,是第l层,下标为(i,j)的滤波器,该滤波器是用于重构上一层特征图的滤波器集合中的一个元素,βl是正则化参数。
将第一层的解法拓展到第l层,依次将第l层滤波器从总目标函数中分离出来依次顺序更新,由此可将上式重写为:
min f k , h l | | E k l - f k , h l * z k l | | 2 2 + Z l
其中 E k l = z h l - 1 - Σ i = 1 , i ≠ k K l f i , h l * z i l , Z l = Σ j = 1 , j ≠ h K l | | z j l - 1 - Σ i = 1 K l - 1 f i , j l * z i l | | 2 2 , 当固定特征图更新 时,Zl为常量。将该式由递归迭代回多层目标函数可得多层总目标函数:
min f , z | | G k , h l - T l ( f k , h l ) | | 2 2
其中 G k , h l = y - y ^ l + T l ( f k , h l ) , T l ( f ^ k , h l ) = Σ I 1 = 1 K 1 f c 1 1 * · · · * Σ I l - 3 = 1 K l - 3 f c l - 2 , c l - 3 l - 2 * [ Σ c l - 2 = 1 K l - 2 f h , c l - 2 l - 1 * ( f ^ k , h l * z k l ) ] . 类比第一层的方法,对该方程在处进行泰勒展开,化简可得:
min f k , h 1 2 | | f k , h l - ( f ^ k , h l - L l 2 ▿ g l ( f ^ k , h l ) ) | | 2 2 - - - ( 2 )
其中公式(2)可使用与第一层同样的方法进行多次迭代优化求解。
为了验证本文提出算法的有效性,本文通过两类实验分别进行了效果验证。实验一为训练与重构实现。该实验使用face94人脸数据集,基于该 数据集,分别使用传统共轭梯度法CG和本文方法SFU训练一个两层反卷积神经网络模型DN,下文中分别命名为DN-CG与DN-SFU。通过重构均方差MSE以及重构峰值信噪比PSNR分别比较了两种算法在第一层及第二层网络训练阶段以及重构阶段的精度及收敛性能。反卷积神经网络的结构设定为,第一层9个特征图,滤波器大小为11×11,第二层4个特征图,滤波器尺寸为21×21。训练图像预处理为灰度200×200图像,任意取10张图作为训练集,任意取另外10张不同的图为测试集合。
为了表述清晰,下文使用的符号说明见表1。
表1 实验符号说明
符号 模型 算法
DN-SFU DN SFU
DN-CG DN CG
其中,DN-SFU为使用本文算法训练反卷积神经网络,DN-CG为使用传统共轭梯度法训练反卷积神经网络。
图2中(a)(b)为第一层训练结果,(c)(d)为第二层的训练结果。其中(a)(c)纵坐标为重构图像的均方差MSE,横坐标为总迭代的次数,表现的是训练过程中重构均方差随迭代次数的变化情况。(b)(d)纵坐标为重构图像均方差MSE,横坐标为训练时间,表现的是训练过程中重构均方差随时间变化的情况。
以上客观实验数据证明,DN-SFU算法在训练反卷积神经网络时,第一层网络的收敛速度得到了显著的提升,同时提高了收敛精度。DN-SFU算法对第二层的训练收敛速度没有显著提升,但是提高了收敛精度。由于第二层网络的训练始于第一层网络的收敛点,本算法在综合训练两层网络时仍 然可以获得较大的训练时间增益。
图3的结果为分别使用DN-CG与DN-SFU算法训练得到的滤波器集合进行测试图像的重构实验,其中(a)(b)为第一层训练结果,(c)(d)为第二层的训练结果。其中(a)(c)纵坐标为重构图像与原图像的峰值信噪比PSNR,横坐标为重构ISTA迭代的次数,表现的是重构过程中重构PSNR随迭代次数的变化情况。(b)(d)纵坐标为重构图像的PSNR,横坐标为重构时间,表现的是重构过程中重构PSNR随时间变化的情况。重构实验采用与训练集不重合的测试集数据,以及训练时各个算法收敛点的滤波器集合。
实验结果证明了使用本文算法训练得到的滤波器集合在测试图像的重构性能方面有较大的质量增益。
使用本文的DN-SFU算法训练的滤波器集合重构的测试图像在主观上大多好于传统的共轭梯度算法。
实验二基于数据集Caltech-101,该数据集由自然图像构成,共分为101个类,是模式识别领域用于评价算法效率的通用数据集之一。本文使用通用的识别实验测试参数,即每个类取30张图作为训练图像,训练集共3060张图像,其余图像为测试集合。数据集所有的图像被预处理为灰度图像,采用不足补零的方式等比例规格化为150×150像素的尺寸。本实验设定的反卷积网络模型为第一层15个特征图,采用7×7尺寸的滤波器,第二层为4个特征图,采用21×21尺寸的滤波器。完成网络的训练后,将测试图像通过网络提取特征图,采用第一层的特征图作为分类器的输入参数。分类器采用通用的SPM[13]分类方法,将一张图的所有第一层特征图分别通过SPM提取特征向量,将这些向量相加求平均得到该图最终的唯一特征向量, 作为支持向量机的最终分类输入。该实验方法与文献[7]描述的方法一致。识别结果如表2所示。
表2
表2证明,使用本文方法训练得到的滤波器集合可以有效地提取图像特征,并有益于分类正确率的提高。为了比较公平,本文在此列出的方法均使用单一特征进行识别,多特征的综合识别方法在该数据集上拥有更加出色的表现。
以上所述,仅是本发明的较佳实施例,并非对本发明作任何形式上的限制,凡是依据本发明的技术实质对以上实施例所作的任何简单修改、等同变化与修饰,均仍属本发明技术方案的保护范围。

Claims (5)

1.一种反卷积神经网络训练方法,其特征在于,包括训练阶段和重建阶段,训练阶段包括以下步骤:
(1)对训练图像进行预处理:选定训练集图像,处理为灰度图像,并统一长宽像素;
(2)对训练图像进行批设置:根据所训练网络进行的应用,对训练图像进行批次划分;
(3)设置训练图像的网络训练参数,训练图像的网络训练参数包括网络层数、每层滤波器尺寸、每层特征图数量、FISTA重构步数与重构步长、总循环epoch次数、特征图稀疏控制参数;
(4)开始第一层训练:用随机数初始化第一层特征图与第一层滤波器,输入一批训练图像;首先解特征图子问题,使用FISTA方法求出特征图,然后解滤波器子问题,每计算一次当前残差仅用于更新一个滤波器,每次用于更新滤波器的梯度步长均来自当前重新计算的重构残差,反复重复解特征图子问题和解滤波器子问题这两个步骤直到重构残差收敛;输入第二批训练图像,用随机数初始化第二批图像的特征图且沿用上一批训练得到的滤波器,如此反复,直到完成所有批次的训练图像训练,作为一个epoch,随后再输入第一批图像开始第二个epoch训练,直到完成步骤(3)的总循环epoch次数;
重建阶段包括以下步骤:
(5)对待重构图像进行预处理:将待重构图像处理为灰度图像,并统一长宽像素;
(6)设置待重构图像的网络训练参数,待重构图像的网络训练参数包括FISTA重构步长、重构次数与特征图稀疏度控制参数;
(7)按批输入待重构图像直到完成所有批图像的重构:按批依次输入待重构图像,网络使用之前由训练图像训练得到的各层滤波器计算特征图子问题至收敛后得到重构图像与各层特征图。
2.根据权利要求1所述的反卷积神经网络训练方法,其特征在于,所述步骤(2)中将相似度高的同类图像作为同批训练。
3.根据权利要求2所述的反卷积神经网络训练方法,其特征在于,所述步骤(4)中通过公式(1)解滤波器子问题:
其中u=fk是当前待更新的滤波器, 是当前待更新滤波器在上一次迭代中得到的值,L>0是莱布尼茨梯度的上界常量参数,g(fk)是以当前待更新滤波器为变量表示的总代价函数。
4.根据权利要求3所述的反卷积神经网络训练方法,其特征在于,所述步骤(4)和(5)之间还包括以下步骤:
(a)开始第二层训练:使用第一层训练得到的第一层滤波器,用随机数初始化第二层滤波器以及特征图;将第一批训练图像输入网络,对滤波器与特征图进行优化计算直到收敛;输入下一批训练图像,用随机数初始化该下一批特征图,训练至收敛,如此反复直到完成所有批次训练图像的训练;
(b)开始第n层训练,n为大于2的整数:使用前n-1层训练得到的滤波 器,用随机数初始化第n层滤波器以及特征图;将第一批训练图像输入网络,对滤波器与特征图进行优化计算直到收敛;输入下一批训练图像,用随机数初始化该下一批特征图,训练至收敛,如此反复直到完成所有批次训练图像的训练。
5.根据权利要求4所述的反卷积神经网络训练方法,其特征在于,所述步骤(a)和(b)中通过公式(2)对滤波器与特征图进行优化计算:
其中,是第l层当前待更新的滤波器,是该滤波器在上一次迭代中得到的值,Ll是第l层莱布尼茨梯度的上界常量参数,gl是第l层以为单变量的总代价函数。
CN201510046974.8A 2015-01-29 2015-01-29 一种反卷积神经网络训练方法 Active CN104866900B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510046974.8A CN104866900B (zh) 2015-01-29 2015-01-29 一种反卷积神经网络训练方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510046974.8A CN104866900B (zh) 2015-01-29 2015-01-29 一种反卷积神经网络训练方法

Publications (2)

Publication Number Publication Date
CN104866900A true CN104866900A (zh) 2015-08-26
CN104866900B CN104866900B (zh) 2018-01-19

Family

ID=53912720

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510046974.8A Active CN104866900B (zh) 2015-01-29 2015-01-29 一种反卷积神经网络训练方法

Country Status (1)

Country Link
CN (1) CN104866900B (zh)

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105678249A (zh) * 2015-12-31 2016-06-15 上海科技大学 针对注册人脸和待识别人脸图片质量不同的人脸识别方法
CN106326346A (zh) * 2016-08-06 2017-01-11 上海高欣计算机***有限公司 文本分类方法及终端设备
CN106682730A (zh) * 2017-01-10 2017-05-17 西安电子科技大学 基于vgg16图像反卷积的网络性能评估方法
CN107545263A (zh) * 2017-08-02 2018-01-05 清华大学 一种物体检测方法及装置
WO2018076130A1 (zh) * 2016-10-24 2018-05-03 中国科学院自动化研究所 物体识别模型的建立方法及物体识别方法
CN107993217A (zh) * 2017-12-22 2018-05-04 北京奇虎科技有限公司 视频数据实时处理方法及装置、计算设备
CN108012191A (zh) * 2017-12-22 2018-05-08 北京奇虎科技有限公司 视频数据处理方法及装置、计算设备
CN108073876A (zh) * 2016-11-14 2018-05-25 北京三星通信技术研究有限公司 面部解析设备和面部解析方法
CN108133265A (zh) * 2016-12-01 2018-06-08 阿尔特拉公司 用于利用相同的处理单元实施不同类型的卷积运算的方法和装置
WO2018145308A1 (en) * 2017-02-13 2018-08-16 Nokia Technologies Oy Filter reusing mechanism for constructing robust deep convolutional neural network
WO2018196676A1 (en) * 2017-04-27 2018-11-01 Huawei Technologies Co., Ltd. Non-convex optimization by gradient-accelerated simulated annealing
CN108805036A (zh) * 2018-05-22 2018-11-13 电子科技大学 一种新的非监督的视频语义提取方法
CN108846385A (zh) * 2018-07-10 2018-11-20 浪潮通用软件有限公司 基于卷积-反卷积神经网络的图像识别、校正方法和装置
CN108985317A (zh) * 2018-05-25 2018-12-11 西安电子科技大学 一种基于可分离卷积和注意力机制的图像分类方法
CN109033107A (zh) * 2017-06-09 2018-12-18 腾讯科技(深圳)有限公司 图像检索方法和装置、计算机设备和存储介质
CN109272118A (zh) * 2018-08-10 2019-01-25 北京达佳互联信息技术有限公司 数据训练方法、装置、设备及存储介质
CN109727195A (zh) * 2018-12-25 2019-05-07 成都元点智库科技有限公司 一种图像超分辨率重构方法
CN109784490A (zh) * 2019-02-02 2019-05-21 北京地平线机器人技术研发有限公司 神经网络的训练方法、装置和电子设备
WO2019222936A1 (zh) * 2018-05-23 2019-11-28 富士通株式会社 用于语义分割的分类神经网络的训练方法及装置、电子设备
CN110782396A (zh) * 2019-11-25 2020-02-11 武汉大学 一种轻量化的图像超分辨率重建网络和重建方法
US10657446B2 (en) 2017-06-02 2020-05-19 Mitsubishi Electric Research Laboratories, Inc. Sparsity enforcing neural network
CN111401272A (zh) * 2020-03-19 2020-07-10 支付宝(杭州)信息技术有限公司 一种人脸特征提取方法、装置及设备
CN113033704A (zh) * 2021-04-22 2021-06-25 江西理工大学 基于模式识别的铜转炉吹炼造铜期终点智能判断方法
US11074492B2 (en) 2015-10-07 2021-07-27 Altera Corporation Method and apparatus for performing different types of convolution operations with the same processing elements
CN113505865A (zh) * 2021-09-10 2021-10-15 浙江双元科技股份有限公司 一种基于卷积神经网络的片材表面缺陷图像识别处理方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008133951A2 (en) * 2007-04-24 2008-11-06 Massachusetts Institute Of Technology Method and apparatus for image processing
US20100002920A1 (en) * 2008-07-03 2010-01-07 Nec Laboratories America, Inc. Mitotic Figure Detector and Counter System and Method for Detecting and Counting Mitotic Figures
CN101853490A (zh) * 2010-04-21 2010-10-06 中国科学院半导体研究所 一种基于人类视觉特性的仿生图像复原方法
CN102546128A (zh) * 2012-02-23 2012-07-04 广东白云学院 用于多通道盲反卷积级联神经网络的方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008133951A2 (en) * 2007-04-24 2008-11-06 Massachusetts Institute Of Technology Method and apparatus for image processing
US20100002920A1 (en) * 2008-07-03 2010-01-07 Nec Laboratories America, Inc. Mitotic Figure Detector and Counter System and Method for Detecting and Counting Mitotic Figures
CN101853490A (zh) * 2010-04-21 2010-10-06 中国科学院半导体研究所 一种基于人类视觉特性的仿生图像复原方法
CN102546128A (zh) * 2012-02-23 2012-07-04 广东白云学院 用于多通道盲反卷积级联神经网络的方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
JAMIESON AR ETAL.: "Breast image feature learning with adaptive deconvolutional networks", 《SPIE MEDICAL IMAGING》 *
ZEILER M D ETAL.: "Adaptive deconvolutional networks for mid and high level feature learning", 《COMPUTER VISION(ICCV),2011IEEE INTERNATIONAL CONFERENCE ON》 *
施云惠 等: "基于稀疏表示模型的图像解码方法", 《北京工业大学学报》 *
陈扬钛: "反卷积网络图像表述与复原", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *

Cited By (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11074492B2 (en) 2015-10-07 2021-07-27 Altera Corporation Method and apparatus for performing different types of convolution operations with the same processing elements
CN105678249B (zh) * 2015-12-31 2019-05-07 上海科技大学 针对注册人脸和待识别人脸图片质量不同的人脸识别方法
CN105678249A (zh) * 2015-12-31 2016-06-15 上海科技大学 针对注册人脸和待识别人脸图片质量不同的人脸识别方法
CN106326346A (zh) * 2016-08-06 2017-01-11 上海高欣计算机***有限公司 文本分类方法及终端设备
WO2018076130A1 (zh) * 2016-10-24 2018-05-03 中国科学院自动化研究所 物体识别模型的建立方法及物体识别方法
CN108073876B (zh) * 2016-11-14 2023-09-19 北京三星通信技术研究有限公司 面部解析设备和面部解析方法
CN108073876A (zh) * 2016-11-14 2018-05-25 北京三星通信技术研究有限公司 面部解析设备和面部解析方法
CN108133265B (zh) * 2016-12-01 2021-12-24 阿尔特拉公司 利用相同处理单元实施不同类型的卷积运算的方法和装置
CN108133265A (zh) * 2016-12-01 2018-06-08 阿尔特拉公司 用于利用相同的处理单元实施不同类型的卷积运算的方法和装置
CN106682730B (zh) * 2017-01-10 2019-01-08 西安电子科技大学 基于vgg16图像反卷积的网络性能评估方法
CN106682730A (zh) * 2017-01-10 2017-05-17 西安电子科技大学 基于vgg16图像反卷积的网络性能评估方法
WO2018145308A1 (en) * 2017-02-13 2018-08-16 Nokia Technologies Oy Filter reusing mechanism for constructing robust deep convolutional neural network
CN110506277B (zh) * 2017-02-13 2023-08-08 诺基亚技术有限公司 用于构建鲁棒的深度卷积神经网络的滤波器重用机制
CN110506277A (zh) * 2017-02-13 2019-11-26 诺基亚技术有限公司 用于构建鲁棒的深度卷积神经网络的滤波器重用机制
WO2018196676A1 (en) * 2017-04-27 2018-11-01 Huawei Technologies Co., Ltd. Non-convex optimization by gradient-accelerated simulated annealing
US11003989B2 (en) 2017-04-27 2021-05-11 Futurewei Technologies, Inc. Non-convex optimization by gradient-accelerated simulated annealing
US10657446B2 (en) 2017-06-02 2020-05-19 Mitsubishi Electric Research Laboratories, Inc. Sparsity enforcing neural network
CN109033107A (zh) * 2017-06-09 2018-12-18 腾讯科技(深圳)有限公司 图像检索方法和装置、计算机设备和存储介质
CN109033107B (zh) * 2017-06-09 2021-09-17 腾讯科技(深圳)有限公司 图像检索方法和装置、计算机设备和存储介质
CN107545263B (zh) * 2017-08-02 2020-12-15 清华大学 一种物体检测方法及装置
CN107545263A (zh) * 2017-08-02 2018-01-05 清华大学 一种物体检测方法及装置
CN108012191B (zh) * 2017-12-22 2020-08-14 北京奇虎科技有限公司 视频数据处理方法及装置、计算设备、介质
CN107993217B (zh) * 2017-12-22 2021-04-09 北京奇虎科技有限公司 视频数据实时处理方法及装置、计算设备
CN107993217A (zh) * 2017-12-22 2018-05-04 北京奇虎科技有限公司 视频数据实时处理方法及装置、计算设备
CN108012191A (zh) * 2017-12-22 2018-05-08 北京奇虎科技有限公司 视频数据处理方法及装置、计算设备
CN108805036B (zh) * 2018-05-22 2022-11-22 电子科技大学 一种非监督视频语义提取方法
CN108805036A (zh) * 2018-05-22 2018-11-13 电子科技大学 一种新的非监督的视频语义提取方法
WO2019222936A1 (zh) * 2018-05-23 2019-11-28 富士通株式会社 用于语义分割的分类神经网络的训练方法及装置、电子设备
CN108985317A (zh) * 2018-05-25 2018-12-11 西安电子科技大学 一种基于可分离卷积和注意力机制的图像分类方法
CN108985317B (zh) * 2018-05-25 2022-03-01 西安电子科技大学 一种基于可分离卷积和注意力机制的图像分类方法
CN108846385A (zh) * 2018-07-10 2018-11-20 浪潮通用软件有限公司 基于卷积-反卷积神经网络的图像识别、校正方法和装置
CN108846385B (zh) * 2018-07-10 2021-11-09 浪潮通用软件有限公司 基于卷积-反卷积神经网络的图像识别、校正方法和装置
CN109272118A (zh) * 2018-08-10 2019-01-25 北京达佳互联信息技术有限公司 数据训练方法、装置、设备及存储介质
CN109272118B (zh) * 2018-08-10 2020-03-06 北京达佳互联信息技术有限公司 数据训练方法、装置、设备及存储介质
CN109727195A (zh) * 2018-12-25 2019-05-07 成都元点智库科技有限公司 一种图像超分辨率重构方法
US11645537B2 (en) 2019-02-02 2023-05-09 Beijing Horizon Robotics Technology Research And Development Co., Ltd. Neural network training method, neural network training apparatus and electronic device
CN109784490B (zh) * 2019-02-02 2020-07-03 北京地平线机器人技术研发有限公司 神经网络的训练方法、装置和电子设备
CN109784490A (zh) * 2019-02-02 2019-05-21 北京地平线机器人技术研发有限公司 神经网络的训练方法、装置和电子设备
CN110782396A (zh) * 2019-11-25 2020-02-11 武汉大学 一种轻量化的图像超分辨率重建网络和重建方法
CN111401272B (zh) * 2020-03-19 2021-08-24 支付宝(杭州)信息技术有限公司 一种人脸特征提取方法、装置及设备
CN111401272A (zh) * 2020-03-19 2020-07-10 支付宝(杭州)信息技术有限公司 一种人脸特征提取方法、装置及设备
CN113033704A (zh) * 2021-04-22 2021-06-25 江西理工大学 基于模式识别的铜转炉吹炼造铜期终点智能判断方法
CN113033704B (zh) * 2021-04-22 2023-11-07 江西理工大学 基于模式识别的铜转炉吹炼造铜期终点智能判断方法及***
CN113505865A (zh) * 2021-09-10 2021-10-15 浙江双元科技股份有限公司 一种基于卷积神经网络的片材表面缺陷图像识别处理方法

Also Published As

Publication number Publication date
CN104866900B (zh) 2018-01-19

Similar Documents

Publication Publication Date Title
CN104866900A (zh) 一种反卷积神经网络训练方法
Lin et al. Hyperspectral image denoising via matrix factorization and deep prior regularization
CN111079795B (zh) 基于cnn的分片多尺度特征融合的图像分类方法
CN102156875B (zh) 基于多任务ksvd字典学习的图像超分辨率重构方法
CN105095833A (zh) 用于人脸识别的网络构建方法、识别方法及***
CN107154043A (zh) 一种基于3dcnn的肺结节假阳性样本抑制方法
CN106991440B (zh) 一种基于空间金字塔的卷积神经网络的图像分类方法
CN104050507B (zh) 基于多层神经网络的超光谱图像分类方法
Huang et al. Deep hyperspectral image fusion network with iterative spatio-spectral regularization
CN107358576A (zh) 基于卷积神经网络的深度图超分辨率重建方法
CN103020909B (zh) 基于多尺度结构自相似与压缩感知的单图像超分辨率方法
CN106203625A (zh) 一种基于多重预训练的深层神经网络训练方法
CN107424145A (zh) 基于三维全卷积神经网络的核磁共振图像的分割方法
CN109086886A (zh) 一种基于极限学习机的卷积神经网络学习算法
CN110111325A (zh) 神经影像分类方法、计算机终端及计算机可读存储介质
CN107292336A (zh) 一种基于dcgan的极化sar图像分类方法
CN110533683A (zh) 一种融合传统特征与深度特征的影像组学分析方法
CN114331830B (zh) 一种基于多尺度残差注意力的超分辨率重建方法
CN107194349A (zh) 基于深度学习的高分辨率PolSAR图像城区地物分类方法
He et al. Remote sensing image super-resolution using deep–shallow cascaded convolutional neural networks
CN115527056A (zh) 基于双混合卷积生成对抗网络的高光谱图像分类方法
Gao et al. A novel face feature descriptor using adaptively weighted extended LBP pyramid
Li et al. Cross-receptive focused inference network for lightweight image super-resolution
CN108805280A (zh) 一种图像检索的方法和装置
CN106709869A (zh) 一种深度皮尔逊嵌入的维数约简方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
EXSB Decision made by sipo to initiate substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant