CN107292322A - 一种图像分类方法、深度学习模型及计算机*** - Google Patents

一种图像分类方法、深度学习模型及计算机*** Download PDF

Info

Publication number
CN107292322A
CN107292322A CN201610200963.5A CN201610200963A CN107292322A CN 107292322 A CN107292322 A CN 107292322A CN 201610200963 A CN201610200963 A CN 201610200963A CN 107292322 A CN107292322 A CN 107292322A
Authority
CN
China
Prior art keywords
mrow
msub
mover
matrix
msup
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201610200963.5A
Other languages
English (en)
Other versions
CN107292322B (zh
Inventor
许松岑
张洪波
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huawei Technologies Co Ltd
Original Assignee
Huawei Technologies Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huawei Technologies Co Ltd filed Critical Huawei Technologies Co Ltd
Priority to CN201610200963.5A priority Critical patent/CN107292322B/zh
Publication of CN107292322A publication Critical patent/CN107292322A/zh
Application granted granted Critical
Publication of CN107292322B publication Critical patent/CN107292322B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明实施例提供了一种图像分类方法、深度学习模型及计算机***,该方法包括:利用深度学习模型对训练用图像信息进行预处理,得到输入向量x;将该输入向量x输入投影矩阵SD之后,将该投影矩阵SD与参数矩阵相乘,并加入偏置量b,再通过激活函数f得到输出z;利用联合迭代优化算法,根据该输出z与期望输出y的差错量更新该投影矩阵SD与该参数矩阵直到该深度学习模型全连接层的参数收敛,将待分类图像信息输入该深度学习模型,得到该待分类图像的分类结果。通过本发明实施例可以缩短深度学习模型的训练时间并保证准确度。

Description

一种图像分类方法、深度学习模型及计算机***
技术领域
本发明涉及人工智能技术领域,具体涉及一种图像分类方法、深度学习模型及计算机***。
背景技术
近年来,关于人工智能的研究越来越多,而深度学习也快速成为了人工智能领域中的热点之一,它不仅可以模拟人脑进行分析学习,还可以模仿人脑的机制来解释数据,例如图像、语音和文本等。经典的深度学习模型主要包括深度置信网络(Deep Belief Network,DBN)、自动编码器(Auto Encoder,AE)以及卷积神经网络(Convolutional Neural Network,CNN)等。针对图像分类的深度学习方法则一般采用CNN,它是一种有监督的网络模型,全连接层的参数数量在很大程度上决定了全连接层参数的收敛速度,而全连接层参数的收敛则意味着CNN模型的训练完成。然而,在全连接层的规模很大时,深度学习模型完成训练需要花费很长的时间。
稀疏自编码(Sparse Auto Encoding)是一种用于削减全连接层参数数量的技术,其原理在于通过使用惩罚因子将全连接层的某些输入神经元的输出值降为0,则与此输入神经元相关的参数就无需被计算,从而达到削减参数的目的。但是通过使用惩罚因子,将全连接层的某些输入神经元的输出值降为0需要一定的迭代过程,在迭代过程完成之前全连接层的参数并没有被削减,而迭代过程需要耗费一定的时间,缩短深度学习模型的训练时间的效果并不明显;此外,实践中发现,惩罚因子只能将输入神经元的输出降至一个接近于0的较小值,这样会导致全连接层的参数数量并没有被削减,深度学习模型的训练时间也没有减少。可见,如何缩短深度学习模型的训练时间并且能保证准确度已成为亟待解决的问题。
发明内容
本发明实施例提供了一种图像分类方法、深度学习模型及计算机***,可以缩短深度学习模型的训练时间并保证准确度。
本发明实施例第一方面提供了一种图像分类方法,包括:
利用深度学习模型对训练用图像信息进行预处理,得到输入向量x;
将所述输入向量x输入投影矩阵SD之后,将所述投影矩阵SD与参数矩阵相乘,并加入偏置量b,再通过激活函数f得到输出z;
利用联合迭代优化算法,根据所述输出z与期望输出y的差错量更新所述投影矩阵SD与所述参数矩阵直到所述深度学习模型全连接层的参数收敛;
将待分类图像信息输入所述深度学习模型,得到所述待分类图像的分类结果。
可选的,所述利用深度学习模型对训练用图像信息进行预处理,得到输入向量x之后,所述方法还包括:
将所述投影矩阵SD初始化为大小为M×D的随机矩阵,将所述参数矩阵初始化为大小为D×N的随机矩阵;
其中,M、N和D均为大于或等于1的整数,且
可选的,所述利用联合迭代优化算法,根据所述输出z与期望输出y的差错量更新所述投影矩阵SD与所述参数矩阵直到所述深度学习模型全连接层的参数收敛,包括:
将所述输出z与期望输出y做差,得到差错量z-y;
建立以所述投影矩阵SD与所述参数矩阵为目标的代价函数,利用拉格朗日乘数法得到拉格朗日方程式:
其中,i为迭代的次数,SD opt分别为所述投影矩阵SD和所述参数矩阵的最优解,||·||表示计算范数;
设置所述代价函数为:
针对所述代价函数,固定所述投影矩阵SD对所述参数矩阵求偏导数:并得到所述参数矩阵的更新公式:
针对所述代价函数,固定所述参数矩阵对所述投影矩阵SD求偏导数:并得到所述投影矩阵SD的更新公式:
其中,α、β为步长,(·)T表示转置,δ为定义的敏感度;
利用所述投影矩阵SD的更新公式和所述参数矩阵的更新公式分别对所述投影矩阵SD和所述参数矩阵进行更新,直到所述深度学习模型全连接层的参数收敛。
可选的,所述全连接层的数量为多个,
对于最后一层全连接层,
对于非最后一层全连接层,
其中,f′(·)表示求导运算,(ο)表示矩阵点乘运算,和δnext分别为下一层全连接层的参数矩阵和敏感度。
本发明实施例第二方面提供了一种深度学习模型,包括:
第一处理模块,用于对训练用图像信息进行预处理,得到输入向量x;
第二处理模块,用于将所述输入向量x输入投影矩阵SD之后,将所述投影矩阵SD与参数矩阵相乘,并加入偏置量b,再通过激活函数f得到输出z;
更新模块,用于利用联合迭代优化算法,根据所述输出z与期望输出y的差错量更新所述投影矩阵SD与所述参数矩阵直到所述深度学习模型全连接层的参数收敛;
输出模块,用于输出所述第一处理模块、所述第二处理模块和所述更新模块对输入的待分类图像信息进行处理后得到的分类结果。
可选的,所述模型还包括:
初始化模块,用于将所述投影矩阵SD初始化为大小为M×D的随机矩阵,将所述参数矩阵初始化为大小为D×N的随机矩阵;
其中,M、N和D均为大于或等于1的整数,且
可选的,所述更新模块利用联合迭代优化算法,根据所述输出z与期望输出y的差错量更新所述投影矩阵SD与所述参数矩阵直到所述深度学习模型全连接层的参数收敛的具体方式为:
将所述输出z与期望输出y做差,得到差错量z-y;
建立以所述投影矩阵SD与所述参数矩阵为目标的代价函数,利用拉格朗日乘数法得到拉格朗日方程式:
其中,i为迭代的次数,SD opt分别为所述投影矩阵SD和所述参数矩阵的最优解,||·||表示计算范数;
设置所述代价函数为:
针对所述代价函数,固定所述投影矩阵SD对所述参数矩阵求偏导数:并得到所述参数矩阵的更新公式:
针对所述代价函数,固定所述参数矩阵对所述投影矩阵SD求偏导数:并得到所述投影矩阵SD的更新公式:
其中,α、β为步长,(·)T表示转置,δ为定义的敏感度;
利用所述投影矩阵SD的更新公式和所述参数矩阵的更新公式分别对所述投影矩阵SD和所述参数矩阵进行更新,直到所述深度学习模型全连接层的参数收敛。
可选的,所述全连接层的数量为多个,
对于最后一层全连接层,
对于非最后一层全连接层,
其中,f′(·)表示求导运算,(ο)表示矩阵点乘运算,和δnext分别为下一层全连接层的参数矩阵和敏感度。
本发明实施例第三方面提供了一种计算机***,包括图像采集设备和上述的深度学习模型。
本发明实施例通过利用深度学习模型对训练用图像信息进行预处理,得到输入向量x;将该输入向量x输入投影矩阵SD之后,将该投影矩阵SD与参数矩阵相乘,并加入偏置量b,再通过激活函数f得到输出z;利用联合迭代优化算法,根据该输出z与期望输出y的差错量更新该投影矩阵SD与该参数矩阵直到该深度学习模型全连接层的参数收敛,将待分类图像信息输入该深度学习模型,得到该待分类图像的分类结果,可以缩短深度学习模型的训练时间并保证准确度。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例提供的一种图像分类方法的流程示意图;
图2是现有技术提供的一种深度学习模型全连接层的结构示意图;
图3是本发明实施例提供的一种深度学习模型全连接层的结构示意图;
图4是本发明实施例提供的一种深度学习模型的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
请参阅图1,为本发明实施例提供的一种图像分类方法的流程示意图。本实施例中所描述的图像分类方法,包括以下步骤:
S101、利用深度学习模型对训练用图像信息进行预处理,得到输入向量x。
具体的,该深度学习模型可以为CNN模型,包括卷积层、子采样层和全连接层,将该训练用图像信息输入到该卷积层,在该卷积层和该子采样层的处理过程如下:
(a)l-1层的该训练用图像信息与卷积核进行卷积,添加偏置后,通过激活函数f,得到特征图像(Feature Map)
其中,公式(1)中的i为当前层的第j个神经元连接的上一层的神经元数量,Mj为与第j个神经元连接的一系列输入的该训练用图像信息,(*)表示卷积运算,Σ(·)表示求和运算。该激活函数f可以优选sigmoid函数、tanh函数和ReLU函数中的任一种,也可以选择其它类型的激活函数。公式(2)(3)(4)分别介绍了三种常用的激活函数f:
sigmoid函数:
tanh函数:
ReLU函数:f(x)=max(0,x) (4)
其中,e为自然对数,max(·)表示求最大值运算。
(b)该训练用图像信息通过卷积层运算后,再通过子采样层,得到进入全连接层l+1的第j个神经元的输入值:
其中,down(·)表示子采样运算。该运算会针对图像的一个n×n区域求平均值或者最大值或者最小值。将l+1层所有由公式(5)得到的输入值组合为向量,即可得到进入该深度学习模型全连接层的输入向量x。
S102、将投影矩阵SD初始化为大小为M×D的随机矩阵,将参数矩阵初始化为大小为D×N的随机矩阵。
其中,图2所示的是现有技术提供的一种深度学习模型全连接层的结构示意图,图3所示的是本发明实施例提供的一种深度学习模型全连接层的结构示意图,本发明实施例通过引入M×D的投影矩阵将包括M×N个全连接层参数的参数矩阵W削减为包括D×N个全连接层参数的低维度参数矩阵
其中,M、N和D均为大于或等于1的整数,且从而削减了全连接层参数的数量。
具体的,该投影矩阵SD和该参数矩阵均可以初始化为均值为0,方差为1的高斯随机矩阵。
S103、将该输入向量x输入投影矩阵SD之后,将该投影矩阵SD与该参数矩阵相乘,并加入偏置量b,再通过激活函数f得到输出z。
其中,该偏置量b可以初始化为1×N的均值为0,方差为1的高斯随机向量。
具体的,如图3所示,将该输入向量x输入该投影矩阵SD,该输入向量x的维度由M降为D,接着将输入该输入向量x后的该投影矩阵SD与该参数矩阵相乘,并加入偏置量b,再通过激活函数f得到输出
需要说明的是,一个深度学习模型一般有多个全连接层,不同深度学习模型全连接层的个数可以不同,每一个全连接层只存在一个投影矩阵。
S104、利用联合迭代优化算法,根据该输出z与期望输出y的差错量更新该投影矩阵SD与该参数矩阵直到该深度学习模型全连接层的参数收敛。
具体的,图3中的联合迭代优化算法主要步骤可以为:
(a)将该输出z与期望输出y做差,得到差错量z-y(或y-z)。
(b)建立以该投影矩阵SD与该参数矩阵为目标的代价函数,利用拉格朗日乘数法得到拉格朗日方程式:
其中,i为迭代的次数,Sd opt分别为该投影矩阵SD和该参数矩阵的最优解,||·||表示计算范数。
(c)设置该代价函数为:
(d)针对该代价函数,固定该投影矩阵SD对该参数矩阵求偏导数:并采用最小均方(Least Mean Square,LMS)算法得到该参数矩阵的更新公式:
(e)类似地,针对该代价函数,固定该参数矩阵对该投影矩阵SD求偏导数:并采用LMS算法得到该投影矩阵SD的更新公式:
其中,α、β为步长,(·)T表示转置,δ为便于推导该联合迭代优化算法而定义的敏感度。
具体的,(d)和(e)并行执行,即该参数矩阵和该投影矩阵SD可以同时更新,可以进一步减少该深度学习模型全连接层的执行时间。另外,结合该差错量对该参数矩阵和该投影矩阵SD进行更新可以保证在全连接层参数被削减的情况下该深度学习模型输出结果的准确度。
在一些可行的实施方式中,对于(d)和(e)也可以采用归一化最小均方(Normalized Least Mean Square,NLMS)算法得到该参数矩阵和该投影矩阵SD的更新公式:
(f)利用该投影矩阵SD的更新公式和该参数矩阵的更新公式分别对该投影矩阵SD和该参数矩阵进行更新,直到该深度学习模型全连接层的参数收敛。
其中,连续的两次或多次得到的该差错量没有变化时,可以确定该深度学习模型全连接层的参数已经收敛,即该深度学习模型训练完成。
需要说明的是,针对不同的全连接层,δ的定义不同,具体为:
对于最后一层全连接层,
对于非最后一层全连接层,
其中,f′(·)表示求导运算,(ο)表示矩阵点乘运算,和δnext分别为下一层全连接层的参数矩阵和敏感度。
S105、将待分类图像信息输入该深度学习模型,得到该待分类图像的分类结果。
具体的,在该深度学习模型训练完成后即可将待分类图像信息输入该深度学习模型,进而得到该待分类图像的分类结果。
本发明实施例通过利用深度学习模型对训练用图像信息进行预处理,得到输入向量x;将该输入向量x输入投影矩阵SD之后,将该投影矩阵SD与参数矩阵相乘,并加入偏置量b,再通过激活函数f得到输出z;利用联合迭代优化算法,根据该输出z与期望输出y的差错量更新该投影矩阵SD与该参数矩阵直到该深度学习模型全连接层的参数收敛,将待分类图像信息输入该深度学习模型,得到该待分类图像的分类结果,可以缩短深度学习模型的训练时间并保证准确度。
请参阅图4,为本发明实施例提供的一种深度学习模型的结构示意图。本实施例中所描述的深度学习模型,包括:
第一处理模块401,用于对训练用图像信息进行预处理,得到输入向量x。
初始化模块402,用于将所述投影矩阵SD初始化为大小为M×D的随机矩阵,将所述参数矩阵初始化为大小为D×N的随机矩阵。
第二处理模块403,用于将所述输入向量x输入投影矩阵SD之后,将所述投影矩阵SD与参数矩阵相乘,并加入偏置量b,再通过激活函数f得到输出z。
更新模块404,用于利用联合迭代优化算法,根据所述输出z与期望输出y的差错量更新所述投影矩阵SD与所述参数矩阵直到所述深度学习模型全连接层的参数收敛。
输出模块405,用于输出所述第一处理模块、所述第二处理模块和所述更新模块对输入的待分类图像信息进行处理后得到的分类结果。
在一些可行的实施方式中,所述激活函数f为sigmoid函数、tanh函数和ReLU函数中的任一种。
在一些可行的实施方式中,所述更新模块404利用联合迭代优化算法,根据所述输出z与期望输出y的差错量更新所述投影矩阵SD与所述参数矩阵直到所述深度学习模型全连接层的参数收敛的具体方式可以为:
将所述输出z与期望输出y做差,得到差错量z-y。
建立以所述投影矩阵SD与所述参数矩阵为目标的代价函数,利用拉格朗日乘数法得到拉格朗日方程式:
其中,i为迭代的次数,SD opt分别为所述投影矩阵SD和所述参数矩阵的最优解,||·||表示计算范数。
设置所述代价函数为:
针对所述代价函数,固定所述投影矩阵SD对所述参数矩阵求偏导数:并采用LMS算法得到所述参数矩阵的更新公式:
针对所述代价函数,固定所述参数矩阵对所述投影矩阵SD求偏导数:并采用LMS算法得到所述投影矩阵SD的更新公式:
其中,α、β为步长,(·)T表示转置,δ为定义的敏感度。
在一些可行的实施方式中,也可以采用NLMS算法得到该参数矩阵和该投影矩阵SD的更新公式:
利用所述投影矩阵SD的更新公式和所述参数矩阵的更新公式分别对所述投影矩阵SD和所述参数矩阵进行更新,直到所述深度学习模型全连接层的参数收敛。
其中,所述全连接层的数量为多个,
对于最后一层全连接层,
对于非最后一层全连接层,
其中,f(·)表示求导运算,(ο)表示矩阵点乘运算,和δnext分别为下一层全连接层的参数矩阵和敏感度。
本发明实施例通过利用深度学习模型对训练用图像信息进行预处理,得到输入向量x;将该输入向量x输入投影矩阵SD之后,将该投影矩阵SD与参数矩阵相乘,并加入偏置量b,再通过激活函数f得到输出z;利用联合迭代优化算法,根据该输出z与期望输出y的差错量更新该投影矩阵SD与该参数矩阵直到该深度学习模型全连接层的参数收敛,将待分类图像信息输入该深度学习模型,得到该待分类图像的分类结果,可以缩短深度学习模型的训练时间并保证准确度。
此外,本发明实施例还提供了一种计算机***,包括图像采集设备和上面实施例所述的深度学习模型。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)或随机存取存储器(Random Access Memory,RAM)等。
以上对本发明实施例所提供的一种图像分类方法、深度学习模型及计算机***进行了详细介绍,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。

Claims (13)

1.一种图像分类方法,其特征在于,包括:
利用深度学习模型对训练用图像信息进行预处理,得到输入向量x;
将所述输入向量x输入投影矩阵SD之后,将所述投影矩阵SD与参数矩阵相乘,并加入偏置量b,再通过激活函数f得到输出z;
利用联合迭代优化算法,根据所述输出z与期望输出y的差错量更新所述投影矩阵SD与所述参数矩阵直到所述深度学习模型全连接层的参数收敛;
将待分类图像信息输入所述深度学习模型,得到所述待分类图像的分类结果。
2.根据权利要求1所述的方法,其特征在于,所述利用深度学习模型对训练用图像信息进行预处理,得到输入向量x之后,所述方法还包括:
将所述投影矩阵SD初始化为大小为M×D的随机矩阵,将所述参数矩阵初始化为大小为D×N的随机矩阵;
其中,M、N和D均为大于或等于1的整数,且
3.根据权利要求1或2所述的方法,其特征在于,
<mrow> <mi>z</mi> <mo>=</mo> <mi>f</mi> <mrow> <mo>(</mo> <mi>x</mi> <mo>&amp;times;</mo> <msub> <mi>S</mi> <mi>D</mi> </msub> <mo>&amp;times;</mo> <mover> <mi>W</mi> <mo>&amp;OverBar;</mo> </mover> <mo>+</mo> <mi>b</mi> <mo>)</mo> </mrow> <mo>.</mo> </mrow>
4.根据权利要求1~3中任一项所述的方法,其特征在于,
所述激活函数f为sigmoid函数、tanh函数和ReLU函数中的任一种。
5.根据权利要求1~4中任一项所述的方法,其特征在于,所述利用联合迭代优化算法,根据所述输出z与期望输出y的差错量更新所述投影矩阵SD与所述参数矩阵直到所述深度学习模型全连接层的参数收敛,包括:
将所述输出z与期望输出y做差,得到差错量z-y;
建立以所述投影矩阵SD与所述参数矩阵为目标的代价函数,利用拉格朗日乘数法得到拉格朗日方程式:
<mrow> <mo>&amp;lsqb;</mo> <msup> <msub> <mi>S</mi> <mi>D</mi> </msub> <mrow> <mi>o</mi> <mi>p</mi> <mi>t</mi> </mrow> </msup> <mo>,</mo> <msup> <mover> <mi>W</mi> <mo>&amp;OverBar;</mo> </mover> <mrow> <mi>o</mi> <mi>p</mi> <mi>t</mi> </mrow> </msup> <mo>&amp;rsqb;</mo> <mo>=</mo> <msub> <mi>min</mi> <mrow> <msub> <mi>S</mi> <mi>D</mi> </msub> <mo>,</mo> <mover> <mi>W</mi> <mo>&amp;OverBar;</mo> </mover> </mrow> </msub> <mo>|</mo> <mo>|</mo> <msup> <mover> <mi>W</mi> <mo>&amp;OverBar;</mo> </mover> <mi>i</mi> </msup> <mo>-</mo> <msup> <mover> <mi>W</mi> <mo>&amp;OverBar;</mo> </mover> <mrow> <mi>i</mi> <mo>-</mo> <mn>1</mn> </mrow> </msup> <mo>|</mo> <mo>|</mo> <mo>+</mo> <mo>|</mo> <mo>|</mo> <msup> <msub> <mi>S</mi> <mi>D</mi> </msub> <mi>i</mi> </msup> <mo>-</mo> <msup> <msub> <mi>S</mi> <mi>D</mi> </msub> <mrow> <mi>i</mi> <mo>-</mo> <mn>1</mn> </mrow> </msup> <mo>|</mo> <mo>|</mo> </mrow> 1
其中,i为迭代的次数,SD opt分别为所述投影矩阵SD和所述参数矩阵的最优解,||·||表示计算范数;
设置所述代价函数为:
针对所述代价函数,固定所述投影矩阵SD对所述参数矩阵求偏导数:并得到所述参数矩阵的更新公式:
<mrow> <mover> <mi>W</mi> <mo>&amp;OverBar;</mo> </mover> <mo>:</mo> <mo>=</mo> <mover> <mi>W</mi> <mo>&amp;OverBar;</mo> </mover> <mo>-</mo> <mi>&amp;alpha;</mi> <mfrac> <mrow> <mo>&amp;part;</mo> <mi>J</mi> </mrow> <mrow> <mo>&amp;part;</mo> <mover> <mi>W</mi> <mo>&amp;OverBar;</mo> </mover> </mrow> </mfrac> <mo>=</mo> <mover> <mi>W</mi> <mo>&amp;OverBar;</mo> </mover> <mo>-</mo> <mi>&amp;alpha;</mi> <msup> <mrow> <mo>(</mo> <msub> <mi>xS</mi> <mi>D</mi> </msub> <mo>)</mo> </mrow> <mi>T</mi> </msup> <mi>&amp;delta;</mi> </mrow>
针对所述代价函数,固定所述参数矩阵对所述投影矩阵SD求偏导数:并得到所述投影矩阵SD的更新公式:
<mrow> <msub> <mi>S</mi> <mi>D</mi> </msub> <mo>:</mo> <mo>=</mo> <msub> <mi>S</mi> <mi>D</mi> </msub> <mo>-</mo> <mi>&amp;beta;</mi> <mfrac> <mrow> <mo>&amp;part;</mo> <mi>J</mi> </mrow> <mrow> <mo>&amp;part;</mo> <msub> <mi>S</mi> <mi>D</mi> </msub> </mrow> </mfrac> <mo>=</mo> <msub> <mi>S</mi> <mi>D</mi> </msub> <mo>-</mo> <msup> <mi>&amp;beta;x</mi> <mi>T</mi> </msup> <mi>&amp;delta;</mi> <msup> <mover> <mi>W</mi> <mo>&amp;OverBar;</mo> </mover> <mi>T</mi> </msup> </mrow>
其中,α、β为步长,(·)T表示转置,δ为定义的敏感度;
利用所述投影矩阵SD的更新公式和所述参数矩阵的更新公式分别对所述投影矩阵SD和所述参数矩阵进行更新,直到所述深度学习模型全连接层的参数收敛。
6.根据权利要求5所述的方法,其特征在于,所述全连接层的数量为多个,
对于最后一层全连接层,
对于非最后一层全连接层,
其中,f′(·)表示求导运算,(о)表示矩阵点乘运算,和δnext分别为下一层全连接层的参数矩阵和敏感度。
7.一种深度学习模型,其特征在于,包括:
第一处理模块,用于对训练用图像信息进行预处理,得到输入向量x;
第二处理模块,用于将所述输入向量x输入投影矩阵SD之后,将所述投影矩阵SD与参数矩阵相乘,并加入偏置量b,再通过激活函数f得到输出z;
更新模块,用于利用联合迭代优化算法,根据所述输出z与期望输出y的差错量更新所述投影矩阵SD与所述参数矩阵直到所述深度学习模型全连接层的参数收敛;
输出模块,用于输出所述第一处理模块、所述第二处理模块和所述更新模块对输入的待分类图像信息进行处理后得到的分类结果。
8.根据权利要求7所述的模型,其特征在于,所述模型还包括:
初始化模块,用于将所述投影矩阵SD初始化为大小为M×D的随机矩阵,将所述参数矩阵初始化为大小为D×N的随机矩阵;
其中,M、N和D均为大于或等于1的整数,且
9.根据权利要求7或8所述的模型,其特征在于,
<mrow> <mi>z</mi> <mo>=</mo> <mi>f</mi> <mrow> <mo>(</mo> <mi>x</mi> <mo>&amp;times;</mo> <msub> <mi>S</mi> <mi>D</mi> </msub> <mo>&amp;times;</mo> <mover> <mi>W</mi> <mo>&amp;OverBar;</mo> </mover> <mo>+</mo> <mi>b</mi> <mo>)</mo> </mrow> <mo>.</mo> </mrow>
10.根据权利要求7~9中任一项所述的模型,其特征在于,
所述激活函数f为sigmoid函数、tanh函数和ReLU函数中的任一种。
11.根据权利要求7~10中任一项所述的模型,其特征在于,所述更新模块利用联合迭代优化算法,根据所述输出z与期望输出y的差错量更新所述投影矩阵SD与所述参数矩阵直到所述深度学习模型全连接层的参数收敛的具体方式为:
将所述输出z与期望输出y做差,得到差错量z-y;
建立以所述投影矩阵SD与所述参数矩阵为目标的代价函数,利用拉格朗日乘数法得到拉格朗日方程式:
<mrow> <mo>&amp;lsqb;</mo> <msup> <msub> <mi>S</mi> <mi>D</mi> </msub> <mrow> <mi>o</mi> <mi>p</mi> <mi>t</mi> </mrow> </msup> <mo>,</mo> <msup> <mover> <mi>W</mi> <mo>&amp;OverBar;</mo> </mover> <mrow> <mi>o</mi> <mi>p</mi> <mi>t</mi> </mrow> </msup> <mo>&amp;rsqb;</mo> <mo>=</mo> <msub> <mi>min</mi> <mrow> <msub> <mi>S</mi> <mi>D</mi> </msub> <mo>,</mo> <mover> <mi>W</mi> <mo>&amp;OverBar;</mo> </mover> </mrow> </msub> <mo>|</mo> <mo>|</mo> <msup> <mover> <mi>W</mi> <mo>&amp;OverBar;</mo> </mover> <mi>i</mi> </msup> <mo>-</mo> <msup> <mover> <mi>W</mi> <mo>&amp;OverBar;</mo> </mover> <mrow> <mi>i</mi> <mo>-</mo> <mn>1</mn> </mrow> </msup> <mo>|</mo> <mo>|</mo> <mo>+</mo> <mo>|</mo> <mo>|</mo> <msup> <msub> <mi>S</mi> <mi>D</mi> </msub> <mi>i</mi> </msup> <mo>-</mo> <msup> <msub> <mi>S</mi> <mi>D</mi> </msub> <mrow> <mi>i</mi> <mo>-</mo> <mn>1</mn> </mrow> </msup> <mo>|</mo> <mo>|</mo> </mrow>
其中,i为迭代的次数,SD opt分别为所述投影矩阵SD和所述参数矩阵的最优解,||·||表示计算范数;
设置所述代价函数为:
针对所述代价函数,固定所述投影矩阵SD对所述参数矩阵求偏导数:并得到所述参数矩阵的更新公式:
<mrow> <mover> <mi>W</mi> <mo>&amp;OverBar;</mo> </mover> <mo>:</mo> <mo>=</mo> <mover> <mi>W</mi> <mo>&amp;OverBar;</mo> </mover> <mo>-</mo> <mi>&amp;alpha;</mi> <mfrac> <mrow> <mo>&amp;part;</mo> <mi>J</mi> </mrow> <mrow> <mo>&amp;part;</mo> <mover> <mi>W</mi> <mo>&amp;OverBar;</mo> </mover> </mrow> </mfrac> <mo>=</mo> <mover> <mi>W</mi> <mo>&amp;OverBar;</mo> </mover> <mo>-</mo> <mi>&amp;alpha;</mi> <msup> <mrow> <mo>(</mo> <msub> <mi>xS</mi> <mi>D</mi> </msub> <mo>)</mo> </mrow> <mi>T</mi> </msup> <mi>&amp;delta;</mi> </mrow>
针对所述代价函数,固定所述参数矩阵对所述投影矩阵SD求偏导数:并得到所述投影矩阵SD的更新公式:
<mrow> <msub> <mi>S</mi> <mi>D</mi> </msub> <mo>:</mo> <mo>=</mo> <msub> <mi>S</mi> <mi>D</mi> </msub> <mo>-</mo> <mi>&amp;beta;</mi> <mfrac> <mrow> <mo>&amp;part;</mo> <mi>J</mi> </mrow> <mrow> <mo>&amp;part;</mo> <msub> <mi>S</mi> <mi>D</mi> </msub> </mrow> </mfrac> <mo>=</mo> <msub> <mi>S</mi> <mi>D</mi> </msub> <mo>-</mo> <msup> <mi>&amp;beta;x</mi> <mi>T</mi> </msup> <mi>&amp;delta;</mi> <msup> <mover> <mi>W</mi> <mo>&amp;OverBar;</mo> </mover> <mi>T</mi> </msup> </mrow>
其中,α、β为步长,(·)T表示转置,δ为定义的敏感度;
利用所述投影矩阵SD的更新公式和所述参数矩阵的更新公式分别对所述投影矩阵SD和所述参数矩阵进行更新,直到所述深度学习模型全连接层的参数收敛。
12.根据权利要求11所述的模型,其特征在于,所述全连接层的数量为多个,
对于最后一层全连接层,
对于非最后一层全连接层,
其中,f′(·)表示求导运算,(о)表示矩阵点乘运算,和δnext分别为下一层全连接层的参数矩阵和敏感度。
13.一种计算机***,其特征在于,包括图像采集设备和如权利要求7~12中任一项所述的深度学习模型。
CN201610200963.5A 2016-03-31 2016-03-31 一种图像分类方法、深度学习模型及计算机*** Active CN107292322B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610200963.5A CN107292322B (zh) 2016-03-31 2016-03-31 一种图像分类方法、深度学习模型及计算机***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610200963.5A CN107292322B (zh) 2016-03-31 2016-03-31 一种图像分类方法、深度学习模型及计算机***

Publications (2)

Publication Number Publication Date
CN107292322A true CN107292322A (zh) 2017-10-24
CN107292322B CN107292322B (zh) 2020-12-04

Family

ID=60087442

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610200963.5A Active CN107292322B (zh) 2016-03-31 2016-03-31 一种图像分类方法、深度学习模型及计算机***

Country Status (1)

Country Link
CN (1) CN107292322B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108460737A (zh) * 2018-02-08 2018-08-28 上海爱优威软件开发有限公司 一种cnn-lms图像噪声的智能滤波方法及***
WO2019100723A1 (zh) * 2017-11-24 2019-05-31 华为技术有限公司 训练多标签分类模型的方法和装置
WO2019100724A1 (zh) * 2017-11-24 2019-05-31 华为技术有限公司 训练多标签分类模型的方法和装置
CN112488104A (zh) * 2020-11-30 2021-03-12 华为技术有限公司 深度及置信度估计***

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101872424A (zh) * 2010-07-01 2010-10-27 重庆大学 基于Gabor变换最优通道模糊融合的人脸表情识别方法
CN102159965A (zh) * 2008-09-17 2011-08-17 皇家飞利浦电子股份有限公司 用于mri的b1映射和b1l匀场
CN104200224A (zh) * 2014-08-28 2014-12-10 西北工业大学 基于深度卷积神经网络的无价值图像去除方法
CN104572940A (zh) * 2014-12-30 2015-04-29 中国人民解放军海军航空工程学院 一种基于深度学习与典型相关分析的图像自动标注方法
US9031331B2 (en) * 2012-07-30 2015-05-12 Xerox Corporation Metric learning for nearest class mean classifiers
CN105874474A (zh) * 2013-11-04 2016-08-17 脸谱公司 用于面部表示的***和方法
US20170236000A1 (en) * 2016-02-16 2017-08-17 Samsung Electronics Co., Ltd. Method of extracting feature of image to recognize object

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102159965A (zh) * 2008-09-17 2011-08-17 皇家飞利浦电子股份有限公司 用于mri的b1映射和b1l匀场
CN101872424A (zh) * 2010-07-01 2010-10-27 重庆大学 基于Gabor变换最优通道模糊融合的人脸表情识别方法
US9031331B2 (en) * 2012-07-30 2015-05-12 Xerox Corporation Metric learning for nearest class mean classifiers
CN105874474A (zh) * 2013-11-04 2016-08-17 脸谱公司 用于面部表示的***和方法
CN104200224A (zh) * 2014-08-28 2014-12-10 西北工业大学 基于深度卷积神经网络的无价值图像去除方法
CN104572940A (zh) * 2014-12-30 2015-04-29 中国人民解放军海军航空工程学院 一种基于深度学习与典型相关分析的图像自动标注方法
US20170236000A1 (en) * 2016-02-16 2017-08-17 Samsung Electronics Co., Ltd. Method of extracting feature of image to recognize object

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
赵建伟: "一种基于调和随机权网络与曲波变换的图像分类方法", 《模式识别与人工智能》 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019100723A1 (zh) * 2017-11-24 2019-05-31 华为技术有限公司 训练多标签分类模型的方法和装置
WO2019100724A1 (zh) * 2017-11-24 2019-05-31 华为技术有限公司 训练多标签分类模型的方法和装置
CN108460737A (zh) * 2018-02-08 2018-08-28 上海爱优威软件开发有限公司 一种cnn-lms图像噪声的智能滤波方法及***
CN112488104A (zh) * 2020-11-30 2021-03-12 华为技术有限公司 深度及置信度估计***
CN112488104B (zh) * 2020-11-30 2024-04-09 华为技术有限公司 深度及置信度估计***

Also Published As

Publication number Publication date
CN107292322B (zh) 2020-12-04

Similar Documents

Publication Publication Date Title
CN108154228B (zh) 一种人工神经网络计算装置和方法
CN109460817B (zh) 一种基于非易失存储器的卷积神经网络片上学习***
CN107688850A (zh) 一种深度神经网络压缩方法
CN108717409A (zh) 一种序列标注方法及装置
CN103049792B (zh) 深层神经网络的辨别预训练
CN108960407B (zh) 递归神经网路语言模型训练方法、装置、设备及介质
WO2019089339A1 (en) Method and system for neural network synthesis
CN109902222A (zh) 一种推荐方法及装置
CN107688849A (zh) 一种动态策略定点化训练方法及装置
CN111583165A (zh) 图像处理方法、装置、设备及存储介质
CN110188176A (zh) 深度学习神经网络及训练、预测方法、***、设备、介质
CN107239825A (zh) 考虑负载均衡的深度神经网络压缩方法
CN109726676B (zh) 自动驾驶***的规划方法
CN107292322A (zh) 一种图像分类方法、深度学习模型及计算机***
CN109544306A (zh) 一种基于用户行为序列特征的跨领域推荐方法及装置
US20090276385A1 (en) Artificial-Neural-Networks Training Artificial-Neural-Networks
CN104751842A (zh) 深度神经网络的优化方法及***
CN110309911A (zh) 神经网络模型验证方法、装置、计算机设备和存储介质
CN107622305A (zh) 用于神经网络的处理器和处理方法
CN110334196B (zh) 基于笔画和自注意力机制的神经网络中文问题生成***
CN108171328A (zh) 一种卷积运算方法和基于该方法的神经网络处理器
US20210133540A1 (en) System and method for compact, fast, and accurate lstms
CN114398976A (zh) 基于bert与门控类注意力增强网络的机器阅读理解方法
CN116415170A (zh) 基于预训练语言模型的提示学习小样本分类方法、***、设备及介质
CN115017178A (zh) 数据到文本生成模型的训练方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant