CN108197666A - 一种图像分类模型的处理方法、装置及存储介质 - Google Patents

一种图像分类模型的处理方法、装置及存储介质 Download PDF

Info

Publication number
CN108197666A
CN108197666A CN201810087876.2A CN201810087876A CN108197666A CN 108197666 A CN108197666 A CN 108197666A CN 201810087876 A CN201810087876 A CN 201810087876A CN 108197666 A CN108197666 A CN 108197666A
Authority
CN
China
Prior art keywords
trained
model
network
image
image classification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201810087876.2A
Other languages
English (en)
Inventor
曲之琳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Migu Cultural Technology Co Ltd
China Mobile Communications Group Co Ltd
Original Assignee
Migu Cultural Technology Co Ltd
China Mobile Communications Group Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Migu Cultural Technology Co Ltd, China Mobile Communications Group Co Ltd filed Critical Migu Cultural Technology Co Ltd
Priority to CN201810087876.2A priority Critical patent/CN108197666A/zh
Publication of CN108197666A publication Critical patent/CN108197666A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种图像分类模型的处理方法,包括:初始化图像分类模型;确定从图像分类模型中顺序选取的滤波器模型的第一待训练网络,以及确定包括顺序选取的滤波器模型和分类器模型的第二待训练网络;根据获取的未具有标记的图像样本,对第一待训练网络进行无监督方式的训练,以更新第一待训练网络中滤波器模型的参数;基于第二待训练网络从图像样本中提取图像特征;基于所提取的图像特征及相应图像样本的标记,对第二待训练网络中的分类器模型进行有监督方式的训练;基于训练后的分类器模型输出结果的误差,更新第二待训练网络中滤波器模型的参数。本发明还同时公开了一种图像分类模型的处理装置、以及存储介质。

Description

一种图像分类模型的处理方法、装置及存储介质
技术领域
本发明涉及计算机领域中的图像处理技术,尤其涉及一种图像分类模型的处理方法、装置及存储介质。
背景技术
随着电子技术和互联网特别是移动互联网的快速发展,电子设备特别是智能移动终端的功能越来越强大,用户可以根据自身需求在智能移动终端上安装各种应用程序,以完成各种事务。例如,通过安装在智能移动终端上的应用程序实现图像识别。
目前,为了对图像进行识别,以辨识出图像所属的类别,相关技术中通常将深度学习算法如深度信念网络(DBN,Deep Belief Network)运用到图像识别中,即利用在神经元之间生成的权重,使得神经网络能够以最大的概率生成训练数据。然而,在DBN的训练过程中,当使用反向传播算法对DBN模型中的各个参数进行不断调整时,由于在反向传播误差的过程中,误差会随着受限玻尔兹曼机(RBM,Restricted Boltzmann Machine)层数的不断累积而出现指数形式的下降,即出现梯度弥散的现象,从而导致图像识别准确率降低,使得模型训练学习的效果无法达到预期结果。
因此,对于如何能够快速提高图像识别的准确率,相关技术尚无有效解决方案。
发明内容
有鉴于此,本发明实施例期望提供一种图像分类模型的处理方法、装置及存储介质,用以解决相关技术难以有效快速提高图像识别的准确率的问题。
为达到上述目的,本发明实施例的技术方案是这样实现的:
第一方面,本发明实施例提供一种图像分类模型的处理方法,所述方法包括:
初始化图像分类模型;
确定从所述图像分类模型中顺序选取的滤波器模型的第一待训练网络,以及确定包括所述顺序选取的滤波器模型和分类器模型的第二待训练网络;
根据获取的未具有标记的图像样本,对所述第一待训练网络进行无监督方式的训练,以更新所述第一待训练网络中滤波器模型的参数;
基于所述第二待训练网络从所述图像样本中提取图像特征;
基于所提取的图像特征及相应图像样本的标记,对所述第二待训练网络中的分类器模型进行有监督方式的训练;
基于训练后的分类器模型输出结果的误差,更新所述第二待训练网络中滤波器模型的参数。
第二方面,本发明实施例提供一种图像分类模型的处理装置,所述装置包括:初始化模块、确定模块、第一训练模块、提取模块、第二训练模块和更新模块;其中,
所述初始化模块,用于初始化图像分类模型;
所述确定模块,用于确定从所述图像分类模型中顺序选取的滤波器模型的第一待训练网络,以及确定包括所述顺序选取的滤波器模型和分类器模型的第二待训练网络;
所述第一训练模块,用于根据获取的未具有标记的图像样本,对所述第一待训练网络进行无监督方式的训练,以更新所述第一待训练网络中滤波器模型的参数;
所述提取模块,用于基于所述第二待训练网络从所述图像样本中提取图像特征;
所述第二训练模块,用于基于所提取的图像特征及相应图像样本的标记,对所述第二待训练网络中的分类器模型进行有监督方式的训练;
所述更新模块,用于基于训练后的分类器模型输出结果的误差,更新所述第二待训练网络中滤波器模型的参数。
第三方面,本发明实施例提供一种存储介质,其上存储有可执行程序,所述可执行程序被处理器执行时实现本发明实施例提供的图像分类模型的处理方法的步骤。
第四方面,本发明实施例还提供一种图像分类模型的处理装置,包括存储器、处理器及存储在存储器上并能够由所述处理器运行的可执行程序,所述处理器运行所述可执行程序时执行本发明实施例提供的图像分类模型的处理方法的步骤。
本发明实施例所提供的图像分类模型的处理方法、装置及存储介质,通过从图像分类模型中确定第一待训练网络和第二待训练网络,根据未具有标记的图像样本,对第一待训练网络进行无监督方式训练,以更新第一待训练网络中滤波器模型的参数;基于提取的图像特征及相应图像样本的标记,对第二待训练网络进行有监督方式训练,以更新第二待训练网络中滤波器模型的参数。如此,将无监督学***稳状态,减少模型训练学习的时间;同时,本发明实施例采用上述构建的图像分类模型对待识别的图像数据进行图像识别,可以避免出现因反向传播算法带来的梯度弥散的问题,大大提高图像识别的准确率,提升用户使用体验。
附图说明
图1为本发明实施例提供的图像分类模型的处理方法的一个可选的实现流程示意图;
图2为本发明实施例提供的图像分类模型的处理方法的另一个可选的实现流程示意图;
图3为本发明实施例提供的卷积限制性玻尔兹曼机(CRBM,ConvolutionRestricted Boltzmann Machine)的一个可选的结构示意图;
图4A为本发明实施例提供的第一待训练网络的一个可选的结构示意图;
图4B为本发明实施例提供的第二待训练网络的一个可选的结构示意图;
图5A为本发明实施例提供的第一待训练网络的另一个可选的结构示意图;
图5B为本发明实施例提供的第二待训练网络的另一个可选的结构示意图;
图6为本发明实施例提供的图像分类模型的处理装置的一个可选的功能结构示意图;
图7为本发明实施例提供的图像分类模型的处理装置的另一个可选的功能结构示意图;
图8为本发明实施例提供的图像分类模型的处理装置的一个可选的硬件结构示意图。
具体实施方式
为了能够更加详尽地了解本发明实施例的特点与技术内容,下面结合附图对本发明实施例的实现进行详细阐述,所附附图仅供参考说明之用,并非用来限定本发明。
图1为本发明实施例提供的图像分类模型的处理方法的一个可选的实现流程示意图,图像分类模型的处理方法可应用于服务器或终端设备中;如图1所示,本发明实施例中的图像分类模型的处理方法的实现流程,可以包括以下步骤:
步骤101:初始化图像分类模型。
步骤102:确定从图像分类模型中顺序选取的滤波器模型的第一待训练网络,以及确定包括顺序选取的滤波器模型和分类器模型的第二待训练网络。
步骤103:根据获取的未具有标记的图像样本,对第一待训练网络进行无监督方式的训练,以更新第一待训练网络中滤波器模型的参数。
步骤104:基于第二待训练网络从图像样本中提取图像特征。
步骤105:基于所提取的图像特征及相应图像样本的标记,对第二待训练网络中的分类器模型进行有监督方式的训练。
步骤106:基于训练后的分类器模型输出结果的误差,更新第二待训练网络中滤波器模型的参数。
在本实施例中,图像分类模型是一种混合模型,该混合模型具有将一定数量的滤波器模型,以及分类器模型结合起来的模型结构。根据实际情况可以设置滤波器模型的个数,即将滤波器模型的个数设置为一个或者多个。当滤波器模型的个数为多个时,可将多个滤波器模型按照预设的连接顺序进行顺序连接。
在采用上述步骤101至步骤106的方法对图像分类模型进行训练的过程中,结合有监督学习和无监督学习轮流进行的方式来训练图像分类模型网络,也即对从图像分类模型中确定的第一待训练网络进行无监督方式的训练,对从图像分类模型中确定的第二待训练网络进行有监督方式的训练,以达到更新第一待训练网络和第二待训练网络中滤波器模型的参数的目的。由于图像分类模型中的各个参数已经训练到极佳的状态,使得该图像分类模型具有良好的图像分类能力,因此,将此图像分类模型应用于采集的图像数据库中,可以有效地识别出图像数据所属类别,提高图像识别的准确率。
需要说明的是,考虑到模型训练的时长以及训练效果,实际应用中不可能无限制的重复训练图像分类模型,因此,通常设置第一待训练网络和第二待训练网络训练层数的相应阈值,即设置第一待训练网络的训练层数阈值和第二待训练网络的训练层数阈值,且第一待训练网络的训练层数与第二待训练网络的训练层数相同。也就是说,在对第一待训练网络进行无监督方式的一轮训练完成后,接着对第二待训练网络进行有监督方式的一轮训练,在每一轮训练完成后,都检测已完成的训练层数是否达到预先设置的训练层数阈值,当检测到训练层数未达到训练层数阈值时,则将训练层数加1,并继续初始化图像分类模型进行模型训练,直至检测到训练层数达到训练层数阈值时,则可结束模型训练过程。
在实际应用中,可根据实际情况对训练层数阈值进行相应调整,但训练层数阈值也不能太大。通常可将训练层数阈值设置为5层或6层,此时,图像分类模型中的各个参数基本已经训练到极佳的状态。
下面对本发明实施例图像分类模型的处理方法的具体实现过程做进一步地详细说明。
图2为本发明实施例提供的图像分类模型的处理方法的另一个可选的实现流程示意图,图像分类模型的处理方法可应用于服务器或终端设备中;如图2所示,本发明实施例中的图像分类模型的处理方法的实现流程,可以包括以下步骤:
步骤201:初始化图像分类模型。
在本实施例中,图像分类模型可以包括滤波器模型以及分类器模型;其中,根据实际情况可以设置滤波器模型的个数,即设置滤波器模型的个数为一个或者多个。也就是说,本实施例中的图像分类模型是一种混合模型,该混合模型具有将一定数量的滤波器模型,以及分类器模型结合起来的模型结构。
需要说明的是,当设置的滤波器模型的个数为多个时,可将多个滤波器模型按照预设的连接顺序进行顺序连接。
这里,初始化图像分类模型,可以理解为初始化图像分类模型中包括的滤波器模型的参数,以及初始化图像分类模型中包括的分类器模型的参数。其中,滤波器模型的参数可以为权值或偏置值,分类器模型的参数可以为用于表征各分类结果出现的概率值等,本发明实施例在此不做具体限定。
本实施例的图像分类模型的处理方法应用的服务器可以是远程服务器或云端服务器,该图像分类模型的处理方法应用的终端设备可以是智能电子设备,作为一种较佳的实施例,智能电子设备可以为智能手机或平板电脑。
步骤202:确定从图像分类模型中顺序选取的滤波器模型的第一待训练网络,以及确定包括顺序选取的滤波器模型和分类器模型的第二待训练网络。
在本发明可选实施例中,本步骤202可以采用如下方式实现:从图像分类模型中顺序选取待训练的目标滤波器模型,且所选取的目标滤波器模型为图像分类模型中的第一个滤波器模型时,
选取目标滤波器模型的输入层和隐含层作为第一待训练网络;
选取目标滤波器模型的输入层、隐含层、以及分类器模型作为第二待训练网络。
在本发明另一可选实施例中,本步骤202可以采用如下方式实现:
从图像分类模型中顺序选取待训练的目标滤波器模型,且所选取的目标滤波器模型不是图像分类模型中的第一个滤波器模型时,
选取目标滤波器模型的输入层、隐含层、以及目标滤波器模型连接的前一个滤波器模型的池化层作为第一待训练网络;
选取目标滤波器模型的输入层、隐含层、与目标滤波器模型连接的前一个滤波器模型的池化层、以及分类器模型作为第二待训练网络。
下面以滤波器模型为构成卷积深度信念网络(CDBN,Convolution Deep BeliefNetwork)的组成元件CRBM为例,以分类器模型为Softmax分类器为例,对第一待训练网络的结构和第二待训练网络的结构分别进行说明。
在对第一待训练网络的结构和第二待训练网络的结构进行说明之前,下面先对CRBM的组成结构进行简单介绍。
图3为本发明实施例提供的CRBM的一个可选的结构示意图,如图3所示,一个CRBM的结构主要包括三部分,按照由数据输入到数据输出的数据流转的方向来看,这三部分分别为输入层V、隐含层H和池化层P。而相关技术中的RBM的结构只包括输入层V和隐含层H,而在隐含层H后面不存在其它层。然而,从图3中可见,CRBM与RBM的不同之处在于,CRBM的隐含层H后面又新添加了一层,即池化层P。另外,CRBM与RBM的不同之处还在于,CRBM在输入层V和隐含层H上对于给定数据的全部位置上的权值是相同的。实际应用中,尽管不规定输入图像具有相同大小或者输入图像必须满足二维结构,但是为了便于计算,假设令输入图像的尺寸大小为Nv×Nv,因此,尺寸大小为Nv×Nv的二进制单元矩阵构成了整个CRBM网络结构中的输入层,其中,Nv表示输入层中输入的图像的宽度和高度。在隐含层上定义了“组”的概念,将尺寸大小为NH×NH的二进制单元矩阵定义为一个组,K个NH×NH组结合在一起构建成隐含层,因此,NH 2K个二进制单元构成了整个CRBM网络结构中的隐含层,这里的NH表示隐含层中输入的图像的宽度和高度,K表示隐含层中定义的组的个数。在隐含层中使用的滤波器个数NW为NW=NV-NH+1,滤波器尺寸大小为NW×NW,其中,一个滤波器与一个组相连接。在K个组中,滤波器的权值在整个隐含层单元中是相等的。对于偏置值而言,在隐含层上,一个组对应一个偏置值bk,而对于输入层来说,整个输入层的偏置值c是共享的。
这里,CRBM的能量函数,可以采用如下公式(1)来表示:
其中,E(v,h)表示输入层与隐含层间的能量值,Wk表示隐含层与输入层单元中的K个卷积滤波的权值,k表示权值的数量,v表示输入层的权值,bk表示在隐含层节点中共享的隐含层的偏置值,hk i,j表示隐含层中第k层的单元。
利用吉布斯采样的核心算法,当输入层的状态已知时,可以基于输入层的状态利用如下公式(2)所示的条件概率,求出隐含层状态为1时的概率:
p(hk ij=1|v)=σ((Wk*v)ij+bk) (2)
其中,p(hk ij=1|v)表示在输入层状态已知情况下隐含层状态为1时的条件概率,Wk表示隐含层与输入层单元中的K个卷积滤波的权值,k表示权值的数量,v表示输入层的权值,bk表示在隐含层节点中共享的隐含层的偏置值。
利用重构方式,当隐含层的状态已知时,可以基于隐含层的状态利用如下公式(3)所示的条件概率,求出输入层状态为1时的概率:
其中,p(vij=1|h)表示在隐含层状态已知情况下输入层状态为1时的条件概率,Wk表示隐含层与输入层单元中的K个卷积滤波的权值,k表示权值的数量,c表示在输入层节点中共享的输入层的偏置值。
通过上述内容可得,CRBM模型中主要包括三个参数:1)隐含层与输入层单元中的K个卷积滤波的权值Wk,权值数量为k=1,.....K,其中,一个滤波器可以覆盖Nw×Nw个图像像素;2)在输入层节点中共享的输入层的偏置值c;3)在隐含层节点中共享的隐含层的偏置值bk
由于自然图像拥有特定不变的属性,在自然图像中某个位置的特征属性与其余位置的特征属性是完全相同的;也就是说,如果对图像的某个部分或位置的特征属性进行了统计,那么,该特征属性同样适用于此图像的其他位置,因此,能够通过完全一样的特征属性学习整个图像的任何位置。假设有一个尺寸大小为32×32的自然图像,从这个图像中任意截取大小为7×7的部分图像作为样本数据,对这块7×7的样本数据进行特征学习之后获取的特征就可以用于对整个图像进行特征学习。从这个大小为7×7的数据块中获取的特征属性,与原始的大小为32×32的自然图像进行卷积操作,从而可以从整个图像的所有位置获取不同特征的激活值。
假设有一个尺寸大小为r×c的图像,并且有k个尺寸为a×b(a≤r,b≤c)的卷积核,分别用这些卷积核以及此图像进行卷积操作,则获取k×(r-a+1)×(c-b+1)个特征矩阵,其中,图像以及卷积核之间相应元素的乘积相加之和得到的值,即是卷积操作之后得到的特征矩阵的各个元素的值。如果训练分类器使用的特征是经过卷积操作之后获取的特征,那么计算量无疑会非常大,并且有可能发生过拟合的情况,这在实际上是不可行的。
为解决上述问题,在CRBM的结构中引入了池化的概念,池化是将图像中所有部分的特征聚集起来,利用池化的这种特性,将卷积之后得到的特征进行分割,分割成若干个尺寸为m×n的小部分,并求出这些分割出来的小部分的最大值或者平均值,即得到了经过池化操作之后的特征。将使用池化操作之后的特征作为训练分类器使用的特征。如果将图像中的池化区域设定为图像中连续的一个区域,而且在池化不变或是相同的隐含层单元提取的特征,那么池化单元是平移不变的,即使图像做了小的平移操作,获取的池化特征仍旧是一样的,不会发生改变。
本发明实施例引入池化这个操作,不仅可以避免因使用得到的所有特征而极大降低数据的维度,大大减少数据运算量,还可以避免出现模型过拟合的现象,达到模型的良好的分类性能。
基于上述对CRBM的结构描述,下面结合附图对第一待训练网络的结构和第二待训练网络的结构进行详细说明。
在实际应用中,本实施例中的图像分类模型包括一个或多个CRBM,当图像分类模型包括多个CRBM时,要对每个CRBM分别进行训练,且训练的顺序为:首先对首个CRBM进行有监督以及无监督方式的训练,将首个CRBM中的各个参数进行改进并输出对应的图像特征,然后,将输出的对应的图像特征作为第二个CRBM的输入,以此类推,对于每个CRBM,都利用有监督以及无监督方式轮流进行训练,以使得图像分类模型中的每个CRBM都训练到极佳的状态,参数达到最好的效果。
举例来说,从图像分类模型中顺序选取CRBM进行训练,当从图像分类模型中顺序选取的CRBM为第一个CRBM时,如图4A所示,本发明实施例提供的第一待训练网络的结构组成为所选取的CRBM的输入层和隐含层;如图4B所示,本发明实施例提供的第二待训练网络的结构组成为所选取的CRBM的输入层、隐含层、以及Softmax分类器模型。当从图像分类模型中顺序选取的CRBM不是第一个CRBM时(例如第二个,当然适用于第三个以及后续的CRBM),如图5A所示,本发明实施例提供的第一待训练网络的结构组成为所选取的CRBM的输入层、隐含层、以及与所选取的CRBM连接的前一个CRBM的池化层;如图5B所示,本发明实施例提供的第二待训练网络的结构组成为所选取的CRBM的输入层、隐含层、与所选取的CRBM连接的前一个CRBM的池化层、以及Softmax分类器模型。
步骤203:根据获取的未具有标记的图像样本,对第一待训练网络进行无监督方式的训练,以更新第一待训练网络中滤波器模型的参数。
本实施例中的无监督方式的训练也可称为无监督学习(Unsupervised Learning)方式的训练,通常是目标类别标签等使用的一种网络训练方式,该训练方式所利用的信息并不是已知的、特定的,也即该训练方式针对的图像样本是未具有标记的图像样本。这里,无监督学习方式常有以下两种方法:一种是基于概率密度函数估计的直接方法,另一种是间接的聚类方法,即是一种利用图像样本数据之间的相似性进行度量的方法。作为一种较佳的实施例,无监督学习方式采用的是间接的聚类方法。
在本实施例中,本步骤203具体包括:先初始化第一待训练网络包括的滤波器模型的参数;然后,根据未具有标记的图像样本的特征之间距离,对图像样本的特征进行聚类,以获得对第一待训练网络包括的滤波器模型的更新的参数。
这里,可采用各种已有的或新的距离计算方法,计算未具有标记的图像样本的特征之间的距离,这里不做具体限定;其中,图像样本的特征之间的距离可以用欧式距离来表示,也可以用余弦距离来表示,本发明实施例在此不做限定。
需要说明的是,之所以计算图像样本的特征之间的距离,是因为任意两个图像样本的特征之间的距离,可以表示两个图像样本的特征之间的相似度,即两个图像样本的特征之间的相似性。这里的聚类,可以理解为对图像样本的特征之间的相似度进行度量,将相似度最接近的图像样本特征聚为一类。
步骤204:基于第二待训练网络从图像样本中提取图像特征,基于所提取的图像特征及相应图像样本的标记,对第二待训练网络中的分类器模型进行有监督方式的训练。
本实施例中的有监督方式的训练也可称为有监督学习(Supervised Learning)方式的训练,是一种利用已经标记好的数据对分类器模型中的各个参数进行不断修改,以使得网络达到效果最优的学习方式,通常将有监督学习方式应用于神经网络和支持向量机的训练过程。具体来说,有监督学习是利用已经标记好的样本进行训练学习,且这些学习样本的类别均是已经分类好的样本。
这里,将无监督学习以及有监督学习混合使用即组成了半监督学习方式,半监督学习方式的特点是可以通过较少的已标记的数据以及很多没有进行标记的数据达到训练网络以及对图像进行识别的目的。
在本实施例中,对于本步骤204中的基于所提取的图像特征及相应图像样本的标记,对第二待训练网络中的分类器模型进行有监督方式的训练来说,具体可以采用如下方式来实现:构建以分类器模型的参数、所提取的图像特征及相应图像样本的标记为因子的代价函数;确定代价函数满足收敛条件时分类器模型的参数的更新值。
本实施例中的分类器模型可以为Softmax分类器模型,其中,Softmax分类器可以采用Softmax回归算法来表示,用于计算图像样本属于多个分类中每个分类的概率,下面对Softmax回归算法的表达式进行简单说明。Softmax回归是一种基本形式的逻辑回归,是针对多类分类问题的一种逻辑回归。Softmax回归能够解决的问题是避免不同类别数据处于彼此排斥的状态。假设有一个训练集{(x(1),y(1)),...,(x(m),y(m))},其中,y(i)∈{1,2,...k},x表示原始输入图像样本,y表示输出结果,利用一个包含k维向量p(y=i|x)对所有分类结果出现的概率进行表示,设定的表达式y=hθ(x)如公式(4)所示:
在上述表达式(4)中,分类器模型的各个参数分别使用θ12,...,θk来表示,全部的概率相加结果为1。通过上述公式(4)可知,从CRBM的池化层输出了k维的特征,将k维的特征输入至Softmax分类器(将k维的特征转换为k个分类对应的概率),且k个分类对应的概率服从高斯分布。
基于分类器模型的参数,结合所提取的图像特征及相应图像样本的标记的规则项后,得到的代价函数表达式为:
对第j个类别的第1个参数求偏导,得到的偏导数为:
对J(θ)进行最小化的处理之后,就可以达到Softmax的分类回归的目标,即通过对代价函数中的参数求偏导的方式,确定代价函数满足收敛条件时分类器模型的参数的更新值。
步骤205:基于训练后的分类器模型输出结果的误差,更新第二待训练网络中滤波器模型的参数。
在本实施例中,本步骤205可以采用如下方式来实现:根据训练后的分类器模型输出结果的误差,对第一待训练网络中滤波器模型的参数进行调整,以调整至满足收敛条件,以获得第二待训练网络中的滤波器模型的更新参数。
这里,由于在深度学习过程中,训练神经网络时将训练数据输入到第一待训练网络中滤波器模型如CRBM的输入层,经过隐含层,最后到达池化层并输出结果,此时,图像样本的预期值与输出结果之间有可能形成误差,则计算估计值与实际值之间的误差,因此,采用反向传播算法,将误差从池化层向隐含层反向传播,直至传播到输入层,在反向传播的过程中,根据训练后的分类器模型输出结果的误差,不断调整第一待训练网络中滤波器模型的参数,并不断迭代上述过程,直至满足收敛条件,以获得第二待训练网络中的滤波器模型的更新参数。其中,滤波器模型的各个参数的初始值大小是随机的。
步骤206:将图像样本数据输入经由更新后的第一待训练网络中滤波器模型的参数,和更新后的第二待训练网络中滤波器模型的参数确定的图像分类模型。
本实施例中,图像分类模型是一种混合模型,该混合模型具有将一定数量的滤波器模型,以及分类器模型结合起来的模型结构。根据实际情况可以设置滤波器模型的个数,即将滤波器模型的个数设置为一个或者多个。当滤波器模型的个数为多个时,可将多个滤波器模型按照预设的连接顺序进行顺序连接。
图像分类模型中的滤波器模型如CRBM,与相关技术中的RBM之间的差异主要在于CRBM在一副图像中,此图像全部区域内的隐含层以及输入层中的权值这个参数是共享的;此外,CRBM中还包括池化层。如图3所示的CRBM的网络结构,其中池化层可用P来表示,在CRBM模型中,有一层称为检测层,即隐含层,该隐含层是经过卷积操作之后获取的,隐含层以及池化层具有相同组数的单元数量,设为K个组,在池化层中,K个组中的每个组都包括NP×NP个单元,其中k∈{1,...,K},选取一个较小的整数值,比如2或3,利用C对这个整数值进行表示,池化层P利用C对隐含层的表示进行压缩,将隐含层H分成了大小为C×C的块,从每个块中提取一个P层的二进制单元pk,因此,NP=NH/C。
输入层V从底部向上传递的信号会被隐含层接受,V的相关表达式如下所示:
在上述表达式中,使用来对隐含层中第k层的单元数量进行表示,使用Wk来对第k个卷积核进行表示,使用bk来对隐含层中第k层的偏置值进行表示。
将图像数据输入到输入层并被隐含层接受后,紧接着,对每个小块分别进行取样,将其作为输入的多项式,每个小块中包含隐含层单元,利用来对隐含层单元进行表示,开启单元之后增加的能量用来表示,则隐含层以及池化层的条件概率可如下表示:
如果已知隐含层,那么输入层能够利用表达式(10)来求取。而上述表达式(8)和(9)则在给出了输入层的状态的情况下,如何求取隐含层以及池化层的条件概率。由于池化层中不包括自由参数,因此在训练CRBM的过程中,利用反向传播算法将隐含层传播给输入层。将数个CRBM结合在一起之后,在CRBM结构的顶端部分引入概率最大池化操作,也就是将图像分成几个相互独立的部分之后,选择此部分中最大的概率值来使用。
考虑到模型训练的时长以及训练效果,实际应用中不可能无限制的重复训练图像分类模型,因此,通常设置第一待训练网络和第二待训练网络训练层数的相应阈值,即设置第一待训练网络的训练层数阈值和第二待训练网络的训练层数阈值,且第一待训练网络的训练层数与第二待训练网络的训练层数相同。也就是说,在对第一待训练网络进行无监督方式的一轮训练完成后,接着对第二待训练网络进行有监督方式的一轮训练,在每一轮训练完成后,都检测已完成的训练层数是否达到预先设置的训练层数阈值,当检测到训练层数未达到训练层数阈值时,则将训练层数加1,并继续初始化图像分类模型进行模型训练,直至检测到训练层数达到训练层数阈值时,则可结束模型训练过程。
在实际应用中,可根据实际情况对训练层数阈值进行相应调整,但训练层数阈值也不能太大。通常可将训练层数阈值设置为5层或6层,此时,图像分类模型中的各个参数基本已经训练到极佳的状态。
步骤207:获取图像分类模型输出的各概率值;其中,各概率值分别表示图像样本数据中的各数据所属类别的概率大小;根据各概率值,选取符合概率条件的类别,根据所选取的类别识别图像样本数据。
这里,可将待识别的图像样本数据输入图像分类模型,对待识别的图像样本数据中各数据的向量表示进行变换,将变换后的结果作为图像样本数据所属类别的概率进行输出,以获得待识别的图像样本数据中的各数据分别所属类别的各概率值。具体来说,基于图像分类模型中不同节点的激励函数,对输入的图像样本数据的向量表示进行变换,将变换的结果作为类别的向量表示及其对应的概率。本实施例中符合概率条件的类别可为概率最高的作为待识别的图像样本数据的类别。也就是说,从图像分类模型输出的各概率值中选取概率最高值对应的类别,作为最终识别出的图像类别。
需要说明的是,这里所说的图像分类模型,是由更新后的第一待训练网络中滤波器模型的参数,和更新后的第二待训练网络中滤波器模型的参数确定的图像分类模型,且该图像分类模型中的参数已经过上述步骤201至步骤206的执行过程进行了不断修改和完善,达到了最佳的训练效果。
采用本发明实施例的技术方案,通过将无监督学***稳状态,减少模型训练学习的时间;同时,本发明实施例采用上述构建的图像分类模型对待识别的图像数据进行图像识别,可以避免出现因反向传播算法带来的梯度弥散的问题,大大提高图像识别的准确率。
为了实现上述图像分类模型的处理方法,本发明实施例还提供了一种图像分类模型的处理装置,该图像分类模型的处理装置应用于服务器或终端设备中,图6为本发明实施例提供的图像分类模型的处理装置的一个可选的功能结构示意图;如图6所示,该图像分类模型的处理装置包括初始化模块61、确定模块62、第一训练模块63、提取模块64、第二训练模块65和更新模块66。下面对各程序模块进行详细说明。
初始化模块61,用于初始化图像分类模型;
确定模块62,用于确定从图像分类模型中顺序选取的滤波器模型的第一待训练网络,以及确定包括顺序选取的滤波器模型和分类器模型的第二待训练网络;
第一训练模块63,用于根据获取的未具有标记的图像样本,对第一待训练网络进行无监督方式的训练,以更新第一待训练网络中滤波器模型的参数;
提取模块64,用于基于第二待训练网络从图像样本中提取图像特征;
第二训练模块65,用于基于所提取的图像特征及相应图像样本的标记,对第二待训练网络中的分类器模型进行有监督方式的训练;
更新模块66,用于基于训练后的分类器模型输出结果的误差,更新第二待训练网络中滤波器模型的参数。
在本发明可选实施例中,对于确定模块62确定从图像分类模型中顺序选取的滤波器模型的第一待训练网络,以及确定包括顺序选取的滤波器模型和分类器模型的第二待训练网络来说,可以采用如下方式来实现:
当从图像分类模型中顺序选取待训练的目标滤波器模型,且所选取的目标滤波器模型为图像分类模型中的第一个滤波器模型时,可选取目标滤波器模型的输入层和隐含层作为第一待训练网络,选取目标滤波器模型的输入层、隐含层、以及分类器模型作为第二待训练网络。
在本发明另一可选实施例中,对于确定模块62确定从图像分类模型中顺序选取的滤波器模型的第一待训练网络,以及确定包括顺序选取的滤波器模型和分类器模型的第二待训练网络来说,可以采用如下方式来实现:
当从图像分类模型中顺序选取待训练的目标滤波器模型,且所选取的目标滤波器模型不是图像分类模型中的第一个滤波器模型时,可选取目标滤波器模型的输入层、隐含层、以及目标滤波器模型连接的前一个滤波器模型的池化层作为第一待训练网络,选取目标滤波器模型的输入层、隐含层、与目标滤波器模型连接的前一个滤波器模型的池化层、以及分类器模型作为第二待训练网络。
在本实施例中,对于第一训练模块63根据获取的未具有标记的图像样本,对第一待训练网络进行无监督方式的训练,以更新第一待训练网络中滤波器模型的参数来说,可以采用如下方式来实现:
首先,初始化第一待训练网络包括的滤波器模型的参数;然后,根据未具有标记的图像样本的特征之间距离,对图像样本的特征进行聚类,以获得对第一待训练网络包括的滤波器模型的更新的参数。
在本实施例中,对于第二训练模块65基于所提取的图像特征及相应图像样本的标记,对第二待训练网络中的分类器模型进行有监督方式的训练来说,可以采用如下方式来实现:
首先,构建以分类器模型的参数、所提取的图像特征及相应图像样本的标记为因子的代价函数;然后,确定代价函数满足收敛条件时分类器模型的参数的更新值。
对于更新模块66基于训练后的分类器模型输出结果的误差,更新第二待训练网络中滤波器模型的参数来说,可以采用如下方式来实现:
根据训练后的分类器模型输出结果的误差,对第一待训练网络中滤波器模型的参数进行调整,以调整至满足收敛条件,获得第二待训练网络中的滤波器模型的更新参数。
图7为本发明实施例提供的图像分类模型的处理装置的另一个可选的功能结构示意图;如图7所示,该图像分类模型的处理装置还包括:输入模块67,用于在更新模块66更新第二待训练网络中滤波器模型的参数之后,将图像样本数据输入经由更新后的第一待训练网络中滤波器模型的参数,和更新后的第二待训练网络中滤波器模型的参数确定的图像分类模型;
获取模块68,用于获取图像分类模型输出的各概率值;其中,各概率值分别表示图像样本数据中的各数据所属类别的概率大小;
选取模块69,用于根据各概率值,选取符合概率条件的类别;
识别模块610,用于根据所选取的类别识别图像样本数据。
需要说明的是:上述实施例提供的图像分类模型的处理装置在对图像分类模型进行处理时,仅以上述各程序模块的划分进行举例说明,实际应用中,可以根据需要而将上述处理分配由不同的程序模块完成,即将图像分类模型的处理装置的内部结构划分成不同的程序模块,以完成以上描述的全部或者部分处理。另外,上述实施例提供的图像分类模型的处理装置与图像分类模型的处理方法实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
在实际应用中,上述程序模块中的初始化模块61、确定模块62、第一训练模块63、提取模块64、第二训练模块65、更新模块66、输入模块67、选取模块69和识别模块610均可由位于服务器或终端设备上的中央处理器(CPU,Central Processing Unit)、微处理器(MPU,Micro Processor Unit)、数字信号处理器(DSP,Digital Signal Processor)或现场可编程门阵列(FPGA,Field Programmable Gate Array)等实现;上述程序模块中的获取模块68在实际应用中可通过通信模组(包含:基础通信套件、操作***、通信模块、标准化接口和协议等)及收发天线实现。
为了实现上述图像分类模型的处理方法,本发明实施例还提供了一种图像分类模型的处理装置的硬件结构。现在将参考附图描述实现本发明实施例的图像分类模型的处理装置,该图像分类模型的处理装置可以以各种形式来实施,例如服务器如云服务器,终端设备如台式机电脑、笔记本电脑、智能手机等计算机设备。下面对本发明实施例的图像分类模型的处理装置的硬件结构做进一步说明,可以理解,图8仅仅示出了图像分类模型的处理装置的示例性结构而非全部结构,根据需要可以实施图8示出的部分结构或全部结构。
参见图8,图8为本发明实施例提供的图像分类模型的处理装置的一个可选的硬件结构示意图,实际应用中可以应用于前述运行应用程序的各种服务器或终端设备中,图8所示的图像分类模型的处理装置800包括:至少一个处理器801、存储器802、用户接口803和至少一个网络接口804。该图像分类模型的处理装置800中的各个组件通过总线***805耦合在一起。可以理解,总线***805用于实现这些组件之间的连接通信。总线***805除包括数据总线之外,还包括电源总线、控制总线和状态信号总线。但是为了清楚说明起见,在图8中将各种总线都标为总线***805。
其中,用户接口803可以包括显示器、键盘、鼠标、轨迹球、点击轮、按键、按钮、触感板或者触摸屏等。
可以理解,存储器802可以是易失性存储器或非易失性存储器,也可包括易失性和非易失性存储器两者。
本发明实施例中的存储器802用于存储各种类型的数据以支持图像分类模型的处理装置800的操作。这些数据的示例包括:用于在图像分类模型的处理装置800上操作的任何计算机程序,如可执行程序8021和操作***8022,实现本发明实施例的图像分类模型的处理方法的程序可以包含在可执行程序8021中。
本发明实施例揭示的图像分类模型的处理方法可以应用于处理器801中,或者由处理器801实现。处理器801可能是一种集成电路芯片,具有信号的处理能力。在实现过程中,上述图像分类模型的处理方法的各步骤可以通过处理器801中的硬件的集成逻辑电路或者软件形式的指令完成。上述的处理器801可以是通用处理器、DSP,或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。处理器801可以实现或者执行本发明实施例中提供的各图像分类模型的处理方法、步骤及逻辑框图。通用处理器可以是微处理器或者任何常规的处理器等。结合本发明实施例所提供的图像分类模型的处理方法的步骤,可以直接体现为硬件译码处理器执行完成,或者用译码处理器中的硬件及软件模块组合执行完成。软件模块可以位于存储介质中,该存储介质位于存储器802,处理器801读取存储器802中的信息,结合其硬件完成本发明实施例提供的图像分类模型的处理方法的步骤。
在本发明实施例中,图像分类模型的处理装置800包括存储器802、处理器801及存储在存储器802上并能够由处理器801运行的可执行程序8021,处理器801运行可执行程序8021时实现:初始化图像分类模型;确定从图像分类模型中顺序选取的滤波器模型的第一待训练网络,以及确定包括顺序选取的滤波器模型和分类器模型的第二待训练网络;根据获取的未具有标记的图像样本,对第一待训练网络进行无监督方式的训练,以更新第一待训练网络中滤波器模型的参数;基于第二待训练网络从图像样本中提取图像特征;基于所提取的图像特征及相应图像样本的标记,对第二待训练网络中的分类器模型进行有监督方式的训练;基于训练后的分类器模型输出结果的误差,更新第二待训练网络中滤波器模型的参数。
作为一种实施方式,处理器801运行可执行程序8021时实现:从图像分类模型中顺序选取待训练的目标滤波器模型,且所选取的目标滤波器模型为图像分类模型中的第一个滤波器模型时,选取目标滤波器模型的输入层和隐含层作为第一待训练网络;选取目标滤波器模型的输入层、隐含层、以及分类器模型作为第二待训练网络。
作为一种实施方式,处理器801运行可执行程序8021时实现:从图像分类模型中顺序选取待训练的目标滤波器模型,且所选取的目标滤波器模型不是图像分类模型中的第一个滤波器模型时,选取目标滤波器模型的输入层、隐含层、以及目标滤波器模型连接的前一个滤波器模型的池化层作为第一待训练网络;选取目标滤波器模型的输入层、隐含层、与目标滤波器模型连接的前一个滤波器模型的池化层、以及分类器模型作为第二待训练网络。
作为一种实施方式,处理器801运行可执行程序8021时实现:初始化第一待训练网络包括的滤波器模型的参数;根据未具有标记的图像样本的特征之间距离,对图像样本的特征进行聚类,以获得对第一待训练网络包括的滤波器模型的更新的参数。
作为一种实施方式,处理器801运行可执行程序8021时实现:构建以分类器模型的参数、所提取的图像特征及相应图像样本的标记为因子的代价函数;确定代价函数满足收敛条件时分类器模型的参数的更新值。
作为一种实施方式,处理器801运行可执行程序8021时实现:根据训练后的分类器模型输出结果的误差,对第一待训练网络中滤波器模型的参数进行调整,以调整至满足收敛条件,以获得第二待训练网络中的滤波器模型的更新参数。
作为一种实施方式,处理器801运行可执行程序8021时实现:在更新第二待训练网络中滤波器模型的参数之后,将图像样本数据输入经由更新后的第一待训练网络中滤波器模型的参数,和更新后的第二待训练网络中滤波器模型的参数确定的图像分类模型;获取图像分类模型输出的各概率值;其中,各概率值分别表示图像样本数据中的各数据所属类别的概率大小;根据各概率值,选取符合概率条件的类别,根据所选取的类别识别图像样本数据。
在示例性实施例中,本发明实施例还提供了一种存储介质,该存储介质可为光盘、闪存或磁盘等存储介质,可选为非瞬间存储介质。
本发明实施例提供的存储介质上存储有可执行程序8021,可执行程序8021被处理器801执行时实现:初始化图像分类模型;确定从图像分类模型中顺序选取的滤波器模型的第一待训练网络,以及确定包括顺序选取的滤波器模型和分类器模型的第二待训练网络;根据获取的未具有标记的图像样本,对第一待训练网络进行无监督方式的训练,以更新第一待训练网络中滤波器模型的参数;基于第二待训练网络从图像样本中提取图像特征;基于所提取的图像特征及相应图像样本的标记,对第二待训练网络中的分类器模型进行有监督方式的训练;基于训练后的分类器模型输出结果的误差,更新第二待训练网络中滤波器模型的参数。
作为一种实施方式,可执行程序8021被处理器801执行时实现:从图像分类模型中顺序选取待训练的目标滤波器模型,且所选取的目标滤波器模型为图像分类模型中的第一个滤波器模型时,选取目标滤波器模型的输入层和隐含层作为第一待训练网络;选取目标滤波器模型的输入层、隐含层、以及分类器模型作为第二待训练网络。
作为一种实施方式,可执行程序8021被处理器801执行时实现:从图像分类模型中顺序选取待训练的目标滤波器模型,且所选取的目标滤波器模型不是图像分类模型中的第一个滤波器模型时,选取目标滤波器模型的输入层、隐含层、以及目标滤波器模型连接的前一个滤波器模型的池化层作为第一待训练网络;选取目标滤波器模型的输入层、隐含层、与目标滤波器模型连接的前一个滤波器模型的池化层、以及分类器模型作为第二待训练网络。
作为一种实施方式,可执行程序8021被处理器801执行时实现:初始化第一待训练网络包括的滤波器模型的参数;根据未具有标记的图像样本的特征之间距离,对图像样本的特征进行聚类,以获得对第一待训练网络包括的滤波器模型的更新的参数。
作为一种实施方式,可执行程序8021被处理器801执行时实现:构建以分类器模型的参数、所提取的图像特征及相应图像样本的标记为因子的代价函数;确定代价函数满足收敛条件时分类器模型的参数的更新值。
作为一种实施方式,可执行程序8021被处理器801执行时实现:根据训练后的分类器模型输出结果的误差,对第一待训练网络中滤波器模型的参数进行调整,以调整至满足收敛条件,以获得第二待训练网络中的滤波器模型的更新参数。
作为一种实施方式,可执行程序8021被处理器801执行时实现:在更新第二待训练网络中滤波器模型的参数之后,将图像样本数据输入经由更新后的第一待训练网络中滤波器模型的参数,和更新后的第二待训练网络中滤波器模型的参数确定的图像分类模型;获取图像分类模型输出的各概率值;其中,各概率值分别表示图像样本数据中的各数据所属类别的概率大小;根据各概率值,选取符合概率条件的类别,根据所选取的类别识别图像样本数据。
采用本发明实施例的技术方案,通过从图像分类模型中确定第一待训练网络和第二待训练网络,根据未具有标记的图像样本,对第一待训练网络进行无监督方式训练,以更新第一待训练网络中滤波器模型的参数;基于提取的图像特征及相应图像样本的标记,对第二待训练网络进行有监督方式训练,以更新第二待训练网络中滤波器模型的参数。如此,将无监督学***稳状态,减少模型训练学习的时间;同时,本发明实施例采用上述构建的图像分类模型对待识别的图像数据进行图像识别,可以避免出现因反向传播算法带来的梯度弥散的问题,大大提高图像识别的准确率,提升用户使用体验。
本领域内的技术人员应明白,本发明的实施例可提供为方法、***、或可执行程序产品。因此,本发明可采用硬件实施例、软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器和光学存储器等)上实施的可执行程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(***)、和可执行程序产品的流程图和/或方框图来描述的。应理解可由可执行程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些可执行程序指令到通用计算机、专用计算机、嵌入式处理机或参考可编程数据处理设备的处理器以产生一个机器,使得通过计算机或参考可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些可执行程序指令也可存储在能引导计算机或参考可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些可执行程序指令也可装载到计算机或参考可编程数据处理设备上,使得在计算机或参考可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或参考可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
以上所述,仅为本发明的较佳实施例而已,并非用于限定本发明的保护范围,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。

Claims (14)

1.一种图像分类模型的处理方法,其特征在于,所述方法包括:
初始化图像分类模型;
确定从所述图像分类模型中顺序选取的滤波器模型的第一待训练网络,以及确定包括所述顺序选取的滤波器模型和分类器模型的第二待训练网络;
根据获取的未具有标记的图像样本,对所述第一待训练网络进行无监督方式的训练,以更新所述第一待训练网络中滤波器模型的参数;
基于所述第二待训练网络从所述图像样本中提取图像特征;
基于所提取的图像特征及相应图像样本的标记,对所述第二待训练网络中的分类器模型进行有监督方式的训练;
基于训练后的分类器模型输出结果的误差,更新所述第二待训练网络中滤波器模型的参数。
2.根据权利要求1所述的图像分类模型的处理方法,其特征在于,所述确定从所述图像分类模型中顺序选取的滤波器模型的第一待训练网络,以及确定包括所述顺序选取的滤波器模型和分类器模型的第二待训练网络,包括:
从所述图像分类模型中顺序选取待训练的目标滤波器模型,且所选取的目标滤波器模型为所述图像分类模型中的第一个滤波器模型时,
选取所述目标滤波器模型的输入层和隐含层作为所述第一待训练网络;
选取所述目标滤波器模型的输入层、隐含层、以及所述分类器模型作为所述第二待训练网络。
3.根据权利要求1所述的图像分类模型的处理方法,其特征在于,所述确定从所述图像分类模型中顺序选取的滤波器模型的第一待训练网络,以及确定包括所述顺序选取的滤波器模型和分类器模型的第二待训练网络,包括:
从所述图像分类模型中顺序选取待训练的目标滤波器模型,且所选取的目标滤波器模型不是所述图像分类模型中的第一个滤波器模型时,
选取所述目标滤波器模型的输入层、隐含层、以及所述目标滤波器模型连接的前一个滤波器模型的池化层作为所述第一待训练网络;
选取所述目标滤波器模型的输入层、隐含层、与所述目标滤波器模型连接的前一个滤波器模型的池化层、以及所述分类器模型作为所述第二待训练网络。
4.根据权利要求1所述的图像分类模型的处理方法,其特征在于,所述根据获取的未具有标记的图像样本,对所述第一待训练网络进行无监督方式的训练,以更新所述第一待训练网络中滤波器模型的参数,包括:
初始化所述第一待训练网络包括的滤波器模型的参数;
根据所述未具有标记的图像样本的特征之间距离,对图像样本的特征进行聚类,以获得对所述第一待训练网络包括的滤波器模型的更新的参数。
5.根据权利要求1所述的图像分类模型的处理方法,其特征在于,所述基于所提取的图像特征及相应图像样本的标记,对所述第二待训练网络中的分类器模型进行有监督方式的训练,包括:
构建以所述分类器模型的参数、所提取的图像特征及相应图像样本的标记为因子的代价函数;
确定所述代价函数满足收敛条件时所述分类器模型的参数的更新值;
所述基于训练后的分类器模型输出结果的误差,更新所述第二待训练网络中滤波器模型的参数,包括:
根据训练后的分类器模型输出结果的误差,对所述第一待训练网络中滤波器模型的参数进行调整,以调整至满足收敛条件,以获得所述第二待训练网络中的滤波器模型的更新参数。
6.根据权利要求1所述的图像分类模型的处理方法,其特征在于,在所述更新所述第二待训练网络中滤波器模型的参数之后,所述方法还包括:
将图像样本数据输入经由更新后的所述第一待训练网络中滤波器模型的参数,和更新后的所述第二待训练网络中滤波器模型的参数确定的图像分类模型;
获取所述图像分类模型输出的各概率值;其中,所述各概率值分别表示所述图像样本数据中的各数据所属类别的概率大小;
根据所述各概率值,选取符合概率条件的类别,根据所选取的类别识别所述图像样本数据。
7.一种图像分类模型的处理装置,其特征在于,所述装置包括:初始化模块、确定模块、第一训练模块、提取模块、第二训练模块和更新模块;其中,
所述初始化模块,用于初始化图像分类模型;
所述确定模块,用于确定从所述图像分类模型中顺序选取的滤波器模型的第一待训练网络,以及确定包括所述顺序选取的滤波器模型和分类器模型的第二待训练网络;
所述第一训练模块,用于根据获取的未具有标记的图像样本,对所述第一待训练网络进行无监督方式的训练,以更新所述第一待训练网络中滤波器模型的参数;
所述提取模块,用于基于所述第二待训练网络从所述图像样本中提取图像特征;
所述第二训练模块,用于基于所提取的图像特征及相应图像样本的标记,对所述第二待训练网络中的分类器模型进行有监督方式的训练;
所述更新模块,用于基于训练后的分类器模型输出结果的误差,更新所述第二待训练网络中滤波器模型的参数。
8.根据权利要求7所述的图像分类模型的处理装置,其特征在于,所述确定模块,具体用于:
从所述图像分类模型中顺序选取待训练的目标滤波器模型,且所选取的目标滤波器模型为所述图像分类模型中的第一个滤波器模型时,
选取所述目标滤波器模型的输入层和隐含层作为所述第一待训练网络;
选取所述目标滤波器模型的输入层、隐含层、以及所述分类器模型作为所述第二待训练网络。
9.根据权利要求7所述的图像分类模型的处理装置,其特征在于,所述确定模块,具体用于:
从所述图像分类模型中顺序选取待训练的目标滤波器模型,且所选取的目标滤波器模型不是所述图像分类模型中的第一个滤波器模型时,
选取所述目标滤波器模型的输入层、隐含层、以及所述目标滤波器模型连接的前一个滤波器模型的池化层作为所述第一待训练网络;
选取所述目标滤波器模型的输入层、隐含层、与所述目标滤波器模型连接的前一个滤波器模型的池化层、以及所述分类器模型作为所述第二待训练网络。
10.根据权利要求7所述的图像分类模型的处理装置,其特征在于,所述第一训练模块,具体用于:
初始化所述第一待训练网络包括的滤波器模型的参数;
根据所述未具有标记的图像样本的特征之间距离,对图像样本的特征进行聚类,以获得对所述第一待训练网络包括的滤波器模型的更新的参数。
11.根据权利要求7所述的图像分类模型的处理装置,其特征在于,所述第二训练模块,具体用于:
构建以所述分类器模型的参数、所提取的图像特征及相应图像样本的标记为因子的代价函数;
确定所述代价函数满足收敛条件时所述分类器模型的参数的更新值;
所述更新模块,具体用于:
根据训练后的分类器模型输出结果的误差,对所述第一待训练网络中滤波器模型的参数进行调整,以调整至满足收敛条件,以获得所述第二待训练网络中的滤波器模型的更新参数。
12.根据权利要求7所述的图像分类模型的处理装置,其特征在于,所述装置还包括:输入模块,用于在所述更新模块更新所述第二待训练网络中滤波器模型的参数之后,将图像样本数据输入经由更新后的所述第一待训练网络中滤波器模型的参数,和更新后的所述第二待训练网络中滤波器模型的参数确定的图像分类模型;
获取模块,用于获取所述图像分类模型输出的各概率值;其中,所述各概率值分别表示所述图像样本数据中的各数据所属类别的概率大小;
选取模块,用于根据所述各概率值,选取符合概率条件的类别;
识别模块,用于根据所选取的类别识别所述图像样本数据。
13.一种存储介质,其上存储有可执行程序,其特征在于,所述可执行程序被处理器执行时实现如权利要求1至6任一项所述的图像分类模型的处理方法的步骤。
14.一种图像分类模型的处理装置,包括存储器、处理器及存储在存储器上并能够由所述处理器运行的可执行程序,其特征在于,所述处理器运行所述可执行程序时执行如权利要求1至6任一项所述的图像分类模型的处理方法的步骤。
CN201810087876.2A 2018-01-30 2018-01-30 一种图像分类模型的处理方法、装置及存储介质 Pending CN108197666A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810087876.2A CN108197666A (zh) 2018-01-30 2018-01-30 一种图像分类模型的处理方法、装置及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810087876.2A CN108197666A (zh) 2018-01-30 2018-01-30 一种图像分类模型的处理方法、装置及存储介质

Publications (1)

Publication Number Publication Date
CN108197666A true CN108197666A (zh) 2018-06-22

Family

ID=62591772

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810087876.2A Pending CN108197666A (zh) 2018-01-30 2018-01-30 一种图像分类模型的处理方法、装置及存储介质

Country Status (1)

Country Link
CN (1) CN108197666A (zh)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109934281A (zh) * 2019-03-08 2019-06-25 电子科技大学 一种二分类网络的非监督训练方法
CN110276283A (zh) * 2019-06-10 2019-09-24 腾讯科技(深圳)有限公司 图片识别方法、目标识别模型训练方法及装置
CN110399918A (zh) * 2019-07-24 2019-11-01 深兰科技(上海)有限公司 一种目标识别的方法及设备
CN110909820A (zh) * 2019-12-02 2020-03-24 齐鲁工业大学 基于自监督学习的图像分类方法及***
CN111476282A (zh) * 2020-03-27 2020-07-31 东软集团股份有限公司 数据分类方法、装置、存储介质及电子设备
CN111553267A (zh) * 2020-04-27 2020-08-18 腾讯科技(深圳)有限公司 图像处理方法、图像处理模型训练方法及设备
CN111753863A (zh) * 2019-04-12 2020-10-09 北京京东尚科信息技术有限公司 一种图像分类方法、装置、电子设备及存储介质
CN111860582A (zh) * 2020-06-11 2020-10-30 北京市威富安防科技有限公司 图像分类模型构建方法、装置、计算机设备和存储介质
CN112800880A (zh) * 2021-01-15 2021-05-14 天津普达软件技术有限公司 一种预估危险废物重量的方法
WO2022028147A1 (zh) * 2020-08-06 2022-02-10 腾讯科技(深圳)有限公司 图像分类模型训练方法、装置、计算机设备及存储介质
CN114341951A (zh) * 2019-08-20 2022-04-12 阿卡蒂科有限公司 通过非侵入性手段诊断甲壳类动物的疾病、生理变化或其他内部状况的方法和***
CN115346076A (zh) * 2022-10-18 2022-11-15 安翰科技(武汉)股份有限公司 病理图像识别方法及其模型训练方法、***和存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102208037A (zh) * 2011-06-10 2011-10-05 西安电子科技大学 基于高斯过程分类器协同训练算法的高光谱图像分类方法
CN104767692A (zh) * 2015-04-15 2015-07-08 中国电力科学研究院 一种网络流量分类方法
CN105956612A (zh) * 2016-04-25 2016-09-21 西安电子科技大学 基于主动学习和半监督学习的高光谱图像分类方法
CN105989375A (zh) * 2015-01-30 2016-10-05 富士通株式会社 对手写字符图像进行分类的分类器、分类装置和分类方法
CN107563428A (zh) * 2017-08-25 2018-01-09 西安电子科技大学 基于生成对抗网络的极化sar图像分类方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102208037A (zh) * 2011-06-10 2011-10-05 西安电子科技大学 基于高斯过程分类器协同训练算法的高光谱图像分类方法
CN105989375A (zh) * 2015-01-30 2016-10-05 富士通株式会社 对手写字符图像进行分类的分类器、分类装置和分类方法
CN104767692A (zh) * 2015-04-15 2015-07-08 中国电力科学研究院 一种网络流量分类方法
CN105956612A (zh) * 2016-04-25 2016-09-21 西安电子科技大学 基于主动学习和半监督学习的高光谱图像分类方法
CN107563428A (zh) * 2017-08-25 2018-01-09 西安电子科技大学 基于生成对抗网络的极化sar图像分类方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
韦鹏程、冉维、段昂: "《大数据巨量分析与机器学习的整合开发》", 31 May 2017 *

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109934281A (zh) * 2019-03-08 2019-06-25 电子科技大学 一种二分类网络的非监督训练方法
CN109934281B (zh) * 2019-03-08 2021-01-26 电子科技大学 一种二分类网络的非监督训练方法
CN111753863A (zh) * 2019-04-12 2020-10-09 北京京东尚科信息技术有限公司 一种图像分类方法、装置、电子设备及存储介质
CN110276283A (zh) * 2019-06-10 2019-09-24 腾讯科技(深圳)有限公司 图片识别方法、目标识别模型训练方法及装置
CN110399918B (zh) * 2019-07-24 2021-11-19 深兰科技(上海)有限公司 一种目标识别的方法及设备
CN110399918A (zh) * 2019-07-24 2019-11-01 深兰科技(上海)有限公司 一种目标识别的方法及设备
CN114341951A (zh) * 2019-08-20 2022-04-12 阿卡蒂科有限公司 通过非侵入性手段诊断甲壳类动物的疾病、生理变化或其他内部状况的方法和***
CN110909820A (zh) * 2019-12-02 2020-03-24 齐鲁工业大学 基于自监督学习的图像分类方法及***
CN110909820B (zh) * 2019-12-02 2023-04-07 齐鲁工业大学 基于自监督学习的图像分类方法及***
CN111476282A (zh) * 2020-03-27 2020-07-31 东软集团股份有限公司 数据分类方法、装置、存储介质及电子设备
CN111553267A (zh) * 2020-04-27 2020-08-18 腾讯科技(深圳)有限公司 图像处理方法、图像处理模型训练方法及设备
CN111553267B (zh) * 2020-04-27 2023-12-01 腾讯科技(深圳)有限公司 图像处理方法、图像处理模型训练方法及设备
CN111860582B (zh) * 2020-06-11 2021-05-11 北京市威富安防科技有限公司 图像分类模型构建方法、装置、计算机设备和存储介质
CN111860582A (zh) * 2020-06-11 2020-10-30 北京市威富安防科技有限公司 图像分类模型构建方法、装置、计算机设备和存储介质
WO2022028147A1 (zh) * 2020-08-06 2022-02-10 腾讯科技(深圳)有限公司 图像分类模型训练方法、装置、计算机设备及存储介质
CN112800880A (zh) * 2021-01-15 2021-05-14 天津普达软件技术有限公司 一种预估危险废物重量的方法
CN112800880B (zh) * 2021-01-15 2022-05-20 天津普达软件技术有限公司 一种预估危险废物重量的方法
CN115346076A (zh) * 2022-10-18 2022-11-15 安翰科技(武汉)股份有限公司 病理图像识别方法及其模型训练方法、***和存储介质

Similar Documents

Publication Publication Date Title
CN108197666A (zh) 一种图像分类模型的处理方法、装置及存储介质
CN108304936B (zh) 机器学习模型训练方法和装置、表情图像分类方法和装置
CN111079639B (zh) 垃圾图像分类模型构建的方法、装置、设备及存储介质
US10332028B2 (en) Method for improving performance of a trained machine learning model
Bouveyron et al. Robust supervised classification with mixture models: Learning from data with uncertain labels
Li et al. Learning balanced and unbalanced graphs via low-rank coding
CN109063719B (zh) 一种联合结构相似性和类信息的图像分类方法
Charalampous et al. On-line deep learning method for action recognition
CN109242002A (zh) 高维数据分类方法、装置及终端设备
CN103258210B (zh) 一种基于字典学习的高清图像分类方法
Wankhade et al. A clustering and ensemble based classifier for data stream classification
CN107223260B (zh) 用于动态地更新分类器复杂度的方法
CN110751027B (zh) 一种基于深度多示例学习的行人重识别方法
Wankhade et al. Data stream classification: a review
Wu et al. Semi-supervised feature selection with minimal redundancy based on local adaptive
Wang et al. High-dimensional Data Clustering Using K-means Subspace Feature Selection.
Ghalyan Estimation of ergodicity limits of bag-of-words modeling for guaranteed stochastic convergence
CN113920382A (zh) 基于类一致性结构化学习的跨域图像分类方法和相关装置
Yap et al. Neural information processing
CN117349494A (zh) 空间图卷积神经网络的图分类方法、***、介质及设备
Kazemi et al. FEM-DBSCAN: AN efficient density-based clustering approach
KR20180028610A (ko) 관련도 벡터 머신을 이용한 기계학습방법, 이를 구현하는 컴퓨터 프로그램 및 이를 수행하도록 구성되는 정보처리장치
US11609936B2 (en) Graph data processing method, device, and computer program product
Shi et al. Fuzzy support tensor product adaptive image classification for the internet of things
Zhou et al. Robust graph structure learning for multimedia data analysis

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20180622

RJ01 Rejection of invention patent application after publication