CN111723833A - 信息处理装置和信息处理方法 - Google Patents

信息处理装置和信息处理方法 Download PDF

Info

Publication number
CN111723833A
CN111723833A CN201910217426.5A CN201910217426A CN111723833A CN 111723833 A CN111723833 A CN 111723833A CN 201910217426 A CN201910217426 A CN 201910217426A CN 111723833 A CN111723833 A CN 111723833A
Authority
CN
China
Prior art keywords
feature
classifier
mask
information processing
classification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910217426.5A
Other languages
English (en)
Inventor
沈伟
刘汝杰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to CN201910217426.5A priority Critical patent/CN111723833A/zh
Priority to US16/744,220 priority patent/US11200464B2/en
Priority to JP2020008297A priority patent/JP2020155101A/ja
Publication of CN111723833A publication Critical patent/CN111723833A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2148Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • G06F18/2178Validation; Performance evaluation; Active pattern learning techniques based on feedback of a supervisor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/778Active pattern-learning, e.g. online learning of image or video features
    • G06V10/7784Active pattern-learning, e.g. online learning of image or video features based on feedback from supervisors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Multimedia (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)

Abstract

公开了一种信息处理装置和信息处理方法。信息处理方法包括以下步骤:将样本图像输入到机器学习架构以获得样本图像的第一特征,使第一分类器基于第一特征计算第一分类损失;基于第一特征和预定的第一掩膜计算第二特征,将第二特征输入到第一分类器以计算熵损失;基于第一掩膜和熵损失来计算第二掩膜以最大化熵损失;基于第一特征和第二掩膜来获得对抗特征,其中,对抗特征是与第二特征互补的特征;以相互关联地训练第一分类器和第二分类器的方式,使第二分类器基于对抗特征来计算样本图像的第二分类损失;以及以使第一分类损失和第二分类损失之和最小的方式来调节机器学习架构、第一分类器以及第二分类器的参数,从而获得经训练的机器学习架构。

Description

信息处理装置和信息处理方法
技术领域
本公开涉及图像分类和对抗学习领域,具体涉及一种能够利用两个分类器进行对抗互补学习的信息处理装置和信息处理方法、以及利用根据信息处理装置得到的经训练的机器学习架构进行分类的装置和方法。
背景技术
在传统的图像分类方法中,往往只有一条通路,即直接将输入图像接上特征提取器和分类器,输出分类结果。比方说,如果一个训练集中有白色的猫和黑色的狗,当在这样的数据集上训练分类器时,分类器可能只学会了区分黑色和白色,而忽略了猫和狗的具体特征。当测试数据是一只黑色的猫的时候,分类器则会产生错误的判断,误以为是狗。
发明内容
在下文中给出了关于本公开的简要概述,以便提供关于本公开的某些方面的基本理解。但是,应当理解,这个概述并不是关于本公开的穷举性概述。它并不是意图用来确定本公开的关键性部分或重要部分,也不是意图用来限定本公开的范围。其目的仅仅是以简化的形式给出关于本公开的某些概念,以此作为稍后给出的更详细描述的前序。
鉴于以上问题,本公开的目的是提供能够解决现有技术中的一个或多个缺点的信息处理装置和信息处理方法、以及利用根据信息处理装置得到的经训练的机器学习架构进行分类的装置和方法。
根据本公开的一方面,提供了一种信息处理装置,包括:第一分类损失计算单元,被配置成将训练集中的每个样本图像输入到机器学习架构以获得样本图像的第一特征,并使第一分类器基于第一特征来计算样本图像的第一分类损失;熵损失计算单元,被配置成基于第一特征和预定的第一掩膜计算第二特征,并将第二特征输入到第一分类器以计算类概率分布的熵损失;掩膜计算单元,被配置成基于第一掩膜和熵损失来计算第二掩膜以最大化熵损失;对抗特征获得单元,被配置成基于第一特征和第二掩膜来获得对抗特征,其中,对抗特征是与第二特征互补的特征;第二分类损失计算单元,被配置成以相互关联地训练第一分类器和第二分类器的方式,使第二分类器基于对抗特征来计算样本图像的第二分类损失;以及训练单元,被配置成以使第一分类损失和第二分类损失之和最小的方式来调节机器学习架构、第一分类器以及第二分类器的参数,从而获得经训练的机器学习架构。
根据本公开的另一方面,提供了一种信息处理方法,包括:第一分类损失计算步骤,将训练集中的每个样本图像输入到机器学习架构以获得样本图像的第一特征,并使第一分类器基于第一特征来计算样本图像的第一分类损失;熵损失计算步骤,基于第一特征和预定的第一掩膜计算第二特征,并将第二特征输入到第一分类器以计算类概率分布的熵损失;掩膜计算步骤,基于第一掩膜和熵损失来计算第二掩膜以最大化熵损失;对抗特征获得步骤,基于第一特征和第二掩膜来获得对抗特征,其中,对抗特征是与第二特征互补的特征;第二分类损失计算步骤,以相互关联地训练第一分类器和第二分类器的方式,使第二分类器基于对抗特征来计算样本图像的第二分类损失;以及训练步骤,以使第一分类损失和第二分类损失之和最小的方式来调节机器学习架构、第一分类器以及第二分类器的参数,从而获得经训练的机器学习架构。
根据本公开的另一方面,提供了一种利用上述信息处理装置得到的经训练的机器学习架构进行分类的装置,包括:特征提取单元,被配置成将待分类图像输入到经训练的机器学习架构,以提取待分类图像的特征;以及分类单元,被配置成计算待分类图像的特征与类别已知的图像的特征之间的特征相似度,并且将待分类图像分类为与其之间的特征相似度最大的类别已知的图像所属的类别。
根据本公开的其它方面,还提供了用于实现上述根据本公开的方法的计算机程序代码和计算机程序产品。
在下面的说明书部分中给出本公开实施例的其它方面,其中,详细说明用于充分地公开本公开实施例的优选实施例,而不对其施加限定。
附图说明
本公开可以通过参考下文中结合附图所给出的详细描述而得到更好的理解,其中在所有附图中使用了相同或相似的附图标记来表示相同或者相似的部件。所述附图连同下面的详细说明一起包含在本说明书中并形成说明书的一部分,用来进一步举例说明本公开的优选实施例和解释本公开的原理和优点。其中:
图1是示出根据本公开实施例的信息处理装置的功能配置示例的框图;
图2是示出根据本公开实施例的信息处理装置的一种示例性实现方式的示意图;
图3是示出根据本公开实施例的信息处理方法的流程示例的流程图;
图4是示出根据本公开实施例的用于分类的装置的功能配置示例的框图;
图5是示出根据本公开实施例的用于分类的装置的一种示例性实现方式的示意图;
图6是示出根据本公开实施例的用于分类的方法的流程示例的流程图;以及
图7是示出作为本公开实施例中可采用的个人计算机的示例结构的框图。
具体实施方式
在下文中将结合附图对本公开的示范性实施例进行描述。为了清楚和简明起见,在说明书中并未描述实际实施方式的所有特征。然而,应该了解,在开发任何这种实际实施例的过程中必须做出很多特定于实施方式的决定,以便实现开发人员的具体目标,例如,符合与***及业务相关的那些限制条件,并且这些限制条件可能会随着实施方式的不同而有所改变。此外,还应该了解,虽然开发工作有可能是非常复杂和费时的,但对得益于本公开内容的本领域技术人员来说,这种开发工作仅仅是例行的任务。
在此,还需要说明的一点是,为了避免因不必要的细节而模糊了本公开,在附图中仅仅示出了与根据本公开的方案密切相关的设备结构和/或处理步骤,而省略了与本公开关系不大的其它细节。
下面结合附图详细说明根据本公开的实施例。
首先,将参照图1描述根据本公开实施例的信息处理装置100的功能框图。图1是示出根据本公开实施例的信息处理装置100的功能配置示例的框图。如图1所示,根据本公开实施例的信息处理装置100包括第一分类损失计算单元102、熵损失计算单元104、掩膜计算单元106、对抗特征获得单元108、第二分类损失计算单元110以及训练单元112。
针对训练集中的每个样本图像,第一分类损失计算单元102可以被配置成将样本图像输入到机器学习架构以获得样本图像的第一特征,并使第一分类器基于第一特征来计算样本图像的第一分类损失。
例示而非限制,机器学习架构可以是神经网络架构。本领域技术人员可以理解,机器学习架构可以是除了神经网络架构之外的架构,这里不再累述。第一特征可以是二维的第一特征向量,也可以是三维的第一特征图。
图2是示出根据本公开实施例的信息处理装置100的一种示例性实现方式的示意图。在图2中,为了方便,以机器学习架构为卷积神经网络CNN为例来进行描述。
如图2所示,将样本图像输入到CNN,获得样本图像的第一特征。在图2中,将第一特征示出为三维的第一特征图,为了方便描述,假设第一特征图大小为CxKxK,其中,C为通道数量,K为特征图的长度和宽度。在图2中,用第一分类器的参数W1表示第一分类器。作为示例,可以将对第一特征图进行处理所获得的中间第一特征向量(在图2中表示为中间第一特征)输入到第一分类器,计算样本图像的第一分类损失L1。作为示例,可以对第一特征图进行卷积运算获得中间第一特征向量,或者,可以通过对第一特征图在空间域上求和再进行平均来获得中间第一特征向量,本领域技术人员还可以想到由第一特征图获得中间第一特征向量的其他方式,这里不再累述。
作为示例,可以采用softmax损失函数来计算样本图像的第一分类损失。此外,本领域技术人员还可以想到其他方式来计算样本图像的第一分类损失,这里不再累述。
熵损失计算单元104可以被配置成基于第一特征和预定的第一掩膜计算第二特征,并将第二特征输入到第一分类器W1以计算类概率分布的熵损失。由于第二特征是由第一特征得到的,因此,第二特征与第一特征相关联。在第一特征为三维的第一特征图的情况下,利用预定的第一掩膜将三维的第一特征图转换成向量形式,得到第二特征。
在图2中用Mg表示预定的第一掩膜。作为示例,可以将Mg中每个位置的值设置为1/(KxK),因为Mg中每个位置的值都相等,因此可以将第一掩膜Mg称为全局池化掩膜,在第一掩膜Mg为全局池化掩膜的情况下,将对三维的第一特征图在空间域上求和再进行平均得到的平均向量作为第二特征。本领域技术人员可以想到设置第一掩膜的值的其他方式,这里不再累述。
优选地,熵损失计算单元104可以被配置成将第一特征与第一掩膜相乘后得到的特征进行平均,得到第二特征。
作为示例,熵损失计算单元104可以将由第一特征图和第一掩膜Mg相乘后得到的特征在空间域上进行平均,从而得到第二特征。
本领域技术人员可以想到基于第一特征和预定的第一掩膜计算第二特征的其他方式,这里不再累述。
如图2中最上面的第一行所示,将第二特征输入到第一分类器W1以计算类概率分布,并基于类概率分布计算熵损失lent。上述计算熵损失的方式是本领域的公知常识,这里不再累述。在本申请中,使用熵损失来定义第一分类器的分类确定程度。熵损失越大,第一分类器的分类确定度越低,熵损失越小,第一分类器的分类确定度越高。
在本申请中,要寻找以下对抗特征:该特征与第二特征互补(因为第二特征与第一特征相关联,因此,该特征也与第一特征互补),基于该特征和第二特征所进行的分类的分类精度更高。为了定位对抗特征,我们要使得利用第一特征进行学习的第一分类器的熵损失尽量大(即,使第一分类器的分类确定度尽量低)。
比方说,如果一个训练集中有白色的猫和黑色的狗,在现有技术中,当在这样的数据集上训练第一分类器时,假设第一特征是有关颜色信息的特征(因为第二特征与第一特征相关联,因此,第二特征也是有关颜色信息的特征),那么第一分类器可能只学会了区分黑色和白色,而忽略了猫和狗的具体形状的特征。当测试数据是一只黑色的猫的时候,第一分类器会产生错误的判断,误以为是狗。
在本申请中,还要寻找反映猫和狗的具体形状的特征(即,对抗特征)。可以通过使得基于有关颜色信息的特征进行学习的第一分类器的分类确定度尽量低,定位对抗特征。在本申请中,当测试数据是一只黑色的猫的时候,联合使用有关颜色信息的特征和所述反映猫和狗的具体形状的特征会将其判断为猫,因此会提高分类精度。
具体地,在本申请中,基于第一特征图、利用下述第二掩膜来定位对抗特征。
掩膜计算单元106可以被配置成基于第一掩膜和熵损失来计算第二掩膜以最大化熵损失。
如图2中的第一行向左的箭头所示,将所计算的熵损失lent反向传播。掩膜计算单元106可以被配置成基于第一掩膜Mg和熵损失lent来计算第二掩膜Mr,以最大化基于第一特征进行学习的第一分类器的熵损失。最大化熵损失等效于使第一分类损失最大化,即尽量降低第一分类器的分类确定度。
优选地,掩膜计算单元106可以被配置成基于熵损失相对于第一掩膜的梯度来计算第二掩膜。当梯度为正时,使得熵损失增大,而当梯度为负时,使得熵损失减小。
具体地,通过反向传播的方式得到熵损失函数相对于第一掩膜Mg的梯度,以最大化第一分类器的熵损失的方式来更新第一掩膜Mg的值从而获得第二掩膜Mr。可以将第二掩膜Mr称为对抗注意力掩膜,它表示掩膜上每个位置上的特征对于增大第一分类器的不确定程度的影响程度。
作为示例,可以根据以下公式(1)计算第二掩膜Mr
Figure BDA0002002496690000061
在公式(1)中,
Figure BDA0002002496690000062
为熵损失函数lent相对于第一掩膜Mg的梯度,s是更新步长。本领域可以根据经验设置s的值,例如,可以将s设置为0.1。
还可以根据LSTM(长短期记忆模型)来计算掩膜Mr。具体地,LSTM的输入为第一掩膜Mg,输出为第二掩膜Mr和熵损失lent。即,利用LSTM,以最大化熵损失为目标,获得第二掩膜Mr
本领域技术人员还会想到基于第一掩膜和熵损失计算第二掩膜的其他方式,这里不再累述。
对抗特征获得单元108可以被配置成基于第一特征和第二掩膜来获得对抗特征,其中,对抗特征是与第二特征互补的特征。
如图2中间的第二行所示,基于第一特征图和第二掩膜Mr来获得对抗特征。
优选地,对抗特征获得单元108可以被配置成通过将第一特征与第二掩膜相乘后得到的特征进行平均,得到对抗特征。
具体地,将第一特征图与第二掩膜Mr相乘后得到的特征在空间域上求和再进行平均,得到对抗特征。
对抗特征是与第二特征互补的特征,此外,因为第一特征与第二特征相关联,因此,对抗特征也与第一特征互补,即第一特征与对抗特征是互补的判别性特征,第二特征与对抗特征也是互补的判别性特征。由上可知,根据本公开实施例的信息处理装置100可以学习提取这些互补的判别性特征,这些互补的判别性特征能够更好地表示图像的整体特征而不是仅表示图像的局部特征。
第二分类损失计算单元110可以被配置成以相互关联地训练第一分类器和第二分类器的方式,使第二分类器基于对抗特征来计算样本图像的第二分类损失。
优选地,相互关联地训练第一分类器和第二分类器包括:第二分类器的参数包括第一分类器的参数,并且使第二分类器仅基于对抗特征来计算样本图像的第二分类损失。在图2中示出了第二分类器的参数包括第一分类器的参数的情况,即,第二分类器的参数为W1+W2。另外,为了方便,在图2中,用W1+W2代表第二分类器。
或者,相互关联地训练第一分类器和第二分类器包括:第二分类器的参数不包括第一分类器的参数,并且使第二分类器基于第二特征和对抗特征两者来计算样本图像的第二分类损失。如果第二分类器的参数不包括第一分类器的参数,则可以仅用W2表示将第二分类器的参数。
作为示例,可以采用softmax损失函数来计算样本图像的第二分类损失。此外,本领域技术人员还可以想到其他方式来计算样本图像的第二分类损失,这里不再累述。
训练单元112可以被配置成以使第一分类损失和第二分类损失之和最小的方式来调节机器学习架构、第一分类器以及第二分类器的参数,从而获得经训练的机器学习架构。
作为示例,训练单元112以使第一分类损失和第二分类损失之和最小的方式迭代地进行反向传播来更新机器学习架构、第一分类器以及第二分类器的参数。在满足条件时迭代结束,从而获得经训练的机器学习架构、第一分类器以及第二分类器。
在传统的图像分类方法中,往往只有一条通路,即直接将输入图像接上特征提取器和分类器,输出分类结果。这样的方法可能会导致分类器过于关注那些简单的可用于分类的区域,而忽视了其他区域的特征。比方说,如果一个训练集中有白色的猫和黑色的狗,当在这样的数据集上训练分类器时,分类器可能只学会了区分黑色和白色,而忽略了猫和狗的具体特征。当测试数据是一只黑色的猫的时候,分类器则会产生错误的判断,误以为是狗。因此,分类器只学习到了用颜色区分类别,而忽略了每个类别的其他潜在特征。而在根据本公开实施例的信息处理装置100中,通过利用两个分类器进行对抗互补学习的方式来解决现有的图像分类方法中的这个问题。在根据本公开实施例的信息处理装置100中,自动学习互补的判别性特征(例如,以上举例的有关颜色信息的特征和反映猫和狗的具体形状的特征),这些互补的判别性特征能够更好地表示图像的整体特征而不是仅表示图像的局部特征,基于这些互补的判别性特征相互关联地训练第一分类器和第二分类器,可以获得经训练的机器学习架构,从而可以提高分类精度。
与上述训练分类模型的装置实施例相对应地,本公开还提供了以下训练分类模型的方法的实施例。
图3是示出根据本公开实施例的信息处理方法300的流程示例的流程图。
如图3所示,根据本公开实施例的信息处理方法300包括第一分类损失计算步骤S302、熵损失计算步骤S304、掩膜计算步骤S306、对抗特征获得步骤S308、第二分类损失计算步骤S310以及训练步骤S312。
在第一分类损失计算步骤S302中,针对训练集中的每个样本图像,将样本图像输入到机器学习架构以获得样本图像的第一特征,并使第一分类器基于第一特征来计算样本图像的第一分类损失。
例示而非限制,机器学习架构可以是神经网络架构。本领域技术人员可以理解,机器学习架构可以是除了神经网络架构之外的架构,这里不再累述。第一特征可以是二维的第一特征向量,也可以是三维的第一特征图。
作为示例,可以采用softmax损失函数来计算样本图像的第一分类损失。此外,本领域技术人员还可以想到其他方式来计算样本图像的第一分类损失,这里不再累述。
在熵损失计算步骤S304中,可以基于第一特征和预定的第一掩膜计算第二特征,并将第二特征输入到第一分类器以计算类概率分布的熵损失。由于第二特征是由第一特征得到的,因此,第二特征与第一特征相关联。
有关设置第一掩膜的值的内容可参见装置实施例中关于图2的描述,在此不再重复描述。
优选地,在熵损失计算步骤S304中,可以将第一特征与第一掩膜相乘后得到的特征进行平均,得到第二特征。
作为示例,在熵损失计算步骤S304中,可以将由第一特征图和第一掩膜Mg相乘后得到的特征在空间域上进行平均,从而得到第二特征。
本领域技术人员可以想到基于第一特征和预定的第一掩膜计算第二特征的其他方式,这里不再累述。
将第二特征输入到第一分类器以计算类概率分布,并基于类概率分布计算熵损失。在本申请中,使用熵损失来定义第一分类器的分类确定程度。熵损失越大,第一分类器的分类确定度越低,熵损失越小,第一分类器的分类确定度越高。
在掩膜计算步骤S306中,可以基于第一掩膜和熵损失来计算第二掩膜以最大化熵损失。
优选地,在掩膜计算步骤S306中,可以基于熵损失相对于第一掩膜的梯度来计算第二掩膜。当梯度为正时,使得熵损失增大,而当梯度为负时,使得熵损失减小。
具体地,通过反向传播的方式得到熵损失函数相对于第一掩膜的梯度,以最大化第一分类器的熵损失的方式来更新第一掩膜的值从而获得第二掩膜。
有关基于熵损失相对于第一掩膜的梯度来计算第二掩膜的示例可参见装置实施例中关于公式(1)的描述,在此不再重复描述。
还可以根据LSTM(长短期记忆模型)来计算第二掩膜。具体地,LSTM的输入为第一掩膜,输出为第二掩膜和熵损失。即,利用LSTM,以最大化熵损失为目标,获得第二掩膜。
本领域技术人员还会想到基于第一掩膜和熵损失计算第二掩膜的其他方式,这里不再累述。
在对抗特征获得步骤S308中,可以基于第一特征和第二掩膜来获得对抗特征,其中,对抗特征是与第二特征互补的特征。
优选地,在对抗特征获得步骤S308中,可以通过将第一特征与第二掩膜相乘后得到的特征进行平均,得到对抗特征。
具体地,将第一特征图与第二掩膜相乘后得到的特征在空间域上求和再进行平均,得到对抗特征。
对抗特征是与第二特征互补的特征,此外,因为第一特征与第二特征相关联,因此,对抗特征也与第一特征互补,即第一特征与对抗特征是互补的判别性特征,以及第二特征与对抗特征也是互补的判别性特征。由上可知,根据本公开实施例的信息处理方法300可以自动提取这些互补的判别性特征,这些互补的判别性特征能够更好地表示图像的整体特征而不是仅表示图像的局部特征。
在第二分类损失计算步骤S310中,可以以相互关联地训练第一分类器和第二分类器的方式,使第二分类器基于对抗特征来计算样本图像的第二分类损失。
优选地,相互关联地训练第一分类器和第二分类器包括:第二分类器的参数包括第一分类器的参数,并且使第二分类器仅基于对抗特征来计算样本图像的第二分类损失。
或者,相互关联地训练第一分类器和第二分类器包括:第二分类器的参数不包括第一分类器的参数,并且使第二分类器基于第二特征和对抗特征两者来计算样本图像的第二分类损失。
作为示例,可以采用softmax损失函数来计算样本图像的第二分类损失。此外,本领域技术人员还可以想到其他方式来计算样本图像的第二分类损失,这里不再累述。
在训练步骤S312中,可以以使第一分类损失和第二分类损失之和最小的方式来调节机器学习架构、第一分类器以及第二分类器的参数,从而获得经训练的机器学习架构。
作为示例,在训练步骤S312中,以使第一分类损失和第二分类损失之和最小的方式迭代地进行反向传播来更新机器学习架构、第一分类器以及第二分类器的参数。在满足条件时迭代结束,从而获得经训练的机器学习架构、第一分类器以及第二分类器。
综上所述,在根据本公开实施例的信息处理方法300中,通过利用两个分类器进行对抗互补学习的方式来解决现有的图像分类方法中的这个问题。在根据本公开实施例的信息处理方法300中,自动学习互补的判别性特征,这些互补的判别性特征能够更好地表示图像的整体特征而不是仅表示图像的局部特征,基于这些互补的判别性特征相互关联地训练第一分类器和第二分类器,可以获得经训练的机器学习架构,从而可以提高分类精度。
本公开还提供了一种利用上述信息处理装置100得到的经训练的机器学习架构进行分类的装置400。图4是示出根据本公开实施例的用于分类的装置400的功能配置示例的框图。如图4所示,根据本公开实施例的用于分类的装置400包括特征提取单元402和分类单元404。
特征提取单元402可以被配置成将待分类图像输入到所述经训练的机器学习架构,以提取待分类图像的特征。
优选地,特征提取单元402被配置成将类别已知的图像输入到所述经训练的机器学习架构,以提取类别已知的图像的特征。或者,还可以通过本领域已知的其他方式提取类别已知的图像的特征。
所提取的特征可以是二维的特征向量,也可以是三维的特征图。
如在信息处理装置100的描述中所述,信息处理装置100可以自动学习互补的判别性特征,这些互补的判别性特征能够更好地表示图像的整体特征。因此,利用上述信息处理装置100得到的经训练的机器学习架构可以提取出待分类图像的互补的判别性特征,这些互补的判别性特征能够更好地表示待分类图像的整体特征而不是仅表示待分类图像的局部特征。进一步地,基于这些互补的判别性特征对待分类图像进行分类,可以提高分类的精度。
分类单元404可以被配置成计算待分类图像的特征与类别已知的图像的特征之间的特征相似度,并且将待分类图像分类为与其之间的特征相似度最大的类别已知的图像所属的类别。
图5是示出根据本公开实施例的用于分类的装置400的一种示例性实现方式的示意图。在图5中,为了方便,以经训练的机器学习架构为卷积神经网络CNN为例来进行描述。
如图5所示,将待分类图像输入到经训练的CNN,提取待分类图像的特征。在图5中,将所提取出的特征示出为三维的特征图,假设第一特征图大小为CxKxK,其中,C为通道数量,K为特征图的长度和宽度。如上所述,该特征图包括待分类图像的互补的判别性特征,这些互补的判别性特征能够更好地表示待分类图像的整体特征而不是仅表示待分类图像的局部特征。
优选地,分类单元404可以被配置成将待分类图像的特征进行平均,并且基于平均后的特征计算特征相似度。
作为示例,如图5所示,将所提取出的特征图与每个位置的值均为1/(KxK)的第一掩膜Mg相乘,然后对相乘后得到的特征进行平均,即对所提取出的特征图进行全局均值池化,得到平均后的特征向量(在图5中,将平均后的特征向量表示为平均后的特征)。可以基于平均后的特征向量计算特征相似度。
优选地,分类单元404可以被配置成计算待分类图像的特征与类别已知的图像的特征之间的余弦距离来作为特征相似度,并且将待分类图像分类为与其之间的余弦距离最短的类别已知的图像所属的类别。
作为示例,计算待分类图像的平均后的特征向量与已知类别图像的平均后的特征向量之间的余弦距离,通过最近邻的方式来预测待分类图像所属的类别。
除了余弦距离之外,本领域技术人员还可以想到其他度量方式作为特征相似度,这里不再累述。
综上所述,在根据本公开实施例的用于分类的装置400中,利用上述信息处理装置100得到的经训练的机器学习架构可以提取出待分类图像的互补的判别性特征,这些互补的判别性特征能够更好地表示待分类图像的整体特征而不是仅表示待分类图像的局部特征。进一步地,基于这些互补的判别性特征对待分类图像进行分类,可以提高分类的精度。
与上述用于分类的装置实施例相对应地,本公开还提供了利用上述信息处理装置得到的经训练的机器学习架构进行分类的方法的实施例。图6是示出根据本公开实施例的用于分类的方法600的流程示例的流程图。如图6所示,根据本公开实施例的用于分类的方法600包括特征提取步骤S602和分类步骤S604。
在特征提取步骤S602中,可以将待分类图像输入到所述经训练的机器学习架构,以提取待分类图像的特征。
优选地,在特征提取步骤S602中,将类别已知的图像输入到所述经训练的机器学习架构,以提取类别已知的图像的特征。或者,还可以通过本领域已知的其他方式提取类别已知的图像的特征。
所提取的特征可以是二维的特征向量,也可以是三维的特征图。
如在信息处理装置100的描述中所述,信息处理装置100可以自动学习互补的判别性特征,这些互补的判别性特征能够更好地表示图像的整体特征。因此,利用上述信息处理装置100得到的经训练的机器学习架构可以提取出待分类图像的互补的判别性特征,这些互补的判别性特征能够更好地表示待分类图像的整体特征而不是仅表示待分类图像的局部特征。进一步地,基于这些互补的判别性特征对待分类图像进行分类,可以提高分类的精度。
在分类步骤S604中,可以计算待分类图像的特征与类别已知的图像的特征之间的特征相似度,并且将待分类图像分类为与其之间的特征相似度最大的类别已知的图像所属的类别。
优选地,在分类步骤S604中,可以将待分类图像的特征进行平均,并且基于平均后的特征计算特征相似度。
优选地,在分类步骤S604中,可以计算待分类图像的特征与类别已知的图像的特征之间的余弦距离来作为特征相似度,并且将待分类图像分类为与其之间的余弦距离最短的类别已知的图像所属的类别。
作为示例,计算待分类图像的平均后的特征向量与已知类别图像的平均后的特征向量之间的余弦距离,通过最近邻的方式来预测待分类图像所属的类别。
除了余弦距离之外,本领域技术人员还可以想到其他度量方式作为特征相似度,这里不再累述。
综上所述,在根据本公开实施例的用于分类的方法600中,利用上述信息处理装置100得到的经训练的机器学习架构可以提取出待分类图像的互补的判别性特征,这些互补的判别性特征能够更好地表示待分类图像的整体特征而不是仅表示待分类图像的局部特征。进一步地,基于这些互补的判别性特征对待分类图像进行分类,可以提高分类的精度。
应指出,尽管以上描述了根据本公开实施例的信息处理装置和方法、以及用于分类的装置和方法的功能配置以及操作,但是这仅是示例而非限制,并且本领域技术人员可根据本公开的原理对以上实施例进行修改,例如可对各个实施例中的功能模块和操作进行添加、删除或者组合等,并且这样的修改均落入本公开的范围内。
此外,还应指出,这里的方法实施例是与上述装置实施例相对应的,因此在方法实施例中未详细描述的内容可参见装置实施例中相应部分的描述,在此不再重复描述。
此外,本公开还提供了存储介质和程序产品。根据本公开实施例的存储介质和程序产品中的机器可执行的指令可以被配置成执行上述图像处理方法,因此在此未详细描述的内容可参考先前相应部分的描述,在此不再重复进行描述。
相应地,用于承载上述包括机器可执行的指令的程序产品的存储介质也包括在本发明的公开中。该存储介质包括但不限于软盘、光盘、磁光盘、存储卡、存储棒等等。
相应地,用于承载上述包括机器可执行的指令的程序产品的存储介质也包括在本发明的公开中。该存储介质包括但不限于软盘、光盘、磁光盘、存储卡、存储棒等等。
另外,还应该指出的是,上述系列处理和装置也可以通过软件和/或固件实现。在通过软件和/或固件实现的情况下,从存储介质或网络向具有专用硬件结构的计算机,例如图7所示的通用个人计算机700安装构成该软件的程序,该计算机在安装有各种程序时,能够执行各种功能等等。
在图7中,中央处理单元(CPU)701根据只读存储器(ROM)702中存储的程序或从存储部分708加载到随机存取存储器(RAM)703的程序执行各种处理。在RAM 703中,也根据需要存储当CPU 701执行各种处理等时所需的数据。
CPU 701、ROM 702和RAM 703经由总线704彼此连接。输入/输出接口705也连接到总线704。
下述部件连接到输入/输出接口705:输入部分706,包括键盘、鼠标等;输出部分707,包括显示器,比如阴极射线管(CRT)、液晶显示器(LCD)等,和扬声器等;存储部分708,包括硬盘等;和通信部分709,包括网络接口卡比如LAN卡、调制解调器等。通信部分709经由网络比如因特网执行通信处理。
根据需要,驱动器710也连接到输入/输出接口705。可拆卸介质711比如磁盘、光盘、磁光盘、半导体存储器等等根据需要被安装在驱动器710上,使得从中读出的计算机程序根据需要被安装到存储部分708中。
在通过软件实现上述系列处理的情况下,从网络比如因特网或存储介质比如可拆卸介质711安装构成软件的程序。
本领域的技术人员应当理解,这种存储介质不局限于图7所示的其中存储有程序、与设备相分离地分发以向用户提供程序的可拆卸介质711。可拆卸介质711的例子包含磁盘(包含软盘(注册商标))、光盘(包含光盘只读存储器(CD-ROM)和数字通用盘(DVD))、磁光盘(包含迷你盘(MD)(注册商标))和半导体存储器。或者,存储介质可以是ROM 702、存储部分708中包含的硬盘等等,其中存有程序,并且与包含它们的设备一起被分发给用户。
以上参照附图描述了本公开的优选实施例,但是本公开当然不限于以上示例。本领域技术人员可在所附权利要求的范围内得到各种变更和修改,并且应理解这些变更和修改自然将落入本公开的技术范围内。
例如,在以上实施例中包括在一个单元中的多个功能可以由分开的装置来实现。替选地,在以上实施例中由多个单元实现的多个功能可分别由分开的装置来实现。另外,以上功能之一可由多个单元来实现。无需说,这样的配置包括在本公开的技术范围内。
在该说明书中,流程图中所描述的步骤不仅包括以所述顺序按时间序列执行的处理,而且包括并行地或单独地而不是必须按时间序列执行的处理。此外,甚至在按时间序列处理的步骤中,无需说,也可以适当地改变该顺序。
另外,根据本公开的技术还可以如下进行配置。
附记1.一种信息处理装置,包括:
第一分类损失计算单元,被配置成将训练集中的每个样本图像输入到机器学习架构以获得所述样本图像的第一特征,并使第一分类器基于所述第一特征来计算所述样本图像的第一分类损失;
熵损失计算单元,被配置成基于所述第一特征和预定的第一掩膜计算第二特征,并将所述第二特征输入到所述第一分类器以计算类概率分布的熵损失;
掩膜计算单元,被配置成基于所述第一掩膜和所述熵损失来计算第二掩膜以最大化所述熵损失;
对抗特征获得单元,被配置成基于所述第一特征和所述第二掩膜来获得对抗特征,其中,所述对抗特征是与所述第二特征互补的特征;
第二分类损失计算单元,被配置成以相互关联地训练所述第一分类器和第二分类器的方式,使所述第二分类器基于所述对抗特征来计算所述样本图像的第二分类损失;以及
训练单元,被配置成以使所述第一分类损失和第二分类损失之和最小的方式来调节所述机器学习架构、所述第一分类器以及所述第二分类器的参数,从而获得经训练的机器学习架构。
附记2.根据附记1所述的信息处理装置,其中,所述掩膜计算单元被配置成基于所述熵损失相对于所述第一掩膜的梯度来计算所述第二掩膜。
附记3.根据附记1所述的信息处理装置,其中,所述掩膜计算单元被配置成利用长短期记忆模型LSTM,基于所述熵损失和所述第一掩膜来计算所述第二掩膜。
附记4.根据附记1所述的信息处理装置,其中,相互关联地训练所述第一分类器和所述第二分类器包括:所述第二分类器的参数包括所述第一分类器的参数,并且使所述第二分类器仅基于所述对抗特征来计算所述样本图像的第二分类损失。
附记5.根据附记1所述的信息处理装置,其中,相互关联地训练所述第一分类器和所述第二分类器包括:所述第二分类器的参数不包括所述第一分类器的参数,并且使所述第二分类器基于所述第二特征和所述对抗特征两者来计算所述样本图像的第二分类损失。
附记6.根据附记1所述的信息处理装置,其中,所述对抗特征获得单元被配置成通过将所述第一特征与所述第二掩膜相乘后得到的特征进行平均,得到所述对抗特征。
附记7.根据附记1所述的信息处理装置,其中,所述熵损失计算单元被配置成将所述第一特征与所述第一掩膜相乘后得到的特征进行平均,得到所述第二特征。
附记8.根据附记1所述的信息处理装置,其中,所述第一特征是三维特征。
附记9.根据附记1所述的信息处理装置,其中,所述机器学习架构是神经网络架构。
附记10.一种信息处理方法,包括:
第一分类损失计算步骤,将训练集中的每个样本图像输入到机器学习架构以获得所述样本图像的第一特征,并使第一分类器基于所述第一特征来计算所述样本图像的第一分类损失;
熵损失计算步骤,基于所述第一特征和预定的第一掩膜计算第二特征,并将所述第二特征输入到所述第一分类器以计算类概率分布的熵损失;
掩膜计算步骤,基于所述第一掩膜和所述熵损失来计算第二掩膜以最大化所述熵损失;
对抗特征获得步骤,基于所述第一特征和所述第二掩膜来获得对抗特征,其中,所述对抗特征是与所述第二特征互补的特征;
第二分类损失计算步骤,以相互关联地训练所述第一分类器和第二分类器的方式,使所述第二分类器基于所述对抗特征来计算所述样本图像的第二分类损失;以及
训练步骤,以使所述第一分类损失和第二分类损失之和最小的方式来调节所述机器学习架构、所述第一分类器以及所述第二分类器的参数,从而获得经训练的机器学习架构。
附记11.根据附记10所述的信息处理方法,其中,在所述掩膜计算步骤中,基于所述熵损失相对于所述第一掩膜的梯度来计算所述第二掩膜。
附记12.根据附记10所述的信息处理方法,其中,在所述掩膜计算单元步骤中,利用长短期记忆模型LSTM,基于所述熵损失和所述第一掩膜来计算所述第二掩膜。
附记13.根据附记10所述的信息处理方法,其中,相互关联地训练所述第一分类器和所述第二分类器包括:所述第二分类器的参数包括所述第一分类器的参数,并且使所述第二分类器仅基于所述对抗特征来计算所述样本图像的第二分类损失。
附记14.根据附记10所述的信息处理方法,其中,相互关联地训练所述第一分类器和所述第二分类器包括:所述第二分类器的参数不包括所述第一分类器的参数,并且使所述第二分类器基于所述第二特征和所述对抗特征两者来计算所述样本图像的第二分类损失。
附记15.根据附记10所述的信息处理方法,其中,在所述对抗特征获得步骤中,通过将所述第一特征与所述第二掩膜相乘后得到的特征进行平均,得到所述对抗特征。
附记16.根据附记10所述的信息处理方法,其中,在所述熵损失计算步骤中,将所述第一特征与所述第一掩膜相乘后得到的特征进行平均,得到所述第二特征。
附记17.根据附记10所述的信息处理方法,其中,所述第一特征是三维特征。
附记18.根据附记10所述的信息处理方法,其中,所述机器学习架构是神经网络架构。
附记19.一种利用根据附记1-9中任一项所述的信息处理装置得到的所述经训练的机器学习架构进行分类的装置,包括:
特征提取单元,被配置成将待分类图像输入到所述经训练的机器学习架构,以提取所述待分类图像的特征;以及
分类单元,被配置成计算所述待分类图像的特征与类别已知的图像的特征之间的特征相似度,并且将所述待分类图像分类为与其之间的特征相似度最大的类别已知的图像所属的类别。
附记20.根据附记19所述的装置,其中,所述分类单元被配置成将所述待分类图像的特征进行平均,并且基于平均后的特征计算所述特征相似度。

Claims (10)

1.一种信息处理装置,包括:
第一分类损失计算单元,被配置成将训练集中的每个样本图像输入到机器学习架构以获得所述样本图像的第一特征,并使第一分类器基于所述第一特征来计算所述样本图像的第一分类损失;
熵损失计算单元,被配置成基于所述第一特征和预定的第一掩膜计算第二特征,并将所述第二特征输入到所述第一分类器以计算类概率分布的熵损失;
掩膜计算单元,被配置成基于所述第一掩膜和所述熵损失来计算第二掩膜以最大化所述熵损失;
对抗特征获得单元,被配置成基于所述第一特征和所述第二掩膜来获得对抗特征,其中,所述对抗特征是与所述第二特征互补的特征;
第二分类损失计算单元,被配置成以相互关联地训练所述第一分类器和第二分类器的方式,使所述第二分类器基于所述对抗特征来计算所述样本图像的第二分类损失;以及
训练单元,被配置成以使所述第一分类损失和第二分类损失之和最小的方式来调节所述机器学习架构、所述第一分类器以及所述第二分类器的参数,从而获得经训练的机器学习架构。
2.根据权利要求1所述的信息处理装置,其中,所述掩膜计算单元被配置成基于所述熵损失相对于所述第一掩膜的梯度来计算所述第二掩膜。
3.根据权利要求1所述的信息处理装置,其中,所述掩膜计算单元被配置成利用长短期记忆模型LSTM,基于所述熵损失和所述第一掩膜来计算所述第二掩膜。
4.根据权利要求1所述的信息处理装置,其中,相互关联地训练所述第一分类器和所述第二分类器包括:所述第二分类器的参数包括所述第一分类器的参数,并且使所述第二分类器仅基于所述对抗特征来计算所述样本图像的第二分类损失,或者,相互关联地训练所述第一分类器和所述第二分类器包括:所述第二分类器的参数不包括所述第一分类器的参数,并且使所述第二分类器基于所述第二特征和所述对抗特征两者来计算所述样本图像的第二分类损失。
5.根据权利要求1所述的信息处理装置,其中,所述对抗特征获得单元被配置成通过将所述第一特征与所述第二掩膜相乘后得到的特征进行平均,得到所述对抗特征。
6.根据权利要求1所述的信息处理装置,其中,所述熵损失计算单元被配置成将所述第一特征与所述第一掩膜相乘后得到的特征进行平均,得到所述第二特征。
7.根据权利要求1所述的信息处理装置,其中,所述第一特征是三维特征。
8.根据权利要求1所述的信息处理装置,其中,所述机器学习架构是神经网络架构。
9.一种信息处理方法,包括:
第一分类损失计算步骤,将训练集中的每个样本图像输入到机器学习架构以获得所述样本图像的第一特征,并使第一分类器基于所述第一特征来计算所述样本图像的第一分类损失;
熵损失计算步骤,基于所述第一特征和预定的第一掩膜计算第二特征,并将所述第二特征输入到所述第一分类器以计算类概率分布的熵损失;
掩膜计算步骤,基于所述第一掩膜和所述熵损失来计算第二掩膜以最大化所述熵损失;
对抗特征获得步骤,基于所述第一特征和所述第二掩膜来获得对抗特征,其中,所述对抗特征是与所述第二特征互补的特征;
第二分类损失计算步骤,以相互关联地训练所述第一分类器和第二分类器的方式,使所述第二分类器基于所述对抗特征来计算所述样本图像的第二分类损失;以及
训练步骤,以使所述第一分类损失和第二分类损失之和最小的方式来调节所述机器学习架构、所述第一分类器以及所述第二分类器的参数,从而获得经训练的机器学习架构。
10.一种利用根据权利要求1-8中任一项所述的信息处理装置得到的所述经训练的机器学习架构进行分类的装置,包括:
特征提取单元,被配置成将待分类图像输入到所述经训练的机器学习架构,以提取所述待分类图像的特征;以及
分类单元,被配置成计算所述待分类图像的特征与类别已知的图像的特征之间的特征相似度,并且将所述待分类图像分类为与其之间的特征相似度最大的类别已知的图像所属的类别。
CN201910217426.5A 2019-03-21 2019-03-21 信息处理装置和信息处理方法 Pending CN111723833A (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201910217426.5A CN111723833A (zh) 2019-03-21 2019-03-21 信息处理装置和信息处理方法
US16/744,220 US11200464B2 (en) 2019-03-21 2020-01-16 Information processing apparatus and information processing method
JP2020008297A JP2020155101A (ja) 2019-03-21 2020-01-22 情報処理装置及び情報処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910217426.5A CN111723833A (zh) 2019-03-21 2019-03-21 信息处理装置和信息处理方法

Publications (1)

Publication Number Publication Date
CN111723833A true CN111723833A (zh) 2020-09-29

Family

ID=72514527

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910217426.5A Pending CN111723833A (zh) 2019-03-21 2019-03-21 信息处理装置和信息处理方法

Country Status (3)

Country Link
US (1) US11200464B2 (zh)
JP (1) JP2020155101A (zh)
CN (1) CN111723833A (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11275972B2 (en) * 2019-11-08 2022-03-15 International Business Machines Corporation Image classification masking
US11475304B2 (en) * 2020-05-12 2022-10-18 International Business Machines Corporation Variational gradient flow
US11978247B2 (en) * 2020-11-12 2024-05-07 Objectvideo Labs, Llc Adversarial masks for scene-customized false detection removal

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107818314A (zh) * 2017-11-22 2018-03-20 北京达佳互联信息技术有限公司 脸部图像处理方法、装置及服务器
CN108335313A (zh) * 2018-02-26 2018-07-27 阿博茨德(北京)科技有限公司 图像分割方法及装置
CN108875818A (zh) * 2018-06-06 2018-11-23 西安交通大学 基于变分自编码机与对抗网络结合的零样本图像分类方法
US10185895B1 (en) * 2017-03-23 2019-01-22 Gopro, Inc. Systems and methods for classifying activities captured within images

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10753997B2 (en) * 2017-08-10 2020-08-25 Siemens Healthcare Gmbh Image standardization using generative adversarial networks
US11030486B2 (en) * 2018-04-20 2021-06-08 XNOR.ai, Inc. Image classification through label progression
US20200285888A1 (en) * 2019-03-08 2020-09-10 Myntra Designs Private Limited Domain adaptation system and method for identification of similar images
US10430946B1 (en) * 2019-03-14 2019-10-01 Inception Institute of Artificial Intelligence, Ltd. Medical image segmentation and severity grading using neural network architectures with semi-supervised learning techniques

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10185895B1 (en) * 2017-03-23 2019-01-22 Gopro, Inc. Systems and methods for classifying activities captured within images
CN107818314A (zh) * 2017-11-22 2018-03-20 北京达佳互联信息技术有限公司 脸部图像处理方法、装置及服务器
CN108335313A (zh) * 2018-02-26 2018-07-27 阿博茨德(北京)科技有限公司 图像分割方法及装置
CN108875818A (zh) * 2018-06-06 2018-11-23 西安交通大学 基于变分自编码机与对抗网络结合的零样本图像分类方法

Also Published As

Publication number Publication date
US11200464B2 (en) 2021-12-14
US20200302246A1 (en) 2020-09-24
JP2020155101A (ja) 2020-09-24

Similar Documents

Publication Publication Date Title
JP7185039B2 (ja) 画像分類モデルの訓練方法、画像処理方法及びその装置、並びにコンピュータプログラム
CN110443818B (zh) 一种基于涂鸦的弱监督语义分割方法与***
US10878284B2 (en) Method and apparatus for training image model, and method and apparatus for category prediction
CN111723833A (zh) 信息处理装置和信息处理方法
CN113887538B (zh) 模型训练、人脸识别方法、电子设备及存储介质
CN110738247A (zh) 一种基于选择性稀疏采样的细粒度图像分类方法
WO2021157330A1 (ja) 計算機、識別器の学習方法、および分析システム
JP6926934B2 (ja) 分類タスクの複雑度の評価装置及び方法
CN114841257A (zh) 一种基于自监督对比约束下的小样本目标检测方法
Zheng et al. Improvement of grayscale image 2D maximum entropy threshold segmentation method
Wang et al. A novel neural network approach to cDNA microarray image segmentation
CN111223128A (zh) 目标跟踪方法、装置、设备及存储介质
WO2015146113A1 (ja) 識別辞書学習システム、識別辞書学習方法および記録媒体
Ray et al. Cuckoo search with differential evolution mutation and Masi entropy for multi-level image segmentation
Shahriyar et al. An approach for multi label image classification using single label convolutional neural network
CN111191781A (zh) 训练神经网络的方法、对象识别方法和设备以及介质
Morvan et al. Supervised quantile normalisation
Bai et al. A unified deep learning model for protein structure prediction
US11328179B2 (en) Information processing apparatus and information processing method
Zerrouk et al. Evolutionary algorithm for optimized CNN architecture search applied to real-time boat detection in aerial images
Abdulsahib et al. A double clustering approach for color image segmentation
Vellasques et al. A dual-purpose memory approach for dynamic particle swarm optimization of recurrent problems
Cai et al. Application and research progress of machine learning in Bioinformatics
JP7221892B2 (ja) 学習装置、学習方法、および学習プログラム
Ling et al. Survival analysis of high-dimensional data with graph convolutional networks and geometric graphs

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
AD01 Patent right deemed abandoned

Effective date of abandoning: 20240220

AD01 Patent right deemed abandoned