CN113255824A - 训练分类模型和数据分类的方法和装置 - Google Patents

训练分类模型和数据分类的方法和装置 Download PDF

Info

Publication number
CN113255824A
CN113255824A CN202110658623.8A CN202110658623A CN113255824A CN 113255824 A CN113255824 A CN 113255824A CN 202110658623 A CN202110658623 A CN 202110658623A CN 113255824 A CN113255824 A CN 113255824A
Authority
CN
China
Prior art keywords
sample
network
concept
characterization
conceptual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110658623.8A
Other languages
English (en)
Other versions
CN113255824B (zh
Inventor
詹忆冰
韩梦雅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jingdong Shuke Haiyi Information Technology Co Ltd
Original Assignee
Jingdong Shuke Haiyi Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jingdong Shuke Haiyi Information Technology Co Ltd filed Critical Jingdong Shuke Haiyi Information Technology Co Ltd
Priority to CN202110658623.8A priority Critical patent/CN113255824B/zh
Publication of CN113255824A publication Critical patent/CN113255824A/zh
Application granted granted Critical
Publication of CN113255824B publication Critical patent/CN113255824B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Software Systems (AREA)
  • Probability & Statistics with Applications (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本公开的实施例公开了训练分类模型和数据分类的方法和装置。该方法的具体实施方式包括:执行以下训练步骤:从样本集中选取至少一个样本;基于概念表征网络提取每个样本的概念表征和每个类别的概念表征;根据每个样本的概念表征与其所属类别的概念表征的距离计算每个样本所属类别的预测概率;根据每个样本所属类别的预测概率和类别标签计算总损失值;若总损失值小于预定阈值,则基于概念表征网络构造分类模型。该实施方式能够从有限的标注样本中学习新类别的鲁棒、可信的知识。

Description

训练分类模型和数据分类的方法和装置
技术领域
本公开的实施例涉及计算机技术领域,具体涉及训练分类模型和数据分类的方法和装置。
背景技术
深度学习由于其优秀的数据学习能力、出色的任务执行性能,已经逐渐被应用到了人们生活、工作、学习的各个行业,比如人脸识别、商品检索等等。然而深度学习由于其模型的复杂性,往往需要海量的带有标签的针对某一任务采集的标注数据,来进行训练,才能获取性能稳定且置信度高的深度学习模型。
然而,现实生活场景中,往往很难获取大量的带有标签的数据:1)部分场景中,比如商品检索场景,虽然有海量的商品数据,但是大部分商品数据并不具备直接的标注,而人工标注数据价格高、费时费力;2)部分场景中,比如医疗场景,部分疾病的数据很难采集大量的样本,比如罕见病可能只能收集一个病人的数据,导致数据多样性不足,无法利用这些数据训练获取泛化性能好的深度模型。
发明内容
本公开的实施例提出了训练分类模型和数据分类的方法和装置。
第一方面,本公开的实施例提供了一种训练分类模型的方法,包括:执行以下训练步骤:从样本集中选取至少一个样本,其中,所述样本集中的样本具有类别标签;基于概念表征网络提取每个样本的概念表征和每个类别的概念表征;根据每个样本的概念表征与其所属类别的概念表征的距离计算每个样本所属类别的预测概率;根据每个样本所属类别的预测概率和类别标签计算总损失值;若总损失值小于预定阈值,则基于概念表征网络构造分类模型。
在一些实施例中,该方法还包括:若总损失值不小于预定阈值,则调整概念表征网络的相关参数,继续执行训练步骤。
在一些实施例中,基于概念表征网络提取每个样本的概念表征和每个类别的概念表征,包括:基于概念表征网络提取每个样本的概念表征;将类别标签相同的样本的概念表征聚类,得到每个类别的概念表征。
在一些实施例中,概念表征网络包括特征提取网络、区域自注意力机制网络和概念聚合池化网络;以及基于概念表征网络提取每个样本的概念表征和每个类别的概念表征,包括:将至少一个样本分别输入特征提取网络,得到每个样本的区域特征;将每个样本的区域特征分别输入区域自注意力机制网络,得到每个样本的增强区域特征;将每个样本的增强区域特征分别输入概念聚合池化网络,得到每个样本的概念表征;将类别标签相同的样本的概念表征聚类,得到每个类别的概念表征。
在一些实施例中,该方法还包括:根据样本集应用的领域的计算量选择网络层数与计算量正相关的特征提取网络。
在一些实施例中,将每个样本的区域特征分别输入区域自注意力机制网络,得到每个样本的增强区域特征,包括:将每个样本的区域特征的位置信息分别进行编码,得到每个样本的位置编码;将每个样本的区域特征分别计算全局平均特征,得到每个样本的全局上下文信息;将每个样本的区域特征、位置编码和全局上下文信息构成每个样本的区域信息;将每个样本的区域信息分别输入区域自注意力机制网络,得到每个样本的增强区域特征。
在一些实施例中,将每个样本的增强区域特征分别输入概念聚合池化网络,得到每个样本的概念表征,包括:将每个样本的增强区域特征分别输入注意力池化网络,得到每个样本的第一概念表征;将每个样本的增强区域特征分别进行平均池化,得到每个样本的第二概念表征;将每个样本的第一概念表征和第二概念表征的加权和确定为每个样本的概念表征。
在一些实施例中,类别标签为平滑后的标签。
第二方面,本公开的实施例提供了一种数据分类方法,包括:获取待分类的目标数据和至少一种类别的样本数据集;将目标数据和样本数据集输入采用如第一方面中任一项的方法生成的分类模型,输出目标数据所属类别的预测概率。
第三方面,本公开的实施例提供了一种训练分类模型的装置,包括:选取单元,被配置成从样本集中选取至少一个样本,其中,所述样本集中的样本具有类别标签;提取单元,被配置成基于概念表征网络提取每个样本的概念表征和每个类别的概念表征;预测单元,被配置成根据每个样本的概念表征与其所属类别的距离计算每个样本所属类别的预测概率;计算单元,被配置成根据每个样本所属类别的预测概率和类别标签计算总损失值;循环单元,被配置成若所述总损失值小于预定阈值,则基于所述概念表征网络构造分类模型。
第四方面,本公开的实施例提供了一种数据分类装置,包括:获取单元,被配置成获取待分类的目标数据和至少一种类别的样本数据集;分类单元,被配置成将目标数据和样本数据集输入采用如第一方面中任一项的方法生成的分类模型,输出目标数据所属类别的预测概率。
第五方面,本公开的实施例提供了一种用于输出信息的电子设备,包括:一个或多个处理器;存储装置,其上存储有一个或多个计算机程序,当一个或多个计算机程序被一个或多个处理器执行,使得一个或多个处理器实现如第一方面和第二方面中任一项的方法。
第六方面,本公开的实施例提供了一种计算机可读介质,其上存储有计算机程序,其中,计算机程序被处理器执行时实现如第一方面和第二方面中任一项的方法。
本公开的实施例提供的训练分类模型和数据分类的方法和装置,通过对样本的概念表征以及类别的概念表征的学习,增加了与概念有关信息的权重,并且消除背景、噪声、与样本无关的信息对概念表征的影响,可解决小样本条件下,数据内容包含概念无关信息时,如何进一步鲁棒的获取单个数据的概念表征的问题。并通过汇总单个数据的概念表征得到整个类别的数据的概念表征。以图像为例,即将图像的局部区域视为图像的信息基本单位,利用自适应的方法,识别并汇总具有概念相关信息的区域信息。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本公开的其它特征、目的和优点将会变得更明显:
图1是本公开可以应用于其中的示例性***架构图;
图2是根据本公开训练分类模型的方法的一个实施例的流程图;
图3是根据本公开训练分类模型的方法的一个应用场景的示意图;
图4是根据本公开训练分类模型的装置的一个实施例的结构示意图;
图5是根据本公开数据分类方法的一个实施例的流程图;
图6是根据本公开数据分类装置的一个实施例的结构示意图;
图7是适于用来实现本公开实施例的电子设备的计算机***的结构示意图。
具体实施方式
下面结合附图和实施例对本公开作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。
需要说明的是,在不冲突的情况下,本公开中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本公开。
图1示出了可以应用本公开实施例的训练分类模型的方法、训练分类模型的装置、数据分类的方法或数据分类的装置的示例性***架构100。
如图1所示,***架构100可以包括终端101、102,网络103、数据库服务器104和服务器105。网络103用以在终端101、102,数据库服务器104与服务器105之间提供通信链路的介质。网络103可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户110可以使用终端101、102通过网络103与服务器105进行交互,以接收或发送消息等。终端101、102上可以安装有各种客户端应用,例如模型训练类应用、数据分类应用、购物类应用、支付类应用、网页浏览器和即时通讯工具等。
这里的终端101、102可以是硬件,也可以是软件。当终端101、102为硬件时,可以是具有显示屏的各种电子设备,包括但不限于智能手机、平板电脑、电子书阅读器、MP3播放器(Moving Picture Experts Group Audio Layer III,动态影像专家压缩标准音频层面3)、膝上型便携计算机和台式计算机等等。当终端101、102为软件时,可以安装在上述所列举的电子设备中。其可以实现成多个软件或软件模块(例如用来提供分布式服务),也可以实现成单个软件或软件模块。在此不做具体限定。
当终端101、102为硬件时,其上还可以安装有图像采集设备。图像采集设备可以是各种能实现采集图像功能的设备,如摄像头、传感器等等。用户110可以利用终端101、102上的图像采集设备来采集图像。
数据库服务器104可以是提供各种服务的数据库服务器。例如数据库服务器中可以存储有样本集。样本集中包含有少量的样本。其中,样本具有类别标签。这样,用户110也可以通过终端101、102,从数据库服务器104所存储的样本集中选取样本。
服务器105也可以是提供各种服务的服务器,例如对终端101、102上显示的各种应用提供支持的后台服务器。后台服务器可以利用终端101、102发送的样本集中的样本,对初始模型进行训练,并可以将训练结果(如生成的分类模型)发送给终端101、102。这样,用户可以应用生成的分类模型进行数据分类。
这里的数据库服务器104和服务器105同样可以是硬件,也可以是软件。当它们为硬件时,可以实现成多个服务器组成的分布式服务器集群,也可以实现成单个服务器。当它们为软件时,可以实现成多个软件或软件模块(例如用来提供分布式服务),也可以实现成单个软件或软件模块。在此不做具体限定。数据库服务器104和服务器105也可以为分布式***的服务器,或者是结合了区块链的服务器。数据库服务器104和服务器105也可以是云服务器,或者是带人工智能技术的智能云计算服务器或智能云主机。
需要说明的是,本公开实施例所提供的训练分类模型的方法或数据分类的方法一般由服务器105执行。相应地,训练分类模型的装置或数据分类的装置一般也设置于服务器105中。
需要指出的是,在服务器105可以实现数据库服务器104的相关功能的情况下,***架构100中可以不设置数据库服务器104。
应该理解,图1中的终端、网络、数据库服务器和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端、网络、数据库服务器和服务器。
继续参见图2,其示出了根据本公开的训练分类模型的方法的一个实施例的流程200。该训练分类模型的方法可以包括以下步骤:
步骤201,从样本集中选取至少一个样本。
在本实施例中,训练分类模型的方法的执行主体(例如图1所示的服务器105)可以通过多种方式来获取样本集。例如,执行主体可以通过有线连接方式或无线连接方式,从数据库服务器(例如图1所示的数据库服务器104)中获取存储于其中的现有的样本集。再例如,用户可以通过终端(例如图1所示的终端101、102)来收集样本。这样,执行主体可以接收终端所收集的样本,并将这些样本存储在本地,从而生成样本集。
在这里,样本集中可以包括至少一个样本,每个样本具有类别标签。样本集可包括多种类别的样本。但每种类别的样本数量可能不太多,因此可以解决小样本的模型训练问题。每次训练的模型属于同一领域,例如,图像数据的分类模型获取的样本为带有类别标签的图像。不同的图像可具有不同的类别标签,例如,猫、狗、树、车等。
在本实施例中,执行主体可以从获取的样本集中选取一批样本,以及执行步骤202至步骤206的训练步骤。其中,样本的选取方式和选取数量在本公开中并不限制。例如可以是随机选取一批属于同一类别的样本,也可以随机选取一批属于多个类别的样本。
步骤202,基于概念表征网络提取每个样本的概念表征和每个类别的概念表征。
在本实施例中,概念表征网络是一种神经网络模型,用于从样本中提取出概念表征。比如利用多层卷积神经网络CNN模型提取样本的特性信息。可以根据不同应用领域的特性,采用不同的网络结构,比如简单的多层感知机,LSTM,Transformer等,提取样本的特性信息。应用领域所需的计算量越大,则选择网络层数越多的网络结构。
可直接将样本的特性信息作为概念表征。基于概念表征网络提取每个样本的概念表征。然后将类别标签相同的样本的概念表征聚类,得到每个类别的概念表征。
可选地,还可将提取到的特性信息进行增强后作为概念表征。增强后的概念表征可进一步增强可信的样本特征,弱化不可信的样本特征。从而提高模型的可信度。
在本实施例的一些可选地实现方式中,概念表征网络包括特征提取网络、区域自注意力机制网络和概念聚合池化网络;以及基于概念表征网络提取每个样本的概念表征,包括:
S2021,将所述至少一个样本分别输入特征提取网络,得到每个样本的区域特征。
在本实施例中,可根据样本集应用的领域选择相应的特征提取网络。例如,图像领域采用CNN作为特征提取网络。
假设提取的一幅图像的信息表征如下:
Figure BDA0003114348520000071
其中,x代表一幅图像,F为映射函数,θ为训练参数。h,w,c分别为最后一层输出的长、宽、以及特征的维度。则CNN网络输出的每一个单元自发的对应了重点关注了图像的一个对应局部区域。从而我们可以将一幅图像分为h·w个块,每个块的表征定义为ri∈Rc其中i代表
Figure BDA0003114348520000072
中第i个区域的特征。其中i=1,2…,h·w。
S2022,将每个样本的区域特征分别输入区域自注意力机制网络,得到每个样本的增强区域特征。
在本实施例中,首先,利用基于区域的自注意力机制网络获取每个区域的加强表征。假设所有的ri构成一个完整的集合R。
由于区域自注意力机制网络不具备对区域位置信息建模的能力,首先设计了一种针对二维图形的新的位置信息描述编码。其为两个one-hot向量编码,分别描述该对应区域在CNN输出的h×w图像块中的第几行第几列。比如一个one-hot向量描述的是该区域是图像中长h中对应的元素,则在第j个长度的位置,该one-hot向量值为1,其余位置为0。另一个one-hot向量同等对待。最终的表示形式如下:
Figure BDA0003114348520000081
则上述代表,第i·w+j个区域的位置信息。其中i代表h长中的位置,j代表w宽中的位置。然后利用神经网络,比如简单的线性变换,获取该区域的位置信息编码,其定义为
Figure BDA0003114348520000085
其次,注意到自注意力网络或者TransformerLayer(转换器层)需要多层迭代才能获取全局的信息,从而获取更为鲁棒的结果。而多层的自注意力网络或者TransformerLayer需要大量的训练数据,这是小样本数据集中所不能提供的。可直接使用区域的特征和区域的位置编码作为区域特征。
可选地,为了在浅层的网络中也能引入全局信息,进一步引入了全局平均特征,作为全局的上下文信息,以获取更好的感知结果。全局的上下文信息定义如下:
Figure BDA0003114348520000082
则汇总区域的特征、区域的位置编码、全局上下文信息构成了新的区域信息,其定义如下:
Figure BDA0003114348520000083
此时,可利用TransformerLayer提供的自注意力机制,使得不同区域的特征能相互感知,其过程定义为:
Re=FFN(Attention(Rn))
其中,自注意力机制定义为:
Figure BDA0003114348520000084
前馈神经网络定义为:
FFN(R)=W2σ(W1R+b1)+b2
为了获取更为鲁棒的结果,可采用常用的残差和Layer Normalization(层归一化)。自注意力机制和前馈神经网络都是现有技术,其公式中相关参数为公知常识,因此不再赘述。通过残差和Layer Normalization可进一步提高分类模型的可信度。
S2023,将每个样本的增强区域特征分别输入概念聚合池化网络,得到每个样本的概念表征。
在本实施例中,在获取区域增强的表征之后,可通过概念池化聚合网络获取最终图像的概念表示。概念池化聚合网络可进行注意力池化或平均池化。也可同时进行注意力池化和平均池化。首先是注意力池化方式,其定义如下:
Figure BDA0003114348520000091
其中
Figure BDA0003114348520000092
M=Sigmoid(Φ2σ(Φ1Re))),
其中,M是学习得到权重向量,每个权重值mi的范围是0-1,采用上面的归一化操作得到注意力权重ai,其中
Figure BDA0003114348520000093
这里的σ是非线性激活函数ReLU,与前馈神经网络中采用同一种激活函数。
注意力机制池化机制,是为了将具有概念信息(可信)的区域信息突出,并减弱具有概念无无关信息(即不可信)的区域信息减弱。因此可以保证可信的概念信息能够被有效利用,即使在小样本的场景下也不影响模型的可信度。
但是注意力池化机制可能会过于集中在部分概念信息较强的区域,从而忽略其他区域可能提供的有价值的信息,因此,可进一步采取平均池化作为注意力池化的补充,获取更为鲁棒的聚类结果。平均池化也由G(Re)计算得出。
则最终的概念聚类结果为:
Figure BDA0003114348520000094
其中,α是一个权重调节参数,以调节平均池化和注意力池化的重要性。
将类别标签相同的样本的概念表征聚类,得到每个类别的概念表征。
在本实施例中,一个类别的概念表征定义为:
Figure BDA0003114348520000101
其中,Sk代表第K类的集合,
Figure BDA0003114348520000102
代表属于Sk的图像,|Sk|代表K类集合的数量。
Figure BDA0003114348520000103
代表图像
Figure BDA0003114348520000104
的真实标签,a是图像在样本集里的序号。
步骤203,根据每个样本的概念表征与其所属类别的概念表征的距离计算每个样本所属类别的预测概率。
在本实施例中,计算每个样本的概念表征与其所属类别的概念表征之间的距离(包括但不限于欧氏距离、余弦距离等)作为每个样本的距离。将每个样本的距离输入距离度量函数,得到每个样本的预测概率。这个过程可由一个分类器实现。
对于一个样本特征
Figure BDA0003114348520000105
其类别预测概率如下:
Figure BDA0003114348520000106
其中,D表示距离函数(例如,欧氏距离计算公式),b是样本在样本集中的序号代指,q是查询集代指,
Figure BDA0003114348520000107
表示其中一个样本。这些序号是为了与样本
Figure BDA0003114348520000108
区分表示。N是类别的总数。
Figure BDA0003114348520000109
表示样本,
Figure BDA00031143485200001010
表示对应标签。
步骤204,根据每个样本所属类别的预测概率和类别标签计算总损失值。
在本实施例中,可采用聚合损失函数来进一步增强模型的鲁棒性,则最终损失定义如下:
Figure BDA00031143485200001011
其中,L是总损失值,β是聚合损失的系数,
Figure BDA00031143485200001012
可以是实际的样本标签,也可以是平滑后的样本标签(例如,图像的类别为狗,原本属于狗的概率为1,平滑后的标签为属于狗的概率为0.95,属于猫的概率为0.05),nq指的是样本集中样本的总数量。
步骤205,若总损失值小于预定阈值,则基于概念表征网络构造分类模型。
在本实施例中,总损失值用于表示预测结果与真实标签之间的差距。总损失值越小,模型的预测结果越接近真实标签。若总损失值小于预定阈值,则说明概念表征网络训练完成,可将概念表征网络和分类器确定为分类模型。
步骤206,若总损失值不小于预定阈值,则调整概念表征网络的相关参数,继续执行步骤201-206。
在本实施例中,若执行主体确定概念表征网络未训练完成,则可以调整概念表征网络中的相关参数。例如采用反向传播技术修改概念表征网络中各卷积层中的权重。以及可以返回步骤201,从样本集中重新选取样本。从而可以继续执行上述训练步骤。
本实施例中训练分类模型的方法,将单个样本利用一定的网络提取基本的样本局部区域信息表征。然后利用区域自注意力机制网络将局部区域信息表征的信息进行互相融合,从而获取更为可靠的局部区域信息表征。这些增强的局部区域信息表征具有更好的概念表征。最后通过概念聚合池化网络,聚合所有的局部区域信息获取最终的样本概念表征。
样本类别表征则是直接平均属于同一类别的表征获取,如该类别只有一个支持样本,则该样本的概念表征直接用作该类别的概念表征。
通过数据(或者样本、或者商品)等的鲁棒性概念表征学习,其将数据拆分成局部的信息描述,并通过自注意力机制、池化机制获取更为鲁棒的概念表征。从而实现更为可信的小样本分类。
进一步参见图3,图3是根据本实施例的训练分类模型的方法的一个应用场景的示意图。在图3的应用场景中,获取样本集(即图中的支持集)并从中选取2个样本,样本A和样本B,它们具有相同的类别标签X。将这2个样本输入CNN进行特征提取,得到样本A的区域特征和样本B的区域特征,再将样本A和样本B的区域特征、位置编码和全局上下文信息分别通过转换器层,得到样本A加强的区域特征和样本B加强的区域特征。再将加强的区域特征分别输入概念聚合池化网络,得到样本A的概念表征和样本B的概念表征。可将样本A的概念表征和样本B的概念表征进行聚类,得到类别X的概念表征。计算样本A的概念表征和类别X的概念表征之间的距离D1,根据D1确定样本A属于类别X的概率P1。计算样本B的概念表征和类别X的概念表征之间的距离D2,并根据D2确定样本B属于类别X的概率P2。分别计算P1与真实标签的第一损失值和P2与真实标签的第二损失值。第一损失值与第二损失值之和为总损失值。如果总损失值小于预定阈值,则分类模型训练完成。否则从样本集中重新选择样本,继续训练。对于训练完成的分类模型,可将查询样本输入图像和样本A和样本B作为分类模型的输入,可得到查询样本输入图像属于类别X的概率。
请参见图4,其示出了本公开提供的数据分类方法的一个实施例的流程400。该数据分类的方法可以包括以下步骤:
步骤401,获取待分类的目标数据和至少一种类别的样本数据集。
在本实施例中,数据分类的方法的执行主体(例如图1所示的服务器105)可以通过多种方式来获取待分类的目标数据和至少一种类别的样本数据集。例如,执行主体可以通过有线连接方式或无线连接方式,从数据库服务器(例如图1所示的数据库服务器104)中获取存储于其中的样本数据集。再例如,执行主体也可以接收终端(例如图1所示的终端101、102)或其他设备采集的目标数据。
步骤402,将目标数据和样本数据集输入分类模型,输出目标数据所属类别的预测概率。
在本实施例中,执行主体可以将步骤401中获取的目标数据和样本数据集输入分类模型中,从而得到目标数据所属类别的预测概率。例如,目标数据属于猫的概率为0.8,属于狗的概率为0.2。
在本实施例中,分类模型可以是采用如上述图2实施例所描述的方法而生成的。具体生成过程可以参见图2实施例的相关描述,在此不再赘述。
需要说明的是,本实施例数据分类方法可以用于测试上述各实施例所生成的分类模型。进而根据测试结果可以不断地优化分类模型。该方法也可以是上述各实施例所生成的分类模型的实际应用方法。采用上述各实施例所生成的分类模型,来进行数据分类,有助于提高数据分类的可信度。
继续参见图5,作为对上述各图所示方法的实现,本公开提供了一种训练分类模型的装置的一个实施例。该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图5所示,本实施例的训练分类模型的装置500可以包括:选取单元501、提取单元502、预测单元503、计算单元504和循环单元505;选取单元501,被配置成从样本集中选取至少一个样本,其中,所述样本集中的样本具有类别标签;提取单元502,被配置成基于概念表征网络提取每个样本的概念表征和每个类别的概念表征;预测单元503,被配置成根据每个样本的概念表征与其所属类别的距离计算每个样本所属类别的预测概率;计算单元504,被配置成根据每个样本所属类别的预测概率和类别标签计算总损失值;循环单元505,被配置成若所述总损失值小于预定阈值,则基于所述概念表征网络构造分类模型。
在本实施例中,训练分类模型的装置500的选取单元501、提取单元502、预测单元503、计算单元504和循环单元505的具体处理可以参考图2对应实施例中的步骤201、步骤202、步骤203、步骤205。在本实施例的一些可选的实现方式中,循环单元505进一步被配置成:若所述总损失值不小于预定阈值,则调整所述概念表征网络的相关参数,通知选取单元501、提取单元502、预测单元503、计算单元504和循环单元505继续执行步骤201-205。
在本实施例的一些可选的实现方式中,提取单元502进一步被配置成:基于概念表征网络提取每个样本的概念表征;将类别标签相同的样本的概念表征聚类,得到每个类别的概念表征。
在本实施例的一些可选的实现方式中,所述概念表征网络包括特征提取网络、区域自注意力机制网络和概念聚合池化网络;以及提取单元502进一步被配置成:将所述至少一个样本分别输入特征提取网络,得到每个样本的区域特征;将每个样本的区域特征分别输入区域自注意力机制网络,得到每个样本的增强区域特征;将每个样本的增强区域特征分别输入概念聚合池化网络,得到每个样本的概念表征。
在本实施例的一些可选的实现方式中,提取单元502进一步被配置成:根据所述样本集应用的领域的计算量选择网络层数与计算量正相关的特征提取网络。
在本实施例的一些可选的实现方式中,提取单元502进一步被配置成:将每个样本的区域特征的位置信息分别进行编码,得到每个样本的位置编码;将每个样本的区域特征分别计算全局平均特征,得到每个样本的全局上下文信息;将每个样本的区域特征、位置编码和全局上下文信息构成每个样本的区域信息;将每个样本的区域信息分别输入区域自注意力机制网络,得到每个样本的增强区域特征。
在本实施例的一些可选的实现方式中,提取单元502进一步被配置成:将每个样本的增强区域特征分别输入注意力池化网络,得到每个样本的第一概念表征;将每个样本的增强区域特征分别进行平均池化,得到每个样本的第二概念表征;将每个样本的第一概念表征和第二概念表征的加权和确定为每个样本的概念表征。
在本实施例的一些可选的实现方式中,类别标签为平滑后的标签。
继续参见图6,作为对上述图4所示方法的实现,本公开提供了一种数据分类装置的一个实施例。该装置实施例与图4所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图6所示,本实施例的数据分类装置600可以包括:获取单元601和分类单元602。其中,获取单元601,被配置成获取待分类的目标数据和至少一种类别的样本数据集。分类单元602,被配置成将所述目标数据和所述样本数据集输入采用装置500生成的分类模型,输出所述目标数据所属类别的预测概率。
根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质。
一种用于输出信息的电子设备,包括:一个或多个处理器;存储装置,其上存储有一个或多个计算机程序,当所述一个或多个计算机程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如流程200或400所述的方法。
一种计算机可读介质,其上存储有计算机程序,其中,所述计算机程序被处理器执行时实现如流程200或400所述的方法。
图7示出了可以用来实施本公开的实施例的示例电子设备700的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图7所示,设备700包括计算单元701,其可以根据存储在只读存储器(ROM)702中的计算机程序或者从存储单元708加载到随机访问存储器(RAM)703中的计算机程序,来执行各种适当的动作和处理。在RAM703中,还可存储设备700操作所需的各种程序和数据。计算单元701、ROM702以及RAM703通过总线704彼此相连。输入/输出(I/O)接口705也连接至总线704。
设备700中的多个部件连接至I/O接口705,包括:输入单元706,例如键盘、鼠标等;输出单元707,例如各种类型的显示器、扬声器等;存储单元708,例如磁盘、光盘等;以及通信单元709,例如网卡、调制解调器、无线通信收发机等。通信单元709允许设备700通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元701可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元701的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元701执行上文所描述的各个方法和处理,例如用于输出信息的方法。例如,在一些实施例中,用于输出信息的方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元708。在一些实施例中,计算机程序的部分或者全部可以经由ROM702和/或通信单元709而被载入和/或安装到设备700上。当计算机程序加载到RAM703并由计算单元701执行时,可以执行上文描述的用于输出信息的方法的一个或多个步骤。备选地,在其他实施例中,计算单元701可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行用于输出信息的方法。
本文中以上描述的***和技术的各种实施方式可以在数字电子电路***、集成电路***、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上***的***(SOC)、负载可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程***上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储***、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储***、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行***、装置或设备使用或与指令执行***、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体***、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的***和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的***和技术实施在包括后台部件的计算***(例如,作为数据服务器)、或者包括中间件部件的计算***(例如,应用服务器)、或者包括前端部件的计算***(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的***和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算***中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将***的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机***可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以为分布式***的服务器,或者是结合了区块链的服务器。服务器也可以是云服务器,或者是带人工智能技术的智能云计算服务器或智能云主机。服务器可以为分布式***的服务器,或者是结合了区块链的服务器。服务器也可以是云服务器,或者是带人工智能技术的智能云计算服务器或智能云主机。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。

Claims (13)

1.一种训练分类模型的方法,包括:执行以下训练步骤:
从样本集中选取至少一个样本,其中,所述样本集中的样本具有类别标签;
基于概念表征网络提取每个样本的概念表征和每个类别的概念表征;
根据每个样本的概念表征与其所属类别的概念表征的距离计算每个样本所属类别的预测概率;
根据每个样本所属类别的预测概率和类别标签计算总损失值;
若所述总损失值小于预定阈值,则基于所述概念表征网络构造分类模型。
2.根据权利要求1所述的方法,其中,所述方法还包括:
若所述总损失值不小于预定阈值,则调整所述概念表征网络的相关参数,继续执行所述训练步骤。
3.根据权利要求1所述的方法,其中,所述基于概念表征网络提取每个样本的概念表征和每个类别的概念表征,包括:
基于概念表征网络提取每个样本的概念表征;
将类别标签相同的样本的概念表征聚类,得到每个类别的概念表征。
4.根据权利要求3所述的方法,其中,所述概念表征网络包括特征提取网络、区域自注意力机制网络和概念聚合池化网络;以及
所述基于概念表征网络提取每个样本的概念表征,包括:
将所述至少一个样本分别输入特征提取网络,得到每个样本的区域特征;
将每个样本的区域特征分别输入区域自注意力机制网络,得到每个样本的增强区域特征;
将每个样本的增强区域特征分别输入概念聚合池化网络,得到每个样本的概念表征。
5.根据权利要求4所述的方法,其中,所述方法还包括:
根据所述样本集应用的领域的计算量选择网络层数与计算量正相关的特征提取网络。
6.根据权利要求4所述的方法,其中,所述将每个样本的区域特征分别输入区域自注意力机制网络,得到每个样本的增强区域特征,包括:
将每个样本的区域特征的位置信息分别进行编码,得到每个样本的位置编码;
将每个样本的区域特征分别计算全局平均特征,得到每个样本的全局上下文信息;
将每个样本的区域特征、位置编码和全局上下文信息构成每个样本的区域信息;
将每个样本的区域信息分别输入区域自注意力机制网络,得到每个样本的增强区域特征。
7.根据权利要求4所述的方法,其中,所述将每个样本的增强区域特征分别输入概念聚合池化网络,得到每个样本的概念表征,包括:
将每个样本的增强区域特征分别输入注意力池化网络,得到每个样本的第一概念表征;
将每个样本的增强区域特征分别进行平均池化,得到每个样本的第二概念表征;
将每个样本的第一概念表征和第二概念表征的加权和确定为每个样本的概念表征。
8.根据权利要求1-7中任一项所述的方法,其中,所述类别标签为平滑后的标签。
9.一种数据分类方法,包括:
获取待分类的目标数据和至少一种类别的样本数据集;
将所述目标数据和所述样本数据集输入采用如权利要求1-8中任一项所述的方法生成的分类模型,输出所述目标数据所属类别的预测概率。
10.一种训练分类模型的装置,包括:
选取单元,被配置成从样本集中选取至少一个样本,其中,所述样本集中的样本具有类别标签;
提取单元,被配置成基于概念表征网络提取每个样本的概念表征和每个类别的概念表征;
预测单元,被配置成根据每个样本的概念表征与其所属类别的距离计算每个样本所属类别的预测概率;
计算单元,被配置成根据每个样本所属类别的预测概率和类别标签计算总损失值;
循环单元,被配置成若所述总损失值小于预定阈值,则基于所述概念表征网络构造分类模型。
11.一种数据分类装置,包括:
获取单元,被配置成获取待分类的目标数据和至少一种类别的样本数据集;
分类单元,被配置成将所述目标数据和所述样本数据集输入采用如权利要求1-8中任一项所述的方法生成的分类模型,输出所述目标数据所属类别的预测概率。
12.一种用于输出信息的电子设备,包括:
一个或多个处理器;
存储装置,其上存储有一个或多个计算机程序,
当所述一个或多个计算机程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-9中任一项所述的方法。
13.一种计算机可读介质,其上存储有计算机程序,其中,所述计算机程序被处理器执行时实现如权利要求1-9中任一项所述的方法。
CN202110658623.8A 2021-06-15 2021-06-15 训练分类模型和数据分类的方法和装置 Active CN113255824B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110658623.8A CN113255824B (zh) 2021-06-15 2021-06-15 训练分类模型和数据分类的方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110658623.8A CN113255824B (zh) 2021-06-15 2021-06-15 训练分类模型和数据分类的方法和装置

Publications (2)

Publication Number Publication Date
CN113255824A true CN113255824A (zh) 2021-08-13
CN113255824B CN113255824B (zh) 2023-12-08

Family

ID=77187958

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110658623.8A Active CN113255824B (zh) 2021-06-15 2021-06-15 训练分类模型和数据分类的方法和装置

Country Status (1)

Country Link
CN (1) CN113255824B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113673420A (zh) * 2021-08-19 2021-11-19 清华大学 一种基于全局特征感知的目标检测方法及***

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020087974A1 (zh) * 2018-10-30 2020-05-07 北京字节跳动网络技术有限公司 生成模型的方法和装置
US20200151448A1 (en) * 2018-11-13 2020-05-14 Adobe Inc. Object Detection In Images
CN111353542A (zh) * 2020-03-03 2020-06-30 腾讯科技(深圳)有限公司 图像分类模型的训练方法、装置、计算机设备和存储介质
CN111860573A (zh) * 2020-06-04 2020-10-30 北京迈格威科技有限公司 模型训练方法、图像类别检测方法、装置和电子设备
CN111858991A (zh) * 2020-08-06 2020-10-30 南京大学 一种基于协方差度量的小样本学习算法
CN112163465A (zh) * 2020-09-11 2021-01-01 华南理工大学 细粒度图像分类方法、***、计算机设备及存储介质
CN112560999A (zh) * 2021-02-18 2021-03-26 成都睿沿科技有限公司 一种目标检测模型训练方法、装置、电子设备及存储介质
US10963754B1 (en) * 2018-09-27 2021-03-30 Amazon Technologies, Inc. Prototypical network algorithms for few-shot learning
WO2021090518A1 (ja) * 2019-11-08 2021-05-14 日本電気株式会社 学習装置、情報統合システム、学習方法、及び、記録媒体
CN112801265A (zh) * 2020-11-30 2021-05-14 华为技术有限公司 一种机器学习方法以及装置

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10963754B1 (en) * 2018-09-27 2021-03-30 Amazon Technologies, Inc. Prototypical network algorithms for few-shot learning
WO2020087974A1 (zh) * 2018-10-30 2020-05-07 北京字节跳动网络技术有限公司 生成模型的方法和装置
US20200151448A1 (en) * 2018-11-13 2020-05-14 Adobe Inc. Object Detection In Images
WO2021090518A1 (ja) * 2019-11-08 2021-05-14 日本電気株式会社 学習装置、情報統合システム、学習方法、及び、記録媒体
CN111353542A (zh) * 2020-03-03 2020-06-30 腾讯科技(深圳)有限公司 图像分类模型的训练方法、装置、计算机设备和存储介质
CN111860573A (zh) * 2020-06-04 2020-10-30 北京迈格威科技有限公司 模型训练方法、图像类别检测方法、装置和电子设备
CN111858991A (zh) * 2020-08-06 2020-10-30 南京大学 一种基于协方差度量的小样本学习算法
CN112163465A (zh) * 2020-09-11 2021-01-01 华南理工大学 细粒度图像分类方法、***、计算机设备及存储介质
CN112801265A (zh) * 2020-11-30 2021-05-14 华为技术有限公司 一种机器学习方法以及装置
CN112560999A (zh) * 2021-02-18 2021-03-26 成都睿沿科技有限公司 一种目标检测模型训练方法、装置、电子设备及存储介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
冯耀功等: "基于知识的零样本视觉识别综述", 软件学报, vol. 32, no. 2 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113673420A (zh) * 2021-08-19 2021-11-19 清华大学 一种基于全局特征感知的目标检测方法及***
CN113673420B (zh) * 2021-08-19 2022-02-15 清华大学 一种基于全局特征感知的目标检测方法及***

Also Published As

Publication number Publication date
CN113255824B (zh) 2023-12-08

Similar Documents

Publication Publication Date Title
CN113326764B (zh) 训练图像识别模型和图像识别的方法和装置
CN111695415B (zh) 图像识别方法及相关设备
JP7403605B2 (ja) マルチターゲット画像テキストマッチングモデルのトレーニング方法、画像テキスト検索方法と装置
CN112784778B (zh) 生成模型并识别年龄和性别的方法、装置、设备和介质
Diao et al. Object recognition in remote sensing images using sparse deep belief networks
CN111898703B (zh) 多标签视频分类方法、模型训练方法、装置及介质
CN113971751A (zh) 训练特征提取模型、检测相似图像的方法和装置
Gupta et al. A novel finetuned YOLOv6 transfer learning model for real-time object detection
CN113986674A (zh) 时序数据的异常检测方法、装置和电子设备
Aziguli et al. A robust text classifier based on denoising deep neural network in the analysis of big data
CN113806582A (zh) 图像检索方法、装置、电子设备和存储介质
CN115034315A (zh) 基于人工智能的业务处理方法、装置、计算机设备及介质
CN114898266A (zh) 训练方法、图像处理方法、装置、电子设备以及存储介质
Moghaddam et al. Jointly human semantic parsing and attribute recognition with feature pyramid structure in EfficientNets
CN113255824B (zh) 训练分类模型和数据分类的方法和装置
Kong et al. Collaborative model tracking with robust occlusion handling
CN114419327B (zh) 图像检测方法和图像检测模型的训练方法、装置
CN114329016B (zh) 图片标签生成方法和文字配图方法
Cheng et al. Sparse representations based distributed attribute learning for person re-identification
CN114610953A (zh) 一种数据分类方法、装置、设备及存储介质
CN113762298B (zh) 相似人群扩展方法和装置
CN113239215A (zh) 多媒体资源的分类方法、装置、电子设备及存储介质
CN114004314A (zh) 样本分类方法、装置、电子设备及存储介质
CN113326885A (zh) 训练分类模型和数据分类的方法及装置
Jun et al. Two-view correspondence learning via complex information extraction

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information
CB02 Change of applicant information

Address after: 100176 601, 6th floor, building 2, No. 18, Kechuang 11th Street, Daxing Economic and Technological Development Zone, Beijing

Applicant after: Jingdong Technology Information Technology Co.,Ltd.

Address before: 100176 601, 6th floor, building 2, No. 18, Kechuang 11th Street, Daxing Economic and Technological Development Zone, Beijing

Applicant before: Jingdong Shuke Haiyi Information Technology Co.,Ltd.

GR01 Patent grant
GR01 Patent grant