CN112633419B - 小样本学习方法、装置、电子设备和存储介质 - Google Patents
小样本学习方法、装置、电子设备和存储介质 Download PDFInfo
- Publication number
- CN112633419B CN112633419B CN202110252710.3A CN202110252710A CN112633419B CN 112633419 B CN112633419 B CN 112633419B CN 202110252710 A CN202110252710 A CN 202110252710A CN 112633419 B CN112633419 B CN 112633419B
- Authority
- CN
- China
- Prior art keywords
- image
- label
- matrix
- model
- training sample
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 41
- 239000011159 matrix material Substances 0.000 claims abstract description 203
- 239000013598 vector Substances 0.000 claims abstract description 117
- 238000012549 training Methods 0.000 claims abstract description 102
- 238000007781 pre-processing Methods 0.000 claims abstract description 52
- 238000005457 optimization Methods 0.000 claims abstract description 24
- 238000012360 testing method Methods 0.000 claims description 54
- 238000012545 processing Methods 0.000 claims description 24
- 230000006870 function Effects 0.000 claims description 20
- 238000010606 normalization Methods 0.000 claims description 13
- 238000004590 computer program Methods 0.000 claims description 7
- 238000000605 extraction Methods 0.000 claims description 7
- 230000004927 fusion Effects 0.000 abstract description 7
- 238000010586 diagram Methods 0.000 description 7
- 230000000694 effects Effects 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 6
- 230000008569 process Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 238000003058 natural language processing Methods 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000011112 process operation Methods 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 241000282326 Felis catus Species 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000036961 partial effect Effects 0.000 description 1
- 230000008707 rearrangement Effects 0.000 description 1
- 230000002829 reductive effect Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 239000004576 sand Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000010998 test method Methods 0.000 description 1
- 238000013526 transfer learning Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明实施例公开了一种小样本学习方法、装置、电子设备和存储介质。该小样本学习方法包括:根据图像表示模型对图像训练样本集进行编码,得到由每个图像训练样本的图像向量表示构成的图像矩阵;根据标签预处理模型对图像训练样本集的标签进行编码,得到由每个图像训练样本标签的标签向量表示构成的标签矩阵;根据图像矩阵和标签矩阵的损失值进行反向传播,以对图像表示模型和标签预处理模型进行参数优化,得到训练完成的图像表示模型和标签预处理模型。实现了将自然语言任务中的知识引入进图像的特征识别任务中,实现不同任务知识的融合,进而加速在小样本数据集情况下对图像特征的学习,提高小样本数据集下图像特征学习的效率和准确率。
Description
技术领域
本发明实施例涉及机器学习技术领域,尤其涉及一种小样本学习方法、装置、电子设备和存储介质。
背景技术
由于常规的深度学习算法需要大量训练样本集才能实现较好的效果,限制了它在许多领域的应用。
目前,针对小样本训练集的特征学习,常用的技术手段有数据增强、迁移学习、元学习等,但是这些方法仍存在跨领域任务表现差、出现灾难性遗忘等缺点,整体而言在小样本训练集下深度学习的效果并不理想。
发明内容
本发明实施例提供一种小样本学习方法、装置、电子设备和存储介质,以提高小样本情况下的学习效果。
第一方面,本发明实施例提供了一种小样本学习方法,包括:
根据图像表示模型对图像训练样本集进行编码,得到由每个图像训练样本的图像向量表示构成的图像矩阵;
根据标签预处理模型对所述图像训练样本集的标签进行编码,得到由每个图像训练样本标签的标签向量表示构成的标签矩阵;
根据所述图像矩阵和所述标签矩阵的损失值进行反向传播,以对所述图像表示模型和所述标签预处理模型进行参数优化,得到训练完成的图像表示模型和标签预处理模型。
第二方面,本发明实施例还提供了一种小样本学习装置,包括:
图像编码模块,用于根据图像表示模型对图像训练样本集进行编码,得到由每个图像训练样本的图像向量表示构成的图像矩阵;
标签编码模块,用于根据标签预处理模型对所述图像训练样本集的标签进行编码,得到由每个图像训练样本标签的标签向量表示构成的标签矩阵;
模型优化模块,用于根据所述图像矩阵和所述标签矩阵的损失值进行反向传播,以对所述图像表示模型和所述标签预处理模型进行参数优化,得到训练完成的图像表示模型和标签预处理模型。
第三方面,本发明实施例还提供了一种电子设备,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如本发明任一实施例所述的小样本学习方法。
第四方面,本发明实施例还提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如本发明任一实施例所述的小样本学习方法。
本发明实施例对图像以及图像标签进行编码得到图像矩阵和标签矩阵,通过图像矩阵和标签矩阵共同确定损失值进行反向传播,对模型参数进行优化。实现了将自然语言任务中的知识引入进图像的特征识别任务中,实现不同任务知识的融合,进而加速在小样本数据集情况下对图像特征的学习,提高小样本数据集下图像特征学习的效率和准确率。
附图说明
图1是本发明实施例一中的小样本学习方法的流程图;
图2是根据标签预处理模型对图像训练样本集的标签进行编码的过程示意图;
图3是本发明实施例二中的小样本学习方法的流程图;
图4是本发明实施例三中的小样本学习装置的结构示意图;
图5是本发明实施例四中的电子设备的结构示意图。
具体实施方式
下面结合附图和实施例对本发明作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释本发明,而非对本发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本发明相关的部分而非全部结构。
实施例一
图1是本发明实施例一中的小样本学习方法的流程图,本实施例可适用于对在小样本数据集上进行图像分类训练的情况。该方法可以由小样本学习装置来执行,该装置可以采用软件和/或硬件的方式实现,并可配置在电子设备中,例如电子设备可以是后台服务器等具有通信和计算能力的设备。如图1所示,该方法具体包括:
步骤101、根据图像表示模型对图像训练样本集进行编码,得到由每个图像训练样本的图像向量表示构成的图像矩阵。
其中,图像表示模型用于对图像中的特征进行学习提取,示例性的,图像表示模型可以是由卷积神经网络构成的编码器。图像训练样本集由此次图像特征学习任务的完整数据集中的部分图像构成。示例性的,将完整数据集划分为训练集和测试集,其中,训练集和测试集中的类别不重复,在不同的场景训练中分别从训练集中所有类别中随机选取n个类别,再从n类中每个类中随机选取m个样本,由n*m个样本构成图像训练样本集。可选的,对于随机选取的n个类别小于完整数据集中所有类别的总数,以保证后续测试时从剩余类别中选择图像作为测试样本集。对从每个类别中随机选取的数量不作限制,可以相同或者不相同,根据各类别中图像总数进行确定。图像向量表示由字符构成,对单幅图像的特征进行描述。图像矩阵由字符构成,对图像训练样本集中的所有图像的特征进行描述。示例性的,图像矩阵由图像向量表示按行堆叠构成。
具体的,将图像训练样本集中每个图像依次输入到卷积神经网络构成的图像表示模型中,由图像表示模型输出每个图像的图像向量表示,即每张图像对应一个图像向量表示,最后将所有图像的图像向量表示按行拼接构成图像矩阵,记为embeddings_x。示例性的,图像向量表示为多列1行的向量,则图像矩阵中每一行为一个图像的图像向量表示。对于卷积神经网络的具体结构在本发明实施例中并不限制。
步骤102、根据标签预处理模型对图像训练样本集的标签进行编码,得到由每个图像训练样本标签的标签向量表示构成的标签矩阵。
对于本发明实施例中的完整数据集中的图像样本带有各自的标签,该标签用于对学习任务的结果进行描述。示例性的,小样本学习任务为图像分类任务,则各图像样本标签为图像分类结果,标签通过若干单词组成。
相关技术中,通常在图像分类任务中会将类别标签表示为数字索引或独热向量,即单词编号作为索引位置的元素设置为1其余位置均设置为0的向量,但显然由于所有单词向量互相正交,无法通过这种独热向量得知单词的相似性。在本发明实施例中,基于标签预处理模型对标签进行编码,获取标签单次的相似性特征,根据该特征确定标签向量表示。最后将所有图像标签的标签向量表示按行拼接构成标签矩阵,记为embeddings_y。示例性的,标签向量表示为多列1行的向量,则标签矩阵中每一行为一个图像标签的标签向量表示。
其中,标签预处理模型基于自然语言语义特征提取模型构建,基于自然语言语义特征提取模型实现对标签单词的语义特征信息的学习,根据提取出的语义信息确定单词间的关系,进而确定标签之间的相似性。实现将图像标签语义信息引入到图像分类任务中。示例性的,标签预处理模型基于GloVe模型构建,GloVe模型是一种词向量表示的模型,将描述单词的向量维度减小到了50至300维,且较好地提取了单词的语义特征信息,因而可以通过向量间的关系推断出单词间的关系,利于计算机进行自然语言的处理。
标签向量表示由字符构成,对单幅图像的标签语义信息进行描述,单幅图像的标签单词为至少一个,每幅图像的标签形成一个标签向量表示。标签矩阵由字符构成,对图像训练样本集中的所有图像的标签特征进行描述。示例性的,标签矩阵由标签向量表示按行堆叠构成。
在一个可行的实施例中,图像训练样本集为完整数据集的子集;
相应的,步骤102,包括:
确定完整数据集的完整标签信息;
根据完整标签信息和原始词向量模型,确定完整词向量表示;
根据图像训练样本集的标签和完整标签信息,确定训练样本标签信息;
根据训练样本标签信息和完整词向量表示,确定由每个图像训练样本标签的标签向量表示构成的标签矩阵。
其中,完整数据集为针对此次学习任务所获取到的所有数据集,即小样本。图像训练样本集为从完整数据集中随机选取的部分图像样本,以保证后续确定图像测试样本集时,与图像训练样本集不相同,进而保证测试结果的准确性。
其中,完整标签信息中包括完整数据集中所有图像的标签信息,示例性的,将完整数据集中出现的标签单词组成不重复的列表Word-list,即为完整标签信息。原始词向量模型为基于自然语言语义特征提取模型,例如GloVe模型。
具体的,在确定完整标签信息后,将完整标签信息输入到原始词向量模型中,由原始词向量模型提取各标签单词的语义信息,并根据语义信息确定每个标签单词的词向量表示,最后形成完整标签信息的完整词向量表示。示例性的,通过Word-list在GloVe词向量模型中搜寻到感兴趣的单词-向量对,将其组成矩阵K-V,即视单词为关键字key,对应的词向量为value,K-V矩阵即作为完整词向量表示。
由于图像训练样本集是完整数据集的子集,因此在完整标签信息中存在图像训练样本集中没有的标签单词信息。获取图像训练样本集中各图像的标签,按照完整标签信息中的标签表示得到训练样本标签信息,根据训练样本标签信息和完整词向量表示的矩阵乘结果确定标签矩阵,标签矩阵中每行的向量为一个图像训练样本标签的标签向量表示。
示例性的,针对当前训练批次的图像训练样本集中的标签单词Y,先按Y中每个标签单词在Word-list中的出现顺序将标签单词转化为由0和1组成的向量,例如,Y中的标签单词为cat,该单词在Word-list中的出现顺序为第二位,则该标签单词对应的向量为除了第二位为1其他位为0的向量,向量的长度等于Word-list中单词总数;当Y中的标签单词为至少两个时,则分别确定各单词在Word-list中的出现顺序,形成的向量中在对应位置设置为1,其他位置为0。
转化完成后图像训练样本集中所有标签则形成矩阵Yword-hot,Yword-hot中每行为一个标签,行的数量为图像训练样本集中的样本数量。对Yword-hot矩阵进行行方向归一化处理(norm)形成矩阵Ynorm,Ynorm矩阵中各元素值为Yword-hot矩阵中对应位置元素除以该元素所在Yword-hot矩阵行的和,使Ynorm矩阵每行元素之和为1,最后将Ynorm矩阵和K-V矩阵做矩阵乘,得到标签矩阵embeddings_y,标签矩阵embeddings_y中每行表示一个图像训练样本标签的标签向量表示。如图2所示为根据标签预处理模型preprocess对图像训练样本集的标签Y进行编码得到标签矩阵embeddings_y的过程示意图。
步骤103、根据图像矩阵和标签矩阵的损失值进行反向传播,以对图像表示模型和标签预处理模型进行参数优化,得到训练完成的图像表示模型和标签预处理模型。
其中,损失值根据预先设置的损失函数进行确定,用于表示从图像特征中学习到的信息与从标签语义特征中学习到的信息之间的差距。通过损失值反映的差距进行反向传播,对图像表示模型和标签预处理模型中的参数进行优化,以使得损失值逐渐降低,直至达到优化次数或者达到预定值,得到训练完成的图像表示模型和标签预处理模型。示例性的,根据图像矩阵和标签矩阵的损失值计算梯度值,利用梯度下降法逐步优化模型参数获得损失值全局最小值,从而实现对图像表示模型和标签预处理模型的参数优化。
在一个可行的实施例中,根据图像矩阵和标签矩阵的损失值进行反向传播,以对标签预处理模型进行参数优化,包括:
根据图像矩阵和标签矩阵的损失值进行反向传播,以对完整词向量表示进行参数优化。
由于完整词向量是根据完整标签信息和原始词向量模型得到,将完整词向量视为标签预处理模型中初始化的矩阵参数,通过损失值反向传播对该矩阵参数进行微调,使得标签向量获得调整,即对完整词向量表示进行参数优化。在该实施例中,由于损失值由图像矩阵和标签矩阵共同获得,因此损失值既包括了自然语言知识,也包括了图像信息知识,通过损失值对由原始词向量模型获得的完整词向量表示进行优化更新,实现了将自然语言知识和图像信息知识的进一步融合,有利于提高小样本学习的效果。
在一个可行的实施例中,在得到训练完成的标签预处理模型之后,还包括:
根据训练完成的标签预处理模型中的完整词向量表示对原始词向量模型进行优化更新。
由于原始词向量模型是根据语料库预先训练的,仅根据单纯的自然语言的语义信息进行训练,因此缺少对更多任务的适应能力。例如GloVe词向量模型仅使用语料库训练得到。而在本发明实施例中训练完成后的标签预处理模型中的完整词向量表示融合了图像信息,更好的表达标签单词的语义信息。因此根据优化后的完整词向量表示对原始词向量模型进行优化更新,可以进一步提高原始词向量模型对更多任务的适应能力。例如,将K-V矩阵与原始GloVe模型进行融合更新。
示例性的,在训练结束后,将经过K-V矩阵按Word-list的词序依次与GloVe模型中的原始词向量求平均向量后更新替换原始词向量,以实现对原始词向量模型的更新。此外,还可能存在某些标签单词在GloVe模型中搜索不到的情况,但经过训练后K-V矩阵中存在该标签单词的词向量表示,将它写入GloVe模型中作为新的行,进一步实现了GloVe模型中知识的更新和全新知识的学习。
本发明实施例既实现了利用自然语言任务学习到的知识增强小样本情况下的图像分类学习效果,同时也通过图像特征进一步提高自然语言任务中语义特征的学习准确性。
在一个可行的实施例中,在根据图像矩阵和标签矩阵的损失值进行反向传播之前,还包括:
对图像矩阵和标签矩阵进行维度一致化处理和归一化处理,得到标准图像矩阵和标准标签矩阵;
相应的,根据图像矩阵和标签矩阵的损失值进行反向传播,包括:
根据标准图像矩阵和标准标签矩阵的损失值进行反向传播。
虽然图像矩阵和标签矩阵中均是每一行对一幅图像进行描述,但是由于单词语义特征和图像特征的提取维度不一致,因此图像矩阵和标签矩阵会存在维度不一致的问题,需要对图像矩阵和标签矩阵进行维度一致化处理,实现图像矩阵和标签矩阵的维度一致,便于后续计算处理。同样,由于两个矩阵的元素的数值很可能不在同一数量级上,因此需要进行归一化处理操作,以提高训练学习的速度。
具体的,借鉴图网络的思想,将图像矩阵embeddings_x的每一行可视为图网络的一个节点,因此embeddings_x又可记为节点矩阵Vx,通过预设距离函数(例如欧式距离函数)得到边矩阵Ex,Ex的第i行第j列元素为Vx的第i行和第j行通过预设距离函数计算得到的距离,因此Ex行数和列数相等均为embeddings_x的行数,即图像样本数量,边矩阵Ex为对图像矩阵进行维度一致化处理后的结果。同理将标签矩阵embeddings_y视为图网络的节点Vy,计算得边矩阵Ey,记为对标签矩阵进行维度一致化处理后的结果。
示例性的,归一化处理可以通过如下函数进行确定:
或者,归一化处理也可以通过如下函数进行确定:
其中,k=x或y,表示对Ex进行归一化处理后的结果,表示对Ey进行归一化处理
后的结果;函数mean()和std()分别表示求矩阵所有元素的均值和标准差,上述公式
中矩阵和标量的减法可视为矩阵逐元素减该标量。
在一个可行的实施例中,根据图像矩阵和标签矩阵的损失值进行反向传播,包括:
基于预先设置的损失函数,计算图像矩阵和标签矩阵的损失值;
根据损失值进行反向传播;
其中,预先设置的损失函数用如下公式进行表示:
通过上述损失函数的公式可以得到图像矩阵所表示的图像特征信息与标签矩阵所表示的单词语义特征信息之间的差距,该损失函数融合了自然语言处理领域训练得到的知识。计算损失值后通过随机梯度下降等优化方法进行反向传播训练模型中的参数。
对于损失函数中的矩阵和矩阵可以用图像矩阵和标签矩阵进行直接表示,但
是由于单词语义特征和图像特征的提取维度不一致,因此图像矩阵和标签矩阵会存在维度
不一致的问题。在一个可行的实施例中,为所述图像矩阵根据图网络计算得到的边矩阵,为所述标签矩阵根据图网络计算得到的边矩阵。
具体的,对于具体的根据图网络计算得到边矩阵的操作步骤可以采用上述实施例中进行维度一致化处理的操作,在此不再赘述。
可选的,由于两个矩阵的元素的数值很可能不在同一数量级上,因此需要进行归
一化处理操作,以提高训练学习的速度。在一个可行的实施例中,为对所述图像矩阵根据
图网络计算得到的边矩阵进行归一化处理得到的标准图像矩阵,为对所述标签矩阵根据
图网络计算得到的边矩阵进行归一化处理得到的标准标签矩阵。对于具体的归一化处理操
作可采用上述实施例中的示例,在此不再赘述。
示例性的,在对图像矩阵和标签矩阵进行维度一致化处理和归一化处理,得到标准图像矩阵和标准标签矩阵后,损失函数公式为:
本发明实施例对图像以及图像标签进行编码得到图像矩阵和标签矩阵,通过图像矩阵和标签矩阵共同确定损失值进行反向传播,对模型参数进行优化。实现了将自然语言任务中的知识引入进图像的特征识别任务中,实现不同任务知识的融合,进而加速在小样本数据集情况下对图像特征的学习,提高小样本数据集下图像特征学习的效率和准确率。
实施例二
图3是本发明实施例二中的小样本学习方法的流程图,本实施例二在实施例一的基础上进行进一步地优化,在得到训练完成的图像表示模型和标签预处理模型之后,对完整数据集中的图像测试样本集进行测试,其中,图像测试样本集为完整数据集的子集。如图3所示,该测试方法包括:
步骤301、将图像测试样本集划分为支持集和查询集;其中,支持集中包括每个支持图像测试样本的标签。
其中,查询集是指需要预测图像分类信息的图像样本集合;支持集是指提供了标签信息的图像样本集合,以给查询中待分类的图像样本提供预测参考。
为了保证测试结果的准确性,图像测试样本集为完整数据集的子集。示例性的,将完整数据集划分为训练集和测试集,其中,训练集和测试集中的类别不重复,在不同的场景训练中分别从测试集中所有类别中随机选取M个类别,分别从M个类别中每个类中随机选取K个带标签标注的样本,由这K*M个样本组成支持集S;再从M类别中每个类别的剩余带标注样本中随机各选取T个样本,由这T*M个样本组成查询集Q。查询集中查询图像测试样本带标签便于后续确定训练结果的准确性。
可选的,为了保证测试结果的准确性,从去除训练集中包括类别的完整数据集中随机选取M个类别,即保证图像训练样本集中的类别与图像测试样本集中的类别不一致。
步骤302、根据训练完成的图像表示模型确定支持集中每个支持图像测试样本的支持图像向量表示,以及查询集中每个查询图像测试样本的查询图像向量表示。
由于训练完成的图像表示模型中是通过自然语言知识和图像知识交互得到的,因此训练完成的图像表示模型中融合了自然语言处理领域训练得到的知识。将支持集S和查询集Q中的所有图像经过训练完成的图像表示模型进行编码,得到每个支持图像测试样本的支持图像向量表示ZS,以及查询集中每个查询图像测试样本的查询图像向量表示ZQ。实现了支持图像向量表示和查询图像向量表示中存在图像自身特征信息和标签单词语义信息交互融合的信息。
步骤303、确定查询集中目标查询图像测试样本的目标查询图像向量表示,与支持集中每一个支持图像测试样本的支持图像向量表示的距离。
目标查询图像测试样本为查询集中任一图像样本,示例性的,依次将查询集中每个图像样本作为目标查询图像测试样本,以确定查询集中各样本的标签预测结果。
具体的,对于查询集ZQ中的每个查询图像测试样本的查询图像向量表示,计算其与支持集ZS中每个支持图像向量表示的距离,距离确定的方法可以参考实施例一中的预设距离函数进行确定。
步骤304、根据距离确定目标查询图像测试样本的标签预测结果。
在得到目标查询图像测试样本与各支持图像测试样本之间的距离后,选取距离最近的支持图像测试样本的标签作为目标查询图像测试样本的标签预测结果。
示例性的,得到支持集中与目标查询图像测试样本最近的预设数量个样本对应的类别,并对这些类别计票,将票数最多的类别作为最终的标签预测结果,若存在票数并列最多的类别则在该类别中随机选取一个作为最终标签预测结果。
本发明实施例通过训练完成的融合了图像知识和自然语言语义知识的图像表示模型对图像测试样本进行编码,最后根据编码后的图像向量表示的距离进行测试。实现了在小样本数据集情况下的图像分类学习任务中,引入其余任务学习到的知识来提升小样本学习的效果,进而提高小样本数据集学习下图像分类结果的准确性。
实施例三
图4是本发明实施例三中的小样本学习装置的结构示意图,本实施例可适用于在小样本数据集上进行图像分类训练的情况。如图4所示,该装置包括:
图像编码模块410,用于根据图像表示模型对图像训练样本集进行编码,得到由每个图像训练样本的图像向量表示构成的图像矩阵;
标签编码模块420,用于根据标签预处理模型对所述图像训练样本集的标签进行编码,得到由每个图像训练样本标签的标签向量表示构成的标签矩阵;
模型优化模块430,用于根据所述图像矩阵和所述标签矩阵的损失值进行反向传播,以对所述图像表示模型和所述标签预处理模型进行参数优化,得到训练完成的图像表示模型和标签预处理模型。
本发明实施例对图像以及图像标签进行编码得到图像矩阵和标签矩阵,通过图像矩阵和标签矩阵共同确定损失值进行反向传播,对模型参数进行优化。实现了将自然语言任务中的知识引入进图像的特征识别任务中,实现不同任务知识的融合,进而加速在小样本数据集情况下对图像特征的学习,提高小样本数据集下图像特征学习的效率和准确率。
可选的,所述图像训练样本集为完整数据集的子集;
相应的,标签编码模块,具体用于:
确定所述完整数据集的完整标签信息;
根据所述完整标签信息和原始词向量模型,确定完整词向量表示;
根据所述图像训练样本集的标签和所述完整标签信息,确定训练样本标签信息;
根据所述训练样本标签信息和所述完整词向量表示,确定由每个图像训练样本标签的标签向量表示构成的标签矩阵。
可选的,模型优化模块,具体用于:
根据所述图像矩阵和所述标签矩阵的损失值进行反向传播,以对所述完整词向量表示进行参数优化。
可选的,所述装置还包括原始词向量模型优化模块,用于:
在得到训练完成的标签预处理模型之后,根据所述训练完成的标签预处理模型中的完整词向量表示对所述原始词向量模型进行优化更新。
可选的,所述装置还包括矩阵处理模块,用于:
在根据所述图像矩阵和所述标签矩阵的损失值进行反向传播之前,对所述图像矩阵和所述标签矩阵进行维度一致化处理和归一化处理,得到标准图像矩阵和标准标签矩阵;
相应的,模型优化模块,具体用于:
根据所述标准图像矩阵和所述标准标签矩阵的损失值进行反向传播。
可选的,模型优化模块,具体用于:
基于预先设置的损失函数,计算所述图像矩阵和所述标签矩阵的损失值;
根据所述损失值进行反向传播;
其中,预先设置的损失函数用如下公式进行表示:
可选的,图像测试样本集为完整数据集的子集;
相应的,所述装置还包括测试模块,具体用于:
在得到训练完成的图像表示模型和标签预处理模型之后,将所述图像测试样本集划分为支持集和查询集;其中,所述支持集中包括每个支持图像测试样本的标签;
根据所述训练完成的图像表示模型确定所述支持集中每个支持图像测试样本的支持图像向量表示,以及所述查询集中每个查询图像测试样本的查询图像向量表示;
确定所述查询集中目标查询图像测试样本的目标查询图像向量表示,与所述支持集中每一个支持图像测试样本的支持图像向量表示的距离;
根据所述距离确定所述目标查询图像测试样本的标签预测结果。
本发明实施例所提供的小样本学习装置可执行本发明任意实施例所提供的小样本学习方法,具备执行小样本学习方法相应的功能模块和有益效果。
实施例四
图5是本发明实施例四提供的一种电子设备的结构示意图。图5示出了适于用来实现本发明实施方式的示例性电子设备12的框图。图5显示的电子设备12仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图5所示,电子设备12以通用计算设备的形式表现。电子设备12的组件可以包括但不限于:一个或者多个处理器或者处理单元16,***存储装置28,连接不同***组件(包括***存储装置28和处理单元16)的总线18。
总线18表示几类总线结构中的一种或多种,包括存储装置总线或者存储装置控制器,***总线,图形加速端口,处理器或者使用多种总线结构中的任意总线结构的局域总线。举例来说,这些体系结构包括但不限于工业标准体系结构(ISA)总线,微通道体系结构(MAC)总线,增强型ISA总线、视频电子标准协会(VESA)局域总线以及***组件互连(PCI)总线。
电子设备12典型地包括多种计算机***可读介质。这些介质可以是任何能够被电子设备12访问的可用介质,包括易失性和非易失性介质,可移动的和不可移动的介质。
***存储装置28可以包括易失性存储装置形式的计算机***可读介质,例如随机存取存储装置(RAM)30和/或高速缓存存储装置32。电子设备12可以进一步包括其它可移动/不可移动的、易失性/非易失性计算机***存储介质。仅作为举例,存储***34可以用于读写不可移动的、非易失性磁介质(图5未显示,通常称为“硬盘驱动器”)。尽管图5中未示出,可以提供用于对可移动非易失性磁盘(例如“软盘”)读写的磁盘驱动器,以及对可移动非易失性光盘(例如CD-ROM, DVD-ROM或者其它光介质)读写的光盘驱动器。在这些情况下,每个驱动器可以通过一个或者多个数据介质接口与总线18相连。存储装置28可以包括至少一个程序产品,该程序产品具有一组(例如至少一个)程序模块,这些程序模块被配置以执行本发明各实施例的功能。
具有一组(至少一个)程序模块42的程序/实用工具40,可以存储在例如存储装置28中,这样的程序模块42包括但不限于操作***、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。程序模块42通常执行本发明所描述的实施例中的功能和/或方法。
电子设备12也可以与一个或多个外部设备14(例如键盘、指向设备、显示器24等)通信,还可与一个或者多个使得用户能与该设备12交互的设备通信,和/或与使得该设备12能与一个或多个其它计算设备进行通信的任何设备(例如网卡,调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口22进行。并且,电子设备12还可以通过网络适配器20与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图5所示,网络适配器20通过总线18与电子设备12的其它模块通信。应当明白,尽管图5中未示出,可以结合电子设备12使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID***、磁带驱动器以及数据备份存储***等。
处理单元16通过运行存储在***存储装置28中的程序,从而执行各种功能应用以及数据处理,例如实现本发明实施例所提供的小样本学习方法,包括:
根据图像表示模型对图像训练样本集进行编码,得到由每个图像训练样本的图像向量表示构成的图像矩阵;
根据标签预处理模型对所述图像训练样本集的标签进行编码,得到由每个图像训练样本标签的标签向量表示构成的标签矩阵;
根据所述图像矩阵和所述标签矩阵的损失值进行反向传播,以对所述图像表示模型和所述标签预处理模型进行参数优化,得到训练完成的图像表示模型和标签预处理模型。
实施例五
本发明实施例五还提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如本发明实施例所提供的小样本学习方法,包括:
根据图像表示模型对图像训练样本集进行编码,得到由每个图像训练样本的图像向量表示构成的图像矩阵;
根据标签预处理模型对所述图像训练样本集的标签进行编码,得到由每个图像训练样本标签的标签向量表示构成的标签矩阵;
根据所述图像矩阵和所述标签矩阵的损失值进行反向传播,以对所述图像表示模型和所述标签预处理模型进行参数优化,得到训练完成的图像表示模型和标签预处理模型。
本发明实施例的计算机存储介质,可以采用一个或多个计算机可读的介质的任意组合。计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质。计算机可读存储介质例如可以是但不限于电、磁、光、电磁、红外线、或半导体的***、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本文件中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行***、装置或者器件使用或者与其结合使用。
计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行***、装置或者器件使用或者与其结合使用的程序。
计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本发明操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言诸如”C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络包括局域网(LAN)或广域网(WAN)连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
注意,上述仅为本发明的较佳实施例及所运用技术原理。本领域技术人员会理解,本发明不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本发明的保护范围。因此,虽然通过以上实施例对本发明进行了较为详细的说明,但是本发明不仅仅限于以上实施例,在不脱离本发明构思的情况下,还可以包括更多其他等效实施例,而本发明的范围由所附的权利要求范围决定。
Claims (10)
1.一种小样本学习方法,其特征在于,包括:
根据图像表示模型对图像训练样本集进行编码,得到由每个图像训练样本的图像向量表示构成的图像矩阵;其中,所述图像训练样本集根据进行图像分类训练的小样本数据集确定;
根据标签预处理模型对所述图像训练样本集的标签进行编码,得到由每个图像训练样本标签的标签向量表示构成的标签矩阵;其中,所述标签预处理模型基于自然语言语义特征提取模型构建,所述标签中包括自然语义特征信息;
根据所述图像矩阵和所述标签矩阵的损失值进行反向传播,以对所述图像表示模型和所述标签预处理模型进行参数优化,得到训练完成的图像表示模型和标签预处理模型,以根据所述训练完成的图像表示模型和标签预处理模型得到图像测试样本的分类结果。
2.根据权利要求1所述的方法,其特征在于,所述图像训练样本集为完整数据集的子集;
相应的,根据标签预处理模型对所述图像训练样本集的标签进行编码,得到由每个图像训练样本标签的标签向量表示构成的标签矩阵,包括:
确定所述完整数据集的完整标签信息;
根据所述完整标签信息和原始词向量模型,确定完整词向量表示;
根据所述图像训练样本集的标签和所述完整标签信息,确定训练样本标签信息;
根据所述训练样本标签信息和所述完整词向量表示,确定由每个图像训练样本标签的标签向量表示构成的标签矩阵。
3.根据权利要求2所述的方法,其特征在于,在得到训练完成的标签预处理模型之后,还包括:
根据所述训练完成的标签预处理模型中的完整词向量表示对所述原始词向量模型进行优化更新。
4.根据权利要求1所述的方法,其特征在于,在根据所述图像矩阵和所述标签矩阵的损失值进行反向传播之前,还包括:
对所述图像矩阵和所述标签矩阵进行维度一致化处理和归一化处理,得到标准图像矩阵和标准标签矩阵;
相应的,根据所述图像矩阵和所述标签矩阵的损失值进行反向传播,包括:
根据所述标准图像矩阵和所述标准标签矩阵的损失值进行反向传播。
7.根据权利要求1所述的方法,其特征在于,图像测试样本集为完整数据集的子集;
相应的,在得到训练完成的图像表示模型和标签预处理模型之后,还包括:
将所述图像测试样本集划分为支持集和查询集;其中,所述支持集中包括每个支持图像测试样本的标签;
根据所述训练完成的图像表示模型确定所述支持集中每个支持图像测试样本的支持图像向量表示,以及所述查询集中每个查询图像测试样本的查询图像向量表示;
确定所述查询集中目标查询图像测试样本的目标查询图像向量表示,与所述支持集中每一个支持图像测试样本的支持图像向量表示的距离;
根据所述距离确定所述目标查询图像测试样本的标签预测结果。
8.一种小样本学习装置,其特征在于,包括:
图像编码模块,用于根据图像表示模型对图像训练样本集进行编码,得到由每个图像训练样本的图像向量表示构成的图像矩阵;其中,所述图像训练样本集根据进行图像分类训练的小样本数据集确定;
标签编码模块,用于根据标签预处理模型对所述图像训练样本集的标签进行编码,得到由每个图像训练样本标签的标签向量表示构成的标签矩阵;其中,所述标签预处理模型基于自然语言语义特征提取模型构建,所述标签中包括自然语义特征信息;
模型优化模块,用于根据所述图像矩阵和所述标签矩阵的损失值进行反向传播,以对所述图像表示模型和所述标签预处理模型进行参数优化,得到训练完成的图像表示模型和标签预处理模型,以根据所述训练完成的图像表示模型和标签预处理模型得到图像测试样本的分类结果。
9.一种电子设备,其特征在于,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-7中任一所述的小样本学习方法。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-7中任一所述的小样本学习方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110252710.3A CN112633419B (zh) | 2021-03-09 | 2021-03-09 | 小样本学习方法、装置、电子设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110252710.3A CN112633419B (zh) | 2021-03-09 | 2021-03-09 | 小样本学习方法、装置、电子设备和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112633419A CN112633419A (zh) | 2021-04-09 |
CN112633419B true CN112633419B (zh) | 2021-07-06 |
Family
ID=75297801
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110252710.3A Active CN112633419B (zh) | 2021-03-09 | 2021-03-09 | 小样本学习方法、装置、电子设备和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112633419B (zh) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113111971A (zh) * | 2021-05-07 | 2021-07-13 | 浙江宇视科技有限公司 | 分类模型的智能处理方法、装置、电子设备及介质 |
CN113128619B (zh) * | 2021-05-10 | 2022-05-31 | 北京瑞莱智慧科技有限公司 | 伪造样本检测模型的训练方法、伪造样本识别方法、装置、介质和设备 |
CN113326851B (zh) * | 2021-05-21 | 2023-10-27 | 中国科学院深圳先进技术研究院 | 图像特征提取方法、装置、电子设备及存储介质 |
CN113408606B (zh) * | 2021-06-16 | 2022-07-22 | 中国石油大学(华东) | 基于图协同训练的半监督小样本图像分类方法 |
CN113449821B (zh) * | 2021-08-31 | 2021-12-31 | 浙江宇视科技有限公司 | 融合语义和图像特征的智能训练方法、装置、设备及介质 |
CN113837394B (zh) * | 2021-09-03 | 2024-07-05 | 合肥综合性国家科学中心人工智能研究院(安徽省人工智能实验室) | 多特征视图数据标签预测方法、***与可读存储介质 |
CN113920497B (zh) * | 2021-12-07 | 2022-04-08 | 广东电网有限责任公司东莞供电局 | 一种铭牌识别模型的训练、铭牌的识别方法及相关装置 |
CN114090780B (zh) * | 2022-01-20 | 2022-05-31 | 宏龙科技(杭州)有限公司 | 一种基于提示学习的快速图片分类方法 |
CN114494818B (zh) * | 2022-01-26 | 2023-07-25 | 北京百度网讯科技有限公司 | 图像处理方法、模型训练方法、相关装置及电子设备 |
CN114461629A (zh) * | 2022-02-10 | 2022-05-10 | 电子科技大学 | 一种航空发动机温度标定方法、装置和存储介质 |
CN116229175B (zh) * | 2022-03-18 | 2023-12-26 | 北京百度网讯科技有限公司 | 图像处理方法、装置、设备及存储介质 |
CN115049878B (zh) * | 2022-06-17 | 2024-05-03 | 平安科技(深圳)有限公司 | 基于人工智能的目标检测优化方法、装置、设备及介质 |
CN116383724B (zh) * | 2023-02-16 | 2023-12-05 | 北京数美时代科技有限公司 | 一种单一领域标签向量提取方法、装置、电子设备及介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109840530A (zh) * | 2017-11-24 | 2019-06-04 | 华为技术有限公司 | 训练多标签分类模型的方法和装置 |
CN111177569A (zh) * | 2020-01-07 | 2020-05-19 | 腾讯科技(深圳)有限公司 | 基于人工智能的推荐处理方法、装置及设备 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109919183B (zh) * | 2019-01-24 | 2020-12-18 | 北京大学 | 一种基于小样本的图像识别方法、装置、设备及存储介质 |
CN109961089B (zh) * | 2019-02-26 | 2023-04-07 | 中山大学 | 基于度量学习和元学习的小样本和零样本图像分类方法 |
CN110188358B (zh) * | 2019-05-31 | 2023-10-24 | 鼎富智能科技有限公司 | 自然语言处理模型的训练方法及装置 |
CN110555475A (zh) * | 2019-08-29 | 2019-12-10 | 华南理工大学 | 一种基于语义信息融合的少样本目标检测方法 |
-
2021
- 2021-03-09 CN CN202110252710.3A patent/CN112633419B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109840530A (zh) * | 2017-11-24 | 2019-06-04 | 华为技术有限公司 | 训练多标签分类模型的方法和装置 |
CN111177569A (zh) * | 2020-01-07 | 2020-05-19 | 腾讯科技(深圳)有限公司 | 基于人工智能的推荐处理方法、装置及设备 |
Also Published As
Publication number | Publication date |
---|---|
CN112633419A (zh) | 2021-04-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112633419B (zh) | 小样本学习方法、装置、电子设备和存储介质 | |
CN109145294B (zh) | 文本实体识别方法及装置、电子设备、存储介质 | |
CN112015859A (zh) | 文本的知识层次抽取方法及装置、计算机设备及可读介质 | |
CN109034203B (zh) | 表情推荐模型的训练、表情推荐方法、装置、设备及介质 | |
CN111738001B (zh) | 同义词识别模型的训练方法、同义词确定方法及设备 | |
CN110263218B (zh) | 视频描述文本生成方法、装置、设备和介质 | |
CN114911958B (zh) | 一种基于语义偏好的快速图像检索方法 | |
CN112287144B (zh) | 图片检索方法、设备及存储介质 | |
CN112560504B (zh) | 抽取表单文档中信息的方法、电子设备和计算机可读介质 | |
CN111950279A (zh) | 实体关系的处理方法、装置、设备及计算机可读存储介质 | |
CN113239702A (zh) | 意图识别方法、装置、电子设备 | |
CN115795038A (zh) | 基于国产化深度学习框架的意图识别方法和装置 | |
CN111444335B (zh) | 中心词的提取方法及装置 | |
CN111401309A (zh) | 基于小波变换的cnn训练和遥感图像目标识别方法 | |
US11494431B2 (en) | Generating accurate and natural captions for figures | |
CN117251777A (zh) | 数据处理方法、装置、计算机设备和存储介质 | |
CN109902162B (zh) | 基于数字指纹的文本相似性的识别方法、存储介质及装置 | |
CN117009516A (zh) | 换流站故障策略模型训练方法、推送方法及装置 | |
CN116340635A (zh) | 物品推荐方法、模型训练方法、装置及设备 | |
CN115757844A (zh) | 一种医学图像检索网络训练方法、应用方法及电子设备 | |
US20220164705A1 (en) | Method and apparatus for providing information based on machine learning | |
CN113010687B (zh) | 一种习题标签预测方法、装置、存储介质以及计算机设备 | |
CN114936564A (zh) | 一种基于对齐变分自编码的多语言语义匹配方法及*** | |
CN114297022A (zh) | 云环境异常检测方法、装置、电子设备和存储介质 | |
CN111199170B (zh) | 配方文件识别方法及装置、电子设备、存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
EE01 | Entry into force of recordation of patent licensing contract |
Application publication date: 20210409 Assignee: Zhejiang Yushi System Technology Co., Ltd Assignor: ZHEJIANG UNIVIEW TECHNOLOGIES Co.,Ltd. Contract record no.: X2021330000197 Denomination of invention: Small sample learning method, device, electronic device and storage medium Granted publication date: 20210706 License type: Common License Record date: 20210831 |
|
EE01 | Entry into force of recordation of patent licensing contract |