CN108399421B - 一种基于词嵌入的深度零样本分类方法 - Google Patents

一种基于词嵌入的深度零样本分类方法 Download PDF

Info

Publication number
CN108399421B
CN108399421B CN201810095061.9A CN201810095061A CN108399421B CN 108399421 B CN108399421 B CN 108399421B CN 201810095061 A CN201810095061 A CN 201810095061A CN 108399421 B CN108399421 B CN 108399421B
Authority
CN
China
Prior art keywords
text
image
neural network
training set
parameters
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810095061.9A
Other languages
English (en)
Other versions
CN108399421A (zh
Inventor
秦牧轩
荆晓远
吴飞
孙莹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Posts and Telecommunications
Original Assignee
Nanjing University of Posts and Telecommunications
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Posts and Telecommunications filed Critical Nanjing University of Posts and Telecommunications
Priority to CN201810095061.9A priority Critical patent/CN108399421B/zh
Publication of CN108399421A publication Critical patent/CN108399421A/zh
Application granted granted Critical
Publication of CN108399421B publication Critical patent/CN108399421B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24147Distances to closest patterns, e.g. nearest neighbour classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于词嵌入的深度零样本分类方法,在学习阶段未出现的类别,依然可以在预测阶段被识别。本发明提出了基于词嵌入和深度特征提取的零样本图像学习模型,该方法通过强大的深度神经网络学习一个图像特征和语义特征联合嵌入的子空间,利用词向量的语义能力,达到图像的零样本学习目的。本发明不仅提出了深度学习方法与零样本学习结合的模型,同时还针对其结合部分嵌入空间做了大量改进,为图像零样本,亦或者其他模态的零样本学习提供参考和指导,克服传统零样本学习中样本属性定义不明确、人工特征提取等等缺点。本发明广泛用于端到端的类别预测任务中,特别适合训练样本不足甚至是缺少某一类训练样本的类别预测任务。

Description

一种基于词嵌入的深度零样本分类方法
技术领域
本发明涉及模式识别技术领域,特别是一种基于词嵌入的深度零样本分类方法。
背景技术
零样本学习(ZSL)模型是一种特殊的机器学习问题,属于迁移学习的极端情况,即在训练样本中缺失某几类样本或者训练数据集中从未存在某几类样本,然而实际情况需要我们依然能够在测试任务中识别出这些训练集缺失的类别样本。零样本学习在各种实际生活中有大量的应用,最主要的应用就是针对数据不够多的情况下使用,如何有效的提高零样本学习效率具有十分重要意义。
由于训练集样本的缺失,传统机器学习方法无法完成零样本学习任务,研究者们提出一种全部类别共同映射的中间层特征空间,建立一种训练类别信息与测试类别信息的连接空间,将原本使用类别信息分类能力转化到该中间层,摆脱了必须使用类别信息分类的限制。目前主要的技术手段是选择属性空间作为中间层特征空间。
属性空间是人为的定义的特征空间,如“形状”“纹理”“是否含有某个属性”,这些可以描述类别的语义特性,属性作为不同类别共享的中间层语义特征,不仅可以弥补底层的视觉特征和高层的类别特征之间的语义鸿沟,还可是通过不同属性的组合,学习到新的类别。但是基于属性的零样本学习有着本质的缺点,各个类别的属性是需要人为设定的,分类效果好坏与否取决于人为的属性选择的好坏,不同种类的图像分类需要不同领域的专业人士来做属性标定,然后才能实现分类,并不是一种端到端的实现方法。而且人为的设定属性会消耗人力物力,效率不高。
发明内容
本发明所要解决的技术问题是克服现有技术的不足而提供一种基于词嵌入的深度零样本分类方法,利用文本数据集易获取的优势和词向量语义推理特性,用词向量替代属性,解决了人为属性标定环节,实现图像的零样本学习。本发明不仅能挖掘视觉和文本模态之间的联系和分类信息,还使用了强大的深度神经网络建立了输入图像直接输出类别的端到端过程。
本发明为解决上述技术问题采用以下技术方案:
根据本发明提出的一种基于词嵌入的深度零样本分类方法,包括以下步骤:
步骤1,输入图像训练集
Figure BDA0001564775960000011
xi表示图像训练集的第i张图片,1≤i≤n1,n1为图像训练集图片数量,训练卷积神经网络,得到卷积神经网络参数θx
步骤2,输入文本训练集
Figure BDA0001564775960000021
yj表示文本训练集的第j个单词,1≤j≤n2,n2为文本训练集单词数量,且n2>n1,训练文本神经网络,得到文本神经网络参数θy
步骤3,改变步骤1和步骤2的网络结构,去掉卷积神经网络和文本神经网络的顶层,各自新增一个全连接层:图像特征映射层和文本特征映射层,使卷积神经网络和文本神经网络在顶层相互连接,建立公共子空间;再次输入图像和文本训练集,通过如下损失函数L训练两者的映射层参数Wx和Wy
Figure BDA0001564775960000022
其中,Fi和Gj分别表示第i张图片和第j个单词的特征,Wx和Wy为图像特征映射层参数和文本特征映射层参数,
Figure BDA0001564775960000023
Figure BDA0001564775960000024
Figure BDA0001564775960000025
的内积,
Figure BDA0001564775960000026
Figure BDA0001564775960000027
分别表示图像和单词经过映射后的公共子空间特征,sigmoid(*)为激活函数,上标T表示转置,Sij为相似矩阵,当xi和yj为同一种类别时Sij值为1,否则为0;γ和η是超参数,
Figure BDA0001564775960000028
为F范数,e为自然底数;
步骤4,通过随机梯度下降算法SGD交替迭代优化步骤3的损失函数L,使其最小;计算
Figure BDA0001564775960000029
Figure BDA00015647759600000210
并通过反向传播算法的链式法则来更新Wx、θx、Wy和θy
步骤5,将测试图像xq输入到神经网络中得到测试图片的公共子空间特征
Figure BDA00015647759600000211
在该空间中使用最近邻分类器直接判断测试图像类别cq;
Figure BDA00015647759600000212
其中,c为任意文本类别,
Figure BDA00015647759600000213
是任意文本的特征,D(·)是求其欧几里得距离函数。
作为本发明所述的一种基于词嵌入的深度零样本分类方法进一步优化方案,步骤1和步骤2中,输入图像训练集的样本为二维图像矩阵,输入文本训练集的样本为词袋向量。
作为本发明所述的一种基于词嵌入的深度零样本分类方法进一步优化方案,步骤3中学习过程是一个优化问题,目的优化两个神经网络的权重参数θx和θy以及学习两个空间映射参数Wx和Wy的最优值。
作为本发明所述的一种基于词嵌入的深度零样本分类方法进一步优化方案,步骤4中所述交替迭代优化步骤3的损失函数L,具体如下:
1)固定文本神经网络参数,优化卷积神经网络参数,
2)固定卷积神经网络参数,优化文本神经网络参数。
作为本发明所述的一种基于词嵌入的深度零样本分类方法进一步优化方案,步骤5中判断测试图像类别具体如下:
1)针对训练集中已存在的类别图像:在公共子空间中,与测试图像欧式距离最近的样本类别即为判定类别;
2)针对训练集中不存在的类别图像:文本训练集含有一些新的类别,这些类别的特征并不是独立的,而是与已有类别存在相关性,依据步骤4学习到的映射参数Wx和Wy,测试图像被判定为新的类别;
测试阶段将测试图像的特征与混合原有类别和新的类别的特征中做最近邻分类,输出其类别。
本发明采用以上技术方案与现有技术相比,具有以下技术效果:
(1)本发明创造性的将深度神经网络特征提取应用在零样本学习中,在此基础上设计了一种有效的基于语义的词嵌入方法,通过结合两个模态各自不同的特点,并学习模态映射关系,提出适用零样本分类的图像识别方法;
(2)本发明方法属于多模态学习方法,通过引入语义模态,来解决视觉模态上的零样本问题,最大化模态数据之间的语义相关性,挖掘不同模态之间的语义信息;
(3)本发明属于一种端到端的学习方法,相比传统机器学习算法和属性学习模型,深度神经网络和词嵌入模型具有自动的无需人为参与的特性,大大提高效率和人为干扰因素。
附图说明
图1是本发明的方法流程图。
图2是本发明实施例的基于词嵌入的图像零样本学习模型。
具体实施方式
下面结合附图对本发明的技术方案做进一步的详细说明:
本技术领域技术人员可以理解的是,除非另外定义,这里使用的所有术语(包括技术术语和科学术语)具有与本发明所属领域中的普通技术人员的一般理解相同的意义。还应该理解的是,诸如通用字典中定义的那些术语应该被理解为具有与现有技术的上下文中的意义一致的意义,并且除非像这里一样定义,不会用理想化或过于正式的含义来解释。
本发明提供一种基于词嵌入模型的深度零样本图像学习算法,通过结合文本特征,实现图像特征的零样本分类,包括如下步骤:
步骤1,输入图像训练集
Figure BDA0001564775960000041
xi表示图像训练集的第i张图片,1≤i≤n1,n1为图像训练集图片数量,训练卷积神经网络,得到卷积神经网络参数θx
步骤2,输入文本训练集
Figure BDA0001564775960000042
yj表示文本训练集的第j个单词,1≤j≤n2,n2为文本训练集单词数量,且n2>n1,训练文本神经网络,得到文本神经网络参数θy
步骤3,改变步骤1和步骤2的网络结构,去掉卷积神经网络和文本神经网络的顶层,各自新增一个全连接层:图像特征映射层和文本特征映射层,使卷积神经网络和文本神经网络在顶层相互连接,建立公共子空间;再次输入图像和文本训练集,通过如下损失函数L训练两者的映射层参数Wx和Wy
Figure BDA0001564775960000043
其中,Fi和Gj分别表示第i张图片和第j个单词的特征,Wx和Wy为图像特征映射层参数和文本特征映射层参数,
Figure BDA0001564775960000044
Figure BDA0001564775960000045
Figure BDA0001564775960000046
的内积,
Figure BDA0001564775960000047
Figure BDA0001564775960000048
分别表示图像和单词经过映射后的公共子空间特征,sigmoid(*)为激活函数,上标T表示转置,Sij为相似矩阵,当xi和yj为同一种类别时Sij值为1,否则为0;γ和η是超参数,
Figure BDA0001564775960000049
为F范数,e为自然底数;
步骤4,通过随机梯度下降算法SGD交替迭代优化步骤3的损失函数L,使其最小;计算
Figure BDA00015647759600000410
Figure BDA00015647759600000411
并通过反向传播算法的链式法则来更新Wx、θx、Wy和θy
步骤5,将测试图像xq输入到神经网络中得到测试图片的公共子空间特征
Figure BDA0001564775960000051
在该空间中使用最近邻分类器直接判断测试图像类别cq
Figure BDA0001564775960000052
其中,c为任意文本类别,
Figure BDA0001564775960000053
是任意文本的特征,D(·)是求其欧几里得距离函数。
本实施例的模型结构如图2所示,具体实施过程如图1所示。
步骤1,输入图像训练集
Figure BDA0001564775960000054
n1为图像训练集图片数量,其中xi表示输入图像,一共n1张c1种不同类别的图像。训练卷积神经网络,得到卷积神经网络参数。其中卷积神经网络输入层是227*227的三通道图像像素矩阵xi,中间层如表1和表2所示;
表1:神经网络的卷积层数据
卷积层 卷积核数量 卷积核大小 图像扩张 卷积核间隔 池化
Conv1 96 11 4个像素 1 Max
Conv2 256 5 2 Max
Conv3 384 3 1
Conv4 384 3 1
Conv5 256 3 1 Max
其中在卷积之后使用如下激活函数:
Figure BDA0001564775960000055
a为上一层卷积后的参数,输出作为下一层的输入。该激活函数可以保证单侧抑制性和稀疏激活性。
表2:神经网络的全连接层数据
全连接层 输出神经元个数
Fc6 4096
Fc7 4096
Fc8 c1
同样在fc6和fc7层之后会有激活函数和drop函数。其中fc8层为预测标签层,维度与图像训练集的类别数c1相等,大小为c1维的特征向量,每一位对应一个类别,与真实的类别计算softmax损失函数,得到卷积神经网络的参数θx
在本发明的卷积神经网络模型中,fc8层特征只作用与单独视觉模态的学习,在图像特征映射层使用的是fc7层的特征,相较于fc8层,fc7层特征能好的表达图像层级的特征。
步骤2,使用***上面570万文本(约54亿单词)来训练三层神经网络,输入文本训练集
Figure BDA0001564775960000061
n2为文本训练集单词数量,并且n2>n1,其中yi为代表单词的词袋向量,文本训练集的类别数量为c2,不同于图像,同一类别的单词是唯一的,所以种类数量c2等于单词数量n2。注意到文本训练集种类数量是远远大于图像训练集种类数量,c2>>c1
文本特征的训练使用skip-gram模型,输入为一个单词,输出为与该单词大概率一同出现的单词,对于一个句子:“波斯猫是一种可爱的宠物”,假设输入为“波斯猫”,输出即为“可爱”“一种”“宠物”这些词语。Skip-gram模式是一种一对多的模型,这种一对多的模型实际上也可以理解为输入为类别,输出为对应的属性,所以学习中的表征具有学习输入类别的语义的能力,以上述句子为例,“波斯猫”具有“可爱”“宠物”这些属性,而且通过“一种”这个数量词可以了解的其也是一个具体的“类别”。
同时使用skip-gram模型具有学习到逻辑推理的功能,比如同义词,对于另一个句子“加菲猫也是一种可爱的宠物”,由于输出和“波斯猫”相当接近,所以学习到的“加菲猫”文本特征和“波斯猫”文本特征也是近似相等的,实际上是由于“加菲猫”和“波斯猫”具有相同的猫的属性,当然,训练样本中必然有描述“加菲猫”特有的而“波斯猫”没有的属性,所以这两个类别的文本特征只是相似而不相等。
对于基于神经网络的skip-gram模型,输入是代表各个单词的One-hot编码的词袋向量yi,One-hot编码向量基于上述***的大量文本构件的词袋(Bag of Word),其维度等于去重后的单词总数,即文本训练集类别数量c2,约为15500。
y定义如下:
Figure BDA0001564775960000062
其中y(c)表示向量y的第c位,c′为向量表示的类别标签。y(c)值为1表示该向量含有对应标签的单词,值为0的位表示不含有对应标签的单词。
输入层经过隐层到达第三层,第三层实际上是一个softmax损失层,作用同图像模快的神经网络最后一层一样,优化softmax得到文本神经网络的参数θy。通过比较100维到2000维的隐层权重分类效果,本发明选择将隐层权重大小设置为512维最为合适。
步骤3,改变网络结构。在文本模块的最后一层,去除原来的输出层,添加一个全连接层,将隐层的特征通过映射层映射到特征子空间中,在图像特征空间中,去除原来的输出层,添加一个全连接层,将fc7层的特征通过映射层映射到特征子空间中,联合损失函数为:
Figure BDA0001564775960000071
其中,Fi=f(xi;θx)和Gj=g(yj;θy)分别表示第i张图片和第j个单词的特征,xi表示图像训练集的第i张图片,yj表示文本训练集的第j个单词,θx和θy分别是步骤1和步骤2得到的神经网络参数。
Figure BDA0001564775960000072
分别表示图像和单词经过映射后的公共子空间特征,Wx和Wy为图像特征映射层参数和文本特征映射层参数,sigmoid(*)为激活函数。
Figure BDA0001564775960000073
Figure BDA0001564775960000074
Figure BDA0001564775960000075
的内积,上标T表示转置,Sij为相似矩阵,当图像xi和单词yj为同一种类别时Sij值为1,否则为0。γ和η是超参数。
Figure BDA0001564775960000076
为F范数,e为自然底数,n1为图像训练集图片数量;
上式的第一项
Figure BDA0001564775960000077
是跨模态相似性的负对数似然函数,其概率函数定义如下:
Figure BDA0001564775960000078
其中
Figure BDA0001564775960000079
并且
Figure BDA00015647759600000710
为相似的概率定义,可将Θij大小转化为0到1之间概率。当Sij=1时
Figure BDA00015647759600000711
Figure BDA00015647759600000712
的相似度(内积)较大,而当Sij=0时相似度(内积)较小,通过计算
Figure BDA00015647759600000713
Figure BDA00015647759600000714
的相似度最小化上述的负对数似然函数就等价于最大化其概率。因此,优化损失函数L的第一项可以保证映射后的图像特征
Figure BDA0001564775960000081
和文本特征
Figure BDA0001564775960000082
直接的跨模态相似度。
通过优化上式的第二项
Figure BDA0001564775960000083
我们可以认为,在子空间中,映射后的图像H(x)=sigmoid(WxF)和文本特征H(y)=sigmoid(WyG)的欧几里得距离是相近的,即同一个类别的
Figure BDA0001564775960000084
Figure BDA0001564775960000085
是最近邻的。
第三项
Figure BDA0001564775960000086
是正则项,保证学习过程中参数不要过大。
步骤4,联合训练阶段,通过随机梯度下降算法(SGD)交替迭代优化学习步骤3的特征子空间,分为2个子步骤:
1)固定θy和Wy,优化θx和Wx
当θy和Wy固定时,本发明使用一种微调的技术(fine-tuning)在原来单独图像模态的CNN参数θx上调优,通过固定θx前5层的参数,对第6和第7层参数进行微调,学习率降低10倍学习。对第6和第7层,学习算法同反向传播算法(BP)一致,使用随机梯度下降(SGD)来学习θx。在每次迭代中,本发明取训练集中的一部分样本训练,然后执行上述学习算法。
对每个样本,计算其如下梯度:
Figure BDA0001564775960000087
然后,通过反向传播算法的链式法则计算
Figure BDA0001564775960000088
Figure BDA0001564775960000089
更新Wx和θx
2)固定θx和Wx,优化θy和Wy
当θy和Wy固定时,本发明同样使用SGD的BP算法优化文本神经网络参数θy和文本特征映射层参数Wy,对每个样本,计算如下梯度:
Figure BDA00015647759600000810
然后,通过反向传播算法的链式法则计算
Figure BDA00015647759600000811
Figure BDA00015647759600000812
更新Wy和θy
重复执行上述两个子步骤。
步骤5,利用训练好的的联合神经网络模型做测试样本的特征提取。
对于训练集里不存在的图像,本发明可以获得其图像特征并映射到联合空间中,在联合空间中通过一个最近邻分类器,识别该图像在概率上最大可能所属的类。特别的,给定一个图像xq,通过前向传播获得其图像特征,再通过映射关系得到联合空间特征:
Figure BDA0001564775960000091
同样地,文本数据前向传播得到联合空间特征,给定文本yq,通过前向传播获得其图像特征,再通过映射关系得到联合空间特征:
Figure BDA0001564775960000092
在联合特征空间中,使用最近邻分类器对图像特征分类,对于一个新的图像,可以有效的识别出新的类:
Figure BDA0001564775960000093
最终在AwA数据集上和CUB数据集上零样本预测效果如下表3所示
表3:
AwA(seen) AwA(unseen) CuB(seen) CuB(unseen)
A 96.7 85.7 74.8 61.9
W 95.4 78.1 70.7 58.4
其中A表示是基于属性的零样本学习,W表示基于词嵌入的零样本学习,上表还对比了有样本学习(seen)和零样本学习(unseen)的结果。
从上述结果可知,运用本方法不仅可以有效的实现零样本学习,实现与非零样本学习的相近的分类效果,还能利用无监督的词嵌入模型达到有监督的属性模式效果。同时也是一种端到端的学习算法,适用性较好,可直接应用在数据采集不足的单样本或零样本学习或迁移学习任务中,易于实际工程应用。
以上所述,仅为本发明中的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉该技术的人在本发明所揭露的技术范围内,可理解想到的变换或替换,都应涵盖在本发明的包含范围之内,因此,本发明的保护范围应该以权利要求书的保护范围为准。

Claims (5)

1.一种基于词嵌入的深度零样本分类方法,其特征在于,包括以下步骤:
步骤1,输入图像训练集
Figure FDA0003503145580000011
xi表示图像训练集的第i张图片,1≤i≤n1,n1为图像训练集图片数量,训练卷积神经网络,得到卷积神经网络参数θx
步骤2,输入文本训练集
Figure FDA0003503145580000012
yj表示文本训练集的第j个单词,1≤j≤n2,n2为文本训练集单词数量,且n2>n1,训练文本神经网络,得到文本神经网络参数θy
步骤3,改变步骤1和步骤2的网络结构,去掉卷积神经网络和文本神经网络的顶层,各自新增一个全连接层:图像特征映射层和文本特征映射层,使卷积神经网络和文本神经网络在顶层相互连接,建立公共子空间;再次输入图像和文本训练集,通过如下损失函数L训练两者的映射层参数Wx和Wy
Figure FDA0003503145580000013
S.T:
Figure FDA0003503145580000014
Figure FDA0003503145580000015
Fi=f(xi;θx),
Gj=g(yj;θy),
其中,Fi和Gj分别表示第i张图片和第j个单词的特征,Wx和Wy为图像特征映射层参数和文本特征映射层参数,
Figure FDA0003503145580000016
Figure FDA0003503145580000017
Figure FDA0003503145580000018
的内积,
Figure FDA0003503145580000019
Figure FDA00035031455800000110
分别表示图像和单词经过映射后的公共子空间特征,sigmoid(*)为激活函数,上标T表示转置,Sij为相似矩阵,当xi和yj为同一种类别时Sij值为1,否则为0;γ和η是超参数,
Figure FDA00035031455800000111
为F范数,e为自然底数;
步骤4,通过随机梯度下降算法SGD交替迭代优化步骤3的损失函数L,使其最小;计算
Figure FDA00035031455800000112
Figure FDA00035031455800000113
并通过反向传播算法的链式法则来更新Wx、θx、Wy和θy
步骤5,将测试图像xq输入到神经网络中得到测试图片的公共子空间特征
Figure FDA00035031455800000114
在该公共子空间中使用最近邻分类器直接判断测试图像类别cq
Figure FDA00035031455800000115
其中,c为任意文本类别,
Figure FDA00035031455800000116
是任意文本的特征,D(·)是求其欧几里得距离函数。
2.根据权利要求1所述的一种基于词嵌入的深度零样本分类方法,其特征在于,步骤1和步骤2中,输入图像训练集的样本为二维图像矩阵,输入文本训练集的样本为词袋向量。
3.根据权利要求1所述的一种基于词嵌入的深度零样本分类方法,其特征在于,步骤3中学习过程是一个优化问题,目的优化两个神经网络的权重参数θx和θy以及学习两个空间映射参数Wx和Wy的最优值。
4.根据权利要求1所述的一种基于词嵌入的深度零样本分类方法,其特征在于,步骤4中所述交替迭代优化步骤3的损失函数L,具体如下:
1)固定文本神经网络参数,优化卷积神经网络参数,
2)固定卷积神经网络参数,优化文本神经网络参数。
5.根据权利要求1所述的一种基于词嵌入的深度零样本分类方法,其特征在于,步骤5中判断测试图像类别具体如下:
1)针对训练集中已存在的类别图像:在公共子空间中,与测试图像欧式距离最近的样本类别即为判定类别;
2)针对训练集中不存在的类别图像:文本训练集含有一些新的类别,这些类别的特征并不是独立的,而是与已有类别存在相关性,依据步骤4学习到的映射参数Wx和Wy,测试图像被判定为新的类别;
测试阶段将测试图像的特征与混合原有类别和新的类别的特征中做最近邻分类,输出其类别。
CN201810095061.9A 2018-01-31 2018-01-31 一种基于词嵌入的深度零样本分类方法 Active CN108399421B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810095061.9A CN108399421B (zh) 2018-01-31 2018-01-31 一种基于词嵌入的深度零样本分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810095061.9A CN108399421B (zh) 2018-01-31 2018-01-31 一种基于词嵌入的深度零样本分类方法

Publications (2)

Publication Number Publication Date
CN108399421A CN108399421A (zh) 2018-08-14
CN108399421B true CN108399421B (zh) 2022-04-01

Family

ID=63095345

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810095061.9A Active CN108399421B (zh) 2018-01-31 2018-01-31 一种基于词嵌入的深度零样本分类方法

Country Status (1)

Country Link
CN (1) CN108399421B (zh)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109189968B (zh) * 2018-08-31 2020-07-03 深圳大学 一种跨模态检索方法及***
US11704552B2 (en) * 2018-10-29 2023-07-18 Microsoft Technology Licensing, Llc Task detection in communications using domain adaptation
US11568260B2 (en) * 2018-10-29 2023-01-31 Google Llc Exponential modeling with deep learning features
CN109492750B (zh) * 2018-10-30 2020-11-20 中国运载火箭技术研究院 基于卷积神经网络和因素空间的零样本图像分类方法
CN109558898B (zh) * 2018-11-09 2023-09-05 复旦大学 一种基于深度神经网络的高置信度的多选择学习方法
CN109582960B (zh) * 2018-11-27 2020-11-24 上海交通大学 基于结构化关联语义嵌入的零示例学习方法
CN109993197B (zh) * 2018-12-07 2023-04-28 天津大学 一种基于深度端对端示例差异化的零样本多标签分类方法
CN109871449A (zh) * 2019-03-18 2019-06-11 北京邮电大学 一种基于语义描述的端到端的零样本学习方法
CN111767735B (zh) * 2019-03-26 2024-08-16 北京京东尚科信息技术有限公司 执行任务的方法、装置及计算机可读存储介质
CN110531163B (zh) * 2019-04-18 2022-03-15 中国人民解放军国防科技大学 一种磁浮列车悬浮斩波器母线电容状态监测方法
JP7041281B2 (ja) * 2019-07-04 2022-03-23 浙江大学 ディープニューラルネットワークモデルに基づくアドレス情報特徴抽出方法
US11580415B2 (en) * 2019-07-09 2023-02-14 Baidu Usa Llc Hierarchical multi-task term embedding learning for synonym prediction
CN110664373B (zh) * 2019-09-28 2022-04-22 华南理工大学 一种基于零样本学习的舌苔体质识别方法
CN111553170B (zh) * 2020-07-10 2020-10-20 腾讯科技(深圳)有限公司 文本处理方法、文本特征关系抽取方法及装置
CN112364894B (zh) * 2020-10-23 2022-07-08 天津大学 一种基于元学习的对抗网络的零样本图像分类方法
CN112651403B (zh) * 2020-12-02 2022-09-06 浙江大学 基于语义嵌入的零样本视觉问答方法
CN112580507B (zh) * 2020-12-18 2024-05-31 合肥高维数据技术有限公司 一种基于图像矩矫正的深度学习文本字符检测方法
CN113627470B (zh) * 2021-07-01 2023-09-05 汕头大学 一种基于零次学习的光纤预警***未知事件分类方法
CN113537389B (zh) * 2021-08-05 2023-11-07 京东科技信息技术有限公司 基于模型嵌入的鲁棒图像分类方法和装置
CN113723421B (zh) * 2021-09-06 2023-10-17 华南理工大学 基于匹配类别嵌入的零样本的汉字识别方法
CN113989541B (zh) * 2021-09-23 2024-08-20 神思电子技术股份有限公司 一种基于特征聚合的着装分类方法及***

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106778804A (zh) * 2016-11-18 2017-05-31 天津大学 基于类别属性迁移学习的零样本图像分类方法
CN107292349A (zh) * 2017-07-24 2017-10-24 中国科学院自动化研究所 基于百科知识语义增强的零样本分类方法、装置
CN107563444A (zh) * 2017-09-05 2018-01-09 浙江大学 一种零样本图像分类方法及***

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106778804A (zh) * 2016-11-18 2017-05-31 天津大学 基于类别属性迁移学习的零样本图像分类方法
CN107292349A (zh) * 2017-07-24 2017-10-24 中国科学院自动化研究所 基于百科知识语义增强的零样本分类方法、装置
CN107563444A (zh) * 2017-09-05 2018-01-09 浙江大学 一种零样本图像分类方法及***

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于典型相关分析和距离度量学习的零样本学习;冀中等;《天津大学学报(自然科学与工程技术版)》;20170831;第50卷(第8期);第1-4章 *

Also Published As

Publication number Publication date
CN108399421A (zh) 2018-08-14

Similar Documents

Publication Publication Date Title
CN108399421B (zh) 一种基于词嵌入的深度零样本分类方法
CN111368896B (zh) 基于密集残差三维卷积神经网络的高光谱遥感图像分类方法
CN110334765B (zh) 基于注意力机制多尺度深度学习的遥感影像分类方法
CN110909820B (zh) 基于自监督学习的图像分类方法及***
CN109783666B (zh) 一种基于迭代精细化的图像场景图谱生成方法
CN111583263B (zh) 一种基于联合动态图卷积的点云分割方法
CN103345656B (zh) 一种基于多任务深度神经网络的数据识别方法及装置
CN110717526B (zh) 一种基于图卷积网络的无监督迁移学习方法
CN113408605B (zh) 基于小样本学习的高光谱图像半监督分类方法
CN107451616A (zh) 基于深度半监督迁移学习的多光谱遥感图像地物分类方法
CN107220506A (zh) 基于深度卷积神经网络的乳腺癌风险评估分析***
CN110647907B (zh) 利用多层分类和字典学习的多标签图像分类算法
CN105205448A (zh) 基于深度学习的文字识别模型训练方法和识别方法
CN112685504B (zh) 一种面向生产过程的分布式迁移图学习方法
CN113128620B (zh) 一种基于层次关系的半监督领域自适应图片分类方法
CN107480723B (zh) 基于局部二进制阈值学习网络的纹理识别方法
CN111127360A (zh) 一种基于自动编码器的灰度图像迁移学习方法
CN114780767A (zh) 一种基于深度卷积神经网络的大规模图像检索方法及***
CN110751072A (zh) 基于知识嵌入图卷积网络的双人交互识别方法
CN114925205B (zh) 基于对比学习的gcn-gru文本分类方法
CN115292532A (zh) 基于伪标签一致性学习的遥感图像域适应检索方法
CN112183464A (zh) 基于深度神经网络和图卷积网络的视频行人识别方法
CN114202035B (zh) 一种多特征融合的大规模网络社区检测算法
CN109033304B (zh) 基于在线深层主题模型的多模态检索方法
CN111079900B (zh) 一种基于自适应连接神经网络的图像处理方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant