CN110222771B - 一种零样本图片的类别识别方法 - Google Patents
一种零样本图片的类别识别方法 Download PDFInfo
- Publication number
- CN110222771B CN110222771B CN201910496585.3A CN201910496585A CN110222771B CN 110222771 B CN110222771 B CN 110222771B CN 201910496585 A CN201910496585 A CN 201910496585A CN 110222771 B CN110222771 B CN 110222771B
- Authority
- CN
- China
- Prior art keywords
- category
- graph
- row
- matrix
- categories
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2155—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the incorporation of unlabelled data, e.g. multiple instance learning [MIL], semi-supervised techniques using expectation-maximisation [EM] or naïve labelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明公开了一种零样本图片的类别识别方法。依据人类的知识构建一个知识图谱来表示类别之间的显式关系,避免了在语义空间内学习隐式关系,类别之间的关系模糊、不确定的问题,同时,构造并训练一残差图卷积网络用于在类别之间迁移知识,采用内积值最大进行类别识别,这样提高了零样本图片的类别识别的准确度。
Description
技术领域
本发明属于图片识别技术领域,更为具体地讲,涉及一种零样本图片的类别识别方法。
背景技术
传统的图片类别识别方法需要大量的标注数据来训练,而且训练得到的分类器只能识别参与训练图片的类别,对于新类别图片无能为力。但是,图片的标注过程是费时的,昂贵的,在现实中很难获取到大量的标注样本。
零样本图片的类别识别的目标是识别未在训练集中出现的图片的类别。现有零样本图片的类别识别方法主要分为两种类型。
第一种类型是学习一个公共的语义空间,在语义空间内将在训练集上获得的类别知识迁移到未参与训练的类别。通常基于语义信息来构造公共的语义空间。常用的语义信息有属性信息和词向量信息。基于语义信息的方法通过学习一个映射矩阵将图片的视觉特征和属性/词向量等信息映射到一个公共的空间内,使得相同类的视觉特征和属性/词向量等相互靠近,不同类相互远离。通过在可见类和不可见类之间共享映射矩阵,从而达到零样本图片的类别识别目的。
第二种类型是为新类学习一个分类器。这种方法首先借助于属性/词向量等信息来学习类别之间的隐式关系,基于学习到的类别关系,为新类生成一个分类器。
现有的零样本图片的类别识别方法大多基于语义信息(属性/词向量)来学习类别之间的隐式关系,基于学习到的隐式关系来迁移类别知识,这样存在以下不足:
(1)、属性的标注昂贵且费时,基于属性的方法不适用于大规模的零样本图片的类别识别;
(2)、词向量信息是从大型语料库中学习到的,具有很大的误差性,通过词向量信息来学习类别之间的关系通常不准确;
(3)、借助于语义空间来学习类别之间的隐式关系,然而,类别之间的关系是模糊的,不确定的,同时,在语义空间内学习类别之间的隐式关系是非常困难的,导致零样本图片的识别精度很低。
发明内容
本发明的目的在于克服现有技术的不足,提供一种零样本图片的类别识别方法,以新构建的知识图谱来表征图片类别之间的显式关系,避免了在语义空间内学习隐式关系,同时,以新构造的残差图卷积网络,用于类别之间迁移知识,从而提高了零样本图片的类别识别准确度。
为实现上述发明目的,本发明零样本图片的类别识别方法,其特征在于,包括以下步骤:
(1)、构建一知识图谱来表示图片类别之间的显式关系
1.1)、构造一个图,图中含有与WordNet中类别个数相同的节点,图中每个节点代表一个类别,若两个类别在WordNet中有关系,在图中将该对应的节点用边连接,所有边的权重为1;
每个类别行列放置,在图中,如两个类别的边的权重为1,则将对应的行列位置设置为1,否则,设置为0,这样得到邻接矩阵A;
1.2)、获取每一个类别名称的词向量,然后计算词向量之间的距离值,每个词向量按照步骤1.1)中各自类别对应的位置放置,将每个两个词向量之间的距离值置于该两个词向量对应的行列位置,得到距离矩阵;
在距离矩阵中,对每一行选取K个最小的距离值并记录下其对应的类别;
构造一K近邻图,K近邻图中每个节点代表一个类别,判断选取的K个最小的距离值是否小于给定的阈值,若某一最小距离值小于阈值且不为0,则在K近邻图中,将该最小距离值对应的类别与该行所对应的类别连接起来,若大于阈值则不连接;
每个类别行列放置,在K近邻图中,如两个类别的边的权重为1,则将对应的行列位置设置为1,否则,设置为0,这样得到K近邻图的邻接矩阵B;
1.3)、将步骤1.2)得到的K近邻图的邻接矩阵B和步骤1.1)构造的图的邻接矩阵A直接相加,得到一个知识图谱的邻接矩阵C=A+B;
(2)、构造了一个类别之间迁移知识的残差图卷积网络
所述残差图卷积网络包含两个模块即恒等映射连接模块和映射连接模块,其中:
恒等映射连接模块将前面的图卷积层直接与后面的图卷积层逐元素相加,其公式可以定义如下:
在公式(1)中,Xin为所有类别名称的词向量按行放置构成的词向量输入特征矩阵(词向量为行向量),X’out为词向量输出特征矩阵,为知识图谱的邻接矩阵C的正则化版本,为恒等映射跳跃的图卷积层,通常为一到两层,的维度与词向量输入特征矩阵Xin的维度相同即具有相同的行列数;
映射连接模块将恒等映射连接模块输出的词向量输出特征矩阵X’out作为输入进行连接,得到词向量输出特征矩阵Xout,其公式可以定义如下:
(3)、对残差图卷积网络进行半监督方式的训练
将残差图卷积网络的输出即词向量输出特征矩阵Xout的每一行作为与词向量输入特征矩阵Xin每一行对应类别的预测分类特征向量,训练集中图片的真实分类特征向量与该图片类别对应的预测分类特征向量进行比较,采用均方误差函数作为损失函数对对残差图卷积网络进行训练,其中,均方误差函数为:
(4)、零样本图片的识别
4.1)、对一张给定的新图片,提取其视觉特征V,视觉特征V为一行向量;
4.2)、将视觉特征与残差图卷积网络输出的每一个预测特征向量计算内积值Oj:
Oj=fj·VT,j=1,2,....,N
其中,T表示转置;
4.3)、对内积值进行排序,内积值最大的预测特征向量所对应的类别即是该图片的类别。
本发明的目的是这样实现的。
为了更好的表征类别之间的关系,本发明零样本图片的类别识别方法依据人类的知识构建一个知识图谱来表示类别之间的显式关系,避免了在语义空间内学习隐式关系,类别之间的关系模糊、不确定的问题,同时,构造并训练一残差图卷积网络用于在类别之间迁移知识,采用内积值最大进行类别识别,这样提高了零样本图片的类别识别的准确度。
附图说明
图1是本发明零样本图片的类别识别方法一种具体实施方式流程图;
图2是基于WordNet词库构造图与构造的知识图谱一具体实例图;
图3是残差图卷积网络的结构示意图;
图4是零样本图片的类别识别示意图。
具体实施方式
下面结合附图对本发明的具体实施方式进行描述,以便本领域的技术人员更好地理解本发明。需要特别提醒注意的是,在以下的描述中,当已知功能和设计的详细描述也许会淡化本发明的主要内容时,这些描述在这里将被忽略。
图1是本发明零样本图片的类别识别方法一种具体实施方式流程图。
在本实施例中,如图1所示,本发明零样本图片的类别识别方包括以下步骤:
步骤S1:构建一知识图谱来表示图片类别之间的显示关系
为了更好的表征图片类别之间的关系,本发明依据人类的知识构建一个知识图谱来表示图片类别之间的显式关系。在本实施例中,从WordNet词库中提取每一类别(总计32324类别,即N=32324)的名称和连接关系来构造知识图谱。
步骤S1.1:构造一个图,图中含有与WordNet词库中类别个数相同的节点,图中每个节点代表一个类别,若两个类别有关系,在图中将该对应的节点用边连接,所有边的权重为1。
在本实施例中,根据WordNet词库构造的图如图2(a)所示。Domestic cat(家猫)包括Persian cat(波斯猫)以及Angora cat(安哥拉猫),因此将Domestic cat与Persiancat、Angora cat连接,Wild cat包括Jungle cat(丛林猫),因此,将Wild cat与Jungle cat连接起来。
每个类别行列放置,在图中,如两个类别的边的权重为1,则将对应的行列位置设置为1,否则,设置为0,这样得到邻接矩阵A。
步骤S1.2:通过GloVe模型获取每一个类别名称的词向量,然后计算词向量之间的距离值,每个词向量按照步骤步骤S1.1中各自类别对应的位置放置,将每个两个词向量之间的距离值置于该两个词向量对应的行列位置,得到距离矩阵。
在距离矩阵中,对每一行选取K个最小的距离值并记录下其对应的类别。
构造一K近邻图,K近邻图中每个节点代表一个类别,判断选取的K个最小的距离值是否小于给定的阈值α(0.5),若某一最小距离值小于阈值α且不为0(为0的是该类别本身,不用连接),则在K近邻图中,将该最小距离值对应的类别与该行所对应的类别连接起来,若大于阈值α则不连接。
对多个K值进行对比实验,本实施例中,选定K=2,即将每一类别与除自身外最近的类别相连接。在本实施例中,将K近邻图与根据WordNet词库构造的图(图2(a))进行合并,得到新的知识图谱,如图2(b)所示,其中,虚线是根据K值得到的类别连接,即Tiger与Jungle cat,Cat与Domestic连接。
每个类别行列放置,在K近邻图中,如两个类别的边的权重为1,则将对应的行列位置设置为1,否则,设置为0,这样得到K近邻图的邻接矩阵B。
步骤S1.3:将步骤S1.2得到的K近邻图的邻接矩阵B和步骤S1.2构造的图的邻接矩阵A直接相加,得到一个知识图谱的邻接矩阵C=A+B。
新的知识图谱不仅包含人类先验知识,而且包含类别之间的语义关系,从而能更准确的表示类别之间的关系。
其算法流程图如下:
步骤S2:构造了一个类别之间迁移知识的残差图卷积网络
在本实施例中,如图3所示,所述残差图卷积网络包含两个模块即恒等映射连接模块和映射连接模块,其中:
恒等映射连接模块将前面的图卷积层直接与后面的图卷积层逐元素相加,其公式可以定义如下:
在公式(1)中,Xin为所有类别名称的词向量按行放置构成的词向量输入特征矩阵(词向量为行向量),X’out为词向量输出特征矩阵,为知识图谱的邻接矩阵C的正则化版本,为恒等映射跳跃的图卷积层,通常为一到两层,的维度与词向量输入特征矩阵Xin的维度相同即具有相同的行列数。
图3中,为了简单起见,类别分为4类,所有类别名称的词向量x1,x2,x3,x4(维度为d0)转换为d1=1024维度的特征向量,恒等映射跳跃的图卷积层为两层,其维度d2、d3均为1024。
映射连接模块将恒等映射连接模块输出的词向量输出特征矩阵X’out作为输入进行连接,得到词向量输出特征矩阵Xout,其公式可以定义如下:
步骤S3:对残差图卷积网络进行半监督方式的训练
将残差图卷积网络输出即词向量输出特征矩阵Xout的每一行作为词向量输入特征矩阵Xin每一行对应类别的预测分类特征向量,训练集中图片的真实分类特征向量与该图片类别对应的预测分类特征向量进行比较,采用均方误差函数作为损失函数对对残差图卷积网络进行训练,其中,均方误差函数为:
在本实施例中,如图3所示,只有两个类别即第1、4类图片对应类别的真实分类特征向量。其他两个类别不进行训练,因此是半监督方式的训练。
步骤S4:零样本图片的类别识别
在本实施例中,如图4所示,零样本图片的类别识别包括以下步骤:
步骤S4.1:对一张给定的新图片,采用预训练的残差网络即计算类别的真实分类特征向量时提取图片视觉特征的残差网络,提取其视觉特征V,视觉特征V为一行向量;
步骤S4.2:将视觉特征与残差图卷积网络输出的每一个预测特征向量计算内积值Oj:
Oj=fj·VT,j=1,2,....,N
其中,T表示转置;
步骤S4.3:对内积值进行排序,内积值最大的预测特征向量所对应的类别即是该图片的类别。
实例
采用Hit@K指标来评估我们的模型。Hit@k指模型返回的前k个结果中有正确标签的图片所占的比例,是最常用的分类评估方法。在本实例中,k分别为1、2、5、10、20。
在大规模图片数据集ImageNet 2011 21K数据集上测试本发明。该数据集包含21841个类别,选取1000类为训练集(ImageNet 2012 1K),其余的20841类为测试集。将测试集分为三个子集,两跳(2-hops),三跳(3-hops)以及所有(All)。两跳表示测试集数据与训练集最多相隔两个节点,三跳表示测试集数据与训练集最多相隔三个节点,所有包含ImageNet 2011 21K数据集中所有的类别(20841类)。在测试时,分两种设定分别测试,第一种是候选类不包括训练类,第二种更广义的设定为候选类包含训练类。两种设定下的测试结果如表1、2所示。
表1
表2
从表1、表2可以看出,本发明在所有的测试集上均优于现有的方法。
在2-hops数据集上,本发明在Hit@1上比之前最优的方法提升了4.58%。本发明在2-hops数据集上Hit@20精度达到78.62。在所有度量方式上均优于现有方法即提高了零样本图片的类别识别准确度。
尽管上面对本发明说明性的具体实施方式进行了描述,以便于本技术领域的技术人员理解本发明,但应该清楚,本发明不限于具体实施方式的范围,对本技术领域的普通技术人员来讲,只要各种变化在所附的权利要求限定和确定的本发明的精神和范围内,这些变化是显而易见的,一切利用本发明构思的发明创造均在保护之列。
Claims (1)
1.一种零样本图片的类别识别方法,其特征在于,包括以下步骤:
(1)、构建一知识图谱来表示图片类别之间的显式关系
1.1)、构造一个图,图中含有与WordNet中类别个数相同的节点,图中每个节点代表一个类别,若两个类别在WordNet中有关系,在图中将该对应的节点用边连接,所有边的权重为1;
每个类别行列放置,在图中,如两个类别的边的权重为1,则将对应的行列位置设置为1,否则,设置为0,这样得到邻接矩阵A;
1.2)、获取每一个类别名称的词向量,然后计算词向量之间的距离值,每个词向量按照步骤1.1)中各自类别对应的位置放置,将每个两个词向量之间的距离值置于该两个词向量对应的行列位置,得到距离矩阵;
在距离矩阵中,对每一行选取K个最小的距离值并记录下其对应的类别;
构造一K近邻图,K近邻图中每个节点代表一个类别,判断选取的K个最小的距离值是否小于给定的阈值,若某一最小距离值小于阈值且不为0,则在K近邻图中,将该最小距离值对应的类别与该行所对应的类别连接起来,若大于阈值则不连接;
每个类别行列放置,在K近邻图中,如两个类别的边的权重为1,则将对应的行列位置设置为1,否则,设置为0,这样得到K近邻图的邻接矩阵B;
1.3)、将步骤1.2)得到的K近邻图的邻接矩阵B和步骤1.1)构造的图的邻接矩阵A直接相加,得到一个知识图谱的邻接矩阵C=A+B;
(2)、构造了一个类别之间迁移知识的残差图卷积网络
所述残差图卷积网络包含两个模块即恒等映射连接模块和映射连接模块,其中:
恒等映射连接模块将前面的图卷积层直接与后面的图卷积层逐元素相加,其公式可以定义如下:
在公式(1)中,Xin为所有类别名称的词向量按行放置构成的词向量输入特征矩阵,词向量为行向量,X’out为词向量输出特征矩阵,为知识图谱的邻接矩阵C的正则化版本,为恒等映射跳跃的图卷积层,通常为一到两层,的维度与词向量输入特征矩阵Xin的维度相同即具有相同的行列数;
映射连接模块将恒等映射连接模块输出的词向量输出特征矩阵X’out作为输入进行连接,得到词向量输出特征矩阵Xout,其公式可以定义如下:
(3)、对残差图卷积网络进行半监督方式的训练
将残差图卷积网络的输出即词向量输出特征矩阵Xout的每一行作为与词向量输入特征矩阵Xin每一行对应类别的预测分类特征向量,训练集中图片的真实分类特征向量与该图片类别对应的预测分类特征向量进行比较,采用均方误差函数作为损失函数对对残差图卷积网络进行训练,其中,均方误差函数为:
(4)、零样本图片的识别
4.1)、对一张给定的新图片,提取其视觉特征V,视觉特征V为一行向量;
4.2)、将视觉特征与残差图卷积网络输出的每一个预测特征向量计算内积值Oj:
Oj=fh·VT,j=1,2,....,N
其中,T表示转置;
4.3)、对内积值进行排序,内积值最大的预测特征向量所对应的类别即是该图片的类别。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910496585.3A CN110222771B (zh) | 2019-06-10 | 2019-06-10 | 一种零样本图片的类别识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910496585.3A CN110222771B (zh) | 2019-06-10 | 2019-06-10 | 一种零样本图片的类别识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110222771A CN110222771A (zh) | 2019-09-10 |
CN110222771B true CN110222771B (zh) | 2023-03-10 |
Family
ID=67816273
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910496585.3A Active CN110222771B (zh) | 2019-06-10 | 2019-06-10 | 一种零样本图片的类别识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110222771B (zh) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110705613B (zh) * | 2019-09-19 | 2021-06-11 | 创新奇智(青岛)科技有限公司 | 物体分类方法 |
CN110852367B (zh) * | 2019-11-05 | 2023-10-31 | 上海联影智能医疗科技有限公司 | 图像分类方法、计算机设备和存储介质 |
CN110827302A (zh) * | 2019-11-14 | 2020-02-21 | 中南大学 | 基于深度图卷积网络的点云目标提取方法及装置 |
CN111126218B (zh) * | 2019-12-12 | 2023-09-26 | 北京工业大学 | 一种基于零样本学习的人体行为识别方法 |
CN113128530B (zh) * | 2019-12-30 | 2023-11-03 | 上海高德威智能交通***有限公司 | 一种数据分类方法及装置 |
CN111461162B (zh) * | 2020-01-03 | 2023-04-07 | 华中科技大学 | 一种零样本目标检测模型及其建立方法 |
CN111612046B (zh) * | 2020-04-29 | 2023-10-20 | 杭州电子科技大学 | 特征金字塔图卷积神经网络及其在3d点云分类中的应用 |
CN112100392B (zh) * | 2020-07-28 | 2022-03-15 | 浙江大学 | 一种基于强化学习和知识图谱的设备故障溯因方法 |
CN112488241B (zh) * | 2020-12-18 | 2022-04-19 | 贵州大学 | 一种基于多粒度融合网络的零样本图片识别方法 |
CN112487193B (zh) * | 2020-12-18 | 2022-11-22 | 贵州大学 | 一种基于自编码器的零样本图片分类方法 |
CN113920379B (zh) * | 2021-11-09 | 2024-05-28 | 北京工业大学 | 一种基于知识辅助的零样本图像分类方法 |
CN115661847B (zh) * | 2022-09-14 | 2023-11-21 | 北京百度网讯科技有限公司 | 表格结构识别及模型训练方法、装置、设备和存储介质 |
CN117893876A (zh) * | 2024-01-08 | 2024-04-16 | 中国科学院自动化研究所 | 零样本训练方法、装置、存储介质和电子设备 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3029606A3 (en) * | 2014-11-14 | 2016-09-14 | Thomson Licensing | Method and apparatus for image classification with joint feature adaptation and classifier learning |
CN107346327A (zh) * | 2017-04-18 | 2017-11-14 | 电子科技大学 | 基于监督转移的零样本哈希图片检索方法 |
CN107437096B (zh) * | 2017-07-28 | 2020-06-26 | 北京大学 | 基于参数高效的深度残差网络模型的图像分类方法 |
CN107609563A (zh) * | 2017-09-15 | 2018-01-19 | 成都澳海川科技有限公司 | 图片语义描述方法及装置 |
CN107679556A (zh) * | 2017-09-18 | 2018-02-09 | 天津大学 | 基于变分自动编码器的零样本图像分类方法 |
CN108846413B (zh) * | 2018-05-21 | 2021-07-23 | 复旦大学 | 一种基于全局语义一致网络的零样本学习方法 |
CN108830301A (zh) * | 2018-05-28 | 2018-11-16 | 温州大学苍南研究院 | 基于锚图结构的双拉普拉斯正则化的半监督数据分类方法 |
US10248664B1 (en) * | 2018-07-02 | 2019-04-02 | Inception Institute Of Artificial Intelligence | Zero-shot sketch-based image retrieval techniques using neural networks for sketch-image recognition and retrieval |
CN109344878B (zh) * | 2018-09-06 | 2021-03-30 | 北京航空航天大学 | 一种基于ResNet的仿鹰脑特征整合小目标识别方法 |
CN109447115A (zh) * | 2018-09-25 | 2019-03-08 | 天津大学 | 基于多层语义监督式注意力模型的细粒度零样本分类方法 |
CN109215053B (zh) * | 2018-10-16 | 2021-04-27 | 西安建筑科技大学 | 一种无人机航拍视频中含暂停状态的运动车辆检测方法 |
-
2019
- 2019-06-10 CN CN201910496585.3A patent/CN110222771B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN110222771A (zh) | 2019-09-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110222771B (zh) | 一种零样本图片的类别识别方法 | |
US10963632B2 (en) | Method, apparatus, device for table extraction based on a richly formatted document and medium | |
CN108492200B (zh) | 一种基于卷积神经网络的用户属性推断方法和装置 | |
CN112819023B (zh) | 样本集的获取方法、装置、计算机设备和存储介质 | |
CN110647904B (zh) | 一种基于无标记数据迁移的跨模态检索方法及*** | |
CN111382283B (zh) | 资源类别标签标注方法、装置、计算机设备和存储介质 | |
CN111753101A (zh) | 一种融合实体描述及类型的知识图谱表示学习方法 | |
CN112308115B (zh) | 一种多标签图像深度学习分类方法及设备 | |
CN114048340B (zh) | 一种层级融合的组合查询图像检索方法 | |
CN109902714A (zh) | 一种基于多图正则化深度哈希的多模态医学图像检索方法 | |
WO2023284808A1 (zh) | 模型训练方法、文本处理方法和装置、电子设备、介质 | |
CN112000689A (zh) | 一种基于文本分析的多知识图谱融合方法 | |
CN112069961B (zh) | 一种基于度量学习的少样本文档版面分析方法 | |
CN114519107A (zh) | 一种联合实体关系表示的知识图谱融合方法 | |
CN114254093A (zh) | 多空间知识增强的知识图谱问答方法及*** | |
CN116610831A (zh) | 语义细分及模态对齐推理学习跨模态检索方法及检索*** | |
CN115546553A (zh) | 一种基于动态特征抽取和属性修正的零样本分类方法 | |
Poisot | An a posteriori measure of network modularity | |
Yin et al. | An efficient recommendation algorithm based on heterogeneous information network | |
Lonij et al. | Open-world visual recognition using knowledge graphs | |
CN111125318A (zh) | 基于义原-义项信息提升知识图谱关系预测性能的方法 | |
CN112711676B (zh) | 一种视频召回方法、装置、电子设备及存储介质 | |
CN105787045A (zh) | 一种用于可视媒体语义索引的精度增强方法 | |
CN111339258A (zh) | 基于知识图谱的大学计算机基础习题推荐方法 | |
CN114912516B (zh) | 一种协调特征一致性和特异性的跨域目标检测方法及*** |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |