CN107562812A - 一种基于特定模态语义空间建模的跨模态相似性学习方法 - Google Patents

一种基于特定模态语义空间建模的跨模态相似性学习方法 Download PDF

Info

Publication number
CN107562812A
CN107562812A CN201710684763.6A CN201710684763A CN107562812A CN 107562812 A CN107562812 A CN 107562812A CN 201710684763 A CN201710684763 A CN 201710684763A CN 107562812 A CN107562812 A CN 107562812A
Authority
CN
China
Prior art keywords
mrow
msubsup
msub
text
cross
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201710684763.6A
Other languages
English (en)
Other versions
CN107562812B (zh
Inventor
彭宇新
綦金玮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Peking University
Original Assignee
Peking University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Peking University filed Critical Peking University
Priority to CN201710684763.6A priority Critical patent/CN107562812B/zh
Publication of CN107562812A publication Critical patent/CN107562812A/zh
Application granted granted Critical
Publication of CN107562812B publication Critical patent/CN107562812B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明涉及一种基于特定模态语义空间建模的跨模态相似性学习方法,包括以下步骤:1.建立跨模态数据库,其中包含多种模态类型数据,并将数据库中的数据分为训练集、测试集和验证集。2.针对跨模态数据库中的每种模态类型,构造针对该特定模态的语义空间,将其他模态类型数据投射到该语义空间,得到针对该特定模态的跨模态相似度。3.将从不同模态语义空间得到的针对特定模态的跨模态相似度进行融合,得到最终跨模态相似度。4.取测试集中的任意一种模态类型作为查询模态,以另一种模态类型作为目标模态,计算查询样例和查询目标的相似性,根据相似性得到目标模态数据的相关结果列表。本发明能够提高跨模态检索的准确率。

Description

一种基于特定模态语义空间建模的跨模态相似性学习方法
技术领域
本发明涉及多媒体检索领域,具体涉及一种基于特定模态语义空间建模的跨模态相似性学习方法。
背景技术
如今,包括图像、视频、文本和音频在内的多模态数据在互联网上广泛存在,这些多模态数据是帮助人工智能认知现实世界的基础。一些研究工作已经在尝试打破不同模态数据之间的异构鸿沟,而跨模态检索作为其中一个热点的研究问题,可以实现跨越不同模态数据的信息检索,而且具有广泛的实际应用需求,例如搜索引擎和数字图书馆等。传统的单模态检索,例如图像检索、视频检索等,都局限于单一模态的形式,只能返回与查询相同模态类型的检索结果。与之不同的是,跨模态检索更加方便与有用,可以通过任意模态类型的查询检索得到不同模态的检索结果。
跨模态检索的一大挑战是如何应对不同模态的不一致性,并学习其间的内在关联。由于不同模态数据具有多种多样的表示形式以及分布特性,并且分散在各自的特征空间,这种异构特性使得度量不同模态之间的相似性十分困难,例如一幅图像和一段音频之间的相似性。针对上述问题,研究人员提出了一些方法,将不同模态数据的特征表示投射到同一个统一空间来学习统一表征,从而不同模态数据之间的相似性可以通过计算其对应统一表征之间距离来得到。传统方法通过为不同模态数据学习映射矩阵来最大化其间的关联,例如通过典型相关分析(Canonical Correlation Analysis,简称CCA)来分析不同模态数据之间成对的关联关系,将不同模态数据映射到同一维度的公共子空间。此外,Zhai等人在文献“Learning Cross-Media Joint Representation with Sparse and Semi-Supervised Regularization”中提出了基于图规约的方法,为不同模态数据构造图模型,同时进行跨模态关联学习和高层语义抽象。
近年来,深度学习取得的巨大进展促使研究人员使用深度神经网络来建模不同模态数据之间的关联关系,Feng等人在文献“Cross-modal Retrieval with CorrespondenceAutoencoder”中提出对应自编码器(Correspondence Autoencoder,简称Corr-AE),通过构建两路相连的网络结构,同时建模不同模态数据的关联关系和重建信息。Peng等人在文献“Cross-media shared representation by hierarchical learning with multipledeep networks”提出了跨模态多网络结构模型(Cross-media Multiple Deep Network,简称CMDN),其在单模态分离表示学习阶段同时建模模态内的语义信息以及不同模态之间的关联信息,然后在统一表征学习阶段构建多层网络结构,融合单模态语义抽象表示和单模态关联表示,并使用层叠学习的方式同时建模重建和关联信息学习得到跨模态统一表征。
然而上述现有方法大都是将不同模态的数据通过映射矩阵或深度模型同等地投射到统一空间来挖掘其间潜在的对齐关系,这意味着从不同模态数据中挖掘的信息是等量的。但一般来讲,不同模态数据,例如图像和文本,其间的关系往往是不平等而且互补的。当它们共同描述同一语义时,可能会包含不等量的信息,因为某些模态内部独有的信息并不能很好的与其他模态表述的内容进行对齐。因此,同等地对待不同模态数据来挖掘潜在的细粒度对齐内容并构建一个统一空间,会损失模态内独有且有用的信息,而不能充分利用每种模态提供的丰富的内在信息。
发明内容
针对现有技术的不足,本发明提出了一种基于特定模态语义空间建模的跨模态相似性学***衡的关联信息,最后使用动态融合的方式将从不同模态语义空间得到的针对特定模态的跨模态相似度进行融合,进一步挖掘不同模态语义空间的互补性,提高了跨模态检索的准确率。
为达到以上目的,本发明采用的技术方案如下:
一种基于特定模态语义空间建模的跨模态相似性学习方法,用于构造针对特定模态的语义空间,并将从不同模态语义空间得到的针对特定模态的跨模态相似度进行融合,得到不同模态数据的相似度,从而实现跨模态检索,包括以下步骤,其中步骤(1)-(3)得到跨模态相似度,步骤(4)进一步实现跨模态检索:
(1)建立跨模态数据库,其中包含多种模态类型的数据;
(2)针对跨模态数据库中的每种模态类型,构造针对该特定模态的语义空间,将其他模态类型数据投射到该语义空间,得到针对该特定模态的跨模态相似度;
(3)将从不同模态的语义空间得到的针对特定模态的跨模态相似度进行融合,得到最终跨模态相似度;
(4)使用任意一种模态类型作为查询模态,以另一种模态类型作为目标模态,将查询模态的每个数据作为查询样例,检索目标模态中的数据,计算查询样例和查询目标的相似性,根据相似性得到目标模态数据的相关结果列表。
进一步,上述一种基于特定模态语义空间建模的跨模态相似性学习方法,所述步骤(1)跨模态数据库可以包含多种模态类型,例如图像、文本等。
进一步,上述一种基于特定模态语义空间建模的跨模态相似性学习方法,所述步骤(2)的针对特定模态的语义空间构造方法,对该特定模态数据训练循环注意力网络,然后通过基于注意力机制的联合关联学习将其他模态类型数据投射到该模态的语义空间,得到针对该特定模态的跨模态相似度。
进一步,上述一种基于特定模态语义空间建模的跨模态相似性学习方法,所述步骤(3)中跨模态相似度学习方法,使用动态融合的方式将从不同模态语义空间得到的针对特定模态的跨模态相似度进行融合。
进一步,上述一种基于特定模态语义空间建模的跨模态相似性学习方法,所述步骤(4)的检索方式是,使用一种模态类型作为查询模态,另外一种模态类型作为目标模态。对于查询模态的每个数据作为查询样例,按照步骤(3)计算得到相似性之后,与目标模态的所有数据计算相似性,然后按照相似性从大到小排序,得到相关结果列表。
本发明的效果在于:与现有方法相比,本方法通过构造针对特定模态的语义空间,能够充分建模模态内部的细粒度信息以及空间上下文信息,然后通过基于注意力机制的联合关联学***衡的关联信息,最后使用动态融合的方式进一步挖掘不同模态语义空间的互补性,提高了跨模态检索的准确率。
本方法之所以具有上述发明效果,其原因在于:针对特定模态的语义空间,对该特定模态数据训练循环注意力网络,建模模态内部的细粒度信息以及空间上下文信息,然后通过基于注意力机制的联合关联学***衡的关联信息,最后使用动态融合的方式,将从不同模态语义空间得到的针对特定模态的跨模态相似度进行融合,进一步挖掘不同模态语义空间的互补性,提高了跨模态检索的准确率。
附图说明
图1是本发明的一种基于特定模态语义空间建模的跨模态相似性学习方法流程图。
图2是本发明的完整网络结构的示意图。
具体实施方式
下面结合附图和具体实施例对本发明作进一步详细的描述。
本发明的一种基于特定模态语义空间建模的跨模态相似性学习方法,其流程如图1所示,包含以下步骤:
(1)建立跨模态数据库,其中包含多种模态类型的数据,并将数据库中的数据分为训练集、测试集和验证集。
本实施例中,所述跨模态数据库可以包含多种模态类型,包括图像、文本。
用D表示跨模态数据集,D={D(i),D(t)},其中
对于媒体类型r,其中r=i,t(i表示图像,t表示文本),定义n(r)为其数据个数。训练集中的每个数据有且只有一个语义类别。
定义为媒体类型r中的第p个数据的特征向量,其表示结构为一个d(r)×1的向量,其中d(r)表示媒体类型r的特征向量维度。
定义的语义标签定为其表示结构为一个c×1的向量,其中c表示语义类别的总量。中有且只有一维为1,其余为0,表示该数据的语义类别为值是1的列所对应的标签。
(2)针对跨模态数据库中的每种模态类型,构造针对该特定模态的语义空间,将其他模态类型数据投射到该语义空间,得到针对该特定模态的跨模态相似度。
该步骤的过程如图2所示。本实施例中,针对图像语义空间构造,使用循环注意力网络模型建模图像数据,首先将原始图像缩放至256×256,并输入到卷积神经网络中。然后从卷积神经网络最后一个池化层(pooling layer)为图像不同的区域提取各自的特征表示并将一个图像中的各个区域按顺序组织成一个序列,使用LSTM(Long-Short TermMemory,长短期记忆)神经网络建模不同图像区域之间的空间上下文信息,其输出的序列可以表示为接着利用注意力机制使训练模型聚焦于更重要的图像区域,具体地,构造全连接网络和Softmax激活层,通过如下公式计算视觉注意力权重:
其中为各层的网络参数,而ai包含图像中不同区域的视觉注意力权重。因此,一个图像中第n个区域的特征向量可以表示为(如图2中图像语义空间中的所示),同时包含了图像的局部细粒度信息以及空间上下文信息。下一步,将文本数据投射到图像语义空间来进行跨模态关联学习。具体地,先为文本数据中的每个词提取k维的词向量特征,然后包含n个词的一个文本可以表示为n×k的矩阵,输入到文本卷积神经网络得到该句话的特征表示接着图像ip和文本tp在图像语义空间的跨模态相似度定义如下(如图2中图像语义空间中的所示):
其中表示图像ip中的第j个区域特征向量。最后定义如下损失函数实现基于注意力的关联学习:
上述公式的两项分别定义如下:
其中表示匹配的图像/文本对,表示不匹配的图像/文本对,α是边界参数,而N表示采样的三元组数目。至此,从图像语义空间可以得到针对图像模态的跨模态相似度simi,整合了表示学***衡的关联信息。
本实施例中,针对文本语义空间构造,使用循环注意力网络模型建模文本数据,先对于每一个文本数据,为其中每个词提取k维的词向量特征,则一个包含n个词的文本可以表示为n×k的矩阵,输入到文本卷积神经网络,并从网络最后一个池化层(pooling layer)提取不同文本块的特征表示。然后按顺序输入到LSTM神经网络中,来建模文本的上下文信息,其输出的序列可以表示为接着利用注意力机制使训练模型聚焦于更重要的文本片段,具体地,构造全连接网络和Softmax激活层,通过如下公式计算文本注意力权重:
其中为各层的网络参数,而at包含文本中不同片段的文本注意力权重。因此,一个文本中第m个片段的特征向量可以表示为(如图2中文本语义空间中的所示),同时包含了文本的局部细粒度信息以及空间上下文信息。下一步,将图像数据投射到文本语义空间来进行跨模态关联学习。具体地,先使用卷积神经网络提取图像整体的特征表示接着图像ip和文本tp在文本语义空间的跨模态相似度定义如下(如图2中文本语义空间中的所示):
其中表示文本tp中的第j个片段特征向量。最后定义如下损失函数实现基于注意力的关联学习:
上述公式的两项分别定义如下:
其中表示匹配的图像/文本对,表示不匹配的图像/文本对,β是边界参数,而M表示采样的三元组数目。至此,从该文本语义空间可以得到针对文本模态的跨模态相似度simt,整合了表示学***衡的关联信息。
(3)将从不同模态语义空间得到的针对特定模态的跨模态相似度进行融合,得到最终跨模态相似度。
本实施例中,使用动态融合的方式将从不同模态语义空间得到的针对特定模态的跨模态相似度进行融合。首先,将从不同模态语义空间得到的针对特定模态的跨模态相似度按照如下的公式归一到0到1之间:
然后,对于图像/文本对(ip,tp),从图像语义空间计算得到归一化后的得分会作为该图像/文本对在文本空间的动态权重,而从文本语义空间计算得到归一化后的得分会作为该图像/文本对在图像空间的动态权重。因此,最终的跨模态相似度定义如下:
Sim(ip,tp)=rt(ip,tp)·simi(ip,tp)+ri(ip,tp)·simt(ip,tp)
能够充分地挖掘不同模态语义空间的互补性,并进一步提升跨模态检索的效果。
(4)使用测试集中的任意一种模态类型作为查询模态,以另一种模态类型作为目标模态。将查询模态的每个数据作为查询样例,检索目标模态中的数据,按照步骤(3)中的方式,计算查询样例和查询目标的相似性,将相似性按照从大到小排序,得到目标模态数据的相关结果列表。
下面的实验结果表明,与现有方法相比,本发明基于多粒度层级网络的跨模态关联学习方法,可以取得更高的检索准确率。
本实施例采用了Wikipedia跨模态数据集进行实验,该数据集由文献“A NewApproach to Cross-Modal Multimedia Retrieval”(作者N.Rasiwasia,J.Pereira,E.Coviello,G.Doyle,G.Lanckriet,R.Levy和N.Vasconcelos,发表在2010年的ACMinternational conference on Multimedia)提出,其中包括2866段文本和2866张图像,且文本和图像是一一对应的,总共分为10个类别,其中2173段文本和2173张图像作为训练集,231段文本和231张图像作为验证集,492段文本和492张图像作为测试集。测试了以下3种方法作为实验对比:
现有方法一:文献“Learning Cross-Media Joint Representation with Sparseand Semi-Supervised Regularization”(作者X.Zhai,Y.Peng,and J.Xiao)中的联合表示学习(Joint Representation Learning,简称JRL)方法,为不同模态数据构建图模型,同时进行跨模态关联学习和高层语义抽象,并且引入稀疏和半监督规约。
现有方法二:文献“Cross-modal Retrieval with CorrespondenceAutoencoder”(作者F.Feng,X.Wang,and R.Li)中的对应自编码器网络(CorrespondenceAutoencoder,简称Corr-AE)方法,构建了两路网络,并在中间层相连以同时建模关联信息与重建信息。
现有方法三:文献“Cross-media shared representation by hierarchicallearning with multiple deep networks”(作者Y.Peng,X.Huang,and J.Qi)中的跨模态多网络结构(Cross-media Multiple Deep Network,简称CMDN),在单模态分离表示学习阶段同时建模模态内的语义信息以及不同模态之间的关联信息,然后在统一表征学习阶段构建多层网络结构,并使用层叠学习的方式同时建模重建和关联信息学习得到跨模态统一表征。
本发明:本实施例的方法。
实验采用信息检索领域常用的MAP(mean average precision)指标来评测跨模态检索的准确性,MAP是指每个查询样例检索准确性的平均值,MAP值越大,说明跨模态检索的结果就越好。
表1.本发明的实验结果展示
图像查询文本 文本查询图像 平均
现有方法一 0.479 0.428 0.454
现有方法二 0.442 0.429 0.436
现有方法三 0.487 0.427 0.457
本发明 0.516 0.458 0.487
从表1可以看出,本发明在图像查询文本、文本查询图像两个任务中都比现有方法取得了较大提高。现有方法一在传统框架下构建图模型将不同模态数据线性映射到统一空间,难以充分建模复杂的跨模态关联关系。现有方法二和现有方法三均采用深度网络结构,但是将不同模态的数据通过深度模型同等地投射到统一空间来挖掘其间潜在的对齐关联,会损失模态内独有且有用的信息,而不能充分利用每种模态提供的内在信息。本发明一方面构造针对特定模态的语义空间,建模模态内部的细粒度信息以及空间上下文信息,同时充分学***衡的关联信息。另一方面,使用动态融合的方式将从不同模态语义空间得到的针对特定模态的跨模态相似度进行融合,进一步挖掘不同模态语义空间的互补性,从而提高了跨模态检索的准确率。
在其它实施例中,本发明步骤(2)中的构造特定模态语义空间的方法,使用LSTM(Long-Short Term Memory,长短期记忆)神经网络建模图像和文本数据的上下文信息,同样可以采用循环神经网络(Recurrent Neural Network,简称RNN)作为替代。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。

Claims (8)

1.一种基于特定模态语义空间建模的跨模态相似性学习方法,包括以下步骤:
(1)建立跨模态数据库,其中包含多种模态类型的数据;
(2)针对跨模态数据库中的每种模态类型,构造针对该特定模态的语义空间,将其他模态类型数据投射到该语义空间,得到针对该特定模态的跨模态相似度;
(3)将从不同模态的语义空间得到的针对特定模态的跨模态相似度进行融合,得到最终的跨模态相似度。
2.如权利要求1所述的方法,其特征在于,所述跨模态数据库包含多种模态类型,所述多种模态类型包括图像、文本。
3.如权利要求1所述的方法,其特征在于,步骤(2)中的针对特定模态的语义空间构造方法是:对该特定模态的数据训练循环注意力网络,然后通过基于注意力机制的联合关联学习将其他模态类型的数据投射到该模态的语义空间,得到针对该特定模态的跨模态相似度。
4.如权利要求3所述的方法,其特征在于,图像语义空间的构造方法为:
a)将原始图像并输入到卷积神经网络中;
b)从卷积神经网络最后一个池化层为图像不同的区域提取各自的特征表示并将一个图像中的各个区域按顺序组织成一个序列,使用LSTM神经网络或RNN神经网络建模不同图像区域之间的空间上下文信息,其输出的序列表示为
c)利用注意力机制使训练模型聚焦于重要的图像区域,首先构造全连接网络和Softmax激活层,然后通过如下公式计算视觉注意力权重:
<mrow> <msup> <mi>M</mi> <mi>i</mi> </msup> <mo>=</mo> <mi>tanh</mi> <mrow> <mo>(</mo> <msubsup> <mi>W</mi> <mi>a</mi> <mi>i</mi> </msubsup> <msub> <mi>H</mi> <mi>i</mi> </msub> <mo>)</mo> </mrow> <mo>,</mo> </mrow>
<mrow> <msup> <mi>a</mi> <mi>i</mi> </msup> <mo>=</mo> <mi>s</mi> <mi>o</mi> <mi>f</mi> <mi>t</mi> <mi>m</mi> <mi>a</mi> <mi>x</mi> <mrow> <mo>(</mo> <msubsup> <mi>w</mi> <mrow> <mi>i</mi> <mi>a</mi> </mrow> <mi>T</mi> </msubsup> <msub> <mi>M</mi> <mi>i</mi> </msub> <mo>)</mo> </mrow> <mo>,</mo> </mrow>
其中为各层的网络参数,而ai包含图像中不同区域的视觉注意力权重,因此,一个图像中第n个区域的特征向量表示为同时包含了图像的局部细粒度信息以及空间上下文信息;
d)将文本数据投射到图像语义空间来进行跨模态关联学习,首先为文本数据中的每个词提取k维的词向量特征,然后包含n个词的一个文本表示为n×k的矩阵,输入到文本卷积神经网络得到该句话的特征表示接着定义图像ip和文本tp在图像语义空间的跨模态相似度如下:
<mrow> <msub> <mi>sim</mi> <mi>i</mi> </msub> <mrow> <mo>(</mo> <msub> <mi>i</mi> <mi>p</mi> </msub> <mo>,</mo> <msub> <mi>t</mi> <mi>p</mi> </msub> <mo>)</mo> </mrow> <mo>=</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>j</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>n</mi> </munderover> <msubsup> <mi>a</mi> <mi>j</mi> <msub> <mi>i</mi> <mi>p</mi> </msub> </msubsup> <msubsup> <mi>h</mi> <mi>j</mi> <msub> <mi>i</mi> <mi>p</mi> </msub> </msubsup> <mo>&amp;CenterDot;</mo> <msubsup> <mi>q</mi> <mi>p</mi> <mi>t</mi> </msubsup> <mo>,</mo> </mrow>
其中表示图像ip中的第j个区域特征向量;
e)定义如下损失函数实现基于注意力的关联学习:
<mrow> <msub> <mi>L</mi> <mi>i</mi> </msub> <mo>=</mo> <munderover> <mi>&amp;Sigma;</mi> <mrow> <mi>n</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>N</mi> </munderover> <msub> <mi>l</mi> <mrow> <mi>i</mi> <mn>1</mn> </mrow> </msub> <mrow> <mo>(</mo> <msubsup> <mi>i</mi> <mi>n</mi> <mo>+</mo> </msubsup> <mo>,</mo> <msubsup> <mi>t</mi> <mi>n</mi> <mo>+</mo> </msubsup> <mo>,</mo> <msubsup> <mi>t</mi> <mi>n</mi> <mo>-</mo> </msubsup> <mo>)</mo> </mrow> <mo>+</mo> <msub> <mi>l</mi> <mrow> <mi>i</mi> <mn>2</mn> </mrow> </msub> <mrow> <mo>(</mo> <msubsup> <mi>t</mi> <mi>n</mi> <mo>+</mo> </msubsup> <mo>,</mo> <msubsup> <mi>i</mi> <mi>n</mi> <mo>+</mo> </msubsup> <mo>,</mo> <msubsup> <mi>i</mi> <mi>n</mi> <mo>-</mo> </msubsup> <mo>)</mo> </mrow> <mo>,</mo> </mrow>
上述公式中的两项分别定义如下:
<mrow> <msub> <mi>l</mi> <mrow> <mi>i</mi> <mn>1</mn> </mrow> </msub> <mrow> <mo>(</mo> <msubsup> <mi>i</mi> <mi>n</mi> <mo>+</mo> </msubsup> <mo>,</mo> <msubsup> <mi>t</mi> <mi>n</mi> <mo>+</mo> </msubsup> <mo>,</mo> <msubsup> <mi>t</mi> <mi>n</mi> <mo>-</mo> </msubsup> <mo>)</mo> </mrow> <mo>=</mo> <mi>m</mi> <mi>a</mi> <mi>x</mi> <mrow> <mo>(</mo> <mn>0</mn> <mo>,</mo> <mi>&amp;alpha;</mi> <mo>+</mo> <msub> <mi>sim</mi> <mi>i</mi> </msub> <mo>(</mo> <mrow> <msubsup> <mi>i</mi> <mi>n</mi> <mo>+</mo> </msubsup> <mo>,</mo> <msubsup> <mi>t</mi> <mi>n</mi> <mo>+</mo> </msubsup> </mrow> <mo>)</mo> <mo>-</mo> <msub> <mi>sim</mi> <mi>i</mi> </msub> <mo>(</mo> <mrow> <msubsup> <mi>i</mi> <mi>n</mi> <mo>+</mo> </msubsup> <mo>,</mo> <msubsup> <mi>t</mi> <mi>n</mi> <mo>-</mo> </msubsup> </mrow> <mo>)</mo> <mo>)</mo> </mrow> <mo>,</mo> </mrow>
<mrow> <msub> <mi>l</mi> <mrow> <mi>i</mi> <mn>2</mn> </mrow> </msub> <mrow> <mo>(</mo> <msubsup> <mi>t</mi> <mi>n</mi> <mo>+</mo> </msubsup> <mo>,</mo> <msubsup> <mi>i</mi> <mi>n</mi> <mo>+</mo> </msubsup> <mo>,</mo> <msubsup> <mi>i</mi> <mi>n</mi> <mo>-</mo> </msubsup> <mo>)</mo> </mrow> <mo>=</mo> <mi>m</mi> <mi>a</mi> <mi>x</mi> <mrow> <mo>(</mo> <mn>0</mn> <mo>,</mo> <mi>&amp;alpha;</mi> <mo>+</mo> <msub> <mi>sim</mi> <mi>i</mi> </msub> <mo>(</mo> <mrow> <msubsup> <mi>i</mi> <mi>n</mi> <mo>+</mo> </msubsup> <mo>,</mo> <msubsup> <mi>t</mi> <mi>n</mi> <mo>+</mo> </msubsup> </mrow> <mo>)</mo> <mo>-</mo> <msub> <mi>sim</mi> <mi>i</mi> </msub> <mo>(</mo> <mrow> <msubsup> <mi>i</mi> <mi>n</mi> <mo>-</mo> </msubsup> <mo>,</mo> <msubsup> <mi>t</mi> <mi>n</mi> <mo>+</mo> </msubsup> </mrow> <mo>)</mo> <mo>)</mo> </mrow> <mo>,</mo> </mrow>
其中表示匹配的图像/文本对,表示不匹配的图像/文本对,α是边界参数,而N表示采样的三元组数目。
5.如权利要求4所述的方法,其特征在于,文本语义空间的构造方法为:
a)对于每一个文本数据,为其中每个词提取k维的词向量特征,则一个包含n个词的文本表示为n×k的矩阵,输入到文本卷积神经网络;
b)从卷积神经网络最后一个池化层提取不同文本块的特征表示,然后按顺序输入到LSTM神经网络或RNN神经网络中,来建模文本的上下文信息,其输出的序列表示为
c)利用注意力机制使训练模型聚焦于重要的文本片段,首先构造全连接网络和Softmax激活层,然后通过如下公式计算文本注意力权重:
<mrow> <msup> <mi>M</mi> <mi>t</mi> </msup> <mo>=</mo> <mi>tanh</mi> <mrow> <mo>(</mo> <msubsup> <mi>W</mi> <mi>a</mi> <mi>t</mi> </msubsup> <msub> <mi>H</mi> <mi>t</mi> </msub> <mo>)</mo> </mrow> <mo>,</mo> </mrow>
<mrow> <msup> <mi>a</mi> <mi>t</mi> </msup> <mo>=</mo> <mi>s</mi> <mi>o</mi> <mi>f</mi> <mi>t</mi> <mi>m</mi> <mi>a</mi> <mi>x</mi> <mrow> <mo>(</mo> <msubsup> <mi>w</mi> <mrow> <mi>t</mi> <mi>a</mi> </mrow> <mi>T</mi> </msubsup> <msub> <mi>M</mi> <mi>t</mi> </msub> <mo>)</mo> </mrow> <mo>,</mo> </mrow>
其中为各层的网络参数,而at包含文本中不同片段的文本注意力权重,因此一个文本中第m个片段的特征向量表示为同时包含了文本的局部细粒度信息以及空间上下文信息;
d)将图像数据投射到文本语义空间来进行跨模态关联学习,首先使用卷积神经网络提取图像整体的特征表示接着定义图像ip和文本tp在文本语义空间的跨模态相似度如下:
<mrow> <msub> <mi>sim</mi> <mi>t</mi> </msub> <mrow> <mo>(</mo> <msub> <mi>i</mi> <mi>p</mi> </msub> <mo>,</mo> <msub> <mi>t</mi> <mi>p</mi> </msub> <mo>)</mo> </mrow> <mo>=</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>j</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>m</mi> </munderover> <msubsup> <mi>a</mi> <mi>j</mi> <msub> <mi>t</mi> <mi>p</mi> </msub> </msubsup> <msubsup> <mi>h</mi> <mi>j</mi> <msub> <mi>t</mi> <mi>p</mi> </msub> </msubsup> <mo>&amp;CenterDot;</mo> <msubsup> <mi>q</mi> <mi>p</mi> <mi>i</mi> </msubsup> <mo>,</mo> </mrow>
其中表示文本tp中的第j个片段特征向量;
e)定义如下损失函数实现基于注意力的关联学习:
<mrow> <msub> <mi>L</mi> <mi>t</mi> </msub> <mo>=</mo> <munderover> <mi>&amp;Sigma;</mi> <mrow> <mi>n</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>M</mi> </munderover> <msub> <mi>l</mi> <mrow> <mi>t</mi> <mn>1</mn> </mrow> </msub> <mrow> <mo>(</mo> <msubsup> <mi>t</mi> <mi>n</mi> <mo>+</mo> </msubsup> <mo>,</mo> <msubsup> <mi>i</mi> <mi>n</mi> <mo>+</mo> </msubsup> <mo>,</mo> <msubsup> <mi>i</mi> <mi>n</mi> <mo>-</mo> </msubsup> <mo>)</mo> </mrow> <mo>+</mo> <msub> <mi>l</mi> <mrow> <mi>t</mi> <mn>2</mn> </mrow> </msub> <mrow> <mo>(</mo> <msubsup> <mi>i</mi> <mi>n</mi> <mo>+</mo> </msubsup> <mo>,</mo> <msubsup> <mi>t</mi> <mi>n</mi> <mo>+</mo> </msubsup> <mo>,</mo> <msubsup> <mi>t</mi> <mi>n</mi> <mo>-</mo> </msubsup> <mo>)</mo> </mrow> <mo>,</mo> </mrow>
上述公式中的两项分别定义如下:
<mrow> <msub> <mi>l</mi> <mrow> <mi>t</mi> <mn>1</mn> </mrow> </msub> <mrow> <mo>(</mo> <msubsup> <mi>t</mi> <mi>n</mi> <mo>+</mo> </msubsup> <mo>,</mo> <msubsup> <mi>i</mi> <mi>n</mi> <mo>+</mo> </msubsup> <mo>,</mo> <msubsup> <mi>i</mi> <mi>n</mi> <mo>-</mo> </msubsup> <mo>)</mo> </mrow> <mo>=</mo> <mi>m</mi> <mi>a</mi> <mi>x</mi> <mrow> <mo>(</mo> <mn>0</mn> <mo>,</mo> <mi>&amp;beta;</mi> <mo>+</mo> <msub> <mi>sim</mi> <mi>t</mi> </msub> <mo>(</mo> <mrow> <msubsup> <mi>i</mi> <mi>n</mi> <mo>+</mo> </msubsup> <mo>,</mo> <msubsup> <mi>t</mi> <mi>n</mi> <mo>+</mo> </msubsup> </mrow> <mo>)</mo> <mo>-</mo> <msub> <mi>sim</mi> <mi>t</mi> </msub> <mo>(</mo> <mrow> <msubsup> <mi>i</mi> <mi>n</mi> <mo>-</mo> </msubsup> <mo>,</mo> <msubsup> <mi>t</mi> <mi>n</mi> <mo>+</mo> </msubsup> </mrow> <mo>)</mo> <mo>)</mo> </mrow> <mo>,</mo> </mrow>
<mrow> <msub> <mi>l</mi> <mrow> <mi>t</mi> <mn>2</mn> </mrow> </msub> <mrow> <mo>(</mo> <msubsup> <mi>i</mi> <mi>n</mi> <mo>+</mo> </msubsup> <mo>,</mo> <msubsup> <mi>t</mi> <mi>n</mi> <mo>+</mo> </msubsup> <mo>,</mo> <msubsup> <mi>t</mi> <mi>n</mi> <mo>-</mo> </msubsup> <mo>)</mo> </mrow> <mo>=</mo> <mi>m</mi> <mi>a</mi> <mi>x</mi> <mrow> <mo>(</mo> <mn>0</mn> <mo>,</mo> <mi>&amp;beta;</mi> <mo>+</mo> <msub> <mi>sim</mi> <mi>t</mi> </msub> <mo>(</mo> <mrow> <msubsup> <mi>i</mi> <mi>n</mi> <mo>+</mo> </msubsup> <mo>,</mo> <msubsup> <mi>t</mi> <mi>n</mi> <mo>+</mo> </msubsup> </mrow> <mo>)</mo> <mo>-</mo> <msub> <mi>sim</mi> <mi>t</mi> </msub> <mo>(</mo> <mrow> <msubsup> <mi>i</mi> <mi>n</mi> <mo>+</mo> </msubsup> <mo>,</mo> <msubsup> <mi>t</mi> <mi>n</mi> <mo>-</mo> </msubsup> </mrow> <mo>)</mo> <mo>)</mo> </mrow> <mo>,</mo> </mrow>
其中表示匹配的图像/文本对,表示不匹配的图像/文本对,β是边界参数,而M表示采样的三元组数目。
6.如权利要求1所述的方法,其特征在于,步骤(3)使用动态融合的方式将从不同模态语义空间得到的针对特定模态的跨模态相似度进行融合,包括以下步骤:首先,将从不同模态语义空间得到的针对特定模态的跨模态相似度按照如下的公式归一到0到1之间:
<mrow> <msub> <mi>r</mi> <mi>i</mi> </msub> <mrow> <mo>(</mo> <msub> <mi>i</mi> <mi>p</mi> </msub> <mo>,</mo> <msub> <mi>t</mi> <mi>p</mi> </msub> <mo>)</mo> </mrow> <mo>=</mo> <mfrac> <mrow> <msub> <mi>sim</mi> <mi>i</mi> </msub> <mrow> <mo>(</mo> <msub> <mi>i</mi> <mi>p</mi> </msub> <mo>,</mo> <msub> <mi>t</mi> <mi>p</mi> </msub> <mo>)</mo> </mrow> <mo>-</mo> <mi>m</mi> <mi>i</mi> <mi>n</mi> <mrow> <mo>(</mo> <msub> <mi>sim</mi> <mi>i</mi> </msub> <mo>(</mo> <mrow> <mi>i</mi> <mo>,</mo> <mi>t</mi> </mrow> <mo>)</mo> <mo>)</mo> </mrow> </mrow> <mrow> <mi>max</mi> <mrow> <mo>(</mo> <msub> <mi>sim</mi> <mi>i</mi> </msub> <mo>(</mo> <mrow> <mi>i</mi> <mo>,</mo> <mi>t</mi> </mrow> <mo>)</mo> <mo>)</mo> </mrow> <mo>-</mo> <mi>m</mi> <mi>i</mi> <mi>n</mi> <mrow> <mo>(</mo> <msub> <mi>sim</mi> <mi>i</mi> </msub> <mo>(</mo> <mrow> <mi>i</mi> <mo>,</mo> <mi>t</mi> </mrow> <mo>)</mo> <mo>)</mo> </mrow> </mrow> </mfrac> <mo>,</mo> </mrow>
<mrow> <msub> <mi>r</mi> <mi>t</mi> </msub> <mrow> <mo>(</mo> <mrow> <msub> <mi>i</mi> <mi>p</mi> </msub> <mo>,</mo> <msub> <mi>t</mi> <mi>p</mi> </msub> </mrow> <mo>)</mo> </mrow> <mo>=</mo> <mfrac> <mrow> <msub> <mi>sim</mi> <mi>t</mi> </msub> <mrow> <mo>(</mo> <mrow> <msub> <mi>i</mi> <mi>p</mi> </msub> <mo>,</mo> <msub> <mi>t</mi> <mi>p</mi> </msub> </mrow> <mo>)</mo> </mrow> <mo>-</mo> <mi>min</mi> <mrow> <mo>(</mo> <mrow> <msub> <mi>sim</mi> <mi>t</mi> </msub> <mrow> <mo>(</mo> <mrow> <mi>i</mi> <mo>,</mo> <mi>t</mi> </mrow> <mo>)</mo> </mrow> </mrow> <mo>)</mo> </mrow> </mrow> <mrow> <mi>max</mi> <mrow> <mo>(</mo> <mrow> <msub> <mi>sim</mi> <mi>t</mi> </msub> <mrow> <mo>(</mo> <mrow> <mi>i</mi> <mo>,</mo> <mi>t</mi> </mrow> <mo>)</mo> </mrow> </mrow> <mo>)</mo> </mrow> <mo>-</mo> <mi>min</mi> <mrow> <mo>(</mo> <mrow> <msub> <mi>sim</mi> <mi>t</mi> </msub> <mrow> <mo>(</mo> <mrow> <mi>i</mi> <mo>,</mo> <mi>t</mi> </mrow> <mo>)</mo> </mrow> </mrow> <mo>)</mo> </mrow> </mrow> </mfrac> <mo>,</mo> </mrow>
然后,对于图像/文本对(ip,tp),从图像语义空间计算得到归一化后的得分作为该图像/文本对在文本空间的动态权重,而从文本语义空间计算得到归一化后的得分会作为该图像/文本对在图像空间的动态权重;最终的跨模态相似度定义如下:
Sim(ip,tp)=rt(ip,tp)·simi(ip,tp)+ri(ip,tp)·simt(ip,tp)。
7.一种跨模态检索方法,包括以下步骤:
1)采用权利要求1至6中任一权利要求所述方法计算跨模态相似度;
2)使用一种模态类型作为查询模态,以另一种模态类型作为目标模态,将查询模态的每个数据作为查询样例检索目标模态中的数据,计算查询样例和查询目标的相似性,根据相似性得到目标模态数据的检索结果。
8.如权利要求7所述的方法,其特征在于,步骤2)计算得到查询样例和查询目标的相似性之后,按照相似性从大到小排序,得到相关结果列表。
CN201710684763.6A 2017-08-11 2017-08-11 一种基于特定模态语义空间建模的跨模态相似性学习方法 Active CN107562812B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710684763.6A CN107562812B (zh) 2017-08-11 2017-08-11 一种基于特定模态语义空间建模的跨模态相似性学习方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710684763.6A CN107562812B (zh) 2017-08-11 2017-08-11 一种基于特定模态语义空间建模的跨模态相似性学习方法

Publications (2)

Publication Number Publication Date
CN107562812A true CN107562812A (zh) 2018-01-09
CN107562812B CN107562812B (zh) 2021-01-15

Family

ID=60975314

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710684763.6A Active CN107562812B (zh) 2017-08-11 2017-08-11 一种基于特定模态语义空间建模的跨模态相似性学习方法

Country Status (1)

Country Link
CN (1) CN107562812B (zh)

Cited By (49)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108256631A (zh) * 2018-01-26 2018-07-06 深圳市唯特视科技有限公司 一种基于注意力模型的用户行为推荐***
CN108415819A (zh) * 2018-03-15 2018-08-17 中国人民解放军国防科技大学 一种硬盘故障追踪方法和装置
CN108829719A (zh) * 2018-05-07 2018-11-16 中国科学院合肥物质科学研究院 一种非事实类问答答案选择方法及***
CN108881950A (zh) * 2018-05-30 2018-11-23 北京奇艺世纪科技有限公司 一种视频处理的方法和装置
CN109255047A (zh) * 2018-07-18 2019-01-22 西安电子科技大学 基于互补语义对齐和对称检索的图像-文本互检索方法
CN109325240A (zh) * 2018-12-03 2019-02-12 ***通信集团福建有限公司 指标查询的方法、装置、设备和介质
CN109508400A (zh) * 2018-10-09 2019-03-22 中国科学院自动化研究所 图文摘要生成方法
CN109543009A (zh) * 2018-10-17 2019-03-29 龙马智芯(珠海横琴)科技有限公司 文本相似度评估***及文本相似度评估方法
CN109543714A (zh) * 2018-10-16 2019-03-29 北京达佳互联信息技术有限公司 数据特征的获取方法、装置、电子设备及存储介质
CN109670071A (zh) * 2018-10-22 2019-04-23 北京大学 一种序列化多特征指导的跨媒体哈希检索方法和***
CN109785409A (zh) * 2018-12-29 2019-05-21 武汉大学 一种基于注意力机制的图像-文本数据融合方法和***
CN109886326A (zh) * 2019-01-31 2019-06-14 深圳市商汤科技有限公司 一种跨模态信息检索方法、装置和存储介质
CN109902710A (zh) * 2019-01-07 2019-06-18 南京热信软件科技有限公司 一种文本图像的快速匹配方法和装置
CN110210540A (zh) * 2019-05-22 2019-09-06 山东大学 基于注意力机制的跨社交媒体用户身份识别方法及***
CN110580489A (zh) * 2018-06-11 2019-12-17 阿里巴巴集团控股有限公司 一种数据对象的分类***、方法以及设备
WO2020001048A1 (zh) * 2018-06-29 2020-01-02 北京大学深圳研究生院 一种基于双语义空间的对抗性跨媒体检索方法
CN110706771A (zh) * 2019-10-10 2020-01-17 复旦大学附属中山医院 多模态患教内容的生成方法、装置、服务器及存储介质
CN110851641A (zh) * 2018-08-01 2020-02-28 杭州海康威视数字技术股份有限公司 跨模态检索方法、装置和可读存储介质
WO2020063524A1 (zh) * 2018-09-30 2020-04-02 北京国双科技有限公司 一种法律文书的确定方法及***
CN110990597A (zh) * 2019-12-19 2020-04-10 中国电子科技集团公司信息科学研究院 基于文本语义映射的跨模态数据检索***及其检索方法
CN111026894A (zh) * 2019-12-12 2020-04-17 清华大学 基于可信度自适应匹配网络的跨模态图像文本检索方法
JP2020064568A (ja) * 2018-10-19 2020-04-23 株式会社日立製作所 映像解析システム、学習装置、及びその方法
CN111091010A (zh) * 2019-11-22 2020-05-01 京东方科技集团股份有限公司 相似度确定、网络训练、查找方法及装置和存储介质
CN111159472A (zh) * 2018-11-08 2020-05-15 微软技术许可有限责任公司 多模态聊天技术
CN111199750A (zh) * 2019-12-18 2020-05-26 北京葡萄智学科技有限公司 一种发音评测方法、装置、电子设备及存储介质
CN111274445A (zh) * 2020-01-20 2020-06-12 山东建筑大学 基于三元组深度学习的相似视频内容检索方法及***
CN111339256A (zh) * 2020-02-28 2020-06-26 支付宝(杭州)信息技术有限公司 用于文本处理的方法和装置
CN111429913A (zh) * 2020-03-26 2020-07-17 厦门快商通科技股份有限公司 一种数字串语音识别方法、身份验证装置及计算机可读存储介质
CN111428072A (zh) * 2020-03-31 2020-07-17 南方科技大学 眼科多模态影像的检索方法、装置、服务器及存储介质
WO2020155418A1 (zh) * 2019-01-31 2020-08-06 深圳市商汤科技有限公司 一种跨模态信息检索方法、装置和存储介质
CN111639240A (zh) * 2020-05-14 2020-09-08 山东大学 一种基于注意力感知机制的跨模态哈希检索方法及***
CN111930992A (zh) * 2020-08-14 2020-11-13 腾讯科技(深圳)有限公司 神经网络训练方法、装置及电子设备
CN112001279A (zh) * 2020-08-12 2020-11-27 山东省人工智能研究院 基于双重属性信息的跨模态行人重识别方法
CN112041856A (zh) * 2018-03-01 2020-12-04 皇家飞利浦有限公司 用于预测的跨模态神经网络
CN112581387A (zh) * 2020-12-03 2021-03-30 广州电力通信网络有限公司 一种配电室智能运维***、装置及方法
CN112668671A (zh) * 2021-03-15 2021-04-16 北京百度网讯科技有限公司 预训练模型的获取方法和装置
CN113094550A (zh) * 2020-01-08 2021-07-09 百度在线网络技术(北京)有限公司 视频检索方法、装置、设备和介质
CN113159371A (zh) * 2021-01-27 2021-07-23 南京航空航天大学 基于跨模态数据融合的未知目标特征建模与需求预测方法
CN113204666A (zh) * 2021-05-26 2021-08-03 杭州联汇科技股份有限公司 一种基于文字查找匹配图片的方法
CN113392196A (zh) * 2021-06-04 2021-09-14 北京师范大学 一种基于多模态交叉比较的题目检索方法和***
CN113434716A (zh) * 2021-07-02 2021-09-24 泰康保险集团股份有限公司 一种跨模态信息检索方法和装置
CN113435206A (zh) * 2021-05-26 2021-09-24 卓尔智联(武汉)研究院有限公司 一种图文检索方法、装置和电子设备
CN113934887A (zh) * 2021-12-20 2022-01-14 成都考拉悠然科技有限公司 一种基于语义解耦的无提议时序语言定位方法
CN113971209A (zh) * 2021-12-22 2022-01-25 松立控股集团股份有限公司 一种基于注意力机制增强的无监督跨模态检索方法
CN114417878A (zh) * 2021-12-29 2022-04-29 北京百度网讯科技有限公司 语义识别方法、装置、电子设备及存储介质
CN114529757A (zh) * 2022-01-21 2022-05-24 四川大学 一种跨模态单样本三维点云分割方法
CN115858839A (zh) * 2023-02-16 2023-03-28 上海蜜度信息技术有限公司 一种跨模态logo检索方法、***、终端及存储介质
CN116484878A (zh) * 2023-06-21 2023-07-25 国网智能电网研究院有限公司 电力异质数据的语义关联方法、装置、设备及存储介质
CN116522168A (zh) * 2023-07-04 2023-08-01 北京墨丘科技有限公司 一种跨模态的文本相似度比较方法、装置及电子设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103559191A (zh) * 2013-09-10 2014-02-05 浙江大学 基于隐空间学习和双向排序学习的跨媒体排序方法
US9280562B1 (en) * 2006-01-31 2016-03-08 The Research Foundation For The State University Of New York System and method for multimedia ranking and multi-modal image retrieval using probabilistic semantic models and expectation-maximization (EM) learning
CN105718532A (zh) * 2016-01-15 2016-06-29 北京大学 一种基于多深度网络结构的跨媒体排序方法
CN106095829A (zh) * 2016-06-01 2016-11-09 华侨大学 基于深度学习与一致性表达空间学习的跨媒体检索方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9280562B1 (en) * 2006-01-31 2016-03-08 The Research Foundation For The State University Of New York System and method for multimedia ranking and multi-modal image retrieval using probabilistic semantic models and expectation-maximization (EM) learning
CN103559191A (zh) * 2013-09-10 2014-02-05 浙江大学 基于隐空间学习和双向排序学习的跨媒体排序方法
CN105718532A (zh) * 2016-01-15 2016-06-29 北京大学 一种基于多深度网络结构的跨媒体排序方法
CN106095829A (zh) * 2016-06-01 2016-11-09 华侨大学 基于深度学习与一致性表达空间学习的跨媒体检索方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
李志欣 等: "基于语义学习的图像多模态检索", 《计算机工程》 *

Cited By (78)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108256631A (zh) * 2018-01-26 2018-07-06 深圳市唯特视科技有限公司 一种基于注意力模型的用户行为推荐***
CN112041856A (zh) * 2018-03-01 2020-12-04 皇家飞利浦有限公司 用于预测的跨模态神经网络
CN108415819B (zh) * 2018-03-15 2021-05-25 中国人民解放军国防科技大学 一种硬盘故障追踪方法和装置
CN108415819A (zh) * 2018-03-15 2018-08-17 中国人民解放军国防科技大学 一种硬盘故障追踪方法和装置
CN108829719A (zh) * 2018-05-07 2018-11-16 中国科学院合肥物质科学研究院 一种非事实类问答答案选择方法及***
CN108881950A (zh) * 2018-05-30 2018-11-23 北京奇艺世纪科技有限公司 一种视频处理的方法和装置
CN110580489A (zh) * 2018-06-11 2019-12-17 阿里巴巴集团控股有限公司 一种数据对象的分类***、方法以及设备
WO2020001048A1 (zh) * 2018-06-29 2020-01-02 北京大学深圳研究生院 一种基于双语义空间的对抗性跨媒体检索方法
CN109255047A (zh) * 2018-07-18 2019-01-22 西安电子科技大学 基于互补语义对齐和对称检索的图像-文本互检索方法
CN110851641A (zh) * 2018-08-01 2020-02-28 杭州海康威视数字技术股份有限公司 跨模态检索方法、装置和可读存储介质
WO2020063524A1 (zh) * 2018-09-30 2020-04-02 北京国双科技有限公司 一种法律文书的确定方法及***
CN109508400A (zh) * 2018-10-09 2019-03-22 中国科学院自动化研究所 图文摘要生成方法
CN109543714A (zh) * 2018-10-16 2019-03-29 北京达佳互联信息技术有限公司 数据特征的获取方法、装置、电子设备及存储介质
CN109543009A (zh) * 2018-10-17 2019-03-29 龙马智芯(珠海横琴)科技有限公司 文本相似度评估***及文本相似度评估方法
CN109543009B (zh) * 2018-10-17 2019-10-25 龙马智芯(珠海横琴)科技有限公司 文本相似度评估***及文本相似度评估方法
JP7171361B2 (ja) 2018-10-19 2022-11-15 株式会社日立製作所 データ解析システム、学習装置、及びその方法
JP2020064568A (ja) * 2018-10-19 2020-04-23 株式会社日立製作所 映像解析システム、学習装置、及びその方法
CN109670071A (zh) * 2018-10-22 2019-04-23 北京大学 一种序列化多特征指导的跨媒体哈希检索方法和***
CN109670071B (zh) * 2018-10-22 2021-10-08 北京大学 一种序列化多特征指导的跨媒体哈希检索方法和***
CN111159472B (zh) * 2018-11-08 2024-03-12 微软技术许可有限责任公司 多模态聊天技术
US11921782B2 (en) 2018-11-08 2024-03-05 Microsoft Technology Licensing, Llc VideoChat
CN111159472A (zh) * 2018-11-08 2020-05-15 微软技术许可有限责任公司 多模态聊天技术
CN109325240A (zh) * 2018-12-03 2019-02-12 ***通信集团福建有限公司 指标查询的方法、装置、设备和介质
CN109785409A (zh) * 2018-12-29 2019-05-21 武汉大学 一种基于注意力机制的图像-文本数据融合方法和***
CN109785409B (zh) * 2018-12-29 2020-09-08 武汉大学 一种基于注意力机制的图像-文本数据融合方法和***
CN109902710A (zh) * 2019-01-07 2019-06-18 南京热信软件科技有限公司 一种文本图像的快速匹配方法和装置
CN109902710B (zh) * 2019-01-07 2023-07-11 李晓妮 一种文本图像的快速匹配方法和装置
WO2020155423A1 (zh) * 2019-01-31 2020-08-06 深圳市商汤科技有限公司 一种跨模态信息检索方法、装置和存储介质
CN109886326A (zh) * 2019-01-31 2019-06-14 深圳市商汤科技有限公司 一种跨模态信息检索方法、装置和存储介质
WO2020155418A1 (zh) * 2019-01-31 2020-08-06 深圳市商汤科技有限公司 一种跨模态信息检索方法、装置和存储介质
CN109886326B (zh) * 2019-01-31 2022-01-04 深圳市商汤科技有限公司 一种跨模态信息检索方法、装置和存储介质
JP2022510704A (ja) * 2019-01-31 2022-01-27 シェンチェン センスタイム テクノロジー カンパニー リミテッド クロスモーダル情報検索方法、装置及び記憶媒体
TWI785301B (zh) * 2019-01-31 2022-12-01 大陸商深圳市商湯科技有限公司 一種跨模態訊息檢索方法、裝置和儲存介質
CN110210540B (zh) * 2019-05-22 2021-02-26 山东大学 基于注意力机制的跨社交媒体用户身份识别方法及***
CN110210540A (zh) * 2019-05-22 2019-09-06 山东大学 基于注意力机制的跨社交媒体用户身份识别方法及***
CN110706771A (zh) * 2019-10-10 2020-01-17 复旦大学附属中山医院 多模态患教内容的生成方法、装置、服务器及存储介质
CN111091010A (zh) * 2019-11-22 2020-05-01 京东方科技集团股份有限公司 相似度确定、网络训练、查找方法及装置和存储介质
CN111026894A (zh) * 2019-12-12 2020-04-17 清华大学 基于可信度自适应匹配网络的跨模态图像文本检索方法
CN111026894B (zh) * 2019-12-12 2021-11-26 清华大学 基于可信度自适应匹配网络的跨模态图像文本检索方法
CN111199750A (zh) * 2019-12-18 2020-05-26 北京葡萄智学科技有限公司 一种发音评测方法、装置、电子设备及存储介质
CN111199750B (zh) * 2019-12-18 2022-10-28 北京葡萄智学科技有限公司 一种发音评测方法、装置、电子设备及存储介质
CN110990597A (zh) * 2019-12-19 2020-04-10 中国电子科技集团公司信息科学研究院 基于文本语义映射的跨模态数据检索***及其检索方法
CN110990597B (zh) * 2019-12-19 2022-11-25 中国电子科技集团公司信息科学研究院 基于文本语义映射的跨模态数据检索***及其检索方法
CN113094550A (zh) * 2020-01-08 2021-07-09 百度在线网络技术(北京)有限公司 视频检索方法、装置、设备和介质
CN113094550B (zh) * 2020-01-08 2023-10-24 百度在线网络技术(北京)有限公司 视频检索方法、装置、设备和介质
CN111274445B (zh) * 2020-01-20 2021-04-23 山东建筑大学 基于三元组深度学习的相似视频内容检索方法及***
CN111274445A (zh) * 2020-01-20 2020-06-12 山东建筑大学 基于三元组深度学习的相似视频内容检索方法及***
CN111339256A (zh) * 2020-02-28 2020-06-26 支付宝(杭州)信息技术有限公司 用于文本处理的方法和装置
CN111429913A (zh) * 2020-03-26 2020-07-17 厦门快商通科技股份有限公司 一种数字串语音识别方法、身份验证装置及计算机可读存储介质
CN111428072A (zh) * 2020-03-31 2020-07-17 南方科技大学 眼科多模态影像的检索方法、装置、服务器及存储介质
CN111639240A (zh) * 2020-05-14 2020-09-08 山东大学 一种基于注意力感知机制的跨模态哈希检索方法及***
CN112001279A (zh) * 2020-08-12 2020-11-27 山东省人工智能研究院 基于双重属性信息的跨模态行人重识别方法
CN111930992A (zh) * 2020-08-14 2020-11-13 腾讯科技(深圳)有限公司 神经网络训练方法、装置及电子设备
CN111930992B (zh) * 2020-08-14 2022-10-28 腾讯科技(深圳)有限公司 神经网络训练方法、装置及电子设备
CN112581387A (zh) * 2020-12-03 2021-03-30 广州电力通信网络有限公司 一种配电室智能运维***、装置及方法
CN113159371A (zh) * 2021-01-27 2021-07-23 南京航空航天大学 基于跨模态数据融合的未知目标特征建模与需求预测方法
CN113159371B (zh) * 2021-01-27 2022-05-20 南京航空航天大学 基于跨模态数据融合的未知目标特征建模与需求预测方法
CN112668671A (zh) * 2021-03-15 2021-04-16 北京百度网讯科技有限公司 预训练模型的获取方法和装置
CN112668671B (zh) * 2021-03-15 2021-12-24 北京百度网讯科技有限公司 预训练模型的获取方法和装置
CN113204666A (zh) * 2021-05-26 2021-08-03 杭州联汇科技股份有限公司 一种基于文字查找匹配图片的方法
CN113435206A (zh) * 2021-05-26 2021-09-24 卓尔智联(武汉)研究院有限公司 一种图文检索方法、装置和电子设备
CN113204666B (zh) * 2021-05-26 2022-04-05 杭州联汇科技股份有限公司 一种基于文字查找匹配图片的方法
CN113435206B (zh) * 2021-05-26 2023-08-01 卓尔智联(武汉)研究院有限公司 一种图文检索方法、装置和电子设备
CN113392196A (zh) * 2021-06-04 2021-09-14 北京师范大学 一种基于多模态交叉比较的题目检索方法和***
CN113434716B (zh) * 2021-07-02 2024-01-26 泰康保险集团股份有限公司 一种跨模态信息检索方法和装置
CN113434716A (zh) * 2021-07-02 2021-09-24 泰康保险集团股份有限公司 一种跨模态信息检索方法和装置
CN113934887B (zh) * 2021-12-20 2022-03-15 成都考拉悠然科技有限公司 一种基于语义解耦的无提议时序语言定位方法
CN113934887A (zh) * 2021-12-20 2022-01-14 成都考拉悠然科技有限公司 一种基于语义解耦的无提议时序语言定位方法
CN113971209B (zh) * 2021-12-22 2022-04-19 松立控股集团股份有限公司 一种基于注意力机制增强的无监督跨模态检索方法
CN113971209A (zh) * 2021-12-22 2022-01-25 松立控股集团股份有限公司 一种基于注意力机制增强的无监督跨模态检索方法
CN114417878B (zh) * 2021-12-29 2023-04-18 北京百度网讯科技有限公司 语义识别方法、装置、电子设备及存储介质
CN114417878A (zh) * 2021-12-29 2022-04-29 北京百度网讯科技有限公司 语义识别方法、装置、电子设备及存储介质
CN114529757A (zh) * 2022-01-21 2022-05-24 四川大学 一种跨模态单样本三维点云分割方法
CN114529757B (zh) * 2022-01-21 2023-04-18 四川大学 一种跨模态单样本三维点云分割方法
CN115858839A (zh) * 2023-02-16 2023-03-28 上海蜜度信息技术有限公司 一种跨模态logo检索方法、***、终端及存储介质
CN116484878B (zh) * 2023-06-21 2023-09-08 国网智能电网研究院有限公司 电力异质数据的语义关联方法、装置、设备及存储介质
CN116484878A (zh) * 2023-06-21 2023-07-25 国网智能电网研究院有限公司 电力异质数据的语义关联方法、装置、设备及存储介质
CN116522168A (zh) * 2023-07-04 2023-08-01 北京墨丘科技有限公司 一种跨模态的文本相似度比较方法、装置及电子设备

Also Published As

Publication number Publication date
CN107562812B (zh) 2021-01-15

Similar Documents

Publication Publication Date Title
CN107562812A (zh) 一种基于特定模态语义空间建模的跨模态相似性学习方法
CN109544524B (zh) 一种基于注意力机制的多属性图像美学评价***
CN106295796B (zh) 基于深度学习的实体链接方法
CN110363282B (zh) 一种基于图卷积网络的网络节点标签主动学习方法和***
CN111414461B (zh) 一种融合知识库与用户建模的智能问答方法及***
Wu et al. Dynamic graph convolutional network for multi-video summarization
CN109299341A (zh) 一种基于字典学习的对抗跨模态检索方法和***
CN111061856A (zh) 一种基于知识感知的新闻推荐方法
CN107346328A (zh) 一种基于多粒度层级网络的跨模态关联学习方法
CN109934261A (zh) 一种知识驱动参数传播模型及其少样本学习方法
CN113140254B (zh) 元学习药物-靶点相互作用预测***及预测方法
CN113505204B (zh) 召回模型训练方法、搜索召回方法、装置和计算机设备
CN112988917B (zh) 一种基于多种实体上下文的实体对齐方法
CN111931505A (zh) 一种基于子图嵌入的跨语言实体对齐方法
CN110287323A (zh) 一种面向目标的情感分类方法
CN111476261A (zh) 一种社区增强的图卷积神经网络方法
CN105701225B (zh) 一种基于统一关联超图规约的跨媒体检索方法
Chen et al. Binarized neural architecture search for efficient object recognition
CN112733602B (zh) 关系引导的行人属性识别方法
CN111222847A (zh) 基于深度学习与非监督聚类的开源社区开发者推荐方法
CN115952292B (zh) 多标签分类方法、装置及计算机可读介质
Moyano Learning network representations
Qi et al. Patent analytic citation-based vsm: Challenges and applications
CN115858919A (zh) 基于项目领域知识和用户评论的学习资源推荐方法及***
CN115687760A (zh) 一种基于图神经网络的用户学习兴趣标签预测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant