CN105760507A - 基于深度学习的跨模态主题相关性建模方法 - Google Patents
基于深度学习的跨模态主题相关性建模方法 Download PDFInfo
- Publication number
- CN105760507A CN105760507A CN201610099438.9A CN201610099438A CN105760507A CN 105760507 A CN105760507 A CN 105760507A CN 201610099438 A CN201610099438 A CN 201610099438A CN 105760507 A CN105760507 A CN 105760507A
- Authority
- CN
- China
- Prior art keywords
- text
- theme
- image
- vocabulary
- document
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 95
- 238000013135 deep learning Methods 0.000 title claims abstract description 7
- 230000008569 process Effects 0.000 claims abstract description 30
- 238000009826 distribution Methods 0.000 claims description 54
- 230000000007 visual effect Effects 0.000 claims description 42
- 239000013598 vector Substances 0.000 claims description 37
- 238000013527 convolutional neural network Methods 0.000 claims description 24
- 238000013507 mapping Methods 0.000 claims description 15
- 238000005070 sampling Methods 0.000 claims description 14
- 238000002372 labelling Methods 0.000 claims description 10
- 238000012549 training Methods 0.000 claims description 10
- 238000004364 calculation method Methods 0.000 claims description 9
- 230000006870 function Effects 0.000 claims description 7
- 238000013480 data collection Methods 0.000 claims description 3
- 238000013139 quantization Methods 0.000 claims description 2
- 238000005516 engineering process Methods 0.000 abstract description 4
- 239000011159 matrix material Substances 0.000 description 11
- 239000000284 extract Substances 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 239000000463 material Substances 0.000 description 3
- 238000000205 computational method Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 241001269238 Data Species 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000012098 association analyses Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000010219 correlation analysis Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000035800 maturation Effects 0.000 description 1
- 230000035772 mutation Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
- G06F16/355—Class or cluster creation or modification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/93—Document management systems
- G06F16/94—Hypermedia
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Business, Economics & Management (AREA)
- Business, Economics & Management (AREA)
- Probability & Statistics with Applications (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Image Analysis (AREA)
Abstract
本发明属于跨媒体相关性学习技术领域,具体为基于深度学习的跨模态主题相关性建模方法。本发明包括两个主要算法:基于深度词汇的多模态文档表示,融合跨模态主题相关性学习的关系主题模型建模。本发明利用深度学习技术来构造深度语义词汇和深度视觉词汇来分别描述多模态文档中的语义描述部分和图像部分。基于这样的多模态文档表示,通过构建跨模态关系主题模型来对整个多模态文档集合进行建模,从而对多模态文档的生成过程和不同模态之间的关联进行描述。本方法准确性高,适应性强。这对于在大规模多模态文档(文本加图像)基础上,考虑多模态语义信息而进行高效跨媒体信息检索具有重要的意义,能够提高检索相关性,增强用户体验,在跨媒体信息检索领域具有广泛的应用价值。
Description
技术领域
本发明属于跨媒体相关性学习技术领域,具体涉及基于深度学习的跨模态图像-文本主题相关性学习方法。
背景技术
随着互联网技术的发展与Web2.0的成熟,在互联网上累计海量的多模态文档,如何分析和处理这些多模态文档的复杂结构,从而为跨媒体检索等实际应用提供理论支持已经变成一个非常重要的研究热点。通常来说,一个多模态文档通常以多种模态共现的形式存在,例如,许多的web图像附带着很多用户自定义的图像描述或者标注,另外也有一些网络的文档包含一些插图的形式。然而,虽然这些多模态的数据常常彼此关联,但由于语义鸿沟的问题,在图像的视觉信息和文本描述信息之间有着很大的区别和差异[1],这使得充分利用不同模态之间的语义关联变得十分困难。因此,如何充分挖掘不同模态数据背后隐含的关系,并且更好地融合多模态信息来对多模态文档进行建模变得十分的重要[2,3]。而利用主题模型来对多模态文档进行建模,进而挖掘不同模态之间的关联是一个重要策略,在跨模态主题建模的研究中,存在着三个相互关联的问题需要同时得到解决:
1、发现和构建更加有代表性、更加有价值的文档元素来对多模态文档中的图像和文本内容分别进行描述表示。
2、能够建立更加合理的主题相关性模型来更好地对多模态文档中不同模态数据之间的关联进行描述,即视觉图像和文本描述之间的关联。
3、通过跨模态主题相关性学习来针对图像和文本内容之间的内在关联性建立一种客观的衡量机制。
为解决第一个问题,最重要的就是探索如何能够建立一组优化的文档元素,从而利用这些优化的文档元素能够更加精确、更加全面地对多模态文档中的视觉和语义特征进行表达。
为解决第二个问题,最重要的是能够建立一个更加鲁棒的概率主题模型,从而挖掘背后的隐含主题信息使得观察到的多模态主题文档的似然度值达到最大。
为解决第三个问题,最有效的解决方式是把不同模态的属性特征映射到共同的嵌入子空间中,从而最大化不同模态信息之间的关联信息。
当前已有一些研究者针对多模态数据建模提出不同方法,从建模角度来看这些方法大致可以分为两类,第一类是统计依赖建模方法,第二类是构建联合概率生成模型方法。
(1)统计依赖的建模方法
统计建模方法的核心思想是将不同模态的数据特征映射到相同的潜在空间,从而期望最大程度地挖掘不同模态数据特征之间的统计相关性。以图像和文本为例,通过构建相应的映射矩阵,分别将不同结构的图像特征和文本特征映射到相同的公共子空间中,在公共子空间中计算图像和文本的相关性,越相关的图像和文本在公共子空间中的距离也就越近,反之距离越远意味着图像与文本的相关性也越低。典型相关性分析方法(CanonicalCorrelationAnalysis,CCA)是一种最典型的统计依赖方法,其通过求取视觉特征矩阵和语义特征矩阵的最大相关性得到其相应的空间基向量矩阵;空间基向量矩阵最大化地保持图像视觉特征和语义特征的相关性,并提供其映射到同构子空间的映射关系;进而将图像的视觉特征向量和语义特征向量映射到同维度下同构子空间中并构建跨模态融合特征,实现媒体数据不同模态信息的统一表示。之后的工作如KernelCCA(KCCA)以及deepCCA(DCCA)在更深层次里来对图像和文本之间的依赖关系进行探讨。
工作[4]将统计建模方法与主题模型相结合起来,该方法首先利用潜在狄利克雷模型来分别提取图像的视觉主题特征和文本的文本主题特征,之后利用典型相关性方法将视觉主题特征与文本主题特征映射到同构子空间中以发现并计算其相关性。其在[5]中扩展其的工作,并利用KCCA来计算其相关性。
(2)构建联合概率生成模型方法
多模态主题模型是构建联合概率生成模型的典型代表方法,最近几年已有不少相关工作来针对多模态文档中的视觉内容和语义描述来进行概率主题建模[6,7,8,9,10]。[Blei2003]在其2003年的工作中建立一系列的逐级复杂的主题模型[11],其中CorrespondenceLatentDirchletAllocation(Corr-LDA)是其中最优的跨模态主题模型,该模型假设不同模态之间的隐含主题之间存在相应的依赖关系,即相应的标注隐含主题是来自于图像视觉信息背后的隐含主题。这一假设建立一个单向的映射关系即文本词汇的生成依赖于图像的视觉内容信息。之后,[Wang2009]提出一种有监督的主题模型来学习图像和标注词之间的潜在关系[12],[Putthividhva2010]则提出一种基于主题回归的多模态潜在狄利克雷模型[13]。[Rasiwasia2010]研究多模态文档中文本和图像内容联合建模[3]。[Nguyen2013]提出一种图像标注的方法,该方法是基于联合特征与词的分布以及词与主题的分布[9]。[Niu2014]提出一种半监督的关系主题模型来对图像内容以及图像之间的关系进行显式建模[14]。[Wang2014]则提出一种半监督的多模态共同主题加强模型,该模型探讨不同模态主题之间相互促进的关系[15]。[Zheng2014]提出一种针对DocNADE的有监督变种模型来对图像的视觉词汇、标注词汇以及类标的联合分布进行建模[16]。[Chen,2015]通过构建视觉-情感LDA模型来解决图像和文本之间的建模鸿沟[17]。
通过以上分析可以看出,当前方法在多模态文档建模时都取得一些进展,然而以上所有方法仍未充分考虑以下三个方面所带来的影响:
(1)多模态文档中深度信息挖掘——大多数现有的图像-标签相关度学习方法通常只关注于传统的视觉特征表示方法以及标注信息特征来探索不同模态之间的关联,并没有考虑这些不同模态中所蕴含的深度特征。对于构建全局视觉语义和内部语义关联来说,这将会导致一系列严重的信息缺失问题。而对多模态文档的深度探索则可以弥补这一缺陷,使得得到的特征元素更好地来表示多模态文档。
(2)基于深度分析的关系主题相关性建模——多数现有的主题建模方法在考虑构建不同模态的主题相关性时,通常基于这样的假设,即不同模态背后所隐藏的主题是一致的。而这样的假设通常来说过于绝对,会在构建主题相关性的同时引入一些不必要的噪声,因此构建一个更加合理的假设,融合深度的特征信息,形成一个更加优化的关系主题相关性建模机制变得十分重要。
(3)基于深度主题特征的跨模态相关度学习——多数现有的多模态主题模型在计算不同模态之间相关性时通常直接考虑去匹配不同模态背后所隐藏的主题分布特征,从而抓到视觉图像与文本描述之间的内在关联。然而,这样的一种直接匹配方式并没有很好地考虑图像和文本的异构性,因此通过将深度主题特征映射到公共空间从而学习其相关性能够很好地挖掘其相关性,从而解决上面所提出的问题。
因此,非常有必要借鉴当前已有的相关成熟技术,同时从各方面考虑以上问题,更加全面地分析与计算不同模态之间的主题相关性计算方法。本发明就是由此激发,从局部到整体,设计一种新颖的技术框架(包括三个主要算法)涵盖,多模态文档中的深度词汇构建、关系主题模型构建、异源主题相关性学习,从而建立有效的跨模态主题相关性计算方法,最终为跨媒体图像检索性能进行改进。
发明内容
本发明的目的在于提出一种基于深度学习的跨模态主题相关性建模方法,以提高跨媒体社会图像检索性能。
本发明首先提出一个新颖的深度跨模态主题相关性关联模型,该模型针对大规模多模态语料进行建模,能够深入分析和理解多模态文档中图像和文本之间的关联信息,利用所构建模型,能够有效促进跨媒体检索的性能。该模型主要包括以下几个部分:
(1)深度词汇构建(DeepWordConstruction)。针对多模态文档,利用深度学习技术分别构建深度词汇作为基本元素进行表示;深度词汇包括深度视觉词汇和深度文本词汇,其中,深度视觉词汇用来更好地描述文档中的图像视觉内容,而深度文本词汇则作为用来描述文档中文本内容的基本元素。与传统的视觉词汇和文本词汇相比,深度词汇能够更深层次地挖掘文档的语义信息。通过这样的构建方式,多模态的文档可以用深度词汇来更好地表示。
(2)多模态主题信息生成(MultimodalTopicInformationGeneration)。在构建的深度词汇基础上,进一步地利用主题模型LDA来挖掘不同模态数据背后所隐藏的主题信息。主题模型假设文档集背后有一组共同的主题集,并且文档中每一个词都对应着一个主题,基于这样的假设,通过推导可以得到每一个文档背后的主题特征来对文档进行进一步的表示。
(3)跨模态主题关联分析(Cross-modalTopicCorrelationAnalysis)。假设不同模态的文档背后所隐藏的主题是异源但又相关的,比如在文本文档中“婚礼”对应的主题可能与图像背后“白色”主题有着很高的关联信息,因此通过构建共同子空间的方法把不同模态的主题特征映射到公共子空间中,以找到不同模态之间的关联信息。
(4)关系主题建模(RelationalTopicModeling)。关系主题模型在生成不同模态的主题特征时,同时考虑图像和文档的关联信息,即在构建某一文档的主题时不但考虑同一模态的信息,同时还考虑与其他模态的关联信息,从而使得最终的主题融合多模态信息,并最终构建得到多模态文档背后的主题分布以及跨模态关联信息。
较之于当前已有的多模态主题建模方法而言,本发明所提出的方法在应用中存在着两大优势:第一,准确度高,主要体现在:本方法利用构建的深度词汇来代替传统词汇,能够更深入地挖掘模态深层次信息,能够很好地缓解语义鸿沟所带来的问题,从而能够更好地促进跨媒体检索的效率。第二,适应性强,因为所构建的模型很好地针对不同模态之间的关联进行建模,所以可以适用于图像检索文本以及文本检索图像双向跨媒体信息检索,而且该模型也可以更加方便地扩展到针对其他模态的跨媒体信息检索上(如音频等)。
本发明提供的基于深度学习的跨模态主题相关性建模方法,具体步骤如下:
(1)数据预处理:从多媒体数据集中采集不同模态的数据图像,得到图像和图像描述数据,整理图像标注数据集中不常出现或者无用的标注词;
(2)提取多模态深度特征:利用深度学习方法来提取图像的视觉特征与图像描述的语义特征。具体来说,分别利用Region-CNN(ConvolutionalNeuralNetwork)模型和Skip-gram模型来抽取图像的区域特征和文本的词汇特征。其中,Region-CNN首先检测图像中有代表性的区域候选集,之后利用预训练的卷积神经网络来对抽取相应区域所对应的特征;Skip-gram模型则是利用文本词汇与词汇之间的共现信息直接训练得到词汇的特征向量表示。
(3)构建深度词袋模型:首先采用聚类算法K-means将步骤(2)中所得到的图像区域特征和文本词汇特征进行聚类,得到限定维度的深度视觉词典和深度文本词典,进而将相应图像中所有的区域特征映射到相应的视觉词典,从而构建得到深度视觉词袋模型,相似地,所有的文本中的词汇也可以映射到文本词典得到深度文本词袋模型;
(4)多模态主题生成:利用潜在狄利克雷模型的假设来模拟整个多模态数据集的生成过程,并且推导得到文本集合和图像集背后所隐藏的主题分布特征,充分利用词汇之间的共现信息;
(5)融合跨模态主题相关性分析的关系主题模型建模:构建相应的关系主题模型,即在构建主题模型的同时考虑不同模态之间主题特征的相关性,将步骤(4)中得到的多模态主题特征作为初始值,同时利用图像和文本之间的关联信息来计算图像和文本之间的相关性,利用计算得到的相关性来更新多模态文档的主题信息,从而交叉迭代地进行相关性计算与主题分布更新进而构建得到最终的关系主题模型;
(6)基于主题相关性的跨媒体信息检索:将得到的跨模态主题相关性应用到跨媒体信息检索中,分别是给定某种模态的查询,利用相关性计算得到与该查询最相关的其他模态的数据。
下面对以上各步骤进行详细的描述:
(一)数据预处理
该步骤主要对采集不同模态的数据图像进行初步的预处理,具体来说,因为图像所包含的标注当中包含一些噪音,这些噪音是因为用户标注的随意性造成,因此可以通过词频过滤的方式,将词频低于某个阈值的词过滤掉从而得到新的词典。
(二)提取多模态深度特征
本发明中,分别利用Region-CNN和Skip-gram模型来抽取图像的区域特征和文本的词汇特征。下面分别进行说明:
给定图像,Region-CNN首先利用选择搜索的方法从图像选择出物体可能出现的位置作为候选集(通常2,000个左右),以region的形式存在。之后,再针对每个区域提取CNN特征。在具体实现上,Region-CNN将每个图像区域转换成为固定的像素尺寸227*227,用于提取特征的卷积网络由5个卷积层和2个完全连接层构成。用Region-CNN提取视觉特征相比较传统的视觉特征,其优势主要体现在CNN所提取的深层次特征更加接近图像本身的语义,可以在一定程度上缓解语义鸿沟的问题。
给定文本文档,利用Skip-gram模型训练得到文本文档中出现的每一个词对应的特征向量。Skip-gram模型是一种非常有效的方法来学习文本词汇的分布式表示,该模型最早由Mikolov等人在2013年提出,之后在不同的自然语言处理的任务中得到广泛应用。该模型能够很好地捕捉文本词汇之间的语法和语义关系,并且使得语义相似的词语能够聚合在一起,相比较传统的文本词向量学习方法。Skip-gram的一个重要的优势在于因为不涉及到复杂的密度矩阵操作,其针对海量数据训练时的训练效率极高。用TD来表示整个多模态文档数据集合的文本描述部分,TW是在TD中出现过的所有的文本词汇,TV是文本词汇对应的词典,对于TW中的每一个词汇tw,ivtw和ovtw是针对tw的输入特征向量和输出特征向量,Context(tw)是词tw在其上下文中出现的词汇,在本发明中将上下文对应的窗口大小设置为5,将整个文本数据集所对应的所有输入向量和输出向量统一用一个长参数向量来表示W∈R2*|TV|*dim,其中dim是输入向量和输出向量的维度。因此,整个Skip-gram模型的目标函数可以如下描述:
对于Skip-gram训练来说,利用传统的softmax来训练所带来的计算代价会非常的高,因此负样本采样方法被利用来近似计算logP(twj|twi),其计算公式如下所示:
其中,σ(·)是sigmoid函数,m是负样本的数量,每一个负样本都是从基于词频的噪音分布P(tw)所生成的。
(三)构建深度词袋模型
在步骤(二)得到相应深度词汇的基础上,进一步通过向量量化(VectorQuantization)[25]的方法来构建深度词袋模型。具体来说,对于利用R-CNN提取得到的区域候选集以及相应的特征,首先利用K-means的方法将多模态文档数据集中所有图像所包含的区域特征来进行聚类,得到固定数量的类别,每一个聚类类别的中心点作为该类别的代表元素,所有这些类别构成一个相应的词典。之后,把图像里的每一个候选区域都映射到相应的类别当中来表示,映射方法是通过计算每一个区域的特征与类别中心特征的欧氏距离,从而找到与区域特征最近的相应的类别,在向量对应该类别的位置累加。利用这样的做法可以把整个数据集中的每一幅图像都表示成为深度视觉词袋的形式,即每一幅图像对应一个向量,向量的维度是类别的数目,而向量的元素值是该类别在图像中出现的次数,用向量VT∈RC来表示,其中C是聚类得到的类别数目。同样地,对于文本文档所对应的所有的词向量,也都可以通过聚类的方式来得到相应的深度文本词典,而最终用同样的映射方法将每一个文本都表示成深度文本词袋的形式。
(四)多模态主题生成
多模态信息对于多模态文档内容来说是一种非常重要的表达方式,也就是说,把图像的视觉信息与语义描述结合起来。因此,为更好地计算视觉图像与文本标注之间的跨模态相关性,更加准确地提取出有代表性的多模态特征变得十分重要,而多模态特征表示能够更好地探索图像的视觉属性与语义表达特征之间的关联。
潜在狄利克雷分配(LDA)算法是一个针对离散数据的生成式概率模型,该算法受到图像/文本研究领域的高度关注,LDA利用一组概率分布来表示每篇文档,而文档中的每个词都是从一个单独的主题所生成。LDA的优势在于其考虑文档的内在统计结构比如不同词在整个文档集合中的共现信息等,它假设每篇文档中的每一个词汇都是从一个单独的主题所生成,而该主题是由一个在所有主题上的狄利克雷分布所生成。LDA将每一篇文档都表示成一组在主题集合上的概率分布向量,这些向量用于表示社会图像的视觉特征以及文本特征。
在步骤(四)中,利用潜在狄利克雷模型分别对图像和文本集合进行概率建模,潜在狄利克雷模型假设在文档集的背后隐藏着一个共同的主题集合,而具体的每一篇文档背后又分别对应着在该主题集合上的一个概率分布,该文档中的每一个词背后都对应着一个由该概率分布所生成的主题;而所有文档的概率分布不是毫无关系的,都是从一个共同的狄利克雷分布所生成;在此模型假设的基础上,将步骤(三)得到的深度视觉词袋与深度文本词袋作为输入,利用LDA模型来推导得到不同模态文档(文本文档和视觉文档)背后所隐藏的概率主题分布,为下一步建立融合跨模态关联信息的关系主题模型建立基础。
(五)融合跨模态主题相关性分析的关系主题模型建模
构建关系主题模型将不同模态之间的相关性信息融入到主题模型构建过程中,具体来说,将步骤(四)得到的不同模态的主题分布作为初始值,通过将不同模态的主题特征映射到公共子空间的方式来计算得到不同模态主题特征之间的相关性,并将该相关性的计算融入到主题模型中,进而在推导某一模态的文档背后所隐藏的主题时考虑与另一模态的相关性信息,从而使得最终得到的主题信息不仅考虑到同模态之间的分布信息,同时也考虑与其他模态之间的关系。
这一步骤的主要目标在于构建一个联合概率分布,使得观察到的多模态文档似然度值达到最大。在构建模型的过程中,将多模态文档集合DM分为三部分构成,即第一部分是视觉图像集合DV,第二部分是文本描述集合DT,第三部分是链接集合LVT(该集合指示图像和文本之间的关联信息)。其中,DV由深度视觉词汇集合DWV构成,而DVV是深度视觉词典,同时文本描述集合DT由深度文本词汇集合DWT构成,DVT是深度文本词典。对于lvt∈LVT,lvt=1意味着视觉图像dv∈DV与文本描述dt∈DT是相关的,而lvt=0则意味着视觉图像dv与文本描述dt是不相关的。基于以上描述,关系主题模型形式化表示如下:给定TSV为视觉主题集合,TST是文本主题集合,α和β是两个超参数,其中α针对主题的狄利克雷分布,β针对主题-深度词汇的狄利克雷分布,θv对应视觉图像dv背后的主题分布,θt对应视觉图像dt背后的主题分布,Φ是每个主题对应所有深度词汇所对应的多项式分布,z是由θ实际生成的对应所有词汇的背后主题信息,Dir()与Mult()分别表示狄利克雷分布与多项式分布,Nd表示在文档d中的深度词汇的数量,n表示第n个深度词汇。整个关系主题模型的生成过程如下所示:
(1)对于视觉主题集合中的每个主题tv∈DTV:
(a)根据主题-视觉词汇的狄利克雷分布采样得到tv对应所有视觉词汇的多项式分布,即:φv tv~Dir(φv|βv)。
(2)对于文本主题集合中的每个主题tt∈DTT:
(a)根据主题-文本词汇的狄利克雷分布采样得到tt对应所有文本词汇的多项式分布,即:φt tt~Dir(φt|βt)。
(3)对于每一个视觉文档d∈DV:
(a)根据在主题集合上的狄利克雷分布采样得到d背后对应的主题分布,即:θv d~Dir(θv|αv)。
(b)对于d中的每一个深度视觉词汇wv d,n:
i.根据文档d背后的主题分布得到该词汇对应的主题,即:zv d,n~Mult(θv d)
ii.根据主题-视觉词汇采样得到在文档该位置对应的词汇,即:wv d,n~Mult(φv zd,n)
(4)对于每一个文本文档d∈DT:
(a)根据在主题集合上的狄利克雷分布采样得到d背后对应的主题分布,即:θt d~Dir(θt|αt);
(b)对于d中的每一个深度文本词汇wt d,n:
i.根据文档d背后的主题分布得到该词汇对应的主题,即:zt d,n~Mult(θt d);
ii.根据主题-文本词汇采样得到在文档该位置对应的词汇,即:wt d,n~Mult(φt zd,n);
(5)对于每一个链接lvt∈LVT,表示视觉文档dv与文本文档dt之间的关联信息:
(a)根据dv与dt的主题特征来计算其相关性从而对lvt进行采样,即:Mv,Mt),其中和分别对应文档dv与dt的经验主题分布, 和是两个映射矩阵分别映射视觉和文本主题特征到公共子空间,其中公共子空间的维度是dim维,TCor(lvt=1)表示文档dt与dv的主题相关性,而TCor(lvt=0)表示文档dt与dv的主题非相关性。
基于以上过程,最终构建联合概率分布形式来针对整个多模态文档集合进行建模,如下所示:
其中,第一项对应主题-深度词汇的生成过程,中间两项对应深度视觉词汇与深度文本词汇的生成过程,最后一项表示图像-描述连接的生成过程。
(六)跨媒体信息检索(关系主题模型的应用)
步骤(六)是步骤(五)所建立的关系主题模型,用于跨媒体信息检索,以图像和文本为例,跨媒体信息检索可以分为两类,即文本-查询-图像和图像-查询-文本,文本-查询-图像考虑的是根据给定的查询文本,利用关系主题模型计算不同图像对该文本相关度来对所有图像进行排序,而图像-查询-文本则是根据不同文本文档对于给定查询图像的相关度来对所有文本文档进行排序。
对于给定查询(例如利用图像查询文本),利用关系主题模型推导出相应的主题特征,并且利用步骤(五)中得到的主题特征的相关性计算方法来计算与其他模态文档之间的相关性信息(比如文本文档),通过相关性信息的高低来对文本文档进行排序,从而返回得到与查询图像最相关的文本文档。同样地,上述过程也适用于利用文本查询图像的跨媒体信息检索过程。
综上所述,本发明针对多模态文档中不同模态之间的内容异构性和关联性,提出一种基于深度学习的跨模态主题相关性建模方法,进而可以用概率模型的形式对整个多模态文档的生成过程进行描述,并将不同模态的文档之间的相关性进行量化。本发明方法可以有效运用于针对大规模图像的跨媒体信息检索中,提高检索相关性,增强用户体验。
附图说明
图1是本发明的流程图。
图2是构建深度词汇表示多模态文档的示意图。
图3为跨模态关系主题相关性建模过程的示意图。
图4为所提出的关系主题模型与传统的多模态主题模型的对比图。
图5为利用所构建的关系主题模型进行跨媒体信息检索的效果图。
具体实施方式
下面结合附图,详细介绍本发明针对社会图像的跨模态相关度计算方法。
(一)采集数据对象
采集数据对象,得到图像和图像标注数据,整理图像标注数据中在整个数据集里不常出现或者无用的标注词。一般在取得的数据集中,其中带有很多噪音数据,所以在使用这些数据进行特征提取之前就应该对其进行适当的处理和过滤。对于图像而言,得到的图像都是统一的JPG格式,不需要做任何变换。对于图像的文本标注而言,得到的图像标注含有很多的无意义单词,如单词加数字没有任何含义的单词。有些图像标注多至几十个,为了让图像标注很好地描述图像的主要信息,应舍弃那些无用的、无意义的标注。因此,所采取的处理方法步骤如下:
步骤1:统计数据集标注中所有单词在数据集中出现的频率;
步骤2:过滤掉那些单词中带有数字的无意义单词;
步骤3:对于每个图像标注中在整个数据集中出现频率较少的单词,将其认为是图像中比较次要的信息,并予以删除。
通过上述步骤,便可得到处理后的图像标注。对于步骤3中去除频率较少的单词,其理由在于图像聚类里同一类图像的标注还是存在很多相同、意义相近的单词。因此按照出现频率来对其进行过滤完全合理。
(二)多模态特征提取
图2展示利用深度学习方式提取特征并构建深度词汇的过程,在本发明中利用Region-CNN来对图像的区域进行检测并且提取出对应的CNN特征,特征的维度是4,096维。通常来说,Region-CNN针对每一幅图像会选择出2,000个左右的区域作为候选,这样一幅图像对应的特征矩阵就有2,000*4,096维。而之后如果对所有图像的所有区域进行聚类的话,数据量为M*2,000*4,096,M为图像的数目,显然这样的数据量带来的时空代价是巨大的。为解决这样一个实际问题,在具体操作中进行内部-外部聚类结合的方法,即首先对于每一幅图像中包含的所有区域进行一次内部聚类(聚成10类),之后再对所有区域进行一次外部聚类(聚成100类),这样实际上最终进行外部聚类的数据量就为M*10*4,096,很大程度上降低聚类的时空代价。另外一个需要说明的问题,无论是Region-CNN提取视觉特征还是Skip-gram提取词汇特征都利用预训练模型来进行操作,其中Region-CNN是在ImageNet上利用AlexNet进行预训练,而Skip-gram则利用在包含60亿词汇的***文档上训练得到的模型。这主要是因为深度神经网络的训练需要大量的数据,因此为避免过拟合的问题,利用在大规模数据集上训练好的模型来对实际数据进行操作以提取相应的特征。
(三)跨模态主题相关性计算
图3展示跨模态关系主题相关性建模过程,在之前的介绍中提到利用 来计算视觉文档dv与文本文档dt的相关性,Mv和Mt分别是针对视觉主题特征和文本主题特征的映射矩阵,TCor(lvt=1)表示文档dt与dv的主题相关性,而TCor(lvt=0)表示文档dt与dv的主题非相关性,TCor()的定义如下所示:
这里采用两种模式来针对不同的数据类型,模式一是利用Sigmoid函数来将点积映射到[0,1]范围内,而模式二则通过归一化两个向量的余弦相似度来计算主题相关性。同时,基于生成的多模态主题分布,可以利用最大似然估计(MLE)的方法来训练得到参数Mv和Mt,即最大化公式(4)的log似然度值,目标函数定义为如下所示:
基于这样的目标函数,映射矩阵Mv和Mt可以通过梯度下降法计算得到。需要说明的是,在实际的训练过程中,假设多模态文档的数量为|DM|,通常情况下每一个多模态文档中只包含一组图像和文本,图像文档的数目和文本文档的数目大体上相同,且都等于多模态文档的数量,即|Dv|=|DT|=|DM|。如果在同一多模态文档中出现的文本和图像是相关的,而不在同一多模态文档则不相关,这样转换得到的训练数据的正样本(即图像-文本相关对)和负样本(图像-文本不相关对)的比例约为1/|DM|。这样的比例会导致负样本与正样本的比例严重失调,另外图像和文本不在同一多模态文档也不能完全说明该图像和文本完全不相关(可能属于同一类别),因此在实际中令负样本与正样本的比例为1:1,且在随机选择负样本时满足如下的约束,即对应的图像和文本不能来自同一类别。
(四)多模态关系主题模型推导
公式(3)展示在本发明中所构建的关系主题模型,利用吉普斯采样的方法来推导得到模型的参数[26]。吉普斯采样的目的是要得到多模态文档中每一个词汇背后所隐含的主题,在采样的过程中首先推导得到关于深度词汇、词汇对应的主题信息以及相应的跨模态关联链接的边缘分布,如下所示:
其中,md,tt对应的是在文档d中主题tt出现的次数,ntt,w对应的是在整个文档集中主题tt所生成的词汇的数目。根据公式(6)可以进一步推导得到针对主题信息z的单变量概率分布,进而得到针对文档中每一个词的背后主题的采样规则。如公式(7)所示,
其中表示在文档d中除去当前词后主题tt的出现次数,而表示除去当前词主题tt所包含的词的数目。基于这样的采样规则,可以采样得到整个文档集中每一个词背后所隐含的主题信息。同样地,在每一次的采样结束后,都利用公式(5)计算在当前采样得到的主题分布基础上如何得到映射矩阵Mt和Mv,而在当前采样时间内得到的Mt和Mv将作为下一次采样过程的输入,如此循环往复,直到达到迭代结束条件,从而得到最终的主题信息以及映射矩阵Mt和Mv。相应地,关系主题模型中其他参数如θV、θT则可以通过计算公式(8)最终得到:
(五)应用示例
图5为利用所构建的关系主题模型进行跨媒体信息检索的效果图,其中分为两种模式,一种是利用图像检索文本(ImageQuery-to-Text),另一种是利用文本检索图像(TextQuery-to-Image),其相关度分数计算如公式(9)所示。
参考文献
[1]Fan,J.P.;He,X.F.;Zhou,N.;Peng,J.Y.;andJain,R.2012.QuantitativeCharacterizationofSemanticGapsforLearningComplexityEstimationandInferenceModelSelection.IEEETransactionsonMultimedia14(5):1414-1428.
[2]Datta,R.;Joshi,D.;Li,J.;andWang,J.Z.2008.ImageRetrieval:Ideas,Influences,andTrendsoftheNewAge.ACMComputingSurveys(CSUR)40(2),Article5.
[3]Rasiwasia,N.;Pereira,J.C.;Coviello,E.;Doyle,G.;Lanckriet,G.R.G.;Levy,R.;andVasconcelos,N.2010.ANewApproachtoCross-modalMultimediaRetrieval.InProceedingsofMM2010,251-260.
[4]Pereira,J,C.;Coviello,E.;Doyle,G.;Rasiwasia,N.;Lanckriet,G.R.G.;Levy,R.;andVasconcelos,N.2014.OntheRoleofCorrelationandAbstractioninCross-ModalMultimediaRetrieval.IEEETransactionsonPatternAnalysisandMachineIntelligence(PAMI)36(3):521-535.
[5]Barnard,K.;Duygulu,P.;Forsyth,D.;Freitas,N.;Blei,D.M.;andJordan,M.I.2003.MatchingWordsandPictures.JournalofMachineLearningResearch.3:1107-1135.
[6]Wang,X.;Liu,Y.;Wang,D.;andWu,F.2013.Cross-mediaTopicMiningonWikipedia.InProceedingsofMM2013,689-692.
[7]Frome,A.;Corrado,G.S.;Shlens,J.;Bengio,S.;Dean,J.;Ranzato,M.A.;andMikolov,T.2013.DeViSE:ADeepVisual-SemanticEmbeddingModel.InProceedingsofNIPS2013.
[8]Feng,F.X.;Wang,X.J.;andLi,R.F.2014.Cross-modalRetrievalwithCorrespondenceAutoencoder.InProceedingsofMM2014,7-16.
[9]Nguyen,C.T.;Kaothanthong,N.;Tokuyama,T.;andPhanX.H.2013.AFeature-Word-TopicModelforImageAnnotationandRetrieval.ACMTransactionsontheWeb7(3),Article12.
[10]Ramage,D.;Heymann,P.;Manning,C.D.;andMolina,H.G.2009.ClusteringtheTaggedWeb.InProceedingsofWSDM2009,54-63.
[11]Blei,D.M.;andJordan,M.I.2003.ModelingAnnotatedData.InProceedingsofSIGIR2003,127-134.
[12]Wang,C.;Blei,D.;andFei-FeiL.2009.SimultaneousImageClassificationandAnnotation.InProceedingsofCVPR2009,1903-1910.
[13]Putthividhya,D.;Attias,H.T.;andNagarajan,S.S.2010.TopicRegressionMulti-ModalLatentDirichletAllocationforImageAnnotation.InProceedingsofCVPR2010,3408-3415.
[14]Niu,Z.X.;Hua,G.;Gao,X.B.;andTian,Q.2014.Semi-supervisedRelationalTopicModelforWeaklyAnnotatedImageRecognitioninSocialMedia.InProceedingsofCVPR2014,4233-4240.
[15]Wang,Y.F.;Wu,F.;Song,J.;Li,X.;andZhuang,Y.T.2014.Multi-modalMutualTopicReinforceModelingforCross-mediaRetrieval.InProceedingsofMM2014,307-316.
[16]Zheng,Y.;Zhang,Y.J.;andLarochelle,H.2014.TopicModelingofMultimodalData:anAutoregressiveApproach.InProceedingsofCVPR2014,1370-1377.
[17]Chen,T.;SalahEldeen,H.M.;He,X.N.;Kan,M.Y.;andLu,D.Y.2015.VELDA:RelatinganImageTweet’sTextandImages.InProceedingsofAAAI2015.
[18]Girshick,R.;Donahue,J.;Darrell,T.;andMalik,J.2014.Richfeaturehierarchiesforaccurateobjectdetectionandsemanticsegmentation.InProceedingsofCVPR2014,580-587.
[19]Hariharan,B.;Arbelaez,P.;Girshick,R.;andMalik,J.2014.SimultaneousDetectionandSegmentation.InProceedingsofECCV2014,297-312.
[20]Karpathy,A.;Joulin,A.;andFei-Fei,L.2014.DeepFragmentEmbeddingsforBidirectionalImageSentenceMapping.InProceedingsofNIPS2014.
[21]Zhang,N.;Donahue,J.;Girshick,R.;andDarrell,T.2014.Part-BasedR-CNNsforFine-GrainedCategoryDetection.InProceedingsofECCV2014,834-849.
[22]Mikolov,T.;Sutskever,I.;Chen,K.;Corrado,G.;andDean,J.2013.DistributedRepresentationsofWordsandPhrasesandtheirCompositionality.InProceedingsofNIPS2013.
[23]Tang,D.Y.;Wei,F.R.;Qin,B.;Zhou,M.;andLiu,T.2014.BuildingLarge-ScaleTwitter-SpecificSentimentLexicon:ARepresentationLearningApproach.InProceedingsofCOLING2014,172-182.
[24]Karpathy,A.;Joulin,A.;andFei-Fei,L.2014.DeepFragmentEmbeddingsforBidirectionalImageSentenceMapping.InProceedingsofNIPS2014.
[25]Sivic,J.,andZisserman,A.2003.VideoGoogle:ATextRetrievalApproachtoObjectMatchinginVideos.InProceedingsofICCV2003,2:1470-1477.
[26]Griffiths,T.L.;andSteyvers,M.2004.FindingScientificTopics.
InProceedingsoftheNationalAcademyofSciencesoftheUnitedStatesofAmerica,101(1):5228-5235。
Claims (6)
1.一种基于深度学习的跨模态主题相关性建模方法,其特征在于具体步骤如下:
(1)数据预处理:从多媒体数据集中采集不同模态的数据图像,得到图像和图像描述数据,整理图像标注数据集中不常出现或者无用的标注词;
(2)提取多模态深度特征:利用深度学习方法来提取图像的视觉特征与图像描述的语义特征;具体来说,分别利用Region-CNN模型和Skip-gram模型来抽取图像的区域特征和文本的词汇特征;其中,Region-CNN首先检测图像中有代表性的区域候选集,之后利用预训练的卷积神经网络来对抽取相应区域所对应的特征;Skip-gram模型则是利用文本词汇与词汇之间的共现信息直接训练得到词汇的特征向量表示;
(3)构建深度词袋模型:首先采用聚类算法K-means将步骤(2)中所得到的图像区域特征和文本词汇特征进行聚类,得到限定维度的深度视觉词典和深度文本词典,进而将相应图像中所有的区域特征映射到相应的视觉词典,从而构建得到深度视觉词袋模型;相似地,所有的文本中的词汇也映射到文本词典得到深度文本词袋模型;
(4)多模态主题生成:利用潜在狄利克雷模型的假设来模拟整个多模态数据集的生成过程,并且推导得到文本集合和图像集背后所隐藏的主题分布特征,充分利用词汇之间的共现信息;
(5)融合跨模态主题相关性分析的关系主题模型建模:构建相应的关系主题模型,即在构建主题模型的同时考虑不同模态之间主题特征的相关性,将步骤(4)中得到的多模态主题特征作为初始值,同时利用图像和文本之间的关联信息来计算图像和文本之间的相关性,利用计算得到的相关性来更新多模态文档的主题信息,从而交叉迭代地进行相关性计算与主题分布更新进而构建得到最终的关系主题模型;
(6)基于主题相关性的跨媒体信息检索:将得到的跨模态主题相关性应用到跨媒体信息检索中,分别是给定某种模态的查询,利用相关性计算得到与该查询最相关的其他模态的数据。
2.根据权利要求1所述的方法,其特征在于:步骤(2)中,所述分别利用Region-CNN和Skip-gram模型来抽取图像的区域特征和文本的词汇特征,具体过程如下:
给定图像,Region-CNN首先利用选择搜索的方法从图像选择出物体可能出现的位置作为候选集,以region的形式存在;之后,再针对每个区域提取CNN特征;在具体实现上,Region-CNN将每个图像区域转换成为固定的像素尺寸227*227,用于提取特征的卷积网络由5个卷积层和2个完全连接层构成;
给定文本文档,利用Skip-gram模型训练得到文本文档中出现的每一个词对应的特征向量;用TD表示整个多模态文档数据集合的文本描述部分,TW是在TD中出现过的所有的文本词汇,TV是文本词汇对应的词典,对于TW中的每一个词汇tw,ivtw和ovtw是针对tw的输入特征向量和输出特征向量,Context(tw)是词tw在其上下文中出现的词汇;将上下文对应的窗口大小设置为5,将整个文本数据集所对应的所有输入向量和输出向量统一用一个长参数向量来表示W∈R2*|TV|*dim,其中dim是输入向量和输出向量的维度;整个Skip-gram模型的目标函数如下描述:
利用负样本采样方法来近似计算logP(twj|twi),其计算公式如下所示:
其中,σ(·)是sigmoid函数,m是负样本的数量,每一个负样本都是从基于词频的噪音分布P(tw)所生成的。
3.根据权利要求1所述的方法,其特征在于:步骤(3)是在步骤(2)得到相应深度词汇的基础上,进一步通过向量量化的方法来构建深度词袋模型,具体过程为:对于利用R-CNN提取得到的区域候选集以及相应的特征,首先利用K-means的方法将多模态文档数据集中所有图像所包含的区域特征来进行聚类,得到固定数量的类别,每一个聚类类别的中心点作为该类别的代表元素,所有这些类别构成一个相应的词典;之后,把图像里的每一个候选区域都映射到相应的类别当中来表示,映射方法是通过计算每一个区域的特征与类别中心特征的欧氏距离,从而找到与区域特征最近的相应的类别,在向量对应该类别的位置累加,从而把整个数据集中的每一幅图像都表示成为深度视觉词袋的形式,即每一幅图像对应一个向量,向量的维度是类别的数目,而向量的元素值是该类别在图像中出现的次数,用向量VT∈RC来表示,其中C是聚类得到的类别数目;同样地,对于文本文档所对应的所有的词向量,也通过聚类的方式来得到相应的深度文本词典,最终用同样的映射方法将每一个文本都表示成深度文本词袋的形式。
4.根据权利要求1所述的方法,其特征在于:在步骤(4)中,利用潜在狄利克雷模型分别对图像和文本集合进行概率建模,潜在狄利克雷模型假设在文档集的背后隐藏着一个共同的主题集合,而具体的每一篇文档背后又分别对应着在该主题集合上的一个概率分布,该文档中的每一个词背后都对应着一个由该概率分布所生成的主题;而所有文档的概率分布不是毫无关系的,都是从一个共同的狄利克雷分布所生成;在此模型假设的基础上,将步骤(3)得到的深度视觉词袋与深度文本词袋作为输入,利用LDA模型来推导得到不同模态文档背后所隐藏的概率主题分布。
5.根据权利要求1所述的方法,其特征在于:步骤(5)在构建模型的过程中,将多模态文档集合DM分为三部分构成,即第一部分是视觉图像集合DV,第二部分是文本描述集合DT,第三部分是链接集合LVT,该集合指示图像和文本之间的关联信息;其中,DV由深度视觉词汇集合DWV构成,而DVV是深度视觉词典,同时文本描述集合DT由深度文本词汇集合DWT构成,DVT是深度文本词典;对于lvt∈LVT,lvt=1意味着视觉图像dv∈DV与文本描述dt∈DT是相关的,而lvt=0则意味着视觉图像dv与文本描述dt是不相关的;基于以上描述,关系主题模型形式化表示如下:给定DTV为视觉主题集合,DTT是文本主题集合,α和β是两个超参数,其中α针对主题的狄利克雷分布,β针对主题-深度词汇的狄利克雷分布,θv对应视觉图像dv背后的主题分布,θt对应视觉图像dt背后的主题分布,Φ是每个主题对应所有深度词汇所对应的多项式分布,z是由θ实际生成的对应所有词汇的背后主题信息,Dir()与Mult()分别表示狄利克雷分布与多项式分布,Nd表示在文档d中的深度词汇的数量,n表示第n个深度词汇;整个关系主题模型的生成过程如下所示:
(1)对于视觉主题集合中的每个主题tv∈DTV:
根据主题-视觉词汇的狄利克雷分布采样得到tv对应所有视觉词汇的多项式分布,即:φv tv~Dir(φv|βv);
(2)对于文本主题集合中的每个主题tt∈DTT:
根据主题-文本词汇的狄利克雷分布采样得到tt对应所有文本词汇的多项式分布,即:φt tt~Dir(φt|βt);
(3)对于每一个视觉文档d∈DV:
(a)根据在主题集合上的狄利克雷分布采样得到d背后对应的主题分布,即:
θv d~Dir(θv|αv);
(b)对于d中的每一个深度视觉词汇wv d,n:
i.根据文档d背后的主题分布得到该词汇对应的主题,即:zv d,n~Mult(θv d);
ii.根据主题-视觉词汇采样得到在文档该位置对应的词汇,即:wv d,n~Mult(φv zd,n);
(4)对于每一个文本文档d∈DT:
(a)根据在主题集合上的狄利克雷分布采样得到d背后对应的主题分布,即:
θt d~Dir(θt|αt);
(b)对于d中的每一个深度文本词汇wt d,n:
i.根据文档d背后的主题分布得到该词汇对应的主题,即:zt d,n~Mult(θt d);
ii.根据主题-文本词汇采样得到在文档该位置对应的词汇,即:wt d,n~Mult(φt zd,n);
(5)对于每一个链接lvt∈LVT,表示视觉文档dv与文本文档dt之间的关联信息:
(a)根据dv与dt的主题特征来计算其相关性从而对lvt进行采样,即: 其中和分别对应文档dv与dt的经验主题分布, 和是两个映射矩阵分别映射视觉和文本主题特征到公共子空间,其中公共子空间的维度是dim维,TCor(lvt=1)表示文档dt与dv的主题相关性,而TCor(lvt=0)表示文档dt与dv的主题非相关性;
基于以上过程,最终构建联合概率分布形式来针对整个多模态文档集合进行建模,如下所示:
其中,第一项对应主题-深度词汇的生成过程,中间两项对应深度视觉词汇与深度文本词汇的生成过程,最后一项表示图像-描述连接的生成过程。
6.根据权利要求1所述的方法,其特征在于:步骤(6)是步骤(5)所建立的关系主题模型,用于跨媒体信息检索;跨媒体信息检索分为两类,即文本-查询-图像和图像-查询-文本,文本-查询-图像考虑的是根据给定的查询文本,利用关系主题模型计算不同图像对该文本相关度来对所有图像进行排序,图像-查询-文本是根据不同文本文档对于给定查询图像的相关度来对所有文本文档进行排序;
对于给定的利用图像查询文本,利用关系主题模型推导出相应的主题特征,并且利用步骤(5)中得到的主题特征的相关性计算方法来计算与其他模态文档之间的相关性信息,通过相关性信息的高低来对文本文档进行排序,从而返回得到与查询图像最相关的文本文档;同样地,上述过程也适用于利用文本查询图像的跨媒体信息检索过程。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610099438.9A CN105760507B (zh) | 2016-02-23 | 2016-02-23 | 基于深度学习的跨模态主题相关性建模方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610099438.9A CN105760507B (zh) | 2016-02-23 | 2016-02-23 | 基于深度学习的跨模态主题相关性建模方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105760507A true CN105760507A (zh) | 2016-07-13 |
CN105760507B CN105760507B (zh) | 2019-05-03 |
Family
ID=56330274
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610099438.9A Expired - Fee Related CN105760507B (zh) | 2016-02-23 | 2016-02-23 | 基于深度学习的跨模态主题相关性建模方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105760507B (zh) |
Cited By (54)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106156374A (zh) * | 2016-09-13 | 2016-11-23 | 华侨大学 | 一种基于视觉词典优化和查询扩展的图像检索方法 |
CN106650756A (zh) * | 2016-12-28 | 2017-05-10 | 广东顺德中山大学卡内基梅隆大学国际联合研究院 | 基于知识迁移的多模态循环神经网络的图像文本描述方法 |
CN106778880A (zh) * | 2016-12-23 | 2017-05-31 | 南开大学 | 基于多模态深度玻尔兹曼机的微博话题表示及主题发现方法 |
CN106777050A (zh) * | 2016-12-09 | 2017-05-31 | 大连海事大学 | 一种基于词袋模型且兼顾语义相关性的鞋印花纹表达方法及*** |
CN106886783A (zh) * | 2017-01-20 | 2017-06-23 | 清华大学 | 一种基于区域特征的图像检索方法及*** |
CN107273517A (zh) * | 2017-06-21 | 2017-10-20 | 复旦大学 | 基于图嵌入学习的图文跨模态检索方法 |
CN107480289A (zh) * | 2017-08-24 | 2017-12-15 | 成都澳海川科技有限公司 | 用户属性获取方法及装置 |
CN107798624A (zh) * | 2017-10-30 | 2018-03-13 | 北京航空航天大学 | 一种软件问答社区中的技术标签推荐方法 |
CN107870992A (zh) * | 2017-10-27 | 2018-04-03 | 上海交通大学 | 基于多通道主题模型的可编辑服装图像搜索方法 |
CN108073576A (zh) * | 2016-11-09 | 2018-05-25 | 上海诺悦智能科技有限公司 | 智能搜索方法、搜索装置以及搜索引擎*** |
WO2018103538A1 (zh) * | 2016-12-08 | 2018-06-14 | 北京推想科技有限公司 | 一种分析高维医疗数据的深度学习方法和装置 |
CN108256549A (zh) * | 2017-12-13 | 2018-07-06 | 北京达佳互联信息技术有限公司 | 图像分类方法、装置及终端 |
CN108305296A (zh) * | 2017-08-30 | 2018-07-20 | 深圳市腾讯计算机***有限公司 | 图像描述生成方法、模型训练方法、设备和存储介质 |
CN108399409A (zh) * | 2018-01-19 | 2018-08-14 | 北京达佳互联信息技术有限公司 | 图像分类方法、装置及终端 |
CN108595636A (zh) * | 2018-04-25 | 2018-09-28 | 复旦大学 | 基于深度跨模态相关性学习的手绘草图的图像检索方法 |
WO2018205715A1 (zh) * | 2017-05-08 | 2018-11-15 | 京东方科技集团股份有限公司 | 医学影像的表现生成***、其训练方法及表现生成方法 |
CN108830903A (zh) * | 2018-04-28 | 2018-11-16 | 杨晓春 | 一种基于cnn的钢坯位置检测方法 |
CN109145936A (zh) * | 2018-06-20 | 2019-01-04 | 北京达佳互联信息技术有限公司 | 一种模型优化方法及装置 |
CN109214412A (zh) * | 2018-07-12 | 2019-01-15 | 北京达佳互联信息技术有限公司 | 一种分类模型的训练方法和装置 |
CN109213988A (zh) * | 2017-06-29 | 2019-01-15 | 武汉斗鱼网络科技有限公司 | 基于N-gram模型的弹幕主题提取方法、介质、设备及*** |
CN109213853A (zh) * | 2018-08-16 | 2019-01-15 | 昆明理工大学 | 一种基于cca算法的中文社区问答跨模态检索方法 |
CN109325583A (zh) * | 2017-07-31 | 2019-02-12 | 财团法人工业技术研究院 | 深度神经网络、使用深度神经网络的方法及可读媒体 |
CN109472232A (zh) * | 2018-10-31 | 2019-03-15 | 山东师范大学 | 基于多模态融合机制的视频语义表征方法、***及介质 |
CN109886326A (zh) * | 2019-01-31 | 2019-06-14 | 深圳市商汤科技有限公司 | 一种跨模态信息检索方法、装置和存储介质 |
WO2019149135A1 (zh) * | 2018-02-05 | 2019-08-08 | 阿里巴巴集团控股有限公司 | 词向量生成方法、装置以及设备 |
CN110110122A (zh) * | 2018-06-22 | 2019-08-09 | 北京交通大学 | 基于多层语义深度哈希算法的图像-文本跨模态检索 |
CN110209822A (zh) * | 2019-06-11 | 2019-09-06 | 中译语通科技股份有限公司 | 基于深度学习的学术领域数据相关性预测方法、计算机 |
CN110337016A (zh) * | 2019-06-13 | 2019-10-15 | 山东大学 | 基于多模态图卷积网络的短视频个性化推荐方法及*** |
CN110442721A (zh) * | 2018-11-28 | 2019-11-12 | 腾讯科技(深圳)有限公司 | 神经网络语言模型、训练方法、装置及存储介质 |
CN110503147A (zh) * | 2019-08-22 | 2019-11-26 | 山东大学 | 基于相关性学习的多模图像分类*** |
CN110647632A (zh) * | 2019-08-06 | 2020-01-03 | 上海孚典智能科技有限公司 | 基于机器学习的图像与文本映射技术 |
CN111078902A (zh) * | 2018-10-22 | 2020-04-28 | 三星电子株式会社 | 显示装置及其操作方法 |
CN111259152A (zh) * | 2020-01-20 | 2020-06-09 | 刘秀萍 | 一种深度多层网络驱动的特征聚合类别划分器 |
CN111310453A (zh) * | 2019-11-05 | 2020-06-19 | 上海金融期货信息技术有限公司 | 一种基于深度学习的用户主题向量化表示方法和*** |
WO2020155418A1 (zh) * | 2019-01-31 | 2020-08-06 | 深圳市商汤科技有限公司 | 一种跨模态信息检索方法、装置和存储介质 |
CN112257445A (zh) * | 2020-10-19 | 2021-01-22 | 浙大城市学院 | 一种基于文本-图片关系预训练的多模态推文命名实体识别的方法 |
CN112507064A (zh) * | 2020-11-09 | 2021-03-16 | 国网天津市电力公司 | 一种基于主题感知的跨模态序列到序列生成方法 |
CN112632969A (zh) * | 2020-12-13 | 2021-04-09 | 复旦大学 | 一种增量式行业词典更新方法和*** |
CN112836746A (zh) * | 2021-02-02 | 2021-05-25 | 中国科学技术大学 | 基于一致性图建模的语义对应方法 |
CN113051932A (zh) * | 2021-04-06 | 2021-06-29 | 合肥工业大学 | 语义和知识扩展主题模型的网络媒体事件的类别检测方法 |
US11068652B2 (en) * | 2016-11-04 | 2021-07-20 | Mitsubishi Electric Corporation | Information processing device |
CN113139468A (zh) * | 2021-04-24 | 2021-07-20 | 西安交通大学 | 融合局部目标特征与全局特征的视频摘要生成方法 |
CN113157959A (zh) * | 2020-12-17 | 2021-07-23 | 云知声智能科技股份有限公司 | 基于多模态主题补充的跨模态检索方法、装置及*** |
CN111464881B (zh) * | 2019-01-18 | 2021-08-13 | 复旦大学 | 基于自优化机制的全卷积视频描述生成方法 |
CN113298265A (zh) * | 2021-05-22 | 2021-08-24 | 西北工业大学 | 一种基于深度学习的异构传感器潜在相关性学习方法 |
CN113297485A (zh) * | 2021-05-24 | 2021-08-24 | 中国科学院计算技术研究所 | 一种生成跨模态的表示向量的方法以及跨模态推荐方法 |
CN113343679A (zh) * | 2021-07-06 | 2021-09-03 | 合肥工业大学 | 一种基于标签约束的多模态主题挖掘方法 |
CN113392196A (zh) * | 2021-06-04 | 2021-09-14 | 北京师范大学 | 一种基于多模态交叉比较的题目检索方法和*** |
CN113408282A (zh) * | 2021-08-06 | 2021-09-17 | 腾讯科技(深圳)有限公司 | 主题模型训练和主题预测方法、装置、设备及存储介质 |
CN113516118A (zh) * | 2021-07-29 | 2021-10-19 | 西北大学 | 一种图像与文本联合嵌入的多模态文化资源加工方法 |
CN114547259A (zh) * | 2020-11-26 | 2022-05-27 | 北京大学 | 一种基于主题关系图的公式描述自动生成方法与*** |
CN114880527A (zh) * | 2022-06-09 | 2022-08-09 | 哈尔滨工业大学(威海) | 一种基于多预测任务的多模态知识图谱表示方法 |
CN115017911A (zh) * | 2021-03-05 | 2022-09-06 | 微软技术许可有限责任公司 | 针对视觉和语言的跨模态处理 |
US11621075B2 (en) | 2016-09-07 | 2023-04-04 | Koninklijke Philips N.V. | Systems, methods, and apparatus for diagnostic inferencing with a multimodal deep memory network |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103559193A (zh) * | 2013-09-10 | 2014-02-05 | 浙江大学 | 一种基于选择单元的主题建模方法 |
CN103559192A (zh) * | 2013-09-10 | 2014-02-05 | 浙江大学 | 一种基于跨模态稀疏主题建模的跨媒体检索方法 |
CN104317837A (zh) * | 2014-10-10 | 2015-01-28 | 浙江大学 | 一种基于主题模型的跨模态检索方法 |
CN104899253A (zh) * | 2015-05-13 | 2015-09-09 | 复旦大学 | 面向社会图像的跨模态图像-标签相关度学习方法 |
-
2016
- 2016-02-23 CN CN201610099438.9A patent/CN105760507B/zh not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103559193A (zh) * | 2013-09-10 | 2014-02-05 | 浙江大学 | 一种基于选择单元的主题建模方法 |
CN103559192A (zh) * | 2013-09-10 | 2014-02-05 | 浙江大学 | 一种基于跨模态稀疏主题建模的跨媒体检索方法 |
CN104317837A (zh) * | 2014-10-10 | 2015-01-28 | 浙江大学 | 一种基于主题模型的跨模态检索方法 |
CN104899253A (zh) * | 2015-05-13 | 2015-09-09 | 复旦大学 | 面向社会图像的跨模态图像-标签相关度学习方法 |
Non-Patent Citations (1)
Title |
---|
吴飞等: ""跨媒体组合语义深度学习"", 《浙江省信号处理学会2015年年会——信号处理在大数据》 * |
Cited By (97)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11621075B2 (en) | 2016-09-07 | 2023-04-04 | Koninklijke Philips N.V. | Systems, methods, and apparatus for diagnostic inferencing with a multimodal deep memory network |
CN106156374A (zh) * | 2016-09-13 | 2016-11-23 | 华侨大学 | 一种基于视觉词典优化和查询扩展的图像检索方法 |
US11068652B2 (en) * | 2016-11-04 | 2021-07-20 | Mitsubishi Electric Corporation | Information processing device |
CN108073576A (zh) * | 2016-11-09 | 2018-05-25 | 上海诺悦智能科技有限公司 | 智能搜索方法、搜索装置以及搜索引擎*** |
WO2018103538A1 (zh) * | 2016-12-08 | 2018-06-14 | 北京推想科技有限公司 | 一种分析高维医疗数据的深度学习方法和装置 |
CN106777050A (zh) * | 2016-12-09 | 2017-05-31 | 大连海事大学 | 一种基于词袋模型且兼顾语义相关性的鞋印花纹表达方法及*** |
CN106777050B (zh) * | 2016-12-09 | 2019-09-06 | 大连海事大学 | 一种基于词袋模型且兼顾语义相关性的鞋印花纹表达方法及*** |
CN106778880A (zh) * | 2016-12-23 | 2017-05-31 | 南开大学 | 基于多模态深度玻尔兹曼机的微博话题表示及主题发现方法 |
CN106778880B (zh) * | 2016-12-23 | 2020-04-07 | 南开大学 | 基于多模态深度玻尔兹曼机的微博话题表示及主题发现方法 |
CN106650756B (zh) * | 2016-12-28 | 2019-12-10 | 广东顺德中山大学卡内基梅隆大学国际联合研究院 | 基于知识迁移的多模态循环神经网络的图像文本描述方法 |
CN106650756A (zh) * | 2016-12-28 | 2017-05-10 | 广东顺德中山大学卡内基梅隆大学国际联合研究院 | 基于知识迁移的多模态循环神经网络的图像文本描述方法 |
CN106886783A (zh) * | 2017-01-20 | 2017-06-23 | 清华大学 | 一种基于区域特征的图像检索方法及*** |
US11024066B2 (en) | 2017-05-08 | 2021-06-01 | Boe Technology Group Co., Ltd. | Presentation generating system for medical images, training method thereof and presentation generating method |
WO2018205715A1 (zh) * | 2017-05-08 | 2018-11-15 | 京东方科技集团股份有限公司 | 医学影像的表现生成***、其训练方法及表现生成方法 |
CN107273517B (zh) * | 2017-06-21 | 2021-07-23 | 复旦大学 | 基于图嵌入学习的图文跨模态检索方法 |
CN107273517A (zh) * | 2017-06-21 | 2017-10-20 | 复旦大学 | 基于图嵌入学习的图文跨模态检索方法 |
CN109213988A (zh) * | 2017-06-29 | 2019-01-15 | 武汉斗鱼网络科技有限公司 | 基于N-gram模型的弹幕主题提取方法、介质、设备及*** |
CN109213988B (zh) * | 2017-06-29 | 2022-06-21 | 武汉斗鱼网络科技有限公司 | 基于N-gram模型的弹幕主题提取方法、介质、设备及*** |
CN109325583B (zh) * | 2017-07-31 | 2022-03-08 | 财团法人工业技术研究院 | 深度神经网络结构、使用深度神经网络的方法及可读媒体 |
CN109325583A (zh) * | 2017-07-31 | 2019-02-12 | 财团法人工业技术研究院 | 深度神经网络、使用深度神经网络的方法及可读媒体 |
CN107480289A (zh) * | 2017-08-24 | 2017-12-15 | 成都澳海川科技有限公司 | 用户属性获取方法及装置 |
CN107480289B (zh) * | 2017-08-24 | 2020-06-30 | 成都澳海川科技有限公司 | 用户属性获取方法及装置 |
US11907851B2 (en) * | 2017-08-30 | 2024-02-20 | Tencent Technology (Shenzhen) Company Limited | Image description generation method, model training method, device and storage medium |
US11270160B2 (en) * | 2017-08-30 | 2022-03-08 | Tencent Technology (Shenzhen) Company Limited | Image description generation method, model training method, device and storage medium |
CN108305296A (zh) * | 2017-08-30 | 2018-07-20 | 深圳市腾讯计算机***有限公司 | 图像描述生成方法、模型训练方法、设备和存储介质 |
US20220156518A1 (en) * | 2017-08-30 | 2022-05-19 | Tencent Technology (Shenzhen) Company Limited. | Image description generation method, model training method, device and storage medium |
TWI803514B (zh) * | 2017-08-30 | 2023-06-01 | 大陸商騰訊科技(深圳)有限公司 | 圖像描述生成方法、模型訓練方法、設備和儲存媒體 |
WO2019042244A1 (zh) * | 2017-08-30 | 2019-03-07 | 腾讯科技(深圳)有限公司 | 图像描述生成方法、模型训练方法、设备和存储介质 |
CN107870992A (zh) * | 2017-10-27 | 2018-04-03 | 上海交通大学 | 基于多通道主题模型的可编辑服装图像搜索方法 |
CN107798624A (zh) * | 2017-10-30 | 2018-03-13 | 北京航空航天大学 | 一种软件问答社区中的技术标签推荐方法 |
CN107798624B (zh) * | 2017-10-30 | 2021-09-28 | 北京航空航天大学 | 一种软件问答社区中的技术标签推荐方法 |
CN108256549B (zh) * | 2017-12-13 | 2019-03-15 | 北京达佳互联信息技术有限公司 | 图像分类方法、装置及终端 |
CN108256549A (zh) * | 2017-12-13 | 2018-07-06 | 北京达佳互联信息技术有限公司 | 图像分类方法、装置及终端 |
WO2019141042A1 (zh) * | 2018-01-19 | 2019-07-25 | 北京达佳互联信息技术有限公司 | 图像分类方法、装置及终端 |
CN108399409A (zh) * | 2018-01-19 | 2018-08-14 | 北京达佳互联信息技术有限公司 | 图像分类方法、装置及终端 |
CN108399409B (zh) * | 2018-01-19 | 2019-06-18 | 北京达佳互联信息技术有限公司 | 图像分类方法、装置及终端 |
US11048983B2 (en) | 2018-01-19 | 2021-06-29 | Beijing Dajia Internet Information Technology Co., Ltd. | Method, terminal, and computer storage medium for image classification |
WO2019149135A1 (zh) * | 2018-02-05 | 2019-08-08 | 阿里巴巴集团控股有限公司 | 词向量生成方法、装置以及设备 |
US11030411B2 (en) | 2018-02-05 | 2021-06-08 | Alibaba Group Holding Limited | Methods, apparatuses, and devices for generating word vectors |
CN108595636A (zh) * | 2018-04-25 | 2018-09-28 | 复旦大学 | 基于深度跨模态相关性学习的手绘草图的图像检索方法 |
CN108830903A (zh) * | 2018-04-28 | 2018-11-16 | 杨晓春 | 一种基于cnn的钢坯位置检测方法 |
CN109145936B (zh) * | 2018-06-20 | 2019-07-09 | 北京达佳互联信息技术有限公司 | 一种模型优化方法及装置 |
CN109145936A (zh) * | 2018-06-20 | 2019-01-04 | 北京达佳互联信息技术有限公司 | 一种模型优化方法及装置 |
CN110110122A (zh) * | 2018-06-22 | 2019-08-09 | 北京交通大学 | 基于多层语义深度哈希算法的图像-文本跨模态检索 |
CN109214412A (zh) * | 2018-07-12 | 2019-01-15 | 北京达佳互联信息技术有限公司 | 一种分类模型的训练方法和装置 |
CN109213853B (zh) * | 2018-08-16 | 2022-04-12 | 昆明理工大学 | 一种基于cca算法的中文社区问答跨模态检索方法 |
CN109213853A (zh) * | 2018-08-16 | 2019-01-15 | 昆明理工大学 | 一种基于cca算法的中文社区问答跨模态检索方法 |
CN111078902A (zh) * | 2018-10-22 | 2020-04-28 | 三星电子株式会社 | 显示装置及其操作方法 |
CN109472232A (zh) * | 2018-10-31 | 2019-03-15 | 山东师范大学 | 基于多模态融合机制的视频语义表征方法、***及介质 |
CN110442721B (zh) * | 2018-11-28 | 2023-01-06 | 腾讯科技(深圳)有限公司 | 神经网络语言模型、训练方法、装置及存储介质 |
CN110442721A (zh) * | 2018-11-28 | 2019-11-12 | 腾讯科技(深圳)有限公司 | 神经网络语言模型、训练方法、装置及存储介质 |
CN111464881B (zh) * | 2019-01-18 | 2021-08-13 | 复旦大学 | 基于自优化机制的全卷积视频描述生成方法 |
CN109886326B (zh) * | 2019-01-31 | 2022-01-04 | 深圳市商汤科技有限公司 | 一种跨模态信息检索方法、装置和存储介质 |
WO2020155423A1 (zh) * | 2019-01-31 | 2020-08-06 | 深圳市商汤科技有限公司 | 一种跨模态信息检索方法、装置和存储介质 |
JP2022509327A (ja) * | 2019-01-31 | 2022-01-20 | シェンチェン センスタイム テクノロジー カンパニー リミテッド | クロスモーダル情報検索方法及びその装置、並びに記憶媒体 |
JP2022510704A (ja) * | 2019-01-31 | 2022-01-27 | シェンチェン センスタイム テクノロジー カンパニー リミテッド | クロスモーダル情報検索方法、装置及び記憶媒体 |
WO2020155418A1 (zh) * | 2019-01-31 | 2020-08-06 | 深圳市商汤科技有限公司 | 一种跨模态信息检索方法、装置和存储介质 |
TWI785301B (zh) * | 2019-01-31 | 2022-12-01 | 大陸商深圳市商湯科技有限公司 | 一種跨模態訊息檢索方法、裝置和儲存介質 |
JP7164729B2 (ja) | 2019-01-31 | 2022-11-01 | シェンチェン センスタイム テクノロジー カンパニー リミテッド | クロスモーダル情報検索方法及びその装置、並びに記憶媒体 |
TWI737006B (zh) * | 2019-01-31 | 2021-08-21 | 大陸商深圳市商湯科技有限公司 | 一種跨模態訊息檢索方法、裝置和儲存介質 |
CN109886326A (zh) * | 2019-01-31 | 2019-06-14 | 深圳市商汤科技有限公司 | 一种跨模态信息检索方法、装置和存储介质 |
CN110209822A (zh) * | 2019-06-11 | 2019-09-06 | 中译语通科技股份有限公司 | 基于深度学习的学术领域数据相关性预测方法、计算机 |
CN110337016A (zh) * | 2019-06-13 | 2019-10-15 | 山东大学 | 基于多模态图卷积网络的短视频个性化推荐方法及*** |
CN110647632A (zh) * | 2019-08-06 | 2020-01-03 | 上海孚典智能科技有限公司 | 基于机器学习的图像与文本映射技术 |
CN110647632B (zh) * | 2019-08-06 | 2020-09-04 | 上海孚典智能科技有限公司 | 基于机器学习的图像与文本映射技术 |
CN110503147B (zh) * | 2019-08-22 | 2022-04-08 | 山东大学 | 基于相关性学习的多模图像分类*** |
CN110503147A (zh) * | 2019-08-22 | 2019-11-26 | 山东大学 | 基于相关性学习的多模图像分类*** |
CN111310453A (zh) * | 2019-11-05 | 2020-06-19 | 上海金融期货信息技术有限公司 | 一种基于深度学习的用户主题向量化表示方法和*** |
CN111310453B (zh) * | 2019-11-05 | 2023-04-25 | 上海金融期货信息技术有限公司 | 一种基于深度学习的用户主题向量化表示方法和*** |
CN111259152A (zh) * | 2020-01-20 | 2020-06-09 | 刘秀萍 | 一种深度多层网络驱动的特征聚合类别划分器 |
CN112257445A (zh) * | 2020-10-19 | 2021-01-22 | 浙大城市学院 | 一种基于文本-图片关系预训练的多模态推文命名实体识别的方法 |
CN112257445B (zh) * | 2020-10-19 | 2024-01-26 | 浙大城市学院 | 一种基于文本-图片关系预训练的多模态推文命名实体识别的方法 |
CN112507064B (zh) * | 2020-11-09 | 2022-05-24 | 国网天津市电力公司 | 一种基于主题感知的跨模态序列到序列生成方法 |
CN112507064A (zh) * | 2020-11-09 | 2021-03-16 | 国网天津市电力公司 | 一种基于主题感知的跨模态序列到序列生成方法 |
CN114547259B (zh) * | 2020-11-26 | 2024-05-24 | 北京大学 | 一种基于主题关系图的公式描述自动生成方法与*** |
CN114547259A (zh) * | 2020-11-26 | 2022-05-27 | 北京大学 | 一种基于主题关系图的公式描述自动生成方法与*** |
CN112632969A (zh) * | 2020-12-13 | 2021-04-09 | 复旦大学 | 一种增量式行业词典更新方法和*** |
CN112632969B (zh) * | 2020-12-13 | 2022-06-21 | 复旦大学 | 一种增量式行业词典更新方法和*** |
CN113157959B (zh) * | 2020-12-17 | 2024-05-31 | 云知声智能科技股份有限公司 | 基于多模态主题补充的跨模态检索方法、装置及*** |
CN113157959A (zh) * | 2020-12-17 | 2021-07-23 | 云知声智能科技股份有限公司 | 基于多模态主题补充的跨模态检索方法、装置及*** |
CN112836746A (zh) * | 2021-02-02 | 2021-05-25 | 中国科学技术大学 | 基于一致性图建模的语义对应方法 |
CN112836746B (zh) * | 2021-02-02 | 2022-09-09 | 中国科学技术大学 | 基于一致性图建模的语义对应方法 |
CN115017911A (zh) * | 2021-03-05 | 2022-09-06 | 微软技术许可有限责任公司 | 针对视觉和语言的跨模态处理 |
CN113051932A (zh) * | 2021-04-06 | 2021-06-29 | 合肥工业大学 | 语义和知识扩展主题模型的网络媒体事件的类别检测方法 |
CN113051932B (zh) * | 2021-04-06 | 2023-11-03 | 合肥工业大学 | 语义和知识扩展主题模型的网络媒体事件的类别检测方法 |
CN113139468A (zh) * | 2021-04-24 | 2021-07-20 | 西安交通大学 | 融合局部目标特征与全局特征的视频摘要生成方法 |
CN113298265B (zh) * | 2021-05-22 | 2024-01-09 | 西北工业大学 | 一种基于深度学习的异构传感器潜在相关性学习方法 |
CN113298265A (zh) * | 2021-05-22 | 2021-08-24 | 西北工业大学 | 一种基于深度学习的异构传感器潜在相关性学习方法 |
CN113297485A (zh) * | 2021-05-24 | 2021-08-24 | 中国科学院计算技术研究所 | 一种生成跨模态的表示向量的方法以及跨模态推荐方法 |
CN113297485B (zh) * | 2021-05-24 | 2023-01-24 | 中国科学院计算技术研究所 | 一种生成跨模态的表示向量的方法以及跨模态推荐方法 |
CN113392196A (zh) * | 2021-06-04 | 2021-09-14 | 北京师范大学 | 一种基于多模态交叉比较的题目检索方法和*** |
CN113343679B (zh) * | 2021-07-06 | 2024-02-13 | 合肥工业大学 | 一种基于标签约束的多模态主题挖掘方法 |
CN113343679A (zh) * | 2021-07-06 | 2021-09-03 | 合肥工业大学 | 一种基于标签约束的多模态主题挖掘方法 |
CN113516118A (zh) * | 2021-07-29 | 2021-10-19 | 西北大学 | 一种图像与文本联合嵌入的多模态文化资源加工方法 |
CN113408282A (zh) * | 2021-08-06 | 2021-09-17 | 腾讯科技(深圳)有限公司 | 主题模型训练和主题预测方法、装置、设备及存储介质 |
CN114880527B (zh) * | 2022-06-09 | 2023-03-24 | 哈尔滨工业大学(威海) | 一种基于多预测任务的多模态知识图谱表示方法 |
CN114880527A (zh) * | 2022-06-09 | 2022-08-09 | 哈尔滨工业大学(威海) | 一种基于多预测任务的多模态知识图谱表示方法 |
Also Published As
Publication number | Publication date |
---|---|
CN105760507B (zh) | 2019-05-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105760507A (zh) | 基于深度学习的跨模态主题相关性建模方法 | |
CN110489395B (zh) | 自动获取多源异构数据知识的方法 | |
Zhang et al. | A quantum-inspired multimodal sentiment analysis framework | |
CN108573411B (zh) | 基于用户评论的深度情感分析和多源推荐视图融合的混合推荐方法 | |
CN104899253B (zh) | 面向社会图像的跨模态图像-标签相关度学习方法 | |
Zhu et al. | Unsupervised visual hashing with semantic assistant for content-based image retrieval | |
CN110598005B (zh) | 一种面向公共安全事件的多源异构数据知识图谱构建方法 | |
Gan et al. | Recognizing an action using its name: A knowledge-based approach | |
CN112256939B (zh) | 一种针对化工领域的文本实体关系抽取方法 | |
CN104933029A (zh) | 一种基于概率主题模型的文本图像联合语义分析方法 | |
CN113128237B (zh) | 一种服务资源的语义表征模型构建方法 | |
Mallik et al. | Acquisition of multimedia ontology: an application in preservation of cultural heritage | |
Zuo et al. | Representation learning of knowledge graphs with entity attributes and multimedia descriptions | |
CN114997288A (zh) | 一种设计资源关联方法 | |
Wang et al. | Rare-aware attention network for image–text matching | |
Lang et al. | A survey on out-of-distribution detection in nlp | |
CN112632223B (zh) | 案事件知识图谱构建方法及相关设备 | |
Al-Tameemi et al. | Multi-model fusion framework using deep learning for visual-textual sentiment classification | |
Rijal et al. | Integrating Information Gain methods for Feature Selection in Distance Education Sentiment Analysis during Covid-19. | |
CN117493491A (zh) | 一种基于机器学习的自然语言处理方法及*** | |
Qian et al. | Boosted multi-modal supervised latent Dirichlet allocation for social event classification | |
Yousif et al. | Exploring deep learning approaches for video captioning: A comprehensive review | |
Xiao et al. | Research on multimodal emotion analysis algorithm based on deep learning | |
Li et al. | Evidence-based SVM fusion for 3D model retrieval | |
CN114595370A (zh) | 模型训练、排序方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20190503 |