CN111177357B - 一个基于记忆神经网络的对话式信息检索的方法 - Google Patents

一个基于记忆神经网络的对话式信息检索的方法 Download PDF

Info

Publication number
CN111177357B
CN111177357B CN201911406907.7A CN201911406907A CN111177357B CN 111177357 B CN111177357 B CN 111177357B CN 201911406907 A CN201911406907 A CN 201911406907A CN 111177357 B CN111177357 B CN 111177357B
Authority
CN
China
Prior art keywords
query
user
word
representation
intention
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911406907.7A
Other languages
English (en)
Other versions
CN111177357A (zh
Inventor
窦志成
文继荣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Renmin University of China
Original Assignee
Renmin University of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Renmin University of China filed Critical Renmin University of China
Priority to CN201911406907.7A priority Critical patent/CN111177357B/zh
Publication of CN111177357A publication Critical patent/CN111177357A/zh
Application granted granted Critical
Publication of CN111177357B publication Critical patent/CN111177357B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3325Reformulation based on results of preceding query
    • G06F16/3326Reformulation based on results of preceding query using relevance feedback from the user, e.g. relevance feedback on documents, documents sets, document terms or passages
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/335Filtering based on additional data, e.g. user or group profiles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明提出一种基于记忆神经网络的对话式信息检索的方法,通过建立检索模型,所述检索模型包括用户总体查询意图建模、当前查询特定意图建模和统计特征引入,所述用户总体查询意图建模利用用户的历史查询和历史点击信息建模会话内用户的整体查询意图,所述当前查询特定意图建模通过对当前查询词分析,找到最能表示当前特定查询意图的查询词来与文档进行交互,所述统计特征引入用于直接地衡量候选文档与整个查询序列的关系。

Description

一个基于记忆神经网络的对话式信息检索的方法
技术领域
本发明涉及一种检索方法,尤其涉及一个基于记忆神经网络的对话式信息检索的方法。
背景技术
对话式检索可以在使搜索引擎的用户可以采用类似对话的方式和搜索引擎进行交互获取想要的搜索结果。这种搜索方式一方面可以帮助用户将一个复杂的搜索任务分割成若干个简单的搜索任务,另一方面可以使用户在搜索过程中,通过搜索引擎的反馈结果,逐渐明确自己的核心搜索意图,从而形成更高效便捷的搜索过程。
现有技术用于解决对话式检索问题的方法主要是基于会话的检索模型,然而对话式检索与基于会话的检索的一大区别在于对话式检索中的查询更为简略,正如人们日常生活中对话时,通常会省略之前对话提到的事物,因此想要理解查询意图,不仅需要更好地理解查询历史,还需要更好地理解检索结果历史以及用户点击历史。另外,对话式检索过程中用户的查询意图较为发散,因而对当前查询的意图需要更精细的理解。现有技术中由基于反馈的记忆神经网络来提升检索效果,然而该模型中关于检索结果负例的使用不适用于对话式检索。本发明采用记忆神经网络存储历史的正例搜索结果用于理解用户的总体搜索意图,同时利用基于核的神经网络模型理解用户当前的搜索意图,并通过大量的特征设计提升检索效果。
发明内容
本发明提出了一种基于记忆神经网络的对话式信息检索的方法,通过建立检索模型,所述检索模型包括用户总体查询意图建模、当前查询特定意图建模和统计特征引入,所述用户总体查询意图建模利用用户的历史查询和历史点击信息建模会话内用户的整体查询意图,所述当前查询特定意图建模通过对当前查询词分析,找到最能表示当前特定查询意图的查询词来与文档进行交互,所述统计特征引入用于直接地衡量候选文档与整个查询序列的关系。
本发明有效地解决了对话式信息检索问题中用户意图发散的问题及当前查询信息缺失的问题。本发明应用在搜索引擎上可以大大提升用户的搜索体验,这体现在用户可以将复杂的查询任务分隔开,由浅入深地完成搜索任务。以及在用户与搜索引擎地交互过程中,用户可以更好地完善与明确自己的查询意图。
附图说明
图1为本发明的整体框架图;
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。此外,下面所描述的本发明各个实施方式中所涉及到的技术特征只要彼此之间未构成冲突就可以相互组合。
对话式信息检索将用户的搜索行为视作用户与搜索引擎的对话过程。但是与对话机器人不同之处在于,搜索引擎无法显式地给用户类似人与人之间交流时的回答,而是通过返回检索到的文档列表,作为提供给用户的隐式回复,这里隐式的含义是搜索引擎给用户的回答包含在文档中需要用户自己阅读与选择。这样的交互方式使得对话式检索与传统的信息检索任务有着显著的差异,从传统的单方主导的交互方式,变化为双方共同主导的交互方式。一方面搜索引擎根据用户提供的一系列查询逐渐明晰用户的查询意图进而返回更符合该意图的文档,另一方面用户也根据搜索引擎反馈的信息判断搜索引擎理解的搜索意图,根据搜索引擎的理解与实际意图的偏差调整查询的表述方式,进而提供更贴合真实搜索意图的查询。
以实际会话中的查询序列为例,对于当前查询"What training is required fora PA",如果不借助外部知识库,很难理解这里的PA是什么意思,但是如果看到历史查询中的"What is a physician assistant"和"physician assistant average salary",就不难知道PA是"physician assistant"的意思。就这一点而言,基于会话的检索模型也可以做到实体含义的理解,实际上,对话式检索的查询再此基础上会更加简洁,比如当前查询被简化成"What training is required",甚至前一个查询也被简化成"their averagesalary",此时只有第一个查询中有"physician assistant"这个表现核心搜索意图的词汇。因而在对话式检索问题中,在用户查询的信息量及其有限的情况下,充分挖掘用户点击文档的信息变得尤为重要。
另一方面,一般会话内的所有查询的意图不会有很大差距,但是对话式信息检索中同一会话内的查询意图有时会有很大差别。比如,一会话中第一个查询为"What are thedifferent types of macromolecules?",第二个查询为"Tell me about thecharacteristics of carbohydrates",第六个查询为"Tell me about lipids",可见第六个查询不仅像上文提到的省略了大量信息,而且与第二个查询的意图差别很大,所以第二个查询的相关信息应用在第六个查询的文档排序上时会产生偏差。
与基于会话的信息检索形式类似,对话式信息检索研究的用户查询同样来源于同一个会话内。定义会话历史S={q1,q2,...,qt-1},对应的用户历史点击文档为
Figure BDA0002348896400000031
其中ni表示第i个查询对应点击的文档个数。给定当前的查询qt,以及候选文档dc,计算该候选文档的得分:Score(qt,dc)=p(dc|qt,S,Dc)。以该得分为依据对文档列表进行排序,将结果返回给用户。
用户的总体意图需要通过会话的历史信息得到,尤其是用户的历史点击文档包含的信息,但是由于对话过程中主题的分散,并不是所有的历史点击文档都和当前的查询意图相关,因此本发明使用key-value记忆神经网络来存储历史信息,其中将历史查询作为键值(key),将文档信息作为值(value),因而可以通过历史查询与当前查询的相关程度选择可能对理解当前查询意图有利的文档信息。
本发明提出了一种基于记忆神经网络的对话式信息检索的方法,通过建立检索模型,所述检索模型包括用户总体查询意图建模、当前查询特定意图建模和统计特征引入,所述用户总体查询意图建模利用用户的历史查询和历史点击信息建模会话内用户的整体查询意图,所述当前查询特定意图建模通过对当前查询词分析,找到最能表示当前特定查询意图的查询词来与文档进行交互,所述统计特征引入用于直接地衡量候选文档与整个查询序列的关系。
如图1所示,本发明首先使用历史正例文档与历史查询构成记忆神经网络,使用当前查询到记忆神经网络中抽取相关信息,得到记忆向量rm,将记忆向量与候选文档表示向量交互得到匹配特征f1,然后使用当前查询中出现的各个词与查询历史中出现的各个词之间计算相似度,将每个查询词对应的所有相似度值相加得到对应权重,每个查询词得到的权重值拼接在一起得到权重向量。将改权重向量与每个查询词对应idf组成的向量相乘,就得到了查询词的注意力向量anew,将该注意力向量用于当前查询与候选文档使用KNRM模型的匹配过程中,获得特征f2,然后使用一些额外的统计特征,将这些特征通过全连接层获得匹配特征f3。最后将所述三个匹配特征通过全连接层获得最终的匹配得分。
本发明首先对查询与文档语句进行表示。对查询q={w1,w2,...,wl},其中wt表示查询中的第t个词,使用graph embedding的方式得到对应词向量表示xt(graph embedding构建图时将处于同一查询以及同一文档中的词之间连成边,每个词作为一个结点),使用双向LSTM处理词向量矩阵,得到每个词对应的隐含层向量表示
Figure BDA0002348896400000041
即由前向LSTM与后向LSTM模型得到的隐含层向量拼接而成,每个方向LSTM隐含层的向量是通过遗忘门、输入门、输出门三个门进行控制,它的计算过程如下:
Figure BDA0002348896400000042
Figure BDA0002348896400000043
Figure BDA0002348896400000051
Figure BDA0002348896400000052
Figure BDA0002348896400000053
其中的tanh()和σ()是激活函数,所有的W矩阵和
Figure BDA0002348896400000054
向量都是待训练的参数,/>
Figure BDA0002348896400000055
表示t时刻的输出门向量,/>
Figure BDA0002348896400000056
表示t时刻的上下文向量,/>
Figure BDA0002348896400000057
表示t时刻的输入门向量,/>
Figure BDA0002348896400000058
表示t时刻的遗忘门向量。由此得到查询q中每个词的隐含层表示Hq={h1,h2,...,hl}。随后使用注意力机制将这些隐含层向量连接起来,得到查询q的表示向量rq
Figure BDA0002348896400000059
A=Softmax(vTHqWa),A=[α1,α2,...,αl]
类似地,可以得到所有历史查询的表示
Figure BDA00023488964000000510
所有历史点击文档的表示/>
Figure BDA00023488964000000511
其中ni表示第i个查询对应的点击文档数量,/>
Figure BDA00023488964000000512
表示第k个查询对应的第i个点击文档。当前查询的表示/>
Figure BDA00023488964000000513
以及候选文档表示
Figure BDA00023488964000000514
在对所有查询进行编码时使用的双向LSTM模型参数相同,对所有文档进行编码时使用的双向LSTM模型参数也相同。对同一历史查询对应的所有的历史点击文档表示求均值,得到key-value记忆神经网络中存储的值矩阵V:
Figure BDA00023488964000000515
对应的键值矩阵K就是历史查询的表示
Figure BDA00023488964000000516
当计算得到当前查询的表示/>
Figure BDA00023488964000000517
之后,为借助记忆神经网络通过历史知识更好地理解当前查询的意图,因而选取与当前查询语义更相近的历史查询,读取相应键值的记忆单元,将这些记忆单元通过加权合得到总体的记忆向量表示rm
Figure BDA00023488964000000518
最后将得到的记忆向量表示与候选文档表示向量进行交互,衡量候选文档与用户总体查询意图的相似程度
Figure BDA0002348896400000061
所述W1表示待训练的参数。在对话式检索问题中,用户在整个会话内的查询意图相对分散,因而在理解用户当前查询意图是不能完全参考与过去查询过程中的相似处,还需要分析当前查询与历史查询的不同,从而建模出当前特定的查询意图。一些在历史查询中频繁出现的词在当前查询中如果也出现了,那么该词虽然有可能反应用户的查询意图,但相对于当前查询而言,改词具有的信息量相对低,对候选文档集的过滤作用往往不如一些新出现的词明显。针对这种情况,本发明采用了基于核方法的神经网络模型建模当前特定的查询意图。
参考KNRM模型,本发明用类似的方式对当前查询与候选文档进行交互,但是为了体现表示当前特定意图的词汇,在KNRM模型中为每个查询词引入了权重,该权重anew衡量对应词汇的新鲜度,计算方式如下:
Figure BDA0002348896400000062
其中Xh表示历史查询中出现过的所有词的词向量,
Figure BDA0002348896400000063
为历史查询中出现的第i个词,Xh为历史查询中出现的所有词的集合,xt表示当前查询中的第t个词。W2为参数,用于计算当前查询词与历史出现的查询词之间的相似度。相似度越低,说明该词越能代表当前查询的特定意图,即含有更高的信息量。此外,词的idf同样可以反映改词含有的信息量多少,因而将idf加入到权重的计算中,即/>
Figure BDA0002348896400000064
为计算当前查询与候选文档的相关度,首先需要对二者词向量矩阵进行交互得到相似度矩阵M:
Figure BDA0002348896400000065
随后,参考KNRM模型中核方法的使用,使用多个高斯核来统计不同分布下词向量的相似程度,得到k维匹配特征
Figure BDA0002348896400000066
/>
Figure BDA0002348896400000067
Figure BDA0002348896400000071
最后,将得到的k维匹配特征通过全连接层,得到当前查询与候选文档的相似度
Figure BDA0002348896400000072
所述W3和b均为待训练的参数。
为了更直接地衡量候选文档与整个查询序列的关系,本发明引入了114维统计特征。考虑到每篇文档的第一句话经常是带有总结性质的,因而有57维特征是衡量整篇候选文档与用户查询序列的关系,另外57维特征是衡量候选文档第一句话与用户查询序列的关系。表1列出前57维特征的计算方式,后面57维特征的计算方式相同。
表1
Figure BDA0002348896400000073
其中与文档基本统计特征相关的有3维特征,与词频相关的有4维特征,与文档tfidf值相关的有5维特征,标准化词频特征有4维,文档与查询词共同词相关特征有7维,文档与查询词向量相似度特征有24维,这里文档和查询的总体词向量表示有2种计算方式,一种是将所有词向量直接相加,另一种是以各词的idf维权重将词向量加权得到。由于使用了word2vec和graph embedding2种方式表示词向量,因此每种相似度有4种计算方式,因此文档与查询词向量相似度特征共有24维。最后,当前查询词分别与之前的i个查询连接得到10个重组的查询,将这10个重组查询分别与文档计算BM25值和Rouge-L值,得到20维特征。故共得到57维特征。将这57维特征的计算方式从应用在文档上替换成应用在文档的第一句话上,又会得到57维特征,因而总共得到114维特征。将这114维特征通过多层感知机,得到1维匹配特征f3
将之前得到的三个匹配特征综合起来,通过全连接层得到最终的匹配分数,其中W4为全连接层的参数:
Score(qt,dc)=Leaky_ReLU(W4[f1;f2;f3])
模型训练过程采用pairwise的方式,即对候选文档序列中的一对文档,正例文档为
Figure BDA0002348896400000081
负例文档为/>
Figure BDA0002348896400000082
训练目标是让这对文档的得分差距尽可能大,损失函数为:
Figure BDA0002348896400000083
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。

Claims (3)

1.一种基于记忆神经网络的对话式信息检索的方法,其特征在于,通过建立检索模型,所述检索模型包括用户总体查询意图建模、当前查询特定意图建模和统计特征引入,所述用户总体查询意图建模利用用户的历史查询和历史点击信息建模会话内用户的整体查询意图,所述当前查询特定意图建模通过对当前查询词分析,找到最能表示当前特定查询意图的查询词来与文档进行交互,所述统计特征引入用于直接地衡量候选文档与整个查询序列的关系;
所述用户总体查询意图建模的具体方式为,首先对查询与文档语句进行表示,查询q={w1,w2,…,wl},其中wt表示查询中的第t个词,使用graph embedding的方式得到对应词向量表示xt,所述graph embedding构建图时将处于同一查询以及同一文档中的词之间连成边,每个词作为一个结点,使用双向LSTM处理词向量矩阵,得到每个词对应的隐含层向量表示
Figure QLYQS_1
由前向LSTM与后向LSTM模型得到的隐含层向量拼接而成,每个方向LSTM隐含层的向量通过遗忘门、输入门、输出门三个门进行控制,它的计算过程如下:
Figure QLYQS_2
Figure QLYQS_3
Figure QLYQS_4
Figure QLYQS_5
Figure QLYQS_6
其中的tanh()和σ()是激活函数,公式中的所有W矩阵和
Figure QLYQS_7
向量都是待训练的参数,/>
Figure QLYQS_8
表示t时刻的输出门向量,/>
Figure QLYQS_9
表示t时刻的上下文向量,/>
Figure QLYQS_10
表示t时刻的输入门向量,/>
Figure QLYQS_11
表示t时刻的遗忘门向量,由此得到查询q中每个词的隐含层表示Hq={h1,h2,…,hl};所述l为正整数,
随后使用注意力机制将隐含层向量连接起来,得到查询q的表示向量rq:
Figure QLYQS_12
其中,A=Softmax(vTHqWa),A=[α12,…,αl]
所有历史查询的表示
Figure QLYQS_13
所有历史点击文档的表示/>
Figure QLYQS_14
Figure QLYQS_15
其中ni表示第i个查询对应的点击文档数量,/>
Figure QLYQS_16
表示第k个查询对应的第i个点击文档,所述当前查询的表示/>
Figure QLYQS_17
以及候选文档表示/>
Figure QLYQS_18
在对所有查询进行编码时使用的双向LSTM模型参数相同,并且对所有文档进行编码时使用的双向LSTM模型参数也相同;
对同一历史查询对应的所有的历史点击文档表示求均值,得到key-value记忆神经网络中存储的值矩阵V:
V=[v1,v2,…vt-1],
其中
Figure QLYQS_19
所述k为正整数,对应的键值矩阵K为历史查询的表示
Figure QLYQS_20
选取与当前查询语义更相近的历史查询,读取相应键值的记忆单元,将这些记忆单元通过加权合得到总体的记忆向量表示rm:
Figure QLYQS_21
最后将得到的记忆向量表示与候选文档表示向量进行交互,衡量候选文档与用户总体查询意图的相似程度为
Figure QLYQS_22
所述W1表示待训练的参数。
2.如权利要求1所述的方法,其特征在于,所述当前查询特定意图建模的具体方式为,为每个查询词引入了权重anew衡量对应词汇的新鲜度,计算方式如下:
Figure QLYQS_23
Figure QLYQS_24
其中Xh表示历史查询中出现过的所有词的词向量,所述W2为参数,
Figure QLYQS_25
为历史查询中出现的第i个词,Xh为历史查询中出现的所有词的集合,xt表示当前查询中的第t个词;
然后计算当前查询与候选文档的相关度,对二者词向量矩阵进行交互得到相似度矩阵M:
Figure QLYQS_26
所述W3为待训练的参数,
Figure QLYQS_27
为当前查询中第i个词的表示,/>
Figure QLYQS_28
为候选文档中第j个词的表示;
随后使用多个高斯核来统计不同分布下词向量的相似程度,得到k维匹配特征
Figure QLYQS_29
Figure QLYQS_30
其中
Figure QLYQS_31
所述μk和/>
Figure QLYQS_32
分别表示第k个高斯核的均值和方差,将得到的k维匹配特征通过全连接层,得到当前查询与候选文档的相似度
Figure QLYQS_33
所述W3和b均为待训练的参数。
3.如权利要求2所述的方法,其特征在于,所述统计特征引入为引入了114维统计特征,将这114维特征通过多层感知机,得到1维匹配特征f3,其中57维特征是衡量整篇候选文档与用户查询序列的关系,另外57维特征是衡量候选文档第一句话与用户查询序列的关系;最后将所述特征f1、f2、f3通过全连接层得到最终的匹配分数。
CN201911406907.7A 2019-12-31 2019-12-31 一个基于记忆神经网络的对话式信息检索的方法 Active CN111177357B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911406907.7A CN111177357B (zh) 2019-12-31 2019-12-31 一个基于记忆神经网络的对话式信息检索的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911406907.7A CN111177357B (zh) 2019-12-31 2019-12-31 一个基于记忆神经网络的对话式信息检索的方法

Publications (2)

Publication Number Publication Date
CN111177357A CN111177357A (zh) 2020-05-19
CN111177357B true CN111177357B (zh) 2023-05-23

Family

ID=70654271

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911406907.7A Active CN111177357B (zh) 2019-12-31 2019-12-31 一个基于记忆神经网络的对话式信息检索的方法

Country Status (1)

Country Link
CN (1) CN111177357B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112069399B (zh) * 2020-08-25 2023-06-02 中国人民大学 一种基于交互匹配的个性化搜索***
CN112182162B (zh) * 2020-09-30 2023-10-31 中国人民大学 一种基于记忆神经网络的个性化对话方法和***
CN112307182B (zh) * 2020-10-29 2022-11-04 上海交通大学 一种基于问答***的伪相关反馈的扩展查询方法
CN113987155B (zh) * 2021-11-25 2024-03-26 中国人民大学 一种融合知识图谱与大规模用户日志的会话式检索方法
CN115545960B (zh) * 2022-12-01 2023-06-30 江苏联弘信科技发展有限公司 一种电子信息数据交互***及方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102012900A (zh) * 2009-09-04 2011-04-13 阿里巴巴集团控股有限公司 信息检索方法和***
CN103729351A (zh) * 2012-10-10 2014-04-16 阿里巴巴集团控股有限公司 查询词推荐方法及装置
CN106372132A (zh) * 2016-08-25 2017-02-01 北京百度网讯科技有限公司 基于人工智能的查询意图预测方法和装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10803055B2 (en) * 2017-12-15 2020-10-13 Accenture Global Solutions Limited Cognitive searches based on deep-learning neural networks

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102012900A (zh) * 2009-09-04 2011-04-13 阿里巴巴集团控股有限公司 信息检索方法和***
CN103729351A (zh) * 2012-10-10 2014-04-16 阿里巴巴集团控股有限公司 查询词推荐方法及装置
CN106372132A (zh) * 2016-08-25 2017-02-01 北京百度网讯科技有限公司 基于人工智能的查询意图预测方法和装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
李响 等.融合 FAQ 的任务型对话***设计.信息工程大学学报.2019,第第20卷卷(第第4期期),第473-478页. *

Also Published As

Publication number Publication date
CN111177357A (zh) 2020-05-19

Similar Documents

Publication Publication Date Title
CN111177357B (zh) 一个基于记忆神经网络的对话式信息检索的方法
CN108052583B (zh) 电商本体构建方法
CN108052593B (zh) 一种基于主题词向量和网络结构的主题关键词提取方法
Marlin Collaborative filtering: A machine learning perspective
CN105183833B (zh) 一种基于用户模型的微博文本推荐方法及其推荐装置
Hofmann Unsupervised learning by probabilistic latent semantic analysis
US7809704B2 (en) Combining spectral and probabilistic clustering
Alguliev et al. DESAMC+ DocSum: Differential evolution with self-adaptive mutation and crossover parameters for multi-document summarization
CN102890711A (zh) 一种检索排序方法及***
WO2021051508A1 (zh) 机器人对话生成方法、装置、可读存储介质及机器人
CN113987155B (zh) 一种融合知识图谱与大规模用户日志的会话式检索方法
CN117094291B (zh) 基于智能写作的自动新闻生成***
CN112182373A (zh) 一种基于上下文表示学习的性化搜索方法
CN115686432A (zh) 一种用于检索排序的文献评价方法、存储介质及终端
CN115577080A (zh) 一种问题回复匹配方法、***、服务器及存储介质
Derby et al. Using sparse semantic embeddings learned from multimodal text and image data to model human conceptual knowledge
CN110737837A (zh) ResearchGate平台下基于多维特征的科研合作者推荐方法
Kamruzzaman et al. Text classification using association rule with a hybrid concept of naive Bayes classifier and genetic algorithm
CN111767724A (zh) 一种文本相似度计算方法及***
Menon et al. Clustering of words using dictionary-learnt word representations
CN114298020B (zh) 一种基于主题语义信息的关键词向量化方法及其应用
CN110633363B (zh) 一种基于nlp和模糊多准则决策的文本实体推荐方法
CN116414940A (zh) 标准问题的确定方法、装置及相关设备
Wei et al. Context vector model for document representation: a computational study
CN116738035B (zh) 一种基于窗口滑动的推荐重排方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant