CN112199485B - 一种基于个性化开放领域的对话生成方法 - Google Patents

一种基于个性化开放领域的对话生成方法 Download PDF

Info

Publication number
CN112199485B
CN112199485B CN202011097238.2A CN202011097238A CN112199485B CN 112199485 B CN112199485 B CN 112199485B CN 202011097238 A CN202011097238 A CN 202011097238A CN 112199485 B CN112199485 B CN 112199485B
Authority
CN
China
Prior art keywords
model
word
personalized
vector
sentence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011097238.2A
Other languages
English (en)
Other versions
CN112199485A (zh
Inventor
郎大鹏
李子豫
程俊杰
张鹏伟
赵国冬
刘翔宇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Harbin Engineering University
Original Assignee
Harbin Engineering University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Harbin Engineering University filed Critical Harbin Engineering University
Priority to CN202011097238.2A priority Critical patent/CN112199485B/zh
Publication of CN112199485A publication Critical patent/CN112199485A/zh
Application granted granted Critical
Publication of CN112199485B publication Critical patent/CN112199485B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3344Query execution using natural language analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/12Use of codes for handling textual entities
    • G06F40/126Character encoding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • G06F40/216Parsing using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/284Lexical analysis, e.g. tokenisation or collocates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Software Systems (AREA)
  • Biophysics (AREA)
  • Databases & Information Systems (AREA)
  • Biomedical Technology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Human Computer Interaction (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明属于自然语言处理技术领域,具体涉及一种基于个性化开放领域的对话生成方法。用户输入问句;在检索库中检索,采用结合词嵌入技术衡量句子形式上的相似度以及句子在语义上的相似度,若输入的句子与检索库中的问题的相似度达到了某一阈值,则将该句子输入到个性化模型中进行处理,不然,则将其输入到通用模型中。本发明在基于深度学习技术使用大规模语料数据训练得到开放领域生成式对话模型的同时,可以实现让模型保持个性从而对特定问题拥有一致性回答。

Description

一种基于个性化开放领域的对话生成方法
技术领域
本发明属于自然语言处理技术领域,具体涉及一种基于个性化开放领域的对话生成方法。
背景技术
对话***一直是自然语言处理领域的一大研究热点。传统的基于检索式的对话***存在 泛化能力较差、不具备人们期待的情感等诸多问题。近年来随着深度学习相关理论与技术的 发展,对话***的实现开始从基于检索式的逐渐向基于生成式的过度。
基于深度学习技术实现的对话生成算法通常需要借助大规模的语料数据,Serban等人提 出了基于RNN的方法让模型从数据中自动学习特征的表示,节省特征提取工作的人力成本, 取得了优于特征工程方法的结果。Seq2Seq模型是机器翻译领域一种端到端的编码器—解码 器(Encoder-Decoder)模型较好地解决了深度神经网络只能刻画等长映射的问题。鉴于人机 对话与机器翻译实际上是很相似的任务,2015年谷歌团队的Vinyals首次提出将Seq2Seq模 型应用在对话生成任务上,取得了很好的效果。基于深度学习的对话生成技术目前仍然存在 很多问题,如难以进行多轮对话、生成的回复前后不一致等,但相比于各种检索式实现方案, 它的最大优点在于,对于任何问题它都能给出一个适当的回复,综合来看,这是目前实现开 放领域对话生成任务的首选方案。
针对一致性问题,Iulian V.Serban团队在2015年提出了一种利用三轮对话提高对话一致 性的模型,不过作者也表示其模型对预训练的语料库有很高要求。2016年,Li等人在Seq2Seq 模型中引入了SPEAKER MODEL以及SPEAKER-ADDRESSEE MODEL,新模型着重刻画了 人物的一些角色信息(persona)等,并没有涉及情绪与情感等方面的内容,在一致性问题上 的表现效果较基础模型有所提升但并不惊人。2017年,Sutskever提出一种涉及人物情感的模 型,通过对解码器输入部分进行一些改造,使模型生成的对话具有一定的情绪,取得了不错 的效果,后续有研究者从这个角度尝试处理一致性问题。2018年,Facebook团队的Zhang等 人通过特制的数据集以及向模型中嵌入有利信息等方法为模型赋予了可配置但持久的角色, 在个性化的对话生成方向上取得很大进展。总的来讲,生成式的对话***由于技术限制等原 因一直以来受到的关注度并不高,所以对于这个领域的子课题——对话生成一致性的问题, 目前的相关研究还比较有限。
发明内容
本发明的目的在于提供一种基于个性化开放领域的对话生成方法。
本发明的目的通过如下技术方案来实现:包括以下步骤:
步骤1:用户输入问句;
步骤2:在检索库中检索,获取用户输入的问句的向量表示,并计算用户输入的问句与 检索库中问题的向量相似度;所述的获取用户输入的问句的向量表示的方法具体为:
步骤2.1:基于词嵌入和Skip-gram模型的词向量计算;
将用户输入的问句输入到Skip-gram模型中,模型会通过查词向量表映射的方式确定对 应的词向量,中心词的词向量确定之后,通过隐藏层进一步映射出中心词上下文的词向量表 示,之后对整体输出进行一步Softmax处理,从而获得输出的上下文中对应单词的概率,根 据此处得到的概率与实际的词做交叉熵计算从而得到目标损失,最后再利用反向传播算法获 取参数梯度并进行参数的更新;
步骤2.2:通过词嵌入技术获得当前语料库下的词向量,再对句子中所有词的词向量求平 均,即可获得一个句子的向量表示;
步骤3:若用户输入的问句与检索库中的问题的相似度达到了设定的阈值,则将该用户 输入的问句输入到个性化模型中进行处理;否则,将用户输入的问句输入到通用模型中进行 处理;
使用引入注意力机制以及DROP OUT机制的Seq2Seq模型,通过较小规模的个性化语料 数据以及较大规模的通用语料数据构建个性化模型和通用模型,并将所有个性化语料数据中 的问句作为一个检索库,用于分别处理涉及个性化信息的以及不涉及个性化信息的两类问题;
所述的引入注意力机制的Seq2Seq模型具体为:
在未引入注意力机制时,解码器的输入仅由上下文向量C以及前一时刻的隐含层状态共 同组成,并且每一步中的上下文向量C都会被更新,引入注意力机制之后,解码器在解码过 程中使用的上下文向量C均为针对当前时刻输出所选择的最适合的上下文向量;解码器输出 层用于预测单词概率的公式如下所示:
p(yi|y1,…,yi-1,x)=g(yi-1,si,ci)
其中yi-1表示i-1时刻的输出;si为网络模型在i时刻的隐含层状态,计算公式如下:
si=f(si-1,yi-1,ci)
注意力机制为每个单元分配的权重函数αij作用是衡量编码器输入序列在j时刻的隐含 层状态与解码器在i时刻的输出之间的关联性,此时对于i时刻的上下文向量ci,其值为隐含 层状态与权重函数αij的乘积:
Figure BDA0002724146740000031
其中权重函数的计算公式如下:
Figure BDA0002724146740000032
eij=f(si-1,hj)
步骤4:个性化模型或通用模型输出答复句,完成对话。
本发明的有益效果在于:
本发明在基于深度学习技术使用大规模语料数据训练得到开放领域生成式对话模型的同 时,可以实现让模型保持个性从而对特定问题拥有一致性回答。
附图说明
图1为本发明的总体流程示意图。
图2Seq2Seq模型引入attention机制后的工作流程图。
图3Drop out机制示意图。
图4网络模型抽象结构示意图。
图5词向量可视化展示示意图。
图6混合模型的模型架构示意图。
具体实施方式
下面结合附图对本发明做进一步描述。
本发明属于问答模型领域,尤其涉及一种基于个性化开放领域的对话生成方法。本发明 的目的在于提出一种基于个性化开放领域的对话生成方法,使得在基于深度学习技术使用大 规模语料数据训练得到开放领域生成式对话模型的同时,也能实现让模型保持个性从而对特 定问题拥有一致性回答的方法。
基于词嵌入和Skip-gram模型的词向量计算:模型会通过查词向量表映射的方式确定对 应的词向量,中心词的词向量确定之后,通过隐藏层进一步映射出中心词上下文的词向量表 示,之后对整体输出进行一步Softmax处理,从而获得输出的上下文中对应单词的概率,根 据此处得到的概率与实际的词做交叉熵计算从而得到目标损失,最后再利用反向传播算法获 取参数梯度并进行参数的更新。本发明使用的fastText提供的以中文***为语料训练而 来的词向量。
使用基于词向量的词袋模型的句子相似度计算:通过词嵌入技术获得当前语料库下的词 向量,再对句子中所有词的词向量求平均,即可获得一个句子的向量表示,通过这种句向量 来计算两个句子之间的向量相似度,已经可以较好的表示两个句子之间的相关性。
用于个性化对话生成的混合模型:使用引入注意力机制以及DROP OUT机制的Seq2Seq 模型来制作两个生成式模型组成的混合模型:通过较小规模的个性化语料数据以及较大规模 的通用语料数据构建两个不同的模型,并将所有个性化语料数据中的问句作为一个检索库, 用于分别处理涉及个性化信息的以及不涉及个性化信息的两类问题。见图6。
个性化开放领域的对话生成:用户输入问句;在检索库中检索,采用结合词嵌入技术衡 量句子形式上的相似度以及句子在语义上的相似度,若输入的句子与检索库中的问题的相似 度达到了某一阈值,则将该句子输入到个性化模型中进行处理,不然,则将其输入到通用模 型中。阈值是一个0到1的小数,其设定则需要根据实验效果手动调整确定,阈值的大小将 影响句子匹配的宽容度,若阈值为0则意味着任何问题都与检索库相匹配,句子将交由个性 化模型进行处理,若阈值为1则任何问题都无法命中检索库,所有句子都将交由通用模型进 行处理。过程见图1。
用于个性化对话生成的混合模型:
1.使用引入注意力机制的Seq2Seq模型:
在未引入注意力机制时,解码器的输入仅由上下文向量C以及前一时刻的隐含层状态共 同组成,并且每一步中的上下文向量C都会被更新,引入注意力机制之后,解码器在解码过 程中使用的上下文向量C均为针对当前时刻输出所选择的最适合的上下文向量。解码器输出 层用于预测单词概率的公式如下所示:
p(yi|y1,…,yi-1,x)=g(yi-1,si,ci)
其中yi-1表示i-1时刻的输出,si-1为网络模型在i-1时刻的隐含层状态,si的计算公式如 下:
si=f(si-1,yi-1,ci)
注意力机制为每个单元分配的权重函数αij作用是衡量编码器输入序列在j时刻的隐含层 状态与解码器在i时刻的输出之间的关联性,此时对于i时刻的上下文向量ci,其值为隐含层 状态与权重函数αij的乘积,公式如式X-X所示:
Figure BDA0002724146740000051
其中权重函数的计算公式如下:
Figure BDA0002724146740000052
eij=f(si-1,hj)
引入attention机制之后的Seq2Seq模型结构如图2所示。
2.使用DROP OUT机制的Seq2Seq模型:在神经网络训练过程中,按照一定的几率直接将一部分网络单元暂时性地忽略掉。从而在应对大量非标准数据时有效防止过拟合的出现。 引入Drop out机制前后神经网络模型的对比如图3所示,可以直观地看到,随着网络单元的 减少,模型训练将耗费更少的计算资源并且其拟合能力也得到提升。引入注意力机制和DROP OUT机制后的Seq2Seq模型如图4所示。
3.来制作两个生成式模型组成的混合模型:混合模型中一个是使用大规模语料数据训练 的高维通用模型,另一个则是使用优质的具有一致性人格的个性化语料数据训练而来的低维 个性化模型;并将所有个性化语料数据中的问句作为一个检索库。见图6。
个性化开放领域的对话生成:
1.用户输入问句;
2.在检索库中检索:
通过使用的fastText提供的以中文***为语料训练而来的词向量,一份典型的词向 量文件本发明内容如图5所示,其完全由中文词语及对应的词向量构成词嵌入技术获得当前 语料库下的词向量,再对句子中所有词的词向量求平均,即可获得一个句子的向量表示,通 过这种句向量来计算两个句子之间的向量相似度。
3.若输入的句子与检索库中的问题的相似度达到了某一阈值,则将该句子输入到个性化 模型中进行处理,不然,则将其输入到通用模型中。阈值是一个0到1的小数,其设定则需 要根据实验效果手动调整确定,阈值的大小将影响句子匹配的宽容度,若阈值为0则意味着 任何问题都与检索库相匹配,句子将交由个性化模型进行处理,若阈值为1则任何问题都无 法命中检索库,所有句子都将交由通用模型进行处理。过程见图1。
与现有技术相比,本算法在基于深度学习技术使用大规模语料数据训练得到开放领域生 成式对话模型的同时,让模型保持个性从而对特定问题拥有一致性回答。
1、对话生成的一致性分析
本发明的混合模型是由基线模型与个性化模型共同组成的,表1展示了两种模型对应的 生成效果,并标识出由混合模型选择的结果。其中对比展示了10组人机对话效果,前5个问 题的选择倾向于涉及角色信息的问题,而后5个问题则是对应的前五个问题的同义句。
表1对话生成效果
Figure BDA0002724146740000061
上述10组对话对应的在检索库中检索到的最高句子相似度的值以及混合模型选择的回 复如下表2所示。
表2句子命中及模型选择结果
Figure BDA0002724146740000062
在表1中,序号1与序号6的问题是同义句,序号2与序号7的问题是同义句,如此类推。综合表1与表2的信息可以发现,混合模型对于类似问题具有较好的前后一致性,且从混合模型中两种子模型的对比中可以发现,相比于基线模型,混合模型给出的回复更加符合 问题所谈论的语境。
2、对话生成的个性化效果分析
本发明的个性化效果验证实验找到了10名志愿者为混合模型的对话生成效果进行评价, 在实验之前每名志愿者都被告知,其将与两个聊天机器人分别进行对话,聊天机器人将试图 模仿笔者本人,实验过程就是志愿者与聊天机器人进行对话并评价该聊天机器人是否跟笔者 的个性相像。实验中与志愿者对话的两个聊天机器人分别采用了普通的基线模型以及本发明 实现的混合模型,评价范围分别是完全不像、有一点像、比较像、非常像。
经过每位志愿者与***进行适当的对话之后,获得了志愿者的评价如表3所示。
表3志愿者评价分布表
Figure BDA0002724146740000071
让四个评价等级分别对应25、50、75、100分,计算可得两种模型对应的平均得分如表 4所示
表4两种模型得分表
Figure BDA0002724146740000072
由上述表格数据可以发现,相比于基线模型,本发明所构建的混合模型得到了志愿者们 更多的认可,大家普遍认为该模型能够在一定程度上体现笔者本人的个性。为进一步探究个 性化模型对于个性的刻画能力,本发明分析了10名志愿者所有与混合模型进行的对话在检索 库中的命中率,结果如表5所示。
表5命中率分析表
Figure BDA0002724146740000073
由表中数据可以发现,命中率较低的志愿者对应给出的评价也较低,命中率较高的志愿 者对应的评价则较高,由此我们得出结论,个性化模型拥有一定程度上的对用户个性的刻画 能力,当然,表中也有例外的数据,这与志愿者提出的问题有很大关系。
以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员 来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等 同替换、改进等,均应包含在本发明的保护范围之内。

Claims (1)

1.一种基于个性化开放领域的对话生成方法,其特征在于,包括以下步骤:
步骤1:用户输入问句;
步骤2:在检索库中检索,获取用户输入的问句的向量表示,并计算用户输入的问句与检索库中问题的向量相似度;所述的获取用户输入的问句的向量表示的方法具体为:
步骤2.1:基于词嵌入和Skip-gram模型的词向量计算;
将用户输入的问句输入到Skip-gram模型中,模型会通过查词向量表映射的方式确定对应的词向量,中心词的词向量确定之后,通过隐藏层进一步映射出中心词上下文的词向量表示,之后对整体输出进行一步Softmax处理,从而获得输出的上下文中对应单词的概率,根据此处得到的概率与实际的词做交叉熵计算从而得到目标损失,最后再利用反向传播算法获取参数梯度并进行参数的更新;
步骤2.2:通过词嵌入技术获得当前语料库下的词向量,再对句子中所有词的词向量求平均,即可获得一个句子的向量表示;
步骤3:若用户输入的问句与检索库中的问题的相似度达到了设定的阈值,则将该用户输入的问句输入到个性化模型中进行处理;否则,将用户输入的问句输入到通用模型中进行处理;
使用引入注意力机制以及DROP OUT机制的Seq2Seq模型,通过较小规模的个性化语料数据以及较大规模的通用语料数据构建个性化模型和通用模型,并将所有个性化语料数据中的问句作为一个检索库,用于分别处理涉及个性化信息的以及不涉及个性化信息的两类问题;
所述的引入注意力机制的Seq2Seq模型具体为:
在未引入注意力机制时,解码器的输入仅由上下文向量C以及前一时刻的隐含层状态共同组成,并且每一步中的上下文向量C都会被更新,引入注意力机制之后,解码器在解码过程中使用的上下文向量C均为针对当前时刻输出所选择的最适合的上下文向量;解码器输出层用于预测单词概率的公式如下所示:
p(yi|y1,…,yi-1,x)=g(yi-1,si,ci)
其中yi-1表示i-1时刻的输出;si为网络模型在i时刻的隐含层状态,计算公式如下:
si=f(si-1,yi-1,ci)
注意力机制为每个单元分配的权重函数αij作用是衡量编码器输入序列在j时刻的隐含层状态与解码器在i时刻的输出之间的关联性,此时对于i时刻的上下文向量ci,其值为隐含层状态与权重函数αij的乘积:
Figure FDA0002724146730000021
其中权重函数的计算公式如下:
Figure FDA0002724146730000022
eij=f(si-1,hj)
步骤4:个性化模型或通用模型输出答复句,完成对话。
CN202011097238.2A 2020-10-14 2020-10-14 一种基于个性化开放领域的对话生成方法 Active CN112199485B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011097238.2A CN112199485B (zh) 2020-10-14 2020-10-14 一种基于个性化开放领域的对话生成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011097238.2A CN112199485B (zh) 2020-10-14 2020-10-14 一种基于个性化开放领域的对话生成方法

Publications (2)

Publication Number Publication Date
CN112199485A CN112199485A (zh) 2021-01-08
CN112199485B true CN112199485B (zh) 2022-10-14

Family

ID=74009134

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011097238.2A Active CN112199485B (zh) 2020-10-14 2020-10-14 一种基于个性化开放领域的对话生成方法

Country Status (1)

Country Link
CN (1) CN112199485B (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107506823A (zh) * 2017-08-22 2017-12-22 南京大学 一种用于对话生成的混合神经网络模型的构建方法
WO2018199913A1 (en) * 2017-04-25 2018-11-01 Hewlett-Packard Development Company, L.P. Machine-learning command interaction
CN109308353A (zh) * 2018-09-17 2019-02-05 北京神州泰岳软件股份有限公司 词嵌入模型的训练方法及装置
CN110008322A (zh) * 2019-03-25 2019-07-12 阿里巴巴集团控股有限公司 多轮对话场景下的话术推荐方法和装置
CN111090664A (zh) * 2019-07-18 2020-05-01 重庆大学 基于神经网络的高仿人多模式对话方法
CN111125333A (zh) * 2019-06-06 2020-05-08 北京理工大学 一种基于表示学习与多层覆盖机制的生成式知识问答方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017217661A1 (ko) * 2016-06-15 2017-12-21 울산대학교 산학협력단 어휘 의미망을 이용한 단어 의미 임베딩 장치 및 방법과, 어휘 의미망 및 단어 임베딩을 이용한 동형이의어 분별 장치 및 방법

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018199913A1 (en) * 2017-04-25 2018-11-01 Hewlett-Packard Development Company, L.P. Machine-learning command interaction
CN107506823A (zh) * 2017-08-22 2017-12-22 南京大学 一种用于对话生成的混合神经网络模型的构建方法
CN109308353A (zh) * 2018-09-17 2019-02-05 北京神州泰岳软件股份有限公司 词嵌入模型的训练方法及装置
CN110008322A (zh) * 2019-03-25 2019-07-12 阿里巴巴集团控股有限公司 多轮对话场景下的话术推荐方法和装置
CN111125333A (zh) * 2019-06-06 2020-05-08 北京理工大学 一种基于表示学习与多层覆盖机制的生成式知识问答方法
CN111090664A (zh) * 2019-07-18 2020-05-01 重庆大学 基于神经网络的高仿人多模式对话方法

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
Large-scale simple question generation by template-based seq2seq learning;Tianyu Liu 等;《Natural Language Processing and Chinese Computing》;20180105;第75-87页 *
基于seq2 seq和Attention模型的聊天机器人对话生成机制研究;吴石松 等;《自动化与仪器仪表》;20200725;第186-189页 *
基于聚类和辅助词典的模式匹配方法;刘国峰 等;《哈尔滨工程大学学报》;20130116;第34卷(第2期);第214-220页 *
基于表示学习的知识库问答研究进展与展望;刘康 等;《自动化学报》;20160517;第42卷(第6期);第807-818页 *
模型检测中关键反例的提取算法;郎大鹏 等;《哈尔滨工程大学学报》;20150907;第36卷(第10期);第1404-1408页 *
问答***中问题模式分类与相似度计算方法;周建政 等;《计算机工程与应用》;20140101;第50卷(第1期);第116-120页 *

Also Published As

Publication number Publication date
CN112199485A (zh) 2021-01-08

Similar Documents

Publication Publication Date Title
CN107273355B (zh) 一种基于字词联合训练的中文词向量生成方法
CN107766506A (zh) 一种基于层次化注意力机制的多轮对话模型构建方法
CN109036391A (zh) 语音识别方法、装置及***
CN112541063B (zh) 一种基于自学习对话模型的人机对话方法及***
CN109241255A (zh) 一种基于深度学习的意图识别方法
CN109522545B (zh) 一种对多轮对话连贯性质量的评估方法
CN110647612A (zh) 一种基于双视觉注意力网络的视觉对话生成方法
CN108628935A (zh) 一种基于端到端记忆网络的问答方法
CN109887484A (zh) 一种基于对偶学习的语音识别与语音合成方法及装置
CN107798140A (zh) 一种对话***构建方法、语义受控应答方法及装置
CN111241250A (zh) 一种情感对话生成***和方法
CN111672098A (zh) 虚拟对象标记方法、装置、电子设备以及存储介质
CN110826338A (zh) 一种单选择门与类间度量的细粒度语义相似识别的方法
CN112417894A (zh) 一种基于多任务学习的对话意图识别方法及识别***
CN110334196B (zh) 基于笔画和自注意力机制的神经网络中文问题生成***
CN110516035A (zh) 一种混合模块的人机交互方法和***
CN107679225A (zh) 一种基于关键词的回复生成方法
Liu et al. Attribute-guided attention for referring expression generation and comprehension
CN110415071A (zh) 一种基于观点挖掘分析的汽车竞品对比方法
CN110619127A (zh) 一种基于神经网络图灵机的蒙汉机器翻译方法
CN113392640B (zh) 一种标题确定方法、装置、设备及存储介质
CN111428004A (zh) 一种融合辅助信息与层级自注意力循环神经网络方面的情感分析方法
CN109783825A (zh) 一种基于神经网络的古文翻译方法
CN112131367A (zh) 自审核的人机对话方法、***及可读存储介质
CN110188200A (zh) 一种使用社交上下文特征的深度微博情感分析方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant