CN110032636A - 基于强化学习的情感对话异步生成模型生成文本的方法 - Google Patents

基于强化学习的情感对话异步生成模型生成文本的方法 Download PDF

Info

Publication number
CN110032636A
CN110032636A CN201910361253.4A CN201910361253A CN110032636A CN 110032636 A CN110032636 A CN 110032636A CN 201910361253 A CN201910361253 A CN 201910361253A CN 110032636 A CN110032636 A CN 110032636A
Authority
CN
China
Prior art keywords
answer
keyword
emotion
asynchronous
sentence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910361253.4A
Other languages
English (en)
Inventor
卫星
李佳
张乾威
张建军
丁震
马彦辰
陆阳
杨国强
魏振春
姜浩然
王致远
卢朝睿
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hefei University of Technology
Original Assignee
Hefei University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hefei University of Technology filed Critical Hefei University of Technology
Priority to CN201910361253.4A priority Critical patent/CN110032636A/zh
Publication of CN110032636A publication Critical patent/CN110032636A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Machine Translation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明公开了基于强化学习的情感对话异步生成模型生成文本的方法,包括以下步骤:选择一个agent,x代表外界环境输入的句子,y代表agent针对输入给出的回答、使用结构预测器来预测回答中是否需要包含关键词、使用关键词预测器来生成对应的关键词和采用异步生成方法来生成文本;本发明在分析用户情感时通过结构预测器和关键词预测器生成合适的情感关键词,生成模块再以此为基础扩展出带有情感色彩的回复,生成的回答较具有更强的情感相关度、情感强度,更能够提升体验感,主题在回答中的表达更加清晰,通过异步解码器的异步生成框架,摒弃了一次性从左到右的生成全部的回复的做法,减少了单个解码器的压力,组合后的回答更加多样化。

Description

基于强化学习的情感对话异步生成模型生成文本的方法
技术领域
本发明涉及人工智能技术领域,尤其涉及基于强化学习的情感对话异步生成模型生成文本的方法。
背景技术
近年来,随着人工智能与机器人领域如火如荼的发展,情感计算(AffectiveComputing)在人工智能的人机交互相关研究中的地位越来越重要,兼具情感与智能的人工智能有更高的实用价值和现实意义,情感对话在教育行业、管理行业、贸易方面以及健康领域有着重要发展和深刻影响。
基于先验知识库的索引与匹配模型和基于传统RNN的神经网络语言模型是目前使用广泛的两种情感对话模型,但这两种模型均存在着一些缺陷,以上两种模型虽然可以注意到情感因素在对话***中的重要性,但取得的效果却不尽人意,不能够很好的挖掘对话内容中的情感要素,生成的回答情感强度不可控、不细致,难以充分发挥情感在对话中的作用,生成的句子显得十分生硬和呆板,因此本发明提出基于强化学习的情感对话异步生成模型生成文本的方法,以解决现有技术中的不足之处。
发明内容
针对上述问题,本发明在分析用户情感的同时,通过结构预测器和关键词预测器生成合适的情感关键词,生成模块再以此为基础扩展出带有情感色彩的回复,生成的回答较具有更强的情感相关度、情感强度,更能够提升体验感,主题在回答中的表达更加清晰,通过异步解码器的异步生成框架,摒弃了一次性从左到右的生成全部的回复的做法,减少了单个解码器的压力,组合后的回答更加多样化。
本发明提出基于强化学习的情感对话异步生成模型生成文本的方法,包括以下步骤:
步骤一:选择一个agent,设定所述agent中x代表外界环境输入的句子,y代表agent针对输入给出的回答,然后给定一个问句post,利用编码器对问句post进行编码;
步骤二:首先根据输入的问句post,使用结构预测器来预测回答中是否需要包含关键词,以及关键词之间的位置关系,其中关键词为情感关键词和主题关键词;
步骤三:基于步骤二中的预测结果,使用关键词预测器来生成对应的关键词,并将生成的关键词作为先验知识指导回答的生成;
步骤四:生成关键词之后,采用异步生成方法来生成文本,然后对生成的回答进行连贯度、主题相关度以及情感相关度的指标考量,为了促进各个指标之间的学习,引入基于参数共享的多任务学习策略,在回答的生成过程中共享编码器,在各个子句的生成过程中,使用同一个编码器使各个指标相互结合,从整体的角度去衡量一个句子的质量,并对生成的子句进行计算奖励。
进一步改进在于:所述步骤二中结构预测器没有预测到关键词时,使用一个普通的前向解码器来生成回答,结构预测器预测到一个情感关键词时,采用异步解码器从情感关键词向前、向后生成回答,结构预测器预测到只有一个主题关键词时,采用异步解码器从主题关键词向前、向后生成回答,结构预测器预测到包含主题关键词和情感关键词,且顺序为主题关键词在前,情感关键词在后时,以两个关键词为界限将句子分为三部分,采用异步解码器依次生成三个子句,结构预测器预测到包含主题关键词和情感关键词,且顺序为情感关键词在前,主题关键词在后时,以两个关键词为界限将句子分为三个部分,采用异步解码器依次生成三个子句。
进一步改进在于:所述步骤二中对于输入的问句post,首先利用编码器得出隐向量序列h,再通过一个全连接层算出zs,具体过程如公式(1)所示:
其中,对于每个输入的问句post,编码器都会首先执行,并根据预测的回答结构确定下一步的工作。
进一步改进在于:所述步骤三中采用关键词预测器生成对应的关键词时,首先利用预训练的LDA模型对输入的问句post进行分析,预测回答的主题类别,引入主题类别向量和情感类别向量,由类别算出对应的向量,再利用类别向量进一步预测关键词,生成先验知识,最后采用注意力机制来强化情感特征。
进一步改进在于:所述步骤三中的先验知识需要综合,通过计算不同类别的知识向量k={ket,ktp}之间的相联度以及编码器的隐向量序列,作为注意力框架中的权重参数,其具体的计算细节如下公式(2)、(3)和(4)所示:
其中,*∈{et,tp}表示是主题或者情感,为可训练的参数;信息最终被综合在权重向量ck,*中,关键词的条件概率分别通过以下公式(5)和(6)进行计算:
其中,ck,et和ck,tp是利用公式(2)得出的,公式(5)和(6)可以看做是一种多类别的分类器,它会生成整个情感词典和主题词典上的概率分布,从而从词典中选出最合适的关键词。
进一步改进在于:所述步骤四中采用异步生成方法来生成文本的具体过程为:将步骤一中设定的句子x送入模型中转化为向量表示,从而使agent更新自身状态,做出相应的动作,生成对应的回答,使用随机取样策略得出回答语句,并使用policy gradient策略进行网络训练。
进一步改进在于:所述步骤四中为了保证答在语法上具有优秀的连贯度,利用两个Seq2Seq模型来衡量回答的连贯度,回答y的流畅度计算公式如公式(7)所示:
其中,pseq2seq(y|x)代表Seq2Seq模型输出的概率分布,表示基于给定的句子x,生成回答y的概率;的训练方式和标准的Seq2Seq模型类似,但它是将回答作为输入,问句post作为输出进行训练得到的模型,表示基于回答y,生成问句x的概率,Ny和Nx分别代表回答和问句的长度。
进一步改进在于:所述步骤四中为了保证生成的回答的主题相关度高,需要再次使用预训练的LDA模型对生成的回答进行主题类别预测,回答y的主题相关度计算公式如公式(8)所示:
其中,ktp为给定句子x的主题类别,LDA(y)为LDA模型对回答的主题预测概率分布,Ntp表示主题类别的总数。
进一步改进在于:所述步骤四中为了保证生成的回答情感相关度高,需要利用卷积神经网络对生成的回答进行情感类别分类,根据预测结果来考察回答是否符合预先要求的情感类别,回答y的情感相关度计算公式如公式(9)所示:
其中,ket为指定的情感类别,Det(y)为分类器对回答的预测概率分布,Net表示情感类别的总数。
进一步改进在于:所述步骤四中对于一个动作a,其奖励是连贯度、主题相关度以及情感相关度指标的加权和,计算公式如公式(10)所示:
r(a,[x,y])=λ1r12r23r3 (10)
为了加强对回答生成过程的约束,对每一个生成的子句都计算奖励,对于生成一句回答的动作的最终奖励为如公式(11)所示:
R(a,[x,y])=ret+rmd+rtp+r (11)
其中,ret,rmd和rtp分别表示三个子句yet,ymd和ytp的奖励,r表示回答被拼接、裁剪优化之后的奖励。
本发明的有益效果为:本发明在分析用户情感的同时,通过结构预测器和关键词预测器生成合适的情感关键词,生成模块再以此为基础扩展出带有情感色彩的回复,生成的回答较具有更强的情感相关度、情感强度,更能够提升体验感,主题在回答中的表达更加清晰,通过利用主题相关度奖励指标的约束,使得生成的回答能够紧扣问句主题,具有更强的逻辑性,通过异步解码器的异步生成框架,摒弃了一次性从左到右的生成全部的回复的做法,利用主题关键词和情感关键词之间不同组合的多样性,一步只生成序列的一部分,减少了单个解码器的压力,组合后的回答更加多样化。
附图说明
图1本发明方法流程示意图。
图2为本发明关键词预测器工作流程示意图。
图3为本发明异步解码器工作流程示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
根据图1、2、3所示,本实施例提出基于强化学习的情感对话异步生成模型生成文本的方法,包括以下步骤:
步骤一:选择一个agent,设定所述agent中x代表外界环境输入的句子,y代表agent针对输入给出的回答,然后给定一个问句post,利用编码器对问句post进行编码;
步骤二:首先根据输入的问句post,使用结构预测器来预测回答中是否需要包含关键词,以及关键词之间的位置关系,其中关键词为情感关键词和主题关键词,对于输入的问句post,首先利用编码器得出隐向量序列h,再通过一个全连接层算出zs,具体过程如公式(1)所示:
其中,对于每个输入的问句post,编码器都会首先执行,并根据预测的回答结构确定下一步的工作,结构预测器没有预测到关键词时,使用一个普通的前向解码器来生成回答,结构预测器预测到一个情感关键词时,采用异步解码器从情感关键词向前、向后生成回答,结构预测器预测到只有一个主题关键词时,采用异步解码器从主题关键词向前、向后生成回答,结构预测器预测到包含主题关键词和情感关键词,且顺序为主题关键词在前,情感关键词在后时,以两个关键词为界限将句子分为三部分,采用异步解码器依次生成三个子句,结构预测器预测到包含主题关键词和情感关键词,且顺序为情感关键词在前,主题关键词在后时,以两个关键词为界限将句子分为三个部分,采用异步解码器依次生成三个子句;
步骤三:基于步骤二中的预测结果,使用关键词预测器来生成对应的关键词,并将生成的关键词作为先验知识指导回答的生成,采用关键词预测器生成对应的关键词时,首先利用预训练的LDA模型对输入的问句post进行分析,预测回答的主题类别,引入主题类别向量和情感类别向量,由类别算出对应的向量,再利用类别向量进一步预测关键词,生成先验知识,最后采用注意力机制来强化情感特征,先验知识需要综合,通过计算不同类别的知识向量k={ket,ktp}之间的相联度以及编码器的隐向量序列,作为注意力框架中的权重参数,其具体的计算细节如下公式(2)、(3)和(4)所示:
其中,*∈{et,tp}表示是主题或者情感,为可训练的参数;信息最终被综合在权重向量ck,*中,关键词的条件概率分别通过以下公式(5)和(6)进行计算:
其中,ck,et和ck,tp是利用公式(2)得出的,公式(5)和(6)可以看做是一种多类别的分类器,它会生成整个情感词典和主题词典上的概率分布,从而从词典中选出最合适的关键词;
步骤四:生成关键词之后,采用异步生成方法来生成文本,先将步骤一中设定的句子x送入模型中转化为向量表示,从而使agent更新自身状态,做出相应的动作,生成对应的回答,使用随机取样策略得出回答语句,并使用policy gradient策略进行网络训练,然后对生成的回答进行连贯度、主题相关度以及情感相关度的指标考量,引入基于参数共享的多任务学习策略,在回答的生成过程中共享编码器,在各个子句的生成过程中,使用同一个编码器使各个指标相互结合,从整体的角度去衡量一个句子的质量,并对生成的子句进行计算奖励为了保证回答在语法上具有优秀的连贯度,利用两个Seq2Seq模型来衡量回答的连贯度,回答y的流畅度计算公式如公式(7)所示:
其中,pseq2seq(y|x)代表Seq2Seq模型输出的概率分布,表示基于给定的句子x,生成回答y的概率;的训练方式和标准的Seq2Seq模型类似,但它是将回答作为输入,问句post作为输出进行训练得到的模型,表示基于回答y,生成问句x的概率,Ny和Nx分别代表回答和问句的长度,为了保证生成的回答的主题相关度高,需要再次使用预训练的LDA模型对生成的回答进行主题类别预测,回答y的主题相关度计算公式如公式(8)所示:
其中,ktp为给定句子x的主题类别,LDA(y)为LDA模型对回答的主题预测概率分布,Ntp表示主题类别的总数,为了保证生成的回答情感相关度高,需要利用卷积神经网络对生成的回答进行情感类别分类,根据预测结果来考察回答是否符合预先要求的情感类别,回答y的情感相关度计算公式如公式(9)所示:
其中,ket为指定的情感类别,Det(y)为分类器对回答的预测概率分布,Net表示情感类别的总数,对于一个动作a,其奖励是连贯度、主题相关度以及情感相关度指标的加权和,计算公式如公式(10)所示:
r(a,[x,y])=λ1r12r23r3 (10)
为了加强对回答生成过程的约束,对每一个生成的子句都计算奖励,对于生成一句回答的动作的最终奖励为如公式(11)所示:
R(a,[x,y])=ret+rmd+rtp+r (11)
其中,ret,rmd和rtp分别表示三个子句yet,ymd和ytp的奖励,r表示回答被拼接、裁剪优化之后的奖励。
本发明在分析用户情感的同时,通过结构预测器和关键词预测器生成合适的情感关键词,生成模块再以此为基础扩展出带有情感色彩的回复,生成的回答较具有更强的情感相关度、情感强度,更能够提升体验感,主题在回答中的表达更加清晰,通过利用主题相关度奖励指标的约束,使得生成的回答能够紧扣问句主题,具有更强的逻辑性,通过异步解码器的异步生成框架,摒弃了一次性从左到右的生成全部的回复的做法,利用主题关键词和情感关键词之间不同组合的多样性,一步只生成序列的一部分,减少了单个解码器的压力,组合后的回答更加多样化。
以上显示和描述了本发明的基本原理、主要特征和优点。本行业的技术人员应该了解,本发明不受上述实施例的限制,上述实施例和说明书中描述的只是说明本发明的原理,在不脱离本发明精神和范围的前提下,本发明还会有各种变化和改进,这些变化和改进都落入要求保护的本发明范围内。本发明要求保护范围由所附的权利要求书及其等效物界定。

Claims (10)

1.基于强化学习的情感对话异步生成模型生成文本的方法,其特征在于:包括以下步骤:
步骤一:选择一个agent,设定所述agent中x代表外界环境输入的句子,y代表agent针对输入给出的回答,然后给定一个问句post,利用编码器对问句post进行编码;
步骤二:首先根据输入的问句post,使用结构预测器来预测回答中是否需要包含关键词,以及关键词之间的位置关系,其中关键词为情感关键词和主题关键词;
步骤三:基于步骤二中的预测结果,使用关键词预测器来生成对应的关键词,并将生成的关键词作为先验知识指导回答的生成;
步骤四:生成关键词之后,采用异步生成方法来生成文本,然后对生成的回答进行连贯度、主题相关度以及情感相关度的指标考量,为了促进各个指标之间的学习,引入基于参数共享的多任务学习策略,在回答的生成过程中共享编码器,在各个子句的生成过程中,使用同一个编码器使各个指标相互结合,从整体的角度去衡量一个句子的质量,并对生成的子句进行计算奖励。
2.根据权利要求1所述的基于强化学习的情感对话异步生成模型生成文本的方法,其特征在于:所述步骤二中结构预测器没有预测到关键词时,使用一个普通的前向解码器来生成回答,结构预测器预测到一个情感关键词时,采用异步解码器从情感关键词向前、向后生成回答,结构预测器预测到只有一个主题关键词时,采用异步解码器从主题关键词向前、向后生成回答,结构预测器预测到包含主题关键词和情感关键词,且顺序为主题关键词在前,情感关键词在后时,以两个关键词为界限将句子分为三部分,采用异步解码器依次生成三个子句,结构预测器预测到包含主题关键词和情感关键词,且顺序为情感关键词在前,主题关键词在后时,以两个关键词为界限将句子分为三个部分,采用异步解码器依次生成三个子句。
3.根据权利要求1所述的基于强化学习的情感对话异步生成模型生成文本的方法,其特征在于:所述步骤二中对于输入的问句post,首先利用编码器得出隐向量序列h,再通过一个全连接层算出zs,具体过程如公式(1)所示:
其中,i∈{0,1,2,3,4},对于每个输入的问句post,编码器都会首先执行,并根据预测的回答结构确定下一步的工作。
4.根据权利要求1所述的基于强化学习的情感对话异步生成模型生成文本的方法,其特征在于:所述步骤三中采用关键词预测器生成对应的关键词时,首先利用预训练的LDA模型对输入的问句post进行分析,预测回答的主题类别,引入主题类别向量和情感类别向量,由类别算出对应的向量,再利用类别向量进一步预测关键词,生成先验知识,最后采用注意力机制来强化情感特征。
5.根据权利要求4所述的基于强化学习的情感对话异步生成模型生成文本的方法,其特征在于:所述步骤三中的先验知识需要综合,通过计算不同类别的知识向量k={ket,ktp}之间的相联度以及编码器的隐向量序列,作为注意力框架中的权重参数,其具体的计算细节如下公式(2)、(3)和(4)所示:
其中,*∈{et,tp}表示是主题或者情感,为可训练的参数;信息最终被综合在权重向量ck,*中,关键词的条件概率分别通过以下公式(5)和(6)进行计算:
其中,ck,et和ck,tp是利用公式(2)得出的,公式(5)和(6)可以看做是一种多类别的分类器,它会生成整个情感词典和主题词典上的概率分布,从而从词典中选出最合适的关键词。
6.根据权利要求1所述的基于强化学习的情感对话异步生成模型生成文本的方法,其特征在于:所述步骤四中采用异步生成方法来生成文本的具体过程为:将步骤一中设定的句子x送入模型中转化为向量表示,从而使agent更新自身状态,做出相应的动作,生成对应的回答,使用随机取样策略得出回答语句,并使用policy gradient策略进行网络训练。
7.根据权利要求1所述的基于强化学习的情感对话异步生成模型生成文本的方法,其特征在于:所述步骤四中为了保证回答在语法上具有优秀的连贯度,利用两个Seq2Seq模型来衡量回答的连贯度,回答y的流畅度计算公式如公式(7)所示:
其中,pseq2seq(y|x)代表Seq2Seq模型输出的概率分布,表示基于给定的句子x,生成回答y的概率;的训练方式和标准的Seq2Seq模型类似,但它是将回答作为输入,问句post作为输出进行训练得到的模型,表示基于回答y,生成问句x的概率,Ny和Nx分别代表回答和问句的长度。
8.根据权利要求1所述的基于强化学习的情感对话异步生成模型生成文本的方法,其特征在于:所述步骤四中为了保证生成的回答的主题相关度高,需要再次使用预训练的LDA模型对生成的回答进行主题类别预测,回答y的主题相关度计算公式如公式(8)所示:
其中,ktp为给定句子x的主题类别,LDA(y)为LDA模型对回答的主题预测概率分布,Ntp表示主题类别的总数。
9.根据权利要求1所述的基于强化学习的情感对话异步生成模型生成文本的方法,其特征在于:所述步骤四中为了保证生成的回答情感相关度高,需要利用卷积神经网络对生成的回答进行情感类别分类,根据预测结果来考察回答是否符合预先要求的情感类别,回答y的情感相关度计算公式如公式(9)所示:
其中,ket为指定的情感类别,Det(y)为分类器对回答的预测概率分布,Net表示情感类别的总数。
10.根据权利要求1所述的基于强化学习的情感对话异步生成模型生成文本的方法,其特征在于:所述步骤四中对于一个动作a,其奖励是连贯度、主题相关度以及情感相关度指标的加权和,计算公式如公式(10)所示:
r(a,[x,y])=λ1r12r23r3 (10)
为了加强对回答生成过程的约束,对每一个生成的子句都计算奖励,对于生成一句回答的动作的最终奖励为如公式(11)所示:
R(a,[x,y])=ret+rmd+rtp+r (11)
其中,ret,rmd和rtp分别表示三个子句yet,ymd和ytp的奖励,r表示回答被拼接、裁剪优化之后的奖励。
CN201910361253.4A 2019-04-30 2019-04-30 基于强化学习的情感对话异步生成模型生成文本的方法 Pending CN110032636A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910361253.4A CN110032636A (zh) 2019-04-30 2019-04-30 基于强化学习的情感对话异步生成模型生成文本的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910361253.4A CN110032636A (zh) 2019-04-30 2019-04-30 基于强化学习的情感对话异步生成模型生成文本的方法

Publications (1)

Publication Number Publication Date
CN110032636A true CN110032636A (zh) 2019-07-19

Family

ID=67240903

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910361253.4A Pending CN110032636A (zh) 2019-04-30 2019-04-30 基于强化学习的情感对话异步生成模型生成文本的方法

Country Status (1)

Country Link
CN (1) CN110032636A (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111143522A (zh) * 2019-11-29 2020-05-12 华东师范大学 一种端到端的任务型对话***的领域适应方法
CN111986687A (zh) * 2020-06-23 2020-11-24 合肥工业大学 基于交互式解码的双语情感对话生成***
CN113505213A (zh) * 2021-09-09 2021-10-15 ***科技(杭州)有限公司 关键句提取方法、***、计算机可读存储介质
CN114462380A (zh) * 2022-01-12 2022-05-10 广西大学 一种基于情感预训练模型的故事结尾生成方法
CN114610861A (zh) * 2022-05-11 2022-06-10 之江实验室 基于变分自编码器的融入知识和感情的端到端对话方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108090048A (zh) * 2018-01-12 2018-05-29 安徽大学 一种基于多元数据分析的高校评价***
CN108595436A (zh) * 2018-04-28 2018-09-28 合肥工业大学 情感对话内容的生成方法和***、存储介质
CN108874972A (zh) * 2018-06-08 2018-11-23 青岛里奥机器人技术有限公司 一种基于深度学习的多轮情感对话方法
WO2018227169A1 (en) * 2017-06-08 2018-12-13 Newvoicemedia Us Inc. Optimal human-machine conversations using emotion-enhanced natural speech

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018227169A1 (en) * 2017-06-08 2018-12-13 Newvoicemedia Us Inc. Optimal human-machine conversations using emotion-enhanced natural speech
CN108090048A (zh) * 2018-01-12 2018-05-29 安徽大学 一种基于多元数据分析的高校评价***
CN108595436A (zh) * 2018-04-28 2018-09-28 合肥工业大学 情感对话内容的生成方法和***、存储介质
CN108874972A (zh) * 2018-06-08 2018-11-23 青岛里奥机器人技术有限公司 一种基于深度学习的多轮情感对话方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
孙晓 等: "基于强化学习的情感编辑约束对话内容生成", 《自动化学报》 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111143522A (zh) * 2019-11-29 2020-05-12 华东师范大学 一种端到端的任务型对话***的领域适应方法
CN111143522B (zh) * 2019-11-29 2023-08-01 华东师范大学 一种端到端的任务型对话***的领域适应方法
CN111986687A (zh) * 2020-06-23 2020-11-24 合肥工业大学 基于交互式解码的双语情感对话生成***
CN111986687B (zh) * 2020-06-23 2022-08-02 合肥工业大学 基于交互式解码的双语情感对话生成***
CN113505213A (zh) * 2021-09-09 2021-10-15 ***科技(杭州)有限公司 关键句提取方法、***、计算机可读存储介质
CN113505213B (zh) * 2021-09-09 2021-12-24 ***科技(杭州)有限公司 关键句提取方法、***、计算机可读存储介质
CN114462380A (zh) * 2022-01-12 2022-05-10 广西大学 一种基于情感预训练模型的故事结尾生成方法
CN114610861A (zh) * 2022-05-11 2022-06-10 之江实验室 基于变分自编码器的融入知识和感情的端到端对话方法

Similar Documents

Publication Publication Date Title
CN110427490B (zh) 一种基于自注意力机制的情感对话生成方法与装置
CN110032636A (zh) 基于强化学习的情感对话异步生成模型生成文本的方法
Li et al. Knowledge bridging for empathetic dialogue generation
CN108491514B (zh) 对话***中提问的方法及装置、电子设备、计算机可读介质
Nie et al. Long dialogue emotion detection based on commonsense knowledge graph guidance
CN108595436A (zh) 情感对话内容的生成方法和***、存储介质
CN109271629A (zh) 基于强化学习的生成式文本摘要方法
Fu et al. Learning towards conversational AI: A survey
CN113360618B (zh) 一种基于离线强化学习的智能机器人对话方法及***
CN114911932A (zh) 基于主题语义增强的异构图结构多会话者情感分析方法
Cabada et al. Mining of educational opinions with deep learning
Lin Reinforcement learning and bandits for speech and language processing: Tutorial, review and outlook
CN110046239B (zh) 基于情感编辑的对话方法
CN114328866A (zh) 应答流畅准确的强拟人化智能对话机器人
Trausan-Matu Is it possible to grow an I–Thou relation with an artificial agent? A dialogistic perspective
Gong et al. Simulating the effects of cross-generational cultural transmission on language change
CN116701566A (zh) 一种基于情感的多轮对话模型及对话方法
Buçinca et al. AffectON: Incorporating affect into dialog generation
Jiang et al. An affective chatbot with controlled specific emotion expression
Satyanarayana et al. A study of artificial social intelligence in conversational agents
Zhang et al. EmoEM: Emotional Expression in a Multi-turn Dialogue Model
Saund et al. The importance of qualitative elements in subjective evaluation of semantic gestures
Kafle et al. Fusion Strategy for Prosodic and Lexical Representations of Word Importance.
Wang et al. Multimodal Feature Fusion and Emotion Recognition Based on Variational Autoencoder
O'Dwyer et al. Affective computing using speech and eye gaze: a review and bimodal system proposal for continuous affect prediction

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20190719