CN109522545B - 一种对多轮对话连贯性质量的评估方法 - Google Patents

一种对多轮对话连贯性质量的评估方法 Download PDF

Info

Publication number
CN109522545B
CN109522545B CN201811181214.8A CN201811181214A CN109522545B CN 109522545 B CN109522545 B CN 109522545B CN 201811181214 A CN201811181214 A CN 201811181214A CN 109522545 B CN109522545 B CN 109522545B
Authority
CN
China
Prior art keywords
vector
semantic
dialogue
language
wheel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811181214.8A
Other languages
English (en)
Other versions
CN109522545A (zh
Inventor
兰曼
周云晓
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
East China Normal University
Original Assignee
East China Normal University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by East China Normal University filed Critical East China Normal University
Priority to CN201811181214.8A priority Critical patent/CN109522545B/zh
Publication of CN109522545A publication Critical patent/CN109522545A/zh
Application granted granted Critical
Publication of CN109522545B publication Critical patent/CN109522545B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Machine Translation (AREA)

Abstract

本发明公开了一种对多轮对话连贯性质量的评估方法,其特点是以多轮对话文本为输入,采用分层注意力机制,分别在单个话语层面和多轮对话的整体层面,融合对话的语义信息和意图信息,实现多轮对话连贯性质量的自动评估。本发明与现有技术相比训练速度快,分析准确率高,不需要从文本中抽取实体,避免了实体抽取误差的传播,尤其适合大规模和实时性语料,结合对话蕴含的语义信息和意图信息,有效地自动评估多轮对话的连贯性质量,指导多轮对话生成***生成更加高质量的对话文本,促进对话生成***更好更快地发展。

Description

一种对多轮对话连贯性质量的评估方法
技术领域
本发明涉及互联网深度学习模型技术领域,尤其是一种利用深度学习对多轮对话连贯性质量的评估方法。
背景技术
近年来,人机对话***,例如苹果Siri、微软小冰等聊天/客服机器人(Chatbot)越来越多出现在日常生活中。对话(Dialogue)是人类社交活动中的基本信息交互方式,包括电视访谈、问答对话、微信聊天等,人机对话中的一个关键核心技术是多轮对话生成(Multi-turn Dialogue Generation),这是人工智能发展水平的标志,也是自然语言处理领域的研究热点,受到越来越多科研人员的关注。多轮对话生成的质量评估通常采用以下两种方式:1)借用其他文本生成任务(例如机器翻译或自动摘要等)中的BLEU和ROUGE等客观评估度量,这种客观自动评估度量基于词重叠,忽略了对话天然具有多样性和交互性的特点,不能很好地适用于对话的质量评估;2)人工评估,虽然这种评估方式具有较高的准确性,但人工和时间成本大,无法适用大规模和实时性对话的质量评估。考虑到对话通常发生在两方或多方之间,多轮对话生成的内容质量高低取决于前后对话间的文本连贯性(TextCoherence),如果缺乏连贯性,往往使得对话容易陷入逻辑混乱,造成对话无法继续。因此,无论是客观自动评估方式,还是人工评估方式,多轮对话的连贯性评估是对话质量评估的一个关键指标。
文本连贯性评估多采用基于实体网格(Entity Grid)或实体序列(EntitySequence)的方法,该方法首先抽取文本中的人名、地名等实体(Entity)及其语法角色(如主语、谓语等),并将其填入网格节点(即格点)中,相邻句子间的实体语法角色的转换则成为格点间的连线,然后通过人工抽取特征或利用卷积神经网络(Convolutional NeuralNetwork,CNN)的方法进行文本的连贯性评估。
以下表1的两个多轮对话的示例,对现有技术存在的问题作进一步阐述:
表1两个多轮对话的示例
表1中左、右两列分别是连贯的和不连贯的多轮对话示例(对话的轮数都是6),其中H表示对话中的人类(Human),C表示聊天机器人(Chatbot)。每一个H或C的句子就是一个话语(Utterance),例如H1和C1都是一个话语。表1中左边的话语H1“我想给我的妻子买些花”,表明说话人想买花的意愿,话语C1合理的回复是推荐合适的花。对话的意图(Intention)信息通常使用对话行为(Dialog Act)来表示,这里左边H1的对话行为标记就是指示,连贯的多轮对话中存在合理的对话意图转换,即对话行为转换,引导对话有逻辑地围绕主题和意图展开。
现有对话连贯性质量评估技术有以下不足:(1)忽略了对话天然具有语言多样性和多轮交互性的特点,因此对话质量评估的准确性较低;(2)缺少多轮对话的整体语义信息;(3)缺少多轮对话中蕴含的意图信息;(4)缺少多轮对话语义信息和意图信息的深度融合;(5)人工和时间成本大,无法适用大规模和实时性对话的质量评估;(6)基于实体网格或序列的方法依赖实体抽取的性能,抽取误差会直接影响后续步骤的性能。
发明内容
本发明的目的是针对现有技术的不足而设计的一种对多轮对话连贯性质量评估的方法,以多轮对话文本为输入,采用分层注意力机制,分别在单个话语层面和多轮对话的整体层面,融合对话的语义信息和意图信息,实现多轮对话连贯性质量的自动评估。通过对多轮对话连贯性质量的自动评估,可以指导多轮对话生成***生成更加高质量的对话文本,促进对话生成***更好更快地发展,不需要从文本中抽取实体,避免了实体抽取误差的传播,无需人工设计特征,节省成本,训练速度快,尤其适合大规模和实时性语料,从单个对话和整体对话层面分别结合对话蕴含的语义信息和意图信息,有效评估多轮对话的连贯性质量,大大提高了分析准确率。
本发明的目的是这样实现的:一种对多轮对话连贯性质量评估的方法,其特点是采用深度学习对多轮对话进行分层语义建模,在得到各个话语的语义向量表示后对话语序列进行建模,进而得到多轮对话的整体语义信息,其连贯性质量评估按下述步骤进行:
步骤一:利用预训练的词向量,通过查表将单个话语中的每个词初始化为词向量,并以单个话语的词向量序列为输入,利用深度学习模型(如LSTM模型)对单个话语进行语义学习,得到每个话语的语义向量。
步骤二:将单个话语的对话行为类型初始化为对话行为向量表示,然后采用注意力机制,融合单个话语的对话行为向量和单个话语语义向量,得到单个话语的语义意图融合向量。
步骤三:针对多轮对话的话语序列,利用单个话语的语义意图融合向量,构建多轮对话的语义意图融合向量序列,并以多轮对话的语义意图融合向量序列为输入,利用深度学习模型(如LSTM模型)对多轮对话进行学习,得到多轮对话的整体向量。
步骤四:将多轮对话的话语语义向量序列,作为深度学习模型(如LSTM模型)的输入,对多轮对话进行语义建模,得到多轮对话的整体语义向量,并以多轮对话的对话行为序列为输入,采用深度学习模型(如CNN模型)对多轮对话的整体意图进行学习,得到多轮对话的整体意图向量。
步骤五:采用注意力机制,融合多轮对话的整体语义向量和整体意图向量,得到对话整体语义意图融合向量。
步骤六:将分别在不同层面融合对话语义信息和意图信息得到的对话向量进行综合(如简单拼接),得到对话的整体连贯性向量,并以对话的整体连贯性向量为输入,利用打分函数,得到多轮对话的连贯性质量评估得分,然后利用交叉熵损失函数计算训练数据的连贯性得分误差,通过反向传播更新模型参数进行模型训练。
步骤七:将待评估的多轮对话及其对话行为序列输入已训练的多轮对话连贯性质量自动评估模型,进行对话的连贯性质量评估和预测得分。
本发明与现有技术相比具有训练速度快,分析准确率高,无需人工设计特征,节省成本,不需要从文本中抽取实体,避免了实体抽取误差的传播,尤其适合大规模和实时性语料,利用分层注意力机制,分别在单个话语层面和多轮对话的整体层面,结合对话蕴含的语义信息和意图信息,有效地自动评估多轮对话的连贯性质量,指导多轮对话生成***生成更高质量的对话文本,促进对话生成***更好更快地发展。
附图说明
图1为本发明操作流程图。
具体实施方式
下面以具体实施的过程、条件以及实验方法,对本发明作进一步的详细说明,其中所涉及的专业术语的定义如下:
多轮对话(Multi-turn Dialogue):多轮对话由两轮或两轮以上的有序对话组成,每轮对话中包含一个话语(Utterance),即单个对话者单次所讲的文本内容。如下表2所示的多轮对话共包括6轮对话,即6个话语,H1“我想给我的妻子买些花。”为该多轮对话的第一个话语。
对话行为(Dialog Act):对话行为反应每个对话的意图,共有42类,包括陈述、疑问、指示、主张、解释等。如下表2所示每个话语的对话行为类型,其中话语H2“红玫瑰要多少钱?”的对话行为类型是疑问,表达了对话者的疑惑,而话语C2“一支5元,十支40元。”则通过陈述红玫瑰的价格,解答了上述疑问。
表2六轮对话文本及每轮对话的行为类型例子
词向量(Word Vector):使用低维连续性数值的向量表示文本中的每个词。词向量采用预训练的方式从语料库获得。
深度学习模型(Deep Learning Model):深度学习模型分为三个部分:输入层,隐藏层和输出层。其中,隐藏层可以扩展成为多层结构,相邻两层之间的神经元相互连接,层内部神经元没有连接。常用的深度学习模型有卷积神经网络模型(Convolutional NeuralNetwork,CNN)、循环神经网络模型(Recurrent Neural Network,RNN)、长短期记忆神经网络模型(Long-Short Term Memory,LSTM)等。
参阅附图1,本发明中的输入为一个包含N个话语u的多轮对话D,表示为D={u1,u2,…,ui,…,uN},i=[1,2,…,N],其中ui代表第i个话语。每个话语u包含n个词,则话语u表示为字符串序列u={w1,w2,…,wj,…,wn},j=[1,2,…,n]。为了得到多轮对话整体的语义向量表示,首先需要获取单个话语的语义向量表示。
本发明采用深度学习对多轮对话进行分层语义建模,在得到各个话语的语义向量表示后对话语序列进行建模,进而得到多轮对话的整体语义信息,其连贯性质量评估按下述步骤进行:
步骤一:在单个话语层,利用深度学习模型(如CNN,RNN或LSTM模型),对多轮对话D中每个话语u进行语义建模,得到单个话语的语义向量表示,具体过程描述如下:
输入:一个包含N个话语u的多轮对话D,词向量词典,深度学习模型及相关参数;
输出:单个话语的语义向量表示;
过程:步骤a1:每个话语通常包含多个词,为了对单个话语进行语义建模,首先通过在预训练的词向量词典中查表,将单个话语中的每个词转化为其对应的词向量表示。话语u包含n个词,即字符串序列u={w1,w2,…,wj,…,wn},j=[1,2,…,n],通过查表预训练的词向量词典,将话语u中的每个词wj初始化为词向量,得到话语u的词向量序列s={x1,x2,…,xj,…,xn},j=[1,2,…,n],其中xj表示话语u的第j个词的词向量。
步骤a2:以话语u的词向量序列s为输入,利用深度学习模型(如CNN,RNN或LSTM模型)对话语u进行语义建模,得到单个话语的语义向量表示。以LSTM模型为例,过程描述如下:
(1)、输入话语的词向量序列s={x1,x2,…,xj,…,xn};
(2)、对词向量序列中的每个词向量,依次采用LSTM模型中的重复模块按下述公式a~e进行处理:
ft=σ(Wfxt+Ufht-1+bf) (a)
it=σ(Wixt+Uiht-1+bi) (b)
ot=σ(Woxt+Uoht-1+bo) (c)
ct=ft*ct-1+it*tanh(Wcxt+Ucht-1+bc) (d)
ht=ot*tanh(ct) (e)
其中,xt为词向量序列s中第t个词向量(t=[1,2,…,n]),作为t时间步的输入向量;ft,it,ot分别表示t时间步的遗忘门、输入门和输出门;Wf,Wi,Wo,Wc和Uf,Ui,Uo,Uc都是权重参数,bf,bi,bo,bc都是偏置项;σ为S型曲线激活函数(sigmoid),tanh为双曲正切函数;*表示两个向量的对应元素相乘(Element-wise Multiplication)操作;ht为t时间步的隐藏层状态。
(3)输出最后一个时间步n的隐藏层状态hn,作为话语u的语义向量表示h。第一步骤通过深度学习模型对每个话语进行的语义建模只获取了单个话语的语义信息,没有考虑到话语的意图信息。
步骤二:在单个话语层,利用步骤一得到的单个话语的语义向量表示,采用注意力机制融合单个话语的意图信息,输出得到单个话语的语义意图融合向量,具体过程描述如下:
输入:步骤一得到的单个话语的语义向量表示,话语对应的对话行为类型,深度学习模型及相关参数;
输出:单个话语的语义意图融合向量;
过程:步骤b1:将话语的对话行为类型初始化为对话行为向量表示后,采用注意力机制,融合单个话语的对话行为向量和步骤一得到的单个话语的语义向量表示,得到单个话语的语义意图融合向量,过程描述如下:
(1)、针对42种对话行为类型,通过随机初始化,得到每一种对话行为类型所对应的固定维度的向量表示(以200维为例),构成对话行为向量词典E∈R42×200
(2)、针对单个话语u,通过查表对话行为向量词典E,将其对话行为类型初始化为向量vda
(3)、利用注意力机制,融合单个话语的对话行为向量vda和步骤一得到的语义向量表示h,得到话语的语义意图融合向量hda,以5次线性变换为例,按下述公式i~k进行计算:
zi=Wih+bi(i=[1,2,...,5]) (i)
其中,Wi为权重,bi为偏置项,zi为对语义向量h的第i次线性变换的结果;αi为标量值,表示利用对话行为向量vda计算得到的zi的权重值;hda即话语的语义意图融合向量,是对各个zi的加权求和结果,融合了话语u的语义信息和意图信息。
步骤三:针对多轮对话的话语序列,利用步骤二得到的话语的语义意图融合向量,构建多轮对话整体的语义意图融合向量序列,采用深度学习模型(如LSTM),得到多轮对话的整体向量表示。多轮对话的连贯性质量是对多轮对话的整体进行连贯性评估,因此,本发明的第三步骤针对多轮对话的话语序列,利用步骤二得到的话语的语义意图融合向量hda,构建多轮对话整体的语义意图融合向量序列,利用深度学习模型(以LSTM模型为例),对多轮对话的话语序列进行建模,得到多轮对话的整体向量表示hd,具体过程描述如下:
输入:步骤二得到的每个话语的语义意图融合向量hda构成的多轮对话的语义意图融合向量序列,深度学习模型及相关参数;
输出:多轮对话的整体向量表示;
过程:步骤c1:针对多轮对话D的话语序列{u1,u2,…,ui,…,uN},利用步骤二得到的单个话语的语义意图融合向量hda,构建多轮对话的语义意图融合向量序列{hda1,hda2,...,hdai,...,hdaN},i=[1,2,…,N],其中hdai表示对话中第i个话语ui的语义意图融合向量。
步骤c2:以多轮对话的语义意图融合向量序列为输入,利用LSTM模型对多轮对话进行建模,得到多轮对话的整体向量表示hd,LSTM模型的过程描述参考步骤a2
步骤四:对多轮对话的话语序列和对话行为序列,分别进行深度学习(如LSTM或CNN)建模,得到多轮对话的整体语义向量表示和整体意图向量表示。上述步骤二和步骤三是在单个话语层面利用注意力机制融合语义和意图信息,然后利用融合后的序列得到对话的整体表示。为了在多轮对话的整体层面利用注意力机制来融合对话的语义信息和意图信息,首先需要对多轮对话进行整体的语义建模和意图建模,因此,本发明的第四步骤使用深度学习模型(如CNN,RNN或LSTM模型),对多轮对话的话语序列和对话行为序列分别建模,得到多轮对话的整体语义向量表示和整体意图向量表示,具体过程描述如下:
输入:步骤一得到的单个话语的语义向量构成多轮对话的语义向量序列,多轮对话的对话行为序列,深度学习模型及相关参数;
输出:多轮对话的整体语义向量表示和整体意图向量表示;
过程:步骤d1:针对多轮对话D的话语序列{u1,u2,…,ui,…,uN},利用步骤一得到每个话语的语义向量表示h,构成D的话语语义向量序列sh={h1,h2,...,hi,...,hN},i=[1,2,…,N],将其作为LSTM模型的输入,对多轮对话进行语义建模得到多轮对话的整体语义向量表示hsem,LSTM模型具体过程参考步骤a2
步骤d2:以多轮对话的对话行为序列为输入,采用深度学习模型(如CNN,RNN或LSTM模型),对多轮对话的整体意图进行建模,得到多轮对话的整体意图向量表示,过程如下:
(1)、针对多轮对话D的话语序列{u1,u2,…,ui,…,uN}和每个话语的对话行为类型,得到D的对话行为序列sda={da1,da2,...,dai,...,daN},i=[1,2,…,N],其中dai为第i个话语ui的对话行为类型。
(2)、采用深度学习模型,对对话行为序列进行建模,得到对话整体的对话行为表示,以CNN模型为例,过程描述如下:
(I)针对对话行为序列sda={da1,da2,...,dai,...,daN},对每一个对话行为dai(i=[1,2,…,N]),通过在步骤二中构建的对话行为向量词典E中查表,得到其对应的向量表示,则对话行为序列转化为包含N个向量的向量序列{v1,v2,...,vi,...,vN},作为CNN模型的输入。
(II)卷积层将输入的向量v进行卷积操作,其计算按下述公式f进行:
cj=f(uTvj-k+1:j+b) (f)
其中,f为非线性函数,如双曲正切激活函数(hyperbolic tangent)、S型曲线激活函数(sigmoid)等,b为偏置项,u表示窗口大小为k的卷积滤波器,v(j-k+1:j)表示对话行为序列中的第j-k+1个对话行为到第j个对话行为(共k个对话行为)的向量表示。滤波器数量为m,在大小为k的滑动窗口下,得到m个特征值序列C={C1,C2,…,Cm},其中每个特征值序列Ci=[c1,c2,…,cN-k+1],Ci∈RN-k+1,i=[1,…,m]。
(III)为了提取重要特征和控制输出的一致性,池化层将这m个特征值序列C进行池化操作得到一个m维的特征向量作为多轮对话的整体意图向量表示vd
步骤五:在对话整体层面,采用注意力机制融合步骤四中得到的两个向量表示,获得对话整体语义意图融合向量。为了在多轮对话的整体层面融合对话的语义信息和意图信息,本发明的第五步骤为采用注意力机制,融合步骤d1中得到的整体语义向量表示hsem和步骤d2中得到的整体意图向量表示vd,得到对话整体语义意图融合向量具体过程描述如下:
输入:多轮对话的整体语义向量表示hsem,多轮对话的整体意图向量表示vd,深度学习模型及相关参数;
输出:多轮对话的整体语义意图融合向量;
过程:步骤e1:采用注意力机制,融合多轮对话的整体语义向量表示hsem和整体意图向量表示vd,以5次线性变换为例,其具体计算按下述公式g、l和n进行:
gi=Wdihsem+bdi(i=[1,2,...,5]) (g)
其中,Wdi为权重,bdi为偏置项,gi为对语义向量hsem的第i次线性变换的结果;βi为标量值,表示利用对话行为表示vd计算得到的gi的权重值,则是对各个gi的加权求和结果,即融合了多轮对话语义信息和意图信息的对话整体语义意图融合向量。
步骤六:上述这些步骤采用分层注意力机制,在单个话语和多轮对话的整体这两个层面分别融合对话的语义信息和意图信息,得到多轮对话的两种整体向量表示hd本发明的第六步骤是综合这两种整体向量表示,利用打分函数(如softmax,sigmoid函数)得到对话的连贯性质量评估得分,其中,多轮对话连贯性质量自动评估模型的训练是通过交叉熵损失函数和反向传播(backpropagation)来进行的,具体过程描述如下:
输入:步骤三得到的多轮对话的整体向量表示hd和步骤五得到的多轮对话的整体语义意图融合向量深度学习模型及相关参数;
输出:多轮对话的连贯性质量评估得分;
过程:步骤f1:将步骤三和步骤五分别在不同层面融合对话语义信息和意图信息得到的两个对话向量表示hd进行综合(以简单拼接为例),得到对话的整体连贯性向量:其中,表示拼接操作。
步骤f2:以向量hc为输入,利用打分函数(如softmax,sigmoid函数),对多轮对话的整体连贯性质量进行打分,得到对话的连贯性概率分布hs。以softmax函数为例,整体计算按下述公式m进行:
hs=softmax(Wshc+bs) (m)
其中,Ws为权重,bs为偏置项,用于将多轮对话的整体连贯性向量hc映射到二维目标空间,得到二维向量ho,作为softmax函数的输入,softmax函数具体计算按下述公式p进行:
其中,表示向量hs的第j维数值,j=[0,1],为0-1之间的实数值,相加和为1,其中表示对话的连贯性概率,即对话的连贯性质量评估得分。
步骤f3:多轮对话的连贯性质量自动评估模型的训练是有监督的学习过程,在得到多轮对话的连贯性质量评估得分后,针对训练数据T,其交叉熵损失函数的计算按下述公式q进行:
其中,θ为模型中需要训练更新的参数集合,包括各个步骤中涉及的权重与偏置项参数,以及步骤二中构建的对话行为向量词典E,|T|表示训练数据集中的对话个数,yi代表训练数据集中第i条多轮对话的连贯性得分,若该多轮对话为连贯的对话,则其为1,否则为0。
为了对多轮对话的连贯性质量自动评估模型进行训练和学习,本步骤对上述损失函数进行求导,将连贯性误差进行反向传播,更新模型参数,直到loss(θ)小于预定阈值τ,则停止更新,完成模型训练。
步骤七:将待评估的多轮对话及其对话行为序列输入已训练的多轮对话连贯性质量自动评估模型,预测对话的连贯性质量评估得分。本发明的第七步骤是将待评估的多轮对话及其对话行为序列输入到步骤六中已训练得到的多轮对话连贯性质量自动评估模型中,得到表征对话连贯程度的实数值(介于[0-1]之间),并输出这个实数值作为该多轮对话的连贯性质量评估得分。
以上只是对本发明作进一步的说明,并非用以限制本专利,凡为本发明等效实施,均应包含于本专利的权利要求范围之内。

Claims (1)

1.一种对多轮对话连贯性质量的评估方法,其特征在于采用深度学习对多轮对话进行分层语义建模,在得到各个话语的语义向量表示后对话语序列进行建模,进而得到多轮对话的整体语义信息,其连贯性质量评估按下述步骤进行:
步骤一:利用预训练的词向量,通过查表将单个话语中的每个词初始化为词向量,并以单个话语的词向量序列为输入,利用深度学习模型对单个话语进行语义学习,得到每个话语的语义向量;
步骤二:将单个话语的对话行为类型初始化为对话行为向量表示,然后采用注意力机制,融合单个话语的对话行为向量和单个话语的语义向量,得到单个话语的语义意图融合向量;
步骤三:针对多轮对话的话语序列,利用单个话语的语义意图融合向量,构建多轮对话的语义意图融合向量序列,并以多轮对话的语义意图融合向量序列为输入,利用深度学习模型对多轮对话进行学习,得到多轮对话的整体向量;
步骤四:将多轮对话的话语语义向量序列,作为深度学习模型的输入,对多轮对话进行语义建模,得到多轮对话的整体语义向量,并以多轮对话的对话行为序列为输入,采用深度学习模型对多轮对话的整体意图进行学习,得到多轮对话的整体意图向量;
步骤五:采用注意力机制,融合多轮对话的整体语义向量和整体意图向量,得到对话整体语义意图融合向量;
步骤六:综合步骤三和步骤五分别在不同层面融合对话语义信息和意图信息得到的对话向量表示,得到对话的整体连贯性向量,并以对话的整体连贯性向量为输入,利用打分函数,得到多轮对话的连贯性质量评估得分,然后利用交叉熵损失函数计算训练数据的连贯性得分误差,通过反向传播更新模型参数进行模型训练;
步骤七:将待评估的多轮对话及其对话行为序列输入已训练的多轮对话连贯性质量自动评估模型,进行对话的连贯性质量评估和预测得分。
CN201811181214.8A 2018-10-11 2018-10-11 一种对多轮对话连贯性质量的评估方法 Active CN109522545B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811181214.8A CN109522545B (zh) 2018-10-11 2018-10-11 一种对多轮对话连贯性质量的评估方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811181214.8A CN109522545B (zh) 2018-10-11 2018-10-11 一种对多轮对话连贯性质量的评估方法

Publications (2)

Publication Number Publication Date
CN109522545A CN109522545A (zh) 2019-03-26
CN109522545B true CN109522545B (zh) 2019-08-23

Family

ID=65770262

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811181214.8A Active CN109522545B (zh) 2018-10-11 2018-10-11 一种对多轮对话连贯性质量的评估方法

Country Status (1)

Country Link
CN (1) CN109522545B (zh)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110188190B (zh) * 2019-04-03 2023-07-14 创新先进技术有限公司 对话解析方法、装置、服务器及可读存储介质
CN110162779B (zh) * 2019-04-04 2023-08-04 北京百度网讯科技有限公司 病历质量的评估方法、装置及设备
RU2744032C2 (ru) * 2019-04-15 2021-03-02 Общество С Ограниченной Ответственностью "Яндекс" Способ и система для определения результата выполнения задачи в краудсорсинговой среде
CN111159356B (zh) * 2019-12-31 2023-06-09 重庆和贯科技有限公司 基于教学内容的知识图谱构建方法
RU2020107002A (ru) 2020-02-14 2021-08-16 Общество С Ограниченной Ответственностью «Яндекс» Способ и система приема метки для цифровой задачи, исполняемой в краудсорсинговой среде
CN111460115B (zh) * 2020-03-17 2023-05-26 深圳市优必选科技股份有限公司 智能人机对话模型训练方法、模型训练装置及电子设备
CN111428470B (zh) * 2020-03-23 2022-04-22 北京世纪好未来教育科技有限公司 文本连贯性判定及其模型训练方法、电子设备及可读介质
CN111241263A (zh) * 2020-04-24 2020-06-05 支付宝(杭州)信息技术有限公司 文本生成方法、装置和电子设备
CN112487158B (zh) * 2020-11-06 2023-05-05 泰康保险集团股份有限公司 一种多轮对话的问题定位方法及装置
CN112417112A (zh) * 2020-11-10 2021-02-26 中山大学 一种基于图表征增强的开放域对话***评估方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9348816B2 (en) * 2008-10-14 2016-05-24 Honda Motor Co., Ltd. Dialog coherence using semantic features
CN106599196A (zh) * 2016-12-14 2017-04-26 竹间智能科技(上海)有限公司 一种人工智能对话方法及***

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9348816B2 (en) * 2008-10-14 2016-05-24 Honda Motor Co., Ltd. Dialog coherence using semantic features
CN106599196A (zh) * 2016-12-14 2017-04-26 竹间智能科技(上海)有限公司 一种人工智能对话方法及***

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Analyzing Dialog Coherence Using Transition Patterns in Lexical and Semantic Features;Amruta Purandare et al;《Proceedings of the Twenty-First International FLAIRS Conference》;20081231;第195-200页
基于深度学习的生成式聊天机器人算法综述;孙立茹 等;《电脑知识与技术》;20180831;第14卷(第23期);第227-228页

Also Published As

Publication number Publication date
CN109522545A (zh) 2019-03-26

Similar Documents

Publication Publication Date Title
CN109522545B (zh) 一种对多轮对话连贯性质量的评估方法
Liu et al. Knowledge diffusion for neural dialogue generation
CN107133224B (zh) 一种基于主题词的语言生成方法
Mondal et al. Chatbot: An automated conversation system for the educational domain
CN110222163A (zh) 一种融合cnn与双向lstm的智能问答方法及***
CN107832400A (zh) 一种基于位置的lstm和cnn联合模型进行关系分类的方法
CN112667818B (zh) 融合gcn与多粒度注意力的用户评论情感分析方法及***
CN110717334A (zh) 基于bert模型和双通道注意力的文本情感分析方法
CN109597997A (zh) 基于评论实体、方面级情感分类方法和装置及其模型训练
CN108363695B (zh) 一种基于双向依赖语法树表征的用户评论属性抽取方法
CN109241255A (zh) 一种基于深度学习的意图识别方法
CN108363753A (zh) 评论文本情感分类模型训练与情感分类方法、装置及设备
Wen et al. Dynamic interactive multiview memory network for emotion recognition in conversation
CN107578106A (zh) 一种融合单词语义知识的神经网络自然语言推理方法
CN112527966B (zh) 基于Bi-GRU神经网络和自注意力机制的网络文本情感分析方法
CN113535904B (zh) 一种基于图神经网络的方面级情感分析方法
CN111274398A (zh) 一种方面级用户产品评论情感分析方法及***
CN110851760B (zh) 在web3D环境融入视觉问答的人机交互***
CN107679225B (zh) 一种基于关键词的回复生成方法
CN110427616A (zh) 一种基于深度学习的文本情感分析方法
CN112115242A (zh) 一种基于朴素贝叶斯分类算法的智能客服问答***
CN112287106A (zh) 一种基于双通道混合神经网络的在线评论情感分类方法
CN113656564A (zh) 一种基于图神经网络的电网业务对话数据情感检测方法
CN116028604A (zh) 一种基于知识增强图卷积网络的答案选择方法及***
Chen et al. Construction of affective education in mobile learning: The study based on learner’s interest and emotion recognition

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant