CN110866403A - 基于卷积循环实体网络的端对端对话状态跟踪方法及*** - Google Patents

基于卷积循环实体网络的端对端对话状态跟踪方法及*** Download PDF

Info

Publication number
CN110866403A
CN110866403A CN201810916744.6A CN201810916744A CN110866403A CN 110866403 A CN110866403 A CN 110866403A CN 201810916744 A CN201810916744 A CN 201810916744A CN 110866403 A CN110866403 A CN 110866403A
Authority
CN
China
Prior art keywords
sentence
convolution
matrix
semantic
semantic slot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810916744.6A
Other languages
English (en)
Other versions
CN110866403B (zh
Inventor
颜永红
何峻青
赵学敏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Institute of Acoustics CAS
Original Assignee
Institute of Acoustics CAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Institute of Acoustics CAS filed Critical Institute of Acoustics CAS
Priority to CN201810916744.6A priority Critical patent/CN110866403B/zh
Publication of CN110866403A publication Critical patent/CN110866403A/zh
Application granted granted Critical
Publication of CN110866403B publication Critical patent/CN110866403B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Machine Translation (AREA)

Abstract

本发明提出了基于卷积循环实体网络的端对端对话状态跟踪方法和***,包括:步骤1)将对话表示成多个句子矩阵集合D={S1,...St},Si,1≤i≤t为第i个由若干词向量组成的句子矩阵;步骤2)该矩阵集合D经过一个可训练的卷积神经网络模块,最大池化后得到固定长度的句子向量;步骤3)使用动态记忆将各个固定长度的句子向量进行编码,使用动态记忆的最后一个隐层ht表示整个对话;步骤4)对于每个预先定义的语义槽,建立一层从ht到该语义槽所有可能值的全连接的神经网络,得到各个语义槽在各个值上的概率分布;步骤5)取最大概率所在的值作为该语义槽的预测结果,得到该对话当前的对话状态。本发明可自动学习和语义槽相关的文本表示,提高了对话状态跟踪的性能。

Description

基于卷积循环实体网络的端对端对话状态跟踪方法及***
技术领域
本发明涉及在对话***对话状态跟踪领域,具体而言,涉及基于卷积循环实体网络的端对端对话状态跟踪方法及***。
背景技术
对话状态跟踪是任务型对话***中的一个重要组成部分,它的目标是时刻维护并更新用户的目标,即特定任务中的各个语义槽的值。例如,在预定餐馆任务中,查询一个餐馆需要三个语义槽:菜系,价格和餐馆位置,那么对话状态跟踪即在多轮对话中时刻根据用户输入更新这三个语义槽的值。
给定一个用户输入文本和对话历史文本,如何表示和更新对话状态是一个由来已久的研究领域,并在最近与深度学习和神经网络相结合来消除人工劳动。目前的基于神经网络的方法主要有卷积神经网络(Convolutional Neural Network,CNN),循环神经网络(Recurrent Neural Network,RNN),长短时记忆单元(Long Short Term Memory,LSTM),记忆网络(Memory Network,MemNN),及神经信念***(Neural Belief Tracker,NBT)。前四种方法并没针对状态追踪这一特殊任务对网络结构进行改进,直接使用到本任务中,缺乏针对性。最后一种方法NBT需要根据语义槽进行预处理,并对每个语义槽的值构建分类器,并不适用于大量可能值的语义槽。另外,这些端对端方法在行业通用的的标准数据集——DSTC2上效果仍然不够理想,最高的性能只达到73.4%的正确率。
发明内容
本发明的目的在于解决目前的方法没有针对状态追踪这一特殊任务对网络结构进行改进,缺乏针对性,不适用于大量可能值的语义槽以及这些端对端方法在行业通用的标准数据集——DSTC2上效果仍然不够理想的问题。
为实现上述目的,本发明提出基于卷积循环实体网络的端对端对话状态跟踪方法,所述方法包括:
步骤1)将对话表示成多个句子矩阵集合D={S1,...St},Si,1≤i≤t为第i个由若干词向量组成的句子矩阵;
步骤2)所述矩阵集合D经过一个可训练的卷积神经网络CNN模块,最大池化后得到固定长度的句子向量;
步骤3)使用动态记忆将所述各个固定长度的句子向量进行编码,并使用动态记忆的最后一个隐层ht表示整个对话;
步骤4)对于每个预先定义的语义槽,建立一层从ht到该语义槽所有可能值的一个全连接的神经网络,得到各个语义槽在各个值上的概率分布;
步骤5)取最大概率所在的值作为该语义槽的预测结果,得到该对话当前的对话状态。
作为上述方法的一种改进,所述步骤1)包括:
步骤1-1)将对话数据按照每轮对话进行切割成t个语句,第i,1≤i≤t个语句中包含若干个词,将每个词用固定长度的词向量表示,则第i,1≤i≤t个语句表示成一个句子矩阵Si,对于每一个句子矩阵Si,所述句子矩阵Si的行数是该语句所包含的词向量的个数,句子矩阵Si的列数是词向量的维度;
步骤1-2)将对话数据表示成多个句子矩阵集合D={S1,...St}。
作为上述方法的一种改进,所述步骤2)包括:
步骤2-1)对于高度为z的一个卷积核Wm,用它以1为滑动步长,在句子矩阵Si中从上至下滑动,每一步计算重合部分的两个矩阵的点积和xi,得到一个长度为N-z+1的向量X:
xi=ReLU(Wm·Si:i+z-1+bm) (1)
X=[x1,x2,...,xN-z+1] (2)
其中,·为点积操作,Si:i+z-1表示句子矩阵的第i行到第i+z-1行,[...]表示元素拼接,ReLU表示规整线性运算,bm为对应卷积核的偏置,N为句子所包含的词的数目;i为卷积核滑动的第i步;m为卷积核的序号;
步骤2-2)对向量X使用最大池化,取其中最大值得到一个元素cm
cm=max(X) (3)
步骤2-3)使用不同的多个卷积核进行卷积,所述卷积核的高度、宽度都为词向量长度,多次执行步骤2-1)和步骤2-2),将每次卷积得到的向量X的最大值cm拼接得到一个句子向量s:
s=[c1,c2,...,ck] (4)
其中,k为卷积核的总数。
作为上述方法的一种改进,所述步骤3)包括:
步骤3-1)将每句话得到的句子向量s输入动态记忆;
步骤3-2)输入第t个句子向量st的动态记忆某个区块j的隐层
Figure BDA0001763234350000031
计算公式如下:
Figure BDA0001763234350000032
Figure BDA0001763234350000033
Figure BDA0001763234350000034
Figure BDA0001763234350000035
其中,
Figure BDA0001763234350000036
为更新门,σ为sigmoid函数,wj为各个区块的可训练key向量,
Figure BDA0001763234350000037
为更新后的候选状态,
Figure BDA0001763234350000038
为任意非线性激活函数,
Figure BDA0001763234350000039
为第j个句子的隐层,U,V,W表示可训练的矩阵参数;T表示矩阵转置;
步骤3-3)将该时刻所有区块的隐层向量
Figure BDA00017632343500000310
进行拼接得到该时刻的隐层ht
Figure BDA00017632343500000311
步骤3-4)取最后一句话的动态记忆隐层ht表示该轮对话。
作为上述方法的一种改进,所述步骤4)包括:
步骤4-1)对于隐层ht每个语义槽的所有可能值包括None和Dontcare两个外部选择,建立一层神经网络;
步骤4-2)使用Softmax进行归一化,得到各个可能值的概率y',公式如下:
y'=Softmax(Rht) (10)
其中,R为从该时刻的动态记忆隐层ht映射到该语义槽的参数矩阵,y′为在该语义槽上所有值的概率估计。
作为上述方法的一种改进,所述步骤5)包括:
在训练时,使用真实概率分布y与预测概率分布y′的交叉熵作为损失函数loss,最小化损失函数来调整所有可训练的参数,包括卷积网络中的卷积核;使用反向传播算法进行参数的调整;
Figure BDA00017632343500000312
Figure BDA00017632343500000313
其中,M为预定义的语义槽的数量,i为第i个语义槽,y′i表示第i个语义槽上所有值的概率估计,yi为第i个语义槽上所有值真实概率分布,Vi表示第i个语义槽包含的值的数量,j表示语义槽中第j个值,
Figure BDA0001763234350000041
分别表示真实概率分布和估计的概率分布中第i个语义槽中的第j个元素所对应的概率;
测试时,所有可训练的参数都从训练好的模型中载入对应值;对于每个语义槽,取概率最大值所对应的选项作为预测结果,得到预测的对话状态。
本发明还提出了基于卷积循环实体网络的端对端对话状态跟踪***,包括存储器、处理器和存储在存储器上的并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现上述方法的步骤。
本发明的优势在于:
1、本发明可自动学习和语义槽相关的文本表示,能够在语义表示上通过卷积神经网络得到与语义槽相关的文本表示;
2、本发明在状态追踪上,使用具有区块的(Block)的循环实体网络来编码语义槽相关的信息,从而进行状态更新,实现比常用的RNN,LSTM等更好的效果;
3、本发明在时间复杂度和空间复杂度上,使用的参数更少,优于现有模型;
4、本发明使用针对对话跟踪任务设计的卷积循环实体网络,提高了对话状态跟踪的性能。
附图说明
图1为本发明的方法的框架图;
图2为本发明的方法的结构的示意图。
具体实施方式
下面结合附图和具体实施例对本发明进行详细的说明。
目前,循环神经网络(Recurrent Entity Network)被提出,在给定故事进行问答任务上,可以有效跟踪问题的答案;与LSTM,MemNN相比,性能具有极大优势。因此,本发明针对对话状态跟踪任务,对模型进行改进,提出卷积循环实体网络(ConvolutionalRecurrent Entity Network,CREN)。该网络***包含3大部分:卷积神经网络、动态记忆、以及语义槽分类器。卷积神经网络负责对每句话进行语义槽相关的表示,动态记忆对整个对话所有句子表示进一步编码并更新,语义槽分类器对预先定义好的每个语义槽的值进行概率估计。该模型可自动学习和语义槽相关的文本表示,所使用的动态记忆可用不同的区块(Block)编码语义槽的值,从而进行状态更新。
本发明的基于卷积循环实体网络的端对端对话状态跟踪方法,输入会话的一个从开始到目前为止的对话文本,使用卷积神经网络进行特征表示,然后使用循环实体网络对句子层级的特征进行状态跟踪,最后使用多个分类器对各个不同的语义槽进行分类,得到各个语义槽各个值的概率分布作为对话状态,输出各个语义槽的值。例如,假设我们定义一个餐馆领域的对话***有两个语义槽:food,location。输入一通对话:{“How can I helpyou?”“find a Chinese restaurant in the south part of town”},经过卷积循环实体网络之后,输出{food:Chinese,location:south}。
整个卷积循环实体网络的结构如图1所示,对于一个对话D={S1,...St},其中t为句子数量,St为一个句子。对于每个句子的每个词,首先表示为词矢量,然后整个句子矩阵经过一个可训练的CNN模块,Max-pooling得到一个固定长度的向量。随后使用一种RNN变体——动态记忆(Dynamic Memory),将输入的各个句子向量进行编码,并使用动态记忆的最后一个隐层ht表示整个对话。最后对于每个语义槽,都建立一层从ht到该语义槽所有可能值的一个全连接的神经网络,得到各个语义槽各个值的概率分布。我们取最大概率所对在的值作为该语义槽的预测结果,即可得到该对话当前的对话状态。
其中,所述动态记忆分为不同的区块,分别计算隐层,最后再拼接起来。
如图2所示,所述动态记忆中的每个区块都有各自的key向量wi。对于某一区块i,对输入的句子向量st,首先和key以及上一个时刻的隐层ht-1一起计算出更新门的值gi以及候选隐层状态
Figure BDA0001763234350000051
然后计算该区块的隐层状态,将所有区块的隐层状态拼接得到完整的ht。图中fθ表示更新公式。
上述技术方案中,所述方法具体包括:
步骤S1)将对话数据按照每轮对话进行切割,表示为从对话开始到当前对话语句集合D和对应的对话状态Slot的形式。对于每一轮对话语句集合D={u1,u2,…,ui}的多个语句,将每个语句的中的每个词用固定长度的词向量表示,那么一个对话则表示成多个句子矩阵集合D={S1,S2,…,Si},每个句子矩阵Si的高度是设定的最大句子长度,所述句子长度就是该句子所包含的词向量的个数,Si的宽度是词向量的维度;
步骤S2)对每个句子矩阵St经过一个卷积神经网络的过程如下:对于高度为z的一个卷积核Wm,用它以1为滑动步长,在整个矩阵中从上至下滑动,每一步计算重合部分的两个矩阵的点积及经过激活的值xi
xi=ReLU(Wm·Si:i+z-1+bm) (1)
最后得到一个长度为N-z+1的向量X,N为句子所包含的词的数目:
X=[x1,x2,...,xN-z+1] (2)
然后使用最大池化,取其中最大值得到一个元素cm
cm=max(X) (3)
使用多个不同高度的卷积核进行卷积,所述卷积核的宽度都为词向量长度,将每次卷积得到的向量X的最大值cm拼接得到一个句子向量s:
s=[c1,c2,...,ck] (4)
其中,·为点积操作,[...]表示元素拼接,ReLU表示规整线性单元(RectifiedLinear Unit),k为卷积核的总数,m为第m个卷积,bm为对应卷积核的偏置;
步骤S3)将每句话得到的句子向量s输入动态记忆,取最后一句话的动态记忆隐层作为该轮对话的表示。
输入第t个句子向量的动态记忆某个区块j的隐层
Figure BDA0001763234350000061
计算公式如下:
Figure BDA0001763234350000062
Figure BDA0001763234350000063
Figure BDA0001763234350000064
Figure BDA0001763234350000065
其中,
Figure BDA0001763234350000066
为更新门,σ为sigmoid函数,wj为各个区块的key向量(可训练);
Figure BDA0001763234350000067
为任意非线性激活函数(这里使用的是ReLU),
Figure BDA0001763234350000068
为更新后的候选状态,
Figure BDA0001763234350000069
为第j个句子的隐层,U,V,W表示可训练的矩阵参数;T表示矩阵转置;
然后将该时刻所有区块的隐层向量
Figure BDA00017632343500000610
进行拼接得到该时刻的隐层ht
Figure BDA00017632343500000611
步骤S4)对于每个语义槽的所有可能值(包括None和Dontcare两个外部选择),建立一层神经网络,然后使用Softmax进行归一化,得到各个可能值的概率,公式如下:
y'=Softmax(Rht) (10)
其中,R为从该时刻的动态记忆隐层映ht射到该语义槽的参数矩阵,y′为在该语义槽上所有值的概率估计。
步骤S5)在训练时,使用真实概率分布y与预测概率分布y′的交叉熵作为损失函数loss,最小化损失函数来调整所有可训练的参数,包括卷积网络中的卷积核:
Figure BDA0001763234350000071
Figure BDA0001763234350000072
其中,M为预定义的语义槽的数量,i为第i个语义槽,y′i表示第i个语义槽上所有值的概率估计,yi为第i个语义槽上所有值真实概率分布,Vi表示第i个语义槽包含的值的数量,j表示语义槽中第j个值,
Figure BDA0001763234350000073
Figure BDA0001763234350000074
分别表示真实概率分布和估计的概率分布中第i个语义槽中的第j个元素所对应的概率。
测试时,所有可训练的参数都从训练好的模型中载入对应值。对于每个语义槽,取概率最大值所对应的选项作为预测结果,得到预测的对话状态。
本发明的回答生成方法不仅可有效控制生成的回答的内容,还提高了回答的质量。
最后所应说明的是,以上实施例仅用以说明本发明的技术方案而非限制。尽管参照实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,对本发明的技术方案进行修改或者等同替换,都不脱离本发明技术方案的精神和范围,其均应涵盖在本发明的权利要求范围当中。

Claims (7)

1.基于卷积循环实体网络的端对端对话状态跟踪方法,所述方法包括:
步骤1)将对话表示成多个句子矩阵集合D={S1,...St},Si,1≤i≤t为第i个由若干词向量组成的句子矩阵;
步骤2)所述矩阵集合D经过一个可训练的卷积神经网络CNN模块,最大池化后得到固定长度的句子向量;
步骤3)使用动态记忆将所述各个固定长度的句子向量进行编码,并使用动态记忆的最后一个隐层ht表示整个对话;
步骤4)对于每个预先定义的语义槽,建立一层从ht到该语义槽所有可能值的一个全连接的神经网络,得到各个语义槽在各个值上的概率分布;
步骤5)取最大概率所在的值作为该语义槽的预测结果,得到该对话当前的对话状态。
2.根据权利要求1所述基于卷积循环实体网络的端对端对话状态跟踪方法,其特征在于,所述步骤1)包括:
步骤1-1)将对话数据按照每轮对话进行切割成t个语句,第i,1≤i≤t个语句中包含若干个词,将每个词用固定长度的词向量表示,则第i,1≤i≤t个语句表示成一个句子矩阵Si,对于每一个句子矩阵Si,所述句子矩阵Si的行数是该语句所包含的词向量的个数,句子矩阵Si的列数是词向量的维度;
步骤1-2)将对话数据表示成多个句子矩阵集合D={S1,...St}。
3.根据权利要求2所述基于卷积循环实体网络的端对端对话状态跟踪方法,其特征在于,所述步骤2)包括:
步骤2-1)对于高度为z的一个卷积核Wm,用它以1为滑动步长,在句子矩阵Si中从上至下滑动,每一步计算重合部分的两个矩阵的点积和xi,得到一个长度为N-z+1的向量X:
xi=ReLU(Wm·Si:i+z-1+bm) (1)
X=[x1,x2,...,xN-z+1] (2)
其中,·为点积操作,Si:i+z-1表示句子矩阵的第i行到第i+z-1行,[...]表示元素拼接,ReLU表示规整线性运算,bm为对应卷积核的偏置,N为句子所包含的词的数目;i为卷积核滑动的第i步;m为卷积核的序号;
步骤2-2)对向量X使用最大池化,取其中最大值得到一个元素cm
cm=ma1x(X) (3)
步骤2-3)使用不同的多个卷积核进行卷积,所述卷积核的高度、宽度都为词向量长度,多次执行步骤2-1)和步骤2-2),将每次卷积得到的向量X的最大值cm拼接得到一个句子向量s:
s=[c1,c2,...,ck] (4)
其中,k为卷积核的总数。
4.根据权利要求3所述基于卷积循环实体网络的端对端对话状态跟踪方法,其特征在于,所述步骤3)包括:
步骤3-1)将每句话得到的句子向量s输入动态记忆;
步骤3-2)输入第t个句子向量st的动态记忆某个区块j的隐层
Figure FDA0001763234340000021
计算公式如下:
Figure FDA0001763234340000022
Figure FDA0001763234340000023
Figure FDA0001763234340000024
Figure FDA0001763234340000025
其中,
Figure FDA0001763234340000026
为更新门,σ为sigmoid函数,wj为各个区块的可训练key向量,
Figure FDA0001763234340000027
为更新后的候选状态,
Figure FDA0001763234340000028
为任意非线性激活函数,
Figure FDA0001763234340000029
为第j个句子的隐层,U,V,W表示可训练的矩阵参数;T表示矩阵转置;
步骤3-3)将该时刻所有区块的隐层向量
Figure FDA00017632343400000210
进行拼接得到该时刻的隐层ht
Figure FDA00017632343400000211
步骤3-4)取最后一句话的动态记忆隐层ht表示该轮对话。
5.根据权利要求4所述基于卷积循环实体网络的端对端对话状态跟踪方法,其特征在于,所述步骤4)包括:
步骤4-1)对于隐层ht每个语义槽的所有可能值包括None和Dontcare两个外部选择,建立一层神经网络;
步骤4-2)使用Softmax进行归一化,得到各个可能值的概率y',公式如下:
y'=Softmax(Rht) (10)
其中,R为从该时刻的动态记忆隐层ht映射到该语义槽的参数矩阵,y′为在该语义槽上所有值的概率估计。
6.根据权利要求5所述基于卷积循环实体网络的端对端对话状态跟踪方法,其特征在于,所述步骤5)包括:
在训练时,使用真实概率分布y与预测概率分布y′的交叉熵作为损失函数loss,最小化损失函数来调整所有可训练的参数,包括卷积网络中的卷积核;使用反向传播算法进行参数的调整;
Figure FDA0001763234340000031
Figure FDA0001763234340000032
其中,M为预定义的语义槽的数量,i为第i个语义槽,y′i表示第i个语义槽上所有值的概率估计,yi为第i个语义槽上所有值真实概率分布,Vi表示第i个语义槽包含的值的数量,j表示语义槽中第j个值,
Figure FDA0001763234340000033
分别表示真实概率分布和估计的概率分布中第i个语义槽中的第j个元素所对应的概率;
测试时,所有可训练的参数都从训练好的模型中载入对应值;对于每个语义槽,取概率最大值所对应的选项作为预测结果,得到预测的对话状态。
7.一种基于卷积循环实体网络的端对端对话状态跟踪***,包括存储器、处理器和存储在存储器上的并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现权利要求1~6之一所述方法的步骤。
CN201810916744.6A 2018-08-13 2018-08-13 基于卷积循环实体网络的端对端对话状态跟踪方法及*** Active CN110866403B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810916744.6A CN110866403B (zh) 2018-08-13 2018-08-13 基于卷积循环实体网络的端对端对话状态跟踪方法及***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810916744.6A CN110866403B (zh) 2018-08-13 2018-08-13 基于卷积循环实体网络的端对端对话状态跟踪方法及***

Publications (2)

Publication Number Publication Date
CN110866403A true CN110866403A (zh) 2020-03-06
CN110866403B CN110866403B (zh) 2021-06-08

Family

ID=69650941

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810916744.6A Active CN110866403B (zh) 2018-08-13 2018-08-13 基于卷积循环实体网络的端对端对话状态跟踪方法及***

Country Status (1)

Country Link
CN (1) CN110866403B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112287197A (zh) * 2020-09-23 2021-01-29 昆明理工大学 动态记忆案件描述的涉案微博评论讽刺句检测方法
CN111462749B (zh) * 2020-03-20 2023-07-21 北京邮电大学 基于对话状态导向和知识库检索的端到端对话***及方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105788593A (zh) * 2016-02-29 2016-07-20 中国科学院声学研究所 生成对话策略的方法及***
CN105845137A (zh) * 2016-03-18 2016-08-10 中国科学院声学研究所 一种语音对话管理***
CN106126596A (zh) * 2016-06-20 2016-11-16 中国科学院自动化研究所 一种基于层次化记忆网络的问答方法
US20180137854A1 (en) * 2016-11-14 2018-05-17 Xerox Corporation Machine reading method for dialog state tracking
CN108282587A (zh) * 2018-01-19 2018-07-13 重庆邮电大学 基于状态跟踪与策略导向下的移动客服对话管理方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105788593A (zh) * 2016-02-29 2016-07-20 中国科学院声学研究所 生成对话策略的方法及***
CN105845137A (zh) * 2016-03-18 2016-08-10 中国科学院声学研究所 一种语音对话管理***
CN106126596A (zh) * 2016-06-20 2016-11-16 中国科学院自动化研究所 一种基于层次化记忆网络的问答方法
US20180137854A1 (en) * 2016-11-14 2018-05-17 Xerox Corporation Machine reading method for dialog state tracking
CN108282587A (zh) * 2018-01-19 2018-07-13 重庆邮电大学 基于状态跟踪与策略导向下的移动客服对话管理方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
TAKASHI USHIO 等: "RECURRENT CONVOLUTIONAL NEURAL NETWORKS FOR STRUCTURED SPEECH ACT TAGGING", 《2016 IEEE SPOKEN LANGUAGE TECHNOLOGY WORKSHOP》 *
任航 等: "口语对话状态追踪的研究", 《网络新媒体技术》 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111462749B (zh) * 2020-03-20 2023-07-21 北京邮电大学 基于对话状态导向和知识库检索的端到端对话***及方法
CN112287197A (zh) * 2020-09-23 2021-01-29 昆明理工大学 动态记忆案件描述的涉案微博评论讽刺句检测方法
CN112287197B (zh) * 2020-09-23 2022-07-19 昆明理工大学 动态记忆案件描述的涉案微博评论讽刺句检测方法

Also Published As

Publication number Publication date
CN110866403B (zh) 2021-06-08

Similar Documents

Publication Publication Date Title
CN111538908B (zh) 搜索排序方法、装置、计算机设备和存储介质
US11487950B2 (en) Autonomous evolution intelligent dialogue method, system, and device based on a game with a physical environment
EP3602413B1 (en) Projection neural networks
CN109783817B (zh) 一种基于深度强化学习的文本语义相似计算模型
KR102483643B1 (ko) 모델을 학습하는 방법 및 장치 및 상기 뉴럴 네트워크를 이용한 인식 방법 및 장치
CN109710915B (zh) 复述语句生成方法及装置
CN112686058B (zh) Bert嵌入语音翻译模型训练方法、***及语音翻译方法和设备
WO2019091020A1 (zh) 权重数据存储方法和基于该方法的神经网络处理器
US11093714B1 (en) Dynamic transfer learning for neural network modeling
US11580406B2 (en) Weight initialization method and apparatus for stable learning of deep learning model using activation function
CN111159419B (zh) 基于图卷积的知识追踪数据处理方法、***和存储介质
CN111737426B (zh) 问答模型的训练方法、计算机设备以及可读存储介质
CN112116090A (zh) 神经网络结构搜索方法、装置、计算机设备及存储介质
CN109902164B (zh) 利用卷积双向自注意网络解决开放长格式视频问答的方法
KR20190041819A (ko) 컨볼루션 신경망의 컨볼루션 연산 장치 및 방법
CN110297885B (zh) 实时事件摘要的生成方法、装置、设备及存储介质
CN113221530B (zh) 一种文本相似度匹配方法、装置、计算机设备和储存介质
CN109508784A (zh) 一种神经网络激活函数的设计方法
CN110866403B (zh) 基于卷积循环实体网络的端对端对话状态跟踪方法及***
CN111382840B (zh) 一种面向自然语言处理的基于循环学习单元的htm设计方法
US20220383119A1 (en) Granular neural network architecture search over low-level primitives
CN112000788A (zh) 一种数据处理方法、装置以及计算机可读存储介质
CN112131261A (zh) 基于社区网络的社区查询方法、装置和计算机设备
CN109086463A (zh) 一种基于区域卷积神经网络的问答社区标签推荐方法
CN116136870A (zh) 基于增强实体表示的智能社交对话方法、对话***

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant