CN111813909A - 一种智能问答方法和装置 - Google Patents
一种智能问答方法和装置 Download PDFInfo
- Publication number
- CN111813909A CN111813909A CN202010586647.2A CN202010586647A CN111813909A CN 111813909 A CN111813909 A CN 111813909A CN 202010586647 A CN202010586647 A CN 202010586647A CN 111813909 A CN111813909 A CN 111813909A
- Authority
- CN
- China
- Prior art keywords
- semantic
- question
- vector
- dialogue
- feature vector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 109
- 239000013598 vector Substances 0.000 claims abstract description 316
- 230000008569 process Effects 0.000 claims abstract description 69
- 230000002776 aggregation Effects 0.000 claims abstract description 57
- 238000004220 aggregation Methods 0.000 claims abstract description 57
- 238000012549 training Methods 0.000 claims description 68
- 238000003062 neural network model Methods 0.000 claims description 22
- 238000004590 computer program Methods 0.000 claims description 9
- 230000004931 aggregating effect Effects 0.000 claims description 8
- 230000003993 interaction Effects 0.000 claims description 4
- 238000010586 diagram Methods 0.000 description 13
- 238000013528 artificial neural network Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 9
- 238000004891 communication Methods 0.000 description 7
- 230000007246 mechanism Effects 0.000 description 7
- 238000012545 processing Methods 0.000 description 7
- 238000004140 cleaning Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000011161 development Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000010485 coping Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000008909 emotion recognition Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Machine Translation (AREA)
Abstract
本发明公开了一种智能问答方法和装置,涉及计算机技术领域。该方法的一具体实施方式包括:根据第一用户与客服的当前对话进程中的对话记录,生成语义特征向量集,所述语义特征向量集包括所述当前对话进程中的对话记录的语义特征向量;对所述语义特征向量集进行语义聚合,以得到表示所述第一用户当前问句的真实意图和语义的第一聚合语义向量;从存储问答信息的知识库中查找与所述第一聚合语义向量匹配的语义向量,并根据查找到的语义向量输出所述当前问句的答案。该实施方式能够有效利用上下文信息进行检索,提高多轮对话场景下信息检索的准确度。
Description
技术领域
本发明涉及计算机技术领域,尤其涉及一种智能问答方法和装置。
背景技术
近年来,智能问答技术得到发展迅速,主要原因是深度学习技术的迅猛发展,及其与自然语言处理技术的深度融合。现有的智能问答***通常基于信息检索或者序列生成,在商业应用中,由于序列生成的不可控性,更多采用的是信息检索的模式。此外,为了实现特定的业务目标,在对话状态控制中通常会采用基于规则的方式,以牺牲对话***的开放性换取对对话进程(状态)的主导。除了深度学习,智能对话***还广泛采用知识图谱技术用于应对事实性问题以及实现简单的逻辑推理。
现有智能对话***的性能瓶颈在于难以充分利用历史对话中的信息,有两种方式可以应对这种局限:一种是采用基于规则的对话状态管理引擎,这种方式依赖于实体识别、关系识别和情感识别等技术,而且对于客户不按套路出牌的情况往往无能为力,随着场景的复杂化,规则会以急剧增多,增加***维护的难度。另一种是基于知识图谱应对,但是专业领域的知识图谱构建成本高,而且,传统知识图谱大部分是基于封闭世界假设的,在实际业务场景中,知识图谱需要实时反应业务领域的变化,封闭世界假设下的推理***根本无法应对业务知识可能的的不完备性以及频繁变动。
在实现本发明过程中,发明人发现现有技术中至少存在如下问题:
无法有效利用上下文信息进行检索,在多轮对话场景下信息检索的准确度不高。
发明内容
有鉴于此,本发明实施例提供一种智能问答方法和装置,能够有效利用上下文信息进行检索,提高多轮对话场景下信息检索的准确度。
为实现上述目的,根据本发明实施例的一个方面,提供了一种智能问答方法。
一种智能问答方法,包括:根据第一用户与客服的当前对话进程中的对话记录,生成语义特征向量集,所述语义特征向量集包括所述当前对话进程中的对话记录的语义特征向量;对所述语义特征向量集进行语义聚合,以得到表示所述第一用户当前问句的真实意图和语义的第一聚合语义向量;从存储问答信息的知识库中查找与所述第一聚合语义向量匹配的语义向量,并根据查找到的语义向量输出所述当前问句的答案。
可选地,所述根据第一用户与客服的当前对话进程中的对话记录,生成语义特征向量集,包括:通过如下的方式一或方式二生成所述语义特征向量集:方式一:通过第一语言模型对所述对话记录中的句子矢量化,以得到所述语义特征向量集;方式二:利用第二语言模型将所述对话记录中的词矢量化,以得到相应的词向量,然后将所述词向量聚合为句向量,以得到所述语义特征向量集。
可选地,所述通过第一语言模型对所述对话记录中的句子矢量化,以得到所述语义特征向量集,包括:将所述对话记录中的句子的数值向量输入XLNet语言模型,通过所述XLNet语言模型对所述数值向量进行编码,并输出所述语义特征向量集,其中,所述数值向量是通过对所述对话记录中的句子数值化为向量得到的。
可选地,所述对所述语义特征向量集进行语义聚合,以得到表示所述第一用户当前问句的真实意图和语义的第一聚合语义向量,包括:采用注意力模型,从所述语义特征向量集的不同语义特征向量中抽取所述当前对话进程中的各对话记录的语义信息,所述各对话记录的语义信息包括所述当前问句的语义信息以及除所述当前问句以外其他句子的语义信息;根据所述各对话记录的语义信息对应的权重系数,对所述各对话记录的语义信息进行加权求和,以聚合得到所述第一聚合语义向量,其中,所述权重系数通过训练所述注意力模型确定。
可选地,所述从存储问答信息的知识库中查找与所述第一聚合语义向量匹配的语义向量,包括:通过张量神经网络模型计算所述第一聚合语义向量与所述知识库中表示问题或答案的语义向量之间的匹配度,查找出所述匹配度最高的所述知识库中的语义向量;或者,通过计算所述第一聚合语义向量与所述知识库中表示问题或答案的语义向量之间的向量相似度,根据所述向量相似度查找与所述第一聚合语义向量匹配的语义向量。
可选地,还包括:获取用户数据集中用户与所述客服的历史对话进程中的对话记录数据;从所述对话记录数据中选出特定回复之前的目标对话记录数据,作为对话记录样本;按照所述对话记录样本中各句子的时序构造训练样本,所述训练样本包括所述用户连续输入的问句、与所述连续输入的问句对应的答案、所述特定回复所对应的问句、所述特定回复的答案。
可选地,还包括:利用所述训练样本构成的训练集训练端到端的多轮对话匹配模型,所述端对端的多轮对话匹配模型包括所述XLNet语言模型、所述注意力模型、所述张量神经网络模型,训练过程包括:采用所述XLNet语言模型,分别生成所述训练样本中的所述用户连续输入的问句、与所述连续输入的问句对应的答案、所述特定回复所对应的问句的第一语义特征向量,以及所述特定回复的答案的第二语义特征向量;将所述第一语义特征向量输入所述注意力模型以进行语义聚合,得到第二聚合语义向量;将所述第二聚合语义向量和所述第二语义特征向量输入所述张量神经网络模型,最终训练得到所述注意力模型的参数和所述张量神经网络模型的参数,所述注意力模型的参数包括所述权重系数。
根据本发明实施例的另一方面,提供了一种智能问答装置。
一种智能问答装置,包括:语义特征向量集生成模块,用于根据第一用户与客服的当前对话进程中的对话记录,生成语义特征向量集,所述语义特征向量集包括所述当前对话进程中的对话记录的语义特征向量;语义聚合模块,用于对所述语义特征向量集进行语义聚合,以得到表示所述第一用户当前问句的真实意图和语义的第一聚合语义向量;答案查找和输出模块,用于从存储问答信息的知识库中查找与所述第一聚合语义向量匹配的语义向量,并根据查找到的语义向量输出所述当前问句的答案。
可选地,所述语义特征向量集生成模块还用于:通过如下的方式一或方式二生成所述语义特征向量集:方式一:通过第一语言模型对所述对话记录中的句子矢量化,以得到所述语义特征向量集;方式二:利用第二语言模型将所述对话记录中的词矢量化,以得到相应的词向量,然后将所述词向量聚合为句向量,以得到所述语义特征向量集。
可选地,所述语义特征向量集生成模块还用于:将所述对话记录中的句子的数值向量输入XLNet语言模型,通过所述XLNet语言模型对所述数值向量进行编码,并输出所述语义特征向量集,其中,所述数值向量是通过对所述对话记录中的句子数值化为向量得到的。
可选地,所述语义聚合模块还用于:采用注意力模型,从所述语义特征向量集的不同语义特征向量中抽取所述当前对话进程中的各对话记录的语义信息,所述各对话记录的语义信息包括所述当前问句的语义信息以及除所述当前问句以外其他句子的语义信息;根据所述各对话记录的语义信息对应的权重系数,对所述各对话记录的语义信息进行加权求和,以聚合得到所述第一聚合语义向量,其中,所述权重系数通过训练所述注意力模型确定。
可选地,所述答案查找和输出模块还用于:通过张量神经网络模型计算所述第一聚合语义向量与所述知识库中表示问题或答案的语义向量之间的匹配度,查找出所述匹配度最高的所述知识库中的语义向量;或者,通过计算所述第一聚合语义向量与所述知识库中表示问题或答案的语义向量之间的向量相似度,根据所述向量相似度查找与所述第一聚合语义向量匹配的语义向量。
可选地,还包括训练样本生成模块,用于:获取用户数据集中用户与所述客服的历史对话进程中的对话记录数据;从所述对话记录数据中选出特定回复之前的目标对话记录数据,作为对话记录样本;按照所述对话记录样本中各句子的时序构造训练样本,所述训练样本包括所述用户连续输入的问句、与所述连续输入的问句对应的答案、所述特定回复所对应的问句、所述特定回复的答案。
可选地,还包括模型训练模块,用于:利用所述训练样本构成的训练集训练端到端的多轮对话匹配模型,所述端对端的多轮对话匹配模型包括所述XLNet语言模型、所述注意力模型、所述张量神经网络模型,训练过程包括:采用所述XLNet语言模型,分别生成所述训练样本中的所述用户连续输入的问句、与所述连续输入的问句对应的答案、所述特定回复所对应的问句的第一语义特征向量,以及所述特定回复的答案的第二语义特征向量;将所述第一语义特征向量输入所述注意力模型以进行语义聚合,得到第二聚合语义向量;将所述第二聚合语义向量和所述第二语义特征向量输入所述张量神经网络模型,最终训练得到所述注意力模型的参数和所述张量神经网络模型的参数,所述注意力模型的参数包括所述权重系数。
根据本发明实施例的又一方面,提供了一种电子设备。
一种电子设备,包括:一个或多个处理器;存储器,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现本发明实施例所提供的智能问答方法。
根据本发明实施例的又一方面,提供了一种计算机可读介质。
一种计算机可读介质,其上存储有计算机程序,所述程序被处理器执行时实现本发明实施例所提供的智能问答方法。
上述发明中的一个实施例具有如下优点或有益效果:根据第一用户与客服的当前对话进程中的对话记录,生成语义特征向量集,对语义特征向量集进行语义聚合,得到表示第一用户当前问句的真实意图和语义的第一聚合语义向量,从存储问答信息的知识库中查找与第一聚合语义向量匹配的语义向量,并根据查找到的语义向量输出当前问句的答案。能够有效利用上下文信息进行检索,使得检索的答案更加符合当前的语境,提高多轮对话场景下信息检索的准确度,并且可以有效处理错别字、无意义的语气词、语法成分省略等现象给答案检索带来的大量干扰。
上述的非惯用的可选方式所具有的进一步效果将在下文中结合具体实施方式加以说明。
附图说明
附图用于更好地理解本发明,不构成对本发明的不当限定。其中:
图1是根据本发明一个实施例的智能问答方法的主要步骤示意图;
图2是根据本发明一个实施例的端到端的多轮对话匹配模型的示意图;
图3是根据本发明一个实施例的智能问答流程示意图;
图4是根据本发明一个实施例的智能问答装置的主要模块示意图;
图5是本发明实施例可以应用于其中的示例性***架构图;
图6是适于用来实现本发明实施例的终端设备或服务器的计算机***的结构示意图。
具体实施方式
以下结合附图对本发明的示范性实施例做出说明,其中包括本发明实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本发明的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
图1是根据本发明一个实施例的智能问答方法的主要步骤示意图。
本发明的一个实施例首先利用语言模型对对话进程中的对话记录进行矢量化,得到对应的语义特征向量,然后利用注意力机制处理这些句子对应的语义特征向量,从中抽取最能反映客户(或称用户)当下语义和意图的语义向量,然后与知识库中的待检索的答案或问题的语义向量进行匹配,找到多轮对话场景下对客户问题最合适的答案。
如图1所示,本发明一个实施例的智能问答方法包括如下的步骤S101至步骤S103。
步骤S101:根据第一用户与客服的当前对话进程中的对话记录,生成语义特征向量集,该语义特征向量集包括当前对话进程中的对话记录的语义特征向量。
步骤S102:对该语义特征向量集进行语义聚合,以得到表示第一用户当前问句的真实意图和语义的第一聚合语义向量。
步骤S103:从存储问答信息的知识库中查找与第一聚合语义向量匹配的语义向量,并根据查找到的语义向量输出当前问句的答案。
其中,对话进程是指用户启动客服问答之后该用户与客服对话的过程。第一用户与客服的当前对话进程即第一用户当前启动的与客服对话的过程,也就是第一用户打开客服之后到当前时间点的这段过程(对于当前对话进程而言,对话进程当前还未结束)。
一条对话记录可以是用户提出的问题或客服回复的答案。
第一用户与客服的当前对话进程中的对话记录包括该当前对话进程中所有的问题或答案(句子)。
在一个实施例中,根据第一用户与客服的当前对话进程中的对话记录,生成语义特征向量集,包括通过如下方式生成语义特征向量集:通过第一语言模型对对话记录中的句子矢量化,以得到语义特征向量集。例如BERT(Bidirectional Encoder Representationfrom Transformers,来自Transformer的双向编码器表示,为一种语言模型或称语言表示模型)、XLNet等语言模型,本发明实施例可以由该模型本身直接输出给定句子的语义特征向量,也就是句子向量。
在另一个实施例中,根据第一用户与客服的当前对话进程中的对话记录,生成语义特征向量集,包括通过如下方式生成语义特征向量集:利用第二语言模型将对话记录中的词矢量化,以得到相应的词向量,然后将词向量聚合为句向量,以得到语义特征向量集。例如ELMo、Glove等语言模型。
在一个实施例中,通过第一语言模型对对话记录中的句子矢量化,以得到语义特征向量集,包括:将对话记录中的句子的数值向量输入XLNet语言模型,通过XLNet语言模型对数值向量进行编码,并输出语义特征向量集,其中,数值向量是通过对对话记录中的句子数值化为向量得到的。
在一个实施例中,对语义特征向量集进行语义聚合,以得到表示第一用户当前问句的真实意图和语义的第一聚合语义向量,包括:采用注意力模型,从语义特征向量集的不同语义特征向量中抽取当前对话进程中的各对话记录的语义信息,各对话记录的语义信息包括当前问句的语义信息以及除当前问句以外其他句子的语义信息;根据各对话记录的语义信息对应的权重系数,对各对话记录的语义信息进行加权求和,以聚合得到第一聚合语义向量,其中,权重系数通过训练注意力模型确定。
本发明实施例的注意力模型可以采用多头注意力模型。基于注意力机制对对话进程中之前的语义信息进行有选择地聚合,对于当前的问句,由于之前的对话记录的语义信息中存在大量的噪声,采用原始的语义信息来辅助当前问句的答案检索的方法通常效果不好,一个可能的原因是大量的噪声淹没了当前检索最重要的语义信息。因此,本发明实施例利用注意力机制评估对话记录中各个句子对当前问句的语义信息的贡献程度(权重系数),然后通过加权求和聚合成最终的语义向量,该语义向量用于表示客户当前真实的意图和语义。
在一个实施例中,从存储问答信息的知识库中查找与第一聚合语义向量匹配的语义向量,包括:通过张量神经网络模型计算第一聚合语义向量与知识库中表示问题或答案的语义向量之间的匹配度,查找出匹配度最高的知识库中的语义向量。
在另一个实施例中,从存储问答信息的知识库中查找与第一聚合语义向量匹配的语义向量,包括:通过计算第一聚合语义向量与知识库中表示问题或答案的语义向量之间的向量相似度,根据向量相似度查找与第一聚合语义向量匹配的语义向量。
问答***知识库中通常会存储客户可能问到的问题及相应的答案,在计算上述匹配度(或向量相似度)时,既可以计算对话进程中的语义信息聚合后的语义向量(即第一聚合语义向量)与知识库中的问题的匹配度,也可以计算第一聚合语义向量与知识库中的答案的匹配度。向量相似度计算具体可以计算内积相似度、余弦相似度等,也可以基于张量神经网络模型,引入张量,在不同语义维度上评估矢量之间的匹配度,具体将在下文详述。
本发明实施例的智能问答方法还可以包括:获取用户数据集中用户与客服的历史对话进程中的对话记录数据;从对话记录数据中选出特定回复之前的目标对话记录数据,作为对话记录样本;按照对话记录样本中各句子的时序构造训练样本,训练样本包括用户连续输入的问句、与连续输入的问句对应的答案、特定回复所对应的问句、特定回复的答案。
本发明一个实施例还可以先对获取的用户数据集中用户与客服的历史对话进程中的对话记录数据进行数据清理,例如清理无意义的回复、合并连续的回复等,然后再选择目标对话记录数据。
利用上述训练样本构成的训练集训练端到端的多轮对话匹配模型,该端对端的多轮对话匹配模型包括XLNet语言模型、注意力模型、张量神经网络模型。
训练过程包括:采用XLNet语言模型,分别生成训练样本中的用户连续输入的问句、与连续输入的问句对应的答案、特定回复所对应的问句的第一语义特征向量,以及特定回复的答案的第二语义特征向量;将第一语义特征向量输入注意力模型以进行语义聚合,得到第二聚合语义向量;将第二聚合语义向量和第二语义特征向量输入张量神经网络模型,最终训练得到注意力模型的参数和张量神经网络模型的参数,注意力模型的参数包括权重系数。
在智能对话***实际应用中,有时需要综合回答客户(或称用户)之前的多个问题,有时要解决客户问题中指代不明确甚至省略代词的情况。因此,要回答客户当前的问题不仅仅应该考虑当前问句的语义,还应该综合之前历史对话的信息***地考察客户的真实语义和意图。按照常规的思路,应该首先进行共指消解,然后分析每个问句的语义,最后检索合适的***给客户。然而,***流水线的延长会增加***的脆弱性,任何一个环节性能波动都会影响最终的服务质量。所以本发明实施例基于最新的语言模型和注意力机制提出一种端到端的多轮对话匹配模型,可以使得智能对话***检索答案时充分利用上下文信息,检索出更加符合当前语境的答案。
本发明一个实施例的端到端的多轮对话匹配模型(简称多轮对话匹配模型)如图2所示,包括XLNet语言模型、多头Attention(Multi-head Attention,多头注意力)模型、NTN模型(Neural Tensor Network,张量神经网络模型),将对话记录(例如第一用户与客服的当前对话进程中的对话记录)输入XLNet语言模型,得到该对话记录的语义特征向量,通过Multi-head Attention模型得到聚合语义向量,将该聚合语义向量和知识库中表示问题或答案的语义向量输入NTN模型计算匹配评分(即匹配度),得到与该聚合语义向量匹配的知识库中的语义向量,进而得出该匹配的知识库中的语义向量对应的答案。
下面结合网络保险产品业务场景的智能问答流程,详细介绍本发明实施例的多轮对话匹配模型。
随着网络保险产品业务的发展,客服***需要应对的客户咨询压力也与日俱增,现有客服***基于的人机协作智能问答***是基于传统的问答句对的方式构建,随着业务的高速发展,逐渐暴露出无法应对多轮对话的弊端。本发明实施例对现有客服***进行改造,使客户***更好地应对多轮对话,提高多轮对话场景下信息检索的准确度。
本发明一个实施例的网络保险产品业务场景的智能问答流程如图3所示,具体包括:
步骤S301:获取用户数据集中用户与客服的历史对话进程中的对话记录数据,并对该历史对话进程中的对话记录数据进行数据清理。
该历史对话进程中的对话记录数据是保存的用户数据集中各用户的智能问答对话记录,即用户数据集已存的用户与客服之间的对话记录,由于积累了大量的客服记录(即对话记录),为多轮对话匹配模型训练提供了客观的训练数据。
数据清理具体可以包括清理无意义的回复,例如“emoji(表情符号)”是没有意义的,数据清理还可以包括合并连续的回复,等等。
步骤S302:根据数据清理后的对话记录数据构建训练样本。
在多轮对话匹配模型的训练阶段,需要大量的历史对话进程中的对话记录数据,与常见的基于一问一答的模式设计的***不同的是,本发明实施例中训练上述模型时需要考虑对话记录的句子时序。考虑到涉及重要业务的智能问答***通常是人机协作的模式,对话时不会是呆板的一问一答模式,而是有可能在用户的多个问句之后,客服对用户的问题进行统一回复,可以用如下序列表示多轮对话时的对话记录:
具体可以按照如下公式构建训练样本:
训练样本中,表示用户在第1轮对话中连续提出m个问题,表示客服在第1轮对话中连续做出n个回复,表示用户在第i轮对话中连续提出h个问题,表示客服在第i轮对话中连续做出k个回复,Qj表示用户在第j轮对话中提出的问题,Aj表示客服在第j轮对话中做出的回复,其中,第j轮对话是第i轮对话的后续对话,1<i<j。用户连续提出问题(包括只提一个问题),然后客户针对用户问题连续做出回答(包括只有一个回答),这样的过程即为一轮对话。
大量训练样本构成训练集。
步骤S303:利用训练集训练多轮对话匹配模型。
采用XLNet语言模型对训练集中的句子进行编码,具体地,在一个句子输入XLNet语言模型之前可以先将其数值化成向量,但是这些数值向量是没有任何语义信息的,在XLNet语言模型内部经过处理后,输出的向量则包含一定的语义信息。本发明实施例的XLNet语言模型主要采用了基于Attention(注意力)的Transformer和自回归机制抽取语义信息,相比于其他语言模型有更好的泛化性,XLNet语言模型采用如下的目标函数:
本发明实施例在训练多轮对话匹配模型时,XLNet语言模型的参数是确定的,不需要进行训练,本发明实施例将多头Attention模型和NTN模型一起进行训练。
多头Attention模型采用Attention机制对特定回复之前的对话记录的语义特征向量(即第一语义特征向量)进行语义聚合,得到聚合后的语义向量(即第二聚合语义向量)。特定回复是指多轮对话匹配模型所关注的那一轮对话的回复,即需要确定答案的回复,在训练样本中,第j轮对话中做出的回复Aj即为特定回复。特定回复之前的对话记录包括训练样本中的用户连续输入的问句(例如Qi,1,...,hi等)、与该连续输入的问句对应的答案(例如Ai,1,...,ki等)、该特定回复所对应的问句Qj。
本发明实施例的多头Attention模型进行多轮Attention数值的计算。每次进行Attention数值的计算时,会从不同句子的不同位置抽取与其重要性相当的语义向量以合成新的语义向量,多次重复该过程,得到最终的聚合后的语义向量。其中,语义向量的重要性与该语义向量的权重系数有关,权重系数越大则重要性越高。权重系数是通过训练得到的。多头的含义,例如将语义特征向量集的512维的向量拆分成8个64维的向量,对每个64维的向量单独处理,以计算Attention数值,每次计算得到的Attention数值即本次合成新的语义向量,经过若干次处理之后,再将得到的各语义向量通过注意力模型中的Concat函数拼接,拼接后得到的向量再利用注意力模型的变换矩阵进行变换,得到注意力模型的输出值,即聚合后的语义向量。其中,该变换矩阵也是通过对注意力模型训练得到的。
采用NTN模型(Neural Tensor Network,张量神经网络模型)计算聚合后的语义向量与知识库中答案之间的匹配度,即计算聚合后的语义向量与知识库中表示答案的语义向量之间的匹配度,选择与聚合后的语义向量最佳匹配的知识库中语义向量作为NTN模型的输出。
NTN模型具体按照如下公式来计算向量之间的匹配度:
该NTN模型引入双线性张量,在不同语义维度下评估两个特征向量(即聚合后的语义向量与知识库中表示答案的语义向量)之间的匹配度。其中,g(e1,e2)表示聚合后的语义向量与知识库中表示答案的语义向量之间的匹配度,e1表示问题,e2表示答案,U、V、W、b是NTN模型的参数,是通过训练得到的。f是一个非线性element-wise(元素智能)函数。
在训练阶段,通过XLNet语言模型得到特定回复的答案Aj的语义特征向量(即第二语义特征向量),将第二聚合语义向量和第二语义特征向量输入NTN模型,以训练得到NTN模型的参数。
步骤S304:将当前用户的对话进程中的对话记录(例如第一用户与客服的当前对话进程中的对话记录)输入训练后的多轮对话匹配模型,以输出与当前用户的对话进程中当前问句对应的答案的语义向量。
本发明实施例的多轮对话匹配模型在预测阶段,客服在第一次回答用户的问题时,本质上还是简单的单句匹配模型,但是随着对话继续进行,后续的答案检索过程开始越来越多的考虑客服与用户交互的语境,检索到的答案相比单句问答***更加符合当下对话的语境。
本发明实施例可以在检索答案的过程中,充分利用对话的上下文消息,使得检索的答案更加符合当前的语境,克服了现有商用智能对话***(或称智能问答***)会遇到客户连续提问的情况,应用不考虑上下文信息的信息检索模型根本无法应对。此外,实际的对话过程中,错别字、无意义的语气词、语法成分省略等现象经常给答案检索带来大量干扰,有时甚至根本无法确定一个用于检索的完整的句子。本发明通过Attention机制有效地处理这些干扰,同时充分利用当前对话的上下文信息来检索答案,提升智能问答***对语境的利用程度,给客户的回复更加人性化、更加智能化。
图4是根据本发明一个实施例的智能问答装置的主要模块示意图。
如图4所示,本发明一个实施例的智能问答装置400主要包括:语义特征向量集生成模块401、语义聚合模块402、答案查找和输出模块403。
语义特征向量集生成模块401,用于根据第一用户与客服的当前对话进程中的对话记录,生成语义特征向量集,语义特征向量集包括当前对话进程中的对话记录的语义特征向量。
语义聚合模块402,用于对语义特征向量集进行语义聚合,以得到表示第一用户当前问句的真实意图和语义的第一聚合语义向量。
答案查找和输出模块403,用于从存储问答信息的知识库中查找与第一聚合语义向量匹配的语义向量,并根据查找到的语义向量输出当前问句的答案。
在一个实施例中,语义特征向量集生成模块401用于通过如下的方式生成语义特征向量集:通过第一语言模型对对话记录中的句子矢量化,以得到语义特征向量集。
在另一个实施例中,语义特征向量集生成模块401用于通过如下的方式生成语义特征向量集:利用第二语言模型将对话记录中的词矢量化,以得到相应的词向量,然后将词向量聚合为句向量,以得到语义特征向量集。
在一个实施例中,语义特征向量集生成模块401用于通过如下的方式生成语义特征向量集:将对话记录中的句子的数值向量输入XLNet语言模型,通过XLNet语言模型对数值向量进行编码,并输出语义特征向量集,其中,数值向量是通过对对话记录中的句子数值化为向量得到的。
在一个实施例中,语义聚合模块402还用于:采用注意力模型,从语义特征向量集的不同语义特征向量中抽取当前对话进程中的各对话记录的语义信息,各对话记录的语义信息包括当前问句的语义信息以及除当前问句以外其他句子的语义信息;根据各对话记录的语义信息对应的权重系数,对各对话记录的语义信息进行加权求和,以聚合得到第一聚合语义向量,其中,权重系数通过训练注意力模型确定。
在一个实施例中,答案查找和输出模块403还用于:通过张量神经网络模型计算第一聚合语义向量与知识库中表示问题或答案的语义向量之间的匹配度,查找出匹配度最高的知识库中的语义向量。
在另一个实施例中,答案查找和输出模块403还用于:通过计算第一聚合语义向量与知识库中表示问题或答案的语义向量之间的向量相似度,根据向量相似度查找与第一聚合语义向量匹配的语义向量。
智能问答装置400还可以包括训练样本生成模块,用于:获取用户数据集中用户与客服的历史对话进程中的对话记录数据;从对话记录数据中选出特定回复之前的目标对话记录数据,作为对话记录样本;按照对话记录样本中各句子的时序构造训练样本,训练样本包括用户连续输入的问句、与连续输入的问句对应的答案、特定回复所对应的问句、特定回复的答案。
智能问答装置400还可以包括模型训练模块,用于:利用训练样本构成的训练集训练端到端的多轮对话匹配模型,端对端的多轮对话匹配模型包括XLNet语言模型、注意力模型、张量神经网络模型,训练过程包括:采用XLNet语言模型,分别生成训练样本中的用户连续输入的问句、与连续输入的问句对应的答案、特定回复所对应的问句的第一语义特征向量,以及特定回复的答案的第二语义特征向量;将第一语义特征向量输入注意力模型以进行语义聚合,得到第二聚合语义向量;将第二聚合语义向量和第二语义特征向量输入张量神经网络模型,最终训练得到注意力模型的参数和张量神经网络模型的参数,注意力模型的参数包括权重系数。
另外,在本发明实施例中智能问答装置的具体实施内容,在上面智能问答方法中已经详细说明了,故在此重复内容不再说明。
图5示出了可以应用本发明实施例的智能问答方法或智能问答装置的示例性***架构500。
如图5所示,***架构500可以包括终端设备501、502、503,网络504和服务器505。网络504用以在终端设备501、502、503和服务器505之间提供通信链路的介质。网络504可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备501、502、503通过网络504与服务器505交互,以接收或发送消息等。终端设备501、502、503上可以安装有各种通讯客户端应用,例如购物类应用、网页浏览器应用、搜索类应用、即时通信工具、邮箱客户端、社交平台软件等(仅为示例)。
终端设备501、502、503可以是具有显示屏并且支持网页浏览的各种电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机和台式计算机等等。
服务器505可以是提供各种服务的服务器,例如对用户利用终端设备501、502、503所浏览的购物类网站提供支持的后台管理服务器(仅为示例)。后台管理服务器可以对接收到的产品信息查询请求等数据进行分析等处理,并将处理结果(例如目标推送信息、产品信息--仅为示例)反馈给终端设备。
需要说明的是,本发明实施例所提供的智能问答方法一般由服务器505执行,相应地,智能问答装置一般设置于服务器505中。
应该理解,图5中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
下面参考图6,其示出了适于用来实现本申请实施例的终端设备或服务器的计算机***600的结构示意图。图6示出的终端设备或服务器仅仅是一个示例,不应对本申请实施例的功能和使用范围带来任何限制。
如图6所示,计算机***600包括中央处理单元(CPU)601,其可以根据存储在只读存储器(ROM)602中的程序或者从存储部分608加载到随机访问存储器(RAM)603中的程序而执行各种适当的动作和处理。在RAM 603中,还存储有***600操作所需的各种程序和数据。CPU 601、ROM 602以及RAM 603通过总线604彼此相连。输入/输出(I/O)接口605也连接至总线604。
以下部件连接至I/O接口605:包括键盘、鼠标等的输入部分606;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分607;包括硬盘等的存储部分608;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分609。通信部分609经由诸如因特网的网络执行通信处理。驱动器610也根据需要连接至I/O接口605。可拆卸介质611,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器610上,以便于从其上读出的计算机程序根据需要被安装入存储部分608。
特别地,根据本发明公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本发明公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分609从网络上被下载和安装,和/或从可拆卸介质611被安装。在该计算机程序被中央处理单元(CPU)601执行时,执行本申请的***中限定的上述功能。
需要说明的是,本发明所示的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的***、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本申请中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行***、装置或者器件使用或者与其结合使用。而在本申请中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行***、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
附图中的流程图和框图,图示了按照本申请各种实施例的***、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,上述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图或流程图中的每个方框、以及框图或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的***来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本发明实施例中所涉及到的模块可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的模块也可以设置在处理器中,例如,可以描述为:一种处理器包括语义特征向量集生成模块、语义聚合模块、答案查找和输出模块。其中,这些模块的名称在某种情况下并不构成对该模块本身的限定,例如,语义特征向量集生成模块还可以被描述为“用于根据第一用户与客服的当前对话进程中的对话记录,生成语义特征向量集的模块”。
作为另一方面,本发明还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的设备中所包含的;也可以是单独存在,而未装配入该设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被一个该设备执行时,使得该设备包括:根据第一用户与客服的当前对话进程中的对话记录,生成语义特征向量集,所述语义特征向量集包括所述当前对话进程中的对话记录的语义特征向量;对所述语义特征向量集进行语义聚合,以得到表示所述第一用户当前问句的真实意图和语义的第一聚合语义向量;从存储问答信息的知识库中查找与所述第一聚合语义向量匹配的语义向量,并根据查找到的语义向量输出所述当前问句的答案。
根据本发明实施例的技术方案,根据第一用户与客服的当前对话进程中的对话记录,生成语义特征向量集,对语义特征向量集进行语义聚合,得到表示第一用户当前问句的真实意图和语义的第一聚合语义向量,从存储问答信息的知识库中查找与第一聚合语义向量匹配的语义向量,并根据查找到的语义向量输出当前问句的答案。能够有效利用上下文信息进行检索,使得检索的答案更加符合当前的语境,提高多轮对话场景下信息检索的准确度,并且可以有效处理错别字、无意义的语气词、语法成分省略等现象给答案检索带来的大量干扰。
上述具体实施方式,并不构成对本发明保护范围的限制。本领域技术人员应该明白的是,取决于设计要求和其他因素,可以发生各种各样的修改、组合、子组合和替代。任何在本发明的精神和原则之内所作的修改、等同替换和改进等,均应包含在本发明保护范围之内。
Claims (10)
1.一种智能问答方法,其特征在于,包括:
根据第一用户与客服的当前对话进程中的对话记录,生成语义特征向量集,所述语义特征向量集包括所述当前对话进程中的对话记录的语义特征向量;
对所述语义特征向量集进行语义聚合,以得到表示所述第一用户当前问句的真实意图和语义的第一聚合语义向量;
从存储问答信息的知识库中查找与所述第一聚合语义向量匹配的语义向量,并根据查找到的语义向量输出所述当前问句的答案。
2.根据权利要求1所述的方法,其特征在于,所述根据第一用户与客服的当前对话进程中的对话记录,生成语义特征向量集,包括:通过如下的方式一或方式二生成所述语义特征向量集:
方式一:通过第一语言模型对所述对话记录中的句子矢量化,以得到所述语义特征向量集;
方式二:利用第二语言模型将所述对话记录中的词矢量化,以得到相应的词向量,然后将所述词向量聚合为句向量,以得到所述语义特征向量集。
3.根据权利要求2所述的方法,其特征在于,所述通过第一语言模型对所述对话记录中的句子矢量化,以得到所述语义特征向量集,包括:
将所述对话记录中的句子的数值向量输入XLNet语言模型,通过所述XLNet语言模型对所述数值向量进行编码,并输出所述语义特征向量集,其中,所述数值向量是通过对所述对话记录中的句子数值化为向量得到的。
4.根据权利要求3所述的方法,其特征在于,所述对所述语义特征向量集进行语义聚合,以得到表示所述第一用户当前问句的真实意图和语义的第一聚合语义向量,包括:
采用注意力模型,从所述语义特征向量集的不同语义特征向量中抽取所述当前对话进程中的各对话记录的语义信息,所述各对话记录的语义信息包括所述当前问句的语义信息以及除所述当前问句以外其他句子的语义信息;
根据所述各对话记录的语义信息对应的权重系数,对所述各对话记录的语义信息进行加权求和,以聚合得到所述第一聚合语义向量,其中,所述权重系数通过训练所述注意力模型确定。
5.根据权利要求4所述的方法,其特征在于,所述从存储问答信息的知识库中查找与所述第一聚合语义向量匹配的语义向量,包括:
通过张量神经网络模型计算所述第一聚合语义向量与所述知识库中表示问题或答案的语义向量之间的匹配度,查找出所述匹配度最高的所述知识库中的语义向量;或者,
通过计算所述第一聚合语义向量与所述知识库中表示问题或答案的语义向量之间的向量相似度,根据所述向量相似度查找与所述第一聚合语义向量匹配的语义向量。
6.根据权利要求5所述的方法,其特征在于,还包括:
获取用户数据集中用户与所述客服的历史对话进程中的对话记录数据;
从所述对话记录数据中选出特定回复之前的目标对话记录数据,作为对话记录样本;
按照所述对话记录样本中各句子的时序构造训练样本,所述训练样本包括所述用户连续输入的问句、与所述连续输入的问句对应的答案、所述特定回复所对应的问句、所述特定回复的答案。
7.根据权利要求6所述的方法,其特征在于,还包括:
利用所述训练样本构成的训练集训练端到端的多轮对话匹配模型,所述端对端的多轮对话匹配模型包括所述XLNet语言模型、所述注意力模型、所述张量神经网络模型,训练过程包括:采用所述XLNet语言模型,分别生成所述训练样本中的所述用户连续输入的问句、与所述连续输入的问句对应的答案、所述特定回复所对应的问句的第一语义特征向量,以及所述特定回复的答案的第二语义特征向量;将所述第一语义特征向量输入所述注意力模型以进行语义聚合,得到第二聚合语义向量;将所述第二聚合语义向量和所述第二语义特征向量输入所述张量神经网络模型,最终训练得到所述注意力模型的参数和所述张量神经网络模型的参数,所述注意力模型的参数包括所述权重系数。
8.一种智能问答装置,其特征在于,包括:
语义特征向量集生成模块,用于根据第一用户与客服的当前对话进程中的对话记录,生成语义特征向量集,所述语义特征向量集包括所述当前对话进程中的对话记录的语义特征向量;
语义聚合模块,用于对所述语义特征向量集进行语义聚合,以得到表示所述第一用户当前问句的真实意图和语义的第一聚合语义向量;
答案查找和输出模块,用于从存储问答信息的知识库中查找与所述第一聚合语义向量匹配的语义向量,并根据查找到的语义向量输出所述当前问句的答案。
9.一种电子设备,其特征在于,包括:
一个或多个处理器;
存储器,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现如权利要求1-7中任一所述的方法。
10.一种计算机可读介质,其上存储有计算机程序,其特征在于,所述程序被处理器执行时实现如权利要求1-7中任一所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010586647.2A CN111813909A (zh) | 2020-06-24 | 2020-06-24 | 一种智能问答方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010586647.2A CN111813909A (zh) | 2020-06-24 | 2020-06-24 | 一种智能问答方法和装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111813909A true CN111813909A (zh) | 2020-10-23 |
Family
ID=72844910
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010586647.2A Pending CN111813909A (zh) | 2020-06-24 | 2020-06-24 | 一种智能问答方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111813909A (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112905772A (zh) * | 2021-02-10 | 2021-06-04 | 网易有道信息技术(北京)有限公司 | 语义相关性分析方法、装置及相关产品 |
CN113422875A (zh) * | 2021-06-22 | 2021-09-21 | 中国银行股份有限公司 | 语音坐席的应答方法、装置、设备及存储介质 |
CN113657118A (zh) * | 2021-08-16 | 2021-11-16 | 北京好欣晴移动医疗科技有限公司 | 基于通话文本的语义分析方法、装置和*** |
CN113761107A (zh) * | 2021-09-18 | 2021-12-07 | 杭州网易智企科技有限公司 | 基于问答***的信息处理方法、介质、装置和计算设备 |
CN114706965A (zh) * | 2022-03-22 | 2022-07-05 | 广州营客信息科技有限公司 | Ai智慧客服*** |
CN115238060A (zh) * | 2022-09-20 | 2022-10-25 | 支付宝(杭州)信息技术有限公司 | 人机交互方法及装置、介质、计算设备 |
CN116992005A (zh) * | 2023-09-25 | 2023-11-03 | 语仓科技(北京)有限公司 | 基于大模型及本地知识库的智能对话方法、***及设备 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180276525A1 (en) * | 2015-12-03 | 2018-09-27 | Huawei Technologies Co., Ltd. | Method and neural network system for human-computer interaction, and user equipment |
CN108874782A (zh) * | 2018-06-29 | 2018-11-23 | 北京寻领科技有限公司 | 一种层次注意力lstm和知识图谱的多轮对话管理方法 |
CN109101537A (zh) * | 2018-06-27 | 2018-12-28 | 北京慧闻科技发展有限公司 | 基于深度学习的多轮对话数据分类方法、装置和电子设备 |
CN109726396A (zh) * | 2018-12-20 | 2019-05-07 | 泰康保险集团股份有限公司 | 问答文本的语义匹配方法、装置、介质及电子设备 |
CN109766421A (zh) * | 2018-12-28 | 2019-05-17 | 上海汇付数据服务有限公司 | 智能问答***以及方法 |
CN110008322A (zh) * | 2019-03-25 | 2019-07-12 | 阿里巴巴集团控股有限公司 | 多轮对话场景下的话术推荐方法和装置 |
CN110287294A (zh) * | 2018-12-27 | 2019-09-27 | 厦门智融合科技有限公司 | 知识产权概念自动解答方法及*** |
CN110413729A (zh) * | 2019-06-25 | 2019-11-05 | 江南大学 | 基于尾句-上下文双重注意力模型的多轮对话生成方法 |
CN110413752A (zh) * | 2019-07-22 | 2019-11-05 | 中国科学院自动化研究所 | 基于对话逻辑的多轮口语理解方法、***、装置 |
-
2020
- 2020-06-24 CN CN202010586647.2A patent/CN111813909A/zh active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180276525A1 (en) * | 2015-12-03 | 2018-09-27 | Huawei Technologies Co., Ltd. | Method and neural network system for human-computer interaction, and user equipment |
CN109101537A (zh) * | 2018-06-27 | 2018-12-28 | 北京慧闻科技发展有限公司 | 基于深度学习的多轮对话数据分类方法、装置和电子设备 |
CN108874782A (zh) * | 2018-06-29 | 2018-11-23 | 北京寻领科技有限公司 | 一种层次注意力lstm和知识图谱的多轮对话管理方法 |
CN109726396A (zh) * | 2018-12-20 | 2019-05-07 | 泰康保险集团股份有限公司 | 问答文本的语义匹配方法、装置、介质及电子设备 |
CN110287294A (zh) * | 2018-12-27 | 2019-09-27 | 厦门智融合科技有限公司 | 知识产权概念自动解答方法及*** |
CN109766421A (zh) * | 2018-12-28 | 2019-05-17 | 上海汇付数据服务有限公司 | 智能问答***以及方法 |
CN110008322A (zh) * | 2019-03-25 | 2019-07-12 | 阿里巴巴集团控股有限公司 | 多轮对话场景下的话术推荐方法和装置 |
CN110413729A (zh) * | 2019-06-25 | 2019-11-05 | 江南大学 | 基于尾句-上下文双重注意力模型的多轮对话生成方法 |
CN110413752A (zh) * | 2019-07-22 | 2019-11-05 | 中国科学院自动化研究所 | 基于对话逻辑的多轮口语理解方法、***、装置 |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112905772A (zh) * | 2021-02-10 | 2021-06-04 | 网易有道信息技术(北京)有限公司 | 语义相关性分析方法、装置及相关产品 |
CN113422875A (zh) * | 2021-06-22 | 2021-09-21 | 中国银行股份有限公司 | 语音坐席的应答方法、装置、设备及存储介质 |
CN113422875B (zh) * | 2021-06-22 | 2022-11-25 | 中国银行股份有限公司 | 语音坐席的应答方法、装置、设备及存储介质 |
CN113657118A (zh) * | 2021-08-16 | 2021-11-16 | 北京好欣晴移动医疗科技有限公司 | 基于通话文本的语义分析方法、装置和*** |
CN113657118B (zh) * | 2021-08-16 | 2024-05-14 | 好心情健康产业集团有限公司 | 基于通话文本的语义分析方法、装置和*** |
CN113761107A (zh) * | 2021-09-18 | 2021-12-07 | 杭州网易智企科技有限公司 | 基于问答***的信息处理方法、介质、装置和计算设备 |
CN113761107B (zh) * | 2021-09-18 | 2024-06-07 | 杭州网易智企科技有限公司 | 基于问答***的信息处理方法、介质、装置和计算设备 |
CN114706965A (zh) * | 2022-03-22 | 2022-07-05 | 广州营客信息科技有限公司 | Ai智慧客服*** |
CN115238060A (zh) * | 2022-09-20 | 2022-10-25 | 支付宝(杭州)信息技术有限公司 | 人机交互方法及装置、介质、计算设备 |
CN115238060B (zh) * | 2022-09-20 | 2022-12-27 | 支付宝(杭州)信息技术有限公司 | 人机交互方法及装置、介质、计算设备 |
CN116992005A (zh) * | 2023-09-25 | 2023-11-03 | 语仓科技(北京)有限公司 | 基于大模型及本地知识库的智能对话方法、***及设备 |
CN116992005B (zh) * | 2023-09-25 | 2023-12-01 | 语仓科技(北京)有限公司 | 基于大模型及本地知识库的智能对话方法、***及设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11651236B2 (en) | Method for question-and-answer service, question-and-answer service system and storage medium | |
CN111090987B (zh) | 用于输出信息的方法和装置 | |
CN111813909A (zh) | 一种智能问答方法和装置 | |
CN111444340B (zh) | 文本分类方法、装置、设备及存储介质 | |
US8738558B2 (en) | Method and computer program product for providing a response to a statement of a user | |
CN106383875B (zh) | 基于人工智能的人机交互方法和装置 | |
CN112214591B (zh) | 一种对话预测的方法及装置 | |
CN111241237A (zh) | 一种基于运维业务的智能问答数据处理方法及装置 | |
US20230394247A1 (en) | Human-machine collaborative conversation interaction system and method | |
CN111930914A (zh) | 问题生成方法和装置、电子设备以及计算机可读存储介质 | |
US20220156823A1 (en) | System and method for product searching based on natural language processing | |
CN107832300A (zh) | 面向微创医疗领域文本摘要生成方法及装置 | |
CN116467417A (zh) | 问题答案的生成方法、装置、设备及存储介质 | |
CN117520523B (zh) | 数据处理方法、装置、设备及存储介质 | |
Aattouri et al. | Modeling of an artificial intelligence based enterprise callbot with natural language processing and machine learning algorithms | |
CN111949777A (zh) | 一种基于人群分类的智能语音对话方法、装置及电子设备 | |
CN116561284A (zh) | 智能应答方法、装置、电子设备及介质 | |
CN116958738A (zh) | 图片识别模型的训练方法和装置、存储介质及电子设备 | |
CN116881730A (zh) | 基于语境的聊天场景匹配***、方法、设备及存储介质 | |
CN117150028A (zh) | 一种解题方法、装置、设备及存储介质 | |
CN114138954A (zh) | 用户咨询问题推荐方法、***、计算机设备及存储介质 | |
US11984113B2 (en) | Method and server for training a neural network to generate a textual output sequence | |
CN113421551B (zh) | 语音识别方法、装置、计算机可读介质及电子设备 | |
CN113343668B (zh) | 选择题解题方法、装置、电子设备及可读存储介质 | |
CN117972198A (zh) | 课程推荐方法、装置、电子设备和介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20201023 |