CN115617974B - 一种对话处理方法、装置、设备及存储介质 - Google Patents

一种对话处理方法、装置、设备及存储介质 Download PDF

Info

Publication number
CN115617974B
CN115617974B CN202211599377.4A CN202211599377A CN115617974B CN 115617974 B CN115617974 B CN 115617974B CN 202211599377 A CN202211599377 A CN 202211599377A CN 115617974 B CN115617974 B CN 115617974B
Authority
CN
China
Prior art keywords
question
answer
text
question text
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202211599377.4A
Other languages
English (en)
Other versions
CN115617974A (zh
Inventor
李宏广
刘剑锋
王宝元
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Hongmian Xiaoice Technology Co Ltd
Original Assignee
Beijing Hongmian Xiaoice Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Hongmian Xiaoice Technology Co Ltd filed Critical Beijing Hongmian Xiaoice Technology Co Ltd
Priority to CN202211599377.4A priority Critical patent/CN115617974B/zh
Publication of CN115617974A publication Critical patent/CN115617974A/zh
Application granted granted Critical
Publication of CN115617974B publication Critical patent/CN115617974B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/268Morphological analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • G06F40/35Discourse or dialogue representation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Human Computer Interaction (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Machine Translation (AREA)

Abstract

本发明提供一种对话处理方法、装置、设备及存储介质,可以获得待处理的问题文本;确定与问题文本对应的目标完整问题文本;确定与目标完整问题文本相匹配的目标候选答案;基于目标完整问题文本和目标候选答案,生成与问题文本对应的自然回复答案;输出与问题文本对应的自然回复答案。本发明通过确定与问题文本对应的目标完整问题文本,可以有效提高问题内容表达的准确度,进而可以提高答案匹配的准确度;本发明可以在获得目标完整问题文本和目标候选答案后,基于目标完整问题文本和目标候选答案,将目标候选答案改写为自然回复答案并进行输出,增强对话服务的可靠性,提升用户体验。

Description

一种对话处理方法、装置、设备及存储介质
技术领域
本发明涉及人工智能技术领域,尤其涉及一种对话处理方法、装置、设备及存储介质。
背景技术
随着人工智能技术的发展,智能对话服务的应用场景不断扩大。
当前,智能对话服务具备与用户的对话能力,可以为用户提供智能问答服务,解答用户提出的问题。具体的,智能对话服务可以获得用户输入的想要咨询的问题,根据用户输入的问题来确定并输出相应的答案,为用户解答问题。
但是,智能对话服务的可靠性较差,可能导致用户体验较差。
发明内容
本发明提供一种对话处理方法、装置、设备及存储介质,用以解决现有技术中智能对话服务的对话能力的可靠性较差,可能导致用户体验较差的缺陷,增强对话服务的可靠性,提升用户体验。
本发明提供一种对话处理方法,包括:
获得待处理的问题文本;
确定与所述问题文本对应的目标完整问题文本;
确定与所述目标完整问题文本相匹配的目标候选答案;
基于所述目标完整问题文本和所述目标候选答案,生成与所述问题文本对应的自然回复答案;
输出与所述问题文本对应的自然回复答案。
可选的,所述确定与所述问题文本对应的目标完整问题文本,包括:
确定所述问题文本是否为完整问题文本,以获得所述问题文本是否为完整问题文本的确定结果;
基于所述确定结果,确定所述目标完整问题文本。
可选的,所述确定所述问题文本是否为完整问题文本,以获得所述问题文本是否为完整问题文本的确定结果,包括:
将所述问题文本输入至训练好的问题分类模型,获得所述问题分类模型基于所述问题文本输出的所述确定结果;
其中,所述问题分类模型是通过利用标注类别标识的第一问题文本,对预训练语言模型进行训练而获得的模型。
可选的,所述基于所述确定结果,确定所述目标完整问题文本,包括:
在确定所述问题文本不是完整问题文本的情况下,获得与所述问题文本对应的上下文对话文本;
将所述问题文本和所述上下文对话文本输入至训练好的问题改写模型,获得所述问题改写模型基于所述问题文本和所述上下文对话文本输出的所述目标完整问题文本;
其中,所述问题改写模型是通过利用训练数据对预训练语言模型进行训练而获得的模型,所述训练数据包括相对应的第一问题文本、第一上下文对话文本和完整问题文本。
可选的,所述基于所述确定结果,确定所述目标完整问题文本,包括:
在确定所述问题文本为完整问题文本的情况下,将所述问题文本确定为所述目标完整问题文本。
可选的,所述基于所述目标完整问题文本和所述目标候选答案,生成与所述问题文本对应的自然回复答案,包括:
将所述目标完整问题文本和所述目标候选答案输入至自然回复改写模型,获得所述自然回复改写模型输出的所述自然回复答案;
其中,所述自然回复改写模型是通过利用训练数据对预训练语言模型进行训练而获得的模型,所述训练数据包括相对应的完整问题文本、答案文本和自然回复文本。
可选的,所述确定与所述目标完整问题文本相匹配的目标候选答案,包括:
确定出与所述目标完整问题文本对应的候选答案;
将所述目标完整问题文本和所述候选答案输入至答案决策模型,获得所述答案决策模型输出的置信度满足预设要求的所述候选答案;
将置信度满足预设要求的所述候选答案确定为所述目标候选答案;
其中,所述答案决策模型包括置信度评价层、答案排序层和答案输出层;所述置信度评价层用于确定所述候选答案匹配所述目标完整问题文本的置信度,所述置信度评价层是通过利用训练数据对预训练模型进行训练而获得的模型,所述训练数据包括完整问题文本和标注有置信度的答案文本;所述答案排序层用于按照所述候选答案匹配所述目标完整问题文本的置信度,对所述候选答案进行排序;所述答案输出层用于确定并输出置信度满足预设要求的所述候选答案。
本发明还提供一种对话处理装置,包括:第一获得单元、第一确定单元、第二确定单元、生成单元和输出单元;其中:
所述第一获得单元,用于获得待处理的问题文本;
所述第一确定单元,用于确定与所述问题文本对应的目标完整问题文本;
所述第二确定单元,用于确定与所述目标完整问题文本相匹配的目标候选答案;
所述生成单元,用于基于所述目标完整问题文本和所述目标候选答案,生成与所述问题文本对应的自然回复答案;
所述输出单元,用于输出与所述问题文本对应的自然回复答案。
本发明还提供一种电子设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述程序时实现上述对话处理方法。
本发明还提供一种非暂态计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述对话处理方法。
本发明提供的对话处理方法、装置、设备及存储介质,可以获得待处理的问题文本;确定与问题文本对应的目标完整问题文本;确定与目标完整问题文本相匹配的目标候选答案;基于目标完整问题文本和目标候选答案,生成与问题文本对应的自然回复答案;输出与问题文本对应的自然回复答案。本发明通过确定与问题文本对应的目标完整问题文本,可以有效提高问题内容表达的准确度,进而可以提高答案匹配的准确度,增强对话能力的可靠性,提升用户体验,促进用户进行多轮对话,增强用户粘性;且,本发明可以在获得目标完整问题文本和目标候选答案后,基于目标完整问题文本和目标候选答案,将目标候选答案改写为在用语和语句结构上,更接近人类语气习惯、礼貌客气、具有服务态度或使用敬语等可以提升用户体验的自然回复答案并进行输出,使得输出的答案回复内容可以更加接近人类语气习惯,增强对话能力的可靠性,提升用户体验,促进用户进行多轮对话,增强用户粘性。
附图说明
为了更清楚地说明本发明或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例提供的对话处理方法的流程示意图之一;
图2是本发明实施例提供的对话处理方法的流程示意图之二;
图3是本发明实施例提供的对话处理方法的流程示意图之三;
图4是本发明实施例提供的对话处理装置的结构示意图;
图5是本发明实施例提供的电子设备的结构示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合本发明中的附图,对本发明中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
下面结合图1-图3描述本发明的对话处理方法。
如图1所示,本发明提出第一种对话处理方法,该方法可以包括以下步骤:
S101、获得待处理的问题文本;
其中,问题文本可以为用户想要获取答案的某个问题的文本内容。
可选的,本发明可以获得由用户直接输入的问题文本。
可选的,本发明可以获得用户通过非文本方式输入的问题信息,之后通过相应处理来从问题信息中提取出问题文本。比如,本发明可以获得用户通过语音输入的问题信息,之后通过语音识别来从问题信息中提取出问题文本;再比如,本发明可以获得用户通过图片输入的问题信息,之后通过图文识别技术从问题信息中提取出问题文本。
在实际应用中,用户在对话服务中输入一个想要获取答案的某个问题时,通常存在有两种情况,其中一种是,用户进行一次问题信息输入即输入完整问题,比如直接输入“明星xxx的最新发布歌曲名称是什么”;另一种情况是,用户通过多次问题信息输入来输入完整问题,每次进行的问题信息输入仅包含完整问题中的部分问题信息,比如,用户通过两次问题信息输入来输入完整问题“某个明星最近发布的歌曲名称”,第一次问题信息输入的是明星的名字,第二次问题信息输入的是“最近发布歌曲是什么”。
具体的,问题文本可以为用户为输入一个完整问题而进行的一次或多次问题信息输入中,某一次输入的问题信息中包含的文本内容。
可以理解的是,当用户进行一次问题信息输入即输入完整问题时,问题文本即属于完整问题;当用户通过多次问题信息输入来输入完整问题时,问题文本仅包含完整问题中的部分问题信息,此时问题文本即属于非完整问题。
可选的,当用户在一次问题信息输入中包括多个问题信息时,本发明可以从中提取出任意一个问题信息作为问题文本。
具体的,本发明可以对用户在一次问题信息输入中输入的问题信息进行词性标注和词性分析,划分出各问题信息,确定该次问题信息输入中输入的问题信息是否包含多个问题信息,如果是,则可以从中提取出任意一个问题信息作为问题文本;如果不是,则可以将该次问题信息输入中输入的问题信息作为问题文本。
可选的,问题文本也可以是由机器或电子设备输入的。比如,本发明可以在与机器人进行对话,为机器人提供智能对话服务时,获得由机器人输入的问题;再比如,当本发明应用于第一设备时,本发明可以获得与第一设备不同的第二设备所输入的问题文本。
S102、确定与问题文本对应的目标完整问题文本;
需要说明的是,完整问题文本可以包含一个完整问题的全部文本内容,非完整问 题文本仅包含一个完整问题中的部分文本内容。比如,完整问题文本可以为“某明星的最新 发布歌曲是什么”,非完整问题文本可以包括“明星的名字”和“他的最新发布歌曲是什 么”。
其中,目标完整问题文本即为问题文本对应的完整问题文本。
可选的,本发明可以按照用户在实际对话场景中常提出的问题,预先准备和设置多个完整问题文本,并存储在问题文本库中;此时,本发明可以在获得问题文本后,从问题文本框中查找与问题文本相匹配的完整问题文本,将查找到的完整问题文本确定为目标完整问题文本。
可选的,本发明可以在获得问题文本后,先行确定问题文本是否属于完整问题文本,之后再基于确定结果来确定问题文本对应的目标完整问题文本。
需要说明的是,本发明可以先行采集多个完整问题文本和多个非完整问题文本,分别对多个完整问题文本和多个非完整问题文本进行词性分析和词性标注,归纳完整问题文本的词性分布特征和非完整问题文本的词性分布特征,对完整问题文本的词性分布特征和非完整问题文本的词性分布特征进行分析比较,确定完整问题文本的词性分布特征和非完整问题文本的词性分布特征的区别特征。
可选的,本发明可以在获得问题文本后,对问题文本进行词性分析和词性标注,获得问题文本的词性分布特征,通过确定问题文本的词性分布特征是否包含非完整问题文本的词性分布特征,来确定问题文本是否属于完整问题文本;
可选的,本发明可以在获得问题文本的词性分布特征后,通过确定问题文本的词性分布特征是否包含完整问题文本的词性分布特征,来确定问题文本是否属于非完整问题文本;
可选的,如果完整问题文本的词性分布特征中包含有非完整问题文本的词性分布特征,则本发明可以仅利用完整问题文本的词性分布特征来确定问题文本是否属于完整问题文本。
可选的,本发明可以在获得问题文本的词性分布特征后,根据完整问题文本的词性分布特征、非完整问题文本的词性分布特征、上述区别特征和问题文本的词性分布特征,来确定问题文本是否为完整问题文本。
具体的,本发明如果确定问题文本为完整问题文本,则可以直接将问题文本确定为目标完整问题文本;
具体的,本发明如果确定问题文本不是完整问题文本,则可以确定问题文本的词性分布特征相对于完整问题文本所缺乏的词性特征,进而确定问题文本相对于完整问题文本所缺乏的信息;之后,本发明可以获得问题文本对应的上下文对话文本,从上下文对话文本中提取出问题文本相较于完整问题文本所缺乏的信息,将该信息补全到问题文本中,以获得目标完整问题文本。
在实际应用中,本发明在获得用户输入的问题文本后,可以先行在上述问题文本库中尝试查找与问题文本相匹配的完整问题文本,如果查找到,则可以直接将查找到的完整问题文本确定为目标完整问题文本;如果未查找到,则可以确定问题文本自身是否为完整问题文本,如果是,则可以直接将问题文本确定为目标完整问题文本,如果不是,则可以基于问题文本和相应的上下文对话文本来获得目标完整问题文本。
当然,本发明在获得用户输入的问题文本后,也可以先行确定问题文本自身是否为完整问题文本,如果是,则可以直接将问题文本确定为目标完整问题文本;如果不是,则可以在上述问题文本库中尝试查找与问题文本相匹配的完整问题文本,如果查找到,则可以直接将查找到的完整问题文本确定为目标完整问题文本;如果未查找到,则可以基于问题文本和相应的上下文对话文本来获得目标完整问题文本。
需要说明的是,本发明生成的与问题文本对应的目标完整问题文本,可以有效提高问题内容表达的准确度,进而可以提高答案匹配的准确度,增强对话能力的可靠性,增强用户体验和用户粘性。
S103、确定与目标完整问题文本相匹配的目标候选答案;
其中,目标候选答案即为与目标完整问题文本相匹配的答案。
具体的,本发明可以在确定目标完整问题文本后,确定出与目标完整问题文本相匹配的目标候选答案。
具体的,本发明可以利用问答匹配方式,来确定与目标完整问题文本相匹配的目 标候选答案。比如,当目标完整问题为“明星xxx的最新发布歌曲名称是什么”,目标候选 答案可以为相应歌曲的名称。
可选的,本发明可以利用基于知识图谱的问答子***,来确定与目标完整问题文本相匹配的目标候选答案;具体的,本发明可以将目标完整问题文本输入到该问答子***中,获得由该问答子***基于目标完整问题文本输出的答案,将该答案确定为目标候选答案;
可选的,本发明可以利用基于段落检索-机器阅读理解的问答子***,来确定与目标完整问题文本相匹配的目标候选答案;具体的,本发明可以将目标完整问题文本输入到该问答子***中,获得由该问答子***基于目标完整问题文本输出的答案,将该答案确定为目标候选答案;
可选的,本发明可以利用基于问答对匹配的问答子***,来确定与目标完整问题文本相匹配的目标候选答案;具体的,本发明可以将目标完整问题文本输入到该问答子***中,获得由该问答子***基于目标完整问题文本输出的答案,将该答案确定为目标候选答案;
可选的,本发明可以利用上述三种问答子***中的至少一个问答子***,来确定与目标完整问题文本相匹配的至少一个答案,之后从各答案中确定出与目标完整问题文本匹配度最高的答案,将匹配度最高的答案确定为目标候选答案;比如,本发明可以同时利用上述三种问答子***,来确定与目标完整问题文本相匹配的多个答案,之后从该多个答案中确定出与目标完整问题文本匹配度最高的答案,将匹配度最高的答案确定为目标候选答案。
具体的,本发明可以由人工从各答案中确定出与目标完整问题文本匹配度最高的答案;
具体的,本发明可以按照预定义的匹配度计算方式,分别计算各答案与目标完整问题文本的匹配度,之后确定出匹配度最高的答案,将匹配度最高的答案确定为目标候选答案;
具体的,本发明也可以通过利用人工智能模型,从多个答案中确定出与完整问题文本确定出与目标完整问题文本匹配度最高的答案。
S104、基于目标完整问题文本和目标候选答案,生成与问题文本对应的自然回复答案;
需要说明的是,现有的对话服务可以基于用户的问题回复相应的答案。但是,现有 的对话服务在回复答案时,常常会仅回复答案内容,存在回复简单生硬、一问一答,可能导 致用户体验差。比如,当用户输入问题“明星xxx今年多大了”时,现有的对话服务可能会 直接回复“20岁”;再比如,当用户输入问题“明星xxx今年有发布新歌吗”,现有的对话服 务可能会直接回复“没有”。具体的,本发明可以在确定目标候选答案后,对目标候选答案进 行适当改写,将其改写为在用语和语句结构上,接近人类语气习惯、礼貌客气、具有服务态 度或使用敬语等可以提升用户体验的回复语句。
其中,自然回复答案可以为在用语和语句结构上,接近人类语气习惯、礼貌客气、 具有服务态度或使用敬语等可以提升用户体验的回复答案。比如,当用户输入问题“明星 xxx今年多大了”时,本发明可以对上述答案“20岁”进行自然回复改写,生成自然回复答 案“他20岁了呢”;再比如,当用户输入问题“明星xxx今年有发布新歌吗”,本发明可以对 上述答案“没有”进行自然回复改写,生成自然回复答案“他今年还没有发布新歌”。
具体的,本发明可以预先由工作人员按照自然回复改写要求,生成自然回复文本模板。自然回复改写要求即为可以在用语和语句结构上接近人类语气习惯、礼貌客气、具有服务态度或使用敬语等可以提升用户体验。本发明可以在获得目标完整问题文本和目标候选答案后,在目标候选答案的基础上,按照自然回复文本模板的要求,从目标完整问题文本中提取出所需信息,并将目标候选答案和所需信息组合为自然回复语句,生成自然回复答案。
具体的,本发明可以训练出具有自然回复能力的语言模型,将目标完整问题文本和目标候选答案输入到该语言模型中,由该语言模型基于目标完整问题文本和目标候选答案进行答案改写以生成自然回复语句,获得该语言模型输出的该自然回复语句,将该自然回复语句作为自然回复答案。
需要说明的是,本发明可以在获得目标完整问题文本和目标候选答案后,基于目标完整问题文本和目标候选答案,将目标候选答案改写为自然回复答案,使得输出的回复内容可以更加接近人类语气习惯,增强对话能力的可靠性,增强用户体验,促进用户进行多轮对话,增强用户粘性。
S105、输出与问题文本对应的自然回复答案。
具体的,本发明可以在获得自然回复答案后,输出自然回复答案,以解答用户通过问题文本提出的问题。
可选的,本发明可以通过文本、语音或图片等方式输出自然回复答案。比如,本发明可以直接以文本的形式输出自然回复答案,向用户提供答案;再比如,本发明可以先行将自然回复答案转换为相应的语音数据,之后再输出该语音数据。
需要说明的是,本发明通过上述步骤S101、S102、S103、S104和S105,可以获得问题文本,确定与问题文本对应的目标完整问题文本,有效提高问题内容表达的准确度,进而可以提高答案匹配的准确度,增强对话能力的可靠性,提升用户体验,促进用户进行多轮对话,增强用户粘性;且,本发明可以在获得目标完整问题文本和目标候选答案后,基于目标完整问题文本和目标候选答案,将目标候选答案改写为自然回复答案并进行输出,使得输出的答案回复内容可以更加接近人类语气习惯,增强对话能力的可靠性,提升用户体验,促进用户进行多轮对话,增强用户粘性。
本发明提出的对话处理方法,可以获得待处理的问题文本;确定与问题文本对应的目标完整问题文本;确定与目标完整问题文本相匹配的目标候选答案;基于目标完整问题文本和目标候选答案,生成与问题文本对应的自然回复答案;输出与问题文本对应的自然回复答案。本发明通过确定与问题文本对应的目标完整问题文本,可以有效提高问题内容表达的准确度,进而可以提高答案匹配的准确度,增强对话能力的可靠性,提升用户体验;且,本发明可以在获得目标完整问题文本和目标候选答案后,基于目标完整问题文本和目标候选答案,将目标候选答案改写为在用语和语句结构上,更接近人类语气习惯、礼貌客气、具有服务态度或使用敬语等可以提升用户体验的自然回复答案并进行输出,使得输出的答案回复内容可以更加接近人类语气习惯,增强对话能力的可靠性,提升用户体验,促进用户进行多轮对话,增强用户粘性。
基于图1,如图2所示,本发明提出第二种对话处理方法。在该方法中,步骤S102可以包括:
S1021、确定问题文本是否为完整问题文本,以获得问题文本是否为完整问题文本的确定结果;
具体的,本发明可以在获得问题文本后,确定问题文本是否为完整问题文本,获得相应的确定结果。
可选的,在本发明提出的其他对话处理方法中,步骤S1021可以包括:
将问题文本输入至训练好的问题分类模型;
获得问题分类模型基于问题文本输出的确定结果;
其中,问题分类模型是通过利用标注类别标识的第一问题文本,对预训练语言模型进行训练而获得的模型。
其中,问题分类模型为具备确定问题文本是否为完整问题文本的能力的自然语言模型。
其中,预训练语言模型可以为预训练的自然语言模型,
需要说明的是,本发明可以采集多个完整问题文本和多个非完整问题文本,将标注有类别标识的完整问题文本作为正样本,将标注有类别标识的非完整问题文本作为负样本,使用正样本和负样本对预训练语言模型进行训练,直至满足一定的模型性能要求,获得训练好的问题分类模型。
具体的,本发明可以将问题文本输入到问题分类模型中,获得问题分类模型输出的问题文本为完整问题文本或非完整问题文本的确定结果。
其中,确定结果可以包括两种情况,一种情况为问题文本是完整问题文本,另一种情况为问题文本不是完整问题文本。
S1022、基于确定结果,确定目标完整问题文本。
具体的,本发明可以在获得问题文本是否为完整问题文本的确定结果后,基于该确定结果,来确定出与问题文本对应的目标完整问题文本。
可选的,在本发明提出的其他对话处理方法中,步骤S1022可以包括:
在确定问题文本为完整问题文本的情况下,将问题文本确定为目标完整问题文本。
具体的,当确定结果为问题文本是完整问题文本时,本发明可以直接将问题文本确定为目标完整问题文本。
需要说明的是,本发明在确定问题文本是完整问题文本时,可以直接将问题文本确定为目标完整问题文本,无需对问题文本进行后续改写处理过程,可以在保障生成完整问题文本,保障问题内容表达准确度的情况下,有效避免对处理资源的无谓消耗,提高资源利用率。
可选的,在本发明提出的其他对话处理方法中,步骤S1022可以包括:
在确定问题文本不是完整问题文本的情况下,获得与问题文本对应的上下文对话文本;
将问题文本和上下文对话文本输入至训练好的问题改写模型;
获得问题改写模型基于问题文本和上下文对话文本输出的目标完整问题文本;
其中,问题改写模型是通过利用训练数据对预训练语言模型进行训练而获得的模型,训练数据包括相对应的第一问题文本、第一上下文对话文本和完整问题文本。
需要说明的是,当问题文本不是完整问题文本时,说明用户是通过多次问题信息输入来输入完整问题的。此时,问题文本中仅包括其中一次问题信息输入的、完整问题中的部分问题信息,本发明可以从用户在输入该完整问题时输入的其他问题信息中提取出完整问题的剩余问题信息。具体的,本发明可以先行获得问题文本在本次对话服务的当前所有对话文本中的上下文对话文本,从上下文对话文本中提取出完整问题的剩余问题信息,并基于问题文本和该剩余问题信息生成相应的完整对话文本。其中,本次对话服务的当前所有对话文本,可以包括对话服务方(如问答机器人)向输入问题文本的特定用户提供的本次对话服务中,双方当前的所有对话文本。
具体的,上下文对话文本可以包括在本次对话服务的当前所有对话文本中,问题文本之前的N轮对话文本即上文对话文本,以及问题文本之后的M轮对话文本即下文对话文本。
可选的,N和M可以同时为正整数,比如,N可以为4,M可以为2;此时,本发明可以同时利用问题文本的上文对话文本和下文对话文本来生成目标完整对话文本。
可选的,N和M中的一个可以为0,另一个为正整数。当N为正整数,M为0时,本发明可以仅利用问题文本的上文对话文本来生成目标完整对话文本;当N为0,M为正整数时,本发明可以仅利用问题文本的下文对话文本来生成目标完整对话文本。
其中,问题改写模型可以是用于将问题文本改写为相应的完整问题文本即目标完整问题文本的自然语言模型。
具体的,问题改写模型可以基于问题文本及相应的上下文对话文本,将问题文本改写为相应的完整问题文本。
需要说明的是,本发明可以先行采集多个训练样本,通过利用训练样本对预训练的自然语言模型进行训练,来获得问题改写模型。具体的,每个训练样本中均可以包括相对应的问题文本、上下文对话文本和完整问题文本。
其中,第一问题文本即包括各训练样本中的问题文本,第一上下文对话文本即包括各训练样本中的上下文对话文本,完整问题文本即包括各训练样本中的完整问题文本。
具体的,在利用训练样本对自然语言模型进行训练过程中,可以使得自然语言模型学习基于问题文本和上下文对话文本,对问题文本进行问题改写的能力,以使得自然语言模型具备基于问题文本和上下文对话文本,将问题文本改写成相应的完整问题文本的能力。当自然语言模型的问题改写能力满足模型性能要求时,本发明可以将当前的自然语言模型确定为训练好的问题改写模型,并将训练好的问题改写模型应用到对用户的对话服务场景中。
需要说明的是,本发明利用训练好的问题改写模型来生成问题文本对应的完整问题文本,可以有效具备完整问题文本的生成能力,有效保障问题内容表达的准确度,进而可以提高答案匹配的准确度,增强对话能力的可靠性,提升用户体验,促进用户进行多轮对话,增强用户粘性。
还需要说明的是,本发明通过步骤S1021和S1022,可以有效具备完整问题文本的生成能力,有效保障问题内容表达的准确度,进而可以提高答案匹配的准确度,增强对话能力的可靠性,提升用户体验,促进用户进行多轮对话,增强用户粘性。
本发明提出的对话处理方法,可以有效具备完整问题文本的生成能力,有效保障问题内容表达的准确度,进而可以提高答案匹配的准确度,增强对话能力的可靠性,提升用户体验,促进用户进行多轮对话,增强用户粘性。
基于图1,本发明提出第三种对话处理方法。在该方法中,上述步骤S104可以包括:
将目标完整问题文本和目标候选答案输入至自然回复改写模型,获得自然回复改写模型输出的自然回复答案;
其中,自然回复改写模型是通过利用训练数据对预训练语言模型进行训练而获得的模型,训练数据包括相对应的完整问题文本、答案文本和自然回复文本。
其中,自然回复改写模型可以为具备自然语言处理能力的自然语言模型,该自然语言处理能力可以基于目标完整问题文本,将目标候选答案改写为自然回复答案。
具体的,自然回复改写模型可以具备将目标候选答案改写为指代回复类型或补全 回复类型的自然回复答案。比如,当目标完整文本为“明星xxx今年多大了”,目标候选答 案为“20岁”时,自然回复改写模型可以将目标候选答案改写为指代回复类型的自然回复答 案“他20岁”;再比如,当目标完整文本为“明星xxx有新歌吗”,目标候选答案为新歌名称 “yyy”时,自然回复改写模型可以将目标候选答案改写为补全回复类型的自然回复答案“明 星xxx的新歌为yyy”。
需要说明的是,本发明通过将目标候选答案改写为指代回复类型或补全回复类型的自然回复答案,可以使得答复内容更加接近人类用语习惯,使得与用户的对话更加自然顺畅,可以有效增强对话能力的可靠性,提升用户体验,促进用户进行多轮对话,增强用户粘性。
需要说明的是,本发明可以采集多个训练样本,通过利用多个训练样本对预训练的自然语言模型进行训练,来获得自然回复改写模型。其中,每个训练样本均包括相对应的完整问题文本、答案文本和自然回复文本。
具体的,在利用训练样本对自然回复改写模型进行训练过程中,可以使得自然回复改写模型学习基于完整问题文本和答案文本,将答案文本改写为自然回复答案的能力,以使得自然回复改写模型具备基于完整问题文本和答案文本,将答案文本改写为自然回复答案的能力。当自然语言模型的答案改写能力满足模型性能要求时,本发明可以将当前的自然语言模型确定为训练好的自然回复改写模型,并将训练好的自然回复改写模型应用到对用户的对话服务场景中。
需要说明的是,本发明利用训练好的自然回复改写模型来生成自然回复答案,可以有效具备自然回复答案的改写及生成能力,有效使得输出的答案回复内容可以更加接近人类语气习惯,增强对话能力的可靠性,提升用户体验,促进用户进行多轮对话,增强用户粘性。
本发明提出的对话处理方法,可以通过训练好的自然回复改写模型来生成自然回复答案,有效具备自然回复答案的改写及生成能力,可以使得输出的答案回复内容更加接近人类语气习惯,增强对话能力的可靠性,提升用户体验,促进用户进行多轮对话,增强用户粘性。
基于图1,本发明提出第四种对话处理方法。在该方法中,步骤S103可以包括:
确定出与目标完整问题文本对应的候选答案;
将目标完整问题文本和候选答案输入至答案决策模型,获得答案决策模型输出的置信度满足预设要求的候选答案;
将置信度满足预设要求的候选答案确定为目标候选答案;
其中,答案决策模型包括置信度评价层、答案排序层和答案输出层;置信度评价层用于确定候选答案匹配目标完整问题文本的置信度,置信度评价层是通过利用训练数据对预训练模型进行训练而获得的模型,训练数据包括完整问题文本和标注有置信度的答案文本;答案排序层用于按照候选答案匹配目标完整问题文本的置信度,对候选答案进行排序;答案输出层用于确定并输出置信度满足预设要求的候选答案。
其中,答案决策模型可以为具备自然语言处理能力的自然语言模型,该自然语言处理能力可以基于完整问题文本和候选答案,确定出置信度满足要求的候选答案。
具体的,答案决策模型中可以包括置信度评价层、答案排序层和答案输出层。需要说明的是,本发明可以采集多个训练样本,利用多个训练样本对预训练模型进行训练,来获得置信度评价层。每个训练样本均可以包括完整问题文本和标注有置信度的答案文本。其中,置信度即为答案文本作为完整问题文本的答案的置信度。
其中,预训练模型可以为具有置信度评价能力的神经网络模型或其他类型的模型。
具体的,本发明可以在确定目标完整问题文本后,确定出与目标完整问题文本对应的多个候选答案;之后,将目标完整问题文本和多个候选答案输入到答案决策模型中,此时,置信度评价层可以分别生成各候选答案作为目标完整问题文本的答案的置信度;之后,答案排序层可以按照置信度的大小,对各候选答案进行排序;之后,答案输出层可以从排序的各候选答案中筛选出符合预设要求的候选答案,输出符合预设要求的候选答案。
具体的,预设要求可以由工作人员按照实际需求和实际情况进行制定,比如要求置信度不低于预设阈值,此时答案输出层可以先行确定出置信度不低于预设阈值的各候选答案,之后输出其中的任一个候选答案;再比如要求置信度最大,此时即可以先行确定出置信度最大的候选答案并进行输出。
具体的,本发明可以将答案决策模型输出的候选答案确定为目标候选答案。
需要说明的是,本发明基于多种问答子***来获得多个候选答案,从多个候选答案中确定目标候选答案,可以有效增强目标候选答***度和可靠度,从而提高对用户的答复内容的准确度和可靠性;且,本发明通过利用答案决策模型,从多个候选答案中筛选出置信度满足预设要求的候选答案作为目标候选答案,可以有效保障目标候选答案对目标完整问题文本的匹配度,有效保障答案回复内容的准确度,增强对话能力的可靠性,提升用户体验,促进用户进行多轮对话,增强用户粘性。
本发明提出的对话处理方法,基于多种问答子***来获得多个候选答案,从多个候选答案中确定目标候选答案,可以有效增强目标候选答***度和可靠度,从而提高对用户的答复内容的准确度和可靠性;且,本发明通过利用答案决策模型,从多个候选答案中筛选出置信度满足预设要求的候选答案作为目标候选答案,可以有效保障目标候选答案对目标完整问题文本的匹配度,有效保障答案回复内容的准确度,增强对话能力的可靠性,提升用户体验,促进用户进行多轮对话,增强用户粘性。
如图3所示,本发明提出第五种对话处理方法。在该方法中,本发明通过利用问题分类模型、问题改写模型、答案决策模型和自然回复改写模型,来生成与用户输入的问题文本对应的自然回复答案,以进一步增强对话能力的可靠性,提升用户体验,促进用户进行多轮对话,增强用户粘性。
具体的,本发明可以在与用户进行的当前对话服务中,获得用户输入的问题文本,确定问题文本是否为完整问题文本;在确定问题文本不是完整问题文本的情况下,在与该用户进行的当前对话服务的当前所有对话文本中,获得问题文本的上文对话文本即对话历史;
具体的,本发明可以将问题文本和对话历史输入到问题改写模型中,获得问题改写模型输出的目标完整问题文本;
其中,本发明可以在确定问题文本不是完整问题文本的情况下,将用户输入的问题文本X = {x1,x2,…xn}和上文对话文本Context ={q1, r1, q2, r2,…qn, rn}输入到问题改写模型中,获得问题改写模型输出的目标完整问题文本X’= {x’1,x’2,…x’n};其中,本发明可以利用下述函数来实现目标完整问题文本的生成:
其中,Intent表示通过Ψ0()函数的问题分类模型对问题文本进行是否完整问题文本的判断,若输出为0表示该问题文本为完整问题文本,则表示不需要进行改写处理,如输出为1,则表示问题文本是需要进一步澄清的问题,需要通过Ψ1()函数的问题改写模型结合Context进行问题改写。
具体的,本发明可以将目标完整问题文本分别输入到基于知识图谱的问答子***、基于段落检索-机器阅读的问答子***和基于问答对匹配的问答子***中,获得该三个问答子***输出的与目标完整问题文本对应的至少一个候选答案;
其中,基于知识图谱的问答子***可以包括实体识别模块、实体链接模块和实体属性判断模块;基于段落检索-机器阅读的问答子***可以包括搜索引擎模块、段落检索模块和机器阅读理解模块;基于问答对匹配的问答子***可以包括问题粗排模块和问题精排模块;
其中,在基于知识图谱的问答子***中,可以首先通过实体识别模块得到相关的知识实体𝐸𝑛𝑡𝑖𝑡𝑦:
𝐸𝑛𝑡𝑖𝑡𝑦=Ψ2(X’);
其中,Ψ2()函数即为实体识别模块;
之后,通过实体链接模块和实体属性判断模块得到相关的实体属性即为知识图谱中的答案Answer1;具体的:
𝐴𝑡𝑡𝑟𝑖𝑏𝑢𝑡𝑒1,... ,𝐴𝑡𝑡𝑟𝑖𝑏𝑢𝑡𝑒𝑁=Ψ3(𝐸𝑛𝑡𝑖𝑡𝑦);
Answer1=𝑀𝑎𝑥(Ψ4(𝑋′,𝐴𝑡𝑡𝑟𝑖𝑏𝑢𝑡𝑒𝑀);
𝐴𝑡𝑡𝑟𝑖𝑏𝑢𝑡𝑒𝑀∈𝐴𝑡𝑡𝑟𝑖𝑏𝑢𝑡𝑒1,...,𝐴𝑡𝑡𝑟𝑖𝑏𝑢𝑡𝑒𝑁;
其中,Ψ3()函数为实体链接模块,𝐴𝑡𝑡𝑟𝑖𝑏𝑢𝑡𝑒1,...,𝐴𝑡𝑡𝑟𝑖𝑏𝑢𝑡𝑒𝑁表示知识实体𝐸𝑛𝑡𝑖𝑡𝑦对应的N个属性内容;Ψ4()函数表示实体属性判断模块,𝐴𝑡𝑡𝑟𝑖𝑏𝑢𝑡𝑒M表示N个属性中的一个,Max表示最大值函数。Answer1表示通过知识图谱的问答子***输出的top1答案即排序第一的答案。
其中,在基于段落检索-机器阅读的问答子***中,首先通过搜索引擎模块检索到最相关的N个段落Passage1,Passage2,…, PassageN,之后通过段落检索模块得到最相关的段落Top Passage,通过机器阅读理解模块得到最终的候选答案Answer2;具体的:
Passage1,Passage2,…,PassageN =Ψ5(𝑋′);
Top Passage=𝑀𝑎𝑥(Ψ6(𝑋′, PassageM));
PassageM∈Passage1,Passage2,…,PassageN;
Answer2=Ψ7(Top Passage,𝑋′);
其中,Ψ5()函数表示搜索引擎模块;Passage1,Passage2,… PassageN表示通过搜索引擎模块得到对应的N个相关段落,Ψ6()函数表示段落检索模块,PassageM表示N个段落中的一个,Max表示最大值函数。Top Passage表示最相关的段落,Ψ7()函数表示机器阅读理解模块,Answer2表示通过阅读器得到的候选答案。
其中,在基于问答对匹配的问答子***中,可以获得目标完整问题文本X’的候选答案Answer 3。具体的:
Question1,Question2,…,Question𝑁=𝑀𝑎𝑥(Ψ8(𝑋′,Question𝑖));
Question𝑖∈QuestionK;
TopQuestion =𝑀𝑎𝑥(Ψ9(𝑋′, Question 𝑀));
Question 𝑀∈Question 1…Question 𝑁;
Answer3=Ψ10 (Top Question);
其中,X’ = {x’1,x’2,…x’n},Ψ8函数表示问题粗排模块,K为问题库中的问题数量;Question 1,Question 2,…,QuestionN表示通过问题粗排模块得到对应的N个相关候选问题,Ψ9函数表示问题精排模块,QuestionM表示N个候选问题中的一个,Max表示最大值函数。TopQuestion表示最相关的候选问题,Ψ10()函数表示候选问题到候选答案的映射函数,Answer 3表示通过映射后得到的候选答案。
具体的,本发明可以将目标完整问题文本,以及上述三个问答子***所输出的候选答案,全部输入到答案决策模型中,获得答案决策模型输出的置信度满足预设要求的候选答案;本发明可以将该置信度满足预设要求的候选答案确定目标候选答案;
具体的,本发明可以将目标完整问题答案、上述候选答案Answer 1、Answer 2和Answer 3输入到答案决策模型中,获得答案决策模型输出的目标候选答案TopAnswer。具体的:
TopAnswer=Ψ11(Answer 1, Answer 2, Answer 3);
其中,Ψ11()函数表示答案决策模型。
具体的,本发明可以将目标完整问题文本和目标候选答案输入到自然回复改写模型中,获得自然回复改写模型输出的自然回复答案;输出自然回复答案至用户处,为用户提供问题文本对应的答案内容Response。具体的:
Response=Ψ12(𝑋′, TopAnswer)。
其中,Ψ12()函数表示自然回复改写模型。
本发明提出的对话处理方法,可以通过利用问题分类模型、问题改写模型、答案决策模型和自然回复改写模型,来生成与用户输入的问题文本对应的自然回复答案,以进一步增强对话能力的可靠性,提升用户体验,促进用户进行多轮对话,增强用户粘性。
下面对本发明提供的对话处理装置进行描述,下文描述的对话处理装置与上文描述的对话处理方法可相互对应参照。
如图4所示,本发明提出一种对话处理装置,包括:一种对话处理装置,包括:第一获得单元401、第一确定单元402、第二确定单元403、生成单元404和输出单元405;其中:
第一获得单元401,用于获得待处理的问题文本;
第一确定单元402,用于确定与问题文本对应的目标完整问题文本;
第二确定单元403,用于确定与目标完整问题文本相匹配的目标候选答案;
生成单元404,用于基于目标完整问题文本和目标候选答案,生成与问题文本对应的自然回复答案;
输出单元405,用于输出与问题文本对应的自然回复答案。
需要说明的是,第一获得单元401、第一确定单元402、第二确定单元403、生成单元404和输出单元405的具体处理过程及其带来的技术效果,可以分别参照本发明关于图1中步骤S101、S102、S103和S104的相关说明,不再赘述。
可选的,第一确定单元402,包括:第三确定单元和第四确定单元;
第三确定单元,用于确定问题文本是否为完整问题文本,以获得问题文本是否为完整问题文本的确定结果;
第四确定单元,用于基于确定结果,确定目标完整问题文本。
可选的,第三确定单元,包括:第一输入单元和第二获得单元;其中:
第一输入单元,用于将问题文本输入至训练好的问题分类模型;
第二获得单元,用于获得问题分类模型基于问题文本输出的确定结果;
其中,问题分类模型是通过利用标注类别标识的第一问题文本,对预训练语言模型进行训练而获得的模型。
可选的,第四确定单元,包括:第三获得单元、第二输入单元和第四获得单元;
第三获得单元,用于在确定问题文本不是完整问题文本的情况下,获得与问题文本对应的上下文对话文本;
第二输入单元,用于将问题文本和上下文对话文本输入至训练好的问题改写模型;
第四获得单元,用于获得问题改写模型基于问题文本和上下文对话文本输出的目标完整问题文本;
其中,问题改写模型是通过利用训练数据对预训练语言模型进行训练而获得的模型,训练数据包括相对应的第一问题文本、第一上下文对话文本和完整问题文本。
可选的,第四确定单元,用于在确定问题文本为完整问题文本的情况下,将问题文本确定为目标完整问题文本。
可选的,生成单元404,包括:第三输入单元和第五获得单元,其中:
第三输入单元,用于将目标完整问题文本和目标候选答案输入至自然回复改写模型;
第五获得单元,用于获得自然回复改写模型输出的自然回复答案;
其中,自然回复改写模型是通过利用训练数据对预训练语言模型进行训练而获得的模型,训练数据包括相对应的完整问题文本、答案文本和自然回复文本。
可选的,第二确定单元403,包括:第五确定单元、第四输入单元、第六获得单元和第六确定单元;
第五确定单元,用于确定出与目标完整问题文本对应的候选答案;
第四输入单元,用于将目标完整问题文本和候选答案输入至答案决策模型;
第六获得单元,用于获得答案决策模型输出的置信度满足预设要求的候选答案;
第六确定单元,用于将置信度满足预设要求的候选答案确定为目标候选答案;
其中,答案决策模型包括置信度评价层、答案排序层和答案输出层;置信度评价层用于确定候选答案匹配目标完整问题文本的置信度,置信度评价层是通过利用训练数据对预训练模型进行训练而获得的模型,训练数据包括完整问题文本和标注有置信度的答案文本;答案排序层用于按照候选答案匹配目标完整问题文本的置信度,对候选答案进行排序;答案输出层用于确定并输出置信度满足预设要求的候选答案。
本发明提出的对话处理装置,可以获得待处理的问题文本;确定与问题文本对应的目标完整问题文本;确定与目标完整问题文本相匹配的目标候选答案;基于目标完整问题文本和目标候选答案,生成与问题文本对应的自然回复答案;输出与问题文本对应的自然回复答案。本发明通过确定与问题文本对应的目标完整问题文本,可以有效提高问题内容表达的准确度,进而可以提高答案匹配的准确度,增强对话能力的可靠性,提升用户体验,促进用户进行多轮对话,增强用户粘性;且,本发明可以在获得目标完整问题文本和目标候选答案后,基于目标完整问题文本和目标候选答案,将目标候选答案改写为自然回复答案并进行输出,使得输出的答案回复内容可以更加接近人类语气习惯,增强对话能力的可靠性,提升用户体验,促进用户进行多轮对话,增强用户粘性。
图5示例了一种电子设备的实体结构示意图,如图5所示,该电子设备可以包括:处理器(processor)510、通信接口(Communications Interface)520、存储器(memory)530和通信总线540,其中,处理器510,通信接口520,存储器530通过通信总线540完成相互间的通信。处理器510可以调用存储器530中的逻辑指令,以执行对话处理方法,该方法包括:
获得待处理的问题文本;
确定与问题文本对应的目标完整问题文本;
确定与目标完整问题文本相匹配的目标候选答案;
基于目标完整问题文本和目标候选答案,生成与问题文本对应的自然回复答案;
输出与问题文本对应的自然回复答案。
此外,上述的存储器530中的逻辑指令可以通过软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
又一方面,本发明还提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现以执行上述各方法提供的对话处理方法,该方法包括:
获得待处理的问题文本;
确定与问题文本对应的目标完整问题文本;
确定与目标完整问题文本相匹配的目标候选答案;
基于目标完整问题文本和目标候选答案,生成与问题文本对应的自然回复答案;
输出与问题文本对应的自然回复答案。
以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分所述的方法。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。

Claims (9)

1.一种对话处理方法,其特征在于,包括:
获得待处理的问题文本;
确定与所述问题文本对应的目标完整问题文本,其中,在所述问题文本不是完整问题文本的情况下,所述目标完整问题文本采用以下方式确定:
确定所述问题文本的词性分布特征相对于完整问题文本所缺乏的词性特征,确定所述问题文本所缺乏的信息;
获得所述问题文本对应的上下文对话文本;
从所述上下文对话文本中提取所述问题文本所缺乏的信息,并将所述问题文本所缺乏的信息补全至所述问题文本,以得到所述目标完整问题文本;
确定与所述目标完整问题文本相匹配的目标候选答案;其中,所述目标候选答案是由知识图谱的问答子***、段落检索机器阅读理解的问答子***和问答对匹配的问答子***确定出的候选答案而确定,其中,
所述知识图谱的问答子***包括实体识别模块、实体链接模块和实体属性判断模块,所述知识图谱的问答子***采用以下方式确定所述候选答案:
Entity=Ψ2(X′);
Attribute1,...,AttributeN=Ψ3(Entity);
Answer1=Max(Ψ4(X′,AttributeM));
AttributeM∈Attribute1,...,AttributeN;
其中,X′表示所述目标完整问题文本;Ψ2表示所述实体识别模块;Entity表示与所述目标完整问题文本对应的知识实体;Ψ3表示所述实体链接模块;Attribute1,...,AttributeN表示所述知识实体Entity对应的N个属性内容;Ψ4表示所述实体属性判断模块;AttributeM表示N个属性内容中的一个;Answer1表示通过所述知识图谱的问答子***输出的所述候选答案;
所述段落检索机器阅读理解的问答子***包括搜索引擎模块、段落检索模块和机器阅读理解模块,所述段落检索机器阅读理解的问答子***采用以下方式确定所述候选答案:
Passage1,Passage2,…,PassageN=Ψ5(X′);
Top Passage=Max(Ψ6(X′,PassageM));
PassageM∈Passage1,Passage2,…,PassageN;
Answer2=Ψ7(Top Passage,X′);
其中,Ψ5表示所述搜索引擎模块;Passage1,Passage2,…PassageN表示通过所述搜索引擎模块得到对应的N个相关段落,Ψ6表示所述段落检索模块,PassageM表示N个段落中的一个;Top Passage表示最相关的段落,Ψ7表示所述机器阅读理解模块;Answer2表示通过所述机器阅读理解模块得到的所述候选答案;
所述问答对匹配的问答子***包括问题粗排模块和问题精排模块,其中,所述问答对匹配的问答子***采用以下方式确定所述候选答案:
Question1,Question2,…,QuestionN=Max(Ψ8(X′,Questioni));
Questioni∈QuestionK;
TopQuestion=Max(Ψ9(X′,Question M));
Question M∈Question 1…Question N;
Answer3=Ψ10(Top Question);
其中,Ψ8表示所述问题粗排模块,K为问题库中的问题数量;Question 1,Question2,…,QuestionN表示通过所述问题粗排模块得到对应的N个相关候选问题;Ψ9表示所述问题精排模块;QuestionM表示N个所述候选问题中的一个;TopQuestion表示最相关的候选问题;Ψ10表示候选问题到候选答案的映射函数;Answer 3表示通过映射后得到的所述候选答案;
基于所述目标完整问题文本和所述目标候选答案,生成与所述问题文本对应的自然回复答案;
其中,所述基于所述目标完整问题文本和所述目标候选答案,生成与所述问题文本对应的自然回复答案,包括:
将所述目标完整问题文本和所述目标候选答案输入至自然回复改写模型,获得所述自然回复改写模型输出的与所述问题文本对应的自然回复答案;与所述问题文本对应的自然回复答案的答案类型为指代回复类型或补全回复类型,并且,与所述问题文本对应的自然回复答案保留所述目标候选答案的文本内容;
其中,所述自然回复改写模型是通过利用训练数据对预训练语言模型进行训练而获得的模型,所述训练数据包括相对应的完整问题文本、答案文本和自然回复文本;
输出与所述问题文本对应的自然回复答案。
2.根据权利要求1所述的对话处理方法,其特征在于,所述确定与所述问题文本对应的目标完整问题文本,包括:
确定所述问题文本是否为完整问题文本,以获得所述问题文本是否为完整问题文本的确定结果;
基于所述确定结果,确定所述目标完整问题文本。
3.根据权利要求2所述的对话处理方法,其特征在于,所述确定所述问题文本是否为完整问题文本,以获得所述问题文本是否为完整问题文本的确定结果,包括:
将所述问题文本输入至训练好的问题分类模型,获得所述问题分类模型基于所述问题文本输出的所述确定结果;
其中,所述问题分类模型是通过利用标注类别标识的第一问题文本,对预训练语言模型进行训练而获得的模型。
4.根据权利要求2所述的对话处理方法,其特征在于,所述基于所述确定结果,确定所述目标完整问题文本,包括:
在确定所述问题文本不是完整问题文本的情况下,获得与所述问题文本对应的上下文对话文本;
将所述问题文本和所述上下文对话文本输入至训练好的问题改写模型,获得所述问题改写模型基于所述问题文本和所述上下文对话文本输出的所述目标完整问题文本;
其中,所述问题改写模型是通过利用训练数据对预训练语言模型进行训练而获得的模型,所述训练数据包括相对应的第一问题文本、第一上下文对话文本和完整问题文本。
5.根据权利要求2所述的对话处理方法,其特征在于,所述基于所述确定结果,确定所述目标完整问题文本,包括:
在确定所述问题文本为完整问题文本的情况下,将所述问题文本确定为所述目标完整问题文本。
6.根据权利要求1所述的对话处理方法,其特征在于,所述确定与所述目标完整问题文本相匹配的目标候选答案,包括:
确定出与所述目标完整问题文本对应的候选答案;
将所述目标完整问题文本和所述候选答案输入至答案决策模型,获得所述答案决策模型输出的置信度满足预设要求的所述候选答案;
将置信度满足预设要求的所述候选答案确定为所述目标候选答案;
其中,所述答案决策模型包括置信度评价层、答案排序层和答案输出层;所述置信度评价层用于确定所述候选答案匹配所述目标完整问题文本的置信度,所述置信度评价层是通过利用训练数据对预训练模型进行训练而获得的模型,所述训练数据包括完整问题文本和标注有置信度的答案文本;所述答案排序层用于按照所述候选答案匹配所述目标完整问题文本的置信度,对所述候选答案进行排序;所述答案输出层用于确定并输出置信度满足预设要求的所述候选答案。
7.一种对话处理装置,其特征在于,包括:第一获得单元、第一确定单元、第二确定单元、生成单元和输出单元;其中:
所述第一获得单元,用于获得待处理的问题文本;
所述第一确定单元,用于确定与所述问题文本对应的目标完整问题文本,其中,在所述问题文本不是完整问题文本的情况下,所述目标完整问题文本采用以下方式确定:
确定所述问题文本的词性分布特征相对于完整问题文本所缺乏的词性特征,确定所述问题文本所缺乏的信息;
获得所述问题文本对应的上下文对话文本;
从所述上下文对话文本中提取所述问题文本所缺乏的信息,并将所述问题文本所缺乏的信息补全至所述问题文本,以得到所述目标完整问题文本;
所述第二确定单元,用于确定与所述目标完整问题文本相匹配的目标候选答案;其中,所述目标候选答案是由知识图谱的问答子***、段落检索机器阅读理解的问答子***和问答对匹配的问答子***确定出的候选答案而确定,其中,
所述知识图谱的问答子***包括实体识别模块、实体链接模块和实体属性判断模块,所述知识图谱的问答子***采用以下方式确定所述候选答案:
Entity=Ψ2(X′);
Attribute1,...,AttributeN=Ψ3(Entity);
Answer1=Max(Ψ4(X′,AttributeM));
AttributeM∈Attribute1,...,AttributeN;
其中,X′表示所述目标完整问题文本;Ψ2表示所述实体识别模块;Entity表示与所述目标完整问题文本对应的知识实体;Ψ3表示所述实体链接模块;Attribute1,...,AttributeN表示所述知识实体Entity对应的N个属性内容;Ψ4表示所述实体属性判断模块;AttributeM表示N个属性内容中的一个;Answer1表示通过所述知识图谱的问答子***输出的所述候选答案;
所述段落检索机器阅读理解的问答子***包括搜索引擎模块、段落检索模块和机器阅读理解模块,所述段落检索机器阅读理解的问答子***采用以下方式确定所述候选答案:
Passage1,Passage2,…,PassageN=Ψ5(X′);
Top Passage=Max(Ψ6(X′,PassageM));
PassageM∈Passage1,Passage2,…,PassageN;
Answer2=Ψ7(Top Passage,X′);
其中,Ψ5表示所述搜索引擎模块;Passage1,Passage2,…PassageN表示通过所述搜索引擎模块得到对应的N个相关段落,Ψ6表示所述段落检索模块,PassageM表示N个段落中的一个;Top Passage表示最相关的段落,Ψ7表示所述机器阅读理解模块;Answer2表示通过所述机器阅读理解模块得到的所述候选答案;
所述问答对匹配的问答子***包括问题粗排模块和问题精排模块,其中,所述问答对匹配的问答子***采用以下方式确定所述候选答案:
Question1,Question2,…,QuestionN=Max(Ψ8(X′,Questioni));
Questioni∈QuestionK;
TopQuestion=Max(Ψ9(X′,Question M));
Question M∈Question 1…Question N;
Answer3=Ψ10(TopQuestion);
其中,Ψ8表示所述问题粗排模块,K为问题库中的问题数量;Question 1,Question2,…,QuestionN表示通过所述问题粗排模块得到对应的N个相关候选问题;Ψ9表示所述问题精排模块;QuestionM表示N个所述候选问题中的一个;TopQuestion表示最相关的候选问题;Ψ10表示候选问题到候选答案的映射函数;Answer 3表示通过映射后得到的所述候选答案;
所述生成单元,用于基于所述目标完整问题文本和所述目标候选答案,生成与所述问题文本对应的自然回复答案;
其中,所述生成单元,包括:第三输入单元和第五获得单元;
所述第三输入单元,用于将所述目标完整问题文本和所述目标候选答案输入至自然回复改写模型;
所述第五获得单元,用于获得所述自然回复改写模型输出的与所述问题文本对应的自然回复答案;与所述问题文本对应的自然回复答案的答案类型为指代回复类型或补全回复类型,并且,与所述问题文本对应的自然回复答案保留所述目标候选答案的文本内容;
其中,所述自然回复改写模型是通过利用训练数据对预训练语言模型进行训练而获得的模型,所述训练数据包括相对应的完整问题文本、答案文本和自然回复文本;
所述输出单元,用于输出与所述问题文本对应的自然回复答案。
8.一种电子设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1至6任一项所述对话处理方法。
9.一种非暂态计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至6任一项所述对话处理方法。
CN202211599377.4A 2022-12-14 2022-12-14 一种对话处理方法、装置、设备及存储介质 Active CN115617974B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211599377.4A CN115617974B (zh) 2022-12-14 2022-12-14 一种对话处理方法、装置、设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211599377.4A CN115617974B (zh) 2022-12-14 2022-12-14 一种对话处理方法、装置、设备及存储介质

Publications (2)

Publication Number Publication Date
CN115617974A CN115617974A (zh) 2023-01-17
CN115617974B true CN115617974B (zh) 2023-12-01

Family

ID=84880240

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211599377.4A Active CN115617974B (zh) 2022-12-14 2022-12-14 一种对话处理方法、装置、设备及存储介质

Country Status (1)

Country Link
CN (1) CN115617974B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115905500B (zh) * 2023-02-07 2023-05-23 北京面壁智能科技有限责任公司 问答对数据的生成方法及装置

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108345612A (zh) * 2017-01-25 2018-07-31 北京搜狗科技发展有限公司 一种问题处理方法和装置、一种用于问题处理的装置
JP2020071679A (ja) * 2018-10-31 2020-05-07 株式会社リクルート 質問に対する回答を支援するためのシステム、方法、及びプログラム
CN113010686A (zh) * 2021-03-04 2021-06-22 北京顶象技术有限公司 知识图谱展示方法
CN113177419A (zh) * 2021-04-27 2021-07-27 北京小米移动软件有限公司 文本改写方法、装置、存储介质及电子设备
CN113254619A (zh) * 2021-06-21 2021-08-13 北京沃丰时代数据科技有限公司 针对用户询问的自动答复方法、装置和电子设备
CN114461777A (zh) * 2022-02-14 2022-05-10 平安科技(深圳)有限公司 智能问答方法、装置、设备及存储介质
CN114547274A (zh) * 2022-04-26 2022-05-27 阿里巴巴达摩院(杭州)科技有限公司 多轮问答的方法、装置及设备
CN115169364A (zh) * 2022-06-17 2022-10-11 北京百度网讯科技有限公司 智能问答方法、装置、设备以及存储介质

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108345612A (zh) * 2017-01-25 2018-07-31 北京搜狗科技发展有限公司 一种问题处理方法和装置、一种用于问题处理的装置
JP2020071679A (ja) * 2018-10-31 2020-05-07 株式会社リクルート 質問に対する回答を支援するためのシステム、方法、及びプログラム
CN113010686A (zh) * 2021-03-04 2021-06-22 北京顶象技术有限公司 知识图谱展示方法
CN113177419A (zh) * 2021-04-27 2021-07-27 北京小米移动软件有限公司 文本改写方法、装置、存储介质及电子设备
CN113254619A (zh) * 2021-06-21 2021-08-13 北京沃丰时代数据科技有限公司 针对用户询问的自动答复方法、装置和电子设备
CN114461777A (zh) * 2022-02-14 2022-05-10 平安科技(深圳)有限公司 智能问答方法、装置、设备及存储介质
CN114547274A (zh) * 2022-04-26 2022-05-27 阿里巴巴达摩院(杭州)科技有限公司 多轮问答的方法、装置及设备
CN115169364A (zh) * 2022-06-17 2022-10-11 北京百度网讯科技有限公司 智能问答方法、装置、设备以及存储介质

Also Published As

Publication number Publication date
CN115617974A (zh) 2023-01-17

Similar Documents

Publication Publication Date Title
CN111026842B (zh) 自然语言处理方法、自然语言处理装置及智能问答***
CN106328147B (zh) 语音识别方法和装置
CN110097085B (zh) 歌词文本生成方法、训练方法、装置、服务器及存储介质
CN110427461B (zh) 智能问答信息处理方法、电子设备及计算机可读存储介质
CN112800170A (zh) 问题的匹配方法及装置、问题的回复方法及装置
CN111222305A (zh) 一种信息结构化方法和装置
CN109948160B (zh) 短文本分类方法及装置
CN113035311A (zh) 一种基于多模态注意力机制的医学图像报告自动生成方法
KR20200087977A (ko) 멀티모달 문서 요약 시스템 및 방법
CN111930914A (zh) 问题生成方法和装置、电子设备以及计算机可读存储介质
CN112579733B (zh) 规则匹配方法、规则匹配装置、存储介质及电子设备
CN112749556B (zh) 多语言模型的训练方法和装置、存储介质和电子设备
CN112101042A (zh) 文本情绪识别方法、装置、终端设备和存储介质
CN115617974B (zh) 一种对话处理方法、装置、设备及存储介质
CN116821290A (zh) 面向多任务对话的大语言模型训练方法和交互方法
CN116341519A (zh) 基于背景知识的事件因果关系抽取方法、装置及存储介质
CN111368066B (zh) 获取对话摘要的方法、装置和计算机可读存储介质
CN115186080A (zh) 一种智能问答数据处理方法、***、计算机设备及介质
CN113486143A (zh) 一种基于多层级文本表示及模型融合的用户画像生成方法
Ali et al. K-means clustering to improve the accuracy of decision tree response classification
CN110909174B (zh) 一种基于知识图谱的简单问答中实体链接的改进方法
CN111680514B (zh) 信息处理和模型训练方法、装置、设备及存储介质
CN114528851B (zh) 回复语句确定方法、装置、电子设备和存储介质
CN111783425A (zh) 基于句法分析模型的意图识别方法及相关装置
CN115098665A (zh) 一种对话数据扩展方法、装置及设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant