CN114254593A - 问题语句的处理方法、装置、设备及计算机存储介质 - Google Patents

问题语句的处理方法、装置、设备及计算机存储介质 Download PDF

Info

Publication number
CN114254593A
CN114254593A CN202011010581.9A CN202011010581A CN114254593A CN 114254593 A CN114254593 A CN 114254593A CN 202011010581 A CN202011010581 A CN 202011010581A CN 114254593 A CN114254593 A CN 114254593A
Authority
CN
China
Prior art keywords
sentence
target
sentences
model
question
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202011010581.9A
Other languages
English (en)
Inventor
丁鹏勇
吕正林
舒敏根
刘虹
徐海勇
李莉
李飞龙
汪帆
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
China Mobile Communications Group Co Ltd
China Mobile Information Technology Co Ltd
Original Assignee
China Mobile Communications Group Co Ltd
China Mobile Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by China Mobile Communications Group Co Ltd, China Mobile Information Technology Co Ltd filed Critical China Mobile Communications Group Co Ltd
Priority to CN202011010581.9A priority Critical patent/CN114254593A/zh
Publication of CN114254593A publication Critical patent/CN114254593A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/12Use of codes for handling textual entities
    • G06F40/126Character encoding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • G06F40/216Parsing using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Machine Translation (AREA)

Abstract

本申请实施例提供了一种问题语句的处理方法、装置、设备及计算机存储介质,方法包括:获取目标***处理失败的问题语句;根据预先训练的语句替换模型,对所述问题语句进行处理,得到目标语句,所述语句替换模型为通过学习包含所述问题语句的第一样本与所述目标语句的映射关系得到,所述第一样本为基于所述目标语句中的文字替换得到;向所述目标***反馈所述目标语句。本申请实施例能够解决目标***中曝光误差的问题,帮助目标***识别出正确的目标语句,从而便于目标***根据正确的目标语句处理后续流程。

Description

问题语句的处理方法、装置、设备及计算机存储介质
技术领域
本申请属于故障处理技术领域,尤其涉及一种问题语句的处理方法、装置、设备及计算机存储介质。
背景技术
在现有的订单***中,通常会引入目标***(又称专家***)来对订单***中的错误日志或异常订单进行处理。在实际应用中,目标***通过识别错误日志或异常订单中的语句(例如关键信息)进行业务规则匹配,再按照匹配出的业务规则处理错误日志或异常订单,如修复、退回或重发异常订单等。
但是,目标***有时识别出的语句可能与语句库中存储的已有语句不一致,例如只是意思相近但字面不同,就会导致目标***无法匹配到对应的业务规则,进而导致目标***处理失败。
为了解决目标***识别出的语句与存储的语句不一致的问题,目前提出一些基于人工智能模型的目标***,但是由于人工智能模型存在曝光误差的问题,导致目标***识别出的语句很大几率上仍然是错误的,进而导致目标***处理失败。
发明内容
本申请实施例提供一种在问题语句的处理方法、装置、设备及计算机存储介质,能够解决目标***中曝光误差的问题,帮助目标***识别出正确的目标语句,从而便于目标***对错误日志或异常订单进行处理。
第一方面,本申请实施例提供一种问题语句的处理方法,方法包括:
获取目标***处理失败时的问题语句;
根据预先训练的语句替换模型,对问题语句进行处理,得到目标语句,语句替换模型为通过学习包含问题语句的第一样本与目标语句的映射关系得到,第一样本为基于目标语句中的文字替换得到;
向目标***反馈目标语句。
在一个实施例中,在根据预先训练的语句替换模型,对问题语句进行处理,得到目标语句之前,方法还包括:
在训练语句替换模型的过程中,将语句替换模型的解码器的输入语句中的预设比例的文字按照预设第一目标概率替换成目标语句中的文字,将预设比例的文字按照预设第二目标概率不替换为目标语句中的文字,得到第一样本;第一目标概率与第二目标概率之和为百分之百;
学习第一样本与目标语句的映射关系,得到训练好的语句替换模型。
在一个实施例中,预设比例为50%,预设第一目标概率为61.8%。
在一个实施例中,在对语句替换模型进行训练之前,方法还包括:
准备训练数据,训练数据包括语言材料;
对训练数据进行预处理,预处理包括统一训练数据的格式;
训练语句替换模型,包括:利用预处理后的训练数据训练语句替换模型。
在一个实施例中,预处理还包括:
将训练数据中的所含有的文字数量大于预设阈值的第一语句替换成与第一语句语义相同的第二语句,第二语句的所含有的文字数量小于预设阈值。
在一个实施例中,语句替换模型包括统一语言模型,统一语言模型包括序列到序列Seq-to-Seq模型。
在一个实施例中,当训练Seq-to-Seq模型时,利用集束搜索算法或者贪心搜索算法进行解码。
第二方面,本申请实施例提供了一种问题语句的处理装置,装置包括:
获取单元,用于获取目标***处理失败的问题语句;
替换单元,用于根据预先训练的语句替换模型,对问题语句进行处理,得到目标语句,语句替换模型为通过学习包含问题语句的第一样本与目标语句的映射关系得到,第一样本为基于目标语句中的文字替换得到;
反馈单元,用于向目标***反馈目标语句。
第三方面,本申请实施例提供了一种电子设备,设备包括:处理器、存储器及存储在存储器上并可在处理器上运行的计算机程序,计算机程序被处理器执行时实现上述的问题语句的处理方法的步骤。
第四方面,本申请实施例提供了一种计算机存储介质,计算机可读存储介质上存储计算机程序,计算机程序被处理器执行时实现上述的问题语句的处理方法的步骤。
本申请实施例的问题语句的处理方法、装置、设备及计算机存储介质,利用预先训练的语句替换模型对目标***处理失败时的问题语句进行处理,得到正确的目标语句,并将正确的目标语句反馈给目标***,从而使得目标***能够根据正确的目标语句进行业务规则匹配,再按照匹配出的业务规则处理错误日志或异常订单。而本申请在训练时不仅利用真实样本,还通过目标语句中的文字替换得到与目标语句差异不大的第一样本,然后学习第一样本与目标语句的映射关系,使得模型在推断时能够根据该映射关系进行自我纠正、最终输出正确的目标语句,所以能够解决曝光误差的问题,从而能够帮助目标***识别出正确的目标语句,便于目标***对错误日志或异常订单进行处理。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对本申请实施例中所需要使用的附图作简单的介绍,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例提供的语句替换模型的训练方法的流程示意图;
图2示意性示出了序列到序列预测模型;
图3示意性示出了本申请实施例的训练过程;
图4为本申请实施例提供的问题语句的处理方法的流程示意图;
图5为本申请实施例提供的问题语句的处理装置的结构示意图;
图6为本申请实施例提供的电子设备的硬件结构示意图。
具体实施方式
下面将详细描述本申请的各个方面的特征和示例性实施例,为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及具体实施例,对本申请进行进一步详细描述。应理解,此处所描述的具体实施例仅意在解释本申请,而不是限定本申请。对于本领域技术人员来说,本申请可以在不需要这些具体细节中的一些细节的情况下实施。下面对实施例的描述仅仅是为了通过示出本申请的示例来提供对本申请更好的理解。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
在现有的订单***中,通常会引入目标***(又称专家***)来对订单***中的错误日志或异常订单进行处理。在实际应用中,目标***通过识别错误日志或异常订单中的语句(关键信息)进行业务规则匹配,再按照匹配出的业务规则处理错误日志或异常订单,如修复、退回或重发异常订单等。
但是,目标***有时识别出的语句可能与语句库中存储的已有语句不一致,例如只是意思相近但字面不同,就会导致目标***无法匹配到对应的业务规则,进而导致目标***处理失败。
随着业务迅猛增长(尤其是用户和订单数据达到亿级量级时),语句库中存储的已有语句达到几十万甚至上百万后,上述挑战更加严峻。现存的已有语句无法梳理,字面表述不同但意思相同的语句会反复大量出现,例如多一个或少一个“的”或“之”都会导致无法精确匹配。这给运营维护人员带来很大的工作量,需要反复分析和添加维护语句库中存储的已有语句,愈发庞大的语句库变得难以维护,而且容易出错。在此情况下,目标***需要投入较大的人力开展维护,违背了引入目标***以减轻订单***运营工作量的初衷。
为了解决目标***识别出的语句与存储的语句不一致的问题,目前提出一些基于人工智能模型的目标***,但是由于人工智能模型存在曝光误差(exposure bias)的问题,导致目标***识别出的语句很大几率上仍然是错误的,进而导致目标***处理失败。而现有解决曝光误差的方法,大部分都是大刀阔斧地改动训练过程,甚至牺牲原来模型的训练并行性(需要递归地采样负样本),需要投入较大训练成本但模型质量提升甚微。
为了解决现有技术问题,本申请实施例提供了一种问题语句的处理方法、装置、设备及计算机存储介质。
曝光误差问题是因为模型训练和推断时存在不一致造成的,具体在训练时每一个词的输入都来自真实样本,但是在推断时每一个词的输入并不是来自真实样本,而是来自上一个词的输出,当上一个词的输出与真实样本不一致时导致最终输出的语句与正确的目标语句存在差异。
本申请实施例的技术构思在于:利用预先训练的语句替换模型对目标***处理失败时的问题语句进行处理,得到正确的目标语句,并将正确的目标语句反馈给目标***,从而使得目标***能够根据正确的目标语句进行业务规则匹配,再按照匹配出的业务规则处理错误日志或异常订单。而本申请在训练时不仅利用真实样本,还通过目标语句中的文字替换得到与目标语句差异不大的第一样本,然后学习第一样本与目标语句的映射关系,使得模型在推断时能够根据该映射关系进行自我纠正、最终输出正确的目标语句,所以能够解决曝光误差的问题,从而能够帮助目标***识别出正确的目标语句,便于目标***对错误日志或异常订单进行处理。
本申请实施例提供的问题语句的处理方法中,需要预先训练的语句替换模型对目标***处理失败时的问题语句进行处理,得到正确的目标语句。因此,在利用语句替换模型对目标***处理失败时的问题语句进行处理之前,需要训练好语句替换模型。因此,下面首先结合附图描述本申请实施例提供的语句替换模型的训练方法的具体实施方式。
图1为本申请实施例提供的语句替换模型的训练方法的流程示意图。如图1所示,语句替换模型的训练方法可以包括以下步骤:
S1、准备训练数据。在本步骤中,训练数据可以是语言材料(简称语料),具体例如可以是人工批注的物联网专业业务语料,每条语料可以包括错误或失败原因信息和人工分析整理的真实原因概况(关键信息)两部分。例如,语料可以是:“失败原因:产品xxxxxx的服务附加属性不能为空xxxx-用户信息与个人产品订购关系信息(变更本产品下的业务订购关系);关键信息:“产品xxxxx的服务附加属性不能为空”。例如语料还可以是:“失败原因:折扣率校验失败,集团用户、折扣率、审批文号未审批通过江苏:成员(新增);关键信息:“折扣率校验失败:江苏集团用户、折扣率、审批文号未审批通过”。
S2、对训练数据进行预处理,以统一各个训练数据的格式。具体地,例如对于训练数据进行如下操作:去除训练数据中的一些异常字符;将英文大小写统一为小写;统一使用UTF-8字符编码;使用物联网业务的专业词汇或短句表示训练数据。
随着专业业务领域的高质量数据和长句、超长句子的增多,生成文本质量的准确率还能进一步提升,而原有技术的质量会随着长句、超长句的增多,语义的质量反而会下降。为此,本申请实施例用物联网业务的专业词汇或短句表示训练数据,以降低长句和超长句的数量,提高语义的质量。具体地,可以将训练数据中的文字数量大于预设阈值的第一语句替换成与第一语句语义相同的第二语句,第二语句的文字数量小于预设阈值。这样,利用语义相同的短句替换长句和超长句,从而降低了长句和超长句的数量,提高了语义的质量。
S3、利用预处理后的训练数据训练语句替换模型。在本申请实施例中,语句替换模型例如可以是统一语言UNILM模型。UNILM模型是一种基于伯特BERT模型提出的新的Seq-to-Seq任务的预训练模型,UNILM模型中的参数直接复用BERT模型的参数即可。
UNILM模型可以包括双向预测模型(Bidirectional LM)、单向预测模型(Left-to-Right LM)和序列到序列预测模型(Seq-to-Seq LM)。
图2示意性示出了序列到序列预测模型。如图2所示,序列到序列预测模型包括编码器和解码器,编码器用于将输入序列压缩成指定长度的语义向量,解码器用于根据语义向量生成指定的输出序列。在本申请实施例中,当训练序列到序列预测模型(Seq-to-SeqLM)时,Seq-to-Seq LM的解码器利用集束搜索算法或者贪心搜索算法对输入语句进行解码。
在解码过程中,Seq-to-Seq LM对目标序列的打分函数的表达式为:
f(y1;x)+f(y1,y2;x)+…+f(y1,y2,…,yn;x)
其中,x表示输入语句或输入序列,y1,y2,…,yn表示目标语句或目标序列。正常来说,一般希望目标序列是所有候选序列之中分数最高的,根据激活函数Softmax,建立的概率分布应该是:
Figure BDA0002697440990000071
不管是集束搜索算法还是贪心搜索算法均存在曝光误差问题,即因为模型训练和推断时存在不一致造成的,具体在训练时每一个词的输入都来自真实样本,但是在推断时每一个词的输入并不是来自真实样本,而是来自上一个词的输出,当上一个词的输出与真实样本不一致时导致最终输出的语句与正确的目标语句存在差异。
为了解决曝光误差问题,本申请实施例在训练语句替换模型时,通过目标语句中的文字替换得到与目标语句差异不大的第一样本(负样本),然后学习第一样本与目标语句的映射关系,使得模型在推断时能够根据该映射关系进行自我纠正、最终输出正确的目标语句,以此解决曝光误差的问题。
图3示意性示出了本申请实施例的训练过程。如图3所示,在训练语句替换模型的过程中,每次首先将解码器的输入语句中的预设比例的文字按照预设第一目标概率替换成目标语句中的文字,相反将解码器的输入语句中的预设比例的文字按照预设第二目标概率不替换为目标语句中的文字,得到第一样本;其中,第一目标概率与第二目标概率之和为百分之百。
在本申请实施例中,预设比例例如可以包括50%或其他数值的比例,预设第一目标概率例如可以包括61.8%或其他数值,本申请不限于此。例如在一个示例中,61.8%的概率将解码器的输入语句中的50%的部分文字替换掉,替换对象为目标语句中的任意文字;38.2%的概率不替换。这个方案的灵感在于:尽管Seq-to-Seq LM不一定能完全生成目标语句,但它通常能生成大部分目标语句的词(可能顺序不对或者重复出现同一些词),因此这样替换后的输入语句通常可以作为有代表性的负样本,例如目标语句是“此事古难全”,而第一样本即负样本可以包括“此此古难全”、“此事古难难”。
然后,学习第一样本与目标语句的映射关系,即学习负样本与正确的目标语句的映射关系,使得模型在推断时能够根据该映射关系进行自我纠正、最终输出正确的目标语句,从而得到训练好的语句替换模型。
为了验证训练好的语句替换模型的效果,本申请实施例对训练好的语句替换模型进行了测试实验。
表1示出了本申请实施例对训练好的语句替换模型进行测试实验的结果。
Figure BDA0002697440990000081
由表1可以看出,对比各个基准线,本申请实施例的训练好的语句替换模型的各个自动测评指标均有1%的提升,说明本申请实施例的训练好的语句替换模型预测的语句更加准确。
以上为对本申请实施例的语句替换模型的训练过程的介绍,下面对本申请实施例所提供的问题语句的处理方法进行介绍。
图4为本申请实施例提供的问题语句的处理方法的流程示意图。如图4所示,该方法可以包括以下步骤:
S401、获取目标***处理失败时的问题语句。上文中提到当目标***识别出的语句与语句库中存储的已有语句不一致时,便会导致目标***处理失败。那么在S401中,在目标***处理失败的情况下,可以获取这部分目标***处理失败时的问题语句,问题语句可以理解为目标***识别出的与语句库中存储的已有语句不一致的语句。
S402、根据预先训练的语句替换模型,对问题语句进行处理,得到目标语句。在本申请实施例中,语句替换模型为通过学习包含问题语句的第一样本与目标语句的映射关系得到的。在S401中,例如可以将目标***处理失败时的问题语句输入至训练好的语句替换模型,语句替换模型根据包含问题语句的第一样本与目标语句的映射关系输出与问题语句对应的正确的目标语句。
S403、向目标***反馈目标语句。具体地,在获得目标语句之后,将目标语句反馈给目标***,以使得目标***能够根据目标语句对错误日志或异常订单进行处理。由此,在基本不影响订单***运营工作流程的情况下,较好地通过智能替换将问题语句替换为正确的目标语句,以完成之前需要人工处理的工作,提升了工作效率。
基于上述实施例提供的问题语句的处理方法,相应地,本申请还提供了问题语句的处理装置的具体实现方式。请参见以下实施例。
首先参见图5,本申请实施例提供的问题语句的处理装置500可以包括以下单元:
获取单元501,用于获取目标***处理失败的问题语句;
替换单元502,用于根据预先训练的语句替换模型,对问题语句进行处理,得到目标语句,语句替换模型为通过学习包含问题语句的第一样本与目标语句的映射关系得到,第一样本为基于目标语句中的文字替换得到;
反馈单元503,用于向目标***反馈目标语句。
本申请实施例提供的问题语句的处理装置,利用预先训练的语句替换模型对目标***处理失败时的问题语句进行处理,得到正确的目标语句,并将正确的目标语句反馈给目标***,从而使得目标***能够根据正确的目标语句进行业务规则匹配,再按照匹配出的业务规则处理错误日志或异常订单。而本申请在训练时不仅利用真实样本,还通过目标语句中的文字替换得到与目标语句差异不大的第一样本,然后学习第一样本与目标语句的映射关系,使得模型在推断时能够根据该映射关系进行自我纠正、最终输出正确的目标语句,所以能够解决曝光误差的问题,从而能够帮助目标***识别出正确的目标语句,便于目标***对错误日志或异常订单进行处理。
作为本申请的一种实现方式,问题语句的处理装置500还可以包括:训练单元,用于在训练语句替换模型的过程中,将语句替换模型的解码器的输入语句中的预设比例的文字按照预设第一目标概率替换成目标语句中的文字,将预设比例的文字按照预设第二目标概率不替换为目标语句中的文字,得到第一样本;第一目标概率与第二目标概率之和为百分之百;学习第一样本与目标语句的映射关系,得到训练好的语句替换模型。
作为本申请的一种实现方式,预设比例为50%,预设第一目标概率为61.8%。
作为本申请的一种实现方式,问题语句的处理装置500还可以包括:
数据处理单元,用于准备训练数据,训练数据包括语言材料;以及对训练数据进行预处理,预处理包括统一训练数据的格式。
训练单元具体用于利用预处理后的训练数据训练语句替换模型。
作为本申请的一种实现方式,预处理还包括:将训练数据中的文字数量大于预设阈值的第一语句替换成与第一语句语义相同的第二语句,第二语句的文字数量小于预设阈值。
作为本申请的一种实现方式,语句替换模型包括统一语言模型,统一语言模型包括序列到序列Seq-to-Seq模型。
作为本申请的一种实现方式,当训练Seq-to-Seq模型时,利用集束搜索算法或者贪心搜索算法进行解码。
图5所示装置中的各个模块/单元具有实现图4中各个步骤的功能,并能达到其相应的技术效果,为简洁描述,在此不再赘述。
基于上述实施例提供的问题语句的处理方法,相应地,本申请还提供了电子设备的具体实现方式。请参见以下实施例。
图6示出了本申请实施例提供的电子设备的硬件结构示意图。
电子设备可以包括处理器601以及存储有计算机程序指令的存储器602。
具体地,上述处理器601可以包括中央处理器(Central Processing Unit,CPU),或者特定集成电路(Application Specific Integrated Circuit,ASIC),或者可以被配置成实施本申请实施例的一个或多个集成电路。
存储器602可以包括用于数据或指令的大容量存储器。举例来说而非限制,存储器602可包括硬盘驱动器(Hard Disk Drive,HDD)、软盘驱动器、闪存、光盘、磁光盘、磁带或通用串行总线(Universal Serial Bus,USB)驱动器或者两个或更多个以上这些的组合。在一个实例中,存储器602可以包括可移除或不可移除(或固定)的介质,或者存储器602是非易失性固态存储器。存储器602可在综合网关容灾设备的内部或外部。
存储器602在一个实例中,存储器602可以是只读存储器(Read Only Memory,ROM)。在一个实例中,该ROM可以是掩模编程的ROM、可编程ROM(PROM)、可擦除PROM(EPROM)、电可擦除PROM(EEPROM)、电可改写ROM(EAROM)或闪存或者两个或更多个以上这些的组合。
存储器602可以包括只读存储器(ROM),随机存取存储器(RAM),磁盘存储介质设备,光存储介质设备,闪存设备,电气、光学或其他物理/有形的存储器存储设备。因此,通常,存储器包括一个或多个编码有包括计算机可执行指令的软件的有形(非暂态)计算机可读存储介质(例如,存储器设备),并且当该软件被执行(例如,由一个或多个处理器)时,其可操作来执行参考根据本公开的一方面的方法所描述的操作。
处理器601通过读取并执行存储器602中存储的计算机程序指令,以实现图4所示实施例中的方法/步骤S401至S403,并达到图4所示实例执行其方法/步骤达到的相应技术效果,为简洁描述在此不再赘述。
在一个示例中,电子设备还可包括通信接口603和总线610。其中,如图6所示,处理器601、存储器602、通信接口603通过总线610连接并完成相互间的通信。
通信接口603,主要用于实现本申请实施例中各模块、装置、单元和/或设备之间的通信。
总线610包括硬件、软件或两者,将在线数据流量计费设备的部件彼此耦接在一起。举例来说而非限制,总线可包括加速图形端口(Accelerated Graphics Port,AGP)或其他图形总线、增强工业标准架构(Extended Industry Standard Architecture,EISA)总线、前端总线(Front Side Bus,FSB)、超传输(Hyper Transport,HT)互连、工业标准架构(Industry Standard Architecture,ISA)总线、无限带宽互连、低引脚数(LPC)总线、存储器总线、微信道架构(MCA)总线、***组件互连(PCI)总线、PCI-Express(PCI-X)总线、串行高级技术附件(SATA)总线、视频电子标准协会局部(VLB)总线或其他合适的总线或者两个或更多个以上这些的组合。在合适的情况下,总线610可包括一个或多个总线。尽管本申请实施例描述和示出了特定的总线,但本申请考虑任何合适的总线或互连。
另外,结合上述实施例中的问题语句的处理方法,本申请实施例可提供一种计算机存储介质来实现。该计算机存储介质上存储有计算机程序指令;该计算机程序指令被处理器执行时实现上述实施例中的任意一种问题语句的处理方法。
综上所述,本申请实施例的问题语句的处理方法、装置、设备及计算机存储介质,利用预先训练的语句替换模型对目标***处理失败时的问题语句进行处理,得到正确的目标语句,并将正确的目标语句反馈给目标***,从而使得目标***能够根据正确的目标语句进行业务规则匹配,再按照匹配出的业务规则处理错误日志或异常订单。而本申请在训练时不仅利用真实样本,还通过目标语句中的文字替换得到与目标语句差异不大的第一样本,然后学习第一样本与目标语句的映射关系,使得模型在推断时能够根据该映射关系进行自我纠正、最终输出正确的目标语句,所以能够解决曝光误差的问题,从而能够帮助目标***识别出正确的目标语句,便于目标***对错误日志或异常订单进行处理。
需要明确的是,本申请并不局限于上文所描述并在图中示出的特定配置和处理。为了简明起见,这里省略了对已知方法的详细描述。在上述实施例中,描述和示出了若干具体的步骤作为示例。但是,本申请的方法过程并不限于所描述和示出的具体步骤,本领域的技术人员可以在领会本申请的精神后,作出各种改变、修改和添加,或者改变步骤之间的顺序。
以上所述的结构框图中所示的功能块可以实现为硬件、软件、固件或者它们的组合。当以硬件方式实现时,其可以例如是电子电路、专用集成电路(Application SpecificIntegrated Circuit,ASIC)、适当的固件、插件、功能卡等等。当以软件方式实现时,本申请的元素是被用于执行所需任务的程序或者代码段。程序或者代码段可以存储在机器可读介质中,或者通过载波中携带的数据信号在传输介质或者通信链路上传送。“机器可读介质”可以包括能够存储或传输信息的任何介质。机器可读介质的例子包括电子电路、半导体存储器设备、ROM、闪存、可擦除ROM(EROM)、软盘、CD-ROM、光盘、硬盘、光纤介质、射频(RadioFrequency,RF)链路,等等。代码段可以经由诸如因特网、内联网等的计算机网络被下载。
还需要说明的是,本申请中提及的示例性实施例,基于一系列的步骤或者装置描述一些方法或***。但是,本申请不局限于上述步骤的顺序,也就是说,可以按照实施例中提及的顺序执行步骤,也可以不同于实施例中的顺序,或者若干步骤同时执行。
上面参考根据本申请的实施例的方法、装置(***)和计算机程序产品的流程图和/或框图描述了本申请的各方面。应当理解,流程图和/或框图中的每个方框以及流程图和/或框图中各方框的组合可以由计算机程序指令实现。这些计算机程序指令可被提供给通用计算机、专用计算机、或其它可编程数据处理装置的处理器,以产生一种机器,使得经由计算机或其它可编程数据处理装置的处理器执行的这些指令使能对流程图和/或框图的一个或多个方框中指定的功能/动作的实现。这种处理器可以是但不限于是通用处理器、专用处理器、特殊应用处理器或者现场可编程逻辑电路。还可理解,框图和/或流程图中的每个方框以及框图和/或流程图中的方框的组合,也可以由执行指定的功能或动作的专用硬件来实现,或可由专用硬件和计算机指令的组合来实现。
以上所述,仅为本申请的具体实施方式,所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,上述描述的***、模块和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。应理解,本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本申请的保护范围之内。

Claims (10)

1.一种问题语句的处理方法,其特征在于,包括:
获取目标***处理失败时的问题语句;
根据预先训练的语句替换模型,对所述问题语句进行处理,得到目标语句,所述语句替换模型为通过学习包含所述问题语句的第一样本与所述目标语句的映射关系得到,所述第一样本为基于所述目标语句中的文字替换得到;
向所述目标***反馈所述目标语句。
2.根据权利要求1所述的方法,其特征在于,在所述根据预先训练的语句替换模型,对所述问题语句进行处理,得到目标语句之前,所述方法还包括:
在训练所述语句替换模型的过程中,将所述语句替换模型的解码器的输入语句中的预设比例的文字按照预设第一目标概率替换成所述目标语句中的文字,将所述预设比例的文字按照预设第二目标概率不替换为所述目标语句中的文字,得到所述第一样本;所述第一目标概率与所述第二目标概率之和为百分之百;
学习所述第一样本与所述目标语句的映射关系,得到训练好的所述语句替换模型。
3.根据权利要求2所述的方法,其特征在于,所述预设比例为50%,所述预设第一目标概率为61.8%。
4.根据权利要求2所述的方法,其特征在于,在对所述语句替换模型进行训练之前,所述方法还包括:
准备训练数据,所述训练数据包括语言材料;
对所述训练数据进行预处理,所述预处理包括统一所述训练数据的格式;
训练所述语句替换模型,包括:利用预处理后的所述训练数据训练语句替换模型。
5.根据权利要求4所述的方法,其特征在于,所述预处理还包括:
将所述训练数据中的所含有的文字数量大于所述预设阈值的第一语句替换成与所述第一语句语义相同的第二语句,所述第二语句的所含有的文字数量小于所述预设阈值。
6.根据权利要求1所述的方法,其特征在于,所述语句替换模型包括统一语言模型,所述统一语言模型包括序列到序列Seq-to-Seq模型。
7.根据权利要求6所述的方法,其特征在于,当训练所述Seq-to-Seq模型时,利用集束搜索算法或者贪心搜索算法进行解码。
8.一种问题语句的处理装置,其特征在于,所述装置包括:
获取单元,用于获取目标***处理失败的问题语句;
替换单元,用于根据预先训练的语句替换模型,对所述问题语句进行处理,得到目标语句,所述语句替换模型为通过学习包含所述问题语句的第一样本与所述目标语句的映射关系得到,所述第一样本为基于所述目标语句中的文字替换得到;
反馈单元,用于向所述目标***反馈所述目标语句。
9.一种电子设备,其特征在于,所述设备包括:处理器、存储器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现如权利要求1至7中任一项所述的问题语句的处理方法的步骤。
10.一种计算机存储介质,其特征在于,所述计算机可读存储介质上存储计算机程序,所述计算机程序被处理器执行时实现如权利要求1至7中任一项所述的问题语句的处理方法的步骤。
CN202011010581.9A 2020-09-23 2020-09-23 问题语句的处理方法、装置、设备及计算机存储介质 Pending CN114254593A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011010581.9A CN114254593A (zh) 2020-09-23 2020-09-23 问题语句的处理方法、装置、设备及计算机存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011010581.9A CN114254593A (zh) 2020-09-23 2020-09-23 问题语句的处理方法、装置、设备及计算机存储介质

Publications (1)

Publication Number Publication Date
CN114254593A true CN114254593A (zh) 2022-03-29

Family

ID=80789810

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011010581.9A Pending CN114254593A (zh) 2020-09-23 2020-09-23 问题语句的处理方法、装置、设备及计算机存储介质

Country Status (1)

Country Link
CN (1) CN114254593A (zh)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190171711A1 (en) * 2017-03-29 2019-06-06 Valyant Al, Inc. Artificially intelligent order processing system
CN110442870A (zh) * 2019-08-02 2019-11-12 深圳市珍爱捷云信息技术有限公司 文本纠错方法、装置、计算机设备和存储介质
CN111125331A (zh) * 2019-12-20 2020-05-08 京东方科技集团股份有限公司 语义识别方法、装置、电子设备及计算机可读存储介质
CN111310449A (zh) * 2020-01-23 2020-06-19 北京百度网讯科技有限公司 基于语义表示的文本生成方法和装置
CN111382260A (zh) * 2020-03-16 2020-07-07 腾讯音乐娱乐科技(深圳)有限公司 一种检索文本纠错方法、装置和存储介质
CN111400470A (zh) * 2020-03-13 2020-07-10 深圳市腾讯计算机***有限公司 问题处理方法、装置、计算机设备和存储介质
CN111538823A (zh) * 2020-04-26 2020-08-14 支付宝(杭州)信息技术有限公司 信息处理方法、模型训练方法、装置、设备及介质

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190171711A1 (en) * 2017-03-29 2019-06-06 Valyant Al, Inc. Artificially intelligent order processing system
CN110442870A (zh) * 2019-08-02 2019-11-12 深圳市珍爱捷云信息技术有限公司 文本纠错方法、装置、计算机设备和存储介质
CN111125331A (zh) * 2019-12-20 2020-05-08 京东方科技集团股份有限公司 语义识别方法、装置、电子设备及计算机可读存储介质
CN111310449A (zh) * 2020-01-23 2020-06-19 北京百度网讯科技有限公司 基于语义表示的文本生成方法和装置
CN111400470A (zh) * 2020-03-13 2020-07-10 深圳市腾讯计算机***有限公司 问题处理方法、装置、计算机设备和存储介质
CN111382260A (zh) * 2020-03-16 2020-07-07 腾讯音乐娱乐科技(深圳)有限公司 一种检索文本纠错方法、装置和存储介质
CN111538823A (zh) * 2020-04-26 2020-08-14 支付宝(杭州)信息技术有限公司 信息处理方法、模型训练方法、装置、设备及介质

Similar Documents

Publication Publication Date Title
CN109034368B (zh) 一种基于dnn的复杂设备多重故障诊断方法
Jia et al. ARNOR: Attention regularization based noise reduction for distant supervision relation classification
CA3088692C (en) Visualizing comment sentiment
CN113297051B (zh) 一种日志分析处理方法及装置
CN113778894B (zh) 测试用例的构建方法、装置、设备及存储介质
CN113901797A (zh) 文本纠错方法、装置、设备及存储介质
CN116629275A (zh) 一种基于大数据的智能决策支持***及方法
CN114329482A (zh) 基于排序的c/c++漏洞及其补丁间链接恢复***及方法
WO2023236836A1 (zh) 故障工单的质检方法、设备及存储介质
CN111447574A (zh) 短信分类方法、装置、***和存储介质
CN114997169A (zh) 一种实体词识别方法、装置、电子设备及可读存储介质
CN111368534A (zh) 一种应用日志降噪方法及装置
CN115757695A (zh) 一种日志语言模型训练方法及***
CN116795886A (zh) 用于销售数据的数据分析引擎及方法
CN117436815B (zh) 基于自然语言大模型的流程智能审批方法
CN113868422A (zh) 一种多标签稽查工单问题溯源识别方法及装置
CN116934278A (zh) 一种建筑施工方案审核方法与装置
CN117648931A (zh) 一种代码审查方法、装置、电子设备及介质
CN117009223A (zh) 基于抽象语法的软件测试方法、***、存储介质及终端
CN114254593A (zh) 问题语句的处理方法、装置、设备及计算机存储介质
CN111522750B (zh) 一种功能测试问题的处理方法及***
CN114201177A (zh) 文件生成方法、装置、电子设备、介质和计算机程序产品
CN109767816A (zh) 一种基于深度神经网络的化学工艺危险自动化分析的方法
CN112394984B (zh) 一种固件代码分析方法及装置
Tarasconi et al. Natural Language Processing Applications in Case-Law Text Publishing

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination