CN114528391A - 问答对评分模型的训练方法、装置、设备及存储介质 - Google Patents

问答对评分模型的训练方法、装置、设备及存储介质 Download PDF

Info

Publication number
CN114528391A
CN114528391A CN202210182951.XA CN202210182951A CN114528391A CN 114528391 A CN114528391 A CN 114528391A CN 202210182951 A CN202210182951 A CN 202210182951A CN 114528391 A CN114528391 A CN 114528391A
Authority
CN
China
Prior art keywords
question
answer
sample
score
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210182951.XA
Other languages
English (en)
Inventor
蒋佳惟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ping An Life Insurance Company of China Ltd
Original Assignee
Ping An Life Insurance Company of China Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ping An Life Insurance Company of China Ltd filed Critical Ping An Life Insurance Company of China Ltd
Priority to CN202210182951.XA priority Critical patent/CN114528391A/zh
Publication of CN114528391A publication Critical patent/CN114528391A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/3332Query translation
    • G06F16/3335Syntactic pre-processing, e.g. stopword elimination, stemming
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/338Presentation of query results
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

本申请涉及人工智能领域,具体公开了一种问答对评分模型的训练方法、装置、设备及存储介质,所述方法包括:获取样本问答对,所述样本问答对包括问题和所述问题对应的正确答案;对所述正确答案进行数据增强,得到错误答案;根据所述问题、所述错误答案和所述正确答案确定所述样本问答对的第一分数;对所述样本问答对进行语序评分,得到所述样本问答对的第二分数;根据所述第一分数和所述第二分数对分类模型进行迭代训练,并将训练完成的所述分类模型作为问答对评分模型。

Description

问答对评分模型的训练方法、装置、设备及存储介质
技术领域
本申请涉及人工智能领域,尤其涉及一种问答对评分模型的训练方法、装置、设备及存储介质。
背景技术
检索式问答***是常见的问答***结构之一,是在原有问答库中通过查找与输入的问题最相似的问题为目标,返回该相似问题在现有问答库中的答案作为回答,具有稳定可控的提醒。但检索式问答***的质量与检索式问答***中问答库的质量息息相关,因此,需要对检索式问答***中问答对的质量进行衡量。
发明内容
本申请提供了一种问答对评分模型的训练方法、装置、设备及存储介质,以对问答库中的问答对进行评分。
第一方面,本申请提供了一种问答对评分模型的训练方法,所述方法包括:
获取样本问答对,所述样本问答对包括问题和所述问题对应的正确答案;
对所述正确答案进行数据增强,得到错误答案;
根据所述问题、所述错误答案和所述正确答案确定所述样本问答对的第一分数;
对所述样本问答对进行语序评分,得到所述样本问答对的第二分数;
根据所述第一分数和所述第二分数对分类模型进行迭代训练,并将训练完成的所述分类模型作为问答对评分模型。
第二方面,本申请还提供了一种问答对评分模型的训练装置,所述装置包括:
样本获取模块,用于获取样本问答对,所述样本问答对包括问题和所述问题对应的正确答案;
数据增强模块,用于对所述正确答案进行数据增强,得到错误答案;
第一分数模块,用于根据所述问题、所述错误答案和所述正确答案确定所述样本问答对的第一分数;
第二分数模块,用于对所述样本问答对进行语序评分,得到所述样本问答对的第二分数;
模型训练模块,用于根据所述第一分数和所述第二分数对分类模型进行迭代训练,并将训练完成的所述分类模型作为问答对评分模型。
第三方面,本申请还提供了一种计算机设备,所述计算机设备包括存储器和处理器;所述存储器用于存储计算机程序;所述处理器,用于执行所述计算机程序并在执行所述计算机程序时实现如上述的问答对评分模型的训练方法。
第四方面,本申请还提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时使所述处理器实现如上述的问答对评分模型的训练方法。
本申请公开了一种问答对评分模型的训练方法、装置、设备及存储介质,通过获取样本问答对,样本问答对包括问题和问题对应的正确答案,然后对正确答案进行数据增强,得到错误答案,再根据问题、错误答案和正确答案确定样本问答对的第一分数,以及对样本问答对进行语序评分,得到样本问答对的第二分数,最后根据第一分数和第二分数对分类模型进行迭代训练,并将训练完成的分类模型作为问答对评分模型。在训练问答对评分模型时结合样本问答对中正确答案在该问题的所有答案中的顺序和样本问答对的语序合理化程度两方面,从而提高了得到的问答对评分模型在对问答对进行评分时的全面程度,提高评分结果的准确性。
附图说明
为了更清楚地说明本申请实施例技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的问答对评分模型的训练方法的步骤示意流程图;
图2是本申请实施例提供的确定样本问答对的第一分数的步骤示意流程图;
图3是本申请实施例提供的第一神经网络的结构示意图;
图4是本申请实施例提供的问答对评分模型的训练架构示意图;
图5是本申请实施例提供的一种问答对评分模型的训练装置的示意性框图;
图6为本申请实施例提供的一种计算机设备的结构示意性框图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
附图中所示的流程图仅是示例说明,不是必须包括所有的内容和操作/步骤,也不是必须按所描述的顺序执行。例如,有的操作/步骤还可以分解、组合或部分合并,因此实际执行的顺序有可能根据实际情况改变。
应当理解,在此本申请说明书中所使用的术语仅仅是出于描述特定实施例的目的而并不意在限制本申请。如在本申请说明书和所附权利要求书中所使用的那样,除非上下文清楚地指明其它情况,否则单数形式的“一”、“一个”及“该”意在包括复数形式。
还应当理解,在本申请说明书和所附权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。
本申请的实施例提供了一种问答对评分模型的训练方法、装置、计算机设备及存储介质。
为维护检索式问答***中问答库的健壮性与问答质量,需保证问答库中问答对的质量不能低于一定标准,若采用人力进行审核往往需耗费大量人力、时间,且审核标准会随着审核人员的认知而有所变动。
该问答对评分模型的训练方法可用于对于问答库中的问答对进行质量评分,从而降低在管理问答库时的人力投入,并且能够对问答库中的问答对质量进行评分,以提升问答库中问答对的质量。
下面结合附图,对本申请的一些实施方式作详细说明。在不冲突的情况下,下述的实施例及实施例中的特征可以相互组合。
请参阅图1,图1是本申请实施例提供的一种问答对评分模型的训练方法的示意流程图。该问答对评分模型的训练方法通过从不同的角度对样本问答对进行评分,从而根据样本问答对在不同方面的评分训练问答对评分模型,使得训练出的问答对评分模型能够对问答对进行多方面的全面评价。
如图1所示,该问答对评分模型的训练方法,具体包括:步骤S101至步骤S105。
S101、获取样本问答对,所述样本问答对包括问题和所述问题对应的正确答案。
可以从现有的问答对中抽取出一部分问答对作为样本问答对,样本问答对中包括问题和问题所对应的正确答案。
S102、对所述正确答案进行数据增强,得到错误答案。
对样本问答对中的正确答案进行数据增强,并将经过数据增强后的正确答案作为错误答案。在一实施例中,所述数据增强包括同义词替换、停用词去除、***词或删除词中的至少一种。
另外,数据增强也可以包括打乱句子顺序或者随机Mask掉原始文本中的某些词等方式。
S103、根据所述问题、所述错误答案和所述正确答案确定所述样本问答对的第一分数。
其中,第一分数表示正确答案在该问题所有答案中的排序情况。在得到错误答案后,可以通过神经网络分别得到问题、错误答案和正确答案各自对应的句向量,然后再根据各自的句向量确定样本问答对的第一分数。
在一实施例中,请参考图2,图2为本申请实施例提供的确定样本问答对的第一分数的步骤示意流程图。如图2所示,所述根据所述问题、所述错误答案和所述正确答案确定所述样本问答对的第一分数的步骤可以包括:S1031、计算所述问题与所述正确答案的第一相似度以及所述问题和所述错误答案的第二相似度;S1032、根据所述第一相似度和所述第二相似度确定所述样本问答对的第一分数。
第一分数可以是根据样本问答对中的问题与正确答案之间的第一相似度,以及计算样本问答对中的问题和错误答案之间的第二相似度来确定的,分别计算第一相似度和第二相似度后,对正确答案和错误答案进行排序,根据正确答案在所有答案中的顺位来确定第一分数。
在一实施例中,所述计算所述问题与所述正确答案的第一相似度以及所述问题和所述错误答案的第二相似度的步骤可以包括:对所述问题、所述正确答案和所述错误答案进行分组,得到多个样本组;根据多个所述样本组对第一神经网络进行多次训练,以得到所述第一神经网络预测的所述问题对应的第一句向量、所述正确答案对应的第二句向量和所错误答案对应的第三句向量;计算所述第一句向量和所述第二句向量之间的余弦相似度,得到所述问题与所述正确答案的第一相似度;以及计算所述第一句向量和所述第三句向量之间的余弦相似度,得到所述问题与所述错误答案的第二相似度。
其中,由于问答对中的答案的长度一般不会太长,因此第一神经网络可以是双向长短期记忆网络,当然也可以根据数据情况使用其他类型的网络作为第一神经网络进行句向量的特征提取。
例如图3所示,为第一神经网络的结构示意图,第一神经网络可以包括输入层、第一隐藏层、第二隐藏层和输出层。其中,第一隐藏层为正向的计算,第二隐藏层为反向的计算,将第一隐藏层的输出和第二隐藏层的输出共同输入至输出层进行最大池化,即可得到句向量。
在具体实施过程中,可以使用样本问答对和进行数据增强得到的错误答案对第一神经网络进行训练。在使用样本问答对和错误答案对第一神经网络进行训练时,可以根据样本问答对中的问题将样本问答对和错误答案均分为多个样本组,使用其中一个样本组作为测试集,其他样本组作为训练集对第一神经网络进行训练。
例如,若样本问答对共有1000对,每一个样本问答对中都包括问题和正确答案,那么有1000个正确答案和1000个问题,对正确答案进行数据增强后得到错误答案1000个。那么根据问题进行均分时,可以分为ABCDE共5个样本组,每个样本组都包括200个问题以及问题所对应的正确答案和错误答案,那么第一神经网络的训练过程可以为:
首先将ABCD四个样本组作为训练集对第一神经网络进行第一次训练,然后利用第一次训练得到的第一神经网络对E样本组进行预测,得到E样本组中问题所对应的第一句向量、正确答案所对应的第二句向量和错误答案所对应的第三句向量。
再对ABCE四个样本组作为训练集对第一神经网络进行第二次训练,然后利用第二次训练得到的第一神经网络对D样本组进行预测,得到D样本组中问题所对应的第一句向量、正确答案所对应的第二句向量和错误答案所对应的第三句向量。
再对ABDE四个样本组作为训练集对第一神经网络进行第三次训练,然后利用第三次训练得到的第一神经网络对C样本组进行预测,得到C样本组中问题所对应的第一句向量、正确答案所对应的第二句向量和错误答案所对应的第三句向量。
再对ACDE四个样本组作为训练集对第一神经网络进行第四次训练,然后利用第四次训练得到的第一神经网络对B样本组进行预测,得到B样本组中问题所对应的第一句向量、正确答案所对应的第二句向量和错误答案所对应的第三句向量。
再对BCDE四个样本组作为训练集对第一神经网络进行第五次训练,然后利用第五次训练得到的第一神经网络对A样本组进行预测,得到A样本组中问题所对应的第一句向量、正确答案所对应的第二句向量和错误答案所对应的第三句向量。
将每次训练第一神经网络预测的各个样本组的预测值进行拼接,由此可以得到所有问题对应的第一句向量、正确答案对应的第二句向量和错误答案对应的第三句向量。
然后基于第一句向量、第二句向量和第三句向量来计算第一相似度和第二相似度。在具体实施过程中,可以通过余弦函数来分别计算第一相似度和第二相似度,也即可以通过句向量之间的cosine值来计算第一相似度和第二相似度。第一相似度的值越大,则说明问题与正确答案之间越相似,同样的,第二相似度的值越大,说明问题和错误答案之间越相似。
例如,q为问题的第一句向量表示,a+为正确答案的第二句向量表示,a-为错误答案的第三句向量表示,那么第一相似度可以表示为cosine(q,a+),第二相似度则可以表示为cosine(q,a-)。
在一实施例中,所述根据所述第一相似度和所述第二相似度确定所述样本问答对的第一分数的步骤可以包括:
按照预设公式,根据所述第一相似度和所述第二相似度确定所述样本问答对的第一分数;所述预设公式包括:
L=max{0,M-C0+C1}
其中,L表示第一分数,M表示常数,C0表示第一相似度,C1表示第二相似度。
在计算第一相似度和第二相似度时,可以通过句向量来计算问题与正确答案以及问题与错误答案之间的相似度。
第一相似度的值越大,则说明问题与正确答案之间越相似,而第二相似度的值越大,说明问题和错误答案之间越相似,因此,问题与正确答案之间越相似,那么第一分数就会越低,该正确答案在该问题的所有答案中的排序越靠前,反之,问题与错误答案之间越相似,那么第一分数就会越高,该错误答案在该问题的所有答案中的排序越靠前,正确答案在该问题的所有答案中的排序也会相对靠后。
S104、对所述样本问答对进行语序评分,得到所述样本问答对的第二分数。
其中,第二分数表示样本问答对中问题和/或正确答案的语序合理程度。在对样本问答对进行语序评分时,可以根据神经网络对样本问答对中问题和/或正确答案分别进行语序合理化的预测,从而得到第二分数。
在一实施例中,所述对所述样本问答对进行语序评分的步骤包括:对所述样本问答对的问题进行语序评分;和/或对所述样本问答对的正确答案进行语序评分。
在具体实施过程中,既可以对样本问答对中的问题进行语序评分,判断问题的语序是否合理,是否正确用词;也可以对样本问答对中得到正确答案进行语序评分,判断正确答案的语序是否合理,是否正确用词;也可以既对样本问答对中的问题进行语序评分,还对样本问答对中的正确答案进行语序评分。
可以理解的是,在使用神经网络对样本问答对进行语序评分时,对于样本问答对中的问题和正确答案,可以分别训练不同的神经网络来进行语序评分。
在一实施例中,所述对所述样本问答对进行语序评分的步骤可以包括:对所述样本问答对进行分组,得到多个样本组;根据多个所述样本组对第二神经网络进行多次训练,以得到所述第一神经网络预测的所述样本问答的语序评分。
在具体实施过程中,可以使用样本问答对对第二神经网络进行训练。在使用样本问答对第二神经网络进行训练时,可以将样本问答对均分为多个样本组,使用其中一个样本组作为测试集,其他样本组作为训练集对第二神经网络进行训练。
以训练能够对问答对中的问题进行语序评分的第二神经网络为例,若样本问答对共有1000对,那么可以将样本问答对均分为ABCDE共5个样本组,每个样本组都包括200个问题,那么第二神经网络的训练过程可以为:
首先将ABCD四个样本组作为训练集对第二神经网络进行第一次训练,然后利用第一次训练得到的第二神经网络对E样本组进行预测,得到E样本组中问题所对应的语序评分。
再将ABCE四个样本组作为训练集对第二神经网络进行第二次训练,然后利用第二次训练得到的第二神经网络对D样本组进行预测,得到D样本组中问题所对应的语序评分。
再将ABDE四个样本组作为训练集对第二神经网络进行第二次训练,然后利用第二次训练得到的第二神经网络对C样本组进行预测,得到C样本组中问题所对应的语序评分。
再将ACDE四个样本组作为训练集对第二神经网络进行第二次训练,然后利用第二次训练得到的第二神经网络对B样本组进行预测,得到B样本组中问题所对应的语序评分。
再将BCDE四个样本组作为训练集对第二神经网络进行第二次训练,然后利用第二次训练得到的第二神经网络对A样本组进行预测,得到A样本组中问题所对应的语序评分。
将每次训练第二神经网络预测的各个样本组的预测值进行拼接,由此可以得到所有问题对应的语序评分。
在具体实施过程中,也可以对样本问答对中的部分问题进行乱序处理,并将训练问答对中的问题和经过乱序处理的问题分别作为正负样本输入第二神经网络中,对第二神经网络进行训练。
同样的,在对样本问答对中的正确答案进行语序评分时,也可以使用上述的训练过程来对第二神经网络进行训练,从而得到第二神经网络预测的正确答案的语序评分。
S105、根据所述第一分数和所述第二分数对分类模型进行迭代训练,并将训练完成的所述分类模型作为问答对评分模型。
然后将样本问答对的第一分数和第二分数共同作为训练集再输入至分类模型中进行训练,将训练完成的分类模型作为预先训练的问答对评分模型。其中,问答对评分模型是用于评估答案是否合规的二分类模型,通过问答对评分模型的输出对问答对的质量进行评价。
请参考图4,为本申请实施例提供的问答对评分模型的训练架构示意图。如图4所示,本申请中问答对评分模型的训练过程包括:
对样本问答对中的正确答案进行数据增强,得到错误答案。然后基于问题、正确答案和错误答案对第一神经网络进行训练,并得到第一神经网络输出的预测结果,也即第一分数。并且基于样本问答对对第二神经网络进行训练,并得到第二神经网络输出的预测结果,也即第二分数。
然后再将得到的第一分数和第二分数共同作为最后一个分类模型的输入来对该分类模型进行训练,从而在这个分类模型训练完成时,将训练完成的分类模型作为预先训练的问答对评分模型。
这种训练方式使得问答对评分模型在训练时是结合了第一分数和第二分数进行的二分类,考虑了样本问答对中正确答案在该问题的所有答案中的顺序和样本问答对的语序合理化程度,从而提高了得到的问答对评分模型在对问答对进行评分时的全面程度,提高评分结果的准确性。
上述实施例提供的问答对评分模型的训练方法,通过获取样本问答对,样本问答对包括问题和问题对应的正确答案,然后对正确答案进行数据增强,得到错误答案,再根据问题、错误答案和正确答案确定样本问答对的第一分数,以及对样本问答对进行语序评分,得到样本问答对的第二分数,最后根据第一分数和第二分数对分类模型进行迭代训练,并将训练完成的分类模型作为问答对评分模型。在训练问答对评分模型时结合样本问答对中正确答案在该问题的所有答案中的顺序和样本问答对的语序合理化程度两方面,从而提高了得到的问答对评分模型在对问答对进行评分时的全面程度,提高评分结果的准确性。
请参阅图5,图5是本申请的实施例还提供一种问答对评分模型的训练装置的示意性框图,该问答对评分模型的训练装置用于执行前述的问答对评分模型的训练方法。其中,该问答对评分模型的训练装置可以配置于服务器或终端中。
其中,服务器可以为独立的服务器,也可以为服务器集群。该终端可以是手机、平板电脑、笔记本电脑、台式电脑、个人数字助理和穿戴式设备等电子设备。
如图5所示,问答对评分模型的训练装置200包括:样本获取模块201、数据增强模块202、第一分数模块203、第二分数模块204和模型训练模块205。
样本获取模块201,用于获取样本问答对,所述样本问答对包括问题和所述问题对应的正确答案。
数据增强模块202,用于对所述正确答案进行数据增强,得到错误答案。
第一分数模块203,用于根据所述问题、所述错误答案和所述正确答案确定所述样本问答对的第一分数。
在一实施例中,第一分数模块203包括相似计算子模块2031和分数计算子模块2032。
其中,相似计算子模块2031用于计算所述问题与所述正确答案的第一相似度以及所述问题和所述错误答案的第二相似度;分数计算子模块2032用于根据所述第一相似度和所述第二相似度确定所述样本问答对的第一分数。
第二分数模块204,用于对所述样本问答对进行语序评分,得到所述样本问答对的第二分数。
模型训练模块205,用于根据所述第一分数和所述第二分数对分类模型进行迭代训练,并将训练完成的所述分类模型作为问答对评分模型。
在一实施例中,相似计算子模块可以包括样本分组子模块、向量预测子模块和余弦计算子模块。
其中,样本分组子模块用于对所述问题、所述正确答案和所述错误答案进行分组,得到多个样本组;向量预测子模块用于根据多个所述样本组对第一神经网络进行多次训练,以得到所述第一神经网络预测的所述问题对应的第一句向量、所述正确答案对应的第二句向量和所错误答案对应的第三句向量;余弦计算子模块用于计算所述第一句向量和所述第二句向量之间的余弦相似度,得到所述问题与所述正确答案的第一相似度;以及计算所述第一句向量和所述第三句向量之间的余弦相似度,得到所述问题与所述错误答案的第二相似度。
在一实施例中,分数计算子模块包括预设计算子模块。
其中,预设计算子模块用于按照预设公式,根据所述第一相似度和所述第二相似度确定所述样本问答对的第一分数;
所述预设公式包括:
L=max{0,M-C0+C1}
其中,L表示第一分数,M表示常数,C0表示第一相似度,C1表示第二相似度。
在一实施例中,第二分数模块包括问题评分子模块和/或答案评分子模块。
其中,问题评分子模块用于对所述样本问答对的问题进行语序评分;答案评分子模块用于对所述样本问答对的正确答案进行语序评分。
在一实施例中,第二分数模块包括样本分组子模块和评分预测子模块。
其中,样本分组子模块用于对所述样本问答对进行分组,得到多个样本组;评分预测子模块用于根据多个所述样本组对第二神经网络进行多次训练,以得到所述第一神经网络预测的所述样本问答的语序评分。
需要说明的是,所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,上述描述的问答对评分模型的训练装置和各模块的具体工作过程,可以参考前述问答对评分模型的训练方法实施例中的对应过程,在此不再赘述。
上述的问答对评分模型的训练装置可以实现为一种计算机程序的形式,该计算机程序可以在如图6所示的计算机设备上运行。
请参阅图6,图6是本申请实施例提供的一种计算机设备的结构示意性框图。该计算机设备可以是服务器或终端。
参阅图6,该计算机设备包括通过***总线连接的处理器、存储器和网络接口,其中,存储器可以包括非易失性存储介质和内存储器。
非易失性存储介质可存储操作***和计算机程序。该计算机程序包括程序指令,该程序指令被执行时,可使得处理器执行任意一种问答对评分模型的训练方法。
处理器用于提供计算和控制能力,支撑整个计算机设备的运行。
内存储器为非易失性存储介质中的计算机程序的运行提供环境,该计算机程序被处理器执行时,可使得处理器执行任意一种问答对评分模型的训练方法。
该网络接口用于进行网络通信,如发送分配的任务等。本领域技术人员可以理解,图6中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
应当理解的是,处理器可以是中央处理单元(Central Processing Unit,CPU),该处理器还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。其中,通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
其中,在一个实施例中,所述处理器用于运行存储在存储器中的计算机程序,以实现如下步骤:
获取样本问答对,所述样本问答对包括问题和所述问题对应的正确答案;
对所述正确答案进行数据增强,得到错误答案;
根据所述问题、所述错误答案和所述正确答案确定所述样本问答对的第一分数;
对所述样本问答对进行语序评分,得到所述样本问答对的第二分数;
根据所述第一分数和所述第二分数对分类模型进行迭代训练,并将训练完成的所述分类模型作为问答对评分模型。
在一个实施例中,所述处理器在实现所述根据所述问题、所述错误答案和所述正确答案确定所述样本问答对的第一分数时,用于实现:
计算所述问题与所述正确答案的第一相似度以及所述问题和所述错误答案的第二相似度;
根据所述第一相似度和所述第二相似度确定所述样本问答对的第一分数。
在一个实施例中,所述处理器在实现所述计算所述问题与所述正确答案的第一相似度以及所述问题和所述错误答案的第二相似度时,用于实现:
对所述问题、所述正确答案和所述错误答案进行分组,得到多个样本组;
根据多个所述样本组对第一神经网络进行多次训练,以得到所述第一神经网络预测的所述问题对应的第一句向量、所述正确答案对应的第二句向量和所错误答案对应的第三句向量;
计算所述第一句向量和所述第二句向量之间的余弦相似度,得到所述问题与所述正确答案的第一相似度;以及
计算所述第一句向量和所述第三句向量之间的余弦相似度,得到所述问题与所述错误答案的第二相似度。
在一个实施例中,所述处理器在实现所述根据所述第一相似度和所述第二相似度确定所述样本问答对的第一分数时,用于实现:
按照预设公式,根据所述第一相似度和所述第二相似度确定所述样本问答对的第一分数;
所述预设公式包括:
L=max{0,M-C0+C1}
其中,L表示第一分数,M表示常数,C0表示第一相似度,C1表示第二相似度。
在一个实施例中,所述处理器在实现所述对所述样本问答对进行语序评分时,用于实现:
对所述样本问答对的问题进行语序评分;和/或
对所述样本问答对的正确答案进行语序评分。
在一个实施例中,所述处理器在实现所述对所述样本问答对进行语序评分时,用于实现:
对所述样本问答对进行分组,得到多个样本组;
根据多个所述样本组对第二神经网络进行多次训练,以得到所述第一神经网络预测的所述样本问答的语序评分。
在一个实施例中,所述数据增强包括同义词替换、停用词去除、***词或删除词中的至少一种。
本申请的实施例中还提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序中包括程序指令,所述处理器执行所述程序指令,实现本申请实施例提供的任一项问答对评分模型的训练方法。
其中,所述计算机可读存储介质可以是前述实施例所述的计算机设备的内部存储单元,例如所述计算机设备的硬盘或内存。所述计算机可读存储介质也可以是所述计算机设备的外部存储设备,例如所述计算机设备上配备的插接式硬盘,智能存储卡(SmartMedia Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。
以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以权利要求的保护范围为准。

Claims (10)

1.一种问答对评分模型的训练方法,其特征在于,所述方法包括:
获取样本问答对,所述样本问答对包括问题和所述问题对应的正确答案;
对所述正确答案进行数据增强,得到错误答案;
根据所述问题、所述错误答案和所述正确答案确定所述样本问答对的第一分数;
对所述样本问答对进行语序评分,得到所述样本问答对的第二分数;
根据所述第一分数和所述第二分数对分类模型进行迭代训练,并将训练完成的所述分类模型作为问答对评分模型。
2.根据权利要求1所述的问答对评分模型的训练方法,其特征在于,所述根据所述问题、所述错误答案和所述正确答案确定所述样本问答对的第一分数,包括:
计算所述问题与所述正确答案的第一相似度以及所述问题和所述错误答案的第二相似度;
根据所述第一相似度和所述第二相似度确定所述样本问答对的第一分数。
3.根据权利要求2所述的问答对评分模型的训练方法,其特征在于,所述计算所述问题与所述正确答案的第一相似度以及所述问题和所述错误答案的第二相似度,包括:
对所述问题、所述正确答案和所述错误答案进行分组,得到多个样本组;
根据多个所述样本组对第一神经网络进行多次训练,以得到所述第一神经网络预测的所述问题对应的第一句向量、所述正确答案对应的第二句向量和所错误答案对应的第三句向量;
计算所述第一句向量和所述第二句向量之间的余弦相似度,得到所述问题与所述正确答案的第一相似度;以及
计算所述第一句向量和所述第三句向量之间的余弦相似度,得到所述问题与所述错误答案的第二相似度。
4.根据权利要求2所述的问答对评分模型的训练方法,其特征在于,所述根据所述第一相似度和所述第二相似度确定所述样本问答对的第一分数,包括:
按照预设公式,根据所述第一相似度和所述第二相似度确定所述样本问答对的第一分数;
所述预设公式包括:
L=max{0,M-C0+C1}
其中,L表示第一分数,M表示常数,C0表示第一相似度,C1表示第二相似度。
5.根据权利要求1所述的问答对评分模型的训练方法,其特征在于,所述对所述样本问答对进行语序评分,包括:
对所述样本问答对的问题进行语序评分;和/或
对所述样本问答对的正确答案进行语序评分。
6.根据权利要求1所述的问答对评分模型的训练方法,其特征在于,所述对所述样本问答对进行语序评分,包括:
对所述样本问答对进行分组,得到多个样本组;
根据多个所述样本组对第二神经网络进行多次训练,以得到所述第一神经网络预测的所述样本问答的语序评分。
7.根据权利要求1所述的问答对评分模型的训练方法,其特征在于,所述数据增强包括同义词替换、停用词去除、***词或删除词中的至少一种。
8.一种问答对评分模型的训练装置,其特征在于,包括:
样本获取模块,用于获取样本问答对,所述样本问答对包括问题和所述问题对应的正确答案;
数据增强模块,用于对所述正确答案进行数据增强,得到错误答案;
第一分数模块,用于根据所述问题、所述错误答案和所述正确答案确定所述样本问答对的第一分数;
第二分数模块,用于对所述样本问答对进行语序评分,得到所述样本问答对的第二分数;
模型训练模块,用于根据所述第一分数和所述第二分数对分类模型进行迭代训练,并将训练完成的所述分类模型作为问答对评分模型。
9.一种计算机设备,其特征在于,所述计算机设备包括存储器和处理器;
所述存储器用于存储计算机程序;
所述处理器,用于执行所述计算机程序并在执行所述计算机程序时实现如权利要求1至7中任一项所述的问答对评分模型的训练方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时使所述处理器实现如权利要求1至7中任一项所述的问答对评分模型的训练方法。
CN202210182951.XA 2022-02-25 2022-02-25 问答对评分模型的训练方法、装置、设备及存储介质 Pending CN114528391A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210182951.XA CN114528391A (zh) 2022-02-25 2022-02-25 问答对评分模型的训练方法、装置、设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210182951.XA CN114528391A (zh) 2022-02-25 2022-02-25 问答对评分模型的训练方法、装置、设备及存储介质

Publications (1)

Publication Number Publication Date
CN114528391A true CN114528391A (zh) 2022-05-24

Family

ID=81624463

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210182951.XA Pending CN114528391A (zh) 2022-02-25 2022-02-25 问答对评分模型的训练方法、装置、设备及存储介质

Country Status (1)

Country Link
CN (1) CN114528391A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115129816A (zh) * 2022-07-04 2022-09-30 北京百度网讯科技有限公司 问答匹配模型的训练方法、装置及电子设备
CN115544236A (zh) * 2022-11-16 2022-12-30 北京红棉小冰科技有限公司 一种模型评估方法、装置及电子设备

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115129816A (zh) * 2022-07-04 2022-09-30 北京百度网讯科技有限公司 问答匹配模型的训练方法、装置及电子设备
CN115129816B (zh) * 2022-07-04 2024-05-14 北京百度网讯科技有限公司 问答匹配模型的训练方法、装置及电子设备
CN115544236A (zh) * 2022-11-16 2022-12-30 北京红棉小冰科技有限公司 一种模型评估方法、装置及电子设备

Similar Documents

Publication Publication Date Title
US20210232760A1 (en) Optimization techniques for artificial intelligence
CN108804641B (zh) 一种文本相似度的计算方法、装置、设备和存储介质
CN112287670A (zh) 文本纠错方法、***、计算机设备及可读存储介质
US11048875B2 (en) Skimming data sequences using recurrent neural networks
CN111382255A (zh) 用于问答处理的方法、装置、设备和介质
CN110390052B (zh) 搜索推荐方法、ctr预估模型的训练方法、装置及设备
RU2664481C1 (ru) Способ и система выбора потенциально ошибочно ранжированных документов с помощью алгоритма машинного обучения
CN111563158B (zh) 文本排序方法、排序装置、服务器和计算机可读存储介质
CN114528391A (zh) 问答对评分模型的训练方法、装置、设备及存储介质
CN111767393A (zh) 一种文本核心内容提取方法及装置
CN111782826A (zh) 知识图谱的信息处理方法、装置、设备及存储介质
CN111832312A (zh) 文本处理方法、装置、设备和存储介质
CN110990533A (zh) 确定查询文本所对应标准文本的方法及装置
CN112287656B (zh) 文本比对方法、装置、设备和存储介质
CN112307048B (zh) 语义匹配模型训练方法、匹配方法、装置、设备及存储介质
CN103744889A (zh) 一种用于对问题进行聚类处理的方法与装置
CN112101042A (zh) 文本情绪识别方法、装置、终端设备和存储介质
CN112380421A (zh) 简历的搜索方法、装置、电子设备及计算机存储介质
CN114021718A (zh) 模型行为可解释性方法、***、介质及设备
CN117573985B (zh) 一种应用于智能化在线教育***的信息推送方法及***
CN113239697B (zh) 实体识别模型训练方法、装置、计算机设备及存储介质
CN110852071A (zh) 知识点检测方法、装置、设备及可读存储介质
CN112541069A (zh) 一种结合关键词的文本匹配方法、***、终端及存储介质
CN112560463A (zh) 文本多标注方法、装置、设备及存储介质
CN110717008B (zh) 基于语意识别的搜索结果排序方法及相关装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination