CN116795972A - 一种模型训练的方法、装置、存储介质及电子设备 - Google Patents

一种模型训练的方法、装置、存储介质及电子设备 Download PDF

Info

Publication number
CN116795972A
CN116795972A CN202311010097.XA CN202311010097A CN116795972A CN 116795972 A CN116795972 A CN 116795972A CN 202311010097 A CN202311010097 A CN 202311010097A CN 116795972 A CN116795972 A CN 116795972A
Authority
CN
China
Prior art keywords
sentence
source
semantic
model
generator
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202311010097.XA
Other languages
English (en)
Other versions
CN116795972B (zh
Inventor
谢冰
宋伟
朱世强
王雨菡
赵鑫安
尹越
袭向明
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang Lab
Original Assignee
Zhejiang Lab
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang Lab filed Critical Zhejiang Lab
Priority to CN202311010097.XA priority Critical patent/CN116795972B/zh
Publication of CN116795972A publication Critical patent/CN116795972A/zh
Application granted granted Critical
Publication of CN116795972B publication Critical patent/CN116795972B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Machine Translation (AREA)

Abstract

本说明书公开了一种模型训练的方法、装置、存储介质及电子设备,将若干个独立表达句输入该模型的生成器,以得到融合句,并将该融合句加入训练数据集,将该训练数据集中的待判别句输入该模型的来源判别器,以确定待判别句是否为原始句的判别结果,根据该判别结果分别确定该来源判别器的来源判别损失及生成器的来源生成损失,根据该来源生成损失及该来源判别损失,对该模型进行训练,其中,该模型的生成器用于将回复用户的若干独立表达句进行融合。本方法通过对模型中的生成器和来源判别器进行对抗训练,以使生成器生成接近原始句的融合句,获得语序正常、内容衔接自然不生硬的句子,来源判别器更精准判断输入的句子是否为原始句。

Description

一种模型训练的方法、装置、存储介质及电子设备
技术领域
本说明书涉及人工智能领域,尤其涉及一种模型训练的方法、装置、存储介质及电子设备。
背景技术
随着人工智能的发展,智能机器人应用于各个领域,例如,聊天机器人。为了让用户有良好的聊天体验,聊天机器人可在回复用户问题的同时,引入新的话题。由于回复给用户的内容及新的话题可能存在相同的人称代词或相关联的内容,若仅将回复给用户的内容及新的话题拼凑在一起,那么,展示给用户的聊天内容会较为生硬。例如,用户的问题为:“张三有哪些专利?”,聊天机器人可回复:“张三的专利有……”,为了引入新的话题,聊天机器人还可增加回复:“张三参加过长跑活动”显然,聊天机器人回复给用户的内容为:“张三的专利有……,张三参加过长跑活动”,但该回复内容十分生硬,影响用户的聊天体验。
基于此,本说明书提供一种模型训练的方法。
发明内容
本说明书提供一种模型训练的方法、装置、存储介质及电子设备,以部分的解决现有技术存在的上述问题。
本说明书采用下述技术方案:
本说明书提供了一种模型训练的方法,包括:
将原始句拆分为若干个独立表达句,并将所述原始句加入训练数据集;
将各独立表达句输入所述模型的生成器,以通过所述生成器对所述各独立表达句进行融合,得到融合句;并,将所述融合句加入所述训练数据集;
将所述训练数据集中的待判别句输入所述模型的来源判别器,以得到所述来源判别器输出的判断所述待判别句是否为原始句的判别结果;
根据所述来源判别器的判别结果及所述待判别句的来源标签,确定所述来源判别器的来源判别损失;并,根据所述来源判别器的判别结果、所述待判别句的来源标签及所述待判别句对应的原始句,确定所述生成器的来源生成损失;
根据所述来源生成损失及所述来源判别损失,对所述模型进行对抗训练,其中,所述模型的生成器用于将回复用户的若干独立表达句进行融合。
可选地,根据所述来源判别器的判别结果、所述待判别句的来源标签及所述待判别句对应的原始句,确定所述生成器的来源生成损失,具体包括:
若所述来源判别器的判别结果与所述待判别句的来源标签不一致,则确定所述待判别句与所述待判别句对应的原始句的语序差异;
根据所述语序差异,确定所述生成器的来源生成损失。
可选地,所述方法还包括:
将所述待判别句及所述待判别句对应的独立表达句输入所述模型的语义判别器,以得到所述语义判别器输出的判断所述待判别句的语义与所述待判别句对应的独立表达句的语义是否一致的判别结果;
根据所述语义判别器输出的判别结果,对所述模型进行对抗训练。
可选地,根据所述语义判别器输出的判别结果,对所述模型进行对抗训练,具体包括:
根据所述语义判别器输出的判别结果及所述待判别句的语义标签,确定所述语义判别器的语义判别损失;并,根据所述语义判别器的判别结果、所述待判别句的语义标签及所述待判别句对应的独立表达句,确定所述生成器的语义生成损失;
根据所述语义生成损失及所述语义判别损失,对所述模型进行对抗训练。
可选地,根据所述语义判别器的判别结果、所述待判别句的语义标签及所述待判别句对应的原始句,确定所述生成器的语义生成损失,具体包括:
若所述语义判别器的判别结果与所述待判别句的语义标签不一致,则确定所述待判别句与所述待判别句对应的独立表达句的语义差异;
根据所述语义差异,确定所述生成器的语义生成损失。
可选地,所述方法还包括:
将若干用于回复用户的独立表达句输入所述模型的所述生成器中,以获得所述生成器输出的融合句,并展示。
可选地,所述生成器包括双向自回归变压器;所述来源判别器包括BERT模型及线性分类器。
本说明书提供了一种模型训练的装置,包括:
独立表达句获取模块,用于将原始句拆分为若干个独立表达句,并将所述原始句加入训练数据集;
融合句获取模块,用于将各独立表达句输入所述模型的生成器,以通过所述生成器对所述各独立表达句进行融合,得到融合句;并,将所述融合句加入所述训练数据集;
语序判别结果模块,用于将所述训练数据集中的待判别句输入所述模型的来源判别器,以得到所述来源判别器输出的判断所述待判别句是否为原始句的判别结果;
损失确定模块,用于根据所述来源判别器的判别结果及所述待判别句的来源标签,确定所述来源判别器的来源判别损失;并,根据所述来源判别器的判别结果、所述待判别句的来源标签及所述待判别句对应的原始句,确定所述生成器的来源生成损失;
模型训练模块,用于根据所述来源生成损失及所述来源判别损失,对所述模型进行对抗训练,其中,所述模型的生成器用于将回复用户的若干独立表达句进行融合。
可选地,所述损失确定模块具体用于,若所述来源判别器的判别结果与所述待判别句的来源标签不一致,则确定所述待判别句与所述待判别句对应的原始句的语序差异;根据所述语序差异,确定所述生成器的来源生成损失。
可选地,所述装置还包括:
语义训练模块,用于将所述待判别句及所述待判别句对应的独立表达句输入所述模型的语义判别器,以得到所述语义判别器输出的判断所述待判别句的语义与所述待判别句对应的独立表达句的语义是否一致的判别结果;根据所述语义判别器输出的判别结果,对所述模型进行对抗训练。
可选地,所述语义判断模块具体用于,根据所述语义判别器输出的判别结果及所述待判别句的语义标签,确定所述语义判别器的语义判别损失;并,根据所述语义判别器的判别结果、所述待判别句的语义标签及所述待判别句对应的独立表达句,确定所述生成器的语义生成损失;根据所述语义生成损失及所述语义判别损失,对所述模型进行对抗训练。
可选地,所述语义判断模块具体用于,若所述语义判别器的判别结果与所述待判别句的语义标签不一致,则确定所述待判别句与所述待判别句对应的独立表达句的语义差异;根据所述语义差异,确定所述生成器的语义生成损失。
可选地,所述装置还包括:
应用模块,用于将若干用于回复用户的独立表达句输入所述模型的所述生成器中,以获得所述生成器输出的融合句,并展示。
可选地,所述生成器包括双向自回归变压器;所述来源判别器包括BERT模型及线性分类器。
本说明书提供了一种计算机可读存储介质,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述模型训练的方法。
本说明书提供了一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现上述模型训练的方法。
本说明书采用的上述至少一个技术方案能够达到以下有益效果:
本说明书提供的一种模型训练的方法中可以看出,本方法通过对模型中的生成器和来源判别器进行对抗训练,以使生成器生成接近原始句的融合句,获得语序正常、内容衔接自然不生硬的句子,来源判别器更精准判断输入的句子是否为原始句。
附图说明
此处所说明的附图用来提供对本说明书的进一步理解,构成本说明书的一部分,本说明书的示意性实施例及其说明用于解释本说明书,并不构成对本说明书的不当限定。在附图中:
图1为本说明书中提供的一种模型训练的方法的流程示意图;
图2为本说明书提供的一种生成对抗网络模型的内部结构示意图;
图3为本说明书提供的另一种生成器的内部结构示意图;
图4为本说明书提供的一种来源判别器的内部结构示意图;
图5为本说明书提供的一种生成对抗网络模型的内部结构示意图;
图6为本说明书提供的一种语义判别器的内部结构示意图;
图7为本说明书提供的一种模型训练的装置的示意图;
图8为本说明书提供的一种对应于图1的电子设备的结构示意图。
具体实施方式
为使本说明书的目的、技术方案和优点更加清楚,下面将结合本说明书具体实施例及相应的附图对本说明书技术方案进行清楚、完整地描述。显然,所描述的实施例仅是本说明书一部分实施例,而不是全部的实施例。基于本说明书中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本说明书保护的范围。
以下结合附图,详细说明本说明书各实施例提供的技术方案。
图1为本说明书中提供的一种模型训练的方法的流程示意图,包括以下步骤:
S100:将原始句拆分为若干个独立表达句,并将所述原始句加入训练数据集。
通常聊天机器人在回复用户的问题以及为用户引入新的话题时,只是将多个相关联的内容进行拼接,最终呈现给用户的内容比较生硬,例如,聊天机器人给用户的回复为:“张三身高188厘米,张三爱打篮球。”,因此本说明书提供一种模型训练的方法。聊天机器人可通过该模型将给定的若干条内容有关联的句子进行融合,并且,融合生成的内容流利通顺。本说明书的执行主体可以是用于训练模型的服务器,也可以是用于回复用户的聊天机器人或其他电子设备。为了便于说明,下面仅以服务器为执行主体,对本说明书提供的一种模型训练的方法进行说明。
本说明书通过对生成对抗网络模型进行训练,以通过该生成对抗网络中的生成器获取用于回复用户的内容。
图2为本说明书提供的一种生成对抗网络模型的内部结构示意图,如图2所示。
为了训练该生成对抗网络模型中的生成器,首先需要获取用于训练该生成器的训练样本,该训练样本包括独立表达句。服务器在获取独立表达句时,可将原始句拆分为若干个独立表达句。也就是说,独立表达句可通过原始句获得,即将原始句中的代称及简称替换为该代词所指代的实体的全称,并将原始句中的用于连接句子的连词用句号替换。
例如,原始句为:“麦某某说:“给我一双高跟鞋,我就能征服世界……”。男人可能不屑一顾,但是我是相信她的。”,将“给我一双高跟鞋,我就能征服世界……”中的“我”以及“但是我是相信她的”中的“她”均替换为“麦某某”得到独立表达句:“麦某某说:“给麦某某一双高跟鞋,麦某某就能征服世界……”。男人可能不屑一顾,但是我是相信麦某某的。”。原始句包括指代消解数据集中的任一句子。需要说明的是,原始句可以是多个句子,也可以是一个句子,本说明书对此不作限制。其中,指代消解任务是将代表同一实体的不同指称划分到一个等价集合的过程,指代消解数据集中的任一句子可为一个待解决的指代消解任务。也就是说,原始句中可包括实体的全称、代称及简称,该实体的全称、代称及简称即为指称。沿用上述例子,麦某某·西科尼为实体,且为麦某某·西科尼这个实体的全称,“麦某某”为麦某某·西科尼这个实体的简称,“给我一双高跟鞋,我就能征服世界……”中的“我”为麦某某·西科尼这个实体的代称。
为了便于后续训练该生成对抗网络模型的判别器以及确定若干个独立表达句的标签,服务器还可将该原始句加入训练数据集。
S102:将各独立表达句输入所述模型的生成器,以通过所述生成器对所述各独立表达句进行融合,得到融合句;并,将所述融合句加入所述训练数据集。
在本说明书一个或多个实施例中,该生成对抗网络模型还包括来源判别器。为了确定该来源判别器的来源判别损失,以通过该来源判别损失,提高该来源判别器的判别结果的准确性,以及确定该生成器的来源生成损失,以通过该来源生成损失,提高该生成器生成的融合句的内容的流畅度,服务器可将各独立表达句输入该模型的生成器,以通过该生成器对各独立表达句进行融合,得到融合句,并将该融合句加入该训练数据集。
具体的,图3为本说明书提供的一种生成器的内部结构示意图,如图3所示。
该生成器包括双向自回归变压器(BidirectionalandAuto-RegressiveTransformers,BART),服务器将各独立表达句输入该生成器的编码器中,并根据该生成器的解码器获得融合句。将各独立表达句输入该生成器时,以句号、问号或者感叹号将独立表达句子拆开,以[CLS]符号开始,按顺序拼接上拆开的独立表达句子,并用[SEP]分隔,在结尾拼接[SEP]。沿用上述例子:“麦某某说:“给麦某某一双高跟鞋,麦某某就能征服世界……”。男人可能不屑一顾,但是我是相信她的。”,则输入该生成器的输入格式为:“[CLS]麦某某说:“给麦某某一双高跟鞋,麦某某就能征服世界……”。[SEP]男人可能不屑一顾,但是我是相信麦某某的。[SEP]”。服务器可根据不同的生成器的类型,确定将各独立表达句输入该生成器的输入格式,本说明书对此不做限制。
S104:将所述训练数据集中的待判别句输入所述模型的来源判别器,以得到所述来源判别器输出的判断所述待判别句是否为原始句的判别结果。
为了确定该来源判别器的来源判别损失,以根据该来源判别损失对该来源判别器进行训练,服务器需要先将该训练数据集中的待判别句输入该模型的来源判别器,以得到该来源判别器输出的判断该待判别句是否为原始句的判别结果。再根据该判别结果,确定来源判别损失。
具体的,图4为本说明书提供的一种来源判别器的内部结构示意图,如图4所示。
该来源判别器包括来自变换器的双向编码器表示,即BERT(BidirectionalEncoder Representation from Transformers,BERT)模型及线性分类器。服务器将该待判别句输入该来源判别器时,该待识别句先经过BERT模型的处理,再通过线性分类器,最终输出该来源判别器的判别结果。其中,该待判别句输入该来源判别器的输入格式可与步骤S102中的该待判别句输入该生成器的输入格式相同,本说明书不再赘述。该来源判别器的输出为二分类结果,该来源判别器输出的判别结果所对应的意义可根据需要设置,本说明书对此不作限制。例如,当该来源判别器输出的判别结果为1时,表示该待判别句为原始句,当该来源判别器输出的判别结果为0时,表示该待判别句不为原始句。也可以设置为当该来源判别器输出的判别结果为0时,表示该待判别句为原始句,当该来源判别器输出的判别结果为1时,表示该待判别句不为原始句。
S106:根据所述来源判别器的判别结果及所述待判别句的来源标签,确定所述来源判别器的来源判别损失。
在本说明书一个或多个实施例中,该待判别句的来源标签是指该待判别句的句子类型,如,若该待判别句为原始句,则该待判别句的来源标签为1,若该待判别句为融合句,则该待判别句的来源标签为0,该来源标签可根据需要设置,但需要与该来源判别器的判别结果所表达的意义一致。例如,若设置该待判别句为原始句时的来源标签为1,则该来源判别器的判别该待判别句为原始句时输出的判别结果的也为1,若输出0,则该来源判别器判别错误。若该来源判别器的判别结果与该待判别句的来源标签一致,则该来源判别器判别正确,当该来源判别器的判别结果与该待判别句的来源标签不一致时,则可根据以下公式确定来源判别损失:
其中,为来源判别器的来源判别损失,/>为生成器生成的样本,即融合句,/>为真实样本,即原始句。
S108:根据所述来源判别器的判别结果、所述待判别句的来源标签及所述待判别句对应的原始句,确定所述生成器的来源生成损失。
具体的,若该来源判别器的判别结果与该待判别句的来源标签不一致,则确定该待判别句与该待判别句对应的原始句的语序差异,根据该语序差异,确定该生成器的来源生成损失。当然,也可根据该待判别句与该待判别句对应的原始句的其他差异,确定该生成器的来源生成损失,本说明书对此不做限制。
S110:根据所述来源生成损失及所述来源判别损失,对所述模型进行对抗训练,其中,所述模型的生成器用于将回复用户的若干独立表达句进行融合。
具体的,以减少该来源判别损失为来源判别训练目标,训练该来源判别器,以减少该来源生成损失为来源生成训练目标,训练该生成器。训练完成的该来源判别器不仅可使该生成器生成更自然的融合句,还可用于对输入的句子进行分类。
其中,服务器也可交替训练该生成器及该来源判别器,即根据该来源判别损失,对该来源判别器进行一次训练,当该来源判别器完成一次训练后,确定该生成器的来源生成损失,根据该来源生成损失,对该生成器进行一次训练。当该生成器完成一次训练后,则该服务器完成一次迭代。
基于图1所示的一种模型训练的方法,本方法通过对模型中的生成器和来源判别器进行对抗训练,以使生成器生成接近原始句的融合句,获得语序正常、内容衔接自然不生硬的句子,来源判别器更精准判断输入的句子是否为原始句。
在执行步骤S102之前,服务器还可利用最大似然估计或其他方法,对该生成器进行训练,以使在对抗训练更稳定,并且,利用最大似然估计对该生成器进行训练时,该生成器的损失为:
其中,m为融合句的句子长度,t为第t个字符,为第t个预测字符,/>为第t个标签字符,/>为t之前已经生成的字符。
当然,也可以在执行步骤S102之前,不对该生成器进行训练,本说明书对此不作限制。
在执行步骤S102时,由于模型通常不支持直接识别文字,因此,在各独立表达句输入该生成器时,先将各独立表达句转换为该生成器可识别的整数索引或其他可识别格式。
同样地,将待判别句输入该来源判别器时,也需要做同样地处理,本说明书对此不再赘述。此外,由于该来源判别器在识别整数索引列表时,可能会出现无法求导的情况,则无法输出判别结果。因此,可利用Gumbel-softmax技巧解决不可导的问题。
具体的,生成器的生成过程可用公式表示为:
其中,为第0层的输入,s为输入句子的整数索引列表,/>为获取字嵌入矩阵运算,/>为获取位置编码矩阵运算,M为BART模型编码器的结果矩阵,/>为BART模型的编码器运算,/>为t时刻之前已生成的矩阵,/>为BART模型的解码器运算,/>为生成的t时刻向量,MLP为前馈神经网络,/>为t时刻在词库上的分布向量/>为一个长度为词汇表大小,第i维为/>的向量,g的长度为词汇表大小,每一维独立采样自标准Gumbel分布的向量。利用Straight-Throuth技巧,仅在梯度回传时用上式计算梯度。
图5为本说明书提供的另一种生成对抗网络模型的内部结构示意图,如图5所示。
虽然通过上述方法对该模型进行训练后,该模型的生成器可生成语序正常的融合句,融合句的内容可以有不同的措辞和编排,但该融合句的语义可能与对应的独立表达句的语义不相同。其中包括:缺少某一独立表达句的语义、篡改某一独立表达句的语义以及增加所有独立表达句中均未表达的信息。因此,该模型还可包含语义判别器。
图6为本说明书提供的一种语义判别器的内部结构示意图,如图6所示。
在本说明书一个或多个实施例中,该语义判别器包括SpanBERT模型及线性分类器。为了获取与独立表达句的语义相同的融合句,服务器将该待判别句及该待判别句对应的独立表达句输入该模型的语义判别器,以得到该语义判别器输出的判断该待判别句的语义与该待判别句对应的独立表达句的语义是否一致的判别结果,再根据该语义判别器输出的判别结果,对该模型进行对抗训练。
具体的,服务器根据该语义判别器输出的判别结果及该待判别句的语义标签,确定该语义判别器的语义判别损失。其中,输入该语义判别器的输入格式可与输入该生成器的输入格式相同,如[CLS]原始句[SEP]独立表达句”、“[CLS]融合句[SEP]独立表达句”或[CLS]干扰句[SEP]独立表达句等。待判别句的语义标签是指该待判别句的语义是否与该待判别句对应的独立表达句的语义一致,若一致,则该语义标签为1,反之为0,可根据需要设置。
服务器可通过以下公式确定语义判别损失:
其中,为语义判别器的语义判别损失,Y为干扰句,Z为独立表达句。
该语义判别器的输出为二分类结果,该用于判别器输出的判别结果所对应的意义可根据需要设置,本说明书对此不作限制。需要说明的是,该训练数据集中还可能包括干扰句,即将原始句中的代词替换为非该代词所指代的词语后得到的句子。例如:将“麦某某说:“给我一双高跟鞋,我就能征服世界……”中的“我”替换为张三、李四等等。
服务器在确定语义判别损失的同时,还可根据该语义判别器的判别结果、该待判别句的语义标签及该待判别句对应的独立表达句,确定该生成器的语义生成损失。也就是说,若该语义判别器的判别结果与该待判别句的语义标签不一致,则确定该待判别句与该待判别句对应的独立表达句的语义差异根据该语义差异,确定该生成器的语义生成损失。最后,根据该语义生成损失及语义判别损失,对该生成对抗网络模型进行训练。其中,该生成对抗网络模型的损失为:
其中,为生成对抗网络模型的损失,a、b为权重参数,可根据需要设置。
此外,服务器可同时对该对抗网络模型的生成器、来源判别器及语义判别器进行训练,也可先训练生成器及来源判别器,再训练语义判别器,本说明书对此不作限制。
若服务器先训练生成器及来源判别器,再训练语义判别器,则在训练语义判别器之前,需要确定该来源判别器已经训练完成。
当该生成对抗网络模型训练完成后,服务器可将若干用于回复用户的独立表达句输入该模型的生成器中,以获得该生成器输出的融合句,并展示。该融合句不仅内容连贯自然,而且语义与独立表达句一致。此外,来源判别器可用于检测句子是否流畅,语义判别器可用于判断的两个句子的语义是否相似。
以上为本说明书的一个或多个实施的方法,基于同样的思路,本说明书还提供了相应的一种模型训练的装置,如图7所示。
图7为本说明书提供的一种模型训练的装置的示意图,包括:
独立表达句获取模块700,用于将原始句拆分为若干个独立表达句,并将所述原始句加入训练数据集;
融合句获取模块702,用于将各独立表达句输入所述模型的生成器,以通过所述生成器对所述各独立表达句进行融合,得到融合句;并,将所述融合句加入所述训练数据集;
语序判别结果模块704,用于将所述训练数据集中的待判别句输入所述模型的来源判别器,以得到所述来源判别器输出的判断所述待判别句是否为原始句的判别结果;
损失确定模块706,用于根据所述来源判别器的判别结果及所述待判别句的来源标签,确定所述来源判别器的来源判别损失;并,根据所述来源判别器的判别结果、所述待判别句的来源标签及所述待判别句对应的原始句,确定所述生成器的来源生成损失;
模型训练模块708,用于根据所述来源生成损失及所述来源判别损失,对所述模型进行对抗训练,其中,所述模型的生成器用于将回复用户的若干独立表达句进行融合。
可选地,所述损失确定模块706具体用于,若所述来源判别器的判别结果与所述待判别句的来源标签不一致,则确定所述待判别句与所述待判别句对应的原始句的语序差异;根据所述语序差异,确定所述生成器的来源生成损失。
可选地,所述装置还包括:
语义训练模块,用于将所述待判别句及所述待判别句对应的独立表达句输入所述模型的语义判别器,以得到所述语义判别器输出的判断所述待判别句的语义与所述待判别句对应的独立表达句的语义是否一致的判别结果;根据所述语义判别器输出的判别结果,对所述模型进行对抗训练。
可选地,所述语义判断模块具体用于,根据所述语义判别器输出的判别结果及所述待判别句的语义标签,确定所述语义判别器的语义判别损失;并,根据所述语义判别器的判别结果、所述待判别句的语义标签及所述待判别句对应的独立表达句,确定所述生成器的语义生成损失;根据所述语义生成损失及所述语义判别损失,对所述模型进行对抗训练。
可选地,所述语义判断模块具体用于,若所述语义判别器的判别结果与所述待判别句的语义标签不一致,则确定所述待判别句与所述待判别句对应的独立表达句的语义差异;根据所述语义差异,确定所述生成器的语义生成损失。
可选地,所述装置还包括:
应用模块,用于将若干用于回复用户的独立表达句输入所述模型的所述生成器中,以获得所述生成器输出的融合句,并展示。
可选地,所述生成器包括双向自回归变压器;所述来源判别器包括BERT模型及线性分类器。
本说明书还提供了一种计算机可读存储介质,该存储介质存储有计算机程序,计算机程序可用于执行上述图1提供的一种模型训练的方法。
本说明书还提供了图8所示的一种对应于图1的电子设备的结构示意图。如图8所示,在硬件层面,该电子设备包括处理器、内部总线、网络接口、内存以及非易失性存储器,当然还可能包括其他业务所需要的硬件。处理器从非易失性存储器中读取对应的计算机程序到内存中然后运行,以实现上述图1所述的一种模型训练的方法。
当然,除了软件实现方式之外,本说明书并不排除其他实现方式,比如逻辑器件抑或软硬件结合的方式等等,也就是说以下处理流程的执行主体并不限定于各个逻辑单元,也可以是硬件或逻辑器件。
在20世纪90年代,对于一个技术的改进可以很明显地区分是硬件上的改进(例如,对二极管、晶体管、开关等电路结构的改进)还是软件上的改进(对于方法流程的改进)。然而,随着技术的发展,当今的很多方法流程的改进已经可以视为硬件电路结构的直接改进。设计人员几乎都通过将改进的方法流程编程到硬件电路中来得到相应的硬件电路结构。因此,不能说一个方法流程的改进就不能用硬件实体模块来实现。例如,可编程逻辑器件(Programmable Logic Device, PLD)(例如现场可编程门阵列(Field Programmable GateArray,FPGA))就是这样一种集成电路,其逻辑功能由用户对器件编程来确定。由设计人员自行编程来把一个数字***“集成”在一片PLD上,而不需要请芯片制造厂商来设计和制作专用的集成电路芯片。而且,如今,取代手工地制作集成电路芯片,这种编程也多半改用“逻辑编译器(logic compiler)”软件来实现,它与程序开发撰写时所用的软件编译器相类似,而要编译之前的原始代码也得用特定的编程语言来撰写,此称之为硬件描述语言(Hardware Description Language,HDL),而HDL也并非仅有一种,而是有许多种,如ABEL(Advanced Boolean Expression Language)、AHDL(Altera Hardware DescriptionLanguage)、Confluence、CUPL(Cornell University Programming Language)、HDCal、JHDL(Java Hardware Description Language)、Lava、Lola、MyHDL、PALASM、RHDL(RubyHardware Description Language)等,目前最普遍使用的是VHDL(Very-High-SpeedIntegrated Circuit Hardware Description Language)与Verilog。本领域技术人员也应该清楚,只需要将方法流程用上述几种硬件描述语言稍作逻辑编程并编程到集成电路中,就可以很容易得到实现该逻辑方法流程的硬件电路。
控制器可以按任何适当的方式实现,例如,控制器可以采取例如微处理器或处理器以及存储可由该(微)处理器执行的计算机可读程序代码(例如软件或固件)的计算机可读介质、逻辑门、开关、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程逻辑控制器和嵌入微控制器的形式,控制器的例子包括但不限于以下微控制器:ARC 625D、Atmel AT91SAM、Microchip PIC18F26K20 以及Silicone Labs C8051F320,存储器控制器还可以被实现为存储器的控制逻辑的一部分。本领域技术人员也知道,除了以纯计算机可读程序代码方式实现控制器以外,完全可以通过将方法步骤进行逻辑编程来使得控制器以逻辑门、开关、专用集成电路、可编程逻辑控制器和嵌入微控制器等的形式来实现相同功能。因此这种控制器可以被认为是一种硬件部件,而对其内包括的用于实现各种功能的装置也可以视为硬件部件内的结构。或者甚至,可以将用于实现各种功能的装置视为既可以是实现方法的软件模块又可以是硬件部件内的结构。
上述实施例阐明的***、装置、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机。具体的,计算机例如可以为个人计算机、膝上型计算机、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任何设备的组合。
为了描述的方便,描述以上装置时以功能分为各种单元分别描述。当然,在实施本说明书时可以把各单元的功能在同一个或多个软件和/或硬件中实现。
本领域内的技术人员应明白,本说明书的实施例可提供为方法、***、或计算机程序产品。因此,本说明书可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本说明书可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本说明书是参照根据本说明书实施例的方法、设备(***)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
本领域技术人员应明白,本说明书的实施例可提供为方法、***或计算机程序产品。因此,本说明书可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本说明书可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本说明书可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本说明书,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于***实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本说明书的实施例而已,并不用于限制本说明书。对于本领域技术人员来说,本说明书可以有各种更改和变化。凡在本说明书的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本说明书的权利要求范围之内。

Claims (10)

1.一种模型训练的方法,其特征在于,所述方法包括:
将原始句拆分为若干个独立表达句,并将所述原始句加入训练数据集;
将各独立表达句输入所述模型的生成器,以通过所述生成器对所述各独立表达句进行融合,得到融合句;并,将所述融合句加入所述训练数据集;
将所述训练数据集中的待判别句输入所述模型的来源判别器,以得到所述来源判别器输出的判断所述待判别句是否为原始句的判别结果;
根据所述来源判别器的判别结果及所述待判别句的来源标签,确定所述来源判别器的来源判别损失;并,根据所述来源判别器的判别结果、所述待判别句的来源标签及所述待判别句对应的原始句,确定所述生成器的来源生成损失;
根据所述来源生成损失及所述来源判别损失,对所述模型进行对抗训练,其中,所述模型的生成器用于将回复用户的若干独立表达句进行融合。
2.如权利要求1所述的方法,其特征在于,根据所述来源判别器的判别结果、所述待判别句的来源标签及所述待判别句对应的原始句,确定所述生成器的来源生成损失,具体包括:
若所述来源判别器的判别结果与所述待判别句的来源标签不一致,则确定所述待判别句与所述待判别句对应的原始句的语序差异;
根据所述语序差异,确定所述生成器的来源生成损失。
3.如权利要求1所述的方法,其特征在于,所述方法还包括:
将所述待判别句及所述待判别句对应的独立表达句输入所述模型的语义判别器,以得到所述语义判别器输出的判断所述待判别句的语义与所述待判别句对应的独立表达句的语义是否一致的判别结果;
根据所述语义判别器输出的判别结果,对所述模型进行对抗训练。
4.如权利要求3所述的方法,其特征在于,根据所述语义判别器输出的判别结果,对所述模型进行对抗训练,具体包括:
根据所述语义判别器输出的判别结果及所述待判别句的语义标签,确定所述语义判别器的语义判别损失;并,根据所述语义判别器的判别结果、所述待判别句的语义标签及所述待判别句对应的独立表达句,确定所述生成器的语义生成损失;
根据所述语义生成损失及所述语义判别损失,对所述模型进行对抗训练。
5.如权利要求4所述的方法,其特征在于,根据所述语义判别器的判别结果、所述待判别句的语义标签及所述待判别句对应的原始句,确定所述生成器的语义生成损失,具体包括:
若所述语义判别器的判别结果与所述待判别句的语义标签不一致,则确定所述待判别句与所述待判别句对应的独立表达句的语义差异;
根据所述语义差异,确定所述生成器的语义生成损失。
6.如权利要求1所述的方法,其特征在于,所述方法还包括:
将若干用于回复用户的独立表达句输入所述模型的所述生成器中,以获得所述生成器输出的融合句,并展示。
7.如权利要求1所述的方法,其特征在于,所述生成器包括双向自回归变压器;所述来源判别器包括BERT模型及线性分类器。
8.一种模型训练的装置,其特征在于,所述装置包括:
独立表达句获取模块,用于将原始句拆分为若干个独立表达句,并将所述原始句加入训练数据集;
融合句获取模块,用于将各独立表达句输入所述模型的生成器,以通过所述生成器对所述各独立表达句进行融合,得到融合句;并,将所述融合句加入所述训练数据集;
语序判别结果模块,用于将所述训练数据集中的待判别句输入所述模型的来源判别器,以得到所述来源判别器输出的判断所述待判别句是否为原始句的判别结果;
损失确定模块,用于根据所述来源判别器的判别结果及所述待判别句的来源标签,确定所述来源判别器的来源判别损失;并,根据所述来源判别器的判别结果、所述待判别句的来源标签及所述待判别句对应的原始句,确定所述生成器的来源生成损失;
模型训练模块,用于根据所述来源生成损失及所述来源判别损失,对所述模型进行对抗训练,其中,所述模型的生成器用于将回复用户的若干独立表达句进行融合。
9.一种计算机可读存储介质,其特征在于,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述权利要求1~7任一项所述的方法。
10.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现上述权利要求1~7任一项所述的方法。
CN202311010097.XA 2023-08-11 2023-08-11 一种模型训练的方法、装置、存储介质及电子设备 Active CN116795972B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311010097.XA CN116795972B (zh) 2023-08-11 2023-08-11 一种模型训练的方法、装置、存储介质及电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311010097.XA CN116795972B (zh) 2023-08-11 2023-08-11 一种模型训练的方法、装置、存储介质及电子设备

Publications (2)

Publication Number Publication Date
CN116795972A true CN116795972A (zh) 2023-09-22
CN116795972B CN116795972B (zh) 2024-01-09

Family

ID=88049947

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311010097.XA Active CN116795972B (zh) 2023-08-11 2023-08-11 一种模型训练的方法、装置、存储介质及电子设备

Country Status (1)

Country Link
CN (1) CN116795972B (zh)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006018354A (ja) * 2004-06-30 2006-01-19 Advanced Telecommunication Research Institute International テキスト分割装置及び自然言語処理装置
CN105740225A (zh) * 2016-01-19 2016-07-06 齐鲁工业大学 一种融合句子局部上下文与文档领域信息的词义消歧方法
CN107330444A (zh) * 2017-05-27 2017-11-07 苏州科技大学 一种基于生成对抗网络的图像自动文本标注方法
CN108470024A (zh) * 2018-03-12 2018-08-31 北京灵伴即时智能科技有限公司 一种融合句法语义语用信息的汉语韵律结构预测方法
CN109947931A (zh) * 2019-03-20 2019-06-28 华南理工大学 基于无监督学习的文本自动摘要方法、***、设备及介质
WO2019179100A1 (zh) * 2018-03-20 2019-09-26 苏州大学张家港工业技术研究院 基于生成式对抗网络技术的医疗文本生成方法
CN112711942A (zh) * 2021-03-29 2021-04-27 贝壳找房(北京)科技有限公司 房源标题生成模型的训练方法、生成方法、装置以及设备
CN114090751A (zh) * 2021-11-12 2022-02-25 北京明略软件***有限公司 对话模型训练、对话生成方法、***、计算机和存储介质
CN115062139A (zh) * 2022-05-10 2022-09-16 电子科技大学 一种对话文本摘要模型自动搜索方法
US20220351089A1 (en) * 2021-05-03 2022-11-03 International Business Machines Corporation Segmenting unstructured text

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006018354A (ja) * 2004-06-30 2006-01-19 Advanced Telecommunication Research Institute International テキスト分割装置及び自然言語処理装置
CN105740225A (zh) * 2016-01-19 2016-07-06 齐鲁工业大学 一种融合句子局部上下文与文档领域信息的词义消歧方法
CN107330444A (zh) * 2017-05-27 2017-11-07 苏州科技大学 一种基于生成对抗网络的图像自动文本标注方法
CN108470024A (zh) * 2018-03-12 2018-08-31 北京灵伴即时智能科技有限公司 一种融合句法语义语用信息的汉语韵律结构预测方法
WO2019179100A1 (zh) * 2018-03-20 2019-09-26 苏州大学张家港工业技术研究院 基于生成式对抗网络技术的医疗文本生成方法
CN109947931A (zh) * 2019-03-20 2019-06-28 华南理工大学 基于无监督学习的文本自动摘要方法、***、设备及介质
CN112711942A (zh) * 2021-03-29 2021-04-27 贝壳找房(北京)科技有限公司 房源标题生成模型的训练方法、生成方法、装置以及设备
US20220351089A1 (en) * 2021-05-03 2022-11-03 International Business Machines Corporation Segmenting unstructured text
CN114090751A (zh) * 2021-11-12 2022-02-25 北京明略软件***有限公司 对话模型训练、对话生成方法、***、计算机和存储介质
CN115062139A (zh) * 2022-05-10 2022-09-16 电子科技大学 一种对话文本摘要模型自动搜索方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
JIAXIAN GUO: "Long Text Generation via Adversarial Training with Leaked Information", ARXIV, pages 1 - 14 *
陈炜;汪洋;钟敏;: "结合生成式对抗网络的神经机器翻译研究", 计算机与数字工程, vol. 48, no. 05, pages 1164 - 1167 *

Also Published As

Publication number Publication date
CN116795972B (zh) 2024-01-09

Similar Documents

Publication Publication Date Title
CN109992771B (zh) 一种文本生成的方法及装置
CN110263158B (zh) 一种数据的处理方法、装置及设备
CN116227474B (zh) 一种对抗文本的生成方法、装置、存储介质及电子设备
CN113221555B (zh) 一种基于多任务模型的关键词识别方法、装置及设备
CN110457449B (zh) 在线训练模型的方法、装置、设备及存储介质
CN115952272B (zh) 一种生成对话信息的方法、装置、设备及可读存储介质
CN110032730B (zh) 一种文本数据的处理方法、装置和设备
CN111881973A (zh) 一种样本选择方法、装置、存储介质及电子设备
CN111144126A (zh) 一种语义分析模型的训练方法、语义分析方法及装置
CN117331561B (zh) 一种智能低代码页面开发***及方法
CN112417093B (zh) 一种模型训练的方法及装置
CN117076650B (zh) 一种基于大语言模型的智能对话方法、装置、介质及设备
CN114332873A (zh) 一种识别模型的训练方法及装置
CN113887206B (zh) 一种模型训练及关键词提取方法及装置
CN115455166A (zh) 一种智能对话***异常检测的方法、装置、介质及设备
CN116127305A (zh) 一种模型训练的方法、装置、存储介质及电子设备
CN117409466B (zh) 一种基于多标签控制的三维动态表情生成方法及装置
CN117369783A (zh) 一种安全代码生成模型的训练方法及装置
CN116186330B (zh) 一种基于多模态学习的视频去重方法及装置
CN116795972B (zh) 一种模型训练的方法、装置、存储介质及电子设备
CN116662657A (zh) 一种模型训练和信息推荐的方法、装置、存储介质及设备
CN115017905A (zh) 一种模型训练和信息推荐的方法及装置
CN115017915B (zh) 一种模型训练、任务执行的方法及装置
CN117807961B (zh) 一种文本生成模型的训练方法、装置、介质及电子设备
CN115658891B (zh) 一种意图识别的方法、装置、存储介质及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant