CN114547492A - 生成模型的训练方法、文案生成方法、装置、设备和介质 - Google Patents

生成模型的训练方法、文案生成方法、装置、设备和介质 Download PDF

Info

Publication number
CN114547492A
CN114547492A CN202210152882.8A CN202210152882A CN114547492A CN 114547492 A CN114547492 A CN 114547492A CN 202210152882 A CN202210152882 A CN 202210152882A CN 114547492 A CN114547492 A CN 114547492A
Authority
CN
China
Prior art keywords
decoding unit
time step
prediction result
model
determining
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210152882.8A
Other languages
English (en)
Inventor
念天磊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN202210152882.8A priority Critical patent/CN114547492A/zh
Publication of CN114547492A publication Critical patent/CN114547492A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9538Presentation of query results
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Probability & Statistics with Applications (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

本公开提供了一种生成模型的训练方法、文案生成方法、装置、设备和介质,涉及人工智能领域,尤其涉及文本生成领域。具体实现方案包括:通过第一解码单元,结合训练样本的真实目标和编码单元输出的编码信息,确定第一预测结果;从真实目标和第一预测结果中,确定第二解码单元的参考输入值;通过第二解码单元,对输入的参考输入值进行预测,得到最终预测结果,使得基于所述最终预测结果反向调整模型参数。本公开通过两阶段解码的方式训练生成模型,可保证生成模型生成文案的多样性。

Description

生成模型的训练方法、文案生成方法、装置、设备和介质
技术领域
本公开涉及人工智能领域,尤其涉及文本生成领域,具体涉及一种生成模型的训练方法、文案生成方法、装置、电子设备、存储介质和计算机程序产品。
背景技术
在互联网营销中,落地页是指当***点击广告或者利用搜索引擎搜索后跳转显示给用户的网页,落地页中包括对网民有吸引力的话术,不仅可以突出页面卖点,提高用户搜索效率,还能帮助网民直达各种组件,激发用户形成转化。
发明内容
本公开提供了一种生成模型的训练方法、文案生成方法、装置、电子设备、存储介质和计算机程序产品。
根据本公开的一方面,提供了一种生成模型的训练方法,生成模型包括一个编码单元和两个解码单元,方法包括:
通过第一解码单元,结合训练样本的真实目标和编码单元输出的编码信息,确定第一预测结果;
从真实目标和第一预测结果中,确定第二解码单元的参考输入值;
通过第二解码单元,对输入的参考输入值进行预测,得到最终预测结果,使得基于所述最终预测结果反向调整模型参数。
根据本公开的一方面,提供了一种文案生成方法,包括:
将待处理文本传输到生成模型的编码单元中,得到编码信息;其中,生成模型是按照本公开中任一生成模型的训练方法训练后得到;
将编码信息作为生成模型的第二解码单元的输入,并根据第二解码单元的输出,确定生成的文案。
根据本公开的一方面,提供了一种生成模型的训练装置,生成模型包括一个编码单元和两个解码单元,装置包括:
一阶段解码模块,用于通过第一解码单元,结合训练样本的真实目标和编码单元输出的编码信息,确定第一预测结果;
采样模块,用于从真实目标和第一预测结果中,确定第二解码单元的参考输入值;
二阶段解码模块,用于通过第二解码单元,对输入的参考输入值进行预测,得到最终预测结果,使得基于所述最终预测结果反向调整模型参数。
根据本公开的一方面,提供了一种文案生成装置,包括:
编码模块,用于将待处理文本传输到生成模型的编码单元中,得到编码信息;其中,生成模型是按照本公开中任一生成模型训练方法训练后得到;
生成模块,用于将编码信息作为生成模型的第二解码单元的输入,并根据第二解码单元的输出,确定生成的文案。
根据本公开的另一方面,提供了一种电子设备,包括:
至少一个处理器;以及
与至少一个处理器通信连接的存储器;其中,
存储器存储有可被至少一个处理器执行的指令,指令被至少一个处理器执行,以使至少一个处理器能够执行本公开任意实施例的生成模型的训练方法或文案生成方法。
根据本公开的另一方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,计算机指令用于使计算机执行本公开任意实施例的生成模型的训练方法或文案生成方法。
根据本公开的另一方面,提供了一种计算机程序产品,包括计算机程序,计算机程序在被处理器执行时实现本公开任意实施例的生成模型的训练方法或文案生成方法。
根据本公开的技术,通过两阶段解码的方式训练生成模型,可保证训练的生成模型生成文案的多样性。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本公开的限定。其中:
图1是根据本公开实施例提供的一种生成模型的训练方法的流程示意图;
图2是根据本公开实施例提供的又一种生成模型的训练方法的流程示意图;
图3是根据本公开实施例提供的又一种生成模型的训练方法的流程示意图;
图4是根据本公开实施例提供的文案生成方法的流程示意图;
图5是根据本公开实施例提供的一种生成模型的训练装置的结构示意图;
图6是根据本公开实施例提供的文案生成装置的结构示意图;
图7是用来实现本公开实施例的生成模型的训练方法的电子设备的框图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
本公开实施例中的生成模型主要用于生成落地页中对网民有吸引力的话术,例如生成落地页的标题。本公开的生成模型是基于transformer框架构建的,该生成模型包括一个编码单元和两个解码单元,其中,两个解码单元的结构完全一样且参数共享,进而通过两阶段解码的方式进行模型训练,具体的过程参见如下实施。
图1为本公开实施例的一种生成模型的训练方法的流程示意图,本实施例可适用于通过两阶段解码方式训练生成模型的情况。该方法可由一种生成模型的训练装置来执行,该装置采用软件和/或硬件的方式实现,并集成在电子设备上。
具体的,参见图1,生成模型的训练方法如下:
S101、通过第一解码单元,结合训练样本的真实目标和编码单元输出的编码信息,确定第一预测结果。
本公开实施例中,训练生成模型时,首先将训练样本数据输入到生成模型的编码单元中,得到对应的编码信息,该编码信息主要作为第一解码单元的中间输入。训练样本的真实目标是指样本的标注知识,在模型训练时,直接将训练样本的真实目标作为第一解码单元的初始输入。
在一种可选的实施方式中,第一解码单元通过多个时间步的预测得到第一预测结果。在具体实现时,首先将第一解码单元在任一时间步产生的子预测结果所对应的真实目标,作为第一解码单元在下一时间步的初始输入;例如,生成模型在第一时间步产生的子预测结果为“昨”,而在该时间步对应的真实目标为“今”,则将“今”作为第一解码单元在下一时间步的初始输入。如此使得预测错误仅发生在第一时间步,不会累加到后面。也即将真实目标作为第一解码单元的初始输入,可保证错误不会累加。需要说明的是,传统的生成模型主要使用seq2seq框架,模型训练时会使用上一个隐状态的输出作为下一个隐状态的输入,使得在训练早期,靠前的状态state中如果出现了极差的结果,后面的全部状态state都会受其影响,导致最终生成的结果完全错乱。
进一步的,将编码信息作为第一解码单元在每个时间步的中间输入。如此在每个时间步都会得到模型预测概率分布。因此可根据第一解码单元在每个时间步得出的预测结果的概率分布,确定每个时间步各自的子预测结果,并将每个时间步产生的子预测结果的集合作为第一预测结果。
S102、从真实目标和第一预测结果中,确定第二解码单元的参考输入值。
可选的,在模型训练前期,将真实目标作为第二解码单元的参考输入值;在模型训练后期,将步骤S101产生的第一预测结果作为第二解码单元的参考输入值。如此做的好处是:模型训练初期,第二解码单元基本完全使用真实目标作为参考值,可以更好更快的具备初步生成能力,随着训练时间增加,使用第一解码单元输出的第一预测结果作为参考值,防止模型过早的将输出纠正为真实目标,解决过度矫正问题,保留多样性。因为生成模型不同于分类模型,后者是完全的one-hot问题,生成模型的任务目标不是完全一对一对齐,可以允许同义词或同义句,反而生成多个同义句会更好。如果仅适用真实目标(即groundtruth)作为第二解码单元的输入,模型会不断地根据真实目标进行矫正,反而会提前扼杀多样性。
S103、通过第二解码单元,对输入的参考输入值进行预测,得到最终预测结果,使得基于所述最终预测结果反向调整模型参数。
通过步骤S102确定参考输入值后,将该参考输入值输入到第二解码单元中进行预测,得到最终预测结果,进而基于最终预测结果反向调整模型参数,主要是通过梯度回传更新生成模型的网络参数。在此需要说明的是,梯度回传是从第二解码单元到编码单元,不经过第一解码单元。
本公开实施例中,通过两阶段解码的方式训练生成模型,将真实目标作为第一解码单元的输入,可以保证预测错误不会累积;根据训练时期,将真实目标或第一预测结果作为第二解码单元的输入,可避免过度矫正问题,进而保证训练的生成模型生成文案的多样性。
图2是根据本公开实施例的又一生成模型的训练方法的流程示意图,本公开实施例是在上述实施例的基础上,对确定第二解码单元的参考输入值的过程进行细化,参见图2,生成模型的训练方法具体如下:
S201、通过第一解码单元,结合训练样本的真实目标和编码单元输出的编码信息,确定第一预测结果。
S202、根据训练轮数和预设超参数,分别计算真实目标和第一预测结果作为参考输入值的概率。
S203、根据概率计算结果,确定第二解码单元的参考输入值。
本公开实施例中,将真实目标作为第二解码单元的参考输入值的概率的计算公式如下:p=β/(β+exp(epoch/β));其中,β为预设的超参数,epoch为训练轮数。第一预测结果作为参考输入值的概率为1-p。通过概率计算公式可知,概率p会随着训练轮数epoch的增加逐渐变小,即越来越大的概率使用第一解码单元的输出作为第二解码单元的参考输入。如此做的好处是:模型训练初期,第二解码单元基本完全使用真实目标作为参考值,可以更好更快的具备初步生成能力,随着训练时间增加,使用第一解码单元输出的第一预测结果作为参考值,防止模型过早的将输出纠正为真实目标,解决过度矫正问题,保留多样性。
S204、通过第二解码单元,对输入的参考输入值进行预测,得到最终预测结果,使得基于所述最终预测结果反向调整模型参数。
本公开实施例中,模型训练初期,第二解码单元基本完全使用真实目标作为参考值,可以更好更快的具备初步生成能力,随着训练时间增加,使用第一解码单元输出的第一预测结果作为参考值,防止模型过早的将输出纠正为真实目标,解决过度矫正问题,保留多样性。
图3是根据本公开实施例的又一生成模型的训练方法的流程示意图,本公开实施例是在上述实施例的基础上,对根据第一解码单元在每个时间步得出的预测结果的概率分布,确定每个时间步各自的子预测结果过程进行细化,参见图3,方法还包括如下步骤:
S301、针对任一时间步,将第一解码单元在该时间步得出的预测结果的概率分布中概率最大的作为该时间步的子预测结果。
S302、针对任一时间步,根据第一解码单元在该时间步得出的预测结果的概率分布,从概率排序前N的预测结果中任选一个作为该时间步的子预测结果。
本公开实施例中,每个时间步通过softmax将第一解码单元的输出转换成概率分布,而将概率最大的作为该时间步的子预测结果,可以保证模型预测的准确性;而从多个概率较大的预测结果中任选一个作为该时间步的子预测结果,可以保证在预测准确性变化不大的情况下,保证模型预测的多样性。
进一步的,针对任一时间步,第一解码单元基于预设的噪声参数g和温度参数t,计算第一解码单元在该时间步的预测结果的概率分布。可选的,第一解码单元在该时间步的概率分布公式如下:
Figure BDA0003511288420000061
其中,zi为正常softmax的输入,t为超参温度,g=-log(-log(u)),u服从Uniform(0,1)。需要说明的是,在计算概率分布之前,增加一些噪声,如此使直接输出的softmax概率大小有一定价值。同时增加温度t,可以控制softmax的平滑程度,温度越高,产出的概率分布越平滑,温度越低,概率分布越尖锐接近one-hot。实际训练中可以慢慢降低温度,逐步逼近真实的离散分布。
图4是根据本公开实施例的文案生成方法的流程示意图,本实施例可适用于通过训练的生成模型生成文案的情况。该方法可由一种文案生成装置来执行,该装置采用软件和/或硬件的方式实现,并集成在电子设备上。
参见图4,文案生成方法具体如下:
S401、将待处理文本传输到生成模型的编码单元中,得到编码信息;其中,生成模型是按照本公开任一生成模型的训练方法训练后得到。
S402、将编码信息作为生成模型的第二解码单元的输入,并根据第二解码单元的输出,确定生成的文案。
通过上述实施例可训练得到一个生成模型,具体的训练过程参见上述实施例,在此不再赘述。在此基础上,可直接利用生成模型对待处理文本进行预测,其中,待处理文本可选的落地页中的文本内容,进行预测的目的可选的是根据落地页的文本内容生成一个标题。在具体实现时,先将待处理文本生成模型的编码单元中,得到编码信息,将编码信息作为生成模型的第二解码单元的输入,并根据第二解码单元的输出,确定生成的文案。需要说明的是,在使用训练好的生成模型进行预测的阶段,只需利用第二解码单元即可,也即在模型使用过程中,无需两阶段解码。
本公开实施例中,通过训练好的生成模型可实现待处理文本生成多样性的文案的目的。
图5是根据本公开实施例的生成模型的训练装置的结构示意图,生成模型包括一个编码单元和两个解码单元,本实施例可适用于通过两阶段解码方式训练生成模型的情况。如图5所示,该装置具体包括:
一阶段解码模块501,用于通过第一解码单元,结合训练样本的真实目标和编码单元输出的编码信息,确定第一预测结果;
采样模块502,用于从真实目标和第一预测结果中,确定第二解码单元的参考输入值;
二阶段解码模块503,用于通过第二解码单元,对输入的参考输入值进行预测,得到最终预测结果,使得基于所述最终预测结果反向调整模型参数。
在上述实施例的基础上,可选的,一阶段解码模块包括:
初始输入确定子模块,用于将第一解码单元在任一时间步产生的子预测结果所对应的真实目标,作为第一解码单元在下一时间步的初始输入;
中间输入确定子模块,用于将编码信息作为第一解码单元在每个时间步的中间输入;
一阶段解码子模块,用于根据第一解码单元在每个时间步得出的预测结果的概率分布,确定每个时间步各自的子预测结果,并将每个时间步产生的子预测结果的集合作为第一预测结果。
在上述实施例的基础上,可选的,一阶段解码子模块还用于:
针对任一时间步,将第一解码单元在该时间步得出的预测结果的概率分布中概率最大的作为该时间步的子预测结果;或,
针对任一时间步,根据第一解码单元在该时间步得出的预测结果的概率分布,从概率排序前N的预测结果中任选一个作为该时间步的子预测结果。
在上述实施例的基础上,可选的,还包括:
概率分布计算模块,用于针对任一时间步,第一解码单元基于预设的噪声参数和温度参数,计算第一解码单元在该时间步的预测结果的概率分布。
在上述实施例的基础上,可选的,采样模块包括:
概率计算子模块,用于根据训练轮数和预设超参数,分别计算真实目标和第一预测结果作为参考输入值的概率;
确定子模块,用于根据概率计算结果,确定第二解码单元的参考输入值。
本公开实施例提供的生成模型的训练装置可执行本公开任意实施例提供的生成模型的训练方法,具备执行方法相应的功能模块和有益效果。本实施例中未详尽描述的内容可以参考本公开任意方法实施例中的描述。
图6是根据本公开实施例的文案生成装置的结构示意图,生成模型包括一个编码单元和两个解码单元,本实施例可适用于通过训练的生成模型生成文案的情况。如图6所示,该装置具体包括:
编码模块601,用于将待处理文本传输到生成模型的编码单元中,得到编码信息;其中,生成模型是按照权利要求1-5中任一方法训练后得到;
生成模块602,用于将编码信息作为生成模型的第二解码单元的输入,并根据第二解码单元的输出,确定生成的文案。
本公开实施例提供的文案生成装置可执行本公开任意实施例提供的文案生成方法,具备执行方法相应的功能模块和有益效果。本实施例中未详尽描述的内容可以参考本公开任意方法实施例中的描述
本公开的技术方案中,所涉及的用户个人信息的获取,存储和应用等,均符合相关法律法规的规定,且不违背公序良俗。
根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
图7示出了可以用来实施本公开的实施例的示例电子设备700的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图7所示,设备700包括计算单元701,其可以根据存储在只读存储器(ROM)702中的计算机程序或者从存储单元708加载到随机访问存储器(RAM)703中的计算机程序,来执行各种适当的动作和处理。在RAM 703中,还可存储设备700操作所需的各种程序和数据。计算单元701、ROM 702以及RAM 703通过总线704彼此相连。输入/输出(I/O)接口705也连接至总线704。
设备700中的多个部件连接至I/O接口705,包括:输入单元706,例如键盘、鼠标等;输出单元707,例如各种类型的显示器、扬声器等;存储单元708,例如磁盘、光盘等;以及通信单元709,例如网卡、调制解调器、无线通信收发机等。通信单元709允许设备700通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元701可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元701的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元701执行上文所描述的各个方法和处理,例如生成模型的训练方法。例如,在一些实施例中,生成模型的训练方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元708。在一些实施例中,计算机程序的部分或者全部可以经由ROM 702和/或通信单元709而被载入和/或安装到设备700上。当计算机程序加载到RAM703并由计算单元701执行时,可以执行上文描述的生成模型的训练方法的一个或多个步骤。备选地,在其他实施例中,计算单元701可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行生成模型的训练方法。
本文中以上描述的***和技术的各种实施方式可以在数字电子电路***、集成电路***、现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上***的***(SOC)、复杂可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程***上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储***、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储***、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行***、装置或设备使用或与指令执行***、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体***、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的***和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的***和技术实施在包括后台部件的计算***(例如,作为数据服务器)、或者包括中间件部件的计算***(例如,应用服务器)、或者包括前端部件的计算***(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的***和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算***中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将***的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机***可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,也可以为分布式***的服务器,或者是结合了区块链的服务器。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。

Claims (15)

1.一种生成模型的训练方法,所述生成模型包括一个编码单元和两个解码单元,所述方法包括:
通过第一解码单元,结合训练样本的真实目标和所述编码单元输出的编码信息,确定第一预测结果;
从所述真实目标和所述第一预测结果中,确定第二解码单元的参考输入值;
通过所述第二解码单元,对输入的所述参考输入值进行预测,得到最终预测结果,使得基于所述最终预测结果反向调整模型参数。
2.根据权利要求1所述的方法,其中,通过第一解码单元,结合训练样本的真实目标和所述编码单元输出的编码信息,确定第一预测结果,包括:
将所述第一解码单元在任一时间步产生的子预测结果所对应的真实目标,作为第一解码单元在下一时间步的初始输入;
将所述编码信息作为所述第一解码单元在每个时间步的中间输入;
根据所述第一解码单元在每个时间步得出的预测结果的概率分布,确定每个时间步各自的子预测结果,并将每个时间步产生的子预测结果的集合作为所述第一预测结果。
3.根据权利要求2所述的方法,其中,所述根据所述第一解码单元在每个时间步得出的预测结果的概率分布,确定每个时间步各自的子预测结果,包括:
针对任一时间步,将所述第一解码单元在该时间步得出的预测结果的概率分布中概率最大的作为该时间步的子预测结果;或,
针对任一时间步,根据所述第一解码单元在该时间步得出的预测结果的概率分布,从概率排序前N的预测结果中任选一个作为该时间步的子预测结果。
4.根据权利要求2所述的方法,还包括:
针对任一时间步,所述第一解码单元基于预设的噪声参数和温度参数,计算所述第一解码单元在该时间步的预测结果的概率分布。
5.根据权利要求1所述的方法,其中,所述从所述真实目标和所述第一预测结果中,确定第二解码单元的参考输入值,包括:
根据训练轮数和预设超参数,分别计算所述真实目标和所述第一预测结果作为所述参考输入值的概率;
根据概率计算结果,确定所述第二解码单元的参考输入值。
6.一种文案生成方法,包括:
将待处理文本传输到生成模型的编码单元中,得到编码信息;其中,所述生成模型是按照权利要求1-5中任一所述方法训练后得到;
将所述编码信息作为所述生成模型的第二解码单元的输入,并根据所述第二解码单元的输出,确定生成的文案。
7.一种生成模型的训练装置,所述生成模型包括一个编码单元和两个解码单元,所述装置包括:
一阶段解码模块,用于通过第一解码单元,结合训练样本的真实目标和所述编码单元输出的编码信息,确定第一预测结果;
采样模块,用于从所述真实目标和所述第一预测结果中,确定第二解码单元的参考输入值;
二阶段解码模块,用于通过所述第二解码单元,对输入的所述参考输入值进行预测,得到最终预测结果,使得基于所述最终预测结果反向调整模型参数。
8.根据权利要求7所述的装置,其中,一阶段解码模块包括:
初始输入确定子模块,用于将所述第一解码单元在任一时间步产生的子预测结果所对应的真实目标,作为第一解码单元在下一时间步的初始输入;
中间输入确定子模块,用于将所述编码信息作为所述第一解码单元在每个时间步的中间输入;
一阶段解码子模块,用于根据所述第一解码单元在每个时间步得出的预测结果的概率分布,确定每个时间步各自的子预测结果,并将每个时间步产生的子预测结果的集合作为所述第一预测结果。
9.根据权利要求8所述的装置,其中,所述一阶段解码子模块还用于:
针对任一时间步,将所述第一解码单元在该时间步得出的预测结果的概率分布中概率最大的作为该时间步的子预测结果;或,
针对任一时间步,根据所述第一解码单元在该时间步得出的预测结果的概率分布,从概率排序前N的预测结果中任选一个作为该时间步的子预测结果。
10.根据权利要求8所述的装置,还包括:
概率分布计算模块,用于针对任一时间步,所述第一解码单元基于预设的噪声参数和温度参数,计算所述第一解码单元在该时间步的预测结果的概率分布。
11.根据权利要求7所述的装置,其中,所述采样模块包括:
概率计算子模块,用于根据训练轮数和预设超参数,分别计算所述真实目标和所述第一预测结果作为所述参考输入值的概率;
确定子模块,用于根据概率计算结果,确定所述第二解码单元的参考输入值。
12.一种文案生成装置,包括:
编码模块,用于将待处理文本传输到生成模型的编码单元中,得到编码信息;其中,所述生成模型是按照权利要求1-5中任一所述方法训练后得到;
生成模块,用于将所述编码信息作为所述生成模型的第二解码单元的输入,并根据所述第二解码单元的输出,确定生成的文案。
13.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-5或6中任一项所述的方法。
14.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行根据权利要求1-5或6中任一项所述的方法。
15.一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现根据权利要求1-5或6中任一项所述的方法。
CN202210152882.8A 2022-02-18 2022-02-18 生成模型的训练方法、文案生成方法、装置、设备和介质 Pending CN114547492A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210152882.8A CN114547492A (zh) 2022-02-18 2022-02-18 生成模型的训练方法、文案生成方法、装置、设备和介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210152882.8A CN114547492A (zh) 2022-02-18 2022-02-18 生成模型的训练方法、文案生成方法、装置、设备和介质

Publications (1)

Publication Number Publication Date
CN114547492A true CN114547492A (zh) 2022-05-27

Family

ID=81675963

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210152882.8A Pending CN114547492A (zh) 2022-02-18 2022-02-18 生成模型的训练方法、文案生成方法、装置、设备和介质

Country Status (1)

Country Link
CN (1) CN114547492A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115188014A (zh) * 2022-06-22 2022-10-14 北京百度网讯科技有限公司 落地页处理方法、模型训练方法、装置及电子设备
CN115512391A (zh) * 2022-09-29 2022-12-23 珠海视熙科技有限公司 数据自适应重采样的目标检测模型训练方法、装置及设备

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115188014A (zh) * 2022-06-22 2022-10-14 北京百度网讯科技有限公司 落地页处理方法、模型训练方法、装置及电子设备
CN115188014B (zh) * 2022-06-22 2023-11-14 北京百度网讯科技有限公司 落地页处理方法、模型训练方法、装置及电子设备
CN115512391A (zh) * 2022-09-29 2022-12-23 珠海视熙科技有限公司 数据自适应重采样的目标检测模型训练方法、装置及设备

Similar Documents

Publication Publication Date Title
CN113239705B (zh) 语义表示模型的预训练方法、装置、电子设备和存储介质
CN112466288B (zh) 语音识别方法、装置、电子设备及存储介质
CN114547492A (zh) 生成模型的训练方法、文案生成方法、装置、设备和介质
US20210303608A1 (en) Keyword generating method, apparatus, device and storage medium
CN113656581A (zh) 文本分类及模型训练的方法、装置、设备以及存储介质
CN112541124A (zh) 生成多任务模型的方法、装置、设备、介质及程序产品
CN113239157B (zh) 对话模型的训练方法、装置、设备和存储介质
CN114937478B (zh) 用于训练模型的方法、用于生成分子的方法和装置
CN112925900A (zh) 搜索信息处理方法、装置、设备及存储介质
CN115631261A (zh) 图像生成模型的训练方法、图像生成方法和装置
CN113642324B (zh) 文本摘要生成方法、装置、电子设备及存储介质
CN113869042A (zh) 文本标题生成方法、装置、电子设备以及存储介质
CN114428907A (zh) 信息搜索方法、装置、电子设备及存储介质
CN113468857A (zh) 风格转换模型的训练方法、装置、电子设备以及存储介质
CN113205189A (zh) 训练预测模型的方法、预测方法及装置
CN113656689B (zh) 模型生成方法和网络信息的推送方法
CN113642654B (zh) 图像特征的融合方法、装置、电子设备和存储介质
CN115203564A (zh) 信息流推荐方法、装置及计算机程序产品
CN114037060A (zh) 预训练模型的生成方法、装置、电子设备以及存储介质
CN114254028A (zh) 事件属性抽取方法、装置、电子设备和存储介质
CN113361621A (zh) 用于训练模型的方法和装置
CN113361712B (zh) 特征确定模型的训练方法、语义分析方法、装置及电子设备
CN113255332B (zh) 文本纠错模型的训练与文本纠错方法、装置
CN114492456B (zh) 文本生成方法、模型的训练方法、装置、电子设备及介质
CN113762510B (zh) 针对目标模型的数据处理方法、装置、电子设备和介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination