CN115858736A - 一种基于情感提示微调的情感文本生成方法 - Google Patents
一种基于情感提示微调的情感文本生成方法 Download PDFInfo
- Publication number
- CN115858736A CN115858736A CN202211710150.2A CN202211710150A CN115858736A CN 115858736 A CN115858736 A CN 115858736A CN 202211710150 A CN202211710150 A CN 202211710150A CN 115858736 A CN115858736 A CN 115858736A
- Authority
- CN
- China
- Prior art keywords
- emotion
- word
- text
- language model
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Machine Translation (AREA)
Abstract
本发明公开了一种基于情感提示微调的情感文本生成方法,所述方法包括以下步骤:S1、利用NRC情感强度词典和自回归预训练语言模型的嵌入层构建连续的不同情感类别的情感提示;S2、冻结原有的自回归预训练语言模型参数,使用情感提示微调进行模型训练,把情感因素融入到语言模型中;S3、在使用情感提示微调后,对模型生成的每一步解码阶段使用情感解码方法,进一步增强生成文本的情感表达。本发明不但能够在有限的硬件资源上充分利用最先进的大型预训练语言模型进行情感文本生成,而且生成的文本情感更加丰富,更加接近真实的情感文本。
Description
技术领域
本发明涉及自然语言处理领域,尤其涉及一种基于情感提示微调的情感文本生成方法。
背景技术
自然语言生成是自然语言处理领域中的重要任务。由于情商是人工智能的重要组成部分,为了使人工智能的***更接近人类,情感文本生成受到广泛的关注和研究。传统的情感文本生成方法主要基于人工规则和语言模板,往往无法处理复杂的情境。得益于深度学习的快速发展,情感文本生成任务得到了长足的发展,但是仍存在一些问题。现有技术对情感文本生成方法主要基于RNN架构,但是RNN架构模型文本生成能力较弱,无法与近年最先进的基于Transformer架构的预训练语言生成模型相比。由于Transformer架构模型拥有庞大的网络参数,一般只有中大型企业才能承担相应的硬件资源。并且,在不修改模型体系结构以允许额外的输入属性的情况下,很难控制该类模型进行情感文本生成。因此,现存方法无法在有限的硬件资源条件下,有效利用预训练语言生成模型进行情感文本生成。具体例子如下:
(1)基于RNN架构的经典端对端生成模型LSTM,提出了一种改进的基于对话约束的生成式端到端对话模型,即结合对话的主题、情感和意图的识别,从而生成具有合理情感的回复(管梦雨,王中卿,李寿山,周国栋.基于对话约束的回复生成研究[J].中文信息学报,2022,36(08):144-153.)。这种方法即使能够自适应地生成情感回复文本,但是仍然偏向生成文本长度较短的回复,文本生成能力较弱。
(2)基于Transformer架构的预训练语言模型GPT2-Chinese,提出一种编码解码框架,在Encoder端对用户静态的个性化信息建模编码,并在Decoder端添加了双向独立的注意力模块,实现了个性化的文本生成(高永兵,高军甜,马蓉,杨立东.用户粒度级的个性化社交文本生成模型[J/OL].计算机应用,2022:1-8)。该方法的缺点在于:需要修改模型的原始结构,融入个性化特征并对整个模型参数进行微调训练,需要大量硬件资源支持。
发明内容
本发明的目的在于提供一种基于情感提示微调的情感文本生成方法,主要解决在有限的硬件资源条件下,充分利用最先进的预训练语言生成模型进行情感文本生成的问题。本发明利用NRC情感词典构建情感提示,对模型进行提示微调,在模型每一步解码过程中使用情感解码方法,提高了生成文本的情感表达能力。
本发明至少通过如下技术方案之一实现。
一种基于情感提示微调的情感文本生成方法,包括以下步骤:
S1、利用NRC情感强度词典和自回归预训练语言模型的嵌入层构建连续的不同情感类别的情感提示语;
S2、冻结原有的自回归预训练语言模型参数,使用情感提示语训练自回归预训练语言模型,把情感因素融入到自回归预训练语言模型中,即只对情感参数进行梯度更新,把情感因素融入到语言模型中;
S3、在使用情感提示语训练后,对模型生成的每一步解码阶段使用情感解码方法,进一步增强生成文本的情感表达。
优选的,所述NRC情感强度词典为情感类别强度与单词的映射关系数据库;所述NRC情感强度词典包含14000个单词;
优选的,所述情感类别包含生气、期待、厌恶、恐惧、高兴、伤心、惊讶和信任。
优选的,所述利用NRC情感强度词典和自回归预训练语言模型的嵌入层构建连续的不同情感类别的情感提示语,具体包括以下步骤:
对NRC情感强度词典D进行常用词筛选,剔除非常用词并按照情感强度的大小降序排序,得到新的情感强度词典Dnew;
假设情感提示的长度为H,按照不同情感类别,从情感强度词典Dnew中选择前n个词组成提示语,得到离散的情感提示;
将不同情感类别的离散情感提示输入到预设的自回归预训练语言模型的嵌入层,得到对应情感类别的连续情感提示Pr。
优选的,所述冻结原有的自回归预训练语言模型参数,使用情感提示训练自回归预训练语言模型,把情感因素融入到自回归预训练语言模型中,具体包括以下步骤:
把连续情感提示语作为可调参数θPr融入到自回归预训练语言模型的生成概率函数,得到自回归预训练语言模型的情感文本生成概率函数;
区别于传统微调方法(fine tuning)中对模型全部参数进行梯度更新,使用情感提示微调方法(affective prompt tuning)在情感语料库上进行训练,冻结原有模型参数,只对额外的可调参数θPr进行梯度更新。
优选的,所述情感文本生成概率函数为:
其中,X为文本句子,其由n个词{x1,x2,…,xn}组成,为条件概率,即需要进行生成的词xi由情感提示和前i个词的组合[Pr;x<i]决定,Pr为连续情感提示,xi为文本句子序列中的待生成的第i个词x。
优选的,在使用情感提示语训练后,对自回归预训练语言模型生成的每一步解码阶段进行情感解码,进一步增强生成文本的情感表达,具体包括以下步骤:
获取经过步骤S1和步骤S2得到的情感软提示Prtuned;
获取经过情感文本生成概率函数得到的单词候选集合;
计算单词候选集合中每个单词和情感软提示的最大余弦距离,获取情感相似度;
把情感相似度和情感文本生成概率函数输入到预设的情感词生成概率公式,得到每个单词的生成概率,取最大概率词为下一个生成词。
优选的,情感相似度的计算公式为:
sim=max[cos(hw,hpr)]
其中,hw为单词候选集合中一个单词的隐藏层状态表示,hpr为情感软提示的隐藏层状态表示,cos(hw,hpr)为单词和情感软提示的余弦距离。
优选的,所述把情感相似度和情感文本生成概率函数输入到预设的情感词生成概率公式,得到每个单词的生成概率,取最大概率词为下一个生成词,具体公式为:
xi=argmaxC(k)
优选的,所述自回归预训练语言模型为GPT-2、CTRL或Reformer。
与现有的技术相比,本发明的有益效果为:
1、现存情感文本生成模型大多数基于RNN架构,而基于RNN架构的模型文本生成能力弱于基于Transformer架构的预训练语言模型。但是,Transformer架构模型庞大的网络参数阻碍了开发人员特别是个人开发者对其优越文本生成能力的利用。本发明通过构建情感提示,并利用情感提示微调技术冻结原始模型参数,只需训练少量自定义的额外参数,即可充分利用预训练语言模型进行情感文本生成。
2、在情感提示微调后,通过在模型生成文本的过程中加入情感解码,进一步增强模型生成文本的情感表达能力。与其他模型相比,本发明提出的方法能生成更连贯真实且富有情感的长文本。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本发明的实施例,并与说明书一起用于解释本发明的原理。
图1是实施例示出的一种基于情感提示微调的情感文本生成方法的流程图;
图2是实施例示出的一种构建连续情感提示的流程图;
图3是实施例示出的一种情感提示微调的流程图;
图4是实施例示出的一种情感解码的流程图。
具体实施方式
下面结合实施例及附图对本发明作进一步详细的描述,但本发明的实施方式不限于此。
这里将详细地对示例性实施例进行说明,其示例表示在附图中。以下示例性实施例中所描述的实施方式并不代表与本发明相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本发明的一些方面相一致的装置和方法的例子。
如图1所示的一种基于情感提示微调的情感文本生成方法,包括以下步骤:
步骤S1、利用NRC情感强度词典和自回归预训练语言模型的嵌入层构建连续的不同情感类别的情感提示;
所述NRC情感强度词典为公开的包含14000个单词与对应8种情感类别强度的映射关系数据库;所述情感类别包含anger(生气)、anticipation(期待)、disgust(厌恶)、fear(恐惧)、joy(高兴)、sadness(伤心)、surprise(惊讶)和trust(信任)。本实施例仅选择情感类别joy(高兴)作为例子说明,其他情感类别的例子不再赘述。
所述自回归预训练语言模型包括但不限于GPT-2、CTRL、Reformer等;
一个实施例中,可选择GPT2-Medium模型作为例子说明,所述GPT2-Medium模型拥有354M的网络参数,其语料库token大小为50257;
请参阅图2,本发明的一种构建连续情感提示方法在其一种实施例中,包括以下步骤:
步骤S11、对NRC情感强度词典D进行常用词筛选,剔除非常用词并按照情感强度的大小降序排序,得到新的情感强度词典Dnew;
所述筛选方法为使用T5(Transfer Text-to-Text Transformer)模型的预训练语料库中前5000个单词进行筛选。因为T5模型的预训练语料库是按照词的出现可能性大小降序排序。例如,在筛选排序前,NRC情感强度词典D中情感类别为joy的单词有{(joy,0.924)、(happiness,0.984)、(enjoy,0.812)、(bestdayever,0.938)…},在筛选排序后,新的情感强度词典Dnew中情感类别为joy的单词则为{(happiness,0.984)、(joy,0.924)、(enjoy,0.812)…}。
步骤S12、假设情感提示的长度为H,按照不同情感类别,从情感强度词典Dnew中选择前H个词组成提示语,得到离散的情感提示;
所述情感提示的长度设为3,由上述例子可知,则离散的情感提示则由happiness,joy和enjoy构成。
步骤S13、将不同情感类别的离散情感提示输入到预设的自回归预训练语言模型的嵌入层,得到对应情感类别的;
所述GPT2-Medium模型的嵌入层的维数为(50257,1024);则把所述情感类别joy的离散情感提示输入到嵌入层,输出可得连续情感提示Pr的向量表示,其维数为(3,50257,1024)。
步骤S2、冻结原有的自回归预训练语言模型参数,使用情感提示微调进行模型训练,把情感因素融入到语言模型中;
所述冻结原有的自回归预训练语言模型参数,即在情感提示微调过程中,不对原有网络参数进行梯度更新,只对连续情感提示Pr进行梯度更新;
请参阅图3,本发明的一种情感提示微调方法在其一种实施例中,包括以下步骤:
步骤S21、把连续情感提示Pr作为可调参数θPr融入到模型的生成概率函数,得到模型的情感文本生成概率函数;
所述的模型生成概率函数为:
其中,θ表示模型的原有可训练的网络参数。
在冻结原有模型参数后,所述情感文本生成概率函数为:
其中,X为文本句子,其由一序列的词{x1,x2,…,xn}组成,为条件概率,即需要进行生成的词xi由情感提示和前i个词的组合[Pr;x<i]决定,Pr为连续情感提示,xi为文本句子序列中的待生成的第i个词x。
步骤S22、使用微调方法,在情感语料库上进行训练,只对可调参数θPr进行梯度更新;
所述情感语料库包括但不限于通过网络爬虫获得的情感数据库,通过人工进行情感类别分类的自建情感数据集和公开的情感数据集如GoEmotions、ISEAR、SemEval。本实施例仅选择GoEmotions情感数据集作为例子说明。在GoEmotions中,每一行数据由语句和标签组成,例如(I am happy,joy),所述其他情感数据集的数据存储方式与之类似;所述微调方法与传统微调方法类似,但只对可调参数θPr进行梯度更新,所述微调参数配置也与传统微调配置类似。
步骤S3、在使用情感提示微调后,对模型生成的每一步解码阶段使用情感解码方法,进一步增强生成文本的情感表达;
所述情感解码方法,首先把经过情感提示微调的情感提示与语言模型预测生成的最大概率候选集作为输入,然后输入到模型的解码器进行计算,最后输出情感词生成概率;
所述解码器,以输入文本编码向量序列为前缀信息进行自回归解码。所述自回归解码,即当前隐藏层状态hi由当前输入文本编码向量hi和前缀隐藏层状态h<i通过公式hi=LM(xi,h<i)计算得出,其中LM为语言模型,最后逐时间步地计算出最后一层的隐藏层状态。
请参阅图4,本发明的一种情感解码方法在其一种实施例中,包括以下步骤:
步骤S31、获取经过步骤S1和步骤S2后得到的情感软提示Prtuned;
所述情感软提示Prtuned由连续情感提示Pr经过情感提示微调后得到;不难理解,在本实施例中,情感软提示Prtuned是一个情感提示长度为3的三维向量:(3,50257,1024);
步骤S32、获取经过情感文本生成概率函数得到的单词候选集合;
步骤S33、计算单词候选集合中每个单词和情感软提示的最大余弦距离,获取情感相似度;
步骤S34、把情感相似度和情感文本生成概率函数输入到预设的情感词生成概率公式,得到每个单词的生成概率,取最大概率词为下一个生成词
所述情感相似度的计算公式为:
sim=max[cos(hw,hpr)]
其中,hw为单词候选集合中一个单词的隐藏层状态表示,hpr为情感软提示的隐藏层状态表示,cos(hw,hpr)为单词和情感软提示的余弦距离;
所述预设的情感词生成概率公式为:
xi=argmaxC(k)
所述情感强度系数λ的取值范围为[0,1],当情感强度系数为0时,则不进行情感解码;所述单词候选集合的元素个数k的取值范围为[5,10]。
在本实施例中,假设前缀输入文本为“Love is”,情感强度系数λ为0.6,单词候选集合的元素个数k为5。首先,前缀输入文本的序列编码信息经过情感文本生成概率函数计算,可以得到单词候选集合中每个单词对应的预测生成概率:{(a,0.7),(the,0.6),(beautiful,0.5),(painful,0.4),(gift,0.3)}。然后,计算所述情感相似度,可以得到每个单词对应的情感相似度:{(beautiful,0.8),(gift,0.6),(painful,0.3),(a,0.2),(the,0.1)}。最后,经过情感词生成概率公式计算,可以得到情感词的预测生成概率:
{(beautiful,0.98),(a,0.82),(gift,0.66),(the,0.66),(painful,0.52)}。所以,前缀输入文本的续写词为“beautiful”,得到输出文本“Love is beautiful”。如果输出文本的长度还未达设定的最大文本生成长度,则把“Love is beautiful”作为新的前缀输入文本,自回归地进行情感文本生成。
以上示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制。熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本发明的保护范围之内。
Claims (10)
1.一种基于情感提示微调的情感文本生成方法,其特征在于,包括以下步骤:
S1、利用NRC情感强度词典和自回归预训练语言模型的嵌入层构建连续的不同情感类别的情感提示语;
S2、冻结原有的自回归预训练语言模型参数,使用情感提示语训练自回归预训练语言模型,把情感因素融入到自回归预训练语言模型中,即只对情感参数进行梯度更新,把情感因素融入到语言模型中;
S3、在使用情感提示语训练后,对模型生成的每一步解码阶段使用情感解码方法,进一步增强生成文本的情感表达。
2.根据权利要求1所述的一种基于情感提示微调的情感文本生成方法,其特征在于,所述NRC情感强度词典为情感类别强度与单词的映射关系数据库;所述NRC情感强度词典包含14000个单词;
3.根据权利要求1所述的一种基于情感提示微调的情感文本生成方法,其特征在于,所述情感类别包括生气、期待、厌恶、恐惧、高兴、伤心、惊讶和信任。
4.根据权利要求1所述的一种基于情感提示微调的情感文本生成方法,其特征在于,所述利用NRC情感强度词典和自回归预训练语言模型的嵌入层构建连续的不同情感类别的情感提示语,具体包括以下步骤:
对NRC情感强度词典D进行常用词筛选,剔除非常用词并按照情感强度的大小降序排序,得到新的情感强度词典Dnew;
假设情感提示的长度为H,按照不同情感类别,从情感强度词典Dnew中选择前n个词组成提示语,得到离散的情感提示;
将不同情感类别的离散情感提示输入到预设的自回归预训练语言模型的嵌入层,得到对应情感类别的连续情感提示Pr。
5.根据权利要求1所述的一种基于情感提示微调的情感文本生成方法,其特征在于,所述冻结原有的自回归预训练语言模型参数,使用情感提示训练自回归预训练语言模型,把情感因素融入到自回归预训练语言模型中,具体包括以下步骤:
把连续情感提示语作为可调参数θPr融入到自回归预训练语言模型的生成概率函数,得到自回归预训练语言模型的情感文本生成概率函数;在情感语料库上进行训练,冻结原有模型参数,只对额外的可调参数θPr进行梯度更新。
7.根据权利要求1所述的一种基于情感提示微调的情感文本生成方法,其特征在于,在使用情感提示语训练后,对自回归预训练语言模型生成的每一步解码阶段进行情感解码,进一步增强生成文本的情感表达,具体包括以下步骤:
获取经过步骤S1和步骤S2得到的情感软提示Prtuned;
获取经过情感文本生成概率函数得到的单词候选集合;
计算单词候选集合中每个单词和情感软提示的最大余弦距离,获取情感相似度;
把情感相似度和情感文本生成概率函数输入到预设的情感词生成概率公式,得到每个单词的生成概率,取最大概率词为下一个生成词。
8.根据权利要求7所述的一种基于情感提示微调的情感文本生成方法,其特征在于,情感相似度的计算公式为:
sim=max[cos(hw,hpr)]
其中,hw为单词候选集合中一个单词的隐藏层状态表示,hpr为情感软提示的隐藏层状态表示,cos(hw,hpr)为单词和情感软提示的余弦距离。
10.根据权利要求1~9任一项所述的一种基于情感提示微调的情感文本生成方法,其特征在于,所述自回归预训练语言模型为GPT-2、CTRL或Reformer。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211710150.2A CN115858736A (zh) | 2022-12-29 | 2022-12-29 | 一种基于情感提示微调的情感文本生成方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211710150.2A CN115858736A (zh) | 2022-12-29 | 2022-12-29 | 一种基于情感提示微调的情感文本生成方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115858736A true CN115858736A (zh) | 2023-03-28 |
Family
ID=85656003
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211710150.2A Pending CN115858736A (zh) | 2022-12-29 | 2022-12-29 | 一种基于情感提示微调的情感文本生成方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115858736A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117271780A (zh) * | 2023-11-20 | 2023-12-22 | 苏州大学 | 一种基于大语言模型自身对上下文进行压缩的方法及*** |
-
2022
- 2022-12-29 CN CN202211710150.2A patent/CN115858736A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117271780A (zh) * | 2023-11-20 | 2023-12-22 | 苏州大学 | 一种基于大语言模型自身对上下文进行压缩的方法及*** |
CN117271780B (zh) * | 2023-11-20 | 2024-02-23 | 苏州大学 | 一种基于大语言模型自身对上下文进行压缩的方法及*** |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110134771B (zh) | 一种基于多注意力机制融合网络问答***的实现方法 | |
Luo et al. | Text steganography with high embedding rate: Using recurrent neural networks to generate chinese classic poetry | |
CN111159368A (zh) | 一种个性化对话的回复生成方法 | |
CN112765345A (zh) | 一种融合预训练模型的文本摘要自动生成方法及*** | |
CN111125333B (zh) | 一种基于表示学习与多层覆盖机制的生成式知识问答方法 | |
CN113435211B (zh) | 一种结合外部知识的文本隐式情感分析方法 | |
CN111626041B (zh) | 一种基于深度学习的音乐评论生成方法 | |
CN111767694B (zh) | 文本生成方法、装置和计算机可读存储介质 | |
CN117236337B (zh) | 基于混合提示学习完成历史知识图谱生成自然语言方法 | |
CN111666756A (zh) | 一种基于主题融合的序列模型文本摘要生成方法 | |
CN116484879A (zh) | 提示信息的生成方法、装置、电子设备及存储介质 | |
CN111241820A (zh) | 不良用语识别方法、装置、电子装置及存储介质 | |
CN112183106B (zh) | 一种基于音素联想及深度学习的语义理解方法及装置 | |
Huang et al. | C-Rnn: a fine-grained language model for image captioning | |
CN117252957A (zh) | 根据文字描述生成带精确文字图片的方法、装置及存储介质 | |
CN115759119A (zh) | 一种金融文本情感分析方法、***、介质和设备 | |
CN115858736A (zh) | 一种基于情感提示微调的情感文本生成方法 | |
Mathur et al. | A scaled‐down neural conversational model for chatbots | |
CN113591472B (zh) | 歌词生成方法、歌词生成模型训练方法、装置及电子设备 | |
CN117113937A (zh) | 一种基于大规模语言模型的电力领域阅读理解方法和*** | |
CN111368531A (zh) | 翻译文本处理方法、装置、计算机设备和存储介质 | |
CN112464673B (zh) | 融合义原信息的语言含义理解方法 | |
CN115374784A (zh) | 一种多模态信息选择性融合的中文命名实体识别方法 | |
Jiang et al. | Pednet: A persona enhanced dual alternating learning network for conversational response generation | |
CN111931496A (zh) | 一种基于递归神经网络模型的文本风格转换***及方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |