CN116151232B - 多阶段训练文本标题生成模型的方法及装置 - Google Patents

多阶段训练文本标题生成模型的方法及装置 Download PDF

Info

Publication number
CN116151232B
CN116151232B CN202310443810.3A CN202310443810A CN116151232B CN 116151232 B CN116151232 B CN 116151232B CN 202310443810 A CN202310443810 A CN 202310443810A CN 116151232 B CN116151232 B CN 116151232B
Authority
CN
China
Prior art keywords
text
training
data set
title
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202310443810.3A
Other languages
English (en)
Other versions
CN116151232A (zh
Inventor
王芳
暴宇健
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Longzhi Digital Technology Service Co Ltd
Original Assignee
Beijing Longzhi Digital Technology Service Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Longzhi Digital Technology Service Co Ltd filed Critical Beijing Longzhi Digital Technology Service Co Ltd
Priority to CN202310443810.3A priority Critical patent/CN116151232B/zh
Publication of CN116151232A publication Critical patent/CN116151232A/zh
Application granted granted Critical
Publication of CN116151232B publication Critical patent/CN116151232B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/258Heading extraction; Automatic titling; Numbering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Machine Translation (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

本公开涉及机器学习技术领域,提供了一种多阶段训练文本标题生成模型的方法及装置。该方法包括:获取第一训练数据集,利用第一训练数据集对文本标题生成模型进行第一阶段训练;获取第一文本数据集,利用第一阶段训练后的文本标题生成模型为第一文本数据集中的文本生成标题,根据第一文本数据集中的文本以及该文本对应的标题生成第二训练数据集;利用第二训练数据集对标题打分模型进行训练;获取第二文本数据集,利用第二文本数据集和训练后的标题打分模型对第一阶段训练后的文本标题生成模型进行第二阶段训练。采用上述技术手段,解决现有技术中,生成的文本标题不通顺以及语义不连贯的问题。

Description

多阶段训练文本标题生成模型的方法及装置
技术领域
本公开涉及机器学习技术领域,尤其涉及一种多阶段训练文本标题生成模型的方法及装置。
背景技术
近年来,随着信息技术的跨越式发展,公众号、博客、新闻等信息传递方式层出不穷,用户获取信息的便捷度不断提升,每天可以通过各种渠道收获各种信息,信息量无限攀升,文本信息呈现***式增长,用户几乎被文本大数据所淹没。但是,用户精力有限,如何让用户在短时间内获取文本的关键信息,从大量文本信息中快速提取重要的内容,已成为当今面对信息***的一个迫切需求,因此自动生成最贴切文本内容的标题,成为数据挖掘领域的研究热点。目前在生成文本标题的方法中主要考虑单词词频,也就是一个单词出现次数越多,那么该单词越重要。该方法无法获得过多的语义信息,也无法获得完整的语义信息,导致生成的标题不通顺,语义不连贯。
发明内容
有鉴于此,本公开实施例提供了一种多阶段训练文本标题生成模型的方法、装置、电子设备及计算机可读存储介质,以解决现有技术中,生成的文本标题不通顺以及语义不连贯的问题。
本公开实施例的第一方面,提供了一种多阶段训练文本标题生成模型的方法,包括:获取第一训练数据集,利用第一训练数据集对文本标题生成模型进行第一阶段训练,其中,第一阶段训练为有监督训练;获取第一文本数据集,利用第一阶段训练后的文本标题生成模型为第一文本数据集中的文本生成标题,根据第一文本数据集中的文本以及该文本对应的标题生成第二训练数据集;利用第二训练数据集对标题打分模型进行训练,其中,对标题打分模型进行的训练为有监督训练;获取第二文本数据集,利用第二文本数据集和训练后的标题打分模型对第一阶段训练后的文本标题生成模型进行第二阶段训练,其中,第二阶段训练为强化学习训练。
本公开实施例的第二方面,提供了一种多阶段训练文本标题生成模型的装置,包括:第一训练模块,被配置为获取第一训练数据集,利用第一训练数据集对文本标题生成模型进行第一阶段训练,其中,第一阶段训练为有监督训练;生成模块,被配置为获取第一文本数据集,利用第一阶段训练后的文本标题生成模型为第一文本数据集中的文本生成标题,根据第一文本数据集中的文本以及该文本对应的标题生成第二训练数据集;第二训练模块,被配置为利用第二训练数据集对标题打分模型进行训练,其中,对标题打分模型进行的训练为有监督训练;第三训练模块,被配置为获取第二文本数据集,利用第二文本数据集和训练后的标题打分模型对第一阶段训练后的文本标题生成模型进行第二阶段训练,其中,第二阶段训练为强化学习训练。
本公开实施例的第三方面,提供了一种电子设备,包括存储器、处理器以及存储在存储器中并且可在处理器上运行的计算机程序,该处理器执行计算机程序时实现上述方法的步骤。
本公开实施例的第四方面,提供了一种计算机可读存储介质,该计算机可读存储介质存储有计算机程序,该计算机程序被处理器执行时实现上述方法的步骤。
本公开实施例与现有技术相比存在的有益效果是:因为本公开实施例通过获取第一训练数据集,利用第一训练数据集对文本标题生成模型进行第一阶段训练,其中,第一阶段训练为有监督训练;获取第一文本数据集,利用第一阶段训练后的文本标题生成模型为第一文本数据集中的文本生成标题,根据第一文本数据集中的文本以及该文本对应的标题生成第二训练数据集;利用第二训练数据集对标题打分模型进行训练,其中,对标题打分模型进行的训练为有监督训练;获取第二文本数据集,利用第二文本数据集和训练后的标题打分模型对第一阶段训练后的文本标题生成模型进行第二阶段训练,其中,第二阶段训练为强化学习训练,因此,采用上述技术手段,可以解决现有技术中,生成的文本标题不通顺以及语义不连贯的问题,进而提高生成的文本标题的可读性。
附图说明
为了更清楚地说明本公开实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1是本公开实施例提供的一种多阶段训练文本标题生成模型的方法的流程示意图(一);
图2是本公开实施例提供的一种多阶段训练文本标题生成模型的方法的流程示意图(二);
图3是本公开实施例提供的一种多阶段训练文本标题生成模型的装置的结构示意图;
图4是本公开实施例提供的一种电子设备的结构示意图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定***结构、技术之类的具体细节,以便透彻理解本公开实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本公开。在其它情况中,省略对众所周知的***、装置、电路以及方法的详细说明,以免不必要的细节妨碍本公开的描述。
图1是本公开实施例提供的一种多阶段训练文本标题生成模型的方法的流程示意图(一)。图1的多阶段训练文本标题生成模型的方法可以由计算机或服务器,或者计算机或服务器上的软件执行。如图1所示,该多阶段训练文本标题生成模型的方法包括:
S101,获取第一训练数据集,利用第一训练数据集对文本标题生成模型进行第一阶段训练,其中,第一阶段训练为有监督训练;
S102,获取第一文本数据集,利用第一阶段训练后的文本标题生成模型为第一文本数据集中的文本生成标题,根据第一文本数据集中的文本以及该文本对应的标题生成第二训练数据集;
S103,利用第二训练数据集对标题打分模型进行训练,其中,对标题打分模型进行的训练为有监督训练;
S104,获取第二文本数据集,利用第二文本数据集和训练后的标题打分模型对第一阶段训练后的文本标题生成模型进行第二阶段训练,其中,第二阶段训练为强化学习训练。
有监督训练可以理解为训练样本有对应的标签,与之相对的是无监督训练,无监督训练的训练样本没有对应的标签。本公开实施例中对文本标题生成模型进行第一阶段训练是有监督训练,对标题打分模型进行的训练为有监督训练,对文本标题生成模型进行第二阶段训练为强化学习训练。第一训练数据集中训练样本是文本,每条文本的标签是其对应的标题;第二训练数据集中训练样本是文本和其对应的标题,每个训练样本的标签是该训练样本对应的得分;第二文本数据集和第一文本数据集均是只包括文本,文本没有对应的标签,第二文本数据集可以看做是第二阶段训练中的训练数据集。
可以理解的是,虽然本公开实施例对第一训练数据集、第二训练数据集、第二文本数据集和第一文本数据集中包含文本的数量没有强调,但是实际上是均包括多条文本。为了便于理解,可以只理解一条文本和该文本对应的标签。
根据本公开实施例提供的技术方案,获取第一训练数据集,利用第一训练数据集对文本标题生成模型进行第一阶段训练,其中,第一阶段训练为有监督训练;获取第一文本数据集,利用第一阶段训练后的文本标题生成模型为第一文本数据集中的文本生成标题,根据第一文本数据集中的文本以及该文本对应的标题生成第二训练数据集;利用第二训练数据集对标题打分模型进行训练,其中,对标题打分模型进行的训练为有监督训练;获取第二文本数据集,利用第二文本数据集和训练后的标题打分模型对第一阶段训练后的文本标题生成模型进行第二阶段训练,其中,第二阶段训练为强化学习训练,因此,采用上述技术手段,可以解决现有技术中,生成的文本标题不通顺以及语义不连贯的问题,进而提高生成的文本标题的可读性。
利用第二文本数据集和训练后的标题打分模型对第一阶段训练后的文本标题生成模型进行第二阶段训练,包括:利用第一阶段训练后的文本标题生成模型为第二文本数据集中的文本生成标题,利用训练后的标题打分模型为第二文本数据集中的文本对应的标题打分,将第二文本数据集中的文本作为输入,将第二文本数据集中的文本对应的标题作为输出,将打分结果作为奖励对第一阶段训练后的文本标题生成模型进行第二阶段训练。
打分结果是文本对应的标题的得分,实际上文本标题生成模型为每条文本生成多个标题,标题打分模型对一条文本和一个标题的组合进行打分,标题越是切合文本,该组合到的得分越高。在强化学习中,也就是第二阶段训练中,将文本作为文本标题生成模型的输入,将文本对应的标题作为文本标题生成模型的输出,将打分结果作为文本标题生成模型在输入是文本输出是文本对应的标题的奖励,对文本标题生成模型进行训练。
利用第二文本数据集和训练后的标题打分模型对第一阶段训练后的文本标题生成模型进行第二阶段训练,包括:根据第二文本数据集中的文本、该文本对应的标题以及该文本对应标题的打分结果,利用策略梯度算法更新第一阶段训练后的文本标题生成模型的模型参数。
本公开实施例根据本公开的应用场景设计一个最契合的策略梯度算法,策略梯度算法如下:
其中,θ为所述模型参数,为所述文本标题生成模型的步长,/>为第n条文本的标题,/>为第n条文本,/>为输入是/>时输出是/>的概率,/>是对求梯度,/>表示/>的标题是/>时的得分,N是n的最大值。
作为一个变量理解。/>准确来说是第二阶段训练中为文本标题生成模型设计的步长,/>和第二阶段训练中文本标题生成模型的收敛速度相关。/>是标题打分模型输出的,/>是文本标题生成模型输出的。
根据第一文本数据集中的文本以及该文本对应的标题生成第二训练数据集之前,方法还包括:将第一文本数据集中的文本以及该文本对应的标题投放到多个网上平台,以获取关于多个网上平台的用户对第一文本数据集中的文本对应标题的喜好的多个指标,其中,多个指标,包括:单位时间内标题的点击数量,文本上平均停留时长,单位时间内文本的分享数量;根据第一文本数据集中的文本对应标题所对应的多个指标确定该文本对应标题的得分;将第一文本数据集中的文本以及该文本对应的标题作为训练样本,将该文本对应标题的得分作为标签,生成第二训练数据集。
将第一文本数据集中的文本以及该文本对应的标题,以一个标题对应一个文本地组合(需要说明的是,多个标题可以对应的是同一个文本)投放到多个网上平台。网上平台的用户在看到感兴趣的标题时,点击标题就可以看到标题对应的文本,在该过程中收集每个组合的多个指标,包括:单位时间内标题的点击数量,文本上平均停留时长(也就是用户点击标题后浏览文本的平均时长),单位时间内文本的分享数量等(也就是单位时间内用户分享文每个组合的次数)。
根据每个组合的多个指标确定每个组合的得分,可以是每个指标有对应的得分,对每个组合的多个指标有对应的得分加权求和得到该组合的得分。一个组合为一个训练样本,训练样本的得分作为标签,得到第二训练数据集。
在一个可选实施例中,包括:获取待生成标题的目标文本;将目标文本输入第二阶段训练后的文本标题生成模型,输出目标文本的标题。
第二阶段训练后的文本标题生成模型是最终的文本标题生成模型,可以用于生成文本的标题,提炼文本的核心等。
文本标题生成模型为BART模型、T5模型、GPT2模型或者GPT3模型;标题打分模型为BERT模型、ALBERT模型、simBERT模型、DeBERT模型或者roBERTa模型;第二阶段训练采用的强化学习算法为PG(策略梯度)算法、PPO算法、TRPO算法或者A3C算法。
图2是本公开实施例提供的一种多阶段训练文本标题生成模型的方法的流程示意图(二)。如图2所示,包括:
S201,利用第一训练数据集对文本标题生成模型进行第一阶段训练;
S202,利用第一阶段训练后的文本标题生成模型为第一文本数据集中的文本生成标题,根据第一文本数据集中的文本以及该文本对应的标题生成第二训练数据集;
S203,利用第二训练数据集对标题打分模型进行训练;
S204,利用文本标题生成模型为第二文本数据集中的文本生成标题,利用标题打分模型为第二文本数据集中的文本对应的标题打分;
S205,将第二文本数据集中的文本作为输入,将第二文本数据集中的文本对应的标题作为输出,将打分结果作为奖励,利用策略梯度算法更新文本标题生成模型的模型参数,对文本标题生成模型进行第二阶段训练。
根据本公开实施例提供的技术方案,利用第一训练数据集对文本标题生成模型进行第一阶段训练;利用第一阶段训练后的文本标题生成模型为第一文本数据集中的文本生成标题,根据第一文本数据集中的文本以及该文本对应的标题生成第二训练数据集;利用第二训练数据集对标题打分模型进行训练;利用文本标题生成模型为第二文本数据集中的文本生成标题,利用标题打分模型为第二文本数据集中的文本对应的标题打分;将第二文本数据集中的文本作为输入,将第二文本数据集中的文本对应的标题作为输出,将打分结果作为奖励,利用策略梯度算法更新文本标题生成模型的模型参数,对文本标题生成模型进行第二阶段训练,因此,采用上述技术手段,可以解决现有技术中,生成的文本标题不通顺以及语义不连贯的问题,进而提高生成的文本标题的可读性。
上述所有可选技术方案,可以采用任意结合形成本申请的可选实施例,在此不再一一赘述。
下述为本公开装置实施例,可以用于执行本公开方法实施例。对于本公开装置实施例中未披露的细节,请参照本公开方法实施例。
图3是本公开实施例提供的一种多阶段训练文本标题生成模型的装置的示意图。如图3所示,该多阶段训练文本标题生成模型的装置包括:
第一训练模块301,被配置为获取第一训练数据集,利用第一训练数据集对文本标题生成模型进行第一阶段训练,其中,第一阶段训练为有监督训练;
生成模块302,被配置为获取第一文本数据集,利用第一阶段训练后的文本标题生成模型为第一文本数据集中的文本生成标题,根据第一文本数据集中的文本以及该文本对应的标题生成第二训练数据集;
第二训练模块303,被配置为利用第二训练数据集对标题打分模型进行训练,其中,对标题打分模型进行的训练为有监督训练;
第三训练模块304,被配置为获取第二文本数据集,利用第二文本数据集和训练后的标题打分模型对第一阶段训练后的文本标题生成模型进行第二阶段训练,其中,第二阶段训练为强化学习训练。
有监督训练可以理解为训练样本有对应的标签,与之相对的是无监督训练,无监督训练的训练样本没有对应的标签。本公开实施例中对文本标题生成模型进行第一阶段训练是有监督训练,对标题打分模型进行的训练为有监督训练,对文本标题生成模型进行第二阶段训练为强化学习训练。第一训练数据集中训练样本是文本,每条文本的标签是其对应的标题;第二训练数据集中训练样本是文本和其对应的标题,每个训练样本的标签是该训练样本对应的得分;第二文本数据集和第一文本数据集均是只包括文本,文本没有对应的标签,第二文本数据集可以看做是第二阶段训练中的训练数据集。
可以理解的是,虽然本公开实施例对第一训练数据集、第二训练数据集、第二文本数据集和第一文本数据集中包含文本的数量没有强调,但是实际上是均包括多条文本。为了便于理解,可以只理解一条文本和该文本对应的标签。
根据本公开实施例提供的技术方案,获取第一训练数据集,利用第一训练数据集对文本标题生成模型进行第一阶段训练,其中,第一阶段训练为有监督训练;获取第一文本数据集,利用第一阶段训练后的文本标题生成模型为第一文本数据集中的文本生成标题,根据第一文本数据集中的文本以及该文本对应的标题生成第二训练数据集;利用第二训练数据集对标题打分模型进行训练,其中,对标题打分模型进行的训练为有监督训练;获取第二文本数据集,利用第二文本数据集和训练后的标题打分模型对第一阶段训练后的文本标题生成模型进行第二阶段训练,其中,第二阶段训练为强化学习训练,因此,采用上述技术手段,可以解决现有技术中,生成的文本标题不通顺以及语义不连贯的问题,进而提高生成的文本标题的可读性。
可选地,第三训练模块304还被配置为利用第一阶段训练后的文本标题生成模型为第二文本数据集中的文本生成标题,利用训练后的标题打分模型为第二文本数据集中的文本对应的标题打分,将第二文本数据集中的文本作为输入,将第二文本数据集中的文本对应的标题作为输出,将打分结果作为奖励对第一阶段训练后的文本标题生成模型进行第二阶段训练。
打分结果是文本对应的标题的得分,实际上文本标题生成模型为每条文本生成多个标题,标题打分模型对一条文本和一个标题的组合进行打分,标题越是切合文本,该组合到的得分越高。在强化学习中,也就是第二阶段训练中,将文本作为文本标题生成模型的输入,将文本对应的标题作为文本标题生成模型的输出,将打分结果作为文本标题生成模型在输入是文本输出是文本对应的标题的奖励,对文本标题生成模型进行训练。
可选地,第三训练模块304还被配置为根据第二文本数据集中的文本、该文本对应的标题以及该文本对应标题的打分结果,利用策略梯度算法更新第一阶段训练后的文本标题生成模型的模型参数。
本公开实施例根据本公开的应用场景设计一个最契合的策略梯度算法,策略梯度算法如下:
其中,θ为所述模型参数,为所述文本标题生成模型的步长,/>为第n条文本的标题,/>为第n条文本,/>为输入是/>时输出是/>的概率,/>是对求梯度,/>表示/>的标题是/>时的得分,N是n的最大值。
作为一个变量理解。/>准确来说是第二阶段训练中为文本标题生成模型设计的步长,/>和第二阶段训练中文本标题生成模型的收敛速度相关。/>是标题打分模型输出的,/>是文本标题生成模型输出的。
可选地,生成模块302还被配置为将第一文本数据集中的文本以及该文本对应的标题投放到多个网上平台,以获取关于多个网上平台的用户对第一文本数据集中的文本对应标题的喜好的多个指标,其中,多个指标,包括:单位时间内标题的点击数量,文本上平均停留时长,单位时间内文本的分享数量;根据第一文本数据集中的文本对应标题所对应的多个指标确定该文本对应标题的得分;将第一文本数据集中的文本以及该文本对应的标题作为训练样本,将该文本对应标题的得分作为标签,生成第二训练数据集。
将第一文本数据集中的文本以及该文本对应的标题,以一个标题对应一个文本地组合(需要说明的是,多个标题可以对应的是同一个文本)投放到多个网上平台。网上平台的用户在看到感兴趣的标题时,点击标题就可以看到标题对应的文本,在该过程中收集每个组合的多个指标,包括:单位时间内标题的点击数量,文本上平均停留时长(也就是用户点击标题后浏览文本的平均时长),单位时间内文本的分享数量等(也就是单位时间内用户分享文每个组合的次数)。
根据每个组合的多个指标确定每个组合的得分,可以是每个指标有对应的得分,对每个组合的多个指标有对应的得分加权求和得到该组合的得分。一个组合为一个训练样本,训练样本的得分作为标签,得到第二训练数据集。
可选地,第三训练模块304还被配置为获取待生成标题的目标文本;将目标文本输入第二阶段训练后的文本标题生成模型,输出目标文本的标题。
第二阶段训练后的文本标题生成模型是最终的文本标题生成模型,可以用于生成文本的标题,提炼文本的核心等。
文本标题生成模型为BART模型、T5模型、GPT2模型或者GPT3模型;标题打分模型为BERT模型、ALBERT模型、simBERT模型、DeBERT模型或者roBERTa模型;第二阶段训练采用的强化学习算法为PG(策略梯度)算法,PPO算法、TRPO算法或者A3C算法。
可选地,第三训练模块304还被配置为利用第一训练数据集对文本标题生成模型进行第一阶段训练;利用第一阶段训练后的文本标题生成模型为第一文本数据集中的文本生成标题,根据第一文本数据集中的文本以及该文本对应的标题生成第二训练数据集;利用第二训练数据集对标题打分模型进行训练;利用文本标题生成模型为第二文本数据集中的文本生成标题,利用标题打分模型为第二文本数据集中的文本对应的标题打分;将第二文本数据集中的文本作为输入,将第二文本数据集中的文本对应的标题作为输出,将打分结果作为奖励,利用策略梯度算法更新文本标题生成模型的模型参数,对文本标题生成模型进行第二阶段训练,因此,采用上述技术手段,可以解决现有技术中,生成的文本标题不通顺以及语义不连贯的问题,进而提高生成的文本标题的可读性。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本公开实施例的实施过程构成任何限定。
图4是本公开实施例提供的电子设备4的示意图。如图4所示,该实施例的电子设备4包括:处理器401、存储器402以及存储在该存储器402中并且可在处理器401上运行的计算机程序403。处理器401执行计算机程序403时实现上述各个方法实施例中的步骤。或者,处理器401执行计算机程序403时实现上述各装置实施例中各模块/单元的功能。
电子设备4可以是桌上型计算机、笔记本、掌上电脑及云端服务器等电子设备。电子设备4可以包括但不仅限于处理器401和存储器402。本领域技术人员可以理解,图4仅仅是电子设备4的示例,并不构成对电子设备4的限定,可以包括比图示更多或更少的部件,或者不同的部件。
处理器401可以是中央处理单元(Central Processing Unit,CPU),也可以是其它通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application SpecificIntegrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其它可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。
存储器402可以是电子设备4的内部存储单元,例如,电子设备4的硬盘或内存。存储器402也可以是电子设备4的外部存储设备,例如,电子设备4上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。存储器402还可以既包括电子设备4的内部存储单元也包括外部存储设备。存储器402用于存储计算机程序以及电子设备所需的其它程序和数据。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读存储介质中。基于这样的理解,本公开实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,计算机程序可以存储在计算机可读存储介质中,该计算机程序在被处理器执行时,可以实现上述各个方法实施例的步骤。计算机程序可以包括计算机程序代码,计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。计算机可读介质可以包括:能够携带计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、电载波信号、电信信号以及软件分发介质等。需要说明的是,计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如,在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。
以上实施例仅用以说明本公开的技术方案,而非对其限制;尽管参照前述实施例对本公开进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本公开各实施例技术方案的精神和范围,均应包含在本公开的保护范围之内。

Claims (6)

1.一种多阶段训练文本标题生成模型的方法,其特征在于,包括:
获取第一训练数据集,利用所述第一训练数据集对文本标题生成模型进行第一阶段训练,其中,所述第一阶段训练为有监督训练;所述文本标题生成模型为BART模型、T5模型、GPT2模型或者GPT3模型;
获取第一文本数据集,利用所述第一阶段训练后的所述文本标题生成模型为所述第一文本数据集中的文本生成标题,根据所述第一文本数据集中的文本以及该文本对应的标题生成第二训练数据集;
利用所述第二训练数据集对标题打分模型进行训练,其中,对所述标题打分模型进行的训练为所述有监督训练;所述标题打分模型为BERT模型、ALBERT模型、simBERT模型、DeBERT模型或者roBERTa模型;
获取第二文本数据集,利用所述第二文本数据集和训练后的所述标题打分模型对所述第一阶段训练后的所述文本标题生成模型进行第二阶段训练,其中,所述第二阶段训练为强化学习训练;所述第二阶段训练采用的强化学习算法为PG算法、PPO算法、TRPO算法或者A3C算法;
其中,所述文本标题生成模型为每条文本生成多个标题,所述标题打分模型对一条文本和一个标题的组合进行打分;
所述根据所述第一文本数据集中的文本以及该文本对应的标题生成第二训练数据集,包括:
将所述第一文本数据集中的文本以及该文本对应的标题,以一个标题对应一条文本的组合投放到多个网上平台,以获取关于多个网上平台的用户对所述第一文本数据集中的文本对应标题的喜好的多个指标,其中,多个指标,包括:单位时间内标题的点击数量,文本上平均停留时长,单位时间内文本的分享数量;
根据所述第一文本数据集中的文本对应标题所对应的多个指标确定该文本对应标题的得分;
将所述第一文本数据集中的文本以及该文本对应的标题作为训练样本,将该文本对应标题的得分作为标签,生成所述第二训练数据集;
利用所述第二文本数据集和训练后的所述标题打分模型对所述第一阶段训练后的所述文本标题生成模型进行第二阶段训练,包括:
利用所述第一阶段训练后的所述文本标题生成模型为所述第二文本数据集中的文本生成标题,利用训练后的所述标题打分模型为所述第二文本数据集中的文本对应的标题打分,将所述第二文本数据集中的文本作为输入,将所述第二文本数据集中的文本对应的标题作为输出,将打分结果作为奖励,利用策略梯度算法更新所述第一阶段训练后的所述文本标题生成模型的模型参数。
2.根据权利要求1所述的方法,其特征在于,所述策略梯度算法如下:
其中,θ为所述模型参数,为所述文本标题生成模型的步长,/>为第n条文本的标题,为第n条文本,/>为输入是/>时输出是/>的概率,/>是对求梯度,/>表示/>的标题是/>时的得分,N是n的最大值。
3.根据权利要求1所述的方法,其特征在于,包括:
获取待生成标题的目标文本;
将所述目标文本输入所述第二阶段训练后的所述文本标题生成模型,输出所述目标文本的标题。
4.一种多阶段训练文本标题生成模型的装置,其特征在于,包括:
第一训练模块,被配置为获取第一训练数据集,利用所述第一训练数据集对文本标题生成模型进行第一阶段训练,其中,所述第一阶段训练为有监督训练;所述文本标题生成模型为BART模型、T5模型、GPT2模型或者GPT3模型;
生成模块,被配置为获取第一文本数据集,利用所述第一阶段训练后的所述文本标题生成模型为所述第一文本数据集中的文本生成标题,根据所述第一文本数据集中的文本以及该文本对应的标题生成第二训练数据集;
第二训练模块,被配置为利用所述第二训练数据集对标题打分模型进行训练,其中,对所述标题打分模型进行的训练为所述有监督训练;所述标题打分模型为BERT模型、ALBERT模型、simBERT模型、DeBERT模型或者roBERTa模型;
第三训练模块,被配置为获取第二文本数据集,利用所述第二文本数据集和训练后的所述标题打分模型对所述第一阶段训练后的所述文本标题生成模型进行第二阶段训练,其中,所述第二阶段训练为强化学习训练;所述第二阶段训练采用的强化学习算法为PG算法、PPO算法、TRPO算法或者A3C算法;
其中,所述文本标题生成模型为每条文本生成多个标题,所述标题打分模型对一条文本和一个标题的组合进行打分;
所述生成模块具体被配置为:将所述第一文本数据集中的文本以及该文本对应的标题,以一个标题对应一条文本的组合投放到多个网上平台,以获取关于多个网上平台的用户对所述第一文本数据集中的文本对应标题的喜好的多个指标,其中,多个指标,包括:单位时间内标题的点击数量,文本上平均停留时长,单位时间内文本的分享数量;根据所述第一文本数据集中的文本对应标题所对应的多个指标确定该文本对应标题的得分;将所述第一文本数据集中的文本以及该文本对应的标题作为训练样本,将该文本对应标题的得分作为标签,生成所述第二训练数据集;
所述第三训练模块具体被配置为:利用所述第一阶段训练后的所述文本标题生成模型为所述第二文本数据集中的文本生成标题,利用训练后的所述标题打分模型为所述第二文本数据集中的文本对应的标题打分,将所述第二文本数据集中的文本作为输入,将所述第二文本数据集中的文本对应的标题作为输出,将打分结果作为奖励,利用策略梯度算法更新所述第一阶段训练后的所述文本标题生成模型的模型参数。
5.一种电子设备,包括存储器、处理器以及存储在所述存储器中并且可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至3中任一项所述方法的步骤。
6.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至3中任一项所述方法的步骤。
CN202310443810.3A 2023-04-24 2023-04-24 多阶段训练文本标题生成模型的方法及装置 Active CN116151232B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310443810.3A CN116151232B (zh) 2023-04-24 2023-04-24 多阶段训练文本标题生成模型的方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310443810.3A CN116151232B (zh) 2023-04-24 2023-04-24 多阶段训练文本标题生成模型的方法及装置

Publications (2)

Publication Number Publication Date
CN116151232A CN116151232A (zh) 2023-05-23
CN116151232B true CN116151232B (zh) 2023-08-29

Family

ID=86354744

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310443810.3A Active CN116151232B (zh) 2023-04-24 2023-04-24 多阶段训练文本标题生成模型的方法及装置

Country Status (1)

Country Link
CN (1) CN116151232B (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111625645A (zh) * 2020-05-14 2020-09-04 北京字节跳动网络技术有限公司 文本生成模型的训练方法、装置和电子设备
CN112507721A (zh) * 2020-11-27 2021-03-16 北京百度网讯科技有限公司 生成文本主题的方法、装置、设备和计算机可读存储介质
WO2021135319A1 (zh) * 2020-01-02 2021-07-08 苏宁云计算有限公司 基于深度学习的文案生成方法、装置及电子设备
CN114997395A (zh) * 2022-04-22 2022-09-02 阿里巴巴(中国)有限公司 文本生成模型的训练方法、生成文本的方法以及各自装置
CN115293128A (zh) * 2022-08-04 2022-11-04 上海大学 基于多模态对比学习放射学报告生成模型训练方法及***

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021135319A1 (zh) * 2020-01-02 2021-07-08 苏宁云计算有限公司 基于深度学习的文案生成方法、装置及电子设备
CN111625645A (zh) * 2020-05-14 2020-09-04 北京字节跳动网络技术有限公司 文本生成模型的训练方法、装置和电子设备
CN112507721A (zh) * 2020-11-27 2021-03-16 北京百度网讯科技有限公司 生成文本主题的方法、装置、设备和计算机可读存储介质
CN114997395A (zh) * 2022-04-22 2022-09-02 阿里巴巴(中国)有限公司 文本生成模型的训练方法、生成文本的方法以及各自装置
CN115293128A (zh) * 2022-08-04 2022-11-04 上海大学 基于多模态对比学习放射学报告生成模型训练方法及***

Also Published As

Publication number Publication date
CN116151232A (zh) 2023-05-23

Similar Documents

Publication Publication Date Title
US9875301B2 (en) Learning multimedia semantics from large-scale unstructured data
US10698956B2 (en) Active knowledge guidance based on deep document analysis
Van Landeghem et al. Discriminative and informative features for biomolecular text mining with ensemble feature selection
US10360219B2 (en) Applying level of permanence to statements to influence confidence ranking
CN109325146B (zh) 一种视频推荐方法、装置、存储介质和服务器
US20150032753A1 (en) System and method for pushing and distributing promotion content
US20160283581A1 (en) Determining answers to questions using a hierarchy of question and answer pairs
CN107798622B (zh) 一种识别用户意图的方法和装置
CN106294473B (zh) 一种实体词挖掘方法、信息推荐方法及装置
CN109190123B (zh) 用于输出信息的方法和装置
Zheng et al. Nucleotide-level convolutional neural networks for pre-miRNA classification
CN112364235A (zh) 搜索处理方法、模型训练方法、装置、介质及设备
Khan et al. DextMP: deep dive into text for predicting moonlighting proteins
US10600017B2 (en) Co-opetition index based on rival behavior in social networks
CN112328735A (zh) 热点话题确定方法、装置及终端设备
CN111078849A (zh) 用于输出信息的方法和装置
CN111460288A (zh) 用于检测新闻事件的方法和装置
CN117131281B (zh) 舆情事件处理方法、装置、电子设备和计算机可读介质
CN114298007A (zh) 一种文本相似度确定方法、装置、设备及介质
CN111444335A (zh) 中心词的提取方法及装置
CN116151232B (zh) 多阶段训练文本标题生成模型的方法及装置
US9946765B2 (en) Building a domain knowledge and term identity using crowd sourcing
CN116562357A (zh) 点击预测模型训练方法及装置
Jee et al. Potential of patent image data as technology intelligence source
CN113934612A (zh) 用户画像更新方法、装置、存储介质及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant