CN112417856B - 提升机器写作质量的方法、***、计算机设备及存储介质 - Google Patents

提升机器写作质量的方法、***、计算机设备及存储介质 Download PDF

Info

Publication number
CN112417856B
CN112417856B CN202011353640.2A CN202011353640A CN112417856B CN 112417856 B CN112417856 B CN 112417856B CN 202011353640 A CN202011353640 A CN 202011353640A CN 112417856 B CN112417856 B CN 112417856B
Authority
CN
China
Prior art keywords
continuity
consistency
score
sentence
bert model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011353640.2A
Other languages
English (en)
Other versions
CN112417856A (zh
Inventor
尤莹
卫海天
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Minglue Zhaohui Technology Co Ltd
Original Assignee
Beijing Minglue Zhaohui Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Minglue Zhaohui Technology Co Ltd filed Critical Beijing Minglue Zhaohui Technology Co Ltd
Priority to CN202011353640.2A priority Critical patent/CN112417856B/zh
Publication of CN112417856A publication Critical patent/CN112417856A/zh
Application granted granted Critical
Publication of CN112417856B publication Critical patent/CN112417856B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Machine Translation (AREA)

Abstract

本申请公开了一种提升机器写作质量的方法、***、计算机设备及存储介质。方法包括:BERT模型构建步骤:构建连贯性推理器BERT模型,并对所述连贯性推理器BERT模型进行训练;连贯性分数三元组获得步骤:对文章进行分句处理后输入训练后的所述连贯性推理器BERT模型获得连贯性分数,根据所述连贯性分数构建连贯性分数三元组;处理步骤:根据所述连贯性分数三元组构建分割点列表,根据所述分割点列表对所述文章进行处理。本发明充分利用提升机器写作质量的方法的优势,提供语句连贯性的置信度,语句的删除灵活可调整。

Description

提升机器写作质量的方法、***、计算机设备及存储介质
技术领域
本发明属于提升机器写作质量领域,具体涉及一种提升机器写作质量的方法、***、计算机设备及存储介质。
背景技术
自然语言生成,作为自然语言处理领域一个重要的研究分支,被广泛应用于机器翻译、文本生成(或称机器写作)等场景。同时,受到现有技术手段对自然语言语义挖掘的局限性,自然语言生成模型常常达不到令人满意的效果,典型的问题有重复文本、无意义文本、不连贯文本等,其中,文本不连贯的问题尤为突出。所以我们需要识别生成文本中的不连贯语句,并将其去除,使得机器写作***能够在不浪费机器资源的情况下,输出语义连贯的文章,提升机器写作的质量。
CN2019101477256发明专利公开一种训练文本识别模型、文本连贯性识别方法及装置,其中训练文本识别模型的方法包括:获取第一训练文本和第二训练文本,第二训练文本为与第一训练文本对应的参考训练文本;从第一训练文本中提取第一训练特征信息,和,从第二训练文本中提取第二训练特征信息,第一训练特征信息为语序错乱的文本特征,第二训练特征信息为语序连贯的文本特征;利用第一训练特征信息以及第二训练特征信息对支持向量机模型进行训练,得到文本识别模型。本发明通过训练文本特征信息的提取形成文本识别模型可快速识别待识别文本的连贯性,明显提高了文本连贯性的识别效率,可替代人工识别文本连贯性,进而减少了人工大量的精力。
该技术的不足在于训练支持向量机模型需要输入经过人工标注的训练数据,该文本识别模型的效果很大程度上取决于人工标注的标准和质量。由于人力成本、标注标准等原因,该方法通常存在如下问题:1、相比于基于海量数据预训练的BERT模型来说,文本连贯性识别的准确性较低;2、由于标注数据集有限,该文本识别模型通用性较弱,通常只能在特定范围的文本集上正常工作。
发明内容
本申请实施例提供了一种提升机器写作质量的方法、***、计算机设备及存储介质,以至少解决相关技术中主观因素影响的问题。
本发明提供了一种提升机器写作质量的方法,其中,包括:
BERT模型构建步骤:构建连贯性推理器BERT模型,并对所述连贯性推理器BERT模型进行训练;
连贯性分数三元组获得步骤:对文章进行分句处理后输入训练后的所述连贯性推理器BERT模型获得连贯性分数,根据所述连贯性分数构建连贯性分数三元组;
处理步骤:根据所述连贯性分数三元组构建分割点列表,根据所述分割点列表对所述文章进行处理。
上述方法,其中,所述BERT模型构建步骤包括:收集相关指定领域的语料,对所述连贯性推理器BERT模型进行训练。
上述方法,其中,所述连贯性分数三元组获得步骤包括:
分句步骤:对输入的所述文章进行分句,得到所述文章的句子列表,其中,句子个数为T;
排列步骤:以一个句子为单位,采用滑动窗口将所有句子组成T-1个连续的句子对;
连贯性分数计算步骤:将所述句子对输入到训练后的所述推理器连贯性推理器BERT模型中,计算当前所述句子对的连贯性分数;
连贯性分数三元组输出步骤:根据所述连贯性分数构建所述连贯性分数三元组。
上述方法,其中,所述处理步骤包括:
识别文章分割点步骤:根据所述连贯性分数三元组的所述连贯性分数设置分割点;
分割点列表获得步骤:根据所述分割点构建所述分割点列表;
文章连贯性判断步骤:根据所述分割点列表对所述文章的连贯性进行判断并输出判断结果。
语句计算删除步骤:当所述判断结果为所述分割点列表不为空时,所述分割点将所述文章分成多个段落,通过所述分割点列表中各个所述分割点的下标,计算出各个所述段落包含的句子个数,如果所述段落的所述句子个数小于等于一阈值时,则删除所述段落中的所有语句。
本发明还提供一种提升机器写作质量的***,其中,包括:
BERT模型构建模块,所述BERT模型构建模块构建连贯性推理器BERT模型,并对所述连贯性推理器BERT模型进行训练;
连贯性分数三元组获得模块,所述连贯性分数三元组获得模块对文章进行分句处理后输入训练后的所述连贯性推理器BERT模型获得连贯性分数,根据所述连贯性分数构建连贯性分数三元组;
处理模块,所述处理模块根据所述连贯性分数三元组构建分割点列表,根据所述分割点列表对所述文章进行处理。
上述***,其中,所述BERT模型构建模块收集相关指定领域的语料,对所述连贯性推理器BERT模型进行训练。
上述***,其中,所述连贯性分数三元组获得模块包括:
分句单元,所述分句单元对输入的所述文章进行分句,得到所述文章的句子列表,其中,句子个数为T;
排列单元,所述排列单元以一个句子为单位,采用滑动窗口将所有句子组成T-1个连续的句子对;
连贯性分数计算单元,所述连贯性分数计算单元将所述句子对输入到训练后的所述推理器连贯性推理器BERT模型中,计算当前所述句子对的连贯性分数;
连贯性分数三元组输出单元,所述连贯性分数三元组输出单元根据所述连贯性分数构建所述连贯性分数三元组。
上述***,其中,所述处理模块包括:
识别文章分割点单元,所述识别文章分割点单元根据所述连贯性分数三元组的所述连贯性分数设置分割点;
分割点列表获得单元,所述分割点列表获得单元根据所述分割点构建所述分割点列表;
文章连贯性判断单元,所述文章连贯性判断单元根据所述分割点列表对所述文章的连贯性进行判断并输出判断结果。
语句计算删除单元,所述当所述判断结果为所述分割点列表不为空时,所述分割点将所述文章分成多个段落,通过所述分割点列表中各个所述分割点的下标,计算出各个所述段落包含的句子个数,如果所述段落的所述句子个数小于等于一阈值时,则删除所述段落中的所有语句。
本发明还提供一种计算机设备,包括存储器、处理器以及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述中任一项所述的一种提升机器写作质量的方法。
本发明还提供一种存储介质,其上存储有计算机程序,该程序被处理器执行时实现上述中任一项所述的一种提升机器写作质量的方法。
与现有技术相比,本发明的有益效果如下:
1.能够对机器写作生成的瑕疵文章进行“改造”,识别并删除其中的不连贯语句,不仅能提升机器写作的可读性,而且能避免放弃瑕疵文章而造成计算资源的浪费。
2.提供语句连贯性的置信度,语句的删除灵活可调整。
附图说明
此处所说明的附图用来提供对本申请的进一步理解,构成本申请的一部分,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1是提升机器写作质量的方法的流程图;
图2是图1中步骤S2的分步骤流程图;
图3是图1中步骤S3的分步骤流程图;
图4是提升机器写作质量的***的结构示意图;
图5是根据本发明实施例的计算机设备的框架图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行描述和说明。应当理解,此处所描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。基于本申请提供的实施例,本领域普通技术人员在没有作出创造性劳动的前提下所获得的所有其他实施例,都属于本申请保护的范围。
显而易见地,下面描述中的附图仅仅是本申请的一些示例或实施例,对于本领域的普通技术人员而言,在不付出创造性劳动的前提下,还可以根据这些附图将本申请应用于其他类似情景。此外,还可以理解的是,虽然这种开发过程中所作出的努力可能是复杂并且冗长的,然而对于与本申请公开的内容相关的本领域的普通技术人员而言,在本申请揭露的技术内容的基础上进行的一些设计,制造或者生产等变更只是常规的技术手段,不应当理解为本申请公开的内容不充分。
在本申请中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域普通技术人员显式地和隐式地理解的是,本申请所描述的实施例在不冲突的情况下,可以与其它实施例相结合。
除非另作定义,本申请所涉及的技术术语或者科学术语应当为本申请所属技术领域内具有一般技能的人士所理解的通常意义。本申请所涉及的“一”、“一个”、“一种”、“该”等类似词语并不表示数量限制,可表示单数或复数。本申请所涉及的术语“包括”、“包含”、“具有”以及它们任何变形,意图在于覆盖不排他的包含;例如包含了一系列步骤或模块(单元)的过程、方法、***、产品或设备没有限定于已列出的步骤或单元,而是可以还包括没有列出的步骤或单元,或可以还包括对于这些过程、方法、产品或设备固有的其它步骤或单元。本申请所涉及的“连接”、“相连”、“耦接”等类似的词语并非限定于物理的或者机械的连接,而是可以包括电气的连接,不管是直接的还是间接的。本申请所涉及的“多个”是指两个或两个以上。“和/或”描述关联对象的关联关系,表示可以存在三种关系,例如,“A和/或B”可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。字符“/”一般表示前后关联对象是一种“或”的关系。本申请所涉及的术语“第一”、“第二”、“第三”等仅仅是区别类似的对象,不代表针对对象的特定排序。
下面结合附图所示的各实施方式对本发明进行详细说明,但应当说明的是,这些实施方式并非对本发明的限制,本领域普通技术人员根据这些实施方式所作的功能、方法、或者结构上的等效变换或替代,均属于本发明的保护范围之内。
在详细阐述本发明各个实施例之前,对本发明的核心发明思想予以概述,并通过下述若干实施例予以详细阐述。
请参照图1,图1是提升机器写作质量的方法的流程图。如图1所示,提升机器写作质量的方法包括:
BERT模型构建步骤S1:构建连贯性推理器BERT模型,并对所述连贯性推理器BERT模型进行训练;
连贯性分数三元组获得步骤S2:对文章进行分句处理后输入训练后的所述连贯性推理器BERT模型获得连贯性分数,根据所述连贯性分数构建连贯性分数三元组;
处理步骤S3:根据所述连贯性分数三元组构建分割点列表,根据所述分割点列表对所述文章进行处理。
请参照图2,图2是图1中步骤S2的分步骤流程图。如图2所示,所述连贯性分数三元组获得步骤S2包括:
分句步骤S21:对输入的所述文章进行分句,得到所述文章的句子列表,其中,句子个数为T;
排列步骤S22:以一个句子为单位,采用滑动窗口将所有句子组成T-1个连续的句子对;
连贯性分数计算步骤S23:将所述句子对输入到训练后的所述推理器连贯性推理器BERT模型中,计算当前所述句子对的连贯性分数;
连贯性分数三元组输出步骤S24:根据所述连贯性分数构建所述连贯性分数三元组。
请参照图3,图3是图1中步骤S3的分步骤流程图。如图3所示,所述处理步骤S3包括:
识别文章分割点步骤S31:根据所述连贯性分数三元组的所述连贯性分数设置分割点;
分割点列表获得步骤S32:根据所述分割点构建所述分割点列表;
文章连贯性判断步骤S33:根据所述分割点列表对所述文章的连贯性进行判断并输出判断结果。
语句计算删除步骤S34:当所述判断结果为所述分割点列表不为空时,所述分割点将所述文章分成多个段落,通过所述分割点列表中各个所述分割点的下标,计算出各个所述段落包含的句子个数,如果所述段落的所述句子个数小于等于一阈值时,则删除所述段落中的所有语句。
以下,列举实施例具体说明本发明的提升机器写作质量的方法如下。
实施例一:
本发明是在机器写作之后的一个后置步骤,用于删除文本中不连贯的语句,让输出的文章可读性更强。本模块的输入是机器写作生成的文章,输出是经过优化的文章。
BERT模型,是基于Transformer架构的预训练模型,在多个任务中取得了良好表现。为了更好地学习文本的语义信息和文章中的上下文关联,BERT模型通过MLM任务和NSP任务进行模型的预训练;其中后者(即NSP任务,Next Sentence Prediction)能够很好地帮助我们识别文章中语句之间的连贯性。该任务的学习对象是一系列句子对,其中一半句子对在原始语料中是紧邻的,即第二句是第一句的Next Sentence,另外一半是随机抽取的非紧邻句子对。通过对句子对的学习,对于任意输入的两句话,BERT模型可以推断第二句是第一句紧邻句的概率。
具体执行步骤如下:
准备连贯性推理器BERT模型:官方提供的BERT模型是在海量通用语料(如***等)上预训练得到的模型文件,为了让模型更适应具体的领域场景,我们收集一批有关特定领域的语料,对BERT模型进行再次训练(称为Fine-Tune,或微调),微调后的BERT模型记为M。这样我们的推理器M既具备对通用自然语言的理解能力,又具备对特定领域语料特点的信息。
对输入的文章进行分句,得到当前文章的句子列表SentenceList,句子个数为T。
以一个句子为单位,采用大小为2、步长为1的滑动窗口,将所有句子组成T-1个连续的句子对{(S1a,S1b),(S2a,S2b),...,(ST-1a,ST-1b)}。
将每一个句子对(Sia,Sib),输入到推理器M中,计算当前句子对的连贯性分数wi,该分数为0~1之间的实数。wi的计算方式为:
wi=BERT_NSP(Sia,Sib).i={0,1,...,T-1}
这一步执行结束后,我们得到了一系列三元组:(Sia,Sib,wi),i={0,1,...,T-1}
识别文章的分割点:如果某个句子对的连贯性分数小于0.1分,则该句子对的两句话之间的位置为一个分割点;依次判断所有句子对的分数,我们得到了一个分割点列表。如果某篇文章没有小于0.1分的句子对,则说明该文章连贯性较好,分割点列表为空。
分割点将一篇文章分成多个段落,我们通过分割点列表中各个分割点的下标,计算出各个段落包含的句子个数,如果某段落的句子个数<=3,则删除该段落中的所有语句。
实施例二:
请参照图4,图4是提升机器写作质量的***的结构示意图。如图4所示,本发明的***包括:
BERT模型构建模块,所述BERT模型构建模块构建连贯性推理器BERT模型,并对所述连贯性推理器BERT模型进行训练;
连贯性分数三元组获得模块,所述连贯性分数三元组获得模块对文章进行分句处理后输入训练后的所述连贯性推理器BERT模型获得连贯性分数,根据所述连贯性分数构建连贯性分数三元组;
处理模块,所述处理模块根据所述连贯性分数三元组构建分割点列表,根据所述分割点列表对所述文章进行处理。
所述BERT模型构建模块收集相关指定领域的语料,对所述连贯性推理器BERT模型进行训练。
所述连贯性分数三元组获得模块包括:
分句单元,所述分句单元对输入的所述文章进行分句,得到所述文章的句子列表,其中,句子个数为T;
排列单元,所述排列单元以一个句子为单位,采用滑动窗口将所有句子组成T-1个连续的句子对;
连贯性分数计算单元,所述连贯性分数计算单元将所述句子对输入到训练后的所述推理器连贯性推理器BERT模型中,计算当前所述句子对的连贯性分数;
连贯性分数三元组输出单元,所述连贯性分数三元组输出单元根据所述连贯性分数构建所述连贯性分数三元组。
所述处理模块包括:
识别文章分割点单元,所述识别文章分割点单元根据所述连贯性分数三元组的所述连贯性分数设置分割点;
分割点列表获得单元,所述分割点列表获得单元根据所述分割点构建所述分割点列表;
文章连贯性判断单元,所述文章连贯性判断单元根据所述分割点列表对所述文章的连贯性进行判断并输出判断结果。
语句计算删除单元,所述当所述判断结果为所述分割点列表不为空时,所述分割点将所述文章分成多个段落,通过所述分割点列表中各个所述分割点的下标,计算出各个所述段落包含的句子个数,如果所述段落的所述句子个数小于等于一阈值时,则删除所述段落中的所有语句。
实施例三:
结合图1-图3所示,本实施例揭示了一种计算机设备的一种具体实施方式。计算机设备可以包括处理器81以及存储有计算机程序指令的存储器82。
具体地,上述处理器81可以包括中央处理器(CPU),或者特定集成电路(Application Specific Integrated Circuit,简称为ASIC),或者可以被配置成实施本申请实施例的一个或多个集成电路。
其中,存储器82可以包括用于数据或指令的大容量存储器。举例来说而非限制,存储器82可包括硬盘驱动器(Hard Disk Drive,简称为HDD)、软盘驱动器、固态驱动器(SolidState Drive,简称为SSD)、闪存、光盘、磁光盘、磁带或通用串行总线(Universal SerialBus,简称为USB)驱动器或者两个或更多个以上这些的组合。在合适的情况下,存储器82可包括可移除或不可移除(或固定)的介质。在合适的情况下,存储器82可在数据处理装置的内部或外部。在特定实施例中,存储器82是非易失性(Non-Volatile)存储器。在特定实施例中,存储器82包括只读存储器(Read-Only Memory,简称为ROM)和随机存取存储器(RandomAccess Memory,简称为RAM)。在合适的情况下,该ROM可以是掩模编程的ROM、可编程ROM(Programmable Read-Only Memory,简称为PROM)、可擦除PROM(Erasable ProgrammableRead-Only Memory,简称为EPROM)、电可擦除PROM(Electrically Erasable ProgrammableRead-Only Memory,简称为EEPROM)、电可改写ROM(Electrically Alterable Read-OnlyMemory,简称为EAROM)或闪存(FLASH)或者两个或更多个以上这些的组合。在合适的情况下,该RAM可以是静态随机存取存储器(Static Random-Access Memory,简称为SRAM)或动态随机存取存储器(Dynamic Random Access Memory,简称为DRAM),其中,DRAM可以是快速页模式动态随机存取存储器(Fast Page Mode Dynami c Random Access Memory,简称为FPMDRAM)、扩展数据输出动态随机存取存储器(Extended Date Out Dynamic RandomAccess Memory,简称为EDODRAM)、同步动态随机存取内存(Synchronous Dynamic Random-Access Memory,简称SDRAM)等。
存储器82可以用来存储或者缓存需要处理和/或通信使用的各种数据文件,以及处理器81所执行的可能的计算机程序指令。
处理器81通过读取并执行存储器82中存储的计算机程序指令,以实现上述实施例中的任意一种提升机器写作质量的方法。
在其中一些实施例中,计算机设备还可包括通信接口83和总线80。其中,如图5所示,处理器81、存储器82、通信接口83通过总线80连接并完成相互间的通信。
通信接口83用于实现本申请实施例中各模块、装置、单元和/或设备之间的通信。通信端口83还可以实现与其他部件例如:外接设备、图像/数据采集设备、数据库、外部存储以及图像/数据处理工作站等之间进行数据通信。
总线80包括硬件、软件或两者,将计算机设备的部件彼此耦接在一起。总线80包括但不限于以下至少之一:数据总线(Data Bus)、地址总线(Address Bus)、控制总线(Control Bus)、扩展总线(Expansion Bus)、局部总线(Local Bus)。举例来说而非限制,总线80可包括图形加速接口(Accelerated Graphics Port,简称为AGP)或其他图形总线、增强工业标准架构(Extended Industry Standard Architecture,简称为EISA)总线、前端总线(Front Side Bus,简称为FSB)、超传输(Hyper Transport,简称为HT)互连、工业标准架构(Industry Standard Architecture,简称为ISA)总线、无线带宽(Infini Band)互连、低引脚数(Low Pin Count,简称为LPC)总线、存储器总线、微信道架构(Micro ChannelArchitecture,简称为MCA)总线、***组件互连(Peripheral Component Interconnect,简称为PCI)总线、PCI-Express(PCI-X)总线、串行高级技术附件(Serial AdvancedTechnology Attachment,简称为SATA)总线、视频电子标准协会局部(Video ElectronicsStandards Association Local Bus,简称为VLB)总线或其他合适的总线或者两个或更多个以上这些的组合。在合适的情况下,总线80可包括一个或多个总线。尽管本申请实施例描述和示出了特定的总线,但本申请考虑任何合适的总线或互连。
该计算机设备可以基于提升机器写作质量的方法、进行删除段落中不需要的语句,从而实现结合图1-图3描述的方法。
另外,结合上述实施例中提升机器写作质量的方法,本申请实施例可提供一种计算机可读存储介质来实现。该计算机可读存储介质上存储有计算机程序指令;该计算机程序指令被处理器执行时实现上述实施例中的任意一种提升机器写作质量的方法。
以上所述实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
综上所述,基于本发明的有益效果在于
1.能够对机器写作生成的瑕疵文章进行“改造”,识别并删除其中的不连贯语句,不仅能提升机器写作的可读性,而且能避免放弃瑕疵文章而造成计算资源的浪费。
2.提供语句连贯性的置信度,语句的删除灵活可调整。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。

Claims (6)

1.一种提升机器写作质量的方法,其特征在于,包括:
BERT模型构建步骤:构建连贯性推理器BERT模型,并对所述连贯性推理器BERT模型进行训练;
连贯性分数三元组获得步骤:对文章进行分句处理后输入训练后的所述连贯性推理器BERT模型获得连贯性分数,根据所述连贯性分数构建连贯性分数三元组;
处理步骤:根据所述连贯性分数三元组构建分割点列表,根据所述分割点列表对所述文章进行处理;
其中,所述连贯性分数三元组获得步骤包括:
分句步骤:对输入的所述文章进行分句,得到所述文章的句子列表,其中,句子个数为T;
排列步骤:以一个句子为单位,采用滑动窗口将所有句子组成T-1个连续的句子对;
连贯性分数计算步骤:将所述句子对输入到训练后的所述推理器连贯性推理器BERT模型中,计算当前所述句子对的连贯性分数;
连贯性分数三元组输出步骤:根据所述连贯性分数构建所述连贯性分数三元组;
其中,所述处理步骤包括:
识别文章分割点步骤:根据所述连贯性分数三元组的所述连贯性分数设置分割点;
分割点列表获得步骤:根据所述分割点构建所述分割点列表;
文章连贯性判断步骤:根据所述分割点列表对所述文章的连贯性进行判断并输出判断结果;
语句计算删除步骤:当所述判断结果为所述分割点列表不为空时,所述分割点将所述文章分成多个段落,通过所述分割点列表中各个所述分割点的下标,计算出各个所述段落包含的句子个数,如果所述段落的所述句子个数小于等于一阈值时,则删除所述段落中的所有语句。
2.如权利要求1所述的一种提升机器写作质量的方法,其特征在于,所述BERT模型构建步骤包括:收集相关指定领域的语料,对所述连贯性推理器BERT模型进行训练。
3.一种提升机器写作质量的***,其特征在于,包括:
BERT模型构建模块,所述BERT模型构建模块构建连贯性推理器BERT模型,并对所述连贯性推理器BERT模型进行训练;
连贯性分数三元组获得模块,所述连贯性分数三元组获得模块对文章进行分句处理后输入训练后的所述连贯性推理器BERT模型获得连贯性分数,根据所述连贯性分数构建连贯性分数三元组;
处理模块,所述处理模块根据所述连贯性分数三元组构建分割点列表,根据所述分割点列表对所述文章进行处理;
其中,所述连贯性分数三元组获得模块包括:
分句单元,所述分句单元对输入的所述文章进行分句,得到所述文章的句子列表,其中,句子个数为T;
排列单元,所述排列单元以一个句子为单位,采用滑动窗口将所有句子组成T-1个连续的句子对;
连贯性分数计算单元,所述连贯性分数计算单元将所述句子对输入到训练后的所述推理器连贯性推理器BERT模型中,计算当前所述句子对的连贯性分数;
连贯性分数三元组输出单元,所述连贯性分数三元组输出单元根据所述连贯性分数构建所述连贯性分数三元组;
其中,所述处理模块包括:
识别文章分割点单元,所述识别文章分割点单元根据所述连贯性分数三元组的所述连贯性分数设置分割点;
分割点列表获得单元,所述分割点列表获得单元根据所述分割点构建所述分割点列表;
文章连贯性判断单元,所述文章连贯性判断单元根据所述分割点列表对所述文章的连贯性进行判断并输出判断结果;
语句计算删除单元,所述当所述判断结果为所述分割点列表不为空时,所述分割点将所述文章分成多个段落,通过所述分割点列表中各个所述分割点的下标,计算出各个所述段落包含的句子个数,如果所述段落的所述句子个数小于等于一阈值时,则删除所述段落中的所有语句。
4.如权利要求3所述的一种提升机器写作质量的***,其特征在于,所述BERT模型构建模块收集相关指定领域的语料,对所述连贯性推理器BERT模型进行训练。
5.一种计算机设备,包括存储器、处理器以及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至2中任一项所述的一种提升机器写作质量的方法。
6.一种存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1至2中任一项所述的一种提升机器写作质量的方法。
CN202011353640.2A 2020-11-27 2020-11-27 提升机器写作质量的方法、***、计算机设备及存储介质 Active CN112417856B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011353640.2A CN112417856B (zh) 2020-11-27 2020-11-27 提升机器写作质量的方法、***、计算机设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011353640.2A CN112417856B (zh) 2020-11-27 2020-11-27 提升机器写作质量的方法、***、计算机设备及存储介质

Publications (2)

Publication Number Publication Date
CN112417856A CN112417856A (zh) 2021-02-26
CN112417856B true CN112417856B (zh) 2024-06-21

Family

ID=74843294

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011353640.2A Active CN112417856B (zh) 2020-11-27 2020-11-27 提升机器写作质量的方法、***、计算机设备及存储介质

Country Status (1)

Country Link
CN (1) CN112417856B (zh)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107341143A (zh) * 2017-05-26 2017-11-10 北京奇艺世纪科技有限公司 一种句子连贯性判断方法及装置和电子设备
CN109241536A (zh) * 2018-09-21 2019-01-18 浙江大学 一种基于深度学习自注意力机制的句子排序方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10706736B2 (en) * 2015-11-14 2020-07-07 The King Abdulaziz City For Science And Technology Method and system for automatically scoring an essay using plurality of linguistic levels
CN110287489B (zh) * 2019-06-24 2023-07-28 北京大米科技有限公司 文本生成方法、装置、存储介质和电子设备
CN110866107A (zh) * 2019-10-12 2020-03-06 浙江大搜车软件技术有限公司 素材语料的生成方法、装置、计算机设备和存储介质
CN111046173A (zh) * 2019-11-08 2020-04-21 广州坚和网络科技有限公司 通过机器学习及上下文词性发现重要名词标签的方法
CN110717339B (zh) * 2019-12-12 2020-06-30 北京百度网讯科技有限公司 语义表示模型的处理方法、装置、电子设备及存储介质

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107341143A (zh) * 2017-05-26 2017-11-10 北京奇艺世纪科技有限公司 一种句子连贯性判断方法及装置和电子设备
CN109241536A (zh) * 2018-09-21 2019-01-18 浙江大学 一种基于深度学习自注意力机制的句子排序方法

Also Published As

Publication number Publication date
CN112417856A (zh) 2021-02-26

Similar Documents

Publication Publication Date Title
CN112287670A (zh) 文本纠错方法、***、计算机设备及可读存储介质
CN109670191B (zh) 机器翻译的校准优化方法、装置与电子设备
CN111061861B (zh) 一种基于XLNet的文本摘要自动生成方法
CN111241813B (zh) 语料扩展方法、装置、设备及介质
CN111160003B (zh) 一种断句方法及装置
CN111653275A (zh) 基于lstm-ctc尾部卷积的语音识别模型的构建方法及装置、语音识别方法
CN110968725A (zh) 图像内容描述信息生成方法、电子设备及存储介质
CN110532575A (zh) 文本翻译方法及装置
CN112232070A (zh) 自然语言处理模型构建方法、***、电子设备及存储介质
CN112183102A (zh) 基于注意力机制与图注意力网络的命名实体识别方法
CN115422324A (zh) 一种文本处理方法及设备
CN113158687A (zh) 语义的消歧方法及装置、存储介质、电子装置
CN113743277A (zh) 一种短视频分类方法及***、设备和存储介质
CN112417856B (zh) 提升机器写作质量的方法、***、计算机设备及存储介质
CN112287667A (zh) 一种文本生成方法及设备
CN116561320A (zh) 一种汽车评论的分类方法、装置、设备及介质
CN113569703B (zh) 真实分割点判断方法、***、存储介质及电子设备
CN113569704B (zh) 分割点判断方法、***、存储介质及电子设备
CN111178097A (zh) 基于多级翻译模型生成中泰双语语料的方法及装置
CN113743053B (zh) 字母向量计算方法、***、存储介质及电子设备
CN113255334A (zh) 一种计算字向量方法、***、电子设备及存储介质
CN112257726B (zh) 目标检测训练方法、***、电子设备及计算机可读存储介质
CN113742525A (zh) 自监督视频哈希学习方法、***、电子设备及存储介质
CN113255326A (zh) 未登录词词向量计算方法、***、电子设备及存储介质
CN113761874A (zh) 事件事实性预测方法、装置、电子设备与存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant