CN113743089A - 一种多语种文本生成方法、装置、设备及存储介质 - Google Patents

一种多语种文本生成方法、装置、设备及存储介质 Download PDF

Info

Publication number
CN113743089A
CN113743089A CN202111033454.5A CN202111033454A CN113743089A CN 113743089 A CN113743089 A CN 113743089A CN 202111033454 A CN202111033454 A CN 202111033454A CN 113743089 A CN113743089 A CN 113743089A
Authority
CN
China
Prior art keywords
multilingual
text
word list
generation
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111033454.5A
Other languages
English (en)
Inventor
陈梦楠
高丽
祖漪清
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
iFlytek Co Ltd
Original Assignee
iFlytek Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by iFlytek Co Ltd filed Critical iFlytek Co Ltd
Priority to CN202111033454.5A priority Critical patent/CN113743089A/zh
Publication of CN113743089A publication Critical patent/CN113743089A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • G06F40/216Parsing using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Probability & Statistics with Applications (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Machine Translation (AREA)

Abstract

本申请提供了一种多语种文本生成方法、装置、设备及存储介质,其中,方法包括:获取多语种单词表,多语种单词表包含多个词条,每个词条包括一个单词以及该单词的语种信息;利用预先建立的多语种文本生成模型,以多语种单词表为依据生成多语种文本,其中,多语种文本生成模型以生成符合真实多语种文本特点的多语种文本为生成目标进行文本生成。经由本申请提供的多语种文本生成方法能够生成流畅自然、符合人类表达习惯的多语种文本。

Description

一种多语种文本生成方法、装置、设备及存储介质
技术领域
本申请涉及文本生成技术领域,尤其涉及一种多语种文本生成方法、装置、设备及存储介质。
背景技术
文本生成是自然语言处理中较难的研究方向,其应用场景多且广泛。近年来,文本生成已经在信息抽取、对话***、小说合成和广告文案生成取得了较大的进展。
随着全球化的发展,在日常交流、非正式信息等文本生成应用的重要场景中,文本或者语音中不同语种混合的语言现象越发明显。此外,在语种判别、多语种语音合成、多语种语音识别等领域,需要大量的多语种文本语料,但是,在实际生活中,多语种文本往往混杂在单语种文本之中,占比较低,即大量的多语种文本难以获得。
综上,为了满足某些文本生成应用场景对于多语种文本生成的需求,以及某些领域对于大量多语种文本的需求,目前亟需一种多语种文本生成方案。
发明内容
有鉴于此,本申请提供了一种多语种文本生成方法、装置、设备及存储介质,用以自动生成多语种文本,其技术方案如下:
一种多语种文本生成方法,包括:
获取多语种单词表,所述多语种单词表包含多个词条,每个词条包括一个单词以及所述单词的语种信息;
利用预先建立的多语种文本生成模型,以所述多语种单词表为依据生成多语种文本,其中,所述多语种文本生成模型以生成符合真实多语种文本特点的多语种文本为生成目标进行文本生成。
可选的,所述多语种文本生成模型采用对抗生成网络中的生成网络;
所述多语种文本生成模型的训练目标为,使所述对抗生成网络中的判别网络无法区分输入的多语种文本为所述生成网络生成的文本还是真实文本。
可选的,所述以所述多语种单词表为依据生成多语种文本,包括:
根据所述多语种单词表中的语种信息,从所述多语种单词表中随机采样若干词条组成目标单词表;
以所述目标单词表为依据生成多语种文本。
可选的,所述以所述目标单词表为依据生成多语种文本,包括:
确定所述目标单词表中每个词条的特征向量以及所述目标单词表的特征向量,其中,所述目标单词表的特征向量为所述目标单词表中所有词条整体的特征向量;
基于所述目标单词表的特征向量,确定包含句子文法信息的向量,作为全局计划隐变量;
基于所述全局计划隐变量、所述目标单词表中每个词条的特征向量以及所述目标单词表的特征向量,生成多语种文本。
可选的,所述基于所述目标单词表的特征向量,确定包含句子文法信息的向量,作为全局计划隐变量,包括:
基于所述目标单词表的特征向量,确定所述目标单词表的特征向量服从的正态分布;
从所述正态分布上采样若干值,以得到所述全局计划隐变量。
可选的,所述基于所述全局计划隐变量、所述目标单词表中每个词条的特征向量以及所述目标单词表的特征向量,生成多语种文本,包括:
基于所述全局计划隐变量以及所述目标单词表中每个词条的特征向量,从所述目标单词表中确定参与文本生成的词条,作为目标词条;
基于所述目标单词表的特征向量、所述全局计划隐变量以及所述目标词条的特征向量,生成多语种文本。
可选的,所述基于所述全局计划隐变量以及所述目标单词表中每个词条的特征向量,从所述目标单词表中确定参与文本生成的词条,作为目标词条,包括:
基于所述全局计划隐变量以及所述目标单词表中每个词条的特征向量,预测所述目标单词表中每个词条参与文本生成的概率;
基于所述目标单词表中每个词条参与文本生成的概率,确定所述目标单词表中参与文本生成的词条,作为目标词条。
可选的,所述基于所述目标单词表中每个词条参与文本生成的概率,确定所述目标单词表中参与文本生成的词条,包括:
若所述目标单词表中存在参与文本生成的概率大于预设概率阈值的词条,则将所述参与文本生成的概率大于预设概率阈值的词条确定为参与文本生成的词条;
若所述目标单词表中不存在参与文本生成的概率大于所述预设概率阈值的词条,则将参与文本生成的概率最大的词条确定为参与文本生成的词条。
可选的,所述基于所述目标单词表的特征向量、所述全局计划隐变量以及所述目标词条的特征向量,生成多语种文本,包括:
计算所有目标词条的特征向量的均值;
对所有目标词条的特征向量的均值、所述目标单词表的特征向量以及所述全局计划隐变量进行解码,以获得多语种文本。
可选的,所述对所有目标词条的特征向量的均值、所述目标单词表的特征向量以及所述全局计划隐变量进行解码,以获得多语种文本,包括:
在每个解码时刻,根据所有目标词条的特征向量的均值、所述目标单词表的特征向量、所述全局计划隐变量以及上一解码时刻的文本预测向量,确定当前解码时刻的文本预测向量;
以当前解码时刻的文本预测向量为预测依据,预测当前解码时刻生成的单词为多语种词典中各单词的概率;
根据当前解码时刻生成的单词为多语种词典中各单词的概率,确定当前解码时刻生成的单词。
可选的,建立所述多语种文本生成模型的过程包括:
利用对抗生成网络中作为多语种文本生成模型的生成网络,以所述多语种单词表为依据生成多语种文本,作为多语种生成文本;
将所述多语种生成文本输入所述对抗生成网络中的判别网络,以得到所述多语种生成文本为真实文本的概率;
确定所述多语种生成文本对应的语种多样性指示值,其中,所述语种多样性指示值能够表征对应文本的语种多样性;
以所述多语种生成文本为真实文本的概率以及所述多语种生成文本对应的语种多样性指示值为依据,对多语种文本生成模型进行参数更新。
可选的,所述确定所述多语种生成文本对应的语种多样性指示值,包括:
计算所述多语种生成文本中目标单词所属语种的表示向量的平均值,作为平均语种表示向量,其中,所述目标单词为所述多语种单词表中参与文本生成的词条中的单词;
根据所述多语种生成文本中目标单词的个数、所述多语种生成文本中目标单词所属语种的表示向量以及所述平均语种表示向量,确定所述多语种生成文本对应的语种多样性指示值。
一种多语种文本生成装置,包括:多语种单词表获取模块和多语种文本生成模块;
所述多语种单词表获取模块,用于获取多语种单词表,所述多语种单词表包含多个词条,每个词条包括一个单词以及所述单词的语种信息;
所述多语种文本生成模块,用于利用预先建立多语种文本生成模型,以所述多语种单词表为依据生成多语种文本,其中,所述多语种文本生成模型以生成符合真实多语种文本特点的多语种文本为生成目标进行文本生成。
一种多语种文本生成设备,包括:存储器和处理器;
所述存储器,用于存储程序;
所述处理器,用于执行所述程序,实现上述任一项所述的多语种文本生成方法的各个步骤。
一种可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时,实现上述任一项所述的多语种文本生成方法的各个步骤。
经由上述方案可知,本申请提供的多语种文本生成方法、装置、设备及存储介质,首先获取多语种单词表,然后利用预先建立的多语种文本生成模型,以多语种单词表为依据生成多语种文本。本申请提供的多语种文本生成方法可自动生成多语种文本,由于多语种文本利用多语种文本生成模型生成,而多语种文本生成模型以生成符合真实多语种文本特点的多语种文本为生成目标进行文本生成,因此,利用多语种文本生成模型生成的多语种文本符合真实多语种文本的特点,即经由本申请提供的多语种文本生成方法能够生成流畅自然、符合人类表达习惯的多语种文本。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为本申请实施例提供的多语种文本生成方法的流程示意图;
图2为本申请实施例提供的以目标单词表为依据生成多语种文本的流程示意图;
图3为本申请实施例提供的基于全局计划隐变量、目标单词表中每个词条的特征向量以及目标单词表的特征向量,生成多语种文本的流程示意图;
图4为本申请实施例提供的多语种文本生成模型的一种可能的结构示意图;
图5为本申请实施例提供的多语种文本生成模型中的输入编码模块对输入的目标单词表进行处理的过程示意图;
图6为本申请实施例提供的多语种文本生成模型中的计算处理模块获得计划向量的过程示意图;
图7为本申请实施例提供的多语种文本生成模型中的句子生成模块生成多语种文本的示意图;
图8为本申请实施例提供的建立多语种文本生成模型的流程示意图;
图9为本申请实施例提供的训练判别网络的的流程示意图;
图10为本申请实施例提供的多语种文本生成装置的结构示意图;
图11为本申请实施例提供的多语种文本生成设备的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
为了能够生成多语种文本,申请人进行了研究,起初的思路是:采用基于规则的多语种文本生成方案,即设定大量的多语种文本生成规则,根据设定的多语种文本生成规则生成多语种文本。
然而,申请人在对基于规则的多语种文本生成方案进行研究的过程中发现:基于规则的多语种文本生成方案存在诸多缺陷,比如,需要较多的专家知识,难以生成大量多变的多语种文本,生成的文本不够流畅自然,不够符合人类表达习惯等等。
鉴于基于规则的多语种文本生成方案存在的问题,本案发明人继续进行研究,最终提出了一种效果较好的多语种文本生成方法,该方法不需要较多的专家知识,能够自动生成流畅自然、符合人类表达习惯的多语种文本,且能够生成丰富多样的多语种文本。本申请提供的多语种文本生成方法可应用于任何需要生成多语种文本的场景。
本申请提供的多语种文本生成方法可应用于具有数据处理能力的电子设备,该电子设备可以为网络侧的服务器(可以为单个服务器,也可以为多个服务器或服务器集群),也可以为用户侧使用的终端,比如PC、笔记本、PAD、智能手机等等。接下来通过下述实施例对本申请提供的多语种文本生成方法进行介绍。
第一实施例
请参阅图1,示出了本申请实施例提供的多语种文本生成方法的流程示意图,该方法可以包括:
步骤S101:获取多语种单词表。
其中,多语种单词表包含多个词条,每个词条包括一个单词以及该单词的语种信息。如下示出了多语种单词表的一示例:
语种 单词
中文
英文 plan
中文 你好
英文 document
上表中的<中文,我>是一个词条,<英文,plan>是一个词条,<中文,你好>是一个词条,<英文,document>是一个词条,…。
本实施例中的多语种单词表可以为两个语种的单词表,比如,中英的单词表,也可以为三个及以上语种的单词表,比如,中英法的单词表。需要说明的是,多语种单词表中的单词为经常出现在其它语种文本中的单词,比如,英文单词“plan”为经常出现在中文文本中的单词。
步骤S102:利用预先建立的多语种文本生成模型,以多语种单词表为依据生成多语种文本。
在本实施例中,以多语种单词表为依据生成多语种文本利用预先建立的多语种文本生成模型实现,其中,多语种文本生成模型以生成符合真实多语种文本特点的多语种文本为生成目标进行文本生成。多语种文本生成模型以生成符合真实多语种文本特点的多语种文本为生成目标生成的多语种文本流畅自然、符合人类表达习惯。
在一种可能的实现方式中,多语种文本生成模型可采用对抗生成网络中的生成网络,其通过训练得到,多语种文本生成模型训练时的训练目标为,使对抗生成网络中的判别网络无法区分输入的多语种文本为生成网络生成的文本还是真实文本。需要说明的是,对抗生成网络中的判别网络无法区分输入的多语种文本为生成网络生成的文本还是真实文本指的是,将作为多语种文本生成模型的生成网络生成的多语种文本输入判别网络后,判别网络将其判定为真实文本。
利用预先建立的多语种文本生成模型,以多语种单词表为依据生成多语种文本的实现方式有多种:
在一种可能的实现方式中,可直接将多语种单词表输入预先建立的多语种文本生成模型,由多语种文本生成模型根据输入的多语种单词表生成多语种文本。
考虑到直接将多语种单词表输入多语种文本生成模型生成的多语种文本在多样性上表现不佳,为了提升生成文本的多样性,本实施例提供了另一种较为优选的实现方式:
根据多语种单词表中的语种信息,从多语种单词表中随机采样若干词条组成目标单词表,将目标单词表输入预先建立的多语种文本生成模型,由多语种文本生成模型根据输入的目标单词表生成多语种文本。
其中,根据多语种单词表中的语种信息,从多语种单词表中随机采样若干词条组成目标单词表的过程可以包括:从多语种单词表中每个语种的单词中采样若干单词,由采样的单词所在的词条组成目标单词表。
示例性的,步骤S101获取的多语种单词表包括{中文:“你好”,中文:“世界”,英文:“hello”,英文:“world”,英文:“hi”},可设定每个语种的采样数量(各语种的采样数量可根据具体情况设定,各语种的采样数量可以相同,也可以不同),假设各语种的采样数量均为1,那么从语种为“中文”的两个单词“你好”和“世界”中随机抽取1个单词,从语种为“英文”的三个单词“hello”、“world”、“hi”中随机抽取1个单词,一个可能的抽取结果为{中文:“世界”,英文:“hello”}。
本申请实施例提供的多语种文本生成方法,首先获取多语种单词表,然后利用预先建立的多语种文本生成模型,以多语种单词表为依据生成多语种文本。本申请实施例提供的多语种文本生成方法可自动生成多语种文本,由于多语种文本利用多语种文本生成模型生成,而多语种文本生成模型以生成符合真实多语种文本特点的多语种文本为生成目标进行文本生成,因此,利用多语种文本生成模型生成的多语种文本符合真实多语种文本特点,即流畅自然、符合人类表达习惯。
另外,本申请实施例提供的多语种文本生成方法,在以多语种单词表为依据生成多语种文本时,可根据多语种单词表中的语种信息,从多语种单词表中随机采样若干词条组成目标单词表,进而根据目标单词表生成多语种文本,这种方式使得生成的多语种文本更具多样性。
第二实施例
上述实施例提到,可以多语种单词表为依据生成多语种文本,在以多语种单词表为依据生成多语种文本时,可直接以多语种单词表为依据生成多语种文本,也可根据语种信息从多语种单词表中采样若干词条组成目标单词表,以目标单词表为依据生成多语种文本,由于“直接以多语种单词表为依据生成多语种文本”与“以目标单词表为依据生成多语种文本”的方式相同,本实施例以“以目标单词表为依据生成多语种文本”为例,对多语种文本的生成过程进行介绍。
请参阅图2,示出了以目标单词表为依据生成多语种文本的流程示意图,可以包括:
步骤S201:确定目标单词表中每个词条的特征向量以及目标单词表的特征向量。
在本实施例中,可确定目标单词表中每个词条的词嵌入向量(即每个词条的表示向量),然后根据目标单词表中每个词条的词嵌入向量确定目标单词表中每个词条的特征向量,在获得目标单词表中每个词条的特征向量后,可进一步根据目标单词表中每个词条的特征向量确定目标单词表的特征向量。需要说明的是,目标单词表的特征向量为目标单词表中所有词条整体的特征向量。
其中,确定目标单词表中任一词条的词嵌入向量的过程可以包括:确定该词条中单词的词嵌入向量,并确定该词条中语种信息的语种嵌入向量;将该词条中单词的词嵌入向量与该词条中语种信息的语种嵌入向量拼接,拼接后向量作为该词条的词嵌入向量。
步骤S202:基于目标单词表的特征向量,确定包含句子文法信息的向量,作为全局计划隐变量。
其中,句子文法信息即句法信息,其包括句子结构信息(或者说句子成分信息)、句子中词与词之间的依存关系信息等。
具体的,基于目标单词表的特征向量,确定包含句子文法信息的向量,作为全局计划隐变量的过程可以包括:
步骤S2021、基于目标单词表的特征向量,确定目标单词表的特征向量符合的正态分布。
具体的,可基于目标单词表的特征向量确定均值μp和方差σp,以得到均值为μp方差为σp的正态分布
Figure BDA0003246081770000101
步骤S2022、从正态分布上采样若干值,以得到全局计划隐变量。
将从正态分布上采样的若干值组成包含句子文法信息的全局计划隐变量。
步骤S203:基于全局计划隐变量、目标单词表中每个词条的特征向量以及目标单词表的特征向量,生成多语种文本。
请参阅图3,示出了基于全局计划隐变量、目标单词表中每个词条的特征向量以及目标单词表的特征向量,生成多语种文本的流程示意图,可以包括:
步骤S301:基于全局计划隐变量以及目标单词表中每个词条的特征向量,从目标单词表中确定参与文本生成的词条作为目标词条,由确定出的目标词条的特征向量组成计划向量。
其中,计划向量表征的是后续参与文本生成的词条的信息。
具体的,基于全局计划隐变量以及目标单词表中每个词条的特征向量,从目标单词表中确定参与文本生成的词条的过程包括:
步骤S3011、基于全局计划隐变量以及目标单词表中每个词条的特征向量,预测目标单词表中每个词条参与文本生成的概率。
基于全局计划隐变量以及目标单词表中每个词条的特征向量预测目标单词表中每个词条参与文本生成的概率,本质上是对目标单词表中每个词条进行二分类预测。
步骤S3012、基于目标单词表中每个词条参与文本生成的概率,确定目标单词表中参与文本生成的词条。
具体的,基于目标单词表中每个词条参与文本生成的概率,确定目标单词表中参与文本生成的词条的过程可以包括:若目标单词表中存在参与文本生成的概率大于预设概率阈值的词条,则将参与文本生成的概率大于预设概率阈值的词条确定为参与文本生成的词条;若目标单词表中不存在参与文本生成的概率大于预设概率阈值的词条,则将参与文本生成的概率最大的词条确定为参与文本生成的词条。
示例性的,目标单词表中包括3个词条,分别为d1、d2、d3,3个词条参与文本生成的概率依次为P1、P2和P3,假设预设概率阈值为Pth,若P1大于Pth,P2小于Pth,P3大于Pth,则将d1与d3确定为后续参与文本生成的词条,若P1、P2和P3均小于预设概率阈值为Pth,则将参与文本生成的概率最大的词条确定为参与文本生成的词条,假设P3最大,则将d3确定为参与文本生成的词条。
上述基于目标单词表中每个词条参与文本生成的概率确定目标单词表中参与文本生成的词条的方式使得,无论如何都会有词条参与后续的文本生成。
步骤S302:基于目标单词表的特征向量、全局计划隐变量以及计划向量,生成多语种文本。
具体的,基于目标单词表的特征向量、全局计划隐变量以及计划向量,生成多语种文本,生成多语种文本的过程可以包括:计算计划向量中所有目标词条的特征向量的均值,对所有目标词条的特征向量的均值、目标单词表的特征向量以及全局计划隐变量进行解码,以获得多语种文本。
更为具体的,对所有目标词条的特征向量的均值、目标单词表的特征向量以及全局计划隐变量进行解码的过程包括:在每个解码时刻,根据目标词条的特征向量的均值、目标单词表的特征向量、全局计划隐变量和上一解码时刻确定的文本预测向量(用于预测文本的向量),确定当前解码时刻的文本预测向量,以当前解码时刻的文本预测向量为依据,从预先构建的多语种单词词典中确定当前解码时刻生成的单词。
第三实施例
第一实施例提到,以目标单词表为依据生成多语种文本可由预先建立的多语种文本生成模型实现,在上述第二实施例的基础上,本实施例重点对多语种文本生成模型的结构以及多语种文本生成模型的建立过程进行介绍。
本实施例首先对多语种文本生成模型的结构进行介绍。
请参阅图4,示出了本实施例提供的多语种文本生成模型的一种可能的结构示意图,可以包括:输入编码模块401、计划处理模块402和句子生成模块403。其中:
输入编码模块401的输入为目标单词表,目标单词表输入输入编码模块401后,输入编码模块401对其进行编码,输出目标单词表中每个词条的特征向量、目标单词表的特征向量和包含句子文法信息的全局计划隐变量。图5示出了输入编码模块401对输入的目标单词表进行处理,输出目标单词表中每个词条的特征向量(图5中的h1~hN)、目标单词表的特征向量和包含句子文法信息的全局计划隐变量(图5中的zP)的示意图。
在一种可能的实现方式中,输入编码模块401可以包括:词嵌入向量确定子模块、特征向量确定子模块和全局计划隐变量确定子模块。其中,词嵌入向量确定子模块用于确定目标单词表中每个词条的词嵌入向量(每个词条的词嵌入向量的具体确定方式可参见上述实施例中的相关部分);特征向量确定子模块用于根据目标单词表中每个词条的词嵌入向量确定目标单词表中每个词条的特征向量和目标单词表的特征向量;全局计划隐变量确定子模块用于根据目标单词表的特征向量确定包含句子文法信息的全局计划隐变量(全局计划隐变量的具体确定方式可参见上述实施例中的相关部分)。
可选的,特征向量确定子模块可以包括循环神经网络,比如双向GRU,将目标单词表中各词条的特征向量经循环神经网络比如双向GRU,可得到目标单词表的特征向量H:
Figure BDA0003246081770000121
其中,x表示目标单词表,x={d1,d2,...,dN},d1表示目标单词表中的第1个词条,...,dN表示目标单词表中的第N个词条,
Figure BDA0003246081770000122
表示从后向前编码,编码第1个词条时,循环神经网络的输出,
Figure BDA0003246081770000123
表示从前向后编码,编码第N个词条时,循环神经网络的输出。
目标单词表中第i个词条di的特征向量hi表示为:
Figure BDA0003246081770000124
可选的,全局计划隐变量确定子模块中可以包含正态分布确定子模块和采样子模块。其中,正态分布确定子模块可以为多层感知机,多层感知机用于根据目标单词表的特征向量H确定均值μp和方差σp,即,将目标单词表的特征向量H输入多层感知机,可得到μp和logσp
p;log σp]=MLPθ(H) (3)
其中,MLP表示多层感知机,θ表示多层感知机的训练参数。
在得到μp和log σp后,通过log σp可获得σp,最终可获得均值μp和方差σp,从而得到目标单词表的特征向量符合的正态分布
Figure BDA0003246081770000125
在获得正态分布后,可通过采样子模块在正态分布上采样若干值,来获得全局计划隐变量。需要说明的是,确定目标单词表的特征向量符合的正态分布以及从正态分布上采样的过程可看作对信息进行压缩和重建以获得最简要信息(对应的是,在正态分布上采样的若干值)的过程,由于重建出的信息是最核心、最抽象、站在全局角度的信息,因此可认为其包含句子文法信息,另外需要说明的是,在训练阶段,由于采用判别网络监督作为多语种文本生成模型的生成网络产生质量较好的文本,因此,多语种文本生成模型通过不断学习,最终能够重建出最核心、最抽象、站在全局角度的信息,即上述的全局计划隐变量。
计划处理模块402用于基于全局计划隐变量以及目标单词表中每个词条的特征向量,从目标单词表中确定参与文本生成的词条作为目标词条,由确定出的目标词条的特征向量组成计划向量。图6示出了计算处理模块402获得计划向量的过程示意图。
可选的,计划处理模块402可以包括概率预测子模块和计划向量获取子模块。可选的,概率预测子模块可以是一个全连接网络,其对目标单词表中每个词条进行二分类预测,具体的,对于目标单词表中的一个词条di,概率预测子模块可通过下式预测词条di参与文本生成的概率:
P(di∈g)=σ(vp tanh(Wp[hi;zP]+bp)) (4)
其中,hi表示词条di的特征向量,zP表示全局计划隐变量,g表示计划向量,vp,Wp,bp为可训练参数。
概率预测子模块预测出目标单词表中每个词条参与文本生成的概率后,计划向量获取子模块可根据概率预测子模块预测出的概率确定参与文本生成的词条即目标词条,进而获得由确定出的目标词条的特征向量组成的计划向量g。
句子生成模块403,用于基于目标单词表的特征向量g、全局计划隐变量zP以及计划向量g,生成多语种文本。图7示出了句子生成模块403生成多语种文本的示意图。
可选的,句子生成模块403可以包括:平均池化子模块和解码子模块。其中,平均池化子模块用于对计划向量g进行平均池化,即计算计划向量中各目标词条的特征向量的均值g′,解码子模块用于对目标单词表的特征向量H、全局计划隐变量zP和计划向量中各目标词条的特征向量的均值g′进行解码,以获得多语种文本。
其中,解码子模块在解码时,在每个解码时刻,根据目标单词表的特征向量H、全局计划隐变量zP和计划向量中各目标词条的特征向量的均值g′以及上一解码时刻确定的文本预测向量ht-1(用于预测文本的向量),确定当前解码时刻的文本预测向量ht,根据当前解码时刻的文本预测向量确定当前解码时刻生成的文本。
其中,在根据当前解码时刻的文本预测向量确定当前解码时刻生成的文本时,以当前解码时刻的文本预测向量为依据,从预先构建的多语种单词词典中确定当前解码时刻生成的单词。具体的,以当前解码时刻的文本预测向量为依据预测当前解码时刻生成的单词为多语种单词词典(若干个语种所有的单词)中各单词的概率,根据预测出的概率,确定当前解码时刻生成的单词,更为具体的,将确定出的概率中的最大概率对应的单词确定为当前解码时刻生成的单词。
可选的,解码子模块可以为Transformer模块,也可以为循环神经网络(比如GRU),解码子模块为GRU时,当前解码时刻的文本预测向量ht可表示为:
ht=GRU([H;zP;g′],ht-1) (5)
在每个解码时刻t,将上一个解码时刻t-1的文本预测向量ht-1作为输入,输出的文本预测向量ht进入全连接层和Softmax层,选择该解码时刻t的单词。
需要说明的是,多语种单词列表中的单词仅仅是常出现在其它语种文本中的单词,但是仅仅依靠这些单词并不能形成完整的句子,比如包含“hello”和“给力”的多语种单词列表,需要穿插一些其它单词才能形成完整的句子,比如给“hello”和“给力”穿插“China”、“is”才能形成完整的句子“hello,China is给力”。
有鉴于此,本实施例设置上述全连接层的输出维度为整个多语种单词词典大小,而非多语种单词列表大小,全连接层的输出经Softmax层后,可获得解码时刻t生成的单词为多语种单词词典中各单词的概率,将最大概率对应的单词确定为解码时刻t生成的单词。
示例性的,多语种单词词典包含三个单词“我”、“love”、“中国”,设置全连接层的输出维度为3,解码时刻t的文本预测向量ht进入全连接层和Softmax层后,可获得解码时刻t生成的单词分别为“我”、“love”、“中国”的概率[0.1,0.3,0.6],由于解码时刻t生成的单词为“中国”的概率最大(0.6),因此,将“中国”确定为解码时刻t生成的单词。
需要说明的是,本申请设置全连接层的输出维度为整个多语种单词词典大小,使得多语种单词词典中的每一个单词都有选中用于造句的可能性,至于每一步选中哪个,模型自己学习、自调整,另外需要说明的是,虽然让多语种单词词典中的每一个单词都可用于造句,但是句子的主体意思、句法等主要由目标单词表中的单词决定,即,围绕从目标单词列表中选取的单词进行遣词造句。
另外,当句子生成模块输出一个特殊的句子结束单词时,整个文本生成结束。可选的,可在多语种单词词典中设置句子结束单词,比如“EOS”,在某个解码时刻,若生成的单词为句子结束单词的概率最大,则将句子结束单词确定为生成的单词,此时文本生成结束。
上述内容提供了多语种文本生成模型的一种结构,以及在该结构下实现多语种文本生成的过程,需要说明的是,本实施例并不限定多语种文本生成模型的结构为上述结构,上述结构仅为示例,凡是能够按第二实施例提供的多语种文本生成方式生成多语种文本的结构均属于本申请所保护的范围。
接下来对建立多语种生成模型的过程进行介绍。
请参阅图8,示出了建立多语种文本生成模型的流程示意图,可以包括:
步骤S801:利用对抗生成网络中作为多语种文本生成模型的生成网络,以多语种单词表为依据生成多语种文本,作为多语种生成文本。
利用对抗生成网络中作为多语种文本生成模型的生成网络,以多语种单词表为依据生成多语种文本的过程与上述“步骤S102:利用预先建立的多语种文本生成模型,以多语种单词表为依据生成多语种文本”的实现过程类似,具体可参见上述实施例,本实施例在此不做赘述。
步骤S802a:将多语种生成文本输入对抗生成网络中的判别网络,以得到多语种生成文本为真实文本的概率。
步骤S802b:确定多语种生成文本对应的语种多样性指示值。
其中,语种多样性指示值能够表征对应文本的语种多样性。
具体的,确定多语种生成文本对应的语种多样性指示值的过程可以包括:计算多语种生成文本中目标单词所属语种的表示向量的平均值,作为平均语种表示向量;根据多语种生成文本中目标单词的个数、多语种生成文本中目标单词所属语种的表示向量以及平均语种表示向量,确定多语种生成文本对应的语种多样性指示值。其中,目标单词为多语种单词表中参与文本生成的词条中的单词。
更为具体的,可按下式计算多语种生成文本对应的语种多样性指示值Llang
Figure BDA0003246081770000161
其中,M表示多语种生成文本中目标单词的个数,
Figure BDA0003246081770000162
表示多语种生成文本中第m个目标单词所属语种的表示向量,μl表示平均语种表示向量。需要说明的是,语种多样性指示值越大,说明参与文本生成的语种越多,在训练时引入语种多样性指示值能够避免多语种文本生成模型倾向于生成单语种句子。
需要说明的是,本实施例并不限定采用式(6)示出的计算方式计算多语种生成文本对应的语种多样性指示值,还可采用其他方式计算,比如,可计算多语种生成文本中目标单词所属语种的表示向量的平均值,作为平均语种表示向量,然后计算多语种生成文本中每个目标单词所属语种的表示向量与平均语种表示向量的差值的绝对值,以得到对应于多语种生成文本中每个目标单词的差值绝对值,对求得到所有差值绝对值求均值,求得的均值作为多语种生成文本对应的语种多样性指示值。
步骤S803:以多语种生成文本为真实文本的概率以及多语种生成文本对应的语种多样性指示值为依据,对多语种文本生成模型进行参数更新。
具体的,根据多语种生成文本为真实文本的概率以及多语种生成文本对应的语种多样性指示值确定多语种文本生成模型的预测损失,根据多语种文本生成模型的预测损失对多语种文本生成模型进行参数更新。
更为具体的,可按下式计算多语种文本生成模型的预测损失LG
Figure BDA0003246081770000163
其中,y表示多语种文本生成模型生成的多语种文本,D(G(y))表示多语种文本y为真实文本的概率,Llang即为多语种文本生成模型生成的多语种文本对应的语种多样性指示值,λ为平衡损失项的超参数,
Figure BDA0003246081770000172
表示求期望。
按上述过程对多语种文本生成模型进行多次迭代训练,直至满足训练结束条件(比如达到预设的训练次数,或者多语种文本生成模型的性能满足要求)。训练结束后得到的模型即为建立的多语种文本生成模型。
需要说明的是,作为多语种文本生成模型的生成网络与判别网络可分开训练,在对判别网络进行训练时,固定作为多语种文本生成模型的生成网络的参数,在训练作为多语种文本生成模型的生成网络时,固定判别网络的参数。上述训练过程是固定判别网络的参数对作为多语种文本生成模型的生成网络进行训练的过程,接下来对固定作为多语种文本生成模型的生成网络的参数对判别网络进行训练的过程进行介绍。
请参阅图9,示出了训练判别网络的流程示意图,可以包括:
步骤S901:获取作为多语种文本生成模型的生成网络生成的多语种文本作为多语种生成文本,并获取多语种真实文本。
其中,多语种真实文本为真实场景中采集的多语种文本。
步骤S902:将多语种生成文本和多语种真实文本输入判别网络,以得到多语种生成文本为真实文本的概率以及多语种真实文本为真实文本的概率。
本申请利用生成对抗的思想,利用判别网络促进作为多语种文本生成模型的生成网络生成自然且符合人类习惯的文本,判别网络的输入为作为多语种文本生成模型的生成网络生成的多语种文本和真实场景中采集的多语种文本。可选的,判别网络可以采用多语种BERT同时结合双向LSTM和全连接层。
步骤S903:以多语种生成文本为真实文本的概率以及多语种真实文本为真实文本的概率为依据,对判别网络进行参数更新。
具体的,根据多语种生成文本为真实文本的概率以及多语种真实文本为真实文本的概率确定判别网络的预测损失,根据判别网络的预测损失对判别网络进行参数更新。
更为具体的,可根据下式确定判别网络的预测损失LD
Figure BDA0003246081770000171
其中,x表示多语种真实文本,y表示多语种文本生成模型生成的多语种文本,D(x)表示x为真实文本的概率,D(G(y))表示y为真实文本的概率,
Figure BDA0003246081770000181
表示求期望。
经由本实施例提供的多语种文本生成模型能够生成流畅自然、符合人类表达习惯的多语种文本。
第四实施例
本申请实施例还提供了一种多语种文本生成装置,下面对本申请实施例提供的多语种文本生成装置进行描述,下文描述的多语种文本生成装置与上文描述的多语种文本生成方法可相互对应参照。
请参阅图10,示出了本申请实施例提供的多语种文本生成装置的结构示意图,可以包括:多语种单词表获取模块1001和多语种文本生成模块1002。
多语种单词表获取模块1001,用于获取多语种单词表,所述多语种单词表包含多个词条,每个词条包括一个单词以及所述单词的语种信息;
多语种文本生成模块1002,用于利用预先建立多语种文本生成模型,以所述多语种单词表为依据生成多语种文本,其中,所述多语种文本生成模型以生成符合真实多语种文本特点的多语种文本为生成目标进行文本生成。
可选的,所述多语种文本生成模型采用对抗生成网络中的生成网络;
所述多语种文本生成模型的训练目标为,使所述对抗生成网络中的判别网络无法区分输入的多语种文本为所述生成网络生成的文本还是真实文本。
可选的,多语种文本生成模块1002包括:词条采样模块和文本生成模块。
词条采样模块,用于根据所述多语种单词表中的语种信息,从所述多语种单词表中随机采样若干词条组成目标单词表;
文本生成模块,用于以所述目标单词表为依据生成多语种文本。
可选的,文本生成模块在以所述目标单词表为依据生成多语种文本时,具体用于:
确定所述目标单词表中每个词条的特征向量以及所述目标单词表的特征向量,其中,所述目标单词表的特征向量为所述目标单词表中所有词条整体的特征向量;基于所述目标单词表的特征向量,确定包含句子文法信息的向量,作为全局计划隐变量;基于所述全局计划隐变量、所述目标单词表中每个词条的特征向量以及所述目标单词表的特征向量,生成多语种文本。
可选的,文本生成模块在基于所述目标单词表的特征向量,确定包含句子文法信息的向量,作为全局计划隐变量时,具体用于:
基于所述目标单词表的特征向量,确定所述目标单词表的特征向量服从的正态分布;从所述正态分布上采样若干值,以得到所述全局计划隐变量。
可选的,文本生成模块在基于所述全局计划隐变量、所述目标单词表中每个词条的特征向量以及所述目标单词表的特征向量,生成多语种文本时,具体用于:
基于所述全局计划隐变量以及所述目标单词表中每个词条的特征向量,从所述目标单词表中确定参与文本生成的词条,作为目标词条;基于所述目标单词表的特征向量、所述全局计划隐变量以及所述目标词条的特征向量,生成多语种文本。
可选的,文本生成模块在基于所述全局计划隐变量以及所述目标单词表中每个词条的特征向量,从所述目标单词表中确定参与文本生成的词条,作为目标词条时,具体用于:
基于所述全局计划隐变量以及所述目标单词表中每个词条的特征向量,预测所述目标单词表中每个词条参与文本生成的概率;基于所述目标单词表中每个词条参与文本生成的概率,确定所述目标单词表中参与文本生成的词条,作为目标词条。
可选的,文本生成模块在基于所述目标单词表中每个词条参与文本生成的概率,确定所述目标单词表中参与文本生成的词条时,具体用于:
若所述目标单词表中存在参与文本生成的概率大于预设概率阈值的词条,则将所述参与文本生成的概率大于预设概率阈值的词条确定为参与文本生成的词条;若所述目标单词表中不存在参与文本生成的概率大于所述预设概率阈值的词条,则将参与文本生成的概率最大的词条确定为参与文本生成的词条。
可选的,文本生成模块在基于所述目标单词表的特征向量、所述全局计划隐变量以及所述目标词条的特征向量,生成多语种文本时,具体用于:
计算所有目标词条的特征向量的均值;对所有目标词条的特征向量的均值、所述目标单词表的特征向量以及所述全局计划隐变量进行解码,以获得多语种文本。
可选的,文本生成模块在对所有目标词条的特征向量的均值、所述目标单词表的特征向量以及所述全局计划隐变量进行解码,以获得多语种文本时,具体用于:
在每个解码时刻,根据所有目标词条的特征向量的均值、所述目标单词表的特征向量、所述全局计划隐变量以及上一解码时刻的文本预测向量,确定当前解码时刻的文本预测向量;以当前解码时刻的文本预测向量为预测依据,预测当前解码时刻生成的单词为多语种词典中各单词的概率;根据当前解码时刻生成的单词为多语种词典中各单词的概率,确定当前解码时刻生成的单词。
可选的,本申请实施例提供的多语种文本生成装置还可以包括:模型构建模块。模型构建模块包括:多语种生成文本获取模块、文本判别模块、语种多样性指示值确定模块和模型参数更新模块。
多语种生成文本获取模块,用于利用对抗生成网络中作为多语种文本生成模型的生成网络,以所述多语种单词表为依据生成多语种文本,作为多语种生成文本;
文本判别模块,用于将所述多语种生成文本输入所述对抗生成网络中的判别网络,以得到所述多语种生成文本为真实文本的概率;
语种多样性指示值确定模块,用于确定所述多语种生成文本对应的语种多样性指示值,其中,所述语种多样性指示值能够表征对应文本的语种多样性;
模型参数更新模块,用于以所述多语种生成文本为真实文本的概率以及所述多语种生成文本对应的语种多样性指示值为依据,对多语种文本生成模型进行参数更新。
可选的,语种多样性指示值确定模块在确定所述多语种生成文本对应的语种多样性指示值时,具体用于:
计算所述多语种生成文本中目标单词所属语种的表示向量的平均值,作为平均语种表示向量,其中,所述目标单词为所述多语种单词表中参与文本生成的词条中的单词;根据所述多语种生成文本中目标单词的个数、所述多语种生成文本中目标单词所属语种的表示向量以及所述平均语种表示向量,确定所述多语种生成文本对应的语种多样性指示值。
本申请实施例提供的多语种文本生成装置,首先获取多语种单词表,然后利用预先建立的多语种文本生成模型,以多语种单词表为依据生成多语种文本。本申请实施例提供的多语种文本生成装置可自动生成多语种文本,由于多语种文本利用多语种文本生成模型生成,而多语种文本生成模型以生成符合真实多语种文本特点的多语种文本为生成目标进行文本生成,因此,利用多语种文本生成模型生成生成的多语种文本符合真实多语种文本特点,即流畅自然、符合人类表达习惯。
第五实施例
本申请实施例还提供了一种多语种文本生成设备,请参阅图11,示出了该多语种文本生成设备的结构示意图,该多语种文本生成设备可以包括:至少一个处理器1101,至少一个通信接口1102,至少一个存储器1103和至少一个通信总线1104;
在本申请实施例中,处理器1101、通信接口1102、存储器1103、通信总线1104的数量为至少一个,且处理器1101、通信接口1102、存储器1103通过通信总线1104完成相互间的通信;
处理器1101可能是一个中央处理器CPU,或者是特定集成电路ASIC(ApplicationSpecific Integrated Circuit),或者是被配置成实施本发明实施例的一个或多个集成电路等;
存储器1103可能包含高速RAM存储器,也可能还包括非易失性存储器(non-volatile memory)等,例如至少一个磁盘存储器;
其中,存储器存储有程序,处理器可调用存储器存储的程序,所述程序用于:
获取多语种单词表,所述多语种单词表包含多个词条,每个词条包括一个单词以及所述单词的语种信息;
利用预先建立的多语种文本生成模型,以所述多语种单词表为依据生成多语种文本,其中,所述多语种文本生成模型以生成符合真实多语种文本特点的多语种文本为生成目标进行文本生成。
可选的,所述程序的细化功能和扩展功能可参照上文描述。
第六实施例
本申请实施例还提供一种可读存储介质,该可读存储介质可存储有适于处理器执行的程序,所述程序用于:
获取多语种单词表,所述多语种单词表包含多个词条,每个词条包括一个单词以及所述单词的语种信息;
利用预先建立的多语种文本生成模型,以所述多语种单词表为依据生成多语种文本,其中,所述多语种文本生成模型以生成符合真实多语种文本特点的多语种文本为生成目标进行文本生成。
可选的,所述程序的细化功能和扩展功能可参照上文描述。
最后,还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个......”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。

Claims (15)

1.一种多语种文本生成方法,其特征在于,包括:
获取多语种单词表,所述多语种单词表包含多个词条,每个词条包括一个单词以及所述单词的语种信息;
利用预先建立的多语种文本生成模型,以所述多语种单词表为依据生成多语种文本,其中,所述多语种文本生成模型以生成符合真实多语种文本特点的多语种文本为生成目标进行文本生成。
2.根据权利要求1所述的多语种文本生成方法,其特征在于,所述多语种文本生成模型采用对抗生成网络中的生成网络;
所述多语种文本生成模型的训练目标为,使所述对抗生成网络中的判别网络无法区分输入的多语种文本为所述生成网络生成的文本还是真实文本。
3.根据权利要求1所述的多语种文本生成方法,其特征在于,所述以所述多语种单词表为依据生成多语种文本,包括:
根据所述多语种单词表中的语种信息,从所述多语种单词表中随机采样若干词条组成目标单词表;
以所述目标单词表为依据生成多语种文本。
4.根据权利要求3所述的多语种文本生成方法,其特征在于,所述以所述目标单词表为依据生成多语种文本,包括:
确定所述目标单词表中每个词条的特征向量以及所述目标单词表的特征向量,其中,所述目标单词表的特征向量为所述目标单词表中所有词条整体的特征向量;
基于所述目标单词表的特征向量,确定包含句子文法信息的向量,作为全局计划隐变量;
基于所述全局计划隐变量、所述目标单词表中每个词条的特征向量以及所述目标单词表的特征向量,生成多语种文本。
5.根据权利要求4所述的多语种文本生成方法,其特征在于,所述基于所述目标单词表的特征向量,确定包含句子文法信息的向量,作为全局计划隐变量,包括:
基于所述目标单词表的特征向量,确定所述目标单词表的特征向量服从的正态分布;
从所述正态分布上采样若干值,以得到所述全局计划隐变量。
6.根据权利要求4所述的多语种文本生成方法,其特征在于,所述基于所述全局计划隐变量、所述目标单词表中每个词条的特征向量以及所述目标单词表的特征向量,生成多语种文本,包括:
基于所述全局计划隐变量以及所述目标单词表中每个词条的特征向量,从所述目标单词表中确定参与文本生成的词条,作为目标词条;
基于所述目标单词表的特征向量、所述全局计划隐变量以及所述目标词条的特征向量,生成多语种文本。
7.根据权利要求6所述的多语种文本生成方法,其特征在于,所述基于所述全局计划隐变量以及所述目标单词表中每个词条的特征向量,从所述目标单词表中确定参与文本生成的词条,作为目标词条,包括:
基于所述全局计划隐变量以及所述目标单词表中每个词条的特征向量,预测所述目标单词表中每个词条参与文本生成的概率;
基于所述目标单词表中每个词条参与文本生成的概率,确定所述目标单词表中参与文本生成的词条,作为目标词条。
8.根据权利要求7所述的多语种文本生成方法,其特征在于,所述基于所述目标单词表中每个词条参与文本生成的概率,确定所述目标单词表中参与文本生成的词条,包括:
若所述目标单词表中存在参与文本生成的概率大于预设概率阈值的词条,则将所述参与文本生成的概率大于预设概率阈值的词条确定为参与文本生成的词条;
若所述目标单词表中不存在参与文本生成的概率大于所述预设概率阈值的词条,则将参与文本生成的概率最大的词条确定为参与文本生成的词条。
9.根据权利要求6所述的多语种文本生成方法,其特征在于,所述基于所述目标单词表的特征向量、所述全局计划隐变量以及所述目标词条的特征向量,生成多语种文本,包括:
计算所有目标词条的特征向量的均值;
对所有目标词条的特征向量的均值、所述目标单词表的特征向量以及所述全局计划隐变量进行解码,以获得多语种文本。
10.根据权利要求9所述的多语种文本生成方法,其特征在于,所述对所有目标词条的特征向量的均值、所述目标单词表的特征向量以及所述全局计划隐变量进行解码,以获得多语种文本,包括:
在每个解码时刻,根据所有目标词条的特征向量的均值、所述目标单词表的特征向量、所述全局计划隐变量以及上一解码时刻的文本预测向量,确定当前解码时刻的文本预测向量;
以当前解码时刻的文本预测向量为预测依据,预测当前解码时刻生成的单词为多语种词典中各单词的概率;
根据当前解码时刻生成的单词为多语种词典中各单词的概率,确定当前解码时刻生成的单词。
11.根据权利要求1所述的多语种文本生成方法,其特征在于,建立所述多语种文本生成模型的过程包括:
利用对抗生成网络中作为多语种文本生成模型的生成网络,以所述多语种单词表为依据生成多语种文本,作为多语种生成文本;
将所述多语种生成文本输入所述对抗生成网络中的判别网络,以得到所述多语种生成文本为真实文本的概率;
确定所述多语种生成文本对应的语种多样性指示值,其中,所述语种多样性指示值能够表征对应文本的语种多样性;
所述以所述多语种生成文本为真实文本的概率以及所述多语种生成文本对应的语种多样性指示值为依据,对多语种文本生成模型进行参数更新。
12.根据权利要求11所述的多语种文本生成方法,其特征在于,所述确定所述多语种生成文本对应的语种多样性指示值,包括:
计算所述多语种生成文本中目标单词所属语种的表示向量的平均值,作为平均语种表示向量,其中,所述目标单词为所述多语种单词表中参与文本生成的词条中的单词;
根据所述多语种生成文本中目标单词的个数、所述多语种生成文本中目标单词所属语种的表示向量以及所述平均语种表示向量,确定所述多语种生成文本对应的语种多样性指示值。
13.一种多语种文本生成装置,其特征在于,包括:多语种单词表获取模块和多语种文本生成模块;
所述多语种单词表获取模块,用于获取多语种单词表,所述多语种单词表包含多个词条,每个词条包括一个单词以及所述单词的语种信息;
所述多语种文本生成模块,用于利用预先建立多语种文本生成模型,以所述多语种单词表为依据生成多语种文本,其中,所述多语种文本生成模型以生成符合真实多语种文本特点的多语种文本为生成目标进行文本生成。
14.一种多语种文本生成设备,其特征在于,包括:存储器和处理器;
所述存储器,用于存储程序;
所述处理器,用于执行所述程序,实现如权利要求1~12中任一项所述的多语种文本生成方法的各个步骤。
15.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时,实现如权利要求1~12中任一项所述的多语种文本生成方法的各个步骤。
CN202111033454.5A 2021-09-03 2021-09-03 一种多语种文本生成方法、装置、设备及存储介质 Pending CN113743089A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111033454.5A CN113743089A (zh) 2021-09-03 2021-09-03 一种多语种文本生成方法、装置、设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111033454.5A CN113743089A (zh) 2021-09-03 2021-09-03 一种多语种文本生成方法、装置、设备及存储介质

Publications (1)

Publication Number Publication Date
CN113743089A true CN113743089A (zh) 2021-12-03

Family

ID=78735610

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111033454.5A Pending CN113743089A (zh) 2021-09-03 2021-09-03 一种多语种文本生成方法、装置、设备及存储介质

Country Status (1)

Country Link
CN (1) CN113743089A (zh)

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130041652A1 (en) * 2006-10-10 2013-02-14 Abbyy Infopoisk Llc Cross-language text clustering
CN108536670A (zh) * 2017-03-02 2018-09-14 公立大学法人首都大学东京 输出语句生成装置、方法和程序
CN110378409A (zh) * 2019-07-15 2019-10-25 昆明理工大学 一种基于要素关联注意力机制的汉越新闻文档摘要生成方法
US10573312B1 (en) * 2018-12-04 2020-02-25 Sorenson Ip Holdings, Llc Transcription generation from multiple speech recognition systems
CN110852066A (zh) * 2018-07-25 2020-02-28 清华大学 一种基于对抗训练机制的多语言实体关系抽取方法及***
US20200097554A1 (en) * 2018-09-26 2020-03-26 Huawei Technologies Co., Ltd. Systems and methods for multilingual text generation field
US20200117712A1 (en) * 2018-10-12 2020-04-16 Siemens Healthcare Gmbh Sentence generation
CN111026319A (zh) * 2019-12-26 2020-04-17 腾讯科技(深圳)有限公司 一种智能文本处理方法、装置、电子设备及存储介质
CN112001181A (zh) * 2020-07-17 2020-11-27 北京百度网讯科技有限公司 多语言语义表示模型的训练方法、装置、设备及存储介质
CN112464667A (zh) * 2020-11-18 2021-03-09 北京华彬立成科技有限公司 文本的实体识别方法、装置、电子设备和存储介质
CN112699688A (zh) * 2021-01-08 2021-04-23 北京理工大学 一种篇章关系可控的文本生成方法和***

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130041652A1 (en) * 2006-10-10 2013-02-14 Abbyy Infopoisk Llc Cross-language text clustering
CN108536670A (zh) * 2017-03-02 2018-09-14 公立大学法人首都大学东京 输出语句生成装置、方法和程序
CN110852066A (zh) * 2018-07-25 2020-02-28 清华大学 一种基于对抗训练机制的多语言实体关系抽取方法及***
US20200097554A1 (en) * 2018-09-26 2020-03-26 Huawei Technologies Co., Ltd. Systems and methods for multilingual text generation field
US20200117712A1 (en) * 2018-10-12 2020-04-16 Siemens Healthcare Gmbh Sentence generation
US10573312B1 (en) * 2018-12-04 2020-02-25 Sorenson Ip Holdings, Llc Transcription generation from multiple speech recognition systems
CN110378409A (zh) * 2019-07-15 2019-10-25 昆明理工大学 一种基于要素关联注意力机制的汉越新闻文档摘要生成方法
CN111026319A (zh) * 2019-12-26 2020-04-17 腾讯科技(深圳)有限公司 一种智能文本处理方法、装置、电子设备及存储介质
CN112001181A (zh) * 2020-07-17 2020-11-27 北京百度网讯科技有限公司 多语言语义表示模型的训练方法、装置、设备及存储介质
CN112464667A (zh) * 2020-11-18 2021-03-09 北京华彬立成科技有限公司 文本的实体识别方法、装置、电子设备和存储介质
CN112699688A (zh) * 2021-01-08 2021-04-23 北京理工大学 一种篇章关系可控的文本生成方法和***

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
SRUTI SRUBA BHARALI 等: "Speaker identification using vector quantization and I-vector with reference to Assamese language", 《2017 INTERNATIONAL CONFERENCE ON WIRELESS COMMUNICATIONS, SIGNAL PROCESSING AND NETWORKING (WISPNET)》, pages 164 - 168 *
张一珂;张鹏远;颜永红;: "基于对抗训练策略的语言模型数据增强技术", 自动化学报, no. 05, 18 April 2018 (2018-04-18), pages 891 - 900 *
张冬茉, 葛永, 姚天昉: "多语种自然语言生成***中的预映射句子规划器", 计算机研究与发展, no. 04, 15 April 2001 (2001-04-15), pages 467 - 474 *
郭飞: "基于词向量的跨语言文本相似度检测关键技术研究", 《中国博士学位论文全文数据库 信息科技辑》, no. 1, pages 138 - 304 *

Similar Documents

Publication Publication Date Title
CN110427617B (zh) 推送信息的生成方法及装置
US11087199B2 (en) Context-aware attention-based neural network for interactive question answering
CN110377916B (zh) 词预测方法、装置、计算机设备及存储介质
CN109960747B (zh) 视频描述信息的生成方法、视频处理方法、相应的装置
CN105069143B (zh) 提取文档中关键词的方法及装置
CN112329476B (zh) 一种文本纠错方法及装置、设备、存储介质
CN110069612B (zh) 一种回复生成方法及装置
CN113987187B (zh) 基于多标签嵌入的舆情文本分类方法、***、终端及介质
CN110234018A (zh) 多媒体内容描述生成方法、训练方法、装置、设备及介质
CN113239169A (zh) 基于人工智能的回答生成方法、装置、设备及存储介质
CN111783478B (zh) 机器翻译质量估计方法、装置、设备及存储介质
CN111859940B (zh) 一种关键词提取方法、装置、电子设备及存储介质
CN112417855A (zh) 文本意图识别方法、装置以及相关设备
CN112836519A (zh) 文本生成模型的训练方法、文本生成方法及装置
CN111767697B (zh) 文本处理方法、装置、计算机设备以及存储介质
CN110377778A (zh) 基于标题图相关性的图排序方法、装置及电子设备
CN110942774A (zh) 一种人机交互***、其对话方法、介质和设备
CN113449081A (zh) 文本特征的提取方法、装置、计算机设备及存储介质
CN114841146A (zh) 文本摘要生成方法和装置、电子设备及存储介质
CN109979461B (zh) 一种语音翻译方法及装置
CN114492661A (zh) 文本数据分类方法和装置、计算机设备、存储介质
CN114005446A (zh) 情感分析方法、相关设备及可读存储介质
CN111967253A (zh) 一种实体消歧方法、装置、计算机设备及存储介质
CN116432705A (zh) 文本生成模型构建、文本生成方法和装置、设备及介质
CN116364054A (zh) 基于diffusion的语音合成方法、装置、设备、存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination