CN110175335A - 翻译模型的训练方法和装置 - Google Patents

翻译模型的训练方法和装置 Download PDF

Info

Publication number
CN110175335A
CN110175335A CN201910380554.1A CN201910380554A CN110175335A CN 110175335 A CN110175335 A CN 110175335A CN 201910380554 A CN201910380554 A CN 201910380554A CN 110175335 A CN110175335 A CN 110175335A
Authority
CN
China
Prior art keywords
translation
language sample
translation model
model
object language
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910380554.1A
Other languages
English (en)
Other versions
CN110175335B (zh
Inventor
熊皓
张睿卿
张传强
何中军
吴华
李芝
王海峰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN201910380554.1A priority Critical patent/CN110175335B/zh
Publication of CN110175335A publication Critical patent/CN110175335A/zh
Application granted granted Critical
Publication of CN110175335B publication Critical patent/CN110175335B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/58Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Machine Translation (AREA)

Abstract

本申请提出一种翻译模型的训练方法和装置,其中,方法包括:获取文本形式和语音形式的源语言样本;将各形式的源语言样本分别输入多个翻译模型中对应的翻译模型,以得到各翻译模型输出的目标语言样本;根据各翻译模型输出的目标语言样本,确定目标译文;根据目标译文与各翻译模型输出的目标语言样本之间的差异性,对相应的翻译模型进行训练。该方法能够实现在训练时,利用多个翻译模型进行联合学习,以产生高质量的语音翻译结果,缓解单一模型输出质量较差的问题,提升翻译模型的翻译性能。

Description

翻译模型的训练方法和装置
技术领域
本申请涉及机器学习技术领域,尤其涉及一种翻译模型的训练方法和装置。
背景技术
目前,端到端语音翻译模型均采用一个单一模型进行训练,在语音翻译时,利用单一模型将一种语言的语音信号,翻译为另一种语言的文本信息。由于单一模型受限于模型和训练语料的规模,难以产生高质量的翻译结果。
发明内容
本申请提出一种翻译模型的训练方法和装置,以实现在训练时,利用多个翻译模型进行联合学习,以产生高质量的语音翻译结果,缓解单一模型输出质量较差的问题,提升翻译模型的翻译性能,用于解决现有技术中单一模型的性能无法得到保障,容易产生质量较差的译文的技术问题。
本申请第一方面实施例提出了一种翻译模型的训练方法,包括:
获取文本形式和语音形式的源语言样本;
将各形式的源语言样本分别输入多个翻译模型中对应的翻译模型,以得到各翻译模型输出的目标语言样本;
根据各翻译模型输出的目标语言样本,确定目标译文;
根据所述目标译文与各翻译模型输出的目标语言样本之间的差异性,对相应的翻译模型进行训练。
本申请实施例的翻译模型的训练方法,通过获取文本形式和语音形式的源语言样本,并将各形式的源语言样本分别输入多个翻译模型中对应的翻译模型,以得到各翻译模型输出的目标语言样本,之后,根据各翻译模型输出的目标语言样本,确定目标译文,最后,根据目标译文与各翻译模型输出的目标语言样本之间的差异性,对相应的翻译模型进行训练。本申请中,根据与多个翻译模型输出结果相关的目标译文,对各翻译模型进行训练,可以实现在训练时,利用多个翻译模型进行联合学习,以产生高质量的语音翻译结果,缓解单一模型输出质量较差的问题,提升翻译模型的翻译性能。
本申请第二方面实施例提出了一种翻译模型的训练装置,包括:
获取模块,用于获取文本形式和语音形式的源语言样本;
处理模块,用于将各形式的源语言样本分别输入多个翻译模型中对应的翻译模型,以得到各翻译模型输出的目标语言样本;
确定模块,用于根据各翻译模型输出的目标语言样本,确定目标译文;
训练模块,用于根据所述目标译文与各翻译模型输出的目标语言样本之间的差异性,对相应的翻译模型进行训练。
本申请实施例的翻译模型的训练装置,通过获取文本形式和语音形式的源语言样本,并将各形式的源语言样本分别输入多个翻译模型中对应的翻译模型,以得到各翻译模型输出的目标语言样本,之后,根据各翻译模型输出的目标语言样本,确定目标译文,最后,根据目标译文与各翻译模型输出的目标语言样本之间的差异性,对相应的翻译模型进行训练。本申请中,根据与多个翻译模型输出结果相关的目标译文,对各翻译模型进行训练,可以实现在训练时,利用多个翻译模型进行联合学习,以产生高质量的语音翻译结果,缓解单一模型输出质量较差的问题,提升翻译模型的翻译性能。
本申请第三方面实施例提出了一种电子设备,包括:存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时,实现如本申请第一方面实施例提出的翻译模型的训练方法。
本申请第四方面实施例提出了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如本申请第一方面实施例提出的翻译模型的训练方法。
本申请附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本申请的实践了解到。
附图说明
本申请上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:
图1为本申请实施例一所提供的翻译模型的训练方法的流程示意图;
图2为本申请实施例二所提供的翻译模型的训练方法的流程示意图;
图3为本申请实施例中的训练场景示意图;
图4为本申请实施例三所提供的翻译模型的训练装置的结构示意图;
图5为本申请实施例四所提供的翻译模型的训练装置的结构示意图;
图6示出了适于用来实现本申请实施方式的示例性计算机设备的框图。
具体实施方式
下面详细描述本申请的实施例,实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本申请,而不能理解为对本申请的限制。
目前,端到端语音翻译模型,均采取一个单一模型进行处理,即一个模型负责将一种语言的语音信号,翻译为另一种语言的文本信息。但是,这种单一模型的缺陷是模型较易陷入局部最优值,并且每个模型均有自身的优缺点,例如从左到右的解码模型受限于模型性能,容易产生好的前缀和差的后缀,而从右到左的模型容易产生差的前缀和好的后缀,因此,无法保证模型输出高质量的翻译结果。
因此,本申请主要针对上述单一模型的性能无法得到保障,容易产生质量较差的译文的技术问题,提出一种翻译模型的训练方法。
本申请实施例的翻译模型的训练方法,通过利用多个翻译模型联合进行学习,能够缓解单一翻译模型带来的缺陷,通过训练时共同学习,能够产生高质量的语音翻译结果。
下面参考附图描述本申请实施例的翻译模型的训练方法和装置。
图1为本申请实施例一所提供的翻译模型的训练方法的流程示意图。
本申请实施例以翻译模型的训练方法被配置于翻译模型的训练装置中来举例说明,该翻译模型的训练装置可以应用于任一计算机设备中,以使该计算机设备可以执行翻译模型的训练功能。
其中,计算机设备可以为个人电脑(Personal Computer,简称PC)、云端设备、移动设备、服务器等,移动设备例如可以为手机、平板电脑、个人数字助理、穿戴式设备、车载设备等具有各种操作***、触摸屏和/或显示屏的硬件设备。
如图1所示,该翻译模型的训练方法包括以下步骤:
步骤101,获取文本形式和语音形式的源语言样本。
本申请实施例中,源语言样本可以为同一语种的语言样本,或者也可以为不同语种的语言样本,对此不作限制。其中,源语言样本的语种可以根据实际翻译需求进行设置。例如,当翻译模型应用于中译英的应用场景时,源语言样本的语种可以为中文,再例如,当翻译模型应用于英译法的应用场景时,源语言样本的语种可以为英文,又例如,当翻译模型应用于中法互译的应用场景时,源语言样本的语种可以包括中文和/或法文。
本申请实施例中,可以预先采集文本形式的源语言样本和语音形式的源语言样本,例如,可以通常的语料收集方式,采集文本形式的源语言样本和语音形式的源语言样本,并将采集的文本形式的源语言样本和语音形式的源语言样本存储在预设存储装置中。从而,本申请中,在对翻译模型进行训练时,可以从上述存储装置中,获取文本形式和语音形式的源语言样本。
步骤102,将各形式的源语言样本分别输入多个翻译模型中对应的翻译模型,以得到各翻译模型输出的目标语言样本。
本申请实施例中,目标语音样本的语种同样可以根据实际翻译需求进行设置。例如,当翻译模型应用于中译英的应用场景时,源语言样本的语种可以为中文,目标语言样本的语种为英文。又例如,当翻译模型应用于中英互译的应用场景时,源语言样本的语种可以为中文,目标语言样本的语种为英文,或者,源语言样本的语种可以为英文,目标语言样本的语种为中文,或者,源语言样本的语种包括中文和英文,目标语言样本的语种同样可以包括中文和英文。
一般情况下,不同的翻译模型需具有一定的差异性,才能达到互相学习的效果。因此,本申请中,多个翻译模型之间模型结构可以存在差异,例如可以为结构不同的Transformer模型、循环神经网络(Recurrent Neural Network,简称RNN)模型、卷积神经网络(Convolutional Neural Network,简称CNN)模型等等。
本申请实施例中,可以将文本形式的源语言样本和语音形式的源语言样本分别输入对应的翻译模型,得到目标语言样本,其中,目标语言样本可以为语音形式,也可以为文本形式,本申请对此并不做限制。
步骤103,根据各翻译模型输出的目标语言样本,确定目标译文。
本申请实施例中,在得到每个翻译模型输出的目标语言样本后,可以根据各翻译模型输出的目标语言样本,确定目标译文。
作为一种可能的实现方式,目标语言样本是由词向量组成的,可以将所有翻译模型输出的目标语言样本中对应位置的词向量取平均值,以得到目标译文,下述实施例将对此进行详细介绍,此处不做赘述。
步骤104,根据目标译文与各翻译模型输出的目标语言样本之间的差异性,对相应的翻译模型进行训练。
本申请实施例中,在得到目标译文后,针对每个翻译模型,可以根据目标译文与该翻译模型输出的目标语言样本之间的差异性,对该翻译模型进行训练。本申请中,根据与多个翻译模型输出结果相关的目标译文,对各翻译模型进行训练,可以实现在训练时,利用多个翻译模型进行联合学习,以产生高质量的语音翻译结果,缓解单一模型输出质量较差的问题,提升翻译模型的翻译性能。
本申请实施例的翻译模型的训练方法,通过获取文本形式和语音形式的源语言样本,并将各形式的源语言样本分别输入多个翻译模型中对应的翻译模型,以得到各翻译模型输出的目标语言样本,之后,根据各翻译模型输出的目标语言样本,确定目标译文,最后,根据目标译文与各翻译模型输出的目标语言样本之间的差异性,对相应的翻译模型进行训练。本申请中,根据与多个翻译模型输出结果相关的目标译文,对各翻译模型进行训练,可以实现在训练时,利用多个翻译模型进行联合学习,以产生高质量的语音翻译结果,缓解单一模型输出质量较差的问题,提升翻译模型的翻译性能。
作为一种可能的实现方式,在生成目标译文时,是根据各翻译模型输出的目标语言样本中每个文本位置对应的词向量进行取均值得到的。下面结合实施例二,对上述过程进行详细说明。
图2为本申请实施例二所提供的翻译模型的训练方法的流程示意图。
如图2所示,该翻译模型的训练方法可以包括以下步骤:
步骤201,获取文本形式和语音形式的源语言样本。
步骤202,将文本形式的源语言样本和语音形式的源语言样本分别输入对应的翻译模型,得到设定形式的目标语言样本。
其中,设定形式可以为语音形式,或者为文本形式。
作为一种示例,参见图3,当翻译模型应用于将A语种翻译为B语种(A译B)的应用场景时,可以将A语种的语音形式的源语言样本分别输入至翻译模型1(Agent1)、翻译模型2(Agent2)、翻译模型3(Agent3),将文本形式的源语言样本分别输入至翻译模型4(Agent4)、翻译模型5(Agent5)、翻译模型6(Agent6),得到各翻译模型输出的B语种的目标语言样本。
参见图3,相对于现有技术中,仅根据一个翻译模型,比如Agent1进行翻译,本申请中,增加了若干个协同合作的翻译模型,比如Agent2至Agent6,翻译的最终目标都是生成正确的B语种的目标语言样本,因此能够利用模型的特点进行互相学习。
需要说明的是,对于图3,当翻译模型应用于AB语种互译的应用场景时,可以将A语种和B语种的语音形式的源语言样本分别输入至翻译模型1(Agent1)、翻译模型2(Agent2)、翻译模型3(Agent3),以得到各翻译模型输出的A语种的目标语言样本和B语种的目标语言样本,同时,将A语种和B语种的文本形式的源语言样本分别输入至翻译模型4(Agent4)、翻译模型5(Agent5)、翻译模型6(Agent6),以得到各翻译模型输出的A语种的目标语言样本和B语种的目标语言样本。
作为一种可能的实现方式,为了提升各翻译模型输出结果的准确性,可以根据源语言样本和对应的标准译文,对各翻译模型分别进行训练,以使各翻译模型输出的目标语言样本与标准译文之间的差异最小化。
举例而言,当翻译模型应用于中英互译时,源语言样本为“现在几点了”,对应的标准译文可以为“what’s the time now”,假设翻译模型输出的目标语言样本为“what timenow”,显然,翻译模型输出结果并不准确,因此,可以根据源语言样本和对应的标准译文,对各翻译模型分别进行训练,以使各翻译模型输出的目标语言样本与标准译文之间的差异最小化,以提升翻译模型的翻译性能。
步骤203,对各翻译模型输出的目标语言样本,确定对应同一文本位置的词向量。
本申请实施例中,针对每个翻译模型,假设翻译模型输出的目标语言样本为:Yi=[y0,y1,y2,…,yt,…,yn],其中,0≤t≤n,目标语言样本具有(n+1)个文本位置的词向量,yt表示第t个文本位置对应的词向量。
可以理解的是,目标语言样本每个文本位置的词向量是根据预设词表确定的,yt可以表示为对应于词表大小的向量。例如,yt可以表示为:
其中,V表示词表的大小,et,j表示第t个文本位置被预测为词j的得分。
本申请实施例中,在确定每个翻译模型输出的目标语言样本Y后,根据各翻译模型输出的目标语言样本,可以确定对应同一文本位置的词向量。
步骤204,将各目标语言样本对应同一文本位置的词向量取平均值,得到目标译文中相应文本位置的词向量。
本申请实施例中,在得到各目标语言样本对应同一文本位置的词向量后,可以将各目标语言样本对应同一文本位置的词向量取平均值,得到目标译文中相应文本位置的词向量,从而根据目标译文中各文本位置对应的词向量,可以确定目标译文。
假设,将各目标语言样本第0个文本位置对应的词向量取平均值,得到y'0,将第1个文本位置对应的词向量取平均值,得到y'1,…,将第t个文本位置对应的词向量取平均值,得到y't,…,将第n个文本位置对应的词向量取平均值,得到y'n,则目标译文为[y'0,y'1,…,y't,…,y'n]。
步骤205,根据目标译文与各翻译模型输出的目标语言样本之间的差异性,对相应的翻译模型进行训练。
可选地,标记目标译文为-yavg,则各翻译模型的损失函数可以为:
其中,yi表示相应翻译模型输出的目标语言样本中第i个文本位置对应的词向量。根据公式(1)可知,可以根据目标译文与各翻译模型输出的目标语言样本之间的差异性,对相应的翻译模型进行训练,以使损失函数最小。
本申请中,多个翻译模型共同决策产生的译文,通常比单个翻译模型产生的译文质量要高,而直接拟合翻译模型产生的译文,比直接拟合正确的标准译文相比,能够缓解模型训练和解码不一致的情况,例如,解码时预测t个词通常使用t-1个词的预测结果,而训练时则使用t-1个词的标准结果进行建模。因此,通过多个翻译模型之间的学习策略,可以提升翻译模型整体的翻译性能。
作为一种可能的实现方式,在对各翻译模型进行训练后,可以采用经过训练的多个翻译模型中的一个翻译模型进行翻译处理,由此,可以提升模型输出结果的准确性。
例如,当该翻译模型应用于中译英场景时,可以将用户输入的中文语音信息,自动翻译为英文翻译结果。又例如,当该翻译模型应用于中英互译的场景时,当用户说的为中文语音信息时,能够自动翻译为英文翻译结果,而当用户说的为英文语音信息,能够自动翻译为中文翻译结果。
为了实现上述实施例,本申请还提出一种翻译模型的训练装置。
图4为本申请实施例三所提供的翻译模型的训练装置的结构示意图。
如图4所示,该翻译模型的训练装置包括:获取模块101、处理模块102、确定模块103以及训练模块104。
其中,获取模块101,用于获取文本形式和语音形式的源语言样本。
处理模块102,用于将各形式的源语言样本分别输入多个翻译模型中对应的翻译模型,以得到各翻译模型输出的目标语言样本。
作为一种可能的实现方式,处理模块102,具体用于:将文本形式的源语言样本和语音形式的源语言样本分别输入对应的翻译模型,得到设定形式的目标语言样本;其中,设定形式为语音形式,或文本形式。
确定模块103,用于根据各翻译模型输出的目标语言样本,确定目标译文。
作为一种可能的实现方式,目标语言样本为文本形式,确定模块103,具体用于:对各翻译模型输出的目标语言样本,确定对应同一文本位置的词向量;将各目标语言样本对应同一文本位置的词向量取平均值,得到目标译文中相应文本位置的词向量。
训练模块104,用于根据目标译文与各翻译模型输出的目标语言样本之间的差异性,对相应的翻译模型进行训练。
作为一种可能的实现方式,多个翻译模型之间模型结构存在差异。
作为一种可能的实现方式,训练模块104,还用于:根据源语言样本和对应的标准译文,对各翻译模型分别进行训练,以使各翻译模型输出的目标语言样本与标准译文之间的差异最小化。
进一步地,在本申请实施例的一种可能的实现方式中,参见图5,在图4所示实施例的基础上,该翻译模型的训练装置还可以包括:翻译模块105。
翻译模块105,用于采用经过训练的多个翻译模型中的一个翻译模型进行翻译处理。
需要说明的是,前述对翻译模型的训练方法实施例的解释说明也适用于该实施例的翻译模型的训练装置,此处不再赘述。
本申请实施例的翻译模型的训练装置,通过获取文本形式和语音形式的源语言样本,并将各形式的源语言样本分别输入多个翻译模型中对应的翻译模型,以得到各翻译模型输出的目标语言样本,之后,根据各翻译模型输出的目标语言样本,确定目标译文,最后,根据目标译文与各翻译模型输出的目标语言样本之间的差异性,对相应的翻译模型进行训练。本申请中,根据与多个翻译模型输出结果相关的目标译文,对各翻译模型进行训练,可以实现在训练时,利用多个翻译模型进行联合学习,以产生高质量的语音翻译结果,缓解单一模型输出质量较差的问题,提升翻译模型的翻译性能。
为了实现上述实施例,本申请还提出一种电子设备,包括:存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行程序时,实现如本申请前述实施例提出的翻译模型的训练方法。
为了实现上述实施例,本申请还提出一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如本申请前述实施例提出的翻译模型的训练方法。
图6示出了适于用来实现本申请实施方式的示例性计算机设备的框图。图6显示的计算机设备12仅仅是一个示例,不应对本申请实施例的功能和使用范围带来任何限制。
如图6所示,计算机设备12以通用计算设备的形式表现。计算机设备12的组件可以包括但不限于:一个或者多个处理器或者处理单元16,***存储器28,连接不同***组件(包括***存储器28和处理单元16)的总线18。
总线18表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器,***总线,图形加速端口,处理器或者使用多种总线结构中的任意总线结构的局域总线。举例来说,这些体系结构包括但不限于工业标准体系结构(Industry StandardArchitecture;以下简称:ISA)总线,微通道体系结构(Micro Channel Architecture;以下简称:MAC)总线,增强型ISA总线、视频电子标准协会(Video Electronics StandardsAssociation;以下简称:VESA)局域总线以及***组件互连(Peripheral ComponentInterconnection;以下简称:PCI)总线。
计算机设备12典型地包括多种计算机***可读介质。这些介质可以是任何能够被计算机设备12访问的可用介质,包括易失性和非易失性介质,可移动的和不可移动的介质。
存储器28可以包括易失性存储器形式的计算机***可读介质,例如随机存取存储器(Random Access Memory;以下简称:RAM)30和/或高速缓存存储器32。计算机设备12可以进一步包括其它可移动/不可移动的、易失性/非易失性计算机***存储介质。仅作为举例,存储***34可以用于读写不可移动的、非易失性磁介质(图6未显示,通常称为“硬盘驱动器”)。尽管图6中未示出,可以提供用于对可移动非易失性磁盘(例如“软盘”)读写的磁盘驱动器,以及对可移动非易失性光盘(例如:光盘只读存储器(Compact Disc Read OnlyMemory;以下简称:CD-ROM)、数字多功能只读光盘(Digital Video Disc Read OnlyMemory;以下简称:DVD-ROM)或者其它光介质)读写的光盘驱动器。在这些情况下,每个驱动器可以通过一个或者多个数据介质接口与总线18相连。存储器28可以包括至少一个程序产品,该程序产品具有一组(例如至少一个)程序模块,这些程序模块被配置以执行本申请各实施例的功能。
具有一组(至少一个)程序模块42的程序/实用工具40,可以存储在例如存储器28中,这样的程序模块42包括但不限于操作***、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。程序模块42通常执行本申请所描述的实施例中的功能和/或方法。
计算机设备12也可以与一个或多个外部设备14(例如键盘、指向设备、显示器24等)通信,还可与一个或者多个使得用户能与该计算机设备12交互的设备通信,和/或与使得该计算机设备12能与一个或多个其它计算设备进行通信的任何设备(例如网卡,调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口22进行。并且,计算机设备12还可以通过网络适配器20与一个或者多个网络(例如局域网(Local Area Network;以下简称:LAN),广域网(Wide Area Network;以下简称:WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器20通过总线18与计算机设备12的其它模块通信。应当明白,尽管图中未示出,可以结合计算机设备12使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID***、磁带驱动器以及数据备份存储***等。
处理单元16通过运行存储在***存储器28中的程序,从而执行各种功能应用以及数据处理,例如实现前述实施例中提及的方法。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本申请的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本申请的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更多个用于实现定制逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本申请的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本申请的实施例所属技术领域的技术人员所理解。
在流程图中表示或在此以其他方式描述的逻辑和/或步骤,例如,可以被认为是用于实现逻辑功能的可执行指令的定序列表,可以具体实现在任何计算机可读介质中,以供指令执行***、装置或设备(如基于计算机的***、包括处理器的***或其他可以从指令执行***、装置或设备取指令并执行指令的***)使用,或结合这些指令执行***、装置或设备而使用。就本说明书而言,"计算机可读介质"可以是任何可以包含、存储、通信、传播或传输程序以供指令执行***、装置或设备或结合这些指令执行***、装置或设备而使用的装置。计算机可读介质的更具体的示例(非穷尽性列表)包括以下:具有一个或多个布线的电连接部(电子装置),便携式计算机盘盒(磁装置),随机存取存储器(RAM),只读存储器(ROM),可擦除可编辑只读存储器(EPROM或闪速存储器),光纤装置,以及便携式光盘只读存储器(CDROM)。另外,计算机可读介质甚至可以是可在其上打印所述程序的纸或其他合适的介质,因为可以例如通过对纸或其他介质进行光学扫描,接着进行编辑、解译或必要时以其他合适方式进行处理来以电子方式获得所述程序,然后将其存储在计算机存储器中。
应当理解,本申请的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行***执行的软件或固件来实现。如,如果用硬件来实现和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。
本技术领域的普通技术人员可以理解实现上述实施例方法携带的全部或部分步骤是可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,该程序在执行时,包括方法实施例的步骤之一或其组合。
此外,在本申请各个实施例中的各功能单元可以集成在一个处理模块中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。所述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。
上述提到的存储介质可以是只读存储器,磁盘或光盘等。尽管上面已经示出和描述了本申请的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本申请的限制,本领域的普通技术人员在本申请的范围内可以对上述实施例进行变化、修改、替换和变型。

Claims (14)

1.一种翻译模型的训练方法,其特征在于,所述训练方法包括以下步骤:
获取文本形式和语音形式的源语言样本;
将各形式的源语言样本分别输入多个翻译模型中对应的翻译模型,以得到各翻译模型输出的目标语言样本;
根据各翻译模型输出的目标语言样本,确定目标译文;
根据所述目标译文与各翻译模型输出的目标语言样本之间的差异性,对相应的翻译模型进行训练。
2.根据权利要求1所述的训练方法,其特征在于,所述将各形式的源语言样本分别输入多个翻译模型中对应的翻译模型,以得到各翻译模型输出的目标语言样本,包括:
将所述文本形式的源语言样本和所述语音形式的源语言样本分别输入对应的翻译模型,得到设定形式的目标语言样本;其中,设定形式为语音形式,或文本形式。
3.根据权利要求2所述的训练方法,其特征在于,所述目标语言样本为文本形式,所述根据各翻译模型输出的目标语言样本,确定目标译文,包括:
对各翻译模型输出的目标语言样本,确定对应同一文本位置的词向量;
将各目标语言样本对应同一文本位置的词向量取平均值,得到所述目标译文中相应文本位置的词向量。
4.根据权利要求1-3任一项所述的训练方法,其特征在于,所述多个翻译模型之间模型结构存在差异。
5.根据权利要求1-3任一项所述的训练方法,其特征在于,所述将各形式的源语言样本分别输入多个翻译模型中对应的翻译模型,以得到各翻译模型输出的目标语言样本之前,还包括:
根据所述源语言样本和对应的标准译文,对各翻译模型分别进行训练,以使各翻译模型输出的目标语言样本与所述标准译文之间的差异最小化。
6.根据权利要求1-3任一项所述的训练方法,其特征在于,所述根据所述目标译文与各翻译模型输出的目标语言样本之间的差异性,对相应的翻译模型进行训练之后,还包括:
采用经过训练的多个翻译模型中的一个翻译模型进行翻译处理。
7.一种翻译模型的训练装置,其特征在于,所述训练装置包括:
获取模块,用于获取文本形式和语音形式的源语言样本;
处理模块,用于将各形式的源语言样本分别输入多个翻译模型中对应的翻译模型,以得到各翻译模型输出的目标语言样本;
确定模块,用于根据各翻译模型输出的目标语言样本,确定目标译文;
训练模块,用于根据所述目标译文与各翻译模型输出的目标语言样本之间的差异性,对相应的翻译模型进行训练。
8.根据权利要求7所述的训练装置,其特征在于,所述处理模块,具体用于:
将所述文本形式的源语言样本和所述语音形式的源语言样本分别输入对应的翻译模型,得到设定形式的目标语言样本;其中,设定形式为语音形式,或文本形式。
9.根据权利要求8所述的训练装置,其特征在于,所述目标语言样本为文本形式,所述确定模块,具体用于:
对各翻译模型输出的目标语言样本,确定对应同一文本位置的词向量;
将各目标语言样本对应同一文本位置的词向量取平均值,得到所述目标译文中相应文本位置的词向量。
10.根据权利要求7-9任一项所述的训练装置,其特征在于,所述多个翻译模型之间模型结构存在差异。
11.根据权利要求7-9任一项所述的训练装置,其特征在于,所述训练模块,还用于:
根据所述源语言样本和对应的标准译文,对各翻译模型分别进行训练,以使各翻译模型输出的目标语言样本与所述标准译文之间的差异最小化。
12.根据权利要求7-9任一项所述的训练装置,其特征在于,所述训练装置还包括:
翻译模块,用于采用经过训练的多个翻译模型中的一个翻译模型进行翻译处理。
13.一种电子设备,其特征在于,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时,实现如权利要求1-6中任一所述的翻译模型的训练方法。
14.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-6中任一所述的翻译模型的训练方法。
CN201910380554.1A 2019-05-08 2019-05-08 翻译模型的训练方法和装置 Active CN110175335B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910380554.1A CN110175335B (zh) 2019-05-08 2019-05-08 翻译模型的训练方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910380554.1A CN110175335B (zh) 2019-05-08 2019-05-08 翻译模型的训练方法和装置

Publications (2)

Publication Number Publication Date
CN110175335A true CN110175335A (zh) 2019-08-27
CN110175335B CN110175335B (zh) 2023-05-09

Family

ID=67691335

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910380554.1A Active CN110175335B (zh) 2019-05-08 2019-05-08 翻译模型的训练方法和装置

Country Status (1)

Country Link
CN (1) CN110175335B (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111326157A (zh) * 2020-01-20 2020-06-23 北京字节跳动网络技术有限公司 文本生成方法、装置、电子设备和计算机可读介质
CN112329484A (zh) * 2020-11-06 2021-02-05 中国联合网络通信集团有限公司 自然语言的翻译方法及装置
CN112528680A (zh) * 2019-08-29 2021-03-19 上海卓繁信息技术股份有限公司 语料扩充方法及***
CN112633019A (zh) * 2020-12-29 2021-04-09 北京奇艺世纪科技有限公司 一种双语样本生成方法、装置、电子设备及存储介质
CN113221581A (zh) * 2021-05-13 2021-08-06 北京小米移动软件有限公司 文本翻译的方法、装置及存储介质
CN113343716A (zh) * 2021-05-20 2021-09-03 北京三快在线科技有限公司 一种多语种翻译方法、装置、存储介质及设备
CN114239613A (zh) * 2022-02-23 2022-03-25 阿里巴巴达摩院(杭州)科技有限公司 实时语音翻译方法、装置、设备及存储介质
WO2023082916A1 (zh) * 2021-11-10 2023-05-19 北京有竹居网络技术有限公司 训练方法、语音翻译方法、设备和计算机可读介质

Citations (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103678285A (zh) * 2012-08-31 2014-03-26 富士通株式会社 机器翻译方法和机器翻译***
US20140163951A1 (en) * 2012-12-07 2014-06-12 Xerox Corporation Hybrid adaptation of named entity recognition
US20140200878A1 (en) * 2013-01-14 2014-07-17 Xerox Corporation Multi-domain machine translation model adaptation
CN106156010A (zh) * 2015-04-20 2016-11-23 阿里巴巴集团控股有限公司 翻译训练方法、装置、***、以及在线翻译方法及装置
JP2017021422A (ja) * 2015-07-07 2017-01-26 国立研究開発法人情報通信研究機構 統計翻訳の最適化装置、統計翻訳システム、及びコンピュータプログラム
CN106649282A (zh) * 2015-10-30 2017-05-10 阿里巴巴集团控股有限公司 基于统计的机器翻译方法、装置及电子设备
CN106649288A (zh) * 2016-12-12 2017-05-10 北京百度网讯科技有限公司 基于人工智能的翻译方法和装置
CN107240395A (zh) * 2017-06-16 2017-10-10 百度在线网络技术(北京)有限公司 一种声学模型训练方法和装置、计算机设备、存储介质
CN107729324A (zh) * 2016-08-10 2018-02-23 三星电子株式会社 基于并行处理的翻译方法和设备
US20180232604A1 (en) * 2017-02-14 2018-08-16 Google Inc. Unsupervised Learning Techniques for Temporal Difference Models
CN108898218A (zh) * 2018-05-24 2018-11-27 阿里巴巴集团控股有限公司 一种神经网络模型的训练方法、装置、及计算机设备
CN109190134A (zh) * 2018-11-21 2019-01-11 科大讯飞股份有限公司 一种文本翻译方法及装置
CN109241139A (zh) * 2018-08-31 2019-01-18 联想(北京)有限公司 数据处理方法、逻辑模型***以及数据处理***
CN109299753A (zh) * 2018-12-11 2019-02-01 济南浪潮高新科技投资发展有限公司 一种用于法律文本信息挖掘的集成学习方法及***
CN109558604A (zh) * 2018-12-17 2019-04-02 北京百度网讯科技有限公司 一种机器翻译方法、装置、电子设备及存储介质
CN109670191A (zh) * 2019-01-24 2019-04-23 语联网(武汉)信息技术有限公司 机器翻译的校准优化方法、装置与电子设备
CN109697292A (zh) * 2018-12-17 2019-04-30 北京百度网讯科技有限公司 一种机器翻译方法、装置、电子设备和介质
CN109710948A (zh) * 2018-11-27 2019-05-03 语联网(武汉)信息技术有限公司 机器翻译引擎推荐方法及装置

Patent Citations (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103678285A (zh) * 2012-08-31 2014-03-26 富士通株式会社 机器翻译方法和机器翻译***
US20140163951A1 (en) * 2012-12-07 2014-06-12 Xerox Corporation Hybrid adaptation of named entity recognition
US20140200878A1 (en) * 2013-01-14 2014-07-17 Xerox Corporation Multi-domain machine translation model adaptation
CN106156010A (zh) * 2015-04-20 2016-11-23 阿里巴巴集团控股有限公司 翻译训练方法、装置、***、以及在线翻译方法及装置
JP2017021422A (ja) * 2015-07-07 2017-01-26 国立研究開発法人情報通信研究機構 統計翻訳の最適化装置、統計翻訳システム、及びコンピュータプログラム
CN106649282A (zh) * 2015-10-30 2017-05-10 阿里巴巴集团控股有限公司 基于统计的机器翻译方法、装置及电子设备
CN107729324A (zh) * 2016-08-10 2018-02-23 三星电子株式会社 基于并行处理的翻译方法和设备
CN106649288A (zh) * 2016-12-12 2017-05-10 北京百度网讯科技有限公司 基于人工智能的翻译方法和装置
US20180232604A1 (en) * 2017-02-14 2018-08-16 Google Inc. Unsupervised Learning Techniques for Temporal Difference Models
CN107240395A (zh) * 2017-06-16 2017-10-10 百度在线网络技术(北京)有限公司 一种声学模型训练方法和装置、计算机设备、存储介质
CN108898218A (zh) * 2018-05-24 2018-11-27 阿里巴巴集团控股有限公司 一种神经网络模型的训练方法、装置、及计算机设备
CN109241139A (zh) * 2018-08-31 2019-01-18 联想(北京)有限公司 数据处理方法、逻辑模型***以及数据处理***
CN109190134A (zh) * 2018-11-21 2019-01-11 科大讯飞股份有限公司 一种文本翻译方法及装置
CN109710948A (zh) * 2018-11-27 2019-05-03 语联网(武汉)信息技术有限公司 机器翻译引擎推荐方法及装置
CN109299753A (zh) * 2018-12-11 2019-02-01 济南浪潮高新科技投资发展有限公司 一种用于法律文本信息挖掘的集成学习方法及***
CN109558604A (zh) * 2018-12-17 2019-04-02 北京百度网讯科技有限公司 一种机器翻译方法、装置、电子设备及存储介质
CN109697292A (zh) * 2018-12-17 2019-04-30 北京百度网讯科技有限公司 一种机器翻译方法、装置、电子设备和介质
CN109670191A (zh) * 2019-01-24 2019-04-23 语联网(武汉)信息技术有限公司 机器翻译的校准优化方法、装置与电子设备

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
MAJID RAZMARA 等: "Mixing multiple translation models in statistical machine translation", 《PROCEEDINGS OF THE 50TH ANNUAL MEETING OF THE ASSOCIATION FOR COMPUTATIONAL LINGUISTICS》 *
常晓雪 等: "基于Bagging算法和Elman-NN融合的短期负荷预测模型", 《青岛大学学报(工程技术版)》 *
张新雨 等: "模型平均方法及其在预测中的应用", 《统计研究》 *
郑晓康: "面向汉英专利文献的神经网络翻译模型的集外词翻译研究", 《中国优秀硕士学位论文全文数据库信息科技辑》 *

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112528680A (zh) * 2019-08-29 2021-03-19 上海卓繁信息技术股份有限公司 语料扩充方法及***
CN112528680B (zh) * 2019-08-29 2024-04-05 上海卓繁信息技术股份有限公司 语料扩充方法及***
CN111326157A (zh) * 2020-01-20 2020-06-23 北京字节跳动网络技术有限公司 文本生成方法、装置、电子设备和计算机可读介质
CN111326157B (zh) * 2020-01-20 2023-09-08 抖音视界有限公司 文本生成方法、装置、电子设备和计算机可读介质
CN112329484A (zh) * 2020-11-06 2021-02-05 中国联合网络通信集团有限公司 自然语言的翻译方法及装置
CN112633019A (zh) * 2020-12-29 2021-04-09 北京奇艺世纪科技有限公司 一种双语样本生成方法、装置、电子设备及存储介质
CN112633019B (zh) * 2020-12-29 2023-09-05 北京奇艺世纪科技有限公司 一种双语样本生成方法、装置、电子设备及存储介质
CN113221581A (zh) * 2021-05-13 2021-08-06 北京小米移动软件有限公司 文本翻译的方法、装置及存储介质
CN113343716A (zh) * 2021-05-20 2021-09-03 北京三快在线科技有限公司 一种多语种翻译方法、装置、存储介质及设备
CN113343716B (zh) * 2021-05-20 2022-09-30 北京三快在线科技有限公司 一种多语种翻译方法、装置、存储介质及设备
WO2023082916A1 (zh) * 2021-11-10 2023-05-19 北京有竹居网络技术有限公司 训练方法、语音翻译方法、设备和计算机可读介质
CN114239613A (zh) * 2022-02-23 2022-03-25 阿里巴巴达摩院(杭州)科技有限公司 实时语音翻译方法、装置、设备及存储介质

Also Published As

Publication number Publication date
CN110175335B (zh) 2023-05-09

Similar Documents

Publication Publication Date Title
CN110175335A (zh) 翻译模型的训练方法和装置
CN110162800A (zh) 翻译模型的训练方法和装置
KR102540774B1 (ko) 서브워드 임베딩 및 스킵서트 기반 문장 임베딩 방법 및 장치
CN110196894A (zh) 语言模型的训练方法和预测方法
AU2011335900B2 (en) Text conversion and representation system
CN107767870A (zh) 标点符号的添加方法、装置和计算机设备
CN109344413A (zh) 翻译处理方法和装置
CN108549646B (zh) 一种基于胶囊的神经网络机器翻译***、信息数据处理终端
CN110046350A (zh) 文法错误识别方法、装置、计算机设备及存储介质
CN107678561A (zh) 基于人工智能的语音输入纠错方法及装置
CN108986793A (zh) 翻译处理方法、装置及设备
CN107656922A (zh) 一种翻译方法、装置、终端及存储介质
CN109887497A (zh) 语音识别的建模方法、装置及设备
CN108537176A (zh) 目标弹幕的识别方法、装置、终端及存储介质
CN110175336A (zh) 翻译方法、装置和电子设备
CN110413736B (zh) 跨语言文本表示方法和装置
CN108549643A (zh) 翻译处理方法和装置
CN107729313A (zh) 基于深度神经网络的多音字读音的判别方法和装置
CN110162789B (zh) 一种基于汉语拼音的词表征方法及装置
CN104239289B (zh) 音节划分方法和音节划分设备
CN107679564A (zh) 样本数据推荐方法及其装置
CN107766325A (zh) 文本拼接方法及其装置
CN109670185A (zh) 基于人工智能的文本生成方法和装置
CN110059313A (zh) 翻译处理方法和装置
CN109616101A (zh) 声学模型训练方法、装置、计算机设备和可读存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant