CN111738020B - 一种翻译模型的训练方法及装置 - Google Patents
一种翻译模型的训练方法及装置 Download PDFInfo
- Publication number
- CN111738020B CN111738020B CN202010853613.5A CN202010853613A CN111738020B CN 111738020 B CN111738020 B CN 111738020B CN 202010853613 A CN202010853613 A CN 202010853613A CN 111738020 B CN111738020 B CN 111738020B
- Authority
- CN
- China
- Prior art keywords
- decoding
- layers
- training
- coding
- vector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/12—Use of codes for handling textual entities
- G06F40/151—Transformation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/55—Rule-based translation
- G06F40/56—Natural language generation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
- Machine Translation (AREA)
Abstract
本申请提供一种翻译模型的训练方法及装置,所述翻译模型包括编码器和解码器,所述编码器包括2m+1个顺次连接的编码层且前m个编码层与后m个编码层对应共享编码参数,和/或,所述解码器包括2n+1个顺次连接的解码层且前n个解码层与后n个解码层对应共享解码参数,其中所述方法包括:接收训练语句和训练语句对应的目标语句;获取所述训练语句对应的训练语句向量和所述目标语句对应的目标语句向量;将所述训练语句向量输入至所述编码器中进行编码处理获得编码向量;将所述编码向量和所述目标语句向量输入至所述解码器中进行解码处理获得解码向量,并根据所述解码向量计算损失值;根据所述损失值调整所述翻译模型的参数,直至达到训练停止条件。
Description
技术领域
本申请涉及人工智能技术领域,特别涉及一种翻译模型的训练方法及装置、计算设备和计算机可读存储介质。
背景技术
随着计算机运算能力的提升,神经网络的应用越来越广泛,例如构建翻译模型,以实现待翻译语句到目标语句的转换。
翻译模型是一种端到端的网络结构,包括编码器和解码器,编码器包括L个编码层,解码器包括L个解码层,其中,编码器对接收的待翻译语句进行词编码处理获得编码结果,并将所述编码结果输入至解码器中,解码器同时接收解码器的输入和编码器的编码结果进行解码获得解码结果,在翻译模型进做前向(Forward)时,模型的参数不参与更新,在模型计算损失值做后向运算(Back Propagation)时,会对整个模型中每个解码层和编码层中的参数进行更新,在参数更新过程中,当更新第k层解码器或编码器的参数时,第k层参数只受到损失值和第k-L层参数的影响,不受第1-(k-1)层参数的影响,因此导致翻译模型的参数更新不充分,翻译模型的训练时间较长,翻译模型的BLEU分数较低。
因此,如何能使翻译模型的训练效果更好、时间更短,就成为技术人员亟待解决的问题。
发明内容
有鉴于此,本申请实施例提供了一种翻译模型的训练方法及装置、计算设备和计算机可读存储介质,以解决现有技术中存在的技术缺陷。
根据本申请实施例的第一方面,提供了一种翻译模型的训练方法,所述翻译模型包括编码器和解码器,所述编码器包括2m+1个顺次连接的编码层且前m个编码层与后m个编码层对应共享编码参数,和/或,所述解码器包括2n+1个顺次连接的解码层且前n个解码层与后n个解码层对应共享解码参数,m和n均为大于1的整数;
所述翻译模型的训练方法包括:
接收训练数据,其中,所述训练数据包括训练语句和训练语句对应的目标语句;
获取所述训练语句对应的训练语句向量和所述目标语句对应的目标语句向量;
将所述训练语句向量输入至所述编码器中进行编码处理获得编码向量;
将所述编码向量和所述目标语句向量输入至所述解码器中进行解码处理获得解码向量,并根据所述解码向量计算损失值;
根据所述损失值调整所述翻译模型的参数,继续训练所述翻译模型,直至达到训练停止条件。
可选的,所述编码器还包括第一嵌入层,所述解码器还包括第二嵌入层;
获取所述训练语句对应的训练语句向量和所述目标语句对应的目标语句向量,包括:
将所述训练语句输入至所述第一嵌入层做嵌入化处理获得训练语句向量;
将所述目标语句输入至所述第二嵌入层做嵌入化处理获得目标语句向量。
可选的,根据所述解码向量计算损失值,包括:
将所述解码向量与预设的向量验证集进行对比,得到所述解码向量的损失值。
可选的,根据所述损失值调整所述翻译模型的参数,包括:
将所述损失值反向传播依次更新每个所述解码层的解码参数和每个所述编码层的编码参数。
可选的,在所述编码器包括2m+1个顺次连接的编码层且前m个编码层与后m个编码层对应共享编码参数,所述解码器包括2n+1个顺次连接的解码层且前n个解码层与后n个解码层对应共享解码参数的情况下,所述编码器的前m个编码层与后m个编码层一一对应地共享编码参数,所述解码器的前n个解码层与后n个解码层一一对应地共享解码参数。
可选的,在所述编码器包括2m+1个顺次连接的编码层且前m个编码层与后m个编码层对应共享编码参数的情况下,所述编码器的前m个编码层与后m个编码层一一对应地共享编码参数。
可选的,在所述解码器包括2n+1个顺次连接的解码层且前n个解码层与后n个解码层对应共享解码参数的情况下,所述解码器的前n个解码层与后n个解码层一一对应地共享解码参数。
可选的,将所述训练语句向量输入至所述编码器中进行编码处理获得编码向量,包括:
将所述编码器中每个编码层输出的编码层向量根据预设的权重生成编码向量。
根据本申请实施例的第二方面,提供了一种翻译方法,包括:
获取待翻译语句;
将所述待翻译语句输入至翻译模型的编码器中进行编码,获得所述待翻译语句对应的编码向量,其中,所述翻译模型是通过上述任意一项翻译模型的训练方法训练得到的;
将所述编码向量输入至所述翻译模型的解码器中进行解码,获得所述待翻译语句对应的目标语句。
根据本申请实施例的第三方面,提供了一种翻译模型的训练装置,所述翻译模型包括编码器和解码器,所述编码器包括2m+1个顺次连接的编码层且前m个编码层与后m个编码层对应共享编码参数,和/或,所述解码器包括2n+1个顺次连接的解码层且前n个解码层与后n个解码层对应共享解码参数,m和n均为大于1的整数;
所述翻译模型的训练装置包括:
接收模块,被配置为接收训练数据,其中,所述训练数据包括训练语句和训练语句对应的目标语句;
获取模块,被配置为获取所述训练语句对应的训练语句向量和所述目标语句对应的目标语句向量;
编码模块,被配置为将所述训练语句向量输入至所述编码器中进行编码处理获得编码向量;
解码模块,被配置为将所述编码向量和所述目标语句向量输入至所述解码器中进行解码处理获得解码向量,并根据所述解码向量计算损失值;
训练模块,被配置为根据所述损失值调整所述翻译模型的参数,继续训练所述翻译模型,直至达到训练停止条件。
根据本申请实施例的第四方面,提供了一种翻译模型的训练装置,包括:
获取模块,被配置为获取待翻译语句;
编码模块,被配置为将所述待翻译语句输入至翻译模型的编码器中进行编码,获得所述待翻译语句对应的编码向量,其中,所述翻译模型是通过上述任意一项翻译模型的训练方法训练得到的;
解码模块,被配置为将所述编码向量输入至所述翻译模型的解码器中进行解码,获得所述待翻译语句对应的目标语句。
根据本申请实施例的第五方面,提供了一种计算设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机指令,所述处理器执行所述指令时实现所述翻译模型的训练方法或所述翻译方法的步骤。
根据本申请实施例的第六方面,提供了一种计算机可读存储介质,其存储有计算机指令,该指令被处理器执行时实现所述翻译模型的训练方法或所述翻译方法的步骤。
根据本申请实施例的第七方面,提供了一种芯片,其存储有计算机指令,该指令被芯片执行时实现所述翻译模型的训练方法或所述翻译方法的步骤。
本申请实施例中,通过翻译模型的解码层中共享解码参数,编码层中共享编码参数,在翻译模型根据损失值做反向运算更新模型参数时,每个解码层或编码层都会受到其他层的影响,在保证模型参数量不增加的情况下,实现了模型参数的充分更新,提高了训练效率,最终获得性能更好的翻译模型,有效提高翻译模型的BLEU分数。
附图说明
图1是本申请实施例提供的翻译模型的结构示意图;
图2是本申请实施例提供的计算设备的结构框图;
图3是本申请实施例提供的翻译模型的训练方法的流程图;
图4是本申请实施例提供的更新解码器中各解码层的解码参数的示意图;
图5是本申请实施例提供的翻译方法的流程图;
图6是本申请实施例提供的翻译模型的训练装置的结构示意图;
图7是本申请实施例提供的翻译装置的结构示意图。
具体实施方式
在下面的描述中阐述了很多具体细节以便于充分理解本申请。但是本申请能够以很多不同于在此描述的其它方式来实施,本领域技术人员可以在不违背本申请内涵的情况下做类似推广,因此本申请不受下面公开的具体实施的限制。
在本申请一个或多个实施例中使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本申请一个或多个实施例。在本申请一个或多个实施例和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。还应当理解,本申请一个或多个实施例中使用的术语“和/或”是指并包含一个或多个相关联的列出项目的任何或所有可能组合。
应当理解,尽管在本申请一个或多个实施例中可能采用术语第一、第二等来描述各种信息,但这些信息不应限于这些术语。这些术语仅用来将同一类型的信息彼此区分开。例如,在不脱离本申请一个或多个实施例范围的情况下,第一也可以被称为第二,类似地,第二也可以被称为第一。取决于语境,如在此所使用的词语“如果”可以被解释成为“响应于确定”。
首先,对本发明一个或多个实施例涉及的名词术语进行解释。
翻译模型:其主要思想是将待翻译语句经过多个编码层(encoder)编码成为一个编码向量,然后利用多个解码层(decoder)对编码向量进行解码,得到解码向量,然后将解码向量翻译成为对应的目标语句。
编码(encoder):将待翻译语句由文字转化为编码向量。
解码(decoder):将编码向量转化为翻译语句的语言文字。
BLEU分数:一种评价机器翻译结果的指标。
训练语句:用于训练的待翻译语句。
目标语句:待翻译语句经过翻译后的语句。
在本申请中,提供了一种翻译模型的训练方法及装置、计算设备和计算机可读存储介质,在下面的实施例中逐一进行详细说明。
本申请实施例提供的翻译模型包括一个解码器和一个编码器,在实际应用中,可以根据实际情况对编码器中的编码层和/或解码器中的解码层做共享参数的处理。
如翻译模型可以仅在编码器的编码层中共享编码参数,以m=5为例,所述编码器中包括第一嵌入层和11个顺次连接的编码层,前5个编码层与后5个编码层对应共享编码参数,前5个编码层与后5个编码层一一对应地共享编码参数,具体的共享方式可以为第1个编码层与第7个编码层共享编码参数,第2个编码层与第8个编码层共享编码参数,依次类推,也可以为第1个编码层与第11个编码层共享编码参数,第2个编码层与第10个编码层共享编码参数,依次类推,在本申请中不对一一对应共享编码参数的形式做限制。此时翻译模型中的解码器包括第二嵌入层和n个顺次连接的解码层。
翻译模型也可以仅在解码器的解码层中设置共享解码参数,以n=5为例,所述解码器中包括第二嵌入层和11个顺次连接的解码层,前5个解码层与后5个解码层对应共享解码参数,前5个解码层与后5个解码层一一对应地共享解码参数,具体的共享方式如上述编码器的共享方式,具体描述参见上述编码器中编码层的共享方式,在此就不再赘述,此时翻译模型中的编码器包括m个顺次连接的编码层。
翻译模型还可以在编码器的编码层中共享编码参数,在解码器的解码层中共享解码参数,以m=5和n=5为例,所述编码器中包括第一嵌入层和11个顺次连接的编码层,前5个编码层与后5个编码层对应共享编码参数,所述解码器中包括第二嵌入层和11个顺次连接的解码层,前5个解码层与后5个解码层对应共享解码参数,共享解码参数和共享解码参数的具体共享方式参见上述在编码器中共享编码参数的描述,在此不再赘述。
图1示出了本申请实施例提供的翻译模型的结构示意图,所述翻译模型包括编码器和解码器,以m=5和n=5为例,所述编码器中包括第一嵌入层和11个顺次连接的编码层,前5个编码层与后5个编码层对应共享编码参数,所述解码器中包括第二嵌入层和11个顺次连接的解码层,前5个解码层与后5个解码层对应共享解码参数。
在本申请提供的实施例中,在编码器中,前5个编码层与后5个编码层对应共享编码参数具体为:第1编码层与第11编码层的共享编码参数为W11,第2编码层与第10编码层的共享编码参数为W12,第3编码层与第9编码层的共享编码参数为W13,第4编码层与第8编码层的共享编码参数为W14,第5编码层与第7编码层的共享编码参数为W15,第6编码层的编码参数为W16。
在解码器中,前5个解码层与后5个解码层对应共享解码参数具体为:第1解码层与第11解码层的共享解码参数为W21,第2解码层与第10解码层的共享解码参数为W22,第3解码层与第9解码层的共享解码参数为W23,第4解码层与第8解码层的共享解码参数为W24,第5解码层与第7解码层的共享解码参数为W25,第6解码层的解码参数为W26。
在本申请中不对编码器或解码器中的共享参数做限制。以实际应用为准。
图2示出了根据本申请一实施例的计算设备200的结构框图。该计算设备200的部件包括但不限于存储器210和处理器220。处理器220与存储器210通过总线230相连接,数据库250用于保存数据。
计算设备200还包括接入设备240,接入设备240使得计算设备200能够经由一个或多个网络260通信。这些网络的示例包括公用交换电话网(PSTN)、局域网(LAN)、广域网(WAN)、个域网(PAN)或诸如因特网的通信网络的组合。接入设备240可以包括有线或无线的任何类型的网络接口(例如,网络接口卡(NIC))中的一个或多个,诸如IEEE802.11无线局域网(WLAN)无线接口、全球微波互联接入(Wi-MAX)接口、以太网接口、通用串行总线(USB)接口、蜂窝网络接口、蓝牙接口、近场通信(NFC)接口,等等。
在本申请的一个实施例中,计算设备200的上述部件以及图2中未示出的其他部件也可以彼此相连接,例如通过总线。应当理解,图2所示的计算设备结构框图仅仅是出于示例的目的,而不是对本申请范围的限制。本领域技术人员可以根据需要,增添或替换其他部件。
计算设备200可以是任何类型的静止或移动计算设备,包括移动计算机或移动计算设备(例如,平板计算机、个人数字助理、膝上型计算机、笔记本计算机、上网本等)、移动电话(例如,智能手机)、可佩戴的计算设备(例如,智能手表、智能眼镜等)或其他类型的移动设备,或者诸如台式计算机或PC的静止计算设备。计算设备200还可以是移动式或静止式的服务器。
其中,处理器220可以执行图3所示翻译模型的训练方法中的步骤。图3示出了根据本申请一实施例的翻译模型的训练方法的流程图,所述翻译模型如图1所示,包括步骤302至步骤310。
步骤302:接收训练数据,其中,所述训练数据包括训练语句和训练语句对应的目标语句。
训练数据为用于训练翻译模型的数据,每个训练数据包括一个训练语句和训练语句对应的目标语句,训练语句即为待翻译语句,目标语句为待翻译语句经过翻译后获得的语句。
训练语句可以为中文、日语、英语、法语、德语中的任意一种,目标语句同样可以为中文、日语、英语、法语、德语中的任意一种,在本申请中,不对训练语句和目标语句的语种做限制。
在本申请提供的实施例中,获取训练语句为“桌子上有只猫”,所述训练语句对应的目标语句为“There is a cat on the table”。
步骤304:获取所述训练语句对应的训练语句向量和所述目标语句对应的目标语句向量。
在实际应用中,在所述编码器中包括第一嵌入层,在所述解码器中包括第二嵌入层。
获取所述训练语句对应的训练语句向量和所述目标语句对应的目标语句向量,包括:将所述训练语句输入至所述第一嵌入层做嵌入化处理获得训练语句向量;将所述目标语句输入至所述第二嵌入层做嵌入化处理获得目标语句向量。
嵌入化:用一个低维度的向量表示一个物体,如一个词,或一个商品等,嵌入化向量的性质是能使距离相近的向量对应的物体有相近的含义,嵌入化能用低维度向量对物体进行编码还能保留其含义的特点非常适合深度学习。
第一嵌入层为编码器中的嵌入层,用于将输入至编码器中的信息进行嵌入化处理,将训练语句输入至第一嵌入层做嵌入化处理后,获得所述训练语句的训练语句向量。对训练语句进行嵌入化处理,可以提高对训练语句信息提取的深度和丰富度,增强分析准确性。
第二嵌入层为解码器中的嵌入层,用于将输入至解码器中的所述目标语句进行嵌入化处理,获得目标语句的目标语句向量。
在本申请提供的实施例中,将训练语句“桌子上有只猫”输入至编码器的第一嵌入层做嵌入化处理,获得训练语句向量A,将所述目标语句“There is a cat on the table”输入至解码器的第二嵌入层做嵌入化处理,获得目标语句向量B。
步骤306:将所述训练语句向量输入至所述编码器中进行编码处理获得编码向量。
训练语句向量在编码器中,依次经过每个编码层的编码处理,获得对应的编码向量。
可选的,将所述训练语句向量输入至所述编码器中进行编码处理获得编码向量,包括:将所述编码器中每个编码层输出的编码层向量根据预设的权重生成编码向量。
在实际应用中,所述编码器输出的最终编码向量可以为最后一个编码层输出的编码向量,也可以为每个编码层输出的编码向量根据预设的权重生成的解码向量,本申请不对编码向量的最终确认方式做限定。
在本申请提供的实施例中,如图1所示,编码器包括11个顺次连接的编码层,将所述训练语句向量A输入至第1编码层经过编码处理获得第1编码向量,将第1编码向量输入至第2编码层经过编码处理获得第2编码向量,依次类推,将第10编码向量输入至第11编码层经过编码处理获得第11编码向量,将第11编码向量作为所述编码器输出的编码向量。
步骤308:将所述编码向量和所述目标语句向量输入至所述解码器中进行解码处理获得解码向量,并根据所述解码向量计算损失值。
计算损失值的方法有很多,如交叉熵损失函数,最大损失函数,等等,在本申请中,不对计算损失值的具体方式做限定。
在本申请提供的实施例中,将编码器输出的编码向量分别输入至解码器的每个解码层中,第1个解码层接收编码向量和目标语句向量,经过解码处理生成第1解码向量,并将第1解码向量输入至第2解码层中;第2解码层接收编码向量和第1解码向量,经过解码处理生成第2解码向量,并将第2解码向量输入至第3解码层中;依次类推,第11解码层接收编码向量和第10解码向量,经过解码处理生成第11解码向量,并将第11解码向量作为所述解码器输出的解码向量。
可选的,根据所述解码向量计算损失值,包括:将所述解码向量与预设的向量验证集进行比对,得到所述解码向量的损失值。
需要说明的是,在本实施例中,得到的解码向量并不直接与目标语句对应的目标语句向量进行对比计算损失值,而是引入了一个向量验证集。如果将解码向量直接与目标语句向量进行对比计算损失值,会导致过拟合,导致翻译模型在其他的语句翻译中的表现变差,翻译效果反而适得其反。
步骤310:根据所述损失值调整所述翻译模型的参数,继续训练所述翻译模型,直至达到训练停止条件。
在调整所述翻译模型的参数时,据所述损失值调整所述翻译模型的参数,包括:将所述损失值反向传播依次更新每个所述解码层的解码参数和每个所述编码层的编码参数。
翻译模型的训练停止条件可以设置为损失值小于等于预设阈值,也可以设置为训练轮次为预设的训练轮次,如训练10轮,等等,在本申请中,对训练停止条件不做限定。
在本申请提供的实施例中,参见图1,将所述损失值反向传播依次更新每个所述解码层的解码参数和每个所述编码层的编码参数,即按照第11解码层-第10解码层-第9解码层……第1解码层的顺序更新每个解码层的解码参数;按照第11编码层-第10编码层-第9编码层……第1编码层的顺序更新每个编码层的编码参数。
参见图4,图4示出了本申请实施例中更新解码器中各解码层的解码参数的示意图,以更新解码器中第11个解码层的解码参数W21为例,当更新第11个解码层的解码参数W21时,将解码参数W21更新为W21’,因为第11解码层与第1解码层共享解码参数W21,因此此时第11解码层和第1解码层的解码参数为W21’,当更新至第1个解码层时,将第1解码层的解码参数W21’更新为W21’’,此时第11解码层和第1解码层的解码参数均为W21’’。
具体的,更新参数的计算公式如下式(1)所示。
本申请实施例提供的翻译模型的训练方法,翻译模型的解码层共享解码参数,编码层共享编码参数,在翻译模型的做反向运算更新模型参数时,每个解码层或编码层都会受到其他层的影响,在保证模型参数量不增加的情况下,实现了模型参数的充分更新,提高了训练效率。
图5示出了本申请一实施例的翻译方法的流程图,包括步骤502至步骤506。
步骤502:获取待翻译语句。
在本申请提供的实施例中,获取待翻译语句为“我喜欢踢足球”。
步骤504:将所述待翻译语句输入至翻译模型的编码器中进行编码,获得所述待翻译语句对应的编码向量,其中,所述翻译模型是通过上述翻译模型的训练方法训练得到的。
在本申请提供的实施例中,将所述待翻译语句“我喜欢踢足球”输入至翻译模型的编码器中进行编码,获得所述待翻译语句对应的编码向量E。
步骤506:将所述编码向量输入至所述翻译模型的解码器中进行解码,获得所述待翻译语句对应的目标语句。
在本申请提供的实施例中,将所述编码向量E输入至所述翻译模型的解码器中进行解码,获得所述待翻译语句“我喜欢踢足球”对应的目标语句“I like playingfootball”。
本申请实施例提供的翻译方法,将待翻译语句输入至预先训练好的翻译模型中,翻译模型经过对所述待翻译语句的编码-解码,获得对应的目标语句,使得语句翻译过程快捷,高效,准确。
与上述翻译模型的训练方法实施例相对应,本申请还提供了翻译模型的训练装置实施例,图6示出了本申请一个实施例的翻译模型的训练装置的结构示意图,所述翻译模型包括编码器和解码器,所述编码器包括2m+1个顺次连接的编码层且前m个编码层与后m个编码层对应共享编码参数,和/或,所述解码器包括2n+1个顺次连接的解码层且前n个解码层与后n个解码层对应共享解码参数,m和n均为大于1的整数,如图6所示,该装置包括:
所述翻译模型的训练装置包括:
接收模块602,被配置为接收训练数据,其中,所述训练数据包括训练语句和训练语句对应的目标语句;
获取模块604,被配置为获取所述训练语句对应的训练语句向量和所述目标语句对应的目标语句向量;
编码模块606,被配置为将所述训练语句向量输入至所述编码器中进行编码处理获得编码向量;
解码模块608,被配置为将所述编码向量和所述目标语句向量输入至所述解码器中进行解码处理获得解码向量,并根据所述解码向量计算损失值;
训练模块610,被配置为根据所述损失值调整所述翻译模型的参数,继续训练所述翻译模型,直至达到训练停止条件。
可选的,所述编码器还包括第一嵌入层,所述解码器还包括第二嵌入层;
所述获取模块604,进一步被配置为将所述训练语句输入至所述第一嵌入层做嵌入化处理获得训练语句向量;将所述目标语句输入至所述第二嵌入层做嵌入化处理获得目标语句向量。
可选的,所述解码模块608,进一步被配置为将所述解码向量与预设的向量验证集进行对比,得到所述解码向量的损失值。
可选的,所述训练模块610,进一步被配置为将所述损失值反向传播依次更新每个所述解码层的解码参数和每个所述编码层的编码参数。
可选的,在所述编码器包括2m+1个顺次连接的编码层且前m个编码层与后m个编码层对应共享编码参数,所述解码器包括2n+1个顺次连接的解码层且前n个解码层与后n个解码层对应共享解码参数的情况下,所述编码器的前m个编码层与后m个编码层一一对应地共享编码参数,所述解码器的前n个解码层与后n个解码层一一对应地共享解码参数。
可选的,在所述编码器包括2m+1个顺次连接的编码层且前m个编码层与后m个编码层对应共享编码参数的情况下,所述编码器的前m个编码层与后m个编码层一一对应地共享编码参数。
可选的,在所述解码器包括2n+1个顺次连接的解码层且前n个解码层与后n个解码层对应共享解码参数的情况下,所述解码器的前n个解码层与后n个解码层一一对应地共享解码参数。
可选的,所述编码模块606,进一步被配置为将所述编码器中每个编码层输出的编码层向量根据预设的权重生成编码向量。
本申请实施例提供的翻译模型的训练装置,翻译模型的解码层共享解码参数,编码层共享编码参数,在翻译模型的做反向运算更新模型参数时,每个解码层或编码层都会受到其他层的影响,在保证模型参数量不增加的情况下,实现了模型参数的充分更新,提高了训练效率。
与上述翻译方法实施例相对应,本申请还提供了翻译装置实施例,图7示出了本申请一个实施例的翻译装置的结构示意图。如图7所示,该装置包括:
获取模块702,被配置为获取待翻译语句。
编码模块704,被配置为将所述待翻译语句输入至翻译模型的编码器中进行编码,获得所述待翻译语句对应的编码向量,其中,所述翻译模型是通过上述翻译模型的训练方法训练得到的。
解码模块706,被配置为将所述编码向量输入至所述翻译模型的解码器中进行解码,获得所述待翻译语句对应的目标语句。
本申请实施例提供的翻译装置,将待翻译语句输入至预先训练好的翻译模型中,翻译模型经过对所述待翻译语句的编码-解码,获得对应的目标语句,使得语句翻译过程快捷,高效,准确。
需要说明的是,装置权利要求中的各组成部分应当理解为实现该程序流程各步骤或该方法各步骤所必须建立的功能模块,各个功能模块并非实际的功能分割或者分离限定。由这样一组功能模块限定的装置权利要求应当理解为主要通过说明书记载的计算机程序实现该解决方案的功能模块构架,而不应当理解为主要通过硬件方式实现该解决方案的实体装置。
本申请一实施例中还提供一种计算设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机指令,所述处理器执行所述指令时实现所述翻译模型的训练方法或所述翻译方法的步骤。
本申请一实施例还提供一种计算机可读存储介质,其存储有计算机指令,该指令被处理器执行时实现如前所述翻译模型的训练方法或所述翻译方法的步骤。
上述为本实施例的一种计算机可读存储介质的示意性方案。需要说明的是,该存储介质的技术方案与上述的翻译模型的训练方法或翻译方法的技术方案属于同一构思,存储介质的技术方案未详细描述的细节内容,均可以参见上述翻译模型的训练方法或翻译方法的技术方案的描述。
本申请实施例公开了一种芯片,其存储有计算机指令,该指令被处理器执行时实现如前所述翻译模型的训练方法或所述翻译方法的步骤。
上述对本申请特定实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
所述计算机指令包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。
需要说明的是,对于前述的各方法实施例,为了简便描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本申请并不受所描述的动作顺序的限制,因为依据本申请,某些步骤可以采用其它顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定都是本申请所必须的。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其它实施例的相关描述。
以上公开的本申请优选实施例只是用于帮助阐述本申请。可选实施例并没有详尽叙述所有的细节,也不限制该发明仅为所述的具体实施方式。显然,根据本申请的内容,可作很多的修改和变化。本申请选取并具体描述这些实施例,是为了更好地解释本申请的原理和实际应用,从而使所属技术领域技术人员能很好地理解和利用本申请。本申请仅受权利要求书及其全部范围和等效物的限制。
Claims (13)
1.一种翻译模型的训练方法,其特征在于,所述翻译模型包括编码器和解码器,所述编码器包括2m+1个顺次连接的编码层且前m个编码层与2m+1个编码层中的后m个编码层对应共享编码参数,和/或,所述解码器包括2n+1个顺次连接的解码层且前n个解码层与2n+1个解码层中的后n个解码层对应共享解码参数,m和n均为大于1的整数;
所述翻译模型的训练方法包括:
接收训练数据,其中,所述训练数据包括训练语句和训练语句对应的目标语句;
获取所述训练语句对应的训练语句向量和所述目标语句对应的目标语句向量;
将所述训练语句向量输入至所述编码器中进行编码处理获得编码向量;
将所述编码向量和所述目标语句向量输入至所述解码器中进行解码处理获得解码向量,并根据所述解码向量计算损失值;
根据所述损失值调整所述翻译模型的参数,继续训练所述翻译模型,直至达到训练停止条件。
2.如权利要求1所述的翻译模型的训练方法,其特征在于,所述编码器还包括第一嵌入层,所述解码器还包括第二嵌入层;
获取所述训练语句对应的训练语句向量和所述目标语句对应的目标语句向量,包括:
将所述训练语句输入至所述第一嵌入层做嵌入化处理获得训练语句向量;
将所述目标语句输入至所述第二嵌入层做嵌入化处理获得目标语句向量。
3.如权利要求1所述的翻译模型的训练方法,其特征在于,根据所述解码向量计算损失值,包括:
将所述解码向量与预设的向量验证集进行对比,得到所述解码向量的损失值。
4.如权利要求1所述的翻译模型的训练方法,其特征在于,根据所述损失值调整所述翻译模型的参数,包括:
将所述损失值反向传播依次更新每个所述解码层的解码参数和每个所述编码层的编码参数。
5.如权利要求1所述的翻译模型的训练方法,其特征在于,在所述编码器包括2m+1个顺次连接的编码层且前m个编码层与2m+1个编码层中的后m个编码层对应共享编码参数,所述解码器包括2n+1个顺次连接的解码层且前n个解码层与2n+1个解码层中的后n个解码层对应共享解码参数的情况下,所述编码器的前m个编码层与2m+1个编码层中的后m个编码层一一对应地共享编码参数,所述解码器的前n个解码层与2n+1个解码层中的后n个解码层一一对应地共享解码参数。
6.如权利要求1所述的翻译模型的训练方法,其特征在于,在所述编码器包括2m+1个顺次连接的编码层且前m个编码层与2m+1个编码层中的后m个编码层对应共享编码参数的情况下,所述编码器的前m个编码层与2m+1个编码层中的后m个编码层一一对应地共享编码参数。
7.如权利要求1所述的翻译模型的训练方法,其特征在于,在所述解码器包括2n+1个顺次连接的解码层且前n个解码层与2n+1个解码层中的后n个解码层对应共享解码参数的情况下,所述解码器的前n个解码层与2n+1个解码层中的后n个解码层一一对应地共享解码参数。
8.如权利要求1所述的翻译模型的训练方法,其特征在于,将所述训练语句向量输入至所述编码器中进行编码处理获得编码向量,包括:
将所述编码器中每个编码层输出的编码层向量根据预设的权重生成编码向量。
9.一种翻译方法,其特征在于,
获取待翻译语句;
将所述待翻译语句输入至翻译模型的编码器中进行编码,获得所述待翻译语句对应的编码向量,其中,所述翻译模型是通过权利要求1-8任意一项所述的训练方法训练得到的;
将所述编码向量输入至所述翻译模型的解码器中进行解码,获得所述待翻译语句对应的目标语句。
10.一种翻译模型的训练装置,其特征在于,所述翻译模型包括编码器和解码器,所述编码器包括2m+1个顺次连接的编码层且前m个编码层与2m+1个编码层中的后m个编码层对应共享编码参数,和/或,所述解码器包括2n+1个顺次连接的解码层且前n个解码层与2n+1个解码层中的后n个解码层对应共享解码参数,m和n均为大于1的整数;
所述翻译模型的训练装置包括:
接收模块,被配置为接收训练数据,其中,所述训练数据包括训练语句和训练语句对应的目标语句;
获取模块,被配置为获取所述训练语句对应的训练语句向量和所述目标语句对应的目标语句向量;
编码模块,被配置为将所述训练语句向量输入至所述编码器中进行编码处理获得编码向量;
解码模块,被配置为将所述编码向量和所述目标语句向量输入至所述解码器中进行解码处理获得解码向量,并根据所述解码向量计算损失值;
训练模块,被配置为根据所述损失值调整所述翻译模型的参数,继续训练所述翻译模型,直至达到训练停止条件。
11.一种翻译装置,其特征在于,
获取模块,被配置为获取待翻译语句;
编码模块,被配置为将所述待翻译语句输入至翻译模型的编码器中进行编码,获得所述待翻译语句对应的编码向量,其中,所述翻译模型是通过权利要求1-8任意一项所述的训练方法训练得到的;
解码模块,被配置为将所述编码向量输入至所述翻译模型的解码器中进行解码,获得所述待翻译语句对应的目标语句。
12.一种计算设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机指令,其特征在于,所述处理器执行所述指令时实现权利要求1-8或者9任意一项所述方法的步骤。
13.一种计算机可读存储介质,其存储有计算机指令,其特征在于,该指令被处理器执行时实现权利要求1-8或者9任意一项所述方法的步骤。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110047093.3A CN112883690A (zh) | 2020-08-24 | 2020-08-24 | 一种翻译模型 |
CN202110047087.8A CN112861476A (zh) | 2020-08-24 | 2020-08-24 | 一种翻译模型 |
CN202010853613.5A CN111738020B (zh) | 2020-08-24 | 2020-08-24 | 一种翻译模型的训练方法及装置 |
CN202110047233.7A CN112800725A (zh) | 2020-08-24 | 2020-08-24 | 一种翻译模型 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010853613.5A CN111738020B (zh) | 2020-08-24 | 2020-08-24 | 一种翻译模型的训练方法及装置 |
Related Child Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110047093.3A Division CN112883690A (zh) | 2020-08-24 | 2020-08-24 | 一种翻译模型 |
CN202110047233.7A Division CN112800725A (zh) | 2020-08-24 | 2020-08-24 | 一种翻译模型 |
CN202110047087.8A Division CN112861476A (zh) | 2020-08-24 | 2020-08-24 | 一种翻译模型 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111738020A CN111738020A (zh) | 2020-10-02 |
CN111738020B true CN111738020B (zh) | 2021-01-12 |
Family
ID=72658700
Family Applications (4)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110047233.7A Pending CN112800725A (zh) | 2020-08-24 | 2020-08-24 | 一种翻译模型 |
CN202110047093.3A Pending CN112883690A (zh) | 2020-08-24 | 2020-08-24 | 一种翻译模型 |
CN202010853613.5A Active CN111738020B (zh) | 2020-08-24 | 2020-08-24 | 一种翻译模型的训练方法及装置 |
CN202110047087.8A Pending CN112861476A (zh) | 2020-08-24 | 2020-08-24 | 一种翻译模型 |
Family Applications Before (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110047233.7A Pending CN112800725A (zh) | 2020-08-24 | 2020-08-24 | 一种翻译模型 |
CN202110047093.3A Pending CN112883690A (zh) | 2020-08-24 | 2020-08-24 | 一种翻译模型 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110047087.8A Pending CN112861476A (zh) | 2020-08-24 | 2020-08-24 | 一种翻译模型 |
Country Status (1)
Country | Link |
---|---|
CN (4) | CN112800725A (zh) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111931518A (zh) * | 2020-10-15 | 2020-11-13 | 北京金山数字娱乐科技有限公司 | 一种翻译模型的训练方法及装置 |
CN114692652A (zh) * | 2020-12-31 | 2022-07-01 | 北京金山数字娱乐科技有限公司 | 翻译模型训练方法及装置、翻译方法及装置 |
CN112800768A (zh) * | 2021-02-03 | 2021-05-14 | 北京金山数字娱乐科技有限公司 | 一种嵌套命名实体识别模型的训练方法及装置 |
CN113239704B (zh) * | 2021-05-31 | 2024-05-28 | 平安科技(深圳)有限公司 | 干扰语句生成方法、装置、设备及计算机可读存储介质 |
CN113723117B (zh) * | 2021-07-29 | 2024-04-30 | 北京搜狗科技发展有限公司 | 一种翻译模型的训练方法、装置和用于翻译模型训练的装置 |
CN114386391B (zh) * | 2022-01-11 | 2023-08-15 | 平安科技(深圳)有限公司 | 基于人工智能的句向量特征提取方法、装置、设备及介质 |
CN114492318A (zh) * | 2022-02-16 | 2022-05-13 | 北京金山数字娱乐科技有限公司 | 文本推理方法及装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8229729B2 (en) * | 2008-03-25 | 2012-07-24 | International Business Machines Corporation | Machine translation in continuous space |
CN109190134A (zh) * | 2018-11-21 | 2019-01-11 | 科大讯飞股份有限公司 | 一种文本翻译方法及装置 |
CN109359309A (zh) * | 2018-12-11 | 2019-02-19 | 成都金山互动娱乐科技有限公司 | 一种翻译方法及装置、翻译模型的训练方法及装置 |
CN111178093A (zh) * | 2019-12-20 | 2020-05-19 | 沈阳雅译网络技术有限公司 | 一种基于堆叠算法的神经机器翻译***训练加速方法 |
CN111222347A (zh) * | 2020-04-15 | 2020-06-02 | 北京金山数字娱乐科技有限公司 | 语句翻译模型的训练方法及装置、语句翻译方法及装置 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10395118B2 (en) * | 2015-10-29 | 2019-08-27 | Baidu Usa Llc | Systems and methods for video paragraph captioning using hierarchical recurrent neural networks |
US10706351B2 (en) * | 2016-08-30 | 2020-07-07 | American Software Safety Reliability Company | Recurrent encoder and decoder |
CN111401079A (zh) * | 2018-12-14 | 2020-07-10 | 波音公司 | 神经网络机器翻译模型的训练方法、装置及存储介质 |
CN111382580B (zh) * | 2020-01-21 | 2023-04-18 | 沈阳雅译网络技术有限公司 | 一种面向神经机器翻译的编码器-解码器框架预训练方法 |
-
2020
- 2020-08-24 CN CN202110047233.7A patent/CN112800725A/zh active Pending
- 2020-08-24 CN CN202110047093.3A patent/CN112883690A/zh active Pending
- 2020-08-24 CN CN202010853613.5A patent/CN111738020B/zh active Active
- 2020-08-24 CN CN202110047087.8A patent/CN112861476A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8229729B2 (en) * | 2008-03-25 | 2012-07-24 | International Business Machines Corporation | Machine translation in continuous space |
CN109190134A (zh) * | 2018-11-21 | 2019-01-11 | 科大讯飞股份有限公司 | 一种文本翻译方法及装置 |
CN109359309A (zh) * | 2018-12-11 | 2019-02-19 | 成都金山互动娱乐科技有限公司 | 一种翻译方法及装置、翻译模型的训练方法及装置 |
CN111178093A (zh) * | 2019-12-20 | 2020-05-19 | 沈阳雅译网络技术有限公司 | 一种基于堆叠算法的神经机器翻译***训练加速方法 |
CN111222347A (zh) * | 2020-04-15 | 2020-06-02 | 北京金山数字娱乐科技有限公司 | 语句翻译模型的训练方法及装置、语句翻译方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN112800725A (zh) | 2021-05-14 |
CN112861476A (zh) | 2021-05-28 |
CN111738020A (zh) | 2020-10-02 |
CN112883690A (zh) | 2021-06-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111738020B (zh) | 一种翻译模型的训练方法及装置 | |
CN111931518A (zh) | 一种翻译模型的训练方法及装置 | |
KR102382499B1 (ko) | 번역 방법, 타깃 정보 결정 방법, 관련 장치 및 저장 매체 | |
CN109359309B (zh) | 一种翻译方法及装置、翻译模型的训练方法及装置 | |
CN109858044B (zh) | 语言处理方法和装置、语言处理***的训练方法和装置 | |
CN111222347B (zh) | 语句翻译模型的训练方法及装置、语句翻译方法及装置 | |
CN109933809B (zh) | 一种翻译方法及装置、翻译模型的训练方法及装置 | |
CN110134971B (zh) | 一种机器翻译的方法、设备以及计算机可读存储介质 | |
CN109710953B (zh) | 一种翻译方法及装置、计算设备、存储介质和芯片 | |
CN107729329A (zh) | 一种基于词向量连接技术的神经机器翻译方法及装置 | |
CN111144140B (zh) | 基于零次学习的中泰双语语料生成方法及装置 | |
CN111241853B (zh) | 一种会话翻译方法、装置、存储介质及终端设备 | |
CN111783423A (zh) | 解题模型的训练方法及装置、解题方法及装置 | |
CN111767697B (zh) | 文本处理方法、装置、计算机设备以及存储介质 | |
CN115631275B (zh) | 多模态驱动的人体动作序列生成方法及装置 | |
CN112837669A (zh) | 语音合成方法、装置及服务器 | |
CN109902313B (zh) | 一种翻译方法及装置、翻译模型的训练方法及装置 | |
CN114282555A (zh) | 翻译模型训练方法及装置、翻译方法及装置 | |
CN111178097B (zh) | 基于多级翻译模型生成中泰双语语料的方法及装置 | |
CN111767744B (zh) | 文本风格迁移***的训练方法及装置 | |
CN113011184A (zh) | 一种语言表征模型的训练方法及装置 | |
CN114077844A (zh) | 一种数据处理方法及装置 | |
CN113449529A (zh) | 一种翻译模型的训练方法及装置、翻译方法及装置 | |
Do et al. | Transferring Emphasis in Speech Translation Using Hard-Attentional Neural Network Models. | |
CN114647717A (zh) | 一种智能问答方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |