CN113947095B - 多语种文本翻译方法、装置、计算机设备及存储介质 - Google Patents
多语种文本翻译方法、装置、计算机设备及存储介质 Download PDFInfo
- Publication number
- CN113947095B CN113947095B CN202111255219.2A CN202111255219A CN113947095B CN 113947095 B CN113947095 B CN 113947095B CN 202111255219 A CN202111255219 A CN 202111255219A CN 113947095 B CN113947095 B CN 113947095B
- Authority
- CN
- China
- Prior art keywords
- translation
- text
- layer
- target
- coding
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013519 translation Methods 0.000 title claims abstract description 423
- 238000000034 method Methods 0.000 title claims abstract description 44
- 239000013598 vector Substances 0.000 claims abstract description 279
- 238000012549 training Methods 0.000 claims description 136
- 238000004364 calculation method Methods 0.000 claims description 51
- 239000011159 matrix material Substances 0.000 claims description 42
- 230000004913 activation Effects 0.000 claims description 34
- 230000006870 function Effects 0.000 claims description 16
- 230000011218 segmentation Effects 0.000 claims description 4
- 238000013473 artificial intelligence Methods 0.000 abstract description 4
- 238000005516 engineering process Methods 0.000 abstract description 4
- 230000014616 translation Effects 0.000 description 356
- 238000006243 chemical reaction Methods 0.000 description 6
- 238000004891 communication Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000012886 linear function Methods 0.000 description 4
- 230000007246 mechanism Effects 0.000 description 4
- 230000009467 reduction Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/58—Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Machine Translation (AREA)
Abstract
本申请实施例属于人工智能领域,涉及一种多语种文本翻译方法,包括获取待翻译文本和预设翻译模型,根据预设翻译模型对待翻译文本进行编码,得到第一编码向量;输入第一编码向量至第一注意力层,得到第二编码向量;输入第二编码向量至前馈层,得到目标编码向量;根据目标编码层对候选翻译文本进行计算,得到候选编码向量;输入候选编码向量和目标编码向量至第二注意力层,得到语义编码向量;对语义编码向量进行计算,得到预测概率,选取预测概率最大的候选翻译文本作为目标翻译文本。本申请还提供一种多语种文本翻译装置、计算机设备及存储介质。此外,本申请还涉及区块链技术,目标翻译文本可存储于区块链中。本申请实现了对多语种文本智能翻译。
Description
技术领域
本申请涉及人工智能技术领域,尤其涉及一种多语种文本翻译方法、装置、计算机设备及存储介质。
背景技术
随着信息技术的高速发展,人工智能越来越普及,通过人工智能对文本进行智能翻译,可以大幅度提高信息的处理效率。
当前,神经机器翻译已经成为了最先进的机器翻译模型,但是如果仅仅通过传统的方法训练互译模型,当我们需要进行多种语言的翻译时,则需要训练多个单语言互译模型。由此,在模型的训练和部署上将会耗费极大的人力物力财力。基于神经网络的机器翻译模型主要包括单语种互译模型、多对一语种翻译模型以及一对多语种翻译模型,而其中多对多语种的翻译模型往往存在翻译准确率和效率不能同时兼顾的问题。
发明内容
本申请实施例的目的在于提出一种多语种文本翻译方法、装置、计算机设备及存储介质,以解决当前多语种翻译不能同时确保翻译准确率和效率的技术问题。
为了解决上述技术问题,本申请实施例提供一种多语种文本翻译方法,采用了如下所述的技术方案:
获取待翻译文本和训练好的预设翻译模型,输入所述待翻译文本至所述预设翻译模型,根据所述预设翻译模型中编码器的源编码层对所述待翻译文本进行编码,得到第一编码向量,其中,所述预设翻译模型包括所述编码器和解码器,所述编码器包括源编码层、第一注意力层和前馈层,所述解码器包括目标编码层、第二注意力层、线性网络层和激活层;
输入所述第一编码向量至所述编码器中的第一注意力层,计算得到第二编码向量;
输入所述第二编码向量至所述编码器中的前馈层,计算得到目标编码向量;
获取所述待翻译文本对应的候选翻译文本,根据所述解码器的目标编码层对所述候选翻译文本进行计算,得到所述候选翻译文本的候选编码向量;
输入所述候选编码向量和所述目标编码向量至所述解码器的第二注意力层,计算得到语义编码向量;
基于所述解码器的线性网络层和激活层对所述语义编码向量进行计算,得到所述候选翻译文本的预测概率,选取所述预测概率最大的候选翻译文本作为所述待翻译文本的目标翻译文本。
进一步的,在所述获取待翻译文本和训练好的预设翻译模型的步骤之前,还包括:
采集源语料数据和所述源语料数据对应的目标翻译数据,根据所述源语料数据和所述目标翻译数据确定训练数据,其中,所述源语料数据和所述目标翻译数据中均包括不同语种的数据;
构建基础翻译模型,将所述训练数据按训练批次的顺序输入至所述基础翻译模型,计算得到当前训练批次的所述基础翻译模型的当前损失值;
根据所述当前损失值对所述基础翻译模型进行迭代训练,得到迭代训练后的基础翻译模型,在所述迭代训练后的基础翻译模型计算得到的损失函数收敛时,确定所述迭代训练后的基础翻译模型为所述预设翻译模型。
进一步的,所述根据所述源语料数据和所述目标翻译数据确定训练数据的步骤包括:
获取所述源语料数据和所述目标翻译数据分别对应的语种类别,根据所述语种类别对所述源语料数据进行标签标识,得到标签语料数据;
对所述标签语料数据和所述目标翻译数据进行分词,得到所述基础翻译模型的训练数据。
进一步的,所述将所述训练数据按训练批次的顺序输入至所述基础翻译模型,计算得到当前训练批次的所述基础翻译模型的当前损失值的步骤包括:
根据所述基础翻译模型计算所述训练数据在所述当前训练批次中不同语种的语种损失值;
获取所述当前训练批次的上一训练批次的历史损失值,根据所述历史损失值和所述语种损失值,计算得到所述当前训练批次的当前损失值。
进一步的,所述根据所述历史损失值和所述语种损失值,计算得到所述当前训练批次的当前损失值的步骤包括:
获取所述当前训练批次中不同语种的数量,以及所述基础翻译模型在所述当前训练批次的权重系数;
根据所述数量、所述权重系数和所述语种损失值,计算所述基础翻译模型的损失平均值,基于所述损失平均值和所述历史损失值,计算得到所述当前损失值。
进一步的,所述根据所述解码器的目标编码层对所述候选翻译文本进行计算,得到所述候选翻译文本的候选编码向量的步骤包括:
根据所述解码器的目标编码层对所述候选翻译文本进行编码,得到第三编码向量;
对所述第三编码向量进行多头注意力计算,得到所述候选编码向量。
进一步的,所述输入所述候选编码向量和所述目标编码向量至所述解码器的第二注意力层,计算得到语义编码向量的步骤包括:
获取预设的第一权重参数、第二权重参数和第三权重参数,根据所述目标编码向量和所述第一权重参数计算得到第一信息矩阵,根据所述目标编码向量和所述第二权重参数计算得到第二信息矩阵,根据所述候选编码向量和所述第三权重参数计算得到第三信息矩阵;
计算所述第三信息矩阵和所述第一信息矩阵的点乘,得到目标相似度,根据所述目标相似度和所述第二信息矩阵计算得到所述语义编码向量。
为了解决上述技术问题,本申请实施例还提供一种多语种文本翻译装置,采用了如下所述的技术方案:
编码模块,用于获取待翻译文本和训练好的预设翻译模型,输入所述待翻译文本至所述预设翻译模型,根据所述预设翻译模型中编码器的源编码层对所述待翻译文本进行编码,得到第一编码向量,其中,所述预设翻译模型包括所述编码器和解码器,所述编码器包括源编码层、第一注意力层和前馈层,所述解码器包括目标编码层、第二注意力层、线性网络层和激活层;
第一计算模块,用于输入所述第一编码向量至所述编码器中的第一注意力层,计算得到第二编码向量;
第二计算模块,用于输入所述第二编码向量至所述编码器中的前馈层,计算得到目标编码向量;
第三计算模块,用于获取所述待翻译文本对应的候选翻译文本,根据所述解码器的目标编码层对所述候选翻译文本进行计算,得到所述候选翻译文本的候选编码向量;
第四计算模块,用于输入所述候选编码向量和所述目标编码向量至所述解码器的第二注意力层,计算得到语义编码向量;
预测模块,用于基于所述解码器的线性网络层和激活层对所述语义编码向量进行计算,得到所述候选翻译文本的预测概率,选取所述预测概率最大的候选翻译文本作为所述待翻译文本的目标翻译文本。
为了解决上述技术问题,本申请实施例还提供一种计算机设备,采用了如下所述的技术方案:
获取待翻译文本和训练好的预设翻译模型,输入所述待翻译文本至所述预设翻译模型,根据所述预设翻译模型中编码器的源编码层对所述待翻译文本进行编码,得到第一编码向量,其中,所述预设翻译模型包括所述编码器和解码器,所述编码器包括源编码层、第一注意力层和前馈层,所述解码器包括目标编码层、第二注意力层、线性网络层和激活层;
输入所述第一编码向量至所述编码器中的第一注意力层,计算得到第二编码向量;
输入所述第二编码向量至所述编码器中的前馈层,计算得到目标编码向量;
获取所述待翻译文本对应的候选翻译文本,根据所述解码器的目标编码层对所述候选翻译文本进行计算,得到所述候选翻译文本的候选编码向量;
输入所述候选编码向量和所述目标编码向量至所述解码器的第二注意力层,计算得到语义编码向量;
基于所述解码器的线性网络层和激活层对所述语义编码向量进行计算,得到所述候选翻译文本的预测概率,选取所述预测概率最大的候选翻译文本作为所述待翻译文本的目标翻译文本。
为了解决上述技术问题,本申请实施例还提供一种计算机可读存储介质,采用了如下所述的技术方案:
获取待翻译文本和训练好的预设翻译模型,输入所述待翻译文本至所述预设翻译模型,根据所述预设翻译模型中编码器的源编码层对所述待翻译文本进行编码,得到第一编码向量,其中,所述预设翻译模型包括所述编码器和解码器,所述编码器包括源编码层、第一注意力层和前馈层,所述解码器包括目标编码层、第二注意力层、线性网络层和激活层;
输入所述第一编码向量至所述编码器中的第一注意力层,计算得到第二编码向量;
输入所述第二编码向量至所述编码器中的前馈层,计算得到目标编码向量;
获取所述待翻译文本对应的候选翻译文本,根据所述解码器的目标编码层对所述候选翻译文本进行计算,得到所述候选翻译文本的候选编码向量;
输入所述候选编码向量和所述目标编码向量至所述解码器的第二注意力层,计算得到语义编码向量;
基于所述解码器的线性网络层和激活层对所述语义编码向量进行计算,得到所述候选翻译文本的预测概率,选取所述预测概率最大的候选翻译文本作为所述待翻译文本的目标翻译文本。
本申请提出的多语种文本翻译方法,通过获取待翻译文本和训练好的预设翻译模型,输入所述待翻译文本至所述预设翻译模型,根据所述预设翻译模型中编码器的源编码层对所述待翻译文本进行编码,得到第一编码向量,其中,所述预设翻译模型包括所述编码器和解码器,所述编码器包括源编码层、第一注意力层和前馈层,所述解码器包括目标编码层、第二注意力层、线性网络层和激活层,使得通过编码器的源编码层可以对待翻译文本进行精确向量表达;之后,输入所述第一编码向量至所述编码器中的第一注意力层,计算得到第二编码向量;输入所述第二编码向量至所述编码器中的前馈层,计算得到目标编码向量;获取所述待翻译文本对应的候选翻译文本,根据所述解码器的目标编码层对所述候选翻译文本进行计算,得到所述候选翻译文本的候选编码向量;而后,输入所述候选编码向量和所述目标编码向量至所述解码器的第二注意力层,计算得到语义编码向量,通过该第二注意力层可以得到待翻译文本的更多的语义信息;最后,基于所述解码器的线性网络层和激活层对所述语义编码向量进行计算,得到所述候选翻译文本的预测概率,选取所述预测概率最大的候选翻译文本作为所述待翻译文本的目标翻译文本,由此,实现了将多语种文本集中在一个模型上进行翻译,节约了模型的训练时长和资源,并且,在保证了多语种文本翻译的准确率的同时,提高了多语种文本翻译效率。
附图说明
为了更清楚地说明本申请中的方案,下面将对本申请实施例描述中所需要使用的附图作一个简单介绍,显而易见地,下面描述中的附图是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请可以应用于其中的示例性***架构图;
图2根据本申请的多语种文本翻译方法的一个实施例的流程图;
图3是根据本申请的多语种文本翻译装置的一个实施例的结构示意图;
图4是根据本申请的计算机设备的一个实施例的结构示意图。
附图标记:多语种文本翻译装置300包括、编码模块301、第一计算模块302、第二计算模块303、第三计算模块304、第四计算模块305以及预测模块306。
具体实施方式
除非另有定义,本文所使用的所有的技术和科学术语与属于本申请的技术领域的技术人员通常理解的含义相同;本文中在申请的说明书中所使用的术语只是为了描述具体的实施例的目的,不是旨在于限制本申请;本申请的说明书和权利要求书及上述附图说明中的术语“包括”和“具有”以及它们的任何变形,意图在于覆盖不排他的包含。本申请的说明书和权利要求书或上述附图中的术语“第一”、“第二”等是用于区别不同对象,而不是用于描述特定顺序。
在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其它实施例相结合。
为了使本技术领域的人员更好地理解本申请方案,下面将结合附图,对本申请实施例中的技术方案进行清楚、完整地描述。
如图1所示,***架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种通讯客户端应用,例如网页浏览器应用、购物类应用、搜索类应用、即时通信工具、邮箱客户端、社交平台软件等。
终端设备101、102、103可以是具有显示屏并且支持网页浏览的各种电子设备,包括但不限于智能手机、平板电脑、电子书阅读器、MP3播放器(Moving PictureExpertsGroup Audio Layer III,动态影像专家压缩标准音频层面3)、MP4(MovingPictureExperts Group Audio Layer IV,动态影像专家压缩标准音频层面4)播放器、膝上型便携计算机和台式计算机等等。
服务器105可以是提供各种服务的服务器,例如对终端设备101、102、103上显示的页面提供支持的后台服务器。
需要说明的是,本申请实施例所提供的多语种文本翻译方法一般由服务器/终端设备执行,相应地,多语种文本翻译装置一般设置于服务器/终端设备中。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
继续参考图2,示出了根据本申请的多语种文本翻译方法的一个实施例的流程图。所述的多语种文本翻译方法,包括以下步骤:
步骤S201,获取待翻译文本和训练好的预设翻译模型,输入所述待翻译文本至所述预设翻译模型,根据所述预设翻译模型中编码器的源编码层对所述待翻译文本进行编码,得到第一编码向量,其中,所述预设翻译模型包括所述编码器和解码器,所述编码器包括源编码层、第一注意力层和前馈层,所述解码器包括目标编码层、第二注意力层、线性网络层和激活层。
在本实施例中,待翻译文本为接收到的需要进行翻译的文本,预设翻译模型为训练好的多语种翻译模型。在接收到待翻译文本时,根据该预设翻译模型可以对待翻译文本进行多语种的文本翻译。其中,预设翻译模型包括编码器和解码器,编码器包括源编码层、第一注意力层和前馈层,解码器包括目标编码层、第二注意力层、线性网络层和激活层。输入待翻译文本至预设翻译模型,根据该预设翻译模型中编码器的源编码层对该待翻译文本进行编码,得到第一编码向量。该编码包括位置编码和固定编码,对待翻译文本中的每个词分别进行位置编码和固定编码,得到对应的位置编码向量和固定编码向量,将该位置编码向量和固定编码向量,得到每个词对应的词向量,该词向量即为第一编码向量。
步骤S202,输入所述第一编码向量至所述编码器中的第一注意力层,计算得到第二编码向量。
在本实施例中,在得到第一编码向量时,输入该第一编码向量至编码器中的第一注意力层,其中,该第一注意力层中采用了多头注意力机制,根据该第一注意力层对输入的第一编码向量进行多头注意力计算,得到第二编码向量。通过该第二编码向量可以对待翻译文本中词与词之间的语义信息进行精确表示。具体地,获取三个不同的预设权重矩阵,将该预设权重矩阵分别与该第一编码向量进行相乘,得到对应的三个不同的权重矩阵,如第一权重矩阵Q、第二权重矩阵K和第三权重矩阵V;计算第一权重矩阵Q和第二权重矩阵K之间的点乘,得到点乘结果,将该点乘结果除以预设值,得到输出结果,使得得到输出结果具有更稳定的梯度;对该输出结果进行归一化,之后将归一化结果与第三权重矩阵相乘,最终得到当前注意力头的子编码向量。计算每个注意力头的子编码向量,对所有的子编码向量进行拼接,即得到最终的第二编码向量。
步骤S203,输入所述第二编码向量至所述编码器中的前馈层,计算得到目标编码向量。
在本实施例中,在得到第二编码向量时,输入该第二编码向量至编码器的前馈层(feed forward network),该前馈层包括了一个两层的全连接层,其中,第一层的激活函数为Relu,第二层不使用激活函数。根据该前馈层对第二编码向量进行维度转换,得到维度转换后的第二编码向量,该维度转换后的第二编码向量即为待翻译文本的目标编码向量。
步骤S204,获取所述待翻译文本对应的候选翻译文本,根据所述解码器的目标编码层对所述候选翻译文本进行计算,得到所述候选翻译文本的候选编码向量。
在本实施例中,编码器与解码器为并列的网络结构,在编码器中的源编码层对待翻译文本进行计算时,同时,可以将待翻译文本对应的候选翻译文本输入至解码器中,基于解码器的目标编码层对候选翻译文本进行计算。除此之外,也可以在得到待翻译文本的目标编码向量之后,获取待翻译文本对应的候选翻译文本,根据解码器的目标编码层对候选翻译文本进行计算,得到候选翻译文本对应的候选编码向量。具体地,解码器中的目标编码层与编码器中的源编码层具有相同的结构,均可采用预训练完成的bert(预训练语言模型)编码结构。根据该目标编码层对候选翻译文本进行位置编码和固定编码,之后,将该位置编码和固定编码得到向量进行拼接,得到候选翻译文本对应的候选编码向量。
步骤S205,输入所述候选编码向量和所述目标编码向量至所述解码器的第二注意力层,计算得到语义编码向量。
在本实施例中,在得到候选编码向量和目标编码向量时,输入该候选编码向量和目标编码向量至解码器的第二注意力层,根据第二注意力层对候选编码向量和目标编码向量进行多头注意力计算,得到语义编码向量。
步骤S206,基于所述解码器的线性网络层和激活层对所述语义编码向量进行计算,得到所述候选翻译文本的预测概率,选取所述预测概率最大的候选翻译文本作为所述待翻译文本的目标翻译文本。
在本实施例中,在得到语义编码向量时,基于解码器的线性网络层和激活层对该语义编码向量进行计算,得到候选翻译文本的预测概率。具体地,获取线性网络层的线性函数,根据该线性函数对语义编码向量进行计算,得到预测线性参数;而后,输入该预测线性参数至激活层,基于激活层的激活函数(如SIGMOD函数)对该预测线性参数进行归一化,得到候选翻译文本的预测概率。进一步地,在得到语义编码向量时,为了提高模型预测的准确率和效率,还可以将该语义编码向量输入至解码器中的前馈层,根据该解码器的前馈层对该语义编码向量进行降维处理,得到降维后的语义编码向量;之后,输入该降维后的语义编码向量至线性网络层和激活层,得到候选翻译文本的预测概率。其中,预测概率为待翻译文本翻译对应该候选翻译文本的概率值,如Apple为待翻译文本,候选翻译文本包括苹果和橘子,该预测概率即为Apple翻译为苹果的概率和翻译为橘子的概率。在得到候选翻译文本对应的预测概率时,选取其中预测概率最大的候选翻译文本为待翻译文本的目标翻译文本。
需要强调的是,为进一步保证上述目标翻译文本的私密和安全性,上述目标翻译文本还可以存储于一区块链的节点中。
本申请所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。
本实施例实现了将多语种文本集中在一个模型上进行翻译,节约了模型的训练时长和资源,并且,在保证了多语种文本翻译的准确率的同时,提高了多语种文本翻译效率。
在本实施例的一些可选的实现方式中,在上述获取待翻译文本和训练好的预设翻译模型的步骤之前,还包括:
采集源语料数据和所述源语料数据对应的目标翻译数据,根据所述源语料数据和所述目标翻译数据确定训练数据,其中,所述源语料数据和所述目标翻译数据中均包括不同语种的数据;
构建基础翻译模型,将所述训练数据按训练批次的顺序输入至所述基础翻译模型,计算得到当前训练批次的所述基础翻译模型的当前损失值;
根据所述当前损失值对所述基础翻译模型进行迭代训练,得到迭代训练后的基础翻译模型,在所述迭代训练后的基础翻译模型计算得到的损失函数收敛时,确定所述迭代训练后的基础翻译模型为所述预设翻译模型。
在本实施例中,在获取训练好的预设翻译模型之前,需要对基础翻译模型进行训练,得到该预设翻译模型。采集源语料数据和该源语料数据对应的目标翻译数据,其中,源语料数据可以为中文或英文等多语种数据,目标翻译数据为每个源语料数据对应的翻译数据,该目标翻译数据亦对应有中文或英文等多语种数据。从该源语料数据和目标翻译数据中选取训练数据,训练数据中包括多组源语料数据和目标翻译数据,每个源语料数据和其对应的目标翻译数据为一组数据。构建基础翻译模型,基础翻译模型与预设翻译模型具有相同的结构和不同的模型参数。将该训练数据按训练批次输入至该基础翻译模型,根据该基础翻译模型对该训练数据进行计算,得到当前训练批次的基础翻译模型的当前损失值。
具体地,根据该基础翻译模型中编码器的编码层对训练数据中的源语料数据进行编码,得到源语料编码向量;之后,通过该基础翻译模型中编码器的第一自注意力层对该源语料编码向量进行多头注意力计算,得到该源语料数据的语义编码;输入该语义编码至中该基础翻译模型中编码器的前馈层,根据该前馈层对该语义编码进行维度转换,得到目标编码向量。而后,输入该目标编码向量至该基础翻译模型中的解码器中,根据该解码器的第二自注意力层对该目标编码向量和翻译编码向量进行计算,得到翻译语义向量;其中,翻译编码向量为解码器对目标翻译数据进行编码计算后,通过多头注意力计算得到的编码向量。最后,通过解码器的线性转换层和全连接层对该翻译语义向量进行计算,输出得到当前源语料数据与目标翻译数据的预测概率,选取最大值的预测概率对应的目标翻译数据为该源语料数据对应的预测翻译数据。获取该源语料数据对应的真实翻译数据,将该真实翻译数据和预测翻译数据输入至该基础翻译模型的预设损失函数中,即计算得到当前训练批次该基础翻译模型的当前损失值。
根据该当前损失值对该基础翻译模型进行迭代训练,即根据该当前损失值对基础翻译模型的参数进行调整,得到调整后的基础翻译模型;当第二训练批次的训练数据输入至该调整后的基础翻译模型时,根据该调整后的基础翻译模型对该第二训练批次的训练数据进行计算,得到第二训练批次的损失值;根据该第二训练批次的损失值对该调整后的基础翻译模型的参数继续进行调整。按照上述方式,对基础翻译模型的参数进行迭代调整,直至某一训练批次计算的损失值最小,即根据某一训练批次的基础翻译模型计算得到的损失函数收敛,确定该基础翻译模型训练完成,得到预设翻译模型。
本实施例通过源语料数据和目标翻译数据对单个的基础翻译模型进行迭代训练,提高了模型的训练效率,并使得训练得到预设翻译模型能够对待翻译文本进行精确而高效的文本翻译。
在本实施例的一些可选的实现方式中,上述根据所述源语料数据和所述目标翻译数据确定训练数据的步骤包括:
获取所述源语料数据和所述目标翻译数据分别对应的语种类别,根据所述语种类别对所述源语料数据进行标签标识,得到标签语料数据;
对所述标签语料数据和所述目标翻译数据进行分词,得到所述基础翻译模型的训练数据。
在本实施例中,在得到源语料数据和目标翻译数据时,获取该源语料数据和目标翻译数据分别对应的语种类别,根据该语种类别对源语料数据进行标签标识,得到标签语料数据。例如,源语料数据的语种类别为中文,目标翻译数据的语种类别为英文,根据该语种类别对源语料数据进行标签标识,该标签标识即为<zh-en>,其中,zh为源语料数据的语种类别,表示中文,en为源语料数据对应的目标翻译数据的语种类别,表示英文。对该标签语料数据和目标翻译数据分别进行分词,得到该标签语料数据对应的第一词组和目标翻译数据对应的第二词组,组合该第一词组和第二词组即得到基础翻译模型的训练数据。
本实施例通过语种类别对源语料数据进行标识,根据标签语料数据和目标翻译数据确定训练数据,使得通过训练后的基础翻译模型能够对文本进行多语种翻译,提高了模型的使用效率,降低了多语种翻译的资源开发成本。
在本实施例的一些可选的实现方式中,上述将所述训练数据按训练批次的顺序输入至所述基础翻译模型,计算得到当前训练批次的所述基础翻译模型的当前损失值的步骤包括:
根据所述基础翻译模型计算所述训练数据在所述当前训练批次中不同语种的语种损失值;
获取所述当前训练批次的上一训练批次的历史损失值,根据所述历史损失值和所述语种损失值,计算得到所述当前训练批次的当前损失值。
在本实施例中,由于每个训练批次的训练数据中均包括了不同语种的源语料数据和目标翻译数据,因此,在对当前训练批次的基础翻译模型的损失值进行计算时,需要计算当前训练批次输入的训练数据中不同语种对应的语种损失值,根据该语种损失值计算得到该基础训练模型的当前损失值。
具体地,语种损失值为同一训练批次中,不同语种对应的损失值,其中,同一训练批次的同一语种对应同一损失值。对同一训练批次中不同语种对应的语种损失值进行计算,之后,对该语种损失值进行求和,得到损失总值;计算该损失总值和语种数量的比值,得到语种平均值。获取当前训练批次对应上一训练批次的历史损失值,根据该历史损失值和该语种平均值,即可计算得到该当前训练批次的基础翻译模型的当前损失值。
本实施例通过语种损失值和历史损失值对基础翻译模型的当前损失值进行计算,使得通过该当前损失值能够对基础翻译模型进行精确训练,节省了模型训练的时长和资源,提高了训练效率和多语种翻译的准确率。
在本实施例的一些可选的实现方式中,上述根据所述历史损失值和所述语种损失值,计算得到所述当前训练批次的当前损失值的步骤包括:
获取所述当前训练批次中不同语种的数量,以及所述基础翻译模型在所述当前训练批次的权重系数;
根据所述数量、所述权重系数和所述语种损失值,计算所述基础翻译模型的损失平均值,基于所述损失平均值和所述历史损失值,计算得到所述当前损失值。
在本实施例中,在计算基础翻译模型的当前损失值时,可通过该基础翻译模型在当前训练批次的损失平均值和历史损失值,计算得到该当前损失值。具体地,获取当前训练批次中不同语种的数量,以及该基础翻译模型在当前训练批次对应的权重系数,其中,该权重系数为预设值,该预设值可以通过模型训练得到。根据该不同语种的数量、权重系数和语种损失值,计算得到损失平均值;对该损失平均值和历史损失值进行求和计算,即得到当前训练批次的基础翻译模型的当前损失值。该当前损失值的计算公式如下所示:
其中,Lossj-1表示历史损失值、αj表示权重系数、m表示数量、Lossji表示语种损失值。
本实施例通过对多语种的损失值进行计算,使得训练后的翻译模型能够对文本进行多语种翻译,进一步提高了多语种翻译的准确率。
在本实施例的一些可选的实现方式中,上述根据所述解码器的目标编码层对所述候选翻译文本进行计算,得到所述候选翻译文本的候选编码向量的步骤包括:
根据所述解码器的目标编码层对所述候选翻译文本进行编码,得到第三编码向量;
对所述第三编码向量进行多头注意力计算,得到所述候选编码向量。
在本实施例中,在得到候选翻译文本时,除了根据解码器的目标编码层对候选翻译文本进行编码,将该目标编码层直接编码得到的向量作为候选编码向量以外,还可以将该目标编码层直接编码得到的向量作为第三编码向量,根据该第三编码向量进行多头注意力计算,得到最终的向量作为候选编码向量。
具体地,根据解码器的目标编码层对候选翻译文本进行编码,得到第三编码向量;之后,对该第三编码向量进行多头注意力计算,得到候选编码向量。具体地,目标编码层为与编码器相同结构和参数的编码层,如将预训练完成的bert编码结构,作为该基础翻译模型的编码器的源编码层和解码器的目标编码层。根据该目标编码层对待翻译文本进行位置编码和固定编码,将该位置编码和固定编码得到的向量进行拼接,得到第三编码向量;而后,对该第三编码向量进行多头注意力计算,即得到候选编码向量。其中,该第三编码向量的多头注意力计算方式与上述第一编码向量对应的多头注意力计算方式相同,在此不再赘述。
本实施例通过对候选翻译文本对应的第三编码向量进行多头注意力计算,可以使得计算得到的候选编码向量能够对文本的语义进行更精确地表达,进一步提高了文本翻译的精确率。
在本实施例的一些可选的实现方式中,上述输入所述候选编码向量和所述目标编码向量至所述解码器的第二注意力层,计算得到语义编码向量的步骤包括:
获取预设的第一权重参数、第二权重参数和第三权重参数,根据所述目标编码向量和所述第一权重参数计算得到第一信息矩阵,根据所述目标编码向量和所述第二权重参数计算得到第二信息矩阵,根据所述候选编码向量和所述第三权重参数计算得到第三信息矩阵;
计算所述第三信息矩阵和所述第一信息矩阵的点乘,得到目标相似度,根据所述目标相似度和所述第二信息矩阵计算得到所述语义编码向量。
在本实施例中,在得到候选编码向量和目标编码向量时,根据解码器的第二注意力层对该目标编码向量和候选编码向量进行注意力计算,得到语义编码向量。具体地,获取预设的第一权重参数、第二权重参数和第三权重参数,根据目标编码向量和第一权重参数计算得到第一信息矩阵k,根据目标编码向量和第二权重参数计算得到第二信息矩阵v,根据候选编码向量和第三权重参数计算得到第三信息矩阵q;之后,计算该第三信息矩阵和第一信息矩阵的点乘,得到目标相似度,将该目标相似度除以预设值,得到输出值;对该输出值进行归一化,将归一化结果与第二信息矩阵相乘,最终得到当前注意力头的注意力编码向量。计算每个注意力头的注意力编码向量,对计算得到所有的注意力编码向量进行拼接,即得到最终的语义编码向量。
本实施例通过对候选编码向量和目标编码向量通过第二注意力层进行计算,使得得到语义编码向量能够包含更多的文本语义信息,进一步提高了多语种翻译的准确性。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机可读指令来指令相关的硬件来完成,该计算机可读指令可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,前述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)等非易失性存储介质,或随机存储记忆体(Random Access Memory,RAM)等。
应该理解的是,虽然附图的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,其可以以其他的顺序执行。而且,附图的流程图中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,其执行顺序也不必然是依次进行,而是可以与其他步骤或者其他步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
进一步参考图3,作为对上述图2所示方法的实现,本申请提供了一种多语种文本翻译装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图3所示,本实施例所述的多语种文本翻译装置300包括:编码模块301、第一计算模块302、第二计算模块303、第三计算模块304、第四计算模块305以及预测模块306。其中:
编码模块301,用于获取待翻译文本和训练好的预设翻译模型,输入所述待翻译文本至所述预设翻译模型,根据所述预设翻译模型中编码器的源编码层对所述待翻译文本进行编码,得到第一编码向量,其中,所述预设翻译模型包括所述编码器和解码器,所述编码器包括源编码层、第一注意力层和前馈层,所述解码器包括目标编码层、第二注意力层、线性网络层和激活层;
在本实施例中,待翻译文本为接收到的需要进行翻译的文本,预设翻译模型为训练好的多语种翻译模型。在接收到待翻译文本时,根据该预设翻译模型可以对待翻译文本进行多语种的文本翻译。其中,预设翻译模型包括编码器和解码器,编码器包括源编码层、第一注意力层和前馈层,解码器包括目标编码层、第二注意力层、线性网络层和激活层。输入待翻译文本至预设翻译模型,根据该预设翻译模型中编码器的源编码层对该待翻译文本进行编码,得到第一编码向量。该编码包括位置编码和固定编码,对待翻译文本中的每个词分别进行位置编码和固定编码,得到对应的位置编码向量和固定编码向量,将该位置编码向量和固定编码向量,得到每个词对应的词向量,该词向量即为第一编码向量。
第一计算模块302,用于输入所述第一编码向量至所述编码器中的第一注意力层,计算得到第二编码向量;
在本实施例中,在得到第一编码向量时,输入该第一编码向量至编码器中的第一注意力层,其中,该第一注意力层中采用了多头注意力机制,根据该第一注意力层对输入的第一编码向量进行多头注意力计算,得到第二编码向量。通过该第二编码向量可以对待翻译文本中词与词之间的语义信息进行精确表示。具体地,获取三个不同的预设权重矩阵,将该预设权重矩阵分别与该第一编码向量进行相乘,得到对应的三个不同的权重矩阵,如第一权重矩阵Q、第二权重矩阵K和第三权重矩阵V;计算第一权重矩阵Q和第二权重矩阵K之间的点乘,得到点乘结果,将该点乘结果除以预设值,得到输出结果,使得得到输出结果具有更稳定的梯度;对该输出结果进行归一化,之后将归一化结果与第三权重矩阵相乘,最终得到当前注意力头的子编码向量。计算每个注意力头的子编码向量,对所有的子编码向量进行拼接,即得到最终的第二编码向量。
第二计算模块303,用于输入所述第二编码向量至所述编码器中的前馈层,计算得到目标编码向量;
在本实施例中,在得到第二编码向量时,输入该第二编码向量至编码器的前馈层(feed forward network),该前馈层包括了一个两层的全连接层,其中,第一层的激活函数为Relu,第二层不使用激活函数。根据该前馈层对第二编码向量进行维度转换,得到维度转换后的第二编码向量,该维度转换后的第二编码向量即为待翻译文本的目标编码向量。
第三计算模块304,用于获取所述待翻译文本对应的候选翻译文本,根据所述解码器的目标编码层对所述候选翻译文本进行计算,得到所述候选翻译文本的候选编码向量;
在本实施例的一些可选的实现方式中,第三计算模块304包括:
编码单元,用于根据所述解码器的目标编码层对所述候选翻译文本进行编码,得到第三编码向量;
第一计算单元,用于对所述第三编码向量进行多头注意力计算,得到所述候选编码向量。
在本实施例中,编码器与解码器为并列的网络结构,在编码器中的源编码层对待翻译文本进行计算时,同时,可以将待翻译文本对应的候选翻译文本输入至解码器中,基于解码器的目标编码层对候选翻译文本进行计算。除此之外,也可以在得到待翻译文本的目标编码向量之后,获取待翻译文本对应的候选翻译文本,根据解码器的目标编码层对候选翻译文本进行计算,得到候选翻译文本对应的候选编码向量。具体地,解码器中的目标编码层与编码器中的源编码层具有相同的结构,均可采用预训练完成的bert(预训练语言模型)编码结构。根据该目标编码层对候选翻译文本进行位置编码和固定编码,之后,将该位置编码和固定编码得到向量进行拼接,得到候选翻译文本对应的候选编码向量。
第四计算模块305,用于输入所述候选编码向量和所述目标编码向量至所述解码器的第二注意力层,计算得到语义编码向量;
在本实施例的一些可选的实现方式中,第四计算模块305包括:
第二计算单元,用于获取预设的第一权重参数、第二权重参数和第三权重参数,根据所述目标编码向量和所述第一权重参数计算得到第一信息矩阵,根据所述目标编码向量和所述第二权重参数计算得到第二信息矩阵,根据所述候选编码向量和所述第三权重参数计算得到第三信息矩阵;
第三计算单元,用于计算所述第三信息矩阵和所述第一信息矩阵的点乘,得到目标相似度,根据所述目标相似度和所述第二信息矩阵计算得到所述语义编码向量。
在本实施例中,在得到候选编码向量和目标编码向量时,输入该候选编码向量和目标编码向量至解码器的第二注意力层,根据第二注意力层对候选编码向量和目标编码向量进行多头注意力计算,得到语义编码向量。
预测模块306,用于基于所述解码器的线性网络层和激活层对所述语义编码向量进行计算,得到所述候选翻译文本的预测概率,选取所述预测概率最大的候选翻译文本作为所述待翻译文本的目标翻译文本。
在本实施例中,在得到语义编码向量时,基于解码器的线性网络层和激活层对该语义编码向量进行计算,得到候选翻译文本的预测概率。具体地,获取线性网络层的线性函数,根据该线性函数对语义编码向量进行计算,得到预测线性参数;而后,输入该预测线性参数至激活层,基于激活层的激活函数(如SIGMOD函数)对该预测线性参数进行归一化,得到候选翻译文本的预测概率。进一步地,在得到语义编码向量时,为了提高模型预测的准确率和效率,还可以将该语义编码向量输入至解码器中的前馈层,根据该解码器的前馈层对该语义编码向量进行降维处理,得到降维后的语义编码向量;之后,输入该降维后的语义编码向量至线性网络层和激活层,得到候选翻译文本的预测概率。其中,预测概率为待翻译文本翻译对应该候选翻译文本的概率值,如Apple为待翻译文本,候选翻译文本包括苹果和橘子,该预测概率即为Apple翻译为苹果的概率和翻译为橘子的概率。在得到候选翻译文本对应的预测概率时,选取其中预测概率最大的候选翻译文本为待翻译文本的目标翻译文本。
需要强调的是,为进一步保证上述目标翻译文本的私密和安全性,上述目标翻译文本还可以存储于一区块链的节点中。
本申请所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。
在本实施例的一些可选的实现方式中,上述多语种文本翻译装置300还包括:
采集模块,用于采集源语料数据和所述源语料数据对应的目标翻译数据,根据所述源语料数据和所述目标翻译数据确定训练数据,其中,所述源语料数据和所述目标翻译数据中均包括不同语种的数据;
构建模块,用于构建基础翻译模型,将所述训练数据按训练批次的顺序输入至所述基础翻译模型,计算得到当前训练批次的所述基础翻译模型的当前损失值;
训练模块,用于根据所述当前损失值对所述基础翻译模型进行迭代训练,得到迭代训练后的基础翻译模型,在所述迭代训练后的基础翻译模型计算得到的损失函数收敛时,确定所述迭代训练后的基础翻译模型为所述预设翻译模型。
在本实施例的一些可选的实现方式中,采集模块包括:
获取单元,用于获取所述源语料数据和所述目标翻译数据分别对应的语种类别,根据所述语种类别对所述源语料数据进行标签标识,得到标签语料数据;
分词单元,用于对所述标签语料数据和所述目标翻译数据进行分词,得到所述基础翻译模型的训练数据。
在本实施例的一些可选的实现方式中,构建模块包括:
第四计算单元,用于根据所述基础翻译模型计算所述训练数据在所述当前训练批次中不同语种的语种损失值;
第五计算单元,用于获取所述当前训练批次的上一训练批次的历史损失值,根据所述历史损失值和所述语种损失值,计算得到所述当前训练批次的当前损失值。
在本实施例的一些可选的实现方式中,第五计算单元包括:
获取子单元,用于获取所述当前训练批次中不同语种的数量,以及所述基础翻译模型在所述当前训练批次的权重系数;
计算子单元,用于根据所述数量、所述权重系数和所述语种损失值,计算所述基础翻译模型的损失平均值,基于所述损失平均值和所述历史损失值,计算得到所述当前损失值。
在本实施例中,在获取训练好的预设翻译模型之前,需要对基础翻译模型进行训练,得到该预设翻译模型。采集源语料数据和该源语料数据对应的目标翻译数据,其中,源语料数据可以为中文或英文等多语种数据,目标翻译数据为每个源语料数据对应的翻译数据,该目标翻译数据亦对应有中文或英文等多语种数据。从该源语料数据和目标翻译数据中选取训练数据,训练数据中包括多组源语料数据和目标翻译数据,每个源语料数据和其对应的目标翻译数据为一组数据。构建基础翻译模型,基础翻译模型与预设翻译模型具有相同的结构和不同的模型参数。将该训练数据按训练批次输入至该基础翻译模型,根据该基础翻译模型对该训练数据进行计算,得到当前训练批次的基础翻译模型的当前损失值。
具体地,根据该基础翻译模型中编码器的编码层对训练数据中的源语料数据进行编码,得到源语料编码向量;之后,通过该基础翻译模型中编码器的第一自注意力层对该源语料编码向量进行多头注意力计算,得到该源语料数据的语义编码;输入该语义编码至中该基础翻译模型中编码器的前馈层,根据该前馈层对该语义编码进行维度转换,得到目标编码向量。而后,输入该目标编码向量至该基础翻译模型中的解码器中,根据该解码器的第二自注意力层对该目标编码向量和翻译编码向量进行计算,得到翻译语义向量;其中,翻译编码向量为解码器对目标翻译数据进行编码计算后,通过多头注意力计算得到的编码向量。最后,通过解码器的线性转换层和全连接层对该翻译语义向量进行计算,输出得到当前源语料数据与目标翻译数据的预测概率,选取最大值的预测概率对应的目标翻译数据为该源语料数据对应的预测翻译数据。获取该源语料数据对应的真实翻译数据,将该真实翻译数据和预测翻译数据输入至该基础翻译模型的预设损失函数中,即计算得到当前训练批次该基础翻译模型的当前损失值。
根据该当前损失值对该基础翻译模型进行迭代训练,即根据该当前损失值对基础翻译模型的参数进行调整,得到调整后的基础翻译模型;当第二训练批次的训练数据输入至该调整后的基础翻译模型时,根据该调整后的基础翻译模型对该第二训练批次的训练数据进行计算,得到第二训练批次的损失值;根据该第二训练批次的损失值对该调整后的基础翻译模型的参数继续进行调整。按照上述方式,对基础翻译模型的参数进行迭代调整,直至某一训练批次计算的损失值最小,即根据某一训练批次的基础翻译模型计算得到的损失函数收敛,确定该基础翻译模型训练完成,得到预设翻译模型。
本实施例提出的多语种文本翻译装置,实现了将多语种文本集中在一个模型上进行翻译,节约了模型的训练时长和资源,并且,在保证了多语种文本翻译的准确率的同时,提高了多语种文本翻译效率。
为解决上述技术问题,本申请实施例还提供计算机设备。具体请参阅图4,图4为本实施例计算机设备基本结构框图。
所述计算机设备6包括通过***总线相互通信连接存储器61、处理器62、网络接口63。需要指出的是,图中仅示出了具有组件61-63的计算机设备6,但是应理解的是,并不要求实施所有示出的组件,可以替代的实施更多或者更少的组件。其中,本技术领域技术人员可以理解,这里的计算机设备是一种能够按照事先设定或存储的指令,自动进行数值计算和/或信息处理的设备,其硬件包括但不限于微处理器、专用集成电路(ApplicationSpecific Integrated Circuit,ASIC)、可编程门阵列(Field-Programmable GateArray,FPGA)、数字处理器(Digital Signal Processor,DSP)、嵌入式设备等。
所述计算机设备可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。所述计算机设备可以与用户通过键盘、鼠标、遥控器、触摸板或声控设备等方式进行人机交互。
所述存储器61至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、硬盘、多媒体卡、卡型存储器(例如,SD或DX存储器等)、随机访问存储器(RAM)、静态随机访问存储器(SRAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、可编程只读存储器(PROM)、磁性存储器、磁盘、光盘等。在一些实施例中,所述存储器61可以是所述计算机设备6的内部存储单元,例如该计算机设备6的硬盘或内存。在另一些实施例中,所述存储器61也可以是所述计算机设备6的外部存储设备,例如该计算机设备6上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(FlashCard)等。当然,所述存储器61还可以既包括所述计算机设备6的内部存储单元也包括其外部存储设备。本实施例中,所述存储器61通常用于存储安装于所述计算机设备6的操作***和各类应用软件,例如多语种文本翻译方法的计算机可读指令等。此外,所述存储器61还可以用于暂时地存储已经输出或者将要输出的各类数据。
所述处理器62在一些实施例中可以是中央处理器(Central Processing Unit,CPU)、控制器、微控制器、微处理器、或其他数据处理芯片。该处理器62通常用于控制所述计算机设备6的总体操作。本实施例中,所述处理器62用于运行所述存储器61中存储的计算机可读指令或者处理数据,例如运行所述多语种文本翻译方法的计算机可读指令。
所述网络接口63可包括无线网络接口或有线网络接口,该网络接口63通常用于在所述计算机设备6与其他电子设备之间建立通信连接。
本实施例提出的计算机设备,实现了将多语种文本集中在一个模型上进行翻译,节约了模型的训练时长和资源,并且,在保证了多语种文本翻译的准确率的同时,提高了多语种文本翻译效率。
本申请还提供了另一种实施方式,即提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机可读指令,所述计算机可读指令可被至少一个处理器执行,以使所述至少一个处理器执行如上述的多语种文本翻译方法的步骤。
本实施例提出的计算机可读存储介质,实现了将多语种文本集中在一个模型上进行翻译,节约了模型的训练时长和资源,并且,在保证了多语种文本翻译的准确率的同时,提高了多语种文本翻译效率。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本申请各个实施例所述的方法。
显然,以上所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例,附图中给出了本申请的较佳实施例,但并不限制本申请的专利范围。本申请可以以许多不同的形式来实现,相反地,提供这些实施例的目的是使对本申请的公开内容的理解更加透彻全面。尽管参照前述实施例对本申请进行了详细的说明,对于本领域的技术人员来而言,其依然可以对前述各具体实施方式所记载的技术方案进行修改,或者对其中部分技术特征进行等效替换。凡是利用本申请说明书及附图内容所做的等效结构,直接或间接运用在其他相关的技术领域,均同理在本申请专利保护范围之内。
Claims (7)
1.一种多语种文本翻译方法,其特征在于,包括下述步骤:
获取待翻译文本和训练好的预设翻译模型,输入所述待翻译文本至所述预设翻译模型,根据所述预设翻译模型中编码器的源编码层对所述待翻译文本进行编码,得到第一编码向量,其中,所述预设翻译模型包括所述编码器和解码器,所述编码器包括源编码层、第一注意力层和前馈层,所述解码器包括目标编码层、第二注意力层、线性网络层和激活层,在所述获取待翻译文本和训练好的预设翻译模型的步骤之前,还包括:
采集源语料数据和所述源语料数据对应的目标翻译数据,根据所述源语料数据和所述目标翻译数据确定训练数据,其中,所述源语料数据和所述目标翻译数据中均包括不同语种的数据;
构建基础翻译模型,将所述训练数据按训练批次的顺序输入至所述基础翻译模型,计算得到当前训练批次的所述基础翻译模型的当前损失值;
根据所述当前损失值对所述基础翻译模型进行迭代训练,得到迭代训练后的基础翻译模型,在所述迭代训练后的基础翻译模型计算得到的损失函数收敛时,确定所述迭代训练后的基础翻译模型为所述预设翻译模型;
输入所述第一编码向量至所述编码器中的第一注意力层,计算得到第二编码向量;
输入所述第二编码向量至所述编码器中的前馈层,计算得到目标编码向量;
获取所述待翻译文本对应的候选翻译文本,根据所述解码器的目标编码层对所述候选翻译文本进行计算,得到所述候选翻译文本的候选编码向量,其中,所述根据所述解码器的目标编码层对所述候选翻译文本进行计算,得到所述候选翻译文本的候选编码向量的步骤包括:
根据所述解码器的目标编码层对所述候选翻译文本进行编码,得到第三编码向量;
对所述第三编码向量进行多头注意力计算,得到所述候选编码向量;
输入所述候选编码向量和所述目标编码向量至所述解码器的第二注意力层,计算得到语义编码向量,其中,所述输入所述候选编码向量和所述目标编码向量至所述解码器的第二注意力层,计算得到语义编码向量的步骤包括:
获取预设的第一权重参数、第二权重参数和第三权重参数,根据所述目标编码向量和所述第一权重参数计算得到第一信息矩阵,根据所述目标编码向量和所述第二权重参数计算得到第二信息矩阵,根据所述候选编码向量和所述第三权重参数计算得到第三信息矩阵;
计算所述第三信息矩阵和所述第一信息矩阵的点乘,得到目标相似度,根据所述目标相似度和所述第二信息矩阵计算得到所述语义编码向量;
基于所述解码器的线性网络层和激活层对所述语义编码向量进行计算,得到所述候选翻译文本的预测概率,选取所述预测概率最大的候选翻译文本作为所述待翻译文本的目标翻译文本。
2.根据权利要求1所述的多语种文本翻译方法,其特征在于,所述根据所述源语料数据和所述目标翻译数据确定训练数据的步骤包括:
获取所述源语料数据和所述目标翻译数据分别对应的语种类别,根据所述语种类别对所述源语料数据进行标签标识,得到标签语料数据;
对所述标签语料数据和所述目标翻译数据进行分词,得到所述基础翻译模型的训练数据。
3.根据权利要求1所述的多语种文本翻译方法,其特征在于,所述将所述训练数据按训练批次的顺序输入至所述基础翻译模型,计算得到当前训练批次的所述基础翻译模型的当前损失值的步骤包括:
根据所述基础翻译模型计算所述训练数据在所述当前训练批次中不同语种的语种损失值;
获取所述当前训练批次的上一训练批次的历史损失值,根据所述历史损失值和所述语种损失值,计算得到所述当前训练批次的当前损失值。
4.根据权利要求3所述的多语种文本翻译方法,其特征在于,所述根据所述历史损失值和所述语种损失值,计算得到所述当前训练批次的当前损失值的步骤包括:
获取所述当前训练批次中不同语种的数量,以及所述基础翻译模型在所述当前训练批次的权重系数;
根据所述数量、所述权重系数和所述语种损失值,计算所述基础翻译模型的损失平均值,基于所述损失平均值和所述历史损失值,计算得到所述当前损失值。
5.一种多语种文本翻译装置,其特征在于,所述的多语种文本翻译装置用于实现权利要求1至4中任一项所述的多语种文本翻译方法的步骤,所述多语种文本翻译装置包括:
编码模块,用于获取待翻译文本和训练好的预设翻译模型,输入所述待翻译文本至所述预设翻译模型,根据所述预设翻译模型中编码器的源编码层对所述待翻译文本进行编码,得到第一编码向量,其中,所述预设翻译模型包括所述编码器和解码器,所述编码器包括源编码层、第一注意力层和前馈层,所述解码器包括目标编码层、第二注意力层、线性网络层和激活层;
第一计算模块,用于输入所述第一编码向量至所述编码器中的第一注意力层,计算得到第二编码向量;
第二计算模块,用于输入所述第二编码向量至所述编码器中的前馈层,计算得到目标编码向量;
第三计算模块,用于获取所述待翻译文本对应的候选翻译文本,根据所述解码器的目标编码层对所述候选翻译文本进行计算,得到所述候选翻译文本的候选编码向量;
第四计算模块,用于输入所述候选编码向量和所述目标编码向量至所述解码器的第二注意力层,计算得到语义编码向量;
预测模块,用于基于所述解码器的线性网络层和激活层对所述语义编码向量进行计算,得到所述候选翻译文本的预测概率,选取所述预测概率最大的候选翻译文本作为所述待翻译文本的目标翻译文本。
6.一种计算机设备,包括存储器和处理器,所述存储器中存储有计算机可读指令,所述处理器执行所述计算机可读指令时实现如权利要求1至4中任一项所述的多语种文本翻译方法的步骤。
7.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机可读指令,所述计算机可读指令被处理器执行时实现如权利要求1至4中任一项所述的多语种文本翻译方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111255219.2A CN113947095B (zh) | 2021-10-27 | 2021-10-27 | 多语种文本翻译方法、装置、计算机设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111255219.2A CN113947095B (zh) | 2021-10-27 | 2021-10-27 | 多语种文本翻译方法、装置、计算机设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113947095A CN113947095A (zh) | 2022-01-18 |
CN113947095B true CN113947095B (zh) | 2024-07-02 |
Family
ID=79332757
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111255219.2A Active CN113947095B (zh) | 2021-10-27 | 2021-10-27 | 多语种文本翻译方法、装置、计算机设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113947095B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114547285B (zh) * | 2022-03-03 | 2023-03-24 | 创新奇智(浙江)科技有限公司 | 表格数据含义推断方法、装置、计算机设备和存储介质 |
CN114282555A (zh) * | 2022-03-04 | 2022-04-05 | 北京金山数字娱乐科技有限公司 | 翻译模型训练方法及装置、翻译方法及装置 |
CN117034967B (zh) * | 2023-10-08 | 2024-02-13 | 果不其然无障碍科技(苏州)有限公司 | 一种基于机器学习模型的翻译方法和*** |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110598224A (zh) * | 2019-09-23 | 2019-12-20 | 腾讯科技(深圳)有限公司 | 翻译模型的训练方法、文本处理方法、装置及存储介质 |
CN110795912A (zh) * | 2019-09-19 | 2020-02-14 | 平安科技(深圳)有限公司 | 基于神经网络对文本编码的方法、装置、设备及存储介质 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020146873A1 (en) * | 2019-01-11 | 2020-07-16 | Applications Technology (Apptek), Llc | System and method for direct speech translation system |
CN112699690B (zh) * | 2020-12-29 | 2024-02-13 | 科大讯飞股份有限公司 | 翻译模型的训练方法、翻译方法、电子设备、存储介质 |
-
2021
- 2021-10-27 CN CN202111255219.2A patent/CN113947095B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110795912A (zh) * | 2019-09-19 | 2020-02-14 | 平安科技(深圳)有限公司 | 基于神经网络对文本编码的方法、装置、设备及存储介质 |
CN110598224A (zh) * | 2019-09-23 | 2019-12-20 | 腾讯科技(深圳)有限公司 | 翻译模型的训练方法、文本处理方法、装置及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN113947095A (zh) | 2022-01-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112685565B (zh) | 基于多模态信息融合的文本分类方法、及其相关设备 | |
CN113947095B (zh) | 多语种文本翻译方法、装置、计算机设备及存储介质 | |
CN112860919B (zh) | 基于生成模型的数据标注方法、装置、设备及存储介质 | |
CN113987169A (zh) | 基于语义块的文本摘要生成方法、装置、设备及存储介质 | |
CN112949320B (zh) | 基于条件随机场的序列标注方法、装置、设备及介质 | |
CN112084752B (zh) | 基于自然语言的语句标注方法、装置、设备及存储介质 | |
JP7520246B2 (ja) | テキストを生成するための方法および装置 | |
CN112699213A (zh) | 语音意图识别方法、装置、计算机设备及存储介质 | |
CN112836521A (zh) | 问答匹配方法、装置、计算机设备及存储介质 | |
CN114091452A (zh) | 一种基于适配器的迁移学习方法、装置、设备及存储介质 | |
CN114358023B (zh) | 智能问答召回方法、装置、计算机设备及存储介质 | |
CN114780701B (zh) | 自动问答匹配方法、装置、计算机设备及存储介质 | |
CN113887237A (zh) | 多意图文本的槽位预测方法、装置及计算机设备 | |
CN114420107A (zh) | 基于非自回归模型的语音识别方法及相关设备 | |
CN114445832A (zh) | 基于全局语义的文字图像识别方法、装置及计算机设备 | |
CN115544560A (zh) | 一种敏感信息的脱敏方法、装置、计算机设备及存储介质 | |
CN112232052A (zh) | 文本拼接方法、装置、计算机设备及存储介质 | |
CN113505595A (zh) | 文本短语抽取方法、装置、计算机设备及存储介质 | |
CN112598039B (zh) | 获取nlp分类领域阳性样本方法及相关设备 | |
CN113723077A (zh) | 基于双向表征模型的句向量生成方法、装置及计算机设备 | |
CN111475635B (zh) | 语义补全方法、装置和电子设备 | |
CN116127925B (zh) | 基于对文本进行破坏处理的文本数据增强方法及装置 | |
CN113420869B (zh) | 基于全方向注意力的翻译方法及其相关设备 | |
CN115687934A (zh) | 意图识别方法、装置、计算机设备及存储介质 | |
CN113657104A (zh) | 文本抽取方法、装置、计算机设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant |