CN108932232A - 一种基于lstm神经网络的蒙汉互译方法 - Google Patents

一种基于lstm神经网络的蒙汉互译方法 Download PDF

Info

Publication number
CN108932232A
CN108932232A CN201810428619.0A CN201810428619A CN108932232A CN 108932232 A CN108932232 A CN 108932232A CN 201810428619 A CN201810428619 A CN 201810428619A CN 108932232 A CN108932232 A CN 108932232A
Authority
CN
China
Prior art keywords
neural network
input
hidden layer
word
lstm neural
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201810428619.0A
Other languages
English (en)
Inventor
苏依拉
孙晓骞
高芬
张振
王宇飞
赵亚平
牛向华
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Inner Mongolia University of Technology
Original Assignee
Inner Mongolia University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Inner Mongolia University of Technology filed Critical Inner Mongolia University of Technology
Priority to CN201810428619.0A priority Critical patent/CN108932232A/zh
Publication of CN108932232A publication Critical patent/CN108932232A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/58Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • G06F40/211Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Machine Translation (AREA)

Abstract

为了改变内蒙古地区机器翻译发展相对落后的现状,本发明研究了一种基于LSTM神经网络的蒙汉互译方法,与现有的基于统计的机器翻译方法相比,本发明首先采用基于LSTM的神经机器翻译方法充分考虑了整个语句和上下文之间的联系,提高了机器翻译的效率;其次,利用本质上是双向LSTM神经网络的编码器和解码器,提高了翻译的质量和效率,最后,采用最小批随机梯度下降算法作为优化算法来训练这些数据,进一步提高了翻译的质量。

Description

一种基于LSTM神经网络的蒙汉互译方法
技术领域
本发明属于机器翻译技术领域,特别涉及一种基于LSTM神经网络的蒙汉互译方法。
背景技术
蒙古族是中华民族五十六个民族的重要组成之一,是草原游牧民族的典型代表和草原文化的重要传承者,蒙古语则是中国蒙古族同胞使用的主要语言,是蒙古国的官方语言,其使用范围广泛,在国际上具有很重要的地位。伴随着中国经济的快速发展,蒙古族与汉族之间的经济、文化交流越来越广泛,而蒙古族和汉族同胞要进行交流就需要翻译,而人工翻译成本较高,这给蒙古族的经济发展带来了许多不便。
幸运的是,随着大数据时代的到来,人工智能飞速发展,机器翻译越来越成熟,通过计算机蒙古语和汉语之间的互译成为了可能。例如,可以给出一篇中文文章,机器可以自动快速的生成一篇蒙古文文章。近年来,蒙汉机器翻译的研究对于两族文化的价值观相互渗透,促进良好民族关系的建立以及促进和蒙古国之间的对外贸易和文化交流起到了很大的作用。
从20世纪40年代末至今这六十多年的时间里,追随着机器翻译发展的脚步,研究人员也从未停止过机器翻译在蒙汉翻译中应用的研究。
汉语的句子成分和蒙古语的句子成分有所区别,并且在句子的语序上有很大的不同,这给蒙汉机器翻译带来了很大的困难。
早期版本的翻译***是基于短语的机器翻译,即PBMT(Phrase-based MachineTranslation)。PBMT会将输入的句子分成一组单词或者短语,并将其单独翻译。这显然不是最佳的翻译策略,完全忽略了整个语句和上下文之间的联系。
发明内容
为了克服上述现有技术的缺点,本发明的目的在于提供一种基于LSTM神经网络的蒙汉互译方法,从以前的完全忽略整个语句和上下文之间联系的基于统计的蒙汉机器翻译,到充分考虑整个语句和上下文之间联系的基于LSTM的神经机器翻译,提高了机器翻译的质量和效率,改进了传统的NMT(Neural Machine Translation),改变了内蒙古地区机器翻译发展相对落后的现状。
为了实现上述目的,本发明采用的技术方案是:
一种基于LSTM神经网络的蒙汉互译方法,采用编码-解码结构,编码器读取源语言句子,编码为维数固定的向量,解码器读取该向量,依次生成目标语言。编码器和解码器均采用LSTM神经网络,在编码器中,将输入的源语言句子经过一个双向的LSTM神经网络进行编码,其中每个句子表达成一个上下文语义向量,形成上下文语义向量组,所述上下文语义向量作为用户意图的编码;在解码器中,一个LSTM神经网络不断循环运行,生成目标语言中的每一个字,在生成每一个字的同时,考虑输入的源语言句子所对应的上下文语义向量,使得生成的内容与源语言的意思相符合。
所述编码器使用双向LSTM模型,单向的LSTM神经网络某时刻的输出只与当前时刻以及之前的输入信息相关,而双向的LSTM神经网络某一时刻的输出不仅与当前时刻以及之前的输入信息相关,还与之后的信息有关,充分的考虑了整个句子与上下文之间的联系。
前向的LSTM神经网络按照源语言句子输入的顺序读取输入x=(x1,...,xI),x1表示输入的第1个字,xI表示输入的第I个字,并计算出前向隐层状态表示前向隐层状态的第1个语义向量元素,表示前向隐层状态的第I个语义向量元素;后向的LSTM神经网络按与原文本输入相反的顺序读取序列(xI,...,x1),xI表示输入的第I个字,x1表示输入的第1个字,并计算后向隐层状态 表示后向隐层状态的第1个语义向量元素,表示后向隐层状态的第I个语义向量元素,将前向和后向隐层状态链接在一起得到每个字的解释向量j从1到I,表示前向隐层状态语义向量的转置,表示后向隐层状态语义向量的转置。
解码器:
在给定源语言句子x和目标语{y1,...,yt-1}的条件下,解码器依次生成目标语言的字yt,在解码层定义条件概率为:
p(yt|y1,...,yt-1,X)=g(yt-1,st,ct)
其中,g是激活函数sigmoid,st是解码器的LSTM神经网络在t时刻的隐层状态,ct表示生成过程中的外部输入信息。
翻译准确率的保证
在上文的生成过程中,每一句汉语生成一个上下文语义向量,用来翻译一句原语句,因此,翻译后的目标语句不会脱离文本的原意,同时,后一句的生成结果依赖于前一句的词,因此保证了整个句子的连贯性,保证了翻译的准确率。
训练
在训练的过程中,将解码器的输出向量输入到一个softmax回归层中,选择softmax回归层得到的实际概率分布与期望输出的交叉熵作为损失函数,损失函数为:
y为期望输出,a为实际输出,n为批大小。
为了加速训练,防止陷入局部最优,本发明采用了最小批随机梯度下降算法作为优化算法:
其中,:=为同步更新,为学习速率;w和b不停的更新,直到w和b的值趋于稳定时结束,完成梯度下降过程。
与现有的基于统计的机器翻译方法相比,本发明充分考虑了整个语句和上下文之间的联系,提高机器翻译的效率;其次,利用本质上是LSTM的编码器和解码器,保证了较高的翻译质量;最后,通过运用残差学习的形式,提高了翻译的准确性并减少梯度消失。
附图说明
图1为隐层状态的求解原理图。
图2为本发明的汉语到蒙古语的翻译原理示意图。
图3为本发明的蒙古语到汉语的翻译原理示意图。
具体实施方式
下面结合附图和实施例详细说明本发明的实施方式。
基于LSTM神经网络的蒙汉互译方法,采用编码-解码结构,编码器和解码器都是通过LSTM实现。
其中编码器使用双向LSTM模型,前向的LSTM神经网络按照源语言句子输入的顺序读取输入x=(x1,...,xI),x1表示输入的第1个字,xI表示输入的第I个字,并计算出前向隐层状态 表示前向隐层状态的第1个语义向量元素,表示前向隐层状态的第I个语义向量元素;后向的LSTM神经网络按与原文本输入相反的顺序读取序列(xI,...,x1),xI表示输入的第I个字,x1表示输入的第1个字,并计算后向隐层状态 表示后向隐层状态的第1个语义向量元素,表示后向隐层状态的第I个语义向量元素,将前向和后向隐层状态链接在一起得到每个字的解释向量j从1到I,表示前向隐层状态语义向量的转置,表示后向隐层状态语义向量的转置。
图1是隐层状态的计算原理,该图被称为memory block(记忆块),主要包含了三个门(forget gate、input gate、output gate)与一个记忆单元(cell)。方框内上方的那条水平线,被称为单元状态(cell state),它就像一个传送带,可以控制信息传递给下一时刻。
隐层状态的求解步骤:
第一步:首先决定什么信息可以通过cell state。
这个决定由“forget gate”层通过sigmoid来控制,它会根据上一时刻的输出hj-1和当前输入xj来产生一个0到1的fj值,来决定是否让上一时刻学到的信息Cj通过或部分通过。0表示完全不允许通过,0-1之间的值表示部分通过,1表示允许完全通过。
如下:
fj=Sigmod(Wf*xj+Wfhj-1+bf)
其中:Wf和bf表示遗忘门包含的神经元中调教好的参数。
第二步:产生需要更新的新信息。
这一步包含两部分,第一部分是“input gate”层通过sigmoid来决定哪些值用来更新,ij的值为1时表示不需要更新,0或者0-1之间时需要更新。第二部分是tanh层用来生成新的候选值它作为当前层产生的候选值可能会添加到cell state中,的值为0-1或者1时被添加到cell state中。把这两部分产生的值结合来进行更新,如下式:
其中:其中:Wi和bi表示输入门包含的神经元中调教好的参数。WC和bC表示记忆单元包含的神经元中调教好的参数。
第一步和第二步结合起来就是丢掉不需要的信息,添加新信息的过程:
第三步:决定模型的输出。
首先是通过sigmoid层来得到一个初始输出,然后使用tanh将Cj值缩放到-1到1间,再与sigmoid得到的输出逐对相乘,从而得到前向隐层状态
其中:Wo和bo表示输出门包含的神经元中调教好的参数。
用同样的方法计算出
在给定源语言句子x和目标语{y1,...,yt-1}的条件下,解码器依次生成目标语言的字yt,在解码层定义条件概率为:
p(yt|y1,...,yt-1,X)=g(yt-1,st,ct)
其中,g是激活函数sigmoid,st是解码器的LSTM神经网络在t时刻的隐层状态,ct表示生成过程中的外部输入信息。
翻译准确率的保证
在上文的生成过程中,每一句汉语生成一个上下文语义向量,用来翻译一句原语句,因此,翻译后的目标语句不会脱离文本的原意,同时,后一句的生成结果依赖于前一句的词,因此保证了整个句子的连贯性,保证了翻译的准确率。
训练
在训练的过程中,将解码器得到的向量输入一个softmax回归层中,得到可能结果的概率分布。选择softmax得到的实际概率分布于期望输出的交叉熵作为损失函数。损失函数为:
y为期望输出,a为实际输出,n为批大小。
为了加速训练,防止陷入局部最优,对神经元里面的参数w和b进行调整,该过程称为梯度下降,本发明采用了最小批随机梯度下降算法作为优化算法:
其中,:=为同步更新,为学习速率;w和b不停的更新,直到w和b的值趋于稳定时结束,完成梯度下降过程。
以下是汉蒙互译的两个具体实施例。
实施例1,汉译蒙:
参照图2,首先,图2的下半部分,(x1,...,xt)表示一个汉语句子的t个字,将用户输入的t个字按顺序经过一个双向的LSTM网络进行编码,形成一个上下文语义向量组然后,按逆序经过该双向的LSTM网络再进行编码,形成一个上下文语义向量组然后,这些上下文语义向量作为用户意图的编码。生成的过程中(图1的上部),在解码器,一个LSTM神经网络不断循环运行,首先生成i时刻的隐层状态si,然后生成目标语言中的每一个字yi,在生成每一个字的同时,需要考虑输入该句所对应的上下文语义向量,使得该句生成的内容与原语言的意思相符合。
具体的翻译步骤如下:
1.编码器读取输入的源语言句子x=(x1,...,xI);
2.编码器采用循环神经网络将读到的x编码为隐层状态,形成一个上下文语义向量组
3.编码器采用循环神经网络逆向将读到的x编码为隐层状态,与步骤2同样的方法得到后向隐层状态,从而形成一个上下文语义向量组
4.编码器将前向和后向状态链接在一起得到每个字的解释向量
5.解码器的LSTM神经网络不断循环运行,生成t时刻的隐层状态st
6.解码器在给定源语言句子x和目标语{y1,...,yt-1}的条件下,依次生成目标语言的字yt。将编码器计算出来的对输入的源语言的编码向量输入给解码器的RNN单元,然后,解码器会根据循环神经网络单元计算概率向量。即对于目标语言句子中的每一个字的概率进行计算。最后,根据计算得到的概率采样生成目标语言。
实施例2,蒙译汉:
与汉译蒙同样的方法,参照图3,图3的下半部分,(x1,...,xt)表示一句蒙语的t个字,***将用户输入的t个字按顺序经过一个双向的LSTM网络进行编码,形成一个上下文语义向量组然后,按逆序经过一个双向的LSTM网络再进行编码,形成一个上下文语义向量组然后,这些上下文语义向量作为用户意图的编码。在生成的过程中(图2的上部),一个LSTM神经网络不断循环运行,首先生成i时刻的隐层状态si,然后生成蒙语中的每一个字yi,在生成每一个字的同时,需要考虑输入该句所对应的上下文语义向量,使得该句生成的内容与原语言的意思相符合。

Claims (6)

1.一种基于LSTM神经网络的蒙汉互译方法,采用编码-解码结构,编码器读取源语言句子,编码为维数固定的向量,解码器读取该向量,依次生成目标语言,其特征在于,编码器和解码器均采用LSTM神经网络,在编码器中,将输入的源语言句子经过一个双向的LSTM神经网络进行编码,其中每个句子表达成一个上下文语义向量,形成上下文语义向量组,所述上下文语义向量作为用户意图的编码;在解码器中,一个LSTM神经网络不断循环运行,生成目标语言中的每一个字,在生成每一个字的同时,考虑输入的源语言句子所对应的上下文语义向量,使得生成的内容与源语言的意思相符合。
2.根据权利要求1所述基于LSTM神经网络的蒙汉互译方法,其特征在于,所述编码器使用双向LSTM模型,前向的LSTM神经网络按照源语言句子输入的顺序读取输入x=(x1,...,xI),x1表示输入的第1个字,xI表示输入的第I个字,并计算出前向隐层状态 表示前向隐层状态的第1个语义向量元素,表示前向隐层状态的第I个语义向量元素;后向的LSTM神经网络按与原文本输入相反的顺序读取序列(xI,...,x1),xI表示输入的第I个字,x1表示输入的第1个字,并计算后向隐层状态 表示后向隐层状态的第1个语义向量元素,表示后向隐层状态的第I个语义向量元素,将前向和后向隐层状态链接在一起得到每个字的解释向量j从1到I,表示前向隐层状态语义向量的转置,表示后向隐层状态语义向量的转置。
3.根据权利要求2所述基于LSTM神经网络的蒙汉互译方法,其特征在于,所述隐层状态的计算,利用记忆块(memory block)架构,包括如下步骤:
第一步:首先决定什么信息可以通过单元状态(cell state)
这个决定由forget gate层通过sigmoid来控制,它会根据上一时刻的输出hj-1和当前输入xj产生一个0到1的fj值,来决定是否让上一时刻学到的信息Cj通过或部分通过,如下:
fj=Sigmod(Wf *xj+Wfhj-1+bf)
其中:Wf和bf表示遗忘门包含的神经元中调教好的参数;
第二步:产生需要更新的新信息
该步骤包含两部分,第一部分是input gate层通过sigmoid决定哪些值用来更新,第二部分是tanh层用来生成新的候选值它作为当前层产生的候选值可能会添加到cellstate中;把这两部分产生的值结合进行更新,如下式:
ij=Sigmod(Wi*xj+Wi*hj-1+bi)
其中:Wi和bi表示输入门包含的神经元中调教好的参数;WC和bC表示记忆单元包含的神经元中调教好的参数;
第一步和第二步结合,即丢掉不需要的信息,添加新信息的过程:
第三步,决定模型的输出
首先是通过sigmoid层来得到一个初始输出,然后使用tanh将Cj值缩放到-1到1间,再与sigmoid得到的输出逐对相乘,从而得到前向隐层状态
oj=Sigmod(Wo*xj+Wo*hj-1+bo)
其中:Wo和bo表示输出门包含的神经元中调教好的参数;
用同样的方法计算出
4.根据权利要求1所述基于LSTM神经网络的蒙汉互译方法,其特征在于,所述解码器中,在给定源语言句子x和目标语{y1,...,yt-1}的条件下,解码器依次生成目标语言的字yt,在解码层定义条件概率为:
p(yt|y1,...,yt-1,X)=g(yt-1,st,ct)
其中,g是激活函数sigmoid,st是解码器的LSTM神经网络在t时刻的隐层状态,ct表示生成过程中的外部输入信息,y1,...,yt-1指已经生成的目标语言的第1个字到第t-1个字。
5.根据权利要求1所述基于LSTM神经网络的蒙汉互译方法,其特征在于,通过如下方式进行模型数据训练:
将解码器的输出向量输入到一个softmax回归层中,选择softmax回归层得到的实际概率分布与期望输出的交叉熵作为损失函数,损失函数为:
y为期望输出,a为实际输出,n为批大小。
6.根据权利要求5所述基于LSTM神经网络的蒙汉互译方法,其特征在于,采用最小批随机梯度下降算法作为优化算法以加速训练,防止陷入局部最优,由以下公式进行调教:
其中,:=为同步更新,为学习速率;w和b不停更新,直到w和b的值趋于稳定时结束,完成梯度下降过程。
CN201810428619.0A 2018-05-07 2018-05-07 一种基于lstm神经网络的蒙汉互译方法 Pending CN108932232A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810428619.0A CN108932232A (zh) 2018-05-07 2018-05-07 一种基于lstm神经网络的蒙汉互译方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810428619.0A CN108932232A (zh) 2018-05-07 2018-05-07 一种基于lstm神经网络的蒙汉互译方法

Publications (1)

Publication Number Publication Date
CN108932232A true CN108932232A (zh) 2018-12-04

Family

ID=64448397

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810428619.0A Pending CN108932232A (zh) 2018-05-07 2018-05-07 一种基于lstm神经网络的蒙汉互译方法

Country Status (1)

Country Link
CN (1) CN108932232A (zh)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109558605A (zh) * 2018-12-17 2019-04-02 北京百度网讯科技有限公司 用于翻译语句的方法和装置
CN109740168A (zh) * 2019-01-09 2019-05-10 北京邮电大学 一种基于中医药知识图谱和注意力机制的中医典籍古文翻译方法
CN109740169A (zh) * 2019-01-09 2019-05-10 北京邮电大学 一种基于词典和seq2seq预训练机制的中医古籍翻译方法
CN110414012A (zh) * 2019-07-29 2019-11-05 腾讯科技(深圳)有限公司 一种基于人工智能的编码器构建方法及相关设备
CN110489766A (zh) * 2019-07-25 2019-11-22 昆明理工大学 基于编码归纳-解码推敲的汉-越低资源神经机器翻译方法
CN110598221A (zh) * 2019-08-29 2019-12-20 内蒙古工业大学 利用生成对抗网络构造蒙汉平行语料提高蒙汉翻译质量的方法
CN110717345A (zh) * 2019-10-15 2020-01-21 内蒙古工业大学 一种译文重对齐的循环神经网络跨语言机器翻译方法
CN112016332A (zh) * 2020-08-26 2020-12-01 华东师范大学 基于变分推理和多任务学习的多模态机器翻译方法
CN112395892A (zh) * 2020-12-03 2021-02-23 内蒙古工业大学 基于指针生成网络实现占位符消歧的蒙汉机器翻译方法
WO2021082518A1 (zh) * 2019-11-01 2021-05-06 华为技术有限公司 机器翻译方法、机器翻译模型训练方法、装置及存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107870902A (zh) * 2016-09-26 2018-04-03 谷歌公司 神经机器翻译***
CN107967262A (zh) * 2017-11-02 2018-04-27 内蒙古工业大学 一种神经网络蒙汉机器翻译方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107870902A (zh) * 2016-09-26 2018-04-03 谷歌公司 神经机器翻译***
CN107967262A (zh) * 2017-11-02 2018-04-27 内蒙古工业大学 一种神经网络蒙汉机器翻译方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
COLAH: "Understanding LSTM Networks", 《COLAH.HITHUB.IO/POSTS/2015-08-UNDERSTANDING-LSTMS》 *
WEPON_: "交叉熵代价函数", 《HTTPS://BLOG.CSDN.NET/U012162613/ARTICLE/DETAILS/44239919》 *

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109558605B (zh) * 2018-12-17 2022-06-10 北京百度网讯科技有限公司 用于翻译语句的方法和装置
CN109558605A (zh) * 2018-12-17 2019-04-02 北京百度网讯科技有限公司 用于翻译语句的方法和装置
CN109740168A (zh) * 2019-01-09 2019-05-10 北京邮电大学 一种基于中医药知识图谱和注意力机制的中医典籍古文翻译方法
CN109740169A (zh) * 2019-01-09 2019-05-10 北京邮电大学 一种基于词典和seq2seq预训练机制的中医古籍翻译方法
CN109740168B (zh) * 2019-01-09 2020-10-13 北京邮电大学 一种基于中医药知识图谱和注意力机制的中医典籍古文翻译方法
CN109740169B (zh) * 2019-01-09 2020-10-13 北京邮电大学 一种基于词典和seq2seq预训练机制的中医古籍翻译方法
CN110489766A (zh) * 2019-07-25 2019-11-22 昆明理工大学 基于编码归纳-解码推敲的汉-越低资源神经机器翻译方法
CN110414012A (zh) * 2019-07-29 2019-11-05 腾讯科技(深圳)有限公司 一种基于人工智能的编码器构建方法及相关设备
CN110414012B (zh) * 2019-07-29 2022-12-09 腾讯科技(深圳)有限公司 一种基于人工智能的编码器构建方法及相关设备
CN110598221A (zh) * 2019-08-29 2019-12-20 内蒙古工业大学 利用生成对抗网络构造蒙汉平行语料提高蒙汉翻译质量的方法
CN110717345A (zh) * 2019-10-15 2020-01-21 内蒙古工业大学 一种译文重对齐的循环神经网络跨语言机器翻译方法
WO2021082518A1 (zh) * 2019-11-01 2021-05-06 华为技术有限公司 机器翻译方法、机器翻译模型训练方法、装置及存储介质
CN112016332B (zh) * 2020-08-26 2021-05-07 华东师范大学 基于变分推理和多任务学习的多模态机器翻译方法
CN112016332A (zh) * 2020-08-26 2020-12-01 华东师范大学 基于变分推理和多任务学习的多模态机器翻译方法
CN112395892A (zh) * 2020-12-03 2021-02-23 内蒙古工业大学 基于指针生成网络实现占位符消歧的蒙汉机器翻译方法

Similar Documents

Publication Publication Date Title
CN108932232A (zh) 一种基于lstm神经网络的蒙汉互译方法
CN110334361B (zh) 一种面向小语种语言的神经机器翻译方法
CN110717334B (zh) 基于bert模型和双通道注意力的文本情感分析方法
CN106126507B (zh) 一种基于字符编码的深度神经翻译方法及***
CN107368475B (zh) 一种基于生成对抗神经网络的机器翻译方法和***
Chen et al. Neural machine translation with source dependency representation
CN110069790B (zh) 一种通过译文回译对照原文的机器翻译***及方法
CN108829684A (zh) 一种基于迁移学习策略的蒙汉神经机器翻译方法
CN108897740A (zh) 一种基于对抗神经网络的蒙汉机器翻译方法
CN110033008B (zh) 一种基于模态变换与文本归纳的图像描述生成方法
CN108024158A (zh) 利用视觉注意力机制的有监督视频摘要提取方法
CN108153864A (zh) 基于神经网络生成文本摘要的方法
CN107766320A (zh) 一种中文代词消解模型建立方法及装置
Tang et al. Deep sequential fusion LSTM network for image description
CN110162789A (zh) 一种基于汉语拼音的词表征方法及装置
CN110427616A (zh) 一种基于深度学习的文本情感分析方法
CN114398976A (zh) 基于bert与门控类注意力增强网络的机器阅读理解方法
CN110188348A (zh) 一种基于深度神经网络的中文语言处理模型及方法
CN113033189B (zh) 一种基于注意力分散的长短期记忆网络的语义编码方法
CN112883722B (zh) 一种基于云数据中心分布式文本摘要方法
CN108388944B (zh) 一种基于深度神经网络的自动聊天方法和机器人
Zhao et al. Synchronously improving multi-user English translation ability by using AI
CN110334196A (zh) 基于笔画和自注意力机制的神经网络中文问题生成***
CN114691858B (zh) 一种基于改进的unilm摘要生成方法
CN116663578A (zh) 一种基于策略梯度方法改进的神经机器翻译方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20181204