JP2019046188A - 文生成装置、文生成学習装置、文生成方法、及びプログラム - Google Patents

文生成装置、文生成学習装置、文生成方法、及びプログラム Download PDF

Info

Publication number
JP2019046188A
JP2019046188A JP2017168934A JP2017168934A JP2019046188A JP 2019046188 A JP2019046188 A JP 2019046188A JP 2017168934 A JP2017168934 A JP 2017168934A JP 2017168934 A JP2017168934 A JP 2017168934A JP 2019046188 A JP2019046188 A JP 2019046188A
Authority
JP
Japan
Prior art keywords
word
unit
fixed
vector
length vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017168934A
Other languages
English (en)
Other versions
JP6712973B2 (ja
Inventor
翔 高瀬
Sho Takase
翔 高瀬
鈴木 潤
Jun Suzuki
潤 鈴木
永田 昌明
Masaaki Nagata
昌明 永田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2017168934A priority Critical patent/JP6712973B2/ja
Publication of JP2019046188A publication Critical patent/JP2019046188A/ja
Application granted granted Critical
Publication of JP6712973B2 publication Critical patent/JP6712973B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Machine Translation (AREA)

Abstract

【課題】文法的誤りが少なく、かつ、可読性の高い文を生成することができるようにする。【解決手段】入力変換部110が、入力された単語を、第1の固定長ベクトルに変換し、生成部120が、次の単語を予測するための予め学習されたニューラルネットワークを用いて、単語列中の当該第1の固定長ベクトルに対応する単語までの単語列に対応する第2の固定長ベクトルを生成し、補正部140が、第1の固定長ベクトルから、第2の固定長ベクトルを補正するための予め学習されたニューラルネットワークを用いて、第2の固定長ベクトルを補正するための補正用ベクトルを生成し、出力部160が、第2の固定長ベクトルと、補正用ベクトルとに基づいて、各単語の出現確率を表すベクトルを計算し、各単語の出現確率を表すベクトルに応じて選択される単語を、次の単語として出力し、最も確率の高い1文、又は、確率の高い複数の候補文を生成する。【選択図】図2

Description

本発明は、文生成装置、文生成学習装置、文生成方法、及びプログラムに関し、特に、自然言語文を自動的に生成するための文生成装置、文生成学習装置、文生成方法、及びプログラムに関する。
自然言語で書かれた文書を計算機が翻訳、あるいは要約するためには、自然言語文の解析だけではなく、計算機によって文を生成する技術がなくてはならない。また、機械と人とが対話を行う際にも、自然言語文を自動的に生成する必要がある。
計算機による文の生成は、最初の単語を入力とし、次に出現する単語の確率を計算し、単語を生成する、その後、出力した単語を入力として、さらに次に出現する単語の確率を計算する、という処理を繰り返すことによって行う。
近年、リカレントニューラルネットワーク(RNN)を用い、過去の全単語列を元に、単語の出現確率を計算する手法が主流になってきている(非特許文献1)。
この手法では、単語を各次元の要素が実数値の、固定長のベクトル(固定長ベクトルと呼ぶ)で表現し、単語間の組み合わせをベクトル同士の演算で表現する。これにより、似た意味の単語が似たベクトルとなり、組み合わせ計算におけるスパース性が減少するという利点がある。
具体的には、RNNは、まず、最初の単語を入力として固定長ベクトルを計算し、次の単語を出力する。次に、出力した単語を入力として固定長ベクトルを計算する、という処理を繰り返すことにより、文を生成する(図8)。
Wojciech Zaremba, Ilya Sutskever, and Oriol Vinyals. Recurrent Neural Network Regularization. Proceedings of the 2nd International Conference on Learning Representations (ICLR 2014), 2014.
RNNを用いた文生成システムは、過去に出力した全単語を考慮できるため、長期の依存関係を扱うことができる。一方で、似た意味の単語に同程度の確率を付与してしまうため、文法的に誤りを含む文や可読性の低い文を生成してしまう、という問題があった(図9)。
本発明は、この課題を鑑みてなされたものであり、文法的誤りが少なく、かつ、可読性の高い文を生成することができる文生成装置、文生成方法、及びプログラムを提供することを目的とする。
また、本発明は、文法的誤りが少なく、かつ、可読性の高い文を生成するためのニューラルネットワークを学習することができる文生成学習装置及びプログラムを提供することを目的とする。
上記目的を達成するために、本発明に係る文生成装置は、入力された単語を第1の固定長ベクトルに変換する入力変換部と、前記入力変換部で得た前記第1の固定長ベクトルと、過去に生成された第2の固定長ベクトルとから、次の単語を予測するための予め学習されたニューラルネットワークを用いて、第2の固定長ベクトルを生成する生成部と、前記入力変換部で得た前記第1の固定長ベクトルから、前記生成部で生成した前記第2の固定長ベクトルを補正するための予め学習されたニューラルネットワークを用いて、前記第2の固定長ベクトルを補正するための補正用ベクトルを生成する補正部と、前記生成部で生成した第2の固定長ベクトルと、前記補正部で得た前記補正用ベクトルとから、各単語の出現確率を表すベクトルを計算し、各単語の出現確率を表すベクトルに応じて選択される単語を、次の単語として出力する出力部とを含み、前記出力部が出力した単語を前記入力変換部の入力として、前記入力変換部、前記生成部、前記補正部、及び前記出力部での各処理を繰り返すことにより生成した単語を並べた単語列を候補文として生成するものであり、前記生成部は、前記入力変換部で得た第1の固定長ベクトルと、過去に生成された第2の固定長ベクトルである、前記単語列中の当該第1の固定長ベクトルに対応する単語の直前の単語までの単語列に対応する第2の固定長ベクトルとから、前記単語列中の当該第1の固定長ベクトルに対応する単語までの単語列に対応する第2の固定長ベクトルを生成するように構成される。
また、本発明に係る文生成方法は、入力変換部が、入力された単語を第1の固定長ベクトルに変換し、生成部が、前記入力変換部で得た前記第1の固定長ベクトルと、過去に生成された第2の固定長ベクトルとから、次の単語を予測するための予め学習されたニューラルネットワークを用いて、第2の固定長ベクトルを生成し、補正部が、前記入力変換部で得た前記第1の固定長ベクトルから、前記生成部で生成した前記第2の固定長ベクトルを補正するための予め学習されたニューラルネットワークを用いて、前記第2の固定長ベクトルを補正するための補正用ベクトルを生成し、出力部が、前記生成部で生成した第2の固定長ベクトルと、前記補正部で得た前記補正用ベクトルとから、各単語の出現確率を表すベクトルを計算し、各単語の出現確率を表すベクトルに応じて選択される単語を、次の単語として出力することを含み、
前記出力部が出力した単語を前記入力変換部の入力として、前記入力変換部、前記生成部、前記補正部、及び前記出力部での各処理を繰り返すことにより生成した単語を並べた単語列を候補文として生成するものであり、前記生成部は、前記入力変換部で得た第1の固定長ベクトルと、過去に生成された第2の固定長ベクトルである、前記単語列中の当該第1の固定長ベクトルに対応する単語の直前の単語までの単語列に対応する第2の固定長ベクトルとから、前記単語列中の当該第1の固定長ベクトルに対応する単語までの単語列に対応する第2の固定長ベクトルを生成する。
本発明に係る文生成装置及び文生成方法によれば、入力変換部が、入力された単語を第1の固定長ベクトルに変換し、生成部が、前記入力変換部で得た前記第1の固定長ベクトルと、過去に生成された第2の固定長ベクトルとから、次の単語を予測するための予め学習されたニューラルネットワークを用いて、第2の固定長ベクトルを生成し、補正部が、前記入力変換部で得た前記第1の固定長ベクトルから、前記生成部で生成した前記第2の固定長ベクトルを補正するための予め学習されたニューラルネットワークを用いて、前記第2の固定長ベクトルを補正するための補正用ベクトルを生成し、出力部が、前記生成部で生成した第2の固定長ベクトルと、前記補正部で得た前記補正用ベクトルとから、各単語の出現確率を表すベクトルを計算し、各単語の出現確率を表すベクトルに応じて選択される単語を、次の単語として出力する。
そして、前記出力部が出力した単語を前記入力変換部の入力として、前記入力変換部、前記生成部、前記補正部、及び前記出力部での各処理を繰り返すことにより生成した単語を並べた単語列を候補文として生成するものであり、前記生成部が、前記入力変換部で得た第1の固定長ベクトルと、過去に生成された第2の固定長ベクトルである、前記単語列中の当該第1の固定長ベクトルに対応する単語の直前の単語までの単語列に対応する第2の固定長ベクトルとから、前記単語列中の当該第1の固定長ベクトルに対応する単語までの単語列に対応する第2の固定長ベクトルを生成する。
このように、第2の固定長ベクトルを補正するための補正用ベクトルを生成し、第2の固定長ベクトルと、補正用ベクトルとを用いて、単語を出力し、出力した単語を並べた単語列を候補文として生成することにより、文法的誤りが少なく、かつ、可読性の高い文を生成することができる。
また、本発明に係る文生成学習装置は、学習データとして予め用意された正解文の単語を第1の固定長ベクトルに変換する学習データ変換部と、前記学習データ変換部で得た前記第1の固定長ベクトルと、過去に生成された第2の固定長ベクトルとから、次の単語を予測するためのニューラルネットワークを用いて、第2の固定長ベクトルを生成する生成部と、前記学習データ変換部で得た前記第1の固定長ベクトルから、前記生成部で生成した前記第2の固定長ベクトルを補正するためのニューラルネットワークを用いて、前記第2の固定長ベクトルを補正するための補正用ベクトルを生成する補正部と、前記生成部で生成した第2の固定長ベクトルと、前記補正部で得た前記補正用ベクトルとから、各単語の出現確率を表すベクトルを計算し、各単語の出現確率を表すベクトルに応じて選択される単語を、次の単語として出力する出力部と、前記出力部で得た単語が、前記正解文の単語の次の単語となるように、前記第2の固定長ベクトルを補正するためのニューラルネットワークを学習する学習部と、を含み、前記出力部が出力した単語を前記学習データ変換部の入力として、前記学習データ変換部、前記生成部、前記補正部、前記出力部、及び前記学習部での各処理を繰り返すように構成される。
本発明に係る文生成学習装置によれば、学習データ変換部が、学習データとして予め用意された正解文の単語を第1の固定長ベクトルに変換し、生成部が、前記学習データ変換部で得た前記第1の固定長ベクトルと、過去に生成された第2の固定長ベクトルとから、次の単語を予測するためのニューラルネットワークを用いて、第2の固定長ベクトルを生成し、補正部が、前記学習データ変換部で得た前記第1の固定長ベクトルから、前記生成部で生成した前記第2の固定長ベクトルを補正するためのニューラルネットワークを用いて、前記第2の固定長ベクトルを補正するための補正用ベクトルを生成する。
そして、出力部が、前記生成部で生成した第2の固定長ベクトルと、前記補正部で得た前記補正用ベクトルとから、各単語の出現確率を表すベクトルを計算し、各単語の出現確率を表すベクトルに応じて選択される単語を、次の単語として出力し、前記出力部で得た単語が、前記正解文の単語の次の単語となるように、前記第2の固定長ベクトルを補正するためのニューラルネットワークを学習する学習部と、を含み、前記出力部が出力した単語を前記学習データ変換部の入力として、前記学習データ変換部、前記生成部、前記補正部、前記出力部、及び前記学習部での各処理を繰り返す。
このように、第2の固定長ベクトルを補正するためのニューラルネットワークを用いて、第2の固定長ベクトルを補正するための補正用ベクトルを生成し、第2の固定長ベクトルと、補正用ベクトルとから、各単語の出現確率を表すベクトルを計算し、各単語の出現確率を表すベクトルに応じて選択される単語を、次の単語として出力し、出力した単語が、正解文の単語の次の単語となるように、第2の固定長ベクトルを補正するためのニューラルネットワークを学習することにより、文法的誤りが少なく、かつ、可読性の高い文を生成するための文生成装置を学習することができる。
また、本発明に係る文生成学習装置は、前記学習部は、前記出力部で得た単語が、前記正解文の単語の次の単語となるように、前記次の単語を予測するためのニューラルネットワーク、及び前記第2の固定長ベクトルを補正するためのニューラルネットワークを学習するようにすることができる。
本発明に係るプログラムは、コンピュータを、上記の文生成装置又は文生成学習装置の各部として機能させるためのプログラムである。
本発明の文生成装置、文生成方法、及びプログラムによれば、文法的誤りが少なく、かつ、可読性の高い文を生成することができる。
また、本発明の文生成学習装置及びプログラムによれば、文法的誤りが少なく、かつ、可読性の高い文を生成するためのニューラルネットワークを学習することができる。
本発明の実施の形態に係る文生成装置の原理を示す図である。 本発明の実施の形態に係る文生成装置の構成の一例を示す概略図である。 本発明の実施の形態に係る各単語の出現確率を表すベクトルの例を表す図である。 本発明の実施の形態に係る生成された出力文の例を表す図である。 本発明の実施の形態に係る文生成装置の文生成処理ルーチンを示すフローチャートである。 本発明の実施の形態に係る文生成学習装置の構成の一例を示す概略図である。 本発明の実施の形態に係る文生成学習装置の学習処理ルーチンを示すフローチャートである。 従来の文生成手法の例を表す図である。 文法的に誤りを含む文が生成されてしまう例を表す図である。
以下、本発明の実施の形態について図面を用いて説明する。
<本発明の実施の形態に係る文生成装置の概要>
上述の課題は、過去の全単語をひとつのベクトルで表現しており、各単語が過去のどの地点に出現したかを明示的に扱えず、長期の依存関係と、直近の単語との依存関係の区別ができないことに起因する。
本実施形態は、上記問題を解決するため、直近の単語との文法的なつながりの正確性を上げ、文全体での可読性を高めるものである。
本実施形態では、従来と同様(非特許文献1)、RNNを用いて、過去の全単語をひとつのベクトルで表現する。これに加え、入力単語に基づいてRNNの出力した確率を補正する補正部を新たに構築する(図1)。
この補正部を用いて、入力単語との関係が文法的に誤りである単語の出現確率を下げる。すなわち、出力候補から誤った単語を除き、文法的に正しい単語を出力する。
このシステムを用いて単語を繰り返し生成し、最終的に、1文を出力する。ただし、文法的に誤りであるか否か(文法的な正しさ)の判定は、補正部を学習する際に用いる学習データに基づいて決定されるものとする。
この点、ネットワーク上での、入力と出力の距離を近づけるという手法は、下位の層の出力を1つ以上離れた上の層への入力とする、下記の参考文献1に近い。
[参考文献1]Deep Residual Learning for Image Recognition. Proceedings of the 29th IEEE Conference on Computer Vision and Pattern Recognition (CVPR 2016), 2016.
しかしながら、参考文献1では、下位の層の出力と上位の層の出力を足し合わせて単語の出力確率を計算する、すなわち、全単語をひとつのベクトルで表現するため、各単語が過去のどの地点に出現したかを明示的に扱えないという問題は解決できない。
これに対し、本実施形態では、RNNを用いて計算した結果を補正部によって是正するという、二段階の計算を行うことで、直前の単語を陽に考慮することが可能となっている。
本実施形態により、直前の単語を明示的に考慮した単語生成が可能となる。これにより、直前の単語と、文法的に正しい関係にある単語を生成するようになり、最終的な出力として、文法的誤りの少ない、可読性の高い文を出力可能となる。
本実施形態は、翻訳や要約、対話システムなど、計算機による文生成が必要な、あらゆる場面に適用することが可能である。例えば、対話システムでは、システムが発話を生成する際に、本発明を用いて、誤りの少ない、より自然な発話を生成することが可能となる。
以下では、対話システムにおいて、あるユーザ発話(ユーザ発話文X)に対し、システムが応答を返すべき発話(システム発話文Y)を生成するタスクを例にとって説明する。まず、学習済みのニューラルネットワークを用いてシステム発話の発話文を生成する文生成装置の実施例について説明し、その後、ニューラルネットワークを学習する文生成学習装置について説明する。
<本発明の実施の形態に係る文生成装置の構成>
本発明の実施の形態に係る文生成装置の構成について説明する。図2は、本発明の実施の形態に係る文生成装置の構成を示す概略図である。
本発明の実施の形態に係る文生成装置10は、対話システムにおける文生成装置である。この文生成装置10は、CPUと、RAMと、後述する文生成処理ルーチンを実行するためのプログラムを記憶したROMとを備えたコンピュータで構成され、機能的には次に示すように構成されている。
図2に示すように、文生成装置10は、入力部100と、入力変換部110と、生成部120と、RNNパラメタ記憶部130と、補正部140と、補正パラメタ記憶部150と、出力部160とを備えて構成される。
文生成装置10は、入力された第2の固定長ベクトル、及び文の最初の単語から、当該単語に続く文を生成する。
文生成装置10は、入力変換部110、生成部120、補正部140、及び出力部160による各処理を繰り返すことにより、最も確率の高い1文を生成する。
入力部100は、既知のキーボード、記憶装置などの入力器により実現される。また、入力部100は、インターネット等のネットワークを介して観測データを入力するネットワークインターフェースでも良い。
RNNパラメタ記憶部130及び補正パラメタ記憶部150は、それぞれニューラルネットワークの構造に対応したパラメタと、各パラメタの値を記憶する。各パラメタの値は、学習により更新される。
出力部160は、ディスプレイ、プリンタ、磁気ディスクなどで実装される。
入力部100は、ユーザ発話文Xへの応答であるシステム発話文Yとして生成する文の最初の単語を入力として受け付ける。
例えば、生成する文の最初の単語として、返答する発話において文頭となる「Yes」や「No」などを入力として受け付ける。
なお、入力される、文の最初の単語は、ルールベースや分類器などで決定することとする。すなわち、その入力を元にして続く文を生成する際に、本実施形態に係る文生成装置10を用いる。なお、文の最初の単語は、文の開始を示す「start」記号等でもよい。
入力変換部110は、単語を、当該単語を表す第1の固定長ベクトルに変換する。
具体的には、入力変換部110は、入力部100により入力された文の最初の単語、又は出力部160から渡された単語を入力とし、入力された単語を固定長ベクトル

(第1の固定長ベクトル)に変換する。
より具体的には、各単語にあらかじめ固定長ベクトルを割り振っておき、入力単語に対応する単語の固定長ベクトルを得る。この固定長ベクトルの次元数は任意の値Nとする。
そして、入力変換部110は、変換した固定長ベクトル

を、生成部120及び補正部140へ渡す。
生成部120は、入力変換部110により単語を変換した第1の固定長ベクトルと、当該単語までの単語の系列、又はユーザ発話を表す第2の固定長ベクトルとから、次の単語を予測するための予め学習されたニューラルネットワークを用いて、当該単語までの単語の系列を表す第2の固定長ベクトルを生成する。
具体的には、まず、生成部120は、当該単語までの単語の系列を表す固定長ベクトル

(第2の固定長ベクトル)を生成する。
ここで、最初の単語を入力された際の

、すなわち、

は、任意の固定長ベクトルであり、本実施形態では、ユーザ発話文Xに対応した固定長ベクトルとするが、ゼロベクトル等でもよい。
また、生成部120は、最初の単語を入力された際に、文生成装置10が予め保持している

を入力とする。
ユーザ発話文Xに対応する固定長ベクトルは、システム発話文Yの第2の固定長ベクトルを生成するのと同様の手順により、ユーザ発話文Xを構成する単語を用いて予め生成したものとする。具体的には、入力変換部110及び生成部120と同様の処理を繰り返すことにより、ユーザ発話文Xに対応する固定長ベクトルを生成する。ただし、その際、入力変換部110は、出力部160から出力される単語の代わりに、ユーザ発話文Xを構成する単語を用いることとする。
次に、生成部120は、RNNパラメタ記憶部130から次の単語を予測するための予め学習されたRNNのパラメタ



、及び

を取得し、入力変換部110が変換した単語を表す第1の固定長ベクトル

、及び第2の固定長ベクトル

を入力として、RNNの計算を行う。RNNにより、最初の単語から、現在の単語(t番目までの単語)までの単語列(系列)全体を表す第2の固定長ベクトル

を得る。第2の固定長ベクトルは、入力変換部110で得る第1の固定長ベクトル

と同じN次元とする。
また、

はN×Nの次元数の行列、

はN×Nの次元数の行列、及び

は、N次元のベクトルである。
本実施形態では、RNNに関する制約はなく、長短期記憶メモリ(LSTM)など、任意のRNNを利用可能である。ここでは、例として、エルマン型のRNNによる計算について述べる。長さtの単語列w[1:t]について、終端地点tの単語(RNNへの入力単語)を表す第1の固定長ベクトルを

としたとき、単語列w[1:t]を表す第2の固定長ベクトル

は以下の式(1)を再帰的に計算することで得られる。
ここで、tanhは、固定長ベクトルの各次元にハイパボリックタンジェント関数を適用する関数である。
そして、生成部120は、生成した第2の固定長ベクトル

を出力部160に渡す。
RNNパラメタ記憶部130は、次の単語を予測するための予め学習されたRNNのパラメタを記憶している。
具体的には、RNNパラメタ記憶部130は、後述の文生成学習装置20によって予め学習されたニューラルネットワークのパラメタ



、及び

を記憶している。
また、次の単語を予測するためのニューラルネットワークであるRNNの構造と、各パラメタの初期値は、学習前に任意の値に設定することができる。ただし、その際、入力層(入力変換部110への入力を受け取る部分に相当)と、出力層(出力部160で

を出力する部分に相当)とは、学習データに出現する単語(生成に用いる単語)の語彙数に対応した次元数(M次元)に設定するものとする。
補正部140は、入力変換部110により得られた第1の固定長ベクトルから、第2の固定長ベクトルを補正するための予め学習されたニューラルネットワークを用いて、第2の固定長ベクトルを補正するための補正用ベクトルを生成する。
具体的には、補正部140は、まず、補正パラメタ記憶部150から第1の固定長ベクトル

を補正するための予め学習されたニューラルネットワークのパラメタ


及び

を取得する。
なお、第2の固定長ベクトルを補正するためのニューラルネットワークの構造は、RNNの構造に従って決定される。
また、

は、M×N次元の行列、

は、M次元のベクトルである。
次に、補正部140は、入力変換部110で得た第1の固定長ベクトル

を入力とし、RNNの出力である第2の固定長ベクトルを補正する補正用ベクトルを以下の式(2)により計算する。
ここで、

は固定長ベクトルの各次元にシグモイド関数を適用する関数である。つまり、補正用ベクトル

は各次元の値が0から1までの実数値を取るベクトルであり、補正用ベクトル

の各次元は、学習データに出現する単語に対応する。
すなわち、補正部140は、入力変換部110で得た単語を表す第1の固定長ベクトル

を入力とする、順伝播型のニューラルネットワークとする。ただし、RNNや、CNN等、他のニューラルネットワークでもよい。
そして、補正部140は、生成した補正用ベクトル

を出力部160に渡す。
補正パラメタ記憶部150は、第2の固定長ベクトルを補正するための予め学習されたニューラルネットワークのパラメタを記憶している。
具体的には、第1の固定長ベクトル

を入力とし、第2の固定長ベクトルを補正するための、後述の文生成学習装置20によって予め学習されたニューラルネットワークのパラメタ


及び

を記憶している。
出力部160は、第2の固定長ベクトルと、補正用ベクトルとに基づいて、第2の固定長ベクトルを補正した上で、各単語の出現確率を表すベクトルを計算し、各単語の出現確率を表すベクトルに応じて選択される単語を、次の単語として出力する。
具体的には、出力部160は、生成部120から取得したRNNの出力である第2の固定長ベクトル

と、補正部140から取得した補正用ベクトル

とを用い、各単語が生成される確率を示した確率分布

を以下の式(3)で計算する。
ここで、

は、RNNの出力した第2の固定長ベクトル

から、RNNのパラメタである行列

とベクトル

によって変換した、各次元が学習データに出現する単語に対応するベクトル、

は、ベクトルの次元同士の積を計算する演算子、softmax(・)は、与えられたベクトルの各次元の値を0から1までの値に変換するソフトマックス関数である。
また、

は、M×Nの次元数である行列、

は、M次元のベクトルである。
すなわち、本実施形態では、RNNの出力である第2の固定長ベクトル

と、補正部140で生成した補正用ベクトル

とに基づいて、各単語の出現確率を表すベクトル

を計算する。
そして、出力部160は、各単語の出現確率を表すベクトル

に基づいて、最も確率の高い次元に対応する単語をt+1番目の出力単語として得る(図3)。
そして、出力部160は、出力単語が文末を表す記号(終了記号)でなければ、出力単語を次の単語として、入力変換部110に渡す。
一方、出力部160は、出力単語が終了記号であれば、出力部160が順次出力した単語を用いて、文を生成する。
具体的には、出力部160は、最初の入力単語とこれまでに出力部160が出力した単語列(w1とw[2:t+1])を用いて、システム発話文Yを生成する。
図4に、Yesを文の最初の単語として入力した場合の、生成された出力文の例を示す。
なお、出力部160では、毎回の出力において、確率の最も高い単語を選び、文を生成するだけでなく、確率の高い単語をいくつか最終出力の候補として出力することも可能である。
この場合、候補単語の数を予め定めておくか、確率の高さに閾値を設ける等して、最終出力となる候補単語を複数生成し、複数の文を生成するようにしてもよい。また、出力部160は、生成された複数の文から、確率の高い複数の文を最終出力として出力するようにしてもよい。
また、対話システムにおいては、前の対話と矛盾しないかを選択するルールや分類器を別途用意し、生成された複数の文から1文を選択するようにしてもよい。
そして、出力部160は、生成した文を出力部160に渡す。
出力部160は、出力部160が生成した文を出力する。
<本発明の実施の形態に係る文生成装置の作用>
図5は、本発明の実施の形態に係る文生成処理ルーチンを示すフローチャートである。
入力部100にユーザ発話文Xへの応答であるシステム発話文Yとして生成する文の最初の単語が入力されると、文生成装置10において、図5に示す文生成処理ルーチンが実行される。
まず、ステップS100において、入力変換部110は、入力された最初の単語、又は後述するステップS140で選択された単語を、単語を表す第1の固定長ベクトルに変換する。
次に、ステップS110において、生成部120は、上記ステップS100で単語を変換した第1の固定長ベクトルと、当該単語までの単語の系列を表す第2の固定長ベクトル、又はユーザ発話文Xを表す第2の固定長ベクトルとから、次の単語を予測するための予め学習されたニューラルネットワークを用いて、当該単語までの単語の系列を表す第2の固定長ベクトルを生成する。
ステップS120において、補正部140は、上記ステップS100で得られた第1の固定長ベクトルから、第2の固定長ベクトルを補正するための予め学習されたニューラルネットワークを用いて、第2の固定長ベクトルを補正するための補正用ベクトルを生成する。
ステップS130において、出力部160は、上記ステップS110で得られた第2の固定長ベクトルと、上記ステップS120で得られた補正用ベクトルとに基づいて、第2の固定長ベクトルを補正した上で、各単語の出現確率を表すベクトルを計算する。
ステップS140において、出力部160は、各単語の出現確率を表すベクトルに応じて選択される単語を、次の単語として出力する。
ステップS150において、出力部160は、上記ステップS140で選択された単語が、終了記号か否かを判断する。
選択された単語が終了記号でない場合(ステップS150のNO)、上記ステップS100に戻り、選択された単語を入力変換部110に入力して、入力変換部110による変換、生成部120による生成、補正部140による生成、及び出力部160による出力(ステップS100〜ステップS140)を繰り返す。
一方、選択された単語が終了記号である場合(ステップS150のYES)、ステップS160において、出力部160は、上記ステップS140で選択された各単語を用いて文を生成し、出力部160が、当該生成された文を出力して、文生成処理ルーチンを終了する。
以上説明したように、本実施形態に係る文生成装置によれば、第2の固定長ベクトルを補正するための補正用ベクトルを生成し、第2の固定長ベクトルと、補正用ベクトルとに基づいて、各単語の出現確率を表すベクトルを計算し、各単語の出現確率を表すベクトルに応じて選択される単語を、次の単語として出力することにより、文法的誤りが少なく、かつ、可読性の高い文を生成することができる。
<本発明の実施の形態に係る文生成学習装置の概要>
次に、本発明の実施の形態に係る文生成装置の概要について説明する。
RNNと補正部内のパラメタは、タスクに応じた学習データを用いて決定される。
例えば、対話システムにおいては、英語のみや日本語のみのような、単一の言語で生成された対話履歴を学習データとして用いる。なお、新聞などの文書データを学習データとして用いてもよい。RNNと補正部内のパラメタ学習には同一のデータを用いる。
学習後、パラメタは固定される。このパラメタが文生成の精度を決定する。
RNNと補正部内のパラメタは同時に学習することも、一方のみを学習することも可能である。例えば、一方を学習済みの値で固定し、もう一方をさらに学習することも可能である。
パラメタは、学習データ中の文を生成できるように学習する。
<本発明の実施の形態に係る文生成学習装置の構成>
次に、本発明の実施の形態に係る文生成装置の構成について説明する。図6は、本発明の実施の形態に係る文生成学習装置の構成を示す概略図である。
文生成学習装置20は、入力された学習データ30から、ニューラルネットワークにより出力される各単語の出現確率を表すベクトルにおいて、次の単語に対応する正解文の単語の確率が高くなるように、次の単語を予測するためのニューラルネットワークであるRNN、及び第2の固定長ベクトルを補正するためのニューラルネットワークを学習する。
文生成学習装置20は、CPUと、RAMと、後述する文生成学習処理ルーチンを実行するためのプログラムを記憶したROMとを備えたコンピュータで構成され、機能的には次に示すように構成されている。
図6に示すように、文生成学習装置20は、入力部200と、学習データ変換部210と、生成部220と、RNNパラメタ記憶部230と、補正部240と、補正パラメタ記憶部250と、出力部260と、学習部270とを含んで構成される。
文生成学習装置20は、学習データ変換部210、生成部220、補正部240、出力部260、及び学習部270による各処理を繰り返すことにより、次の単語を予測するためのニューラルネットワークであるRNN、及び第2の固定長ベクトルを補正するためのニューラルネットワークを学習する。
入力部200は、既知のキーボード、記憶装置などの入力器により実現される。また、入力部200は、インターネット等のネットワークを介して観測データを入力するネットワークインターフェースでも良い。
入力部200は、学習データ30の入力を受け付ける。
ここで、学習データ30は、ユーザ発話文と、当該ユーザ発話文に対するシステム発話文(正解文)の対を、少なくとも1組以上含んで構成される。ただし、前記学習データは、実際にユーザまたはシステムが発話したものである必要はなく、2人のユーザ間(またはシステム間)の対話における1人の発話をユーザ発話文とし、もう1人の発話をシステム発話文として用いてもよい。
学習データ変換部210は、学習データとして予め用意された各文の単語を、単語を表す第1の固定長ベクトルに変換する。
具体的には、学習データ変換部210は、まず、学習データのユーザ発話文の最初の単語を入力として、最初の単語を第1の固定長ベクトルに変換する。
また、学習データ変換部210は、学習部270から現在の単語の処理が終了した旨の通知を受けると、正解文の次の単語を入力として、文生成装置10における入力変換部110と同様に、次の単語を第1の固定長ベクトルに変換する。
そして、学習データ変換部210は、変換した第1の固定長ベクトル

を、生成部220及び補正部240へ渡す。
また、学習データ変換部210は、学習データのシステム発話文の各単語を入力として、同様に、第1の固定長ベクトルに変換する。
生成部220は、学習データ変換部210により単語を変換した第1の固定長ベクトルと、当該単語までの単語の系列を表す第2の固定長ベクトルとから、次の単語を予測するためのニューラルネットワークであるRNNを用いて、当該単語の次の単語までの単語の系列を表す第2の固定長ベクトルを生成する。
具体的には、まず、生成部220は、文生成装置10における生成部120と同様に、当該単語までの単語の系列を表す第2の固定長ベクトル

を入力とする。
また、生成部220は、最初の単語を入力された際には、文生成学習装置20が予め保持している

を入力とする。
次に、生成部220は、RNNパラメタ記憶部230から次の単語を予測するためのRNNのパラメタ



、及び

を取得し、学習データ変換部210が変換した第1の固定長ベクトル

、及び第2の固定長ベクトル

を入力として、RNNの計算を行う。RNNにより、最初の単語から、次の単語(t番目の単語)までの単語列(系列)全体を表す第2の固定長ベクトル

を上述の式(1)を用いて計算して得る。
そして、生成部220は、生成した第2の固定長ベクトル

を出力部260に渡す。
RNNパラメタ記憶部230は、次の単語を予測するためのRNNのパラメタ

と、

と、

とを記憶している。
補正部240は、学習データ変換部により得られた第1の固定長ベクトルから、第2の固定長ベクトルを補正するためのニューラルネットワークを用いて、第2の固定長ベクトルを補正するための補正用ベクトルを生成する。
具体的には、補正部240は、まず、補正パラメタ記憶部250から第1の固定長ベクトル

を補正するためのニューラルネットワークのパラメタ


及び

を取得する。
次に、補正部240は、文生成装置10における補正部140と同様に、学習データ変換部210で得た第1の固定長ベクトル

を入力とし、RNNの出力である第2の固定長ベクトルを補正する補正用ベクトルを上述の式(2)により計算する。
そして、補正部240は、生成した補正用ベクトル

を出力部260に渡す。
補正パラメタ記憶部250は、第2の固定長ベクトルを補正するためのニューラルネットワークのパラメタ

と、

とを記憶している。
出力部260は、第2の固定長ベクトルと、補正用ベクトルとに基づいて、第2の固定長ベクトルを補正した上で、各単語の出現確率を表すベクトルを計算し、各単語の出現確率を表すベクトルに応じて選択される単語を、次の単語として出力する。
具体的には、出力部260は、文生成装置10における出力部160と同様に、生成部220から取得したRNNの出力である第2の固定長ベクトル

と、補正部240で生成した補正用ベクトル

とに基づいて、各単語の出現確率を表すベクトル

を、上述の式(3)により計算する。
そして、出力部160は、各単語の出現確率を表すベクトル

を学習部270に渡す。
学習部270は、現在の単語がユーザ発話文に含まれるものであった場合、学習データ変換部210に、現在の単語の処理が終了した旨を通知する。現在の単語が、正解文であるシステム発話文に含まれるものであった場合、出力部160により計算された各単語の出現確率を表すベクトルにおいて、次の単語に対応する正解文の単語の確率が高くなるように、次の単語を予測するためのニューラルネットワークであるRNN、及び第2の固定長ベクトルを補正するためのニューラルネットワークを学習する。
具体的には、学習部270は、各単語の出現確率を表すベクトル

について、学習データの正解文中で次に出現している単語の確率が高くなるよう、誤差逆伝播を用いて、RNN、及び第1の固定長ベクトル

を補正するためのニューラルネットワークを学習する。
そして、学習部270は、RNNパラメタ記憶部230に記憶されている、次の単語を予測するためのRNNのパラメタ

と、

と、

と、

と、

と、補正パラメタ記憶部250に記憶されている、第1の固定長ベクトル

を補正するためのニューラルネットワークのパラメタ

と、

とを更新する。
そして、学習部270は、学習データ変換部210に、現在の単語の処理が終了した旨を通知する。
学習データ変換部210は、次の単語である2単語目を入力とする。また、上述したように、学習データ変換部210による変換、生成部220による生成、補正部240による生成、出力部260による出力、及び学習部270による学習を繰り返すことにより、正解文であるシステム発話文の各単語について、当該単語の出力確率が高くなるように、次の単語を予測するためのニューラルネットワークであるRNN、及び第1の固定長ベクトルを補正するためのニューラルネットワークを学習し、各パラメタを更新する。
また、学習データの、ユーザ発話文とシステム発話文とからなる1組を用いた学習が終わった時点で、第2の固定長ベクトル

をゼロベクトルにリセットし、次のユーザ発話文とシステム発話文とからなる1組を用いた学習を行う。
また、学習データ30中の最後のユーザ発話文とシステム発話文とからなる1組を用いた学習が終了した場合、最初の1組に戻り、再び学習を行う。そして、学習データ30中の各組の生成確率が十分高くなるまで、この手続きを繰り返し、次の単語を予測するためのニューラルネットワークであるRNN、及び第1の固定長ベクトルを補正するためのニューラルネットワークのパラメタを更新する。
<本発明の実施の形態に係る文生成学習装置の作用>
図7は、本発明の実施の形態に係る文生成学習処理ルーチンを示すフローチャートである。
入力部200に学習データが入力されると、文生成学習装置20において、図7に示す文生成学習処理ルーチンが実行される。
まず、ステップS170において、学習データ変換部210は、学習データのユーザ発話文の単語を、単語を表す第1の固定長ベクトルに変換する。
次に、ステップS180において、生成部220は、上記ステップS170で単語を変換した第1の固定長ベクトルと、初期化された第2の固定長ベクトル、又はユーザ発話文の当該単語までの単語の系列を表す第2の固定長ベクトルとから、次の単語を予測するためのニューラルネットワークであるRNNを用いて、当該単語の次の単語までの単語の系列を表す第2の固定長ベクトルを生成する。
ステップS190において、ユーザ発話文の全ての単語について上記ステップS170〜ステップS180の処理を行ったか否かを判定し、上記ステップS170〜ステップS180の処理を行っていない単語が存在する場合(ステップS190のNO)には、上記ステップS170へ戻り、当該単語について第1の固定長ベクトルに変換する。
一方、ユーザ発話文の全ての単語について上記ステップS170〜ステップS180の処理を行った場合(ステップS190のYES)には、ステップS200へ移行する。
ステップS200において、学習データ変換部210は、学習データとして予め用意された正解文の単語を、単語を表す第1の固定長ベクトルに変換する。
ステップS210において、生成部220は、上記ステップS200で単語を変換した第1の固定長ベクトルと、学習データに含まれる当該正解文と組とされた第2の固定長ベクトル、又は正解文の当該単語までの単語の系列を表す第2の固定長ベクトルとから、次の単語を予測するためのニューラルネットワークであるRNNを用いて、当該単語の次の単語までの単語の系列を表す第2の固定長ベクトルを生成する。
ステップS220において、補正部240は、上記ステップS200で得られた第1の固定長ベクトルから、第2の固定長ベクトルを補正するためのニューラルネットワークを用いて、第2の固定長ベクトルを補正するための補正用ベクトルを生成する。
ステップS230において、出力部260は、上記ステップS210で得られた第2の固定長ベクトルと、上記ステップS220で得られた補正用ベクトルとに基づいて、第2の固定長ベクトルを補正した上で、各単語の出現確率を表すベクトルを計算する。
ステップS240において、学習部270は、上記ステップS230で計算された各単語の出現確率を表すベクトルにおいて、次の単語に対応する正解文の単語の確率が高くなるように、次の単語を予測するためのニューラルネットワークであるRNN、及び第2の固定長ベクトルを補正するためのニューラルネットワークを学習する。
ステップS250において、正解文の全ての単語について上記ステップS200〜ステップS240の処理を行ったか否かを判定し、上記ステップS200〜ステップS240の処理を行っていない単語が存在する場合(ステップS250のNO)には、上記ステップS200へ戻り、当該単語について第1の固定長ベクトルに変換する。
一方、正解文の全ての単語について上記ステップS200〜ステップS240の処理を行った場合(ステップS250のYES)には、ステップS260へ移行する。
ステップS260では、全ての学習データについて、上記ステップS170〜ステップS250の処理を行ったか否かを判定し、上記ステップS200〜ステップS250の処理を行っていない学習データが存在する場合(ステップS260のNO)には、上記ステップS170へ戻り、当該学習データのユーザ発話文の最初の単語について第1の固定長ベクトルに変換する。
一方、全ての学習データについて上記ステップS170〜ステップS250の処理を行った場合(ステップS260のYES)には、ステップS270へ移行する。
ステップS270において、学習部270は、学習が収束したか否かを判定する。具体的には、学習データ30中の各正解文の生成確率が十分高くなったか否かを判断し、学習データ30中の各正解文の生成確率が十分高くなったと判断された場合には、学習が収束したと判定し、学習データ30中の各正解文の生成確率が十分高くなっていないと判断された場合には、学習が収束していないと判定する。
学習が収束していない場合(ステップS270のNO)、上記ステップS170へ戻り、最初の学習データのユーザ発話文の最初の単語について第1の固定長ベクトルに変換する。
一方、学習が収束していた場合(ステップS270のYES)、文生成学習処理ルーチンを終了する。
以上説明したように、本実施形態に係る文生成学習装置によれば、第2の固定長ベクトルを補正するためのニューラルネットワークを用いて、第2の固定長ベクトルを補正するための補正用ベクトルを生成し、第2の固定長ベクトルと、補正用ベクトルとに基づいて、各単語の出現確率を表すベクトルを計算し、各単語の出現確率を表すベクトルに応じて選択される単語を、次の単語として出力し、次の単語に対応する前記正解文の単語の確率が高くなるように、第2の固定長ベクトルを補正するためのニューラルネットワークを学習することにより、文法的誤りが少なく、かつ、可読性の高い文を生成するための文生成装置を学習することができる。
なお、本発明は、上述した実施の形態に限定されるものではなく、この発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。
本実施形態では、対話システムにおける例を用いて説明したが、翻訳や要約など、計算機による文生成が必要な、あらゆる場面に適用することが可能である。この場合には、翻訳したい文や要約したい文書を表す第2の固定長ベクトルと、最初の単語とを入力とすればよい。また、入力される第2の固定長ベクトルが、ゼロベクトル(各次元の値がゼロのベクトル)であってもよい。
また、本実施形態では、文生成学習装置はRNNと補正部内のパラメタを同時に学習する場合について説明したが、一方のみを学習することも可能である。例えば、一方を学習済みのパラメタで固定し、もう一方をさらに学習することも可能である。
また、本願明細書中において、プログラムが予めインストールされている実施形態として説明したが、当該プログラムを、コンピュータ読み取り可能な記録媒体に格納して提供することも可能である。
10 文生成装置
20 文生成学習装置
30 学習データ
100 入力部
110 入力変換部
120 生成部
130 パラメタ記憶部
140 補正部
150 補正パラメタ記憶部
160 出力部
200 入力部
210 学習データ変換部
220 生成部
230 パラメタ記憶部
240 補正部
250 補正パラメタ記憶部
260 出力部
270 学習部

Claims (5)

  1. 入力された単語を第1の固定長ベクトルに変換する入力変換部と、
    前記入力変換部で得た前記第1の固定長ベクトルと、過去に生成された第2の固定長ベクトルとから、次の単語を予測するための予め学習されたニューラルネットワークを用いて、第2の固定長ベクトルを生成する生成部と、
    前記入力変換部で得た前記第1の固定長ベクトルから、前記生成部で生成した前記第2の固定長ベクトルを補正するための予め学習されたニューラルネットワークを用いて、前記第2の固定長ベクトルを補正するための補正用ベクトルを生成する補正部と、
    前記生成部で生成した第2の固定長ベクトルと、前記補正部で得た前記補正用ベクトルとから、各単語の出現確率を表すベクトルを計算し、各単語の出現確率を表すベクトルに応じて選択される単語を、次の単語として出力する出力部と
    を含み、
    前記出力部が出力した単語を前記入力変換部の入力として、前記入力変換部、前記生成部、前記補正部、及び前記出力部での各処理を繰り返すことにより生成した単語を並べた単語列を候補文として生成するものであり、
    前記生成部は、前記入力変換部で得た第1の固定長ベクトルと、過去に生成された第2の固定長ベクトルである、前記単語列中の当該第1の固定長ベクトルに対応する単語の直前の単語までの単語列に対応する第2の固定長ベクトルとから、前記単語列中の当該第1の固定長ベクトルに対応する単語までの単語列に対応する第2の固定長ベクトルを生成する
    文生成装置。
  2. 学習データとして予め用意された正解文の単語を第1の固定長ベクトルに変換する学習データ変換部と、
    前記学習データ変換部で得た前記第1の固定長ベクトルと、過去に生成された第2の固定長ベクトルとから、次の単語を予測するためのニューラルネットワークを用いて、第2の固定長ベクトルを生成する生成部と、
    前記学習データ変換部で得た前記第1の固定長ベクトルから、前記生成部で生成した前記第2の固定長ベクトルを補正するためのニューラルネットワークを用いて、前記第2の固定長ベクトルを補正するための補正用ベクトルを生成する補正部と、
    前記生成部で生成した第2の固定長ベクトルと、前記補正部で得た前記補正用ベクトルとから、各単語の出現確率を表すベクトルを計算し、各単語の出現確率を表すベクトルに応じて選択される単語を、次の単語として出力する出力部と、
    前記出力部で得た単語が、前記正解文の単語の次の単語となるように、前記第2の固定長ベクトルを補正するためのニューラルネットワークを学習する学習部と、
    を含み、
    前記出力部が出力した単語を前記学習データ変換部の入力として、前記学習データ変換部、前記生成部、前記補正部、前記出力部、及び前記学習部での各処理を繰り返す
    文生成学習装置。
  3. 前記学習部は、前記出力部で得た単語が、前記正解文の単語の次の単語となるように、前記次の単語を予測するためのニューラルネットワーク、及び前記第2の固定長ベクトルを補正するためのニューラルネットワークを学習する請求項2記載の文生成学習装置。
  4. 入力変換部が、入力された単語を第1の固定長ベクトルに変換し、
    生成部が、前記入力変換部で得た前記第1の固定長ベクトルと、過去に生成された第2の固定長ベクトルとから、次の単語を予測するための予め学習されたニューラルネットワークを用いて、第2の固定長ベクトルを生成し、
    補正部が、前記入力変換部で得た前記第1の固定長ベクトルから、前記生成部で生成した前記第2の固定長ベクトルを補正するための予め学習されたニューラルネットワークを用いて、前記第2の固定長ベクトルを補正するための補正用ベクトルを生成し、
    出力部が、前記生成部で生成した第2の固定長ベクトルと、前記補正部で得た前記補正用ベクトルとから、各単語の出現確率を表すベクトルを計算し、各単語の出現確率を表すベクトルに応じて選択される単語を、次の単語として出力することを含み、
    前記出力部が出力した単語を前記入力変換部の入力として、前記入力変換部、前記生成部、前記補正部、及び前記出力部での各処理を繰り返すことにより生成した単語を並べた単語列を候補文として生成するものであり、
    前記生成部は、前記入力変換部で得た第1の固定長ベクトルと、過去に生成された第2の固定長ベクトルである、前記単語列中の当該第1の固定長ベクトルに対応する単語の直前の単語までの単語列に対応する第2の固定長ベクトルとから、前記単語列中の当該第1の固定長ベクトルに対応する単語までの単語列に対応する第2の固定長ベクトルを生成する
    文生成方法。
  5. コンピュータを、請求項1記載の文生成装置の各部として機能させるためのプログラム。
JP2017168934A 2017-09-01 2017-09-01 文生成装置、文生成学習装置、文生成方法、及びプログラム Active JP6712973B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017168934A JP6712973B2 (ja) 2017-09-01 2017-09-01 文生成装置、文生成学習装置、文生成方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017168934A JP6712973B2 (ja) 2017-09-01 2017-09-01 文生成装置、文生成学習装置、文生成方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2019046188A true JP2019046188A (ja) 2019-03-22
JP6712973B2 JP6712973B2 (ja) 2020-06-24

Family

ID=65815739

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017168934A Active JP6712973B2 (ja) 2017-09-01 2017-09-01 文生成装置、文生成学習装置、文生成方法、及びプログラム

Country Status (1)

Country Link
JP (1) JP6712973B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111539199A (zh) * 2020-04-17 2020-08-14 中移(杭州)信息技术有限公司 文本的纠错方法、装置、终端、及存储介质
JP2022507189A (ja) * 2019-04-17 2022-01-18 ▲騰▼▲訊▼科技(深▲セン▼)有限公司 言語処理のためのリカレントニューラルネットワークにおける隠れ状態の生成方法及び装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015075706A (ja) * 2013-10-10 2015-04-20 日本放送協会 誤り修正モデル学習装置、及びプログラム
JP2017016384A (ja) * 2015-07-01 2017-01-19 日本放送協会 混合係数パラメータ学習装置、混合生起確率算出装置、及び、これらのプログラム
US20170091168A1 (en) * 2015-09-29 2017-03-30 Apple Inc. Unified language modeling framework for word prediction, auto-completion and auto-correction

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015075706A (ja) * 2013-10-10 2015-04-20 日本放送協会 誤り修正モデル学習装置、及びプログラム
JP2017016384A (ja) * 2015-07-01 2017-01-19 日本放送協会 混合係数パラメータ学習装置、混合生起確率算出装置、及び、これらのプログラム
US20170091168A1 (en) * 2015-09-29 2017-03-30 Apple Inc. Unified language modeling framework for word prediction, auto-completion and auto-correction

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022507189A (ja) * 2019-04-17 2022-01-18 ▲騰▼▲訊▼科技(深▲セン▼)有限公司 言語処理のためのリカレントニューラルネットワークにおける隠れ状態の生成方法及び装置
JP7299317B2 (ja) 2019-04-17 2023-06-27 ▲騰▼▲訊▼科技(深▲セン▼)有限公司 言語処理のためのリカレントニューラルネットワークにおける隠れ状態の生成方法及び装置
CN111539199A (zh) * 2020-04-17 2020-08-14 中移(杭州)信息技术有限公司 文本的纠错方法、装置、终端、及存储介质
CN111539199B (zh) * 2020-04-17 2023-08-18 中移(杭州)信息技术有限公司 文本的纠错方法、装置、终端、及存储介质

Also Published As

Publication number Publication date
JP6712973B2 (ja) 2020-06-24

Similar Documents

Publication Publication Date Title
US11797822B2 (en) Neural network having input and hidden layers of equal units
JP6222821B2 (ja) 誤り修正モデル学習装置、及びプログラム
CN111401084B (zh) 一种机器翻译的方法、设备以及计算机可读存储介质
KR101939209B1 (ko) 신경망 기반의 텍스트의 카테고리를 분류하기 위한 장치, 이를 위한 방법 및 이 방법을 수행하기 위한 프로그램이 기록된 컴퓨터 판독 가능한 기록매체
US20220300718A1 (en) Method, system, electronic device and storage medium for clarification question generation
US11227110B1 (en) Transliteration of text entry across scripts
JP6830602B2 (ja) 句構造学習装置、句構造解析装置、方法、及びプログラム
US20180173689A1 (en) Transliteration decoding using a tree structure
JP6312467B2 (ja) 情報処理装置、情報処理方法、およびプログラム
CN112528634A (zh) 文本纠错模型训练、识别方法、装置、设备及存储介质
JP5809381B1 (ja) 自然言語処理システム、自然言語処理方法、および自然言語処理プログラム
CN112329476A (zh) 一种文本纠错方法及装置、设备、存储介质
RU2712101C2 (ru) Предсказание вероятности появления строки с использованием последовательности векторов
CN113655893A (zh) 一种词句生成方法、模型训练方法及相关设备
JP6712973B2 (ja) 文生成装置、文生成学習装置、文生成方法、及びプログラム
CN113806645A (zh) 标签分类***及标签分类模型的训练***
CN109858031B (zh) 神经网络模型训练、上下文预测方法及装置
CN113806646A (zh) 序列标注***及序列标注模型的训练***
CN116629211B (zh) 基于人工智能的写作方法及***
JP6633999B2 (ja) 符号器学習装置、変換装置、方法、及びプログラム
JP2017142746A (ja) 単語ベクトル学習装置、自然言語処理装置、方法、及びプログラム
Zhang et al. Byte-level recursive convolutional auto-encoder for text
JP2018077677A (ja) 文字列変換装置、モデル学習装置、方法、及びプログラム
WO2022185457A1 (ja) 特徴量抽出装置、学習装置、特徴量抽出方法、学習方法、及びプログラム
JP7455000B2 (ja) 変換装置、学習装置、およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190826

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200424

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200526

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200602

R150 Certificate of patent or registration of utility model

Ref document number: 6712973

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150