JP2019046188A - 文生成装置、文生成学習装置、文生成方法、及びプログラム - Google Patents
文生成装置、文生成学習装置、文生成方法、及びプログラム Download PDFInfo
- Publication number
- JP2019046188A JP2019046188A JP2017168934A JP2017168934A JP2019046188A JP 2019046188 A JP2019046188 A JP 2019046188A JP 2017168934 A JP2017168934 A JP 2017168934A JP 2017168934 A JP2017168934 A JP 2017168934A JP 2019046188 A JP2019046188 A JP 2019046188A
- Authority
- JP
- Japan
- Prior art keywords
- word
- unit
- fixed
- vector
- length vector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Machine Translation (AREA)
Abstract
Description
前記出力部が出力した単語を前記入力変換部の入力として、前記入力変換部、前記生成部、前記補正部、及び前記出力部での各処理を繰り返すことにより生成した単語を並べた単語列を候補文として生成するものであり、前記生成部は、前記入力変換部で得た第1の固定長ベクトルと、過去に生成された第2の固定長ベクトルである、前記単語列中の当該第1の固定長ベクトルに対応する単語の直前の単語までの単語列に対応する第2の固定長ベクトルとから、前記単語列中の当該第1の固定長ベクトルに対応する単語までの単語列に対応する第2の固定長ベクトルを生成する。
上述の課題は、過去の全単語をひとつのベクトルで表現しており、各単語が過去のどの地点に出現したかを明示的に扱えず、長期の依存関係と、直近の単語との依存関係の区別ができないことに起因する。
本発明の実施の形態に係る文生成装置の構成について説明する。図2は、本発明の実施の形態に係る文生成装置の構成を示す概略図である。
(第1の固定長ベクトル)に変換する。
より具体的には、各単語にあらかじめ固定長ベクトルを割り振っておき、入力単語に対応する単語の固定長ベクトルを得る。この固定長ベクトルの次元数は任意の値Nとする。
を、生成部120及び補正部140へ渡す。
(第2の固定長ベクトル)を生成する。
、すなわち、
は、任意の固定長ベクトルであり、本実施形態では、ユーザ発話文Xに対応した固定長ベクトルとするが、ゼロベクトル等でもよい。
を入力とする。
、
、及び
を取得し、入力変換部110が変換した単語を表す第1の固定長ベクトル
、及び第2の固定長ベクトル
を入力として、RNNの計算を行う。RNNにより、最初の単語から、現在の単語(t番目までの単語)までの単語列(系列)全体を表す第2の固定長ベクトル
を得る。第2の固定長ベクトルは、入力変換部110で得る第1の固定長ベクトル
と同じN次元とする。
はN×Nの次元数の行列、
はN×Nの次元数の行列、及び
は、N次元のベクトルである。
としたとき、単語列w[1:t]を表す第2の固定長ベクトル
は以下の式(1)を再帰的に計算することで得られる。
を出力部160に渡す。
具体的には、RNNパラメタ記憶部130は、後述の文生成学習装置20によって予め学習されたニューラルネットワークのパラメタ
、
、及び
を記憶している。
を出力する部分に相当)とは、学習データに出現する単語(生成に用いる単語)の語彙数に対応した次元数(M次元)に設定するものとする。
を補正するための予め学習されたニューラルネットワークのパラメタ
、
及び
を取得する。
は、M×N次元の行列、
は、M次元のベクトルである。
を入力とし、RNNの出力である第2の固定長ベクトルを補正する補正用ベクトルを以下の式(2)により計算する。
は固定長ベクトルの各次元にシグモイド関数を適用する関数である。つまり、補正用ベクトル
は各次元の値が0から1までの実数値を取るベクトルであり、補正用ベクトル
の各次元は、学習データに出現する単語に対応する。
を入力とする、順伝播型のニューラルネットワークとする。ただし、RNNや、CNN等、他のニューラルネットワークでもよい。
を出力部160に渡す。
を入力とし、第2の固定長ベクトルを補正するための、後述の文生成学習装置20によって予め学習されたニューラルネットワークのパラメタ
、
及び
を記憶している。
と、補正部140から取得した補正用ベクトル
とを用い、各単語が生成される確率を示した確率分布
を以下の式(3)で計算する。
は、RNNの出力した第2の固定長ベクトル
から、RNNのパラメタである行列
とベクトル
によって変換した、各次元が学習データに出現する単語に対応するベクトル、
は、ベクトルの次元同士の積を計算する演算子、softmax(・)は、与えられたベクトルの各次元の値を0から1までの値に変換するソフトマックス関数である。
は、M×Nの次元数である行列、
は、M次元のベクトルである。
と、補正部140で生成した補正用ベクトル
とに基づいて、各単語の出現確率を表すベクトル
を計算する。
に基づいて、最も確率の高い次元に対応する単語をt+1番目の出力単語として得る(図3)。
図5は、本発明の実施の形態に係る文生成処理ルーチンを示すフローチャートである。
次に、本発明の実施の形態に係る文生成装置の概要について説明する。
次に、本発明の実施の形態に係る文生成装置の構成について説明する。図6は、本発明の実施の形態に係る文生成学習装置の構成を示す概略図である。
を、生成部220及び補正部240へ渡す。
を入力とする。
を入力とする。
、
、及び
を取得し、学習データ変換部210が変換した第1の固定長ベクトル
、及び第2の固定長ベクトル
を入力として、RNNの計算を行う。RNNにより、最初の単語から、次の単語(t番目の単語)までの単語列(系列)全体を表す第2の固定長ベクトル
を上述の式(1)を用いて計算して得る。
を出力部260に渡す。
と、
と、
とを記憶している。
を補正するためのニューラルネットワークのパラメタ
、
及び
を取得する。
を入力とし、RNNの出力である第2の固定長ベクトルを補正する補正用ベクトルを上述の式(2)により計算する。
を出力部260に渡す。
と、
とを記憶している。
と、補正部240で生成した補正用ベクトル
とに基づいて、各単語の出現確率を表すベクトル
を、上述の式(3)により計算する。
を学習部270に渡す。
について、学習データの正解文中で次に出現している単語の確率が高くなるよう、誤差逆伝播を用いて、RNN、及び第1の固定長ベクトル
を補正するためのニューラルネットワークを学習する。
と、
と、
と、
と、
と、補正パラメタ記憶部250に記憶されている、第1の固定長ベクトル
を補正するためのニューラルネットワークのパラメタ
と、
とを更新する。
をゼロベクトルにリセットし、次のユーザ発話文とシステム発話文とからなる1組を用いた学習を行う。
図7は、本発明の実施の形態に係る文生成学習処理ルーチンを示すフローチャートである。
20 文生成学習装置
30 学習データ
100 入力部
110 入力変換部
120 生成部
130 パラメタ記憶部
140 補正部
150 補正パラメタ記憶部
160 出力部
200 入力部
210 学習データ変換部
220 生成部
230 パラメタ記憶部
240 補正部
250 補正パラメタ記憶部
260 出力部
270 学習部
Claims (5)
- 入力された単語を第1の固定長ベクトルに変換する入力変換部と、
前記入力変換部で得た前記第1の固定長ベクトルと、過去に生成された第2の固定長ベクトルとから、次の単語を予測するための予め学習されたニューラルネットワークを用いて、第2の固定長ベクトルを生成する生成部と、
前記入力変換部で得た前記第1の固定長ベクトルから、前記生成部で生成した前記第2の固定長ベクトルを補正するための予め学習されたニューラルネットワークを用いて、前記第2の固定長ベクトルを補正するための補正用ベクトルを生成する補正部と、
前記生成部で生成した第2の固定長ベクトルと、前記補正部で得た前記補正用ベクトルとから、各単語の出現確率を表すベクトルを計算し、各単語の出現確率を表すベクトルに応じて選択される単語を、次の単語として出力する出力部と
を含み、
前記出力部が出力した単語を前記入力変換部の入力として、前記入力変換部、前記生成部、前記補正部、及び前記出力部での各処理を繰り返すことにより生成した単語を並べた単語列を候補文として生成するものであり、
前記生成部は、前記入力変換部で得た第1の固定長ベクトルと、過去に生成された第2の固定長ベクトルである、前記単語列中の当該第1の固定長ベクトルに対応する単語の直前の単語までの単語列に対応する第2の固定長ベクトルとから、前記単語列中の当該第1の固定長ベクトルに対応する単語までの単語列に対応する第2の固定長ベクトルを生成する
文生成装置。 - 学習データとして予め用意された正解文の単語を第1の固定長ベクトルに変換する学習データ変換部と、
前記学習データ変換部で得た前記第1の固定長ベクトルと、過去に生成された第2の固定長ベクトルとから、次の単語を予測するためのニューラルネットワークを用いて、第2の固定長ベクトルを生成する生成部と、
前記学習データ変換部で得た前記第1の固定長ベクトルから、前記生成部で生成した前記第2の固定長ベクトルを補正するためのニューラルネットワークを用いて、前記第2の固定長ベクトルを補正するための補正用ベクトルを生成する補正部と、
前記生成部で生成した第2の固定長ベクトルと、前記補正部で得た前記補正用ベクトルとから、各単語の出現確率を表すベクトルを計算し、各単語の出現確率を表すベクトルに応じて選択される単語を、次の単語として出力する出力部と、
前記出力部で得た単語が、前記正解文の単語の次の単語となるように、前記第2の固定長ベクトルを補正するためのニューラルネットワークを学習する学習部と、
を含み、
前記出力部が出力した単語を前記学習データ変換部の入力として、前記学習データ変換部、前記生成部、前記補正部、前記出力部、及び前記学習部での各処理を繰り返す
文生成学習装置。 - 前記学習部は、前記出力部で得た単語が、前記正解文の単語の次の単語となるように、前記次の単語を予測するためのニューラルネットワーク、及び前記第2の固定長ベクトルを補正するためのニューラルネットワークを学習する請求項2記載の文生成学習装置。
- 入力変換部が、入力された単語を第1の固定長ベクトルに変換し、
生成部が、前記入力変換部で得た前記第1の固定長ベクトルと、過去に生成された第2の固定長ベクトルとから、次の単語を予測するための予め学習されたニューラルネットワークを用いて、第2の固定長ベクトルを生成し、
補正部が、前記入力変換部で得た前記第1の固定長ベクトルから、前記生成部で生成した前記第2の固定長ベクトルを補正するための予め学習されたニューラルネットワークを用いて、前記第2の固定長ベクトルを補正するための補正用ベクトルを生成し、
出力部が、前記生成部で生成した第2の固定長ベクトルと、前記補正部で得た前記補正用ベクトルとから、各単語の出現確率を表すベクトルを計算し、各単語の出現確率を表すベクトルに応じて選択される単語を、次の単語として出力することを含み、
前記出力部が出力した単語を前記入力変換部の入力として、前記入力変換部、前記生成部、前記補正部、及び前記出力部での各処理を繰り返すことにより生成した単語を並べた単語列を候補文として生成するものであり、
前記生成部は、前記入力変換部で得た第1の固定長ベクトルと、過去に生成された第2の固定長ベクトルである、前記単語列中の当該第1の固定長ベクトルに対応する単語の直前の単語までの単語列に対応する第2の固定長ベクトルとから、前記単語列中の当該第1の固定長ベクトルに対応する単語までの単語列に対応する第2の固定長ベクトルを生成する
文生成方法。 - コンピュータを、請求項1記載の文生成装置の各部として機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017168934A JP6712973B2 (ja) | 2017-09-01 | 2017-09-01 | 文生成装置、文生成学習装置、文生成方法、及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017168934A JP6712973B2 (ja) | 2017-09-01 | 2017-09-01 | 文生成装置、文生成学習装置、文生成方法、及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019046188A true JP2019046188A (ja) | 2019-03-22 |
JP6712973B2 JP6712973B2 (ja) | 2020-06-24 |
Family
ID=65815739
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017168934A Active JP6712973B2 (ja) | 2017-09-01 | 2017-09-01 | 文生成装置、文生成学習装置、文生成方法、及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6712973B2 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111539199A (zh) * | 2020-04-17 | 2020-08-14 | 中移(杭州)信息技术有限公司 | 文本的纠错方法、装置、终端、及存储介质 |
JP2022507189A (ja) * | 2019-04-17 | 2022-01-18 | ▲騰▼▲訊▼科技(深▲セン▼)有限公司 | 言語処理のためのリカレントニューラルネットワークにおける隠れ状態の生成方法及び装置 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015075706A (ja) * | 2013-10-10 | 2015-04-20 | 日本放送協会 | 誤り修正モデル学習装置、及びプログラム |
JP2017016384A (ja) * | 2015-07-01 | 2017-01-19 | 日本放送協会 | 混合係数パラメータ学習装置、混合生起確率算出装置、及び、これらのプログラム |
US20170091168A1 (en) * | 2015-09-29 | 2017-03-30 | Apple Inc. | Unified language modeling framework for word prediction, auto-completion and auto-correction |
-
2017
- 2017-09-01 JP JP2017168934A patent/JP6712973B2/ja active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015075706A (ja) * | 2013-10-10 | 2015-04-20 | 日本放送協会 | 誤り修正モデル学習装置、及びプログラム |
JP2017016384A (ja) * | 2015-07-01 | 2017-01-19 | 日本放送協会 | 混合係数パラメータ学習装置、混合生起確率算出装置、及び、これらのプログラム |
US20170091168A1 (en) * | 2015-09-29 | 2017-03-30 | Apple Inc. | Unified language modeling framework for word prediction, auto-completion and auto-correction |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022507189A (ja) * | 2019-04-17 | 2022-01-18 | ▲騰▼▲訊▼科技(深▲セン▼)有限公司 | 言語処理のためのリカレントニューラルネットワークにおける隠れ状態の生成方法及び装置 |
JP7299317B2 (ja) | 2019-04-17 | 2023-06-27 | ▲騰▼▲訊▼科技(深▲セン▼)有限公司 | 言語処理のためのリカレントニューラルネットワークにおける隠れ状態の生成方法及び装置 |
CN111539199A (zh) * | 2020-04-17 | 2020-08-14 | 中移(杭州)信息技术有限公司 | 文本的纠错方法、装置、终端、及存储介质 |
CN111539199B (zh) * | 2020-04-17 | 2023-08-18 | 中移(杭州)信息技术有限公司 | 文本的纠错方法、装置、终端、及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
JP6712973B2 (ja) | 2020-06-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11797822B2 (en) | Neural network having input and hidden layers of equal units | |
JP6222821B2 (ja) | 誤り修正モデル学習装置、及びプログラム | |
CN111401084B (zh) | 一种机器翻译的方法、设备以及计算机可读存储介质 | |
KR101939209B1 (ko) | 신경망 기반의 텍스트의 카테고리를 분류하기 위한 장치, 이를 위한 방법 및 이 방법을 수행하기 위한 프로그램이 기록된 컴퓨터 판독 가능한 기록매체 | |
US20220300718A1 (en) | Method, system, electronic device and storage medium for clarification question generation | |
US11227110B1 (en) | Transliteration of text entry across scripts | |
JP6830602B2 (ja) | 句構造学習装置、句構造解析装置、方法、及びプログラム | |
US20180173689A1 (en) | Transliteration decoding using a tree structure | |
JP6312467B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
CN112528634A (zh) | 文本纠错模型训练、识别方法、装置、设备及存储介质 | |
JP5809381B1 (ja) | 自然言語処理システム、自然言語処理方法、および自然言語処理プログラム | |
CN112329476A (zh) | 一种文本纠错方法及装置、设备、存储介质 | |
RU2712101C2 (ru) | Предсказание вероятности появления строки с использованием последовательности векторов | |
CN113655893A (zh) | 一种词句生成方法、模型训练方法及相关设备 | |
JP6712973B2 (ja) | 文生成装置、文生成学習装置、文生成方法、及びプログラム | |
CN113806645A (zh) | 标签分类***及标签分类模型的训练*** | |
CN109858031B (zh) | 神经网络模型训练、上下文预测方法及装置 | |
CN113806646A (zh) | 序列标注***及序列标注模型的训练*** | |
CN116629211B (zh) | 基于人工智能的写作方法及*** | |
JP6633999B2 (ja) | 符号器学習装置、変換装置、方法、及びプログラム | |
JP2017142746A (ja) | 単語ベクトル学習装置、自然言語処理装置、方法、及びプログラム | |
Zhang et al. | Byte-level recursive convolutional auto-encoder for text | |
JP2018077677A (ja) | 文字列変換装置、モデル学習装置、方法、及びプログラム | |
WO2022185457A1 (ja) | 特徴量抽出装置、学習装置、特徴量抽出方法、学習方法、及びプログラム | |
JP7455000B2 (ja) | 変換装置、学習装置、およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190826 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200424 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200526 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200602 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6712973 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |