JP2019091172A - 句構造学習装置、句構造解析装置、方法、及びプログラム - Google Patents

句構造学習装置、句構造解析装置、方法、及びプログラム Download PDF

Info

Publication number
JP2019091172A
JP2019091172A JP2017218449A JP2017218449A JP2019091172A JP 2019091172 A JP2019091172 A JP 2019091172A JP 2017218449 A JP2017218449 A JP 2017218449A JP 2017218449 A JP2017218449 A JP 2017218449A JP 2019091172 A JP2019091172 A JP 2019091172A
Authority
JP
Japan
Prior art keywords
phrase structure
learning
input sentence
phrase
label
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017218449A
Other languages
English (en)
Other versions
JP6830602B2 (ja
Inventor
英剛 上垣外
Hidetaka Kamigaito
英剛 上垣外
平尾 努
Tsutomu Hirao
努 平尾
林 克彦
Katsuhiko Hayashi
克彦 林
学 奥村
Manabu Okumura
学 奥村
大也 高村
Daiya Takamura
大也 高村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Tokyo Institute of Technology NUC
Original Assignee
Nippon Telegraph and Telephone Corp
Tokyo Institute of Technology NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp, Tokyo Institute of Technology NUC filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2017218449A priority Critical patent/JP6830602B2/ja
Publication of JP2019091172A publication Critical patent/JP2019091172A/ja
Application granted granted Critical
Publication of JP6830602B2 publication Critical patent/JP6830602B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Machine Translation (AREA)

Abstract

【課題】注意機構が精度よく対応付けを出力するように学習するための学習データを生成する句構造学習装置、句構造解析装置、方法、及びプログラムを提供する。【解決手段】句構造学習装置200は、注意機構が精度よく対応付けを出力するように学習するための学習データを生成できるように、入力文と入力文を表す句構造木の各ノードの句構造ラベルからなる句構造ラベル列とに基づいて、句構造解析器に含まれる句構造ラベルに対する入力文の各単語の重みを出力する注意機構を学習するための、単語と句構造ラベルの対応付けからなる学習データを生成する。【選択図】図15

Description

本発明は、句構造学習装置、方法、及びプログラムに係り、特に、文の句構造を解析するための句構造学習装置、句構造解析装置、方法、及びプログラムに関する。
句構造解析は、入力された文の句構造木を計算機によって解析して出力する技術である。図1に句構造木の例を示す。句構造木は句と、その句の階層的な構造によって構成される。
これらの句は、句構造ラベルと、その句を構成する単語集合からなる。句を構成する単語集合は、句構造木における当該句構造ラベルの下位の葉ノードに含まれる単語の集合によって構成される。
ニューラルネットワークを用いた系列に基づく句構造解析法として、非特許文献1等がある。非特許文献1は、明示的な木構造を仮定せず、句構造木を句構造ラベルの系列として解析を行い出力する。非特許文献1をはじめとする従来技術においては、図1に示す句構造木は図2に示すような系列として表現される。系列として表現された句構造木では全ての葉ノードの単語と品詞(句構造ラベルのうち、単語の最も近くにあるラベル。図1ではWP、VBZ、JJを指す。)は図2に示すXXのようにすべて同一のラベルに置換される。また、XXを除くすべてのラベルが句構造ラベルである。このような系列として表現された句構造木を、以後「正規化された句構造木」と呼ぶ。図3に従来技術に基づく句構造解析法の構成図を示す。系列に基づく句構造解析法は、人手によるルールや遷移規則を必要とせず、線形時間で句構造木を出力することが可能である。
Vinyals, O., Kaiser, L ., Koo, T., Petrov, S., Sutskever,I., and Hinton, G. (2015). "Grammar as a foreign language.". In Advancesin Neural Information Processing Systems (pp. 2773-2781).
非特許文献1において、入力される単語列と出力する句構造ラベルの関係は、句構造解析器に含まれる、句構造ラベルに対する、入力文の各単語の重みを出力する注意機構によって計算される分布によって捉えられる。図4に注意機構が出力する各重みの分布の例を示す。各セルは入力単語と出力された句構造ラベルの対応を、黒いセルは注意機構がその対応に高い確率を割り当てたことをそれぞれ表している。注意機構は入力文字列中のどの文字列が重要であるかを解析中に判断する。解析機はその結果を利用して解析結果を出力する。注意機構の出力する分布は明示的な句構造ラベルを与えられることなく、教師なしで学習される。そのために、注意機構が入力文字列と出力文字列の対応関係を正しく学習するとは限らない。この結果、注意機構が出力する誤った対応関係によって、出力される句構造木に誤りが生じる可能性がある。
本発明は、上記問題点を解決するために成されたものであり、注意機構が精度よく対応付けを出力するように学習するための学習データを生成できる句構造学習装置、方法、及びプログラムを提供することを目的とする。
また、本発明は、上記問題点を解決するために成されたものであり、精度よく、句構造解析を行うことができる、句構造解析装置、方法、及びプログラムを提供することを目的とする。
上記目的を達成するために本発明に係る句構造学習装置は、入力文に対する句構造ラベル列を出力する句構造解析器を学習する句構造学習装置であって、前記入力文と、前記入力文を表す句構造木の各ノードの句構造ラベルからなる句構造ラベル列とに基づいて、前記句構造解析器に含まれる、前記句構造ラベルに対する、前記入力文の各単語の重みを出力する注意機構を学習するための、前記単語と前記句構造ラベルの対応付けからなる学習データを生成する学習データ生成部、を含んで構成されている。
また、本発明に係る句構造解析装置は、入力文に対する句構造ラベル列を出力する予め学習された句構造解析器であって、句構造ラベルに対する、前記入力文の各単語の重みを出力する注意機構を含む句構造解析器を用いて、前記入力文を入力とし、前記入力文に対する前記句構造ラベル列を出力する句構造解析部、を含む句構造解析装置であって、前記注意機構は、学習用入力文と、前記学習用入力文を表す句構造木の各ノードの句構造ラベルからなる句構造ラベル列とに基づいて生成された、前記単語と前記句構造ラベルの対応付けからなる学習データに基づいて予め学習されたものとすることを特徴とする。
本発明に係るプログラムは、コンピュータを、句構造学習装置、又は句構造解析装置の各部として機能させるためのプログラムである。
本発明の句構造学習装置、方法、及びプログラムによれば、入力文と、入力文を表す句構造木の各ノードの句構造ラベルからなる句構造ラベル列とに基づいて、句構造解析器に含まれる、句構造ラベルに対する、入力文の各単語の重みを出力する注意機構を学習するための、単語と句構造ラベルの対応付けからなる学習データを生成することにより、注意機構が精度よく対応付けを出力するように学習するための学習データを生成できる、という効果が得られる。
また、本発明の句構造解析装置、方法、及びプログラムによれば、注意機構を含む句構造解析器を用いて、句構造解析を行い、句構造解析器に含まれる注意機構は、学習用入力文と、学習用入力文を表す句構造木の各ノードの句構造ラベルからなる句構造ラベル列とに基づいて生成された、単語と句構造ラベルの対応付けからなる学習データに基づいて予め学習されたものとすることにより、精度よく、句構造解析を行うことができる、という効果が得られる。
句構造解析によって出力される句構造木の一例を示す図である。 句構造木の句構造ラベルの系列の一例を示す図である。 従来の句構造解析法の構成図の一例を示す図である。 注意機構3が出力する各重みの分布の一例を示す図である。 学習フェーズにおける句構造解析器240を構成するニューラルネットワークの一例を示す図である。 実行フェーズにおける句構造解析器40を構成するニューラルネットワークの一例を示す図である。 本発明の実施の形態で用いる入出力の内容を示す図である。 本発明の実施の形態に係る句構造解析装置100の構成を示すブロック図である。 句構造解析器40を構成するニューラルネットワークの構成を示す図である。 ニューラルネットワークを構成するエンコード部1の詳細の一例を示す図である。 ニューラルネットワークを構成するデコード部2の詳細の一例を示す図である。 ニューラルネットワークを構成する注意機構3の詳細の一例を示す図である。 本発明の実施の形態に係る句構造解析装置100における句構造解析処理ルーチンを示すフローチャートである。 句構造解析器40のニューラルネットワークにおける処理ルーチンの詳細の一例を示す図である。 本発明の実施の形態に係る句構造学習装置200の構成を示すブロック図である。 本発明の実施の形態の学習の概要を示す図である。 学習用入力文Xと正解系列Lの一例を示す図である。 学習用入力文を構成する単語と、句構造ラベルとの対応付けの一例を示す図である。 学習用入力文を構成する単語と、句構造ラベルとの対応付けの一例を示す図である。 学習データ生成部230の処理結果として得られた学習データの一例を示す図である。 本発明の実施の形態に係る句構造学習装置200における句構造学習処理ルーチンを示すフローチャートである。 学習データの生成処理ルーチンを示すフローチャートである。
以下、図面を参照して本発明の実施の形態を詳細に説明する。
<本発明の実施の形態に係る概要>
まず、本発明の実施の形態における概要を説明する。
本発明の実施の形態では非特許文献1のような、ニューラルネットワークを用いた系列に基づく句構造解析器において、注意機構に対し、入力文を構成する単語と出力する句構造ラベルの関係を明示的に与えて学習を行う。
注意機構の学習のための学習データは、句構造解析のための学習データをもとに、所定のルールを用いて作成する。具体的には、学習データの句構造木を構成する各句構造ラベルについて、句構造ラベルと、当該句構造ラベルのノードより下位の葉ノードに含まれる単語の集合を、所定のルールにより対応付けることで作成する。出力しようとする句構造ラベルと、その句構造ラベルを頂点とする句に含まれる単語とが対応付くことを正しい対応であると規定し、注意機構を学習するための学習データとする。
このような学習データを用いて注意機構を学習することにより、注意機構が誤った対応関係を含む分布を出力することを防ぎ、句構造解析の精度を向上させることができる。また、注意機構は句構造解析器の内部の処理であり、注意機構のための学習データを別途作成するのはコストが高いが、本手法により句構造解析器の学習データから注意機構のための学習データが作成できる。
以下の本発明の実施の形態の説明では、学習フェーズと、実行フェーズとに分けて説明する。学習フェーズでは、図5に示す句構造解析器240を構成するニューラルネットワークのパラメータを、学習データに基づき決定する。実行フェーズでは、学習フェーズで定義された図6に示す句構造解析器40を構成するニューラルネットワークに基づき入力を処理し、出力は学習済みのパラメータに依存して決定する。
以下、本実施の形態で用いる入出力の例として、図7を用いる。入力文Xにおける各単語の位置をiとし、i={1,…,n}、本例ではn=6である。出力系列Yにおける各句構造ラベルの位置をtとし、t={1, …,m}、本例ではm=15である。
<本発明の実施の形態に係る句構造解析装置の構成>
次に、本発明の実施の形態に係る句構造解析装置の構成について説明する。なお、句構造解析装置において、実行フェーズを処理する。
本発明の実施の形態における句構造解析器40は、処理対象となる文xを入力とし、句構造ラベルyを出力する。次に出力したyを入力とし、yt+1を出力する逐次処理を繰り返し、出力するyが文末記号である</s>となったときに処理を終了する。
図8に示すように、本発明の実施の形態に係る句構造解析装置100は、CPUと、RAMと、後述する句構造解析処理ルーチンを実行するためのプログラムや各種データを記憶したROMと、を含むコンピュータで構成することが出来る。この句構造解析装置100は、機能的には図8に示すように入力部10と、演算部20とを備えている。
入力部10は、入力文を受け付ける。入力文は、文を分割し、文頭と文末記号を付与したものが与えられる。
演算部20は、句構造解析部30と、句構造解析器40とを含んで構成されている。
句構造解析器40は、単語からなる入力文に対する句構造ラベル列を先頭から順に出力する予め学習された句構造解析器であり、ニューラルネットワークにより構成されるものである。また、句構造解析器40は、句構造ラベルに対する、入力文の各単語の重みを出力する注意機構3を含む句構造解析器である。句構造解析器40の学習については、後述する句構造学習装置において説明する。
ここで句構造解析器40のニューラルネットワークの構成について説明する。図9に示すように句構造解析器40を構成するニューラルネットワークは、エンコード部1と、デコード部2と、注意機構3と、出力部4とを含んで構成されている。
エンコード部1は入力文を隠れ状態へと変換する。
デコード部2は、前回出力したラベルyt−1を隠れ状態へと変換する。
注意機構3は、エンコード部1とデコード部2によって変換された隠れ状態を組み合わせて重みづけを行い、入力文の各単語の重みへと変換する。
出力部4は、エンコード部1の隠れ状態を、注意機構3により出力された入力文の各単語の重みに基づき重み付けし、デコード部2の隠れ状態と結合した上で、出力すべきラベルを決定する。
1文の処理につき、エンコード部1での処理は最初の1回のみでよいが、それ以外の部はm−1回処理を繰り返すこととなる。
以下、句構造解析器40を構成するニューラルネットワークの各部の詳細な説明を行う。
図10にエンコード部1の詳細を示す。エンコード部1は入力として1文を受け取り、1文に含まれる単語の系列x={x,…,x,…,x}を、各単語xごとに、実数値の所定次元からなるベクトルhへと変換する。
具体的には、まず入力された単語の系列をi=1からnへ前向きに走査する順方向の再帰型ニューラルネットワークによってl番目の入力単語を隠れ状態ベクトル

に変換する。同様に、入力された単語の系列をi=nから1へと後ろ向きに走査する逆方向の再帰型ニューラルネットによりl番目の入力単語を隠れ状態ベクトル


に変換する。最終的に、


を結合し,hとする.この処理により、hは前方及び後方の単語の変換結果であるh,…,hi−1及び、hi+1,…,hに依存したものとなる。
各単語xをベクトル
または
に変換する際には、予め作成された(単語、単語ベクトル)の組からなるコードブックを用いる。単語ベクトルは、組となる単語の特徴を所定次元からなる空間上の座標として示したものであり、単語分散表現とも呼ばれるものである。本実施の形態では、全入力単語(<s>,</s>を含む)をWとして、次の条件を満たすベクトルを用いるが、非特許文献2に記載の方法等を用い、予め作成されたものを用いてもよい。
条件1:1次元がひとつの単語に対応する、全W次元からなる。
条件2:組となる単語に対応する次元の要素を1に、それ以外の次元の要素を0としたOne-hotベクトルとする。
[非特許文献2]:Tomas Mikolov, Ilya Sutskever, Kai Chen,Greg Corrado, and Jeffrey Dean.Distributed Representations of Words and Phrases and their Compositionality. In Proceedings of NIPS, 2013.
本実施の形態では、単語ベクトルの各要素の値は、ニューラルネットワークのパラメータにより重みづけされる。パラメータは、後述する句構造学習装置の学習により更新される。
図11にデコード部2の詳細を示す。デコード部2は出力部4が前回出力した句構造ラベルyt−1及びenct−1を入力とし、順方向の再帰型ニューラルネットワークによって、入力情報と
とを、実数値の所定次元からなる隠れ状態ベクトル
へと変換して出力する。逐次的に句構造ラベルが入力されるため、変換の結果は以前の句構造ラベルの変換結果である隠れ状態ベクトルの集合
と、エンコード部1の隠れ状態ベクトルh,…,hに注意機構3が重みづけをしたenct−1に依存する。encの詳細は後述する。
句構造ラベルyt−1をベクトルに変換する際には、予め作成された(句構造ラベル,句構造ベクトル)の組からなるコードブックを用いる。全句構造ラベル数をVとしたとき、句構造ベクトルとして次の条件を満たすベクトルを用いる。
条件1:1次元がひとつの句構造ラベルに対応する、全V次元からなる。
条件2:組となる句構造ラベルに対応する次元の要素を1に、それ以外の次元の要素を0としたOne-hotベクトルとする。
デコード部2はt=2より処理を開始することとし、その際の入力としてt=1の句構造ラベルyには<s>を、encには後述する初期値を、デコード部2の初期状態
にはエンコード部1の隠れ状態
を使用する。
図12に注意機構3の詳細を示す。注意機構3は、デコード部2の句構造ラベルの隠れ状態への変換結果
と、エンコード部1の各単語の隠れ状態への変換結果h,…,hを入力として受け取り、各対応の総和が1となるように正規化された重みα をニューラルネットワークにより計算し、分布αとして出力する。注意機構3の初期値α(t=1)は、α =1、それ以外の要素が0のベクトルとしておく。
出力部4では、注意機構3が出力した分布、エンコード部1の各単語の隠れ状態への変換結果h,…,h、デコード部2の句構造ラベルの隠れ状態への変換結果
を受け取り、各句構造ラベルの出力確率を出力する。初めに出力部4は注意機構3が出力した分布αに従い、エンコード部1の変換結果に重み付けを行った総和を以下(1)式により計算する。

…(1)
(1)式の総和とデコード部2の句構造ラベルの変換結果を連結したベクトル

をソフトマックス層に入力し、各句構造ラベルの出力確率を決定する。句構造ラベル数がVの際の句構造ラベルyの出力確率P(y|x,…,x,y,…,yt−1)は、重み行列Wとバイアス項bを用いて以下(2)式で計算される。

…(2)
で計算される。重み行列W及びバイアス項bは、ニューラルネットワークのパラメータである。
最も高い出力確率Pとなるyを句構造解析器40が出力するt番目の句構造ラベルとする。
以上の処理により逐次的に句構造ラベルyを出力し、出力するyが文末記号である</s>となったとき(本実施の形態ではt=14のとき)に処理を終了する。
出力部の初期値として、

は<s>とする。αは注意機構3の初期値を利用する。
以上が、句構造解析器40を構成するニューラルネットワークの各部についての説明である。
句構造解析部30は、句構造解析器40を用いて、入力部10で受け付けた入力文を入力とし、入力文に対する句構造ラベル列を出力する。ここで、句構造解析器に含まれる注意機構3は、学習用入力文と、学習用入力文を表す句構造木の各ノードの句構造ラベルからなる句構造ラベル列であって、正規化された句構造ラベル列とに基づいて生成された、単語と句構造ラベルの対応付けからなる学習データに基づいて予め学習されたものとする。ここで、正規化された句構造ラベル列とは、上記図2について説明したように、葉ノードの単語と品詞について置換を行った後の句構造木の句構造ラベルの系列である。
<本発明の実施の形態に係る句構造解析装置の作用>
次に、本発明の実施の形態に係る句構造解析装置100の作用について説明する。句構造解析装置100は、図13に示す句構造解析処理ルーチンを実行する。
まず、ステップS100では、入力部10において入力文を受け付ける。
ステップS102では、句構造解析器40を用いて、入力部10で受け付けた入力文を入力とし、入力文に対する句構造ラベル列を出力する。
次に、句構造解析器40のニューラルネットワークにおける処理ルーチンの詳細について図14を参照して説明する。
ステップS1000では、t=1とする。
ステップS1002では、エンコード部1において、入力文を受け付け、入力文を隠れ状態へと変換する。
ステップS1004では、ニューラルネットワークの各部における初期値を設定する。
ステップS1006では、t=2とする。
ステップS1008では、デコード部2において、初期ラベル、又は前回出力したラベルyt−1を隠れ状態へと変換する。
ステップS1010では、注意機構3において、エンコード部1とデコード部2によって変換された隠れ状態を組み合わせて重みづけを行い、入力文の各単語の重みへと変換する。
ステップS1012では、出力部4において、エンコード部1の隠れ状態を、注意機構3により出力された入力文の各単語の重みに基づき重み付けし、デコード部2の隠れ状態と結合した上で、出力すべきラベルを決定する。
ステップS1014では、ステップS1012の出力が文末記号</s>ではないかを判定し、文末記号</s>であれば処理を終了し、文末記号</s>でなければステップS1016でt=t+1とカウントアップして処理を繰り返す。なお、tをカウントアップすることをt=t+1と表記する。
以上説明したように、本発明の実施の形態に係る句構造解析装置100によれば、注意機構3を含む句構造解析器40を用いて、句構造解析を行い、句構造解析器40に含まれる注意機構3は、学習用入力文と、学習用入力文を表す句構造木の各ノードの句構造ラベルからなる句構造ラベル列であって、正規化された句構造ラベル列とに基づいて生成された、単語と句構造ラベルの対応付けからなる学習データに基づいて予め学習されたものとすることにより、精度よく、句構造解析を行うことができる。
<本発明の実施の形態に係る句構造学習装置の構成>
次に、本発明の実施の形態に係る句構造学習装置の構成について説明する。なお、句構造学習装置において、学習フェーズを処理する。また、本実施の形態において、ニューラルネットワークのエンコード部1、デコード部2、注意機構3、出力部4は、同時に学習を行うこととするが、別々に学習を行ってもよい。
図15に示すように、本発明の実施の形態に係る句構造学習装置200は、CPUと、RAMと、後述する句構造学習処理ルーチンを実行するためのプログラムや各種データを記憶したROMと、を含むコンピュータで構成することが出来る。この句構造学習装置200は、機能的には図15に示すように入力部210と、演算部220とを備えている。
図16に本実施の形態の学習の概要図を示す。図16は、学習データ生成部の学習データ生成処理と、ニューラルネットワークの学習処理に分けられる。
入力部210は、学習用入力文と、正規化された句構造木とを受け付ける。学習フェーズにおける入力となる学習用入力文は、句構造解析の対象となる文と、その解析結果として正解である句構造ラベル系列の組が複数集められたものとする。本実施の形態では、学習データの一組として図17で提示する学習用入力文Xと正解系列L(正規化された句構造木)の組を例として用い、説明を行う。ここでいう正規化とは、原稿冒頭で述べた、全ての葉ノードの単語と品詞をXX等の同一のラベルにより置換することであり、正規化された句構造木とは、系列として表現され、かつ、正規化された句構造木を指す。
学習用入力文Xにおける各単語の位置をiとし、i={1,…,n}、本実施の形態ではn=6である。正解系列Lにおける各句構造ラベルの位置をtとし、t={1,…,m}、本実施の形態ではm=15である。
演算部220は、学習データ生成部230と、学習部232と、句構造解析器240と、を含んで構成されている。なお、句構造解析器240は、上記句構造解析装置100の句構造解析器40と同様のものであり、句構造学習装置200で学習される句構造解析器を句構造解析器240と表記する。
学習データ生成部230は、学習用入力文と、学習用入力文を表す句構造木の各ノードの句構造ラベルからなる句構造ラベル列であって、正規化された句構造ラベル列とに基づいて、句構造解析器に含まれる、句構造ラベルに対する、学習用入力文の各単語の重みを出力する注意機構3を学習するための、単語と句構造ラベルの対応付けからなる学習データを生成する。
学習データ生成部230における、正解α の作成方法について、以下に詳細に説明する。
学習データ生成部230は、学習用入力文Xと正規化された句構造木Lをもとに、正解の対応付けαを出力する。α は単語xと句構造ラベルlに対応が存在する場合に1を、存在しない場合に0を返す変数である。
学習データ生成部230では正解α を求めるにあたって、学習用入力文を構成する単語と、正規化された句構造木を構成する句構造ラベルとの対応付けを行う。対応付けの例を図18、図19に示す。
正解系列Lにおける、単語とそれに対応する品詞の存在を表す非終端記号XXは、学習用入力文X中の単語と対応付けられる。正解系列Lの、最初と最後を表す<s>,</s>についてはそれぞれ入力文X中の<s>,</s>に対応付けられる。正解系列Lの、非終端記号XX、<s>,</s>以外の句構造ラベルが対応する単語は、木構造を仮定した際に当該句構造ラベルを頂点とする句構造木に含まれる、学習用入力文中の単語の集合から選択される。すわなち、当該句構造ラベルのノードに対する下位の葉ノードである学習用入力文の単語の集合から選択される。選択にあたっては次のいずれかの方法を用いる。
1:当該句構造ラベルを頂点とする句構造木の主辞となる単語を選択
2:当該句構造ラベルを頂点とする句構造木に含まれる単語の集合のうち、最も左の単語を選択
3:当該句構造ラベルを頂点とする句構造木に含まれる単語の集合のうち、最も右の単語を選択
4:句構造ラベルが”("を含む場合、そのラベルを頂点とする句を構成する単語の集合のうち最も左の単語を選択する。句構造ラベルが”)"を含む場合、当該句構造ラベルを頂点とする句構造木に含まれる単語の集合のうち最も右の単語を選択
上記方法1においては、どの単語が句構造木の主辞となるかについて、予め学習データにヘッドルール等から人手でその情報を付与しておくか、別途解析をして付与する必要がある。方法4は、方法2と3を組み合わせたものとなる。
学習データ生成部230では、このように正規化された句構造ラベル列に含まれる句構造ラベルの各々について、句構造ラベルのノードに対する下位の葉ノードである学習用入力文の単語を対応付けることにより学習データを生成する。
本実施の形態では上記4の方法を取ることとし、処理結果を図20に示す。
学習部232は、学習データ生成部230で生成された学習データに基づいて、正解句構造ラベルlを出力部の出力yの正解データとして、注意機構3を含む句構造解析器240について学習を行う。学習方法はニューラルネットワークの学習方法として一般的なものを用いればよい。本実施の形態では、確率的勾配降下法により学習可能なパラメータの最適化を行うこととする。
注意機構3の学習については、学習用入力文の各単語に対応する隠れ状態ベクトルの各々と、一つ前に出力された句構造ラベルに対する隠れ状態ベクトルとを入力として、学習データ生成部230の作成する正解α と、注意機構3の出力する推定α が等しくなるように学習を行う。学習方法はニューラルネットワークの学習方法として一般的なものを用いればよい。本実施の形態では、確率的勾配降下法により学習可能なパラメータの最適化を行うこととする。
<本発明の実施の形態に係る句構造学習装置の作用>
次に、本発明の実施の形態に係る句構造学習装置200の作用について説明する。句構造学習装置200は、図21に示す句構造学習処理ルーチンを実行する。
まず、ステップS200では、学習用入力文と、正規化された句構造木とを受け付ける。
ステップS202では、学習用入力文と、学習用入力文を表す句構造木の各ノードの句構造ラベルからなる句構造ラベル列であって、正規化された句構造ラベル列とに基づいて、句構造解析器240に含まれる、句構造ラベルに対する、学習用入力文の各単語の重みを出力する注意機構3を学習するための、単語と句構造ラベルの対応付けからなる学習データを生成する。
ステップS204では、学習データ生成部230で生成された学習データに基づいて、注意機構3を含む句構造解析器240について、正解句構造ラベルlを出力部の出力yの正解データとして学習を行い、処理を終了する。なお、句構造解析器240のニューラルネットワークにおける処理ルーチンは上記図14と同様であるため説明を省略する。
次に、ステップS202における学習データの生成処理ルーチンの詳細について図22を参照して説明する。
ステップS2000では、t=1とする。
ステップS2002では、i=1とする。
ステップS2004では、正規化された句構造木の句構造ラベルlが<s>(または</s>)であるかを判定し、条件を満たす場合はステップS2006へ移行し、条件を満たさない場合はステップS2008へ移行する。
ステップS2006では、学習用入力文の単語xが<s>(または</s>であるかを判定し、条件を満たす場合はステップS2018へ移行し、条件を満たさない場合はステップS2020へ移行する。
ステップS2008では、正規化された句構造木のlがXXであるかを判定し、条件を満たす場合はステップS2010へ移行し、条件を満たさない場合はステップS2012へ移行する。
ステップS2010では、学習用入力文の単語xが、lのXXに対応するかを判定し、条件を満たす場合はステップS2018へ移行し、条件を満たさない場合はステップS2020へ移行する。
ステップS2012では、lが"("を含むかを判定し、含む場合はステップS2014へ移行し、含まない場合はステップS2016へ移行する。
ステップS2014では、学習用入力文の単語xが、lを頂点とする句構造木に含まれ、かつ最も右であるかを判定し、条満たす場合はステップS2018へ移行し、条件を満たさない場合はステップS2020へ移行する。
ステップS2016では、学習用入力文の単語xが、lを頂点とする句構造木に含まれ、かつ最も左であるかを判定し、条満たす場合はステップS2018へ移行し、条件を満たさない場合はステップS2020へ移行する。
ステップS2018では、αi t=1とする。
ステップS2020では、αi t=0とする。
ステップS2022では、i=i+1とする。なお、iをカウントアップすることをi=i+1と表記する。
ステップS2024では、i>nかを判定し、条満たす場合はステップS2026へ移行し、条件を満たさない場合はステップS2004へ移行する。
ステップS2026では、t<mかを判定し、条満たす場合はステップS2026へ移行し、条件を満たさない場合は処理を終了する。
以上説明したように、本発明の実施の形態に係る句構造学習装置200によれば、入力文と、入力文を表す句構造木の各ノードの句構造ラベルからなる句構造ラベル列であって、正規化された句構造ラベル列とに基づいて、句構造解析器240に含まれる、句構造ラベルに対する、入力文の各単語の重みを出力する注意機構3を学習するための、単語と句構造ラベルの対応付けからなる学習データを生成することにより、注意機構3のための学習データを用いて、精度よく句構造を解析するための句構造解析器240を学習することができる。
なお、本発明は、上述した実施の形態に限定されるものではなく、この発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。
例えば、上述した実施の形態では、句構造学習装置200は、学習データ生成部230により学習データを生成し、学習部232により注意機構3を含む句構造解析器240を学習する場合を例に説明したが、これに限定されるものではなく、学習データ生成部230の学習データの生成、及び学習部232による注意機構3を含む句構造解析器240の学習をそれぞれ別の装置により実現するようにしてもよい。
1 エンコード部
2 デコード部
3 注意機構
4 出力部
10、210 入力部
20、220 演算部
30 句構造解析部
40、240 句構造解析器
100 句構造解析装置
200 句構造学習装置
230 学習データ生成部
232 学習部

Claims (7)

  1. 入力文に対する句構造ラベル列を出力する句構造解析器を学習する句構造学習装置であって、
    前記入力文と、前記入力文を表す句構造木の各ノードの句構造ラベルからなる句構造ラベル列とに基づいて、前記句構造解析器に含まれる、前記句構造ラベルに対する、前記入力文の各単語の重みを出力する注意機構を学習するための、前記単語と前記句構造ラベルの対応付けからなる学習データを生成する学習データ生成部、
    を含む句構造学習装置。
  2. 前記学習データ生成部は、前記句構造ラベル列に含まれる前記句構造ラベルの各々について、前記句構造ラベルの前記ノードに対する下位の葉ノードである前記入力文の前記単語を対応付けることにより前記学習データを生成する請求項1に記載の句構造学習装置。
  3. 前記句構造解析器は、前記句構造ラベルを先頭から順に出力するものであって、
    前記注意機構は、前記入力文の各単語に対応する隠れ状態ベクトルの各々と、一つ前に出力された前記句構造ラベルに対する隠れ状態ベクトルとを入力として、前記句構造ラベルに対する、前記入力文の各単語の重みを出力し、
    前記生成された学習データに基づいて、前記注意機構を学習する学習部、を更に含む請求項1又は請求項2に記載の句構造学習装置。
  4. 入力文に対する句構造ラベル列を出力する予め学習された句構造解析器であって、句構造ラベルに対する、前記入力文の各単語の重みを出力する注意機構を含む句構造解析器を用いて、前記入力文を入力とし、前記入力文に対する前記句構造ラベル列を出力する句構造解析部、
    を含む句構造解析装置であって、
    前記注意機構は、
    学習用入力文と、前記学習用入力文を表す句構造木の各ノードの句構造ラベルからなる句構造ラベル列とに基づいて生成された、前記単語と前記句構造ラベルの対応付けからなる学習データに基づいて予め学習されたものとする
    句構造解析装置。
  5. 入力文に対する句構造ラベル列を出力する句構造解析器を学習する句構造学習装置における句構造学習方法であって、
    学習データ生成部が、前記入力文と、前記入力文を表す句構造木の各ノードの句構造ラベルからなる句構造ラベル列とに基づいて、前記句構造解析器に含まれる、前記句構造ラベルに対する、前記入力文の各単語の重みを出力する注意機構を学習するための、前記単語と前記句構造ラベルの対応付けからなる学習データを生成するステップ、
    を含む句構造学習方法。
  6. 句構造解析部が、入力文に対する句構造ラベル列を出力する予め学習された句構造解析器であって、句構造ラベルに対する、前記入力文の各単語の重みを出力する注意機構を含む句構造解析器を用いて、前記入力文を入力とし、前記入力文に対する前記句構造ラベル列を出力するステップ、
    を含む句構造解析方法であって、
    前記注意機構は、
    学習用入力文と、前記学習用入力文を表す句構造木の各ノードの句構造ラベルからなる句構造ラベル列とに基づいて生成された、前記単語と前記句構造ラベルの対応付けからなる学習データに基づいて予め学習されたものとする
    句構造解析方法。
  7. コンピュータを、請求項1〜請求項3のいずれか1項に記載の句構造学習装置、又は請求項4に記載の句構造解析装置の各部として機能させるためのプログラム。
JP2017218449A 2017-11-13 2017-11-13 句構造学習装置、句構造解析装置、方法、及びプログラム Active JP6830602B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017218449A JP6830602B2 (ja) 2017-11-13 2017-11-13 句構造学習装置、句構造解析装置、方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017218449A JP6830602B2 (ja) 2017-11-13 2017-11-13 句構造学習装置、句構造解析装置、方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2019091172A true JP2019091172A (ja) 2019-06-13
JP6830602B2 JP6830602B2 (ja) 2021-02-17

Family

ID=66836378

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017218449A Active JP6830602B2 (ja) 2017-11-13 2017-11-13 句構造学習装置、句構造解析装置、方法、及びプログラム

Country Status (1)

Country Link
JP (1) JP6830602B2 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021250811A1 (ja) * 2020-06-10 2021-12-16 日本電気株式会社 データ処理装置、データ処理方法及び記録媒体
CN114138966A (zh) * 2021-11-30 2022-03-04 四川大学 一种基于弱监督学习的网络威胁情报文本关键信息抽取方法
CN114580408A (zh) * 2022-03-10 2022-06-03 浙江理工大学 基于双层注意力联合学习的下联生成方法和装置
CN116151354A (zh) * 2023-04-10 2023-05-23 之江实验室 网络节点的学习方法、装置、电子装置和存储介质
JP7462739B2 (ja) 2019-09-19 2024-04-05 インターナショナル・ビジネス・マシーンズ・コーポレーション シーケンス-シーケンス・ニューラル・モデルにおける構造保持注意機構
JP7524946B2 (ja) 2020-06-10 2024-07-30 日本電気株式会社 データ処理装置、データ処理方法及び記録媒体

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010102521A (ja) * 2008-10-24 2010-05-06 Nippon Telegr & Teleph Corp <Ntt> 辞書作成装置、辞書作成方法および辞書作成プログラム並びに辞書作成プログラムを記録した記録媒体
JP2015075706A (ja) * 2013-10-10 2015-04-20 日本放送協会 誤り修正モデル学習装置、及びプログラム
JP2017146855A (ja) * 2016-02-18 2017-08-24 日本電信電話株式会社 文法規則フィルターモデル学習装置、文法規則フィルター装置、構文解析装置、及びプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010102521A (ja) * 2008-10-24 2010-05-06 Nippon Telegr & Teleph Corp <Ntt> 辞書作成装置、辞書作成方法および辞書作成プログラム並びに辞書作成プログラムを記録した記録媒体
JP2015075706A (ja) * 2013-10-10 2015-04-20 日本放送協会 誤り修正モデル学習装置、及びプログラム
JP2017146855A (ja) * 2016-02-18 2017-08-24 日本電信電話株式会社 文法規則フィルターモデル学習装置、文法規則フィルター装置、構文解析装置、及びプログラム

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7462739B2 (ja) 2019-09-19 2024-04-05 インターナショナル・ビジネス・マシーンズ・コーポレーション シーケンス-シーケンス・ニューラル・モデルにおける構造保持注意機構
WO2021250811A1 (ja) * 2020-06-10 2021-12-16 日本電気株式会社 データ処理装置、データ処理方法及び記録媒体
JP7524946B2 (ja) 2020-06-10 2024-07-30 日本電気株式会社 データ処理装置、データ処理方法及び記録媒体
CN114138966A (zh) * 2021-11-30 2022-03-04 四川大学 一种基于弱监督学习的网络威胁情报文本关键信息抽取方法
CN114580408A (zh) * 2022-03-10 2022-06-03 浙江理工大学 基于双层注意力联合学习的下联生成方法和装置
CN114580408B (zh) * 2022-03-10 2024-05-07 浙江理工大学 基于双层注意力联合学习的下联生成方法和装置
CN116151354A (zh) * 2023-04-10 2023-05-23 之江实验室 网络节点的学习方法、装置、电子装置和存储介质

Also Published As

Publication number Publication date
JP6830602B2 (ja) 2021-02-17

Similar Documents

Publication Publication Date Title
CN109284506B (zh) 一种基于注意力卷积神经网络的用户评论情感分析***及方法
JP2019091172A (ja) 句構造学習装置、句構造解析装置、方法、及びプログラム
CN110418210B (zh) 一种基于双向循环神经网络和深度输出的视频描述生成方法
CN111368565B (zh) 文本翻译方法、装置、存储介质和计算机设备
CN112487143B (zh) 一种基于舆情大数据分析的多标签文本分类方法
JP7149560B2 (ja) リクエスト言換システム、リクエスト言換モデル及びリクエスト判定モデルの訓練方法、及び対話システム
CN109902301B (zh) 基于深度神经网络的关系推理方法、装置及设备
JP7072178B2 (ja) 自然言語処理のための装置、方法及びプログラム
CN111125333B (zh) 一种基于表示学习与多层覆盖机制的生成式知识问答方法
CN110083702B (zh) 一种基于多任务学习的方面级别文本情感转换方法
US11475225B2 (en) Method, system, electronic device and storage medium for clarification question generation
CN110362797B (zh) 一种研究报告生成方法及相关设备
KR102152902B1 (ko) 음성 인식 모델을 학습시키는 방법 및 상기 방법을 이용하여 학습된 음성 인식 장치
CN111354333A (zh) 一种基于自注意力的汉语韵律层级预测方法及***
CN111783423A (zh) 解题模型的训练方法及装置、解题方法及装置
CN117236335B (zh) 基于提示学习的两阶段命名实体识别方法
CN113128206A (zh) 基于单词重要性加权的问题生成方法
WO2020040255A1 (ja) 単語符号化装置、解析装置、言語モデル学習装置、方法、及びプログラム
CN115455197A (zh) 一种融合位置感知细化的对话关系抽取方法
CN111813907A (zh) 一种自然语言问答技术中的问句意图识别方法
CN110399619A (zh) 面向神经机器翻译的位置编码方法及计算机存储介质
JP6633999B2 (ja) 符号器学習装置、変換装置、方法、及びプログラム
CN115374784A (zh) 一种多模态信息选择性融合的中文命名实体识别方法
JP2019046188A (ja) 文生成装置、文生成学習装置、文生成方法、及びプログラム
CN114896966A (zh) 一种中文文本语法错误定位方法、***、设备及介质

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20171115

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191113

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200708

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200714

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200903

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210105

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210108

R150 Certificate of patent or registration of utility model

Ref document number: 6830602

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250