JP2018028872A - 学習装置、学習方法、プログラムパラメータおよび学習プログラム - Google Patents

学習装置、学習方法、プログラムパラメータおよび学習プログラム Download PDF

Info

Publication number
JP2018028872A
JP2018028872A JP2016161488A JP2016161488A JP2018028872A JP 2018028872 A JP2018028872 A JP 2018028872A JP 2016161488 A JP2016161488 A JP 2016161488A JP 2016161488 A JP2016161488 A JP 2016161488A JP 2018028872 A JP2018028872 A JP 2018028872A
Authority
JP
Japan
Prior art keywords
learning
sentence
neural network
rnn
recurrent neural
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016161488A
Other languages
English (en)
Other versions
JP6526607B2 (ja
Inventor
清水 徹
Toru Shimizu
徹 清水
伸幸 清水
Nobuyuki Shimizu
伸幸 清水
隼人 小林
Hayato Kobayashi
隼人 小林
香里 谷尾
Kaori Tanio
香里 谷尾
晃平 菅原
Kohei Sugawara
晃平 菅原
ヒンチュン マク
Hing Chun Mak
ヒンチュン マク
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yahoo Japan Corp
Original Assignee
Yahoo Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yahoo Japan Corp filed Critical Yahoo Japan Corp
Priority to JP2016161488A priority Critical patent/JP6526607B2/ja
Publication of JP2018028872A publication Critical patent/JP2018028872A/ja
Application granted granted Critical
Publication of JP6526607B2 publication Critical patent/JP6526607B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Machine Translation (AREA)

Abstract

【課題】文章に付与するラベルの精度を向上させる。【解決手段】本願に係る学習装置は、第1リカレントニューラルネットワークが有する学習器および復元器に、所定の対話における発話と応答との関係性を学習させる第1学習部と、前記第1学習部によって学習が行われた学習器または復元器の少なくともいずれか1つを用いて、第2リカレントニューラルネットワークを生成する第1生成部と、文章と当該文章に付与されるラベルとの関係性を、前記第2リカレントニューラルネットワークに学習させる第2学習部とを有することを特徴とする。【選択図】図1

Description

本発明は、学習装置、学習方法、プログラムパラメータおよび学習プログラムに関する。
従来、RNN(Recurrent neural network)やディープラーニング等と呼ばれる技術を用いて、情報にラベルを付与する技術が知られている。このような技術の一例として、入力された文章の内容に応じて、文章の内容や種別を示すラベルを出力するように学習器の学習を行い、文章にラベルを付与する技術が知られている。
"Learning phrase representations using RNN encoder-decoder for statistical machine translation." K. Cho, B. van Merrienboer, C. Gulcehre, D. Bahdanau,F. Bougares, H. Schwenk, and Y. Bengio. In Proceedings of the 2014 Confer-ence on EMNLP, 2014.
Socher, R.; Perelygin, A.; Wu, J.; Chuang, J.; Manning, C. D.; Ng, A.; and Potts, C. 2013. Recursive deep models for semantic compositionality over a sentiment treebank. In Proceedings of the 2013 Conference on Empirical Methods in Natural Language Processing (EMNLP 2013), 1631-1642. Association for Computational Linguistics.
しかしながら、従来技術では、学習器が適切なラベルを付与することができない場合がある。
例えば、入力された文章の内容に応じて、文章の内容や種別を示すラベルを出力するように学習器の学習を行う場合には、文章とその文章に付与すべきラベルとの関係性を学習器に学習させることとなる。しかしながら、文章とその文章に付与すべきラベルとを含む正解データが十分に準備できない場合には、文章とラベルとの関係性を適切に学習することができず、学習器が適切なラベルを付与することができなくなる恐れがある。
本願は、上記に鑑みてなされたものであって、文章に付与するラベルの精度を向上させることを目的とする。
本願に係る学習装置は、第1リカレントニューラルネットワークが有する学習器および復元器に、所定の対話における発話と応答との関係性を学習させる第1学習部と、前記第1学習部によって学習が行われた学習器または復元器の少なくともいずれか1つを用いて、第2リカレントニューラルネットワークを生成する第1生成部と、文章と当該文章に付与されるラベルとの関係性を、前記第2リカレントニューラルネットワークに学習させる第2学習部ととを有することを特徴とする。
実施形態の一態様によれば、文章に付与するラベルの精度を向上させることができる。
図1は、実施形態に係る学習装置が実行する学習処理の一例を示す図である。 図2は、実施形態に係る学習装置の構成例を示す図である。 図3は、実施形態に係る対話データデータベースに登録される情報の一例を示す図である。 図4は、実施形態に係る学習データデータベースに登録される情報の一例を示す図である。 図5は、実施形態に係る学習装置が生成するRNNのバリエーションを示す第1の図である。 図6は、実施形態に係る学習装置が生成するRNNのバリエーションを示す第2の図である。 図7は、実施形態に係る学習処理の流れの一例を説明するフローチャートである。 図8は、ハードウェア構成の一例を示す図である。
以下に、本願に係る学習装置、学習方法、プログラムパラメータおよび学習プログラムを実施するための形態(以下、「実施形態」と記載する。)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る学習装置、学習方法、プログラムパラメータおよび学習プログラムが限定されるものではない。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。
[実施形態]
〔1−1.学習装置の一例〕
まず、図1を用いて、学習装置が実行する学習処理の一例について説明する。図1は、実施形態に係る学習装置が実行する学習処理の一例を示す図である。図1では、学習装置10は、以下に説明する学習処理を実行する情報処理装置であり、例えば、サーバ装置やクラウドシステム等により実現される。
より具体的には、学習装置10は、インターネット等の所定のネットワークNを介して、利用者が使用する端末装置100といった任意の装置と通信が可能である。また、学習装置10は、任意の利用者間における対話を取得するための入力装置200(例えば、図2を参照)と通信可能である。
なお、端末装置100や入力装置200は、スマートフォンやタブレット等のスマートデバイス、デスクトップPC(Personal Computer)やノートPC等、サーバ装置等の情報処理装置により実現される。また、学習装置10は、サーバ装置やクラウドシステム等の任意の情報処理装置により実現される。
〔1−2.学習処理について〕
ここで、学習装置10は、入力された文章に対し、その文章の種別や内容等といった属性を示す属性情報を付与するためのモデルを学習する。このような属性情報は、ラベル、タグ、又はメタデータ等と呼ばれ、文章の検索や選択を行う際に利用される。なお、以下の説明では属性情報をラベルと記載する。
例えば、学習装置10は、文章に含まれる複数の単語を、各単語が文章中に出現する順に入力した際に、各単語の特徴と、各単語が出現する順番の特徴とを学習するリカレントニューラルネットワーク(以下「RNN(Recurrent Neural Network)と記載する。)の学習を行う。ここで、RNNは、複数の情報を順に入力した際に、各情報の特徴と入力された順番の特徴とを符号化し、符号化した特徴を出力する学習器(エンコーダ)と、学習器が出力した特徴に基づいて、新たな情報を復元する復元器(デコーダ)とを有するニューラルネットワークである。例えば、復元器は、学習器が出力した特徴から、学習器に入力された複数の情報を、入力した順に復元するといった処理を実行する。
例えば、学習装置10は、RNNの学習に用いられる学習データとして、所定の文章と、その文章に付与すべきラベルとの組を取得する。このような場合、学習装置10は、文章に含まれる単語をRNNに入力した際に、文章に付与すべきラベルを出力するようにRNNの学習を行う。例えば、学習装置10は、バックプロパゲーション法等、ディープラーニングやニューラルネットワーク等の学習に用いられる任意の学習手法を用いて、RNNの学習を実行する。
しかしながら、学習データの数が十分に取得できなかった場合には、文章に含まれる各単語の特徴や、単語が出現する順番の特徴等を適切に学習することができず、文章に付与するラベルの精度が低下する恐れがある。
そこで、学習装置10は、以下の学習処理を実行する。まず、学習装置10は、第1RNNが有する学習器および復元器に、所定の対話における発話と応答との関係性を学習させる。続いて、学習装置10は、学習が行われた学習器または復元器の少なくともいずれか1つを用いて、第2RNNを生成する。そして、学習装置10は、文章と文章に付与されるラベルとの関係性を、第2RNNに学習させる。すなわち、学習装置10は、対話に含まれる発話と応答とを用いて、文章とラベルとの関係性のプレトレーニングを行う。
ここで、対話に含まれる発話と応答とには、隠れた共通性が含まれると予測される。例えば、ある小説を原作とするアニメや映画が存在する場合に、対話に含まれる発話と応答とには、小説に関する対話であるのか、アニメに関する対話であるのか、映画に関する対話であるのか等といった隠れた共通性が存在する。また、対話に含まれる発話と、発話に対する応答とには、共通する文脈(コンテキスト)が存在すると予測される。このような共通性は、文章のコンテキストとラベルのコンテキストとの共通性に類似すると予測される。すると、発話と応答との関係性をあらかじめ学習した場合には、文章とラベルとの共通性や共起性を補強しうると考えられる。
そこで、学習装置10は、発話と応答とを用いて、RNNに含まれる学習器と復元器とのプレトレーニングを行う。例えば、学習装置10は、発話を学習器に入力した際に、その発話に対する応答を復元器が出力するように、学習器および復元器のプレトレーニングを行う。より具体的には、学習装置10は、発話に含まれる各単語が発話内で出現する順番とともに、その各単語が有する特徴を学習器に学習させる。そして、学習装置10は、学習器が発話を符号化した特徴、すなわち、学習器が出力する情報から、応答に含まれる各単語を各単語が応答内で出現する順番とともに復元するよう復元器を学習させる。
なお、学習装置10は、発話と応答とを、それぞれ学習器または復元器のいずれかに対応付けるのであれば、発話を学習器に対応付けて学習させ、応答を復元器に対応付けて学習させる必要はない。例えば、学習装置10は、応答を学習器に対応付けて学習させ、発話を復元器に対応付けて学習させてもよい。具体的には、学習装置10は、応答を学習器に入力した際に、応答に対応する発話を復元器が出力するように、学習器および復元器の学習を行ってもよい。例えば、学習装置10は、応答に含まれる各単語が応答内で出現する順番とともに各単語が有する特徴を学習器に学習させる。そして、学習装置10は、学習器が符号化した特徴から、発話に含まれる各単語を各単語が発話内で出現する順番とともに復元するよう復元器を学習させてもよい。また、学習装置10は、学習器と復元器とでパラメータを共有させることで、学習器兼復元器となるモデルの学習を行なってもよい。例えば、学習装置10は、学習器兼復元器として動作する1つのRNNの学習を行ってもよい。
〔1−3.RNNの生成について〕
ここで、学習装置10は、プレトレーニングを行ったRNN、すなわち、第1RNNをそのまま用いて、文章とラベルとの関係性を学習させてもよい。また、学習装置10は、第1RNNに含まれる学習器または復元器の少なくともいずれか1つを用いて、新たなRNNを生成し、生成したRNNに文章とラベルとの関係性を学習させてもよい。
例えば、学習装置10は、第1RNNに含まれる学習器と、新たに生成した復元器とを用いて、第2RNNを生成する。ここで、新たに生成した復元器とは、第1RNNに含まれる復元器であれば、任意の復元器が適用可能であり、例えば、ニューロン間で情報を伝達する際の伝達係数を初期化(例えば、ランダム化)した復元器であってもよい。このようにして生成された第2RNNには、学習器側に、発話と応答とに含まれる隠れた共通性の特徴が反映されていると考えられる。換言すると、第2RNNは、文章を入力した際に適切なラベルを出力するように、各ニューロン間の伝達係数が収束しやすいと考えられる。このため、学習データの量が十分に存在しない場合であっても、第2RNNは、学習データに含まれる文章とラベルとの関係性、すなわち、文章とラベルとが有する隠れた共通性の特徴を迅速に学習することができると考えられる。
そこで、学習装置10は、第2RNNに学習データの文章を入力した際に、入力した文章に付与すべきラベルを第2RNNが出力するように、第2RNNの復号化の学習を行う。例えば、学習装置10は、ランダムに初期化した復元器と、第1RNNの学習器とを接続し、学習器のパラメータを固定して、復元器側のパラメータの更新を行う。この結果、学習装置10は、文章に対して適切なラベルを付与するRNNを生成することができるので、文章に付与するラベルの精度を改善することができる。
ここで、学習装置10は、第3RNNにおける学習、すなわち、学習データ以外の文章に対してラベルを付与する際に、第2RNNをそのまま利用してさらに全体を学習させてもよく、第2RNNを用いて新たな第3RNNを生成し、新たな第3RNNを測定時に用いるRNN(以下、「測定用RNN」と記載する。)としてもよい。例えば、第2RNNに含まれる復元器には、文章とラベルとの関係性の特徴が学習されていると予測される。より具体的には、第2RNNに含まれる復元器は、複数の単語の特徴と、各単語が出現する順序の特徴とを示す情報から、その複数の単語がその順序で現れる文章に対して付与すべきラベルを示す情報を出力するように学習が行われている。そこで、学習装置10は、第2RNNに含まれる復元器と、第1RNNに含まれる学習器とを含む第3RNNに対してさらに全体学習をおこなった第3RNNを測定用RNNとしてもよい。また、学習装置10は、第2RNNを通さずに、第1RNNの学習器を利用して、さらに全体学習をさせた第3RNNを測定用RNNとしてもよい。また、学習装置10は、第3RNNの学習時において、学習器のパラメータを固定して復元器側のパラメータのみを更新し、ある程度の学習が進んだ再に、学習器側のパラメータの固定を外して、第3RNN全体の学習(トレーニング)を行ってもよい。
そして、学習装置10は、第3RNNを用いて、ラベルの付与対象となる文章に対してラベルを付与してもよい。例えば、学習装置10は、第3RNNに含まれる学習器の入力層に、文章に含まれる各単語を各単語が出現する順序で入力し、学習器の出力層から出力された情報、すなわち、入力された文章に含まれる各単語の特徴と各単語が出現する順序の特徴とを示す特徴情報を、復元器の入力層に入力する。そして、学習装置10は、復元器が特徴情報に基づいて出力したラベルを示す情報から、文章に対して付与すべきラベルを決定する。
〔1−4.RNNのバリエーションについて〕
ここで、学習装置10は、対話に含まれる発話と応答とを用いてプレトレーニングを行った学習器または復元器を用いるのであれば、任意の処理を用いて、測定用RNNを生成してよい。例えば、学習装置10は、第1RNNに含まれる学習器と新たな復元器とから第2RNNを生成し、学習データを用いて第2RNNを学習する。そして、学習装置10は、学習を行った第2RNNを、そのまま測定用RNNとしてもよい。
また、学習装置10は、第1RNNに含まれる学習器と、新たな復元器とを用いて第2RNNを生成し、学習データを用いて第2RNNを学習する。続いて、学習装置10は、第2RNNに含まれる復元器と、第1RNNに含まれる学習器とを用いて第3RNNを生成し、学習データを用いて、第3RNNの学習を行う。そして、学習装置10は、学習データを用いて学習を行った第3RNNを測定用RNNとして出力してもよい。
なお、学習装置10は、第2RNNの学習を行う際と、第3RNNの学習を行う際とで、同一の学習データを用いてもよく、異なる学習データを用いてもよい。また、学習装置10は、文章とその文章に付与すべきラベルとの組である学習データに加えて、対話に含まれる発話と応答との組を学習データとし、第2RNNや第3RNNの学習を行ってもよい。
〔1−5.文章とラベルについて〕
ここで、学習装置10は、任意の文章に対して付与される任意のラベルを付与するRNNの学習を行ってよい。すなわち、学習装置10がラベルを付与する文章とは、小説、新聞記事、ブログ、マイクロブログ、批評、投稿等といった執筆物に関する文章であってもよく、カルテ等といった記録等であってもよい。また、文章は、一文であってもよく複数の文からなる文章であってもよい。例えば、学習装置10は、書籍や作品単位で文章の学習等を行ってもよい。
また、学習装置10が付与するラベルとは、文章の内容や属性等を示す単語や文章等であってもよく、検索などに使用される数値や文字列等であってもよい。
〔1−6.数式の一例〕
次に、上述した学習処理を示す数式の一例について説明する。例えば、時刻「t」における学習器の「j」番目のノードの状態を「hj<t>」と記載すると、学習器における各ノードの状態は、以下の式(1)で表すことができる。ここで、式(1)中の波付き「hj<t>」は、式(2)で表すことができ、「zj」および「rj」は、以下の式(3)および式(4)で表される。ここで、「xt」は、「t」番目の入力を示す。また、式(2)〜式(4)の「W」および「U」は、学習器の接続係数を示すパラメータである。
Figure 2018028872
Figure 2018028872
Figure 2018028872
Figure 2018028872
すると、学習器による学習結果は、式(5)で示すことができる。
Figure 2018028872
ここで、学習器の出力は、復元器の各ノードへと伝達される。このような復元器のノードへの入力は、式(6)で示すことができる。
Figure 2018028872
すると、時刻「t」における復元器の「j」番目のノードの状態を「h´j<t>」とすると、「h´j<t>」は、以下の式(7)で示すことができる。ここで、式(7)中の波付き「h´j<t>」は、以下の式(8)で表すことができ、「z´j」および「r´j」は、以下の式(9)および式(10)で表される。また、式(8)〜式(10)の「W´」および「U´」は、復元器の接続係数を示すパラメータである。
Figure 2018028872
Figure 2018028872
Figure 2018028872
Figure 2018028872
例えば、学習装置10は、学習器が文章に含まれる複数の単語、すなわち単語群の特徴および順番を学習し、復元器が学習器の出力から、学習器に入力された複数の単語が学習器に入力された順で出現する文章に対して付与すべきラベルを示す情報を出力するように、式(1)〜式(10)における「W」、「U」、「W´」および「U´」の値を学習する。
〔1−7.学習処理の一例〕
次に、図1を用いて、学習装置10が実行する学習処理の一例について説明する。まず、学習装置10は、利用者の発言Aや発言B等といった対話を入力として受付ける(ステップS1)。例えば、入力装置200は、マイクなどの音声を取得する音声取得装置を用いて、複数の利用者間で行われた対話の音声を取得する。そして、入力装置200は、任意の音声認識技術を用いて、対話をテキストデータに変換し、変換後のテキストデータ、すなわち、対話のテキストデータを学習装置10へと送信する。
より具体的には、入力装置200は、ある利用者による発言Aのテキストデータを発話のデータ(以下、「発話データ」と記載する場合がある。)とし、発言Aに対する他の利用者の応答である発言Bのテキストデータを応答のデータ(以下、「応答データ」と記載する場合がある。)として生成する。そして、入力装置200は、発話データおよび応答データを、対話のデータとして学習装置10へと送信する。
このような場合、学習装置10は、入力した対話文に含まれる発話と応答とを、それぞれ第1RNNの学習器または復元器のいずれかに対応付けて、発話と応答とに内在する隠れた情報、すなわち、発話と応答とに内在する隠れた共通性をプレトレーニングする(ステップS2)。例えば、学習装置10は、対話のテキストデータから、発話とその発話に対応する応答とを抽出する。そして、学習装置10は、第1RNNに含まれる学習器EN01に対して発話に含まれる各単語をその発話に含まれる順に入力した場合に、学習器EN01の出力から、学習器EN01に入力した発話に対応する応答に含まれる各単語を、その応答に含まれる順で復元器DE01が出力するように、学習器EN01および復元器DE01の学習を行う。より具体的には、学習装置10は、学習器EN01および復元器DE01の伝達係数を補正する。
次に、学習装置10は、プレトレーニングを行った学習器EN01と新たな復元器DE02とを組み合わせた第2RNNを生成し、ラベル付き文章(すなわち、学習データ)の文章から、そのラベル付き文章のラベルを生成するように、第2RNNの学習を行う(ステップS3)。例えば、学習装置10は、第2RNNに含まれる学習器EN01に対してラベル付き文章の文章に含まれる各単語をその文章に含まれる順に入力した場合に、学習器EN01の出力から、ラベル付き文章のラベルを示す情報を復元器DE02が出力するように、学習器EN01および復元器DE02の学習を行う。
ここで、学習装置10は、ラベルの付与対象となる文章を端末装置100から取得したものとする(ステップS4)。このような場合、学習装置10は、測定時の処理を実行する。より具体的には、学習装置10は、ラベル付き文章を用いてラベルの学習を行った復元器DE02と、プレトレーニングを行った学習器EN01とを組み合わせた第3RNNを測定用RNNとして、端末装置100から取得した文章に付与するラベルを判定する(ステップS5)。例えば、学習装置10は、測定用RNNの学習器EN01に端末装置100から取得した文章に含まれる各単語を、各単語が出現する順序で入力する。そして、学習装置10は、測定用RNNの復元器DE02が出力した情報に基づいて、文章に付与すべきラベルを判定する。その後、学習装置10は、判定結果であるラベルを示す情報を、端末装置100に対して出力する(ステップS6)。
〔2.学習装置の構成〕
以下、上記した学習処理を実現する学習装置10が有する機能構成の一例について説明する。図2は、実施形態に係る学習装置の構成例を示す図である。図2に示すように、学習装置10は、通信部20、記憶部30、および制御部40を有する。
通信部20は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部20は、ネットワークNと有線または無線で接続され、端末装置100や入力装置200との間で情報の送受信を行う。
記憶部30は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。また、記憶部30は、対話データデータベース31、および学習データデータベース32を記憶する。なお、記憶部30は、例えば、学習するRNNのノードと伝達係数との関係性を示す情報等をさらに記憶しているものとする。
対話データデータベース31には、プレトレーニングに用いる対話のデータが登録されている。例えば、図3は、実施形態に係る対話データデータベースに登録される情報の一例を示す図である。図3に示す例では、対話データデータベース31には、「対話ID」、「発話情報」、「応答情報」等といった項目を有する情報が登録される。なお、対話データデータベース31には、発話や応答を行った利用者の属性等、図3に示す情報以外の情報が登録されていてもよい。
ここで、「対話ID(Identifier)」は、対話を識別するための情報である。また、「発話情報」とは、発話のテキストデータである。また、「応答情報」とは、対応付けられた発話に対する応答のテキストデータである。なお、図3に示す例では、「対話#1」、「発話#1」、「応答#1」等といった概念的な値について記載したが、実際には、対話を識別する識別子や、テキストデータ等が対話データデータベース31に登録される。
例えば、図3に示す例では、対話ID「対話#1」、発話情報「発話#1」、および応答情報「応答#1」が対応付けて登録されている。このような情報は、対話ID「対話#1」が示す対話に含まれる発話のテキストデータが「発話#1」であり、この発話に対する応答のテキストデータが「応答#1」である旨を示す。
図2に戻り、説明を続ける。学習データデータベース32には、RNNの学習に用いられる学習データ、すなわち、ラベル付き文章が登録されている。例えば、図4は、実施形態に係る学習データデータベースに登録される情報の一例を示す図である。図4に示す例では、学習データデータベース32には、「学習データID」、「文章情報」、「ラベル情報」等といった項目を有する情報が登録される。なお、学習データデータベース32には、図3に示す情報以外にも、ラベル付き文章に関連する任意の情報が登録されていてもよい。
ここで、「学習データID」は、学習データとしての対話を識別するための情報である。また、「文章情報」とは、ラベル付き文章の文章、すなわちテキストデータである。また、「ラベル情報」とは、対応付けられた文章に対して付与されるべきラベルを示す情報である。なお、図4に示す例では、「データ#1」、「文章#1」、「ラベル#1」等といった概念的な値について記載したが、実際には、ラベル付き文章を識別する識別子や、テキストデータ等が学習データデータベース32に登録される。
例えば、図4に示す例では、学習データID「データ#1」、文章情報「文章#1」、およびラベル情報「ラベル#1」が対応付けて登録されている。このような情報は、学習データID「データ#1」が示すラベル付き文章に含まれる文章のテキストデータが「文章#1」であり、この文章に対して付与されるべきラベルが「ラベル#1」である旨を示す。
図2に戻り、説明を続ける。制御部40は、コントローラ(controller)であり、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)等のプロセッサによって、学習装置10内部の記憶装置に記憶されている各種プログラムがRAM等を作業領域として実行されることにより実現される。また、制御部40は、コントローラ(controller)であり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現されてもよい。
図2に示すように、制御部40は、取得部41、第1学習部42、第2学習部43、生成部44、および測定部45を有する。
取得部41は、所定の対話における発話と、その発話に対する応答とを取得する。例えば、取得部41は、入力装置200から対話のテキストデータを取得すると、取得したテキストデータの解析を行い、発話のテキストデータと、その発話に対する応答のテキストデータとを抽出する。そして、取得部41は、抽出した発話のテキストデータと応答のテキストデータとを対話データとして対話データデータベース31に登録する。なお、取得部41は、形態素解析等、任意の文字列解析技術を用いて、発話と、その発話に対応する応答とを抽出してよい。
第1学習部42は、第1RNNが有する学習器および復元器に、所定の対話における発話と応答との関係性を学習させる。すなわち、第1学習部42は、対話を用いたRNNのプレトレーニングを実行する。
例えば、第1学習部42は、対話データデータベース31から対話に含まれる発話と応答とを取得する。また、第1学習部42は、初期化された第1RNN等、プレトレーニングの対象となる第1RNNを準備する。そして、第1学習部42は、発話を第1RNNの学習器に入力した際に、その発話に対する応答を第1RNNの復元器が出力するように、学習器および復元器の学習を行う。より具体的には、第1学習部42は、発話に含まれる各単語を発話内で出現する順番で学習器に入力し、学習器が符号化した特徴から、応答に含まれる各単語を各単語が応答内で出現する順番とともに復元するよう学習器と復元器を学習させる。すなわち、第1学習部42は、発話の各単語が有する特徴と各単語が出現する順番との特徴とを学習器と復元器とに学習させる。
なお、第1学習部42は、応答を学習器に入力した際に、応答に対応する発話を復元器が出力するように、学習器および復元器の学習を行ってもよい。例えば、第1学習部42には、応答に含まれる各単語が発話内で出現する順番とともに各単語が有する特徴を学習器に学習させ、学習器が符号化した特徴から、発話に含まれる各単語を各単語が応答内で出現する順番とともに復元するよう復元器を学習させてもよい。
第2学習部43は、学習データデータベース32に登録された学習データであるラベル付き文章を用いて、第1RNNに含まれる学習器または復元器の少なくともいずれか1つを用いて生成された第2RNNや、第3RNNの学習を行う。なお、第2学習部43が実行する処理の例については、後述する。
生成部44は、第1学習部42によって学習が行われた学習器または復元器、すなわち、第1RNNに含まれる学習器または復元器の少なくともいずれか1つを用いて、第2RNNを生成する。例えば、生成部44は、第1RNNに含まれる学習器と新たな復元器とを用いて第2RNNを生成する。
このような第2RNNが生成された場合、第2学習部43は、学習データデータベース32に登録されたラベル付き文章の文章と、ラベル付き文章のラベルとの関係性を、第2RNNに学習させる。
また、生成部44は、第2学習部43によって第2RNNの学習が行われた場合、第1学習部42によってプレトレーニングが行われた第1RNNの学習器と、第2学習部43によって学習が行われた第2RNNの復元器とを含む第3RNNを生成する。そして、生成部44は、生成した第3RNNを測定用RNNとして記憶部30等に登録する。
なお、第2学習部43は、第3RNNに対して、学習データを用いたさらなる学習を行ってもよい。例えば、第2学習部43は、第3RNNに対して、学習データデータベース32に登録されたラベル付き文章の文章と、ラベル付き文章のラベルとの関係性を学習させる。そして、第2学習部43は、学習を行った第3RNNを測定用RNNとして記憶部30等に登録してもよい。
測定部45は、測定用RNNを用いた測定処理を実行する。例えば、測定部45は、端末装置100からラベルの付与対象となる文章を受付けた場合は、生成部44によって生成された第3RNNを測定用RNNとして、受付けられた文章に付与されるラベルを特定する。例えば、測定部45は、受付けられた文章に含まれる各単語を、文章中に出現する順序で測定用RNNの学習器に入力し、測定用RNNの復元器が出力した情報に基づいて、受付けられた文章に付与されるラベルを特定する。そして、測定部45は、特定したラベルを示す情報を、端末装置100へと送信する。
なお、測定部45は、第2学習部43によってラベル付き文章を用いた学習がさらに行われた第3RNNを測定用RNNとして、受付けられた文章に付与されるラベルを特定してもよい。また、測定部45は、第2学習部43により学習が行われた第2RNNを測定用RNNとして、受付けられた文章に付与されるラベルを特定してもよい。
〔3.RNNのバリエーション〕
次に、図5および図6を用いて、学習装置10が測定用RNNとして用いるRNNの生成のバリエーションについて説明する。図5は、実施形態に係る学習装置が生成するRNNのバリエーションを示す第1の図である。また、図6は、実施形態に係る学習装置が生成するRNNのバリエーションを示す第2の図である。
まず、図5を用いて、第2RNNを測定用RNNとする処理の一例について説明する。例えば、学習装置10は、学習器EN01と復元器DE01とを含む第1RNNを生成し、発話と応答とを用いたプレトレーニングを行う(ステップS10)。続いて、学習装置10は、第1RNNに含まれる学習器EN01を取り出し(ステップS11)、学習器EN01と新たな復元器DE02とを用いて第2RNNを生成し、ラベル付き文章の文章とラベルとを用いて、第2RNNの学習を行う(ステップS12)。そして、学習装置10は、学習を行った第2RNNの復元器DE02と(ステップS13)、学習を行った第2RNNの学習器EN01と(ステップS14)とをそのまま用いて、測定用RNNとし、文章からラベルを特定する測定処理を実行する(ステップS15)。
次に、図6を用いて、ラベル付き文章を用いた学習を行った第3RNNを測定用RNNとする処理の一例について説明する。例えば、学習装置10は、学習器EN01と復元器DE01とを含む第1RNNを生成し、発話と応答とを用いたプレトレーニングを行う(ステップS20)。続いて、学習装置10は、第1RNNに含まれる学習器EN01を取り出し(ステップS21)、学習器EN01と新たな復元器DE02とを用いて第2RNNを生成し、ラベル付き文章の文章とラベルとを用いて、第2RNNの学習を行う(ステップS22)。
また、学習装置10は、学習を行った第2RNNの復元器DE02を取り出し(ステップS23)、プレトレーニングを行った第1RNNに含まれる学習器EN01と組み合わせた第3RNNを生成し(ステップS24)、ラベル付き文章を用いて第3RNNの学習を再度実行する(ステップS25)。そして、学習装置10は、学習を行った第3RNNの復元器DE02と(ステップS26)、学習を行った第3RNNの学習器EN01と(ステップS27)とをそのまま用いて、測定用RNNとし、文章からラベルを特定する測定処理を実行する(ステップS28)。
〔4.学習装置が実行する処理の流れの一例〕
次に、図7を用いて、学習装置10が実行する学習処理の流れの一例について説明する。図7は、実施形態に係る学習処理の流れの一例を説明するフローチャートである。まず、学習装置10は、対話文を取得し(ステップS101)、対話文から発話と応答とを抽出する(ステップS102)。そして、学習装置10は、発話から応答を再現するように、第1RNNに含まれる学習器と復元器とのプレトレーニングを行う(ステップS103)。
続いて、学習装置10は、プレトレーニング済みの学習器と、新たな復元器とを用いた第2RNNを生成し(ステップS104)、ラベル付き文章の文章からラベルを示す情報を生成するように、第2RNNの学習を行う(ステップS105)。そして、学習装置10は、学習済みの第2RNNの復元器と、プレトレーニング済みの第1RNNに含まれる学習器とを用いた第3RNNを生成し(ステップS106)、生成した第3RNNを測定用RNNとして用いて、測定処理を実行し(ステップS107)、処理を終了する。
〔5.変形例〕
上記では、学習装置10による学習処理の一例について説明した。しかしながら、実施形態は、これに限定されるものではない。以下、学習装置10が実行する学習処理のバリエーションについて説明する。
〔5−1.測定用RNNについて〕
上述した例では、学習装置10は、生成した測定用RNNを用いて、ラベルの付与対象となる文章に付与するラベルを特定した。しかしながら、実施形態は、これに限定されるものではない。例えば、学習装置10は、生成した測定用RNNを用いて、文章からラベルを付与するプログラムを生成し、生成したプログラムを出力してもよい。このようなプログラムは、学習装置10以外の情報処理装置が実行することで、学習装置10により生成された測定用RNNを用いて、文章からラベルを特定させることができる。すなわち、学習装置10が生成した測定用RNNは、文章からラベルを特定するプログラムのプログラムパラメータとして用いられてもよい。
〔5−2.装置構成〕
上述した例では、学習装置10は、学習装置10内で学習処理および測定処理を実行した。しかしながら、実施形態は、これに限定されるものではない。例えば、学習装置10は、学習処理のみを実行し、測定処理については、他の装置が実行してもよい。また、学習装置10は、対話データデータベース31および学習データデータベース32を外部のストレージサーバに記憶させてもよい。
〔5−3.その他〕
また、上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文章中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。例えば、図2に示した第1学習部42及び第2学習部43は統合されてもよい。
また、上記してきた各実施形態は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。
〔6.プログラム〕
また、上述してきた実施形態に係る学習装置10は、例えば図8に示すような構成のコンピュータ1000によって実現される。図8は、ハードウェア構成の一例を示す図である。コンピュータ1000は、出力装置1010、入力装置1020と接続され、演算装置1030、一次記憶装置1040、二次記憶装置1050、出力IF(Interface)1060、入力IF1070、ネットワークIF1080がバス1090により接続された形態を有する。
演算装置1030は、一次記憶装置1040や二次記憶装置1050に格納されたプログラムや入力装置1020から読み出したプログラム等に基づいて動作し、各種の処理を実行する。一次記憶装置1040は、RAM等、演算装置1030が各種の演算に用いるデータを一次的に記憶するメモリ装置である。また、二次記憶装置1050は、演算装置1030が各種の演算に用いるデータや、各種のデータベースが登録される記憶装置であり、ROM(Read Only Memory)、HDD、フラッシュメモリ等により実現される。
出力IF1060は、モニタやプリンタといった各種の情報を出力する出力装置1010に対し、出力対象となる情報を送信するためのインタフェースであり、例えば、USB(Universal Serial Bus)やDVI(Digital Visual Interface)、HDMI(登録商標)(High Definition Multimedia Interface)といった規格のコネクタにより実現される。また、入力IF1070は、マウス、キーボード、およびスキャナ等といった各種の入力装置1020から情報を受信するためのインタフェースであり、例えば、USB等により実現される。
なお、入力装置1020は、例えば、CD(Compact Disc)、DVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等から情報を読み出す装置であってもよい。また、入力装置1020は、USBメモリ等の外付け記憶媒体であってもよい。
ネットワークIF1080は、ネットワークNを介して他の機器からデータを受信して演算装置1030へ送り、また、ネットワークNを介して演算装置1030が生成したデータを他の機器へ送信する。
演算装置1030は、出力IF1060や入力IF1070を介して、出力装置1010や入力装置1020の制御を行う。例えば、演算装置1030は、入力装置1020や二次記憶装置1050からプログラムを一次記憶装置1040上にロードし、ロードしたプログラムを実行する。
例えば、コンピュータ1000が学習装置10として機能する場合、コンピュータ1000の演算装置1030は、一次記憶装置1040上にロードされたプログラムを実行することにより、制御部40の機能を実現する。
〔7.効果〕
上述したように、学習装置10は、第1RNNが有する学習器および復元器に、所定の対話における発話と応答との関係性を学習させる。そして、学習装置10は、学習が行われた学習器または復元器の少なくともいずれか1つを用いて、第2RNNを生成し、文章とその文章に付与されるラベルとの関係性を、第2RNNに学習させる。このように、学習装置10は、発話とその発話に対する応答とが含む隠された共通性を用いて、RNNのプレトレーニングを行うので、文章に付与するラベルの精度を向上させることができる。また、学習データがある程度潤沢にある場合は、従来の学習手法で学習したRNNよりも分類精度(性能)が良いRNNを取得することができる。
また、学習装置10は、発話を学習器に入力した際に、発話に対する応答を復元器が出力するように、学習器および復元器の学習を行う。例えば、学習装置10は、発話に含まれる各単語が発話内で出現する順番とともに各単語が有する特徴を学習器に学習させ、学習器が符号化した特徴から、応答に含まれる各単語を各単語が応答内で出現する順番とともに復元するよう復元器を学習させる。
また、学習装置10は、応答を学習器に入力した際に、応答に対応する発話を復元器が出力するように、学習器および復元器の学習を行う。例えば、学習装置10は、応答に含まれる各単語が応答内で出現する順番とともに各単語が有する特徴を学習器に学習させ、学習器が符号化した特徴から、発話に含まれる各単語を各単語が発話内で出現する順番とともに復元するよう復元器を学習させる。
上述した処理の結果、学習装置10は、発話とその発話に対する応答とが含む隠された共通性を用いて、RNNのプレトレーニングを行うことができる。
また、学習装置10は、プレトレーニングが行われた第1RNNに含まれる学習器と新たな復元器とを用いて第2RNNを生成する。また、学習装置10は、プレトレーニングが行われた第1RNNに含まれる学習器と、学習データを用いた学習が行われた第2RNNに含まれる復元器とを含む第3RNNを生成する。そして、学習装置10は、ラベルの付与対象となる文章を受付けた場合は、第3RNNを用いて、受付けられた文章に付与されるラベルを特定する。このため、学習装置10は、文章に付与するラベルの精度の悪化を防ぐことができる。
また、学習装置10は、プレトレーニングが行われた第1RNNに含まれる学習器と、学習データを用いた学習が行われた第2RNNに含まれる復元器とを含む第3RNNを生成する。そして、学習装置10は、文章と文章に付与されるラベルとの関係性を、生成された第3RNNに学習させ、学習が行われた第3RNNを用いて、受付けられた文章に付与されるラベルを特定する。このため、学習装置10は、文章に付与するラベルの精度の悪化を防ぐことができる。
また、学習装置10は、ラベルの付与対象となる文章を受付けた場合は、第2RNNを用いて、受付けられた文章に付与されるラベルを特定する。このため、学習装置10は、文章に付与するラベルの精度の悪化を防ぐことができる。
以上、本願の実施形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。
また、上記してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、生成部は、生成手段や生成回路に読み替えることができる。
20 通信部
30 記憶部
31 対話データデータベース
32 学習データデータベース
40 制御部
41 取得部
42 第1学習部
43 第2学習部
44 生成部
45 測定部
100 端末装置
200 入力装置

Claims (12)

  1. 第1リカレントニューラルネットワークが有する学習器および復元器に、所定の対話における発話と応答との関係性を学習させる第1学習部と、
    前記第1学習部によって学習が行われた学習器または復元器の少なくともいずれか1つを用いて、第2リカレントニューラルネットワークを生成する第1生成部と、
    文章と当該文章に付与されるラベルとの関係性を、前記第2リカレントニューラルネットワークに学習させる第2学習部と
    を有することを特徴とする学習装置。
  2. 前記第1学習部は、前記発話を前記学習器に入力した際に、当該発話に対する応答を前記復元器が出力するように、前記学習器および前記復元器の学習を行う
    ことを特徴とする請求項1に記載の学習装置。
  3. 前記第1学習部は、前記発話に含まれる各単語が当該発話内で出現する順番とともに各単語が有する特徴を前記学習器に学習させ、当該学習器が符号化した特徴から、前記応答に含まれる各単語を各単語が当該応答内で出現する順番とともに復元するよう前記復元器を学習させる
    ことを特徴とする請求項2に記載の学習装置。
  4. 前記第1学習部は、前記応答を前記学習器に入力した際に、当該応答に対応する発話を前記復元器が出力するように、前記学習器および前記復元器の学習を行う
    ことを特徴とする請求項1に記載の学習装置。
  5. 前記第1学習部は、前記応答に含まれる各単語が当該応答内で出現する順番とともに各単語が有する特徴を前記学習器に学習させ、当該学習器が符号化した特徴から、前記発話に含まれる各単語を各単語が当該発話内で出現する順番とともに復元するよう前記復元器を学習させる
    ことを特徴とする請求項4に記載の学習装置。
  6. 前記第1生成部は、前記第1学習部によって学習が行われた学習器と新たな復元器とを用いて前記第2リカレントニューラルネットワークを生成する
    ことを特徴とする請求項1〜5のうちいずれか1つに記載の学習装置。
  7. 前記第1学習部によって学習された学習器と、前記第2学習部によって学習された前記第2リカレントニューラルネットワークに含まれる復元器とを含む第3リカレントニューラルネットワークを生成する第2生成部と、
    ラベルの付与対象となる文章を受付けた場合は、前記第2生成部により生成された前記第3リカレントニューラルネットワークを用いて、受付けられた文章に付与されるラベルを特定する特定部と
    を有することを特徴とする請求項6に記載の学習装置。
  8. 前記第1学習部によって学習された学習器と、前記第2学習部によって学習された前記第2リカレントニューラルネットワークに含まれる復元器とを含む第3リカレントニューラルネットワークを生成する第2生成部と、
    文章と当該文章に付与されるラベルとの関係性を、前記第2生成部によって生成された第3リカレントニューラルネットワークに学習させる第3学習部と、
    ラベルの付与対象となる文章を受付けた場合は、前記第3学習部により学習が行われた前記第3リカレントニューラルネットワークを用いて、受付けられた文章に付与されるラベルを特定する特定部と
    を有することを特徴とする請求項6に記載の学習装置。
  9. ラベルの付与対象となる文章を受付けた場合は、前記第2学習部により学習が行われた前記第2リカレントニューラルネットワークを用いて、受付けられた文章に付与されるラベルを特定する特定部と
    を有することを特徴とする請求項6に記載の学習装置。
  10. 学習装置が実行する学習方法であって、
    第1リカレントニューラルネットワークが有する学習器および復元器に、所定の対話における発話と応答との関係性を学習させる第1学習工程と、
    前記第1学習工程によって学習が行われた学習器または復元器の少なくともいずれか1つを用いて、第2リカレントニューラルネットワークを生成する第1生成工程と、
    文章と当該文章に付与されるラベルとの関係性を、前記第2リカレントニューラルネットワークに学習させる第2学習工程と
    を含むことを特徴とする学習方法。
  11. 第1リカレントニューラルネットワークが有する学習器および復元器に、所定の対話における発話と応答との関係性を学習させる第1学習工程と、
    前記第1学習工程によって学習が行われた学習器または復元器の少なくともいずれか1つを用いて、第2リカレントニューラルネットワークを生成する第1生成工程と、
    文章と当該文章に付与されるラベルとの関係性を、前記第2リカレントニューラルネットワークに学習させる第2学習工程と、
    前記第2リカレントニューラルネットワークを用いて、入力された文章に付与するラベルを推定する第3リカレントニューラルネットワークを生成する第2生成工程と、
    を含むことを特徴とする学習方法で生成される前記第3リカレントニューラルネットワークを含むプログラムパラメータ。
  12. コンピュータに
    第1リカレントニューラルネットワークが有する学習器および復元器に、所定の対話における発話と応答との関係性を学習させる第1学習手順と、
    前記第1学習手順によって学習が行われた学習器または復元器の少なくともいずれか1つを用いて、第2リカレントニューラルネットワークを生成する第1生成手順と、
    文章と当該文章に付与されるラベルとの関係性を、前記第2リカレントニューラルネットワークに学習させる第2学習手順と
    を実行させる学習プログラム。
JP2016161488A 2016-08-19 2016-08-19 学習装置、学習方法、および学習プログラム Active JP6526607B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016161488A JP6526607B2 (ja) 2016-08-19 2016-08-19 学習装置、学習方法、および学習プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016161488A JP6526607B2 (ja) 2016-08-19 2016-08-19 学習装置、学習方法、および学習プログラム

Publications (2)

Publication Number Publication Date
JP2018028872A true JP2018028872A (ja) 2018-02-22
JP6526607B2 JP6526607B2 (ja) 2019-06-05

Family

ID=61248452

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016161488A Active JP6526607B2 (ja) 2016-08-19 2016-08-19 学習装置、学習方法、および学習プログラム

Country Status (1)

Country Link
JP (1) JP6526607B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022025359A1 (ko) * 2020-07-27 2022-02-03 주식회사 딥브레인에이아이 발화 영상 생성 방법 및 장치

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015075706A (ja) * 2013-10-10 2015-04-20 日本放送協会 誤り修正モデル学習装置、及びプログラム
JP2015176355A (ja) * 2014-03-14 2015-10-05 日本電信電話株式会社 モデル学習装置、方法及びプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015075706A (ja) * 2013-10-10 2015-04-20 日本放送協会 誤り修正モデル学習装置、及びプログラム
JP2015176355A (ja) * 2014-03-14 2015-10-05 日本電信電話株式会社 モデル学習装置、方法及びプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022025359A1 (ko) * 2020-07-27 2022-02-03 주식회사 딥브레인에이아이 발화 영상 생성 방법 및 장치

Also Published As

Publication number Publication date
JP6526607B2 (ja) 2019-06-05

Similar Documents

Publication Publication Date Title
WO2019200923A1 (zh) 基于拼音的语义识别方法、装置以及人机对话***
US20170286397A1 (en) Predictive Embeddings
JP6462970B1 (ja) 分類装置、分類方法、生成方法、分類プログラム及び生成プログラム
US11157707B2 (en) Natural language response improvement in machine assisted agents
US20230259707A1 (en) Systems and methods for natural language processing (nlp) model robustness determination
CN111930914A (zh) 问题生成方法和装置、电子设备以及计算机可读存储介质
JP7205839B2 (ja) データ生成モデル学習装置、潜在変数生成モデル学習装置、翻訳データ生成装置、データ生成モデル学習方法、潜在変数生成モデル学習方法、翻訳データ生成方法、プログラム
JP7103264B2 (ja) 生成装置、学習装置、生成方法及びプログラム
JP6391617B2 (ja) 学習装置、文章自動生成装置および学習方法
JP6400038B2 (ja) 抽出装置および抽出方法
JP6082657B2 (ja) ポーズ付与モデル選択装置とポーズ付与装置とそれらの方法とプログラム
JP2019079088A (ja) 学習装置、プログラムパラメータおよび学習方法
JP6775366B2 (ja) 選択装置、および選択方法
JP4054046B2 (ja) 意見性判定データベース作成方法及び装置及びプログラム及び意見性判定方法及び装置及びプログラム及びコンピュータ読み取り可能な記録媒体
CN112307738A (zh) 用于处理文本的方法和装置
JP6526607B2 (ja) 学習装置、学習方法、および学習プログラム
JP6680655B2 (ja) 学習装置および学習方法
JP2019021218A (ja) 学習装置、プログラムパラメータ、学習方法およびモデル
JP2019079087A (ja) 学習装置、プログラムパラメータおよび学習方法
JP2023181819A (ja) 言語処理装置、機械学習方法、推定方法及びプログラム
WO2018066083A1 (ja) 学習プログラム、情報処理装置および学習方法
Kumar et al. ManuBERT: A pretrained Manufacturing science language representation model
JP2020160974A (ja) 情報処理装置、情報処理方法及びプログラム
JP7507733B2 (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
JP6461032B2 (ja) 抽出装置および抽出方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180718

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20180718

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20180718

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181009

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181120

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190121

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190409

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190508

R150 Certificate of patent or registration of utility model

Ref document number: 6526607

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350