JP2018028872A - 学習装置、学習方法、プログラムパラメータおよび学習プログラム - Google Patents
学習装置、学習方法、プログラムパラメータおよび学習プログラム Download PDFInfo
- Publication number
- JP2018028872A JP2018028872A JP2016161488A JP2016161488A JP2018028872A JP 2018028872 A JP2018028872 A JP 2018028872A JP 2016161488 A JP2016161488 A JP 2016161488A JP 2016161488 A JP2016161488 A JP 2016161488A JP 2018028872 A JP2018028872 A JP 2018028872A
- Authority
- JP
- Japan
- Prior art keywords
- learning
- sentence
- neural network
- rnn
- recurrent neural
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 48
- 230000004044 response Effects 0.000 claims abstract description 79
- 238000013528 artificial neural network Methods 0.000 claims abstract description 34
- 230000000306 recurrent effect Effects 0.000 claims abstract description 33
- 238000005259 measurement Methods 0.000 description 42
- 230000008569 process Effects 0.000 description 26
- 238000012549 training Methods 0.000 description 19
- 238000010586 diagram Methods 0.000 description 14
- 238000012545 processing Methods 0.000 description 14
- 230000014509 gene expression Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 239000000284 extract Substances 0.000 description 4
- 230000010365 information processing Effects 0.000 description 4
- 238000012546 transfer Methods 0.000 description 4
- 230000006866 deterioration Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 210000002569 neuron Anatomy 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000008094 contradictory effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000004836 empirical method Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Landscapes
- Machine Translation (AREA)
Abstract
Description
[実施形態]
まず、図1を用いて、学習装置が実行する学習処理の一例について説明する。図1は、実施形態に係る学習装置が実行する学習処理の一例を示す図である。図1では、学習装置10は、以下に説明する学習処理を実行する情報処理装置であり、例えば、サーバ装置やクラウドシステム等により実現される。
ここで、学習装置10は、入力された文章に対し、その文章の種別や内容等といった属性を示す属性情報を付与するためのモデルを学習する。このような属性情報は、ラベル、タグ、又はメタデータ等と呼ばれ、文章の検索や選択を行う際に利用される。なお、以下の説明では属性情報をラベルと記載する。
ここで、学習装置10は、プレトレーニングを行ったRNN、すなわち、第1RNNをそのまま用いて、文章とラベルとの関係性を学習させてもよい。また、学習装置10は、第1RNNに含まれる学習器または復元器の少なくともいずれか1つを用いて、新たなRNNを生成し、生成したRNNに文章とラベルとの関係性を学習させてもよい。
ここで、学習装置10は、対話に含まれる発話と応答とを用いてプレトレーニングを行った学習器または復元器を用いるのであれば、任意の処理を用いて、測定用RNNを生成してよい。例えば、学習装置10は、第1RNNに含まれる学習器と新たな復元器とから第2RNNを生成し、学習データを用いて第2RNNを学習する。そして、学習装置10は、学習を行った第2RNNを、そのまま測定用RNNとしてもよい。
ここで、学習装置10は、任意の文章に対して付与される任意のラベルを付与するRNNの学習を行ってよい。すなわち、学習装置10がラベルを付与する文章とは、小説、新聞記事、ブログ、マイクロブログ、批評、投稿等といった執筆物に関する文章であってもよく、カルテ等といった記録等であってもよい。また、文章は、一文であってもよく複数の文からなる文章であってもよい。例えば、学習装置10は、書籍や作品単位で文章の学習等を行ってもよい。
次に、上述した学習処理を示す数式の一例について説明する。例えば、時刻「t」における学習器の「j」番目のノードの状態を「hj<t>」と記載すると、学習器における各ノードの状態は、以下の式(1)で表すことができる。ここで、式(1)中の波付き「hj<t>」は、式(2)で表すことができ、「zj」および「rj」は、以下の式(3)および式(4)で表される。ここで、「xt」は、「t」番目の入力を示す。また、式(2)〜式(4)の「W」および「U」は、学習器の接続係数を示すパラメータである。
次に、図1を用いて、学習装置10が実行する学習処理の一例について説明する。まず、学習装置10は、利用者の発言Aや発言B等といった対話を入力として受付ける(ステップS1)。例えば、入力装置200は、マイクなどの音声を取得する音声取得装置を用いて、複数の利用者間で行われた対話の音声を取得する。そして、入力装置200は、任意の音声認識技術を用いて、対話をテキストデータに変換し、変換後のテキストデータ、すなわち、対話のテキストデータを学習装置10へと送信する。
以下、上記した学習処理を実現する学習装置10が有する機能構成の一例について説明する。図2は、実施形態に係る学習装置の構成例を示す図である。図2に示すように、学習装置10は、通信部20、記憶部30、および制御部40を有する。
次に、図5および図6を用いて、学習装置10が測定用RNNとして用いるRNNの生成のバリエーションについて説明する。図5は、実施形態に係る学習装置が生成するRNNのバリエーションを示す第1の図である。また、図6は、実施形態に係る学習装置が生成するRNNのバリエーションを示す第2の図である。
次に、図7を用いて、学習装置10が実行する学習処理の流れの一例について説明する。図7は、実施形態に係る学習処理の流れの一例を説明するフローチャートである。まず、学習装置10は、対話文を取得し(ステップS101)、対話文から発話と応答とを抽出する(ステップS102)。そして、学習装置10は、発話から応答を再現するように、第1RNNに含まれる学習器と復元器とのプレトレーニングを行う(ステップS103)。
上記では、学習装置10による学習処理の一例について説明した。しかしながら、実施形態は、これに限定されるものではない。以下、学習装置10が実行する学習処理のバリエーションについて説明する。
上述した例では、学習装置10は、生成した測定用RNNを用いて、ラベルの付与対象となる文章に付与するラベルを特定した。しかしながら、実施形態は、これに限定されるものではない。例えば、学習装置10は、生成した測定用RNNを用いて、文章からラベルを付与するプログラムを生成し、生成したプログラムを出力してもよい。このようなプログラムは、学習装置10以外の情報処理装置が実行することで、学習装置10により生成された測定用RNNを用いて、文章からラベルを特定させることができる。すなわち、学習装置10が生成した測定用RNNは、文章からラベルを特定するプログラムのプログラムパラメータとして用いられてもよい。
上述した例では、学習装置10は、学習装置10内で学習処理および測定処理を実行した。しかしながら、実施形態は、これに限定されるものではない。例えば、学習装置10は、学習処理のみを実行し、測定処理については、他の装置が実行してもよい。また、学習装置10は、対話データデータベース31および学習データデータベース32を外部のストレージサーバに記憶させてもよい。
また、上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文章中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
また、上述してきた実施形態に係る学習装置10は、例えば図8に示すような構成のコンピュータ1000によって実現される。図8は、ハードウェア構成の一例を示す図である。コンピュータ1000は、出力装置1010、入力装置1020と接続され、演算装置1030、一次記憶装置1040、二次記憶装置1050、出力IF(Interface)1060、入力IF1070、ネットワークIF1080がバス1090により接続された形態を有する。
上述したように、学習装置10は、第1RNNが有する学習器および復元器に、所定の対話における発話と応答との関係性を学習させる。そして、学習装置10は、学習が行われた学習器または復元器の少なくともいずれか1つを用いて、第2RNNを生成し、文章とその文章に付与されるラベルとの関係性を、第2RNNに学習させる。このように、学習装置10は、発話とその発話に対する応答とが含む隠された共通性を用いて、RNNのプレトレーニングを行うので、文章に付与するラベルの精度を向上させることができる。また、学習データがある程度潤沢にある場合は、従来の学習手法で学習したRNNよりも分類精度(性能)が良いRNNを取得することができる。
30 記憶部
31 対話データデータベース
32 学習データデータベース
40 制御部
41 取得部
42 第1学習部
43 第2学習部
44 生成部
45 測定部
100 端末装置
200 入力装置
Claims (12)
- 第1リカレントニューラルネットワークが有する学習器および復元器に、所定の対話における発話と応答との関係性を学習させる第1学習部と、
前記第1学習部によって学習が行われた学習器または復元器の少なくともいずれか1つを用いて、第2リカレントニューラルネットワークを生成する第1生成部と、
文章と当該文章に付与されるラベルとの関係性を、前記第2リカレントニューラルネットワークに学習させる第2学習部と
を有することを特徴とする学習装置。 - 前記第1学習部は、前記発話を前記学習器に入力した際に、当該発話に対する応答を前記復元器が出力するように、前記学習器および前記復元器の学習を行う
ことを特徴とする請求項1に記載の学習装置。 - 前記第1学習部は、前記発話に含まれる各単語が当該発話内で出現する順番とともに各単語が有する特徴を前記学習器に学習させ、当該学習器が符号化した特徴から、前記応答に含まれる各単語を各単語が当該応答内で出現する順番とともに復元するよう前記復元器を学習させる
ことを特徴とする請求項2に記載の学習装置。 - 前記第1学習部は、前記応答を前記学習器に入力した際に、当該応答に対応する発話を前記復元器が出力するように、前記学習器および前記復元器の学習を行う
ことを特徴とする請求項1に記載の学習装置。 - 前記第1学習部は、前記応答に含まれる各単語が当該応答内で出現する順番とともに各単語が有する特徴を前記学習器に学習させ、当該学習器が符号化した特徴から、前記発話に含まれる各単語を各単語が当該発話内で出現する順番とともに復元するよう前記復元器を学習させる
ことを特徴とする請求項4に記載の学習装置。 - 前記第1生成部は、前記第1学習部によって学習が行われた学習器と新たな復元器とを用いて前記第2リカレントニューラルネットワークを生成する
ことを特徴とする請求項1〜5のうちいずれか1つに記載の学習装置。 - 前記第1学習部によって学習された学習器と、前記第2学習部によって学習された前記第2リカレントニューラルネットワークに含まれる復元器とを含む第3リカレントニューラルネットワークを生成する第2生成部と、
ラベルの付与対象となる文章を受付けた場合は、前記第2生成部により生成された前記第3リカレントニューラルネットワークを用いて、受付けられた文章に付与されるラベルを特定する特定部と
を有することを特徴とする請求項6に記載の学習装置。 - 前記第1学習部によって学習された学習器と、前記第2学習部によって学習された前記第2リカレントニューラルネットワークに含まれる復元器とを含む第3リカレントニューラルネットワークを生成する第2生成部と、
文章と当該文章に付与されるラベルとの関係性を、前記第2生成部によって生成された第3リカレントニューラルネットワークに学習させる第3学習部と、
ラベルの付与対象となる文章を受付けた場合は、前記第3学習部により学習が行われた前記第3リカレントニューラルネットワークを用いて、受付けられた文章に付与されるラベルを特定する特定部と
を有することを特徴とする請求項6に記載の学習装置。 - ラベルの付与対象となる文章を受付けた場合は、前記第2学習部により学習が行われた前記第2リカレントニューラルネットワークを用いて、受付けられた文章に付与されるラベルを特定する特定部と
を有することを特徴とする請求項6に記載の学習装置。 - 学習装置が実行する学習方法であって、
第1リカレントニューラルネットワークが有する学習器および復元器に、所定の対話における発話と応答との関係性を学習させる第1学習工程と、
前記第1学習工程によって学習が行われた学習器または復元器の少なくともいずれか1つを用いて、第2リカレントニューラルネットワークを生成する第1生成工程と、
文章と当該文章に付与されるラベルとの関係性を、前記第2リカレントニューラルネットワークに学習させる第2学習工程と
を含むことを特徴とする学習方法。 - 第1リカレントニューラルネットワークが有する学習器および復元器に、所定の対話における発話と応答との関係性を学習させる第1学習工程と、
前記第1学習工程によって学習が行われた学習器または復元器の少なくともいずれか1つを用いて、第2リカレントニューラルネットワークを生成する第1生成工程と、
文章と当該文章に付与されるラベルとの関係性を、前記第2リカレントニューラルネットワークに学習させる第2学習工程と、
前記第2リカレントニューラルネットワークを用いて、入力された文章に付与するラベルを推定する第3リカレントニューラルネットワークを生成する第2生成工程と、
を含むことを特徴とする学習方法で生成される前記第3リカレントニューラルネットワークを含むプログラムパラメータ。 - コンピュータに
第1リカレントニューラルネットワークが有する学習器および復元器に、所定の対話における発話と応答との関係性を学習させる第1学習手順と、
前記第1学習手順によって学習が行われた学習器または復元器の少なくともいずれか1つを用いて、第2リカレントニューラルネットワークを生成する第1生成手順と、
文章と当該文章に付与されるラベルとの関係性を、前記第2リカレントニューラルネットワークに学習させる第2学習手順と
を実行させる学習プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016161488A JP6526607B2 (ja) | 2016-08-19 | 2016-08-19 | 学習装置、学習方法、および学習プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016161488A JP6526607B2 (ja) | 2016-08-19 | 2016-08-19 | 学習装置、学習方法、および学習プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018028872A true JP2018028872A (ja) | 2018-02-22 |
JP6526607B2 JP6526607B2 (ja) | 2019-06-05 |
Family
ID=61248452
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016161488A Active JP6526607B2 (ja) | 2016-08-19 | 2016-08-19 | 学習装置、学習方法、および学習プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6526607B2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022025359A1 (ko) * | 2020-07-27 | 2022-02-03 | 주식회사 딥브레인에이아이 | 발화 영상 생성 방법 및 장치 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015075706A (ja) * | 2013-10-10 | 2015-04-20 | 日本放送協会 | 誤り修正モデル学習装置、及びプログラム |
JP2015176355A (ja) * | 2014-03-14 | 2015-10-05 | 日本電信電話株式会社 | モデル学習装置、方法及びプログラム |
-
2016
- 2016-08-19 JP JP2016161488A patent/JP6526607B2/ja active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015075706A (ja) * | 2013-10-10 | 2015-04-20 | 日本放送協会 | 誤り修正モデル学習装置、及びプログラム |
JP2015176355A (ja) * | 2014-03-14 | 2015-10-05 | 日本電信電話株式会社 | モデル学習装置、方法及びプログラム |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022025359A1 (ko) * | 2020-07-27 | 2022-02-03 | 주식회사 딥브레인에이아이 | 발화 영상 생성 방법 및 장치 |
Also Published As
Publication number | Publication date |
---|---|
JP6526607B2 (ja) | 2019-06-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2019200923A1 (zh) | 基于拼音的语义识别方法、装置以及人机对话*** | |
US20170286397A1 (en) | Predictive Embeddings | |
JP6462970B1 (ja) | 分類装置、分類方法、生成方法、分類プログラム及び生成プログラム | |
US11157707B2 (en) | Natural language response improvement in machine assisted agents | |
US20230259707A1 (en) | Systems and methods for natural language processing (nlp) model robustness determination | |
CN111930914A (zh) | 问题生成方法和装置、电子设备以及计算机可读存储介质 | |
JP7205839B2 (ja) | データ生成モデル学習装置、潜在変数生成モデル学習装置、翻訳データ生成装置、データ生成モデル学習方法、潜在変数生成モデル学習方法、翻訳データ生成方法、プログラム | |
JP7103264B2 (ja) | 生成装置、学習装置、生成方法及びプログラム | |
JP6391617B2 (ja) | 学習装置、文章自動生成装置および学習方法 | |
JP6400038B2 (ja) | 抽出装置および抽出方法 | |
JP6082657B2 (ja) | ポーズ付与モデル選択装置とポーズ付与装置とそれらの方法とプログラム | |
JP2019079088A (ja) | 学習装置、プログラムパラメータおよび学習方法 | |
JP6775366B2 (ja) | 選択装置、および選択方法 | |
JP4054046B2 (ja) | 意見性判定データベース作成方法及び装置及びプログラム及び意見性判定方法及び装置及びプログラム及びコンピュータ読み取り可能な記録媒体 | |
CN112307738A (zh) | 用于处理文本的方法和装置 | |
JP6526607B2 (ja) | 学習装置、学習方法、および学習プログラム | |
JP6680655B2 (ja) | 学習装置および学習方法 | |
JP2019021218A (ja) | 学習装置、プログラムパラメータ、学習方法およびモデル | |
JP2019079087A (ja) | 学習装置、プログラムパラメータおよび学習方法 | |
JP2023181819A (ja) | 言語処理装置、機械学習方法、推定方法及びプログラム | |
WO2018066083A1 (ja) | 学習プログラム、情報処理装置および学習方法 | |
Kumar et al. | ManuBERT: A pretrained Manufacturing science language representation model | |
JP2020160974A (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP7507733B2 (ja) | 情報処理装置、情報処理方法、及び情報処理プログラム | |
JP6461032B2 (ja) | 抽出装置および抽出方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180718 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20180718 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20180718 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20181009 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181120 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190121 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190409 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190508 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6526607 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |