JP7293729B2 - LEARNING DEVICE, INFORMATION OUTPUT DEVICE, AND PROGRAM - Google Patents

LEARNING DEVICE, INFORMATION OUTPUT DEVICE, AND PROGRAM Download PDF

Info

Publication number
JP7293729B2
JP7293729B2 JP2019038037A JP2019038037A JP7293729B2 JP 7293729 B2 JP7293729 B2 JP 7293729B2 JP 2019038037 A JP2019038037 A JP 2019038037A JP 2019038037 A JP2019038037 A JP 2019038037A JP 7293729 B2 JP7293729 B2 JP 7293729B2
Authority
JP
Japan
Prior art keywords
learning
model
input
classification
error
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019038037A
Other languages
Japanese (ja)
Other versions
JP2020140673A (en
Inventor
徹 西埜
翔太郎 三沢
竜示 狩野
友紀 谷口
康秀 三浦
智子 大熊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Fujifilm Business Innovation Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd, Fujifilm Business Innovation Corp filed Critical Fuji Xerox Co Ltd
Priority to JP2019038037A priority Critical patent/JP7293729B2/en
Publication of JP2020140673A publication Critical patent/JP2020140673A/en
Application granted granted Critical
Publication of JP7293729B2 publication Critical patent/JP7293729B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Machine Translation (AREA)

Description

本発明は、学習装置、情報出力装置、及びプログラムに関する。 The present invention relates to a learning device, an information output device, and a program.

例えば、特許文献1には、文により構成されるテキストデータから言語モデルを学習する言語モデル学習装置が記載されている。この言語モデル学習装置は、テキストデータを構成する文に含まれる単語をクラスタリングしてジャンル分けし、ジャンル分けされた各単語に、ジャンルごとに固有のジャンルIDを付与する分類手段を備える。また、この言語モデル学習装置は、テキストデータとして、単語と当該単語に付与されているジャンルIDとを再帰型ニューラルネットワークに順次入力し、当該再帰型ニューラルネットワークにより、単語から当該単語の次単語および当該次単語に付与されているジャンルIDを推定し、再帰型ニューラルネットワークに順次入力される正解データである次単語およびジャンルIDとの誤差を用いた誤差逆伝播法により、再帰型ニューラルネットワークを言語モデルとして更新する学習手段を備える。 For example, Patent Literature 1 describes a language model learning device that learns a language model from text data composed of sentences. This language model learning apparatus includes a classification means for clustering words included in sentences forming text data, classifying them into genres, and assigning genre IDs unique to each genre to each of the classified words. In addition, this language model learning device sequentially inputs a word and a genre ID assigned to the word as text data to a recursive neural network, and the recursive neural network reads from the word to the next word of the word and The genre ID assigned to the next word is estimated, and the error backpropagation method using the error between the next word and the genre ID, which are the correct data sequentially input to the recursive neural network, is used to convert the recursive neural network into a language. A learning means for updating as a model is provided.

また、特許文献2には、つづり-発音記号変換装置が記載されている。このつづり-発音記号変換装置は、単語のつづり文字と、そのつづり文字の発音記号を入力し、N個の部分文字列を切り出して出力する入力文字窓と、入力文字窓からのつづり文字を受けて1文字ずつディレイをかけたつづりを出力するN個の文字ディレイと、を備える。また、このつづり-発音記号変換装置は、これらN個の文字ディレイに対応して設けられた、これら文字ディレイの対応する出力を入力とする要素ニューラルネットワークと、当該要素ニューラルネットワークに学習操作を行う学習部とにより構成されるN個のニューラルネットワーク部と、を備える。また、このつづり-発音記号変換装置は、入力文字窓からの発音記号を受けて、教師信号を生成し、要素ニューラルネットワークの学習部に与える教師信号生成部と、各要素ニューラルネットワークの出力を受けてそれぞれの出力に所定の重みづけを行う重み係数部と、重み係数部の出力を受けて最終的な発音記号列を出力する最終出力部と、を備える。 In addition, Patent Document 2 describes a spelling-phonetic symbol conversion device. This spelling-phonetic symbol conversion device has an input character window for inputting the spelling characters of a word and the phonetic symbols of the spelling characters, extracting and outputting N partial character strings, and receiving the spelling characters from the input character window. and N character delays for outputting the spelling delayed character by character. In addition, this spelling-phonetic symbol conversion device includes an elemental neural network provided corresponding to these N character delays and receiving the corresponding output of these character delays as an input, and performing a learning operation on the elemental neural network. and N neural network units configured by a learning unit. In addition, this spelling-phonetic symbol conversion device receives the phonetic symbols from the input character window, generates a teacher signal, and receives the output of each element neural network. and a final output section for receiving the output of the weighting factor section and outputting the final phonetic symbol string.

また、特許文献3には、コンピュータシステムにおけるウェブページを分類する方法が記載されている。この方法は、ウェブページを取り出すステップと、取り出されたウェブページの要約を自動的に生成するステップと、自動的に生成された要約に基づいて取り出されたウェブページの分類を決定するステップと、を備える。 In addition, Patent Literature 3 describes a method of classifying web pages in a computer system. The method comprises the steps of retrieving a web page, automatically generating a summary of the retrieved web page, determining a classification of the retrieved web page based on the automatically generated summary; Prepare.

特開2018-84627号公報JP 2018-84627 A 特許第3004753号公報Japanese Patent No. 3004753 特開2005-322245号公報JP 2005-322245 A

ところで、複数のモデルを個別に学習する場合、複数のモデルの出力間で内容が矛盾し、内容の一貫性を保てない場合がある。 By the way, when a plurality of models are individually learned, there are cases where the content is inconsistent between the outputs of the plurality of models and the consistency of the content cannot be maintained.

本発明は、複数のモデルを個別に学習する場合と比較して、複数のモデルがそれぞれ出力する出力情報同士の内容の一貫性を向上させることができる学習装置、情報出力装置、及びプログラムを提供することを目的とする。 The present invention provides a learning device, an information output device, and a program that can improve the consistency of the content of output information output by a plurality of models, compared to the case where a plurality of models are individually learned. intended to

上記目的を達成するために、第1態様に係る学習装置は、入力情報から得られ、かつ、前記入力情報と共通の意味を表す特徴情報を入力として、前記特徴情報の意味に対応する文字列の分類を分類結果として出力する分類モデル、及び、前記特徴情報を入力として、前記特徴情報の意味に対応する文字列を生成結果として出力する生成モデルを機械学習する学習部を備えている。 In order to achieve the above object, a learning device according to a first aspect receives feature information that is obtained from input information and has a common meaning with the input information. and a learning unit that machine-learns a generation model that receives the feature information as an input and outputs a character string corresponding to the meaning of the feature information as a generation result.

また、第2態様に係る学習装置は、第1態様に係る学習装置において、前記入力情報から前記特徴情報を抽出する抽出部を更に備え、前記抽出部が、前記入力情報を単語毎に入力し、前記入力した単語と共通の意味を表す特徴情報が出力されるように学習されるニューラルネットワークとされている。 Further, the learning device according to the second aspect is the learning device according to the first aspect, further comprising an extraction unit for extracting the feature information from the input information, wherein the extraction unit inputs the input information word by word. , is a neural network trained to output feature information representing a common meaning with the input word.

また、第3態様に係る学習装置は、第1態様又は第2態様に係る学習装置において、前記分類モデルが、前記特徴情報を入力として、前記特徴情報の意味に対応する文字列の分類毎に固有の分類IDが出力されるように学習されるニューラルネットワークとされている。 Further, a learning device according to a third aspect is the learning device according to the first aspect or the second aspect, wherein the classification model uses the feature information as an input, and for each classification of character strings corresponding to the meaning of the feature information, A neural network is trained to output a unique classification ID.

また、第4態様に係る学習装置は、第1態様~第3態様のいずれか1の態様に係る学習装置において、前記生成モデルが、前記特徴情報を入力として、前記特徴情報の意味に対応する文字列が出力されるように学習されるニューラルネットワークとされている。 Further, a learning device according to a fourth aspect is the learning device according to any one of the first to third aspects, wherein the generative model receives the feature information as an input and corresponds to the meaning of the feature information. It is a neural network that is trained to output character strings.

また、第5態様に係る学習装置は、第1態様~第4態様のいずれか1の態様に係る学習装置において、前記学習部が、前記特徴情報を入力として、前記特徴情報の意味に対応する数値を回帰分析結果として出力する回帰モデルを更に機械学習する。 Further, a learning device according to a fifth aspect is the learning device according to any one of the first to fourth aspects, wherein the learning unit receives the feature information as an input and corresponds to the meaning of the feature information. A regression model that outputs numerical values as regression analysis results is further machine-learned.

また、第6態様に係る学習装置は、第5態様に係る学習装置において、前記回帰モデルが、前記特徴情報を入力として、前記特徴情報の意味に対応する数値が出力されるように学習されるニューラルネットワークとされている。 A learning device according to a sixth aspect is the learning device according to the fifth aspect, wherein the regression model is learned such that the feature information is input and a numerical value corresponding to the meaning of the feature information is output. It's called a neural network.

また、第7態様に係る学習装置は、第1態様~第4態様のいずれか1の態様に係る学習装置において、前記学習部が、前記分類モデル及び前記生成モデルの各々の学習の度合いに応じて決定される、前記分類モデル及び前記生成モデルの各々に対する学習の割合に基づいて、前記分類モデル及び前記生成モデルの各々の学習を行う。 Further, a learning device according to a seventh aspect is the learning device according to any one of the first to fourth aspects, wherein the learning unit is configured to: Each of the classification model and the generative model is trained based on the rate of learning for each of the classification model and the generative model determined by the method.

また、第8態様に係る学習装置は、第7態様に係る学習装置において、前記学習部が、前記分類モデル及び前記生成モデルのうち、前記学習の度合いが低い一方のモデルの前記学習の割合を、前記学習の度合いが高い他方のモデルの前記学習の割合よりも大きく決定する。 Further, the learning device according to the eighth aspect is the learning device according to the seventh aspect, wherein the learning unit calculates the learning ratio of one of the classification model and the generation model having a lower degree of learning. , is determined to be greater than the learning rate of the other model with the higher degree of learning.

また、第9態様に係る学習装置は、第7態様又は第8態様に係る学習装置において、前記学習部が、前記分類モデルから出力された分類結果と、前記分類結果に対応する正解データとの第1誤差を算出する第1算出部と、前記生成モデルから出力された生成結果と、前記生成結果に対応する正解データとの第2誤差を算出する第2算出部と、前記第1誤差に付与する第1重み値、及び、前記第2誤差に付与する第2重み値の各々を、前記分類モデル及び前記生成モデルの各々の学習の度合いに応じて決定する決定部と、前記第1重み値が付与された前記第1誤差と、前記第2重み値が付与された前記第2誤差との和である重み付き和を用いた誤差逆伝播法により、前記分類モデル及び前記生成モデルの各々を更新する更新部と、を含んでいる。 Further, a learning device according to a ninth aspect is the learning device according to the seventh aspect or the eighth aspect, wherein the learning unit compares the classification result output from the classification model and the correct data corresponding to the classification result. a first calculation unit that calculates a first error; a second calculation unit that calculates a second error between a generation result output from the generative model and correct data corresponding to the generation result; a determination unit that determines each of a first weight value to be assigned and a second weight value to be assigned to the second error according to a degree of learning of each of the classification model and the generative model; each of the classification model and the generative model by error backpropagation using a weighted sum that is the sum of the first error assigned the value and the second error assigned the second weight value and an updater for updating the .

また、第10態様に係る学習装置は、第9態様に係る学習装置において、前記更新部が、前記第1重み値が付与された前記第1誤差が、前記第2重み値が付与された前記第2誤差よりも大きい場合、前記分類モデルの前記学習の度合いを制御するフィードバック量を、前記生成モデルの前記学習の度合いを制御するフィードバック量よりも大きくし、前記第2重み値が付与された前記第2誤差が、前記第1重み値が付与された前記第1誤差よりも大きい場合、前記生成モデルの前記学習の度合いを制御するフィードバック量を、前記分類モデルの前記学習の度合いを制御するフィードバック量よりも大きくする。 Further, the learning device according to a tenth aspect is the learning device according to the ninth aspect, wherein the updating unit converts the first error to which the first weight value is assigned to the error to which the second weight value is assigned. if greater than the second error, the feedback amount controlling the degree of learning of the classification model is made greater than the feedback amount controlling the degree of learning of the generative model, and the second weighting value is assigned. If the second error is greater than the first error with the first weighting value, the amount of feedback controlling the degree of learning of the generative model controls the degree of learning of the classification model. Make it larger than the feedback amount.

また、第11態様に係る学習装置は、第9態様又は第10態様に係る学習装置において、前記学習の度合いが、学習を行った回数を示す学習回数及び予め定められた関数の少なくとも一方を用いて制御される。 Further, the learning device according to the eleventh aspect is the learning device according to the ninth aspect or the tenth aspect, wherein the degree of learning uses at least one of a learning number indicating the number of times learning has been performed and a predetermined function. controlled by

一方、上記目的を達成するために、第12態様に係る情報出力装置は、第1態様~第11態様のいずれか1の態様に係る学習装置を用いて機械学習された学習済み分類モデルと、前記学習装置を用いて機械学習された学習済み生成モデルと、を備え、前記学習済み分類モデルが、入力情報から得られ、かつ、前記入力情報と共通の意味を表す特徴情報を入力とし、前記特徴情報の意味に対応する文字列の分類を分類結果として出力し、前記学習済み生成モデルが、前記特徴情報を入力とし、前記特徴情報の意味に対応する文字列を生成結果として出力する。 On the other hand, in order to achieve the above object, an information output device according to a twelfth aspect includes a learned classification model machine-learned using the learning device according to any one of the first to eleventh aspects, a trained generative model machine-learned using the learning device, wherein the trained classification model is obtained from input information and receives as input feature information representing a common meaning with the input information; A classification of character strings corresponding to the meaning of the feature information is output as a classification result, and the trained generative model receives the feature information as an input and outputs a character string corresponding to the meaning of the feature information as a generation result.

更に、上記目的を達成するために、第13態様に係るプログラムは、コンピュータを、第1態様~第11態様のいずれか1の態様に係る学習装置が備える各部として機能させる。 Furthermore, in order to achieve the above object, a program according to a thirteenth aspect causes a computer to function as each unit included in the learning device according to any one of the first to eleventh aspects.

第1態様、第12態様、及び第13態様によれば、複数のモデルを個別に学習する場合と比較して、複数のモデルがそれぞれ出力する出力情報同士の内容の一貫性を向上させることができる、という効果を有する。 According to the first aspect, the twelfth aspect, and the thirteenth aspect, it is possible to improve the consistency of the content of the output information output by each of the plurality of models, compared to the case where the plurality of models are individually learned. It has the effect of being able to

第2態様によれば、特徴情報を得るためにニューラルネットワークを用いない場合と比較して、適切な特徴情報を得ることができる、という効果を有する。 According to the second aspect, there is an effect that appropriate feature information can be obtained as compared with the case where a neural network is not used to obtain feature information.

第3態様によれば、分類IDを得るためにニューラルネットワークを用いない場合と比較して、適切な分類結果を得ることができる、という効果を有する。 According to the third aspect, there is an effect that an appropriate classification result can be obtained as compared with the case where the neural network is not used to obtain the classification ID.

第4態様によれば、文字列を得るためにニューラルネットワークを用いない場合と比較して、適切な文字列を得ることができる、という効果を有する。 According to the fourth aspect, there is an effect that an appropriate character string can be obtained as compared with the case where the neural network is not used to obtain the character string.

第5態様によれば、回帰モデルを用いて特徴情報の意味に対応する数値を得ることができる、という効果を有する。 According to the fifth aspect, there is an effect that a numerical value corresponding to the meaning of the feature information can be obtained using the regression model.

第6態様によれば、数値を得るためにニューラルネットワークを用いない場合と比較して、適切な数値を得ることができる、という効果を有する。 According to the sixth aspect, there is an effect that an appropriate numerical value can be obtained as compared with the case where the neural network is not used to obtain the numerical value.

第7態様によれば、学習の割合を考慮せずに学習を行う場合と比較して、複数のモデル間での学習の進捗を適切に合わせることができる、という効果を有する。 According to the seventh aspect, there is an effect that it is possible to appropriately match the progress of learning among a plurality of models as compared with the case where learning is performed without considering the rate of learning.

第8態様によれば、学習の度合いに係わらず学習の割合を決定する場合と比較して、複数のモデル間での学習の進捗を適切に合わせることができる、という効果を有する。 According to the eighth aspect, it is possible to appropriately match the progress of learning among a plurality of models, as compared with the case where the learning rate is determined regardless of the degree of learning.

第9態様によれば、学習の度合いに係わらず重み値を決定する場合と比較して、複数のモデル間での学習の進捗を適切に合わせることができる、という効果を有する。 According to the ninth aspect, it is possible to appropriately match the progress of learning among a plurality of models, as compared with the case where the weight value is determined regardless of the degree of learning.

第10態様によれば、重み付き誤差の大小に係わらずフィードバック量を決定する場合と比較して、複数のモデル間での学習の進捗を適切に合わせることができる、という効果を有する。 According to the tenth aspect, there is an effect that it is possible to appropriately match the progress of learning among a plurality of models, compared to the case where the feedback amount is determined regardless of the magnitude of the weighted error.

第11態様によれば、学習の度合いを学習回数及び関数の少なくとも一方を用いて制御しない場合と比較して、複数のモデル間での学習の進捗を適切に合わせることができる、という効果を有する。 According to the eleventh aspect, compared to the case where the degree of learning is not controlled using at least one of the number of times of learning and the function, it is possible to appropriately match the progress of learning among a plurality of models. .

実施形態に係る学習装置の電気的な構成の一例を示すブロック図である。1 is a block diagram showing an example of an electrical configuration of a learning device according to an embodiment; FIG. Webサイトに掲載される記事の一例を示す図である。It is a figure which shows an example of the article posted on a website. 実施形態に係る学習装置の機能的な構成の一例を示すブロック図である。1 is a block diagram showing an example of a functional configuration of a learning device according to an embodiment; FIG. 実施形態に係るニューラルネットワークの一例を示す概念図である。1 is a conceptual diagram showing an example of a neural network according to an embodiment; FIG. 実施形態に係る学習処理プログラムの処理の流れの一例を示すフローチャートである。6 is a flow chart showing an example of the flow of processing of a learning processing program according to the embodiment; 実施形態に係る学習装置の具体的な構成を示すブロック図である。1 is a block diagram showing a specific configuration of a learning device according to an embodiment; FIG. 実施形態に係る誤差逆伝播部及び学習スケジューリング設定部の具体的な構成を示すブロック図である。4 is a block diagram showing specific configurations of an error backpropagation unit and a learning scheduling setting unit according to the embodiment; FIG. 実施形態に係る学習支援を目的とした学習モデルの説明に供する図である。It is a figure where it uses for description of the learning model for the purpose of learning support which concerns on embodiment. (A)は、記事見出し文生成の評価結果の一例を示す図である。(B)は、職種フレーズ生成の評価結果の一例を示す図である。(A) is a diagram showing an example of an evaluation result of article headline generation. (B) is a diagram showing an example of an evaluation result of occupation phrase generation. 実施形態に係る情報出力装置の機能的な構成の一例を示すブロック図である。It is a block diagram showing an example of functional composition of an information output device concerning an embodiment. 実施形態に係る情報出力処理プログラムの処理の流れの一例を示すフローチャートである。It is a flow chart which shows an example of a flow of processing of an information output processing program concerning an embodiment.

以下、図面を参照して、本発明を実施するための形態の一例について詳細に説明する。 Hereinafter, an example of a mode for carrying out the present invention will be described in detail with reference to the drawings.

図1は、本実施形態に係る学習装置10の電気的な構成の一例を示すブロック図である。
図1に示すように、本実施形態に係る学習装置10は、制御部12と、記憶部14と、表示部16と、操作部18と、通信部20と、を備えている。
FIG. 1 is a block diagram showing an example of the electrical configuration of a learning device 10 according to this embodiment.
As shown in FIG. 1, the learning device 10 according to this embodiment includes a control unit 12, a storage unit 14, a display unit 16, an operation unit 18, and a communication unit 20.

本実施形態に係る学習装置10には、例えば、パーソナルコンピュータ(PC:Personal Computer)やサーバコンピュータ等の汎用的なコンピュータ装置が適用される。 A general-purpose computer device such as a personal computer (PC) or a server computer, for example, is applied to the learning device 10 according to the present embodiment.

制御部12は、CPU(Central Processing Unit)12A、ROM(Read Only Memory)12B、RAM(Random Access Memory)12C、及び入出力インターフェース(I/O)12Dを備えており、これら各部がバスを介して各々接続されている。 The control unit 12 includes a CPU (Central Processing Unit) 12A, a ROM (Read Only Memory) 12B, a RAM (Random Access Memory) 12C, and an input/output interface (I/O) 12D. are connected to each other.

I/O12Dには、記憶部14と、表示部16と、操作部18と、通信部20と、を含む各機能部が接続されている。これらの各機能部は、I/O12Dを介して、CPU12Aと相互に通信可能とされる。 Functional units including the storage unit 14, the display unit 16, the operation unit 18, and the communication unit 20 are connected to the I/O 12D. Each of these functional units can mutually communicate with the CPU 12A via the I/O 12D.

制御部12は、学習装置10の一部の動作を制御するサブ制御部として構成されてもよいし、学習装置10の全体の動作を制御するメイン制御部の一部として構成されてもよい。制御部12の各ブロックの一部又は全部には、例えば、LSI(Large Scale Integration)等の集積回路又はIC(Integrated Circuit)チップセットが用いられる。上記各ブロックに個別の回路を用いてもよいし、一部又は全部を集積した回路を用いてもよい。上記各ブロック同士が一体として設けられてもよいし、一部のブロックが別に設けられてもよい。また、上記各ブロックのそれぞれにおいて、その一部が別に設けられてもよい。制御部12の集積化には、LSIに限らず、専用回路又は汎用プロセッサを用いてもよい。 The control unit 12 may be configured as a sub-control unit that controls part of the operation of the learning device 10 , or may be configured as a part of the main control unit that controls the overall operation of the learning device 10 . An integrated circuit such as LSI (Large Scale Integration) or an IC (Integrated Circuit) chipset is used for part or all of each block of the control unit 12 . An individual circuit may be used for each of the above blocks, or a circuit in which a part or all of them are integrated may be used. The blocks may be provided integrally, or some of the blocks may be provided separately. Moreover, in each of the above blocks, a part thereof may be separately provided. The integration of the control unit 12 is not limited to LSI, and a dedicated circuit or general-purpose processor may be used.

記憶部14としては、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)、フラッシュメモリ等が用いられる。記憶部14には、本実施形態に係るモデル学習処理を行うための学習処理プログラム14Aが記憶される。なお、この学習処理プログラム14Aは、ROM12Bに記憶されていてもよい。また、記憶部14には、学習処理の対象とされる学習モデル群14Bが記憶されている。 For example, an HDD (Hard Disk Drive), an SSD (Solid State Drive), a flash memory, or the like is used as the storage unit 14 . The storage unit 14 stores a learning processing program 14A for performing model learning processing according to the present embodiment. The learning processing program 14A may be stored in the ROM 12B. The storage unit 14 also stores a learning model group 14B to be subjected to learning processing.

学習処理プログラム14Aは、例えば、学習装置10に予めインストールされていてもよい。学習処理プログラム14Aは、不揮発性の記憶媒体に記憶して、又はネットワークを介して配布して、学習装置10に適宜インストールすることで実現してもよい。なお、不揮発性の記憶媒体の例としては、CD-ROM(Compact Disc Read Only Memory)、光磁気ディスク、HDD、DVD-ROM(Digital Versatile Disc Read Only Memory)、フラッシュメモリ、メモリカード等が想定される。 The learning processing program 14A may be pre-installed in the learning device 10, for example. The learning processing program 14A may be implemented by storing it in a non-volatile storage medium or distributing it via a network and installing it in the learning device 10 as appropriate. Examples of nonvolatile storage media include CD-ROMs (Compact Disc Read Only Memory), magneto-optical discs, HDDs, DVD-ROMs (Digital Versatile Disc Read Only Memory), flash memories, memory cards, and the like. be.

表示部16には、例えば、液晶ディスプレイ(LCD:Liquid Crystal Display)や有機EL(Electro Luminescence)ディスプレイ等が用いられる。表示部16は、タッチパネルを一体的に有していてもよい。操作部18には、例えば、キーボードやマウス等の操作入力用のデバイスが設けられている。表示部16及び操作部18は、学習装置10のユーザから各種の指示を受け付ける。表示部16は、ユーザから受け付けた指示に応じて実行された処理の結果や、処理に対する通知等の各種の情報を表示する。 For the display unit 16, for example, a liquid crystal display (LCD), an organic EL (Electro Luminescence) display, or the like is used. The display unit 16 may integrally have a touch panel. The operation unit 18 is provided with devices for operation input such as a keyboard and a mouse. The display unit 16 and the operation unit 18 receive various instructions from the user of the learning device 10 . The display unit 16 displays various kinds of information such as the results of processing executed in response to instructions received from the user and notifications regarding the processing.

通信部20は、インターネットや、LAN(Local Area Network)、WAN(Wide Area Network)等のネットワークに接続されており、画像形成装置や他のPC等の外部機器との間でネットワークを介して通信が可能とされる。 The communication unit 20 is connected to a network such as the Internet, a LAN (Local Area Network), or a WAN (Wide Area Network), and communicates with an external device such as an image forming apparatus or another PC via the network. is allowed.

ところで、上述したように、複数のモデルを個別に学習する場合、複数のモデルの出力間で内容が矛盾し、内容の一貫性を保てない場合がある。これについて、図2を参照して、具体的に説明する。 By the way, as described above, when a plurality of models are individually learned, there are cases where the contents of the outputs of the plurality of models are inconsistent and the consistency of the contents cannot be maintained. This will be specifically described with reference to FIG.

図2は、Webサイトに掲載される記事の一例を示す図である。
なお、図2では、求人記事を例示して説明するが、これに限定されるものではない。
FIG. 2 is a diagram showing an example of an article posted on a website.
Note that FIG. 2 illustrates job postings, but the present invention is not limited to this.

図2に示す求人記事では、Webサイトに掲載される記事を検索し易くするために、記事の「職種カテゴリ」、「記事見出し文」、及び「職種フレーズ」が付与されている。図2の例では、「職種カテゴリ」として「モバイルエンジニア」、「記事見出し文」として「あの人気アプリを開発する!xOSアプリ開発エンジニアを募集!」、「職種フレーズ」として「xOSエンジニア」が人手により付与されている。人手による作業は負担が大きいため、「記事本文」から、これらの「職種カテゴリ」、「記事見出し文」、及び「職種フレーズ」の各々を機械学習したモデルを用いて自動的に生成することを想定する。 In the recruitment article shown in FIG. 2, an "occupational category", an "article headline", and an "occupational phrase" are assigned to the article posted on the website so that the article can be easily searched. In the example of FIG. 2, the "job category" is "mobile engineer", the "article headline" is "Develop that popular app! Looking for an xOS application developer!", and the "job phrase" is "xOS engineer". Granted by Since manual work is a heavy burden, it is recommended to automatically generate each of these "job categories," "article headlines," and "job phrases" from the "article text" using a machine-learned model. Suppose.

このとき、「職種カテゴリ」、「記事見出し文」、及び「職種フレーズ」の各々に対応するモデルを個別に学習すると、複数のモデルの出力間で内容の一貫性を担保することができない。例えば、xOSエンジニアのカテゴリで検索したにも係わらず、デザイナーの求人記事が出てくる等、複数のモデルの出力間で内容が矛盾してしまい、Webサイトの閲覧者に違和感を与える可能性がある。 At this time, if models corresponding to each of the "job category", "article headline", and "job phrase" are learned individually, it is not possible to ensure the consistency of content among the outputs of a plurality of models. For example, despite searching in the xOS engineer category, there is a job posting for a designer, etc. There is a possibility that the contents of the output of multiple models will be inconsistent, giving the viewers of the website a sense of incongruity. be.

このため、本実施形態に係る学習装置10のCPU12Aは、記憶部14に記憶されている学習処理プログラム14AをRAM12Cに書き込んで実行することにより、図3に示す各部として機能する。 Therefore, the CPU 12A of the learning device 10 according to the present embodiment writes the learning processing program 14A stored in the storage unit 14 into the RAM 12C and executes it, thereby functioning as each unit shown in FIG.

図3は、本実施形態に係る学習装置10の機能的な構成の一例を示すブロック図である。
図3に示すように、本実施形態に係る学習装置10のCPU12Aは、エンコーダ30及び学習部32として機能する。なお、エンコーダ30は、抽出部の一例である。また、記憶部14には学習モデル群14Bが記憶されている。この学習モデル群14Bには、一例として、分類モデル40、生成モデル42、及び回帰モデル44が含まれている。
FIG. 3 is a block diagram showing an example of the functional configuration of the learning device 10 according to this embodiment.
As shown in FIG. 3, the CPU 12A of the learning device 10 according to this embodiment functions as an encoder 30 and a learning section 32. As shown in FIG. Note that the encoder 30 is an example of an extraction unit. Further, the storage unit 14 stores a learning model group 14B. This learning model group 14B includes, as an example, a classification model 40, a generative model 42, and a regression model 44. FIG.

本実施形態に係るエンコーダ30は、学習データとしての入力情報から、入力情報と共通の意味を表す特徴情報を抽出する。ここで、入力情報は、一例として、上述の図2に示す「記事本文」のようなテキストデータである。但し、この入力情報は、テキストデータに限らず、画像データやID(Identification)データ等でもよい。また、特徴情報は、一例として、テキストデータを変換して得られる中間表現である。ここでいう中間表現は、特徴ベクトルとして表される。以下、入力情報としてテキストデータ、特徴情報として中間表現を適用した場合について説明する。 The encoder 30 according to the present embodiment extracts, from input information as learning data, feature information representing a common meaning with the input information. Here, the input information is, for example, text data such as the "article text" shown in FIG. However, this input information is not limited to text data, and may be image data, ID (Identification) data, or the like. Also, the feature information is, for example, an intermediate representation obtained by converting text data. The intermediate representation referred to here is expressed as a feature vector. A case where text data is applied as input information and an intermediate representation is applied as feature information will be described below.

この場合、エンコーダ30は、入力したテキストデータを中間表現にエンコードする。具体的に、エンコーダ30は、テキストデータを単語毎に入力し、入力した単語と共通の意味を表す中間表現が出力されるように学習される再帰型ニューラルネットワーク(RNN:Recurrent Neural Network)として構成される。このRNNは、ニューラルネットワークの一例であり、RNN以外のニューラルネットワークを用いてもよい。 In this case, encoder 30 encodes the input text data into an intermediate representation. Specifically, the encoder 30 is configured as a recurrent neural network (RNN) trained to input text data word by word and output an intermediate representation representing a common meaning to the input word. be done. This RNN is an example of a neural network, and neural networks other than RNN may be used.

本実施形態に係る学習部32は、中間表現を入力として、分類モデル40、生成モデル42、及び回帰モデル44をマルチタスク学習により機械学習する。ここで、マルチタスク学習とは、複数の関連するタスク(すなわちモデル)同士でパラメータを共有することにより、予測精度を向上させる学習手法である。本実施形態では、上記3つのモデル間で、中間表現として表されるパラメータの少なくとも一部が共有される。 The learning unit 32 according to the present embodiment uses the intermediate representation as an input and machine-learns the classification model 40, the generative model 42, and the regression model 44 by multitask learning. Here, multitask learning is a learning method that improves prediction accuracy by sharing parameters among a plurality of related tasks (that is, models). In this embodiment, at least some of the parameters represented as intermediate representations are shared among the three models.

なお、上記では3つのモデルを組み合わせているが、モデルの組み合わせは目的に応じて様々である。例えば、上述の図2に示す例の場合、「職種カテゴリ」の分類を得るための分類モデル40と、「記事見出し文」及び「職種フレーズ」の各々の文字列を得るための2個の生成モデル42とが適用される。また、「ニュース記事見出しと推定記事PV(Page View)数」を得たい場合には、生成モデル42及び回帰モデル44が適用され、「翻訳の文書分類と原文の文書分類」を得たい場合には、2個の分類モデル40が適用される。なお、PV数とは、Webサイト内で閲覧されたページの合計数として定義される指標である。 Although three models are combined in the above description, there are various combinations of models depending on the purpose. For example, in the case of the example shown in FIG. 2 described above, the classification model 40 for obtaining the classification of "occupational category" and two generations for obtaining character strings of "article headline" and "occupational phrase" Model 42 is applied. Also, if you want to obtain "news article headlines and estimated article PV (page view) numbers", the generative model 42 and the regression model 44 are applied, and if you want to obtain "translation document classification and original document classification", , two classification models 40 are applied. Note that the number of PV is an index defined as the total number of pages viewed within the website.

分類モデル40は、中間表現を入力として、中間表現の意味に対応する文字列の分類を分類結果として出力するモデルである。具体的に、分類モデル40は、中間表現を入力として、中間表現の意味に対応する文字列の分類毎に固有の分類IDが出力されるように学習されるRNNとして構成される。 The classification model 40 is a model that receives an intermediate expression as input and outputs a classification result of character strings corresponding to the meaning of the intermediate expression. Specifically, the classification model 40 is configured as an RNN that is trained such that an intermediate representation is input and a unique classification ID is output for each classification of character strings corresponding to the meaning of the intermediate representation.

生成モデル42は、中間表現を入力として、中間表現の意味に対応する文字列を生成結果として出力するモデルである。具体的に、生成モデル42は、中間表現を入力として、中間表現の意味に対応する文字列が出力されるように学習されるRNNとして構成される。 The generative model 42 is a model that receives an intermediate representation as an input and outputs a character string corresponding to the meaning of the intermediate representation as a generation result. Specifically, the generative model 42 is configured as an RNN that is trained such that an intermediate representation is input and a character string corresponding to the meaning of the intermediate representation is output.

回帰モデル44は、中間表現を入力として、中間表現の意味に対応する数値を回帰分析結果として出力するモデルである。この数値としては、一例として、上述のPV数等が挙げられる。具体的に、回帰モデル44は、中間表現を入力として、中間表現の意味に対応する数値が出力されるように学習されるRNNとして構成される。 The regression model 44 is a model that receives an intermediate representation and outputs a numerical value corresponding to the meaning of the intermediate representation as a regression analysis result. As an example of this numerical value, the number of PV described above can be cited. Specifically, the regression model 44 is configured as an RNN that is trained such that an intermediate representation is input and a numerical value corresponding to the meaning of the intermediate representation is output.

上記3つのモデルの入力は、共通の中間表現であるため、これら3つのモデルをマルチタスク学習することにより、3つのモデルの出力間で内容の一貫性が担保される。 Since the inputs of the above three models are common intermediate representations, multi-task learning of these three models ensures consistency in content among the outputs of the three models.

ここで、例えば、分類モデル40及び生成モデル42では、学習の難易度が異なり、収束までに要する時間も全く異なっている。一般的に、出力が長文であるほど、学習の難易度が高くなる。マルチタスク学習では各モデルの学習の足並みが揃わないと、精度の高い学習結果を得ることができない場合がある。 Here, for example, the classification model 40 and the generative model 42 have different degrees of learning difficulty and completely different times required for convergence. In general, the longer the output, the higher the learning difficulty. In multitask learning, highly accurate learning results may not be obtained unless the learning of each model is in sync.

このため、本実施形態に係る学習部32は、分類モデル40及び生成モデル42の各々の学習の度合いに応じて、各モデルの学習の割合を決定し、決定した学習の割合に基づいて、各モデルの学習を行う。具体的に、学習部32は、分類モデル40及び生成モデル42のうち、学習の度合いが低い一方のモデルの学習の割合を、学習の度合いが高い他方のモデルの学習の割合よりも大きく決定する。なお、ここでいう学習の度合いとは、一例として、学習を行った回数を示す学習回数が用いられる。この学習回数は、例えば、学習のエポック数(1単位当たりの学習実施数)及び学習のイテレーション数(学習の繰り返し数)の少なくとも一方から導出される。この場合、分類モデル40及び生成モデル42のうち、学習回数が多いほうが学習の度合いが高いモデルと判定され、学習回数が少ないほうが学習の度合いが低いモデルと判定される。 For this reason, the learning unit 32 according to the present embodiment determines the learning rate of each model according to the degree of learning of each of the classification model 40 and the generative model 42, and based on the determined learning rate, each Train the model. Specifically, the learning unit 32 determines the learning rate of one of the classification model 40 and the generative model 42 having a low learning degree to be greater than the learning rate of the other model having a high learning degree. . As an example of the degree of learning here, the number of times of learning, which indicates the number of times of learning, is used. The number of times of learning is derived, for example, from at least one of the number of learning epochs (the number of learning times per unit) and the number of learning iterations (the number of repetitions of learning). In this case, of the classification model 40 and the generation model 42, the model with a higher number of times of learning is determined to be a model with a higher degree of learning, and the model with a smaller number of times of learning is determined to be a model with a lower degree of learning.

次に、図4を参照して、本実施形態に係るニューラルネットワークの概要について説明する。 Next, an overview of the neural network according to this embodiment will be described with reference to FIG.

図4は、本実施形態に係るニューラルネットワークの一例を示す概念図である。
図4に示すニューラルネットワーク(以下、「NN」という。)は、入力層x、隠れ層(中間層とも称する)y、及び出力層zを有している。
FIG. 4 is a conceptual diagram showing an example of a neural network according to this embodiment.
The neural network (hereinafter referred to as "NN") shown in FIG. 4 has an input layer x i , a hidden layer (also called an intermediate layer) y j , and an output layer z.

図4に示すNNは、説明を簡単化するために、最も単純な3層構成としているが、隠れ層yを2層以上とした多層構成としてもよい。また、出力層zのノード(ニューロンともいう。)を1つにしているが、複数のノードで構成してもよい。 The NN shown in FIG. 4 has the simplest three-layer structure for simplification of explanation, but it may have a multi-layer structure with two or more hidden layers yj . Also, although the number of nodes (also called neurons) of the output layer z is one, it may be composed of a plurality of nodes.

ここで、NNに対して、入力が与えられたときの出力の計算は、入力から順に以下の式(1)を用いて行われる。なお、f(・)は活性化関数と呼ばれ、一例としてシグモイド関数等が用いられる。また、xは入力層xの入力、yは隠れ層yの出力、zは出力層zの出力、wij、uは重み係数である。これらの重み係数wij、uを変化させることで同じ入力に対して異なる出力が得られる。つまり、狙った出力が得られるように重み係数wij、uを更新させることで、各モデルの学習が行われる。なお、NNに設定される重み係数を総称して「重み係数w、u」という。 Here, the calculation of the output when the input is given to the NN is performed using the following formula (1) in order from the input. Note that f(·) is called an activation function, and a sigmoid function or the like is used as an example. Also, x i is the input of the input layer x i , y j is the output of the hidden layer y j , z is the output of the output layer z, and w ij and u j are weighting coefficients. By changing these weighting factors w ij and u j , different outputs can be obtained for the same input. In other words, learning of each model is performed by updating the weighting coefficients w ij and u j so as to obtain the targeted output. Note that the weighting factors set in the NN are collectively referred to as "weighting factors w, u".

Figure 0007293729000001
・・・(1)
Figure 0007293729000001
... (1)

次に、図5を参照して、本実施形態に係る学習装置10の作用を説明する。なお、図5は、本実施形態に係る学習処理プログラム14Aの処理の流れの一例を示すフローチャートである。 Next, the operation of the learning device 10 according to this embodiment will be described with reference to FIG. FIG. 5 is a flow chart showing an example of the flow of processing of the learning processing program 14A according to this embodiment.

なお、ここでは、上述の図2に示す「記事本文」から、「職種カテゴリ」の分類、「職種フレーズ」の文字列、及び「記事見出し文」の文字列を得る場合について説明する。 Here, a case will be described in which the classification of the 'occupational category', the character string of the 'occupational phrase', and the character string of the 'article headline' are obtained from the 'article body' shown in FIG.

図5のステップ100では、エンコーダ30が、学習データ(入力情報)として、上述の図2に示す「記事本文」の入力を受け付ける。 At step 100 in FIG. 5, the encoder 30 receives input of the above-mentioned "article text" shown in FIG. 2 as learning data (input information).

ステップ102では、エンコーダ30が、ステップ100で入力を受け付けた「記事本文」を中間表現にエンコードする。 At step 102, the encoder 30 encodes the "article text" received at step 100 into an intermediate representation.

ステップ104では、エンコーダ30が、ステップ102でエンコードした中間表現を各学習モデルに入力する。ここでは、一例として、後述の図6に示す職種カテゴリ分類モデル40A、職種フレーズ生成モデル42A、及び記事見出し文生成モデル42Bに入力する。 At step 104, encoder 30 inputs the intermediate representation encoded at step 102 to each learning model. Here, as an example, input is made to a job category classification model 40A, a job phrase generation model 42A, and an article headline generation model 42B shown in FIG. 6, which will be described later.

ステップ106では、学習部32が、ステップ104で中間表現を入力した各学習モデルからの出力を取得する。 At step 106 , the learning unit 32 acquires the output from each learning model to which the intermediate representation was input at step 104 .

ステップ108では、学習部32が、ステップ106で取得した各学習モデルからの出力と、各学習モデルについての正解データとの誤差である学習用誤差を算出する。 At step 108, the learning unit 32 calculates a learning error, which is an error between the output from each learning model obtained at step 106 and the correct data for each learning model.

ステップ110では、学習部32が、ステップ108で算出した各学習モデルについての学習用誤差に基づいて、各学習モデルの学習割合を決定する。 At step 110 , the learning unit 32 determines the learning rate of each learning model based on the learning error for each learning model calculated at step 108 .

ステップ112では、学習部32が、ステップ110で決定した各学習モデルの学習割合に基づいて、一例として、誤差逆伝播法を用いて、各学習モデルを更新する。なお、誤差逆伝播法とは、RNNの学習処理に用いる一般的な手法であり、入力と出力との間の誤差を計算し、その誤差を用いて出力から逆向きに順次に計算して学習を行う手法である。なお、ステップ106~ステップ112の各ステップを実行する具体的な装置構成について後述の図6及び図7に示す。 At step 112 , the learning unit 32 updates each learning model based on the learning rate of each learning model determined at step 110 , using error backpropagation as an example. The error backpropagation method is a general method used in the learning process of RNN. It calculates the error between the input and the output, and uses the error to sequentially calculate backward from the output for learning. It is a method to perform 6 and 7, which will be described later, show a specific apparatus configuration for executing steps 106 to 112. FIG.

ステップ114では、学習部32が、全ての学習データについて学習処理が終了したか否かを判定する。全ての学習データについて学習処理が終了していないと判定した場合(否定判定の場合)、ステップ100に戻り処理を繰り返す。一方、全ての学習データについて学習処理が終了したと判定した場合(肯定判定の場合)、本学習処理プログラム14Aによる一連の処理を終了する。 At step 114, the learning unit 32 determines whether or not the learning process has been completed for all the learning data. If it is determined that the learning process has not been completed for all the learning data (in the case of a negative determination), the process returns to step 100 and the process is repeated. On the other hand, when it is determined that the learning process has been completed for all the learning data (in the case of affirmative determination), the series of processes by the learning process program 14A is terminated.

次に、図6及び図7を参照して、本実施形態に係る学習装置10の具体的な構成について説明する。 Next, a specific configuration of the learning device 10 according to this embodiment will be described with reference to FIGS. 6 and 7. FIG.

図6は、本実施形態に係る学習装置10の具体的な構成を示すブロック図である。
図6に示すように、本実施形態に係る学習装置10は、エンコーダ30と、職種カテゴリ分類モデル40Aと、職種フレーズ生成モデル42Aと、記事見出し文生成モデル42Bと、学習部32と、を備えている。また、学習部32は、誤差逆伝播部70と、学習スケジューリング設定部72と、を備えている。
FIG. 6 is a block diagram showing a specific configuration of the learning device 10 according to this embodiment.
As shown in FIG. 6, the learning device 10 according to this embodiment includes an encoder 30, an occupation category classification model 40A, an occupation phrase generation model 42A, an article headline generation model 42B, and a learning unit 32. ing. The learning unit 32 also includes an error backpropagation unit 70 and a learning scheduling setting unit 72 .

職種カテゴリ分類モデル40Aは、図2に示す「職種カテゴリ」の分類を得るための学習モデルである。また、職種フレーズ生成モデル42Aは、図2に示す「職種フレーズ」の文字列を得るための学習モデルである。また、記事見出し文生成モデル42Bは、図2に示す「記事見出し文」の文字列を得るための学習モデルである。 The job category classification model 40A is a learning model for obtaining the "job category" classification shown in FIG. The occupational phrase generation model 42A is a learning model for obtaining the character string of "occupational phrase" shown in FIG. The article headline generation model 42B is a learning model for obtaining the character string of the "article headline" shown in FIG.

図7は、本実施形態に係る誤差逆伝播部70及び学習スケジューリング設定部72の具体的な構成を示すブロック図である。
図7に示すように、本実施形態に係る誤差逆伝播部70は、誤差算出部70A~70Cと、更新部70Dと、を備えている。また、本実施形態に係る学習スケジューリング設定部72は、学習割合決定部72Aを備えている。この学習割合決定部72Aは、決定部の一例である。
FIG. 7 is a block diagram showing specific configurations of the error backpropagation unit 70 and the learning scheduling setting unit 72 according to this embodiment.
As shown in FIG. 7, the error backpropagation unit 70 according to this embodiment includes error calculation units 70A to 70C and an update unit 70D. Further, the learning scheduling setting unit 72 according to this embodiment includes a learning ratio determining unit 72A. 72 A of this learning rate determination part is an example of a determination part.

図7に示すように、誤差算出部70Aは、職種カテゴリ分類モデル40Aと学習スケジューリング設定部72との間に設けられている。誤差算出部70Aは、第1算出部の一例である。また、誤差算出部70Bは、職種フレーズ生成モデル42Aと学習スケジューリング設定部72との間に設けられ、誤差算出部70Cは、記事見出し文生成モデル42Bと学習スケジューリング設定部72との間に設けられている。これら誤差算出部70B及び誤差算出部70Cは、第2算出部の一例である。 As shown in FIG. 7, the error calculation unit 70A is provided between the job category classification model 40A and the learning scheduling setting unit 72. As shown in FIG. The error calculator 70A is an example of a first calculator. The error calculation unit 70B is provided between the occupation phrase generation model 42A and the learning scheduling setting unit 72, and the error calculation unit 70C is provided between the article headline generation model 42B and the learning scheduling setting unit 72. ing. These error calculator 70B and error calculator 70C are examples of a second calculator.

誤差算出部70Aは、職種カテゴリ分類モデル40Aから出力された分類結果と、分類結果に対応する正解データとの第1誤差を算出する。誤差算出部70Bは、職種フレーズ生成モデル42Aから出力された生成結果と、生成結果に対応する正解データとの第2誤差を算出する。誤差算出部70Cは、記事見出し文生成モデル42Bから出力された生成結果と、生成結果に対応する正解データとの第3誤差を算出する。 The error calculator 70A calculates a first error between the classification result output from the job category classification model 40A and the correct data corresponding to the classification result. The error calculator 70B calculates a second error between the generation result output from the occupation phrase generation model 42A and the correct data corresponding to the generation result. The error calculator 70C calculates a third error between the generation result output from the article headline generation model 42B and the correct data corresponding to the generation result.

学習割合決定部72Aは、第1誤差に付与する第1重み値、第2誤差に付与する第2重み値、及び第3誤差に付与する第3重み値の各々を、職種カテゴリ分類モデル40A、職種フレーズ生成モデル42A、及び記事見出し文生成モデル42Bの各々の学習の度合いに応じて決定する。なお、学習の度合いには、一例として、上述の学習回数が用いられる。例えば、職種カテゴリ分類モデル40A及び職種フレーズ生成モデル42Aのうち、学習の度合いが低い一方のモデルの重み値(つまり学習の割合)を、学習の度合いが高い他方のモデルの重み値よりも大きく決定する。図7に示す例では、第1重み値は0.8、第2重み値は0.6、第3重み値は0.5と決定されている。 The learning ratio determination unit 72A assigns each of the first weight value to be assigned to the first error, the second weight value to be assigned to the second error, and the third weight value to be assigned to the third error to the job category classification model 40A, It is determined according to the degree of learning of each of the job type phrase generation model 42A and the article headline generation model 42B. In addition, the above-mentioned number of times of learning is used as an example of the degree of learning. For example, of the occupation category classification model 40A and the occupation phrase generation model 42A, the weight value (that is, learning rate) of one model with a low degree of learning is determined to be greater than the weight value of the other model with a high degree of learning. do. In the example shown in FIG. 7, the first weight value is 0.8, the second weight value is 0.6, and the third weight value is 0.5.

第1誤差と第1重み値とは乗算器×で乗算され、第1重み値が付与された第1誤差が加算器+に入力される。同様に、第2誤差と第2重み値とは乗算器×で乗算され、第2重み値が付与された第2誤差が加算器+に入力される。第3誤差と第3重み値とは乗算器×で乗算され、第3重み値が付与された第3誤差が加算器+に入力される。加算器+では、第1重み値が付与された第1誤差と、第2重み値が付与された第2誤差と、第3重み値が付与された第3誤差との和である重み付き和が算出される。 The first error and the first weighted value are multiplied by the multiplier x, and the first error with the first weighted value is input to the adder +. Similarly, the second error and the second weight value are multiplied by the multiplier x, and the second error with the second weight value is input to the adder +. The third error and the third weight value are multiplied by the multiplier x, and the third error to which the third weight value is assigned is input to the adder +. In the adder +, a weighted sum that is the sum of a first error with a first weight value, a second error with a second weight value, and a third error with a third weight value is calculated.

更新部70Dは、加算器+からの重み付き和を用いた誤差逆伝播法を用いて、職種カテゴリ分類モデル40A、職種フレーズ生成モデル42A、及び記事見出し文生成モデル42Bの各々を更新する。具体的には、第1重み値が付与された第1誤差に基づいて、職種カテゴリ分類モデル40Aの重み係数w、u(上述の図4参照)を更新する。また、第2重み値が付与された第2誤差に基づいて、職種フレーズ生成モデル42Aの重み係数w、uを更新する。また、第3重み値が付与された第3誤差に基づいて、記事見出し文生成モデル42Bの重み係数w、uを更新する。 The update unit 70D updates each of the job category classification model 40A, the job phrase generation model 42A, and the article headline generation model 42B using error backpropagation using the weighted sum from the adder +. Specifically, the weighting coefficients w and u (see FIG. 4 described above) of the job category classification model 40A are updated based on the first error to which the first weighting value is assigned. Also, the weighting coefficients w and u of the occupational phrase generation model 42A are updated based on the second error to which the second weighting value is assigned. Also, the weighting coefficients w and u of the article headline generation model 42B are updated based on the third error to which the third weighting value is assigned.

このとき、更新部70Dは、一例として、第1重み値が付与された第1誤差が、第2重み値が付与された第2誤差よりも大きい場合、職種カテゴリ分類モデル40Aの学習の度合いを制御するフィードバック量を、職種フレーズ生成モデル42Aの学習の度合いを制御するフィードバック量よりも大きくする。また、更新部70Dは、第2重み値が付与された第2誤差が、第1重み値が付与された第1誤差よりも大きい場合、職種フレーズ生成モデル42Aの学習の度合いを制御するフィードバック量を、職種カテゴリ分類モデル40Aの学習の度合いを制御するフィードバック量よりも大きくする。 At this time, as an example, when the first error to which the first weight value is assigned is larger than the second error to which the second weight value is assigned, the update unit 70D updates the degree of learning of the job category classification model 40A to The amount of feedback to be controlled is made larger than the amount of feedback to control the degree of learning of the job type phrase generation model 42A. Further, when the second error to which the second weight value is assigned is larger than the first error to which the first weight value is assigned, the updating unit 70D sets the feedback amount for controlling the degree of learning of the occupational phrase generation model 42A. is greater than the amount of feedback that controls the degree of learning of the job category classification model 40A.

例えば、職種カテゴリ分類モデル40Aの重み付き誤差が職種フレーズ生成モデル42Aの重み付き誤差よりも大きい場合、職種カテゴリ分類モデル40Aは職種フレーズ生成モデル42Aと比較して学習が進んでいないと推定される。このため、職種カテゴリ分類モデル40Aに対するフィードバック量を、職種フレーズ生成モデル42Aに対するフィードバック量よりも大きくして、職種カテゴリ分類モデル40Aの学習速度が速く(学習の進捗が速く)なるように制御される。 For example, if the weighted error of the job category classification model 40A is larger than the weighted error of the job phrase generation model 42A, it is estimated that the job category classification model 40A has not learned as much as the job phrase generation model 42A. . Therefore, the amount of feedback to the job category classification model 40A is made larger than the amount of feedback to the job phrase generation model 42A, and the learning speed of the job category classification model 40A is controlled to be faster (learning progresses faster). .

なお、学習の度合いは、一例として、学習回数及び予め定められた関数の少なくとも一方を用いて制御される。ここでいう関数には、例えば、上述のシグモイド関数が用いられる。このシグモイド関数に学習率を設定することで、学習の度合いが制御される。この学習率は、ユーザにより適切な値(初期値)が設定されるが、一般的に0より大きく1より小さい範囲で値が設定される。この学習率は、機械学習の最適化においてどのくらいRNNの重み係数を更新するかを示すパラメータ(つまり、更新の幅を示すパラメータ)である。学習率を大きくしすぎると発散し、小さくしすぎると収束まで遅くなる。この場合、職種カテゴリ分類モデル40Aに対するフィードバック量を大きくすることで、学習回数を増加させる、あるいは、学習率を大きくする、あるいは、学習回数を増加させかつ学習率を大きくするように制御される。また、職種フレーズ生成モデル42Aに対するフィードバック量を小さくしてもよい。この場合、学習回数を減少させる、あるいは、学習率を小さくする、あるいは、学習回数を減少させかつ学習率を小さくするように制御される。 Note that the degree of learning is controlled using at least one of the number of times of learning and a predetermined function, as an example. For the function here, for example, the sigmoid function described above is used. By setting a learning rate for this sigmoid function, the degree of learning is controlled. An appropriate value (initial value) is set for this learning rate by the user, but generally the value is set in a range of greater than 0 and less than 1. This learning rate is a parameter that indicates how much the RNN weighting coefficients are updated in machine learning optimization (that is, a parameter that indicates the update width). If the learning rate is too large, it diverges, and if it is too small, it slows down to convergence. In this case, by increasing the amount of feedback to the job category classification model 40A, the number of times of learning is increased, the learning rate is increased, or the number of times of learning is increased and the learning rate is controlled to be increased. Also, the amount of feedback to the job type phrase generation model 42A may be reduced. In this case, control is performed to decrease the number of times of learning, to decrease the learning rate, or to decrease the number of times of learning and decrease the learning rate.

上記では、一例として、職種カテゴリ分類モデル40Aと職種フレーズ生成モデル42Aとの2つの学習モデル間での比較としたが、比較する学習モデルの組み合わせはこれに限定されるものではない。例えば、職種カテゴリ分類モデル40Aと記事見出し文生成モデル42Bとの比較、職種フレーズ生成モデル42Aと記事見出し文生成モデル42Bとの比較でも同様である。また、職種カテゴリ分類モデル40A、職種フレーズ生成モデル42A、及び記事見出し文生成モデル42Bの比較でも同様である。 As an example, the comparison between the two learning models, the job category classification model 40A and the job phrase generation model 42A, has been described above, but the combination of learning models to be compared is not limited to this. For example, the same applies to the comparison between the job category classification model 40A and the article headline generation model 42B, and the comparison between the job title phrase generation model 42A and the article headline generation model 42B. The same applies to the comparison of the job category classification model 40A, job phrase generation model 42A, and article headline generation model 42B.

ここで、学習データによる学習を行う前に、上述の学習率及び関数が、学習の難易度が低い(学習が簡単な)学習モデルから学習されるように予め設定してもよい。この場合、学習により得られた学習率及び関数が、学習の難易度が高い(学習が困難な)学習モデルに援用され、学習速度の向上が期待される。また、上述の学習率及び関数が、学習の難易度が高い学習モデルから学習されるように予め設定してもよい。この場合、学習により得られた学習率及び関数が、学習の難易度が低い学習モデルに援用され、過学習が抑制される。 Here, before performing learning using learning data, the above-described learning rate and function may be set in advance so that they are learned from a learning model with a low learning difficulty (learning is easy). In this case, the learning rate and function obtained by learning are used in a learning model with a high learning difficulty (difficult to learn), and an improvement in learning speed is expected. Also, the above-described learning rate and function may be set in advance so that learning is performed from a learning model having a high learning difficulty. In this case, the learning rate and function obtained by learning are used in a learning model with a low learning difficulty, and overfitting is suppressed.

また、学習データによる学習を行う前に、上述の学習率及び関数を、学習データとは別のバリデーションデータを用いて設定するようにしてもよい。このバリデーションデータとは、機械学習の最中にテストにのみ用いるデータである。例えば、学習データが100個ある場合には、20個ごとの塊を5つ作成し、そのうち4つの塊を学習データとして用いて、残りの1つをバリデーションデータとして用いる。 Moreover, before performing learning using learning data, the above-described learning rate and function may be set using validation data different from learning data. This validation data is data used only for testing during machine learning. For example, if there are 100 pieces of learning data, five chunks of 20 pieces are created, four of them are used as learning data, and the remaining one is used as validation data.

また、学習モデルの学習の度合いが閾値以上の場合に、当該学習モデルについて学習不要と判定してもよい。学習不要と判定された学習モデルは、一定期間学習を待機させ、他の学習モデルの学習の度合いに合わせるようにする。また、学習の度合いの判定には、学習回数のみならず、学習の履歴を考慮してもよい。 Further, when the degree of learning of the learning model is equal to or greater than a threshold value, it may be determined that the learning of the learning model is unnecessary. A learning model that is determined to require no learning is put on standby for a certain period of time to match the degree of learning of other learning models. Further, in determining the degree of learning, not only the number of times of learning but also the history of learning may be taken into consideration.

また、複数の学習モデル間で一貫性のある出力情報を得るために、中間表現の共有のみならず、複数の学習モデルの各々の内部構造の少なくとも一部のパラメータを共有してもよい。この場合、複数の学習モデルの各々が、出力情報と入力単語列との対応の度合いを算出するアテンション機構を有していてもよい。このアテンション機構により、入力系列中の同一箇所に着目するように学習される。 Moreover, in order to obtain consistent output information among a plurality of learning models, not only the intermediate representation but also at least some parameters of the internal structure of each of the plurality of learning models may be shared. In this case, each of the plurality of learning models may have an attention mechanism that calculates the degree of correspondence between the output information and the input word string. This attention mechanism learns to pay attention to the same point in the input sequence.

次に、図8を参照して、学習支援を目的とした学習モデル46について説明する。 Next, with reference to FIG. 8, the learning model 46 for the purpose of learning support will be described.

図8は、本実施形態に係る学習支援を目的とした学習モデル46の説明に供する図である。 FIG. 8 is a diagram for explaining the learning model 46 for the purpose of learning support according to the present embodiment.

図8に示す学習モデル46は、一例として、エンコーダ30の学習の支援を目的としたモデルであり、エンコーダ30と共にオートエンコーダとして構成される。この学習モデル46では、入力情報と共通の意味を表す中間表現を入力し、そのまま入力情報が出力されるように学習される。つまり、エンコーダ30の入力と学習モデル46の出力とは同一の入力情報が用いられる。この学習により適切な中間表現が生成されるようになる。学習モデル46での学習結果は、エンコーダ30の学習に反映される。 A learning model 46 shown in FIG. 8 is, as an example, a model intended to assist the learning of the encoder 30, and is configured as an autoencoder together with the encoder 30. FIG. In this learning model 46, learning is performed such that an intermediate expression expressing the same meaning as the input information is input, and the input information is output as it is. That is, the same input information is used for the input of the encoder 30 and the output of the learning model 46 . This learning leads to the generation of appropriate intermediate representations. A learning result of the learning model 46 is reflected in learning of the encoder 30 .

また、学習モデル46は、職種カテゴリ分類モデル40A、職種フレーズ生成モデル42A、及び記事見出し文生成モデル42Bの学習の支援を目的としたモデルであってもよい。この場合、学習モデル46に対して、職種カテゴリ分類モデル40A、職種フレーズ生成モデル42A、及び記事見出し文生成モデル42Bの学習の支援のみを目的として設計された入力及び出力のペアを学習データとして与えて学習が行われる。この学習により適切な出力情報が生成されるようになる。学習モデル46での学習結果は、職種カテゴリ分類モデル40A、職種フレーズ生成モデル42A、及び記事見出し文生成モデル42Bの学習に反映される。 Also, the learning model 46 may be a model intended to support learning of the job category classification model 40A, the job phrase generation model 42A, and the article headline generation model 42B. In this case, the learning model 46 is provided with input and output pairs designed only for the purpose of supporting learning of the job category classification model 40A, job phrase generation model 42A, and article headline generation model 42B as learning data. learning takes place. Appropriate output information comes to be generated by this learning. The learning results of the learning model 46 are reflected in the learning of the job category classification model 40A, job phrase generation model 42A, and article headline generation model 42B.

次に、図9(A)及び図9(B)を参照して、本実施形態に係る学習装置10による学習結果の評価例について説明する。 Next, an example of evaluation of learning results by the learning device 10 according to the present embodiment will be described with reference to FIGS. 9A and 9B.

図9(A)は、記事見出し文生成の評価結果の一例を示す図である。また、図9(B)は、職種フレーズ生成の評価結果の一例を示す図である。 FIG. 9A is a diagram showing an example of an evaluation result of article headline generation. Further, FIG. 9B is a diagram showing an example of the evaluation result of occupation phrase generation.

図9(A)及び図9(B)に示す評価結果は、要約タスクの評価指標である”Rouge-L”による定量評価結果を示している。 The evaluation results shown in FIGS. 9(A) and 9(B) are quantitative evaluation results by "Rouge-L", which is an evaluation index of summary tasks.

図9(A)に示すように、記事見出し文生成の場合、「見出し+職種フレーズ+分類」に対応する数値が本実施形態のマルチタスク学習を適用した場合の結果である。また、図9(B)に示すように、職種フレーズ生成の場合、「職種フレーズ+見出し+分類」に対応する数値が本実施形態のマルチタスク学習を適用した場合の結果である。いずれの場合も、本実施形態のマルチタスク学習を適用しない場合(ベースライン)と比較して、数値が大きくなっており、精度の向上が確認された。 As shown in FIG. 9A, in the case of article headline generation, the numerical value corresponding to "headline + occupational phrase + classification" is the result when the multitask learning of this embodiment is applied. Also, as shown in FIG. 9B, in the case of job phrase generation, the numerical value corresponding to "job phrase+heading+classification" is the result of applying the multitask learning of the present embodiment. In both cases, compared to the case where the multitask learning of this embodiment is not applied (baseline), the numerical values are larger, confirming an improvement in accuracy.

次に、図10を参照して、本実施形態に係る情報出力装置50の構成について説明する。 Next, the configuration of the information output device 50 according to this embodiment will be described with reference to FIG.

図10は、本実施形態に係る情報出力装置50の機能的な構成の一例を示すブロック図である。
図10に示すように、本実施形態に係る情報出力装置50は、CPU52Aと、記憶部54と、を備えている。なお、本実施形態では、情報出力装置50を学習装置10とは別体のコンピュータ装置として示しているが、情報出力装置50と学習装置10とを1つのコンピュータ装置で実現してもよい。
FIG. 10 is a block diagram showing an example of the functional configuration of the information output device 50 according to this embodiment.
As shown in FIG. 10, the information output device 50 according to this embodiment includes a CPU 52A and a storage section 54. As shown in FIG. In this embodiment, the information output device 50 is shown as a computer device separate from the learning device 10, but the information output device 50 and the learning device 10 may be realized by one computer device.

本実施形態に係る記憶部54には、上述の学習装置10により機械学習された学習済みモデル群54Bが記憶されている。この学習済みモデル群54Bには、一例として、学習済み分類モデル60、学習済み生成モデル62、及び学習済み回帰モデル64が含まれている。 The storage unit 54 according to the present embodiment stores a learned model group 54B machine-learned by the learning device 10 described above. The trained model group 54B includes, for example, a trained classification model 60, a trained generation model 62, and a trained regression model 64. FIG.

学習済み分類モデル60は、中間表現を入力として、中間表現の意味に対応する文字列の分類を分類結果として出力するモデルである。この学習済み分類モデル60は、図3に示す分類モデル40を機械学習して得られたモデルである。 The trained classification model 60 is a model that receives an intermediate expression as input and outputs a classification result of character strings corresponding to the meaning of the intermediate expression. This trained classification model 60 is a model obtained by machine-learning the classification model 40 shown in FIG.

学習済み生成モデル62は、中間表現を入力として、中間表現の意味に対応する文字列を生成結果として出力するモデルである。この学習済み生成モデル62は、図3に示す生成モデル42を機械学習して得られたモデルである。 The trained generative model 62 is a model that receives an intermediate representation as an input and outputs a character string corresponding to the meaning of the intermediate representation as a generation result. This trained generative model 62 is a model obtained by machine-learning the generative model 42 shown in FIG.

学習済み回帰モデル64は、中間表現を入力として、中間表現の意味に対応する数値を回帰分析結果として出力するモデルである。この学習済み回帰モデル64は、図3に示す回帰モデル44を機械学習して得られたモデルである。 The learned regression model 64 is a model that receives an intermediate representation as an input and outputs a numerical value corresponding to the meaning of the intermediate representation as a regression analysis result. This learned regression model 64 is a model obtained by machine-learning the regression model 44 shown in FIG.

また、記憶部54には、情報出力処理プログラム(図示省略)が記憶されている。CPU52Aは、記憶部14に記憶されている情報出力処理プログラムを実行することにより、エンコーダ34及び処理部36として機能する。 The storage unit 54 also stores an information output processing program (not shown). The CPU 52A functions as the encoder 34 and the processing section 36 by executing the information output processing program stored in the storage section 14. FIG.

本実施形態に係るエンコーダ34は、図3に示すエンコーダ30と同様の機能を有しており、一例として、上述の図2に示す「記事本文」のテキストデータを中間表現にエンコードする。 The encoder 34 according to this embodiment has the same function as the encoder 30 shown in FIG. 3, and as an example, encodes the text data of the "article text" shown in FIG. 2 above into an intermediate representation.

本実施形態に係る処理部36は、中間表現を入力として、学習済み分類モデル60、学習済み生成モデル62、及び学習済み回帰モデル64からの出力を取得する処理を行う。また、処理部36は、各学習済みモデルからの出力に基づいて、一例として、上述の図2に示す記事全体を生成する処理を行う。 The processing unit 36 according to the present embodiment performs a process of obtaining outputs from the trained classification model 60, the trained generation model 62, and the trained regression model 64 with the intermediate representation as input. Further, the processing unit 36 performs processing for generating the entire article shown in FIG. 2 above, as an example, based on the output from each trained model.

次に、図11を参照して、本実施形態に係る情報出力装置50の作用を説明する。なお、図11は、本実施形態に係る情報出力処理プログラムの処理の流れの一例を示すフローチャートである。 Next, the operation of the information output device 50 according to this embodiment will be described with reference to FIG. Note that FIG. 11 is a flow chart showing an example of the processing flow of the information output processing program according to the present embodiment.

なお、ここでは、上述の図2に示す「記事本文」から、「職種カテゴリ」の分類、「職種フレーズ」の文字列、及び「記事見出し文」の文字列を得る場合について説明する。 Here, a case will be described in which the classification of the 'occupational category', the character string of the 'occupational phrase', and the character string of the 'article headline' are obtained from the 'article body' shown in FIG.

図11のステップ120では、エンコーダ34が、テキストデータ(入力情報)として、上述の図2に示す「記事本文」の入力を受け付ける。 At step 120 in FIG. 11, the encoder 34 receives the input of the "article text" shown in FIG. 2 above as text data (input information).

ステップ122では、エンコーダ34が、ステップ120で入力を受け付けた「記事本文」を中間表現にエンコードする。 At step 122, encoder 34 encodes the "article text" received at step 120 into an intermediate representation.

ステップ124では、エンコーダ34が、ステップ122でエンコードした中間表現を各学習済みモデルに入力する。ここでは、一例として、上述の図10に示す学習済み分類モデル60及び学習済み生成モデル62に入力する。 At step 124, encoder 34 inputs the intermediate representation encoded at step 122 to each trained model. Here, as an example, input is made to the learned classification model 60 and the learned generation model 62 shown in FIG. 10 described above.

ステップ126では、処理部36が、ステップ124で中間表現を入力した各学習済みモデルからの出力を取得する。 At step 126 , processing unit 36 obtains the output from each trained model to which the intermediate representation was input at step 124 .

ステップ128では、処理部36が、ステップ126で取得した各学習済みモデルからの出力に基づいて、一例として、上述の図2に示す記事全体を生成する処理を行う。 At step 128, the processing unit 36 performs processing for generating the entire article shown in FIG.

ステップ130では、処理部36が、全てのテキストデータについて処理が終了したか否かを判定する。全てのテキストデータについて処理が終了していないと判定した場合(否定判定の場合)、ステップ120に戻り処理を繰り返す。一方、全てのテキストデータについて処理が終了したと判定した場合(肯定判定の場合)、本情報出力処理プログラムによる一連の処理を終了する。 At step 130, the processing unit 36 determines whether or not processing has been completed for all text data. If it is determined that the processing has not been completed for all text data (in the case of a negative determination), the process returns to step 120 and is repeated. On the other hand, when it is determined that the processing has been completed for all text data (in the case of affirmative determination), the series of processing by this information output processing program is terminated.

以上、実施形態に係る学習装置及び情報出力装置を例示して説明した。実施形態は、学習装置が備える各部及び情報出力装置が備える各部の機能をコンピュータに実行させるためのプログラムの形態としてもよい。実施形態は、これらのプログラムを記憶したコンピュータが読み取り可能な記憶媒体の形態としてもよい。 As above, the learning device and the information output device according to the embodiment have been exemplified and explained. The embodiment may be in the form of a program for causing a computer to execute the function of each part provided in the learning device and each part provided in the information output device. Embodiments may be in the form of a computer-readable storage medium storing these programs.

その他、上記実施形態で説明した学習装置及び情報出力装置の構成は、一例であり、主旨を逸脱しない範囲内において状況に応じて変更してもよい。 In addition, the configurations of the learning device and the information output device described in the above embodiment are examples, and may be changed depending on the situation without departing from the scope.

また、上記実施形態で説明したプログラムの処理の流れも、一例であり、主旨を逸脱しない範囲内において不要なステップを削除したり、新たなステップを追加したり、処理順序を入れ替えたりしてもよい。 Further, the flow of processing of the program described in the above embodiment is also an example, and unnecessary steps may be deleted, new steps added, or the processing order changed without departing from the scope of the invention. good.

また、上記実施形態では、プログラムを実行することにより、実施形態に係る処理がコンピュータを利用してソフトウェア構成により実現される場合について説明したが、これに限らない。実施形態は、例えば、ハードウェア構成や、ハードウェア構成とソフトウェア構成との組み合わせによって実現してもよい。 Further, in the above embodiment, a case has been described in which the processing according to the embodiment is implemented by a software configuration using a computer by executing a program, but the present invention is not limited to this. Embodiments may be implemented by, for example, a hardware configuration or a combination of hardware and software configurations.

10 学習装置
12 制御部
12A、52ACPU
12B ROM
12C RAM
12D I/O
14、54 記憶部
14A 学習処理プログラム
14B 学習モデル群
16 表示部
18 操作部
20 通信部
30、34 エンコーダ
32 学習部
36 処理部
40 分類モデル
40A 職種カテゴリ分類モデル
42 生成モデル
42A 職種フレーズ生成モデル
42B 記事見出し文生成モデル
44 回帰モデル
46 学習モデル
50 情報出力装置
54B 学習済みモデル群
60 学習済み分類モデル
62 学習済み生成モデル
64 学習済み回帰モデル
70 誤差逆伝播部
70A~70C誤差算出部
70D 更新部
72 学習スケジューリング設定部
72A 学習割合決定部
10 learning device 12 control unit 12A, 52ACPU
12B ROM
12C RAM
12D I/O
14, 54 storage unit 14A learning processing program 14B learning model group 16 display unit 18 operation unit 20 communication unit 30, 34 encoder 32 learning unit 36 processing unit 40 classification model 40A occupation category classification model 42 generation model 42A occupation phrase generation model 42B article Headline generation model 44 Regression model 46 Learning model 50 Information output device 54B Trained model group 60 Trained classification model 62 Trained generation model 64 Trained regression model 70 Error backpropagation units 70A to 70C Error calculator 70D Update unit 72 Learning Scheduling setting section 72A Learning rate determining section

Claims (12)

入力情報から得られ、かつ、前記入力情報と共通の意味を表す特徴情報を入力として、前記特徴情報の意味に対応する文字列の分類を分類結果として出力する分類モデル、及び、前記特徴情報を入力として、前記特徴情報の意味に対応する文字列を生成結果として出力する生成モデルを機械学習する学習部
を備え
前記学習部は、前記分類モデル及び前記生成モデルの各々の学習の度合いに応じて決定される、前記分類モデル及び前記生成モデルの各々に対する学習の割合に基づいて、前記分類モデル及び前記生成モデルの各々の学習を行う学習装置。
A classification model that receives as input feature information obtained from input information and that expresses a common meaning with the input information, and outputs a classification result of character strings corresponding to the meaning of the feature information, and the feature information. a learning unit that machine-learns a generative model that outputs, as an input, a character string corresponding to the meaning of the feature information as a generated result ,
The learning unit learns the classification model and the generative model based on a learning rate for each of the classification model and the generative model, which is determined according to the degree of learning of each of the classification model and the generative model. A learning device that performs each learning .
前記入力情報から前記特徴情報を抽出する抽出部を更に備え、
前記抽出部は、前記入力情報を単語毎に入力し、前記入力した単語と共通の意味を表す特徴情報が出力されるように学習されるニューラルネットワークである請求項1に記載の学習装置。
further comprising an extraction unit that extracts the characteristic information from the input information;
2. The learning device according to claim 1, wherein the extraction unit is a neural network that is trained to input the input information for each word and output feature information representing a common meaning to the input word.
前記分類モデルは、前記特徴情報を入力として、前記特徴情報の意味に対応する文字列の分類毎に固有の分類IDが出力されるように学習されるニューラルネットワークである請求項1又は2に記載の学習装置。 3. The classification model according to claim 1 or 2, wherein the classification model is a neural network trained so as to output a unique classification ID for each classification of character strings corresponding to the meaning of the feature information with the feature information as input. learning device. 前記生成モデルは、前記特徴情報を入力として、前記特徴情報の意味に対応する文字列が出力されるように学習されるニューラルネットワークである請求項1~3のいずれか1項に記載の学習装置。 4. The learning device according to any one of claims 1 to 3, wherein the generative model is a neural network trained so as to input the feature information and output a character string corresponding to the meaning of the feature information. . 前記学習部は、前記特徴情報を入力として、前記特徴情報の意味に対応する数値を回帰分析結果として出力する回帰モデルを更に機械学習する請求項1~4のいずれか1項に記載の学習装置。 The learning device according to any one of claims 1 to 4, wherein the learning unit further machine-learns a regression model that receives the feature information as an input and outputs a numerical value corresponding to the meaning of the feature information as a regression analysis result. . 前記回帰モデルは、前記特徴情報を入力として、前記特徴情報の意味に対応する数値が出力されるように学習されるニューラルネットワークである請求項5に記載の学習装置。 6. The learning device according to claim 5, wherein the regression model is a neural network that learns such that the feature information is input and a numerical value corresponding to the meaning of the feature information is output. 前記学習部は、前記分類モデル及び前記生成モデルのうち、前記学習の度合いが低い一方のモデルの前記学習の割合を、前記学習の度合いが高い他方のモデルの前記学習の割合よりも大きく決定する請求項1~6のいずれか1項に記載の学習装置。 The learning unit determines the learning rate of one of the classification model and the generative model having a lower degree of learning to be greater than the learning rate of the other model having a higher degree of learning. A learning device according to any one of claims 1 to 6 . 前記学習部は、
前記分類モデルから出力された分類結果と、前記分類結果に対応する正解データとの第1誤差を算出する第1算出部と、
前記生成モデルから出力された生成結果と、前記生成結果に対応する正解データとの第2誤差を算出する第2算出部と、
前記第1誤差に付与する第1重み値、及び、前記第2誤差に付与する第2重み値の各々を、前記分類モデル及び前記生成モデルの各々の学習の度合いに応じて決定する決定部と、
前記第1重み値が付与された前記第1誤差と、前記第2重み値が付与された前記第2誤差との和である重み付き和を用いた誤差逆伝播法により、前記分類モデル及び前記生成モデルの各々を更新する更新部と、
を含む請求項1~7のいずれか1項に記載の学習装置。
The learning unit
a first calculator that calculates a first error between a classification result output from the classification model and correct data corresponding to the classification result;
a second calculation unit that calculates a second error between a generation result output from the generative model and correct data corresponding to the generation result;
a determination unit that determines each of a first weight value to be assigned to the first error and a second weight value to be assigned to the second error according to the degree of learning of each of the classification model and the generative model; ,
The classification model and the classification model and the an updating unit that updates each of the generative models;
The learning device according to any one of claims 1 to 7, comprising:
前記更新部は、
前記第1重み値が付与された前記第1誤差が、前記第2重み値が付与された前記第2誤差よりも大きい場合、前記分類モデルの前記学習の度合いを制御するフィードバック量を、前記生成モデルの前記学習の度合いを制御するフィードバック量よりも大きくし、
前記第2重み値が付与された前記第2誤差が、前記第1重み値が付与された前記第1誤差よりも大きい場合、前記生成モデルの前記学習の度合いを制御するフィードバック量を、前記分類モデルの前記学習の度合いを制御するフィードバック量よりも大きくする請求項に記載の学習装置。
The updating unit
generating a feedback amount that controls the degree of learning of the classification model if the first error, given the first weight value, is greater than the second error, given the second weight value; greater than the amount of feedback that controls the degree of learning of the model;
If the second error with the second weight value is greater than the first error with the first weight value, then the amount of feedback controlling the degree of learning of the generative model is adjusted to the classification. 9. The learning device according to claim 8 , wherein the degree of learning of the model is set to be greater than the amount of feedback controlling the degree of learning.
前記学習の度合いは、学習を行った回数を示す学習回数及び予め定められた関数の少なくとも一方を用いて制御される請求項又はに記載の学習装置。 10. The learning device according to claim 8 , wherein the degree of learning is controlled using at least one of a learning count indicating the number of times learning has been performed and a predetermined function. 請求項1~10のいずれか1項に記載の学習装置を用いて機械学習された学習済み分類モデルと、
前記学習装置を用いて機械学習された学習済み生成モデルと、
を備え、
前記学習済み分類モデルは、入力情報から得られ、かつ、前記入力情報と共通の意味を表す特徴情報を入力とし、前記特徴情報の意味に対応する文字列の分類を分類結果として出力し、
前記学習済み生成モデルは、前記特徴情報を入力とし、前記特徴情報の意味に対応する文字列を生成結果として出力する情報出力装置。
A trained classification model machine-learned using the learning device according to any one of claims 1 to 10 ;
A trained generative model machine-learned using the learning device;
with
The learned classification model is obtained from input information and receives as input feature information that expresses a common meaning with the input information, and outputs classification results of character strings corresponding to the meaning of the feature information as classification results,
The learned generative model is an information output device that receives the characteristic information as an input and outputs a character string corresponding to the meaning of the characteristic information as a generation result.
コンピュータを、請求項1~10のいずれか1項に記載の学習装置が備える各部として機能させるためのプログラム。 A program for causing a computer to function as each unit included in the learning device according to any one of claims 1 to 10 .
JP2019038037A 2019-03-01 2019-03-01 LEARNING DEVICE, INFORMATION OUTPUT DEVICE, AND PROGRAM Active JP7293729B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019038037A JP7293729B2 (en) 2019-03-01 2019-03-01 LEARNING DEVICE, INFORMATION OUTPUT DEVICE, AND PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019038037A JP7293729B2 (en) 2019-03-01 2019-03-01 LEARNING DEVICE, INFORMATION OUTPUT DEVICE, AND PROGRAM

Publications (2)

Publication Number Publication Date
JP2020140673A JP2020140673A (en) 2020-09-03
JP7293729B2 true JP7293729B2 (en) 2023-06-20

Family

ID=72264990

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019038037A Active JP7293729B2 (en) 2019-03-01 2019-03-01 LEARNING DEVICE, INFORMATION OUTPUT DEVICE, AND PROGRAM

Country Status (1)

Country Link
JP (1) JP7293729B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7408518B2 (en) * 2020-09-16 2024-01-05 Lineヤフー株式会社 Information processing device, information processing method, information processing program, terminal device, inference method, and inference program
CN111832275B (en) * 2020-09-21 2022-02-25 北京百度网讯科技有限公司 Text creation method, device, equipment and storage medium
CN112487826A (en) * 2020-11-30 2021-03-12 北京百度网讯科技有限公司 Information extraction method, extraction model training method and device and electronic equipment
CN113361285B (en) * 2021-06-30 2022-07-12 北京百度网讯科技有限公司 Training method of natural language processing model, natural language processing method and device

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005091214A1 (en) 2004-03-18 2005-09-29 Denso It Laboratory, Inc. Vehicle information processing system, vehicle information processing method, and program
JP2010020444A (en) 2008-07-09 2010-01-28 Sony Corp Learning device, learning method, and program
JP6205466B1 (en) 2016-07-19 2017-09-27 ヤフー株式会社 Generating device, generating method, and generating program
WO2018085722A1 (en) 2016-11-04 2018-05-11 Salesforce.Com, Inc. Quasi-recurrent neural network
JP2018142272A (en) 2017-02-28 2018-09-13 株式会社エヌ・ティ・ティ・データ Content evaluation prediction system and content evaluation prediction method
CN109189933A (en) 2018-09-14 2019-01-11 腾讯科技(深圳)有限公司 A kind of method and server of text information classification

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005091214A1 (en) 2004-03-18 2005-09-29 Denso It Laboratory, Inc. Vehicle information processing system, vehicle information processing method, and program
JP2010020444A (en) 2008-07-09 2010-01-28 Sony Corp Learning device, learning method, and program
JP6205466B1 (en) 2016-07-19 2017-09-27 ヤフー株式会社 Generating device, generating method, and generating program
WO2018085722A1 (en) 2016-11-04 2018-05-11 Salesforce.Com, Inc. Quasi-recurrent neural network
JP2018142272A (en) 2017-02-28 2018-09-13 株式会社エヌ・ティ・ティ・データ Content evaluation prediction system and content evaluation prediction method
CN109189933A (en) 2018-09-14 2019-01-11 腾讯科技(深圳)有限公司 A kind of method and server of text information classification

Also Published As

Publication number Publication date
JP2020140673A (en) 2020-09-03

Similar Documents

Publication Publication Date Title
JP7293729B2 (en) LEARNING DEVICE, INFORMATION OUTPUT DEVICE, AND PROGRAM
CN111368996B (en) Retraining projection network capable of transmitting natural language representation
CN107836000B (en) Improved artificial neural network method and electronic device for language modeling and prediction
CN107506414B (en) Code recommendation method based on long-term and short-term memory network
JP6854921B2 (en) Multitasking neural network system with task-specific and shared policies
EP3596663B1 (en) Neural network system
KR20190113928A (en) Device placement optimization through reinforcement learning
JP6611053B2 (en) Subject estimation system, subject estimation method and program
JP2020518912A (en) Generating query variants using a trained generative model
CN111444320A (en) Text retrieval method and device, computer equipment and storage medium
US11010664B2 (en) Augmenting neural networks with hierarchical external memory
US20170322923A1 (en) Techniques for determining textual tone and providing suggestions to users
JP2019517075A (en) Categorizing Example Inputs Using Comparison Sets
JP2018537788A (en) Extension of neural network using external memory
CN106471525A (en) Strength neural network is to generate additional output
CN108701253A (en) The target output training neural network of operating specification
WO2018201151A1 (en) Neural network optimizer search
US20210133279A1 (en) Utilizing a neural network to generate label distributions for text emphasis selection
US20230350651A1 (en) Creating user interface using machine learning
JP2010003106A (en) Classification model generation device, classification device, classification model generation method, classification method, classification model generation program, classification program and recording medium
WO2014073206A1 (en) Information-processing device and information-processing method
JP2021068053A (en) Generating device and generating program
CN109858615A (en) Low pass recurrent neural network system with memory
CN114358201A (en) Text-based emotion classification method and device, computer equipment and storage medium
CN114647408A (en) Method and device for complementing codes, electronic equipment and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220216

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230417

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230509

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230522

R150 Certificate of patent or registration of utility model

Ref document number: 7293729

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150