JP2021096511A - Learning data generation method, learning data generation program, and information processing device - Google Patents
Learning data generation method, learning data generation program, and information processing device Download PDFInfo
- Publication number
- JP2021096511A JP2021096511A JP2019225505A JP2019225505A JP2021096511A JP 2021096511 A JP2021096511 A JP 2021096511A JP 2019225505 A JP2019225505 A JP 2019225505A JP 2019225505 A JP2019225505 A JP 2019225505A JP 2021096511 A JP2021096511 A JP 2021096511A
- Authority
- JP
- Japan
- Prior art keywords
- data
- learning
- similarity
- core tensor
- prediction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 44
- 238000000034 method Methods 0.000 title claims description 73
- 230000008569 process Effects 0.000 claims description 38
- 238000012549 training Methods 0.000 claims description 33
- 230000008859 change Effects 0.000 claims description 23
- 238000004364 calculation method Methods 0.000 claims description 7
- 238000010586 diagram Methods 0.000 description 32
- 239000011159 matrix material Substances 0.000 description 22
- 238000013528 artificial neural network Methods 0.000 description 21
- 238000012545 processing Methods 0.000 description 20
- 238000000354 decomposition reaction Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 11
- 238000004891 communication Methods 0.000 description 10
- 230000000694 effects Effects 0.000 description 5
- 238000013135 deep learning Methods 0.000 description 4
- 238000000605 extraction Methods 0.000 description 4
- 238000009826 distribution Methods 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000009223 counseling Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 208000020016 psychiatric disease Diseases 0.000 description 2
- 238000000547 structure data Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000003064 k means clustering Methods 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000002945 steepest descent method Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000003442 weekly effect Effects 0.000 description 1
Images
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
Description
本発明は、学習データ生成技術に関する。 The present invention relates to a learning data generation technique.
一般的に、学習データを用いて学習された学習モデルは、運用開始後に、予測対象の入力データの分布変化などにより、予測精度の劣化が発生することがある。このため、新たな学習データを用いて、定期的に更新することで、予測精度の維持が行われる。一方で、新たな学習データを十分に収集することが難しいこともあり、近年では、予測に利用された入力データに対して、実際の結果を教師ラベルとして付与して、新たな学習データとして生成することが行われている。 In general, a learning model learned using training data may deteriorate in prediction accuracy due to changes in the distribution of input data to be predicted after the start of operation. Therefore, the prediction accuracy is maintained by periodically updating using new learning data. On the other hand, it may be difficult to collect enough new learning data, and in recent years, the actual result is given as a teacher label to the input data used for prediction, and it is generated as new learning data. Is being done.
ところで、通常は、学習モデルを用いて予測された予測結果に基づき、何かしらの施策が行われる。ここで、6か月分の出退勤データを入力として、その後の3か月以内に療養(休職)する可能性を示す「正例」または療養しない可能性を示す「負例」のいずれかを予測する学習モデルを考える。 By the way, usually, some measures are taken based on the prediction result predicted by using the learning model. Here, by inputting attendance data for 6 months, either a "normal case" indicating the possibility of receiving medical treatment (leave of absence) within the following 3 months or a "negative case" indicating the possibility of not receiving medical treatment is predicted. Consider a learning model to do.
例えば、ある従業員Aに対して療養(正例)の可能性が高いと予測された場合、療養しないように働きかけが行われる結果、従業員Aが3か月後も療養することなく、通常通りに出勤できることがある。この場合、3か月後の従業員Aの出退勤データに、教師ラベルとして「負例(療養無)」を付与した新たな学習データAが生成される。 For example, if it is predicted that there is a high possibility of medical treatment (normal example) for a certain employee A, as a result of encouraging employees not to receive medical treatment, employee A usually does not receive medical treatment even after 3 months. You may be able to go to work on the street. In this case, new learning data A is generated in which "negative case (no medical treatment)" is added as a teacher label to the attendance / leaving data of employee A after 3 months.
しかしながら、ここで付加された教師ラベル「負例」は、従業員Aに対する施策が功を奏した結果である。つまり、本来は教師ラベル「正例」を付与する出勤形態であるにも関わらず、施策により教師ラベルに変容が生じていると考えることができる。このような教師ラベルが変容した学習データを用いて学習を行うと、学習モデルの学習ノイズとなり、精度の劣化が懸念される。 However, the teacher label "negative example" added here is the result of the successful measures for employee A. In other words, it can be considered that the teacher label has been transformed by the measures, although it is originally a form of attendance to which the teacher label "regular example" is given. When learning is performed using the learning data in which the teacher label is transformed, it becomes learning noise of the learning model, and there is a concern that the accuracy may be deteriorated.
そこで、既知の教師レベルが付与されている元々の学習データと、現在(施策実施後)の入力データとの類似度により、当該入力データに対して付与する教師ラベルを推定する手法が考えられる。例えば、現時点から過去6か月分の出退勤データXと、元々用意されていた既存の学習データとの類似度を算出する。そして、類似度が高い既知の学習データの教師ラベルを出勤簿データXに付与した新たな学習データを生成する。 Therefore, a method of estimating the teacher label given to the input data based on the similarity between the original learning data to which the known teacher level is given and the current (after the implementation of the measure) input data can be considered. For example, the degree of similarity between the attendance / leaving data X for the past 6 months from the present time and the existing learning data originally prepared is calculated. Then, new learning data is generated in which a teacher label of known learning data having a high degree of similarity is attached to the attendance record data X.
しかし、このような類似度による手法では、一意にデータ同士を比較しているので、本来の予測タスクに重要な箇所を見逃した教師ラベルの推定となっている可能性が高い。そのような新たな学習データを用いて学習モデルを更新すると、却って精度劣化を招くことにもなる。 However, since the data are uniquely compared with each other in such a similarity method, there is a high possibility that the teacher label is estimated by missing an important part in the original prediction task. If the learning model is updated with such new learning data, the accuracy will be deteriorated.
そこで、学習モデルの精度を向上できる学習データを生成することができる学習データ生成方法、学習データ生成プログラムおよび情報処理装置を提供することを目的とする。 Therefore, it is an object of the present invention to provide a learning data generation method, a learning data generation program, and an information processing apparatus capable of generating learning data capable of improving the accuracy of the learning model.
第1の案では、学習データ生成方法は、コンピュータが、学習モデルの学習に利用された、各学習データに基づいて生成された各コアテンソルを取得する処理を実行する。学習データ生成方法は、コンピュータが、学習済みの前記学習モデルを用いて、第1の識別子に関連する第一時点のデータから第一のコアテンソルと、前記第1の識別子に関連する第二時点のデータから第二のコアテンソルを生成する処理を実行する。学習データ生成方法は、コンピュータが、前記第一のコアテンソルと前記各コアテンソルとの各第一の類似度と、前記第二のコアテンソルと前記各コアテンソルとの各第二の類似度とを算出する処理を実行する。学習データ生成方法は、コンピュータが、前記各第一の類似度と前記各第二の類似度とに基づき、教師ラベルを決定し、前記第二時点のデータと決定された前記教師ラベルとに基づいて、新たな学習データを生成する処理を実行する。 In the first plan, in the training data generation method, the computer executes a process of acquiring each core tensor generated based on each training data used for learning the learning model. In the training data generation method, the computer uses the trained training model to obtain the first core tensor from the data at the first time point related to the first identifier and the second time point related to the first identifier. The process of generating the second core tensor from the data of is executed. In the learning data generation method, the computer uses the first similarity between the first core tensor and each core tensor and the second similarity between the second core tensor and each core tensor. Is executed. In the learning data generation method, the computer determines the teacher label based on the first similarity degree and the second similarity degree, and based on the data at the second time point and the determined teacher label. Then, the process of generating new learning data is executed.
一実施形態によれば、学習モデルの精度を向上できる学習データを生成することができる。 According to one embodiment, it is possible to generate learning data that can improve the accuracy of the learning model.
以下に、本願の開示する学習データ生成方法、学習データ生成プログラムおよび情報処理装置の実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。また、各実施例は、矛盾のない範囲内で適宜組み合わせることができる。 Hereinafter, examples of the learning data generation method, the learning data generation program, and the information processing apparatus disclosed in the present application will be described in detail with reference to the drawings. The present invention is not limited to this embodiment. In addition, each embodiment can be appropriately combined within a consistent range.
[全体構成]
図1は、実施例1にかかる情報処理装置100を説明する図である。近年、従業員の体調管理などは、企業にとっても取り組むべき重要な事項に位置づけられており、従業員の出勤簿データから、数か月先のメンタル不調を予測し、カウンセリング等の対応を早期に実施することが行われている。一般的には、専任スタッフが、膨大な人数の従業員の出勤簿データを閲覧し、頻繁な出張、長時間残業、連続する欠勤、無断欠勤、これらの組合せなどの特徴的なパターンの勤務状態に該当する従業員を目視で探している。このような特徴的なパターンは、各専任スタッフにより基準が異なることもあり、明確に定義することが難しい。
[overall structure]
FIG. 1 is a diagram illustrating an
そこで、本実施例では、ニューラルネットワーク(NN:Neural Network)を用いた深層学習の一例として、従業員等の出勤簿データを学習対象とし、療養経験がある体調不良者の出勤簿データや療養経験がない通常者の出勤簿データを用いて、従業員のメンタル不調を予測する学習モデル(予測モデル)の学習を実行する。 Therefore, in this embodiment, as an example of deep learning using a neural network (NN: Neural Network), attendance record data of employees and the like is targeted for learning, and attendance record data and medical treatment experience of a person with poor physical condition who has medical treatment experience. A learning model (prediction model) for predicting an employee's mental disorder is trained using the attendance record data of a normal person who does not have a neural network.
なお、本実施例では、グラフ構造のデータを深層学習することが可能なグラフ構造学習技術の一例である、テンソルデータを用いたディープテンソル(Deep Tensor:DT)を用いる。DTは、入力としてグラフ構造を用い、グラフ構造をテンソルデータ(以下では、テンソルと記載する場合がある)に変換して処理する。そして、DTでは、予測に寄与するグラフの部分構造(テンソルの部分パターン)をコアテンソルとして抽出することで、高精度な予測を実現する。 In this embodiment, a deep tensor (DT) using tensor data, which is an example of a graph structure learning technique capable of deep learning of graph structure data, is used. The DT uses a graph structure as an input, converts the graph structure into tensor data (hereinafter, may be referred to as a tensor) and processes it. Then, in DT, highly accurate prediction is realized by extracting the partial structure (partial pattern of the tensor) of the graph that contributes to the prediction as a core tensor.
(ディープテンソルの説明)
ここで、実施例1で用いるディープテンソルについて説明する。ディープテンソルとは、グラフ構造のデータから生成されるテンソルデータ(以下では、単に「テンソル」と記載する場合がある)を入力とするディープラーニング技術であり、ニューラルネットワークの学習とともに、ニューラルネットワークに入力されるコアテンソルの抽出方法を学習する。この抽出方法の学習は、ニューラルネットワークの学習とともに、入力テンソルデータのテンソル分解のパラメータを更新することによって実現される。
(Explanation of deep tensor)
Here, the deep tensor used in the first embodiment will be described. Deep tensor is a deep learning technology that inputs tensor data generated from graph structure data (hereinafter, it may be simply referred to as "tensor"), and inputs it to the neural network together with the learning of the neural network. Learn how to extract the core tensor to be used. The learning of this extraction method is realized by updating the parameters of the tensor decomposition of the input tensor data together with the learning of the neural network.
次に、図2および図3を用いてグラフ構造について説明する。図2は、グラフ構造とテンソルとの関係の一例を示す図である。図2に示すグラフ20は、4つのノードがノード間の関係性(例えば「相関係数が所定値以上」)を示すエッジで結ばれている。なお、エッジで結ばれていないノード間は、当該関係性がないことを示す。グラフ20を2階のテンソル、つまり行列で表す場合、例えば、ノードの左側の番号に基づく行列表現は「行列A」で表され、ノードの右側の番号(囲み線で囲んだ数字)に基づく行列表現は「行列B」で表される。これらの行列の各成分は、ノード間が結ばれている(接続している)場合「1」で表され、ノード間が結ばれていない(接続していない)場合「0」で表される。以下の説明では、この様な行列を接続行列ともいう。ここで、「行列B」は、「行列A」の2,3行目および2,3列目を同時に置換することで生成できる。ディープテンソルでは、この様な置換処理を用いることで順序の違いを無視して処理を行う。すなわち、「行列A」および「行列B」は、ディープテンソルでは順序性が無視され、同じグラフとして扱われる。なお、3階以上のテンソルについても同様の処理となる。
Next, the graph structure will be described with reference to FIGS. 2 and 3. FIG. 2 is a diagram showing an example of the relationship between the graph structure and the tensor. In the
図3は、部分グラフ構造の抽出の一例を示す図である。図3に示すグラフ21は、6つのノードがエッジで結ばれたものである。グラフ21は、行列(テンソル)で表すと行列22に示すように表現できる。行列22に対して、特定の行および列を入れ替える演算、特定の行および列を抽出する演算、ならびに、接続行列における非ゼロ要素をゼロに置換する演算を組み合わせることで、部分グラフ構造を抽出できる。例えば、行列22の「ノード1,4,5」に対応する行列を抽出すると、行列23となる。次に、行列23の「ノード4,5」間の値をゼロに置換すると、行列24となる。行列24に対応する部分グラフ構造は、グラフ25となる。
FIG. 3 is a diagram showing an example of extraction of a subgraph structure. In the
このような部分グラフ構造の抽出処理は、テンソル分解と呼ばれる数学的演算によって実現される。テンソル分解とは、入力されたn階テンソルをn階以下のテンソルの積で近似する演算である。例えば、入力されたn階テンソルを1つのn階テンソル(コアテンソルと呼ばれる。)、および、より低階のn個のテンソル(n>2の場合、通常は2階のテンソル、つまり行列が用いられる。)の積で近似する。この分解は一意ではなく、入力データが表すグラフ構造中の任意の部分グラフ構造をコアテンソルに含める事ができる。 The extraction process of such a subgraph structure is realized by a mathematical operation called tensor decomposition. The tensor decomposition is an operation that approximates the input n-th order tensor by the product of the n-th order and lower tensors. For example, when the input n-th order tensor is one n-th order tensor (called a core tensor) and n lower-order tensors (n> 2, the second-order tensor, that is, a matrix is usually used. ) Is approximated by the product. This decomposition is not unique and the core tensor can contain any subgraph structure in the graph structure represented by the input data.
なお、出勤簿データは、複数のノードと複数のノードを接続するエッジとから成るグラフデータを構成することができる。ここで、複数のノードは、日付、月度および出欠区分のノードから構成される。日付、月度および出欠区分のノードは、日付、月度および出欠区分の数だけそれぞれ存在する。各ノードには、日付、月度および出欠区分の状況に応じた値が格納される。例えば、日付が1なら値「1」、出欠区分が「休暇」なら値「2」で「出社」なら値「1」などが設定される。エッジは、日付のノードと、月度のノードと、出欠区分のノードのうち関連のあるノードを接続される。 The attendance record data can be composed of graph data including a plurality of nodes and an edge connecting the plurality of nodes. Here, the plurality of nodes are composed of nodes of date, month, and attendance classification. There are as many date, month, and attendance nodes as there are dates, months, and attendance categories, respectively. Each node stores values according to the date, month, and attendance classification status. For example, if the date is 1, a value "1" is set, if the attendance category is "vacation", a value "2" is set, and if "going to work", a value "1" is set. The edge is connected to the date node, the monthly node, and the related node of the attendance division node.
続いて、実施例で用いる学習モデルの学習について説明する。実施例で用いる学習モデルの一例としては、図4に示すコアテンソルの生成、NNの学習やターゲットコアテンソルの学習までを含む。図4は、学習例を説明する図である。図4に示すように、情報処理装置100は、療養ありなどの教師ラベル(ラベルA)が付された出勤簿データから入力テンソルを生成する。そして、情報処理装置100は、入力テンソルにテンソル分解を行って、初回にランダムに生成されたターゲットコアテンソルに類似するようにコアテンソルを生成する。そして、情報処理装置100は、コアテンソルをニューラルネットワーク(NN:Neural Network)に入力して分類結果(ラベルA:70%、ラベルB:30%)を得る。その後、情報処理装置100は、分類結果(ラベルA:70%、ラベルB:30%)と教師ラベル(ラベルA:100%、ラベルB:0%)との分類誤差を算出する。
Next, learning of the learning model used in the examples will be described. An example of the learning model used in the examples includes the generation of the core tensor shown in FIG. 4, the learning of the NN, and the learning of the target core tensor. FIG. 4 is a diagram illustrating a learning example. As shown in FIG. 4, the
ここで、情報処理装置100は、誤差逆伝搬法を拡張した拡張誤差伝搬法を用いて予測モデルの学習およびテンソル分解の方法の学習を実行する。すなわち、情報処理装置100は、NNが有する入力層、中間層、出力層に対して、分類誤差を下層に伝搬させる形で、分類誤差を小さくするようにNNの各種パラメータを更新する。さらに、情報処理装置100は、分類誤差をターゲットコアテンソルまで伝搬させ、予測に寄与するグラフの部分構造、すなわち体調不良者の特徴を示す特徴パターンもしくは通常者の特徴を示す特徴パターンに近づくように、ターゲットコアテンソルを修正する。
Here, the
なお、学習後の予測時には、テンソル分解により、ターゲットコアテンソルに類似するように、入力テンソルをコアテンソル(入力テンソルの部分パターン)に変換し、コアテンソルをニューラルネットに入力することで、予測結果を得ることができる。 At the time of prediction after training, the input tensor is converted to a core tensor (partial pattern of the input tensor) by tensor decomposition so that it resembles the target core tensor, and the core tensor is input to the neural network. Can be obtained.
(一般技術の問題点)
図1に示す情報処理装置100は、従業員の3か月間の出勤簿データを説明変数、療養経験がある「正例」または療養経験がない「負例」を示す教師ラベルを目的変数とする各学習データを用いて、6か月間の出勤簿データからその後の3か月以内に療養する可能性があるか否かを予測する学習モデルの学習を実行する。
(Problems of general technology)
The
そして、学習が完了すると、情報処理装置100は、予測対象である従業員の出勤簿データ(以下では、予測対象データと記載する場合がある)を学習済みの学習モデルに入力して得られる結果(正例または負例)に基づき、当該従業員が療養する危険性が高いか否かを予測する。
Then, when the learning is completed, the
その後、情報処理装置100は、予測対象である従業員の出勤簿データに対して、実際に療養したまたは療養していないを示す結果を教師ラベルとして新たに付与した学習データを生成し、当該学習データを用いて学習モデルの再学習を実行する。このようにして、情報処理装置10は、学習モデルを定期的に更新することで、学習モデルによる予測の精度で維持することができる。
After that, the
ここで、予測時に「正例」と予測された場合、療養しないように施策が行われることが一般的であり、その施策の結果、予測とは異なる結果「負例」となることがあるので、実際の結果をそのまま教師ラベルとして付与することは、学習ノイズとなる可能性がある。このため、一般的には、教師ラベルが既知である各学習データと、予測対象データとの類似度を算出し、類似度が最も高い学習データの教師ラベルを予測対象データに付与することで、学習モデルの更新用の学習データを生成することが行われる。 Here, if it is predicted as a "normal case" at the time of prediction, it is common that measures are taken so as not to recuperate, and as a result of the measure, a result different from the prediction may be a "negative case". However, giving the actual result as it is as a teacher label may cause learning noise. Therefore, in general, the similarity between each learning data whose teacher label is known and the prediction target data is calculated, and the teacher label of the training data having the highest similarity is given to the prediction target data. The training data for updating the training model is generated.
図5は、一般的な類似度による教師ラベルの推定を説明する図である。ここでは、ある従業員の出勤簿データを例にして説明する。図5に示すように、予測時(過去)に、そのときの最新日から6か月遡った予測元期間の出勤簿データAを学習済みの学習モデルに入力して、「正例」の予測結果を取得する。 FIG. 5 is a diagram illustrating general estimation of teacher labels by similarity. Here, the attendance record data of a certain employee will be described as an example. As shown in FIG. 5, at the time of prediction (past), the attendance record data A of the prediction source period, which is 6 months back from the latest date at that time, is input to the trained learning model to predict the “normal example”. Get the result.
そして、「正例」と判定された従業員に対して、カウンセリング等が行われ、3か月後(現在)も、ある従業員は療養することなく出勤できたとする。この場合、元々正例と予測されたにも関わらず、負例となったのは施策によるものか、最初から負例(予測が誤検知)だったのかが不明である。 Then, counseling and the like are given to the employees who are judged to be "regular cases", and it is assumed that a certain employee can go to work without medical treatment even after 3 months (currently). In this case, although it was originally predicted to be a positive case, it is unclear whether the negative case was due to a measure or a negative case (the prediction was a false positive) from the beginning.
このため、一般的には、現在の最新日から6か月遡った出勤簿データBを説明変数として抽出し、出勤簿データと、学習に利用された各学習データ(過去データ)との類似度を算出し、類似度にしたがって、設定する教師ラベルを決定する。
Therefore, in general, attendance
例えば、出勤簿データB「出勤、出勤、午前休、午後休」と、教師ラベル「正例」が設定される過去データA「休、休、午前休、午後休」との類似度「2/4」を算出する。同様に、出勤簿データB「出勤、出勤、午前休、午後休」と、教師ラベル「負例」が設定される過去データB「出勤、出勤、休、出勤」との類似度「3/4」を算出する。 For example, the degree of similarity "2 /" between the attendance record data B "commuting, attendance, morning break, afternoon break" and the past data A "holiday, holiday, morning break, afternoon break" in which the teacher label "regular example" is set. 4 ”is calculated. Similarly, the degree of similarity "3/4" between the attendance record data B "commuting, attendance, morning break, afternoon break" and the past data B "commuting, attendance, leave, attendance" in which the teacher label "negative example" is set. Is calculated.
この結果、過去データBとの類似度の方が高いので、出勤簿データB「出勤、出勤、午前休、午後休」に、過去データBと同様の教師ラベル「負例」を設定した更新用の学習データを生成する。つまり、出勤簿データBと過去データ間の類似度評価では負例の過去データBに近いので、結果としては誤検知であった可能性が高まり、新たな学習データとして追加する際はそのまま負例ラベルを付与する。すなわち、施策効果でなく予測が外れていたと推定される。 As a result, since the degree of similarity with the past data B is higher, the teacher label "negative example" similar to the past data B is set in the attendance record data B "attendance, attendance, morning break, afternoon break" for update. Generate training data for. In other words, the similarity evaluation between the attendance record data B and the past data is close to the past data B of the negative example, so the possibility that it was a false detection as a result increases, and when adding it as new learning data, it is a negative example as it is. Give a label. In other words, it is presumed that the forecast was wrong, not the effect of the measure.
ところが、このような単純な類似度比較は、一意にデータ同士を比較しているので、本来の予測タスクに重要な箇所を見逃した教師ラベルの推定となっている可能性が高い。図6は、一般的な類似度による教師ラベルの推定の問題点を説明する図である。図6に示すように、健康を損なう重要な箇所は「午前休」と「午後休」が連続で繋がっている箇所であるとする。この場合、図5のような単純な類似度比較では負例に近いと評価されたが、重要箇所に注目すると、過去の正例事例に近いと判断されるべきである。したがって、新たな学習データとして、そのまま負例サンプルとして採用してしまうと施策効果が考慮されていない異質な学習データとなり、学習精度の低下を招く。 However, since such a simple similarity comparison uniquely compares the data with each other, it is highly possible that the teacher label is estimated by missing an important part in the original prediction task. FIG. 6 is a diagram illustrating a problem in estimating teacher labels based on general similarity. As shown in FIG. 6, it is assumed that an important part that impairs health is a part where "morning break" and "afternoon break" are continuously connected. In this case, a simple similarity comparison as shown in FIG. 5 evaluated it as close to a negative case, but focusing on important points, it should be judged to be close to a past positive case. Therefore, if it is adopted as a negative example sample as it is as new learning data, it becomes heterogeneous learning data in which the effect of the measure is not taken into consideration, which causes a decrease in learning accuracy.
そこで、実施例1にかかる情報処理装置100は、予測時と施策実施後において予測根拠の特徴を捉えているコアテンソルの変化に基づき、教師ラベルの変容可能性を試算する。
Therefore, the
具体的には、図1に示すように、情報処理装置100は、各学習データを用いて学習モデルの学習を実行する際に、各学習データのコアテンソル(学習時のコアテンソル)を取得して保持する(図1の(1))。続いて、情報処理装置100は、学習済みの学習モデルを用いて、予測対象データに対する予測を実行する際に、このときのコアテンソル(予測時のコアテンソル)を取得して保持する(図1の(2))。
Specifically, as shown in FIG. 1, the
そして、情報処理装置100は、予測当時は「正例」と予測されたが実際は「負例」となった従業員の出勤簿データにテンソル分解を行って、更新時のコアテンソルを取得して保持する(図1の(3))。
Then, the
その後、情報処理装置100は、予測時のコアテンソルと各学習時のコアテンソルとの類似度を算出し(図1の(4))、更新時のコアテンソルと各学習時のコアテンソルとの類似度を算出する(図1の(5))。
After that, the
そして、情報処理装置100は、各々算出された各コアテンソル類似度間の差分を評価し、予め設定した閾値を越えない場合は、施策効果による直接的な教師ラベル変化があったものと推定し、新たな学習データとして採用する際は正例データとして補正する。
Then, the
このように、情報処理装置100は、予測結果を受け施策が講じられた対象について、教師ラベルの変容可能性を評価し、新たな学習データとして扱う際の教師ラベル付与を補正することができる。したがって、情報処理装置100は、学習モデルの精度を向上できる学習データを生成することができる。
In this way, the
[機能構成]
図7は、実施例1にかかる情報処理装置100の機能構成を示す機能ブロック図である。図7に示すように、情報処理装置100は、通信部101、記憶部102、制御部110を有する。
[Functional configuration]
FIG. 7 is a functional block diagram showing a functional configuration of the
通信部101は、他の装置との通信を制御する処理部であり、例えば通信インタフェースである。例えば、通信部101は、管理者の端末から、処理開始指示、学習データ、学習データがテンソル化された入力テンソルなどを受信する。また、通信部101は、管理者の端末に対して、学習結果や予測結果などを出力する。
The
記憶部102は、プログラムやデータを記憶する記憶装置の一例であり、例えばメモリやハードディスクなどである。この記憶部102は、出勤簿データDB103、学習データDB104、予測対象データDB105、コアテンソルデータDB106、更新用データDB107、学習結果DB108を記憶する。
The
出勤簿データDB103は、社員等の出勤に関する出勤簿データを記憶するデータベースである。ここで記憶される出勤簿データは、各企業で使用される出勤簿をデータ化したものであり、公知の様々な出勤管理システムなどから取得することができる。図8は、出勤簿データDB103に記憶される情報の例を示す図である。図8に示すように、出勤簿データは、「従業員No、日付、曜日、出欠区分、出勤時刻、退勤時刻、残業時間、出張」を対応付けて記憶する。なお、出欠区分には、出社、療養、休暇などの種別が格納される。また、日付や曜日などは、出勤簿データを構成する要素の一例である。
The attendance
図8の例は、従業員No.100の従業員の出勤簿データを示している。例えば、図8の2行目は、「2015年4月2日木曜日」の出勤簿データであり、この日は、出張がなく、「8:49」に出社して「0:00」に退社し、残業時間が「360分」である例を示す。また、図8の7行目は、「2015年8月24日水曜日」の出勤簿データであり、この日から「2015年10月4日火曜日」まで「療養」したことを示す。なお、出勤簿データの単位は、日ごとに限らず、週単位や月単位であってもよい。 In the example of FIG. 8, the employee No. It shows attendance record data for 100 employees. For example, the second line in Fig. 8 is the attendance record data for "Thursday, April 2, 2015". On this day, there was no business trip, and I arrived at "8:49" and left at "0:00". However, an example is shown in which overtime hours are "360 minutes". In addition, the 7th line of FIG. 8 is the attendance record data of "Wednesday, August 24, 2015", and indicates that "recuperation" was performed from this day to "Tuesday, October 4, 2015". The unit of attendance record data is not limited to daily, but may be weekly or monthly.
学習データDB104は、テンソル化対象となる学習データに関する情報を記憶するデータベースである。具体的には、学習データDB104は、学習モデルに学習に利用されるデータであり、出勤簿データを6か月の期間で切出されたデータと、教師ラベルの組となる各学習データを記憶する。 The learning data DB 104 is a database that stores information about learning data to be tensorized. Specifically, the learning data DB 104 is data used for learning in the learning model, and stores the data obtained by cutting out the attendance record data in a period of 6 months and each learning data as a set of teacher labels. To do.
例えば、6か月の出勤簿データを1つの学習データとし、その後の3か月以内に療養した療養期間がある場合に、教師ラベルとして「療養あり」が設定され、その後の3か月以内に療養期間がない場合に、教師ラベルとして「療養なし」が設定される。なお、教師ラベル「療養あり」を「正例」、教師ラベル「療養なし」を「負例」と記載する場合がある。また、6か月の出勤簿データに療養期間が含まれている場合、そのデータは学習データとして採用しないこともできる。これは、予測時に、予測元のデータ(入力)となる6か月分の出勤簿データにすでに「療養」が入っている人は、明らかに直近で療養しているとわかっており、この先3か月の療養予測の対象にはしないためである。 For example, if 6 months of attendance record data is used as one learning data and there is a medical treatment period within the next 3 months, "with medical treatment" is set as the teacher label, and within the following 3 months. If there is no medical treatment period, "no medical treatment" is set as the teacher label. The teacher label "with medical treatment" may be described as "normal case", and the teacher label "without medical treatment" may be described as "negative case". In addition, if the 6-month attendance record data includes a medical treatment period, the data may not be adopted as learning data. This is because it is known that those who already have "medical treatment" in the attendance record data for 6 months, which is the data (input) of the prediction source at the time of prediction, are clearly receiving medical treatment most recently. This is because it is not included in the monthly medical treatment prediction.
図9は、学習データDB104に記憶される情報の例を示す図である。図9に示すように、学習データDB104は、「従業員、データID、データ(説明変数)、教師ラベル(目的変数)」を対応付けて記憶する。ここで記憶される「従業員」は、従業員を特定する識別子であり、「データID」は、学習データを識別する識別子である。このデータIDは、各DBで共通する情報であり、このデータIDにより各DBのデータを関連付けることができる。「データ(説明変数)」は、学習対象となるデータであり、「教師ラベル(目的変数)」は、学習時に目的変数となる情報である。 FIG. 9 is a diagram showing an example of information stored in the learning data DB 104. As shown in FIG. 9, the learning data DB 104 stores "employee, data ID, data (explanatory variable), teacher label (objective variable)" in association with each other. The "employee" stored here is an identifier that identifies the employee, and the "data ID" is an identifier that identifies the learning data. This data ID is information common to each DB, and the data of each DB can be associated with this data ID. The "data (explanatory variable)" is the data to be learned, and the "teacher label (objective variable)" is the information that becomes the objective variable at the time of learning.
図9の例では、従業員1の1月から6月までの出勤簿データには、データIDとして「A」が設定されており、教師ラベルとして「療養なし」が設定されていることを示し、従業員Aの2月から7月までの出勤簿データには、データIDとして「B」が設定されており、教師ラベルとして「療養あり」が設定されていることを示す。また、従業員2の1月から6月までの出勤簿データには、データIDとして「P」が設定されており、教師ラベルとして「療養なし」が設定されていることを示す。
In the example of FIG. 9, it is shown that "A" is set as the data ID and "no medical treatment" is set as the teacher label in the attendance record data of
ここで、教師ラベルの設定例について詳細に説明する。図10は、学習データの例を説明する図である。学習データは、6か月ごとの出勤簿データと、その6か月以降から3か月以内に療養実績があるか否かを示すラベルとから構成される。図10の(a)は、ラベル(療養あり)が付される体調不良者の出勤簿データであり、図10の(b)は、療養しなかったラベル(療養なし)が付される通常者の出勤簿データである。図10に示すように、実施例1にかかる情報処理装置100は、「6か月分の出勤簿データ、ラベル(療養あり)」と、「6か月分の出勤簿データ、ラベル(療養なし)」とを学習データとして予測モデルの学習を実行する。なお、情報処理装置100は、学習後、ある人の6か月分の出勤簿データから3か月以内に療養するか否かを予測する。なお、図10内の網掛けは、休暇を示す。
Here, a setting example of the teacher label will be described in detail. FIG. 10 is a diagram illustrating an example of learning data. The learning data is composed of attendance record data every 6 months and a label indicating whether or not there is a medical treatment record within 3 months from the 6th month onward. FIG. 10 (a) is attendance record data of a person with poor physical condition with a label (with medical treatment), and FIG. 10 (b) is a normal person with a label without medical treatment (without medical treatment). Attendance record data. As shown in FIG. 10, the
予測対象データDB105は、学習済みの学習モデルを用いて、療養するか療養しないかを予測する予測対象のデータに関する情報を記憶するデータベースである。図11は、予測対象データDB105に記憶される情報の例を示す図である。図11に示すように、予測対象データDB105は、「年度、データID、従業員、データ」を対応付けて記憶する。
The prediction
ここで記憶される「年度」は、予測対象の出勤簿データの年度を示し、「データID」は、予測対象データを識別する識別子である。「従業員」は、療養の可能性を予測した授業員の識別子であり、「データ」は、学習済みモデルに入力する対象のデータである。図11の例では、データIDが「PPP」である2019年度の6月から12月の従業員PPPの出勤簿データが予測対象データであることを示している。 The “year” stored here indicates the year of the attendance record data to be predicted, and the “data ID” is an identifier that identifies the forecast target data. The "employee" is the identifier of the lesson who predicted the possibility of medical treatment, and the "data" is the data to be input to the trained model. In the example of FIG. 11, it is shown that the attendance record data of the employee PPP from June to December 2019, whose data ID is “PPP”, is the forecast target data.
コアテンソルデータDB106は、各段階で取得されるコアテンソルに関する情報を記憶するデータベースである。具体的には、コアテンソルデータDB106は、学習時のコアテンソル、予測時のコアテンソル、更新時のコアテンソルの各段階で取得されたコアテンソルのデータを記憶する。
The core
図12は、コアテンソルデータDB106に記憶される情報の例を示す図である。図12に示すように、コアテンソルデータDB106は、データIDごとに、「学習時のコアテンソル」、「予測時のコアテンソル」、「更新時のコアテンソル」を対応付けて記憶する。図12に示すように、該当するコアテンソルの欄にコアテンソルのデータが格納され、該当しない欄には「−」などが設定される。図12の例では、データID「X」が付与された学習データから、「学習時のコアテンソル」として「コアテンソルX」が生成されたことを示す。
FIG. 12 is a diagram showing an example of information stored in the core
なお、「学習時のコアテンソル」は、学習モデルの学習時に、学習データから生成されるコアテンソルのデータを示す。「予測時のコアテンソル」は、学習済みの学習モデルを用いた予測時に、予測対象データから生成されるコアテンソルのデータを示す。「更新時のコアテンソル」は、学習済みであって更新対象である学習モデルを用いて、予測時の予測が正しいか間違っているかを判定できる時点の出勤簿データから生成されるコアテンソルのデータを示す。 The "core tensor at the time of learning" indicates the data of the core tensor generated from the training data at the time of learning the learning model. The "core tensor at the time of prediction" indicates the data of the core tensor generated from the prediction target data at the time of prediction using the trained learning model. "Core tensor at the time of update" is the data of the core tensor generated from the attendance record data at the time when it is possible to judge whether the prediction at the time of prediction is correct or incorrect by using the learning model that has been trained and is the target of update. Is shown.
更新用データDB107は、学習済みの学習モデルの更新に利用される更新用の学習データに関する情報を記憶するデータベースである。すなわち、更新用データDB107は、後述する制御部110によって生成される再学習用の学習データを記憶する。
The
図13は、更新用データDB107に記憶される情報の例を示す図である。図13に示すように、更新用データDB107は、「データID、データ、教師ラベル」を対応付け記憶する。ここで記憶される「データID」は、更新用の学習データを識別する識別子であり、「データ」は、更新時に説明変数となる出勤簿データであり、「教師ラベル」は、更新時に目的変数となる出勤簿データである。図13の例では、データIDとして「PPP」が設定される更新用の学習データであって、説明変数が「2019年の6月から12月の出勤簿データ」、目的変数が「療養あり」である更新用の学習データを示している。
FIG. 13 is a diagram showing an example of information stored in the
学習結果DB108は、学習結果に関する情報を記憶するデータベースである。例えば、学習結果DB108は、制御部110による学習データの判別結果(分類結果)、学習されたNNの各種パラメータやテンソル分解のパラメータなどを記憶する。なお、学習結果DB108は、学習により最適化された各種パラメータが設定された学習済みの学習モデルそのものを記憶することもできる。
The
制御部110は、情報処理装置100全体の処理を司る処理部であり、例えばプロセッサなどである。この制御部110は、学習部111、予測部112、ラベル推定部113、更新部114を有する。なお、学習部111、予測部112、ラベル推定部113、更新部114は、プロセッサなどが有する電子回路の一例やプロセッサなどが実行するプロセスの一例である。
The control unit 110 is a processing unit that controls the processing of the entire
学習部111は、図4で説明した深層学習により、ニューラルネットワークを適用した学習モデルの学習を実行する処理部である。具体的には、学習部111は、学習データDB104に記憶される各学習データを読み込み、各学習データのデータを説明変数、教師ラベルを目的変数として、学習モデルの学習を実行する。そして、学習部111は、学習が完了すると、最適化されたニューラルネットワークのパラメータなどを、学習結果として学習結果DB108に格納する。なお、学習部111は、学習が完了すると、最適化されたニューラルネットワークのパラメータなどが設定された学習モデルそのものを、学習結果として学習結果DB108に格納することもできる。
The
ここで、学習部111は、学習データを学習モデル(NNを含む)に入力する際に、学習データをテンソル化したテンソルデータを生成する。そして、学習部111は、ターゲットコアテンソルと類似するように、テンソルデータからコアテンソルを生成し、コアテンソルをNNに入力して学習処理を実行する。
Here, when the learning data is input to the learning model (including the NN), the
図14は、テンソル化を説明する図である。図14に示すように、学習部111が生成するテンソルは、横方向に月度、縦方向に日付、奥行き方向に出欠区分、左側が出張あり、右側が出張なしのデータとなる。日付は、上から1日目を順に示し、出欠区分は、手前から出社、休暇、休日を示す。例えば、図14の(a)は、月度1の1日目に出社して出張した要素を示し、図14の(b)は、月度1の2日目に休暇を取得して出張しなかった要素を示す。なお、本実施例では、上述したテンソルを簡略化して図14の(c)のように記載する場合がある。すなわち、月度、日付、出欠区分、出張有無の各要素を重ねたキューブ状で表現することとし、各月度かつ日付の出張有無を区別して表現し、各月度かつ日付の出欠区分を区別して表現する。
FIG. 14 is a diagram illustrating tensorization. As shown in FIG. 14, the tensor generated by the
また、学習部111は、各学習データに基づく学習時に、各学習データに対するテンソル分解などにより生成されるコアテンソルを取得する。そして、学習部111は、学習データのIDに対応付けて、取得した各コアテンソルをコアテンソルデータDB106に格納する。すなわち、学習部111は、各学習データに対して「学習時のコアテンソル」を取得する。
Further, the
例えば、学習部111は、学習データDB104のデータID「4」の学習データ(データ、教師ラベル(療養なし))を読み込み、データ「1月から6月までの出勤簿データ」を説明変数としてNNに入力する。続いて、学習部111は、NNの出力結果と教師ラベル「療養なし」との誤差が小さくなるように(一致するように)、NNの学習を実行する。また、学習部111は、学習時に、当該データ「1月から6月までの出勤簿データ」から生成されるコアテンソルAを取得して、コアテンソルデータDB106に格納する。
For example, the
予測部112は、学習済みの学習モデルを用いて、各従業員が療養する危険性が高いか否かを予測する処理部である。具体的には、予測部112は、学習モデルの学習が完了すると、学習結果DB108からパラメータ等を取得して、学習済みの学習モデルを構築する。そして、予測部112は、予測対象データDB105から予測対象データを読み込んで、学習時と同様にテンソル化して学習済みの学習モデルに入力し、その出力結果に基づき、療養の可能性を予測して、記憶部102に格納したり、表示部に出力したりする。
The prediction unit 112 is a processing unit that predicts whether or not each employee has a high risk of medical treatment using a learned learning model. Specifically, when the learning of the learning model is completed, the prediction unit 112 acquires parameters and the like from the
また、予測部112は、各予測対象データに基づく予測時に、各予測対象データに対するテンソル分解などにより生成されるコアテンソルを取得する。そして、予測部112は、予測対象データのIDに対応付けて、取得した各コアテンソルをコアテンソルデータDB106に格納する。すなわち、予測部112は、各予測対象データに対して「予測時のコアテンソル」を取得する。
Further, the prediction unit 112 acquires a core tensor generated by tensor decomposition of each prediction target data at the time of prediction based on each prediction target data. Then, the prediction unit 112 stores each acquired core tensor in the core
例えば、予測部112は、予測対象データDB105のデータID「PPP」の予測対象データを読み込み、データ「2019年6月から12月までの出勤簿データ」を学習済みの学習モデルに入力する。続いて、予測部112は、学習済みの学習モデルの出力結果として、正例(療養あり)である確率と負例(療養なし)である確率とを取得する。そして、予測部112は、各確率のうち高い方の確率を予測結果と決定する。また、予測部112は、予測時に、当該データ「2019年6月から12月までの出勤簿データ」から生成されるコアテンソルPPPを取得して、コアテンソルデータDB106に格納する。なお、予測部112は、予測結果が「正例(療養あり)」である予測対象データについてのみ、コアテンソルを取得して保持することもできる。
For example, the prediction unit 112 reads the prediction target data of the data ID “PPP” of the prediction
ラベル推定部113は、予測時のコアテンソルと更新時のコアテンソルとの変化に基づき、新たな学習データに付与する教師ラベルを推定する処理部である。具体的には、ラベル推定部113は、ある従業員の出勤簿データについて、予測時のコアテンソルと学習時のコアテンソルとの類似度を算出し、更新タイミングである現在のコアテンソルと学習時のコアテンソルとの類似度を算出する。そして、ラベル推定部113は、類似度の比較に基づく教師ラベルを新たな学習データに付与して、更新用データDB107に格納する。
The
例えば、従業員Xの出勤簿データを例にして説明する。図15は、類似度算出および教師ラベル推定を説明する図である。図15に示すように、予測時(過去)に、予測部112は、従業員Xの最新日から6か月前までの出勤簿データである予測元期間のデータを用いて、最新日から3か月後の予測期間内で、従業員Xが療養するか否かを予測する。このとき、予測部112は、予測元期間のデータに基づくコアテンソルX1(予測時のコアテンソルX1)を取得する(S1)。 For example, the attendance record data of employee X will be described as an example. FIG. 15 is a diagram illustrating similarity calculation and teacher label estimation. As shown in FIG. 15, at the time of forecasting (past), the forecasting unit 112 uses the data of the forecasting source period, which is the attendance record data from the latest date of employee X to 6 months ago, and 3 from the latest date. Predict whether employee X will be treated within the prediction period after one month. At this time, the prediction unit 112 acquires the core tensor X1 (core tensor X1 at the time of prediction) based on the data of the prediction source period (S1).
また、予測部112は、「正例」すなわち「療養する」と予測し、予測した時期に到達すると、各従業員の出勤簿データを参照して、予測が正解であったか否かを判定する。ここでは、予測先期間経過後に、従業員Xが、「療養する」ことなく、通常通りに出勤できたとする。この場合、予測時は「正例」だったにも関わらず、正解は「負例」となる。この場合、新たに生成する学習データには教師ラベル「負例」を付与することが一般的である。しかし、予測が間違っていたのか、従業員Xに対する施策が功を奏した結果により正解が変化したのかが特定できないので、このまま教師ラベルを付与することは信頼性が低い。 In addition, the prediction unit 112 predicts that the prediction is "correct", that is, "recuperates", and when the predicted time is reached, the prediction unit 112 refers to the attendance record data of each employee and determines whether or not the prediction is correct. Here, it is assumed that the employee X can go to work as usual without "recuperating" after the prediction period has elapsed. In this case, the correct answer is a "negative example" even though it was a "positive example" at the time of prediction. In this case, it is common to give the teacher label "negative example" to the newly generated learning data. However, since it is not possible to identify whether the prediction was wrong or whether the correct answer changed as a result of the successful measures for employee X, it is unreliable to give the teacher label as it is.
そこで、ラベル推定部113は、結果が「正例」ではなく「負例」に変わった従業員Xの出勤簿データのうち、予測先期間経過後の現在の最新日から6か月前までの出勤簿データである新予測元期間のデータからコアテンソルX2(更新時のコアテンソルX2)を生成する(S2)。
Therefore, the
続いて、ラベル推定部113は、予測時の予測元期間に基づくコアテンソルX1と、各学習データから生成されたコアテンソル(学習時のコアテンソル)との類似度を、コサイン類似度やk−meansクラスタリング等の手法を用いて算出する(S3)。
Subsequently, the
例えば、ラベル推定部113は、予測時のコアテンソルX1と、教師ラベル「正例」が付与された学習データAに基づくコアテンソルAとの類似度「0.9」を算出する。同様に、ラベル推定部113は、予測時のコアテンソルX1と教師ラベル「正例」が付与された学習データBに基づくコアテンソルBとの類似度「0.8」、予測時のコアテンソルX1と教師ラベル「負例」が付与された学習データCに基づくコアテンソルCとの類似度「0.7」を算出する。
For example, the
続いて、ラベル推定部113は、更新時の新予測元期間に基づくコアテンソルX2と、各学習時のコアテンソルとの類似度を、コサイン類似度やk−meansクラスタリング等の手法を用いて算出する(S4)。
Subsequently, the
例えば、ラベル推定部113は、更新時のコアテンソルX2と、教師ラベル「正例」が付与された学習データAに基づくコアテンソルAとの類似度「0.9」を算出する。同様に、ラベル推定部113は、更新時のコアテンソルX2と教師ラベル「正例」が付与された学習データBに基づくコアテンソルBとの類似度「0.9」、更新時のコアテンソルX2と教師ラベル「負例」が付与された学習データCに基づくコアテンソルCとの類似度「0.4」を算出する。
For example, the
その後、ラベル推定部113は、更新時から予測時に対する類似度の差分を算出し、正例に変化しているか、または、負例に変化しているかを判定し、判定結果に基づき、新予測元期間のデータに付与する教師ラベルを決定する(S5)。
After that, the
具体的には、ラベル推定部113は、負例を根拠に換算することにより、類似度の変化を算出する。例えば、ラベル推定部113は、「正例群」の変化については、「予測時の類似度−更新時の類似度」により差分を算出し、「負例群」の変化については、「更新時の類似度−予測時の類似度」により差分を算出する。
Specifically, the
図15の例で説明すると、ラベル推定部113は、「正例群」について、コアテンソルAに対する類似度の差分「0.9−0.9=0」を算出し、コアテンソルBに対する類似度の差分「0.8−0.9=−0.1」を算出する。また、ラベル推定部113は、「負例群」について、コアテンソルCに対する類似度の差分「0.4−0.7=−0.3」を算出する。そして、ラベル推定部113は、各差分の合計値「0+(−0.1)+(−0.3)=−0.4」が閾値(例えば0.1)より小さいことから、負例から遠ざかっている(正例に近づいている)と判定する。この結果、ラベル推定部113は、新予測元期間のデータに付与する教師ラベルを、実際の結果「負例」ではなく、推定結果「正例」を付与した更新用の学習データを生成する。
Explaining with reference to the example of FIG. 15, the
なお、類似度の比較は様々な手法を採用することができる。例えば、ラベル推定部113は、教師ラベルが「正例」である学習データとの類似度の変化量と、教師ラベルが「負例」である学習データとの類似度の変化量とのうち、変化量が大きい方の教師ラベルを採用することができる。図15の例では、ラベル推定部113は、正例側の変化量として「0+0.1=0.1」を算出し、負例側の変化量として「−0.3」を算出し、値が大きい「正例」を採用する。
In addition, various methods can be adopted for the comparison of the degree of similarity. For example, the
また、「正例」または「負例」のいずれか一方の学習時のコアテンソルとの比較により算出することもできる。例えば、正例から負例に変化したことの確からしさを判定する場合、学習データのうち「負例」との類似度を算出し、その類似度の変化が閾値以上の場合に「負例」を選択し、閾値未満の場合に「正例」を選択することもできる。 It can also be calculated by comparing with the core tensor at the time of learning either "positive example" or "negative example". For example, when determining the certainty of a change from a positive example to a negative example, the similarity with the "negative example" in the training data is calculated, and when the change in the similarity is equal to or greater than the threshold value, the "negative example" is calculated. Can also be selected, and if it is less than the threshold value, "normal example" can be selected.
図7に戻り、更新部114は、更新用データDB107に記憶される更新用の学習データを用いて、学習時と同様の手法により、学習済みの学習モデルの更新を実行する処理部である。すなわち、更新部114は、学習済みの学習モデルの再学習を実行する。
Returning to FIG. 7, the update unit 114 is a processing unit that updates the learned learning model by the same method as at the time of learning by using the update learning data stored in the
例えば、更新部114は、更新用データDB107のデータID「PPP」の学習データ(データ、教師ラベル(療養あり))を読み込み、データ「2019年6月から12月までの出勤簿データ」を用いて、学習済みの学習モデルの学習を実行する。例えば、更新部114は、学習モデルの出力結果と教師ラベル「療養あり」との誤差が小さくなるように、学習モデルの学習を実行する。
For example, the update unit 114 reads the learning data (data, teacher label (with medical treatment)) of the data ID "PPP" of the
なお、更新部114は、再学習が完了すると、最適化されたニューラルネットワークのパラメータ、または、最適化されたニューラルネットワークのパラメータなどが設定された学習モデルを、学習結果として学習結果DB108に格納する。
When the re-learning is completed, the update unit 114 stores the learning model in which the optimized neural network parameters, the optimized neural network parameters, and the like are set in the
[処理の流れ]
図16と図17は、処理の流れを示すフローチャートである。図16に示すように、処理開始が指示されると(S101:Yes)、学習部111は、学習データを読み込み(S102)、コアテンソルを生成および保存を実行し(S103)、コアテンソルを用いた学習モデルの学習を実行する(S104)。
[Processing flow]
16 and 17 are flowcharts showing the flow of processing. As shown in FIG. 16, when the start of processing is instructed (S101: Yes), the
そして、学習部111は、学習が終了するまで(S105:No)、S102以降を繰り返す。一方、学習が終了すると(S105:Yes)、予測部112は、予測対象データを読み込み(S106)、学習時と同様の手法によりテンソル化などを実行して、学習モデルにより予測を実行する(S107)。また、予測部112は、予測時に生成された予測時のコアテンソルを取得して保存する(S108)。
Then, the
また、予測部112は、予測対象データがなくなるまで(S109:No)、S106以降を繰り返す。一方、図17に示すように、すべの予測対象データに対する予測が終了し(S109:Yes)、所定期間が経過して、予測した日時に到達すると(S110:Yes)、ラベル推定部113は、予測結果が「正例」となった予測対象データ群を抽出し(S111)、実際の結果が「負例」に変化した予測対象データを抽出する(S112)。
Further, the prediction unit 112 repeats S106 and subsequent steps until the prediction target data is exhausted (S109: No). On the other hand, as shown in FIG. 17, when the prediction for all the prediction target data is completed (S109: Yes), the predetermined period elapses and the predicted date and time is reached (S110: Yes), the
そして、ラベル推定部113は、抽出した予測対象データの予測時のコアテンソルと、各学習データの学習時のコアテンソルとの類似度を算出する(S113)。
Then, the
さらに、ラベル推定部113は、予測結果が変化した従業員の現時点の出勤簿データに基づくコアテンソル(更新時のコアテンソル)を取得し(S114)、更新時のコアテンソルと各学習データの学習時のコアテンソルとの類似度を算出する(S115)。その後、ラベル推定部113は、予測時の類似度と現在(更新時)の類似との差分を算出する(S116)。
Further, the
そして、ラベル推定部113は、差分が閾値以上である場合(S117:Yes)、教師ラベルを「負例」のまま補正せずに、「負例」の更新用の学習データを生成する(S118)。一方、ラベル推定部113は、差分が閾値未満である場合(S117:No)、教師ラベルを「負例」から「正例」に補正し、「正例」の更新用の学習データを生成する(S119)。
Then, when the difference is equal to or greater than the threshold value (S117: Yes), the
[効果]
上述したように、情報処理装置100は、予測推論結果に基づいた施策効果を考慮した教師ラベル付与を行い、新たな学習データとして採用することで学習モデル精度を維持できる。情報処理装置100は、インバランスな予測タスクにおいて、希少なサンプルデータ(正例)が損なわれることを防ぐことで学習モデルの精度維持を実現できる。
[effect]
As described above, the
さて、これまで本発明の実施例について説明したが、本発明は上述した実施例以外にも、種々の異なる形態にて実施されてよいものである。 By the way, although the examples of the present invention have been described so far, the present invention may be implemented in various different forms other than the above-mentioned examples.
[数値等]
また、上記実施例で用いたデータ例、数値、各閾値、教師ラベル数、具体例等は、あくまで一例であり、任意に変更することができる。また、入力データや学習方法などもあくまで一例であり、任意に変更することができる。また、学習モデルには、ニューラルネットワークなど様々な手法を採用することができる。
[Numerical values, etc.]
Further, the data examples, numerical values, threshold values, the number of teacher labels, specific examples, etc. used in the above examples are merely examples and can be arbitrarily changed. In addition, the input data and the learning method are just examples, and can be changed arbitrarily. In addition, various methods such as a neural network can be adopted as the learning model.
[更新用の学習データ]
例えば、上記フローチャート等では、「正例」と予測されたが、実際に「負例」となった予測対象データについて、教師ラベルの補正を行う例を説明したが、これに限定されるものではない。例えば、すべての予測対象データについて、教師ラベルの補正を行うことができる。また、予測結果と実際の結果が異なる予測対象データについてのみ、上記処理を実行することができる。また、予測結果と実際の結果が同じ予測対象データについては、実際の結果をそのまま教師ラベルとして用いた更新用の学習データを生成することができる。なお、実際の結果は、出勤簿データにより特定することができる。
[Learning data for update]
For example, in the above flowchart, etc., an example of correcting the teacher label for the predicted target data that was predicted to be a "positive example" but actually became a "negative example" was described, but it is not limited to this. Absent. For example, teacher labels can be corrected for all predicted data. In addition, the above processing can be executed only for the prediction target data whose prediction result and the actual result are different. Further, for the prediction target data in which the prediction result and the actual result are the same, it is possible to generate learning data for update using the actual result as it is as a teacher label. The actual result can be specified by the attendance record data.
[学習]
上述した学習処理は、任意の回数だけ実行することもできる。例えば、すべての学習データを用いて実行することもでき、所定回数だけ実行することもできる。また、分類誤差の算出方法は、最小二乗法など公知の算出手法を採用することができ、NNで用いられる一般的な算出手法を採用することもできる。なお、学習データや出勤簿データは、外部の装置から取得することもできる。
[Learning]
The learning process described above can be executed any number of times. For example, it can be executed using all the training data, or can be executed a predetermined number of times. Further, as a method for calculating the classification error, a known calculation method such as the least squares method can be adopted, and a general calculation method used in NN can also be adopted. The learning data and attendance record data can also be acquired from an external device.
[想定システム]
上記実施例では、出勤簿データを学習して療養する可能性がある従業員を予測する例で説明したが、これに限定されるものではない。例えば、電子部品の動作データを用いた故障予測、通信データを用いた攻撃予測、道路の交通量データを用いた渋滞予測などにも適用することができる。
[Assumed system]
In the above embodiment, the example of predicting the employees who may learn the attendance record data and receive medical treatment has been described, but the present invention is not limited to this. For example, it can be applied to failure prediction using operation data of electronic parts, attack prediction using communication data, traffic congestion prediction using road traffic data, and the like.
[ニューラルネットワーク]
本実施例では、RNN(Recurrent Neural Networks)やCNN(Convolutional Neural Network)など様々なニューラルネットワークを用いることができる。また、学習の手法も、誤差逆伝播以外にも公知の様々な手法を採用することができる。また、ニューラルネットワークは、例えば入力層、中間層(隠れ層)、出力層から構成される多段構成であり、各層は複数のノードがエッジで結ばれる構造を有する。各層は、「活性化関数」と呼ばれる関数を持ち、エッジは「重み」を持ち、各ノードの値は、前の層のノードの値、接続エッジの重みの値(重み係数)、層が持つ活性化関数から計算される。なお、計算方法については、公知の様々な手法を採用できる。
[neural network]
In this embodiment, various neural networks such as RNN (Recurrent Neural Networks) and CNN (Convolutional Neural Network) can be used. Further, as a learning method, various known methods other than error back propagation can be adopted. Further, the neural network has a multi-stage structure composed of, for example, an input layer, an intermediate layer (hidden layer), and an output layer, and each layer has a structure in which a plurality of nodes are connected by edges. Each layer has a function called "activation function", the edge has "weight", and the value of each node is the value of the node of the previous layer, the value of the weight of the connecting edge (weight coefficient), and the layer has. Calculated from the activation function. As the calculation method, various known methods can be adopted.
また、ニューラルネットワークにおける学習とは、出力層が正しい値となるように、パラメータ、すなわち、重みとバイアスを修正していくことである。誤差逆伝播法においては、ニューラルネットワークに対して、出力層の値がどれだけ正しい状態(望まれている状態)から離れているかを示す「損失関数(loss function)」を定め、最急降下法等を用いて、損失関数が最小化するように、重みやバイアスの更新が行われる。 In addition, learning in a neural network is to modify parameters, that is, weights and biases, so that the output layer has correct values. In the back-propagation method, the neural network is defined with a "loss function" that indicates how far the value of the output layer is from the correct state (desired state), and the steepest descent method, etc. Is used to update the weights and biases so that the loss function is minimized.
[システム]
上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。また、実施例で説明した具体例、分布、数値などは、あくまで一例であり、任意に変更することができる。
[system]
Information including processing procedures, control procedures, specific names, various data and parameters shown in the above documents and drawings can be arbitrarily changed unless otherwise specified. In addition, the specific examples, distributions, numerical values, etc. described in the examples are merely examples and can be arbitrarily changed.
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散や統合の具体的形態は図示のものに限られない。つまり、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。さらに、各装置にて行なわれる各処理機能は、その全部または任意の一部が、CPUおよび当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。例えば、学習処理、更新用の学習データの生成処理、更新処理を別々の装置で実現することもできる。 Further, each component of each of the illustrated devices is a functional concept, and does not necessarily have to be physically configured as shown in the figure. That is, the specific forms of distribution and integration of each device are not limited to those shown in the figure. That is, all or a part thereof can be functionally or physically distributed / integrated in any unit according to various loads, usage conditions, and the like. Further, each processing function performed by each device may be realized by a CPU and a program analyzed and executed by the CPU, or may be realized as hardware by wired logic. For example, the learning process, the learning data generation process for update, and the update process can be realized by separate devices.
[ハードウェア]
図18は、ハードウェア構成例を説明する図である。図18に示すように、情報処理装置100は、通信装置100a、HDD(Hard Disk Drive)100b、メモリ100c、プロセッサ100dを有する。また、図18に示した各部は、バス等で相互に接続される。
[hardware]
FIG. 18 is a diagram illustrating a hardware configuration example. As shown in FIG. 18, the
通信装置100aは、ネットワークインタフェースカードなどであり、他のサーバとの通信を行う。HDD100bは、図7に示した機能を動作させるプログラムやDBを記憶する。
The
プロセッサ100dは、図7に示した各処理部と同様の処理を実行するプログラムをHDD100b等から読み出してメモリ100cに展開することで、図7等で説明した各機能を実行するプロセスを動作させる。すなわち、このプロセスは、情報処理装置100が有する各処理部と同様の機能を実行する。具体的には、プロセッサ100dは、学習部111、予測部112、ラベル推定部113、更新部114等と同様の機能を有するプログラムをHDD100b等から読み出す。そして、プロセッサ100dは、学習部111、予測部112、ラベル推定部113、更新部114等と同様の処理を実行するプロセスを実行する。
The
このように情報処理装置100は、プログラムを読み出して実行することでデータ生成方法を実行する情報処理装置として動作する。また、情報処理装置100は、媒体読取装置によって記録媒体から上記プログラムを読み出し、読み出された上記プログラムを実行することで上記した実施例と同様の機能を実現することもできる。なお、この他の実施例でいうプログラムは、情報処理装置100によって実行されることに限定されるものではない。例えば、他のコンピュータまたはサーバがプログラムを実行する場合や、これらが協働してプログラムを実行するような場合にも、本発明を同様に適用することができる。
In this way, the
このプログラムは、インターネットなどのネットワークを介して配布することができる。また、このプログラムは、ハードディスク、フレキシブルディスク(FD)、CD−ROM、MO(Magneto−Optical disk)、DVD(Digital Versatile Disc)などのコンピュータで読み取り可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行することができる。 This program can be distributed over networks such as the Internet. In addition, this program is recorded on a computer-readable recording medium such as a hard disk, flexible disk (FD), CD-ROM, MO (Magneto-Optical disk), or DVD (Digital Versatile Disc), and is recorded by the computer from the recording medium. It can be executed by being read.
100 情報処理装置
101 通信部
102 記憶部
103 出勤簿データDB
104 学習データDB
105 予測対象データDB
106 コアテンソルデータDB
107 更新用データDB
108 学習結果DB
110 制御部
111 学習部
112 予測部
113 ラベル推定部
114 更新部
100
104 Learning data DB
105 Prediction target data DB
106 Core tensor data DB
107 Update data DB
108 Learning result DB
110
Claims (7)
学習済みの前記学習モデルを用いて、第1の識別子に関連する第一時点のデータから第一のコアテンソルと、前記第1の識別子に関連する第二時点のデータから第二のコアテンソルを生成し、
前記第一のコアテンソルと前記各コアテンソルとの各第一の類似度と、前記第二のコアテンソルと前記各コアテンソルとの各第二の類似度とを算出し、
前記各第一の類似度と前記各第二の類似度とに基づき、教師ラベルを決定し、
前記第二時点のデータと決定された前記教師ラベルとに基づいて、新たな学習データを生成する
処理をコンピュータが実行することを特徴とする学習データ生成方法。 Obtain each core tensor generated based on each training data used for training the training model.
Using the trained training model, a first core tensor is obtained from the data at the first time point related to the first identifier, and a second core tensor is obtained from the data at the second time point related to the first identifier. Generate and
The first similarity between the first core tensor and each core tensor and the second similarity between the second core tensor and each core tensor are calculated.
A teacher label is determined based on each of the first similarity and each of the second similarity.
A learning data generation method, characterized in that a computer executes a process of generating new training data based on the data at the second time point and the determined teacher label.
前記第二時点のデータの内容が前記予測の結果と一致するか否かを判定する、
処理を前記コンピュータが実行し、
前記決定する処理は、前記内容と前記予測の結果とが一致しない場合には、前記各第一の類似度と前記各第二の類似度とに基づき、前記教師ラベルを決定し、前記内容と前記予測の結果とが一致する場合には、前記予測の結果に対応する前記教師ラベルに決定する処理を含む、
ことを特徴とする請求項1に記載の学習データ生成方法。 The data at the first time point is input to the trained training model to execute the prediction, and the prediction is executed.
It is determined whether or not the content of the data at the second time point matches the result of the prediction.
The computer executes the process,
In the process of determining, when the content and the result of the prediction do not match, the teacher label is determined based on each of the first similarity degree and each of the second similarity degree, and the content is combined with the content. If the result of the prediction matches, the process of determining the teacher label corresponding to the result of the prediction is included.
The learning data generation method according to claim 1, wherein the learning data is generated.
処理を前記コンピュータが実行し、
前記決定する処理は、前記第一の変化量と前記第二の変化量との差分が閾値未満の場合に、前記予測の結果に対応する教師ラベルを付与対象に決定し、前記第一の変化量と前記第二の変化量との差分が閾値以上の場合に、前記予測の結果に対応しない教師ラベルを前記付与対象に決定する処理を含む、
ことを特徴とする請求項2に記載の学習データ生成方法。 The amount of change from each of the first similarities with the teacher label corresponding to the prediction result to the second similarity with the teacher label corresponding to the prediction result, and The amount of change from each second similarity with the teacher label that does not correspond to the result of the prediction to the first similarity with the teacher label that does not correspond to the result of the prediction. calculate,
The computer executes the process,
In the process of determining, when the difference between the first change amount and the second change amount is less than the threshold value, the teacher label corresponding to the prediction result is determined as the addition target, and the first change When the difference between the amount and the second change amount is equal to or greater than the threshold value, a process of determining a teacher label that does not correspond to the prediction result as the grant target is included.
The learning data generation method according to claim 2, wherein the learning data is generated.
処理を前記コンピュータが実行し、
前記決定する処理は、各変化量のうち値が大きい方の教師ラベルを、前記第二時点のデータに付与する処理を含む、
ことを特徴とする請求項2に記載の学習データ生成方法。 The process of determining is based on the first similarity and the second similarity, and the amount of change in the similarity with each core tensor to which the teacher label corresponding to the result of the prediction is given. Calculate the amount of change in similarity with each core tensor to which a teacher label that does not correspond to the result of the prediction is given.
The computer executes the process,
The process of determining includes a process of assigning a teacher label having a larger value among the amounts of change to the data at the second time point.
The learning data generation method according to claim 2, wherein the learning data is generated.
前記生成する処理は、前記従業員の出勤簿データのうち、予測時である前記第一時点の前記第一のコアテンソルと、前記将来の所定期間経過後である前記第二時点の前記第二のコアテンソルとを生成する処理を含み、
前記算出する処理は、前記各第一の類似度と、前記各第二の類似度とを算出する処理を含み、
前記決定する処理は、前記各第一の類似度と前記各第二の類似度とに基づき、教師ラベルを決定する処理を含み、
前記生成する処理は、前記第二時点のデータと前記教師ラベルとを用いた学習データを生成する処理を含む、
ことを特徴とする請求項1に記載の学習データ生成方法。 The acquired process is a teacher label indicating that the employee is to be treated, which is used for learning the learning model for predicting whether or not the employee will be treated within a predetermined period in the future from the past attendance record data of the employee. Includes the process of acquiring the core tensor from each of the learning data of the positive case to which is given and the learning data of the negative case to which the teacher label indicating that no medical treatment is given.
Among the attendance record data of the employee, the generated process includes the first core tensor at the first time point at the time of prediction and the second time point at the second time point after the lapse of a predetermined period in the future. Including the process of generating the core tensor of
The calculation process includes a process of calculating each of the first similarity degree and each of the second similarity degree.
The determination process includes a process of determining a teacher label based on each of the first similarity and the second similarity.
The generated process includes a process of generating learning data using the data at the second time point and the teacher label.
The learning data generation method according to claim 1, wherein the learning data is generated.
学習済みの前記学習モデルを用いて、第1の識別子に関連する第一時点のデータから第一のコアテンソルと、前記第1の識別子に関連する第二時点のデータから第二のコアテンソルを生成し、
前記第一のコアテンソルと前記各コアテンソルとの各第一の類似度と、前記第二のコアテンソルと前記各コアテンソルとの各第二の類似度とを算出し、
前記各第一の類似度と前記各第二の類似度とに基づき、教師ラベルを決定し、
前記第二時点のデータと決定された前記教師ラベルとに基づいて、新たな学習データを生成する
処理をコンピュータに実行させることを特徴とする学習データ生成プログラム。 Obtain each core tensor generated based on each training data used for training the training model.
Using the trained training model, a first core tensor is obtained from the data at the first time point related to the first identifier, and a second core tensor is obtained from the data at the second time point related to the first identifier. Generate and
The first similarity between the first core tensor and each core tensor and the second similarity between the second core tensor and each core tensor are calculated.
A teacher label is determined based on each of the first similarity and each of the second similarity.
A learning data generation program characterized in that a computer executes a process of generating new learning data based on the data at the second time point and the determined teacher label.
学習済みの前記学習モデルを用いて、第1の識別子に関連する第一時点のデータから第一のコアテンソルと、前記第1の識別子に関連する第二時点のデータから第二のコアテンソルを生成する生成部と、
前記第一のコアテンソルと前記各コアテンソルとの各第一の類似度と、前記第二のコアテンソルと前記各コアテンソルとの各第二の類似度とを算出する算出部と、
前記各第一の類似度と前記各第二の類似度とに基づき、教師ラベルを決定する決定部と、
前記第二時点のデータと決定された前記教師ラベルとに基づいて、新たな学習データを生成する生成部と
を有することを特徴とする情報処理装置。 An acquisition unit that acquires each core tensor generated based on each training data used for learning the training model, and an acquisition unit.
Using the trained training model, a first core tensor is obtained from the data at the first time point related to the first identifier, and a second core tensor is obtained from the data at the second time point related to the first identifier. The generator to generate and
A calculation unit that calculates each first similarity between the first core tensor and each core tensor, and each second similarity between the second core tensor and each core tensor.
A decision unit that determines the teacher label based on each of the first similarity and each of the second similarity.
An information processing apparatus having a generation unit that generates new learning data based on the data at the second time point and the determined teacher label.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019225505A JP2021096511A (en) | 2019-12-13 | 2019-12-13 | Learning data generation method, learning data generation program, and information processing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019225505A JP2021096511A (en) | 2019-12-13 | 2019-12-13 | Learning data generation method, learning data generation program, and information processing device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021096511A true JP2021096511A (en) | 2021-06-24 |
Family
ID=76431399
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019225505A Pending JP2021096511A (en) | 2019-12-13 | 2019-12-13 | Learning data generation method, learning data generation program, and information processing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2021096511A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022269885A1 (en) * | 2021-06-25 | 2022-12-29 | 三菱電機株式会社 | Learning data collection device, learning data collection method, and learning data collection program |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015111332A (en) * | 2013-12-06 | 2015-06-18 | 富士通株式会社 | Attitude detection device, attitude detection method, and attitude detection program |
JP2016031639A (en) * | 2014-07-29 | 2016-03-07 | 日本電信電話株式会社 | Cluster extraction device, cluster extraction method, and cluster extraction program |
JP2018195244A (en) * | 2017-05-22 | 2018-12-06 | 日本電信電話株式会社 | Od traffic prediction device, method, and program |
JP2019082841A (en) * | 2017-10-30 | 2019-05-30 | 富士通株式会社 | Generation program, generation method and generation device |
JP2019191781A (en) * | 2018-04-20 | 2019-10-31 | 富士通株式会社 | Learning data generation method and learning data generation program |
JP2019212155A (en) * | 2018-06-07 | 2019-12-12 | 富士通株式会社 | Learning data generating program and learning data generating method |
-
2019
- 2019-12-13 JP JP2019225505A patent/JP2021096511A/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015111332A (en) * | 2013-12-06 | 2015-06-18 | 富士通株式会社 | Attitude detection device, attitude detection method, and attitude detection program |
JP2016031639A (en) * | 2014-07-29 | 2016-03-07 | 日本電信電話株式会社 | Cluster extraction device, cluster extraction method, and cluster extraction program |
JP2018195244A (en) * | 2017-05-22 | 2018-12-06 | 日本電信電話株式会社 | Od traffic prediction device, method, and program |
JP2019082841A (en) * | 2017-10-30 | 2019-05-30 | 富士通株式会社 | Generation program, generation method and generation device |
JP2019191781A (en) * | 2018-04-20 | 2019-10-31 | 富士通株式会社 | Learning data generation method and learning data generation program |
JP2019212155A (en) * | 2018-06-07 | 2019-12-12 | 富士通株式会社 | Learning data generating program and learning data generating method |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022269885A1 (en) * | 2021-06-25 | 2022-12-29 | 三菱電機株式会社 | Learning data collection device, learning data collection method, and learning data collection program |
JPWO2022269885A1 (en) * | 2021-06-25 | 2022-12-29 | ||
JP7415082B2 (en) | 2021-06-25 | 2024-01-16 | 三菱電機株式会社 | Learning data collection device, learning data collection method, and learning data collection program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Fong et al. | Composite Monte Carlo decision making under high uncertainty of novel coronavirus epidemic using hybridized deep learning and fuzzy rule induction | |
JP6562121B1 (en) | Learning data generation program and learning data generation method | |
JP7063080B2 (en) | Machine learning programs, machine learning methods and machine learning equipment | |
JP7409080B2 (en) | Learning data generation method, learning data generation program, and information processing device | |
Bovy et al. | Stochastic route choice set generation: behavioral and probabilistic foundations | |
JP7067235B2 (en) | Machine learning programs, machine learning methods and machine learning equipment | |
JP7063079B2 (en) | Machine learning programs, machine learning methods and machine learning equipment | |
JP6481794B1 (en) | Learning data generation method, learning data generation program | |
US20230316234A1 (en) | Multi-task deep learning of time record events | |
CN115470994B (en) | Information popularity prediction method and system based on explicit time and cascade attention | |
CN111259922A (en) | Order data processing method and device based on customer order-returning early warning | |
Natarajan et al. | Boosting relational dependency networks | |
JP6832329B2 (en) | data structure | |
JP2021096511A (en) | Learning data generation method, learning data generation program, and information processing device | |
CN112784177B (en) | Spatial distance adaptive next interest point recommendation method | |
Pandey et al. | Modeling human annotation errors to design bias-aware systems for social stream processing | |
JP7067236B2 (en) | Machine learning data generation method and machine learning data generation program | |
JP6843109B2 (en) | Medical data structure | |
JP2020047079A (en) | Learning program, learning method and learning device | |
US11966927B2 (en) | Multi-task deep learning of customer demand | |
Barzanti et al. | A decision support system for fund raising management in medium-sized organizations | |
Jia et al. | Partner with a Third-Party Delivery Service or Not?--a Prediction-and-Decision Tool for Restaurants Facing Takeout Demand Surges During a Pandemic | |
Allahviranloo | Pattern recognition and personal travel behavior | |
Fogel et al. | Detailed Gender Wage Gap Decompositions: Controlling for Worker Unobserved Heterogeneity Using Network Theory | |
Allahviranloo et al. | Trade-offs among planned versus performed activity patterns |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220809 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230614 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230620 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20231212 |