JP2024030579A - Information processing method, information processing system, and information processing program - Google Patents
Information processing method, information processing system, and information processing program Download PDFInfo
- Publication number
- JP2024030579A JP2024030579A JP2022133545A JP2022133545A JP2024030579A JP 2024030579 A JP2024030579 A JP 2024030579A JP 2022133545 A JP2022133545 A JP 2022133545A JP 2022133545 A JP2022133545 A JP 2022133545A JP 2024030579 A JP2024030579 A JP 2024030579A
- Authority
- JP
- Japan
- Prior art keywords
- attribute
- data
- information processing
- value
- mfcvae
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010365 information processing Effects 0.000 title claims description 81
- 238000003672 processing method Methods 0.000 title claims description 33
- 230000006870 function Effects 0.000 claims abstract description 54
- 230000004044 response Effects 0.000 claims abstract description 16
- 230000006978 adaptation Effects 0.000 claims abstract description 4
- 238000011156 evaluation Methods 0.000 claims description 75
- 238000012545 processing Methods 0.000 claims description 35
- 238000004364 calculation method Methods 0.000 claims description 15
- 238000000034 method Methods 0.000 claims description 15
- 230000008569 process Effects 0.000 claims description 12
- 238000013461 design Methods 0.000 claims description 3
- 238000012549 training Methods 0.000 abstract description 15
- 238000012360 testing method Methods 0.000 abstract description 7
- 238000010586 diagram Methods 0.000 description 23
- 238000013441 quality evaluation Methods 0.000 description 19
- 238000000605 extraction Methods 0.000 description 14
- 238000005516 engineering process Methods 0.000 description 13
- 230000008859 change Effects 0.000 description 7
- 230000014509 gene expression Effects 0.000 description 7
- 238000013473 artificial intelligence Methods 0.000 description 5
- 238000013500 data storage Methods 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 3
- 239000000470 constituent Substances 0.000 description 3
- 230000007423 decrease Effects 0.000 description 3
- 230000007704 transition Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 238000005401 electroluminescence Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 206010034719 Personality change Diseases 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- PCHJSUWPFVWCPO-UHFFFAOYSA-N gold Chemical compound [Au] PCHJSUWPFVWCPO-UHFFFAOYSA-N 0.000 description 1
- 239000010931 gold Substances 0.000 description 1
- 229910052737 gold Inorganic materials 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000012417 linear regression Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000012821 model calculation Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000004148 unit process Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
- G06N3/0455—Auto-encoder networks; Encoder-decoder networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Machine Translation (AREA)
Abstract
Description
本発明は、情報処理方法、情報処理システム、及び情報処理プログラムに関する。 The present invention relates to an information processing method, an information processing system, and an information processing program.
AI(Artificial Intelligence)モデルの品質は、利用するデータの品質に依存する。AIモデルの品質を保証するためには、AIモデルを構築する際の訓練データや推論を行う際のテストデータが有する属性に関する情報を評価することが有用である。そのために、変分オートエンコーダ技術を用いて、学習モデルのエンコーダから潜在変数(特徴量)を抽出し、データの属性情報の内容を明らかにしたり、お互い類似する属性情報をもつデータを抽出したりすること等が行われている。 The quality of an AI (Artificial Intelligence) model depends on the quality of the data used. In order to guarantee the quality of an AI model, it is useful to evaluate information regarding attributes of training data used when building an AI model and test data used when making inferences. To this end, we use variational autoencoder technology to extract latent variables (features) from the encoder of the learning model, clarify the content of data attribute information, and extract data with similar attribute information. Things are being done.
例えば特許文献1では、訓練データから同一のセマンティック特徴に対応する3つの画像を抽出し、3つの画像の各画像について、セマンティック特徴に対応する潜在変数の損失関数を最小化するように変分オートエンコーダのパラメータを更新する。これにより、同一のセマンティック特徴を有する異なる画像の識別性を高めている。
For example, in
また例えば非特許文献1では、各潜在変数が入力値に対して与える情報が一意となるように潜在変数の独立性を高めることで、潜在変数の変化に対応する属性の内容やその大きさの変化の解釈性を高めている。その結果、例えば手書き文字データにおいて、ある潜在変数の変化に対して、文字の角度が左斜めから右斜めへ連続変化することが分かる。
For example, in
また例えば非特許文献2では、直行する基底の線形結合で潜在変数を表現し、学習によって得られた基底の係数とデータの属性の変化とを対応付けることで、基底の係数の変化に対応する属性の内容やその大きさの変化の解釈性を高めている。その結果、例えば顔画像データにおいて、ある基底の係数の変化に対して、髪の毛の色が金色から黒色に連続変化することが分かる。
For example, in
しかしながら上述の従来技術では、潜在変数と、それに対応する属性や属性値がユーザの解釈に依存し、定性的にしか評価できないため、データの属性と属性値の解釈性が依然として低いという問題があった。 However, in the above-mentioned conventional technology, the latent variables and their corresponding attributes and attribute values depend on the user's interpretation and can only be evaluated qualitatively, so there is still a problem that the interpretability of data attributes and attribute values is low. Ta.
本願の開示の一側面では、訓練データやテストデータの潜在変数に対応する属性と属性値の解釈性を高めることを目的とする。 One aspect of the disclosure of the present application aims to improve the interpretability of attributes and attribute values corresponding to latent variables in training data and test data.
本願の開示の一側面では、処理部と記憶部とを有する情報処理システムが実行する情報処理方法であって、前記処理部が、データの複数の属性に属性値が付与されている基準データを含んだ入力データを、該データの前記複数の属性のそれぞれに関する潜在変数を出力するMFCVAE(Multi-Facet Clustering Variational Auto-Encoder)に入力する第1ステップと、前記入力データの入力に対して前記MFCVAEから出力された前記潜在変数を説明変数とし、前記属性値を目的変数とする回帰モデルを前記属性毎に設定する第2ステップと、前記潜在変数と前記属性値とから、該属性値に対する予測誤差が最小となる前記属性値の予測値及び前記回帰モデルの回帰係数を前記属性毎に算出する第3ステップと、前記第3ステップによって算出された前記属性毎の前記予測値及び前記回帰係数に基づいて、前記潜在変数及び前記属性値の前記回帰モデルへの適合が良いほど小さい値を取る指標を前記属性毎に算出する第4ステップと、前記MFCVAEによるデータ再構成の誤差を表す再構成誤差項と、前記潜在変数の分布に制約を与える正則化項と、を有する前記MFCVAEの損失関数に、前記属性毎の前記指標に基づく追加項を追加した損失関数の関数値を算出する第5ステップと、前記第5ステップによって算出された前記関数値に基づく誤差逆伝搬によって前記MFCVAEのモデルパラメータを更新する第6ステップと、を実行し、前記第1ステップから前記第6ステップまでを、前記予測誤差又はエポック回数が所定条件を充足するまでこの順序で繰り返すことで前記MFCVAEのモデル学習を実行する、ことを特徴とする。 One aspect of the disclosure of the present application is an information processing method executed by an information processing system having a processing unit and a storage unit, wherein the processing unit processes reference data in which attribute values are assigned to a plurality of attributes of the data. a first step of inputting the included input data to an MFCVAE (Multi-Facet Clustering Variational Auto-Encoder) that outputs latent variables regarding each of the plurality of attributes of the data; a second step of setting a regression model for each attribute, using the latent variables outputted from as explanatory variables and the attribute values as objective variables, and calculating the prediction error for the attribute values from the latent variables and the attribute values. a third step of calculating, for each attribute, a predicted value of the attribute value and a regression coefficient of the regression model, which minimizes a fourth step of calculating, for each attribute, an index that takes a smaller value as the latent variable and the attribute value fit better to the regression model; and a reconstruction error term representing an error in data reconstruction by the MFCVAE. and a regularization term that constrains the distribution of the latent variable, and a fifth step of calculating a function value of a loss function obtained by adding an additional term based on the index for each attribute to the loss function of the MFCVAE, which has the following: , a sixth step of updating the model parameters of the MFCVAE by error backpropagation based on the function value calculated in the fifth step, and from the first step to the sixth step, the prediction error is Alternatively, the MFCVAE model learning is performed by repeating this order in this order until the number of epochs satisfies a predetermined condition.
本願の開示の一側面によれば、学習モデルの訓練データやテストデータの属性と属性値の解釈性を高めることができる。前述した以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。 According to one aspect of the disclosure of the present application, it is possible to improve the interpretability of attributes and attribute values of training data and test data of a learning model. Problems, configurations, and effects other than those described above will be made clear by the following description of the embodiments.
以下、図面を参照して本願の開示に係る実施形態を説明する。実施形態は、図面も含めて本願を説明するための例示である。実施形態では、説明の明確化のため、適宜、省略及び簡略化がされている。特に限定しない限り、実施形態の構成要素は単数でも複数でもよい。また、ある実施形態と他の実施形態を組み合わせた形態も、本願に係る実施形態に含まれる。 Hereinafter, embodiments according to the disclosure of the present application will be described with reference to the drawings. The embodiments, including the drawings, are examples for explaining the present application. In the embodiments, omissions and simplifications are appropriately made for clarity of explanation. Unless otherwise specified, the constituent elements of the embodiments may be singular or plural. Further, embodiments according to the present application also include combinations of certain embodiments and other embodiments.
同一又は類似の構成要素には、同一の符号を付与し、既出に対する後出の実施形態での説明を省略する、又は差分を中心とした説明のみを行う場合がある。また、同一又は類似の構成要素が複数ある場合には、同一の符号に異なる添字を付して説明する場合がある。また、これらの複数の構成要素を区別する必要がない場合には、添字を省略して説明する場合がある。 Identical or similar constituent elements may be given the same reference numerals, and the explanation of the previously described components in the later embodiments may be omitted, or only the differences may be explained. Furthermore, when there are a plurality of identical or similar constituent elements, the same reference numerals may be given different subscripts for explanation. Furthermore, if there is no need to distinguish between these multiple components, the subscripts may be omitted from the description.
以下の実施形態では、各種情報をテーブル形式で説明するが、各種情報はテーブル形式以外のデータ形式であってもよい。また、例えば、「XX情報」「XXテーブル」「XXリスト」「XXキュー」等の各種呼称は、これらは互換可能である。例えば「XXテーブル」は、「XXリスト」と呼んでもよい。また、識別情報について説明する際に、「識別情報」「識別子」「名」「ID」「番号」等の表現を用いるが、これらは互換可能である。 In the following embodiments, various information will be explained in a table format, but the various information may be in a data format other than the table format. Furthermore, various names such as "XX information", "XX table", "XX list", and "XX queue" are interchangeable. For example, "XX table" may be called "XX list". Furthermore, when describing identification information, expressions such as "identification information," "identifier," "name," "ID," and "number" are used, but these are interchangeable.
(従来技術の問題点)
実施形態の説明に先立ち、実施形態が前提とする従来技術(MFCVAE:Multi-Facet Clustering Variational Autoencoders)の問題点について説明する。図1は、従来技術の問題点を説明するための図である。MFCVAEは、複数の観点での潜在変数を出力可能な、拡張された変分オートエンコーダ(VAE:Variational Auto-Encoder)である。変分オートエンコーダとは、ニューラルネットワークを使い、潜在変数の空間として確率分布を仮定した生成モデルである。MFCVAEにおける観点とは、MFCVAEが出力する潜在変数(ベクトル)の種類であり、文字データの例では「文字の種類」「字形(太さ、角度等)」等が該当する。
(Problems with conventional technology)
Prior to describing the embodiment, problems with the conventional technology (MFCVAE: Multi-Facet Clustering Variational Autoencoders) on which the embodiment is based will be explained. FIG. 1 is a diagram for explaining problems in the prior art. MFCVAE is an extended variational auto-encoder (VAE) that can output latent variables from multiple viewpoints. A variational autoencoder is a generative model that uses a neural network and assumes a probability distribution as the space of latent variables. The viewpoint in MFCVAE is the type of latent variable (vector) output by MFCVAE, and in the case of character data, it corresponds to "type of character", "character shape (thickness, angle, etc.)", etc.
なお、変分オートエンコーダは、文献1「Diederik P Kingma, Max Welling,“Auto-Encoding Variational Bayes,” May 2014.,[令和4年8月1日検索],インターネット<URL:https://arxiv.org/abs/1312.6114>」に開示されている。MFCVAEは、文献2「Fabian Falck et.al, “Multi-Facet Clustering Variational Autoencoders, Oct. 2021.[令和4年8月1日検索],インターネット<URL:https://arxiv.org/abs/2106.05241>」に開示されている。
The variational autoencoder can be found in
以下、特徴とは、データを特徴づける情報(属性、属性値、潜在変数等)である。特徴量とは、定量的に表現可能な特徴の値である。属性とは、データを特徴づける性質(文字データの例では「太さ」「傾き」「ノイズ量」「文字の砕け度合い」等)である。属性値とは、属性の度合いを示す値(文字データの例では属性「太さ」に対する「1mm」、属性「傾き」に対する「10度」、属性「ノイズ量」に対する「10%」、属性「文字の砕け度合い」に対する「レベル2」等)である。属性値は、連続値でも離散値でもよい。潜在変数とは、変分オートエンコーダ関連技術において、エンコーダから出力される特徴量である。変分オートエンコーダ関連技術とは、VAEやMFCVAEを含む変分ベイズアルゴリズムを有する変分オートエンコーダ技術全般を指す。
Hereinafter, the term "feature" refers to information (attributes, attribute values, latent variables, etc.) that characterizes data. A feature amount is a value of a feature that can be expressed quantitatively. Attributes are properties that characterize data (in the case of character data, such as "thickness", "slope", "amount of noise", "degree of character breakage", etc.). Attribute value is a value indicating the degree of the attribute (in the example of character data, "1 mm" for the attribute "Thickness", "10 degrees" for the attribute "Tilt", "10%" for the attribute "Noise amount", "
MFCVAEは、一つの潜在変数の変化に対して、複数の属性の属性値が変化する。このため、ある潜在変数の変化に対して変化する属性の対応付けが困難であった。図1を参照して、手書き文字の場合について属性及び属性値を例に説明する。 In MFCVAE, the attribute values of multiple attributes change in response to a change in one latent variable. For this reason, it has been difficult to associate attributes that change with changes in a certain latent variable. Referring to FIG. 1, the case of handwritten characters will be explained using an example of attributes and attribute values.
図1に示すように、潜在変数1を横軸、潜在変数2を縦軸に取った座標系において、潜在変数1及び潜在変数2のグループ101は、属性「太さ」が細い文字に対応した潜在変数のグループである。グループ102は、属性「太さ」が中程度の文字に対応した潜在変数のグループである。グループ103は、属性「太さ」が太い文字に対応した潜在変数のグループである。グループ104は、属性「ノイズ量」が少ない文字に対応した潜在変数のグループである。グループ105は、属性「ノイズ量」が中程度の文字に対応した潜在変数のグループである。グループ106は、属性「ノイズ量」が多い文字に対応した潜在変数のグループである。ここで属性「太さ」の「太い」「中程度」「細い」、及び属性「ノイズ量」の「多い」「中程度」「少ない」は例示的表現に過ぎず、定量的な表現又はこれに付与したラベルの一例である。
As shown in Figure 1, in a coordinate system with
図1に示す例では、潜在変数の変化に対して、全ての属性値が一様に増加あるいは減少するものではない。よって、ある潜在変数の変化に対する属性値の変化の対応付けが困難である。例えば図1では、潜在変数1の値が小さいグループ101からグループ103、グループ102へと二段階にわたり増加すると、属性「太さ」の属性値が「細い」、「太い」、「中程度」と変化する。しかし、潜在変数1の値の一様な増加に対して、属性値の変化が一様でない。潜在変数1の変化に関する属性「ノイズ量」の属性値の変化も同様である。その結果、ある潜在変数の変化に対する属性値の変化の解釈がしにくい。
In the example shown in FIG. 1, all attribute values do not uniformly increase or decrease in response to changes in latent variables. Therefore, it is difficult to associate changes in attribute values with changes in a certain latent variable. For example, in Figure 1, when the value of
一方、潜在変数2の値が小さいグループ103からグループ102、グループ101へと二段階にわたり増加すると、属性「太さ」の属性値が「太い」、「中程度」、「細い」と変化するように、潜在変数1の値の一様な増加に対して、属性値が一様に減少する。潜在変数2に関する属性「ノイズ量」の属性値の変化も同様である。その結果、潜在変数の変化に対して、属性値が一様に減少するため、ある潜在変数の変化に対する属性値の変化の解釈がしやすい。
On the other hand, when the value of
(基準データと評価データ)
先ず、文字データの基準データと評価データを説明する。図2は、基準データと評価データ(文字データの場合)を示す図である。図2において、各行をデータという。それぞれのデータに対して、「文字の種類」「太さ」「傾き」といった各属性について、属性値が格納されているデータと格納されていないデータがある。「文字の種類」は該当の文字のイメージデータである。
(Standard data and evaluation data)
First, reference data and evaluation data of character data will be explained. FIG. 2 is a diagram showing reference data and evaluation data (in the case of character data). In FIG. 2, each row is called data. For each data, for each attribute such as "character type,""thickness," and "slant," there are data in which attribute values are stored and data in which attribute values are not stored. “Character type” is image data of the corresponding character.
ある属性において、属性値が格納されているデータが、その属性に関する基準データであり、属性値が格納されていないデータが、その属性に関する評価データである。基準データは、評価データの属性値を求めるために用いられる属性値が既知のデータである。評価データは、属性値が未知の属性に関して属性値を求めて付与される対象のデータである。 For a certain attribute, data in which an attribute value is stored is reference data regarding that attribute, and data in which no attribute value is stored is evaluation data regarding that attribute. The reference data is data whose attribute values are known and are used to determine the attribute values of the evaluation data. The evaluation data is target data that is assigned by determining an attribute value for an attribute whose attribute value is unknown.
文字データの場合、手書き文字データに対して、一般に「A」や「B」といった文字の種類の属性値を付与するのは容易であるが、「太さ」や「傾き」などの属性値を付与するのは容易ではない。そこでゴシック体といった「太さ」や「傾き」といった属性の属性値が変更可能である活字を用いて、変分オートエンコーダのモデルを学習する。 In the case of character data, it is generally easy to assign character type attribute values such as "A" and "B" to handwritten character data, but it is difficult to assign attribute values such as "thickness" and "slant". It is not easy to grant. Therefore, we learn a variational autoencoder model using typefaces such as Gothic fonts, which have variable attribute values such as "thickness" and "slant."
図2の例では「太さ」や「傾き」等の属性値を持つ「データ属性」“活字”の「データ番号」“1”“2”“3”のデータが基準データ、属性値を持たない「データ属性」“手書き文字”「データ番号」“4”“5”のデータが評価データとなる。より一般には、基準データは活字及び手書き文字を含み、評価データは手書き文字を含む。 In the example in Figure 2, the data of "data number" "1" "2" "3" of "data attribute" "print" which has attribute values such as "thickness" and "slant" are standard data and have attribute values. Data with "data attributes", "handwritten characters", "data numbers", "4" and "5" that are not included are evaluation data. More generally, the reference data includes printed and handwritten text, and the evaluation data includes handwritten text.
次に、一般データの基準データと評価データを説明する。図3は、基準データと評価データ(一般データの場合)を示す図である。図2では、データ属性毎に基準データと評価データが分かれていた。図3では基準データと評価データを一般化し、それぞれのデータに対して、各属性に関して属性値が格納されているデータが該当の属性に関する基準データであり、各属性に関して属性値が格納されていないデータが該当の属性に関する評価データである。 Next, reference data and evaluation data of general data will be explained. FIG. 3 is a diagram showing reference data and evaluation data (in the case of general data). In FIG. 2, reference data and evaluation data are separated for each data attribute. In Figure 3, the standard data and evaluation data are generalized, and for each data, the data in which the attribute value is stored for each attribute is the standard data for the corresponding attribute, and the data in which the attribute value is stored for each attribute is the standard data. The data is evaluation data regarding the corresponding attribute.
「属性1」に関して、基準データは「データ番号」“1”“2”“3”“4”のデータであり、評価データは「データ番号」“5”のデータである。同様に、「属性2」に関して、基準データは「データ番号」“1”“2”“5”のデータであり、評価データは「データ番号」“3”“4”のデータである。
Regarding "
以下の実施形態の目的は、各属性において、基準データの属性値を利用して評価データの属性値を推定することである。 The purpose of the following embodiment is to estimate the attribute value of evaluation data in each attribute using the attribute value of reference data.
[実施形態1]
(モデル学習時及びデータ再構成時の動作)
図4は、実施形態1に係る情報処理システム1のモデル学習時の動作を説明するための図である。本実施形態では、属性に対して属性値が予め付与された基準データ201を用い、基準データ201の潜在変数を基に属性値を重回帰モデルで予測できるように、変分オートエンコーダ関連技術において新規の損失関数を用いてモデル学習を実行する。
[Embodiment 1]
(Operations during model learning and data reconstruction)
FIG. 4 is a diagram for explaining the operation of the
情報処理システム1は、MFCVAE2を有する。MFCVAE2は、エンコーダ203とデコーダ205とを含んで構成される。
The
MFCVAE2のモデル学習時には、エンコーダ203に入力されるデータ(訓練データセット)は、基準データ201のみを含むか、あるいは基準データ201及び評価データ202の両方を含む。エンコーダ203は、MFCVAE2の中間出力である潜在変数204を出力する。MFCVAE2は、潜在変数204を説明変数とし、属性値の正解値(正解ラベル)208を目的変数とする重回帰モデルを設定する。なお重回帰モデルに限らず、線形回帰モデル及び非線形回帰モデルの何れもよい。重回帰モデルは、モデル計算の負荷が少ないという利点があることから、本実施形態では重回帰モデルを採用する。
During model learning of MFCVAE2, the data (training data set) input to the
情報処理システム1は、潜在変数204と属性値の正解値208とから、属性値の予測値と正解値との平均二乗誤差を最小化する偏回帰係数209及びその時の属性値の予測値210を求める。属性値の予測値210は、偏回帰係数209を各係数とする潜在変数204の一次結合として算出される。属性値の正解値208と属性値の予測値210とに基づいて、重回帰モデルへの適合(重回帰モデルの当てはまり)が良いほど小さい値を取る適合度を表す指標となり得る決定係数211や予測誤差212が求められる。決定係数211や予測誤差212は、重回帰モデルへの適合度を表す指標を含む損失関数213で学習される。このようにしてエンコーダ203が学習される。
The
潜在変数204は、デコーダ205に入力される。デコーダ205は、デコーダ205によって再構成された基準データ201である再構成基準データ206と、デコーダ205によって再構成された評価データ202である再構成評価データ207とを出力する。再構成評価データ207は、属性値が付与されたデータとなっている。
ここで、偏回帰係数209、損失関数213、決定係数211、予測誤差212を説明する。
Here, the
従来技術のMFCVAEでは、目的関数である変分下限(Evidence Lower Bound(ELBO))は、式(1)のように表される。従来手法のMFCVAEでは、式(1)の変分下限の符号をマイナスにした負の損失関数が最小化されるようにMFCVAEモデルのパラメータが学習される(上述の文献2参照)。式(1)において“D”は訓練データセット、“x”が訓練データセットに含まれる訓練データ、“z→”は潜在変数、“θ”はエンコーダのパラメータ、“φ”はデコーダのパラメータ、“KL(A|B)”は分布Aと分布BのKLダイバージェンスを表す。
In the conventional MFCVAE, a variational lower bound (ELBO), which is an objective function, is expressed as in equation (1). In the conventional method of MFCVAE, the parameters of the MFCVAE model are learned so that a negative loss function in which the sign of the lower limit of variation in Equation (1) is made negative is minimized (see
これに対して本実施形態では、観点jでの自由度調整済み決定係数をRf,j 2、各自由度調整済み決定係数Rf,j 2の重み係数をγj(>0)として、式(2)のように目的関数を設定する。式(2)の右辺は、式(1)の右辺の期待値E[*]のカッコ内の式に第3項γjRf,j 2が追加されたものである。 On the other hand, in this embodiment, the degree-of-freedom adjusted coefficient of determination at viewpoint j is R f,j 2 , and the weighting coefficient of each degree-of-freedom adjusted coefficient of determination R f,j 2 is γ j (>0). The objective function is set as shown in equation (2). The right side of equation (2) is obtained by adding the third term γ j R f,j 2 to the expression in parentheses of the expected value E[*] on the right side of equation (1).
なお、式(2)の第3項では、自由度調整済み決定係数Rf,j 2ではなく、後述の決定係数Rj 2が採用されてもよい。決定係数Rj 2、自由度調整済み決定係数Rf,j 2は、決定係数211の一例である。 Note that, in the third term of Equation (2), a coefficient of determination R j 2 , which will be described later, may be used instead of the degree-of-freedom adjusted coefficient of determination R f,j 2 . The coefficient of determination R j 2 and the degree of freedom adjusted coefficient of determination R f,j 2 are examples of the coefficient of determination 211.
ここで、式(2)の期待値E[*]のカッコ内の第1項は、MFCVAEによるデータ再構成の誤差を表す再構成誤差項である。式(2)の期待値E[*]のカッコ内の第2項は、MFCVAEの潜在変数のバラつきを抑制する等の潜在変数の分布に制約を与える正則化項である。式(2)の期待値E[*]のカッコ内の第3項は、属性毎の潜在変数及び属性値に対する重回帰モデルへの適合が良いほど小さい値を取る指標に基づく追加項である。 Here, the first term in parentheses of the expected value E[*] in equation (2) is a reconstruction error term representing an error in data reconstruction by MFCVAE. The second term in parentheses of the expected value E[*] in equation (2) is a regularization term that imposes constraints on the distribution of the latent variables, such as suppressing variations in the latent variables of MFCVAE. The third term in parentheses of the expected value E[*] in Equation (2) is an additional term based on an index that takes a smaller value as the fit to the multiple regression model for the latent variables and attribute values for each attribute is better.
損失関数213(損失関数Lossと表す)は負の目的関数であるから、式(2)の目的関数を用いて式(3)のように表される。 Since the loss function 213 (expressed as loss function Loss) is a negative objective function, it is expressed as in Expression (3) using the objective function of Expression (2).
本実施形態では、損失関数Lossが最小化、すなわち決定係数Rf,i 2が最大化されるように、MFCVAEモデルのパラメータが学習される。 In this embodiment, the parameters of the MFCVAE model are learned so that the loss function Loss is minimized, that is, the coefficient of determination R f,i 2 is maximized.
次に、観点jの決定係数Rj 2、及び観点jの自由度調整済み決定係数Rf,j 2の算出方法を説明する。 Next, a method of calculating the coefficient of determination R j 2 of viewpoint j and the degree of freedom adjusted coefficient of determination R f,j 2 of viewpoint j will be described.
データ数がN個、データの属性の種類がj=1,2,…,JのJ個、ある属性jにおける潜在変数の次元数をKjとする。またデータの各属性がMFCVAEのJ個の各観点と一対一に対応しているものとする。インデックス番号nであるデータnに属性jの属性値が付与されていれば、データnは属性jにおいて基準データである。一方データnに属性jの属性値が付与されていなければ、データnは属性jにおいて評価データである。 Assume that the number of data is N, the types of data attributes are J = 1, 2, . . . , J, and the number of dimensions of a latent variable in a certain attribute j is Kj . It is also assumed that each attribute of the data has a one-to-one correspondence with each of the J viewpoints of the MFCVAE. If the attribute value of attribute j is assigned to data n having index number n, data n is reference data in attribute j. On the other hand, if the attribute value of attribute j is not assigned to data n, data n is evaluation data for attribute j.
ある属性jに関する基準データのインデックスの集合をBj、集合Bjの要素数をMjとする。集合Bj={bj,1,bj,2,…,bj,Mj}とする。ある属性jに関する基準データnにおける潜在変数をzn,j={zn,j,1,zn,j,2,…,zn,j,Kj}、属性値の正解値をyn,j、潜在変数zn,jを説明変数とする。また、属性値を目的変数とした重回帰モデルの偏回帰係数をwj={wj,0,wj,1,wj,2,…,wj,Kj}T、属性値の予測値をy^n,jとする。属性値の予測値y^n,jは、式(4)のように表される。 Let B j be a set of indexes of reference data regarding a certain attribute j, and M j be the number of elements in the set B j . Set B j ={b j,1 , b j,2 , ..., b j, Mj }. Let the latent variable in reference data n regarding a certain attribute j be z n,j ={z n,j,1 ,z n,j,2 ,...,z n,j,Kj }, and let the correct value of the attribute value be y n, j and latent variable z n,j are explanatory variables. In addition, the partial regression coefficient of the multiple regression model with the attribute value as the objective variable is w j = {w j,0 , w j,1 , w j,2 , ..., w j, Kj } T , and the predicted value of the attribute value is Let be y^ n,j . The predicted value y^ n,j of the attribute value is expressed as in equation (4).
ただし、式(5)のように潜在変数ベクトルZn,jを定義した。
ある属性jに関する属性値yn,j(ただしn∈Bj)と重回帰モデルによる属性値の予測値y^n,jとの予測誤差である平均二乗誤差MSEjは、式(6)のように表される。平均二乗誤差MSEjは、予測誤差212の一例である。
ここで平均二乗誤差MSEjを最小化するwjは、式(6)の右辺をwjで偏微分してゼロとおく(∇wj=0)ことで、式(7)のように、偏回帰係数wjは、潜在変数Zjと属性値yjの関数となる。偏回帰係数wjは、偏回帰係数209の一例である。
ただし式(7)において、潜在変数Zjと属性値yjを、式(8)と式(9)に示すようにおいた。
なお、ある属性jに関する属性値yn,j(ただしn∈Bj)と重回帰モデルによる属性値の予測値y^n,jとの予測誤差は、平均二乗誤差に限らず、平均誤差、平均絶対誤差、平均平方二乗誤差、平均誤差率、平均絶対誤差率等を採用することもできる。 Note that the prediction error between the attribute value y n,j (where n∈B j ) regarding a certain attribute j and the predicted value y^ n,j of the attribute value by the multiple regression model is not limited to the mean square error, but also the average error, Mean absolute error, mean squared error, mean error rate, mean absolute error rate, etc. may also be employed.
ある属性jに関する決定係数Rj
2は、説明変数が目的変数をどれくらい説明しているかを表す。決定係数Rj
2は、属性値の平均値y ̄n,jを用いて式(10)のように表される。
また決定係数は、説明変数の数が増えるほど1に近づくという性質を持っているため、説明変数の数が多い場合には、この性質を補正した自由度調整済み決定係数Rf,j
2が採用されてもよい。自由度調整済み決定係数Rf,j
2は、説明変数の数をpとし、基準データのサンプル数はMjであるので、式(11)のように表される。
なお、重み係数γjは、再構成誤差項、正則化項、及び決定係数Rj
2(Rf,j
2)の絶対値の比較から求めることができる。具体的には、決定係数Rj
2に対する重み係数γjは、|γjRj
2|のオーダーが式(2)の右辺の期待値E[*]のカッコ内の式の再構成誤差項と正則化項の各絶対値のオーダーと同じになるように定められる。同様に、自由度調整済み決定係数Rf,j
2に対する重み係数γjも、|γjRf,j
2|のオーダーが、式(2)の右辺の期待値E[*]のカッコ内の式の再構成誤差項と正則化項の各絶対値のオーダーと同じになるように定められる。
Note that the weighting coefficient γ j can be obtained from a comparison of the absolute values of the reconstruction error term, the regularization term, and the coefficient of determination R j 2 (R f, j 2 ). Specifically, the weighting coefficient γ j for the coefficient of determination R j 2 is the reconstruction error term of the expression in parentheses of the expected value E[*] on the right side of equation ( 2 ), where the order of |γ j
基準データ201及び評価データ202の再構成時には、デコーダ205は、基準データ201及び評価データ202の属性及び属性値(評価データ202の場合は付与された属性値)と、エンコーダ203の学習の最後のエポックで得た偏回帰係数209を用いる。そして、基準データ201及び評価データ202の属性及び属性値と、偏回帰係数209とを用いて、式(4)から、潜在変数(潜在変数ベクトルZn,j)を算出する。そして、デコーダ205は、算出した潜在変数を入力として、入力された基準データ201及び評価データ202をそれぞれ再構成した再構成基準データ206及び再構成評価データ207を出力する。
When reconstructing the
(属性値付与時の動作)
図5は、実施形態1に係る情報処理システム1の評価データ202に対する属性値付与時の動作を説明するための図である。情報処理システム1は、評価データ202への属性値付与時には、先ず評価データ202を学習済みのエンコーダ203に入力し、潜在変数204を得る。情報処理システム1は、MFCVAE2(図4)の学習の最終エポックで得た偏回帰係数209を用い、属性値の予測値210を、偏回帰係数209を各係数とする潜在変数204の一次結合式で算出する。情報処理システム1は、属性値の予測値210を評価データ202に付与する。
(Behavior when assigning attribute value)
FIG. 5 is a diagram for explaining the operation of the
(データ生成時の動作)
図6は、実施形態1に係る情報処理システム1の属性値を指定したデータ生成時の動作を説明するための図である。データ生成とは、変分オートエンコーダ関連技術において、潜在変数を入力として、デコーダからデータを出力するこという。情報処理システム1は、生成させたい属性値401を持つデータ405の生成時には、ユーザが生成させたい属性及び属性値401と、MFCVAE2(図4)の学習の最後で得た偏回帰係数209とから潜在変数204を算出する。そして情報処理システム1は、算出した潜在変数204をデコーダ205に入力することで、生成させたい属性値401を持つデータ405を生成する。
(Operation during data generation)
FIG. 6 is a diagram for explaining the operation of the
なお、データ生成の際に、指定された属性及び属性値401に該当する基準データ201が存在する場合には、この基準データ201に対応するデータを再構成したデータ405として採用する。指定された属性及び属性値401に該当する基準データ201が存在しない場合に、生成させたい属性及び属性値401と、偏回帰係数209とから潜在変数204を算出する。そして、算出した潜在変数204をデコーダ205に入力することで、生成させたい属性値401を持つデータ405を生成する。
Note that when the data is generated, if there is
(モデル学習時の決定係数の推移)
図7は、実施形態1に係る情報処理システム1のモデル学習時の決定係数の推移を説明するための図である。図7のグラフでは、潜在変数を横軸、属性値を縦軸に取り、属性値の実際の値を点で表し、属性値の予測値を直線で表している。情報処理システム1は、MFCVAE2の損失関数に、潜在変数を説明変数、属性値を目的関数とする重回帰モデルの決定係数を含む追加項を追加し、決定係数が高くなるようにMFCVAE2を学習させる。その結果、学習の初期では決定係数は低い(図7(a))が、学習のエポック数が進行して学習の中期(図7(b))、後期(図7(c))と推移するに従って、決定係数は高くなり、潜在変数に基づく属性値の予測精度が高くなる。
(Transition of coefficient of determination during model learning)
FIG. 7 is a diagram for explaining the transition of the coefficient of determination during model learning of the
(実施形態1に係る情報処理システム1の構成)
図8は、実施形態1に係る情報処理システム1の構成を示すブロック図である。情報処理システム1は、データ記憶部602、特徴量抽出部603、属性値付与部608、データ生成部614、及びデータ品質評価部612を有する。
(Configuration of
FIG. 8 is a block diagram showing the configuration of the
データ記憶部602は、メモリ又はストレージであり、基準データ201と評価データ202の入力を受け付け、蓄積する。データ記憶部602は、情報処理システム1に含まれる装置であっても、情報処理システム1の外部装置であっても何れでもよい。
The
特徴量抽出部603は、MFCVAE2のデータ記憶部602に格納されている基準データ201を元に、MFCVAE2のモデル学習を実行する。また特徴量抽出部603は、MFCVAE2のデータ記憶部602に格納されている評価データ202の属性推定を行う。また特徴量抽出部603は、属性値を指定したデータ生成を行う。特徴量抽出部603は、回帰モデル適合度評価部604、損失算出部605、モデル更新部606、及びエンコーダ部607を有する。特徴量抽出部603の処理機能は、図9を参照して後述する。
The
属性値付与部608は、評価データ202の属性推定を行い、評価データ202の属性及び属性値611を出力する。属性値付与部608は、属性値推定部609と、属性及び属性値出力部610とを有する。属性値付与部608の処理機能は、図10を参照して後述する。
The attribute
データ生成部614は、属性値付与部608によって出力された対象データの属性及び属性値611を入力として、属性値を指定したデータ生成を行い、生成したデータ405を出力する。データ生成部614は、潜在変数算出部615、デコード部616、及びデータ出力部617を有する。データ生成部614の処理機能は、図11を参照して後述する。
The
データ品質評価部612は、属性値付与部608によって出力された対象データ(基準データ201、評価データ202)の属性及び属性値611に基づいて対象データの品質評価を行い、データ品質評価結果613を出力する。
The data
データ品質評価部612は、評価の対象データの属性及び属性値611を用いて、一例として、下記のような観点で対象データの品質評価を行う。品質評価については“機械学習品質マネジメントガイドライン”、国立研究開発法人産業技術総合研究所、[令和4年8月1日検索]、インターネット<URL:https://www.aist.go.jp/aist_j/press_release/pr2020/pr20200630_2/pr20200630_2.html>を参照すればよい。
(1)データ設計の十分性:データを用いる対象のシステムが対応すべき様々な状況に対して十分な訓練データやテストデータを確保していること。
(2)データセットの被覆性:基準を定めて網羅したそれぞれのケースに対してそれぞれのケースに対応する入力の可能性に対して抜け漏れなく、レアケース及び通常ケースそれぞれに正しく推論できる学習に必要な十分な量のデータが与えられていること。
(3)データの均一性:全体として推論性能の期待値を最大化するように、訓練データを偏り無く用意すること。
The data
(1) Sufficiency of data design: Ensuring sufficient training data and test data for the various situations that the target system that uses the data must respond to.
(2) Coverage of the data set: For each case that has been defined and covered, it is possible to learn to correctly infer both rare cases and normal cases without missing any omissions regarding the possibility of input corresponding to each case. That sufficient amount of data is provided.
(3) Data uniformity: Training data should be prepared without bias so as to maximize the expected value of inference performance as a whole.
なお、データ品質評価部612の処理機能は、図12を参照して後述する。
Note that the processing functions of the data
また、特徴量抽出部603、属性値付与部608、データ生成部614、及びデータ品質評価部612は、1つのコンピュータ上に実現されていてもよいし、異なるコンピュータ上に実現されてもよく、これらの統合分散の形態は適宜変更可能である。
Further, the feature
(実施形態1に係る特徴量抽出処理)
図9は、実施形態1に係る特徴量抽出処理を示すフローチャートである。特徴量抽出処理は、特徴量抽出部603(図8)によって、ユーザ指示を契機として実行される。
(Feature quantity extraction processing according to Embodiment 1)
FIG. 9 is a flowchart showing feature extraction processing according to the first embodiment. The feature extraction process is executed by the feature extraction unit 603 (FIG. 8) in response to a user instruction.
先ずステップS11では、回帰モデル適合度評価部604は、基準データ201の潜在変数を説明変数とし、属性値を目的変数としたMFCVAEモデル(本実施形態では重回帰モデル)の当てはまりの良さを示す指標を損失関数Lossに設定する。損失関数Lossに設定される指標は、本実施形態では、観点jでの自由度調整済み決定係数Rf,j
2である。
First, in step S11, the regression model
次にステップS12では、回帰モデル適合度評価部604は、MFCVAEモデルの初期化を行う。次にステップS13では、回帰モデル適合度評価部604は、基準データ201及び評価データ202をMFCVAEモデルに入力する。ステップS13では、回帰モデル適合度評価部604は、少なくとも基準データ201をMFCVAEモデルに入力すればよい。
Next, in step S12, the regression model
次にステップS14では、損失算出部605は、式(3)に基づいて損失関数Lossの関数値を算出する。回帰モデル適合度評価部604は、損失算出部605による損失関数Lossの関数値の算出の前段階として、次の処理を行う。すなわち、回帰モデル適合度評価部604は、ステップS13の入力データの入力に対してMFCVAEモデルから出力された潜在変数を説明変数とし、属性値を目的変数とする重回帰モデルを属性毎に設定する。次に、回帰モデル適合度評価部604は、潜在変数と属性値とから、属性値に対する予測誤差が最小となる属性値の予測値及び重回帰モデルの回帰係数を属性毎に算出する。次に、回帰モデル適合度評価部604は、算出された属性毎の予測値及び回帰係数に基づいて、潜在変数及び属性値に対する重回帰モデルへの適合が良いほど小さい値を取る指標を属性毎に算出する。その後、損失算出部605は、ステップS14で、損失関数Lossの関数値を算出する。
Next, in step S14, the
なお、入力データが基準データ201及び評価データ202を含む場合、ステップS14では、回帰モデル適合度評価部604は、損失関数Lossの追加項を、基準データ201を用いて計算する。一方、損失算出部605は、再構成誤差項及び正則化項を、基準データ201及び評価データ202の何れか一方又は両方を用いて計算する。これは、損失関数Lossの追加項は、潜在変数と属性値との重回帰モデルへの適合度に基づくことから、属性値を含む基準データのみ損失関数Lossの追加項を計算可能なためである。
Note that when the input data includes the
次にステップS15では、モデル更新部606は、誤差逆伝搬によりMFCVAEモデルのパラメータを更新する。次にステップS16では、モデル更新部606は、所定条件(エポック数が所定回数を超えたか、又はMFCVAEモデルによる推定値と実際の値の誤差が所定値を下回った)が充足されたかを判定する。モデル更新部606は、所定条件が充足された場合(ステップS16YES)にステップS17に処理を移し、所定条件が充足されていない場合(ステップS16NO)にステップS13に処理を戻す。
Next, in step S15, the
ステップS17では、エンコーダ部607は、学習済みのMFCVAEモデルのエンコーダ203に評価データ202を入力し、潜在変数204と偏回帰係数209を出力する。
In step S17, the
(実施形態1に係る属性値付与処理)
図10は、実施形態1に係る属性値付与処理を示すフローチャートである。属性値付与処理は、属性値付与部608(図8)によって、ユーザ指示を契機として実行される。
(Attribute value assignment processing according to Embodiment 1)
FIG. 10 is a flowchart showing attribute value assignment processing according to the first embodiment. The attribute value assignment process is executed by the attribute value assignment unit 608 (FIG. 8) in response to a user instruction.
先ずステップS21では、属性値推定部609は、特徴量抽出部603(エンコーダ203)から得られた潜在変数204と偏回帰係数209から、評価データ202の属性値の予測値210を算出する。次にステップS22では、属性及び属性値出力部610は、基準データ201と、ステップS21で属性値の予測値210が算出された評価データ202との属性及び属性値から、属性毎の各属性値の出現頻度のヒストグラムを求める(後述の図14参照)。そして属性及び属性値出力部610は、このヒストグラムをもとに各属性値が基準データ201及び評価データ202の各属性において出現する確率をデータ含有率として求め、結果を出力する。
First, in step S21, the attribute
(実施形態1に係るデータ生成処理)
図11は、実施形態1に係るデータ生成処理を示すフローチャートである。データ生成処理は、データ生成部614(図8)によって、ユーザ指示を契機として実行される。
(Data generation processing according to Embodiment 1)
FIG. 11 is a flowchart showing data generation processing according to the first embodiment. The data generation process is executed by the data generation unit 614 (FIG. 8) in response to a user instruction.
先ずステップS31では、データ生成部614は、ユーザによる生成させたい属性及び属性値401の入力を受け付ける。次にステップS32では、潜在変数算出部615は、ステップS31で入力を受け付けた属性及び属性値401と偏回帰係数209から、潜在変数204を計算して出力する。次にステップS33では、デコード部616(デコーダ205)は、ステップS32で計算された潜在変数204を入力として生成させたい属性及び属性値401を持つデータ405(例えば文字データ)を再構成する。次にステップS34では、データ出力部617は、デコード部616(デコーダ205)によって再構成されたデータ405を出力する。
First, in step S31, the
なお、潜在変数算出部615は、ステップS31で入力を受け付けた属性及び属性値401に該当する基準データ201が存在する場合には、ステップS32をスキップし、ステップS33でこの基準データ201に対応するデータを再構成したデータ405とする。
Note that, if there is
(実施形態1に係るデータ品質評価処理)
図12は、実施形態1に係るデータ品質評価処理を示すフローチャートである。データ品質評価処理は、データ品質評価部612(図8)によって、ユーザ指示を契機として実行される。
(Data quality evaluation process according to Embodiment 1)
FIG. 12 is a flowchart showing data quality evaluation processing according to the first embodiment. The data quality evaluation process is executed by the data quality evaluation unit 612 (FIG. 8) in response to a user instruction.
ステップS41では、データ品質評価部612は、属性値付与部608によって出力された属性及び属性値611に関して、例えば上述の(1)データ設計の十分性、(2)データセットの被覆性、(3)データセットの均一性の少なくとも一つの観点で評価する。次にステップS42では、データ品質評価部612は、ステップS41のデータ品質評価結果613を出力する。
In step S41, the data
(属性及び属性値の出力例1)
図13は、属性及び属性値の出力例1(データに対する属性及び属性値)を示す図である。図13は、属性値付与部608の属性値推定部609(図8)によって、例えば図2又は図3に示す属性値が付与されていなかったデータに属性値が付与され、属性及び属性値出力部610によって出力されたものである。
(Example 1 of output of attributes and attribute values)
FIG. 13 is a diagram showing an output example 1 of attributes and attribute values (attributes and attribute values for data). FIG. 13 shows that the attribute value estimating unit 609 (FIG. 8) of the attribute
(属性及び属性値の出力例2)
図14は、データ、属性、及び属性値の出力例2(各属性及び属性値に対するデータ数)を示す図である。図14は、図13の表示方法を変えた出力例である。図14は、属性値付与部608の属性及び属性値出力部610(図8)によって出力される属性毎の属性値のヒストグラムである。この表示によって、属性毎に例えば上述の(2)データセットの被覆性や(3)データの均一性を確認できる。(2)データセットの被覆性は、図14のヒストグラムの各属性の属性値が所定の広い範囲に分布しかつ各度数が何れも所定数以上であることで充足されると考えられる。(3)データの均一性は、図14のヒストグラムの各属性の属性値が所定の広い範囲に均等に分布していることで充足されると考えられる。このような分析によって、属性値に対して不足しているデータを確認することが可能となる。
(Example 2 of output of attributes and attribute values)
FIG. 14 is a diagram showing an output example 2 of data, attributes, and attribute values (the number of data for each attribute and attribute value). FIG. 14 is an example of output obtained by changing the display method of FIG. 13. FIG. 14 is a histogram of attributes of the attribute
例えば図14のヒストグラム1101は、属性1の度数分布を示す。ヒストグラム1101は、ヒストグラム1102、1103と比較してデータの分布範囲が広い又は同等であるが、この分布範囲に存在しない属性値がある。この点でヒストグラム1101は、(2)データセットの被覆性が充足されていないと言える。またヒストグラム1101は、属性値の分布が均一でない。属性値の分布の均一性は、属性値の分散や標準偏差といったバラつきを表す統計値に基づいて判断できる。この点でヒストグラム1101は、(3)データの均一性が充足されていないと言える。
For example, a
また図14のヒストグラム1102は、属性2の度数分布を示す。ヒストグラム1102は、ヒストグラム1101、1103と比較してデータの分布範囲が狭く、この分布範囲に存在しない属性値がある。この点でヒストグラム1102は、(2)データセットの被覆性が充足されていないと言える。またヒストグラム1102は、属性値の分布が均一でない。この点でヒストグラム1102は、(3)データの均一性が充足されていないと言える。
Further, a
また図14のヒストグラム1103は、属性Jの度数分布を示す。ヒストグラム1103は、ヒストグラム1101、1102と比較してデータの分布範囲が広い又は同等であるが、この分布範囲に存在しない属性値がある。この点でヒストグラム1103は、(2)データセットの被覆性が充足されていないと言える。またヒストグラム1103は、ヒストグラム1101、1102と比較して属性値の分布が均一でない。この点でヒストグラム1102は、(3)データの均一性が充足されていないと言える。
Further, a
なお、図14の各グラフを、「データ数」に代えて「各属性値が基準データ201及び評価データ202の各属性において出現するデータ含有率」を縦軸とするグラフとしてもよい。
Note that each graph in FIG. 14 may be a graph in which the vertical axis is the "data content rate at which each attribute value appears in each attribute of the
[実施形態1の効果]
本実施形態では、訓練データやテストデータの属性をユーザが明示的に指定し、定量的な属性値で表すことにより、ユーザにとって解釈性の高い属性分析が可能となる。このため、訓練データやテストデータの中に不足しているデータや、誤判別の多いデータの特徴を発見しやすい。
[Effects of Embodiment 1]
In this embodiment, the user explicitly specifies attributes of training data and test data and expresses them with quantitative attribute values, thereby enabling attribute analysis with high interpretability for the user. Therefore, it is easy to discover missing data in training data or test data, or characteristics of data that are often misclassified.
また本実施形態では、従来技術のように、得られた潜在変数の持つ属性をユーザが解釈する(偏在変数は太さ又は角度に依存する等)ではなく、ユーザが潜在変数に持たせるべき属性を明示的に指定できるため、ユーザの意図に従った属性分析が可能となる。 In addition, in this embodiment, instead of the user interpreting the attributes of the obtained latent variable as in the prior art (unevenly distributed variables depend on the thickness or angle, etc.), the user interprets the attributes that the latent variable should have. Since the attributes can be specified explicitly, attribute analysis can be performed according to the user's intention.
また、従来技術では属性が定性的にしか分からないため、異なるデータセットや異なるモデルで学習したデータ間の属性は比較できなかった。しかし、本実施形態ではでは属性値が定量的に求まるため、異なるデータセットや異なるモデルで学習したデータ間の属性の比較が可能となる。 In addition, with conventional technology, attributes can only be known qualitatively, making it impossible to compare attributes between data learned using different datasets or different models. However, in this embodiment, attribute values are determined quantitatively, so it is possible to compare attributes between data learned using different data sets or different models.
また、本実施形態では、属性値の予測に限定した場合であっても、教師あり学習による回帰モデルを使って属性値を推定する場合よりも少ないデータ量又は学習量で属性値を付与できる。 Furthermore, in the present embodiment, even when the prediction of attribute values is limited, attribute values can be assigned with a smaller amount of data or learning than when estimating attribute values using a regression model based on supervised learning.
また、本実施形態では、データ生成では、複数の属性に対する属性値を指定してデータ生成できるため、必要とされるデータを容易に生成できる。また、データ生成の際に、指定された属性及び属性値に該当する基準データが存在する場合にはこの基準データに対応するデータを再構成したデータとして採用する。これにより、属性及び属性値と偏回帰係数から潜在変数を算出しデコーダでデコードしてデータを再構成する場合と比較して、速やかにデータを再構成できる。 Further, in the present embodiment, in data generation, data can be generated by specifying attribute values for a plurality of attributes, so necessary data can be easily generated. Further, when generating data, if reference data corresponding to the specified attribute and attribute value exists, the data corresponding to this reference data is adopted as the reconstructed data. Thereby, data can be quickly reconstructed compared to the case where latent variables are calculated from attributes, attribute values, and partial regression coefficients, and data is reconstructed by decoding with a decoder.
[実施形態2]
実施形態1では、1つの情報処理システム1を用いてモデル学習(図4、図9)、属性値付与及び属性と属性値の関係の出力(図5、図10)、及びデータ品質評価処理(図12)を実行する例を示した。しかし、モデル学習、属性値付与、及びデータ品質評価処理は、図15に示す複数の情報処理システム1(1‐1,1-2,…,1-n)で並列に実行されてもよい。
[Embodiment 2]
In the first embodiment, one
例えばモデル学習を複数の情報処理システム1で実行する場合、ステップS13~S16(図9)を、複数の情報処理システム1毎にそれぞれ異なる基準データ201を含む入力データを用いて実行してもよい。そして、複数の情報処理システム1の少なくとも1つが、各情報処理システム1によって得られたMFCVAEモデルの学習結果をマージして出力する。
For example, when model learning is executed in a plurality of
また複数の情報処理システム1毎に得られたMFCVAEのモデルのそれぞれの学習結果に基づいて、情報処理システム1毎に各入力データへの属性値付与及び属性と属性値の関係の出力(ステップS21~S23(図10))を実行してもよい。そして、複数の情報処理システム1の少なくとも1つが、各情報処理システム1によって得られた属性と属性値の関係(図14)をマージして出力する。
Furthermore, based on the learning results of the MFCVAE model obtained for each of the plurality of
本実施形態では、従来技術と比較して、潜在変数が定量的に求まるため、モデル毎に別システムで並列処理しても計算結果をマージできることから、複数システムでモデル学習、属性値付与、及び属性と属性値の関係の出力の各処理の負荷分散が可能となる。よって、従来と比較して短い時間で、これらの処理を完了させ、必要とされるデータを生成することができる。 In this embodiment, compared to the conventional technology, latent variables are determined quantitatively, so even if each model is processed in parallel in a separate system, the calculation results can be merged, so multiple systems can perform model learning, attribute value assignment, and It becomes possible to distribute the load of each process for outputting the relationship between attributes and attribute values. Therefore, these processes can be completed and necessary data can be generated in a shorter time than in the past.
(実施形態の適用例)
実施形態は、上述のように手書き文字の文字認識に適用できる。その他、実施形態は、全てのデータにラベル付与するのが困難であり、一部のデータのみ正確な属性値(ラベル)が付与されており、残りのデータに属性値(ラベル)を付与したいといったケースであれば適用できる。
(Application example of embodiment)
Embodiments can be applied to character recognition of handwritten characters as described above. In addition, in the embodiment, it is difficult to label all data, and only some data is assigned accurate attribute values (labels), and it is desired to assign attribute values (labels) to the remaining data. Applicable if the case.
例えば、工場設備の振動データに対する回転数のラベルの付与がある。前提として過去に取得した工場設備の振動データには回転数のラベルが付与されておらず、新たに回転数が計測できる装置を導入し、過去に取得した工場設備のデータに対して回転数のラベルを付与するような場合である。 For example, a rotation speed label may be attached to vibration data of factory equipment. The premise is that the vibration data of factory equipment acquired in the past is not labeled with the rotation speed, so a new device that can measure the rotation speed will be introduced, and the vibration data of the factory equipment acquired in the past will be compared with the rotation speed. This is the case when adding a label.
また、画像における被写体の角度予測がある。角度のラベル付与された少量のデータから、未知の画像の被写体の角度を予測する場合である。この適用例は、ロボットが物をつかむときの把持の方向制御等に利用できる。 There is also prediction of the angle of a subject in an image. This is a case where the angle of a subject in an unknown image is predicted from a small amount of data labeled with the angle. This application example can be used to control the direction of grasping when a robot grasps an object.
また、楽曲の印象評価を行う場合がある。予めユーザが評価した楽曲の印象(楽しい、悲しい、うれしい、寂しいなど)から、未知の楽曲の印象のラベル付与を行うことができる。 In addition, an impression evaluation of the music may be performed. It is possible to label the impression of an unknown song based on the impression of the song (fun, sad, happy, lonely, etc.) evaluated by the user in advance.
また、学会論文の研究分野の可視化を行う場合がある。予め各分野との関係度(画像認識分野との関連度が30、強化学習分野との関連度が50、・・・)が分かっている論文を基に、未知の論文の各分野との関係度を推定する場合である。 In addition, the research fields of academic papers may be visualized. Based on papers for which the degree of relationship with each field is known in advance (the degree of relationship with the image recognition field is 30, the degree of relationship with the reinforcement learning field is 50, etc.), the relationship of unknown papers with each field is calculated. This is a case of estimating the degree.
(コンピュータ1000のハードウェア)
図16は、コンピュータ1000の構成を示すハードウェア図である。例えば、情報処理システム1、あるいは特徴量抽出部603、属性値付与部608、データ生成部614、及びデータ品質評価部612等の情報処理システム1を適宜分散した各システムは、コンピュータ1000によって実現される。
(Hardware of computer 1000)
FIG. 16 is a hardware diagram showing the configuration of
コンピュータ1000は、バス等の内部通信線1009を介して相互に接続されたCPUをはじめとするプロセッサ1001、主記憶装置1002、補助記憶装置1003、ネットワークインタフェース1004、入力装置1005、及び出力装置1006を備える。
The
プロセッサ1001は、コンピュータ1000全体の動作制御を司る。また主記憶装置1002は、例えば揮発性の半導体メモリから構成され、プロセッサ1001のワークメモリとして利用される。補助記憶装置1003は、非一時的記憶媒体の一例であり、ハードディスク装置、SSD(Solid State Drive)、又はフラッシュメモリ等の大容量の不揮発性の記憶装置から構成され、各種プログラムやデータを長期間保持するために利用される。
A
補助記憶装置1003に格納された実行可能プログラム1100がコンピュータ1000の起動時や必要時に主記憶装置1002にロードされ、主記憶装置1002にロードされた実行可能プログラム1100をプロセッサ1001が実行する。これにより、各種処理を実行するシステムが実現される。
An executable program 1100 stored in the
なお、実行可能プログラム1100は、非一時的記録媒体に記録され、媒体読み取り装置によって非一時的記録媒体から読み出されて、主記憶装置1002にロードされてもよい。または、実行可能プログラム1100は、ネットワークを介して外部のコンピュータから取得されて、主記憶装置1002にロードされてもよい。
Note that the executable program 1100 may be recorded on a non-temporary recording medium, read from the non-temporary recording medium by a medium reading device, and loaded into the
ネットワークインタフェース1004は、コンピュータ1000をシステム内の各ネットワークに接続する、あるいは他のコンピュータと通信するためのインタフェース装置である。ネットワークインタフェース1004は、例えば、有線LAN(Local Area Network)や無線LAN等のNIC(Network Interface Card)から構成される。
The network interface 1004 is an interface device for connecting the
入力装置1005は、キーボードや、マウス等のポインティングデバイス等から構成され、ユーザがコンピュータ1000に各種指示や情報を入力するために利用される。出力装置1006は、例えば、液晶ディスプレイ又は有機EL(Electro Luminescence)ディスプレイ等の表示装置や、スピーカ等の音声出力装置から構成され、必要時に必要な情報をユーザに提示するために利用される。
The input device 1005 includes a keyboard, a pointing device such as a mouse, and is used by the user to input various instructions and information to the
なお、本発明は前述した実施形態に限定されるものではなく、添付した特許請求の範囲の趣旨内における様々な変形例及び同等の構成が含まれる。例えば、前述した実施形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに本発明は限定されない。また、ある実施形態の構成の一部を他の実施形態の構成に置き換えてもよい。また、ある実施形態の構成に他の実施形態の構成を加えてもよい。また、各実施形態の構成の一部について、他の構成の追加、削除、又は置換をしてもよい。 Note that the present invention is not limited to the embodiments described above, and includes various modifications and equivalent configurations within the scope of the appended claims. For example, the embodiments described above have been described in detail to explain the present invention in an easy-to-understand manner, and the present invention is not necessarily limited to having all the configurations described. Further, a part of the configuration of one embodiment may be replaced with the configuration of another embodiment. Further, the configuration of one embodiment may be added to the configuration of another embodiment. Furthermore, other configurations may be added, deleted, or replaced with some of the configurations of each embodiment.
また、前述した各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等により、ハードウェアで実現してもよい。あるいは、プロセッサがそれぞれの機能を実現するプログラムを解釈し実行することにより、ソフトウェアで実現してもよい。 Further, each of the configurations, functions, processing units, processing means, etc. described above may be partially or entirely realized in hardware by, for example, designing an integrated circuit. Alternatively, the functions may be implemented in software by having a processor interpret and execute programs that implement the respective functions.
各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリ、ハードディスク、SSD(Solid State Drive)等の記憶装置、又は、IC(Integrated Circuit)カード、SDカード、DVD(Digital Versatile Disc)の非一時的記録媒体に格納することができる。 Information such as programs, tables, files, etc. that realize each function is stored in storage devices such as memory, hard disks, SSDs (Solid State Drives), or non-removable devices such as IC (Integrated Circuit) cards, SD cards, and DVDs (Digital Versatile Discs). It can be stored on a temporary storage medium.
また、制御線や情報線は説明上必要と考えられるものを示しており、実装上必要な全ての制御線や情報線を示しているとは限らない。実際には、ほとんど全ての構成が相互に接続されていると考えてよい。 Furthermore, the control lines and information lines shown are those considered necessary for explanation, and do not necessarily show all the control lines and information lines necessary for implementation. In reality, almost all configurations can be considered interconnected.
1:情報処理システム、201:基準データ、202:評価データ、204:潜在変数、603:特徴量抽出部、608:属性値付与部、612:データ品質評価部、614:データ生成部、1000:コンピュータ。
1: information processing system, 201: reference data, 202: evaluation data, 204: latent variable, 603: feature extraction section, 608: attribute value assignment section, 612: data quality evaluation section, 614: data generation section, 1000: Computer.
Claims (17)
前記処理部が、
データの複数の属性に属性値が付与されている基準データを含んだ入力データを、該データの前記複数の属性のそれぞれに関する潜在変数を出力するMFCVAE(Multi-Facet Clustering Variational Auto-Encoder)に入力する第1ステップと、
前記入力データの入力に対して前記MFCVAEから出力された前記潜在変数を説明変数とし、前記属性値を目的変数とする回帰モデルを前記属性毎に設定する第2ステップと、
前記潜在変数と前記属性値とから、該属性値に対する予測誤差が最小となる前記属性値の予測値及び前記回帰モデルの回帰係数を前記属性毎に算出する第3ステップと、
前記第3ステップによって算出された前記属性毎の前記予測値及び前記回帰係数に基づいて、前記潜在変数及び前記属性値の前記回帰モデルへの適合が良いほど小さい値を取る指標を前記属性毎に算出する第4ステップと、
前記MFCVAEによるデータ再構成の誤差を表す再構成誤差項と、前記潜在変数の分布に制約を与える正則化項と、を有する前記MFCVAEの損失関数に、前記属性毎の前記指標に基づく追加項を追加した損失関数の関数値を算出する第5ステップと、
前記第5ステップによって算出された前記関数値に基づく誤差逆伝搬によって前記MFCVAEのモデルパラメータを更新する第6ステップと、を実行し、
前記第1ステップから前記第6ステップまでを、前記予測誤差又はエポック回数が所定条件を充足するまでこの順序で繰り返すことで前記MFCVAEのモデル学習を実行する、ことを特徴とする情報処理方法。 An information processing method executed by an information processing system having a processing unit and a storage unit, the method comprising:
The processing unit,
Input data including reference data in which attribute values are assigned to multiple attributes of the data is input to an MFCVAE (Multi-Facet Clustering Variational Auto-Encoder) that outputs latent variables for each of the multiple attributes of the data. The first step is to
a second step of setting a regression model for each attribute, using the latent variable output from the MFCVAE as an explanatory variable and the attribute value as an objective variable in response to the input data;
a third step of calculating, for each attribute, a predicted value of the attribute value and a regression coefficient of the regression model that minimizes a prediction error for the attribute value from the latent variable and the attribute value;
Based on the predicted value and the regression coefficient for each attribute calculated in the third step, an index that takes a smaller value as the latent variable and the attribute value fit the regression model better is determined for each attribute. A fourth step of calculating;
An additional term based on the index for each attribute is added to the loss function of the MFCVAE, which has a reconstruction error term representing an error in data reconstruction by the MFCVAE, and a regularization term that constrains the distribution of the latent variable. a fifth step of calculating a function value of the added loss function;
a sixth step of updating the model parameters of the MFCVAE by error backpropagation based on the function value calculated in the fifth step;
An information processing method characterized in that the MFCVAE model learning is executed by repeating the first step to the sixth step in this order until the prediction error or the number of epochs satisfies a predetermined condition.
前記回帰モデルは、重回帰モデルである、ことを特徴とする情報処理方法。 The information processing method according to claim 1,
An information processing method characterized in that the regression model is a multiple regression model.
前記属性毎の前記指標は、前記回帰モデルの決定係数である、ことを特徴とする情報処理方法。 The information processing method according to claim 1,
An information processing method characterized in that the index for each attribute is a coefficient of determination of the regression model.
前記属性毎の前記指標は、前記予測誤差である、ことを特徴とする情報処理方法。 The information processing method according to claim 1,
An information processing method characterized in that the index for each attribute is the prediction error.
前記予測誤差は、平均二乗誤差である、ことを特徴とする情報処理方法。 The information processing method according to claim 4,
An information processing method characterized in that the prediction error is a mean square error.
前追加項は、前記属性毎の前記指標に、前記属性毎の重み係数を乗算した項であり、
前記処理部が、
前記属性毎の前記重み係数を、前記属性毎に、前記指標と前記再構成誤差項及び前記正則化項との各絶対値のオーダーが等しくなるように決定する、ことを特徴とする情報処理方法。 The information processing method according to claim 1,
The pre-added term is a term obtained by multiplying the index for each attribute by a weighting coefficient for each attribute,
The processing unit,
An information processing method characterized in that the weighting coefficient for each attribute is determined for each attribute so that the orders of the absolute values of the index, the reconstruction error term, and the regularization term are equal. .
前記入力データは、前記基準データ及び前記属性に前記属性値が付与されていない評価データを含み、
前記処理部が、前記第5ステップにおいて、
前記追加項を、前記基準データを用いて計算し、
前記再構成誤差項及び前記正則化項を、前記基準データ及び前記評価データの何れか一方又は両方を用いて計算する、ことを特徴とする情報処理方法。 The information processing method according to claim 1,
The input data includes the reference data and evaluation data in which the attribute value is not assigned to the attribute,
The processing unit, in the fifth step,
calculating the additional term using the reference data;
An information processing method characterized in that the reconstruction error term and the regularization term are calculated using either or both of the reference data and the evaluation data.
前記入力データは、前記基準データ及び前記属性に前記属性値が付与されていない評価データを含み、
前記処理部が、
前記第1ステップから前記第6ステップまでを繰り返すことでモデル学習済みの前記MFCVAEに前記評価データを入力し、前記評価データに関する前記潜在変数を取得する第7ステップと、
前記第7ステップによって取得された前記潜在変数と、前記MFCVAEのモデル学習の最終エポック時における前記回帰係数とに基づいて、前記評価データの前記属性値が付与されていない前記属性の前記属性値の予測値を算出して該評価データに該属性値として付与する第8ステップと、を実行することを特徴とする情報処理方法。 The information processing method according to claim 1,
The input data includes the reference data and evaluation data in which the attribute value is not assigned to the attribute,
The processing unit,
a seventh step of inputting the evaluation data into the MFCVAE that has undergone model learning by repeating the first step to the sixth step, and acquiring the latent variables related to the evaluation data;
Based on the latent variable obtained in the seventh step and the regression coefficient at the final epoch of model learning of the MFCVAE, calculate the attribute value of the attribute to which the attribute value of the evaluation data is not assigned. An information processing method, comprising: calculating a predicted value and assigning the predicted value to the evaluation data as the attribute value.
前記処理部が、
前記基準データと前記第8ステップによって前記予測値が付与された前記評価データとの前記属性及び前記属性値に関する情報を出力する第9ステップ、を実行することを特徴とする情報処理方法。 The information processing method according to claim 8,
The processing unit,
An information processing method characterized by executing a ninth step of outputting information regarding the attributes and attribute values of the reference data and the evaluation data to which the predicted value has been assigned in the eighth step.
前記処理部が、
前記基準データと前記第8ステップによって前記予測値が付与された前記評価データとを用いて、データの設計の十分性、データの被覆性、又はデータの均一性を含む観点に従って前記入力データを評価する第10ステップ、を実行することを特徴とする情報処理方法。 The information processing method according to claim 8,
The processing unit,
Evaluate the input data according to a viewpoint including the sufficiency of data design, data coverage, or data uniformity, using the reference data and the evaluation data to which the predicted value has been assigned in the eighth step. An information processing method characterized by performing a tenth step.
複数の前記情報処理システムの各前記処理部が、
前記第1ステップから前記第6ステップまでを、前記予測誤差又はエポック回数が所定条件を充足するまで繰り返すことで前記MFCVAEをモデル学習することを、それぞれ異なる前記入力データを用いて実行し、
各前記処理部によって得られた前記MFCVAEのモデルの学習結果をマージして出力する第11ステップ、を実行することを特徴とする情報処理方法。 The information processing method according to claim 1,
Each of the processing units of the plurality of information processing systems,
performing model learning of the MFCVAE by repeating the first step to the sixth step until the prediction error or the number of epochs satisfies a predetermined condition, using different input data;
An information processing method characterized by executing an eleventh step of merging and outputting the learning results of the MFCVAE model obtained by each of the processing units.
複数の前記情報処理システムの各前記処理部が、
前記第1ステップから前記第8ステップまでを、それぞれ異なる前記入力データを用いて実行し、
各前記処理部によって得られた、前記基準データと前記第8ステップによって前記予測値が付与された前記評価データの前記属性及び前記属性値に関する情報をマージして出力する第12ステップ、を実行することを特徴とする情報処理方法。 The information processing method according to claim 8,
Each of the processing units of the plurality of information processing systems,
Performing the first step to the eighth step using different input data,
performing a twelfth step of merging and outputting information regarding the attribute and the attribute value of the reference data obtained by each of the processing units and the evaluation data to which the predicted value has been assigned in the eighth step; An information processing method characterized by:
前記処理部が、
指定された前記属性及び前記属性値を、前記第1ステップから前記第6ステップまでを繰り返すことでモデル学習済みの前記MFCVAEに入力し、入力された前記属性及び前記属性値と前記回帰係数とから前記潜在変数を算出し、該潜在変数を基に、入力された前記属性及び前記属性値に対応する前記データを再構成する第13ステップ、を実行することを特徴とする情報処理方法。 The information processing method according to claim 1,
The processing unit,
The specified attributes and attribute values are input into the model-trained MFCVAE by repeating the first step to the sixth step, and from the input attributes and attribute values and the regression coefficients. An information processing method characterized by executing a thirteenth step of calculating the latent variable and reconstructing the data corresponding to the input attribute and attribute value based on the latent variable.
前記処理部が、
前記指定された前記属性及び前記属性値に該当する前記基準データが存在する場合には、該基準データに対応する前記データを再構成したデータとして採用し、
前記指定された前記属性及び前記属性値に該当する前記基準データが存在しない場合に、前記第13ステップを実行する、ことを特徴とする情報処理方法。 The information processing method according to claim 13,
The processing unit,
If the reference data corresponding to the specified attribute and attribute value exists, the data corresponding to the reference data is adopted as reconstructed data,
An information processing method characterized in that the thirteenth step is executed when the reference data corresponding to the specified attribute and attribute value does not exist.
前記基準データは活字及び手書き文字を含み、前記評価データは手書き文字を含む、ことを特徴とする情報処理方法。 The information processing method according to claim 1,
An information processing method characterized in that the reference data includes printed characters and handwritten characters, and the evaluation data includes handwritten characters.
前記入力データの入力に対して前記MFCVAEから出力された前記潜在変数を説明変数とし、前記属性値を目的変数とする回帰モデルを前記属性毎に設定し、
前記潜在変数と前記属性値とから、該属性値に対する予測誤差が最小となる前記属性値の予測値及び前記回帰モデルの回帰係数を前記属性毎に算出し、
算出された前記属性毎の前記予測値及び前記回帰係数に基づいて、前記潜在変数及び前記属性値の前記回帰モデルへの適合が良いほど小さい値を取る指標を前記属性毎に算出する回帰モデル適合度評価部と、
前記MFCVAEによるデータ再構成の誤差を表す再構成誤差項と、前記潜在変数の分布に制約を与える正則化項と、を有する前記MFCVAEの損失関数に、前記属性毎の前記指標に基づく追加項を追加した損失関数の関数値を算出する損失算出部と、
前記損失算出部によって算出された前記関数値に基づく誤差逆伝搬によって前記MFCVAEのモデルパラメータを更新するモデル更新部と、を有し、
前記回帰モデル適合度評価部、前記損失算出部、及び前記モデル更新部は、前記予測誤差又はエポック回数が所定条件を充足するまでこの順序で処理を順次繰り返すことで前記MFCVAEのモデル学習を実行する、ことを特徴とする情報処理システム。 Input data including reference data in which attribute values are assigned to multiple attributes of the data is input to an MFCVAE (Multi-Facet Clustering Variational Auto-Encoder) that outputs latent variables for each of the multiple attributes of the data. death,
setting a regression model for each attribute, using the latent variable output from the MFCVAE as an explanatory variable and the attribute value as an objective variable in response to the input data;
From the latent variable and the attribute value, calculate for each attribute a predicted value of the attribute value and a regression coefficient of the regression model that minimizes the prediction error for the attribute value,
Regression model adaptation that calculates, for each attribute, an index that takes a smaller value as the latent variable and the attribute value fit better to the regression model, based on the calculated predicted value and regression coefficient for each attribute. degree evaluation department,
An additional term based on the index for each attribute is added to the loss function of the MFCVAE, which has a reconstruction error term representing an error in data reconstruction by the MFCVAE, and a regularization term that constrains the distribution of the latent variable. a loss calculation unit that calculates a function value of the added loss function;
a model updating unit that updates model parameters of the MFCVAE by error backpropagation based on the function value calculated by the loss calculation unit;
The regression model fitness evaluation unit, the loss calculation unit, and the model update unit execute the MFCVAE model learning by sequentially repeating the process in this order until the prediction error or the number of epochs satisfies a predetermined condition. , an information processing system characterized by:
前記コンピュータを、
データの複数の属性に属性値が付与されている基準データを含んだ入力データを、該データの前記複数の属性のそれぞれに関する潜在変数を出力するMFCVAE(Multi-Facet Clustering Variational Auto-Encoder)に入力し、
前記入力データの入力に対して前記MFCVAEから出力された前記潜在変数を説明変数とし、前記属性値を目的変数とする回帰モデルを前記属性毎に設定し、
前記潜在変数と前記属性値とから、該属性値に対する予測誤差が最小となる前記属性値の予測値及び前記回帰モデルの回帰係数を前記属性毎に算出し、
算出された前記属性毎の前記予測値及び前記回帰係数に基づいて、前記潜在変数及び前記属性値の前記回帰モデルへの適合が良いほど小さい値を取る指標を前記属性毎に算出する回帰モデル適合度評価部と、
前記MFCVAEによるデータ再構成の誤差を表す再構成誤差項と、前記潜在変数の分布に制約を与える正則化項と、を有する前記MFCVAEの損失関数に、前記属性毎の前記指標に基づく追加項を追加した損失関数の関数値を算出する損失算出部と、
前記損失算出部によって算出された前記関数値に基づく誤差逆伝搬によって前記MFCVAEのモデルパラメータを更新するモデル更新部と、して機能させ、
前記回帰モデル適合度評価部、前記損失算出部、及び前記モデル更新部は、前記予測誤差又はエポック回数が所定条件を充足するまでこの順序で処理を順次繰り返すことで前記MFCVAEのモデル学習を実行する、ことを特徴とする情報処理プログラム。
An information processing program for making a computer function as an information processing system,
The computer,
Input data including reference data in which attribute values are assigned to multiple attributes of the data is input to an MFCVAE (Multi-Facet Clustering Variational Auto-Encoder) that outputs latent variables for each of the multiple attributes of the data. death,
setting a regression model for each attribute, using the latent variable output from the MFCVAE as an explanatory variable and the attribute value as an objective variable in response to the input data;
From the latent variable and the attribute value, calculate for each attribute a predicted value of the attribute value and a regression coefficient of the regression model that minimizes the prediction error for the attribute value,
Regression model adaptation that calculates, for each attribute, an index that takes a smaller value as the latent variable and the attribute value fit better to the regression model, based on the calculated predicted value and regression coefficient for each attribute. degree evaluation department,
An additional term based on the index for each attribute is added to the loss function of the MFCVAE, which has a reconstruction error term representing an error in data reconstruction by the MFCVAE, and a regularization term that constrains the distribution of the latent variable. a loss calculation unit that calculates a function value of the added loss function;
functioning as a model updating unit that updates model parameters of the MFCVAE by error backpropagation based on the function value calculated by the loss calculation unit;
The regression model fitness evaluation unit, the loss calculation unit, and the model update unit execute the MFCVAE model learning by sequentially repeating the process in this order until the prediction error or the number of epochs satisfies a predetermined condition. , an information processing program characterized by:
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022133545A JP2024030579A (en) | 2022-08-24 | 2022-08-24 | Information processing method, information processing system, and information processing program |
PCT/JP2023/005451 WO2024042736A1 (en) | 2022-08-24 | 2023-02-16 | Information processing method, information processing system, and information processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022133545A JP2024030579A (en) | 2022-08-24 | 2022-08-24 | Information processing method, information processing system, and information processing program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024030579A true JP2024030579A (en) | 2024-03-07 |
Family
ID=90012866
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022133545A Pending JP2024030579A (en) | 2022-08-24 | 2022-08-24 | Information processing method, information processing system, and information processing program |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2024030579A (en) |
WO (1) | WO2024042736A1 (en) |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7218624B2 (en) * | 2019-03-08 | 2023-02-07 | 富士通株式会社 | Data processing program and data processing method |
-
2022
- 2022-08-24 JP JP2022133545A patent/JP2024030579A/en active Pending
-
2023
- 2023-02-16 WO PCT/JP2023/005451 patent/WO2024042736A1/en unknown
Also Published As
Publication number | Publication date |
---|---|
WO2024042736A1 (en) | 2024-02-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20200401939A1 (en) | Systems and methods for preparing data for use by machine learning algorithms | |
US20190354810A1 (en) | Active learning to reduce noise in labels | |
Anguita et al. | Theoretical and practical model selection methods for support vector classifiers | |
JP6182242B1 (en) | Machine learning method, computer and program related to data labeling model | |
CN110210625B (en) | Modeling method and device based on transfer learning, computer equipment and storage medium | |
US20190122097A1 (en) | Data analysis apparatus, data analysis method, and data analysis program | |
CN110046707B (en) | Evaluation optimization method and system of neural network model | |
US11373117B1 (en) | Artificial intelligence service for scalable classification using features of unlabeled data and class descriptors | |
WO2019160003A1 (en) | Model learning device, model learning method, and program | |
CN108898181B (en) | Image classification model processing method and device and storage medium | |
CN111160959B (en) | User click conversion prediction method and device | |
CN113377964B (en) | Knowledge graph link prediction method, device, equipment and storage medium | |
KR20180082904A (en) | Imgae analysis method for extracting feature of image and apparatus therefor | |
US20220414470A1 (en) | Multi-Task Attention Based Recurrent Neural Networks for Efficient Representation Learning | |
CN114255381B (en) | Training method of image recognition model, image recognition method, device and medium | |
JP2019086979A (en) | Information processing device, information processing method, and program | |
US20220327394A1 (en) | Learning support apparatus, learning support methods, and computer-readable recording medium | |
WO2017188048A1 (en) | Preparation apparatus, preparation program, and preparation method | |
JP4140915B2 (en) | A system that supports user behavior | |
US20220351055A1 (en) | Data diversity visualization and quantification for machine learning models | |
Wu et al. | A novel method of data and feature enhancement for few-shot image classification | |
WO2024042736A1 (en) | Information processing method, information processing system, and information processing program | |
JP2010272004A (en) | Discriminating apparatus, discrimination method, and computer program | |
EP4064038B1 (en) | Automated generation and integration of an optimized regular expression | |
JP6947460B1 (en) | Programs, information processing equipment, and methods |