JP6921526B2 - Information processing equipment, information processing methods and programs - Google Patents

Information processing equipment, information processing methods and programs Download PDF

Info

Publication number
JP6921526B2
JP6921526B2 JP2016249168A JP2016249168A JP6921526B2 JP 6921526 B2 JP6921526 B2 JP 6921526B2 JP 2016249168 A JP2016249168 A JP 2016249168A JP 2016249168 A JP2016249168 A JP 2016249168A JP 6921526 B2 JP6921526 B2 JP 6921526B2
Authority
JP
Japan
Prior art keywords
data
neural network
information
learning
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016249168A
Other languages
Japanese (ja)
Other versions
JP2018106237A (en
JP2018106237A5 (en
Inventor
裕一郎 飯尾
裕一郎 飯尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016249168A priority Critical patent/JP6921526B2/en
Publication of JP2018106237A publication Critical patent/JP2018106237A/en
Publication of JP2018106237A5 publication Critical patent/JP2018106237A5/ja
Application granted granted Critical
Publication of JP6921526B2 publication Critical patent/JP6921526B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)

Description

本発明は、複数の異なる教師情報を用いて学習したニューラルネットワークを用いて、入力データの統計処理値などの統計情報を推定する技術に関する。 The present invention relates to a technique for estimating statistical information such as statistically processed values of input data using a neural network learned using a plurality of different teacher information.

近年、多層構造のニューラルネットワークを利用して、入力データに関連する情報の推定を行う試みが多くなされている。推定される情報としては、例えば、画像データの撮影シーン情報や画像中に含まれるオブジェクト情報等があげられる。非特許文献1には、多層ニューラルネットワークを用いて、画像中に含まれるオブジェクトのカテゴリを推定する技術が開示されている。 In recent years, many attempts have been made to estimate information related to input data by using a multi-layered neural network. Examples of the estimated information include shooting scene information of image data, object information included in the image, and the like. Non-Patent Document 1 discloses a technique for estimating the category of an object included in an image by using a multi-layer neural network.

“Imagenet classification with deep convolutional neural networks”, A Krizhevsky, I Sutskever, GE Hinton − Advances in NIPS, 2012"Image classification with deep convolutional neural networks", A Krizhevsky, I Sutskever, GE Hinton-Advances in NIPS, 2012

一方で、入力データに対して推定すべき情報が統計情報である場合に、学習の際に教師データが統計処理により情報が圧縮されていると、精度よく推定出来ない場合もある。一例として、画像データ(写真)の評価スコアの推定が挙げられる。この事例では、まず、ユーザがデータに対してある評価基準(例えば、写真データに対して上手か下手かを5点満点で評価すること)でスコアを付ける。このときに、写真の評価スコアを複数のユーザによる5段階評価の結果の平均値とする。例えば、5人のユーザが1点に投票し5人のユーザが5点に投票した写真Aと、10人のユーザが3点に投票した写真Bを考えると、写真Aと写真Bの評価スコアはいずれも3点となる。そして、ユーザの評価分布が全く異なる写真Aと写真Bとを同一のスコアを持つデータとみなして学習を行うことにより、未知の入力データ(写真)のスコアの推定精度に問題が生じる場合がある。 On the other hand, when the information to be estimated for the input data is statistical information, if the teacher data is compressed by statistical processing during learning, it may not be possible to estimate accurately. One example is the estimation of the evaluation score of image data (photograph). In this case, the user first scores the data according to a certain evaluation standard (for example, evaluating whether the photographic data is good or bad on a scale of 5 points). At this time, the evaluation score of the photograph is taken as the average value of the results of the five-stage evaluation by a plurality of users. For example, considering Photo A in which 5 users voted for 1 point and 5 users voted for 5 points, and Photo B in which 10 users voted for 3 points, the evaluation scores of Photo A and Photo B are considered. Are all 3 points. Then, by performing learning by regarding Photo A and Photo B, which have completely different user evaluation distributions, as data having the same score, there may be a problem in the estimation accuracy of the score of unknown input data (photo). ..

そこで、本発明は、入力データの統計情報を精度よく推定できるようにすることを目的とする。 Therefore, an object of the present invention is to enable accurate estimation of statistical information of input data.

上記課題を解決するために、本発明は、
複数の評価が行われた第1の学習データおよび第2の学習データであって、前記複数の評価の分布である第1の教師情報と、前記第1の学習データおよび第2の学習データの前記複数の評価の差を示す第2の教師情報を含む、前記第1の学習データおよび前記第2の学習データを入力する入力手段と、
入力されたデータに対する評価の分布の推論する第1のニューラルネットワークおよび、前記第1のニューラルネットワークによる2つのデータに対する推論結果を統合した統合データを入力として当該2つのデータの評価の差を推論する第2のニューラルネットワークの学習を前記第1の学習データおよび前記第2の学習データに基づいて行う学習手段と、を有し、
前記学習手段は、
前記第1のニューラルネットワークに、前記第1の学習データの入力に対する出力である第1の推定情報を出力させ、
前記第1のニューラルネットワークに、前記第2の学習データの入力に対する出力である第2の推定情報を出力させ、
前記第2のニューラルネットワークに、前記第1の推定情報と前記第2の推定情報とを統合した統合データの入力に対する出力である第3の推定情報を出力させ、(S710〜S712)
前記第1の学習データの前記第1の教師情報と前記第1の推定情報との第1の誤差と、前記第2の教師情報と前記第3の推定情報との第2の誤差と、に基づいて前記第1のニューラルネットワークの学習を行い、
前記第2の学習データの前記第1の教師情報と前記第2の推定情報との第3の誤差と、前記第2の誤差と、に基づいて前記第1のニューラルネットワークの学習を行い、
前記第2の誤差に基づいて、前記第2のニューラルネットワークの学習を行うことを特徴とする。
In order to solve the above problems, the present invention
The first training data and the second training data in which a plurality of evaluations have been performed, the first teacher information which is the distribution of the plurality of evaluations, and the first training data and the second training data. An input means for inputting the first learning data and the second learning data , which includes the second teacher information indicating the difference between the plurality of evaluations.
The first neural network that infers the distribution of evaluations for the input data and the integrated data that integrates the inference results for the two data by the first neural network are used as inputs to infer the difference in evaluations of the two data. has a learning unit that performs, based on the second neural network the first learning of the learning data and the second learning data, a,
The learning means
The first neural network is made to output the first estimation information which is the output for the input of the first learning data.
The first neural network is made to output the second estimation information which is the output for the input of the second learning data.
The second neural network is made to output the third estimated information which is the output for the input of the integrated data in which the first estimated information and the second estimated information are integrated (S710 to S712).
A first error between the first of said first instruction information of the learning data and the first estimate information, and a second error between said second teacher information third estimation information, the Based on this, the first neural network is trained, and
Learning of the first neural network is performed based on the third error between the first teacher information and the second estimation information of the second learning data and the second error.
It is characterized in that learning of the second neural network is performed based on the second error.

本発明によれば、入力データの統計情報を精度よく推定できるようになる。 According to the present invention, the statistical information of the input data can be estimated accurately.

第1の実施形態に係る情報処理装置の概略ブロック図。The schematic block diagram of the information processing apparatus which concerns on 1st Embodiment. 従来の多層ニューラルネットワークの学習処理を説明する図。The figure explaining the learning process of the conventional multi-layer neural network. 第1の実施形態の多層ニューラルネットワークを説明する概略図。The schematic diagram explaining the multilayer neural network of 1st Embodiment. 第1の実施形態に係る情報処理装置による学習処理のフローチャート。The flowchart of the learning process by the information processing apparatus which concerns on 1st Embodiment. 第1の実施形態における統計情報推定部よる推定処理のフローチャート。The flowchart of the estimation process by the statistical information estimation unit in 1st Embodiment. 第2の実施形態に係る情報処理装置の概略ブロック図。The schematic block diagram of the information processing apparatus which concerns on 2nd Embodiment. 第2の実施形態係る情報処理装置による学習処理のフローチャート。The flowchart of the learning process by the information processing apparatus which concerns on 2nd Embodiment. 第2の実施形態における推定処理のフローチャート。The flowchart of the estimation process in the 2nd Embodiment. 第2の実施形態において良悪指標の算出方法の一例を説明する図。The figure explaining an example of the calculation method of a good or bad index in 2nd Embodiment. 第1の実施形態の変形例の多層ニューラルネットワークを説明する概略図。The schematic diagram explaining the multi-layer neural network of the modification of the 1st Embodiment. 第2の実施形態の多層ニューラルネットワークを説明する概略図。The schematic diagram explaining the multi-layer neural network of the 2nd Embodiment.

[第1の実施形態]
以下、本発明の第1の実施形態の詳細について図面を参照しつつ説明する。本実施形態では、学習データに付随する教師統計情報として生情報と統計情報を持つ学習データセットで学習を行い、未知データの統計情報を推定する情報処理装置について説明する。
[First Embodiment]
Hereinafter, the details of the first embodiment of the present invention will be described with reference to the drawings. In this embodiment, an information processing device that performs learning with a learning data set having raw information and statistical information as teacher statistical information accompanying the learning data and estimates statistical information of unknown data will be described.

本実施形態において、生情報とは、編集や集計を行っていない初期状態の情報であり、統計情報とは、生情報に対して統計的な処理(統計処理)を行った情報である。一例として、あるデータに対してユーザが1点から5点の点数をつけて主観評価する事例が挙げられる。この事例では、生情報は複数のユーザによる5段階の主観評価結果の分布であり、統計情報とは、複数のユーザがつけたスコアの平均値等である。本実施形態では、予め生情報と統計情報とが教師情報として付与されたデータを用いて学習を行い、新たに未評価のデータが入力されたときに、そのデータの統計情報、すなわち平均スコアを推定する事例を例に説明を行う。 In the present embodiment, the raw information is information in the initial state that has not been edited or aggregated, and the statistical information is information that has been statistically processed (statistically processed) with respect to the raw information. As an example, there is a case where a user gives a score of 1 to 5 to a certain data and subjectively evaluates it. In this case, the raw information is the distribution of the subjective evaluation results in five stages by a plurality of users, and the statistical information is the average value of the scores given by the plurality of users. In the present embodiment, learning is performed using data to which raw information and statistical information are given as teacher information in advance, and when new unevaluated data is input, the statistical information of the data, that is, the average score is obtained. An explanation will be given using an example of estimation.

図1は、本実施形態に係る情報処理装置の機能構成を示す概略ブロック図である。図1において、情報処理装置100は、学習処理部110、および統計情報推定部120を備える。そして、学習処理部110は、教師情報として評価スコアの分布情報およびその平均値である平均スコアを持つ学習データ10を入力する入力手段と、平均スコアの推定を行う多層ニューラルネットワークの学習を行う学習手段としての機能を有する。また、学習済みニューラルネットワーク20を出力する出力手段としての機能を有する。また、統計情報推定部120は、未知データ30を入力する入力手段と、学習処理部110で学習した多層ニューラルネットワーク20に通すことで、未知データ30の統計情報である推定スコア40を推定する推定手段としての機能を有する。また、推定した推定スコア40を出力する出力する出力手段としての機能を有する。 FIG. 1 is a schematic block diagram showing a functional configuration of the information processing apparatus according to the present embodiment. In FIG. 1, the information processing device 100 includes a learning processing unit 110 and a statistical information estimation unit 120. Then, the learning processing unit 110 learns the input means for inputting the distribution information of the evaluation score as the teacher information and the learning data 10 having the average score which is the average value thereof, and the learning of the multi-layer neural network for estimating the average score. It has a function as a means. It also has a function as an output means for outputting the trained neural network 20. Further, the statistical information estimation unit 120 estimates the estimated score 40, which is the statistical information of the unknown data 30, by passing it through an input means for inputting the unknown data 30 and a multi-layer neural network 20 learned by the learning processing unit 110. It has a function as a means. It also has a function as an output means for outputting the estimated estimated score 40.

なお、本実施形態の情報処理装置は、CPU、ROM、RAM、HDD等のハードウェア構成を備え、CPUがROMやHD等に格納されたプログラムを実行することにより、例えば、上述の各機能構成や後述するフローチャートの処理が実現される。RAMは、CPUがプログラムを展開して実行するワークエリアとして機能する記憶領域を有する。ROMは、CPUが実行するプログラム等を格納する記憶領域を有する。HDは、CPUが処理を実行する際に要する各種のプログラムに関するデータ等を含む各種のデータを格納する記憶領域を有する。 The information processing device of the present embodiment has a hardware configuration such as a CPU, ROM, RAM, and HDD, and the CPU executes a program stored in the ROM, HD, or the like, so that, for example, each of the above-mentioned functional configurations is configured. And the processing of the flowchart described later is realized. The RAM has a storage area that functions as a work area in which the CPU develops and executes a program. The ROM has a storage area for storing a program or the like executed by the CPU. The HD has a storage area for storing various data including data related to various programs required when the CPU executes processing.

本実施形態の情報処理装置による学習処理の詳細について説明する前に、まず、図2を用いて、一般的な多層ニューラルネットワークについて説明する。図2(a)に示す一般的な多層ニューラルネットワーク210は、データを入力として受け取る入力層211、入力データから特徴抽出を行う複数の中間層212、および推定結果を出力する出力層213から構成される。そして、学習データが持つ教師情報と出力層から出力される推定結果から損失関数Eとによって誤差eを算出し、算出した誤差eに基づいて誤差逆伝搬法によってニューラルネットワーク210の結合重みを更新する。 Before explaining the details of the learning process by the information processing apparatus of the present embodiment, first, a general multi-layer neural network will be described with reference to FIG. The general multi-layer neural network 210 shown in FIG. 2A is composed of an input layer 211 that receives data as input, a plurality of intermediate layers 212 that extract features from the input data, and an output layer 213 that outputs estimation results. NS. Then, the error e is calculated by the loss function E from the teacher information contained in the training data and the estimation result output from the output layer, and the connection weight of the neural network 210 is updated by the error back propagation method based on the calculated error e. ..

図2(b)には、多層ニューラルネットワーク210の学習処理を示すフローチャートを示す。まず、ステップS301では、予め用意された複数の学習データから1枚の学習データを選択し、入力層211に入力する。なお、各学習データには教師情報y_gtが付与されている。 FIG. 2B shows a flowchart showing the learning process of the multi-layer neural network 210. First, in step S301, one learning data is selected from a plurality of learning data prepared in advance and input to the input layer 211. The teacher information y_gt is added to each learning data.

ステップS302では、中間層212に入力された学習データの特徴抽出を行う。入力データからどのような特徴量を抽出すべきかを自動的に学習することが多層ニューラルネットワークの大きな特徴であり、特徴抽出のための各層の結合重みを探索することが多層ニューラルネットワークの学習処理の目的である。 In step S302, the features of the learning data input to the intermediate layer 212 are extracted. A major feature of a multi-layer neural network is to automatically learn what features should be extracted from the input data, and searching for the connection weight of each layer for feature extraction is the learning process of the multi-layer neural network. The purpose.

ステップS303では、出力層213において、中間層212で抽出した特徴量に基づいて入力された学習データに対する推定結果y_estが出力される。 In step S303, the output layer 213 outputs the estimation result y_est for the training data input based on the feature amount extracted by the intermediate layer 212.

ステップS304では、予め定義された損失関数E(y_gt,y_est)を用いて、入力された学習データの教師情報y_gtとステップS303で推定した推定結果y_estとの誤差eを算出する。この誤差eを算出する損失関数E(y_gt,y_est)は、推定すべき問題に応じて設定することができ、例えば最小二乗誤差を用いることができる。 In step S304, the error e between the teacher information y_gt of the input learning data and the estimation result y_est estimated in step S303 is calculated using the loss function E (y_gt, y_est) defined in advance. The loss function E (y_gt, y_est) for calculating this error e can be set according to the problem to be estimated, and for example, the least squares error can be used.

ステップS305では、算出した誤差eに基づいて誤差逆伝播法により各中間層の結合重みを更新する。ステップS306では、学習の終了条件が満たされているか否かを確認し、満たされている場合には学習を終了する。一方、終了条件が満たされていない場合には、ステップS301に戻り、学習を継続する。終了条件としては、任意の条件が設定可能であり、例えば誤差eがあらかじめ設定した閾値未満かどうか、学習の繰り返し回数がユーザの指定した回数に達したかどうか、といった条件が設定される。 In step S305, the coupling weight of each intermediate layer is updated by the error backpropagation method based on the calculated error e. In step S306, it is confirmed whether or not the learning end condition is satisfied, and if it is satisfied, the learning is ended. On the other hand, if the end condition is not satisfied, the process returns to step S301 and learning is continued. As the end condition, any condition can be set. For example, a condition such as whether the error e is less than a preset threshold value and whether the number of times of learning is repeated reaches the number of times specified by the user is set.

以上の処理により、多層ニューラルネットワーク210の学習が行われる。そして、未知データを推定する際には、学習した多層ニューラルネットワークに未知データを入力することで入力データの推定結果y_estが出力される。このように、一般的な多層ニューラルネットワークでは未知データに対して、直接、統計情報である平均スコアを推定する。 By the above processing, the multi-layer neural network 210 is learned. Then, when estimating the unknown data, the estimation result y_est of the input data is output by inputting the unknown data into the learned multi-layer neural network. In this way, in a general multi-layer neural network, the average score, which is statistical information, is directly estimated for unknown data.

これに対し、本実施形態では、2つの異なる構造を持つ多層ニューラルネットワークを直列に結合したニューラルネットワークを用いる。図3には、本実施形態における多層ニューラルネットワーク220の構成の一例を示す。多層ニューラルネットワーク220は、第1のニューラルネットワーク220a、第2のニューラルネットワーク220bと、それぞれのニューラルネットワークにおける推定情報と教師情報との誤差を算出する損失関数E1、損失関数E2とから成る。 On the other hand, in this embodiment, a neural network in which two multi-layer neural networks having two different structures are connected in series is used. FIG. 3 shows an example of the configuration of the multi-layer neural network 220 according to the present embodiment. The multi-layer neural network 220 includes a first neural network 220a and a second neural network 220b, and a loss function E1 and a loss function E2 for calculating the error between the estimated information and the teacher information in each neural network.

図4は、本実施形態における学習処理部110による多層ニューラルネットワーク220の学習処理のフローチャートである。図4において、ステップS401では、予め用意された複数の学習データから1枚の学習データを選択し、第1のニューラルネットワーク220aの入力層に入力する。なお、各学習データは教師スコア分布d_gtおよび教師平均スコアa_gtを有する。 FIG. 4 is a flowchart of the learning process of the multi-layer neural network 220 by the learning process unit 110 in the present embodiment. In FIG. 4, in step S401, one learning data is selected from a plurality of training data prepared in advance and input to the input layer of the first neural network 220a. Each learning data has a teacher score distribution d_gt and a teacher average score a_gt.

ステップS402では、第1のニューラルネットワーク220aの中間層において入力された学習データの特徴抽出を行う。ステップS403では、第1のニューラルネットワーク220aの出力層において推定生情報として推定スコア分布d_estが出力される。本実施形態では、教師生情報は複数ユーザによる5段階の主観評価結果の分布であるので、d_estは、例えば5次元ベクトルとして出力される。このとき、ベクトルの各次元の値は1点から5点までの各スコアを選択したユーザの割合を表す実数となっている。 In step S402, feature extraction of the training data input in the intermediate layer of the first neural network 220a is performed. In step S403, the estimated score distribution d_est is output as estimated raw information in the output layer of the first neural network 220a. In the present embodiment, since the teacher student information is a distribution of the subjective evaluation results in five stages by a plurality of users, d_est is output as, for example, a five-dimensional vector. At this time, the value of each dimension of the vector is a real number representing the ratio of users who have selected each score from 1 point to 5 points.

ステップS404では、予め定義された損失関数E1(d_gt,d_est)を用いて、入力された学習データの教師スコア分布d_gtとステップS403で推定した推定スコア分布d_estとの誤差e1を算出する。 In step S404, the error e1 between the teacher score distribution d_gt of the input learning data and the estimated score distribution d_est estimated in step S403 is calculated using the loss function E1 (d_gt, d_est) defined in advance.

ステップS405では、ステップS403で出力した推定スコア分布d_estを、第2のニューラルネットワーク220bの入力層に入力する。なお、ここでは、第1のニューラルネットワーク220aにおける出力層と第2のニューラルネットワーク220bにおける入力層とを別々の層としたが、これらの層は同一の層であっても構わない。つまり、第1のニューラルネットワーク220aの出力層における出力を第2のニューラルネットワーク220bの中間層に直接入力しても構わない。 In step S405, the estimated score distribution d_est output in step S403 is input to the input layer of the second neural network 220b. Although the output layer in the first neural network 220a and the input layer in the second neural network 220b are separate layers here, these layers may be the same layer. That is, the output in the output layer of the first neural network 220a may be directly input to the intermediate layer of the second neural network 220b.

ステップS406では、第2のニューラルネットワーク220bの中間層において入力された推定スコア分布の特徴抽出を行う。ステップS407では、第2のニューラルネットワーク220bの出力層において推定スコアa_estが出力される。 In step S406, the feature extraction of the estimated score distribution input in the intermediate layer of the second neural network 220b is performed. In step S407, the estimated score a_est is output in the output layer of the second neural network 220b.

ステップS408では、予め定義された損失関数E2(a_gt,a_est)を用いて、入力された学習データの教師平均スコアa_gtとステップS407で推定した推定スコアa_estとの誤差e2を算出する。ステップS409では、ステップS408で算出した誤差e2に基づいて誤差逆伝播法により第2のニューラルネットワーク220bの各層の結合重みを更新する。 In step S408, the error e2 between the teacher average score a_gt of the input learning data and the estimated score a_est estimated in step S407 is calculated using the predefined loss function E2 (a_gt, a_est). In step S409, the connection weight of each layer of the second neural network 220b is updated by the error backpropagation method based on the error e2 calculated in step S408.

ステップS410では、ステップS404で算出した誤差e1およびステップS408で算出した誤差e2に基づいて、誤差逆伝搬法により第1のニューラルネットワーク220aの各層の結合重みを更新する。第1のニューラルネットワーク220aは、推定スコア分布と教師スコア分布の誤差に加えて、第2のニューラルネットワーク220bから伝播されてきた誤差も考慮した適切な重みの探索を行うことになる。 In step S410, the connection weight of each layer of the first neural network 220a is updated by the error back propagation method based on the error e1 calculated in step S404 and the error e2 calculated in step S408. The first neural network 220a searches for an appropriate weight in consideration of the error propagated from the second neural network 220b in addition to the error between the estimated score distribution and the teacher score distribution.

ステップS411では、学習の終了条件が満たされているか否かを確認し、満たされている場合には学習を終了する。一方、終了条件が満たされていない場合には、ステップS401に戻り、学習を継続する。 In step S411, it is confirmed whether or not the learning end condition is satisfied, and if it is satisfied, the learning is ended. On the other hand, if the end condition is not satisfied, the process returns to step S401 and learning is continued.

以上の処理により、学習処理部110では未知データの統計情報である評価スコアを推定する多層ニューラルネットワーク220の学習が行われ、それが学習済ニューラルネットワーク20として出力される。 Through the above processing, the learning processing unit 110 learns the multi-layer neural network 220 that estimates the evaluation score, which is statistical information of unknown data, and outputs it as the trained neural network 20.

続いて、図5を用いて、本実施形態における統計情報推定部120による推定処理の詳細について説明する。図5において、ステップS501では、ユーザが選択した未知データを学習済ニューラルネットワーク20の入力層に入力する。ステップS502では、学習済ニューラルネットワーク20の中間層において入力された未知データの特徴抽出を行う。ステップS503では、学習済ニューラルネットワーク20の出力層において推定スコアが出力される。なお、第1のニューラルネットワーク220aの出力値を推定生情報として出力し、ユーザに提示してもよい。 Subsequently, the details of the estimation process by the statistical information estimation unit 120 in the present embodiment will be described with reference to FIG. In FIG. 5, in step S501, unknown data selected by the user is input to the input layer of the trained neural network 20. In step S502, feature extraction of unknown data input in the intermediate layer of the trained neural network 20 is performed. In step S503, the estimated score is output in the output layer of the trained neural network 20. The output value of the first neural network 220a may be output as estimated raw information and presented to the user.

本実施形態によれば、学習時に生情報と統計情報とを同時に学習し、推定した生情報を利用して統計情報を推定するニューラルネットワークを用いることで、未知データの統計情報を精度よく推定することが可能になる。なお、本実施形態では、学習処理と推定処理を単一の情報処理装置により行う構成としたが、各処理を別体の情報処理装置により行うようにしてもよい。 According to this embodiment, the statistical information of unknown data is estimated accurately by using a neural network that simultaneously learns raw information and statistical information at the time of learning and estimates the statistical information using the estimated raw information. Will be possible. In the present embodiment, the learning process and the estimation process are performed by a single information processing device, but each process may be performed by a separate information processing device.

[変形例]
上記実施形態で説明した多層ニューラルネットワーク220は、入力データから推定した推定生情報に基づいて、統計情報の推定を行った。これに対し、本変形例の多層ニューラルネットワーク230は、図10に示すように、学習データと推定生情報を併用して統計情報の推定を行う。
[Modification example]
The multi-layer neural network 220 described in the above embodiment estimates the statistical information based on the estimated raw information estimated from the input data. On the other hand, as shown in FIG. 10, the multi-layer neural network 230 of the present modification estimates the statistical information by using the training data and the estimated raw information together.

図10に示す多層ニューラルネットワーク230は、学習データを入力として推定生情報を出力する第1のニューラルネットワーク230aと、学習データを入力として推定統計情報を出力する第2のニューラルネットワーク230bとから成る。第2のニューラルネットワークは、適当な中間層において抽出した特徴量と第1のニューラルネットワークから出力される推定生情報を結合する。例えば、出力が1000次元である中間層Xで抽出された特徴量と5次元の推定生情報を結合する場合、中間層Xの次の層に入力される特徴量は1005次元となる。このように、本変形例の第2のニューラルネットワーク230bは、学習データから抽出した特徴量と推定生情報を特徴量として学習を行う。 The multi-layer neural network 230 shown in FIG. 10 includes a first neural network 230a that outputs estimated raw information by inputting training data, and a second neural network 230b that outputs estimated statistical information by inputting training data. The second neural network combines the features extracted in the appropriate intermediate layer with the estimated raw information output from the first neural network. For example, when the feature amount extracted by the intermediate layer X whose output is 1000 dimensions and the estimated raw information of 5 dimensions are combined, the feature amount input to the next layer of the intermediate layer X is 1005 dimensions. As described above, the second neural network 230b of the present modification performs learning using the feature amount extracted from the training data and the estimated raw information as the feature amount.

[第2の実施形態]
次に、本発明の第2の実施形態について説明する。第1の実施形態では、ある1つの入力データの統計情報の推定に用いる生情報の推定を第1の多層ニューラルネットワークで行い、その推定結果を第2の多層ニューラルネットワークに入力することで統計情報の推定精度の向上を図っている。これに対し、本実施形態では、2つの異なる入力データの生情報をそれぞれ推定し、2つのデータの統計情報としていずれのデータがどの程度、勝っているかといったデータの評価の良し悪しの程度を推定する。更には、学習データペアの推定結果を利用することで、未知データセットから良データ(特定クラス)の選択を行う例についても説明する。
[Second Embodiment]
Next, a second embodiment of the present invention will be described. In the first embodiment, the raw information used for estimating the statistical information of a certain input data is estimated by the first multi-layer neural network, and the estimation result is input to the second multi-layer neural network to obtain the statistical information. We are trying to improve the estimation accuracy of. On the other hand, in the present embodiment, the raw information of the two different input data is estimated, and the degree of good or bad of the evaluation of the data such as which data is superior and how much is superior as the statistical information of the two data is estimated. do. Furthermore, an example of selecting good data (specific class) from an unknown data set by using the estimation result of the training data pair will also be described.

以下、本実施形態では、あるデータに対して複数のユーザが5段階で評価した評価結果の分布を生情報とし、2つのデータの平均スコアの差分を統計情報としたときに、未知のデータペアのスコアの大小を推定する。更に、その推定結果に基づいて、複数のデータから良データを選択する事例について説明を行う。 Hereinafter, in the present embodiment, when the distribution of evaluation results evaluated by a plurality of users on a five-point scale for a certain data is used as raw information and the difference between the average scores of the two data is used as statistical information, an unknown data pair is used. Estimate the magnitude of the score. Furthermore, an example of selecting good data from a plurality of data based on the estimation result will be described.

図6は、本実施形態に係る情報処理装置の機能構成を示す概略ブロック図である。図6において、情報処理装置600は、学習処理部610、統計情報推定部620、良データ選択部630を備える。 FIG. 6 is a schematic block diagram showing a functional configuration of the information processing apparatus according to the present embodiment. In FIG. 6, the information processing device 600 includes a learning processing unit 610, a statistical information estimation unit 620, and a good data selection unit 630.

学習処理部610は、学習データペアを入力として未知のデータペアの評価スコアの大小の程度を推定する多層ニューラルネットワークの学習を行う。学習データペアは、複数の学習データから選択された任意の2つのデータをペアにしたものである。学習データペアは、教師情報として各学習データの評価スコア分布および2つの学習データの平均スコアの差分を有している。 The learning processing unit 610 learns a multi-layer neural network that estimates the magnitude of the evaluation score of an unknown data pair by inputting the learning data pair. The training data pair is a pair of arbitrary two data selected from a plurality of training data. The learning data pair has the evaluation score distribution of each learning data and the difference between the average scores of the two learning data as teacher information.

統計情報推定部620は、未知のデータペア30を入力として、学習処理部610で学習済みの多層ニューラルネットワーク20に通すことで、未知のデータペア30のいずれのデータがどの程度スコアが高いかという良悪程度情報40を推定する。 The statistical information estimation unit 620 takes the unknown data pair 30 as an input and passes it through the multi-layer neural network 20 trained by the learning processing unit 610 to determine which data of the unknown data pair 30 has a high score. The good / bad degree information 40 is estimated.

良データ選択部630は、統計情報推定部620で推定した複数のデータペアの良悪程度情報40に基づいて、複数の学習データから一定数の良データを選択する。 The good data selection unit 630 selects a certain number of good data from a plurality of learning data based on the good / bad degree information 40 of the plurality of data pairs estimated by the statistical information estimation unit 620.

図11は、本実施形態における多層ニューラルネットワーク240の構成を示す図である。多層ニューラルネットワーク240は、学習データを入力として推定生情報を出力する第1のニューラルネットワークA 240a、第1のニューラルネットワークB 240bを有する。さらに、第1のニューラルネットワークそれぞれから出力される推定生情報を入力とし推定統計情報を出力する第2のニューラルネットワーク240c、それぞれの推定情報と教師情報との誤差を算出する損失関数E1、E2から成る。 FIG. 11 is a diagram showing the configuration of the multi-layer neural network 240 in this embodiment. The multi-layer neural network 240 has a first neural network A 240a and a first neural network B 240b that output estimated raw information by inputting learning data. Further, from the second neural network 240c that inputs the estimated raw information output from each of the first neural networks and outputs the estimated statistical information, and the loss functions E1 and E2 that calculate the error between each estimated information and the teacher information. Become.

次に、図7を用いて、本実施形態の学習処理部610による学習処理の詳細について説明する。図7において、ステップS701では、複数の学習データから任意の2枚の学習データを学習データペアとして選択する。 Next, the details of the learning process by the learning process unit 610 of the present embodiment will be described with reference to FIG. 7. In FIG. 7, in step S701, two arbitrary learning data are selected as the learning data pair from the plurality of learning data.

ステップS702〜ステップS705およびステップS706〜ステップS709は、それぞれ異なるニューラルネットワークである第1のニューラルネットワークA 240aおよび第1のニューラルネットワークB 240bにおいて並列に処理が行われる。ステップS702〜ステップS705では、学習データペアのいずれか一方の学習データを第1の学習データとして、第1のニューラルネットワークAにおいて処理が実行され、第1の推定スコア分布および誤差e1Aが出力される。 Steps S702 to S705 and steps S706 to S709 are processed in parallel in the first neural network A 240a and the first neural network B 240b, which are different neural networks, respectively. In steps S702 to S705, processing is executed in the first neural network A using the training data of either one of the training data pairs as the first training data, and the first estimated score distribution and the error e1A are output. ..

一方、ステップS706〜ステップS709では、学習データペアの他方の学習データを第2の学習データとして、第1のニューラルネットワークBにおいて処理が実行され、第2の推定スコア分布および誤差e1Bが出力される。ステップS702〜ステップS705およびステップS706〜ステップS709の各処理の詳細は、第1の実施形態におけるステップS401〜ステップS404と同様であるため、説明を省略する。なお、第1のニューラルネットワークA 240aと第1のニューラルネットワークB 240bは、いずれも未知データのスコア分布を推定するためのニューラルネットワークである。そのため、2つのニューラルネットワークのネットワーク構造は同一であることが望ましい。 On the other hand, in steps S706 to S709, processing is executed in the first neural network B using the other training data of the training data pair as the second training data, and the second estimated score distribution and the error e1B are output. .. The details of the processes of steps S702 to S705 and steps S706 to S709 are the same as those of steps S401 to S404 in the first embodiment, and thus the description thereof will be omitted. The first neural network A 240a and the first neural network B 240b are both neural networks for estimating the score distribution of unknown data. Therefore, it is desirable that the network structures of the two neural networks are the same.

ステップS710では、ステップS704で出力した第1の推定スコア分布とステップS708で出力した第2の推定スコア分布を結合し、第2のニューラルネットワーク240cの入力層に入力する。ステップS711では、第2のニューラルネットワークの中間層において入力された2つの推定スコア分布を結合した入力値の特徴抽出を行う。ステップS712では、第2のニューラルネットワーク240cの出力層において推定データペア良悪度合いが出力される。 In step S710, the first estimated score distribution output in step S704 and the second estimated score distribution output in step S708 are combined and input to the input layer of the second neural network 240c. In step S711, the feature extraction of the input value by combining the two estimated score distributions input in the intermediate layer of the second neural network is performed. In step S712, the estimated data pair good / bad degree is output in the output layer of the second neural network 240c.

ステップS713では、予め定義された損失関数を用いて入力された学習データペアの教師データペア良悪度合いとステップS712で推定した推定データペア良悪度合いの誤差e2を算出する。ステップS714では、算出した誤差e2に基づいて誤差逆伝播法により、第2のニューラルネットワーク240cの各層の結合重みを更新する。 In step S713, the error e2 between the teacher data pair good / bad degree of the learning data pair input using the predefined loss function and the estimated data pair good / bad degree estimated in step S712 is calculated. In step S714, the connection weight of each layer of the second neural network 240c is updated by the error backpropagation method based on the calculated error e2.

ステップS715では、ステップS705で算出した誤差e1AおよびステップS712で算出した誤差e2に基づいて誤差逆伝搬法により第1のニューラルネットワークA 240aの各層の結合重みを更新する。ステップS716では、ステップS705で算出した誤差e1BおよびステップS712で算出した誤差e2に基づいて誤差逆伝搬法により第1のニューラルネットワークB 240bの各層の結合重みを更新する。ステップS715およびステップS716は、並列に処理が実行される。 In step S715, the connection weight of each layer of the first neural network A 240a is updated by the error back propagation method based on the error e1A calculated in step S705 and the error e2 calculated in step S712. In step S716, the connection weight of each layer of the first neural network B 240b is updated by the error back propagation method based on the error e1B calculated in step S705 and the error e2 calculated in step S712. In steps S715 and S716, processing is executed in parallel.

ステップS717では、学習の終了条件が満たされているか否かを確認し、満たされている場合には学習を終了する。一方、終了条件が満たされていない場合には、ステップS701に戻り、新たな学習データペアを選択して学習を継続する。終了条件については第1の実施形態と同様であるため、説明を省略する。 In step S717, it is confirmed whether or not the learning end condition is satisfied, and if it is satisfied, the learning is ended. On the other hand, if the end condition is not satisfied, the process returns to step S701, a new learning data pair is selected, and learning is continued. Since the termination conditions are the same as those in the first embodiment, the description thereof will be omitted.

以上の処理によって、学習処理部610では未知のデータペアの良悪度合いを推定するための多層ニューラルネットワークの学習が行われ、学習済ニューラルネットワーク20が生成される。 By the above processing, the learning processing unit 610 learns the multi-layer neural network for estimating the quality of the unknown data pair, and the trained neural network 20 is generated.

続いて、図8を用いて、本実施形態における情報処理装置600による推定処理の詳細について説明する。図8において、ステップS801では、統計情報推定部620が、複数の未知データセットから任意のデータペアを選択する。ステップS802では、統計情報推定部620が、学習処理部610で学習されたニューラルネットワーク20を用いてステップS801で選択したデータペアの良悪度合いを推定する。 Subsequently, the details of the estimation process by the information processing apparatus 600 in the present embodiment will be described with reference to FIG. In FIG. 8, in step S801, the statistical information estimation unit 620 selects an arbitrary data pair from a plurality of unknown data sets. In step S802, the statistical information estimation unit 620 estimates the degree of quality of the data pair selected in step S801 using the neural network 20 learned by the learning processing unit 610.

ステップS803では、統計情報推定部620が、予め設定された終了条件が満たされているかを確認し、満たされている場合はステップS804に処理を進める。一方、終了条件が満たされていない場合はステップS801に戻って、未知データセットから異なるデータペアを選択する。終了条件は良データの選択手法に応じて任意の設定が可能である。例えば、良データ選択において未知データセットの全組み合わせにおける推定良悪度合いが必要である場合には、終了条件は「未評価のデータペアが存在しない」と設定される。 In step S803, the statistical information estimation unit 620 confirms whether the preset end condition is satisfied, and if so, proceeds to step S804. On the other hand, if the termination condition is not satisfied, the process returns to step S801 and a different data pair is selected from the unknown data set. The end condition can be arbitrarily set according to the selection method of good data. For example, when good data selection requires an estimated good or bad degree for all combinations of unknown data sets, the termination condition is set to "there are no unevaluated data pairs".

ステップS804では、良データ選択部630が、ステップS802で推定したデータペアの良悪度合いに基づいて各未知データの良悪指標を算出する。この良悪指標は、推定良悪度合いを用いた任意の方法で算出可能である。 In step S804, the good data selection unit 630 calculates the good / bad index of each unknown data based on the good / bad degree of the data pair estimated in step S802. This good / bad index can be calculated by an arbitrary method using the estimated good / bad degree.

図9に、データの良悪指標として各未知データとの推定良悪度合いの総和を用いたときの算出例を示す。図9はデータA〜データEの5つの未知データにおける各ペアの推定良悪度合いである。例えば、データAとデータBではデータAの方が評価スコアが1.3高く、データBとデータEではデータEの方が評価スコアが0.4高いという結果になっている。このとき、各データの良悪指標は、各データとの推定良悪度合いの値の総和となるので、データAの良悪指標は1.3+(−0.4)+2.0+0.2=3.1である。同様に、データBの良悪指標は−1.3+0.9+0.9+(−0.4)=0.1となり、データCは4.3、データDは−1.5、データEは−5.6となる。 FIG. 9 shows a calculation example when the sum of the estimated good / bad degrees with each unknown data is used as the good / bad index of the data. FIG. 9 shows the estimated quality of each pair in the five unknown data of data A to E. For example, in the data A and the data B, the evaluation score of the data A is 1.3 higher, and in the data B and the data E, the evaluation score of the data E is 0.4 higher. At this time, the good / bad index of each data is the sum of the values of the estimated good / bad degrees with each data, so the good / bad index of the data A is 1.3 + (−0.4) + 2.0 + 0.2 = 3. It is .1. Similarly, the good / bad index of data B is -1.3 + 0.9 + 0.9 + (-0.4) = 0.1, data C is 4.3, data D is -1.5, and data E is -5. It becomes 0.6.

ステップS805では、良悪指標に基づいて未知データから良データの選択を行う。選択基準はユーザの選択に応じて変更してよく、例えば未知データセット全体の上位X%、あるいはK枚、といった指定のときは良悪指標に基づいて未知データセットをソートして良悪指標の高い順に所定数のデータを選択すればよい。例えば、図9の例では、良悪指標値を高い順にソートすると、C>A>B>D>Eとなるので、2枚を選択したい場合にはデータA、データCが選択されることになる。また、枚数によらず一定の基準以上のデータを選択したい場合は、良悪指標に対して一定の閾値以上のデータを選択すればよい。例えば、図9の場合、閾値を0とすればデータA、データB、データCが選択される。 In step S805, good data is selected from unknown data based on the good / bad index. The selection criteria may be changed according to the user's selection. For example, when the top X% of the entire unknown data set or K sheets is specified, the unknown data set is sorted based on the good / bad index and the good / bad index is used. A predetermined number of data may be selected in descending order. For example, in the example of FIG. 9, when the good / bad index values are sorted in descending order, C> A> B> D> E. Therefore, when two sheets are to be selected, data A and data C are selected. Become. Further, when it is desired to select data having a certain standard or more regardless of the number of sheets, it is sufficient to select data having a certain threshold value or more for the good / bad index. For example, in the case of FIG. 9, if the threshold value is set to 0, data A, data B, and data C are selected.

本実施形態によれば、複数の未知データの統計情報を精度よく推定することができ、複数の未知データからある評価基準における評価の高いデータを精度よく抽出することが可能となる。 According to the present embodiment, it is possible to accurately estimate the statistical information of a plurality of unknown data, and it is possible to accurately extract highly evaluated data according to a certain evaluation standard from the plurality of unknown data.

[その他の実施形態]
また、本発明は、各実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPU等)がプログラムを読出し実行する処理である。また、本発明は、複数の機器から構成されるシステムに適用しても、1つの機器からなる装置に適用してもよい。本発明は上記実施例に限定されるものではなく、本発明の趣旨に基づき種々の変形(各実施例の有機的な組合せを含む)が可能であり、それらを本発明の範囲から除外するものではない。即ち、上述した各実施例及びその変形例を組み合わせた構成も全て本発明に含まれるものである。
[Other Embodiments]
Further, the present invention supplies software (program) that realizes the functions of each embodiment to a system or device via a network or various storage media, and a computer (or CPU, etc.) of the system or device reads the program. This is the process to be executed. Further, the present invention may be applied to a system composed of a plurality of devices or a device composed of one device. The present invention is not limited to the above examples, and various modifications (including organic combinations of each example) are possible based on the gist of the present invention, and these are excluded from the scope of the present invention. is not it. That is, all the configurations in which each of the above-described examples and modifications thereof are combined are also included in the present invention.

100 情報処理装置
110 学習処理部
120 統計情報推定部
100 Information processing device 110 Learning processing unit 120 Statistical information estimation unit

Claims (9)

複数の評価が行われた第1の学習データおよび第2の学習データであって、前記複数の評価の分布である第1の教師情報と、前記第1の学習データおよび第2の学習データの前記複数の評価の差を示す第2の教師情報とを含む、前記第1の学習データおよび前記第2の学習データを入力する入力手段と、
入力されたデータに対する評価の分布を推論する第1のニューラルネットワーク、および、前記第1のニューラルネットワークによる2つのデータに対する推論結果を統合した統合データを入力として当該2つのデータの評価の差を推論する第2のニューラルネットワークの学習を前記第1の学習データおよび前記第2の学習データに基づいて行う学習手段と、を有し、
前記学習手段は、
前記第1のニューラルネットワークに、前記第1の学習データの入力に対する出力である第1の推定情報を出力させ、
前記第1のニューラルネットワークに、前記第2の学習データの入力に対する出力である第2の推定情報を出力させ、
前記第2のニューラルネットワークに、前記第1の推定情報と前記第2の推定情報とを統合した統合データの入力に対する出力である第3の推定情報を出力させ、
前記第1の学習データの前記第1の教師情報と前記第1の推定情報との第1の誤差と、前記第2の教師情報と前記第3の推定情報との第2の誤差と、に基づいて前記第1のニューラルネットワークの学習を行い、
前記第2の学習データの前記第1の教師情報と前記第2の推定情報との第3の誤差と、前記第2の誤差と、に基づいて前記第1のニューラルネットワークの学習を行い、
前記第2の誤差に基づいて、前記第2のニューラルネットワークの学習を行うことを特徴とする情報処理装置。
The first learning data and the second learning data in which a plurality of evaluations have been performed, the first teacher information which is the distribution of the plurality of evaluations, and the first learning data and the second learning data. An input means for inputting the first learning data and the second learning data, including the second teacher information indicating the difference between the plurality of evaluations, and
The first neural network that infers the distribution of evaluations for the input data, and the integrated data that integrates the inference results for the two data by the first neural network are used as inputs to infer the difference in the evaluations of the two data. The second neural network is trained based on the first training data and the second training data.
The learning means
The first neural network is made to output the first estimation information which is the output for the input of the first learning data.
The first neural network is made to output the second estimation information which is the output for the input of the second learning data.
The second neural network is made to output the third estimation information which is the output for the input of the integrated data in which the first estimation information and the second estimation information are integrated.
The first error between the first teacher information and the first estimated information of the first learning data, and the second error between the second teacher information and the third estimated information. Based on this, the first neural network is trained, and
Learning of the first neural network is performed based on the third error between the first teacher information and the second estimation information of the second learning data and the second error.
An information processing apparatus characterized in that learning of the second neural network is performed based on the second error.
前記第1の教師情報は複数のユーザによる評価スコアの分布情報であり、前記第2の教師情報は前記第1の学習データと前記第2の学習データの前記評価スコアの平均値の差であることを特徴とする請求項1に記載の情報処理装置。 The first teacher information is distribution information of evaluation scores by a plurality of users, and the second teacher information is the difference between the average value of the evaluation scores of the first learning data and the second learning data. The information processing apparatus according to claim 1. 前記第1のニューラルネットワークは、それぞれ異なるニューラルネットワークである第1のニューラルネットワークAおよび第1のニューラルネットワークBを含み、
前記学習手段は、
前記第1のニューラルネットワークAに、前記第1の推定情報を出力させ、
前記第1のニューラルネットワークBに、前記第2の推定情報を出力させ、
前記第1の誤差と、前記第2の誤差と、に基づいて前記第1のニューラルネットワークAの学習を行い、
前記第3の誤差と、前記第2の誤差と、に基づいて前記第1のニューラルネットワークBの学習を行うことを特徴とする請求項1または2に記載の情報処理装置。
The first neural network includes a first neural network A and a first neural network B, which are different neural networks, respectively.
The learning means
The first neural network A is made to output the first estimation information, and the first estimation information is output.
The first neural network B is made to output the second estimation information, and the second estimation information is output.
Learning of the first neural network A is performed based on the first error and the second error.
The information processing apparatus according to claim 1 or 2, wherein the learning of the first neural network B is performed based on the third error and the second error.
請求項1から3のいずれか1項に記載の情報処理装置により学習された前記第1および第2のニューラルネットワークを用いて、2つのデータをペアとしたデータペアの評価の差を推定する推定手段を有することを特徴とする情報処理装置。 Estimating the difference in evaluation of a data pair in which two data are paired by using the first and second neural networks learned by the information processing apparatus according to any one of claims 1 to 3. An information processing device characterized by having means. 複数のデータペアに対する前記推定手段による推定結果に基づ、前記複数のデータペアに含まれるデータの良悪指標が所定の条件を満たすデータを選択する選択手段を更に有することを特徴とする請求項4に記載の情報処理装置。 Claims based rather on the estimation result by the estimating means to a plurality of data pairs, good bad indicator of the data contained in said plurality of data pairs, characterized by further comprising a selection means for selecting a predetermined condition is satisfied data Item 4. The information processing apparatus according to item 4. 前記所定の条件は、前記良悪指標が高い順から所定数以内であることであることを特徴とする請求項5に記載の情報処理装置。 The information processing apparatus according to claim 5, wherein the predetermined condition is that the good / bad index is within a predetermined number in descending order. 前記所定の条件は、前記良悪指標が所定の閾値以上であることを特徴とする請求項5に記載の情報処理装置。 The information processing apparatus according to claim 5, wherein the predetermined condition is such that the quality index is equal to or higher than a predetermined threshold value. 複数の評価が行われた第1の学習データおよび第2の学習データであって、前記複数の評価の分布である第1の教師情報と、前記第1の学習データおよび第2の学習データの前記複数の評価の差を示す第2の教師情報とを含む、前記第1の学習データおよび前記第2の学習データを入力する入力工程と、
入力されたデータに対する評価の分布の推論する第1のニューラルネットワーク、および、前記第1のニューラルネットワークによる2つのデータに対する推論結果を統合した統合データを入力として当該2つのデータの評価の差を推論する第2のニューラルネットワークの学習を前記第1の学習データおよび前記第2の学習データに基づいて行う学習工程と、を有し、
前記学習工程において、
前記第1のニューラルネットワークに、前記第1の学習データの入力に対する出力である第1の推定情報を出力させ、
前記第1のニューラルネットワークに、前記第2の学習データの入力に対する出力である第2の推定情報を出力させ、
前記第2のニューラルネットワークに、前記第1の推定情報と前記第2の推定情報とを統合した統合データの入力に対する出力である第3の推定情報を出力させ、
前記第1の学習データの前記第1の教師情報と前記第1の推定情報との第1の誤差と、前記第2の教師情報と前記第3の推定情報との第2の誤差と、に基づいて前記第1のニューラルネットワークの学習を行い、
前記第2の学習データの前記第1の教師情報と前記第2の推定情報との第3の誤差と、前記第2の誤差と、に基づいて前記第1のニューラルネットワークの学習を行い、
前記第2の誤差に基づいて、前記第2のニューラルネットワークの学習を行うことを特徴とする情報処理方法。
The first learning data and the second learning data in which a plurality of evaluations have been performed, the first teacher information which is the distribution of the plurality of evaluations, and the first learning data and the second learning data. An input step for inputting the first learning data and the second learning data, which includes the second teacher information indicating the difference between the plurality of evaluations.
The first neural network that infers the distribution of evaluations for the input data and the integrated data that integrates the inference results for the two data by the first neural network are used as inputs to infer the difference in evaluations of the two data. It has a learning step of performing the training of the second neural network based on the first training data and the second training data.
In the learning process
The first neural network is made to output the first estimation information which is the output for the input of the first learning data.
The first neural network is made to output the second estimation information which is the output for the input of the second learning data.
The second neural network is made to output the third estimation information which is the output for the input of the integrated data in which the first estimation information and the second estimation information are integrated.
The first error between the first teacher information and the first estimated information of the first learning data, and the second error between the second teacher information and the third estimated information. Based on this, the first neural network is trained, and
Learning of the first neural network is performed based on the third error between the first teacher information and the second estimation information of the second learning data and the second error.
An information processing method characterized in that learning of the second neural network is performed based on the second error.
コンピュータを、請求項1から7のいずれか1項に記載の情報処理装置として機能させるためのプログラム。 A program for causing a computer to function as the information processing device according to any one of claims 1 to 7.
JP2016249168A 2016-12-22 2016-12-22 Information processing equipment, information processing methods and programs Active JP6921526B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016249168A JP6921526B2 (en) 2016-12-22 2016-12-22 Information processing equipment, information processing methods and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016249168A JP6921526B2 (en) 2016-12-22 2016-12-22 Information processing equipment, information processing methods and programs

Publications (3)

Publication Number Publication Date
JP2018106237A JP2018106237A (en) 2018-07-05
JP2018106237A5 JP2018106237A5 (en) 2020-02-06
JP6921526B2 true JP6921526B2 (en) 2021-08-18

Family

ID=62787217

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016249168A Active JP6921526B2 (en) 2016-12-22 2016-12-22 Information processing equipment, information processing methods and programs

Country Status (1)

Country Link
JP (1) JP6921526B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020129412A1 (en) * 2018-12-17 2020-06-25 ソニー株式会社 Learning device, identification device, and program
JP6696059B1 (en) * 2019-03-04 2020-05-20 Sppテクノロジーズ株式会社 Substrate processing apparatus process determination apparatus, substrate processing system, and substrate processing apparatus process determination method
JPWO2021205547A1 (en) * 2020-04-07 2021-10-14

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0934859A (en) * 1995-07-21 1997-02-07 Toshiba Corp Data distribution estimate device
JP3891124B2 (en) * 2003-02-19 2007-03-14 Kddi株式会社 Parallel neural network means with correct / incorrect answer judgment function
JP6384065B2 (en) * 2014-03-04 2018-09-05 日本電気株式会社 Information processing apparatus, learning method, and program
JP2016031746A (en) * 2014-07-30 2016-03-07 キヤノン株式会社 Information processing apparatus and information processing method
US20160321522A1 (en) * 2015-04-30 2016-11-03 Canon Kabushiki Kaisha Devices, systems, and methods for pairwise multi-task feature learning

Also Published As

Publication number Publication date
JP2018106237A (en) 2018-07-05

Similar Documents

Publication Publication Date Title
CN108140032B (en) Apparatus and method for automatic video summarization
WO2018227800A1 (en) Neural network training method and device
CN104778173B (en) Target user determination method, device and equipment
US10733332B2 (en) Systems for solving general and user preference-based constrained multi-objective optimization problems
JP5815458B2 (en) Reward function estimation device, reward function estimation method, and program
JP6921526B2 (en) Information processing equipment, information processing methods and programs
CN108536784B (en) Comment information sentiment analysis method and device, computer storage medium and server
US8170963B2 (en) Apparatus and method for processing information, recording medium and computer program
JPWO2018173108A1 (en) Joint position estimating apparatus, joint position estimating method, and joint position estimating program
WO2016095068A1 (en) Pedestrian detection apparatus and method
US8639643B2 (en) Classification of a document according to a weighted search tree created by genetic algorithms
US20180005106A1 (en) Information processing apparatus, information processing method, and non-transitory computer-readable storage medium
JP2019128610A (en) Learning program, learning method, and learning device
CN110610140B (en) Training method, device and equipment of face recognition model and readable storage medium
CN109800342A (en) A kind of more relational network data quantization representation methods based on node influence power
CN110222734B (en) Bayesian network learning method, intelligent device and storage device
JP7063274B2 (en) Information processing equipment, neural network design method and program
CN107203916B (en) User credit model establishing method and device
CN112016622A (en) Method, electronic device, and computer-readable storage medium for model training
JP2019028484A (en) Attribute identification apparatus, attribute identification model learning apparatus, method and program
KR101937585B1 (en) Cost Aggregation Apparatus and Method for Depth Image Generation, and Recording Medium thereof
CN112597699B (en) Social network rumor source identification method integrated with objective weighting method
CN111078820B (en) Side weight prediction method based on weight symbol social network embedding
CN113822074B (en) Content classification method, device, electronic equipment and storage medium
WO2022074711A1 (en) Learning method, estimation method, learning device, estimation device, and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191220

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191220

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210205

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210309

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210428

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210629

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210728

R151 Written notification of patent or utility model registration

Ref document number: 6921526

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151