JPH07311754A - 学習機械 - Google Patents

学習機械

Info

Publication number
JPH07311754A
JPH07311754A JP6131439A JP13143994A JPH07311754A JP H07311754 A JPH07311754 A JP H07311754A JP 6131439 A JP6131439 A JP 6131439A JP 13143994 A JP13143994 A JP 13143994A JP H07311754 A JPH07311754 A JP H07311754A
Authority
JP
Japan
Prior art keywords
learning
data
input
initial
learning data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP6131439A
Other languages
English (en)
Inventor
Kenji Fukumizu
健次 福水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP6131439A priority Critical patent/JPH07311754A/ja
Publication of JPH07311754A publication Critical patent/JPH07311754A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Complex Calculations (AREA)

Abstract

(57)【要約】 【目的】 学習に有効な最適な学習データを発生させ、
学習を効率良くかつ精度良く行なうことが可能である。 【構成】 学習データ作成部4は、確率的規則に従って
入力データxνを発生し、それらに対する真の未知シス
テムの応答を教師データyνとして学習データ{xν
ν}を作成するが、条件付確率推定部2が、学習を、
初期学習とその後のパラメータ更新との2段階に分けて
行なうことに対応させて、初期学習データを作成する初
期学習データ作成部4aと、更新用学習データを作成す
る更新用学習データ作成部4bとが設けられている。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、システム同定,パター
ン認識や制御問題などのように、与えられた入力から望
ましい出力を得るのに利用可能な学習機械に関する。
【0002】
【従来の技術】従来、ニューラルネットワークなどの統
計的学習機械では、学習メカニズムとして、例えばバッ
クプロパゲーション(誤差逆伝播アルゴリズム)などが知
られている。統計的学習機械が例えば図2に示すよう
に、入力層51と中間層52と出力層53とからなる3
層構造のパーセプトロン(階層的ネットワーク)である場
合、バックプロパゲーションの学習メカニズムは、入力
層51のユニットと中間層52のユニットとの結合の重
み,中間層52のユニットと出力層53のユニットとの
結合の重みをパラメータに含めて、二乗誤差最小化の学
習を行なうものである。より具体的には、m層のネット
ワークを考え、k層の第iユニットへの入力の総和をi
k i,出力をok iとし、k−1層の第iユニットからk層
の第iユニットへの結合の重みをwk-1 i k jとし、各ユニ
ットの入出力関係を与える関数をfとすると、これらの
変数の間の関係は次式のようになる。
【0003】
【数1】
【0004】損失関数rを誤差の二乗にとると、ある入
出力パターンの組(x,y)が与えられたときの損失関数
rは、次式で与えられる。
【0005】
【数2】
【0006】ここで、wは、対応付けを与えるネットワ
ークの結合の重みを全てまとめたものであり、結合の重
みwの学習を行なうには(すなわち、結合の重みwの修
正量を求めるには)、損失関数rの結合の重みwについ
てのグラディエント(勾配)∂r/∂wk-1 i k jを計算すれ
ば良い。すなわち、1回の修正の大きさを決めるパラメ
ータをεとするとき、結合の重みwの修正量△wk-1 i k j
は、次式で与えられる。
【0007】
【数3】
【0008】数3の第2番目,第3番目の式から、結合
の重みwk-1 i k jの修正に使う信号dk jがk=mからk=
2に向かって再帰的に計算されることがわかる。また、
数3の第3番目の式から、このdk jの計算の過程は、出
力層での理想出力と実際の出力との誤差dk+1 hを入力と
して、出力層から入力層の方向へ、信号の伝播とは逆の
方向にwk i k+1 hで重みを付けた和をとりながら、伝播さ
せていくようになっている。これが、バックプロパゲー
ション(誤差逆伝播)学習アルゴリズムである。
【0009】
【発明が解決しようとする課題】しかしながら、上述し
たような従来の学習機械では、学習データは受動的にし
か与えられず、学習に有効な学習データを発生するよう
にはなっていない。例えば、上述したバックプロパゲー
ションの学習アルゴリズムを用いた学習機械では、学習
データ(入出力パターンの組(x,y))として、通常、真
の確率分布から受動的に発生したものを用いているが、
真の確率分布に従う標本で学習するのが最適であるとの
保証は全くなく、従って、上述したバックプロパゲーシ
ョンの学習アルゴリズムでは、実際には、振動を減ら
し、学習の収束を早めるために、次式のような修正を行
なったりしなければならなかった。
【0010】
【数4】
【0011】なお、数4において、αは小さな正の定
数,tは修正の回数を表わしている。
【0012】このように、従来の学習機械では、学習に
有効な最適な学習データを発生させて学習を行なうよう
にはなっていなかったので、学習を効率良くかつ精度良
く行なうことができないという問題があった。
【0013】本発明は、学習に有効な最適な学習データ
を発生させ、学習を効率良くかつ精度良く行なうことの
可能な学習機械を提供することを目的としている。
【0014】
【課題を解決するための手段および作用】上記目的を達
成するために、請求項1記載の発明は、入力ベクトル空
間Xからの入力ベクトルxを受け取る入力手段と、学習
用入力データとそれに対する前記未知システムの応答で
ある教師データとの組からなる学習データを用いて、所
定のパラメータθの学習を行ない、真の条件付確率p
(y|x)を推定し、これによって未知システムの推定を
行なう条件付確率推定手段と、条件付確率推定手段によ
って学習されたパラメータ〈θ〉を用いて、入力手段か
ら与えられた未学習の入力ベクトルxに対する出力yを
条件付確率p(y|x;〈θ〉)に従う標本として算出す
る出力手段と、条件付確率推定手段が用いる学習データ
を、確率的規則に従って発生させた入力データと該入力
データに対する未知システムの応答とから作成する学習
データ作成手段とを有している。この構成では、学習デ
ータ作成手段により学習に有効な最適な学習データを発
生させることができ、これにより、学習を効率良くかつ
精度良く行なうことができる。
【0015】また、請求項2乃至6記載の発明は、条件
付確率推定手段は、初期のパラメータを学習する初期学
習手段と、初期のパラメータが確定した後、新たな学習
データによってパラメータを更新するパラメータ更新手
段とを有し、また、学習データ作成手段は、条件付確率
推定手段の初期学習手段が用いる初期学習データを作成
する初期学習データ作成手段と、初期学習データ作成手
段において初期学習が終了した後に、パラメータ更新手
段が用いる更新用学習データを作成する更新用学習デー
タ作成手段とを有している。これにより、システムの稼
動状況に応じ、学習に有効な最適な学習データを発生さ
せることができる。
【0016】
【実施例】以下、本発明の実施例を図面に基づいて説明
する。図1は本発明に係る学習機械の一実施例の構成図
である。本実施例の学習機械は、L次元の入力ベクトル
空間Xからの入力ベクトルx=(x1,…,xL)に対し
て、真の条件付確率p(y|x)に従うM次元の出力ベク
トル空間Y上の出力ベクトルy=(y1,…,yM)を発生
する未知システムを推定する学習機械(統計的学習機械)
であって、図1を参照すると、この学習機械は、L次元
の入力ベクトル空間Xからの入力ベクトルxを受け取る
入力部1と、学習入力データxν(1≦ν≦N)とそれに
対する上記未知システムの応答である教師データy
ν(1≦ν≦N)との組からなるN個の学習データ
{xν,yν|1≦ν≦N}を用いて、所定のパラメー
タθの学習を行ない、未知システム,すなわち真の条件
付確率p(y|x)を推定する条件付確率推定部2と、条
件付確率推定部2によって学習されたパラメータ〈θ〉
を用いて、入力部1から与えられた未学習の入力ベクト
ルxに対する出力yを条件付確率p(y|x;〈θ〉)に
従う標本として算出する出力部3と、条件付確率推定部
2が用いる学習データ{xν,yν}(ν=1〜N)を作
成する学習データ作成部4とを有している。
【0017】ここで、条件付確率推定部2には、初期学
習データを用いてパラメータθの初期学習を行なう初期
学習部2aと、初期のパラメータθが確定した後、更新
用学習データを用いてパラメータθの更新を行なうパラ
メータ更新部2bとが設けられている。本実施例におい
ては、条件付確率推定部2は、上記のように、学習を、
初期学習とその後のパラメータ更新の2段階に分けて行
なうが、初期学習部2a,パラメータ更新部2bのいず
れも、パラメータθの推定量(学習結果)〈θ〉を、例え
ば、パラメータθを持つパラメータ付確率密度関数族
{p(y|x;θ)}を用い、統計の分野で良く知られて
いる最尤推定法により、次式のように求めるようになっ
ている。
【0018】
【数5】
【0019】すなわち、Sを最大にするパラメータθを
推定量〈θ〉として求めるようになっている。
【0020】また、学習データ作成部4は、確率的規則
に従って入力データxνを発生し、それらに対する真の
未知システムの応答を教師データyνとして学習データ
{xν,yν}を作成するが、条件付確率推定部2が、
学習を、初期学習とその後のパラメータ更新との2段階
に分けて行なうことに対応させて、初期学習データを作
成する初期学習データ作成部4aと、更新用学習データ
を作成する更新用学習データ作成部4bとが設けられて
いる。
【0021】初期学習データ作成部4aは、実際の入力
データの分布が既知の場合には、実際の入力データの分
布に従って、初期学習データを作成することができる。
例えば、この学習機械の利用時(稼動時)に生じる入力デ
ータの発生分布の推定量から初期学習データの入力デー
タxνを発生させ、初期学習データ{xν,yν}を作
成することができる。これに対し、実際の入力データの
分布が未知の場合には、予め事前の知識に基づいて定め
られた一様分布や正規分布に従って、初期学習データを
作成することができる。例えば、この学習機械が予め用
意した一定の入力空間上の確率分布に従って、初期学習
データの入力データxνを発生させ、初期学習データ
{xν,yν}を作成することができる。
【0022】また、更新用学習データ作成部4bは、所
定の確率密度関数r(x;v)によって更新用学習データ
を作成するようになっている。すなわち、更新用学習デ
ータ作成部4bは、入力ベクトル空間X上のパラメータ
(v)付確率密度関数族{r(x;v)}を保持しており、
例えば、この学習機械の利用時(稼動時)に発生する実際
の入力データの発生分布の確率密度関数q(x)の推定量
〈q(x)〉と条件付確率推定部2の初期学習部2aによ
り得られたパラメータθの推定値〈θ〉とを用いて、学
習データの入力データxνを{r(x;v)}に従って発
生させた場合の学習誤差の推定値E(v)を最小にするパ
ラメータvの値を最適値として計算し、最適化されたパ
ラメータvによる確率密度関数r(x;v)によって、更
新用学習データの入力データxνを発生させ、更新用学
習データ{xν,yν}を作成するようになっている。
【0023】なお、学習機械の利用時(稼動時)に発生す
る実際の入力データの発生分布の確率密度関数q(x)の
推定量〈q(x)〉としては、例えば、この学習機械の実
際の稼動時と同じ状況で入力データをN’個発生させ、
その分布をパラメトリックモデルにより推定したり、あ
るいは、次式のようにデルタ関数で表わして、予め用意
することができる。
【0024】
【数6】
【0025】また、学習誤差の推定値E(v)を最小にす
るパラメータvの値の計算は、更新用学習データ作成部
4b内の学習誤差最小化回路5によってなされる。より
具体的には、学習誤差最小化回路5は、次式の学習誤差
推定値E(v)を最小化するように、パラメータvを最適
化する。
【0026】
【数7】
【0027】ここで、〈I〉,〈J(v)〉は行列であ
り、次のように計算される。
【0028】
【数8】
【0029】一般には最小値を与えるvを解析的に解く
のは困難な場合が多いので、例えば最急降下法によって
逐次更新していくことによりvを最適化していけばよ
い。このようにして得られたパラメータを〈v〉と書く
ことにする。更新用学習データ作成手段は、r(x;
〈v〉)に従ってある個数の入力データを発生させ、そ
の入力データと、それらに対する真の未知システムの出
力結果である教師データとからなる学習データを更新用
学習データとして作成する。パラメータ更新部2bは、
この更新用学習データを用いてp(y|x;θ)のパラメ
ータθを再び最尤推定法によって学習し直す。
【0030】上で述べた方式が学習誤差を低減する上で
有効であることを以下に述べる。
【0031】いま真の条件つき確率p(y|x)は、設定
したモデル{p(y|x;θ)}に含まれているものと
し、p(y|x)=p(y|x;θ0)とする。ここで、θ0
は真のパラメータである。また学習データを発生させる
入力分布の密度函数をr(x)として、これにより作成し
たN個の学習データから最尤推定によって得られたパラ
メータを〈θ〉とする。このとき学習の損失の量Rを次
式のように測る。
【0032】
【数9】
【0033】この損失の測り方はKullback-Leibler Div
ergenceに基づくもので統計の分野ではよく用いられる
ものである。この量Rをθ0のまわりでテイラー展開す
ると、次式のようになる。
【0034】
【数10】
【0035】上式において1階微分の項(第2項)はyで
積分することにより“0”となることがわかる。また、
上式の第1項は推定量〈θ〉に依存しない項である。従
って、学習の良さを判定するには、上式の第3項を見れ
ばよいことがわかる。この項の値を学習データの出方に
よって期待値をとったものをE0とすると、E0は簡単な
計算により次式のように求まる。
【0036】
【数11】
【0037】ここで、統計的推定の分野で良く知られて
いるように、次式が成り立つ。
【0038】
【数12】
【0039】Iab,Jabを次式のように定義すると、
【0040】
【数13】
【0041】数12から次の近似式が導き出せる。
【0042】
【数14】
【0043】本発明の更新用学習データ作成部4bが用
いる学習誤差の推定値は、この値E0を各行列の推定値
を用いて計算したものであり、この量を小さくすること
が学習の誤差を小さくすることにつながっていることが
わかる。
【0044】次に、このような構成の学習機械の動作に
ついて説明する。本実施例の学習機械は、この学習機械
が与える任意の入力xに対してp(y|x)に従う標本を
返答することができる未知システムを推定するのに用い
られる。例えばシステム同定の問題などでは、真のシス
テムは任意の入力に対して出力を返すことができる場合
も多い。本実施例の学習機械は、このようなシステムを
推定するのに用いることができる。
【0045】未知システムの推定(学習)は、条件付確率
推定部2で行なわれるが、条件付確率推定部2に対する
学習データを発生させるため、本実施例では、学習デー
タ作成部4が設けられている。学習データ作成部4は、
条件付確率推定部2に学習データを与えるため、確率的
規則に従って入力データを発生し、それらに対する真の
未知システムの応答を教師データとして、学習データを
作成する。
【0046】この際、先ず、学習データ作成部4の初期
学習データ作成部4aが、所定の入力データ分布に従っ
て、初期学習データ{xν,yν}を作成する。初期学
習データ{xν,yν}が作成されると、条件付確率推
定部2の初期学習部2aは、この初期学習データ
{xν,yν}を用いて、所定のパラメータθの初期学
習を行ない、初期学習結果〈θ〉を生成する。
【0047】このようにして、初期学習がなされた後、
学習データ作成部4の更新用学習データ作成部4bは、
この学習機械の稼動時に発生する実際の入力データの発
生分布の確率密度関数q(x)の推定量〈q(x)〉と条件
付確率推定部2の初期学習部2aにより得られたパラメ
ータθの推定値〈θ〉とを用いて、学習データの入力デ
ータxνを確率密度関数族{r(x;v)}に従って発生
させた場合の学習誤差の推定値E(v)を最小にするパラ
メータvの値を最適値として計算し、最適化されたパラ
メータvによる確率密度関数r(x;v)によって、更新
用学習データの入力データxνを発生させ、更新用学習
データ{xν,yν}を作成する。更新用学習データ
{xν,yν}が作成されると、条件付確率推定部2の
パラメータ更新部2bは、更新用学習データ{xν,y
ν}を用いて、パラメータθの更新学習を行ない、更新
学習結果〈θ〉を生成する。ここで、更新用学習データ
{xν,yν}は、学習に有効な最適な学習データとな
っており、従って、条件付確率推定部2のパラメータ更
新部2bは、学習を効率良くかつ精度良く行なって、精
度の高い(学習誤差の小さい)学習結果〈θ〉を迅速に得
ることができる。
【0048】このようにして、条件付確率推定部2にお
いてパラメータθの学習が行なわれ、更新学習結果
〈θ〉が生成された後、入力部1から入力ベクトルxが
与えられると、出力部3は、条件付確率推定部2によっ
て学習されたパラメータ(更新学習結果)〈θ〉を用い
て、与えられた入力ベクトルxに対する出力yを条件付
確率p(y|x;〈θ〉)に従う標本として算出すること
ができる。
【0049】以上のように、本実施例では、システム同
定の問題のように、学習機械が用意した入力データに対
して未知システムが教師データを与えてくれる問題を、
ニューラルネットワークなどの統計的学習機械によって
学習する場合に、学習データをどのように用意するのが
最適かを設計することができ、学習後の推定精度を向上
させることができる。
【0050】
【発明の効果】以上に説明したように、請求項1記載の
発明によれば、条件付確率推定手段が用いる学習データ
を、確率的規則に従って発生させた入力データと該入力
データに対する未知システムの応答とから作成するの
で、学習に有効な最適な学習データを発生させ、学習を
効率良くかつ精度良く行なうことができる。
【0051】また、請求項2乃至6記載の発明によれ
ば、条件付確率推定手段は、初期のパラメータを学習す
る初期学習手段と、初期のパラメータが確定した後、新
たな学習データによってパラメータを更新するパラメー
タ更新手段とを有し、また、学習データ作成手段は、条
件付確率推定手段の初期学習手段が用いる初期学習デー
タを作成する初期学習データ作成手段と、初期学習デー
タ作成手段において初期学習が終了した後に、パラメー
タ更新手段が用いる更新用学習データを作成する更新用
学習データ作成手段とを有しているので、学習に有効な
最適な学習データを発生させ、学習を効率良くかつ精度
良く行なうことができる。
【図面の簡単な説明】
【図1】本発明に係る学習機械の一実施例の構成図であ
る。
【図2】統計的学習機械としての3層構造のパーセプト
ロンを示す図である。
【符号の説明】
1 入力部 2 条件付確率推定部 3 出力部 4 学習データ作成部 2a 初期学習部 2b パラメータ更新部 4a 初期学習データ作成部 4b 更新用学習データ作成部 5 学習誤差最小化回路

Claims (6)

    【特許請求の範囲】
  1. 【請求項1】 入力ベクトル空間Xからの入力ベクトル
    xに対して真の条件付確率p(y|x)に従う出力ベクト
    ルyを発生する未知システムを推定する学習機械であっ
    て、入力ベクトル空間Xからの入力ベクトルxを受け取
    る入力手段と、学習用入力データとそれに対する前記未
    知システムの応答である教師データとの組からなる学習
    データを用いて、所定のパラメータθの学習を行ない、
    真の条件付確率p(y|x)を推定し、これによって未知
    システムの推定を行なう条件付確率推定手段と、条件付
    確率推定手段によって学習されたパラメータ〈θ〉を用
    いて、入力手段から与えられた未学習の入力ベクトルx
    に対する出力yを条件付確率p(y|x;〈θ〉)に従う
    標本として算出する出力手段と、条件付確率推定手段が
    用いる学習データを、確率的規則に従って発生させた入
    力データと該入力データに対する未知システムの応答と
    から作成する学習データ作成手段とを有していることを
    特徴とする学習機械。
  2. 【請求項2】 請求項1記載の学習機械において、前記
    条件付確率推定手段は、初期のパラメータを学習する初
    期学習手段と、初期のパラメータが確定した後、新たな
    学習データによってパラメータを更新するパラメータ更
    新手段とを有し、また、前記学習データ作成手段は、前
    記条件付確率推定手段の初期学習手段が用いる初期学習
    データを作成する初期学習データ作成手段と、前記初期
    学習データ作成手段において初期学習が終了した後に、
    パラメータ更新手段が用いる更新用学習データを作成す
    る更新用学習データ作成手段とを有していることを特徴
    とする学習機械。
  3. 【請求項3】 請求項2記載の学習機械において、前記
    初期学習データ作成手段は、該学習機械の利用時に生じ
    る入力の発生分布の推定量から初期学習データの入力デ
    ータを発生させることを特徴とする学習機械。
  4. 【請求項4】 請求項2記載の学習機械において、前記
    初期学習データ作成手段は、該学習機械が予め用意した
    一定の入力空間上の確率分布に従って、初期学習データ
    の入力データを発生させることを特徴とする学習機械。
  5. 【請求項5】 請求項2記載の学習機械において、前記
    更新用学習データ作成手段は、入力ベクトル空間上のパ
    ラメータ付確率密度函数{r(x;v)}を保持してお
    り、学習機械の稼働時に生じる入力データの発生分布の
    確率密度函数の推定量〈q(x)〉と初期学習手段により
    得られたパラメータθの推定値〈θ〉とを用いて、学習
    データの入力データを{r(x;v)}に従って発生させ
    た場合の学習誤差の推定値E(v)を小さくするパラメー
    タvの値を最適値として計算し、最適化されたパラメー
    タvによる確率密度函数r(x;v)によって更新用学習
    データの入力データを発生させることを特徴とする学習
    機械。
  6. 【請求項6】 請求項5記載の学習機械において、前記
    最適なパラメータvは、学習誤差の推定値E(v)を最小
    化するように最急降下法を用いてパラメータvの逐次更
    新を行なうことにより得られることを特徴とする学習機
    械。
JP6131439A 1994-05-19 1994-05-19 学習機械 Pending JPH07311754A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP6131439A JPH07311754A (ja) 1994-05-19 1994-05-19 学習機械

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6131439A JPH07311754A (ja) 1994-05-19 1994-05-19 学習機械

Publications (1)

Publication Number Publication Date
JPH07311754A true JPH07311754A (ja) 1995-11-28

Family

ID=15057993

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6131439A Pending JPH07311754A (ja) 1994-05-19 1994-05-19 学習機械

Country Status (1)

Country Link
JP (1) JPH07311754A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006343124A (ja) * 2005-06-07 2006-12-21 Keio Gijuku 複数の化学物質の測定方法
JP2010528364A (ja) * 2007-05-24 2010-08-19 パロ・アルト・リサーチ・センター・インコーポレーテッド 間欠的故障の診断
WO2017185347A1 (zh) * 2016-04-29 2017-11-02 北京中科寒武纪科技有限公司 用于执行循环神经网络和lstm运算的装置和方法

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006343124A (ja) * 2005-06-07 2006-12-21 Keio Gijuku 複数の化学物質の測定方法
JP4635220B2 (ja) * 2005-06-07 2011-02-23 学校法人慶應義塾 複数の化学物質の測定方法
JP2010528364A (ja) * 2007-05-24 2010-08-19 パロ・アルト・リサーチ・センター・インコーポレーテッド 間欠的故障の診断
WO2017185347A1 (zh) * 2016-04-29 2017-11-02 北京中科寒武纪科技有限公司 用于执行循环神经网络和lstm运算的装置和方法
US11531860B2 (en) 2016-04-29 2022-12-20 Cambricon (Xi'an) Semiconductor Co., Ltd. Apparatus and method for executing recurrent neural network and LSTM computations
US11727244B2 (en) 2016-04-29 2023-08-15 Cambricon Technologies Corporation Limited Apparatus and method for executing recurrent neural network and LSTM computations

Similar Documents

Publication Publication Date Title
Den Haan et al. Solving the stochastic growth model by parameterizing expectations
US20060047512A1 (en) System, device, and methods for updating system-monitoring models
US6985781B2 (en) Residual activation neural network
US6363289B1 (en) Residual activation neural network
KR930002746B1 (ko) 파라미터의 동정(同定)방법
Wang et al. Global h-synchronization for high-order delayed inertial neural networks via direct sors strategy
Xiong et al. Event-triggered distributed online convex optimization with delayed bandit feedback
JPH07311754A (ja) 学習機械
CN108665002A (zh) 一种二分类任务标签噪声容忍分类器学习方法
JPH08221378A (ja) 学習機械
US5706401A (en) Method for editing an input quantity for a neural network
JP2540654B2 (ja) ニュ―ラルネットワ―クの学習装置
JP2021144659A (ja) 計算機、計算方法及びプログラム
CN113688875A (zh) 工业***故障识别方法及装置
SHIGEI et al. Numerical evaluation of incremental vector quantization using stochastic relaxation
JPH0962645A (ja) 専門家の階層混合モデルの構築的学習方法
JPH10198645A (ja) ニューラルネット学習方法及び装置
CN106595661A (zh) 惯性传感器信号重构方法
US6963862B1 (en) Method and system for training a recurrent network
JPH06175998A (ja) 時系列予測方法
US20240005188A1 (en) Shift rule for gradient determination in parameterised quantum evolutions
JPH10187649A (ja) ニューラルネットワーク
JPH1031658A (ja) ニューラルネットによる事後確率推定のための教師信号生成方法及びニューラルネットによる事後確率推定システム
Tham On-line learning using hierarchical mixtures of experts
Hache et al. Control-Oriented Neural State-Space Models for State-Feedback Linearization and Pole Placement