JPH05197821A - 階層型ニューラルネットの最適化方法及び装置 - Google Patents

階層型ニューラルネットの最適化方法及び装置

Info

Publication number
JPH05197821A
JPH05197821A JP4314305A JP31430592A JPH05197821A JP H05197821 A JPH05197821 A JP H05197821A JP 4314305 A JP4314305 A JP 4314305A JP 31430592 A JP31430592 A JP 31430592A JP H05197821 A JPH05197821 A JP H05197821A
Authority
JP
Japan
Prior art keywords
learning
neural network
neuron
intermediate layer
defective
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP4314305A
Other languages
English (en)
Inventor
Toru Fujii
徹 藤井
Hirohide Ushida
牛田  博英
Tokumasa Yakura
得正 矢倉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP4314305A priority Critical patent/JPH05197821A/ja
Publication of JPH05197821A publication Critical patent/JPH05197821A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Feedback Control In General (AREA)
  • Image Analysis (AREA)

Abstract

(57)【要約】 【目的】 中間層に配置されるニューロンの数並びに重
みをともに最適な値に近付けることのできる階層型ニュ
ーラルネットの最適化方法を提供すること。 【構成】 所定回数学習を行ったニューラルネットに対
し誤差2乗和の変化量,正答率並びにその変化量を検出
することにより、学習状況(最適解に収束しているか否
か,局所解に陥っていないか,並びにニューロン数は適
切か)を判断し、必要に応じて中間層にニューロンを追
加したり、不良ニューロンを削除したり或いはその不良
ニューロンの重みを初期化し直した後、再度学習を行
う。これにより、学習を行いつつ中間層に最適なニュー
ロンの数を設定し、かつ最適解が求まる。尚、上記不良
ニューロンとは、入力データの解析に対する影響力の低
いニューロンをいう。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、階層型ニューラルネッ
トの最適化方法及び装置に関するもので、より具体的に
は階層型ニューラルネットワークにおける中間層の構造
の最適化を図るものに関する。
【0002】
【従来の技術】階層型ニューラルネットワークは、入力
層,中間層(必要に応じ複数層から構成される)並びに
出力層から構成され、各層にはそれぞれ所定数のニュー
ロンが配置されるとともに、各層間のニューロンがシナ
プスにて連結されており、各シナプスには所定の結合係
数(以下、単にニューロンに付与された「重み」と称す
る)が付与されている。そして、その重みを適正な値に
設定するため、ニューラルネットワーク自身で自己学習
が行われる。
【0003】この自己学習の一例としては、バックプロ
パゲーションと称されるものがある。この方法は、最初
に各シナプスに付与される重みを乱数にて初期設定し、
その状態で入力層にある入力データを入力し、その入力
データに基づいて入力層から出力層まで順次計算し、出
力データを得る。そして、その出力データを、上記入力
データにより得られるべき期待出力データとを比較し、
両者の差を求め、この差が小さくなるように、重みを変
更するようになっている。しかも、この学習処理中にお
いては、各層に配置したニューロンの数が固定されてい
る。
【0004】
【発明が解決しようとする課題】ところで、中間層に設
置したニューロンの数が少ないと、入力データの特徴量
空間を旨く分割することができず、たとえ上記学習処理
を行ったとしても、十分な入出力関係を獲得することが
できない。一方、ニューロンの数が多くなると、正しい
入出力関係を得ることができるものの、実際にシステム
内に組み込んだ場合にメモリ容量が膨大になるだけでな
く、処理時間も長くなり、実用に供し得なくなる。しか
も、最適なニューロンの数をあらかじめ知得することは
できない。したがって、せっかく上記学習処理を行った
としても、ニューロンの数が最適でないために、中間層
におけるニューラルネットワークの構造を最適化するこ
とができないという問題がある。さらに、図19に示す
ように、階層型ニューラルネットでは、学習により得ら
れた入出力関係が局所解となってしまい、最適解を得る
ことができないおそれがある。ここで、最適解とは、誤
差曲面において誤差2乗和が最小となる重みの値をい
い、局所解とは誤差曲面において局所的に誤差2乗和
(の変化量)が小さくなる(最適解ではない)ときの重
みの値を示す。
【0005】本発明は、上記した背景に鑑みてなされた
もので、その目的とするところは、中間層に配置される
ニューロンの数並びに重みをともに最適な値に近付けこ
とにより、最適なニューラルネットワークの構造を得る
ことのできる階層型ニューラルネットの最適化方法及び
装置を提供することにある。
【0006】
【課題を解決するための手段】上記した目的を達成する
ために、本発明に係る階層型ニューラルネットの最適化
方法では、階層型ニューラルネットに対して所定の学習
を行っている途中で、中間層のニューロン間に付与され
ている重みが局所解に陥っているか否かを判断し、局所
解に陥っているときに中間層の所定位置に新たなニュー
ロンを追加するようにした。
【0007】また、階層型ニューラルネットに対して所
定の学習を行っている途中で、中間層を構成する各ニュ
ーロンに対し入力データの認識に貢献している度合いを
あらわす不良ニューロン評価値を求め、その評価値に基
づいて不良ニューロンを決定し、その不良ニューロンを
所定のタイミングで削除したり、その不良ニューロンに
対し付与されている重みを初期化した後、学習を続行す
るようにしてもよい。
【0008】さらには、上記各手法を組み合せて中間層
に対しニューロンの追加或いは削除を適宜行うようにし
ても良く、さらに一度削除した不良ニューロンを復帰さ
せた後、学習を続行させるようにしても良い。
【0009】また、上記方法を実施するに適した本発明
に係る最適化装置では、階層型ニューラルネットに対し
て学習を行うニューラルネット学習装置と、そのニュー
ラルネット学習装置から出力される学習状況データに基
づいて中間層のニューロン間に付与されている重みが局
所解に陥っているか否かを判断する装置と、その判断す
る装置から送られる制御信号に基づいて前記中間層に新
たなニューロンを追加する中間層ニューロン追加装置と
を設けた。
【0010】また、階層型ニューラルネットに対して学
習を行うニューラルネット学習装置と、そのニューラル
ネット学習装置から出力される学習状況データに基づい
て中間層を構成する各ニューロンに対し入力データの認
識に貢献している度合いをあらわす不良ニューロン評価
値を算出する不良ニューロン評価値算出装置と、前記ニ
ューラルネット学習装置から出力される学習状況データ
に基づいて学習が最適解に近付いている否かを判断する
装置と、その判断する装置から送られる制御信号と、前
記不良ニューロン評価値算出装置から送られる不良ニュ
ーロンの評価値データとに基づいて、前記中間層の不良
ニューロンを削除する中間層ニューロン削減装置とを設
けても良い。
【0011】さらに、階層型ニューラルネットに対して
学習を行うニューラルネット学習装置と、そのニューラ
ルネット学習装置から出力される学習状況データに基づ
いて中間層を構成する各ニューロンに対し入力データの
認識に貢献している度合いをあらわす不良ニューロン評
価値を算出する不良ニューロン評価値算出装置と、その
ニューラルネット学習装置から出力される学習状況デー
タに基づいて中間層のニューロン間に付与されている重
みが局所解に陥っているか否かを判断する装置と、その
判断する装置から送られる制御信号と、前記不良ニュー
ロン評価値算出装置から送られる不良ニューロンの評価
値データとに基づいて、前記中間層の不良ニューロンの
重みを初期化する中間層ニューロン重み初期化装置とを
設けてもよい。そして好ましくは上記各装置を適宜組み
合わせて構成することである。
【0012】さらに、上記各種の構成からなる階層型ニ
ューラルネットの最適化装置に対し、与えられる要求仕
様に基づいて設定される出力誤差重みデータを格納した
記憶手段を設け、前記各種の判断する装置が、前記記憶
手段に格納された出力誤差重みデータを考慮して前記各
種の判断を行うようにしてもよい。
【0013】そして、係る出力誤差重みデータを格納し
た記憶手段を設けた場合には、さらにその出力誤差重み
データを修正する出力誤差重み調整手段を設け、前記判
断する手段が、前記出力誤差重みデータを修正するか否
かの判断機能を付与するのが好ましい。そして、そのよ
うに出力誤差重みデータを記憶する手段並びにそのデー
タを修正する調整手段を備えた場合には、上記中間層の
ニューロン削減,追加,重み初期化手段を設けなくて
も、最適化を図ることができる。
【0014】
【作用】本発明では、階層型ニューラルネットの学習を
行っている途中で、その学習状況(効果)を監視し、局
所解に陥っていると判断したらニューロンを追加する。
すると、特徴量空間をより多くの曲面で分割することが
可能となり、認識率が向上し、局所解から脱出して最適
解が求まる。
【0015】一方、不良ニューロンは、次段(出力側)
への影響力(入力データの認識に対する貢献度)が低
い。したがって、学習状況が局所解に陥っていると判断
された場合には、不良ニューロンの次段への影響力が大
きくなることにより局所解から脱出する可能性がある。
よって、係る影響力の低い不良ニューロンの重みを初期
化し直すとともに学習を続行する。一方、学習状況を判
断し、最適解にいたっていると判断した場合には、かか
る不良ニューロンがなくても正しい入出力関係を維持で
きると思量できる。よって、係る不良ニューロンを削除
するとともに学習を続行する。そして、削除後も最適解
の状態を維持できるならば、中間層を構成するニューロ
ン数が減少し、高速処理が行える。なお、不良ニューロ
ンを削除した結果、最適解が得られなくなった場合に
は、削除した不良ニューロンを復帰させたり或いは新た
なニューロンを追加することにより最適解が求められ
る。
【0016】さらに、出力誤差重みデータを考慮して学
習後のニューラルネットに対する各種評価を行うことに
より、より高速に要求仕様を満たす最適解に達すること
ができる。そして、出力誤差重み調整手段を設けた場合
には、初期設定された出力誤差重みデータを、学習状況
に応じて修正し、修正後の出力誤差重みデータをも地位
各種評価を行う。よって、より高速に学習が終了するこ
とになる。
【0017】
【実施例】以下、本発明に係る階層型ニューラルネット
最適化方法及び装置の好適な実施例を添付図面を参照に
して詳述する。まず、本発明の一実施例の概要について
説明すると、例えばバックプロパゲーション等を用いて
学習を行っている最中に、中間層を形成するニューロン
のうち、検出に貢献していない不良ニューロンを削除し
たり、新たなニューロンを追加することにより、ニュー
ロンの数を最適なものに設定し、また必要に応じて、不
良ニューロンの重みを初期化し直すこと等により各重み
が局所解に陥るのを抑制するようにしている。そして、
係る制御を行うための検出ファクターとして本例では、
誤差2乗和、誤差2乗和の変化量、正答率並びに正答率
の変化量等を用いている。
【0018】そして、それらを実行するための具体的な
回路構成は、図1に示すようになっている。すなわち、
この図は本発明の第1実施例を示し、図示するようにま
ずニューラルネット学習装置10に学習用データベース
12,重みデータベース14並びに中間層最適化パラメ
ータデータベース16の出力がそれぞれ接続されてい
る。
【0019】学習用データベース12は、階層型ニュー
ラルネットの学習用データとして、階層型ニューラルネ
ットの入力層に与える入力データと、出力層に与える期
待出力データが記録保持されている。そして、具体的な
データ構造は、それぞれ図2(A),(B)に示すよう
になっている。また、重みデータベース14は、階層型
ニューラルネットのあるニューロンから他のニューロン
への結合状況を表す重みデータ並びに、ニューラルネッ
ト構造データ(各層のニューロンの数)を記憶保持して
おり、具体的なデータ構造はそれぞれ図3(A),
(B)に示すようになっている。さらに、中間層最適化
パラメータデータベース16は、階層型ニューラルネッ
トの中間層を最適化するために必要な各種パラメータが
格納されており、具体的なデータ構造は図4に示すよう
になっており、各閾値等は予め固定データとして登録さ
れている。そして、ニューラルネット学習装置10で
は、各データベース12,14,16からそれぞれのデ
ータを受けとり、階層型ニューラルネットを形成すると
ともに、バックプロパゲーションアルゴリズムを使用し
て最適化学習間隔で示された所定回数だけ学習させるよ
うになっている。
【0020】ここで本発明では、上記ニューラルネット
学習装置10並びに各データベース12,14,16
に、階層型ニューラルネット最適化装置20を接続して
いる。この階層型ニューラルネット最適化装置20は、
誤差2乗和とその変化量算出装置21,正答率とその変
化量算出装置22,不良ニューロン評価値算出装置2
3,中間層ニューロン削減装置24,中間層ニューロン
追加装置25,中間層ニューロン重み初期化装置26並
びに中間層ニューロン最適化判定装置27とから構成さ
れている。そして、それら各装置21〜27と、ニュー
ラルネット学習装置10並びに各データベース12,1
4,16との具体的な接続構成は以下のようになってい
る。
【0021】すなわち、ニューラルネット学習装置10
の出力が誤差2乗和とその変化量算出装置21,正答率
とその変化量算出装置22,不良ニューロン評価値算出
装置23,中間層ニューロン削減装置24,中間層ニュ
ーロン追加装置25並びに中間層ニューロン重み初期化
装置26に入力されている。
【0022】また学習用データベース12の出力が、誤
差2乗和とその変化量算出装置21,正答率とその変化
量算出装置22並びに不良ニューロン評価値算出装置2
3に入力されている。
【0023】そして、誤差2乗和とその変化量算出装置
21並びに正答率とその変化量算出装置22の出力が、
中間層ニューロン最適化判定装置27に入力されてい
る。また、不良ニューロン評価算出装置23,中間層ニ
ューロン最適化判定装置27並びに中間層最適化パラメ
ータデータベース16の出力が、中間層ニューロン削減
装置24,中間層ニューロン追加装置25並びに中間層
ニューロン重み初期化装置26にそれぞれ入力されてい
る。そしてそれら各装置24,25,26の出力がニュ
ーラルネット学習装置10並びに重みデータベース14
に入力されている。
【0024】さらに、中間層最適化パラメータデータベ
ース16の出力は、中間層ニューロン最適化判定装置2
7にも入力されており、その中間層ニューロン最適化判
定装置27の出力がニューラルネット学習装置10に入
力されている。
【0025】次に、上記階層型ニューラルネット最適化
装置20を構成する各装置21〜27の機能について説
明する。 *誤差2乗和とその変化量算出装置 まず、本装置21は、ニューラルネット学習装置10に
おいて所定回数の学習をさせた後、そのニューラルネッ
ト学習装置10よりその時の重みデータ並びにニューラ
ルネット構造データを受け取るとともに、学習用データ
(入力データ,期待出力データ)を学習用データベース
12より受けとる。そして、その重みデータ並びにニュ
ーラルネット構造データより階層型ニューラルネットを
形成し、想起処理を行う。ここで想起処理とは、階層型
ニューラルネットの入力層のニューロンに入力データを
与え、学習による修正後の重みを使用して、階層型ニュ
ーラルネットの入力層から出力層に向かって想起の演算
処理を行い、階層型ニューラルネットの出力層のニュー
ロンから出力データを得ることをいう。
【0026】そして、その得られた出力データと期待出
力データとを用いて誤差2乗和(E1)を計算するとと
もに保持し、さらに前回計算して得られた誤差2乗和
(E0)との差の絶対値の百分率を誤差2乗変化量(d
E)として算出する。そして、その得られた誤差2乗和
並びに変化量を中間層ニューロン最適化判定装置27に
供給する働きを成す。
【0027】ここで、上記各値を得るための計算式を示
すと、以下の通りである。
【0028】
【数1】<誤差2乗和> <誤差2乗和変化量> dE={|E0−E1|*100}/E0 但し、 ptn :全パターン数,pe3 :出力層ニューロン数,L:
全層数, di[j]:j番目のパターン出力層i番目のニューロ
ンに対する期待出力 yi[L]:出力層i番面のニューロンの出力値であ
る。
【0029】*正答率とその変化量算出装置 本装置22は、上記した誤差2乗和とその変化量算出装
置21と同様に、ニューラルネット学習装置10並びに
学習用データベース12より所定のデータを受け取ると
ともに、階層型ニューラルネットを形成し、想起処理を
行って得られた出力データと期待出力データとを比較す
ることにより正答率(C0)を計算するとともに保持
し、さらにその値を前回計算して得られた正答率(C
0)との差の絶対値の百分率を正答率変化量(dC)と
して算出する。そして、その得られた正答率並びに変化
量を中間層ニューロン最適化判定装置27に供給する働
きを成す。
【0030】ここで、上記各値を得るための計算式を示
すと以下のようになる。すなわち、まずすべてのパター
ンptn について、*y[L](出力データ)と*d
[p](期待出力データ)とを比較し、両者が等しい場
合にはそのパターンpは正答パターンとして教える。
【0031】
【数2】但し、*y[L]=(y1[L],y2
[L],…,y(peL )[L]) *d[p]=(d1[p],d2[p],…,d(peL
)[p]) とする。
【0032】そして、その時の正答パターン数をptn1,
全パターン数をptn とすると、正答率C0が次式で得ら
れる。
【0033】C0=ptn1/ptn また、正答率変化量dCは、 dC=C0−C1 より求められる。
【0034】*不良ニューロン評価値算出装置 本装置23は、中間層を構成する各ニューロンに対し、
その不良ニューロン評価値を求めるもので、本発明でい
う不良ニューロン評価値とは、パターンの認識に貢献し
ている度合いを意味する。そして、係る貢献度の少ない
ニューロンは、出力層への影響が小さいといえる。よっ
て、(1)仮に係る評価値の低いニューロンを削減した
としてもニューラルネットの能力を損なう可能性が少な
く、正しい出力データを得ることができると思量でき
る。(2)また、ニューラルネットが学習中に局所解に
陥った場合に、不良ニューロンの重みを初期化した後学
習を続行することにより、局所解から脱出し、最適解を
求めることができる。すなわち本装置23は、係る効果
(1),(2)を得るための前処理として不良ニューロ
ン評価値を求めるもので、具体的手段は以下のようにな
っている。
【0035】上記両装置21,22と同様に、所定回数
だけ階層型ニューラルネットを学習させた後、ニューラ
ルネット学習装置10並びに学習用データベース12よ
り所定のデータを受け取るとともに、階層型ニューラル
ネットを形成する。そして、本装置で23では、入力層
並びに中間層に対して想起処理を行い、第m層i番目の
ニューロンの不良ニューロン評価値evalm [i]を以下
の式にて求める。
【0036】
【数3】 ここでptn :全パターン数 pe(m+1) :第m+1 層のニューロン数 wij[m]:第m層第i番面のニューロンと第m+1 層j
番目のニューロンとの間の重み yi[m]:第m層第i番面のニューロンの出力値 とする。
【0037】そして、上記式にて得られた中間層を構成
する各ニューロンの不良ニューロン評価値を、中間層ニ
ューロン削減装置24,中間層ニューロン重み初期化装
置26に供給する働きを成す。
【0038】また、上記式により求められる評価値eval
m [i]が小さいほど、中間層のi番目ニューロンの上
位層への重みの絶対値が小さい、または、その中間層i
番面のニューロンの出力が小さいことを意味する。よっ
て、その評価値の低いニューロンに対して所定の処理を
行うことにより、上記した効果が期待でき、ニューラル
ネットの最適化が図れるのである。尚、上記式により求
められる不良ニューロン評価値は、図5に示すようなデ
ータ構造として記憶保持される。
【0039】*中間層ニューロン削減装置 本装置24は、中間層ニューロン最適化判定装置27か
ら送られてくる信号に基づき、所定のニューロンを削減
するもので、具体的な処理は以下のようになっている。
【0040】まず、不良ニューロン評価値算出装置23
より不良ニューロン評価値を受けとり、また、中間層最
適化パラメータデータベース16より最適化パラメータ
を受けとる。そして、その最適化パラメータのうち、
「削減する不良ニューロンの数」だけ各中間層の不良ニ
ューロンを削減する。なお、上記削減する数値は、上記
のとおり、中間層最適化パラメータD/B16内に格納
(del pe num[m] )されている。またこの削減するニュ
ーロンの選択指標は、各層ごとに不良ニューロン評価値
の小さい順に削減する。
【0041】ここで、ニューロンの削減とは、削除対象
となるニューロンに結合している重みを、重みデータベ
ース14に格納されている重みデータから削除し、また
ニューラルネット構造データに格納されている各層のニ
ューロン数を削除分だけ減らす処理をする。そして、具
体例を示すと、例えば、第m層j番目ニューロンを削除
する場合、重みデータから、以下のデータを削除する。
【0042】
【数4】w1j[m-1 ],w2j[m-1 ],…,w(pe(m-
1))j[m-1 ] wj1[m],wj2[m],…,wj(pe(m+1)) [m] また、del pe num[m]個だけ削減した場合、第m層の
ニューロン数pem を pem =pem −del pe num[m] とする。
【0043】そして、上記削減処理を行った後、すべて
の重みデータ並びにニューラルネット構造データをニュ
ーラルネット学習装置10並びに重みデータベース14
に送る。尚、上記削除の方法としては、該当する不良ニ
ューロンを物理的に削除しても良く、或いは、その不良
ニューロンの重みを「零」に設定し、出力側への影響を
なくすようにしても良い。
【0044】*中間層ニューロン追加装置 本装置25は、中間層ニューロン最適化判定装置27か
ら送られてくる信号に基づき、所定のニューロンを追加
するもので、具体的な処理は以下のようになっている。
【0045】中間層最適化パラメータデータベース16
から最適化パラメータを受け取る。そして、最適化パラ
メータのうち「追加するニューロンの数」だけ、各中間
層にニューロンを追加する。ここでニューロンの追加と
は、新たにニューロンを設置すると共に追加したニュー
ロンに結合する重みを、重みデータに追加し、ニューラ
ルネット構造データの各層のニューロン数を追加分だけ
増やすことにより行う。そして、上記追加する数値は、
中間層最適化パラメータD/B16内に格納(add pe n
um[m] )されている。また、追加した重みの値は、乱数
により決定させる。具体例を示すと、例えば、第m層に
j番目のニューロンを追加する場合、重みデータに、以
下のデータを追加する。
【0046】
【数5】w1j[m-1 ],w2j[m-1 ],…,w(pe(m-
1))j[m-1 ] wj1[m],wj2[m],…,wj(pe(m+1)) [m] また、add pe num[m]個だけ追加した場合、第m層の
ニューロン数pem を pem =pem +add pe num[m] とする。
【0047】そして、上記追加処理を行った後、すべて
の重みデータ並びにニューラルネット構造データをニュ
ーラルネット学習装置10並びに重みデータベース14
に送る。このように、中間層にニューロンを追加するこ
とで、特徴量空間をより多くの曲面で分割することが可
能となり、認識率が向上する。
【0048】*中間層ニューロン重み初期化装置 本装置26は、中間層ニューロン最適化判定装置27か
ら送られてくる信号に基づき、所定の不良ニューロンの
重みを初期化するもので、具体的な処理は以下のように
なっている。
【0049】すなわち、不良ニューロン評価値算出装置
23から不良ニューロン評価値を、また、中間層最適化
パラメータデータベース16から最適化パラメータを受
けとる。そして、最適化パラメータのうち、「初期化す
るニューロンの数」だけ、各中間層にニューロンの重み
を初期化する(乱数により新たに初期値を設定する)。
そして、この時初期化するニューロンの選択指標は、不
良ニューロン評価値の小さい順にニューロンの重みを初
期化する。具体例を示すと、例えば、第m層にj番目の
ニューロンを初期化する場合、以下の重みの値を乱数で
与え直す。
【0050】
【数6】w1j[m-1 ],w2j[m-1 ],…,w(pe(m-
1) )j[m-1 ] wj1[m],wj2[m],…,wj(pe(m+1) )[m] そして、上記初期化処理を行った後、すべての重みデー
タ並びにニューラルネット構造データをニューラルネッ
ト学習装置10並びに重みデータベース14に送る。
【0051】また、この中間層ニューロン重み初期化装
置26の他の機能としては、上記中間層ニューロン削減
装置24にて不良ニューロンの重みが「零」となり削除
されたものに対し、その重みを初期化し直すことで不良
ニューロンを復帰させる機能を付加しても良い。
【0052】尚、初期化の方法としては、上記したごと
く乱数による設定のほかに、例えばある特定の値(大き
くても小さくても可)を初期値用重みデータとし、係る
値に設定するようにしても良く、種々の手段がとれる。
すなわち、要は初期化した結果、初期化後の重みと初期
化前の不良ニューロンと判断された時の重みとが一致す
る可能性が低くなるような初期化の方法であれば良い
(可能性が無いほうが望ましく、しかも、初期化前の重
みに対し、初期化後の重みが極端に違う値になるのが望
ましい)。
【0053】*中間層ニューロン最適化判定装置 本装置27では、誤差2乗和とその変化量算出装置21
並びに、正答率とその変化量算出装置22から各種デー
タを受け取る。そして、与えられた誤差2乗和,誤差2
乗和の変化量、正答率並びに正答率の変化量、さらに
は、不良ニューロンの初期化をおこなった回数等に基づ
いて、階層型ニューラルネットの状態、すなわち、学習
の習熟度(最適解に近付いている度合い)や局所解に陥
っていないか等の学習状態を判断し、中間層のニューロ
ンの数を最適なものにし、かつ、各重みを最適なものに
すべく中間層ニューロン削減装置24,中間層ニューロ
ン追加装置25並びに中間層ニューロン重み初期化装置
26に所定の命令信号を送るようになっている。また、
学習が十分か否かを判断し、学習続行信号をニューラル
ネット学習層10に送る働きも有している。
【0054】そして、本実施例ではこの中間層ニューロ
ン最適化判定装置27並びに上述した誤差2乗和とその
変化量算出装置21,正当率とその変化量算出装置22
にて、本発明に係るニューラルネット学習装置から出力
される学習状況データに基づいて中間層のニューロン間
に付与されている重みが局所解に陥っているか否かを判
断する装置,学習が最適解に近付いている否かを判断す
る装置及び学習の状態を判断する装置を構成している。
【0055】次に、上記した装置を用い、本発明に係る
ニューラルネット最適化方法について図6〜図7を参照
しつつ説明する。まず、すべてのニューロンの重みを初
期化し、リセット回数(初期化を行った回数)を0に設
定するとともに、初期データとして正答率C1並びに誤
差2乗和E0を算出する(S101〜104)。そし
て、ニューラルネット学習装置10において所定回数学
習したなら(S105,106)、誤差2乗和E1を求
め(S107)、それと上記初期データの誤差2乗和E
0とから誤差2乗和の変化量dEを算出し(S10
8)、その値dEが所定の値(閾値(最適化パラメータ
として与えられている))より小さいか否かを判断する
(S109)。尚、本例では、判断式として「dE<閾
値」としたが、「dE≦閾値」としてもよいのはもちろ
んであり、以下同様に各種データと各閾値と比較するに
際し「=」を含ませるようにしても良い。
【0056】そして、変化量dEが大きい場合にはニュ
ーラルネットの重みがダイナミックに変化しており、重
みが最適解に近付いていない(収束していない)ことを
意味し、学習が不十分であると判断できる。よって、ス
テップ104に戻り再度学習を続行する。なお、ステッ
プ107で得られた誤差2乗和E1の値がステップ10
4にて次回の判断における比較対象の誤差2乗和E0と
なる。
【0057】また、逆に上記変化量dEが小さい場合に
はニューラルネットの重みが収束に向かいつつあると判
断できるため、不良ニューロン評価値を算出する(S1
10)とともに、正答率C0を算出し(S111)、そ
の値C0が所定の値(閾値(最適化パラメータとして与
えられている))より小さいか否かを判断する(S11
2)。
【0058】そして、正答率C0が大きい場合には、最
適解に近付いていると判断できるため、現在の中間層の
ニューロンの数で十分である(ニューロンを追加する必
要はない)と判断できる。よって、これよりもニューロ
ン数が少なくとも最適解が得られるかどうかを試すた
め、そのときの評価値の低い不良ニューロンを幾つか削
除した後学習を続行する。具体的には、そのときの正答
率C0をC1に置き換えると共に、すべてのニューロン
の重みデータを重みデータベース14に格納する(S1
13,114)。そして、所定の不良ニューロンを削除
すると共にリセット回数Rを0に設定した後(S11
5,116)、ステップ104に戻り、上記操作を繰り
返し行う。
【0059】一方、正答率C0が小さい場合には、学習
が不十分か或るいは局所解に陥っている可能性があるた
め、正答率の変化量を算出しそれが所定の値(閾値(最
適化パラメータとして与えられている))より小さいか
否かを判断する(S117)。そして、変化量が大きい
場合には、学習が不十分であると判断できさらなる学習
で正答率が上がる可能性があるため、そのときの正答率
C0をC1に置き換えた(S118)後、ステップ10
4に戻り学習を続行する。また、変化量が小さい場合に
は、局所解に陥っていると判断できるため、その状態か
ら打開して最適解を得るべく、評価値の低い不良ニュー
ロンの重みを初期化するか、或いは新たなニューロン中
間に追加する。そして、いずれの手段をとるかはリセッ
ト回数の多少により判断する。
【0060】すなわち、そのときの正答率C0をC1に
置き換えた(S119)後、リセット数が所定の値(閾
値(最適化パラメータとして与えられている))より小
さいか否かを判断し(S120)、小さい場合(リセッ
ト回数が少ない)には、再度不良ニューロンに対して初
期化を行うことにより局所解から脱出する可能性がある
ため、その時のすべてのニューロンの重みデータを重み
データベース14に格納し(S121)、所定の不良ニ
ューロンの重みを初期化すると共にリセット回数Rに1
を加えた後(S122,123)、ステップ104に戻
り、上記操作を繰り返し行う。
【0061】一方、リセット回数が大きい場合には再度
不良ニューロンの初期化を行っても局所解から脱出でき
る可能性が低いため、中間層のニューロンの数が不十分
であると判断し、新たなニューロンを追加する。すなわ
ち、その時のすべてのニューロンの重みデータを重みデ
ータベース14に格納し(S124)、所定数のニュー
ロンを中間層に追加すると共にその追加したニューロン
の重みを初期化し(S125,126)、次いでリセッ
ト回数Rを0に設定した後(S127)、ステップ10
4に戻り、上記操作を繰り返し行う。なお、この追加の
態様としては、本例では、まったく新たにニューロンを
追加するものはもちろんのこと、ステップ115にて一
旦削除した不良ニューロンの重みに対して初期化を行う
ことにより係るニューロンを復帰させるものも含む。
【0062】そして、上記した各処理を繰り返し行い、
ステップ106にてニューロン数並びに重みデータが十
分であると判断すると、ニューラルネット学習装置10
での学習を終了する。なお、この図6中のS109,S
112〜S119並びに図7に示すフロー部分が、中間
層ニューロン最適化判定装置27における、機能を示し
ている。
【0063】また、上記した実施例では、中間層ニュー
ロン最適化判定装置27の機能を、図6の一部並びに図
7に示すフローのようにしたが、それに替えて例えば図
9に示すような機能を有する装置とすることもできる。
すなわち、上記第1実施例では、作成された中間層ニュ
ーロンが最適か否かの判定装置27における判断基準と
して、誤差2乗和の変化量dE,正答率C0並びにその
正答率の変化量dCとしたが、本例ではそれに加えて、
まず誤差2乗和E1も判断基準に加えた。
【0064】さらに、それら4つの判断基準の比較対象
となる閾値も、上記第1実施例のものでは、その後の処
理(ニューロンの追加,削除,重み初期化)の種類に関
係なく同一としたが、本例では、削除用の基準値と、そ
れ以外の基準値を設けた。すなわち、上記第1実施例で
は、誤差変化量の閾値として「th d sq err 」1つであ
ったのが、「dEth+ 」と「dEth- 」の2つに、正答
率の閾値として「th right」1つであったのが、「Cth
+ 」と「Cth- 」の2つに、正答率の変化量の閾値とし
て「th d right」1つであったのが、「dCth+ 」と
「dCth- 」の2つに設定し、さらに、新たに、誤差2
乗和の閾値として「Eth+ 」と「Eth- 」の2つが追加
された。それら各基準値は、図10に示すように中間層
最適化パラメータD/B16に格納されている。係る構
成としたことにより、本例では上記第1実施例に比し、
より高速かつ確実に最適解を得ることができるようにな
った。なお、図9中括弧で示した処理ステップは、実際
には中間層ニューロン最適化判定装置27にて決定され
た処理を行う中間層ニューロン削減装置24,中間層ニ
ューロン追加装置25並びに中間層ニューロン重み初期
化装置26の各装置で行われる。
【0065】図11は、本発明の第3実施例を示してい
る。この実施例は、上記第2実施例(判定装置27にお
ける判断パラメータを4つにするとともに、各パラメー
タの閾値を判定後行う処理に応じて2つずつ設定したも
の)を基準にさらに改良を行ったものである。
【0066】まず、本実施例の概念について説明する
と、入出力パターンの分離曲面が複雑になるほど階層型
NNを構成する中間層のニューロン数が多く必要とな
り、必然的に学習速度並びに想起速度が遅くなってしま
う。ところで、例えば2入力1出力のシステムにおい
て、その入出力パターンが図12(A)に示すようにな
っているとすると、その分離曲面はK1となる。この
時、要求仕様として出力の種類(この例では「○」また
は「×」)に優先順位、すなわち、例えば誤判別しては
いけない領域(必然性領域)と、存在する可能性(誤判
別をしても良い)のある領域(可能性領域)があるとす
ると、各分離曲面K2,K3は同図(B)または同図
(C)に示すようになり、疑似的に簡単となる。したが
って、係る可能性・必然性領域を入力した状態で学習さ
せることにより、学習・想起速度を早くするようにして
いる。
【0067】そして、実際には、出力誤差に乗算する係
数として出力誤差重みなる概念を設け、優先順位の高い
出力の属性の時は係る出力誤差重みを大きくし、優先順
位の低い出力の属性の時は逆に出力誤差重みを小さくす
ることにより、優先順位の高い出力の属性がニューラル
ネットの認識に与える影響を大きくし、その状態で学習
することにより優先順位の高い出力を確実に認識できる
ようになる。
【0068】そして、具体例を示すと、ニューラルネッ
トが例えば良品・不良品の判別(認識)を行うような検
査装置に用いられるとすると、不良品に対して誤判別を
することは認められないが、良品を不良と誤判別するこ
とはある程度許容されるため、不良品の認識率は100
%となるが、良品の認識率は例えば99%というような
要求仕様が与えられこととなる。係る場合に、良品のカ
テゴリの学習用データの時は、出力誤差重みを小さく
(例えば0.8)とり、不良品のカテゴリの学習用デー
タの時は出力誤差重みを大きく(例えば1.0)とれば
よい。なお、本例では出力誤差重みの最大値が1.0
で、係る値を初期値としている。
【0069】ここで、上記優先順位に基づく出力誤差重
みの概念を実行するために、本例では、図11に示すよ
うにそれら所定の出力誤差重みデータOWを格納した出
力誤差重みデータベース18を設け、その出力誤差重み
データOWを考慮して各種評価を行うようにし、さらに
本例では、そのデータベース18に格納された重みデー
タOWを修正する出力誤差重み調整装置28を設けてい
る。なお、出力誤差重みデータは、図13(A)に示す
ようなデータ構造となっている。また、このように出力
誤差重みデータOWを設けたことから最適化処理用パラ
メータPも図13(B)に示すように、上記第2実施例
のものに対してさらに、出力誤差重みのリセット回数の
閾値Nowth 並びに出力誤差重みの修正量dOWを加えた構
造となっている。さらにdEth+ ,dCth+ は、出力誤
差重み調整時の各閾値を兼ねている。
【0070】そして本例では、上記各実施例における学
習結果に伴う各種修正(不良ニューロンの削除,新規ニ
ューロンの追加等)に加えて出力誤差重みの修正処理が
追加されたことから、上記各実施例における中間層ニュ
ーロン最適化判定装置27の機能に、出力誤差重みの修
正を行うか否かの判断機能を備える必要がある。そこで
図11に示すように、第1,第2実施例における中間層
ニューロン最適化判定装置27に替えて、最適化処理選
択装置29を設け、その最適化処理選択装置29の出力
を上記出力誤差重み調整装置28並びに不良ニューロン
評価値算出装置23′に入力し、さらにその不良ニュー
ロン評価値算出装置23′の出力が各中間層ニューロン
削除,追加,重み初期化装置24′,25′,26′に
接続された構成をとる。なお、この接続の仕方は、図1
に示すものと同様に最適化処理選択装置29の出力を上
記各装置24′,25′,26′に接続し、不良ニュー
ロン評価値算出装置23′には、学習装置10′等から
直接所定のデータを与えるようにしても同様の作用効果
が得られる。
【0071】ここで、最適化処理選択装置29について
説明すると、ニューラルネット学習装置10′から出力
される階層型ニューラルネット重みデータW等、並びに
各種算出装置21′,22′で求められる誤差2乗和
E,正答率C及びその変化量dE,dC(具体的には図
14に示すようなデータ構造の形)を読み込み、最適化
処理用パラメータデータベース16′から最適化パラメ
ータPを読み込む。そして、与えられたデータから最適
化するための処理方法を決定するもので、具体的には図
15に示すフローチャートに従って判別処理がなされ、
次に行う処理(実行する装置)を決定する。なお、上記
求められる正答率変化量dC等、正答率に関するデータ
は図14と同様のデータ構造(行列)から構成される。
そして、この図15においても上記した図9の場合と同
様に、処理ステップ中括弧で示した処理は実際には次段
の各種装置(24′〜26′,28)で行われる。
【0072】そして、出力誤差の重み修正をすると決定
した場合には出力誤差重み調整装置28に、また、他の
修正等を行うと決定したなら、不良ニューロン評価値算
出装置23′にそれぞれ決定内容とともに所定のデータ
を送るようになっている。そして、不良ニューロン評価
値算出装置23′では、上記第1実施例と同様の処理を
行う、各ニューロンの評価値を求め、求められて来た決
定内容にしたがって、所定の装置(24′〜26′の内
のいずれか1つ)にその評価値とともに所定のデータを
送り、各種処理を行うようになっているが、各装置2
4′〜26′における具体的な処理内容は、上記実施例
と同様であるため、その説明を省略する。
【0073】一方、出力誤差重み調整装置28は、上記
のように最適化処理選択装置29にて出力誤差重みを修
正すると判断された際に、係る装置29から最適化パラ
メータP,ニューラルネット重みデータWを読み込み、
出力誤差重みデータベース18′から、出力誤差重みデ
ータOWを読み込み、係るデータに基づいて出力誤差重
みデータOWを修正後、データベース28に修正後の内
容を保存・格納するもので、具体的には以下のようにな
っている。
【0074】すなわち、基本的には、要求仕様を満たし
ている出力に対する出力誤差重みを、減少させるように
修正する。つまり、下記式に従って、左辺に該当する出
力誤差重みは、最適化パラメータPに格納された出力誤
差重みの修正量dOWだけ、減算する。
【0075】 if c lth+(i) ≦ C l(i) & dOW ≦ ow l(i) then ow l(i) = ow l(i) − dOW if c hth+(i) ≦ C h(i) & dOW ≦ ow h(i) then ow h(i) = ow h(i) − dOW 但し、「c l(i)」は、di[j] =0.0 の時のi番目の正答
率であり、「c h(i)」は、di[j] =1.0 の時のi番目の
正答率である。同様に、「c lth+(i) 」は、di[j] =0.
0 の時のi番目の正答率の閾値(要求仕様)であり、
「c hth+(i) 」は、di[j] =1.0 の時のi番目の正答率
の閾値(要求仕様)である(ともに、ニューロン重みリ
セット・追加・出力誤差重み修正時)。また、「ow h
(i) 」は、di[j] =1.0 の時のi番目の出力誤差重みで
ある。「ow l(i) 」は、di[j] =0.0の時のi番目の出
力誤差重みであり、「ow h(i) 」は、di[j] =1.0 の時
のi番目の出力誤差重みである。なお、i=1,2,…,pe3
で、出力層ニューロンの順番を示し(peL は、出力層
(第L層)のニューロン数)、di[j] は、j番目のパタ
ーン出力層i番目のニューロンに対する期待出力データ
である。
【0076】そして、係る構成にすることにより、要求
仕様を満たしている出力、すなわち、それまでに学習さ
れたニューラルネットにて十分に正しく認識できるもの
に付いては、その出力誤差重みを減少させ、その後の学
習では、学習結果の好ましくない、つまり要求仕様を満
たしていない教師用入力データと期待出力データのペア
について重点的に学習をすることにより、より高速に学
習を行い、最適解を得ることができる。
【0077】なお、その他の構成並びに作用は上記した
各実施例と同様であるためその説明を省略する。そし
て、本実施例における装置全体の作用の概略処理フロー
を図16に示す。
【0078】図17は、本発明の第4実施例を示してい
る。この例では、本発明の最も簡単な構成の1つであ
り、上記した第3実施例と同様に可能性・必然性領域な
る概念を用い、出力誤差に出力誤差重みデータを乗算し
て得られた算出結果に基づいて、学習状況の評価を行う
ことを基本とし、出力誤差重みデータ調整装置28′に
より、学習結果に応じて出力誤差重みデータを修正し、
修正後の出力誤差重みデータに基づいて次に行った学習
の評価を行うようにしている。そして、上記各実施例と
相違して、中間層ニューロンの追加・削減処理並びに重
みのリセット処理を行うための各種装置(上記の24〜
26や24′〜26′等)を設けないようにした。
【0079】そして、中間層ニューロンに対する処理装
置を設置しないことから、所定の学習後次に学習をする
前に必要に応じて行う最適化処理としては、出力誤差重
みデータの修正だけとなるため、中間層ニューロン最適
化判定装置27′における機能も図18に示すように簡
略化される。なお、係る構成にすると、中間層ニューロ
ンの追加/削除などする上記した第3実施例に比較する
とその機能は低下するものの、出力誤差重みデータを修
正する機能を有することから、学習中の出力誤差重みを
自動的に決定でき、単に可能性・必然性領域を設定して
行うものに比しその学習速度が十分高速化する。
【0080】なお、上記した各実施例は、本発明の一態
様例であり、本発明はこれに限ること無く、例えば、学
習処理を行いながらニューロンの数の適正化否かを判断
し、必要に応じて不良ニューロンを削除するだけでも良
い。また、それとは逆に学習中に中間層のニューロンの
数が不足であると判断した場合に、中間層に新たなニュ
ーロンを追加するようにするだけでも良い。さらには、
上記追加の作業に変えて、或いはそれと共に一度削除し
た不良ニューロンを復帰するようにしても良く、本発明
では任意の工程を適宜抽出し組み合わせて階層型ニュー
ラルネットの最適化を図ることができる。
【0081】そして、上記のように所望の処理を行う場
合には、それに応じて使用する最適化装置の構成部材
(不良ニューロン評価値算出装置23,中間層ニューロ
ン削減装置24,中間層ニューロン追加装置25並びに
中間層ニューロン重み初期化装置26等)のうち処理に
不要な構成を除き、他の構成部材を適宜組み合わせるこ
とにより最適化装置を構成しても良いのはもちろんであ
る。
【0082】さらには、第3実施例(図11)で示した
構成のうち、例えば出力誤差重み調整装置を無くし、出
力誤差重みデータベース18に格納された出力誤差重み
データOWを用いて各種評価を行い、次に行う中間層ニ
ューロンに対する所定の処理(追加,削減,重み初期
化)を決定するようにしても良い。さらに係る場合、上
記した各変形例と同様に、それら中間層ニューロンに対
して行う3つの処理のうち1または2個を行うための処
理装置をさらに設けなくても良い。
【0083】さらにまた、上記第3実施例では、第2実
施例の構造の装置を基準としてそれに出力誤差重みデー
タ調整装置を設置した例について説明したが、第1実施
例のもの(中間層ニューロンが最適か否かの判断基準が
少ない)に、出力誤差重みデータベースとともに設置す
るようにしても良く、種々変更実施が可能である。
【0084】さらに、上記した実施例では、ニューラル
ネットの学習方法としてバックプロパゲーションを用い
た例について説明したが、学習方法は任意のものを利用
することができる。また、不良ニューロンの抽出方法と
して、上記した実施例では、不良ニューロン評価値の低
いものから順に所定数だけ抽出するようにしたが、本発
明はこれに限ることなく、例えば係る不良ニューロン評
価値が所定値を超えるか否かで判断するなど種々の方法
を採ることができる。
【0085】
【発明の効果】以上のように、本発明に係る階層型ニュ
ーラルネットの最適化方法及び装置では、学習の最中に
中間層にニューロンを追加し、再度学習を続行すること
により、たとえ学習により得られた重みが局所解に陥っ
ていたとしてもそれから脱出し、最適解を得ることがで
きる。
【0086】また、中間層を構成する各ニューロンに対
し入力データの認識に貢献している度合いをあらわす不
良ニューロン評価値を求め、その評価値に基づいて不良
ニューロンを決定し、その不良ニューロンを所定のタイ
ミングで削除することにより、ニューロン数の削減に伴
い使用するメモリの容量を小さくすることができるとと
もに高速処理が可能となる。
【0087】さらに、必要に応じて係る不良ニューロン
の重みを初期化し、学習を続行することにより、局所解
から脱出し、最適解を得ることができる。そして、学習
状況に応じてニューロン数を増減することにより、認識
率を上げつつ処理速度が増加し、しかもコストを下げる
ことができる。また、一度削除されたニューロンが復帰
するようにしたことにより、たとえ誤って削除してしま
い認識率の低下などの弊害が生じたとしても、元の状態
に復帰させることができる。さらにまた、出力誤差重み
調整装置等を設けることにより、より高速に学習を行
い、最適解を求めることができる。
【0088】さらに、出力誤差重みデータを考慮して学
習後のニューラルネットに対する各種評価を行うように
した場合には、可能性/必然性領域の概念が導入され、
要求仕様を満たす最適解に、高速に達することができ
る。そして、出力誤差重み調整手段を設けた場合には、
初期設定された出力誤差重みデータを、学習状況に応じ
て修正し、自動的に決定することができ、修正後の出力
誤差重みデータを用い各種評価を行うことになり、より
高速に学習が終了させることができる。
【図面の簡単な説明】
【図1】本発明に係る階層型ニューラルネット最適化装
置の好適な一実施例を示すブロック構成図である。
【図2】学習用データベース内に格納されたデータ構造
の一例を示す図である。
【図3】重みデータベース内に格納されたデータ構造の
一例を示す図である。
【図4】中間層最適化パラメータデータベース内に格納
されたデータ構造の一例を示す図である。
【図5】不良ニューロン評価値のデータ構造の一例を示
す図である。
【図6】本発明に係る階層型ニューラルネットの最適化
方法の好適な一実施例を示すフローチャート図の一部で
ある。
【図7】図6に示されるフローチャート図の続きを示す
分図である。
【図8】図6,図7で示される作業手順の要部を示す工
程図である。
【図9】本発明に係る階層型ニューロンの最適化装置の
第2実施例の要部である、中間層ニューロン最適化判定
装置の機能を説明するフローチャート図である。
【図10】本実施例に用いられる最適化パラメータのデ
ータ構造の一例を示す図である。
【図11】本発明に係る階層型ニューロンの最適化装置
の第3実施例を示すブロック構成図である。
【図12】出力誤差重みデータの機能を説明する図であ
る。
【図13】本実施例における出力誤差重みデータ並びに
最適化パラメータのデータ構造の一例を示す図である。
【図14】本実施例における正答率のデータ構造の一例
を示す図である。
【図15】本実施例の最適化処理選択装置の機能を説明
するフローチャート図である。
【図16】本実施例の装置の全体の作用を説明するフロ
ーチャート図である。
【図17】本発明に係る階層型ニューロンの最適化装置
の第4実施例を示すブロック構成図である。
【図18】本実施例の中間層ニューロン最適化判定装置
の機能を説明するフローチャート図である。
【図19】局所解と最適解の関係の一例を示すグラフで
ある。
【符号の説明】
10 ニューラルネット学習装置 18′ 出力誤差重みデータD/B 20,20′,20″ 階層型ニューラルネット最適化
装置 21,21′,21″ 誤差2乗和とその変化量算出装
置 22,22′,22″ 正答率とその変化量算出装置 23,23′,23″ 不良ニューロン評価値算出装置 24,24′,24″ 中間層ニューロン削減装置 25,25′,25″ 中間層ニューロン追加装置 26,26′,26″ 中間層ニューロン重み初期化装
置 27,27′,27″ 中間層ニューロン最適化判定装
置 28,28″ 出力誤差重み調整装置 29 最適化処理選択装置

Claims (12)

    【特許請求の範囲】
  1. 【請求項1】 階層型ニューラルネットに対して所定の
    学習を行っている途中で、中間層のニューロン間に付与
    されている重みが局所解に陥っているか否かを判断し、
    局所解に陥っているときに前記中間層の所定位置に新た
    なニューロンを追加するようにしたことを特徴とする階
    層型ニューラルネットの最適化方法。
  2. 【請求項2】 階層型ニューラルネットに対して学習を
    行うニューラルネット学習装置と、 そのニューラルネット学習装置から出力される学習状況
    データに基づいて中間層のニューロン間に付与されてい
    る重みが局所解に陥っているか否かを判断する装置と、 その判断する装置から送られる制御信号に基づいて前記
    中間層に新たなニューロンを追加する中間層ニューロン
    追加装置とを備えたことを特徴とする階層型ニューラル
    ネットの最適化装置。
  3. 【請求項3】 階層型ニューラルネットに対して所定の
    学習を行っている途中で、中間層を構成する各ニューロ
    ンに対し入力データの認識に貢献している度合いをあら
    わす不良ニューロン評価値を求め、その評価値に基づい
    て不良ニューロンを決定し、その不良ニューロンを所定
    のタイミングで削除した後、学習を続行するようにした
    ことを特徴とする階層型ニューラルネットの最適化方
    法。
  4. 【請求項4】 階層型ニューラルネットに対して学習を
    行うニューラルネット学習装置と、 そのニューラルネット学習装置から出力される学習状況
    データに基づいて中間層を構成する各ニューロンに対し
    入力データの認識に貢献している度合いをあらわす不良
    ニューロン評価値を算出する不良ニューロン評価値算出
    装置と、 前記ニューラルネット学習装置から出力される学習状況
    データに基づいて学習が最適解に近付いている否かを判
    断する装置と、 その判断する装置から送られる制御信号と、前記不良ニ
    ューロン評価値算出装置から送られる不良ニューロンの
    評価値データとに基づいて、前記中間層の不良ニューロ
    ンを削除する中間層ニューロン削減装置とを備えたこと
    を特徴とする階層型ニューラルネットの最適化装置。
  5. 【請求項5】 階層型ニューラルネットに対して所定の
    学習を行っている途中で、中間層を構成する各ニューロ
    ンに対し入力データの認識に貢献している度合いをあら
    わす不良ニューロン評価値を求め、その評価値に基づい
    て不良ニューロンを決定し、所定のタイミングでその不
    良ニューロンに対し付与されている重みを初期化した
    後、学習を続行するようにしたことを特徴とする階層型
    ニューラルネットの最適化方法。
  6. 【請求項6】 階層型ニューラルネットに対して学習を
    行うニューラルネット学習装置と、 そのニューラルネット学習装置から出力される学習状況
    データに基づいて中間層を構成する各ニューロンに対し
    入力データの認識に貢献している度合いをあらわす不良
    ニューロン評価値を算出する不良ニューロン評価値算出
    装置と、 そのニューラルネット学習装置から出力される学習状況
    データに基づいて中間層のニューロン間に付与されてい
    る重みが局所解に陥っているか否かを判断する装置と、 その判断する装置から送られる制御信号と、前記不良ニ
    ューロン評価値算出装置から送られる不良ニューロンの
    評価値データとに基づいて、前記中間層の不良ニューロ
    ンの重みを初期化する中間層ニューロン重み初期化装置
    とを備えたことを特徴とする階層型ニューラルネットの
    最適化装置。
  7. 【請求項7】 階層型ニューラルネットに対して所定の
    学習を行っている途中で、前記請求項1並びに前記請求
    項3に記載した手法を用い、中間層のニューロンの追加
    処理と削除処理を適宜使い分けながら実行するようにし
    たことを特徴とする階層型ニューラルネットの最適化方
    法。
  8. 【請求項8】 前記請求項3または請求項7の処理を行
    って一度削除された不良ニューロンを復帰させた後、学
    習を続行させることを特徴とする階層型ニューラルネッ
    トの最適化方法。
  9. 【請求項9】 階層型ニューラルネットに対して学習を
    行うニューラルネット学習装置と、 そのニューラルネット学習装置から出力される学習状況
    データに基づいて中間層を構成する各ニューロンに対し
    入力データの認識に貢献している度合いをあらわす不良
    ニューロン評価値を算出する不良ニューロン評価値算出
    装置と、 前記ニューラルネット学習装置から出力される学習状況
    データに基づいて学習の状態を判断する装置と、 その判断する装置から送られる制御信号に基づいて前記
    中間層に新たなニューロンを追加する中間層ニューロン
    追加装置と、 前記判断する装置から送られる制御信号と、前記不良ニ
    ューロン評価値算出装置から送られる不良ニューロンの
    評価値データとに基づいて、前記中間層の不良ニューロ
    ンを削除する中間層ニューロン削減装置と、 前記中間層のニューロンの重みを初期化する中間層ニュ
    ーロン重み初期化装置とを備えたことを特徴とする階層
    型ニューラルネットの最適化装置。
  10. 【請求項10】 請求項2,4,6,9のいずれか1項
    に記載された階層型ニューラルネットの最適化装置に対
    し、 与えられる要求仕様に基づいて設定される出力誤差重み
    データを格納した記憶手段を設け、 前記各種の判断する装置が、前記記憶手段に格納された
    出力誤差重みデータを考慮して前記各種の判断を行うよ
    うにしたことを特徴とする階層型ニューラルネットの最
    適化装置。
  11. 【請求項11】 請求項10に記載の階層型ニューラル
    ネットの最適化装置に対し、 前記記憶手段に格納された出力誤差重みデータを修正す
    る出力誤差重み調整手段を設け、 前記判断する手段が、前記出力誤差重みデータを修正す
    るか否かの判断機能をさらに備えたことを特徴とする階
    層型ニューラルネットの最適化装置。
  12. 【請求項12】 階層型ニューラルネットに対して学習
    を行うニューラルネット学習装置と、 所定の出力誤差重みデータを格納した記憶手段と、その
    ニューラルネット学習装置から出力される学習状況デー
    タと、前記記憶手段から与えられる出力誤差重みデータ
    に基づいて、学習状況を判断し前記出力誤差重みデータ
    の修正の要否を判断する手段と、 前記判断する手段の判断結果に基づいて、前記出力誤差
    重みデータを修正するとともにその修正後の出力誤差重
    みデータ前記記憶手段に格納する出力誤差重み調整手段
    とを備えた階層型ニューラルネットの最適化装置。
JP4314305A 1991-11-11 1992-10-30 階層型ニューラルネットの最適化方法及び装置 Pending JPH05197821A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP4314305A JPH05197821A (ja) 1991-11-11 1992-10-30 階層型ニューラルネットの最適化方法及び装置

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP32148191 1991-11-11
JP3-321481 1991-11-11
JP4314305A JPH05197821A (ja) 1991-11-11 1992-10-30 階層型ニューラルネットの最適化方法及び装置

Publications (1)

Publication Number Publication Date
JPH05197821A true JPH05197821A (ja) 1993-08-06

Family

ID=26567895

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4314305A Pending JPH05197821A (ja) 1991-11-11 1992-10-30 階層型ニューラルネットの最適化方法及び装置

Country Status (1)

Country Link
JP (1) JPH05197821A (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005352900A (ja) * 2004-06-11 2005-12-22 Canon Inc 情報処理装置、情報処理方法、パターン認識装置、及びパターン認識方法
WO2007096954A1 (ja) * 2006-02-22 2007-08-30 Saga University ニューラルネットワーク装置及びその方法
CN103902783B (zh) * 2014-04-11 2017-03-01 北京工业大学 一种基于广义逆向学习差分算法的排水管网优化方法
JP2019530105A (ja) * 2016-10-10 2019-10-17 ディープマインド テクノロジーズ リミテッド ロボットエージェントによって実行されるべきアクションを選択するためのニューラルネットワーク
US10460236B2 (en) 2015-08-07 2019-10-29 Toyota Jidosha Kabushiki Kaisha Neural network learning device
JP2020161031A (ja) * 2019-03-28 2020-10-01 株式会社日立製作所 計算機システム及び機械学習の制御方法
CN112534446A (zh) * 2018-09-10 2021-03-19 日立汽车***株式会社 电子控制装置、神经网络更新***

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005352900A (ja) * 2004-06-11 2005-12-22 Canon Inc 情報処理装置、情報処理方法、パターン認識装置、及びパターン認識方法
US8015130B2 (en) 2004-06-11 2011-09-06 Canon Kabushiki Kaisha Information processing apparatus, information processing method, pattern recognition apparatus, and pattern recognition method
WO2007096954A1 (ja) * 2006-02-22 2007-08-30 Saga University ニューラルネットワーク装置及びその方法
JP5002821B2 (ja) * 2006-02-22 2012-08-15 国立大学法人佐賀大学 ニューラルネットワーク装置及びその方法
CN103902783B (zh) * 2014-04-11 2017-03-01 北京工业大学 一种基于广义逆向学习差分算法的排水管网优化方法
US10460236B2 (en) 2015-08-07 2019-10-29 Toyota Jidosha Kabushiki Kaisha Neural network learning device
JP2019530105A (ja) * 2016-10-10 2019-10-17 ディープマインド テクノロジーズ リミテッド ロボットエージェントによって実行されるべきアクションを選択するためのニューラルネットワーク
US11534911B2 (en) 2016-10-10 2022-12-27 Deepmind Technologies Limited Neural networks for selecting actions to be performed by a robotic agent
CN112534446A (zh) * 2018-09-10 2021-03-19 日立汽车***株式会社 电子控制装置、神经网络更新***
JP2020161031A (ja) * 2019-03-28 2020-10-01 株式会社日立製作所 計算機システム及び機械学習の制御方法

Similar Documents

Publication Publication Date Title
US5214746A (en) Method and apparatus for training a neural network using evolutionary programming
US20180046915A1 (en) Compression of deep neural networks with proper use of mask
CN107729999A (zh) 考虑矩阵相关性的深度神经网络压缩方法
CN108062572A (zh) 一种基于DdAE深度学习模型的水电机组故障诊断方法与***
CN110009030A (zh) 基于stacking元学习策略的污水处理故障诊断方法
JPH05197821A (ja) 階層型ニューラルネットの最適化方法及び装置
CN114202065B (zh) 一种基于增量式演化lstm的流数据预测方法及装置
JPH05158910A (ja) ニューラルネットのトレイン方法及びニューラルネットの分類装置
CN110852435A (zh) 一种基于神经进化计算模型
CN114662653A (zh) 一种基于生成式对抗网络的Double-LSTM电池容量估算方法
CN113035348A (zh) 一种基于gru特征融合的糖尿病诊断方法
JPH0683792A (ja) ニューラルネットワークの学習装置およびニューラルネットワークの学習パターン呈示方法
JPH0991263A (ja) ニューラルネットワーク構造最適化装置ならびに方法
CN109492746A (zh) 基于ga-pso杂交算法的深度信念网络参数优化方法
Lizhe et al. BP network model optimized by adaptive genetic algorithms and the application on quality evaluation for class teaching
CN115906959A (zh) 基于de-bp算法的神经网络模型的参数训练方法
JP2907486B2 (ja) ニューラルネットワーク装置
CN115359062A (zh) 通过半监督实例分割标定监控目标的方法及***
JP3757722B2 (ja) 多層ニューラルネットワークユニット数最適化方法及び装置
Hassan et al. Rough neural classifier system
JP2002288625A (ja) 多目的最適化方法、プログラムおよびプラン立案装置
JP2847395B2 (ja) 学習制御装置
JP3329202B2 (ja) ニューラルネットワーク学習方式
JP4586420B2 (ja) 多層ニューラルネットワーク学習装置及びソフトウェア
CN107292270A (zh) 一种用于脑电信号特征分类的anfis规则库优化算法

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20010807