JPH08166934A - ニューラルネットワークを用いた関数生成装置 - Google Patents

ニューラルネットワークを用いた関数生成装置

Info

Publication number
JPH08166934A
JPH08166934A JP6308788A JP30878894A JPH08166934A JP H08166934 A JPH08166934 A JP H08166934A JP 6308788 A JP6308788 A JP 6308788A JP 30878894 A JP30878894 A JP 30878894A JP H08166934 A JPH08166934 A JP H08166934A
Authority
JP
Japan
Prior art keywords
unit
output
layer
intermediate layer
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP6308788A
Other languages
English (en)
Inventor
Takasato Yamaguchi
貴吏 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP6308788A priority Critical patent/JPH08166934A/ja
Publication of JPH08166934A publication Critical patent/JPH08166934A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Feedback Control In General (AREA)

Abstract

(57)【要約】 【目的】 目的とする関数を生成するためのユニットの
重み及びしきい値の初期値設定及び中間層ユニットの追
加を行なうことにより学習効率の向上を図ったニューラ
ルネットワークを用いた関数生成装置を提供すること。 【構成】 関数生成装置は、入力層部11、中間層部1
2及び出力層部13からなるニューラルネットワーク部
10と、学習に必要なデータが蓄えられている学習デー
タファイル部14と、学習データファイル部14と各装
置とのデータの受渡しを行なう入出力装置15と、出力
層部13の出力データと学習データファイル部14の出
力データの誤差が減少するように中間層部12及び出力
層部13の重み及びしきい値を修正する学習装置16
と、各ユニットの重み及びしきい値の初期値を設定する
初期値設定装置17と、中間層ユニット追加装置18と
から構成される。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、階層型ニューラルネッ
トワークを用いた関数生成装置に係り、特に、制御系の
各状態量に対する制御量、最適設計の設計変数に対する
目的関数などの複雑な対応関係に関して、部分的に与え
られた入出力データよりその対応関係を関数として表現
するためのニューラルネットワークを用いた関数生成装
置に関する。
【0002】
【従来の技術】図2は、ニューラルネットワークの基本
ユニットを示す構成図である。ユニットは、(1)式及
び(2)式の入出力関係を満たす多入力1出力の素子で
ある。
【0003】
【数1】
【0004】ここで、n、xi、wi、h、u、o及びf
(u)は、それぞれ、ユニットの入力数、入力、重み、
しきい値、内部状態、出力及び図3に示すシグモイド関
数である。 ニューラルネットッワークは、このユニッ
トを複数個、結合することにより構成され、ユニットの
結合方法によって階層型ニューラルネットワーク、相互
結合型ニューラルネットワークなどに分類される。
【0005】図4は、階層型ニューラルネットワークを
示す構成図である。階層型ニューラルネットッワーク
は、ユニットが複数の階層に分かれてならび、入力層部
41から中間層部42の層43及び層44を経由して出
力層部45へ向かう方向にのみ結合がある。
【0006】入力層部41のユニットの入力及び出力層
部45のユニットの出力を階層型ニューラルネットワー
クの入力及び出力とすると、ニューラルネットワークの
入出力関係は、(1)式及び(2)式よりユニットの重
み及びしきい値をパラメータに持つ多入力多出力関数で
表せる。
【0007】目標とする関数の入出力データが与えられ
たとき、階層型ニューラルネットワークの各ユニットの
重み及びしきい値を適切な値に設定する方法としては、
一般に誤差逆伝搬法による繰り返し計算で求めている。
このとき、ユニットの重み及びしきい値の初期値の設定
方法によっては、繰り返し計算の回数が増加したり、ロ
ーカルミニマムに陥り、目標とする関数が得られないと
いう問題が生じる。
【0008】ユニットの重み及びしきい値の初期値設定
方法に関しては、特開平3−48363号公報及び特開
平4−205390号公報において論じられている。前
記文献では、各ユニットの内部状態が図3のシグモイド
関数の活性化領域内に入るように乱数を設定している。
乱数を用いるのは、まだ学習が行なわれていない初期状
態において、あらゆる関数の可能性を考慮した機会均等
の概念を利用しているからである。
【0009】
【発明が解決しようとする課題】このように、上記従来
技術は、あらゆる関数の可能性を考慮してランダムにネ
ットワークを構成していた。そのため、ニューラルネッ
トワークによる関数生成の初期状態において、ユニット
の重み及びしきい値による効果を積極的に利用しておら
ず、効率的な学習方法とは言えない。
【0010】図5は、ニューラルネットワークにおける
各層での関数生成過程を示す図である。層52における
各ユニットの出力関数は、層51における各ユニットの
出力関数をそれぞれ拡大・縮小、反転及び移動して加え
合わせることによって生成される。(1)式より、重み
は拡大・縮小及び反転の操作量に、及びまた、しきい値
は移動の操作量に対応している。そして、ニューラルネ
ットワークの学習は、上記ユニットで行なう拡大・縮
小、反転及び移動の操作量(重み及びしきい値)を調整
している。
【0011】本発明はこのような事情に鑑みてなされた
ものであり、ニューラルネットワークによる関数生成を
各ユニットの重み及びしきい値によって拡大・縮小、反
転及び移動処理された関数の合成と考え、目的とする関
数を生成するためのユニットの重み及びしきい値の初期
値設定及び中間層ユニットの追加を行なうことにより学
習効率の向上を図ったニューラルネットワークを用いた
関数生成装置を提供することを目的とする。
【0012】
【課題を解決するための手段】本発明のニューラルネッ
トワークを用いた関数生成装置は、1つ以上の入力に対
して重みを掛け合わせ、更にしきい値を加える演算部及
び該演算部からの出力を単調増加関数を適用することに
より変換する変換部から構成されるユニットを、入力
層、1層以上の中間層、及び出力層に配置した階層型ニ
ューラルネットワークを用いた関数生成装置であって、
前記入力層において入力データをユニットの出力領域で
分散した値に変換されるように各入力層ユニットの重み
及びしきい値の初期値を設定する入力層初期値設定手段
と、中間層において入力層ユニットから得られる関数を
拡大、縮小及び平行移動して加え合わせることにより中
間層の最終層で偶数組のユニットごとに同一関数を生成
するように各中間層ユニットの重み及びしきい値の初期
値を設定する中間層初期値設定手段と、出力層において
前記中間層で生成した偶数組の同一関数のうち各組の一
方の関数を反転して加え合わせること一定の値を出力す
るように各出力層ユニットの重み及びしきい値の初期値
を設定する出力層初期値設定手段とを含んで構成される
初期値設定手段を有することを特徴とする。
【0013】また本発明のニューラルネットワークを用
いた関数生成装置は、1つ以上の入力に対して重みを掛
け合わせ、更にしきい値を加える演算部及び該演算部か
らの出力を単調増加関数を適用することにより変換する
変換部から構成されるユニットを、入力層、1層以上の
中間層、及び出力層に配置した階層型ニューラルネット
ワークを用いた関数生成装置であって、前記入力層にお
いて入力データをユニットの出力領域で分散した値に変
換されるように入力層ユニットの重み及びしきい値の初
期値を設定する入力層初期値設定手段と、中間層におい
て入力層ユニットから得られる関数を拡大、縮小、反転
及び平行移動して加え合わせることにより2組のユニッ
トごとに対称関数を生成するように各中間層ユニットの
重み及びしきい値の初期値を設定する中間層初期値設定
手段と、出力層において前記中間層で生成した2組の関
数を拡大、縮小して加え合わせることにより一定の値を
出力するように各出力層ユニットの重み及びしきい値の
初期値を設定する出力層初期値設定手段とを含んで構成
される初期値設定手段を有することを特徴とする。
【0014】更に本発明のニューラルネットワークを用
いた関数生成装置では、前記階層型ニューラルネットワ
ークの出力データと学習データファイル部に格納されて
いる前記ニューラルネットワークの入出力関係を示すデ
ータのうちの出力データとの誤差を監視し、学習が収束
に向かっているか否を判定する学習監視手段と、該学習
監視手段により前記ニューラルネットワークの学習が不
十分であると判定された場合に既にある中間層ユニット
及び出力層ユニットには互いに影響を与えず、かつ前記
中間層初期値設定手段及び前記出力層初期値設定手段に
従って中間層ユニットを追加する中間層ユニット追加手
段とを有することを特徴とする。
【0015】
【作用】上記構成のニューラルネットワークを用いた関
数生成装置では、入力層初期値設定手段は、学習する入
力データがユニットの出力領域内で分散するように入力
層ユニットの重み及びしきい値の初期値を設定する。
【0016】中間層初期値設定手段は、前層のユニット
の入出力関係を表わす関数を拡大・縮小、反転及び平行
移動して加え合わせることにより、数種類の関数を生成
するように中間層ユニットの重み及びしきい値の初期値
を設定する。ただし、最終層では、2組のユニットごと
に同一関数を生成するように設定する。
【0017】出力層初期値設定手段は、中間層の最終層
ユニットから得られる2組の同一関数を同じ割合で拡大
・縮小及び平行移動し、どちらか一方を反転して加え合
わせることにより、ユニットの出力が一定値になるよう
に出力層ユニットの重み及びしきい値の初期化を設定す
る。
【0018】出力層ユニットの出力は、学習前の初期状
態では、2組の同一関数が互いに打ち消し合うため一定
値になるが、学習によって同一関数が変化するとそれぞ
れの関数で特徴づけられた個所で凹凸が生じる。この凹
凸が成長することによって目標とする関数が生成され
る。
【0019】中間層ユニット追加手段は、ニューラルネ
ットワークの学習が不十分(ローカルミニマムに陥って
いる)と判断した場合、中間層に新しく複数個のユニッ
トを追加し、前記中間層初期値設定手段及び出力層初期
値設定手段に従って目標とする関数との誤差が大きい領
域に敏感に反応するように追加ユニットの重み及びしき
い値の初期値を設定する。追加した中間層ユニットは、
これまで学習した関数に影響を与えないが、引続き学習
を開始すると、目標とする関数との誤差が大きい領域を
改善するように働く。
【0020】
【実施例】以下、本発明の実施例を図1に示す3層ニュ
ーラルネットワークを用いた関数生成装置のブロック図
を用いて詳細に説明する。図において、10は入力層部
11、中間層部12及び出力層部13からなるニューラ
ルネットワーク部、14は学習に必要なデータが蓄えら
れている学習データファイル部、15は学習データファ
イル部14と入力層部11、学習装置16、初期値設定
装置17及び中間層ユニット追加装置18とのデータの
受渡しを行なう入出力装置、16は出力層部13の出力
データと学習データファイル部14の出力データの誤差
を減少するように中間層部12及び出力層部13におけ
るユニットの重み及びしきい値を修正する学習装置、1
7は入力層部11、中間層部12及び出力層部13のユ
ニット数、ユニットの重み及びしきい値の初期値を設定
する初期値設定装置、18は中間層ユニット追加装置で
ある。
【0021】関数生成装置を起動すると、まず、初期値
設定装置17が学習データファイル部14に蓄えられて
いる学習用の入出力データに基づき、各層のユニット数
及び各ユニットの重み及びしきい値の初期値を設定し、
ニューラルネットワーク部10の構成を決定する。
【0022】次に、学習装置16が、出力層部13の出
力データと学習データファイル部14の出力データの二
乗誤差を減少するように中間層部12及び出力層部13
におけるユニットの重み及びしきい値を修正する。ここ
で、出力層部13におけるユニットの出力データは、学
習データファイル部14から取り出した入力データを入
力層部11のユニットに与え、(1)式及び(2)式に
従って入力層部11から出力層部13へ順に計算を行な
うことによって得られる。
【0023】また、学習装置16による中間層部12及
び出力層部13の重み及びしきい値の修正(学習)は、
ニューラルネットワーク部10の入出力関係が学習デー
タファイル部14に蓄えられている入出力データの対応
関係を十分満足するまで繰り返し行なわれる。繰り返し
学習を行なっても出力層部13と学習データファイル部
14の出力データの誤差が減少しない(ローカルミニマ
ムに陥っている)場合、これ以上精度の高い近似関数が
生成できないことになる。このとき、中間層ユニット追
加装置18は、中間層部12へのユニットの追加、追加
ユニットの重み及びしきい値の設定、及び追加ユニット
から出力層部13のユニットへの重みを設定してニュー
ラルネットワーク部10の拡張を行なう。
【0024】図6は、初期値設定装置17の装置構成を
示すブロック図である。61は学習データファイル部1
4に蓄えられている入出力データより入力層部11、中
間層部12及び出力層部13のユニット数を設定するユ
ニット数設定装置、62は入力層部11のユニットの初
期値を設定する入力層初期値設定装置、63は中間層部
12のユニットの初期値を設定する中間層初期値設定装
置、64は出力層部13のユニットの初期値を設定する
出力層初期値設定装置である。
【0025】入力層初期値設定装置62は、学習データ
ファイル部14から取り出された入力データが(0.0,
1.0)区間で分散した値に変換されるように入力層ユニ
ットの重み及びしきい値を設定する。入力層部11の第
i番目ユニットに与える入力データの最大値
(x1 imax)及び最小値(x1 imin)を(1)式に代入し
た結果が、図3に示すシグモイド関数(f(u))の飽
和領域の境界値u1 max及びu1 minになるとすると次式が
得られる。
【0026】
【数2】
【0027】ここでn1、w1 i及びh1 iは、それぞれ入
力層部11のユニット数、入力層部11の第i番目ユニ
ットの重み及びしきい値である。(3)式及び(4)式
より、入力層ユニットの重み(w1 i)及びしきい値(h
1 i)は、次式によって与えられる
【0028】
【数3】
【0029】中間層初期値設定装置63は、入力層ユニ
ットから得られる関数を拡大・縮小及び平行移動して加
え合わせることにより、2組のユニットごとに同一関数
を生成するように中間層ユニットの重み及びしきい値の
初期値を設定する。中間層ユニットでの関数の種類とし
ては、例えば、図7に示すように入力層ユニットから得
られる関数を全て同じ割合で拡大・縮小し、等間隔で平
行移動することが考えられる。(1)式に対し、重み
(拡大・縮小の割合)が全て同じ値を持つとし、中間層
ユニットの入力へ最大値(1.0)及び最小値(0.0)を代入
した結果がu2 max及びu2 minになるとすると次式が得ら
れる。
【0030】
【数4】
【0031】ここで、n2、w2 ij及びh2 jは中間層部1
2のユニット数、入力層部11の第i番目ユニットと中
間層部12の第j番目ユニット間の重み、及び中間層部
12の第j番目ユニットのしきい値である。(7)式及
び(8)式において重みが全て同じ値を持つので、中間
層ユニットの重み(w2 ij)は、次式のように与えられ
る。
【0032】
【数5】
【0033】また、(9)式によって拡大・縮小した関
数を2組ごとに区間[umin,umax]内で等間隔に平行
移動するためには、中間層ユニットのしきい値(h2 j
は、次式のように与えられる。
【0034】
【数6】
【0035】出力層初期値設定装置64は、中間層部1
2で生成した2組の同一関数のうち一方を反転して加え
合わせることにより一定の値を出力するように出力層ユ
ニットの重み及びしきい値の初期値を設定する。図8
は、図7で示した関数に対し、各区間にある同一の関数
の一方を反転して互いに打ち消し合い、一定値(0.0)
を出力する様子を表している。前記中間層初期値設定装
置63と同様に全て同じ割合で拡大・縮小し、同一関数
の一方を反転するためには、中間層部12の第i番目ユ
ニットと出力層部13の第j番目ユニット間の重み(w
3 ij)は、次式のように与えられる。
【0036】
【数7】
【0037】ここで、n3、u3 max及びu3 minは出力層
部13のユニット数、図3に示すシグモイド関数(f(u))
の飽和領域との境界の最大値及び最小値である。
【0038】また、出力層ユニットの出力を一定値(0.
0)にするためには、出力層部13における第j番目の
ユニットのしきい値(h3 j)は、次式のように与えられ
る。
【0039】
【数8】
【0040】出力層ユニットの出力は、学習前の初期状
態では、同一関数が互いに打ち消し合うため一定値(0.
0)であるが、学習によって各ユニットの関数が変化する
と、中間層ユニットのしきい値(h2 j)で区切られた各区
間で凹凸が生じる。学習データファイル部14に蓄えら
れている入出力データに対し、入力データの位置で出力
データが得られるように凹凸を成長させることによっ
て、目的とする関数が得られる。
【0041】図9は、中間層ユニット追加装置18の装
置構成を示すブロック図である。91は学習の収束状況
を判断する学習監視装置、92は中間層ユニットを追加
するユニット追加装置、93は追加した中間層ユニット
の重み及びしきい値に初期値を設定する中間層初期値追
加装置94及び追加した中間層ユニットから出力層ユニ
ットへの重み及びしきい値に初期値を設定する出力層初
期値追加装置95からなる初期値追加装置、96は追加
情報を学習データファイル部14に格納する追加情報出
力装置である。
【0042】学習監視装置91は、ニューラルネットワ
ーク部10の出力データと学習データファイル部14の
出力データの誤差を監視し、学習が収束に向かっている
かを判定する。誤差がほとんど減少してない(ローカル
ミニマムに陥っている)場合、これ以上学習を続けても
精度の高い近似関数を生成することができない。このと
き、ユニット追加装置92及び初期値追加装置93を起
動し、この状況を回避するように中間層ユニットを追加
する。ユニット追加装置92は中間層部12に偶数個の
ユニットを追加し、入力層部11及び出力層部13のユ
ニットと結合する。 中間層初期値追加装置94は、追
加した偶数個のユニットに対し、中間層初期値設定装置
63と同様に2組のユニットごとに同一関数を生成する
ように追加ユニットの重み及びしきい値の初期値を設定
する。
【0043】出力層初期値追加装置95は、出力層初期
値設定装置64と同様に追加した中間層ユニットで生成
した2組の同一関数のうち一方を反転して加え合わせる
ことにより一定の値を出力するように出力層ユニットの
重み及びしきい値の初期値を設定する。
【0044】追加情報出力装置は96は、追加したユニ
ット数、中間層及び出力層のユニットに追加した重み及
びしきい値の初期値を学習データファイル部14に格納
する。
【0045】図10〜図12は、入力層、中間層及び出
力層にそれぞれ1個、6個及び1個のユニットを持つ1
入力1出力の3層ニューラルネットワークに対し、
(5)、(6)、(9)〜(12)式に従って各ユニッ
トの重み及びしきい値を設定し(ただし、x1 min=0.0、
1 max=1.0、 u1 min=−3、 u1 max=3、 u2 min
−10、 u2 max=10、 u3 min=−5、 u3 max=5とし
た)、5種類の入出力データ(0.1,0.1)、(0.3,0.9)、
(0.5,0.1)、(0.7,0.9)及び(0.9,0.1)を学習したときの
学習過程を示す図(横軸が入力、縦軸が出力)である。
【0046】図10は、10回目の学習結果であり、全
ての入力領域でほぼ一定値(約0.0)になっている。図
11は、50回目の学習結果であり、入力が0.3及び0.7
の近傍領域で凸、0.0.、0.5及び1.0の近傍領域で凹にな
っている。図12は、240回目の学習結果であり、5
種類の入出力データの近傍を通る関数になっているのが
わかる。
【0047】次に複数の出力関数を組み合わせて目的と
する関数を生成するニューラルネットワークを用いた関
数生成装置の他の実施例について説明する。本実施例は
前記実施例においてニューラルネットワーク部10の出
力層部13で行なう関数の反転を中間層部12で行なう
ようにしたものである。以下具体的に説明する。
【0048】図6において、中間層初期値設定装置63
は、入力層部11の各ユニットから得られる関数を拡大
・縮小、反転及び平行移動により、2組のユニットごと
に対称関数を生成するように中間層ユニットの重み及び
しきい値の初期値を設定する。中間層部12のユニット
での関数の種類としては、例えば、図13に示すように
入力層部11の各ユニットから得られる関数を全て同じ
割合で拡大・縮小して偶数番目ユニットのみ反転し、等
間隔で平行移動することが考えられる。(1)式に対
し、重みが全て同じ値(奇数ユニットは正値、偶数ユニ
ットは負値)を持つとし、入力層部11の各ユニットの
出力[0.0,1.0]を中間層部12の各ユニットへ入力し
た結果、中間層部12の内部状態の最大値がu2 max及び
最小値がu2 minになるとすると次式が得られる。
【0049】
【数9】
【0050】ここで、n2、w2 ij及びh2 jは、それぞれ
中間層部12のユニット数、入力層部11の第i番目ユ
ニットと中間層部12の第j番目ユニット間の重み、及
び中間層部12の第j番目ユニットのしきい値である。
(13)式、(14)式、(15)式及び(16)式に
おいて、重みが全て同じ値を持つとすると、中間層部1
2の各ユニットの重み(w2 ij)は、次式のように与え
られる。
【0051】
【数10】
【0052】また、(17)式によって拡大・縮小した
関数2組ごとに区間[umin,umax]内で等間隔に平行
移動するためには、中間層部12の各ユニットのしきい
値(h2 j)は、次式のよう与えられる。
【0053】
【数11】
【0054】出力層初期値設定装置64は、中間層部1
2で生成した2組の関数を拡大・縮小して加え合わせる
ことにより一定の値を出力するように出力層部13の各
ユニットの重み及びしきい値の初期値を設定する。図1
4は、図13で示した関数を全て同じ割合で拡大・縮小
して加え合わせることにより、一定値(0.5)を出力す
る状態を表わしている。前記中間層初期値設定装置63
と同様に全て同じ割合で拡大・縮小するためには、中間
層部12の第i番目ユニットと出力層部13の第j番目
ユニット間の重み(w3 ij)は、次式のように与えられ
る。
【0055】
【数12】
【0056】ここで、n3、u3 max及びu3 minは、それ
ぞれ出力層部13のユニット数、図3に示すシグモイド
関数(f(u))の飽和領域との境界の最大値及び最小値であ
る。また、出力層ユニットの出力を一定値(0.5)にする
ためには、出力層部13における第j番目ユニットのし
きい値(w3 ij)は、次式のように与えられる
【0057】
【数13】
【0058】出力層部13の各ユニットの出力は、学習
前の初期状態では、同一関数が互いに打ち消し合うため
一定値(0.0)であるが、学習によって各ユニットの関数
が変化すると、中間層ユニットのしきい値(h2 j)で区
切られた各区間で凹凸が生じる。学習データファイル部
14に蓄えられている入出力データに対し、入力データ
の位置で出力データが得られるように凹凸を成長させる
ことによって、目的とする関数が得られる。
【0059】本実施例における中間層ユニット追加装置
18の装置構成は図9と同様である。 本実施例では図
9において、学習監視装置91は、ニューラルネットワ
ーク部10の出力データと学習データファイル部14の
出力データの誤差を監視し、学習が収束に向かっている
か否かを判断する。誤差がほとんど減少してない(ロー
カルミニアムに陥っている)場合、これ以上学習を続け
ても精度の高い近似関数を生成することができない。こ
のとき、ユニット追加装置92及び初期値追加装置93
を起動し、この状況を回避するように中間層ユニットを
追加する。
【0060】ユニット追加装置92は中間層部12に偶
数個のユニットを追加し、入力層部11及び出力層部1
3のユニットと結合する。中間層初期値追加装置94
は、追加した偶数個のユニットに対し、中間層初期値設
定装置63と同様に2組のユニットごとに対称関数を生
成するように追加ユニットの重み及びしきい値の初期値
を設定する。
【0061】出力層初期値追加装置95は、出力層初期
値設定装置64と同様に追加した中間層ユニットで生成
した2組の対称関数を加え合わせることにより一定の値
を出力するように出力層ユニットの重み及びしきい値の
初期値を設定する。
【0062】追加情報出力装置96は、追加したユニッ
ト数、中間層及び出力層のユニットに追加した重み及び
しきい値の初期値を学習データファイル部14に格納す
る。
【0063】図15は、入力層、中間層及び出力層にそ
れぞれ1個、6個及び1個のユニットを持つ1入力1出
力の3層ニューラルネットワークに対し、(5)式、
(6)式、(17)〜(20)式に従って各ユニットの
重み及びしきい値を設定し(ただし、x1 min=0.0、 x1
max=1.0、 u1 min=−3、 u1 max=3、 u2 min=−1
0、 u2 max=10、 u3 min=−5、 u3 max=5とし
た)、5種類の入出力データ(0.1,0.1)、(0.3,0.9)、
(0.5,0.1)、(0.7,0.9)及び(0.9,0.1)を学習したときの
学習過程を示す図(横軸が入力、縦軸が出力)である。
図15は、300回目の学習結果であり、5種類の入出
力データの近傍を通る関数になっているのが判る。
【0064】
【発明の効果】本発明によれば、ニューラルネットワー
クの初期状態において、各ユニットから得られる関数の
重ね合わせによって、ある入力領域ごとに反応する関数
を構成しているので、効率の良い学習を行なうことがで
きる。
【0065】また、ローカルミニマムに陥ったとき、目
標とする関数との誤差が大きい領域に反応するように中
間層を追加するので、他の領域には影響を与えず効率良
く再学習することができる。
【0066】更に本発明のニューラルネットワークを用
いた関数生成装置は、制御、設計などあらゆる産業分野
に適用可能であり、ニューラルネットワークの構成の簡
易化及び学習の高速化を図ることができる。
【図面の簡単な説明】
【図1】本発明に係るニューラルネットワークを用いた
関数生成装置の一実施例の構成を示すブロック図であ
る。
【図2】ニューラルネットワークの基本ユニットを概念
的に示す構成図である。
【図3】シグモイド関数の曲線を示す図である。
【図4】階層型ニューラルネットワークの一例を示す構
成図である。
【図5】ニューラルネットワークの各層ユニットにおけ
る関数生成過程を示す図である。
【図6】図1に示す関数生成装置における初期値設定装
置の具体的構成を示すブロック図である。
【図7】図1における中間層ユニットの出力関数をまと
めた図である。
【図8】図1における出力層ユニットでの関数生成過程
を示す図である。
【図9】図1における中間層ユニット追加装置の具体的
構成を示すブロック図である。
【図10】1入力1出力の3層のニューラルネットワー
クによる適用例であり、10回目の学習結果を示す説明
図である。
【図11】1入力1出力の3層のニューラルネットワー
クによる適用例であり、50回目の学習結果を示す図で
ある。
【図12】1入力1出力の3層のニューラルネットワー
クによる適用例であり、240回目の学習結果を示す図
である。
【図13】図1における中間層ユニットでの関数生成過
程の他の例を示す図である。
【図14】図1における出力層ユニットでの関数生成過
程の他の例を示す図である。
【図15】1入力1出力の3層のニューラルネットワー
クによる他の適用例であり、300回目の学習結果を示
す説明図である。
【符号の説明】
10 ニューラルネットワーク部 11 入力層部 12 中間層部 13 出力層部 14 学習データファイル部 15 入出力装置 16 学習装置 17 初期値設定装置 18 中間層ユニット追加装置 41 入力層部 42 中間層部 43 中間層 44 中間層 45 出力層部 61 ユニット数設定装置 62 入力層初期値設定装置 63 中間層初期値設定装置 64 出力層初期値設定装置 91 学習監視装置 92 ユニット追加装置 93 初期値追加装置 94 中間層初期値追加装置 95 出力層初期値追加装置 96 追加情報出力装置

Claims (3)

    【特許請求の範囲】
  1. 【請求項1】 1つ以上の入力に対して重みを掛け合わ
    せ、更にしきい値を加える演算部及び該演算部からの出
    力を単調増加関数を適用することにより変換する変換部
    から構成されるユニットを、入力層、1層以上の中間
    層、及び出力層に配置した階層型ニューラルネットワー
    クを用いた関数生成装置であって、 前記入力層において入力データをユニットの出力領域で
    分散した値に変換されるように各入力層ユニットの重み
    及びしきい値の初期値を設定する入力層初期値設定手段
    と、 中間層において入力層ユニットから得られる関数を拡
    大、縮小及び平行移動して加え合わせることにより中間
    層の最終層で偶数組のユニットごとに同一関数を生成す
    るように各中間層ユニットの重み及びしきい値の初期値
    を設定する中間層初期値設定手段と、 出力層において前記中間層で生成した偶数組の同一関数
    のうち各組の一方の関数を反転して加え合わせること一
    定の値を出力するように各出力層ユニットの重み及びし
    きい値の初期値を設定する出力層初期値設定手段とを含
    んで構成される初期値設定手段を有することを特徴とす
    るニューラルネットワークを用いた関数生成装置。
  2. 【請求項2】 1つ以上の入力に対して重みを掛け合わ
    せ、更にしきい値を加える演算部及び該演算部からの出
    力を単調増加関数を適用することにより変換する変換部
    から構成されるユニットを、入力層、1層以上の中間
    層、及び出力層に配置した階層型ニューラルネットワー
    クを用いた関数生成装置であって、 前記入力層において入力データをユニットの出力領域で
    分散した値に変換されるように入力層ユニットの重み及
    びしきい値の初期値を設定する入力層初期値設定手段
    と、 中間層において入力層ユニットから得られる関数を拡
    大、縮小、反転及び平行移動して加え合わせることによ
    り2組のユニットごとに対称関数を生成するように各中
    間層ユニットの重み及びしきい値の初期値を設定する中
    間層初期値設定手段と、 出力層において前記中間層で生成した2組の関数を拡
    大、縮小して加え合わせることにより一定の値を出力す
    るように各出力層ユニットの重み及びしきい値の初期値
    を設定する出力層初期値設定手段とを含んで構成される
    初期値設定手段を有することを特徴とするニューラルネ
    ットワークを用いた関数生成装置。
  3. 【請求項3】 前記階層型ニューラルネットワークの出
    力データと学習データファイル部に格納されている前記
    ニューラルネットワークの入出力関係を示すデータのう
    ちの出力データとの誤差を監視し、学習が収束に向かっ
    ているか否を判定する学習監視手段と、 該学習監視手段により前記ニューラルネットワークの学
    習が不十分であると判定された場合に既にある中間層ユ
    ニット及び出力層ユニットには互いに影響を与えず、か
    つ前記中間層初期値設定手段及び前記出力層初期値設定
    手段に従って中間層ユニットを追加する中間層ユニット
    追加手段とを有することを特徴とする請求項1または2
    に記載のニューラルネットワークを用いた関数生成装
    置。
JP6308788A 1994-12-13 1994-12-13 ニューラルネットワークを用いた関数生成装置 Pending JPH08166934A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP6308788A JPH08166934A (ja) 1994-12-13 1994-12-13 ニューラルネットワークを用いた関数生成装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6308788A JPH08166934A (ja) 1994-12-13 1994-12-13 ニューラルネットワークを用いた関数生成装置

Publications (1)

Publication Number Publication Date
JPH08166934A true JPH08166934A (ja) 1996-06-25

Family

ID=17985319

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6308788A Pending JPH08166934A (ja) 1994-12-13 1994-12-13 ニューラルネットワークを用いた関数生成装置

Country Status (1)

Country Link
JP (1) JPH08166934A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005352900A (ja) * 2004-06-11 2005-12-22 Canon Inc 情報処理装置、情報処理方法、パターン認識装置、及びパターン認識方法
US7251750B2 (en) * 2002-06-28 2007-07-31 Murata Kikai Kabushiki Kaisha Apparatus diagnostic device and diagnosed device
JP2022540870A (ja) * 2019-07-08 2022-09-20 ヴィアナイ システムズ, インコーポレイテッド ニューラルネットワークアーキテクチャを指定するプログラムコードを定義及び実行する技術

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7251750B2 (en) * 2002-06-28 2007-07-31 Murata Kikai Kabushiki Kaisha Apparatus diagnostic device and diagnosed device
JP2005352900A (ja) * 2004-06-11 2005-12-22 Canon Inc 情報処理装置、情報処理方法、パターン認識装置、及びパターン認識方法
JP2022540870A (ja) * 2019-07-08 2022-09-20 ヴィアナイ システムズ, インコーポレイテッド ニューラルネットワークアーキテクチャを指定するプログラムコードを定義及び実行する技術
US11610134B2 (en) 2019-07-08 2023-03-21 Vianai Systems, Inc. Techniques for defining and executing program code specifying neural network architectures

Similar Documents

Publication Publication Date Title
Adeli et al. An adaptive conjugate gradient learning algorithm for efficient training of neural networks
Irwin et al. Neural network applications in control
KR100243353B1 (ko) 뉴럴 네트워크 시스템
Nauck Beyond neuro-fuzzy: perspectives and directions
Agarwal et al. Augmented neural networks for task scheduling
JPH07282168A (ja) カオスリカレント神経回路網とその学習方法
JPH08166934A (ja) ニューラルネットワークを用いた関数生成装置
JP3515267B2 (ja) 多層神経回路網学習装置
US5485548A (en) Signal processing apparatus using a hierarchical neural network
CN112100376B (zh) 用于细粒度情感分析的相互增强转换方法
JP2699447B2 (ja) 信号処理装置
JPH05165987A (ja) 信号処理装置
EP0635152B1 (en) Neural network/fuzzy conversion device
JP3393511B2 (ja) 文字認識装置及び方法
JP2877413B2 (ja) 余剰ニューロン決定処理方式
JPH05181828A (ja) 知識情報処理装置
JP2607351B2 (ja) 多層パーセプトロンの神経回路網の効率的な学習のための誤差信号の発生方法
JPH03167655A (ja) ニューラルネットワーク
JP2612640B2 (ja) 信号処理回路、信号処理回路網、信号処理装置及び信号処理方法
Cao et al. A local search based learning method for multiple-valued logic networks
JPH05151373A (ja) ニユーラルネツトワークを用いたフアジイ逆診断方法
JPH08249303A (ja) 信号処理装置
JPH0573522A (ja) ニユーラルネツトワークとその構築方法及びニユーラルネツトワークを用いたプロセス制御方式
JPH03123959A (ja) 学習処理装置
JPH0744195A (ja) 音声認識用リカレントニューラルネットワーク