JPH03189858A - ネットワーク構成データ処理装置 - Google Patents

ネットワーク構成データ処理装置

Info

Publication number
JPH03189858A
JPH03189858A JP1330698A JP33069889A JPH03189858A JP H03189858 A JPH03189858 A JP H03189858A JP 1330698 A JP1330698 A JP 1330698A JP 33069889 A JP33069889 A JP 33069889A JP H03189858 A JPH03189858 A JP H03189858A
Authority
JP
Japan
Prior art keywords
value
output
teacher
layer
internal state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP1330698A
Other languages
English (en)
Other versions
JP3168204B2 (ja
Inventor
Yukiko Yamaguchi
由紀子 山口
Akihiro Kimura
晋太 木村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP33069889A priority Critical patent/JP3168204B2/ja
Priority to US07/631,118 priority patent/US5239618A/en
Priority to DE69013325T priority patent/DE69013325T2/de
Priority to EP90125030A priority patent/EP0442120B1/en
Publication of JPH03189858A publication Critical patent/JPH03189858A/ja
Application granted granted Critical
Publication of JP3168204B2 publication Critical patent/JP3168204B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)
  • Communication Control (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 〔概要〕 ネットワーク構成データ処理装置とその学習処理方式に
関し、 出力信号としてアナログレベルを取り扱えるようにする
とともに、そのアナログレベルを扱うネットワーク構造
の内部状態値の学習を高速に実行できるようにすること
を目的とし、 出力層を構成する基本ユニットが直線変換処理を実行す
るよう構成し、あるいは、出力層を構成する基本ユニッ
トが閾値関数の直線領域上に写像される教師値に従って
学習された内部状態値を用いて閾値変換処理を実行する
よう構成することで、アナログレベルを取り扱えるネッ
トワーク構成データ処理装置を構成するとともに、 上下限値をとる教師値の個数が増加することでもたらさ
れるアナログレベルの教師値に関しての内部状態値の学
習時間の遅延の問題に対して、上下限値をとらないアナ
ログレベルの教師値から算出される内部状態値の学習の
更新量を増幅するよう処理することで内部状態値の学習
の高速化を実現する。
〔産業上の利用分野〕
本発明は、ネットワーク構造によるデータ変換処理機能
に従って適応的なデータ処理を実行するネットワーク構
成データ処理装置とそのネットワーク構造の重み値を学
習するための学習処理方式に関し、特に、アナログレベ
ルを取り扱えるネットワーク構成データ処理装置とその
ネットワーク構造の重み値の学習を高速に実行できるよ
うにする学習処理方式に関するものである。
従来の逐次処理コンピュータ(ノイマン型コンピュータ
)では、使用方法や環境の変化に応じてデータ処理機能
を調節することができないので、パターン認識や適応フ
ィルタ等の分野を中心に、新たに階層ネットワークによ
る並列分散処理方式に従う適応性を有するデータ処理装
置が提案されてきている。このネットワーク構成のデー
タ処理装置では、データ処理機能を規定するところのネ
ットワーク構造の重み値を学習処理により求めていく必
要がある。この学習処理方式として、特に、バンク・プ
ロパゲーション法と呼ばれる学習処理方式(D、E、R
umelhart、 G、E、H4nton+andR
,J、11i11iaIIs、 ”Learning 
Internal Representationsk
y Error Propagation 、 PAR
ALLEL DISTRIBtlTED PROCES
SING、 Vol、l、 pp、318−364. 
The MIT Press、 1986)がその実用
性の高さから注目されている。
この階層ネットワーク構造をとるデータ処理装置では、
基本ユニットと呼ぶ一種のノードと、内部状態値に相当
する重み値を持つ内部結合とから階層ネットワークを構
成している。第11図に、基本ユニット1の基本構成を
示す。この基本ユニント1は、多大カー出力系となって
おり、複数の入力に対し夫々の内部結合の重み値を乗算
する乗算処理部2と、それらの全乗算結果を加算する累
算処理部3と、この累算値に非線型の閾値処理を施して
一つの最終出力を出力する閾値処理部4とを備える。そ
して、このような構成の多数の基本ユニット1が、入力
信号値をそのまま分配して出力する入カニニット1”を
入力層として、第12図に示すように階層的に接続され
ることで階層ネットワークが構成され、入力パターン(
入力信号)を対応する出力信号(出力パターン)に変換
するというデータ処理機能を発揮することになる。
この階層ネットワークに対して、バック・プロパゲーシ
ョン法では、学習用に用意された入力パターンに対して
出力される階層ネットワークからの出力パターンが教師
パターン(教師信号)となるべく、所定の学習アルゴリ
ズムに従ってlJiネットワーク中の内部結合の重み値
を決定していくことになる。そして、この処理により重
み値が決定されると、想定していなかった入力信号が入
力されることになっても、この階層ネットワークから、
それらしい出力信号を出力するという“柔らかい゛デー
タ処理機能が実現されることになる。
このような構成のネットワーク構成データ処理装置を実
用的なものにしていくためには、アナログレベルの出力
パターンを取り扱えるようにしていく必要があるととも
に、そのようなアナログレベルの出力パターンを得られ
るようにする重み値の学習処理をより短時間で実現でき
るようにしていく必要がある。
〔従来の技術〕
階層ネットワーク構成をとるデータ処理装置では、h層
を前段層としi層を後段層とすると、基本ユニット1の
累算処理部3では下記の(1)式の演算を実行し、閾値
処理部4では下記の(2)式の演算を実行する。
Xei”’Σ7phWth           (1
)式7、t= 1 / (1+exp(−x、t+θi
))  (2)式但し、 h :h層のユニット番号 j zj層のユニット番号 p :入力信号のパターン番号 θ、:iJiの1番ユニットの閾値 W1:h−1層間の内部結合の重み値 xp、:P番目パターンの入力信号におけるh層の各ユ
ニットからi層の1番ユニッ トへの入力の積和 yphCP番巨パターンの入力信号に対するh層のh番
ユニットからの出力 y2、:2番目パターンの入力信号に対するi層の1番
ユニットからの出力 バック・プロパゲーション法では、この重み値W、hと
閾値θ8とを誤差のフィードバックにより適応的に自動
羽部して学習することになる。この重み値W8、と閾値
θ、との調節は同時に実行される必要があるが、(1)
 (2)式から明らかなようにこの作業は相互に干渉す
る難しい作業となる。そこで、本出願人は、先に出願の
「特願昭62−333484号(昭和62年12月28
日出願、“ネットワーク構成データ処理装置1)」で開
示したように、入力側のh層に常に“1″を出力すると
ともにその出力に対して閾値θ直を重み値として割り付
ける基本ユニット1を設けることで、閾値θ直を重み値
Wihの中に組み込んで閾値θ8を重み値として扱うよ
うにすることを提案した。このようにすることで、上述
の(1)弐及び(2)式は、 xp、=ΣyphW、k(3)式 y pr= 1 / (1+ exp(x p+)) 
   (4)式で表されることになる。
次に、この(3) (4)式の記述形式ものに従って、
バンク・プロパゲーション法による重み値の学習処理の
従来技術について説明する。ここで、この従来技術の説
明は、第12図に示すようなh層−1層−j層という3
層構造の階層ネットワークをもって行うことにする。
(3) (4)式からの類推によって次の式が得られる
すなわち、 X□=ΣYpiWji          (5)式y
、J= 1 /(1+exp(xp=))    (6
)式但し、 j  : W、、: Xpj: j層のユニット番号 i−j層間の内部結合の重み値 2番目パターンの人力信号に対する i層の各ユニットからj層の3番ユ ニットへの入力の積和 )’pjeP番目パターンの入力信号に対するj層の3
番ユニットからの出力 バック・プロパゲーション法では、下記の(7)式に従
って、出力層からの出力パターンと該出力パターンのと
るべき信号となる教師パターンとの誤差の二乗和である
誤差ベクトル成分E、を算出し、下記の(8)式に従っ
て、その誤差ベクトル成分Epの総和Eを階層ネットワ
ークのデータ処理機能の誤差として算出する。
E−= ’AΣ(y、J−d、J)t(7)式E=ΣE
p            (8)式但し、 E、:2番目パターンの入力信号に対しての誤差ベクト
ル成分 E :全パターンの人力信号に対しての誤差ベクトル成
分の総和 dojjP番目パターンの入力信号に対するjNj番目
ユニットへの教師信号 ここで、誤差ベクトル成分E、とj層からの出力信号y
□との関係を求めるため、(7)式をy、1に関して偏
微分すると、 BE。
θyPj を得る。更に、誤差ベクトル成分E2と1層への入力X
pjとの関係を求めるため、誤差ベクトル成分E、をX
pjで偏微分すると、 aEp    BE、    eV□ θXpj    θy、j   θXpj−δp;Yp
; (1ypi) を得る。更に、誤差ベクトル成分E、とi−j層間の重
み値W j iとの関係を求めるため、誤差ベクトル成
分E2をWj+で偏微分すると、aE11     B
E、    θX□θWjI   θXpj    a
WJ□−δp;Ypi (1)’pj) )’pi=−
αpi y pt        (9)式の積和で表
される解を得る。ここで、 α、−−dpj)’p、(1)’pj)= (dpj−
yp=)[ypJ(1−ypJ)](10)式 と定義されるものである。以下、この「α2.」を第1
の更新係数と称するとともに、この第1の更新係数中の
[[y2、(1y pa)] Jを誤差伝播係数と称す
ることにする。
次に、i層の出力ypLに対する誤差ベクトル成分E2
の変化を求めると、 θy2.     θX□    θypi=Σδ2、
y、、(1yp□)Wh を得る。更に、i層入カニニットへの総和Xpiの変化
に対する誤差ベクトル成分E、の変化を計算すると、 θX□      θy□    θx、。
θE、     θy2、 θy1    θXpi =[Σδ、JypJ(1−y□)Wjtl Ypr(1
)’pi)の積和で表される解を得る。更に、h−i層
間の重み値wthの変化に対する誤差ベクトル成分E。
の変化の関係を求めると、 BE、      aE11    aXI、JθE、
     θXpi θx、t     aWtb =(Σδprypj(1)’pJ)Wjtlypt(I
  Ypr>Vph−−dpj y ph      
      (11)式の積和で表される解を得る。こ
こで、 βpi=[Σδp;)’pj(1−yp;)Wに] )
’at(1−Lp+)=yp+(1)’p+)Σα、、
W、、    (12)式と定義される。以下、この「
β2.」を第2の更新係数と称することにする。
(9)式から、全入力パターンに対する階層ネットワー
クの誤差Eとi−j層間の重み値W4.との関係を求め
ると、 θW5、 =−Σα1ljyp! (13)式 また、(11)式から、全入力パターンに対する階層ネ
ットワークの誤差Eとh−4層間の重み値Wlkとの関
係を求めると、 aWtb =−Σβpi )’ pb      (14)式%式
% (13) (14)式は、各層間の重み値の変化に対す
る階層ネットワークのデータ処理機能の誤差Eの変化率
を示していることから、この値が常に負になるように重
みを変化させると、公知の勾配法により階層ネットワー
クの誤差Eを漸近的にOとすることができる。
そこで、バック・プロパゲーション法では、最初に、(
10) (12)式に従って、第1の更新係数αl、j
及び第2の更新係数β、。
αpj= (dpJ)’pj)[)’pJ (1)’p
=)]βp五−7p五(lyeム)Σ α、、W、轟を
算出し、次に、この算出されたαpj+β、1を用いて
下記の(15) (16)式に従って重み値の一回当た
りの更新量ΔW j I +Δwzhを算出し、(15
)式 (16)式 但し、ε(〉0)は学習定数 続いて、この算出した更新量に従って次の更新サイクル
のための重み値 WJ、(t) =Wji(t−1)+ΔWji(t)W
、h(t) =W、h(t−1)+ΔW+h(t)但し
、tは学習回数 を決定していく方法を繰り返していくことで、階層ネッ
トワークの誤差Eが極小値となる重み値W、、、W、、
を学習するよう処理している。
更に、バック・プロパゲーション法では、この極小値へ
の収束の加速を図るために、 ΔWJ+(t)  =εΣα、jypl+ζΔW Ji
 (t−1)(15’)式 %式%(1) (16’)式 但し、ζ(〉0)はモーメンタム というように、(15) (16)式により算出される
更新量に前回の更新サイクル時に決定された重み値の更
新量に係るデータ因子を付は加えるという更新規則を採
ることが行われている。
〔発明が解決しようとする課題〕
しかるに、出力層の基本ユニットlから出力される出力
信号値y2、は、上述の(6)式で説明するように、 ypj= 1 /(1+exp(−χ2.))という閾
値関数であり、第13図に示すような人出力特性を示す
ものである。この第131!Iから分かるように、出力
信号値ypjは、“1”と“0”との間の値をとり、か
つ入力信号値Xp=が°“0゛。
をとる近傍領域でのみ“1”、“0”以外の値をとると
ともに、その領域での値は入力信号値χ2、に対して非
線形なものとなる性質を示すものである。
これから、従来のネットワーク構成のデータ処理装置で
は、出力パターンの出力値が“1”か“0”をという2
値レベルをとるものを処理対象とするデータ処理につい
ては、バック・プロパゲーション法でもって十分な精度
でネットワーク構造の重み値の学習を実行できるものの
、出力値が“1″から“0”の間の任意のアナログレベ
ルをとるものを処理対象とするデータ処理については、
十分な精度でネットワーク構造の重み値の学習を実行で
きないという問題点があった。すなわち、′ビ II 
Q n以外の値については非線形な特性を示すことから
、重み値がなかなか安定したものに収束せず、これが為
に、従来のネットワーク構成データ処理装置では、出力
値がアナログレベルとなるデータ処理対象に対しては精
度がでないという問題点があった。
更に、従来のバック・プロパゲージロン法による重み値
の学習処理方式では、確率値を特性値とするものの分類
処理等にみられるような、学習の教師パターンのかなり
の数の教師値の値が閾値関数の出力する下限値である“
0″で、少ない数の教師値が“1”から“O′′の間の
アナログレベルをとるというものを扱うデータ処理に対
して、重み値の学習速度が著しく遅くなるという問題点
があった。すなわち、バック・プロパゲーション法では
、上述の(15) (16)弐(あるいは、(15°)
 (16’ )式)により重み値の更新量を決定してい
くことになるが、例えば教師パターンの出力パターンが
1次元(出力層の基本ユニット数が1個ということ)で
その個数が400個ある場合を想定してみるに、400
個ある教師値のかなりな数が“0”であるとすると、重
み値の更新量が教師値“0”に関してのデータにより支
配されてしまうことになり、°“0”以外の教師値に関
してのデータが薄められてしまうことになる。これから
、“0″以外の教師値を出すべき入力パターンに対して
の出力パターンがなかなかその教師値に収束していかな
いという問題があったのである。この問題は、かなりの
数の教師値の値が閾値関数の出力する上限値である“1
″である場合にも起こる問題でもある。
本発明はかかる事情に鑑みてなされたものであって、ア
ナログレベルを取り扱える新たなネットワーク構成デー
タ処理装置を提供することを目的とするとともに、その
ネットワーク構造の重み値の学習を高速に実行できるよ
うにする新たな学習処理方式の提供を目的とするもので
ある。
〔課題を解決するための手段〕 第1図は、階層ネットワークの出力層の基本ユニット1
に直線関数を用いることで構成される本発明の第1の発
明の原理構成図である。図中、10は本発明を構成する
ネットワーク構成データ処理装置であって、アナログレ
ベルの識別処理を取り扱えるもの、11aは第1の発明
の階層ネットワーク部であって、階層ネットワーク構造
を備えて該階層ネットワーク構造とその構造のもつ内部
状態値とにより規定されるデータ変換機能に従って入力
パターンに対応する出力パターンを算出して出力するも
の、12は内部状態値格納部であって、階層ネットワー
ク部11aがデータ変換処理の実行時に必要とする内部
状態値を管理するもの、13はリミッタであって、階層
ネットワーク部11aから出力される出力値を教師パタ
ーンの教師値の上下限値でもって制限するものである。
この第1の発明の階層ネットワーク部11aは、入力パ
ターンを受け取って出力する複数個の入カニニット1“
−hにより構成される入力層と、複数の入力とこれらの
入力に対して乗算されるべき内部状態値(重み値)とを
受け取って積和を得るとともに、この得られた積和値を
閾値関数によって変換して最終出力を得るよう処理する
基本ユニット1−iの複数個により構成されて1つ又は
複数段備えられる中間層と、複数の入力とこれらの入力
に対して乗算されるべき内部状態値とを受け取って積和
を得るとともに、この得られた積和値を直線関数によっ
て変換して最終出力を得るよう処理する基本ユニットl
−jの1つ又は複数個により構成される出力層とを備え
るとともに、入カユニット1’−hと基本ユニットl−
iとの間、基本ユニット1.−iの相互間、基本ユニッ
ト1−iと基本ユニット1−jとの間で接続がなされ、
かつ、この各接続に対応して設定される内部状態値に従
って階層ネットワーク構造が実現されることになる。
20は本発明を構成する学習処理装置であって、バック
・プロパゲーション法に従って階層ネットワーク部11
aの内部状態値の学習処理を高速に実行するもの、21
は学習パターン格納部であって、内部状態値の学習処理
のために必要となる学習パターンを格納するもの、22
は学習パターン提示部であって、学習対象の学習パター
ン群を学習パターン格納部21から読み出して、その内
の入力パターン群を階層ネットワーク部11aに提示す
るとともに、その内の教師パターン群を次に説明する更
新係数算出部23に提示するもの、23は更新係数算出
部であって、定数値に設定される誤差伝播係数を使い、
3層の階層ネットワーク構造で説明するならば上述の(
10)式に従って第1の更新係数αpJを算出するとと
もに、この算出された第1の更新係数α2、を使って上
述の(12)式に従って第2の更新係数β、量を算出す
るもの、24は更新係数算出部23が備える学習完了判
定部であって、階層ネットワーク部11aがらの出力パ
ターンy□が教師パターンdpjに収束することを検出
することで内部状態値の学習の完了を検出するもの、2
5は更新量算出部であって、上述の(+5) (16)
式等に従って内部状態値の更新量を算出するもの、26
は内部状態値更新部であって、更新量算出部25により
算出された更新量に従って内部状a値格納部12の内部
状態値を更新するものである。
第2図は、階層ネットワークの出力層の基本ユニット1
の閾値関数の直線領域を利用することで構成される本発
明の第2の発明の原理構成図である。図中、第1図で説
明したものと同じものについては同一の記号で示しであ
る。11bは第2の発明の階層ネットワーク部であって
、階層ネットワーク構造を備えて該階層ネットワーク構
造とその構造のもつ内部状態値とにより規定されるデー
夕変換機能に従って入力パターンに対応する出力パター
ンを算出して出力するもの、14はリミッつてあって、
階層ネットワーク部11bから出力される出力値を指定
領域値に変換された教師値の上下限値でもって制限する
もの、15椿よ値域復元部であって、リミッタ14の出
力値を変換前の教師値の値域に変換するものである。こ
の第2の発明の階層ネットワーク部11bは、第1の発
明の階層ネットワーク部11aとは異なって、出力層の
基本ユニット1−jは、算出された積和値を閾値関数に
よって変換して最終出力を得るよう処理する。
27は値域変換部であって、学習パターン提示部22か
ら提示される教師パターンの教師値を閾値関数の直線領
域上の指定領域値に変換して更新係数算出部23に提示
するものである。これから、第2の発明では、学習処理
装置20は、値域変換部27により変換された教師値を
もつ教師パターンに従って内部状態値の学習を実行する
よう処理する。
〔作用〕
本発明の第1の発明では、出力層の基本ユニット1jが
、上述の(6)式で示す y□= 1 / (1+exp(x pj))但し、 
  X2、=ΣV 1liWjiに従って出力パターン
y□を算出するのではなくて、直線変換処理を規定する y、j−Σyp、W。
に従って出力パターンypjを算出して出力する構成を
とる。この構成により、出力値の上限値“1″(係数に
より任意の値に設定できる)と下限値”0”との間が線
形なものとなるので、バック・プロパゲーション法に従
い十分な精度でもって内部状態値の学習が実行できるよ
うになる。従って、出力値が1″や“0″以外の値とな
るアナログレベル値のデータ処理も扱えるようになる。
この構成を採ると、データ処理用の人カバターンが入力
されるときにおいて、出力パターンy、jの出力値が教
師パターンの教師値の上下限値を外れるという不都合が
生ずることが起こる。これに対応するために、リミッタ
13が、出力パターンVpiの各出力値が教師値の上下
限値内に収まるよう処理することになる。
バック・プロパゲージタン法による学習を行うときにお
いて、第1及び第2の更新係数α2.。
β2.の大きさを規定することになる誤差伝播係数[)
’ pj(1−Y pj)]の値は、第3図に示すよう
な双曲線を示すことになる。誤差伝播係数がこのような
双曲線を示すということは、アナログレベル値のデータ
処理を扱う場合、内部状態値の学習が教師値のアナログ
レベル値によって異なる速度でもって進行していくこと
を意味する。
この不都合を解消するために、本発明の更新係数算出部
23は、誤差伝播係数の値を出力層の基本ユニット1−
jが閾値関数を用いるときの値と概略同一レベルとなる
正の定数値に設定して、第1の更新係数α、を算出する
とともに、この算出された第1の更新係数α、、を使っ
て第2の更新係数β2.を算出するよう処理することに
なる。この構成をとることで、学習処理装置20は、1
”から“0”の間にあるアナログレベルをとる教師値に
対して均一な速度でもって内部状態値の学習を実行でき
るようになるので、l II 、 l“0°゛をとる教
師値に引きずられることなく内部状態値の学習をより高
速に実行できるようになる。また、誤差伝播係数の値が
正の定数に設定されることで、閾値関数を使用する場合
には起こらなかった誤差伝播係数が負の値(第3図の“
1”以上の領域と“0″゛以下の領域)をとることにな
るという不都合を解消することもできることになる。
本発明の第2の発明では、出力層の基本ユニット1−j
が閾値関数に従って出力パターンy□を算出して出力す
る構成をとるときにあって、値域変換部27により“1
”から°°0”の値をもつ教師値を例えば“0.8”か
ら00.2′の領域に変換して、この変換された教師値
に従って内部状態値の学習を実行するよう処理する。こ
の処理に従って、閾値関数の直線領域部分で出力パター
ンYpJの算出処理が実行されることになる。これから
、出力値が“1″や°゛0″0″以外なるアナログレベ
ル値のデータを扱う内部状態値の学習が十分な精度でも
って実行できるようになり、そのようなアナログレベル
値のデータ処理も扱えるようになる。この構成を採ると
、データ処理用の入力パターンが人力されるときにおい
て、出力パターンVeiの出力値が変換された直線領域
のものに区切られてしまうという不都合が生ずる。これ
に対応するために、リミフタ】4で出力パターンy1の
各出力値が教師値の上下限値内に収まるよう処理を実行
した後に、値域復元部15で本来の値域に変換するよう
処理することになる。
そして、第1及び第2の発明にあって、更新係数算出部
23は、教師パターンの教師値に該教師値の下限値若し
くは上限値のいずれか一方をとるものが多いときには、
その値をとらない教師値と対応の出力パターンの出力値
とから算出される誤差値を例えば5倍といったように増
幅することで第1の更新係数α1を増幅するよう処理す
る。この増幅処理に従って、その教師値に関しての内部
状態値の更新量が大きくなることから、多い数をとる下
限値若しくは上限値の教師値の方に引きずられることな
(内部状態値の学習をより高速に実行できるようになる
そして、第1及び第2の発明にあって、更新係数算出部
23は、教師パターンの教師値の多くが下限値をとるも
のにおいて、該下限値を外れる出力パターンの出力値に
ついては誤差値をないものとして扱うことで第1の更新
係数α、jをないものとして扱い、一方、教師パターン
の教師値の多くが上限値をとるものにおいて、該上限値
を外れる出力パターンの出力値については誤差値をない
ものとして扱うことで第1の更新係数α、Jをないもの
として扱うよう処理する。下限(i (上限値)を外れ
るものがあっても、実際の処理のときはりミンク13に
より制限されてしまうことから実際上問題となることは
ない。この処理はこのことを利用するもので、この処理
に従って無駄な学習が省かれ内部状態値の学習をより高
速に実行できるようになる。
〔実施例] 以下、実施例に従って本発明の詳細な説明する。
第1図で説明したように、本発明では、階層ネットワー
クの出力層の基本ユニット1−jの入出力の変換関数と
して、従来から用いられている閾値関数に換えて直線関
数を用いるよう構成する。すなわち、出力層の基本ユニ
ット1−jは、Vpj=Σ7piWji に従って出力パターンyP、を算出して出力する構成を
とる。この構成により、出力パターンypJの値が線形
なものとなり教師値がアナログレベルをとる場合であっ
ても重み値を精度よく学習できることになるので、出力
値がアナログレベルとなるデータ処理を高精度でもって
実行できるようになるのである。
そして、第2図で説明したように、本発明では、出力層
の基本ユニットijの変換関数として閾値関数を使用す
る場合において、その閾値関数の直線領域だけを使用す
るよう構成する。すなわち、教師値の値を例えば0.8
”から“0.2”に変換して重み値の学習を実行するこ
とで、第4図に示すように、出力パターンy1の値をこ
の“0.8”から“0.21の範囲に制限するとともに
、実際のデータ処理にあたっては、この“0.82から
“0.2”の範囲に制限された出力パターンYpjO値
を本来の値域である“1”から“0”に戻すことで、閾
値関数の直線領域だけを使用するよう構成する。この構
成により、出力パターンy、jの値が概略線形なものと
なることで、教師値がアナログレベルをとる場合であっ
ても重み値を精度よく学習できることになり、出力値が
アナログレベルとなるデータ処理を高精度でもって実行
できるようになるものである。
更に、本発明では、誤差伝播係数の値が教師値のアナロ
グレベル値の大きさによって変動してしまうという不都
合を解決するために、誤差伝播係数1ypi (1yp
j)]の値を、定数値とするとともに、従来のバック・
プロパゲーション法による学習との整合性をとるために
、この定数値を出力層の基本ユニット1−jが閾値関数
を用いるときの値と概略同一レベルの定数値に設定する
よう構成するものである。この定数値の値は、例えば、
第5図に示すように、誤差伝播係数[yp;N−ypj
)lの平均値をとるということで、の値として設定され
ることになる。この値に設定されると、上述の(10)
式で定義される第1の更新係数α2、は、 但し、Epi= (d pJ−ypJ)と表されること
になる。
このようにして、出力値がアナログレベルとなるものの
データ処理を扱えるようになると、種々の新たな問題が
発生する。その1つに、確率値を特性値とするものの分
類処理等にみられるような、教師パターンのかなりの数
の教師値の値が下限値である“0”で、少ない数の教師
値が“1”から0°゛の間のアナログレベルをとるとい
うものを扱うデータ処理に関して、重み値の学習に時間
がかかり過ぎることになるという問題点がある。すなわ
ち、〔従来の技術〕の欄でも説明したように、このよう
な場合、重み値の更新量が教師値°°0”に関してのデ
ータにより支配されてしまうことになり、°“0”以外
の教師値に関してのデータが薄められてしまうことで”
 o ”以外の教師値についての学習がなかなか収束し
ないということになる。
これに対して、本発明では、第6図(a)のフローチャ
ートに示すように、教師値dpiの値が“0°°でない
ときには、第1の更新係数α、4の大きさを規定するE
□をN倍することで、第1の更新係数αpJを実際のも
のより大きくするよう処理する。この処理に従って、0
゛”でない値をもつ少ない方の教師値に関しての更新量
が大きくなり、従って、その教師値に関しての重み値の
学習の遅延するのを防止できるようになる。そして、教
師値dpjの値が“0°°であって、かつ出力4fLy
p=の値が負となる場合には、0”に戻すという無駄な
学習を防止するためにE、、Jの値を“0”に設定する
よう処理するのである。一方、教師値dpjO値が′0
“であって、かつ出力値y2、の値が正となる場合には
、Epjに係数を乗算することなく処理することになる
。この処理により、かなりの数の教師値の値が下限値で
ある0゛をとる場合に発生する重み値の学習の遅延の問
題を解決できるようになる。
これとは、逆に、かなりの数の教師値の値が上限値であ
る“1″をとる場合には、第6図(b)のフローチャー
トに従って、第6図(a)のフローチャートと同等の処
理を実行することになる。
なお、閾値関数の直線領域を使用することでアナログレ
ベルを取り扱えるようにする構成をとるときにあっては
、第6図(a)のフローチャートにおける教師値dpj
の値が“0”であるか否かの判断処理は、その直線領域
の下限値でもって実行され、また、第6図(b)のフロ
ーチャートにおける教師値dpiの値が“1”であるか
否かの判断処理は、その直線領域の上限値でもって実行
されることになる。
次に、第8図ないし第10図に示すシミュレーション結
果に従って、本発明がアナログレベルのデータ処理を高
精度で処理できるようになるとともに、そのための重み
値の学習を高速でもって行えるようになることを説明す
る。このシミュレーションは、階層ネットワークの構成
を入力層が20ユニツト、中間層が10ユニツト、出力
層が1ユニントのものとし、出力層のユニットが直線関
数に従って入出力変換を実行し、重み値の更新量として
(15’ ) (16”)式(但し、ε=1.ぐ=0.
4 >を用い、誤差伝播係数の値を176に設定し、第
6図(a)のフローチャート(但し、N=5)に従うも
のとし、教師パターンとして、第7図に示すlOOパタ
ーンを用いることで行った。ここで、第7図の見方は、
例えば、s=2+t=20+dp==1.OOの値をも
つ第20番目の教師パターンは、入力層の20ユニツト
の第2番目(Sの値)のユニットと第20番目のユニッ
ト(tの値)に“1”が入力され、それ以外の入力層の
ユニットに“0”が入力されるときに、出力層のユニッ
トからの出力値が教師値である“1”となるべきことを
表している。この第7図の教師パターンから分かるよう
に、シミュレーションに用いた教師パターンの教師値の
ほとんどは°“0.00”である。
第8図に示すシミュレーションデータは、本発明と従来
のバンク・プロパゲーション法とで、教師パターンと出
力パターンとの間の誤差値が、学習の進行に伴ってどの
ように変化していくかをプロントしたものである。この
図から分かるように、本発明を用いることで、従来より
も誤差値を小さなものに収束させることが実現できると
ともに、そのための学習回数も大幅に低減できることが
確認された。
第9図に示すシミュレーションデータは、本発明と従来
のバック・プロパゲーション法とで、学習パターンの正
解率(学習用の入力パターンを入力したときの出力パタ
ーンの値が〔教師値±0.013に入るときを正解とす
る)が、学習の進行に伴ってどのように変化していくか
をプロットしたちのである。この図から分かるように、
本発明を用いることで、従来よりも高い正解率を少ない
学習回数でもって実現できることが確認された。
第10図に示すシミュレーションデータは、本発明と従
来のバック・プロパゲーション法とで、学習用の第20
番目の入力パターンを人力したときの出力パターンの値
が、学習の進行に伴ってどのように変化していくかをプ
ロットしたものである。この図から分かるように、本発
明を用いることで、従来よりも迅速に教師値の“1”に
収束させることができることが確認された。
図示実施例について説明したが、本発明はこれに限定さ
れるものではない。例えば、本出願人は、先に出願の[
特願昭63−227825号(昭和63年9月12日出
願、“ネットワーク構成データ処理装置の学習処理方式
”)」で、バック・プロパゲーション法の改良を図って
より短時間で重み値の学習処理を実現できるようにする
発明を開示したが、本発明は、この学習方式をとるもの
に対してもそのまま適用できるのである。
〔発明の効果〕
以上説明したように、本発明によれば、適応性を有する
ネットワーク構成データ処理装置において、アナログレ
ベルを出力値とするデータ処理を高精度で実行できるよ
うになるとともに、そのネットワーク構造の重み値の学
習を高速に実行できるようになる。
【図面の簡単な説明】
第1図は本発明の第1の発明の原理構成図、第2図は本
発明の第2の発明の原理構成図、第3図は誤差伝播係数
の説明図、 第4図は本発明が使用する閾値関数の直線領域の説明図
、 第5図は定数値に設定される誤差伝播係数の説明図、 第6図は本発明が実行するフローチャート、第7図はシ
ミュレーションに用いた教師パターンの説明図、 第8図、第9図、第10図はシミュレーションデータの
説明図、 第11図は基本ユニットの基本、構成図、第12図は階
層ネットワーフ抑の基本構成図、第13図は閾値関数の
入出力特性の説明図である。 図中、■は基本ユニット、1”は入カニニット、2は乗
算処理部、3は累算処理部、4は閾値処理部、10はネ
ットワーク構成データ処理装置、11a及び11bは階
層ネットワーク部、12は内部状態値格納部、13及び
14はリミッタ、15は値域復元部、20は学習処理装
置、21は学習パターン格納部、22は学習パターン提
示部、23は更新係数算出部、24は学習完了判定部、
25は更新量算出部、26は内部状態値更新部、27は
値域変換部である。

Claims (6)

    【特許請求の範囲】
  1. (1)前段層からの1つ又は複数の入力と該入力に対し
    て乗算されるべき内部状態値とを受取って積和を得ると
    ともに、該積和値を所定の規定関数によって変換して最
    終出力を得る基本ユニット(1)を基本単位とし、 入力パターンを受け取る入力層を用意し、かつ複数個の
    基本ユニット(1−i)を中間層として1つ又は複数段
    の中間層を備え、かつ1つ又は複数個の基本ユニット(
    1−j)を出力層とし、 入力層と最前段の中間層との間、中間層相互間及び最終
    段の中間層と出力層との間で内部状態値の設定される内
    部結合を構成する階層ネットワーク部(11a)を備え
    るネットワーク構成データ処理装置(10)であって、 中間層の基本ユニット(1−i)が上記規定関数として
    閾値関数を用いるとともに、出力層の基本ユニット(1
    −j)が上記規定関数として直線関数を用いるよう構成
    し、 かつ、出力層からの出力値を教師パターンの教師値の上
    下限値でもって制限するリミッタ(13)を備えること
    を、 特徴とするネットワーク構成データ処理装置。
  2. (2)請求項(1)記載のネットワーク構成データ処理
    装置(10)と、 階層ネットワーク部(11a)に提示される入力パター
    ンに応答して出力される出力パターンと対応の教師パタ
    ーンとの誤差値に基づいて内部状態値の更新量を算出し
    て、該更新量に従って内部状態値を順次更新していくこ
    とで内部状態値の学習を実行する学習処理装置(20)
    とを備えるネットワーク構成データ処理装置の学習処理
    方式であって、上記学習処理装置(20)は、内部状態
    値の更新量の大きさを決定する所の誤差伝播係数の値を
    、定数値であってかつ出力層の基本ユニット(1−j)
    が上記規定関数として閾値関数を用いるときの値と概略
    同一レベルの値に設定して内部状態値の学習を実行する
    ことを、 特徴とするネットワーク構成データ処理装置の学習処理
    方式。
  3. (3)前段層からの1つ又は複数の入力と該入力に対し
    て乗算されるべき内部状態値とを受取って積和を得ると
    ともに、該積和値を閾値関数によって変換して最終出力
    を得る基本ユニット(1)を基本単位とし、 入力パターンを受け取る入力層を用意し、かつ複数個の
    基本ユニット(1−i)を中間層として1つ又は複数段
    の中間層を備え、かつ1つ又は複数個の基本ユニット(
    1−j)を出力層とし、 入力層と最前段の中間層との間、中間層相互間及び最終
    段の中間層と出力層との間で内部状態値の設定される内
    部結合を構成する階層ネットワーク部(11b)を備え
    るネットワーク構成データ処理装置(10)において、 内部状態値として、閾値関数の直線領域上の指定領域値
    に変換された教師値に従って学習された値を設定すると
    ともに、 出力層からの出力値を変換後の教師値の上下限値でもっ
    て制限するリミッタ(14)と、 該リミッタ(14)の出力値を変換前の教師値の値域に
    変換する値域復元部(15)とを備えることを、特徴と
    するネットワーク構成データ処理装置。
  4. (4)前段層からの1つ又は複数の入力と該入力に対し
    て乗算されるべき内部状態値とを受取って積和を得ると
    ともに、該積和値を閾値関数によって変換して最終出力
    を得る基本ユニット(1)を基本単位とし、入力パター
    ンを受け取る入力層を用意し、かつ複数個の基本ユニッ
    ト(1−i)を中間層として1つ又は複数段の中間層を
    備え、かつ1つ又は複数個の基本ユニット(1−j)を
    出力層とし、入力層と最前段の中間層との間、中間層相
    互間及び最終段の中間層と出力層との間で内部状態値の
    設定される内部結合を構成する階層ネットワーク部(1
    1b)を備えるネットワーク構成データ処理装置(10
    )と、 階層ネットワーク部(11b)に提示される入力パター
    ンに応答して出力される出力パターンと対応の教師パタ
    ーンとの誤差値に基づいて内部状態値の更新量を算出し
    て、該更新量に従って内部状態値を順次更新していくこ
    とで内部状態値の学習を実行する学習処理装置(20)
    とを備えるネットワーク構成データ処理装置の学習処理
    方式において、教師パターンの教師値を閾値関数の直線
    領域上の指定領域値に変換する値域変換部(27)を備
    え、上記学習処理装置(20)は、内部状態値の更新量
    の大きさを決定する所の誤差伝播係数の値を、定数値で
    あってかつ閾値関数使用時の値と概略同一レベルの値に
    設定するとともに、上記値域変換部(27)により変換
    された教師値をもつ教師パターンを用いて内部状態値の
    学習を実行することを、特徴とするネットワーク構成デ
    ータ処理装置の学習処理方式。
  5. (5)請求項(2)(4)記載のネットワーク構成デー
    タ処理装置の学習処理方式において、 教師パターンの教師値に該教師値の下限値若しくは上限
    値のいずれか一方をとるものが多いときにおいては、該
    値をとらない教師値と対応の出力パターンの出力値とか
    ら算出される誤差値を増幅して内部状態値の更新量を算
    出することを、特徴とするネットワーク構成データ処理
    装置の学習処理方式。
  6. (6)請求項(5)記載のネットワーク構成データ処理
    装置の学習処理方式において、 教師パターンの教師値の多くが下限値をとるものにおい
    て、該下限値を外れる出力パターンの出力値については
    誤差値がないものとして扱い、一方、教師パターンの教
    師値の多くが上限値をとるものにおいて、該上限値を外
    れる出力パターンの出力値については誤差値がないもの
    として扱うよう処理することを、 特徴とするネットワーク構成データ処理装置の学習処理
    方式。
JP33069889A 1989-12-20 1989-12-20 ネットワーク構成データ処理装置 Expired - Fee Related JP3168204B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP33069889A JP3168204B2 (ja) 1989-12-20 1989-12-20 ネットワーク構成データ処理装置
US07/631,118 US5239618A (en) 1989-12-20 1990-12-20 Data processing device with network structure and its learning processing method
DE69013325T DE69013325T2 (de) 1989-12-20 1990-12-20 Datenverarbeitungsvorrichtung mit neuronalem Netzwerk und Verfahren zum adaptiven Lernen.
EP90125030A EP0442120B1 (en) 1989-12-20 1990-12-20 Data processing device with neural network and adaptive learning method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP33069889A JP3168204B2 (ja) 1989-12-20 1989-12-20 ネットワーク構成データ処理装置

Publications (2)

Publication Number Publication Date
JPH03189858A true JPH03189858A (ja) 1991-08-19
JP3168204B2 JP3168204B2 (ja) 2001-05-21

Family

ID=18235565

Family Applications (1)

Application Number Title Priority Date Filing Date
JP33069889A Expired - Fee Related JP3168204B2 (ja) 1989-12-20 1989-12-20 ネットワーク構成データ処理装置

Country Status (4)

Country Link
US (1) US5239618A (ja)
EP (1) EP0442120B1 (ja)
JP (1) JP3168204B2 (ja)
DE (1) DE69013325T2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008046015A (ja) * 2006-08-17 2008-02-28 Fujitsu Ltd 角度応答検出信号合成方法および装置
JP2020123198A (ja) * 2019-01-31 2020-08-13 中国電力株式会社 予測システム、予測方法
CN113168574A (zh) * 2018-12-12 2021-07-23 日立安斯泰莫株式会社 信息处理装置、车载控制装置、车辆控制***

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3438241B2 (ja) * 1992-10-29 2003-08-18 直 柴田 半導体神経回路装置
EP0612035B1 (en) * 1993-02-19 2002-01-30 International Business Machines Corporation Neural net for the comparison of image pattern features
US10410117B2 (en) 2008-09-21 2019-09-10 Brainchip, Inc. Method and a system for creating dynamic neural function libraries
WO2010047388A1 (ja) * 2008-10-24 2010-04-29 独立行政法人情報通信研究機構 計算処理システム、プログラム作成方法、および、プログラム作成プログラム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA1287175C (en) * 1987-03-12 1991-07-30 Analog Intelligence Corporation Back propagation system
JPS6473257A (en) * 1987-09-14 1989-03-17 Kubota Ltd Rotational speed detector for engine
JPH0736183B2 (ja) * 1987-12-28 1995-04-19 富士通株式会社 ネットワーク構成データ処理装置
KR900702462A (ko) * 1988-09-12 1990-12-07 야마모또 다꾸마 네트워크 구성 데이타 처리장치의 학습처리 방식
US5119469A (en) * 1989-05-17 1992-06-02 United States Of America Neural network with weight adjustment based on prior history of input signals

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008046015A (ja) * 2006-08-17 2008-02-28 Fujitsu Ltd 角度応答検出信号合成方法および装置
CN113168574A (zh) * 2018-12-12 2021-07-23 日立安斯泰莫株式会社 信息处理装置、车载控制装置、车辆控制***
JP2020123198A (ja) * 2019-01-31 2020-08-13 中国電力株式会社 予測システム、予測方法

Also Published As

Publication number Publication date
JP3168204B2 (ja) 2001-05-21
DE69013325D1 (de) 1994-11-17
US5239618A (en) 1993-08-24
EP0442120A3 (en) 1991-11-06
EP0442120A2 (en) 1991-08-21
DE69013325T2 (de) 1995-05-24
EP0442120B1 (en) 1994-10-12

Similar Documents

Publication Publication Date Title
Behera et al. On adaptive learning rate that guarantees convergence in feedforward networks
JPH0713949A (ja) ニューラルネットワークおよびその使用方法
JPH03189858A (ja) ネットワーク構成データ処理装置
Seow et al. Recurrent neural network as a linear attractor for pattern association
Patra et al. ANN-based intelligent pressure sensor in noisy environment
Didandeh et al. AVLR-EBP: a variable step size approach to speed-up the convergence of error back-propagation algorithm
Wouwer et al. On the use of simultaneous perturbation stochastic approximation for neural network training
Anđelić et al. Prediction of robot grasp robustness using artificial intelligence algorithms
JPH03268077A (ja) ニューラルネットワークによる重心決定要素出力装置
JP2606317B2 (ja) 学習処理装置
Son et al. Black-box modeling of nonlinear system using evolutionary neural NARX model
JPH01173257A (ja) ネットワーク構成データ処理装置
George et al. Development of a novel robust identification scheme for nonlinear dynamic systems
US20230252272A1 (en) Neural processing cell
Zengqiang et al. An adaptive identification and control scheme using radial basis function networks
Chen et al. A joint stochastic gradient algorithm and its application to system identification with rbf networks
Baluni et al. Quasi-projective synchronization of non-identical time-varying delayed quaternion-valued neural networks with interaction terms: Direct method
JPH04102163A (ja) ネットワーク構成データ処理装置の学習処理方式
Hakala et al. Node allocation and topographical encoding (NATE) for inverse kinematics of a redundant robot arm-learning without a teacher
Belikov et al. Calculation of the control signal in MIMO NN-based ANARX models: Analytical approach
Xu et al. Adaptive higher-order feedforward neural networks
JP2606663B2 (ja) 共通重み和積演算計算ネットワーク及びそれらを用いたファジィ推論装置
JPH0467257A (ja) ニューラルネットワーク回路
CN117311346A (zh) 机器人横向稳定协同转向控制方法、装置、终端及介质
JPH08129541A (ja) ニューラルネットワークの結合係数更新装置、結合係数変異量変換装置及び結合係数変異量演算装置

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees