JP2607351B2 - Error Signal Generation Method for Efficient Learning of Multilayer Perceptron Neural Network - Google Patents

Error Signal Generation Method for Efficient Learning of Multilayer Perceptron Neural Network

Info

Publication number
JP2607351B2
JP2607351B2 JP6313861A JP31386194A JP2607351B2 JP 2607351 B2 JP2607351 B2 JP 2607351B2 JP 6313861 A JP6313861 A JP 6313861A JP 31386194 A JP31386194 A JP 31386194A JP 2607351 B2 JP2607351 B2 JP 2607351B2
Authority
JP
Japan
Prior art keywords
error signal
learning
multilayer perceptron
neural network
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP6313861A
Other languages
Japanese (ja)
Other versions
JPH08115310A (en
Inventor
相▲勲▼ ▲呉▼
Original Assignee
財団法人韓国電子通信研究所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 財団法人韓国電子通信研究所 filed Critical 財団法人韓国電子通信研究所
Publication of JPH08115310A publication Critical patent/JPH08115310A/en
Application granted granted Critical
Publication of JP2607351B2 publication Critical patent/JP2607351B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Neurology (AREA)
  • Image Analysis (AREA)
  • Feedback Control In General (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明はパターン認識問題の学習
に広く使用される多層パーセプトロンの神経回路網(mu
lti-layer perceptron neural networks)モデルの効率
的な学習方法に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a multilayer perceptron neural network (mu) widely used for learning a pattern recognition problem.
lti-layer perceptron neural networks).

【0002】[0002]

【従来の技術】多層パーセプトロンを学習させるとき、
学習時間が長時間の間所要されるが、幾つかのパターン
に対しては全く学習されない現象が発生する場合もあ
る。
2. Description of the Related Art When learning a multilayer perceptron,
Although the learning time is required for a long time, a phenomenon that some patterns are not learned at all may occur.

【0003】[0003]

【発明が解決しようとする課題】本発明は上記のような
問題点を解消するためになされたもので、多層パーセプ
トロンを利用したパターン認識問題の学習時間を短縮し
て迅速化を図り、学習パターンに対してもありのまま学
習できることを目的とする。
SUMMARY OF THE INVENTION The present invention has been made in order to solve the above-mentioned problems, and aims at shortening the learning time of a pattern recognition problem using a multi-layered perceptron to speed up the problem. The purpose is to be able to learn as it is.

【0004】[0004]

【課題を解決するための手段】本発明に係る請求項1記
載の多層パーセプトロンの神経回路網の効率的な学習の
ための誤差信号の発生方法は、生命体の情報処理を模倣
した神経回路網モデルの一つとして、神経細胞(neuro
n)を意味するノードと、各ノードを連結する連接部加
重値が階層的に構成されている多層パーセプトロンから
誤差信号を発生させる方法において、
According to the present invention, there is provided a method for generating an error signal for efficient learning of a neural network of a multilayer perceptron according to the present invention. As one of the models, neurons (neuro
n) and a method of generating an error signal from a multi-layer perceptron in which connection weights connecting the nodes are hierarchically configured,

【数9】 で示される前記誤差信号を与える数式に基づいて、前記
多層パーセプトロンの逆伝播学習時に出力ノードが不適
切に飽和される場合は強い誤差信号を発生させ、前記出
力ノードが適切に飽和される場合は弱い誤差信号を発生
させることを特徴とする。
(Equation 9) A strong error signal is generated when the output node is improperly saturated during back propagation learning of the multilayer perceptron based on a formula that gives the error signal represented by, and when the output node is appropriately saturated, A weak error signal is generated.

【0005】[0005]

【作用】本発明に係る請求項1記載の多層パーセプトロ
ンの神経回路網の効率的な学習のための誤差信号の発生
方法によれば、逆伝播学習時に出力ノードが不適切に飽
和される場合は強い誤差信号を発生させ、前記出力ノー
ドが適切に飽和される場合は弱い誤差信号を発生させる
ので、出力ノードが不適切に飽和される現象が減り、神
経網が学習パターンを過度に学習することが防止され
る。
According to the method of generating an error signal for efficient learning of a neural network of a multilayer perceptron according to the first aspect of the present invention, when an output node is inappropriately saturated during back propagation learning, Since a strong error signal is generated and a weak error signal is generated when the output node is properly saturated, the phenomenon that the output node is inappropriately saturated is reduced, and the neural network excessively learns the learning pattern. Is prevented.

【0006】[0006]

【実施例】本発明の説明のために次のように用語を定義
する。
DESCRIPTION OF THE PREFERRED EMBODIMENTS For the purpose of describing the present invention, terms are defined as follows.

【0007】まず、“多層パーセプトロン”とは、生命
体の情報処理を模倣した神経回路網モデルの一つであ
り、図1に図示のように、神経細胞(neuron)を意味す
るノードとノードを連結する連接部加重値(synapse we
ight value)が階層的に構成されている。
First, the “multilayer perceptron” is one of the neural network models imitating the information processing of living organisms. As shown in FIG. Weights of connecting parts to be connected (synapse we
ight value) are arranged hierarchically.

【0008】この多層パーセプトロンの各ノードはその
状態が下層ノードの状態値とその連結加重値の“加重値
の合計”を入力として受け入れて、図2のようにシグモ
イド変換した値を出力する。
Each node of the multilayer perceptron receives as input the state value of the lower layer node and the "sum of the weights" of the connection weights thereof, and outputs a sigmoidally converted value as shown in FIG.

【0009】シグモイド関数は傾きが小さい両側面の飽
和領域と傾きが大きい中央の活性領域と分けられる。
The sigmoid function is divided into a saturated region on both sides having a small slope and a central active region having a large slope.

【0010】“学習パターン”とは、パターン認識問題
を学習させるために任意に収集したパターンである。
A "learning pattern" is a pattern arbitrarily collected for learning a pattern recognition problem.

【0011】“試験パターン”とは、パターン認識問題
の学習程度を試験する基準とするために任意に収集した
パターンである。
The "test pattern" is a pattern arbitrarily collected in order to test the degree of learning of the pattern recognition problem.

【0012】これらのパターンは多数個の“集団”と分
けることができ、“パターン認識”とは、入力されたパ
ターンがどの集団に属するかを決定するものである。
These patterns can be divided into a large number of "groups", and "pattern recognition" is to determine which group the input pattern belongs to.

【0013】最終階層ノードの状態が入力パターンが属
する集団を示す。
The state of the last hierarchical node indicates the group to which the input pattern belongs.

【0014】“逆伝播学習(Back Propagating Trainin
g)”とは、この多層パーセプトロンを学習させる方法
として、学習パターンを入力させた後に、最終階層ノー
ドの出力値が所望の目標値となるように誤差信号により
最終階層ノードに連結された加重値を変更させており、
その下層のノードは上の階層から逆伝播された誤差信号
により連結加重値を変更させる方法である。
"Back Propagating Trainin
g) "is a method for learning the multilayer perceptron, in which a learning pattern is input, and then the weight value connected to the final hierarchical node by an error signal so that the output value of the final hierarchical node becomes a desired target value. Has been changed,
In the lower layer, the connection weight is changed by an error signal back-propagated from the upper layer.

【0015】“誤差関数”とは、逆伝播学習から誤差信
号を如何に発生させるかを決定する関数である。
The "error function" is a function for determining how to generate an error signal from back propagation learning.

【0016】“ノードの飽和とは、ノードの加重値の合
計の入力値がシグモイド関数の傾きが小さい領域に位置
することを指称する。
"Node saturation" means that the total input value of the node weights is located in a region where the slope of the sigmoid function is small.

【0017】ノードが目標値と同じ飽和領域に位置する
と“適切な飽和”、反対側の飽和領域に位置すると“不
適切な飽和”という。
If the node is located in the same saturation region as the target value, it is called "appropriate saturation", and if it is located in the opposite saturation region, it is called "inappropriate saturation".

【0018】多層パーセプトロンの“逆伝播学習アルゴ
リズム”の具体的な内容は図3のように示される。
The specific contents of the "back propagation learning algorithm" of the multilayer perceptron are shown in FIG.

【0019】学習パターンx=[x1,x2,…,xN0
が入力されると、L層からなる多層パーセプトロンは、
ステップS1において、全ての方向の計算によって1層
のj番目のノード状態が
Learning pattern x = [x 1 , x 2 ,..., X N0 ]
Is input, the multilayer perceptron composed of L layers becomes
In step S1, the j-th node state of the first layer is calculated by calculation in all directions.

【0020】[0020]

【数1】 (Equation 1)

【0021】のように決定される。Is determined as follows.

【0022】ここで、Here,

【0023】[0023]

【数2】 (Equation 2)

【0024】であり、wji (l)はxi (l-1)とxj (l)の間
の連結加重値、wjo (l)はxj (l)のbiasを示す。
Where w ji (l) is the connection weight between x i (l-1) and x j (l) , and w jo (l) is the bias of x j (l) .

【0025】このように最終階層ノードの状態xK (L)
求められると、多層パーセプトロンの誤差関数は入力パ
ターンに対する目標パターンt=[t1,t2,…,
NL]との関係によって
When the state x K (L) of the last hierarchical node is obtained in this manner, the error function of the multilayer perceptron is calculated as the target pattern t = [t 1 , t 2 ,.
t NL ]

【0026】[0026]

【数3】 (Equation 3)

【0027】と定義され、この誤差関数値を減らすよう
に誤差信号が発生され、この誤差信号により各加重値が
変更される。
An error signal is generated so as to reduce the error function value, and each weight value is changed by the error signal.

【0028】即ち、ステップS2において出力層の誤差
信号は、
That is, in step S2, the error signal of the output layer is:

【0029】[0029]

【数4】 (Equation 4)

【0030】と計算される。Is calculated.

【0031】次にステップS3において下層の誤差信号
は逆伝播によって、
Next, in step S3, the error signal in the lower layer is

【0032】[0032]

【数5】 (Equation 5)

【0033】と計算される。Is calculated.

【0034】次にステップS4において各階層の加重値
は、
Next, in step S4, the weight value of each layer is

【0035】[0035]

【数6】 (Equation 6)

【0036】により変更されて一つのパターンに対して
学習が行なわれる。
The learning is performed for one pattern after being changed.

【0037】この過程をすべての学習パターンに対して
一回遂行したことをsweepという単位で表示する。
The fact that this process has been performed once for all learning patterns is displayed in units of sweep.

【0038】上述の逆伝播アルゴリズムから、誤差信号
δK (L)は目標値と実際値の差異にシグモイド活性化関数
の傾きが乗算された形態である。
From the above-described backpropagation algorithm, the error signal δ K (L) has a form in which the difference between the target value and the actual value is multiplied by the slope of the sigmoid activation function.

【0039】もし、xK (L)が-1或いは+1に近接の値であ
ると、傾きに対する項のため、δK (L)は極めて小さい値
になる。
If x K (L) is a value close to -1 or +1 δ K (L) will be a very small value due to the term for the slope.

【0040】即ち、tk = 1であり、xK (L)が-1に近似し
ている場合、或いはその反対の場合に、xK (L)は連結さ
れた加重値を調整するのに充分に強い誤差信号を発生さ
せない。
That is, if tk = 1 and x K (L) is close to -1, or vice versa, x K (L) is sufficient to adjust the concatenated weights. Does not generate a strong error signal.

【0041】このような出力ノードの不適切な飽和が逆
伝播学習からEmの最小化を遅延させ、あるパターンの学
習を妨害する。
Such inappropriate saturation of the output node delays the minimization of Em from the backpropagation learning and hinders the learning of a certain pattern.

【0042】本発明は学習のための誤差関数を、The present invention provides an error function for learning,

【0043】[0043]

【数7】 (Equation 7)

【0044】と変えており、この誤差関数を利用して出
力ノードの誤差信号が
Using this error function, the error signal at the output node is

【0045】[0045]

【数8】 (Equation 8)

【0046】となるようにしたものである。ここで、数
式7で示す誤差関数は、数式8で示す誤差信号を示す式
を経験的に定め、これを積分することにより導いたもの
である。そして、数式8を定めるには、先に説明したよ
うに、数式4で示される誤差信号の問題点を認識してい
る必要があり、そのためには数式4で示される誤差信号
をグラフ化すると明確になる。
[0046] Where the number
The error function represented by Equation 7 is an equation representing an error signal represented by Equation 8.
Is determined empirically and is derived by integrating this
It is. And, to determine equation 8,
As described above, the problem of the error signal represented by Equation 4 is recognized.
It is necessary to obtain the error signal
It becomes clear when graphed.

【0047】図4はtk = 1の場合に、 K (L) を変数とし
て、数式4で示される誤差信号を従来の誤差信号(Conv
entional Error Signal)CEとして表し、数式8で示
される誤差信号を本発明で提案された誤差関数により得
られる提案誤差信号(Proposed Error Signal)PEと
して表している。 図4から判るように、従来の誤差信号
CEは、出力ノードが不適切に飽和される場合、すなわ
ちx k (L) の値が−1に近づくと、δ V の値は急激に小さ
く(弱く)なり、出力ノードが適切に飽和される場合、
すなわちx k (L) の値が1に近づくと、δ V の値は徐々に
小さく(弱く)なっている。出力ノードが適切に飽和さ
れる場合は、誤差信号CEは小さくて良いのでこれでも
構わないが、出力ノードが不適切に飽和される場合に
は、誤差信号CEは大きく(強く)なければならない。
数式8で示す誤差信号はこのような条件を満たすために
定められたもので、x k (L) の値が−1に近づくと、誤差
信号PEは急激に大きく(強く)なり、x k (L) の値が1
に近づくと、誤差信号PEは徐々に小さく(弱く)なっ
ている。また、出力ノードが適切に飽和される場合に、
誤差信号CEと誤差信号PEとを比較すると、誤差信号
PEの方が絶対値が小さくなっている。これも、誤差信
号CEの問題点を解消するために考慮されたものであ
る。
FIG. 4 shows that when tk = 1, x K (L) is used as a variable.
Therefore, the error signal represented by Equation 4 is converted to a conventional error signal (Conv
entional Error Signal) expressed as CE
Is obtained by the error function proposed in the present invention.
Proposed Error Signal PE
It is expressed as As can be seen from FIG. 4, the conventional error signal
CE indicates that if the output node is improperly saturated,
When the value of x k (L) approaches -1, the value of δ V sharply decreases.
And the output node is properly saturated,
That is, when the value of x k (L) approaches 1, the value of δ V gradually increases.
It is small (weak). Output nodes are properly saturated
Error signal CE can be small,
Okay, but if the output node is improperly saturated
Means that the error signal CE must be large (strong).
The error signal shown in Expression 8 is used to satisfy such a condition.
When the value of x k (L) approaches -1, the error
The signal PE increases rapidly (strongly), and the value of x k (L) becomes 1
, The error signal PE gradually becomes smaller (weaker).
ing. Also, if the output node is properly saturated,
Comparing the error signal CE and the error signal PE, the error signal
The absolute value of PE is smaller. This is also the error signal
No. CE was considered in order to solve the problem.
You.

【0048】なお、学習のための他の数式は誤差関数Em
を利用した従来の逆伝播アルゴリズムと同一である。
The other equations for learning are the error function Em
This is the same as the conventional back-propagation algorithm using.

【0049】[0049]

【発明の効果】本発明に係る請求項1記載の多層パーセ
プトロンの神経回路網の効率的な学習のための誤差信号
の発生方法によれば、提案された誤差関数を利用した逆
伝播アルゴリズムは、出力層の目標値が出力値との差異
が大差になると強い誤差信号を発生させ、出力ノードが
不適切に飽和される現象を減らし、出力層の目標値が出
力値と近接の値になると弱い誤差信号を発生させて神経
網が学習パターンを過度に学習することを防止するの
で、学習時間を短縮して迅速化を図り、学習パターンに
対してもありのまま学習することができる。
According to the method for generating an error signal for efficient learning of the neural network of the multilayer perceptron according to the first aspect of the present invention, the back propagation algorithm using the proposed error function is: If the difference between the target value of the output layer and the output value is large, a strong error signal is generated, the phenomenon that the output node is inappropriately saturated is reduced, and if the target value of the output layer is close to the output value, the signal is weak. Since an error signal is generated to prevent the neural network from excessively learning the learning pattern, the learning time can be shortened and speeded up, and the learning pattern can be learned as it is.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 多層パーセプトロンの神経回路網の構造を示
す図である。
FIG. 1 is a diagram showing the structure of a neural network of a multilayer perceptron.

【図2】 シグモイドの活性化関数を示す図である。FIG. 2 is a diagram showing an activation function of a sigmoid.

【図3】 多層パーセプトロンの一般的な逆伝播の学習
方法を示すフローチャートである。
FIG. 3 is a flowchart showing a general method of learning back propagation in a multilayer perceptron.

【図4】 効率的な学習のための誤差信号を示す図であ
る。
FIG. 4 is a diagram showing an error signal for efficient learning.

【符号の説明】[Explanation of symbols]

CE 従来の誤差信号(Cnventionl Error Signal)、
PE 提案誤差信号(Proposed Error Signal)。
CE Conventional error signal (Cnventionl Error Signal),
PE Proposed Error Signal.

Claims (1)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 生命体の情報処理を模倣した神経回路網
モデルの一つとして、神経細胞(neuron)を意味するノ
ードと、各ノードを連結する連接部加重値が階層的に構
成されている多層パーセプトロンから誤差信号を発生さ
せる方法において、 【数9】 で示される前記誤差信号を与える数式に基づいて、前記
多層パーセプトロンの逆伝播学習時に出力ノードが不適
切に飽和される場合には強い誤差信号を発生させ、出力
ノードが適切に飽和される場合には弱い誤差信号を発生
させることを特徴とする多層パーセプトロンの神経回路
網の効率的な学習のための誤差信号の発生方法。
1. A neural network model that simulates information processing of a living body, in which nodes representing nerve cells and weights of connection portions connecting the nodes are hierarchically configured. In a method for generating an error signal from a multilayer perceptron, A strong error signal is generated when the output node is improperly saturated during back propagation learning of the multilayer perceptron , based on the equation that gives the error signal indicated by, and when the output node is appropriately saturated. A method for generating an error signal for efficient learning of a neural network of a multilayer perceptron characterized by generating a weak error signal.
JP6313861A 1994-09-30 1994-12-16 Error Signal Generation Method for Efficient Learning of Multilayer Perceptron Neural Network Expired - Fee Related JP2607351B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1019940025170A KR0141341B1 (en) 1994-09-30 1994-09-30 Error signal generation method for efficient learning of multilayer perceptron neural network
KR94-25170 1994-09-30

Publications (2)

Publication Number Publication Date
JPH08115310A JPH08115310A (en) 1996-05-07
JP2607351B2 true JP2607351B2 (en) 1997-05-07

Family

ID=19394262

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6313861A Expired - Fee Related JP2607351B2 (en) 1994-09-30 1994-12-16 Error Signal Generation Method for Efficient Learning of Multilayer Perceptron Neural Network

Country Status (2)

Country Link
JP (1) JP2607351B2 (en)
KR (1) KR0141341B1 (en)

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
電子情報通信学会技術研究報告、MBE88−175、根岸成郎、高橋治久、富田悦次、「Kullback誤差関数による誤差伝搬と性能評価」、Vol.88,No.466,P.115−120,(1989)

Also Published As

Publication number Publication date
JPH08115310A (en) 1996-05-07
KR960012131A (en) 1996-04-20
KR0141341B1 (en) 1998-07-01

Similar Documents

Publication Publication Date Title
JPH07114524A (en) Signal processor
US5630020A (en) Learning method and neural network structure
JP2607351B2 (en) Error Signal Generation Method for Efficient Learning of Multilayer Perceptron Neural Network
JP2897220B2 (en) Signal processing device
JP2699447B2 (en) Signal processing device
KR20210146002A (en) Method and apparatus for training multi-layer spiking neural network
JP2674167B2 (en) Process control method using neural network model
JP2606317B2 (en) Learning processing device
CN111582470A (en) Self-adaptive unsupervised learning image identification method and system based on STDP
JPH05128082A (en) Data processor constituting hierarchical network and its learning processing method
JP2979562B2 (en) Learning processing device
JPH09185596A (en) Coupling coefficient updating method in pulse density type signal processing network
Yeh Structural engineering applications with augmented neural networks
JP2904832B2 (en) Neural network device
Nikravesh et al. Process control of nonlinear time variant processes via artificial neural network
JPH04186402A (en) Learning system in fuzzy inference
Мигалев et al. Modeling the Learning of a Spiking Neural Network with Synaptic Delays
JPH03105663A (en) Incentive learning processing system
JPH05242063A (en) Neural network system
JPH0573522A (en) Neural network and its structuring method, and process control system using neural network
Kadirova et al. PRACTICAL APPLICATION OF ARTIFICIAL NEURAL NETWORK IN MANAGEMENT
Pham et al. A supervised neural network for dynamic systems identification
JP3292495B2 (en) Neuro-fuzzy fusion system
JPH0696046A (en) Learning processor of neural network
JPH03210686A (en) Neural network device

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 19961217

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080213

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090213

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100213

Year of fee payment: 13

LAPS Cancellation because of no payment of annual fees