JPH02285462A - Neural network system - Google Patents

Neural network system

Info

Publication number
JPH02285462A
JPH02285462A JP1108405A JP10840589A JPH02285462A JP H02285462 A JPH02285462 A JP H02285462A JP 1108405 A JP1108405 A JP 1108405A JP 10840589 A JP10840589 A JP 10840589A JP H02285462 A JPH02285462 A JP H02285462A
Authority
JP
Japan
Prior art keywords
input
learning
output
weight
result
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP1108405A
Other languages
Japanese (ja)
Inventor
Akihiko Hiroe
昭彦 廣江
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP1108405A priority Critical patent/JPH02285462A/en
Publication of JPH02285462A publication Critical patent/JPH02285462A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

PURPOSE:To constitute this system so that even a pattern which cannot be brought to linear separation can be classified by executing not only a linear operation of each input and weight but also a nonlinear operation and varying each weight by learning. CONSTITUTION:An input part 1 calculates each input with weight corresponding to each of them, an adding part 2 adds a result of each operation, and a determining part 3 determines an output by comparing a result of addition with a threshold. Subsequently, the determined output is compared with a desired output, and as a result, in the case they do not coincide with each other, weight is corrected by learning by a learning part 4, and converged to the desired output so that the desired output is outputted. In this case, not only each input and weight are brought to linear operation but also a nonlinear operation of each input and weight is executed. In such a way, even in the case the desired output is that which cannot be brought to linear separation such as exclusive OR with respect to an input pattern, the input pattern can be classified as per the desired output.

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は、動物の中枢神経系の細胞すなわちニューロン
のもつ機能を模擬的に結合させて構成されたニューラル
ネットワークシステムに関し、特にパターン認識などの
分野に利用されるニューラルネットワークシステムに関
する。
[Detailed Description of the Invention] [Industrial Application Field] The present invention relates to a neural network system configured by simulating the functions of cells, or neurons, in the central nervous system of animals, and in particular, relates to a neural network system configured by simulating the functions of cells, that is, neurons, in the central nervous system of animals, and in particular, to Concerning neural network systems used in the field.

〔従来の技術〕[Conventional technology]

近年、従来のノイマン型コンピュータでは膨大な計算量
を必要とする分野1例えば巡回セールスマン問題等に代
表される最適化問題やパターン認識などの分野において
、問題をより高速にかつ精度良く解決するためにニュー
ラルネットワークシステムが着目されている。ニューラ
ルネットワークシステムは、本来、動物の中枢神経系の
細胞が行なっている動作を模擬的にソフトウェアまたは
ハードウェアによって実現しようとするものであリ、従
来のニューラルネットワークシステムでは、複数の素子
(神経細胞)の各出力x−(i=l〜n)と一つの素子
の入力とを個々の結合(シナプス結合)に割当てられた
重みW、を介して線形的に結合させていた。
In recent years, conventional von Neumann computers have been using computers to solve problems faster and more accurately in fields such as optimization problems and pattern recognition, such as the traveling salesman problem, which require a huge amount of calculation. Neural network systems are attracting attention. Neural network systems are originally intended to simulate the actions performed by cells in the central nervous system of animals using software or hardware. ) and the input of one element were linearly coupled via weights W assigned to individual connections (synaptic connections).

第14図はこのような線形結合をもつニューラルネット
ワークシステムの一例としての線形学習機械の概念図で
ある。この線形学習機械において、一つの素子には、複
数の素子からの各出力X・が唇 入力するようになっており、一つの素子は、これらの入
力X・に個々の結合の重みW・を乗算した言l 結果を得る入力部50と、入力部50からの各乗算結果
を加算する加算部51と、加算結果をその素子固有の閾
値THと比較してその素子の出力を決定する決定部52
とが備わっており、重みW。
FIG. 14 is a conceptual diagram of a linear learning machine as an example of a neural network system having such linear combinations. In this linear learning machine, each output X from a plurality of elements is input into one element, and one element assigns weights W of individual connections to these inputs X. An input unit 50 that obtains the result of multiplication, an addition unit 51 that adds the multiplication results from the input unit 50, and a determination unit that compares the addition result with a threshold value TH specific to the element to determine the output of the element. 52
It is equipped with a weight W.

を学習部53において希望出力としての教師信号Tによ
り学習によって変化させることができるようになってい
る。
can be changed by learning in the learning section 53 using a teacher signal T as a desired output.

このような構成では複数の素子の出力xH(i=1〜n
)が一つの素子に入力すると、この素子の加算部51の
出力は次式のようになる。
In such a configuration, the outputs xH (i=1 to n
) is input to one element, the output of the adder 51 of this element is as shown in the following equation.

Σ x−w−=WO+:E  J VJ  −(Ui・
o  ”     +=i ここでwoは、この素子の閾値を相対的に変化させるた
めのこの素子固有の重みとして定義されており、XOは
“1nとなっている。(1)式で与えられる加算部51
の出力が決定部52に入力すると、決定部52では、こ
の出力を一定の閾値THと比較し、出力2を決定する。
Σ x−w−=WO+:E J VJ−(Ui・
o ” +=i Here, wo is defined as a weight specific to this element for relatively changing the threshold value of this element, and XO is "1n." Addition unit 51 given by equation (1)
When the output is input to the determining unit 52, the determining unit 52 compares this output with a certain threshold TH and determines the output 2.

すなわち出力2は、 Z=sgn (Σ xlw、−TI)   −(2)i
・O11 として決定され、加算部51の出力が闇値T Hよりも
大きいときには、出力2は“+1”として決定され、閾
値THよりも小さいときには“−1”として決定される
。学習部53ではこの素子からの出力Zを希望出力すな
わち教師信号′rと比較し、もし誤差があれば、閾値を
変化させる重みW。。
In other words, output 2 is Z=sgn (Σ xlw, -TI) - (2)i
- O11, and when the output of the adder 51 is larger than the dark value TH, the output 2 is determined as "+1", and when it is smaller than the threshold value TH, it is determined as "-1". The learning section 53 compares the output Z from this element with the desired output, that is, the teacher signal 'r, and if there is an error, the weight W is used to change the threshold value. .

各結合の重みW1〜woをある学習規則に従って変化さ
せる。この学習を繰返すことによって複数の素子からの
入力パターンを望み通りのクラスに分類することができ
る。
The weights W1 to wo of each connection are changed according to a certain learning rule. By repeating this learning, input patterns from multiple elements can be classified into desired classes.

いよ簡単のため、上記線形学習機械への入力がX□、X
l、X2の3つだけであるとじXOが、′1″に固定さ
れ、x  、x  が“1”と“0”の2値をとり、4
1″を真に、 −1”を偽とみなした論理和が最終的な
出力2として得られるように希望出力すなわち教師信号
Tを与えて学習を行なう場合を考える。但し、決定部5
2の閾値THは“0″とする。
For simplicity, the inputs to the above linear learning machine are X□,
The binding XO, which has only three elements, l and
Consider a case where learning is performed by giving a desired output, that is, a teacher signal T, such that a logical sum in which 1'' is considered true and -1'' is false is obtained as the final output 2. However, the decision section 5
The threshold value TH of 2 is set to "0".

最初、重みVtF  、 VV  、 VV2を“1”
に初期膜定すると、この状態では、入力X1 、X2が
どのような値をとっても加算部51からの出力は“1”
以上となるので、決定部52の出力Zは全て“+1”と
なる、ところが、学習部53は、決定部52の出力2と
教師信号′rとを比較し、比較の結果これらが異なって
いた場合のみ、重みWo。
Initially, the weights VtF, VV, and VV2 are set to “1”
In this state, the output from the adder 51 is "1" no matter what values the inputs X1 and X2 take.
Therefore, the output Z of the determining unit 52 is all “+1”. However, the learning unit 53 compares the output 2 of the determining unit 52 and the teacher signal 'r, and as a result of the comparison, it is found that they are different. Only if the weight Wo.

VIF  、 VV2を w、←w、+5(In(T)Xx、(i=0.1.2)
・・・・・・(3) のように所謂固定増分法によって変化させ学習させるよ
うになっており、この学習の結果、上記重みを最終的に
はVV  =  1 、 Wl = VV 2 = 2
にずることができる、なお(3)式においてsc+n(
T )は教師信号Tの符号を表わす、これにより、入力
X 1 、 X 2に対する線形学習機械の出力すなわ
ち決定部52の出力Zは最終的には第15図のようにな
り、xlとxlとの論理和をとった結果を得ることがで
きる。これは、平面(x  、 xl )上では、第1
6図のような直線C(“2X1+2x  +1=0”)
を用いて、平面(xl 、 X2 )を正、負の2領域
に分割することに対応する。この線形学習機械を用いれ
ば、教師信号Tを変えて垂みVV  、 VVl 、 
WF2に所定の学習を施すことにより同様にして論理積
の出力を得るようにもすることができる。
VIF, VV2 as w, ←w, +5(In(T)Xx, (i=0.1.2)
As shown in (3), the weights are changed and learned using the so-called fixed increment method, and as a result of this learning, the above weights are finally set to VV = 1, Wl = VV 2 = 2.
In equation (3), sc+n(
T ) represents the sign of the teacher signal T. As a result, the output of the linear learning machine for the inputs X 1 and The result can be obtained by taking the logical sum of . This means that on the plane (x, xl), the first
Straight line C as shown in Figure 6 (“2X1+2x +1=0”)
This corresponds to dividing the plane (xl, X2) into two areas, positive and negative, using . If we use this linear learning machine, we can change the teacher signal T and obtain the sag VV, VVl,
By subjecting WF2 to predetermined learning, it is also possible to obtain the output of a logical product in a similar manner.

〔発明が解決しようとする課題〕[Problem to be solved by the invention]

しかしながら上述した線形学習機械に代表されるような
線形結合をもつニューラルネットワークシステムでは、
上述したような線形分離可能な問題にしか適用すること
ができず、例えば排他的論理和をとることができないと
いう欠点があった。
However, in neural network systems with linear combinations, such as the linear learning machine mentioned above,
It has the disadvantage that it can only be applied to linearly separable problems such as those mentioned above, and that, for example, exclusive OR cannot be taken.

すなわち、第17図に示すような排他的論理和は、平面
(xl 、 X2 )上では第18図のようになり、“
+1”の2つの真の点p1.p2と、 −1”の2つの
偽の点p、p4とを超平面(ここでは直線)で分けるこ
とができない。
In other words, the exclusive OR shown in FIG. 17 becomes as shown in FIG. 18 on the plane (xl, X2), and “
The two true points p1.p2 of +1" and the two false points p and p4 of -1" cannot be separated by a hyperplane (here, a straight line).

このような場合に線形学習機械を用いようとするときに
は、一般に、X 1 、 X 2の2人力からX  、
 X  、 X3の3人力に入力パターンを増やし、上
述したようなアルゴリズムを用いて3次元空間(X  
、 X2 、 X3 )で入力パターンを線形分離を行
なう仕方が取られる。しかし、次元を増加する場合に、
その仕方が問題となり、常に適切な形で次元を増やすこ
とができるとは限らない。
When trying to use a linear learning machine in such a case, generally speaking, from the two human forces of X 1 and X 2,
By increasing the number of input patterns to the three manpower of X and X3 and using the algorithm described above, we can create a three-dimensional space
, X2, X3) to linearly separate the input pattern. However, when increasing the dimension,
The problem is how to do so, and it is not always possible to increase dimensions in an appropriate manner.

例えば、1つの線形学習機械において第19図(a)の
ような入力パターンを(xl 、 X2 、 X3 )
の3次元空間でx 3= 1 / 2の平面により2つ
のグループに分離することができるが、第19図(b)
のような入力パターンを2つのグループに分離すること
ができない。
For example, in one linear learning machine, if the input pattern as shown in Fig. 19(a) is (xl, X2, X3)
In the three-dimensional space of , it can be separated into two groups by the plane of x 3 = 1 / 2, but as shown in Fig. 19 (b)
It is not possible to separate input patterns such as ``input patterns'' into two groups.

本発明は、上述した従来の欠点を解決し、次元を増加さ
せることなく線形分離のできないパターンをも分離する
ことの可能なニューラルネットワークシステムを提供す
ることを目的としている。
The present invention aims to solve the above-mentioned conventional drawbacks and provide a neural network system capable of separating patterns that cannot be linearly separated without increasing the dimensionality.

〔課題を解決するための手段〕[Means to solve the problem]

上記目的を達成するために、本発明は、各入力をそれぞ
れに対応した重みと演算させる入力手段と、入力手段か
らの各演算結果を加算する加算手段と、加算手段からの
加算結果と閾値とを比較し比較結果に基づいて出力を決
定する決定手段と、決定手段で決定された出力と希望出
力とを比較して前記入力手段の重みを学習し変化させる
学習手段とを備え、前記入力手段は、入力と重みとの線
形演算のみならず入力と重みとの非線形演算をも行なう
ようになっている。
In order to achieve the above object, the present invention includes an input means for calculating each input with a weight corresponding to each input means, an addition means for adding each calculation result from the input means, and an addition result from the addition means and a threshold value. and a learning means that learns and changes the weight of the input means by comparing the output determined by the determination means and the desired output, the input means is designed to perform not only linear calculations between inputs and weights, but also nonlinear calculations between inputs and weights.

またさらに発展させて、入力と重みとの線形演算のみな
らず非線形演算を行ない前記各市みを学習によって変化
させる機能を備えた複数のネットワークと、前記複数の
ネットワークからの出力に基づいて入力パターンの判別
を行なう判別部とを備えた構成にしても良い。
In addition, it has been further developed to include a plurality of networks that have the function of performing not only linear calculations between inputs and weights but also nonlinear calculations to change each market through learning, and a function that changes input patterns based on the outputs from the plurality of networks. A configuration may also be provided including a discriminating section that performs discrimination.

〔作用〕[Effect]

上記のような構成のニューラルネットワークシステムで
は、各入力をそれぞれに対応した重みと演算し、各演算
結果を加算して加算結果を閾値と比較することによって
出力を決定する。決定された出力を希望出力と比較し、
この結果、一致しない場合には学習によって重みを修正
し、希望出力に収束させ希望出力が出力されるようにす
る。この際に本発明では、各入力と重みとを線形演算さ
せるのみならず各入力と重みとの非線形演算をも行なう
ようになっているので、入力パターンに対して希望出力
が排他的論理和のような線形分離のできないものである
場合にも入力パターンを希望出力通りに分類することが
できる。
In the neural network system configured as described above, an output is determined by calculating each input with a corresponding weight, adding the results of each calculation, and comparing the addition result with a threshold value. Compare the determined output with the desired output,
As a result, if they do not match, the weights are corrected through learning so that they converge to the desired output and the desired output is output. At this time, the present invention not only performs linear calculations on each input and weight, but also performs nonlinear calculations on each input and weight, so that the desired output for the input pattern is an exclusive OR. Even if the input pattern cannot be linearly separable, it is possible to classify the input pattern according to the desired output.

また上記構成のネットワークを複数用いることにより、
入力パターンによって張られる空間を複数の領域に分け
ることができて、入力パターンに対する希望出力をより
複雑なものにする場合にも入力パターンを希望出力通り
に分類することかできる。
In addition, by using multiple networks with the above configuration,
The space spanned by the input pattern can be divided into a plurality of regions, and even when the desired output for the input pattern is made more complex, the input pattern can be classified according to the desired output.

〔実方龜例〕[Actual example]

以下、本発明の一実施例を図面に基づいて説明する。 Hereinafter, one embodiment of the present invention will be described based on the drawings.

第1図は本発明に係るニューラルネットワークシステム
の一例としての非線形学習機械の概念図である。
FIG. 1 is a conceptual diagram of a nonlinear learning machine as an example of a neural network system according to the present invention.

この非線形学習機械には、3つの入力X。。This nonlinear learning machine has three inputs X. .

X 1 * X 2が入力し入力X□ 、Xl 、X2
と重み’V’tr  、 W  、 VV2とをそれぞ
れ線形的に乗算した結果を得ることの池に入力x  、
x  の2次の項すなわちX   、X2  、Xl 
X2の3つの項と重みVV  、 VV  、 VV5
とをそれぞれ乗算した結果を得る入力部1と、入力部1
からの各乗算結果を加算する加算部2と、加算部2で加
算された結果と一定の閾値THとを比較して加算結果が
閾値THよりも大きいときに“+1”、小さいときに−
1”の出力Zを決定する決定部3と、決定部3の出力Z
と希望出力すなわち教師信号Tとを比較し、もし誤差が
あれば、この誤差がなくなるように重みWo、Wl、W
l、W3.W41w5をある学習規則によって変化させ
る学習部4とを備えている。なお、入力部1における重
みWoは、決定部3における閾値を相対的に変化させる
ためのものである。
X 1 * X 2 is input and input X□ , Xl , X2
and the weights 'V'tr, W, VV2, respectively.
The quadratic terms of x, that is, X, X2, Xl
Three terms of X2 and weights VV, VV, VV5
and an input unit 1 that obtains the result of multiplying
An adder 2 that adds the results of each multiplication from the adder 2 compares the result added by the adder 2 with a certain threshold TH, and when the addition result is larger than the threshold TH, it is "+1", and when it is smaller, it is -
a determining unit 3 that determines the output Z of 1”, and an output Z of the determining unit 3
and the desired output, that is, the teacher signal T, and if there is an error, weights Wo, Wl, W are set to eliminate this error.
l, W3. The learning section 4 changes W41w5 according to a certain learning rule. Note that the weight Wo in the input section 1 is used to relatively change the threshold value in the determination section 3.

第2図は第1図に示した非線形学習機械の入力部1.加
算部2.決定部3を実現する回路構成の一例を示す図で
あって、この回路では、入力部1は、乗算部21,22
.23.24.25.26から構成されている0乗算部
21,22.23はそれぞれ3つのnチャネルMO8)
ランジスタが縦続接続された乗算ユニットからなってお
り、第1段目のMOSトランジスタのソースにはそれぞ
れ入力XO、Xl 、X2が加わり、またゲートには重
みVVg 、 Wl 、 VV2が加わってこれらの線
形的な乗算結果V17oX6 、 VVI X 1 、
 VIl’2 X2がドレインから電荷の形で出力され
、2段目、3段目のMOSトランジスタのゲートに加わ
る電荷転送信号ψ 、ψ3によって順次に転送され出力
されるようになっている、また乗算部24,25゜26
は基本的にはそれぞれ2つの乗算ユニット40.41 
;42,43;44.45から構成されており、乗算部
24.25.26の最初の乗算ユニット40.42.4
4では、それぞれ人力X1.X、X  と重みVV3 
、 ’VV4 、 VV5とを乗算した結果Vr  X
  、 VV  X  、 W5 Xlを電荷転送信号
ψ0.ψ1によって電荷の形で転送し出力し、次の乗算
ユニット41.43.45では、それぞれ人力X1 、
X2 、X2と最初の乗算ユニット40.42.44か
らの乗算結果Vl/ 3 X 1 。
FIG. 2 shows the input section 1 of the nonlinear learning machine shown in FIG. Addition section 2. 2 is a diagram illustrating an example of a circuit configuration for realizing a determining section 3; in this circuit, an input section 1 includes multiplication sections 21 and 22;
.. Each of the 0 multipliers 21, 22, and 23 consisting of 23, 24, 25, and 26 has three n-channel MO8)
It consists of a multiplication unit in which transistors are connected in cascade, and inputs XO, Xl, and X2 are applied to the sources of the first stage MOS transistors, and weights VVg, Wl, and VV2 are applied to the gates, so that these linear Multiplication results V17oX6 , VVI X 1 ,
VIl'2 Part 24, 25゜26
are basically two multiplication units each 40.41
;42,43;44.45, and the first multiplication unit 40.42.4 of the multiplication section 24.25.26
4, human power X1. X, X and weight VV3
, 'The result of multiplying VV4 and VV5 is Vr
, VV X , W5 Xl as a charge transfer signal ψ0. ψ1 transfers and outputs it in the form of charge, and the next multiplication units 41, 43, and 45 generate human power X1, respectively.
X2, X2 and the multiplication result Vl/3X1 from the first multiplication unit 40.42.44.

42  + VIF 5 X 1X 2を電荷転送信号
ψ2゜ψ3により順次に転送して出力するようになって
いる。
42 + VIF 5 x 1 x 2 are sequentially transferred and outputted using a charge transfer signal ψ2°ψ3.

加算部2は、入力部1の各乗算部21乃至26から転送
され出力された電荷の和をとる加算回路により実現され
ており、また決定部3は、nチャネルMOSトランジス
タとPチャネルMO8)ランジスタとを組合せて構成さ
れている。
The adder 2 is realized by an adder circuit that sums the charges transferred and output from each of the multipliers 21 to 26 of the input section 1, and the determiner 3 is implemented by an n-channel MOS transistor and a P-channel MO transistor. It is composed of a combination of

また、乗算部24.25,26.加算回路28において
信号D 1 、 D 2は電荷消去用のものであって、
それぞれPチャネルMOSトランジスタに入力するよう
になっている。
Also, multiplication units 24, 25, 26 . In the adder circuit 28, the signals D 1 and D 2 are for erasing charges,
Each of these signals is input to a P-channel MOS transistor.

なお第2図では、説明を簡単にするため、乗算結果が正
確に得られるような構成としたが、実際には必ずしも厳
密な計算結果を得る必要はない。
In addition, in FIG. 2, in order to simplify the explanation, a configuration is used in which a multiplication result can be obtained accurately, but in reality, it is not always necessary to obtain an exact calculation result.

これはニューラルネットワークシステムの本質的な柔軟
性に起因するものであって、従って乗算回路としては精
度の良い結果を与えるような複雑な回路構成にする必要
はない。
This is due to the inherent flexibility of the neural network system, and therefore there is no need for the multiplication circuit to have a complex circuit configuration that provides highly accurate results.

このような構成の非線形学習機械において、入力が上述
のようにXo、Xl 、X3の3つだけであるとし、X
Oが“1″に固定され、X 1 、 X 2が“1”と
“0”の2値をとり、“+1″を真に。
In a nonlinear learning machine with such a configuration, assume that there are only three inputs, Xo, Xl, and X3, as described above, and
O is fixed to "1", X 1 and X 2 take two values of "1" and "0", and "+1" is true.

−1″を偽とみなした排他的論理和が出力として得られ
るように学習を行なう場合を考える。但し、決定部3の
閾値THは“0”とし、決定部3は加算部2からの出力
が正の値のときに“+1″負の値のときに“−1″の値
をとるものとする。
Let's consider a case where learning is performed so that the exclusive OR is obtained as an output, with ``-1'' regarded as false. However, the threshold TH of the determining unit 3 is set to ``0'', and the determining unit 3 outputs the output from the adding unit 2. It is assumed that the value is "+1" when the value is positive, and the value is "-1" when the value is negative.

最初、重みw、(i=0〜5)を全て“1”に初期設定
し、第3図に示すように入力パターンX、X2と希望出
力が排他的論理和である教師信号Tとを与えて、学習部
4において前述の(3)式で示されるような固定増分法
により2次の項をも含めた形で学習させ重みWi (1
=0〜5)を変化させる。この学習の結果、重みWiは
第4図に示すような値に収束し、その結果最終的には、
入力パターンX1 、X2に対して加算部2の加算結果
Sは、第5図に示したような値となり、決定部3の出力
2は、加算結果Sが正のものに対して真である“+1”
、負のものに対して偽である一1″となる。これにより
、排他的論理和をとることが可能となる。これは、第6
図に示すように、平面(xl、x2)上で楕円曲線E(
W1X  +Vlr  X  十VV  X   + 
W4 X 2  +V175x  x  +w  =O
)により平面(Xl 、 x2 )を内と外とに2分す
ることに対応する。
First, the weights w, (i = 0 to 5) are all initialized to "1", and a teacher signal T whose input patterns X, X2 and the desired output are exclusive ORs is given as shown in FIG. Then, in the learning unit 4, the weight Wi (1
=0 to 5). As a result of this learning, the weight Wi converges to the value shown in Figure 4, and as a result, finally,
The addition result S of the addition unit 2 for the input patterns X1 and X2 becomes a value as shown in FIG. +1”
, which is false for negative ones. This makes it possible to take an exclusive OR. This is the sixth
As shown in the figure, on the plane (xl, x2), the elliptic curve E(
W1X +Vlr X 10VV X +
W4 X 2 +V175x x +w =O
) corresponds to dividing the plane (Xl, x2) into two parts: inside and outside.

また、第3図に示した入力パターンX、X2と教師信号
Tとの関係にさらに、入力X、X2がそれぞれ0.5″
、′0.5″のときに出力Zが“+1”となるような条
件を教師信号Tに付加し学習を行なわせると、重みWi
 (1=0〜5)は第7図に示すような値に収束する。
Furthermore, in addition to the relationship between the input patterns X and X2 and the teacher signal T shown in FIG. 3, the input patterns X and X2 are each 0.5"
, '0.5'', the output Z becomes "+1" when learning is performed by adding a condition to the teacher signal T, the weight Wi
(1=0 to 5) converges to a value as shown in FIG.

このときには、第8図に示すように2次元平面(xI 
T X2 )上で双曲線Fにより平面(X、X)を分割
することができる。
At this time, as shown in FIG.
The plane (X, X) can be divided by a hyperbola F on T X2 ).

このようにして入力X、X2の2次の項をも考慮した非
線形学習R械によれば、入力パターンにより張られる2
次元空間を2次の超曲線で分割することができて、入力
パターンによって張られる空間の次元すなわち入力xi
の個数を増加させることなく線形学習機械では区別不能
であった排他的論理和などの複雑なパターン分類を可能
にすることができる。
In this way, according to the nonlinear learning R machine that also considers the quadratic terms of the inputs X and X2, the 2
The dimensional space can be divided by a quadratic hypercurve, and the dimension of the space spanned by the input pattern, that is, the input xi
It is possible to perform complex pattern classification such as exclusive OR, which was indistinguishable by linear learning machines, without increasing the number of patterns.

この実施例では、所謂2次の非線形学習機械を例にとっ
て説明したが、さらに3次、4次、・・・・・・と高次
の項をも含む3次、4次、・・・・・・の非線形学習機
械を横築しても良く、これによってより分類能力を向上
させることができて、入力パターンによって張られる空
間を複数の領域に分割するような2次の線形学習機械で
は得ることのできない分類をも行なうこともできる0例
えば第9図に示すような0″と“ビの2値以外の入力X
1゜x2に対する出力2を得るようにすることもできる
In this embodiment, a so-called second-order nonlinear learning machine was explained as an example, but the third-order, fourth-order, etc. It is also possible to build a nonlinear learning machine horizontally, which can further improve the classification ability, which is not possible with a quadratic linear learning machine that divides the space spanned by the input pattern into multiple regions. For example, inputs other than binary values such as 0" and "B" as shown in Figure 9.
It is also possible to obtain an output of 2 for 1°×2.

なお第9図に示すような分類を行なうのに3次や4次の
非線形学習機械を用いるかわりに、第10図に示すよう
に2次の非線形学習機械を複数用いることも可能である
Note that instead of using a third-order or fourth-order nonlinear learning machine to perform classification as shown in FIG. 9, it is also possible to use a plurality of second-order nonlinear learning machines as shown in FIG.

第10図の学習機械では、同一の入力パターンXO、X
2 、・・・・・・Xnが入力する2次の非線形学習機
械すなわちネットワークを複数個並列に並べて、各非線
形学習機械M 乃至M の出力Z1乃至Z、を判別器1
0へ入力させるようになっている0判別器10は、各非
線形学習機械M1乃 至M の出力zl乃至Zllの全
てが“+1″の正の値のときに“+1”を出力し、それ
以外のときには“−1″を出力することによって、分類
を行なうようになっている。これにより、各非線形学習
機械M1乃至M1は、それぞれの学習を終了した後は、
希望出力すなわち教師信号Tが“+1”のときには出力
zl乃至Z1の全てが“十F、教師信号Tが一1nのと
きには出力zl乃至Z。
In the learning machine of Fig. 10, the same input patterns XO,
2, . . . A plurality of second-order nonlinear learning machines, that is, networks inputted by
The 0 discriminator 10, which is designed to input 0, outputs "+1" when all of the outputs zl to Zll of each nonlinear learning machine M1 to M are positive values of "+1", and otherwise When this happens, classification is performed by outputting "-1". As a result, after each nonlinear learning machine M1 to M1 finishes their respective learning,
When the desired output, that is, the teacher signal T is "+1," all of the outputs zl to Z1 are "10F," and when the teacher signal T is 11n, the outputs zl to Z.

のうちのいずれか1つが“−1″となるように構成され
ている。
Any one of them is configured to be "-1".

第10図のような構成をとることによって、入力パター
ンx1〜Xnによって張られる空間を複数の領域に分割
することができて、第9図に示した分類を実現すること
が可能となる。但し、この場合に分類すべき領域の数ず
なわち、非線形学習機械Ml乃至Mlの個数mを予め知
ることができるとは限らないので、実際には第11図に
示すようなアルゴリズムを用いるのが良い。
By adopting the configuration shown in FIG. 10, the space defined by the input patterns x1 to Xn can be divided into a plurality of regions, and the classification shown in FIG. 9 can be realized. However, in this case, it is not always possible to know in advance the number of regions to be classified, that is, the number m of nonlinear learning machines Ml to Ml, so in reality, the algorithm shown in Fig. 11 is not used. is good.

すなわち第11図では、最初に、複数の2次の非線形学
習機械Ml乃至M1のうちの1番目の機械M1を用意し
くステップS1)、機械Ml乃至M1の識別番号kを“
1″に初期設定する(ステップ52)0次いでに番目、
いまの場合1番目の機械M1をある所定回数だけ全ての
入力パターンx1〜Xnにわたって学習させ(ステップ
S3)、この学習が終わった時点でこの機械M1の出力
Z1を全学習パターンにわたってチエツクしくステップ
S4)、教師信号Tが“+1”の点で出力Z1が“+1
”となっていれば(ステップ85゜S6)、この機械M
1の学習を完了する6次いで、教師信号Tが“−1″の
点で出力Z1が“−1″でなければ(ステップS7)、
新たな機械M2を用意しくステップS8)、識別番号k
を“+1”だけ歩進しくステップS9)、ステップS3
に戻って、新たな機械M2の学習を同様にして行なう。
That is, in FIG. 11, first, the first machine M1 among the plurality of second-order nonlinear learning machines Ml to M1 is prepared, step S1), and the identification number k of the machines Ml to M1 is set as "
Initialize to 1″ (step 52) 0 then th,
In this case, the first machine M1 is made to learn over all input patterns x1 to Xn a certain predetermined number of times (step S3), and when this learning is finished, the output Z1 of this machine M1 is checked over all the learning patterns in step S4. ), the output Z1 is “+1” at the point where the teacher signal T is “+1”
” (step 85゜S6), this machine M
6. Next, if the output Z1 is not "-1" at the point where the teacher signal T is "-1" (step S7),
Prepare a new machine M2 (step S8), identification number k
step S9) by "+1", step S3
Returning to , learning of the new machine M2 is performed in the same manner.

このような処理を繰返し、教師信号Tが“−1”の点で
出力Mにが“−1″になっていない点が残っているとき
にはさらに新たな機械を用意しくステップ87.88)
、全て“−1″になっているときにはさらに新たな機械
を用意することなく、学習が全て完了したと判断して処
理を終了する(ステップS7)。
Such processing is repeated, and if there remains a point where the output M is not "-1" at a point where the teacher signal T is "-1", a new machine is prepared (steps 87 and 88).
, are all "-1", it is determined that all learning has been completed and the process ends without preparing a new machine (step S7).

なお上述の処理において、新たな機械を用意する際に、
教師信号Tが“−1″で出力も“−1″になっている点
に関しては教師信号Tを“+1″に変更しても良いし、
あるいはこの点に関しては以後の学習の際に無視するよ
う教師信号Tを“0″にしても良い。
In addition, in the above process, when preparing a new machine,
Regarding the point that the teacher signal T is "-1" and the output is also "-1", the teacher signal T may be changed to "+1",
Alternatively, regarding this point, the teacher signal T may be set to "0" so as to be ignored during subsequent learning.

第12図はこのような処理によって第9図に示したよう
な入力パターンX 〜x2に対する出力2を得る場合の
機械M  、M2における最終的な重みWJの値を示し
ている。この例では1つの機械MKの学習回数を10回
としており、これにより第13図に示すように平面(x
l 、 X2 )上で機械M1により領域G1が与えら
れ、機械M2により領域G2が与えられ、これにより平
面(xl。
FIG. 12 shows the value of the final weight WJ in the machines M2 and M2 when output 2 is obtained for the input patterns X1 to x2 as shown in FIG. 9 through such processing. In this example, the number of learning times for one machine MK is 10 times, so that the plane (x
l ,

X2)を2つの楕円曲線E1.E2によって分割するこ
とができる。
X2) into two elliptic curves E1. It can be divided by E2.

なお第1−1図の処理では、教師信号Tが“−1”の点
が複数あって、これらの点が平面(xl。
In the process shown in FIG. 1-1, there are a plurality of points where the teacher signal T is "-1", and these points are on the plane (xl.

X2)上で互いにかけ離れた位置にあるときに、複数の
機械がこれらの点を自分の領域に取り込もうとして振動
してしまう恐れがある。これを避けるためには、前述の
(3)式で与えられる固定増分法の学習式を少し変形し W・←W・+5on(T) I ・X・/(l Sl+1) 瞼 (i=0.1.2・・・・・・)・・・・・・(4)と
するのが良い、なお上記(4)式において、ISIは非
線形学習機械の加算部の出力である。
X2) When the points are far apart from each other on the top, there is a risk that multiple machines will try to incorporate these points into their area and vibrate. In order to avoid this, the learning formula for the fixed increment method given by equation (3) above is slightly modified to write W・←W・+5on(T) I・X・/(l Sl+1) eyelids (i=0. 1.2...) (4). In the above equation (4), ISI is the output of the addition section of the nonlinear learning machine.

このように学習式を変形することによって、教師信号T
への収束性はいくらか悪くなるが、振動による問題をあ
る程度避けることができる。
By transforming the learning formula in this way, the teacher signal T
Although the convergence is somewhat worse, problems caused by vibration can be avoided to some extent.

この第11図の処理によれば、原理的にはどのような分
布をもったパターン空間の点をも分類することが可能で
あり、また分類に要する非線形学習機械の数も非線形学
習機械自ら決定することができる。
According to the process shown in Figure 11, it is possible in principle to classify points in a pattern space with any distribution, and the number of nonlinear learning machines required for classification can also be determined by the nonlinear learning machine itself. can do.

以上、入力が2つの場合、すなわちX 1 、 X 2
(X Oは除く)の場合の単純な構成のニューラルネッ
トワークシステムについて説明したが、これを入力が3
つ以上の学習機械や多段に構成されたパーセプトロンを
用いたニューラルネットワークシステムに容易に適用す
ることができる。なお、入力数が多いときに全ての入力
間の積を含む2次形式、3次形式等の高次の項を考慮し
ようとすると、膨大な数の入力をもつネットワークとな
る可能性があるが、この場合には例えば特に相関が重要
と思われる入力間の積を除いて、全て1次の項とするか
あるいは入力の2乗、3項等の項のみにするなど、必要
に応じてネットワークシステムを簡略化して構成してい
くのが良い。
Above, when there are two inputs, that is, X 1 and X 2
(excluding XO), we have explained a neural network system with a simple configuration,
It can be easily applied to neural network systems using two or more learning machines or perceptrons configured in multiple stages. Note that when the number of inputs is large, if you try to consider high-order terms such as quadratic and cubic forms that include products between all inputs, you may end up with a network with a huge number of inputs. In this case, for example, except for products between inputs where correlation is considered to be particularly important, use all first-order terms, or use only terms such as the square or triple of the inputs, etc., as necessary. It is better to simplify the system configuration.

〔発明の効果〕〔Effect of the invention〕

以上に説明したように、本発明によれば、各入力と重み
との線形演算のみならず非線形演算をも行なわせ各重み
を学習によって変化させるようにしているので、入力パ
ターンの次元を増加させることなく線形分離のできない
パターンをも分類することができる。またこのような機
能を備えたネットワークを複数用いることによって、希
望出力がより複雑なものである場合にもパターンを希望
出力通りに分類することができる。
As explained above, according to the present invention, not only linear calculations but also nonlinear calculations are performed between each input and the weight, and each weight is changed by learning, so that the dimensionality of the input pattern can be increased. It is also possible to classify patterns that cannot be linearly separable. Furthermore, by using a plurality of networks equipped with such functions, patterns can be classified according to the desired output even when the desired output is more complex.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は本発明に係るニューラルネットワークシステム
の一例としての非線形学習機械の概念図、第2図は第1
図に示した非線形学習機械の入力部l、加算部2.決定
部3を実現する回路構成の一例を示す図、第3図は入力
X1.X2と排他的論理和の学習を行なわせる希望出力
Tとの関係を示す図、第4図は第3図の関係で学習させ
たときの重みW、の最終的な値を示す図、第5図は第4
図の重みとなったときの加算結果Sを示す図、第6図は
第4図、第5図で示した結果によって入力パターンが平
面(X11 X2)上で楕円曲線Eによって分類される
様子を示す図、第7図は第3図に示した入力X、X2と
希望出力Tとの関係にさらに入力x  、x  がそれ
ぞれ“0.5” 、  0゜5”のときに出力Zが“+
1”となるような条件を希望出力Tに付加して学習を行
なわせたときの重みW、の最終的な値を示す図、第8図
は第7図で示した結果によって入力パターンが平面(x
l。 X2)上で双曲線Fによって分類される様子を示す図、
第9図は“0”と“1”の2値以外の入力X 1 、 
X 2と希望出力Tとの関係を示す図、第10図は2次
の非線形学習機械を複数用いて構成されたニューラルネ
ットワークシステムを示す図、第11図は第10図に示
したニューラルネットワークシステムにおいて各非線形
学習機械の学習の処理流れを示すフローチャート、第1
2図は第11図に示す処理の結果非線形学習機械M1゜
M2においてそれぞれ学習された重みWiの最終的な値
の一例を示す図、第13図は第12図で示した結果によ
って入力パターンが平面(xl。 X2)上で複数の楕円曲線E1.E2によって複数に分
類される様子を示す図、第14図は従来のニューラルネ
ットワークシステムの一例としての線形学習機械の概念
図、第15図は入力X1゜x2と論理和の出力2との関
係を示す図、第16図は第15図で示す結果を与えるよ
うに第14図の線形学習機械が入力パターンを平面(x
l。 X2)上で直線Cによって分類する様子を示す図、第1
7図は入力X、X2と排他的論理和の出力Zとの関係を
示す図、第18図は平面(xl。 X2)上での排他的論理和め出力2の位置を示す図、第
19図(a) 、 (b)はそれぞれ3次元の入力パタ
ーンX  * X2 、X3を示す図である。 1・・・入力部、2・・・加算部、3・・・決定部、4
・・・学習部、10・・・判別部、X、・・・入力、W
i・・・重み、Z・・・出力、 T・・・希望出力(教師信号)、 Ml乃至M、・・・非線形学習機械 特許出願人  株式会社 リ コ − 第 第 図 図 第 図 第 図 第 図
Figure 1 is a conceptual diagram of a nonlinear learning machine as an example of a neural network system according to the present invention, and Figure 2 is a conceptual diagram of a nonlinear learning machine as an example of a neural network system according to the present invention.
The input section 1, addition section 2, of the nonlinear learning machine shown in the figure. FIG. 3 is a diagram showing an example of a circuit configuration for realizing the determining unit 3. A diagram showing the relationship between X2 and the desired output T for which exclusive OR learning is performed, FIG. 4 is a diagram showing the final value of the weight W when learning is performed using the relationship shown in FIG. 3, and FIG. The figure is number 4
Figure 6 shows how the input pattern is classified by the elliptic curve E on the plane (X11 X2) according to the results shown in Figures 4 and 5. The diagram shown in FIG. 7 shows the relationship between the inputs X, X2 and the desired output T shown in FIG.
Figure 8 shows the final value of the weight W when learning is performed by adding a condition such that the desired output T becomes 1''. (x
l. A diagram showing how classification is performed by hyperbola F on X2),
FIG. 9 shows an input X 1 other than binary values of “0” and “1”,
A diagram showing the relationship between X 2 and desired output T, Figure 10 is a diagram showing a neural network system configured using multiple second-order nonlinear learning machines, and Figure 11 is the neural network system shown in Figure 10. Flowchart showing the processing flow of learning of each nonlinear learning machine in 1st
Figure 2 shows an example of the final values of the weights Wi learned by the nonlinear learning machines M1 and M2 as a result of the processing shown in Figure 11, and Figure 13 shows how the input pattern is determined by the results shown in Figure 12. A plurality of elliptic curves E1. on the plane (xl. X2). Fig. 14 is a conceptual diagram of a linear learning machine as an example of a conventional neural network system, and Fig. 15 shows the relationship between the input X1゜x2 and the output 2 of the logical sum. Figure 16 shows that the linear learning machine in Figure 14 transforms the input pattern into a plane (x
l. X2) Diagram showing how to classify by straight line C, 1st
7 is a diagram showing the relationship between the inputs X, X2 and the exclusive OR output Z, FIG. 18 is a diagram showing the position of the exclusive OR output 2 on the plane (xl. Figures (a) and (b) are diagrams showing three-dimensional input patterns X*X2 and X3, respectively. 1... Input section, 2... Addition section, 3... Determination section, 4
... Learning section, 10... Discrimination section, X, ... Input, W
i...Weight, Z...Output, T...Desired output (teacher signal), Ml to M,...Nonlinear learning machine patent applicant Ricoh Co., Ltd. - Fig. Fig. Fig. Fig. figure

Claims (1)

【特許請求の範囲】 1)各入力をそれぞれに対応した重みと演算させる入力
手段と、入力手段からの各演算結果を加算する加算手段
と、加算手段からの加算結果と閾値とを比較して出力を
決定する決定手段と、決定手段で決定された出力と希望
出力とを比較し比較結果に基づいて前記入力手段の重み
を学習し変化させる学習手段とを備え、前記入力手段は
、入力と重みとの線形演算のみならず入力と重みとの非
線形演算をも行なうようになっていることを特徴とする
ニューラルネットワークシステム。 2)入力と重みとの線形演算のみならず非線形演算を行
ない前記各重みを学習によって変化させる機能を備えた
複数のネットワークと、前記複数のネットワークからの
出力に基づいて入力パターンの判別を行なう判別部とを
備えていることを特徴とするニューラルネットワークシ
ステム。
[Claims] 1) An input means for calculating each input with a weight corresponding to each input means, an addition means for adding each calculation result from the input means, and a comparison between the addition result from the addition means and a threshold value. The input means includes a determining means for determining an output, and a learning means for comparing the output determined by the determining means with a desired output and learning and changing the weight of the input means based on the comparison result. A neural network system characterized in that it performs not only linear calculations with weights but also nonlinear calculations with inputs and weights. 2) A plurality of networks equipped with a function of performing not only linear calculations on inputs and weights but also nonlinear calculations and changing each of the weights through learning, and discrimination that discriminates input patterns based on outputs from the plurality of networks. A neural network system comprising:
JP1108405A 1989-04-27 1989-04-27 Neural network system Pending JPH02285462A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1108405A JPH02285462A (en) 1989-04-27 1989-04-27 Neural network system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1108405A JPH02285462A (en) 1989-04-27 1989-04-27 Neural network system

Publications (1)

Publication Number Publication Date
JPH02285462A true JPH02285462A (en) 1990-11-22

Family

ID=14483922

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1108405A Pending JPH02285462A (en) 1989-04-27 1989-04-27 Neural network system

Country Status (1)

Country Link
JP (1) JPH02285462A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009245236A (en) * 2008-03-31 2009-10-22 Institute Of Physical & Chemical Research Information processor, information processing method and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009245236A (en) * 2008-03-31 2009-10-22 Institute Of Physical & Chemical Research Information processor, information processing method and program

Similar Documents

Publication Publication Date Title
Sadr et al. Multi-view deep network: a deep model based on learning features from heterogeneous neural networks for sentiment analysis
Poon et al. Sum-product networks: A new deep architecture
Hirvonen Classification of spatial audio location and content using convolutional neural networks
Saxe et al. The neural race reduction: Dynamics of abstraction in gated networks
JPH07114524A (en) Signal processor
WO1991002323A1 (en) Adaptive network for classifying time-varying data
Sanaullah et al. Exploring spiking neural networks: a comprehensive analysis of mathematical models and applications
Ji et al. Learning the dynamics of time delay systems with trainable delays
Aspiras et al. Hierarchical autoassociative polynimial network (hap net) for pattern recognition
Hamdan Neural network principles and its Application
JPH02285462A (en) Neural network system
Skryagin et al. Sum-product logic: integrating probabilistic circuits into deepproblog
La Malfa et al. Deep neural networks as complex networks
Zhang Granular Neural Networks
Kowalski Evolutionary strategy for the fuzzy flip-flop neural networks supervised learning procedure
Korablyov et al. Hybrid Neuro-Fuzzy Model with Immune Training for Recognition of Objects in an Image.
Lawrence Deep feedforward functionality by equilibrium-point control in a shallow recurrent network.
Rad et al. Information processing in complex networks
Maass A simple model for neural computation with firing rates and firing correlations
Bangyal et al. Forward only counter propagation network for balance scale weight & distance classification task
Iranmehr et al. FPGA implementation of character recognition using spiking neural network
Kumar et al. Recognition of distorted CAD objects using neural networks
Parvin et al. A heuristic classifier ensemble for huge datasets
Buscarino et al. Quaternion Neural Networks for Multidimensional Applications: An Overview
Azim et al. Agent Based Modeling for Comparing the Performances of Hyperbolic and Zeng and Martinez Activations Functions