JP3343625B2 - Neural networks for fuzzy inference - Google Patents

Neural networks for fuzzy inference

Info

Publication number
JP3343625B2
JP3343625B2 JP35685892A JP35685892A JP3343625B2 JP 3343625 B2 JP3343625 B2 JP 3343625B2 JP 35685892 A JP35685892 A JP 35685892A JP 35685892 A JP35685892 A JP 35685892A JP 3343625 B2 JP3343625 B2 JP 3343625B2
Authority
JP
Japan
Prior art keywords
layer
cell
cells
input
minimum
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP35685892A
Other languages
Japanese (ja)
Other versions
JPH06195486A (en
Inventor
哲朗 連
ちなみ 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mikuni Corp
Original Assignee
Mikuni Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mikuni Corp filed Critical Mikuni Corp
Priority to JP35685892A priority Critical patent/JP3343625B2/en
Publication of JPH06195486A publication Critical patent/JPH06195486A/en
Application granted granted Critical
Publication of JP3343625B2 publication Critical patent/JP3343625B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Feedback Control In General (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は、所定条件を選択して出
力できるセルを有するファジィ推論のためのニューラル
ネットワーク(以下NNと称す)に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a neural network (hereinafter, referred to as NN) for fuzzy inference having cells which can select and output predetermined conditions.

【0002】[0002]

【従来の技術】ニューロコンピュータは、脳の基本素子
であるニューロン(神経細胞)に着目したものであり、
これらが結合した結果できるNNをヒントとして、脳と
同じような機能を達成しようとするものである。これら
NNの特徴は各ニューロン間の並列情報処理にあり、か
つ学習能力のある点である。そしてNN中はいくつかの
層からなる階層構成を有し、各層は適当な数のセルから
なり、同一層内の結合はなく、各層間の結合は入力層
(第1層)から出力層(最終層)へ向けて一方向の結合
としている。入力層を除く各層のセルは、前の層のセル
からの重み付き入力を受けて、その総和を計算し、それ
に適当な関数fをかけたものを出力としている。NNで
用いるセルの入出力関数としては、しきい関数,区分線
形関数,ロジスティック関数及び恒等関数等がある(参
考文献,産業図書発行,麻生英樹著「ニューラルネット
ワーク情報処理」P.13)。
2. Description of the Related Art Neurocomputers focus on neurons (neural cells), which are basic elements of the brain.
The idea is to achieve a function similar to that of the brain, using as a hint the NN that results from the combination of these. The feature of these NNs lies in the parallel information processing between the neurons and the ability to learn. The NN has a hierarchical structure composed of several layers, each layer is composed of an appropriate number of cells, there is no coupling in the same layer, and the coupling between each layer is from the input layer (first layer) to the output layer ( The connection is made in one direction toward the final layer). The cells of each layer except the input layer receive weighted inputs from the cells of the previous layer, calculate the sum thereof, and multiply the sum by an appropriate function f to output. Cell input / output functions used in the NN include a threshold function, a piecewise linear function, a logistic function, an identity function, and the like (references, published by Sangyo Tosho, Hideki Aso, "Neural Network Information Processing", page 13).

【0003】[0003]

【発明が解決しようとする課題】ファジィ推論で多入力
の場合、各入力に対する適合度の最小値をそのルールの
適合度とする方法及び後件部がシングルトンのファジィ
推論で、後件部が同一の値を持つルールが複数ある場
合、それらのルールの中で適合度が最大のルールを採用
する方法がある。しかし、上記した入出力関数を用い、
これを従来のNNで実現することはできない。この理由
は最小値及び最大値を出力するセルがないためである。
本発明は上記事情に鑑みてなされたものであり、最小
値,最大値等のうちの所定条件の1つを選択して出力す
ることの可能なセルを有するファジィ推論のためのNN
を提供することを目的としている。
In the case of multiple inputs in fuzzy inference, a method of setting the minimum value of the fitness for each input to the fitness of the rule and a fuzzy inference with a singleton consequent and the same consequent in the consequent When there are a plurality of rules having the value of, there is a method of adopting the rule having the highest matching degree among those rules. However, using the input / output functions described above,
This cannot be realized by a conventional NN. This is because there is no cell that outputs the minimum value and the maximum value.
The present invention has been made in view of the above circumstances, and has been developed for fuzzy inference having a cell capable of selecting and outputting one of predetermined conditions among a minimum value, a maximum value, and the like.
It is intended to provide.

【0004】[0004]

【課題を解決するための手段】上記目的を達成するた
め、本発明の[請求項1]の発明では入力信号を出力する
複数のセルと、前記入力信号を出力する複数のセルの信
号を所定の結合係数を介して接続された複数の中間セル
と、これら中間セルが階層構成を有して複数の最終出力
セルに接続されたニューラルネットワークにおいて、前
記中間セルは入力端に結合される複数の入力信号に対し
て最小あるいは最大のいずれかの条件を満たすものの内
の1つを選択して出力する手段を具備するようにした。
又、[請求項2]の発明では誤差伝播法を用いて結合係数
を更新するに際し、学習信号は入力端に結合された複数
の入力信号に対して、その最小あるいは最大のいずれか
の条件を満たすものの内の1つを選択した結合部分のみ
に伝播させるようにした。
According to a first aspect of the present invention, a plurality of cells for outputting an input signal and a plurality of cells for outputting the input signal are provided. And a plurality of intermediate cells connected via a coupling coefficient, and a neural network in which the intermediate cells have a hierarchical structure and are connected to a plurality of final output cells, wherein the intermediate cells are connected to an input end. Means are provided for selecting and outputting one of the input signals that satisfies either the minimum or maximum condition.
According to the second aspect of the present invention, when the coupling coefficient is updated using the error propagation method, the learning signal is applied to a plurality of input signals coupled to the input terminals by satisfying either the minimum or maximum condition. One of the fillings was allowed to propagate only to the selected joints.

【0005】[0005]

【実施例】以下図面を参照して実施例を説明する。図1
は本発明によるNNの一実施例の構成図である。図1に
おいて、aは最小値(あるいは最大値)を出力するセ
ル、O1 〜Ojmx はセルaの入力端に結合するセルbj
(j=1 〜mx)の出力、W1 〜Wjmx は結合係数である。
セルaはWjとOj の積Wj ・Oj (j=1 〜jmx )の中
で最小(あるいは最大)の値を出力する。次に、図2を
用いてこのセルを用いた場合の学習方法を説明する。こ
こで、Wi(k-1),j(k) はk−1層i番目のセルとk層j
番目のセルとの結合係数を示し、Ij(k)はk層j番目の
セルへの入力の総和を示し、Oj(k)はk層j番目のセル
の出力を示す。結合係数Wijの更新には次式を用いる。
An embodiment will be described below with reference to the drawings. FIG.
1 is a configuration diagram of an embodiment of an NN according to the present invention. In FIG. 1, a is a cell outputting a minimum value (or a maximum value), and O1 to Ojmx are cells bj connected to an input terminal of the cell a.
Outputs (j = 1 to mx) and W1 to Wjmx are coupling coefficients.
Cell a outputs the minimum (or maximum) value in the product Wj · Oj (j = 1 to jmx) of Wj and Oj. Next, a learning method using this cell will be described with reference to FIG. Here, Wi (k-1), j (k) is the i-th cell of the k-1 layer and the k layer j
Ij (k) indicates the sum of inputs to the j-th cell in the k-th layer, and Oj (k) indicates the output of the j-th cell in the k-th layer. The following equation is used to update the coupling coefficient Wij.

【数1】 (1)通常のセル(セルへの入力の総和xとセルの出力
yが、微分可能な入出力関数y=f(x) の関係にあるセ
ルを通常のセルと呼ぶことにする。具体的には参考文献
(1) のロジスティック関数や恒等関数がある)の誤差逆
伝播では上式を以下のように展開する。
(Equation 1) (1) Normal cell (a cell in which the sum x of inputs to the cell and the output y of the cell have a differentiable input / output function y = f (x) will be referred to as a normal cell. References
In backpropagation of (1) logistic function and identity function), the above equation is expanded as follows.

【数2】 dj(k)は以下の場合で分かれる。(Equation 2) dj (k) is divided in the following cases.

【0006】(i) k層が出力層の場合(I) When the k-th layer is the output layer

【数3】 (ii) k層が中間層の場合(Equation 3) (ii) When the k layer is an intermediate layer

【数4】 なお、上式のdm(k+1)は、出力側から順にdj(k)と同様
にして求められる。
(Equation 4) Note that dm (k + 1) in the above equation is obtained in the same manner as dj (k) from the output side.

【0007】(2)本発明のセルを用いた場合の学習則
を次に示す。 (i) k層が出力層の場合
(2) A learning rule when the cell of the present invention is used is as follows. (i) When the k-th layer is the output layer

【数5】 図2でk層のj番目のセルとk−1層のi番目のセルと
の結合のW・Oが、k−1層の他のセルとの結合のW・
Oに対して最小(あるいは最大)の場合。
(Equation 5) In FIG. 2, W · O of the connection between the j-th cell of the k-th layer and the i-th cell of the k−1-layer is W · O of the connection with the other cell of the k−1-th layer.
The minimum (or maximum) for O.

【数6】 図2でk層のj番目のセルとk−1層のi番目のセルと
の結合のW・Oが、k−1層の他のセルとの結合のW・
Oに対して最小(あるいは最大)でない場合。
(Equation 6) In FIG. 2, W · O of the connection between the j-th cell of the k-th layer and the i-th cell of the k−1-layer is W · O of the connection with the other cell of the k−1-th layer.
If not the minimum (or maximum) for O.

【数7】 (ii) k層が中間層の場合(Equation 7) (ii) When the k layer is an intermediate layer

【数8】 (Equation 8)

【0008】図3でk+1層のm番目のセルが本発明の
セルの場合。k+1層のm番目のセルとk層のj番目の
セルとの結合のW・Oが、k層の他のセルとの結合のW
・Oに対して最小(あるいは最大)の場合。
FIG. 3 shows a case where the m-th cell in the (k + 1) -th layer is the cell of the present invention. W · O of the connection between the m-th cell in the (k + 1) -th layer and the j-th cell in the k-th layer is the W · O of the connection with the other cells in the k-th layer.
When it is the minimum (or maximum) for O.

【数9】 k+1層のm番目のセルとk層のj番目のセルとの結合
のW・Oが、k層の他のセルとの結合のW・Oに対して
最小(あるいは最大)でない場合。
(Equation 9) The case where the WO of the connection between the m-th cell of the (k + 1) -th layer and the j-th cell of the k-layer is not the minimum (or the maximum) with respect to the WO of the connection with the other cells of the k-layer.

【数10】 図3でk+1層のm番目のセルが本発明のセルでない場
合。
[Equation 10] FIG. 3 shows a case where the m-th cell in the (k + 1) -th layer is not the cell of the present invention.

【数11】 図2でk層のj番目のセルとk−1層のi番目のセルと
の結合のW・Oが、k−1層の他のセルとの結合のW・
Oに対して最小(あるいは最大)の場合。
[Equation 11] In FIG. 2, W · O of the connection between the j-th cell of the k-th layer and the i-th cell of the k−1-layer is W · O of the connection with the other cell of the k−1-th layer.
The minimum (or maximum) for O.

【数12】 図2でk層のj番目のセルとk−1層のi番目のセルと
の結合のW・Oが、k−1層の他のセルとの結合のW・
Oに対して最小(あるいは最大)でない場合。
(Equation 12) In FIG. 2, W · O of the connection between the j-th cell of the k-th layer and the i-th cell of the k−1-layer is W · O of the connection with the other cell of the k−1-th layer.
If not the minimum (or maximum) for O.

【数13】 (Equation 13)

【0009】[0009]

【発明の効果】以上説明したように、本発明によればN
Nを構成するセルに対して入力端に結合される複数個の
入力信号から最小値,最大値等の所定の条件をもとに1
つを選択して出力する機能を付加したので、NNを用い
てファジィ推論ルールのチューニングの効率が向上し
た。
As described above, according to the present invention, N
N, based on a predetermined condition such as a minimum value and a maximum value, from a plurality of input signals coupled to an input terminal of a cell constituting N.
Since the function of selecting and outputting one is added, the efficiency of tuning the fuzzy inference rules using the NN has been improved.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明によるNNの一実施例の構成図。FIG. 1 is a configuration diagram of an embodiment of an NN according to the present invention.

【図2】k層が出力の層の場合の学習方法を説明する
図。
FIG. 2 is a diagram illustrating a learning method when a k-th layer is an output layer.

【図3】k+1層のm番目のセルとk層のj番目のセル
との結合のW・Oがk層の他のセルとの結合のW・Oに
対して最小(あるいは最大)の場合の学習方法を説明す
る図。
FIG. 3 shows a case where the WO of the connection between the m-th cell of the k + 1 layer and the j-th cell of the k-layer is the minimum (or maximum) with respect to the WO of the connection with the other cells of the k-layer. The figure explaining the learning method of.

【符号の説明】[Explanation of symbols]

a,b1 〜bjmx セル O1 〜Ojmx セルbj の出力 W1 〜Wjmx 結合係数a, b 1 to b jmx cell Output of O 1 to O jmx cell b j W 1 to W jmx coupling coefficient

フロントページの続き (58)調査した分野(Int.Cl.7,DB名) G06G 7/12 G06F 9/44 554 G06N 1/00 Continuation of the front page (58) Field surveyed (Int.Cl. 7 , DB name) G06G 7/12 G06F 9/44 554 G06N 1/00

Claims (2)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 入力信号を出力する複数のセルと、前記
入力信号を出力する複数のセルの信号を所定の結合係数
を介して接続された複数の中間セルと、これら中間セル
が階層構成を有して複数の最終出力セルに接続されたニ
ューラルネットワークにおいて、前記中間セルは入力端
に結合される複数の入力信号に対してその最小あるいは
最大のいずれかの条件を満たすものの内の1つを選択し
て出力する手段を具備することを特徴とするファジィ推
論のためのニューラルネットワーク。
A plurality of cells for outputting an input signal;
In a plurality of intermediate cells connected through a predetermined coupling coefficient the signal of a plurality of cells that output an input signal, and in a neural network in which these intermediate cells have a hierarchical configuration and are connected to a plurality of final output cells, The intermediate cell has its minimum or multiple input signals coupled to the input.
A neural network for fuzzy inference, comprising means for selecting and outputting one of those satisfying any of the largest conditions.
【請求項2】 誤差伝播法を用いて結合係数を更新する
に際し、学習信号は入力端に結合された複数の入力信号
に対してその最小あるいは最大のいずれかの条件を満た
すものの内の1つを選択した結合部分のみに伝播させる
ことを特徴とする学習方法。
2. When updating a coupling coefficient using an error propagation method, a learning signal includes a plurality of input signals coupled to an input terminal.
Satisfies either its minimum or maximum condition
A learning method, wherein one of the objects is propagated only to a selected connection part.
JP35685892A 1992-12-22 1992-12-22 Neural networks for fuzzy inference Expired - Fee Related JP3343625B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP35685892A JP3343625B2 (en) 1992-12-22 1992-12-22 Neural networks for fuzzy inference

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP35685892A JP3343625B2 (en) 1992-12-22 1992-12-22 Neural networks for fuzzy inference

Publications (2)

Publication Number Publication Date
JPH06195486A JPH06195486A (en) 1994-07-15
JP3343625B2 true JP3343625B2 (en) 2002-11-11

Family

ID=18451121

Family Applications (1)

Application Number Title Priority Date Filing Date
JP35685892A Expired - Fee Related JP3343625B2 (en) 1992-12-22 1992-12-22 Neural networks for fuzzy inference

Country Status (1)

Country Link
JP (1) JP3343625B2 (en)

Also Published As

Publication number Publication date
JPH06195486A (en) 1994-07-15

Similar Documents

Publication Publication Date Title
Sakar et al. Growing and pruning neural tree networks
US6009418A (en) Method and apparatus for neural networking using semantic attractor architecture
US5249259A (en) Genetic algorithm technique for designing neural networks
JP2747104B2 (en) neural network
CN114613437A (en) miRNA and disease associated prediction method and system based on heteromorphic image
EP0444878B1 (en) Neural network
EP0599347A2 (en) Neural network circuit
JP3343625B2 (en) Neural networks for fuzzy inference
JP3374476B2 (en) Neural network construction method
Baldwin et al. Inference and learning in fuzzy Bayesian networks
JP3359074B2 (en) Learning method of neural network
Basak et al. A connectionist model for category perception: theory and implementation
JP3343626B2 (en) Neural networks for fuzzy inference
Woods Back and counter propagation aberrations
EP0841621B1 (en) Learning method in binary systems
JP2907486B2 (en) Neural network device
Kenue Efficient activation functions for the back-propagation neural network
JP2699447B2 (en) Signal processing device
JPH0535710A (en) Learning method/device for neural network
JP3171897B2 (en) Knowledge information processing device
JP3310009B2 (en) Neural network system
Oohori et al. A new backpropagation learning algorithm for layered neural networks with nondifferentiable units
JPH0744195A (en) Recurrent neutral network for speech recognition
JPH0652139A (en) Data structure for neural network
JP3296609B2 (en) Neural network that outputs membership function

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees