JPH07141317A - 階層型ツリー構造を有するニューロファジィ知識獲得装置 - Google Patents

階層型ツリー構造を有するニューロファジィ知識獲得装置

Info

Publication number
JPH07141317A
JPH07141317A JP6118004A JP11800494A JPH07141317A JP H07141317 A JPH07141317 A JP H07141317A JP 6118004 A JP6118004 A JP 6118004A JP 11800494 A JP11800494 A JP 11800494A JP H07141317 A JPH07141317 A JP H07141317A
Authority
JP
Japan
Prior art keywords
model
evaluation
error
data
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP6118004A
Other languages
English (en)
Inventor
Masahide Watanabe
雅英 渡辺
Kaihei Kuwata
海平 鍬田
Ritsu Katayama
立 片山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP6118004A priority Critical patent/JPH07141317A/ja
Publication of JPH07141317A publication Critical patent/JPH07141317A/ja
Withdrawn legal-status Critical Current

Links

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

(57)【要約】 【構成】 入出力データ記憶部12からの出力データと
モデルパラメータ学習部16からのモデル出力との誤差
をモデル誤差評価部18で評価する。その評価結果に基
づいて、新規ノード自己増殖部20で、新規ノードを自
動的に発生させてニューロファジィ知識ベースに設定す
る。知識獲得終了判定部26でモデル誤差が最初に指定
した値以下と判定されれば知識獲得処理全体を終了し、
そうでない場合には上述の処理を繰り返す。 【効果】 指定されたモデル精度を実現する最少のモデ
ル構造を自動的に設定できる。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】この発明は階層型ツリー構造を有
するニューロファジィ知識獲得装置に関し、特にたとえ
ば与えられた入出力データから、任意に与えたモデル精
度を実現するようなファジィモデル,ニューロモデル,
ニューロファジィモデルあるいはファジィニューロモデ
ルの知識を自動的に設計しあるいは獲得できる、階層型
ツリー構造を有するニューロファジィ知識獲得装置に関
する。
【0002】
【従来の技術】近年、ファジィ技術,ニューロ技術およ
びこれらを融合したニューロファジィ技術の産業上への
応用が著しく広がっている。これらの技術が備えている
多入出力システムの非線形写像能力を利用して、たとえ
ば非線形ダイナミカルシステム(カオス時系列も含む)
の同定と予測,時系列信号が決定論的ダイナミクスによ
って生成されているか否かの判定(ノイズと決定論的カ
オスとの判定),適応学習型コントローラ,非線形適応
フィルタ,非線形自己回帰モデル,ロボットの逆キネマ
ティクス・逆ダイナミクスの同定と学習,画像処理用空
間フィルタ・色補正用フィルタ,またはパターン認識と
いった、滑らかな出力特性が要求される情報処理,制
御,同定または画像処理など非常に広範な応用分野で利
用されている。
【0003】その中でも、文献1(M.J.D.Powell,"Radi
al basis functions for multivariable interpolatio
n:A review",IMA conference on"Algorithms for the A
pproximation of Functions and Data",RMCS Shrivenha
m(1985)) や、文献2(T.Poggio,F.Girosi:A Theory of
Networks for Approximation and Learning,A.I.Memo,
No.1140,C.B.I.P.Paper,No.31,July,1989. )などで提
案されているラジアル基底関数は、非線形システムの同
定に有効な手法とされている。
【0004】ラジアル基底関数は、中間層ユニットの入
出力特性関数がこのラジアル基底関数で与えられかつ中
間層ユニットから出力層ユニットへの結合係数が各ラジ
アル基底関数の係数として与えられるような3層の階層
型ニューラルネットワークとみなすことができる。ま
た、ルール後件部が実数値であるような簡略化ファジィ
推論モデルにおいて、ラジアル基底関数は、前件部メン
バシップ関数の形状がラジアル基底関数で与えられかつ
ルール後件部の実数値が各ラジアル基底関数の係数とし
て与えられるようなファジィモデルともみなすことがで
きる。
【0005】このようなラジアル基底関数としては、具
体的には、たとえば数1〜数4にそれぞれ示すガウス分
布型関数,thin-plate-spline 関数,multiquadric関数
またはinverse multiquadric関数などがある。
【0006】
【数1】Λ(x)= exp{−(x−a)2 /b}
【0007】
【数2】 Λ(x)=(x−a)2 ・ log(|x−a|)
【0008】
【数3】Λ(x)={(x−a)2 +b2 1/2
【0009】
【数4】 Λ(x)=1/{(x−a)2 +b2 1/2 特に、ガウス分布型関数を用いるモデルは、文献3(市
橋:C∞級の階層型ファジィモデル,第7回ファジィシ
ステムシンポジウム講演論文集,pp.505-508 )などによ
って、C∞級ファジィモデルなどとも呼ばれている。
【0010】このようなラジアル基底関数のネットワー
ク設計法としては、たとえば文献4(J.Moody,C.J.Darke
n:“Fast Learning in Networks of Locally-tuned Pro
cessing Units”,Neural Computations,1,pp.281-294(1
989)) において提案されているように、学習データから
基底関数の中心値をk-means クラスタリング手法によっ
て求める方法や、たとえば文献5(S.Chen,S.A.Billing
s,C.F.N.Cowan,P.M.Grant:“Practical Identificatio
n of NARMAX Models Using Radial Basis Functions”,
Int.J.Control,vol.52,No.6,PP.1327-1350(1990))にお
いて提案されているように、基底関数の係数のみをGram
-Schmit の直交化法によって学習するOLS(Orthogona
l Least Squares)法や、たとえば本件出願人の出願に係
る特開平5−112659号において提案されているよ
うに、推論誤差の最大値を与える学習データの入力値を
新規基底の中心として基底関数の係数のみならず中心値
と分布パラメータ(幅)も学習するMAE(Maximum Abs
olute Error Selection)法などがある。
【0011】
【発明が解決しようとする課題】しかしながら、多くの
入出力数をもつ大規模なシステムの同定に対し、通常の
ラジアル基底関数ネットワークの構成法を用いると、非
常に多数の基底関数を必要とするという問題点がある。
このため、たとえば文献6(長坂,市橋:“ニューロフ
ァジィGMDHとその研削加工特性のモデル比への応
用”,第9回ファジィシンポジウム講演論文集,pp.449
-452(1993))において、GMDHにおける基底関数をラ
ジアル基底関数とみなした多層ネットワーク型や逐次変
数導入型のラジアル基底関数ネットワークが提案されて
いる。
【0012】ところが、このようなラジアル基底関数ネ
ットワークでも、全体の基底関数の数、すなわちルール
ユニット数を大幅に削減することは期待できない。それ
ゆえに、この発明の主たる目的は、基底関数の数を大幅
に削減することができる、階層型ツリー構造を有するニ
ューロファジィ知識獲得装置を提供することである。
【0013】この発明は、いわば、文献7(T.D.Sanger:
“A Tree-Structured Adaptive Network for Function
Approximation in High-Dimensional Spaces”,IEEE Tr
ans.on Neural Networks Vol.2,No.2,pp.285-293(199
1)) によって提案されたツリー構造の適応型ネットワー
クと、先に挙げた特開平5−112659号において提
案したMAE法によるラジアル基底関数ネットワークと
を融合した適応ツリー構造による非線形モデリングであ
る。
【0014】なお、上記文献7においても基底関数とし
てラジアル基底関数ネットワークを利用できることが示
唆されているが、この場合の学習パラメータは基底関数
の係数に限定されている上、基底関数の初期配置方法
や、ツリーのノード以下に発生させる基底関数の数の決
定方法については指針すら明確に述べられていない。
【0015】
【課題を解決するための手段】この発明は、与えられた
有限個の入出力データを記憶するデータ記憶手段、ニュ
ーロファジィモデルの知識を格納する知識ベース、モデ
ル誤差を目的関数としこれを最小化するようにモデルパ
ラメータを逐次的に改善する学習手段、与えられた出力
データとモデル出力との誤差を評価する誤差評価手段、
誤差評価手段による評価結果に基づいて新規なノードを
自動的に発生させるノード自己増殖手段、および所定の
停止条件を判定して知識獲得処理の終了を決定するため
の終了決定手段を備える、階層型ツリー構造を有するニ
ューロファジィ知識獲得装置である。
【0016】
【作用】モデルパラメータ学習手段で、ルールユニット
数や中間ユニット数が固定されたもとでの勾配法による
モデルパラメータの学習を行い、モデルパラメータを逐
次的に改善する。モデル誤差評価手段で、入出力データ
記憶手段からの出力データとたとえばモデルパラメータ
学習手段からのモデル出力との誤差を評価する。その評
価結果に基づいて、たとえばモデル誤差の低減効果が飽
和した段階で、ノード自己増殖手段によって、逐次的
に、ファジィモデルにおけるルールやニューロモデルに
おける中間層ユニットを自動的に発生させてニューロフ
ァジィモデル知識ベースに設定する。知識獲得終了判定
手段によってモデル誤差が最初に指定した値以下である
か、あるいは評価関数値が先の評価関数値より大きくな
ったか、などの停止条件を判定し、知識獲得処理全体を
終了し、そうでない場合には上述の処理を繰り返す。
【0017】
【発明の効果】この発明によれば、先に述べたMAE法
に従って、着目しているノード以下に発生させる基底関
数の数を自動的に決定できる。同様に、基底関数の係数
だけではなく中心値も学習することができるので、文献
7に開示された係数のみを学習させるものに比べて、全
体の基底関数の数を削減することが可能になる。
【0018】すなわち、この発明によれば、ノード自己
増殖手段で、分散の大きい葉ノードの下に階層的に部分
ツリーを発生させることで、設計者が予め任意に与えた
モデル精度(モデル誤差)を実現する最少のルール数ま
たは中間層ユニット数の設定、パラメータ学習過程にお
ける適切なパラメータの初期値の設定、そのときの最適
なモデル構造とパラメータ値の求解とを試行錯誤的な数
値実験等の人手による作業をすることなく自動的に求め
ることが可能となる。
【0019】この発明の上述の目的,その他の目的,特
徴および利点は、図面を参照して行う以下の実施例の詳
細な説明から一層明らかとなろう。
【0020】
【実施例】図1にはこの発明の実施例に従った階層型ツ
リー構造を有するニューロファジィ知識獲得装置10の
機能的ブロック図が示されるが、この装置10はファジ
ィモデル知識獲得装置,ニューロモデル知識獲得装置,
ニューロファジィモデル知識獲得装置あるいはファジィ
ニューロモデル知識獲得装置として機能するものであ
り、したがって、この明細書においてはこれらを区別す
る記述がなされている以外の部分では、これらを個別に
指称しまたは総称するために、便宜上、「ニューロファ
ジィ」の用語を用いる場合があることを予め指摘してお
く。
【0021】そして、この実施例のニューロファジィ知
識獲得装置10は、たとえばN個の入出力データを記憶
する入出力データ記憶部12を含む。ニューロファジィ
モデル知識ベース14はニューロファジィモデルの知識
を格納し、モデルパラメータ学習部16はモデル誤差を
目的関数としこれを最小化するようにモデルパラメータ
を逐次的に改善する。モデル誤差評価部18は、入出力
データ記憶部12からモデルパラメータ学習部16を介
して与えられた出力データと、たとえばモデルパラメー
タ学習部16でファジィ推論して得られたモデル出力と
のモデル誤差を評価する。新規ノード自己増殖部20
は、その評価結果に基づいて、すなわちモデルパラメー
タの学習によるモデル誤差の低減効果が飽和した段階
で、推論誤差の最大絶対値を与える入出力データの入力
データを中心としてニューロファジィモデルにおけるノ
ードを自動的に発生させる。また、知識獲得条件記憶部
22は、これらの知識獲得処理全体における種々の条
件、すなわち実現すべきモデル誤差などの種々の判定定
数などを記憶する。知識獲得制御部24は、知識獲得処
理全般にわたって、知識獲得条件記憶部22に格納され
た知識獲得条件に従って、上述の各処理部の動作を制御
する。知識獲得終了判定部26は、モデル誤差が最初に
指定した値以下になったかどうかを判定し、知識獲得処
理全体の終了または継続を決定する。
【0022】以下、具体的にこの実施例の動作を説明す
る。階層型ツリー構造を有するニューロファジィ知識獲
得装置10の目的は、入力変数が=(x1 ,x2
…,xm )∈Rm 、出力が=(y1 ,y2 ,…,
s )∈Rs であるような数5に示す関数を、数6に示
すN個の入出力データの組が与えられたもとで同定する
ことである。
【0023】
【数5】):Rm →Rs
【0024】
【数6】( 1 1 ),…,( p p ),…,
N N ) ただし、ここで出力データ p ,p=1,…,Nの各成
分yj p (j=1,…,s、p=1,…,N)は、全て
区間〔−1,1〕に正規化されて与えられているものと
する。
【0025】さらに、全体のツリーは部分ツリーから構
成され、各部分ツリーにノードが含まれる。また、全体
のツリーのトップノードは、適応ツリー構造ラジアル基
底関数ネットワーク(Adaptive Tree-structured Radial
Basis Function Network:以下、“A Tree-RBF”と略記
する)全体の推論結果を表すものとする。まず、ツリー
構造とそれに含まれる部分ツリー、およびノードの表記
方法を定義する。
【0026】図2に示すように、1層だけからなるツリ
ー構造をT1 とし、T1 には1層目にn1個のノードが
存在するものとする。このとき、各ノードを順に、
〈1〉,〈2〉,…,〈r1〉,…,〈n1〉,と表
す。ツリー構造T1 において、ノード〈r1〉を親ノー
ドとし、n2個のノードをもつ部分ツリーをSr1と表
す。ノードの前半には追加する部分ツリーの親ノードを
つける。部分ツリーSr1が追加されて新しくできた全体
のツリー構造をT2 と定義すると、T2 は図3のように
なる。このときノード〈r1〉の各子ノードを〈r1,
1〉,…,〈r1,r2〉,…,〈r1,n2〉と表
す。
【0027】以下、同様にして、(p−1)層目のノー
ド〈r1,…,r(p−1)〉を親ノードとし、p層目
にnp個の子ノードをもつ部分ツリーをS
r1, ...,r(p-1)と定義する。部分ツリーS
r1, ...,r(p-1)をもつ全体のツリー構造は図4に示され
る。部分ツリーSr1, ...,r(p-1)が追加されたとき、部
分ツリーSr1, ...,r(p- 1)に含まれる各子ノードを〈r
1,…,r(p−1),1〉,…,〈r1,…,r(p
−1),rp〉,…,〈r1,…,r(p−1),n
p〉と表す。
【0028】各ノードへの入力値は、各ノードの階層に
対応した次元の入力変数の値とする。たとえば、ノー
ド〈r1,…,rp〉に対する入力値は、このノードが
p階層だから、入力変数とのp次元目の値、すなわちx
pになる。さて、ノード〈r1,…,rp〉におけるラ
ジアル基底関数Λr1, ...,rp(x p )としては、種々の
関数形を利用することが可能であるが、ここでは、先の
数1で示したガウス関数を用いる。すなわち、数7とな
る。ただし、先に数2〜数4で示したthin-plate-splin
e 関数(数8),multiquadric関数(数9)およびinve
rse multiquadric関数(数10)など他の関数が用いら
れてもよい。
【0029】
【数7】Λr1, ...,rp(xp )= exp{−(xp −a
r1, ...,rp2 /br1, ...,rp} ただし、ar1, ...,rpおよびbr1, ...,rpは、それぞ
れ、ガウス関数の中心値および幅である。また、数7に
対応したガウス関数の係数はwr1, ...,rp j (j=1,
…,s)と表す。そして、以下に述べる関数Λや係数
a,bおよびwの添字は、ノードの添字に準ずるものと
する。
【0030】この数7で示されるラジアル基底関数のモ
デルは図5に示すように等価的に3層構造のニューロモ
デルとみなすことができるし、また図6に示すようなフ
ァジィモデルともみなすことができるので、以降、数7
で表されるモデルをニューロファジィモデルと呼ぶ。こ
こで、ノード〈r1,…,rp〉における適合度μr1
, ...,rpp )は、図5における中間層ユニットの
入出力特性に、また図6におけるファジィモデルの各ル
ールの適合度にそれぞれ相当する。ニューロファジィモ
デルを、たとえば図6のファジィモデルとして表現した
場合には、ノード〈r1,…,rp〉のルールは ルール〈r1,…,rp〉 if x1 =Λr1(x1 )and x2 =Λr1r2(x2 )an
d … and xp =Λr1, ...,rp(xp ) then yj =wr1, ...,rp j (j=1,…,s) で与えられる。
【0031】
【数8】Λr1, ...,rp(xp )=(xp
r1, ...,rp2 ・log |xp −ar1, ..., rp
【0032】
【数9】Λr1, ...,rp(xp )={(xp −a
r1, ...,rp2 +(br1, ...,rp2 1/2
【0033】
【数10】Λr1, ...,rp(xp )=1/{(xp −a
r1, ...,rp2 +(br1, ...,rp 2 1/2 ここで、この発明の詳細な説明に先立って、A Tree-RBF
によるモデリング方法の概要について述べる。A Tree-R
BFにおいては、他のRBFの設計法におけるように入力
変数を全て1度に導入することはしない。すなわち、A
Tree-RBFにおいては、入力変数を逐次的に考慮し、各入
力変数のうちの1つを入力とするような部分ツリーを部
分表現として発生させる。この部分ツリーの各アークは
ラジアル基底関数の係数に対応する。
【0034】また、部分ツリーにおける新規ラジアル基
底関数(新規アーク)の発生、およびモデルパラメータ
のチューニングは先に述べたMAE法で行う。すなわ
ち、或る部分ツリーにおいて、ラジアル基底関数の数を
増加させても誤差の減少率が所定の閾値以下にしかなら
なかった段階で、その部分ツリー内での新規なラジアル
基底関数の生成を停止し、新規部分ツリーの生成に移行
する。
【0035】新規部分ツリーの生成は、ツリー構造全体
に含まれる葉ノード(子ノードをもたない全てのノー
ド)に対して、ラジアル基底関数の係数の変化量の全て
の学習データに関する分数を計算し、最大の分散を示す
葉ノードの下に新規部分ツリーを生成する。このとき、
学習データの出力と、既に生成されているA Tree-RBFに
よる出力の推論値との残差を新たな出力とするように、
新規部分ツリーの構造(アークの数)の決定、およびパ
ラメータのチューニングをMAE法を用いて同様にして
行う。なお、以下では特にことわらない限り出力が1次
元である場合を考える。すなわち、多入力1出力のデー
タの組が与えられた下で、同定するものとする。
【0036】A Tree-RBF全体による推論値を^y(ワイ
ハット)とする。ノード全体が全く存在しない初期状態
のツリー構造をT0 とすると、ツリー構造T0 の推論値
^y T0は数11になる。
【0037】
【数11】^yT0=0 次に、ルートノードの下にn1個のラジアル基底関数を
有するような部分ツリーを生成し、1層だけからなる図
2のようなツリー構造T1 全体による推論値^yT1は数
12になる。
【0038】
【数12】
【0039】次に、ツリー構造T1 に含まれるn1個の
葉ノードに対し、ラジアル基底関数の係数の変化量Δw
の全ての学習データに関する分散を計算し、最大の分散
をとる葉ノードが〈r1〉であったとする。このときの
数13で示される学習データの出力yと^yT1との残差
T1
【0040】
【数13】eT1≡y−^yT1 を新たな出力とするような新規部分ツリーSr1を葉ノー
ド〈r1〉の下に発生させる。また、ツリー構造T1
新規部分ツリーSr1を加えた全体のツリー構造をT2
する。このとき、ツリー構造T2 による推論値は部分ツ
リーSr1の基底関数をn2とすると
【0041】
【数14】
【0042】で与えられる。ただし、1
(x1 ),2 =(x1 ,x2 )である。同様にし
て、図4に示すような部分ツリーSr1, ...,r(p-1)を追
加する前後での推論値を、それぞれ、^yold および^
new とすると、
【0043】
【数15】
【0044】と表される。ここで、ノード〈r1,…,
rp〉における適合度μr1, ...,rpp )およびノ
ード〈r1,…,r(p−1)〉の下の部分ツリーの出
力y r1, ...,r(p-1) j (j=1,…,s)は、それぞれ
数16および数17で与えられる。
【0045】
【数16】μr1, ...,rpp )≡Λr1(x1 )×Λ
r1r2(x2 )×…×Λr1, ..., rp(xp
【0046】
【数17】
【0047】さて、多入力多出力データに対する同定時
の基底関数数がnp個のニューロファジィモデルにおい
て、学習の対象となるパラメータベクトルRP
(np) RP ∈R(np)RP ∈Rs(np) を数18のよう
に定義する。
【0048】
【数18】 ar1, ...,rp∈R RP =(ar1, ...,r(p-1),1 ,…,ar1, ...,r(p-1),rp ,…,ar1, ..., r(p-1),np )∈Rnpr1, ...,rp∈R RP =(br1, ...,r(p-1),1 ,…,br1, ...,r(p-1),rp ,…,br1, ..., r(p-1),np )∈Rnp r1, ...,rp =(wr1, ...,rp 1 ,wr1, ...,rp 2 ,wr1, ...,rp s ∈Rs RP =(r1,…,r(p-1),1 r1,…,r(p-1),2 ,…,r1,…,r(p- 1),rp ,…,r1, ...,r(p-1),np )∈Rs(np) rp=1,…,np p≦m このとき、数6に示すN個の入出力データの組に対し、
基底関数数がnp個の場合の部分ツリーニューロファジ
ィモデリング問題P(Sr1, ...,r(p-1),np)は数1
9のように定式化される。
【0049】部分ツリーニューロファジィモデリング問
題P(Sr1, ...,r(p-1),np
【0050】
【数19】
【0051】ただし、nは部分ツリーの基底関数の数と
する。ここで、yj i および^yj i は、それぞれ、i番
目の入力データ i に対する出力データおよびA Tree-R
BFによる推論値である。また、A Tree-RBF全体によって
実現すべきモデル誤差ε>0が与えられたもとでの全体
の同定問題は以下のように定式化される。
【0052】全体の同定問題 数6に示すN個の入出力データの組および実現すべきモ
デル誤差ε>0が与えられたもとで、数20を満足する
A Tree-RBF全体のツリー構造と最適モデルパラメータを
求めよ。
【0053】
【数20】E<ε この問題に対し、まず、モデルパラメータ学習部16に
おける勾配法を用いた部分ツリーニューロファジィモデ
リング問題P(Sr1, ...,r(p-1),np)の解法を述
べ、次に自己増殖型アルゴリズムによる全体の同定問題
に対する解法について述べる。
【0054】多入力1出力のデータの組に対するニュー
ロファジィモデリング問題P(Sr1 , ...,r(p-1),
p)における誤差関数Eの決定パラメータRP RP
RP に関する勾配を利用して、問題P(S
r1, ...,r(p-1),np)を適当な勾配法(最急降下法,
共役勾配法,準ニュートン法など)によって解くことが
できる。最も基本的な最急降下法による学習則は数21
で与えられる。
【0055】
【数21】
【0056】ここで、kは最急降下法のイテレーション
回数,ηは学習係数である。したがって、モデルパラメ
ータ学習部16では、基底関数数(n1+n2+…+n
p)が固定されたもとで、数21に示す学習則に従っ
て、ニューロファジィモデル知識ベース14に含まれる
モデルパラメータ値を更新する。次に、図7を参照し
て、階層型ツリー構造を有する自己増殖型アルゴリズム
による全体問題の解法について述べる。
【0057】同定アルゴリズム まず、ステップS1において、アルゴリズム全体の終了
条件(実現すべきモデル誤差ε)と部分ツリーにおける
基底関数数決定の終了条件(推論誤差の減少率の許容値
ε1)およびパラメータベクトル学習の終了条件(推論
誤差の減少率の許容値ε2)を設定する。
【0058】次のステップS3において、対象とする部
分ツリーの深さpをp=1と設定する。そして、部分ツ
リーSr1, ...,r(p-1)におけるラジアル基底関数μ
r1, ..., rpp )の総数npを決定するのである
が、まず、ステップS5において、対象とする部分ツリ
ーのラジアル基底関数の数nをn=0と設定する。次の
ステップS7において、学習パラメータベクトルのイテ
レーション数kをk=0と設定する。
【0059】ステップS9において、新規基底関数を発
生するために、初期基底関数を少なくとも1個設定し、
ニューロファジィモデル知識ベース14へ格納させる。
ただし、初期基底関数が存在しない場合でも、数19の
^yj i =0とおけば動作できる。N個の学習データの
うち推論誤差の絶対値が最大になる入出力データを(
q ,yq )とする。すなわち、
【0060】
【数22】|yq −^yq |=max|yi −^yi | 1≦i≦N
【0061】
【数23】^yq =f(p q ) である。ただし、既に選択したxp q は重複しては選択
しないものとする。
【0062】
【数24】ar1, ...,rp 0 =xp qr1, ...,rp 0 =b0 (定数) wr1, ...,rp 0 =(yq −^yq )/w00 (定数) ここで、b0 ,w0 はガウス基底関数の分布パラメータ
の初期値としてあらかじめ与えられている定数である。
0 は比較的小さい正数が望ましい。
【0063】そして、対象とするラジアル基底関数数n
は知識獲得処理制御部24に含まれるカウンタ(図示せ
ず)によって管理されているが、このカウンタをインク
リメントして、n=n+1とする(ステップS11)。
また、このステップS13において、rp=1,…,n
に対して数25〜数27を用いて、各々の推論誤差の勾
配を計算する。
【0064】
【数25】
【0065】
【数26】
【0066】
【数27】
【0067】そして、ステップS13において、モデル
パラメータ学習部16で数6に示すN個の学習データに
対し、数21に示す最急降下法の学習則によって、{
RP k RP k RP k }から{RP k+1 RP k+1
RP k+1 }を計算し、パラメータ学習処理を行う。なお、
最適な学習係数ηは2次内挿法などの一次元探索法を用
いて決定する。
【0068】ステップS15において、En RP k
RP k RP k }≡Eと定義すると、数28が満たされ
るならば、そのときの基底関数数nが与えられたモデル
誤差に関する数20に示す不等式を満たす最少のルール
および/または中間層ユニット数であり、計算手続きを
終了する。
【0069】
【数28】E<ε 一方、数28が満足されない場合にはステップS17へ
進む。このステップS15における終了判定処理は、モ
デル誤差評価部18で計算したEk+1 に対し、知識獲得
終了判定部26で知識獲得条件記憶部22を参照しなが
ら実施する。
【0070】そして、ステップS17において、数29
で表される1回の学習毎の誤差関数の減少率Dk が数3
0を満たすならば、ステップS21へ進む。
【0071】
【数29】Dk ≡|Ek −Ek-1 |/Ek-1
【0072】
【数30】Dk <ε2 一方、数31を満たすならば、ステップS19において
k=k+1としてステップS13へ戻る。すなわち、学
習パラメータのベクトルのイテレーション数kも先のn
と同様に知識獲得処理制御部24に含まれるカウンタ
(図示せず)で管理されるが、このカウンタをステップ
S19においてインクリメントしてk=k+1とし、ス
テップS13に戻る。
【0073】
【数31】Dk ≧ε2 このとき、Dk の計算および数30ならびに数31の評
価はモデル誤差評価部18で実施される。そして、基底
関数数がnのときの誤差関数値をEn とする。ただし、
【0074】
【数32】
【0075】である。基底関数を新規に発生し、モデル
パラメータを十分学習した後の誤差関数の減少率を数3
3とするとき、ステップS21において、それが数34
を満足するか、数35を満足するかを判定する。
【0076】
【数33】Dn ≡|En −En-1 |/En-1
【0077】
【数34】Dn <ε1
【0078】
【数35】Dn ≧ε1 そして、数34を満足するとき、ステップS23に進ん
で、部分ツリーを追加する。しかしながら、数35を満
足するときは、先のステップS7に戻る。このようにし
て、ステップS15においてE≧εであり、ステップS
17においてDk ≧ε2 であり、さらにステップS21
においてDn ≧ε1 ならば、ステップS23に進み、係
数wn の変化量の分散が最大となる葉ノードに部分ツリ
ーを追加する。
【0079】すなわち、各葉ノード毎に重みwn の変化
量Δwn の期待値を計算する。葉ノードとは、注目して
いる部分ツリーだけでなく子ノードをもたない全てのノ
ードをさす。記述の簡単化のため部分ツリーでの葉ノー
ドを
【0080】
【数36】〈n〉=〈r1 ,…,rp 〉 と表す。ここで、全ての学習データ(数6)に対し、葉
ノード〈n〉に関するΔwn の期待値mn を数37で計
算する。
【0081】
【数37】
【0082】さらに全ての学習データ(数6)に対し、
葉ノード〈n〉に関するΔwn の分散σn を数38で計
算する。
【0083】
【数38】
【0084】全ての葉ノード〈n〉に関する分散σn
計算した後、最大の分散値をとる葉ノードの下に部分ツ
リーを追加する。そして、ステップS25において、ツ
リーの深さpを新しく追加する部分ツリーの深さに変更
して、ステップS5に戻る。ただし、ステップS27に
おいてツリーの深さpが入力次元を超えないことを確認
したときにのみ、ステップS5に戻る。すなわち、深さ
pは通常入力次元を超えることはないが、何らかの原因
でp>入力次元になってしまった場合、異常として、一
旦終了することにした。
【0085】数値例 A Tree-RBFを用いて、人間の脈波時系列を同定した結果
を示す。図8にサンプリング時間19.5ミリ秒で約3
0秒間計測した脈波を−1.0〜1.0に正規化した時
系列(サンプリング数1792個)を示す。モデル同定
時の学習データとしては、脈波時系列をy(t)とした
場合、適切な遅れ時間Tdを設定して作成した入力ベク
トルy(t−Td・m),m=0,…,5と出力y(t
+Td)の1000組の入出力データの組を与えた。た
だし、遅れ時間については、脈波時系列の自己相関関数
の値が最初に0となる時刻をTdとした。
【0086】図9に基底関数の係数のみを学習させたモ
デル(Model 1)を示し、基底関数の係数,中心値およ
び幅を学習させたモデル(Model 2)によって脈波時系
列を同定した場合のツリー構造を図10に示す。なお、
学習終了条件は、モデル誤差ε=90とした。実験の結
果、Model 1が学習終了条件を満たすためには27個の
ノードが必要であるが、Model 2では5個のノードで学
習終了条件を満足した。
【0087】このような階層型ツリー構造を有するニュ
ーロファジィ知識獲得装置10を用いれば、新規基底関
数を全ての入力空間に同時に発生させる場合に比べて与
えられたモデル精度を実現するための基底関数は少なく
てすむ利点がある。上述の実施例においては、部分ツリ
ーへの入力変数は、人間の知識や経験などにより、出力
データとの相関度が高いと思われる順に予め設定してお
かなければならない。なお、部分ツリーへの入力変数
は、部分ツリーに含まれる基底関数への入力変数のこと
であり、基底関数の深さが同じなので、結局、部分ツリ
ーに含まれる基底関数は全て共通となる。このような場
合、たとえば図8の脈波のように、直近のデータが出力
データに対して最も大きい影響を与える時系列データで
あれば特に問題は生じない。しかしながら、データの分
布が偏っているような場合には、そのような相関度を経
験的に把握するのが難しく、したがって、収束までに時
間がかかってしまうことがあった。
【0088】そこで、以下に述べる他の実施例では、入
力変数選択機能を付加した。それによって、基底関数の
深さに対応する入力変数を予め設定する必要性をなくし
た。また、同じ深さの基底関数でも所属する部分ツリー
が異なると必ずしも入力変数が共通するとは限らないの
で、多数の入出力変数を持つ大規模なシステム同定問題
に対して、データの分布が偏っていても、柔軟に対応で
きるようになる。
【0089】ここで、この発明の他の実施例について、
その概要をまず説明する。全体のツリー構造は部分ツリ
ーから構成され、各部分ツリーにはノードが含まれる。
また全体のツリーのトップモードは、A Tree-RBF全体の
推論結果を表すものとする。まず、ツリー構造とそれに
含まれる部分ツリー、およびノードの表記方法を定義す
る。部分ツリーに含まれるノードは、そのノードからト
ップノードまでの経路でユニークに表現する。たとえ
ば、ツリー構造全体に対して、深さpのノードは〈r
1,…,rp〉で表される。図11に示されるように、
(p−1)層目のノード〈r1,…,r(p−1)〉を
親ノードとし、p層目にnp個の子ノードをもつ部分ツ
リーをSr1, ...,r(p-1)と定義する。部分ツリーS
r1, ...,r(p-1)に含まれる各子ノードは順に、〈r1,
…,r(p−1),1〉,…,〈r1,…,r(p−
1),rp〉,…,〈r1,…,r(p−1),np〉
となり、部分ツリー内で入力変数は共通でx
[r1, ...,r(p-1)]と表す。右下のインデックスは親ノー
ドである。したがって、たとえ深さが同じpのノードで
あっても、含まれる部分ツリーが異なると、必ずしも同
じ入力変数にはならない。
【0090】さて、ノード〈r1,…,rp〉における
ラジアル基底関数としては種々の関数形を利用すること
が可能であるが、ここでは、先の実施例と同様に、数3
9で定義されるガウス関数を用いることにする。
【0091】
【数39】
【0092】ラジアル基底関数Λr1, ...,rpへの入力変
数x[r1, ...,rp]は、親ノード〈r1,…,r(p−
1)〉とトップノード間の全てのノードに対して、入力
変数として使用されていないものの中から選択される。
r1, ...,rpとbr1, ...,rpはそれぞれガウス関数の中
心値と幅を示す。また数39に対応したガウス関数の係
数をwr1, ...,rpと表す。この係数は、図11ではノー
ド〈r1,…,rp〉とその親ノード〈r1,…,r
(p−1)〉を結合するアークとして表現される。関数
Λや係数a,b,wの添字はノードの添字に準ずるもの
とする。
【0093】図13に示す実施例のニューロファジィ知
識獲得装置100は、図1の装置10の入出力データ記
憶部12,ニューロファジィモデル知識ベース14,新
規ノード自己増殖部20,知識獲得条件記憶部22,お
よび知識獲得処理制御部24とそれぞれほぼ同様の入出
力データ記憶部112,ニューロファジィモデル知識ベ
ース114,新規ノード自己増殖部120,知識獲得条
件記憶部122,および知識獲得処理制御部124を含
む。したがって、以下の点で、図13実施例は図1実施
例と異なる。
【0094】すなわち、この実施例の装置100は、入
出力データ記憶部112に記憶されている入出力データ
を学習用データと評価用データとに分割するデータ分割
部102を備える。データ分割部102は、たとえば、
各データ組毎に、数40に示す分散値Dを計算する。
【0095】
【数40】
【0096】ただし、xj (バー)は入力変数の平均値
である。そして、データ組を分散値の大きい順に並べ変
え、上から50%〜60%のデータを学習用データと
し、残りを評価用データとする。学習用データは学習用
データ記憶部104、評価用データは評価用データ記憶
部106に、それぞれ格納される。なお、データ分割の
手法としては、上述の分散値を計算する他に、学習用デ
ータと評価用データとを交互に選択する方法などが考え
られる。
【0097】学習用データ記憶部104の学習用データ
はモデルパラメータ学習部116′に与えられるととも
に、仮要素決定部108に与えられる。仮要素決定部1
08では未選択の入力要素を仮に選択して、それを注目
している部分ツリーへの入力要素とする。たとえば図1
4に示すように、入力変数x(=x1 ,x2 ,x3 ,x
4 ,x5 )であり、第2階層までに入力要素x3 および
2 を選択しかつ決定していたとすると、ノード〈2,
6〉下に追加する第3階層目の部分ツリーの構造を決定
するために、未選択ないし未使用の入力要素x1 ,x4
およびx5 を仮要素決定部108が仮に選択する。
【0098】仮に選択された入力要素がモデルパラメー
タ学習部116′および評価部118′に与えられる。
したがって、モデルパラメータ学習部116′では、与
えられた入力要素および学習用データに基づいて、MA
E法に従って、部分ツリーの構造(ノードの数)を決定
するとともに、パラメータのチューニングを行う。この
ようにして得られたモデルパラメータがモデルパラメー
タ記憶部117に一時的に格納されて、評価部118′
に与えられる。
【0099】評価部118′においては、モデルパラメ
ータ記憶部117に格納されたモデルパラメータおよび
評価用データ記憶部106からの評価用データに基づい
て、仮に選択された入力要素を評価する。すなわち、評
価部118′においては、たとえば図15に示すよう
に、各入力要素x1 ,x4 およびx5 についてその推論
誤差ないし評価関数値を先の数32すなわち後述の数4
6に従って計算し、最小の推論誤差となる入力要素をそ
の階層の入力要素として決定する。
【0100】そして、新規ノード自己増殖部120は、
学習用データを用いたモデルパラメータの学習によるモ
デル誤差の低減効果が飽和した段階で、推論誤差の最大
絶対値を与える入出力データの入力データを中心として
ニューロファジィモデルにおけるノードを自動的に発生
させる。また、知識獲得条件記憶部122は、これらの
知識獲得処理全体における種々の条件、すなわち実現す
べきモデル誤差などの種々の判定定数などを記憶する。
知識獲得制御部124は、知識獲得処理全般にわたっ
て、知識獲得条件記憶部122に格納された知識獲得条
件に従って、上述の各処理部の動作を制御する。
【0101】終了判定部126′では、数41に示され
る停止条件を判定する。すなわち、部分ツリーS
r1, ...,r(p-1)を追加したときの推論値ないし評価関数
値Δr1, .. .,r(p-1)と、部分ツリーSr1, ...,r(p-2)
での推論値ないし評価関数値Δr1, ...,r(p-2)とを比較
して、前者が後者より大きくなったとき、知識獲得(増
殖)を停止ないし終了する。
【0102】
【数41】 Δr1, ...,r(p-2)≦Δr1, ...,r(p-1) p>1 ここで、図13実施例におけるA Tree-RBFによるモデリ
ング手法の概要について述べる。まず、入出力データを
学習用データと評価用データに分割する。これは、近似
されたモデルに汎化性を持たせるためである。そして、
学習用データは部分ツリーを構成するパラメータの最適
化問題を解くときに使用する。また、評価用データは、
部分ツリーへの入力変数の選択時と新しい部分ツリーを
発生させるときに用いる。
【0103】すなわち、学習用データは部分ツリーにお
ける基底関数の数の決定および基底関数に含まれるパラ
メータのチューニングのために用いられ、評価用データ
は部分ツリーへの入力要素の選択および新規部分ツリー
を発生させる場所の決定のために用いられる。これによ
り、近似モデルに汎化性を持たせることができる。さ
て、A Tree-RBFにおいては通常のRBFの設計法のよう
に入力変数を全て1度に導入することはせず、入力変数
を逐次的に選択し、各入力変数のうちの1つを入力とす
るような部分ツリーを部分表現として発生させる。また
部分ツリーにおける新規ラジアル基底関数の発生とモデ
ルパラメータのチューニングはMAE法で行う。学習デ
ータを用いて、或る部分ツリーにおいて親ノードとトッ
プノード間で未使用の入力変数で学習を行っているとき
に、RBFの数を増加させても誤差の減少率が或る閾値
以下にしかならなくなった段階で、その入力変数での新
規RBFの生成を停止する。
【0104】次に、作成された部分ツリーを含む全体ツ
リーの推論誤差を評価用データを用いて求め、チューニ
ングされた部分ツリーでのパラメータとともに保存す
る。これを全ての未使用の入力変数に対して行い、最小
の推論誤差を実現する入力変数をその部分ツリーへの入
力変数として選択する。次に、新規部分ツリーの生成に
移行する。新規部分ツリーの生成は、ツリー構造全体に
含まれる葉ノード(子ノードを持たない全てのノード)
に対して、RBFの係数の変化量全ての分散を評価用デ
ータに関して計算し、最大の分散をとる葉ノードの下に
新規部分ツリーを生成する。このとき学習データの出力
と、既に生成されているA Tree-RBFによる出力の推論値
との残差を新たな出力とする。この残差出力を小さくす
るように未使用の入力変数全てに対して部分ツリーの構
造(ノードの数)の決定とパラメータのチューニングを
学習用データを用いてMAE法により行う。入力変数の
選択は評価用データを用いて行う。
【0105】部分ツリーSr1, ...,r(p-1)を追加する前
後での推論値をそれぞれ^yold ,^ynew とする。^
new への入力ベクトル [r1, ...,rp]′は数42で表
され、部分ツリーSr1, ...,r(p-1)に含まれる各ノード
の適合度(グレード)μ
r1, ...,rp [r1, ...,rp]′)は数43で表される。
このとき、推論値^ynew は数44で表される。
【0106】
【数42】 r1, ...,rp′≡(x[r1],x[r1,r2]
…,x[r1, ...,rp]
【0107】
【数43】μr1, ...,rp r1, ...,rp′)≡Λr1(x
[r1]×…×Λr1, ...,rp(x[r1, ...,rp]
【0108】
【数44】
【0109】部分ツリーの同定問題において、基底関数
の数がnp個の場合に、学習の対象となるパラメータベ
クトルを数45で定義する。
【0110】
【数45】 nP =(ar1, ...,r(p-1),1 ,…,ar1, ...,r(p-1),rp ,…,ar1, ..., r(p-1),np )∈Rnp nP =(br1, ...,r(p-1),1 ,…,br1, ...,r(p-1),rp ,…,br1, ..., r(p-1),np )∈Rnp nP =(wr1,…,r(p-1),1 ,…,wr1, ...,r(p-1),rp ,…,wr1, ..., r(p-1),np )∈Rnp rp=1,…,np 1≦p≦m このとき、NTR個の学習用データの組に対して、部分ツ
リーの同定問題は数44のように定式化される。
【0111】部分ツリー同定問題:
【0112】
【数46】
【0113】ここで、yi ,^yi はそれぞれi番目の
入力データxi に対する出力データとA Tree-RBFによる
推論値である。また、A Tree-RBF全体による同定問題は
以下のように定式化される。停止規則: 部分ツリーSr1, ...,r(p-1)を追加したとき
の推論値ないし評価関数値Δr1, ...,r(p-1)と、部分ツ
リーSr1, ...,r(p-2)までの推論値ないし評価関数値Δ
r1 , ...,r(p-2)とを比較して、数41を満足したとき、
部分ツリーSr1, ...,r(p- 2)までのA Tree-RBF全体のツ
リー構造とそのときの最適パラメータとを採用し、知識
獲得(増殖)を停止ないし終了する。
【0114】同定アルゴリズム 図16を参照して、最初のステップS101では、初期
化する。すなわち、このステップS101では、初期条
件や終了条件を読み込む。そして、ステップS103に
おいて、入出力データを基準化ないし正規化する。この
ようにして、入出力データが図13に示す入出力データ
記憶部112に格納される。
【0115】次いで、ステップS105では、データ分
割部102において、先に説明した手法で、入出力デー
タを学習用データと評価用データとに分割する。次に、
モデルパラメータ学習部116′に、学習用データが与
えられる。そして、ステップS107では、仮要素決定
部108において、入力変数のうちノード〈r1,
…,rp〉が含まれる部分ツリーのパス〈r1,…,r
(p−1)〉のなかで未使用のものを未選択入力変数と
して選択する。すなわち、このステップS107では、
未選択入力変数を仮選択し、注目している部分ツリーへ
の入力変数とする。
【0116】そして、図7のステップS5およびS7と
同様のステップS109およびS111を経て、ステッ
プS113において、新規ノードを発生する。新規ノー
ドの発生は、図7のステップS9で説明したのと同様の
方法で実現され得る。このとき、モデルパラメータ学習
部116′における未選択入力変数(これは仮要素決定
部108データ選択された入力要素)によるパラメータ
のチューニングには、学習用データが用いられる。
【0117】図7のステップS11−S21と同様のス
テップS115−S123を実行する。その後、ステッ
プS125で、評価部118′において、数46に示す
推論誤差を計算する。つまり、注目している部分ツリー
において、仮に選択された入力変数を用いて学習用デー
タで同定して収束したときの、評価用データに対する推
論誤差(平均2乗誤差)を計算する。
【0118】ついで、ステップS127において、未選
択の入力変数が残っていると判断されると、先のステッ
プS107へ戻り、上述の動作が繰り返し実行される。
また、未選択の入力要素が残ってない場合、ステップS
129において、評価部118′で、ステップS125
で計算した各仮選択入力要素の推論誤差の最小のものを
特定する。その最小の推論誤差をとる入力変数を、当該
部分ツリーに対する入力変数として決定する。すなわ
ち、このステップS129において、部分ツリーへの入
力変数が最終的に決定される。
【0119】その後、ステップS131において先の数
41で示す停止条件が充足されたか否かを判定する。も
し、この停止条件を満たしていなければ、ステップS1
07に戻り、上述の動作を繰り返す。停止条件が満たさ
れていれば、そのときの部分ツリーを追加しないで、獲
得動作を終了する。なお、図13実施例におけるデータ
分割の方法は、図1実施例にも適用できることは明らか
である。この場合、学習用データ記憶部104(図1
3)の学習用データがモデルパラメータ学習部16(図
1)に与えられ、評価用データ記憶部106(図13)
の評価用データがモデル誤差評価部18(図1)に与え
られる。このようにして、図1実施例においても汎化性
を向上することができる。
【図面の簡単な説明】
【図1】この発明の一実施例を示す機能ブロック図であ
る。
【図2】1層だけからなるツリー構造を示す図解図であ
る。
【図3】図2のツリー構造に部分ツリーを追加したとき
の全体のツリー構造を示す図解図である。
【図4】p層目にnp個の子ノードを持つ部分ツリーを
追加したときの全体のツリー構造を示す図解図である。
【図5】ニューロファジィモデルを3層構造のニューロ
モデルとみなした場合の図解図である。
【図6】ニューロファジィモデルをファジィモデルとみ
なした場合の前件部メンバシップ関数とファジィルー
ル,ファジィ推論演算式などを示す図解図である。
【図7】この実施例の知識獲得処理全体の処理動作を示
すフロー図である。
【図8】脈波の時系列データの一例を示すグラフであ
る。
【図9】図8の脈波時系列に対して基底関数の係数のみ
を学習させたモデルを示す図解図である。
【図10】図8の脈波時系列に対して基底関数の係数,
中心値および幅を学習させたモデルを示す図解図であ
る。
【図11】ノードを表現するためにツリー構造を示す図
解図である。
【図12】ラジアル基底関数の一例であるガウス関数を
示す図解図である。
【図13】この発明の他の実施例を示す機能ブロック図
である。
【図14】図13実施例における入力変数選択を示す図
解図である。
【図15】図13実施例における入力変数決定を示す図
解図である。
【図16】図13実施例における同定アルゴリズムを示
すフロー図である。
【符号の説明】
10,100 …階層型ツリー構造を有するニューロフ
ァジィ知識獲得装置 12,112 …入出力データ記憶部 102 …データ分割部 104 …学習用データ記憶部 106 …評価用データ記憶部 108 …仮要素決定部 14,114 …ニューロファジィモデル知識ベース 16,116′ …モデルパラメータ学習部 117 …モデルパラメータ記憶部 18,118′ …モデル誤差評価部 20,120 …新規ノード自己増殖部 22,122 …知識獲得条件記憶部 24,124 …知識獲得処理制御部 26,126′ …知識獲得終了判定部

Claims (5)

    【特許請求の範囲】
  1. 【請求項1】与えられた有限個の入出力データを記憶す
    るデータ記憶手段、 ニューロファジィモデルの知識を格納する知識ベース、 モデル誤差を目的関数としこれを最小化するようにモデ
    ルパラメータを逐次的に改善する学習手段、 与えられた出力データとモデル出力との誤差を評価する
    誤差評価手段、 前記誤差評価手段による評価結果に基づいて新規なノー
    ドを自動的に発生させるノード自己増殖手段、および所
    定の停止条件を判定して知識獲得処理の終了を決定する
    ための終了決定手段を備える、階層型ツリー構造を有す
    るニューロファジィ知識獲得装置。
  2. 【請求項2】前記終了決定手段は評価誤差が最初に指定
    した値以下になったか否かという停止条件を判定する、
    請求項1記載の階層型ツリー構造を有するニューロファ
    ジィ知識獲得装置。
  3. 【請求項3】前記入出力データに基づいて仮の入力要素
    を選択する入力要素選択手段をさらに備え、 前記学習手段は前記選択された入力要素に基づいて学習
    し、 前記評価手段は、前記選択された入力要素に対して評価
    誤差を計算する誤差計算手段、および前記評価誤差が最
    小となるものを入力要素として決定する決定手段を含
    む、請求項1記載の階層型ツリー構造を有するニューロ
    ファジィ知識獲得装置。
  4. 【請求項4】前記終了決定手段は評価関数値が前回の評
    価関数値以上になったか否かという停止条件を判定す
    る、請求項3記載の階層型ツリー構造を有するニューロ
    ファジィ知識獲得装置。
  5. 【請求項5】前記データ記憶手段のデータを学習用デー
    タと評価用データとに分割する分割手段、 前記学習用データを前記学習手段に与える学習用データ
    付与手段、および前記評価用データを前記評価手段に与
    える評価用データ付与手段を備える、請求項1ないし4
    のいずれかに記載の階層型ツリー構造を有するニューロ
    ファジィ知識獲得装置。
JP6118004A 1993-09-22 1994-05-31 階層型ツリー構造を有するニューロファジィ知識獲得装置 Withdrawn JPH07141317A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP6118004A JPH07141317A (ja) 1993-09-22 1994-05-31 階層型ツリー構造を有するニューロファジィ知識獲得装置

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP23635593 1993-09-22
JP5-236355 1993-09-22
JP6118004A JPH07141317A (ja) 1993-09-22 1994-05-31 階層型ツリー構造を有するニューロファジィ知識獲得装置

Publications (1)

Publication Number Publication Date
JPH07141317A true JPH07141317A (ja) 1995-06-02

Family

ID=26456023

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6118004A Withdrawn JPH07141317A (ja) 1993-09-22 1994-05-31 階層型ツリー構造を有するニューロファジィ知識獲得装置

Country Status (1)

Country Link
JP (1) JPH07141317A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008171282A (ja) * 2007-01-12 2008-07-24 Fujitsu Ltd 最適パラメータ探索プログラム、最適パラメータ探索装置および最適パラメータ探索方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008171282A (ja) * 2007-01-12 2008-07-24 Fujitsu Ltd 最適パラメータ探索プログラム、最適パラメータ探索装置および最適パラメータ探索方法

Similar Documents

Publication Publication Date Title
Auer et al. Tracking the best disjunction
Jang ANFIS: adaptive-network-based fuzzy inference system
Abraham Neuro fuzzy systems: State-of-the-art modeling techniques
EP0488150B1 (en) Fuzzy inference system including neural network
Jantzen Neurofuzzy modelling
Sharma Designing and modeling fuzzy control Systems
Abraham et al. Designing optimal neuro-fuzzy architectures for intelligent control
Wang et al. A boosting-based deep neural networks algorithm for reinforcement learning
Abraham et al. MARS: Still an alien planet in soft computing?
Cetisli et al. Estimation of adaptive neuro-fuzzy inference system parameters with the expectation maximization algorithm and extended Kalman smoother
JPH07141317A (ja) 階層型ツリー構造を有するニューロファジィ知識獲得装置
Yen et al. Principal components, B-splines, and fuzzy system reduction
Lughofer et al. Online adaptation of Takagi-Sugeno fuzzy inference systems
Mфnnle Identifying rule-based TSK fuzzy models
Slim Neuro-fuzzy network based on extended Kalman filtering for financial time series
Otadi Simulation and evaluation of second-order fuzzy boundary value problems
Su Identification of singleton fuzzy models via fuzzy hyperrectangular composite NN
Mashor Performance comparison between back propagation, RPE and MRPE algorithms for training MLP networks
Montes et al. Interpretable Fuzzy Models from Data and Adaptive Fuzzy Control: A New Approach
Abraham Beyond integrated neuro-fuzzy systems: Reviews, prospects, perspectives and directions
Chasparis Stochastic stability analysis of perturbed learning automata with constant step-size in strategic-form games
Al-Zohary et al. Adaptive control of nonlinear multivariable systems using neural networks and approximate models
Wang et al. An Optimization algorithm for nonsmooth nonconvex problems with upper-C^ 2 objective
Semmler Fisher Information Approximations in Policy Gradient Methods
Nelles et al. Model complexity optimization

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20010731