JPH08123778A - 非線形モデル自動生成方法 - Google Patents

非線形モデル自動生成方法

Info

Publication number
JPH08123778A
JPH08123778A JP6254997A JP25499794A JPH08123778A JP H08123778 A JPH08123778 A JP H08123778A JP 6254997 A JP6254997 A JP 6254997A JP 25499794 A JP25499794 A JP 25499794A JP H08123778 A JPH08123778 A JP H08123778A
Authority
JP
Japan
Prior art keywords
neural network
network model
group
rule
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP6254997A
Other languages
English (en)
Inventor
Hitoshi Ashida
仁史 芦田
Yoji Taniguchi
洋司 谷口
Akira Maeda
章 前田
Tadashi Tenma
正 天満
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP6254997A priority Critical patent/JPH08123778A/ja
Priority to US08/543,998 priority patent/US5819246A/en
Publication of JPH08123778A publication Critical patent/JPH08123778A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/10Interfaces, programming languages or software development kits, e.g. for simulating neural networks
    • G06N3/105Shells for specifying net layout
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/211Selection of the most significant subset of features

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)

Abstract

(57)【要約】 (修正有) 【目的】 非線形モデルにたいする必要最小限の入力項
目を自動的に選択し、非線形モデル構築の効率を向上す
る。 【構成】 非線形モデルを構築する場合、教師データ1
01が与えられれば、分割方法オプション101とグル
ープ指定情報103を指定することにより、グループ別
ルール生成装置104により、グループ別ルール105
とデータの分割情報106が自動生成される。初期ニュ
ーラルネットワークモデル生成装置107は、グループ
別ルール105から自動的に初期ニューラルネットワー
クモデル108を生成する。これはニューラルネットワ
ークモデル学習装置111において、学習され、学習済
みニューラルネットワークモデル112として出力され
る。学習のための教師データであるグループ分類付教師
データ110は、教師データ102、グループ別ルール
105、分割情報106を用いて、データ分類装置10
9において生成される。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は蓄積された数値データを
含む教師データから非線形モデル、特にニューラルネッ
トワークモデルを自動生成する方法に関する。
【0002】
【従来の技術】非線形モデルの入力変数を選択する手法
として以下の3つが考えられる。
【0003】(1)エキスパートの知識の利用または試
行錯誤による入力変数の選択(従来技術1) エキスパートの知識が存在する場合には、その知識に基
づき入力変数を選択し、モデルを構築する。エキスパー
トの知識が存在しない場合には、まず適当に入力変数を
選択してモデルを構築し、学習を行なう。モデルの学習
が収束しない場合、検証結果でモデルの汎用性が認めら
れないなどの不具合がある場合には、入力変数を選択し
直して学習を繰り返す。
【0004】(2)統計的手法による入力変数の選択
(従来技術2) 各入力変数と出力変数の相関係数を求め、相関係数の絶
対値が大きいものをいくつか入力変数として選択する。
個数は試行錯誤により決定する。
【0005】(3)属性の従属性による情報システムの
入力変数の選択(従来技術3) 属性の従属性によって情報システムを縮小する方法に関
して、日本ファジィ学会Vol.5,No.2,pp.358-366にお
いて重永他による「ラフ集合を用いたエキスパート・シ
ステムにおけるファジィ推論とその判別問題への応用」
なる文献に解説がある。
【0006】
【発明が解決しようとする課題】従来技術1で述べたよ
うに、エキスパートの知識を利用するかまたは試行錯誤
により非線形モデルの入力変数を選択すれば、モデル構
築の効率が悪く、さらに適切な入力変数を選択できてい
ない場合には、モデルの学習が収束しない。本発明は、
教師データの特徴から自動的に適切な入力変数を選択
し、非線形モデルを構築することにより、非線形モデル
構築の効率を向上することを第1の目的とする。
【0007】従来技術2は各入力変数と出力の線形関係
の強さを相関係数を用いて評価し、線形関係が強いもの
からいくつかを入力変数として選択する。しかし、非線
形モデルが対象とする多入力1出力の非線形関係を表現
しようとするのに対して、個々の入力変数と出力変数の
1次相関係数では明らかに不十分である。
【0008】本発明は各入力変数の定義域を複数の領域
に分割し、複数の入力変数の分割された領域の組合せに
より構成される部分空間と出力との関係に基づき入力変
数を選択することにより、多入力の非線形モデルの適切
な入力変数を選択し、容易に非線形性の強い入出力関係
を表現することを第2の目的とする。
【0009】従来技術3が対象としているデータは記号
を代用する離散値のみであり、数値を扱うことはできな
い。本発明は、数値データからでも適切な入力変数を選
択できるようにすることを第3の目的とする。
【0010】従来技術1で述べたような、一般的な非線
形モデル作成においては、最終的にモデルは1つしか作
成しないので、非線形性の強い入出力関係を表現するに
は、試行錯誤が必要であり、学習回数も増加する。本発
明は、複数のモデルを構築し、また複数の非線形モデル
を利用した推論装置を構築することにより、モデル生成
の効率と推論精度を向上することを第4の目的とする。
【0011】
【課題を解決するための手段】上記第1の目的を達成す
るため、本発明の非線形モデル自動生成方法では、グル
ープ別ルール生成処理により、教師データの特徴をルー
ル形式で抽出し、抽出したルールから入出力変数を取り
出し、非線形モデル構築時の入力変数選択の試行錯誤を
削減し、非線形モデル構築の効率を向上する。
【0012】例えば、本発明のニューラルネットワーク
モデル自動生成方法では、グループ別ルール生成処理と
初期ニューラルネットワークモデル生成処理により、教
師データの特徴から入力変数を選択し、ニューラルネッ
トワークモデル構築時の入力変数選択の試行錯誤を削減
し、ニューラルネットワークモデル構築の効率を向上す
る。
【0013】上記第2の目的を達成するため、本発明の
非線形モデル自動生成方法では、グループ別ルール生成
処理により、部分空間ごとの入出力関係をルールで表現
することにより、容易に非線形性の強い入出力関係を表
現する。
【0014】上記第3の目的を達成するため、本発明の
非線形モデル自動生成方法では、グループ別ルール生成
処理におけるラベル付与処理により、数値データを自動
的に記号データである事例テーブルに変換する。
【0015】上記第4の目的を達成するため、本発明の
非線形モデル自動生成方法では、グループ別ルール生成
処理により、教師データの特徴をルール形式で抽出し、
抽出したルールからグループ指定情報に従い、グループ
ごとに入力変数を取り出し、グループごとに非線形モデ
ルを構築する。
【0016】例えば、非線形モデルの一例であるニュー
ラルネットワークモデル自動生成方法では、グループ別
ルール生成処理と初期ニューラルネットワークモデル生
成処理により、グループ指定情報に従いグループごとに
複数の初期ニューラルネットワークモデルを構築し、さ
らにデータ分類装置によりグループごとに分類されたグ
ループ分類付き教師データを用いて初期ニューラルネッ
トワークモデルを学習する。
【0017】
【作用】上記第1の目的に関しては、グループ別ルール
生成処理により、グループ別のルールを抽出し、抽出し
たルールから入出力変数を取り出すことにより、非線形
モデル構築時の入力変数選択の試行錯誤を不要に削減
し、非線形モデル構築の効率が向上する。
【0018】とくに、ニューラルネットワークモデル構
築においては、グループ別ルール生成処理、初期ニュー
ラルネットワークモデル生成処理、ニューラルネットワ
ークモデル学習処理により、グループ別の入出力変数を
自動的に抽出し、ニューラルネットワークモデルを構築
し、学習できるので、ニューラルネットワークモデルの
入力変数を試行錯誤により選択する必要がなくなり、モ
デル構築の効率が向上する。
【0019】上記第2の目的に関しては、入出力変数選
択処理において、ラベル付与処理を用いて各入力変数ご
とに複数の領域に分割し、ルール抽出処理を用いて各部
分空間と出力変数との関係を抽出することにより、容易
に非線形性の強い入出力関係を表現する。
【0020】上記第3の目的に関しては、グループ別ル
ール生成処理において、ラベル付与処理を利用すること
により、実数値データを記号データである事例テーブル
に変更することにより実数値データも利用可能とする。
【0021】上記第4の目的に関しては、グループ別ル
ール生成処理により、教師データの特徴をルール形式で
抽出し、抽出したルールからグループ指定情報に従い、
グループごとに入力変数を取り出し、グループごとに非
線形モデルを構築することにより、モデルの複雑さに対
応して、複数のモデルを構築することにより、精度の高
いモデルを効率良く構築することができる。
【0022】とくにニューラルネットワークモデル構築
においては、グループ別ルール生成処理によりグループ
別ルールを生成し、初期ニューラルネットワークモデル
生成処理において入出力変数抽出処理を利用してグルー
プ別に入出力変数を抽出し、ニューラルネットワークモ
デル構造決定処理を利用することによりグループ別に初
期ニューラルネットワークモデルを生成し、さらに、デ
ータ分類処理により教師データを分類したグループ分類
付き教師データにより、ニューラルネットワークモデル
学習処理を用いてグループ別に学習することにより、複
数のニューラルネットワークモデルを構築し、それぞれ
のモデルごとに学習できるので、精度の高いモデルを効
率良く構築できる。
【0023】
【実施例】以下、本発明の実施例について説明する。
【0024】図1は本発明の対象とする非線形モデルの
1種であるニューラルネットワークモデルを自動生成す
る装置のブロック構成図である。
【0025】この装置を用いてニューラルネットワーク
モデル構築の対象とする教師データから1つ以上の入力
と、唯1つの出力を選び、それらの入出力関係を表すニ
ューラルネットワークモデルを構築する。グループ別ル
ール生成装置104は分割方法オプション101と教師
データ102とグループ指定情報103を入力とし、グ
ループ別ルール105を出力する。初期ニューラルネッ
トワークモデル生成装置107はグループ別ルール10
5を入力とし、初期ニューラルネットワークモデル10
8を出力とする。データ分類装置109は、教師データ
102、グループ別ルール105、分割情報106を入
力とし、グループ別分類付教師データ110を出力とす
る。ニューラルネットワークモデル学習装置111は、
初期ニューラルネットワークモデル108とグループ別
分類付教師データ110を入力とし、学習済みニューラ
ルネットワークモデル112を出力する。
【0026】グループ別ルール生成装置104は、教師
データ中の指定された1つ以上の入力と唯1つの出力の
入出力関係を表すルールを指定されたグループ別に出力
する。例えば、図2のようにラベル付与装置201、ル
ール生成装置203、ルールグループ生成装置205に
より構成される。
【0027】図2において、ラベル付与装置201と
は、教師データ102中の数値データのそれぞれの値に
「小」、「中」、「大」などのラベルを割り当てる装置
である。教師データ102の各属性の属性値は数値デー
タかラベルデータ(記号データ)であるものとし、ラベ
ル付与装置201は教師データ中の属性値のうち数値デ
ータをラベルデータに変換する。ラベルが割り当てられ
たデータをラベルデータと呼ぶ。また、出力変数のラベ
ルに与えるラベルをクラスと呼ぶ。
【0028】ラベル付与の基本的な考え方は、数値デー
タを入力変数ごとにある位置で区切って、それぞれの区
間にラベルを割り当てることである。データを区切る位
置をデータの分割位置と呼ぶ。すなわち、ラベルデータ
生成に必要な情報は、教師データ102と、ラベル、分
割数、データの分割位置の決定方法を指定する分割方法
オプション101である。
【0029】ここで、教師データ102は図3に示す形
式で与えられ、数値と記号が混在しており、一般的に膨
大で欠損値を含んでいるため、特徴が掴みにくい。ここ
では欠損値は他の値と区別できる特別な値で表現されて
いるものとする。例えば16進表現のFF...FF などとす
ればよい。図3の最終行にどの属性を入出力として用い
るかが、ユーザにより与えられてる。N は教師データに
含まれる属性数、M はデータ数、Xij はi 番目のデータ
のj 番目の属性値である。この例では属性1を入力1
に、属性3を入力2として、属性k を入力nとし、属性N
を出力としている。n はルール生成装置が用いる入力
項目数である。
【0030】分割方法オプション101には、一定区間
の数値データを記号で表現したラベルと、各入力変数ご
との分割数、分割位置の決定方法が含まれる。ラベル名
は分割数ごとに図4のものをデフォルトとするが、ユー
ザが指定することも可能である。例えば、気温を入力変
数とした場合には、高い、中位、低いなどと各区間のラ
ベル名称をユーザが任意に指定できる。分割位置の決定
方法としては例えば、図5に示す入力に対する事例数の
ヒストグラムを入力変数ごとに表示し、ユーザがデータ
の分布から分割数と分割位置を決定する。図5において
点線が分割位置を表す。分割位置の指定は例えばヒスト
グラム表示図面上で、マウスなどのポインティング装置
を用いておこなうものとする。
【0031】事例テーブル202とは教師データ102
をラベル付与装置201により変換したラベルデータで
ある。
【0032】ルール生成装置203とは、事例テーブル
からルールを抽出する公知の装置であり、例えば、従来
技術ES/TOOL/W-RIによるアルゴリズムを用いるものとす
る。ES/TOOL/W-RIについては、日経AI別冊1990秋号の12
6ページから137ページに小六正修による解説がある。
【0033】RIルール204とはルール生成装置203
から出力される「IF...THEN〜」または「ELSE IF...THE
N〜」形式のルールである。ルールグループ生成装置2
05はRIルール204を指定されたルールグループごと
に分類し、グループ別ルール105を出力する。ここで
グループ指定情報103にはRIルールをどのようにグル
ープ分けするかが含まれる。グループとしては、ルール
別、出力クラス別、総合の3つがある。
【0034】初期ニューラルネットワークモデル生成装
置107はグループ別ルール105から自動的にニュー
ラルネットワークモデルを生成する装置である。例え
ば、図6に示す通り、入出力変数抽出装置601とニュ
ーラルネットワークモデル構造決定装置603から構成
される。入出力変数抽出装置601は、グループ別ルー
ル105を入力とし、グループ別入出力変数602を出
力する。ニューラルネットワークモデル構造決定装置6
03は、グループ別入出力変数602を入力とし、初期
ニューラルネットワークモデル108を出力する。初期
ニューラルネットワークモデルの構造は例えば、図7に
示すような多入力1出力のパーセプトロン型の3層のニ
ューラルネットワークモデルとし、中間層のニューロン
の個数は、入力層と同じとする。
【0035】n次元ベクトルAp=(Api,・・・,Ap
n)が入力された時のこのニューラルネットワークモデ
ルの入出力関係を次のように定義する。
【0036】入力層:Ypi=Api,i=1,2,・・・,n Ypi=C1, i=n+1 中間層:Ypj=f(NETpj),j=1,2,・・・,n NETpj=ΣWjiYpi ,j=1,2,・・・,n Ypj=C2, j=n+1 出力層:Yp=f(NETp) NETp=ΣWjYpj ここで、Ypkは第p層のk番目のニューロンの出力、
f()はシグモイド関数、Wjiは入力層のi番目のニュー
ロンと中間層のj番目のニューロンの結合強度を表す実
数、Wjは中間層のj番目のニューロンと出力層の結合強
度を表す実数である。C1,C2はしきい値となる実数で
ある。また、中間層におけるΣはi=1,…,n+1の和,出
力層におけるΣはj=1,…,n+1の和を表す。
【0037】初期ニューラルネットワークモデル生成装
置107から出力される初期ニューラルネットワークモ
デル108は図8の形式で表記される。初期ニューラル
ネットワークモデル108において、Wji(i=1,・・
・,n+1, j=1,2,・・・,n)は全て0以上1以下の自然数
の乱数とする。
【0038】データ分類装置109は、指定されたグル
ープごとに教師データを分類する。具体的には、図9に
示すように教師データの最終列の右隣にグループを示す
列を付加する。
【0039】ニューラルネットワークモデル学習装置1
11は、グループ分類付きデータ110を用いて、各グ
ループの初期ニューラルネットワークモデルの各ニュー
ロン間の重み係数をバックプロパゲーション法により学
習し、学習済みニューラルネットワークモデル112を
出力する装置である。
【0040】ニューラルネットワークモデル学習装置1
11は例えば、図10に示すようにデータ形式変換装置
1001と重み係数学習装置1003により構成され
る。ニューラルネットワークモデル学習装置111にお
いて、教師データはまずデータ形式変換装置1001に
より学習に適切な値に変更する。つまり、全ての数値デ
ータは区間〔0,1〕の値に規格化し,記号データも区
間〔0,1〕に含まれる実数値に変換する。例えば、2
つのラベルで表現された場合には{0,1}、3つのラ
ベルで表現された場合には{0,0.5,1}の中のい
ずれかの値に変換する。重み係数学習装置1003にお
いては、各グループの初期ニューラルネットワークモデ
ルを、データ形式変換済み教師データ中のそれぞれのグ
ループに属するデータのみ用いて学習する。
【0041】生成した学習済みニューラルネットワーク
モデルを新たな入力データに対する推論に利用する場
合、図11に示すデータ推論装置を利用する。ここで
は、図1のデータ分類装置109は、教師データの代わ
りに推論用データを入力とする。モデル別推論装置10
02はグループ分類付き推論用データと学習済みニュー
ロモデルを入力とし、各グループの学習済みニューラル
ネットワークモデルを利用し、推論結果を出力する。
【0042】以上のニューラルネットワークモデル自動
生成装置の動作をデパートのダイレクトメール発送地域
の選択問題を用いて説明する。あるデパートでは毎年都
内の住民に「会員カード」を勧めるダイレクトメールを
発送しているが、平均応答率がおもわしくない。そこ
で、過去のデータを用いて応答率を予測するニューラル
ネットワークモデルを構築する。このモデルを用いて今
までメールを発送していない地域のダイレクトメールに
対する応答率も予測する。
【0043】図12の形式で各個人の顧客データが用意
されている。図12におけるラベルA,B,C,Dの意
味を図13に示す。営業担当者はこの個人データをもと
に、図14の形式のデパートが独自に定めた営業地域ご
とのデータを作成し、教師データ102とする。ラベル
付与に関するオプション、ルール生成装置に関するオプ
ション101(図1参照)をユーザ指定情報として入力
する。適切な入力変数はニューラルネットワークモデル
自動生成装置が選択するので、営業担当者は入力属性を
厳密に選び出す必要はなく、可能性のありそうな項目は
全て選べばよい。
【0044】図14に示す教師データはラベルデータと
数値データが混在している。ラベルデータはそのままと
し、数値データに対してはラベル付与をおこなう。ユー
ザ指定情報は、分割数を入力変数に関してはいずれも
3、出力変数に関しては2、ラベルは入力変数に関して
はいずれも小,中,大,出力変数に関しては高、低を用
いる。ラベルを与えた事例テーブル202を図15に示
す。ルール生成装置203により抽出したRIルール20
4を図16に示す。矛盾した事例が事例テーブルに含ま
れるため、ルールの結論部がそれぞれ2つある。各結論
部の右隣に記されている数字は、ルール条件を満たす全
ての事例に対する結論部も一致する事例の割合である。
【0045】ここで、グループ指定情報として出力クラ
ス別を指定すると、グループ別ルール生成装置104は
出力クラス別のルールを生成する。出力クラス別のルー
ルは図17の形式で記述される。ここでは、ルール生成
装置において出力クラス別にルールを生成しているの
で、着目しているクラスを出力クラスとする。
【0046】初期ニューラルネットワークモデル生成装
置107により決定される初期ニューラルネットワーク
モデル108の構造は、図18に示す通りである。各ユ
ニット間の重みは全て0以上1以下の自然数の乱数とす
る。
【0047】ニューラルネットワークモデル学習装置1
11で利用するグループ分類付教データ110を図19
に示す。グループ別教師データはまず図10中のデータ
形式変換装置1001により学習に適切な値に変換され
る。ここで、データ形式変換装置1001は図20に示
すデータ変換テーブルに従って変換する。ここで、扶養
家族、年齢、元会員数の整数値はそれぞれの最大値で割
ることにより、0以上1以下の連続値に規格化する。勤
続年数、会社の規模は小、中、大のラベルをそれぞれ
0,0.5, 1に割り当てる。応答率は、低、高をそれぞれ
0,1に割り当てる。形式を変換した後のデータにより
初期ニューラルネットワークモデル108を学習し、学
習済みニューラルネットワークモデル(学習後)112
を獲得する。
【0048】以上本発明の実施例によれば、入力変数を
明確に決定できないようなシステムに対しても、自動的
に入力変数を選択することによりニューラルネットワー
クモデルを構築できる。また、モデルの汎用性と精度の
トレードオフについてもグループ指定によりユーザが選
択できる。
【0049】また、学習済みニューラルネットワークモ
デル、グループ別ルール、分割情報を利用することによ
り、出力が未知のデータに対しても出力を予測できる。
【0050】
【発明の効果】本発明によれば以下の効果がある。
【0051】(1)教師データから自動的に入出力変数
を選択し、非線形モデルを生成するので、非線形モデル
構築における試行錯誤にかかる時間が削減される。
【0052】(2)不必要な入力変数を用いていないの
で、ニューラルネットワークモデルの学習が高速化でき
る。
【0053】(3)グループの指定によりルール別、出
力クラス別、総合の3種類の非線形モデルを構築できる
ので、ユーザは汎用性と精度のトレードオフを考慮して
モデルを選択できる。
【0054】(4)生成したニューラルネットワークモ
デルは推論に利用できる。
【図面の簡単な説明】
【図1】本発明のニューラルネットワークモデル自動生
成装置の構成図である。
【図2】本発明のグループ別ルール生成装置の構成図で
ある。
【図3】本発明の実施例の教師データである。
【図4】本発明の実施例の分割方法オプションに含まれ
る分割した区間に割り当てるラベルの分割数ごとのデフ
ォルト値である。
【図5】本発明の実施例における、ユーザが分割位置を
決定する方式で利用する入力変ごとの事例数のヒストグ
ラムの一例である。
【図6】本発明の実施例で用いる初期ニューラルネット
ワークモデル生成装置の構成図である。
【図7】本発明の実施例で用いる多入力1出力のパーセ
プトロン型の3層ニューラルネットワークモデルの概略
図である。
【図8】本発明の実施例のニューラルネットワークモデ
ル構造決定装置から出力されるニューラルネットワーク
モデルの各ニューロン間の重み係数を表記した情報であ
る。
【図9】本発明の実施例で用いたグループ分類付き教師
データを表記した情報である。
【図10】本発明の実施例のニューラルネットワークモ
デル学習装置の構成図である。
【図11】本発明の実施例で用いた推論装置である。
【図12】本発明の実施例で用いる顧客データを表記し
た情報である。
【図13】本発明の実施例で用いる顧客データの各ラベ
ルの意味を表記した表である。
【図14】本発明の実施例で用いる地域データの教師デ
ータを表記した情報である。
【図15】本発明の実施例で用いる図14の教師データ
からラベル付与装置により変換された事例テーブルであ
る。
【図16】本発明の実施例で用いる図15に示す事例テ
ーブルをもとにRI装置により生成されたRIルールであ
る。
【図17】本発明の実施例で用いる図16に示すRIルー
ルを表記した情報である。
【図18】本発明の実施例で用いる図17に示すRIルー
ルをもとに生成された初期ニューラルネットワークモデ
ルである。
【図19】本発明の実施例で用いる図18に示すニュー
ラルネットワークモデルの学習に利用するグループ分類
付き教師データを表記した情報である。
【図20】本発明の実施例で用いる図19に示すグルー
プ分類付教師データをデータ形式変換装置により重み係
数学習装置に利用可能な形式に変換したデータ形式変換
済み教師データを表記した情報である。
【符号の説明】
101…分割方法オプション、102…教師データ、1
03…グループ別指定情報、104…グループ別ルール
生成装置、105…グループ別ルール、106…分割情
報、107…初期ニューラルネットワークモデル生成装
置、108…初期ニューラルネットワークモデル、10
9…データ分類装置、110…グループ分類付教師デー
タ、111…ニューラルネットワークモデル学習装置、
112…学習済みニューラルネットワークモデル。
フロントページの続き (72)発明者 天満 正 神奈川県川崎市麻生区王禅寺1099番地 株 式会社日立製作所システム開発研究所内

Claims (16)

    【特許請求の範囲】
  1. 【請求項1】非線形モデルの学習に利用する教師データ
    の特徴をルール形式で抽出し、抽出したルールから入出
    力変数を取り出し、取り出した入出力変数を用いてm入
    力n出力(m≧2,n≧1)の非線形モデルを構築する
    非線形モデル自動生成方法。
  2. 【請求項2】ニューラルネットワークモデルの学習に利
    用する教師データの特徴をルール形式で抽出し、抽出し
    たルールから入出力変数を取り出し、取り出した入出力
    変数を用いてニューラルネットワークモデルの構造を決
    定する初期ニューラルネットワークモデルを構築し、上
    記教師データにより初期ニューラルネットワークモデル
    を学習してニューラルネットワークモデルを構築するニ
    ューラルネットワークモデル自動生成方法。
  3. 【請求項3】ニューラルネットワークモデルの学習に利
    用する教師データから該モデルの特徴を示すルールを、
    ルール別か出力クラス別か総合のいずれかを指定するグ
    ループ指定情報に従い生成するグループ別ルール生成処
    理と、グループ別ルールからニューラルネットワークモ
    デルの構造を決定する初期ニューラルネットワークモデ
    ルを生成する処理と、上記教師データをグループ毎に分
    類して、グループ分類付き教師データを生成するデータ
    分類処理と、分類した教師データにより上記初期ニュー
    ラルネットワークモデルを学習するニューラルネットワ
    ークモデル学習処理とからなるニューラルネットワーク
    モデル自動生成方法。
  4. 【請求項4】上記グループ別ルール生成処理は、上記教
    師データ中の数値属性のデータを記号で表記した事例テ
    ーブルに変換する処理と、該事例テーブルと、該変換処
    理に利用した各記号の定義域を表記した分割情報を出力
    する処理からなるラベル付与処理と、事例テーブルから
    RI(Rule Induction)ルールを抽出するルール生成処理
    と、上記グループ指定情報に従い、RIルールをグループ
    ごとに分類するルールグループ生成処理とからなる請求
    項3のニューラルネットワークモデル自動生成方法。
  5. 【請求項5】上記初期ニューラルネットワークモデル生
    成処理は、上記グループ別ルールから、各ルールで用い
    る入出力変数を各グループごとに抽出するグループ別入
    出力変数抽出処理と、抽出したグループ別入出力変数か
    らニューラルネットワークモデルの構造を決定するため
    の初期ニューラルネットワークモデルを生成する処理と
    からなる請求項3のニューラルネットワークモデル自動
    生成方法。
  6. 【請求項6】上記データ分類処理は、教師データと分割
    情報とグループ別ルールとから、各データが属するグル
    ープの情報を各教師データに付与したグループ分類付き
    教師データを生成する処理を含む請求項3のニューラル
    ネットワークモデル自動生成方法。
  7. 【請求項7】上記ニューラルネットワークモデル学習処
    理は、上記グループ分類付き教師データを、ニューラル
    ネットワークモデルの各ニューロン間の結合係数である
    重みの学習に適した一定区間に含まれる値に変換するデ
    ータ形式変換処理と、変換した教師データを用いて、上
    記重みをバックプロパゲーション法により学習する重み
    係数学習処理とからなる請求項3のニューラルネットワ
    ークモデル自動生成方法。
  8. 【請求項8】上記グループ別ルール生成処理は、上記ラ
    ベル付与処理の方法を指定する分割方法オプションと教
    師データとグループ指定情報とからグループ別ルールお
    よび分割情報を生成する処理を含む請求項4のニューラ
    ルネットワークモデル自動生成方法。
  9. 【請求項9】上記初期ニューラルネットワークモデル生
    成処理は、上記グループ別ルールからグループ別入出力
    変数を抽出するグループ別入出力変数抽出処理と、抽出
    した入出力変数から初期ニューラルネットワークモデル
    を生成するニューラルネットワークモデル構造決定処理
    とからなる請求項3のニューラルネットワークモデル自
    動生成方法。
  10. 【請求項10】上記ニューラルネットワークモデル学習
    処理は、上記グループ分類付き教師データと初期ニュー
    ラルネットワークモデルから学習済みニューラルネット
    ワークモデルを生成する処理を含む請求項3のニューラ
    ルネットワークモデル自動生成方法。
  11. 【請求項11】上記ラベル付与処理は、上記教師データ
    中の数値属性のデータを、属性別にある位置で区切って
    複数の区間データに分割する処理と、分割されたそれぞ
    れの区間データにラベルを割り当てる処理とからなる請
    求項4のニューラルネットワークモデル自動生成方法。
  12. 【請求項12】上記分割する処理は、入出力変数ごと
    に、上記教師データのヒストグラムを表示装置に表示す
    る処理と、表示装置上に重ねて表示されたポインタを操
    作して上記区切る位置の決定を指示する処理とを含む請
    求項11のニューラルネットワークモデル自動生成方
    法。
  13. 【請求項13】上記ルールグループ生成処理は、グルー
    プ指定情報に従い、RIルールをルール別か出力クラス別
    か総合のいずれかに分類する処理からなる請求項4のニ
    ューラルネットワークモデル生成方法。
  14. 【請求項14】上記ニューラルネットワークモデルの構
    造を決定する処理は、上記グループ別入出力変数から既
    存のモデルの構造を決定する処理と、決定された構造に
    より初期ニューラルネットワークモデルを生成する処理
    とからなる請求項5のニューラルネットワークモデル自
    動生成方法。
  15. 【請求項15】上記データ形式変換処理は、上記グルー
    プ分類付き教師データ中の数値データを一定区間に含ま
    れる実数値に規格化する処理と、上記記号データを一定
    区間に含まれる実数値に変換する処理とからなる請求項
    7のニューラルネットワークモデル自動生成方法。
  16. 【請求項16】上記重み係数学習処理は、学習に適した
    一定区間に含まれるデータ形式変換済み教師データを用
    いて初期ニューラルネットワークモデルの各ニューロン
    間の結合強度である重み係数をバックプロパゲーション
    法により学習する処理からなる請求項7のニューラルネ
    ットワークモデル生成方法。
JP6254997A 1994-10-20 1994-10-20 非線形モデル自動生成方法 Pending JPH08123778A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP6254997A JPH08123778A (ja) 1994-10-20 1994-10-20 非線形モデル自動生成方法
US08/543,998 US5819246A (en) 1994-10-20 1995-10-17 Non-linear model automatic generating method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6254997A JPH08123778A (ja) 1994-10-20 1994-10-20 非線形モデル自動生成方法

Publications (1)

Publication Number Publication Date
JPH08123778A true JPH08123778A (ja) 1996-05-17

Family

ID=17272777

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6254997A Pending JPH08123778A (ja) 1994-10-20 1994-10-20 非線形モデル自動生成方法

Country Status (2)

Country Link
US (1) US5819246A (ja)
JP (1) JPH08123778A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003535407A (ja) * 2000-05-31 2003-11-25 レキシス ネクシス 文章中の法の支配を見つけるためのコンピュータ・ベース・システム及び方法
JP2007047945A (ja) * 2005-08-08 2007-02-22 Matsushita Electric Ind Co Ltd 予測装置
JP2023097531A (ja) * 2021-12-28 2023-07-10 尚承科技股▲フン▼有限公司 ネットワーク行為特徴を学習するネットワーク機器、処理システムおよび方法

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7805388B2 (en) * 1998-05-01 2010-09-28 Health Discovery Corporation Method for feature selection in a support vector machine using feature ranking
US7970718B2 (en) * 2001-05-18 2011-06-28 Health Discovery Corporation Method for feature selection and for evaluating features identified as significant for classifying data
KR100396753B1 (ko) * 2000-08-18 2003-09-02 엘지전자 주식회사 싸이버 공동체를 이용한 완구 학습 장치 및 방법
US20030033587A1 (en) * 2001-09-05 2003-02-13 Bruce Ferguson System and method for on-line training of a non-linear model for use in electronic commerce
US7054847B2 (en) 2001-09-05 2006-05-30 Pavilion Technologies, Inc. System and method for on-line training of a support vector machine
US6736089B1 (en) * 2003-06-05 2004-05-18 Neuco, Inc. Method and system for sootblowing optimization
US7194320B2 (en) * 2003-06-05 2007-03-20 Neuco, Inc. Method for implementing indirect controller
US8214271B2 (en) * 2004-02-04 2012-07-03 Neuco, Inc. System and method for assigning credit to process inputs
WO2006026479A2 (en) * 2004-08-27 2006-03-09 Neuco, Inc. Method and system for sncr optimization
US7333861B2 (en) * 2004-10-25 2008-02-19 Neuco, Inc. Method and system for calculating marginal cost curves using plant control models
ITTO20050164A1 (it) * 2005-03-15 2006-09-16 Eltek Spa Apparato di refrigerazione con un sistema di alimentazione di liquido
US8340824B2 (en) 2007-10-05 2012-12-25 Neuco, Inc. Sootblowing optimization for improved boiler performance
US20140156233A1 (en) * 2012-12-03 2014-06-05 Can Wang Method and apparatus for electronic circuit simulation
CN106022470B (zh) * 2016-04-29 2019-01-29 东南大学 一种基于bp-egnos融合模型的对流层延迟改正方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5339818A (en) * 1989-09-20 1994-08-23 University Of Utah Research Foundation Method for determining blood pressure utilizing a neural network

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003535407A (ja) * 2000-05-31 2003-11-25 レキシス ネクシス 文章中の法の支配を見つけるためのコンピュータ・ベース・システム及び方法
JP4773672B2 (ja) * 2000-05-31 2011-09-14 レクシスネクシス ア ディヴィジョン オブ リード エルザヴィア インコーポレイテッド 文章中の法の支配を見つけるためのコンピュータ・ベース・システム及び方法
JP2007047945A (ja) * 2005-08-08 2007-02-22 Matsushita Electric Ind Co Ltd 予測装置
JP2023097531A (ja) * 2021-12-28 2023-07-10 尚承科技股▲フン▼有限公司 ネットワーク行為特徴を学習するネットワーク機器、処理システムおよび方法

Also Published As

Publication number Publication date
US5819246A (en) 1998-10-06

Similar Documents

Publication Publication Date Title
Azadeh et al. Improved estimation of electricity demand function by integration of fuzzy system and data mining approach
JPH08123778A (ja) 非線形モデル自動生成方法
Heiat Comparison of artificial neural network and regression models for estimating software development effort
US5940815A (en) Data analyzing method
Bloom Tourist market segmentation with linear and non-linear techniques
Jo et al. Integration of case-based forecasting, neural network, and discriminant analysis for bankruptcy prediction
Bagnoli et al. The theory of fuzz logic and its application to real estate valuation
JPH05342191A (ja) 経済時系列データ予測及び解析システム
CN106779087A (zh) 一种通用机器学***台
CN108829763A (zh) 一种基于深度神经网络的影评网站用户的属性预测方法
Zhao et al. Modeling Stated preference for mobility-on-demand transit: a comparison of Machine Learning and logit models
CN112541639B (zh) 基于图神经网络和注意力机制的推荐***评分预测方法
CN111104975B (zh) 一种基于广度学习的信用评估方法
Patil et al. Prediction system for student performance using data mining classification
CN112734154A (zh) 一种基于模糊数相似度的多因素舆情风险评估方法
CN109948649A (zh) 面向数据开放共享的软件访问行为数据特征表示方法
CN110991601A (zh) 一种基于多用户行为的神经网络推荐方法
CN115221387A (zh) 一种基于深度神经网络的企业信息整合方法
Coenen et al. The improvement of response modeling: combining rule-induction and case-based reasoning
Ali et al. Fake accounts detection on social media using stack ensemble system
CN117635238A (zh) 一种商品推荐方法、装置、设备及存储介质
CN117746546A (zh) 基于叫号器的服务业务办理方法及***
JPH08106448A (ja) 気象予測装置
CN114358474A (zh) 一种典型多能用户模型建立方法
Johnpaul et al. Fuzzy representational structures for trend based analysis of time series clustering and classification

Legal Events

Date Code Title Description
A621 Written request for application examination

Effective date: 20040126

Free format text: JAPANESE INTERMEDIATE CODE: A621

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050527

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060516

A02 Decision of refusal

Effective date: 20060926

Free format text: JAPANESE INTERMEDIATE CODE: A02