JP2001344590A - ニューラルネットワーク及びその学習方法、解析方法並びに異常判定方法 - Google Patents

ニューラルネットワーク及びその学習方法、解析方法並びに異常判定方法

Info

Publication number
JP2001344590A
JP2001344590A JP2000166528A JP2000166528A JP2001344590A JP 2001344590 A JP2001344590 A JP 2001344590A JP 2000166528 A JP2000166528 A JP 2000166528A JP 2000166528 A JP2000166528 A JP 2000166528A JP 2001344590 A JP2001344590 A JP 2001344590A
Authority
JP
Japan
Prior art keywords
neural network
learning
intermediate layer
input
layer element
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000166528A
Other languages
English (en)
Inventor
Tatsuya Iizaka
達也 飯坂
Tetsuo Matsui
哲郎 松井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fuji Electric Co Ltd
Original Assignee
Fuji Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Electric Co Ltd filed Critical Fuji Electric Co Ltd
Priority to JP2000166528A priority Critical patent/JP2001344590A/ja
Publication of JP2001344590A publication Critical patent/JP2001344590A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

(57)【要約】 【課題】 従来のネットワークと互換性を有し、かつ内
部解析が容易なネットワークを提供する。また、その学
習方法、解析方法、異常判別方法を提供する。 【解決手段】 複数の入力層素子及び複数の中間層素子
を有する階層型構造のニューラルネットワークと、その
学習方法、解析方法、異常判別方法に関する。複数の入
力層素子のうちの一部に中間層素子が結合されてなる疎
結合部分12を設ける。疎結合部分12は、入力層素子
と中間層素子との間の結合を削除する(重みを0にす
る)ことにより生成される。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、ニューラルネット
ワークを用いた各種の制御、予測、診断に関する情報処
理分野において、ニューラルネットワーク自体の構造、
及びその学習方法、ニューラルネットワーク自体の解析
方法、解析結果に基づく異常判定方法に関するものであ
る。
【0002】
【従来の技術】周知のようにニューラルネットワークは
学習能力を持ち、非線形性、パターンマッチング性能に
優れており、制御、予測、診断等の多くの分野に用いら
れている。このニューラルネットワークとしては多くの
構造が提案されているが、実用化されたその多くは階層
型、特に3階層型のものがほとんどである。階層型のニ
ューラルネットワークは、通常バックプロパゲーション
法(誤差逆伝播法)と呼ばれるアルゴリズムにより学習
し、内部の結合状態が調整される。こうして学習したニ
ューラルネットワークは、学習データと同一の入力デー
タを与えると学習データとほぼ同一の出力をする。ま
た、学習データに近い入力を与えると学習データに近い
出力をする特徴がある。最小自乗法によって構築される
回帰式と比較すると、ニューラルネットワークは非線形
性に優れているが、内部構造が複雑で解析が困難なた
め、未知データに対してはどのような出力をするか分か
らない欠点がある。
【0003】従来のニューラルネットワークを解析する
方法としては、内部構造を直接解析する例として、代表
的な以下の3例がある。 「ニューラルネットワークの構造学習による規則性の
発見と汎化」:日本神経回路学会誌、Vol.1, No.2(199
4)がある。この方法は、忘却の概念によりニューラルネ
ットワークの不要な結合を削除し、必要な結合のみを残
す方法により、内部解析を行う方法である。パターン認
識の分野において、その有効性が示されている。 「ファジィニューラルネットワークの構成法と学習
法」:日本ファジィ学会誌、Vol.4, No5.(1992)では、
ファジィとニューロが融合した新しい構造のファジィニ
ューラルネットワークにより、内部解析を可能にしてい
る。 「ニューラルネットワークを用いたファジーIF-THEN
ルールの自動抽出」:電気学会論文誌C,Vol.110-C,N
o.3,(1990)は、分散ニューラルネットワークと言われる
特殊構造をもつニューラルネットワークよりファジィ規
則を抽出することで解析を行っている。
【0004】また、直接的な内部解析は行っていない
が、出力値の説明・信頼性の評価方法として、特開平
10−74188「データ学習装置およびプラント制御
装置」、特願平11−322130「ニューラルネッ
トワークの出力値の評価装置,評価方法及び記憶媒体」
がある。何れの方法も、予測・制御時の入力データに近
い値を学習データより検索して表示する方法である。
【0005】ニューラルネットワークの学習方法はバッ
クプロパゲーション法が一般的であるが、性能の点で問
題が指摘されている。すなわち、バックプロパゲーショ
ン法ではニューラルネットワークの階層数や素子数を事
前に決定する必要があるが、これらに関する情報が事前
に得られることはなく、ニューラルネットワークを最適
化するためには階層数や素子数を試行錯誤的に探索する
必要がある。特に、ニューラルネットワークの内部構造
が複雑な場合には、探索に時間と手間がかかる。また、
バックプロパゲーション法により得られた学習後のニュ
ーラルネットワークはブラックボックスとなり、中間層
素子の意味付けが困難な場合が多い。これらの問題点に
鑑み、特願平11−066165「ニューラルネット
ワークの最適化学習方法」や、特願2000−710
11「ニューラルネットワークの最適化学習方法」等、
不要な中間層素子や結合を削減する学習方法が近年提案
されている。これらの学習アルゴリズムを使用すると、
非常にコンパクトで性能の良いニューラルネットワーク
を構築することが可能である。
【0006】
【発明が解決しようとする課題】ニューラルネットワー
クはその学習能力、非線形能力、パターンマッチング性
能等、優れた能力のため多くの分野において利用されて
いるが、一般に内部構造が非線形かつ複雑なため、その
出力値がどうして出力されたかを理解し易く説明するこ
とが困難であった。前記,の従来技術は、対象状態
の入力データに近い学習データを検索して表示する方法
であるが、内部解析をしていないため学習データにない
未知の入力データに対しては説明不能である。
【0007】また、前記,,の従来技術では、内
部解析を行っているため、未知の入力状態に対してもど
のような出力が得られるかが分かる。しかし、の従来
技術はパターン認識のような離散的な問題では有効であ
るが、連続値を対象とする問題は扱えない欠点がある。
,の従来技術は、通常のニューラルネットワーク構
造とは完全に異なる特殊構造のニューラルネットワーク
を用いているので、汎用性に乏しい。特に、の従来技
術はその構造上、入力因子が多くなると指数関数的に学
習時間が増大し、またその能力も通常のニューラルネッ
トワークには及ばない。更に、の従来技術は、ニュー
ラルネットワーク構造が複雑であるばかりでなく、その
解析方法も難しく、また抽出したファジィ規則も単純で
はないという問題がある。そして、前記,の従来技
術は、コンパクトな構造が得られる利点があるが、構造
自体は従来のニューラルネットワークと同じであるの
で、内部解析を行うことは不可能である。
【0008】そこで本発明の解決課題は、通常の階層型
ニューラルネットワークと完全に互換性があってその内
部解析が容易である構造のニューラルネットワークと、
その学習方法、解析方法及び異常判定方法を提供しよう
とするものである。例えば、 y=ax1+bx2+cx12+d (x1,x2は入力変数、yは出力変数、a,b,c,d
は係数)として表されるような、従来技術の回帰式の場
合では、 出力の要因が明確である(x1,x2の要因により変化
することが明確である)、 各要因の働きが明確である(x1,x2の独立した成分
(回帰式の右辺第1項、第2項)とその相互作用の成分
(同第3項)から成り立つ)、 各要因の入出力に対する影響度合いが明確である(x
1,x2,x12の影響度合いは、a,b,cであり、固
定分としてdがある)、といった特徴があり、これらの
特徴によって内部解析が容易になっている。
【0009】従って、本発明は、このような回帰式の解
析の容易さを既存のニューラルネットワークによって実
現しようとするものであり、また、従来のニューラルネ
ットワークと互換性のある構造によって既存システムへ
の適用を容易にし、更にその性能も現状と同等であるニ
ューラルネットワーク及びその学習方法、解析方法等を
提供しようとするものである。
【0010】
【課題を解決するための手段】上記課題を解決するた
め、請求項1記載の発明は、複数の入力層素子及び複数
の中間層素子を有する階層型構造のニューラルネットワ
ークにおいて、複数の入力層素子のうちの一部に中間層
素子が結合されてなる疎結合部分を有することを特徴と
する。
【0011】請求項2記載の発明は、請求項1の全体に
記載したニューラルネットワークを学習するためのニュ
ーラルネットワークの学習方法において、入力層素子と
中間層素子との間の全ての重みを初期化する第1ステッ
プと、任意の入力層素子と中間層素子との間の結合を削
除する第2ステップと、学習誤差を評価するための評価
関数を用いてこの評価関数が小さくなるように入力層素
子と中間層素子との間の重みの修正量を算出する第3ス
テップと、任意の入力層素子と中間層素子との間の重み
の修正量を0にする第4ステップと、第3ステップ及び
第4ステップを経て得られた最終的な修正量を用いて入
力層素子と中間層素子との間の重みを修正する第5ステ
ップとを有し、学習誤差が規定値以下になるまで第3ス
テップ以下の処理を繰り返し実行するものである。
【0012】請求項3記載の発明は、請求項2の第3ス
テップにおいて、前記評価関数は、学習誤差を評価して
学習誤差を小さくするための項と、ニューラルネットワ
ークの構造を簡素化するために不要な中間層素子を削減
するための項とを併せ持つものである。
【0013】請求項4記載の発明は、請求項2または請
求項3において、第6ステップとして、中間層素子の中
の1個の素子の出力値系列を用いて求めた分散が規定値
以下である場合にこの素子をバイアス素子に融合し、中
間層素子の中の2個の素子の出力値系列を用いて求めた
相関係数が別の規定値以上である場合にこれら2個の中
間層素子を情報伝達的に同じ働きであるとして融合する
ことによりコンパクト構造化を行って中間層素子を削減
するステップを有するものである。
【0014】請求項5記載の発明は、請求項2における
第2ステップと第3ステップとの間に、中間層素子を並
べ替えることにより、疎結合部分を構成する中間層素子
と、複数の入力層素子の全てに中間層素子が結合されて
なる全結合部分を構成する中間層素子とを、それぞれ別
のグループにまとめる処理を行うステップを挿入すると
共に、請求項2における第3ステップにおいて、疎結合
部分を構成する中間層素子の結合を全結合部分を構成す
る中間層素子の結合よりも早く成長させるような評価関
数を用いて重みの修正量を算出するものである。
【0015】請求項6記載の発明は、請求項2における
第2ステップと第3ステップとの間に、中間層素子を並
べ替えて疎結合部分を構成する中間層素子を有する部分
ニューロと全結合部分を構成する中間層素子を有する部
分ニューロとを交互に配置するステップを挿入すると共
に、請求項2における第3ステップにおいて、任意の中
間層素子の結合を他の中間層素子の結合よりも早く成長
させるような評価関数を用いて重みの修正量を算出する
ものである。
【0016】請求項7記載の発明は、請求項2における
第3ステップにおいて、任意の中間層素子の結合を他の
中間層素子の結合よりも早く成長させる項と、ニューラ
ルネットワークの構造を簡素化するために不要な中間層
素子を削減するための項とを併せ持つ評価関数を用いて
重みの修正量を算出するものである。
【0017】請求項8記載の発明は、請求項5に記載し
た学習方法と請求項6に記載した学習方法とを交互に実
施するものである。
【0018】請求項9記載の発明は、請求項2〜8の何
れか1項に記載された学習方法により構築されたニュー
ラルネットワークを対象として、入力層素子、中間層素
子及び出力層素子の相互の結合状態から、線形性、非線
形性等の入力因子の出力への影響度合いを解析するもの
である。
【0019】請求項10記載の発明は、請求項1の全体
に記載されたニューラルネットワークを対象として、入
力層素子及び中間層素子の有効性を示す評価指標を用い
てニューラルネットワークの構造を解析するものであ
る。
【0020】請求項11記載の発明は、請求項1の全体
に記載されたニューラルネットワークを対象として、任
意の入力データを入力したときの、中間層素子から出力
層素子に伝達される情報量の大きさに基づいて入力因子
の出力への影響を解析するものである。
【0021】請求項12記載の発明は、請求項1の全体
に記載されたニューラルネットワークを対象として、任
意の入力データを入力したときの、中間層素子から出力
層素子に伝達される情報量と入力データとの相関関係に
基づいて入力因子の出力への影響を解析するものであ
る。
【0022】請求項13記載の発明は、請求項1の全体
に記載されたニューラルネットワークを対象として、任
意の入力データを入力したときの、中間層素子から出力
層素子に伝達される情報量と入力データとの相関関係に
基づいて、ニューラルネットワーク出力値の上下限値を
解析するものである。
【0023】請求項14記載の発明は、請求項9〜13
の何れかに記載された解析方法によりニューラルネット
ワークを解析し、異常判定用データベースと照らし合わ
せてニューラルネットワークの学習状態の良否を判定
し、その結果を出力するものである。
【0024】請求項15記載の発明は、請求項14に記
載した異常判定方法において、学習対象の現象が予め定
性的に判明しているときに、ニューラルネットワークの
素子間の結合状態に基づいてニューラルネットワークの
学習状態の良否を判定するものである。
【0025】請求項16記載の発明は、請求項14に記
載した異常判定方法において、学習対象の現象が定性的
に判明しているときに、ニューラルネットワークの内部
状態を示す数値指標として入力層素子及び中間層素子の
有効性を示す評価指標に基づいてニューラルネットワー
クの学習状態の良否を判定するものである。
【0026】請求項17記載の発明は、請求項14に記
載した異常判定方法において、学習対象の現象を表す数
式が存在するときに、その数式とニューラルネットワー
クの内部状態の相関係数とを比較して学習不良を判定す
るものである。
【0027】請求項18記載の発明は、請求項14に記
載した異常判定方法において、ニューラルネットワーク
の出力の上限値が学習データの上限値よりも小さいと
き、または、ニューラルネットワークの出力の下限値が
学習データの下限値よりも大きいときに学習不良を判定
するものである。
【0028】請求項19記載の発明は、請求項14〜1
8の何れかに記載された異常判定方法によりニューラル
ネットワークの学習不良が判明したときに、必要に応じ
て再学習を行うものである。
【0029】請求項20記載の発明は、請求項17の発
明において、学習不良である範囲を自動的に特定し、そ
の範囲の学習データを増加させて再学習させるものであ
る。
【0030】請求項21記載の発明は、請求項1の全体
に記載したニューラルネットワークを学習するためのニ
ューラルネットワークの学習方法において、入力層素子
と中間層素子との間の全ての重みを初期化する第1ステ
ップと、任意の入力層素子と中間層素子との間の結合を
削除して全結合部分を生成することなく疎結合部分の中
間層部分のみを生成する第2ステップと、学習誤差を評
価するための評価関数を用いてこの評価関数が小さくな
るように入力層素子と中間層素子との間の重みの修正量
を算出する第3ステップと、任意の入力層素子と中間層
素子との間の重みの修正量を0にする第4ステップと、
第3ステップ及び第4ステップを経て得られた最終的な
修正量を用いて入力層素子と中間層素子との間の重みを
修正する第5ステップと、学習誤差が規定値以下になっ
たときに学習終了と判断する第6ステップと、学習誤差
が規定値以上であるときに第3ステップ以下の処理を再
度実行するために中間層素子を追加する第7ステップと
を有するものである。
【0031】請求項22記載の発明は、請求項1〜8,
21のうちの何れか1項における第2ステップにおい
て、複数の入力因子を学習データの入出力関係に基づい
て複数のグループに分類し、それらのグループごとに疎
結合部分の中間層部分を生成するものである。
【0032】請求項23記載の発明は、請求項1〜8,
21のうちの何れか1項における第2ステップにおい
て、複数の入力因子を学習データの最大・最小・平均・
標準偏差等の統計指標に基づいて複数のグループに分類
し、それらのグループごとに疎結合部分の中間層部分を
生成するものである。
【0033】請求項24記載の発明は、請求項1〜8,
21のうちの何れか1項における第2ステップにおい
て、複数の入力因子を学習データの入力因子間の相関係
数に基づいて複数のグループに分類し、それらのグルー
プごとに疎結合部分の中間層部分を生成するものであ
る。
【0034】請求項25記載の発明は、請求項1〜8,
21のうちの何れか1項における第2ステップにおい
て、複数の入力因子を学習データの入力と出力との間の
相関係数に基づいて複数のグループに分類し、それらの
グループごとに疎結合部分の中間層部分を生成するもの
である。
【0035】
【発明の実施の形態】以下、本発明の実施形態を説明す
る。 (1)請求項1の発明の実施形態 まず、請求項1の発明の実施形態に係るニューラルネッ
トワーク構造を説明する。通常の階層型ニューラルネッ
トワークは、図2に示すように入力層素子と中間層素子
が全て結合している(全結合部分という)が、本発明の
階層型ニューラルネットワークは、図1に示すように任
意の入力層素子と任意の中間層素子間だけが結合してい
る。すなわち、この実施形態では、全ての入力層素子と
結合している中間層素子からなる全結合部分11と、一
部の入力層素子と結合している中間層素子からなる疎結
合部分12とからなっている。ここで、全結合部分11
は必ずしも必要ではなく、本発明では、複数の入力層素
子のうちの一部に中間層素子が結合されてなる疎結合部
分を有していれば足りる。このように、一部の入力層素
子との間の重み(重み係数または結合係数)の値を0に
した疎結合部分12を設けることで、従来の階層型ニュ
ーラルネットワークと完全な互換性を持つことができ
る。
【0036】次に、従来の階層型ニューラルネットワー
クとの互換性について述べる。具体的に、本発明のニュ
ーラルネットワークが従来のニューラルネットワークと
互換性があり、容易に既存システムに置き換え可能であ
ることを説明する。ニューラルネットワークの各重み
は、図3に示すような数値配列により表現される。各層
の素子の数と素子間の重みの値とにより、ニューラルネ
ットワークの内部構造や性質が決定される。従来のニュ
ーラルネットワークのデータベース構造の一例を、表1
に示す。このデータベースは、入力層、中間層、出力層
の素子の数と、各層の素子相互間の重みの大きさ
(w11,w12,……,v1,v2等)とからなる。
【0037】
【表1】
【0038】本実施形態のニューラルネットワークは、
このデータベースにおける入力層素子と中間層素子との
間の任意の重みwijを0にするだけで表現することが可
能であり、従来のニューラルネットワークと全く同じデ
ータベース構造を採用することが可能である。
【0039】次に、従来のニューラルネットワーク装置
(学習部分を除く予測・診断等の部分)を図4に示す。
簡単のために、図4では最小限の構成のみを示してい
る。この装置は、予測・診断等を行う機器や計算機であ
り、記憶装置(HDD、ROM、RAM、外部記憶装置
等)13に学習済みのニューラルネットワークのデータ
ベースが保存され、ニューラルネットワークの演算結果
を表示・伝送装置(ディスプレイ・プリンタ・スピーカ
・LAN・電話回線等)17に出力している。なお、1
4は入力データ読み込み部、15は重み読み込み部、1
6はニューロ(ニューラルネットワーク)算出部、18
は予測・診断等の結果を保存する保存部である。通常、
ニューラルネットワークのデータベースは他の計算機に
より再学習され、定期的に更新されることが多い。本発
明のニューラルネットワークは、現状のニューラルネッ
トワークとデータベースレベルで互換性があるので、装
置の改造の必要が全くない。
【0040】従来の階層型ニューラルネットワークは、
中間層素子が入力層素子と全結合していることから、中
間層部分で入力層からのデータ全てが混ざるため、入力
データと出力値との関係を解析することが困難であっ
た。しかし、本発明のニューラルネットワーク構造は疎
結合部分を有し、中間層部分において入力層からのデー
タを任意の入力因子ごとに分離しているため、解析が容
易である。入力因子の相互作用分のように分離不可能な
要素は、全結合部分がある場合にはその部分で処理する
ため、従来と同等の精度も保証することが可能である。
なお、本実施形態におけるニューラルネットワークの具
体的な解析手法については後述する。
【0041】(2)請求項2の発明の実施形態 請求項2の発明は、請求項1の発明に係るニューラルネ
ットワークの学習方法に関する。この発明の実施形態
を、図5のフローチャートを参照しつつ説明する。第1
ステップA1は、通常のニューラルネットワークの重み
初期化処理である。具体的には、図2の通常のニューラ
ルネットワークの各層の素子間の全ての重みに対して初
期値を小さい数の乱数で与える。ここで、プログラム的
に、入力層と中間層との間の任意の結合がないニューラ
ルネットワーク構造を定義してもよい。この場合は、以
下の第2,第4ステップの処理は不要である。
【0042】第2ステップA2は、重みを初期化したニ
ューラルネットワークに対し、請求項1の発明のニュー
ラルネットワーク構造に変更するための処理である。す
なわち、任意の入力層素子と中間層素子との間の結合を
削除する。ここで、結合を削除するための最も簡単な方
法は、任意の重みの値を0に置き換える方法である。
【0043】第3ステップA3は、通常のニューラルネ
ットワークの重み修正量の計算である。学習誤差を評価
する評価関数が小さくなるように、入力層素子と中間層
素子との間の重みの修正量を計算する。ここでの評価関
数の一例を以下の数式1に示す。勿論、後述する各請求
項の発明の実施形態のように他の評価関数を用いても良
い。
【0044】
【数1】J=1/2・(o−t)2
【0045】なお、数式1において、J:評価関数、
o:ニューロ出力、t:教師信号(学習目標値)であ
る。
【0046】第4ステップA4は、請求項1の発明のニ
ューラルネットワーク構造のための重み修正量の再修正
である。第3ステップA3の計算により、結合がない任
意の重みが再構築されることがある。それを防止するた
めに任意結合の重みの修正量を強制的に0にする。
【0047】第5ステップA5は、重みの修正処理であ
る。第3ステップ、第4ステップを経て計算された最終
的な修正量に従って入力層素子と中間層素子との間の重
みを修正する。重みの修正量を△wij、重みをwij、学
習係数をαとすると、数式2により重みを修正すること
ができる。
【0048】
【数2】wij=wij+α△wij
【0049】なお、第3ステップA3以降の処理は、学
習誤差が規定値以下になって学習終了が確認されるまで
繰り返し行われる(ステップA6)。ここで、学習終了
の判断は、評価関数や全学習データに対する誤差が規定
値以下になったかとき、もしくは、学習回数が所定回数
に達したか否かにより判断することができる。
【0050】(3)請求項3の発明の実施形態 請求項2の発明の実施形態で説明した数式1の評価関数
では、学習誤差を小さくすることはできるが、不要な結
合を含むことが多い。不要な結合はニューラルネットワ
ークの構造を複雑にし、その解析を困難にする大きな原
因となる。このため、請求項3の発明は請求項2の発明
の第3ステップA3を改良したものである。これによ
り、不要な結合を自動的に削除することが可能になる。
この実施形態で使用される評価関数は、数式3により表
される。
【0051】
【数3】Jf=(出力誤差を評価する項)+ε’(ニュ
ーラルネットワークの複雑さを評価する項)
【0052】具体的には、ニューラルネットワークの複
雑さを評価する項の相違により、以下の数式4〜数式7
がある。
【0053】
【数4】Jf=1/2・(o−t)2+ε’Σ|wij
【0054】
【数5】Jf=1/2・(o−t)2+ε’Σwij 2
【0055】
【数6】Jf=1/2・(o−t)2+ ε’(Σ|wij|+βΣ(全結合部分の重み)|wij|)
【0056】
【数7】Jf=1/2・(o−t)2+ε’(Σwij 2+βΣ
(全結合部分の重み)wij 2
【0057】ただし、Jf:忘却付き学習の評価関数、
ε’:忘却係数、wij:重み、β:係数である。ここ
で、ニューラルネットワークの忘却付き学習は、例えば
「ニューラルネットの忘却付き構造学習」(日本ファジ
ィ学会誌Vol.9,No.1,pp2-9(1997))等にその学習アルゴ
リズムが記載されている。この忘却付き学習アルゴリズ
ムは、出力誤差が小さく、かつ、各層間の不要な結合の
生成が抑制されたニューラルネットワークを構築するも
のである。前記数式3の評価関数では、出力誤差を評価
する項が0に近いほど学習目標値に近い出力をしている
ことになり、また、ニューラルネットワークの複雑さを
評価する項が小さいほどネットワークの構造が単純であ
ることを示す。この評価関数値は小さければ小さい程良
い。
【0058】前記数式6,数式7の評価関数では、全結
合部分の重みを多く加算しているので、全結合部分の成
長を抑制することが可能である。全結合部分は従来のニ
ューラルネットワークと同じ構造であるため解析困難な
部分である。解析のためには疎結合部分の成長が欠かせ
ない。このため、数式6,数式7の評価関数は、全結合
部分の成長が抑制されるため解析が容易な構造になり易
い特徴を持つ。また、数式4,数式5の出力誤差を評価
する項は何れもニューロ出力値から学習目標値を引いた
出力誤差の2乗であるが、ニューラルネットワークの複
雑さを評価する項は、数式4では重みの絶対値の和であ
り、数式5では重みの2乗和である。ネットワークの複
雑さを評価するために重みを用いる理由は、例えば重み
が0ならば結合はないことになり、結合が少ないほどネ
ットワークの構造が単純になるからである。例えば数式
4の評価関数を用いる場合、実際の重みの修正には次の
数式8を用いる。なお、数式8において、η:学習係数
である。
【0059】
【数8】
【0060】(4)請求項4の発明の実施形態 請求項4の発明は、請求項2、請求項3の学習方法にお
いて、第6ステップとして、有効に作用していない不要
な中間層素子をバイアス素子(入力層の入力値が変化し
ても出力値が変化せずに一定値を出力するバイアス素子
的な振る舞いをする中間層素子をいう)に融合し、ま
た、入力層の入力値の変化に対して同じ働きをする中間
層素子同士を融合することで、中間層素子を削減する学
習方法を提供するものである。請求項1の発明のニュー
ラルネットワーク構造は、内部解析を目的として疎結合
部分を設けたものである。しかし、不要な結合や中間層
素子がある場合には、適切に内部解析を行えない問題が
ある。請求項3の発明は、不要な部分を各層素子間の結
合単位で削除するが、請求項4の発明は中間層素子単位
で削除することが特徴である。また、学習中に中間層素
子が削減されるため、計算量も削減されて学習の高速化
にも効果的である。
【0061】中間層素子を削減するための手法として、
従来技術である図6のコンパクト構造化法(コンパクト
構造化法については、例えば増田達也ほかによる「隠れ
ユニットの合成による階層型ニューラルネットワークの
コンパクト構造化」(計測自動制御学会論文集Vol.28,N
o.4,pp.519-527(1992)を参照)をそのまま適用しても比
較的良好な結果が得られるが、図7に示すような処理を
行うことにより更に良好な結果が得られる。簡単のた
め、まず図6を最初に説明する。図6における初期化ステ
ップB1とは、図5における第1ステップA1、第2ス
テップA2に相当し、図6の学習処理ステップB2と
は、図5の第3ステップA3、第4ステップA4、第5
ステップA5に相当し、図6の学習終了を判断するステ
ップB9が図5のステップA6に相当する。また、図6
のコンパクト構造化部分の各ステップB4〜B8が、図
5に図示されていない本実施形態固有の第6ステップに
相当する。図6のステップB3においてコンパクト構造
化に移行する条件としては、例えば、学習回数が所定値
に達したことや学習誤差が減少しなくなったこと等があ
る。
【0062】コンパクト構造化部分において、まず最初
に各中間層素子出力の分散を算出する(ステップB
4)。分散とは、中間層素子の重要度や有効性を示す評
価指標にも使われる統計指標であり、例えば中間層素子
の出力値系列を用いて数式9により表される。
【0063】
【数9】
【0064】ステップB4で算出した複数の分散のうち
一つでも規定値以下のものがあれば、これを不要中間層
素子と見なしてバイアス素子に融合する(ステップB
5,B6)。全ての分散が規定値以下でないときには、
中間層素子の各相関係数を算出する(ステップB7)。
例えば、中間層素子が3つある場合には、素子1−素子
2、素子2−素子3、素子3−素子1の3通りの相関係
数を算出し、このうち相関係数が規定値以上である中間
層素子同士を、情報伝達的に同じ働きをする素子と見な
して融合する(ステップB8,B6)。ステップB8に
おける規定値は、相似度を示す−1〜+1の指標であ
り、±1に近いほど相関が高く、0に近いほど相関が低
いものとする。なお、相関係数は、二つの中間層素子の
出力値系列を用いて、例えば数式10によって表され
る。
【0065】
【数10】
【0066】複数の中間層素子の分散を算出して多数の
分散が規定値以下の場合、最も分散が小さい中間層素子
とバイアス素子とを融合させる。一度に融合可能な全て
の素子を融合させることも考えられるが、一度のコンパ
クト構造化に対し融合回数を1回に制限した方が良好な
学習結果が得られることが多い。また、相関係数の値が
規定値以上である中間層素子の組み合わせが多数ある場
合には、相関係数の値が最も大きい中間層素子同士の組
み合わせを融合させる。この場合も、融合回数を1回に
制限した方が良好な学習結果が得られることが多いため
である。ステップB9では、学習回数が所定値に達した
時点で学習終了と判断する。
【0067】次に、図7に基づいて本発明の実施形態を
説明する。基本的な考えは図6と同様であるが、過度の
融合を防止するための処理を有する点が特徴となってい
る。この実施形態では、ニューラルネットワークの学習
中は中間層素子同士の融合をある程度制限している。ニ
ューラルネットワークの中間層素子は、学習の進行に伴
って成長し、役割が分化する。学習初期段階において出
力値系列が同じような中間層素子(相関が高い)同士で
あっても学習の進行に伴い出力値系列が変化して相関が
低くなる可能性がある。そこで、学習中は融合をある程
度制限し、学習終了後に中間層素子の役割が十分明確に
なった時点で融合を促進するようにした。
【0068】まず、図7のステップC1〜C3,C7
は、図6のB1〜B3,B9と同様である。図7のステ
ップC3からジャンプしたコンパクト構造化1(学習中
のコンパクト構造化)の処理では、分散の小さい不要な
中間層素子とバイアス素子との融合は行うが、相関の高
い中間層素子同士の融合は禁止している。具体的には、
ステップC4で算出した分散が規定値以下の場合に中間
層素子とバイアス素子とを融合する(ステップC5,C
6)。特に、不要な中間層素子が2つ以上のときにのみ
バイアス素子と融合し、常に不要な中間層素子を1つ以
上残す処理を加えれば、過融合を効果的に防ぐことがで
きる。
【0069】学習終了後のコンパクト構造化2の処理で
は、分散の小さい不要な中間層素子とバイアス素子との
融合(ステップC9のYes分岐,C10,C13,C1
4)と、相関の高い中間層素子同士の融合(ステップC
9のNo分岐,C11,C12,C10,C13,C1
4)との両方を行う。また、分散が規定値以下または相
関係数が規定値以上の場合にはニューラルネットワーク
の各層の素子間の重みを記憶することによってニューラ
ルネットワークを保存し(ステップC10)、学習誤差
を算出してから中間層素子の融合を行う(ステップC1
3,C14)。なお、学習誤差の算出は、保存したニュ
ーラルネットワークを用いて実際の出力であるニューラ
ルネットワーク出力値と学習目標値との誤差を検出す
る。その後、学習誤差を再度算出し(ステップC1
5)、その誤差を融合前の誤差と比較して悪化するか否
かを判断する(ステップC16)。学習誤差が悪化する
ときには融合を禁止し、ステップC17により融合前の
ニューラルネットワークを復元する(各層の素子間の重
みを融合前の値に戻す)。
【0070】このように、コンパクト構造化2では、融
合した後の学習誤差が融合前よりも悪化する場合には融
合前のニューラルネットワークを復元し、学習誤差が改
善される場合にのみ融合を実施することにより、コンパ
クト構造化における過融合を防止している。本実施形態
において、融合のためのしきい値(分散や相関係数と比
較する規定値)を中間層素子ごとに変化させてもよい。
例えば、疎結合につながる中間層素子のしきい値を厳し
くして融合を抑制し、全結合につながる中間層素子のし
きい値を緩くして融合を促進することにより、全結合部
分を小さくすることが可能である。
【0071】(5)請求項5の発明の実施形態 請求項3、請求項4のアルゴリズムにより、学習中に生
じた不要な中間層素子や不要な結合を削除することが可
能であるが、基本的には疎結合部分と全結合部分との成
長速度に差がないため、疎結合部分の学習が速やかに行
われず、疎結合部分が充分に成長しない可能性がある。
もし、疎結合部分が少なく全結合部分が多い場合には、
従来のニューラルネットワークと同様に解析が困難であ
る。そこで、この実施形態では疎結合部分の学習を加速
して成長を促進するような評価関数を導入する。
【0072】図8は、本実施形態の処理を示すフローチ
ャートである。請求項2の発明の実施形態である図5と
比較すると、第2−1ステップとして中間層素子の並び
替えステップD3が追加されたことと、第3ステップD
4の修正量算出のための評価関数が変更されたことに特
徴がある。
【0073】本実施形態の中間層素子の並び替えステッ
プD3では、任意の結合を削除して形成された図2に示
すニューラルネットワークを並び替え、図9のように疎
結合部分12をひとまとめにして部分ニューロ1(グル
ープ1)と定義し、疎結合部分12と全結合部分11を
含む全体を部分ニューロ2(グループ2)と定義する。
図2のケースでは、疎結合部分12が左側にまとまって
いるため、図9では並び替えが行われていないが、一般
的には疎結合部分を並び替えてひとまとめにし、部分ニ
ューロ1,2を定義する必要がある。
【0074】次に、第3ステップD4において使用する
評価関数を説明する。上述した部分ニューロ1の出力を
1,部分ニューロ2の出力(通常のニューロ出力)を
2、教師信号(学習目標値)をtとすると、部分ニュ
ーロ1,2の評価関数J1,J2を数式11とする。
【0075】
【数11】J1=1/2・(O1−t)2, J2=1/2・(O2−t)2 (通常の評価関数)
【0076】実際の評価関数は、2つの評価関数J1
2をまとめて数式12のようになる。
【0077】
【数12】J=γ11+γ22
【0078】数式12の評価関数Jは重畳エネルギー関
数と呼ばれており、「重畳エネルギー関数による多層パ
ーセプトロンの冗長性削減」(電子情報通信学会論文誌
D-II,Vol.J80-D-II,No.9,pp.2532-2540 1997年9月)等
に詳しく説明されている。なお、数式12における
γ1,γ2は、部分ニューロ1,2の評価関数J1,J
2(部分エネルギー関数)の重みを示す。この重畳エネ
ルギー関数が最小になるとき、不要な分散表現が抑制さ
れ、かつ中間層素子の重要度順に並んだニューラルネッ
トワークを得ることができる。また、重畳エネルギー関
数では、中間層素子のうち上位側(図9における左側)
の素子に関する結合ほど、少ない素子数で学習目標値を
生成するように学習が進行する特徴がある。
【0079】上記分散表現とは、一つでも足りる結合が
複数の結合に分散されること、つまり、その結果多くの
結合が必要になることを示し、不要な分散表現が多い場
合にはそれだけ結合も多く、ニューラルネットワーク構
造は複雑化、冗長化する。数式12の評価関数Jにおい
て、J2は全結合部分11及び疎結合部分12を含む通
常の評価関数であるが、J1は疎結合部分12の評価関
数である。疎結合部分12はJ1,J2両方に関わってい
るため、この疎結合部分12の誤差を早く減少させよう
として学習(評価関数Jを用いた重み修正量の計算)が
加速される。これにより、分散表現の発生が抑制されて
ニューラルネットワーク構造の簡素化が可能になる。
【0080】(6)請求項6の発明の実施形態 請求項6の発明は、請求項5の発明を改良したものであ
る。上述した請求項5の発明では、疎結合部分12の中
間層素子同士は互いに同じ速度で学習が進んで成長し、
全結合部分11の中間層素子同士も互いに同じ速度で学
習が進んで成長する。同じ速度で成長した場合には、1
つの結合が複数の中間層素子に分散して記憶され、中間
層素子が多く必要になることがある。このような場合
は、中間層素子の重度は低下するが不要と判断するほど
低下はしないので、請求項3、4の発明をもってしても
中間層素子を削除できないことがある。つまり請求項5
の発明は、疎結合部分12と全結合部分11とで比較す
ると疎結合部分の成長が早いが、疎結合部分12の中間
層素子同士、全結合部分11の中間層素子同士では成長
の差がないので、充分に中間層素子を削減できない可能
性がある。
【0081】請求項6の発明の実施形態を説明する。請
求項6の発明の実施形態では、請求項5の発明の実施形
態における中間層素子の並び替えステップD3及び第3
ステップD4を改良する。中間層素子の並び替えステッ
プでは、図10に示すように疎結合部分の中間層素子と
全結合部分の中間層素子とを交互に配置してH個の部分
ニューロ(図10の例ではH=6)を定義する。そし
て、改良された第3ステップでは、数式13のようなH
個の部分ニューロの評価関数の和を評価関数(重畳エネ
ルギー関数)として使用し、重みの修正量を算出する。
数式13において、γiは、部分ニューロの評価関数Ji
の重みを示す。
【0082】
【数13】
【0083】図10のニューラルネットワークは、部分
ニューロ1における結合が最も早く成長し、部分ニュー
ロ6における結合は相対的に成長が抑制される。このこ
とは、重畳エネルギー関数においては、中間層素子のう
ち上位側(図10における左側)の素子に関する結合ほ
ど、少ない素子数で学習目標値を生成するように学習が
進行して成長するという特徴による。つまり、本実施形
態では、疎結合部分の中間層素子間でも成長速度が異な
るし、疎結合部分の中間層素子と全結合部分の中間層素
子との間でも成長速度が異なる。このように、各部分ニ
ューロにおける成長速度に差をつけることで、中間層素
子の要・不要の判定を容易に行うことができ、不要な中
間層素子の削除も迅速に行われる。
【0084】(7)請求項7の発明の実施形態 請求項7の発明は、請求項5、請求項6の発明の評価関
数の改良に関するものである。請求項5,6の発明は、
学習過程において中間層素子ごとに成長速度(学習速
度)に差を付けるような評価関数を用いて重みの修正量
を算出することにより不要な中間層素子を抑制する方法
である。つまり、中間層素子ごとに作用する。一方、請
求項2または請求項3の発明は、評価関数により計算し
た修正量を用いて重みを修正するものであり、いわば個
別の重みごとに作用する。これらの両者を融合させるこ
とで、不要な中間層素子や結合が非常に少ないニューラ
ルネットワークを構築することができ、解析の容易化に
寄与することができる。
【0085】本発明の実施形態における評価関数は、以
下のように2つの要素より成り立つ。 評価関数=成長速度に差を付ける評価関数+不要な中間
層素子を抑制する評価関数 具体的な評価関数は、数式14によって表される。
【0086】
【数14】
【0087】数式14の右辺第1項は数式13と同一で
あり、数式12とも実質的に同一である。すなわち、こ
の第1項によって一部の中間層素子の成長を促す働きが
ある。 また、数式14の右辺第2項は、請求項3の発
明の実施形態で説明した数式4〜数式7の何れを使用し
ても良い。特に、数式6または数式7の何れかを適用す
れば、前述のように全結合部分の生成を抑制できるた
め、疎結合部分の成長が相対的に早くなり、解析容易な
ニューラルネットワーク構造となる。
【0088】(8)請求項8の発明の実施形態 請求項8の発明は、請求項5,6の発明の学習方法を交
互に複数回実施する方法である。請求項6の方法による
学習は、疎結合部分、全結合部分の中間層素子が交互に
並んでいるため、全結合部分の中間層素子が全く必要と
しない問題に対しても、全結合部分が構築される可能性
がある。よって、請求項8の発明では、請求項6の発明
による学習後に請求項5の発明で再学習することで、不
必要に生じた全結合部分の中間層素子を抑制する。ま
た、この処理を複数回繰り返すことにより、一層最適な
構造に近づけることができる。勿論、請求項2や請求項
4の発明を組み合わせることで、更に解析容易な構造が
得られるのは言うまでもない。
【0089】図11は、本発明の実施形態による学習と
それにより構築されるニューラルネットワーク構造の変
化を示す概念図である。なお、このニューラルネットワ
ークは、一例として電力需要量を予測するためのもので
あり、入力層には電力、気象、特異日等のデータが入力
されている。
【0090】図11の(a)段階は学習開始前のニュー
ラルネットワーク構造であり、各サブネットワークごと
に2つの中間層素子(合計8個)を有している。このう
ち、中間層素子1〜6は疎結合部分、中間層素子7,8
は全結合部分(相互作用分)を構成している。(b)は
請求項6の発明の実施形態による学習(学習段階1)で
あり、疎結合部分、全結合部分の中間層素子が交互に配
置されている。また、部分ニューロは4個形成される。
(c)は請求項5の発明の実施形態による学習(学習段
階2)である。(b)の学習を経ているため、成長によ
っていくつかの中間層素子が削減されている(請求項
3、4の発明の実施形態を付加していた場合)。(c)
では部分ニューロは2個となっており、疎結合部分が部
分ニューロ1を、疎結合部分及び全結合部分が部分ニュ
ーロ2を構成している。
【0091】請求項8の発明では、少なくとも上記
(b),(c)の学習を交互に繰り返して行うことによ
り、不要な中間層素子を削減することが可能である。特
に、(b),(c)の学習を複数回、交互に繰り返すと
一層効果的である。なお、(d)は、通常の重畳エネル
ギー関数法による学習を(c)の後に行った結果であ
り、このように他の学習アルゴリズムと組み合わせても
良い。(e)は、学習終了後に構築されるニューラルネ
ットワーク構造である。当初の構造に比べて中間層素子
が大幅に削減され、必要な中間層素子、重み結合のみに
よってネットワークが構築されている。
【0092】(9)請求項9の発明の実施形態 次に、請求項9の発明による解析方法を説明する。この
発明は、請求項2〜8,21〜25の何れか1項に記載
された方法により充分に学習をし、不要な中間層素子や
結合が削除されたニューラルネットワークを対象とし
て、その素子間の結合状態(入力層素子から出力層素子
に至る経路等)から内部状態を解析する手法である。典
型的なパターンを表2に示す。
【0093】
【表2】
【0094】表2に示すように、例えば入力層から出力
層までに結合が1経路しか存在しない場合には、一元一
次関数で示されるように入出力関係が線形である可能性
が高く、また、複数経路を持つ場合には、一元二次関数
で示されるように入出力関係が非線形である可能性が高
い。更に、中間層素子に複数の入力層素子との結合が存
在する場合には、二元二次関数のように入力因子の相互
作用を有する非線形である可能性が高い。このように、
請求項2〜8,21〜25の何れか1項に記載された方
法により学習されたニューラルネットワークを対象とし
て、素子間の結合状態により線形性、非線形性といっ
た、入力因子(入力層素子及びこの素子に入力されるデ
ータを総称した概念である)の出力への影響度合いを大
まかに解析することができる。
【0095】(10)請求項10記載の発明の実施形態 請求項10の発明は、入力層素子・中間層素子の評価指
標からニューラルネットワーク構造を解析する方法であ
る。解析の対象となるのは請求項1の発明によるニュー
ラルネットワークであり、疎結合部分を有するニューラ
ルネットワークである。ここで、評価指標は、goodness
factor, effectiveness factor, 分散、逆写像の4種
類である。以下、これら4つの評価指標を概説するが、
評価指標そのものは本発明の趣旨ではない。表3に評価
指標を用いた解析例を示す。単独または複数の評価指標
により入力層素子、中間層素子を評価することで、ニュ
−ラルネットワ−クの内部構造を解析することができ
る。
【0096】
【表3】
【0097】(1)goodness factor(入力層素子、中
間層素子について使用) 入力信号を利用する方法である。これは、中間層素子か
ら出力層素子へ出力される入力信号の総和であり、中間
層素子の有効度を表す指標である。この値が小さいほど
出力層素子への影響が少ないため、「不良」素子とみな
される。
【0098】(2)effectiveness factor(入力層素
子、中間層素子について使用) 重みを利用する方法である。effectiveness factorは中
間層素子に結合している全ての重みの二乗和で表され
る。これは、ニュ−ラルネットワ−ク収束時において、
素子に結合している全ての重みが小さければその素子の
有効度は低く、「不良」素子であるという考え方であ
る。この方法は、基本的に重みだけで判断が可能なた
め、前述のgoodness factorのように誤差や出力の計算
が不要であり、計算量が少ないという特徴がある。
【0099】(3)分散(中間層について使用) 中間層素子の活性度合いを利用する方法である。不要素
子は、入力パターンが変化しても出力が変化しないとい
う考え方である。複数の検査用パターンを入力して、中
間層素子の出力の分散が大きいもの(出力の変化が大き
いもの)を有効素子、分散が小さいものを不要素子とす
る。
【0100】(4)逆写像(入力層について使用) シグモイド関数を無視し、ニューロ内部構造を線形近似
する手法である。入力層から出力層へ至る重みを積和す
ることで、感度の近似値を求める。この指標は、effect
iveness factor同様に計算量が少ない利点がある。
【0101】図12は上記各種の評価指標を説明するた
めの図であり、入力層素子がI個、中間層素子がJ個、
出力層素子がK個の場合を示している。同図には、各評
価指標であるgoodness factor, effectiveness factor,
分散、逆写像の計算式もそれぞれ併記してある。ま
た、前記表3の解析例において、表3の上段に示すよう
に入力層素子x1,x2の各指標の大きさが全て同程度で
ある場合や、表3の中段に示すように特定の入力層素子
に結合される中間層素子の各指標の大きさが同程度であ
る場合には、入力層素子は対象構造である可能性が大き
いと判断できる。更に、表3の下段に示すごとく、入力
層素子の各指標の大きさに違いがある場合には、入出力
関係を示す関数の係数の大きさに違いがあると判断する
ことができる。
【0102】(11)請求項11の発明の実施形態 この発明は、任意のデータを入力したときの、中間層素
子から出力層素子に伝達される情報量から入力因子の出
力への影響を解析する方法である。なお、この発明の実
施形態も、請求項1の発明によるニューラルネットワー
クを対象としている。以下、この発明の概念を説明す
る。図13において、中間層から出力層に伝達される情
報は中間層出力Oと重みvとの積和である。つまり、こ
の情報は数式15によって表される。
【0103】
【数15】
【0104】ここで、|vii|が最も大きい値を出力
する中間層素子は、出力への影響が最も強く、更にその
中間層素子に結合されている入力因子の影響も強いと言
える。例えば、図13において、中間層素子1による|
11|が最も大きい場合には、入力1の影響が強く、
中間層素子2による|v22|が最も大きい場合には入
力1,入力2の相互作用分が強いと言える。このため本
発明の実施形態では、各中間層素子から出力層素子に伝
達される情報量の大きさを検出することで中間層素子、
出力層素子及び入力層素子の間の結合の強さを知ること
ができ、ニューラルネットワークにおける入力因子の出
力への影響を解析することができる。
【0105】(12)請求項12の発明の実施形態 請求項12の発明は、任意のデータを入力したときの、
入力データと中間層素子から出力層素子へ伝達される情
報との相関関係から、入力因子の出力への影響を解析す
る方法である。この発明も、請求項1記載のニューラル
ネットワークを対象とする。以下、本発明の概念を説明
する。図13のニューラルネットワークに、(入力1,
入力2)=(0,0)〜(1,1)の0.2刻みの複数
のデータを入力し、そのときに出力層素子へ伝達される
情報量が図14のようになったとする。すなわち、中間
層素子1については情報量が次第に増加し、中間層素子
2についてはほぼ一定であり、中間層素子3については
次第に減少していくとする。これから、以下のことが分
かる。
【0106】中間層素子1は正の相関、つまり、入力
1は出力に対し正の相関がある。 中間層素子2は出力にほとんど影響を与えない。つま
り、中間層素子2に結合している入力1、入力2の相互
作用はほとんどない。 中間層素子3は、負の相関、つまり、入力2は出力に
対し負の相関がある。また、以上の〜より、が導
かれる。 出力を大きくするためには、入力1に大きな値を入力
し、入力2に小さな値を入力すればよい。 以上のように、入力値に対する中間層素子の挙動(それ
ぞれの中間層素子から出力層へ伝達される情報量)を検
出することにより、未知データ(学習していないx1
2のパターン)に対しても、各入力因子や中間層素子
の働きが判っているために出力値を容易に推定すること
ができる。
【0107】(13)請求項13記載の発明の実施形態 次に、請求項13記載の発明の実施形態を説明する。請
求項1の発明に係るニューラルネットワークは、その内
部に数式16で示されるシグモイド関数を使用してい
る。
【0108】
【数16】y=1/{1+exp(−x)}
【0109】シグモイド関数の出力範囲は0〜1である
ため、実際に使用するときには、0〜1や0.1〜0.
9の値に正規化して用いることが多い。例えば、気温を
予測するニューラルネットワークでは、−20〜+50
℃を0〜1にし、株価を予測するニューラルネットワー
クでは、1日の変動幅として−2000〜+2000円
を0〜1にする。しかし、学習により構築したニューラ
ルネットワークが期待通りの範囲の値を出力する保証は
なく、狭い範囲の値しか出力しないことも多い。そこで
本発明は、ニューラルネットワーク出力の実際の上下限
値を解析する方法に関する。
【0110】その手順は、請求項12の発明の実施形態
と同様に、図14に示すような、入力データと中間層素
子から出力層素子へ伝達される情報量との関係を調べ
る。図14の例において、出力層素子へ伝達される情報
量を最小にするためには、中間層素子1(入力因子は入
力1のみ)に結合された入力1の入力を0にし、中間層
素子3(入力因子は入力2のみ)に結合された入力2の
入力を1にすれば良いことが分かる。つまり、このニュ
ーラルネットワーク出力の下限値は、(入力1,入力
2)=(0,1)を入力したときに得られる。ちなみ
に、このニューラルネットワーク出力の上限値は、(入
力1,入力2)=(1,0)を入力したときに得られる
ことになる。
【0111】(14)請求項14記載の発明の実施形態 請求項14の発明は、請求項9〜12の発明によりニュ
ーラルネットワークを解析した結果、ニューラルネット
ワークが不合理な学習状態に陥ったことを判定するため
の異常判定方法に関する。また、これに付随する解析・
診断システムも開示している。ニューラルネットワーク
の学習対象がある程度既知である場合には、請求項9〜
12の解析方法によりニューラルネットワークの学習状
態の良否を判定することができる。例えば、ニューラル
ネットワークによってダム流入量を予測する場合、ダム
流入量は上流流量差分(上流流量の時間差分)との相関
が非常に高く、以下の例によって学習不良と判断するこ
とが可能である。 上流流量との結合が構築されなかった場合 既存の予測式と内部解析結果との相違が大きい(流量
が増加しているのに、流入量が減っているなど)
【0112】図15を参照しつつ、本発明の実施形態を
説明する。 (1)学習済みニューロ読み込み(ステップE1) 請求項1のニューラルネットワーク構造のニューロを読
み込む。ニューロを読み込むとは、その重みや素子数の
定義を読み込むことである。 (2)異常判定用DB読み込み(ステップE2) 学習不良を判定するためのDBを読み込む。異常を判定
するための基準は、各現象ごとに異なる。例えば、ダム
流入量予測では、上述の判定項目,が考えられる。
具体的な異常判定基準については後述する。 (3)ニューロ解析・診断(ステップE3) ニューラルネットワークを請求項9〜12の何れかの発
明により解析する。そして、先に読み込んだ異常判定用
DBと照合して学習状態を診断する。具体的な異常判定
方法については後述する。 (4)診断結果表示(ステップE4) 解析・診断の結果を表示し、必要に応じて警告音を発生
したり外部へ伝送する。
【0113】次に、本発明を実現する解析・診断システ
ムを図16に示す。図16において、記憶装置21と
は、FDD,HDD,MO,RAM,ROM等の内部記
憶装置と外部記憶装置を総称したものである。記憶装置
21には、ニューラルネットワークの重み、異常判定用
DBが保存されている。また、学習状態の診断結果も記
憶装置21に保存される。ニューロ読み込みモジュール
22、異常判定用DB読み込みモジュール23、解析・
診断モジュール24の作用は、図15のフローチャート
で説明した通りである。解析・診断の結果は、運用者に
知らせるためにCRT、プリンタ等の表示装置26に表
示(または印刷)される。この表示装置26を持たない
装置では、異常時にブザー25により警告したり、LA
N・電話回線27を介して他の計算機等へ伝送すること
も可能である。
【0114】(15)請求項15の発明の実施形態 請求項15の発明は、上述した請求項14の異常判定方
法において、学習対象の現象が定性的に判明していると
きに、ニューラルネットワークの結合状態から異常判定
を行う方法である。例えば、ダム流入量予測では、上述
のように上流流量差分の影響が大きいことが定性的に判
明している。つまり、入力因子としての上流流量差分に
つながる結合の重みが他の結合の重みと比較して一定値
以下ならば異常(学習不良)と判定する方法である。こ
こで、上流流量差分につながる結合とは、入力層素子
(上流流量差分の入力)と中間層素子との結合や、中間
層素子(上流流量に関係する疎結合の中間層素子)と出
力層素子との結合のことをいう。
【0115】上記異常判定を実現する具体的な方法とし
ては、異常判定データベースに、例えば上流流量差分に
つながる結合の重みが一定値以下の場合、もしくは他の
結合の重みより一定値未満(他の重み平均の80%未満
等)の場合を異常と判定するように登録する。
【0116】(16)請求項16の発明の実施形態 請求項16の発明は、請求項14の発明の異常判定方法
において、ニューラルネットワークの内部状態を示す数
値指標から異常判定を行う方法である。請求項15との
違いは、請求項15の発明は重み自体を対象として異常
判定データベースにより判定するのに対し、請求項16
の発明では、請求項10で説明した、goodness factor,
effectiveness factor, 分散、逆写像等の、入力層素
子、中間層素子の有効性を示す各種評価指標を用いて異
常判定を行う点である。
【0117】例えば、ダム流入量予測で異常と判定する
基準は以下の通りであり、この一部もしくは複数が成立
するときに、異常と判断する。 上流流量差分に関するgoodness factorが他より低い 上流流量差分に関するeffectiveness factorが他より
低い 上流流量差分に関する分散が他より低い 上流流量差分に関する逆写像の正負が逆(負のときに
異常)
【0118】(17)請求項17の発明の実施形態 請求項17の発明は、請求項14の発明の異常判定方法
において、学習対象の現象を表す数式が存在するとき
に、その数式とニューラルネットワークの内部状態との
相関係数が一定値以下の場合には、学習不良による不合
理な状態と判断して異常判定を行うものである。
【0119】例えば、上述ダム流入量予測では、上流流
量差分は出力に対して線形の関係であるとする。そのと
き、上流流量差分に関する中間層素子出力が非線形を示
す場合には学習不良による異常と判断する。それ以外の
例として、翌日電力需要量予測において、気温と電力需
要量とは2次の関係があることが判明している。従っ
て、気温に関する中間層素子の出力が2次でないときに
は、学習不良による異常と判断する。この実施形態にお
ける具体的な異常判定には、相関係数を用いる。相関係
数とは、−1〜1の範囲で出力される統計指標であり、
運用者が予め異常判定データベースに設定した数式と、
判定対象であるニューラルネットワークの出力の関係式
との間の相関係数が一定値未満ならば、学習不良による
異常と判定すればよい。
【0120】(18)請求項18の発明の実施形態 請求項18の発明は、請求項14の発明の異常判定方法
において、ニューラルネットワークの出力の上限値が学
習データの上限値よりも小さいとき、または、ニューラ
ルネットワークの出力の下限値が学習データの下限値よ
りも大きいときに、学習不良による異常と判定する方法
である。
【0121】ニューラルネットワークは任意のデータを
学習することで、学習データ通りに作用する内部構造を
獲得する。しかし、学習不良時には、期待通りに作用し
ないこともある。学習不良の典型例は、上下限値の飽和
である。実験データや自然現象から学習データを構築す
る場合には、その限界値(上下限値)のデータが不足す
ることが多い。例えば、気温を予測するニューラルネッ
トワークでは、10〜20℃のデータは豊富に用意する
ことが可能であるが、40℃近辺のデータは少ないの
で、40℃近辺の学習不良が起こりやすい。通常、ニュ
ーラルネットワークには数十の入力因子があり、全ての
入力パターンをテストすることは困難である。本発明で
は、請求項13により解析したニューラルネットワーク
出力の上下限値が学習データの上下限値、もしくは期待
した上下限値よりも狭い範囲であった場合には、学習不
良と判断して異常判定を行う。
【0122】(19)請求項19の発明の実施形態 請求項19の発明は、ニューラルネットワークが学習不
良であることが前述の請求項14〜18の発明等により
判明したときに、自動的に再学習する方法に関する。こ
の実施形態の処理を図17に示す。図17において、学
習(ステップF2)、解析・診断処理(ステップF3)
は、上述の各発明によって実現される。解析・診断によ
り学習したニューラルネットワークが異常(学習不良)
と判定されたとき(ステップF4)には、初期化(ステ
ップF1)を経て、再度学習を実施する。初期化(ステ
ップF1)では、学習条件、ニューラルネットワークの
構造等の各種情報をニューラルネットワークに入力する
が、通常は、前回の学習時と条件を変える。なお、初期
化処理は省略することもできる。
【0123】(20)請求項20の発明の実施形態 請求項20の発明は、請求項17の発明において、学習
状態の悪い範囲を自動的に特定し、その範囲の学習デー
タを増加させて再学習させる方法に関する。例えば、一
般に上流流量差分と出力との間には線形の関係があると
言われているが、後述する図27では非線形であり、入
力データが0.8以上または0.2未満は飽和してい
る。つまり、入力データが0.8以上と0.2未満は学
習状態の悪い範囲である。
【0124】通常、ニューラルネットワークの学習不良
は、このようにある一定値以上または一定値以下におい
て飽和する状態を示すことが多いため、飽和領域を検索
することで容易に学習不良範囲を特定することが可能で
ある。学習不良の原因は、その範囲の学習データが極度
に不足していることが多い。従って、学習不良である範
囲の学習データを増加させて再度学習させることで、良
好な学習状態とすることができる。
【0125】〔実施例〕以下、請求項1〜請求項20に
係る発明の実施例を説明する。第1実施例は、主として
請求項14,4,8の発明に係るものである。ここで
は、簡単のために数式17に示す2入力1出力の関数を
学習させた。なお、x1,x2の符号は、入力層素子と入
力データの両方の意味を持つものとする。
【0126】
【数17】y=x1+x2+x12 (x1,x2={0.0〜1.0})
【0127】学習のアルゴリズムは、図11に示したよ
うに3段階の学習を行う方法であり、請求項3,4の中
間層素子の融合学習方法、不要中間層素子を抑制する評
価関数も組み合わせて使用している。第1段階、第2段
階、第3段階で使用した各評価関数を数式18、数式1
9、数式20にそれぞれ示す。なお、これらの数式にお
いて、γiは部分ニューロの評価関数の重み、ε’は忘
却係数、wは結合の重みである。
【0128】
【数18】
【0129】
【数19】
【0130】
【数20】
【0131】このニューラルネットワークの学習誤差を
表4に示す。表4によれば、誤差が極めて小さく、良好
に学習できていることがわかる。
【0132】
【表4】
【0133】図18(a)は、このニューラルネットワ
ークの学習に使用した学習データx 1,x2,yを示し、
図18(b)は学習結果を示している。また、図19は
学習前のニューラルネットワークの構造であり、2個の
入力層素子と、9個の中間層素子と、1個の出力層素子
とからなっている。そして、入力層素子と中間層素子と
の結合関係では、入力層素子x1とのみ結合している3
個の中間層素子を含む疎結合部分12A及び入力層素子
2とのみ結合している3個の中間層素子を含む疎結合
部分12Bと、全ての入力層素子x1,x2と結合してい
る3個の中間層素子を含む全結合部分11とから構成さ
れている。
【0134】第2実施例として、第1実施例により学習
したニューラルネットワークの内部構造を解析する。こ
の実施例は、主として請求項9〜11,15,16の発
明に関するものである。図20において、左から1番目
の中間層素子1はx1にのみ結合しており、疎結合部分
を構成している。この経路の情報はx1にのみ影響され
るので、学習対象の関数には、x1だけの項が存在する
ことを示唆している。同様に、左から2番目の中間層素
子2はx2にのみ結合しており、疎結合部分を構成して
いる。この経路の情報はx2にのみ影響されるので、学
習対象の関数には、x2だけの項が存在することも示唆
している。これらのことは、ニューラルネットワークの
素子の結合状態から線形性等を判断する請求項9の発明
によって解析される。なお、図20では、入力層、中間
層、出力層の各層の素子間の結合の重みを実線の太さで
示してあり、細線が0.1〜1.0、太線が1.0〜10
である。
【0135】次に、図20のニューラルネットワークに
ついて、4個の中間層素子の評価指標を算出すると、表
5のようになった。また、2個の入力層素子(入力因子)
の評価指標は表6のようになった。
【0136】
【表5】
【0137】
【表6】
【0138】表5によれば、1番目と2番目の中間層素
子1,2のeffectiveness factor,goodness factor ,
分散は同程度であるので、請求項10の発明を適用する
ことにより、出力に対するx1,x2の性質やその寄与度
が同じ可能性が高いと判断される。また、3番目、4番
目の中間層素子3,4は入力層素子x1,x2の両方に結
合していて全結合部分を構成しており、請求項9の発明
によれば、これら入力層素子x1,x2の相互作用もしく
はx1,x2の非線形成分の存在が予想される。実際に、
数式17の対象関数は、x1,x2の独立した項とx1
2の相互作用の項(第3項)とを有し、また、x1,x
2は第3項において非線形結合している。更に、表6に
よれば、入力層素子x1,x2に関してもeffectiveness
factor,goodness factor ,分散は同程度であることが
わかる。
【0139】図20に示すニューラルネットワークの入
力層素子に代表的な値を入力したときの中間層素子(疎
結合の中間層素子1,2、全結合の中間層素子3,4及
びバイアス素子)の出力を、表7に示す。表7によれ
ば、入力データに0を入れた場合でも出力が0にならな
い中間層素子があることが判る。従って、解析時には、
各中間層出力の下限値を調べ、対象関数のy=x1+x2
+x12には表れていない固定分(y=x1+x2+x1
2+dにおけるd)がどのくらいあるか調べる必要が
あることが判る。
【0140】
【表7】
【0141】図21〜図24に、入力データの影響度合
いをシグモイド関数と共に模式的に表したグラフを示
す。図21は入力データx1,x2が(0,0)の場合、
図22は同じく(0.5,0.5)の場合、図23は同じ
く(1,1)の場合、図24は同じく(1,0)の場合
である。これらの図から、入力データの大きさに応じ
た、各中間層素子や各入力層素子の出力に対する影響度
合いを容易に把握することが可能である。このことは、
請求項11の発明の作用によるものである。更に、請求
項15の発明によれば、入力素子x1,x2につながる結
合が存在し、かつお互いの重みの結合が同程度であるの
で学習が正常に行われており、学習不良による異常はな
いと判定することができる。また、請求項16の発明で
も、表5、表6においてx1,x2に関する評価指標が同
程度であるので、良好な学習が行われていて異常はない
と判定することができる。
【0142】次に、第3実施例を説明する。この実施例
は、主として請求項9,10,12,15〜17に関す
るものである。この実施例では、ダムの流入量を予測す
るニューラルネットワークを解析する。予測に使用する
入力因子は、表8に示すように、3つの測水所の流量、
流量差分(1時間おきの過去3時間分の流量)、予測対
象ダムの流量、流量差分(1時間おきの過去2時間分の
流量)、流域平均雨量(1時間おきの過去20時間分の
流域平均雨量)である。
【0143】
【表8】
【0144】図25は予測対象ダムの上流域の模式図で
あり、各流域に雨量計が設置され、各流域ごとに測水所
が設けられている。第1実施例と同じ学習アルゴリズム
によって獲得したニューラルネットワークの構造を図2
6に示し、入力値に対する出力層に伝播する情報及び出
力値を図27に示す。
【0145】学習前の初期中間層素子を12個として学
習を始めたが、学習により獲得した図26の構造によれ
ば、中間層素子が3個にまで削減された。構築された図
26のニューラルネットワークの中間層素子は、「上流
流量差分」、「雨量」、「相互作用分(全結合部分)」
につながり、「上流流量」、「ダム流量」、「ダム流量
差分」のみにつながる中間層素子は構築されなかった。
つまり、請求項9の発明から、「上流流量差分」、「雨
量」、「相互作用分(全結合部分)」は予測に重要な因
子であり、「上流流量」、「ダム流量」、「ダム流量差
分」は重要度の低い因子であることが分かる。ここで、
上記「相互作用分(全結合部分)」とは、複数の入力因
子の作用であって単独の成分では表せない複雑な成分を
示す。例えば、y=x1+x2+x12におけるx12
部分に相当する。
【0146】表9は、図26の中間層素子1〜3のeffe
ctiveness factor, goodness factor, 分散を示してい
る。
【0147】
【表9】
【0148】表9のgoodness factorより、「上流流量
差分」のサブネットワークは非常に重要な働きを示すこ
とが分かる。これは請求項10の発明による解析結果で
ある。これらのことは、運用者の感覚とよく一致してお
り、良好な学習結果であると判定することができる。こ
れは、請求項15,16の異常判定方法によるものであ
る。
【0149】また、図27から、ニューロ出力に対して
は「上流流量差分」の成分が大きく影響しているが、入
力値(入力層)がほぼ0.2以下、0.7以上の範囲で
は飽和している。請求項12の発明により、この範囲の
入力値に対しては、このニューラルネットワークはほと
んど出力の変化がないことがわかる。更に、運用者の感
覚によれば、上流流量差分と出力とは線形の関係があ
る。図28に、上流流量差分のみにつながる中間層素子
1が出力層に伝搬する情報量を示す。上流流量差分は入
力値に対して線形度の相関係数R2が少し小さいので、
学習不良であることを示している。これは、請求項17
による異常判別の結果である。特に、入力値がほぼ0.
2以下と0.7以上の範囲の学習データに対しては学習
不良である。「雨量」は、請求項12の発明によれば、
入力値(入力層)が大きいときにのみ大きく変化する。
このことは、雨量が少ないときには地面に吸収されやす
く、多いときに流出しやすい現象を的確に表している。
「相互作用分」の変動はごく小さく、補正程度に作用し
ている。これは、請求項12の発明による解析結果であ
る。
【0150】表10は、各入力因子を個別に評価した指
標である。goodness factorが0.1以上の因子を見ると流
量差分や雨量の一部であり、運用者の感覚とほぼ一致す
る。これは、請求項16の発明による。10時間以前の
雨量の因子は小さいものが多い。対象のダムは10時間
前までの雨量との相関が高いことがすでに判明してお
り、その結果とも一致している。
【0151】
【表10】
【0152】次に、第4実施例を説明する。この実施例
は、主として請求項11,13,17の発明に関するも
のである。本実施例では、翌日電力需要量予測を例題に
して解析を行う。入力因子は表11に示すとおりであ
り、電力(最大電力)、気象(最高気温、最低気温、最
小湿度、天気)、特異日フラグ(土曜、休日)に関して
季節ごとに当日iから2日前(i−2)まで、または当
日iから7日前(i−7)までとした。
【0153】
【表11】
【0154】中間層素子を12個用意して学習した結
果、図29に示す構造のニューラルネットワークが獲得
できた。図30はこのニューラルネットワークの入出力
関係を示すもので、電力需要量は、至近の電力実績に対
しては正の相関があり、気温に対しては、正の相関と負
の相関が入り交じっていることが分かる。気温が低い時
には暖房機を、気温が高いときには冷房機を動かすため
に電力需要が増大する現象と一致する。このことは、電
力需要予測を行う運用者の感覚とも完全に一致してい
る。
【0155】通常、気温と電力需要量との間には2次の
関係があると言われる。図31から、気温(気象)は2
次式との相関が非常に強いため、請求項17の発明によ
り学習が良好に行われていると判定することができる。
また、電力需要量を下げる要因は、気温が中程度であっ
て至近の電力需要量が小さいことであり、逆に電力需要
量が上がる要因は、気温が高すぎるか低すぎるかのどち
らかに偏り、至近の電力需要量が大きいことである。つ
まり、このニューラルネットワークの下限値を与える入
力データは、電力に関する入力が0、気象に関する入力
が0.5のときであることが請求項13の発明から判
る。具体的な実績データを表12に示す。
【0156】
【表12】
【0157】表12における基準値は、図29のニュー
ラルネットワークによる解析結果から、電力需要量を最
低にするであろう入力データに基づいて作成した。これ
は、請求項13の発明による解析結果に基づく。実際、
実データの値を数例入力し、解析結果による下限値より
小さい値は出力されなかったことを確認した。
【0158】以下は、3種類の春季予測用ニューラルネ
ットワークに対し、実データを用いて請求項11の発明
により入力因子の出力への影響を解析した例である。図
32(4月9日)は、気象と電力の相関がない時期であ
り、予測値は電力実績のみに左右される。図33(5月
30日)は、気象と電力の相関が現れ始め、予測値は電
力と気象の2つの要因で決定される。図34(6月25
日)は、夏季に近く気温と電力の相関が強い時期であ
る。予測値は電力の影響が低下し、気温の影響が強くな
ってきている。
【0159】以上、請求項1〜20記載の発明の実施形
態及び実施例を説明した。これらの発明によれば、従来
のニューラルネットワークと互換性があり、しかも内部
解析が可能である。すなわち、解析目的に応じたニュー
ラルネットワーク構造を学習時に与えることで、任意の
入力因子と出力との関係を容易に解析することができ
る。通常、この種の解析は目的を持って行うため、請求
項1〜20記載の発明によって必要を満たすことができ
るが、ニューラルネットワークの学習時に解析目的がは
っきりしていないときには、適切なニューラルネットワ
ークの構造を与えることができない場合がある。そこ
で、以下の発明は、請求項1〜20の発明を改良し、入
出力のデータの関係を自動的に解析して適切な構造のニ
ューラルネットワークを構築するようにした学習方法を
提供するものである。
【0160】(21)請求項21の発明の実施形態 請求項1〜20の発明では、学習開始前に全結合部分と
疎結合部分につながる中間層素子をあらかじめ用意する
必要がある。そこで請求項21の発明では、疎結合部分
だけで学習を行い、疎結合部分だけでは学習しきれない
ときにのみ全結合部分を追加することとした。すなわ
ち、この発明によれば最初に用意する中間層素子が少な
く計算量が少ないため、学習時間の短縮が可能になる。
【0161】図35は、本発明の実施形態の処理を示す
フローチャートである。第1ステップG1は、通常のニ
ューラルネットワークの初期化処理である。具体的に
は、全ての重みに対し初期値を小さい数の乱数で与え
る。このステップは、図5におけるステップA1と同一
である。第2ステップG2は、解析可能なニューラルネ
ットワーク構造へ変形するための処理であり、任意の重
みを0にして削除する。ここで、全結合部分を生成せず
に、疎結合部分のみを生成することが必要である。第3
ステップG3は、通常のニューラルネットワークの重み
修正量の計算である。修正量を算出するための評価関数
は、前述した各評価関数の何れを用いても良い。
【0162】第4ステップG4は、解析可能なニューロ
構造のための修正量の再修正である。第3ステップG3
の計算により、削除したはずの結合が構築されることが
ある。それを防止するために、第2ステップで削除した
重みに関する修正量を強制的に0にする。第5ステップ
G5は、重みの修正処理である。計算された修正量にし
たがって重みを修正する。第6ステップG6は、学習終
了判断である。なお、このステップは図5におけるステ
ップA6と同一であり、請求項4における「第6ステッ
プ」とは異なる。このステップG6において、学習誤差
が規定値以下になるか、もしくは規定学習回数に達した
ら、学習終了と判断する。学習誤差が規定値以下になっ
たか否かは評価関数や全学習データに対する誤差により
判断する。ここで、学習誤差が規定値よりも大きい時に
は学習が終了していないと判断して第7ステップG7に
移行する。
【0163】第7ステップG7は、全結合部分の中間層
素子を追加する処理である。ステップG6までに学習が
終了しないということは、疎結合部分の中間層だけでは
学習ができないことを意味する。よって、全結合部分の
中間層素子を任意の個数追加して第3ステップG3に戻
る。全結合部分の中間層素子は通常は1つずつ追加する
が、一度に複数個追加してもよい。また、上記ステップ
の説明では省略したが、請求項1〜20の発明では、不
要な中間層素子や結合を削除する技術を説明した。よっ
て、これらの技術を応用し、本実施形態においても、追
加しすぎた中間層素子や、学習中に発見された不要な中
間層素子等がある場合には、これらを削除するようにし
ても良い。
【0164】(22)請求項22の発明の実施形態 次に、請求項22記載の発明の実施形態を説明する。請
求項1〜請求項21の発明においては、ニューラルネッ
トワークの学習開始時(前記図5,図8等における第2
ステップとしての任意結合の削除ステップ)に、解析目
的に応じて任意のニューラルネットワーク構造を与えな
ければならない。つまり解析目的がはっきりしていない
ときには、不適切な構造を与えてしまう可能性がある。
そこで本発明では、学習開始時のステップ(任意結合の
削除ステップ)においてニューラルネットワーク構造を
自動的に構築する方法(自動的に結合を削除する方法)
を提供し、学習データの入出力関係から、入力因子を自
動的に複数のグループに分けることで適切な構造を与え
るようにした。これにより、将来の解析において不要と
思われる入力因子同士をまとめ、解析が必要と思われる
入力因子同士を別々にすることで、想定される解析目的
にあった構造のニューラルネットワークを前もって構築
することができる。
【0165】以下に、入力因子のグループ分けの原理を
示す。簡単のため、電力需要量予測問題を例に説明す
る。電力需要量予測問題とは、ある地域の翌日の最大電
力を予測する問題であり、電力会社において、発電機の
起動停止計画を立案するための重要な業務として位置付
けられている。電力需要量は、曜日、気温、至近の電力
実績等により予測することが可能である。表13に、電
力需要量予測を行うための入力因子の例を示す。
【0166】
【表13】
【0167】表13において、入力因子は電力(最大電
力)、気象(最高気温、最低気温、天気)、特異日フラ
グ(土曜、休日)に関して季節ごとに当日iから2日前
(i−2)まで、または当日iから7日前(i−7)ま
でとし、合計で数十項目の因子により予測する。ここ
で、気温は1日前も2日前も極端に変化することは少な
く、似たデータになる確率が高い。また1日前の気温と
2日前の気温は予測値(ニューロ出力)に対し同じ傾向
を示すことが容易に想像でき、個別に解析する必要性は
低い。つまり、似ているデータ同士は個別に解析する必
要は低いので1グループにまとめ、似ていないデータ同
士は、個別に解析する可能性があるので別々にするよう
にした。以下に、入力因子をグループ化する方法を示
す。
【0168】第1ステップ ニューラルネットワークが学習するための学習データの
入出力関係を解析する。ここで、入力因子の似たもの同
士を複数のグループに分ける。グループ分けの方法は、
各入力因子の最大・最小値、標準偏差、相関係数等の単
純な統計的手法を利用する方法や、クラスター分析、判
別分析等の高度な統計手法等がある。
【0169】第2ステップ 第1ステップで得られたグループ分けにしたがって、ニ
ューラルネットワークを構築する。図36は4入力1出
力のニューラルネットワークであり、入力1と入力2が
同グループとして判定された例である。ここで、中間層
素子数は、あらかじめ定義された学習条件により異な
る。なお、11は全結合部分、12は疎結合部分を示
す。
【0170】(23)請求項23の発明の実施形態 請求項23の発明は、請求項22の発明と同様に学習開
始時のステップ(任意結合の削除ステップ)における入
力因子のグループ分けに関するものであり、データの最
大・最小・平均・標準偏差等の単純な統計値を用いて入
力因子のグループ分けを行う方法である。特に、各入力
因子の最大・最小値は、ニューラルネットワークがデー
タを学習する上で必ず算出する値であり、最大・最小値
を使用する方法は、計算量の増加をほとんど伴わない方
法である。以下に、グループ分けを行うための判別式の
一例を示す。勿論、これらの式以外の形式でもグループ
分けは可能である。ここで、評価値が同じ入力因子同士
を同じグループと定義する。
【0171】判別式例1 評価値i=int(log10(abs(最大値i−最小値i))+0.5)
(最小値i≧0) 評価値i=−int(log10(abs(最大値i−最小値i))+0.
5) (最小値i<0) 判別式例2 評価値i=int(ln(標準偏差i)+0.5) 判別式例3 評価値i=int(log10(平均i)+0.5) ただし、 i:入力因子番号 評価値i:i番目の入力因子の評価値 int:小数点以下を切り捨てて整数にする関数 abs:絶対値を求める関数 である。
【0172】(24)請求項24の発明の実施形態 請求項24の発明も、請求項22の発明と同様に学習開
始時のステップ(任意結合の削除ステップ)における入
力因子のグループ分けに関するものであり、入力因子間
の相関係数を用いてグループ分けを行う方法である。相
関係数とは、−1〜1の値をとるデータの相似度を求め
る係数である。入力因子が3つあるときには、入力1と
入力2との相関係数、入力2と入力3との相関係数、入
力3と入力1との相関係数の計3つの値を求める。グル
ープ分けは、相関係数の高い入力因子同士を同じグルー
プとしてまとめる。詳細は、実施例で説明する。
【0173】(25)請求項25の発明の実施形態 請求項24の発明では、入力因子間の相関係数によりグ
ループ分けを行っている。しかしこの方法は、入力因子
の数が増加すると指数関数的に計算量が増える欠点があ
る。そこで、簡便な方法として、入力因子と出力因子と
の間の相関係数だけに着目してグループ分けを行う。具
体的には、出力因子に対して同程度の相関係数である入
力因子同士を同じグループとしてまとめる。この発明で
は、学習開始時のステップ(任意結合の削除ステップ)
において、入力因子が4つあるときには、入力1と出力
との相関係数、入力2と出力との相関係数、入力3と出
力との相関係数、入力4と出力との相関係数と計4つの
相関係数を算出するだけで済む。従って、請求項24の
発明と比べて入力因子の数が多いときには計算量が大幅
に削減されるので効果的である。また、グループが多く
なり過ぎないようにその数を規定値以下にすることも容
易である。相関係数は−1〜1の値をとるので、2グル
ープ以下に分けたいときには、相関係数が−1〜0,0
〜1のグループ分けにし、4グループ以下に分けたいと
きには相関係数が−1〜−0.5,−0.5〜0,0〜
0.5,0.5〜1のグループに分ければよい。
【0174】〔実施例〕次に、請求項23の発明の実施
例を説明する。この実施例では、入力因子を自動的に分
類する方法を実施する。例題として用いるのは、冬季翌
日最大電力需要量予測用とダム流入量予測用のニューラ
ルネットワークである。翌日最大電力需要量予測におけ
る入力因子及び評価値を表14に示し、ダム流入量予測
における入力因子及び評価値を表15に示す。なお、評
価値は何れも以下の数式による。 評価値=int(log10(abs(最大値i−最小値i))+0.5)
(最小値i≧0) 評価値=−int(log10(abs(最大値i−最小値i))+0.5)
(最小値i<0)
【0175】
【表14】
【0176】
【表15】
【0177】翌日最大電力需要量予測用ニューラルネッ
トワークでは、表14に示すように、電力、気温、フラ
グ、天気がそれぞれグループ化された。ダム流入量予測
でも、表15に示すように、流量関係が2つに、流量差
分関係が2つに、雨量が1グループの計5グループにグ
ループ化された。これらの何れも、請求項1〜20の発
明の実施例において運用者が指定したグループとほぼ同
じ結果であり、良好な結果を得た。請求項1〜20の発
明では、手作業により入力因子をグループ化する必要が
あるが、請求項23の発明では、上記のように入力因子
を自動的にグループ分けすることが可能である。
【0178】次に、請求項24,25の発明の実施例を
説明する。この実施例では、入力因子を自動的に分類す
る方法を実施する。例題として用いるのは、冬季翌日最
大電力需要量予測である。入出力因子間の相関係数を表
16に示す。ここで、入力因子の番号は請求項23の発
明の実施例と同じである。
【0179】
【表16】
【0180】まず、最初に請求項24の発明の実施例に
ついて説明する。表16において、相関係数(表16の
右端の出力値の列を除く値)が0.5以上の入力因子
は、NO.3〜8の気温、No.9,NO.12のフラグ、NO.1
1,NO.14のフラグである。この3グループは非常に
似通った性質であり、良好にグループ分けされている。
つまりこの例では、総計15個の入力因子が7グループ
に分類された。
【0181】次に、請求項25の発明の実施例について
説明する。各入力因子と出力との相関係数(表16の右
端の列)を0.2刻みにグループ化すれば、以下のよう
に6グループに分類することができる。 グループ1(0.4〜0.6):入力因子1,2 グループ2(0.0〜0.2):入力因子13〜15 グループ3(−0.0〜−0.2):入力因子11 グループ4(−0.2〜−0.4):入力因子3〜7,10 グループ5(−0.4〜−0.6):入力因子8,12 グループ6(−0.6〜−0.8):入力因子9
【0182】
【発明の効果】以上詳述したように、請求項1〜20記
載の発明によれば、従来のニューラルネットワークと互
換性があり、容易に置き換えることが可能なニューラル
ネットワークを構築することができる。また、回帰式と
同様に、出力と入力との因果関係を容易に把握すること
が可能であり、学習データにない未知のデータに対して
も、出力値を容易に推定することができる。運用者の感
覚と違う解析結果が出た場合には(例えば、第3実施例
において上流流量変化が出力に対し飽和する現象が生じ
た場合など)、ニューラルネットワークの再学習などの
処理を事前に行うことが可能である。特に、ダム流入量
予測では、洪水時において下流域の安全性を確保するこ
とが重要であり、そのためにも正確な流入量予測が不可
欠である。本発明により、洪水発生前に、ニューラルネ
ットワークを適切に再学習させることができる。また、
再学習が間に合わなかったときにも、不適切な予測を把
握することが可能である。第3実施例では、入力データ
が0.7以上を越える急激な上流流量差分は飽和してし
まうため、ニューラルネットワークは実際よりも低めに
予測する傾向があるので、大きめに予測(補正)するの
が有効であることを容易に把握可能である。
【0183】また、請求項21の学習方法によれば、疎
結合部分の中間層素子だけで学習ができなかった場合に
のみ中間層素子を追加するので、学習時間の短縮が可能
である。また、請求項1〜20の発明と比較して、全結
合部分の中間層素子を少なく構築できることが多く、解
析が更に容易になる。請求項22〜25の発明は、学習
開始時の初期化に関係した発明である。請求項1〜20
の発明では、あらかじめ解析目的に応じてニューラルネ
ットワーク構造を定義しなければならない。すなわち、
任意の入力因子をグループ化しなければならない。この
点、請求項22〜25の発明では、ニューラルネットワ
ーク構造を学習データの関係から自動的に決定すること
ができる。実施例でも説明したように、請求項23の発
明では入力因子を大まかにグループ化するので、比較
的、人間の感覚に一致した構造が得られやすい(請求項
1〜20の発明の実施例のグループ分けとほぼ同じ構造
が得られた)。請求項24の発明は、かなり似通った入
力因子同士しかグループ分けしないため(細かく分類す
るため)、将来どのように解析するかわからない場合の
ように未知の現象を解析するときには、多くの入力因子
(入力因子グループ)について解析が可能であり、解析
時に効果を発揮する。請求項25の発明は請求項24の
発明を改良したものであり、入力因子の数が増加した時
には簡易的な方法でグループ分けを行うため、計算量が
少ない利点がある。
【図面の簡単な説明】
【図1】請求項1の発明の実施形態における階層型ニュ
ーラルネットワーク構造を示す図である。
【図2】従来の階層型ニューラルネットワーク構造を示
す図である。
【図3】階層型ニューラルネットワークの結合係数を示
す図である。
【図4】従来のニューラルネットワーク装置の構成図で
ある。
【図5】請求項2の発明の実施形態の処理を示すフロー
チャートである。
【図6】従来のコンパクト構造化法の処理を示すフロー
チャートである。
【図7】請求項4の発明の実施形態の処理を示すフロー
チャートである。
【図8】請求項5の発明の実施形態の処理を示すフロー
チャートである。
【図9】請求項5の発明の実施形態により並び替えたニ
ューラルネットワークの構造を示す図である。
【図10】請求項6の発明の実施形態により並び替えた
ニューラルネットワークの構造を示す図である。
【図11】請求項8の発明の実施形態による学習とそれ
により構築されるニューラルネットワーク構造の変化を
示す概念図である。
【図12】請求項10の発明の実施形態における入力層
素子、中間層素子の有効性を判断する評価指標を示す図
である。
【図13】請求項11の発明の実施形態を説明するため
のニューラルネットワークの構造を示す図である。
【図14】請求項12,13の発明の実施形態の作用を
説明するための図である。
【図15】請求項14の発明の実施形態を示すフローチ
ャートである。
【図16】請求項14の発明の実施形態が適用される解
析・診断システムの構成図である。
【図17】請求項19の発明の実施形態を示すフローチ
ャートである。
【図18】第1実施例における学習データ及び学習結果
の説明図である。
【図19】第1実施例における学習前のニューラルネッ
トワークの構造を示す図である。
【図20】第2実施例における解析対象のニューラルネ
ットワークの構造を示す図である。
【図21】第2実施例の作用を説明するための図であ
る。
【図22】第2実施例の作用を説明するための図であ
る。
【図23】第2実施例の作用を説明するための図であ
る。
【図24】第2実施例の作用を説明するための図であ
る。
【図25】第3実施例における予測対象ダムの上流域の
模式図である。
【図26】第3実施例における流量予測用ニューラルネ
ットワークの説明図である。
【図27】第3実施例におけるニューラルネットワーク
の入出力関係を示す図である。
【図28】第3実施例における上流流量差分の線形度を
示す図である。
【図29】第4実施例における翌日電力需要量予測用ニ
ューラルネットワークの説明図である。
【図30】第4実施例におけるニューラルネットワーク
の入出力関係を示す図である。
【図31】第4実施例における入力値と出力層に伝達す
る情報との関係を示す図である。
【図32】第4実施例において実データを用いて入力因
子の出力への影響を解析した例を示す図である。
【図33】第4実施例において実データを用いて入力因
子の出力への影響を解析した例を示す図である。
【図34】第4実施例において実データを用いて入力因
子の出力への影響を解析した例を示す図である。
【図35】請求項21の発明の実施形態の処理を示すフ
ローチャートである。
【図36】請求項22の発明の実施形態により構築され
たニューラルネットワークの構造を示す図である。
【符号の説明】
11 全結合部分 12,12A,12B 疎結合部分 13 記憶装置 14 入力データ読み込み部 15 重み読み込み部 16 ニューロ算出部 17 表示・伝送装置 18 予測・診断の保存部 21 記憶装置 22 ニューロ読み込みモジュール 23 異常判定用データベース読み込みモジュール 24 解析・診断モジュール 25 ブザー 26 表示装置 27 LAN・電話回線

Claims (25)

    【特許請求の範囲】
  1. 【請求項1】 複数の入力層素子及び複数の中間層素子
    を有する階層型構造のニューラルネットワークにおい
    て、 複数の入力層素子のうちの一部に中間層素子が結合され
    てなる疎結合部分を有することを特徴とするニューラル
    ネットワーク。
  2. 【請求項2】 請求項1の全体に記載したニューラルネ
    ットワークを学習するためのニューラルネットワークの
    学習方法において、 入力層素子と中間層素子との間の全ての重みを初期化す
    る第1ステップと、任意の入力層素子と中間層素子との
    間の結合を削除する第2ステップと、学習誤差を評価す
    るための評価関数を用いてこの評価関数が小さくなるよ
    うに入力層素子と中間層素子との間の重みの修正量を算
    出する第3ステップと、任意の入力層素子と中間層素子
    との間の重みの修正量を0にする第4ステップと、第3
    ステップ及び第4ステップを経て得られた最終的な修正
    量を用いて入力層素子と中間層素子との間の重みを修正
    する第5ステップとを有し、学習誤差が規定値以下にな
    るまで第3ステップ以下の処理を繰り返し実行すること
    を特徴とするニューラルネットワークの学習方法。
  3. 【請求項3】 請求項2に記載した第3ステップにおい
    て、 前記評価関数は、学習誤差を評価して学習誤差を小さく
    するための項と、ニューラルネットワークの構造を簡素
    化するために不要な中間層素子を削減するための項とを
    併せ持つことを特徴とするニューラルネットワークの学
    習方法。
  4. 【請求項4】 請求項2または請求項3において、 第6ステップとして、中間層素子の中の1個の素子の出
    力値系列を用いて求めた分散が規定値以下である場合に
    この素子をバイアス素子に融合し、中間層素子の中の2
    個の素子の出力値系列を用いて求めた相関係数が別の規
    定値以上である場合にこれら2個の中間層素子を情報伝
    達的に同じ働きであるとして融合することによりコンパ
    クト構造化を行って中間層素子を削減するステップを有
    することを特徴とするニューラルネットワークの学習方
    法。
  5. 【請求項5】 請求項2における第2ステップと第3ス
    テップとの間に、中間層素子を並べ替えることにより、
    疎結合部分を構成する中間層素子と、複数の入力層素子
    の全てに中間層素子が結合されてなる全結合部分を構成
    する中間層素子とを、それぞれ別のグループにまとめる
    処理を行うステップを挿入すると共に、 請求項2における第3ステップにおいて、疎結合部分を
    構成する中間層素子の結合を全結合部分を構成する中間
    層素子の結合よりも早く成長させるような評価関数を用
    いて重みの修正量を算出することを特徴とするニューラ
    ルネットワークの学習方法。
  6. 【請求項6】 請求項2における第2ステップと第3ス
    テップとの間に、中間層素子を並べ替えて疎結合部分を
    構成する中間層素子を有する部分ニューロと全結合部分
    を構成する中間層素子を有する部分ニューロとを交互に
    配置するステップを挿入すると共に、 請求項2における第3ステップにおいて、任意の中間層
    素子の結合を他の中間層素子の結合よりも早く成長させ
    るような評価関数を用いて重みの修正量を算出すること
    を特徴とするニューラルネットワークの学習方法。
  7. 【請求項7】 請求項2における第3ステップにおい
    て、 任意の中間層素子の結合を他の中間層素子の結合よりも
    早く成長させる項と、ニューラルネットワークの構造を
    簡素化するために不要な中間層素子を削減するための項
    とを併せ持つ評価関数を用いて重みの修正量を算出する
    ことを特徴とするニューラルネットワークの学習方法。
  8. 【請求項8】 請求項5に記載した学習方法と請求項6
    に記載した学習方法とを交互に実施することを特徴とす
    るニューラルネットワークの学習方法。
  9. 【請求項9】 請求項2〜8の何れか1項に記載された
    学習方法により構築されたニューラルネットワークを対
    象として、 入力層素子、中間層素子及び出力層素子の相互の結合状
    態から、線形性、非線形性等の入力因子の出力への影響
    度合いを解析することを特徴とするニューラルネットワ
    ークの解析方法。
  10. 【請求項10】 請求項1の全体に記載されたニューラ
    ルネットワークを対象として、 入力層素子及び中間層素子の有効性を示す評価指標を用
    いてニューラルネットワークの構造を解析することを特
    徴とするニューラルネットワークの解析方法。
  11. 【請求項11】 請求項1の全体に記載されたニューラ
    ルネットワークを対象として、 任意の入力データを入力したときの、中間層素子から出
    力層素子に伝達される情報量の大きさに基づいて入力因
    子の出力への影響を解析することを特徴とするニューラ
    ルネットワークの解析方法。
  12. 【請求項12】 請求項1の全体に記載されたニューラ
    ルネットワークを対象として、 任意の入力データを入力したときの、中間層素子から出
    力層素子に伝達される情報量と入力データとの相関関係
    に基づいて、入力因子の出力への影響を解析することを
    特徴とするニューラルネットワークの解析方法。
  13. 【請求項13】 請求項1の全体に記載されたニューラ
    ルネットワークを対象として、 任意の入力データを入力したときの、中間層素子から出
    力層素子に伝達される情報量と入力データとの相関関係
    に基づいて、ニューラルネットワーク出力値の上下限値
    を解析することを特徴とするニューラルネットワークの
    解析方法。
  14. 【請求項14】 請求項9〜13の何れかに記載された
    解析方法によりニューラルネットワークを解析し、異常
    判定用データベースと照らし合わせてニューラルネット
    ワークの学習不良を判定し、その結果を出力することを
    特徴とするニューラルネットワークの異常判定方法。
  15. 【請求項15】 請求項14に記載した異常判定方法に
    おいて、 学習対象の現象が予め定性的に判明しているときに、ニ
    ューラルネットワークの素子間の結合状態に基づいてニ
    ューラルネットワークの学習不良を判定することを特徴
    とするニューラルネットワークの異常判定方法。
  16. 【請求項16】 請求項14に記載した異常判定方法に
    おいて、 学習対象の現象が定性的に判明しているときに、ニュー
    ラルネットワークの内部状態を示す数値指標として入力
    層素子及び中間層素子の有効性を示す評価指標に基づい
    てニューラルネットワークの学習不良を判定することを
    特徴とするニューラルネットワークの異常判定方法。
  17. 【請求項17】 請求項14に記載した異常判定方法に
    おいて、学習対象の現象を表す数式が存在するときに、
    その数式とニューラルネットワークの内部状態の相関係
    数とを比較して学習不良を判定することを特徴とするニ
    ューラルネットワークの異常判定方法。
  18. 【請求項18】 請求項14に記載した異常判定方法に
    おいて、 ニューラルネットワークの出力の上限値が学習データの
    上限値よりも小さいとき、または、ニューラルネットワ
    ークの出力の下限値が学習データの下限値よりも大きい
    ときに学習不良を判定することを特徴とするニューラル
    ネットワークの異常判定方法。
  19. 【請求項19】 請求項14〜18の何れかに記載され
    た異常判定方法によりニューラルネットワークの学習不
    良が判明したときに、必要に応じて再学習を行うことを
    特徴とするニューラルネットワークの学習方法。
  20. 【請求項20】 請求項17の発明において、 学習状態の悪い範囲を自動的に特定し、その範囲の学習
    データを増加させて再学習させることを特徴とするニュ
    ーラルネットワークの学習方法。
  21. 【請求項21】 請求項1の全体に記載したニューラル
    ネットワークを学習するためのニューラルネットワーク
    の学習方法において、 入力層素子と中間層素子との間の全ての重みを初期化す
    る第1ステップと、任意の入力層素子と中間層素子との
    間の結合を削除して全結合部分を生成することなく疎結
    合部分の中間層部分のみを生成する第2ステップと、学
    習誤差を評価するための評価関数を用いてこの評価関数
    が小さくなるように入力層素子と中間層素子との間の重
    みの修正量を算出する第3ステップと、任意の入力層素
    子と中間層素子との間の重みの修正量を0にする第4ス
    テップと、第3ステップ及び第4ステップを経て得られ
    た最終的な修正量を用いて入力層素子と中間層素子との
    間の重みを修正する第5ステップと、学習誤差が規定値
    以下になったときに学習終了と判断する第6ステップ
    と、学習誤差が規定値以上であるときに第3ステップ以
    下の処理を再度実行するために中間層素子を追加する第
    7ステップとを有することを特徴とするニューラルネッ
    トワークの学習方法。
  22. 【請求項22】 請求項1〜8,21のうちの何れか1
    項における第2ステップにおいて、 複数の入力因子を学習データの入出力関係に基づいて複
    数のグループに分類し、それらのグループごとに疎結合
    部分の中間層部分を生成することを特徴とするニューラ
    ルネットワークの学習方法。
  23. 【請求項23】 請求項1〜8,21のうちの何れか1
    項における第2ステップにおいて、 複数の入力因子を学習データの最大・最小・平均・標準
    偏差等の統計指標に基づいて複数のグループに分類し、
    それらのグループごとに疎結合部分の中間層部分を生成
    することを特徴とするニューラルネットワークの学習方
    法。
  24. 【請求項24】 請求項1〜8,21のうちの何れか1
    項における第2ステップにおいて、 複数の入力因子を学習データの入力因子間の相関係数に
    基づいて複数のグループに分類し、それらのグループご
    とに疎結合部分の中間層部分を生成することを特徴とす
    るニューラルネットワークの学習方法。
  25. 【請求項25】 請求項1〜8,21のうちの何れか1
    項における第2ステップにおいて、 複数の入力因子を学習データの入力と出力との間の相関
    係数に基づいて複数のグループに分類し、それらのグル
    ープごとに疎結合部分の中間層部分を生成することを特
    徴とするニューラルネットワークの学習方法。
JP2000166528A 2000-05-31 2000-05-31 ニューラルネットワーク及びその学習方法、解析方法並びに異常判定方法 Pending JP2001344590A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000166528A JP2001344590A (ja) 2000-05-31 2000-05-31 ニューラルネットワーク及びその学習方法、解析方法並びに異常判定方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000166528A JP2001344590A (ja) 2000-05-31 2000-05-31 ニューラルネットワーク及びその学習方法、解析方法並びに異常判定方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2010252478A Division JP5234085B2 (ja) 2010-11-11 2010-11-11 ニューラルネットワークの学習方法

Publications (1)

Publication Number Publication Date
JP2001344590A true JP2001344590A (ja) 2001-12-14

Family

ID=18669828

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000166528A Pending JP2001344590A (ja) 2000-05-31 2000-05-31 ニューラルネットワーク及びその学習方法、解析方法並びに異常判定方法

Country Status (1)

Country Link
JP (1) JP2001344590A (ja)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005352900A (ja) * 2004-06-11 2005-12-22 Canon Inc 情報処理装置、情報処理方法、パターン認識装置、及びパターン認識方法
CN104748962A (zh) * 2015-04-03 2015-07-01 西安交通大学 一种基于堆叠自动编码机的行星齿轮箱智能诊断方法
JP2016152039A (ja) * 2015-02-19 2016-08-22 富士通株式会社 データ出力方法、データ出力プログラムおよびデータ出力装置
WO2017168865A1 (ja) * 2016-03-28 2017-10-05 ソニー株式会社 情報処理装置及び情報処理方法
JP2018109947A (ja) * 2016-12-30 2018-07-12 富士通株式会社 ニューラルネットワークの処理速度を向上させるための装置及び方法、並びにその応用
JP2018124754A (ja) * 2017-01-31 2018-08-09 日本電信電話株式会社 多層ニューラルネットの大局構造抽出装置、方法、及びプログラム
CN108846475A (zh) * 2018-05-30 2018-11-20 华侨大学 一种分段密集连接型深度网络构建方法
JP2019020915A (ja) * 2017-07-13 2019-02-07 日本電信電話株式会社 多層ニューラルネットの大局構造抽出装置、方法、及びプログラム
JP2019507442A (ja) * 2016-03-04 2019-03-14 アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited 機械学習システムのトレーニング方法及びトレーニングシステム
CN112985830A (zh) * 2021-02-05 2021-06-18 深圳大雷汽车检测股份有限公司 一种abs结果自动判定算法
JP2021096771A (ja) * 2019-12-19 2021-06-24 トヨタ自動車株式会社 モデル診断装置及びモデル診断システム
CN116205544A (zh) * 2023-05-06 2023-06-02 山东卓文信息科技有限公司 基于深度神经网络和迁移学习的非侵入式负荷识别***
JP7471924B2 (ja) 2020-06-04 2024-04-22 清水建設株式会社 地震動評価モデル生成方法、地震動評価モデル生成装置、地震動評価方法、及び、地震動評価装置

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005352900A (ja) * 2004-06-11 2005-12-22 Canon Inc 情報処理装置、情報処理方法、パターン認識装置、及びパターン認識方法
JP2016152039A (ja) * 2015-02-19 2016-08-22 富士通株式会社 データ出力方法、データ出力プログラムおよびデータ出力装置
CN104748962A (zh) * 2015-04-03 2015-07-01 西安交通大学 一种基于堆叠自动编码机的行星齿轮箱智能诊断方法
JP2019507442A (ja) * 2016-03-04 2019-03-14 アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited 機械学習システムのトレーニング方法及びトレーニングシステム
US11257005B2 (en) 2016-03-04 2022-02-22 Alibaba Group Holding Limited Training method and training system for machine learning system
JP7004661B2 (ja) 2016-03-04 2022-01-21 アリババ・グループ・ホールディング・リミテッド 機械学習システムのトレーニング方法及びトレーニングシステム
WO2017168865A1 (ja) * 2016-03-28 2017-10-05 ソニー株式会社 情報処理装置及び情報処理方法
JP7006585B2 (ja) 2016-03-28 2022-01-24 ソニーグループ株式会社 情報処理装置及び情報処理方法
JPWO2017168865A1 (ja) * 2016-03-28 2019-02-07 ソニー株式会社 情報処理装置及び情報処理方法
JP2018109947A (ja) * 2016-12-30 2018-07-12 富士通株式会社 ニューラルネットワークの処理速度を向上させるための装置及び方法、並びにその応用
JP2018124754A (ja) * 2017-01-31 2018-08-09 日本電信電話株式会社 多層ニューラルネットの大局構造抽出装置、方法、及びプログラム
JP2019020915A (ja) * 2017-07-13 2019-02-07 日本電信電話株式会社 多層ニューラルネットの大局構造抽出装置、方法、及びプログラム
CN108846475B (zh) * 2018-05-30 2021-10-26 华侨大学 一种分段密集连接型深度网络构建方法
CN108846475A (zh) * 2018-05-30 2018-11-20 华侨大学 一种分段密集连接型深度网络构建方法
JP2021096771A (ja) * 2019-12-19 2021-06-24 トヨタ自動車株式会社 モデル診断装置及びモデル診断システム
JP7471924B2 (ja) 2020-06-04 2024-04-22 清水建設株式会社 地震動評価モデル生成方法、地震動評価モデル生成装置、地震動評価方法、及び、地震動評価装置
CN112985830A (zh) * 2021-02-05 2021-06-18 深圳大雷汽车检测股份有限公司 一种abs结果自动判定算法
CN116205544A (zh) * 2023-05-06 2023-06-02 山东卓文信息科技有限公司 基于深度神经网络和迁移学习的非侵入式负荷识别***
CN116205544B (zh) * 2023-05-06 2023-10-20 山东卓文信息科技有限公司 基于深度神经网络和迁移学习的非侵入式负荷识别***

Similar Documents

Publication Publication Date Title
JP5234085B2 (ja) ニューラルネットワークの学習方法
Pang et al. ELECTRE I Decision Model of Reliability Design Scheme for Computer Numerical Control Machine.
Ata et al. An adaptive neuro-fuzzy inference system approach for prediction of tip speed ratio in wind turbines
Aladag et al. Improving weighted information criterion by using optimization
Xu A direct approach to group decision making with uncertain additive linguistic preference relations
Bee-Hua Evaluating the performance of combining neural networks and genetic algorithms to forecast construction demand: the case of the Singapore residential sector
JP2001344590A (ja) ニューラルネットワーク及びその学習方法、解析方法並びに異常判定方法
CN113537600B (zh) 一种全过程耦合机器学习的中长期降水预报建模方法
CN112308281A (zh) 一种温度信息预测方法及装置
JPH10222493A (ja) 相互因果関係解析システム
Rutkowski et al. On explainable fuzzy recommenders and their performance evaluation
Izadikhah et al. Fuzzy data envelopment analysis with ordinal and interval data
CN112085384A (zh) 一种基于模糊推理与lstm结合的邮寄物风险评价方法与***
CN107633294A (zh) 一种应用于RBF 神经网络的改进Sobol 敏感性分析方法
CN115114128A (zh) 一种卫星健康状态评估***及评估方法
Lin et al. An integrated neuro-genetic approach incorporating the Taguchi method for product design
CN114091615A (zh) 一种基于生成对抗网络的电能计量数据补全方法和***
CN107256445A (zh) 生产环境安全性的分析方法、装置和***
CN113469570A (zh) 信息质量评价模型构建方法、装置、设备及存储介质
CN112579708A (zh) 一种基于改进局部路径的链路预测相似性指标方法
Marza et al. Estimating development time of software projects using a neuro fuzzy approach
CN115713032A (zh) 一种电网预防控制方法、装置、设备及介质
CN114784795A (zh) 风电功率预测方法、装置、电子设备及存储介质
Maksimović et al. RETRACTED ARTICLE: Analyses of Economic Development Based on Different Factors
Ahmed et al. A Basic Algorithm for Generating Individualized Numerical Scale (BAGINS)

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20051114

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081029

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100215

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100902

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101111