JP2005521167A - 機械的雑音及び測定誤差の存在下における人為的神経ネットワークモデルの性能の改良 - Google Patents

機械的雑音及び測定誤差の存在下における人為的神経ネットワークモデルの性能の改良 Download PDF

Info

Publication number
JP2005521167A
JP2005521167A JP2003579171A JP2003579171A JP2005521167A JP 2005521167 A JP2005521167 A JP 2005521167A JP 2003579171 A JP2003579171 A JP 2003579171A JP 2003579171 A JP2003579171 A JP 2003579171A JP 2005521167 A JP2005521167 A JP 2005521167A
Authority
JP
Japan
Prior art keywords
input
noise
output
neural network
artificial neural
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003579171A
Other languages
English (en)
Other versions
JP4157477B2 (ja
Inventor
クルカルニ,バスカー,ダッタトレー
タンベ,サンジーブ,シュリクリシュナ
ロナリ,ジャヤラム,ブッダジ
ヴァレチャ,ニーラムクマール
デシュムク,サンジェイ,ヴァサントラオ
シェノイ,バヴァニシャンカー
ラヴィチャンドラン,シヴァラマン
Original Assignee
カウンスル オブ サイエンティフィック アンド インダストリアル リサーチ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by カウンスル オブ サイエンティフィック アンド インダストリアル リサーチ filed Critical カウンスル オブ サイエンティフィック アンド インダストリアル リサーチ
Publication of JP2005521167A publication Critical patent/JP2005521167A/ja
Application granted granted Critical
Publication of JP4157477B2 publication Critical patent/JP4157477B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/086Learning methods using evolutionary algorithms, e.g. genetic algorithms or genetic programming
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Physiology (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Complex Calculations (AREA)

Abstract

機械的雑音及び/又は測定誤差を含む入力−出力実例データの存在下で人為的神経ネットワークモデルの予測精度及び一般化性能を改良する方法であって、ネットワークモデルをトレーニングするために使用される入力−出力実例データ中の雑音及び/又は誤差の存在が該入力と出力の間に存在する非線形的関係を正確に習得し雑音の関係を正確に習得することを困難にし、該方法がコンピュータシミュレーションを用いて大きなサイズの雑音を重ねた試料入力−出力データ集合を作成し、ガウス雑音の特定の量が該実例集合中の入力/出力変数のそれぞれに添加され、それにより作成された拡大された試料データ集合が人為的神経ネットワークモデルを構築するためのトレーニング用集合として用いられ、加えられるべき雑音の量が入力/出力変数に特異的であり、その最適値が推計学的調査及び最適化法、即ち遺伝的アルゴリズムを用いて決定されるものである方法。

Description

【0001】
技術分野
本発明は機械的雑音及び/又は測定誤差を含む入力−出力データの存在下における人為的神経ネットワークモデルの予測精度及び一般化性能を改良する方法に関する。
【0002】
背景技術
人為的神経ネットワーク(ANN)は、非線形関係を任意の精度まで近似するその能力により(ポギオ,T.及びギロシ,F.「多層ネットワークと等価の、習得のための組織化アルゴリズム」,Science, 247, 978, 1990)、多数入力−多数出力の複雑な非線形プロセスをモデル化するのに適している。その結果、ANNはプロセス変数のオンライン及びオフライン予測のため産業界で広範に使用されてきた。ANNの産業上の適用には、製造工程の同定、定常状態プロセス及び動力学的プロセスのモデル化、故障の発見及び診断、ソフトセンサー開発、及び非線形プロセスの制御及び監視が含まれる。これらのANN適用はタンベ及び協同研究者ら(タンベ,S.S.,クルカーニ,B.D.,デシュパンデ,P.B.「化学工学及び化学的生物学的科学における選ばれた適用を持つ人為的神経ネットワークの初歩」,シミュレーション・アンド・アドバンスド・コントロールズ・インク,ルイズビル,USA,1996) により包括的な総説がなされている。任意のプロセス操作の間に巨大な量のプロセス入出力データが形成され、これらはプロセス出力変数の数値を予め予測できるANNモデルを開発するために使用できる。ANNモデルの望ましい特性は(i)それがその構築のために使用された入出力実例データ集合中に含まれる出力を正確に予測すべきであること、及び(ii) それが良好な一般化能力を有することである。通常、ANNモデルは予め特定された費用(誤差)関数を最小にする適当な加重調節アルゴリズムを用いてトレーニングされる。この費用関数の形が、得られるANNモデルの推計学的特性(雑音感受性)を完全に決定することに注意すべきである。例えば、最も広く使用されているエラー・バック・プロパゲーション(EBP)(ルーメルハート,D.,ヒントン,G.,ウィリアムズ,R.「後方伝搬する誤差による習得表示」,Nature, 323, 533, 1986) アルゴリズムは、二乗平均誤差(RMSE)関数の最小化を達成する。プロセスデータの任意の大きな集合における、機械的雑音及び/又は測定誤差の存在は差し迫った課題である。ネットワーク・トレーニングに使用される入出力データにおける雑音及び/又は誤差の存在はそのモデルにより示されるモデル予測の精度及び一般化性能の閾値的限界を構成する。これは、該ネットワークが雑音及び/又は誤差を含む入力データと出力データの間に存在する平均的関係に近づく(習得する)ように努力することにより主として発生する。該ネットワークはこれらのデータ中の雑音及び誤差を無視するので、それにより捕捉される平均的関係は不正確に満ち満ちている。予測における不正確さは、それが有意であれば、許容できない。何故なら、プロセス操作に関する相当の数の制御や政策判断はこのモデルにより作成される予測に基づくからである。例えば、重合反応では、メルト・フロー・インデックス(MFI)、ストレス指数(Sex) 、などの品質変数の予測は生産された重合体の等級を決定する際に重要である。一般化できるANNモデルはその開発のために使用されたデータ(実例の集合)の出力を正確に予測するだけでなく、新たな若しくは新規な入力データに相当するものをも予測する。こうして、ANNモデルは素晴らしい予測精度を有するだけでなく良好な一般化特性をも有していることが決定的に重要である。
【0003】
市販のソフトウェアでは、大部分のANNモデルは単純出力誤差(OE)費用関数を用いてトレーニングされ、これは入力データが雑音を有する場合ネットワークで予測される出力に深刻なバイアスのかかった誤差をもたらし得ることがゴープ及び協同研究者(ゴープ,J.V.,ショウケンス,J.,ピンテロン,R.「エラー−イン−バリャブルズ・アプローチを用いる雑音入力での習得神経ネットワーク,Transactions on Neural Networks A. 180, 1-14, 1999) により観察された。この著者らは雑音の存在がANNモデルの移送関数のより高次の導関数を実際に抑制し、そして若し通常の最小二乗費用関数が用いられるならばバイアスが導入されることを示す。従って、ANNの一般化性能を改良する方法はRMSE費用関数を新規な費用関数、例えばエラーズ−イン−バリャブルズ(EIV)費用関数(ゴープ,J.V.,ショウケンス,J.,ピンテロン,R.「エラー−イン−バリャブルズ・アプローチを用いる雑音入力での習得神経ネットワーク,Transactions on Neural Networks A. 180, 1-14, 1999) で置き換えることが推奨される。EIV法の欠点は、その実施に入力と出力に関する分散についての知識を必要とすることである。多くの実用的設定においては、この情報は入手可能ではなく、従ってEIV法の利用は厳しく制限される。この方法は、雑音の多い測定のためにより良好に働くが、それは大きなメモリーをも必要とし、極めて限られた場合にしか利用できない。(i)OE法を適用した後に処理後の手段としてEIV法を使用すること、(ii) 推定された数値の代わりに測定された入力及び出力の数値を使用すること、及び(iii)改良された習得及び最適化スキームなどの代替的方法がさまざまに提唱されそして例示された(ゴープ,J.V.,ショウケンス,J.,ピンテロン,R.「雑音の多い入力で神経ネットワークを習得するための変数費用関数における誤差」Intelligent Engineering Systems Through Artificial Neural Networks, 8, 141-146, 1998) などの代替的方法もある。
【0004】
ANNモデルの性能に及ぼす雑音の付加の効果を報告する文献は比較的稀で、これまでに僅かに二三の体系的研究がなされたに過ぎない。より良好な一般化性能を有するモデルを得る場合に、トレーニングデータに雑音を付加することが助けになることが一般に知られている。シーツマとダウ(シーツマ,J.,ダウ,R.J.「一般化する人為的神経ネットワークの作成,Neural Networks 4, 67-79, 1991) は雑音及び添加した偽ガウス分布雑音のトレーニングパターンの各要素(ベクトル)に対する有利な効果を報告した。彼らは雑音付加データでのトレーニングが多層知覚(MLP)ネットワークの分類能力を改良することを示した。この研究はここに要求されるネットワーク・ノードの数が大きい程、各ノードはその解に独立に寄与することをも明らかにした。即ち、ネットワークの出力に明確には寄与しない二三のユニットを適当なネットワーク刈り込み技法により除去できるということも可能である。この観点はミナイとウィリアムズ(ミナイ,A.A.,ウィリアムズ,R.D.「フィード・フォワード・ネットワークにおける摂動応答」Neural Networks, 7(5), 783-796, 1994) により共有された。彼らは各ノードが大域計算へ向けてより小さな程度に寄与する大きなネットワークを作成することを提唱した。別の網羅的な一研究では、アン(アン,G.「後方伝搬トレーニングの間における雑音の添加の一般化性能に及ぼす効果」Neural Comput., 8, 643-674, 1996)はEBPに基づくネットワークトレーニングの一般化性能に及ぼす雑音添加の効果を研究した。こうして、アンの研究はネットワークの予測性能に及ぼす、入力、重み、及び出力における雑音の効果を別々に分析した。この研究は出力の雑音が一般化を改良しないが、入力の雑音及び重みの雑音は役に立つことを明らかにした。ランジェヴァン雑音を用いるネットワークのトレーニングがシミュレーティッド・アニーリング・アプローチを用いて得られたものに類似の大域最小化をもたらすことも観察された。理論的研究では、ビショップ(ビショップ,C.M.「雑音でのトレーニングはティクホノフ・レギュラリゼーションと等価である」Neural Comput. 7, 108-116, 1995)は雑音により誘導される誤差項が一般化された調整項(regulariser)のクラスに相当すると主張した。このレギュラリゼーション(ポギオ,T.,ギロシ,F.「多層ネットワークと等価の習得のためのレギュラリゼーション・アルゴリズム」 Science, 247, 978, 1990)は罰則項の追加により誤差関数を改変し、ネットワークにより生ずる分散を制御する。本質において、トレーニングデータにおける雑音の追加は平滑化の形式を与える、そしてANNにより習得されるべき関数は一般に平滑であり又は有限数の領域で少なくとも区分的連続であるからこの方法は機能する。この陳述は、巧く提示された問題については、独特の解が存在し、そしてデータ中の小さな摂動はその解における小さな変動を生ずるに過ぎないという根底にある仮定を表現している。換言すれば、二つの類似の入力については、二つの類似の出力が予想されるということである。
【0005】
こうして、所与の例のデータ集合について、雑音の少量を重ねることにより追加のネットワークトレーニングパターンが形成できる。その雑音の大きさは、大きな雑音の量は入力と出力の間の本質的関係を歪めることが明らかであるから小さくなければならない一方、小さ過ぎる雑音の量は結果を伴わない取るに足らない変化しかもたらさない。入力−出力の実例データに重ねるべき雑音の「小さな」量を正確に定量することが必要であるということが直ちに導かれる。製造産業やプロセス産業でふんだんに存在する非線形系では、入力変数の変化が出力変数に影響する場合の感受性は有意に異なりうることに注目される。従って、入力変数及び出力変数のそれぞれに種々の程度の雑音を追加することが必要になる。入力−出力変数のそれぞれに追加すべき雑音の正確な量を決定することは油断のならない問題であり、本発明はこの問題を解決するために遺伝的アルゴリズムに基づく効果的な解を提供する。
【0006】
遺伝的アルゴリズム(ゴールドバーグ,D.E.「調査、最適化、及び機械習得における遺伝的アルゴリズム」アディソン−ウェスレー,ニューヨーク,1989、ホランド, J.「天然及び人工の系における適応」ユニバーシティ・オブ・ミシガン・プレス,Ann Arbor, MI, USA) は「推計学的最適化アルゴリズム」として知られる関数の最小化/最大化形式のクラスの一員である。これらは生物のダーウィンの進化論において主要な役割を演じている自然の淘汰及び遺伝学の機序に基づいている。GA(遺伝的アルゴリズム)は、雑音の多い、不連続な、多峰形の、非凸面の解空間を調査するのに有効であることが知られており、その特徴的性質は、(i)それらがGAがスカラー値のみを必要とし最適化されるべき対象関数の導関数を必要としないことを意味する「ゼロ」次の調査技法であること、(ii) GAが大域調査を行い、従ってGAは対象の関数表面の大域最適値に大部分が収束すること、(iii)GAにより用いられる調査手法は推計学的であり、従って、GAは対象関数の形式に関する平滑性、分化性、及び連続性(この特性により、上記の基準を同時に満たすことを対象関数に要求する古典的な勾配に基づくアルゴリズムを用いて解決できない最適化問題をGAを用いて解決できる)などの特定の仮定を持ち込むことなく利用できること、及び(iv) このGA手順は効果的に並列化でき、これは大きな多次元の解空間を効率的且つ迅速に調査する助けとなる、というものである。本発明は実例の集合の入力/出力変数のそれぞれに加えられる雑音の最適レベルに到達し、それによりトレーニングされた該ネットワークが改良された予測精度及び一般化性能を有するように、ANNトレーニングに使用される拡大された雑音を重ね合わせた試料データ集合を作成するための遺伝的アルゴリズムに基づく方法を開示する。
【0007】
GA手順では、実例集合における入力/出力変数に重ねるべき雑音の許容値を表す最適解ベクトル(決断ベクトルとも呼ばれる)の調査は可能性のある(候補の)解の無作為に初期値に設定された集団から始める。この解は、通常二項の糸の形(染色体)でコードされ、次いで、最適化対象の充足させる点での、即ち関数の最小化又は最大化でのその解の適合性を測るため試験する。続いて、この候補解をその適合性得点の高い方から順に格付けし、「選択」、「交差」、及び「突然変異」を含むGA操作の主なループを該格付けした集団について行なう。このループの実施は候補解の新たな集団を形成する。現在の集団と比べたとき、この新たな集団は通常最適化対象を充足する点でより良好となる。上記のループを数回繰り返した後に生ずる最良の糸がこの最適問題に対する解となる。解ベクトルの適合性を評価すると同時に、その中に含まれる入力/出力変数特異的雑音許容値を用いて、実例集合における各パターンに相当する、多数の雑音を重ねた試料の入力−出力パターンを形成する。得られる拡大されたデータ集合は、次にRMSEなどの最小二乗費用関数を最小化するという見地で神経ネットワークをトレーニングするために使用する。ANNのトレーニングは勾配に基づくか又は他の適当な重み−最新化方式を用いて行なう。それにより得られるRMSEの大きさは雑音許容性を含む候補ベクトル解の適合値を計算するために使用される。GA−最適化雑音許容値を用いて形成されるデータに基づいてトレーニングされたネットワークは機械的雑音及び/又は測定誤差の存在下での真の入力−出力関係をより良好に近似し、従って、良好な予測精度及び一般化性能を有する。
【0008】
本発明は二つの実例の考察に基づいている。即ち、(i)工業的重合反応槽のANNに基づくモデル化、及び(ii) 連続攪拌式タンク反応槽(CSTR)のANN−に基づくモデル化であり、ここでは、A→B→Cの発熱的連続反応が起こる。本発明の方法を用いて得られた予測精度を普通に使用されたネットワークトレーニング手順を用いて得られたものと比較する。
【0009】
発明の目的
本発明の主な目的は、機械的雑音及び/又は測定誤差を含む入力−出力データの存在下で人為的神経ネットワークモデルの予測精度及び一般化性能を改良する方法を提供することである。とりわけ、コンピュータを用いて、ネットワークトレーニングに使用されるためのガウス雑音を重ねられた拡大試料の入力−出力データの集合を作成するための方法論が発明された。ここでは、入力/出力変数のそれぞれに添加されるべき雑音の量が遺伝的アルゴリズム(GA)に基づく戦術を用いて最適化される。このGAに基づくアプローチは、二つの類似の入力は二つの類似の出力を生ずるべきであるという原理に従って、実例データの入力−出力変数に添加されるべき雑音の最適レベルを確定する。
【0010】
発明の概要
本発明は、改良された予測精度及び一般化性能を有するANNモデルを構築するための、人為的に作成された雑音を重ねた入力−出力データパターンを採用する。本質的に、本発明で提示されるこの方法は、その入力と出力の間に存在する雑音の関係をANNに強制的に習得させる。この発明された方法はネットワークトレーニングのため、雑音を重ねられた拡大試料データの集合を作成すべく入力−出力変数に特異的な雑音許容値を使用する。具体的には、既知の許容性のガウス雑音を実例集合の入力及び出力変数のそれぞれに添加し、このようにして実例集合における各パターンに相当する多数の雑音を重ねたパターンを形成する。本発明では、入力/出力変数のそれぞれに特異的なこの許容値は、「遺伝的アルゴリズム」として知られる新規な進化論的推計学的最適化方式を用いて最適化される。雑音を重ねられた拡大試料データの上でトレーニングされたこのANNモデルは改良された予測精度及び一般化能力を有することが見出された。
【0011】
発明の詳細な説明
従って、本発明は、ネットワークモデルを構築するために利用可能な、実例の集合として知られた入力−出力データが機械的雑音及び/又は測定誤差を含む場合、非線形の人為的神経ネットワークモデルの予測精度及び一般化性能を改良する方法であって、下記の工程、即ち
(a)コンピュータシミュレーションを用いて雑音を重ねた拡大入力−出力試料データの集合を形成する工程、
(b)コンピュータシミュレーションを用いて実例の集合における入力−出力パターンのそれぞれについてM個の雑音を重ねた試料入力−出力パターン(ベクトル)を形成する工程、
(c)入力/出力変数のそれぞれに特異的な雑音許容値を用いて雑音を重ねた試料入力−出力パターンを形成する工程、
(d)雑音を重ねた試料入力−出力パターンを作成するため、コンピュータシミュレーションを用いてガウス(正規に)分布した無作為数を形成する工程、
(e)推計学的調査及び最適化技法を用いて実例集合における入力/出力変数それぞれに添加すべきガウス雑音の正確な量を決定する工程、及び
(f)非線形人為的神経ネットワークモデルを構築するための「トレーニング集合」として、コンピュータで形成された雑音を重ねた試料の入力−出力パターンを用いる工程
を含む方法を提供する。
【0012】
遺伝的アルゴリズムにより決定された実例集合の入力−出力変数それぞれに添加されるべきガウス雑音の正確な量が全体的に(局部的でなく)最適である、本発明の一実施態様。
【0013】
実例集合が人為的神経ネットワークモデルの一般化性能を監視するための「テスト集合」として使用される、本発明の別の一実施態様。
【0014】
人為的神経ネットワーク構造が「フィード−フォワード」である、即ちこのネットワーク内の情報の流れが入力層から出力層への一方向である、本発明のさらに別の一実施態様。
【0015】
フィード−フォワード神経ネットワーク構造が多層知覚(MLP)ネットワーク、ラジアル・ベイシス・ファンクション・ネットワーク(RBFN)、及びカウンター・プロパゲーション神経ネットワーク(CPNN)を含むものである、本発明のさらに別の一実施態様。
【0016】
人為的神経ネットワークモデルを構築するため又はトレーニングするために使用されるアルゴリズムがエラー・バック・プロパゲーション、コンジュゲート・グラディエント、クイックプロプ及びRPROPを含むものである、本発明のさらに別の一実施態様。
【0017】
雑音許容性を最適化するために使用される推計学的調査及び最適化技法が遺伝的アルゴリズム及び関連する方法、即ち、シミュレーティッド・アニーリング(SA)、サイマルテイニアス・パーターベーション・ストカスティック・アプロクシメーション(SPSA)、進化論的アルゴリズム(EA)及びメメティックアルゴリズム(memetic algorithms) (MA)を指すものである、本発明のさらに別の一実施態様。
【0018】
拡大された雑音を重ねた試料入力−出力データ集合が小規模の実例入力−出力集合からコンピュータシミュレーションを用いて作成されるものである、本発明のさらに別の一実施態様。
【0019】
本発明は下記の実施態様の形でさらに説明される。
実例集合を表すP個の入力−出力パターンの対、[(x1, y1), (x2, y2),……,( xP , yp ),……,( xP, yP )]を考えよう。N次元の入力ベクトルxp と対応するK次元の出力ベクトル yp の間の相互関係はK次元の非線形関数ベクトルfによって支配される。fは、 yp =f(xp ) と定義される。このxp ベクトルと yp ベクトルはそれぞれ入力パターン及び対応する出力(標的)パターンと呼ばれる。第p番目のN次元入力ベクトルであるxp は [ xp1 , xp2 ,‥‥ , xpN] T と定義され、対応するK次元標的出力ベクトルである yp は [ yp1 , yp2 ,‥‥ , ypK] T と定義される。MLP(図1を参照)などのフィード・フォワード神経ネットワーク(FFNN)は、xp と yp の間の非線形関係を以下に示すように近似する、
yp =f(xp , WH , WO ) (1)
上式中、行列 WH 及び WO はそれぞれMLPの入力層ノードと隠れた層ノードの間及び隠れた層ノードと出力層ノードの間の関連に関する重みを表す。MLPネットワークをトレーニングすることの全体としての目的は適当な最小二乗を最小化することである。
【0020】
例えば、二乗平均誤差(RMSE)などの誤差関数(ナンディ,S.,ゴーシュ,S.,タンベ,S.S.,クルカーニ,B.D.「人為的神経ネットワーク支援推計学的プロセス最適化戦略」AIChE J., 47, 126, 2001 )は、以下のように定義される。
【0021】
【数1】
Figure 2005521167
【0022】
上式中、iは入力パターンの指標(i=1,2,‥‥,Npat ) を意味し、Kは出力ノードの数を示し、そしてEi は以下に定義される和二乗誤差(sum-squared-error)(SSE)を表す。
【0023】
【数2】
Figure 2005521167
【0024】
上式中、yi k は該ネットワークの入力層にi番目の入力パターンが適用された場合のk番目の出力ノードの実際の出力を示し、oi k は対応する標的出力を示す。RMSE最小化の仕事は、一般化デルタ・ルール(GDR)に基づくエラー・バック・プロパゲーション(EBP)、コンジュゲート・グラディエント、又はより進んだ方法であるクイックプロプ(ファールマン,S.E.「バック・プロパゲーションに関する急速習得変法」,proceedings of the 1988 Connectionist Models Summer School, D.S.トゥレツキー, G.E.ヒントン, 及び T.J. セイノウスキー編, pp. 38-51 、モーガン・カウフマン, サンマテオ, CA, 1988)、及び弾力性のあるバック−プロパゲーション(RPROP)(リードミラー, M.,ブラウン,H.「急速バック−プロパゲーション習得のための直接適応法:RPROPアルゴリズム」 Proc. of IEEE Int. Conf. on Neural Net., サンフランシスコ, CA, 3月28日−4月1日,1993)などの適当な下降勾配技法を用いて達成される。ネットワーク・トレーニングは重み付け行列、WH 及びWO を無作為に初期化することから始まる繰り返し手順である。トレーニングの繰り返しはネットワーク層を通る、二つのタイプの通過、即ちフォワード及びリバースの通過からなる。フォワード通過では、トレーニング・データ集合からの入力パターンが入力ノードに適用されそして隠れたノードの出力が評価される。この出力を計算するためには、まず、隠れたノードへの入力の加重総和を計算し、次いでこれをロジスティック・シグモイドなどの非線形活性化関数を用いて変換する。入力層ノードから出力層ノードへの隠れたノードの出力は隠れたノードの出力と同様にして評価される。ネットワーク出力とも呼ばれる出力層ノードの出力は標的出力と比較される。そしてリバース通過では、ネットワーク出力と標的出力の間の差(予測誤差)が重み行列であるWH 及びWO を最新化するために使用される。この重み最新化手順がトレーニング集合の全てのパターンについて繰り返されると、一つのトレーニング反復が完了する。重み行列であるWH 及びWO は、EBP、コンジュゲート・グラディエント、クイックプロプ及びRPROPなどの種々の方法を用いて最新化できることが注目される。本発明は一つの方法を提唱する。この方法により、トレーニング・データとして使用すべき雑音を重ねた試料入力−出力データの拡大した集合が実例集合から作成され、そして得られるANNモデルが改良された予測精度及び一般化性能を有するように、遺伝的アルゴリズムを用いて入力/出力変数それぞれに加えられるべき雑音の最適量が決定される。実例集合の入力/出力変数それぞれに加えられるべき雑音の量を最適化するために発明された方法を以下に説明する。
【0025】
実例集合におけるP個のN次元入力ベクトルを〔P×N〕入力行列であるX、そして同数の対応するK次元の出力ベクトルを〔P×K〕出力行列であるYと考えよう。本発明は行列X及びYそれぞれに雑音を重ねた行列X’及びY’を作成する。これらはANNトレーニングのためのトレーニング用の入力集合及び出力集合として用いられる。加えられるべき(正規分布した)ガウス雑音の量は入力/出力変数に特異的であり、許容パーセンテージの項で特徴付けられる。入力行列X及び出力行列Yに雑音を導入するために使用される雑音許容ベクトルは、それぞれε1 及びε0 と定義される。N次元入力ベクトルの各要素に加えられるべき雑音を特徴付けるN次元雑音許容ベクトルは次のように定義される。
【0026】
【数3】
Figure 2005521167
【0027】
そしてそのn番目の要素ε1 n は入力行列Xのn番目の列要素{xpn}にガウス雑音を導入するために使用される。p=1,2,‥‥,Pである。この雑音許容値であるε1 n は次のように定義される。
【0028】
【数4】
Figure 2005521167
【0029】
上式中、xpn及びσ1 pnはガウス分布の平均値及び標準偏差を示す。
【0030】
方程式5を変形すると、標準偏差は下記の式として計算できる。
【0031】
【数5】
Figure 2005521167
【0032】
ガウス分布の平均値としてxpn(n=1,2,‥‥,N)、標準偏差としてσ1 pn(n=1,2,‥‥,N)を用いると、M個の雑音を重ねた試料入力パターンが実例集合におけるp番目(p=1,2,‥‥,P)の入力パターンに対応して(コンピュータ・シミュレーションを用いて)形成される。得られる雑音を重ねて誘導された入力行列(X’)は[(MP)×N]の次元を有する。
【0033】
入力に対する雑音許容ベクトルε1 と同様に、本発明者らはK次元の出力雑音許容ベクトルε0 を、
ε0 =[ε0 1 , ε0 2 ,‥‥,ε0 k , ‥‥,ε0 K T (7)
と定義する。
【0034】
この許容ベクトルのk番目の要素ε0 k は標的出力行列であるYのk番目の列要素{ypk, p=1,2,‥‥,Pにガウス雑音を導入するために使用される。この許容ベクトル要素であるε0 k は下記の式のように定義される。
【0035】
【数6】
Figure 2005521167
【0036】
上式中、ypk及びσ0 pkはそれぞれガウス分布の平均値及び標準偏差を示す。方程式8を変形すると、標準偏差は下記の式により評価される。
【0037】
【数7】
Figure 2005521167
【0038】
雑音を重ねた試料出力行列Y’は、行列X’と同様にしてコンピュータ・シミュレーションを用いて形成される。ここで、ypk(k=1,2,‥‥,K)及びσ0 pk(k=1,2,‥‥,K)はそれぞれガウス分布の平均値及び標準偏差として用いられ、M個の雑音を重ねた試料出力パターンが実例集合におけるp番目(p=1,2,‥‥,P)の標的出力パターンに対応して形成される。得られる雑音を重ねた試料出力行列Y’は[(MP)×K]の次元を有する。ANNトレーニングの間、行列X’及びY’は入力−出力トレーニングデータとして用いられ、一方、行列X及びYは該ネットワークの一般化性能を監視するためのテスト用入力−出力データとして用いられる。
【0039】
その入力と出力の間の関係が非線形であるシステムでは、従属(出力)変数は原因(入力)変数の変化に種々の程度の感受性を示す。従って、(許容ベクトルの要素,ε1 及びε0 により定義された)実例集合における入力/出力変数それぞれに加えられるべき雑音の正確な量の決定は重要な論点となる。本発明は実例データ集合の入力−出力要素に加えられるべき雑音の正確な量を最適化するため、GAに基づく方法を導入する。雑音を重ねたデータは、ネットワークをトレーニングする際に使用されると、改良された予測精度及び一般化性能を有するネットワークモデルを生ずる。以下に、実例集合の入力/出力要素それぞれに加えられるべき雑音の正確な量を最適化するためのGAに基づくアプローチを記述する。
【0040】
GAに基づく最適化という課題は次のように述べられる。即ち、雑音許容値を用いて作成された雑音を重ねた拡大されたトレーニング用集合が改良された予測精度及び一般化能力を有するネットワークモデルを生ずるように、入力/出力変数特異的雑音許容度の最適値を見出すことである。本質的には、GAの課題は、それが雑音を重ねた拡大された入力−出力トレーニングデータ集合を作成するために用いられたとき、テスト集合と比べてRMSE誤差が最小となるような、最適な入力雑音許容ベクトル及び出力雑音許容ベクトル、ε1*=[ ε1* 1 , ε1* 2 , ‥‥,ε1* n ,‥‥,ε1* NT 及びε0* =[ε0* 1 , ε0* 2 , ‥‥,ε0* k ,‥‥,ε0* KT を見出すことである。従って、GAにより最小化されるべき対象の関数はテスト集合RMSEであり、次のように定義される。
【0041】
【数8】
Figure 2005521167
【0042】
上式中、iはテスト入力パターンの指標を表し(i=1,2,‥‥,Ntst )、KはMLP構造における出力ノードの数を示し、Ntst はテスト集合におけるパターンの数を表し、そしてEi はi番目のテストパターンに対応する和二乗誤差(SSE)を表す。
【0043】
RMSEtst 最小化に関与する遺伝的アルゴリズムの工程は次のようになる。
(1)候補解集団の初期値設定:世代指標(Ngen )をゼロに設定し、そしてNpop 二項の糸(染色体)の集団を無作為に形成する。全部でlchr ビットを持つ糸それぞれを最適化すべき決断変数(N+K)の数と同数のセグメントに分割する。糸の(N+K)の二項セグメントの十進法等価物は候補の解ベクトルを表すことに注意せよ。この解ベクトルの最初のN個の要素はN個の入力変数に対応する雑音許容度を示し、次のK個の要素は同数の出力変数に対応する雑音許容度を表す。こうして、Npop 個の候補解の集団は入力−出力雑音許容度の組み合わせ集合として記述できる。即ち
{ε0 ln , ε0 lk}; l=1,2,‥‥,Npop 、n=1,2,‥‥,N、
k=1,2,‥‥,K (11)
【0044】
(2)適合性計算:その解の適合値を計算するため、入力−出力雑音許容度のベクトル対を含む現在の集団におけるl番目(l=1,2,‥‥,Npop )の候補解を利用する。具体的には、入力−出力雑音許容値は、前に概述した手順(方程式6及び9をも参照)に従うことにより、ガウス雑音を重ねた拡大されたトレーニング集合{X’,Y’}を作成するために用いられる。そのようにして作成されたトレーニング集合はEBP、コンジュゲート・グラディエント、クイックプロプ及びRPROPなどの適当な習得アルゴリズムの枠内でネットワーク重み行列WH 及びWO を調節するために利用される。トレーニングの間、実例入力−出力集合はテスト集合として使用され、そして対応するRMSE値(RMSEtst (l))は次式を用いてl番目の候補解の適合性(ξl )を計算するために用いられる。
ξl =l/(l+RMSEtst (l));l=1,2,‥‥,Npop (12)
【0045】
方程式12で定義された適合性関数の形は適合値ξl を評価するために使用できる幾つかのうちの一つであることに注意すべきである。罰則項を含む適合性関数を使用することも可能である(デブ,K.「工学設計、アルゴリズム、及び実例の最適化」プレンティス−ホール,ニューデリー,1995)。適合性評価の後に該候補糸はそれらの適合値の大きい方から順に格付けされる。
【0046】
(3)親の選択:現在の集団からNpop 個の親の染色体を選択して交配用のプールを作成する。このプールの構成員は比較的高い適合性得点を有するように選択され、それらは子孫糸を作成するために使用される。普通に使用される親の選択法はルーレット−ホイール(RW)法でありそして推計学的残り選択(SRS)(ゴールドバーグ,D.E.「調査、最適化、及び機械習得における遺伝的アルゴリズム」アディソン−ウェスレー,ニューヨーク,1989) として知られるRW法のより安定な変法である。
【0047】
(4)交差:交配用プールから、Npop /2個の親の対を無作為に選択し、Pcr(0<Pc ≦1.0 ) に等しい交差確率を持つ各対について交差操作を行なう。交差では、親の対の各メンバーを同じく無作為に選んだ交差点で切断する。結果として、二つの下位の糸が各親糸から形成される。この下位の糸は親の間で相互に交換され且つ結合されて二つの子孫染色体を生ずる。「一点交差」と呼ばれるこの交差操作は、親の対の全てについてなされたとき、Npop 個の子孫糸を含む集団を生ずる。
【0048】
(5)突然変異:子孫糸について突然変異(ビット反転)操作を行なう。ここで、ビットが反転する(ゼロから1へ又はその逆)確率はpmut に等しい。推奨されるpmut の範囲は〔0.01−0.05〕である。
【0049】
(6)世代指標を1ずつ増加させ(Ngen =Ngen +1)、新たに形成された子孫糸について工程2〜5を収束に達するまで繰り返す。GA収束の基準はNgen がその最大限界(Nmax gen ) を超えること、又は突然変異した子孫集団における最良の糸の適合性得点が後続の世代にわたって極めて小さな変化しかしない又は全く変化しないことである。GA収束が達成された後、最高の適合値を有する糸を解読して最適化された解を得る。通常、最小RMSEtst 量をもたらす最適解ベクトル〔ε1* , ε0*〕を得るためには大量の数の世代が必要である。
【0050】
本発明の好ましい実施態様を以下に記述するが、本発明は変化及び修飾を受けることができる。従って、本発明の範囲はその効果を証明するために使用される実施例の正確な詳細に限定されない。
【0051】
本発明の実施態様では、非線形モデル化及び分類を行なうために用いられる人為的神経ネットワークが雑音を重ねた拡大された入力−出力データ集合を用いてトレーニングされる。ここで、実例集合における入力/出力変数それぞれに加えられるべき雑音の最適量は遺伝的アルゴリズムとして知られる推計学的最適化方式を用いて決定された。この遺伝的アルゴリズムはネットワークに改良された予測精度及び一般化性能を持たせ得る
【0052】
本発明の別の一実施態様では、機械的雑音及び/又は測定誤差を含む「実例集合」と呼ばれる入力−出力データがオフライン又はオンラインのいずれかで集められた場合に適用可能な方法が示される。
【0053】
本発明のさらに別の一実施態様では、この方法はその実施のためにプロセス監視システム、プロセスのタイプ、及びセンサーハードウェアなどについての知識を必要としない。
【0054】
本発明のさらに別の一実施態様では、実例データに加えられるべき最適雑音が、サイマルテイニアス・パーターベーション・ストカスティック・アプロクシメーション(SPSA)、シミュレーティッド・アニーリング(SA)、アント・コロニー(ant colony) 法、及びメメティックアルゴリズムなどの他の推計学的最適化技法を用いて決定され得る。
【0055】
本発明の付加的実施態様では、この方法は入力と出力の実例データの間の関係が非線形である場合の人為的神経ネットワークモデルを開発するために使用できる。
【0056】
本発明のさらに付加的実施態様では、発明された方式は、エラー・バック・プロパゲーション、コンジュゲート・グラディエント、クイックプロプ、及びRPROPなどの種々の決定論的且つ推計学的な人為的神経ネットワークトレーニングスキームに適用できる。
【0057】
従って、本発明は機械的雑音及び/又は測定誤差を含むデータの存在下で人為的神経ネットワークモデルの予測精度及び一般化性能を改良する方法であって、下記の工程(図2参照)を含む方法を提供する。
(a)プロセスデータ(実例集合)を原因(入力)変数の[P×N]行列(X)及び対応する従属(出力)変数の[P×K]行列(Y)の形式で編集する工程。
(b)実例データ集合を前処理する工程、即ち明らかな及び明らかでないアウトライアー(はずれ値)を除去し、欠落のあるデータ、センサーの誤った読みなどを含むパターンを捨てる工程。
(c)サイズNpop の糸の候補解集団を無作為に形成することによりGA調査及び最適化手順(世代の数,Ngen =0)を始める工程。ここで、解はそれぞれN個の入力雑音許容度(ε1 )及びK個の出力雑音許容度(ε0 )を記述する[N+K]次元の決断変数ベクトルである。
【0058】
(d)l番目(l=1,2,‥‥,Npop )の候補解を用いて、下記の工程を行なう、
(i)実例集合におけるp番目(p=1,2,‥‥,P)の入力−出力パターンに対応する、M個のガウス雑音を重ねた試料入力−出力パターンを、コンピュータ・シミュレーションを用いて形成させる工程。入力及び出力の試料パターンを形成させるための標準偏差値(σ1 ,σ0 )はそれぞれ方程式6及び9を用いて計算される。得られる試料入力行列であるX’及び出力行列であるY’はそれぞれ[(MP),N]及び[(MP),K]の次元のものである。
【0059】
(ii) 入力層及び隠れた層それぞれにおけるN個の入力ノード、NH 個の隠れたノード、一つのバイアスノード、並びにK個の出力ノードを収容するMLPなどのフィード・フォワードANNを、適当なトレーニングアルゴリズム、例えば、エラー・バック・プロパゲーション、コンジュゲート・グラディエント、クイック−プロプ、又はRPROPを用いてトレーニングする工程。トレーニングの間、ネットワーク重み行列であるWH 及びWO はそれぞれ雑音を重ねた試料入力−出力行列であるX’及びY’を用いて調節され、そして実例入力−出力行列であるX及びYはこのネットワークの一般化能力を測るためのテストデータとして使用される。ネットワークトレーニングの目的はテスト集合(RMSEtst )と比べRMSEを最小にすることである。この目的を達成するため、隠れた層の数、隠れた層それぞれにおけるノードの数、及びトレーニング用アルゴリズムに特異的なパラメータ、例えば、EBPアルゴリズムにおける習得速度及び運動量係数を最適にする必要がある。l番目の候補解に対応するこの最小化されたテスト集合のRMSE値はRMSEtst (l) と定義される。
【0060】
(e)前の工程で得られた最小化されたRMSEtst (l) 値を用いて、候補解の適合値ξl (l=1,2,‥‥,Npop )を計算する工程。以下に示すようなものなどの適当な適合性関数を適合値を計算するために使用しうる。
ξl =1/(1+RMSEtst (l) ) (13)
l=1,2,‥‥,Npop
上式中、ξl はl番目の候補解の適合性得点を示し、RMSEtst (l) はl番目の解が雑音を重ねた拡大されたトレーニングデータを形成させるために使用された場合の最小化されたテスト集合RMSE値を表す。これらの適合性値を評価した後、その候補解を適合性得点の大きい方から順に格付けする。
【0061】
(f)先に詳述したように、この格付けされた候補解の集団について、選択、交差及び突然変異の操作を行って新たな世代の解(Ngen =Ngen +1)を得る。
【0062】
(g)この新たな世代の候補解について収束が得られるまで工程(d)から(f)までを行なう。収束の成功の基準は、GAが多数の世代にわたって(Ngen ≧Nmax gen ) を生ずること、又は最良の解の適合性値が後続の世代において極めて小さな変化しかしないか又は全く変化しないことのいずれかである。この収束した集団における最高の適合値を有する候補解がGA−最適化解(ε1* , ε0*)を表し、そしてこの解に対応する重み行列(WH 及びWO )は改良された予測精度及び一般化性能を有するANNモデルの最適重みを表す。
【0063】
本発明を利用する下記の実施例は例示のために示すものであり、従って、本発明の範囲を制限するものと解すべきではない。
【0064】
実施例1
本発明の方法論の第一の例で使用されるデータは、工業的重合プロセスの実施から得られる。このプロセスのデータは9個の入力と1個の出力とから成り、入力はプロセスの条件を記述し、出力はポリマーの品質のパラメータを表す。ANNモデル化には全部で28個の入力−出力データパターン(実例の集合)が利用可能であった。これらのデータは機械的雑音及び測定誤差を含んでいた。ANNの模範としてMLPを用いて、最初の幾つかのネットワークモデルを開発し、EBP、コンジュゲート・グラディエント、クイックプロプ及びRPROPなどの種々のトレーニング用アルゴリズムを用いてこのポリマーの品質パラメータを予測した。MLPに基づくモデルを発展させながら、隠れた層の数、隠れた層それぞれ中のノードの数、習得速度、運動量係数などの種々のネットワーク構造のパラメータの効果を厳密に研究した。また、ネットワークの重みの異なる初期設定の効果、及びトレーニング集合やテスト集合のサイズの効果も徹底的に検討した。トレーニング集合及びテスト集合に関して最小のRMSE値を生じた上述の方法を用いてトレーニングされたMLPネットワークの構造は、入力層中に9個のノード、隠れた層−1中に6個のノード、隠れた層−2中に7個のノード、そして出力層中に1個のノードを含んでいた。トレーニング集合及びテスト集合に関するRMSE誤差の量は、それぞれ 0.00590 (RMSEtrn ) 及び 0.03436 (RMSEtst ) であった。RMSE値から見ることができるように、RMSEtst がRMSEtrn よりも遙かに大きく、従って、このネットワークモデルの一般化能力は満足すべきものでないことが推論できる。このネットワークモデルの予測精度及び一般化性能を両方共改良するため、本発明に例示された方法論を使用した。特に、この実例集合の各パターンについて25(M=25)の雑音を重ねた試料の入力−出力パターンを作成した。全部で700個の入力−出力パターンを含む雑音を重ねたデータを作成するために使用した最適入力−出力雑音許容値(ε1*,ε0*) は本発明で導入された遺伝的アルゴリズムに基づく戦術を用いて得られた(図2も参照)。GAにより与えられた最適許容値を表1に列挙する。これらの数値は以下に示すGA特異的パラメータ値を用いて得られた。即ち、(i)各糸集団の長さ(lchr )=10ビット、(ii) 集団のサイズ(Npop )=16、(iii)交差の確率(Pcr)= 0.9、及び(iv) 突然変異の確率(Pmut )= 0.05 である。この雑音を重ねたデータの上でトレーニングされたMLPネットワークは表2で報告されたRMSE値を生じた。比較のために、雑音を重ねていないデータをトレーニング集合として用いて得られた最小のRMSE値もこの表に列挙している。雑音を重ねたデータの上でトレーニングされたネットワークがトレーニング集合データ及びテスト集合データの両方についてより小さなRMSE値を生じたことが、表2に列挙された数値から明瞭に見られ得る。より重要なことは、上記RMSEtst が 0.03436から 0.00172へ有意に減少したことである。比較を容易にするため、ネットワークが予測した数値と標的出力値の間の平均のパーセンテージ誤差及び相関係数(CC)を計算し、これらも表2に列挙している。観察できるように、このCC値は雑音を重ねたデータがネットワークトレーニングに使用されるとき増加した。より小さなトレーニング集合RMSE値及びテスト集合RMSE値はそれぞれこの雑音を重ねたデータの上でトレーニングされたネットワークモデルの予測精度及び一般化性能の改良を示した。また、ネットワークで予測された出力とそれらの望ましい量の間の平均のパーセンテージ誤差も有意に減少した。従って、本発明がネットワークモデルの予測精度を改良しそして一般化性能をも改良することに成功したものと推論できる。
【0065】
【表1】
Figure 2005521167
【0066】
【表2】
Figure 2005521167
【0067】
実施例2
この実施例では、その中で直列の二つの二次反応、A→B→Cが起こるジャケットを装備した非等温的連続攪拌式タンク反応槽(CSTR)を使用するプロセスが検討される。このプロセスデータは6個のCSTR操作変数(入力)の定常状態の値を含み、そしてその中の1個の出力が生成物の品質の変数の対応する定常状態の値を示す。全部で50個の入力−出力データパターン(実例集合)がANNに基づくモデル化のために利用可能であった。このデータは機械的雑音及び/又は測定誤差を含んでいた。まず、実例集合を出力変数の値を予測するためのトレーニングデータとして使用してMLPモデルを開発した。そのために、EBP、コンジュゲート・グラディエント、クイックプロプ、及びRPROPなどの種々のトレーニングアルゴリズムを利用した。MLPネットワークモデルを開発しながら、種々の構造的パラメータ、例えば、隠れた層の数、隠れた層それぞれのノードの数、習得速度、運動量係数などの効果を研究した。また、ネットワーク重みの異なる初期設定、及びトレーニング用集合やテスト集合のサイズの効果を厳密に検討した。上述の方法を用いてトレーニングされ、該トレーニング用集合やテスト集合に関して最小のRMSE誤差を生じたMLPネットワークの構造は、入力層に6個のノード、隠れた層−1に4個のノード、隠れた層−2に4個のノード、そして出力層に1個のノードを含んでいた。トレーニング集合及びテスト集合に関するRMSE誤差は、それぞれ 0.00909 (RMSEtrn ) 及び 0.01405 (RMSEtst ) であることが見出された。このRMSE値から、ネットワークモデルの予測精度及び一般化性能を改良するためのかなりの余地がなお存在することが見られる。この目的を達成するため、本発明で例示された方法論が用いられた。具体的には、実例集合におけるパターンのそれぞれについて、25個(M=25)の雑音を重ねた試料入力−出力パターンを作成した。全部で1250個の試料入力−出力パターンを含む雑音を重ねたデータを作成するために使用した最適許容値(ε1*,ε0*)は本発明で導入された遺伝的アルゴリズムに基づく戦術を用いて得られた(図2を参照)。GAにより与えられた最適雑音許容値は表3に列挙してある。これらの数値は以下に述べるGA特異的なパラメータ値を用いて得られた。即ち、(i)各糸集団の長さ(lchr )=10ビット、(ii) 候補集団のサイズ(Npop )=14、(iii)交差の確率(Pcr)= 0.9、及び(iv)突然変異の確率(Pmut )= 0.05 である。この雑音を重ねたデータを用いて得られたトレーニング集合及びテスト集合のRMSEの最小値は表4に列挙してある。比較のために、雑音を重ねていないデータを用いて得られたRMSEの最小値もこの表に列挙してある。表4に列挙した数値から、雑音を重ねたデータの上でトレーニングされたネットワークはトレーニングデータ及びテストデータの両方についてより低いRMSE値を生じたことが明瞭に読み取れる。より重要なことは、このRMSEtst は 0.01405から 0.00183まで有意に減少したことである。トレーニング集合及びテスト集合のRMSE値が極く小さいことは、雑音を重ねたデータの上でトレーニングされたネットワークモデルの予測精度及び一般化性能が向上したことを示すものである。この推論は対応する相関係数値がより高いこと(約1)及び平均予測誤差(%)の値がより小さいことによっても支持される。従って、本発明はCSTRのためのANNモデルの予測精度をそして一般化性能も改良することに成功したと結論できる。
【0068】
【表3】
Figure 2005521167
【0069】
【表4】
Figure 2005521167
【0070】
有利な点
(1)機械的雑音及び/又は測定誤差を含むデータの存在下で非線形の人為的神経ネットワークモデルを構築するための方式を容易に実施できること。
(2)この方法論は、それが専らコンピュータ・シミュレーションにより拡大されたトレーニングデータ集合を作成し、それにより人為的神経ネットワークモデルの予測精度及び一般化能力を改良するためのさらなるプロセスデータの収集を無用とするので、費用に対して効果が高いこと。
(3)発明された方法は、人為的神経ネットワークモデルの予測精度及び一般化性能を改良するための雑音を重ねたトレーニングデータを作成するが、その場合、入力−出力変数のそれぞれに加えるべき雑音の量が恣意的に選択されるのではなく、新規な且つ強力な推計学的最適化法、即ち、遺伝的アルゴリズムを用いて選択されるものであること。
(4)遺伝的アルゴリズムの使用は実例データの入力/出力変数のそれぞれに加えるべき雑音の全体的に(そして局部的にではなく)最適な量を得ることを可能とすること。
(5)本発明方法は、雑音を重ねる方法を用いて追加のトレーニングデータを作成するので、実例データがANNトレーニングを行なうには不適当な場合でさえも機能すること。
(6)この方法は多重入力−多重出力の非線形システムのモデル化及び分類のためにそれを適用することを保障する程に十分に一般的であること。
(7)本発明の方法は、人為的神経ネットワークに基づくモデル化及び分類を含む実時間適用に使用できること。
(9)本発明の方式は並列式コンピュータを用いて実施するために効率的に並列化できること。
(10)本発明の実施は完全に自動化され、使用者の介入は最小で済むか又は全く不要であること。
【図面の簡単な説明】
【図1】
図1は、多層知覚(MLP)などの典型的なフィード・フォワード神経ネットワークの概略図を示す。
【図2】
図2は、本発明の工程を詳述するフローチャートを示す。

Claims (8)

  1. ネットワークモデルを構築するために利用可能な実例集合として知られる入力−出力データが機械的雑音及び/又は測定誤差を含む場合に、非線形の人為的神経ネットワークモデルの予測精度及び一般化性能を改良する方法であって、
    (a)コンピュータ・シミュレーションを用いて雑音を重ねた拡大された入力−出力試料データ集合を作成する工程、
    (b)該実例集合における入力−出力パターンのそれぞれについて、コンピュータ・シミュレーションを用いてM個の雑音を重ねた試料入力−出力パターン(ベクトル)を作成する工程、
    (c)入力/出力変数のそれぞれに特異的な雑音許容値を用いて雑音を重ねた試料入力−出力パターンを形成する工程、
    (d)雑音を重ねた試料入力−出力パターンを作成するため、コンピュータ・シミュレーションを用いてガウス(正規)分布した無作為数を作成する工程、
    (e)推計学的調査及び最適化法を用いることにより実例集合中の入力/出力変数のそれぞれに加えられるべきガウス雑音の正確な量を決定する工程、及び
    (f)非線形の人為的神経ネットワークモデルを構築するための「トレーニング集合」としてコンピュータにより形成された雑音を重ねた試料入力−出力パターンを使用する工程、
    を含む方法。
  2. 遺伝的アルゴリズムにより決定される、実例集合の各入力出力変数に加えるべきガウス雑音の正確な量が全体的に(そして局部的にではなく)最適である、請求項1記載の方法。
  3. 該実例集合が人為的神経ネットワークモデルの一般化性能を監視するための「テスト集合」として用いられるものである、請求項1記載の方法。
  4. 該人為的神経ネットワーク構造が「フィード・フォワード」である、即ち、ネットワーク内の情報の流れが入力層から出力層への一方向である、請求項1記載の方法。
  5. 該フィード・フォワード神経ネットワーク構造が、多層知覚(MLP)ネットワーク、ラジアル・ベイシス・ファンクション・ネットワーク(RBFN)、及びカウンタープロパゲーション神経ネットワーク(CPNN)を含むものである、請求項1記載の方法。
  6. 人為的神経ネットワークモデルを構築するため又はトレーニングするために用いられたアルゴリズムが、エラー・バック・プロパゲーション、コンジュゲート・グラディエント、クイックプロプ及びRPROPを含むものである、請求項1記載の方法。
  7. 雑音許容性を最適化するために使用された該推計学的調査及び最適化法が、遺伝学的アルゴリズム及び関連する方法、即ち、シミュレーティッド・アニーリング(SA)、サイマルテイニアス・パーターベーション・ストカスティック・アプロクシメーション(SPSA)、進化論的アルゴリズム(EA)及びメメティック・アルゴリズム(memetic algorithms)(MA)を指すものである、請求項1記載の方法。
  8. 拡大された雑音を重ねた試料入力−出力データ集合が、小さなサイズの実例入力−出力集合からコンピュータ・シミュレーションを用いて作成されるものである、請求項1記載の方法。
JP2003579171A 2002-03-26 2002-03-26 機械的雑音及び測定誤差の存在下における人為的神経ネットワークモデルの性能の改良 Expired - Fee Related JP4157477B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/IB2002/001147 WO2003081527A1 (en) 2002-03-26 2002-03-26 Improved performance of artificial neural network models in the presence of instrumental noise and measurement errors

Publications (2)

Publication Number Publication Date
JP2005521167A true JP2005521167A (ja) 2005-07-14
JP4157477B2 JP4157477B2 (ja) 2008-10-01

Family

ID=28053165

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003579171A Expired - Fee Related JP4157477B2 (ja) 2002-03-26 2002-03-26 機械的雑音及び測定誤差の存在下における人為的神経ネットワークモデルの性能の改良

Country Status (7)

Country Link
EP (1) EP1382012B1 (ja)
JP (1) JP4157477B2 (ja)
KR (1) KR100869516B1 (ja)
CN (1) CN100520817C (ja)
AU (1) AU2002247918A1 (ja)
DE (1) DE60217663T2 (ja)
WO (1) WO2003081527A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007287153A (ja) * 2006-04-13 2007-11-01 Fisher Rosemount Syst Inc モデルベース制御技法におけるロバストなプロセスモデルの同定方法及びシステム

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103324085B (zh) * 2013-06-09 2016-03-02 中国科学院自动化研究所 基于监督式强化学习的最优控制方法
CN104347066B (zh) * 2013-08-09 2019-11-12 上海掌门科技有限公司 基于深层神经网络的婴儿啼哭声识别方法及***
US10466266B2 (en) * 2014-08-14 2019-11-05 University Of North Dakota Flight parameter prediction using neural networks
CN106019359A (zh) * 2016-05-17 2016-10-12 浪潮集团有限公司 一种基于神经网络的地震预测***
US10558204B2 (en) * 2016-09-19 2020-02-11 Palo Alto Research Center Incorporated System and method for scalable real-time micro-object position control with the aid of a digital computer
CN108108506B (zh) * 2016-11-24 2021-05-14 南方电网科学研究院有限责任公司 一种多端直流工程主回路参数的优化方法
KR101877161B1 (ko) * 2017-01-09 2018-07-10 포항공과대학교 산학협력단 문서 문맥정보를 고려하는 상황기반 추천 방법 및 장치
US10997492B2 (en) 2017-01-20 2021-05-04 Nvidia Corporation Automated methods for conversions to a lower precision data format
US10832135B2 (en) * 2017-02-10 2020-11-10 Samsung Electronics Co., Ltd. Automatic thresholds for neural network pruning and retraining
CN107007279B (zh) * 2017-03-17 2019-11-05 浙江大学 一种基于堆栈式自编码器的无创心内异常激动点定位方法
CN107389732B (zh) * 2017-07-14 2019-08-27 中国计量大学 一种激光扫描热成像裂纹检测方法
CN108104807A (zh) * 2017-12-16 2018-06-01 中国石油大学(华东) 一种海洋油气资源勘探***及其使用方法
CN110162807B (zh) * 2018-02-12 2023-09-12 沈阳理工大学 基于改进蚁群优化bp神经网络弹药贮存可靠性评估方法
CN110222834B (zh) * 2018-12-27 2023-12-19 杭州环形智能科技有限公司 一种基于噪声遮蔽的发散式人工智能记忆模型***
SG10201900755WA (en) * 2019-01-28 2020-08-28 Wilmar International Ltd Methods and system for processing lipid contents of at least one oil sample and simulating at least one training sample, and for predicting a blending formula, amongst others
CN110006664A (zh) * 2019-04-03 2019-07-12 上海好耐电子科技有限公司 基于神经网络的汽车制动噪声专家检测方法
CN110942144B (zh) * 2019-12-05 2023-05-02 深圳牛图科技有限公司 集自动化训练、校验、重构于一体的神经网络构建方法
CN111062442B (zh) * 2019-12-20 2022-04-12 支付宝(杭州)信息技术有限公司 解释业务处理模型的业务处理结果的方法和装置
CN111030180B (zh) * 2019-12-26 2023-08-25 河南牧业经济学院 基于无线传感器网络的双馈风电机组风能集成控制方法
CN111160667B (zh) * 2020-01-02 2023-05-30 北京工商大学 一种提高食品安全预测模型鲁棒性的方法及装置
KR102648937B1 (ko) * 2020-09-14 2024-03-20 한국전력공사 전력망 상태예측 모델 성능 관리 장치 및 방법
US11893327B2 (en) 2020-12-14 2024-02-06 Xerox Corporation System and method for machine-learning enabled micro-assembly control with the aid of a digital computer
US11921488B2 (en) 2020-12-15 2024-03-05 Xerox Corporation System and method for machine-learning-enabled micro-object density distribution control with the aid of a digital computer
CN113221436A (zh) * 2021-03-13 2021-08-06 宁波大学科学技术学院 一种基于改进型rbf神经网络的污水悬浮物浓度软测量方法
CN113243915A (zh) * 2021-05-10 2021-08-13 西北工业大学 一种基于音频注入的烦恼感抑制定量评价方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1992007325A1 (en) * 1990-10-15 1992-04-30 E.I. Du Pont De Nemours And Company Apparatus and method for on-line prediction of unmeasurable process information
JPH04262453A (ja) * 1991-02-15 1992-09-17 Hitachi Ltd ニュ−ロ学習制御方法及び装置
US5412256A (en) * 1994-01-06 1995-05-02 Bell Communications Research, Inc. Neuron for use in self-learning neural network

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007287153A (ja) * 2006-04-13 2007-11-01 Fisher Rosemount Syst Inc モデルベース制御技法におけるロバストなプロセスモデルの同定方法及びシステム
JP2013211053A (ja) * 2006-04-13 2013-10-10 Fisher Rosemount Systems Inc モデルベース制御技法におけるロバストなプロセスモデルの同定方法及びシステム

Also Published As

Publication number Publication date
DE60217663T2 (de) 2007-11-22
EP1382012A1 (en) 2004-01-21
JP4157477B2 (ja) 2008-10-01
WO2003081527A1 (en) 2003-10-02
CN100520817C (zh) 2009-07-29
EP1382012B1 (en) 2007-01-17
KR100869516B1 (ko) 2008-11-19
CN1571982A (zh) 2005-01-26
AU2002247918A1 (en) 2003-10-08
DE60217663D1 (de) 2007-03-08
KR20040099092A (ko) 2004-11-26

Similar Documents

Publication Publication Date Title
JP4157477B2 (ja) 機械的雑音及び測定誤差の存在下における人為的神経ネットワークモデルの性能の改良
US7313550B2 (en) Performance of artificial neural network models in the presence of instrumental noise and measurement errors
Boussabaine The use of artificial neural networks in construction management: a review
Jadav et al. Optimizing weights of artificial neural networks using genetic algorithms
Chouikhi et al. Single-and multi-objective particle swarm optimization of reservoir structure in echo state network
Masri et al. Training neural networks by adaptive random search techniques
Porto Neural-evolutionary systems
Aljahdali et al. Software reliability prediction using multi-objective genetic algorithm
Darus et al. Parametric and non-parametric identification of a two dimensional flexible structure
JP7359493B2 (ja) ハイパーパラメータ調整装置、ハイパーパラメータ調整プログラムを記録した非一時的な記録媒体、及びハイパーパラメータ調整プログラム
Anastassiou et al. A recurrent neural fuzzy network
JPH0561848A (ja) 最適アルゴリズムの選定及び実行のための装置及び方法
Rahaman et al. Artificial neural network for solving the inventory control problem in fuzzy environments
Hewahi et al. A biology inspired algorithm to mitigate the local minima problem and improve the classification in neural networks
Golbabai et al. Width optimization of Gaussian function by genetic algorithm in RBF networks
د. مريم محمد عبد الكريم اخويطر et al. An artificial neural network approach for the prediction of the growth rate of ZnO thin films
Gowramma et al. IVF Success Rates Prediction Using Hybrid ANN-GA based Machine Learning Model
Ogir Quality modeling of diagnostic images: analysis of the impact of network configuration and machine learning methods
Makhotilo Growing Elliptical RBF Network for Power Plant Return Water Temperature Model
CN117690531A (zh) 一种镍铁基高温合金焊接接头力学性能预测方法及***
Wen et al. Variable selection based on random vector functional-link in soft sensor modeling
Barschkis Exact and soft boundary conditions in Physics-Informed Neural Networks for the Variable Coefficient Poisson equation
Huang et al. In-Context Decision Transformer: Reinforcement Learning via Hierarchical Chain-of-Thought
Khoshgoftaar et al. On the Rarity of Fault-prone Modules in Knowledge-based Software Quality Modeling.
Setia et al. Quantum Inspired Evolutionary Technique for Optimization of End Milling Process

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20060302

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060317

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070925

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071206

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080708

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080711

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110718

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4157477

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110718

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120718

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130718

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130718

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140718

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees