JPH08314880A - ニューラル・ネットワークの学習方法およびニューラル・ネットワーク・システム - Google Patents

ニューラル・ネットワークの学習方法およびニューラル・ネットワーク・システム

Info

Publication number
JPH08314880A
JPH08314880A JP7138857A JP13885795A JPH08314880A JP H08314880 A JPH08314880 A JP H08314880A JP 7138857 A JP7138857 A JP 7138857A JP 13885795 A JP13885795 A JP 13885795A JP H08314880 A JPH08314880 A JP H08314880A
Authority
JP
Japan
Prior art keywords
input
neural network
node
layer
feature amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP7138857A
Other languages
English (en)
Inventor
Yasuhiro Tsutsumi
康弘 堤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP7138857A priority Critical patent/JPH08314880A/ja
Publication of JPH08314880A publication Critical patent/JPH08314880A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

(57)【要約】 【目的】 ニューラル・ネットワークを用いて複数の特
徴量の中から有効特徴量を選択できるようにする。 【構成】 複数のノードを含む入力層と,複数のノード
を含む一層または複数層の中間層と,入力層と同数のノ
ードを含む出力層とからなるニューラル・ネットワーク
(NN)があらかじめ設けられている。入力される教師
データに基づいて複数の特徴量があらかじめ作成されて
いる。この教師データをNNに入力したときのNNの出
力が入力される教師データに等しくなるようにNNに学
習が行われる。NNの中間層のノードの出力と特徴量と
の類似度に基づいて複数の特徴量の中から1つの特徴量
が有効特徴量として選択されるとともに,この有効特徴
量に対応する中間層のノードが有効特徴量を入力するた
めの入力ノードに置換えられる。教師データと有効特徴
量を用いたNNの学習と,有効特徴量の選択および入力
ノードへの置換とが繰返し行われる。

Description

【発明の詳細な説明】
【0001】
【技術分野】この発明は,学習を高速に行うニューラル
・ネットワークの学習方法およびニューラル・ネットワ
ーク・システムに関する。
【0002】
【従来技術とその問題点】一般に,制御システムにおい
ては,制御対象の状態がセンサによって検出され,その
センサ出力,またはセンサ出力に代えてもしくは加えて
センサ出力に基づいて作成される特徴量を用いて制御が
行なわれる。また,情報処理システムにおいても,入力
される処理すべき情報(データ),または入力情報に代
えてもしくは加えて入力情報に基づいて作成される特徴
量について処理が行われる。センサ出力,センサ出力に
基づく特徴量,入力情報および入力情報に基づく特徴量
を,以下単に特徴量という。
【0003】方程式をベースにした算術的方法により表
現したシステムにおいては,そのシステムに入力すべき
特徴量は画一的に決定される。一方,エキスパート・シ
ステム,ファジィ・システム,ニューラル・ネットワー
ク・システム等の知的推論システムにおいては,そのシ
ステムに入力すべき特徴量の決定は確定的な指針はな
く,入力される特徴量(入力変数)がその知的推論シス
テムの性能に与える影響が大きい。このため,知的推論
システムの設計を行う際には,入力変数の決定(選択)
が重要となる。したがって,知的推論システムの設計
は,取扱う対象の専門家とその知的推論システムの専門
家とが共同で行っていた。
【0004】しかしながら,このような知的推論システ
ムに入力すべき特徴量の選択が,対象の専門家と知的推
論システムの専門家とによって共同で行われるため,シ
ステムの構築に多大な労力と時間を必要とする。また,
対象の専門家とシステムの専門家との間に行違いが生じ
ることがあり,充分な推論性能をもつ知的推論システム
を構築できないことがある。このため,ニューラル・ネ
ットワークを用いて,複数の特徴量(これを特徴量候補
という)の中から有効な特徴量(これを有効特徴量とい
う)を選択する方法が提案されている。この有効特徴量
の選択方法には,たとえば次の2つの方法がある。
【0005】その1つは,複数の特徴量の中からいくつ
かの有効特徴量を選択し,これらの有効特徴量をニュー
ラル・ネットワークに入力し,選択された有効特徴量の
一部を他の特徴量候補に入替えて特徴量の評価しながら
有効特徴量を模索するものである。しかしながら,実際
には一の有効特徴量と他の有効特徴量との相関関係が重
要であるが,相関関係が考慮されないことが多い。
【0006】もう1つは,すべての特徴量候補をニュー
ラル・ネットワークに入力しセンサの出力または入力情
報を教師データとしてニューラル・ネットワークに学習
を行わせ,そのニューラル・ネットワークの各ノードに
ついて,後の層(出力層側)に与える影響が小さいノー
ドを削除することにより,最終的に残った入力層のノー
ドから入力される特徴量を有効特徴量として選択するも
のである。ノードの削除は,入力層のノードと中間層の
ノードとの結合度および中間層のノードと出力層のノー
ドとの結合度が0に近い結合(後の層に与える影響が小
さい結合)を削除し,前の層のノードとの結合がすべて
無くなったノードを削除するすることによって行われ
る。
【0007】一方,ニューラル・ネットワークにおい
て,教師データに基づく誤差逆伝搬法により学習を行う
と,ノードの総数によってその学習の演算量が決る。入
力層のノード数が2倍に増えそれに応じて中間層のノー
ドが2倍に増えたと仮定すると,入力層のノードと中間
層のノードとの結合数は4倍になり,学習の演算量が4
倍に増えることになる。また,ニューラル・ネットワー
クの規模が大きくなる(層数とノード数が増える)と,
学習が収束するまでの学習回数も多くなり,たとえば入
力層のノード数が2倍になると,学習回数が2倍以上に
なることもある。したがって,入力層のノード数が増加
すると,学習が収束するまでに要する演算量は入力層の
ノード数の増加割合の3乗以上に比例することになる。
一般に,ニューラル・ネットワークの規模が大きくなる
ほどその冗長性が高くなり,大局的最適解に収束する前
に局所解に陥る可能性が高くなる。局所解に陥らないよ
うな学習方法があるが,それらは学習に多大の時間また
は演算を要する。
【0008】しかしながら,このような従来の特徴量選
択装置においては,特徴量候補の数が増えると,それに
応じて入力層のノード数も増えるので,上述のように,
学習に多大な演算または時間を要することになる。特徴
量候補の数が増えるほど非効率である。また局所解に陥
る可能性も高くなり,これを回避するためにはニューラ
ル・ネットワークに関する専門的な知識を必要となる。
【0009】
【発明の開示】この発明は,ニューラル・ネットワーク
の構造を簡素化しながらニューラル・ネットワークの学
習を行うことにより,ニューラル・ネットワークの学習
を高速に行えるようにすることを目的としている。
【0010】この発明は,ニューラル・ネットワークを
用いて複数の特徴量の中から有効特徴量を選択できるよ
うにすることを目的としている。
【0011】この発明は,教師データに基づくニューラ
ル・ネットワークの学習を行うと,中間層のノードの中
には出力層のノードの振舞いと同一でなくかつ相関性を
もつものが現れる。この中間層のノードの振舞いと類似
した振舞いをする特徴量が複数の特徴量の中から見付か
れば,その特徴量は有効特徴量であるということに基づ
いている。
【0012】この発明によるニューラル・ネットワーク
の学習方法およびニューラル・ネットワーク・システム
について説明する。
【0013】この発明によるニューラル・ネットワーク
の学習方法は,複数のノードを含む入力層と,複数のノ
ードを含む一層または複数層の中間層と,入力層と同数
のノードを含む出力層とからなるニューラル・ネットワ
ークを設け,入力される教師データに基づいて複数の特
徴量をあらかじめ作成しておき,上記教師データを上記
ニューラル・ネットワークの入力層に入力したときの上
記ニューラル・ネットワークの出力が上記教師データに
等しくなるように上記ニューラル・ネットワークに学習
を行わせ,上記ニューラル・ネットワークの中間層の各
ノードの出力と上記特徴量とがどの程度類似しているか
を表す類似度をそれぞれ算出し,これらの類似度に基づ
いて上記複数の特徴量の中から1つの特徴量を有効特徴
量として選択するとともに,この有効特徴量に対応する
中間層のノードを上記有効特徴量を入力するための入力
ノードに置換え,上記教師データを入力層に入力し,上
記有効特徴量を入力ノードに入力してニューラル・ネッ
トワークの学習と,有効特徴量の選択および入力ノード
への置換とを繰返し行うものである。
【0014】この発明によるニューラル・ネットワーク
・システムは,複数のノードを含む入力層と,複数のノ
ードを含む一層または複数層の中間層と,入力層と同数
のノードを含む出力層とからなるニューラル・ネットワ
ーク,入力される教師データを上記ニューラル・ネット
ワークに入力したときの上記ニューラル・ネットワーク
の出力が上記教師データに等しくなるように上記ニュー
ラル・ネットワークに学習を行わせる学習手段,上記ニ
ューラル・ネットワークの中間層のノードの出力と,上
記教師データに基づいて作成された上記特徴量とがどの
程度類似しているかを表す類似度をそれぞれ算出し,こ
れらの類似度に基づいて上記複数の特徴量の中から1つ
の特徴量を有効特徴量として選択するとともに,この有
効特徴量に対応する中間層のノードを上記有効特徴量を
入力するための入力ノードに置換える構造変更手段,お
よび上記教師データと上記有効特徴量を用いたニューラ
ル・ネットワークの学習を上記学習手段に,有効特徴量
の選択および入力ノードの置換とを上記構造変更手段に
繰返し行わせる制御手段を備えている。
【0015】この発明によると,複数のノードを含む入
力層と,複数のノードを含む一層または複数層の中間層
と,入力層と同数のノードを含む出力層とからなるニュ
ーラル・ネットワークがあらかじめ設けられている。入
力される教師データに基づいて複数の特徴量があらかじ
め作成される。この教師データをニューラル・ネットワ
ークに入力したときのニューラル・ネットワークの出力
が入力される教師データに等しくなるようにニューラル
・ネットワークに学習が行われる。ニューラル・ネット
ワークの中間層のノードの出力と特徴量とがどの程度類
似しているかを表す類似度がそれぞれ算出される。これ
らの類似度に基づいて複数の特徴量の中から1つの特徴
量が有効特徴量として選択されるとともに,この有効特
徴量に対応する中間層のノードが有効特徴量を入力する
ための入力ノードに置換えられる。中間層のノードが特
徴量の入力ノードに置換えられることによって,その入
力ノードとその前の層のノードとの結合が無くなり,ニ
ューラル・ネットワークの学習において演算量が少なく
なる。教師データと上記有効特徴量を用いたニューラル
・ネットワークの学習と,有効特徴量の選択および入力
ノードへの置換とが繰返し行われる。
【0016】したがって,中間層のノードが有効特徴量
の入力ノードに置換えられることによって入力ノードと
その前の層のノードとの結合が無くなるので,その結合
が減少量に相当する学習の演算量が減るので,ニューラ
ル・ネットワークの学習を高速に行うことができる。ま
た複数の特徴量の中から有効な特徴量を自動的に選択す
ることができる。
【0017】このようにして選択された有効特徴量は,
ファジィ・システム,GA(ジェネティック・アルゴリ
ズム),ニューラル・ネットワーク等を用いた知的推論
システムの入力として用いられる。
【0018】この発明の一実施態様においては,入力層
の各ノードについてそのノードがどの程度その後の層に
寄与しているかを表す寄与度を算出し,これらの寄与度
のすべてが所定の閾値以下になったときに,上記ニュー
ラル・ネットワークの学習と有効特徴量の選択および入
力ノードへの置換とを終了する。
【0019】この発明の好ましい実施態様においては,
有効特徴量として選択されるべき1または複数の特徴量
を入力するための入力ノードを上記ニューラル・ネット
ワークの中間層にあらかじめ設けられる。
【0020】この実施態様によると,有効特徴量として
選択されるべき特徴量がニューラル・ネットワークにあ
らかじめ設けられるので,必要な有効特徴量を選択する
ことができる。
【0021】この発明のさらに好ましい実施態様におい
ては,上記ニューラル・ネットワークの中間層のノード
について,そのノードがどの程度その後の層に寄与して
いるかを表す寄与度をそれぞれ算出し,この寄与度およ
び上記類似度に基づいて上記有効特徴量を選択するもの
である。
【0022】この実施態様によると,寄与度と類似度に
基づいて有効特徴量が選択される。たとえば,寄与度が
大きいノードの中で類似度が最も大きい特徴量が有効特
徴量として選択される。
【0023】
【実施例】図1は,ジャケット・タンクの温度制御シス
テムの全体的な構成を示すブロック図である。この温度
制御システムは,所定の品質の製品を生産するために,
タンク内の原料(生成された製品を含む)の温度を所定
の目標温度になるように制御するものである。
【0024】生産を行うときには,原料Bをタンク1内
にあらかじめ投入しておき,その後原料Aがタンク1内
に投入され,原料Aと原料Bとが化学反応することによ
って製品Cが得られる。
【0025】原料が投入されるタンク1には,それを取
巻くようにジャケット2が設けられ,そのジャケット2
内には冷水(常温),水蒸気または冷水と水蒸気を混合
した温水が流入する。またタンク1内が攪拌器7により
攪拌される。
【0026】タンク1内の温度(これを内温という)
と,ジャケット2内の温度(これを外温という)とがそ
れぞれ,温度センサ(図示略)によって検出され,内温
を表す内温信号および外温を表す外温信号がコントロー
ラ6に入力される。バルブ開度信号がコントローラ6か
らバルブ3および4にそれぞれ出力されることにより,
冷水および水蒸気の流量がバルブ3および4によってそ
れぞれ調整される。冷水または水蒸気がジャケット2に
流入することによって,タンク1内の原料を冷却または
加熱することができる。
【0027】またタンク1に投入される原料(これを原
料Aという)の投入量がバルブ5により調整される。原
料Aの投入量がセンサ(図示略)によって検出され,そ
の投入量を表す投入量信号がコントローラ6に入力され
る。さらに投入される原料Aの温度が温度センサ(図示
略)によって検出され,その温度を表す原料温度がコン
トローラ6に入力される。
【0028】ジャケット2の辺りの気温(外気温)もま
た温度センサ(図示略)によって検出され,その外気温
を表す外気温信号がコントローラ6に入力される。
【0029】原料Aと原料Bとの化学反応は発熱反応で
あり,この発熱によりタンク1内の温度が上がる。原料
Aの投入量が多すぎると発熱量が大きくなりジャケット
2の冷却能力を超え,タンク1内の温度を目標温度に制
御することができなくなる。したがって,発熱量を少な
くするため原料Aの投入量を制御する必要がある。
【0030】図2は製品の一回の生産におけるタンク1
内の内温,ジャケット2内の外温および原料Aの投入量
のグラフの一例を示している。原料Aが投入されると原
料AとBが化学反応を開始し内温が上がり始める。内温
を目標温度に保つため,すなわち,タンク1内を冷却す
るため,ジャケット2内に冷水が流入し外温が下がる。
ジャケット2に流入する冷水が最大になっても(冷却能
力が最大になっても)内温が上がるため,タンク1内の
発熱反応を抑えるように原料Aの投入量が減らされ,内
温が目標温度に近づけるように制御される。その後,内
温が下がると再び原料Aの投入量を増やし,反応を増大
させる。
【0031】このように,内温を目標温度に制御するた
めには,タンク1内に投入する原料Aの投入量と,ジャ
ケット2に流入する冷水および水蒸気の流量とをコント
ローラ6によって調整しなけれはならないが,タンク1
内がジャケット2により最大冷却されるため,外温(ジ
ャケット2内の温度)を必ずしも制御しなくてもよい。
したがって,上述のように,内温,外温,外気温,投入
量および原料温度がコントローラ6に入力されるが,こ
れらのすべてを制御に用いる必要はない。また内温を目
標温度に制御するためにはタンク1内の発熱反応を考慮
しなければならないため,内温,外温,外気温,投入量
および原料温度に基づいて制御のための特徴量を作成す
る必要がある。内温,外温,外気温,投入量および原料
温度に基づく特徴量には,たとえば次の50個が挙げられ
る。
【0032】1)内温 2)外温 3)原料投入量 4)〜9)内温の現在とN分前との差(N=1,2,5,10,20,5
0) 10)〜15)外温の現在とN分前との差(N=1,2,5,10,20,5
0) 16)〜21)投入量の現在とN分前との差(N=1,2,5,10,2
0,50) 22)反応開始からの経過時間 23)反応開始からの内温の積分値 24)反応開始からの投入量の積分値 25)〜28)反応開始からN分後から内温の積分値(N=10,
20,50,100) 29)〜32)反応開始からN分後から投入量の積分値(N=1
0,20,50,100) 33)〜36)N分前から現在の内温の積分値(N=10,20,50,
100) 37)〜40)N分後から現在の投入量の積分値(N=10,20,5
0,100) 41)〜44)内温が(目標温度-M度)を最初に越えるまで
の時間(M=5,10,15,20) 45)〜48)内温が(目標温度-M度)を越えてからの経過
時間(M=5,10,15,20) 49)原料Aの投入前の原料温度 50)外気温
【0033】これらの特徴量の中には制御に不要なもの
または冗長なものがあり,それらの特徴量の中から有効
な特徴量(これを有効特徴量という)を選択する。有効
特徴量は,以下説明するニューラル・ネットワークを用
いた特徴量選択装置により選択する。この特徴量選択装
置は,ニューラル・ネットワークの中間層のノード(ニ
ューロン)の振舞いが,入力層のノードの振舞いよりも
出力層のノードに対して圧縮された密度の高い情報をも
つことに着目したものである。
【0034】センサによって検出されたセンサ出力(以
下,これをシステム出力という)を教師データ)として
これに基づくニューラル・ネットワークの学習を行う
と,中間層のノードの中には出力層のノードの振舞いと
同一でなくかつ相関性をもつものが現れる。この中間層
のノードの振舞いと類似した振舞いをする特徴量が特徴
量の候補の中から見付かれば,その特徴量は有効特徴量
である。
【0035】図3は,ニューラル・ネットワークを用い
た特徴量選択装置の詳細な構成を示す機能ブロック図で
ある。特徴量選択装置は,ニューラル・ネットワーク
(NN)11,類似度算出処理12,寄与度算出処理13,特
徴量決定処理14およびニューラル・ネットワーク(N
N)構造変更処理15を含んでいる。
【0036】この特徴量選択装置は,コンピュータとそ
の上で動作するソフトウェアとにより実現される。この
特徴量選択装置はまた,そのすべてをハードウェアによ
り実現することもできる。さらにこの特徴量選択装置の
一部をハードウェアにより実現し,その他の一部をソフ
トウェアにより実現することもできる。
【0037】NN11はアーティフィシャル・ニューラル
・ネットワーク(以下,単にNNという)と,入力され
る教師データに基づくNNの学習を行う学習処理を含
む。
【0038】図4はNNの構造の一例を示す。たとえば
ホップフィールド・タイプのNNである。NNは入力
層,3層の中間層および出力層を含んでいる。入力層と
出力層はシステム出力の数と同じノード(ニューロン)
が設けられる。たとえば上述のシステムではシステム出
力は5である。中間層は各層が6個のノードをもつ。中
間層は3層に限られず,1層,2層または4層以上設け
てもよく,各層のノードの数も6個よりも少なくしても
よいし,多くしてもよい。中間層の数および各層のノー
ドの数は,学習の収束の速さおよびその安定性と,教師
データへの追従性とを考慮して,入力層のノードの数に
基づいて決定される。
【0039】中間層を入力層側から順に第1中間層,第
2中間層および第3中間層とし,入力層から出力層まで
順に第i(i=1〜5)層とする,すなわち,入力層,第1中
間層,第2中間層,第3中間層および出力層をそれぞ
れ,第1層,第2層,第3層,第4層および第5層とす
る。第i層の第j番のノードをNi,j で表し,各層のノ
ード数をJi で表す。第i層の第k番のノードNi,k
出力をUi,k とし,第i層の第j番のノードNi,j とそ
の後の第(i+1)層の第k番のノードNi+1,kとの結
合度をWi+1,j,k とする。
【0040】NN11に含まれる学習処理はたとえば誤差
逆伝搬法によるNNの学習を行う。学習処理はその他の
学習方法によりNNを学習してもよい。
【0041】図5および図6は特徴量選択装置における
有効特徴量の選択処理の手順を示すフロー・チャートで
ある。
【0042】NN11において,システム出力(教師デー
タ)のそれぞれを入力層のノードにそれぞれ入力すると
ともに,出力層の各ノードの出力が対応するシステム出
力に一致するように学習が行われる(ステップ21)。
【0043】このNNの学習には,G組の教師データ
(システム出力)が用いられる。これらのシステム出力
に基づいて特徴量Vh (h=1〜H;Hは特徴量候補の
総数)がそれぞれ算出されている。第g組の第h番の特
徴量をYh,g で表す。また,第g組のシステム出力に基
づく学習の結果得られる第i層の第j番のノードNi,j
の出力をUi,j,g で表す。
【0044】寄与度算出処理12において,中間層(i=
2〜4)の第j番のノードNi,j がその後の層(出力層
側)の第k番のノードNi+1,k にどの程度寄与している
かを表す寄与度Di,j が,学習により最終的に得られた
結合度wi+1,j,k に基づいて次式により算出される(ス
テップ22)。
【0045】
【数1】
【0046】式(1) は結合度の自乗和を寄与度としてい
る。
【0047】寄与度Di,j は式(1) の代わりに,式(2)
または(3) のいずれか一方を用いてもよい。
【0048】
【数2】
【0049】
【数3】
【0050】式(2) は結合度が最大のものを寄与度と
し,式(3) は結合度の自乗が最大のものを寄与度として
いる。
【0051】類似度はその他の方法により算出すること
ができる。寄与度Di,j は寄与度算出処理12から特徴量
決定処理14に与えられる。
【0052】各中間層(i=2〜4)の第j番のノード
i,j の出力Ui,j,g と,第h番の特徴量候補Yh,g
がどの程度類似しているかを表す類似度h,i,j が類似度
算出処理13において次式により算出される(ステップ2
3)。
【0053】
【数4】
【0054】式(4) はG組のノードの出力と特徴量との
差の総和を表している。
【0055】類似度はその他の方法により算出すること
ができる。類似度Ch,i,j は類似度算出処理13から特徴
量選択処理14に与えられる。
【0056】特徴量選択処理14において,寄与度算出処
理12において算出された寄与度Di, j と類似度算出処理
13において算出された類似度Ch,i,j とに基づいて,1
つの有効特徴量とこれを入力する中間層のノードとが次
のようにして選択される(ステップ24)。
【0057】類似度Ch,i,j が一定値Thc以上をもつノ
ードとこれに対応する特徴量とが見付け出される。それ
らのノードの中で寄与度Di,j が最大のノードが選択さ
れ,そのノードの寄与度Di,j が一定値Thd以上であれ
ば,そのノードとこれに対応する特徴量が有効特徴量と
して選択される。
【0058】類似度Ch,i,j が一定値Thc以上をもつノ
ードと特徴量がなければ,寄与度が大きい順に所定数の
ノードが選択され,それらのノードの中で類似度が最大
のノードとこれに対応する特徴量が有効特徴量として選
択される。
【0059】また上述の有効特徴量の選択に代えて,類
似度と特徴量とに基づく信頼度が最大となるノードとこ
れに対応する特徴量を有効特徴量として選択するように
してもよい。
【0060】信頼度Ch,i,j は次式により算出される。
【0061】 Ch,i,j =Lh,i,j ×Di,j …(5)
【0062】信頼度はまた,式(5) に代えて次式により
算出してもよい。
【0063】
【数5】
【0064】
【数6】
【0065】
【数7】
【0066】有効特徴量とこれに対応するノードはその
他の方法により選択してもよい。
【0067】有効特徴量とこれに対応する中間層のノー
ドを表わすデータとが特徴量決定処理14からNN更新処
理15に与えられる。
【0068】NN更新処理15において,特徴量選択処理
14により選択された中間層のノードとその前の層のノー
ドとの結合がすべて削除され,そのノードがこれに対応
する有効特徴量を入力するための入力ノードとすること
により,NN11に含まれるNNの構造が変更される(ス
テップ25,26)。たとえば,図8は第2中間層(第3
層)の第1番のノードN3,1 が有効特徴量V1 を入力す
るための入力ノードに変更された様子を示している。
【0069】入力層(i=1)の各ノードについて上記
式(1) にしたがって寄与度が算出され(ステップ27),
この寄与度に基づいて有効特徴量の組合わせが確定した
かどうかが判定される(ステップ28)。たとえば,寄与
度がすべて所定値以下になったかどうかによって有効特
徴量の組合わせが確定したかどうかが判定される。
【0070】有効特徴量の組合わせが確定していないと
判定されると(ステップ28でNO),システム出力(教師
データ)を入力層に入力し,選択された有効特徴量をそ
の入力ノードに入力してニューラル・ネットワークの学
習が行われる(ステップ31)。その後ステップ22に戻
り,ステップ22〜28の処理が行われる。
【0071】ステップ28において有効特徴量の組合わせ
が確定したと判定されると(ステップ28でYES ),入力
層のノードがすべて削除される(ステップ29)。入力層
のノードが削除されることによって,それらのノードと
次の中間層のノードとの結合がすべて削除される。さら
に第1中間層から第3中間層について前の層のノードか
らの結合が全くない中間層のノードが削除される(ステ
ップ30)。
【0072】このようにして有効特徴量が選択される。
たとえば図8は4つの有効特徴量V1,V2,V22およびV
24が選択されている。
【0073】有効特徴量として選択されるべき特徴量
(これを確定特徴量という)がある場合,この確定特徴
量を入力するための入力ノードがあらかじめ加わえられ
たNNを用いて有効特徴量を選択する処理手順を示すフ
ロー・チャートが図9,図10および図11に示されてい
る。図5および図6に示す処理と同一処理には同一符号
を付し詳細な説明を省略する。
【0074】確定特徴量を入力するための入力ノードが
NNに追加される(ステップ41)。図12は図4に示すN
Nの構造に確定特徴量V1 を追加したNNの構造を示し
ている。
【0075】NN11において,システム出力と確定特徴
量とを用いて確定特徴量が追加されたNNについて学習
が行われる(ステップ42)。
【0076】各中間層の各ノードについて寄与度および
類似度が算出され(ステップ22,23),1つの有効特徴
量と入力ノードとが選択される(ステップ24)。中簡層
のノードが入力ノードに変更されることによりNNの構
造が変更され(ステップ25),その入力ノードとその前
の層のノードとの結合が削除される(ステップ26)。
【0077】NN構造変更処理15において,ステップ26
において変更されたNNの構造が記憶される(ステップ
43)。このNNの構造を第1構造という。
【0078】入力層のすべてのノードが削除され(ステ
ップ44),さらに前の層のノードからの結合がない中間
層のノードが削除される(ステップ45)。この入力層の
ノードと中間層のノードとが削除されたNNの構造を第
2構造という。
【0079】第2構造について,システム出力に加えて
確定特徴量および有効特徴量を入力とし,システム出力
を教師データとしてNNの学習が行われる(ステップ4
6)。この学習は,有効特徴量を入力ノードから入力
し,NNの各出力が対応する教師データに近づくように
行われる。
【0080】NNの出力とシステム出力との誤差が算出
され(ステップ47),その誤差が充分に小さいか,すな
わち誤差があらかじめ設定された充分小さい閾値ε以下
でかるかが判断される(ステップ48)。
【0081】誤差が閾値ε以下であるときには(ステッ
プ48でYES ),有効特徴量の選択を終了することにな
る。
【0082】誤差が閾値εを超えたときには(ステップ
48でNO),NNの構造が第2構造からステップ41におい
て記憶されたNNの第1構造に戻され(ステップ49),
この第1構造のNNの結合度のうち,第2構造に対応す
る第1構造の結合の結合度がステップ46において学習さ
れた第2構造における結合度に変更される(ステップ5
3)。
【0083】その後,システム出力,確定特徴量および
有効特徴量を入力とし,NNの出力がシステム出力にな
るように,第1構造のNNの学習が行われ(ステップ5
1),ステップ22に戻り,ステップ22〜48の処理が繰返
し行われる。
【0084】このようにして有効特徴量を選択すること
ができる。
【図面の簡単な説明】
【図1】ジャケット・タンクの温度制御システムの全体
的構成を示すブロック図である。
【図2】製品の一回の生産におけるタンク内の温度,ジ
ャケット内の温度および原料の投入量のグラフである。
【図3】特徴量選択装置の詳細な構成を示す機能ブロッ
ク図である。
【図4】NNの構造の一例を示す。
【図5】有効特徴量の選択処理の手順を示すフロー・チ
ャートである。
【図6】有効特徴量の選択処理の手順を示すフロー・チ
ャートである。
【図7】1つの有効特徴量とこれを入力するための中間
層のノードが選択されたNNの構造を示す。
【図8】有効特徴量の組合わせが確定したNNの構造を
示す。
【図9】1つの確定特徴量をNNに追加した場合の有効
特徴量の選択処理の手順を示すフロー・チャートであ
る。
【図10】1つの確定特徴量をNNに追加した場合の有
効特徴量の選択処理の手順を示すフロー・チャートであ
る。
【図11】1つの確定特徴量をNNに追加した場合の有
効特徴量の選択処理の手順を示すフロー・チャートであ
る。
【図12】1つの確定特徴量をNNに追加したNNの構
造の一例を示す。
【符号の説明】
11 NN 12 寄与度算出処理 13 類似度算出処理 14 特徴量選択処理 15 NN構造変更処理

Claims (5)

    【特許請求の範囲】
  1. 【請求項1】 複数のノードを含む入力層と,複数のノ
    ードを含む一層または複数層の中間層と,入力層と同数
    のノードを含む出力層とからなるニューラル・ネットワ
    ークを設け,入力される教師データに基づいて複数の特
    徴量をあらかじめ作成しておき,上記教師データを上記
    ニューラル・ネットワークの入力層に入力したときの上
    記ニューラル・ネットワークの出力が上記教師データに
    等しくなるように上記ニューラル・ネットワークに学習
    を行わせ,上記ニューラル・ネットワークの中間層の各
    ノードの出力と上記特徴量とがどの程度類似しているか
    を表す類似度をそれぞれ算出し,これらの類似度に基づ
    いて上記複数の特徴量の中から1つの特徴量を有効特徴
    量として選択するとともに,この有効特徴量に対応する
    中間層のノードを上記有効特徴量を入力するための入力
    ノードに置換え,上記教師データを入力層に入力し,上
    記有効特徴量を入力ノードに入力してニューラル・ネッ
    トワークの学習と,有効特徴量の選択および入力ノード
    への置換とを繰返し行う,ニューラル・ネットワークの
    学習方法。
  2. 【請求項2】 入力層の各ノードについてそのノードが
    どの程度その後の層に寄与しているかを表す寄与度を算
    出し,これらの寄与度のすべてが所定の閾値以下になっ
    たときに,上記ニューラル・ネットワークの学習と有効
    特徴量の選択および入力ノードへの置換とを終了する,
    請求項1に記載のニューラル・ネットワークの学習方
    法。
  3. 【請求項3】 有効特徴量として選択されるべき1また
    は複数の特徴量を入力するための入力ノードを上記ニュ
    ーラル・ネットワークの中間層にあらかじめ設ける,請
    求項1に記載のニューラル・ネットワークの学習方法。
  4. 【請求項4】 上記ニューラル・ネットワークの中間層
    のノードについて,そのノードがどの程度その後の層に
    寄与しているかを表す寄与度をそれぞれ算出し,この寄
    与度および上記類似度に基づいて上記有効特徴量を選択
    する,請求項1から3のいずれか一項に記載のニューラ
    ル・ネットワークの学習方法。
  5. 【請求項5】 複数のノードを含む入力層と,複数のノ
    ードを含む一層または複数層の中間層と,入力層と同数
    のノードを含む出力層とからなるニューラル・ネットワ
    ーク,入力される教師データを上記ニューラル・ネット
    ワークに入力したときの上記ニューラル・ネットワーク
    の出力が上記教師データに等しくなるように上記ニュー
    ラル・ネットワークに学習を行わせる学習手段,上記ニ
    ューラル・ネットワークの中間層のノードの出力と,上
    記教師データに基づいて作成された上記特徴量とがどの
    程度類似しているかを表す類似度をそれぞれ算出し,こ
    れらの類似度に基づいて上記複数の特徴量の中から1つ
    の特徴量を有効特徴量として選択するとともに,この有
    効特徴量に対応する中間層のノードを上記有効特徴量を
    入力するための入力ノードに置換える構造変更手段,お
    よび上記教師データと上記有効特徴量を用いたニューラ
    ル・ネットワークの学習を上記学習手段に,有効特徴量
    の選択および入力ノードの置換とを上記構造変更手段に
    繰返し行わせる制御手段,を備えたニューラル・ネット
    ワーク・システム。
JP7138857A 1995-05-15 1995-05-15 ニューラル・ネットワークの学習方法およびニューラル・ネットワーク・システム Pending JPH08314880A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7138857A JPH08314880A (ja) 1995-05-15 1995-05-15 ニューラル・ネットワークの学習方法およびニューラル・ネットワーク・システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7138857A JPH08314880A (ja) 1995-05-15 1995-05-15 ニューラル・ネットワークの学習方法およびニューラル・ネットワーク・システム

Publications (1)

Publication Number Publication Date
JPH08314880A true JPH08314880A (ja) 1996-11-29

Family

ID=15231775

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7138857A Pending JPH08314880A (ja) 1995-05-15 1995-05-15 ニューラル・ネットワークの学習方法およびニューラル・ネットワーク・システム

Country Status (1)

Country Link
JP (1) JPH08314880A (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100300788B1 (ko) * 1998-05-27 2001-09-26 포만 제프리 엘 관리 및 구성정보를 배포하기 위해 스트림을 이용하는 발행 및 인용 데이터 프로세싱 장치, 방법, 및 컴퓨터 프로그램 제품
KR100300787B1 (ko) * 1998-06-25 2001-11-01 포만 제프리 엘 브로커 구조에서 이웃들 간에 로컬 정보를 배포하기 위해 스트림을 이용하는 발행 및 인용 데이터 프로세싱 장치, 방법, 및컴퓨터 프로그램 제품
JP2012073761A (ja) * 2010-09-28 2012-04-12 Dainippon Screen Mfg Co Ltd 分類のための特徴量選出方法、画像の分類方法、外観検査方法および外観検査装置
JP2017134853A (ja) * 2017-03-16 2017-08-03 ヤフー株式会社 生成装置、生成方法、及び生成プログラム
JP2020510862A (ja) * 2017-02-24 2020-04-09 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation 周期的表示を用いる音識別
JP2020118950A (ja) * 2019-07-01 2020-08-06 株式会社テクノスピーチ 音声処理装置、および音声処理方法
JP2021089628A (ja) * 2019-12-05 2021-06-10 日立Astemo株式会社 ニューラルネットワーク縮約装置およびその方法

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100300788B1 (ko) * 1998-05-27 2001-09-26 포만 제프리 엘 관리 및 구성정보를 배포하기 위해 스트림을 이용하는 발행 및 인용 데이터 프로세싱 장치, 방법, 및 컴퓨터 프로그램 제품
KR100300787B1 (ko) * 1998-06-25 2001-11-01 포만 제프리 엘 브로커 구조에서 이웃들 간에 로컬 정보를 배포하기 위해 스트림을 이용하는 발행 및 인용 데이터 프로세싱 장치, 방법, 및컴퓨터 프로그램 제품
JP2012073761A (ja) * 2010-09-28 2012-04-12 Dainippon Screen Mfg Co Ltd 分類のための特徴量選出方法、画像の分類方法、外観検査方法および外観検査装置
JP2020510862A (ja) * 2017-02-24 2020-04-09 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation 周期的表示を用いる音識別
JP2017134853A (ja) * 2017-03-16 2017-08-03 ヤフー株式会社 生成装置、生成方法、及び生成プログラム
JP2020118950A (ja) * 2019-07-01 2020-08-06 株式会社テクノスピーチ 音声処理装置、および音声処理方法
JP2021089628A (ja) * 2019-12-05 2021-06-10 日立Astemo株式会社 ニューラルネットワーク縮約装置およびその方法
WO2021111788A1 (ja) * 2019-12-05 2021-06-10 日立Astemo株式会社 ニューラルネットワーク縮約装置およびその方法

Similar Documents

Publication Publication Date Title
Thrift Fuzzy Logic Synthesis with Genetic Algorithms.
Jang et al. Neuro-fuzzy modeling and control
Ghoshal Application of GA/GA-SA based fuzzy automatic generation control of a multi-area thermal generating system
Jain et al. Hybrid intelligent engineering systems
Lin A GA-based neural fuzzy system for temperature control
JPH03164804A (ja) プロセス制御システム及び発電プラントプロセス制御システム
Babuška Neuro-fuzzy methods for modeling and identification
Lian et al. Tuning of a neuro-fuzzy controller by genetic algorithms with an application to a coupled-tank liquid-level control system
Sumar et al. Computational intelligence approach to PID controller design using the universal model
Liu et al. Efficient learning algorithms for three-layer regular feedforward fuzzy neural networks
Nikravesh et al. Model identification of nonlinear time variant processes via artificial neural network
JPH08314880A (ja) ニューラル・ネットワークの学習方法およびニューラル・ネットワーク・システム
Ignatyev et al. System for automatic adjustment of intelligent controller parameters
Chaturvedi et al. A PSO-optimized novel PID neural network model for temperature control of jacketed CSTR: design, simulation, and a comparative study
Carrano et al. A genetic algorithm for multiobjective training of ANFIS fuzzy networks
Farag Synthesis of intelligent hybrid systems for modeling and control
Koivisto A practical approach to model based neural network control
Mosleh Numerical solution of fuzzy differential equations under generalized differentiability by fuzzy neural network
Kim A neuro-fuzzy approach to integration and control of industrial processes: Part I
Zhao et al. Fuzzy rule learning during simulation of manufacturing resources
Bettenhausen et al. BioX++-new results and conceptions concerning the intelligent control of biotechnological processes
Lemma et al. Model Identification Using Neuro-Fuzzy Approach
Cabrita et al. Design of B-spline neural networks using a bacterial programming approach
Karray Soft computing techniques for intelligent machines
Sabeti et al. Hybrid evolutionary algorithms based on PSO-GA for training ANFIS structure