JPH05158910A - ニューラルネットのトレイン方法及びニューラルネットの分類装置 - Google Patents

ニューラルネットのトレイン方法及びニューラルネットの分類装置

Info

Publication number
JPH05158910A
JPH05158910A JP4132556A JP13255692A JPH05158910A JP H05158910 A JPH05158910 A JP H05158910A JP 4132556 A JP4132556 A JP 4132556A JP 13255692 A JP13255692 A JP 13255692A JP H05158910 A JPH05158910 A JP H05158910A
Authority
JP
Japan
Prior art keywords
output
neural network
class
vector
test vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP4132556A
Other languages
English (en)
Inventor
Sherif Makram-Ebeid
マクラム エベイド シェリフ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Philips Gloeilampenfabrieken NV
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from FR9106278A external-priority patent/FR2679055A1/fr
Priority claimed from FR9109134A external-priority patent/FR2679355A1/fr
Application filed by Philips Gloeilampenfabrieken NV, Koninklijke Philips Electronics NV filed Critical Philips Gloeilampenfabrieken NV
Publication of JPH05158910A publication Critical patent/JPH05158910A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Neurology (AREA)
  • Image Analysis (AREA)

Abstract

(57)【要約】 【目的】 本発明は、重力中心となっている点集合の構
成に基づくのではなく、これらの集合間の境界、すなわ
ちこれらの入力ベクトルの存在しない領域をサーチする
ことで、学習処理を行うことを目的としている。 【構成】 テストベクトルが、演算パラメータ(シナプ
ス係数、ニューロン敷居値)が始めにランダムな値であ
るニューラルネットワークに供給される。各テストベク
トル毎にネットの出力起動を相互に関連させると共に、
これらに基づきクラスを無作為に選択する時の確率を調
整する重み係数を発生させることによる確率的分類手続
きにおいて、テストベクトルが分類される。テストベク
トルがこのようにして分類されると、ネットの演算パラ
メータが、すべてのテストベクトルに対する出力起動の
パターン間の相違を強調するために修正される。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、分類器としてのニュー
ラルネットの非監視トレーニング方法、及びニューラル
ネット分類装置に関するものである。この発明は、多く
の分野、特に画像区分化の分野で使用される。
【0002】
【従来の技術】ここ数年の間、ニューラルネットワーク
によるデータ処理の分野において、多くの詳細な研究が
なされている。シーケンシャルにまた同期的に機能する
コンピュータと対比して、ニューロ生物学的文言として
解釈されているニューラルネットワークは、特定の局所
的メモリに限られるのではなくネットワークすべてを介
して分散される情報の記憶を用いて、多かれ少なかれ人
間の頭脳として機能するものと考えられる。ニューラル
ネットワークに基づく構造の利点は、(情報伝送素子が
分散しているために)本質的に並列且つ非同期式の処
理、学習能力、雑音に対して低感度であること、破壊に
対しての抵抗力が大きいことにある。
【0003】図1に示す最も簡単な場合のネットワーク
の基本セルであるニューロンを、敷居値デバイス(従っ
て非線形)とする。この敷居値デバイスは、振幅が所定
の敷居値Sと、上流に位置する一連の素子からニューロ
ンに到達する信号の合計との間の比較結果に依存する出
力信号Y(又は起動信号、又は出力電位)を伝達する。
これらの信号は、いわゆるシナプス係数と称する各係数
1 ,w2 〜wN を用いて重み付けされた入力信号x1
2 〜xN から順次形成される。この現在では慣用とな
っている配置によれば、ニューロンは、ニューロンが受
信する活動電位(これらの電位を伝達するニューロンの
状態を示している数値からなる電位)の重み付けされた
加算を行い、この重み付けされた加算合計が所定の敷居
値を越える場合、ニューロン自体が起動される。このよ
うにして起動されたニューロンは、新たな活動電位とし
ての応答を伝送する(非起動ニューロンは伝送を行わな
い)。
【0004】最も一般的なニューラルネットワークにお
いて、情報が入力層から任意の順次の層(ヒドゥン(hi
dden)層と称する)を通過し、出力層に至るまでの間
に、順次の層にニューロンを配置し、各ニューロンを次
の層のすべてのニューロンに接続している層状ネットワ
ークを特に区別することができる。このような多層ネッ
トワークは、分類問題の解析に特に好適である。実際に
は、完全に連続している例示を分類することができる。
ここで、データセットによって規定される各例示は、超
空間内のデータベクトルによって識別される。この例示
と関連しているデータによってこの超空間内に前記ベク
トルの座標系が形成される。所定の入力ベクトル
【外1】 を考慮し、多層ネットワークの出力起動によって、各例
示に相当する入力ベクトルに従ってサンプルが種々のク
ラスに属している確率を示している
【外2】 にて示される確率値が後に提供される。
【0005】しかし、所定のプロセスを行うために、ニ
ューラルネットワークは先ず、いわゆる学習段階の間
に、そのプロセスを行うための学習を行わなければなら
ない。すなわち、いわゆる学習段階である第1期間の間
に、特徴が予想されるタスクに適応していないニューラ
ルネットワークは、誤った結果を送り、得られた結果の
エラーが判定され、ネットワークのパラメータ(敷居値
及びシナプス係数)が修正基準に基づき修正され、この
ネットワークが受信入力情報に対して積極的に適応でき
るようにしている。この修正工程は、ネットワークの十
分な学習プロセスに必要と思われる例示(又は入力ベク
トル)の数に対して繰り返される。
【0006】ニューラルネットワークの通常の動作に先
行する学習段階を、監視段階と称する。その理由は、得
られる結果と、この場合予め知られている得られるべき
結果との間の比較によってエラーが評価されるからであ
る。ニューラルネットワークのパラメータは、得られる
出力と所望の出力との間の不一致に基づき、例えばエラ
ーバックプロパゲーション(error back propagation)
によって修正される。しかし、以下に説明される学習プ
ロセスを非監視と称する。その理由は、前の情報が起こ
り得ないため、又は結果を得るためのコストがかかり過
ぎるために、前以て得られるべき結果が知られていない
からである。従って、非監視学習プロセスとは、各ベク
トル又は各ティ−チングプロトタイプの各クラスへの割
り当てが、所望の出力値を予め知ることなしに行われな
ければならない。幾つかの論文は、非監視ティ−チング
ベースの原理を説明している。これらの論文としては、
例えば“Learning to recognize patterns without a t
eacher”,IEEE −IT−13,No.1, 1967年1月, 57〜64ペ
ージ、又は“Optimal unsupervised learningmulticate
gory dependent hypotheses pattern recognition”, I
EEE−IT−13,No.3, 1968年5月, 468〜470 ページがあ
る。
【0007】学習後の作動段階は、ニューラルネットワ
ークのパラメータが正しいものとして判断され固定され
る一般化の段階である。この段階の間に、ティ−チング
ベースの分類化以外の他のテストベクトルの分類化を行
うことができる。これによって、実際に、その分類化を
可能とする出力状態が、これらの各テストベクトルに対
応する。要するに、このような段階の間、本質的なこと
は、1組の入力ベクトル〔外1〕を種々のクラスj=1,
2,3,〜,K-1 ,K に副分割するとともに、この間、この
ために、ニューラルネットワークは、各入力ベクトル
(又はテストベクトル)毎に、各出力ニューロンj毎
の、プロトタイプが所定のクラスjに属する確率推定と
しての起動を送るための学習をしなければならない。
【0008】ここで画像区分化に応用する場合、一定数
の画素、すなわち”ピクセル”は、テスト例としての役
割を果たし、観察される画像から構造その他の特徴を得
ることができる。ネットワークは、これらのテスト例を
分類するための学習を行い、画像のその他の画素を分類
できるように一般化を行う。
【0009】既知の学習プロセス、いわゆる広く使用さ
れている“移動中心”プロセスは、特に“Advances in
Computing ”, vol.19(1980 年)113〜228 ページに掲載
されているデューブス(R.Dubes )及びジャイン(A.K.
Jain)による論文" Clustermethrogical in explorator
y date analysis”に記載されている。このようなプロ
セスは、入力ベクトルの空間を、種々のポイントに対す
るベクトルの近接に基づき、幾つかの領域に分割する。
これらのポイントの周囲に、種々のクラスに対応するベ
クトル集合が形成される。
【0010】
【発明が解決しようとする課題】本発明は、重力中心と
なっている点集合の構成に基づくのではなく、これらの
集合間の境界、すなわちこれらの入力ベクトルの存在し
ない領域をサーチすることで、学習処理を行うことを目
的としている。
【0011】
【課題を解決するための手段】この目的を解決するため
本発明は、各テストベクトルの組に基づき、入力ベクト
ルを多数のクラスに分類するためのニューラルネットト
レイン方法を提供するものである。この方法は、以下の
工程を具えていることを特徴としている。ニューラルネ
ットは、ランダムな値をニューラルネットの演算パラメ
ータ(シナプス係数;敷居値)に割り当てることによっ
て初期化される。次に、統計的分類工程が行われる。こ
の分類は、各テストベクトルをニューラルネットの入力
端子に供給する工程と;各テストベクトル毎に、ニュー
ラルネットの出力端子に供給される出力起動の各パター
ンをモニタする工程と;各パターンの出力起動を相互に
関連させる際に、各テストベクトルを各々いづれかのク
ラスに割り当てる工程;とによって行われる。統計的分
類工程において、ニューラルネットの演算パラメータを
修正することによって、所定の基準に従って、それぞれ
各クラスを示している各パターン間の相違を強調するた
めの相違強調工程が行われる。
【0012】前記各パターンと関連する出力起動を相互
に関連させる工程が:各クラス毎に、特定パターンの出
力起動に基づき、関連する重み係数を発生させる工程
と;統計的手続きにおいて各クラスを選択する工程;と
を具え、各テストベクトルをクラスに割り当てる確率
を、関連する重み係数で重みづけする。
【0013】前記相違強調工程が:各テストベクトルの
組をランダムな順番でニューラルネットに再供給し、第
2の出力起動を発生させる工程と;各テストベクトル毎
に、第2出力起動のパターンに基づき、演算パラメータ
を修正し、パターン間の相違を増加させる工程;とを少
なくとも1回具えることができる。前記相違強調工程の
終了時に、各パターンの他の第2出力起動よりも極端な
値をそれぞれ有している第2出力起動のいづれか1個を
少なくとも有している各パターンによって、各テストベ
クトルが、各クラスに割り当てられているように表示さ
れる。各パターンの各第2出力起動を所定の敷居値と比
較することによって、前記パターン間の相違を評価す
る。
【0014】ニューラルネットに供給され、ニューラル
ネットのクラスタ特性を高める以前に、テストベクトル
の第1空間(特徴空間)を第2空間の限定領域に写像す
ることによるテストベクトルの前処理を使用する場合が
ある。すなわち、各ニューロンは、特徴空間を高使用率
限定領域と、低使用率非限定領域とに分割する。
【0015】本発明による複数の入力ベクトルをクラス
に分類するための適応型装置は:各入力ベクトル受信用
の入力端子、前記各入力ベクトルと関連する出力起動の
各パターン供給用の出力端子、及びネットの演算パラメ
ータ値記憶用のメモリを有しているニューラルネット
と;各パターンの出力起動を相互に関連させる際に、各
クラス毎に重み係数を発生させ、重み係数によって重み
付けられた確率に基づき、1個のクラスを統計的に選択
するための、前記出力端子に結合する統計的分類手段
と;演算パラメータ値を修正し、パターン間の相違を強
調するとともに、修正された値をメモリに記憶するため
の、前記メモリに結合する相違強調手段;とを具えてい
る。前記統計的分類手段が:所定範囲内の乱数発生用の
乱数発生器と;該乱数発生器と接続し、それぞれ各重み
係数に比例する一連の連続インターバルでの範囲の分割
に基づき、乱数の存在する特定のインターバルによって
特定される1個のクラスを選択するための選択手段;と
を具えることができる。
【0016】1988年9月6〜10日、ボストンでの”The
Official Journal of the International Neural Network Society”による第1回
シンポジウムの間に、アメリカ合衆国パセデナのカリフ
ォルニア工科大学電気工学科のA.F.Atiya によって提出
された論文" A Neural Unsupervised Learning Techniq
ue”は、本発明の場合、入力ベクトル又はプロトコルが
最低の確率密度を有している空間的な領域を判定するこ
とによって分類動作を向上させるための非監視学習プロ
セスを開示している。しかし、この既知の判定は、ここ
で説明している方法又は装置の演算パラメータとは異な
るニューラルネットの演算パラメータ(シナプス係数、
敷居値)の修正プロセスを行うことによって行われる。
実際に、引用されている論文に従う処理において、入力
ベクトル空間の副分割化では、バイナリトリーを使用し
ている。すなわち、各学習工程において、元の入力ベク
トル空間の一部を2個のクラスに分割している。従っ
て、各工程において、取り扱われる分割問題は小さな部
分のみである。統計的なアプローチを行わないというこ
とから生じるこの不利益によって、最適ではない入力ベ
クトル空間の最終的な副分割が生じてしまう可能性を無
視することはできない。
【0017】本発明の場合、先ず第1に、各クラスと関
連して選択される、重み付けした確率を用いての統計的
な方法でクラスの選択を行う。このようにして、このニ
ューラルネットワークは、学習プロセスが終了するま
で、1回ないし数回の学習期間の後にリフレシュされ、
この統計的選択の結果生じる所望の出力に対する値を用
いて、その学習を行うことができる。
【0018】
【実施例】以下図面を参照して本発明を実施例につき説
明する。既に知られているように、イメージセグメンテ
ーションは、画像中から主に重要な領域を抽出しようと
することである。衛星からの画像の場合、その領域は、
例えば、都市領域、森の領域、農業地域、排水網などの
種々の地域に相当する(一般的に、分類する際の識別力
としての特徴を、ニューラルネットワークに供給する以
前に局所的に抽出し、解決すべき問題点の大きさをかな
り減少させ、情報を少数のパラメータに集中させること
ができるようにしている)。ネットワークの入力層は、
選択された特徴の数に正確に一致する多数の個々の入力
端子を具え、このネットワークの出力端子におけるニュ
ーロン数は、画像内の構造の種類の数に等しい。学習段
階の後、ニューラルネットワークは、画像領域をそれぞ
れトレイン(train )された構造分類の一つに分類する
ことができる。この分類は、使用率の最も高いすなわ
ち、各入力値に対して最も顕著に応答する出力ニューロ
ンの分類に対応する。
【0019】まず第1に、ニューロンそれ自体の学習プ
ロセスを説明する。学習プロセスに関してユーザは、自
由に使用できるティーチングベースを有している。この
ベースは、それぞれ目的プロトタイプのN個の特徴によ
って形成されるV個のテストベクトル(又はプロトタイ
プ)の組によって形成される。N次元のV個のベクトル
を、ユーザによって固定されるクラスKの最大数よりも
小さく又はこれと等しい多数のクラスに分類する必要が
ある。Kは、明らかにVよりも小さい又は等しい。一
方、この例において、(N+1)個の入力端子及びK個
の出力端子を有しているニューラルネットワークを使用
することができるものと仮定する(従ってネットワーク
に、(N+1)個の入力端子及びK個の出力端子を個々
に設ける)。
【0020】各ニューロンに固有の非線形関数を、この
例ではアークタンジェント型とする。任意の出力ニュー
ロンは、以下の方程式によって与えられる(ここで、Y
i を−1と1との間で選択する)。
【数1】 〔外1〕は、入力パラメータを示しているベクトルであ
り、〔外3〕は、シリアルナンパがiの出力ニューロン
と関連するベクトルウェイトであり、Si は、関連する
しきい値であり、Ti は、入力に関連する適切なニュー
ロンの感度係数であり、ここでは温度について言及す
る。 (一定の熱力学的実験−熱処理−による類推;この間、
温度が制御パラメータとして機能し、温度を上昇させ種
々の出力Yi の等化を行い、一方ではこれらの温度を低
くすることで、感度の回復をより優れたものとすること
ができる。)
【0021】ニューラルネットワークに供給される以前
に、
【数2】 と表示される(tは、転置行列を示し、vは、関係する
テストベクトルのシリアルナンバである。)各テストベ
クトルに、ここでは2回の変換を行う。第1の変換を以
下に説明する:前記テストベクトルの各次元x1
2 ,〜,xN を、シンプルアフィン変換によって、例
えば平均値がゼロ、分散が1となるように、一様化、す
なわち正規化する。
【0022】第2変換では、敷居値との比較の結果、各
出力ニューロンは、入力スペースを2個のクラス、すな
わち分離超平面によって分離される2個の非限定ハーフ
スペースに分割することができる。第2変換を行う目的
は、補助的な次元を入力スペースに付加する予備処理を
行うことによって、テストベクトルの空間を限定された
大きさの領域に分離できるようにすることである。すな
わち、各N次元テストベクトル〔外1〕(v)を、(正
規化を前記例について行った場合、1に等しい又は1の
オーダの)固定成分hの補助次元の付加によって、(N
+1)次元ベクトルに変換する。これら2回の変換の結
果、以下の量が、ニューラルネットワークの(N+1)
個の入力端子に供給される。 (a)ニューラルネットワークのN個の第1入力端子
に、変換されたテストベクトルのN個の第1成分が供給
される。この新たなテストベクトルは:
【数3】 と記述される。 (b)ネットワークの(N+1)番目の入力端子に、
【数4】 と記述される(N+1)番目の成分が供給される。
【0023】これらの式の分母の量:
【数5】 は、上述のようにして作り出された(N+1)次元テス
トベクトルの基準ノルムである(この操作は、入力テス
トベクトルの超平面のすべての点を、超球に投射するこ
とに等しい)。最終的に、重み(シナプス係数)及びニ
ューラルネットワークの敷居値はランダムに初期化さ
れ、各ニューロンのシナプスベクトルのノルムを、各出
力ニューロンのシナプスベクトル(すなわち”重み”ベ
クトル)
【外3】 の現在の値を計算し、このニューロンの”重み”ベクト
ル及び”敷居値”ベクトルを、基準
【外4】 で割り算することによって、1に固定する。温度を1に
近い値に初期化する。これらの操作の後、ネットワーク
は学習段階の準備状態となる。
【0024】この段階は、まずいわゆる確率的分類工程
を具えている。テストベクトルをニューラルネットに供
給すると、ネット出力端子に出力起動の関連パターンが
結果として生じる。始め、シナプス係数がランダムな値
であることに留意する。パターンに対する出力起動を相
互に関連させることによって、分類を対応テストベクト
ルにランダムに割り当てる。ティーチングベースの各テ
ストベクトルの各クラスを、以下に説明する統計的学習
(すなわち、ランダムプロセスを用いる)に従って決定
する。
【0025】まず第1に、シリアルナンバvを有するテ
ストベクトルと関連するクラスk(v)が、Kクラスの
中から抽出される。ここで、乱数発生器を使用し、(次
元N+1を達成し上記基準を固定する操作を受けてい
る)前記ベース内のいづれか一つのテストベクトルvに
対して、生じ得る値の一つiがk(v)に帰属する確率
P(k(v)=i)を用いる。前記確率は:
【数6】 によって規定される。ここで、i及びjは、1からKま
で変化し、Yi (v)は、ニューラルネットワークのi
番目の出力の起動を示し、出力起動は、(−1,1)の
範囲の値を有しているものと仮定する。割り当ての確率
は、出力起動に対する他の相互関係計画に従って決定さ
れ、例えば、選択された出力起動範囲に依存する。
【0026】学習段階において、統計的分類工程の次
に、所定の基準に従って、それぞれ各クラスを示してい
る各パターン間の相違を強調するための工程が続く。相
違を示すものとして理想的と考えられる出力起動の値
を、例えば、
【数7】 と規定することができる。統計的分類工程が始めにテス
トベクトルを分類しているので、どのクラスをいづれの
テストベクトルに割り当て、従って出力起動の特定のど
のパターンがどのクラスを示しているかが認識されてい
ることに留意すべきである。得られるパターンと上記で
規定される理想的なパターンとの間の不一致に基づく基
準を用い、ニューラルネットワークの演算パラメータ
(シナプス係数、敷居値)を修正することによって、各
パターン間の相違を強調することができる。例えば、良
く知られているエラーバックプロパゲーション(backpr
opaga-tion)を用いることができる。従って、テストベ
クトルは、ランダムな順番でニューラルネットワークに
供給され、各テストベクトル毎に、前記基準に基づき演
算パラメータが修正され、関係する理想的なパターンに
より近づくことができるようにする。
【0027】各学習の繰り返し毎に、すなわち順次に現
在のテストベクトルとなるベースの各テストベクトル毎
に、ネットワークの出力端子Yi (v)の起動レベル
を、i=1,2〜K(Kはクラスの最大数)の場合にこ
のネットワークに供給される(N+1)個の入力端子の
関数として評価する。シリアルナンバvを有している前
記現在のテストベクトルが、以下の2個の動作: (a)学習速度が各クラスに帰属するテストベクトル数
に反比例し、得られる実際の起動レベルYi (v)を上
記の理想的な値Y’i 又はY”i に近づけることができ
るように、各ニューロンと関連する重み及び敷居値の修
正によるいわゆる適合工程、又は (b)起動レベルYi (v)を最小値1に近づけること
ができるように、前記敷居値の上昇によるいわゆる非起
動工程(ここでは、前記修正が敷居値の増加によって行
われることを除き、学習工程と同様に機能する非学習工
程を具え、このようにして出力ニューロンの非起動の比
率を増加させることができる。)のいづれかによって、
演算パラメータの修正を行う。敷居値を増加させること
によって、特定の出力起動パターンに写像されるX空間
の領域を減少できることに留意する。
【0028】これらの適応又は非起動動作は、シナプス
係数を大きく変更させることなく、行われることが好ま
しい。すなわち、このために、ほぼ一定な所定の出力ニ
ューロンに対する前記係数の基準ノルム(二乗の合計)
を保持しつつ、前記動作が行われる。
【0029】例えば、出力i=1〜Kの中の少なくとも
1個に対し、Yi (v)の符号が、対応する理想出力
Y’i 又はY”i の符号と異なる場合、又は択一的に、
i (v)の符号が前記対応する理想出力の符号と同一
の場合に簡単なランダムサンプリングを行うことによっ
て前記適応判定をおこない、前記ランダムサンプリング
に続いて非起動の判定を行う(ここの記載されている例
では、非起動判定の確率は、全範囲(0〜1)の固定値
P(anti)である。)。
【0030】ティーチングベースのテストベクトルと同
数の適応工程又は非起動工程の後、例えば1よりも小さ
く、1に近い同一の係数で乗算することで、ニューロン
の温度Ti を減少させ、新しい学習期間(ベースのV個
のテストベクトルが一度に提供される期間であり、これ
を学習期間と称する)を準備できるようにする。学習期
間は、ベース内のテストベクトル数と同数の工程を具え
ている。ある規定された事象が発生する場合、例えば、
学習期間数の最大値を越える場合、又はパラメータ(計
算された誤差の値、いづれか一つのニューロンの温度)
が敷居値よりも降下するような場合に、このような学習
期間が終了する。
【0031】初期テストベクトルのKよりも下位の多数
のクラスLへの再編成を考慮しつつ、種々のテストベク
トルに対するニューラルネットワークの出力端子Y
i (v)が、次元Kの新しいテストベクトルの組を規定
し、この組が、上記学習プロセス再開のための新しいテ
ィーチングベースの入力ベクトルを構成することができ
ること明らかである。
【0032】種々の工程が詳細に記載されているプロセ
スを実行する装置の一例を、図2に示す。図2に示され
ている装置を、3個の主な構成素子:ニューラルネッ
ト、確率的分類を行うための手段、及びネットの演算パ
ラメータに作用することによって、ネットの分類性能を
高めるための手段の周囲に編成する。更に正確には、こ
の一例の装置は、まず第1メモリ10、ここではランダム
アクセスメモリを具え、ティーチングベースのテストベ
クトルを記憶する。このメモリ10は、シーケンサユニッ
ト11と関連している。この機能は、主に、ランダム方式
で、前記テストベクトルが供給される順番を規定するこ
とであり(接続A)、シーケンサユニット11は順次マス
タープロセッサ12からコマンドを受ける(接続B)。こ
のマスタープロセッサ12の機能は、プロセス発生方法を
規定し、モニタすることである。このマスタープロセッ
サ12を、例えば、情報を受信し、ユーザUからティーチ
ングベース規定のための情報:すなわち、テストベクト
ル数V、入力ベクトルの次元N、及びマスタープロセッ
サ12が第1メモリ10への入力を制御(接続C2 )するた
めのテストベクトルを受信するためのシーケンシャルコ
ンピュータとすることができる(接続C1 )。
【0033】ニューラルネットワークに供給される以前
に、テストベクトルは、予備プロセッサ20で補助的次元
を受信し、接続Dを介してこれらのベクトルを受信す
る。この予備プロセッサは、接続Dを介してこれらのベ
クトルを受信する。ニューラルネットワークをニューラ
ルプロセッサ21に配置する。このニューラルプロセッサ
21は、予備プロセッサ20から出力信号、すなわち(N+
1)次元のテストベクトルを受信する(接続E)。この
ニューラルプロセッサ21は、マスタープロセッサ12か
ら、動作モードに関する判定信号も受信する。このモー
ドは、(N+1)個の入力データに対して前記ニューラ
ルプロセッサ21のニューラルネットワークのK個の出力
信号の評価が行われる本来の分類工程、又は得られる出
力値を所望の出力値に近づけるのに必要な動作を行う学
習工程のいづれかを実行するものである。これらの所望
の出力値は、接続G1 を介してニューラルプロセッサ21
に送られ、判定プロセッサ33によって規定される。この
判定プロセッサ33は、容認の判定、又は非起動の判定も
供給する(接続G2 )。プロセッサ33は、テストベクト
ルに割り当てられるクラスを記憶しているメモリ32か
ら、各テストベクトルの所望のクラスを受信する(接続
H)。
【0034】第3ランダムアクセスメモリ30を、ニュー
ラルプロセッサ21の出力端子に設け(接続L)、各入力
テストベクトルに相当するK個の出力起動を記憶する。
すなわち、次元Kの出力ベクトルを記憶する。このよう
にして得られるK個の起動は、統計的プロセッサ31に供
給される(接続M)。この統計的プロセッサ31は、始め
に上記手続きに従って、ランダムサンプリングを行うこ
とによって、各テストベクトルのクラスを決定する。出
力起動のメモリ30及びテストベクトルクラスのメモリ32
は、メモリ10と同様に同一の接続Aを介して、テストベ
クトルをニューラルプロセッサ21のニューラルネットワ
ークに供給する順番の指標を受信する。
【0035】このようにして形成される装置の動作を以
下に説明する。ユーザUは、上記情報の種々の部分を提
供する(接続C1 )。マスタープロセッサ12は、これら
の情報に基づき、ニューロンの温度をここでは1付近の
高い値に初期化し(接続F2 )、コマンド信号をシーケ
ンサユニット11に送信し(接続B)、シーケンサユニッ
ト11が、ティーチングベースに存在するすべてのテスト
ベクトルのシーケンスを規定できるようにしている。更
に、マスタープロセッサ12は、ニューラルプロセッサ21
に、動作モード”分類段階”を課している(接続
1 )。(プロセッサ20における前処理の後)ニューラ
ルプロセッサ21に順次供給されるティーチングベースの
V個のテストベクトルの各々について、K個の出力起動
の対応ベクトルが、このプロセッサ21によって評価さ
れ、次に第3メモリ30に記憶される。
【0036】これらの出力起動が評価され、出力ベクト
ルとして記憶された後、統計的プロセッサ31は、マスタ
ープロセッサ12からコマンド信号を受信し(接続P)、
ランダムサンプリングプロセスを介して、V個のテスト
ベクトルのクラス判定を行う。このようにして規定され
たクラスは、第2メモリ32に記憶される(接続R)。
【0037】この後、マスタープロセッサ12は、(接続
Bを介して)コマンド信号を送信し、ベースのテストベ
クトルすべてに対して、シーケンサユニット11によって
これらのベクトルに対して予め規定された順番で(所定
のニューロン温度において)学習期間を実行し、ニュー
ラルプロセッサ21に動作モード”学習”を課する(接続
1 )。各テストベクトルvに対して、この期間は、上
記と同様に:前記ベクトルをニューラルプロセッサ21の
入力端子に供給する工程と;このベクトルを予め規定さ
れたクラスと関連づける工程と;得られた出力起動パタ
ーンに基づき、ネットの演算パラメータを修正する工
程;とを具えている。
【0038】同一の機能のプロセス、すなわち、1付近
の値にニューロンの温度を初期化する工程の後の上記の
工程全体は、ニューロンの温度がかなり低減される間に
7回繰り返される(接続F2 )。このことは、反復動作
(所定の温度での学習期間)の回数が予め設定された限
界を越えたため、又はニューロン温度が所定の限界値よ
りも小さくなるために、このプロセスが中断されるまで
継続される。
【図面の簡単な説明】
【図1】典型的なニューロンを示す図である。
【図2】本発明による分類装置の一例を示す図である。
【符号の説明】
10 第1メモリ 11 シーケンサユニット 12 マスタープロセッサ 20 予備プロセッサ 21 ニューラルプロセッサ 30 第3メモリ 31 統計的プロセッサ 32 第2メモリ 33 判定プロセッサ

Claims (8)

    【特許請求の範囲】
  1. 【請求項1】 各テストベクトルの組に基づき、入力ベ
    クトルを多数のクラスに分類するためのニューラルネッ
    トトレイン方法において、 該方法が: ・ ランダムな値をニューラルネットの演算パラメータ
    に割り当てることによって、ニューラルネットを初期化
    する工程と; ・ ・各テストベクトルをニューラルネットの入力端子
    に供給する工程と; ・各テストベクトル毎に、ニューラルネットの出力端子
    に供給される出力起動の各パターンをモニタする工程
    と; ・各パターンの出力起動を相互に関連させる際に、各テ
    ストベクトルを各々いづれかのクラスに割り当てる工
    程;とを具えている統計的分類工程を実行する工程と; ・ 統計的分類工程において、ニューラルネットの演算
    パラメータを修正することによって、所定の基準に従っ
    て、それぞれ各クラスを示している各パターン間の相違
    を強調するための相違強調工程;とを具えていることを
    特徴とするニューラルネットトレイン方法。
  2. 【請求項2】 前記各パターンと関連する出力起動を相
    互に関連させる工程が: ・ 各クラス毎に、特定パターンの出力起動に基づき、
    関連する重み係数を発生させる工程と; ・ 統計的手続きにおいて各クラスを選択する工程;と
    を具え、各テストベクトルをクラスに割り当てる確率
    を、関連する重み係数で重みづけすることを特徴とする
    請求項1に記載のニューラルネットトレイン方法。
  3. 【請求項3】 前記相違強調工程が: ・ 各テストベクトルの組をランダムな順番でニューラ
    ルネットに再供給し、第2の出力起動を発生させる工程
    と; ・ 各テストベクトル毎に、第2出力起動のパターンに
    基づき、演算パラメータを修正し、パターン間の相違を
    増加させる工程;とを少なくとも1回具えていることを
    特徴とする請求項1に記載のニューラルネットトレイン
    方法。
  4. 【請求項4】 前記相違強調工程の終了時に、各パター
    ンの他の第2出力起動よりも極端な値をそれぞれ有して
    いる第2出力起動のいづれか1個を少なくとも有してい
    る各パターンによって、各テストベクトルが、各クラス
    に割り当てられているように表示されることを特徴とす
    る請求項3に記載のニューラルネットトレイン方法。
  5. 【請求項5】 各パターンの各第2出力起動を所定の敷
    居値と比較することによって、前記パターン間の相違を
    評価することを特徴とする請求項4に記載のニューラル
    ネットトレイン方法。
  6. 【請求項6】 第1空間のテストベクトルは、ニューラ
    ルネットに供給され、ニューラルネットのクラスタ特性
    を高める以前に、テストベクトルを第2空間の限定領域
    に写像することによって、前処理されることを特徴とす
    る請求項1に記載のニューラルネットトレイン方法。
  7. 【請求項7】 ・ 各入力ベクトル受信用の入力端子、
    前記各入力ベクトルと関連する出力起動の各パターン供
    給用の出力端子、及びネットの演算パラメータ値記憶用
    のメモリを有しているニューラルネットと; ・ 各パターンの出力起動を相互に関連させる際に、各
    クラス毎に重み係数を発生させ、重み係数によって重み
    付けられた確率に基づき、1個のクラスを統計的に選択
    するための、前記出力端子に結合する統計的分類手段
    と; ・ 演算パラメータ値を修正し、パターン間の相違を強
    調するとともに、修正された値をメモリに記憶するため
    の、前記メモリに結合する相違強調手段;とを具えてい
    ることを特徴とする複数の入力ベクトルをクラスに分類
    するための適応型装置。
  8. 【請求項8】 前記統計的分類手段が: ・ 所定範囲内の乱数発生用の乱数発生器と; ・ 該乱数発生器と接続し、それぞれ各重み係数に比例
    する一連の連続インターバルでの範囲の分割に基づき、
    乱数の存在する特定のインターバルによって特定される
    1個のクラスを選択するための選択手段;とを具えてい
    ることを特徴とする請求項7に記載の適応型装置。
JP4132556A 1991-05-24 1992-05-25 ニューラルネットのトレイン方法及びニューラルネットの分類装置 Pending JPH05158910A (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
FR9106278A FR2679055A1 (fr) 1991-05-24 1991-05-24 Procede d'apprentissage d'un reseau de neurones.
FR9106278 1991-05-24
FR9109134A FR2679355A1 (fr) 1991-07-19 1991-07-19 Procede d'apprentissage dans un dispositif de classification de donnees comprenant un reseau de neurones et dispositif de classification pour la mise en óoeuvre de ce procede.
FR9109134 1991-07-19

Publications (1)

Publication Number Publication Date
JPH05158910A true JPH05158910A (ja) 1993-06-25

Family

ID=26228709

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4132556A Pending JPH05158910A (ja) 1991-05-24 1992-05-25 ニューラルネットのトレイン方法及びニューラルネットの分類装置

Country Status (4)

Country Link
US (1) US5469530A (ja)
EP (1) EP0514986B1 (ja)
JP (1) JPH05158910A (ja)
DE (1) DE69223447T2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009245236A (ja) * 2008-03-31 2009-10-22 Institute Of Physical & Chemical Research 情報処理装置、情報処理方法、およびプログラム

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5517667A (en) * 1993-06-14 1996-05-14 Motorola, Inc. Neural network that does not require repetitive training
JPH0744514A (ja) * 1993-07-27 1995-02-14 Matsushita Electric Ind Co Ltd ニューラルネットの学習用データ縮約化方法
US5621862A (en) * 1993-07-29 1997-04-15 Matsushita Electric Industrial Co., Ltd. Information processing apparatus for implementing neural network
US5926804A (en) * 1994-07-01 1999-07-20 The Board Of Governors For Higher Education, State Of Rhode Island And Providence Plantations Discriminant neural networks
EP0814636A1 (de) * 1996-06-21 1997-12-29 Siemens Audiologische Technik GmbH Hörgerät
US5942422A (en) * 1996-11-14 1999-08-24 The Trustees Of Columbia University In The City Of New York Method for generating a directed, recombinant fusion nucleic acid
US6317658B1 (en) 1997-10-15 2001-11-13 The Boeing Company Neurocomputing control distribution system
US20020164070A1 (en) * 2001-03-14 2002-11-07 Kuhner Mark B. Automatic algorithm generation
US7287015B2 (en) * 2004-09-30 2007-10-23 International Business Machines Corporation Methods and apparatus for transmitting signals through network elements for classification
US7331007B2 (en) * 2005-07-07 2008-02-12 International Business Machines Corporation Harnessing machine learning to improve the success rate of stimuli generation
US8726144B2 (en) * 2005-12-23 2014-05-13 Xerox Corporation Interactive learning-based document annotation
US8874498B2 (en) * 2011-09-16 2014-10-28 International Business Machines Corporation Unsupervised, supervised, and reinforced learning via spiking computation
US8738554B2 (en) 2011-09-16 2014-05-27 International Business Machines Corporation Event-driven universal neural network circuit
US8626684B2 (en) 2011-12-14 2014-01-07 International Business Machines Corporation Multi-modal neural network for universal, online learning
US11163707B2 (en) * 2018-04-23 2021-11-02 International Business Machines Corporation Virtualization in hierarchical cortical emulation frameworks
CN110610140B (zh) * 2019-08-23 2024-01-19 平安科技(深圳)有限公司 人脸识别模型的训练方法、装置、设备及可读存储介质

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4858147A (en) * 1987-06-15 1989-08-15 Unisys Corporation Special purpose neurocomputer system for solving optimization problems
US4979126A (en) * 1988-03-30 1990-12-18 Ai Ware Incorporated Neural network with non-linear transformations
US4931868A (en) * 1988-05-31 1990-06-05 Grumman Aerospace Corporation Method and apparatus for detecting innovations in a scene
US4972363A (en) * 1989-02-01 1990-11-20 The Boeing Company Neural network using stochastic processing
US5140530A (en) * 1989-03-28 1992-08-18 Honeywell Inc. Genetic algorithm synthesis of neural networks
EP0405174B1 (en) * 1989-06-02 1998-03-11 Yozan Inc. Neuronal data processing system and adaptation method therefor
US5067164A (en) * 1989-11-30 1991-11-19 At&T Bell Laboratories Hierarchical constrained automatic learning neural network for character recognition
US5142665A (en) * 1990-02-20 1992-08-25 International Business Machines Corporation Neural network shell for application programs
AU7563191A (en) * 1990-03-28 1991-10-21 John R. Koza Non-linear genetic algorithms for solving problems by finding a fit composition of functions
US5299284A (en) * 1990-04-09 1994-03-29 Arizona Board Of Regents, Acting On Behalf Of Arizona State University Pattern classification using linear programming
US5218529A (en) * 1990-07-30 1993-06-08 University Of Georgia Research Foundation, Inc. Neural network system and methods for analysis of organic materials and structures using spectral data
US5142612A (en) * 1990-08-03 1992-08-25 E. I. Du Pont De Nemours & Co. (Inc.) Computer neural network supervisory process control system and method
US5150450A (en) * 1990-10-01 1992-09-22 The United States Of America As Represented By The Secretary Of The Navy Method and circuits for neuron perturbation in artificial neural network memory modification
US5105468A (en) * 1991-04-03 1992-04-14 At&T Bell Laboratories Time delay neural network for printed and cursive handwritten character recognition
US5214746A (en) * 1991-06-17 1993-05-25 Orincon Corporation Method and apparatus for training a neural network using evolutionary programming
US5179596A (en) * 1991-07-05 1993-01-12 Booz, Allen & Hamilton, Inc. Analog pattern categorization system having dual weighted connectivity between nodes
US5159644A (en) * 1991-08-30 1992-10-27 Eastman Kodak Company Character recognition method using statistically weighted correlation

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009245236A (ja) * 2008-03-31 2009-10-22 Institute Of Physical & Chemical Research 情報処理装置、情報処理方法、およびプログラム

Also Published As

Publication number Publication date
DE69223447T2 (de) 1998-06-04
EP0514986A3 (en) 1994-11-09
EP0514986B1 (fr) 1997-12-10
US5469530A (en) 1995-11-21
EP0514986A2 (fr) 1992-11-25
DE69223447D1 (de) 1998-01-22

Similar Documents

Publication Publication Date Title
JPH05158910A (ja) ニューラルネットのトレイン方法及びニューラルネットの分類装置
US6009418A (en) Method and apparatus for neural networking using semantic attractor architecture
US5075871A (en) Variable gain neural network image processing system
US5822742A (en) Dynamically stable associative learning neural network system
US5588091A (en) Dynamically stable associative learning neural network system
US5371809A (en) Neural network for improved classification of patterns which adds a best performing trial branch node to the network
US6038338A (en) Hybrid neural network for pattern recognition
WO2014060001A1 (en) Multitransmitter model of the neural network with an internal feedback
US5446829A (en) Artificial network for temporal sequence processing
US5107442A (en) Adaptive neural network image processing system
Lee et al. A neural network classifier with disjunctive fuzzy information
Urgun et al. Composite power system reliability evaluation using importance sampling and convolutional neural networks
Pal et al. A new shape representation scheme and its application to shape discrimination using a neural network
van de Laar et al. Input selection with partial retraining
Ali et al. Character Recogntion System: Performance Comparison of Neural Networks and Genetic Algorithm
Lazarevic et al. Adaptive boosting for spatial functions with unstable driving attributes
Purushothaman et al. On the capacity of feed-forward neural networks for fuzzy classification
Barua Neural networks and their applications to computer data security
CN113239077B (zh) 一种基于神经网络的搜索方法、***和计算机可读存储介质
KR102574165B1 (ko) 스파이킹 신경망에서 신경 암호 기반 소리 분류 장치 및 그 방법
JPH09231079A (ja) ファジィ推論システムおよびファジィルール構築システム
JP7483172B2 (ja) 情報処理装置及び情報処理方法
Owens et al. A multi-output-layer perceptron
Vonk et al. Neural network applications
CN116523004A (zh) 基于条件卷积和相关性映射的hrrp识别模型在线更新方法