JPH045750A - データ処理装置の学習方法 - Google Patents

データ処理装置の学習方法

Info

Publication number
JPH045750A
JPH045750A JP2106360A JP10636090A JPH045750A JP H045750 A JPH045750 A JP H045750A JP 2106360 A JP2106360 A JP 2106360A JP 10636090 A JP10636090 A JP 10636090A JP H045750 A JPH045750 A JP H045750A
Authority
JP
Japan
Prior art keywords
layer
neurons
output
input
neuron
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2106360A
Other languages
English (en)
Inventor
Makoto Yamamoto
誠 山本
Sunao Takatori
直 高取
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
TAKAYAMA KK
Original Assignee
TAKAYAMA KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by TAKAYAMA KK filed Critical TAKAYAMA KK
Priority to JP2106360A priority Critical patent/JPH045750A/ja
Priority to EP91106128A priority patent/EP0453939B1/en
Priority to DE69120854T priority patent/DE69120854T2/de
Priority to US07/689,338 priority patent/US5239619A/en
Priority to KR1019910006603A priority patent/KR910018925A/ko
Publication of JPH045750A publication Critical patent/JPH045750A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Devices For Executing Special Programs (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は、ニューラルネットワークの概念を基礎とする
データ処理装置に関する。
〔従来の技術] この種のデータ処理装置におけるニューラルネソトワー
クは、第3図に示す神経細胞モデル(以下、ニューロン
という)■を、並列に設けて層状に構成される。各層の
ニューロンは隣接する他の層の全てのニューロンにシナ
プス結合して、データの入出力を行う。すなわちニュー
ロン1において、外部から入力されるデータI、 、I
2、I3・・・Inにはそれぞれ重みW、 、W、 、
W。
・・・Wnが掛けられ、これらの総和と閾値θとの比較
結果に応じたデータ0が出力される。
この比較方法としては種々のものが可能であるが、例え
ば正規化関数1〔f〕を採用すると、出力データ0は、 0=1 〔ΣWn−In−θ)   −・−・−(1)
と表される。すなわち、ΣWn−Inが閾値0以上の時
そのニューロンは発火して出力データ○は「1」となり
、またΣWn−Inが閾値θより小さい時出力データO
は「0」となる。
従来のニューラルネットワークは、このようなニューロ
ンを並列に設けてニューラルレイヤを形成するとともに
、このニューラルレイヤを直列に接続して構成される。
ニューラルレイヤは例えば、ローゼンブラット(Ros
enblatt)が提案したバーセプトロンのように3
層すなわち入力層、中間層および出力層から成り、各層
のニューロンは隣接する他の層の全てのニューロンにシ
ナプス結合する。
〔発明が解決しようとする課題〕
このようなデータ処理装置において各ニューロンのシナ
プス重みを最適化する繰作は「学習」と呼ばれ、その実
現の保証と効率化は重要な課題である。例えば、近年注
目を集めているバックプロパゲーション法では、ローカ
ルミニマムからの脱出と、収束時間が問題点として残さ
れている。特に多数の中間層を含むニューラルネットワ
ークにおいてその傾向が大である。
本発明はこのような従来の問題点を解消すべく創案され
たもので、中間層に対し効率的学習を施し得る学習方法
を提供することを目的とする。
〔課題を解決するための手段〕
本発明に係る学習方法は、入力層の発火パターンと出力
層の発火パターンとを複数の入出力について人為的に決
定し、各入出力について、中間層の各ニューロンが、入
力層および出力層の対応する複数のニューロンのうち所
定の割合以上のニューロンが発火している場合に、発火
する傾向を持つように、中間層および出力層のシナプス
の重みを決定するものである。そして、中間層が多数設
けられる場合には、1個の中間層の学習が所定段階まで
終了したときに、新たに中間層を追加し、これに対して
も同様の学習を施し、逐次中間層を増加させるものであ
る。ここに入出力層のニューロン数はその1回のデータ
容量により決定され、処理し得るデータ個数はニューラ
ルネットワーク全体のニューロン数により決定される。
したがって多くのデータの処理のためには中間層の増大
は必須である。
〔実施例〕
以下図示実施例により本発明を説明する。
第1図は、本発明の一実施例に係るデータ処理装置を有
する文字認識システムを示す。この文字認識システムは
、ビデオカメラ10、前処理装置20、データ処理装置
30、後処理装置40およびデイスプレィ50を備える
。ビデオカメラ10は文字を入力するために設けられ、
前処理装置20に接続される。前処理装置20は例えば
従来公知の画像処理装置であり、入力された文字の特徴
データ(例えば端点数、分岐点数等)を抽出し、この特
徴データをデータ処理装置30に出力する。
データ処理装置30は、後述するようにニューラルネッ
トワークを構成し、前処理装置20から入力された文字
の特徴データに基づいてその文字を認識し、この認識結
果に応じたデータを後処理装置40に出力する。認識信
号は例えばキャラクタコードであり、後処理装置40は
この出力データを例えばワープロデータとして格納し、
同時にデイスプレィ5oに出力する。デイスプレィ50
は例えばCRTから構成され、データ処理装置30によ
り認識された文字を西面上に表示する。
データ処理装置30を構成するニューラルネットワーク
はコンピュータのハードウェアの一部として構成される
。このデータ処理装置30は第1図において模式的に表
されており、この図から理解されるように入力層31、
中間層32および出力層33を有し、中間層32は入力
層31および出力層33の間に配設される。各層31.
32.33は本実施例において、それぞれ多数のニュー
ロンNを有し、入力層31のニューロンNは中間層32
の全てのニューロンNに接続され、また中間層32のニ
ューロンNは出力層33の全てのニューロンNに接続さ
れる。
各ニューロンNは第3図を参照して上述したように、(
1)式の正規化関数に基づき、「1」またはrQJのデ
ータを出力する。ニューロンNは例えばオペアンプから
構成され、また各ニューロンNへ入力されるデータに乗
じられる重みWnは、例えば、オペアンプの入力端子に
接続された可変抵抗により得られる。また閾値関数はス
イッチング素子等によって実現される。すなわち各ニュ
ーロンの出力データに応じて可変抵抗の大きさを変化さ
せることにより、重みWnが変化せしめられ、出力デー
タが補正されて学習が行われる。
第2図(a)、(b)、(c)は入力層31、中間層3
2および出力層33を模式的に表したものである。ニュ
ーロンの数は、入力層31、中間層32、出力層33の
順に少なくなっている。ここでは説明の簡単のため、人
力層31のニューロン数を64個、中間層32のニュー
ロン数を49個、出力層33のニューロン数を36個と
する。
また各層のニューロンは、入力層31においては横方向
および縦方向にそれぞれ8個配列され、中間層32にお
いては横方向および縦方向にそれぞれ7個配列され、出
力層33においては横方向および縦方向に6個配列され
ている。ここで、図の左下隅のニューロンの位置を原点
とし、左からi番目、下からj番目に位置するニューロ
ンをN i jとする。
入力層31の各ニューロンは、ビデオカメラ10を介し
て得られる文字の特徴データによって発火する。例えば
N11、N18、Ni1s Nz□の発火の組合せによ
って端点数が表され、Nl1、N14、N23、N24
の発火の組合せによって分岐点数が表されるとする。す
なわち、入力層31のニューロンの発火パターンは入力
される文字に応じて人為的に決定される。
一方出力層33では、例えば、左下隅と右上隅のニュー
ロンを結ぶ対角線上のニューロンN□。
(破線りにより囲まれたニューロン)により文字が表さ
れる。すなわちこの対角線上のニューロンは、その文字
のキャラクタコードを表し、出力層33のニューロンの
発火パターンは人為的に決定される。本実施例において
、対角線上のニューロンN i iの発火パターンの種
類は64通りあり、したがって本実施例では64種類の
文字を認識することができ、例えばアルファベットの認
識が可能である。
さて文字認識の学習が行われる前においては、データ処
理装置30に文字データが入力されても、出力層33の
ニューロンは発火しない。このニューロンは、学習によ
って発火が可能となり、入力された文字データに応じた
所定の発火パターンを呈するようになると、学習は終了
する。なお学習用の入出カバターンはニューラルネット
ワークで処理すべきデータの代表データであり、実際に
処理すべきデータは広範囲に渡る。そして学習は、この
代表入出力データに対する連想が適正に行われるまで実
行される。しかして学習が終了すると、入力層31およ
び出力層33は入力された文字データに応じて上述した
ように人為的に定められる発火パターンを呈することと
なる。そして、入力層31、中間層32および出力層3
3の各層における発火パターンはこれらの層31.32
.33にわたってスムーズに変化していくと推定される
そこで本実施例では、学習の過程において、これらの層
における発火パターンがスムーズに変化するように、中
間層32および出力層33の重みを変化させている。
まず、中間層32のニューロンN i jが発火すべき
か否かを、入力層31および出力層33の対応する複数
のニューロンの発火を考慮して決定する。
すなわち、入力131および出力層33において対応す
る複数のニューロンのうち、所定の割合以上のニューロ
ンが発火し、あるいは発火すべきである場合、中間層3
2のニューロンN工、は発火する傾向を有すると判断さ
れ、このような発火が得られるように、中間層32およ
び出力層33の所定のニューロンの重みが増加せしめら
れる。
このような中間層のニューロンが発火すべきか否かの判
定方法について、第2図(a)〜(c)を参照して具体
的に説明する。なお第2図(a)は入力層31の発火パ
ターン、第2図(b)は中間層32の発火パターン、第
2図(C)は出力層33の発火パターンをそれぞれ示し
、図中、黒丸は発火しているニューロン、白丸は発火し
ていないニューロンを示す。この例では、入力された文
字の特徴データによって入力層31は図のような発火パ
ターンを呈し、またこの文字を認識するためには、出力
層33は図のような発火パターンを呈しなければならな
い。つまり図示された入力層31の発火パターンは入力
文字によって一意に定まり、出力層33の発火パターン
は学習が終了した時のものである。一方中間層32の発
火パターンの傾向は、後述するように入力層31および
出力層33の発火パターンに従って決定される。
各層のニューロンの対応関係について説明する。
中間層32の各ニューロンには、原則として、入力層3
1および出力層33の各4個のニューロンが対応する。
すなわち、中間層32のニューロンN i jには、入
力層31のニューロンN ij、N (i +11js
 N1(j。11、N、8゜011、。1.(中間層の
ニューロンN2.の場合、符号E2で囲まれた領域)が
対応し、また出力層33のニューロンN fi−11f
j−11、Ni<j−1+、N<=−+、i、N3、(
中間層のニューロンN26の場合、符号F2で囲まれた
領域)が対応する。ただし、中間層32において角部に
位置する各ニューロンNI1%Nl、N、1、N77に
は、上述と同様に入力層3104個のニューロンがそれ
ぞれ対応するが、出力層33に関しては、それぞれ角部
のニューロンN I I、N 61% N13、Nhb
が対応する。また中間層32において周縁部に位置する
各ニューロンN、、、 Ni7、N15、N7Jには、
上述と同様に入力層31の4個のニューロンがそれぞれ
対応するが、出力層33に関しては、中間層32のニュ
ーロンN□1についてはニューロンN。
1.1、N i l、中間層32のニューロンN8.に
ついてはニューロンN、□−17、N i 6、中間層
32のニューロンNIJについてはニューロンNl+j
−11、N1、中間IW32のニューロンN?Jについ
てはN6(j−11、N6Jがそれぞれ対応する。
中間層32のニューロンは、本実施例において、入力層
31および出力層33の対応する複数のニューロンのう
ち例えば40%以上が発火している場合に、発火する傾
向にあると判断される。第2図(b)の例において、中
間層32のニューロンN!6に対応する入力層31およ
び出力層33のニューロン(領域E2およびF2の計8
個のニューロン)のうち、3個のニューロンが発火して
いる。
したがって、中間層32のニューロンN2.は発火する
傾向にあると判断される。また中間層32のニューロン
N7.に対応する入力層31および出力層33のニュー
ロン(領域GおよびHの計6個のニューロン)のうち、
2個のニューロンが発火している。したがって中間層3
2のニューo 7 N + sは発火する傾向にはない
。しかして中間層32のニューロンは、第2[J(b)
に示すような発火パターンを呈する傾向にあると判断さ
れる。
本実施例における文字認識の学習では、中間層32およ
び出力層33の各ニューロンの重みが、このようにして
得られた発火パターンが得られるように、所定値だけ増
加せしめられる。
この重みの増加を第3図を用いて具体的に説明すると、
中間層のニューロン1の出力データ0が発火時の値(例
えば「l」)であれば、そのニューロンlに結合してい
る入力層のニューロンのうち、発火しているニューロン
から入力されるデータ(例えば「I! Jと’L」)に
対するシナプス重み(この場合「W2」と’Wz」)が
、例えば5%だけ増加せしめられる。出力層のニューロ
ンのシナプス重みについても同様に処理され、上述した
ように発火すべきであるとされた中間層のニューロンに
対するシナプス重みが、例えば5%だけ増加せしめられ
る。
しかして、入力層31、中間層32および出力層33の
各層間において発火パターンが最もスムーズに変化する
ように、中間層32および出力層33の重みが増加せし
められる。ここで、入力層31および出力層33の各ニ
ューロンが全ての入力文字に関してできるだけ同じ頻度
で発火するように定めておけば、中間層32の各ニュー
ロンも均等に発火することが可能となる。これによって
、ローカルミニマムへの落ち込みを防止することが可能
となり、また中間層31の各ニューロンは、それぞれ略
均等に発火することとなる。すなわち発火しないニュー
ロンの発生を回避することが可能となり、中間層32の
ニューロンを効率的に作用させることができる。
なお1回の学習におけるシナプス重みの増加は学習回数
に対して第4図のように変化し、複数回の学習により徐
々に全体系の学習が行われるとともに、学習終期には微
小変化による微調整が行われる。また初期の重みの急増
により学習速度が高められる。
上記実施例において、中間1132は人力層31と出力
層33に接続され、層数は3であった。しかし、本発明
は3層のニューラルネットワークに限定されるものでは
なく、4層以上のニューラルレイヤを有するニューラル
ネットワークにも適用可能である。この場合、まず第1
の中間層を選択し、この中間層の各ニューロンが、入力
層および出力層の対応する複数のニューロンのうち所定
の割合以上のニューロンが発火する場合に、発火する傾
向を持つように、第1の中間層および出力層のシナプス
重みを増加させる。そして全ての入力文字について学習
が所定段階まで終了すると、新たに第2の中間層を追加
し、この第2の中間層についても同様にして、対応する
複数のニューロンの所定割合以上のニューロンが発火す
るか否かを考慮して、第2の中間層およびこの中間層の
出力側に結合された層(出力層または第1の中間層)に
おけるシナプス重みを増加させる。しかして4層の場合
の重み分布が得られる。5層以上の場合も同様である。
第2図(a)、(b)、(c)において、中間層320
1個のニューロンには、原則として、人力層31および
出力層33のそれぞれ4個のニューロンが対応していた
。しかし、対応するニューロンの個数はこれに限定され
るものではな(、必要に応じて任意の数を選択すること
ができ、例えば、中間層32の1個のニューロンに、入
力層31および出力層33のそれぞれ9個のニューロン
が対応するようにしてもよい。
ここで、中間層32のニューロンN26、N、6、N4
6、N、6、N 611% N1kについて着目すると
、入力層31については、領域E2〜E、がそれぞれ対
応する。入力層31において、各領域のニューロンは、
左右に隣接する領域にも重複して含まれ、また同様に、
上下に隣接する領域にも重複して含まれる。したがって
、入力層31のニューロンは、周縁部のものを除いて、
4つの領域に属することとなり、すなわち中間層32の
4個のニューロンに対応している。
一方、中間層32と出力層33の関係を見ると、中間層
32の上縁部および右縁部のニューロンN81、N6.
以外のニューロンN i jは、出力層33の4個のニ
ューロンに対応する。すなわち中間層32の例えばニュ
ーロンN21、N36、N46、N、6、N66、N7
6は、出力層330領域F2〜F、がそれぞれ対応する
。出力層33において、各領域のニューロンは、左右に
隣接する領域にも重複して含まれ、また同様に、上下に
隣接する領域にも重複して含まれる。したがって、出力
層33のニューロンは、周縁部のものを除いて、4つの
領域に属することとなり、中間層32の4個のニューロ
ンに対応している。
このように、中間層32の各ニューロンは、入力層31
および出力層33の複数のニューロンに対応する。また
入力層31および出力層33の各ニューロンは、中間層
32の複数のニューロンにそれぞれ対応する。すなわち
、入力層31および出力層33においてそれぞれ隣接す
るニューロンは、互いに中間層32の同じニューロンに
も対応している。したがって入力層31および出力層3
3の隣接するニューロンは、中間層32の同じニューロ
ンの発火の傾向の判断に関与することとなる。
なおニューロンに対する入出力データは、デジタルの場
合2値に限定されず、多値であってもよく、またアナロ
グデータであってもよい。
さらに出力層は、対角線上のニューロンによってキャラ
クタコードを表すように構成される必要はなく、全ての
ニューロンによって認識文字を定義するように構成して
もよい。
また各層31.32.33におけるニューロン数は、認
識する文字の種類の数に応じた数だけ設けられる。
さらに、本発明は文字認識だけでなく、図形認識あるい
は音声認識に適用することもできる。
〔発明の効果〕
以上のように本発明によれば、ニエーラルネットワーク
の中間層に対し効率的な学習を施すことができるという
効果が得られる。
【図面の簡単な説明】
第1図は本発明の一実施例を通用した文字認識システム
を示す概略構成図、 第2図は入力層、中間層および出力層におけるニューロ
ンを示す概念図、 第3図はニューロンの一例を示す概念図、第4図は学習
回数と重みの変化との関係を示すグラフである。 IN・・・ニューロン 31・・・入力層 32・・・中間層 33・・・出力層

Claims (2)

    【特許請求の範囲】
  1. (1)入力されたデータに所定の処理を施した結果に基
    づいて発火し所定のデータを出力する複数のニューロン
    を有する入力層と、この入力層よりも少数のニューロン
    を有する出力層と、上記入力層および出力層の間に配設
    され、上記入力層および出力層の中間の数のニューロン
    を有し、各ニューロンが上記入力層および出力層の各ニ
    ューロンに結合する中間層とを備えたデータ処理装置の
    学習方法において、入力層の発火パターンと出力層の発
    火パターンとを複数の入出力について人為的に決定し、
    各入出力について、中間層の各ニューロンが、入力層お
    よび出力層の対応する複数のニューロンのうち所定の割
    合以上のニューロンが発火している場合に、発火する傾
    向を持つように、中間層および出力層のシナプスの重み
    を増加させ、全ての入出力に対して同様の処理を施すこ
    とを特徴とするデータ処理装置の学習方法。
  2. (2)請求項1記載の学習方法により学習されたデータ
    処理装置について、新たな中間層を追加し、この新たな
    中間層の各ニューロンを隣接する層の各ニューロンに接
    続し、新たな中間層の各ニューロンが、入力側および出
    力側の各層の対応するニューロンのうち所定の割合以上
    のニューロンが発火している場合に、発火する傾向を持
    つように、新たな中間層および隣接する出力側の層のシ
    ナプスの重みを増加させ、全ての入出力に対して同様の
    学習を施し、学習が所定段階まで終了した時点でさらに
    新たな中間層の追加と同様の学習を繰り返し、中間層を
    増加させていくことを特徴とするデータ処理装置の学習
    方法。
JP2106360A 1990-04-24 1990-04-24 データ処理装置の学習方法 Pending JPH045750A (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2106360A JPH045750A (ja) 1990-04-24 1990-04-24 データ処理装置の学習方法
EP91106128A EP0453939B1 (en) 1990-04-24 1991-04-17 Learning method for data processing system
DE69120854T DE69120854T2 (de) 1990-04-24 1991-04-17 Lernverfahren fÜr Datenverarbeitungssystem
US07/689,338 US5239619A (en) 1990-04-24 1991-04-23 Learning method for a data processing system having a multi-layer neural network
KR1019910006603A KR910018925A (ko) 1990-04-24 1991-04-24 데이터 처리장치의 학습방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2106360A JPH045750A (ja) 1990-04-24 1990-04-24 データ処理装置の学習方法

Publications (1)

Publication Number Publication Date
JPH045750A true JPH045750A (ja) 1992-01-09

Family

ID=14431580

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2106360A Pending JPH045750A (ja) 1990-04-24 1990-04-24 データ処理装置の学習方法

Country Status (1)

Country Link
JP (1) JPH045750A (ja)

Similar Documents

Publication Publication Date Title
US5402522A (en) Dynamically stable associative learning neural system
EP0327817B1 (en) Associative pattern conversion system and adaptation method thereof
US5119469A (en) Neural network with weight adjustment based on prior history of input signals
JPH04503274A (ja) 線形微分方程式を用いて接続の重みが生成されるような分散並列処理ネットワーク
JPH03288285A (ja) データ処理装置の学習方法
Afshar et al. Turn down that noise: synaptic encoding of afferent SNR in a single spiking neuron
EP0459276A2 (en) Data processing system
US5239619A (en) Learning method for a data processing system having a multi-layer neural network
Woods Back and counter propagation aberrations
JPH05101028A (ja) 複数特徴量の統合判定方法
JPH045750A (ja) データ処理装置の学習方法
Ritter et al. A new auto-associative memory based on lattice algebra
JPH03288258A (ja) データ処理装置の学習方法
Shobeiri et al. Shapley value in convolutional neural networks (CNNs): A Comparative Study
Osana Improved chaotic associative memory using distributed patterns for image retrieval
JPH045751A (ja) データ処理装置の学習方法
JPH05314090A (ja) ニューラルネットを用いたパターン認識方法およびその装置
Kufudaki et al. 43. ASSOCIATIVE NEURAL NETWORKS WITH THRESHOLD-CONTROLLED ATTENTION
JPH01232464A (ja) ニューラルネット構成方法
Kozdon et al. Wide learning: Using an ensemble of biologically-plausible spiking neural networks for unsupervised parallel classification of spatio-temporal patterns
JPH0424864A (ja) データ処理装置
JPH0438556A (ja) データ処理装置
JPH06161983A (ja) パターンマッチング方式
JPH0855098A (ja) ニューラルネットワーク・クラシファイアおよびニューラルネットワークの構成法
KR19980074455A (ko) 신경회로망 및 구현방법