JPH08329032A - ニュ−ラルネット型パターン認識装置及びニュ−ラルネットの学習方法 - Google Patents

ニュ−ラルネット型パターン認識装置及びニュ−ラルネットの学習方法

Info

Publication number
JPH08329032A
JPH08329032A JP7134545A JP13454595A JPH08329032A JP H08329032 A JPH08329032 A JP H08329032A JP 7134545 A JP7134545 A JP 7134545A JP 13454595 A JP13454595 A JP 13454595A JP H08329032 A JPH08329032 A JP H08329032A
Authority
JP
Japan
Prior art keywords
learning
unit
recognition
neural net
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP7134545A
Other languages
English (en)
Inventor
Hiromitsu Kawajiri
博光 川尻
Takatoshi Yoshikawa
隆敏 吉川
Hiroshi Horii
洋 堀井
Keizo Manabe
圭三 真鍋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokyo Sanyo Electric Co Ltd
Sanyo Electric Co Ltd
Original Assignee
Tokyo Sanyo Electric Co Ltd
Tottori Sanyo Electric Co Ltd
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokyo Sanyo Electric Co Ltd, Tottori Sanyo Electric Co Ltd, Sanyo Electric Co Ltd filed Critical Tokyo Sanyo Electric Co Ltd
Priority to JP7134545A priority Critical patent/JPH08329032A/ja
Publication of JPH08329032A publication Critical patent/JPH08329032A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Character Discrimination (AREA)

Abstract

(57)【要約】 【目的】 本発明は、突拍子もない認識結果を出力する
可能性の低いニューラルネット型パターン認識技術を提
供するものである。 【構成】 本願では、教師なし学習による分類部によ
り、入力データを分類し、この分類に応じて教師あり学
習により学習済みの認識部でパターン認識を行って認識
結果を出力するニューラルネットにおいて、この処理系
統を少なくとも2つ設け、両系統の認識結果により、こ
の装置の認識結果を出力する。

Description

【発明の詳細な説明】
【0001】本発明は、ニュ−ラルネットの学習方法及
びニュ−ラルネット型認識装置に関する。
【0002】
【従来の技術】ニュ−ラルネットに関しては、以下の文
献等により極めて周知である。 (a).産業図書株式会社1994年9月12日発行の「ニュ
−ロ・ファジィ・遺伝的アルゴリズム」。 (b).オ−ム社平成5年1月25日発行の「ニュ−ロ・フ
ァジィ・カオス」。
【0003】このニュ−ラルネットは、商品にも応用さ
れている。尚、ニュ−ラルネット用のニューロIC等が
提案されているが、ニュ−ラルネットの動作は、ノイマ
ン型コンピュータ(通常のコンピュータ)でシュミュレ
−ト出来る。現時点でのニューラルネットを応用したほ
とんどの商品は、内蔵のノイマン型マイクロコンピュー
タにより、ニューラルネット処理を行っている。
【0004】ニューラルネットは、「教師なし学習」と
「教師あり学習」により、予かじめ学習を行い、この学
習結果に基づいて、分類処理、認識処理を行う。このニ
ューラルネットの応用分野に音声認識・文字認識等のパ
ターン認識の分野がある。一般的なニューラルネット型
パターン認識装置では、「教師あり学習」により、予か
じめ学習を行う。
【0005】文字認識装置にニュ−ラルネットを用いた
従来例を図1〜図9を参照しつつ、説明する。尚、公知
の事項なので「発明が解決しようとする課題」の項ま
で、読み飛ばしてもらっても結構である。この例のニュ
−ラルネット型文字認識装置は、「0」〜「9」までの
数字を認識するものである。
【0006】そして、時間のかかる学習を、予め高性能
なコンピュータにより行う。そして、この学習結果であ
る結合係数をROMに覚え込ませる。商品にこのROM
を搭載して、結合係数による演算を行い文字認識を行う
ものである。つまり、商品後には、学習を行わないタイ
プである。図1は、第1従来例の学習用のニュ−ラルネ
ット型文字認識装置の構成を示す図である。
【0007】図2は、ROMを搭載したニュ−ラルネッ
ト型文字認識装置の構成を示す図である。図3は、学習
用のサンプルデータを示す図であり、この例では、
「0」〜「9」それぞれ100セット(計1000個)
のサンプルデータである。図4は、正規化の1例を示す
図であり、ここでは8×8画素のデータとしている。
【0008】図5は、ニュ−ラルネット型文字認識部
(16)周辺を示す図である。図6は、この第1従来例
の教師信号を示す図である。図7は、この第1従来例と
は、異なる従来の教師信号の一例を示す図である。図8
は、この第1従来例の動作を示す図である。図9は、数
を増やした学習用のサンプルデータを示す図であり、こ
の例では、「0」〜「9」の2000セット(計2万
個)のサンプルデータを学習することになる。
【0009】この第1従来例について、説明する。尚、
パターン認識等については、特開平4-219883号公報(G06
K9/66)、特開平5-324838号公報(G06K9/66)等にも示され
るように周知技術であるので、簡単に説明する。図1に
おいて、10は学習用サンプルデータ(教師用サンプル
データ)が、格納された記憶部である。この教師用サン
プルデータ記憶部10には、図3に示されるように予か
じめ正解の分かっているサンプルデータが、1000個
格納されている。
【0010】12は、入力されたサンプルデータを正規
化する正規化部である。ここでは、図4に示される様
に、8×8画素のデータに揃える。14は、認識処理を
容易にするための特徴抽出部である。この特徴抽出部1
4は、前処理部とも呼ばれる。この特徴抽出部14の処
理としては、骨格化(細線化)、平均輝度抽出、方向成
分の抽出等の種々の処理が、従来から提案されている。
この部14は、認識処理を容易にするためのものであ
り、もし、無くても装置は動作する。尚、その場合、認
識率は低下する。
【0011】16は、ニュ−ラルネット型文字認識部で
ある。この詳細は、図5を参照して、後述する。18
は、教師信号出力部である。この教師信号出力部18に
は、入力されたサンプルデータの正解データが、入力さ
れ、この正解データに対応する図6の教師信号を出力す
る。尚、この例では、ニュ−ラルネット型文字認識部1
6の出力層が、10端子であるので、図6の如く、設計
したが、図7の如く設計することも考えられる。
【0012】20は、学習を制御する学習制御部であ
る。この学習制御部20は、ニュ−ラルネット型文字認
識部16の出力信号と、教師信号との差(誤差)によ
り、学習を制御する。そして、バックプロパゲ−ション
法(BP法)により、ニュ−ラルネット型文字認識部1
6内の各階層間の重み係数(以下、結合係数と呼ぶ)を
修正する。
【0013】22は、ROMである。このROMには、
学習終了後にニュ−ラルネット型文字認識部16内の各
階層間の結合係数が、記憶される。図2は、商品であ
る。24は、文字列データの入力部である。25は、文
字列データを1字に切り分ける文字切り出し部である。
【0014】12’は、切り出された文字データを正規
化する正規化部である。ここでは、図4に示される様
に、8×8画素のデータに揃える。つまり、図1の正規
化部12と同じ処理を行う。14’は、認識処理を容易
にするための特徴抽出部である。この特徴抽出部14’
は、図1の特徴抽出部14と同じ処理を行う。もし、図
1に特徴抽出部14が設けられていなければ、当然、こ
の特徴抽出部14’も設けない。
【0015】16’は、ニュ−ラルネット型文字認識部
である。ニュ−ラルネット型文字認識部16’は、ニュ
−ラルネット型文字認識部16と同じ構成であり、且
つ、結合係数は前記ROM22により、設定される。2
4は、文字認識結果を出力する出力部である。ここで
は、「0」〜「9」に対応する出力の内、最も高い得点
の認識結果を出力する。なお、この文字認識装置が、他
の文字認識手法と組み合わされて使用される場合は、3
位までの得点の認識結果をその得点と共に出力するよう
にしてもよい。
【0016】図5は、ニューラルネット型認識部(1
6)の周辺を示す図である。ここでは、正規化部12の
8×8画素の文字データをそのまま特徴抽出データとし
て、入力している。このニューラルネット型認識部16
は、3層である。認識部16の入力層の端子数(ニュー
ロン数)は8×8=64個となる。出力層の端子数(ニ
ューロン数)は、10個であり、左から「0」〜「9」
に対応している。
【0017】20aは、認識部16の出力信号と、教師
信号との差を出力する誤差出力部である。20bは、こ
の誤差に応じて、BP法により、各層間の結合係数(W
ho,Vij)を補正する修正部である。20cは、こ
の誤差の総和が所定値より大きな場合に、前記修正部2
0bによる補正を行わしめる誤差総和検出部である。言
い換えれば、誤差総和検出部20cは、誤差の総和が所
定値より小さな場合は、修正部20bによる学習処理
(結合係数の修正処理)を停止させる。
【0018】この第1従来例での学習時の動作を図8を
参照しつつ、説明する。尚、第1従来例の学習は、巡回
回数(繰り返し回数)を設定するタイプである。このタ
イプは、所定回数巡回すると、学習を終了する。尚、当
然、収束条件を満たす場合に、学習を終了する様にして
もよい。まず、図9のS1に示すように、巡回回数Mを
設定する。
【0019】そして、図9のS2に示すように、サンプ
ルデータを入力する。つまり、図3に示すサンプルデー
タを正規化部12に出力し、正解データを教師信号出力
部18に出力する。サンプルデータは、正規化部12で
正規化され、特徴抽出部14を介して、認識部16に入
力される。
【0020】認識部16は、結合係数に基づいて演算処
理を行い、出力層から出力信号を出す。図8のS3に示
すように、出力信号と教師信号とを比較して、誤差を求
める。図5の誤差出力部20aは、出力信号と教師信号
とを比較して、誤差を出力する。
【0021】図8のS4,S5に示す様に、誤差の総和
が、0.5以下か否かを求める。0.5以下であれば、
学習の必要無しとする。0.5より大きければ、S5で
BP法により、結合係数を補正する。図5の誤差総和部
20cは、誤差の総和が、0.5以下であれば、修正部
20bの動作を停止させる。
【0022】これにより、不必要な学習を除外出来、学
習効率が上がる。図8のS6に示すように、最後のデー
タ(1000個目のデータ)でなければ、この次のサン
プルデータで同様に処理する。図8のS7,S8に示す
ように、この1000個目のデータによる学習をM回繰
り返した後に、S9の如く、学習を終了し、結合係数を
ROM22に取り出す。
【0023】そして、図2に示すように、このROM2
2を使用すれば、学習済みのニュ−ラルネット型認識部
16を再現出来るので、これを用いて文字認識を行う。
このようなニュ−ラルネット型認識部の認識率を上げる
には、図9に示すように学習するサンプルデータ数を増
やせば良い。図10は、この第1従来例とは、異なる従
来のニュ−ラルネット型文字認識部16a周辺を示す図
である。
【0024】図5の第1の例では、特徴抽出部を設けな
かったが、図10のように、正規化後のデータを8方向
の4×4画素の方向成分に変換する特徴抽出部14aを
設けて、これを入力してもよい。尚、この認識部16a
の入力層の端子数は、8×4×4=128個となる。
尚、20b’は、誤差に応じて、BP法により、各層間
の結合係数を補正する修正部である。
【0025】ところで、学習には、以下の2つの問題が
存在する。まず第1は、学習するサンプルの中には、品
質の低いデータが含まれる場合がある。この場合、ニュ
ーラルネットが混乱し、認識率が低下したり、学習が収
束しなくなる。尚、この問題を解決する手法(曖昧学習
法)を特願平7−117030号において、既に提案し
ているので、この手法の説明は割愛する。
【0026】第2に、学習するサンプル数が増大しても
学習できるように、ニューラルネット装置を設計する
と、装置の規模が急激に増大し、回路規模及び学習時間
が、膨大なものとなってしまう。この第2の問題を解決
するために、学習分担型ニュ−ラルネットが、提案され
ている。
【0027】この分担型ニュ−ラルネットは、教師あり
学習を行うニューラルネットを、複数設ける。そして、
サンプルを、このニューラルネットの数のグループに分
類する。そして、各ニューラルネットは、1つのグルー
プ内だけのサンプルを学習することにより、学習負荷を
減らしている(特開平2−210589号公報(G06K9/6
6),特開平3−31975号公報(G06F15/70),特開平4
−155480号公報(G06F15/70),特開平6−2666
88号公報(G06F15/18)参照)。
【0028】これは、会社組織と同じように与えられた
仕事を、各部署で分担して、処理するのに似ている。と
ころで、このグループ分け(クラスタリング)も、ニュ
−ラルネットにより、行われる。このグループ分けは、
教師なし学習による自己組織化により行う。この分担型
ニュ−ラルネットによる文字認識装置を図11〜図18
を参照しつつ、説明する。
【0029】図11は、第3従来例の学習用のニュ−ラ
ルネット型文字認識装置の構成を示す図である。図12
は、ニュ−ラルネット型分類部(16)周辺を示す図で
ある。図13は、ニュ−ラルネット型分類部(16)周
辺を示す図である。図14は、認識用のニュ−ラルネッ
ト型文字認識装置の構成を示す図である。
【0030】図15〜図18は、動作を説明するための
図である。この図11の第3従来例を、説明する。尚、
第1第2従来例と同一部分には、同一符号を付した。図
11において、10は、学習用サンプルデータ(教師用
サンプルデータ)が、格納された記憶部である。
【0031】12は、正規化部である。14aは、特徴
抽出部である。この特徴抽出部14aは、正規化後のデ
ータを8方向の4×4画素の方向成分に変換する。ここ
で、グループ分けに関する部分を説明する。26は、教
師なし学習によるニュ−ラルネット型分類部である。こ
の分類部26は、学習制御部28と共に、特徴抽出部1
4aからの128次元のベクトルを3つのグループに自
動分類する。
【0032】尚、この両部26,28による、教師なし
学習によるクラスタリング手法としては、コホ−ネンの
自己組織化アルゴリズム等が採用できる。30は、最終
の重み係数(参照ベクトル)を記憶する参照ベクトル記
憶用ROMである。32,34,36は、切換手段であ
る。教師なし学習時は、この切換手段34,36は、オ
フ状態となる。また、切換手段32は、学習制御部28
側に接続される。
【0033】次に、教師あり学習に関する部分を説明す
る。32,34,36は、切換手段である。教師あり学
習時は、この切換手段34,36は、オン状態となる。
また、切換手段32は、後段選定部38側に接続され
る。16a1,16a2,16a3は、ニューラルネッ
ト文字認識部である。
【0034】20’,20’,20’は、学習制御部で
ある。40a,40b,40cは、ニューラルネット文
字認識部と学習制御部からなる教師あり学習認識部であ
る。18は、教師信号出力部である。22aは、ニュー
ラルネット文字認識部16a1,16a2,16a3の
学習後の結合係数を格納するROMである。
【0035】図12は、ニューラルネット型分類部26
の周辺を示す図である。ここでは、正規化部12の8×
8画素の文字データを、特徴抽出回路14aで4×4の
8方向のデータとして、入力している。つまり、一つの
サンプルは、128次元の特徴ベクトルとして、入力さ
れる。26は、分類部である。分類部26の入力層の端
子数は128個となる。出力層の端子数は、3個であ
る。つまり、この分類部26は、教師なし学習により、
入力をデータを3つグループに分類する。
【0036】28は、コホ−ネンの自己組織化アルゴリ
ズムにより、重み係数を修正する学習制御部である。3
2は、切換手段である。この切換手段32は、分類部2
6の教師あり学習時に学習制御部28側に接続され、後
段の学習認識部40a,40b,40cの教師あり学習
時には、後段選定部38側に接続される。
【0037】後段選定部38は、分類部26の出力によ
り、現入力サンプルを、学習する学習認識部を選択す
る。尚、図13に示されるように、分類部26の重み係
数Mimは、この場合、Mim(i=1〜128,j=
1〜3)である。そして、自己組織化における重み係数
は、一般には、その出力層(Map Layer)の端
子毎に表現される。つまり、この場合、出力端子が3個
なので、Mi1,Mi2,Mi3(i=1〜128)と
表現され、参照ベクトルと呼ぶ。
【0038】この図11の動作を説明する。まず、分類
部26の教師なし学習により、サンプルデータを3つの
グループに分類する。切換手段32をコホ−ネンアルゴ
リズムの学習制御部28側に接続する。そして、入力部
10のサンプルデータを、所定回数巡回入力して、教師
なし学習を行う。
【0039】ここでは、サンプルデータを、3つのグル
−プ分類するように、自己組織化が成され、3つの参照
ベクトルが設定される。これにより、サンプルデータを
3種類にグル−プ分けすることが、可能となる。次に、
教師あり学習により、学習認識部40a,40b,40
cで学習を行う。
【0040】切換手段32を後段選定部38側に接続す
る。切換手段34,36を接続状態に設定する。そし
て、再び、入力部10のサンプルデータを、所定回数巡
回入力する。ここでは、第1第2従来例で説明した如
く、学習すれば良い。差は、3つの学習認識部40a,
40b,40cで、それぞれのグループ内のサンプルデ
ータのみを教師あり学習することである。
【0041】このためには、学習認識部40a,40
b,40cの内、どの学習認識部で学習するかを、サン
プルデータに応じて選定すれば良い。後段選定部38
は、このための機構である。つまり、この後段選定部3
8は、図13の分類部26の3つの出力端子の出力の中
で、一番出力値の大きな出力端子に対応する学習認識部
40a,40b,40cでの教師あり学習を許可する。
【0042】このような、学習終了後に、分類用の重み
係数(参照ベクトル)と、認識用の重み係数(結合係
数)を、ROM30,22aに記憶する。図14は、商
品である。24は、文字列データの入力部である。26
は、文字切り出し部である。
【0043】12’は、正規化部である。14a’は、
特徴抽出部である。26’は、サンプルデータを分類す
るニューラルネット型分類部である。この分類部26’
は、図11,図13の分類部26と同じ処理を行う。参
照ベクトルは、ROM30により、設定される。
【0044】16’a1,16’a2,16’a3は、
ニュ−ラルネット型文字認識部である。このニュ−ラル
ネット型文字認識部16’a1,16’a2,16’a
3は、図11のニュ−ラルネット型文字認識部16a
1,16a2,16a3と同じ構成であり、且つ、結合
係数は前記ROM22aにより、設定される。42は、
文字認識結果を出力する出力部である。ここでは、各ニ
ュ−ラルネット型文字認識部16’a1,16’a2,
16’a3からの「0」〜「9」に対応する出力得点及
び、分類部26’から出力される各グループとの適合度
得点をもとに、答えを出力する。
【0045】図15〜図18を参照しつつ、この第3従
来例の課題を説明する。図15〜図18は、分類部26
での各サンプルのベクトル空間の一部を示すものであ
る。尚、この第3実施例では、分類部26の入力端子は
128個である。このベクトル空間の一部を図15に示
す。このベクトル空間が、図16の如く、分類されたも
のとする。
【0046】つまり、CE1は、参照ベクトルMi1に
近く、学習認識部40aで学習される領域である。CE
2は、参照ベクトルMi2に近く、学習認識部40bで
学習される領域である。CE3は、参照ベクトルMi3
に近く、学習認識部40cで学習される領域である。
【0047】そして、このようにグル−プ分けされたサ
ンプルデータのみを各学習認識部40a,40b,40
cは、学習する。従って、各学習認識部40a,40
b,40cは、それぞれ、図17(a),(b),
(c)の如く、認識領域を形成する可能性が高い。NE
0は、出力端子「0」〜「9」の内、「0」から出力さ
れる得点が最も高い領域である。
【0048】同様に、NE9は「9」、NE6は
「6」、NE8は「8」である。従って、全体的な出力
は、図18の如くなる。つまり、分類された各グループ
の境界付近での文字認識の信頼性は低い。特に、このよ
うな境界領域では、突拍子もない認識結果を出力する可
能性が高まる。
【0049】
【発明が解決しようとする課題】本願は、グループ分け
して、教師あり学習を行ったニューラルネット型パター
ン認識装置の各グループの境界付近での認識率を向上さ
せることを第1の目的とする。本願は、グループ分けし
て、教師あり学習を行ったニューラルネットワーク型パ
ターン認識装置の学習効率を向上させることを第2の目
的とする。
【0050】
【課題を解決するための手段】本願では、認識対象のグ
ループ分けを行う第1のニューラルネット型分類部(2
6’a)と、この第1のニューラルネット型分類部(26’a)
によって分類された各グループに対応する複数のニュー
ラルネット型認識部(16’a1,16’a2,16’a3)と、認識対
象のグループ分けを行う第1のニューラルネット型分類
部(26’a)とは異なる基準で行う第2のニューラルネッ
ト型分類部(26’b)と、この第2のニューラルネット型
分類部(26’b)によって分類された各グループに対応す
る複数のニューラルネット型認識部(16’a4,16’a5)
と、少なくても、前記ニューラルネット型認識部(16’a
1,16’a2,16’a3)(16’a4,16’a5)の一つのからの出力
により、認識結果を出力する出力部(42a)とを備えるこ
とを特徴とする。
【0051】さらに、本願では、前記第1,第2のニュ
ーラルネット型分類部(26’a,26’b) は、教師なし学習
により学習済みであることを特徴とする。さらに、本願
では、前記ニューラルネット型認識部(16’a1,16’a2,1
6’a3)(16’a4,16’a5)は、教師あり学習により学習済
みであることを特徴とする。さらに、本願では、前記第
1のニューラルネット型分類部(26’a)と前記第2のニ
ューラルネット型分類部(26’b)に、認識対象から作成
した異なる特徴を入力する特徴抽出手段(12’,14b)を備
えることを特徴とする。
【0052】さらに、本願では、前記全てのニューラル
ネット型認識部(16’a1,16’a2,16’a3)(16’a4,16’a
5)に、認識対象から作成した同一の特徴を入力する特徴
抽出手段(12’,14b)を備えることを特徴とする。また、
本願は、認識対象のグループ分けを行うニューラルネッ
ト型分類部(26’a)(26’b)と、このニューラルネット型
分類部(26’a)(26’b)によって分類された各グループに
対応する複数のニューラルネット型認識部(16’a1,16’
a2,16’a3)(16’a4,16’a5)とを備えるニューラルネッ
ト型パターン認識装置において、前記複数のニューラル
ネット型認識部(16’a1,16’a2,16’a3)(16’a4,16’a
5)に認識対象から作成した特徴ベクトルを入力すると共
に、この特徴ベクトルの一部を前記ニューラルネット型
分類部(26’a)(26’b)に入力する特徴抽出手段(12’,14
b) を備えることを特徴とする。
【0053】また、本願は、教師用サンプルデータを自
動分類するために、ニュ−ラルネット型分類部で教師な
し学習を行い、この分類に基づいて学習が分担される複
数のニューラルネット型認識部で、教師あり学習がされ
るニューラルネットの学習方法において、このような処
理を2系統(S10,S11)(S12,S13)設けることを特徴とす
る。
【0054】また、本願は、教師用サンプルデータを自
動分類するために、ニュ−ラルネット型分類部で教師な
し学習を行い、この分類に基づいて学習が分担される複
数のニューラルネット型認識部で、教師あり学習がされ
るニューラルネットの学習方法において、前記教師なし
学習のために前記ニュ−ラルネット型分類部に入力され
る全ての特徴ベクトルは、前記教師あり学習のために前
記ニュ−ラルネット型分類部に入力される特徴ベクトル
の一部であることを特徴とする。
【0055】また、本願は、教師用サンプルデータを自
動分類するために、ニュ−ラルネット型分類部(26)で教
師なし学習を行い、この分類に対応する複数のニューラ
ルネット型認識部(16a1,・・・・)で、教師あり学習を行う
ニューラルネットの学習方法において、前記教師用サン
プルデータにより教師あり学習を前記複数のニューラル
ネット型認識部(16a1,・・・・)で行う場合に、この教師用
サンプルデータの分類に対応する前記ニューラルネット
型認識部(16a1,・・・・)で学習を行い、この教師用サンプ
ルデータの分類に対応しない前記ニュ−ラルネット型認
識部(16a1,・・・・)では曖昧に学習を行うことを特徴とす
る。
【0056】また、本願は、教師用サンプルデータを自
動分類するために、ニュ−ラルネット型分類部で教師な
し学習を行い、この分類に対応する複数のニューラルネ
ット型認識部で、出力信号と教師用信号との誤差が所定
値(G)より大きな場合に学習を実行するニューラルネ
ットの学習方法において、前記教師用サンプルデータに
より教師あり学習を前記複数のニューラルネット型認識
部で行う場合に、この教師用サンプルデータの分類に対
応する前記ニューラルネット型認識部での学習時と、こ
の教師用サンプルデータの分類に対応しない前記ニュ−
ラルネット型認識部での学習時とで、前記所定値を変更
することを特徴とする。
【0057】また、本願は、教師用サンプルデータを自
動分類するために、ニュ−ラルネット型分類部で教師な
し学習を行い、この分類に対応する複数のニューラルネ
ット型認識部で、出力信号と教師用信号との誤差を用い
て学習を実行するニューラルネットの学習方法におい
て、前記教師用サンプルデータにより教師あり学習を前
記複数のニューラルネット型認識部で行う場合に、この
教師用サンプルデータの分類に対応する前記ニューラル
ネット型認識部での学習時と、この教師用サンプルデー
タの分類に対応しない前記ニュ−ラルネット型認識部で
の学習時とで、前記教師信号の値を変更することを特徴
とする。
【0058】また、本願は、請求項7〜11のいずれか
の学習方法で学習したニュ−ラルネット型パターン認識
装置。
【0059】
【作用】本願の請求項1〜5では、異なる観点からの分
類に基づくニューラルネット型パターン認識を行うこと
となる。本願の請求項7,13は、異なる観点からのニ
ューラルネット型分類のための教師なし学習及びこの分
類に基づく認識を行うための教師あり学習を行う。
【0060】本願の請求項6,8,14では、ニューラ
ルネット型分類のために入力される特徴ベクトルを、ニ
ューラルネット型認識のための特徴ベクトルの一部とす
る。本願の請求項9〜12では、他のグループの供しよ
うサンプルデータは、曖昧学習する。
【0061】
【実施例】図19〜図25を参照しつつ、本発明の第1
実施例を説明する。この第1実施例の特徴は、ニューラ
ルネット型分類部でグループ分けし、このグループ分け
に従って、ニューラルネット型認識部で学習する系統
を、複数設けたことである。
【0062】図19において、第1〜第3従来例と同一
部分には、同一符号を付した。図19において、10
は、学習用サンプルデータ(教師用サンプルデータ)
が、格納された記憶部である。12は、正規化部であ
る。14bは、特徴抽出部である。この特徴抽出部14
bは、正規化後のデータを4方向の4×4画素の方向成
分に変換する。
【0063】26aは、第1教師なし学習によるニュ−
ラルネット型分類部である。この分類部26aは、学習
制御部28aと共に、特徴抽出部14bからの64次元
のベクトルを3つのグループに自動分類する。26b
は、第2教師なし学習によるニュ−ラルネット型分類部
である。この分類部26bは、学習制御部28bと共
に、正規化部12からの8×8画素の64次元のベクト
ルを2つのグループに自動分類する。
【0064】尚、この第1第2分類部26a,26bの
教師なし学習によるクラスタリング手法は、コホ−ネン
の自己組織化アルゴリズムを採用した。30aは、最終
の重み係数(参照ベクトル)を記憶する参照ベクトル記
憶用ROMである。32a,32b,34a,36は、
切換手段である。教師なし学習時は、この切換手段34
a,36は、オフ状態となる。また、切換手段32a,
32bは、学習制御部28a,28b側に接続される。
【0065】次に、教師あり学習に関する部分を説明す
る。教師あり学習時は、切換手段34a,36は、オン
状態となる。また、切換手段32a,32bは、後段選
定部38a,38b側に接続される。この後段選定部3
8a,38bは、従来と異なり、サンプルのグループを
択一的に選択するものではない。つまり、あるサンプル
が、あるグループに属していれば、当然、このグループ
用の学習認識部での学習を許可する。それだけでなく、
このサンプルが他のグループの近隣に位置するのであれ
ば、そのグループ用の学習認識部での学習を許可する
(以下、近隣学習と称する)。
【0066】40a,40b,40cは、第1分類部2
6a,後段選定部38aに対応する3つの学習認識部で
ある。40d,40eは、第2分類部26b,後段選定
部38bに対応する2つの学習認識部である。22b
は、学習認識部40a,40b,40c,40d,40
eの学習後の結合係数を格納するROMである。
【0067】図20は、第1第2ニューラルネット型分
類部26a,26bの周辺を示す図である。26aは、
第1教師なし学習によるニュ−ラルネット型分類部であ
る。この分類部26aは、正規化部12の8×8画素の
文字データを、特徴抽出回路14bで4×4の4方向の
データとして、入力している。つまり、一つのサンプル
は、64次元の特徴ベクトルとして、入力される。
【0068】この分類部26aの出力層の端子数は、3
個である。つまり、この分類部26aは、教師なし学習
により、入力をデータを3つグループに分類する。28
aは、コホ−ネンの自己組織化アルゴリズムにより、重
み係数を修正する学習制御部である。32aは、切換手
段である。この切換手段32aは、分類部26aの教師
あり学習時に学習制御部28a側に接続される。また、
後段の学習認識部40a,40b,40cの教師あり学
習時には、後段選定部38a側に接続される。
【0069】後段選定部38aは、第1分類部26aの
出力により、現入力サンプルを学習する学習認識部40
a,40b,40cを1つ以上設定する。26bは、第
2教師なし学習によるニュ−ラルネット型分類部であ
る。この分類部26bは、正規化部12の8×8画素の
文字データを入力している。つまり、一つのサンプル
は、64次元の特徴ベクトルとして、入力される。
【0070】この分類部26bの出力層の端子数は、2
個である。つまり、この分類部26bは、教師なし学習
により、入力をデータを2つグループに分類する。28
bは、コホ−ネンの自己組織化アルゴリズムにより、重
み係数を修正する学習制御部である。32bは、切換手
段である。この切換手段32bは、分類部26bの教師
あり学習時に学習制御部28b側に接続される。また、
後段の学習認識部40d,40eの教師あり学習時に
は、後段選定部38b側に接続される。
【0071】後段選定部38bは、第2分類部26bの
出力により、現入力サンプルを学習する学習認識部40
d,40eを1つ以上設定する。図19の動作を説明す
る。まず、第1分類部26aと第1分類部26bの教師
なし学習により、サンプルデータを3つのグループと2
つのグループとに分類する。切換手段26a,26bを
コホ−ネンアルゴリズムの学習制御部28a,28b側
に接続する。
【0072】そして、入力部10のサンプルデータを、
所定回数巡回入力して、教師なし学習を行う。ここで
は、サンプルデータを、第1分類26aでは、3つのグ
ル−プに分類するように、自己組織化が成され、3つの
参照ベクトルが設定される。また、第2分類26bで
は、2つのグル−プに分類するように、自己組織化が成
され、2つの参照ベクトルが設定される。
【0073】これにより、サンプルデータを異なった観
点からグル−プ分けすることが、可能となる。次に、教
師あり学習により、学習認識部40a,40b,40
c,40d,40eで学習を行う。切換手段32a、3
2bを後段選定部38a,38b側に接続する。
【0074】切換手段34a、36を接続状態にする。
そして、再び、入力部10のサンプルデータを、所定回
数巡回入力する。そして、先ほど教師なし学習によっ
て、自己組織化された分類部26a,26bにより、学
習する学習認識部40a,40b,40c,40d,4
0eを設定する。
【0075】後段選定部38aは、学習認識部40a,
40b,40cの中から選定する。つまり、この後段選
定部38aは、図20の分類部26aの3つの出力端子
の出力の中で、一番大きな値を出力する出力端子に対応
する学習認識部40a,40b,40cでの教師あり学
習を許可する。更に、この一番大きな値との差が、所定
値以下の値を出力する出力端子に対応する学習認識部4
0a,40b,40cでの教師あり学習も許可する。
【0076】また、後段選定部38bは、図20の分類
部26bの2つの出力端子の出力の中で、一番大きな値
を出力する出力端子に対応する学習認識部40d,40
eでの教師あり学習を許可する。更に、この一番大きな
値との差が、所定値以下の値を出力する出力端子に対応
する学習認識部40d,40eでの教師あり学習も許可
する。
【0077】このような、学習終了後に、参照ベクト
ル、結合係数を、ROM30a,22bに格納する。図
22は、商品である。尚、学習時には分類部は前段であ
り、認識部は後段であったが、認識時には、分類部と認
識部とを並列に設けてもよい。
【0078】24は、文字列データの入力部である。2
5は、文字切り出し部である。12’は、正規化部であ
る。14b’は、特徴抽出部であり、図19,図20の
特徴抽出部14bと同一である。
【0079】26a’は、サンプルデータを分類するニ
ューラルネット型分類部である。この分類部26a’
は、図19,図20の第1分類部26bと同じ処理を行
う。参照ベクトルは、ROM30aにより、設定され
る。26b’は、サンプルデータを分類するニューラル
ネット型分類部である。この分類部26b’は、図1
9,図20の第2分類部26aと同じ処理を行う。参照
ベクトルは、ROM30aにより、設定される。
【0080】16’a1,16’a2,16’a3,1
6’a4,16’a5は、ニュ−ラルネット型文字認識
部である。このニュ−ラルネット型文字認識部16’a
1,16’a2,16’a3は、図19,図20の学習
認識部40a,40b,40cに対応している。この結
合係数は、ROM22bにより、設定される。ニュ−ラ
ルネット型文字認識部16’a4,16’a5は、図1
9,図20の学習認識部40d,40eに対応してい
る。この結合係数は、OM22bにより、設定される。
【0081】42aは、文字認識結果を出力する出力部
である。ここでは、各ニュ−ラルネット型文字認識部1
6’a1,16’a2,16’a3からの「0」〜
「9」に対応する出力得点及び、分類部26’aから出
力される各グループとの適合度得点をもとに、第1分類
に関する認識得点を検知する。また、各ニュ−ラルネッ
ト型文字認識部16’a4,16’a5からの「0」〜
「9」に対応する出力得点及び、分類部26’bから出
力される各グループとの適合度得点をもとに、第2分類
に関する認識得点を検知する。そして、得点を比較し
て、認識結果を出力する。
【0082】図22〜図25を参照しつつ、この第1実
施例の動作を説明する。図22は、第2分類部26bで
の各サンプルのベクトル空間の一部を示すものである。
尚、この第1実施例では、第2分類部26bの入力端子
は64個である。そして、この第2分類では、図22の
如く、グループ分けの境界が、この一部には無いものと
する。そして、図22の如く、認識領域を形成する。
【0083】このサンプルが、第1分類部26aで図2
3の如く、分類されたものとする。尚、第1第2分類部
への入力されるデータは、異なる処理を行われているの
で、当然、図23の如くならない。しかし、説明を簡単
にするために、このように表した。要は、第1分類部2
6aと第2分類部26bとは、異なる観点からグループ
分けを行っていることを、認識して戴きたい。
【0084】図23のCE1は、参照ベクトルMi1に
近い領域である。CE2は、参照ベクトルMi2に近い
領域である。CE3は、参照ベクトルMi3に近く領域
である。そして、この第1実施例では、前述したよう
に、後段選定部38a,38bにより、近隣学習が成さ
れる。
【0085】従って、各学習認識部40a,40b,4
0cは、それぞれ、図24(a),(b),(c)の如
く、認識領域を形成する可能性が高い。NE0は、出力
端子「0」〜「9」の内、「0」から出力される得点が
最も高い領域である。同様に、NE9は「9」、NE6
は「6」、NE8は「8」である。従って、全体的な出
力は、図25の如くなる。
【0086】つまり、分類された各グループの境界付近
での文字認識の信頼性を向上することができる。図22
と図25のように、第1実施例では、クラスタリングに
よる分類を異なる観点から行うので、認識時に一方のグ
ループ分けの観点(第2分類)では、グループの境界に
存在する未学習のデータであっても、他方のグループ分
けの観点(第1分類)では、グループの中心付近に存在
する未学習のデータである場合がある。この場合に、他
方のグループ分けの観点(第1分類)による文字認識結
果を優先するので、グループ分けの境界付近の未学習デ
ータの認識率を向上させることが出来る。
【0087】尚、この第1実施例を機能ブロック図によ
り説明したが、本願は、当然、ソフトウエアにより、実
現してもよい。また、教師なし学習としてコホ−ネンの
アルゴリズムを用いたが、当然、他のアルゴリズムを用
いてもよい。本願を、ノイマン型のコンピュ−タのソフ
トウエアで実現した例を、図26〜図32を参照しつ
つ、説明する。
【0088】この例では、前述の特開平4−15548
0号公報に記載されるものの改良である。この例では、
教師なし学習として自己増殖型のアルゴリズムを用いて
いる。この特開平4−155480号公報では、入力さ
れたサンプルと参照ベクトルとの整合度が、閾値αに届
かない場合に増殖を行い、一つのグループに分類される
サンプル数が所定値を越えた場合に***を行っている。
【0089】尚、本願では、入力されたサンプルと参照
ベクトルとの距離が、閾値αを越えた場合に、増殖を行
っており、一つのグループに分類されるサンプル数によ
る***制御を行わない。図26に学習時の動作を説明す
る。まず、S10により、第1の基準を設定する。この
場合は、入力されるデータを4方向の4×4画素の64
個の特徴ベクトルに設定する。
【0090】S11により、第1の基準に従った教師な
し学習による増殖型のクラスタリング処理(グル−プ分
け)、及び、このクラスタリングに基づく、教師あり学
習を行う。S12により、第2の基準を設定する。この
場合は、入力されるデータを正規化済みの8×8画素の
64個の特徴ベクトルに設定する。
【0091】S13により、第2の基準に従った教師な
し学習による増殖型のクラスタリング処理(グル−プ分
け)、及び、このクラスタリングに基づく、教師あり学
習を行う。このS11,S13での処理を、図27に示
す。つまり、S20で、教師用のサンプルデータのベク
トルにより、仮の参照ベクトルを作成する。また、教師
用のサンプルデータの仮のグル−プ分けを行い対応する
グループに登録する。
【0092】S21で、仮の参照ベクトルを修正して真
の参照ベクトルを求め、且つ、教師用のサンプルデータ
のグル−プ分けを修正して、真のグル−プに登録する。
S22で、他のグループに近いサンプルデータは、他の
グループにも重複して登録する。S23で、S22で登
録したグループに対応するニューラルネット型認識部で
の教師あり学習を行う。そして、教師なし学習による分
類を再現するための参照ベクトル、教師あり学習による
認識を再現するための結合係数を書き込む。
【0093】このS20での処理を、図28に示す。S
31のtは、教師用のサンプルデータの番号を示してい
る。S32のNは、グループ分けの数(分類部の出力ニ
ューロン数)に対応している。また、この1番目のサン
プルデータを1番目の参照ベクトルとする。S33とS
37は、この間の処理S34〜S36を、T個目の最後
のサンプルまで、繰り返して行うためのものである。
【0094】S34では、t番目のサンプルデータと、
N個の参照ベクトルとの整合度(距離と反する)を求
め、この整合度と予かじめ定められた閾値αの大小を検
出する。もし、N個の整合度が、全てα未満の場合(一
番近い参照ベクトルでも所定値以上離れている場合)
は、S35に進む。S35では、グループ数を一つ増や
す。そして、このt番目のサンプルデータをこの新たな
グループの参照ベクトルとする。
【0095】S34で、N個の差が、全てα以下の場合
は、S36に進む.S36では、このt番目のサンプル
データを、一番近いグループ(整合度の最も高いグルー
プ)に分類(登録)する。また、参照ベクトルの値をこ
のグループに分類された全サンプルの平均に修正する。
図27のS21での処理を、図29に示す。
【0096】S41のtは、教師用のサンプルデータの
番号を示している。S42では、このt番目のサンプル
データと、N個の参照ベクトルとの整合度を求め、既に
登録されたグループと、一番近い参照ベクトルのグルー
プが、一致するか否かを検出する。一致すれば、S45
に移る。
【0097】S42とS45は、処理S43,S44
を、T個目の最後サンプルまで、繰り返して行うための
ものである。S43で、このt番目のサンプルデータの
登録済みのグループと、現時点で一番近い参照ベクトル
のグループが、一致しない場合は、S44に移る。S4
4では、このt番目のサンプルデータのグループの登録
を一番近いグループに変更する。また、登録を解除した
グループの参照ベクトルの値を、このサンプルデータを
除いた全サンプルの平均に修正する。また、今回登録し
たグループの参照ベクトルの値を、このサンプルデータ
を加えた全サンプルの平均に修正する。また、このよう
な登録の修正があったことを示すフラグをオンとする。
【0098】そして、S45に移る。S46は、全ての
サンプルのデータに登録の修正がなくなるまで、このS
41〜S45の処理を、繰り返すものである。S46で
は、フラグがオンしていなければ、この処理を終了す
る。フラグがオンしていれば、このフラグをオフにし
て、S41に戻す。
【0099】図27のS22での処理を、図30に示
す。この図30は、他のグループに近いサンプルデータ
は、他のグループにも重複して登録する処理である。S
51のtは、教師用のサンプルデータの番号を示してい
る。S53では、t番目のサンプルデータと、N個の参
照ベクトルとの整合度を求め、この差と予かじめ定めら
れた閾値βの大小を検出する。尚、ここでは、閾値α>
閾値βである。
【0100】S54で、βより大きなグループを登録す
る。尚、βより大のグループが1個なら、既に登録され
ているグループと同一なので、無理に登録処理を行わな
くてもよい。βより大のグループが、複数なら、既に登
録されているグループに加えて、登録されることとな
る。
【0101】S52とS55は、処理S53,S54
を、T個目の最後サンプルまで、行うためのものであ
る。図27のS23での処理を、図31に示す。この図
31は、図30で登録したグループに対応するニューラ
ルネット型認識部での教師あり学習を行うものである。
【0102】尚、ここでは、登録されたグループを主体
に処理を行っている。S61,S62のnは、グループ
の番号を示している。S63では、このグループに分類
されたサンプルデータにより、このグループに対応する
結合係数を求めるための、教師あり学習を行う。尚、教
師あり学習の詳細は、図8と同様である。
【0103】S64は、最後のグループまで、行うため
のものである。S65で、今回の分類の基準に基づく、
各参照ベクトル、及び、結合係数をROMに書き込む。
図32に認識時の動作の一例を示す。S71で、データ
が入力されると、この入力データから、第1の分類用の
ベクトルを作成する。そして、この入力データのベクト
ルと、第1の分類の各参照ベクトルを比較して、この第
1の分類基準による各グループとの整合度を求める。
【0104】そして、S72で、参照ベクトルと一番似
ているグループ(参照ベクトルに一番近いグループ)の
ニューラルネット型認識部に対応する結合係数を求め
て、この認識結果を求める。S73で、この得点と、前
記整合度により、この認識結果の得点を求める。S7
4,S75,S76で、第2の分類について、S71,
S72,S73と同様に動作する。
【0105】S77で、S73とS76で求めた認識結
果及びこの得点により、認識結果を出力する。尚、上記
実施例では、学習時と認識時は、別々の装置であるが、
本願は、これに限定されるものでない。また、上記実施
例では、教師なし学習による第1と第2分類とを、入力
されるデータを正規化データの直接出力と、特徴抽出処
理した間接出力により異ならしめている。しかし、本願
は、これに限定されるものではなく、単に、閾値αを変
更するようにしてもよい。
【0106】また、上記実施例では、教師なし学習によ
る分類を、入力されるデータを正規化データの直接出
力、または、特徴抽出処理した間接出力としている。そ
して、教師なし学習による分類のための入力データは、
認識のための入力データより少なく、設定している。さ
らに、教師あり学習による認識のための入力データは、
分類のための入力データを含んでいる。
【0107】このために、以下の効果がある。つまり、
正規化された8×8の特徴データと、これから方向成分
を抽出(強調)した4方向の4×4の特徴データがあ
る。この2種類の特徴データは、見地が異なるデータで
あり、この2種類の関連(複合特徴)に基づく認識をす
れば、細かな認識処理が可能となる。しかし、分類時も
これを使用すると、複合特徴による弊害の可能性があ
る。そこで、1種類の特徴で分類することでその信頼性
が増す。
【0108】また、上記実施例では、商品化後は、学習
を行わない例を示したが、本願は、これに限定されるも
のでない。また、本願を実施して、文字認識結果を出力
する場合、他の文字認識手法(例えば、意味解析、文法
解析等の知的処理)と、組み合わせてもよい。また、上
記実施例は、文字認識装置を示したが、本願は、これに
限定されるものでない。
【0109】次に、各グループの境界領域での認識率を
向上させる。第3の実施例を説明する。つまり、各グル
ープに対応する認識部は、基本的には他のグループの教
師用サンプルデータは、学習しない。なお、「その他」
としては、学習する場合がある。
【0110】この第3実施例では、各グループに対応す
る認識部は、他のグループの教師用サンプルデータも学
習する。しかし、自己のグループの教師用サンプルデー
タと同様に学習するのでは、この学習分担型ニューラル
ネットの意味がなくなる。そこで、前述した曖昧学習を
行うものである。
【0111】図33にその例を示す。同一部分には、同
一符号を付した。40a’,40b’,40c’は、同
じ回路構成の学習認識部であり、教師信号出力部18’
を含んでいる。21a’は、切替回路であり、学習制御
部20’の動作を切り換える。
【0112】21b’は、切替回路であり、教師信号出
力部18’の動作を切り換える。分類のための教師なし
学習時は、従来と同様に動作する。そして、認識のため
の教師あり学習時に、第1実施例と同様に後段選定部3
8aは、この時に入力された教師用サンプルデータを学
習する学習認識部40a’,40b’,40c’を選定
する。
【0113】そして、選定された学習認識部で通常の学
習が為されるように、切替回路を21a’,21b’を
制御して、従来からの通常の特性でバックプロパゲ−シ
ョン法による学習を行う。そして、選定されなかった学
習認識部では、曖昧学習が為されるように、切替回路を
21a’,21b’を制御して、特性を変更したバック
プロパゲ−ション法による学習を行う。
【0114】これにより、他のグループの教師用サンプ
ルデータについても、それなりの学習が為されることと
なる。尚、切替回路を21a’,21b’による曖昧学
習のための、特性の変更は、2段階でもよいし、多段階
としてもよい。また、分類時における各整合度に応じ
て、特性を変更してもよい。
【0115】
【発明の効果】本願の請求項1〜5,7,13によれ
ば、異なる観点からの分類に基づくニューラルネット型
パターン認識を行うこととなるので、ある分類によれ
ば、グループの境界付近に位置する認識対象が入力され
ても、他の分類による認識処理により、救済することが
でき、境界付近での認識の不安定さを低減できる。
【0116】本願の請求項6,8,14によれば、ニュ
ーラルネット型分類のために入力される特徴ベクトル
を、ニューラルネット型認識のための特徴ベクトルの一
部としたので、学習効率が向上し、且つ、誤認識時に
も、突拍子もない認識結果を出力する可能性を低減でき
る。本願の請求項9〜12によれば、学習負荷をあまり
大きくせずに、他のグループに分類される教師用サンプ
ルデータを学習でき、認識の不安定さを低減できる。
【図面の簡単な説明】
【図1】ニューラルネットの学習時の第1の従来例を示
す図である。
【図2】認識時の回路を示す図である。
【図3】学習用の1000個のサンプルデータを示す図
である。
【図4】正規化の1例を示す図である。
【図5】ニューラルネット型文字認識部周辺を示す図で
ある。
【図6】教師信号の一例を示す図である。
【図7】出力層の端子が4個の場合の、教師信号の一例
を示す図である。
【図8】第1従来例の教師あり学習の動作を説明する為
の図である。
【図9】学習用の2万個のサンプルデータを示す図であ
る。
【図10】ニューラルネット型文字認識装置の第2の従
来例を示す図である。
【図11】ニューラルネット型文字認識装置の第3の従
来例を示す図である。
【図12】ニューラルネット型分類部周辺を示す図であ
る。
【図13】ニューラルネット型分類部周辺を示す図であ
る。
【図14】認識時の回路を示す図である。
【図15】第3従来例の課題を説明するためにベクトル
空間の一部を示す図である。
【図16】第3従来例の課題を説明するためにベクトル
空間の一部を示す図である。
【図17】第3従来例の課題を説明するためにベクトル
空間の一部を示す図である。
【図18】第3従来例の課題を説明するためにベクトル
空間の一部を示す図である。
【図19】本発明の第1実施例を示す図である。
【図20】ニューラルネット型分類部周辺を示す図であ
る。
【図21】認識時の回路を示す図である。
【図22】第1実施例の動作を説明するためにベクトル
空間の一部を示す図である。
【図23】第1実施例の動作を説明するためにベクトル
空間の一部を示す図である。
【図24】第1実施例の動作を説明するためにベクトル
空間の一部を示す図である。
【図25】第1実施例の動作を説明するためにベクトル
空間の一部を示す図である。
【図26】本願をプログラムにより実現する第2実施例
の動作を説明するための図である。
【図27】第2実施例の動作を説明するための図であ
る。
【図28】第2実施例の動作を説明するための図であ
る。
【図29】第2実施例の動作を説明するための図であ
る。
【図30】第2実施例の動作を説明するための図であ
る。
【図31】第2実施例の動作を説明するための図であ
る。
【図32】第2実施例の動作を説明するための図であ
る。
【図33】第3実施例を示す図である。
【符号の説明】
(26’a)・・・ニューラルネット型分類部、 (26’b)・・・ニューラルネット型分類部、 (16’a1,16’a2,16’a3)・・・ニューラルネット型認識
部、 (16’a4,16’a5)・・・・・・ニューラルネット型認識
部、 (12’)・・・・・・・・・・正規化部(特徴抽出手段)、 (14b)・・・・・・・・・・特徴抽出部(特徴抽出手
段)。
───────────────────────────────────────────────────── フロントページの続き (72)発明者 堀井 洋 大阪府守口市京阪本通2丁目5番5号 三 洋電機株式会社内 (72)発明者 真鍋 圭三 大阪府守口市京阪本通2丁目5番5号 三 洋電機株式会社内

Claims (14)

    【特許請求の範囲】
  1. 【請求項1】 認識対象のグループ分けを行う第1のニ
    ューラルネット型分類部(26’a)と、 この第1のニューラルネット型分類部(26’a)によって
    分類された各グループに対応する複数のニューラルネッ
    ト型認識部(16’a1,16’a2,16’a3)と、 認識対象のグループ分けを行う第1のニューラルネット
    型分類部(26’a)とは異なる基準で行う第2のニューラ
    ルネット型分類部(26’b)と、 この第2のニューラルネット型分類部(26’b)によって
    分類された各グループに対応する複数のニューラルネッ
    ト型認識部(16’a4,16’a5)と、 少なくても、前記ニューラルネット型認識部(16’a1,1
    6’a2,16’a3)(16’a4,16’a5)の一つのからの出力によ
    り、認識結果を出力する出力部(42a)とを備えるニュー
    ラルネット型パターン認識装置。
  2. 【請求項2】 前記第1,第2のニューラルネット型分
    類部(26’a,26’b)は 、教師なし学習により学習済みで
    あることを特徴とする請求項1に記載のニューラルネッ
    ト型パターン認識装置。
  3. 【請求項3】 前記ニューラルネット型認識部(16’a1,
    16’a2,16’a3)(16’a4,16’a5)は、教師あり学習によ
    り学習済みであることを特徴とする請求項1又は請求項
    2に記載のニューラルネット型パターン認識装置。
  4. 【請求項4】 前記第1のニューラルネット型分類部(2
    6’a)と前記第2のニューラルネット型分類部(26’b)
    に、認識対象から作成した異なる特徴を入力する特徴抽
    出手段(12’,14b)を備える請求項1〜請求項3のいずれ
    かに記載のニュ− ラルネット型パターン認識装置。
  5. 【請求項5】 前記全てのニューラルネット型認識部(1
    6’a1,16’a2,16’a3)(16’a4,16’a5)に、認識対象か
    ら作成した同一の特徴を入力する特徴抽出手段(12’,14
    b)を備える請求項1〜請求項4のいずれかに記載のニュ
    −ラルネット型パタ ーン認識装置。
  6. 【請求項6】 認識対象のグループ分けを行うニューラ
    ルネット型分類部(26’a)(26’b)と、 このニューラルネット型分類部(26’a)(26’b)によって
    分類された各グループに対応する複数のニューラルネッ
    ト型認識部(16’a1,16’a2,16’a3)(16’a4,16’a5)と
    を備えるニューラルネット型パターン認識装置におい
    て、 前記複数のニューラルネット型認識部(16’a1,16’a2,1
    6’a3)(16’a4,16’a5)に認識対象から作成した特徴ベ
    クトルを入力すると共に、この特徴ベクトルの一部を前
    記ニューラルネット型分類部(26’a)(26’b)に入力する
    特徴抽出手段(12’,14b) を備えるニュ−ラルネット
    型パターン認識装置。
  7. 【請求項7】 教師用サンプルデータを自動分類するた
    めに、ニュ−ラルネット型分類部で教師なし学習を行
    い、 この分類に基づいて学習が分担される複数のニューラル
    ネット型認識部で、教師あり学習がされるニューラルネ
    ットの学習方法において、 このような処理を2系統(S10,S11)(S12,S13)設けること
    を特徴とするニューラルネットの学習方法。
  8. 【請求項8】 教師用サンプルデータを自動分類するた
    めに、ニュ−ラルネット型分類部で教師なし学習を行
    い、 この分類に基づいて学習が分担される複数のニューラル
    ネット型認識部で、教師あり学習がされるニューラルネ
    ットの学習方法において、 前記教師なし学習のために前記ニュ−ラルネット型分類
    部に入力される全ての特徴ベクトルは、前記教師あり学
    習のために前記ニュ−ラルネット型分類部に入力される
    特徴ベクトルの一部であることを特徴とするニューラル
    ネットの学習方法。
  9. 【請求項9】 教師用サンプルデータを自動分類するた
    めに、ニュ−ラルネット型分類部(26)で教師なし学習を
    行い、 この分類に対応する複数のニューラルネット型認識部(1
    6a1,・・・・)で、教師あり学習を行うニューラルネットの
    学習方法において、 前記教師用サンプルデータにより教師あり学習を前記複
    数のニューラルネット型認識部(16a1,・・・・)で行う場合
    に、この教師用サンプルデータの分類に対応する前記ニ
    ューラルネット型認識部(16a1,・・・・)で学習を行い、こ
    の教師用サンプルデータの分類に対応しない前記ニュ−
    ラルネット型認識部(16a1,・・・・)では曖昧に学習を行う
    ニューラルネットの学習方法。
  10. 【請求項10】 教師用サンプルデータを自動分類する
    ために、ニュ−ラルネット型分類部で教師なし学習を行
    い、 この分類に対応する複数のニューラルネット型認識部
    で、出力信号と教師用信号との誤差が所定値(G)より
    大きな場合に学習を実行するニューラルネットの学習方
    法において、 前記教師用サンプルデータにより教師あり学習を前記複
    数のニューラルネット型認識部で行う場合に、この教師
    用サンプルデータの分類に対応する前記ニューラルネッ
    ト型認識部での学習時と、この教師用サンプルデータの
    分類に対応しない前記ニュ−ラルネット型認識部での学
    習時とで、前記所定値を変更するニューラルネットの学
    習方法。
  11. 【請求項11】 教師用サンプルデータを自動分類する
    ために、ニュ−ラルネット型分類部で教師なし学習を行
    い、 この分類に対応する複数のニューラルネット型認識部
    で、出力信号と教師用信号との誤差を用いて学習を実行
    するニューラルネットの学習方法において、 前記教師用サンプルデータにより教師あり学習を前記複
    数のニューラルネット型認識部で行う場合に、この教師
    用サンプルデータの分類に対応する前記ニューラルネッ
    ト型認識部での学習時と、この教師用サンプルデータの
    分類に対応しない前記ニュ−ラルネット型認識部での学
    習時とで、前記教師信号の値を変更するニューラルネッ
    トの学習方法。
  12. 【請求項12】 前記請求項9〜11のいずれかの学習
    方法で学習したニュ−ラルネット型パターン認識装置。
  13. 【請求項13】 前記請求項7の学習方法で学習したニ
    ュ−ラルネット型パターン認識装置。
  14. 【請求項14】 前記請求項8の学習方法で学習したニ
    ュ−ラルネット型パターン認識装置。
JP7134545A 1995-05-31 1995-05-31 ニュ−ラルネット型パターン認識装置及びニュ−ラルネットの学習方法 Pending JPH08329032A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7134545A JPH08329032A (ja) 1995-05-31 1995-05-31 ニュ−ラルネット型パターン認識装置及びニュ−ラルネットの学習方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7134545A JPH08329032A (ja) 1995-05-31 1995-05-31 ニュ−ラルネット型パターン認識装置及びニュ−ラルネットの学習方法

Publications (1)

Publication Number Publication Date
JPH08329032A true JPH08329032A (ja) 1996-12-13

Family

ID=15130828

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7134545A Pending JPH08329032A (ja) 1995-05-31 1995-05-31 ニュ−ラルネット型パターン認識装置及びニュ−ラルネットの学習方法

Country Status (1)

Country Link
JP (1) JPH08329032A (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003207565A (ja) * 2002-01-10 2003-07-25 Mitsubishi Electric Corp 類識別装置及び類識別方法
JP2007179285A (ja) * 2005-12-27 2007-07-12 Kyushu Institute Of Technology 画像認識装置、画像認識方法及びプログラム
US8001061B2 (en) 2006-12-19 2011-08-16 Fuji Xerox Co., Ltd. First and second unsupervised learning processes combined using a supervised learning apparatus
JP2019079214A (ja) * 2017-10-24 2019-05-23 富士通株式会社 探索方法、探索装置および探索プログラム
WO2019220608A1 (ja) * 2018-05-18 2019-11-21 富士通株式会社 情報処理装置、情報処理方法および情報処理プログラム
JP2020508531A (ja) * 2017-09-08 2020-03-19 ジョンアン インフォメーション テクノロジー サービシズ カンパニー リミテッド 画像品質の評価方法及び画像品質の評価システム
KR102093233B1 (ko) * 2018-09-27 2020-03-26 동국대학교 산학협력단 신경망 기반의 음악 자동 생성 장치 및 그 방법
CN112287751A (zh) * 2020-09-21 2021-01-29 深圳供电局有限公司 励磁涌流识别方法、装置、计算机设备和存储介质

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003207565A (ja) * 2002-01-10 2003-07-25 Mitsubishi Electric Corp 類識別装置及び類識別方法
JP2007179285A (ja) * 2005-12-27 2007-07-12 Kyushu Institute Of Technology 画像認識装置、画像認識方法及びプログラム
JP4691659B2 (ja) * 2005-12-27 2011-06-01 国立大学法人九州工業大学 画像認識装置、画像認識方法及びプログラム
US8001061B2 (en) 2006-12-19 2011-08-16 Fuji Xerox Co., Ltd. First and second unsupervised learning processes combined using a supervised learning apparatus
JP2020508531A (ja) * 2017-09-08 2020-03-19 ジョンアン インフォメーション テクノロジー サービシズ カンパニー リミテッド 画像品質の評価方法及び画像品質の評価システム
JP2019079214A (ja) * 2017-10-24 2019-05-23 富士通株式会社 探索方法、探索装置および探索プログラム
WO2019220608A1 (ja) * 2018-05-18 2019-11-21 富士通株式会社 情報処理装置、情報処理方法および情報処理プログラム
JPWO2019220608A1 (ja) * 2018-05-18 2021-02-25 富士通株式会社 情報処理装置、情報処理方法および情報処理プログラム
KR102093233B1 (ko) * 2018-09-27 2020-03-26 동국대학교 산학협력단 신경망 기반의 음악 자동 생성 장치 및 그 방법
CN112287751A (zh) * 2020-09-21 2021-01-29 深圳供电局有限公司 励磁涌流识别方法、装置、计算机设备和存储介质
CN112287751B (zh) * 2020-09-21 2024-05-07 深圳供电局有限公司 励磁涌流识别方法、装置、计算机设备和存储介质

Similar Documents

Publication Publication Date Title
CN107533754B (zh) 在深度卷积网络中降低图像分辨率
CN107766850A (zh) 基于结合人脸属性信息的人脸识别方法
WO2021057056A1 (zh) 神经网络架构搜索方法、图像处理方法、装置和存储介质
KR100442835B1 (ko) 인공 신경망을 이용한 얼굴 인식 방법 및 장치
CN112784764A (zh) 一种基于局部与全局注意力机制的表情识别方法及***
Bouchain Character recognition using convolutional neural networks
JPH08329032A (ja) ニュ−ラルネット型パターン認識装置及びニュ−ラルネットの学習方法
US5257342A (en) Learning method for a data processing system with neighborhoods
CN114066844A (zh) 一种基于注意力叠加与特征融合的肺炎x光片图像分析模型及分析方法
US5293454A (en) Learning method of neural network
Cho Ensemble of structure-adaptive self-organizing maps for high performance classification
CN112560824B (zh) 一种基于多特征自适应融合的人脸表情识别方法
Li et al. Invariant object recognition based on a neural network of cascaded RCE nets
US5430829A (en) Learning method for a data processing system
Dawwd et al. Video based face recognition using convolutional neural network
Devi et al. Algorithmic Study on Facial Emotion Recognition model with Optimal Feature Selection via Firefly Plus Jaya Algorithm
JP3243313B2 (ja) パターン認識用ファジィニューロン
JPH07104849B2 (ja) ニューラル・ネットワークの学習方法
JPH08314879A (ja) ニュ−ラルネットの学習方法及びニュ−ラルネット型パターン認識装置
JP3344873B2 (ja) 学習型認識判断装置
JPH0997245A (ja) 学習型認識判断装置
Ling A New Neural Network Structure: Node-to-Node-Link Neural Network
Prampero et al. Classifier combination for vehicle silhouettes recognition
Kurosaki et al. SOM-Based Vector Recognition with Pre-Grouping Functionality
Uebele et al. Extracting fuzzy rules from pattern classification neural networks