JP2001014293A - Identifying/learning method of paper sheets using competitive neural network - Google Patents

Identifying/learning method of paper sheets using competitive neural network

Info

Publication number
JP2001014293A
JP2001014293A JP11186135A JP18613599A JP2001014293A JP 2001014293 A JP2001014293 A JP 2001014293A JP 11186135 A JP11186135 A JP 11186135A JP 18613599 A JP18613599 A JP 18613599A JP 2001014293 A JP2001014293 A JP 2001014293A
Authority
JP
Japan
Prior art keywords
data
neuron
competitive
learning
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP11186135A
Other languages
Japanese (ja)
Other versions
JP4427132B2 (en
Inventor
Shigeru Daimatsu
繁 大松
Toshihisa Kosaka
利▲寿▼ 小坂
Kunihiro Sunatori
邦広 漁
Norikazu Takeya
紀和 竹谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Glory Ltd
Original Assignee
Glory Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Glory Ltd filed Critical Glory Ltd
Priority to JP18613599A priority Critical patent/JP4427132B2/en
Publication of JP2001014293A publication Critical patent/JP2001014293A/en
Application granted granted Critical
Publication of JP4427132B2 publication Critical patent/JP4427132B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Inspection Of Paper Currency And Valuable Securities (AREA)

Abstract

PROBLEM TO BE SOLVED: To make improvable the identification ability of paper sheets by controlling the number of neurons on the basis of the recognized result and reliability evaluation with respect to learning data. SOLUTION: Sampled paper sheet data are defined as data for learning, data preprocessing is performed to these data (S10), the coefficient of coupling is initialized (S20) and LVQ(Learning Vector Quantization) is executed (S30). When initializing the coefficient of coupling, the average value of input data corresponding to respective neurons is used. By learning the coefficient of coupling, a neural network is constructed, a threshold is prepared corresponding to the learning data (S40) and a neuron not to be ignited is excluded (S50). Next, the evaluation of the learning data and the check of neuron addition are performed (S60 and S70) and it is discriminated whether a neuron is added or not (S80). When no neuron is added, the threshold is expanded (S90). When a neuron is added, operation is returned to S30.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、競合型ニューラル
ネットワークを用いた紙葉類の識別/学習方法に関す
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method for identifying / learning paper sheets using a competitive neural network.

【0002】[0002]

【従来の技術】金融、流通、交通機関等における貨幣の
受け払い及び精算業務の自動化は著しく、各種金融機関
でのATM、流通、交通機関での自動販売機等の普及は
周知の通りである。また、これら接客機器の後方にあっ
て、受け払いされた貨幣を集計精算する精算機器もほと
んど自動化されるに至っている。これら自動機器の機能
や性能の向上は著しく、人手で装填された貨幣を必要数
量だけ出金する自動出金機から、貨幣の金種や真偽を識
別する識別装置を搭載した自動入金機や自動入出金機が
開発されてきた。その後、貨幣の汚損及び損傷状態を識
別する正損識別技術が開発されるに至って、入金された
貨幣を再度流通可能な正貨と回収すべき損貨とに分別し
て、正貨のみを出金用貨幣として出金庫に循環させる循
環式自動受払い機も開発されている。
2. Description of the Related Art There is remarkable automation of money transfer and settlement operations in finance, distribution, transportation, etc., and the spread of ATMs, distribution, vending machines, etc. in various financial institutions is well known. . In addition, payment devices that are located behind these customer service devices and that collect and settle the money received and paid have been almost automated. The functions and performance of these automatic devices have been remarkably improved, from automatic dispensers that dispensed the required amount of money loaded by hand to automatic deposit machines equipped with identification devices that identify the denomination and authenticity of money. Automatic depositing and dispensing machines have been developed. After that, the development of a fitness identification technology for identifying the dirty and damaged state of money was developed, and the deposited money was separated into genuine coins that can be re-distributed and damaged coins to be collected, and only genuine coins were used for dispensing. A circulating automatic teller machine that circulates money as cash in a safe has also been developed.

【0003】また、上記自動機器では機器内の現金管理
機能が強化され、自動機器が現金を保管する代用金庫と
しても運用されるに至っている。これら自動化機器の発
展や普及には、構成する各種装置や技術等に高い信頼性
が要求されている。更に、貨幣の受け払い技術、分離搬
送及び収納技術、中でも貨幣の金種及び真偽を判別する
貨幣識別技術については無限保証が要求されており、違
算は許されない。紙幣に関しては吸湿、乾燥、汚れ、折
れ癖、しわ、穴、破れ、落書き等のほか、紙疲労等によ
り紙質や紙面印刷状態は様々である。しかし、循環式入
出金機では、紙幣のどのような状態でも真券は100%
正確に計数され、どのように精巧な偽造、変造異券で
も、100%確実に検知、排除しなければならない要請
がある。
[0003] Further, in the above-mentioned automatic equipment, the cash management function in the equipment has been strengthened, and the automatic equipment has been operated as a substitute safe for storing cash. For the development and spread of these automation devices, high reliability is required for various constituent devices and technologies. Furthermore, an infinite guarantee is required for a money receiving / dispensing technology, a separation transporting and storing technology, and in particular, a money discriminating technology for discriminating the denomination and authenticity of money, and no difference is allowed. Regarding banknotes, there are various paper quality and printing conditions due to paper fatigue, in addition to moisture absorption, drying, dirt, kinks, wrinkles, holes, tears, graffiti, and the like. However, in the circulation type cash dispenser, 100% of genuine bills are in any state
There is a need for 100% sure detection and elimination of accurately counted counterfeit and counterfeit counterfeit tickets.

【0004】貨幣識別技術については、従来サンプルパ
ターンデータからその平均値などの基準パターンを求
め、その基準パターンと入力データとの照合により認識
を行うパターンマッチング手法がある。また、人間の脳
神経系を模倣したモデルのニューラルネットワークとし
て、BP(Back-Propagation)法による学習に基づいた階
層型ニューラルネットワークが注目されている。他のニ
ューラルネットワークとしてLVQ(Learning Vector Q
uantization)法による学習を行う競合型ニューラルネッ
トワークがあり、LVQ法によって基準パターンを学習
により作成し、入力データが多次元な場合や複雑なパタ
ーン認識においても容易に識別が行える。
As for the currency identification technology, there is a conventional pattern matching method in which a reference pattern such as an average value is obtained from sample pattern data, and recognition is performed by comparing the reference pattern with input data. Further, as a neural network of a model imitating a human brain nervous system, a hierarchical neural network based on learning by a BP (Back-Propagation) method has attracted attention. As another neural network, LVQ (Learning Vector Q)
There is a competitive neural network that performs learning by the uantization method, and a reference pattern is created by learning by the LVQ method, and identification can be easily performed even when input data is multidimensional or in complicated pattern recognition.

【0005】[0005]

【発明が解決しようとする課題】しかしながら、パター
ンマッチングによって複雑なパターン認識を行う場合に
は、単純にサンプルデータの平均値を求めるだけでは困
難であり、基準パターンの作成に多くの経験と時間が必
要となる。また、BP法に基づく階層型ニューラルネッ
トワークではパターン認識に要する演算量が多く(3層
構造でニューロン数が多く、シグモイド関数を使用して
いるため)、認識に時間がかかる。演算時間はニューロ
演算処理をハードウェア化することで解決できるが、ハ
ードウェア(DSPやニューロ専用CPUボード等の使
用)は非常に高価なものであり、学習において局所解に
陥ったり、構造が複雑なため入力と出力の物理的な因果
関係を見出すことが困難であるなどの問題がある。
However, when performing complex pattern recognition by pattern matching, it is difficult to simply obtain the average value of the sample data, and much experience and time are required to create the reference pattern. Required. Further, in the hierarchical neural network based on the BP method, the amount of calculation required for pattern recognition is large (because the number of neurons is large in a three-layer structure and a sigmoid function is used), and it takes a long time for recognition. The operation time can be solved by implementing the neuro operation processing by hardware, but the hardware (using a DSP or a neuro-dedicated CPU board, etc.) is very expensive, causing a local solution or a complicated structure in learning. Therefore, there is a problem that it is difficult to find a physical causal relationship between the input and the output.

【0006】一方、競合型ニューラルネットワークでは
パターンマッチングにおける基準パターンを結合係数と
して学習し、複数の基準パターンを必要とする場合にも
容易に作成でき、複雑なパターン認識が行える。また、
競合型ニューラルネットワークは構造が単純であり、識
別時は入力と結合係数との距離演算と出力値の判定を行
うものであり、前記階層型ニューラルネットワークと比
べて、複雑なパターンや多次元入力に対しても容易に学
習でき、識別時の演算も高速に行える。しかし、従来の
競合型ニューラルネットワークでは、入力されたデータ
は最も距離の近いニューロンが発火するため、偽券など
の識別すべき紙葉類以外の紙葉類が入力された場合、そ
の入力データと結合係数との距離が遠いにも拘らず、い
ずれかのニューロンが発火し誤認識してしまう。また、
要求される識別能力を満たすのに必要な競合層ニューロ
ンの数は明確ではないといった問題がある。
On the other hand, in a competitive neural network, a reference pattern in pattern matching is learned as a coupling coefficient, and even when a plurality of reference patterns are required, it can be easily created and complicated pattern recognition can be performed. Also,
The competitive neural network has a simple structure, and performs a distance operation between an input and a coupling coefficient and determines an output value at the time of identification.Compared to the hierarchical neural network, the competitive neural network has a complicated pattern and a multidimensional input. Learning can also be easily performed, and computation at the time of identification can be performed at high speed. However, in the conventional competitive neural network, since the input data is fired by the nearest neuron, when a sheet other than a sheet to be identified such as a counterfeit note is input, the input data is Even though the distance to the coupling coefficient is long, one of the neurons fires and misrecognizes it. Also,
There is a problem that the number of competitive neurons required to satisfy the required discrimination ability is not clear.

【0007】本発明は上述のような事情よりなされたも
のであり、本発明の目的は、紙幣等の紙葉類の識別に比
較的有効であると考えられる競合型ニューラルネットワ
ークを基に、その競合型ニューラルネットワークの問題
点を解決して識別力を向上するための競合型ニューラル
ネットワークを用いた紙葉類の識別/学習方法を提供す
ることにある。即ち、本発明の競合型ニューラルネット
ワークでは、要求される識別能力を満たすような競合層
ニューロン数の決定及び偽券等の識別対象外の紙葉類を
排除するためのしきい値の設定を自動的に行えるように
し、紙葉類の識別に有効な特徴を自動抽出できるように
している。
The present invention has been made in view of the above circumstances, and an object of the present invention is based on a competitive neural network which is considered to be relatively effective for identifying paper sheets such as banknotes. An object of the present invention is to provide a method for identifying / learning a sheet using a competitive neural network for solving the problem of the competitive neural network and improving the discriminating power. That is, in the competitive neural network of the present invention, the determination of the number of competitive layer neurons that satisfies the required discriminating ability and the setting of the threshold value for eliminating paper sheets not to be discriminated such as counterfeit bills are automatically performed. And automatically extract features that are effective in identifying paper sheets.

【0008】[0008]

【課題を解決するための手段】本発明は競合型ニューラ
ルネットワークを用いた紙葉類の識別/学習方法に関
し、本発明の上記目的は、競合型ニューラルネットワー
クの学習に用いた紙葉類のデータを入力した際に、競合
層の各ニューロンに発火するデータ集合の出力値分布を
推定し、前記出力値平均値と標準偏差に0又は正数kを
乗じた値との加算値を求め、前記加算値をしきい値とし
て前記競合層ニューロンに設定し、前記しきい値に基づ
いて識別すべき紙葉類を識別することによって達成され
る。
SUMMARY OF THE INVENTION The present invention relates to a method for identifying / learning paper sheets using a competitive neural network. The object of the present invention is to provide a method for identifying paper data used for learning a competitive neural network. Is input, the output value distribution of the data set that fires to each neuron in the competitive layer is estimated, and the output value average value and the standard deviation multiplied by 0 or a positive number k are calculated to obtain an added value. This is achieved by setting the added value as a threshold value in the competitive layer neuron and identifying a sheet to be identified based on the threshold value.

【0009】また、本発明の上記目的は、識別すべき紙
葉類のデータに対して、前記競合層ニューロンの出力値
が前記しきい値以下となる場合は、前記紙葉類をその競
合層ニューロンに属するカテゴリーとして認識し、前記
競合層ニューロンの出力値が前記しきい値より大きい場
合は、前記紙葉類をリジェクトするようにし、識別すべ
き紙葉類のデータに対して、前記データと異なるカテゴ
リーに属する競合層ニューロンにおいて、出力値が前記
競合層ニューロンのしきい値以下となる確率を誤識別信
頼性とし、識別能力が評価されるようになっていること
により、また、前記競合型ニューラルネットワークへ入
力される正規化されたデータを用いることによって、よ
り効果的に達成される。
Further, the object of the present invention is to provide, when the output value of the competitive layer neuron is equal to or less than the threshold value with respect to the data of the sheet to be identified, the sheet is replaced with the competitive layer. If the output value of the competitive layer neuron is larger than the threshold value, the paper sheet is rejected, and the data of the paper sheet to be identified is compared with the data. In a competitive layer neuron belonging to a different category, the probability that the output value is equal to or less than the threshold value of the competitive layer neuron is set as the erroneous identification reliability, and the identification ability is evaluated. This is more effectively achieved by using normalized data input to the neural network.

【0010】更に、本発明は競合型ニューラルネットワ
ークを用いた紙葉類の学習方法に関し、本発明の上記目
的は、競合型ニューラルネットワークの学習の初期には
各カテゴリーに対して1個の競合層ニューロンを設定
し、前記競合層ニューロンの結合係数を所定の学習回数
に達するまで学習し、前記学習に用いたデータの認識及
び信頼性評価を行い、その結果不要となる競合層ニュー
ロンは削除し、誤認識するデータがあればそれらデータ
のカテゴリー毎の平均値を結合係数とする競合層ニュー
ロンを追加し、要求された信頼性を満たさない競合層ニ
ューロンが存在すれば当該競合層ニューロンの複製を作
成し、その後再び所定回数の学習を行い、該学習に用い
たデータの認識及び信頼性評価を行い、ニューロンを追
加及び削除するという一連の処理を誤認識がなく、かつ
要求された信頼性が得られるまで繰り返し行い、競合層
ニューロンの数及び競合層ニューロンの結合係数を決定
するすることによって達成される。
Further, the present invention relates to a method for learning a sheet using a competitive neural network, and an object of the present invention is to provide one competitive layer for each category at the beginning of learning of a competitive neural network. A neuron is set, the coupling coefficient of the competitive layer neuron is learned until a predetermined number of learning times is reached, recognition and reliability evaluation of data used for the learning are performed, and as a result, unnecessary competitive layer neurons are deleted, If there is misrecognized data, add a competitive layer neuron that uses the average value of each data category as a coupling coefficient, and if there is a competitive layer neuron that does not satisfy the required reliability, create a copy of the competitive layer neuron After that, learning is performed a predetermined number of times again, recognition and reliability evaluation of data used for the learning are performed, and neurons are added and deleted. No misrecognition a series of processes, and repeated until the requested reliability is obtained, it is achieved by determining the coupling coefficient of the number and competitive layer neurons competitive layer neurons.

【0011】[0011]

【発明の実施の形態】貨幣識別機は、その目的により他
国の貨幣や偽造紙幣といった対象外の媒体が入力される
ことがある。しかし、競合型ニューラルネットワークで
は、入力データと各競合層ニューロン(以下、単にニュ
ーロンともいう)の結合係数との距離を求め、最も距離
の近いニューロンが発火し、入力データが発火したニュ
ーロンの属するカテゴリーに識別されるため、入力デー
タと結合係数との距離がかなり離れている場合でも、入
力データに最も距離の近い結合係数を持つ競合層ニュー
ロンが発火するため、偽造紙幣などの対象外媒体に対し
ても発火して誤認識を生じることがあり得る。本発明で
はこのような誤認識を防ぐため、自己認識の範囲を確保
するのに競合型ニューラルネットワークの出力値分布推
定を行い、出力値に対するしきい値を各ニューロンに設
定する。また、競合型ニューラルネットワークにおいて
複雑なパターンを精度良く認識するにはニューロン数を
増やせば良いが、その方法は明確ではない。本発明では
学習に用いたデータの認識及び信頼性評価の結果を基
に、自動的にニューロン数の追加及び削除を行ってい
る。ここで、学習とは、各競合層ニューロンの結合係数
を更新して行くことである。
BEST MODE FOR CARRYING OUT THE INVENTION A currency discriminator may receive a non-target medium such as currency from another country or a counterfeit bill for its purpose. However, in the competitive neural network, the distance between the input data and the coupling coefficient of each competitive layer neuron (hereinafter, also simply referred to as a neuron) is determined, the nearest neuron fires, and the category to which the neuron whose input data fired belongs. Therefore, even if the distance between the input data and the coupling coefficient is considerably large, the competitive layer neuron with the coupling coefficient closest to the input data will fire, and the However, there is a possibility that a fire may occur and erroneous recognition may occur. In the present invention, in order to prevent such erroneous recognition, the output value distribution of the competitive neural network is estimated to secure the range of self-recognition, and a threshold value for the output value is set for each neuron. In order to recognize complex patterns with high accuracy in a competitive neural network, the number of neurons may be increased, but the method is not clear. In the present invention, the number of neurons is automatically added and deleted based on the results of recognition and reliability evaluation of data used for learning. Here, learning means updating the coupling coefficient of each competitive layer neuron.

【0012】LVQ法のアルゴリズムには、最も距離が
小さくなる1つのニューロンを学習するLVQ1のほ
か、最も距離が小さくなる2つのニューロンを学習する
LVQ2及びLVQ3、LVQ1における学習率を最適
化したOLVQ1等があるが、本発明では計算が容易で
高速に学習を行うことのできるOLVQ1を用いる。な
お、LVQ法はユークリッド距離演算のみのため、シグ
モイド関数を使用する階層型ニューラルネットワークと
異なって演算量が少なく、規模が小さいため、通常のC
PU等での実装が容易である。また、結合荷重ベクトル
は入力データの量子化ベクトルであるため、入力と出力
の物理的な因果関係を容易に見出せる特徴がある。
The algorithm of the LVQ method includes an LVQ1 for learning one neuron with the shortest distance, an LVQ2 and LVQ3 for learning two neurons with the shortest distance, and an OLVQ1 for optimizing the learning rate in the LVQ1. However, in the present invention, the OLVQ1 that is easy to calculate and can perform high-speed learning is used. Since the LVQ method has only a Euclidean distance operation, unlike the hierarchical neural network using a sigmoid function, the operation amount is small and the scale is small.
It can be easily mounted on a PU or the like. Further, since the connection weight vector is a quantization vector of the input data, it has a feature that a physical causal relationship between the input and the output can be easily found.

【0013】以下に、本発明の詳細を、図面を参照して
説明する。
The details of the present invention will be described below with reference to the drawings.

【0014】先ず競合型ニューラルネットワークは図1
のような2層構造から成っており、第1層の入力層が入
力パターンを受け取り、第2層の競合層への入力を受け
渡して入力パターンの分類を行う。入力層のニューロン
は競合層の各ニューロンと完全に結合されており、各結
合は結合係数で表現される。ここで、入力層のニューロ
ンjから競合層のニューロンiへの結合係数をwijと表
現し、入力層のニューロン数をN、競合層のニューロン
数をMとする。競合層のニューロンでは、入力されたデ
ータx=(x1,x2,…,xN)と、そのニューロンが
有する結合係数wi=(w1,w2,…,wN)とのユーク
リッド距離diを下記数1に従って計算する。
First, a competitive neural network is shown in FIG.
The input layer of the first layer receives an input pattern, and the input to the competition layer of the second layer is passed to classify the input pattern. The neurons in the input layer are completely connected to the neurons in the competition layer, and each connection is represented by a connection coefficient. Here, the coupling coefficient from the neuron j of the input layer to the neuron i of the competition layer is expressed as w ij , the number of neurons in the input layer is N, and the number of neurons in the competition layer is M. Euclid In neurons competitive layer, input data x = (x 1, x 2 , ..., x N) and the coupling coefficient w i = (w 1, w 2, ..., w N) having its neurons and the distance d i calculated according to formula 1 below.

【0015】[0015]

【数1】 上記数1で定義された距離diが最小になるニューロン
cを選び、それを勝者ニューロンと呼ぶ。
(Equation 1) Select the neuron c distance d i, which is defined by the equation 1 is minimized, call it the winner neuron.

【0016】[0016]

【数2】 この勝者ニューロンに対する出力ycを“1”とし、他
のニューロンの出力を“0”とする。即ち、下記数3と
なる。
(Equation 2) The winner output y c on neurons is set to "1", and the output of other neurons "0". That is, Equation 3 below is obtained.

【0017】[0017]

【数3】yi=1 (i=cのとき) yi=0 (i≠cのとき) この手法では入力パターンベクトルに対して、最も距離
の近い結合係数ベクトルを持つ競合層のニューロンが発
火するため、これにより競合型ニューラルネットワーク
への入力パターンの識別が可能である。
Y i = 1 (when i = c) y i = 0 (when i ≠ c) In this method, the neuron of the competitive layer having the closest coupling coefficient vector to the input pattern vector Because it fires, it allows identification of the input pattern to the competitive neural network.

【0018】図2は、上述した競合型ニューラルネット
ワークを用いて紙幣等の画像又は時系列データを入力し
て識別する本発明の構成例を示しており、ニューラルネ
ットワークの競合層ニューロンに判定部1が接続されて
いる。入力される画像又は時系列データは競合型ニュー
ラルネットワークによりクラスタリングされ、つまり発
火するニューロン別にデータ分類されるが、競合層ニュ
ーロンiで発火するデータ集合を1つの母集団Siとす
る。例えば100枚の紙幣データを入力したとき、40
枚がニューロン1に発火し、60枚がニューロン2に発
火したとすると、40枚のデータから成る集合S1及び
60枚のデータから成る集合S2に分類されたことにな
る。これをクラスタリングという。判定部1は距離di
(1〜M)中から最小値dcを求め、ニューロンcのし
きい値θcとの比較を行い、dc≦θcならニューロンc
を発火し、dc>θcならニューロンcは未発火とする。
ただし、しきい値θcは学習データに対して、ニューロ
ンcにおける最小距離の平均値をmc、標準偏差をσc
するとき、0又は正数kcを用いてθc=mc+kcσc
する。また、競合層のニューロンは1つのカテゴリー
(金種、方向:4つの紙幣搬送方向をA〜Dで表す)に
対し1つ又は複数個である。例えば$5のD方向に対し
4個の競合層ニューロンを持つ判定部では、$5のD方
向の各ニューロンに対ししきい値がそれぞれ設定されて
いる。
FIG. 2 shows an example of the configuration of the present invention in which an image or time-series data of a bill or the like is inputted and identified using the above-mentioned competitive neural network. Is connected. Images or time-series data is input is clustered by a competitive neural network, ie it is data classified into neurons by the fire, the data set of ignition in the competitive layer neurons i and one population S i. For example, when 100 bill data are input, 40
Like the ignited neurons 1, 60 sheets assuming that ignited neurons 2, will have been classified in the set S 2 consisting of a set S 1 and 60 pieces of data consisting of 40 pieces of data. This is called clustering. The determination unit 1 determines the distance d i
The minimum value d c is obtained from (1 to M) and compared with the threshold θ c of the neuron c. If d c ≦ θ c, the neuron c
And if d c > θ c, the neuron c is not fired.
However, when the average value of the minimum distance in the neuron c is m c and the standard deviation is σ c with respect to the learning data, the threshold value θ c is θ c = m c + k using 0 or a positive number k c. Let c σ c . Further, one or more neurons in the competitive layer are provided for one category (denomination, direction: four bill conveyance directions are represented by A to D). For example, in a determination unit having four competitive layer neurons in the D direction of # 5, a threshold value is set for each neuron in the D direction of # 5.

【0019】図3は本発明の全体的な動作例を示してお
り、先ず採取した紙葉類データを学習用データとし、こ
れらデータに対してデータ前処理を行い(ステップS1
0)、結合係数Wijの初期化を行い(ステップS2
0)、LVQ学習を実行する(ステップS30)。結合
係数Wijの初期化では、各ニューロンに該当する入力デ
ータの平均値を用いる。例えば$1Aのニューロンに対
して、$1Aのデータの平均値を初期値とする。結合係
数Wijの学習によりニューラルネットワークを構築し、
学習データに対してしきい値を作成し(ステップS4
0)、発火しないニューロンを削除する(ステップS5
0)。次に、学習データの評価を行い(ステップS6
0)、ニューロン追加のチェックを行い(ステップS7
0)、ニューロンの追加がないか否かを判定し(ステッ
プS80)、追加がなければしきい値を拡張する(ステ
ップS90)。また、上記ステップS80においてニュ
ーロンの追加がある場合には、上記ステップS30にリ
ターンする。以下に上記フローの各部詳細を説明する。
FIG. 3 shows an overall operation example of the present invention. First, the collected paper sheet data is used as learning data, and data preprocessing is performed on these data (step S1).
0), the coupling coefficient W ij is initialized (step S2).
0), the LVQ learning is executed (step S30). In the initialization of the coupling coefficient W ij , the average value of the input data corresponding to each neuron is used. For example, an average value of data of # 1A is set as an initial value for a neuron of # 1A. Build a neural network by learning the coupling coefficient W ij ,
A threshold is created for the learning data (step S4
0), delete neurons that do not fire (step S5)
0). Next, the learning data is evaluated (step S6).
0), and a check is made for the addition of neurons (step S7).
0), it is determined whether or not a neuron has been added (step S80), and if not, the threshold value is extended (step S90). If a neuron is added in step S80, the process returns to step S30. The details of each part of the above flow will be described below.

【0020】図4はデータ前処理(ステップS10)の
処理フローを示しており、図5に示すように、紙幣4の
搬送に対してセンサ2,3の走査で光学的に得られる紙
幣データのモザイク化処理を行う(ステップS11)。
このモザイク化処理では、256画素のセンサ出力デー
タを32画素から成る入力データに変換する。具体的に
は先ず256画素のデータを8画素ずつに区切り、その
領域内の各画素値の平均値を演算する。この結果、演算
された各平均値を画素値とする32データがそのモザイ
ク化された入力データとして得られる。即ち、センサ
2,3によって採取されたデータは例えば図6(A)に
示すような時系列データとなり、この時系列データを8
画素ずつの平均値でグラフ化すると同図(B)に示すよ
うになる。このモザイク化処理により、ノイズ除去やデ
ータ数の削減に伴う識別演算時間の減少を期待でき、エ
ッジ抽出における誤差を軽減できる。なお、モザイク化
処理を画像(エリア)について行うと、図7(A)及び
(B)のようになる。本例では3×4画素の平均値でモ
ザイク化処理している。
FIG. 4 shows the processing flow of the data pre-processing (step S10). As shown in FIG. Mosaic processing is performed (step S11).
In this mosaic processing, sensor output data of 256 pixels is converted into input data composed of 32 pixels. Specifically, first, the data of 256 pixels is divided into 8 pixels, and the average value of each pixel value in the area is calculated. As a result, 32 data having the calculated average values as pixel values are obtained as the mosaiced input data. That is, the data collected by the sensors 2 and 3 is, for example, time-series data as shown in FIG.
FIG. 6B shows a graph based on the average value of each pixel. By this mosaic processing, it is possible to expect a reduction in identification calculation time due to noise removal and a reduction in the number of data, and it is possible to reduce errors in edge extraction. When the mosaic processing is performed on an image (area), the result is as shown in FIGS. In this example, the mosaic processing is performed with an average value of 3 × 4 pixels.

【0021】上述のようにしてモザイク化された入力画
像に対し、オフセット及びゲインのばらつきをなくすた
めの正規化を行う。この正規化を面積比率変換と定義す
る。モザイク化されたデータをxi(i=1,…,n)
としたとき、変換表のデータXi(i=1,…,n)は
下記数4となる。ただし、Aはゲイン定数、Bはオフセ
ット定数である。
The input image mosaiced as described above is subjected to normalization for eliminating offset and gain variations. This normalization is defined as area ratio conversion. The mosaiced data is represented by x i (i = 1,..., N)
Then, the data X i (i = 1,..., N) of the conversion table becomes the following equation 4. Here, A is a gain constant, and B is an offset constant.

【0022】[0022]

【数4】 上記数4において、xオーババーはデータxiの平均を
表し、Sxは平均xオーババーとデータxiとの差分の絶
対値の総和(面積)を表している。右辺第1項はデータ
iの平均からの変動を、全体の変動に対する割合で表
している。図8は、32個のモザイク化データ(0〜3
1)に対して平均xオーババーと絶対値の総和(面積)
を示している。このため、データのゲイン変動及びオフ
セット変動に対して不変な値が得られる。また、オフセ
ット定数Bは変換後のデータのオフセットを調節するた
めの定数である。データは256階調のため、B=12
7とする。
(Equation 4) In the above equation (4), x overbar represents the average of data x i , and S x represents the sum (area) of the absolute value of the difference between the average x over bar and data x i . The first term on the right side a variation from the average data x i, are expressed as a percentage of the total variation. FIG. 8 shows 32 pieces of mosaiced data (0 to 3).
Sum of average x overbar and absolute value (area) for 1)
Is shown. For this reason, a value that is invariant with respect to the data gain variation and offset variation is obtained. The offset constant B is a constant for adjusting the offset of the converted data. Since the data is 256 gradations, B = 12
7 is assumed.

【0023】以下に、ゲイン変動及びオフセット変動に
対し、面積比率変換データが不変であることを数式によ
って説明する。先ず変動データを
Hereinafter, the fact that the area ratio conversion data is invariant with respect to the gain fluctuation and the offset fluctuation will be described using mathematical expressions. First, change data

【数5】yi=axi+b(i=1,…,n) aはゲイン変動(>0)であり、bはオフセット変動で
ある。
Y i = ax i + b (i = 1,..., N) a is a gain variation (> 0) and b is an offset variation.

【0024】とするとき、平均はThen, the average is

【数6】 となり、平均yオーババーとデータyiとの差分の絶対
値の総和Syは下記数7のようになる。
(Equation 6) And the sum S y of the absolute values of the differences between the average y overbar and the data y i is as shown in the following Expression 7.

【0025】[0025]

【数7】 ここで、面積比率変換を施したデータYi(i=1,
…,n)は下記数8となる。
(Equation 7) Here, the data Y i (i = 1,
.., N) are represented by the following Expression 8.

【0026】[0026]

【数8】 このように、面積比率変換を施すことで、ゲイン及びオ
フセットの変動を除去することができる。
(Equation 8) As described above, by performing the area ratio conversion, the fluctuation of the gain and the offset can be removed.

【0027】前処理されたデータを用いて、結合係数の
初期値を設定する(ステップS20)。学習の初期に
は、1カテゴリー当たり1つのニューロンが競合層に設
定され、各ニューロンの結合係数の初期値は、当該カテ
ゴリーに属するデータの平均値とする。
The initial value of the coupling coefficient is set using the preprocessed data (step S20). At the beginning of learning, one neuron per category is set in the competitive layer, and the initial value of the coupling coefficient of each neuron is the average value of data belonging to the category.

【0028】次に、LVQ法のアルゴリズムを示す。先
ずLVQ法の概念図を図20に示す。図20で示すよう
に、入力データx(t)と発火したニューロンcとが同
じカテゴリーならば、ニューロンcの結合係数wc
(t)を入力データx(t)に近づけ、入力データx
(t)と発火したニューロンcとが異なるカテゴリーな
らば、ニューロンcの結合係数wc(t)を入力データ
x(t)から遠ざける。このように、LVQ法では結合
係数を学習する。
Next, the algorithm of the LVQ method will be described. First, a conceptual diagram of the LVQ method is shown in FIG. As shown in FIG. 20, if the input data x (t) and the firing neuron c are in the same category, the coupling coefficient wc of the neuron c
(T) is brought close to the input data x (t), and the input data x
If (t) is different from the firing neuron c, the coupling coefficient w c (t) of the neuron c is kept away from the input data x (t). Thus, the coupling coefficient is learned in the LVQ method.

【0029】LVQ法にはLVQ1、LVQ2、LVQ
3、OLVQ1等のアルゴリズムがあるが、ここでは本
発明で用いるOLVQ1のアルゴリズムを数9及び数1
0に示す。
The LVQ method includes LVQ1, LVQ2, LVQ
3, there are algorithms such as OLVQ1. Here, the algorithm of OLVQ1 used in the present invention is represented by Equations 9 and 1.
0 is shown.

【0030】[0030]

【数9】 (Equation 9)

【数10】 ここで、tは学習回数、αc(t)は各ニューロンの学
習率を表わし、s(t)=1(正しく認識したとき)又
はs(t)=−1(誤って認識したとき)である。数9
では学習時に発火したニューロンの結合係数を更新し、
数10ではその他のニューロンは更新されないことを示
している。
(Equation 10) Here, t is the number of times of learning, α c (t) represents the learning rate of each neuron, and s (t) = 1 (when correctly recognized) or s (t) = − 1 (when incorrectly recognized) is there. Number 9
Now we update the coupling coefficient of the neuron that fired during learning,
Equation 10 indicates that the other neurons are not updated.

【0031】図3における結合荷重の初期化(ステップ
S20),LVQ学習(ステップS30)の後、しきい
値を作成するが(ステップS40)、その詳細は図9の
フローチャートのようになっている。
After the initialization of the connection weight in FIG. 3 (step S20) and the LVQ learning (step S30), a threshold value is created (step S40), the details of which are as shown in the flowchart of FIG. .

【0032】即ち、先ず学習データ番号l(l=1〜
L)によるクラスタリングのループ(ステップS41〜
S43)において、発火するニューロン別に学習データ
をクラスタリングし(ステップS42)、M個のデータ
集合を得る。そして、ニューロン番号i(i=1〜M)
によるしきい値作成のループ(ステップS44〜S4
9)において、クラスタリングされた学習データの集合
の距離分布を推定し、平均値mi、標準偏差σi及び最大
値dmaxを得(ステップS45)、しきい値θiを作成す
る(ステップS46)。そして、しきい値θiが最大値
maxより小さいか否かを判定し(ステップS47)、
最大値dmaxより小さければ最大値dmaxに所定数αを加
算した値をしきい値θiとする(ステップS48)。こ
れを、ニューロン番号M個分だけ繰り返す(ステップS
49)。
That is, first, the learning data number l (l = 1 to 1)
L) (steps S41 to S41)
In S43), the learning data is clustered for each firing neuron (step S42) to obtain M data sets. Then, the neuron number i (i = 1 to M)
(Steps S44 to S4)
In 9), the distance distribution of the set of clustered learning data is estimated, the average value m i , the standard deviation σ i, and the maximum value d max are obtained (step S45), and the threshold value θ i is created (step S46). ). Then, it is determined whether the threshold value θ i is smaller than the maximum value d max (step S47),
Smaller than the maximum value d max a value obtained by adding a predetermined number α to the maximum value d max to a threshold theta i (step S48). This is repeated for M neuron numbers (step S
49).

【0033】図10に示すように、推定された分布より
競合層ニュ−ロンiの自己認識の範囲としてのしきい値
θiを、θi=mi+kiσiに設定する。よって、入力デ
ータと競合層ニューロンiのユークリッド距離diがdi
≦θiならば、標本は母集団Siに属すると認識される。
ここで、kiは自己認識の範囲として任意の値を設定で
きるが、ki=4.5の場合、母集団Siのデータに対し
てニューロンiが発火(正しく認識)する確率は、標準
正規分布表から1−3.4×10-6であり、ki=6.
5の場合、1−4.0×10-11である。学習データに
よっては、このように設定されたしきい値を越えること
もあるが、このようなデータも認識させる必要がある場
合は、図11に示すようにθioに広げて設定すればよ
い。
As shown in FIG. 10, the threshold value θ i as the range of self-recognition of the competitive layer neuron i is set to θ i = m i + k i σ i from the estimated distribution. Therefore, the Euclidean distance d i of competitive layer neurons i and the input data d i
If ≦ θ i , the sample is recognized as belonging to the population S i .
Here, k i can be set to any value as the range of self-recognition. However, when k i = 4.5, the probability that the neuron i fires (correctly recognizes) the data of the population S i is standard. It is 1-3.4 × 10 −6 from the normal distribution table, and k i = 6.
In the case of 5, it is 1-4.0 × 10 −11 . Depending on the learning data, the threshold value set in this way may be exceeded. However, if such data needs to be recognized, it is sufficient to set it to θ io as shown in FIG.

【0034】上述のようにしてしきい値を作成すると、
発火しないニューロンの削除を行うが(ステップS5
0)、その詳細を図12のフローチャートを参照して説
明する。先ずニューロン番号i(i=1〜M)によるニ
ューロン削除のループ(ステップS51〜S54)にお
いて、ニューロンiが発火したか否かを判定し(ステッ
プS52)、発火していなければニューロンiを削除す
る(ステップS53)。
When the threshold value is created as described above,
The non-firing neurons are deleted (step S5).
0), the details of which will be described with reference to the flowchart of FIG. First, in a loop for deleting a neuron by a neuron number i (i = 1 to M) (steps S51 to S54), it is determined whether or not the neuron i has fired (step S52), and if not, the neuron i is deleted. (Step S53).

【0035】その後、学習データの評価を行うが(ステ
ップS60)、その詳細を図13のフローチャートを参
照して説明する。
Thereafter, the learning data is evaluated (step S60), and the details will be described with reference to the flowchart of FIG.

【0036】先ず学習データ番号l(l=1〜L)によ
る学習データ識別のループ(ステップS61〜S64)
において、学習データの識別判定を行い(ステップS6
2)、発火するニューロン別に学習データをクラスタリ
ングする(ステップS63)。そして、ニューロン番号
i(i=1〜M)による信頼性評価のループ(ステップ
S65〜S68)において、クラスタリングされた学習
データの集合の距離分布を推定し(ステップS66)、
信頼性評価を行う(ステップS67)。これを、全ニュ
ーロン番号に亙って実施する。
First, a learning data identification loop based on the learning data number l (l = 1 to L) (steps S61 to S64)
In step S6, the identification of the learning data is determined (step S6).
2) The learning data is clustered for each firing neuron (step S63). Then, in a reliability evaluation loop based on the neuron number i (i = 1 to M) (steps S65 to S68), the distance distribution of the set of clustered learning data is estimated (step S66).
A reliability evaluation is performed (step S67). This is performed over all neuron numbers.

【0037】上記学習データの評価が終わると次にニュ
ーロン追加のチェックを行う(ステップS70)が、そ
の詳細を図14のフローチャートを参照して説明する。
When the evaluation of the learning data is completed, a neuron addition check is performed next (step S70). Details of the check will be described with reference to the flowchart of FIG.

【0038】先ずニューロン番号i(i=1〜M)によ
るニューロン追加チェックのループ(ステップS71〜
S76)において、誤認識があるか否かを判断し(ステ
ップS72)、誤認識があれば誤認識データの平均値を
カテゴリー毎に求め、その平均値を結合係数としたニュ
ーロンを追加する(ステップS73)。その後、ニュー
ロンiが既定信頼性を満たすか否かを判定し(ステップ
S74)、ニューロンi又は信頼性評価対象のデータ集
合が発火するニューロンの複製を追加する(ステップS
75)。信頼性評価では図15に示すように、ニューロ
ンiに発火するデータ集合Siに対するニューロンj
(j≠i)の出力値分布を考える。この出力値分布が図
15に示すような正規分布NDであると仮定し、正規分
布NDがしきい値θjよりも小さくなる確率を信頼性と
する。これは図15における黒色部分BAの面積を表
し、ニューロンiに発火すべきデータがニューロンjに
発火する確率を意味している。
First, a loop for checking neuron addition by the neuron number i (i = 1 to M) (steps S71 to S71)
In S76), it is determined whether or not there is a misrecognition (step S72). If there is a misrecognition, an average value of the misrecognition data is obtained for each category, and a neuron using the average value as a coupling coefficient is added (step S76). S73). Thereafter, it is determined whether or not the neuron i satisfies the predetermined reliability (step S74), and a copy of the neuron i or a neuron whose data set to be evaluated for reliability fires is added (step S74).
75). In the reliability evaluation, as shown in FIG. 15, the neuron j for the data set Si firing on the neuron i
Consider the output value distribution of (j ≠ i). Assuming that this output value distribution is a normal distribution ND as shown in FIG. 15, the probability that the normal distribution ND becomes smaller than the threshold value θj is defined as reliability. This represents the area of the black portion BA in FIG. 15 and means the probability that data to be fired on the neuron i will fire on the neuron j.

【0039】しきい値設定後、学習データに対して識別
判定を行い、誤認識するデータがあればそれに対するニ
ューロンを追加する。そのニューロンの結合荷重ベクト
ルは、誤認識データのカテゴリー毎の平均値とする。こ
れにより認識率を向上させることが可能である。また、
学習データに対する信頼性評価を行い、既定の信頼性が
得られないニューロンに対しては、そのニューロン又は
その評価対象ニューロン(評価対象データが発火するニ
ューロン)の複製を追加する。これにより、ニューロン
の出力値分布のばらつきが小さくなり、信頼性が向上す
る。図16は誤認識データに対するニューロンの追加を
示しており、ニューロンiに誤認識したデータの平均を
結合荷重とするニューロンを追加する様子を示してい
る。また、図17は既定信頼性を満たさない場合のニュ
ーロンの追加を示しており、既定信頼性を満たさないニ
ューロンi又はその評価対象ニューロンの複製を追加し
ている。
After the threshold value is set, the discrimination judgment is performed on the learning data, and if there is data that is erroneously recognized, a neuron for the data is added. The connection weight vector of the neuron is an average value for each category of the misrecognition data. Thereby, the recognition rate can be improved. Also,
A reliability evaluation is performed on the learning data, and a duplicate of the neuron or the evaluation target neuron (a neuron firing the evaluation target data) is added to a neuron for which a predetermined reliability cannot be obtained. Thereby, the dispersion of the output value distribution of the neuron is reduced, and the reliability is improved. FIG. 16 shows the addition of a neuron to the misrecognized data, and shows how to add a neuron to the neuron i using the average of the misrecognized data as the connection weight. FIG. 17 shows the addition of a neuron when the default reliability is not satisfied, and a copy of the neuron i or the evaluation target neuron that does not satisfy the default reliability is added.

【0040】図3のニューロンのチェック(ステップS
70)において、その後ニューロンの追加がなければ
(ステップS80)しきい値を拡張するが(ステップS
90)、その動作を図18のフローチャートを参照して
説明する。
Checking the neurons in FIG. 3 (step S
At 70), if there is no additional neuron thereafter (step S80), the threshold is extended (step S80).
90), and its operation will be described with reference to the flowchart of FIG.

【0041】実際のデータでは予測できないようなばら
つきを持つこともあり、統計的に設定されたしきい値を
超える場合もある。このようなデータに対しても汎化能
力を持たせるにはしきい値を拡張すれば良い。そこで、
拡張する基準として信頼性評価の結果に基づき、既定の
信頼性が得られる範囲で拡張すれば、既定の信頼性を確
保した状態で認識率を向上させることが可能である。図
19に示す具体例では、しきい値θiをθi=mi+4.
5σiに設定した後に信頼性評価を行う。その結果、評
価対象ニューロンが既定信頼性を満たす境界値を算出
し、その境界値を拡張されたしきい値として再設定す
る。このとき、過剰な拡張を防ぐため、mi+6.5σi
をしきい値拡張の限界値として設け、境界値が限界値よ
り大きければ、限界値を拡張されたしきい値として設定
する。
There may be variations that cannot be predicted with actual data, and the data may exceed a statistically set threshold. The threshold may be extended to provide such data with generalization ability. Therefore,
As an extension criterion, based on the result of the reliability evaluation, if the extension is performed within a range in which the predetermined reliability can be obtained, the recognition rate can be improved while the predetermined reliability is secured. In the specific example shown in FIG. 19, the threshold value θ i is set to θ i = m i +4.
After setting to 5σ i , reliability evaluation is performed. As a result, the evaluation target neuron calculates a boundary value that satisfies the predetermined reliability, and resets the boundary value as an extended threshold. At this time, in order to prevent excessive expansion, m i + 6.5σ i
Is set as the limit value of the threshold value extension, and if the boundary value is larger than the limit value, the limit value is set as the extended threshold value.

【0042】先ずニューロン番号i(i=1〜M)によ
るしきい値拡張のループ(ステップS91〜S96)に
おいて、既定の信頼性を満たすしきい値の境界値θB
求め(ステップS92)、しきい値拡張の限界値θL
求める(ステップS93)。そして、境界値θBが限界
値θLより小さいか否かを判定し(ステップS94)、
小さければしきい値θを境界値θBに拡張し(ステップ
S95)、そうでなければしきい値θを限界値θLに拡
張する(ステップS97)。
First, in a loop of threshold expansion by neuron number i (i = 1 to M) (steps S91 to S96), a boundary value θ B of a threshold satisfying predetermined reliability is obtained (step S92). A limit value θ L for threshold value expansion is obtained (step S93). Then, the boundary value theta B determines whether the difference is less than the limit value theta L (step S94),
Smaller extend the threshold theta to the boundary value theta B (step S95), expanding the threshold theta to limit theta L Otherwise (step S97).

【0043】図21は紙幣識別時の動作例を示してお
り、紙幣を走査して得られたデータの前処理を行い(ス
テップS100)、ニューロン番号i(i=1〜M)に
よる距離計算のループ(ステップS101〜S103)
において、入力データと結合係数の距離diを計算する
(ステップS103)。そして、距離diが最小となる
ニューロンcを求め(ステップS104)、これをニュ
ーロン番号についてM回実行し、dc≦θcを判定し、そ
うであればニューロンcを発火する(ステップS10
6)。これにより、入力データはニューロンcが属する
カテゴリーに認識される。また、上記ステップS105
においてdc>θcであれば、ニューロンcは未発火であ
り(ステップS107)、入力データはリジェクトされ
る。
FIG. 21 shows an operation example at the time of bill discrimination, in which data obtained by scanning a bill is pre-processed (step S100), and distance calculation based on neuron number i (i = 1 to M) is performed. Loop (steps S101 to S103)
In, it calculates the distance d i of the input data and the coupling coefficient (step S103). Then, the distance d i seek neuron c that is minimized (step S104), and which perform M times for neurons number, to determine the d c ≦ theta c, fire neuron c If so (step S10
6). As a result, the input data is recognized as the category to which the neuron c belongs. In addition, the above step S105
If d c > θ c , the neuron c has not fired (step S107), and the input data is rejected.

【0044】[0044]

【発明の効果】以上のように、本発明によれば、学習終
了後にニューロン数の調整を行い、再学習するという方
法を繰り返してニューロン数を最適化すると共に、ニュ
ーロン数の調整を学習データに対する認識結果及び信頼
性評価に基づいて行うようにしているので、紙葉類の識
別力を向上することができる。
As described above, according to the present invention, the number of neurons is adjusted after learning is completed, and the method of re-learning is repeated to optimize the number of neurons. Since the recognition is performed based on the recognition result and the reliability evaluation, the discrimination power of the paper sheet can be improved.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明に用いる競合型ニューラルネットワーク
の基本構造を示す図である。
FIG. 1 is a diagram showing a basic structure of a competitive neural network used in the present invention.

【図2】本発明の構成例を示すブロック図である。FIG. 2 is a block diagram illustrating a configuration example of the present invention.

【図3】本発明の全体的な動作例を示すフローチャート
である。
FIG. 3 is a flowchart showing an overall operation example of the present invention.

【図4】データ前処理の動作例を示すフローチャートで
ある。
FIG. 4 is a flowchart illustrating an operation example of data preprocessing.

【図5】紙幣のデータ採取の様子を示す図である。FIG. 5 is a diagram showing a state of data collection of a bill.

【図6】モザイク化処理(時系列データ)を説明するた
めの図である。
FIG. 6 is a diagram for explaining a mosaic processing (time-series data).

【図7】モザイク化処理(画像)を説明するための図で
ある。
FIG. 7 is a diagram for explaining a mosaic processing (image).

【図8】正規化処理を説明するための図である。FIG. 8 is a diagram illustrating a normalization process.

【図9】しきい値作成の処理例を示すフローチャートで
ある。
FIG. 9 is a flowchart illustrating an example of processing for creating a threshold.

【図10】しきい値の設定を説明するための図である。FIG. 10 is a diagram for explaining setting of a threshold.

【図11】しきい値の調整を説明するための図である。FIG. 11 is a diagram for explaining adjustment of a threshold.

【図12】ニューロン削除の処理例を示すフローチャー
トである。
FIG. 12 is a flowchart illustrating a processing example of neuron deletion.

【図13】学習データの評価の処理例を示すフローチャ
ートである。
FIG. 13 is a flowchart illustrating an example of a process of evaluating learning data.

【図14】ニューロン追加のチェック処理例を示すフロ
ーチャートである。
FIG. 14 is a flowchart illustrating an example of a neuron addition check process.

【図15】競合型ニューラルネットワークの信頼性評価
を説明するための図である。
FIG. 15 is a diagram for explaining reliability evaluation of a competitive neural network.

【図16】誤認識データに対するニューロンの追加を説
明するための図である。
FIG. 16 is a diagram for explaining the addition of neurons to erroneously recognized data.

【図17】既定信頼性を満たさない場合のニューロンの
追加を説明するための図である。
FIG. 17 is a diagram for explaining addition of a neuron when the default reliability is not satisfied.

【図18】しきい値拡張の処理例を示すフローチャート
である。
FIG. 18 is a flowchart illustrating a processing example of threshold value extension;

【図19】しきい値の拡張設定を説明するための図であ
る。
FIG. 19 is a diagram for explaining extension setting of a threshold.

【図20】LVQ法の概念を説明するための図である。FIG. 20 is a diagram for explaining the concept of the LVQ method.

【図21】紙幣識別の処理例を示すフローチャートであ
る。
FIG. 21 is a flowchart illustrating a processing example of bill identification.

【符号の説明】[Explanation of symbols]

1 判定部 2,3 センサ 4 紙幣 1 judgment unit 2, 3 sensor 4 bill

フロントページの続き (72)発明者 竹谷 紀和 兵庫県姫路市下手野一丁目3番1号 グロ ーリー工業株式会社内 Fターム(参考) 3E041 AA02 AA03 CB08 5L096 BA20 EA05 EA07 EA12 GA51 HA11 Continued on the front page (72) Inventor Kiwa Takeya 1-3-1 Shimoteno, Himeji-shi, Hyogo Glory Industries Co., Ltd. F-term (reference) 3E041 AA02 AA03 CB08 5L096 BA20 EA05 EA07 EA12 GA51 HA11

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】競合型ニューラルネットワークの学習に用
いた紙葉類のデータを入力した際に、競合層の各ニュー
ロンに発火するデータ集合の出力値分布を推定し、前記
出力値平均値と標準偏差に0又は正数kを乗じた値との
加算値を求め、前記加算値をしきい値として前記競合層
ニューロンに設定し、前記しきい値に基づいて識別すべ
き紙葉類を識別するようにしたことを特徴とする競合型
ニューラルネットワークを用いた紙葉類の識別方法。
1. An apparatus for estimating an output value distribution of a data set that fires on each neuron of a competitive layer when data of a sheet used for learning of a competitive neural network is input, and calculates an average of the output value and a standard value. An added value of the deviation multiplied by 0 or a positive number k is obtained, the added value is set as a threshold value in the competitive layer neuron, and a paper sheet to be identified is identified based on the threshold value. A method for identifying paper sheets using a competitive neural network, characterized in that:
【請求項2】識別すべき紙葉類のデータに対して、前記
競合層ニューロンの出力値が前記しきい値以下となる場
合は、前記紙葉類をその競合層ニューロンに属するカテ
ゴリーとして認識し、前記競合層ニューロンの出力値が
前記しきい値より大きい場合は、前記紙葉類をリジェク
トするようになっている請求項1に記載の競合型ニュー
ラルネットワークを用いた紙葉類の識別方法。
2. If the output value of the competitive layer neuron is equal to or smaller than the threshold value with respect to the data of the sheet to be identified, the sheet is recognized as a category belonging to the competitive layer neuron. 2. The method according to claim 1, wherein the sheet is rejected when an output value of the competitive layer neuron is larger than the threshold value.
【請求項3】識別すべき紙葉類のデータに対して、前記
データと異なるカテゴリーに属する競合層ニューロンに
おいて、出力値が前記競合層ニューロンのしきい値以下
となる確率を誤識別信頼性とし、識別能力が評価される
ようになっている請求項1又は2に記載の競合型ニュー
ラルネットワークを用いた紙葉類の識別方法。
3. A probability that an output value of a competitive layer neuron belonging to a category different from that of the data of a paper sheet to be identified is equal to or less than a threshold value of the competitive layer neuron is defined as erroneous identification reliability. 3. The method according to claim 1, wherein the discriminating ability is evaluated.
【請求項4】前記競合型ニューラルネットワークへ入力
される正規化されたデータを用いるようにした請求項1
乃至3に記載の競合型ニューラルネットワークを用いた
紙葉類の識別方法。
4. The apparatus according to claim 1, wherein normalized data input to said competitive neural network is used.
4. A method for identifying a paper sheet using the competitive neural network according to any one of Items 3 to 3.
【請求項5】競合型ニューラルネットワークの学習の初
期には各カテゴリーに対して1個の競合層ニューロンを
設定し、前記競合層ニューロンの結合係数を所定の学習
回数に達するまで学習し、前記学習に用いたデータの認
識及び信頼性評価を行い、その結果不要となる競合層ニ
ューロンは削除し、誤認識するデータがあればそれらデ
ータのカテゴリー毎の平均値を結合係数とする競合層ニ
ューロンを追加し、要求された信頼性を満たさない競合
層ニューロンが存在すれば当該競合層ニューロンの複製
を作成し、その後再び所定回数の学習を行い、該学習に
用いたデータの認識及び信頼性評価を行い、ニューロン
を追加及び削除するという一連の処理を誤認識がなく、
かつ要求された信頼性が得られるまで繰り返し行い、競
合層ニューロンの数及び競合層ニューロンの結合係数を
決定するようにしたことを特徴とする競合型ニューラル
ネットワークを用いた紙葉類の学習方法。
5. In the initial stage of learning of a competitive neural network, one competitive layer neuron is set for each category, and the coupling coefficient of the competitive layer neuron is learned until a predetermined number of learnings is performed. Recognize and evaluate the reliability of the data used in the evaluation, and delete unnecessary competition layer neurons as a result.If there is misrecognized data, add a competition layer neuron whose average value for each category of the data is a coupling coefficient. If there is a competitive layer neuron that does not satisfy the required reliability, a duplicate of the competitive layer neuron is created, and then a predetermined number of learnings are performed again, and the recognition and reliability evaluation of the data used for the learning are performed. , There is no misrecognition of the series of processes of adding and deleting neurons,
A learning method for paper sheets using a competitive neural network, wherein the method is repeated until the required reliability is obtained, and the number of competitive layer neurons and the coupling coefficient of the competitive layer neurons are determined.
JP18613599A 1999-06-30 1999-06-30 Paper sheet identification method using competitive neural network Expired - Fee Related JP4427132B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP18613599A JP4427132B2 (en) 1999-06-30 1999-06-30 Paper sheet identification method using competitive neural network

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP18613599A JP4427132B2 (en) 1999-06-30 1999-06-30 Paper sheet identification method using competitive neural network

Publications (2)

Publication Number Publication Date
JP2001014293A true JP2001014293A (en) 2001-01-19
JP4427132B2 JP4427132B2 (en) 2010-03-03

Family

ID=16182997

Family Applications (1)

Application Number Title Priority Date Filing Date
JP18613599A Expired - Fee Related JP4427132B2 (en) 1999-06-30 1999-06-30 Paper sheet identification method using competitive neural network

Country Status (1)

Country Link
JP (1) JP4427132B2 (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003076991A (en) * 2001-08-31 2003-03-14 Japan Science & Technology Corp Automatic inspection device and method and method for processing image signal
JP2005309920A (en) * 2004-04-23 2005-11-04 Alliance Group Inc Majority vote device, its learning method and multi-class identification device
JP2006300895A (en) * 2005-04-25 2006-11-02 Matsushita Electric Works Ltd Facility monitoring method and facility monitoring device
JP2008090529A (en) * 2006-09-29 2008-04-17 Matsushita Electric Works Ltd Abnormality detection device, abnormality detection method
JPWO2006117836A1 (en) * 2005-04-26 2008-12-18 株式会社シーフォーテクノロジー Information retrieval method by sensitivity word and its device
KR101652851B1 (en) * 2016-04-20 2016-09-02 유솔전자 주식회사 The smart counterfeit detector using cis module and back propagation neural network
JP2018081684A (en) * 2016-11-14 2018-05-24 澤蒼 顧 Construction method for artificial intelligence ultra deep layer learning model, artificial intelligence ultra deep layer learning device, general purpose mobile terminal device on which artificial intelligence ultra deep layer learning model is mounted, and program of artificial intelligence ultra deep layer learning model
WO2018189791A1 (en) * 2017-04-10 2018-10-18 ソフトバンク株式会社 Information processing device, information processing method, and program
WO2018189792A1 (en) * 2017-04-10 2018-10-18 ソフトバンク株式会社 Information processing device, information processing method, and program
CN110196911A (en) * 2019-06-06 2019-09-03 申林森 A kind of people's livelihood data automatic classification management system
CN110659563A (en) * 2019-08-12 2020-01-07 国网湖南省电力有限公司 Power grid dispatching drawing automatic identification method, system and medium based on improved YOLOv3 network
CN112241144A (en) * 2019-07-18 2021-01-19 大隈株式会社 Method and device for determining whether or not to relearn diagnostic model of machine tool, and readable storage medium
US11494388B2 (en) 2017-04-10 2022-11-08 Softbank Corp. Information processing apparatus, information processing method, and program

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003076991A (en) * 2001-08-31 2003-03-14 Japan Science & Technology Corp Automatic inspection device and method and method for processing image signal
JP2005309920A (en) * 2004-04-23 2005-11-04 Alliance Group Inc Majority vote device, its learning method and multi-class identification device
JP2006300895A (en) * 2005-04-25 2006-11-02 Matsushita Electric Works Ltd Facility monitoring method and facility monitoring device
JPWO2006117836A1 (en) * 2005-04-26 2008-12-18 株式会社シーフォーテクノロジー Information retrieval method by sensitivity word and its device
JP2008090529A (en) * 2006-09-29 2008-04-17 Matsushita Electric Works Ltd Abnormality detection device, abnormality detection method
JP4605132B2 (en) * 2006-09-29 2011-01-05 パナソニック電工株式会社 Anomaly detection device and anomaly detection method
KR101652851B1 (en) * 2016-04-20 2016-09-02 유솔전자 주식회사 The smart counterfeit detector using cis module and back propagation neural network
JP2018081684A (en) * 2016-11-14 2018-05-24 澤蒼 顧 Construction method for artificial intelligence ultra deep layer learning model, artificial intelligence ultra deep layer learning device, general purpose mobile terminal device on which artificial intelligence ultra deep layer learning model is mounted, and program of artificial intelligence ultra deep layer learning model
WO2018189791A1 (en) * 2017-04-10 2018-10-18 ソフトバンク株式会社 Information processing device, information processing method, and program
WO2018189792A1 (en) * 2017-04-10 2018-10-18 ソフトバンク株式会社 Information processing device, information processing method, and program
US11494388B2 (en) 2017-04-10 2022-11-08 Softbank Corp. Information processing apparatus, information processing method, and program
US11586933B2 (en) 2017-04-10 2023-02-21 Softbank Corp. Information processing apparatus, information processing method, and program for simulating growth of cells
JPWO2018189792A1 (en) * 2017-04-10 2020-03-05 ソフトバンク株式会社 Information processing apparatus, information processing method, and program
JPWO2018189791A1 (en) * 2017-04-10 2020-03-05 ソフトバンク株式会社 Information processing apparatus, information processing method, and program
US11494640B2 (en) 2017-04-10 2022-11-08 Softbank Corp. Information processing apparatus, information processing method, and program
CN110196911A (en) * 2019-06-06 2019-09-03 申林森 A kind of people's livelihood data automatic classification management system
CN110196911B (en) * 2019-06-06 2022-04-22 申林森 Automatic classification management system for civil data
CN112241144A (en) * 2019-07-18 2021-01-19 大隈株式会社 Method and device for determining whether or not to relearn diagnostic model of machine tool, and readable storage medium
CN112241144B (en) * 2019-07-18 2024-05-07 大隈株式会社 Method and device for determining relearning or not of diagnostic model of machine tool, and readable storage medium
CN110659563A (en) * 2019-08-12 2020-01-07 国网湖南省电力有限公司 Power grid dispatching drawing automatic identification method, system and medium based on improved YOLOv3 network

Also Published As

Publication number Publication date
JP4427132B2 (en) 2010-03-03

Similar Documents

Publication Publication Date Title
US7639858B2 (en) Currency validation
JP5219211B2 (en) Banknote confirmation method and apparatus
EP0660276B1 (en) Neural network for bank note recognition and authentication
JP5213649B2 (en) Paper sheet processing apparatus and paper sheet processing program
US6981637B2 (en) Automatic teller machine
JP4427132B2 (en) Paper sheet identification method using competitive neural network
JP4105694B2 (en) Paper piece discrimination apparatus, paper piece discrimination method and program
JP2001331839A (en) Method and device for discriminating paper money
US8577117B2 (en) Evaluating soiling of a media item
JP3753779B2 (en) Banknote sorter
JP2007280318A (en) Method and apparatus for changing validation level
Ahmadi et al. Improvement of reliability in banknote classification using reject option and local PCA
CN108320372B (en) Effective identification method for folded paper money
KR101232684B1 (en) Method for detecting counterfeits of banknotes using Bayesian approach
JPH08221632A (en) Genuineness judging method for printed pattern
CN109543554A (en) Bill detection method, device, terminal and computer readable storage medium
Kagehiro et al. A hierarchical classification method for us bank-notes
JP3362087B2 (en) Paper sheet identification device
JP4306027B2 (en) Paper sheet authenticity discrimination device
Antonius et al. DeepCyberDetect: Hybrid AI for Counterfeit Currency Detection with GAN-CNN-RNN using African Buffalo Optimization
JPH1196431A (en) Method for judging unknown pattern sheet paper picture in neuro identification and device therefor
KR102589129B1 (en) Quantification method of damage state of soiled banknotes
JPH09134464A (en) Device for recognizing paper sheets
Kumar et al. Enhancing the Identification of Fake Indian Currency Using Ensemble Decision Tree in Comparison with Ridge Linear Classification
Kosaka et al. Discussion of reliability criterion for US dollar classification by LVQ

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060414

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090428

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090629

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090804

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091002

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091208

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091214

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121218

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees