JP3303253B2 - Pattern matching method and apparatus - Google Patents

Pattern matching method and apparatus

Info

Publication number
JP3303253B2
JP3303253B2 JP31962595A JP31962595A JP3303253B2 JP 3303253 B2 JP3303253 B2 JP 3303253B2 JP 31962595 A JP31962595 A JP 31962595A JP 31962595 A JP31962595 A JP 31962595A JP 3303253 B2 JP3303253 B2 JP 3303253B2
Authority
JP
Japan
Prior art keywords
pattern
input
unit
output
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP31962595A
Other languages
Japanese (ja)
Other versions
JPH09138785A (en
Inventor
博 竹田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsui Engineering and Shipbuilding Co Ltd
Mitsui E&S Holdings Co Ltd
Original Assignee
Mitsui Engineering and Shipbuilding Co Ltd
Mitsui E&S Holdings Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsui Engineering and Shipbuilding Co Ltd, Mitsui E&S Holdings Co Ltd filed Critical Mitsui Engineering and Shipbuilding Co Ltd
Priority to JP31962595A priority Critical patent/JP3303253B2/en
Publication of JPH09138785A publication Critical patent/JPH09138785A/en
Application granted granted Critical
Publication of JP3303253B2 publication Critical patent/JP3303253B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明はパターンマッチング
装置に係り、ニューラルネットワークを利用することに
より手書き文字の認識や音声認識、あるいは情報信号等
をパターンとして捉らえ、検出されるパターンに対応す
る最終出力を教示し、以後はマッチング処理を自動的に
行わせるようにしたパターンマッチング装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a pattern matching apparatus, which uses a neural network to recognize handwritten characters, voice recognition, or information signals, etc., as a pattern. The present invention relates to a pattern matching apparatus that teaches an output and thereafter automatically performs a matching process.

【0002】[0002]

【従来の技術】従来、手書き文字の認識や各種情報信号
に対応する制御出力を得るように識別すべきパターンを
入力し、対応する出力を教師パターンと対比することに
よって修正する学習作業を繰り返した後、以後は任意の
識別パターンを入力することで自動判別させるようにし
たパターンマッチング装置が知られている。このような
パターンマッチング装置は、一般に、多入力1出力型の
素子(ユニット)を結合素子により他のユニットと結合
することにより構成されたニューラルネットワークを利
用した構成とされている。
2. Description of the Related Art Conventionally, a learning operation of recognizing handwritten characters and inputting a pattern to be identified so as to obtain a control output corresponding to various information signals and correcting the corresponding output by comparing it with a teacher pattern has been repeated. Thereafter, there is known a pattern matching apparatus which automatically performs an identification by inputting an arbitrary identification pattern. In general, such a pattern matching apparatus is configured to use a neural network configured by connecting a multiple-input one-output type element (unit) to another unit by a connecting element.

【0003】この種のパターンマッチング装置に用いら
れるニューラルネットワークは、生物の大脳の情報処理
機能を模倣する情報処理技術で、応用の容易なことや非
線形問題への適用が可能なことなど、有用な特性を有し
ている。また、従来のノイマン型の計算機と異なる方法
であるため、ノイマン型計算機で困難とされてきた問題
への適用に期待が寄せられている。
A neural network used in this type of pattern matching device is an information processing technology that imitates the information processing function of the cerebrum of an organism, and is useful in that it is easy to apply and can be applied to nonlinear problems. Has characteristics. Further, since the method is different from that of the conventional Neumann computer, application to a problem that has been difficult in the Neumann computer is expected.

【0004】ニューラルネットワークの構成要素は図6
(1)に示すように生物の神経細胞に相当するユニット
1と、このユニット1の入力部と出力部を結ぶ、神経繊
維に相当する結合素子2からなっている。通常、単一の
ユニットを用いただけでは有効な情報処理を行わないた
め、複数のユニットを結合素子とを用いて適当に結合し
てネットワークを構成する。
The components of the neural network are shown in FIG.
As shown in (1), the unit 1 includes a unit 1 corresponding to a nerve cell of an organism, and a coupling element 2 corresponding to a nerve fiber, which connects an input unit and an output unit of the unit 1. Normally, effective information processing is not performed if only a single unit is used. Therefore, a network is formed by appropriately combining a plurality of units using a coupling element.

【0005】各ユニットは、他の複数のユニットと結合
素子2を介して結合され、下記数式1に示すように、他
のユニットの出力を結合素子毎に割り当てられた重み係
数を乗じた後、加えあわせて入力とし、この入力値と与
えられたしきい値の差を独立変数とする入出力関数の値
を出力し、出力用の結合素子を介して他のユニットへの
入力となる。
[0005] Each unit is connected to a plurality of other units via a coupling element 2, and after multiplying the output of the other unit by a weighting factor assigned to each coupling element as shown in the following equation 1, In addition, an input and output value of an input / output function using the difference between the input value and a given threshold value as an independent variable is output, and becomes an input to another unit via an output coupling element.

【数1】 ただし、Oi:第i番目のユニットの出力値、 f:入出力関数 wji:第j番目のユニットから第i番目のユニットへの
結合の強さ(結合係数)、 oj:第j番目のユニットの出力値、 θi:第i番目のユニットのしきい値、 である。また、定義によっては数式1を、
(Equation 1) Here, O i : the output value of the i-th unit, f: the input / output function w ji : the strength of the connection from the j-th unit to the i-th unit (coupling coefficient), and o j : the j-th unit The output value of the unit of θ i is the threshold value of the i-th unit. Also, depending on the definition, Equation 1 is

【数2】 とする場合もある。(Equation 2) In some cases,

【0006】このとき入出力関数fとしては図6(2)
に示すようなシグモイド関数と呼ばれる飽和型の関数が
よく用いられている。この関数は生物の神経細胞の機能
を模したもので、0から1の値をとる単調増加型の関数
で、入力値がしきい値に等しいとき(または入力値がし
きい値と絶対値が等しく異符号の時)に0.5となる。
At this time, the input / output function f is shown in FIG.
A saturated function called a sigmoid function as shown in FIG. This function simulates the function of nerve cells of a living organism, and is a monotonically increasing function that takes a value from 0 to 1. When the input value is equal to the threshold value (or when the input value is equal to the threshold value and the absolute value is (When equal signs are different).

【0007】次に、以上のような機能を有するユニット
を用いてネットワークを構成することにより有用な情報
処理が可能となるが、代表的なネットワークとしては図
7に示すようなものが考えられている。図7(1)は階
層型のネットワークで1が入力層を構成するユニット、
2、3がそれぞれ第1、第2中間層を構成するユニッ
ト、4が出力層を構成するユニット、5、6、7、が結
合素子である。このような階層型のネットワークは階層
構造をなしており、異なる層間のユニット同士の結合は
あるが同一層内のユニット同士は結合されておらず、ま
た情報が入力部から出力部へ一方向に伝達される。いわ
ばフィード・フォワード型のネットワークである。この
モデルは小脳のモデルとして知られていると同時に、パ
ターンマッチングや制御など多くの分野で実用されてい
る重要なネットワークである。
[0007] Next, useful information processing becomes possible by configuring a network using the units having the above functions. A typical network shown in FIG. 7 is considered. I have. FIG. 7A shows a hierarchical network in which 1 constitutes an input layer.
Units 2 and 3 are units constituting the first and second intermediate layers, respectively, and 4 is a unit constituting the output layer, and 5, 6, and 7 are coupling elements. Such a hierarchical network has a hierarchical structure, in which units between different layers are connected but units in the same layer are not connected, and information is transmitted in one direction from an input unit to an output unit. Is transmitted. It is a feed-forward network. This model is known as a cerebellar model, and is also an important network used in many fields such as pattern matching and control.

【0008】このモデルでは入力層に識別したいパター
ンや時系列信号などが与えられる。例えば、手書き文字
の認識のようなパターマッチングへ応用する場合は、入
力層には手書き文字または手書き文字に何等かの特徴抽
出処理を行った後の特徴パターンを与える。一方、出力
層の各ユニットは学習すべきカテゴリーに対する判定結
果を与えるように設定される。すなわち、ユニット1の
出力が例えば0.5以上であればニューラルネットワー
クは与えられたパターンをカテゴリー1のパターンと識
別したと考えることができるように設定される。
In this model, a pattern or a time-series signal to be identified is given to the input layer. For example, when applied to putter matching such as recognition of a handwritten character, the input layer is provided with a handwritten character or a feature pattern obtained by performing some kind of feature extraction processing on the handwritten character. On the other hand, each unit in the output layer is set so as to give a determination result for a category to be learned. That is, if the output of the unit 1 is, for example, 0.5 or more, the neural network is set so that the given pattern can be considered to have been identified as a category 1 pattern.

【0009】図7(2)は相互結合型のネットワーク
で、1がユニット、2が結合素子である。このように相
互結合型のネットワークは全てのユニットが相互結合さ
れている。尚、ネットワークにはこれ以外にもフィード
バックを有するものや、同一層間で部分的に結合を有す
るものなども存在する。
FIG. 7B shows a mutual connection type network, where 1 is a unit and 2 is a coupling element. As described above, in the interconnected network, all units are interconnected. It should be noted that, in addition to the above, there are networks having feedback and networks having a partial connection between the same layers.

【0010】次に、以上のようなネットワークに有用な
機能を保有させるために、ネットワークに学習用のデー
タを与えることにより学習を実行する。学習方法やネッ
トワークの種類が多数あるため、学習方法も多数存在す
る。ここでは、現在最も典型的な学習方法である、バッ
クプロパゲーション・アルゴリズムを用いた学習方法
を、図8に示す3層の階層型ニューラルネットワークに
適用する例を示す。
Next, learning is performed by giving learning data to the network so that the network has useful functions as described above. Since there are many learning methods and types of networks, there are also many learning methods. Here, an example is shown in which a learning method using a back propagation algorithm, which is the most typical learning method at present, is applied to a three-layer hierarchical neural network shown in FIG.

【0011】学習は、最初、結合係数やしきい値を小さ
な値に設定しておき、入力層に学習用パターンを与えた
ときの出力を計算し、その結果と当該パターンに対する
妥当な出力を指定した教師パターンと比較し、与えた学
習パターンに対して出力層の出力が教師信号に近づくよ
うに結合係数としきい値の値とを変化させることによっ
て行う。学習の詳細なステップは以下のようである。
In the learning, first, a coupling coefficient and a threshold value are set to small values, an output when a learning pattern is given to an input layer is calculated, and the result and an appropriate output for the pattern are designated. This is performed by changing the coupling coefficient and the threshold value so that the output of the output layer approaches the teacher signal with respect to the given learning pattern. The detailed steps of the learning are as follows.

【0012】(ステップ1)ネットワークの状態を決め
る結合係数行列{Wij}、{Vjk}としきい値ベクトル
{θj}、{γk}をそれぞれ小さな値の乱数値で初期化
する。 (ステップ2)最初のパターンを学習パターンとする。 (ステップ3)学習パターンの値を入力層ユニットの出
力{Ii}に入れ、入力層から中間層への結合係数行列
{Wij}と中間層ユニットjのしきい値θjとを用い
て、中間層ユニットjへの入力Ujを求め、入力Ujと図
6(2)に示すシグモイド関数fにより中間層ユニット
jの出力Hjを求める。
(Step 1) The coupling coefficient matrices {W ij }, {V jk } and the threshold vectors {θ j }, {γ k } which determine the state of the network are initialized with small random numbers. (Step 2) The first pattern is set as a learning pattern. (Step 3) Put the value of the learning pattern into the output {I i } of the input layer unit and use the coupling coefficient matrix {W ij } from the input layer to the intermediate layer and the threshold θ j of the intermediate layer unit j. , An input U j to the intermediate layer unit j, and an output H j of the intermediate layer unit j is obtained from the input U j and the sigmoid function f shown in FIG.

【数3】 (Equation 3)

【0013】(ステップ4)中間層ユニットの出力{H
j}と、中間層から出力層への結合係数行列{Vjk}と
出力層ユニットkのしきい値γkとを用いて、出力層ユ
ニットkへの入力Skを求め、入力Skとシグモイド関数
fにより、出力層ユニットkの出力Okを求める。
(Step 4) Output ΔH of the intermediate layer unit
and j}, by using the threshold value gamma k of the output layer unit k from the coupling coefficient matrices {V jk} from the intermediate layer to the output layer, prompted S k to the output layer unit k, the input S k The output O k of the output layer unit k is obtained by the sigmoid function f.

【数4】 (ステップ5)学習パターンに対応した教師信号TK
出力層の出力Okとの差から、出力層のユニットkにつ
ながる結合係数と出力層ユニットkのしきい値に対する
誤差δkを求める。
(Equation 4) (Step 5) From the difference between the teacher signal T K corresponding to the learning pattern and the output O k of the output layer, a coupling coefficient connected to the unit k of the output layer and an error δ k with respect to the threshold value of the output layer unit k are obtained .

【数5】 (ステップ6)誤差δkと中間層から出力層への結合係
数行列{Vjk}と、中間層の出力Hjから、中間層ユニ
ットjにつながる結合係数と中間ユニットのしきい値に
対する誤差δjを求める。
(Equation 5) (Step 6) From the error δ k , the coupling coefficient matrix {V jk } from the intermediate layer to the output layer, and the output H j of the intermediate layer, the error δ for the coupling coefficient connected to the intermediate layer unit j and the threshold value of the intermediate unit Find j .

【0014】(ステップ7)ステップ5で求めた出力層
ユニットkでの誤差δkと中間層ユニットjの出力Hj
定数αとの積を従来の中間層と出力層との間の結合係数
に加算することで、中間層ユニットjから出力層のユニ
ットkにつながる結合係数Vjkを修正する。また、誤差
δkと定数βとの積を従来の出力層ユニットkのしきい
値に加算することで、出力層ユニットkのしきい値γk
を修正する。
[0014] coupling coefficient between the (Step 7) a product of the output H j and constants α error [delta] k and the intermediate layer unit j in the output layer unit k obtained in step 5 with the conventional intermediate layer output layer To correct the coupling coefficient V jk from the intermediate layer unit j to the output layer unit k. Further, by adding the product of the error δ k and the constant β to the threshold value of the conventional output layer unit k, the threshold value γ k of the output layer unit k is obtained.
To correct.

【数6】 (ステップ8)中間層ユニットjでの誤差δjと、入力
層ユニットiの出力Iiと定数αとの積を従来の入力層
と中間層との間の結合係数加算することで、入力層ユニ
ットiから中間層ユニットjにつながる結合係数Wij
修正する。また誤差δjと定数βの積を従来の中間層ユ
ニットjのしきい値に加算することで、中間層ユニット
jのしきい値θjを修正する。
(Equation 6) (Step 8) and the error [delta] j in the intermediate layer unit j, the product of the output I i and a constant α of the input layer unit i by adding coupling coefficient between the conventional input layer and the intermediate layer, the input layer Correct the coupling coefficient W ij from the unit i to the intermediate layer unit j. Further, the threshold θ j of the intermediate layer unit j is corrected by adding the product of the error δ j and the constant β to the threshold value of the conventional intermediate layer unit j.

【数7】 (Equation 7)

【0015】(ステップ9)次ぎのパターンを学習パタ
ーンとする。 (ステップ10)学習パターンが終了するまでステップ
3に戻る。 (ステップ11)学習の繰り返し回数を更新する。 (ステップ12)学習の繰り返し回数が制限回数以下で
あればステップ2に戻る。
(Step 9) The next pattern is set as a learning pattern. (Step 10) Return to Step 3 until the learning pattern ends. (Step 11) The number of times of learning is updated. (Step 12) If the number of repetitions of the learning is equal to or less than the limit number, the process returns to Step 2.

【0016】このような学習によってニューラルネット
ワークはパターンマッチング能力を獲得し、既に学習し
たパターンの識別や、学習したカテゴリーに属する未学
習パターンの識別を行うことができるようになる。
By such learning, the neural network acquires the pattern matching ability, and can identify the already learned patterns and the unlearned patterns belonging to the learned category.

【0017】[0017]

【発明が解決しようとする課題】ところが、従来のニュ
ーラルネットワーク処理を用いたパターンマッチング装
置では、学習していないカテゴリーに属するパターンを
識別させると、学習したカテゴリーのどれかであると誤
判定出力する場合がしばしば存在する。この問題は未学
習データに対する応答ということで一般に問題になって
いるものである。
However, in a conventional pattern matching apparatus using neural network processing, when a pattern belonging to an unlearned category is identified, it is erroneously determined to be one of the learned categories. There are often cases. This problem is generally a problem in response to unlearned data.

【0018】すなわち、従来のパターンマッチング装置
では、図9に示すようなカテゴリーAとBとを識別する
場合、この2つのカテゴリーA、Bに属するパターン
(「○」または「×」で示したもの)を用いて学習を行
っている。この学習結果として、図9に示す破線のよう
な境界線Dが設定される。そして、入力されたパターン
がこの境界線Dのどちら側にあるかによって、どちらの
カテゴリーに属するパターンかを判定しているのであ
る。したがって、AまたはBに属するデータを識別させ
ると正しく判定できるが、これらのカテゴリーに属しな
いパターンが入力された場合、このパターンを無理やり
どちらかのカテゴリーと判定することとなるのである。
That is, in the conventional pattern matching device, when categories A and B as shown in FIG. 9 are identified, the patterns belonging to these two categories A and B (the ones indicated by "O" or "X"). ) Is used for learning. As a result of this learning, a boundary line D such as a broken line shown in FIG. 9 is set. Then, it is determined which category the pattern belongs to, based on which side of the boundary line D the input pattern is. Therefore, it can be correctly determined if the data belonging to A or B is identified, but if a pattern that does not belong to these categories is input, this pattern is forcibly determined to be either category.

【0019】ちなみに、誤判定する理由は、従来の入出
力関数の場合、しきい値より相当大きい値ないしは小さ
い値が入力されると、その値の如何にかかわらず1ない
しは0という値を出力する、いわゆる飽和型の関数を用
いているため、単に学習したカテゴリー間に境界面を設
定するだけの作用しかしないためと考えられる。
Incidentally, the reason for the erroneous determination is that, in the case of the conventional input / output function, when a value considerably larger or smaller than the threshold value is input, a value of 1 or 0 is output regardless of the value. It is considered that since a so-called saturated type function is used, there is only an operation of simply setting a boundary between the learned categories.

【0020】本発明は、上記従来の問題点に着目し、ニ
ューラルネットワーク処理を用いたパターンマッチング
装置で、未学習パターンを適格に識別して出力すること
ができるようにすることを目的とし、特に個々のユニッ
トにおける重み係数を乗じた入力信号加算値がしきい値
の近傍のみならずしきい値から大きく離れている場合で
あっても適正な出力信号を出力し、もってパターンマッ
チングの判定精度を向上させることができるパターンマ
ッチング装置を提供することを目的とする。
An object of the present invention is to provide a pattern matching apparatus using neural network processing, which can appropriately identify and output an unlearned pattern, focusing on the above-mentioned conventional problems. Even if the sum of the input signals multiplied by the weight coefficient in each unit is not only close to the threshold but also greatly deviated from the threshold, an appropriate output signal is output, thereby improving the accuracy of the pattern matching judgment. It is an object to provide a pattern matching device that can be improved.

【0021】[0021]

【課題を解決するための手段】本発明は、例えば、図9
に示すようなカテゴリーA、Bの周辺境界を与えるデー
タ(「◎」で示す)を学習用データから合成し、これら
のデータを入力層に与えたときに出力層の全細胞(ユニ
ット)の出力値を「0」または小さな値となるように学
習させればよいとの知見によりなされたものである。す
なわち、境界パターンに対応する入力信号に対する教師
信号を全細胞にわたり小さな値とするのである。これに
より両カテゴリーの境界に位置するパターンが学習パタ
ーンとして用いられ、結果として、学習用データの周囲
を取り囲む実線で示している範囲が識別すべきカテゴリ
ーの範囲であることを認識することになるので、誤認識
率が大幅に低下するのである。
According to the present invention, for example, FIG.
The data (indicated by “」 ”) that gives the peripheral boundaries of categories A and B as shown in (1) are synthesized from the learning data, and when these data are given to the input layer, the output of all cells (units) in the output layer This is based on the knowledge that learning should be performed so that the value becomes “0” or a small value. That is, the teacher signal for the input signal corresponding to the boundary pattern is set to a small value over all cells. As a result, the pattern located at the boundary between the two categories is used as the learning pattern, and as a result, the range indicated by the solid line surrounding the learning data is recognized as the range of the category to be identified. However, the misrecognition rate is greatly reduced.

【0022】そこで、本発明は、入力ユニット群に複数
の学習用入力パターンを入力するとともに、入力した学
習用入力パターンに対応した出力ユニット群の出力パタ
ーンを予め定めた教師パターンと比較して両者の誤差を
求め、この誤差に基づいて各ユニット群を構成している
ユニットのしきい値と各ユニット群を連結している結合
素子の重み係数とを補正する操作を繰り返して前記学習
用入力パターンを学習させたのち、識別すべきパターン
を前記入力ユニット群に入力して識別すべきパターンに
対応した前記出力ユニット群の出力パターンを、記憶し
ているパターンと対比するパターンマッチング方法にお
いて、前記各学習用入力パターンのそれぞれに属する要
素群の各境界を定める境界パターンを前記各学習用入力
パターンに基づいて前記各学習用入力パターンの周囲に
作成し、これらの境界パターンに対応した前記出力ユニ
ット群の各ユニットの出力の教師信号を0または小さな
値に設定し、前記各境界パターンを前記各学習用入力パ
ターンとともに学習させたのち、任意のパターンを前記
入力ユニット群に入力することにより、上記目的を達成
するようにしたものである。
Therefore, according to the present invention, a plurality of learning input patterns are input to an input unit group, and an output pattern of an output unit group corresponding to the input learning input pattern is compared with a predetermined teacher pattern to compare the input patterns. And repeating the operation of correcting the threshold value of the unit constituting each unit group and the weight coefficient of the coupling element connecting each unit group based on this error, After train the, output pattern of the output unit group corresponding to a pattern to be identified by entering the pattern to be identified to the input unit group, in the pattern matching method of comparing the stored and that pattern, each Required to belong to each of the learning input patterns
<br/> created around the respective learning input pattern based on the boundary pattern defining each boundary pixel group in each learning input pattern, of each unit of the output unit group corresponding to these boundary pattern By setting an output teacher signal to 0 or a small value, learning each of the boundary patterns together with each of the learning input patterns, and inputting an arbitrary pattern to the input unit group, the above object is achieved. It was made.

【0023】境界パターンは、同一カテゴリーに属する
学習用入力パターンのすべてを含む円や楕円、矩形の領
域を設定し、この領域の外側の値を境界パターンとして
設定してもよい。また、境界パターンは、同一のカテゴ
リーに属する複数の学習用入力パターンの各要素の最大
値に予め定めた値を加算した最大境界値と、前記各要素
の最小値から予め定めた値を減算した最小境界値とを含
むように設定すると、境界パターンの作成を容易に行う
ことができる。
As the boundary pattern, a circle, an ellipse, or a rectangular area including all the learning input patterns belonging to the same category may be set, and a value outside this area may be set as the boundary pattern. Further, the boundary pattern is obtained by subtracting a predetermined value from a maximum boundary value obtained by adding a predetermined value to a maximum value of each element of a plurality of learning input patterns belonging to the same category, and a minimum value of each element. Setting to include the minimum boundary value facilitates creation of a boundary pattern.

【0024】[0024]

【0025】また、本発明に係るパターンマッチング装
置は、識別すべきパターンが入力される入力ユニット群
と、前記入力パターンに対応するパターンを出力する出
力ユニット群と、前記入力ユニット群と前記出力ユニッ
ト群との間に介在させた少なくとも1つ以上の中間ユニ
ット群と、これら各ユニット群を連結する結合素子と、
前記入力ユニット群に入力する複数の学習用入力パター
ンと、これらの学習用入力パターンに対応して作成し
た、前記出力ユニット群の出力パターンと対比する教師
パターンとを保持する学習信号保持部とを備え、前記各
ユニット群の各ユニットは、結合素子毎に割り当てられ
た重み係数を乗じた前段のユニットの出力を加算し、こ
の加算値と設定されたしきい値との差を独立変数とする
入出力関数に基づく演算結果を出力し、前記学習用入力
パターンを前記入力ユニット群に入力して得た前記出力
ユニット群の出力パターンと対応する前記教師パターン
との誤差に基づいて、前記結合素子の重み係数と前記し
きい値との補正を繰り返して前記学習用入力パターンを
学習させたのち、任意のパターンを前記入力ユニット群
に入力してパターンマッチングを行うようにしたパター
ンマッチング装置において、前記学習信号保持部は、前
記複数の学習用入力パターンに基づいて、各学習用入力
パターンのそれぞれに属する要素群の各境界を定める境
界パターンを前記各学習用入力パターンの周囲に生成す
る境界信号合成部と、前記各境界パターンに対応した、
前記出力ユニット群の各ユニットの出力と対比する教師
信号を0または小さな値にする境界教師信号合成部とを
有する構成にしてある。境界パターンに対応した教師信
号の小さな値は、例えば0.1程度の値である。
Further, a pattern matching device according to the present invention is provided.
Is the input unit group to which the pattern to be identified is input
And an output for outputting a pattern corresponding to the input pattern.
Force unit group, the input unit group and the output unit
At least one intermediate unit interposed between
And a coupling element for connecting these unit groups,
A plurality of learning input patterns to be input to the input unit group, and a learning signal holding unit that holds a teacher pattern created in correspondence with these learning input patterns and compared with the output pattern of the output unit group. Each unit of each unit group adds the output of the preceding unit multiplied by a weighting factor assigned to each coupling element, and sets the difference between the added value and the set threshold value as an independent variable. The coupling element outputs an operation result based on an input / output function, and based on an error between an output pattern of the output unit group obtained by inputting the learning input pattern to the input unit group and the corresponding teacher pattern. After the learning input pattern is learned by repeating the correction of the weight coefficient and the threshold value, an arbitrary pattern is input to the input unit group, and In the pattern matching apparatus that performs etching, the learning signal holding unit, said plurality of based on learning input pattern, the input each learning
A boundary that defines each boundary of the group of elements belonging to each of the patterns
A boundary signal synthesizing unit that generates a field pattern around each of the learning input patterns, and corresponding to each of the boundary patterns,
A boundary teacher signal synthesizing unit for setting a teacher signal to be compared with the output of each unit of the output unit group to 0 or a small value is provided. The small value of the teacher signal corresponding to the boundary pattern is, for example, about 0.1.

【0026】[0026]

【作用】上記構成によれば、カテゴリーの範囲外となる
その周囲の境界パターンが入力ユニット群に入力された
ときに、出力ユニット群の各ユニットの出力を「0」ま
たは小さな値となるように学習させることにより、結果
的にそのカテゴリーから遠くはなれたパターンに対して
も出力ユニットの出力を小さな値とすることが可能とな
る。そして、そのカテゴリーに属するパターンの入力に
対する出力ユニットの出力が大きくなるように学習させ
ることにより、入力された任意のパターンに対応した出
力を学習させた出力と対比することにより、そのパター
ンがカテゴリーに属するか否かを容易、的確に判断する
ことができ、誤判定をなくすことが可能となる。なお、
境界パターンは各カテゴリーに属する学習用パターンを
元に合成するが、この合成方法は識別対象に応じて個別
に行うようにすればよい。
According to the above arrangement, when a boundary pattern outside the category is input to the input unit group, the output of each unit of the output unit group is set to "0" or a small value. As a result, the output of the output unit can be reduced to a small value even for a pattern far from the category. Then, by learning so that the output of the output unit with respect to the input of the pattern belonging to the category becomes large, and comparing the output corresponding to the input arbitrary pattern with the learned output, the pattern is classified into the category. Whether or not they belong can be easily and accurately determined, and erroneous determination can be eliminated. In addition,
The boundary patterns are synthesized based on the learning patterns belonging to each category, and this synthesizing method may be individually performed according to the identification target.

【0027】[0027]

【発明の実施の形態】以下、本発明の実施形態例を図面
に基づいて説明する。図1は、実施例に係るパターンマ
ッチング装置の全体構成を示すブロック図である。図示
のように、この装置は、パターンマッチングを行おうと
する文字や各種信号波形等の認識対象画像を取り込む受
像装置10を有している。受像装置10は認識対象画像
を直接表示できるものとなっており、この画像表示信号
をパターン入力部12に出力するようにしてある。パタ
ーン入力部12は、受像装置10の画像表示領域を二次
元マトリックスに分割し、各分割領域に対応した個々の
画像信号を信号量の大きさ、例えば信号の強度や濃度等
に応じて後段の変換処理部14に出力するものとしてい
る。これにより、受像装置10に入力された画像信号
は、パターン信号として変換処理部14に入力される。
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram illustrating the entire configuration of the pattern matching apparatus according to the embodiment. As shown in the figure, the apparatus has an image receiving apparatus 10 for capturing an image to be recognized such as characters or various signal waveforms to be subjected to pattern matching. The image receiving device 10 can directly display the recognition target image, and outputs this image display signal to the pattern input unit 12. The pattern input unit 12 divides an image display area of the image receiving apparatus 10 into a two-dimensional matrix, and separates individual image signals corresponding to each divided area into a subsequent stage in accordance with the magnitude of a signal amount, for example, signal intensity or density. It is to be output to the conversion processing unit 14. As a result, the image signal input to the image receiving device 10 is input to the conversion processing unit 14 as a pattern signal.

【0028】上記パターン入力部12の出力信号が入力
する変換処理部14は、識別すべきパターンが入力され
るユニット群としての入力層16と、前記入力パターン
に対応するパターンを出力するユニット群としての出力
層20と、前記入力層16と出力層20との間に介在
し、複数の結合素子によってこれらの層16、20と連
結される中間ユニット群としての中間層18とから構成
してある。これらの入力層16、中間層18、および出
力層20は、それぞれ生物の神経細胞に相当する複数の
多入力1出力型の素子(ユニット)を有し、各層のユニ
ットを神経繊維に相当する結合素子を介して他の層のユ
ニットと結合することにより構成されたニューラルネッ
トワークを利用した構成とされている。
The conversion processing unit 14 to which the output signal of the pattern input unit 12 is input includes an input layer 16 as a unit group to which a pattern to be identified is input, and a unit group to output a pattern corresponding to the input pattern. And an intermediate layer 18 as an intermediate unit group interposed between the input layer 16 and the output layer 20 and connected to these layers 16 and 20 by a plurality of coupling elements. . Each of the input layer 16, the intermediate layer 18, and the output layer 20 has a plurality of multi-input, one-output elements (units) each corresponding to a nerve cell of a living organism, and the unit of each layer is connected to a nerve fiber. It is configured to use a neural network configured by coupling to units in other layers via elements.

【0029】すなわち、図2に中間層18を例に示した
ように、中間層18を構成している各ユニット22は、
結合素子23を介して入力層16の各ユニットと結合さ
れていて、入力層16の各ユニットの出力信号Iが各結
合素子23に割り当てられた重み係数Wを乗じた値とし
て入力するようになっている。そして、中間層ユニット
22は、所定の演算をして求めた出力信号を結合素子2
4を介して出力層20の各ユニット25に出力するよう
になっている。また、出力層20のユニット25は、中
間層ユニット22と同様の演算を行ってその演算結果を
結合素子27を介して出力する。
That is, as shown in the example of the intermediate layer 18 in FIG. 2, each unit 22 constituting the intermediate layer 18
It is connected to each unit of the input layer 16 via the coupling element 23, and the output signal I of each unit of the input layer 16 is input as a value multiplied by the weight coefficient W assigned to each coupling element 23. ing. Then, the intermediate layer unit 22 outputs the output signal obtained by performing the predetermined operation to the coupling element 2.
4 to each unit 25 of the output layer 20. The unit 25 of the output layer 20 performs the same operation as that of the intermediate layer unit 22 and outputs the operation result via the coupling element 27.

【0030】このように入力層16、中間層18、出力
層20からなる変換処理部14の回路構成は、図3のよ
うになっていて、入力層16の出力計算回路40、中間
層18の入力計算回路42、中間層18の出力計算回路
44、出力層20の入力計算回路46、出力層20の出
力計算回路48が直列的に接続してある。
As described above, the circuit configuration of the conversion processing unit 14 including the input layer 16, the intermediate layer 18, and the output layer 20 is as shown in FIG. An input calculation circuit 42, an output calculation circuit 44 of the intermediate layer 18, an input calculation circuit 46 of the output layer 20, and an output calculation circuit 48 of the output layer 20 are connected in series.

【0031】入力層出力計算回路40は、入力パターン
に基づいて入力層16の各ユニットの出力を求めるもの
で、本例においては出力値を演算する入出力関数が一般
的に用いられている線形関数となっている。このため、
入力層16の各ユニットは、パターン入力部12の対応
する出力値と同じ値(I1 〜In )を出力する。また、
中間層18の入力計算回路42は、入力層出力計算回路
40の出力Iと入力層16と中間層18とを結合してい
る結合素子23の結合係数Wとを用いて中間層18の各
ユニット22への入力値Uを計算し、中間層18の出力
計算回路44は、入力計算回路42によって求めた入力
値Uと後述する入出力関数とにより、中間層18の各ユ
ニット22の出力Hを計算する。そして、出力層20の
入力計算回路46は、中間層出力計算回路44の出力H
と、中間層18と出力層20とを結合している結合素子
24の結合係数Vとを用いて出力層20の各ユニット2
5へ供給される入力Sを計算し、出力層出力計算回路4
8は、出力層入力計算回路46の計算値Sと入出力関数
とにより出力層20の出力Oを求める。
The input layer output calculation circuit 40 calculates the output of each unit of the input layer 16 based on the input pattern. In this example, an input / output function for calculating the output value is used. Function. For this reason,
Each unit of the input layer 16 output the same values as the corresponding output value of the pattern input section 12 (I 1 ~I n). Also,
The input calculation circuit 42 of the intermediate layer 18 calculates each unit of the intermediate layer 18 using the output I of the input layer output calculation circuit 40 and the coupling coefficient W of the coupling element 23 that connects the input layer 16 and the intermediate layer 18. The input value U to the intermediate layer 18 is calculated, and the output calculation circuit 44 of the intermediate layer 18 calculates the output H of each unit 22 of the intermediate layer 18 based on the input value U obtained by the input calculation circuit 42 and an input / output function described later. calculate. Then, the input calculation circuit 46 of the output layer 20 outputs the output H of the intermediate layer output calculation circuit 44.
Each unit 2 of the output layer 20 is obtained by using the coupling coefficient V of the coupling element 24 connecting the intermediate layer 18 and the output layer 20.
5 to calculate the input S supplied to the output layer 5 and output layer output calculation circuit 4
8 obtains the output O of the output layer 20 based on the calculated value S of the output layer input calculation circuit 46 and the input / output function.

【0032】変換処理部14の出力、すなわち出力層2
0の各ユニット25の出力Oは、基本的にはパターン出
力部26に入力される。そして、パターン入力部26
は、各ユニット25の出力値Oによって得られるパター
ン(ベクトル)をメモリ28に格納してパターンと比較
し、出力層20の出力信号にマッチングした出力パター
ンをメモリ28から読み出して表示装置30に表示す
る。
The output of the conversion processing unit 14, that is, the output layer 2
The output O of each unit 25 of 0 is basically input to the pattern output unit 26. Then, the pattern input unit 26
Stores the pattern (vector) obtained by the output value O of each unit 25 in the memory 28, compares the pattern with the pattern, reads out the output pattern matching the output signal of the output layer 20 from the memory 28, and displays the output pattern on the display device 30 I do.

【0033】しかし、本実施形態においては、バックプ
ロパゲーションによる学習機能を持たせており、このた
め、前記変換処理部14の後段に、出力層20からの出
力信号を入力する誤差検出部32が設けてある。この誤
差検出部32には、教師装置34が接続してあり、パタ
ーンマッチング装置のパターンマッチング能力を修得さ
せる学習時に、受像装置10に与えた学習用入力パター
ン(入力信号)に対応した教師信号が教師装置34から
与えられるようになっている。
However, in the present embodiment, a learning function by back propagation is provided. Therefore, an error detection unit 32 that inputs an output signal from the output layer 20 is provided downstream of the conversion processing unit 14. It is provided. A teacher device 34 is connected to the error detection unit 32, and a teacher signal corresponding to a learning input pattern (input signal) given to the image receiving device 10 at the time of learning for acquiring the pattern matching ability of the pattern matching device. It is provided from the teacher device 34.

【0034】受像装置10と教師装置34とには、学習
信号保持部50が接続してある。この学習信号保持部5
0は、学習入力信号メモリ51、教師信号メモリ52、
パターン境界設定器54、初期学習入力信号メモリ5
6、初期教師信号メモリ58とから構成してある。そし
て、パターン境界設定器54は、初期学習入力信号メモ
リ56に書き込まれたデータ(学習用入力パターン)に
基づいて、詳細を後述するように、境界パターンを作成
し、この境界パターンを初期学習入力信号メモリに書き
込まれたデータとともに学習入力信号メモリ51に書き
込み、また初期教師信号メモリ58に書き込まれた初期
教師信号に基づいて境界パターンに対応した教師信号
(境界教師信号)を作成し、初期教師信号と境界教師信
号とを教師信号メモリ52に書き込む。また、パターン
マッチング装置の学習時に、学習入力メモリ51から学
習用の入力信号(入力パターン)が受像装置10に与え
られ、この入力信号に対応した教師信号が教師信号メモ
リ52から教師装置34に与えられる。
A learning signal holding unit 50 is connected to the image receiving device 10 and the teacher device 34. This learning signal holding unit 5
0 is a learning input signal memory 51, a teacher signal memory 52,
Pattern boundary setting unit 54, initial learning input signal memory 5
6, an initial teacher signal memory 58. The pattern boundary setting unit 54 creates a boundary pattern based on the data (learning input pattern) written in the initial learning input signal memory 56, as will be described in detail later. The data is written to the learning input signal memory 51 together with the data written to the signal memory, and a teacher signal (boundary teacher signal) corresponding to the boundary pattern is created based on the initial teacher signal written to the initial teacher signal memory 58. The signal and the boundary teacher signal are written into the teacher signal memory 52. Further, at the time of learning of the pattern matching device, a learning input signal (input pattern) is provided from the learning input memory 51 to the image receiving device 10, and a teacher signal corresponding to the input signal is provided from the teacher signal memory 52 to the teacher device 34. Can be

【0035】パターン境界設定器54は、同一のカテゴ
リーに属する1群の初期学習入力信号の周囲に境界を定
めるもので、図4に示したように、初期学習入力信号が
入力する最大値・最小値演算部60を有している。この
最大値・最小値演算部は、各カテゴリー毎に初期学習入
力信号の各要素の最大値と最小値とを求める。そして、
最大値・最小値演算部60の求めた最大値と最小値と
は、代替値演算部62に入力するようになっている。代
替値演算部62は、入力された最大値に予め定めた値を
加算した値(最大境界値)と、入力された最小値から予
め定めた値を減算した値(最小境界値)とを求めて境界
信号合成部64に送出する。これらの代替値演算部62
が加算または減算する予め定めた値は、各カテゴリー間
の距離などによって異ならせることができ、シミュレー
ション等によって決定される。そして、代替値演算部6
2の求めた値は、境界信号合成部64に送られる。
The pattern boundary setting unit 54 defines a boundary around a group of initial learning input signals belonging to the same category. As shown in FIG. It has a value calculator 60. The maximum value / minimum value calculation unit obtains the maximum value and the minimum value of each element of the initial learning input signal for each category. And
The maximum value and the minimum value obtained by the maximum value / minimum value calculation unit 60 are input to an alternative value calculation unit 62. The substitute value calculator 62 calculates a value obtained by adding a predetermined value to the input maximum value (maximum boundary value) and a value obtained by subtracting a predetermined value from the input minimum value (minimum boundary value). To the boundary signal synthesizing section 64. These alternative value calculation units 62
The predetermined value to be added or subtracted can differ depending on the distance between the categories and the like, and is determined by simulation or the like. Then, the substitute value calculator 6
The calculated value of 2 is sent to the boundary signal synthesis unit 64.

【0036】境界信号合成部64は、初期学習入力信号
のいずれかの要素を、代替値演算部62が求めた値と入
替えたカテゴリーの境界を定める境界信号(境界パター
ン)を作成し、初期学習入力信号とともに学習入力信号
メモリ50に書き込む。また、パターン境界設定器54
の境界用教師信号合成部66は、入力した初期教師信号
に基づいて、境界信号合成部64が求めた境界信号に対
応した境界用教師信号を合成する。この境界信号用教師
信号合成部66が求める境界教師信号は、境界信号合成
部64が求めた境界パターンが受像装置10に与えられ
たときに、変換処理部14の出力層20の各ユニット2
5の出力値が「0」または小さな小さな値となるような
もので、原則として「0」である。
The boundary signal synthesizing section 64 creates a boundary signal (boundary pattern) for defining a boundary of a category in which one of the elements of the initial learning input signal is replaced with the value obtained by the alternative value calculating section 62. It is written into the learning input signal memory 50 together with the input signal. Further, the pattern boundary setting device 54
The boundary teacher signal synthesizing unit 66 synthesizes a boundary teacher signal corresponding to the boundary signal obtained by the boundary signal synthesizing unit 64 based on the input initial teacher signal. When the boundary pattern determined by the boundary signal synthesis unit 64 is given to the image receiving device 10, each of the units 2 of the output layer 20 of the conversion processing unit 14 is determined by the boundary teacher signal determined by the boundary signal teacher signal synthesis unit 66.
The output value of “5” is “0” or a small small value, and is “0” in principle.

【0037】このように構成した実施形態においては、
受像装置10に識別すべきパターン(入力信号)が与え
られると、パターン入力部12は、受像装置10の画像
表示領域を二次元マトリックスに分割し、各分割領域に
対応した画像信号に応じた信号を変換処理部14に出力
する。変換処理部14の入力層16を構成している各ユ
ニットに設けた入力層出力計算回路40は、入出力関数
が線形関数となっているため、各ユニットに入力したパ
ターン入力部12の出力値に等しい値Ii を出力する。
In the embodiment configured as described above,
When a pattern (input signal) to be identified is given to the image receiving apparatus 10, the pattern input unit 12 divides the image display area of the image receiving apparatus 10 into a two-dimensional matrix, and outputs a signal corresponding to the image signal corresponding to each divided area. Is output to the conversion processing unit 14. The input layer output calculation circuit 40 provided in each unit constituting the input layer 16 of the conversion processing unit 14 has a linear input / output function. and outputs a value equal I i in.

【0038】中間層18の各ユニット22は、入力層1
6の各ユニットが出力した値Ii を結合素子23を介し
て受け取る。そして、中間層18の各ユニット22は、
入力計算回路42が前記した数式3と同様に、次の数式
8により入力Uj を演算し、出力計算回路44に送出す
る。
Each unit 22 of the intermediate layer 18 is connected to the input layer 1
The value I i of each unit has an output of 6 receives via coupling element 23. And each unit 22 of the middle layer 18
The input calculation circuit 42 calculates the input U j by the following expression 8 in the same manner as the above expression 3, and sends it to the output calculation circuit 44.

【数8】 (Equation 8)

【0039】ただし、Uj は中間層18の第j番目のユ
ニット22の入力値であり、Wijは入力層16の第i番
目のユニットと中間層18の第j番目のユニットとの結
合の強さを表す結合係数(結合素子23の重み係数)、
i は入力層16の第i番目のユニットの出力である。
また、θjは、中間層18の第j番目のユニット22のR
>しきい値である。
Where U j is the input value of the j-th unit 22 of the intermediate layer 18, and W ij is the coupling value between the i-th unit of the input layer 16 and the j-th unit of the intermediate layer 18. A coupling coefficient representing the strength (weight coefficient of the coupling element 23),
I i is the output of the ith unit of the input layer 16.
Θ j is the R of the j-th unit 22 of the intermediate layer 18.
> Threshold.

【0040】各ユニット22は、入力計算回路42が上
記数式8によって求めた入力値を受け取ると、入出力関
数を用いて出力値Hj を演算する。この演算に用いる入
出力関数は、図5(2)に示した飽和型のシグモイド関
数を用いてもよいが、本実施形態においては下記数式9
に示した入出力関数fを用いている。
[0040] Each unit 22 has an input calculation circuit 42 receives an input value obtained by the above equation 8, and calculates an output value H j with input and output functions. The saturation sigmoid function shown in FIG. 5B may be used as the input / output function used for this calculation.
The input / output function f shown in FIG.

【数9】 (Equation 9)

【0041】この入出力関数fは、入力値の絶対値がし
きい値と等しいときに最大値出力をなし、しきい値と異
なる入力値に対しては前記最大値を越えない正の出力と
なる入出力特性としたもので、cは係数、θはしきい値
であり、定数または変数である。そして、xが入力値で
ある。
This input / output function f outputs a maximum value when the absolute value of the input value is equal to the threshold value, and outputs a positive output not exceeding the maximum value for an input value different from the threshold value. Here, c is a coefficient, θ is a threshold, and is a constant or a variable. X is an input value.

【0042】すなわち、中間層18の出力計算回路44
は、上記数式8により計算された入力値Uを基に、上記
数式9に基づいて演算し、この演算値を中間層18にお
ける各ユニット22の次層への出力値Hjとしている。
これは、具体的には、
That is, the output calculation circuit 44 of the intermediate layer 18
, Based on the input value U calculated by the equation 8, it is calculated based on the above Equation 9, and the output value H j to the next layer of each unit 22 the calculated value in the intermediate layer 18.
This is, specifically,

【数10】 として、演算される。 ただし、Hj:第j番目のユニットの出力値、 Uj:第j番目のユニットの入力値、 θj:第j番目のユニットのしきい値、 である。(Equation 10) Is calculated as Here, H j is the output value of the j-th unit, U j is the input value of the j-th unit, and θ j is the threshold value of the j-th unit.

【0043】更に、このようにして得られた中間層18
からの出力Hi は結合素子24を介して出力層20に入
力されるが、この出力層20への入力部分における入力
計算回路46で、まず、中間層18の出力Hi と、中間
層18と出力層20と接続する結合素子24の結合係数
Vを用いて出力層20の各ユニット25へ供給される入
力Sを計算する。この演算処理は、上記した数式8と同
様に、
Further, the thus obtained intermediate layer 18
The output H i is input to the output layer 20 via the coupling element 24 from, the input calculation circuit 46 at the input portion to the output layer 20, first, the output H i of the intermediate layer 18, intermediate layer 18 Then, the input S supplied to each unit 25 of the output layer 20 is calculated using the coupling coefficient V of the coupling element 24 connected to the output layer 20. This arithmetic processing is performed in the same manner as in the above-described Expression 8.

【数11】 [Equation 11]

【0044】ただし、Vjkは中間層18の第j番目のユ
ニット22と出力層20の第k番目のユニット25とを
接続する結合素子24の結合係数(重み係数)、γk
出力層の第k番目のユニット25のしきい値、Skが出
力層20の第k番目のユニット25への入力値である。
Here, V jk is a coupling coefficient (weighting coefficient) of the coupling element 24 connecting the j-th unit 22 of the intermediate layer 18 and the k-th unit 25 of the output layer 20, and γ k is a value of the output layer. The threshold value of the k-th unit 25, S k, is the input value to the k-th unit 25 of the output layer 20.

【0045】次いで、出力層20の各ユニット25は、
前記数式9の入出力関数fに基づき、出力値Oを算出す
るものとしている。すなわち、出力層20では、出力計
算回路48により、上記11式で計算された入力値Sを
基に、上記数式9に基づいて演算し、出力層20を構成
している複数のユニット25の出力値を算出する(出力
信号O)。これは、具体的には、
Next, each unit 25 of the output layer 20
The output value O is to be calculated based on the input / output function f of Equation 9 above. That is, in the output layer 20, the output calculation circuit 48 performs an operation based on the input value S calculated by the above equation 11 based on the above equation 9, and outputs the outputs of the plurality of units 25 forming the output layer 20. A value is calculated (output signal O). This is, specifically,

【数12】 によって演算する。(Equation 12) Is calculated by

【0046】このようにして得られた出力信号Oは、出
力層20の各ユニット25毎にパターン出力部26から
出力され、出力層20の出力信号にマッチングする出力
パターンがパターン出力部26によってメモリ28から
読み出され、受像装置10に入力されたパターンの対応
パターンとして表示装置30等に表示される。
The output signal O thus obtained is output from the pattern output unit 26 for each unit 25 of the output layer 20, and an output pattern matching the output signal of the output layer 20 is stored in the memory by the pattern output unit 26. 28, and is displayed on the display device 30 or the like as a pattern corresponding to the pattern input to the image receiving device 10.

【0047】パターンマッチング装置のバックプロパゲ
ーションによる学習は、次のように行われる。初期学習
入力信号メモリ56には、パターンマッチング装置に学
習させるための初期学習入力信号(初期学習入力パター
ン)が書き込まれ、初期教師信号メモリ58には、初期
学習入力信号メモリ56に書き込んだ入力信号に対応し
た教師信号(教師パターン)が書き込まれる。各メモリ
56、58に書き込まれた信号は、パターン境界設定器
54に読み込まれる。パターン境界設定器54は、読み
込んだ入力信号と教師信号とから境界信号と境界信号用
教師信号とを作成し、これら作成した信号を初期学習入
力信号と初期教師信号とともに学習入力信号、教師信号
として学習入力信号メモリ51、教師信号メモリ52に
書き込む。
The learning by the back propagation of the pattern matching apparatus is performed as follows. In the initial learning input signal memory 56, an initial learning input signal (initial learning input pattern) for learning by the pattern matching device is written, and in the initial teacher signal memory 58, the input signal written in the initial learning input signal memory 56 is written. The teacher signal (teacher pattern) corresponding to is written. The signals written in the memories 56 and 58 are read into the pattern boundary setting unit 54. The pattern boundary setting unit 54 generates a boundary signal and a boundary signal teacher signal from the read input signal and the teacher signal, and uses these generated signals together with the initial learning input signal and the initial teacher signal as a learning input signal and a teacher signal. Writing to the learning input signal memory 51 and the teacher signal memory 52 is performed.

【0048】すなわち、パターン境界設定器54は、最
大値・最小値演算部60が初期学習入力信号メモリ56
に書き込まれた初期学習入力信号を読み出し、各カテゴ
リー毎の入力信号の最大値と最小値とを求めて代替値演
算部62に入力する。例えば初期学習入力信号が二次元
のベクトル(二次元座標x、y)によって表される場
合、最大値・最小値演算部60は、各カテゴリーについ
てのx、yの最大値と最小値xqmax、xqmin、yqmax、
qminを求める。ただし、添字qは、初期学習入力信号
の属するカテゴリーを示し、カテゴリーが異なるごとに
異なった数値または記号となる。
That is, in the pattern boundary setting unit 54, the maximum value / minimum value calculation unit 60 has an initial learning input signal memory 56.
Is read out, and the maximum value and the minimum value of the input signal for each category are obtained and input to the alternative value calculation unit 62. For example, when the initial learning input signal is represented by a two-dimensional vector (two-dimensional coordinates x, y), the maximum value / minimum value calculation unit 60 calculates the maximum value and the minimum value x q max of x and y for each category. , X q min, y q max,
Find y q min. Here, the suffix q indicates the category to which the initial learning input signal belongs, and is a different numerical value or symbol for each different category.

【0049】代替値演算部62は、入力された最大値に
予め定めた値を加算した座標値xqmax+φ、yqmax+ψ
を求め、また入力された最小値から予め定めた値を減算
した座標値xqmin−χ、yqmin−ωを求め、この求めた
座標値を境界信号合成部64に入力する。境界信号合成
部64は、初期学習入力信号メモリ56に書き込まれた
初期学習入力信号のいずれか一方の座標値を、代替値演
算部62が求めた座標値と入替えたカテゴリーの境界を
定める境界信号(xqmax+φ,yqi)、(xqi,yqmin
−ω)等を作成し、初期学習入力信号とともに学習入力
信号メモリ50に書き込む。また、パターン境界設定器
54の境界用教師信号合成部66は、入力した初期教師
信号に基づいて、境界信号合成部64が求めた境界信号
に対応した教師信号を合成し、この合成した境界信号用
教師信号を初期教師信号とともに教師信号メモリ52に
書き込む。また、各結合素子の結合係数としきい値とを
一様乱数による小さな値に設定する。
The substitute value calculating section 62 calculates coordinate values x q max + φ and y q max + ψ obtained by adding a predetermined value to the input maximum value.
Are obtained, and coordinate values x q min−χ and y q min−ω are obtained by subtracting a predetermined value from the input minimum value, and the obtained coordinate values are input to the boundary signal synthesis unit 64. The boundary signal synthesizing unit 64 is a boundary signal that determines the boundary of the category in which one of the coordinate values of the initial learning input signal written in the initial learning input signal memory 56 is replaced with the coordinate value obtained by the alternative value calculating unit 62. (x q max + φ, y qi), (x qi, y q min
−ω) and the like, and write them into the learning input signal memory 50 together with the initial learning input signal. The boundary teacher signal synthesizing unit 66 of the pattern boundary setting unit 54 synthesizes a teacher signal corresponding to the boundary signal obtained by the boundary signal synthesizing unit 64 based on the input initial teacher signal, and generates the synthesized boundary signal. The teacher signal is written into the teacher signal memory 52 together with the initial teacher signal. Also, the coupling coefficient and the threshold value of each coupling element are set to small values based on uniform random numbers.

【0050】このようにして学習入力信号と教師信号と
からなる学習信号が作成され、結合係数としきい値とが
設定されたならば、最初の学習入力信号(学習入力パタ
ーン)を受像装置10に与える。受像装置10に与えら
れた学習入力信号は、前記したようにパターン入力部1
2を介して変換処理部14に入力され、出力層20の各
ユニット25から出力信号Oが出力され、誤差検出部3
2に入力される。また、誤差検出部32には、最初の学
習入力信号に対応した教師信号(教師パターン)が教師
装置34を介して入力される。誤差検出部32は、出力
層20の各ユニット25の出力Oと教師装置34を介し
て与えられた教師信号とを比較し、両者の誤差を求めて
表示装置30等に出力する。そして、バックプロパゲー
ションの所定のアルゴリズムに従って出力層20の出力
と教師信号との誤差が最小となるように各ユニットのし
きい値や各結合素子の結合係数を変化させて修正する。
When the learning signal including the learning input signal and the teacher signal is created in this way, and the coupling coefficient and the threshold are set, the first learning input signal (learning input pattern) is transmitted to the image receiving apparatus 10. give. The learning input signal given to the image receiving device 10 is transmitted to the pattern input unit 1 as described above.
2, the output signal O is output from each unit 25 of the output layer 20, and the error detection unit 3
2 is input. Further, a teacher signal (teacher pattern) corresponding to the first learning input signal is input to the error detection unit 32 via the teacher device 34. The error detector 32 compares the output O of each unit 25 of the output layer 20 with the teacher signal given via the teacher device 34, finds an error between the two, and outputs it to the display device 30 or the like. Then, the threshold value of each unit and the coupling coefficient of each coupling element are changed and corrected according to a predetermined algorithm of back propagation so that the error between the output of the output layer 20 and the teacher signal is minimized.

【0051】このようにして最初の学習入力信号に対す
る学習が終了したならば、次の学習入力信号を受像装置
10に入力して同様に学習させる。そして、この学習
は、学習入力信号メモリ51に書き込まれたすべての学
習入力信号について行われ、境界設定器54の境界信号
合成部64が求めた境界信号に対しても同様にである。
ただし、境界信号合成部64が求めた境界信号の教師信
号(境界信号用教師信号)は、出力層20の各ユニット
25の出力Oが「0」または小さな値となるように設定
される。そして、上記の学習を、出力値と教師信号との
誤差が所定値以下になるまで、または予め定めた学習回
数に達するまで行って学習入力信号(学習入力パター
ン)を学習させる。
When the learning for the first learning input signal is completed in this way, the next learning input signal is input to the image receiving device 10 and similarly learned. This learning is performed for all the learning input signals written in the learning input signal memory 51, and the same applies to the boundary signal obtained by the boundary signal synthesis unit 64 of the boundary setting unit 54.
However, the teacher signal of the boundary signal (the teacher signal for the boundary signal) obtained by the boundary signal synthesis unit 64 is set so that the output O of each unit 25 of the output layer 20 becomes “0” or a small value. Then, the learning is performed until the error between the output value and the teacher signal becomes equal to or less than a predetermined value or until a predetermined number of times of learning is reached, thereby learning the learning input signal (learning input pattern).

【0052】[0052]

【実施例】このように構成されたパターンマッチング装
置を利用して二次元ベクトルで表されるパターンを識別
する作業を行った。
DESCRIPTION OF THE PREFERRED EMBODIMENTS An operation for identifying a pattern represented by a two-dimensional vector was performed by using the pattern matching apparatus thus constructed.

【0053】図5は、学習に用いた二次元ベクトルであ
る。カテゴリー1に属する学習用パターンは記号「*」
で示し、カテゴリー2に属する学習用パターンは記号
「+」で示してある。このカテゴリー1、2に属するパ
ターンデータ(座標)を表1に示す。
FIG. 5 shows two-dimensional vectors used for learning. The learning pattern belonging to category 1 is the symbol "*"
, And the learning pattern belonging to category 2 is indicated by a symbol “+”. Table 1 shows pattern data (coordinates) belonging to the categories 1 and 2.

【0054】[0054]

【表1】 [Table 1]

【0055】カテゴリー1に属するxの最大値x1maxは
0.75、最小値x1minは0.25、またyの最大値y
1maxは0.75、最小値y1minは0.25である。そこ
で、カテゴリー1の境界信号(境界パターン)を求める
ために、これらの最大値に加算するφ、ψおよび最小値
から減算するχ、ωをそれぞれ0.15とすると、
The maximum value x 1 max of x belonging to category 1 is 0.75, the minimum value x 1 min is 0.25, and the maximum value y of y is y
1 max is 0.75 and the minimum value y 1 min is 0.25. Then, in order to obtain the boundary signal (boundary pattern) of category 1, φ, す る added to these maximum values, and χ, ω subtracted from the minimum value are set to 0.15, respectively.

【数13】 (Equation 13)

【数14】 [Equation 14]

【数15】 (Equation 15)

【数16】 が得られる。(Equation 16) Is obtained.

【0056】そこで、表1のデータと数式13〜16と
から境界信号をもとめると、データAについての境界信
号は、a1 (0.9,0.75)、a2 (0.1,0.
75)、a3 (0.75,0.9)、a4 (0.75,
0.1)となる。以下、同様にしてカテゴリー1のデー
タB〜I、カテゴリー2のデータA’〜I’についても
境界信号を求めた。このようにして求めた境界信号の一
例を図5に○印によって示した。
Therefore, when a boundary signal is obtained from the data in Table 1 and Equations 13 to 16, the boundary signal for data A is a 1 (0.9, 0.75) and a 2 (0.1, 0). .
75), a 3 (0.75, 0.9), a 4 (0.75,
0.1). Hereinafter, similarly, boundary signals were obtained for the data BI of category 1 and the data A ′ to I ′ of category 2. An example of the boundary signal obtained in this way is shown by a circle in FIG.

【0057】そして、これらの境界信号と表1に示した
初期学習入力信号とを用いてパターンの学習をさせてパ
ターン識別能力を獲得させたのち、学習させていない検
定用データを用いてパターンマッチングの検定を行っ
た。表2にその検定用データと検定結果を示す。また、
検定用データを図5に■を用いて示す。
Then, a pattern is learned by using these boundary signals and the initial learning input signals shown in Table 1 to obtain a pattern discriminating ability. Then, pattern matching is performed by using unlearned test data. Was performed. Table 2 shows the test data and test results. Also,
The test data is shown in FIG.

【0058】[0058]

【表2】 [Table 2]

【0059】これらの結果を比較すると、本実施例によ
る境界パターン学習による識別結果が極めて良好な判断
結果となっている。すなわち、境界信号による学習を行
わない従来法では、識別すべきカテゴリーに属しない未
学習データパターンに対する出力値が大きくなって誤認
識率が高いのに対し、境界パターンを学習させた本実施
例では極めて低い誤認率となっている。例えば0.7以
上の出力が得られた場合には設定したカテゴリーに属す
ると判定されたものとすると、実際には設定されたカテ
ゴリー1、2のいずれにも属しないデータに対して、従
来法では、データ番号2、3を除いてその他のパターン
はカテゴリー1もしくは2に属していると識別している
のに対して、本実施例に係るパターンマッチング装置を
用いた場合は、いずれのパターンに対しても、出力値が
0.36以下となっており、学習したカテゴリーに属さ
ないと判定している。従って、学習したカテゴリーに属
さないデータの正当率は100%で従来法と比較して高
い正当率が得られている。
When these results are compared, the discrimination result by the boundary pattern learning according to the present embodiment is a very good judgment result. That is, in the conventional method in which learning using the boundary signal is not performed, the output value for an unlearned data pattern that does not belong to the category to be identified increases and the false recognition rate is high. It has a very low false positive rate. For example, if an output of 0.7 or more is obtained, it is determined that the data belongs to the set category. Then, while the other patterns except for data numbers 2 and 3 are identified as belonging to category 1 or 2, when the pattern matching apparatus according to the present embodiment is used, In contrast, the output value is 0.36 or less, and it is determined that the output does not belong to the learned category. Accordingly, the validity rate of data that does not belong to the learned category is 100%, which is higher than that of the conventional method.

【0060】なお、前記実施例においては、境界パター
ンを初期学習入力信号の要素の最大値に所定値を加算し
たものと、要素の最小値から所定値を減算したものとを
用いて作成する場合について説明したが、同一カテゴリ
ーに属する初期学習入力信号を包含する円形等の領域を
求め、その外側の点を境界パターンとしてもよい。
In the above embodiment, the case where the boundary pattern is created by using a value obtained by adding a predetermined value to the maximum value of the element of the initial learning input signal and a value obtained by subtracting the predetermined value from the minimum value of the element is used. However, an area such as a circle including the initial learning input signals belonging to the same category may be obtained, and points outside the area may be used as the boundary pattern.

【0061】[0061]

【発明の効果】以上説明したように、本発明によれば、
カテゴリーの範囲外となるその周囲の境界パターンが入
力ユニット群に入力されたときに、出力ユニット群の各
ユニットの出力を「0」または小さな値となるように学
習させることにより、結果的にそのカテゴリーから遠く
はなれたパターンに対しても出力ユニットの出力を小さ
な値とすることが可能となり、入力されたパターンがカ
テゴリーに属するか否かを容易、的確に判断することが
でき、誤判定をなくすことが可能となる。
As described above, according to the present invention,
By learning the output of each unit of the output unit group to be "0" or a small value when a boundary pattern around the outside of the category is input to the input unit group, the result is that It is possible to make the output of the output unit a small value even for a pattern far from the category, and it is possible to easily and accurately determine whether or not the input pattern belongs to the category, eliminating erroneous determination. It becomes possible.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施形態に係るパターンマッチング装
置のブロック図である。
FIG. 1 is a block diagram of a pattern matching device according to an embodiment of the present invention.

【図2】本発明の実施形態に係るユニットの説明図であ
る。
FIG. 2 is an explanatory diagram of a unit according to the embodiment of the present invention.

【図3】本発明の実施形態に係る変換処理部の回路構成
例である。
FIG. 3 is a circuit configuration example of a conversion processing unit according to the embodiment of the present invention.

【図4】本発明の実施形態に係る学習信号保持部に設け
たパターン境界設定器の構成ブロック図である。
FIG. 4 is a configuration block diagram of a pattern boundary setting unit provided in a learning signal holding unit according to the embodiment of the present invention.

【図5】学習データ、境界データ、および検定に用いた
データをx−y座標にプロットした図である。
FIG. 5 is a diagram in which learning data, boundary data, and data used for a test are plotted on xy coordinates.

【図6】ニューラルネットワーク素子(ユニット)の模
式図、並びにこのユニットに用いられる入出力関数の一
種であるシグモイド関数を示す。
FIG. 6 shows a schematic diagram of a neural network element (unit) and a sigmoid function which is a kind of input / output function used in this unit.

【図7】ネットワークの構成例で、(1)は階層型ネッ
トワーク、(2)は相互結合型ネットワークの模式図で
ある。
FIGS. 7A and 7B are schematic diagrams of a network configuration example, in which FIG. 7A is a schematic diagram of a hierarchical network, and FIG.

【図8】3層階層型ネットワークの模式像である。FIG. 8 is a schematic image of a three-layer hierarchical network.

【図9】従来のパターンマッチングの説明図である。FIG. 9 is an explanatory diagram of conventional pattern matching.

【符号の説明】[Explanation of symbols]

10 受像装置 12 パターン入力部 14 変換処理部 16 入力層 18 中間層 20 出力層 22、25 ユニット 23、24、27 結合素子 26 パターン出力部 28 メモリ 30 表示装置 32 誤差検出部 34 教師装置 50 学習信号保持部 54 パターン境界設定器 60 最大値・最小値演算部 64 境界信号合成部 66 境界用教師信号合成部 Reference Signs List 10 image receiving device 12 pattern input unit 14 conversion processing unit 16 input layer 18 intermediate layer 20 output layer 22, 25 unit 23, 24, 27 coupling element 26 pattern output unit 28 memory 30 display device 32 error detection unit 34 teacher device 50 learning signal Holding unit 54 Pattern boundary setting unit 60 Maximum / minimum value calculation unit 64 Boundary signal synthesis unit 66 Boundary teacher signal synthesis unit

───────────────────────────────────────────────────── フロントページの続き (58)調査した分野(Int.Cl.7,DB名) G06N 1/00 - 7/00 JSTファイル(JOIS) CSDB(日本国特許庁)──────────────────────────────────────────────────続 き Continued on the front page (58) Field surveyed (Int. Cl. 7 , DB name) G06N 1/00-7/00 JST file (JOIS) CSDB (Japan Patent Office)

Claims (3)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 入力ユニット群に複数の学習用入力パタ
ーンを入力するとともに、入力した学習用入力パターン
に対応した出力ユニット群の出力パターンを予め定めた
教師パターンと比較して両者の誤差を求め、この誤差に
基づいて各ユニット群を構成しているユニットのしきい
値と各ユニット群を連結している結合素子の重み係数と
を補正する操作を繰り返して前記学習用入力パターンを
学習させたのち、識別すべきパターンを前記入力ユニッ
ト群に入力して識別すべきパターンに対応した前記出力
ユニット群の出力パターンを、記憶しているパターンと
対比するパターンマッチング方法において、前記各学習
用入力パターンのそれぞれに属する要素群の各境界を定
める境界パターンを前記各学習用入力パターンに基づい
前記各学習用入力パターンの周囲に作成し、これらの
境界パターンに対応した前記出力ユニット群の各ユニッ
トの出力の教師信号を0または小さな値に設定し、前記
境界パターンを前記各学習用入力パターンとともに学
習させたのち、任意のパターンを前記入力ユニット群に
入力することを特徴とするパターンマッチング方法。
An input unit group is input with a plurality of learning input patterns, and an output pattern of an output unit group corresponding to the input learning input pattern is compared with a predetermined teacher pattern to determine an error between the two. Based on this error, the learning input pattern was learned by repeating the operation of correcting the threshold value of the unit constituting each unit group and the weight coefficient of the coupling element connecting each unit group. later, the output pattern of the output unit group corresponding to a pattern to be identified by entering the pattern to be identified to the input unit group, in the pattern matching method of comparing the stored and that pattern, each learning
Of each element group belonging to each input pattern
Based mel boundary pattern to each learning input pattern created around the respective learning input pattern, the teacher signal output of each unit of the output unit group corresponding to these <br/> boundary pattern set to 0 or a small value, the
A pattern matching method comprising: learning each boundary pattern together with each of the learning input patterns; and inputting an arbitrary pattern to the input unit group.
【請求項2】 前記各境界パターンは、対応する学習用
入力パターンに属する要素群の最大値に予め定めた値を
加算した最大境界値と、前記要素群の最小値から予め定
めた値を減算した最小境界値とを含むことを特徴とする
請求項1に記載のパターンマッチング方法。
2. The method according to claim 1, wherein each of the boundary patterns is a corresponding learning pattern .
2. The method according to claim 1, further comprising: a maximum boundary value obtained by adding a predetermined value to a maximum value of an element group belonging to the input pattern; and a minimum boundary value obtained by subtracting a predetermined value from a minimum value of the element group. The pattern matching method described in 1.
【請求項3】 識別すべきパターンが入力される入力ユ
ニット群と、 前記入力パターンに対応するパターンを出力する出力ユ
ニット群と、 前記入力ユニット群と前記出力ユニット群との間に介在
させた少なくとも1つ以上の中間ユニット群と、 これら各ユニット群を連結する結合素子と、 前記入力ユニット群に入力する複数の学習用入力パター
ンと、これらの学習用入力パターンに対応して作成し
た、前記出力ユニット群の出力パターンと対比する教師
パターンとを保持する学習信号保持部とを備え、 前記各ユニット群の各ユニットは、結合素子毎に割り当
てられた重み係数を乗じた前段のユニットの出力を加算
し、この加算値と設定されたしきい値との差を独立変数
とする入出力関数に基づく演算結果を出力し、 前記学習用入力パターンを前記入力ユニット群に入力し
て得た前記出力ユニット群の出力パターンと対応する前
記教師パターンとの誤差に基づいて、前記結合素子の重
み係数と前記しきい値との補正を繰り返して前記学習用
入力パターンを学習させたのち、任意のパターンを前記
入力ユニット群に入力してパターンマッチングを行うよ
うにしたパターンマッチング装置において、 前記学習信号保持部は、前記複数の学習用入力パターン
に基づいて、各学習用入力パターンのそれぞれに属する
要素群の各境界を定める境界パターンを前記各学習用入
力パターンの周囲に生成する境界信号合成部と、前記各
境界パターンに対応した、前記出力ユニット群の各ユニ
ットの出力と対比する教師信号を0または小さな値にす
る境界教師信号合成部とを有していることを特徴とする
パターンマッチング装置。
3. An input unit group to which a pattern to be identified is input, an output unit group that outputs a pattern corresponding to the input pattern, and at least a unit interposed between the input unit group and the output unit group. One or more intermediate unit groups, coupling elements connecting these unit groups, a plurality of learning input patterns to be input to the input unit group, and the output created in correspondence with these learning input patterns. A learning signal holding unit that holds an output pattern of the unit group and a teacher pattern to be compared with each other, wherein each unit of each unit group adds an output of a preceding unit multiplied by a weight coefficient assigned to each coupling element. And outputting an operation result based on an input / output function using the difference between the added value and the set threshold value as an independent variable, Based on an error between an output pattern of the output unit group obtained by inputting the input unit group to the corresponding teacher pattern and a correction of the weight coefficient of the coupling element and the threshold value by repeating the learning. After learning the input pattern for learning, in a pattern matching device configured to perform pattern matching by inputting an arbitrary pattern to the input unit group, the learning signal holding unit, based on the plurality of learning input patterns Belongs to each of the learning input patterns
The boundary pattern that defines each boundary of the element group
A boundary signal synthesizing unit generated around a force pattern, and a boundary teacher signal synthesizing unit that adjusts a teacher signal corresponding to each of the boundary patterns to an output of each unit of the output unit group to 0 or a small value. And a pattern matching device.
JP31962595A 1995-11-14 1995-11-14 Pattern matching method and apparatus Expired - Fee Related JP3303253B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP31962595A JP3303253B2 (en) 1995-11-14 1995-11-14 Pattern matching method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP31962595A JP3303253B2 (en) 1995-11-14 1995-11-14 Pattern matching method and apparatus

Publications (2)

Publication Number Publication Date
JPH09138785A JPH09138785A (en) 1997-05-27
JP3303253B2 true JP3303253B2 (en) 2002-07-15

Family

ID=18112378

Family Applications (1)

Application Number Title Priority Date Filing Date
JP31962595A Expired - Fee Related JP3303253B2 (en) 1995-11-14 1995-11-14 Pattern matching method and apparatus

Country Status (1)

Country Link
JP (1) JP3303253B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005352900A (en) 2004-06-11 2005-12-22 Canon Inc Device and method for information processing, and device and method for pattern recognition
JP5546317B2 (en) * 2010-03-31 2014-07-09 株式会社デンソーアイティーラボラトリ Visual inspection device, visual inspection discriminator generation device, visual inspection discriminator generation method, and visual inspection discriminator generation computer program
JP5941782B2 (en) 2012-07-27 2016-06-29 株式会社日立ハイテクノロジーズ Matching processing apparatus, matching processing method, and inspection apparatus using the same

Also Published As

Publication number Publication date
JPH09138785A (en) 1997-05-27

Similar Documents

Publication Publication Date Title
US5293456A (en) Object recognition system employing a sparse comparison neural network
US5245696A (en) Evolution and learning in neural networks: the number and distribution of learning trials affect the rate of evolution
Smelyakov et al. Braille character recognition based on neural networks
CN110070115B (en) Single-pixel attack sample generation method, device, equipment and storage medium
CN107491729B (en) Handwritten digit recognition method based on cosine similarity activated convolutional neural network
US5446829A (en) Artificial network for temporal sequence processing
JPH08227408A (en) Neural network
JP3303253B2 (en) Pattern matching method and apparatus
US6560582B1 (en) Dynamic memory processor
Klaseen et al. The functional link net in structural pattern recognition
JP3247811B2 (en) Pattern matching device
JPH05101028A (en) Integral decision method for plural feature quantity
CN113870320A (en) Pedestrian tracking monitoring method and system based on deep neural network
JPH0638200B2 (en) Dynamic neural network
JPH02165285A (en) Pattern recognition device
JP3060922B2 (en) Feature generator
JPH0492955A (en) Learning system for neural network
JPH08263660A (en) Method and device for recognizing signal and learning method and device of signal recognizing device
JPH01230164A (en) Automatic learning type neural net system
JPH10187649A (en) Neural network
JP3052520B2 (en) Pattern classification device
JP3018465B2 (en) Pattern recognition method using sparse code representation
JP2801870B2 (en) Pattern recognition device
JP2607967B2 (en) Pattern recognition method
JPH06187456A (en) Neural network image recognizing method and device therefor

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20020326

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080510

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090510

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090510

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100510

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100510

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110510

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees