JP2880383B2 - Pattern recognition apparatus and method - Google Patents

Pattern recognition apparatus and method

Info

Publication number
JP2880383B2
JP2880383B2 JP5250829A JP25082993A JP2880383B2 JP 2880383 B2 JP2880383 B2 JP 2880383B2 JP 5250829 A JP5250829 A JP 5250829A JP 25082993 A JP25082993 A JP 25082993A JP 2880383 B2 JP2880383 B2 JP 2880383B2
Authority
JP
Japan
Prior art keywords
pattern
category
feature
identification
similarity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP5250829A
Other languages
Japanese (ja)
Other versions
JPH07105372A (en
Inventor
辰夫 牧野
透 山下
正尚 和田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kawasaki Motors Ltd
Original Assignee
Kawasaki Jukogyo KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kawasaki Jukogyo KK filed Critical Kawasaki Jukogyo KK
Priority to JP5250829A priority Critical patent/JP2880383B2/en
Publication of JPH07105372A publication Critical patent/JPH07105372A/en
Application granted granted Critical
Publication of JP2880383B2 publication Critical patent/JP2880383B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は、画像や音声などの入力
パターンを、複数の予め定めた種類のカテゴリのどのカ
テゴリに属するかを識別するパターン認識装置および方
法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a pattern recognizing apparatus and method for identifying an input pattern such as an image or a sound to which one of a plurality of predetermined categories.

【0002】[0002]

【従来の技術】図10は、典型的な従来例であるパター
ン認識装置41の構成を示すブロック図である。画像や
音声などの入力パターンは、特徴抽出手段42に与えら
れる。特徴抽出手段42は、入力パターンからそのパタ
ーンを特徴づける特徴量を抽出する。特徴量とは、たと
えば画像であれば、画像パターンをより簡潔に表現し、
後述する識別に用いられる本質的な情報のことである。
抽出された特徴量を要素とする特徴ベクトルは、識別手
段43に与えられる。
2. Description of the Related Art FIG. 10 is a block diagram showing the structure of a typical conventional pattern recognition apparatus 41. An input pattern such as an image and a sound is provided to the feature extracting unit 42. The feature extracting unit 42 extracts a feature amount characterizing the pattern from the input pattern. A feature value is, for example, an image that expresses an image pattern more concisely,
This is essential information used for identification described later.
The feature vector having the extracted feature amount as an element is provided to the identification unit 43.

【0003】識別手段43は、入力された特徴ベクトル
に基づいて、前記入力パターンが複数の予め定めた種類
のカテゴリのどのカテゴリに属するかを表現するカテゴ
リベクトルを算出して出力する。識別手段43は、特徴
ベクトルとカテゴリベクトルとの関係を予め学習させた
ニューラルネットワークで実現される。算出されたカテ
ゴリベクトルは、識別結果判定手段44に与えられる。
識別結果判定手段44は、与えられたカテゴリベクトル
に基づいて、入力パターンが属するカテゴリを決定し、
識別結果として出力する。識別結果は、出力手段45に
与えられる。出力手段45は、たとえばCRT(陰極線
管)などの表示装置で実現され、識別結果を外部(操作
者)に出力(報知)する。
[0003] The identification means 43 calculates and outputs a category vector representing which of a plurality of predetermined types of categories the input pattern belongs to, based on the input feature vector. The identification means 43 is realized by a neural network in which the relationship between the feature vector and the category vector has been learned in advance. The calculated category vector is provided to the identification result determination means 44.
The identification result determination means 44 determines a category to which the input pattern belongs based on the given category vector,
Output as the identification result. The identification result is provided to the output unit 45. The output unit 45 is realized by a display device such as a CRT (cathode ray tube), and outputs (notifies) the identification result to the outside (operator).

【0004】前記識別手段43に用いられるニューラル
ネットワークとしては、たとえば、公知の技術であるバ
ックプロパゲーションニューラルネットワーク(以下、
「BPNN」と略称する)が使用される。このBPNN
については、「NATURE vol.323 9 p536-553 (Oct 1986)
Learning Representations by backpropagationerror
s」に述べられている。
The neural network used in the identification means 43 is, for example, a back propagation neural network (hereinafter, referred to as a known technique).
"BPNN") is used. This BPNN
About `` NATURE vol.323 9 p536-553 (Oct 1986)
Learning Representations by backpropagationerror
s ".

【0005】BPNNは、入力層、出力層、および1つ
または複数の中間層から成り、これらの各層は複数のノ
ード群で構成される。ニューラルネットワークによる識
別では、たとえばニューラルネットワークの出力層の各
ノードを識別させたいカテゴリに1対1で対応させた一
般的な構成の場合、出力層を構成する複数のノードの中
で最大値を出力しているノードに対応したカテゴリを識
別結果としている。
[0005] BPNN comprises an input layer, an output layer, and one or more intermediate layers, each of which is composed of a plurality of node groups. In the identification by the neural network, for example, in the case of a general configuration in which each node of the output layer of the neural network is associated with a category to be identified on a one-to-one basis, a maximum value among a plurality of nodes constituting the output layer is output. The category corresponding to the node being identified is used as the identification result.

【0006】[0006]

【発明が解決しようとする課題】しかしながら、上述の
パターン認識装置41は、入力パターンをいずれかのカ
テゴリに強制的に分類するため、識別手段43からのカ
テゴリベクトルに基づく識別結果を棄却する何らかの手
段が必要である。この点を考慮して、識別結果を棄却す
る信号識別装置が、特開平4−294444号公報に開
示されている。この信号識別装置では、識別手段を構成
するニューラルネットワークの出力層を構成する各ノー
ドの中の最大値を、予め設定した閾値と比較し、閾値を
超えたときはそのノードに対応したカテゴリを識別結果
とし、閾値以下のときには識別結果の信頼度は低いとし
て識別結果を棄却している。上記公開公報においては、
識別手段を構成するニューラルネットワークの出力を処
理し、識別結果の信頼性を判定する方法がいくつか記載
されている。
However, the pattern recognition device 41 described above forcibly classifies the input pattern into any one of the categories, so that the identification means 43 rejects the identification result based on the category vector from the identification means 43. is necessary. In consideration of this point, a signal discriminating apparatus for rejecting a discrimination result is disclosed in Japanese Patent Application Laid-Open No. 4-294444. In this signal discriminating apparatus, the maximum value among the nodes constituting the output layer of the neural network constituting the discriminating means is compared with a preset threshold, and when the threshold is exceeded, the category corresponding to the node is identified. If the result is equal to or smaller than the threshold, the reliability of the identification result is determined to be low, and the identification result is rejected. In the above publication,
Several methods are described for processing the output of the neural network constituting the identification means and determining the reliability of the identification result.

【0007】しかしながら、BPNNのようなシグモイ
ド関数を用いた層状のニューラルネットワークでは、そ
の出力値に閾値を設けて識別結果を判定することはでき
ないことが知られている。これは、たとえば「電子情報
通信学会春季大会vol6 p35 (1992)AIC情報量基準を用い
たクラスタリング形ニューロの最適化」に述べられてい
る。
However, it is known that a layered neural network using a sigmoid function such as BPNN cannot determine a discrimination result by providing a threshold value to its output value. This is described, for example, in "IEICE Spring Conference vol6 p35 (1992) Optimization of clustering neuron using AIC information criterion".

【0008】また上述のことは、実験からも確認されて
いる。図11および図12は、上述の従来技術による識
別結果の出力例を示す図である。ここでは、航空機のシ
ルエット画像から航空機の機種を識別する画像認識装置
の場合を示している。図11は未知パターン46を識別
した場合を示しており、図12は画像の一部が欠落した
機種A11のパターン47を識別した場合を示してい
る。
[0008] The above is also confirmed by experiments. FIG. 11 and FIG. 12 are diagrams showing output examples of the identification result according to the above-described conventional technology. Here, a case of an image recognition device for identifying a model of an aircraft from a silhouette image of the aircraft is shown. FIG. 11 shows a case where the unknown pattern 46 is identified, and FIG. 12 shows a case where the pattern 47 of the model A11 in which a part of the image is missing is identified.

【0009】図11において、未知パターン46の識別
結果は識別結果表示欄48に表示され、識別手段43か
らの出力であるカテゴリベクトルはカテゴリベクトル表
示欄49に表示される。表示欄49の表示内容は下記の
表1に示されている。
In FIG. 11, the identification result of the unknown pattern 46 is displayed in an identification result display column 48, and the category vector output from the identification means 43 is displayed in a category vector display column 49. The display contents of the display column 49 are shown in Table 1 below.

【0010】[0010]

【表1】 [Table 1]

【0011】未知パターン46を識別した場合、上述の
パターン識別装置41では、未知パターンとは識別せず
に、機種A9と識別している。これは、上記表1に示さ
れているように、カテゴリベクトルの要素のうち、最大
値0.997469は他の値に比べて充分大きく、また
他の数値は最大値に比べて非常に小さい値であるため、
表1に示すカテゴリベクトルに基づいて識別結果を判定
した場合、機種A9と誤って認識してしまう。
When the unknown pattern 46 is identified, the above-described pattern identification device 41 identifies the model A9 without identifying the unknown pattern. This is because, as shown in Table 1 above, among the elements of the category vector, the maximum value 0.997469 is sufficiently large compared to the other values, and the other numerical values are very small values compared to the maximum values. Because
When the identification result is determined based on the category vectors shown in Table 1, the identification result is erroneously recognized as model A9.

【0012】また図12では、画像の一部が欠落した機
種A11のパターン47を識別させている。この場合の
カテゴリベクトルは、下記の表2に示されている。
In FIG. 12, the pattern 47 of the model A11 in which a part of the image is missing is identified. The category vector in this case is shown in Table 2 below.

【0013】[0013]

【表2】 [Table 2]

【0014】図12の場合は、本来は機種A11または
未知パターンとして識別させたいが、カテゴリベクトル
の要素のうち、最大値0.984345は他の値に比べ
て充分大きく、それに比べて他の数値は非常に小さいた
め、機種A2と誤って識別している。
In the case of FIG. 12, although it is originally intended to be identified as the model A11 or an unknown pattern, among the elements of the category vector, the maximum value 0.984345 is sufficiently larger than the other values, and the other numerical values are larger than the other values. Is so small that it is incorrectly identified as model A2.

【0015】このように、カテゴリベクトルを構成する
数値のみに基づいて、絶対的にあるいは相対的に識別結
果を判定した場合であっても、最大値が他の数値に比べ
て充分大きく、かつそれに比べて他の数値が充分に小さ
い場合は、入力パターンを誤って認識・識別してしま
う。
As described above, even when the identification result is absolutely or relatively determined based only on the numerical values constituting the category vector, the maximum value is sufficiently larger than the other numerical values, and If the other numerical values are sufficiently small, the input pattern is erroneously recognized and identified.

【0016】パターン識別装置において、未知パターン
を棄却できる能力は、実用的なパターン認識の意味から
も重要である。特に、上述したように入力パターンが画
像であったり、音声などであったりする場合には、使用
範囲を限定しない限り、どのような入力がなされるかが
わからず、上記未知パターンの棄却能力は非常に重要で
ある。
The ability to reject unknown patterns in a pattern identification device is important from the viewpoint of practical pattern recognition. In particular, as described above, when the input pattern is an image or a sound, as long as the use range is not limited, it is not known what input is made, and the rejection ability of the unknown pattern is not recognized. Very important.

【0017】このように、従来のパターン識別装置で
は、どのカテゴリにも属しない未知パターン、部分的に
画像が欠落したパターン、クラッタなどの大きなノイズ
が重畳したパターンなどに起因する誤認識が非常に多く
発生し、識別精度が著しく劣化することが問題となって
いる。
As described above, in the conventional pattern identification apparatus, an erroneous recognition caused by an unknown pattern that does not belong to any category, a pattern in which an image is partially missing, a pattern in which large noise such as clutter is superimposed, or the like is extremely large. This often occurs, and there is a problem that the identification accuracy is significantly deteriorated.

【0018】本発明の目的は、上述の問題点を解決し、
パターン識別の誤認識率を低減し、識別精度の高いパタ
ーン認識装置および方法を提供することである。
An object of the present invention is to solve the above-mentioned problems,
An object of the present invention is to provide a pattern recognition apparatus and method that reduce the erroneous recognition rate of pattern identification and have high identification accuracy.

【0019】[0019]

【課題を解決するための手段】本発明は、入力パターン
を複数の予め定めた種類のカテゴリに識別する識別手段
と、前記識別手段からの出力カテゴリに基づいて、入力
パターンを想起する想起手段と、前記入力パターンと前
記想起手段からのパターンとを比較してパターンの類似
度を算出する算出手段と、前記算出手段からの類似度を
レベル弁別し、類似度が高いとき、前記識別手段からの
出力カテゴリを正しいものとして出力する判定手段とを
含むことを特徴とするパターン認識装置である。
According to the present invention, there is provided identification means for identifying an input pattern into a plurality of predetermined types of categories, and recall means for recalling an input pattern based on an output category from the identification means. A calculating means for comparing the input pattern and the pattern from the recall means to calculate a pattern similarity; and a level discrimination of the similarity from the calculating means. A pattern recognition device comprising: a determination unit that outputs a correct output category.

【0020】また本発明は、入力パターンから、パター
ンを特徴づける特徴量を要素とする特徴ベクトルを算出
する特徴抽出手段と、前記特徴抽出手段からの特徴ベク
トルに基づいて、入力パターンが複数の予め定めた種類
のカテゴリのどのカテゴリに属するかを表現するカテゴ
リベクトルを算出する識別手段と、前記識別手段からの
カテゴリベクトルに基づいて、特徴ベクトルを算出する
特徴想起手段と、前記特徴抽出手段からの特徴ベクトル
と、前記特徴想起手段からの特徴ベクトルとに基づい
て、両ベクトルの類似度を算出する算出手段と、前記算
出手段からの類似度をレベル弁別し、類似度が高いと
き、前記識別手段からのカテゴリベクトルによって表現
されるカテゴリを識別結果として出力する判定手段とを
含むことを特徴とするパターン認識装置である。
According to the present invention, there is provided a feature extracting means for calculating a feature vector having a feature amount characterizing a pattern from an input pattern, and a plurality of input patterns based on the feature vector from the feature extracting means. An identification unit that calculates a category vector representing which category of the determined type of category belongs; a feature recalling unit that calculates a feature vector based on the category vector from the identification unit; A calculating means for calculating the similarity between the two vectors based on the feature vector and the feature vector from the feature recalling means; and a level discrimination of the similarity from the calculating means. And determining means for outputting a category represented by a category vector from the object as an identification result. It is a turn-recognition device.

【0021】また本発明は、入力パターンを複数の予め
定めた種類のカテゴリに識別するステップと、識別した
カテゴリに基づいて、入力パターンを想起するステップ
と、前記入力パターンと想起されたパターンとを比較し
てパターンの類似度を算出するステップと、算出された
類似度をレベル弁別し、類似度が高いとき識別したカテ
ゴリを正しいものとして出力するステップとを含むこと
を特徴とするパターン認識方法である。
The present invention also provides a step of identifying an input pattern into a plurality of predetermined categories, a step of recalling the input pattern based on the identified category, and a step of recognizing the input pattern and the recalled pattern. A step of comparing and calculating a pattern similarity, and a step of discriminating the calculated similarity to a level and outputting a category identified as being correct when the similarity is high as a correct category. is there.

【0022】[0022]

【作用】本発明に従えば、入力パターンは識別手段によ
って複数の予め定めた種類のカテゴリに識別され、出力
カテゴリは想起手段および判定手段に与えられる。想起
手段では、出力カテゴリに基づいて入力パターンが想起
され、この想起された入力パターンは算出手段に与えら
れる。算出手段では、入力パターンと前記想起手段によ
って想起された入力パターンとを比較し、類似度が算出
され、算出された類似度は判定手段に与えられる。判定
手段は、算出された類似度をレベル弁別し、類似度が高
いとき、前記識別手段からの出力カテゴリを正しいもの
として出力する。
According to the present invention, the input pattern is identified by the identification means into a plurality of predetermined types of categories, and the output category is provided to the recall means and the determination means. The recall means recalls an input pattern based on the output category, and the recalled input pattern is provided to the calculation means. The calculating means compares the input pattern with the input pattern recalled by the recollecting means, calculates a similarity, and provides the calculated similarity to the determining means. The determining means performs level discrimination of the calculated similarity, and when the similarity is high, outputs the output category from the identification means as correct.

【0023】また本発明に従えば、パターンが入力され
ると、特徴抽出手段によって入力パターンからパターン
を特徴づける特徴量を要素とする特徴ベクトルを算出す
る。特徴ベクトルは、識別手段および算出手段に与えら
れる。識別手段では、与えられる特徴ベクトルに基づい
て、入力パターンが複数の予め定めた種類のカテゴリの
どのカテゴリに属するかを表現するカテゴリベクトルを
算出し、特徴想起手段と判定手段に与える。特徴想起手
段では、前記識別手段から与えられるカテゴリベクトル
に基づいて、特徴ベクトルが算出され、算出された特徴
ベクトルは算出手段に与えられる。算出手段では、前記
特徴抽出手段からの特徴ベクトルと、前記特徴想起手段
からの特徴ベクトルとに基づいて、両ベクトルの類似度
が算出され、算出された類似度は判定手段に与えられ
る。判定手段では、算出された類似度をレベル弁別し、
類似度が高いときは前記識別手段から与えられるカテゴ
リベクトルによって表現されるカテゴリを正しい識別結
果として出力する。
Further, according to the present invention, when a pattern is input, a feature vector is calculated by the feature extracting means, using a feature amount characterizing the pattern from the input pattern as an element. The feature vector is provided to the identification means and the calculation means. The identifying means calculates a category vector representing which of the plurality of predetermined types of categories the input pattern belongs to based on the given feature vector, and supplies the category vector to the feature recalling means and the determining means. In the feature recall means, a feature vector is calculated based on the category vector given from the identification means, and the calculated feature vector is given to the calculation means. The calculating unit calculates the similarity between the two vectors based on the feature vector from the feature extracting unit and the feature vector from the feature recalling unit, and the calculated similarity is provided to the determining unit. In the determining means, the calculated similarity is level-discriminated,
When the degree of similarity is high, the category represented by the category vector given from the identification means is output as a correct identification result.

【0024】さらに本発明に従えば、入力パターンは複
数の予め定めた種類のカテゴリに識別され、識別された
カテゴリに基づいて入力パターンが想起される。続いて
入力パターンと想起されたパターンとを比較してパター
ンの類似度が算出され、算出された類似度をレベル弁別
し、類似度が高いときは識別したカテゴリを正しいもの
として出力する。
Further, according to the present invention, the input pattern is identified into a plurality of predetermined types of categories, and the input pattern is recalled based on the identified category. Subsequently, the similarity of the pattern is calculated by comparing the input pattern with the recalled pattern, and the calculated similarity is level-discriminated. When the similarity is high, the identified category is output as a correct category.

【0025】[0025]

【実施例】図1は、本発明の一実施例であるパターン認
識装置1の構成を示すブロック図である。入力パターン
は、特徴抽出手段2に与えられる。特徴抽出手段2は、
入力パターンから識別に用いる特徴量を抽出し、この特
徴量を要素とする特徴ベクトルを出力する。出力された
特徴ベクトルは、識別手段3および類似度算出手段6に
与えられる。識別手段3は、たとえばニューラルネット
ワークを含んで構成され、特徴ベクトルをカテゴリベク
トルに変換して出力するとともに、後述する補正によっ
て得られる補正カテゴリベクトルを出力する。本実施例
では、特徴ベクトルは6要素から成り、カテゴリベクト
ルおよび補正カテゴリベクトルは11要素から成る。カ
テゴリベクトルは、識別結果判定手段4に与えられ、補
正カテゴリベクトルは識別結果判定手段4および特徴想
起手段5に与えられる。
FIG. 1 is a block diagram showing a configuration of a pattern recognition apparatus 1 according to one embodiment of the present invention. The input pattern is provided to the feature extracting means 2. The feature extraction means 2
A feature value used for identification is extracted from the input pattern, and a feature vector having the feature value as an element is output. The output feature vector is provided to the identification unit 3 and the similarity calculation unit 6. The identification unit 3 is configured to include, for example, a neural network, converts a feature vector into a category vector and outputs the category vector, and outputs a corrected category vector obtained by a correction described later. In this embodiment, the feature vector is composed of six elements, and the category vector and the corrected category vector are composed of 11 elements. The category vector is provided to the identification result determining means 4, and the corrected category vector is provided to the identification result determining means 4 and the feature recalling means 5.

【0026】特徴想起手段5は、与えられた補正カテゴ
リベクトルに基づいて、当該補正カテゴリベクトルによ
って示されるカテゴリに属する標準的な特徴ベクトルを
想起する。想起された特徴ベクトルは、類似度算出手段
6に与えられる。類似度算出手段6は、前記特徴抽出手
段2からの特徴ベクトルと、前記特徴想起手段5からの
特徴ベクトルとに基づいて、両ベクトルの類似度Lを算
出する。算出された類似度Lは、識別結果判定手段4に
与えられる。
The feature recalling unit 5 recalls a standard feature vector belonging to the category indicated by the correction category vector based on the given correction category vector. The recalled feature vector is provided to the similarity calculating means 6. The similarity calculating means 6 calculates the similarity L between the two based on the feature vector from the feature extracting means 2 and the feature vector from the feature recalling means 5. The calculated similarity L is provided to the identification result determination means 4.

【0027】識別結果判定手段4は、前記識別手段3か
らのカテゴリベクトルと、前記類似度算出手段6からの
類似度Lとに基づいて、識別結果を判定して出力する。
判定は、類似度Lの大小に基づいて実行され、類似度L
が高いときだけカテゴリベクトルによって示される特定
のカテゴリを識別結果として出力する。識別結果は、出
力手段7に与えられる。出力手段7は、たとえばCRT
などの表示装置および音声合成装置を含んで構成され、
識別結果を外部(操作者)に出力(報知)する。
The discrimination result judging means 4 judges and outputs the discrimination result based on the category vector from the discriminating means 3 and the similarity L from the similarity calculating means 6.
The determination is performed based on the magnitude of the similarity L, and the similarity L
Is output as a classification result only when the value of is high. The identification result is provided to the output means 7. The output means 7 is, for example, a CRT
It is configured including a display device and a voice synthesis device such as,
The identification result is output (notified) to the outside (operator).

【0028】このように、入力パターンから抽出された
特徴ベクトルと、識別手段3によって変換・補正された
補正カテゴリベクトルに基づいて想起された特徴ベクト
ルとに基づいて類似度Lを算出し、識別手段3からのカ
テゴリベクトルが信頼できるか否かを判定して最終的な
識別結果を出力するようにし、これによって誤認識を防
いでいる。
As described above, the similarity L is calculated based on the feature vector extracted from the input pattern and the feature vector recalled based on the corrected category vector converted and corrected by the identification means 3, and the similarity L is calculated. It is determined whether or not the category vector from No. 3 is reliable and a final identification result is output, thereby preventing erroneous recognition.

【0029】まず特徴抽出手段2について説明する。前
述したように、特徴抽出手段2は、入力パターンから識
別に用いる特徴量を抽出して、特徴ベクトルとして出力
する。ここで画像の特徴量について説明する。画像の特
徴とは、画像パターンをより簡潔に表現し、識別にとっ
て本質的な情報のことである。画像の特徴は、画像を構
成する部分的な画像パターンである1次特徴(エッジパ
ターン、領域パターンなど)と、1次特徴から計測され
る2次特徴とに分けられる。たとえば、端点、分岐点な
どは1次特徴であり、それらの端点および分岐点などの
位置、個数などは2次特徴である。本実施例では2次特
徴を識別手段3に入力している。
First, the feature extracting means 2 will be described. As described above, the feature extracting unit 2 extracts a feature amount used for identification from the input pattern and outputs the feature amount as a feature vector. Here, the feature amount of the image will be described. Image features are information that more simply represents an image pattern and is essential for identification. Image features are divided into primary features (edge patterns, area patterns, etc.), which are partial image patterns constituting the image, and secondary features measured from the primary features. For example, end points, branch points, and the like are primary features, and the positions, numbers, and the like of these end points and branch points are secondary features. In the present embodiment, the secondary features are input to the identification means 3.

【0030】実際の画像認識に使用される2次特徴とし
ては、領域パターン(面)の2次特徴量が用いられる場
合が多い。2次特徴量の一例としては、面積、周囲長、
外接長方形の幅および高さ、コンパクト比(=縦横
比)、複雑度(=(周囲長)2/面積)、領域内の濃度
平均および濃度分散、濃度ヒストグラム、モーメント、
フーリエ記述子(偏角関数のフーリエスペクトル)、テ
クスチャ特徴(濃度値、濃度勾配の大きさ、方向の平均
値や分散、2次元フーリエ変換の空間周波数スペクトル
による特徴量、共起行列に基づく特徴量など)、位相幾
何学的特徴(穴の数、オイラー数など)などが挙げられ
る。
As a secondary feature used for actual image recognition, a secondary feature amount of an area pattern (plane) is often used. Examples of the secondary features include area, perimeter,
Width and height of the circumscribed rectangle, compact ratio (= aspect ratio), complexity (= (perimeter) 2 / area), density average and density variance in the area, density histogram, moment,
Fourier descriptor (Fourier spectrum of declination function), texture feature (density value, magnitude of density gradient, mean value and variance of direction, feature quantity based on spatial frequency spectrum of two-dimensional Fourier transform, feature quantity based on co-occurrence matrix ), Topological features (number of holes, Euler number, etc.).

【0031】本実施例のパターン認識装置1では、画像
認識に有効と考えられる特徴量の1つとして、不変モー
メント特徴を用いる。不変モーメントは、1962年に
Huによって提案された特徴量であり、広く用いられて
いる。
In the pattern recognition device 1 of the present embodiment, an invariant moment feature is used as one of the feature amounts considered to be effective for image recognition. The invariant moment is a feature amount proposed by Hu in 1962, and is widely used.

【0032】不変モーメントの最大の性質は、画像パタ
ーンの並進、伸縮、平面内での回転に対して不変なこと
であり、これらの幾何学的変換に依存しない画像認識が
可能となる。不変モーメントについては、たとえば「NA
ECON vol.2 p743-749 (May 1991) Effect of noise in
moment invariant neural network aircraftclassifica
tion」に述べられている。以下、不変モーメント特徴の
導出について説明する。
The greatest property of the invariant moment is that it is invariant to translation, expansion and contraction, and rotation in a plane of the image pattern, and enables image recognition independent of these geometric transformations. For the invariant moment, for example, "NA
ECON vol.2 p743-749 (May 1991) Effect of noise in
moment invariant neural network aircraftclassifica
tion ”. Hereinafter, the derivation of the invariant moment feature will be described.

【0033】不変モーメント特徴の原型となるモーメン
ト特徴は、画像の濃度値をf(x,y)で表すと次式で
与えられる。
The moment feature, which is a prototype of the invariant moment feature, is given by the following equation when the density value of the image is represented by f (x, y).

【0034】[0034]

【数1】 (Equation 1)

【0035】ここでp,qは0以上の整数 位置不変性は、式(1)を重心位置からのモーメント式
に変更することで得られる。
Here, p and q are integers equal to or greater than 0. Positional invariance can be obtained by changing equation (1) to a moment equation from the position of the center of gravity.

【0036】[0036]

【数2】 (Equation 2)

【0037】ただしxa=m10/m00,ya=m01/m
00 サイズ不変性は、式(2)を正規化することで得られ
る。
Where xa = m 10 / m 00 , ya = m 01 / m
00 size invariance is obtained by normalizing equation (2).

【0038】 ηpq = μpq/μ00 (p+q+2)/2 …(3) 回転不変性は、低次の成分を組合わせることで得られ、
最終的な不変モーメント特徴は次式で表される。
Η pq = μ pq / μ 00 (p + q + 2) / 2 (3) The rotation invariance is obtained by combining low-order components,
The final invariant moment feature is given by:

【0039】 I1 = η20+η02 …(4) I2 =(η20−η022+4η11 2 …(5) I3 =(η30−3η122+(η03−3η212 …(6) I4 =(η30+η122+(η03+η212 …(7) I5 =(η30−3η12)(η30+η12){(η30+η122−3(η21+ η032}+(η03−3η21)(η03+η21){(η03+η212 −3(η12+η302} …(8) I6 =(η20−η02){(η30+η122−(η03+η212} +4η11(η30+η12)(η03+η21) …(9) I7 =(3η21−η03)(η30+η12){(η30+η122−3(η03+ η212}−(3η12−η30)(η03+η21){(η03+η212 −3(η12+η302} …(10) 7次以降の高次成分は、非常に小さいので導かれていな
い。本実施例では上記不変モーメント特徴のうち、I1
〜I6までを用い、これらの特徴量を要素とするベクト
ルを特徴ベクトルと称する。
[0039] I1 = η 20 + η 02 ... (4) I2 = (η 20 -η 02) 2 + 4η 11 2 ... (5) I3 = (η 30 -3η 12) 2 + (η 03 -3η 21) 2 ... (6) I4 = (η 30 + η 12) 2 + (η 03 + η 21) 2 ... (7) I5 = (η 30 -3η 12) (η 30 + η 12) {(η 30 + η 12) 2 -3 ( η 21 + η 03) 2} + (η 03 -3η 21) (η 03 + η 21) {(η 03 + η 21) 2 -3 (η 12 + η 30) 2} ... (8) I6 = (η 20 - η 02 ) {(η 30 + η 12 ) 2-03 + η 21 ) 2 } + 4η 1130 + η 12 ) (η 03 + η 21 ) (9) I 7 = (3η 2103 ) (η 30 + Η 12 ) {(η 30 + η 12 ) 2 -3 (η 03 + η 21 ) 2 } − (3η 1230 ) (η 03 + η 21 ) {(η 03 + η 21 ) 2-312 + η 30 ) 2 … (10) Higher order components after the 7th order are not derived because they are very small. In this embodiment, among the invariant moment features, I1
To I6, and a vector having these features as elements is referred to as a feature vector.

【0040】次に、識別手段3および特徴想起手段5に
ついて説明する。本実施例においては、識別手段3およ
び特徴想起手段5は、共にニューラルネットワークを含
んで構成されている。以下、図2を参照してニューラル
ネットワークについて説明する。
Next, the identification means 3 and the feature recall means 5 will be described. In the present embodiment, both the identification means 3 and the feature recall means 5 include a neural network. Hereinafter, the neural network will be described with reference to FIG.

【0041】図2は、ニューラルネットワーク11の概
略的構成を示す図である。ニューラルネットワーク11
は、上述のBPNNであり、入力層12、中間層13お
よび出力層14とで構成される。入力層12は、複数の
ノードNI1〜NImで構成される。中間層13は、1
または複数の層構造であり、各層はそれぞれ複数のノー
ドNMで構成される。出力層14は、複数のノードNO
1〜NOnで構成される。前記入力層12および出力層
14を構成する各ノードの数は、入力される数値の数お
よび出力すべき数値の数に対応して決定される。本実施
例では特徴ベクトルは6つの要素から成り、またカテゴ
リベクトルは11の要素から成る。したがって、識別手
段3にニューラルネットワーク11を用いる場合、入力
層12は6つのノードNI1〜NI6で構成され、出力
層14は11個のノードNO1〜NO11で構成され
る。また特徴想起手段5にニューラルネットワーク11
を用いた場合、入力層12は11個のノードNI1〜N
I11で構成され、出力層14は6個のノードNO1〜
NO6で構成される。本実施例では中間層13は1層と
し、構成するノードの数は経験的に10とした。
FIG. 2 is a diagram showing a schematic configuration of the neural network 11. Neural network 11
Is the above-described BPNN, which is composed of an input layer 12, an intermediate layer 13, and an output layer 14. The input layer 12 includes a plurality of nodes NI1 to NIm. The mid layer 13
Alternatively, each of the layers has a plurality of nodes NM. The output layer 14 includes a plurality of nodes NO.
1 to NOn. The number of each node constituting the input layer 12 and the output layer 14 is determined according to the number of input numerical values and the number of numerical values to be output. In this embodiment, the feature vector is composed of six elements, and the category vector is composed of 11 elements. Therefore, when the neural network 11 is used for the identification means 3, the input layer 12 is composed of six nodes NI1 to NI6, and the output layer 14 is composed of eleven nodes NO1 to NO11. Neural network 11 is used as feature recalling means 5.
Is used, the input layer 12 has 11 nodes NI1 to NI
The output layer 14 includes six nodes NO1 to NO1.
It is composed of NO6. In this embodiment, the intermediate layer 13 is a single layer, and the number of nodes constituting the intermediate layer 13 is empirically set to ten.

【0042】図3は、識別手段3の機能を説明するため
の図である。識別手段3は、特徴ベクトル(If1,I
f2,…If6)が入力されると、カテゴリベクトル
(C1,C2,…,C11)を出力する。識別手段3を
構成するニューラルネットワークは、予め特徴ベクトル
とカテゴリベクトルとの関係を学習させてある。カテゴ
リベクトルは、識別したいカテゴリをニューラルネット
ワークの出力層のノードの状態で表現したものである。
出力層のノードと識別したいカテゴリとを1対1に対応
させている。識別手段3を構成するニューラルネットワ
ークの学習は、たとえば出力層の4番目のノードに対応
したカテゴリを学習させるときは、特徴ベクトルとして
下記の表3に示すベクトルを与えるとともに、教師信号
として下記の表4に示されるカテゴリベクトルを与え
る。
FIG. 3 is a diagram for explaining the function of the identification means 3. The identification means 3 generates the feature vector (If1, If1
When f2,... If6) are input, category vectors (C1, C2,..., C11) are output. The neural network constituting the identification means 3 has learned in advance the relationship between the feature vector and the category vector. The category vector expresses the category to be identified in the state of the node of the output layer of the neural network.
The output layer nodes are associated with the categories to be identified on a one-to-one basis. In learning the neural network constituting the identification means 3, for example, when learning the category corresponding to the fourth node in the output layer, the vectors shown in Table 3 below are given as the feature vectors, and the following tables are given as the teacher signals. The category vector shown in FIG.

【0043】[0043]

【表3】 [Table 3]

【0044】[0044]

【表4】 [Table 4]

【0045】図4は、特徴想起手段5の機能を説明する
ための図である。特徴想起手段5は、カテゴリベクトル
(C1,C2,…,C11)が入力されると、特徴ベク
トル(Of1,Of2,…,Of6)を出力する。特徴
想起手段5を構成するニューラルネットワークは、予め
カテゴリベクトルと特徴ベクトルとの関係を学習させて
ある。ニューラルネットワークの学習は、カテゴリベク
トルとして下記の表5に示すベクトルを与えるととも
に、教師信号として下記の表6に示される特徴ベクトル
を与えることによって実現される。
FIG. 4 is a diagram for explaining the function of the feature recalling means 5. When the category vectors (C1, C2,..., C11) are input, the feature recalling unit 5 outputs the feature vectors (Of1, Of2,..., Of6). The neural network constituting the feature recalling means 5 has learned the relationship between the category vector and the feature vector in advance. Learning of the neural network is realized by providing the vectors shown in Table 5 below as category vectors and providing the feature vectors shown in Table 6 below as teacher signals.

【0046】[0046]

【表5】 [Table 5]

【0047】[0047]

【表6】 [Table 6]

【0048】図5は、識別結果判定手段4の概略的構成
を示すブロック図である。識別結果判定手段4は、処理
手段21、レベル弁別手段22および基準値出力手段2
3を含んで構成される。処理手段21は、識別手段3か
ら与えられる補正カテゴリベクトルを、前記レベル弁別
手段22からの弁別結果に基づいて処理した後、最終的
な識別結果として出力する。識別結果には、補正前のカ
テゴリベクトルが含まれる。レベル弁別手段22は、類
似度算出手段6からの類似度Lと、基準値出力手段23
からの予め定める基準値とをレベル弁別し、類似度Lが
大きい場合(類似する度合が大きい場合)は識別結果が
正しいことを表す信号を処理手段21に出力する。
FIG. 5 is a block diagram showing a schematic configuration of the identification result determination means 4. The identification result determination means 4 includes a processing means 21, a level discrimination means 22, and a reference value output means 2.
3 is included. The processing means 21 processes the corrected category vector provided from the identification means 3 based on the result of the discrimination from the level discrimination means 22, and outputs the result as the final identification result. The classification result includes the category vector before correction. The level discriminating means 22 includes a similarity L from the similarity calculating means 6 and a reference value output means 23.
And when the similarity L is large (when the degree of similarity is large), a signal indicating that the identification result is correct is output to the processing means 21.

【0049】続いて類似度算出手段6について説明す
る。類似度算出手段6は、特徴抽出手段2によって抽出
された特徴ベクトルと、特徴想起手段5によって想起さ
れた特徴ベクトルとの類似度Lを算出する。類似度Lと
は、2つのベクトルがどれくらい近似しているかを表す
度合であり、種々の計算方法が考えられる。したがっ
て、計算方法によって、類似度Lの値が大きければ近似
している場合と、類似度Lの値が小さければ近似してい
る場合とがある。類似度Lは、たとえば下記の数式(1
1)に従って算出される。
Next, the similarity calculating means 6 will be described. The similarity calculating unit 6 calculates a similarity L between the feature vector extracted by the feature extracting unit 2 and the feature vector recalled by the feature recalling unit 5. The similarity L is a degree indicating how close two vectors are, and various calculation methods are conceivable. Therefore, depending on the calculation method, there are cases where the approximation is performed when the value of the similarity L is large, and cases where the approximation is performed when the value of the similarity L is small. The similarity L is calculated, for example, by the following equation (1)
It is calculated according to 1).

【0050】[0050]

【数3】 (Equation 3)

【0051】ただし、fmi=min(│Ifi│,│
Ofi│) 上記類似度Lは、本願発明者が任意に作成した評価関数
である。この関数は、特徴ベクトルの各成分の相対誤差
の総和を示している。上記式(11)において、fmi=
0のときはその項は無視して計算する。
Where fmi = min (│Ifi│, │
Ofi |) The similarity L is an evaluation function arbitrarily created by the present inventor. This function indicates the sum of the relative errors of the components of the feature vector. In the above equation (11), fmi =
When it is 0, the term is ignored and calculated.

【0052】たとえば、(If1,If2,If3,I
f4,If5,If6)=(1,2,3,4,5,6)
と、(Of1,Of2,Of3,Of4,Of5,Of
6)=(2,1,3,2,0,2)との類似度Lは、
For example, (If1, If2, If3, I3
f4, If5, If6) = (1, 2, 3, 4, 5, 6)
And (Of1, Of2, Of3, Of4, Of5, Of
6) = Similarity L to (2,1,3,2,0,2) is

【0053】[0053]

【数4】 (Equation 4)

【0054】となる。Is as follows.

【0055】類似度Lとしては、下記数式(12)によ
って算出される類似度Laを用いてもよいし、下記の数
式(13)によって算出されるユークリッド距離Lbを
用いてもよいし、また下記の数式(14)によって算出
される内積Lcを用いてもよい。
As the similarity L, the similarity La calculated by the following equation (12) may be used, the Euclidean distance Lb calculated by the following equation (13) may be used, or The inner product Lc calculated by the equation (14) may be used.

【0056】[0056]

【数5】 (Equation 5)

【0057】 Lb={(If1−Of1)2+(If2−Of2)2+(If3−Of3)2 +(If4−Of4)2+(If5−Of5)2+(If6−Of6)21/2 …(13) Lc=If1・Of1+If2・Of2+If3・Of3+If4・Of4 +If5・Of5+If6・Of6 …(14) さらに類似度Lとして、たとえばマンハッタン距離、角
度などを用いてもよい。
Lb = {(If1-Of1) 2 + (If2-Of2) 2 + (If3-Of3) 2 + (If4-Of4) 2 + (If5-Of5) 2 + (If6-Of6) 2 } 1 / 2 ... (13) Lc = If1.Of1 + If2.Of2 + If3.Of3 + If4.Of4 + If5.Of5 + If6.Of6 (14) Further, as the similarity L, for example, a Manhattan distance or an angle may be used.

【0058】図6は、出力手段7の出力例を示す図であ
る。出力手段7を構成する表示装置の表示画面が図6に
示されている。出力手段7には、入力パターンとして航
空機のシルエット画像であるパターン31が表示され、
パターン31の識別結果が識別結果表示欄32に表示さ
れるとともに、前記識別手段3から出力されるカテゴリ
ベクトルと、カテゴリベクトルの各要素に対応するカテ
ゴリである機種名とがカテゴリベクトル表示欄33に表
示される。パターン認識装置1の使用者は、出力手段7
の出力結果を見ることによって入力パターンの識別結果
を知ることができる。音声合成装置によって識別結果を
音響化して出力してもよい。
FIG. 6 is a diagram showing an output example of the output means 7. FIG. 6 shows a display screen of a display device constituting the output means 7. On the output means 7, a pattern 31 which is a silhouette image of the aircraft is displayed as an input pattern.
The identification result of the pattern 31 is displayed in the identification result display column 32, and the category vector output from the identification means 3 and the model name which is a category corresponding to each element of the category vector are displayed in the category vector display column 33. Is displayed. The user of the pattern recognition device 1 can use the output unit 7
By observing the output result of, the identification result of the input pattern can be known. The identification result may be output as sound by a speech synthesizer.

【0059】図7は、パターン認識装置1の動作を説明
するフローチャートである。ここでは類似度Lとしてベ
クトルのユークリッド距離Lbを用いた場合を説明す
る。ステップa1では、特徴抽出手段2によって入力パ
ターンから特徴量が抽出され、特徴ベクトルが算出され
る。ここでは、たとえば下記の表7に示される入力特徴
ベクトルが算出された場合を想定して説明する。
FIG. 7 is a flowchart for explaining the operation of the pattern recognition device 1. Here, a case where the Euclidean distance Lb of a vector is used as the similarity L will be described. In step a1, the feature amount is extracted from the input pattern by the feature extraction means 2, and a feature vector is calculated. Here, description will be made assuming, for example, a case where the input feature vectors shown in Table 7 below are calculated.

【0060】[0060]

【表7】 [Table 7]

【0061】ステップa2では、識別手段3を構成する
ニューラルネットワークによってカテゴリベクトルが算
出される。ここでは、下記の表8に示すカテゴリベクト
ルが算出されたものとする。
In step a2, a category vector is calculated by the neural network constituting the identification means 3. Here, it is assumed that the category vectors shown in Table 8 below have been calculated.

【0062】ステップa3では、識別手段3においてニ
ューラルネットワークによって算出されたカテゴリベク
トルの中から最大の値を持つカテゴリを検索する。これ
は、カテゴリベクトルの各要素の値を相互に比較するこ
とで簡単に見つけることができる。検索後、表8に示す
ように、最大カテゴリに対応する値を1.0とし、他の
値を0.0とした補正カテゴリベクトルを求める。
In step a3, the category having the maximum value is searched from the category vectors calculated by the neural network in the identification means 3. This can be easily found by comparing the values of the elements of the category vector with each other. After the search, as shown in Table 8, a corrected category vector in which the value corresponding to the maximum category is set to 1.0 and other values are set to 0.0 is obtained.

【0063】[0063]

【表8】 [Table 8]

【0064】ステップa4では、識別手段3から出力さ
れる補正カテゴリベクトルを特徴想起手段5に与えるこ
とによって、検索された最大カテゴリの標準的な特徴ベ
クトルを想起する。ここでは前記表7に示される想起特
徴ベクトルが想起されたものとする。
In step a4, the corrected feature vector output from the discriminating means 3 is given to the feature recalling means 5 to recall a standard feature vector of the searched maximum category. Here, it is assumed that the recall feature vector shown in Table 7 has been recalled.

【0065】ステップa5では、想起した特徴ベクトル
と算出した特徴ベクトルとの類似度であるユークリッド
距離Lbが算出される。
In step a5, the Euclidean distance Lb, which is the similarity between the recalled feature vector and the calculated feature vector, is calculated.

【0066】ステップa6では、識別結果判定手段4が
備えるレベル弁別手段22において類似度のレベル弁別
が行われる。すなわち算出された距離Lbが予め定める
閾値以下であるかどうかが判断される。判断が肯定の場
合はステップa7に進み、判断が否定の場合はステップ
a8に進む。
At step a6, the level discrimination means 22 provided in the discrimination result judgment means 4 discriminates the level of similarity. That is, it is determined whether the calculated distance Lb is equal to or smaller than a predetermined threshold. When the determination is affirmative, the process proceeds to step a7, and when the determination is negative, the process proceeds to step a8.

【0067】ステップa7では、距離Lbが閾値以下の
場合であるので、想起した標準的な特徴ベクトルと算出
した特徴ベクトルとは類似する度合が高く、ニューラル
ネットワークによる識別結果を信頼できるものと判断し
て、最大カテゴリを識別結果として出力する。すなわち
前記表8に示されるカテゴリベクトルに基づいて、前記
の表8に示す識別結果を出力する。
In step a7, since the distance Lb is equal to or less than the threshold value, the recalled standard feature vector and the calculated feature vector have a high degree of similarity, and it is determined that the identification result by the neural network is reliable. And outputs the maximum category as the identification result. That is, based on the category vectors shown in Table 8, the identification results shown in Table 8 are output.

【0068】ステップa8では、距離Lbが閾値を超え
た場合であり、想起した標準的な特徴ベクトルと算出し
た特徴ベクトルとは類似する度合が低く、ニューラルネ
ットワークによる識別結果は信頼できないと判断して、
識別結果を棄却し、未知パターンとしての識別結果を出
力する。
In step a8, the case where the distance Lb exceeds the threshold value, the similarity between the recalled standard feature vector and the calculated feature vector is low, and it is determined that the identification result by the neural network is not reliable. ,
Reject the identification result and output the identification result as an unknown pattern.

【0069】たとえば、下記の表9に示される入力特徴
ベクトルが抽出されて識別手段3に入力された場合、識
別手段3からは表10に示されるカテゴリベクトルおよ
び補正カテゴリベクトルが出力される。表10に示され
る補正カテゴリベクトルを特徴想起手段5に与えること
によって表9に示される想起特徴ベクトルが想起され
る。この場合、表9に示される入力特徴ベクトルと想起
特徴ベクトルとの類似する度合は低いため、識別結果判
定手段4は識別手段3の識別結果を棄却し、表10に示
される識別結果を出力する。
For example, when an input feature vector shown in Table 9 below is extracted and input to the identification means 3, the identification means 3 outputs a category vector and a correction category vector shown in Table 10. By giving the correction category vector shown in Table 10 to the feature recalling means 5, the recall feature vector shown in Table 9 is recalled. In this case, since the degree of similarity between the input feature vector and the recall feature vector shown in Table 9 is low, the identification result determination unit 4 rejects the identification result of the identification unit 3 and outputs the identification result shown in Table 10. .

【0070】[0070]

【表9】 [Table 9]

【0071】[0071]

【表10】 [Table 10]

【0072】ここで、表10に示されるカテゴリベクト
ルに対して、前述の公開公報に開示されている棄却方法
を適用した場合、最大値0.997383が他の数値に
比べて充分大きいため、識別結果は棄却されずに、カテ
ゴリC9を識別結果として出力し、誤認識が発生する。
しかしながら、本実施例では、当該識別結果は棄却さ
れ、誤認識は発生しない。
Here, when the rejection method disclosed in the above-mentioned publication is applied to the category vectors shown in Table 10, the maximum value 0.997383 is sufficiently large as compared with other numerical values. The result is not rejected, the category C9 is output as the identification result, and erroneous recognition occurs.
However, in this embodiment, the identification result is rejected, and no erroneous recognition occurs.

【0073】ステップa9では、出力手段7によって識
別結果が出力される。識別結果の出力は、表示装置への
表示および音声合成装置による発声などによって実現さ
れる。
In step a9, the output means 7 outputs the identification result. The output of the identification result is realized by display on a display device, utterance by a voice synthesis device, and the like.

【0074】図8および図9は、パターン認識装置1で
識別結果を棄却したときの出力例を示す図である。図8
および図9は、従来技術で説明した図11および図12
にそれぞれ対応している。図8は、未知パターン46を
識別させた場合であり、識別結果表示欄32には「未知
パターン」と表示される。カテゴリベクトル表示欄33
には、前述の表1に示される内容が表示される。
FIGS. 8 and 9 are diagrams showing examples of output when the pattern recognition device 1 rejects the identification result. FIG.
9 and FIG. 9 correspond to FIG. 11 and FIG.
Respectively. FIG. 8 shows a case where the unknown pattern 46 is identified, and “unknown pattern” is displayed in the identification result display column 32. Category vector display field 33
Displays the contents shown in Table 1 above.

【0075】図9は、機種A11の一部が欠落したパタ
ーン47を識別させた場合であり、未知パターン46の
場合と同様に識別結果表示欄32には「未知パターン」
と表示される。カテゴリベクトル表示欄33には、前述
の表2に示される内容が表示される。
FIG. 9 shows a case where a pattern 47 in which a part of the model A11 is missing is identified. As in the case of the unknown pattern 46, the "unknown pattern" is displayed in the identification result display column 32.
Is displayed. The category vector display field 33 displays the contents shown in Table 2 described above.

【0076】ここでは、下記表11に示される入力特徴
ベクトルおよび想起特徴ベクトルに基づいて、前記数式
(11)に従って類似度L=7.60が算出される。予
め定めた閾値は、ここでは経験的に2.5に設定されて
いる。したがって、識別手段3による識別結果は棄却さ
れる。
Here, based on the input feature vector and the recall feature vector shown in Table 11 below, the similarity L = 7.60 is calculated according to the equation (11). The predetermined threshold value is empirically set to 2.5 here. Therefore, the result of identification by the identification means 3 is rejected.

【0077】[0077]

【表11】 [Table 11]

【0078】このように、従来のパターン認識装置1で
は複数のカテゴリの中のいずれかの機種として認識され
ていたパターンが未知パターンとして認識されており、
パターン認識の精度が向上している。
As described above, in the conventional pattern recognition apparatus 1, a pattern that has been recognized as one of the models in a plurality of categories is recognized as an unknown pattern.
The accuracy of pattern recognition has been improved.

【0079】以上のように本実施例によれば、実際の入
力パターンと想起された入力パターンとの類似度に基づ
いて識別結果を判定するので、未知パターンや大きなノ
イズが重畳したパターンなどに対する識別結果を棄却す
ることができ、誤認識の発生を著しく低減することがで
きる。これによって精度の高いパターン認識を実現する
ことができる。
As described above, according to the present embodiment, since the identification result is determined based on the similarity between the actual input pattern and the recalled input pattern, identification of an unknown pattern or a pattern on which large noise is superimposed is performed. The result can be rejected, and the occurrence of erroneous recognition can be significantly reduced. Thus, highly accurate pattern recognition can be realized.

【0080】また識別手段3および特徴想起手段5にぞ
れぞれニューラルネットワークを使用しているため、高
速かつ汎化性の高いパターン認識を実現することができ
る。さらに、抽出した特徴量と分類させたいカテゴリと
の間のロジックを考えることなく、事例の学習によりそ
れを獲得することができる。このため、識別対象を変更
してもアルゴリズムを新たに考えたり変更したりする必
要がなく、事例を用意し、ニューラルネットワークに学
習させるだけで対応させることができる。このことは特
徴想起手段5についても同様である。このように主要な
認識部分にニューラルネットワークを用いるので、ニュ
ーラルネットワークが持つ、高速処理、汎化能力、事例
学習による入出力特性の獲得、フォールトトレランス性
などの性質を持ったパターン認識装置を実現することが
できる。
Further, since a neural network is used for each of the discriminating means 3 and the feature recalling means 5, it is possible to realize high-speed and highly generalized pattern recognition. Further, it is possible to acquire the extracted feature amount by learning the case without considering the logic between the extracted feature amount and the category to be classified. Therefore, even if the identification target is changed, it is not necessary to newly consider or change the algorithm, and it is possible to cope with the case by preparing a case and letting the neural network learn. This is the same for the feature recalling means 5. Since the neural network is used for the main recognition part in this way, a pattern recognition device that has the properties of the neural network, such as high-speed processing, generalization ability, acquisition of input / output characteristics through case learning, and fault tolerance, is realized. be able to.

【0081】なお、識別手段3および特徴想起手段5と
して、カテゴリ毎に標準的な特徴ベクトルをルックアッ
プテーブルに格納しておき、逐次検索させるようにして
もよい。
As the identification means 3 and the feature recall means 5, standard feature vectors may be stored for each category in a look-up table, and may be sequentially searched.

【0082】本実施例では、パターン認識の一例とし
て、航空機シルエットの画像認識の場合を説明したけれ
ども、その他の物体認識や文字認識などにも使用でき
る。また、画像以外にも、音声、超音波、レーダなどの
電磁気、地震波、地磁気などのパターン識別に用いても
構わない。さらに、これらの複数のパターンを入力する
場合も本発明の適用範囲である。
In this embodiment, the case of image recognition of an aircraft silhouette has been described as an example of pattern recognition. However, the present invention can also be used for other object recognition and character recognition. Further, in addition to images, it may be used for pattern identification such as sound, ultrasound, electromagnetic such as radar, seismic wave, and geomagnetism. Further, the case of inputting a plurality of these patterns is also within the scope of the present invention.

【0083】たとえば、文字認識の場合には、画像から
適当な処理によって切り出した文字を正規化した後、特
徴量として縦方向濃淡ヒストグラムなどを、識別手段3
を構成するニューラルネットワークに入力してもよい。
また、音声認識の場合には、音声波形に窓関数を掛けて
切り出した波形からフーリエスペクトルなどの特徴量を
抽出して用いてもよい。
For example, in the case of character recognition, a character cut out from an image by an appropriate process is normalized, and a vertical density histogram or the like is discriminated as a characteristic amount.
May be input to the neural network constituting.
In the case of speech recognition, a feature amount such as a Fourier spectrum may be extracted and used from a waveform obtained by multiplying a speech waveform by a window function.

【0084】上述のBPNNは、層の数や各層を構成す
るノード数が変わっても同じ効果が得られることは勿論
である。また、ニューラルネットワークをBPNNとし
て説明したが、シグモイド関数以外の非線形関数を用い
たり、さらにBPNN以外の他のどのようなニューラル
ネットワークを使用した場合でも、未知パターンに対す
る誤認識を低減して識別精度を向上させる効果がある。
The same effect can be obtained with the above-described BPNN even if the number of layers or the number of nodes constituting each layer changes. Although the neural network has been described as a BPNN, even when a non-linear function other than the sigmoid function is used, or when any other neural network other than the BPNN is used, false recognition of an unknown pattern is reduced to improve the identification accuracy. It has the effect of improving.

【0085】さらに、識別手段3を構成するニューラル
ネットワークの部分を、入力パターンと各カテゴリとの
距離を直接求めない他の識別方法、たとえばベイズ(B
ayes)識別法などの統計的パターン識別方法に置き
換えても、未知パターンに対する誤認識を低減して識別
精度を向上させる効果がある。これらのパターン認識方
法は、ハードウェアで構成しても構わない。
Further, the part of the neural network constituting the identification means 3 is replaced by another identification method which does not directly determine the distance between the input pattern and each category, for example, Bayesian (B
ay) Even if the method is replaced with a statistical pattern identification method such as an identification method, there is an effect that false recognition of an unknown pattern is reduced and identification accuracy is improved. These pattern recognition methods may be configured by hardware.

【0086】本実施例における特徴想起、比較、判定と
いう操作は、いわゆるパターンマッチング手法と混同さ
れ、処理時間がかかると思われがちであるが、パターン
マッチング手法のように逐次検索をする必要はなく、た
だ1つの特徴量を呼出して計算すればよいので、非常に
高速な処理が実現される。また、識別および想起にそれ
ぞれニューラルネットワークを用いているので、識別と
想起の両方ともが高速処理できるので、高速なパターン
識別ができる。
The operations of recalling, comparing, and judging features in this embodiment are confused with the so-called pattern matching method and tend to take a long processing time. However, unlike the pattern matching method, it is not necessary to perform sequential search. Since only one feature value needs to be called and calculated, very high-speed processing is realized. Also, since neural networks are used for identification and recall, both identification and recall can be processed at high speed, and high-speed pattern identification can be performed.

【0087】本実施例では、特徴ベクトルとカテゴリと
が1対1の関係であることが必要であるが、厳密に1対
1の関係がなくても識別結果を棄却することができ、誤
認識を低減することができる。
In the present embodiment, it is necessary that the feature vector and the category have a one-to-one relationship. However, even if there is no strict one-to-one relationship, the identification result can be rejected and erroneous recognition is performed. Can be reduced.

【0088】また、特徴量に1つまたは複数の適当なパ
ラメータを付加して、そのパラメータとカテゴリベクト
ルを合わせたものを改めてカテゴリベクトルとすること
で、1対1の関係をとることも可能である。この場合に
は、そのパラメータは連続して変化するアナログ量で与
えることができるけれども、この場合は特徴ベクトルの
想起にはルックアップテーブルを用いるよりもニューラ
ルネットワークを用いた方がよい。なぜならば、ニュー
ラルネットワークを識別と想起とに使用することで特徴
ベクトルとカテゴリベクトルの変換を連続量で行うこと
ができ、ニューラルネットワークの汎化能力が活かせる
ためである。
It is also possible to establish a one-to-one relationship by adding one or more appropriate parameters to the feature quantity and re-combining the parameter and the category vector as a category vector. is there. In this case, the parameter can be given by a continuously changing analog amount, but in this case, it is better to use a neural network for recalling the feature vector rather than using a lookup table. This is because the feature vector and the category vector can be converted in a continuous amount by using the neural network for identification and recall, and the generalization ability of the neural network can be utilized.

【0089】[0089]

【発明の効果】以上のように本発明によれば、実際に入
力されたパターンと、識別されたカテゴリに基づいて想
起された入力パターンとを比較し、類似度を求め、類似
度の高いときだけ識別手段の出力カテゴリを正しいもの
として出力するので、未知パターンやノイズが重畳され
たパターンなどに対する誤った認識結果を棄却すること
ができ、精度の高い識別を実現することができる。
As described above, according to the present invention, an actually input pattern is compared with an input pattern recalled based on the identified category to determine a similarity. Only the output category of the identification means is output as correct, so that an erroneous recognition result for an unknown pattern or a pattern on which noise is superimposed can be rejected, and highly accurate identification can be realized.

【0090】また本発明によれば、入力されたパターン
から、パターンを特徴づける特徴量を要素とする特徴ベ
クトルを算出し、当該特徴ベクトルに基づいて識別を行
うパターン認識装置においても、上述と同様に入力パタ
ーンから算出された特徴ベクトルと、識別手段からのカ
テゴリベクトルに基づいて算出された特徴ベクトルとを
比較して類似度を求め、類似度が高いときだけ識別手段
からの識別結果であるカテゴリベクトルを正しいものと
出力しているので、未知パターンやノイズが重畳された
パターンに対する誤った認識結果を棄却することがで
き、精度の高いパターン認識を実現することができる。
Further, according to the present invention, a pattern recognition apparatus which calculates a feature vector having a feature amount characterizing a pattern as an element from an input pattern and performs identification based on the feature vector is similar to the above. The similarity is calculated by comparing the feature vector calculated from the input pattern with the feature vector calculated based on the category vector from the identifying means, and the category which is the identification result from the identifying means only when the similarity is high. Since the vector is output as being correct, an erroneous recognition result for an unknown pattern or a pattern on which noise is superimposed can be rejected, and highly accurate pattern recognition can be realized.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施例であるパターン認識装置1の
構成を示すブロック図である。
FIG. 1 is a block diagram illustrating a configuration of a pattern recognition device 1 according to an embodiment of the present invention.

【図2】ニューラルネットワーク11の構成を示す図で
ある。
FIG. 2 is a diagram showing a configuration of a neural network 11;

【図3】識別手段3の機能を説明するための図である。FIG. 3 is a diagram for explaining a function of an identification unit 3;

【図4】特徴想起手段5の機能を説明するための図であ
る。
FIG. 4 is a diagram for explaining a function of a feature recalling unit 5;

【図5】識別結果判定手段4の構成を示すブロック図で
ある。
FIG. 5 is a block diagram illustrating a configuration of an identification result determination unit 4;

【図6】出力手段7による識別結果の出力例を示す図で
ある。
FIG. 6 is a diagram showing an example of the output of the identification result by the output means 7;

【図7】パターン認識装置1の動作を説明するフローチ
ャートである。
FIG. 7 is a flowchart illustrating an operation of the pattern recognition device 1.

【図8】パターン認識装置1において認識結果を棄却し
た際の出力例を示す図である。
FIG. 8 is a diagram showing an output example when a recognition result is rejected in the pattern recognition device 1.

【図9】パターン認識装置1において認識結果を棄却し
た際の出力例を示す図である。
FIG. 9 is a diagram showing an output example when a recognition result is rejected in the pattern recognition device 1;

【図10】従来のパターン認識装置41の構成を示すブ
ロック図である。
FIG. 10 is a block diagram showing a configuration of a conventional pattern recognition device 41.

【図11】従来のパターン認識装置41による識別結果
の表示例を示す図である。
FIG. 11 is a diagram showing a display example of an identification result by a conventional pattern recognition device 41.

【図12】従来のパターン認識装置41による識別結果
の表示例を示す図である。
FIG. 12 is a diagram showing a display example of a recognition result by a conventional pattern recognition device 41.

【符号の説明】[Explanation of symbols]

1 パターン認識装置 2 特徴抽出手段 3 識別手段 4 識別結果判定手段 5 特徴想起手段 6 類似度算出手段 7 出力手段 11 ニューラルネットワーク 12 入力層 13 中間層 14 出力層 21 処理手段 22 レベル弁別手段 23 基準値出力手段 31 パターン 32 識別結果表示欄 33 カテゴリベクトル表示欄 L 類似度 NI1〜NIm,NM,NO1〜NOn ノード REFERENCE SIGNS LIST 1 pattern recognition device 2 feature extraction means 3 identification means 4 identification result determination means 5 feature recall means 6 similarity calculation means 7 output means 11 neural network 12 input layer 13 intermediate layer 14 output layer 21 processing means 22 level discrimination means 23 reference value Output means 31 Pattern 32 Identification result display field 33 Category vector display field L Similarity NI1-NIm, NM, NO1-NOn Node

フロントページの続き (51)Int.Cl.6 識別記号 FI G10L 9/10 301 G10L 9/10 301C (56)参考文献 特開 平4−279988(JP,A) 特開 平2−114389(JP,A) 特開 平4−143872(JP,A) (58)調査した分野(Int.Cl.6,DB名) G06T 1/00 - 7/00 G06F 15/18 Continuation of the front page (51) Int.Cl. 6 identification code FI G10L 9/10 301 G10L 9/10 301C (56) References JP-A-4-279988 (JP, A) JP-A-2-114389 (JP, A) JP-A-4-143872 (JP, A) (58) Fields investigated (Int. Cl. 6 , DB name) G06T 1/00-7/00 G06F 15/18

Claims (3)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 入力パターンを複数の予め定めた種類の
カテゴリに識別する識別手段と、 前記識別手段からの出力カテゴリに基づいて、入力パタ
ーンを想起する想起手段と、 前記入力パターンと前記想起手段からのパターンとを比
較してパターンの類似度を算出する算出手段と、 前記算出手段からの類似度をレベル弁別し、類似度が高
いとき、前記識別手段からの出力カテゴリを正しいもの
として出力する判定手段とを含むことを特徴とするパタ
ーン認識装置。
1. An identification means for identifying an input pattern into a plurality of predetermined types of categories, a recall means for recalling an input pattern based on an output category from the identification means, and the input pattern and the recall means Calculating means for comparing the pattern with the pattern from the calculation means, and discriminating the similarity from the calculating means at a level, and when the similarity is high, outputting the output category from the discriminating means as correct. A pattern recognition device comprising: a determination unit.
【請求項2】 入力パターンから、パターンを特徴づけ
る特徴量を要素とする特徴ベクトルを算出する特徴抽出
手段と、 前記特徴抽出手段からの特徴ベクトルに基づいて、入力
パターンが複数の予め定めた種類のカテゴリのどのカテ
ゴリに属するかを表現するカテゴリベクトルを算出する
識別手段と、 前記識別手段からのカテゴリベクトルに基づいて、特徴
ベクトルを算出する特徴想起手段と、 前記特徴抽出手段からの特徴ベクトルと、前記特徴想起
手段からの特徴ベクトルとに基づいて、両ベクトルの類
似度を算出する算出手段と、 前記算出手段からの類似度をレベル弁別し、類似度が高
いとき、前記識別手段からのカテゴリベクトルによって
表現されるカテゴリを識別結果として出力する判定手段
とを含むことを特徴とするパターン認識装置。
2. A feature extracting means for calculating a feature vector having a feature amount characterizing the pattern as an element from the input pattern; and a plurality of predetermined types based on the feature vector from the feature extracting means. Identification means for calculating a category vector representing which of the categories belongs to, a feature recalling means for calculating a feature vector based on the category vector from the identification means, and a feature vector from the feature extraction means. A calculating means for calculating a similarity between the two vectors based on the feature vector from the feature recalling means; and a level discrimination between the similarities from the calculating means, and when the similarity is high, a category from the identifying means. Determining means for outputting a category represented by a vector as an identification result. Apparatus.
【請求項3】 入力パターンを複数の予め定めた種類の
カテゴリに識別するステップと、 識別したカテゴリに基づいて、入力パターンを想起する
ステップと、 前記入力パターンと想起されたパターンとを比較してパ
ターンの類似度を算出するステップと、 算出された類似度をレベル弁別し、類似度が高いとき識
別したカテゴリを正しいものとして出力するステップと
を含むことを特徴とするパターン認識方法。
3. A step of identifying an input pattern into a plurality of predetermined types of categories; a step of recalling an input pattern based on the identified category; and comparing the input pattern with the recalled pattern. A pattern recognition method, comprising: calculating a similarity of a pattern; and level discriminating the calculated similarity and, when the similarity is high, outputting a category identified as correct.
JP5250829A 1993-10-06 1993-10-06 Pattern recognition apparatus and method Expired - Lifetime JP2880383B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5250829A JP2880383B2 (en) 1993-10-06 1993-10-06 Pattern recognition apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5250829A JP2880383B2 (en) 1993-10-06 1993-10-06 Pattern recognition apparatus and method

Publications (2)

Publication Number Publication Date
JPH07105372A JPH07105372A (en) 1995-04-21
JP2880383B2 true JP2880383B2 (en) 1999-04-05

Family

ID=17213650

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5250829A Expired - Lifetime JP2880383B2 (en) 1993-10-06 1993-10-06 Pattern recognition apparatus and method

Country Status (1)

Country Link
JP (1) JP2880383B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6681060B2 (en) * 2001-03-23 2004-01-20 Intel Corporation Image retrieval using distance measure
US7224903B2 (en) * 2001-12-28 2007-05-29 Koninklijke Philips Electronics N. V. Universal remote control unit with automatic appliance identification and programming
JP5493133B2 (en) 2008-04-08 2014-05-14 国立大学法人山口大学 X-ray image processing method and system using open curve Fourier descriptor

Also Published As

Publication number Publication date
JPH07105372A (en) 1995-04-21

Similar Documents

Publication Publication Date Title
Hosang et al. Learning non-maximum suppression
Zhang et al. A domain-independent window approach to multiclass object detection using genetic programming
US7958070B2 (en) Parameter learning method, parameter learning apparatus, pattern classification method, and pattern classification apparatus
US20070058856A1 (en) Character recoginition in video data
Haque et al. Two-handed bangla sign language recognition using principal component analysis (PCA) and KNN algorithm
CN113378676A (en) Method for detecting figure interaction in image based on multi-feature fusion
KR20050085576A (en) Computer vision system and method employing illumination invariant neural networks
KR20160037424A (en) A Novel Multi-view Face Detection Method Based on Improved Real Adaboost Algorithm
Roheda et al. Robust multi-modal sensor fusion: An adversarial approach
JP2880383B2 (en) Pattern recognition apparatus and method
JP2009129253A (en) Pattern recognition apparatus, pattern recognition program and pattern recognition method
JP2017117025A (en) Pattern identification method, device thereof, and program thereof
Chahyati et al. Multiple human tracking using Retinanet features, Siamese neural network, and Hungarian algorithm
KR102553851B1 (en) Method for building multi-modal fusion tensor network and the system thereof
KR100621883B1 (en) An adaptive realtime face detecting method based on training
CN114333840A (en) Voice identification method and related device, electronic equipment and storage medium
Foo et al. A boosted multi-HMM classifier for recognition of visual speech elements
JP2924442B2 (en) Pattern recognition device
JP2778194B2 (en) Pattern recognition method and apparatus
McElroy et al. Fourier descriptors and neural networks far shape classification
JPH02210589A (en) Character recognizing device
Sledge et al. External-Memory Networks for Low-Shot Learning of Targets in Forward-Looking-Sonar Imagery
WO2022181303A1 (en) Ensemble learning system and ensemble learning program
JPH09231366A (en) Method and device for recognizing pattern
JPH0773276A (en) Character recognition device

Legal Events

Date Code Title Description
R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090129

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100129

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110129

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120129

Year of fee payment: 13

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120129

Year of fee payment: 13

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130129

Year of fee payment: 14

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130129

Year of fee payment: 14

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140129

Year of fee payment: 15

EXPY Cancellation because of completion of term