JPH0769936B2 - Pattern recognition method - Google Patents

Pattern recognition method

Info

Publication number
JPH0769936B2
JPH0769936B2 JP63205687A JP20568788A JPH0769936B2 JP H0769936 B2 JPH0769936 B2 JP H0769936B2 JP 63205687 A JP63205687 A JP 63205687A JP 20568788 A JP20568788 A JP 20568788A JP H0769936 B2 JPH0769936 B2 JP H0769936B2
Authority
JP
Japan
Prior art keywords
pattern
feature vector
area
partial feature
recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP63205687A
Other languages
Japanese (ja)
Other versions
JPH02125390A (en
Inventor
正行 木村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP63205687A priority Critical patent/JPH0769936B2/en
Priority to US07/393,623 priority patent/US5287275A/en
Priority to DE68928450T priority patent/DE68928450D1/en
Priority to EP89115297A priority patent/EP0355748B1/en
Publication of JPH02125390A publication Critical patent/JPH02125390A/en
Publication of JPH0769936B2 publication Critical patent/JPH0769936B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Character Discrimination (AREA)
  • Image Analysis (AREA)

Description

【発明の詳細な説明】 〔概要〕 入力パターンから特徴量を抽出してそのパターンの認識
を行う場合の特徴量の抽出方式並びにそれを用いたパタ
ーン認識方式に関し、 構造セグメントの認識を必要とせずに、パターンの構造
をよく反映する特徴量の抽出を実現し、それにより認識
性能のよいパターン認識システムを実現することを目的
とし、 2次元の入力パターンの各画素毎に、その隣接画素のう
ちパターンが存在する画素の方向成分を抽出する方向成
分抽出手段と、入力パターンを各々相互に重なりを有す
る複数の領域に分割する領域分割手段と、該手段により
分割された各領域毎に、該領域内の各画素の方向成分抽
出手段から得られる方向成分を、該領域の中心部分から
周囲に向かうほど小さくなる重みを付加して方向別に集
計し、該各方向毎の集計結果を要素とする部分特徴ベク
トルを演算する部分特徴ベクトル演算手段とを有し、該
手段により得られる全領域分の部分特徴ベクトルをパタ
ーン方向線素特徴量として抽出するように構成する。
DETAILED DESCRIPTION OF THE INVENTION [Outline] The present invention relates to a feature quantity extraction method in the case of extracting a feature quantity from an input pattern and recognizing the pattern, and a pattern recognition method using the feature quantity, without requiring recognition of structural segments. In order to realize a pattern recognition system with good recognition performance by extracting the feature quantity that well reflects the structure of the pattern, for each pixel of the two-dimensional input pattern, Directional component extracting means for extracting the directional component of the pixel in which the pattern exists, area dividing means for dividing the input pattern into a plurality of areas each having an overlap with each other, and the area for each area divided by the means. The direction components obtained from the direction component extracting means of each pixel in the area are added up with weights that decrease from the central portion of the area toward the periphery, and are aggregated for each direction. And a partial feature vector calculating means for calculating a partial feature vector having an aggregated result for each direction as an element, and the partial feature vectors for all areas obtained by the means are extracted as pattern direction line element feature amounts. To do.

〔産業上の利用分野〕[Industrial application field]

本発明は、入力パターンから特徴量を抽出してそのパタ
ーンの認識を行う場合の特徴量の抽出方式並びにそれを
用いたパターン認識方式に関する。
The present invention relates to a feature quantity extraction method when a feature quantity is extracted from an input pattern and the pattern is recognized, and a pattern recognition method using the feature quantity extraction method.

〔従来の技術〕[Conventional technology]

活字イメージパターンや音声信号パターン(周波数包絡
の時間変化パターン等を画像表現したもの)から特徴量
を抽出して、そのパターンの認識を行う場合、そのパタ
ーンの特徴を効率的に表現する特徴量を抽出する必要が
ある。
When a feature amount is extracted from a print image pattern or a voice signal pattern (an image representation of a temporal envelope variation pattern, etc.) and the pattern is recognized, the feature amount that efficiently expresses the feature of the pattern is set. Need to be extracted.

特徴量抽出のための第一の従来方式として、多方向のス
トロークの密度や方向を抽出し、特徴量とする方式があ
る。
As a first conventional method for extracting the characteristic amount, there is a method of extracting the density and direction of strokes in multiple directions to obtain the characteristic amount.

また、第二の従来方式として、パターンの局所的な構造
情報(構造セグメント)を分離して認識するいわゆる構
造セグメント法がある。すなわち、例えば漢字パターン
の場合、偏・つくり等を分離して認識する方式である。
As a second conventional method, there is a so-called structure segment method in which local structure information (structure segment) of a pattern is separately recognized. That is, for example, in the case of a Kanji pattern, it is a method of separately recognizing deviations / formulations.

〔発明が解決しようとする課題〕[Problems to be Solved by the Invention]

しかし、上記第一の従来方式では、複雑なパターン(例
えば複雑な漢字)では、パターンの構造がストロークの
密度等に反映されにくく、例えば短いストロークの多い
構造を有するパターンでは、その構造がストロークの密
度等として表現されないという問題点を有する。
However, in the first conventional method described above, in a complicated pattern (for example, a complicated Chinese character), the structure of the pattern is difficult to be reflected in the density of strokes. For example, in a pattern having many short strokes, the structure is There is a problem that it is not expressed as density.

また、第二の従来方式では、全ての構造セグメントにつ
いて調べる必要があるので、特徴量の抽出に時間がかか
るという問題点がある。また、各構造セグメントの分離
・認識が必要なため、ノイズに弱いという問題点を有す
る。そして、構造セグメントを持たないパターン(例え
ば漢字にあっては、「東」「大」「人」等の文字)には
適用できないという問題点を有する。更に、構造セグメ
ントが同じでも、大きさが違うものが存在するので、標
準的な特徴量を有するパターンを作成しづらい(「化」
と「例」における「イ」)という問題点を有している。
Further, in the second conventional method, since it is necessary to examine all the structural segments, there is a problem that it takes time to extract the feature amount. Further, since it is necessary to separate and recognize each structural segment, there is a problem that it is weak against noise. Then, there is a problem that it cannot be applied to a pattern having no structural segment (for example, in the case of Chinese characters, characters such as “east”, “large”, and “person”). Furthermore, even if the structure segment is the same, there are some that are different in size, so it is difficult to create a pattern having a standard feature amount.
And "a" in "example").

更に、上記問題点により、結果的に性能のよいパターン
認識システムを構成できないという問題点を有してい
る。
Further, due to the above problems, there is a problem that a pattern recognition system with good performance cannot be configured as a result.

本発明は、構造セグメントの認識を必要とせずに、パタ
ーンの構造をよく反映する特徴量の抽出を実現し、それ
により、認識性能のよいパターン認識システムを実現す
ることを目的とする。
An object of the present invention is to realize extraction of a feature amount that well reflects the structure of a pattern without requiring recognition of a structural segment, and thereby to realize a pattern recognition system with good recognition performance.

〔課題を解決するための手段〕[Means for Solving the Problems]

第1図は、本発明の原理図であり、同図(a)は、本発
明のブロック構成を示した図である。
FIG. 1 is a principle diagram of the present invention, and FIG. 1A is a diagram showing a block configuration of the present invention.

方向成分抽出手段101は、2次元の入力パターン104の各
画素毎に、その周囲の隣接画素のうちパターンが存在す
る画素の方向成分を抽出する手段であり、例えば一定の
方向を有する方向成分抽出用の窓を複数種類用意し、入
力パターン104上で各画素毎に走査する手段により実現
される。
The direction component extraction means 101 is means for extracting, for each pixel of the two-dimensional input pattern 104, a direction component of a pixel in which a pattern exists among neighboring pixels around the input pattern 104. For example, the direction component extraction having a fixed direction. This is realized by means of preparing a plurality of windows for scanning and scanning the input pattern 104 for each pixel.

領域分割手段102は、入力パターン104を各々相互に重な
りを有する複数の領域に分割する手段であり、例えば入
力パターン104上で、M×M画素の領域をM/2画素ずつの
重なりを持たせながら順次指定してゆく手段により構成
される。
The area dividing means 102 is means for dividing the input pattern 104 into a plurality of areas each having an overlap with each other. For example, an area of M × M pixels on the input pattern 104 is overlapped by M / 2 pixels. However, it is composed of means for sequentially specifying.

部分特徴ベクトル演算手段103は、領域分割手段102によ
り分割された各領域毎に、該領域内の各画素の前記方向
成分抽出手段101から得られる方向成分を、該領域の中
心部分から周囲に向かうほど小さくなる重みを付加して
方向別に集計し、該各方向毎の集計結果を要素とする部
分特徴ベクトル105を演算する手段であり、例えば領域
内の各画素からある方向成分が抽出されたら、その方向
成分を累算するレジスタ等に、その部分の重みに対応す
る数値を累算してゆくような手段により実現される。
The partial feature vector calculation means 103, for each area divided by the area division means 102, directs the direction component obtained from the direction component extraction means 101 of each pixel in the area from the central portion of the area to the periphery. It is a means for adding weights that become smaller and adding up for each direction, and a means for calculating the partial feature vector 105 having the result of each direction as an element. For example, when a certain direction component is extracted from each pixel in the area, This is realized by means for accumulating the numerical value corresponding to the weight of the portion in a register or the like for accumulating the direction component.

上記手段により得られる全領域分の部分特徴ベクトル10
5は、パターン方向線素特徴量106として最終的に抽出さ
れる。
Partial feature vector 10 for all regions obtained by the above means
5 is finally extracted as the pattern direction line element feature amount 106.

〔作用〕[Action]

上記手段における作用を、第1図(b)の動作説明図を
用いながら以下に説明を行う。
The operation of the above means will be described below with reference to the operation explanatory view of FIG.

まず、入力パターン104は、第1図(b)の各画素毎に
「*」で示すようなパターンであるとする。この入力パ
ターン104は、方向成分抽出手段101に入力し、「*」で
示した各画素がどのような方向成分を有するかが演算さ
れる。例えば、横方向のパターンを有する画素は方向成
分A、縦方向は方向成分B、45゜方向は方向成分C、13
5゜方向は方向成分Dというように(第1図(b)参
照)、各画素毎に方向成分が抽出される。なお、「*」
のパターンが存在しない部分は、方向成分は付加されな
い。
First, it is assumed that the input pattern 104 is a pattern shown by "*" for each pixel in FIG. 1 (b). This input pattern 104 is input to the directional component extracting means 101, and what directional component each pixel indicated by “*” has is calculated. For example, a pixel having a horizontal pattern has a direction component A, a vertical direction has a direction component B, and a 45 ° direction has a direction component C, 13
The direction component is extracted for each pixel, such as the direction component D in the 5 ° direction (see FIG. 1 (b)). In addition, "*"
The direction component is not added to the portion where the pattern of does not exist.

次に、領域分割手段102では、例えば第1図(b)の入
力パターン104上で、同図に示すように互いに重なりを
有する複数の領域107を順次指定してゆく。
Next, in the area dividing means 102, for example, on the input pattern 104 of FIG. 1 (b), a plurality of areas 107 having overlaps with each other as shown in the figure are sequentially designated.

そして、上記のようにして指定される各領域107毎に、
その領域内に含まれる入力パターン104の各画素の方向
成分を方向別に集計する。この場合、第1図(b)に示
すように、領域107の各位置において、その領域の中心
から周囲に向かうほど小さくなる重みを設定しておき、
現在入力パターン104上で指定されている領域107のある
画素から例えば方向成分Aが抽出されたら、方向成分A
用のレジスタ等にその部分に設定されている重みに対応
する数値を累算する。すなわち、領域107の中心付近で
抽出される方向成分に対応するレジスタには、大きな値
が累算されてゆく。
Then, for each area 107 specified as described above,
The direction component of each pixel of the input pattern 104 included in the area is totaled for each direction. In this case, as shown in FIG. 1 (b), at each position of the region 107, a weight that becomes smaller from the center of the region toward the periphery is set,
If, for example, the direction component A is extracted from a pixel in the area 107 currently specified on the input pattern 104, the direction component A
Numerical values corresponding to the weights set in the register are accumulated. That is, a large value is accumulated in the register corresponding to the direction component extracted near the center of the area 107.

この動作を1つの領域107について終了した時点で、各
方向成分の累算結果を要素とする部分特徴ベクトル105
を出力する。すなわち、第1図(b)の例では、方向成
分A〜Dの各累算結果を要素とする部分特徴ベクトル10
5が出力される。
When this operation is completed for one area 107, the partial feature vector 105 whose element is the accumulation result of each direction component
Is output. That is, in the example of FIG. 1 (b), the partial feature vector 10 having the elements of the accumulation results of the direction components A to D is used.
5 is output.

上記の動作を、領域分割手段102で指定される入力パタ
ーン104上の全領域について繰り返し、それにより得ら
れる部分特徴ベクトル105の集合をパターン方向線素特
徴量106として、最終的に出力する。
The above operation is repeated for all the regions on the input pattern 104 designated by the region dividing means 102, and the set of partial feature vectors 105 obtained thereby is finally output as the pattern direction line element feature amount 106.

以上の動作において、各領域107に対応して得られる部
分特徴ベクトル105は、例えば第1図(b)の入力パタ
ーン104の、各領域107に対応する部分の特徴すなわち部
分情報を表している。従って、例えば漢字パターンにお
いては、漢字の偏、つくり等の部分パターンに対応する
情報を、複雑なアルゴリズムを介さずに、かつ、それら
の部分パターンの認識を必要とせずに得ることができ
る。
In the above operation, the partial feature vector 105 obtained corresponding to each area 107 represents the characteristic of the portion corresponding to each area 107 of the input pattern 104 in FIG. 1B, that is, partial information. Therefore, for example, in a Chinese character pattern, it is possible to obtain information corresponding to partial patterns such as deviations and constructions of Chinese characters without using a complicated algorithm and without requiring recognition of those partial patterns.

この場合、重みつきの領域107を設定することにより、
パターンの位置・方向を部分特徴ベクトル105ひいては
パターン方向線素特徴量106に明確に反映させることが
可能となり、かつ、領域107の周囲の境界付近のパター
ンに対しては重みを軽くして、その領域107の部分特徴
ベクトル105の抽出に対する寄与率を低くすることによ
り、隣りの領域に入る可能性の高い不安定なパターンに
対する適切な処理を可能としている。
In this case, by setting the weighted area 107,
It becomes possible to clearly reflect the position / direction of the pattern in the partial feature vector 105, and thus in the pattern direction line element feature amount 106, and reduce the weight for the pattern near the boundary around the area 107, By lowering the contribution rate of the region 107 to the extraction of the partial feature vector 105, it is possible to appropriately process an unstable pattern that is likely to enter an adjacent region.

更に、領域107の指定位置に重なりを持たせることによ
り、パターンの位置が多少ずれてもほぼ同じ重みで評価
されるようにすることができ、安定なパターン方向線素
特徴量106の抽出を可能としている。
Furthermore, by making the designated position of the region 107 overlap, even if the position of the pattern is slightly shifted, it can be evaluated with almost the same weight, and the stable extraction of the pattern direction line element feature amount 106 is possible. I am trying.

〔実施例〕〔Example〕

以下、本発明の実施例につき詳細に説明を行う。 Hereinafter, examples of the present invention will be described in detail.

{本実施例の全体構成図} まず、第2図は、本発明の実施例の全体構成図である。{Overall configuration diagram of this embodiment} First, FIG. 2 is an overall configuration diagram of an embodiment of the present invention.

第2図において、活字文書が印刷された原稿201は、イ
メージスキャナ202内の画像入力部203によって読み取ら
れた後(解像度は、8本/ミリ)、2値化部204におい
て論理「1」又は「0」によって表現される2値画像デ
ータに変換される。
In FIG. 2, the manuscript 201 on which a printed document is printed is read by the image input unit 203 in the image scanner 202 (the resolution is 8 lines / mm), and the logical unit “1” or It is converted into binary image data represented by "0".

次に、2値画像データは切り出し部205に入力する。こ
こでは、2値画像データから各活字が、1文字あたり横
64画素、縦64画素の大きさで切り出される。なお、各画
素においては、1ビットデータの論理「1」又は「0」
によりパターンの有無が表わされている。
Next, the binary image data is input to the cutout unit 205. Here, each character is printed horizontally from the binary image data.
It is cut out in a size of 64 pixels and 64 pixels vertically. In each pixel, the logic "1" or "0" of 1-bit data
The presence or absence of the pattern is represented by.

このようにして切り出された活字イメージデータ213
は、前処理部206に入力する。ここでは、活字イメージ
データ213に対して、ノイズ除去・スムージングを行っ
た後、その大きさの正規化を行う。その後、パターンの
細線化を行い、細線化されたデータに対して各画素の方
向成分を求める線素化の処理を行って、線素化活字イメ
ージデータ214を出力する。
Type image data 213 cut out in this way
Is input to the preprocessing unit 206. Here, the type image data 213 is subjected to noise removal / smoothing, and then its size is normalized. After that, the pattern is thinned, the thinned data is subjected to the linearization processing for obtaining the direction component of each pixel, and the linearized printed image data 214 is output.

上記処理によって前処理部206から出力される線素化活
字イメージデータ214は、次に特徴量抽出部207に入力す
る。ここでは、線素化活字イメージデータ214に基づい
て、活字の特徴量として活字方向線素特徴量215を演算
する。
The linearized character image data 214 output from the preprocessing unit 206 by the above processing is next input to the feature amount extraction unit 207. Here, a type direction line element feature amount 215 is calculated as a type feature amount based on the linearized type image data 214.

続いて、活字方向線素特徴量215は認識部208内の連想整
合認識部209に入力する。ここでは、連想整合法によ
り、連想整合用標準パターン辞書部211内の連想整合用
の標準パターンとのパターンマッチングが実行され、元
の活字イメージデータ213の活字候補が認識されて大分
類認識結果216として出力される。
Then, the type direction line element feature amount 215 is input to the associative matching recognition unit 209 in the recognition unit 208. Here, pattern matching with the standard pattern for associative matching in the standard pattern dictionary 211 for associative matching is performed by the associative matching method, the character candidates of the original character image data 213 are recognized, and the large classification recognition result 216 Is output as.

更に、このようにして認識された大分類認識結果216
は、細分類部210に入力する。ここでは、大分類認識結
果216として得られる活字候補に基づいて、細分類辞書
部212が参照され、これと元の活字方向線素特徴量215を
用いて細分類が行われることにより、最終的な活字認識
結果が細分類認識結果217として出力される。
Further, the large classification recognition result 216 thus recognized is
Is input to the subclassification unit 210. Here, based on the type candidates obtained as the large classification recognition result 216, the fine classification dictionary unit 212 is referred to, and the fine classification is performed using this and the original type direction line element feature amount 215, so that the final classification is performed. A type recognition result is output as a fine classification recognition result 217.

{本実施例の動作説明} 上記構成の実施例の動作について、以下に順次説明を行
ってゆく。なお、以下の説明においては、第3図の本実
施例の全体動作フローチャートに基づいて説明を行う。
{Explanation of the operation of the present embodiment} The operation of the embodiment having the above-mentioned configuration will be sequentially described below. The following description will be given based on the overall operation flowchart of the present embodiment shown in FIG.

画像入力処理 まず、画像入力処理を行って、活字イメージデータ213
を得る処理について説明を行う。
Image input processing First, image input processing is performed to print the print image data 213.
The process of obtaining the value will be described.

前記したように第2図において、活字文書が印刷された
原稿201は、画像入力部203で読み取られた後、2値化部
204で2値画像データに変換され(第3図S1)、更に、
切り出し部205において、2値画像データから各活字
が、1文字あたり横64画素、縦64画素の大きさで切り出
され、活字イメージデータ213として出力される(第3
図S2)。この活字イメージデータ213に対する例を、漢
字「亜」を例として第4図に示す。同図で、「*」で示
される画素がパターン部分として論理「1」で表現され
ている。
As described above, in FIG. 2, the manuscript 201 on which the printed document is printed is read by the image input unit 203 and then the binarization unit.
It is converted to binary image data in 204 (S1 in FIG. 3), and
In the cut-out unit 205, each character is cut out from the binary image data in a size of 64 pixels horizontally and 64 pixels vertically and is output as the character image data 213 (third character).
(Figure S2). An example of this type image data 213 is shown in FIG. 4 by taking the Chinese character “A” as an example. In the figure, the pixel indicated by "*" is represented by a logic "1" as a pattern portion.

ノイズ除去・記号類判別・スムージング処理 上記処理により切り出された活字イメージデータ213
は、第2図の前処理部206に入力し、まず、ノイズ除去
が行われる。活字イメージデータ213には、原稿201自身
又はイメージスキャナ202の読み取り精度が原因で、ノ
イズがのることが多い。ここで、ノイズはイメージ上で
孤立した1〜2画素の点として現れ、後の認識処理に悪
影響を及ぼすため、そのようなノイズを論理処理によっ
て除去するのがノイズ除去処理である(第3図S303)。
Noise removal / symbol classification / smoothing processing Typographic image data 213 cut out by the above processing
Is input to the preprocessing unit 206 in FIG. 2, and noise removal is first performed. The printed image data 213 often has noise due to the reading accuracy of the original 201 itself or the image scanner 202. Here, noise appears as an isolated point of 1 to 2 pixels on an image and adversely affects later recognition processing. Therefore, the noise removal processing removes such noise by logical processing (FIG. 3). S303).

次に、上記のようにノイズが除去された活字イメージデ
ータについて、前処理部206において記号類の判別を行
う。後述するように、活字イメージデータはその大きさ
が正規化されるとともに細線化されるが、一部の活字
(殆ど記号類である)は正規化又は細線化を行うと、活
字本来の情報を失ってしまう。以下にその具体例を示
す。
Next, in the type image data from which the noise has been removed as described above, the preprocessing unit 206 determines the symbols. As will be described later, the size of the print image data is normalized and thinned. However, if some prints (mostly symbols) are normalized or thinned, the original information of the print will be displayed. I will lose. Specific examples are shown below.

(ケース)正規化と細線化が望ましくない活字 例 、。,.・゛゜´`¨^ヽヾゝゞ〃 上記のような記号を正規化及び細線化すると、もとの形
が失われてしまう。
(Case) Typographic example where normalization and thinning are not desired. , .. '°' `¨ ^ ヽ ヾ ゝ ゞ 〃 If the above symbols are normalized and thinned, the original shape is lost.

(ケース)正規化が望ましくない活字 例 −1−−|− 上記のような活字を正規化すると、領域全体が黒で埋ま
ってしまう。
(Case) Examples of type characters for which normalization is not desirable -1-- | -If the above type characters are normalized, the entire area is filled with black.

(ケース)細線化が望ましくない活字 上記のような活字を細線化すると、点あるいは短い線分
になってしまう。
(Case) Type where thin line is not desirable If the above type is thinned, it becomes a dot or a short line segment.

以上に示したような活字については、通常の後述する正
規化・細線化等の処理を行わずに別の処理をおこなった
方が正しい認識を行えるため、前記ノイズ除去処理の後
にこのような記号類の判別を行う(第3図S4)。以下に
その判別アルゴリズムを示す。
For the typefaces shown above, it is better to perform another process without performing the normalization / thinning process, etc., which will be described later. The classification is performed (S4 in Fig. 3). The discrimination algorithm is shown below.

まず、前記ケースに相当する活字については、これら
の記号が通常の活字に比べて大きさが数倍小さいため、
文字幅によって判別する。
First of all, regarding the type equivalent to the above case, since these symbols are several times smaller than the ordinary type,
Determine by the character width.

次に、前記ケースに相当する活字については、これら
の活字の横幅と縦幅が極端に異なるため、幅の比によっ
て判別する。
Next, with respect to the print characters corresponding to the above case, the horizontal width and the vertical width of these print characters are extremely different from each other.

最後に、前記ケースに相当する活字については、通常
の活字の細線化(後述する)の繰り返し回数は線幅の1/
2程度で済むのに対し、上記のものは数倍多い。従っ
て、後述する細線化の処理において、適切な閾値を設け
ることにより判別する。
Finally, for the print type corresponding to the above case, the number of repetitions of normal type line thinning (described later) is 1 / the line width.
Whereas only about 2 is required, the above is several times more. Therefore, in the thinning process described later, the determination is made by providing an appropriate threshold value.

以上の記号類判別の処理の後、記号類と判別されなかっ
た活字について、次にスムージングの処理を行う。活字
イメージデータ213には、前記ノイズのほかに活字の線
分に凹凸が生じることが多い。これは、第2図の原稿20
1をドットプリンタ等によって印刷した場合に原稿201自
身に凹凸がつき、又はイメージスキャナ202の読み取り
精度も原因となる。このような、線分の凹凸も後の認識
処理に悪影響を及ぼすため、第2図の前処理部206にお
いてスムージングを行う(第3図S5)。具体的には、局
所的(近傍8画素程度)なマスク処理により、1画素程
度の欠け・ふくらみを検出して、その部分を埋める又は
削る処理を行うが、この処理は一般的なディジタル画像
処理として行われているため、具体的な説明は省略す
る。第4図の活字イメージデータ213の例に対して上記
スムージングの処理を行った結果の例を第5図に示す。
同図に示すように、第4図において見られた局所的な線
分の凹凸がきれいに平滑化されていることがわかる。
After the above-described symbol class determination processing, smoothing processing is performed next on the print characters that have not been classified as symbols. In addition to the noise, the type image data 213 often has irregularities on the type line segment. This is the manuscript 20 shown in FIG.
When 1 is printed by a dot printer or the like, the original 201 itself has irregularities, or the reading accuracy of the image scanner 202 also becomes a cause. Since the unevenness of the line segment also adversely affects the subsequent recognition processing, smoothing is performed in the preprocessing unit 206 in FIG. 2 (S5 in FIG. 3). Specifically, a local masking process (about 8 pixels in the vicinity) is performed to detect a defect or bulge of about 1 pixel, and to fill or delete that part. This process is a general digital image process. Therefore, detailed description thereof will be omitted. FIG. 5 shows an example of a result obtained by performing the smoothing process on the example of the print image data 213 of FIG.
As shown in the figure, it can be seen that the local unevenness of the line segment seen in FIG. 4 is finely smoothed.

正規化処理 次に、上記のようにしてノイズ除去・スムージングが行
われた活字イメージデータに対して、第2図の前処理部
206において正規化処理を行う。印刷文字(ワープロ文
字等)は一般的に全角、倍角、半角などがあり、活字の
大きさが様々である。また、同じ角の活字でも、メーカ
ーの設計により大きさが異なる。そこで、本実施例で
は、活字の大きさの影響を取り除くために、入力イメー
ジデータに対し、正規化を行う(第3図S6)。
Normalization Processing Next, the preprocessing unit of FIG. 2 is applied to the print image data that has been subjected to noise removal / smoothing as described above.
At 206, normalization processing is performed. Printed characters (word processing characters, etc.) generally have full-width, double-width, and half-width characters, and the size of print characters varies. In addition, the size of a letter printed on the same corner varies depending on the manufacturer's design. Therefore, in the present embodiment, in order to remove the influence of the size of the printed characters, the input image data is normalized (S6 in FIG. 3).

正規化処理の方法として、線型伸縮法を用いる。ここで
は、64×64画素(ドット)の大きさに線形伸縮を行う。
また、前記「記号類判別処理」でケースと判別された
活字に対しては、まず、活字イメージデータを20×20ド
ットの大きさに線形拡大する。そして、後述する細線化
処理を行わずに、直接後述する線素化部に送る。また、
前記ケースと判別された活字に対しては、縦横を各々
の長さに比例して拡大をする。
A linear expansion / contraction method is used as a method of normalization processing. Here, linear expansion / contraction is performed to a size of 64 × 64 pixels (dots).
Further, for the type characters which are discriminated as cases in the "symbol discrimination process", the type image data is first linearly expanded to a size of 20 × 20 dots. Then, it is directly sent to the linearization unit described later without performing the thinning process described later. Also,
For a character type that is determined to be the case, the length and width are enlarged in proportion to each length.

第5図のノイズ除去・スムージング後の活字イメージデ
ータに対して正規化処理を行った例を第6図に示す。
FIG. 6 shows an example in which the normalization processing is performed on the print image data after noise removal / smoothing in FIG.

細線化処理 続いて、上記のようにして正規化された活字イメージデ
ータに対して、第2図の前処理部206において細線化処
理を行う(第3図S7)。細線化処理とは線分(パターン
部分)の幅を1画素に縮退させることにより、1本の線
分であらわすようにする処理をいう。細線化の方法につ
いては、様々な従来技術があるが、本実施例では、3×
3ドットの論理マスクで活字イメージデータ上を走査さ
せ、当該マスクの中心画素の周りの8近傍の画素の連結
関係を見ながら、パラーンの存在する画素を削ってゆく
方法を用いる。
Thinning Processing Subsequently, thinning processing is performed on the character image data normalized as described above by the preprocessing unit 206 in FIG. 2 (S7 in FIG. 3). The thinning process is a process in which the width of a line segment (pattern portion) is reduced to one pixel so that the line segment is represented by one line segment. There are various conventional techniques for thinning, but in this embodiment, 3 ×
A method of scanning the printed image data with a 3-dot logical mask and erasing the pixels in which the paran exists while observing the connection relationship of the eight neighboring pixels around the central pixel of the mask is used.

また、前記「記号類判別処理」のケースに属する記号
類が、前記したようにここで判別できる。そして、ケー
スと判別されたものは、直ちに細線化処理を中止し、
細線化処理を行う前の状態で後述する線素化処理を行
う。
Further, the symbols belonging to the case of the "symbol determination process" can be determined here as described above. Then, if it is determined as a case, the thinning process is immediately stopped,
The linearization process described below is performed in a state before the thinning process is performed.

第6図の正規化後の活字イメージデータに対して細線化
処理を行った例を第7図に示す。
FIG. 7 shows an example in which thinning processing is performed on the normalized print image data of FIG.

線素化処理 細線化されたイメージデータに対して、本実施例では後
述する特徴量抽出を行う前提となる線素化処理を行う
(第3図S8)。線素化処理とは、細線化パターンの各画
素を、横成分、縦成分、45゜成分及び135゜成
分の4つの方向成分のうち一方向成分で表す処理をい
う。
Linearization processing In the present embodiment, linearization processing, which is a premise for feature amount extraction described later, is performed on the thinned image data (S8 in FIG. 3). The linearization process is a process in which each pixel of the thinning pattern is represented by a unidirectional component out of four directional components of a horizontal component, a vertical component, a 45 ° component and a 135 ° component.

方向成分の抽出には、上記4方向に対応して第8図
(a)〜(d)に示すような4個の2×1ドットの論理
マスクを用いる。そして、一画素ずつ画面上を走査させ
ながら、各マスクの2ドットが全部パターン(論理
「1」のビット)で埋まっているかどうかを判定してゆ
く。もし、埋まっていれば、この時のマスクの方向をこ
の画素の方向成分とし記憶する。
To extract the directional component, four 2 × 1 dot logical masks as shown in FIGS. 8A to 8D are used in correspondence with the above four directions. Then, while scanning the screen one pixel at a time, it is determined whether or not all 2 dots of each mask are filled with the pattern (bit of logic "1"). If it is filled, the direction of the mask at this time is stored as the direction component of this pixel.

孤立点や多方向可能の画素については、上記のアルゴリ
ズムでは求められないので、これらの画素については、
3×3画素の論理マスクを用いて、多数決める。
Since it is not possible to find isolated points and pixels that can be multi-directional by the above algorithm,
A large number is determined using a 3 × 3 pixel logical mask.

また、前記「記号類判別処理」でケース又はケース
と判別された記号類については、ほかの活字と区別する
ため、このような活字の全てのパターン画素部分に、一
律135゜の方向成分を付加する。
In addition, in order to distinguish the case or the case judged from the case in the above “classification processing” from other prints, a uniform direction component of 135 ° is added to all pattern pixel parts of such prints. To do.

以上の処理によって得られる活字1文字文の線素化した
ものを、線素化活字イメージデータ214として出力す
る。
The linearized one-character type sentence obtained by the above processing is output as linearized typed character image data 214.

第7図の細線化処理後の活字イメージデータに対して上
記線素化処理を行って得た線素化活字イメージデータ21
4において、方向成分が割り当てられた各画素をイメー
ジ的に表現した例を第9図に示す。
The linearized type image data 21 obtained by performing the above linearization process on the type image data after the thinning process of FIG.
FIG. 9 shows an example in which each pixel to which the directional component is assigned is image-wise expressed in FIG.

活字方向線素特徴量の抽出処理 以上、第2図の前処理部206から出力される線素化活字
イメージデータ214は、特徴量抽出部207に入力し、ここ
で、本実施例における認識動作の基本となる活字方向線
素特徴量215が抽出される。
Extraction Processing of Type Direction Line Element Feature Amount The linerized type image data 214 output from the preprocessing unit 206 in FIG. 2 is input to the feature amount extraction unit 207, where the recognition operation in this embodiment is performed. A type direction line element feature amount 215, which is the basis of, is extracted.

ここでの動作は、第3図のS9に相当するが、この部分を
更に詳細に示した動作フローチャートが第10図である。
The operation here corresponds to S9 in FIG. 3, and FIG. 10 is an operation flowchart showing this part in more detail.

まず、第2図の前処理部206から出力される64×64ドッ
トの線素化活字イメージデータ214を入力する(第10図S
18)。
First, the 64 × 64 dot linearized type image data 214 output from the preprocessing unit 206 in FIG. 2 is input (S in FIG. 10).
18).

次に、このデータ上で、16×16ドットのマスの位置を決
定する(第10図S19)。すなわち、まず、64×64ドット
の線素化活字イメージデータ214に対して、第11図
(a)に示すように8ドット間隔で縦横を分割する。そ
して、16×16ドットを一単位とする領域すなわちマスW
を考える。このマスWは、8ドット間隔すなわち半マス
ずつ重なりを持たせて縦横に移動させられることによ
り、第11図(a)に示すように縦横共に7マス分ずつ移
動可能となり、結局、64×64ドットの線素化活字イメー
ジデータ214に対して指定可能なマスWの位置として、
7×7=49マス分の位置指定を行える。この49マス分の
位置指定を、第11図(a)の左上から8ドット間隔で右
方向に移動させ、右端に達したら左端に戻るとともに8
ドット下方向に移動しながら、マスWの位置指定を行っ
てゆくのが、第10図のS21から繰り返されるS19の処理で
ある。
Next, the position of the 16 × 16 dot cell is determined on this data (S19 in FIG. 10). That is, first, as shown in FIG. 11 (a), the 64 × 64-dot linearized type image data 214 is divided vertically and horizontally. Then, an area with 16 × 16 dots as one unit, that is, a mass W
think of. This square W can be moved in the vertical and horizontal directions by an interval of 8 dots, that is, in half squares, so that it can be moved by 7 squares in both the vertical and horizontal directions, resulting in 64 × 64. As the position of the square W that can be specified for the dot linearized print image data 214,
You can specify the position of 7 × 7 = 49 squares. The position designation for 49 cells is moved to the right at 8 dot intervals from the upper left of FIG. 11 (a), and when it reaches the right end, it returns to the left end and
It is the processing of S19 repeated from S21 of FIG. 10 that the position of the cell W is specified while moving in the dot downward direction.

上記処理によりマスWの位置が決定できたら、そのマス
W内において、前記線素化処理において線素化されてい
る画素の方向成分を、方向成分毎に重みをつけて累算す
る(第10図S20)。すなわち、今、第11図(b)に示す
ように、16×16ドットのマスWにおいて、中心部分の4
×4ドットの枠で囲まれた領域Iに重み4を割り当て、
この領域Iとその周りの8×8ドットの枠で囲まれた領
域IIに重み3を割り当て、更に、領域IIとその周りの12
×12ドットの枠で囲まれた領域IIIに重み2を割り当
て、領域IIIの外側の最外周の領域IVに重み1を割り当
てる。そして、前記第10図のS19の処理により、64×64
ドットの線素化活字イメージデータ214内で1つの位置
が定まった16×16ドットのマスWにおいて、方向成分が
割り当てられている画素が何画素ずつあるかを、方向成
分別に累算してゆく。このとき、各画素がどの領域にあ
るかによって対応する重みを乗じて累算する。
When the position of the cell W can be determined by the above processing, the directional components of the pixels linearized in the linearization processing in the cell W are weighted for each directional component and accumulated (10th step). (Figure S20). That is, as shown in FIG. 11 (b), in the square W of 16 × 16 dots, 4
A weight of 4 is assigned to a region I surrounded by a × 4 dot frame,
A weight of 3 is assigned to this area I and the area II surrounded by the frame of 8 × 8 dots, and the area II and the area 12
The weight 2 is assigned to the area III surrounded by the frame of × 12 dots, and the weight 1 is assigned to the outermost area IV outside the area III. Then, by the processing of S19 in FIG. 10, 64 × 64
In the 16 × 16 dot square W in which one position is determined in the dot linearization type image data 214, the number of pixels to which the direction component is assigned is accumulated for each direction component. . At this time, each pixel is multiplied by a corresponding weight depending on which region the pixel is in and accumulated.

上記処理の計算例として、今、マスW内に、縦・横・45
゜及び135゜の4つの方向成分を有する線素(画素)A
〜Dが、第12図のようにある場合を考える。同図より、
縦方向成分を有する線素Aは、領域I、II、III及びIV
共に4画素分ずつあるため、その累算結果は、 4×4+3×4+2×4+1×4=40 ・・(1) となる。次に、横方向成分を有する線素Bは、領域II
(重み3)に3画素分、領域III(重み2)に1画素分
ある。従って、その累算結果は、 3×3+1×2=11 ・・・・(2) となる。更に、45゜方向成分を有する線素Cは、領域II
(重み3)に1画素分、領域III(重み2)に4画素
分、領域IV(重み1)に3画素分ある。従って、その累
算結果は、 3×1+2×4+1×3=14 ・・・・(3) となる。そして、135゜方向成分を有する線素Dは、領
域III(重み2)に1画素分、領域IV(重み1)に2画
素分ある。従って、その累算結果は、 2×1+1×2=4 ・・・・(4) となる。
As an example of calculation of the above processing, now, in the square W, vertical / horizontal / 45
Line element (pixel) A having four directional components of ° and 135 °
Consider the case where ~ D is as shown in FIG. From the figure,
The line element A having a vertical direction component has regions I, II, III and IV.
Since there are four pixels each, the accumulation result is 4 × 4 + 3 × 4 + 2 × 4 + 1 × 4 = 40 (1). Next, the line element B having a lateral component is a region II.
There are 3 pixels in (weight 3) and 1 pixel in region III (weight 2). Therefore, the accumulated result is 3 × 3 + 1 × 2 = 11 (2). Further, the line element C having a 45 ° direction component is a region II.
There is one pixel in (weight 3), four pixels in area III (weight 2), and three pixels in area IV (weight 1). Therefore, the accumulation result is 3 × 1 + 2 × 4 + 1 × 3 = 14 (3). Then, the line element D having the 135 ° direction component is one pixel in the area III (weight 2) and two pixels in the area IV (weight 1). Therefore, the accumulation result is 2 × 1 + 1 × 2 = 4 (4).

以上のようにして得られる、縦・横・45゜及び135゜の
4つの方向成分の累算結果を、V1,V2,V3,V4の4つの変
数に割り当て、(V1,V2,V3,V4)によって示されるベク
トルを、現在のマス位置における部分特徴ベクトルとす
る。すなわち、上記(第12図)の例における部分特徴ベ
クトルは、前記(1)〜(4)式より、(40,11,14,4)
となる。これにより、1つのマス位置について4次元の
部分特徴ベクトルが得られる。
The accumulated results of the four directional components of vertical / horizontal / 45 ° and 135 ° obtained as described above are assigned to the four variables of V1, V2, V3, V4, and (V1, V2, V3, V4 ) Is a partial feature vector at the current mass position. That is, the partial feature vector in the above example (FIG. 12) is (40,11,14,4) from the equations (1) to (4).
Becomes As a result, a four-dimensional partial feature vector is obtained for one mass position.

以上の4次元の部分特徴ベクトルを求める処理を、16×
16ドットのマスWを前記したように8ドット間隔でずら
しながら決定される各位置毎に実行する(第10図S21→S
19)。そして、64×64ドットの線素化活字イメージデー
タ214において指定可能なマス位置は49マス分あるた
め、49マス分の処理が終了した時点で、結局4次元×49
=196次元の特徴ベクトルが得られることになる。な
お、このときの各4次元の部分特徴ベクトルと49マス分
の各マス位置は、正確に対応がとれているとする。
The process of obtaining the above four-dimensional partial feature vector is performed by 16 ×
The 16-dot square W is executed at each position determined by shifting it at intervals of 8 dots as described above (FIG. 10, S21 → S).
19). Further, since there are 49 mass positions that can be designated in the 64 × 64 dot linearized character image data 214, when the processing for 49 masses is completed, the four-dimensional × 49
= 196-dimensional feature vector is obtained. At this time, it is assumed that each four-dimensional partial feature vector and each square position for 49 squares are accurately associated.

このようにして得られた196次元の特徴ベクトルを、第
2図の活字イメージデータ213に対応する活字方向線素
特徴量215として、第2図の特徴量抽出部207から出力
し、活字方向線素特徴量の抽出処理を終了する(第10図
S21→S22)。
The 196-dimensional feature vector obtained in this way is output from the feature amount extraction unit 207 of FIG. 2 as the type direction line element feature amount 215 corresponding to the type image data 213 of FIG. The process of extracting the elementary features is completed (Fig. 10
S21 → S22).

活字方向線素特徴量抽出方式の特徴 上記第3図のS1〜S9までの処理として示される活字方向
線素特徴量抽出方式の利点を簡単にまとめておく。
Features of Type Direction Line Element Feature Extraction Method The advantages of the type direction line element feature extraction method shown as the processing of S1 to S9 in FIG. 3 will be briefly summarized.

まず、前提として前処理段階で正規化及び細線化を行う
ことにより、活字パターンの大きさや線の太さの影響を
受けにくく、また、活字パターンを線画としてとらえて
いるため、文字に限られない。
First, as a premise, by performing normalization and thinning in the pre-processing stage, it is unlikely to be affected by the size and line thickness of the print pattern, and since the print pattern is captured as a line drawing, it is not limited to characters. .

次に、細線化された活字イメージデータを4方向に線素
化することにより、パターンの構造を規格化することが
可能であり、後段の安定な特徴量抽出を可能にしてい
る。
Next, by linearizing the thinned print image data in four directions, the structure of the pattern can be standardized, and stable feature quantity extraction in the latter stage is possible.

そして、前記活字方向線素特徴量215として得られる196
次元の特徴ベクトルにおいて、4次元ずつ49組の各部分
特徴ベクトルは、第2図の活字イメージデータ213によ
って表される活字パターンの、各マス位置に対応する49
の部分の特徴すなわち部分情報を表している。従って、
例えば漢字パターンにおいては、漢字の偏,つくり等の
部分パターンに対応する情報を、複雑なアルゴリズムを
介さずに、かつ、それらの部分パターンの認識を必要と
せずに得ることができる。
Then, 196 is obtained as the type direction line element feature amount 215.
In the dimensional feature vector, 49 sets of four partial feature vectors each corresponding to four dimensions correspond to each square position of the type pattern represented by the type image data 213 in FIG.
Represents the characteristics of the part, that is, the partial information. Therefore,
For example, in a Kanji pattern, information corresponding to partial patterns of Kanji, such as bias and construction, can be obtained without using a complicated algorithm and without requiring recognition of those partial patterns.

この場合、重みつきのマスWを用いることにより、線分
の位置及び方向を活字方向線素特徴量215に明確に反映
させることが可能となり、かつ、マスWの周りの境界付
近の線分に対しては重みを軽くして、そのマス位置の部
分特徴ベクトルの抽出に対する寄与率を低くすることに
より、隣りのマス位置に入る可能性の高い不安定な線分
に対する適切な処理を可能としている。
In this case, by using the weighted mass W, it becomes possible to clearly reflect the position and direction of the line segment in the print direction line element feature amount 215, and to the line segment near the boundary around the mass W. On the other hand, by making the weight lighter and lowering the contribution rate to the extraction of the partial feature vector at the mass position, it is possible to appropriately process the unstable line segment that is likely to enter the adjacent mass position. .

更に、マス位置を半マス分ダブらせることにより、線分
の位置が多少ずれてもほぼ同じ重みで評価されるように
することができ、安定な活字方向線素特徴量215の抽出
を可能としている。
Furthermore, by duplicating the square position by half square, even if the position of the line segment is slightly shifted, it can be evaluated with almost the same weight, and stable extraction of the line direction feature element 215 in the print direction is possible. I am trying.

以上より、どのような活字パターンに対しても同様に活
字方向線素特徴量215を抽出することができ、例えば短
いストロークが多いような複雑な漢字パターン等でも適
切に対処できる。
As described above, the type direction line element feature amount 215 can be similarly extracted for any type pattern, and for example, a complicated Chinese character pattern having many short strokes can be appropriately dealt with.

また、適当なマス位置の部分特徴ベクトルに注目するこ
とにより、活字の一部分のみの部分情報を容易に抽出す
ることができ、後述する細分類認識処理に容易に対処で
きる。
Further, by paying attention to the partial feature vector at an appropriate mass position, it is possible to easily extract the partial information of only a part of the print type, and it is possible to easily deal with the fine classification recognition process described later.

連想整合標準パターン作成処理 以上のようにして得られた活字方向線素特徴量215に基
づく、連想整合法による活字イメージデータ213(第2
図)の認識処理について、以下に説明を行ってゆく。
Associative matching standard pattern creation processing Based on the type direction line element feature amount 215 obtained as described above, the type image data 213 (second
The recognition process of (Fig.) Will be described below.

ここで、後述する連想整合法による認識処理を行う場
合、第2図に示される連想整合用標準パターン辞書部21
1に連想整合用標準パターンを予め登録しておく必要が
ある。そこでまず、連想整合法による活字イメージデー
タ213(第2図)の認識処理の説明の前に、この標準パ
ターンの作成処理について説明を行う。この処理は、第
13図の動作フローチャートによって示される。
Here, in the case of performing recognition processing by the associative matching method described later, the standard pattern dictionary unit 21 for associative matching shown in FIG.
It is necessary to register the standard pattern for associative matching in 1 beforehand. Therefore, first, before describing the recognition processing of the print image data 213 (FIG. 2) by the associative matching method, the standard pattern creation processing will be described. This process is
This is shown by the operation flowchart of FIG.

まず、例えば3003種程度の全字種について、前記活字方
向線素特徴量抽出処理までと同様の処理によって、活字
方向線素特徴量を求める(第13図S23)。今、字種数を
Nとし、各字種の活字方向線素特徴量すなわち196次元
の特徴ベクトルを、xi(i=1〜N)とし、また、各xi
は、前記第11図(a)等で説明した49の各マス位置毎の
4次元ずつ計49組の部分特徴ベクトルx(m) i(m=1〜4
9)から構成されているとする。なお、この各次元の意
味については、既に前記したとおりである。
First, for all the character types of about 3003 types, the type direction line element feature amount is obtained by the same processing up to the type direction line element feature amount extraction processing (FIG. 13, S23). Now, let the number of character types be N, the type direction line element feature amount of each character type, that is, a 196-dimensional feature vector be x i (i = 1 to N), and each x i
Is a total of 49 sets of partial feature vectors x (m) i (m = 1 to 4 ) in four dimensions for each of the 49 mass positions described in FIG. 11 (a).
9). The meaning of each dimension is as described above.

そして、以下で行うべき標準パターンの作成処理とは、
全字種の特徴ベクトルxi(i=1〜N)を各マス位置毎
にクラスタリングし、各マス位置あたりL個(通常、20
個程度)ずつのクラス C(m) 1,C(m) 2,・・・、C(m) L(m=1〜49) に分類し、このようにして分類された各クラスから、各
々4次元ずつの代表ベクトル(m) iを、(m) i =E(x(m)),x(m)∈C(m) i(i=1〜L,m=1〜49)・
・・(5) として計算する処理をいう。すなわち、各マス位置毎の
各クラスに含まれる字種に対応する部分特徴ベルトルx
(m)に対して、それらの平均ベクトルとして計算(上記
でE(x(m))示される処理)される代表ベクトル(m) i
を標準パターンとして得る処理である。上記処理を行う
ためのアルゴリズムズムを以下に示す。
And the standard pattern creation process to be performed below is
All character type feature vectors x i (i = 1 to N) are clustered for each square position, and L pieces (usually 20
Each of the classes is classified into C (m) 1 , C (m) 2 , ..., C (m) L (m = 1 to 49), and each class is classified in this way. The four-dimensional representative vectors (m) i are represented by (m) i = E (x (m) ), x (m) ∈ C (m) i (i = 1 to L, m = 1 to 49).
・ ・ It means the process of calculating as (5). That is, the partial feature belt x corresponding to the character type included in each class for each mass position
For (m) , a representative vector (m) i calculated as the average vector of them (the processing indicated by E (x (m) ) above )
Is a process for obtaining as a standard pattern. The algorithmism for performing the above processing is shown below.

(a)まず、第11図(a)等において説明した16×16ド
ットのマス位置mを決定する(第13図S24)。
(A) First, the mass position m of 16 × 16 dots described in FIG. 11 (a) and the like is determined (FIG. 13, S24).

(b)次に、そのマス位置mに対応する全字種の4次元
の部分特徴ベクトルx(m) i(i=1〜N)を、以下か
らに示す最遠隣距離法によるクラスタリングアルゴリ
ズムを用いて、L個のクラスC(m) i(i=1〜L)にク
ラスタリングする。
(B) Next, a clustering algorithm based on the farthest neighbor distance method shown below is used for four-dimensional partial feature vectors x (m) i (i = 1 to N) of all the character types corresponding to the mass position m. It is used to cluster into L classes C (m) i (i = 1 to L).

C(m) i={x(m) i},(i=1〜N) count=N すなわちここでは、初期値としてN個のクラスに分かれ
ており、各クラスは各々1つずつの部分特徴ベクトルx
(m) iから構成される。なお、countはクラスの分割数を
表す変数であり、後述するようにcount=Lとなった時
点でクラスタリングを終了する。
C (m) i = {x (m) i }, (i = 1 to N) count = N That is, here, the initial value is divided into N classes, and each class has one partial feature. Vector x
(m) consists of i . It should be noted that count is a variable representing the number of divisions of the class, and the clustering ends when count = L as described later.

を満たすC(m)、C(m)を見つける。但し、 d(C(m) i,C(m) j)=max{‖x(m) p−x(m) q‖} (x(m) p∈C(m) i,x(m) q∈C(m) j) ここで、‖x(m) p−x(m) q‖は、部分特徴ベクトルx(m) p
とx(m) qの距離を示すノルムであり、例えば4次元の特
徴ベクトルのユークリッド距離の2乗和として計算され
る。
Find C (m) ' j and C (m) ' j that satisfy. However, d (C (m) i , C (m) j ) = max {‖x (m) p −x (m) q ‖} (x (m) p ∈ C (m) i , x (m) q ∈ C (m) j ) where ‖x (m) p −x (m) q ‖ is the partial feature vector x (m) p
Is a norm indicating the distance between x and (m) q , and is calculated, for example, as the sum of squares of the Euclidean distance of the four-dimensional feature vector.

すなわち、 である。なお、x(m) p,k及びx(m) q,kは、各部分特徴ベク
トルx(m) p及びx(m) qの各次元の要素を表す。
That is, Is. In addition, x (m) p, k and x (m) q, k represent the element of each dimension of each partial feature vector x (m) p and x (m) q .

C(m)とC(m)を統合する。すなわち、 C(m)=C(m)+C(m) とする。Integrate C (m) ' i and C (m) ' j . That is, C (m) ' i = C (m) ' i + C (m) ' j .

count=count−1 もし、countがLに等しくなければ〜を繰り返
し、Lに等しければクラスタリングの処理を終了する。
count = count-1 If count is not equal to L, repeat steps, and if equal to L, end the clustering process.

以上のクラスタリングアルゴリズムにより、現在のマス
位置mに対応するN種の字種の4次元の部分特徴ベクト
ルx(m) i(i=1〜N)が、L個のクラスにクラス分け
される(第13図S25)。
By the above clustering algorithm, the four-dimensional partial feature vectors x (m) i of N character types corresponding to the current mass position m (i = 1 to N) are classified into L classes ( (Figure 13 S25).

(c)次に、上記のようにして求まったマス位置mに対
するL個のクラスの代表ベクトル(m) iを計算する(第
13図S26)。これは前記(5)式で示されるように、各
クラスC(m) i(i=1〜L)毎に、そのクラスに含まれ
る字種に対応する4次元の部分特徴ベクトルx(m)の平均
として計算され、その次元数は当然4である。
(C) Next, the representative vectors (m) i of L classes with respect to the mass position m obtained as described above are calculated (
13 Figure S26). This is, as shown in the equation (5), for each class C (m) i (i = 1 to L), a four-dimensional partial feature vector x (m) corresponding to the character type included in the class. Is calculated as the average of, and the number of dimensions is naturally 4.

(d)上記処理の後、各クラスC(m) i(i=1〜L)に
含まれる字種の字種コードをクラス毎にテーブル化し
て、辞書を作成する(第13図S27)。
(D) After the above processing, the character type codes of the character types included in each class C (m) i (i = 1 to L) are tabulated for each class to create a dictionary (FIG. 13, S27).

以上の(a)〜(d)に示した処理を、49の各マス位置
m(m=1〜49)に対して行う(第13図S28→S24)。
The processing shown in (a) to (d) above is performed for each of the 49 mass positions m (m = 1 to 49) (FIG. 13, S28 → S24).

第14図は、N=3003種の字種を上記連想整合用標準パタ
ーン作成処理によって、各マス位置(マス番号)毎にL
=20個のクラスにクラスタリングした結果の例と、各ク
ラスの代表ベクトルの例を示す。なお、具体例はマス番
号1のみについて簡単に示してある。ここまで説明して
きたように、本実施例では、活字方向線素特徴量として
得られる196次元の特徴ベクトルを、49の各マス位置に
対応する4次元ずつの部分特徴ベクトルに分割し、各部
分特徴ベクトル毎に独立に類似するもの同士をクラス分
けし、各クラス毎に1つの代表ベクトルで代表させてい
る。そして、各部分特徴ベクトルは、既に「活字方向線
素特徴量抽出方式の特徴」の項で説明したように、4次
元ずつ49組の各部分特徴ベクトルは、第2図の活字イメ
ージデータ213によって表される活字パターンの、各マ
ス位置に対応する49の部分の特徴すなわち部分情報を表
している。従って、例えば漢字パターンにおいては、第
14図のマス番号1の場合、3003種の活字イメージデータ
の左上隅の漢字の偏、つくり等の部分パターンが類似す
る字種が同じクラスに入っていることになる。また、各
マス位置において、1つの文字は必ず1つのクラスに分
類され、1つの字種の入るクラスは、各マス毎に異なっ
てもよいことになる。
FIG. 14 shows L = 3003 character types at each cell position (cell number) by the standard pattern creation process for associative matching described above.
An example of the result of clustering into 20 classes and an example of the representative vector of each class are shown. It should be noted that the specific example is briefly shown only for the cell number 1. As described above, in the present embodiment, the 196-dimensional feature vector obtained as the type direction line element feature amount is divided into 4-dimensional partial feature vectors corresponding to 49 mass positions, and each part is divided. For each feature vector, similar ones are independently classified into classes, and each class is represented by one representative vector. Then, as described in the section “Characteristics of Line Direction Feature Element Extraction Method for Type Characters”, each partial feature vector has 49 sets of partial feature vectors for every four dimensions by the type image data 213 of FIG. It represents the characteristics of 49 parts, that is, partial information, corresponding to each square position in the print pattern shown. So, for example, in a Kanji pattern,
In the case of cell number 1 in Fig. 14, 3003 types of character image data are in the same class as the character types with similar partial patterns such as Kanji deviation and construction in the upper left corner. Further, at each cell position, one character is always classified into one class, and the class in which one character type falls may be different for each cell.

上記の方式は、漢字の偏、つくり等の部分パターンを抽
出する方式と結果的に対応するところがあるが、後者は
偏やつくり等の形に依存して多様なアルゴリズムが必要
となってくる。これに対し、本方式は字種に依存せず、
複雑なアルゴリズムを介さずに、かつ、それらの部分パ
ターンの認識を必要とせずに、極めて簡潔かつ機械的に
部分パターンの特徴を辞書化することができるという特
徴がある。
The above-mentioned method has a result corresponding to the method of extracting partial patterns such as bias and composition of Chinese characters, but the latter requires various algorithms depending on the shape of bias and composition. On the other hand, this method does not depend on the character type,
The feature is that the features of the partial patterns can be made into a dictionary very simply and mechanically without using a complicated algorithm and without requiring recognition of those partial patterns.

連想整合認識処理 前記第3図のS1〜S9までの処理で求まった第2図の活字
イメージデータ213に対応する活字方向線素特徴量215
と、上記連想整合標準パターン作成処理によって連想整
合用標準パターン辞書部211に予め得られる連想整合標
準パターンとのパターンマッチングを行うことにより、
活字イメージデータ213の認識を行う。この場合、本実
施例では以下に説明するように連想整合法による認識処
理を行うことを特徴とする。このアルゴリズムは、第3
図のS10〜S13の処理によって実現される。以下、これら
の処理について、順次説明を行う。
Associative Matching Recognition Process Type direction line element feature amount 215 corresponding to the type image data 213 of FIG. 2 obtained by the processes of S1 to S9 of FIG.
By performing pattern matching with the associative matching standard pattern previously obtained in the associative matching standard pattern dictionary unit 211 by the associative matching standard pattern creation processing,
The print image data 213 is recognized. In this case, the present embodiment is characterized in that recognition processing is performed by the associative matching method as described below. This algorithm is
It is realized by the processing of S10 to S13 in the figure. Hereinafter, these processes will be sequentially described.

(e)まず、第11図(a)等において説明した16×16ド
ットのマス位置mを決定し、前記第3図のS9の処理で求
まった未知入力に対する活字方向線素特徴量215である1
96次元の特徴ベクトルのうち、上記マス位置mに対応す
る4次元の部分特徴ベクトルをy(m)とし、第2図の連想
整合用標準パターン辞書部211に登録されているマス位
置mに対応する連想整合用標準パターンのL個の各クラ
スの代表ベクトル(m) iとの間の距離D(m) iを計算しマ
ッチングをとる(第3図S10)。すなわち、 D(m) i=‖y(m)(m) i‖(i=1〜L) ・・・(6) ここで、‖y(m)(m) i‖は、未知入力の部分特徴ベク
トルy(m)と代表ベクトル(m) iの距離を示すノルムであ
り、例えば4次元の部分特徴ベクトルの、ベクトルを構
成する各要素と要素の間のユークリッド距離の2乗和と
して計算される。すなわち、 である。なお、y(m) k及び(m) i,kは、4次元の部分特
徴ベクトルy(m)及びx(m) qの各次元の要素を表す。
(E) First, the 16 × 16 dot mass position m described with reference to FIG. 11 (a) and the like is determined, and the line direction feature element amount 215 is for the unknown input obtained by the processing of S9 in FIG. 1
Of the 96-dimensional feature vectors, the four-dimensional partial feature vector corresponding to the above-mentioned mass position m is y (m), and corresponds to the mass position m registered in the standard pattern dictionary 211 for associative matching of FIG. The distance D (m) i from the L representative vectors (m) i of the associative matching standard pattern is calculated and matching is performed (S10 in FIG. 3). That is, D (m) i = ‖y (m)(m) i ‖ (i = 1 to L) (6) where ‖y (m)(m) i ‖ is an unknown input Is a norm indicating the distance between the partial feature vector y (m) and the representative vector (m) i . For example, as the square sum of the Euclidean distances between each element that constitutes the vector of the four-dimensional partial feature vector Calculated. That is, Is. It should be noted that y (m) k and (m) i, k represent the respective dimension elements of the four-dimensional partial feature vectors y (m) and x (m) q .

(f)D(m) iの距離を小さい上位α個、すなわち、 D(m) i1≦D(m) i2≦・・・≦D(m) iα ・・・(8) となるクラスを抽出する。このとき、D(m) i1は、D(m) i
(i=1〜L)のうち最も距離の小さいもの、D(m) i2
2番目に距離の小さいもの、D(m) iαはα番目に距離の
小さいものである。そして、上位α個の各クラスC(m) in
(n=1〜α)に属する字種に対してのみ、各順位に応
じた得点を与える(第3図S11)。すなわち、x(m)∈C
(m) inを有する字種に対する得点P(x(m))を、 P(x(m))=α−n+1(n=1〜α) ・・・(9) として計算し、その字種の得点累算用の記憶領域(第2
図の連想整合認識部209内に設けられる)に累算する。
また、α位以下のクラスに属する字種には得点は与えな
い。
(F) An upper α class having a smaller distance of D (m) i , that is, a class such that D (m) i1 ≤ D (m) i2 ≤ ... ≤ D (m) i α ... (8) Extract. At this time, D (m) i1 becomes D (m) i
Among (i = 1 to L), the one with the smallest distance, D (m) i2 is the one with the second smallest distance, and D (m) i α is the one with the smallest distance. Then, the top α classes C (m) in
Only for the character types belonging to (n = 1 to α), a score according to each rank is given (S11 in FIG. 3). That is, x (m) ∈ C
The score P (x (m) ) for a character type having (m) in is calculated as P (x (m) ) = α−n + 1 (n = 1 to α) (9), and the character type is calculated. Storage area for accumulating points (second
(Provided in the associative matching recognition unit 209 in the figure).
In addition, no score is given to the character types belonging to the classes below the α position.

(g)上記の(e)、(f)に示した処理を、49の各マ
ス位置m(m=1〜49)に対して行う(第3図S12→S1
0)。
(G) The processes shown in (e) and (f) above are performed for each of 49 mass positions m (m = 1 to 49) (S12 → S1 in FIG. 3).
0).

(h)49のマス位置に対する処理を終了した時点で、累
算された得点の高い字種から順に、認識結果候補として
その字種コードを出力し、第2図の大分類認識結果216
とする(第3図S13)。
(H) When the processing for the 49 square positions is completed, the character type codes are output as recognition result candidates in order from the character type with the highest accumulated score, and the large classification recognition result 216 of FIG.
(S13 in FIG. 3).

第15図は、連想整合用標準パターン辞書として、49個の
各マス位置(マス番号)毎にL=20個のクラスにクラス
タリングされた辞書を用いた場合の、距離計算方法の説
明図である。同図からわかるように、本実施例の方式で
は、各字種各々との距離計算をする必要はなく、前記
(2)式で示されるように、各マス位置毎に各クラスの
代表ベクトル(m) iとの距離計算をするだけでよいこと
がわかる。
FIG. 15 is an explanatory diagram of a distance calculation method when a dictionary that is clustered into L = 20 classes for each of 49 mass positions (mass numbers) is used as the associative matching standard pattern dictionary. . As can be seen from the figure, in the method of the present embodiment, it is not necessary to calculate the distance to each character type, and as shown in the above equation (2), the representative vector of each class ( It can be seen that it is only necessary to calculate the distance to m) i .

次に、未知入力が漢字の「亜」であった場合に、前記
(8)及び(9)式に基づいて各マス毎の距離の小さい
クラスに得点が与えられる様子を、第16図にいクラスに
得点が与えられる様子を、第16図に示す。この場合、α
=5すなわち各マス位置毎に上位5個のクラスに得点を
与えることとする。従って、前記(9)式で与えられる
得点P(x(m))は、第1位すなわちn=1のクラスには
5点、第2位すなわちn=2のクラスには4点、以下、
3、2、1点が与えられる。そして、第16図より、漢字
「亜」が含まれるクラスには、マス番号1〜49の全般に
わたって高い得点(5又は4点)が与えられていること
がわかる。従って、最終的な得点の累算結果は、漢字
「亜」の得点が最も高くなり、第2図の連想整合認識部
209から最終的に大部分認識結果216の第1候補として出
力されることがわかる。
Next, when the unknown input is the Chinese character “A”, the situation in which points are given to the class with a small distance for each square based on the above equations (8) and (9) is shown in FIG. Figure 16 shows how points are given to classes. In this case, α
= 5, that is, scores are given to the top 5 classes for each square position. Therefore, the score P (x (m) ) given by the above formula (9) is 5 points for the first rank, that is, the class of n = 1, and 4 points for the second rank, that is, the class of n = 2.
3, 2, 1 points will be given. From FIG. 16, it can be seen that the class including the Chinese character “A” is given a high score (5 or 4 points) over all the cell numbers 1 to 49. Therefore, the final result of accumulating the scores is that the kanji "A" has the highest score, and the associative matching recognition unit of FIG.
It can be seen from 209 that most of the recognition result 216 is finally output as the first candidate.

連想整合認識処理の計算量の検討 ここで従来の認識方式と本実施例による連想整合認識方
式との計算量の簡単な比較を行ってみる。
Examination of Calculation Amount of Associative Matching Recognition Processing Here, a simple comparison of the calculation amount between the conventional recognition method and the associative matching recognition method according to the present embodiment will be performed.

まず、従来の第一の認識方式として、前記「従来例」の
項で説明した従来例と同様の方式、すなわち3003種の字
種について各々196次元の特徴ベクトルxi(i=1〜300
3)を標準パターンとして有して、196次元の未知入力の
特徴ベクトルyとの距離計算を行って、その距離の大小
で認識を行ういわゆる総当たり法の場合を考える。この
場合の距離計算式は、 となる。なお、yk及びxi,kは、各々4次元の特徴ベク
トルy及びxiの各次元の要素を表す。この場合、上記
(9)式の演算に必要な計算量は、まず、1つの特徴ベ
クトルxiに対する計算量が、減算及び乗算ともに196
回、加算が195回である。そして、今、加算と減算は同
じ計算量、乗算1回は加算2回の計算量と換算すれば、
上記計算を3003字種について行うための全体の計算量
は、加算換算で、 (196+196×2+195)×3003=2351349回・・・(11) となる。
First, as the first conventional recognition method, the same method as the conventional example described in the above-mentioned “Conventional example”, that is, 196-dimensional feature vectors x i (i = 1 to 300) for each of 3003 character types.
Consider the case of a so-called brute force method in which 3) is used as a standard pattern, distance calculation is performed with a feature vector y of unknown input of 196 dimensions, and recognition is performed according to the size of the distance. The distance calculation formula in this case is Becomes It should be noted that y k and x i, k represent respective dimensional elements of the four-dimensional feature vectors y and x i . In this case, the calculation amount required for the calculation of the above equation (9) is such that the calculation amount for one feature vector x i is 196 for both subtraction and multiplication.
195 additions and additions. And now, if the addition and the subtraction are converted into the same calculation amount, and the multiplication once is converted into the calculation amount of addition twice,
The total calculation amount for performing the above calculation for 3003 character types is (196 + 196 × 2 + 195) × 3003 = 2351349 times (11) in addition conversion.

これに対して、本実施例による連想整合認識処理に必要
な計算量は、前記(6)式〜(8)式に基づいて試算す
ればよい。すなわち、前記(6)式及び(7)式におい
て、未知入力の特徴ベクトルy(m)と1つの代表ベクトル
(m) iの距離計算に必要な計算量は、減算及び乗算とも
に4回、加算が3回である。そして、今、前記と同様に
加算と減算は同じ計算量、乗算1回は加算2回の計算量
と換算すれば、上記計算を1つのマス位置について行う
ためには、例えばクラス数L=20として、 (4+4×2+3)×20=300回 ・・・(12) となる。また、各マス位置において、前記(8)式の上
位α位の順位計算を行うためには、例えばα=5とすれ
ば、L=20クラスに対して、 5×20=100回 ・・・(13) の減算(大小比較計算)が必要である。更に、上位α個
の各クラスC(m) in(n=1〜α)に属する字種に、前記
(9)式で予め計算しておいた得点を累算する計算は、
1字種あたり加算1回で、クラス数α=5、1クラスあ
たりの平均字種数を110個とすれば、 1×110×5=550回 ・・・(14) となる。上位(12)、(13)及び(14)式より、1マス
位置あたりに必要な計算量は950回となる。従って、49
個のマス位置全てについての計算量は、 950×49=46550回 ・・・(15) となる。
On the other hand, the amount of calculation required for the associative matching recognition process according to the present embodiment may be calculated on the basis of the formulas (6) to (8). That is, in the equations (6) and (7), the unknown input feature vector y (m) and one representative vector
The calculation amount required for distance calculation of (m) i is 4 times for both subtraction and multiplication and 3 times for addition. Now, if the addition and subtraction are converted into the same amount of calculation as in the above and the amount of calculation is such that one multiplication is performed twice addition, in order to perform the above calculation for one mass position, for example, the number of classes L = 20. As a result, (4 + 4 × 2 + 3) × 20 = 300 times (12) Further, in order to calculate the rank of the upper α rank of the equation (8) at each square position, for example, if α = 5, 5 × 20 = 100 times for L = 20 class ... Subtraction of (13) (size comparison calculation) is necessary. Further, the calculation of accumulating the scores calculated in advance by the formula (9) for the character types belonging to each of the upper α classes C (m) in (n = 1 to α) is
If the number of classes α = 5 for one character type and the average number of character types for each class is 110, then 1 x 110 x 5 = 550 times (14). From the upper equations (12), (13) and (14), the calculation amount required for each square position is 950 times. Therefore, 49
The calculation amount for all individual mass positions is 950 × 49 = 46550 times (15).

一方、前記従来の第一の認識方式と、本実施例による認
識方式の中間に位置する従来の第二の認識方式について
考える。この方式は、まず、各マス位置について各クラ
スの代表ベクトル(m) iと未知入力を特徴ベクトルy(m)
との距離計算を行うところまでは同じである。その後、
1つの字種について、各マス位置毎に、その字種が含ま
れるクラスの代表ベクトルと未知入力の特徴ベクトルy
(m)との距離を距離計算結果から参照し、49個のマス位
置の全てについて累算することにより1つの字種につい
ての総合距離を計算する。そして、これを3003種の全字
種について繰り返し、距離の小さい順に認識結果候補と
して出力する方式である。この方式の場合、始めの距離
計算は前記(6)式及び(7)式と同じであり、従っ
て、その計算量は前記(12)式と同じである。次に、1
字種あたりの総合距離の計算量は、49個のマス位置に対
する累算であるから、49回の加算となる。従って、3003
種の全字種についての計算量は、前記(12)式とともに
考えて、 49×3003=147147回 ・・・(16) となる。上記(16)式と前記(12)式より、全体の計算
量は、 300+147147=147447回 ・・・(17) となる。
On the other hand, consider the conventional first recognition method and the conventional second recognition method which is positioned between the recognition methods according to the present embodiment. In this method, first, for each mass position, the representative vector (m) i of each class and the unknown input are feature vectors y (m)
It is the same until the distance calculation with. afterwards,
For one character type, the representative vector of the class in which the character type is included and the feature vector y of the unknown input for each square position
The total distance for one character type is calculated by referring to the distance from (m) from the distance calculation result and accumulating for all 49 mass positions. Then, this is repeated for all 3003 character types, and is output as recognition result candidates in ascending order of distance. In the case of this method, the initial distance calculation is the same as in the above equations (6) and (7), and therefore the amount of calculation is the same as in the above equation (12). Then 1
Since the calculation amount of the total distance per character type is the accumulation for 49 mass positions, it is 49 additions. Therefore, 3003
Considering the above formula (12), the calculation amount for all character types is 49 × 3003 = 147147 times (16). From the above equation (16) and the above equation (12), the total calculation amount is 300 + 147147 = 147447 times (17).

以上の試算結果より、前記(11)式及び(15)式より、
本実施例による方式の計算量は、総当たり法による第一
の従来方式に比較して単純計算でも約1/50の計算量で済
み、メモリアクセスや条件判断等が多少複雑になること
による計算時間の増加を考慮してもかなりの計算量の削
減を実現している。また、前記第二の従来方式に比較し
ても、前記(11)式及び(17)式より依然として約1/3
の計算量で済む。この第二の従来方式は、前記したよう
に各マス位置についてクラス分けをして辞書を作成する
ところまでは本実施例と同じであるが、従来例は全ての
字種について距離の総和を計算していたのに対して、本
実施例では、距離の小さい上位クラスの字種にのみ得点
を与えることにより、最終的な認識結果候補を得てお
り、これにより、より一層の計算量の削減を実現してい
る。
From the above calculation results, from the equations (11) and (15),
The calculation amount of the method according to the present embodiment is about 1/50 in the simple calculation as compared with the first conventional method by the brute force method, and the calculation is performed because the memory access and the condition judgment are slightly complicated. Even if the increase in time is taken into consideration, a considerable reduction in the amount of calculation has been realized. In addition, compared with the second conventional method, it is still about 1/3 from the expressions (11) and (17).
The amount of calculation is enough. This second conventional method is the same as this embodiment up to creating a dictionary by classifying each mass position as described above, but the conventional example calculates the sum of distances for all character types. On the other hand, in the present embodiment, the final recognition result candidates are obtained by scoring only the upper-class character types with a small distance, which further reduces the calculation amount. Has been realized.

連想整合認識処理の認識性能の検討 本実施例による方式は、特徴ベクトルを各マス位置毎に
クラス分けし、各々1つの代表ベクトルで置き換えてい
る分、総当たり法による前記の第一の従来方式に比較し
て、基本的に認識のための情報量が減少している。しか
し、JIS第一水準漢字2965個を含む3003個の字種を有す
る多種類ワープロ印刷文字を用いた認識実験では、49の
各マス位置毎のクラス数Lを20〜30(前記「連想整合標
準パターン作成処理」の項参照)とし、また、α=5と
することにより(前記「連想整合認識処理」の項参
照)、99%以上の1位認識率(第2図の大分類認識結果
216として得られる最も得点の高い認識結果候補が正し
い率)を得ることができ、総当たり法の場合と比較して
ほとんど同等の認識率を得られる。
Examination of Recognition Performance of Associative Matching Recognition Processing In the method according to the present embodiment, the feature vector is classified into each mass position and each representative vector is replaced by one representative vector. Compared to, the amount of information for recognition is basically reduced. However, in a recognition experiment using multiple types of word-processor printing characters having 3003 character types, including 2965 JIS first-level kanji, the number of classes L for each 49 mass positions was 20 to 30 (see "Associative matching standard" above). The pattern recognition process ”) and α = 5 (refer to the above“ associative matching recognition process ”), so that the first rank recognition rate of 99% or more (the large classification recognition result in FIG. 2)
The recognition result candidate with the highest score obtained as 216 can obtain the correct rate), and almost the same recognition rate can be obtained as compared with the case of the brute force method.

従って、本実施例の方式は従来方式に比較して、認識率
が同等で計算量を大幅に削減できる方式であることがわ
かる。
Therefore, it is understood that the method of the present embodiment has a recognition rate equal to that of the conventional method and can significantly reduce the calculation amount.

細分類認識処理 前記連想整合認識処理により、第2図の連想整合認識部
209から出力される大分類認識結果216は、連想整合の結
果、高い得点が累算された字種から順に、第1位候補、
第2位候補、・・・というように認識結果の候補が出力
される。そして、数千種類の字種から認識された上位5
〜10位の大分類認識結果216の中に、目的とする認識結
果が含まれる率はほぼ100%になる。
Fine classification recognition processing The associative matching recognition processing of FIG. 2 is performed by the associative matching recognition processing.
The large classification recognition result 216 output from the 209 is, in order from the character type in which the high score is accumulated as a result of the associative matching, the first candidate,
The candidates of the recognition result are output such as the second-ranked candidate, .... And the top 5 recognized from thousands of character types
The ratio of the target recognition result included in the 10th largest classification recognition result 216 is almost 100%.

そこで、上記のようにして得られた上位5〜10位の大分
類認識結果216に基づいて、更に、各認識結果候補の部
分情報と詳細なマッチングをとることにより、類似する
文字候補を正確に順位づけする細分類認識処理を行う。
Therefore, based on the top-ranked 5th to 10th largest classification recognition results 216 obtained as described above, further detailed matching is performed with partial information of each recognition result candidate to accurately identify similar character candidates. A fine classification recognition process for ranking is performed.

本実施例では、上記部分情報の解析を行うために、第2
図の特徴量抽出部207から得られる活字方向線素特徴量2
15のうち、特定のマス位置における4次元ずつの部分特
徴ベクトルの比較を行う。今、前記「活字方向線素特徴
量抽出方式の特徴」の項で説明したように、活字方向線
素特徴量215として得られる196次元の特徴ベクトルにお
いて、4次元ずつ49組の各特徴ベクトルは、第2図の活
字イメージデータ213によって表される活字パターン
の、各マス位置に対応する49の部分の特徴すなわち部分
情報を表している。従って、「太、大、犬」や「土、
士」等のように相互に誤認識され易い字種候補におい
て、誤認識をし易いマス位置のみに着目して、そのマス
位置に対応する部分特徴ベクトル同士で比較を行えば、
部分情報の解析を容易に行うことが可能となる。
In this embodiment, in order to analyze the partial information, the second
Type direction line element feature quantity 2 obtained from the figure feature quantity extraction unit 207
Of the 15 pieces, the partial feature vectors of four dimensions are compared at specific mass positions. As described above in the section “Characteristics of type direction line element feature amount extraction method”, in the 196-dimensional feature vector obtained as the type direction line element feature amount 215, 49 sets of each four feature vectors , The characteristic of 49 parts corresponding to each square position of the character pattern represented by the character image data 213 of FIG. 2, that is, partial information. Therefore, "thick, big, dog" and "soil,
In character type candidates that are easily misrecognized, such as "shi", etc., if we focus only on the mass positions that are easily misrecognized and compare the partial feature vectors corresponding to that mass position,
It becomes possible to easily analyze the partial information.

具体的な処理として、まず、上記のように相互に誤認識
され易い字種毎に、予めグループを構成し、細分類用テ
ーブルとしてテーブル化しておく。すなわち、例えば第
17図に示すように、2965文字のJIS第一水準漢字の各文
字毎に、誤認識され易い他の関係文字を登録しておく。
この場合、同図の「なし」で示されるように、関係文字
がない文字もあり、この場合は細分類認識処理は行われ
ない。そして、同時に、各文字を認識するために、マス
番号1〜49のうちどのマス位置の部分特徴ベクトルを用
いるかをフラグ「1」によって示しておく。なお、関係
文字として登録される各グループ内では、用いられるマ
ス番号は同一にしておく(例えば第17図の「犬」と
「大」のテーブル参照)。また、フラグ「0」で示され
るマス位置はその文字候補の細分類認識に使用されない
ことを意味する。このようにして予め得られる細分類用
テーブルを、第2図の細分類辞書部212に登録してお
く。また、各文字毎に、第17図の細分類用テーブルでフ
ラグ「1」が付与されているマス位置の標準的な部分特
徴ベクトルを、細分類辞書として細分類辞書部212に登
録しておく。
As a specific process, first, a group is formed in advance for each character type that is likely to be erroneously recognized as described above, and is tabulated as a table for fine classification. That is, for example,
As shown in Fig. 17, for each character of the 2965 JIS first-level kanji, other related characters that are easily misrecognized are registered.
In this case, as shown by "none" in the figure, there are some characters that do not have related characters, and in this case, the fine classification recognition process is not performed. At the same time, the flag "1" indicates which square position of the square feature numbers is used to recognize each character. In addition, in each group registered as a related character, the cell numbers used are the same (for example, refer to the table of “dog” and “large” in FIG. 17). Further, the square position indicated by the flag "0" means that it is not used for the fine classification recognition of the character candidate. The fine classification table thus obtained in advance is registered in the fine classification dictionary unit 212 in FIG. Further, for each character, a standard partial feature vector of a mass position to which the flag “1” is added in the fine classification table of FIG. 17 is registered in the fine classification dictionary unit 212 as a fine classification dictionary. .

上記細分類用テーブル及び細分類辞書を用いて、第2図
の細分類部210において以下のようにして細分類認識処
理を行う。
Using the fine classification table and the fine classification dictionary, the fine classification unit 210 of FIG. 2 performs the fine classification recognition process as follows.

まず、第2図の連想整合認識部209から出力される例え
ば上位10位までの大分類認識結果216の各認識結果候補
について、第2図の細分類辞書部212に登録されている
細分類用テーブルを参照して、その候補文字についての
関係文字が大分類認識結果216内のその候補文字と連続
する順位の候補文字として含まれているか否かを検索
し、細分類認識処理すなわち部分マッチングが必要か否
かを判定する(第3図S14→S15)。
First, for each of the recognition result candidates of the large classification recognition results 216, for example, the top 10 ranks, which are output from the associative matching recognition unit 209 of FIG. 2, for the fine classification registered in the fine classification dictionary unit 212 of FIG. By referring to the table, it is searched whether or not the related character for the candidate character is included in the large classification recognition result 216 as a candidate character having a continuous rank with the candidate character. It is determined whether it is necessary or not (S14 → S15 in FIG. 3).

もし、その候補文字について関係文字が存在しないか
(第17図の「ない」の場合)、その候補文字についての
関係文字が大分類認識結果216内のその候補文字と連続
する順位の候補文字として含まれていない場合は、細分
類認識処理を行う必要がないため、大分類認識結果216
をそのまま第2図の細分類認識結果217として出力し、
最終認識結果とする(第3図S15→S17)。
If the related character does not exist for the candidate character (in the case of “not” in FIG. 17), the related character for the candidate character is regarded as a candidate character having a rank consecutive to the candidate character in the large classification recognition result 216. If it is not included, it is not necessary to perform the fine classification recognition processing, so the large classification recognition result 216
Is output as is as the fine classification recognition result 217 of FIG.
This is the final recognition result (S15 → S17 in Fig. 3).

一方、その候補文字についての関係文字が大分類認識結
果216内のその候補文字と連続する順位の候補文字とし
て含まれている場合は、以下のアルゴリズムで部分マッ
チングを行う(第3図S15→S16)。
On the other hand, when the related character for the candidate character is included as a candidate character in the rank which is continuous with the candidate character in the large classification recognition result 216, partial matching is performed by the following algorithm (S15 → S16 in FIG. 3). ).

まず、細分類用テーブルを参照し、その候補文字に対
応するマス位置を検出する。
First, the fine classification table is referred to, and the mass position corresponding to the candidate character is detected.

次に、第2図の特徴量抽出部207から予め得られてい
る大分類認識結果216に対する入力である活字方向線素
特徴量215の中から、で検出されたマス位置に対応す
る部分特徴ベクトルを抽出する。
Next, a partial feature vector corresponding to the mass position detected in the type direction line element feature amount 215 which is an input to the large classification recognition result 216 obtained in advance from the feature amount extraction unit 207 of FIG. To extract.

上記で抽出された部分特徴ベクトルと、前記候補文
字とその関係文字に対応する細分類辞書内の各部分特徴
ベクトルとの距離を計算し、その距離の小さい順に前記
候補文字とその関係文字の認識順位をならべかえる。
The distance between the partial feature vector extracted above and each partial feature vector in the fine classification dictionary corresponding to the candidate character and its related character is calculated, and the candidate character and its related character are recognized in order of increasing distance. Change the ranking.

以上のからの部分マッチング処理で得られた新たな
順位の認識結果候補を、第2図の細分類認識結果217と
して最終的に出力する(第3図S16→S17)。なお、大分
類認識結果216のうち、前記候補文字とその関係文字に
対応する候補文字以外の候補文字については、そのまま
の認識順位で細分類認識結果217として出力する。
The recognition result candidates of the new rank obtained by the above partial matching processing are finally output as the fine classification recognition result 217 of FIG. 2 (S16 → S17 of FIG. 3). Note that, in the large classification recognition result 216, candidate characters other than the candidate characters corresponding to the candidate characters and the related characters are output as the fine classification recognition result 217 in the same recognition order.

上記細分類認識処理により、大分類認識結果216として
得られる認識結果候補のうち、特に誤認識し易い文字候
補について、その認識順位を詳細に決定することがで
き、これにより、最終的な認識率を更に高めることが可
能となる。
By the fine classification recognition processing, among the recognition result candidates obtained as the large classification recognition result 216, the recognition order can be determined in detail with respect to the character candidates that are particularly likely to be erroneously recognized. Can be further increased.

他の実施例 以上に示した実施例は、本発明を活字イメージデータの
認識に適用したものであり、活字イメージデータから得
られる活字方向線素特徴量すなわちパターン方向線素特
徴量を連想整合認識処理の入力とし、更に、連想整合認
識処理の後段の処理として、細分類認識処理を組み合わ
せたものである。
Other Embodiments The embodiment described above is one in which the present invention is applied to the recognition of type image data, and the type direction line element feature amount obtained from the type image data, that is, the pattern direction line element feature amount is associative matching recognized. This is a combination of a fine classification recognition process as a process input and a process subsequent to the associative matching recognition process.

本発明は、上記のような組み合わせに限られず、パター
ン方向線素特徴量抽出方式によって得られたパターン方
向線素特徴量を元に、他の認識方式によるパターン認識
も可能である。
The present invention is not limited to the combination as described above, and pattern recognition by another recognition method is possible based on the pattern direction line element feature amount obtained by the pattern direction line element feature amount extraction method.

またパターン方向線素特徴量抽出方式の後段に連想整合
法によらない認識方式を適用し、その結果得られた認識
結果候補を細分類認識方式で更に細分類するようにして
もよい。
Alternatively, a recognition method that does not rely on the associative matching method may be applied after the pattern direction line element feature amount extraction method, and the recognition result candidates obtained as a result may be further subclassified by the subclassification recognition method.

また、活字イメージデータの認識に限られず、例えば音
声周波数のスペクトル包絡パターンを画像化して得た入
力パターンに適用することも可能である。
Further, the present invention is not limited to the recognition of print image data, but can be applied to an input pattern obtained by imaging a spectrum envelope pattern of a voice frequency, for example.

そん他、様々な入力パターンの認識に適用することが可
能である。
In addition, it can be applied to recognition of various input patterns.

〔発明の効果〕〔The invention's effect〕

本発明によれば、各領域に対応して得られる部分特徴ベ
クトルは、入力パターンの各領域に対応する部分の特徴
すなわち部分情報を表している。従って、例えば漢字パ
ターンにおいては、漢字の偏、つくり等の部分パターン
に対応する情報を、複雑なアルゴリズムを介さずに、か
つ、それらの部分パターンの認識を必要とせずに得るこ
とができる。
According to the present invention, the partial feature vector obtained corresponding to each area represents the characteristic of the portion corresponding to each area of the input pattern, that is, partial information. Therefore, for example, in a Chinese character pattern, it is possible to obtain information corresponding to partial patterns such as deviations and constructions of Chinese characters without using a complicated algorithm and without requiring recognition of those partial patterns.

この場合、重みつきの領域を設定することにより、パタ
ーンの位置・方向を部分特徴ベクトルひいてはパターン
方向線素特徴量に明確に反映させることが可能となり、
かつ、領域の周囲の境界付近のパターンに対しては重み
を軽くして、その領域の部分特徴ベクトルの抽出に対す
る寄与率を低くすることにより、隣りの領域に入る可能
性の高い不安定なパターンに対する適切な処理を可能と
している。
In this case, by setting the weighted region, it becomes possible to clearly reflect the position / direction of the pattern on the partial feature vector and thus on the pattern direction line element feature amount.
In addition, the weight is lightened for the pattern near the boundary around the area, and the contribution rate to the extraction of the partial feature vector of the area is reduced, so that an unstable pattern that is likely to enter the adjacent area is generated. The appropriate processing for

更に、領域の指定位置に重なりを持たせることにより、
パターンの位置が多少ずれてもほぼ同じ重みで評価され
るようにすることができ、安定なパターン方向線素特徴
量の抽出を可能としている。
Furthermore, by giving overlap to the specified position of the area,
Even if the positions of the patterns are slightly shifted, they can be evaluated with almost the same weight, and stable extraction of the line direction feature quantity in the pattern direction is possible.

特に、本発明によるパターン方向線素特徴量抽出方式を
連想整合認識方式又は細分類認識方式と組み合わせるこ
とにより、認識性能が高く、認識時間も短いパターン認
識システムを実現することができる。
In particular, by combining the pattern direction line element feature amount extraction method according to the present invention with the associative matching recognition method or the fine classification recognition method, it is possible to realize a pattern recognition system having high recognition performance and short recognition time.

【図面の簡単な説明】[Brief description of drawings]

第1図(a)、(b)は、本発明の原理説明図、 第2図は、本実施例の全体構成図、 第3図は、本実施例の全体動作フローチャートを示した
図、 第4図は、活字イメージデータの例を示した図、 第5図は、ノイズ除去・スムージング後の活字イメージ
データの例を示した図、 第6図は、正規化後の活字イメージデータの例を示した
図、 第7図は、細線化後の活字イメージデータの例を示した
図、 第8図(a)〜(d)は、方向成分抽出用マスクを示し
た図、 第9図は、線素化活字イメージデータの例を示した図、 第10図は、活字方向線素特徴量抽出のための動作フロー
チャートを示した図、 第11図(a)、(b)は、活字方向線素特徴量の説明
図、 第12図は、活字方向線素特徴量の計算例の説明図、 第13図は、連想整合用標準パターン作成処理の動作フロ
ーチャートを示した図、 第14図は、クラスタリングの説明図、 第15図は、連想整合法による距離計算動作説明図、 第16図は、連想整合法による認識動作例を示した図、 第17図は、細分類用テーブルの例を示した図である。 101……方向成分抽出手段、 102……領域分割手段、 103……部分特徴ベクトル演算手段、 104……入力パターン、 105……部分特徴ベクトル、 106……パターン方向線素特徴量、
1 (a) and 1 (b) are explanatory views of the principle of the present invention, FIG. 2 is an overall configuration diagram of the present embodiment, and FIG. 3 is a diagram showing an overall operation flowchart of the present embodiment. FIG. 4 is a diagram showing an example of type image data, FIG. 5 is a diagram showing an example of type image data after noise removal / smoothing, and FIG. 6 is an example of type image data after normalization. FIG. 7 is a diagram showing an example of print image data after thinning, FIGS. 8 (a) to 8 (d) are diagrams showing a mask for extracting directional components, and FIG. FIG. 10 is a diagram showing an example of line-segmented type image data, FIG. 10 is a diagram showing an operation flowchart for extracting line direction feature elements in type direction, and FIGS. 11 (a) and 11 (b) are type direction lines. Fig. 12 is an explanatory diagram of elementary features, Fig. 12 is an explanatory diagram of a calculation example of line direction element features, and Fig. 13 is a standard pattern for associative matching. Fig. 14 is a diagram showing an operation flow chart of the composition process, Fig. 14 is an explanatory diagram of clustering, Fig. 15 is an explanatory diagram of distance calculation operation by the associative matching method, and Fig. 16 is an example of recognition operation by the associative matching method. FIG. 17 is a diagram showing an example of a fine classification table. 101 ... Direction component extraction means, 102 ... Region dividing means, 103 ... Partial feature vector calculation means, 104 ... Input pattern, 105 ... Partial feature vector, 106 ... Pattern direction line element feature amount,

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】2次元の入力パターン(104)の各画素毎
に、その隣接画素のうちパターンが存在する画素の方向
成分を抽出する方向成分抽出手段(101)と、 前記入力パターン(104)を各々相互に重なりを有する
複数の領域に分割する領域分割手段(102)と、 前記分割された領域の中心部分の画素位置から周囲の画
素位置に向かうほど小さくなるように重みを分布し、か
つ各画素位置における該画素位置が含まれる前記分割さ
れた領域に割り当てられる重みの和が略一定となるよう
に重みを付ける重み付け手段と、 前記領域分割手段(102)により分割された各領域毎
に、該領域内の各画素の前記方向成分抽出手段(101)
から得られる方向成分を、前記重みを付加して方向別に
集計し、該各方向毎の集計結果を要素とする部分特徴ベ
クトル(105)を演算する部分特徴ベクトル演算手段(1
03)とを有し、 該手段により得られる前記全領域分の部分特徴ベクトル
(105)をパターン方向線素特徴量(106)として抽出す
ることを特徴とするパターン方向線素特徴抽出方式。
1. A directional component extracting means (101) for extracting, for each pixel of a two-dimensional input pattern (104), a directional component of a pixel in which a pattern exists among its adjacent pixels, and the input pattern (104). Area dividing means (102) for dividing each area into a plurality of areas each having an overlap with each other, and distributing weights such that the weight becomes smaller from the pixel position of the central portion of the divided area toward the surrounding pixel positions, and Weighting means for weighting so that the sum of the weights assigned to the divided areas including the pixel positions at each pixel position is substantially constant; and for each area divided by the area dividing means (102). , The direction component extraction means (101) for each pixel in the region
The directional components obtained from the above are added to the weights to be added up for each direction, and a partial feature vector calculation means (1) for calculating a partial feature vector (105) whose element is the totalized result for each direction (1
03) and extracting the partial feature vectors (105) for the entire area obtained by the means as pattern direction line element feature amounts (106).
【請求項2】複数の各学習パターンに対して、請求項1
記載の前記部分特徴ベクトル演算手段から前記各領域別
の部分特徴ベクトルを抽出した後、前記各領域別に前記
複数の学習パターンのクラス分けを行うクラス分け手段
と、 該各クラスの代表ベクトルを演算する代表ベクトル演算
手段と、 該各クラス毎の代表ベクトル及び該各クラスに含まれる
前記学習パターンの種類を前記各領域別に辞書として記
憶する辞書記憶手段と、 未知入力パターンに対して請求項1記載の前記部分特徴
ベクトル演算手段から前記各領域別に部分特徴ベクトル
を抽出した後、前記各領域別に前記辞書記憶手段内の対
応する前記各クラスの代表ベクトルとの類似度を演算す
る類似度演算手段と、 前記辞書記憶手段を検索して、前記各領域別に前記類似
度の高い上位所定順位までのクラスに含まれる各学習パ
ターンにそのクラスの順位に対応する得点を累算する得
点累算手段と、 前記各領域の全てについて前記得点累算手段による累算
動作が終了した後、累算された得点の高い学習パターン
から順に順位付きの認識結果候補として出力する認識結
果候補出力手段とを有することを特徴とする請求項1記
載のパターン方向線素特徴量を用いた連想整合認識方
式。
2. The method according to claim 1, for each of the plurality of learning patterns.
After extracting the partial feature vector for each area from the described partial feature vector calculating means, a classifying means for classifying the plurality of learning patterns for each area and a representative vector for each class are calculated. The representative vector calculation means, a dictionary storage means for storing a representative vector for each class and the type of the learning pattern included in each class as a dictionary for each area, and an unknown input pattern according to claim 1. After extracting a partial feature vector for each area from the partial feature vector operation means, a similarity operation means for calculating the similarity with the corresponding representative vector of each class in the dictionary storage means for each area, The dictionary storage means is searched to search for each learning pattern for each learning pattern included in a class up to a predetermined rank with high similarity. And a score accumulating means for accumulating scores corresponding to the rank of the class, and after the accumulation operation by the score accumulating means is completed for all of the respective areas, the learning pattern having a high accumulated score is ranked in order. 2. The associative matching recognition method using the pattern direction line element feature quantity according to claim 1, further comprising a recognition result candidate output means for outputting as a recognition result candidate with an index.
【請求項3】類似する複数の学習パターンに対して、請
求項1記載の前記部分特徴ベクトル演算手段から特定の
少なくとも1つの領域に対応する部分特徴ベクトルを抽
出した後、前記類似学習パターンの種類と前記特定領域
の識別情報と該特定領域における前記各類似学習パター
ンの部分特徴ベクトルとを記憶する類似パターン辞書記
憶手段と、 前記類似学習パターンのいずれかに対応する未知入力パ
ターンに対して、請求項1記載の前記部分特徴ベクトル
演算手段から前記類似パターン辞書記憶手段に記憶され
ている前記識別情報から得られる特定領域に対応する部
分特徴ベクトルを抽出した後、前記類似パターン辞書記
憶手段に記憶されている前記各類似学習パターンの部分
特徴ベクトルとの類似度を演算する特定領域類似度演算
手段と、 該類似度が高い学習パターンから順に順位付きの部分類
認識結果候補として出力する細分類認識結果候補出力手
段とを有することを特徴とする請求項1記載のパターン
方向線素特徴量を用いた細分類認識方式。
3. A type of the similar learning pattern after extracting a partial feature vector corresponding to at least one specific area from the partial feature vector calculating means according to claim 1 for a plurality of similar learning patterns. A similar pattern dictionary storage unit that stores identification information of the specific area and a partial feature vector of each similar learning pattern in the specific area; and an unknown input pattern corresponding to any of the similar learning patterns, After extracting a partial feature vector corresponding to a specific area obtained from the identification information stored in the similar pattern dictionary storage means from the partial feature vector calculation means according to item 1, the partial feature vector is stored in the similar pattern dictionary storage means. And a specific area similarity calculation means for calculating the similarity with the partial feature vector of each of the similar learning patterns 2. The pattern direction line element feature amount according to claim 1, further comprising: a fine classification recognition result candidate output unit that outputs as a partial classification recognition result candidate with a ranking in order from the learning pattern with the highest degree of similarity. Fine classification recognition method.
【請求項4】請求項2記載の前記認識結果候補出力手段
から出力される認識結果候補出力が、相互に請求項3記
載の前記類似パターン辞書記憶手段内に記憶されている
類似学習パターンである場合、前記認識結果候補出力に
対応する未知入力パターンを請求項3記載の前記特定領
域類似度演算手段に入力させることにより、前記認識結
果候補出力の細分類認識を行い最終的な細分類認識結果
候補出力を得ることを特徴とするパターン認識方式。
4. The recognition result candidate output output from the recognition result candidate output means according to claim 2 is a similar learning pattern mutually stored in the similar pattern dictionary storage means according to claim 3. In this case, by inputting an unknown input pattern corresponding to the recognition result candidate output to the specific area similarity calculation means according to claim 3, fine classification recognition of the recognition result candidate output is performed, and a final fine classification recognition result is obtained. A pattern recognition method characterized by obtaining candidate outputs.
JP63205687A 1988-08-20 1988-08-20 Pattern recognition method Expired - Fee Related JPH0769936B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP63205687A JPH0769936B2 (en) 1988-08-20 1988-08-20 Pattern recognition method
US07/393,623 US5287275A (en) 1988-08-20 1989-08-14 Image recognition apparatus and method for recognizing a pattern within an image
DE68928450T DE68928450D1 (en) 1988-08-20 1989-08-18 Pattern recognition device and method therefor
EP89115297A EP0355748B1 (en) 1988-08-20 1989-08-18 A pattern recognition apparatus and method for doing the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP63205687A JPH0769936B2 (en) 1988-08-20 1988-08-20 Pattern recognition method

Publications (2)

Publication Number Publication Date
JPH02125390A JPH02125390A (en) 1990-05-14
JPH0769936B2 true JPH0769936B2 (en) 1995-07-31

Family

ID=16511043

Family Applications (1)

Application Number Title Priority Date Filing Date
JP63205687A Expired - Fee Related JPH0769936B2 (en) 1988-08-20 1988-08-20 Pattern recognition method

Country Status (1)

Country Link
JP (1) JPH0769936B2 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5826072B2 (en) * 1980-09-27 1983-05-31 工業技術院長 character recognition device
JPS61143887A (en) * 1984-12-18 1986-07-01 Matsushita Electric Ind Co Ltd Character recognizer
JP2556477B2 (en) * 1986-07-07 1996-11-20 日本電信電話株式会社 Pattern matching device
JPS63118993A (en) * 1986-11-07 1988-05-23 Ricoh Co Ltd Character recognizing method
JPS63131287A (en) * 1986-11-20 1988-06-03 Ricoh Co Ltd Character recognition system

Also Published As

Publication number Publication date
JPH02125390A (en) 1990-05-14

Similar Documents

Publication Publication Date Title
Sahare et al. Multilingual character segmentation and recognition schemes for Indian document images
US5373566A (en) Neural network-based diacritical marker recognition system and method
US5539840A (en) Multifont optical character recognition using a box connectivity approach
US5287275A (en) Image recognition apparatus and method for recognizing a pattern within an image
US6687401B2 (en) Pattern recognizing apparatus and method
US8045798B2 (en) Features generation and spotting methods and systems using same
US4903312A (en) Character recognition with variable subdivisions of a character region
US7233697B2 (en) Character recognition device and a method therefor
Lehal et al. Feature extraction and classification for OCR of Gurmukhi script
US5926564A (en) Character recognition method and apparatus based on 0-1 pattern representation of histogram of character image
Chowdhury et al. Automated segmentation of math-zones from document images
KR100498683B1 (en) A character recognition apparatus, a character recognition method, and a computer-readable storage medium recording a character recognition apparatus
JP3917349B2 (en) Retrieval device and method for retrieving information using character recognition result
JP7338159B2 (en) Information processing device and program
JPH0769936B2 (en) Pattern recognition method
Chanda et al. Font identification—In context of an Indic script
JPH0769940B2 (en) Associative matching recognition method
Gatos et al. A segmentation-free recognition technique to assist old Greek handwritten manuscript OCR
JP3790736B2 (en) Dictionary creation device for character recognition and character recognition device
JP2866920B2 (en) Standard pattern creation method and apparatus, and character recognition apparatus and method
Mohanty et al. A Comparative Analysis of Classifiers Accuracies for Bilingual Printed Documents (Oriya-English)
JP2007026470A (en) Pattern recognition device
Bohra et al. Handwritten Character Recognition for major Indian Scripts: A Survey
JP2993533B2 (en) Information processing device and character recognition device
Khalighi et al. A novel OCR system for calculating handwritten persian arithmetic expressions

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees