JP2003162688A - Apparatus for creating dictionary for recognizing character, and character-recognizing apparatus - Google Patents

Apparatus for creating dictionary for recognizing character, and character-recognizing apparatus

Info

Publication number
JP2003162688A
JP2003162688A JP2002300891A JP2002300891A JP2003162688A JP 2003162688 A JP2003162688 A JP 2003162688A JP 2002300891 A JP2002300891 A JP 2002300891A JP 2002300891 A JP2002300891 A JP 2002300891A JP 2003162688 A JP2003162688 A JP 2003162688A
Authority
JP
Japan
Prior art keywords
character
cluster
feature
unit
dictionary
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002300891A
Other languages
Japanese (ja)
Other versions
JP3790736B2 (en
Inventor
Minoru Takakura
穂 高倉
Ichiro Nakao
一郎 中尾
Mariko Takenouchi
磨理子 竹之内
Satoshi Emura
里志 江村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2002300891A priority Critical patent/JP3790736B2/en
Publication of JP2003162688A publication Critical patent/JP2003162688A/en
Application granted granted Critical
Publication of JP3790736B2 publication Critical patent/JP3790736B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Character Discrimination (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a superb character-recognizing apparatus. <P>SOLUTION: An image input section 2701 accepts an input character image 1714 to convert to binary image data, a character column detection section 2702 detects the coordinates of character columns from the binary image data, and a character detection section 2703 detects character coordinates. A feature extraction section 2704 extracts the feature of a binary image that is specified by character coordinates, and a large classification section 2705 selects a candidate cluster having high similarity from the above feature and the cluster feature of a dictionary 108 for large classification. A detailed recognition section 2706 obtains the similarity of a proximity cluster again using a dictionary 111 for detailed identification, and a recognition result rejection section 2707 judges the significance of the candidate cluster using a dictionary 113 for rejection processing. A rejection character connection section 2708 connects rejection characters, and a connection character division section 2710 newly obtains character coordinates. A recognition result selection section 2711 selects the recognition result, a column recognition result evaluation section 2712 judges whether the column of characters are significant or not, and a recognition result output section 2713 outputs the recognition result as a character code. <P>COPYRIGHT: (C)2003,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、新聞の活字、ワープロ
印字及び手書き文字等を認識する文字認識装置及びその
装置用の辞書の作成装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a character recognition device for recognizing printed characters of a newspaper, word processor printing, handwritten characters and the like, and a dictionary creating device for the device.

【0002】[0002]

【従来の技術】一般に従来より文字認識装置は、認識対
象の文字画像から幾つかの特徴を抽出し、その幾つかの
特徴の組(以後単に特徴と呼ぶ)を、内蔵する辞書中の
基準の特徴と比較し、これが最も類似した文字を認識結
果とする。この際用いられる辞書用の最も単純な辞書作
成装置は、何人かにより手書きされた文字、異なるフォ
ントで印字された文字等からなる同一文字の複数の画像
学習用データから抽出した各特徴の平均値をその文字の
基準特徴として辞書に格納する。
2. Description of the Related Art Generally, a character recognition device has conventionally extracted some features from a character image to be recognized, and a set of some features (hereinafter simply referred to as features) is used as a reference in a built-in dictionary. The character that is most similar to the feature is used as the recognition result. The simplest dictionary creation device for the dictionary used at this time is the average value of each feature extracted from a plurality of image learning data of the same character consisting of characters handwritten by several people, characters printed in different fonts, etc. Is stored in the dictionary as the reference feature of the character.

【0003】しかし、学習データから抽出した特徴の分
布は複雑に入り混じったものになることが普通であるた
め、このような単純な装置で作成した辞書を用いると、
同一文字であっても、書く人により、あるいは書くたび
に文字形状が変動する手書き文字や、複数の文字形状か
らなるマルチフォントで印字された文字の認識をする場
合には、不十分である。
However, since the distribution of the features extracted from the learning data is usually a complicated mixture, if a dictionary created by such a simple device is used,
Even if the same character, it is insufficient for recognizing a handwritten character whose character shape varies depending on the writer or each time writing, or a character printed in a multi-font consisting of a plurality of character shapes.

【0004】そのため、一般的な手法であるクラスタ分
析〔異質なものの混ざりあっている対象{それは個体
(=もの)の場合もあるし、変数の場合もある}を、そ
れらの間に何らかの意味で定義された類似度(similari
ty)を手がかりにして似たものを集め、いくつかの均質
なものの集落(クラスタ)に分類する方法をいう。(例
えば、非特許文献1参照)〕の手法を応用した辞書作成
装置が提案されている。この装置では、各文字の学習デ
ータ中の類似したデータを集めて複数のクラスタを作
り、各クラスタ毎に求めた特徴の平均値を辞書に格納す
る。この場合、文字毎のクラスタ数が多い程、作成され
た辞書による認識率は高くなるけれども、それだけ辞書
容量が大きくなる。
For this reason, a cluster analysis [a mixed object of different things {which may be an individual (= thing) or may be a variable}), which is a general method, has some meaning between them. Defined similarity (similari
ty) is used as a clue to collect similar things and classify them into some homogeneous communities (clusters). (See, for example, Non-Patent Document 1)] has been proposed. In this apparatus, similar data in the learning data of each character are collected to form a plurality of clusters, and the average value of the characteristics obtained for each cluster is stored in the dictionary. In this case, the larger the number of clusters for each character, the higher the recognition rate by the created dictionary, but the larger the dictionary capacity.

【0005】また、作成された辞書を用いて文字認識装
置は、認識対象の文字画像の特徴と辞書に格納された全
辞書データとを距離計算して比較する。このため、辞書
に格納された辞書データの総数が多いと、認識に要する
時間もそれにともなって長くなる。従って、記憶資源の
効率や認識実行時間を考慮すると、1文字のクラスタ数
は少ない程良い。
Further, the character recognition apparatus uses the created dictionary to calculate the distance between the characteristics of the character image to be recognized and all the dictionary data stored in the dictionary and compare them. Therefore, when the total number of dictionary data stored in the dictionary is large, the time required for recognition becomes long accordingly. Therefore, considering the efficiency of the storage resources and the recognition execution time, the smaller the number of clusters of one character, the better.

【0006】これら相反する要件の下、高い認識率を実
現する最少のクラスタ数が、最適クラスタ数となる。し
かし、ある文字の最適クラスタ数は、その文字に属する
学習データの特徴の分布だけではなく、特徴空間上隣接
して分布する他の文字の学習データの分布との関係に左
右されるため、全文字の学習データの特徴の分布を把握
する必要がある。
Under these contradictory requirements, the minimum number of clusters that realizes a high recognition rate is the optimum number of clusters. However, the optimal number of clusters for a given character depends not only on the distribution of the features of the learning data belonging to that character, but also on the relationship with the distribution of the learning data of other characters that are adjacent in the feature space. It is necessary to understand the distribution of the characteristics of the learning data of characters.

【0007】ところが、通常、辞書作成には、膨大な数
の学習データを使用するため、それら総てについて、相
互の関係を把握し、各文字の最適クラスタ数を決定する
作業は、膨大な計算量が必要であり、現実的ではない。
そのため、従来の第1の技術では、全文字一律のクラス
タ数でクラスタリング(クラスタ分析)をしている。
However, since a huge amount of learning data is usually used for creating a dictionary, the work of grasping the mutual relationship and determining the optimum number of clusters for each character is a huge calculation. Amount is needed, not realistic.
Therefore, in the conventional first technique, clustering (cluster analysis) is performed with a uniform number of clusters for all characters.

【0008】また、第2の技術(例えば、特許文献1参
照)では、一旦、全文字一律のクラスタ数でクラスタリ
ングをして辞書を作成した後、作成した辞書を用いて認
識実験を行い、認識率を見ながらクラスタ数の調整をし
ている。また、第3の技術(例えば、特許文献2参照)
では、特徴に関しては、入力された文字画像の境界画素
毎に隣接する境界画素との位置関係に基づいて方向値を
定義し、文字画像外接矩形を水平方向にL分割、垂直方
向にM分割した各部分領域における各方向値の境界点数
を計数した領域別輪郭方向密度と、文字画像外接矩形中
の各画素から各辺に向かって走査したとき、文字部を横
切る回数+1を背景値として定義し、文字画像外接矩形
を水平方向にP分割、垂直方向にQ分割した各部分領域
における各方向各背景値ごとの画素数を計数した領域別
背景密度とを用いている。
In the second technique (see, for example, Patent Document 1), a cluster is once created by clustering with a uniform number of clusters of all characters, and then a recognition experiment is performed using the created dictionary to perform recognition. The number of clusters is adjusted while watching the rate. Also, a third technique (for example, see Patent Document 2).
With regard to the characteristics, the direction value is defined for each boundary pixel of the input character image based on the positional relationship with the adjacent boundary pixel, and the character image circumscribed rectangle is divided into L in the horizontal direction and M in the vertical direction. The contour direction density for each area in which the number of boundary points of each direction value in each partial area is counted, and the number of times the character portion is crossed when scanning from each pixel in the rectangle circumscribing the character image to each side is defined as the background value. , A region-based background density obtained by counting the number of pixels for each background value in each direction in each partial region obtained by horizontally dividing the character image circumscribing rectangle by P and vertically dividing by Q.

【0009】また、第4の技術(例えば、特許文献3参
照)では、文字認識装置で認識対象の文書画像が文書の
印字状態や入力時の画像2値化処理により、文字同士の
接触や掠れによる文字の分離などが出現することがある
ため、接触文字や分離文字が含まれる文書画像から個々
の文字を切り出し認識するようしている。その手段とし
て、切り出された文字あるいは文字部分を単独で認識す
ると共に、連結後の文字幅が予め推定しておいた文字幅
を越えない限り分離文字の可能性もあるため、隣接する
文字あるいは文字部分を可能な全ての組合せで連結・認
識し、単独で認識した場合と、連結・認識した場合とで
より評価値の高い方を認識結果として採用する。
Further, in the fourth technique (for example, refer to Patent Document 3), the character image of the document to be recognized by the character recognizing device is touched or smeared between characters due to the print state of the document or the image binarization process at the time of input. Since characters may be separated due to the occurrence of characters, individual characters are cut out and recognized from a document image including contact characters and separated characters. As a means to do so, it is possible to recognize the cut-out character or character part independently, and there is a possibility that it will be a separated character as long as the character width after concatenation does not exceed the estimated character width. The parts are connected / recognized in all possible combinations, and the higher evaluation value is adopted as the recognition result depending on whether the parts are individually recognized or connected / recognized.

【0010】更に、従来の文字認識装置は、文字以外の
絵や図の記入された文書画像から、絵や図を文字行とし
て切り出し、誤認識を行う危険性を考慮して、評価値か
ら認識したものが正しい文字であるか否かを各文字毎に
判断をしている。
Further, the conventional character recognition device recognizes from the evaluation value in consideration of the risk of erroneous recognition by cutting out a picture or a figure as a character line from a document image in which a picture or a figure other than the character is written. For each character, it is judged whether or not what is done is a correct character.

【0011】[0011]

【非特許文献1】「多変量統計解析法」,田中豊・脇本
和昌著,現代数学社,P.230〜244
[Non-patent document 1] “Multivariate statistical analysis method”, Yutaka Tanaka / Kazumasa Wakimoto, Hyundai Mathematics Co., Ltd., p. 230-244

【0012】[0012]

【特許文献1】特開平1−36388号公報[Patent Document 1] JP-A-1-36388

【0013】[0013]

【特許文献2】特公平5−082628号公報[Patent Document 2] Japanese Patent Publication No. 5-082628

【0014】[0014]

【特許文献3】特開平5−128307号公報[Patent Document 3] Japanese Unexamined Patent Publication No. 5-128307

【0015】[0015]

【発明が解決しようとする課題】ところで、上述した第
1の技術では、1文字あたりのクラスタ数が少ないと極
端に認識率が悪いため、一般に、冗長なクラスタリング
を行うことになり、認識率の割にはクラスタ数が多くな
る。また、第2の技術では、例えば、「0」と「O」な
ど殆ど同形の文字があった場合、いくらクラスタ数を増
やしても認識率が上がらないため、徒にクラスタ数が増
えてしまう。
By the way, in the above-mentioned first technique, since the recognition rate is extremely poor when the number of clusters per character is small, redundant clustering is generally performed, and the recognition rate is reduced. The number of clusters is relatively large. Further, in the second technique, for example, when there are almost the same characters such as “0” and “O”, the recognition rate does not increase even if the number of clusters is increased, so that the number of clusters increases unnecessarily.

【0016】また、第3の技術では、図32に示す形状
3201、3202のように形状が異なっても、輪郭の
連続関係3203が類似しているので、非常に類似した
特徴が得られ、同一であると誤認識することが多い。ま
た、第4の技術では、連結後の文字幅が予め推定してお
いた文字幅を越えない限り分離文字の可能性もあるとし
て、隣接する文字あるいは文字部分を可能な全ての組合
せで連結・認識するため、認識に時間を要する。
Further, in the third technique, even if the shapes are different, such as the shapes 3201 and 3202 shown in FIG. 32, since the contour continuity relationship 3203 is similar, very similar characteristics are obtained and the same. Is often mistakenly recognized as Further, in the fourth technique, it is considered that there is a possibility of separated characters as long as the character width after concatenation does not exceed the character width estimated in advance, and adjacent characters or character parts are concatenated in all possible combinations. It takes time to recognize because it is recognized.

【0017】更に、従来の文字認識装置では、図や絵の
一部が偶然類似した文字として認識された場合には、意
味のない認識結果が得られることになる。本発明は上記
課題に鑑み、適切な辞書データ数で高認識率が達成でき
る、手書き文字あるいはマルチフォント文字の認識用辞
書の作成装置及び該装置で作成された辞書を用いた文字
認識装置を提供することを目的とする。
Further, in the conventional character recognition device, when a part of a drawing or a picture is accidentally recognized as a similar character, a meaningless recognition result is obtained. In view of the above problems, the present invention provides an apparatus for creating a dictionary for recognizing handwritten characters or multi-font characters, which can achieve a high recognition rate with an appropriate number of dictionary data, and a character recognition apparatus using the dictionary created by the apparatus. The purpose is to do.

【0018】[0018]

【課題を解決するための手段】上記課題を解決するた
め、本発明においては、文字コードごとに、入力を受け
付けた多数の学習用文字画像を2値画像データに変換す
る入力画像変換手段と、前記入力画像変換手段で変換さ
れた各2値画像データから文字認識に用いる特徴を抽出
する特徴抽出手段と、前記特徴抽出手段で抽出された特
徴を、文字コードごとに所定の手順でクラスタに分類す
るクラスタリング手段と、前記クラスタリング手段で分
類したクラスタごとに、前記特徴抽出手段で抽出した特
徴を平均したクラスタ平均特徴を求めて、前記入力画像
変換手段から入力された文字コードに対応付けた大分類
用データとして登録する大分類用辞書登録手段と、前記
大分類用辞書登録手段に登録されているクラスタ平均特
徴間の距離を計算する距離計算手段と、前記距離計算手
段で計算された距離が所定の値よりも小さい異なる文字
コードのクラスタを近接クラスタの組として取り出し、
その組ごとにクラスタ平均特徴のうちそれらを識別する
能力の高い要素を少なくとも1個選択して、両クラスタ
の識別子とともに詳細識別用データとして登録する詳細
識別用辞書登録手段とを備え、前記クラスタリング手段
は、文字コードごとに文字認識に用いる特徴相互間の距
離を計算する距離計算部と、前記距離計算部が計算した
各文字コードごとの距離の最大値のうち最小のものを基
にクラスタの大きさに決定する決定部と、文字コードご
とに前記決定部で決定されたクラスタの大きさ以下にク
ラスタを統合する統合部とを備えることとしている。
In order to solve the above-mentioned problems, in the present invention, an input image conversion means for converting a large number of learning character images, which have been input, for each character code into binary image data, Feature extraction means for extracting features used for character recognition from each binary image data converted by the input image conversion means, and features extracted by the feature extraction means are classified into clusters according to a predetermined procedure for each character code. Clustering means for performing clustering, and for each cluster classified by the clustering means, a cluster average feature obtained by averaging the features extracted by the feature extraction means is obtained, and a large classification associated with the character code input from the input image conversion means. Calculating a distance between the large classification dictionary registration means registered as data for use in the classification and the cluster average feature registered in the large classification dictionary registration means A distance calculation means takes out the distance distance calculated by the calculation means is smaller different character code than a predetermined value the cluster as a set of adjacent clusters,
Cluster identification means for selecting at least one element having a high ability to identify them among the cluster average features for each set, and registering it with the identifiers of both clusters as detailed identification data. Is the distance calculation unit that calculates the distance between the features used for character recognition for each character code, and the cluster size based on the smallest of the maximum distance values for each character code calculated by the distance calculation unit. A determining unit that determines the size of the cluster and an integrating unit that integrates the clusters for each character code within the size of the cluster determined by the determining unit.

【0019】また、本発明においては、認識対象の文字
画像の入力を受け付けて2値画像データに変換する入力
画像変換手段と、前記入力画像変換手段で変換された2
値画像データの文字行に対応する座標位置を検出する文
字行座標位置検出手段と、前記文字行座標位置検出手段
の検出対象とされた文字行内の個々の文字に対応する座
標位置を検出する文字座標位置検出手段と、前記文字座
標位置検出手段で検出された座標で特定される2値画像
からなる文字の認識に使用する特徴を抽出する特徴抽出
手段と、基準となる文字の形状特徴を平均したクラスタ
平均特徴とその文字コードを対応付けて所定の値の大き
さのクラスタに分類して登録している大分類用辞書と、
前記特徴抽出手段で抽出された特徴と上記クラスタ平均
特徴との距離を計算し、得られた距離から類似度を計算
し、類似度の高い複数のクラスタをクラスタ候補として
選出する大分類手段と、前記大分類用辞書に登録されて
いるクラスタのうち、2つのクラスタ間の距離が所定の
値より小さい近接クラスタの識別子と少なくとも1以上
の両クラスタを識別するクラスタ平均特徴の要素とを対
応付けて登録している詳細識別用辞書と、前記詳細識別
用辞書に登録されている近接クラスタの2つの識別子
が、前記大分類手段で選出された複数の候補クラスタ中
の識別子にともに含まれているときには、前記詳細識別
用辞書に登録されている文字の認識に使用する特徴の要
素のみに関して、前記特徴抽出手段で抽出された特徴と
クラスタ平均特徴との第2の距離を計算し、該第2の距
離の小さい方のクラスタの類似度を引き上げる詳細識別
手段と、前記詳細識別手段で引き上げられた類似度を優
先して、前記大分類手段で選出された候補クラスタに対
応する文字コードを出力する出力手段とを備え、文字コ
ードごとに入力を受け付けた多数の学習用文字画像を2
値画像データに変換する入力画像変換手段と、前記入力
画像変換手段で変換された各2値画像データから文字認
識に用いる特微を抽出する文字特微抽出手段と、前記文
字特微抽出手段で抽出された文字認識に用いる特微相互
間の距離を文字コードごとに計算する距離計算手段と、
前記距離計算手段が計算した各文字コードごとの距離の
最大値のうち最小のものを基に前記大分類用辞書及び詳
細識別用辞書の所定の値として、決定する決定手段とを
備えることを特徴としている。
Further, according to the present invention, the input image converting means for receiving the input of the character image to be recognized and converting it into the binary image data, and the input image converting means for converting the input image
Character line coordinate position detecting means for detecting the coordinate position corresponding to the character line of the value image data, and character for detecting the coordinate position corresponding to each character in the character line which is the detection target of the character line coordinate position detecting means. A coordinate position detecting means, a feature extracting means for extracting a feature used for recognizing a character consisting of a binary image specified by the coordinates detected by the character coordinate position detecting means, and a shape feature of a reference character are averaged. A large classification dictionary in which the cluster average features and their character codes are associated and classified into clusters of a predetermined value size, and registered.
A large classification unit that calculates the distance between the feature extracted by the feature extraction unit and the cluster average feature, calculates the similarity from the obtained distance, and selects a plurality of clusters with high similarity as cluster candidates. Among the clusters registered in the large classification dictionary, the identifiers of adjacent clusters in which the distance between the two clusters is smaller than a predetermined value are associated with at least one element of a cluster average feature that identifies both clusters. When the two identifiers of the registered detailed identification dictionary and the adjacent cluster registered in the detailed identification dictionary are both included in the identifiers of the plurality of candidate clusters selected by the large classification unit. , The feature extracted by the feature extracting means and the cluster average feature only with respect to the feature elements used for recognition of characters registered in the detailed identification dictionary The detailed classification means for calculating the second distance and increasing the similarity of the cluster having the smaller second distance, and the similarity increased by the detailed identification means are prioritized and selected by the large classification means. Output means for outputting a character code corresponding to the candidate cluster, and a large number of learning character images for which input is accepted for each character code
An input image converting means for converting into value image data, a character characteristic extracting means for extracting a characteristic used for character recognition from each binary image data converted by the input image converting means, and the character characteristic extracting means. Distance calculating means for calculating the distance between the features used for the extracted character recognition for each character code,
And a determining unit that determines the minimum value of the maximum distance values for each character code calculated by the distance calculating unit as a predetermined value of the large classification dictionary and the detailed identification dictionary. I am trying.

【0020】[0020]

【発明の実施の形態】以下、本発明に係る文字認識用辞
書作成装置を実施の形態に基づいて説明する。 (実施の形態1)図1は、本発明に係る文字認識用辞書
作成装置の一実施の形態の構成図である。文字認識用辞
書作成装置は、画像入力部101と、学習用文字画像デ
ータベース102と、特徴抽出部103と、学習特徴デ
ータベース104と、クラスタリング部105と、クラ
スタデータベース106と、大分類用辞書作成部107
と、大分類用辞書108と、クラスタ間距離計算部10
9と、詳細識別用辞書作成部110と、詳細識別用辞書
111と、棄却処理用辞書作成部112と、棄却処理用
辞書113とを備える。
BEST MODE FOR CARRYING OUT THE INVENTION A character recognition dictionary creating apparatus according to the present invention will be described below based on embodiments. (Embodiment 1) FIG. 1 is a block diagram of an embodiment of a character recognition dictionary creating apparatus according to the present invention. The character recognition dictionary creation device includes an image input unit 101, a learning character image database 102, a feature extraction unit 103, a learning feature database 104, a clustering unit 105, a cluster database 106, and a large classification dictionary creation unit. 107
, The large classification dictionary 108, and the inter-cluster distance calculation unit 10
9, a detailed identification dictionary creation unit 110, a detailed identification dictionary 111, a rejection processing dictionary creation unit 112, and a rejection processing dictionary 113.

【0021】画像入力部101は、スキャナ等の光学読
取装置及びキーボード等からなり、オペレータによって
入力される学習用文字画像114の文字コードの入力を
受け付けると、学習用文字画像114を読み取り、2値
画像データに変換し、学習用文字画像データベース10
2にその2値画像データと文字コードとを組にして記憶
させる。全ての認識対象の学習用文字画像114の2値
画像データへの変換を終了すると、特徴抽出部103を
起動する。ここで、学習用文字画像114は、認識対象
の全文字について、異なるフォントで印字した文字、複
数の人物が書いた文字及び同一人物が複数回数書いた文
字を用いる。
The image input unit 101 is composed of an optical reading device such as a scanner and a keyboard, and upon receiving the input of the character code of the learning character image 114 input by the operator, reads the learning character image 114 and outputs the binary character image. Converted to image data, learning character image database 10
2 stores the binary image data and the character code as a set. When the conversion of all learning target learning character images 114 into binary image data is completed, the feature extraction unit 103 is activated. Here, the learning character image 114 uses, for all characters to be recognized, characters printed in different fonts, characters written by multiple persons, and characters written by the same person multiple times.

【0022】学習用文字画像データベース102は、磁
気ディスク等からなり、画像入力部101で変換された
図2に示すような2値画像データ201と、その文字コ
ードとを組にして多数記憶している。なお、図2に示す
2値画像データ201では、黒画素にデータ値「1」を
表示し、白画素のデータ値「0」は省略されている。特
徴抽出部103は、画像入力部101によって起動され
ると、学習用文字画像データベース102に記憶されて
いる2値画像データを順次読み出し、読み出した個々の
2値画像データについて、文字認識で使用する特徴を抽
出し、抽出した特徴を文字コードとともに学習特徴デー
タベース104に記憶させる。
The learning character image database 102 is composed of a magnetic disk or the like, and stores a large number of binary image data 201 converted by the image input unit 101 as shown in FIG. There is. In the binary image data 201 shown in FIG. 2, the data value “1” is displayed in the black pixel and the data value “0” in the white pixel is omitted. When activated by the image input unit 101, the feature extraction unit 103 sequentially reads the binary image data stored in the learning character image database 102, and uses the read individual binary image data for character recognition. The features are extracted, and the extracted features are stored in the learning feature database 104 together with the character code.

【0023】特徴抽出部103は、図3に示すように、
方向値付与部301と、領域別輪郭方向密度計算部30
2と、背景値付与部303と、領域別背景密度計算部3
04と、縦横比計算部305と、特徴統合部306とを
備える。方向値付与部301は、画像入力部101によ
って起動されると、学習用文字画像データベース102
に記憶されている図4に示すような2値画像データ40
1を読み出し、隣接する2境界画素間の位置関係に基づ
き図5のように定義した方向値(1≦d≦4)を文字画
像(2値画像データ401のデータ値「1」)の境界画
素毎に図6に示すように決定する。一つの2値画像デー
タ401の方向値の決定が終了すると、その方向値を領
域別輪郭方向密度計算部302に通知する。
The feature extraction unit 103, as shown in FIG.
Direction value assigning section 301 and area-based contour direction density calculating section 30
2, a background value assigning unit 303, and an area-based background density calculating unit 3
04, an aspect ratio calculation unit 305, and a feature integration unit 306. When the direction input unit 101 is activated by the image input unit 101, the learning character image database 102
Binary image data 40 as shown in FIG.
1 is read and the direction value (1 ≦ d ≦ 4) defined as shown in FIG. 5 based on the positional relationship between two adjacent boundary pixels is used as the boundary pixel of the character image (data value “1” of the binary image data 401). It is determined as shown in FIG. 6 for each case. When the determination of the direction value of one binary image data 401 is completed, the direction value is notified to the area-based contour direction density calculation unit 302.

【0024】領域別輪郭方向密度計算部302は、方向
値付与部301から方向値の通知を受けると、図7に示
すように、文字画像外接矩形を水平方向にL分割(図7
では4分割)、垂直方向にM分割(図7では4分割)し
た各部分領域(1,1)、(1,2)、・・・、(L,
M)における各方向値ごとの画素の個数を計数し、得ら
れた輪郭画素数をその部分領域の画素数(面積)Slmで
割ったものを領域別輪郭方向密度特徴として求め、この
値を整数化のためα(例えば256)倍して特徴統合部
306に通知する。従って、水平方向にl番目、垂直方
向にm番目の領域の方向値dの画素数をN(l,m,
d)と表すとき、同領域の領域別輪郭方向密度特徴Fd
(l,m,d)は、 Fd(l,m,d)=α*N(l,m,d)/Slm と表される。ここで、1≦d≦4,1≦l≦L,1≦m
≦Mである。
Upon receiving the direction value notification from the direction value assigning unit 301, the region-by-region contour direction density calculating unit 302 horizontally divides the character image circumscribed rectangle into L (see FIG. 7).
, 4) and vertically divided into M (4 in FIG. 7) partial regions (1, 1), (1, 2), ..., (L,
The number of pixels for each direction value in M) is counted, and the obtained number of contour pixels is divided by the number of pixels (area) Slm of the partial region to obtain a contour direction density feature for each region, and this value is an integer. For the purpose of conversion, it is multiplied by α (for example, 256) and notified to the feature integration unit 306. Therefore, the number of pixels of the direction value d in the l-th area in the horizontal direction and the m-th area in the vertical direction is N (l, m,
When expressed as d), the contour direction density feature Fd for each region of the same region
(L, m, d) is expressed as Fd (l, m, d) = α * N (l, m, d) / Slm. Here, 1 ≦ d ≦ 4, 1 ≦ l ≦ L, 1 ≦ m
≦ M.

【0025】なお、本実施の形態では方向値を1≦d≦
4の4方向で定義したが、8方向あるいは16方向の方
向値を定義してもよい。また、分割の幅も均等である必
要はない。本実施の形態でも、領域(4,1)、(4,
2)、(4,3)、(4,4)の水平方向の幅は他の領
域より狭い。更に、領域内の黒画素(データ値「1」)
数を均等化する分割や、黒画素のモーメントを均等化す
る分割が考えられる。これら方向数やL,Mの値が変わ
れば、当然、得られる領域別輪郭方向密度特徴の数も変
わる。
In this embodiment, the direction value is 1 ≦ d ≦.
Although it is defined by 4 directions of 4, direction values of 8 directions or 16 directions may be defined. Further, the division width does not have to be uniform. Also in this embodiment, the areas (4, 1), (4
The horizontal widths of 2), (4, 3) and (4, 4) are narrower than the other regions. Furthermore, black pixels in the area (data value "1")
It is conceivable that the numbers are equalized or that the moments of black pixels are equalized. If the number of directions and the values of L and M change, naturally the number of obtained contour-by-region density features also changes.

【0026】また、得られる全ての領域別輪郭方向密度
特徴を認識に用いる必要もないので、上記の部分領域の
一部を求めて領域別輪郭方向密度特徴として使用しても
構わない。背景値付与部303は、後述するように特徴
統合部306によって起動されると、学習用文字画像デ
ータベース102に記憶されている2値画像データ40
1を読み出し、文字画像(2値画像データ401のデー
タ値「1」)外接矩形中の各辺からその対辺に向かって
走査したとき、文字部を横切る回数+1で定義される背
景値を各画素毎に決定する。上辺から下辺に向かって走
査した場合の背景値を図8に示す。右辺から左辺、下辺
から上辺、左辺から右辺に向かう背景値も同様にして決
定し、領域別背景密度計算部304にその背景値を通知
する。
Further, since it is not necessary to use all the obtained regional contour direction density features for recognition, a part of the partial region may be obtained and used as the regional contour direction density features. When the background value assigning unit 303 is activated by the feature integrating unit 306 as described later, the binary image data 40 stored in the learning character image database 102.
When 1 is read and scanning is performed from each side of the circumscribed rectangle of the character image (data value “1” of the binary image data 401) toward the opposite side, the background value defined by the number of times +1 the character portion is crossed is defined for each pixel. Decide for each. FIG. 8 shows background values when scanning is performed from the upper side to the lower side. The background values from the right side to the left side, from the bottom side to the top side, and from the left side to the right side are similarly determined, and the background value for each area is notified to the background density calculation unit 304.

【0027】領域別背景密度計算部304は、背景値付
与部303から背景値の通知を受けると、図7に示すよ
うに、文字画像外接矩形を水平方向にP分割、垂直方向
にQ分割した各部分領域における各方向各背景値ごとの
画素数を計数し、その部分領域の画素数(面積)Spqで
割ったものを領域別背景密度特徴として求め、この値を
整数化のためβ(例えば256)倍して特徴統合部30
6に通知する。従って、水平方向にp番目垂直方向にq
番目の領域のr方向への背景値bの画素数をN(r,
p,q,b)と表すとき、同領域の領域別背景密度特徴
Fb(r,p,q,b)は、 Fb(r,p,q,b)=β*N(r,p,q,b)/
Spq (rは方向(上,右,下,左),1≦p≦P,1≦q≦
Q,1≦b)で表される。
Upon receiving the background value notification from the background value assigning unit 303, the region-based background density calculating unit 304 divides the character image circumscribed rectangle into P in the horizontal direction and Q in the vertical direction. The number of pixels for each background value in each direction in each partial region is counted, and divided by the number of pixels (area) Spq in that partial region to obtain a background density feature for each region. 256) Multiply feature integration unit 30
Notify 6. Therefore, p in the horizontal direction and q in the vertical direction
The number of pixels of the background value b in the r direction of the th region is N (r,
When expressed as p, q, b), the region-wise background density feature Fb (r, p, q, b) of the same region is: Fb (r, p, q, b) = β * N (r, p, q) , B) /
Spq (r is direction (up, right, down, left), 1 ≤ p ≤ P, 1 ≤ q ≤
Q, 1 ≦ b).

【0028】なお、同一文字において字体の変動にとも
ない大きく変化する特徴要素および文字が異なる場合に
も変動の小さい特徴要素は、文字認識特徴としては不適
当なので、例えば、P,Qが共に4の場合、 Fb(上,1,1,1), Fb(上,2,1,1), Fb(上,3,1,1), Fb
(上,4,1,1) Fb(右,4,1,1), Fb(右,4,2,1), Fb(右,4,3,1), Fb
(右,4,4,1) Fb(下,1,4,1), Fb(下,2,4,1), Fb(下,3,4,1), Fb
(下,4,4,1) Fb(左,1,1,1), Fb(左,1,2,1), Fb(左,1,3,1), Fb
(左,1,4,1) Fb(上,1,2,2), Fb(上,2,2,2), Fb(上,3,2,2), Fb
(上,4,2,2) Fb(右,3,1,2), Fb(右,3,2,2), Fb(右,3,3,2), Fb
(右,3,4,2) Fb(下,1,3,2), Fb(下,2,3,2), Fb(下,3,3,2), Fb
(下,4,3,2) Fb(左,2,1,2), Fb(左,2,2,2), Fb(左,2,3,2), Fb
(左,2,4,2) の32の値を領域別背景密度特徴として用いることとす
る。
It should be noted that, even when the same character changes greatly due to the change of the font, and the characteristic changes little even when the characters are different, it is unsuitable as a character recognition feature. For example, both P and Q are 4 Fb (upper, 1,1,1), Fb (upper, 2,1,1), Fb (upper, 3,1,1), Fb
(Up, 4,1,1) Fb (Right, 4,1,1), Fb (Right, 4,2,1), Fb (Right, 4,3,1), Fb
(Right, 4,4,1) Fb (Bottom, 1,4,1), Fb (Bottom, 2,4,1), Fb (Bottom, 3,4,1), Fb
(Bottom, 4,4,1) Fb (Left, 1,1,1), Fb (Left, 1,2,1), Fb (Left, 1,3,1), Fb
(Left, 1,4,1) Fb (Up, 1,2,2), Fb (Up, 2,2,2), Fb (Up, 3,2,2), Fb
(Up, 4,2,2) Fb (Right, 3,1,2), Fb (Right, 3,2,2), Fb (Right, 3,3,2), Fb
(Right, 3,4,2) Fb (Bottom, 1,3,2), Fb (Bottom, 2,3,2), Fb (Bottom, 3,3,2), Fb
(Bottom, 4,3,2) Fb (Left, 2,1,2), Fb (Left, 2,2,2), Fb (Left, 2,3,2), Fb
The 32 values (left, 2, 4, 2) are used as the background density feature for each area.

【0029】なお、P,Qは、4以外の数値であっても
構わない。また、分割の幅が均等である必要はないこと
は領域別輪郭方向密度の場合と同様である。縦横比計算
部305は、特徴統合部306によって起動されると、
学習用文字画像データベース102に記憶されている2
値画像データ401を読み出し、図9に示すような文字
画像外接矩形の縦横比特徴Frを計算し、求めた値を整
数化のためγ(例えば16)倍して特徴統合部306に
通知する。 Fr=γ*h/w 特徴統合部306は、領域別輪郭方向計算部302から
領域別方向密度特徴Fdの通知を受けると、背景値付与
部303を起動し、領域別背景密度計算部304から領
域別背景密度特徴Fbの通知を受けると、縦横比計算部
305を起動する。縦横比計算部305から、縦横比特
徴Frの通知を受けると、領域別輪郭方向密度特徴Fd
と、領域別背景密度特徴Fbと、縦横比特徴Frとを予
め定めた順序に整列し、文字認識用特徴として、学習特
徴データベース104に記憶させる。併せてクラスタリ
ング部105を起動する。本実施の形態では、文字認識
用特徴Fとして97の数値列が抽出される。
Note that P and Q may be values other than 4. Further, the fact that the division width does not have to be uniform is the same as in the case of the region-wise contour direction density. When the aspect ratio calculation unit 305 is activated by the feature integration unit 306,
2 stored in the learning character image database 102
The value image data 401 is read out, the aspect ratio feature Fr of the character image circumscribing rectangle as shown in FIG. 9 is calculated, and the obtained value is multiplied by γ (for example, 16) for conversion into an integer and the result is notified to the feature integration unit 306. Fr = γ * h / w When the feature integration unit 306 receives the region-based direction density feature Fd from the region-based contour direction calculation unit 302, it activates the background value giving unit 303 and the region-based background density calculation unit 304 Upon receiving the notification of the region-based background density feature Fb, the aspect ratio calculation unit 305 is activated. Upon receiving the notification of the aspect ratio feature Fr from the aspect ratio calculation unit 305, the contour direction density feature Fd for each region
Then, the region-based background density feature Fb and the aspect ratio feature Fr are arranged in a predetermined order and stored in the learning feature database 104 as a character recognition feature. In addition, the clustering unit 105 is activated. In the present embodiment, a numerical value sequence of 97 is extracted as the character recognition feature F.

【0030】なお、本実施の形態では、方向値付与部3
01と、背景値付与部303と、縦横比計算部305と
は順次それぞれの処理をするように構成したけれども、
学習用文字画像読出部を設けて、画像入力部101の起
動を受けて、学習用文字画像データベース102の記憶
内容を読み出し、方向値付与部301と、背景値付与部
303と、縦横比計算部305とにその内容を通知し
て、並列に処理するよう構成してもよい。
In this embodiment, the direction value giving unit 3
01, the background value assigning unit 303, and the aspect ratio calculating unit 305 are configured to sequentially perform the respective processes,
A learning character image reading unit is provided, and upon the activation of the image input unit 101, the stored contents of the learning character image database 102 are read out, and the direction value giving unit 301, the background value giving unit 303, and the aspect ratio calculation unit. The contents may be notified to 305 and processed in parallel.

【0031】学習特徴データベース104は、磁気ディ
スク等からなり、特徴抽出部103で抽出された特徴を
その文字コードとともに記憶している。その一例を図1
0〜図13に示す。図10〜図13に示す97個の数値
の特徴の意味を図14に示している。即ち、図10の第
1列目の数値”4366”は、文字「中」の文字コード
を16進数で表わし、第2列目の数値「18」は縦横比
を表わしている。第3列目の数値「35,3,6,3」
は、(1,1)領域の方向密度の方向値「1,2,3,
4」にそれぞれ対応する値である。第4列目〜第18列
目も、第3列目と同様、方向密度に対応する値である。
第19列目の数値「25,17,15,25」は上辺か
ら下辺に向かって走査したときに背景値「1」の
「(1,1)、(2,1)、(3,1)、(4,1)」
の各領域の値を示している。第20行目〜26行目も第
19行目と同様背景値密度に対応する値である。
The learning feature database 104 is composed of a magnetic disk or the like, and stores the features extracted by the feature extraction unit 103 together with their character codes. An example of this is shown in FIG.
0 to 13 are shown. FIG. 14 shows the meaning of the features of the 97 numerical values shown in FIGS. 10 to 13. That is, the numerical value "4366" in the first column of FIG. 10 represents the character code of the character "medium" in hexadecimal, and the numerical value "18" in the second column represents the aspect ratio. Numerical value "35, 3, 6, 3" in the third column
Is the direction value of the direction density of the (1,1) region “1, 2, 3,
4 ”, respectively. Similarly to the third column, the fourth to eighteenth columns are values corresponding to the direction density.
The numerical value “25, 17, 15, 25” in the 19th column is “(1,1), (2,1), (3,1)” of the background value “1” when scanned from the upper side to the lower side. , (4,1) "
The value of each area is shown. Similarly to the 19th line, the 20th to 26th lines are values corresponding to the background value density.

【0032】クラスタリング部105は、特徴抽出部1
03によって起動されると、学習特徴データベース10
4から同一文字コードの文字の各文字認識用特徴を順次
読み出し、文字相互間の文字認識用特徴間の距離Dを市
街地距離の式
The clustering unit 105 includes the feature extraction unit 1
When started by 03, the learning feature database 10
The character recognition features of the character having the same character code are sequentially read out from 4, and the distance D between the character recognition features between the characters is expressed by the formula of the urban distance.

【0033】[0033]

【数1】 [Equation 1]

【0034】によって計算する。ここで、Fikは文字i
の文字認識用特徴の第k要素を示し、Fjkは文字jの文
字認識用特徴の第k要素を示す。なお、本実施の形態で
はNは97である。同一文字コードの文字の文字認識用
特徴間の距離Dを計算し、その最大の距離DMAX の値を
バッファに記憶する。例えば、同一文字コードの2値画
像データが画像入力部101から100字入力されてい
たときには、4950( 100C2 )個の距離Dを計算し
て、その最大値をバッファに記憶する。
Calculate by Where Fik is the letter i
Indicates the k-th element of the character recognition feature, and Fjk indicates the k-th element of the character recognition feature of the character j. Note that N is 97 in this embodiment. The distance D between the character recognition features of the characters having the same character code is calculated, and the value of the maximum distance DMAX is stored in the buffer. For example, when 100 characters of binary image data of the same character code are input from the image input unit 101, 4950 (100C2) distances D are calculated and the maximum value is stored in the buffer.

【0035】一つの同一文字コードの処理が終了する
と、他の異なる同一文字コードの文字についても同様に
文字認識用特徴間の距離Dを計算し、その最大値をバッ
ファに入力する。全ての文字コードについての計算が終
了すると、バッファに記憶している文字コードごとの文
字認識用特徴間の最大距離の値を読み出し、その最小値
を選択する。この選択した最小値DMIN から式k*DMI
N で求められる値を「クラスタの大きさ」とする。ここ
で、kは1以上の定数である。
When the processing of one identical character code is completed, the distance D between the character recognition features is calculated for other characters having different identical character codes, and the maximum value is input to the buffer. When the calculation is completed for all the character codes, the value of the maximum distance between the character recognition features for each character code stored in the buffer is read and the minimum value is selected. From this selected minimum value DMIN, the formula k * DMI
The value obtained by N is the "cluster size". Here, k is a constant of 1 or more.

【0036】また、クラスタリング部105は、「クラ
スタの大きさ」を決定すると、学習特徴データベース1
04から図10に示すような文字認識用特徴を単一のク
ラスタとして、同一の文字コードのものについて順次読
み出し、そのクラスタ相互間の距離を計算する。このク
ラスタ間距離の計算は、上述の文字認識用特徴間の距離
Dの計算と同様に式(数1)を用いて行われる。各クラ
スタ間の距離を計算すると、最小のクラスタ間距離が
「クラスタの大きさ」以下であるか否かを判定し、以下
であればその最小のクラスタ間距離にある2つのクラス
タを近接クラスタとして1つのクラスタに統合する。こ
の際、統合されたクラスタと他のクラスタとのクラスタ
間距離は、統合前のクラスタ間距離の最大値をクラスタ
間距離とする。
When the cluster size is determined, the clustering unit 105 determines the learning feature database 1
Character recognition features as shown in FIG. 04 to FIG. 10 are set as a single cluster and sequentially read out for the same character code, and the distance between the clusters is calculated. The calculation of the inter-cluster distance is performed using the equation (Equation 1) as in the calculation of the distance D between the character recognition features described above. When the distance between each cluster is calculated, it is determined whether or not the minimum inter-cluster distance is less than or equal to the “cluster size”. If it is less than or equal to the two, the two clusters at the minimum inter-cluster distance are regarded as adjacent clusters. Integrate into one cluster. At this time, regarding the inter-cluster distance between the integrated cluster and another cluster, the maximum value of the inter-cluster distance before integration is taken as the inter-cluster distance.

【0037】最小のクラスタ間距離が「クラスタの大き
さ」を超えた時点で、クラスタの統合処理を終了する。
従って、同一文字コードの特徴間距離の最大値が「クラ
スタの大きさ」を超えない文字では、全特徴が単一のク
ラスタに統合される。一方、同一文字コードの特徴間距
離の最大値が「クラスタの大きさ」を超える文字では、
2以上のクラスタに分けられる。一つの文字について、
クラスタの統合処理が終了すると、同一のクラスタに分
類した各文字認識用特徴をクラスタごとにクラスタの所
属特徴としてクラスタデータベース106に記憶させ
る。この際、同一のクラスタに属する各文字認識用特徴
の数も記憶させる。
When the minimum inter-cluster distance exceeds the "cluster size", the cluster integration process is terminated.
Therefore, if the maximum value of the inter-feature distance of the same character code does not exceed the “cluster size”, all the features are integrated into a single cluster. On the other hand, if the maximum value of the distance between features of the same character code exceeds "cluster size",
It is divided into two or more clusters. For one character,
When the cluster integration process is completed, each character recognition feature classified into the same cluster is stored in the cluster database 106 as a feature belonging to each cluster. At this time, the number of character recognition features belonging to the same cluster is also stored.

【0038】更にクラスタリング部105は、学習特徴
データベース104から、他の文字についてもその文字
認識用特徴を順次読み出し、クラスタリング処理をす
る。学習特徴データベース104に記憶されている全て
の文字コードについて処理を終了すると、全クラスタ数
をクラスタデータの先頭に記憶させ、大分類用辞書作成
部107を起動する。
Further, the clustering unit 105 sequentially reads the character recognition features of other characters from the learning feature database 104 and performs clustering processing. When the processing is completed for all the character codes stored in the learning feature database 104, the total number of clusters is stored at the beginning of the cluster data, and the large classification dictionary creation unit 107 is activated.

【0039】なお、本実施の形態では、クラスタリング
の手法のうち最大距離法を用いて文字認識用特徴の文字
ごとの階層構造を分析したけれども、ウォード法等他の
手法を用いてもよい。また、文字認識用特徴間の距離お
よびクラスタ間の距離の計算に市街地距離を用いたけれ
ども、式
In the present embodiment, the maximum distance method among the clustering methods is used to analyze the hierarchical structure of each character of the character recognition feature, but other methods such as the Ward method may be used. In addition, although the urban distance was used to calculate the distance between the character recognition features and the distance between the clusters,

【0040】[0040]

【数2】 [Equation 2]

【0041】のユークリッド距離を用いてもよい。クラ
スタデータベース106は、磁気ディスク等からなり、
図15に示すようなデータ構造のクラスタデータ150
1を記憶している。クラスタデータ1501は、クラス
タ数1502と、クラスタに属するデータの特徴数15
03と、特徴数の数だけのクラスタの所属特徴(図15
では、クラスタ1の特徴1)1504等とを有する。ク
ラスタの所属特徴1504のデータ内容は、図10〜図
13に示した文字認識用特徴と同一である。
The Euclidean distance of may be used. The cluster database 106 is composed of a magnetic disk or the like,
Cluster data 150 having a data structure as shown in FIG.
Remember 1 The cluster data 1501 includes the number of clusters 1502 and the number of features of data belonging to a cluster of 15
03 and the belonging features of the cluster corresponding to the number of features (see FIG. 15).
Then, it has the features 1) 1504, etc. of the cluster 1. The data content of the cluster belonging feature 1504 is the same as the character recognition feature shown in FIGS.

【0042】大分類用辞書作成部107は、クラスタリ
ング部によって起動されると、クラスタデータベース1
06に記憶されているクラスタデータ1501を読み出
し、各クラスタの所属特徴1504の特徴要素ごとの平
均値を計算し、クラスタの平均特徴とする。このクラス
タの平均特徴は、クラスタデータ1501のクラスタ数
1502と同一の数になる。
When the clustering unit starts the large classification dictionary creating unit 107, the cluster database 1
The cluster data 1501 stored in 06 is read out, and the average value for each characteristic element of the belonging feature 1504 of each cluster is calculated and used as the average feature of the cluster. The average feature of this cluster is the same as the number of clusters 1502 of the cluster data 1501.

【0043】また、クラスタの所属特徴1504中の文
字コードと、その文字コードより判別される字種(数
字、英大文字、英小文字、平仮名、片仮名、漢字等の
別)を示すフラグ、文字の大きさを示す文字サイズフラ
グ等の認識時に使用する属性フラグ、識別子等の付加情
報とを求めたクラスタの平均特徴とを組にして大分類用
辞書108に登録する。登録が終わると、クラスタ間距
離計算部109を起動する。
Further, a flag indicating the character code in the cluster belonging feature 1504, a character type (differentiating between numbers, uppercase letters, lowercase letters, hiragana, katakana, kanji, etc.) determined by the character code, and the size of the character. The attribute flag used when recognizing the character size flag indicating the size, the additional information such as the identifier, and the average feature of the obtained cluster are paired and registered in the large classification dictionary 108. When the registration is completed, the inter-cluster distance calculation unit 109 is activated.

【0044】また、大分類用辞書作成部107は、属性
フラグおよび付加情報を入力するためのキーボード等
と、文字コード等を表示するCRT等を有する。大分類
用辞書108に登録するに際し、CRTに表示された文
字コードを見たオペレータによって、例えば漢字のうち
の人名漢字であり、文字の大きさが普通であり、文字位
置が下付きである等の属性フラグおよび識別子等の付加
情報の入力を受け付ける。
The large classification dictionary creating unit 107 has a keyboard for inputting attribute flags and additional information, a CRT for displaying character codes, and the like. When registering in the large classification dictionary 108, an operator who looks at the character code displayed on the CRT indicates, for example, that the character is a Chinese character of Kanji, the size of the character is normal, and the character position is subscript. Input of additional information such as an attribute flag and an identifier is accepted.

【0045】大分類用辞書108は、磁気ディスク等か
らなり、図16に示すようなデータ構造を有する。図1
7にその一例を示すように、クラスタ番号1701と識
別子1702と文字コード1703と属性フラグ170
4と平均特徴1705とからなる辞書データ1706を
多数登録している。図17は、その識別子1702に示
すように文字「中」を表すものである。同様に文字
「徳」を表す2つのクラスタが図18と図19とに、文
字「穂」を表す2つのクラスタが図20と図21とに示
されている。したがって、文字「中」は1つのクラスタ
に統合されているけれども文字「徳」や「穂」は2つの
クラスタに分割されている。
The large classification dictionary 108 is composed of a magnetic disk or the like and has a data structure as shown in FIG. Figure 1
7 shows an example thereof, the cluster number 1701, the identifier 1702, the character code 1703, and the attribute flag 170.
A large number of dictionary data 1706 composed of 4 and the average feature 1705 are registered. FIG. 17 shows the character “middle” as indicated by the identifier 1702. Similarly, two clusters representing the character “Toku” are shown in FIGS. 18 and 19, and two clusters representing the character “Spring” are shown in FIGS. 20 and 21. Therefore, although the characters "middle" are integrated into one cluster, the characters "toku" and "ho" are divided into two clusters.

【0046】クラスタ間距離計算部109は、大分類用
辞書作成部107によって起動されると、大分類用辞書
108に記憶されている辞書データ1706等を読み出
し、全クラスタの平均特徴1705等相互間の距離を式
(数1)を用いて計算する。文字コードの異なる2クラ
スタ間の距離が、先に決定した「クラスタの大きさ」未
満である場合には、それらのクラスタ番号を組にして詳
細識別用辞書作成部110に通知する。
The inter-cluster distance calculation unit 109, when activated by the large classification dictionary creation unit 107, reads the dictionary data 1706 and the like stored in the large classification dictionary 108, and the average features 1705 and the like of all clusters The distance is calculated using the formula (Equation 1). When the distance between two clusters having different character codes is smaller than the previously determined “cluster size”, the cluster numbers are paired and notified to the detailed identification dictionary creating unit 110.

【0047】詳細識別用辞書作成部110は、クラスタ
間距離計算部109からクラスタ番号の組の通知を受け
ると、それらの平均特徴1705等を大分類辞書108
から読み出し、各要素ごとのクラスタ平均特徴間の差を
式|Fik−Fjk|(||絶対値記号)を用いて計算す
る。ここでFikは、クラスタiの平均特徴の要素kを表
し、Fjkはクラスタjの平均特徴の要素kを表す。平均
特徴要素数をNとしているので、1≦k≦Nであり、本
実施の形態ではNは97である。求めた各要素ごとのク
ラスタ平均特徴間の差を特徴要素の識別子(kの値)を
用いて、差の大きいものから順番に記憶する。
When the detailed identification dictionary creating section 110 receives the notification of the set of cluster numbers from the inter-cluster distance calculating section 109, the average feature 1705 and the like of them are classified into the large classification dictionary 108.
, And the difference between the cluster mean features for each element is calculated using the formula | Fik-Fjk | (|| absolute value symbol). Here, Fik represents the element k of the average feature of the cluster i, and Fjk represents the element k of the average feature of the cluster j. Since the average number of characteristic elements is N, 1 ≦ k ≦ N, and N is 97 in the present embodiment. The obtained differences between the cluster average features for each element are stored in order from the one with the largest difference using the feature element identifier (value of k).

【0048】次に、クラスタ間距離計算部から通知され
ている2つのクラスタ番号のクラスタデータベース10
6に記憶されているクラスタの所属特徴1504につい
て、記憶している特徴要素の識別子の先頭からn番目ま
での特徴要素のみを用いて、大分類辞書108の両クラ
スタの平均特徴1705との距離を計算し、その距離の
小さい方のクラスタに分類されるとしたとき、2つのク
ラスタに属する各クラスタの所属特徴が正しいクラスタ
に分類される割合r(n)をnを1≦n≦Nに変化して
調べる。
Next, the cluster database 10 of the two cluster numbers notified from the inter-cluster distance calculation unit.
For the belonging feature 1504 of the cluster stored in No. 6, the distance from the average feature 1705 of both clusters in the large classification dictionary 108 is calculated using only the first to nth feature elements of the stored feature element identifiers. If the calculation is performed and the cluster is classified into the cluster having the smaller distance, the ratio r (n) in which the belonging feature of each cluster belonging to the two clusters is classified into a correct cluster is changed from 1 to n ≦ N. Then check.

【0049】このr(n)が最大になるnを求めて、そ
のnの値と記憶している特徴要素のn番目までのkの値
を両クラスタ番号とともに詳細識別用辞書に登録する。
なお、本実施の形態では、両クラスタに属する特徴を識
別する能力の評価尺度として、クラスタ平均特徴間の差
を用いたけれども、両クラスタに属する特徴の要素ごと
の標準偏差等を用いてもよい。
The n that maximizes this r (n) is obtained, and the value of that n and the values of the k up to the nth of the stored characteristic elements are registered in the detailed identification dictionary together with both cluster numbers.
In the present embodiment, the difference between the cluster average features is used as the evaluation measure of the ability to identify the features belonging to both clusters, but the standard deviation for each element of the features belonging to both clusters may be used. .

【0050】また、本実施の形態では、詳細識別に用い
る特徴要素は、クラスタデータベース106に記憶され
ているクラスタデータ1501を基に、正しいクラスタ
に分類される割合r(n)が最大になるnを2つのクラ
スタごとに求めたけれども、予め特徴要素の数を定めて
おいてもよい。クラスタ間距離計算部109から通知さ
れた全てのクラスタ番号の組について、詳細識別用辞書
の作成が終了すると、棄却処理用辞書作成部112を起
動する。
Further, in the present embodiment, the characteristic element used for the detailed identification is based on the cluster data 1501 stored in the cluster database 106, and the ratio r (n) of being classified into the correct cluster is the maximum n. However, the number of characteristic elements may be determined in advance. When the creation of the detailed identification dictionary is completed for all the cluster number pairs notified from the inter-cluster distance calculation unit 109, the rejection processing dictionary creation unit 112 is activated.

【0051】詳細識別用辞書111は、磁気ディスク等
からなり、図22に示すようなデータ構造を有する。そ
の具体的内容の一例を図23に示す。図23は、クラス
タ番号2720の文字「徳」とクラスタ番号3177の
文字「穂」とを認識する能力の高い使用特徴番号(k)
が「5、52、2、26」の4つであることを示してい
る。
The detailed identification dictionary 111 is composed of a magnetic disk or the like and has a data structure as shown in FIG. FIG. 23 shows an example of the specific content. FIG. 23 shows a use feature number (k) having a high ability to recognize the character “Toku” with the cluster number 2720 and the character “Harashi” with the cluster number 3177
Indicates that there are four "5, 52, 2, 26".

【0052】棄却処理用辞書作成部112は、詳細識別
用辞書作成部110によって起動されると、クラスタデ
ータベース106から各クラスタに属する特徴の所定の
特徴要素の最大値と最小値とを求め、棄却処理用辞書1
13に、クラスタごとに用いた要素ごとの最大値と最小
値とを登録する。なお、本実施の形態では、所定の所属
特徴要素を縦横比としているけれども、この特徴要素の
数mは、1≦m≦Nの任意とすることができる。
When the rejection processing dictionary creating unit 112 is activated by the detailed identification dictionary creating unit 110, the rejection processing dictionary creating unit 112 obtains the maximum value and the minimum value of the predetermined feature elements of the features belonging to each cluster from the cluster database 106 and rejects them. Processing dictionary 1
In 13, the maximum value and the minimum value of each element used for each cluster are registered. In the present embodiment, the predetermined belonging characteristic element has the aspect ratio, but the number m of the characteristic element can be set to any value 1 ≦ m ≦ N.

【0053】棄却処理用辞書113は、磁気ディスク等
からなり、図24にその一部を示すようなデータ内容を
登録している。図24の第1行目2301は、61番目
のクラスタの縦横比の最小値が15であり、最大値が2
4であることを示している。次に本実施の形態の動作を
図25、図26に示すフローチャートを用いて説明す
る。なお、両図は本来1葉であるべきであるけれども、
図面作成上の都合から2葉に分割されている。
The rejection processing dictionary 113 is made up of a magnetic disk or the like, and the data contents of which a part is shown in FIG. 24 are registered. In the first line 2301 of FIG. 24, the minimum aspect ratio of the 61st cluster is 15, and the maximum aspect ratio is 2.
4 is shown. Next, the operation of this embodiment will be described with reference to the flowcharts shown in FIGS. In addition, although both figures should be one leaf originally,
It is divided into two leaves for convenience of drawing.

【0054】画像入力部101は、オペレータからの文
字コードの入力を待ち(S2502)、学習用文字画像
の入力を受付(S2504)、2値画像データに変換し
て文字コードとともに学習用文字画像データベース10
2に記憶させる(S2506)。更に学習用文字画像の
入力が有ればS2504に戻り、無ければ(S250
8)、文字コードの入力の有無を判断し(S251
0)、入力が有ればS2504に戻る。
The image input unit 101 waits for the input of the character code from the operator (S2502), accepts the input of the learning character image (S2504), converts it into binary image data and stores the character code together with the learning character image database. 10
2 is stored (S2506). If the learning character image is further input, the process returns to S2504, and if not (S250
8), it is determined whether or not the character code is input (S251).
0), if there is an input, the process returns to S2504.

【0055】入力が無ければ、特徴抽出部103は、2
値画像データから領域別方向密度を計算し(S251
2)、領域別背景密度を計算し(S2514)、更に縦
横比を計算し(S2516)、これらを文字認識用特徴
として文字コードとともに学習特徴データベース104
に記憶させる(S2518)。学習用文字画像データベ
ース102に未処理文字があるか否かを判定し(S25
20)、あるときはS2512に戻る。
If there is no input, the feature extraction unit 103
The directional density for each area is calculated from the value image data (S251
2), the background density for each area is calculated (S2514), and the aspect ratio is further calculated (S2516), and these are used as character recognition features together with the character code in the learning feature database 104.
To be stored (S2518). It is determined whether or not there are unprocessed characters in the learning character image database 102 (S25
20), and if there is, return to S2512.

【0056】ないときは、クラスタリング部105は、
学習特徴データベース104から同一文字コードの文字
特徴を順次読み出し、所定の計算式によって特徴間の距
離を計算する(S2524)。計算した特徴間距離のう
ち最大距離を選択してバッファに記憶する(S252
6)。全ての文字コードについてS2522〜S252
6を繰り返し(S2528)、バッファに記憶された最
大距離のうちの最小値を選択して「クラスタの大きさ」
を決定する(S2602)。
If not, the clustering unit 105
Character features having the same character code are sequentially read from the learning feature database 104, and the distance between the features is calculated by a predetermined calculation formula (S2524). The maximum distance is selected from the calculated inter-feature distances and stored in the buffer (S252).
6). For all character codes S2522 to S252
6 is repeated (S2528), the minimum value of the maximum distances stored in the buffer is selected, and “cluster size” is selected.
Is determined (S2602).

【0057】次にクラスタリング部105は、学習特徴
データベース104に記憶されている同一文字コードの
各文字認識用特徴を1クラスタとして読み出し(S26
04)、クラスタ間距離を計算する(S2606)。こ
のクラスタ間距離がS2602で決定した「クラスタの
大きさ」以下である近接クラスタがあるか否かを判定し
(S2608)、近接クラスタがあるときは、両クラス
タを統合して(S2610)、S2608に戻る。近接
クラスタがないときは、クラスタに分割してクラスタデ
ータとしてクラスタデータベース106に記憶させ(S
2612)、学習特徴データベース104に記憶されて
いる全ての文字コードの処理が終了するまでS2604
からS2612を繰り返す(S2614)。
Next, the clustering unit 105 reads each character recognition feature of the same character code stored in the learning feature database 104 as one cluster (S26).
04), the inter-cluster distance is calculated (S2606). It is determined whether or not there is a neighboring cluster whose inter-cluster distance is equal to or smaller than the “cluster size” determined in S2602 (S2608). If there is a neighboring cluster, both clusters are integrated (S2610), and S2608. Return to. If there is no adjacent cluster, it is divided into clusters and stored in the cluster database 106 as cluster data (S
2612), until the processing of all the character codes stored in the learning feature database 104 is completed (S2604).
To S2612 are repeated (S2614).

【0058】大分類用辞書作成部107は、クラスタデ
ータベース106に記憶されているクラスタデータをク
ラスタごとに平均特徴を計算し、大分類用辞書108に
登録して辞書を作成する(S2616)。クラスタ間距
離計算部109は、大分類辞書108に登録されている
クラスタの平均特徴を読み出し、クラスタ間距離を計算
する(S2618)。詳細識別用辞書作成部110は、
異なる文字(文字コードの異なる)でクラスタ間距離計
算部109で計算されたクラスタ間距離がS2602で
決定された「クラスタの大きさ」よりも近いクラスタ
(近接クラスタ)があるか否かを判断する(S262
0)。近接クラスタがあるときには、近接2クラスタを
識別する能力の高い順に平均特徴の特徴要素を順序づけ
る(S2622)。詳細識別に使用する特徴数を決定
し、その平均特徴要素を識別できるように詳細識別用辞
書111にデータを登録し(S2626)、S2620
に戻る。
The large classification dictionary creating unit 107 calculates an average feature of the cluster data stored in the cluster database 106 for each cluster, and registers it in the large classification dictionary 108 to create a dictionary (S2616). The inter-cluster distance calculation unit 109 reads out the average feature of the clusters registered in the large classification dictionary 108 and calculates the inter-cluster distance (S2618). The detailed identification dictionary creation unit 110
It is determined whether or not there is a cluster (proximity cluster) in which the inter-cluster distance calculated by the inter-cluster distance calculation unit 109 is different from the "cluster size" determined in S2602 with different characters (different character codes). (S262
0). When there are adjacent clusters, the feature elements of the average feature are ordered in descending order of ability to identify adjacent 2 clusters (S2622). The number of features used for detailed identification is determined, and data is registered in the detailed identification dictionary 111 so that the average feature element can be identified (S2626), and S2620.
Return to.

【0059】S2620で近接クラスタがないときに
は、棄却処理用辞書作成部112は、特徴要素の許容範
囲に基づいて、棄却処理用辞書113を作成する。 (実施の形態2)図27は、本発明に係る文字認識装置
の一実施の形態の構成図である。この文字認識装置は、
画像入力部2701と、文字行検出部2702と、文字
検出部2703と、特徴検出部2704と、大分類部2
705と、詳細認識部2706と、認識結果棄却部27
07と、棄却文字連結部2708と、文字数推定部27
09と、連結文字分割部2710と、認識結果選択部2
711と、行認識結果評価部2712と、認識結果出力
部2713と、大分類用辞書108と、詳細識別用辞書
111と、棄却処理用辞書113とを備える。
When there is no adjacent cluster in S2620, the rejection processing dictionary creating unit 112 creates the rejection processing dictionary 113 based on the allowable range of the feature element. (Embodiment 2) FIG. 27 is a block diagram of an embodiment of a character recognition apparatus according to the present invention. This character recognition device
The image input unit 2701, the character line detection unit 2702, the character detection unit 2703, the feature detection unit 2704, and the large classification unit 2
705, a detailed recognition unit 2706, and a recognition result rejection unit 27
07, the rejected character connection unit 2708, and the character number estimation unit 27
09, a concatenated character division unit 2710, and a recognition result selection unit 2
711, a line recognition result evaluation unit 2712, a recognition result output unit 2713, a large classification dictionary 108, a detailed identification dictionary 111, and a rejection processing dictionary 113.

【0060】画像入力部2701は、スキャナ等の光学
読取装置からなり、認識対象文書画像2714の入力を
受け付けると、2値画像データに変換して文字行検出部
2702、文字検出部2703特徴抽出部2704に通
知する。文字行検出部2702は、画像入力部2701
から通知された2値画像データから文字行2801の座
標を検出すると、その座標を文字検出部2703に通知
する。また、認識結果出力部2731によって起動され
ると、通知された1値画像データに残された文字行28
02等が有るか否かを判断し、あるときには文字行28
02等の座標を検出し、それを文字検出部2703に通
知し、ないときには処理を停止する。
The image input unit 2701 is composed of an optical reading device such as a scanner, and when receiving the input of the recognition target document image 2714, it is converted into binary image data and the character line detection unit 2702 and the character detection unit 2703 feature extraction unit are inputted. Notify 2704. The character line detection unit 2702 has an image input unit 2701.
When the coordinates of the character line 2801 are detected from the binary image data notified from, the coordinates are notified to the character detection unit 2703. When activated by the recognition result output unit 2731, the character lines 28 left in the notified one-value image data
It is judged whether there is 02 etc., and if there is, character line 28
A coordinate such as 02 is detected, and it is notified to the character detection unit 2703, and when there is no coordinate, the processing is stopped.

【0061】文字検出部2703は、文字行検出部27
02から各文字列2801、2802の座標の通知を受
けると、文字行中の個々の文字2803、2804の座
標を検出し、その座標を特徴抽出部2704に通知す
る。特徴抽出部2704は、上記第1実施の形態の特徴
抽出部103とほぼ同様の構成を有し、文字検出部27
03又は後述する連結文字分割部2710から座標の通
知を受けると、座標で特定される画像入力部2701か
ら通知された2値画像データを基に文字認識で使用する
特徴を抽出する。上記第1実施の形態で説明したと同様
に領域別輪郭方向密度特徴と領域別背景密度特徴と縦横
比特徴とを抽出し、予め定めた順序に整列し、文字認識
用特徴として座標とともに大分類部2705に通知す
る。
The character detection unit 2703 is a character line detection unit 27.
02, the coordinate of each character string 2801, 2802 is received, the coordinate of each character 2803, 2804 in a character line is detected, and the coordinate is notified to the feature extraction part 2704. The feature extraction unit 2704 has a configuration similar to that of the feature extraction unit 103 of the first embodiment, and the character detection unit 27
03 or when the coordinate notification is received from the concatenated character dividing unit 2710 described later, the feature used for character recognition is extracted based on the binary image data notified from the image input unit 2701 specified by the coordinates. As described in the first embodiment, the region-wise contour direction density feature, the region-wise background density feature, and the aspect ratio feature are extracted, arranged in a predetermined order, and roughly classified together with the coordinates as the character recognition feature. Notify the unit 2705.

【0062】大分類部2705は、特徴抽出部2704
から文字認識用特徴の通知を受けると、上記第1実施の
形態と同様の大分類用辞書108中の各クラスタ平均特
徴との距離(市街地距離D)を式(数1)を用いて計算
し、得られたDを用いて類似度Rを式R=C/Dを用い
て計算する。類似度Rの高い(距離Dの近い)複数のク
ラスタを候補クラスタとして選出し、候補クラスタとそ
の類似度とを組にして座標とともに詳細識別部2706
に通知する。
The large classification unit 2705 is a feature extraction unit 2704.
When the notification of the character recognition feature is received from, the distance (city distance D) to each cluster average feature in the large classification dictionary 108 similar to that of the first embodiment is calculated using the formula (Equation 1). Using the obtained D, the similarity R is calculated using the formula R = C / D. A plurality of clusters having a high degree of similarity R (close to the distance D) are selected as candidate clusters, and the candidate cluster and its degree of similarity are paired together with the coordinates and the detailed identification unit 2706.
To notify.

【0063】ここで、定数Cは、Rが1〜100になる
ように選ばれる。例えば、文書画像2714が画像入力
部2701から入力された場合は、文字行2801の候
補クラスタとその類似度とを図29に示すように選出す
る。なお、通常距離計算は大分類辞書108中の全クラ
スタ特徴について行うが、字種(下付き文字、漢字等)
が予め限定できる場合には、属性フラグをチェックし、
該当するクラスタのみに対し距離計算をすることもでき
る。
Here, the constant C is chosen such that R is between 1 and 100. For example, when the document image 2714 is input from the image input unit 2701, the candidate cluster of the character line 2801 and its similarity are selected as shown in FIG. Note that the normal distance calculation is performed for all cluster features in the large classification dictionary 108, but the character type (subscript, kanji, etc.)
If you can limit in advance, check the attribute flag,
It is also possible to calculate the distance only for the relevant cluster.

【0064】ここで、入力文字は、「中内里穂」である
けれども、第1候補クラスタだけを見れば「中内里徳」
となっている。詳細識別部2706は、大分類部270
5から候補クラスタ等の通知を受けると、通知された候
補クラスタ番号が上記第1実施の形態と同様の詳細識別
用辞書111中に登録されている近接するクラスタの組
をなす2クラスタが、大分類部2705から通知された
複数の候補クラスタ中にともに含まれているか否かを判
断する。含まれていないときは認識結果棄却部2707
に座標とともに候補クラスタを通知する。含まれている
ときは、詳細識別用辞書111中に登録されている近接
クラスタ識別に用いる特徴要素のみを用いて両候補クラ
スタに対して式(数1)によって距離Dを計算し、低順
位のクラスタの方が距離Dの値が小さいときは、低順位
のクラスタの類似度を引き上げる。併せて、認識結果棄
却部2707に変更後の候補クラスタと座標とを通知す
る。
Here, the input character is "Riho Nakauchi", but if you look only at the first candidate cluster, "Ritoku Nakauchi"
Has become. The detailed identification section 2706 is a large classification section 270.
When a notification of a candidate cluster or the like is received from 5, the two clusters, which form a set of adjacent clusters having the notified candidate cluster number registered in the detailed identification dictionary 111 similar to those in the first embodiment, become large. It is determined whether or not both are included in the plurality of candidate clusters notified from the classification unit 2705. If not included, the recognition result rejection unit 2707
Notify candidate clusters with coordinates. When it is included, the distance D is calculated by the formula (Equation 1) for both candidate clusters using only the characteristic elements registered in the detailed identification dictionary 111 and used for the adjacent cluster identification. When the value of the distance D is smaller in the cluster, the similarity of the low-ranked cluster is increased. At the same time, the recognition result rejection unit 2707 is notified of the changed candidate cluster and coordinates.

【0065】即ち、図29の大分類部2705の通知結
果では、第1候補クラスタ(文字”徳”,クラスタ番号
2720)と第2候補クラスタ(文字”穂”,クラスタ
番号3177)とが、詳細識別用辞書111中に登録の
ある近接クラスタである。そこで、詳細識別部2706
は、詳細識別用辞書111に登録された両クラスタ識別
に用いる特徴要素に関して文字2805の2値画像デー
タの文字認識用特徴とクラスタ2720、および文字2
805の2値画像データの文字認識用特徴とクラスタ3
177との距離(前者をD(2720)、後者をD(3
177)とする)を求める。得られた2距離を比較し、
D(2720)≦D(3177)のときには何もしない
が、D(2720)≧D(3177)のときには、所定
の操作により低順位のクラスタ3177の類似度を引き
上げる。
That is, in the notification result of the large classification unit 2705 of FIG. 29, the first candidate cluster (character "toku", cluster number 2720) and the second candidate cluster (character "ho", cluster number 3177) are detailed. It is a proximity cluster registered in the identification dictionary 111. Therefore, the detailed identification unit 2706
Is a character recognition feature of the binary image data of the character 2805, the cluster 2720, and the character 2 regarding the feature elements used for both cluster identifications registered in the detailed identification dictionary 111.
Character recognition feature of binary image data 805 and cluster 3
177 (D (2720) for the former and D (3 for the latter)
177)). Compare the two distances obtained,
When D (2720) ≦ D (3177), nothing is done, but when D (2720) ≧ D (3177), the similarity of the low-ranked cluster 3177 is increased by a predetermined operation.

【0066】引き上げ操作の最も単純なものは、クラス
タ2720の類似度との値の交換である。引き上げ操作
前の両クラスタに対する類似度をそれぞれR(272
0)、R(3177)、引き上げ操作後の両クラスタに
対する類似度をそれぞれR’(2720)、R’(31
77)と表すと、 R’(2720)=R(3177) R’(3177)=R(2720) となる。この場合、第1位と第2位で類似度が逆転する
ので、候補順位も逆転することになる。
The simplest of the pulling operations is the exchange of values with the similarity of clusters 2720. The similarity between both clusters before the pulling operation is R (272
0), R (3177), and the similarity to both clusters after the pulling operation are R ′ (2720) and R ′ (31
77), R ′ (2720) = R (3177) R ′ (3177) = R (2720). In this case, the similarities are reversed between the first place and the second place, so the candidate ranks are also reversed.

【0067】これによって、候補クラスタは、図30に
示すようになる。なお、他の類似度の引上げ操作として
は、所定の計算式によりD(2720)、D(317
7)から類似度の引上げ幅△Rを計算し、 R’(2720)=R(2720) R’(3177)=R(3177)+△Rとする。
As a result, the candidate clusters are as shown in FIG. It should be noted that as another operation of raising the similarity, D (2720), D (317
The increase width ΔR of the similarity is calculated from 7), and R ′ (2720) = R (2720) R ′ (3177) = R (3177) + ΔR.

【0068】△Rの計算式は、例えば、次式のような計
算式である。 D(3177)<0.5*D(2720)のとき △R=R(2720)−R(3177)となる。 0.5*D(2720)≦D(3177)<D(272
0)のとき △R=2(R(2720)−R(3177)) *(1−D(3177)/D(2720))となる。
The calculation formula of ΔR is, for example, the following calculation formula. When D (3177) <0.5 * D (2720), ΔR = R (2720) −R (3177). 0.5 * D (2720) ≦ D (3177) <D (272
When 0), ΔR = 2 (R (2720) −R (3177)) * (1−D (3177) / D (2720)).

【0069】この場合、第1位と第2位の類似度は逆転
しないので、候補順位も逆転しない。第1位と第2位の
類似度が一致した場合には、認識結果出力後、後処理で
いずれかに判断する。認識結果棄却部2707は、詳細
識別部2706から候補クラスタと座標との通知を受け
ると、詳細識別部46での詳細識別処理の結果得られた
最も類似度の高い候補クラスタ(第1候補クラスタ)3
001に対して、以下のような評価条件で認識結果の有
意性を評価する。
In this case, the similarities between the first and second ranks do not reverse, so the candidate ranks also do not reverse. If the first and second similarities match, after the recognition result is output, it is determined as one of the post processing. When the recognition result rejection unit 2707 receives the notification of the candidate clusters and the coordinates from the detailed identification unit 2706, the candidate cluster with the highest degree of similarity obtained as a result of the detailed identification processing by the detailed identification unit 46 (first candidate cluster). Three
With respect to 001, the significance of the recognition result is evaluated under the following evaluation conditions.

【0070】1.第1候補クラスタ3001に対する類
似度3002が、所定の値以上である。 2.特徴抽出部2704により得られた文字認識用特徴
中の予め定めた一部の特徴要素(棄却特徴)の値が、す
べてあるいは予め定めた個数以上、上記第1実施の形態
と同様の棄却用辞書113中の第1候補クラスタ300
1の特徴要素の値の範囲に含まれている。
1. The degree of similarity 3002 to the first candidate cluster 3001 is equal to or greater than a predetermined value. 2. Rejection dictionary similar to that of the first embodiment, in which the values of some predetermined feature elements (rejection features) among the character recognition features obtained by the feature extraction unit 2704 are all or a predetermined number or more. First candidate cluster 300 in 113
It is included in the range of the value of the one feature element.

【0071】以上2条件を満たすとき、文字画像271
4の詳細識別結果は有意であると判断し、行認識結果評
価部2712に認識結果を通知する。また、以上の2条
件を満たさないとき、即ち認識結果が有意でないと判断
したときは、棄却文字連結部2708に棄却された文字
の座標を通知する。なお、認識結果の第1候補クラスタ
が括弧記号(”(”または”)”)の場合には、認識結
果が有意であると判断されても、掠れ文字2806を認
識した可能性があるため、棄却された文字と同様に扱
い、棄却文字連結部2708に座標を通知する。
When the above two conditions are satisfied, the character image 271
The detailed identification result of No. 4 is determined to be significant, and the row recognition result evaluation unit 2712 is notified of the recognition result. When the above two conditions are not satisfied, that is, when it is determined that the recognition result is not significant, the rejected character connecting unit 2708 is notified of the coordinates of the rejected characters. If the first candidate cluster of the recognition result is the parenthesis symbol (“(” or “)”), the blurred character 2806 may have been recognized even if the recognition result is determined to be significant. It treats it like a rejected character and notifies the rejected character concatenation unit 2708 of the coordinates.

【0072】なお、本実施の形態では、棄却特徴数は1
で縦横比特徴のみを用いるが、他の特徴を合わせ用いて
も構わない。また、認識結果棄却部2707は、通知さ
れた座標が既に通知されている座標と重なるものである
ときは、後に通知された第1候補クラスタの上述の評価
条件のもとでの認識結果の有意性を判断して認識結果選
択部2711に通知する。
In the present embodiment, the number of rejection features is 1.
However, although only the aspect ratio feature is used, other features may be used together. Further, when the notified coordinates overlap the already notified coordinates, the recognition result rejection unit 2707 determines whether the recognition result of the first candidate cluster, which is notified later, of the recognition result under the above-described evaluation condition. The recognition result selection unit 2711 is notified of the determined sex.

【0073】棄却文字連結部2708は、認識結果棄却
部2707によって座標を通知されると、詳細識別部4
6での詳細識別の処理の結果得られた第1候補クラスタ
が括弧記号および認識結果棄却部2707で認識結果が
有意でないと判定された棄却文字が近接して連続する場
合には連続する括弧記号および棄却文字の座標を連結
し、文字数推定部2709を起動する。
When the recognition result rejection unit 2707 notifies the rejection character concatenation unit 2708 of the coordinates, the detailed identification unit 4
If the first candidate cluster obtained as a result of the detailed identification processing in 6 is a parenthesis symbol and the rejected characters whose recognition result is determined to be insignificant by the recognition result rejection unit 2707 are adjacent and consecutive, the parenthesis symbol And the coordinates of the rejected characters are connected, and the number-of-characters estimation unit 2709 is activated.

【0074】文字数推定部2709は、棄却文字連結部
2708によって起動されると、認識結果棄却部270
7で棄却された棄却文字の前の括弧記号又は前後の他の
棄却文字が存しない単独棄却文字及び棄却文字連結部粒
2708で複数の棄却文字(括弧記号と棄却文字とを含
む)を連結した連結棄却文字の座標から文字数を推定す
る。推定した文字数と座標とを連結文字分割部2710
に通知する。
When the rejection character concatenation unit 2708 activates the character number estimation unit 2709, the recognition result rejection unit 270.
Multiple rejection characters (including bracket symbols and rejection characters) are concatenated in parenthesis symbol before rejection character rejected in 7 or other rejection characters before and after other rejection characters and rejection character concatenation part grain 2708 Estimate the number of characters from the coordinates of the concatenated rejected characters. The estimated character number and the coordinate are connected to each other by the character dividing unit 2710.
To notify.

【0075】ここで、文字数の推定は、分割対象領域の
幅を標準文字幅で割って求められる。一例として、標準
文字幅は、認識結果棄却部2707で認識結果が棄却さ
れなかった文字の文字幅の平均値とする。認識結果選択
部2711は、認識結果棄却部2707から認識結果が
有意であるとの通知を受けると、認識結果棄却部270
7が先に通知された詳細識別結果を破棄して後に通知さ
れた詳細識別結果を採用して行認識結果評価部2712
に通知する。認識結果棄却部2707から認識結果が有
意でないとの通知を受けると、後に通知された詳細識別
結果を破棄して先に通知された候補クラスタを採用して
行認識結果評価部2712に通知する。
Here, the number of characters can be estimated by dividing the width of the division target area by the standard character width. As an example, the standard character width is an average value of character widths of characters whose recognition result is not rejected by the recognition result rejection unit 2707. When the recognition result selection unit 2711 receives a notification from the recognition result rejection unit 2707 that the recognition result is significant, the recognition result rejection unit 270.
7 discards the detailed identification result notified first and adopts the detailed identification result notified later, and the row recognition result evaluation unit 2712
To notify. When the recognition result rejection unit 2707 receives a notification that the recognition result is not significant, the detailed recognition result notified later is discarded, the candidate cluster notified first is adopted, and the row recognition result evaluation unit 2712 is notified.

【0076】行認識結果評価部2712には、認識結果
棄却部2707又は認識結果選択部2711から1行中
の全文字の認識結果の通知を受けると、そのクラスタ番
号を検索キーとして大分類辞書108を検索し、認識結
果の第1候補クラスタの”;”、”:”、”
・”、”,”等の破片文字の数を数える。一行内の文字
数に対して破片文字の数が所定の割合を越えていると判
断したときは、認識した行は文字行でないとして行全体
の認識結果を破棄する。所定の割合以下と判断したとき
は、認識結果を認識結果出力部2713に通知する。
When the line recognition result evaluating unit 2712 receives the recognition result of all characters in one line from the recognition result discarding unit 2707 or the recognition result selecting unit 2711, the large classification dictionary 108 uses the cluster number as a search key. For the first candidate cluster of the recognition result, “;”, “:”, “
・ Count the number of fragment characters such as “,”, etc. When it is judged that the number of fragment characters exceeds the specified ratio to the number of characters in one line, the recognized line is not a character line and the entire line The recognition result is discarded, and when it is determined that the ratio is less than or equal to a predetermined ratio, the recognition result output unit 2713 is notified of the recognition result.

【0077】認識結果主力部2713は、行認識結果評
価部2712から通知された認識結果を出力する。この
認識結果には、詳細識別部2706で得られた類似度の
高い一つまたは複数の候補クラスタに対応する文字コー
ドとそれに対応する類似度とを含む。次に、本実施の形
態の動作を、図31に示すフローチャートを用いて説明
する。
The recognition result main unit 2713 outputs the recognition result notified from the line recognition result evaluation unit 2712. The recognition result includes the character code corresponding to one or a plurality of candidate clusters having a high degree of similarity obtained by the detail identifying unit 2706 and the degree of similarity corresponding to the character code. Next, the operation of the present embodiment will be described using the flowchart shown in FIG.

【0078】先ず、ユーザが認識対象の文字画像271
4を画像入力部2701に入力すると、画像入力部27
01は、文字画像2714を2値画像データに変換し、
文字抽出部2701と文字検出部2703と特徴抽出部
2704とにそのデータを通知する(S3102)。文
字行検出部2702は、一行の2値画像データの座標を
検出する(S2702)。文字検出部2703は、その
行内の文字座標を検出する(S3106)。特徴抽出部
2704は、文字検出部2703から通知された座標で
特定される2値画像データから文字認識用の特徴を1行
分抽出する(S3108)。
First, the user recognizes the character image 271.
4 is input to the image input unit 2701, the image input unit 27
01 converts the character image 2714 into binary image data,
The data is notified to the character extraction unit 2701, the character detection unit 2703, and the feature extraction unit 2704 (S3102). The character line detection unit 2702 detects the coordinates of one line of binary image data (S2702). The character detection unit 2703 detects the character coordinates within the line (S3106). The feature extraction unit 2704 extracts one line of feature for character recognition from the binary image data specified by the coordinates notified from the character detection unit 2703 (S3108).

【0079】大分類部2705は、特徴抽出部で抽出さ
れた1行分の文字を順次、大分類用辞書108を参照し
てそのクラスタ平均特徴との距離を計算し、得られた距
離から類似度を計算し、類似度の高い候補クラスタを選
出する(S3110)。詳細識別部2706は、詳細識
別用辞書111中に登録されている近接クラスタの組を
なす2クラスタが、大分類部2705で選出された複数
の候補クラスタ中にともに含まれているときには、詳細
識別用辞書111に登録された両クラスタの識別に用い
る特徴要素に関してクラスタ平均特徴との距離を計算
し、順位の低いクラスタ候補のその距離の方が順位の高
いクラスタ候補よりも小さいときには、その類似度を入
れ替える。この処理を1行の全文字に対して行う(S3
112)。
The large classification unit 2705 sequentially calculates the distance between the one line of characters extracted by the characteristic extraction unit and the cluster average characteristic with reference to the large classification dictionary 108, and calculates the distance from the obtained distance. The degree is calculated, and a candidate cluster having a high degree of similarity is selected (S3110). When the two clusters that form a set of adjacent clusters registered in the detailed identification dictionary 111 are both included in the plurality of candidate clusters selected by the large classification unit 2705, the detailed identification unit 2706 performs detailed identification. The distance from the cluster average feature is calculated for the feature elements used to identify both clusters registered in the use dictionary 111, and when the distance of the cluster candidate with the lower rank is smaller than that of the cluster candidate with the higher rank, the similarity is calculated. Replace. This process is performed for all characters in one line (S3
112).

【0080】このように文字の特徴的部分を利用して誤
認識し易い近接クラスタを識別することができる。認識
結果棄却部2707は、所定の特徴要素それぞれの値が
棄却処理用辞書113の第1候補クラスタの値の範囲内
であり、かつ、第1候補クラスタの類似度が所定の値以
上であるときに、詳細識別部2706で認識された候補
クラスタが有意であると判定し、いずれかの条件を満足
しないときに有意でないと判定する(S3114)。
As described above, it is possible to identify a proximate cluster that is likely to be erroneously recognized by utilizing the characteristic portion of the character. When the value of each of the predetermined feature elements is within the range of the value of the first candidate cluster of the rejection processing dictionary 113 and the similarity of the first candidate cluster is equal to or more than the predetermined value, the recognition result rejection unit 2707 First, it is determined that the candidate cluster recognized by the detailed identification unit 2706 is significant, and when any of the conditions is not satisfied, it is determined not to be significant (S3114).

【0081】認識結果棄却部2707において、棄却文
字または棄却文字ではないが第1候補クラスタが括弧記
号で有るか否かを判断される(S3116)。棄却文字
または第1候補クラスタが括弧記号の場合には、棄却文
字連結部2708で棄却文字が連結され(S311
8)、文字数推定部2709は、その連結された棄却文
字の領域の文字数を計算で求める(S3120)。連結
文字分割部2710は、求めた文字数から文字の座標を
求める(S3122)。特徴抽出部2704は、求めら
れた座標で特定される2値画像データから文字認識用特
徴を抽出し(S3124)、大分類部2705は、抽出
した文字認識用特徴と大分類用辞書108のクラスタ平
均特徴との距離Dを計算し、距離Dから類似度を求め、
候補クラスタを選出する(S3126)。
The recognition result rejection unit 2707 determines whether or not the rejection character or the first candidate cluster which is not a rejection character is a parenthesis symbol (S3116). If the reject character or the first candidate cluster is a parenthesis symbol, the reject character concatenation unit 2708 concatenates the reject characters (S311).
8), the character number estimation unit 2709 calculates the number of characters in the concatenated rejected character area (S3120). The concatenated character division unit 2710 obtains character coordinates from the obtained number of characters (S3122). The feature extraction unit 2704 extracts the character recognition feature from the binary image data specified by the obtained coordinates (S3124), and the large classification unit 2705 uses the extracted character recognition feature and the cluster of the large classification dictionary 108. The distance D from the average feature is calculated, the similarity is calculated from the distance D,
A candidate cluster is selected (S3126).

【0082】詳細識別部2706は、詳細識別用辞書1
11中に登録されている近接するクラスタの組をなす2
クラスタが、大分類部2705で選出された複数の候補
クラスタ中にともに含まれているときには、登録されて
いる所定の特徴に関してクラスタ平均特徴との距離を求
め、その距離が候補クラスタの順位の低い方が近いとき
には、その類似度を変更し、その順位を入れ替える(S
3128)。再度認識結果棄却部2707は、棄却処理
用辞書を参照して、第1候補クラスタが有意であるか否
かを判定する(S3130)。認識結果選択部2711
は、棄却文字連結・分割処理後の認識結果が棄却されな
かったときには、棄却文字連結・分割処理後の認識結果
を選択し、棄却文字連結・分割処理後の認識結果が棄却
されたときには、元の認識結果を選択する(S313
2)。1行中の全文字の認識が終了していなければ(S
3134)、S3116に戻る。S3116において、
括弧記号又は棄却文字がないときにはS3134に移
る。
The detailed identification section 2706 is used for the detailed identification dictionary 1
2 forming a set of adjacent clusters registered in 11
When the cluster is included in both of the plurality of candidate clusters selected by the large classification unit 2705, the distance between the cluster average feature and the registered predetermined feature is calculated, and the distance is low in the rank of the candidate cluster. When the one is closer, the degree of similarity is changed and the order is changed (S
3128). The recognition result rejection unit 2707 again refers to the rejection processing dictionary and determines whether or not the first candidate cluster is significant (S3130). Recognition result selection unit 2711
Selects the recognition result after the reject character concatenation / division processing when the recognition result after the rejection character concatenation / division processing is not rejected, and when the recognition result after the rejection character concatenation / division processing is rejected, The recognition result of is selected (S313
2). If all the characters in one line have not been recognized (S
3134) and the process returns to S3116. In S3116,
If there is no parenthesis symbol or rejected character, the process moves to S3134.

【0083】S3134で、1行中の全文字の認識が終
了しているときは、行認識結果評価部2712は、1行
中の文字に破片文字等が所定の割合以上含まれているか
否かを判断する(S3136)。認識結果出力部271
3は、1行文の認識結果を出力し(S3138)、入力
された文書画像の全行終了していれば処理を終了し(S
3140)、終了していなければ3106に戻る。
When the recognition of all the characters in one line is completed in S3134, the line recognition result evaluation unit 2712 determines whether or not the characters in one line include fragment characters or the like in a predetermined ratio or more. Is determined (S3136). Recognition result output unit 271
3 outputs the recognition result of the one-line sentence (S3138), and if all the lines of the input document image are completed, the process is completed (S3138).
3140), and if not completed, returns to 3106.

【0084】なお、本実施の形態では、横書き文書を例
にしたけれども、縦と横、幅と高さを置き換えることに
よって、縦書き文書にも適用可能なのは勿論である。連
結文字分割部2710は、文字数推定部2709から通
知された文字数と座標とに基づいて、単独棄却文字ある
い連結文字中の文字座標を左端の文字から順次求める。
求めた文字座標を順次特徴抽出部2704に通知する。
この文字座標は、分割対象領域の幅を推定文字数割った
均等分割位置で分割して求める。なお、均等分割位置を
中心に、所定の幅の範囲で縦方向の黒画素の射影を求
め、射影の跡切位置で分割して求めることもできる。
In this embodiment, the horizontal writing document is taken as an example, but it is needless to say that the present invention can be applied to a vertical writing document by replacing the vertical and horizontal directions and the width and height. The concatenated character division unit 2710 sequentially obtains character coordinates in the single rejected character or the concatenated character from the leftmost character based on the number of characters and the coordinates notified from the character number estimation unit 2709.
The obtained character coordinates are sequentially notified to the feature extraction unit 2704.
The character coordinates are obtained by dividing the width of the area to be divided by the estimated number of characters and dividing at the equal division position. It is also possible to obtain the projection of the black pixel in the vertical direction within a predetermined width range centering on the uniform division position and divide the projection at the trace cut position of the projection.

【0085】以上、本発明を実施の形態に基づいて説明
したけれども、本発明は上記実施の形態に限定されない
のは勿論である。
Although the present invention has been described above based on the embodiments, it goes without saying that the present invention is not limited to the above embodiments.

【0086】[0086]

【発明の効果】以上説明してきたように、文字コードご
とに、入力を受け付けた多数の学習用文字画像を2値画
像データに変換する入力画像変換手段と、前記入力画像
変換手段で変換された各2値画像データから文字認識に
用いる特徴を抽出する特徴抽出手段と、前記特徴抽出手
段で抽出された特徴を、文字コードごとに所定の手順で
クラスタに分類するクラスタリング手段と、前記クラス
タリング手段で分類したクラスタごとに、前記特徴抽出
手段で抽出した特徴を平均したクラスタ平均特徴を求め
て、前記入力画像変換手段から入力された文字コードに
対応付けた大分類用データとして登録する大分類用辞書
登録手段と、前記大分類用辞書登録手段に登録されてい
るクラスタ平均特徴間の距離を計算する距離計算手段
と、前記距離計算手段で計算された距離が所定の値より
も小さい異なる文字コードのクラスタを近接クラスタの
組として取り出し、その組ごとにクラスタ平均特徴のう
ちそれらを識別する能力の高い要素を少なくとも1個選
択して、両クラスタの識別子とともに詳細識別用データ
として登録する詳細識別用辞書登録手段とを備え、前記
クラスタリング手段は、文字コードごとに文字認識に用
いる特徴相互間の距離を計算する距離計算部と、前記距
離計算部が計算した各文字コードごとの距離の最大値の
うち最小のものを基にクラスタの大きさに決定する決定
部と、文字コードごとに前記決定部で決定されたクラス
タの大きさ以下にクラスタを統合する統合部とを備える
こととしているので、文字認識用辞書作成装置では、文
字ごとに独立したクラスタリングを行うために、たとえ
異なる文字のクラスタ間でクラスタの近接又は重複が発
生する場合であっても、詳細識別用辞書登録手段がその
ような近接クラスタを識別可能な特徴要素と近接クラス
タの識別子とを詳細識別用辞書に登録できるようにして
いるので、優れた文字認識率となる辞書が作成され、か
つ、クラスタリング手段がクラスタ数が最適となるよう
にクラスタの大きさを決定し、その決定された大きさに
クラスタを統合するので、クラスタ分割時のクラスタ数
の過度の増加を抑えることができる。
As described above, for each character code, input image conversion means for converting a large number of learning character images, which have been input, into binary image data, and the input image conversion means. A feature extraction unit that extracts a feature used for character recognition from each binary image data, a clustering unit that classifies the features extracted by the feature extraction unit into a cluster according to a predetermined procedure for each character code, and the clustering unit. For each classified cluster, a cluster average feature obtained by averaging the features extracted by the feature extraction means is obtained, and registered as large classification data associated with the character code input from the input image conversion means. Registration means, distance calculation means for calculating a distance between cluster average features registered in the large classification dictionary registration means, and the distance calculation means The clusters of different character codes whose distances calculated in step 1 are smaller than a predetermined value are taken out as a set of adjacent clusters, and at least one element having high ability to identify them among the cluster average features is selected for each set, A detailed identification dictionary registration unit that registers together with the identifiers of both clusters as detailed identification data, wherein the clustering unit calculates a distance between features used for character recognition for each character code, and the distance calculation unit. A determining unit that determines the size of the cluster based on the smallest one of the maximum distance values for each character code calculated by the calculating unit, and a cluster size that is less than or equal to the cluster size determined by the determining unit for each character code. Since it is equipped with an integration unit that integrates clusters, the character recognition dictionary creation device performs independent clustering for each character. Therefore, even if clusters of different characters are close to each other or overlap with each other, the detailed identification dictionary registration means details the feature elements and the identifiers of the close clusters that can identify such close clusters. Since the dictionary can be registered in the identification dictionary, a dictionary with an excellent character recognition rate is created, and the clustering means determines the cluster size so that the number of clusters is optimal, and the determined size is determined. In addition, since the clusters are integrated, it is possible to suppress an excessive increase in the number of clusters when dividing the clusters.

【0087】また、前記詳細識別用辞書登録手段は、そ
の作用の基準となる所定の値として前記クラスタリング
手段の決定部が決定したクラスタの大きさを採用する所
定値判定部を有することとしているので、詳細識別用辞
書作成手段が詳細識別用辞書に登録するクラスタ間距離
を「クラスタの大きさ」と同一とすることにより、部分
特徴を利用して類似文字に対しても高い認識率を得るこ
とができる。
Further, since the detailed identification dictionary registration means has a predetermined value determination section which adopts the size of the cluster determined by the determination section of the clustering means as a predetermined value which serves as a reference for its operation. By making the inter-cluster distance registered in the detailed identification dictionary by the detailed identification dictionary the same as the “cluster size”, a high recognition rate can be obtained for similar characters by using partial features. You can

【0088】また、前記特徴抽出手段は、上記2値画像
データの文字部分に対応する画素を囲む外接矩形を決定
する外接矩形決定部と、上記文字部分に対応する画素の
境界画素ごとに隣接画素との位置関係で定まる方向値を
決定し、上記外接矩形を行方向にL分割し、列方向にM
分割した各領域において、その内部の各方向値ごとに画
素数を計数し、該計数した画素数を各領域に含まれる画
素数で除した領域別輪郭方向密度特徴を求める領域別輪
郭方向密度計算部と、上記外接矩形の各辺から対辺に向
かって走査したとき、上記文字部分に対応しない画素か
ら対応する画素に変化するごとに「1」を加えた背景値
を決定し、上記外接矩形を行方向にP分割し、列方向に
Q分割した各領域において、その内部の背景値ごとの画
素数を計数し、該計数した画素数を各領域の画素数で除
した領域別背景密度特徴を求める領域別背景密度計算部
と、上記外接矩形からその縦横比を計算して縦横比特徴
を求める縦横比計算部とを備えることとしてるので、特
微抽出手段が文字認識に用いる基準となる特微として、
文字の縦横比特微を抽出するので、認識率を更に高率に
することができる。
Further, the feature extracting means includes a circumscribing rectangle determining unit that determines a circumscribing rectangle surrounding a pixel corresponding to the character portion of the binary image data, and an adjacent pixel for each boundary pixel of pixels corresponding to the character portion. The directional value determined by the positional relationship with the
In each divided area, the number of pixels is counted for each direction value inside the divided area, and the contour direction density characteristic for each area is calculated by dividing the counted number of pixels by the number of pixels included in each area. Part, and when scanning from each side of the circumscribed rectangle toward the opposite side, a background value to which "1" is added is determined each time the pixel that does not correspond to the character portion changes to the corresponding pixel, and the circumscribed rectangle is determined. In each region divided into P in the row direction and Q in the column direction, the number of pixels for each internal background value is counted, and the background density feature for each region is obtained by dividing the counted number of pixels by the number of pixels in each region. Since the area-based background density calculation unit to be obtained and the aspect ratio calculation unit to obtain the aspect ratio feature by calculating the aspect ratio from the circumscribed rectangle are provided, the feature extraction means is a reference used for character recognition. Slightly
Since the aspect ratio feature of the character is extracted, the recognition rate can be further increased.

【0089】また、認識対象の文字画像の入力を受け付
けて2値画像データに変換する入力画像変換手段と、前
記入力画像変換手段で変換された2値画像データの文字
行に対応する座標位置を検出する文字行座標位置検出手
段と、前記文字行座標位置検出手段の検出対象とされた
文字行内の個々の文字に対応する座標位置を検出する文
字座標位置検出手段と、前記文字座標位置検出手段で検
出された座標で特定される2値画像からなる文字の認識
に使用する特徴を抽出する特徴抽出手段と、基準となる
文字の形状特徴を平均したクラスタ平均特徴とその文字
コードを対応付けて所定の値の大きさのクラスタに分類
して登録している大分類用辞書と、 前記特徴抽出手段
で抽出された特徴と上記クラスタ平均特徴との距離を計
算し、得られた距離から類似度を計算し、類似度の高い
複数のクラスタをクラスタ候補として選出する大分類手
段と、前記大分類用辞書に登録されているクラスタのう
ち、2つのクラスタ間の距離が所定の値より小さい近接
クラスタの識別子と少なくとも1以上の両クラスタを識
別するクラスタ平均特徴の要素とを対応付けて登録して
いる詳細識別用辞書と、前記詳細識別用辞書に登録され
ている近接クラスタの2つの識別子が、前記大分類手段
で選出された複数の候補クラスタ中の識別子にともに含
まれているときには、前記詳細識別用辞書に登録されて
いる文字の認識に使用する特徴の要素のみに関して、前
記特徴抽出手段で抽出された特徴とクラスタ平均特徴と
の第2の距離を計算し、該第2の距離の小さい方のクラ
スタの類似度を引き上げる詳細識別手段と、前記詳細識
別手段で引き上げられた類似度を優先して、前記大分類
手段で選出された候補クラスタに対応する文字コードを
出力する出力手段とを備え、文字コードごとに入力を受
け付けた多数の学習用文字画像を2値画像データに変換
する入力画像変換手段と、前記入力画像変換手段で変換
された各2値画像データから文字認識に用いる特微を抽
出する文字特微抽出手段と、前記文字特微抽出手段で抽
出された文字認識に用いる特微相互間の距離を文字コー
ドごとに計算する距離計算手段と、前記距離計算手段が
計算した各文字コードごとの距離の最大値のうち最小の
ものを基に前記大分類用辞書及び詳細識別用辞書の所定
の値として、決定する決定手段とを備えることとしてい
るので、詳細識別手段が、近接クラスタを識別する能力
の高い、文字認識の基準となる部分特微を用いて入力文
字画像を認識するので、高認識率の文字認識装置を得る
ことができ、かつ、クラスタ数を適当な値にしているの
で、辞書容量の省資源化を図ることができるとともに、
認識対象の入力文字画像の特微比較による計算時間を短
縮することができる。
Further, an input image converting means for receiving an input of a character image to be recognized and converting it into binary image data and a coordinate position corresponding to a character line of the binary image data converted by the input image converting means are set. A character line coordinate position detecting means for detecting, a character coordinate position detecting means for detecting a coordinate position corresponding to each character in a character line which is a detection target of the character line coordinate position detecting means, and the character coordinate position detecting means The feature extracting means for extracting the feature used for recognition of the character composed of the binary image specified by the coordinates detected in step 1, the cluster average feature obtained by averaging the shape features of the reference character, and the character code are associated with each other. The large classification dictionary registered by classifying into clusters of a predetermined value, the distance between the feature extracted by the feature extraction means and the cluster average feature, and the obtained distance Of the clusters registered in the large classification dictionary, the distance between the two clusters is larger than a predetermined value. Two, a detailed identification dictionary in which an identifier of a small proximity cluster and an element of a cluster average feature that identifies at least one of both clusters are associated and registered, and a proximity cluster registered in the detailed identification dictionary When the identifiers are both included in the identifiers in the plurality of candidate clusters selected by the large classification unit, the characteristics are used only for the characteristic elements used for recognition of the characters registered in the detailed identification dictionary. A detailed discriminator for calculating a second distance between the feature extracted by the extracting means and the cluster average feature, and increasing the similarity of the cluster having the smaller second distance. And output means for outputting the character code corresponding to the candidate cluster selected by the general classification means, with priority given to the degree of similarity raised by the detailed identification means, and a large number of inputs accepted for each character code. Input image converting means for converting the learning character image into binary image data, and character characteristic extracting means for extracting characteristics used for character recognition from each binary image data converted by the input image converting means. Of the maximum value of the distance for each character code calculated by the distance calculation means, the distance calculation means for calculating the distance between the characteristics used for character recognition extracted by the character feature extraction means for each character code Since the determination means for determining the predetermined value of the large classification dictionary and the detailed identification dictionary based on the smallest one is provided, the detailed identification means has the ability to identify the adjacent clusters. Since the input character image is recognized using a high character feature that serves as a reference for character recognition, a character recognition device with a high recognition rate can be obtained, and the number of clusters is set to an appropriate value. Resource saving of
It is possible to shorten the calculation time by the characteristic comparison of the input character images to be recognized.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明に係る文字認識用辞書作成装置の一実施
の形態の構成図である。
FIG. 1 is a configuration diagram of an embodiment of a character recognition dictionary creation device according to the present invention.

【図2】上記実施の形態の学習用文字画像データベース
に記憶されている2値画像データの説明図である。
FIG. 2 is an explanatory diagram of binary image data stored in a learning character image database according to the above embodiment.

【図3】上記実施の形態の特徴抽出部の詳細構成図であ
る。
FIG. 3 is a detailed configuration diagram of a feature extraction unit of the above embodiment.

【図4】上記実施の形態の特徴抽出部の説明のための2
値画像データの一例を示す図である。
FIG. 4 is a diagram for explaining a feature extraction unit according to the above embodiment;
It is a figure which shows an example of value image data.

【図5】上記実施の形態の特徴抽出部で用いる方向値の
説明図である。
FIG. 5 is an explanatory diagram of direction values used in the feature extraction unit of the above embodiment.

【図6】上記実施の形態の特徴抽出部の方向値付与部で
決定された方向値を説明するための図である。
FIG. 6 is a diagram for explaining a direction value determined by a direction value giving unit of the feature extraction unit of the above embodiment.

【図7】上記実施の形態の特徴抽出部での領域分割を説
明するための図である。
FIG. 7 is a diagram for explaining region division in the feature extraction unit of the above embodiment.

【図8】上記実施の形態の特徴抽出部の背景値付与部で
決定された背景値を説明するための図である。
FIG. 8 is a diagram for explaining a background value determined by a background value giving unit of the feature extraction unit of the above embodiment.

【図9】上記実施の形態の特徴抽出部の縦横比計算部で
決定された縦横比を説明するための図である。
FIG. 9 is a diagram for explaining an aspect ratio determined by an aspect ratio calculation unit of the feature extraction unit of the above embodiment.

【図10】上記実施の形態の学習特徴データベースの記
憶内容の一例を示す図である。
FIG. 10 is a diagram showing an example of stored contents of a learning feature database of the above embodiment.

【図11】上記実施の形態の学習特徴データベースの記
憶内容の一例を示す図である。
FIG. 11 is a diagram showing an example of stored contents of a learning feature database according to the above embodiment.

【図12】上記実施の形態の学習特徴データベースの記
憶内容の一例を示す図である。
FIG. 12 is a diagram showing an example of stored contents of a learning feature database of the above embodiment.

【図13】上記実施の形態の学習特徴データベースの記
憶内容の一例を示す図である。
FIG. 13 is a diagram showing an example of stored contents of a learning feature database according to the above embodiment.

【図14】上記実施の形態の学習特徴データベースの記
憶内容を説明するための図である。
FIG. 14 is a diagram for explaining stored contents of a learning feature database according to the above embodiment.

【図15】上記実施の形態のクラスデータの構造の一例
を示す図である。
FIG. 15 is a diagram showing an example of a structure of class data according to the above embodiment.

【図16】上記実施の形態の大分類用辞書の構造の一例
を示す図である。
FIG. 16 is a diagram showing an example of a structure of a large classification dictionary according to the above embodiment.

【図17】上記実施の形態の大分類用辞書の辞書データ
の一例を示す図である。
FIG. 17 is a diagram showing an example of dictionary data of the large classification dictionary of the above embodiment.

【図18】上記実施の形態の大分類用辞書の辞書データ
の一例を示す図である。
FIG. 18 is a diagram showing an example of dictionary data of the large classification dictionary of the above embodiment.

【図19】上記実施の形態の大分類用辞書の辞書データ
の一例を示す図である。
FIG. 19 is a diagram showing an example of dictionary data of the large classification dictionary of the above embodiment.

【図20】上記実施の形態の大分類用辞書の辞書データ
の一例を示す図である。
FIG. 20 is a diagram showing an example of dictionary data of the large classification dictionary according to the embodiment.

【図21】上記実施の形態の大分類用辞書の辞書データ
の一例を示す図である。
FIG. 21 is a diagram showing an example of dictionary data of the large classification dictionary of the above embodiment.

【図22】上記実施の形態の詳細識別用辞書のデータ構
造を示す図である。
FIG. 22 is a diagram showing a data structure of a detailed identification dictionary according to the above embodiment.

【図23】上記実施の形態の詳細識別用辞書の内容の一
例を示す図である。
FIG. 23 is a diagram showing an example of contents of a detailed identification dictionary according to the above embodiment.

【図24】上記実施の形態の棄却処理用辞書の内容の一
例を示す図である。
FIG. 24 is a diagram showing an example of contents of a rejection processing dictionary of the above embodiment.

【図25】上記実施の形態の動作を説明するフローチャ
ートである。
FIG. 25 is a flowchart illustrating the operation of the above embodiment.

【図26】上記実施の形態の動作を説明するフローチャ
ートである。
FIG. 26 is a flowchart illustrating the operation of the above embodiment.

【図27】本発明に係る文字認識装置の一実施の形態の
構成図である。
FIG. 27 is a configuration diagram of an embodiment of a character recognition device according to the present invention.

【図28】上記実施の形態の入力画像の一例を示す図で
ある。
FIG. 28 is a diagram showing an example of an input image according to the above embodiment.

【図29】上記実施の形態の大分類結果の一例を示す図
である。
FIG. 29 is a diagram showing an example of a large classification result according to the above embodiment.

【図30】上記実施の形態の詳細識別結果の一例を示す
図である。
FIG. 30 is a diagram showing an example of a detailed identification result of the above embodiment.

【図31】上記実施の形態の動作を説明するフローチャ
ートである。
FIG. 31 is a flowchart illustrating the operation of the above embodiment.

【図32】従来の特徴では識別の困難であった文字の例
である。
FIG. 32 is an example of a character that is difficult to identify by the conventional feature.

【符号の説明】[Explanation of symbols]

101 画像入力部 102 学習用画像データベース 103 特徴抽出部 104 学習特徴データベース 105 クラスタリング部 106 クラスタデータベース 107 大分類用辞書作成部 108 大分類用辞書 109 クラスタ間距離計算部 110 詳細識別用辞書作成部 111 詳細識別用辞書 112 棄却処理用辞書作成部 113 棄却処理用辞書 301 方向値付与部 302 領域別輪郭方向密度計算部 303 背景値付与部 304 領域別背景密度計算部 305 縦横比計算部 306 特徴統合部 2701 画像入力部 2702 文字行検出部 2703 文字検出部 2704 特徴抽出部 2705 大分類部 2706 詳細識別部 2707 認識結果棄却部 2708 棄却文字連結部 2709 文字数推定部 2710 連結文字分割部 2711 認識結果選択部 2712 行認識結果評価部 2713 認識結果出力部 101 Image input section 102 Learning image database 103 feature extraction unit 104 Learning feature database 105 clustering unit 106 cluster database 107 Major classification dictionary creation unit 108 Major classification dictionary 109 inter-cluster distance calculator 110 Detailed identification dictionary creation unit 111 Detailed identification dictionary 112 Rejection processing dictionary creation unit 113 Rejection dictionary 301 Direction value giving unit 302 Region-wise contour direction density calculator 303 background value adding unit 304 Region-based background density calculator 305 Aspect ratio calculator 306 Feature integration unit 2701 Image input section 2702 Character line detector 2703 Character detector 2704 Feature extraction unit 2705 Major classification division 2706 Detailed identification section 2707 Recognition result rejection unit 2708 Rejected character concatenation 2709 Number of characters estimation unit 2710 concatenated character division 2711 Recognition result selection unit 2712 Row recognition result evaluation unit 2713 Recognition result output unit

───────────────────────────────────────────────────── フロントページの続き (72)発明者 竹之内 磨理子 大阪府門真市大字門真1006番地 松下電器 産業株式会社内 (72)発明者 江村 里志 大阪府門真市大字門真1006番地 松下電器 産業株式会社内 Fターム(参考) 5B064 DA05 DA13 DA27 DC07 DC19 EA08 EA18 EA36    ─────────────────────────────────────────────────── ─── Continued front page    (72) Inventor Mariko Takenouchi             1006 Kadoma, Kadoma-shi, Osaka Matsushita Electric             Sangyo Co., Ltd. (72) Inventor Satoshi Emura             1006 Kadoma, Kadoma-shi, Osaka Matsushita Electric             Sangyo Co., Ltd. F term (reference) 5B064 DA05 DA13 DA27 DC07 DC19                       EA08 EA18 EA36

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 文字コードごとに、入力を受け付けた多
数の学習用文字画像を2値画像データに変換する入力画
像変換手段と、 前記入力画像変換手段で変換された各2値画像データか
ら文字認識に用いる特徴を抽出する特徴抽出手段と、 前記特徴抽出手段で抽出された特徴を、文字コードごと
に所定の手順でクラスタに分類するクラスタリング手段
と、 前記クラスタリング手段で分類したクラスタごとに、前
記特徴抽出手段で抽出した特徴を平均したクラスタ平均
特徴を求めて、前記入力画像変換手段から入力された文
字コードに対応付けた大分類用データとして登録する大
分類用辞書登録手段と、 前記大分類用辞書登録手段に登録されているクラスタ平
均特徴間の距離を計算する距離計算手段と、 前記距離計算手段で計算された距離が所定の値よりも小
さい異なる文字コードのクラスタを近接クラスタの組と
して取り出し、その組ごとにクラスタ平均特徴のうちそ
れらを識別する能力の高い要素を少なくとも1個選択し
て、両クラスタの識別子とともに詳細識別用データとし
て登録する詳細識別用辞書登録手段とを備え、 前記クラスタリング手段は、 文字コードごとに文字認識に用いる特徴相互間の距離を
計算する距離計算部と、 前記距離計算部が計算した各文字コードごとの距離の最
大値のうち最小のものを基にクラスタの大きさに決定す
る決定部と、 文字コードごとに前記決定部で決定されたクラスタの大
きさ以下にクラスタを統合する統合部とを備えることを
特徴とする文字認識用辞書作成装置。
1. An input image conversion unit for converting a large number of input learning character images into binary image data for each character code, and a character from each binary image data converted by the input image conversion unit. Feature extraction means for extracting features to be used for recognition, features extracted by the feature extraction means, clustering means for classifying the character code into clusters in a predetermined procedure for each character code, and for each cluster classified by the clustering means, Large classification dictionary registration means for obtaining cluster average characteristics by averaging the characteristics extracted by the characteristic extraction means and registering them as large classification data associated with the character code input from the input image conversion means; The distance calculation means for calculating the distance between the cluster average features registered in the dictionary dictionary registration means, and the distance calculated by the distance calculation means. Clusters of different character codes smaller than the value of are extracted as a set of adjacent clusters, and at least one element having a high ability to identify them among the cluster average features is selected for each set, and detailed identification is performed together with the identifiers of both clusters. Detailed identification dictionary registration means for registering as character data, the clustering means calculates a distance between features used for character recognition for each character code, and each character calculated by the distance calculation part. A determining unit that determines the size of the cluster based on the smallest one of the maximum distances for each code, and an integrating unit that integrates the cluster into the size of the cluster determined by the determining unit for each character code or less. A character recognition dictionary creation device comprising:
【請求項2】 前記詳細識別用辞書登録手段は、 その作用の基準となる所定の値として前記クラスタリン
グ手段の決定部が決定したクラスタの大きさを採用する
所定値判定部を有することを特徴とする請求項1記載の
文字認識用辞書作成装置。
2. The detailed identification dictionary registration means includes a predetermined value determination section that adopts the size of the cluster determined by the determination section of the clustering means as a predetermined value that serves as a reference for its operation. The dictionary creation device for character recognition according to claim 1.
【請求項3】 前記特徴抽出手段は、 上記2値画像データの文字部分に対応する画素を囲む外
接矩形を決定する外接矩形決定部と、 上記文字部分に対応する画素の境界画素ごとに隣接画素
との位置関係で定まる方向値を決定し、上記外接矩形を
行方向にL分割し、列方向にM分割した各領域におい
て、その内部の各方向値ごとに画素数を計数し、該計数
した画素数を各領域に含まれる画素数で除した領域別輪
郭方向密度特徴を求める領域別輪郭方向密度計算部と、 上記外接矩形の各辺から対辺に向かって走査したとき、
上記文字部分に対応しない画素から対応する画素に変化
するごとに「1」を加えた背景値を決定し、上記外接矩
形を行方向にP分割し、列方向にQ分割した各領域にお
いて、その内部の背景値ごとの画素数を計数し、該計数
した画素数を各領域の画素数で除した領域別背景密度特
徴を求める領域別背景密度計算部と、 上記外接矩形からその縦横比を計算して縦横比特徴を求
める縦横比計算部とを備えることを特徴とする請求項1
又は請求項2記載の文字認識用辞書作成装置。
3. The feature extracting means includes a circumscribing rectangle determining unit that determines a circumscribing rectangle surrounding a pixel corresponding to a character portion of the binary image data, and an adjacent pixel for each boundary pixel of pixels corresponding to the character portion. The directional value determined by the positional relationship between the circumscribed rectangle and the circumscribed rectangle is divided into L in the row direction and M in the column direction, and the number of pixels is counted for each directional value inside the circumscribed rectangle. A region-by-region contour direction density calculation unit that obtains a region-by-region contour direction density feature by dividing the number of pixels by the number of pixels included in each region, and when scanning from each side of the circumscribed rectangle toward the opposite side,
A background value to which "1" is added is determined each time the pixel that does not correspond to the character portion changes to a corresponding pixel, and the circumscribed rectangle is divided into P in the row direction and Q in the column direction. A region-specific background density calculation unit that counts the number of pixels for each internal background value and divides the counted number of pixels by the number of pixels in each region, and calculates the aspect ratio from the circumscribed rectangle. And an aspect ratio calculation unit for obtaining an aspect ratio feature.
Alternatively, the character recognition dictionary creation device according to claim 2.
【請求項4】 認識対象の文字画像の入力を受け付けて
2値画像データに変換する入力画像変換手段と、 前記入力画像変換手段で変換された2値画像データの文
字行に対応する座標位置を検出する文字行座標位置検出
手段と、 前記文字行座標位置検出手段の検出対象とされた文字行
内の個々の文字に対応する座標位置を検出する文字座標
位置検出手段と、 前記文字座標位置検出手段で検出された座標で特定され
る2値画像からなる文字の認識に使用する特徴を抽出す
る特徴抽出手段と、 基準となる文字の形状特徴を平均したクラスタ平均特徴
とその文字コードを対応付けて所定の値の大きさのクラ
スタに分類して登録している大分類用辞書と、 前記特徴抽出手段で抽出された特徴と上記クラスタ平均
特徴との距離を計算し、得られた距離から類似度を計算
し、類似度の高い複数のクラスタをクラスタ候補として
選出する大分類手段と、 前記大分類用辞書に登録されているクラスタのうち、2
つのクラスタ間の距離が所定の値より小さい近接クラス
タの識別子と少なくとも1以上の両クラスタを識別する
クラスタ平均特徴の要素とを対応付けて登録している詳
細識別用辞書と、 前記詳細識別用辞書に登録されている近接クラスタの2
つの識別子が、前記大分類手段で選出された複数の候補
クラスタ中の識別子にともに含まれているときには、前
記詳細識別用辞書に登録されている文字の認識に使用す
る特徴の要素のみに関して、前記特徴抽出手段で抽出さ
れた特徴とクラスタ平均特徴との第2の距離を計算し、
該第2の距離の小さい方のクラスタの類似度を引き上げ
る詳細識別手段と、 前記詳細識別手段で引き上げられた類似度を優先して、
前記大分類手段で選出された候補クラスタに対応する文
字コードを出力する出力手段とを備え、 文字コードごとに入力を受け付けた多数の学習用文字画
像を2値画像データに変換する入力画像変換手段と、 前記入力画像変換手段で変換された各2値画像データか
ら文字認識に用いる特微を抽出する文字特微抽出手段
と、 前記文字特微抽出手段で抽出された文字認識に用いる特
微相互間の距離を文字コードごとに計算する距離計算手
段と、 前記距離計算手段が計算した各文字コードごとの距離の
最大値のうち最小のものを基に前記大分類用辞書及び詳
細識別用辞書の所定の値として、決定する決定手段とを
備えることを特徴とする文字認識装置。
4. An input image conversion means for receiving an input of a character image to be recognized and converting it into binary image data, and a coordinate position corresponding to a character line of the binary image data converted by the input image conversion means. A character line coordinate position detecting means for detecting, a character coordinate position detecting means for detecting a coordinate position corresponding to each character in a character line which is a detection target of the character line coordinate position detecting means, and the character coordinate position detecting means Feature extraction means for extracting features used for recognition of a character consisting of a binary image specified by the coordinates detected in step 1, and a cluster average feature obtained by averaging the shape features of a reference character and its character code are associated with each other. The large classification dictionary registered by classifying into clusters of a predetermined value, the distance between the feature extracted by the feature extracting means and the cluster average feature is calculated, and the obtained distance is calculated. The similarity is calculated, and the large classification means for selecting a plurality of high cluster similarity as a cluster candidates, among clusters the registered in the rough classification dictionary, 2
A detailed identification dictionary in which an identifier of a neighboring cluster in which the distance between two clusters is smaller than a predetermined value and an element of a cluster average feature that identifies at least one of both clusters are registered in association with each other; 2 of neighboring clusters registered in
When one identifier is included in both the identifiers in the plurality of candidate clusters selected by the large classification unit, only the feature element used for recognition of the character registered in the detailed identification dictionary is described above. Calculating a second distance between the feature extracted by the feature extracting means and the cluster average feature,
The detail identification means for increasing the similarity of the cluster having the smaller second distance, and the similarity increased by the detail identification means are given priority,
An input image conversion means for converting a large number of learning character images received for each character code into binary image data, and an output means for outputting a character code corresponding to the candidate cluster selected by the large classification means. A character feature extraction unit for extracting features used for character recognition from each binary image data converted by the input image conversion unit; and a feature mutual extraction unit used for character recognition extracted by the character feature extraction unit. A distance calculation means for calculating the distance between each character code, and based on the smallest of the maximum values of the distance for each character code calculated by the distance calculation means of the large classification dictionary and the detailed identification dictionary A character recognizing device comprising: a determining unit that determines a predetermined value.
JP2002300891A 2002-10-15 2002-10-15 Dictionary creation device for character recognition and character recognition device Expired - Lifetime JP3790736B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002300891A JP3790736B2 (en) 2002-10-15 2002-10-15 Dictionary creation device for character recognition and character recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002300891A JP3790736B2 (en) 2002-10-15 2002-10-15 Dictionary creation device for character recognition and character recognition device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP10662595A Division JP3372005B2 (en) 1995-04-21 1995-04-28 Character recognition device

Publications (2)

Publication Number Publication Date
JP2003162688A true JP2003162688A (en) 2003-06-06
JP3790736B2 JP3790736B2 (en) 2006-06-28

Family

ID=19197335

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002300891A Expired - Lifetime JP3790736B2 (en) 2002-10-15 2002-10-15 Dictionary creation device for character recognition and character recognition device

Country Status (1)

Country Link
JP (1) JP3790736B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8582894B2 (en) 2011-03-30 2013-11-12 Kabushiki Kaisha Toshiba Electronic apparatus and character string recognizing method
CN110414496A (en) * 2018-04-26 2019-11-05 百度在线网络技术(北京)有限公司 Similar character recognition methods, device, computer equipment and storage medium
CN117079282A (en) * 2023-08-16 2023-11-17 读书郎教育科技有限公司 Intelligent dictionary pen based on image processing

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8582894B2 (en) 2011-03-30 2013-11-12 Kabushiki Kaisha Toshiba Electronic apparatus and character string recognizing method
CN110414496A (en) * 2018-04-26 2019-11-05 百度在线网络技术(北京)有限公司 Similar character recognition methods, device, computer equipment and storage medium
CN117079282A (en) * 2023-08-16 2023-11-17 读书郎教育科技有限公司 Intelligent dictionary pen based on image processing

Also Published As

Publication number Publication date
JP3790736B2 (en) 2006-06-28

Similar Documents

Publication Publication Date Title
USRE47889E1 (en) System and method for segmenting text lines in documents
US7519226B2 (en) Form search apparatus and method
US6687401B2 (en) Pattern recognizing apparatus and method
Seni et al. External word segmentation of off-line handwritten text lines
US8462394B2 (en) Document type classification for scanned bitmaps
US8606010B2 (en) Identifying text pixels in scanned images
US8442319B2 (en) System and method for classifying connected groups of foreground pixels in scanned document images according to the type of marking
Kumar et al. Segmentation of isolated and touching characters in offline handwritten Gurmukhi script recognition
US7233697B2 (en) Character recognition device and a method therefor
JP3452774B2 (en) Character recognition method
CN110503054B (en) Text image processing method and device
EP0649113A2 (en) Multifont optical character recognition using a box connectivity approach
JP2000181993A (en) Character recognition method and device
Lehal et al. Feature extraction and classification for OCR of Gurmukhi script
US20030012438A1 (en) Multiple size reductions for image segmentation
Pal et al. Automatic separation of machine-printed and hand-written text lines
US7072514B1 (en) Method of distinguishing handwritten and machine-printed images
Lue et al. A novel character segmentation method for text images captured by cameras
JP3372005B2 (en) Character recognition device
JP3790736B2 (en) Dictionary creation device for character recognition and character recognition device
Kanoun et al. Script identification for arabic and latin printed and handwritten documents
JP4194309B2 (en) Document direction estimation method and document direction estimation program
CN113887484B (en) Card type file image identification method and device
Leishman Shape-free statistical information in optical character recognition
JP2576350B2 (en) String extraction device

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060224

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060322

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060403

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100407

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110407

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120407

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130407

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130407

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140407

Year of fee payment: 8

EXPY Cancellation because of completion of term