JP3056950B2 - Character recognition apparatus and method - Google Patents

Character recognition apparatus and method

Info

Publication number
JP3056950B2
JP3056950B2 JP6146054A JP14605494A JP3056950B2 JP 3056950 B2 JP3056950 B2 JP 3056950B2 JP 6146054 A JP6146054 A JP 6146054A JP 14605494 A JP14605494 A JP 14605494A JP 3056950 B2 JP3056950 B2 JP 3056950B2
Authority
JP
Japan
Prior art keywords
character
feature vector
recognition
covariance matrix
dictionary
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP6146054A
Other languages
Japanese (ja)
Other versions
JPH0816725A (en
Inventor
徹 二木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP6146054A priority Critical patent/JP3056950B2/en
Publication of JPH0816725A publication Critical patent/JPH0816725A/en
Application granted granted Critical
Publication of JP3056950B2 publication Critical patent/JP3056950B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Character Discrimination (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は文字認識装置及び方法に
関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a character recognition apparatus and method.

【0002】[0002]

【従来の技術】一般に、文字認識処理にもいくつかある
が、図4に示すような例も有効である。以下、順を追っ
て説明する。
2. Description of the Related Art Generally, there are some character recognition processes, but an example as shown in FIG. 4 is also effective. Hereinafter, description will be made in order.

【0003】先ず、ステップS401で文書画像のスキ
ャンを行い画像情報を2値のデジタル画像データに変換
する。次のステップS402では、読み取った画像デー
タに対して、1文字ごとの領域を取り出していく文字切
り出し処理を行い、ステップS403で予め定められた
アルゴリズムにしたがって特徴抽出を行う。
First, in step S401, a document image is scanned to convert image information into binary digital image data. In the next step S402, character extraction processing for extracting an area for each character is performed on the read image data, and feature extraction is performed in step S403 according to a predetermined algorithm.

【0004】例えば、一文字の画像を8×8の小領域
(計64個の領域)に分割し、その小領域内で黒画素の
数を集計する。64個の領域ごとに黒画素の特徴が計算
されるので64次元の特徴ベクトルが生成されることに
なる。さらに文字の大きさの影響を取り除くためにステ
ップS404で文字の大きさによって特徴ベクトルを正
規化する。元の特徴ベクトルをX、正規化後の特徴ベク
トルをX’とすると、 X’=(a/(h×w))X という正規化を行う。ただし、h,wはそれぞれ文字の
高さと幅で、aは定数である。
For example, an image of one character is divided into 8 × 8 small areas (a total of 64 areas), and the number of black pixels is counted in the small areas. Since the feature of the black pixel is calculated for each of the 64 regions, a 64-dimensional feature vector is generated. In order to remove the influence of the character size, the feature vector is normalized by the character size in step S404. Assuming that the original feature vector is X and the normalized feature vector is X ′, the normalization is performed as follows: X ′ = (a / (h × w)) X Here, h and w are the height and width of the character, respectively, and a is a constant.

【0005】ステップS405では、この正規化された
特徴ベクトルと認識辞書の学習パターンを照合し、最適
な文字種を選び出す。そのためには、入力ベクトルxと
認識辞書に登録されている個々の文字のベクトルとの距
離を計算し、その距離の最も近いものを選び出すことに
なる。
[0005] In step S405, the normalized feature vector is collated with the learning pattern of the recognition dictionary to select an optimal character type. For that purpose, the distance between the input vector x and the vector of each character registered in the recognition dictionary is calculated, and the closest one is selected.

【0006】同じ文字でも文字の大きさやフォントの種
類の違いによってばらつきがあるので距離の計算には学
習データの分布を考慮した方が認識精度が高くなる。認
識精度の高い距離として例えば、次式で与えられるマハ
ラノビス距離を用いる。
Since the same character varies depending on the size of the character and the type of font, the recognition accuracy is higher when the distance is calculated in consideration of the distribution of the learning data. For example, a Mahalanobis distance given by the following equation is used as a distance with high recognition accuracy.

【0007】 dM(k)=(X−μ(k))t-1(k)(X−μ(k)) ・・・(1) k=1、2、・・・、P(Pは文字の総数) ここで、μ(k)、S(k)は文字kの平均ベクトル、
共分散行列である。また、右肩の添え字tは転置を、−
1は逆行列を表す。
D M (k) = (X−μ (k)) t S −1 (k) (X−μ (k)) (1) k = 1, 2,..., P ( P is the total number of characters) where μ (k) and S (k) are the average vector of character k,
It is a covariance matrix. The subscript t on the right shoulder indicates transposition, and-
1 represents an inverse matrix.

【0008】こうして、ステップS406において、各
文字に対する距離を比較し、最も小さいdMを与える文
字を最終的な候補と判定しステップS407で出力す
る。
In this way, in step S406, the distance to each character is compared, the character giving the smallest dM is determined as a final candidate, and output in step S407.

【0009】[0009]

【発明が解決しようとする課題】ところが、予め認識辞
書に格納されていない文字や学習していないフォントに
対しても正しい認識を行うためには、見本となる文字イ
メージを入力して認識辞書に追加する必要がある。この
操作は一般に「辞書の学習」と呼ばれる。たとえば、認
識辞書に文字「嗚」に対するデータが登録さていていな
かったとしよう。この「嗚」を登録する場合、活字の認
識ならば数十から数百個のさまざまなフォントや印刷状
態の異なる「嗚」という文字サンプルを集め、各々の文
字画像データから特徴ベクトルを求めそれらの統計情報
(平均ベクトル、共分散行列等)を計算し認識辞書に格
納する必要がある。
However, in order to correctly recognize characters not previously stored in the recognition dictionary or fonts that have not been learned, a sample character image is input to the recognition dictionary. Need to be added. This operation is generally called “dictionary learning”. For example, suppose that the data for the character "oh" is not registered in the recognition dictionary. When registering this "oh", dozens to hundreds of various fonts and character samples with different printing states "oh" are collected for type recognition, feature vectors are obtained from each character image data, and those Statistical information (mean vector, covariance matrix, etc.) needs to be calculated and stored in the recognition dictionary.

【0010】しかしながら、共分散行列等の統計情報は
少数のサンプルから学習することは実質的に不可能であ
り、ひとつの学習文字種に対して数多くのサンプルデー
タを集め入力しなければ意味がない。しかし、これには
学習作業に膨大な時間を必要とする問題がある。
However, it is practically impossible to learn statistical information such as a covariance matrix from a small number of samples, and it is meaningless unless a large number of sample data are collected and input for one learning character type. However, there is a problem that this requires a lot of time for learning work.

【0011】尚、ここで言う学習とは、その文字認識装
置を使用しているユーザによる学習もしくは認識辞書の
作成過程の両方を含む。
The learning here includes both learning by a user using the character recognition device and a process of creating a recognition dictionary.

【0012】[0012]

【課題を解決するための手段】本発明では、個々の文字
毎の特徴ベクトルと共分散行列を含む文字認識辞書に新
たに文字情報を登録する作業を簡単にし、且つ、精度良
い辞書を構築することを可能にする文字認識装置及び方
法を提供しようとするものである。
According to the present invention, the operation of newly registering character information in a character recognition dictionary including a feature vector and a covariance matrix for each character is simplified, and an accurate dictionary is constructed. It is an object of the present invention to provide a character recognition device and a method which enable the character recognition.

【0013】この課題を解決するため、例えば本発明の
文字認識装置は以下の構成を備える。すなわち、個々の
文字の特徴ベクトルデータ、共分散行列で構成された認
識辞書を用い、与えられた文字イメージを認識する文字
認識装置であって、前記認識辞書にない未知文字イメー
ジを入力する入力手段と、入力された文字イメージから
特徴ベクトルデータを抽出する第1の抽出手段と、抽出
された特徴ベクトルに類似した特徴ベクトルを持つ文字
の共分散行列を前記辞書から抽出する第2の抽出手段
と、前記第1、第2の抽出手段で抽出された特徴ベクト
ルデータ及び共分散行列を、当該未知文字に対するデー
タとして前記認識辞書に登録する登録手段とを備える。
To solve this problem, for example, the character recognition device of the present invention has the following configuration. That is, a character recognition device that recognizes a given character image by using a recognition dictionary composed of feature vector data of individual characters and a covariance matrix, and an input unit that inputs an unknown character image that is not in the recognition dictionary First extraction means for extracting feature vector data from the input character image, and second extraction means for extracting a covariance matrix of characters having a feature vector similar to the extracted feature vector from the dictionary. Registration means for registering the feature vector data and the covariance matrix extracted by the first and second extraction means in the recognition dictionary as data for the unknown character.

【0014】また、本発明の実施態様に従えば、前記第
2の抽出手段は、第1の抽出手段による特徴ベクトルデ
ータの抽出完了に応答して、実行されることが望まし
い。これによって、文字登録処理にかかる作業はより簡
潔にできる。
According to an embodiment of the present invention, it is desirable that the second extracting means is executed in response to the completion of the extraction of the characteristic vector data by the first extracting means. Thereby, the work relating to the character registration process can be simplified.

【0015】また、入力手段は、光学的に原稿画像を読
み取る手段を含むことことが望ましい。
Preferably, the input means includes means for optically reading an original image.

【0016】[0016]

【作用】上記本発明の構成において、未知の文字を認識
辞書に登録する場合には、その登録しようとしている文
字イメージを入力し、その文字イメージの特徴ベクトル
データを抽出する。次いで、その特徴ベクトルデータに
類似する特徴ベクトルを持つ文字を辞書を検索して得、
その得られた文字に対する共分散行列、特徴ベクトルデ
ータを注目文字の情報として認識辞書に登録する。この
結果、共分散行列を作成するための多大な文字イメージ
の入力を行わなくて済むので、操作者にかかる負担を軽
減させることが可能になる。
In the configuration of the present invention, when an unknown character is registered in the recognition dictionary, a character image to be registered is input, and feature vector data of the character image is extracted. Next, a dictionary is searched for characters having a feature vector similar to the feature vector data,
The covariance matrix and feature vector data for the obtained character are registered in the recognition dictionary as information on the character of interest. As a result, it is not necessary to input a large amount of character images for creating a covariance matrix, so that the burden on the operator can be reduced.

【0017】[0017]

【実施例】以下、添付図面に従って本発明に係る実施例
を詳細に説明する。
Embodiments of the present invention will be described below in detail with reference to the accompanying drawings.

【0018】本実施例では、OCR(光学的文字認識装
置)に適用した場合である。図1は第1の実施例の構成
を表すブロック図である。
In this embodiment, the present invention is applied to an OCR (optical character recognition device). FIG. 1 is a block diagram showing the configuration of the first embodiment.

【0019】図1において、101は画像原稿に光を照
射し、その反射光を読み取り電気信号に変換するスキャ
ナ、102はスキャナ101で得られた電気信号を2値
のデジタル電気信号に変換し他の装置構成要素に伝送す
るためのスキャナインターフェース回路、103はディ
スプレイのウィンドウ上で所望とする座標を入力するた
めのポインティングデバイス(マウス等)、104はポ
インティングデバイス103からの信号を受け、それを
他の装置構成要素に伝送するためのインターフェース回
路、105は装置全体の制御及び文字切り出し処理や認
識処理を実行するためのCPU、106はCPU105
が実行する制御プログラム、各種処理プログラムやフォ
ントデータなどを格納しているROM、107は文字画
像の展開や文字認識処理のための作業領域などとして用
いられるRAMである。また、108は入力イメージや
認識結果を表示するためのディスプレイ、109はディ
スプレイインターフェース回路である。ディスプレイ1
08には、RAM107の所定アドレスエリアに確保さ
れているVRAM領域のイメージを表示する。そして1
10は各装置構成要素を接続するバスである。111は
ハードディスク装置等の外部記憶装置であって、認識辞
書が格納されている。
In FIG. 1, reference numeral 101 denotes a scanner which irradiates an image original with light and reads the reflected light and converts the read light into an electric signal; and 102, converts the electric signal obtained by the scanner 101 into a binary digital electric signal and converts the electric signal into a binary digital electric signal. A scanner interface circuit 103 for transmitting to the device components of the present invention, a pointing device (mouse or the like) 103 for inputting desired coordinates on a display window, and a signal 104 for receiving signals from the pointing device 103 An interface circuit for transmitting data to the device components of the device; 105, a CPU for controlling the entire device and executing character extraction processing and recognition processing;
A ROM 107 stores a control program executed by the CPU, various processing programs, font data, and the like. A RAM 107 is used as a work area for developing character images and performing character recognition processing. Reference numeral 108 denotes a display for displaying an input image or a recognition result, and reference numeral 109 denotes a display interface circuit. Display 1
08 displays an image of a VRAM area secured in a predetermined address area of the RAM 107. And one
Reference numeral 10 denotes a bus for connecting each device component. An external storage device 111 such as a hard disk device stores a recognition dictionary.

【0020】本発明における実施例の主旨は、辞書の学
習に関するものであり、文字認識処理そのものは先に説
明した図4と同じであるものとし、その説明は省略す
る。
The gist of the embodiment of the present invention relates to learning of a dictionary. The character recognition processing itself is the same as that of FIG. 4 described above, and a description thereof will be omitted.

【0021】図3は実施例における文字認識処理時に参
照される認識辞書(外部記憶装置111に格納されてい
る)の構造を示している。図示において、301は文字
コード、302がその文字の平均ベクトル、303が共
分散行列で各文字種ごとにこの順に格納されている。こ
こで、文字コード、平均ベクトル、共分散行列の各デー
タ長は固定であるものとする。理由は、文字コードを検
索する場合には、所定間隔毎にサーチすれば良いように
するためである。
FIG. 3 shows the structure of a recognition dictionary (stored in the external storage device 111) which is referred to at the time of character recognition processing in the embodiment. In the figure, 301 is a character code, 302 is an average vector of the character, and 303 is a covariance matrix, which is stored in this order for each character type. Here, it is assumed that the data lengths of the character code, the average vector, and the covariance matrix are fixed. The reason is that when searching for a character code, the search may be performed at predetermined intervals.

【0022】学習を行っていない初期状態においては、
辞書データは307まで格納されており、それ以降は未
使用領域である。未使用領域かどうかの判断は、文字コ
ードのあるべきアドレス位置に文字コードとして存在し
得ないデータ、たとえは“0x0000”(0xは、そ
の文字が16進数数字であることを示す)を格納してお
くものとする。
In the initial state where learning is not performed,
The dictionary data is stored up to 307, and thereafter, it is an unused area. The determination as to whether the area is an unused area stores data that cannot exist as a character code at an address position where the character code should be, for example, “0x0000” (0x indicates that the character is a hexadecimal digit). Shall be kept.

【0023】次に、本発明の中心となる学習時の動作を
図2を用いて説明する。尚、本フローチャートに対応す
るプログラムはROM106に格納されているものとす
るが、外部記憶装置111に格納されていてRAM10
7にロードされるとしても良い。これについては文字認
識処理時におけるプログラムも同様である。
Next, the operation at the time of learning, which is the main feature of the present invention, will be described with reference to FIG. It is assumed that the program corresponding to this flowchart is stored in the ROM 106, but is stored in the external storage device 111 and the RAM 10
7 may be loaded. The same applies to the program at the time of character recognition processing.

【0024】説明を簡単にするため、実施例において
も、文字「嗚」が認識辞書に格納されておらず、それを
学習して登録する場合を考える。
For the sake of simplicity, also in this embodiment, the case where the character "oh" is not stored in the recognition dictionary and it is learned and registered will be considered.

【0025】式(1)のマハラノビス距離を計算するた
めには、「嗚」の平均ベクトルμ(嗚)および共分散行
列S(嗚)が必要だが、これらは本来、複数のサンプル
データから得られる統計量なのでひとつの学習文字から
は計算できない。本実施例では、平均ベクトルμ(嗚)
としては、学習のために「嗚」という文字を1文字だけ
入力した文字画像から得られた特徴ベクトルXそのもの
を代わりに用いる。一方、共分散行列はその定義から明
らかなように、ひとつの特徴ベクトルXだけからでは求
まらない。そこで、すでに認識辞書に格納されている文
字種の中でXに最も近い平均ベクトルをもつ文字種を捜
し出し、その文字種の共分散行列を「嗚」の共分散行列
S(嗚)の代わりに用いることにする。
In order to calculate the Mahalanobis distance of the equation (1), an average vector μ (a) and a covariance matrix S (a) of “a” are required, which are originally obtained from a plurality of sample data. Because it is a statistic, it cannot be calculated from one learning character. In the present embodiment, the average vector μ (oh)
For example, the feature vector X itself obtained from a character image in which only one character “oh” is input for learning is used instead. On the other hand, as is clear from the definition, the covariance matrix cannot be obtained from only one feature vector X. Therefore, among the character types already stored in the recognition dictionary, a character type having an average vector closest to X is searched for, and the covariance matrix of the character type is used instead of the covariance matrix S (Oh). I do.

【0026】図2において、学習モードがスタート(デ
ィスプレイ108に表示されたメニューの中の1つをポ
インティングデバイス103で指定)すると、先ず、ス
テップS201で「嗚」という文字画像をスキャナ10
1より入力する。
In FIG. 2, when the learning mode is started (one of the menus displayed on the display 108 is designated by the pointing device 103), first, in step S201, the character image "Oh" is input to the scanner 10.
Enter from 1.

【0027】次に、ステップS202で特徴ベクトルμ
(嗚)を求める。このときの文字切り出し処理および特
徴抽出アルゴリズムは認識字のものと同じである。但
し、スキャナ101から入力する原稿に文字「嗚」の1
つだけ存在する場合には構わないが、多数の文字がある
場合には読み取った文書画像中の「嗚」のみをポインテ
ィングデバイスで指定し、その指定位置に対して文字の
切り出しを行うことが望ましい。なぜなら、関係のない
文字に対する処理を行わずに済むからである。
Next, in step S202, the feature vector μ
Ask (oh). The character cutout processing and the feature extraction algorithm at this time are the same as those of the recognition character. However, when the original input from the scanner 101 is the character
It does not matter if there is only one, but if there are many characters, it is desirable to specify only "Oh" in the read document image with a pointing device and cut out characters at the specified position . This is because it is not necessary to perform processing on unrelated characters.

【0028】ステップS203では、すでに認識辞書に
格納されている文字種の中でXに最も近い平均ベクトル
をもつ文字種を探し出す。すなわち、文字種kの平均ベ
クトルをμ(k)とすると、 d=(X−μ(k))2 が最小となるような文字種を認識辞書に登録されている
すべての文字種の中から選び出す(自乗するのは符号を
無くするためである)。例えば、「鳴」の平均ベクトル
μ(鳴)がXに最も近かったとすると、ステップS20
4で「嗚」の平均ベクトルとしてxを認識辞書に追加す
る。図3においては、未使用領域であった307以降が
使用されることになり、アドレス位置308(ここには
それ以上のデータがなかったことを示す“0x000
0”が格納されているので判断可能である)に「嗚」の
文字種コードが格納される。そして、アドレス位置30
9に平均ベクトルとしてXを格納する。次にステップS
205で文字種「嗚」の共分散行列としてアドレス位置
306に格納されている「鳴」の共分散行列S(嗚)を
コピーしてアドレス位置310に格納する。このとき、
次の登録処理に備えて、次の文字コードが格納されるア
ドレス位置に“0x0000”を格納する。以上で学習
処理は終了である。
In step S203, a character type having an average vector closest to X is searched for among character types already stored in the recognition dictionary. That is, assuming that the average vector of the character type k is μ (k), a character type that minimizes d = (X−μ (k)) 2 is selected from all the character types registered in the recognition dictionary (square Is done to eliminate the sign). For example, assuming that the average vector μ (ring) of “ring” is closest to X, step S20
In step 4, x is added to the recognition dictionary as an average vector of “oh”. In FIG. 3, the unused area 307 and subsequent areas are used, and the address location 308 (“0x000” indicating that there is no more data here) is used.
"0" is stored and thus can be determined), the character type code of "oh" is stored. And address location 30
X is stored in 9 as an average vector. Next, step S
In step 205, the covariance matrix S (a) of “sound” stored in the address position 306 as a covariance matrix of the character type “a” is copied and stored in the address position 310. At this time,
In preparation for the next registration process, “0x0000” is stored in the address position where the next character code is stored. This is the end of the learning process.

【0029】尚、上記の通り、共分散行列を特定すると
きに、操作者が該当する類似文字の文字コードを指定す
ることで行っても良いが、上記のように特徴ベクトルの
抽出が完了したことをトリガにして、自動的に類似文字
を探すと、操作者の負担を軽減させることが可能であ
る。
As described above, when specifying the covariance matrix, the operator may specify the character code of the corresponding similar character. However, the extraction of the feature vector is completed as described above. When a similar character is automatically searched by using this as a trigger, the burden on the operator can be reduced.

【0030】現実の文字画像はフォントや印刷状況によ
って同じ文字種でもちらばりがあるが、平均ベクトルが
ごく近いものは同じようなちらばりをすると推定される
ので、上記のようにして共分散行列を代用するのはきわ
めて自然な処理である。次回からの認識は、追加された
「嗚」の辞書データに対しても照合を行うことによって
「嗚」が候補として出力可能になる。
Actual character images are scattered even in the same character type depending on fonts and printing conditions, but it is presumed that an image with a very close average vector will be scattered in the same manner. Substituting is a very natural process. In the next recognition, “oh” can be output as a candidate by checking the added dictionary data of “oh”.

【0031】以上説明したように本実施例によれば、認
識辞書に新たな文字に対する情報を登録する場合、登録
しようとしている文字イメージに対する平均ベクトルを
登録すると共に、共分散行例については類似している登
録済みの文字の共分散行列を活用するので、認識辞書の
学習操作を簡単なものとすることが可能になる。
As described above, according to this embodiment, when registering information on a new character in the recognition dictionary, the average vector for the character image to be registered is registered, and the covariance row example is similar. Since the covariance matrix of the registered characters is utilized, the learning operation of the recognition dictionary can be simplified.

【0032】尚、新たに登録する文字が認識辞書には登
録されていないが、JIS等の文字コードにそれが記載
されている場合には、その文字コードを操作者がキーボ
ード等を使用して指定するものとする。また、JISコ
ード表に載っていない文字(旧字)や外字などに関して
は、その装置あるいはシステムにおける割り付け可能な
文字コードを操作者が指定する。
If the newly registered character is not registered in the recognition dictionary, but is described in a character code such as JIS, the character code is input by the operator using a keyboard or the like. Shall be specified. For characters (old characters) and external characters not listed in the JIS code table, the operator specifies a character code that can be assigned in the device or system.

【0033】[0033]

【他の実施例】第1の実施例では、認識辞書にない文字
種を登録する場合を説明したが、すでに認識辞書に登録
されている文字種でも異なったフォントの文字を学習し
認識辞書に追加することも可能である。たとえば、明朝
体のサンプルデータから生成された認識辞書に対して、
ゴシック体のフォントを学習して追加する場合にも有効
である。
Other Embodiments In the first embodiment, a case where a character type not registered in the recognition dictionary is registered has been described. However, even in a character type already registered in the recognition dictionary, a character of a different font is learned and added to the recognition dictionary. It is also possible. For example, for a recognition dictionary generated from Mincho sample data,
It is also effective when learning and adding Gothic fonts.

【0034】第1の実施例はただひとつの文字で学習を
行っているが、これは同じ文字種のN個のサンプルデー
タから学習することも可能である。この場合、N個のサ
ンプルデータに対する特徴ベクトルの平均ベクトルXを
追加する文字種の平均ベクトルとし、Xにもっとも近い
共分散行列をコピーして辞書に格納する。N個のサンプ
ルデータから共分散行列を求めることも可能だが、少数
のサンプルから共分散行列を求めても誤差が大きく精度
の高い認識が実現できない。従って、場合によっては、
Nが共分散行列として活用できる数(M)以上になった
場合には、その共分散行列を求めて登録するようにして
もよいであろう。
In the first embodiment, learning is performed using only one character. However, learning can be performed from N sample data of the same character type. In this case, the average vector X of the feature vectors for the N sample data is set as the average vector of the character type to be added, and the covariance matrix closest to X is copied and stored in the dictionary. Although a covariance matrix can be obtained from N pieces of sample data, even if a covariance matrix is obtained from a small number of samples, recognition with a large error cannot be realized with high accuracy. Therefore, in some cases,
If N exceeds the number (M) that can be used as a covariance matrix, the covariance matrix may be obtained and registered.

【0035】本発明は、活字文字だけでなく手書き文字
にも適用でき、また言語の種類を問わない。
The present invention can be applied not only to printed characters but also to handwritten characters, and can be of any language.

【0036】以上説明したように本実施例に従えば、新
たに追加される文字の平均ベクトルとしてはその学習文
字の平均特徴ベクトルを使い、その他の統計量はすでに
認識辞書に格納されているデータの中で、いま学習した
平均ベクトルにもっとも近い平均ベクトルをもつ文字の
統計量を用いる。1文字に対して非常に少ない学習でも
統計量を用いた距離計算が可能になり、容易な学習であ
りながら高精度の学習文字認識が可能になる。
As described above, according to this embodiment, the average feature vector of the learning character is used as the average vector of the newly added character, and the other statistics are the data already stored in the recognition dictionary. In, the statistic of the character having the average vector closest to the average vector just learned is used. Distance calculation using statistics can be performed with very little learning for one character, and highly accurate learning character recognition can be performed while being easy learning.

【0037】尚、実施例ではスキャナ101から文字イ
メージを入力するものとして説明したが、これに限るも
のではない。例えば、別の場所で読み取った文字イメー
ジをフロッピーディスク等の記憶媒体に保存し、それか
ら文字イメージを読み取っても構わない。また、通信を
介して受信した画像(例えばファクシミリ受信)を用い
ても良い。
Although the embodiment has been described on the assumption that a character image is input from the scanner 101, the present invention is not limited to this. For example, a character image read at another location may be stored in a storage medium such as a floppy disk, and then the character image may be read. Further, an image (for example, facsimile reception) received via communication may be used.

【0038】また、本発明は、複数の機器から構成され
るシステムに適用しても、1つの機器から成る装置に適
用しても良い。また、本発明は、システム或は装置にプ
ログラムを供給することによって達成される場合にも適
用できる。
Further, the present invention may be applied to a system composed of a plurality of devices or an apparatus composed of one device. The present invention is also applicable to a case where the present invention is achieved by supplying a program to a system or an apparatus.

【0039】[0039]

【発明の効果】以上説明したように本発明によれば、個
々の文字毎の特徴ベクトルと共分散行列を含む文字認識
辞書に新たに文字情報を登録する作業を簡単にし、且
つ、精度良い辞書を構築することが可能になる。
As described above, according to the present invention, it is possible to simplify the operation of newly registering character information in a character recognition dictionary including a feature vector and a covariance matrix for each character, and to provide an accurate dictionary. Can be constructed.

【図面の簡単な説明】[Brief description of the drawings]

【図1】実施例における文字認識装置のブロック構成図
である。
FIG. 1 is a block diagram of a character recognition device according to an embodiment.

【図2】実施例における認識辞書への新たな文字の登録
処理手順を示すフローチャートである。
FIG. 2 is a flowchart illustrating a procedure for registering a new character in a recognition dictionary in the embodiment.

【図3】実施例における認識辞書の構造を示す図であ
る。
FIG. 3 is a diagram showing a structure of a recognition dictionary in the embodiment.

【図4】一般の文字認識処理の手順を示すフローチャー
トである。
FIG. 4 is a flowchart showing a procedure of a general character recognition process.

【符号の説明】[Explanation of symbols]

101 スキャナ 102 スキャナインターフェース回路 103 ポインティングデバイス 104 インターフェース回路 105 CPU 106 ROM 107 RAM 108 ディスプレイ 109 ディスプレイインターフェース回路 110 CPUバス 111 外部記憶装置 Reference Signs List 101 scanner 102 scanner interface circuit 103 pointing device 104 interface circuit 105 CPU 106 ROM 107 RAM 108 display 109 display interface circuit 110 CPU bus 111 external storage device

Claims (6)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 個々の文字の特徴ベクトルデータ、共分
散行列で構成された認識辞書を用い、与えられた文字イ
メージを認識する文字認識装置であって、 前記認識辞書にない未知文字イメージを入力する入力手
段と、 入力された文字イメージから特徴ベクトルデータを抽出
する第1の抽出手段と、 抽出された特徴ベクトルに類似した特徴ベクトルを持つ
文字の共分散行列を前記辞書から抽出する第2の抽出手
段と、 前記第1、第2の抽出手段で抽出された特徴ベクトルデ
ータ及び共分散行列を、当該未知文字に対するデータと
して前記認識辞書に登録する登録手段とを備えることを
特徴とする文字認識装置。
1. A character recognition apparatus for recognizing a given character image using a recognition dictionary composed of feature vector data of individual characters and a covariance matrix, wherein an unknown character image not in the recognition dictionary is input. Inputting means, first extracting means for extracting feature vector data from an input character image, and second extracting means for extracting a covariance matrix of a character having a feature vector similar to the extracted feature vector from the dictionary. Character recognition, comprising: an extraction unit; and a registration unit that registers the feature vector data and the covariance matrix extracted by the first and second extraction units in the recognition dictionary as data for the unknown character. apparatus.
【請求項2】 前記第2の抽出手段は、第1の抽出手段
による特徴ベクトルデータの抽出完了に応答して、実行
されることを特徴とする請求項第1項に記載の文字認識
装置。
2. The character recognition device according to claim 1, wherein said second extracting means is executed in response to completion of extraction of feature vector data by said first extracting means.
【請求項3】 前記入力手段は、光学的に原稿画像を読
み取る手段を含むことを特徴とする請求項第1項に記載
の文字認識装置。
3. The character recognition apparatus according to claim 1, wherein said input means includes means for optically reading a document image.
【請求項4】 個々の文字の特徴ベクトルデータ、共分
散行列で構成された認識辞書を用い、与えられた文字イ
メージを認識する文字認識方法であって、 前記認識辞書にない未知文字イメージを入力する工程
と、 入力された文字イメージから特徴ベクトルデータを抽出
する第1の抽出工程と、 抽出された特徴ベクトルに類似した特徴ベクトルを持つ
文字の共分散行列を前記辞書から抽出する第2の抽出工
程と、 前記第1、第2の抽出工程で抽出された特徴ベクトルデ
ータ及び共分散行列を、当該未知文字に対するデータと
して前記認識辞書に登録する登録工程とを備えることを
特徴とする文字認識方法。
4. A character recognition method for recognizing a given character image by using a recognition dictionary composed of feature vector data of individual characters and a covariance matrix, comprising inputting an unknown character image not in the recognition dictionary. A first extraction step of extracting feature vector data from an input character image; and a second extraction of extracting a covariance matrix of a character having a feature vector similar to the extracted feature vector from the dictionary. And a registration step of registering the feature vector data and the covariance matrix extracted in the first and second extraction steps as data for the unknown character in the recognition dictionary. .
【請求項5】 前記第2の抽出工程は、第1の抽出工程
による特徴ベクトルデータの抽出完了に応答して、実行
されることを特徴とする請求項第4項に記載の文字認識
方法。
5. The character recognition method according to claim 4, wherein the second extraction step is executed in response to the completion of the extraction of the feature vector data in the first extraction step.
【請求項6】 前記入力工程は、光学的に原稿画像を読
み取る手段を介して入力することを特徴とする請求項第
4項に記載の文字認識方法。
6. The character recognition method according to claim 4, wherein the inputting step is performed by inputting via a means for optically reading a document image.
JP6146054A 1994-06-28 1994-06-28 Character recognition apparatus and method Expired - Fee Related JP3056950B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP6146054A JP3056950B2 (en) 1994-06-28 1994-06-28 Character recognition apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6146054A JP3056950B2 (en) 1994-06-28 1994-06-28 Character recognition apparatus and method

Publications (2)

Publication Number Publication Date
JPH0816725A JPH0816725A (en) 1996-01-19
JP3056950B2 true JP3056950B2 (en) 2000-06-26

Family

ID=15399053

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6146054A Expired - Fee Related JP3056950B2 (en) 1994-06-28 1994-06-28 Character recognition apparatus and method

Country Status (1)

Country Link
JP (1) JP3056950B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4529418B2 (en) * 2003-11-14 2010-08-25 パナソニック株式会社 Image recognition device
WO2009013818A1 (en) 2007-07-25 2009-01-29 Fujitsu Limited Character recognition processing method and device

Also Published As

Publication number Publication date
JPH0816725A (en) 1996-01-19

Similar Documents

Publication Publication Date Title
US8619278B2 (en) Printed matter examination apparatus, printed matter examination method, and printed matter examination system
JP4607633B2 (en) Character direction identification device, image forming apparatus, program, storage medium, and character direction identification method
US5428694A (en) Data processing system and method for forms definition, recognition and verification of scanned images of document forms
US5416849A (en) Data processing system and method for field extraction of scanned images of document forms
US20040267734A1 (en) Document search method and apparatus
US5119437A (en) Tabular document reader service
JP3602596B2 (en) Document filing apparatus and method
US7369704B2 (en) Image processing apparatus, image processing system, and image processing method
EP0687991A2 (en) Information processing method and apparatus
EP0584776A2 (en) Information processing method and apparatus
US6535652B2 (en) Image retrieval apparatus and method, and computer-readable memory therefor
JP3056950B2 (en) Character recognition apparatus and method
JP3319203B2 (en) Document filing method and apparatus
JP2000076378A (en) Character recognizing method
JP2020047031A (en) Document retrieval device, document retrieval system and program
CN115131806B (en) Method and system for identifying OCR (optical character recognition) image information of various certificates based on deep learning
JP2001506383A (en) How to perform character recognition on a pixel matrix
JP2002157550A (en) Device and method for recognizing character and recording medium
JPH11120291A (en) Pattern recognition system
CN117058424A (en) Picture identification method, device, storage medium and apparatus
JPH0554178A (en) Character recognizing device and slip for correction
JP3320083B2 (en) Character recognition apparatus and method
JP3077580B2 (en) Character reader
JP2683711B2 (en) How to recognize / correct character / symbol data
TAKAHASHI et al. A hybrid recognition algorithm with learning capability and its application to an OCR system

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20000317

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090414

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090414

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100414

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110414

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130414

Year of fee payment: 13

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130414

Year of fee payment: 13

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140414

Year of fee payment: 14

LAPS Cancellation because of no payment of annual fees