JPH04268989A - Method and device for recognizing character - Google Patents

Method and device for recognizing character

Info

Publication number
JPH04268989A
JPH04268989A JP3053350A JP5335091A JPH04268989A JP H04268989 A JPH04268989 A JP H04268989A JP 3053350 A JP3053350 A JP 3053350A JP 5335091 A JP5335091 A JP 5335091A JP H04268989 A JPH04268989 A JP H04268989A
Authority
JP
Japan
Prior art keywords
character
image
frame
character recognition
dictionary data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP3053350A
Other languages
Japanese (ja)
Inventor
Yukio Sato
幸雄 佐藤
Takemoto Aso
麻生 健資
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Steel Corp
Original Assignee
Nippon Steel Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Steel Corp filed Critical Nippon Steel Corp
Priority to JP3053350A priority Critical patent/JPH04268989A/en
Publication of JPH04268989A publication Critical patent/JPH04268989A/en
Pending legal-status Critical Current

Links

Landscapes

  • Character Input (AREA)

Abstract

PURPOSE:To set a character image segmented at an appropriate segmenting position as a recognition target by setting the binary threshold value of an input image at the optimum value. CONSTITUTION:After the background of a character part is eliminated from the input image, the character part is extracted(procedure A). Thence, an extracted character part is binarized, and a binary threshold value is optimized based on projection distribution data to orthogonal two axes(procedure B). Thirdly, a character frame divided into plural areas is set based on the projection distribution data to the orthogonal two axes of an optimized binary image(procedure C). Fourthly, the input image is binarized at every divided area in the character frame, and respective independent binary threshold value is optimized (procedure D). Finally, the character frame is re-set based on the projection distribution data to the orthogonal two axes of the binary image optimized at the procedure D(procedure E).

Description

【発明の詳細な説明】[Detailed description of the invention]

【0001】0001

【産業上の利用分野】本発明は画像処理技術を用いて文
字(数字)を認識する文字認識装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a character recognition device that recognizes characters (numbers) using image processing technology.

【0002】0002

【従来の技術】撮像装置(ビデオカメラやイメージリー
ダ)によって得た文字画像データに基いて文字認識を行
う文字認識装置が従来より知られている。認識の一手法
として、文字の2値化画像と予め記憶した辞書データと
のパターンマッチングをとって文字を特定する方式が知
られている。
2. Description of the Related Art Character recognition devices have been known that perform character recognition based on character image data obtained by an imaging device (video camera or image reader). As one method of recognition, a method is known in which a character is identified by performing pattern matching between a binary image of the character and pre-stored dictionary data.

【0003】0003

【発明が解決しようとする課題】このような画像処理に
基く文字認識の精度は、画像の2値化のレベルの適正さ
に大きく依存する。一般には、2値化のしきいレベルは
固定であるので、文字の濃度が低い場合には、辞書デー
タより細目の文字或いは欠けがある文字になり易い。ま
た2値化のしきい値を下げると、文字は太くなるが、背
景の明るい部分が残ってしまう。逆に、文字の濃度が高
い場合には、辞書データより太めの2値化が行われる。 太めの文字に対しては、凝縮、細線化のデータ処理を施
すことが可能であるが、文字に欠けが生じ易くなる。従
って文字の濃度が低いものから高いもの全てにわたって
適正な2値化を行うことは困難である。2値化が適正で
なく、辞書より細目又は太目であったり欠けが多いと、
マッチング精度が著しく低下する。また文字列から個々
の文字を切取る文字枠の位置精度が悪いとマッチング精
度が低下する。本発明は、上述の問題にかんがみ、適正
な2値化及び正確な文字切取枠の設定によりマッチング
精度を高めることを目的とする。
The accuracy of character recognition based on such image processing largely depends on the appropriateness of the level of image binarization. Generally, the threshold level for binarization is fixed, so when the density of a character is low, the character is likely to be smaller than the dictionary data or have a missing character. Furthermore, if the threshold value for binarization is lowered, the characters become thicker, but the bright parts of the background remain. Conversely, if the density of the characters is high, the binarization is performed to be thicker than the dictionary data. Although thick characters can be subjected to data processing such as condensation and thinning, the characters are more likely to be missing. Therefore, it is difficult to perform appropriate binarization for all characters, from low to high density. If the binarization is not appropriate and the data is thinner or thicker than the dictionary, or there are many gaps,
Matching accuracy decreases significantly. Furthermore, if the positional accuracy of the character frame for cutting out individual characters from the character string is poor, matching accuracy will decrease. In view of the above-mentioned problems, the present invention aims to improve matching accuracy through appropriate binarization and accurate setting of character cutting frames.

【0004】0004

【課題を解決するための手段】本発明の文字認識方法は
、図1に示すように、入力画像から文字部の背景を除去
して文字部を抽出する抽出手段Aと、抽出した文字部を
2値化し、その直交2軸への投影分布データに基いて2
値化のしきい値を最適化する手順Bと、最適化された2
値化画像の直交2軸への投影分布データに基いて複数の
領域に分割された文字枠を設定する手段Cと、上記文字
枠内の各分割領域ごとに上記入力画像を2値化し、夫々
の独立した2値化しきい値を最適化する手順Dと、上記
手順Dで最適化された2値化画像の直交2軸への投影分
布データに基いて文字枠を再設定する手順Eと、上記手
順Eの文字枠内の2値化画像と辞書データとを照合して
文字を特定する手順Fとから成る。また本発明の文字認
識装置は、図23に示すように、入力画像を2値化する
2値化手段1と、認識すべき文字の座標系を決定するた
めに文字の近傍に付された基準文字又は基準図形の2値
化画像と辞書データとを照合する照合手段2と、照合結
果に基き、上記基準文字又は基準図形の2値化画像から
基準座標を算出する座標算出手段3と、上記基準座標に
基き、認識すべき文字を切出すための文字枠を設定する
文字枠設定手段4と、入力画像から上記文字枠に基いて
切出された個々の文字を認識する認識手段5とを備える
[Means for Solving the Problems] As shown in FIG. 1, the character recognition method of the present invention includes an extraction means A for removing the background of a character part from an input image and extracting the character part; Based on the binarized and projected distribution data on two orthogonal axes,
Procedure B for optimizing the valuation threshold and optimized 2
means C for setting a character frame divided into a plurality of regions based on projection distribution data of the digitized image on two orthogonal axes; and means C for binarizing the input image for each divided region within the character frame, respectively A step D of optimizing the independent binarization threshold value of , and a step E of resetting the character frame based on the projection distribution data on two orthogonal axes of the binarized image optimized in the above step D. This step consists of step F in which characters are identified by comparing the binary image in the character frame of step E with dictionary data. Further, as shown in FIG. 23, the character recognition device of the present invention includes a binarization means 1 for binarizing an input image, and a reference attached near the character to determine the coordinate system of the character to be recognized. a collation means 2 for collating a binary image of a character or reference figure with dictionary data; a coordinate calculation means 3 for calculating reference coordinates from the binary image of the reference character or reference figure based on the collation result; A character frame setting means 4 for setting a character frame for cutting out characters to be recognized based on reference coordinates, and a recognition means 5 for recognizing each character cut out from an input image based on the character frame. Be prepared.

【0005】[0005]

【作用】まず画像全体について最適2値化を行い、次に
1文字内の分割領域ごとに最適2値化を行う。従って全
体的な濃度むら及び局所的な濃度むらの双方に対応した
最適2値化が行われる。またノイズや欠損の多い画像に
対しては、基準文字又は基準図形を用いて文字切取枠の
座標を定めることにより、高精度の文字切取りを行うこ
とができ、マッチング精度が大巾に向上する。
[Operation] First, the entire image is optimally binarized, and then each divided area within one character is optimally binarized. Therefore, optimal binarization is performed that deals with both overall density unevenness and local density unevenness. Furthermore, for images with many noises or defects, by determining the coordinates of a character cutting frame using a reference character or a reference figure, highly accurate character cutting can be performed, and matching accuracy is greatly improved.

【0006】[0006]

【実施例】図2は本発明の文字認識装置の一実施を示す
鋼材ナンバリングシステムのブロック図であり、図3は
図2のコード番号読取装置の詳細を示すブロック図であ
る。
DESCRIPTION OF THE PREFERRED EMBODIMENTS FIG. 2 is a block diagram of a steel numbering system showing one implementation of the character recognition device of the present invention, and FIG. 3 is a block diagram showing details of the code number reading device of FIG. 2.

【0007】図2において、板材或いはパイプなどの鋼
材10上には、品種、等級、製造ロット、製造者コード
等を示す複数桁の数字又はアルファベットから成る製造
コード番号12が、刻印又はペイントにより予め付され
ている。図2のシステムは、製品の生産管理のために製
造コード番号を読取って、管理用コンピュータに出力す
る。
In FIG. 2, a manufacturing code number 12 consisting of multi-digit numbers or alphabets indicating the type, grade, manufacturing lot, manufacturer code, etc. is pre-engraved or painted on a steel material 10 such as a plate or pipe. It is attached. The system shown in FIG. 2 reads a manufacturing code number for product production management and outputs it to a management computer.

【0008】鋼材10はコンベアで矢印A方向に搬送さ
れる。鋼材10のコード番号12の部分はITVカメラ
14で撮像され、その映像出力がコード番号読取装置1
6に供給される。ITVカメラ14の映像出力が適当な
解像度を持つように、コンベアの両側には照明装置18
が設けられている。コード番号読取装置16は、読取っ
たコード番号をプロセスコンピュータ20を介して管理
コンピュータ22に送出する。管理コンピュータ22は
、生産計画表に基いて予定番号と読取ったコード番号と
を照合する。プロセスコンピュータ20は、鋼材10の
コード番号12が生産計画表の番号と合致する場合、払
出指令をシーケンサ24に出力する。シーケンサ24は
コンベアを制御して、鋼材10を次工程に送り出すと共
に、位置センサ26のセンサ出力を受けて、次の鋼材1
0の位置決めを行う。
The steel material 10 is conveyed in the direction of arrow A by a conveyor. The part of the steel material 10 with the code number 12 is imaged by the ITV camera 14, and the video output is sent to the code number reader 1.
6. Illumination devices 18 are installed on both sides of the conveyor so that the video output of the ITV camera 14 has a suitable resolution.
is provided. The code number reading device 16 sends the read code number to the management computer 22 via the process computer 20. The management computer 22 compares the scheduled number with the read code number based on the production schedule. If the code number 12 of the steel material 10 matches the number in the production schedule, the process computer 20 outputs a delivery command to the sequencer 24. The sequencer 24 controls the conveyor to send the steel material 10 to the next process, and also receives the sensor output from the position sensor 26 and sends the steel material 10 to the next process.
Performs 0 positioning.

【0009】コード番号読取装置16は、図3に示すよ
うに、データバス30を介してCPU32に接続された
画像処理プロセッサ34、画像メモリ36、ディスプレ
イ38、プリンタ40、フロッピードライブ42、キー
ボード44等から成るコンピュータで構成されている。 コード番号12を撮像するITVカメラ14の出力は、
A/Dコンバータ46でディジタル化され、データバス
30を介して画像メモリ36に蓄積される。CPU32
の制御により、画像メモリ36の画像データは画像処理
プロセッサ34に転送され、予めプログラムされた認識
アルゴリズムに基いて文字認識が行われる。認識結果は
、上位CPU(プロセスコンピュータ20)に送られる
As shown in FIG. 3, the code number reading device 16 includes an image processing processor 34, an image memory 36, a display 38, a printer 40, a floppy drive 42, a keyboard 44, etc., which are connected to the CPU 32 via a data bus 30. It consists of a computer consisting of The output of the ITV camera 14 that images code number 12 is:
The data is digitized by the A/D converter 46 and stored in the image memory 36 via the data bus 30. CPU32
Under the control of the image memory 36, the image data in the image memory 36 is transferred to the image processing processor 34, and character recognition is performed based on a preprogrammed recognition algorithm. The recognition result is sent to the upper CPU (process computer 20).

【0010】図4は、コード番号読取装置16において
行われる画像処理の概略フロー図であって、ITVカメ
ラ14によって取込まれた画像データは、ステップS1
で背景平準化の処理を受ける。この処理は照明の反射に
よる画像の濃度むらを除去するために行われる。次にス
テップS2で背景を除去した文字の部分の切出しが行わ
れる。次にステップS3で各文字ごとに設定した複数(
例えば3つ)の分割セグメントごとに原画像に対する2
値化が行われる。2値化のしきい値は各セグメントごと
に最適化されている。2値化された各セグメントは合成
され、一文字全体でしきい値が補正された後、一文字ご
とに次のステップS4で辞書データとのパターンマッチ
ングの処理がなされる。マッチングがとれると、認識出
力が管理コンピュータ22に送出される。
FIG. 4 is a schematic flow diagram of image processing performed in the code number reading device 16, in which image data captured by the ITV camera 14 is processed in step S1.
undergoes background leveling processing. This processing is performed to remove density unevenness in the image due to reflection of illumination. Next, in step S2, the character portion from which the background has been removed is cut out. Next, in step S3, the plurality of characters (
2 for the original image for each divided segment (for example, 3).
Value conversion is performed. The binarization threshold is optimized for each segment. After the binarized segments are combined and the threshold value is corrected for the entire character, pattern matching with dictionary data is performed for each character in the next step S4. When a match is made, a recognition output is sent to the management computer 22.

【0011】図5は図4の概略フロー図の詳細を示すフ
ロー図である。まずステップS10で読取装置のCPU
32内のカウンタ、ワークエリア等を初期化し、またレ
ジスタに読取用の諸定数を設定する。次にステップS1
1でITVカメラ14から画像データを取込み、更にス
テップS12で濃度補正の処理を行う。この濃度補正処
理は図1の背景除去の処理Aに対応し、また図4の背景
平準化処理S1に相当する。
FIG. 5 is a flow diagram showing details of the schematic flow diagram of FIG. First, in step S10, the CPU of the reading device
The counter, work area, etc. in 32 are initialized, and various constants for reading are set in the register. Next step S1
Image data is captured from the ITV camera 14 in step S1, and density correction processing is further performed in step S12. This density correction process corresponds to the background removal process A in FIG. 1, and also corresponds to the background leveling process S1 in FIG.

【0012】濃度補正の処理S12は、図6〜図8で示
すようなMIN−MAX差分法及びスムージングにより
行われる。なお図6及び図7の横軸は画像のX軸方向の
画素の並びに対応し、縦軸は各画素の濃度に対応する。 原画像は図6に示すように文字部a、bと背景cとから
成る。背景cは鋼材10に対する照明の当たり具合や反
射により部分的に異なるレベルを示し、段差dを有して
いる。
The density correction process S12 is performed by the MIN-MAX difference method and smoothing as shown in FIGS. 6 to 8. Note that the horizontal axis in FIGS. 6 and 7 corresponds to the arrangement of pixels in the X-axis direction of the image, and the vertical axis corresponds to the density of each pixel. As shown in FIG. 6, the original image consists of character parts a and b and a background c. The background c shows partially different levels depending on the degree of illumination and reflection on the steel material 10, and has a step d.

【0013】この原画像に対し、まずスムージングフィ
ルタをかけ、次に最小値(MIN)フィルタをかける。 このMINフィルタ処理においては、図8に示すように
、処理対象画素f22を中心とした3×3の画素fij
中の最小濃度値を処理結果の画素F22の値として画像
メモリに格納し、これを全画素について行う。このMI
Nフィルタ処理を文字の基準太さに対応した画素数の1
/2回繰り返すことにより、文字部a、bを消去し、背
景cを取出すことができる。
[0013] First, a smoothing filter is applied to this original image, and then a minimum value (MIN) filter is applied. In this MIN filter processing, as shown in FIG.
The minimum density value among them is stored in the image memory as the value of pixel F22 as a processing result, and this is performed for all pixels. This MI
N filter processing is performed using 1 of the number of pixels corresponding to the standard thickness of the character.
By repeating /2 times, character parts a and b can be erased and background c can be taken out.

【0014】この背景cに対し、次に最大値(MAX)
フィルタを同一回数だけかけ、MINフィルタ処理で生
じた画像の歪みを補正する。このMAXフィルタ処理で
は、図8示す処理と同様に、処理対象の画素を中心とし
た3×3の画素中の最大濃度値を処理結果の画素濃度と
する。MAXフィルタの処理により、図6のeで示すよ
うな背景が取出される。
For this background c, next the maximum value (MAX)
The filter is applied the same number of times to correct image distortion caused by MIN filter processing. In this MAX filter processing, similarly to the processing shown in FIG. 8, the maximum density value among 3×3 pixels centered on the pixel to be processed is set as the pixel density of the processing result. Through the processing of the MAX filter, a background as shown by e in FIG. 6 is extracted.

【0015】次に原画像(a、b、c)から背景eを減
算すると、図7に示すような文字部a、bを含む画像を
濃度むらのある背景から分離して抽出することができる
[0015] Next, by subtracting the background e from the original image (a, b, c), it is possible to separate and extract the image including the character parts a and b as shown in FIG. 7 from the uneven density background. .

【0016】濃度補正処理により抽出された文字画像デ
ータに対し、次に図5のステップS13〜S17から成
る文字の切出し処理(図4のステップS2)が行われる
。この処理は、図1の2値化、しきい値最適化の手順B
及び投影分布により文字枠を設定する手順Cにおけるデ
ータ処理に相当する。
The character image data extracted by the density correction process is then subjected to a character cutting process (step S2 in FIG. 4) consisting of steps S13 to S17 in FIG. This process is step B of binarization and threshold optimization in Figure 1.
This corresponds to the data processing in step C of setting a character frame based on the projection distribution.

【0017】まず図5のステップS13では、暫定的な
しきい値で文字画像の2値化が行われる。2値化のしき
い値は、図9に示すような周知のパーセンタイル法(P
タイル法)で決定することができる。このPタイル法で
は、画像の濃度値(例えば0〜255レベル)の夫々に
対応した画素数のヒストグラムを作成し、例えば高濃度
側から矢印Nで示す積算方向に画素個数を積算し、積算
値Sが画像の全画素数のP%に達した位置の濃度nをし
きい値とする。
First, in step S13 of FIG. 5, a character image is binarized using a provisional threshold value. The binarization threshold is determined by the well-known percentile method (P
(tile method). In this P-tile method, a histogram of the number of pixels corresponding to each density value of the image (for example, 0 to 255 levels) is created, and the number of pixels is integrated, for example, from the high density side in the integration direction indicated by the arrow N. The density n at the position where S reaches P% of the total number of pixels of the image is set as a threshold value.

【0018】次にステップS14で、画像両端のノイズ
を除去する処理を行う。画像の左右両端分では、図10
に示すように照明装置18(図2)の影響を受けて濃度
が不自然に上昇していることがある。このため点線P、
Qで示すX座標の両外側を文字認識の画像領域から削除
する。位置P、Qは予め設定した固定位置であってよい
Next, in step S14, processing is performed to remove noise at both ends of the image. At both left and right ends of the image, Figure 10
As shown in FIG. 2, the density may rise unnaturally due to the influence of the lighting device 18 (FIG. 2). Therefore, the dotted line P,
Both sides of the X coordinate indicated by Q are deleted from the image area for character recognition. The positions P and Q may be fixed positions set in advance.

【0019】次にステップS15及びS16で文字列の
切出し及び列ごとの各文字の切出し(抽出)を順次行う
。これらの切出し処理は、図11に示すようにX軸方向
及びY軸方向に2値化画像を投影することにより、文字
の座標位置を決定することにより行う。まずステップS
15では、Y軸への投影分布をとり、画像の文字列を抽
出する。Y軸への投影分布は、Y軸座標の各画素位置に
おいてX軸と平行な全ての画素の値(1又は0)を加算
することにより得られる。この投影分布に対し、Y軸に
沿って隣接画素ごとに差分をとり、差分が一定値(例え
ば5画素分)を越える所を文字列のエッジ(立上り及び
立下り)として、その座標位置を決定する。これにより
、図11に示す第0列、第1列、第2列に位置する各文
字列を原画像から切出すことができる。
Next, in steps S15 and S16, character strings are cut out and each character in each string is cut out (extracted) in sequence. These cutting processes are performed by projecting a binarized image in the X-axis direction and the Y-axis direction to determine the coordinate position of the character, as shown in FIG. First step S
In step 15, the projection distribution on the Y axis is taken and character strings of the image are extracted. The projection distribution onto the Y-axis is obtained by adding the values (1 or 0) of all pixels parallel to the X-axis at each pixel position on the Y-axis coordinate. For this projection distribution, take the difference for each adjacent pixel along the Y axis, and determine the coordinate position of the edge (rising and falling edge) of the character string where the difference exceeds a certain value (for example, 5 pixels) do. Thereby, each character string located in the 0th column, the 1st column, and the 2nd column shown in FIG. 11 can be cut out from the original image.

【0020】同様にして、ステップS16では、各列ご
との2値化画像に対し、X軸への投影分布を取り、分布
データの立上り、立下りの各座標位置を決定する。この
位置データを用いて0、1、2の各列を構成する各文字
C0〜C4を原画像から個別に抽出することができる。
Similarly, in step S16, the projection distribution onto the X axis is obtained for the binarized image for each column, and the coordinate positions of the rising and falling edges of the distribution data are determined. Using this position data, each character C0 to C4 constituting each column of 0, 1, and 2 can be individually extracted from the original image.

【0021】次にステップS17で、切り出しの列位置
及び文字位置の妥当性のチェックを行う。このチェック
は、図11に示すY軸上の列間距離L1 、X軸上の文
字間距離L2 及び個々の文字間隔を基準値と比較する
ことにより行われる。また各列の文字数もチェックする
。これらのチェックにより切出し位置が不適当であると
判断した場合には、図5に示すようにステップS13に
おける2値化のしきい値を変更し、以後のステップS1
4〜S17を再度行う(リトライ)。
Next, in step S17, the validity of the column position and character position for extraction is checked. This check is performed by comparing the inter-column distance L1 on the Y-axis, the inter-character distance L2 on the X-axis, and the individual character spacing shown in FIG. 11 with reference values. Also check the number of characters in each column. If it is determined that the extraction position is inappropriate through these checks, the threshold value for binarization in step S13 is changed as shown in FIG.
4 to S17 are performed again (retry).

【0022】リトライにより、切出し位置が妥当である
と判断された場合には、ステップS18から次のステッ
プS19に進む。ステップS18はリトライ回数のチェ
ックを行っていて、設定回数を越えても適正な切出し位
置の決定ができなかった場合には、図16に示す後述の
リトライオーバの処理に進む。
[0022] If it is determined that the cutout position is appropriate after the retry, the process advances from step S18 to the next step S19. In step S18, the number of retries is checked, and if a proper cutting position cannot be determined even after the set number of times has been exceeded, the process proceeds to retry over processing shown in FIG. 16, which will be described later.

【0023】なお、図5のステップS17における妥当
性のチェックは、ステップS15の文字列の切出し及び
ステップS16の文字抽出の各処理ごとに行ってもよい
。この場合、文字列の切出しに対するチェックで不適当
の判断が生じたとき、しきい値を変更してステップS1
3の2値化処理からステップS14、S15を再試行す
る。また文字抽出の切出しに対するチェックで不適当の
判断が生じたとき、しきい値を変更してステップS13
の2値化処理を行った後、ステップS16の文字抽出か
ら再試行する。
Note that the validity check in step S17 in FIG. 5 may be performed for each of the character string extraction in step S15 and the character extraction in step S16. In this case, when an inappropriate judgment occurs in the check for character string extraction, the threshold value is changed and step S1
Steps S14 and S15 are retried from the binarization process in step 3. In addition, if an inappropriate judgment occurs in the check for character extraction, the threshold value is changed and step S13 is performed.
After performing the binarization process, the character extraction is retried in step S16.

【0024】図5のステップS19においては、図12
に示すように、各列の各文字ごとに領域(枠)を設定し
、領域を上、中、下の3つのセグメントに分割する。 文字枠Wの座標はステップS15、S16の投影分布デ
ータに基いて決定する。各分割領域P1〜P3のY座標
は、文字枠Wの両端から一定距離の位置とする。次にス
テップS20で、各分割領域ごとにPタイル法にて概算
しきい値を決定し、文字枠Wの画像を2値化する。次に
ステップS21で、各分割領域ごとに、2値化画像の面
積率(分割領域の全体に対する画素値1を持つ画素の割
合)が予め定められた所定の範囲に入るまで、各分割領
域のしきい値を補正する。
In step S19 of FIG.
As shown in the figure, an area (frame) is set for each character in each column, and the area is divided into three segments: top, middle, and bottom. The coordinates of the character frame W are determined based on the projection distribution data in steps S15 and S16. The Y coordinate of each divided area P1 to P3 is a position at a constant distance from both ends of the character frame W. Next, in step S20, an approximate threshold value is determined for each divided region using the P-tile method, and the image of the character frame W is binarized. Next, in step S21, for each divided area, the area ratio of the binarized image (ratio of pixels with pixel value 1 to the entire divided area) falls within a predetermined range. Correct the threshold.

【0025】次にステップS22で、3つの分割領域か
ら1つの文字を合成し、文字枠W内で文字の占める割合
が基準値の範囲に入るまで、各分割領域ごとに設定され
ているしきい値を等量ずつ変更する。この処理により、
図13に示すように、各分割領域のしきい値の相違によ
る不自然な領域境界が是正され、スムーズにされた合成
文字が得られる。これらのステップS19〜S22は、
図1の手順Dにおける処理に相当する。
Next, in step S22, one character is synthesized from the three divided regions, and the threshold set for each divided region is Change values by equal amounts. With this process,
As shown in FIG. 13, the unnatural region boundaries caused by the difference in the threshold values of the divided regions are corrected, and a smooth composite character is obtained. These steps S19 to S22 are
This corresponds to the process in step D in FIG.

【0026】次にステップS23で、文字枠を最終補正
する。即ち図12に示すように、初期文字枠W内の2値
化画像データのY軸及びX軸への投影分布をとり、各投
影分布波形Sy 、Sx の両端エッジ(立上り、立下
り)を算出し、最終文字枠Wx 、Wy の座標を決定
する。そして最終文字枠においてステップS22で設定
されたしきい値にて原画像に対する2値化を行ない、辞
書と照合するための文字データを得る。
Next, in step S23, the character frame is finally corrected. That is, as shown in FIG. 12, the projection distribution of the binarized image data in the initial character frame W onto the Y axis and the Then, the coordinates of the final character frames Wx and Wy are determined. Then, in the final character frame, the original image is binarized using the threshold value set in step S22 to obtain character data to be checked against the dictionary.

【0027】次に、ステップS24で辞書データとの照
合及び判定が行われる。辞書データはビットパターンデ
ータであり、図14に一例(数字0)を示すように、基
準位置のデータD1 、横及び縦方向に例えば2画素ず
つ変位させた左上、右上、左下、右下の各位置のデータ
D2 〜D5 から成る。原画像の2値化によって得ら
れた文字データは、これらの基準位置のデータ及び変位
させたデータの全てとビットマッチングにより比較され
る。即ち、辞書データ列と文字データ列との排他的論理
和をとって、差異のあるビットを検出し、それを計数す
ることにより、相関値(類似度)を得る。この照合処理
を辞書中の全てのデータと抽出された一文字分のデータ
とについて行い、類似度が最も高い照合結果により文字
を特定する。
Next, in step S24, comparison with dictionary data and determination are performed. The dictionary data is bit pattern data, and as shown in an example (number 0) in FIG. It consists of position data D2 to D5. The character data obtained by binarizing the original image is compared with all of the data at the reference position and the displaced data by bit matching. That is, a correlation value (similarity) is obtained by calculating the exclusive OR of the dictionary data string and the character data string, detecting bits with a difference, and counting them. This matching process is performed on all the data in the dictionary and the data for one extracted character, and the character is specified based on the matching result with the highest degree of similarity.

【0028】なお、図14の基準位置の辞書データのみ
を用意し、辞書メモリの読出し位置のシフト操作により
、辞書データを各斜め方向にずらしながら抽出文字デー
タとの照合処理を順次行うようにしてもよい。或いは、
抽出した文字データの位置を左上、右上、左下、右下の
ようにシフトして、一つの辞書データと比較してもよい
。図15は上述の辞書データのずらし処理を模式的に示
したものである。
Note that only the dictionary data at the reference position shown in FIG. 14 is prepared, and the matching process with the extracted character data is sequentially performed while shifting the dictionary data in each diagonal direction by shifting the reading position of the dictionary memory. Good too. Or,
The extracted character data may be shifted to the upper left, upper right, lower left, or lower right and compared with one dictionary data. FIG. 15 schematically shows the above-mentioned dictionary data shifting process.

【0029】以上の処理を全列の文字について順次行っ
て各文字を特定する。ステップS24で得られた照合結
果は、次のステップS25でホストコンピュータ(プロ
セスコンピュータ20又は管理コンピュータ22)に送
信されると共に、読取装置のディスプレイ38上に表示
される。
The above processing is sequentially performed for all the characters in the string to identify each character. The verification result obtained in step S24 is transmitted to the host computer (process computer 20 or management computer 22) in the next step S25, and is also displayed on the display 38 of the reading device.

【0030】次に、図16はリトライオーバーの処理(
基準文字処理)を示す。この処理は、図5のステップS
18において、文字切出し位置が不適当であったときの
しきい値変更のリトライ回数が、規定回数を越えた場合
に行われる。この基準文字処理では、図11に示す第2
列の文字行C1及びC3の位置に印字された基準文字5
0を使用して文字の切出し位置を算出する。この例では
、基準文字50は、+であるが、直交座標上の一点を容
易に確定することができる文字又は図形のパターンであ
ればよい。
Next, FIG. 16 shows retry over processing (
standard character processing). This process is performed in step S in FIG.
Step 18 is performed when the number of retries for changing the threshold value when the character cutting position is inappropriate exceeds a predetermined number of times. In this standard character processing, the second
Standard character 5 printed in character rows C1 and C3 of the column
0 is used to calculate the character cutout position. In this example, the reference character 50 is +, but it may be any pattern of characters or figures that allows one point on the orthogonal coordinates to be easily determined.

【0031】図16のステップS26では、初期化処理
を行い、リトライ回数をチェックするカウンタやCPU
のワークエリアをクリアすると共に、文字列の中心位置
(X座標)を算出し、基準文字処理の準備を行う。次に
ステップS27で、図17に示すように、注目している
基準文字50に対する文字枠Wを定め、Y軸座標を3つ
の領域P1〜P3に分割する。この処理は図12に示し
たコード番号に対する文字枠の分割処理(図5のステッ
プS19)と同じである。なお、文字枠Wの座標は、図
11に示したX軸及びY軸への投影分布から大ざっぱに
決定することができる。
In step S26 of FIG. 16, initialization processing is performed to check the number of retries and the CPU.
At the same time as clearing the work area, the center position (X coordinate) of the character string is calculated and preparations are made for standard character processing. Next, in step S27, as shown in FIG. 17, a character frame W for the reference character 50 of interest is determined, and the Y-axis coordinate is divided into three regions P1 to P3. This process is the same as the character frame division process for code numbers shown in FIG. 12 (step S19 in FIG. 5). Note that the coordinates of the character frame W can be roughly determined from the projection distribution on the X and Y axes shown in FIG.

【0032】次に、ステップS28で、各分割領域P1
〜P3ごとにPタイル法により概略しきい値を算出し、
各分割領域において切取られた入力画像を2値化した後
、各分割領域ごとにしきい値を最適化する。この最適化
処理は、図5のステップS21での処理と同じであって
よく、図18に示すように、各領域P1、P2、P3ご
とに、文字部の面積率が規定の範囲に入るまで夫々のし
きい値を変更する。
Next, in step S28, each divided area P1
~ Calculate the approximate threshold value using the P tile method for each P3,
After the input image cut out in each divided area is binarized, the threshold value is optimized for each divided area. This optimization process may be the same as the process in step S21 of FIG. 5, and as shown in FIG. Change each threshold.

【0033】次にステップS29で最適化されたしきい
値により枠W内の入力画像を分割領域ごとに2値化する
。更に、ステップS30で、図18に示すように、各分
割領域の2値化画像を1文字に合成した後、合成した文
字部全体が基準値になるように各領域のしきい値を補正
する。次にステップS31で分割領域の境界のスムージ
ングを行う。このステップS30、S31の処理により
、図19に示すように、基準文字50に対して領域間の
つながりがスムースにされた合成文字が得られる。
Next, in step S29, the input image within the frame W is binarized for each divided area using the optimized threshold value. Furthermore, in step S30, as shown in FIG. 18, after the binarized images of each divided area are combined into one character, the threshold value of each area is corrected so that the entire combined character part has a reference value. . Next, in step S31, smoothing of the boundaries of the divided areas is performed. Through the processing of steps S30 and S31, as shown in FIG. 19, a composite character with smooth connections between regions is obtained with respect to the reference character 50.

【0034】次にステップS32で、文字枠を最終補正
する。即ち、図17に示すように、初期文字枠W内の2
値化画像データのY軸及びX軸への投影分布をとり、各
投影分布波形SY 、SX の両端エッジを認識し、最
終文字枠WX 、WY の座標を決定する。この処理は
図12に示した処理と同様である。そして最終文字枠に
おいて入力画像の2値化を行い、基準文字50の2値化
データを得る。
Next, in step S32, the character frame is finally corrected. That is, as shown in FIG.
The projection distribution of the digitized image data onto the Y-axis and the X-axis is taken, the edges at both ends of each projection distribution waveform SY , SX are recognized, and the coordinates of the final character frames WX , WY are determined. This process is similar to the process shown in FIG. Then, the input image is binarized in the final character frame to obtain binarized data of the reference character 50.

【0035】次にステップS33では、抽出された文字
データと基準文字用辞書データとを照合し、基準文字に
該当するか否かを判定する。この処理では、図20に示
すように、基準位置の辞書データD1 、横及び縦方向
に例えば2画素ずつ変位させた左上、右上、左下、右下
のデータD2 〜D5 と抽出した文字データとのビッ
トマチングをとる。このマッチング処理により得た類似
度が規定値に達しなければ、次のステップで注目文字列
、行を変更し、新たな文字枠を設定して、ステップS2
7〜S33を繰り返す。
Next, in step S33, the extracted character data is compared with reference character dictionary data to determine whether or not it corresponds to the reference character. In this process, as shown in FIG. 20, dictionary data D1 at the reference position, data D2 to D5 at the upper left, upper right, lower left, and lower right, which are displaced by 2 pixels in the horizontal and vertical directions, and the extracted character data are combined. Perform bit matching. If the similarity obtained through this matching process does not reach the specified value, the next step is to change the character string and line of interest, set a new character frame, and step S2
7 to S33 are repeated.

【0036】以上の処理結果に基きステップS35で類
似度が最大の文字を基準文字と判定する。次にステップ
S36で、類似度の高い基準文字に対し妥当性のチェッ
クを行う。このチェックは、図21に示すL字及び逆L
字のテンプレートパターンT1、T2を基準文字データ
の文字枠に当てはめてマッチングをとることにより行う
。この2つのテンプレートパターンT1、T2は元の基
準文字の一部であり、しかも夫々は、基準文字の中心O
の座標を決定するのに必要な2点J、Kを含んでいる。 従ってこれらのテンプレートパターンT1、T2の双方
と抽出文字データとのマッチングがとれたならば、抽出
した基準文字から算出する中心位置座標の精度が非常に
高いことになる。
Based on the above processing results, in step S35, the character with the highest degree of similarity is determined to be the reference character. Next, in step S36, the validity of the reference characters having a high degree of similarity is checked. This check is performed using the L-shape and reverse L-shape shown in Figure 21.
This is performed by applying the character template patterns T1 and T2 to the character frame of the reference character data and performing matching. These two template patterns T1 and T2 are part of the original reference character, and each template pattern is located at the center O of the reference character.
It contains the two points J and K necessary to determine the coordinates of . Therefore, if both of these template patterns T1 and T2 are matched with the extracted character data, the accuracy of the center position coordinates calculated from the extracted reference character will be extremely high.

【0037】ステップS36の妥当性チェックが済むと
、次にステップS37で基準文字の中心座標より各文字
枠の座標を幾何学的に算出する。基準文字の中心座標は
、図21の点J、Kの座標から算出することができる。 またコード番号12を構成する各文字の切取り用文字枠
Wは、図22に示すように基準文字50の中心座標から
算出することができる。なお、基準文字50は2つ付さ
れているので、これらの中心座標の間隔により、入力画
像の伸縮度を求めることができ、伸縮度に基いて各文字
枠を正確に算出することができる。
After completing the validity check in step S36, the coordinates of each character frame are calculated geometrically from the center coordinates of the reference character in step S37. The center coordinates of the reference character can be calculated from the coordinates of points J and K in FIG. Furthermore, the character frame W for cutting out each character constituting the code number 12 can be calculated from the center coordinates of the reference character 50, as shown in FIG. Note that since two reference characters 50 are attached, the degree of expansion/contraction of the input image can be determined from the interval between these center coordinates, and each character frame can be accurately calculated based on the degree of expansion/contraction.

【0038】文字切取り枠が決定されると、以下図5の
ステップS19の処理から各文字に対する照合処理が行
われる。
Once the character cutting frame is determined, a matching process for each character is performed from the process of step S19 in FIG. 5 below.

【0039】図23は図16の基準文字処理に対応する
要素的特徴を示すブロック図である。入力画像は2値化
手段1で2値化され、基準文字50の部分が照合手段2
において辞書データと照合される。これらの2値化手段
1及び照合手段2は、図16のステップS27〜S36
における処理に対応する。照合により基準文字であると
認識されると、基準文字の2値化画像に基いて座標算出
手段3(図16のステップS37に対応)により基準座
標が算出される。この基準座標に基いて文字枠が文字枠
設定手段4において設定され、原入力画像から文字部が
切出される。この切出された画像に基いて認識手段5に
おいて辞書との照合により文字が特定される。
FIG. 23 is a block diagram showing elemental features corresponding to the standard character processing shown in FIG. 16. The input image is binarized by the binarization means 1, and the portion of the reference character 50 is binarized by the comparison means 2.
It is compared with dictionary data at These binarization means 1 and collation means 2 perform steps S27 to S36 in FIG.
Corresponds to the processing in When the character is recognized as a reference character by comparison, the coordinate calculation means 3 (corresponding to step S37 in FIG. 16) calculates reference coordinates based on the binarized image of the reference character. Based on these reference coordinates, a character frame is set by the character frame setting means 4, and a character portion is cut out from the original input image. Based on this cut out image, the recognition means 5 identifies the character by comparing it with a dictionary.

【0040】以上の実施例はコード番号12の認識シス
テムについて述べられているが、本発明は数字だけでな
く、アルファベット、かな文字、漢字等の認識に適用可
能である。
Although the above embodiment has been described with respect to a recognition system for code number 12, the present invention is applicable to recognition of not only numbers but also alphabets, kana characters, kanji characters, and the like.

【0041】[0041]

【発明の効果】本発明の文字認識方法は、上述のように
、文字部全体に対する2値化と、個々の文字枠内の分割
領域ごとの局所的2値化とを順次行っているので、全体
的な濃度むら及び局所的な濃度むらの双方に対応させた
2値化により、パターンマッチングのための対象データ
を非常に高精度に抽出することができ、マッチング精度
が著しく向上する。また本発明の文字認識装置によれば
、文字列に付された基準文字又は基準図形を利用して文
字切取り枠を設定するように成されているので、入力画
像にノイズや欠けがあっても、それらの影響を避けて正
確に文字を切取ることが可能となり、マッチング精度が
上がり認識率が向上する。
[Effects of the Invention] As described above, the character recognition method of the present invention sequentially performs binarization for the entire character portion and local binarization for each divided area within each character frame. Binarization that deals with both overall density unevenness and local density unevenness allows target data for pattern matching to be extracted with extremely high accuracy, and matching accuracy is significantly improved. Furthermore, according to the character recognition device of the present invention, a character cutting frame is set using a reference character or a reference figure attached to a character string, so even if there is noise or chipping in the input image, , it becomes possible to avoid these influences and accurately cut out characters, improving matching accuracy and recognition rate.

【図面の簡単な説明】[Brief explanation of the drawing]

【図1】本発明の文字認識装置の要素的特徴を示すブロ
ック図である。
FIG. 1 is a block diagram showing the essential features of a character recognition device of the present invention.

【図2】本発明の文字認識装置が適用される鋼材ナンバ
リングシステムの要部ブロック図である。
FIG. 2 is a block diagram of main parts of a steel numbering system to which the character recognition device of the present invention is applied.

【図3】図2のコード番号読取装置の構成例を示すブロ
ック図である。
FIG. 3 is a block diagram showing a configuration example of the code number reading device shown in FIG. 2;

【図4】文字認識のための画像処理の概略フローチャー
トである。
FIG. 4 is a schematic flowchart of image processing for character recognition.

【図5】文字認識のための画像処理の詳細フローチャー
トである。
FIG. 5 is a detailed flowchart of image processing for character recognition.

【図6】MIN−MAX差分法による画像処理を示す画
像濃度のグラフである。
FIG. 6 is a graph of image density showing image processing using the MIN-MAX difference method.

【図7】MIN−MAX差分法により抽出された文字画
像の濃度グラフである。
FIG. 7 is a density graph of a character image extracted by the MIN-MAX difference method.

【図8】MINフィルタ、MAXフィルタの画像処理を
説明する図である。
FIG. 8 is a diagram illustrating image processing of a MIN filter and a MAX filter.

【図9】Pタイル法によるしきい値設定処理を示す画像
ヒストグラムである。
FIG. 9 is an image histogram showing threshold setting processing using the P-tile method.

【図10】2値化画像の両端処理を示す濃度グラフであ
る。
FIG. 10 is a density graph showing both end processing of a binarized image.

【図11】2値化画像のX−Y投影分布図である。FIG. 11 is an X-Y projection distribution diagram of a binarized image.

【図12】文字枠の分割及び最終文字枠の設定を示す図
である。
FIG. 12 is a diagram showing division of a character frame and setting of a final character frame.

【図13】合成文字に対するスムージング処理を示す図
である。
FIG. 13 is a diagram showing smoothing processing for composite characters.

【図14】辞書データの展開例を示す図である。FIG. 14 is a diagram showing an example of expansion of dictionary data.

【図15】辞書データのシフトを模式的に示す図である
FIG. 15 is a diagram schematically showing a shift of dictionary data.

【図16】基準文字処理の手順を示すフローチャートで
ある。
FIG. 16 is a flowchart showing the procedure of standard character processing.

【図17】基準文字の文字枠の設定及び領域分割を説明
する図である。
FIG. 17 is a diagram illustrating setting of a character frame of a reference character and area division.

【図18】基準文字の分割領域ごとのしきい値補正処理
を説明する図である。
FIG. 18 is a diagram illustrating threshold correction processing for each divided area of a reference character.

【図19】基準文字の合成画像についてのしきい値補正
処理を説明する図である。
FIG. 19 is a diagram illustrating threshold correction processing for a composite image of reference characters.

【図20】基準文字の辞書データの展開例を示す図であ
る。
FIG. 20 is a diagram showing an example of expansion of dictionary data of reference characters.

【図21】テンプレートマッチングパターンを示す図で
ある。
FIG. 21 is a diagram showing a template matching pattern.

【図22】基準文字に基いて文字枠を設定する座標系の
図である。
FIG. 22 is a diagram of a coordinate system for setting a character frame based on a reference character.

【図23】文字認識装置の要素的特徴を示す要部ブロッ
ク図である。
FIG. 23 is a block diagram of main parts showing elemental features of a character recognition device.

【符号の説明】[Explanation of symbols]

1  2値化手段 2  照合手段 3  座標算出手段 4  文字枠設定手段 5  認識手段 10  鋼材 12  製造コード番号 14  ITVカメラ 16  コード番号読取装置 1 Binarization means 2. Verification means 3 Coordinate calculation means 4 Character frame setting means 5. Recognition means 10 Steel material 12 Manufacturing code number 14 ITV camera 16 Code number reader

Claims (14)

【特許請求の範囲】[Claims] 【請求項1】  入力画像から文字部の背景を除去して
文字部を抽出する手順Aと、抽出した文字部を2値化し
、その直交2軸への投影分布データに基いて2値化のし
きい値を最適化する手順Bと、最適化された2値化画像
の直交2軸への投影分布データに基いて複数の領域に分
割された文字枠を設定する手順Cと、上記文字枠内の各
分割領域ごとに上記入力画像を2値化し、夫々の独立し
た2値化しきい値を最適化する手順Dと、上記手順Dで
最適化された2値化画像の直交2軸への投影分布データ
に基いて文字枠を再設定する手順Eと、上記手順Eの文
字枠内の2値化画像と辞書データとを照合して文字を特
定する手順Fとから成ることを特徴とする文字認識方法
Claim 1: Procedure A for removing the background of a character part from an input image and extracting the character part; binarizing the extracted character part; and performing the binarization based on projection distribution data on two orthogonal axes. Step B of optimizing the threshold value, Step C of setting a character frame divided into a plurality of regions based on the projection distribution data of the optimized binarized image on two orthogonal axes, and the above character frame. A procedure D in which the input image is binarized for each divided region within the area and each independent binarization threshold is optimized; The method is characterized by comprising a step E in which a character frame is reset based on projection distribution data, and a step F in which a character is identified by comparing the binarized image within the character frame in step E with dictionary data. Character recognition method.
【請求項2】  上記手順Aが、入力画像に対し最小値
フィルタの処理を行い、その処理結果に対し最大値フィ
ルタの処理を行って背景を抽出し、入力画像から背景を
減算して文字部を抽出する各手順から成ることを特徴と
する請求項1に記載の文字認識方法。
[Claim 2] The above step A performs minimum value filter processing on the input image, performs maximum value filter processing on the processing result to extract the background, and subtracts the background from the input image to extract the character part. 2. The character recognition method according to claim 1, comprising steps of extracting a character recognition method.
【請求項3】  上記手順Bにおける初期しきい値が抽
出文字部の画像に対するPタイル法により決定されてい
ることを特徴とする請求項1に記載の文字認識方法。
3. The character recognition method according to claim 1, wherein the initial threshold value in step B is determined by a P-tile method for an image of the extracted character portion.
【請求項4】  上記手順Bが、直交2軸への投影分布
データに基く座標情報と予め記憶された基準値とを比較
して、比較結果に基いてしきい値を最適化する各手順か
ら成ることを特徴とする請求項1に記載の文字認識方法
4. The step B comprises steps of comparing coordinate information based on projection distribution data on two orthogonal axes with a pre-stored reference value and optimizing a threshold value based on the comparison result. The character recognition method according to claim 1, characterized in that:
【請求項5】  上記手順Dが、各分割領域ごとにPタ
イル法により初期しきい値を決定する手順を含むことを
特徴とする請求項1に記載の文字認識方法。
5. The character recognition method according to claim 1, wherein step D includes a step of determining an initial threshold value for each divided region by a P-tile method.
【請求項6】  上記手順Dが、個々の分割領域の2値
画像の文字部の面積比率が所定範囲の値となるようにし
きい値を変更する手順を含むことを特徴とする請求項1
に記載の文字認識方法。
6. The step D includes a step of changing the threshold so that the area ratio of the character portion of the binary image of each divided region falls within a predetermined range.
Character recognition method described in.
【請求項7】  上記手順Dが、個々の分割領域ごとに
2値化された画像の合成画像について、その文字部の面
積比率が所定範囲の値となるように上記各分割領域の夫
々のしきい値を変更することを特徴とする請求項1又は
6に記載の文字認識方法。
7. In step D, for a composite image of images binarized for each divided region, each of the divided regions is divided so that the area ratio of the character portion thereof falls within a predetermined range. 7. The character recognition method according to claim 1, further comprising changing a threshold value.
【請求項8】  上記手順Cが、認識すべき文字の座標
系を決定するために付加された基準文字又は基準図形に
対応する入力画像に基いて、座標系を決定し、この座標
系に基き上記文字枠を設定することを特徴とする請求項
1に記載の文字認識方法。
8. The step C determines a coordinate system based on the input image corresponding to the reference character or reference figure added to determine the coordinate system of the character to be recognized, and determines the coordinate system based on this coordinate system. 2. The character recognition method according to claim 1, further comprising setting the character frame.
【請求項9】  入力画像を2値化する2値化手段と、
認識すべき文字の座標系を決定するために文字の近傍に
付された基準文字又は基準図形の2値化画像と辞書デー
タとを照合する照合手段と、照合結果に基き、上記基準
文字又は基準図形の2値化画像から基準座標を算出する
座標算出手段と、上記基準座標に基き、認識すべき文字
を切出すための文字枠を設定する文字枠設定手段と、入
力画像から上記文字枠に基いて切出された個々の文字を
認識する認識手段とを備える文字認識装置。
[Claim 9] Binarization means for binarizing an input image;
A collating means for collating a binary image of a reference character or reference figure attached near the character with dictionary data in order to determine the coordinate system of the character to be recognized; a coordinate calculation means for calculating reference coordinates from a binary image of a figure; a character frame setting means for setting a character frame for cutting out characters to be recognized based on the reference coordinates; A character recognition device comprising a recognition means for recognizing individual characters cut out based on the base.
【請求項10】  上記2値化手段が、上記基準文字又
は基準図形を複数の領域に分割して夫々の分割領域ごと
に入力画像を2値化し、各領域の2値化しきい値を最適
化する手段と、最適化された2値画像の直交2軸への投
影分布データに基いて上記基準文字又は基準図形の切取
り枠を設定する手段とを備える請求項9に記載の文字認
識装置。
10. The binarization means divides the reference character or reference figure into a plurality of regions, binarizes the input image for each divided region, and optimizes a binarization threshold for each region. 10. The character recognition device according to claim 9, further comprising means for setting a cutting frame for the reference character or reference figure based on projection distribution data of the optimized binary image onto two orthogonal axes.
【請求項11】  上記最適化する手段が、各分割領域
の合成画像について、その文字又は図形部分の面積比率
が所定範囲の値となるように各分割領域のしきい値を変
更する手段を備えることを特徴とする請求項10に記載
の文字認識装置。
11. The optimizing means includes means for changing the threshold value of each divided region so that the area ratio of the character or graphic portion of the composite image of each divided region falls within a predetermined range. 11. The character recognition device according to claim 10.
【請求項12】  上記照合手段における辞書データが
上記基準文字又は基準図形の全体に対応する辞書データ
と、上記基準文字又は基準図形の要部に対応する辞書デ
ータとから成り、全体についての照合と要部についての
照合とを行うことを特徴とする請求項9に記載の文字認
識装置。
12. The dictionary data in the collation means is comprised of dictionary data corresponding to the entire reference character or reference figure, and dictionary data corresponding to the main part of the reference character or reference figure, and the dictionary data corresponds to the entire reference character or reference figure, and the dictionary data corresponds to the entire reference character or reference figure, and the dictionary data corresponds to the entire reference character or reference figure, and the dictionary data corresponds to the entire reference character or reference figure. 10. The character recognition device according to claim 9, wherein the character recognition device performs verification on main parts.
【請求項13】  上記要部に対応する辞書データが、
上記基準文字又は基準図形の一部を共通にする互に異な
る少なくとも2つの部分に対応し、上記共通の一部には
、上記基準文字又は基準図形から得る座標基準点が含ま
れていることを特徴とする請求項12に記載の文字認識
装置。
13. Dictionary data corresponding to the main part is:
It corresponds to at least two mutually different parts that share a part of the reference character or reference figure, and the common part includes a coordinate reference point obtained from the reference character or figure. The character recognition device according to claim 12.
【請求項14】  上記基準文字又は基準図形が+字形
であり、上記要部がL字形であることを特徴とする請求
項13に記載の文字認識装置。
14. The character recognition device according to claim 13, wherein the reference character or reference figure is in the shape of a + character, and the main part is in the shape of an L character.
JP3053350A 1991-02-25 1991-02-25 Method and device for recognizing character Pending JPH04268989A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP3053350A JPH04268989A (en) 1991-02-25 1991-02-25 Method and device for recognizing character

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3053350A JPH04268989A (en) 1991-02-25 1991-02-25 Method and device for recognizing character

Publications (1)

Publication Number Publication Date
JPH04268989A true JPH04268989A (en) 1992-09-24

Family

ID=12940333

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3053350A Pending JPH04268989A (en) 1991-02-25 1991-02-25 Method and device for recognizing character

Country Status (1)

Country Link
JP (1) JPH04268989A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5889885A (en) * 1995-01-31 1999-03-30 United Parcel Service Of America, Inc. Method and apparatus for separating foreground from background in images containing text
US6094509A (en) * 1994-06-07 2000-07-25 United Parcel Service Of America, Inc. Method and apparatus for decoding two-dimensional symbols in the spatial domain
US6728391B1 (en) 1999-12-03 2004-04-27 United Parcel Service Of America, Inc. Multi-resolution label locator

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0221385A (en) * 1988-07-11 1990-01-24 Hitachi Ltd Printer
JPH0256688A (en) * 1988-08-23 1990-02-26 Toyota Central Res & Dev Lab Inc Character segmenting device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0221385A (en) * 1988-07-11 1990-01-24 Hitachi Ltd Printer
JPH0256688A (en) * 1988-08-23 1990-02-26 Toyota Central Res & Dev Lab Inc Character segmenting device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6094509A (en) * 1994-06-07 2000-07-25 United Parcel Service Of America, Inc. Method and apparatus for decoding two-dimensional symbols in the spatial domain
US5889885A (en) * 1995-01-31 1999-03-30 United Parcel Service Of America, Inc. Method and apparatus for separating foreground from background in images containing text
US6728391B1 (en) 1999-12-03 2004-04-27 United Parcel Service Of America, Inc. Multi-resolution label locator

Similar Documents

Publication Publication Date Title
US6778703B1 (en) Form recognition using reference areas
CN104112128B (en) Digital image processing system and method applied to bill image character recognition
US5138668A (en) Character discrimination system employing height-to-width ratio and vertical extraction position information
JP2761467B2 (en) Image segmentation device and character recognition device
JPH07220026A (en) Method and device for picture processing
JPH04268989A (en) Method and device for recognizing character
JPH04270485A (en) Printing character recognition device
JPH04268987A (en) Character recognizing device
JPH0927056A (en) Method and device for discriminating image
US6351560B1 (en) Apparatus, method, and program for locating an objective on a form and a recording medium for recording the program for locating the objective on the form
JPH04268988A (en) Character recognizing device
JP2865528B2 (en) Fingerprint collation device
JP3574562B2 (en) Method for recognizing and detecting deformation of a series of patterns in an image and recording medium storing the program
JP4492258B2 (en) Character and figure recognition and inspection methods
JP3838091B2 (en) Pattern recognition apparatus and program for model registration for pattern recognition
JP2004094427A (en) Slip image processor and program for realizing the same device
JP2865529B2 (en) Fingerprint collation device
CN111161247B (en) Detection method for variable code reading character quality verification
JPH10207978A (en) Character pattern collating method and device therefor
JPH06309437A (en) Pattern inspecting device
JP2000193420A (en) Eye position detecting device
JP2000322685A (en) Number plate reader
JP2964594B2 (en) Mark inspection method
JP3041056B2 (en) Semiconductor pellet detection method
CN114495120A (en) Invoice code identification method and system based on digital structure characteristics