JPH0795335B2 - Area division method - Google Patents

Area division method

Info

Publication number
JPH0795335B2
JPH0795335B2 JP61251537A JP25153786A JPH0795335B2 JP H0795335 B2 JPH0795335 B2 JP H0795335B2 JP 61251537 A JP61251537 A JP 61251537A JP 25153786 A JP25153786 A JP 25153786A JP H0795335 B2 JPH0795335 B2 JP H0795335B2
Authority
JP
Japan
Prior art keywords
divided
character image
area
histogram
pixels
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP61251537A
Other languages
Japanese (ja)
Other versions
JPS63106088A (en
Inventor
元 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP61251537A priority Critical patent/JPH0795335B2/en
Priority to DE19873716787 priority patent/DE3716787A1/en
Priority to GB8711738A priority patent/GB2190778B/en
Publication of JPS63106088A publication Critical patent/JPS63106088A/en
Priority to US07/241,825 priority patent/US4903312A/en
Publication of JPH0795335B2 publication Critical patent/JPH0795335B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Character Discrimination (AREA)

Description

【発明の詳細な説明】 〔技術分野〕 本発明は、文字認識における文字画像の特徴抽出のため
の領域分割方法に関する。
Description: TECHNICAL FIELD The present invention relates to a region dividing method for extracting a feature of a character image in character recognition.

〔従来技術〕[Prior art]

文字認識においては、特徴抽出の際に文字画像を領域分
割することが多い。例えば、文字画像の輪郭画素に方向
コードを付け、分割領域毎に方向コードをヒストグラム
を求めて特徴ベクトルを生成させるなどである。
In character recognition, a character image is often divided into regions when extracting features. For example, a direction code is attached to contour pixels of a character image, a histogram is obtained for the direction code for each divided area, and a feature vector is generated.

従来、このような領域分割のやり方としては、分割点
を固定しておく方法と、文献「沖電気研究開発」昭和
58年12月第121号vol.50No.3のpp77−82などに示されて
いるような、文字画像の周辺分布の重心点を利用して分
割点を文字毎に決定する方法が知られている。
Conventionally, such a method of dividing a region has a method of fixing a dividing point and a method of document "Oki Electric Research and Development" Showa.
A method is known for determining the division point for each character by using the center of gravity of the peripheral distribution of a character image as shown in pp77-82 of December 121, Vol.50 No.3, December 58. There is.

上記方法は、変形の大きい手書き文字などの認識に適
用すると、特徴の安定化に効果がある。しかし周辺分布
の重心点を利用する関係から、領域分割のための演算量
が多くなり、高速効果が容易でない。一方、方法は格
別の演算を必要としない反面、文字が変形した場合に領
域分割が不適当なものとなり、文字の特徴を正しく抽出
できないという問題がある。これについて第10図により
説明する。
The above method is effective for stabilizing the characteristics when applied to the recognition of handwritten characters with large deformation. However, since the center of gravity of the peripheral distribution is used, the amount of calculation for area division increases, and the high speed effect is not easy. On the other hand, the method does not require any special calculation, but when the character is deformed, the area division becomes improper, and the characteristic of the character cannot be extracted correctly. This will be described with reference to FIG.

第10図の(a)は、第2図に示すような方向コードを付
ける処理(特徴付け処理の一例)を施した「ウ」の文字
画像であり、数字は輪郭画素(特徴画素)に付けられた
方向コードである。第10図の(b)は、同様の方向コー
ド付け処理後の変形した「ウ」の文字画像である。両文
字画像を図示のように固定した分割点で3×3の領域に
分割し、分割領域毎に方向コードのヒストグラムを求め
特徴ベクトルを生成する場合を考える。
FIG. 10 (a) is a character image of “U” which has been subjected to the process of attaching the direction code as shown in FIG. 2 (an example of the characterizing process), and the numbers are attached to the contour pixels (feature pixels). Is the direction code set. FIG. 10 (b) is a deformed character image of "U" after the same direction coding process. Consider a case in which both character images are divided into 3 × 3 regions at fixed division points as shown, and a histogram of the direction code is obtained for each divided region to generate a feature vector.

文字「ウ」と文字「ワ」の識別の手掛りは、文字上部の
突出部の有無だけであり、この部分の情報を領域分割に
より安定に抽出し、特徴ベクトルに反映させなければな
らない。そこで第10図の各文字画像の左上隅の分割領域
を観察すると、(a)の場合は突出部の情報が失われて
しまうが、(b)の場合はその情報が取り込まれている
ことがわかる。このように分割点を固定した領域分割で
は、文字の特徴を正しく反映させた特徴抽出ができない
場合が起りやすい。
The only clue for distinguishing the character "U" from the character "WA" is the presence / absence of the protruding portion above the character, and the information of this portion must be stably extracted by region division and reflected in the feature vector. Therefore, when observing the divided area in the upper left corner of each character image in FIG. 10, the information of the protruding portion is lost in the case of (a), but the information is taken in in the case of (b). Recognize. In this way, in the area division in which the division points are fixed, it is likely that the feature extraction in which the feature of the character is correctly reflected cannot be performed.

〔目的〕〔Purpose〕

本発明は前記問題点に鑑みてなされたものであり、安定
した特徴抽出を可能にするために、分割すべき文字画像
に応じて分割点を適正化する領域分割方法を提供するこ
とを目的とする。
The present invention has been made in view of the above problems, and an object of the present invention is to provide an area dividing method that optimizes a dividing point according to a character image to be divided in order to enable stable feature extraction. To do.

〔構成〕〔Constitution〕

本発明の領域分割方法は、一定のアルゴリズムにより2
値の文字画像に特徴付けを行い、それと同時にまたはそ
の後に特徴画素の総数とX方向およびY方向への射影の
ヒストグラムHXiおよびHYjを求め、前記総数および前記
ヒストグラムHXi,HYjに基づき特徴画素をほゞ均等に含
む複数のメッシュ領域に前記文字画像をX方向およびY
方向に分割することを特徴とするものである。
The area dividing method of the present invention uses a fixed algorithm to
The character image of the value is characterized, and at the same time or after that, the total number of characteristic pixels and the histograms HXi and HYj of the projections in the X direction and the Y direction are obtained, and the characteristic pixels are estimated based on the total number and the histograms HXi, HYj. The character image is displayed in the X direction and the Y direction in a plurality of mesh areas that are evenly included.
It is characterized in that it is divided into directions.

〔実施例〕〔Example〕

以下、本発明の一実施例について図面を参照しながら詳
細に説明する。
An embodiment of the present invention will be described in detail below with reference to the drawings.

実施例1 第1図は、本実施例1による領域分割方法のフローチャ
ートである。このフローチャートに沿って、領域分割処
理について説明する。
Embodiment 1 FIG. 1 is a flow chart of an area dividing method according to Embodiment 1. The area division processing will be described with reference to this flowchart.

まず、ステップ100において、文字画像に特徴付け処理
が施される。この実施例においては、この特徴処理によ
り、文字画像の文字線輪郭画素(白画素)に第2図に示
すような方向コードが付けられる。なお、文字線輪郭部
の黒画素に同様に方向コードを付けるようにしてもよ
い。
First, in step 100, a character image is characterized. In this embodiment, by this feature processing, the direction code as shown in FIG. 2 is attached to the character line contour pixel (white pixel) of the character image. It should be noted that a direction code may be similarly added to the black pixels in the outline of the character line.

このような処理は、文字画像のラスタースキャンを行い
ながら、注目している白画素の上下左右の画素のパター
ンを調べることにより行われるが、この処理と同時に、
方向コード付与画素(特徴画素)の総数PEとX方向軸お
よびY方向軸への射影のヒストグラムHXi,HYjが求めら
れてテーブルに登録される。
Such a process is performed by checking the pattern of pixels on the top, bottom, left, and right of the white pixel of interest while performing a raster scan of the character image. At the same time as this process,
The total number PE of the direction code added pixels (feature pixels) and the histograms HXi, HYj of the projections on the X-axis and the Y-axis are obtained and registered in the table.

このヒストグラムの具体例を第3図に示す。この図にお
いて、130は特徴付け処理画像であり、上端の数字列は
Xアドレスの下位1桁を示し、左端の数字列はYアドレ
スを示し、それ以外の数字が方向コード(特徴画素)で
ある。
A specific example of this histogram is shown in FIG. In this figure, 130 is a characterization processing image, the uppermost number string shows the lower one digit of the X address, the leftmost number string shows the Y address, and the other numbers are direction codes (characteristic pixels). .

この画像130の特徴画素のX方向軸への射影のヒストグ
ラムHXiと、Y方向軸への射影のヒストグラムHYjは、そ
れぞれ図示のような型式のテーブル132,134に登録され
る。
The histogram HXi of the projection of the characteristic pixel of the image 130 on the X-axis and the histogram HYj of the projection on the Y-axis are registered in the tables 132 and 134 of the type shown in the drawing, respectively.

なお、このような特徴画素総数の計数やヒストグラム・
テーブルの作成は、特徴付け処理の後に独立に行うこと
もできるが、同時実行のほうが、文字画像のスキャン走
査の回数が減るなど、処理時間を短縮できる利点があ
る。
In addition, such counting of the total number of feature pixels and histogram
The table can be created independently after the characterization process, but the simultaneous execution has an advantage that the processing time can be shortened because the number of scanning scans of the character image is reduced.

また、この実施例および他の実施例においては、文字画
像の横方向をX方向、縦方向をY方向とするが、その関
係を逆にしてもよいことは勿論である。
Further, in this embodiment and other embodiments, the horizontal direction of the character image is the X direction and the vertical direction is the Y direction, but it goes without saying that the relationship may be reversed.

次に、文字画像がX方向へのN分割処理(ステップ102
〜114)と、Y方向へのM分割処理(ステップ116〜12
8)が行われることにより、文字画像は特徴画素をでき
るだけ均等に含むN×M個のメッシュ領域に分割され
る。このようにすることにより、文字の変形に適応した
メッシュ領域分割が可能であり、固定した位置で分割し
た場合における前述のような問題を解消できる。
Next, the character image is divided into N parts in the X direction (step 102).
To 114) and M division processing in the Y direction (steps 116 to 12).
By performing 8), the character image is divided into N × M mesh regions that include the characteristic pixels as evenly as possible. By doing so, it is possible to perform mesh region division adapted to the deformation of characters, and it is possible to solve the above-mentioned problem when dividing at a fixed position.

以下、各処理ステップの内容について順を追って説明す
る。
The contents of each processing step will be described below in order.

カウンタn,iおよびレジスタPの初期設定(ステップ10
2)の後、カウンタiがインクリメントされ(ステップ1
06)、その値(i)に対応するヒストグラムHXiの値が
テーブルから読み出されてレジスタPの値に加算されて
レジスタPに再設定される(ステップ108)。
Initial setting of counters n and i and register P (step 10
After 2), the counter i is incremented (step 1
06), the value of the histogram HXi corresponding to the value (i) is read from the table, added to the value of the register P, and reset in the register P (step 108).

レジスタPの値(P)が(PE/N)×nを越えたか調べら
れる(ステップ110)。
It is checked whether the value (P) of the register P exceeds (PE / N) × n (step 110).

この判定結果がNOならば、ステップ104から同様な処理
が繰り返される。
If the determination result is NO, the same processing is repeated from step 104.

この処理は実質的には、Xアドレスを1ずつ増加させな
がら、画像のラスタースキャンを行って特徴画素の個数
(P)を計数し、その個数を(PE/N)×nと比較してい
るわけである。しかし、このようなラスタースキャン、
さらには総数PEを求めるためのラスタースキャンを繰り
返すのは非能率である。
In this process, the number of characteristic pixels (P) is counted by increasing the X address by 1 and the number of characteristic pixels is compared with (PE / N) × n. That is why. But such a raster scan,
Furthermore, it is inefficient to repeat the raster scan to find the total PE.

そこで、この実施例においては、画像のラスタースキャ
ンを伴う特徴付け処理段階において、ヒストグラムHXi,
HYjおよび総数PEを同時に求めておき、それを利用する
ことによってラスタースキャンを行わないようにして処
理の能率向上を図っている。
Therefore, in this embodiment, in the characterization processing step involving raster scanning of the image, the histogram HXi,
HYj and total PE are obtained at the same time, and by using them, raster scanning is not performed and processing efficiency is improved.

さて、P≧(PE/N)×nとなった場合、その時のカウン
タiの値が、n番目のX方向分割領域の終点のXアドレ
スとして記憶され、また、そのXアドレスから領域重な
り幅Tを差し引いたXアドレスが(n+1)番目のX方
向分割領域の始点のXアドレスとして記憶される(ステ
ップ112)。
When P ≧ (PE / N) × n, the value of the counter i at that time is stored as the X address of the end point of the nth X-direction divided area, and the area overlap width T is calculated from the X address. The X address obtained by subtracting is stored as the X address of the starting point of the (n + 1) th X-direction divided area (step 112).

なお、1番目のX方向分割領域の始点は文字画像の左端
(X=0)、最後つまりN番目のX方向分割領域の終点
は文字画像の右端である。
The start point of the first X-direction divided area is the left end (X = 0) of the character image, and the end point, that is, the end point of the N-th X-direction divided area is the right end of the character image.

ステップ112の次にカウンタnがインクリメントされ
(ステップ114)、次の分割点を求める処理が行われ
る。
After step 112, the counter n is incremented (step 114), and the process for obtaining the next division point is performed.

このような処理は、ステップ102でn=Nとなると終了
する。
Such processing ends when n = N in step 102.

Y方向の分割点の処理ステップ116〜128は前記処理ステ
ップ102〜114に対応するステップと同様の内容である。
The processing steps 116 to 128 for dividing points in the Y direction have the same contents as the steps corresponding to the processing steps 102 to 114.

たゞし、Xアドレスに関連したカウンタiの代わりにY
アドレスに関連したカウンタjが用いられる(ステップ
116,120,126)。また、ヒストグラムHXiの代わりにヒス
トグラムHYjが参照される(ステップ122)、ステップ12
4において分割数としてMが用いられる。
However, instead of the counter i associated with the X address, Y
The counter j associated with the address is used (step
116,120,126). Also, instead of the histogram HXi, the histogram HYj is referenced (step 122), step 12
In 4, M is used as the number of divisions.

ステップ124の判定条件が成立すると、ステップ126にお
いて、カウンタjの値(j)がn番目のY方向分割領域
の終点のYアドレスとされ、そのYアドレスから領域の
重なり幅Tを差し引いた値が(n+1)番目のY方向分
割領域の始点のYアドレスとされる。
When the determination condition of step 124 is satisfied, in step 126, the value (j) of the counter j is set as the Y address of the end point of the n-th Y-direction divided area, and the value obtained by subtracting the overlapping width T of the area from the Y address. It is the Y address of the start point of the (n + 1) th Y-direction divided area.

なお、1番目のY方向分割領域の始点は文字画像の上端
とされ、M番目のY方向分割領域の終点は文字画像の下
端とされる。
The start point of the first Y-direction divided area is the upper end of the character image, and the end point of the M-th Y-direction divided area is the lower end of the character image.

このようにしてX方向およびY方向の分割点が求められ
ることにより、それら分割点によって文求画像はX,Y方
向にN×M個のメッシュ領域に分割される。
By obtaining the division points in the X and Y directions in this way, the sentence-obtained image is divided into N × M mesh regions in the X and Y directions by the division points.

本実施例によれば、第10図の(a)および(b)の文字
画像は、第4図の(a)および(b)のように領域分割
される。たゞし、N=M=3,T=0とした場合である。
According to the present embodiment, the character images of FIGS. 10 (a) and (b) are divided into regions as shown in FIGS. 4 (a) and (b). However, this is the case where N = M = 3 and T = 0.

第4図(a)の左上隅の分割領域には、固定分割点では
取り込めなかった「ウ」の上部突出部が取り込まれてい
ることがわかる。(b)の場合も同様である。
It can be seen that the upper protruding portion of "C", which could not be captured at the fixed division point, is incorporated in the divided region in the upper left corner of FIG. 4 (a). The same applies to the case of (b).

実施例2 この実施例における処理について、第5図に示すフロー
チャートに沿って説明する。
Example 2 The process in this example will be described with reference to the flowchart shown in FIG.

ステップ200は実施例1のステップ100と同様の処理ステ
ップであるが、ヒストグラムはY方向軸への射影のヒス
トグラムHYjだけが求められる。
Step 200 is the same processing step as step 100 of the first embodiment, but only the histogram HYj of the projection on the Y-axis is obtained as the histogram.

ステップ202は文字画像をY方向にM分割する処理ステ
ップであり、実施例1のステップ116〜128と同じ処理で
ある。
Step 202 is a process step of dividing the character image into M parts in the Y direction, and is the same process as steps 116 to 128 of the first embodiment.

ステップ204〜218は文字画像をX方向にN分割する処理
部分である。各処理ステップの内容について順に説明す
る。
Steps 204 to 218 are processing portions for dividing the character image into N in the X direction. The contents of each processing step will be described in order.

カウンタn,iおよびレジスタPの初期設定(ステップ20
4)の後、カウンタiがインクリメントされ(ステップ2
06)、その値(i)に対応するXアドレスについて文字
画像Y方向にラスタースキャンされ、そのラインの方向
コード付与画素の個数が計数され(ステップ210)、そ
の値PiがレジスタPに計数される(ステップ212)。
Initial setting of counters n and i and register P (step 20
After 4), the counter i is incremented (step 2
06), the X address corresponding to the value (i) is raster-scanned in the Y direction of the character image, the number of direction code added pixels of the line is counted (step 210), and the value Pi is counted in the register P. (Step 212).

レジスタPの値(P)が(PE/(N×M)×n)を越え
たか調べられる(ステップ214)。
It is checked whether the value (P) of the register P exceeds (PE / (N × M) × n) (step 214).

この判定結果がNOならば、ステップ208から同様な処理
が繰り返される。
If the determination result is NO, the same processing is repeated from step 208.

P≧(PE/(N×M)×n)となった場合、その時のカ
ウンタiの値がn番目のX方向分割領域の終点のXアド
レスとして記憶され、また、そのXアドレスから領域重
なり幅Tを差し引いたXアドレスが(n+1)番目のX
方向分割領域の始点のXアドレスとして記憶される(ス
テップ216)。
When P ≧ (PE / (N × M) × n), the value of the counter i at that time is stored as the X address of the end point of the n-th X-direction divided area, and the area overlap width from the X address is stored. The X address less T is the (n + 1) th X
It is stored as the X address of the starting point of the direction division area (step 216).

なお、1番目のX方向分割領域の始点は文字画像の左端
(X=0)、最後つまりN番目のX方向分割領域の終点
は文字画像の右端である。
The start point of the first X-direction divided area is the left end (X = 0) of the character image, and the end point, that is, the end point of the N-th X-direction divided area is the right end of the character image.

ステップ216の次にカウンタnがインクリメントされ
(ステップ218)、次の分割点を求める処理が行われ
る。
After step 216, the counter n is incremented (step 218), and the process for obtaining the next division point is performed.

このような処理は、ステップ206でn=Nとなると終了
する。
Such processing ends when n = N in step 206.

このようにしてX方向およびY方向の分割点が求めら
れ、それら分割点によって文字画像はX,Y方向にN×M
個のメッシュ領域に分割される。
In this way, the division points in the X and Y directions are obtained, and the character image is N × M in the X and Y directions by these division points.
Is divided into mesh regions.

さて、文字「ヌ」は文字「ス」と非常に類似しており、
両者の識別には左上がりの斜めストロークが重要であ
る。そこで「ヌ」の文字画像を前記実施例1の方式で3
×3に分割すると、第6図(a)に示すような結果にな
る。左側中段の分動領域(1,2)を見ると、重要な特徴
である左上がり斜めストロークの情報が取り込まれてい
ないことがわかる。
Now, the letter "nu" is very similar to the letter "su",
A diagonal stroke to the left is important for distinguishing between the two. Therefore, the character image of "nu" is generated by the method of the first embodiment.
Dividing into × 3 results in the result shown in FIG. 6 (a). If you look at the left side middle divergence region (1, 2), you can see that the important feature, that is, the information about the upward-sloping diagonal stroke, is not captured.

次に本実施例により同じ「ヌ」の文字画像の領域分割を
行うと、その結果は第6図(b)のようになる。たゞ
し、中段のY方向領域に対するX方向領域分割の結果だ
けが示されている。またT=0としている。分割領域
(1,2)を見ると、左上がり斜めストロークの情報が取
り込まれていることがわかる。このように本実施例によ
れば、実施例1の弱点を補完できる。
Next, when the same "nu" character image is divided into regions according to this embodiment, the result is as shown in FIG. 6 (b). However, only the result of the X-direction area division for the middle Y-direction area is shown. Also, T = 0. Looking at the divided areas (1, 2), it can be seen that the information of the diagonal stroke rising to the left is captured. As described above, according to this embodiment, the weak points of the first embodiment can be complemented.

なお、以上の説明では実施例1の方法でY方向の分割を
行ったが、X方向の分割を行った後、各分割領域につい
て第5図のフローチャートに示したと同様な処理により
Y方向分割を行ってもよい。
In the above description, the Y-direction division is performed by the method of the first embodiment, but after the X-direction division is performed, the Y-direction division is performed for each divided area by the same processing as that shown in the flowchart of FIG. You can go.

実施例3 実施例2においては、領域の重なり部分に特徴画素(方
向コード付与画素)が集中した場合、PE/(N×M)を
基準として領域分割点を決定すると、X,Y各方向の分割
領域内での画素数のバラツキが大きくなる。
Third Embodiment In the second embodiment, when the characteristic pixels (direction code added pixels) are concentrated in the overlapping portion of the areas, if the area division point is determined based on PE / (N × M), the X and Y directions are determined. The variation in the number of pixels in the divided area becomes large.

本実施例によれば、そのような問題を解消できる。以
下、第7図のフローチャートに沿って、本実施例におけ
る処理について説明する。
According to this embodiment, such a problem can be solved. The processing in this embodiment will be described below with reference to the flowchart in FIG.

ステップ300は実施例1のステップ100と同じ処理内容で
ある。
Step 300 has the same processing contents as step 100 of the first embodiment.

ステップ302はY方向分割処理であり、実施例1のステ
ップ116〜128と同様である。たゞし、Y方向分割と同時
に、ヒストグラムHYjを参照して、各Y方向分割領域内
の特徴画素数Pmが求められる。
Step 302 is Y-direction division processing, which is the same as steps 116 to 128 of the first embodiment. However, simultaneously with the Y-direction division, the number of characteristic pixels Pm in each Y-direction division area is obtained by referring to the histogram HYj.

ステップ304〜318はX方向分割の処理部分である。各ス
テップの処理内容について以下説明する。
Steps 304 to 318 are the processing part of the X direction division. The processing contents of each step will be described below.

カウンタn,iおよびレジスタPの初期設定(ステップ30
4)の後、カウンタiがインクリメントされ(ステップ3
08)、その値(i)に対応するXアドレスについて文字
画像がY方向にラスタースキャンされ、そのラインの方
向コード付与画素の個数が計数され(ステップ310)、
その値PiがレジスタPに加算される(ステップ312)。
そして、レジスタPの値(P)が(Pm/N)×nを越えた
か調べられる(ステップ314)。
Initial setting of counters n and i and register P (step 30
After 4), the counter i is incremented (step 3
08), the character image is raster scanned in the Y direction for the X address corresponding to the value (i), and the number of direction code added pixels of the line is counted (step 310).
The value Pi is added to the register P (step 312).
Then, it is checked whether the value (P) of the register P exceeds (Pm / N) × n (step 314).

この判定結果がNOならば、ステップ308から同様な処理
が繰り返される。
If the determination result is NO, the same processing is repeated from step 308.

P≧(Pm/N)×nとなった場合、その時のカウンタiの
値がn番目のX方向分割領域の終点のXアドレスとして
記憶され、また、そのXアドレスから領域重なり幅Tを
差し引いたXアドレスが(n+1)番目のX方向分割領
域の始点のXアドレスとして記憶される(ステップ31
6)。
When P ≧ (Pm / N) × n, the value of the counter i at that time is stored as the X address of the end point of the n-th X-direction divided area, and the area overlap width T is subtracted from the X address. The X address is stored as the X address of the starting point of the (n + 1) th X-direction divided area (step 31).
6).

なお、1番目のX方向分割領域の始点は文字画像の左端
(X=0)、最後つまりN番目のX方向分割領域の終点
は文字画像の右端である。
The start point of the first X-direction divided area is the left end (X = 0) of the character image, and the end point, that is, the end point of the N-th X-direction divided area is the right end of the character image.

ステップ316の次にカウンタnがインクリメントされ
(ステップ318)、次の分割点を求める処理が行われ
る。
After step 316, the counter n is incremented (step 318), and the process for obtaining the next division point is performed.

このような処理は、ステップ306でn=Nとなると終了
する。
Such processing ends when n = N in step 306.

このようにして、各Y方向分割領域に対するX方向分割
位置が求められることにより、文字画像は全体としてN
×M個のメッシュ領域に分割される。
In this way, the X-direction division position for each Y-direction division area is obtained, so that the character image as a whole is N
It is divided into × M mesh regions.

「ヌ」の文字画像について、T=1として実施例2によ
り領域分割すると第8図の(a)のようになる。同じ文
字画像について、本実施例によりT=1として領域分割
した結果を第8図の(b)に示す。たゞし、何れの場合
も、先にY方向分割し、次にX方向分割している。ま
た、図には中段のY方向領域のX方向分割の結果だけが
示されている。
When the character image of "nu" is divided into regions according to the second embodiment with T = 1, the result is as shown in FIG. FIG. 8B shows the result of region division for the same character image with T = 1 according to this embodiment. However, in any case, the Y direction division is performed first, and then the X direction division is performed. Further, in the figure, only the result of the division of the middle Y-direction region in the X-direction is shown.

第8図の(b)の領域(1,2)には、(a)の同領域よ
りも左上がり斜めストロークの特徴がより的確に反映し
ていることがわかる。このように、分割点に特徴画素が
集中している場合でも、本実施例によれば適切な領域分
割が可能である。
It can be seen that the region (1, 2) in FIG. 8B more accurately reflects the characteristic of the upward-sloping diagonal stroke than the region (1, 2) in FIG. As described above, even when the characteristic pixels are concentrated at the division points, the appropriate area division is possible according to the present embodiment.

第9図は前記各実施例における領域分割処理を実行する
ための処理装置の一例を示す概略ブロック図である。40
0はイメージメモリであり、処理すべき文字画像および
その特徴付け処理画像の記憶に用いられる。402は中央
演算処理ユニット(CPU)であり、404は主メモリであ
る。この主メモリ404は、前記各処理のためにプログラ
ム、前記ヒストグラムのテーブル、前記各カウンタなど
の記憶に用いられる。CPU402はバス405を介してイメー
ジメモリ400、走査回路401および主メモリ404をアクセ
スすることができる。
FIG. 9 is a schematic block diagram showing an example of a processing apparatus for executing the area division processing in each of the above-mentioned embodiments. 40
An image memory 0 is used to store a character image to be processed and its characterizing processed image. Reference numeral 402 is a central processing unit (CPU), and 404 is a main memory. The main memory 404 is used for storing programs, the histogram table, the counters, and the like for the respective processes. The CPU 402 can access the image memory 400, the scanning circuit 401, and the main memory 404 via the bus 405.

CPU402はイメージメモリ400をアクセスしながら、文字
画像特徴付け処理を施し、同時に特徴画素の総数とヒス
トグラムを求める。処理後の画像はイメージメモリ400
上に置かれるが、特徴画素の総数およびヒストグラムは
主メモリ404に記憶される。
The CPU 402 performs character image characterizing processing while accessing the image memory 400, and at the same time obtains the total number of characteristic pixels and a histogram. The image after processing is image memory 400
Above, the total number of feature pixels and the histogram are stored in main memory 404.

その後に分割位置の決定処理については、CPU402は主メ
モリ404内のヒストグラムのテーブルおよび総画素数を
参照しながら、またはイメージメモリ400内の特徴付け
処理画像も参照しながら、処理を実行し、処理結果を主
メモリ404の特定記憶域に格納する。
Thereafter, for the division position determination processing, the CPU 402 executes the processing while referring to the histogram table in the main memory 404 and the total number of pixels, or also referring to the characterization processing image in the image memory 400. The result is stored in a specific storage area of the main memory 404.

以上、本発明の実施例について詳細に説明したが、本発
明はそれだけに限定されるものではなく、種々変形して
実施し得るものである。
Although the embodiments of the present invention have been described in detail above, the present invention is not limited thereto and can be variously modified and implemented.

例えば、前記実施例における特徴付け処理は方向コード
付け処理であったが、それ以外の特徴付け処理を施すこ
とも可能である。
For example, the characterization processing in the above-described embodiment is the direction coding processing, but other characterization processing can be performed.

また、前記各実施例の処理内容を組み合せることも可能
である。
It is also possible to combine the processing contents of the above-mentioned embodiments.

さらに本発明は、ハードウェアだけで実施することも可
能である。
Further, the present invention can be implemented by hardware only.

〔効果〕 以上の説明から明らかなように、本発明によれば、文字
画像に応じて最適な領域分割を行うことができ、安定な
特徴抽出が可能となるとゝもに、その処理も比較的単純
で時間のかゝる複雑な演算を含まないから、高速処理が
可能であるなどの効果を得られる。
[Effect] As is apparent from the above description, according to the present invention, it is possible to perform optimal area division according to a character image, and stable feature extraction becomes possible. Since simple and time-consuming complicated operations are not included, high-speed processing is possible.

【図面の簡単な説明】[Brief description of drawings]

第1図は本発明の実施例1における領域分割処理の概略
フローチャート、第2図は方向コードの説明図、第3図
は特徴画素のヒストグラムの例を示す図、第4図は実施
例1による領域分割結果の例を示す図、第5図は本発明
の実施例2における領域分割処理の概略フローチャー
ト、第6図は実施例1と実施例2による領域分割結果の
例を示す図、第7図は本発明の実施例3における領域分
割処理の概略フローチャート、第8図は実施例2と実施
例3による領域分割結果の例を示す図、第9図は各実施
例の処理を実行するための処理装置の一例を示す概略ブ
ロック図、第10図は固定位置で領域分割した場合の問題
点を説明するための図である。 400…イメージメモリ、402…中央演算処理ユニット、40
4…主メモリ。
FIG. 1 is a schematic flowchart of a region dividing process in the first embodiment of the present invention, FIG. 2 is an explanatory diagram of direction codes, FIG. 3 is a diagram showing an example of a histogram of characteristic pixels, and FIG. 4 is according to the first embodiment. FIG. 5 is a diagram showing an example of region division results, FIG. 5 is a schematic flowchart of region division processing in the second embodiment of the present invention, and FIG. 6 is a diagram showing examples of region division results according to the first and second embodiments. FIG. 8 is a schematic flowchart of the area division processing in the third embodiment of the present invention, FIG. 8 is a diagram showing an example of the area division result according to the second and third embodiments, and FIG. 9 is for executing the processing of each embodiment. FIG. 10 is a schematic block diagram showing an example of the processing device of FIG. 10, and FIG. 10 is a diagram for explaining a problem when area division is performed at a fixed position. 400 ... Image memory, 402 ... Central processing unit, 40
4 main memory.

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】一定のアルゴリズムにより2値の文字画像
に特徴付けを行い、それと同時にまたはその後に特徴画
素の総数とX方向およびY方向への射影のヒストグラム
HXiおよびHYjを求め、前記総数および前記ヒストグラム
HXi,HYjに基づき特徴画素をほぼ均等に含む複数のメッ
シュ領域に前記文字画像をX方向およびY方向に分割す
ることを特徴とする領域分割方法。
1. A method for characterizing a binary character image by a certain algorithm, and at the same time or thereafter, a histogram of the total number of characteristic pixels and the projection in the X and Y directions.
HXi and HYj are calculated, and the total number and the histogram are obtained.
An area dividing method characterized in that the character image is divided into a plurality of mesh areas including characteristic pixels substantially uniformly based on HXi and HYj in the X direction and the Y direction.
【請求項2】一定のアルゴリズムにより2値の文字画像
に特徴付けを行い、それと同時にまたはその後に特徴画
素の総数およびX方向への射影のヒストグラムHXiを求
め、総数および前記ヒストグラムHXiに基づき特徴画素
をほぼ均等に含むN個の領域に前記文字画像をX方向に
分割し、前記各X方向分割領域内をYアドレスを1ずつ
増加させながらX方向にスキャンして特徴画素を計数
し、その計数値と前記総数とに基づき、前記各X方向分
割領域内を特徴画素をほぼ均等に含むM個の領域に分割
することにより、前記文字画像をN×M個のメッシュ領
域に分割することを特徴とする領域分割方法。
2. A binary character image is characterized by a certain algorithm, and at the same time or thereafter, a total number of characteristic pixels and a histogram HXi of projections in the X direction are obtained, and the characteristic pixels are calculated based on the total number and the histogram HXi. The character image is divided in the X direction into N areas including substantially evenly, and each of the X direction divided areas is scanned in the X direction while increasing the Y address by 1, and the characteristic pixels are counted. The character image is divided into N × M mesh regions by dividing each of the X-direction divided regions into M regions including the characteristic pixels substantially evenly based on the numerical value and the total number. Area segmentation method.
【請求項3】一定のアルゴリズムにより2値の文字画像
に特徴付けを行い、それと同時にまたはその後に特徴画
素の総数PEおよびX方向への射影のヒストグラムHXiを
求め、前記総数PEおよび前記ヒストグラムHXiに基づき
特徴画素を均等に含むN個の領域に前記文字画像をX方
向に分割し、それと同時にまたはその後に前記各X方向
分割領域内の特徴素数Pmを求め、前記X方向分割領域内
をYアドレスを1ずつ増加させながらX方向にスキャン
して特徴画素を計数し、その計数値と前記画素数Pmとに
基づき、前記各X方向分割領域内を特徴画素をほぼ均等
に含むM個の領域に分割することにより、前記文字画像
をN×M個のメッシュ領域に分割することを特徴とする
領域分割方法。
3. A binary character image is characterized by a certain algorithm, and at the same time or thereafter, a total number PE of characteristic pixels and a histogram HXi of projections in the X direction are obtained, and the total number PE and the histogram HXi are obtained. Based on this, the character image is divided into N areas including characteristic pixels evenly in the X direction, and at the same time or after that, the number of characteristic primes Pm in each X direction divided area is calculated, and the Y direction is set in the X direction divided area. Is incremented by 1 and scanned in the X direction to count the characteristic pixels, and based on the count value and the number of pixels Pm, each X-direction divided area is divided into M areas including the characteristic pixels substantially evenly. An area dividing method, wherein the character image is divided into N × M mesh areas by dividing.
JP61251537A 1986-05-19 1986-10-22 Area division method Expired - Fee Related JPH0795335B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP61251537A JPH0795335B2 (en) 1986-10-22 1986-10-22 Area division method
DE19873716787 DE3716787A1 (en) 1986-05-19 1987-05-19 CHARACTER RECOGNITION METHOD
GB8711738A GB2190778B (en) 1986-05-19 1987-05-19 Character recognition with variable subdivisions of a character region
US07/241,825 US4903312A (en) 1986-05-19 1988-09-06 Character recognition with variable subdivisions of a character region

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP61251537A JPH0795335B2 (en) 1986-10-22 1986-10-22 Area division method

Publications (2)

Publication Number Publication Date
JPS63106088A JPS63106088A (en) 1988-05-11
JPH0795335B2 true JPH0795335B2 (en) 1995-10-11

Family

ID=17224289

Family Applications (1)

Application Number Title Priority Date Filing Date
JP61251537A Expired - Fee Related JPH0795335B2 (en) 1986-05-19 1986-10-22 Area division method

Country Status (1)

Country Link
JP (1) JPH0795335B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2937729B2 (en) * 1993-12-21 1999-08-23 株式会社バーズ情報科学研究所 Pattern recognition method and apparatus and dictionary creation method

Also Published As

Publication number Publication date
JPS63106088A (en) 1988-05-11

Similar Documents

Publication Publication Date Title
US5048099A (en) Polygon-based method for automatic extraction of selected text in a digitized document
US4903312A (en) Character recognition with variable subdivisions of a character region
JPH11219407A (en) Document image recognizing device and storage medium for document image recognizing program
CN110619333B (en) Text line segmentation method, text line segmentation device and electronic equipment
CN108334879B (en) Region extraction method, system and terminal equipment
CN113449534B (en) Two-dimensional code image processing method and device
JP2013114655A (en) Image processing device, image processing method, and computer program
JPS59136875A (en) Pattern identifier
CN116976372A (en) Picture identification method, device, equipment and medium based on square reference code
CN111368572A (en) Two-dimensional code identification method and system
JPH0795335B2 (en) Area division method
CN112800824B (en) Method, device, equipment and storage medium for processing scanned file
CN115049713A (en) Image registration method, device, equipment and readable storage medium
CN114550062A (en) Method and device for determining moving object in image, electronic equipment and storage medium
CN114611540A (en) One-dimensional code image area identification method based on digital image processing and electronic equipment
CN111508045A (en) Picture synthesis method and device
JP4194309B2 (en) Document direction estimation method and document direction estimation program
JPS63103392A (en) Character recognizing system
JP2004334461A (en) Character recognition device and character recognition program
CN111526263B (en) Image processing method, device and computer system
JP3534997B2 (en) Ruled line extraction device and method
JP3104355B2 (en) Feature extraction device
CN118096790A (en) Data extraction method and device, electronic equipment and storage medium
JPH0217588A (en) System for eliminating unnecessary data at the time of generating character outline
JP3566738B2 (en) Shaded area processing method and shaded area processing apparatus

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees