JPH0252313B2 - - Google Patents

Info

Publication number
JPH0252313B2
JPH0252313B2 JP56174327A JP17432781A JPH0252313B2 JP H0252313 B2 JPH0252313 B2 JP H0252313B2 JP 56174327 A JP56174327 A JP 56174327A JP 17432781 A JP17432781 A JP 17432781A JP H0252313 B2 JPH0252313 B2 JP H0252313B2
Authority
JP
Japan
Prior art keywords
character
pair
feature
scan
intersections
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP56174327A
Other languages
Japanese (ja)
Other versions
JPS5875279A (en
Inventor
Atsushi Tsukumo
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
Nippon Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Electric Co Ltd filed Critical Nippon Electric Co Ltd
Priority to JP56174327A priority Critical patent/JPS5875279A/en
Publication of JPS5875279A publication Critical patent/JPS5875279A/en
Publication of JPH0252313B2 publication Critical patent/JPH0252313B2/ja
Granted legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/18Extraction of features or characteristics of the image
    • G06V30/186Extraction of features or characteristics of the image by deriving mathematical or geometrical properties from the whole image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Algebra (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Physics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Character Discrimination (AREA)

Description

【発明の詳細な説明】 本発明は、漢字、ひらがな、かたかな、英数字
等のような多字種の文字の分類方式に関する。
DETAILED DESCRIPTION OF THE INVENTION The present invention relates to a classification system for multi-character types such as kanji, hiragana, katakana, alphanumeric characters, etc.

従来の英数字、かな、記号の他に漢字を読取対
象とする文字認識方式では、読取対象文字種が多
いために、対象文字種全体から分類を行なつて直
接に判定結果を出すよりも、第一段階として大分
類を行ない、候補を絞つて次の分類を行なうとい
う階層的な分類法が望まれている。
With conventional character recognition methods that read kanji in addition to alphanumeric characters, kana, and symbols, there are many types of characters to read, so it is difficult to classify the entire target character types and directly produce judgment results. A hierarchical classification method is desired in which major classification is performed in stages, candidates are narrowed down, and the next classification is performed.

この場合の大分類方式は、まず処理対象が多い
ことから比較的簡単に実現でき、かつ効率的な方
法が望まれる。
In this case, since there are many objects to be processed, a method that is relatively easy to implement and efficient is desired.

これまでに発表された大分類法では、縦方向、
横方向の複雑さを求めて二次元ベクトルとして分
類を行なうものがあるが、印刷文字に対して効果
があるものの手書き文字に対してはベクトル要素
数が少ないことから、その分類精度には限界があ
る。
In the major classification methods announced so far, vertical direction,
There are methods that perform classification as two-dimensional vectors based on horizontal complexity, but although this method is effective for printed characters, the number of vector elements is small for handwritten characters, so there is a limit to its classification accuracy. be.

また入力文字2値パタンを外接矩形の縦横の辺
のそれぞれをN分割することによつてN2個の矩
形領域に分け、各矩形領域内に含まれる文字部の
黒ビツトの絶対個数を特徴とする方法では、印刷
文字に対しては有効であるが、手書き文字に対し
ては、文字の一部の変形が特徴全体に影響すると
いう欠点があつた。
In addition, the input character binary pattern is divided into N2 rectangular areas by dividing each of the vertical and horizontal sides of the circumscribed rectangle into N parts, and the absolute number of black bits of the character part included in each rectangular area is characterized. Although this method is effective for printed characters, it has the disadvantage that deformation of a portion of the character affects the entire feature for handwritten characters.

また入力文字2値パタンを外接矩形内で垂直方
向、水平方向、斜め2方向の計4方向についてN
箇所で走査して、文字部との交差回数を4×N次
元のベクトルとして特徴づける方向があり、手書
き文字に対して効果をあげているものの、各交差
回数を抽出する位置が固定している点で、一部の
変形が特徴全体に影響し、またベクトルの次元数
は実験的にN=32位の値が適当ということで全体
では128次元となり、実際の装置ではかなり大が
かりなものになる。またこの分類方式の後にくる
認識方式を別に独立に作らなければならないとい
う点が、やはり実際の装置化を行なう際に問題に
なる。
In addition, the input character binary pattern is N
There is a direction in which the number of intersections with a character part is characterized as a 4 x N-dimensional vector by scanning at a location, and although this is effective for handwritten characters, the position from which each number of intersections is extracted is fixed. Some transformations affect the entire feature, and the number of dimensions of the vector is experimentally determined to be N = 32nd, resulting in a total of 128 dimensions, which would be quite large in actual equipment. . Furthermore, the fact that the recognition method that follows this classification method must be created separately is a problem when implementing an actual device.

本発明の目的は、単独でも比較的簡単に実現で
き、また後続の認識方式によつてはは整合できる
特徴を用いることにより、装置化するときにより
効果をもたらす文字分類方式を提供することにあ
る。
An object of the present invention is to provide a character classification method that is more effective when incorporated into a device by using features that can be realized relatively easily even when used alone, and that can be matched depending on subsequent recognition methods. .

以下本発明について文字画面上の走査方向を水
平方向、垂直方向の2方向を例として、図を用い
て詳細な説明を行なう。
The present invention will now be described in detail with reference to the drawings, taking two scanning directions on a character screen, horizontal and vertical, as examples.

第1図a,bは文字画面(本発明においては文
字等の記載された書面あるいは、その書面を走査
して得られたパタン信号を記憶して成る画面を含
むものである)上を水平方向及び垂直方向に走査
して背景部の点を特徴づける例を示しており、同
図aの上側に示す文字「土」に対して点Aでは文
字ストロークと上方向に0回、前記上方向に対応
する下方向に2回、左方向に0回、前記左方向に
対応する右方向に1回だけ交差していることを示
しており、点Bでは、同様に考えると上方向に1
回、下方向に1回、右方向に0回だけ交差してお
り、同図aの下側に各点における交差数を模式化
して示している。
Figures 1a and 1b show horizontal and vertical images on a character screen (in the present invention, this includes a document on which characters are written, or a screen that stores pattern signals obtained by scanning the document). An example is shown in which points in the background are characterized by scanning in the direction, and for the character "earth" shown in the upper part of figure a, at point A, the character stroke corresponds to the upper direction 0 times, and the character stroke corresponds to the upper direction. This shows that it crosses downward twice, to the left zero times, and once to the right, which corresponds to the left direction, and at point B, if we consider the same way, it intersects once upward.
The number of intersections at each point is schematically shown in the lower part of the figure (a).

同図bの上側に示す文字「土」に対して点Cで
は上方向に1回、下方向に1回、左方向に0回、
右方向に1回だけ交差していることを示してお
り、点Dでは上方向に0回下方向に1回、左方向
に1回、右方向に0回だけ交差しており、同図b
の下側に各点における交差数を模式化して示して
いる。点Bが左方向に1回、点Cが左方向に0回
交差しているのは、走査方向とをストロークの傾
きとを考慮して交差数を計数しているからであ
る。この特徴をそのまま用いる方式として、同一
出願人により昭和56年10月22日付出願の「文字認
識方式」があるが、前記方式は処理量が多く、単
独で扱うよりも、前段に候補文字を絞る処理を置
き少数候補文字に対して用いることにより、実現
性の点において効果が出る。
At point C, with respect to the character "earth" shown in the upper part of figure b, it moves upward once, downward once, and leftward zero times.
It shows that it intersects only once in the right direction, and at point D, it intersects zero times upward, once downward, once leftward, and zero times rightward.
The number of intersections at each point is schematically shown below. The reason why point B intersects leftward once and point C intersects leftward zero times is because the number of intersections is counted in consideration of the scanning direction and the inclination of the stroke. As a method that uses this feature as is, there is a "character recognition method" filed by the same applicant on October 22, 1980, but this method requires a large amount of processing, and rather than handling it alone, candidate characters are narrowed down to the first stage. By applying the processing to a small number of candidate characters, an effect can be obtained in terms of feasibility.

本発明で目的としているのは、上記特徴のうち
の一部の特徴を用いることにより処理量の少ない
大分類を行なうことである。
An object of the present invention is to perform broad classification with a small amount of processing by using some of the above features.

第2図a,b,cは上述の特徴から方向別特徴
情報として、垂直方向の特徴と、字種により前記
垂直方向の特徴の出方が異なることを示してい
る。図中cijは上方向走査でi回、前記上方向走
査に対応する下方向走査でj回だけストロークと
交差することを示す特徴で、同図aに示す文字
「王」は垂直方向の特徴、すなわち、上方向走査
での交差数を、前記走査に対応する下方向走査で
の走査数との対で同一内容を持つ対がC01、C02、
C03、C10、C11、C12、C20、C21、C30の9種類
あるのに対し、同図b,cに示す文字「土」及び
文字「土」は垂直方向の特徴がC01、C02、C10、
C11、C20の5種類でその特徴の出方が異なる。
なお、各特徴を各文字に対応させて同図右側に示
している。
FIGS. 2a, b, and c show vertical features and how the vertical features appear differently depending on the type of character, as direction-specific feature information based on the above-mentioned features. In the figure, cij is a feature indicating that the stroke intersects i times in the upward scan and j times in the downward scan corresponding to the upward scan, and the character "king" shown in a in the figure is a feature in the vertical direction. In other words, the pairs having the same content are C01, C02,
There are 9 types: C03, C10, C11, C12, C20, C21, and C30, whereas the character ``earth'' and the character ``earth'' shown in b and c of the same figure have vertical features of C01, C02, C10,
The five types, C11 and C20, have different characteristics.
Note that each feature is shown on the right side of the figure in correspondence with each character.

また文字「土」と文字「士」も特徴の種類は同
一であるが特徴がC10、特徴C01の出現頻度の違
いによつて、すなわち、特徴がC10やC01である
領域の面積によつて分類が可能である。
In addition, the character ``earth'' and the character ``shi'' have the same type of feature, but are classified based on the difference in the frequency of appearance of the feature C10 and feature C01, that is, the area of the area where the feature is C10 or C01. is possible.

第3図は本発明の構成の一実施例を示すブロツ
ク図であり、1は特徴抽出部で、文字画面上を走
査して画像信号10を入力信号として、前記各方
向別の交差回数を計数し、その結果を出力信号1
1として2の特徴パタン記憶部に書き込む。
FIG. 3 is a block diagram showing an embodiment of the configuration of the present invention, in which 1 is a feature extraction unit that scans the character screen and counts the number of intersections in each direction using the image signal 10 as an input signal. and output the result as output signal 1
1 and written into the feature pattern storage section 2.

3は方向別特徴抽出部で、特徴パタン記憶部2
から定められた方向対の交差数(例えば、上方向
走査により得られる交差数と前記上方向走査に対
応する下方向の走査により得られる交差数)を信
号21として、逐次読み込み、各方向別特徴とし
ての同一内容の方向対の出現頻度を計数し、特徴
パタン記憶部2上の全面に対して、上記処理を行
なつて方向別特微情報を信号31として方向別照
合部5に入力する。一方標準方向別情報記憶部4
は各文字種ごとにあらかじめ方向別の特徴情報と
しての方向対とその頻度とを格納し、標準方向別
情報信号41として方向別照合部5に送り出す。
方向別照合部5では入力文字パタンの方向別特徴
情報と、あらかじめ登録されている標準方向別情
報とをあらかじめ定められた評価式で評価値を求
め、その結果を信号51として出力する。
3 is a feature extraction unit for each direction, and a feature pattern storage unit 2
The number of intersections of a pair of directions determined from The frequency of appearance of direction pairs having the same contents as , is counted, and the above processing is performed on the entire surface of the feature pattern storage section 2 , and the direction specific feature information is inputted as a signal 31 to the direction matching section 5 . On the other hand, standard direction information storage section 4
stores direction pairs and their frequencies as feature information for each direction in advance for each character type, and sends them to the direction matching unit 5 as a standard direction information signal 41.
The direction matching section 5 calculates an evaluation value using a predetermined evaluation formula for the direction feature information of the input character pattern and the standard direction information registered in advance, and outputs the result as a signal 51.

次に本発明の各構成要素について詳細に説明す
る。
Next, each component of the present invention will be explained in detail.

第4図は特徴抽出部1が文字画面上を走査して
特徴を求めるときの走査方向の例を示す図であ
り、文字画面上をこの4方向の走査を行なうこと
によつて、各方向でのストロークとの交差数を求
めることができる。例えば第4図a,bのように
水平方向に走査するときには、第5図に示す7つ
の3×3のマスクパタン(‘*’はDon′tCareを
示す)と、これらを180゜回転したマスクパタンを
満足したときに、交差数を計数し、第4図c,d
のように垂直方向に走査するときには、第5図に
示す7つの3×3のマスクパタンを±90゜回転し
たマスクパタンを満足したときに交差数を計数す
るという処理を加えることで、特徴を求めること
ができる。
FIG. 4 is a diagram showing an example of the scanning direction when the feature extraction unit 1 scans the character screen to obtain features. By scanning the character screen in these four directions, The number of intersections with the stroke can be found. For example, when scanning in the horizontal direction as shown in Figures 4a and b, the seven 3x3 mask patterns shown in Figure 5 ('*' indicates Don'tCare) and the mask rotated by 180° are used. When the pattern is satisfied, count the number of intersections and
When scanning in the vertical direction as shown in Figure 5, features can be detected by adding a process of counting the number of intersections when the mask pattern obtained by rotating the seven 3x3 mask patterns shown in Figure 5 by ±90 degrees is satisfied. You can ask for it.

特徴パタン記憶部2では文字パタンの1画素に
対して、例えば文字部か背景部かを区別する1ビ
ツトと、1走査方向の交差数に対して3ビツト割
り当てて、上下左右4方向を使用するならば3ビ
ツト×4方向で12ビツトとの計13ビツトがあれ
ば、交差回数は0回から、7回までの8通りが記
述でき、漢字を対象とする場合には充分と考えら
れる。
The characteristic pattern storage unit 2 allocates one bit to each pixel of a character pattern to distinguish, for example, whether it is a character part or a background part, and three bits to the number of intersections in one scanning direction, and uses four directions: top, bottom, left, and right. Then, if there are 13 bits (3 bits x 12 bits in 4 directions), it is possible to describe 8 ways of crossing from 0 to 7 times, which is considered to be sufficient when dealing with kanji.

方向別特徴抽出部3では特徴パタン記憶部2の
画素を順次読み出し、垂直方向対と水平方向対を
特徴として抽出し、該当するそれぞれの特徴の頻
度用のカウンタの値を1つ増加する。垂直方向特
徴は、上方向が8通り、下方向が8通りの値をと
りうるので、その組合せは82=64通りで、64個の
カウンタを用意すればよく、水平方向特徴にして
も同様に64個のカウンタを用意すればよい。
The directional feature extraction section 3 sequentially reads out the pixels of the feature pattern storage section 2, extracts the vertical pair and the horizontal pair as features, and increments by one the value of the frequency counter for each corresponding feature. The vertical feature can take 8 values in the upward direction and 8 values in the downward direction, so the combinations are 8 2 = 64, so 64 counters need to be prepared, and the same is true for the horizontal feature. All you need to do is prepare 64 counters.

方向別特徴抽出部3から方向別照合部5への出
力信号31としては、垂直方向の64要素と水平方
向の64要素すべてを送り出してもよいが、これら
の中から有効な要素を複数個、例えば16要素ずつ
とり出して送り出すことも可能である。
As the output signal 31 from the direction-specific feature extraction unit 3 to the direction-specific matching unit 5, all 64 elements in the vertical direction and 64 elements in the horizontal direction may be sent, but a plurality of valid elements from among these may be sent. For example, it is possible to extract and send 16 elements at a time.

標準方向別情報記憶部4では文字種ごとに、垂
直方向対及び水平方向対の特徴について選択され
た方向対要素と頻度情報の対の形で複数個の要素
を記憶しておけばよく、例えば16要素ずつの計32
要素を持つことにすればよい。
The standard direction-specific information storage unit 4 may store a plurality of elements in the form of pairs of direction pair elements and frequency information selected for the characteristics of vertical pairs and horizontal pairs for each character type, for example, 16 elements. Total of 32 elements
All you have to do is have an element.

方向別照合部5では、入力文字から得られる方
向別特徴情報と、標準字体として複数個登録され
ている標準方向別情報とを用いて、基本的にはベ
クトル演算を行なう。例えば最も簡単な例として
は方向別特徴情報を示すベクトルを〓=(x1、…
…x64)、標準方向別情報を示すベクトルを〓(i) =
S1(i) 、……、S(i) 64)(i=1、……、m:mは
標準字体の個数)としたとき、 D(〓、〓(i) )=64K=1 |xk―Sk(i) | を評価式とし、D(〓、〓(i) )の値が小さい程類
似性があるとみなす。この場合に、方向別特徴情
報と標準方向別情報とは選択された方向対と頻度
情報の対として記憶されているので、ベクトルに
展開するときには、方向対に対応する要素に頻度
情報を書き込み、方向対に対応しない要素には0
を入れて、64次元のベクトルとみなす。
The direction-by-direction matching unit 5 basically performs vector calculation using direction-by-direction feature information obtained from input characters and standard direction-by-direction information registered as a plurality of standard fonts. For example, the simplest example is a vector indicating feature information for each direction = = (x 1 ,...
…x 64 ), the vector indicating the standard direction information is 〓(i) =
S 1 (i) , ..., S (i) 64 ) (i = 1, ..., m: m is the number of standard fonts), then D (〓, 〓(i) ) = 64K= 1 |xk−S k (i) | is used as the evaluation formula, and it is assumed that the smaller the value of D (〓, 〓(i)), the greater the similarity. In this case, the direction-specific feature information and the standard direction-specific information are stored as a pair of the selected direction pair and frequency information, so when expanding into a vector, frequency information is written in the element corresponding to the direction pair, 0 for elements that do not correspond to direction pairs
and consider it as a 64-dimensional vector.

上記のようにして入力文字の方向別特徴情報と
標準方向別情報との照合を行なつた後に類似性の
あるものの順に信号51として出力する。
After comparing the direction-specific feature information of the input characters with the standard direction-specific information as described above, the signals 51 are outputted in the order of similarity.

第6図は方向別特徴抽出部3の一実施例を示す
ブロツク図である。信号21は特徴パタン記憶部
2から1画素分ずつの情報として順次読み込まれ
前記読み込まれた画素が文字部に含まれるならば
次の画素を読み、背景部に含まれる画素ならば、
垂直方向対要素検出部32と水平方向対要素検出
部33とにそのまま送られる。垂直方向要素検出
部32では前記画素の情報の中から上方向へ走査
したときの交差数と下方向へ走査したときの交差
数とから、前記64要素のうちの該当する要素を選
択し、前記該当する要素に対応するカウンタ32
i(i=01〜64のいずれか)のみに1を加える。
水平方向要素検出部33でも同様に前記画素の情
報の中から左方向へ走査したときの交差数と右方
向へ走査したときの交差数とから、前記64要素の
うちの該当する要素を選択し、前記該当する要素
に対応するカウンタ33i(i=01〜64のいずれ
か)のみに1を加える。
FIG. 6 is a block diagram showing an embodiment of the directional feature extraction section 3. The signal 21 is sequentially read as information for each pixel from the characteristic pattern storage unit 2. If the read pixel is included in the character area, the next pixel is read, and if the pixel is included in the background area, the next pixel is read.
The signal is sent as is to the vertical pair element detection section 32 and the horizontal pair element detection section 33. The vertical element detection unit 32 selects a corresponding element from among the 64 elements based on the number of intersections when scanning upward and the number of intersections when scanning downward from among the pixel information, and Counter 32 corresponding to the relevant element
Add 1 only to i (i = any one of 01 to 64).
Similarly, the horizontal element detection unit 33 selects a corresponding element among the 64 elements based on the number of intersections when scanning to the left and the number of intersections when scanning to the right from among the pixel information. , 1 is added only to the counter 33i (i=any one of 01 to 64) corresponding to the corresponding element.

特徴パタン記憶部2の全画素に対して上記の処
理が行なわれると、カウンタ3201からカウン
タ3264の内容はそれぞれ対応する垂直方向要
素の頻度を表わし、カウンタ3301からカウン
タ3364の内容はそれぞれ対応する水平方向要
素の頻度を表わしている。垂直方向要素選択部3
20は、前記垂直方向要素の頻度の多いものの順
に複数個、例えば16個の要素とその頻度を信号3
22として方向別特徴記憶部34に送り、同様に
水平方向要素選択部330は、前記水平方向要素
の頻度の多いものの順に複数個、例えば垂直方向
要素と同じ16個の要素とその頻度を信号332と
して方向別特徴記憶部34に送る。方向別特徴記
憶部34は出力信号31を送り出す。
When the above processing is performed on all pixels in the feature pattern storage unit 2, the contents of the counters 3201 to 3264 represent the frequencies of the corresponding vertical elements, and the contents of the counters 3301 to 3364 represent the frequencies of the corresponding horizontal elements. It represents the frequency of directional elements. Vertical element selection section 3
20 transmits a plurality of vertical elements, for example, 16 elements and their frequencies in order of frequency to signal 3.
Similarly, the horizontal element selection unit 330 sends a plurality of horizontal elements in order of frequency, for example, the same 16 elements as the vertical elements and their frequencies, to the direction-specific feature storage unit 34 as a signal 332. It is sent to the direction-based feature storage unit 34 as The directional feature storage unit 34 sends out an output signal 31.

以上説明したように本発明によれば、比較的簡
単な処理によつて多字種の中から候補文字を分類
することができ、しかも用いた特徴は後述続する
細かい識別にも用いることができるので、装置と
して実現する場合には、コンパクトな構成が可能
になる。例えば本発明による大分類に後述する方
式として、前記同一出願人による昭和56年10月22
日付出願の「文字認識方式」を採用すると、第1
図で示した特徴が一貫して使えることになる。す
なわち、第1図で示した特徴を求めた後に、本発
明で用いた方向別特徴情報を求め、前記方向別特
徴情報を用いてマクロな分類を行ない、候補を絞
つた後に、前記文字認識方式により、第1図に示
した全体の特徴を用いてミクロな認識を行なう。
ことができる。
As explained above, according to the present invention, candidate characters can be classified from among multiple character types through relatively simple processing, and the features used can also be used for detailed identification described later. Therefore, when realized as a device, a compact configuration is possible. For example, as a method to be described later in the major classification according to the present invention, on October 22, 1982, by the same applicant,
If you adopt the "character recognition method" of the date application, the first
The features shown in the figure can be used consistently. That is, after determining the features shown in FIG. 1, determining the direction-specific feature information used in the present invention, performing macro classification using the direction-specific feature information, and narrowing down candidates, the character recognition method is applied. Accordingly, microscopic recognition is performed using the overall characteristics shown in FIG.
be able to.

また、前述した実施例では垂直方向、水平方向
の両方向別特徴を用いたが、そのいずれか一方の
みであつても同様な効果を得られることは云うま
でもない。
Further, in the above-described embodiment, features for both the vertical and horizontal directions were used, but it goes without saying that the same effect can be obtained even if only one of them is used.

また、更に、例としては用いなかつたが、例え
ば上方向の交差数と右方向の交差数の組合わせ等
を用いることも本発明の一実施例とみなすことが
できる。
Further, although not used as an example, for example, using a combination of the number of intersections in the upward direction and the number of intersections in the right direction can also be considered as an embodiment of the present invention.

【図面の簡単な説明】[Brief explanation of drawings]

第1図a,bは本発明における基本的な特徴の
一例を説明するために示す図、第2図a,b,c
は前記基本的な特徴から得られる方向別特徴の一
例を示す図、第3図は本発明の一実施例を示すブ
ロツク図、第4図a,b,c,dは本発明におけ
る特徴抽出処理の走査方向の一例を示す図、第5
図は特徴抽出処理において用いる3×3のマスク
パタンの一例を示す図、第6図は方向別特徴抽出
部3の一実施例を示すブロツク図である。 図中、1は特徴抽出部、2は特徴パタン記憶
部、3は方向別特徴抽出部、4は標準方向別情報
記憶部、5は方向別照合部であり、32は垂直方
向要素検出部、33は水平方向要素検出部、32
01〜3264及び3301〜3364は頻度情
報を格納するカウンタ、320は垂直方向要素選
択部、330は水平方向要素選択部、34は方向
別特徴記憶部である。
Figures 1a and b are diagrams shown to explain an example of the basic features of the present invention, Figures 2a, b, and c
FIG. 3 is a block diagram showing an embodiment of the present invention, and FIG. 4 a, b, c, and d show feature extraction processing according to the present invention. FIG. 5 shows an example of the scanning direction of
The figure shows an example of a 3×3 mask pattern used in the feature extraction process, and FIG. 6 is a block diagram showing an example of the direction-based feature extraction section 3. In the figure, 1 is a feature extraction unit, 2 is a feature pattern storage unit, 3 is a direction feature extraction unit, 4 is a standard direction information storage unit, 5 is a direction matching unit, 32 is a vertical element detection unit, 33 is a horizontal element detection unit; 32
01 to 3264 and 3301 to 3364 are counters for storing frequency information, 320 is a vertical element selection section, 330 is a horizontal element selection section, and 34 is a directional feature storage section.

Claims (1)

【特許請求の範囲】 1 文字部及び背景部から成る文字画面上の背景
部の各点から複数方向に文字画面上を走査し、各
走査方向に対して定められた角度で交差する文字
ストローク数(以下交差数とする)を各走査ごと
に求め特徴パタンとする特徴抽出部と、前記特徴
抽出部により得られる特徴パタンを格納する特徴
パタン記憶部と、前記特徴パタン記憶部から、各
走査毎に得られる前記交差数と前記走査に対応す
る他の方向の走査により得られる交差数との対を
方向対として得るとともに同一内容を持つ方向対
の出現頻度を得て方向別特徴情報とする方向別特
徴抽出部と、前記方向別特徴抽出部により得られ
る方向別特徴情報と同形式で前記方向別特徴情報
と照合するための標準方向別情報とを記憶する標
準方向別情報記憶部と、前記方向別特徴情報と前
記標準方向別情報との照合を行なう方向別照合部
とを有することを特徴とする文字分類方式。 2 方向別特徴抽出部が各上方向走査毎に得られ
る交差数と前記走査に対応する下方向の走査によ
り得られる交差数との対(以下垂直方向対とす
る)を得て、同一内容を持つ方向対の出現頻度を
求める特許請求の範囲第1項記載の文字分類方
式。 3 方向別特徴抽出部が各左方向走査毎に得られ
る交差数と前記走査に対応する右方向の走査によ
り得られる交差数との対(以下水平方向対とす
る)を得て、同一内容を持つ方向対の出現頻度を
求める特許請求の範囲第1項記載の文字分類方
式。 4 方向別特徴抽出部が垂直方向対および水平方
向対における同一内容を持つ方向対の出現頻度を
求める特許請求の範囲第1項記載の文字分類方
式。
[Scope of Claims] 1. The number of character strokes that scan a character screen in multiple directions from each point of a background part on a character screen consisting of a character part and a background part, and intersect at a predetermined angle with respect to each scanning direction. (hereinafter referred to as the number of intersections) for each scan to obtain a feature pattern; a feature pattern storage section that stores the feature pattern obtained by the feature extraction section; A pair of the number of intersections obtained by scanning in another direction and a number of intersections obtained by scanning in another direction corresponding to the scanning is obtained as a direction pair, and the frequency of appearance of a direction pair having the same content is obtained to obtain direction-specific feature information. a standard direction-specific information storage unit that stores standard direction-specific information for collating with the direction-specific feature information in the same format as the direction-specific feature information obtained by the direction-specific feature extraction unit; A character classification method characterized by comprising a direction-by-direction matching unit that matches direction-based feature information with the standard direction-based information. 2. The directional feature extraction unit obtains a pair (hereinafter referred to as a vertical pair) of the number of intersections obtained for each upward scan and the number of intersections obtained by a downward scan corresponding to the above scan, and extracts the same content. 2. A character classification method according to claim 1, which calculates the frequency of occurrence of a pair of directions. 3. The directional feature extraction unit obtains a pair (hereinafter referred to as a horizontal pair) of the number of intersections obtained for each leftward scan and the number of intersections obtained by a rightward scan corresponding to the scan, and extracts the same content. 2. A character classification method according to claim 1, which calculates the frequency of occurrence of a pair of directions. 4. The character classification method according to claim 1, wherein the direction-by-direction feature extraction unit calculates the appearance frequency of direction pairs having the same content in vertical direction pairs and horizontal direction pairs.
JP56174327A 1981-10-29 1981-10-29 Character classification system Granted JPS5875279A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP56174327A JPS5875279A (en) 1981-10-29 1981-10-29 Character classification system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP56174327A JPS5875279A (en) 1981-10-29 1981-10-29 Character classification system

Publications (2)

Publication Number Publication Date
JPS5875279A JPS5875279A (en) 1983-05-06
JPH0252313B2 true JPH0252313B2 (en) 1990-11-13

Family

ID=15976696

Family Applications (1)

Application Number Title Priority Date Filing Date
JP56174327A Granted JPS5875279A (en) 1981-10-29 1981-10-29 Character classification system

Country Status (1)

Country Link
JP (1) JPS5875279A (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4271878B2 (en) 2001-03-22 2009-06-03 株式会社日立製作所 Character search method and apparatus in video, and character search processing program
JP2008004116A (en) * 2007-08-02 2008-01-10 Hitachi Ltd Method and device for retrieving character in video

Also Published As

Publication number Publication date
JPS5875279A (en) 1983-05-06

Similar Documents

Publication Publication Date Title
US5799115A (en) Image filing apparatus and method
US4408342A (en) Method for recognizing a machine encoded character
CN111259889A (en) Image text recognition method and device, computer equipment and computer storage medium
CN111783493A (en) Identification method and identification terminal for batch two-dimensional codes
JPH0256708B2 (en)
JP2010271792A (en) Image processing apparatus and method
JPH0252313B2 (en)
Naz et al. Challenges in baseline detection of cursive script languages
JP3476595B2 (en) Image area division method and image binarization method
JPH0656625B2 (en) Feature extraction method
JP2789622B2 (en) Character / graphic area determination device
JP3329528B2 (en) Document reader
JP2507949B2 (en) Character / graphic area determination device
JP2616994B2 (en) Feature extraction device
JPS622382A (en) Feature extracting devie for pattern
JPH0877293A (en) Character recognition device and generating method for dictionary for character recognition
JPS5880781A (en) Font discrimination method
JP2918363B2 (en) Character classification method and character recognition device
JP3037504B2 (en) Image processing method and apparatus
JPH0656624B2 (en) Feature extraction method
JPH0146913B2 (en)
JPH1021397A (en) Method for extracting directional characteristic vector
JPH1021398A (en) Method for extracting directional characteristic vector
JPH02252083A (en) Method for recognizing pattern
JPH0757047A (en) Character segmentation system