JP2975067B2 - Character recognition method - Google Patents

Character recognition method

Info

Publication number
JP2975067B2
JP2975067B2 JP2234029A JP23402990A JP2975067B2 JP 2975067 B2 JP2975067 B2 JP 2975067B2 JP 2234029 A JP2234029 A JP 2234029A JP 23402990 A JP23402990 A JP 23402990A JP 2975067 B2 JP2975067 B2 JP 2975067B2
Authority
JP
Japan
Prior art keywords
character string
character
label
pitch
positional relationship
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2234029A
Other languages
Japanese (ja)
Other versions
JPH04113486A (en
Inventor
昭夫 塩
昌明 橋本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ENU TEI TEI SOFUTOEA KK
Nippon Telegraph and Telephone Corp
Original Assignee
ENU TEI TEI SOFUTOEA KK
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ENU TEI TEI SOFUTOEA KK, Nippon Telegraph and Telephone Corp filed Critical ENU TEI TEI SOFUTOEA KK
Priority to JP2234029A priority Critical patent/JP2975067B2/en
Publication of JPH04113486A publication Critical patent/JPH04113486A/en
Application granted granted Critical
Publication of JP2975067B2 publication Critical patent/JP2975067B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Character Input (AREA)

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は文字の認識方法に係り、情景画像とくに自動
車のナンバープレート、交通標識、屋内の案内標識など
文字や図形を含む景観画像から文字・図形領域を自動的
に抽出して認識する文字の認識方法に関する。
DETAILED DESCRIPTION OF THE INVENTION [Industrial Application Field] The present invention relates to a method for recognizing characters. The present invention relates to a method for recognizing a character from a landscape image including characters and figures such as a license plate of a car, a traffic sign, and an indoor guide sign. The present invention relates to a character recognition method for automatically extracting and recognizing a graphic region.

〔従来の技術〕[Conventional technology]

ナンバープレート、看板など景観中の文字を認識する
場合、従来では認識対象のほぼ正面から観測することを
前提としていた。「特願平1−27016号公報の文字認識
方法」を例にとって説明する。
Conventionally, when recognizing characters in a landscape, such as a license plate or a signboard, it is assumed that the character is observed almost in front of the recognition target. A description will be given by taking "character recognition method disclosed in Japanese Patent Application No. 1-271616" as an example.

第16図は従来例のフローチャートを示す。161はラベ
ル付け処理、162はラベル領域間の相対的位置関係の算
出処理、163は相対的位置関係から複数のラベル領域か
らなる文字列候補の算出処理、164はラベル領域間のピ
ッチ算出処理、165はピッチ整合度の算出処理、166はピ
ッチ整合度を用いた文字認識処理を示す。
FIG. 16 shows a flowchart of a conventional example. 161 is a labeling process, 162 is a process of calculating a relative positional relationship between label regions, 163 is a process of calculating a character string candidate composed of a plurality of label regions from the relative positional relationship, 164 is a pitch calculating process between the label regions, Reference numeral 165 denotes a pitch matching degree calculation process, and 166 denotes a character recognition process using the pitch matching degree.

先ず、ラベル付け処理161は2値化された景観画像パ
ターンの白部分および黒部分のそれぞれについてラベル
付けを行う(ステップ161)。
First, the labeling process 161 labels each of the white portion and the black portion of the binarized landscape image pattern (step 161).

次に複数のラベル領域間の相対的位置関係の算出処理
162は同一のラベルの付された領域として定義されるラ
ベル領域間の相対位置関係を求める(ステップ162)。
Next, processing for calculating the relative positional relationship between a plurality of label areas
A step 162 obtains a relative positional relationship between label areas defined as areas having the same label (step 162).

文字列候補の算出処理163は相対位置関係から複数の
ラベル領域からなる文字列候補を求める(ステップ16
3)。
The character string candidate calculation processing 163 obtains a character string candidate composed of a plurality of label areas from the relative positional relationship (step 16).
3).

ピッチ算出処理164は文字列候補に含まれる各ラベル
領域間のピッチを求める(ステップ164)。
The pitch calculation processing 164 obtains a pitch between each label area included in the character string candidate (step 164).

ピッチ整合度の算出処理165は、ピッチと認識対象に
固有な書式情報とを照合してピッチ整合度を求める(ス
テップ165)。
The pitch matching degree calculation processing 165 obtains the pitch matching degree by comparing the pitch with format information unique to the recognition target (step 165).

文字認識処理166はピッチ整合度164を用い、文字列を
認識する(ステップ166)。
The character recognition processing 166 uses the pitch matching degree 164 to recognize a character string (step 166).

〔発明が解決しようとする課題〕[Problems to be solved by the invention]

しかしながら、例えば、自動車のナンバープレートを
正面から観測すると、第17図(A)に示すように画像上
でのプレートは概ねX(水平)軸に平行な2本の直線
と、Y(垂直)軸に平行な2本直線に囲まれた横長の長
方形になる。しかし、これを例えば右斜め上から観測す
ると、第17図(B)のように著しく変形して見える。こ
のような、文字プレートの変形は文字形状を変形させ文
字認識を非常に困難にする。少々の変形であれば、例え
ば認識辞書の中に種々の変形を含む標準パターンを登録
しておく等により対処可能であるが、一般の場合には適
用不可能である。
However, for example, when the license plate of an automobile is observed from the front, as shown in FIG. 17 (A), the plate on the image has two straight lines substantially parallel to the X (horizontal) axis and the Y (vertical) axis. Becomes a horizontally long rectangle surrounded by two straight lines parallel to. However, when this is observed obliquely from the upper right, for example, it looks remarkably deformed as shown in FIG. 17 (B). Such deformation of the character plate changes the character shape and makes character recognition very difficult. If it is a small deformation, it can be dealt with, for example, by registering a standard pattern including various deformations in the recognition dictionary, but it cannot be applied in a general case.

本発明は上記の点に鑑みなされたものでこのように認
識対象を斜めから観測する場合にも安定的に景観画像中
の文字を検出して認識する文字の認識方法を提供するこ
とを目的とする。
An object of the present invention is to provide a character recognition method for stably detecting and recognizing characters in a landscape image even when observing a recognition target obliquely in view of the above points. I do.

〔課題を解決するための手段〕[Means for solving the problem]

第1図は本発明の原理説明のためのフローチャートを
示す。2値化された景観画像の白部分および黒部分のそ
れぞれについてラベル付け処理を行うラベル付け手段
(ステップ11)と、ラベル付け処理により同一のラベル
の付された領域として定義されるラベル領域間の相対位
置関係を求める相対位置関係算出手段(ステップ12)
と、相対位置関係算出手段により算出された相対位置関
係から複数のラベル領域からなる文字列候補を求める文
字列抽出手段(ステップ13)と、文字抽出手段により抽
出された文字列候補に含まれる各ラベル領域間のピッチ
を求めるピッチ算出手段(ステップ14)と、算出された
ピッチと認識対象に固有な書式情報とを照合してピッチ
整合度を求め、そのピッチ整合度の大きさによって文字
列候補を限定する文字列候補選択手段(ステップ15)
と、限定された文字列候補に対して、水平軸方向および
垂直方向との各傾きを求めてそれぞれ補正する文字傾き
補正手段(ステップ16)と、補正された文字列候補を認
識辞書内の標準パターンと照合し、斜め方向の文字を認
識する文字照合手段(ステップ17)とで構成される。
FIG. 1 is a flowchart for explaining the principle of the present invention. A labeling means (step 11) for performing a labeling process on each of a white portion and a black portion of the binarized landscape image, and a label region defined as the same labeled region by the labeling process. Relative positional relationship calculating means for obtaining relative positional relationship (step 12)
A character string extracting means (step 13) for obtaining a character string candidate composed of a plurality of label areas from the relative positional relationship calculated by the relative positional relationship calculating means; and each of the character string candidates extracted by the character extracting means. Pitch calculating means (step 14) for determining the pitch between label areas, and comparing the calculated pitch with format information unique to the recognition target to determine a pitch matching degree, and character string candidates based on the magnitude of the pitch matching degree. Character string candidate selection means for limiting (step 15)
A character inclination correction means (step 16) for obtaining and correcting the respective inclinations in the horizontal axis direction and the vertical direction with respect to the limited character string candidates, and converting the corrected character string candidates into standard characters in the recognition dictionary. It comprises character matching means (step 17) for matching characters with patterns and recognizing characters in oblique directions.

〔作用〕[Action]

本発明は文字列の候補を上記ステップ11からステップ
15によって求め、これら文字列候補を認識すべき正しい
文字列と仮定し、文字列の外接矩形が長方形となるよう
補正した後、文字縦横比、大きさを補正して認識するた
め、文字列を斜め方向から観測する場合でも安定的に文
字の検出・認識が可能となる。
In the present invention, the character string candidates are
Assuming that these character string candidates are correct character strings to be recognized, the circumscribed rectangle of the character string is corrected to be a rectangle, and then the character string is corrected by correcting the character aspect ratio and size. Characters can be detected and recognized stably even when observing from an oblique direction.

〔実施例〕〔Example〕

以下、図面を参照しながら詳細に説明する。第2図は
本発明の一実施例のブロック図を示す。同図において、
20は制御部、21はTVカメラ、22はA/Dコンバータ、23は
多値フレームメモリ、24は2値化処理部、25は2値パタ
ーンメモリ、26はラベル付け処理部、27はラベルパター
ンメモリ、28はラベルテーブル、29はラベル領域間の位
置関係抽出処理部、30はラベルマトリックス、31は位置
関係による文字列抽出部、32は文字列テーブル、33はピ
ッチ整合度算出部、34は傾き補正部、35は変換パターン
メモリ、36は変換座標テーブル、37は文字認識部、100
〜106は制御20が各部に送るタイミング信号、107はTVカ
メラ21から出力されるビデオ信号である。
Hereinafter, this will be described in detail with reference to the drawings. FIG. 2 shows a block diagram of one embodiment of the present invention. In the figure,
Reference numeral 20 denotes a control unit, 21 denotes a TV camera, 22 denotes an A / D converter, 23 denotes a multi-level frame memory, 24 denotes a binarization processing unit, 25 denotes a binary pattern memory, 26 denotes a labeling processing unit, and 27 denotes a label pattern. Memory, 28 is a label table, 29 is a positional relationship extraction processing unit between label areas, 30 is a label matrix, 31 is a character string extracting unit based on positional relationship, 32 is a character string table, 33 is a pitch matching degree calculating unit, 34 is Inclination correction unit, 35 is a conversion pattern memory, 36 is a conversion coordinate table, 37 is a character recognition unit, 100
Reference numerals 106 denote timing signals sent from the control unit 20 to each unit, and 107 denotes a video signal output from the TV camera 21.

以下各部を詳細に説明する。 Hereinafter, each part will be described in detail.

制御部20はタイミング信号100〜106を生成してそれぞ
れ多値フレームメモリ23、2値化処理部24、ラベル付け
処理部26、ラベル領域間の位置関係抽出処理部29、位置
関係による文字列抽出部31、傾き補正部34、および文字
認識部37の各部に供給し、これらの各部は対応するタイ
ミング信号100〜106に基づいて動作する。
The control unit 20 generates timing signals 100 to 106 to generate a multi-level frame memory 23, a binarization processing unit 24, a labeling processing unit 26, a positional relationship extraction processing unit 29 between label areas, and a character string extraction based on the positional relationship. The signals are supplied to the units 31, the inclination correction unit 34, and the character recognition unit 37, and these units operate based on the corresponding timing signals 100 to 106.

ビデオ信号107は、TVカメラ21から出力され、A/Dコン
バータ22を介してディジタル化された後、多値フレーム
メモリ23に格納される。
The video signal 107 is output from the TV camera 21, digitized via the A / D converter 22, and stored in the multi-level frame memory 23.

多値フレームメモリ23はM×N画素(例えば、M=N
=512:8ビット/画素)の画像信号を格納する多値のフ
レームメモリであって、制御部20から供給されるタイミ
ング信号100により格納している濃淡画像をフリーズす
る。
The multi-level frame memory 23 has M × N pixels (for example, M = N
(512: 8 bits / pixel), which is a multi-level frame memory that freezes a gray image stored by a timing signal 100 supplied from the control unit 20.

2値化処理部24は、ラベル付け処理部26の前処理とし
て、多値フレームメモリ23から供給される入力濃淡画像
を2値化して2値パターンを求め、2値パターンメモリ
25に出力する。この前処理を行う2値化処理部24は、制
御部20からのタイミング信号101によりその動作を開始
する。2値化の方法は文字情報を損なわなければ特に問
題はないが、景観画像を対象とする場合には画像内の位
置によって閾値が変わる動的2値化法(例えば「特開昭
59−114687号公報」「特開昭61−194580号公報」等)が
適当である。
The binarization processing unit 24 binarizes the input grayscale image supplied from the multi-level frame memory 23 to obtain a binary pattern as a pre-process of the labeling processing unit 26, and obtains a binary pattern memory.
Output to 25. The binarization processing unit 24 that performs this preprocessing starts its operation in response to the timing signal 101 from the control unit 20. The binarization method has no particular problem as long as the character information is not damaged. However, in the case of a landscape image, a dynamic binarization method in which a threshold value changes depending on the position in the image (for example, “Japanese
JP-A-59-114687 and JP-A-61-194580) are suitable.

2値パターンメモリ25は、M×N画素(1ビット/画
素)のメモリであって、例えば黒画素に対して0、白画
素に対して1の値を保持する。
The binary pattern memory 25 is a memory of M × N pixels (1 bit / pixel), and holds, for example, a value of 0 for a black pixel and a value of 1 for a white pixel.

ラベル付け処理部26は制御部20からのタイミング信号
102により動作を開始し、2値パターンメモリ25上で白
点・黒点のそれぞれに関し、つながりをもった点の集合
をひとまとめにして番号付けしたラベルパターンを作成
する処理を行う。作成されたラベルパターンはラベルパ
ターンメモリ27に格納される。
The labeling processing unit 26 is a timing signal from the control unit 20
The operation is started by 102, and a process of creating a label pattern in which a set of connected points is collectively numbered for each of white points and black points on the binary pattern memory 25 is performed. The created label pattern is stored in the label pattern memory 27.

ラベルパターンメモリ27は、M×N画素(1ビット/
画素)のメモリであり、各画素に対応するアドレスには
そのラベル番号が格納される。
The label pattern memory 27 has M × N pixels (1 bit /
Pixel), and the label number is stored in the address corresponding to each pixel.

第3図は、本発明の一実施例のラベル付け処理部26の
処理の説明図である。同図(A)は2値パターンメモリ
25の記憶内容の一例を示し、同図(B)はその黒点に関
するラベルパターンメモリ27の記憶内容の一例である。
同図(B)中“1"、“2"、“3"などは第3図(A)の2
値パターンに対して付与されたラベル番号を示してい
る。なお、第3図(B)には図示していないが、白点に
関しても同様の処理を行う。さらに、各ラベル番号の領
域(以降、ラベル領域また、単にラベルと呼ぶ)の外接
矩形の左上及び右上の頂点の座標(x1,y1)(x2,y2)を
求め、これをラベルテーブル28に格納する。
FIG. 3 is an explanatory diagram of the processing of the labeling processing unit 26 according to one embodiment of the present invention. FIG. 2A shows a binary pattern memory.
An example of the contents stored in the label pattern memory 27 is shown in FIG.
In FIG. 3B, "1", "2", "3", etc. are 2 in FIG. 3A.
It shows the label number given to the value pattern. Although not shown in FIG. 3B, the same processing is performed for a white point. Further, the coordinates (x 1 , y 1 ) (x 2 , y 2 ) of the upper left and upper right vertices of the circumscribed rectangle of the area of each label number (hereinafter referred to as a label area or simply a label) are obtained, and this is obtained as a label. Stored in table 28.

第4図は本発明の一実施例のラベルテーブル28の記憶
内容の一例を示す。
FIG. 4 shows an example of the contents stored in the label table 28 according to one embodiment of the present invention.

41はラベル番号、42は黒白フラグ、43は外接矩形の左
上頂点のx座標、44は外接矩形の左上頂点のy座標、45
は外接矩形の右下頂点のx座標、46は外接矩形の右下頂
点のy座標、47は除去フラグである。
41 is a label number, 42 is a black and white flag, 43 is the x coordinate of the upper left vertex of the circumscribed rectangle, 44 is the y coordinate of the upper left vertex of the circumscribed rectangle, 45
Is the x coordinate of the lower right vertex of the circumscribed rectangle, 46 is the y coordinate of the lower right vertex of the circumscribed rectangle, and 47 is the removal flag.

ラベル番号41は1から始まる領域の番号であり、黒白
フラグ42はその領域が黒点(Fbw=0)であるか白点(F
bw=1)であるかの別を示し、外接矩形の頂点の座標43
から46は正の整数値をとる。また、除去フラグ47は初期
値を0とし、位置関係による文字列抽出部21により除去
されると除去フラグの値が1に変更される。なお、ラベ
ル付け処理部26の実現方法はとくに限定しないが、例え
ば「特開昭61−214082号公報」等が利用できる。
The label number 41 is the number of an area starting from 1, and the black / white flag 42 indicates whether the area is a black point (F bw = 0) or a white point (F bw ).
bw = 1), indicating the coordinates 43 of the vertex of the circumscribed rectangle
To 46 take positive integer values. Further, the initial value of the removal flag 47 is set to 0, and the value of the removal flag is changed to 1 when the removal is performed by the character string extraction unit 21 based on the positional relationship. The method of implementing the labeling processing unit 26 is not particularly limited, but, for example, "Japanese Patent Laid-Open No. 61-214082" can be used.

ラベル領域間の位置関係抽出処理部29はタイミング信
号103により動作を開始し、ラベルテーブル28を参照し
て任意の2つの白または黒のラベル領域間の上下左右の
位置関係を求め、結果をラベルマトリックス30に書き込
む。
The positional relationship between label areas extraction processing unit 29 starts the operation in response to the timing signal 103, refers to the label table 28, finds the upper, lower, left and right positional relationship between any two white or black label areas, and labels the result as a label. Write to matrix 30.

ラベルマトリックス30は2つのI×Iの正方マトリッ
クスからなり、一方は左右マトリックス[hij]、他方
は上下マトリックス[vij]である。
The label matrix 30 is composed of two I × I square matrices, one of which is a left and right matrix [h ij ] and the other is an upper and lower matrix [v ij ].

第5図は本発明の一実施例のラベルマトリックスの構
成を示す。同図中30−1は左右マトリックス、30−2は
上下マトリックス、51〜54はアドレスである。
FIG. 5 shows a configuration of a label matrix according to one embodiment of the present invention. In the figure, 30-1 is a left and right matrix, 30-2 is a top and bottom matrix, and 51 to 54 are addresses.

左右マトリックス30−1のアドレス(i,j)の内容hij
は、ラベル番号i及びjの領域間の左右関係の有無を示
し、値が1ならば左右関係にあること、値が0であれば
左右関係にないことを示す。同様に上下マトリックス30
−2のアドレス(i,j)の内容vijは、ラベル番号i及び
jの領域間の上下関係の有無を示す、値が1ならば上下
関係にあることを、値が0であれば上下関係にないこと
を示す。
Contents h ij of address (i, j) of left / right matrix 30-1
Indicates the presence or absence of a left-right relationship between the regions of label numbers i and j. A value of 1 indicates a right-left relationship, and a value of 0 indicates no left-right relationship. Similarly, the upper and lower matrix 30
The content v ij of the address (i, j) of −2 indicates whether there is a vertical relationship between the areas of the label numbers i and j. If the value is 1, it indicates that there is a vertical relationship. Indicates that they are not related.

次に左右マトリックス30−1の内容[hij]、および
上下マトリックス30−2の内容[vij]の求め方を説明
する。
Next, how to obtain the contents [h ij ] of the left and right matrix 30-1 and the contents [v ij ] of the upper and lower matrix 30-2 will be described.

第6図は本発明の一実施例の位置関係決定の説明図を
示す。この処理は位置関係抽出処理部29で行われる。61
はラベル番号iの領域の外接矩形、62はラベル番号jの
領域の外接矩形である。第6図に示すように任意の2つ
の異なる領域のラベル番号をi,j(i≠j),その外接
矩形の左上、及び右上の頂点の座標を(Xi1,Yi1),(X
i2,Yi2),(Xj1,Yj1),(Xj2,Yj2)とするとき、領域
i、jの左右関係は、 [領域iが領域jの左側にある時] Xi1<Xj1かつ、 Xj1−Xi2<Hth*Min(Xi2−Xi1、Xj2−Xj1) かつ、 Max(Yi2−Yi1,Yj2−Yj1)/ Min(Yi2−Yi1,Yj2−Yj1)>Vth [領域jが領域iの左側にある時] Xj1<Xi1かつ、 Xj1−Xi2<Hth*Min(Xi2−Xi1、Xj2−Xj1) かつ、 Max(Yi2−Yi1,Yj2−Yj1)/ Min(Yi2−Yi1,Yj2−Yj1)>Vth なる条件により決定され、これらの条件を満たすときラ
ベル領域i,jは左右の位置関係にあるとして、 hij=1、hji=1 が与えられる。但し、Hthは文字列方向の領域間の距離
に関する閾値、Vthは文字列方向と直角な方向の領域間
の重なりに関する閾値であり、その値は実験的に求めら
れる。
FIG. 6 is an explanatory diagram of the positional relationship determination according to one embodiment of the present invention. This processing is performed by the positional relationship extraction processing unit 29. 61
Is a circumscribed rectangle of the area of the label number i, and 62 is a circumscribed rectangle of the area of the label number j. As shown in FIG. 6, the label numbers of arbitrary two different areas are i, j (i ≠ j), and the coordinates of the upper left and upper right vertices of the circumscribed rectangle are (X i1 , Y i1 ), (X
i2, Y i2), (X j1, Y j1), when the (X j2, Y j2), the area i, the left and right relationship j is [when the area i is on the left side of the area j] X i1 <X j1 and X j1 −X i2 <H th * Min (X i2 −X i1 , X j2 −X j1 ) and Max (Y i2 −Y i1 , Y j2 −Y j1 ) / Min (Y i2 −Y i1 , Y j2 −Y j1 )> V th [when the area j is on the left side of the area i] X j1 <X i1 and X j1 −X i2 <H th * Min (X i2 −X i1 , X j2 −X j1) and, Max (Y i2 -Y i1, Y j2 -Y j1) / Min (Y i2 -Y i1, Y j2 -Y j1)> is determined by the V th becomes conditions, label region when these conditions are satisfied Assuming that i and j have a left-right positional relationship, h ij = 1 and h ji = 1 are given. Here, Hth is a threshold value for a distance between regions in the character string direction, and Vth is a threshold value for an overlap between regions in a direction perpendicular to the character string direction, and the value is experimentally obtained.

また、同様に、領域i,jの上下関係は [領域iが領域jの上側にある時] Yi1<Yj1かつ、 Yj1−Yi2<Hth*Min(Yi2−Yi1、Xj2−Xj1) かつ、 Max(Xj2−Xi1,Xi2−Xj1)/ Min(Xi2−Xi1,Xj2−Xj1)>Vth [領域jが領域iの左側にある時] Yj1<Yi1かつ、 Yj1−Yi2<Hth*Min(Yi2−Yi1、Yj2−Yj1) かつ、 Max(Xj2−Xi1,Xi2−Xj1)/ Min(Xi2−Xi1,Xj2−Xj1)>Vth なる条件により決定され、これらの条件を満たす時、ラ
ベル領域i,jは上下の位置関係にあるとして、 vij=1、vji=1 が与えられる。以上説明した条件は、位置関係を決定す
る方法の一例である。
Similarly, the vertical relationship between the regions i and j is as follows: [when the region i is above the region j] Y i1 <Y j1 and Y j1 −Y i2 <H th * Min (Y i2 −Y i1 , X j2 −X j1 ) and Max (X j2 −X i1 , X i2 −X j1 ) / Min (X i2 −X i1 , X j2 −X j1 )> V th [when region j is on the left side of region i Y j1 <Y i1 and Y j1 −Y i2 <H th * Min (Y i2 −Y i1 , Y j2 −Y j1 ) and Max (X j2 −X i1 , X i2 −X j1 ) / Min ( X i2 −X i1 , X j2 −X j1 )> V th, and when these conditions are satisfied, it is assumed that the label areas i, j are in a vertical positional relationship, and v ij = 1 and v ji = 1 is given. The conditions described above are an example of a method for determining a positional relationship.

なお、i=jの場合には、後の処理の関係上、 vij=1、hji=1 としておく。When i = j, it is assumed that v ij = 1 and h ji = 1 because of the subsequent processing.

位置関係により文字列を抽出する文字列抽出部31は、
タイミング信号104により動作を開始し、ラベルマトリ
ックス30を参照して以下の処理を行う。
A character string extraction unit 31 that extracts a character string based on the positional relationship is:
The operation is started by the timing signal 104, and the following processing is performed with reference to the label matrix 30.

第7図は本発明の一実施例の位置関係による文字列抽
出部31の処理内容に関する説明図を示す。左右マトリッ
クス30−1の内容の一例を示す。第7図に示した左右マ
トリックス30−1の行ベクトルh(i): h(1)=(1,0,1,1,0,0,0,0..) h(2)=(0,1,0,0,1,0,0,0..) h(3)=(1,0,1,0,0,1,1,0..) ........... を考える。上記行ベクトルh(i)は任意の2つのラベ
ル番号i,jの左右の関係のみを表すものなので、以下に
説明する文字列抽出手段によりすべてのラベル番号間の
左右関係を調べて、文字列を抽出する。
FIG. 7 is an explanatory diagram relating to the processing content of the character string extracting unit 31 based on the positional relationship according to one embodiment of the present invention. An example of the contents of the left and right matrix 30-1 is shown. Row vector h (i) of left / right matrix 30-1 shown in FIG. 7: h (1) = (1,0,1,1,0,0,0,0 ..) h (2) = (0 , 1,0,0,1,0,0,0 ..) h (3) = (1,0,1,0,0,1,1,0 ..) ......... .. think of. Since the row vector h (i) represents only the left-right relationship between any two label numbers i, j, the left-right relationship between all label numbers is checked by a character string extracting means described below, and the character string Is extracted.

第8図は本発明の一実施例の位置関係による文字列抽
出部31の処理フローチャートを示す。同図中、iは第1
の行ベクトル番号であり、i′は第2のベクトル番号を
示し、Lmaxは領域数の上限値を示す。
FIG. 8 shows a processing flowchart of the character string extracting unit 31 based on the positional relationship according to one embodiment of the present invention. In the figure, i is the first
, I ′ indicates the second vector number, and Lmax indicates the upper limit of the number of areas.

先ず、iに0を入れ(ステップ1101)、次にi+1を
iとする(ステップ1102)、このとき、i=1である。
次にi→i′とする(ステップ1104)。すなわち、iの
初期値はi=1、i′の初期値はi′=2である。
First, i is set to 0 (step 1101), and then i + 1 is set to i (step 1102). At this time, i = 1.
Next, i → i ′ is set (step 1104). That is, the initial value of i is i = 1, and the initial value of i 'is i' = 2.

次にステップ1105で2つの行ベクトルh(i)とh
(i′)の論理積を求める。
Next, in step 1105, two row vectors h (i) and h
Find the logical product of (i ').

次にこの演算の結果kが0ベクトル(要素が全て0)
かどうかをチェックする(ステップ1106)。ここで、も
し結果kが0でない場合にはステップ1107に進み、行番
号i,i′の行ベクトルの各要素間論理和を求め、その結
果を行番号iの行ベクトルに書き込むとともに、行番号
i′の行ベクトルを0クリアする(ステップ1107)。さ
らに、ステップ1108で行番号i′が領域数の上限値Lmax
より小さければ、ステップ1104に戻り(ループ1)、
i′をインクリメントして同様の処理を行う。一方、ス
テップ1108で行番号i′が領域数の上限値Lmax以上の場
合はステップ1109に進み、行番号iが領域数の上限値Lm
ax−1より大きいかどうかをチェックする。大きい場合
には処理は終了する。一方、行番号iが領域数の上限値
Lmax以下の場合はステップ1102に戻り(ループ2)、i
をインクリメントして同様の処理を行う。
Next, the result k of this operation is 0 vector (all elements are 0)
It is checked whether it is (Step 1106). Here, if the result k is not 0, the process proceeds to step 1107, in which the logical OR between the elements of the row vector of the row numbers i and i ′ is obtained, and the result is written in the row vector of the row number i. The row vector of i 'is cleared to 0 (step 1107). Further, in step 1108, the row number i 'is set to the upper limit Lmax of the number of areas.
If smaller, return to step 1104 (loop 1),
Similar processing is performed by incrementing i '. On the other hand, if the line number i 'is equal to or more than the upper limit Lmax of the number of areas in step 1108, the process proceeds to step 1109, where the row number i is set to the upper limit Lm of the number of areas.
Check if it is greater than ax-1. If it is larger, the process ends. On the other hand, the row number i is the upper limit of the number of areas.
If it is less than Lmax, the process returns to step 1102 (loop 2), and i
And the same processing is performed.

以上の様にして第7図の左右マトリックス30−1に対
しての位置関係抽出処理を行うと第9図に示すような文
字列抽出の結果が得られる。
When the positional relationship extraction processing is performed on the left and right matrix 30-1 in FIG. 7 as described above, the result of character string extraction as shown in FIG. 9 is obtained.

第9図は本発明の一実施例の位置関係による文字列抽
出結果の一例を示す。同図において、位置関係による文
字列抽出後の左右マトリックス30−1において、ラベル
番号(1、3、4、6、7)、(2、5)はそれぞれ同
一文字列(横書き)上にあり、ラベル番号8は文字列に
関係しないことを示している。以上の説明では左右デー
ブルに関するものであったが、上下テーブルに関しても
全く同様である。
FIG. 9 shows an example of a character string extraction result based on a positional relationship according to an embodiment of the present invention. In the figure, label numbers (1, 3, 4, 6, 7) and (2, 5) are on the same character string (horizontal writing) in the left and right matrix 30-1 after extracting the character string based on the positional relationship. Label number 8 indicates that it is not related to the character string. Although the above description relates to the left and right tables, the same applies to the upper and lower tables.

ここで、文字列候補であるための条件を縦書き横書き
ともに、 「同一行の文字数」≧Cth (Cthは閾値) とし、仮にCth=4とすると、第9図の結果のうち、ラ
ベル番号(1、3、4、6、7)の領域が同一文字列を
構成するラベル領域として抽出され、文字列候補と判定
されて、文字列テーブル32に格納される。
Here, if the condition for being a character string candidate is “the number of characters on the same line” ≧ C th (C th is a threshold value) for both vertical and horizontal writing, and C th = 4, among the results in FIG. The area of the label number (1, 3, 4, 6, 7) is extracted as a label area constituting the same character string, determined as a character string candidate, and stored in the character string table 32.

第10図は本発明の一実施例の横書きの文字列に関する
文字列テーブル32の内容の一例を示す。同図中、81は文
字列番号、82はラベル領域数、83はラベル番号列、84は
ピッチ整合度算出部33で求められるピッチ整合度であ
る。例えば第10図に示す場合においては、文字列番号81
が1の文字列中のラベル領域数82は5であり、ラベル番
号列83は(1、3、4、6、7)のとおりである。
FIG. 10 shows an example of the contents of a character string table 32 relating to a horizontally written character string according to an embodiment of the present invention. In the figure, 81 is a character string number, 82 is the number of label areas, 83 is a label number string, and 84 is a pitch matching degree calculated by the pitch matching degree calculation unit 33. For example, in the case shown in FIG. 10, the character string number 81
Is 1, the label area number 82 in the character string is 5, and the label number string 83 is as (1, 3, 4, 6, 7).

ピッチ整合度算出部33は、文字列テーブル32に格納さ
れた各文字列について、予め判っている認識対象の書式
情報(文字ピッチに関する)と合致する度合い(ピッチ
整合度)を求め文字列テーブル32のピッチ整合度格納領
域84に与える。
The pitch matching degree calculation unit 33 calculates the degree (pitch matching degree) of each character string stored in the character string table 32 that matches the format information (related to the character pitch) of the recognition target known in advance. To the pitch matching degree storage area 84.

文字列番号cを構成するn個のラベル番号列を L1,L2,L3,...Ln とする時、各ラベル領域kの外接矩形のX座標のXks,X
keをラベルテーブル28から求め、これにより、各ラベル
領域の中心のX座標Xkを Xk=(Xks+Xke)/2 により求める。(ここでは、横書きの場合について述べ
るが、縦書きでも同様である。)次に異なるラベル領域
k,k′間のX座標Xk,Xk′(Xk′≧Xkなるものを選
ぶ)の差である Dkk′=Xk′−Xk をXk′≧Xkなる全てのラベル領域(k,k′)の組合せ
について求める。
Assuming that n label number strings forming the character string number c are L 1 , L 2 , L 3 ,... L n , X ks , X of the X coordinate of the circumscribed rectangle of each label area k
ke is obtained from the label table 28, whereby the X coordinate X k of the center of each label area is obtained from X k = (X ks + X ke ) / 2. (Here, the case of horizontal writing is described, but the same applies to vertical writing.) Next, different label areas
k, k 'X-coordinate X k between, X k' (X k '≧ X k becomes choose what) difference in which D kk of' = X k '-X k the X k' ≧ X k becomes all The combination of the label areas (k, k ') is obtained.

第11図は本発明の一実施例のピッチ情報の説明図を示
す。第11図中、91〜94は第1〜第4の文字外接矩形を示
す。
FIG. 11 is an explanatory diagram of pitch information according to one embodiment of the present invention. In FIG. 11, reference numerals 91 to 94 denote first to fourth character circumscribed rectangles.

いま、認識対象の書式情報に関して、以下のことが判
っているとする。
Now, it is assumed that the following is known regarding the format information to be recognized.

[書式情報]:文字列はn′文字からなり、第1文字目
(横書きの場合は文字中心が最も左にある文字、縦書き
では文字中心が最も上にある文字)からみた他の文字の
中心までの距離の比、 a1:a2:a3:…an′−1 が判っていたとする。
[Format information]: The character string is composed of n 'characters, and is the character of the other character viewed from the first character (the character whose character center is the leftmost character in horizontal writing, the character whose character center is the highest character in vertical writing). Suppose that the ratio of the distance to the center, a 1 : a 2 : a 3 :...

但し、a1は第1文字目91の中心と第2文字目92の中心
までの距離を示し、a2は第1文字目91の中心と第3文字
目93の中心までの距離を示し、a3は第1文字目91の中心
から第4文字目94の中心までの距離を示している。
Here, a 1 indicates the distance between the center of the first character 91 and the center of the second character 92, a 2 indicates the distance between the center of the first character 91 and the center of the third character 93, a 3 denotes a distance from the center of the first character 91 to the center of the fourth character 94.

例としてn′=4の場合を考えると、書式情報から4
つの文字のピッチ情報は a1:a2:a3 または、a1で正規化して 1:b1:b2 (1) (但し、b1=a2/a1,b2=a3/a1) となる。
As an example, consider the case of n '= 4.
One of pitch information of the character is a 1: a 2: a 3 or 1 normalized with a 1: b 1: b 2 (1) ( where, b 1 = a 2 / a 1, b 2 = a 3 / a 1 )

以下に、先に述べたラベル領域間距離DKK′(k≠
k′;k,k′=1,…n)と上記の正規化したピッチ情報
(1)との整合方法及びピッチ整合度の算出法の一例に
ついて述べる。
The label area distance D KK '(k ≠
k ′; k, k ′ = 1,..., n) and the above-described normalized pitch information (1) and an example of a method of calculating the degree of pitch matching will be described.

先ず、任意の2つのラベル領域k,k′(Xk≦Xk′
を選び、ラベル領域kの中心から各ラベル領域中心まで
の距離の比は Dkk′:Dkk1:Dkk2:… をDkk′で正規化すると、 1:dk1:dk2:… が得られる(但し、dk1、dk2、…は1≦dk1≦dk2≦…と
なるように選ばれる)。
First, any two label areas k, k '(X k ≤ X k' )
The wish, the ratio of the distance from the center of the label area k to each label region center D kk ': D kk1: D kk2: ... the D kk' when normalized, 1: d k1: d k2 : ... is obtained (However, d k1 , d k2 ,... Are selected so that 1 ≦ d k1 ≦ d k2 ≦...).

この時、ピッチ整合度mcは例えば以下のように定義さ
れる。
At this time, the pitch matching degree mc is defined, for example, as follows.

[ピッチ整合度の定義] mc=Max(MP′) p≦p′≦n′−1 但し、p′はp≦p′≦n′−1の範囲に選ばれ、M
p′は以下の様に定義される。
[Definition of Pitch Matching Degree] m c = Max (M P ′ ) p ≦ p ′ ≦ n′−1 where p ′ is selected in the range of p ≦ p ′ ≦ n′−1, and M
p ' is defined as follows.

以上説明してきた方法によって得られるピッチ整合度
は、「認識対象になっている文字列らしさ」を表してい
る。例えば、ナンバープレートが認識対象の場合には、
ナンバープレートの文字列に対しては大きなピッチ整合
度の値、車体に書かれたナンバープレート以外の広告な
どの文字列に対しては小さな値になる。従って、求めら
れたピッチ整合度が実験的に決定される閾値よりも大き
ければ、認識対象文字列であると見做せる。一方、ピッ
チ整合度の値が小さい場合には、認識対象文字列と異な
っていると見做せるので、文字候補から除外する。
The pitch matching degree obtained by the method described above represents “the likeness of a character string to be recognized”. For example, if the license plate is to be recognized,
The value of the pitch matching degree is large for a character string of a license plate, and small for a character string of an advertisement other than a license plate written on a vehicle body. Therefore, if the obtained pitch matching degree is larger than a threshold value experimentally determined, the character string can be regarded as a recognition target character string. On the other hand, when the value of the pitch matching degree is small, it can be considered that the value is different from the recognition target character string, and is excluded from the character candidates.

傾き補正部34は、文字列テーブル32に格納された各文
字列候補について、x軸方向およびy軸方向の傾きを求
めて補正し、補正された画像を変換パターンメモリ35に
与え、変換後の座標を変換座標テーブル36に与える。
The inclination correction unit 34 calculates and corrects the inclination in the x-axis direction and the y-axis direction for each of the character string candidates stored in the character string table 32, gives the corrected image to the conversion pattern memory 35, and The coordinates are given to the transformation coordinate table 36.

第12図は本発明の一実施例の文字列候補全体の傾きを
求める処理の説明図を示す。
FIG. 12 is an explanatory diagram of a process for obtaining the inclination of the entire character string candidate according to one embodiment of the present invention.

文字列ピッチ整合度算出部33と同様に文字列番号cを
構成する文字列についてL1,L2,L3…Lnの各ラベル領域k
の外接矩形のX座標(Xks、Xke),Y座標(Yks,Yke)は
ラベルテーブル28より求める。また、これら各ラベル領
域の中心の座標Xk、Ykは Xk=(Xks+Xke)/2 Yk=(Yks+Yke)/2 により求められる(ここでは、横書きの場合について述
べるが、縦書きでも同様である)。次に各隣接する1組
のラベル領域(k1,k2)の外接矩形の中点(Xk1,Yk1
(Xk2,Yk2)を直線で結んで各組毎の傾きθ(pは隣
接するラベル領域の組合せ番号で、1≦p≦N−1;Nは
文字列候補に含まれるラベル領域数)を、 tanθ=(Xk2−Xk2)/(Yk2−Yk1) により、その平均値から文字列全体の傾きθ を求める。この時他と大きく異なる値を与えるtanθ
の値は上記平均操作から除外する。
Each label area k of like the string pitch matching calculation unit 33 for the character string constituting the character string number c L 1, L 2, L 3 ... L n
The X coordinate (X ks , X ke ) and the Y coordinate (Y ks , Y ke ) of the circumscribed rectangle are obtained from the label table 28. Also, the coordinates X k and Y k of the center of each of these label regions are obtained by X k = (X ks + X ke ) / 2 Y k = (Y ks + Y ke ) / 2 (Here, the case of horizontal writing will be described. However, the same applies to vertical writing.) Next, the midpoint (X k1 , Y k1 ) of the circumscribed rectangle of each pair of adjacent label areas (k 1 , k 2 )
(X k2 , Y k2 ) are connected by a straight line, and the slope θ p of each pair is set (p is a combination number of adjacent label areas, 1 ≦ p ≦ N−1; N is the number of label areas included in the character string candidate) ) Is calculated as tan θ p = (X k2 −X k2 ) / (Y k2 −Y k1 ), and the inclination θ k of the entire character string is calculated from the average value. Ask for. At this time, tanθ p giving a value that is significantly different from the others
Are excluded from the above averaging operation.

次に、各ラベルの外接矩形内の任意の座標点(x,y;X
ks≦x≦Xks;Yks≦y≦Yks)に対して u=x v=x tanθ+y なる幾何学的変換(y方向にシフト)を施し、変換後の
画像(u,v)を変換パターンメモリ35に一時格納する。
ここでの変換の中心点は文字列全体の外接矩形の中点と
する。第13図は本発明の一実施例の文字列候補全体をta
により変換して得た結果の一例である。
Next, an arbitrary coordinate point (x, y; X
ks ≦ x ≦ X ks ; Y ks ≦ y ≦ Y ks ) is subjected to a geometric transformation u = x v = x tan θ k + y (shifted in the y direction), and the transformed image (u, v) Is temporarily stored in the conversion pattern memory 35.
The center point of the conversion here is the middle point of the circumscribed rectangle of the entire character string. FIG. 13 shows the entire character string candidate according to an embodiment of the present invention as ta.
It is an example of a result obtained by converting the n.theta k.

第14図は本発明の一実施例の文字の傾きを求める過程
を示す。上記によって求められたu,v画像の各座標点
(u,v)について u′=u tanθ v′=v となる幾何学的変換(x方向シフト)を施す。このとき
θは、変換後のu′、v′画像における垂直成分透過
率が最も大きくなるように、即ち文字部分のx軸への射
影幅が最小になるように、θを0からπまで変化させ
ながら決定される。
FIG. 14 shows a process of obtaining the inclination of a character according to one embodiment of the present invention. For each coordinate point (u, v) of the u, v image obtained as described above, a geometric transformation (x-direction shift) such that u ′ = u tan θ s v ′ = v is performed. In this case theta s is, u converted ', v' as vertical component transmittance of the image becomes the largest, i.e. as the projection width of the x-axis of the character portion is minimized, the theta s from 0 [pi It is determined while changing it.

この様にして得られたu′、v′画像を変換パターン
メモリ35に再登録し、変換パターンメモリ35内の各ラベ
ル領域の外接矩形座標とラベル番号を変換座標テーブル
36に登録する。
The u ′ and v ′ images obtained in this manner are re-registered in the conversion pattern memory 35, and the circumscribed rectangular coordinates and label numbers of each label area in the conversion pattern memory 35 are converted into a conversion coordinate table.
Register to 36.

第15図は本発明の一実施例の変換座標テーブルの内容
の一例を示す。同図において、71は文字列番号であって
文字列テーブル32の文字列番号81に対応した位置に登録
される。72は各ラベルにおけるラベル番号、73は外接矩
形の左上頂点のX座標、74は外接矩形の右下頂点のX座
標、75は左上頂点のY座標、76は右下頂点のY座標を示
す。
FIG. 15 shows an example of the contents of a transformed coordinate table according to one embodiment of the present invention. In the figure, reference numeral 71 denotes a character string number, which is registered at a position corresponding to the character string number 81 in the character string table 32. 72 is the label number of each label, 73 is the X coordinate of the upper left vertex of the circumscribed rectangle, 74 is the X coordinate of the lower right vertex of the circumscribed rectangle, 75 is the Y coordinate of the upper left vertex, and 76 is the Y coordinate of the lower right vertex.

文字認識部37は、変換座標テーブルに格納された文字
列に含まれる各ラベル領域を変換パターンメモリ35より
その外接矩形で切り出し、予め用意する文字テンプレー
トとの整合は例えば文字テンプレートと変換パターンメ
モリ35より切り出された外接矩形の縦横比及び大きさが
等しくなるように正規化して重ね合わせ、両パターンの
不一致画素数が最小になった文字カテゴリ名を認識結果
とする。但し、不一致画素数がいずれのテンプレートに
対しても一定値を越える場合には認識結果を棄却する。
The character recognizing unit 37 cuts out each label area included in the character string stored in the conversion coordinate table from the conversion pattern memory 35 as a circumscribed rectangle, and matches the character template prepared in advance with, for example, the character template and the conversion pattern memory 35. The extracted circumscribed rectangles are normalized and superimposed so that the aspect ratios and the sizes of the circumscribed rectangles are equal to each other, and a character category name in which the number of mismatching pixels of both patterns is minimized is set as a recognition result. However, if the number of mismatched pixels exceeds a certain value for any template, the recognition result is rejected.

この様にして、文字列c毎に認識された文字数Rcを求
め、これと文字列テーブル32に格納されているピッチ整
合度mcとにより例えば、 Rc*mc の値を求め、この値を最大とする文字列cの認識結果を
出力する。上記により文字認識される。
In this way, obtains the number of characters R c recognized for each string c, for example, by the pitch matching degree m c stored in this and the string table 32, obtains a value of R c * m c, this The recognition result of the character string c having the maximum value is output. The character is recognized as described above.

本発明を用いて車のナンバープレートを認識する実験
を行った結果、ナンバープレートに対して左右±50゜、
上下±60゜の角度から観測した画像についても車のナン
バーを良好に認識することができた。
As a result of conducting an experiment for recognizing a license plate of a car using the present invention, ± 50 ° left and right with respect to the license plate,
The car number could be recognized well in the image observed from an angle of ± 60 ° vertically.

〔発明の効果〕〔The invention's effect〕

上記のように、本発明によれば、文字列の候補を整合
ピッチの大きさによって求め、これらのそれぞれを認識
すべき正しい文字列と仮定し、文字列の外接矩形が長方
形となるように補正した後、文字の縦横比、大きさを補
正して認識するため文字を斜め方向から観測する場合で
あっても安定な文字の認識が可能となる。従って、斜め
方向から観測された文字の認識対象に適応されたとき、
利点が極めて大きい。
As described above, according to the present invention, character string candidates are determined based on the size of the matching pitch, and each of them is assumed to be a correct character string to be recognized, and the circumscribed rectangle of the character string is corrected to be a rectangle. After that, since the character is recognized by correcting the aspect ratio and size thereof, the character can be stably recognized even when the character is observed from an oblique direction. Therefore, when applied to the recognition target of a character observed from an oblique direction,
The benefits are extremely large.

【図面の簡単な説明】[Brief description of the drawings]

第1図は本発明の原理説明のためのフローチャート、 第2図は本発明の一実施例のブロック図、 第3図は本発明の一実施例のラベル付け処理部の処理の
説明図、 第4図は本発明の一実施例のラベルテーブルの記憶内容
の一例を示す図、 第5図は本発明の一実施例のラベルマトリックスの構成
例を示す図、 第6図は本発明の一実施例の位置関係決定の説明図、 第7図は本発明の一実施例の位置関係による文字列抽出
部の処理内容に関する説明図、 第8図は本発明の一実施例の位置関係による文字列抽出
部の処理フローチャート、 第9図は本発明の一実施例の位置関係による文字列抽出
の結果の一例を示す図、 第10図は本発明の一実施例の横書きの文字列に関する文
字列テーブルの内容の一例を示す図、 第11図は本発明の一実施例のピッチ情報の説明図、 第12図は本発明の一実施例の文字列候補全体の傾きを求
める処理の説明図、 第13図は本発明の一実施例の文字列候補全体をtanθ
により変換した結果の一例を示す図、 第14図は本発明の一実施例の文字の傾きを求める過程を
示す図、 第15図は本発明の一実施例の変換座標テーブルの内容の
一例を示す図、 第16図は従来例のフローチャート、 第17図は観測方向によって矩形プレートの形状が変化す
ることの説明図。 11……ラベル付け手段、12……ラベル領域間の相対的位
置関係算出手段、13……文字候補算出手段、14……ピッ
チ算出手段、15……文字列候補選択手段、16……文字傾
き補正手段、17……文字認識処理手段、23……多値フレ
ームメモリ、25……2値パターンメモリ、26……ラベル
付け処理部、27……ラベルパターンメモリ、28……ラベ
ルテーブル、30……ラベルマトリックス、31……文字列
抽出部、32……文字列テーブル、33……ピッチ整合度算
出部、34……傾き補正部、35……変換パターンメモリ、
36……変換座標テーブル、37……文字認識部、51……縦
方向のアドレス、52……横方向アドレス。
FIG. 1 is a flowchart for explaining the principle of the present invention, FIG. 2 is a block diagram of one embodiment of the present invention, FIG. 3 is an explanatory diagram of the processing of a labeling processing unit of one embodiment of the present invention, 4 is a diagram showing an example of the contents of a label table according to an embodiment of the present invention. FIG. 5 is a diagram showing a configuration example of a label matrix according to an embodiment of the present invention. FIG. 6 is an embodiment of the present invention. FIG. 7 is an explanatory diagram of an example of a positional relationship determination, FIG. 7 is an explanatory diagram of a processing content of a character string extracting unit based on a positional relationship according to an embodiment of the present invention, and FIG. 9 is a diagram showing an example of a result of character string extraction based on a positional relationship according to an embodiment of the present invention. FIG. 10 is a character string table relating to a horizontally written character string according to an embodiment of the present invention. FIG. 11 is a diagram showing an example of the contents of FIG. 11, and FIG. Illustration of distribution, FIG. 12 is an explanatory view of a process of obtaining the inclination of the entire character string candidates of an embodiment of the present invention, Fig. 13 tan .theta k the entire string candidates of an embodiment of the present invention
FIG. 14 is a diagram showing an example of a result of conversion according to an embodiment of the present invention. FIG. 14 is a diagram showing a process of calculating the inclination of a character according to an embodiment of the present invention. FIG. 15 is an example of the contents of a converted coordinate table according to an embodiment of the present invention. FIG. 16 is a flowchart of a conventional example, and FIG. 17 is an explanatory diagram showing that the shape of a rectangular plate changes depending on the observation direction. 11 ... labeling means, 12 ... relative positional relationship calculating means between label areas, 13 ... character candidate calculating means, 14 ... pitch calculating means, 15 ... character string candidate selecting means, 16 ... character inclination Correction means, 17 ... Character recognition processing means, 23 ... Multi-valued frame memory, 25 ... Binary pattern memory, 26 ... Labeling processing unit, 27 ... Label pattern memory, 28 ... Label table, 30 ... ... Label matrix, 31 ... Character string extraction unit, 32 ... Character string table, 33 ... Pitch matching degree calculation unit, 34 ... Skew correction unit, 35 ... Conversion pattern memory,
36: conversion coordinate table, 37: character recognition unit, 51: vertical address, 52: horizontal address

───────────────────────────────────────────────────── フロントページの続き (58)調査した分野(Int.Cl.6,DB名) G06K 9/36 G06K 9/32 ──────────────────────────────────────────────────続 き Continued on front page (58) Field surveyed (Int.Cl. 6 , DB name) G06K 9/36 G06K 9/32

Claims (1)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】2値化された景観画像の白部分および黒部
分のそれぞれにラベル付け処理を行い、 該ラベル付け処理により同一のラベルの付された領域と
して定義されるラベル領域間の相対位置関係を求め、 算出された相対位置関係から、同一行の文字数が所定の
値以上の複数のラベル領域からなる文字列候補を求め、 抽出された該文字列候補に含まれる各ラベル領域間のピ
ッチを求め、 算出された該ピッチと認識対象に固有な書式情報とを照
合してピッチ整合度を求め、そのピッチ整合度の大きさ
によって文字列候補を限定し、 該文字列候補を認識辞書内の標準パターンと照合するこ
とによって文字を認識する文字認識方法において、 限定された前記文字列候補に対して、水平軸方向との傾
きを求めて補正し、その後に前記補正した文字列候補に
対して垂直軸方向との傾きを求めて補正し、斜め方向か
ら観測された文字を認識することを特徴とする文字の認
識方法。
1. A labeling process is performed on each of a white portion and a black portion of a binarized landscape image, and a relative position between label regions defined as the same labeled region by the labeling process. From the calculated relative positional relationship, a character string candidate consisting of a plurality of label regions in which the number of characters on the same line is equal to or greater than a predetermined value is obtained, and the pitch between the label regions included in the extracted character string candidate is determined. The pitch is calculated by comparing the calculated pitch with format information unique to the recognition target to determine a pitch matching degree. Character string candidates are limited by the magnitude of the pitch matching degree, and the character string candidates are stored in the recognition dictionary. In a character recognition method for recognizing characters by collating with a standard pattern of, the inclination of the limited character string candidate with respect to the horizontal axis direction is determined and corrected, and then the corrected character Character recognition method which is characterized in that corrected seeking inclination of the vertical axis direction, to recognize the observed characters obliquely to the candidate.
JP2234029A 1990-09-04 1990-09-04 Character recognition method Expired - Lifetime JP2975067B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2234029A JP2975067B2 (en) 1990-09-04 1990-09-04 Character recognition method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2234029A JP2975067B2 (en) 1990-09-04 1990-09-04 Character recognition method

Publications (2)

Publication Number Publication Date
JPH04113486A JPH04113486A (en) 1992-04-14
JP2975067B2 true JP2975067B2 (en) 1999-11-10

Family

ID=16964446

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2234029A Expired - Lifetime JP2975067B2 (en) 1990-09-04 1990-09-04 Character recognition method

Country Status (1)

Country Link
JP (1) JP2975067B2 (en)

Also Published As

Publication number Publication date
JPH04113486A (en) 1992-04-14

Similar Documents

Publication Publication Date Title
US7440618B2 (en) Apparatus for extracting rules line from multiple-valued image
US20080212837A1 (en) License plate recognition apparatus, license plate recognition method, and computer-readable storage medium
CN112997190B (en) License plate recognition method and device and electronic equipment
US8036461B2 (en) Method of graphical objects recognition using the integrity principle
JP3471578B2 (en) Line direction determining device, image tilt detecting device, and image tilt correcting device
JP3254464B2 (en) Vehicle recognition device and moving object recognition method
JP4543675B2 (en) How to recognize characters and figures
CN111860113A (en) Lane line detection method and system
JP2975067B2 (en) Character recognition method
Siddique et al. Development of an automatic vehicle license plate detection and recognition system for Bangladesh
JPWO2006080568A1 (en) CHARACTER READING DEVICE, CHARACTER READING METHOD, AND CHARACTER READING CONTROL PROGRAM USED FOR THE CHARACTER READING DEVICE
JP2013254242A (en) Image recognition device, image recognition method, and image recognition program
JP2775807B2 (en) Character recognition method
JP3303246B2 (en) Image processing device
CN111027521B (en) Text processing method and system, data processing device and storage medium
JP4492258B2 (en) Character and figure recognition and inspection methods
JP3476595B2 (en) Image area division method and image binarization method
JP2868134B2 (en) Image processing method and apparatus
US5408540A (en) Character slant recognition in a word image
JP3095470B2 (en) Character recognition device
JPH10222587A (en) Method and device for automatically discriminating slip or the like
JPH07193716A (en) Edge emphasizing device
CN110689016B (en) License plate image coarse positioning method
JP6797763B2 (en) Character recognition device
JP2647911B2 (en) Character / graphic area extraction method

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080903

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080903

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090903

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090903

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100903

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100903

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110903

Year of fee payment: 12

EXPY Cancellation because of completion of term
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110903

Year of fee payment: 12