JP2006338578A - Character recognition apparatus - Google Patents
Character recognition apparatus Download PDFInfo
- Publication number
- JP2006338578A JP2006338578A JP2005165244A JP2005165244A JP2006338578A JP 2006338578 A JP2006338578 A JP 2006338578A JP 2005165244 A JP2005165244 A JP 2005165244A JP 2005165244 A JP2005165244 A JP 2005165244A JP 2006338578 A JP2006338578 A JP 2006338578A
- Authority
- JP
- Japan
- Prior art keywords
- character
- pattern
- recognition
- cutout
- format information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Character Input (AREA)
- Character Discrimination (AREA)
Abstract
Description
この発明は、例えば、カメラ等で撮影された車輌のナンバープレート画像における車輌ナンバーを読み取る文字認識装置に関するものである。 The present invention relates to a character recognition device that reads a vehicle number in a license plate image of a vehicle photographed by a camera or the like, for example.
画像中の文字を読み取る場合、文字を検出する処理と検出された文字を認識する処理の二つに大きく分けられる。前者の文字検出における従来の技術としては、例えば、特開平7−93476号公報に示されるものがある。本技術では、まず画像を2値化してラベリング処理し、連結領域を検出する。この連結領域の中から、その大きさが所定範囲内のものを抽出して基準文字とし、さらに、基準文字周辺の濃淡パターンの射影情報を解析して他の文字を切り出す。この一連の動作により、汚れ等のノイズが付いている文字も検出する。 When reading a character in an image, it is roughly divided into a process for detecting a character and a process for recognizing the detected character. As a conventional technique in the former character detection, for example, there is a technique disclosed in JP-A-7-93476. In this technique, first, an image is binarized and subjected to a labeling process to detect a connected region. Among the connected regions, those having a size within a predetermined range are extracted as reference characters, and the projection information of the shading pattern around the reference characters is analyzed to cut out other characters. This series of operations also detects characters with noise such as dirt.
後者の文字認識については、例えば、社団法人電気通信協会発行 橋本新一郎著「文字認識概論」pp.64−93に記載の方法を使用できる。 For the latter character recognition, see, for example, “Introduction to Character Recognition” by Shinichiro Hashimoto, published by the Telecommunications Association. The method described in 64-93 can be used.
上記のとおり、従来の文字認識装置は、文字の大きさで基準文字を決めているため、文字の周辺に同等サイズの非文字パターン(汚れや影など)があった場合、この非文字パターンを文字として誤検出してしまい、文字認識の処理時間が必要以上にかかってしまうという課題があった。特に、基準文字と看倣す条件(許容サイズ)を広く設定した場合、画像中のあちこちで基準文字相当の領域を検出してしまうため、文字検出の処理時間も激増し、全体として多大な処理時間がかかってしまうという課題があった。また、誤検出が発生すると、実際に存在する文字数よりも多くの文字数分の認識結果が出力されることになり、文字列全体としての読取精度が低下するという課題もあった。 As described above, the conventional character recognition device determines the reference character based on the size of the character. Therefore, if there is a non-character pattern of the same size (such as dirt or shadow) around the character, There was a problem in that it was erroneously detected as a character, and processing time for character recognition took longer than necessary. In particular, if the conditions (allowable size) to be regarded as a reference character are set widely, areas corresponding to the reference character are detected in various places in the image, so the processing time for character detection increases drastically, and a large amount of processing as a whole. There was a problem of taking time. In addition, when erroneous detection occurs, recognition results corresponding to the number of characters larger than the number of characters that actually exist are output, and there is a problem that the reading accuracy of the entire character string is lowered.
この発明は、前記のような課題を解決するためになされたものであり、非文字パターンの誤検出を低減させて、認識処理時間の増加や読取精度の低下を抑えると共に、検出処理時間も低減させ、処理速度・精度の両者を向上させる文字認識装置を得ることを目的としている。 The present invention has been made to solve the above-described problems, and reduces false detection of non-character patterns to suppress an increase in recognition processing time and a decrease in reading accuracy, and also reduces detection processing time. An object of the present invention is to obtain a character recognition device that improves both processing speed and accuracy.
この発明に係る文字認識装置は、画像を入力する画像入力手段と、処理対象の文字列のフォーマット情報が格納されたフォーマット情報格納手段と、フォーマット情報を参照して入力画像から文字パターンを切り出す第1の文字切り出し手段と、前記第1の文字切り出し手段で切り出された文字パターンの認識を行う第1の文字認識手段と、前記第1の文字認識手段で認識された文字パターンの属性を判定する属性判定手段と、前記属性判定された文字パターンのうち所定の条件を満たす文字パターンの位置座標を基準として当該文字パターン周辺の他の文字パターンを切り出す第2の文字切り出し手段と、前記第2の文字切り出し手段で切り出された文字パターンの認識を行う第2の文字認識手段と、第1の文字認識手段と属性判定手段および第2の文字認識手段の結果から入力画像に対する認識結果を決定して出力する認識結果出力手段を備える。 The character recognition device according to the present invention includes an image input means for inputting an image, a format information storage means for storing format information of a character string to be processed, and a character pattern cut out from the input image by referring to the format information. 1 character cutout means, a first character recognition means for recognizing the character pattern cut out by the first character cutout means, and an attribute of the character pattern recognized by the first character recognition means Attribute determination means, second character cutout means for cutting out other character patterns around the character pattern on the basis of position coordinates of the character pattern satisfying a predetermined condition among the character patterns determined as attributed, and the second A second character recognition means for recognizing the character pattern cut out by the character cutout means, a first character recognition means and an attribute determination means; Beauty comprising a recognition result output means for and outputting determined recognition result for the input image from the result of the second character recognition means.
この発明に係る文字認識装置によれば、文字パターンの切り出しに、フォーマット情報格納手段に格納された処理対象文字列のフォーマット情報を参照しているので、文字列の周辺に文字と同等な大きさの非文字パターンがあったり、文字パターンが他の非文字パターンと接触している場合でも、真の文字パターンを切り出すことができる。
また、切り出された文字パターンを認識した結果を属性判定し、その属性判定の結果から第2の文字切り出し手段が対象とする切り出し領域を限定するので、無駄な検出処理や認識処理を行うことなく、処理時間を必要最小限に抑えることができる。
According to the character recognition device of the present invention, since the format information of the processing target character string stored in the format information storage means is referred to when extracting the character pattern, the character pattern has a size equivalent to that of the character around the character string. Even if there is a non-character pattern or a character pattern is in contact with another non-character pattern, a true character pattern can be cut out.
Further, the result of recognizing the extracted character pattern is subjected to attribute determination, and the cutout area targeted by the second character cutout means is limited based on the result of the attribute determination, so that unnecessary detection processing and recognition processing are not performed. , Processing time can be minimized.
実施の形態1.
以下、この発明の実施の形態1を図について説明する。図1はこの発明の実施の形態1を示す概略構成図である。図において、1はカメラ等で撮影した画素値0〜255の値をとる濃淡画像を入力し、2値画像を作成する画像入力手段、2は事前に設定された処理対象文字列のフォーマット情報が格納されたフォーマット情報格納手段、3はフォーマット情報格納手段2に格納されたフォーマット情報を参照して入力画像から文字パターンを切り出す第1の文字切り出し手段、4は第1の文字切り出し手段3で切り出された文字パターンの認識を行う第1の文字認識手段、5は第1の文字認識手段4で認識された文字パターンの属性を判定する属性判定手段、6は属性判定された文字パターンのうち所定の条件を満たす文字パターンの位置座標から当該文字パターン周辺の他の文字パターンを切り出す第2の文字切り出し手段、7は第2の文字切り出し手段6で切り出された文字パターンの認識を行う第2の文字認識手段、8は第1の文字認識手段4と属性判定手段5および第2の文字認識手段7の結果から入力画像に対する認識結果を決定して認識結果を出力する認識結果出力手段である。
次に動作を図により説明する。図2がこの発明の処理フロー図である。ここでは、図3から図6までを用いて動作を説明する。図3は認識対象の文字列画像の例であり、9〜13が文字パターン、14〜15が汚れ等の非文字パターンである。図4は第1の文字切り出し手段3による切り出し結果の例である。図5と図6は第2の文字切り出し手段6の動作を説明するための図であり、16と17はパターン検出領域である。 Next, the operation will be described with reference to the drawings. FIG. 2 is a process flow diagram of the present invention. Here, the operation will be described with reference to FIGS. FIG. 3 is an example of a character string image to be recognized, where 9 to 13 are character patterns, and 14 to 15 are non-character patterns such as dirt. FIG. 4 is an example of the cutout result by the first character cutout means 3. 5 and 6 are diagrams for explaining the operation of the second character segmenting means 6, and 16 and 17 are pattern detection areas.
まず画像入力手段1が画素値0〜255の値をとる濃淡画像を入力し(ステップS1)、これを2値化して2値画像を作成する(ステップS2)。2値化の方法としては、例えば、電子情報通信学会論文誌D Vol.J71−D No.5 pp.863−873「情景中文字の検出のための動的2値化処理法」に記載の方法を用いる。 First, the image input means 1 inputs a grayscale image having a pixel value of 0 to 255 (step S1), and binarizes this to create a binary image (step S2). As a binarization method, for example, IEICE Transactions D Vol. J71-D No. 5 pp. 863-873 “Dynamic Binarization Processing Method for Detection of Characters in Scene” is used.
その後、フォーマット情報格納手段2の内容を参照して第1の文字切り出し手段3が入力画像から1回目の文字切り出しを行う(ステップS3)。本実施の形態では、5文字の数字が均等に並んだ文字列を検出・認識するものとし、フォーマット情報格納手段2には、個々の文字の大きさや間隔に関するフォーマット情報が格納されているものとする。このフォーマット情報は、例えば以下に示す情報である。
(文字列情報1)文字の許容最大幅と許容最小幅、許容最大高さと許容最小高さ、幅・高さ比率の許容最大値と許容最小値。
(文字列情報2)隣接文字間の距離(間隔)の許容最大値と許容最小値。
(文字列情報3)第1の文字切り出し手段3で切り出す必要のある最小文字数。
(文字列情報4)文字列を構成する全文字数(本実施の形態では前記の通り5)。
Thereafter, the first
(Character string information 1) Allowable maximum width and allowable minimum width of characters, allowable maximum height and allowable minimum height, and allowable maximum value and allowable minimum value of width / height ratio.
(Character string information 2) Maximum allowable value and minimum allowable value (distance) between adjacent characters.
(Character string information 3) The minimum number of characters that need to be cut out by the first character cutout means 3.
(Character string information 4) The total number of characters constituting the character string (5 in this embodiment as described above).
ステップS3において、第1の文字切り出し手段3は、まず従来と同様に、ラベリング処理して連結領域を検出する。さらに、この連結領域の中から、幅、高さ、幅・高さ比率が前記フォーマット情報格納手段2に格納された文字列情報1の許容範囲内にあるものを文字候補パターンとして抽出し、隣接する文字候補パターンの間隔が前記文字列情報2の許容範囲内にある組み合わせを求める。この組み合わせの中で、前記文字列情報3の設定値(切り出す必要のある最小文字数)以上の文字候補パターンを含むものを求め、第1の文字切り出し手段3における1回目の切り出し結果文字列とする。例えば、ステップS3の処理で図3の画像からは文字11〜13と非文字パターン14の組み合わせ(図4の破線で囲んだ4パターン)が求められ、前記文字列情報3の値を3とすると、この組み合わせは切り出し結果文字列となり得る。なお、図3の文字9と文字10については、汚れ15との接触により全体が大きな一つの連結領域になってしまい、文字候補パターンとはならない。なお、本ステップにおいて、文字列情報3の設定値以上の文字候補パターンを含む組み合わせが一つも求められなければ、入力画像中に認識対象の文字列はないと判断して、処理を終了する。
In step S3, the first
次に、第1の文字認識手段4が、第1の文字切り出し手段3の切り出したパターンを認識し、各パターンの認識結果として、文字コードと認識評価値を出力する(ステップS4)。この認識評価値は、当該パターンと認識結果の文字コードとの類似度合いを示し、値が大きいほど、類似度合いが大きいことを示す。例えば、図4の切り出しパターン11〜14については、下記のような認識結果が得られる。
・パターン11・・・文字コード“6”、認識評価値90
・パターン12・・・文字コード“7”、認識評価値92
・パターン13・・・文字コード“8”、認識評価値88
・パターン14・・・文字コード“2”、認識評価値45
Next, the first
Pattern 11: character code “6”, recognition evaluation value 90
Pattern 12: character code “7”, recognition evaluation value 92
Pattern 13: Character code “8”, recognition evaluation value 88
Pattern 14: character code “2”,
その後、属性判定手段5は、第1の文字認識手段4が認識したパターンの属性を判定する(ステップS5)。本実施の形態では、各パターンの文字らしさを基準として属性判定するものとし、前記認識評価値が所定の閾値以上のパターンを属性A(文字らしいパターン)、閾値未満のパターンを属性B(文字でない可能性の高いパターン)に判定するものとする。例えば、この閾値を60とすると、前記の図4の切り出し結果文字列(パターン11〜14)については、パターン11〜13が属性A、パターン14が属性Bと判定される。
Thereafter, the
次に、第2の文字切り出し手段6が文字の切り出しを行うが、その最初の段階として、2回目の切り出しの基準となる規準文字を決定する(ステップS6)。本ステップでは、切り出し結果文字列の両端(水平並び文字列では左端と右端、垂直並び文字列では上端と下端)から内側に向かって各パターンの属性をチェックし、初めて出現する属性Aのパターンを文字列の境界パターンとして抽出し、境界パターンに挟まれたパターンと境界パターンとを合わせて規準文字とする。図4の切り出し結果文字列については、左端側から見た場合にパターン11が境界パターン(左端境界パターン)となり、右端側から見た場合はパターン13が境界パターン(右端境界パターン)となる。従って本実施の形態ではパターン11〜13が規準文字となる。 Next, the second character cutout means 6 cuts out the character. As a first step, the reference character as the reference for the second cutout is determined (step S6). In this step, the attribute of each pattern is checked inward from both ends of the cutout character string (left and right edges for horizontal aligned character strings, and top and bottom edges for vertical aligned character strings), and the pattern of attribute A that appears for the first time is checked. A character string is extracted as a boundary pattern, and the pattern sandwiched between the boundary patterns and the boundary pattern are combined as a reference character. For the cutout character string in FIG. 4, the pattern 11 becomes a boundary pattern (left end boundary pattern) when viewed from the left end side, and the pattern 13 becomes a boundary pattern (right end boundary pattern) when viewed from the right end side. Therefore, in the present embodiment, the patterns 11 to 13 are reference characters.
さらに第2の文字切り出し手段6は、フォーマット情報格納手段2の内容に加え、規準文字の大きさや間隔の情報も使用して2回目の文字切り出しを行う(ステップS7)。本ステップでは、文字列の境界パターンから外側へ向かって新たな文字パターンを切り出していくものとする。以下、図4の切り出し結果文字列のケースで動作の例を説明する。図4のケースでは、右端境界パターン13の右隣には既に属性B(非文字の可能性が高い)と判定されたパターンが存在するため、第2の文字切り出し手段6は右端境界パターン13の右側は参照せず、左側境界パターン11より左側の領域に対象範囲を限定して一つ一つの文字を切り出して行く。まず、規準文字11〜13のパターン間距離(間隔)と高さの平均値を求め、左側境界パターン11から前記パターン間距離の平均値だけ左側の位置に、高さは前記高さ平均値、幅は前記フォーマット情報格納手段2に格納された文字列情報1の許容最大幅となるパターン検出領域を設定し、この領域から一つの文字パターンを検出する。
Further, the second character cutout means 6 performs the second character cutout using the size and interval information of the reference character in addition to the contents of the format information storage means 2 (step S7). In this step, it is assumed that a new character pattern is cut out outward from the boundary pattern of the character string. An example of the operation will be described below in the case of the cutout result character string in FIG. In the case of FIG. 4, since there is already a pattern determined to be attribute B (high possibility of non-character) on the right side of the right end boundary pattern 13, the second
図5はこの動作例であり、16がパターン検出領域を示す。この枠内の画像から文字パターンを検出する手法としては、例えば、従来の濃淡パターンの射影情報による方法を用いる。さらに、パターン検出領域16から文字パターン10が検出できた場合は、図6に示すように、文字パターン10の切り出し位置(破線枠)から左側に新たなパターン検出領域17を設定し、文字パターン9を切り出す。この動作は、規準文字と第2の文字切り出し手段6による切り出し文字数の合計値が前記フォーマット情報格納手段2の文字列情報4(文字列を構成する全文字数)に一致するまで繰り返す。本実施の形態では文字列情報4の値を5としているため、文字パターン9が切り出された時点で、このステップは終了する。
FIG. 5 shows an example of this operation.
第2の文字認識手段7では、第2の文字切り出し手段6が切り出したパターン9および10を認識し、各パターンの認識結果として、文字コードと認識評価値を出力する(ステップS8)。例えば、図6のパターン9や10からは下記のような認識結果が得られる。
・パターン9 ・・・文字コード“4”、認識評価値91
・パターン10・・・文字コード“5”、認識評価値89
最後に認識結果出力手段8が、第1の文字認識手段4と属性判定手段5と第2の文字認識手段7の出力から文字列全体の認識結果を決定し、出力する(ステップS9)。この文字列全体の認識結果の決定方法としては、例えば、規準文字と第2の文字認識手段7の認識結果を組み合わせたものとし、“45678”を出力する。
The second
Pattern 9: Character code “4”, recognition evaluation value 91
Pattern 10: character code “5”, recognition evaluation value 89
Finally, the recognition result output means 8 determines and outputs the recognition result of the entire character string from the outputs of the first character recognition means 4, the attribute determination means 5 and the second character recognition means 7 (step S9). As a method of determining the recognition result of the entire character string, for example, the reference character and the recognition result of the second character recognition means 7 are combined, and “45678” is output.
本実施の形態では、以上の工程を経ることで、文字列の周辺に文字と同等な大きさの非文字パターンがあったり、文字パターンが他と接触している場合でも、真の文字パターンの認識結果だけを出力することができる。また、属性判定の結果から第2の文字切り出し手段6が対象とする領域を限定したので、無駄な検出処理や認識処理を行うことなく、処理時間を必要最小限に抑えることができる。 In the present embodiment, through the above process, even if there is a non-character pattern of the same size as the character around the character string, or even if the character pattern is in contact with others, the true character pattern Only the recognition result can be output. Moreover, since the area | region which the 2nd character extraction means 6 makes object was limited from the result of attribute determination, processing time can be restrained to the minimum necessary, without performing useless detection processing and recognition processing.
なお、本実施の形態では、電子情報通信学会論文誌掲載の方法を用いて2値化したが、これは他の2値化法を用いても良く、ラベリング処理が可能であれば、2値化以外の変換方法でも良い。例えば、各画素を0〜2の3値化し、画素値1の連結領域をラベリング処理で求めるような方法でも良い。また、第2の文字切り出し手段6では、1文字ずつパターン検出領域を設定し射影情報を用いて切り出しを行ったが、これは別の方法でも良く、例えば、ステップS2で用いた2値化閾値とは異なる閾値で2値化し、ラベリング処理を行うような方法でも良い。非文字パターンと文字パターンとで濃淡差があれば、この方法でも文字パターン部分だけを抽出できる。
In this embodiment, binarization is performed using the method published in the IEICE Transactions, but other binarization methods may be used. If labeling processing is possible, binarization is possible. Conversion methods other than conversion may be used. For example, a method may be used in which each pixel is trinized from 0 to 2 and a connected region of
また、認識結果出力手段8は、規準文字と第2の文字認識手段7の認識結果の組み合わせを文字列の認識結果としたが、これは別の方法でも良い。例えば、上記実施の形態では第2の文字認識手段7の認識結果においてパターン9、10では認識評価値が91,89と高いものであった。しかし、このパターンが汚れや影等であり、認識評価値が第1の文字認識手段3の認識結果による認識評価値の低いパターン14よりもさらに低い場合もあり得る。この様な場合は第1の文字認識手段3の認識結果と第2の文字認識手段7の認識結果とを比較して認識評価値の良い方を基準文字に加えて文字列情報4に定められた全文字数分を抽出して認識結果としても良い。
また、本実施の形態では、第2の文字切り出し手段6が処理を終了してから第2の文字認識手段7が認識処理を行ったが、これは、第2の文字切り出し手段6が1文字切り出して第2の文字認識手段7が当該パターンを認識するという動作を繰り返すような実現方法でも良い。
Further, although the recognition
Further, in the present embodiment, the second
実施の形態2.
以下、この発明の実施の形態2を図について説明する。概略構成図は実施の形態1と同じく図1である。
次に動作を図により説明する。本実施の形態の処理フローは図7である。ここでは、図8〜12を用いて動作を説明する。図8は認識対象文字列のバリエーションを示す図である。図9はフォーマット情報格納手段2に格納されたフォーマット情報の一部を示す図であり、18〜23は文字パターンを示す矩形である。図10は認識対象の文字列画像の例であり、24〜28が文字パターン、29は汚れ(非文字パターン)である。図11は第1の文字切り出し手段3による1回目の切り出し結果の例である。図12は第2の文字切り出し手段6の動作を説明するための図であり、30はパターン検出領域である。
実施の形態1では、各文字の大きさや間隔が等しい文字列を対象としたのに対し、本実施の形態では、文字の大きさや間隔が異なる文字列を認識対象とした動作を説明する。
A second embodiment of the present invention will be described below with reference to the drawings. The schematic configuration diagram is FIG. 1 as in the first embodiment.
Next, the operation will be described with reference to the drawings. The processing flow of this embodiment is shown in FIG. Here, the operation will be described with reference to FIGS. FIG. 8 is a diagram showing variations of the recognition target character string. FIG. 9 is a diagram showing a part of the format information stored in the format information storage means 2, and 18 to 23 are rectangles showing character patterns. FIG. 10 is an example of a character string image to be recognized, in which 24-28 are character patterns, and 29 is dirt (non-character patterns). FIG. 11 is an example of the first cutout result by the first character cutout means 3. FIG. 12 is a diagram for explaining the operation of the second character cutout means 6, and 30 is a pattern detection area.
In the first embodiment, character strings having the same size and interval of each character are targeted. In the present embodiment, operations for character strings having different character sizes and intervals are described.
まず、実施の形態1と同様の手順で、画像入力手段1が画素値0〜255の値をとる濃淡画像を入力して(ステップT1)、2値画像を作成する(ステップT2)。次に、認識対象文字列に対応したフォーマット情報が格納されたフォーマット情報格納手段2の内容を参照して第1の文字切り出し手段3が2値化された入力画像から1回目の文字切り出しをする(ステップT3)。本実施の形態では、図8に示すように、1〜3桁の小さい数字の後に2〜3桁の大きい数字が続く文字列を認識対象にするものとする(数字0〜9の組み合わせとしては図8に限定せず、例えば3桁であれば、000〜999まであり得る)。
First, in the same procedure as in the first embodiment, the image input means 1 inputs a grayscale image having a pixel value of 0 to 255 (step T1) and creates a binary image (step T2). Next, referring to the contents of the format information storage means 2 in which the format information corresponding to the recognition target character string is stored, the first character cutout means 3 cuts out the first character from the binarized input image. (Step T3). In this embodiment, as shown in FIG. 8, a character string in which a small number of 1 to 3 digits is followed by a large number of 2 to 3 digits is set as a recognition target (as a combination of
また、本実施の形態におけるフォーマット情報格納手段2の内容は下記とする。
(文字列情報1')出現可能性のある文字パターンを所定の順序で並べた並び情報。例えば図9の18〜23の6パターンから構成される並び情報であり、各パターンについて、以下の情報を持つ。
・小さい数字(S)と大きい数字(L)のどちらかを示すパターンサイズ分類情報。
・第1の文字切り出し手段3での検出が必須のパターンか(A)、第1の文字切り出し手段3と第2の文字切り出し手段6のどちらで切り出しても良いパターンか(Z)を示す文字切り出し手段対応情報。
・3文字文字列での先頭文字となりえるか(○)、なりえないか(×)を示す3文字文字列の先頭文字可否情報。
・4文字文字列での先頭文字となりえるか(○)、なりえないか(×)を示す4文字文字列の先頭文字可否情報。
・5文字文字列での先頭文字となりえるか(○)、なりえないか(×)を示す5文字文字列の先頭文字可否情報。
The contents of the format information storage means 2 in the present embodiment are as follows.
(Character string information 1 ′ ) Arrangement information in which character patterns that may appear are arranged in a predetermined order. For example, the arrangement information includes 6 patterns 18 to 23 in FIG. 9, and each pattern has the following information.
Pattern size classification information indicating either a small number (S) or a large number (L).
A character indicating whether the pattern must be detected by the first character cutout means 3 (A) or a pattern that can be cut out by either the first character cutout means 3 or the second character cutout means 6 (Z) Cutout means correspondence information.
Information on whether or not the first character of the three-character string indicates whether it can be the first character in the three-character string (◯) or not (×).
Information on whether or not the first character of the four-character string can be the first character in the four-character string (◯) or not (×).
Information on whether or not the first character of the 5-character string can be the first character (O) or not (X).
(文字列情報2')パターンサイズ情報SとLそれぞれの文字についての、許容最大幅と許容最小幅、許容最大高さと許容最小高さ、幅・高さ比率の許容最大値と許容最小値。
(文字列情報3')パターンサイズ情報SとS、SとL、LとLの文字間における、距離の標準値と許容最大値と許容最小値。
ここで、文字列情報1'における文字切り出し手段対応情報は、実施の形態1における文字列情報3を代用するものであるが、パターンサイズ分類情報などと合せ、単なる文字数指定である実施の形態1における文字列情報3よりも細かい指定が可能な形態になっている。
また、上記文字列情報1'の先頭文字可否情報は3〜5文字の文字列のみが定義されている。これは、文字列を構成する文字数の最小値は3、最大値は5であることを意味する。
(Character string information 2 ' ) The permissible maximum width and permissible minimum width, permissible maximum height and permissible minimum height, permissible maximum value and permissible minimum value of the width / height ratio for each character of pattern size information S and L.
(Character string information 3 ' ) The standard value, allowable maximum value, and allowable minimum value of the distance between the pattern size information S and S, S and L, and L and L characters.
Here, the character cutout means correspondence information in the
Further, only the character string of 3 to 5 characters is defined as the first character propriety information of the
ステップT3において、第1の文字切り出し手段3は、従来と同様に連結領域を検出し、この連結領域の中から、幅、高さ、幅・高さ比率が前記文字列情報2'の許容範囲内にあるものを、S、L、あるいはSとL両方のラベルを付けて文字候補パターンとする。そして、文字候補パターンのラベルの組み合わせにおいて、図9の文字切り出し対応情報がAのパターンを全て含み、かつ間隔が前記文字列情報3'の許容範囲内にあるものを求め、第1の文字切り出し手段3における1回目の切り出し結果文字列とする。この場合、例えば、図10の画像からは、文字25〜28の組み合わせ(図11の破線で囲んだパターン)が図9におけるパターン20〜23と対応付けられ、切り出し結果文字列となる。
ここで、図10の文字24については、汚れ29との接触により文字よりもかなり幅広の連結領域になってしまい、文字候補パターンとはならない。
なお、パターン25〜27のどれかが文字候補パターンとならなかった場合は、文字切り出し対応情報Aのパターンで対応なしのものが発生するため、切り出し結果文字列とはならない。
In step T3, the first character cutout means 3 detects a connected area in the same manner as in the prior art, and from this connected area, the width, height, and width / height ratio are within the allowable range of the
Here, the
If any of the
次に、実施の形態1と同様に、第1の文字認識手段4が、第1の文字切り出し手段3の切り出したパターンを認識し、各パターンの認識結果として、文字コードと認識評価値を出力する(ステップT4)。その後、属性判定手段5は、第1の文字認識手段4が認識したパターンの属性を判定するが(ステップT5)、本実施の形態では、実施の形態1で用いた認識情報に加え、当該パターン周辺の濃淡画像の情報を用いるものとする。
Next, as in the first embodiment, the first
この濃淡画像情報は、例えば、判定対象の濃淡画像のエッジ強度や、濃淡画像を異なる閾値で2値化した場合の輪郭位置の変化量を用いる。一般に、影や模様に比べて文字パターンはコントラストがはっきりしており、境界部分での濃淡差が大きいため、エッジ強度が大きく、また、2値化した場合の輪郭位置(2値パターンの上下左右端位置)は安定しているという特徴がある。このため、例えば、CG−ARTS協会発行「ディジタル画像処理」pp.114〜116記載の微分フィルタを用いてエッジ強度(勾配の大きさ)を求め、その値を濃淡画像情報による評価値とする。あるいは、複数の異なる閾値で2値化し、2値パターン間で上下左右端位置を求め、異なる閾値間での上下左右端位置のずれ量が小さいほど大きい評価値を与えても良い。すなわち、濃淡画像を入力とし、当該画像中のパターンが文字らしいほど大きな評価値を与える方法であれば良い。 The grayscale image information uses, for example, the edge intensity of the grayscale image to be determined or the amount of change in the contour position when the grayscale image is binarized with different threshold values. In general, the character pattern has a clearer contrast than the shadow or pattern, and the contrast between the borders is large. Therefore, the edge strength is large, and the contour position when binarized (upper, lower, left and right of the binary pattern) The edge position is stable. For this reason, for example, “Digital Image Processing” pp. Edge strength (gradient magnitude) is obtained using the differential filters described in 114 to 116, and the value is used as an evaluation value based on grayscale image information. Alternatively, binarization may be performed using a plurality of different threshold values, and the upper, lower, left, and right end positions may be obtained between the binary patterns, and a larger evaluation value may be given as the shift amount between the upper, lower, left, and right end positions between the different threshold values is smaller. In other words, any method may be used as long as it accepts a grayscale image as input and gives a larger evaluation value as the pattern in the image seems to be a character.
そして、属性判定手段5は、認識評価値が所定の閾値以上で、かつ前記濃淡画像情報の評価値が閾値以上のパターンを属性A(文字らしいパターン)、どちらかが閾値未満のパターンを属性B(文字でない可能性の高いパターン)に判定するものとする。この結果、例えば、図11における文字25〜28から構成される切り出し結果文字列では、全ての文字候補パターンが属性Aと判定される。
Then, the attribute determination means 5 designates a pattern whose recognition evaluation value is equal to or greater than a predetermined threshold value and whose evaluation value of the grayscale image information is equal to or greater than the threshold value as attribute A (character-like pattern), and which pattern is less than the threshold value as attribute B. Assume that the pattern is determined to be a pattern that is not likely to be a character. As a result, for example, in the cut-out result character string composed of the
次に、第2の文字切り出し手段6が、実施の形態1と同様の手順で、2回目の切り出しの基準となる規準文字を決定する(ステップT6)。図11の切り出し結果文字列では、パターン25が左端境界パターン、パターン28が右端境界パターンとなり、パターン25〜28が規準文字となる。その後、第2の文字切り出し手段6は2回目の文字切り出しを行う(ステップT7)。図11の切り出し結果文字列では、図9のパターン並び情報における右端パターン23が既にパターン28に対応づいているため、切り出し結果文字列の右側には他の文字は無いと判断し、左側の領域から新たな文字パターンを切り出していく。
Next, the second character cutout means 6 determines a reference character as a reference for the second cutout by the same procedure as in the first embodiment (step T6). In the cutout character string shown in FIG. 11, the
以下、ステップT7の処理手順について説明する。まず、第2の文字切り出し手段6での検出可能最大文字数を求める。フォーマット情報格納手段2に格納されたフォーマット情報のうちの文字列情報1'である図9に示すパターン並び情報において、パターン20〜23は検出済みであり、この4パターンを含む可能な組み合わせは、この4パターンで4文字文字列を構成するケースと、さらにパターン19を加えた5文字文字列のケースの二通りであるので、検出可能最大文字数は1となる。
Hereinafter, the processing procedure of step T7 will be described. First, the maximum number of characters that can be detected by the second character cutout means 6 is obtained. In the pattern arrangement information shown in FIG. 9 which is the
次にパターン検出処理を行う。例えば、文字列情報3´におけるサイズ情報Sパターン同士の距離標準値だけパターン25から左側の位置に、高さはサイズ情報Sパターンの許容最大高さ、幅は同じくSパターンの許容最大幅となるパターン検出領域を設定し、実施の形態1と同様の手順で、この領域からパターン19に相当する文字パターンの検出を試みる。図12はこの動作例であり、パターン検出領域30を対象として検出処理が行われる。この動作は、検出可能最大文字数だけ検出したか、新たなパターンが検出できなくなるまで繰り返す。図12の例では、パターン検出領域30からパターン並び情報のパターン19に対応づく文字パターン24が検出でき、検出可能最大文字数は1であったため、その時点で終了する。
Next, pattern detection processing is performed. For example, the height is the allowable maximum height of the size information S pattern and the width is the allowable maximum width of the S pattern at the left position from the
第2の文字認識手段7では、実施の形態1と同様の手順で、第2の文字切り出し手段6が切り出したパターンを認識し、各パターンの認識結果として、文字コードと認識評価値を出力する(ステップT8)。その後、属性判定手段5が、第2の文字認識手段7が認識したパターンの属性判定を行うが(ステップT9)、属性判定自体の処理内容はステップT5と同じとし、図12の文字パターン24は属性Aに判定されたものとする。最後に認識結果出力手段8が、第1の文字認識手段4と属性判定手段5と第2の文字認識手段7の出力から文字列全体の認識結果を決定し、出力する(ステップT10)。
The second
ここで、ステップT5やステップT9で属性Bと判定されたものは出力しないが、図10〜12における文字パターン24〜28は全て属性Aと判断されたため、この5文字分の認識結果を出力する。実施の形態1では文字列の文字数が固定であったため、当該文字数分の認識結果を出せばよかったが、本実施の形態では、文字数が固定でない。例えば、図10〜12の例では、第1の文字認識手段が認識した文字25〜28の組み合わせでも4文字文字列となりえるし、第2の文字認識手段7が認識した文字24を加えた組み合わせでも5文字文字列となりえるので、このうちどちらが適正かを判断するため、ステップT9で属性判定を行い、ステップT10ではこの判定結果も用いて認識結果を決定する。
Here, although what was determined to be attribute B in step T5 or step T9 is not output, since all
本実施の形態では、以上の工程を経ることで、文字並びのバリエーションが豊富な文字列を対象とした場合でも、必要最小限のフォーマット情報を保持するだけでよく、効率の良い切り出し・認識が行え、誤検出や誤認識を抑えることができる。特に、フォーマット情報に文字切り出し手段対応情報を備えたため、処理の前段で検出が必須となる重要な文字パターン(文字列と看倣せるキーとなるパターン)と、それ以外のパターンとを区別して扱うことができる。また、属性情報として画像情報も用いるため、認識評価値だけでは文字か否か判定しにくいパターン(例えば「1」のような単純な形状のパターン)でも判定し易くなる。なお、本実施の形態では、ステップT5とステップT9で同じ属性判定方法を用いたが、これは異なる方法でも良く、属性の種類もA、Bの2種類より増やしても良い。また、属性判定用の画像情報としてエッジ強度や輪郭位置の変化量を用いたが、これは別の方法で求めても良い。さらに、文字サイズ情報としてSとLの2種類を用いたが、3種類以上に増やしても良い。 In this embodiment, through the above steps, even when character strings with a wide variety of character arrangements are targeted, it is only necessary to hold the minimum necessary format information, and efficient segmentation and recognition can be performed. It is possible to suppress false detection and recognition. In particular, since the format information includes character extraction means correspondence information, an important character pattern (a pattern that can be regarded as a character string) that must be detected in the previous stage of processing is distinguished from other patterns. be able to. Further, since image information is also used as attribute information, it is easy to determine even a pattern that is difficult to determine whether or not it is a character by only the recognition evaluation value (for example, a simple shape pattern such as “1”). In the present embodiment, the same attribute determination method is used in step T5 and step T9. However, this may be a different method, and the types of attributes may be increased from two types A and B. Further, although the edge intensity and the amount of change in the contour position are used as the image information for attribute determination, this may be obtained by another method. Furthermore, although two types of S and L are used as character size information, it may be increased to three or more types.
実施の形態3.
以下、この発明の実施の形態3を図について説明する。概略構成図は実施の形態1と同じく図1である。
次に動作を図により説明する。本実施の形態の処理フローは実施の形態2と同じく図7である。ここでは、図13〜14を用いて動作を説明する。図13は認識対象の文字列のバリエーションを示す図である。図14はフォーマット情報格納手段2に格納されたフォーマット情報の一部である文字列情報1'を示す図であり、31〜36は文字パターンを示す矩形である。
A third embodiment of the present invention will be described below with reference to the drawings. The schematic configuration diagram is FIG. 1 as in the first embodiment.
Next, the operation will be described with reference to the drawings. The processing flow of this embodiment is shown in FIG. Here, the operation will be described with reference to FIGS. FIG. 13 is a diagram showing variations of character strings to be recognized. FIG. 14 is a diagram showing
まず、実施の形態2と同様の手順で、画像入力手段1が濃淡画像を入力して(ステップT1)、2値画像を作成する(ステップT2)。次に、フォーマット情報格納手段2の内容を参照して第1の文字切り出し手段3が入力画像から文字を切り出す(ステップT3)。本実施の形態では、図13に示すように、中央部分が他より間隔の大きい4ないし5桁の数字の文字列を認識対象にするものとする。フォーマット情報格納手段2に格納されるフォーマット情報における文字列情報1'の内容の例が図14であり、ここで、本実施の形態における文字切り出し手段対応情報としては、実施の形態2におけるA(第1の文字切り出し手段3での検出が必須のパターン)とZ(第1の文字切り出し手段3と第2の文字切り出し手段6のどちらで切り出しても良いパターン)に加え、第1の文字切り出し手段3で少なくとも1文字は検出を必須とするBを追加する。
First, in the same procedure as in the second embodiment, the image input means 1 inputs a grayscale image (step T1) and creates a binary image (step T2). Next, referring to the contents of the format information storage means 2, the first character cutout means 3 cuts out characters from the input image (step T3). In this embodiment, as shown in FIG. 13, it is assumed that a character string of 4 to 5 digits having a central portion with a larger interval than others is a recognition target. FIG. 14 shows an example of the contents of the
すなわち、図14の例では、パターン32、33、34の組み合わせか、パターン33、34、35の組み合わせが、第1の文字切り出し手段3で切り出させばならないパターンとなる。ここで、パターン32〜35を文字切り出し手段対応情報A、パターン31、36をZとする方法もあるが、そのようにした場合、第1の文字切り出し手段3で4文字切り出さねばならず、文字数4の文字列に対してはマージンが全くなくなる。文字切り出し手段対応情報Bを加えたことで、ステップT3において少なくとも3文字が検出できれば良くなる。
That is, in the example of FIG. 14, the combination of the
また、本実施の形態におけるフォーマット情報格納手段2に格納されるフォーマット情報における文字列情報2'、文字列情報3'の内容は下記とする。
(文字列情報2')パターンサイズ情報Lの文字についての、許容最大幅と許容最小幅、許容最大高さと許容最小高さ、幅・高さ比率の許容最大値と許容最小値。
(文字列情報3')パターンサイズ情報LとLにおいて文字切り出し手段対応情報がAとA、AとB、BとZの各文字間における、距離の標準値と許容最大値と許容最小値。
The contents of the
(Character string information 2 ′ ) Permissible maximum width and permissible minimum width, permissible maximum height and permissible minimum height, permissible maximum value and permissible minimum value of width / height ratio for the character of pattern size information L.
(Character string information 3 ′ ) In the pattern size information L and L, the character cutout correspondence information is the standard value, the allowable maximum value, and the allowable minimum value between the characters A and A, A and B, and B and Z.
第1の文字切り出し手段3でパターン32、33、34の組み合わせか、パターン33、34、35の組み合わせの何れかが切り出された以降の処理は実施の形態2と同じであり、第1の文字認識手段4が第1の文字切り出し手段3の切り出したパターンを認識し(ステップT4)、属性判定手段5が属性判定する(ステップT5)。さらに第2の文字切り出し手段6が規準文字を決定して(ステップT6)2回目の文字切り出しを行い(ステップT7)、第2の文字認識手段7が第2の文字切り出し手段6の切り出したパターンを認識して(ステップT8)、属性判定手段5が属性判定を行い(ステップT9)、認識結果出力手段8が認識結果を出力する(ステップT10)。
The processing after the combination of the
この実施の形態では、文字切り出し手段対応情報がより細かく設定され、以上の工程を経ることで、第1の文字切り出し手段3で検出できるパターン数が少ない場合でも、検出漏れを起こしづらくなる。 In this embodiment, the character cutout means correspondence information is set more finely, and through the above steps, even if the number of patterns that can be detected by the first character cutout means 3 is small, it is difficult to cause a detection omission.
実施の形態4.
以下、この発明の実施の形態4を図について説明する。概略構成図は実施の形態1と同じく図1である。
次に動作を図により説明する。本実施の形態の処理フローは実施の形態2と同じく図7である。ここでは、図8、13、15、16を用いて動作を説明する。図15は対象文字列のバリエーションの一つを示す図である。図16はフォーマット情報格納手段2に格納されたフォーマット情報の一部である文字列情報1'を示す図であり、37〜39はそれぞれ異なるフォーマット情報である。本実施の形態では、原動機付き自転車のナンバープレート文字のように多様なバリエーションを持つ文字列に対応するため、フォーマット情報格納手段2に複数のフォーマット情報を格納した例を説明する。
また、文字パターンの大きさを規定する文字列情報2'および文字パターン間の間隔を規定する文字列情報3'はそれぞれの文字列のフォーマットに対応した情報が文字列情報1'と対をなしてフォーマット情報格納手段2に格納されている。
Next, the operation will be described with reference to the drawings. The processing flow of this embodiment is shown in FIG. Here, the operation will be described with reference to FIGS. FIG. 15 is a diagram showing one variation of the target character string. FIG. 16 is a diagram showing
In addition, the
まず、実施の形態2と同様の手順で、画像入力手段1が濃淡画像を入力して(ステップT1)、2値画像を作成する(ステップT2)。次に、フォーマット情報格納手段2の内容を参照して第1の文字切り出し手段3が入力画像から文字を切り出す(ステップT3)。本実施の形態では、図8の文字列、図13の文字列および図15の文字列の3つの文字列バリエーションを全て対象とし、フォーマット情報格納手段2には、この3種類に対応したフォーマット情報の文字列情報1'が図16のように入っているものとする。図16において、フォーマット情報37は実施の形態2で用いたものと同じであり、図8の文字列に対応する。フォーマット情報38は実施の形態3で用いたものと同じであり、図13の文字列に対応する。フォーマット情報39は図15に示すように、文字の大きさ・間隔が等しい4〜5文字の文字列に対応する。また、各フォーマット情報には優先度を付けており、この値が大きいほど優先度が高いものとする。この優先度は、例えば出現頻度の高い文字列の情報に大きな優先度を付けておくなど、あらかじめ定めておく。
First, in the same procedure as in the second embodiment, the image input means 1 inputs a grayscale image (step T1) and creates a binary image (step T2). Next, referring to the contents of the format information storage means 2, the first character cutout means 3 cuts out characters from the input image (step T3). In the present embodiment, all three character string variations of the character string of FIG. 8, the character string of FIG. 13, and the character string of FIG. 15 are targeted, and the format information storage means 2 stores format information corresponding to these three types. It is assumed that the
ステップT3において、第1の文字切り出し手段3は、実施の形態2と同様に文字候補パターンを抽出した後、フォーマット情報37〜39の何れかに該当する組み合わせを抽出し、どのフォーマット情報に対応するかを示すフラグを付与して、切り出し結果文字列とする。ここで、本実施の形態では、複数の切り出し結果文字列が得られた場合は、優先度が最も大きいものを一つだけ出力するものとする。例えば、フォーマット情報37に対応する文字列とフォーマット情報39に対応する文字列の二つが得られた場合、フォーマット情報優先度の大きいフォーマット情報37に対応する切り出し結果文字列を出力する。
In step T3, the first
以降の処理は実施の形態2と同じであり、第1の文字認識手段4が第1の文字切り出し手段3の切り出したパターンを認識し(ステップT4)、属性判定手段5が属性判定する(ステップT5)。さらに第2の文字切り出し手段6が規準文字を決定して(ステップT6)2回目の文字切り出しを行う(ステップT7)。このステップT7において、本実施の形態では、フォーマット情報を参照して処理を行う際に、切り出し結果文字列に付与されているフラグに対応するフォーマット情報を選択して用いる。その後、第2の文字認識手段7が第2の文字切り出し手段6の切り出したパターンを認識して(ステップT8)、属性判定手段5が属性判定を行う(ステップT9)。最後に認識結果出力手段8が、第1の文字認識手段4と属性判定手段5と第2の文字認識手段7の出力から文字列全体の認識結果を決定し、出力する(ステップT10)。
The subsequent processing is the same as that of the second embodiment. The first
この実施の形態では、以上の工程を経ることで、対象とする文字列のバリエーションが非常に多い場合でも、誤検出を抑えつつ、効率よく文字切り出し・認識が行える。なお、本実施の形態では、フォーマット情報を3種類用いた例で説明したが、これは複数であればいくつでも良い。また、フォーマット情報優先度の設定基準を出現頻度とするように説明したが、これは別の基準で決定しても良く、例えば、誤検出の発生頻度を基準として、誤検出が多いフォーマット情報(誤検出を誘発するもの)の優先度を小さくするようにしても良い。 In this embodiment, through the above steps, even when there are very many variations of the target character string, it is possible to efficiently extract and recognize characters while suppressing erroneous detection. In the present embodiment, an example in which three types of format information are used has been described, but any number of format information may be used. Further, the description has been made so that the format information priority setting criterion is the appearance frequency. However, this may be determined based on another criterion. For example, format information with a large number of erroneous detections based on the occurrence frequency of erroneous detection ( You may make it make the priority of the thing which induces a false detection small.
また、フォーマット情報優先度を各フォーマット情報に一つずつ設定する例を説明したが、これはもっと細かく設定しても良く、例えば、同じフォーマット情報であっても、検出された文字数に基づいて異なる優先度の値を与えるようにしても良い。また、第1の文字切り出し手段3で優先度に基づき切り出し結果の選択を行ったが、第1の文字切り出し手段3では得られた複数の切り出し結果文字列を全部出力し、各切り出し結果文字列それぞれについてステップT4〜T9の処理を行い、最後の認識結果決定・出力(ステップT10)で優先度を指標の1つとして選択を行っても良い。この場合、処理量は増えるものの、各切り出し結果文字列の認識評価値も選択基準に含めることが可能となり、選択誤りを少なくできる。
Further, the example in which the format information priority is set for each format information has been described. However, this may be set more finely. For example, even if the format information is the same, the format information priority varies depending on the number of detected characters. A priority value may be given. In addition, the first
実施の形態5.
以下、この発明の実施の形態5を図について説明する。概略構成図は実施の形態1と同じく図1である。
次に動作を図により説明する。本実施の形態の処理フローは実施の形態2と同じく図7である。ここでは、図8〜9と図17〜20を用いて動作を説明する。図17は認識対象とする文字列のバリエーションを示す図である。図18は認識対象文字列画像の例であり、40〜44が数字の文字パターン、45はひらがなの文字パターン、46は汚れである。図19は第1の文字切り出し手段3による切り出し結果の例である。図20は第2の文字切り出し手段6の動作を説明するための図であり、47はパターン検出領域である。本実施の形態では、属性として字種の情報も用いる例を説明する。
Next, the operation will be described with reference to the drawings. The processing flow of this embodiment is shown in FIG. Here, the operation will be described with reference to FIGS. 8 to 9 and FIGS. FIG. 17 is a diagram showing variations of character strings to be recognized. FIG. 18 is an example of a character string image to be recognized, where 40 to 44 are numeric character patterns, 45 is a hiragana character pattern, and 46 is dirt. FIG. 19 shows an example of the cutout result by the first character cutout means 3. FIG. 20 is a diagram for explaining the operation of the second character cutout means 6, and 47 is a pattern detection area. In the present embodiment, an example will be described in which character type information is also used as an attribute.
まず、実施の形態2と同様の手順で、画像入力手段1が濃淡画像を入力して(ステップT1)、2値画像を作成する(ステップT2)。次に、フォーマット情報格納手段2の内容を参照して第1の文字切り出し手段3が入力画像から文字を切り出す(ステップT3)。本実施の形態では、図17に示すように、図8の数字3〜5桁の左側にひらがなが1文字ある文字列を対象とし、このうちの数字部分を検出・認識するものとする。フォーマット情報格納手段2に格納されるフォーマット情報における文字列情報1'は、実施の形態2で説明した図9の内容等に加え、数字の左側にひらがなが1文字あるという情報が入っているものとする。
また、実施の形態2と同様に、図9の数字の左側にひらがなが1文字あるという情報に対応する文字列情報2'と文字列情報3'がフォーマット情報格納手段2に格納されている。
ステップT3の処理の結果、図18の画像からは、文字45、文字40〜43の組み合わせ(図19の破線で囲んだパターン)が図9におけるパターン18〜22と対応付けられ、切り出し結果文字列となる。
First, in the same procedure as in the second embodiment, the image input means 1 inputs a grayscale image (step T1) and creates a binary image (step T2). Next, referring to the contents of the format information storage means 2, the first character cutout means 3 cuts out characters from the input image (step T3). In the present embodiment, as shown in FIG. 17, a character string having one hiragana character on the left side of the
Similarly to the second embodiment, the
As a result of the process of step T3, from the image of FIG. 18, a combination of
次に、実施の形態2と同様に、第1の文字認識手段4が、第1の文字切り出し手段3の切り出したパターンを認識し、各パターンの認識結果として文字コードと認識評価値を出力する(ステップT4)。その後、属性判定手段5が、第1の文字認識手段4の認識したパターンの属性を判定する(ステップT5)。本実施の形態では、ステップT5において字種も属性として用いるものとし、属性X(数字の認識評価値が大きいパターン)、属性Y(ひらがなの認識評価値が大きいパターン)、属性Z(認識評価値が小さく文字でない可能性の高いパターン)の3種類に判定するものとする。この結果、図19の切り出し結果文字列(パターン45、40〜43)については、属性判定手段5によりパターン45が属性Y、パターン40〜43が属性Xと判定される。
なお、パターン45も属性Xと判定された場合は、5文字の数字文字列となり、図9のフォーマット情報と矛盾することなく最大文字数(5)に至っているため、これ以上の文字切り出しは必要なく、以降のステップT6〜T9はスキップするが、ここでは属性Yと判定されたため、ステップT6に続く。
Next, as in the second embodiment, the first
If the
次に、第2の文字切り出し手段6が、2回目の切り出しの基準となる規準文字を決定する(ステップT6)。本実施の形態では、切り出し文字列の両端から内側に向かって各パターンの属性をチェックし、初めて出現する属性Xのパターンを文字列の境界パターンとして抽出し、境界パターンに挟まれたパターンと境界パターンとを合わせて規準文字とする。図19の切り出し結果文字列については、パターン40(左端境界パターン)とパターン43(右端境界パターン)が境界パターンとなり、パターン40、41,42,43が規準文字となる。
Next, the second character cutout means 6 determines a reference character as a reference for the second cutout (step T6). In this embodiment, the attribute of each pattern is checked inward from both ends of the cut-out character string, the attribute X pattern that appears for the first time is extracted as the boundary pattern of the character string, and the pattern and the boundary sandwiched between the boundary patterns Together with the pattern, it becomes the reference character. In the cutout character string shown in FIG. 19, the pattern 40 (left end boundary pattern) and the pattern 43 (right end boundary pattern) are boundary patterns, and the
さらに第2の文字切り出し手段6は、2回目の文字切り出しを行うが(ステップT7)、左端境界パターンの左隣にあるひらがな文字が既に検出されており、切り出し結果文字列の左側には数字パターンのないことが分かっているため、本実施の形態では左側は参照せず、右側の領域から新たな文字パターンを切り出していく。例えば、実施の形態2の文字列情報3´におけるサイズ情報Lパターン同士の距離標準値だけパターン43から右側の位置に、高さはサイズ情報Lパターンの許容最大高さ、幅は同じくLパターンの許容最大幅となるパターン検出領域を設定し、実施の形態1と同様の手順で、この領域から一つの文字パターンを検出する。図20が動作例であり、パターン検出領域47から文字パターン44が検出できる。
Further, the second character cutout means 6 performs the second character cutout (step T7), but the hiragana character adjacent to the left of the left end boundary pattern has already been detected, and the number pattern is displayed on the left side of the cutout character string. In this embodiment, the left side is not referred to, and a new character pattern is cut out from the right region. For example, the height is the maximum allowable height of the size information L pattern and the width is the same as the L pattern in the right position from the
以降の処理は実施の形態2と同じであり、第2の文字認識手段7が第2の文字切り出し手段6の切り出したパターンを認識して(ステップT8)、属性判定手段5が属性判定を行う(ステップT9)。最後に認識結果出力手段8が、第1の文字認識手段4と属性判定手段5と第2の文字認識手段7の出力から文字列全体の認識結果を決定し、出力する(ステップT10)。
The subsequent processing is the same as in the second embodiment. The second
本実施の形態は、数字部分を検出して認識するものであるから第2の文字切り出し手段6が、2回目の切り出しの基準となる規準文字を決定する際は属性判定手段5が数字の認識評価値が大きいパターンと属性判定された属性Xを抽出して決定する。
以上のように本実施の形態は上述の工程を経ることで、検出・認識対象文字列の周辺に別の文字パターンが存在する場合でも、正しく対象文字列を読み取り、その結果を出力できる。なお、本実施の形態では、数字とひらがなを字種として属性分けしたが、これは、漢字と漢字以外というような別の分け方でも良く、あるいは、数字の0〜4と5〜9を別の字種とするような細かい分け方でも良い。要は検出・認識する対象文字列と同じ属性の文字パターンを抽出して規準文字を決定すればよい。
In this embodiment, since the numeral portion is detected and recognized, the
As described above, the present embodiment can read the target character string correctly and output the result even when another character pattern exists around the detection / recognition target character string through the above-described steps. In the present embodiment, numbers and hiragana are attributed as character types, but this may be another way of dividing such as kanji and other than kanji, or the numbers 0-4 and 5-9 may be separated. It may be finely divided as a type of character. In short, a reference character may be determined by extracting a character pattern having the same attribute as the target character string to be detected and recognized.
なお、実施の形態1〜5では、数字の認識結果を出力しているが、これは数字に限るわけではなく何でも良い。また、1段構成の文字列の例で説明したが、複数段文字列の一部の段または全部の段を対象として処理を行っても良い。また、各実施の形態では左側と右側のどちらか一方だけを対象とする例を説明したが、もちろん、第1の文字切り出し手段3の処理結果によっては、両方を対象とする場合もある。
In the first to fifth embodiments, the number recognition result is output, but this is not limited to numbers and may be anything. Further, although an example of a one-stage character string has been described, processing may be performed for some or all stages of a multi-stage character string. In each embodiment, an example has been described in which only one of the left side and the right side is targeted. However, depending on the processing result of the first
この発明は、例えば、四輪車のナンバー読み取り装置や、近来読み取り要求が強くなってきている原動機付き自転車のナンバー読み取り装置に適用可能である。 The present invention can be applied to, for example, a number reading device for a four-wheeled vehicle or a number reading device for a motor-equipped bicycle for which a reading request is increasing.
1;画像入力手段、2;フォーマット情報格納手段、3;第1の文字切り出し手段、4;第1の文字認識手段、5;属性判定手段、6;第2の文字切り出し手段、7;第2の文字認識手段、8;認識結果出力手段。
DESCRIPTION OF
Claims (6)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005165244A JP2006338578A (en) | 2005-06-06 | 2005-06-06 | Character recognition apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005165244A JP2006338578A (en) | 2005-06-06 | 2005-06-06 | Character recognition apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006338578A true JP2006338578A (en) | 2006-12-14 |
Family
ID=37559050
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005165244A Pending JP2006338578A (en) | 2005-06-06 | 2005-06-06 | Character recognition apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006338578A (en) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008204203A (en) * | 2007-02-20 | 2008-09-04 | Kobe Steel Ltd | Image processing method of character string image, and program and device therefor |
JP2011022938A (en) * | 2009-07-17 | 2011-02-03 | Fujitsu Ltd | Character recognition device, character recognition program and character recognition method |
JP2014238829A (en) * | 2013-06-06 | 2014-12-18 | ゼロックス コーポレイションXerox Corporation | Adaptive character segmentation method and system for automatic license plate recognition |
JP2015210542A (en) * | 2014-04-23 | 2015-11-24 | 株式会社キーエンス | Portable optical reader, optical reading method using portable optical reader, and computer program |
JP2016031574A (en) * | 2014-07-28 | 2016-03-07 | 日立オムロンターミナルソリューションズ株式会社 | Paper sheet identification device, paper sheet handling device and paper sheet identification method |
JP2018025885A (en) * | 2016-08-08 | 2018-02-15 | 京セラドキュメントソリューションズ株式会社 | Image processing device |
CN108205670A (en) * | 2016-12-16 | 2018-06-26 | 杭州海康威视数字技术股份有限公司 | A kind of licence plate recognition method and device |
CN109034158A (en) * | 2017-06-09 | 2018-12-18 | 杭州海康威视数字技术股份有限公司 | A kind of licence plate recognition method, device and computer equipment |
JP2019220069A (en) * | 2018-06-22 | 2019-12-26 | 株式会社東芝 | Card number recognition device and card number recognition method |
CN112215216A (en) * | 2020-09-10 | 2021-01-12 | 中国东方电气集团有限公司 | Character string fuzzy matching system and method for image recognition result |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS63238683A (en) * | 1986-11-06 | 1988-10-04 | Sumitomo Electric Ind Ltd | Optical character reader |
JPH0528324A (en) * | 1991-07-23 | 1993-02-05 | Matsushita Electric Ind Co Ltd | English character recognition device |
JPH0628521A (en) * | 1992-07-10 | 1994-02-04 | Toshiba Corp | Optical character reader |
JPH08235311A (en) * | 1995-02-28 | 1996-09-13 | Oki Electric Ind Co Ltd | Character recognition device |
JPH10124615A (en) * | 1996-10-24 | 1998-05-15 | Ricoh Co Ltd | Character recognizing device |
-
2005
- 2005-06-06 JP JP2005165244A patent/JP2006338578A/en active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS63238683A (en) * | 1986-11-06 | 1988-10-04 | Sumitomo Electric Ind Ltd | Optical character reader |
JPH0528324A (en) * | 1991-07-23 | 1993-02-05 | Matsushita Electric Ind Co Ltd | English character recognition device |
JPH0628521A (en) * | 1992-07-10 | 1994-02-04 | Toshiba Corp | Optical character reader |
JPH08235311A (en) * | 1995-02-28 | 1996-09-13 | Oki Electric Ind Co Ltd | Character recognition device |
JPH10124615A (en) * | 1996-10-24 | 1998-05-15 | Ricoh Co Ltd | Character recognizing device |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008204203A (en) * | 2007-02-20 | 2008-09-04 | Kobe Steel Ltd | Image processing method of character string image, and program and device therefor |
JP2011022938A (en) * | 2009-07-17 | 2011-02-03 | Fujitsu Ltd | Character recognition device, character recognition program and character recognition method |
JP2014238829A (en) * | 2013-06-06 | 2014-12-18 | ゼロックス コーポレイションXerox Corporation | Adaptive character segmentation method and system for automatic license plate recognition |
JP2015210542A (en) * | 2014-04-23 | 2015-11-24 | 株式会社キーエンス | Portable optical reader, optical reading method using portable optical reader, and computer program |
JP2016031574A (en) * | 2014-07-28 | 2016-03-07 | 日立オムロンターミナルソリューションズ株式会社 | Paper sheet identification device, paper sheet handling device and paper sheet identification method |
JP2018025885A (en) * | 2016-08-08 | 2018-02-15 | 京セラドキュメントソリューションズ株式会社 | Image processing device |
CN108205670A (en) * | 2016-12-16 | 2018-06-26 | 杭州海康威视数字技术股份有限公司 | A kind of licence plate recognition method and device |
CN108205670B (en) * | 2016-12-16 | 2020-10-27 | 杭州海康威视数字技术股份有限公司 | License plate recognition method and device |
CN109034158A (en) * | 2017-06-09 | 2018-12-18 | 杭州海康威视数字技术股份有限公司 | A kind of licence plate recognition method, device and computer equipment |
JP2019220069A (en) * | 2018-06-22 | 2019-12-26 | 株式会社東芝 | Card number recognition device and card number recognition method |
CN112215216A (en) * | 2020-09-10 | 2021-01-12 | 中国东方电气集团有限公司 | Character string fuzzy matching system and method for image recognition result |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2006338578A (en) | Character recognition apparatus | |
JP6080259B2 (en) | Character cutting device and character cutting method | |
US8059868B2 (en) | License plate recognition apparatus, license plate recognition method, and computer-readable storage medium | |
EP1497787B1 (en) | System and method for identifying and extracting character strings from captured image data | |
JP4031210B2 (en) | Character recognition device, character recognition method, and recording medium | |
JP3345224B2 (en) | Pattern extraction device, pattern re-recognition table creation device, and pattern recognition device | |
JPH096957A (en) | Binarization method for density image and image binarization device | |
JP2002133426A (en) | Ruled line extracting device for extracting ruled line from multiple image | |
JPH05233873A (en) | Area dividing method | |
JPH11143989A (en) | Character segmentation device and character segmentation system | |
KR101793184B1 (en) | Apparatus of Fast lyric area extraction from images of printed music scores and method therefor | |
KR100383858B1 (en) | Character extracting method and device | |
JP2010186246A (en) | Image processing apparatus, method, and program | |
JP3544324B2 (en) | CHARACTER STRING INFORMATION EXTRACTION DEVICE AND METHOD, AND RECORDING MEDIUM CONTAINING THE METHOD | |
JPH09319747A (en) | Structuralization method for document image | |
JP4244692B2 (en) | Character recognition device and character recognition program | |
JP3476595B2 (en) | Image area division method and image binarization method | |
JP2917427B2 (en) | Drawing reader | |
JP4731748B2 (en) | Image processing apparatus, method, program, and storage medium | |
JP3220226B2 (en) | Character string direction determination method | |
JPH1166230A (en) | Device, method, and medium for document recognition | |
JPH07160810A (en) | Character recognizing device | |
JPH05174185A (en) | Japanese character recognizing device | |
JPH0877293A (en) | Character recognition device and generating method for dictionary for character recognition | |
JPH05135204A (en) | Character recognition device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080422 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110311 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110329 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20110719 |