JP2006338578A - Character recognition apparatus - Google Patents

Character recognition apparatus Download PDF

Info

Publication number
JP2006338578A
JP2006338578A JP2005165244A JP2005165244A JP2006338578A JP 2006338578 A JP2006338578 A JP 2006338578A JP 2005165244 A JP2005165244 A JP 2005165244A JP 2005165244 A JP2005165244 A JP 2005165244A JP 2006338578 A JP2006338578 A JP 2006338578A
Authority
JP
Japan
Prior art keywords
character
pattern
recognition
cutout
format information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005165244A
Other languages
Japanese (ja)
Inventor
Hiroyasu Miyahara
景泰 宮原
Yasuhiro Okada
康裕 岡田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2005165244A priority Critical patent/JP2006338578A/en
Publication of JP2006338578A publication Critical patent/JP2006338578A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Character Input (AREA)
  • Character Discrimination (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To solve the problems that erroneous detection of non-character patterns such as dirt or shade of equivalent size increases, it takes a long time for processing character detection and character recognition, recognition results more than those of actual case are output and reading precision of the whole character string is also lowered when reference conditions are widely set since a character pattern is detected on the basis of the size of characters in the conventional case. <P>SOLUTION: The character pattern is segmented from an image of an image input means by a first character segmentation means by referring to format information of a character string for processing stored in a format information storage means, recognized by a first character recognition means and attributes of the recognized character pattern are determined by an attribute determination means. Character patterns around the character pattern are segmented by a second character segmentation means on the basis of position coordinates of the character pattern satisfying the predetermined conditions, the attributes of which are determined, recognized by a second character recognition means, recognition results to an input image are obtained from recognition results of the character patterns and output by the recognition result output means. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

この発明は、例えば、カメラ等で撮影された車輌のナンバープレート画像における車輌ナンバーを読み取る文字認識装置に関するものである。   The present invention relates to a character recognition device that reads a vehicle number in a license plate image of a vehicle photographed by a camera or the like, for example.

画像中の文字を読み取る場合、文字を検出する処理と検出された文字を認識する処理の二つに大きく分けられる。前者の文字検出における従来の技術としては、例えば、特開平7−93476号公報に示されるものがある。本技術では、まず画像を2値化してラベリング処理し、連結領域を検出する。この連結領域の中から、その大きさが所定範囲内のものを抽出して基準文字とし、さらに、基準文字周辺の濃淡パターンの射影情報を解析して他の文字を切り出す。この一連の動作により、汚れ等のノイズが付いている文字も検出する。   When reading a character in an image, it is roughly divided into a process for detecting a character and a process for recognizing the detected character. As a conventional technique in the former character detection, for example, there is a technique disclosed in JP-A-7-93476. In this technique, first, an image is binarized and subjected to a labeling process to detect a connected region. Among the connected regions, those having a size within a predetermined range are extracted as reference characters, and the projection information of the shading pattern around the reference characters is analyzed to cut out other characters. This series of operations also detects characters with noise such as dirt.

後者の文字認識については、例えば、社団法人電気通信協会発行 橋本新一郎著「文字認識概論」pp.64−93に記載の方法を使用できる。   For the latter character recognition, see, for example, “Introduction to Character Recognition” by Shinichiro Hashimoto, published by the Telecommunications Association. The method described in 64-93 can be used.

特開平7−93476号公報 「文字列検出装置」(図4−図16、第5頁−第7頁)Japanese Patent Laid-Open No. 7-93476 “Character String Detection Device” (FIGS. 4 to 16, pages 5 to 7) 橋本新一郎著「文字認識概論」社団法人電気通信協会発行、昭和57年3月20日、pp.64−93Shinichiro Hashimoto “Introduction to Character Recognition”, published by the Telecommunications Association, March 20, 1982, pp. 64-93

上記のとおり、従来の文字認識装置は、文字の大きさで基準文字を決めているため、文字の周辺に同等サイズの非文字パターン(汚れや影など)があった場合、この非文字パターンを文字として誤検出してしまい、文字認識の処理時間が必要以上にかかってしまうという課題があった。特に、基準文字と看倣す条件(許容サイズ)を広く設定した場合、画像中のあちこちで基準文字相当の領域を検出してしまうため、文字検出の処理時間も激増し、全体として多大な処理時間がかかってしまうという課題があった。また、誤検出が発生すると、実際に存在する文字数よりも多くの文字数分の認識結果が出力されることになり、文字列全体としての読取精度が低下するという課題もあった。   As described above, the conventional character recognition device determines the reference character based on the size of the character. Therefore, if there is a non-character pattern of the same size (such as dirt or shadow) around the character, There was a problem in that it was erroneously detected as a character, and processing time for character recognition took longer than necessary. In particular, if the conditions (allowable size) to be regarded as a reference character are set widely, areas corresponding to the reference character are detected in various places in the image, so the processing time for character detection increases drastically, and a large amount of processing as a whole. There was a problem of taking time. In addition, when erroneous detection occurs, recognition results corresponding to the number of characters larger than the number of characters that actually exist are output, and there is a problem that the reading accuracy of the entire character string is lowered.

この発明は、前記のような課題を解決するためになされたものであり、非文字パターンの誤検出を低減させて、認識処理時間の増加や読取精度の低下を抑えると共に、検出処理時間も低減させ、処理速度・精度の両者を向上させる文字認識装置を得ることを目的としている。   The present invention has been made to solve the above-described problems, and reduces false detection of non-character patterns to suppress an increase in recognition processing time and a decrease in reading accuracy, and also reduces detection processing time. An object of the present invention is to obtain a character recognition device that improves both processing speed and accuracy.

この発明に係る文字認識装置は、画像を入力する画像入力手段と、処理対象の文字列のフォーマット情報が格納されたフォーマット情報格納手段と、フォーマット情報を参照して入力画像から文字パターンを切り出す第1の文字切り出し手段と、前記第1の文字切り出し手段で切り出された文字パターンの認識を行う第1の文字認識手段と、前記第1の文字認識手段で認識された文字パターンの属性を判定する属性判定手段と、前記属性判定された文字パターンのうち所定の条件を満たす文字パターンの位置座標を基準として当該文字パターン周辺の他の文字パターンを切り出す第2の文字切り出し手段と、前記第2の文字切り出し手段で切り出された文字パターンの認識を行う第2の文字認識手段と、第1の文字認識手段と属性判定手段および第2の文字認識手段の結果から入力画像に対する認識結果を決定して出力する認識結果出力手段を備える。   The character recognition device according to the present invention includes an image input means for inputting an image, a format information storage means for storing format information of a character string to be processed, and a character pattern cut out from the input image by referring to the format information. 1 character cutout means, a first character recognition means for recognizing the character pattern cut out by the first character cutout means, and an attribute of the character pattern recognized by the first character recognition means Attribute determination means, second character cutout means for cutting out other character patterns around the character pattern on the basis of position coordinates of the character pattern satisfying a predetermined condition among the character patterns determined as attributed, and the second A second character recognition means for recognizing the character pattern cut out by the character cutout means, a first character recognition means and an attribute determination means; Beauty comprising a recognition result output means for and outputting determined recognition result for the input image from the result of the second character recognition means.

この発明に係る文字認識装置によれば、文字パターンの切り出しに、フォーマット情報格納手段に格納された処理対象文字列のフォーマット情報を参照しているので、文字列の周辺に文字と同等な大きさの非文字パターンがあったり、文字パターンが他の非文字パターンと接触している場合でも、真の文字パターンを切り出すことができる。
また、切り出された文字パターンを認識した結果を属性判定し、その属性判定の結果から第2の文字切り出し手段が対象とする切り出し領域を限定するので、無駄な検出処理や認識処理を行うことなく、処理時間を必要最小限に抑えることができる。
According to the character recognition device of the present invention, since the format information of the processing target character string stored in the format information storage means is referred to when extracting the character pattern, the character pattern has a size equivalent to that of the character around the character string. Even if there is a non-character pattern or a character pattern is in contact with another non-character pattern, a true character pattern can be cut out.
Further, the result of recognizing the extracted character pattern is subjected to attribute determination, and the cutout area targeted by the second character cutout means is limited based on the result of the attribute determination, so that unnecessary detection processing and recognition processing are not performed. , Processing time can be minimized.

実施の形態1.
以下、この発明の実施の形態1を図について説明する。図1はこの発明の実施の形態1を示す概略構成図である。図において、1はカメラ等で撮影した画素値0〜255の値をとる濃淡画像を入力し、2値画像を作成する画像入力手段、2は事前に設定された処理対象文字列のフォーマット情報が格納されたフォーマット情報格納手段、3はフォーマット情報格納手段2に格納されたフォーマット情報を参照して入力画像から文字パターンを切り出す第1の文字切り出し手段、4は第1の文字切り出し手段3で切り出された文字パターンの認識を行う第1の文字認識手段、5は第1の文字認識手段4で認識された文字パターンの属性を判定する属性判定手段、6は属性判定された文字パターンのうち所定の条件を満たす文字パターンの位置座標から当該文字パターン周辺の他の文字パターンを切り出す第2の文字切り出し手段、7は第2の文字切り出し手段6で切り出された文字パターンの認識を行う第2の文字認識手段、8は第1の文字認識手段4と属性判定手段5および第2の文字認識手段7の結果から入力画像に対する認識結果を決定して認識結果を出力する認識結果出力手段である。
Embodiment 1 FIG.
Embodiment 1 of the present invention will be described below with reference to the drawings. FIG. 1 is a schematic configuration diagram showing Embodiment 1 of the present invention. In the figure, 1 is an image input means for inputting a grayscale image having a pixel value of 0 to 255 captured by a camera or the like, and 2 is an image input means for creating a binary image. 2 is format information of a processing target character string set in advance. The stored format information storage means 3 is a first character cutout means for cutting out a character pattern from an input image with reference to the format information stored in the format information storage means 2, and 4 is cut out by the first character cutout means 3. First character recognition means for recognizing the detected character pattern, 5 is attribute determination means for determining an attribute of the character pattern recognized by the first character recognition means 4, and 6 is a predetermined character pattern among the character patterns whose attributes are determined. A second character cutout means for cutting out other character patterns around the character pattern from the position coordinates of the character pattern satisfying the above condition, and 7 is a second character cutout hand A second character recognizing unit for recognizing the character pattern cut out at 6; 8 is a recognition result for the input image from the results of the first character recognizing unit 4, the attribute determining unit 5 and the second character recognizing unit 7; And a recognition result output means for outputting the recognition result.

次に動作を図により説明する。図2がこの発明の処理フロー図である。ここでは、図3から図6までを用いて動作を説明する。図3は認識対象の文字列画像の例であり、9〜13が文字パターン、14〜15が汚れ等の非文字パターンである。図4は第1の文字切り出し手段3による切り出し結果の例である。図5と図6は第2の文字切り出し手段6の動作を説明するための図であり、16と17はパターン検出領域である。   Next, the operation will be described with reference to the drawings. FIG. 2 is a process flow diagram of the present invention. Here, the operation will be described with reference to FIGS. FIG. 3 is an example of a character string image to be recognized, where 9 to 13 are character patterns, and 14 to 15 are non-character patterns such as dirt. FIG. 4 is an example of the cutout result by the first character cutout means 3. 5 and 6 are diagrams for explaining the operation of the second character segmenting means 6, and 16 and 17 are pattern detection areas.

まず画像入力手段1が画素値0〜255の値をとる濃淡画像を入力し(ステップS1)、これを2値化して2値画像を作成する(ステップS2)。2値化の方法としては、例えば、電子情報通信学会論文誌D Vol.J71−D No.5 pp.863−873「情景中文字の検出のための動的2値化処理法」に記載の方法を用いる。   First, the image input means 1 inputs a grayscale image having a pixel value of 0 to 255 (step S1), and binarizes this to create a binary image (step S2). As a binarization method, for example, IEICE Transactions D Vol. J71-D No. 5 pp. 863-873 “Dynamic Binarization Processing Method for Detection of Characters in Scene” is used.

その後、フォーマット情報格納手段2の内容を参照して第1の文字切り出し手段3が入力画像から1回目の文字切り出しを行う(ステップS3)。本実施の形態では、5文字の数字が均等に並んだ文字列を検出・認識するものとし、フォーマット情報格納手段2には、個々の文字の大きさや間隔に関するフォーマット情報が格納されているものとする。このフォーマット情報は、例えば以下に示す情報である。
(文字列情報1)文字の許容最大幅と許容最小幅、許容最大高さと許容最小高さ、幅・高さ比率の許容最大値と許容最小値。
(文字列情報2)隣接文字間の距離(間隔)の許容最大値と許容最小値。
(文字列情報3)第1の文字切り出し手段3で切り出す必要のある最小文字数。
(文字列情報4)文字列を構成する全文字数(本実施の形態では前記の通り5)。
Thereafter, the first character segmentation unit 3 refers to the contents of the format information storage unit 2 and performs the first character segmentation from the input image (step S3). In the present embodiment, it is assumed that a character string in which five-character numbers are evenly arranged is detected and recognized, and the format information storage means 2 stores format information regarding the size and interval of each character. To do. This format information is, for example, the following information.
(Character string information 1) Allowable maximum width and allowable minimum width of characters, allowable maximum height and allowable minimum height, and allowable maximum value and allowable minimum value of width / height ratio.
(Character string information 2) Maximum allowable value and minimum allowable value (distance) between adjacent characters.
(Character string information 3) The minimum number of characters that need to be cut out by the first character cutout means 3.
(Character string information 4) The total number of characters constituting the character string (5 in this embodiment as described above).

ステップS3において、第1の文字切り出し手段3は、まず従来と同様に、ラベリング処理して連結領域を検出する。さらに、この連結領域の中から、幅、高さ、幅・高さ比率が前記フォーマット情報格納手段2に格納された文字列情報1の許容範囲内にあるものを文字候補パターンとして抽出し、隣接する文字候補パターンの間隔が前記文字列情報2の許容範囲内にある組み合わせを求める。この組み合わせの中で、前記文字列情報3の設定値(切り出す必要のある最小文字数)以上の文字候補パターンを含むものを求め、第1の文字切り出し手段3における1回目の切り出し結果文字列とする。例えば、ステップS3の処理で図3の画像からは文字11〜13と非文字パターン14の組み合わせ(図4の破線で囲んだ4パターン)が求められ、前記文字列情報3の値を3とすると、この組み合わせは切り出し結果文字列となり得る。なお、図3の文字9と文字10については、汚れ15との接触により全体が大きな一つの連結領域になってしまい、文字候補パターンとはならない。なお、本ステップにおいて、文字列情報3の設定値以上の文字候補パターンを含む組み合わせが一つも求められなければ、入力画像中に認識対象の文字列はないと判断して、処理を終了する。   In step S3, the first character cutout unit 3 first detects a connected region by performing a labeling process as in the conventional case. Further, from this connected area, those whose width, height, width / height ratio are within the allowable range of the character string information 1 stored in the format information storage means 2 are extracted as character candidate patterns, and adjacent A combination in which the character candidate pattern interval to be within the allowable range of the character string information 2 is obtained. Among these combinations, a character string including a character candidate pattern equal to or larger than the set value (minimum number of characters to be cut out) of the character string information 3 is obtained and used as the first cutout character string in the first character cutout unit 3. . For example, in the process of step S3, a combination of the characters 11 to 13 and the non-character pattern 14 (four patterns surrounded by a broken line in FIG. 4) is obtained from the image of FIG. 3, and the value of the character string information 3 is 3. This combination can be a cutout character string. Note that the character 9 and the character 10 in FIG. 3 become one large connected region due to the contact with the dirt 15 and do not become a character candidate pattern. In this step, if no combination including a character candidate pattern equal to or greater than the set value of the character string information 3 is obtained, it is determined that there is no character string to be recognized in the input image, and the process ends.

次に、第1の文字認識手段4が、第1の文字切り出し手段3の切り出したパターンを認識し、各パターンの認識結果として、文字コードと認識評価値を出力する(ステップS4)。この認識評価値は、当該パターンと認識結果の文字コードとの類似度合いを示し、値が大きいほど、類似度合いが大きいことを示す。例えば、図4の切り出しパターン11〜14については、下記のような認識結果が得られる。
・パターン11・・・文字コード“6”、認識評価値90
・パターン12・・・文字コード“7”、認識評価値92
・パターン13・・・文字コード“8”、認識評価値88
・パターン14・・・文字コード“2”、認識評価値45
Next, the first character recognition unit 4 recognizes the pattern cut out by the first character cutout unit 3, and outputs a character code and a recognition evaluation value as a recognition result of each pattern (step S4). This recognition evaluation value indicates the degree of similarity between the pattern and the character code of the recognition result, and the larger the value, the higher the degree of similarity. For example, the following recognition results are obtained for the cutout patterns 11 to 14 in FIG.
Pattern 11: character code “6”, recognition evaluation value 90
Pattern 12: character code “7”, recognition evaluation value 92
Pattern 13: Character code “8”, recognition evaluation value 88
Pattern 14: character code “2”, recognition evaluation value 45

その後、属性判定手段5は、第1の文字認識手段4が認識したパターンの属性を判定する(ステップS5)。本実施の形態では、各パターンの文字らしさを基準として属性判定するものとし、前記認識評価値が所定の閾値以上のパターンを属性A(文字らしいパターン)、閾値未満のパターンを属性B(文字でない可能性の高いパターン)に判定するものとする。例えば、この閾値を60とすると、前記の図4の切り出し結果文字列(パターン11〜14)については、パターン11〜13が属性A、パターン14が属性Bと判定される。   Thereafter, the attribute determination unit 5 determines the attribute of the pattern recognized by the first character recognition unit 4 (step S5). In the present embodiment, attributes are determined based on the character likeness of each pattern. A pattern whose recognition evaluation value is equal to or greater than a predetermined threshold is attribute A (character-like pattern), and a pattern less than the threshold is attribute B (not a character). It is determined that the pattern is highly likely. For example, if this threshold is set to 60, patterns 11 to 13 are determined to be attribute A and pattern 14 is determined to be attribute B for the cutout result character strings (patterns 11 to 14) shown in FIG.

次に、第2の文字切り出し手段6が文字の切り出しを行うが、その最初の段階として、2回目の切り出しの基準となる規準文字を決定する(ステップS6)。本ステップでは、切り出し結果文字列の両端(水平並び文字列では左端と右端、垂直並び文字列では上端と下端)から内側に向かって各パターンの属性をチェックし、初めて出現する属性Aのパターンを文字列の境界パターンとして抽出し、境界パターンに挟まれたパターンと境界パターンとを合わせて規準文字とする。図4の切り出し結果文字列については、左端側から見た場合にパターン11が境界パターン(左端境界パターン)となり、右端側から見た場合はパターン13が境界パターン(右端境界パターン)となる。従って本実施の形態ではパターン11〜13が規準文字となる。   Next, the second character cutout means 6 cuts out the character. As a first step, the reference character as the reference for the second cutout is determined (step S6). In this step, the attribute of each pattern is checked inward from both ends of the cutout character string (left and right edges for horizontal aligned character strings, and top and bottom edges for vertical aligned character strings), and the pattern of attribute A that appears for the first time is checked. A character string is extracted as a boundary pattern, and the pattern sandwiched between the boundary patterns and the boundary pattern are combined as a reference character. For the cutout character string in FIG. 4, the pattern 11 becomes a boundary pattern (left end boundary pattern) when viewed from the left end side, and the pattern 13 becomes a boundary pattern (right end boundary pattern) when viewed from the right end side. Therefore, in the present embodiment, the patterns 11 to 13 are reference characters.

さらに第2の文字切り出し手段6は、フォーマット情報格納手段2の内容に加え、規準文字の大きさや間隔の情報も使用して2回目の文字切り出しを行う(ステップS7)。本ステップでは、文字列の境界パターンから外側へ向かって新たな文字パターンを切り出していくものとする。以下、図4の切り出し結果文字列のケースで動作の例を説明する。図4のケースでは、右端境界パターン13の右隣には既に属性B(非文字の可能性が高い)と判定されたパターンが存在するため、第2の文字切り出し手段6は右端境界パターン13の右側は参照せず、左側境界パターン11より左側の領域に対象範囲を限定して一つ一つの文字を切り出して行く。まず、規準文字11〜13のパターン間距離(間隔)と高さの平均値を求め、左側境界パターン11から前記パターン間距離の平均値だけ左側の位置に、高さは前記高さ平均値、幅は前記フォーマット情報格納手段2に格納された文字列情報1の許容最大幅となるパターン検出領域を設定し、この領域から一つの文字パターンを検出する。   Further, the second character cutout means 6 performs the second character cutout using the size and interval information of the reference character in addition to the contents of the format information storage means 2 (step S7). In this step, it is assumed that a new character pattern is cut out outward from the boundary pattern of the character string. An example of the operation will be described below in the case of the cutout result character string in FIG. In the case of FIG. 4, since there is already a pattern determined to be attribute B (high possibility of non-character) on the right side of the right end boundary pattern 13, the second character cutout unit 6 uses the right end boundary pattern 13. The right side is not referred to, and each character is cut out by limiting the target range to the region on the left side of the left boundary pattern 11. First, an average value of distances (intervals) between patterns and heights of the reference characters 11 to 13 is obtained, and an average value of the distances between patterns from the left boundary pattern 11 is positioned on the left side, and the height is the average value of the height, As the width, a pattern detection area which is the maximum allowable width of the character string information 1 stored in the format information storage means 2 is set, and one character pattern is detected from this area.

図5はこの動作例であり、16がパターン検出領域を示す。この枠内の画像から文字パターンを検出する手法としては、例えば、従来の濃淡パターンの射影情報による方法を用いる。さらに、パターン検出領域16から文字パターン10が検出できた場合は、図6に示すように、文字パターン10の切り出し位置(破線枠)から左側に新たなパターン検出領域17を設定し、文字パターン9を切り出す。この動作は、規準文字と第2の文字切り出し手段6による切り出し文字数の合計値が前記フォーマット情報格納手段2の文字列情報4(文字列を構成する全文字数)に一致するまで繰り返す。本実施の形態では文字列情報4の値を5としているため、文字パターン9が切り出された時点で、このステップは終了する。   FIG. 5 shows an example of this operation. Reference numeral 16 denotes a pattern detection area. As a method for detecting the character pattern from the image in the frame, for example, a conventional method based on projection information of a light and shade pattern is used. Further, when the character pattern 10 can be detected from the pattern detection area 16, a new pattern detection area 17 is set on the left side from the cutout position (broken line frame) of the character pattern 10 as shown in FIG. Cut out. This operation is repeated until the total value of the reference character and the number of characters cut out by the second character cutout means 6 matches the character string information 4 (the total number of characters constituting the character string) of the format information storage means 2. In this embodiment, since the value of the character string information 4 is 5, this step ends when the character pattern 9 is cut out.

第2の文字認識手段7では、第2の文字切り出し手段6が切り出したパターン9および10を認識し、各パターンの認識結果として、文字コードと認識評価値を出力する(ステップS8)。例えば、図6のパターン9や10からは下記のような認識結果が得られる。
・パターン9 ・・・文字コード“4”、認識評価値91
・パターン10・・・文字コード“5”、認識評価値89
最後に認識結果出力手段8が、第1の文字認識手段4と属性判定手段5と第2の文字認識手段7の出力から文字列全体の認識結果を決定し、出力する(ステップS9)。この文字列全体の認識結果の決定方法としては、例えば、規準文字と第2の文字認識手段7の認識結果を組み合わせたものとし、“45678”を出力する。
The second character recognition unit 7 recognizes the patterns 9 and 10 cut out by the second character cutout unit 6 and outputs a character code and a recognition evaluation value as a recognition result of each pattern (step S8). For example, the following recognition results are obtained from the patterns 9 and 10 in FIG.
Pattern 9: Character code “4”, recognition evaluation value 91
Pattern 10: character code “5”, recognition evaluation value 89
Finally, the recognition result output means 8 determines and outputs the recognition result of the entire character string from the outputs of the first character recognition means 4, the attribute determination means 5 and the second character recognition means 7 (step S9). As a method of determining the recognition result of the entire character string, for example, the reference character and the recognition result of the second character recognition means 7 are combined, and “45678” is output.

本実施の形態では、以上の工程を経ることで、文字列の周辺に文字と同等な大きさの非文字パターンがあったり、文字パターンが他と接触している場合でも、真の文字パターンの認識結果だけを出力することができる。また、属性判定の結果から第2の文字切り出し手段6が対象とする領域を限定したので、無駄な検出処理や認識処理を行うことなく、処理時間を必要最小限に抑えることができる。   In the present embodiment, through the above process, even if there is a non-character pattern of the same size as the character around the character string, or even if the character pattern is in contact with others, the true character pattern Only the recognition result can be output. Moreover, since the area | region which the 2nd character extraction means 6 makes object was limited from the result of attribute determination, processing time can be restrained to the minimum necessary, without performing useless detection processing and recognition processing.

なお、本実施の形態では、電子情報通信学会論文誌掲載の方法を用いて2値化したが、これは他の2値化法を用いても良く、ラベリング処理が可能であれば、2値化以外の変換方法でも良い。例えば、各画素を0〜2の3値化し、画素値1の連結領域をラベリング処理で求めるような方法でも良い。また、第2の文字切り出し手段6では、1文字ずつパターン検出領域を設定し射影情報を用いて切り出しを行ったが、これは別の方法でも良く、例えば、ステップS2で用いた2値化閾値とは異なる閾値で2値化し、ラベリング処理を行うような方法でも良い。非文字パターンと文字パターンとで濃淡差があれば、この方法でも文字パターン部分だけを抽出できる。   In this embodiment, binarization is performed using the method published in the IEICE Transactions, but other binarization methods may be used. If labeling processing is possible, binarization is possible. Conversion methods other than conversion may be used. For example, a method may be used in which each pixel is trinized from 0 to 2 and a connected region of pixel value 1 is obtained by a labeling process. In the second character cutout means 6, the pattern detection area is set for each character and cut out using the projection information. However, this may be another method, for example, the binarization threshold value used in step S2. A method may be used in which binarization is performed with a different threshold value and labeling processing is performed. If there is a difference in density between the non-character pattern and the character pattern, only the character pattern portion can be extracted by this method.

また、認識結果出力手段8は、規準文字と第2の文字認識手段7の認識結果の組み合わせを文字列の認識結果としたが、これは別の方法でも良い。例えば、上記実施の形態では第2の文字認識手段7の認識結果においてパターン9、10では認識評価値が91,89と高いものであった。しかし、このパターンが汚れや影等であり、認識評価値が第1の文字認識手段3の認識結果による認識評価値の低いパターン14よりもさらに低い場合もあり得る。この様な場合は第1の文字認識手段3の認識結果と第2の文字認識手段7の認識結果とを比較して認識評価値の良い方を基準文字に加えて文字列情報4に定められた全文字数分を抽出して認識結果としても良い。
また、本実施の形態では、第2の文字切り出し手段6が処理を終了してから第2の文字認識手段7が認識処理を行ったが、これは、第2の文字切り出し手段6が1文字切り出して第2の文字認識手段7が当該パターンを認識するという動作を繰り返すような実現方法でも良い。
Further, although the recognition result output unit 8 uses the combination of the reference character and the recognition result of the second character recognition unit 7 as the recognition result of the character string, this may be another method. For example, in the above embodiment, the recognition evaluation values of the patterns 9 and 10 in the recognition result of the second character recognition means 7 are as high as 91 and 89. However, this pattern may be dirt or shadow, and the recognition evaluation value may be lower than the pattern 14 having a low recognition evaluation value based on the recognition result of the first character recognition means 3. In such a case, the recognition result of the first character recognizing means 3 and the recognition result of the second character recognizing means 7 are compared, and the one having the better recognition evaluation value is added to the reference character and determined in the character string information 4. It is also possible to extract all the characters for the recognition result.
Further, in the present embodiment, the second character recognizing unit 7 performs the recognition process after the second character extracting unit 6 finishes the process. An implementation method may be used in which the second character recognition unit 7 repeats the operation of cutting out and recognizing the pattern.

実施の形態2.
以下、この発明の実施の形態2を図について説明する。概略構成図は実施の形態1と同じく図1である。
次に動作を図により説明する。本実施の形態の処理フローは図7である。ここでは、図8〜12を用いて動作を説明する。図8は認識対象文字列のバリエーションを示す図である。図9はフォーマット情報格納手段2に格納されたフォーマット情報の一部を示す図であり、18〜23は文字パターンを示す矩形である。図10は認識対象の文字列画像の例であり、24〜28が文字パターン、29は汚れ(非文字パターン)である。図11は第1の文字切り出し手段3による1回目の切り出し結果の例である。図12は第2の文字切り出し手段6の動作を説明するための図であり、30はパターン検出領域である。
実施の形態1では、各文字の大きさや間隔が等しい文字列を対象としたのに対し、本実施の形態では、文字の大きさや間隔が異なる文字列を認識対象とした動作を説明する。
Embodiment 2. FIG.
A second embodiment of the present invention will be described below with reference to the drawings. The schematic configuration diagram is FIG. 1 as in the first embodiment.
Next, the operation will be described with reference to the drawings. The processing flow of this embodiment is shown in FIG. Here, the operation will be described with reference to FIGS. FIG. 8 is a diagram showing variations of the recognition target character string. FIG. 9 is a diagram showing a part of the format information stored in the format information storage means 2, and 18 to 23 are rectangles showing character patterns. FIG. 10 is an example of a character string image to be recognized, in which 24-28 are character patterns, and 29 is dirt (non-character patterns). FIG. 11 is an example of the first cutout result by the first character cutout means 3. FIG. 12 is a diagram for explaining the operation of the second character cutout means 6, and 30 is a pattern detection area.
In the first embodiment, character strings having the same size and interval of each character are targeted. In the present embodiment, operations for character strings having different character sizes and intervals are described.

まず、実施の形態1と同様の手順で、画像入力手段1が画素値0〜255の値をとる濃淡画像を入力して(ステップT1)、2値画像を作成する(ステップT2)。次に、認識対象文字列に対応したフォーマット情報が格納されたフォーマット情報格納手段2の内容を参照して第1の文字切り出し手段3が2値化された入力画像から1回目の文字切り出しをする(ステップT3)。本実施の形態では、図8に示すように、1〜3桁の小さい数字の後に2〜3桁の大きい数字が続く文字列を認識対象にするものとする(数字0〜9の組み合わせとしては図8に限定せず、例えば3桁であれば、000〜999まであり得る)。   First, in the same procedure as in the first embodiment, the image input means 1 inputs a grayscale image having a pixel value of 0 to 255 (step T1) and creates a binary image (step T2). Next, referring to the contents of the format information storage means 2 in which the format information corresponding to the recognition target character string is stored, the first character cutout means 3 cuts out the first character from the binarized input image. (Step T3). In this embodiment, as shown in FIG. 8, a character string in which a small number of 1 to 3 digits is followed by a large number of 2 to 3 digits is set as a recognition target (as a combination of numbers 0 to 9). It is not limited to FIG. 8, for example, if it is 3 digits, it can be from 000 to 999).

また、本実施の形態におけるフォーマット情報格納手段2の内容は下記とする。
(文字列情報1')出現可能性のある文字パターンを所定の順序で並べた並び情報。例えば図9の18〜23の6パターンから構成される並び情報であり、各パターンについて、以下の情報を持つ。
・小さい数字(S)と大きい数字(L)のどちらかを示すパターンサイズ分類情報。
・第1の文字切り出し手段3での検出が必須のパターンか(A)、第1の文字切り出し手段3と第2の文字切り出し手段6のどちらで切り出しても良いパターンか(Z)を示す文字切り出し手段対応情報。
・3文字文字列での先頭文字となりえるか(○)、なりえないか(×)を示す3文字文字列の先頭文字可否情報。
・4文字文字列での先頭文字となりえるか(○)、なりえないか(×)を示す4文字文字列の先頭文字可否情報。
・5文字文字列での先頭文字となりえるか(○)、なりえないか(×)を示す5文字文字列の先頭文字可否情報。
The contents of the format information storage means 2 in the present embodiment are as follows.
(Character string information 1 ) Arrangement information in which character patterns that may appear are arranged in a predetermined order. For example, the arrangement information includes 6 patterns 18 to 23 in FIG. 9, and each pattern has the following information.
Pattern size classification information indicating either a small number (S) or a large number (L).
A character indicating whether the pattern must be detected by the first character cutout means 3 (A) or a pattern that can be cut out by either the first character cutout means 3 or the second character cutout means 6 (Z) Cutout means correspondence information.
Information on whether or not the first character of the three-character string indicates whether it can be the first character in the three-character string (◯) or not (×).
Information on whether or not the first character of the four-character string can be the first character in the four-character string (◯) or not (×).
Information on whether or not the first character of the 5-character string can be the first character (O) or not (X).

(文字列情報2')パターンサイズ情報SとLそれぞれの文字についての、許容最大幅と許容最小幅、許容最大高さと許容最小高さ、幅・高さ比率の許容最大値と許容最小値。
(文字列情報3')パターンサイズ情報SとS、SとL、LとLの文字間における、距離の標準値と許容最大値と許容最小値。
ここで、文字列情報1'における文字切り出し手段対応情報は、実施の形態1における文字列情報3を代用するものであるが、パターンサイズ分類情報などと合せ、単なる文字数指定である実施の形態1における文字列情報3よりも細かい指定が可能な形態になっている。
また、上記文字列情報1'の先頭文字可否情報は3〜5文字の文字列のみが定義されている。これは、文字列を構成する文字数の最小値は3、最大値は5であることを意味する。
(Character string information 2 ' ) The permissible maximum width and permissible minimum width, permissible maximum height and permissible minimum height, permissible maximum value and permissible minimum value of the width / height ratio for each character of pattern size information S and L.
(Character string information 3 ' ) The standard value, allowable maximum value, and allowable minimum value of the distance between the pattern size information S and S, S and L, and L and L characters.
Here, the character cutout means correspondence information in the character string information 1 substitutes for the character string information 3 in the first embodiment, but in combination with the pattern size classification information and the like, the number of characters is simply specified in the first embodiment. The character string information 3 in FIG.
Further, only the character string of 3 to 5 characters is defined as the first character propriety information of the character string information 1 . This means that the minimum value of the number of characters constituting the character string is 3, and the maximum value is 5.

ステップT3において、第1の文字切り出し手段3は、従来と同様に連結領域を検出し、この連結領域の中から、幅、高さ、幅・高さ比率が前記文字列情報2'の許容範囲内にあるものを、S、L、あるいはSとL両方のラベルを付けて文字候補パターンとする。そして、文字候補パターンのラベルの組み合わせにおいて、図9の文字切り出し対応情報がAのパターンを全て含み、かつ間隔が前記文字列情報3'の許容範囲内にあるものを求め、第1の文字切り出し手段3における1回目の切り出し結果文字列とする。この場合、例えば、図10の画像からは、文字25〜28の組み合わせ(図11の破線で囲んだパターン)が図9におけるパターン20〜23と対応付けられ、切り出し結果文字列となる。
ここで、図10の文字24については、汚れ29との接触により文字よりもかなり幅広の連結領域になってしまい、文字候補パターンとはならない。
なお、パターン25〜27のどれかが文字候補パターンとならなかった場合は、文字切り出し対応情報Aのパターンで対応なしのものが発生するため、切り出し結果文字列とはならない。
In step T3, the first character cutout means 3 detects a connected area in the same manner as in the prior art, and from this connected area, the width, height, and width / height ratio are within the allowable range of the character string information 2 . A character candidate pattern is created by attaching S, L, or both S and L labels. Then, in the combination of character candidate pattern labels, the character cutout correspondence information in FIG. 9 includes all the patterns of A, and the interval is within the allowable range of the character string information 3 ′. A character string obtained as a result of the first cutout by means 3 is used. In this case, for example, from the image of FIG. 10, a combination of characters 25 to 28 (pattern surrounded by a broken line in FIG. 11) is associated with patterns 20 to 23 in FIG.
Here, the character 24 in FIG. 10 becomes a connected region that is considerably wider than the character due to contact with the dirt 29 and does not become a character candidate pattern.
If any of the patterns 25 to 27 does not become a character candidate pattern, an uncorresponding pattern of the character cutout correspondence information A is generated, so that it is not a cutout character string.

次に、実施の形態1と同様に、第1の文字認識手段4が、第1の文字切り出し手段3の切り出したパターンを認識し、各パターンの認識結果として、文字コードと認識評価値を出力する(ステップT4)。その後、属性判定手段5は、第1の文字認識手段4が認識したパターンの属性を判定するが(ステップT5)、本実施の形態では、実施の形態1で用いた認識情報に加え、当該パターン周辺の濃淡画像の情報を用いるものとする。   Next, as in the first embodiment, the first character recognition unit 4 recognizes the pattern cut out by the first character cutout unit 3, and outputs the character code and the recognition evaluation value as the recognition result of each pattern. (Step T4). Thereafter, the attribute determination unit 5 determines the attribute of the pattern recognized by the first character recognition unit 4 (step T5). In the present embodiment, in addition to the recognition information used in the first embodiment, the pattern It is assumed that information on surrounding grayscale images is used.

この濃淡画像情報は、例えば、判定対象の濃淡画像のエッジ強度や、濃淡画像を異なる閾値で2値化した場合の輪郭位置の変化量を用いる。一般に、影や模様に比べて文字パターンはコントラストがはっきりしており、境界部分での濃淡差が大きいため、エッジ強度が大きく、また、2値化した場合の輪郭位置(2値パターンの上下左右端位置)は安定しているという特徴がある。このため、例えば、CG−ARTS協会発行「ディジタル画像処理」pp.114〜116記載の微分フィルタを用いてエッジ強度(勾配の大きさ)を求め、その値を濃淡画像情報による評価値とする。あるいは、複数の異なる閾値で2値化し、2値パターン間で上下左右端位置を求め、異なる閾値間での上下左右端位置のずれ量が小さいほど大きい評価値を与えても良い。すなわち、濃淡画像を入力とし、当該画像中のパターンが文字らしいほど大きな評価値を与える方法であれば良い。   The grayscale image information uses, for example, the edge intensity of the grayscale image to be determined or the amount of change in the contour position when the grayscale image is binarized with different threshold values. In general, the character pattern has a clearer contrast than the shadow or pattern, and the contrast between the borders is large. Therefore, the edge strength is large, and the contour position when binarized (upper, lower, left and right of the binary pattern) The edge position is stable. For this reason, for example, “Digital Image Processing” pp. Edge strength (gradient magnitude) is obtained using the differential filters described in 114 to 116, and the value is used as an evaluation value based on grayscale image information. Alternatively, binarization may be performed using a plurality of different threshold values, and the upper, lower, left, and right end positions may be obtained between the binary patterns, and a larger evaluation value may be given as the shift amount between the upper, lower, left, and right end positions between the different threshold values is smaller. In other words, any method may be used as long as it accepts a grayscale image as input and gives a larger evaluation value as the pattern in the image seems to be a character.

そして、属性判定手段5は、認識評価値が所定の閾値以上で、かつ前記濃淡画像情報の評価値が閾値以上のパターンを属性A(文字らしいパターン)、どちらかが閾値未満のパターンを属性B(文字でない可能性の高いパターン)に判定するものとする。この結果、例えば、図11における文字25〜28から構成される切り出し結果文字列では、全ての文字候補パターンが属性Aと判定される。   Then, the attribute determination means 5 designates a pattern whose recognition evaluation value is equal to or greater than a predetermined threshold value and whose evaluation value of the grayscale image information is equal to or greater than the threshold value as attribute A (character-like pattern), and which pattern is less than the threshold value as attribute B. Assume that the pattern is determined to be a pattern that is not likely to be a character. As a result, for example, in the cut-out result character string composed of the characters 25 to 28 in FIG.

次に、第2の文字切り出し手段6が、実施の形態1と同様の手順で、2回目の切り出しの基準となる規準文字を決定する(ステップT6)。図11の切り出し結果文字列では、パターン25が左端境界パターン、パターン28が右端境界パターンとなり、パターン25〜28が規準文字となる。その後、第2の文字切り出し手段6は2回目の文字切り出しを行う(ステップT7)。図11の切り出し結果文字列では、図9のパターン並び情報における右端パターン23が既にパターン28に対応づいているため、切り出し結果文字列の右側には他の文字は無いと判断し、左側の領域から新たな文字パターンを切り出していく。   Next, the second character cutout means 6 determines a reference character as a reference for the second cutout by the same procedure as in the first embodiment (step T6). In the cutout character string shown in FIG. 11, the pattern 25 is the left end boundary pattern, the pattern 28 is the right end boundary pattern, and the patterns 25 to 28 are reference characters. Thereafter, the second character cutout means 6 performs the second character cutout (step T7). In the cutout result character string in FIG. 11, since the right end pattern 23 in the pattern arrangement information in FIG. 9 already corresponds to the pattern 28, it is determined that there are no other characters on the right side of the cutout result character string. A new character pattern is cut out from.

以下、ステップT7の処理手順について説明する。まず、第2の文字切り出し手段6での検出可能最大文字数を求める。フォーマット情報格納手段2に格納されたフォーマット情報のうちの文字列情報1'である図9に示すパターン並び情報において、パターン20〜23は検出済みであり、この4パターンを含む可能な組み合わせは、この4パターンで4文字文字列を構成するケースと、さらにパターン19を加えた5文字文字列のケースの二通りであるので、検出可能最大文字数は1となる。 Hereinafter, the processing procedure of step T7 will be described. First, the maximum number of characters that can be detected by the second character cutout means 6 is obtained. In the pattern arrangement information shown in FIG. 9 which is the character string information 1 of the format information stored in the format information storage means 2, the patterns 20 to 23 have been detected, and possible combinations including these four patterns are: Since there are two cases, a case in which a 4-character character string is formed by these 4 patterns and a case of a 5-character character string in which a pattern 19 is further added, the maximum number of characters that can be detected is 1.

次にパターン検出処理を行う。例えば、文字列情報3´におけるサイズ情報Sパターン同士の距離標準値だけパターン25から左側の位置に、高さはサイズ情報Sパターンの許容最大高さ、幅は同じくSパターンの許容最大幅となるパターン検出領域を設定し、実施の形態1と同様の手順で、この領域からパターン19に相当する文字パターンの検出を試みる。図12はこの動作例であり、パターン検出領域30を対象として検出処理が行われる。この動作は、検出可能最大文字数だけ検出したか、新たなパターンが検出できなくなるまで繰り返す。図12の例では、パターン検出領域30からパターン並び情報のパターン19に対応づく文字パターン24が検出でき、検出可能最大文字数は1であったため、その時点で終了する。   Next, pattern detection processing is performed. For example, the height is the allowable maximum height of the size information S pattern and the width is the allowable maximum width of the S pattern at the left position from the pattern 25 by the distance standard value between the size information S patterns in the character string information 3 ′. A pattern detection area is set, and detection of a character pattern corresponding to the pattern 19 is attempted from this area in the same procedure as in the first embodiment. FIG. 12 shows an example of this operation, and the detection process is performed on the pattern detection area 30. This operation is repeated until the maximum number of detectable characters is detected or a new pattern cannot be detected. In the example of FIG. 12, since the character pattern 24 corresponding to the pattern 19 of the pattern arrangement information can be detected from the pattern detection area 30 and the maximum number of characters that can be detected is 1, the process ends at that point.

第2の文字認識手段7では、実施の形態1と同様の手順で、第2の文字切り出し手段6が切り出したパターンを認識し、各パターンの認識結果として、文字コードと認識評価値を出力する(ステップT8)。その後、属性判定手段5が、第2の文字認識手段7が認識したパターンの属性判定を行うが(ステップT9)、属性判定自体の処理内容はステップT5と同じとし、図12の文字パターン24は属性Aに判定されたものとする。最後に認識結果出力手段8が、第1の文字認識手段4と属性判定手段5と第2の文字認識手段7の出力から文字列全体の認識結果を決定し、出力する(ステップT10)。   The second character recognition unit 7 recognizes the pattern cut out by the second character cutout unit 6 in the same procedure as in the first embodiment, and outputs a character code and a recognition evaluation value as a recognition result of each pattern. (Step T8). After that, the attribute determination unit 5 determines the attribute of the pattern recognized by the second character recognition unit 7 (step T9). The processing content of the attribute determination itself is the same as in step T5, and the character pattern 24 in FIG. Assume that the attribute A is determined. Finally, the recognition result output means 8 determines and outputs the recognition result of the entire character string from the outputs of the first character recognition means 4, the attribute determination means 5 and the second character recognition means 7 (step T10).

ここで、ステップT5やステップT9で属性Bと判定されたものは出力しないが、図10〜12における文字パターン24〜28は全て属性Aと判断されたため、この5文字分の認識結果を出力する。実施の形態1では文字列の文字数が固定であったため、当該文字数分の認識結果を出せばよかったが、本実施の形態では、文字数が固定でない。例えば、図10〜12の例では、第1の文字認識手段が認識した文字25〜28の組み合わせでも4文字文字列となりえるし、第2の文字認識手段7が認識した文字24を加えた組み合わせでも5文字文字列となりえるので、このうちどちらが適正かを判断するため、ステップT9で属性判定を行い、ステップT10ではこの判定結果も用いて認識結果を決定する。   Here, although what was determined to be attribute B in step T5 or step T9 is not output, since all character patterns 24 to 28 in FIGS. 10 to 12 are determined to be attribute A, the recognition results for these five characters are output. . Since the number of characters in the character string is fixed in the first embodiment, it suffices to obtain recognition results for the number of characters. However, in this embodiment, the number of characters is not fixed. For example, in the examples shown in FIGS. 10 to 12, a combination of characters 25 to 28 recognized by the first character recognition unit can be a four-character string, and a combination including the character 24 recognized by the second character recognition unit 7 is added. However, since it can be a five-character string, in order to determine which of these is appropriate, attribute determination is performed in step T9, and the determination result is also determined using this determination result in step T10.

本実施の形態では、以上の工程を経ることで、文字並びのバリエーションが豊富な文字列を対象とした場合でも、必要最小限のフォーマット情報を保持するだけでよく、効率の良い切り出し・認識が行え、誤検出や誤認識を抑えることができる。特に、フォーマット情報に文字切り出し手段対応情報を備えたため、処理の前段で検出が必須となる重要な文字パターン(文字列と看倣せるキーとなるパターン)と、それ以外のパターンとを区別して扱うことができる。また、属性情報として画像情報も用いるため、認識評価値だけでは文字か否か判定しにくいパターン(例えば「1」のような単純な形状のパターン)でも判定し易くなる。なお、本実施の形態では、ステップT5とステップT9で同じ属性判定方法を用いたが、これは異なる方法でも良く、属性の種類もA、Bの2種類より増やしても良い。また、属性判定用の画像情報としてエッジ強度や輪郭位置の変化量を用いたが、これは別の方法で求めても良い。さらに、文字サイズ情報としてSとLの2種類を用いたが、3種類以上に増やしても良い。   In this embodiment, through the above steps, even when character strings with a wide variety of character arrangements are targeted, it is only necessary to hold the minimum necessary format information, and efficient segmentation and recognition can be performed. It is possible to suppress false detection and recognition. In particular, since the format information includes character extraction means correspondence information, an important character pattern (a pattern that can be regarded as a character string) that must be detected in the previous stage of processing is distinguished from other patterns. be able to. Further, since image information is also used as attribute information, it is easy to determine even a pattern that is difficult to determine whether or not it is a character by only the recognition evaluation value (for example, a simple shape pattern such as “1”). In the present embodiment, the same attribute determination method is used in step T5 and step T9. However, this may be a different method, and the types of attributes may be increased from two types A and B. Further, although the edge intensity and the amount of change in the contour position are used as the image information for attribute determination, this may be obtained by another method. Furthermore, although two types of S and L are used as character size information, it may be increased to three or more types.

実施の形態3.
以下、この発明の実施の形態3を図について説明する。概略構成図は実施の形態1と同じく図1である。
次に動作を図により説明する。本実施の形態の処理フローは実施の形態2と同じく図7である。ここでは、図13〜14を用いて動作を説明する。図13は認識対象の文字列のバリエーションを示す図である。図14はフォーマット情報格納手段2に格納されたフォーマット情報の一部である文字列情報1'を示す図であり、31〜36は文字パターンを示す矩形である。
Embodiment 3 FIG.
A third embodiment of the present invention will be described below with reference to the drawings. The schematic configuration diagram is FIG. 1 as in the first embodiment.
Next, the operation will be described with reference to the drawings. The processing flow of this embodiment is shown in FIG. Here, the operation will be described with reference to FIGS. FIG. 13 is a diagram showing variations of character strings to be recognized. FIG. 14 is a diagram showing character string information 1 which is a part of the format information stored in the format information storage means 2, and 31 to 36 are rectangles showing character patterns.

まず、実施の形態2と同様の手順で、画像入力手段1が濃淡画像を入力して(ステップT1)、2値画像を作成する(ステップT2)。次に、フォーマット情報格納手段2の内容を参照して第1の文字切り出し手段3が入力画像から文字を切り出す(ステップT3)。本実施の形態では、図13に示すように、中央部分が他より間隔の大きい4ないし5桁の数字の文字列を認識対象にするものとする。フォーマット情報格納手段2に格納されるフォーマット情報における文字列情報1'の内容の例が図14であり、ここで、本実施の形態における文字切り出し手段対応情報としては、実施の形態2におけるA(第1の文字切り出し手段3での検出が必須のパターン)とZ(第1の文字切り出し手段3と第2の文字切り出し手段6のどちらで切り出しても良いパターン)に加え、第1の文字切り出し手段3で少なくとも1文字は検出を必須とするBを追加する。 First, in the same procedure as in the second embodiment, the image input means 1 inputs a grayscale image (step T1) and creates a binary image (step T2). Next, referring to the contents of the format information storage means 2, the first character cutout means 3 cuts out characters from the input image (step T3). In this embodiment, as shown in FIG. 13, it is assumed that a character string of 4 to 5 digits having a central portion with a larger interval than others is a recognition target. FIG. 14 shows an example of the contents of the character string information 1 ′ in the format information stored in the format information storage means 2. Here, as the character cutout means correspondence information in the present embodiment, A ( In addition to the pattern that must be detected by the first character cutout means 3) and Z (a pattern that can be cut out by either the first character cutout means 3 or the second character cutout means 6), the first character cutout The means 3 adds B, which requires at least one character to be detected.

すなわち、図14の例では、パターン32、33、34の組み合わせか、パターン33、34、35の組み合わせが、第1の文字切り出し手段3で切り出させばならないパターンとなる。ここで、パターン32〜35を文字切り出し手段対応情報A、パターン31、36をZとする方法もあるが、そのようにした場合、第1の文字切り出し手段3で4文字切り出さねばならず、文字数4の文字列に対してはマージンが全くなくなる。文字切り出し手段対応情報Bを加えたことで、ステップT3において少なくとも3文字が検出できれば良くなる。   That is, in the example of FIG. 14, the combination of the patterns 32, 33, 34 or the combination of the patterns 33, 34, 35 is a pattern that must be cut out by the first character cutout unit 3. Here, there is a method in which the patterns 32 to 35 are the character cutout means correspondence information A and the patterns 31 and 36 are Z, but in this case, the first character cutout means 3 must cut out four characters, and the number of characters There is no margin for the 4 character string. By adding the character cutout means correspondence information B, it is sufficient that at least three characters can be detected in step T3.

また、本実施の形態におけるフォーマット情報格納手段2に格納されるフォーマット情報における文字列情報2'、文字列情報3'の内容は下記とする。
(文字列情報2')パターンサイズ情報Lの文字についての、許容最大幅と許容最小幅、許容最大高さと許容最小高さ、幅・高さ比率の許容最大値と許容最小値。
(文字列情報3')パターンサイズ情報LとLにおいて文字切り出し手段対応情報がAとA、AとB、BとZの各文字間における、距離の標準値と許容最大値と許容最小値。
The contents of the character string information 2 and the character string information 3 in the format information stored in the format information storage means 2 in the present embodiment are as follows.
(Character string information 2 ) Permissible maximum width and permissible minimum width, permissible maximum height and permissible minimum height, permissible maximum value and permissible minimum value of width / height ratio for the character of pattern size information L.
(Character string information 3 ) In the pattern size information L and L, the character cutout correspondence information is the standard value, the allowable maximum value, and the allowable minimum value between the characters A and A, A and B, and B and Z.

第1の文字切り出し手段3でパターン32、33、34の組み合わせか、パターン33、34、35の組み合わせの何れかが切り出された以降の処理は実施の形態2と同じであり、第1の文字認識手段4が第1の文字切り出し手段3の切り出したパターンを認識し(ステップT4)、属性判定手段5が属性判定する(ステップT5)。さらに第2の文字切り出し手段6が規準文字を決定して(ステップT6)2回目の文字切り出しを行い(ステップT7)、第2の文字認識手段7が第2の文字切り出し手段6の切り出したパターンを認識して(ステップT8)、属性判定手段5が属性判定を行い(ステップT9)、認識結果出力手段8が認識結果を出力する(ステップT10)。   The processing after the combination of the patterns 32, 33, and 34 or the combination of the patterns 33, 34, and 35 is cut out by the first character cutout means 3 is the same as that of the second embodiment, and the first character The recognition unit 4 recognizes the pattern cut out by the first character cutout unit 3 (step T4), and the attribute determination unit 5 determines the attribute (step T5). Further, the second character cutout means 6 determines the reference character (step T6), performs the second character cutout (step T7), and the second character recognition means 7 extracts the pattern cut out by the second character cutout means 6. (Step T8), the attribute determination means 5 performs attribute determination (step T9), and the recognition result output means 8 outputs the recognition result (step T10).

この実施の形態では、文字切り出し手段対応情報がより細かく設定され、以上の工程を経ることで、第1の文字切り出し手段3で検出できるパターン数が少ない場合でも、検出漏れを起こしづらくなる。   In this embodiment, the character cutout means correspondence information is set more finely, and through the above steps, even if the number of patterns that can be detected by the first character cutout means 3 is small, it is difficult to cause a detection omission.

実施の形態4.
以下、この発明の実施の形態4を図について説明する。概略構成図は実施の形態1と同じく図1である。
次に動作を図により説明する。本実施の形態の処理フローは実施の形態2と同じく図7である。ここでは、図8、13、15、16を用いて動作を説明する。図15は対象文字列のバリエーションの一つを示す図である。図16はフォーマット情報格納手段2に格納されたフォーマット情報の一部である文字列情報1'を示す図であり、37〜39はそれぞれ異なるフォーマット情報である。本実施の形態では、原動機付き自転車のナンバープレート文字のように多様なバリエーションを持つ文字列に対応するため、フォーマット情報格納手段2に複数のフォーマット情報を格納した例を説明する。
また、文字パターンの大きさを規定する文字列情報2'および文字パターン間の間隔を規定する文字列情報3'はそれぞれの文字列のフォーマットに対応した情報が文字列情報1'と対をなしてフォーマット情報格納手段2に格納されている。
Embodiment 4 FIG.
Embodiment 4 of the present invention will be described below with reference to the drawings. The schematic configuration diagram is FIG. 1 as in the first embodiment.
Next, the operation will be described with reference to the drawings. The processing flow of this embodiment is shown in FIG. Here, the operation will be described with reference to FIGS. FIG. 15 is a diagram showing one variation of the target character string. FIG. 16 is a diagram showing character string information 1 which is a part of the format information stored in the format information storage means 2, and 37 to 39 are different format information. In the present embodiment, an example will be described in which a plurality of format information is stored in the format information storage means 2 in order to correspond to character strings having various variations such as a license plate character of a motorized bicycle.
In addition, the character string information 2 defining the size of the character pattern and the character string information 3 defining the space between the character patterns are paired with the character string information 1 corresponding to the format of each character string. Are stored in the format information storage means 2.

まず、実施の形態2と同様の手順で、画像入力手段1が濃淡画像を入力して(ステップT1)、2値画像を作成する(ステップT2)。次に、フォーマット情報格納手段2の内容を参照して第1の文字切り出し手段3が入力画像から文字を切り出す(ステップT3)。本実施の形態では、図8の文字列、図13の文字列および図15の文字列の3つの文字列バリエーションを全て対象とし、フォーマット情報格納手段2には、この3種類に対応したフォーマット情報の文字列情報1'が図16のように入っているものとする。図16において、フォーマット情報37は実施の形態2で用いたものと同じであり、図8の文字列に対応する。フォーマット情報38は実施の形態3で用いたものと同じであり、図13の文字列に対応する。フォーマット情報39は図15に示すように、文字の大きさ・間隔が等しい4〜5文字の文字列に対応する。また、各フォーマット情報には優先度を付けており、この値が大きいほど優先度が高いものとする。この優先度は、例えば出現頻度の高い文字列の情報に大きな優先度を付けておくなど、あらかじめ定めておく。 First, in the same procedure as in the second embodiment, the image input means 1 inputs a grayscale image (step T1) and creates a binary image (step T2). Next, referring to the contents of the format information storage means 2, the first character cutout means 3 cuts out characters from the input image (step T3). In the present embodiment, all three character string variations of the character string of FIG. 8, the character string of FIG. 13, and the character string of FIG. 15 are targeted, and the format information storage means 2 stores format information corresponding to these three types. It is assumed that the character string information 1 is included as shown in FIG. In FIG. 16, the format information 37 is the same as that used in the second embodiment, and corresponds to the character string in FIG. The format information 38 is the same as that used in the third embodiment, and corresponds to the character string shown in FIG. As shown in FIG. 15, the format information 39 corresponds to a character string of 4 to 5 characters having the same character size / interval. Each format information has a priority, and the larger the value, the higher the priority. This priority is determined in advance, for example, by assigning a large priority to information on a character string having a high appearance frequency.

ステップT3において、第1の文字切り出し手段3は、実施の形態2と同様に文字候補パターンを抽出した後、フォーマット情報37〜39の何れかに該当する組み合わせを抽出し、どのフォーマット情報に対応するかを示すフラグを付与して、切り出し結果文字列とする。ここで、本実施の形態では、複数の切り出し結果文字列が得られた場合は、優先度が最も大きいものを一つだけ出力するものとする。例えば、フォーマット情報37に対応する文字列とフォーマット情報39に対応する文字列の二つが得られた場合、フォーマット情報優先度の大きいフォーマット情報37に対応する切り出し結果文字列を出力する。   In step T3, the first character cutout unit 3 extracts character candidate patterns as in the second embodiment, and then extracts a combination corresponding to any of the format information 37 to 39, and corresponds to which format information. A flag indicating this is added to obtain a cutout result character string. Here, in the present embodiment, when a plurality of cutout result character strings are obtained, only one with the highest priority is output. For example, when two character strings corresponding to the format information 37 and a character string corresponding to the format information 39 are obtained, a cutout result character string corresponding to the format information 37 having a high format information priority is output.

以降の処理は実施の形態2と同じであり、第1の文字認識手段4が第1の文字切り出し手段3の切り出したパターンを認識し(ステップT4)、属性判定手段5が属性判定する(ステップT5)。さらに第2の文字切り出し手段6が規準文字を決定して(ステップT6)2回目の文字切り出しを行う(ステップT7)。このステップT7において、本実施の形態では、フォーマット情報を参照して処理を行う際に、切り出し結果文字列に付与されているフラグに対応するフォーマット情報を選択して用いる。その後、第2の文字認識手段7が第2の文字切り出し手段6の切り出したパターンを認識して(ステップT8)、属性判定手段5が属性判定を行う(ステップT9)。最後に認識結果出力手段8が、第1の文字認識手段4と属性判定手段5と第2の文字認識手段7の出力から文字列全体の認識結果を決定し、出力する(ステップT10)。   The subsequent processing is the same as that of the second embodiment. The first character recognition unit 4 recognizes the pattern cut out by the first character cutout unit 3 (step T4), and the attribute determination unit 5 determines the attribute (step T5). Further, the second character cutout means 6 determines the reference character (step T6) and performs the second character cutout (step T7). In this step T7, in the present embodiment, when processing is performed with reference to the format information, the format information corresponding to the flag added to the cutout character string is selected and used. Thereafter, the second character recognition means 7 recognizes the pattern cut out by the second character cutout means 6 (step T8), and the attribute determination means 5 performs attribute determination (step T9). Finally, the recognition result output means 8 determines and outputs the recognition result of the entire character string from the outputs of the first character recognition means 4, the attribute determination means 5 and the second character recognition means 7 (step T10).

この実施の形態では、以上の工程を経ることで、対象とする文字列のバリエーションが非常に多い場合でも、誤検出を抑えつつ、効率よく文字切り出し・認識が行える。なお、本実施の形態では、フォーマット情報を3種類用いた例で説明したが、これは複数であればいくつでも良い。また、フォーマット情報優先度の設定基準を出現頻度とするように説明したが、これは別の基準で決定しても良く、例えば、誤検出の発生頻度を基準として、誤検出が多いフォーマット情報(誤検出を誘発するもの)の優先度を小さくするようにしても良い。   In this embodiment, through the above steps, even when there are very many variations of the target character string, it is possible to efficiently extract and recognize characters while suppressing erroneous detection. In the present embodiment, an example in which three types of format information are used has been described, but any number of format information may be used. Further, the description has been made so that the format information priority setting criterion is the appearance frequency. However, this may be determined based on another criterion. For example, format information with a large number of erroneous detections based on the occurrence frequency of erroneous detection ( You may make it make the priority of the thing which induces a false detection small.

また、フォーマット情報優先度を各フォーマット情報に一つずつ設定する例を説明したが、これはもっと細かく設定しても良く、例えば、同じフォーマット情報であっても、検出された文字数に基づいて異なる優先度の値を与えるようにしても良い。また、第1の文字切り出し手段3で優先度に基づき切り出し結果の選択を行ったが、第1の文字切り出し手段3では得られた複数の切り出し結果文字列を全部出力し、各切り出し結果文字列それぞれについてステップT4〜T9の処理を行い、最後の認識結果決定・出力(ステップT10)で優先度を指標の1つとして選択を行っても良い。この場合、処理量は増えるものの、各切り出し結果文字列の認識評価値も選択基準に含めることが可能となり、選択誤りを少なくできる。   Further, the example in which the format information priority is set for each format information has been described. However, this may be set more finely. For example, even if the format information is the same, the format information priority varies depending on the number of detected characters. A priority value may be given. In addition, the first character cutout unit 3 selects the cutout result based on the priority, but the first character cutout unit 3 outputs all of the plurality of cutout result character strings obtained and outputs the cutout result character strings. Each of the processes of steps T4 to T9 may be performed, and the priority may be selected as one of the indices in the final recognition result determination / output (step T10). In this case, although the amount of processing increases, the recognition evaluation value of each cutout result character string can be included in the selection criterion, and selection errors can be reduced.

実施の形態5.
以下、この発明の実施の形態5を図について説明する。概略構成図は実施の形態1と同じく図1である。
次に動作を図により説明する。本実施の形態の処理フローは実施の形態2と同じく図7である。ここでは、図8〜9と図17〜20を用いて動作を説明する。図17は認識対象とする文字列のバリエーションを示す図である。図18は認識対象文字列画像の例であり、40〜44が数字の文字パターン、45はひらがなの文字パターン、46は汚れである。図19は第1の文字切り出し手段3による切り出し結果の例である。図20は第2の文字切り出し手段6の動作を説明するための図であり、47はパターン検出領域である。本実施の形態では、属性として字種の情報も用いる例を説明する。
Embodiment 5. FIG.
Embodiment 5 of the present invention will be described below with reference to the drawings. The schematic configuration diagram is FIG. 1 as in the first embodiment.
Next, the operation will be described with reference to the drawings. The processing flow of this embodiment is shown in FIG. Here, the operation will be described with reference to FIGS. 8 to 9 and FIGS. FIG. 17 is a diagram showing variations of character strings to be recognized. FIG. 18 is an example of a character string image to be recognized, where 40 to 44 are numeric character patterns, 45 is a hiragana character pattern, and 46 is dirt. FIG. 19 shows an example of the cutout result by the first character cutout means 3. FIG. 20 is a diagram for explaining the operation of the second character cutout means 6, and 47 is a pattern detection area. In the present embodiment, an example will be described in which character type information is also used as an attribute.

まず、実施の形態2と同様の手順で、画像入力手段1が濃淡画像を入力して(ステップT1)、2値画像を作成する(ステップT2)。次に、フォーマット情報格納手段2の内容を参照して第1の文字切り出し手段3が入力画像から文字を切り出す(ステップT3)。本実施の形態では、図17に示すように、図8の数字3〜5桁の左側にひらがなが1文字ある文字列を対象とし、このうちの数字部分を検出・認識するものとする。フォーマット情報格納手段2に格納されるフォーマット情報における文字列情報1'は、実施の形態2で説明した図9の内容等に加え、数字の左側にひらがなが1文字あるという情報が入っているものとする。
また、実施の形態2と同様に、図9の数字の左側にひらがなが1文字あるという情報に対応する文字列情報2'と文字列情報3'がフォーマット情報格納手段2に格納されている。
ステップT3の処理の結果、図18の画像からは、文字45、文字40〜43の組み合わせ(図19の破線で囲んだパターン)が図9におけるパターン18〜22と対応付けられ、切り出し結果文字列となる。
First, in the same procedure as in the second embodiment, the image input means 1 inputs a grayscale image (step T1) and creates a binary image (step T2). Next, referring to the contents of the format information storage means 2, the first character cutout means 3 cuts out characters from the input image (step T3). In the present embodiment, as shown in FIG. 17, a character string having one hiragana character on the left side of the numbers 3 to 5 in FIG. 8 is targeted, and the number portion is detected and recognized. The character string information 1 in the format information stored in the format information storage means 2 includes information that there is one hiragana character on the left side of the number in addition to the contents of FIG. 9 described in the second embodiment. And
Similarly to the second embodiment, the character string information 2 and the character string information 3 corresponding to the information that there is one hiragana character on the left side of the number in FIG. 9 are stored in the format information storage means 2.
As a result of the process of step T3, from the image of FIG. 18, a combination of characters 45 and characters 40 to 43 (pattern surrounded by a broken line in FIG. 19) is associated with patterns 18 to 22 in FIG. It becomes.

次に、実施の形態2と同様に、第1の文字認識手段4が、第1の文字切り出し手段3の切り出したパターンを認識し、各パターンの認識結果として文字コードと認識評価値を出力する(ステップT4)。その後、属性判定手段5が、第1の文字認識手段4の認識したパターンの属性を判定する(ステップT5)。本実施の形態では、ステップT5において字種も属性として用いるものとし、属性X(数字の認識評価値が大きいパターン)、属性Y(ひらがなの認識評価値が大きいパターン)、属性Z(認識評価値が小さく文字でない可能性の高いパターン)の3種類に判定するものとする。この結果、図19の切り出し結果文字列(パターン45、40〜43)については、属性判定手段5によりパターン45が属性Y、パターン40〜43が属性Xと判定される。
なお、パターン45も属性Xと判定された場合は、5文字の数字文字列となり、図9のフォーマット情報と矛盾することなく最大文字数(5)に至っているため、これ以上の文字切り出しは必要なく、以降のステップT6〜T9はスキップするが、ここでは属性Yと判定されたため、ステップT6に続く。
Next, as in the second embodiment, the first character recognition unit 4 recognizes the pattern cut out by the first character cutout unit 3 and outputs a character code and a recognition evaluation value as a recognition result of each pattern. (Step T4). Thereafter, the attribute determination unit 5 determines the attribute of the pattern recognized by the first character recognition unit 4 (step T5). In the present embodiment, the character type is also used as an attribute in step T5, and attribute X (a pattern with a large numeric recognition evaluation value), attribute Y (a pattern with a large hiragana recognition evaluation value), attribute Z (a recognition evaluation value) It is assumed that the pattern is determined to be three types of patterns that are likely to be small and not characters. As a result, with respect to the cutout character string (patterns 45 and 40 to 43) in FIG. 19, the attribute determination unit 5 determines that the pattern 45 is attribute Y and the patterns 40 to 43 are attribute X.
If the pattern 45 is also determined as the attribute X, it becomes a five-character numeric character string and reaches the maximum number of characters (5) without conflicting with the format information in FIG. The subsequent steps T6 to T9 are skipped, but since the attribute Y is determined here, the process continues to step T6.

次に、第2の文字切り出し手段6が、2回目の切り出しの基準となる規準文字を決定する(ステップT6)。本実施の形態では、切り出し文字列の両端から内側に向かって各パターンの属性をチェックし、初めて出現する属性Xのパターンを文字列の境界パターンとして抽出し、境界パターンに挟まれたパターンと境界パターンとを合わせて規準文字とする。図19の切り出し結果文字列については、パターン40(左端境界パターン)とパターン43(右端境界パターン)が境界パターンとなり、パターン40、41,42,43が規準文字となる。   Next, the second character cutout means 6 determines a reference character as a reference for the second cutout (step T6). In this embodiment, the attribute of each pattern is checked inward from both ends of the cut-out character string, the attribute X pattern that appears for the first time is extracted as the boundary pattern of the character string, and the pattern and the boundary sandwiched between the boundary patterns Together with the pattern, it becomes the reference character. In the cutout character string shown in FIG. 19, the pattern 40 (left end boundary pattern) and the pattern 43 (right end boundary pattern) are boundary patterns, and the patterns 40, 41, 42, and 43 are reference characters.

さらに第2の文字切り出し手段6は、2回目の文字切り出しを行うが(ステップT7)、左端境界パターンの左隣にあるひらがな文字が既に検出されており、切り出し結果文字列の左側には数字パターンのないことが分かっているため、本実施の形態では左側は参照せず、右側の領域から新たな文字パターンを切り出していく。例えば、実施の形態2の文字列情報3´におけるサイズ情報Lパターン同士の距離標準値だけパターン43から右側の位置に、高さはサイズ情報Lパターンの許容最大高さ、幅は同じくLパターンの許容最大幅となるパターン検出領域を設定し、実施の形態1と同様の手順で、この領域から一つの文字パターンを検出する。図20が動作例であり、パターン検出領域47から文字パターン44が検出できる。   Further, the second character cutout means 6 performs the second character cutout (step T7), but the hiragana character adjacent to the left of the left end boundary pattern has already been detected, and the number pattern is displayed on the left side of the cutout character string. In this embodiment, the left side is not referred to, and a new character pattern is cut out from the right region. For example, the height is the maximum allowable height of the size information L pattern and the width is the same as the L pattern in the right position from the pattern 43 by the distance standard value between the size information L patterns in the character string information 3 ′ of the second embodiment. A pattern detection area having an allowable maximum width is set, and one character pattern is detected from this area in the same procedure as in the first embodiment. FIG. 20 shows an operation example, in which the character pattern 44 can be detected from the pattern detection area 47.

以降の処理は実施の形態2と同じであり、第2の文字認識手段7が第2の文字切り出し手段6の切り出したパターンを認識して(ステップT8)、属性判定手段5が属性判定を行う(ステップT9)。最後に認識結果出力手段8が、第1の文字認識手段4と属性判定手段5と第2の文字認識手段7の出力から文字列全体の認識結果を決定し、出力する(ステップT10)。   The subsequent processing is the same as in the second embodiment. The second character recognition unit 7 recognizes the pattern cut out by the second character cutout unit 6 (step T8), and the attribute determination unit 5 performs attribute determination. (Step T9). Finally, the recognition result output means 8 determines and outputs the recognition result of the entire character string from the outputs of the first character recognition means 4, the attribute determination means 5 and the second character recognition means 7 (step T10).

本実施の形態は、数字部分を検出して認識するものであるから第2の文字切り出し手段6が、2回目の切り出しの基準となる規準文字を決定する際は属性判定手段5が数字の認識評価値が大きいパターンと属性判定された属性Xを抽出して決定する。
以上のように本実施の形態は上述の工程を経ることで、検出・認識対象文字列の周辺に別の文字パターンが存在する場合でも、正しく対象文字列を読み取り、その結果を出力できる。なお、本実施の形態では、数字とひらがなを字種として属性分けしたが、これは、漢字と漢字以外というような別の分け方でも良く、あるいは、数字の0〜4と5〜9を別の字種とするような細かい分け方でも良い。要は検出・認識する対象文字列と同じ属性の文字パターンを抽出して規準文字を決定すればよい。
In this embodiment, since the numeral portion is detected and recognized, the attribute determining means 5 recognizes the number when the second character cutout means 6 determines a reference character as a reference for the second cutout. A pattern having a large evaluation value and an attribute X whose attribute is determined are extracted and determined.
As described above, the present embodiment can read the target character string correctly and output the result even when another character pattern exists around the detection / recognition target character string through the above-described steps. In the present embodiment, numbers and hiragana are attributed as character types, but this may be another way of dividing such as kanji and other than kanji, or the numbers 0-4 and 5-9 may be separated. It may be finely divided as a type of character. In short, a reference character may be determined by extracting a character pattern having the same attribute as the target character string to be detected and recognized.

なお、実施の形態1〜5では、数字の認識結果を出力しているが、これは数字に限るわけではなく何でも良い。また、1段構成の文字列の例で説明したが、複数段文字列の一部の段または全部の段を対象として処理を行っても良い。また、各実施の形態では左側と右側のどちらか一方だけを対象とする例を説明したが、もちろん、第1の文字切り出し手段3の処理結果によっては、両方を対象とする場合もある。   In the first to fifth embodiments, the number recognition result is output, but this is not limited to numbers and may be anything. Further, although an example of a one-stage character string has been described, processing may be performed for some or all stages of a multi-stage character string. In each embodiment, an example has been described in which only one of the left side and the right side is targeted. However, depending on the processing result of the first character cutout unit 3, both may be targeted.

この発明は、例えば、四輪車のナンバー読み取り装置や、近来読み取り要求が強くなってきている原動機付き自転車のナンバー読み取り装置に適用可能である。   The present invention can be applied to, for example, a number reading device for a four-wheeled vehicle or a number reading device for a motor-equipped bicycle for which a reading request is increasing.

この発明の実施の形態1を示す概略構成図である。BRIEF DESCRIPTION OF THE DRAWINGS It is a schematic block diagram which shows Embodiment 1 of this invention. この発明の実施の形態1における処理フロー図である。It is a processing flow figure in Embodiment 1 of this invention. 認識対象文字列画像例の説明図である。It is explanatory drawing of the example of a recognition object character string image. 第1の文字切り出し手段による切り出し結果例の説明図である。It is explanatory drawing of the example of a cutting-out result by the 1st character cutting-out means. 第2の文字切り出し手段による最初の切り出し結果例の説明図である。It is explanatory drawing of the example of the first cutting-out result by a 2nd character cutting-out means. 第2の文字切り出し手段による2度目の切り出し結果例の説明図である。It is explanatory drawing of the example of the 2nd extraction result by the 2nd character extraction means. この発明の実施の形態2における処理フロー図である。It is a processing flow figure in Embodiment 2 of this invention. この発明の実施の形態2における認識対象の文字列のバリエーションを示す図である。It is a figure which shows the variation of the character string of the recognition target in Embodiment 2 of this invention. この発明の実施の形態2におけるフォーマット情報格納手段における格納情報の一部を示す図である。It is a figure which shows a part of storage information in the format information storage means in Embodiment 2 of this invention. この発明の実施の形態2における認識対象の文字列画像例の説明図である。It is explanatory drawing of the character string image example of the recognition target in Embodiment 2 of this invention. この発明の実施の形態2における第1の文字切り出し手段による切り出し結果例の説明図である。It is explanatory drawing of the example of a cutting-out result by the 1st character cutting-out means in Embodiment 2 of this invention. この発明の実施の形態2における第2の文字切り出し手段の動作説明用の図である。It is a figure for operation | movement description of the 2nd character cutting-out means in Embodiment 2 of this invention. この発明の実施の形態3における認識対象の文字列のバリエーションを示す図である。It is a figure which shows the variation of the character string of the recognition target in Embodiment 3 of this invention. この発明の実施の形態3におけるフォーマット情報格納手段における格納情報の一部を示す図である。It is a figure which shows a part of storage information in the format information storage means in Embodiment 3 of this invention. この発明の実施の形態4における認識対象の文字列のバリエーションを示す図である。It is a figure which shows the variation of the character string of the recognition target in Embodiment 4 of this invention. この発明の実施の形態4におけるフォーマット情報格納手段における格納情報の一部を示す図である。It is a figure which shows a part of stored information in the format information storage means in Embodiment 4 of this invention. この発明の実施の形態5における認識対象の文字列のバリエーションを示す図である。It is a figure which shows the variation of the character string of the recognition target in Embodiment 5 of this invention. この発明の実施の形態5における認識対象文字列画像例の説明図である。It is explanatory drawing of the example of recognition object character string image in Embodiment 5 of this invention. この発明の実施の形態5における第1の文字切り出し手段による切り出し結果例の説明図である。It is explanatory drawing of the example of a cutting-out result by the 1st character cutting-out means in Embodiment 5 of this invention. この発明の実施の形態5における第2の文字切り出し手段の動作説明用の図である。It is a figure for demonstrating operation | movement of the 2nd character cutting-out means in Embodiment 5 of this invention.

符号の説明Explanation of symbols

1;画像入力手段、2;フォーマット情報格納手段、3;第1の文字切り出し手段、4;第1の文字認識手段、5;属性判定手段、6;第2の文字切り出し手段、7;第2の文字認識手段、8;認識結果出力手段。   DESCRIPTION OF SYMBOLS 1; Image input means, 2; Format information storage means, 3; 1st character extraction means, 4; 1st character recognition means, 5; Attribute determination means, 6; 2nd character extraction means, 7; Character recognition means, 8; recognition result output means.

Claims (6)

画像を入力する画像入力手段と、処理対象の文字列のフォーマット情報が格納されたフォーマット情報格納手段と、フォーマット情報を参照して入力画像から文字パターンを切り出す第1の文字切り出し手段と、前記第1の文字切り出し手段で切り出された文字パターンの認識を行う第1の文字認識手段と、前記第1の文字認識手段で認識された文字パターンの属性を判定する属性判定手段と、前記属性判定された文字パターンのうち所定の条件を満たす文字パターンの位置座標を基準として当該文字パターン周辺の他の文字パターンを切り出す第2の文字切り出し手段と、前記第2の文字切り出し手段で切り出された文字パターンの認識を行う第2の文字認識手段と、第1の文字認識手段と属性判定手段および第2の文字認識手段の結果から入力画像に対する認識結果を決定して出力する認識結果出力手段を備えたことを特徴とする文字認識装置。   Image input means for inputting an image; format information storage means for storing format information of a character string to be processed; first character cutout means for cutting out a character pattern from an input image with reference to the format information; First character recognition means for recognizing the character pattern cut out by one character cut-out means, attribute determination means for determining the attribute of the character pattern recognized by the first character recognition means, and the attribute determination A second character cutout unit that cuts out other character patterns around the character pattern on the basis of the position coordinates of the character pattern satisfying a predetermined condition, and the character pattern cut out by the second character cutout unit The second character recognizing means for recognizing the character, the first character recognizing means, the attribute determining means and the result of the second character recognizing means. Character recognition apparatus characterized by comprising a recognition result output means determines and outputs the recognition result for the input image. 前記フォーマット情報格納手段は、処理対象文字列を構成する文字パターンを切り出す文字切り出し手段を特定するための情報を含むフォーマット情報を格納することを特徴とする請求項1記載の文字認識装置。   2. The character recognition apparatus according to claim 1, wherein the format information storage means stores format information including information for specifying a character cutout means for cutting out a character pattern constituting the character string to be processed. 前記属性判定手段は、前記第1の文字認識手段の出力の属性判定をするために前記第1の文字認識手段の認識評価値と判定対象の文字パターン周辺の画像情報とを参照することを特徴とする請求項1または2記載の文字認識装置。   The attribute determination unit refers to the recognition evaluation value of the first character recognition unit and image information around the character pattern to be determined in order to determine the attribute of the output of the first character recognition unit. The character recognition device according to claim 1 or 2. 前記属性判定手段は前記第2の文字認識手段で認識された文字パターンの属性をも判定することを特徴とする請求項1乃至3の何れかに記載の文字認識装置。   The character recognition device according to claim 1, wherein the attribute determination unit also determines an attribute of the character pattern recognized by the second character recognition unit. 前記フォーマット情報格納手段は、優先度情報の付いた複数のフォーマット情報を格納し、前記第1の文字切り出し手段は、異なるフォーマット情報に対応する複数のパターン列を検出した場合に、優先度の高いフォーマット情報に対応するパターン列を切り出し結果とすることを特徴とする請求項1乃至4の何れかに記載の文字認識装置。   The format information storage means stores a plurality of format information with priority information, and the first character segmentation means has a high priority when it detects a plurality of pattern strings corresponding to different format information. The character recognition apparatus according to claim 1, wherein a pattern string corresponding to the format information is used as a cutout result. 前記属性判定手段は、判定対象の文字パターンの属する字種を判定し、前記第2の文字切り出し手段は、字種情報を用いて基準とする文字パターンを決定することを特徴とする請求項1または2記載の文字認識装置。   2. The attribute determining unit determines a character type to which a character pattern to be determined belongs, and the second character cut-out unit determines a reference character pattern using character type information. Or the character recognition apparatus of 2.
JP2005165244A 2005-06-06 2005-06-06 Character recognition apparatus Pending JP2006338578A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005165244A JP2006338578A (en) 2005-06-06 2005-06-06 Character recognition apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005165244A JP2006338578A (en) 2005-06-06 2005-06-06 Character recognition apparatus

Publications (1)

Publication Number Publication Date
JP2006338578A true JP2006338578A (en) 2006-12-14

Family

ID=37559050

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005165244A Pending JP2006338578A (en) 2005-06-06 2005-06-06 Character recognition apparatus

Country Status (1)

Country Link
JP (1) JP2006338578A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008204203A (en) * 2007-02-20 2008-09-04 Kobe Steel Ltd Image processing method of character string image, and program and device therefor
JP2011022938A (en) * 2009-07-17 2011-02-03 Fujitsu Ltd Character recognition device, character recognition program and character recognition method
JP2014238829A (en) * 2013-06-06 2014-12-18 ゼロックス コーポレイションXerox Corporation Adaptive character segmentation method and system for automatic license plate recognition
JP2015210542A (en) * 2014-04-23 2015-11-24 株式会社キーエンス Portable optical reader, optical reading method using portable optical reader, and computer program
JP2016031574A (en) * 2014-07-28 2016-03-07 日立オムロンターミナルソリューションズ株式会社 Paper sheet identification device, paper sheet handling device and paper sheet identification method
JP2018025885A (en) * 2016-08-08 2018-02-15 京セラドキュメントソリューションズ株式会社 Image processing device
CN108205670A (en) * 2016-12-16 2018-06-26 杭州海康威视数字技术股份有限公司 A kind of licence plate recognition method and device
CN109034158A (en) * 2017-06-09 2018-12-18 杭州海康威视数字技术股份有限公司 A kind of licence plate recognition method, device and computer equipment
JP2019220069A (en) * 2018-06-22 2019-12-26 株式会社東芝 Card number recognition device and card number recognition method
CN112215216A (en) * 2020-09-10 2021-01-12 中国东方电气集团有限公司 Character string fuzzy matching system and method for image recognition result

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63238683A (en) * 1986-11-06 1988-10-04 Sumitomo Electric Ind Ltd Optical character reader
JPH0528324A (en) * 1991-07-23 1993-02-05 Matsushita Electric Ind Co Ltd English character recognition device
JPH0628521A (en) * 1992-07-10 1994-02-04 Toshiba Corp Optical character reader
JPH08235311A (en) * 1995-02-28 1996-09-13 Oki Electric Ind Co Ltd Character recognition device
JPH10124615A (en) * 1996-10-24 1998-05-15 Ricoh Co Ltd Character recognizing device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63238683A (en) * 1986-11-06 1988-10-04 Sumitomo Electric Ind Ltd Optical character reader
JPH0528324A (en) * 1991-07-23 1993-02-05 Matsushita Electric Ind Co Ltd English character recognition device
JPH0628521A (en) * 1992-07-10 1994-02-04 Toshiba Corp Optical character reader
JPH08235311A (en) * 1995-02-28 1996-09-13 Oki Electric Ind Co Ltd Character recognition device
JPH10124615A (en) * 1996-10-24 1998-05-15 Ricoh Co Ltd Character recognizing device

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008204203A (en) * 2007-02-20 2008-09-04 Kobe Steel Ltd Image processing method of character string image, and program and device therefor
JP2011022938A (en) * 2009-07-17 2011-02-03 Fujitsu Ltd Character recognition device, character recognition program and character recognition method
JP2014238829A (en) * 2013-06-06 2014-12-18 ゼロックス コーポレイションXerox Corporation Adaptive character segmentation method and system for automatic license plate recognition
JP2015210542A (en) * 2014-04-23 2015-11-24 株式会社キーエンス Portable optical reader, optical reading method using portable optical reader, and computer program
JP2016031574A (en) * 2014-07-28 2016-03-07 日立オムロンターミナルソリューションズ株式会社 Paper sheet identification device, paper sheet handling device and paper sheet identification method
JP2018025885A (en) * 2016-08-08 2018-02-15 京セラドキュメントソリューションズ株式会社 Image processing device
CN108205670A (en) * 2016-12-16 2018-06-26 杭州海康威视数字技术股份有限公司 A kind of licence plate recognition method and device
CN108205670B (en) * 2016-12-16 2020-10-27 杭州海康威视数字技术股份有限公司 License plate recognition method and device
CN109034158A (en) * 2017-06-09 2018-12-18 杭州海康威视数字技术股份有限公司 A kind of licence plate recognition method, device and computer equipment
JP2019220069A (en) * 2018-06-22 2019-12-26 株式会社東芝 Card number recognition device and card number recognition method
CN112215216A (en) * 2020-09-10 2021-01-12 中国东方电气集团有限公司 Character string fuzzy matching system and method for image recognition result

Similar Documents

Publication Publication Date Title
JP2006338578A (en) Character recognition apparatus
JP6080259B2 (en) Character cutting device and character cutting method
US8059868B2 (en) License plate recognition apparatus, license plate recognition method, and computer-readable storage medium
EP1497787B1 (en) System and method for identifying and extracting character strings from captured image data
JP4031210B2 (en) Character recognition device, character recognition method, and recording medium
JP3345224B2 (en) Pattern extraction device, pattern re-recognition table creation device, and pattern recognition device
JPH096957A (en) Binarization method for density image and image binarization device
JP2002133426A (en) Ruled line extracting device for extracting ruled line from multiple image
JPH05233873A (en) Area dividing method
JPH11143989A (en) Character segmentation device and character segmentation system
KR101793184B1 (en) Apparatus of Fast lyric area extraction from images of printed music scores and method therefor
KR100383858B1 (en) Character extracting method and device
JP2010186246A (en) Image processing apparatus, method, and program
JP3544324B2 (en) CHARACTER STRING INFORMATION EXTRACTION DEVICE AND METHOD, AND RECORDING MEDIUM CONTAINING THE METHOD
JPH09319747A (en) Structuralization method for document image
JP4244692B2 (en) Character recognition device and character recognition program
JP3476595B2 (en) Image area division method and image binarization method
JP2917427B2 (en) Drawing reader
JP4731748B2 (en) Image processing apparatus, method, program, and storage medium
JP3220226B2 (en) Character string direction determination method
JPH1166230A (en) Device, method, and medium for document recognition
JPH07160810A (en) Character recognizing device
JPH05174185A (en) Japanese character recognizing device
JPH0877293A (en) Character recognition device and generating method for dictionary for character recognition
JPH05135204A (en) Character recognition device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080422

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110311

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110329

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110719