JP2012190422A - Image processing device, image processing method, image processing program, and waveform data processing device - Google Patents

Image processing device, image processing method, image processing program, and waveform data processing device Download PDF

Info

Publication number
JP2012190422A
JP2012190422A JP2011055805A JP2011055805A JP2012190422A JP 2012190422 A JP2012190422 A JP 2012190422A JP 2011055805 A JP2011055805 A JP 2011055805A JP 2011055805 A JP2011055805 A JP 2011055805A JP 2012190422 A JP2012190422 A JP 2012190422A
Authority
JP
Japan
Prior art keywords
cause
recognition
failure
character
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011055805A
Other languages
Japanese (ja)
Other versions
JP5782760B2 (en
Inventor
Masashi Kurita
真嗣 栗田
Hatsumi Aoi
初美 青位
Tadashi Hyuga
匡史 日向
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP2011055805A priority Critical patent/JP5782760B2/en
Publication of JP2012190422A publication Critical patent/JP2012190422A/en
Application granted granted Critical
Publication of JP5782760B2 publication Critical patent/JP5782760B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Character Discrimination (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To appropriately adjust parameters for regulating an image processing.SOLUTION: A CPU 11 includes: a success/failure determination section 113 for determining whether the recognition of at least one character constituting a character string fails or not; a cause estimation section 116 for estimating a cause of the recognition failure of the character when the success/failure determination section 113 determines that the recognition of at least one character constituting the character string has failed; and a process correcting section 117 for correcting at least one parameter value corresponding to the estimated cause out of a plurality of parameters for regulating the image processing, based on the cause estimated by the cause estimation section 116.

Description

本発明は、認識対象部位を含む物体を撮像して得られる画像に対して予め定められた画像処理を施して、前記認識対象部位を認識する画像処理装置、画像処理方法、及び、画像処理プログラムに関する。また、本発明は、認識対象部位を含む波形データに対して予め定められた認識処理を施して、前記認識対象部位を認識する波形データ処理装置に関する。   The present invention provides an image processing apparatus, an image processing method, and an image processing program that perform predetermined image processing on an image obtained by imaging an object including a recognition target part to recognize the recognition target part. About. The present invention also relates to a waveform data processing apparatus that recognizes the recognition target part by performing a predetermined recognition process on the waveform data including the recognition target part.

従来、認識対象部位を含む物体を撮像して得られる画像に対して予め定められた画像処理を施して、前記認識対象部位を認識する種々の技術が提案されている。   Conventionally, various techniques for recognizing the recognition target part by performing predetermined image processing on an image obtained by imaging an object including the recognition target part have been proposed.

例えば、スキャンした原稿画像(文書画像ともいう)を文字認識処理して文字コードを生成し、次に文字コードに基づいて文字画像を生成し、次に、生成された文字画像と原稿画像から切り出したオリジナルの文字画像とを比較して類似度を出力し、類似度に基づいて認識結果の正誤を判定し、誤認識のある文字の部分を含む原稿画像を取り出し、当該誤認識のある文字画像の座標データに基づいて、誤認識のある文字画像をハイライトさせた出力画像データを生成してユーザに表示する文字認識装置が開示されている(特許文献1参照)。   For example, character recognition processing is performed on a scanned document image (also referred to as a document image) to generate a character code, a character image is generated based on the character code, and then the generated character image and the document image are cut out. The original character image is compared to output the similarity, the correctness of the recognition result is determined based on the similarity, the original image including the erroneously recognized character portion is taken out, and the erroneously recognized character image A character recognition device is disclosed that generates output image data in which a character image with erroneous recognition is highlighted based on the coordinate data and displays it to the user (see Patent Document 1).

オペレータ(正誤判定者)は、すべての文書においてすべての領域で文字認識結果の正誤を確認する必要があったが、特許文献1に記載の文字認識装置によれば、ハイライトされた文字のみを確認するだけでよいため、オペレータによる文字認識結果の正誤判定作業量を低減することができる。   The operator (correction determination person) needs to confirm the correctness of the character recognition result in all areas in all documents. However, according to the character recognition device described in Patent Document 1, only the highlighted character is displayed. Since it is only necessary to confirm, it is possible to reduce the amount of correctness determination work of the character recognition result by the operator.

特開2010−61471号公報JP 2010-61471 A

しかしながら、上記特許文献1に記載の文字認識装置においては、オペレータ(正誤判定者)の正誤判定作業量を低減することができるものの、文字の認識率を高めるために、文字を認識する画像処理を規定するパラメータの調整を行うことは困難であった。   However, although the character recognition device described in Patent Document 1 can reduce the correctness determination work amount of an operator (correction determination person), image processing for recognizing characters is performed in order to increase the recognition rate of characters. It was difficult to adjust the prescribed parameters.

すなわち、物体の表面に形成された文字列を含む画像から、文字列を構成する各文字を認識するためには、種々の画像処理(例えば、回転処理、膨張・収縮処理、コントラスト調整処理、二値化処理等)を施す必要があるため、画像処理全体の処理内容を規定するパラメータの個数が多数(例えば、200個)となる。したがって、文字を認識する画像処理を規定するパラメータの適正な調整を行うことは、高度の知識を必要とする極めて困難な作業であった。   That is, in order to recognize each character constituting the character string from the image including the character string formed on the surface of the object, various image processing (for example, rotation processing, expansion / contraction processing, contrast adjustment processing, Therefore, the number of parameters defining the processing content of the entire image processing is large (for example, 200). Therefore, it is an extremely difficult task that requires a high degree of knowledge to appropriately adjust parameters that define image processing for recognizing characters.

本発明は、上記課題に鑑みてなされたものであって、認識対象部位を認識する画像処理(又は認識処理)を規定するパラメータの適正な調整を行うことの可能な画像処理装置、画像処理方法、画像処理プログラム、及び、波形データ処理装置を提供することを目的としている。   The present invention has been made in view of the above problems, and is an image processing apparatus and an image processing method capable of appropriately adjusting parameters that define image processing (or recognition processing) for recognizing a recognition target portion. An object of the present invention is to provide an image processing program and a waveform data processing device.

上記課題を解決するために、本発明に係る画像処理装置は、以下のように構成されている。   In order to solve the above problems, an image processing apparatus according to the present invention is configured as follows.

すなわち、本発明に係る画像処理装置は、認識対象部位を含む物体を撮像して得られる画像に対して予め定められた画像処理を施して、前記認識対象部位を認識する画像処理装置であって、前記認識対象部位の認識が失敗したか否かを判定する成否判定手段と、前記成否判定手段によって前記認識対象部位の認識が失敗したと判定された場合に、前記文字の認識が失敗した原因を推定する原因推定手段と、前記原因推定手段によって推定された原因に基づいて、前記画像処理を規定する複数のパラメータのうち、前記推定された原因に対応する少なくとも1つのパラメータの値を修正する処理修正手段と、を備えることを特徴としている。   That is, an image processing apparatus according to the present invention is an image processing apparatus that performs predetermined image processing on an image obtained by imaging an object including a recognition target part and recognizes the recognition target part. Success / failure determination means for determining whether or not recognition of the recognition target part has failed, and the reason why the recognition of the character has failed when the success / failure determination part determines that recognition of the recognition target part has failed Based on the cause estimated by the cause estimating means, a value of at least one parameter corresponding to the estimated cause among the plurality of parameters defining the image processing is corrected based on the cause estimated by the cause estimating means And a processing correction means.

かかる構成を備える画像処理装置によれば、認識対象部位の認識が失敗したか否かが判定され、認識対象部位の認識が失敗したと判定された場合に、前記認識対象部位の認識が失敗した原因が推定され、推定された原因に基づいて、前記認識対象部位を含む画像に対して施される画像処理を規定する複数のパラメータのうち、前記推定された原因に対応する少なくとも1つのパラメータの値が修正されるため、認識対象部位を認識する画像処理を規定するパラメータの適正な調整を行うことができる。   According to the image processing apparatus having such a configuration, it is determined whether or not recognition of the recognition target part has failed, and when it is determined that recognition of the recognition target part has failed, recognition of the recognition target part has failed. A cause is estimated, and at least one parameter corresponding to the estimated cause is selected from among a plurality of parameters that define image processing performed on an image including the recognition target part based on the estimated cause. Since the value is corrected, it is possible to appropriately adjust the parameter that defines the image processing for recognizing the recognition target part.

ここでは、認識対象部位が、例えば、文字列を構成する各文字である場合について説明する。すなわち、例えば、文字の認識が失敗した原因が文字の線幅である(文字が太すぎる、又は、文字が細すぎる)と推定された場合には、予め設定された推奨線幅B0(例えば、実験的に文字の認識率が最も高くなる線幅)と、実際の文字の線幅の平均値(平均線幅)Bavと、の差である差分線幅ΔBの絶対値分だけ黒膨張処理又は白膨張処理を行う設定に修正すればよい(図12参照)。このようにして、前記推定された原因に対応する少なくとも1つのパラメータの値が修正されるため、画像処理を規定するパラメータを適正に調整することができるのである。   Here, a case where the recognition target part is, for example, each character constituting a character string will be described. That is, for example, when it is estimated that the cause of character recognition failure is the line width of the character (the character is too thick or the character is too thin), a preset recommended line width B0 (for example, The black expansion process or the absolute value of the difference line width ΔB, which is the difference between the line width at which the character recognition rate is experimentally highest) and the average value of the actual character line width (average line width) Bav, or What is necessary is just to correct to the setting which performs a white expansion process (refer FIG. 12). In this way, since the value of at least one parameter corresponding to the estimated cause is corrected, the parameter defining the image processing can be adjusted appropriately.

また、例えば、文字の認識が失敗した原因が、文字列の回転であると推定された場合、文字の滲み(にじみ)又は擦れ(かすれ)であると推定された場合、文字のコントラストが低いことであると推定された場合にも、同様にして、推定された原因に対応する少なくとも1つのパラメータの値が修正される(図18参照)ため、画像処理を規定するパラメータを適正に調整することができるのである。   Also, for example, when it is estimated that the cause of the character recognition failure is rotation of the character string, or when it is estimated that the character is blurred or rubbed, the character contrast is low. In the same manner, since the value of at least one parameter corresponding to the estimated cause is corrected (see FIG. 18), the parameter that defines the image processing is appropriately adjusted. Can do it.

つまり、認識対象部位の認識が失敗する可能性のある原因ごとに、各原因に対応する少なくとも1つのパラメータの値を修正するためのロジック(手順、方法等)を予め構築しておくことによって、推定された原因に対応する少なくとも1つのパラメータの値を適正に修正する(図12、図18参照)ことができるため、画像処理を規定するパラメータを適正に調整することができるのである。   In other words, by constructing in advance a logic (procedure, method, etc.) for correcting the value of at least one parameter corresponding to each cause for each cause of the possibility that recognition of the recognition target part may fail, Since the value of at least one parameter corresponding to the estimated cause can be appropriately corrected (see FIGS. 12 and 18), the parameter defining the image processing can be adjusted appropriately.

また、本発明に係る画像処理装置は、外部からの操作入力を受け付ける操作受付手段と、前記認識対象部位の認識が成功したか否かの判定結果を示す操作入力を、前記操作受付手段を介して受け付ける成否受付手段と、を更に備え、前記成否判定手段が、前記成否受付手段によって受け付けられた操作入力に基づいて、前記認識対象部位の認識が失敗したか否かを判定することが好ましい。   The image processing apparatus according to the present invention includes an operation accepting unit that accepts an operation input from the outside, and an operation input indicating a determination result of whether or not the recognition target part has been successfully recognized via the operation accepting unit. It is preferable that the success / failure receiving means is further provided, and the success / failure determination means determines whether or not recognition of the recognition target portion has failed based on an operation input received by the success / failure reception means.

かかる構成を備える画像処理装置によれば、外部から(例えば、オペレータによって)認識対象部位の認識が成功したか否かの判定結果を示す操作入力が受け付けられ、認識対象部位の認識が失敗したか否かが、受け付けられた操作入力に基づいて判定されるため、
文字の認識が失敗したか否かの判定を簡素な構成で正確に行うことができる。
According to the image processing apparatus having such a configuration, whether an operation input indicating a determination result of whether or not the recognition target part has been successfully recognized from the outside (for example, by an operator) has been received and the recognition target part has failed to be recognized. Is determined based on the accepted operation input,
It is possible to accurately determine whether or not character recognition has failed with a simple configuration.

また、本発明に係る画像処理装置は、前記成否判定手段によって前記認識対象部位の認識が失敗したと判定された場合に、予め設定された複数の原因ごとに、前記認識対象部位の認識が失敗する可能性の高さを定量的に示す失敗確率として評価する原因評価手段を更に備え、前記原因推定手段が、前記原因評価手段によって評価された失敗確率に基づいて、前記文字の認識が失敗した原因を推定することが好ましい。   The image processing apparatus according to the present invention may fail to recognize the recognition target part for each of a plurality of preset causes when the success / failure determination unit determines that recognition of the recognition target part has failed. A cause evaluation unit that evaluates as a failure probability that quantitatively indicates a high probability of being performed, wherein the cause estimation unit fails to recognize the character based on the failure probability evaluated by the cause evaluation unit It is preferable to estimate the cause.

かかる構成を備える画像処理装置によれば、認識対象部位の認識が失敗したと判定された場合に、予め設定された複数の原因ごとに、前記認識対象部位の認識が失敗する可能性の高さを定量的に示す失敗確率が評価され、評価された失敗確率に基づいて、前記認識対象部位の認識が失敗した原因が推定されるため、前記失敗確率を正確に評価することによって、認識対象部位の認識が失敗した原因を正確に推定することができる。   According to the image processing apparatus having such a configuration, when it is determined that the recognition of the recognition target part has failed, there is a high possibility that the recognition of the recognition target part will fail for each of a plurality of preset causes. The failure probability that quantitatively indicates is evaluated, and the cause of the recognition failure of the recognition target portion is estimated based on the evaluated failure probability. Therefore, by accurately evaluating the failure probability, the recognition target portion It is possible to accurately estimate the cause of the recognition failure.

ここでは、認識対象部位が、例えば、文字列を構成する各文字である場合について説明する。すなわち、例えば、文字の認識が失敗した原因が文字の線幅である(文字が太すぎる、又は、文字が細すぎる)場合には、予め設定された推奨線幅B0(例えば、実験的に文字の認識率が最も高くなる線幅)と、実際の文字の線幅の平均値(平均線幅)Bavと、の差である差分線幅ΔBの絶対値に重みW1を乗じて、失敗確率P1(図10参照)を評価することができる。このようにして、文字の認識が失敗する可能性の高さを定量的に示す失敗確率P1が評価されるため、認識対象部位の認識が失敗した原因を正確に推定することができるのである。   Here, a case where the recognition target part is, for example, each character constituting a character string will be described. That is, for example, when the cause of the character recognition failure is the line width of the character (the character is too thick or the character is too thin), a preset recommended line width B0 (for example, experimentally Of the actual character line width (average line width) Bav, and multiplying the absolute value of the difference line width ΔB, which is the difference between the actual character line widths (average line width) Bav, by the weight W1 and the failure probability P1 (See FIG. 10) can be evaluated. In this way, since the failure probability P1 that quantitatively indicates the high possibility of character recognition failure is evaluated, the cause of the failure of recognition of the recognition target portion can be accurately estimated.

また、例えば、文字の認識が失敗した原因が、文字列の回転である場合、文字の滲み又は擦れである場合、文字のコントラストが低いことである場合にも、同様にして、失敗確率P2、P3、P4(図14、図17、図20参照)を評価することができるため、認識対象部位の認識が失敗した原因を正確に推定することができるのである。   Further, for example, when the cause of character recognition failure is rotation of a character string, blurring or rubbing of characters, or low contrast of characters, failure probability P2, Since P3 and P4 (see FIG. 14, FIG. 17, and FIG. 20) can be evaluated, it is possible to accurately estimate the cause of the recognition target region recognition failure.

つまり、認識対象部位の認識が失敗する可能性のある原因ごとに、各原因に起因する失敗確率Piの値を求めるためのロジック(手順、方法等)を予め構築しておくことによって、各原因に対応する失敗確率を求めて比較することができる(図7のステップS207等、図10、図14、図17、図20参照)ため、認識対象部位の認識が失敗した原因を正確に推定することができるのである。   That is, for each cause that may cause recognition target region recognition to fail, a logic (procedure, method, etc.) for obtaining the value of the failure probability Pi caused by each cause is constructed in advance, so that each cause Can be obtained and compared (see step S207 in FIG. 7, etc., see FIG. 10, FIG. 14, FIG. 17, and FIG. 20), so that the cause of the recognition failure of the recognition target portion can be accurately estimated. It can be done.

また、本発明に係る画像処理装置は、外部から視認可能に画像を表示する画像表示手段と、前記複数の原因のうち、前記原因評価手段によって失敗確率が高いと評価された順に、予め設定された2以上の所定個数の原因を示す文字又は画像を、前記画像表示手段に表示させる結果表示手段と、を更に備えることが好ましい。   Further, the image processing apparatus according to the present invention is set in advance in an order in which an image display means for displaying an image so as to be visible from the outside and the plurality of causes are evaluated as having a high failure probability by the cause evaluation means. It is preferable to further comprise a result display means for causing the image display means to display characters or images indicating the cause of two or more predetermined numbers.

かかる構成を備える画像処理装置によれば、複数の原因のうち、失敗確率が高いと評価された順に、予め設定された2以上の所定個数の原因を示す文字又は画像が、外部から視認可能に表示されるため、利便性を向上することができる。すなわち、例えば、オペレータが、LCD等に表示された原因を示す文字又は画像を参照して、認識対象部位の認識が失敗した原因を推定することができるため、認識対象部位の認識が失敗した原因を容易に推定することができるので、利便性を向上することができるのである。   According to the image processing apparatus having such a configuration, a character or an image indicating a predetermined number of two or more preset causes can be visually recognized from the outside in the order in which the failure probability is evaluated to be high among a plurality of causes. Since it is displayed, convenience can be improved. That is, for example, the operator can estimate the cause of the recognition target portion recognition failure by referring to the character or image indicating the cause displayed on the LCD or the like, so that the recognition target portion recognition failure Therefore, convenience can be improved.

また、本発明に係る画像処理装置は、前記結果表示手段が、前記2以上の所定個数の原因に対応付けて、前記原因評価手段によって評価された失敗確率の値を示す文字又は画像を、前記画像表示手段に表示させることが好ましい。   Further, in the image processing apparatus according to the present invention, the result display unit associates the two or more predetermined causes with a character or an image indicating a failure probability value evaluated by the cause evaluation unit, It is preferable to display on the image display means.

かかる構成を備える画像処理装置によれば、2以上の所定個数の原因に対応付けて、失敗確率の値を示す文字又は画像が、外部から視認可能に表示されるため、利便性を更に向上することができる。すなわち、例えば、オペレータが、LCD等に表示された原因を示す文字(又は画像)と、失敗確率の値を示す文字(又は画像)とを参照して、認識対象部位の認識が失敗した原因を推定することができるため、認識対象部位の認識が失敗した原因を更に容易に推定することができるので、利便性を更に向上することができるのである。   According to the image processing apparatus having such a configuration, the character or the image indicating the failure probability value is displayed so as to be visually recognized from the outside in association with a predetermined number of causes of two or more, thereby further improving convenience. be able to. That is, for example, the operator refers to the character (or image) indicating the cause displayed on the LCD or the like and the character (or image) indicating the failure probability value to determine the cause of the recognition failure of the recognition target part. Since it can be estimated, it is possible to more easily estimate the cause of the recognition failure of the recognition target part, and thus the convenience can be further improved.

また、本発明に係る画像処理装置は、前記原因推定手段が、前記結果表示手段によって前記画像表示手段に表示された前記2以上の所定個数の原因の中から、1つの前記認識対象部位の認識が失敗した原因を選択する選択入力を、前記操作受付手段を介して受け付けて、選択された原因を、前記認識対象部位の認識が失敗した原因であると推定することが好ましい。   Further, in the image processing apparatus according to the present invention, the cause estimating means recognizes one recognition target part from the two or more predetermined number of causes displayed on the image display means by the result display means. It is preferable that a selection input for selecting the cause of failure of the recognition is received via the operation receiving means, and the selected cause is estimated to be a cause of failure in recognition of the recognition target portion.

かかる構成を備える画像処理装置によれば、失敗確率が高いと評価されて表示された2以上の所定個数の原因の中から、1つの前記認識対象部位の認識が失敗した原因を選択する選択入力が受け付けられ、選択された原因が、認識対象部位の認識が失敗した原因であると推定されるため、認識対象部位の認識が失敗した原因を容易に推定することができる。   According to the image processing apparatus having such a configuration, a selection input for selecting a cause of failure in recognition of one recognition target portion from two or more predetermined number of causes that are evaluated and displayed as having a high probability of failure. Is accepted and the selected cause is presumed to be the cause of the recognition failure of the recognition target part, so the cause of the recognition target part recognition failure can be easily estimated.

また、本発明に係る画像処理装置は、前記処理修正手段が、前記原因推定手段によって前記文字の認識が失敗した原因であると推定された原因について、前記原因評価手段によって評価された失敗確率が大きい程、前記推定された原因に対応する少なくとも1つのパラメータの値を大幅に修正することが好ましい。   Further, the image processing apparatus according to the present invention has a failure probability evaluated by the cause evaluation unit for the cause in which the process correction unit is estimated to be the cause of the failure of the character recognition by the cause estimation unit. It is preferable that the larger the value, the larger the value of at least one parameter corresponding to the estimated cause.

かかる構成を備える画像処理装置によれば、認識対象部位の認識が失敗した原因であると推定された原因について、評価された失敗確率が大きい程、推定された原因に対応する少なくとも1つのパラメータの値が大幅に修正されるため、画像処理を規定するパラメータを適正に調整することができる。   According to the image processing apparatus having such a configuration, for a cause that is estimated to be a cause of failure in recognition of a recognition target part, the higher the estimated failure probability, the at least one parameter corresponding to the estimated cause. Since the value is significantly corrected, the parameters defining the image processing can be adjusted appropriately.

また、本発明に係る画像処理装置は、前記認識対象部位が、前記物体の表面に形成された文字であることが好ましい。   In the image processing apparatus according to the present invention, it is preferable that the recognition target part is a character formed on a surface of the object.

この場合には、物体の表面に形成された文字を認識する画像処理を規定するパラメータの適正な調整を行うことができる。   In this case, it is possible to appropriately adjust parameters that define image processing for recognizing characters formed on the surface of the object.

また、上記課題を解決するために、本発明に係る波形データ処理装置は、以下のように構成されている。   In order to solve the above problems, the waveform data processing apparatus according to the present invention is configured as follows.

すなわち、本発明に係る波形データ処理装置は、認識対象部位を含む波形データに対して予め定められた認識処理を施して、前記認識対象部位を認識する波形データ処理装置であって、前記認識対象部位の認識が失敗したか否かを判定する成否判定手段と、前記成否判定手段によって前記認識対象部位の認識が失敗したと判定された場合に、前記認識対象部位の認識が失敗した原因を推定する原因推定手段と、前記原因推定手段によって推定された原因に基づいて、前記認識処理を規定する複数のパラメータのうち、前記推定された原因に対応する少なくとも1つのパラメータの値を修正する処理修正手段と、を備えることを特徴としている。   That is, the waveform data processing apparatus according to the present invention is a waveform data processing apparatus that recognizes the recognition target part by performing a predetermined recognition process on the waveform data including the recognition target part, and the recognition target part A success / failure determination unit that determines whether or not the recognition of the part has failed; and when the success / failure determination unit determines that the recognition of the recognition target part has failed, the cause of the recognition failure of the recognition target part is estimated And a process correction for correcting a value of at least one parameter corresponding to the estimated cause among a plurality of parameters defining the recognition process based on the cause estimated by the cause estimation means Means.

かかる構成を備える画像処理装置によれば、認識対象部位の認識が失敗したか否かが判定され、認識対象部位の認識が失敗したと判定された場合に、前記認識対象部位の認識が
失敗した原因が推定され、推定された原因に基づいて、前記認識対象部位を含む波形データに対して施される認識処理を規定する複数のパラメータのうち、前記推定された原因に対応する少なくとも1つのパラメータの値が修正されるため、認識対象部位を認識する認識処理を規定するパラメータの適正な調整を行うことができる。
According to the image processing apparatus having such a configuration, it is determined whether or not recognition of the recognition target part has failed, and when it is determined that recognition of the recognition target part has failed, recognition of the recognition target part has failed. A cause is estimated, and at least one parameter corresponding to the estimated cause among a plurality of parameters defining a recognition process performed on the waveform data including the recognition target part based on the estimated cause Since the value of is corrected, it is possible to appropriately adjust the parameters that define the recognition process for recognizing the recognition target part.

また、上記課題を解決するために、本発明に係る画像処理方法は、以下のように構成されている。   In order to solve the above problems, an image processing method according to the present invention is configured as follows.

すなわち、本発明に係る画像処理方法は、認識対象部位を含む物体を撮像して得られる画像に対して予め定められた画像処理を施して、前記認識対象部位を認識する画像処理方法であって、前記認識対象部位の認識が失敗したか否かを判定する成否判定ステップと、前記成否判定ステップにおいて前記認識対象部位の認識が失敗したと判定された場合に、前記文字の認識が失敗した原因を推定する原因推定ステップと、前記原因推定ステップにおいて推定された原因に基づいて、前記画像処理を規定する複数のパラメータのうち、前記推定された原因に対応する少なくとも1つのパラメータの値を修正する処理修正ステップと、を実行することを特徴としている。   That is, the image processing method according to the present invention is an image processing method for recognizing the recognition target part by performing predetermined image processing on an image obtained by imaging an object including the recognition target part. A success / failure determination step for determining whether or not recognition of the recognition target part has failed, and a cause of failure in recognition of the character when it is determined in the success / failure determination step that recognition of the recognition target part has failed A cause estimation step of estimating the image processing, and a value of at least one parameter corresponding to the estimated cause among the plurality of parameters defining the image processing is corrected based on the cause estimated in the cause estimation step And a process correction step.

また、本発明に係る画像処理プログラムは、以下のように構成されている。   The image processing program according to the present invention is configured as follows.

すなわち、本発明に係る画像処理プログラムは、認識対象部位を含む物体を撮像して得られる画像に対して予め定められた画像処理を施して、前記文字列を構成する各文字を認識する画像処理装置に配設されたコンピュータにおいて実行される画像処理プログラムであって、前記コンピュータを、前記認識対象部位の認識が失敗したか否かを判定する成否判定手段と、前記成否判定手段によって前記認識対象部位の認識が失敗したと判定された場合に、前記認識対象部位の認識が失敗した原因を推定する原因推定手段と、前記原因推定手段によって推定された原因に基づいて、前記画像処理を規定する複数のパラメータのうち、前記推定された原因に対応する少なくとも1つのパラメータの値を修正する処理修正手段として機能させることを特徴としている。   That is, the image processing program according to the present invention performs predetermined image processing on an image obtained by imaging an object including a recognition target part, and recognizes each character constituting the character string. An image processing program executed by a computer disposed in the apparatus, wherein the computer is configured to determine whether the recognition of the recognition target portion has failed, and the recognition target by the success / failure determination unit. When it is determined that the recognition of the part has failed, the image processing is defined based on the cause estimated means for estimating the cause of the recognition failure of the recognition target part and the cause estimated by the cause estimating means. Functioning as a process correcting means for correcting a value of at least one parameter corresponding to the estimated cause among the plurality of parameters. It is a symptom.

かかる構成を備える画像処理方法及び画像処理プログラムによれば、認識対象部位の認識が失敗したか否かが判定され、認識対象部位の認識が失敗したと判定された場合に、前記認識対象部位の認識が失敗した原因が推定され、推定された原因に基づいて、前記文字列を含む画像に対して施される画像処理を規定する複数のパラメータのうち、前記推定された原因に対応する少なくとも1つのパラメータの値が修正されるため、認識対象部位を認識する画像処理を規定するパラメータの適正な調整を行うことができる。   According to the image processing method and the image processing program having such a configuration, it is determined whether or not recognition of a recognition target part has failed. When it is determined that recognition of a recognition target part has failed, the recognition target part The cause of the recognition failure is estimated, and at least one corresponding to the estimated cause among a plurality of parameters defining image processing performed on the image including the character string based on the estimated cause Since the values of the two parameters are corrected, it is possible to appropriately adjust the parameters that define the image processing for recognizing the recognition target part.

ここでは、認識対象部位が、例えば、文字列を構成する各文字である場合について説明する。すなわち、例えば、文字の認識が失敗した原因が文字の線幅である(文字が太すぎる、又は、文字が細すぎる)と推定された場合には、予め設定された推奨線幅B0(例えば、実験的に文字の認識率が最も高くなる線幅)と、実際の文字の線幅の平均値(平均線幅)Bavと、の差である差分線幅ΔBの絶対値分だけ黒膨張処理又は白膨張処理を行う設定に修正すればよい(図11参照)。このようにして、前記推定された原因に対応する少なくとも1つのパラメータの値が修正されるため、画像処理を規定するパラメータを適正に調整することができるのである。   Here, a case where the recognition target part is, for example, each character constituting a character string will be described. That is, for example, when it is estimated that the cause of character recognition failure is the line width of the character (the character is too thick or the character is too thin), a preset recommended line width B0 (for example, The black expansion process or the absolute value of the difference line width ΔB, which is the difference between the line width at which the character recognition rate is experimentally highest) and the average value of the actual character line width (average line width) Bav, or What is necessary is just to correct to the setting which performs a white expansion process (refer FIG. 11). In this way, since the value of at least one parameter corresponding to the estimated cause is corrected, the parameter defining the image processing can be adjusted appropriately.

また、例えば、文字の認識が失敗した原因が、文字列の回転であると推定された場合、文字の滲み又は擦れであると推定された場合、文字のコントラストが低いことであると推定された場合にも、同様にして、推定された原因に対応する少なくとも1つのパラメータの値が修正される(図17参照)ため、画像処理を規定するパラメータを適正に調整することができるのである。   Also, for example, when it is estimated that the cause of character recognition failure is rotation of the character string, or when it is estimated that the character is blurred or rubbed, it is estimated that the character contrast is low. In this case as well, since the value of at least one parameter corresponding to the estimated cause is similarly corrected (see FIG. 17), the parameter defining the image processing can be appropriately adjusted.

つまり、認識対象部位の認識が失敗する可能性のある原因ごとに、各原因に対応する少なくとも1つのパラメータの値を修正するためのロジック(手順、方法等)を構築しておくことによって、推定された原因に対応する少なくとも1つのパラメータの値を適正に修正する(図11、図17参照)ことができるため、画像処理を規定するパラメータを適正に調整することができるのである。   That is, for each cause that may cause recognition target region recognition to fail, it is estimated by building logic (procedure, method, etc.) for correcting the value of at least one parameter corresponding to each cause. Since the value of at least one parameter corresponding to the generated cause can be appropriately corrected (see FIGS. 11 and 17), the parameter defining the image processing can be adjusted appropriately.

本発明に係る画像処理装置、画像処理方法、画像処理プログラム、及び、波形データ処理装置によれば、認識対象部位の認識が失敗したか否かが判定され、認識対象部位の認識が失敗したと判定された場合に、前記認識対象部位の認識が失敗した原因が推定され、推定された原因に基づいて、前記文字列を含む画像に対して施される画像処理(又は、認識処理)を規定する複数のパラメータのうち、前記推定された原因に対応する少なくとも1つのパラメータの値が修正されるため、認識対象部位を認識する画像処理(又は、認識処理)を規定するパラメータの適正な調整を行うことができる。   According to the image processing device, the image processing method, the image processing program, and the waveform data processing device according to the present invention, it is determined whether or not recognition of the recognition target portion has failed, and recognition of the recognition target portion has failed. If it is determined, the cause of the recognition failure of the recognition target part is estimated, and based on the estimated cause, image processing (or recognition processing) to be performed on the image including the character string is specified. Among the plurality of parameters to be corrected, the value of at least one parameter corresponding to the estimated cause is corrected, so that an appropriate adjustment of a parameter that defines image processing (or recognition processing) for recognizing a recognition target region is performed. It can be carried out.

本発明に係る画像処理装置の配設状態の一例を示す斜視図である。It is a perspective view which shows an example of the arrangement | positioning state of the image processing apparatus which concerns on this invention. 本発明に係る画像処理装置本体の構成の一例を示す構成図である。It is a block diagram which shows an example of a structure of the image processing apparatus main body which concerns on this invention. 図2に示すCPU等の機能構成の一例を示す機能構成図である。It is a functional block diagram which shows an example of functional structures, such as CPU shown in FIG. 図3に示す画像処理部の動作の一例を示すフローチャートである。4 is a flowchart illustrating an example of an operation of an image processing unit illustrated in FIG. 3. 図4に示すフローチャートのステップS103で実行される膨張・収縮処理の一例を示す説明図である。It is explanatory drawing which shows an example of the expansion / contraction process performed by step S103 of the flowchart shown in FIG. 図3に示す画像処理部によって実行される画像処理の一例を説明する説明図である。It is explanatory drawing explaining an example of the image process performed by the image process part shown in FIG. 図3に示すCPUの動作の一例を示すフローチャートである。4 is a flowchart illustrating an example of an operation of a CPU illustrated in FIG. 3. 図7に示すフローチャートのステップS209及びステップS221でそれぞれモニタに表示される結果表示画面の一例を示す画面図である。It is a screen figure which shows an example of the result display screen each displayed on a monitor by step S209 and step S221 of the flowchart shown in FIG. 文字の線幅が太すぎることに起因して文字認識が失敗するケースの一例を示す説明図である。It is explanatory drawing which shows an example of the case where character recognition fails because the line width of a character is too thick. 図7に示すフローチャートのステップS205において、文字の線幅に起因した失敗確率を求める処理の一例を示す詳細フローチャートである。FIG. 8 is a detailed flowchart showing an example of a process for obtaining a failure probability due to the line width of a character in step S205 of the flowchart shown in FIG. 図10のステップS301からステップS307において文字の線幅を求める方法の一例を示す説明図である。It is explanatory drawing which shows an example of the method of calculating | requiring the line width of a character in step S301 to step S307 of FIG. 図7に示すフローチャートのステップS217において、選択された失敗原因が文字の線幅である場合にパラメータ値を修正する処理の一例を示す詳細フローチャートである。FIG. 8 is a detailed flowchart illustrating an example of a process of correcting a parameter value when the selected failure cause is a line width of a character in step S217 of the flowchart illustrated in FIG. 7. 文字列の回転に起因して文字認識が失敗するケースの一例を示す説明図である。It is explanatory drawing which shows an example of the case where character recognition fails due to rotation of a character string. 図7に示すフローチャートのステップS205において、文字列の回転に起因した失敗確率を求める処理の一例を示す詳細フローチャートである。FIG. 8 is a detailed flowchart illustrating an example of a process for obtaining a failure probability due to rotation of a character string in step S <b> 205 of the flowchart illustrated in FIG. 7. 画像回転処理における回転角の修正量を求める方法の一例を示す説明図である。It is explanatory drawing which shows an example of the method of calculating | requiring the correction amount of the rotation angle in an image rotation process. 文字のかすれに起因して文字認識が失敗するケースの一例を示す説明図である。It is explanatory drawing which shows an example of the case where character recognition fails due to the blur of a character. 図7に示すフローチャートのステップS205において、文字のかすれ(又は、にじみ)に起因した失敗確率を求める処理の一例を示す詳細フローチャートである。FIG. 8 is a detailed flowchart illustrating an example of processing for obtaining a failure probability due to blurring (or blurring) of characters in step S <b> 205 of the flowchart illustrated in FIG. 7. 図7に示すフローチャートのステップS217において、選択された失敗原因が文字の擦れ(又は、滲み)である場合にパラメータ値を修正する処理内容の一例を示す説明図である。FIG. 8 is an explanatory diagram illustrating an example of processing contents for correcting a parameter value when the selected failure cause is a character rubbing (or blurring) in step S217 of the flowchart illustrated in FIG. 7. コントラストが低いことに起因して文字認識が失敗するケースの一例を示す説明図である。It is explanatory drawing which shows an example of the case where character recognition fails due to low contrast. 図7に示すフローチャートのステップS205において、コントラストが低いことに起因した失敗確率を求める処理の一例を示す詳細フローチャートである。FIG. 8 is a detailed flowchart illustrating an example of processing for obtaining a failure probability due to low contrast in step S205 of the flowchart illustrated in FIG. 7.

以下、本発明に係る画像処理装置、画像処理方法、及び、画像処理プログラムの実施形態を図面に基づいて説明する。   Embodiments of an image processing apparatus, an image processing method, and an image processing program according to the present invention will be described below with reference to the drawings.

−画像処理装置100の配設状態−
まず、図1を参照して、本発明に係る画像処理装置100が配設されている状態の一例について説明する。図1は、本発明に係る画像処理装置100の配設状態の一例を示す斜視図である。画像処理装置100は、例えば、製品5(物体)を製造する工場等において、製品5の表面(本実施形態では、CCDカメラ2と対向する側の面)に形成された複数の文字(例えば、アルファベット3文字)からなる文字列を含む画像に対して画像処理を施して、前記文字列を構成する各文字(認識対象部位)を認識するものである。
-Arrangement state of the image processing apparatus 100-
First, an example of a state in which the image processing apparatus 100 according to the present invention is provided will be described with reference to FIG. FIG. 1 is a perspective view showing an example of an arrangement state of an image processing apparatus 100 according to the present invention. The image processing apparatus 100, for example, in a factory that manufactures the product 5 (object) or the like, a plurality of characters (for example, on the surface facing the CCD camera 2 in the present embodiment) Image processing is performed on an image including a character string composed of three alphabetic characters) to recognize each character (recognition target portion) constituting the character string.

本実施形態においては、製品5の表面に文字列が形成されている場合について説明するが、物体の表面に文字列が形成されている形態であればよい。例えば、果物、野菜等の農産物、魚介類等の海産物、IC(Integrated Circuit)、抵抗、コンデンサ等の部品、原材料、半製品等の表面に文字列が形成されている形態でもよい。   In the present embodiment, a case where a character string is formed on the surface of the product 5 will be described, but any form in which a character string is formed on the surface of the object may be used. For example, character strings may be formed on the surface of agricultural products such as fruits and vegetables, marine products such as seafood, IC (Integrated Circuit), parts such as resistors and capacitors, raw materials, and semi-finished products.

また、本実施形態においては、文字列が形成されている面が、平面状である場合について説明するが、文字列が形成されている面は、曲面であっても、凹凸があってもよい。   In the present embodiment, the case where the surface on which the character string is formed is planar will be described. However, the surface on which the character string is formed may be a curved surface or uneven. .

更に、本実施形態においては、認識対象部位が、文字である場合について説明するが、認識対象部位は、顔画像等の画像である形態でもよい。   Furthermore, in this embodiment, although the case where a recognition object site | part is a character is demonstrated, the form which is images, such as a face image, may be sufficient as a recognition object site | part.

図1に示すように、画像処理装置100は、画像処理装置本体1、CCDカメラ2、モニタ3、及び、入力装置4を備え、ここでは、製品5を搬送するコンベア6の近傍に配設されている。なお、画像処理装置100のうち、CCDカメラ2は、製品5の表面に形成された文字列を含む画像を生成するものであるから、コンベア6の近傍に配設することが好ましい。一方、画像処理装置本体1、モニタ3、及び、入力装置4は、コンベア6の近傍に配設する必要はない。例えば、画像処理装置本体1、モニタ3、及び、入力装置4は、画像処理装置100を操作するオペレータの部屋等の粉塵が少なく、且つ、温度が常温近傍に維持される場所に配設することが好ましい。   As shown in FIG. 1, the image processing apparatus 100 includes an image processing apparatus main body 1, a CCD camera 2, a monitor 3, and an input device 4. Here, the image processing apparatus 100 is disposed in the vicinity of a conveyor 6 that conveys a product 5. ing. In the image processing apparatus 100, the CCD camera 2 generates an image including a character string formed on the surface of the product 5, and thus is preferably disposed in the vicinity of the conveyor 6. On the other hand, the image processing apparatus main body 1, the monitor 3, and the input device 4 do not need to be disposed near the conveyor 6. For example, the image processing apparatus main body 1, the monitor 3, and the input device 4 are disposed in a place where there is little dust and the temperature is maintained near room temperature, such as a room of an operator who operates the image processing apparatus 100. Is preferred.

画像処理装置本体1は、画像処理装置100全体の動作を制御するものである。画像処理装置本体1の具体的な構成については、図2を用いて後述する。   The image processing apparatus main body 1 controls the operation of the entire image processing apparatus 100. A specific configuration of the image processing apparatus main body 1 will be described later with reference to FIG.

CCD(Charge Coupled Device)カメラ2(以下、単に「カメラ2」ともいう)は、コンベア6上を搬送される各製品5の表面に形成された文字列を含む画像を順に撮像するものであって、レンズをコンベア6上の製品5に向けて配設されている。また、カメラ2によって生成された画像情報は、順次、画像処理装置本体1へ出力される。   A CCD (Charge Coupled Device) camera 2 (hereinafter also simply referred to as “camera 2”) sequentially captures images including character strings formed on the surface of each product 5 conveyed on the conveyor 6. The lens is arranged toward the product 5 on the conveyor 6. The image information generated by the camera 2 is sequentially output to the image processing apparatus main body 1.

モニタ3(画像表示手段)は、画像処理装置本体1からの指示に従って、種々の画像を外部から視認可能に表示するものであって、例えば、LCD(Liquid Crystal Display)等を備えている。モニタ3には、例えば、カメラ2によって生成された画像情報、図8を参照して後述する結果表示画面800、810、及び、種々のガイダンス情報等が表示さ
れる。
The monitor 3 (image display means) displays various images so as to be visible from the outside in accordance with instructions from the image processing apparatus main body 1 and includes, for example, an LCD (Liquid Crystal Display). The monitor 3 displays, for example, image information generated by the camera 2, result display screens 800 and 810, which will be described later with reference to FIG. 8, and various guidance information.

入力装置4(操作受付手段)は、オペレータ等からの操作を受け付ける装置であって、キーボード、マウス等を備えている。なお、入力装置4によって受け付けられたオペレータの操作入力情報は、画像処理装置本体1へ出力される。   The input device 4 (operation receiving means) is a device that receives an operation from an operator or the like, and includes a keyboard, a mouse, and the like. The operator's operation input information received by the input device 4 is output to the image processing apparatus main body 1.

−画像処理装置本体1の構成−
次に、図2を参照して、画像処理装置本体1の構成について説明する。図2は、本発明に係る画像処理装置本体1の構成の一例を示す構成図である。図2に示すように、画像処理装置本体1は、CPU11、EEPROM12、RAM13、画像メモリ14、A/D変換器15、D/A変換器16、及び、入出力部17を備えている。
-Configuration of image processing apparatus main body 1-
Next, the configuration of the image processing apparatus main body 1 will be described with reference to FIG. FIG. 2 is a configuration diagram showing an example of the configuration of the image processing apparatus main body 1 according to the present invention. As shown in FIG. 2, the image processing apparatus main body 1 includes a CPU 11, an EEPROM 12, a RAM 13, an image memory 14, an A / D converter 15, a D / A converter 16, and an input / output unit 17.

CPU(Central Processing Unit)11(コンピュータ)は、画像処理装置本体1全体の動作を制御するものであって、図略のROM(Read Only Memory)又は、EEPROM12等に格納される制御プログラムを実行することによって、種々の処理を実行する。なお、本発明に係る画像処理プログラムは、上記の制御プログラムの一部に相当する。   A CPU (Central Processing Unit) 11 (computer) controls the overall operation of the image processing apparatus body 1 and executes a control program stored in a ROM (Read Only Memory), an EEPROM 12 or the like (not shown). Depending on the situation, various processes are executed. The image processing program according to the present invention corresponds to a part of the control program.

EEPROM(Electrically Erasable Programmable Read-Only Memory)12は、書き換え可能な不揮発性メモリであって、図3を用いて後述するように、カメラ2によって生成された画像情報から文字を認識する画像処理に用いられる各種パラメータの値等を記憶するものである。RAM(Random Access Memory)は、CPU11での処理の結果、入力装置4から入力されたデータ等を一時的に記憶するメモリである。   An EEPROM (Electrically Erasable Programmable Read-Only Memory) 12 is a rewritable nonvolatile memory and is used for image processing for recognizing characters from image information generated by the camera 2 as will be described later with reference to FIG. The values of various parameters to be stored are stored. A RAM (Random Access Memory) is a memory that temporarily stores data input from the input device 4 as a result of processing by the CPU 11.

A/D変換器15は、カメラ2からのアナログの画像信号を取り込んで、ディジタルの画像情報に変換するものである。変換された濃淡画像情報は、画像メモリ14に記録される。ここでは、濃淡画像情報の各画素には、それぞれ、白色から黒色までの輝度の範囲に対応して、例えば256階調の濃淡を示す値(階調情報ともいう)が割り当てられている。すなわち、濃淡画像情報とは、画素ごとに対応付けられた階調情報である。   The A / D converter 15 takes in an analog image signal from the camera 2 and converts it into digital image information. The converted grayscale image information is recorded in the image memory 14. Here, each pixel of the grayscale image information is assigned a value (also referred to as grayscale information) indicating, for example, 256 gray levels corresponding to the luminance range from white to black. That is, the grayscale image information is gradation information associated with each pixel.

画像メモリ14は、種々の画像情報を記憶するメモリであって、A/D変換器15から出力された画像情報を記憶すると共に、文字認識の画像処理において2値化処理された画像情報(以下、二値画像ともいう)等を記憶する。D/A変換器16は、画像メモリ14に格納された画像情報を、アナログの表示用画像信号に変換してモニタ3に出力するものである。   The image memory 14 is a memory for storing various image information. The image memory 14 stores the image information output from the A / D converter 15 and is also binarized image information (hereinafter referred to as image information for character recognition). , Also referred to as a binary image). The D / A converter 16 converts the image information stored in the image memory 14 into an analog display image signal and outputs it to the monitor 3.

入出力部17は、CPU11と入力装置4との間、及び、CPU11とモニタ3との間のデータの入出力処理を行うインターフェースである。   The input / output unit 17 is an interface that performs data input / output processing between the CPU 11 and the input device 4 and between the CPU 11 and the monitor 3.

−CPU11の機能構成−
次に、図3を参照して、CPU11等の構成について説明する。図3は、図2に示すCPU11等の機能構成の一例を示す機能構成図である。CPU11は、図略のROM等に記憶された制御プログラム(本発明に係る画像処理プログラム)を読み出して実行することによって、機能的に、画像処理部111、成否受付部112、成否判定部113、原因評価部114、結果表示部115、原因推定部116、及び、処理修正部117等として機能する。また、CPU11は、図略のROM等に記憶された制御プログラム(本発明に係る画像処理プログラム)を読み出して実行することによって、EEPROM12を、機能的に、パラメータ記憶部121等として機能させる。
-Functional configuration of CPU 11-
Next, the configuration of the CPU 11 and the like will be described with reference to FIG. FIG. 3 is a functional configuration diagram illustrating an example of a functional configuration of the CPU 11 and the like illustrated in FIG. The CPU 11 functionally reads and executes a control program (an image processing program according to the present invention) stored in an unillustrated ROM or the like, thereby functionally processing the image processing unit 111, the success / failure reception unit 112, the success / failure determination unit 113, It functions as a cause evaluation unit 114, a result display unit 115, a cause estimation unit 116, a process correction unit 117, and the like. The CPU 11 functionally causes the EEPROM 12 to function as the parameter storage unit 121 and the like by reading and executing a control program (an image processing program according to the present invention) stored in a ROM (not shown) or the like.

画像処理部111は、カメラ2によって撮像され画像メモリ14に格納された濃淡画像情報から文字列を構成する各文字を認識する画像処理を行う機能部である。画像処理とし
ては、コントラスト調整処理、回転処理、2値化処理、膨張・収縮処理、投影処理、文字切出処理、文字認識処理等を含む。
The image processing unit 111 is a functional unit that performs image processing for recognizing each character constituting a character string from grayscale image information captured by the camera 2 and stored in the image memory 14. Image processing includes contrast adjustment processing, rotation processing, binarization processing, expansion / contraction processing, projection processing, character extraction processing, character recognition processing, and the like.

コントラスト調整処理は、濃淡画像において、最も暗い部分と最も明るい部分の輝度の差を示すコントラストを調整する処理である。画像回転処理は、濃淡画像を、予め設定された向きに、予め設定された角度だけ回転する処理である。   The contrast adjustment process is a process for adjusting the contrast indicating the difference in luminance between the darkest part and the brightest part in the grayscale image. The image rotation process is a process of rotating the grayscale image in a preset direction by a preset angle.

膨張・収縮処理は、濃淡画像において文字の線幅を太くする(又は、細くする)処理である。文字の線幅を太くする処理が膨張処理(以下、「黒膨張処理」ともいう)であり、文字の線幅を細くする処理が収縮処理(以下、「白膨張処理」ともいう)である。なお、膨張・収縮処理については、図5を参照して後述する。   The expansion / contraction process is a process of increasing (or reducing) the line width of a character in a grayscale image. A process for increasing the line width of the character is an expansion process (hereinafter also referred to as “black expansion process”), and a process for reducing the line width of the character is a contraction process (hereinafter also referred to as “white expansion process”). The expansion / contraction process will be described later with reference to FIG.

2値化処理は、濃淡画像を、各画素の明るさが基準値(閾値)以上であるか否かに応じて、黒色と白色との2つの値に変換し、二値画像を生成する処理である。   The binarization process is a process for generating a binary image by converting a grayscale image into two values, black and white, depending on whether or not the brightness of each pixel is equal to or higher than a reference value (threshold value). It is.

投影処理は、二値画像において、水平方向の位置が同じ黒画素の個数を積算して、積算値の垂直方向の変化を示すグラフ(以下、「垂直投影グラフ」ともいう)を生成する垂直投影処理、及び、垂直方向の位置が同じ黒画素の個数を積算して、積算値の水平方向の変化を示すグラフ(以下、「水平投影グラフ」ともいう)を生成する水平投影処理である。   The projection processing is a vertical projection that accumulates the number of black pixels having the same horizontal position in a binary image to generate a graph indicating the change in the accumulated value in the vertical direction (hereinafter also referred to as “vertical projection graph”). This is a horizontal projection process in which the number of black pixels having the same vertical position is integrated to generate a graph indicating the change in the integrated value in the horizontal direction (hereinafter also referred to as “horizontal projection graph”).

文字切出処理は、投影処理によって得られた垂直投影グラフ及び水平投影グラフに対して閾値処理を施し、文字領域として切り出す処理である。なお、投影処理及び文字切出処理の詳細については、図6(c)を参照して後述する。   The character cutout process is a process of performing threshold processing on the vertical projection graph and the horizontal projection graph obtained by the projection process, and cutting out the character area. Details of the projection process and the character cut-out process will be described later with reference to FIG.

文字認識処理は、例えば、公知のパターンマッチング等の手法により、文字切出処理によって切り出された文字領域に含まれる文字が、如何なる文字であるかを認識する処理である。   The character recognition process is a process for recognizing what kind of character the character included in the character area cut out by the character cut-out process is, for example, by a known method such as pattern matching.

ここで、画像処理部111によって実行される画像処理の具体的な処理の手順及び内容について、図4〜図6を参照して以下に説明する。図4は、図3に示す画像処理部111の動作の一例を示すフローチャートである。なお、以下の処理はすべて、画像処理部111によって実行される。また、図4は、図7に示すフローチャートのステップS201において実行される画像処理の一例を示す詳細フローチャートでもある。   Here, specific procedures and contents of the image processing executed by the image processing unit 111 will be described below with reference to FIGS. FIG. 4 is a flowchart showing an example of the operation of the image processing unit 111 shown in FIG. The following processing is all executed by the image processing unit 111. FIG. 4 is also a detailed flowchart showing an example of the image processing executed in step S201 of the flowchart shown in FIG.

まず、ステップS101において、画像メモリ14に格納された濃淡画像情報が取得される。そして、ステップS103において、ステップS101で取得された濃淡画像に対して、コントラスト調整処理、画像回転処理、膨張・収縮処理等の前処理が施される。次いで、ステップS105において、ステップS103で前処理が施された画像に対して2値化処理が施され、二値画像が生成される。   First, in step S101, grayscale image information stored in the image memory 14 is acquired. In step S103, the grayscale image acquired in step S101 is subjected to preprocessing such as contrast adjustment processing, image rotation processing, and expansion / contraction processing. Next, in step S105, the binarization process is performed on the image that has been preprocessed in step S103, and a binary image is generated.

次にステップS107において、ステップS105で生成された二値画像に対して、垂直投影処理及び水平投影処理が施され、垂直投影グラフ及び水平投影グラフが生成される。そして、生成された垂直投影グラフ及び水平投影グラフに対して、それぞれ、予めパラメータ記憶部121に記憶されている垂直閾値及び水平閾値による閾値処理が施されて、各文字の文字幅及び文字列の高さが求められる。次いで、ステップS109において、ステップS107で求められた、各文字の文字幅及び文字列の高さに基づいて、二値画像から各文字画像が切り出される。次に、ステップS111において、ステップS109で切り出された文字画像ごとに、文字認識処理が行われ、処理が図7に示すフローチャートのステップS203へリターンされる。   Next, in step S107, vertical projection processing and horizontal projection processing are performed on the binary image generated in step S105 to generate a vertical projection graph and a horizontal projection graph. Then, the generated vertical projection graph and horizontal projection graph are respectively subjected to threshold processing based on the vertical threshold and the horizontal threshold stored in advance in the parameter storage unit 121, so that the character width and character string of each character are changed. Height is required. Next, in step S109, each character image is cut out from the binary image based on the character width and character string height obtained in step S107. Next, in step S111, a character recognition process is performed for each character image cut out in step S109, and the process returns to step S203 of the flowchart shown in FIG.

−膨張・収縮処理の内容−
ここで、膨張・収縮処理の内容について説明する。図5は、図4に示すフローチャートのステップS103で実行される膨張・収縮処理の一例を示す説明図である。図5(a)は、膨張処理を説明する図であり、図5(b)は、収縮処理を説明する図である。図5(a)、図5(b)の上側の図が、膨張・収縮処理を施す前の状態を示す図であり、図5(a)、図5(b)の下側の図が、膨張・収縮処理を施した後の状態を示す図である。
-Details of expansion / contraction treatment-
Here, the contents of the expansion / contraction process will be described. FIG. 5 is an explanatory diagram showing an example of the expansion / contraction process executed in step S103 of the flowchart shown in FIG. FIG. 5A is a diagram illustrating the expansion process, and FIG. 5B is a diagram illustrating the contraction process. 5 (a) and 5 (b) are diagrams showing the state before the expansion / contraction process is performed, and the lower diagrams of FIG. 5 (a) and FIG. It is a figure which shows the state after giving an expansion / contraction process.

各図は、それぞれ、画素Q5の周囲に画素Q1〜画素Q4、及び、画素Q6〜画素Q9が、格子状に配列されている状態を示している。そして、画素Q1〜画素Q9に施した網掛けの密度で、それぞれ、画素Q1〜画素Q9の階調を表している。ここでは、便宜上、画素Q1〜画素Q9に4段階の階調が画像情報として付与されている場合について説明する。ここでは、4段階の階調をそれぞれ、階調A、階調B、階調C、階調Dとし、輝度は、次の(1)式で示す関係にあるものとする。   Each figure shows a state in which pixels Q1 to Q4 and pixels Q6 to Q9 are arranged in a grid around the pixel Q5. The gray levels of the pixels Q1 to Q9 are represented by the shaded densities applied to the pixels Q1 to Q9, respectively. Here, for convenience, a case will be described in which four levels of gradation are given as image information to the pixels Q1 to Q9. Here, it is assumed that the four levels of gradation are gradation A, gradation B, gradation C, and gradation D, respectively, and the luminance is in a relationship represented by the following equation (1).

(階調A)>(階調B)>(階調C)>(階調D) (1)
図5(a)に示すように、膨張処理を施す前は、画素Q3、Q5、Q8の画素値が、階調A(ここでは、白色)であって、画素Q4の画素値が、階調B(薄いグレー)であって、画素Q1、Q2、Q6の画素値が、階調C(ここでは、少し濃いグレー)であって、画素Q7、Q9が、階調D(ここでは、濃いグレー)である。
(Gradation A)> (Gradation B)> (Gradation C)> (Gradation D) (1)
As shown in FIG. 5A, before the expansion process is performed, the pixel values of the pixels Q3, Q5, and Q8 are the gradation A (in this case, white), and the pixel value of the pixel Q4 is the gradation. B (light gray), the pixel values of the pixels Q1, Q2, and Q6 are gradation C (here, slightly dark gray), and the pixels Q7 and Q9 are gradation D (here, dark gray) ).

そして、ここでは、画素Q5を注目画素(膨張・収縮処理が施される対象の画素)として選択する場合について説明する。本実施形態においては、注目画素(ここでは、画素Q5)の画素値が、注目画素の周囲に隣接する8画素(ここでは、画素Q1〜画素Q4、及び、画素Q6〜画素Q9)の画素値(ここでは、階調A,B,C,D)の中から最も小さい(輝度が低い)画素値(ここでは、階調D)に置換される。すなわち、図5(a)の階調Aの画素Q5に対して膨張処理を施すと、画素Q5の画素値は、図5(a)の下側の図に示すように、階調Dに変更されることになる。   Here, a case will be described in which the pixel Q5 is selected as a target pixel (a target pixel on which expansion / contraction processing is performed). In the present embodiment, the pixel value of the target pixel (here, pixel Q5) is the pixel value of eight pixels (here, pixel Q1 to pixel Q4 and pixel Q6 to pixel Q9) adjacent to the periphery of the target pixel. The pixel value (here, gradation D) is the smallest (low gradation) among the gradations (here, gradations A, B, C, D). That is, when the expansion process is performed on the pixel Q5 of the gradation A in FIG. 5A, the pixel value of the pixel Q5 is changed to the gradation D as shown in the lower diagram of FIG. Will be.

また、図5(b)に示すように、収縮処理を施す前は、画素Q7、Q8、Q9の画素値が、階調A(ここでは、白色)であって、画素Q4、Q5の画素値が、階調B(薄いグレー)であって、画素Q1、Q2、Q6の画素値が、階調C(ここでは、少し濃いグレー)であって、画素Q3が、階調D(ここでは、濃いグレー)である。   As shown in FIG. 5B, before the contraction process is performed, the pixel values of the pixels Q7, Q8, and Q9 are gradation A (here, white), and the pixel values of the pixels Q4 and Q5 are Is the gradation B (light gray), the pixel values of the pixels Q1, Q2, and Q6 are the gradation C (here, slightly dark gray), and the pixel Q3 is the gradation D (here, Dark gray).

そして、ここでは、画素Q5を注目画素(膨張・収縮処理が施される対象の画素)として選択する場合について説明する。本実施形態においては、注目画素(ここでは、画素Q5)の画素値が、注目画素の周囲に隣接する8画素(ここでは、画素Q1〜画素Q4、及び、画素Q6〜画素Q9)の画素値(ここでは、階調A,B,C,D)の中から最も大きい(輝度が高い)画素値(ここでは、階調A)に置換される。すなわち、図5(a)の階調Bの画素Q5に対して収縮処理を施すと、画素Q5の画素値は、図5(b)の下側の図に示すように、階調Aに変更されることになる。   Here, a case will be described in which the pixel Q5 is selected as a target pixel (a target pixel on which expansion / contraction processing is performed). In the present embodiment, the pixel value of the target pixel (here, pixel Q5) is the pixel value of eight pixels (here, pixel Q1 to pixel Q4 and pixel Q6 to pixel Q9) adjacent to the periphery of the target pixel. The pixel value (here, gradation A) is replaced with the largest (higher luminance) pixel value (here, gradations A, B, C, D). That is, when the contraction process is performed on the pixel Q5 of the gradation B in FIG. 5A, the pixel value of the pixel Q5 is changed to the gradation A as shown in the lower diagram of FIG. Will be.

−画像処理の内容−
次に、図6を参照して、画像処理部111によって実行される画像処理の具体的な処理の内容について説明する。図6は、図3に示す画像処理部111によって実行される画像処理の一例を説明する説明図である。図6(a)は、図4に示すフローチャートのステップS101において画像メモリ14から取得された濃淡画像700の一例を示す図である。図6(b)は、図4に示すフローチャートのステップS103及びステップS105において、図6(a)に対して、コントラスト調整処理等の前処理と、2値化処理とが施された後の、二値画像710の一例を示す図である。
-Contents of image processing-
Next, with reference to FIG. 6, specific processing contents of the image processing executed by the image processing unit 111 will be described. FIG. 6 is an explanatory diagram for explaining an example of image processing executed by the image processing unit 111 shown in FIG. FIG. 6A is a diagram showing an example of the grayscale image 700 acquired from the image memory 14 in step S101 of the flowchart shown in FIG. FIG. 6B shows a state after performing preprocessing such as contrast adjustment processing and binarization processing on FIG. 6A in step S103 and step S105 of the flowchart shown in FIG. 5 is a diagram illustrating an example of a binary image 710. FIG.

図6(a)に示す濃淡画像700には、文字701、702、703からなる文字列「ABC」が含まれており、背景704が薄いグレーであることを斜線を施して示している。このような濃淡画像700に対して、前処理でのコントラスト調整処理と、2値化処理とが施されることによって、図6(b)で示すように、背景714が白色となっている。なお、濃淡画像700に含まれる文字701、702、703が濃いグレーである場合にも、前処理でのコントラスト調整処理と、2値化処理とが施されることによって、二値画像710に含まれる文字711、712、713は、黒色の文字に変換される。   A grayscale image 700 shown in FIG. 6A includes a character string “ABC” composed of characters 701, 702, and 703, and the background 704 is indicated by light gray lines. By performing contrast adjustment processing and binarization processing in the pre-processing on such a grayscale image 700, the background 714 is white as shown in FIG. 6B. Note that even when the characters 701, 702, and 703 included in the grayscale image 700 are dark gray, they are included in the binary image 710 by performing the contrast adjustment processing and the binarization processing in the preprocessing. The characters 711, 712, and 713 to be converted into black characters.

次に、図6(c)を参照して、投影処理及び文字切出処理について説明する。まず、投影処理について説明する。投影処理は、垂直投影処理と水平投影処理とから構成されている。まず、垂直投影処理は、二値画像720(二値画像710と同一の画像である)において、水平方向(図の左右方向)の位置が同じ黒画素の個数を垂直方向(図の上下方向)に積算して、積算値の水平方向(図の左右方向)の変化を示すグラフ(以下、「垂直投影グラフ」ともいう)Gxを生成する処理である。また、水平投影処理は、垂直方向(図の上下方向)の位置が同じ黒画素の個数を水平方向(図の左右方向)に積算して、積算値の垂直方向(図の上下方向)の変化を示すグラフ(以下、「水平投影グラフ」ともいう)Gyを生成する処理である。ここで、投影処理において、積算される「黒画素」とは、2値化処理によって黒色であるとされた画素を意味しており、ここでは、文字721、722、723を構成する画素である。   Next, with reference to FIG. 6C, the projection process and the character cutting process will be described. First, the projection process will be described. The projection process includes a vertical projection process and a horizontal projection process. First, in the vertical projection process, in the binary image 720 (the same image as the binary image 710), the number of black pixels having the same position in the horizontal direction (left-right direction in the figure) is determined in the vertical direction (up-down direction in the figure). Is a process of generating a graph (hereinafter also referred to as “vertical projection graph”) Gx indicating a change in the integrated value in the horizontal direction (horizontal direction in the figure). In the horizontal projection processing, the number of black pixels having the same position in the vertical direction (vertical direction in the figure) is accumulated in the horizontal direction (horizontal direction in the figure), and the integrated value changes in the vertical direction (vertical direction in the figure). Is a process of generating a graph (hereinafter also referred to as a “horizontal projection graph”) Gy. Here, the “black pixels” integrated in the projection process mean pixels that are blackened by the binarization process, and are pixels that form the characters 721, 722, and 723 here. .

次いで、文字切出処理について説明する。文字切出処理は、まず、投影処理(水平投影処理)によって生成された水平投影グラフGyに対して、パラメータ記憶部121に予め記憶されている水平投影閾値Tyに基づいて閾値処理を施し、文字列の垂直方向(y軸方向)の下限座標YL及び上限座標YHを求め、下限座標YLから上限座標YHまでの領域として文字領域の高さ範囲hを求める。すなわち、水平投影グラフGyにおいて、積算値が水平投影閾値Ty以上である領域を文字領域の高さ範囲hとして求める。   Next, the character cutting process will be described. In the character cutout process, first, a threshold value process is performed on the horizontal projection graph Gy generated by the projection process (horizontal projection process) based on the horizontal projection threshold value Ty stored in advance in the parameter storage unit 121, A lower limit coordinate YL and an upper limit coordinate YH in the vertical direction (y-axis direction) of the column are obtained, and a height range h of the character area is obtained as an area from the lower limit coordinate YL to the upper limit coordinate YH. That is, in the horizontal projection graph Gy, an area whose integrated value is equal to or greater than the horizontal projection threshold Ty is obtained as the height range h of the character area.

また、投影処理(垂直投影処理)によって生成された垂直投影グラフGxに対して、パラメータ記憶部121に予め記憶されている垂直投影閾値Txに基づいて閾値処理を施し、文字列を構成する文字ごとに、水平方向(x軸方向)の下限座標XL1、XL2、XL3及び上限座標XH1、XH2、XH3を求め、下限座標XL1から上限座標XH1までの領域として幅範囲b1を求め、下限座標XL2から上限座標XH2までの領域として幅範囲b2を求め、下限座標XL3から上限座標XH3までの領域として幅範囲b3を求める。すなわち、垂直投影グラフGxにおいて、積算値が垂直投影閾値Tx以上である領域を文字領域の幅範囲b1、b2、b3として求める。   Further, threshold processing is performed on the vertical projection graph Gx generated by the projection processing (vertical projection processing) based on the vertical projection threshold Tx stored in the parameter storage unit 121 in advance, and each character constituting the character string Next, the lower limit coordinates XL1, XL2, XL3 and the upper limit coordinates XH1, XH2, XH3 in the horizontal direction (x-axis direction) are obtained, the width range b1 is obtained as an area from the lower limit coordinates XL1 to the upper limit coordinates XH1, and the upper limit coordinates XL2 to the upper limit coordinates XL2 The width range b2 is obtained as an area up to the coordinate XH2, and the width range b3 is obtained as an area from the lower limit coordinate XL3 to the upper limit coordinate XH3. That is, in the vertical projection graph Gx, areas where the integrated value is equal to or greater than the vertical projection threshold Tx are obtained as the character area width ranges b1, b2, and b3.

そして、幅範囲b1と高さ範囲hで規定される領域を文字領域721aとして切り出し、幅範囲b2と高さ範囲hで規定される領域を文字領域722aとして切り出し、幅範囲b3と高さ範囲hで規定される領域を文字領域723aとして切り出す。このようにして、文字領域721a、文字領域722a、及び、文字領域723aを切り出すことができる。   An area defined by the width range b1 and the height range h is cut out as a character area 721a, an area defined by the width range b2 and the height range h is cut out as a character area 722a, and the width range b3 and the height range h The area defined by is cut out as a character area 723a. In this way, the character area 721a, the character area 722a, and the character area 723a can be cut out.

再び図3に戻って、CPU11等の機能構成について説明する。パラメータ記憶部121は、画像処理部111によって実行される画像処理を規定する複数のパラメータの設定値を予め記憶している機能部である。また、パラメータ記憶部121に記憶されている複数のパラメータのうち、原因推定部116によって推定された文字認識の失敗原因に対応するパラメータの設定値が、処理修正部117によって修正される(書き換えられる)。   Returning to FIG. 3 again, the functional configuration of the CPU 11 and the like will be described. The parameter storage unit 121 is a functional unit that stores in advance setting values of a plurality of parameters that define image processing executed by the image processing unit 111. In addition, among the plurality of parameters stored in the parameter storage unit 121, the setting value of the parameter corresponding to the cause of the character recognition failure estimated by the cause estimation unit 116 is corrected (rewritten) by the processing correction unit 117. ).

また、パラメータ記憶部121に設定値が記憶されているパラメータとしては、例えば、回転処理における回転方向及び回転角を規定するパラメータ、2値化処理における基準
値(閾値)を示すパラメータ、膨張・収縮処理における処理の回数(膨張処理回数又は、収縮処理回数)を規定するパラメータ、及び、文字切出処理における水平投影閾値Ty及び垂直投影閾値Txをそれぞれ規定するパラメータが含まれる。
Examples of parameters whose setting values are stored in the parameter storage unit 121 include parameters that specify the rotation direction and rotation angle in rotation processing, parameters that indicate reference values (threshold values) in binarization processing, and expansion / contraction A parameter that defines the number of times of processing (the number of times of expansion processing or the number of times of contraction processing) in the processing, and parameters that respectively define the horizontal projection threshold value Ty and the vertical projection threshold value Tx in the character extraction processing are included.

成否受付部112(成否受付手段)は、画像処理部111によって実行された画像処理の結果として、画像メモリ14から取得された濃淡画像700に含まれる文字列を構成する少なくとも1つの文字の認識が失敗したとのオペレータの判定結果を示す操作入力を、入力装置4を介して受け付ける機能部である。   The success / failure acceptance unit 112 (success / failure acceptance unit) recognizes at least one character constituting the character string included in the grayscale image 700 acquired from the image memory 14 as a result of the image processing executed by the image processing unit 111. This is a functional unit that accepts an operation input indicating a determination result of an operator that has failed through the input device 4.

具体的には、例えば、入力装置4のキーボードに含まれる特定のキー(例えば、「N」キー)が押下された場合に、成否受付部112は、少なくとも1つの文字の認識が失敗したとのオペレータの判定結果を示す操作入力を受け付ける形態でもよい。また、例えば、モニタ3に「OKボタン」と「NGボタン」とを表示し、「NGボタン」上にカーソルが位置する状態で入力装置4のマウスがクリックされた場合に、成否受付部112は、少なくとも1つの文字の認識が失敗したとのオペレータの判定結果を示す操作入力を受け付ける形態でもよい。   Specifically, for example, when a specific key (for example, “N” key) included in the keyboard of the input device 4 is pressed, the success / failure reception unit 112 has failed to recognize at least one character. It may be configured to accept an operation input indicating the determination result of the operator. Further, for example, when the “OK button” and the “NG button” are displayed on the monitor 3 and the mouse of the input device 4 is clicked with the cursor positioned on the “NG button”, the success / failure acceptance unit 112 Alternatively, an operation input indicating an operator determination result that the recognition of at least one character has failed may be accepted.

成否判定部113(成否判定手段)は、濃淡画像700に含まれる文字列を構成する少なくとも1つの文字の認識が失敗したか否かを判定する機能部である。具体的には、成否判定部113は、成否受付部112によって受け付けられた操作入力に基づいて、文字列を構成する少なくとも1つの文字の認識が失敗したか否かを判定するものである。   The success / failure determination unit 113 (success / failure determination unit) is a functional unit that determines whether recognition of at least one character constituting the character string included in the grayscale image 700 has failed. Specifically, the success / failure determination unit 113 determines whether or not the recognition of at least one character constituting the character string has failed based on the operation input received by the success / failure reception unit 112.

このようにして、成否受付部112によって、外部から(ここでは、オペレータによって)文字列を構成する文字の認識が成功したか否かの判定結果を示す操作入力が受け付けられ、受け付けられた操作入力に基づいて、成否判定部113によって、文字列を構成する少なくとも1つの文字の認識が失敗したか否かが判定されるため、文字列を構成する少なくとも1つの文字の認識が失敗したか否かの判定を簡素な構成で正確に行うことができる。   In this way, the success / failure accepting unit 112 accepts an operation input indicating a determination result as to whether or not the recognition of the characters constituting the character string has been successful from the outside (in this case, by the operator), and the accepted operation input Based on the above, the success / failure determination unit 113 determines whether or not the recognition of at least one character constituting the character string has failed, so whether or not the recognition of at least one character constituting the character string has failed. Can be accurately determined with a simple configuration.

本実施形態では、成否受付部112が、オペレータの判定結果を示す操作入力を受け付ける場合について説明するが、成否受付部112が、オペレータの判定結果を示す操作入力に換えて、文字認識が失敗したか否かを判定する装置(この装置を、便宜上、「認識判定装置」という)から文字認識が失敗したことを示す情報を受け付ける形態でもよい。なお、認識判定装置は、例えば、図4に示すフローチャートのステップS111において、ステップS109で切り出された文字画像に対する文字認識処理が失敗した(例えば、対応する文字が見つからない)場合に、文字認識が失敗したと判定する形態でもよい。この場合には、認識判定装置を、機能部としてCPU11内に構成することが可能となる。   In this embodiment, the case where the success / failure acceptance unit 112 accepts an operation input indicating the operator's determination result will be described. However, the success / failure reception unit 112 failed to recognize the character instead of the operation input indicating the operator's determination result. It is also possible to accept information indicating that character recognition has failed from a device that determines whether or not (this device is referred to as a “recognition determination device” for convenience). Note that, for example, in step S111 in the flowchart shown in FIG. 4, the recognition determination device performs character recognition when character recognition processing for the character image cut out in step S109 fails (for example, no corresponding character is found). The form which determines with having failed may be sufficient. In this case, the recognition determination device can be configured in the CPU 11 as a functional unit.

原因評価部114は、成否判定部113によって濃淡画像700に含まれる文字列を構成する少なくとも1つの文字の認識が失敗したと判定された場合に、予め設定された複数の原因(例えば、10個の原因)ごとに、文字の認識が失敗する可能性の高さを定量的に示す失敗確率Pi(i=1〜N:Nは失敗原因の個数であって、ここでは10個である)として評価する機能部である。なお、原因評価部114による失敗確率Piの算出方法の具体例については、図9〜図20を参照して後述する。   When the success / failure determination unit 113 determines that the recognition of at least one character constituting the character string included in the grayscale image 700 has failed, the cause evaluation unit 114 has a plurality of preset causes (for example, 10 Failure probability Pi (i = 1 to N: N is the number of failure causes, here is 10) that quantitatively indicates the probability of character recognition failure It is a functional part to evaluate. A specific example of the method for calculating the failure probability Pi by the cause evaluation unit 114 will be described later with reference to FIGS.

本実施形態では、原因評価部114が失敗確率Piを求める場合について説明するが、原因評価部114は、文字の認識が失敗する可能性の高さを定量的に示すものであればよい。例えば、原因評価部114が、文字の認識が失敗する可能性の高さを示す複数の段階(例えば、8段階)のうち、どの段階に相当するかを示す形態でもよい。   In the present embodiment, a case in which the cause evaluation unit 114 obtains the failure probability Pi will be described. However, the cause evaluation unit 114 only needs to quantitatively indicate a high possibility of character recognition failure. For example, the cause evaluation unit 114 may indicate which stage corresponds to a plurality of stages (e.g., eight stages) indicating the possibility of character recognition failure.

結果表示部115(結果表示手段)は、複数の原因(ここでは、10個の原因)のうち、原因評価部114によって失敗確率Pi(i=1〜N:ここでは、N=10)が高いと評価された順に、予め設定された2以上の所定個数(ここでは、3個)の原因を示す文字又は画像を、モニタ3に表示させる機能部である。具体的には、結果表示部115は、モニタ3に結果表示画面800(図8(a)参照)を表示する。結果表示画面800については、図8を参照して後述する。   The result display unit 115 (result display unit) has a high failure probability Pi (i = 1 to N: N = 10 here) by the cause evaluation unit 114 among a plurality of causes (here, ten causes). And a function unit that causes the monitor 3 to display characters or images indicating a cause of two or more predetermined numbers (here, three) set in advance. Specifically, the result display unit 115 displays a result display screen 800 (see FIG. 8A) on the monitor 3. The result display screen 800 will be described later with reference to FIG.

原因推定部116(原因推定手段)は、成否判定部113によって文字列を構成する少なくとも1つの文字の認識が失敗したと判定された場合に、文字の認識が失敗した原因を推定する機能部である。具体的には、原因推定部116は、原因評価部114によって評価された失敗確率Pi(i=1〜N:ここでは、N=10)に基づいて、文字の認識が失敗した原因を推定する。   The cause estimation unit 116 (cause estimation means) is a functional unit that estimates the cause of failure in character recognition when the success / failure determination unit 113 determines that recognition of at least one character constituting the character string has failed. is there. Specifically, the cause estimating unit 116 estimates the cause of the failure in character recognition based on the failure probability Pi (i = 1 to N: N = 10 here) evaluated by the cause evaluating unit 114. .

更に具体的には、原因推定部116は、結果表示部115によってモニタ3の結果表示画面800(図8(a)参照)に表示された2以上の所定個数(ここでは、3個)の原因の中から、文字の認識が失敗した原因を1つだけ選択するオペレータによる選択入力を、入力装置4を介して受け付けて、選択された原因を文字の認識が失敗した原因であると推定する。選択入力の具体的な入力方法については、図8を参照して後述する。   More specifically, the cause estimating unit 116 causes two or more predetermined numbers (here, three) of causes displayed on the result display screen 800 (see FIG. 8A) of the monitor 3 by the result display unit 115. The selection input by the operator who selects only one cause of the character recognition failure is received through the input device 4 and the selected cause is estimated to be the cause of the character recognition failure. A specific input method of selection input will be described later with reference to FIG.

このようにして、原因評価部114によって失敗確率Pi(i=1〜N:ここでは、N=10)が高いと評価されて、結果表示部115によってモニタ3に表示された2以上の所定個数(ここでは、3個)の原因の中から、原因推定部116によって、文字の認識が失敗した原因を1つだけ選択する選択入力が受け付けられ、選択された原因が、文字の認識が失敗した原因であると推定されるため、文字の認識が失敗した原因を容易に推定することができる。   In this way, the cause evaluation unit 114 evaluates that the failure probability Pi (i = 1 to N: N = 10 here) is high, and two or more predetermined numbers displayed on the monitor 3 by the result display unit 115. Among the causes (here, 3), the cause estimating unit 116 accepts a selection input for selecting only one cause of character recognition failure, and the selected cause is character recognition failure. Since it is presumed to be the cause, it is possible to easily estimate the cause of the character recognition failure.

本実施形態では、原因推定部116が、オペレータによる選択入力に基づいて文字の認識が失敗した原因を推定する場合について説明するが、原因推定部116が、原因評価部114によって評価された失敗確率Pi(i=1〜N:N=10)に基づいて、文字の認識が失敗した原因を推定する形態であればよい。例えば、原因推定部116が、失敗確率Piの最も高い原因を、文字の認識が失敗した原因であると推定する形態でもよい。この場合には、オペレータによる選択入力が不要となるため、利便性を向上することができる。   In the present embodiment, a case will be described in which the cause estimation unit 116 estimates the cause of character recognition failure based on the selection input by the operator. However, the failure probability that the cause estimation unit 116 has been evaluated by the cause evaluation unit 114 is described. Any form may be used as long as the cause of character recognition failure is estimated based on Pi (i = 1 to N: N = 10). For example, the cause estimation unit 116 may estimate that the cause with the highest failure probability Pi is the cause of character recognition failure. In this case, the selection input by the operator is not necessary, and convenience can be improved.

また、例えば、原因推定部116が、最も高い失敗確率Piが予め設定された閾値(例えば、60%)以上である場合に限って、失敗確率Piの最も高い原因を、文字の認識が失敗した原因であると推定し、最も高い失敗確率Piが予め設定された閾値(例えば60%)未満である場合には、オペレータによる選択入力に基づいて文字の認識が失敗した原因を推定する形態でもよい。   In addition, for example, only when the cause estimation unit 116 has the highest failure probability Pi equal to or higher than a preset threshold (for example, 60%), character recognition has failed for the cause with the highest failure probability Pi. If the cause is estimated and the highest failure probability Pi is less than a preset threshold value (for example, 60%), the cause of character recognition failure based on the selection input by the operator may be estimated. .

このようにして、文字列を構成する少なくとも1つの文字の認識が失敗したと判定された場合に、原因評価部114によって、予め設定された複数の原因(ここでは、10個の原因)ごとに、文字の認識が失敗する可能性の高さを定量的に示す失敗確率Pi(i=1〜N:N=10)が評価され、原因推定部116によって、評価された失敗確率Piに基づいて、文字の認識が失敗した原因が推定されるため、失敗確率Piを正確に評価することによって、文字の認識が失敗した原因を正確に推定することができる。   In this way, when it is determined that the recognition of at least one character constituting the character string has failed, the cause evaluation unit 114 performs a plurality of preset causes (here, ten causes). The failure probability Pi (i = 1 to N: N = 10) that quantitatively indicates the high possibility of character recognition failure is evaluated, and the cause estimation unit 116 determines the failure probability Pi based on the evaluated failure probability Pi. Since the cause of the character recognition failure is estimated, the cause of the character recognition failure can be accurately estimated by accurately evaluating the failure probability Pi.

すなわち、例えば、文字の認識が失敗した原因が文字の線幅である(文字が太すぎる、又は、文字が細すぎる)と推定された場合には、予め設定された推奨線幅B0(例えば、実験的に文字の認識率が最も高くなる線幅)と、実際の文字の線幅の平均値(平均線幅)
Bavと、の差である差分線幅ΔBの絶対値に重みW1を乗じて、失敗確率P1(図10参照)を評価することができる。このようにして、文字の認識が失敗する可能性の高さを定量的に示す失敗確率P1が評価されるため、文字の認識が失敗した原因を正確に推定することができるのである。
That is, for example, when it is estimated that the cause of character recognition failure is the line width of the character (the character is too thick or the character is too thin), a preset recommended line width B0 (for example, Experimentally, the line width with the highest recognition rate of characters) and the average value of the actual character line width (average line width)
The failure probability P1 (see FIG. 10) can be evaluated by multiplying the absolute value of the difference line width ΔB, which is the difference from Bav, by the weight W1. In this way, since the failure probability P1 that quantitatively indicates the possibility of character recognition failure is evaluated, the cause of character recognition failure can be accurately estimated.

また、例えば、文字の認識が失敗した原因が、文字列の回転であると推定された場合、文字の滲み(にじみ)又は擦れ(かすれ)であると推定された場合、文字のコントラストが低いことであると推定された場合にも、同様にして、失敗確率P2、P3、P4(図14、図17、図20参照)を評価することができるため、文字の認識が失敗した原因を正確に推定することができるのである。   Also, for example, when it is estimated that the cause of the character recognition failure is rotation of the character string, or when it is estimated that the character is blurred or rubbed, the character contrast is low. In the same manner, the failure probabilities P2, P3, and P4 (see FIGS. 14, 17, and 20) can be evaluated in the same manner, so that the cause of character recognition failure can be accurately determined. It can be estimated.

つまり、予め文字の認識が失敗する可能性のある原因ごとに、各原因に起因する失敗確率Piの値を求めるためのロジック(手順、方法等)を構築しておくことによって、各原因に対応する失敗確率Piを求めて比較することができる(図7のステップS205、S207等、図10、図14、図17、図20参照)ため、文字の認識が失敗した原因を正確に推定することができるのである。   In other words, each cause can be dealt with by constructing a logic (procedure, method, etc.) for obtaining the value of failure probability Pi attributed to each cause in advance for each cause that may cause character recognition to fail. The failure probability Pi to be obtained can be obtained and compared (see steps S205 and S207 in FIG. 7, see FIG. 10, FIG. 14, FIG. 17, and FIG. 20). Can do it.

処理修正部117(処理修正手段)は、原因推定部116によって推定された原因に基づいて、画像処理部111によって実行される画像処理を規定する複数のパラメータ(すなわち、パラメータ記憶部121に格納された複数のパラメータ)のうち、前記推定された原因に対応する少なくとも1つのパラメータの値を修正する機能部である。なお、本実施形態では、画像処理部111によって実行される画像処理を規定する複数のパラメータの値は、パラメータ記憶部121に格納されているため、処理修正部117は、原因推定部116によって推定された原因に基づいて、前記推定された原因に対応する少なくとも1つのパラメータの値を修正して修正後の値に書き換えるものである。   The processing correction unit 117 (processing correction unit) is stored in a plurality of parameters (that is, stored in the parameter storage unit 121) that define image processing executed by the image processing unit 111 based on the cause estimated by the cause estimation unit 116. Among the plurality of parameters), the function unit corrects the value of at least one parameter corresponding to the estimated cause. In this embodiment, since the values of a plurality of parameters that define image processing executed by the image processing unit 111 are stored in the parameter storage unit 121, the process correction unit 117 is estimated by the cause estimation unit 116. Based on the determined cause, the value of at least one parameter corresponding to the estimated cause is corrected and rewritten with the corrected value.

具体的には、処理修正部117は、原因推定部116によって前記文字の認識が失敗した原因であると推定された原因について、原因評価部114によって評価された失敗確率Piが大きい程、前記推定された原因に対応する少なくとも1つのパラメータの値を大幅に修正する。なお、処理修正部117によるパラメータの修正方法の具体例については、図9〜図20を参照して後述する。   Specifically, the processing correction unit 117 increases the estimation probability as the failure probability Pi evaluated by the cause evaluation unit 114 for the cause estimated by the cause estimation unit 116 as the cause of the recognition failure of the character increases. Significantly modify the value of at least one parameter corresponding to the caused cause. A specific example of the parameter correction method performed by the process correction unit 117 will be described later with reference to FIGS.

このようにして、文字の認識が失敗した原因であると推定された原因について、評価された失敗確率Piが大きい程、推定された原因に対応する少なくとも1つのパラメータの値が大幅に修正されるため、画像処理を規定するパラメータを適正に調整することができる。   In this way, for a cause that is estimated to be the cause of character recognition failure, the value of at least one parameter corresponding to the estimated cause is significantly corrected as the estimated failure probability Pi increases. Therefore, it is possible to appropriately adjust the parameters that define the image processing.

−CPU11の動作−
ここで、図7を参照して、CPU11の動作の一例について説明する。図7は、図3に示すCPU11の動作の一例を示すフローチャートである。まず、ステップS201において、画像処理部111によって、画像メモリ14に格納された濃淡画像情報から文字列を構成する各文字を認識する画像処理が実行される。なお、ステップS201において実行される画像処理については、図4に示す詳細フローチャートを参照して上述している。
-Operation of CPU 11-
Here, an example of the operation of the CPU 11 will be described with reference to FIG. FIG. 7 is a flowchart showing an example of the operation of the CPU 11 shown in FIG. First, in step S201, the image processing unit 111 executes image processing for recognizing each character constituting the character string from the grayscale image information stored in the image memory 14. Note that the image processing executed in step S201 has been described above with reference to the detailed flowchart shown in FIG.

次に、ステップS203(成否判定ステップ)において、成否判定部113によって、成否受付部112により受け付けられた操作入力に基づいて、文字列を構成する少なくとも1つの文字の認識が失敗したか否かが判定される。ステップS203でYESの場合には、処理がステップS205に進められる。ステップS203でNOの場合には、処理がステップS221に進められる。ステップS221において、結果表示部115によって、モニタ3に文字認識が成功したことを示す画面(図8(b)に示す結果表示画面810
)が表示される。そして、処理が終了される。
Next, in step S203 (success / failure determination step), whether or not the success / failure determination unit 113 has failed to recognize at least one character constituting the character string based on the operation input received by the success / failure reception unit 112. Determined. If YES in step S203, the process proceeds to step S205. If NO in step S203, the process proceeds to step S221. In step S221, the result display unit 115 displays a screen indicating that character recognition has succeeded on the monitor 3 (result display screen 810 shown in FIG. 8B).
) Is displayed. Then, the process ends.

ステップS205において、原因評価部114によって、複数の原因(ここでは、10個の原因)ごとに、文字の認識が失敗する可能性の高さを定量的に示す失敗確率Pi(i=1〜N:N=10)が求められる。なお、ステップS205において行われる失敗確率Piを求める処理を、以下の説明においては「失敗確率算出処理」という。   In step S205, the cause evaluation unit 114 quantitatively indicates the probability of failure of character recognition for each of a plurality of causes (here, ten causes), and a failure probability Pi (i = 1 to N). : N = 10). Note that the process of obtaining the failure probability Pi performed in step S205 is referred to as “failure probability calculation process” in the following description.

なお、失敗原因が文字の線幅である場合の失敗確率算出処理(この処理を、便宜上、「失敗確率算出処理1」という)については、図10を参照して後述する。また、失敗原因が文字列の回転である場合の失敗確率算出処理(この処理を、便宜上、「失敗確率算出処理2」という)については、図14を参照して後述する。更に、失敗原因が文字の滲み・擦れである場合の失敗確率算出処理(この処理を、便宜上、「失敗確率算出処理3」という)については、図17を参照して後述する。加えて、失敗原因が低コントラストである場合の失敗確率算出処理(この処理を、便宜上、「失敗確率算出処理4」という)については、図20を参照して後述する。   A failure probability calculation process (this process is referred to as “failure probability calculation process 1” for the sake of convenience) in the case where the cause of failure is the line width of a character will be described later with reference to FIG. Further, a failure probability calculation process (this process is referred to as “failure probability calculation process 2” for convenience) will be described later with reference to FIG. 14 when the cause of failure is rotation of a character string. Further, a failure probability calculation process (this process is referred to as “failure probability calculation process 3” for convenience) will be described later with reference to FIG. In addition, a failure probability calculation process (this process is referred to as “failure probability calculation process 4” for convenience) when the cause of failure is low contrast will be described later with reference to FIG.

次に、ステップS207において、結果表示部115によって、ステップS205で求められた失敗確率Pi(i=1〜N)が高い順にソートされる。そして、ステップS209において、結果表示部115によって、失敗確率Piが高い順に3個の原因を示す文字がモニタ3に表示される(図8参照)。次いで、ステップS211(原因推定ステップ)において、原因推定部116によって、ステップS209で表示された3個の原因の中から1つの原因を選択する選択入力が受け付けられたか否かの判定が行われる。ステップS211でYESの場合には、処理がステップS213に進められる。ステップS211でNOの場合には、処理が待機状態とされる。   Next, in step S207, the result display unit 115 sorts the failure probabilities Pi (i = 1 to N) obtained in step S205 in descending order. In step S209, the result display unit 115 displays characters indicating the three causes in descending order of the failure probability Pi on the monitor 3 (see FIG. 8). Next, in step S211 (cause estimation step), the cause estimation unit 116 determines whether or not a selection input for selecting one cause from the three causes displayed in step S209 has been accepted. If YES in step S211, the process proceeds to step S213. If NO in step S211, the process is set to a standby state.

ステップS213において、処理修正部117によって、ステップS211で選択された原因に対応するパラメータ値の修正を実行するか否かの操作入力が、入力装置4を介して受け付けられたか否かの判定が行われる。ステップS213でYESの場合には、処理がステップS217に進められる。ステップS213でNOの場合には、処理がステップS215に進められる。ステップS215において、処理修正部117によって、ステップS211での選択入力をキャンセルする操作入力が入力装置4を介して受け付けられたか否かの判定が行われる。ステップS215でYESの場合には、処理がステップS211に戻され、ステップS211以降の処理が繰り返し実行される。ステップS215でNOの場合には、処理がステップS213に戻され、ステップS213以降の処理が繰り返し実行される。   In step S213, the process correction unit 117 determines whether or not an operation input indicating whether or not the parameter value corresponding to the cause selected in step S211 is to be corrected is received via the input device 4. Is called. If YES in step S213, the process proceeds to step S217. If NO in step S213, the process proceeds to step S215. In step S215, the process correction unit 117 determines whether or not an operation input for canceling the selection input in step S211 has been received via the input device 4. If YES in step S215, the process returns to step S211, and the processes after step S211 are repeatedly executed. In the case of NO at step S215, the process is returned to step S213, and the processes after step S213 are repeatedly executed.

ステップS217において、処理修正部117によって、ステップS211で選択された原因に対応するパラメータ値の修正が実行される。そして、ステップS219(処理修正ステップ)において、処理修正部117によって、パラメータ記憶部121に格納されたパラメータ値が、ステップS217で修正された値に書き換えられる。そして、処理がステップS201へリターンされ、ステップS201以降の処理が繰り返し実行される。   In step S217, the process correction unit 117 corrects the parameter value corresponding to the cause selected in step S211. In step S219 (processing correction step), the process correction unit 117 rewrites the parameter value stored in the parameter storage unit 121 with the value corrected in step S217. And a process is returned to step S201 and the process after step S201 is repeatedly performed.

このようにして、製品5の表面に形成された文字列を構成する少なくとも1つの文字の認識が失敗したか否かが判定され、少なくとも1つの文字の認識が失敗したと判定された場合に、予め設定された複数の(ここでは、10個の)原因の中から、文字の認識が失敗した原因が推定され、推定された原因に基づいて、文字列を含む濃淡画像に対して施される画像処理を規定する、パラメータ記憶部121に記憶された複数のパラメータのうち、推定された原因に対応する少なくとも1つのパラメータの値が修正される(書き換えられる)ため、画像処理を規定するパラメータを適正に調整することができる。   In this way, it is determined whether or not the recognition of at least one character constituting the character string formed on the surface of the product 5 has failed, and when it is determined that the recognition of at least one character has failed, The cause of the failure of character recognition is estimated from a plurality of preset causes (here, 10), and is applied to the grayscale image including the character string based on the estimated cause. Since the value of at least one parameter corresponding to the estimated cause among the plurality of parameters stored in the parameter storage unit 121 that defines the image processing is corrected (rewritten), the parameter that defines the image processing is changed. It can be adjusted appropriately.

すなわち、文字の認識が失敗する可能性のある原因ごとに、各原因に対応する少なくとも1つのパラメータの値を修正するためのロジックを予め構築しておくことによって、推定された原因に対応する少なくとも1つのパラメータの値を適正に修正する(図12、図18参照)ことができるため、画像処理を規定するパラメータを適正に調整することができるのである。   That is, for each possible cause of character recognition failure, by constructing in advance a logic for correcting the value of at least one parameter corresponding to each cause, at least corresponding to the estimated cause Since the value of one parameter can be appropriately corrected (see FIGS. 12 and 18), the parameter defining the image processing can be adjusted appropriately.

ここで、図8を参照して、モニタ3に表示される画面の一例について説明する。図8は、図7に示すフローチャートのステップS209及びステップS221でそれぞれモニタ3に表示される結果表示画面800及び結果表示画面810の一例を示す画面図である。図8(a)は、パラメータの調整前にステップS209でモニタ3に表示される結果表示画面800の一例を示す画面図であって、図8(b)は、パラメータの調整後にステップS221でモニタ3に表示される結果表示画面810の一例を示す画面図である。   Here, an example of a screen displayed on the monitor 3 will be described with reference to FIG. FIG. 8 is a screen diagram showing an example of a result display screen 800 and a result display screen 810 displayed on the monitor 3 in steps S209 and S221 of the flowchart shown in FIG. FIG. 8A is a screen diagram showing an example of a result display screen 800 displayed on the monitor 3 in step S209 before parameter adjustment, and FIG. 8B is a monitor in step S221 after parameter adjustment. 6 is a screen diagram showing an example of a result display screen 810 displayed in FIG.

結果表示画面800には、画面左上側に、画像表示部801が表示され、画像表示部801の下側に成否表示部802が表示され、画面右上側に、理由表示部803が表示され、理由表示部803の右側にスクロールバー804が表示され、理由表示部803内の左側にはポインタ807が表示されている。また、成否表示部802の下側には、実行ボタン805及びキャンセルボタン806が表示される。   In the result display screen 800, an image display unit 801 is displayed on the upper left side of the screen, a success / failure display unit 802 is displayed on the lower side of the image display unit 801, and a reason display unit 803 is displayed on the upper right side of the screen. A scroll bar 804 is displayed on the right side of the display unit 803, and a pointer 807 is displayed on the left side in the reason display unit 803. An execution button 805 and a cancel button 806 are displayed below the success / failure display unit 802.

画像表示部801は、図4に示すフローチャートのステップS109において、二値画像から切り出される各文字画像(以下、「切り出し画像」ともいう)を表示するものである。ここでは、図9(a)に示す文字列「ABC」のうち、文字「A」に擦れがあることに起因して、文字の認識が失敗する場合の切り出し画像が表示されている。   The image display unit 801 displays each character image cut out from the binary image (hereinafter also referred to as “cutout image”) in step S109 of the flowchart shown in FIG. Here, a clipped image when character recognition fails due to the rubbing of the character “A” in the character string “ABC” shown in FIG. 9A is displayed.

成否表示部802は、図7に示すフローチャートのステップS203における文字認識の成否を表示するものであって、文字認識が失敗した場合には、図8(a)に示すように「NG」と表示され、成功した場合には図8(b)に示すように「OK」と表示される。   The success / failure display unit 802 displays the success / failure of the character recognition in step S203 of the flowchart shown in FIG. 7. When the character recognition fails, “NG” is displayed as shown in FIG. If successful, “OK” is displayed as shown in FIG.

理由表示部803は、失敗確率Piが高い順にソートされた失敗原因を文字情報として表示するものであって、ここでは、失敗確率Piが高い3つの失敗原因に対応する失敗原因ボタン803a、803b、803cを表示するものである。ここでは、失敗原因ボタン803aには、「1.かすれ・にじみ」と表示され、最も失敗確率Piが高い失敗原因が「かすれ・にじみ」であることが判る。また、失敗原因ボタン803bには、「2.文字の線幅」と表示され、2番目に失敗確率Piが高い失敗原因が「文字の線幅」であることが判る。更に、失敗原因ボタン803cには、「3.低コントラスト」と表示され、3番目に失敗確率Piが高い失敗原因が「低コントラスト」であることが判る。   The reason display unit 803 displays failure causes sorted in descending order of failure probabilities Pi as character information. Here, failure cause buttons 803a, 803b corresponding to three failure causes with high failure probabilities Pi are displayed. 803c is displayed. In this case, the failure cause button 803a displays “1. Blur / bleed”, and it can be seen that the cause of failure with the highest failure probability Pi is “blur / bleed”. The failure cause button 803b displays “2. Character line width”, and it is understood that the failure cause having the second highest failure probability Pi is “character line width”. Further, “3. Low contrast” is displayed on the failure cause button 803c, and it is understood that the failure cause having the third highest failure probability Pi is “low contrast”.

また、理由表示部803に表示された失敗原因ボタン803a、803b、803cは、選択ボタンとしても機能するものである。すなわち、例えば、図8(a)に示すように、失敗原因ボタン803aを押下することによって、失敗原因ボタン803aに表示されている失敗原因である「かすれ・にじみ」が、原因推定部116によって選択される。ここで、「押下する」とは、ポインタ807の先端をボタン(例えば、失敗原因ボタン803a)に位置させて、マウスをクリックすることを意味している。   The failure cause buttons 803a, 803b, and 803c displayed on the reason display unit 803 also function as selection buttons. That is, for example, as shown in FIG. 8A, by pressing the failure cause button 803a, the cause estimation unit 116 selects the cause of failure displayed on the failure cause button 803a as “failure / bleed”. Is done. Here, “pressing” means that the tip of the pointer 807 is positioned at a button (for example, the failure cause button 803a) and the mouse is clicked.

なお、この選択処理は、図7に示すフローチャートのステップS211において、原因推定部116によって実行される処理である。同様にして、ポインタ807とマウスクリックによって、失敗原因ボタン803b、803cにそれぞれ表示されている失敗原因を選択することも可能である。また、失敗原因ボタン803a、803b、803cは、原因推定部116によって選択されると、結果表示部115によって、その表示態様が変更される(例えば、点滅状態とされたり、表示色が変更されたりする)。   This selection process is a process executed by the cause estimating unit 116 in step S211 of the flowchart shown in FIG. Similarly, the cause of failure displayed on each of the failure cause buttons 803b and 803c can be selected by a pointer 807 and a mouse click. Further, when the failure cause buttons 803a, 803b, and 803c are selected by the cause estimating unit 116, the display mode is changed by the result display unit 115 (for example, the blinking state or the display color is changed). To do).

スクロールバー804は、失敗確率Piが高い順にソートされ、理由表示部803に表示された失敗原因を上下方向にスクロールする操作を受け付けるものである。すなわち、スクロールバー804は、選択を所望する失敗原因が理由表示部803に表示されていない場合に、オペレータがスクロールバー804を用いて、失敗原因ボタンを上側にスクロールして、失敗確率Piが4番目以降の失敗原因に対応する失敗原因ボタンを表示させ、選択可能とするものである。   The scroll bar 804 accepts an operation of scrolling the cause of failure displayed in the reason display unit 803 in the vertical direction, sorted in descending order of failure probability Pi. In other words, the scroll bar 804 indicates that when the cause of failure desired to be selected is not displayed on the reason display unit 803, the operator uses the scroll bar 804 to scroll the failure cause button upward and the failure probability Pi is 4. The failure cause buttons corresponding to the failure causes after the first are displayed and can be selected.

実行ボタン805は、選択された失敗原因に対応するパラメータ値を修正する場合に押下されるボタンである。すなわち、理由表示部803に表示された失敗原因ボタン803a、803b、803cのいずれかが選択された後に、実行ボタン805がオペレータによって押下されると、選択された失敗原因に対応するパラメータ値を修正する(書き換える)処理が実行される。なお、この処理は、図7に示すフローチャートのステップS219において、処理修正部117によって実行される処理である。   The execute button 805 is a button that is pressed when correcting the parameter value corresponding to the selected cause of failure. That is, if any of the failure cause buttons 803a, 803b, and 803c displayed in the reason display unit 803 is selected and then the execution button 805 is pressed by the operator, the parameter value corresponding to the selected failure cause is corrected. The process of rewriting is performed. This process is a process executed by the process correction unit 117 in step S219 of the flowchart shown in FIG.

キャンセルボタン806は、選択状態をキャンセルし、選択前の状態とする場合に押下されるボタンである。すなわち、理由表示部803に表示された失敗原因ボタン803a、803b、803cのいずれかが選択された後に、オペレータによってキャンセルボタン806が押下されると、選択状態がキャンセルされ、選択前の状態とされる。   A cancel button 806 is a button that is pressed to cancel the selection state and return to the state before selection. That is, if any of the failure cause buttons 803a, 803b, and 803c displayed on the reason display unit 803 is selected and then the cancel button 806 is pressed by the operator, the selected state is canceled and the state before the selection is made. The

結果表示画面810にも、結果表示画面800と同様に、画面左上側に、画像表示部811が表示され、画像表示部811の下側に成否表示部812が表示され、画面右上側に、理由表示部813が表示され、理由表示部813の右側にスクロールバー814が表示され、理由表示部813内の左側にはポインタ817が表示されている。また、成否表示部812の下側には、実行ボタン815及びキャンセルボタン816が表示される。   Similarly to the result display screen 800, the result display screen 810 also displays an image display unit 811 on the upper left side of the screen, a success / failure display unit 812 on the lower side of the image display unit 811, and a reason on the upper right side of the screen. A display unit 813 is displayed, a scroll bar 814 is displayed on the right side of the reason display unit 813, and a pointer 817 is displayed on the left side in the reason display unit 813. An execution button 815 and a cancel button 816 are displayed below the success / failure display unit 812.

ここでは、結果表示画面800と相違する点についてのみ説明する。画像表示部811には、文字の認識が成功する場合の切り出し画像が表示されている。また、成否表示部812には、文字の認識が成功したことを示す「OK」と表示される。なお、理由表示部813には、失敗原因ボタン803a、803b、803cが表示されているが押下することはできない。また、実行ボタン815及びキャンセルボタン816も表示されているが押下することはできない。   Here, only differences from the result display screen 800 will be described. The image display unit 811 displays a cut-out image when character recognition is successful. In addition, the success / failure display unit 812 displays “OK” indicating that the character has been successfully recognized. The reason display portion 813 displays failure cause buttons 803a, 803b, and 803c, but they cannot be pressed. An execution button 815 and a cancel button 816 are also displayed but cannot be pressed.

このようにして、複数の原因のうち、失敗確率Piが高いと評価された順に、予め設定された2以上の所定個数(ここでは、3個)の原因を示す文字(ここでは、失敗原因ボタン803a、803b、803c)が、モニタ3に表示されるため、利便性を向上することができる。   In this way, among a plurality of causes, in the order in which the failure probability Pi is evaluated to be high, two or more preset numbers (here, 3) indicating the causes (here, failure cause buttons) 803a, 803b, and 803c) are displayed on the monitor 3, the convenience can be improved.

すなわち、例えば、オペレータが、モニタ3に表示された原因を示す文字(ここでは、失敗原因ボタン803a、803b、803c)を参照して、文字の認識が失敗した原因を推定することができるため、文字の認識が失敗した原因を容易に推定することができるので、利便性を向上することができるのである。   That is, for example, the operator can estimate the cause of character recognition failure by referring to the characters indicating the cause displayed on the monitor 3 (here, failure cause buttons 803a, 803b, and 803c). Since the cause of the character recognition failure can be easily estimated, the convenience can be improved.

本実施形態においては、失敗原因を示す文字(ここでは、失敗原因ボタン803a、803b、803c)を表示する場合について説明したが、失敗原因を示す文字に換えて(又は、加えて)失敗原因を示すアイコン等の画像を表示する形態でもよい。   In the present embodiment, a case has been described in which characters indicating the cause of failure (here, failure cause buttons 803a, 803b, and 803c) are displayed. However, instead of (or in addition to) the characters indicating the cause of failure, the cause of failure is displayed. An image such as an icon to be displayed may be displayed.

また、本実施形態においては、失敗確率Piが高いと評価された順に、失敗原因を示す文字(ここでは、失敗原因ボタン803a、803b、803c)を表示する場合について説明するが、失敗原因を示す文字に対応付けて失敗確率Piの値を示す文字又は画像を
表示する形態でもよい。
Further, in the present embodiment, a case will be described in which characters indicating failure causes (here, failure cause buttons 803a, 803b, and 803c) are displayed in the order in which the failure probability Pi is evaluated to be high. A form in which a character or an image indicating the value of the failure probability Pi in association with the character may be displayed.

この場合には、例えば、オペレータが、モニタ3に表示された原因を示す文字(又は画像)と、失敗確率Piの値を示す文字(又は画像)とを参照して、文字の認識が失敗した原因を推定することができるため、文字の認識が失敗した原因を更に容易に推定することができるので、利便性を更に向上することができるのである。すなわち、失敗確率Piが高い程、対応する失敗原因が、文字の認識が失敗した原因であると推定してよいとの安心感が高まる。   In this case, for example, the operator failed to recognize the character by referring to the character (or image) indicating the cause displayed on the monitor 3 and the character (or image) indicating the value of the failure probability Pi. Since the cause can be estimated, it is possible to more easily estimate the cause of the character recognition failure, thereby further improving convenience. That is, the higher the failure probability Pi, the greater the sense of security that the corresponding failure cause may be estimated to be the cause of character recognition failure.

本実施形態では、理由表示部803に3つの失敗原因ボタン803a、803b、803cを選択可能に表示する場合について説明するが、理由表示部803に選択可能に表示する失敗原因ボタンの個数は、「3つ」以外の個数である形態でもよい。例えば、理由表示部803に2つの失敗原因ボタンを選択可能に表示する形態でも良いし、理由表示部803に4つ以上の個数の失敗原因ボタンを選択可能に表示する形態でも良い。理由表示部803に表示する失敗原因ボタンの個数が多い程、オペレータの選択範囲が広がるため、利便性を向上することができる。   In the present embodiment, a case where three failure cause buttons 803a, 803b, and 803c are displayed in a selectable manner on the reason display unit 803 will be described. The number may be a number other than “three”. For example, two failure cause buttons may be displayed on the reason display unit 803 so as to be selectable, or four or more failure cause buttons may be displayed on the reason display unit 803 so as to be selectable. The greater the number of failure cause buttons displayed on the reason display portion 803, the wider the operator's selection range, so convenience can be improved.

また、本実施形態では、理由表示部803に表示する失敗原因ボタンの個数が予め設定されている場合について説明するが、理由表示部803に表示する失敗原因ボタンの個数を失敗確率Piの値に基づいて決定する形態でもよい。例えば、失敗確率Piの値が予め設定された確率閾値(例えば、30%)以上の失敗原因に対応する失敗原因ボタンを理由表示部803に表示する形態でもよい。この場合には、選択される可能性の高い失敗原因ボタンが理由表示部803に表示されるため、利便性を向上することができる。   In this embodiment, the case where the number of failure cause buttons displayed on the reason display unit 803 is set in advance will be described. However, the number of failure cause buttons displayed on the reason display unit 803 is set to the value of the failure probability Pi. It may be determined based on this. For example, the cause display unit 803 may display a failure cause button corresponding to a failure cause having a failure probability Pi value equal to or higher than a preset probability threshold (for example, 30%). In this case, since a failure cause button that is highly likely to be selected is displayed on the reason display unit 803, convenience can be improved.

−失敗確率算出処理及びパラメータ値修正処理−
−失敗原因が文字の線幅である場合−
以下に、原因評価部114によって実行される失敗確率算出処理、及び、処理修正部117によって実行されるパラメータ値修正処理の具体例について、図9〜図20を参照して説明する。まず、図9〜図12を参照して、失敗原因が「文字の線幅」である場合の失敗確率算出処理及びパラメータ値修正処理について説明する。図9は、文字の線幅が太すぎることに起因して文字認識が失敗するケースの一例を示す説明図である。
-Failure probability calculation processing and parameter value correction processing-
-When the cause of failure is the line width of a character-
A specific example of the failure probability calculation process executed by the cause evaluation unit 114 and the parameter value correction process executed by the process correction unit 117 will be described below with reference to FIGS. First, a failure probability calculation process and a parameter value correction process when the failure cause is “character line width” will be described with reference to FIGS. 9 to 12. FIG. 9 is an explanatory diagram illustrating an example of a case in which character recognition fails due to the character line width being too thick.

図9(a)は、「ABC」との文字列を構成するそれぞれの文字の線幅が太い場合の文字切出処理が失敗する状態を示す図である。図9(b)は、図9(a)に示す二値画像910(又は、二値画像910に対応する濃淡画像)に対して文字の線幅を細くする白膨張処理を施すことによって、文字列を適性な線幅とした二値画像900では適正に文字切出処理が行われる状態を示す図である。   FIG. 9A is a diagram illustrating a state where the character extraction process fails when the line width of each character constituting the character string “ABC” is thick. FIG. 9B shows a case where a character is obtained by applying a white expansion process for narrowing the line width of the character to the binary image 910 shown in FIG. 9A (or a grayscale image corresponding to the binary image 910). It is a figure which shows the state in which the character extraction process is performed appropriately in the binary image 900 which made the line | wire the appropriate line width.

図9(a)には、線幅が太い「ABC」との文字列911、912、913を含む二値画像910と、それに対応する水平投影グラフGy1、垂直投影グラフGx1が記載されている。水平投影グラフGy1において、積算値が水平投影閾値Ty1以上である領域が文字領域の高さ範囲h1として求められる。また、垂直投影グラフGx1において、積算値が垂直投影閾値Tx1以上である領域が文字領域の幅範囲b11、b12として求められる。   FIG. 9A shows a binary image 910 including character strings 911, 912, and 913 of “ABC” having a large line width, and a horizontal projection graph Gy1 and a vertical projection graph Gx1 corresponding thereto. In the horizontal projection graph Gy1, an area whose integrated value is equal to or greater than the horizontal projection threshold Ty1 is obtained as the height range h1 of the character area. In the vertical projection graph Gx1, areas where the integrated value is equal to or greater than the vertical projection threshold Tx1 are obtained as the width ranges b11 and b12 of the character area.

すなわち、図9(a)の二値画像910に示すように、線幅が太いために、「A」の文字と「B」の文字とが重なってしまい、「A」の文字と「B」の文字との境界において、垂直投影グラフGx1が垂直投影閾値Tx1以上となってしまうため、幅範囲b11に「A」の文字と「B」の文字とが含まれてしまう結果となっている。このため、文字領域911aとして、「A」の文字と「B」の文字とを含む領域が設定され、これが切り出され
るため、文字認識処理が失敗することになる。
That is, as shown in the binary image 910 of FIG. 9A, since the line width is large, the letter “A” and the letter “B” overlap, and the letter “A” and the letter “B” overlap. Since the vertical projection graph Gx1 is equal to or greater than the vertical projection threshold value Tx1 at the boundary with the character, the character “A” and the character “B” are included in the width range b11. For this reason, an area including the characters “A” and “B” is set as the character area 911a and is cut out, so that the character recognition process fails.

これに対して、図9(b)に示すよう文字の線幅を適性な線幅とすれば、「A」の文字と、「B」の文字との重なりが解消されるため、「A」の文字に対応する文字領域901a、「B」の文字に対応する文字領域902a、及び、「C」の文字に対応する文字領域903aが適正に設定されて、文字認識処理が成功することになる。   On the other hand, if the line width of the character is an appropriate line width as shown in FIG. 9B, the overlap between the character “A” and the character “B” is eliminated. The character area 901a corresponding to the character “”, the character area 902 a corresponding to the character “B”, and the character area 903 a corresponding to the character “C” are appropriately set, and the character recognition process is successful. .

次に、図10、図11を参照して、失敗原因が文字の線幅の場合の失敗確率算出処理について説明する。図10は、図7に示すフローチャートのステップS205において、文字の線幅に起因した失敗確率P1を求める処理(以下、「失敗確率算出処理1」ともいう)の一例を示す詳細フローチャートである。図11は、図10のステップS301からステップS307において文字の線幅Bを求める方法の一例を示す説明図である。   Next, with reference to FIG. 10 and FIG. 11, a failure probability calculation process when the cause of failure is a line width of a character will be described. FIG. 10 is a detailed flowchart showing an example of a process for obtaining the failure probability P1 due to the line width of the character (hereinafter also referred to as “failure probability calculation process 1”) in step S205 of the flowchart shown in FIG. FIG. 11 is an explanatory diagram showing an example of a method for obtaining the line width B of a character in steps S301 to S307 in FIG.

まず、図11を参照して、文字の線幅Bを求める方法について説明する。図11(a)は、ここでは、図9(a)に示す二値画像910から切り出された「C」の文字に対応する文字領域912aの画像(以下、「文字画像」ともいう)である。まず、図11(a)に示す文字画像に対して、例えば、Sobelフィルタ(空間1次微分を計算して、輪郭を抽出するフィルタ)をかけることによって、図11(b)に示す、輪郭線画像(以下、「エッジ画像」ともいう)を生成する。   First, a method for obtaining the line width B of a character will be described with reference to FIG. FIG. 11A is an image of the character region 912a corresponding to the character “C” cut out from the binary image 910 shown in FIG. 9A (hereinafter also referred to as “character image”). . First, the contour line shown in FIG. 11B is applied to the character image shown in FIG. 11A by applying, for example, a Sobel filter (a filter for calculating a spatial first derivative and extracting the contour). An image (hereinafter also referred to as “edge image”) is generated.

次に、輪郭線画像の輪郭線上の各画素に対する法線ベクトルVnを求める。図11(b)には、法線ベクトルVnを矢印で示している。そして、求められた法線ベクトルVnの中から、向きが180度異なる(互いに対向する向きの)法線ベクトルVnのペア(対)を求める。例えば、図11(b)では、法線ベクトルVn1と法線ベクトルVn2とがペアとなり、法線ベクトルVn3と法線ベクトルVn4とがペアとして選定される。次いで、ペアに選定された2つの法線ベクトルの始点である画素間の距離を線幅B(例えば、線幅B1、B2)として求める。   Next, a normal vector Vn for each pixel on the contour line of the contour image is obtained. In FIG. 11B, the normal vector Vn is indicated by an arrow. Then, from the obtained normal vectors Vn, pairs of normal vectors Vn whose directions are different by 180 degrees (directions facing each other) are obtained. For example, in FIG. 11B, the normal vector Vn1 and the normal vector Vn2 are selected as a pair, and the normal vector Vn3 and the normal vector Vn4 are selected as a pair. Next, the distance between the pixels that are the starting points of the two normal vectors selected for the pair is obtained as a line width B (for example, line widths B1 and B2).

ここで、図10を参照して、文字の線幅Bに起因した失敗確率P1を求める手順を説明する。なお、以下の処理は、すべて原因評価部114によって実行される。また、以下の処理は図7に示すフローチャートのステップS205において実行される処理の一部である。まず、ステップS301において、文字画像(図11(a)参照)がエッジ画像(図11(b)参照)に変換される。そして、ステップS303において、文字の輪郭線に対する法線ベクトルVn(図11(b)参照)が求められる。   Here, with reference to FIG. 10, a procedure for obtaining the failure probability P1 due to the line width B of the character will be described. The following processing is all executed by the cause evaluation unit 114. The following process is a part of the process executed in step S205 of the flowchart shown in FIG. First, in step S301, a character image (see FIG. 11A) is converted into an edge image (see FIG. 11B). In step S303, a normal vector Vn (see FIG. 11B) for the outline of the character is obtained.

次いで、ステップS305において、法線方向が180度異なる2つの法線ベクトルVnのペアが求められる。そして、ステップS307において、ステップS305でペアとして選定された2つの法線ベクトルの始点間距離が線幅Bとして求められる。次に、ステップS309において、ステップS307で求められた線幅Bの平均値である平均線幅Bavが求められる。そして、ステップS311において、ステップS309で求められた平均線幅Bavと、推奨線幅B0(例えば、実験的に文字の認識率が最も高くなる線幅)との差が、差分線幅ΔBとして次の(2)式により求められる。   Next, in step S305, a pair of two normal vectors Vn whose normal directions are different by 180 degrees is obtained. In step S307, the distance between the start points of the two normal vectors selected as a pair in step S305 is obtained as the line width B. Next, in step S309, an average line width Bav, which is an average value of the line width B obtained in step S307, is obtained. In step S311, the difference between the average line width Bav obtained in step S309 and the recommended line width B0 (for example, the line width at which the character recognition rate becomes the highest experimentally) is set as the difference line width ΔB. (2).

ΔB=(Bav−B0) (2)
次に、ステップS313において、差分線幅ΔBの絶対値に重みW1を乗じることによって、失敗確率P1が次の(3)式により求められ、処理がリターンされる。
ΔB = (Bav−B0) (2)
Next, in step S313, the failure probability P1 is obtained by the following equation (3) by multiplying the absolute value of the difference line width ΔB by the weight W1, and the process is returned.

P1=W1×|ΔB| (3)
ここで、重みW1は、実験等によって求められるものである。このようにして、文字の認識が失敗した原因が文字の線幅である(文字が太すぎる、又は、文字が細すぎる)場合
に、予め設定された推奨線幅B0(例えば、実験的に文字の認識率が最も高くなる線幅)と、実際の文字の線幅の平均値(平均線幅)Bavと、の差である差分線幅ΔBの絶対値に重みW1を乗じて、失敗確率P1を評価することができる。このようにして、文字の認識が失敗する可能性の高さを定量的に示す失敗確率P1が評価されるため、文字の認識が失敗した原因を正確に推定することができるのである。
P1 = W1 × | ΔB | (3)
Here, the weight W1 is obtained by experiments or the like. In this manner, when the cause of character recognition failure is the line width of the character (the character is too thick or the character is too thin), a preset recommended line width B0 (for example, experimentally character Of the actual character line width (average line width) Bav, and multiplying the absolute value of the difference line width ΔB, which is the difference between the actual character line widths (average line width) Bav, by the weight W1 and the failure probability P1 Can be evaluated. In this way, since the failure probability P1 that quantitatively indicates the possibility of character recognition failure is evaluated, the cause of character recognition failure can be accurately estimated.

本実施形態では、平均線幅Bavを求める対象の文字を規定していない(すなわち、文字列に含まれる全ての文字の平均線幅Bavを求める形態でもよい)が、平均線幅Bavを求める対象の文字を認識成功文字とする形態でもよい。この場合には、文字認識が成功した文字に対して平均線幅Bavが求められるため、適正な平均線幅Bavを求めることができる。   In the present embodiment, the character for which the average line width Bav is to be obtained is not defined (that is, the average line width Bav of all characters included in the character string may be obtained), but the object for which the average line width Bav is to be obtained. The character may be a recognition success character. In this case, since the average line width Bav is obtained for a character that has been successfully recognized, an appropriate average line width Bav can be obtained.

次に、図12を参照して、失敗原因が文字の線幅の場合のパラメータ値修正処理について説明する。図12は、図7に示すフローチャートのステップS217において、選択された失敗原因が文字の線幅である場合にパラメータ値を修正する処理の一例を示す詳細フローチャートである。なお、以下の処理は、すべて処理修正部117によって実行される。また、以下の処理は、図7に示すフローチャートのステップS217において実行される処理の一部である。   Next, with reference to FIG. 12, the parameter value correction process when the cause of failure is the line width of a character will be described. FIG. 12 is a detailed flowchart illustrating an example of a process for correcting a parameter value when the selected failure cause is a line width of a character in step S217 of the flowchart illustrated in FIG. The following processing is all executed by the processing correction unit 117. The following process is a part of the process executed in step S217 of the flowchart shown in FIG.

まず、ステップS351において、図10に示すフローチャートのステップS311で求められた差分線幅ΔBが正であるか否かの判定が行われる。ステップS351でYESの場合には、処理がステップS353に進められる。ステップS351でNOの場合には、処理がステップS357に進められる。   First, in step S351, it is determined whether or not the difference line width ΔB obtained in step S311 of the flowchart shown in FIG. 10 is positive. If YES in step S351, the process proceeds to step S353. If NO in step S351, the process proceeds to step S357.

ステップS353において、失敗原因が文字の線幅Bが太すぎることであると判定される。そして、ステップS355において、差分線幅ΔBの絶対値分だけ、白膨張処理する回数を増加する(又は、黒膨張する回数を減少する)設定に修正され(パラメータが書き換えられ)、処理がリターンされる。   In step S353, it is determined that the cause of failure is that the line width B of the character is too thick. In step S355, the number of times of white expansion processing is increased (or the number of times of black expansion is decreased) by the absolute value of the difference line width ΔB (the parameter is rewritten), and the processing is returned. The

ステップS357において、失敗原因が文字の線幅Bが細すぎることであると判定される。そして、ステップS359において、差分線幅ΔBの絶対値分だけ、黒膨張処理する回数を増加する(又は、白膨張する回数を減少する)設定に修正され(パラメータが書き換えられ)、処理がリターンされる。   In step S357, it is determined that the cause of the failure is that the line width B of the character is too thin. In step S359, the number of times of black expansion processing is increased (or the number of times of white expansion is decreased) by the absolute value of the difference line width ΔB (the parameter is rewritten), and the processing is returned. The

このようにして、文字の認識が失敗した原因が文字の線幅Bである(文字が太すぎる、又は、文字が細すぎる)ことであると推定された場合には、予め設定された推奨線幅B0(例えば、実験的に文字の認識率が最も高くなる線幅)と、実際の文字の線幅の平均値(平均線幅)Bavと、の差である差分線幅ΔBの絶対値分だけ黒膨張処理又は白膨張処理を行う設定に修正すればよい。このようにして、推定された原因(ここでは、文字の線幅B)に対応する少なくとも1つのパラメータの値が修正されるため、画像処理を規定するパラメータを適正に調整することができる。   In this way, when it is estimated that the cause of the character recognition failure is the line width B of the character (the character is too thick or the character is too thin), a preset recommended line is set in advance. The absolute value of the difference line width ΔB, which is the difference between the width B0 (for example, the line width at which the character recognition rate becomes the highest experimentally) and the average value (average line width) Bav of the actual characters Only the black expansion process or the white expansion process needs to be corrected. In this way, since the value of at least one parameter corresponding to the estimated cause (here, the line width B of the character) is corrected, the parameter defining the image processing can be adjusted appropriately.

−失敗原因が文字列の回転である場合−
次に、図13〜図15を参照して、失敗原因が「文字列の回転」である場合の失敗確率算出処理及びパラメータ値修正処理について説明する。図13は、文字列の回転に起因して文字認識が失敗するケースの一例を示す説明図である。
-When the cause of failure is rotation of a character string-
Next, a failure probability calculation process and a parameter value correction process when the cause of failure is “rotation of character string” will be described with reference to FIGS. FIG. 13 is an explanatory diagram illustrating an example of a case where character recognition fails due to rotation of a character string.

図13(a)は、「ABC」との文字列が反時計回りに回転している場合の文字切出処理が失敗する状態を示す図である。図13(b)は、図13(a)に示す二値画像920(又は、二値画像920に対応する濃淡画像)に対して回転処理を施すことによって、文
字列を水平に並んだ状態とした二値画像900では適正に文字切出処理が行われる状態を示す図である。
FIG. 13A is a diagram illustrating a state where the character extraction process fails when the character string “ABC” rotates counterclockwise. FIG. 13B shows a state in which character strings are arranged horizontally by rotating the binary image 920 shown in FIG. 13A (or a grayscale image corresponding to the binary image 920). FIG. 10 is a diagram illustrating a state in which character extraction processing is appropriately performed in the binary image 900 that has been performed.

図13(a)には、反時計回りに回転している「ABC」との文字列921、922、923を含む二値画像920と、それに対応する水平投影グラフGy2、垂直投影グラフGx2が記載されている。水平投影グラフGy2において、積算値が水平投影閾値Ty2以上である領域が文字領域の高さ範囲h2として求められる。また、垂直投影グラフGx2において、積算値が垂直投影閾値Tx2以上である領域が文字領域の幅範囲b21、b22、b23として求められる。   FIG. 13A shows a binary image 920 including character strings 921, 922, and 923 “ABC” rotating counterclockwise, and a horizontal projection graph Gy2 and a vertical projection graph Gx2 corresponding thereto. Has been. In the horizontal projection graph Gy2, a region whose integrated value is equal to or greater than the horizontal projection threshold Ty2 is obtained as the height range h2 of the character region. In the vertical projection graph Gx2, areas where the integrated value is equal to or greater than the vertical projection threshold Tx2 are obtained as the width ranges b21, b22, and b23 of the character area.

すなわち、図13(a)の二値画像920に示すように、文字列921、922、923が反時計回りに回転しているために、高さ範囲h2が文字の高さと比較して過大となってしまうと共に、「A」、「B」、「C」にそれぞれ対応する文字921、922、923が反時計回りに回転しているため、切り出された文字領域921a、922a、923aの文字認識処理が失敗することになる。   That is, as shown in the binary image 920 in FIG. 13A, since the character strings 921, 922, and 923 are rotated counterclockwise, the height range h2 is excessive compared to the character height. Since the characters 921, 922, and 923 corresponding to “A”, “B”, and “C” respectively rotate counterclockwise, the character recognition of the cut character regions 921a, 922a, and 923a is performed. Processing will fail.

これに対して、図13(b)に示すよう文字列が水平に並んだ状態とすれば、高さ範囲h0が文字の高さと概ね同じ値となり、且つ、「A」、「B」、「C」にそれぞれ対応する文字921、922、923の回転が修正されるため、「A」の文字に対応する文字領域901a、「B」の文字に対応する文字領域902a、及び、「C」の文字に対応する文字領域903aが適正に設定されて、文字認識処理が成功することになる。   On the other hand, if the character strings are arranged horizontally as shown in FIG. 13B, the height range h0 is approximately the same as the character height, and “A”, “B”, “ Since the rotation of the characters 921, 922, and 923 respectively corresponding to “C” is corrected, the character region 901a corresponding to the character “A”, the character region 902a corresponding to the character “B”, and “C” The character area 903a corresponding to the character is properly set, and the character recognition process is successful.

次に、図14、図15を参照して、失敗原因が文字列の回転である場合の失敗確率算出処理について説明する。図14は、図7に示すフローチャートのステップS205において、文字列の回転に起因した失敗確率を求める処理(以下、「失敗確率算出処理2」ともいう)の一例を示す詳細フローチャートである。図15は、画像回転処理における回転角の修正値を求める方法の一例を示す説明図である。   Next, with reference to FIG. 14 and FIG. 15, a failure probability calculation process when the cause of failure is rotation of a character string will be described. FIG. 14 is a detailed flowchart showing an example of processing for obtaining a failure probability due to rotation of a character string (hereinafter also referred to as “failure probability calculation processing 2”) in step S205 of the flowchart shown in FIG. FIG. 15 is an explanatory diagram illustrating an example of a method for obtaining a correction value of the rotation angle in the image rotation process.

まず、図15を参照して、画像回転処理における回転角の修正量Δθを求める方法の一例について説明する。まず、各文字領域921a、922a、923aに含まれる黒画素の平均座標が求められる。例えば、文字領域921aに含まれる黒画素の座標を(Xi、Yi)(ここで、i=1、2、・・・、M:Mは、文字領域921aに含まれる黒画素の総数)とおくと、黒画素の平均座標(Xav,Yav)は、次の(3)式、(4)式で求められる。   First, an example of a method for obtaining the rotation angle correction amount Δθ in the image rotation process will be described with reference to FIG. First, the average coordinates of the black pixels included in each character area 921a, 922a, 923a are obtained. For example, the coordinates of the black pixels included in the character area 921a are (Xi, Yi) (where i = 1, 2,..., M: M is the total number of black pixels included in the character area 921a). Then, the average coordinates (Xav, Yav) of the black pixels are obtained by the following equations (3) and (4).

Xav=(X1+X2+・・・+XM)/M (3)
Yav=(Y1+Y2+・・・+YM)/M (4)
そして、各文字領域921a、922a、923aに含まれる黒画素の平均座標に対応する点PO1、PO2、PO3を求め、点PO1、PO2、PO3の近似直線LGを最小二乗法等により求める。近似直線LGの水平方向に対してなす角Δθが画像回転処理における回転角の修正量Δθである。
Xav = (X1 + X2 +... + XM) / M (3)
Yav = (Y1 + Y2 +... + YM) / M (4)
Then, the points PO1, PO2, and PO3 corresponding to the average coordinates of the black pixels included in the character regions 921a, 922a, and 923a are obtained, and the approximate straight line LG of the points PO1, PO2, and PO3 is obtained by the least square method or the like. An angle Δθ formed with respect to the horizontal direction of the approximate straight line LG is a rotation angle correction amount Δθ in the image rotation processing.

次に、図14を参照して、文字列の回転に起因した失敗確率P2を求める手順を説明する。なお、以下の処理は、すべて原因評価部114によって実行される。また、以下の処理は、図7に示すフローチャートのステップS205において実行される処理の一部である。   Next, with reference to FIG. 14, the procedure for obtaining the failure probability P2 due to the rotation of the character string will be described. The following processing is all executed by the cause evaluation unit 114. The following process is a part of the process executed in step S205 of the flowchart shown in FIG.

まず、ステップS401において、各文字の切り出し領域(図15では、文字領域921a、922a、923a)に含まれる黒画素の平均座標が求められる。そして、ステップS403において、ステップS401で求められた黒画素の平均座標に対応する点(図
15では、点PO1、PO2、PO3)の近似直線(図15では、近似直線LG)が最小二乗法により求められる。次いで、ステップS405において、ステップS403で求められた近似直線の水平方向に対してなす角Δθが、画像回転処理における回転角の修正量Δθとして求められる。そして、ステップS407において、失敗確率P2が、次の(5)式により求められ、処理がリターンされる。
First, in step S401, the average coordinates of black pixels included in each character cutout region (character regions 921a, 922a, and 923a in FIG. 15) are obtained. Then, in step S403, the approximate line (the approximate line LG in FIG. 15) corresponding to the average coordinates of the black pixels obtained in step S401 (the points PO1, PO2, and PO3 in FIG. 15) is obtained by the least square method. Desired. Next, in step S405, an angle Δθ formed with respect to the horizontal direction of the approximate straight line obtained in step S403 is obtained as a rotation angle correction amount Δθ in the image rotation process. In step S407, the failure probability P2 is obtained by the following equation (5), and the process is returned.

P2=W2×|Δθ| (5)
ここで、重みW2は、実験等によって求められるものである。このようにして、文字の認識が失敗した原因が文字列の回転である場合に、各文字の切り出し領域921a、922a、923aに含まれる黒画素の平均座標に対応する点PO1、PO2、PO3の近似直線LGの水平方向に対してなす角Δθ(修正量Δθ)の絶対値に重みW2を乗じて、失敗確率P2を評価することができる。このようにして、文字の認識が失敗する可能性の高さを定量的に示す失敗確率P2が評価されるため、文字の認識が失敗した原因を正確に推定することができるのである。
P2 = W2 × | Δθ | (5)
Here, the weight W2 is obtained by experiments or the like. In this way, when the cause of the character recognition failure is the rotation of the character string, the points PO1, PO2, and PO3 corresponding to the average coordinates of the black pixels included in the character cutout regions 921a, 922a, and 923a The failure probability P2 can be evaluated by multiplying the absolute value of the angle Δθ (correction amount Δθ) made with respect to the horizontal direction of the approximate straight line LG by the weight W2. In this way, the failure probability P2 that quantitatively indicates the possibility of character recognition failure is evaluated, so that the cause of character recognition failure can be accurately estimated.

次に、失敗原因が「文字列の回転」である場合に、パラメータ値を修正する処理の一例について説明する。上述のようにして、画像回転処理における回転角の修正量Δθが求められるため、現在の画像回転処理において設定された回転角θ0を回転角(θ0+Δθ)とする設定に修正すればよい。   Next, an example of processing for correcting a parameter value when the cause of failure is “rotation of character string” will be described. Since the rotation angle correction amount Δθ in the image rotation process is obtained as described above, the rotation angle θ0 set in the current image rotation process may be corrected to the setting of the rotation angle (θ0 + Δθ).

このようにして、文字の認識が失敗した原因が「文字列の回転」であると推定された場合には、画像回転処理において設定された回転角θ0を回転角(θ0+Δθ)とする設定に修正すればよい。このようにして、推定された原因(ここでは、文字列の回転)に対応する少なくとも1つのパラメータの値が修正されるため、画像処理を規定するパラメータを適正に調整することができる。   In this way, when it is estimated that the cause of character recognition failure is “rotation of character string”, the rotation angle θ0 set in the image rotation processing is corrected to the rotation angle (θ0 + Δθ). do it. In this way, since the value of at least one parameter corresponding to the estimated cause (here, the rotation of the character string) is corrected, the parameter defining the image processing can be adjusted appropriately.

−失敗原因が文字の滲み・擦れである場合−
また、図16〜図18を参照して、失敗原因が「文字の滲み・擦れ」である場合の失敗確率算出処理及びパラメータ値修正処理について説明する。図16は、文字の擦れに起因して文字認識が失敗するケースの一例を示す説明図である。
-When the cause of failure is bleeding or rubbing of characters-
In addition, with reference to FIGS. 16 to 18, the failure probability calculation process and the parameter value correction process when the failure cause is “character blur / rubbing” will be described. FIG. 16 is an explanatory diagram illustrating an example of a case where character recognition fails due to character rubbing.

図16(a)は、「ABC」との文字列を構成する文字のうち、「A」の文字の一部(ここでは、左側)が擦れている場合の文字切出処理が失敗する状態を示す図である。図16(b)は、図16(a)に示す二値画像930に対応する濃淡画像に対して2値化閾値を修正する(ここでは、2値化閾値を下げる)処理を施すことによって擦れを除去した二値画像900では適正に文字切出処理が行われる状態を示す図である。   FIG. 16A shows a state in which the character extraction process fails when a part of the character “A” (here, the left side) is rubbed among the characters constituting the character string “ABC”. FIG. FIG. 16B rubs by performing a process of correcting the binarization threshold (here, lowering the binarization threshold) on the grayscale image corresponding to the binary image 930 shown in FIG. FIG. 10 is a diagram illustrating a state in which character extraction processing is appropriately performed in the binary image 900 from which the characters are removed.

図16(a)には、「ABC」との文字列931、932、933を含む二値画像930と、それに対応する水平投影グラフGy3、垂直投影グラフGx3が記載されている。ここで、「ABC」との文字列931、932、933に含まれる「A」の文字931は、その一部(ここでは、左側)が擦れている。図16(a)では、「A」の文字931の一部(ここでは、左側)が擦れていることを、「A」の文字内における縦線の太さが次第に細くなることで示している。水平投影グラフGy3において、積算値が水平投影閾値Ty3以上である領域が文字領域の高さ範囲h3として求められる。また、垂直投影グラフGx3において、積算値が垂直投影閾値Tx3以上である領域が文字領域の幅範囲b31、b32、b33として求められる。   FIG. 16A shows a binary image 930 including character strings 931, 932, and 933 “ABC”, and a horizontal projection graph Gy3 and a vertical projection graph Gx3 corresponding thereto. Here, a part of the character 931 “A” included in the character strings 931, 932, and 933 “ABC” (here, the left side) is rubbed. In FIG. 16A, the fact that a part of the letter “A” 931 (here, the left side) is rubbing is indicated by the fact that the thickness of the vertical line in the letter “A” gradually becomes thinner. . In the horizontal projection graph Gy3, an area whose integrated value is equal to or greater than the horizontal projection threshold Ty3 is obtained as the height range h3 of the character area. Further, in the vertical projection graph Gx3, areas whose integrated values are equal to or greater than the vertical projection threshold Tx3 are obtained as the width ranges b31, b32, and b33 of the character area.

すなわち、図16(a)の二値画像930に示すように、「A」の文字931の一部が擦れているために、「A」の文字のうち、擦れが発生している左側の領域において、垂直投影グラフGx3が垂直投影閾値Tx3未満となってしまうため、切り出される文字領域
931aの幅範囲b31が「A」の文字の幅より狭くなってしまう結果となっている。すなわち、文字領域931aとして、擦れが発生していない右側の領域が設定され、これが切り出されるため、文字認識処理が失敗することになる。
That is, as shown in the binary image 930 in FIG. 16A, since a part of the letter “A” 931 is rubbing, the left area of the letter “A” in which rubbing has occurred. Since the vertical projection graph Gx3 is less than the vertical projection threshold Tx3, the width range b31 of the character region 931a to be cut out is smaller than the width of the character “A”. That is, as the character region 931a, the right region where no rubbing has occurred is set and cut out, and the character recognition process fails.

これに対して、図16(b)に示すよう2値化閾値を適性な値とすれば、「A」の文字の擦れが2値化処理において修正されるため、「A」の文字に対応する文字領域901a、「B」の文字に対応する文字領域902a、及び、「C」の文字に対応する文字領域903aが適正に設定されて、文字認識処理が成功することになる。   On the other hand, if the binarization threshold is set to an appropriate value as shown in FIG. 16B, the rubbing of the character “A” is corrected in the binarization process, so that it corresponds to the character “A”. The character area 901a, the character area 902a corresponding to the character “B”, and the character area 903a corresponding to the character “C” are set appropriately, and the character recognition process is successful.

次に、図17を参照して、失敗原因が文字の滲み・擦れであるの場合の失敗確率算出処理について説明する。図17は、図7に示すフローチャートのステップS205において、文字の滲み・擦れに起因した失敗確率P3を求める処理(以下、「失敗確率算出処理3」ともいう)の一例を示す詳細フローチャートである。   Next, with reference to FIG. 17, a failure probability calculation process in the case where the failure cause is character blurring or rubbing will be described. FIG. 17 is a detailed flowchart showing an example of a process for obtaining the failure probability P3 (hereinafter also referred to as “failure probability calculation process 3”) in step S205 of the flowchart shown in FIG.

ここで、図17を参照して、文字の文字の滲み・擦れに起因した失敗確率P3を求める手順を説明する。なお、以下の処理は、すべて原因評価部114によって実行される。また、以下の処理は、図7に示すフローチャートのステップS205において実行される処理の一部である。まず、ステップS501において、文字の認識が失敗した文字(ここでは、文字「A」)について、文字画像(図11(a)参照)がエッジ画像(図11(b)参照)に変換される。そして、ステップS503において、文字の輪郭線に対する法線ベクトルVn(図11(b)参照)が求められる。   Here, with reference to FIG. 17, a procedure for obtaining the failure probability P3 due to the blurring / rubbing of characters will be described. The following processing is all executed by the cause evaluation unit 114. The following process is a part of the process executed in step S205 of the flowchart shown in FIG. First, in step S501, a character image (see FIG. 11A) is converted into an edge image (see FIG. 11B) for a character that has failed to be recognized (here, the character “A”). In step S503, a normal vector Vn (see FIG. 11B) for the outline of the character is obtained.

次いで、ステップS505において、法線方向が180度異なる2つの法線ベクトルVnのペア(対)が求められる。そして、ステップS507において、ステップS505でペアに選定された2つの法線ベクトルの始点間距離が線幅Bとして求められる。次に、ステップS509において、ステップS507で求められた線幅Bの標準偏差σが求められる。そして、ステップS511において、失敗確率P3が、次の(6)式により求められ、処理がリターンされる。   Next, in step S505, a pair of two normal vectors Vn whose normal directions are different by 180 degrees is obtained. In step S507, the distance between the start points of the two normal vectors selected as a pair in step S505 is obtained as the line width B. Next, in step S509, the standard deviation σ of the line width B obtained in step S507 is obtained. In step S511, the failure probability P3 is obtained by the following equation (6), and the process is returned.

P2=W3×σ (6)
ここで、重みW3は、実験等によって求められるものである。このようにして、文字の認識が失敗した原因が文字の滲み・擦れである場合に、文字の線幅Bの標準偏差σに重みW3を乗じて、失敗確率P3を評価することができる。このようにして、文字の認識が失敗する可能性の高さを定量的に示す失敗確率P3が評価されるため、文字の認識が失敗した原因を正確に推定することができるのである。
P2 = W3 × σ (6)
Here, the weight W3 is obtained by experiment or the like. In this way, when the cause of character recognition failure is bleeding or rubbing of a character, the failure probability P3 can be evaluated by multiplying the standard deviation σ of the line width B of the character by the weight W3. In this way, the failure probability P3 that quantitatively indicates the high possibility of character recognition failure is evaluated, so that the cause of character recognition failure can be accurately estimated.

次に、図18を参照して、失敗原因が文字の滲み・擦れである場合のパラメータ値修正処理について説明する。図18は、図7に示すフローチャートのステップS215において、選択された失敗原因が文字の擦れ(又は、滲み)である場合にパラメータ値を修正する処理内容の一例を示す説明図である。なお、以下の処理は、すべて処理修正部117によって実行される。また、以下の処理は、図7に示すフローチャートのステップS217において実行される処理の一部である。   Next, with reference to FIG. 18, a parameter value correction process in the case where the cause of failure is blurring or rubbing of characters will be described. FIG. 18 is an explanatory diagram showing an example of the processing content for correcting the parameter value when the selected failure cause is character rubbing (or blurring) in step S215 of the flowchart shown in FIG. The following processing is all executed by the processing correction unit 117. The following process is a part of the process executed in step S217 of the flowchart shown in FIG.

まず、ステップS551において、文字認識が成功した文字(ここでは、文字「B」と文字「C」)の線幅の平均値B0が求められる。次に、ステップS553において、文字認識が失敗した文字(ここでは、文字「A」)の線幅の平均値B1が求められる。そして、ステップS555において、平均値B0が平均値B1未満であるか否かの判定が行われる。ステップS555でYESの場合には、処理がステップS557へ進められる。ステップS555でNOの場合には、処理がステップS561へ進められる。   First, in step S551, an average line width B0 of characters that have been successfully recognized (here, character “B” and character “C”) is obtained. Next, in step S553, the average value B1 of the line widths of the characters for which character recognition has failed (here, the character “A”) is obtained. Then, in step S555, it is determined whether or not the average value B0 is less than the average value B1. If YES in step S555, the process proceeds to step S557. If NO in step S555, the process proceeds to step S561.

ステップS557において、文字認識が失敗した原因は滲みであると判定される。そして、ステップS559において、2値化閾値の設定値TH0が次の(7)式によって求められる設定値TH1に修正され(パラメータが書き換えられ)、処理がリターンされる。   In step S557, it is determined that the cause of the character recognition failure is bleeding. In step S559, the binarization threshold setting value TH0 is corrected to the setting value TH1 obtained by the following equation (7) (the parameter is rewritten), and the process is returned.

TH1=TH0×(1+|B1−B0|/10) (7)
ステップS561において、文字認識が失敗した原因は擦れであると判定される。そして、ステップS563において、2値化閾値の設定値TH0が次の(8)式によって求められる設定値TH2に修正され(パラメータが書き換えられ)、処理がリターンされる。
TH1 = TH0 × (1+ | B1-B0 | / 10) (7)
In step S561, it is determined that the cause of character recognition failure is rubbing. In step S563, the binarization threshold setting value TH0 is corrected to the setting value TH2 obtained by the following equation (8) (the parameter is rewritten), and the process is returned.

TH2=TH0×(1−|B1−B0|/10) (8)
このようにして、文字の認識が失敗した原因が文字の擦れ(又は滲み)であると推定された場合には、予め設定された2値化閾値の設定値TH0を、設定値TH1(又は、設定値TH2)に修正すればよい。このようにして、推定された原因(ここでは、文字の擦れ、又は、滲み)に対応する少なくとも1つのパラメータの値が修正されるため、画像処理を規定するパラメータを適正に調整することができる。
TH2 = TH0 × (1- | B1-B0 | / 10) (8)
In this way, when it is estimated that the cause of character recognition failure is character rubbing (or blurring), the preset threshold value TH0 of the binarization threshold is set to the set value TH1 (or What is necessary is just to correct to setting value TH2). In this way, since the value of at least one parameter corresponding to the estimated cause (here, text rubbing or blurring) is corrected, the parameter defining the image processing can be adjusted appropriately. .

−失敗原因が低コントラストである場合−
また、図19、図20を参照して、失敗原因が「低コントラスト」である場合の失敗確率算出処理及びパラメータ値修正処理について説明する。図19は、低コントラストに起因して文字認識が失敗するケースの一例を示す説明図である。
-When the cause of failure is low contrast-
In addition, a failure probability calculation process and a parameter value correction process when the cause of failure is “low contrast” will be described with reference to FIGS. 19 and 20. FIG. 19 is an explanatory diagram illustrating an example of a case where character recognition fails due to low contrast.

図19(a)は、「ABC」との文字列を構成する文字のうち、「A」、「B」、「C」の各文字が低コントラストである場合に文字切出処理が失敗する状態を示す図である。図19(b)は、図19(a)に示す二値画像940に対応する濃淡画像に対して各画素のコントラストを調整する(ここでは、コントラストを上げる)処理を施した二値画像900では適正に文字切出処理が行われる状態を示す図である。   FIG. 19A shows a state in which character extraction processing fails when each of the characters “A”, “B”, and “C” has a low contrast among the characters constituting the character string “ABC”. FIG. FIG. 19B shows a binary image 900 obtained by performing a process of adjusting the contrast of each pixel (in this case, increasing the contrast) on the grayscale image corresponding to the binary image 940 shown in FIG. It is a figure which shows the state in which a character extraction process is performed appropriately.

図19(a)には、「ABC」との文字列941、942、943を含む二値画像940と、それに対応する水平投影グラフGy4、垂直投影グラフGx4が記載されている。ここで、「ABC」との文字列941、942、943に含まれる「A」、「B」、「C」の文字941、942、943は、その背景に対するコントラストが低い。図19(a)では、コントラストが低いことを、「A」、「B」、「C」の文字941、942、943に斜線を施すことで示している。水平投影グラフGy4において、積算値が水平投影閾値Ty4以上である領域が文字領域の高さ範囲h4として求められる。また、垂直投影グラフGx4において、積算値が垂直投影閾値Tx4以上である領域が文字領域の幅範囲b41、b42、b43として求められる。   FIG. 19A shows a binary image 940 including character strings 941, 942, 943 “ABC”, and a horizontal projection graph Gy4 and a vertical projection graph Gx4 corresponding to the binary image 940. Here, the characters 941, 942, and 943 of “A”, “B”, and “C” included in the character strings 941, 942, and 943 of “ABC” have a low contrast with the background. In FIG. 19A, the low contrast is indicated by hatching the letters 941, 942, and 943 of “A”, “B”, and “C”. In the horizontal projection graph Gy4, an area whose integrated value is equal to or greater than the horizontal projection threshold Ty4 is obtained as the height range h4 of the character area. Further, in the vertical projection graph Gx4, areas whose integrated values are equal to or greater than the vertical projection threshold Tx4 are obtained as the width ranges b41, b42, and b43 of the character area.

すなわち、図19(a)の二値画像940に示すように、「A」、「B」、「C」の文字941、942、943は、その背景に対するコントラストが低いために、「A」の文字のうち、両側の領域において、垂直投影グラフGx4が垂直投影閾値Tx4未満となってしまうため、切り出される文字領域941aの幅範囲b41が「A」の文字の幅より狭くなってしまう結果となっている。したがって、文字領域941aとして、中央部の領域が設定され、これが切り出されるため、文字認識処理が失敗することになる。   That is, as shown in the binary image 940 in FIG. 19A, the characters 941, 942, and 943 of “A”, “B”, and “C” have a low contrast with the background, so Since the vertical projection graph Gx4 is less than the vertical projection threshold Tx4 in the regions on both sides of the character, the width range b41 of the character region 941a to be cut out becomes narrower than the width of the character “A”. ing. Therefore, a central area is set as the character area 941a and is cut out, so that the character recognition process fails.

これに対して、図19(b)に示すようコントラスト調整を適性に行うと、濃淡画像のコントラストが適正な値に調整されるため、「A」の文字に対応する文字領域901a、「B」の文字に対応する文字領域902a、及び、「C」の文字に対応する文字領域903aが適正に設定されて、文字認識処理が成功することになる。   On the other hand, if the contrast adjustment is appropriately performed as shown in FIG. 19B, the contrast of the grayscale image is adjusted to an appropriate value, so that the character areas 901a and “B” corresponding to the character “A” are adjusted. The character area 902a corresponding to the character “” and the character area 903 a corresponding to the character “C” are appropriately set, and the character recognition process is successful.

次に、図20を参照して、失敗原因が低コントラストであるの場合の失敗確率算出処理
について説明する。図20は、図7に示すフローチャートのステップS205において、コントラストが低いことに起因した失敗確率を求める処理(以下、「失敗確率算出処理4」ともいう)の一例を示す詳細フローチャートである。
Next, a failure probability calculation process when the cause of failure is low contrast will be described with reference to FIG. FIG. 20 is a detailed flowchart illustrating an example of a process for obtaining a failure probability (hereinafter, also referred to as “failure probability calculation process 4”) due to low contrast in step S205 of the flowchart illustrated in FIG.

ここで、図20を参照して、コントラストが低いことに起因した失敗確率P4を求める手順を説明する。なお、以下の処理は、すべて原因評価部114によって実行される。また、以下の処理は、図7に示すフローチャートのステップS205において実行される処理の一部である。まず、ステップS601において、濃淡画像の画像領域内における画素値の最大値Imax及び最小値Iminが求められる。そして、ステップS603において、次の(9)式によって、コントラストCが求められる。   Here, with reference to FIG. 20, the procedure for obtaining the failure probability P4 due to the low contrast will be described. The following processing is all executed by the cause evaluation unit 114. The following process is a part of the process executed in step S205 of the flowchart shown in FIG. First, in step S601, the maximum value Imax and the minimum value Imin of the pixel value in the image area of the grayscale image are obtained. In step S603, the contrast C is obtained by the following equation (9).

C=(Imax−Imin)/(Imax+Imin) (9)
次いで、ステップS605において、次の(10)式によって、失敗確率P4が、求められ、処理がリターンされる。
C = (Imax−Imin) / (Imax + Imin) (9)
Next, in step S605, the failure probability P4 is obtained by the following equation (10), and the process is returned.

P4=W4×C (10)
ここで、重みW4は、実験等によって求められるものである。このようにして、文字の認識が失敗した原因が低コントラストである場合に、濃淡画像のコントラストCに重みW4を乗じて、失敗確率P4を評価することができる。このようにして、文字の認識が失敗する可能性の高さを定量的に示す失敗確率P4が評価されるため、文字の認識が失敗した原因を正確に推定することができるのである。
P4 = W4 × C (10)
Here, the weight W4 is obtained by experiments or the like. In this way, when the cause of character recognition failure is low contrast, the failure probability P4 can be evaluated by multiplying the contrast C of the grayscale image by the weight W4. In this way, since the failure probability P4 that quantitatively indicates the possibility of character recognition failure is evaluated, the cause of character recognition failure can be accurately estimated.

次に、失敗原因が低コントラストである場合のパラメータ値修正処理について説明する。濃淡画像の各画素の画素値Iを次の(11)式によって求められる画素値I’にコントラスト調整するように、コントラスト調整を規定するパラメータの値を修正する。   Next, parameter value correction processing when the cause of failure is low contrast will be described. The parameter value defining the contrast adjustment is modified so that the pixel value I of each pixel of the grayscale image is contrast-adjusted to the pixel value I ′ obtained by the following equation (11).

I’=(I−Imin)×(255/((Imax−Imin)) (11)
このようにして、文字の認識が失敗した原因が低コントラストであると推定された場合には、濃淡画像の各画素の画素値Iを、上記(11)式で規定する画素値I’に修正すればよい。このようにして、推定された原因(ここでは、低コントラスト)に対応する少なくとも1つのパラメータの値が修正されるため、画像処理を規定するパラメータを適正に調整することができる。
I ′ = (I−Imin) × (255 / ((Imax−Imin)) (11)
In this way, when it is estimated that the cause of character recognition failure is low contrast, the pixel value I of each pixel of the grayscale image is corrected to the pixel value I ′ defined by the above equation (11). do it. In this manner, since the value of at least one parameter corresponding to the estimated cause (here, low contrast) is corrected, the parameter defining the image processing can be adjusted appropriately.

−他の実施形態−
本実施形態では、画像処理装置100を構成する画像処理部111、成否受付部112、成否判定部113、原因評価部114、結果表示部115、原因推定部116、及び、処理修正部117がすべてCPU11において機能部として実現されている場合について説明したが、画像処理部111、成否受付部112、成否判定部113、原因評価部114、結果表示部115、原因推定部116、及び、処理修正部117の少なくとも1つが電子回路等のハードウェアで構成されている形態でもよい。
-Other embodiments-
In the present embodiment, the image processing unit 111, the success / failure reception unit 112, the success / failure determination unit 113, the cause evaluation unit 114, the result display unit 115, the cause estimation unit 116, and the process correction unit 117 that constitute the image processing apparatus 100 are all included. Although the case where the CPU 11 is realized as a function unit has been described, the image processing unit 111, the success / failure reception unit 112, the success / failure determination unit 113, the cause evaluation unit 114, the result display unit 115, the cause estimation unit 116, and the process correction unit At least one of 117 may be configured by hardware such as an electronic circuit.

本実施形態では、失敗確率算出処理及びパラメータ値修正処理については、便宜上、文字の認識が失敗した原因が、文字の線幅、文字列の回転、文字の擦れ・滲み、及び、低コントラストである場合について、具体的な説明を行っているが、文字の認識が失敗した原因が、その他の原因(例えば、文字のサイズ(小さすぎる、大きすぎる)等)であってもよい。   In the present embodiment, for the failure probability calculation process and the parameter value correction process, for the sake of convenience, the cause of character recognition failure is character line width, character string rotation, character rubbing / bleeding, and low contrast. Although the specific description is given about the case, the cause of the failure in character recognition may be other causes (for example, the size of the character (too small or too large)).

本発明は、認識対象部位を含む物体を撮像して得られる画像に対して予め定められた画像処理を施して、前記認識対象部位を認識する画像処理装置、画像処理方法、及び、画像
処理プログラムに利用することができる。また、本発明は、認識対象部位を含む波形データに対して予め定められた認識処理を施して、前記認識対象部位を認識する波形データ処理装置に利用することができる。
The present invention provides an image processing apparatus, an image processing method, and an image processing program that perform predetermined image processing on an image obtained by imaging an object including a recognition target part to recognize the recognition target part. Can be used. In addition, the present invention can be used for a waveform data processing apparatus that recognizes the recognition target part by performing a predetermined recognition process on the waveform data including the recognition target part.

100 画像処理装置
1 画像処理装置本体
11 CPU
111 画像処理部
112 成否受付部(成否受付手段)
113 成否判定部(成否判定手段)
114 原因評価部(原因評価手段)
115 結果表示部(結果表示手段)
116 原因推定部(原因推定手段)
117 処理修正部(処理修正手段)
12 EEPROM
121 パラメータ記憶部
13 RAM
14 画像メモリ
15 変換器
16 変換器
17 入出力部
2 カメラ
3 モニタ(画像表示手段)
4 入力装置(操作受付手段)
5 製品
6 コンベア
DESCRIPTION OF SYMBOLS 100 Image processing apparatus 1 Image processing apparatus main body 11 CPU
111 Image processing unit 112 Success / failure acceptance unit (success / failure acceptance unit)
113 Success / failure determination unit (success / failure determination means)
114 Cause evaluation section (cause evaluation means)
115 result display section (result display means)
116 Cause estimation unit (cause estimation means)
117 Process Correction Unit (Process Correction Unit)
12 EEPROM
121 Parameter storage unit 13 RAM
14 Image memory 15 Converter 16 Converter 17 Input / output unit 2 Camera 3 Monitor (Image display means)
4 Input device (operation receiving means)
5 Products 6 Conveyors

Claims (11)

認識対象部位を含む物体を撮像して得られる画像に対して予め定められた画像処理を施して、前記認識対象部位を認識する画像処理装置であって、
前記認識対象部位の認識が失敗したか否かを判定する成否判定手段と、
前記成否判定手段によって前記認識対象部位の認識が失敗したと判定された場合に、前記認識対象部位の認識が失敗した原因を推定する原因推定手段と、
前記原因推定手段によって推定された原因に基づいて、前記画像処理を規定する複数のパラメータのうち、前記推定された原因に対応する少なくとも1つのパラメータの値を修正する処理修正手段と、を備えることを特徴とする画像処理装置。
An image processing apparatus that performs predetermined image processing on an image obtained by imaging an object including a recognition target part and recognizes the recognition target part,
Success / failure determination means for determining whether or not recognition of the recognition target portion has failed;
When it is determined by the success / failure determination unit that the recognition of the recognition target part has failed, cause estimation means for estimating the cause of the recognition target part recognition failure;
Processing correction means for correcting a value of at least one parameter corresponding to the estimated cause among a plurality of parameters defining the image processing based on the cause estimated by the cause estimating means. An image processing apparatus.
請求項1に記載の画像処理装置において、
外部からの操作入力を受け付ける操作受付手段と、
前記認識対象部位の認識が成功したか否かの判定結果を示す操作入力を、前記操作受付手段を介して受け付ける成否受付手段と、を更に備え、
前記成否判定手段は、前記成否受付手段によって受け付けられた操作入力に基づいて、前記認識対象部位の認識が失敗したか否かを判定することを特徴とする画像処理装置。
The image processing apparatus according to claim 1.
Operation accepting means for accepting external operation input;
A success / failure accepting unit for accepting an operation input indicating a determination result of whether or not the recognition of the recognition target part has been successful through the operation accepting unit;
The image processing apparatus, wherein the success / failure determination unit determines whether or not recognition of the recognition target part has failed based on an operation input received by the success / failure reception unit.
請求項1又は請求項2に記載の画像処理装置において、
前記成否判定手段によって前記認識対象部位の認識が失敗したと判定された場合に、予め設定された複数の原因ごとに、前記認識対象部位の認識が失敗する可能性の高さを定量的に示す失敗確率として評価する原因評価手段を更に備え、
前記原因推定手段は、前記原因評価手段によって評価された失敗確率に基づいて、前記認識対象部位の認識が失敗した原因を推定することを特徴とする画像処理装置。
The image processing apparatus according to claim 1 or 2,
When it is determined by the success / failure determination means that the recognition of the recognition target part has failed, the possibility of the recognition target part recognition failing is quantitatively indicated for each of a plurality of preset causes. Further comprising a cause evaluation means for evaluating as a failure probability,
The image processing apparatus according to claim 1, wherein the cause estimating means estimates a cause of failure in recognition of the recognition target part based on a failure probability evaluated by the cause evaluating means.
請求項3に記載の画像処理装置において、
外部から視認可能に画像を表示する画像表示手段と、
前記複数の原因のうち、前記原因評価手段によって失敗確率が高いと評価された順に、予め設定された2以上の所定個数の原因を示す文字又は画像を、前記画像表示手段に表示させる結果表示手段と、を更に備えることを特徴とする画像処理装置。
The image processing apparatus according to claim 3.
Image display means for displaying an image so as to be visible from outside;
Among the plurality of causes, a result display unit that causes the image display unit to display characters or images indicating a predetermined number of two or more preset causes in the order in which the cause evaluation unit evaluates that the failure probability is high. And an image processing apparatus.
請求項4に記載の画像処理装置において、
前記結果表示手段は、前記2以上の所定個数の原因に対応付けて、前記原因評価手段によって評価された失敗確率の値を示す文字又は画像を、前記画像表示手段に表示させることを特徴とする画像処理装置。
The image processing apparatus according to claim 4.
The result display means causes the image display means to display a character or an image indicating a failure probability value evaluated by the cause evaluation means in association with the two or more predetermined number of causes. Image processing device.
請求項4又は請求項5に記載の画像処理装置において、
前記原因推定手段は、前記結果表示手段によって前記画像表示手段に表示された前記2以上の所定個数の原因の中から、1つの前記認識対象部位の認識が失敗した原因を選択する選択入力を、前記操作受付手段を介して受け付けて、選択された原因を前記認識対象部位の認識が失敗した原因であると推定することを特徴とする画像処理装置。
The image processing apparatus according to claim 4 or 5,
The cause estimating means is a selection input for selecting a cause of the recognition failure of one recognition target part from the two or more predetermined number of causes displayed on the image display means by the result display means, An image processing apparatus that receives via the operation accepting means and estimates that the selected cause is a cause of failure in recognition of the recognition target part.
請求項3から請求項6のいずれか1つに記載の画像処理装置において、
前記処理修正手段は、前記原因推定手段によって前記認識対象部位の認識が失敗した原因であると推定された原因について、前記原因評価手段によって評価された失敗確率が大きい程、前記推定された原因に対応する少なくとも1つのパラメータの値を大幅に修正することを特徴とする画像処理装置。
The image processing apparatus according to any one of claims 3 to 6,
The processing correction means, for the cause estimated to be the cause of the recognition failure of the recognition target part by the cause estimation means, the greater the failure probability evaluated by the cause evaluation means, An image processing apparatus characterized by significantly correcting a value of at least one corresponding parameter.
請求項1から請求項7のいずれか1つに記載の画像処理装置において、
前記認識対象部位は、前記物体の表面に形成された文字であることを特徴とする画像処
理装置。
In the image processing device according to any one of claims 1 to 7,
The image processing apparatus, wherein the recognition target part is a character formed on a surface of the object.
認識対象部位を含む波形データに対して予め定められた認識処理を施して、前記認識対象部位を認識する波形データ処理装置であって、
前記認識対象部位の認識が失敗したか否かを判定する成否判定手段と、
前記成否判定手段によって前記認識対象部位の認識が失敗したと判定された場合に、前記認識対象部位の認識が失敗した原因を推定する原因推定手段と、
前記原因推定手段によって推定された原因に基づいて、前記認識処理を規定する複数のパラメータのうち、前記推定された原因に対応する少なくとも1つのパラメータの値を修正する処理修正手段と、を備えることを特徴とする波形データ処理装置。
A waveform data processing device that performs a predetermined recognition process on waveform data including a recognition target part and recognizes the recognition target part,
Success / failure determination means for determining whether or not recognition of the recognition target portion has failed;
When it is determined by the success / failure determination unit that the recognition of the recognition target part has failed, cause estimation means for estimating the cause of the recognition target part recognition failure;
Processing correction means for correcting a value of at least one parameter corresponding to the estimated cause among a plurality of parameters defining the recognition process based on the cause estimated by the cause estimating means. A waveform data processing apparatus characterized by the above.
認識対象部位を含む物体を撮像して得られる画像に対して予め定められた画像処理を施して、前記認識対象部位を認識する画像処理方法であって、
前記認識対象部位の認識が失敗したか否かを判定する成否判定ステップと、
前記成否判定ステップにおいて前記認識対象部位の認識が失敗したと判定された場合に、前記認識対象部位の認識が失敗した原因を推定する原因推定ステップと、
前記原因推定ステップにおいて推定された原因に基づいて、前記画像処理を規定する複数のパラメータのうち、前記推定された原因に対応する少なくとも1つのパラメータの値を修正する処理修正ステップと、を実行することを特徴とする画像処理方法。
An image processing method for recognizing the recognition target part by performing predetermined image processing on an image obtained by imaging an object including the recognition target part,
Success / failure determination step for determining whether or not recognition of the recognition target part has failed,
If it is determined in the success / failure determination step that the recognition of the recognition target part has failed, a cause estimation step for estimating the cause of the recognition target part recognition failure;
A process correcting step of correcting a value of at least one parameter corresponding to the estimated cause among a plurality of parameters defining the image processing based on the cause estimated in the cause estimating step; An image processing method.
認識対象部位を含む物体を撮像して得られる画像に対して予め定められた画像処理を施して、前記認識対象部位を認識する画像処理装置に配設されたコンピュータにおいて実行される画像処理プログラムであって、前記コンピュータを、
前記認識対象部位の認識が失敗したか否かを判定する成否判定手段と、
前記成否判定手段によって前記認識対象部位の認識が失敗したと判定された場合に、前記認識対象部位の認識が失敗した原因を推定する原因推定手段と、
前記原因推定手段によって推定された原因に基づいて、前記画像処理を規定する複数のパラメータのうち、前記推定された原因に対応する少なくとも1つのパラメータの値を修正する処理修正手段として機能させることを特徴とする画像処理プログラム。
An image processing program executed on a computer disposed in an image processing apparatus that performs predetermined image processing on an image obtained by imaging an object including a recognition target part and recognizes the recognition target part. And said computer
Success / failure determination means for determining whether or not recognition of the recognition target portion has failed;
When it is determined by the success / failure determination unit that the recognition of the recognition target part has failed, cause estimation means for estimating the cause of the recognition target part recognition failure;
Based on the cause estimated by the cause estimating means, functioning as a process correcting means for correcting a value of at least one parameter corresponding to the estimated cause among a plurality of parameters defining the image processing. A characteristic image processing program.
JP2011055805A 2011-03-14 2011-03-14 Image processing apparatus, image processing method, image processing program, and waveform data processing apparatus Active JP5782760B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011055805A JP5782760B2 (en) 2011-03-14 2011-03-14 Image processing apparatus, image processing method, image processing program, and waveform data processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011055805A JP5782760B2 (en) 2011-03-14 2011-03-14 Image processing apparatus, image processing method, image processing program, and waveform data processing apparatus

Publications (2)

Publication Number Publication Date
JP2012190422A true JP2012190422A (en) 2012-10-04
JP5782760B2 JP5782760B2 (en) 2015-09-24

Family

ID=47083463

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011055805A Active JP5782760B2 (en) 2011-03-14 2011-03-14 Image processing apparatus, image processing method, image processing program, and waveform data processing apparatus

Country Status (1)

Country Link
JP (1) JP5782760B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014116007A (en) * 2012-12-06 2014-06-26 Toyota Motor Engineering & Manufacturing North America Inc Object detection parameter, object recognition parameter and method and robot for adjusting object detection parameter and object recognition parameter
JP5950317B1 (en) * 2016-02-25 2016-07-13 有限会社Ics Sakabe Code recognition system, code recognition method, code recognition program, and package sorting system

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000246184A (en) * 1999-02-25 2000-09-12 Toshiba Corp Address specifying device
WO2006129711A1 (en) * 2005-05-31 2006-12-07 Nikon Corporation Evaluation system and evaluation method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000246184A (en) * 1999-02-25 2000-09-12 Toshiba Corp Address specifying device
WO2006129711A1 (en) * 2005-05-31 2006-12-07 Nikon Corporation Evaluation system and evaluation method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014116007A (en) * 2012-12-06 2014-06-26 Toyota Motor Engineering & Manufacturing North America Inc Object detection parameter, object recognition parameter and method and robot for adjusting object detection parameter and object recognition parameter
US10572774B2 (en) 2012-12-06 2020-02-25 Toyota Motor Engineering & Manufacturing North America. Inc. Methods and robots for adjusting object detection parameters, object recognition parameters, or both object detection parameters and object recognition parameters
JP5950317B1 (en) * 2016-02-25 2016-07-13 有限会社Ics Sakabe Code recognition system, code recognition method, code recognition program, and package sorting system

Also Published As

Publication number Publication date
JP5782760B2 (en) 2015-09-24

Similar Documents

Publication Publication Date Title
US20200210702A1 (en) Apparatus and method for image processing to calculate likelihood of image of target object detected from input image
US9613404B2 (en) Image processing method, image processing apparatus and electronic device
JP2019046095A (en) Information processing device, and control method and program for information processing device
EP2919167A2 (en) Image processing device, image processing method, and image processing program
US20080089588A1 (en) Rotation angle detection apparatus, and control method and control program of rotation angle detection apparatus
US20130315489A1 (en) Pattern processing device, pattern processing method, and pattern processing program
CN109035167B (en) Method, device, equipment and medium for processing multiple faces in image
CN108304243B (en) Interface generation method and device, computer equipment and storage medium
US11847757B2 (en) Systems and methods for lean ortho correction for computer models of structures
CN105761256B (en) The sub-pixel edge straight line acquisition methods and device of image
JP5782760B2 (en) Image processing apparatus, image processing method, image processing program, and waveform data processing apparatus
JP7106296B2 (en) Image processing device, image processing method and program
US11527067B2 (en) Electronic device, action instance generation method, and recording medium
WO2011033744A1 (en) Image processing device, image processing method, and program for processing image
JP2006343989A (en) Image processing device, image processing method, and image processing program
KR20200080409A (en) Apparatus for analyzing microstructure
CN113167568B (en) Coordinate calculation device, coordinate calculation method, and computer-readable recording medium
US9842406B2 (en) System and method for determining colors of foreground, and computer readable recording medium therefor
JP4798018B2 (en) Image matching device
CN110310235B (en) Fundus image processing method, device and equipment and storage medium
CN113643265A (en) Quality grade determination method, device, equipment and medium based on artificial intelligence
JP2011048469A (en) Image processing device, image processing method, and image processing program
CN112508925A (en) Electronic lock panel quality detection method, system, computer device and storage medium
US20220114773A1 (en) Generation system and generation method for perspective image
CN110288662A (en) Display detection method and system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140313

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141209

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150203

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150623

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150706

R150 Certificate of patent or registration of utility model

Ref document number: 5782760

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250