JP2012190422A - Image processing device, image processing method, image processing program, and waveform data processing device - Google Patents
Image processing device, image processing method, image processing program, and waveform data processing device Download PDFInfo
- Publication number
- JP2012190422A JP2012190422A JP2011055805A JP2011055805A JP2012190422A JP 2012190422 A JP2012190422 A JP 2012190422A JP 2011055805 A JP2011055805 A JP 2011055805A JP 2011055805 A JP2011055805 A JP 2011055805A JP 2012190422 A JP2012190422 A JP 2012190422A
- Authority
- JP
- Japan
- Prior art keywords
- cause
- recognition
- failure
- character
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012545 processing Methods 0.000 title claims abstract description 238
- 238000003672 processing method Methods 0.000 title claims description 12
- 238000000034 method Methods 0.000 claims abstract description 212
- 238000012937 correction Methods 0.000 claims description 47
- 238000011156 evaluation Methods 0.000 claims description 30
- 238000003384 imaging method Methods 0.000 claims description 9
- 230000001105 regulatory effect Effects 0.000 abstract 2
- 238000010586 diagram Methods 0.000 description 29
- 230000008602 contraction Effects 0.000 description 19
- 239000013598 vector Substances 0.000 description 15
- 238000000605 extraction Methods 0.000 description 10
- 239000000047 product Substances 0.000 description 10
- 230000006870 function Effects 0.000 description 6
- 230000000740 bleeding effect Effects 0.000 description 4
- 238000002474 experimental method Methods 0.000 description 4
- 238000007781 pre-processing Methods 0.000 description 4
- 238000005520 cutting process Methods 0.000 description 3
- FFBHFFJDDLITSX-UHFFFAOYSA-N benzyl N-[2-hydroxy-4-(3-oxomorpholin-4-yl)phenyl]carbamate Chemical compound OC1=C(NC(=O)OCC2=CC=CC=C2)C=CC(=C1)N1CCOCC1=O FFBHFFJDDLITSX-UHFFFAOYSA-N 0.000 description 2
- 230000003247 decreasing effect Effects 0.000 description 2
- 238000003825 pressing Methods 0.000 description 2
- 230000004397 blinking Effects 0.000 description 1
- 239000003990 capacitor Substances 0.000 description 1
- 239000000428 dust Substances 0.000 description 1
- 235000012055 fruits and vegetables Nutrition 0.000 description 1
- 230000012447 hatching Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000002994 raw material Substances 0.000 description 1
- 235000014102 seafood Nutrition 0.000 description 1
- 239000011265 semifinished product Substances 0.000 description 1
- 208000024891 symptom Diseases 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Character Discrimination (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、認識対象部位を含む物体を撮像して得られる画像に対して予め定められた画像処理を施して、前記認識対象部位を認識する画像処理装置、画像処理方法、及び、画像処理プログラムに関する。また、本発明は、認識対象部位を含む波形データに対して予め定められた認識処理を施して、前記認識対象部位を認識する波形データ処理装置に関する。 The present invention provides an image processing apparatus, an image processing method, and an image processing program that perform predetermined image processing on an image obtained by imaging an object including a recognition target part to recognize the recognition target part. About. The present invention also relates to a waveform data processing apparatus that recognizes the recognition target part by performing a predetermined recognition process on the waveform data including the recognition target part.
従来、認識対象部位を含む物体を撮像して得られる画像に対して予め定められた画像処理を施して、前記認識対象部位を認識する種々の技術が提案されている。 Conventionally, various techniques for recognizing the recognition target part by performing predetermined image processing on an image obtained by imaging an object including the recognition target part have been proposed.
例えば、スキャンした原稿画像(文書画像ともいう)を文字認識処理して文字コードを生成し、次に文字コードに基づいて文字画像を生成し、次に、生成された文字画像と原稿画像から切り出したオリジナルの文字画像とを比較して類似度を出力し、類似度に基づいて認識結果の正誤を判定し、誤認識のある文字の部分を含む原稿画像を取り出し、当該誤認識のある文字画像の座標データに基づいて、誤認識のある文字画像をハイライトさせた出力画像データを生成してユーザに表示する文字認識装置が開示されている(特許文献1参照)。 For example, character recognition processing is performed on a scanned document image (also referred to as a document image) to generate a character code, a character image is generated based on the character code, and then the generated character image and the document image are cut out. The original character image is compared to output the similarity, the correctness of the recognition result is determined based on the similarity, the original image including the erroneously recognized character portion is taken out, and the erroneously recognized character image A character recognition device is disclosed that generates output image data in which a character image with erroneous recognition is highlighted based on the coordinate data and displays it to the user (see Patent Document 1).
オペレータ(正誤判定者)は、すべての文書においてすべての領域で文字認識結果の正誤を確認する必要があったが、特許文献1に記載の文字認識装置によれば、ハイライトされた文字のみを確認するだけでよいため、オペレータによる文字認識結果の正誤判定作業量を低減することができる。
The operator (correction determination person) needs to confirm the correctness of the character recognition result in all areas in all documents. However, according to the character recognition device described in
しかしながら、上記特許文献1に記載の文字認識装置においては、オペレータ(正誤判定者)の正誤判定作業量を低減することができるものの、文字の認識率を高めるために、文字を認識する画像処理を規定するパラメータの調整を行うことは困難であった。
However, although the character recognition device described in
すなわち、物体の表面に形成された文字列を含む画像から、文字列を構成する各文字を認識するためには、種々の画像処理(例えば、回転処理、膨張・収縮処理、コントラスト調整処理、二値化処理等)を施す必要があるため、画像処理全体の処理内容を規定するパラメータの個数が多数(例えば、200個)となる。したがって、文字を認識する画像処理を規定するパラメータの適正な調整を行うことは、高度の知識を必要とする極めて困難な作業であった。 That is, in order to recognize each character constituting the character string from the image including the character string formed on the surface of the object, various image processing (for example, rotation processing, expansion / contraction processing, contrast adjustment processing, Therefore, the number of parameters defining the processing content of the entire image processing is large (for example, 200). Therefore, it is an extremely difficult task that requires a high degree of knowledge to appropriately adjust parameters that define image processing for recognizing characters.
本発明は、上記課題に鑑みてなされたものであって、認識対象部位を認識する画像処理(又は認識処理)を規定するパラメータの適正な調整を行うことの可能な画像処理装置、画像処理方法、画像処理プログラム、及び、波形データ処理装置を提供することを目的としている。 The present invention has been made in view of the above problems, and is an image processing apparatus and an image processing method capable of appropriately adjusting parameters that define image processing (or recognition processing) for recognizing a recognition target portion. An object of the present invention is to provide an image processing program and a waveform data processing device.
上記課題を解決するために、本発明に係る画像処理装置は、以下のように構成されている。 In order to solve the above problems, an image processing apparatus according to the present invention is configured as follows.
すなわち、本発明に係る画像処理装置は、認識対象部位を含む物体を撮像して得られる画像に対して予め定められた画像処理を施して、前記認識対象部位を認識する画像処理装置であって、前記認識対象部位の認識が失敗したか否かを判定する成否判定手段と、前記成否判定手段によって前記認識対象部位の認識が失敗したと判定された場合に、前記文字の認識が失敗した原因を推定する原因推定手段と、前記原因推定手段によって推定された原因に基づいて、前記画像処理を規定する複数のパラメータのうち、前記推定された原因に対応する少なくとも1つのパラメータの値を修正する処理修正手段と、を備えることを特徴としている。 That is, an image processing apparatus according to the present invention is an image processing apparatus that performs predetermined image processing on an image obtained by imaging an object including a recognition target part and recognizes the recognition target part. Success / failure determination means for determining whether or not recognition of the recognition target part has failed, and the reason why the recognition of the character has failed when the success / failure determination part determines that recognition of the recognition target part has failed Based on the cause estimated by the cause estimating means, a value of at least one parameter corresponding to the estimated cause among the plurality of parameters defining the image processing is corrected based on the cause estimated by the cause estimating means And a processing correction means.
かかる構成を備える画像処理装置によれば、認識対象部位の認識が失敗したか否かが判定され、認識対象部位の認識が失敗したと判定された場合に、前記認識対象部位の認識が失敗した原因が推定され、推定された原因に基づいて、前記認識対象部位を含む画像に対して施される画像処理を規定する複数のパラメータのうち、前記推定された原因に対応する少なくとも1つのパラメータの値が修正されるため、認識対象部位を認識する画像処理を規定するパラメータの適正な調整を行うことができる。 According to the image processing apparatus having such a configuration, it is determined whether or not recognition of the recognition target part has failed, and when it is determined that recognition of the recognition target part has failed, recognition of the recognition target part has failed. A cause is estimated, and at least one parameter corresponding to the estimated cause is selected from among a plurality of parameters that define image processing performed on an image including the recognition target part based on the estimated cause. Since the value is corrected, it is possible to appropriately adjust the parameter that defines the image processing for recognizing the recognition target part.
ここでは、認識対象部位が、例えば、文字列を構成する各文字である場合について説明する。すなわち、例えば、文字の認識が失敗した原因が文字の線幅である(文字が太すぎる、又は、文字が細すぎる)と推定された場合には、予め設定された推奨線幅B0(例えば、実験的に文字の認識率が最も高くなる線幅)と、実際の文字の線幅の平均値(平均線幅)Bavと、の差である差分線幅ΔBの絶対値分だけ黒膨張処理又は白膨張処理を行う設定に修正すればよい(図12参照)。このようにして、前記推定された原因に対応する少なくとも1つのパラメータの値が修正されるため、画像処理を規定するパラメータを適正に調整することができるのである。 Here, a case where the recognition target part is, for example, each character constituting a character string will be described. That is, for example, when it is estimated that the cause of character recognition failure is the line width of the character (the character is too thick or the character is too thin), a preset recommended line width B0 (for example, The black expansion process or the absolute value of the difference line width ΔB, which is the difference between the line width at which the character recognition rate is experimentally highest) and the average value of the actual character line width (average line width) Bav, or What is necessary is just to correct to the setting which performs a white expansion process (refer FIG. 12). In this way, since the value of at least one parameter corresponding to the estimated cause is corrected, the parameter defining the image processing can be adjusted appropriately.
また、例えば、文字の認識が失敗した原因が、文字列の回転であると推定された場合、文字の滲み(にじみ)又は擦れ(かすれ)であると推定された場合、文字のコントラストが低いことであると推定された場合にも、同様にして、推定された原因に対応する少なくとも1つのパラメータの値が修正される(図18参照)ため、画像処理を規定するパラメータを適正に調整することができるのである。 Also, for example, when it is estimated that the cause of the character recognition failure is rotation of the character string, or when it is estimated that the character is blurred or rubbed, the character contrast is low. In the same manner, since the value of at least one parameter corresponding to the estimated cause is corrected (see FIG. 18), the parameter that defines the image processing is appropriately adjusted. Can do it.
つまり、認識対象部位の認識が失敗する可能性のある原因ごとに、各原因に対応する少なくとも1つのパラメータの値を修正するためのロジック(手順、方法等)を予め構築しておくことによって、推定された原因に対応する少なくとも1つのパラメータの値を適正に修正する(図12、図18参照)ことができるため、画像処理を規定するパラメータを適正に調整することができるのである。 In other words, by constructing in advance a logic (procedure, method, etc.) for correcting the value of at least one parameter corresponding to each cause for each cause of the possibility that recognition of the recognition target part may fail, Since the value of at least one parameter corresponding to the estimated cause can be appropriately corrected (see FIGS. 12 and 18), the parameter defining the image processing can be adjusted appropriately.
また、本発明に係る画像処理装置は、外部からの操作入力を受け付ける操作受付手段と、前記認識対象部位の認識が成功したか否かの判定結果を示す操作入力を、前記操作受付手段を介して受け付ける成否受付手段と、を更に備え、前記成否判定手段が、前記成否受付手段によって受け付けられた操作入力に基づいて、前記認識対象部位の認識が失敗したか否かを判定することが好ましい。 The image processing apparatus according to the present invention includes an operation accepting unit that accepts an operation input from the outside, and an operation input indicating a determination result of whether or not the recognition target part has been successfully recognized via the operation accepting unit. It is preferable that the success / failure receiving means is further provided, and the success / failure determination means determines whether or not recognition of the recognition target portion has failed based on an operation input received by the success / failure reception means.
かかる構成を備える画像処理装置によれば、外部から(例えば、オペレータによって)認識対象部位の認識が成功したか否かの判定結果を示す操作入力が受け付けられ、認識対象部位の認識が失敗したか否かが、受け付けられた操作入力に基づいて判定されるため、
文字の認識が失敗したか否かの判定を簡素な構成で正確に行うことができる。
According to the image processing apparatus having such a configuration, whether an operation input indicating a determination result of whether or not the recognition target part has been successfully recognized from the outside (for example, by an operator) has been received and the recognition target part has failed to be recognized. Is determined based on the accepted operation input,
It is possible to accurately determine whether or not character recognition has failed with a simple configuration.
また、本発明に係る画像処理装置は、前記成否判定手段によって前記認識対象部位の認識が失敗したと判定された場合に、予め設定された複数の原因ごとに、前記認識対象部位の認識が失敗する可能性の高さを定量的に示す失敗確率として評価する原因評価手段を更に備え、前記原因推定手段が、前記原因評価手段によって評価された失敗確率に基づいて、前記文字の認識が失敗した原因を推定することが好ましい。 The image processing apparatus according to the present invention may fail to recognize the recognition target part for each of a plurality of preset causes when the success / failure determination unit determines that recognition of the recognition target part has failed. A cause evaluation unit that evaluates as a failure probability that quantitatively indicates a high probability of being performed, wherein the cause estimation unit fails to recognize the character based on the failure probability evaluated by the cause evaluation unit It is preferable to estimate the cause.
かかる構成を備える画像処理装置によれば、認識対象部位の認識が失敗したと判定された場合に、予め設定された複数の原因ごとに、前記認識対象部位の認識が失敗する可能性の高さを定量的に示す失敗確率が評価され、評価された失敗確率に基づいて、前記認識対象部位の認識が失敗した原因が推定されるため、前記失敗確率を正確に評価することによって、認識対象部位の認識が失敗した原因を正確に推定することができる。 According to the image processing apparatus having such a configuration, when it is determined that the recognition of the recognition target part has failed, there is a high possibility that the recognition of the recognition target part will fail for each of a plurality of preset causes. The failure probability that quantitatively indicates is evaluated, and the cause of the recognition failure of the recognition target portion is estimated based on the evaluated failure probability. Therefore, by accurately evaluating the failure probability, the recognition target portion It is possible to accurately estimate the cause of the recognition failure.
ここでは、認識対象部位が、例えば、文字列を構成する各文字である場合について説明する。すなわち、例えば、文字の認識が失敗した原因が文字の線幅である(文字が太すぎる、又は、文字が細すぎる)場合には、予め設定された推奨線幅B0(例えば、実験的に文字の認識率が最も高くなる線幅)と、実際の文字の線幅の平均値(平均線幅)Bavと、の差である差分線幅ΔBの絶対値に重みW1を乗じて、失敗確率P1(図10参照)を評価することができる。このようにして、文字の認識が失敗する可能性の高さを定量的に示す失敗確率P1が評価されるため、認識対象部位の認識が失敗した原因を正確に推定することができるのである。 Here, a case where the recognition target part is, for example, each character constituting a character string will be described. That is, for example, when the cause of the character recognition failure is the line width of the character (the character is too thick or the character is too thin), a preset recommended line width B0 (for example, experimentally Of the actual character line width (average line width) Bav, and multiplying the absolute value of the difference line width ΔB, which is the difference between the actual character line widths (average line width) Bav, by the weight W1 and the failure probability P1 (See FIG. 10) can be evaluated. In this way, since the failure probability P1 that quantitatively indicates the high possibility of character recognition failure is evaluated, the cause of the failure of recognition of the recognition target portion can be accurately estimated.
また、例えば、文字の認識が失敗した原因が、文字列の回転である場合、文字の滲み又は擦れである場合、文字のコントラストが低いことである場合にも、同様にして、失敗確率P2、P3、P4(図14、図17、図20参照)を評価することができるため、認識対象部位の認識が失敗した原因を正確に推定することができるのである。 Further, for example, when the cause of character recognition failure is rotation of a character string, blurring or rubbing of characters, or low contrast of characters, failure probability P2, Since P3 and P4 (see FIG. 14, FIG. 17, and FIG. 20) can be evaluated, it is possible to accurately estimate the cause of the recognition target region recognition failure.
つまり、認識対象部位の認識が失敗する可能性のある原因ごとに、各原因に起因する失敗確率Piの値を求めるためのロジック(手順、方法等)を予め構築しておくことによって、各原因に対応する失敗確率を求めて比較することができる(図7のステップS207等、図10、図14、図17、図20参照)ため、認識対象部位の認識が失敗した原因を正確に推定することができるのである。 That is, for each cause that may cause recognition target region recognition to fail, a logic (procedure, method, etc.) for obtaining the value of the failure probability Pi caused by each cause is constructed in advance, so that each cause Can be obtained and compared (see step S207 in FIG. 7, etc., see FIG. 10, FIG. 14, FIG. 17, and FIG. 20), so that the cause of the recognition failure of the recognition target portion can be accurately estimated. It can be done.
また、本発明に係る画像処理装置は、外部から視認可能に画像を表示する画像表示手段と、前記複数の原因のうち、前記原因評価手段によって失敗確率が高いと評価された順に、予め設定された2以上の所定個数の原因を示す文字又は画像を、前記画像表示手段に表示させる結果表示手段と、を更に備えることが好ましい。 Further, the image processing apparatus according to the present invention is set in advance in an order in which an image display means for displaying an image so as to be visible from the outside and the plurality of causes are evaluated as having a high failure probability by the cause evaluation means. It is preferable to further comprise a result display means for causing the image display means to display characters or images indicating the cause of two or more predetermined numbers.
かかる構成を備える画像処理装置によれば、複数の原因のうち、失敗確率が高いと評価された順に、予め設定された2以上の所定個数の原因を示す文字又は画像が、外部から視認可能に表示されるため、利便性を向上することができる。すなわち、例えば、オペレータが、LCD等に表示された原因を示す文字又は画像を参照して、認識対象部位の認識が失敗した原因を推定することができるため、認識対象部位の認識が失敗した原因を容易に推定することができるので、利便性を向上することができるのである。 According to the image processing apparatus having such a configuration, a character or an image indicating a predetermined number of two or more preset causes can be visually recognized from the outside in the order in which the failure probability is evaluated to be high among a plurality of causes. Since it is displayed, convenience can be improved. That is, for example, the operator can estimate the cause of the recognition target portion recognition failure by referring to the character or image indicating the cause displayed on the LCD or the like, so that the recognition target portion recognition failure Therefore, convenience can be improved.
また、本発明に係る画像処理装置は、前記結果表示手段が、前記2以上の所定個数の原因に対応付けて、前記原因評価手段によって評価された失敗確率の値を示す文字又は画像を、前記画像表示手段に表示させることが好ましい。 Further, in the image processing apparatus according to the present invention, the result display unit associates the two or more predetermined causes with a character or an image indicating a failure probability value evaluated by the cause evaluation unit, It is preferable to display on the image display means.
かかる構成を備える画像処理装置によれば、2以上の所定個数の原因に対応付けて、失敗確率の値を示す文字又は画像が、外部から視認可能に表示されるため、利便性を更に向上することができる。すなわち、例えば、オペレータが、LCD等に表示された原因を示す文字(又は画像)と、失敗確率の値を示す文字(又は画像)とを参照して、認識対象部位の認識が失敗した原因を推定することができるため、認識対象部位の認識が失敗した原因を更に容易に推定することができるので、利便性を更に向上することができるのである。 According to the image processing apparatus having such a configuration, the character or the image indicating the failure probability value is displayed so as to be visually recognized from the outside in association with a predetermined number of causes of two or more, thereby further improving convenience. be able to. That is, for example, the operator refers to the character (or image) indicating the cause displayed on the LCD or the like and the character (or image) indicating the failure probability value to determine the cause of the recognition failure of the recognition target part. Since it can be estimated, it is possible to more easily estimate the cause of the recognition failure of the recognition target part, and thus the convenience can be further improved.
また、本発明に係る画像処理装置は、前記原因推定手段が、前記結果表示手段によって前記画像表示手段に表示された前記2以上の所定個数の原因の中から、1つの前記認識対象部位の認識が失敗した原因を選択する選択入力を、前記操作受付手段を介して受け付けて、選択された原因を、前記認識対象部位の認識が失敗した原因であると推定することが好ましい。 Further, in the image processing apparatus according to the present invention, the cause estimating means recognizes one recognition target part from the two or more predetermined number of causes displayed on the image display means by the result display means. It is preferable that a selection input for selecting the cause of failure of the recognition is received via the operation receiving means, and the selected cause is estimated to be a cause of failure in recognition of the recognition target portion.
かかる構成を備える画像処理装置によれば、失敗確率が高いと評価されて表示された2以上の所定個数の原因の中から、1つの前記認識対象部位の認識が失敗した原因を選択する選択入力が受け付けられ、選択された原因が、認識対象部位の認識が失敗した原因であると推定されるため、認識対象部位の認識が失敗した原因を容易に推定することができる。 According to the image processing apparatus having such a configuration, a selection input for selecting a cause of failure in recognition of one recognition target portion from two or more predetermined number of causes that are evaluated and displayed as having a high probability of failure. Is accepted and the selected cause is presumed to be the cause of the recognition failure of the recognition target part, so the cause of the recognition target part recognition failure can be easily estimated.
また、本発明に係る画像処理装置は、前記処理修正手段が、前記原因推定手段によって前記文字の認識が失敗した原因であると推定された原因について、前記原因評価手段によって評価された失敗確率が大きい程、前記推定された原因に対応する少なくとも1つのパラメータの値を大幅に修正することが好ましい。 Further, the image processing apparatus according to the present invention has a failure probability evaluated by the cause evaluation unit for the cause in which the process correction unit is estimated to be the cause of the failure of the character recognition by the cause estimation unit. It is preferable that the larger the value, the larger the value of at least one parameter corresponding to the estimated cause.
かかる構成を備える画像処理装置によれば、認識対象部位の認識が失敗した原因であると推定された原因について、評価された失敗確率が大きい程、推定された原因に対応する少なくとも1つのパラメータの値が大幅に修正されるため、画像処理を規定するパラメータを適正に調整することができる。 According to the image processing apparatus having such a configuration, for a cause that is estimated to be a cause of failure in recognition of a recognition target part, the higher the estimated failure probability, the at least one parameter corresponding to the estimated cause. Since the value is significantly corrected, the parameters defining the image processing can be adjusted appropriately.
また、本発明に係る画像処理装置は、前記認識対象部位が、前記物体の表面に形成された文字であることが好ましい。 In the image processing apparatus according to the present invention, it is preferable that the recognition target part is a character formed on a surface of the object.
この場合には、物体の表面に形成された文字を認識する画像処理を規定するパラメータの適正な調整を行うことができる。 In this case, it is possible to appropriately adjust parameters that define image processing for recognizing characters formed on the surface of the object.
また、上記課題を解決するために、本発明に係る波形データ処理装置は、以下のように構成されている。 In order to solve the above problems, the waveform data processing apparatus according to the present invention is configured as follows.
すなわち、本発明に係る波形データ処理装置は、認識対象部位を含む波形データに対して予め定められた認識処理を施して、前記認識対象部位を認識する波形データ処理装置であって、前記認識対象部位の認識が失敗したか否かを判定する成否判定手段と、前記成否判定手段によって前記認識対象部位の認識が失敗したと判定された場合に、前記認識対象部位の認識が失敗した原因を推定する原因推定手段と、前記原因推定手段によって推定された原因に基づいて、前記認識処理を規定する複数のパラメータのうち、前記推定された原因に対応する少なくとも1つのパラメータの値を修正する処理修正手段と、を備えることを特徴としている。 That is, the waveform data processing apparatus according to the present invention is a waveform data processing apparatus that recognizes the recognition target part by performing a predetermined recognition process on the waveform data including the recognition target part, and the recognition target part A success / failure determination unit that determines whether or not the recognition of the part has failed; and when the success / failure determination unit determines that the recognition of the recognition target part has failed, the cause of the recognition failure of the recognition target part is estimated And a process correction for correcting a value of at least one parameter corresponding to the estimated cause among a plurality of parameters defining the recognition process based on the cause estimated by the cause estimation means Means.
かかる構成を備える画像処理装置によれば、認識対象部位の認識が失敗したか否かが判定され、認識対象部位の認識が失敗したと判定された場合に、前記認識対象部位の認識が
失敗した原因が推定され、推定された原因に基づいて、前記認識対象部位を含む波形データに対して施される認識処理を規定する複数のパラメータのうち、前記推定された原因に対応する少なくとも1つのパラメータの値が修正されるため、認識対象部位を認識する認識処理を規定するパラメータの適正な調整を行うことができる。
According to the image processing apparatus having such a configuration, it is determined whether or not recognition of the recognition target part has failed, and when it is determined that recognition of the recognition target part has failed, recognition of the recognition target part has failed. A cause is estimated, and at least one parameter corresponding to the estimated cause among a plurality of parameters defining a recognition process performed on the waveform data including the recognition target part based on the estimated cause Since the value of is corrected, it is possible to appropriately adjust the parameters that define the recognition process for recognizing the recognition target part.
また、上記課題を解決するために、本発明に係る画像処理方法は、以下のように構成されている。 In order to solve the above problems, an image processing method according to the present invention is configured as follows.
すなわち、本発明に係る画像処理方法は、認識対象部位を含む物体を撮像して得られる画像に対して予め定められた画像処理を施して、前記認識対象部位を認識する画像処理方法であって、前記認識対象部位の認識が失敗したか否かを判定する成否判定ステップと、前記成否判定ステップにおいて前記認識対象部位の認識が失敗したと判定された場合に、前記文字の認識が失敗した原因を推定する原因推定ステップと、前記原因推定ステップにおいて推定された原因に基づいて、前記画像処理を規定する複数のパラメータのうち、前記推定された原因に対応する少なくとも1つのパラメータの値を修正する処理修正ステップと、を実行することを特徴としている。 That is, the image processing method according to the present invention is an image processing method for recognizing the recognition target part by performing predetermined image processing on an image obtained by imaging an object including the recognition target part. A success / failure determination step for determining whether or not recognition of the recognition target part has failed, and a cause of failure in recognition of the character when it is determined in the success / failure determination step that recognition of the recognition target part has failed A cause estimation step of estimating the image processing, and a value of at least one parameter corresponding to the estimated cause among the plurality of parameters defining the image processing is corrected based on the cause estimated in the cause estimation step And a process correction step.
また、本発明に係る画像処理プログラムは、以下のように構成されている。 The image processing program according to the present invention is configured as follows.
すなわち、本発明に係る画像処理プログラムは、認識対象部位を含む物体を撮像して得られる画像に対して予め定められた画像処理を施して、前記文字列を構成する各文字を認識する画像処理装置に配設されたコンピュータにおいて実行される画像処理プログラムであって、前記コンピュータを、前記認識対象部位の認識が失敗したか否かを判定する成否判定手段と、前記成否判定手段によって前記認識対象部位の認識が失敗したと判定された場合に、前記認識対象部位の認識が失敗した原因を推定する原因推定手段と、前記原因推定手段によって推定された原因に基づいて、前記画像処理を規定する複数のパラメータのうち、前記推定された原因に対応する少なくとも1つのパラメータの値を修正する処理修正手段として機能させることを特徴としている。 That is, the image processing program according to the present invention performs predetermined image processing on an image obtained by imaging an object including a recognition target part, and recognizes each character constituting the character string. An image processing program executed by a computer disposed in the apparatus, wherein the computer is configured to determine whether the recognition of the recognition target portion has failed, and the recognition target by the success / failure determination unit. When it is determined that the recognition of the part has failed, the image processing is defined based on the cause estimated means for estimating the cause of the recognition failure of the recognition target part and the cause estimated by the cause estimating means. Functioning as a process correcting means for correcting a value of at least one parameter corresponding to the estimated cause among the plurality of parameters. It is a symptom.
かかる構成を備える画像処理方法及び画像処理プログラムによれば、認識対象部位の認識が失敗したか否かが判定され、認識対象部位の認識が失敗したと判定された場合に、前記認識対象部位の認識が失敗した原因が推定され、推定された原因に基づいて、前記文字列を含む画像に対して施される画像処理を規定する複数のパラメータのうち、前記推定された原因に対応する少なくとも1つのパラメータの値が修正されるため、認識対象部位を認識する画像処理を規定するパラメータの適正な調整を行うことができる。 According to the image processing method and the image processing program having such a configuration, it is determined whether or not recognition of a recognition target part has failed. When it is determined that recognition of a recognition target part has failed, the recognition target part The cause of the recognition failure is estimated, and at least one corresponding to the estimated cause among a plurality of parameters defining image processing performed on the image including the character string based on the estimated cause Since the values of the two parameters are corrected, it is possible to appropriately adjust the parameters that define the image processing for recognizing the recognition target part.
ここでは、認識対象部位が、例えば、文字列を構成する各文字である場合について説明する。すなわち、例えば、文字の認識が失敗した原因が文字の線幅である(文字が太すぎる、又は、文字が細すぎる)と推定された場合には、予め設定された推奨線幅B0(例えば、実験的に文字の認識率が最も高くなる線幅)と、実際の文字の線幅の平均値(平均線幅)Bavと、の差である差分線幅ΔBの絶対値分だけ黒膨張処理又は白膨張処理を行う設定に修正すればよい(図11参照)。このようにして、前記推定された原因に対応する少なくとも1つのパラメータの値が修正されるため、画像処理を規定するパラメータを適正に調整することができるのである。 Here, a case where the recognition target part is, for example, each character constituting a character string will be described. That is, for example, when it is estimated that the cause of character recognition failure is the line width of the character (the character is too thick or the character is too thin), a preset recommended line width B0 (for example, The black expansion process or the absolute value of the difference line width ΔB, which is the difference between the line width at which the character recognition rate is experimentally highest) and the average value of the actual character line width (average line width) Bav, or What is necessary is just to correct to the setting which performs a white expansion process (refer FIG. 11). In this way, since the value of at least one parameter corresponding to the estimated cause is corrected, the parameter defining the image processing can be adjusted appropriately.
また、例えば、文字の認識が失敗した原因が、文字列の回転であると推定された場合、文字の滲み又は擦れであると推定された場合、文字のコントラストが低いことであると推定された場合にも、同様にして、推定された原因に対応する少なくとも1つのパラメータの値が修正される(図17参照)ため、画像処理を規定するパラメータを適正に調整することができるのである。 Also, for example, when it is estimated that the cause of character recognition failure is rotation of the character string, or when it is estimated that the character is blurred or rubbed, it is estimated that the character contrast is low. In this case as well, since the value of at least one parameter corresponding to the estimated cause is similarly corrected (see FIG. 17), the parameter defining the image processing can be appropriately adjusted.
つまり、認識対象部位の認識が失敗する可能性のある原因ごとに、各原因に対応する少なくとも1つのパラメータの値を修正するためのロジック(手順、方法等)を構築しておくことによって、推定された原因に対応する少なくとも1つのパラメータの値を適正に修正する(図11、図17参照)ことができるため、画像処理を規定するパラメータを適正に調整することができるのである。 That is, for each cause that may cause recognition target region recognition to fail, it is estimated by building logic (procedure, method, etc.) for correcting the value of at least one parameter corresponding to each cause. Since the value of at least one parameter corresponding to the generated cause can be appropriately corrected (see FIGS. 11 and 17), the parameter defining the image processing can be adjusted appropriately.
本発明に係る画像処理装置、画像処理方法、画像処理プログラム、及び、波形データ処理装置によれば、認識対象部位の認識が失敗したか否かが判定され、認識対象部位の認識が失敗したと判定された場合に、前記認識対象部位の認識が失敗した原因が推定され、推定された原因に基づいて、前記文字列を含む画像に対して施される画像処理(又は、認識処理)を規定する複数のパラメータのうち、前記推定された原因に対応する少なくとも1つのパラメータの値が修正されるため、認識対象部位を認識する画像処理(又は、認識処理)を規定するパラメータの適正な調整を行うことができる。 According to the image processing device, the image processing method, the image processing program, and the waveform data processing device according to the present invention, it is determined whether or not recognition of the recognition target portion has failed, and recognition of the recognition target portion has failed. If it is determined, the cause of the recognition failure of the recognition target part is estimated, and based on the estimated cause, image processing (or recognition processing) to be performed on the image including the character string is specified. Among the plurality of parameters to be corrected, the value of at least one parameter corresponding to the estimated cause is corrected, so that an appropriate adjustment of a parameter that defines image processing (or recognition processing) for recognizing a recognition target region is performed. It can be carried out.
以下、本発明に係る画像処理装置、画像処理方法、及び、画像処理プログラムの実施形態を図面に基づいて説明する。 Embodiments of an image processing apparatus, an image processing method, and an image processing program according to the present invention will be described below with reference to the drawings.
−画像処理装置100の配設状態−
まず、図1を参照して、本発明に係る画像処理装置100が配設されている状態の一例について説明する。図1は、本発明に係る画像処理装置100の配設状態の一例を示す斜視図である。画像処理装置100は、例えば、製品5(物体)を製造する工場等において、製品5の表面(本実施形態では、CCDカメラ2と対向する側の面)に形成された複数の文字(例えば、アルファベット3文字)からなる文字列を含む画像に対して画像処理を施して、前記文字列を構成する各文字(認識対象部位)を認識するものである。
-Arrangement state of the image processing apparatus 100-
First, an example of a state in which the
本実施形態においては、製品5の表面に文字列が形成されている場合について説明するが、物体の表面に文字列が形成されている形態であればよい。例えば、果物、野菜等の農産物、魚介類等の海産物、IC(Integrated Circuit)、抵抗、コンデンサ等の部品、原材料、半製品等の表面に文字列が形成されている形態でもよい。
In the present embodiment, a case where a character string is formed on the surface of the
また、本実施形態においては、文字列が形成されている面が、平面状である場合について説明するが、文字列が形成されている面は、曲面であっても、凹凸があってもよい。 In the present embodiment, the case where the surface on which the character string is formed is planar will be described. However, the surface on which the character string is formed may be a curved surface or uneven. .
更に、本実施形態においては、認識対象部位が、文字である場合について説明するが、認識対象部位は、顔画像等の画像である形態でもよい。 Furthermore, in this embodiment, although the case where a recognition object site | part is a character is demonstrated, the form which is images, such as a face image, may be sufficient as a recognition object site | part.
図1に示すように、画像処理装置100は、画像処理装置本体1、CCDカメラ2、モニタ3、及び、入力装置4を備え、ここでは、製品5を搬送するコンベア6の近傍に配設されている。なお、画像処理装置100のうち、CCDカメラ2は、製品5の表面に形成された文字列を含む画像を生成するものであるから、コンベア6の近傍に配設することが好ましい。一方、画像処理装置本体1、モニタ3、及び、入力装置4は、コンベア6の近傍に配設する必要はない。例えば、画像処理装置本体1、モニタ3、及び、入力装置4は、画像処理装置100を操作するオペレータの部屋等の粉塵が少なく、且つ、温度が常温近傍に維持される場所に配設することが好ましい。
As shown in FIG. 1, the
画像処理装置本体1は、画像処理装置100全体の動作を制御するものである。画像処理装置本体1の具体的な構成については、図2を用いて後述する。
The image processing apparatus
CCD(Charge Coupled Device)カメラ2(以下、単に「カメラ2」ともいう)は、コンベア6上を搬送される各製品5の表面に形成された文字列を含む画像を順に撮像するものであって、レンズをコンベア6上の製品5に向けて配設されている。また、カメラ2によって生成された画像情報は、順次、画像処理装置本体1へ出力される。
A CCD (Charge Coupled Device) camera 2 (hereinafter also simply referred to as “
モニタ3(画像表示手段)は、画像処理装置本体1からの指示に従って、種々の画像を外部から視認可能に表示するものであって、例えば、LCD(Liquid Crystal Display)等を備えている。モニタ3には、例えば、カメラ2によって生成された画像情報、図8を参照して後述する結果表示画面800、810、及び、種々のガイダンス情報等が表示さ
れる。
The monitor 3 (image display means) displays various images so as to be visible from the outside in accordance with instructions from the image processing apparatus
入力装置4(操作受付手段)は、オペレータ等からの操作を受け付ける装置であって、キーボード、マウス等を備えている。なお、入力装置4によって受け付けられたオペレータの操作入力情報は、画像処理装置本体1へ出力される。
The input device 4 (operation receiving means) is a device that receives an operation from an operator or the like, and includes a keyboard, a mouse, and the like. The operator's operation input information received by the
−画像処理装置本体1の構成−
次に、図2を参照して、画像処理装置本体1の構成について説明する。図2は、本発明に係る画像処理装置本体1の構成の一例を示す構成図である。図2に示すように、画像処理装置本体1は、CPU11、EEPROM12、RAM13、画像メモリ14、A/D変換器15、D/A変換器16、及び、入出力部17を備えている。
-Configuration of image processing apparatus main body 1-
Next, the configuration of the image processing apparatus
CPU(Central Processing Unit)11(コンピュータ)は、画像処理装置本体1全体の動作を制御するものであって、図略のROM(Read Only Memory)又は、EEPROM12等に格納される制御プログラムを実行することによって、種々の処理を実行する。なお、本発明に係る画像処理プログラムは、上記の制御プログラムの一部に相当する。
A CPU (Central Processing Unit) 11 (computer) controls the overall operation of the image
EEPROM(Electrically Erasable Programmable Read-Only Memory)12は、書き換え可能な不揮発性メモリであって、図3を用いて後述するように、カメラ2によって生成された画像情報から文字を認識する画像処理に用いられる各種パラメータの値等を記憶するものである。RAM(Random Access Memory)は、CPU11での処理の結果、入力装置4から入力されたデータ等を一時的に記憶するメモリである。
An EEPROM (Electrically Erasable Programmable Read-Only Memory) 12 is a rewritable nonvolatile memory and is used for image processing for recognizing characters from image information generated by the
A/D変換器15は、カメラ2からのアナログの画像信号を取り込んで、ディジタルの画像情報に変換するものである。変換された濃淡画像情報は、画像メモリ14に記録される。ここでは、濃淡画像情報の各画素には、それぞれ、白色から黒色までの輝度の範囲に対応して、例えば256階調の濃淡を示す値(階調情報ともいう)が割り当てられている。すなわち、濃淡画像情報とは、画素ごとに対応付けられた階調情報である。
The A /
画像メモリ14は、種々の画像情報を記憶するメモリであって、A/D変換器15から出力された画像情報を記憶すると共に、文字認識の画像処理において2値化処理された画像情報(以下、二値画像ともいう)等を記憶する。D/A変換器16は、画像メモリ14に格納された画像情報を、アナログの表示用画像信号に変換してモニタ3に出力するものである。
The
入出力部17は、CPU11と入力装置4との間、及び、CPU11とモニタ3との間のデータの入出力処理を行うインターフェースである。
The input /
−CPU11の機能構成−
次に、図3を参照して、CPU11等の構成について説明する。図3は、図2に示すCPU11等の機能構成の一例を示す機能構成図である。CPU11は、図略のROM等に記憶された制御プログラム(本発明に係る画像処理プログラム)を読み出して実行することによって、機能的に、画像処理部111、成否受付部112、成否判定部113、原因評価部114、結果表示部115、原因推定部116、及び、処理修正部117等として機能する。また、CPU11は、図略のROM等に記憶された制御プログラム(本発明に係る画像処理プログラム)を読み出して実行することによって、EEPROM12を、機能的に、パラメータ記憶部121等として機能させる。
-Functional configuration of CPU 11-
Next, the configuration of the
画像処理部111は、カメラ2によって撮像され画像メモリ14に格納された濃淡画像情報から文字列を構成する各文字を認識する画像処理を行う機能部である。画像処理とし
ては、コントラスト調整処理、回転処理、2値化処理、膨張・収縮処理、投影処理、文字切出処理、文字認識処理等を含む。
The
コントラスト調整処理は、濃淡画像において、最も暗い部分と最も明るい部分の輝度の差を示すコントラストを調整する処理である。画像回転処理は、濃淡画像を、予め設定された向きに、予め設定された角度だけ回転する処理である。 The contrast adjustment process is a process for adjusting the contrast indicating the difference in luminance between the darkest part and the brightest part in the grayscale image. The image rotation process is a process of rotating the grayscale image in a preset direction by a preset angle.
膨張・収縮処理は、濃淡画像において文字の線幅を太くする(又は、細くする)処理である。文字の線幅を太くする処理が膨張処理(以下、「黒膨張処理」ともいう)であり、文字の線幅を細くする処理が収縮処理(以下、「白膨張処理」ともいう)である。なお、膨張・収縮処理については、図5を参照して後述する。 The expansion / contraction process is a process of increasing (or reducing) the line width of a character in a grayscale image. A process for increasing the line width of the character is an expansion process (hereinafter also referred to as “black expansion process”), and a process for reducing the line width of the character is a contraction process (hereinafter also referred to as “white expansion process”). The expansion / contraction process will be described later with reference to FIG.
2値化処理は、濃淡画像を、各画素の明るさが基準値(閾値)以上であるか否かに応じて、黒色と白色との2つの値に変換し、二値画像を生成する処理である。 The binarization process is a process for generating a binary image by converting a grayscale image into two values, black and white, depending on whether or not the brightness of each pixel is equal to or higher than a reference value (threshold value). It is.
投影処理は、二値画像において、水平方向の位置が同じ黒画素の個数を積算して、積算値の垂直方向の変化を示すグラフ(以下、「垂直投影グラフ」ともいう)を生成する垂直投影処理、及び、垂直方向の位置が同じ黒画素の個数を積算して、積算値の水平方向の変化を示すグラフ(以下、「水平投影グラフ」ともいう)を生成する水平投影処理である。 The projection processing is a vertical projection that accumulates the number of black pixels having the same horizontal position in a binary image to generate a graph indicating the change in the accumulated value in the vertical direction (hereinafter also referred to as “vertical projection graph”). This is a horizontal projection process in which the number of black pixels having the same vertical position is integrated to generate a graph indicating the change in the integrated value in the horizontal direction (hereinafter also referred to as “horizontal projection graph”).
文字切出処理は、投影処理によって得られた垂直投影グラフ及び水平投影グラフに対して閾値処理を施し、文字領域として切り出す処理である。なお、投影処理及び文字切出処理の詳細については、図6(c)を参照して後述する。 The character cutout process is a process of performing threshold processing on the vertical projection graph and the horizontal projection graph obtained by the projection process, and cutting out the character area. Details of the projection process and the character cut-out process will be described later with reference to FIG.
文字認識処理は、例えば、公知のパターンマッチング等の手法により、文字切出処理によって切り出された文字領域に含まれる文字が、如何なる文字であるかを認識する処理である。 The character recognition process is a process for recognizing what kind of character the character included in the character area cut out by the character cut-out process is, for example, by a known method such as pattern matching.
ここで、画像処理部111によって実行される画像処理の具体的な処理の手順及び内容について、図4〜図6を参照して以下に説明する。図4は、図3に示す画像処理部111の動作の一例を示すフローチャートである。なお、以下の処理はすべて、画像処理部111によって実行される。また、図4は、図7に示すフローチャートのステップS201において実行される画像処理の一例を示す詳細フローチャートでもある。
Here, specific procedures and contents of the image processing executed by the
まず、ステップS101において、画像メモリ14に格納された濃淡画像情報が取得される。そして、ステップS103において、ステップS101で取得された濃淡画像に対して、コントラスト調整処理、画像回転処理、膨張・収縮処理等の前処理が施される。次いで、ステップS105において、ステップS103で前処理が施された画像に対して2値化処理が施され、二値画像が生成される。
First, in step S101, grayscale image information stored in the
次にステップS107において、ステップS105で生成された二値画像に対して、垂直投影処理及び水平投影処理が施され、垂直投影グラフ及び水平投影グラフが生成される。そして、生成された垂直投影グラフ及び水平投影グラフに対して、それぞれ、予めパラメータ記憶部121に記憶されている垂直閾値及び水平閾値による閾値処理が施されて、各文字の文字幅及び文字列の高さが求められる。次いで、ステップS109において、ステップS107で求められた、各文字の文字幅及び文字列の高さに基づいて、二値画像から各文字画像が切り出される。次に、ステップS111において、ステップS109で切り出された文字画像ごとに、文字認識処理が行われ、処理が図7に示すフローチャートのステップS203へリターンされる。
Next, in step S107, vertical projection processing and horizontal projection processing are performed on the binary image generated in step S105 to generate a vertical projection graph and a horizontal projection graph. Then, the generated vertical projection graph and horizontal projection graph are respectively subjected to threshold processing based on the vertical threshold and the horizontal threshold stored in advance in the
−膨張・収縮処理の内容−
ここで、膨張・収縮処理の内容について説明する。図5は、図4に示すフローチャートのステップS103で実行される膨張・収縮処理の一例を示す説明図である。図5(a)は、膨張処理を説明する図であり、図5(b)は、収縮処理を説明する図である。図5(a)、図5(b)の上側の図が、膨張・収縮処理を施す前の状態を示す図であり、図5(a)、図5(b)の下側の図が、膨張・収縮処理を施した後の状態を示す図である。
-Details of expansion / contraction treatment-
Here, the contents of the expansion / contraction process will be described. FIG. 5 is an explanatory diagram showing an example of the expansion / contraction process executed in step S103 of the flowchart shown in FIG. FIG. 5A is a diagram illustrating the expansion process, and FIG. 5B is a diagram illustrating the contraction process. 5 (a) and 5 (b) are diagrams showing the state before the expansion / contraction process is performed, and the lower diagrams of FIG. 5 (a) and FIG. It is a figure which shows the state after giving an expansion / contraction process.
各図は、それぞれ、画素Q5の周囲に画素Q1〜画素Q4、及び、画素Q6〜画素Q9が、格子状に配列されている状態を示している。そして、画素Q1〜画素Q9に施した網掛けの密度で、それぞれ、画素Q1〜画素Q9の階調を表している。ここでは、便宜上、画素Q1〜画素Q9に4段階の階調が画像情報として付与されている場合について説明する。ここでは、4段階の階調をそれぞれ、階調A、階調B、階調C、階調Dとし、輝度は、次の(1)式で示す関係にあるものとする。 Each figure shows a state in which pixels Q1 to Q4 and pixels Q6 to Q9 are arranged in a grid around the pixel Q5. The gray levels of the pixels Q1 to Q9 are represented by the shaded densities applied to the pixels Q1 to Q9, respectively. Here, for convenience, a case will be described in which four levels of gradation are given as image information to the pixels Q1 to Q9. Here, it is assumed that the four levels of gradation are gradation A, gradation B, gradation C, and gradation D, respectively, and the luminance is in a relationship represented by the following equation (1).
(階調A)>(階調B)>(階調C)>(階調D) (1)
図5(a)に示すように、膨張処理を施す前は、画素Q3、Q5、Q8の画素値が、階調A(ここでは、白色)であって、画素Q4の画素値が、階調B(薄いグレー)であって、画素Q1、Q2、Q6の画素値が、階調C(ここでは、少し濃いグレー)であって、画素Q7、Q9が、階調D(ここでは、濃いグレー)である。
(Gradation A)> (Gradation B)> (Gradation C)> (Gradation D) (1)
As shown in FIG. 5A, before the expansion process is performed, the pixel values of the pixels Q3, Q5, and Q8 are the gradation A (in this case, white), and the pixel value of the pixel Q4 is the gradation. B (light gray), the pixel values of the pixels Q1, Q2, and Q6 are gradation C (here, slightly dark gray), and the pixels Q7 and Q9 are gradation D (here, dark gray) ).
そして、ここでは、画素Q5を注目画素(膨張・収縮処理が施される対象の画素)として選択する場合について説明する。本実施形態においては、注目画素(ここでは、画素Q5)の画素値が、注目画素の周囲に隣接する8画素(ここでは、画素Q1〜画素Q4、及び、画素Q6〜画素Q9)の画素値(ここでは、階調A,B,C,D)の中から最も小さい(輝度が低い)画素値(ここでは、階調D)に置換される。すなわち、図5(a)の階調Aの画素Q5に対して膨張処理を施すと、画素Q5の画素値は、図5(a)の下側の図に示すように、階調Dに変更されることになる。 Here, a case will be described in which the pixel Q5 is selected as a target pixel (a target pixel on which expansion / contraction processing is performed). In the present embodiment, the pixel value of the target pixel (here, pixel Q5) is the pixel value of eight pixels (here, pixel Q1 to pixel Q4 and pixel Q6 to pixel Q9) adjacent to the periphery of the target pixel. The pixel value (here, gradation D) is the smallest (low gradation) among the gradations (here, gradations A, B, C, D). That is, when the expansion process is performed on the pixel Q5 of the gradation A in FIG. 5A, the pixel value of the pixel Q5 is changed to the gradation D as shown in the lower diagram of FIG. Will be.
また、図5(b)に示すように、収縮処理を施す前は、画素Q7、Q8、Q9の画素値が、階調A(ここでは、白色)であって、画素Q4、Q5の画素値が、階調B(薄いグレー)であって、画素Q1、Q2、Q6の画素値が、階調C(ここでは、少し濃いグレー)であって、画素Q3が、階調D(ここでは、濃いグレー)である。 As shown in FIG. 5B, before the contraction process is performed, the pixel values of the pixels Q7, Q8, and Q9 are gradation A (here, white), and the pixel values of the pixels Q4 and Q5 are Is the gradation B (light gray), the pixel values of the pixels Q1, Q2, and Q6 are the gradation C (here, slightly dark gray), and the pixel Q3 is the gradation D (here, Dark gray).
そして、ここでは、画素Q5を注目画素(膨張・収縮処理が施される対象の画素)として選択する場合について説明する。本実施形態においては、注目画素(ここでは、画素Q5)の画素値が、注目画素の周囲に隣接する8画素(ここでは、画素Q1〜画素Q4、及び、画素Q6〜画素Q9)の画素値(ここでは、階調A,B,C,D)の中から最も大きい(輝度が高い)画素値(ここでは、階調A)に置換される。すなわち、図5(a)の階調Bの画素Q5に対して収縮処理を施すと、画素Q5の画素値は、図5(b)の下側の図に示すように、階調Aに変更されることになる。 Here, a case will be described in which the pixel Q5 is selected as a target pixel (a target pixel on which expansion / contraction processing is performed). In the present embodiment, the pixel value of the target pixel (here, pixel Q5) is the pixel value of eight pixels (here, pixel Q1 to pixel Q4 and pixel Q6 to pixel Q9) adjacent to the periphery of the target pixel. The pixel value (here, gradation A) is replaced with the largest (higher luminance) pixel value (here, gradations A, B, C, D). That is, when the contraction process is performed on the pixel Q5 of the gradation B in FIG. 5A, the pixel value of the pixel Q5 is changed to the gradation A as shown in the lower diagram of FIG. Will be.
−画像処理の内容−
次に、図6を参照して、画像処理部111によって実行される画像処理の具体的な処理の内容について説明する。図6は、図3に示す画像処理部111によって実行される画像処理の一例を説明する説明図である。図6(a)は、図4に示すフローチャートのステップS101において画像メモリ14から取得された濃淡画像700の一例を示す図である。図6(b)は、図4に示すフローチャートのステップS103及びステップS105において、図6(a)に対して、コントラスト調整処理等の前処理と、2値化処理とが施された後の、二値画像710の一例を示す図である。
-Contents of image processing-
Next, with reference to FIG. 6, specific processing contents of the image processing executed by the
図6(a)に示す濃淡画像700には、文字701、702、703からなる文字列「ABC」が含まれており、背景704が薄いグレーであることを斜線を施して示している。このような濃淡画像700に対して、前処理でのコントラスト調整処理と、2値化処理とが施されることによって、図6(b)で示すように、背景714が白色となっている。なお、濃淡画像700に含まれる文字701、702、703が濃いグレーである場合にも、前処理でのコントラスト調整処理と、2値化処理とが施されることによって、二値画像710に含まれる文字711、712、713は、黒色の文字に変換される。
A
次に、図6(c)を参照して、投影処理及び文字切出処理について説明する。まず、投影処理について説明する。投影処理は、垂直投影処理と水平投影処理とから構成されている。まず、垂直投影処理は、二値画像720(二値画像710と同一の画像である)において、水平方向(図の左右方向)の位置が同じ黒画素の個数を垂直方向(図の上下方向)に積算して、積算値の水平方向(図の左右方向)の変化を示すグラフ(以下、「垂直投影グラフ」ともいう)Gxを生成する処理である。また、水平投影処理は、垂直方向(図の上下方向)の位置が同じ黒画素の個数を水平方向(図の左右方向)に積算して、積算値の垂直方向(図の上下方向)の変化を示すグラフ(以下、「水平投影グラフ」ともいう)Gyを生成する処理である。ここで、投影処理において、積算される「黒画素」とは、2値化処理によって黒色であるとされた画素を意味しており、ここでは、文字721、722、723を構成する画素である。 Next, with reference to FIG. 6C, the projection process and the character cutting process will be described. First, the projection process will be described. The projection process includes a vertical projection process and a horizontal projection process. First, in the vertical projection process, in the binary image 720 (the same image as the binary image 710), the number of black pixels having the same position in the horizontal direction (left-right direction in the figure) is determined in the vertical direction (up-down direction in the figure). Is a process of generating a graph (hereinafter also referred to as “vertical projection graph”) Gx indicating a change in the integrated value in the horizontal direction (horizontal direction in the figure). In the horizontal projection processing, the number of black pixels having the same position in the vertical direction (vertical direction in the figure) is accumulated in the horizontal direction (horizontal direction in the figure), and the integrated value changes in the vertical direction (vertical direction in the figure). Is a process of generating a graph (hereinafter also referred to as a “horizontal projection graph”) Gy. Here, the “black pixels” integrated in the projection process mean pixels that are blackened by the binarization process, and are pixels that form the characters 721, 722, and 723 here. .
次いで、文字切出処理について説明する。文字切出処理は、まず、投影処理(水平投影処理)によって生成された水平投影グラフGyに対して、パラメータ記憶部121に予め記憶されている水平投影閾値Tyに基づいて閾値処理を施し、文字列の垂直方向(y軸方向)の下限座標YL及び上限座標YHを求め、下限座標YLから上限座標YHまでの領域として文字領域の高さ範囲hを求める。すなわち、水平投影グラフGyにおいて、積算値が水平投影閾値Ty以上である領域を文字領域の高さ範囲hとして求める。
Next, the character cutting process will be described. In the character cutout process, first, a threshold value process is performed on the horizontal projection graph Gy generated by the projection process (horizontal projection process) based on the horizontal projection threshold value Ty stored in advance in the
また、投影処理(垂直投影処理)によって生成された垂直投影グラフGxに対して、パラメータ記憶部121に予め記憶されている垂直投影閾値Txに基づいて閾値処理を施し、文字列を構成する文字ごとに、水平方向(x軸方向)の下限座標XL1、XL2、XL3及び上限座標XH1、XH2、XH3を求め、下限座標XL1から上限座標XH1までの領域として幅範囲b1を求め、下限座標XL2から上限座標XH2までの領域として幅範囲b2を求め、下限座標XL3から上限座標XH3までの領域として幅範囲b3を求める。すなわち、垂直投影グラフGxにおいて、積算値が垂直投影閾値Tx以上である領域を文字領域の幅範囲b1、b2、b3として求める。
Further, threshold processing is performed on the vertical projection graph Gx generated by the projection processing (vertical projection processing) based on the vertical projection threshold Tx stored in the
そして、幅範囲b1と高さ範囲hで規定される領域を文字領域721aとして切り出し、幅範囲b2と高さ範囲hで規定される領域を文字領域722aとして切り出し、幅範囲b3と高さ範囲hで規定される領域を文字領域723aとして切り出す。このようにして、文字領域721a、文字領域722a、及び、文字領域723aを切り出すことができる。
An area defined by the width range b1 and the height range h is cut out as a
再び図3に戻って、CPU11等の機能構成について説明する。パラメータ記憶部121は、画像処理部111によって実行される画像処理を規定する複数のパラメータの設定値を予め記憶している機能部である。また、パラメータ記憶部121に記憶されている複数のパラメータのうち、原因推定部116によって推定された文字認識の失敗原因に対応するパラメータの設定値が、処理修正部117によって修正される(書き換えられる)。
Returning to FIG. 3 again, the functional configuration of the
また、パラメータ記憶部121に設定値が記憶されているパラメータとしては、例えば、回転処理における回転方向及び回転角を規定するパラメータ、2値化処理における基準
値(閾値)を示すパラメータ、膨張・収縮処理における処理の回数(膨張処理回数又は、収縮処理回数)を規定するパラメータ、及び、文字切出処理における水平投影閾値Ty及び垂直投影閾値Txをそれぞれ規定するパラメータが含まれる。
Examples of parameters whose setting values are stored in the
成否受付部112(成否受付手段)は、画像処理部111によって実行された画像処理の結果として、画像メモリ14から取得された濃淡画像700に含まれる文字列を構成する少なくとも1つの文字の認識が失敗したとのオペレータの判定結果を示す操作入力を、入力装置4を介して受け付ける機能部である。
The success / failure acceptance unit 112 (success / failure acceptance unit) recognizes at least one character constituting the character string included in the
具体的には、例えば、入力装置4のキーボードに含まれる特定のキー(例えば、「N」キー)が押下された場合に、成否受付部112は、少なくとも1つの文字の認識が失敗したとのオペレータの判定結果を示す操作入力を受け付ける形態でもよい。また、例えば、モニタ3に「OKボタン」と「NGボタン」とを表示し、「NGボタン」上にカーソルが位置する状態で入力装置4のマウスがクリックされた場合に、成否受付部112は、少なくとも1つの文字の認識が失敗したとのオペレータの判定結果を示す操作入力を受け付ける形態でもよい。
Specifically, for example, when a specific key (for example, “N” key) included in the keyboard of the
成否判定部113(成否判定手段)は、濃淡画像700に含まれる文字列を構成する少なくとも1つの文字の認識が失敗したか否かを判定する機能部である。具体的には、成否判定部113は、成否受付部112によって受け付けられた操作入力に基づいて、文字列を構成する少なくとも1つの文字の認識が失敗したか否かを判定するものである。
The success / failure determination unit 113 (success / failure determination unit) is a functional unit that determines whether recognition of at least one character constituting the character string included in the
このようにして、成否受付部112によって、外部から(ここでは、オペレータによって)文字列を構成する文字の認識が成功したか否かの判定結果を示す操作入力が受け付けられ、受け付けられた操作入力に基づいて、成否判定部113によって、文字列を構成する少なくとも1つの文字の認識が失敗したか否かが判定されるため、文字列を構成する少なくとも1つの文字の認識が失敗したか否かの判定を簡素な構成で正確に行うことができる。
In this way, the success /
本実施形態では、成否受付部112が、オペレータの判定結果を示す操作入力を受け付ける場合について説明するが、成否受付部112が、オペレータの判定結果を示す操作入力に換えて、文字認識が失敗したか否かを判定する装置(この装置を、便宜上、「認識判定装置」という)から文字認識が失敗したことを示す情報を受け付ける形態でもよい。なお、認識判定装置は、例えば、図4に示すフローチャートのステップS111において、ステップS109で切り出された文字画像に対する文字認識処理が失敗した(例えば、対応する文字が見つからない)場合に、文字認識が失敗したと判定する形態でもよい。この場合には、認識判定装置を、機能部としてCPU11内に構成することが可能となる。
In this embodiment, the case where the success /
原因評価部114は、成否判定部113によって濃淡画像700に含まれる文字列を構成する少なくとも1つの文字の認識が失敗したと判定された場合に、予め設定された複数の原因(例えば、10個の原因)ごとに、文字の認識が失敗する可能性の高さを定量的に示す失敗確率Pi(i=1〜N:Nは失敗原因の個数であって、ここでは10個である)として評価する機能部である。なお、原因評価部114による失敗確率Piの算出方法の具体例については、図9〜図20を参照して後述する。
When the success /
本実施形態では、原因評価部114が失敗確率Piを求める場合について説明するが、原因評価部114は、文字の認識が失敗する可能性の高さを定量的に示すものであればよい。例えば、原因評価部114が、文字の認識が失敗する可能性の高さを示す複数の段階(例えば、8段階)のうち、どの段階に相当するかを示す形態でもよい。
In the present embodiment, a case in which the
結果表示部115(結果表示手段)は、複数の原因(ここでは、10個の原因)のうち、原因評価部114によって失敗確率Pi(i=1〜N:ここでは、N=10)が高いと評価された順に、予め設定された2以上の所定個数(ここでは、3個)の原因を示す文字又は画像を、モニタ3に表示させる機能部である。具体的には、結果表示部115は、モニタ3に結果表示画面800(図8(a)参照)を表示する。結果表示画面800については、図8を参照して後述する。
The result display unit 115 (result display unit) has a high failure probability Pi (i = 1 to N: N = 10 here) by the
原因推定部116(原因推定手段)は、成否判定部113によって文字列を構成する少なくとも1つの文字の認識が失敗したと判定された場合に、文字の認識が失敗した原因を推定する機能部である。具体的には、原因推定部116は、原因評価部114によって評価された失敗確率Pi(i=1〜N:ここでは、N=10)に基づいて、文字の認識が失敗した原因を推定する。
The cause estimation unit 116 (cause estimation means) is a functional unit that estimates the cause of failure in character recognition when the success /
更に具体的には、原因推定部116は、結果表示部115によってモニタ3の結果表示画面800(図8(a)参照)に表示された2以上の所定個数(ここでは、3個)の原因の中から、文字の認識が失敗した原因を1つだけ選択するオペレータによる選択入力を、入力装置4を介して受け付けて、選択された原因を文字の認識が失敗した原因であると推定する。選択入力の具体的な入力方法については、図8を参照して後述する。
More specifically, the
このようにして、原因評価部114によって失敗確率Pi(i=1〜N:ここでは、N=10)が高いと評価されて、結果表示部115によってモニタ3に表示された2以上の所定個数(ここでは、3個)の原因の中から、原因推定部116によって、文字の認識が失敗した原因を1つだけ選択する選択入力が受け付けられ、選択された原因が、文字の認識が失敗した原因であると推定されるため、文字の認識が失敗した原因を容易に推定することができる。
In this way, the
本実施形態では、原因推定部116が、オペレータによる選択入力に基づいて文字の認識が失敗した原因を推定する場合について説明するが、原因推定部116が、原因評価部114によって評価された失敗確率Pi(i=1〜N:N=10)に基づいて、文字の認識が失敗した原因を推定する形態であればよい。例えば、原因推定部116が、失敗確率Piの最も高い原因を、文字の認識が失敗した原因であると推定する形態でもよい。この場合には、オペレータによる選択入力が不要となるため、利便性を向上することができる。
In the present embodiment, a case will be described in which the
また、例えば、原因推定部116が、最も高い失敗確率Piが予め設定された閾値(例えば、60%)以上である場合に限って、失敗確率Piの最も高い原因を、文字の認識が失敗した原因であると推定し、最も高い失敗確率Piが予め設定された閾値(例えば60%)未満である場合には、オペレータによる選択入力に基づいて文字の認識が失敗した原因を推定する形態でもよい。
In addition, for example, only when the
このようにして、文字列を構成する少なくとも1つの文字の認識が失敗したと判定された場合に、原因評価部114によって、予め設定された複数の原因(ここでは、10個の原因)ごとに、文字の認識が失敗する可能性の高さを定量的に示す失敗確率Pi(i=1〜N:N=10)が評価され、原因推定部116によって、評価された失敗確率Piに基づいて、文字の認識が失敗した原因が推定されるため、失敗確率Piを正確に評価することによって、文字の認識が失敗した原因を正確に推定することができる。
In this way, when it is determined that the recognition of at least one character constituting the character string has failed, the
すなわち、例えば、文字の認識が失敗した原因が文字の線幅である(文字が太すぎる、又は、文字が細すぎる)と推定された場合には、予め設定された推奨線幅B0(例えば、実験的に文字の認識率が最も高くなる線幅)と、実際の文字の線幅の平均値(平均線幅)
Bavと、の差である差分線幅ΔBの絶対値に重みW1を乗じて、失敗確率P1(図10参照)を評価することができる。このようにして、文字の認識が失敗する可能性の高さを定量的に示す失敗確率P1が評価されるため、文字の認識が失敗した原因を正確に推定することができるのである。
That is, for example, when it is estimated that the cause of character recognition failure is the line width of the character (the character is too thick or the character is too thin), a preset recommended line width B0 (for example, Experimentally, the line width with the highest recognition rate of characters) and the average value of the actual character line width (average line width)
The failure probability P1 (see FIG. 10) can be evaluated by multiplying the absolute value of the difference line width ΔB, which is the difference from Bav, by the weight W1. In this way, since the failure probability P1 that quantitatively indicates the possibility of character recognition failure is evaluated, the cause of character recognition failure can be accurately estimated.
また、例えば、文字の認識が失敗した原因が、文字列の回転であると推定された場合、文字の滲み(にじみ)又は擦れ(かすれ)であると推定された場合、文字のコントラストが低いことであると推定された場合にも、同様にして、失敗確率P2、P3、P4(図14、図17、図20参照)を評価することができるため、文字の認識が失敗した原因を正確に推定することができるのである。 Also, for example, when it is estimated that the cause of the character recognition failure is rotation of the character string, or when it is estimated that the character is blurred or rubbed, the character contrast is low. In the same manner, the failure probabilities P2, P3, and P4 (see FIGS. 14, 17, and 20) can be evaluated in the same manner, so that the cause of character recognition failure can be accurately determined. It can be estimated.
つまり、予め文字の認識が失敗する可能性のある原因ごとに、各原因に起因する失敗確率Piの値を求めるためのロジック(手順、方法等)を構築しておくことによって、各原因に対応する失敗確率Piを求めて比較することができる(図7のステップS205、S207等、図10、図14、図17、図20参照)ため、文字の認識が失敗した原因を正確に推定することができるのである。 In other words, each cause can be dealt with by constructing a logic (procedure, method, etc.) for obtaining the value of failure probability Pi attributed to each cause in advance for each cause that may cause character recognition to fail. The failure probability Pi to be obtained can be obtained and compared (see steps S205 and S207 in FIG. 7, see FIG. 10, FIG. 14, FIG. 17, and FIG. 20). Can do it.
処理修正部117(処理修正手段)は、原因推定部116によって推定された原因に基づいて、画像処理部111によって実行される画像処理を規定する複数のパラメータ(すなわち、パラメータ記憶部121に格納された複数のパラメータ)のうち、前記推定された原因に対応する少なくとも1つのパラメータの値を修正する機能部である。なお、本実施形態では、画像処理部111によって実行される画像処理を規定する複数のパラメータの値は、パラメータ記憶部121に格納されているため、処理修正部117は、原因推定部116によって推定された原因に基づいて、前記推定された原因に対応する少なくとも1つのパラメータの値を修正して修正後の値に書き換えるものである。
The processing correction unit 117 (processing correction unit) is stored in a plurality of parameters (that is, stored in the parameter storage unit 121) that define image processing executed by the
具体的には、処理修正部117は、原因推定部116によって前記文字の認識が失敗した原因であると推定された原因について、原因評価部114によって評価された失敗確率Piが大きい程、前記推定された原因に対応する少なくとも1つのパラメータの値を大幅に修正する。なお、処理修正部117によるパラメータの修正方法の具体例については、図9〜図20を参照して後述する。
Specifically, the
このようにして、文字の認識が失敗した原因であると推定された原因について、評価された失敗確率Piが大きい程、推定された原因に対応する少なくとも1つのパラメータの値が大幅に修正されるため、画像処理を規定するパラメータを適正に調整することができる。 In this way, for a cause that is estimated to be the cause of character recognition failure, the value of at least one parameter corresponding to the estimated cause is significantly corrected as the estimated failure probability Pi increases. Therefore, it is possible to appropriately adjust the parameters that define the image processing.
−CPU11の動作−
ここで、図7を参照して、CPU11の動作の一例について説明する。図7は、図3に示すCPU11の動作の一例を示すフローチャートである。まず、ステップS201において、画像処理部111によって、画像メモリ14に格納された濃淡画像情報から文字列を構成する各文字を認識する画像処理が実行される。なお、ステップS201において実行される画像処理については、図4に示す詳細フローチャートを参照して上述している。
-Operation of CPU 11-
Here, an example of the operation of the
次に、ステップS203(成否判定ステップ)において、成否判定部113によって、成否受付部112により受け付けられた操作入力に基づいて、文字列を構成する少なくとも1つの文字の認識が失敗したか否かが判定される。ステップS203でYESの場合には、処理がステップS205に進められる。ステップS203でNOの場合には、処理がステップS221に進められる。ステップS221において、結果表示部115によって、モニタ3に文字認識が成功したことを示す画面(図8(b)に示す結果表示画面810
)が表示される。そして、処理が終了される。
Next, in step S203 (success / failure determination step), whether or not the success /
) Is displayed. Then, the process ends.
ステップS205において、原因評価部114によって、複数の原因(ここでは、10個の原因)ごとに、文字の認識が失敗する可能性の高さを定量的に示す失敗確率Pi(i=1〜N:N=10)が求められる。なお、ステップS205において行われる失敗確率Piを求める処理を、以下の説明においては「失敗確率算出処理」という。
In step S205, the
なお、失敗原因が文字の線幅である場合の失敗確率算出処理(この処理を、便宜上、「失敗確率算出処理1」という)については、図10を参照して後述する。また、失敗原因が文字列の回転である場合の失敗確率算出処理(この処理を、便宜上、「失敗確率算出処理2」という)については、図14を参照して後述する。更に、失敗原因が文字の滲み・擦れである場合の失敗確率算出処理(この処理を、便宜上、「失敗確率算出処理3」という)については、図17を参照して後述する。加えて、失敗原因が低コントラストである場合の失敗確率算出処理(この処理を、便宜上、「失敗確率算出処理4」という)については、図20を参照して後述する。
A failure probability calculation process (this process is referred to as “failure
次に、ステップS207において、結果表示部115によって、ステップS205で求められた失敗確率Pi(i=1〜N)が高い順にソートされる。そして、ステップS209において、結果表示部115によって、失敗確率Piが高い順に3個の原因を示す文字がモニタ3に表示される(図8参照)。次いで、ステップS211(原因推定ステップ)において、原因推定部116によって、ステップS209で表示された3個の原因の中から1つの原因を選択する選択入力が受け付けられたか否かの判定が行われる。ステップS211でYESの場合には、処理がステップS213に進められる。ステップS211でNOの場合には、処理が待機状態とされる。
Next, in step S207, the
ステップS213において、処理修正部117によって、ステップS211で選択された原因に対応するパラメータ値の修正を実行するか否かの操作入力が、入力装置4を介して受け付けられたか否かの判定が行われる。ステップS213でYESの場合には、処理がステップS217に進められる。ステップS213でNOの場合には、処理がステップS215に進められる。ステップS215において、処理修正部117によって、ステップS211での選択入力をキャンセルする操作入力が入力装置4を介して受け付けられたか否かの判定が行われる。ステップS215でYESの場合には、処理がステップS211に戻され、ステップS211以降の処理が繰り返し実行される。ステップS215でNOの場合には、処理がステップS213に戻され、ステップS213以降の処理が繰り返し実行される。
In step S213, the
ステップS217において、処理修正部117によって、ステップS211で選択された原因に対応するパラメータ値の修正が実行される。そして、ステップS219(処理修正ステップ)において、処理修正部117によって、パラメータ記憶部121に格納されたパラメータ値が、ステップS217で修正された値に書き換えられる。そして、処理がステップS201へリターンされ、ステップS201以降の処理が繰り返し実行される。
In step S217, the
このようにして、製品5の表面に形成された文字列を構成する少なくとも1つの文字の認識が失敗したか否かが判定され、少なくとも1つの文字の認識が失敗したと判定された場合に、予め設定された複数の(ここでは、10個の)原因の中から、文字の認識が失敗した原因が推定され、推定された原因に基づいて、文字列を含む濃淡画像に対して施される画像処理を規定する、パラメータ記憶部121に記憶された複数のパラメータのうち、推定された原因に対応する少なくとも1つのパラメータの値が修正される(書き換えられる)ため、画像処理を規定するパラメータを適正に調整することができる。
In this way, it is determined whether or not the recognition of at least one character constituting the character string formed on the surface of the
すなわち、文字の認識が失敗する可能性のある原因ごとに、各原因に対応する少なくとも1つのパラメータの値を修正するためのロジックを予め構築しておくことによって、推定された原因に対応する少なくとも1つのパラメータの値を適正に修正する(図12、図18参照)ことができるため、画像処理を規定するパラメータを適正に調整することができるのである。 That is, for each possible cause of character recognition failure, by constructing in advance a logic for correcting the value of at least one parameter corresponding to each cause, at least corresponding to the estimated cause Since the value of one parameter can be appropriately corrected (see FIGS. 12 and 18), the parameter defining the image processing can be adjusted appropriately.
ここで、図8を参照して、モニタ3に表示される画面の一例について説明する。図8は、図7に示すフローチャートのステップS209及びステップS221でそれぞれモニタ3に表示される結果表示画面800及び結果表示画面810の一例を示す画面図である。図8(a)は、パラメータの調整前にステップS209でモニタ3に表示される結果表示画面800の一例を示す画面図であって、図8(b)は、パラメータの調整後にステップS221でモニタ3に表示される結果表示画面810の一例を示す画面図である。
Here, an example of a screen displayed on the
結果表示画面800には、画面左上側に、画像表示部801が表示され、画像表示部801の下側に成否表示部802が表示され、画面右上側に、理由表示部803が表示され、理由表示部803の右側にスクロールバー804が表示され、理由表示部803内の左側にはポインタ807が表示されている。また、成否表示部802の下側には、実行ボタン805及びキャンセルボタン806が表示される。
In the
画像表示部801は、図4に示すフローチャートのステップS109において、二値画像から切り出される各文字画像(以下、「切り出し画像」ともいう)を表示するものである。ここでは、図9(a)に示す文字列「ABC」のうち、文字「A」に擦れがあることに起因して、文字の認識が失敗する場合の切り出し画像が表示されている。
The
成否表示部802は、図7に示すフローチャートのステップS203における文字認識の成否を表示するものであって、文字認識が失敗した場合には、図8(a)に示すように「NG」と表示され、成功した場合には図8(b)に示すように「OK」と表示される。
The success /
理由表示部803は、失敗確率Piが高い順にソートされた失敗原因を文字情報として表示するものであって、ここでは、失敗確率Piが高い3つの失敗原因に対応する失敗原因ボタン803a、803b、803cを表示するものである。ここでは、失敗原因ボタン803aには、「1.かすれ・にじみ」と表示され、最も失敗確率Piが高い失敗原因が「かすれ・にじみ」であることが判る。また、失敗原因ボタン803bには、「2.文字の線幅」と表示され、2番目に失敗確率Piが高い失敗原因が「文字の線幅」であることが判る。更に、失敗原因ボタン803cには、「3.低コントラスト」と表示され、3番目に失敗確率Piが高い失敗原因が「低コントラスト」であることが判る。
The
また、理由表示部803に表示された失敗原因ボタン803a、803b、803cは、選択ボタンとしても機能するものである。すなわち、例えば、図8(a)に示すように、失敗原因ボタン803aを押下することによって、失敗原因ボタン803aに表示されている失敗原因である「かすれ・にじみ」が、原因推定部116によって選択される。ここで、「押下する」とは、ポインタ807の先端をボタン(例えば、失敗原因ボタン803a)に位置させて、マウスをクリックすることを意味している。
The
なお、この選択処理は、図7に示すフローチャートのステップS211において、原因推定部116によって実行される処理である。同様にして、ポインタ807とマウスクリックによって、失敗原因ボタン803b、803cにそれぞれ表示されている失敗原因を選択することも可能である。また、失敗原因ボタン803a、803b、803cは、原因推定部116によって選択されると、結果表示部115によって、その表示態様が変更される(例えば、点滅状態とされたり、表示色が変更されたりする)。
This selection process is a process executed by the
スクロールバー804は、失敗確率Piが高い順にソートされ、理由表示部803に表示された失敗原因を上下方向にスクロールする操作を受け付けるものである。すなわち、スクロールバー804は、選択を所望する失敗原因が理由表示部803に表示されていない場合に、オペレータがスクロールバー804を用いて、失敗原因ボタンを上側にスクロールして、失敗確率Piが4番目以降の失敗原因に対応する失敗原因ボタンを表示させ、選択可能とするものである。
The
実行ボタン805は、選択された失敗原因に対応するパラメータ値を修正する場合に押下されるボタンである。すなわち、理由表示部803に表示された失敗原因ボタン803a、803b、803cのいずれかが選択された後に、実行ボタン805がオペレータによって押下されると、選択された失敗原因に対応するパラメータ値を修正する(書き換える)処理が実行される。なお、この処理は、図7に示すフローチャートのステップS219において、処理修正部117によって実行される処理である。
The execute
キャンセルボタン806は、選択状態をキャンセルし、選択前の状態とする場合に押下されるボタンである。すなわち、理由表示部803に表示された失敗原因ボタン803a、803b、803cのいずれかが選択された後に、オペレータによってキャンセルボタン806が押下されると、選択状態がキャンセルされ、選択前の状態とされる。
A cancel
結果表示画面810にも、結果表示画面800と同様に、画面左上側に、画像表示部811が表示され、画像表示部811の下側に成否表示部812が表示され、画面右上側に、理由表示部813が表示され、理由表示部813の右側にスクロールバー814が表示され、理由表示部813内の左側にはポインタ817が表示されている。また、成否表示部812の下側には、実行ボタン815及びキャンセルボタン816が表示される。
Similarly to the
ここでは、結果表示画面800と相違する点についてのみ説明する。画像表示部811には、文字の認識が成功する場合の切り出し画像が表示されている。また、成否表示部812には、文字の認識が成功したことを示す「OK」と表示される。なお、理由表示部813には、失敗原因ボタン803a、803b、803cが表示されているが押下することはできない。また、実行ボタン815及びキャンセルボタン816も表示されているが押下することはできない。
Here, only differences from the
このようにして、複数の原因のうち、失敗確率Piが高いと評価された順に、予め設定された2以上の所定個数(ここでは、3個)の原因を示す文字(ここでは、失敗原因ボタン803a、803b、803c)が、モニタ3に表示されるため、利便性を向上することができる。
In this way, among a plurality of causes, in the order in which the failure probability Pi is evaluated to be high, two or more preset numbers (here, 3) indicating the causes (here, failure cause buttons) 803a, 803b, and 803c) are displayed on the
すなわち、例えば、オペレータが、モニタ3に表示された原因を示す文字(ここでは、失敗原因ボタン803a、803b、803c)を参照して、文字の認識が失敗した原因を推定することができるため、文字の認識が失敗した原因を容易に推定することができるので、利便性を向上することができるのである。
That is, for example, the operator can estimate the cause of character recognition failure by referring to the characters indicating the cause displayed on the monitor 3 (here,
本実施形態においては、失敗原因を示す文字(ここでは、失敗原因ボタン803a、803b、803c)を表示する場合について説明したが、失敗原因を示す文字に換えて(又は、加えて)失敗原因を示すアイコン等の画像を表示する形態でもよい。
In the present embodiment, a case has been described in which characters indicating the cause of failure (here,
また、本実施形態においては、失敗確率Piが高いと評価された順に、失敗原因を示す文字(ここでは、失敗原因ボタン803a、803b、803c)を表示する場合について説明するが、失敗原因を示す文字に対応付けて失敗確率Piの値を示す文字又は画像を
表示する形態でもよい。
Further, in the present embodiment, a case will be described in which characters indicating failure causes (here,
この場合には、例えば、オペレータが、モニタ3に表示された原因を示す文字(又は画像)と、失敗確率Piの値を示す文字(又は画像)とを参照して、文字の認識が失敗した原因を推定することができるため、文字の認識が失敗した原因を更に容易に推定することができるので、利便性を更に向上することができるのである。すなわち、失敗確率Piが高い程、対応する失敗原因が、文字の認識が失敗した原因であると推定してよいとの安心感が高まる。
In this case, for example, the operator failed to recognize the character by referring to the character (or image) indicating the cause displayed on the
本実施形態では、理由表示部803に3つの失敗原因ボタン803a、803b、803cを選択可能に表示する場合について説明するが、理由表示部803に選択可能に表示する失敗原因ボタンの個数は、「3つ」以外の個数である形態でもよい。例えば、理由表示部803に2つの失敗原因ボタンを選択可能に表示する形態でも良いし、理由表示部803に4つ以上の個数の失敗原因ボタンを選択可能に表示する形態でも良い。理由表示部803に表示する失敗原因ボタンの個数が多い程、オペレータの選択範囲が広がるため、利便性を向上することができる。
In the present embodiment, a case where three
また、本実施形態では、理由表示部803に表示する失敗原因ボタンの個数が予め設定されている場合について説明するが、理由表示部803に表示する失敗原因ボタンの個数を失敗確率Piの値に基づいて決定する形態でもよい。例えば、失敗確率Piの値が予め設定された確率閾値(例えば、30%)以上の失敗原因に対応する失敗原因ボタンを理由表示部803に表示する形態でもよい。この場合には、選択される可能性の高い失敗原因ボタンが理由表示部803に表示されるため、利便性を向上することができる。
In this embodiment, the case where the number of failure cause buttons displayed on the
−失敗確率算出処理及びパラメータ値修正処理−
−失敗原因が文字の線幅である場合−
以下に、原因評価部114によって実行される失敗確率算出処理、及び、処理修正部117によって実行されるパラメータ値修正処理の具体例について、図9〜図20を参照して説明する。まず、図9〜図12を参照して、失敗原因が「文字の線幅」である場合の失敗確率算出処理及びパラメータ値修正処理について説明する。図9は、文字の線幅が太すぎることに起因して文字認識が失敗するケースの一例を示す説明図である。
-Failure probability calculation processing and parameter value correction processing-
-When the cause of failure is the line width of a character-
A specific example of the failure probability calculation process executed by the
図9(a)は、「ABC」との文字列を構成するそれぞれの文字の線幅が太い場合の文字切出処理が失敗する状態を示す図である。図9(b)は、図9(a)に示す二値画像910(又は、二値画像910に対応する濃淡画像)に対して文字の線幅を細くする白膨張処理を施すことによって、文字列を適性な線幅とした二値画像900では適正に文字切出処理が行われる状態を示す図である。
FIG. 9A is a diagram illustrating a state where the character extraction process fails when the line width of each character constituting the character string “ABC” is thick. FIG. 9B shows a case where a character is obtained by applying a white expansion process for narrowing the line width of the character to the
図9(a)には、線幅が太い「ABC」との文字列911、912、913を含む二値画像910と、それに対応する水平投影グラフGy1、垂直投影グラフGx1が記載されている。水平投影グラフGy1において、積算値が水平投影閾値Ty1以上である領域が文字領域の高さ範囲h1として求められる。また、垂直投影グラフGx1において、積算値が垂直投影閾値Tx1以上である領域が文字領域の幅範囲b11、b12として求められる。
FIG. 9A shows a
すなわち、図9(a)の二値画像910に示すように、線幅が太いために、「A」の文字と「B」の文字とが重なってしまい、「A」の文字と「B」の文字との境界において、垂直投影グラフGx1が垂直投影閾値Tx1以上となってしまうため、幅範囲b11に「A」の文字と「B」の文字とが含まれてしまう結果となっている。このため、文字領域911aとして、「A」の文字と「B」の文字とを含む領域が設定され、これが切り出され
るため、文字認識処理が失敗することになる。
That is, as shown in the
これに対して、図9(b)に示すよう文字の線幅を適性な線幅とすれば、「A」の文字と、「B」の文字との重なりが解消されるため、「A」の文字に対応する文字領域901a、「B」の文字に対応する文字領域902a、及び、「C」の文字に対応する文字領域903aが適正に設定されて、文字認識処理が成功することになる。
On the other hand, if the line width of the character is an appropriate line width as shown in FIG. 9B, the overlap between the character “A” and the character “B” is eliminated. The
次に、図10、図11を参照して、失敗原因が文字の線幅の場合の失敗確率算出処理について説明する。図10は、図7に示すフローチャートのステップS205において、文字の線幅に起因した失敗確率P1を求める処理(以下、「失敗確率算出処理1」ともいう)の一例を示す詳細フローチャートである。図11は、図10のステップS301からステップS307において文字の線幅Bを求める方法の一例を示す説明図である。
Next, with reference to FIG. 10 and FIG. 11, a failure probability calculation process when the cause of failure is a line width of a character will be described. FIG. 10 is a detailed flowchart showing an example of a process for obtaining the failure probability P1 due to the line width of the character (hereinafter also referred to as “failure
まず、図11を参照して、文字の線幅Bを求める方法について説明する。図11(a)は、ここでは、図9(a)に示す二値画像910から切り出された「C」の文字に対応する文字領域912aの画像(以下、「文字画像」ともいう)である。まず、図11(a)に示す文字画像に対して、例えば、Sobelフィルタ(空間1次微分を計算して、輪郭を抽出するフィルタ)をかけることによって、図11(b)に示す、輪郭線画像(以下、「エッジ画像」ともいう)を生成する。
First, a method for obtaining the line width B of a character will be described with reference to FIG. FIG. 11A is an image of the
次に、輪郭線画像の輪郭線上の各画素に対する法線ベクトルVnを求める。図11(b)には、法線ベクトルVnを矢印で示している。そして、求められた法線ベクトルVnの中から、向きが180度異なる(互いに対向する向きの)法線ベクトルVnのペア(対)を求める。例えば、図11(b)では、法線ベクトルVn1と法線ベクトルVn2とがペアとなり、法線ベクトルVn3と法線ベクトルVn4とがペアとして選定される。次いで、ペアに選定された2つの法線ベクトルの始点である画素間の距離を線幅B(例えば、線幅B1、B2)として求める。 Next, a normal vector Vn for each pixel on the contour line of the contour image is obtained. In FIG. 11B, the normal vector Vn is indicated by an arrow. Then, from the obtained normal vectors Vn, pairs of normal vectors Vn whose directions are different by 180 degrees (directions facing each other) are obtained. For example, in FIG. 11B, the normal vector Vn1 and the normal vector Vn2 are selected as a pair, and the normal vector Vn3 and the normal vector Vn4 are selected as a pair. Next, the distance between the pixels that are the starting points of the two normal vectors selected for the pair is obtained as a line width B (for example, line widths B1 and B2).
ここで、図10を参照して、文字の線幅Bに起因した失敗確率P1を求める手順を説明する。なお、以下の処理は、すべて原因評価部114によって実行される。また、以下の処理は図7に示すフローチャートのステップS205において実行される処理の一部である。まず、ステップS301において、文字画像(図11(a)参照)がエッジ画像(図11(b)参照)に変換される。そして、ステップS303において、文字の輪郭線に対する法線ベクトルVn(図11(b)参照)が求められる。
Here, with reference to FIG. 10, a procedure for obtaining the failure probability P1 due to the line width B of the character will be described. The following processing is all executed by the
次いで、ステップS305において、法線方向が180度異なる2つの法線ベクトルVnのペアが求められる。そして、ステップS307において、ステップS305でペアとして選定された2つの法線ベクトルの始点間距離が線幅Bとして求められる。次に、ステップS309において、ステップS307で求められた線幅Bの平均値である平均線幅Bavが求められる。そして、ステップS311において、ステップS309で求められた平均線幅Bavと、推奨線幅B0(例えば、実験的に文字の認識率が最も高くなる線幅)との差が、差分線幅ΔBとして次の(2)式により求められる。 Next, in step S305, a pair of two normal vectors Vn whose normal directions are different by 180 degrees is obtained. In step S307, the distance between the start points of the two normal vectors selected as a pair in step S305 is obtained as the line width B. Next, in step S309, an average line width Bav, which is an average value of the line width B obtained in step S307, is obtained. In step S311, the difference between the average line width Bav obtained in step S309 and the recommended line width B0 (for example, the line width at which the character recognition rate becomes the highest experimentally) is set as the difference line width ΔB. (2).
ΔB=(Bav−B0) (2)
次に、ステップS313において、差分線幅ΔBの絶対値に重みW1を乗じることによって、失敗確率P1が次の(3)式により求められ、処理がリターンされる。
ΔB = (Bav−B0) (2)
Next, in step S313, the failure probability P1 is obtained by the following equation (3) by multiplying the absolute value of the difference line width ΔB by the weight W1, and the process is returned.
P1=W1×|ΔB| (3)
ここで、重みW1は、実験等によって求められるものである。このようにして、文字の認識が失敗した原因が文字の線幅である(文字が太すぎる、又は、文字が細すぎる)場合
に、予め設定された推奨線幅B0(例えば、実験的に文字の認識率が最も高くなる線幅)と、実際の文字の線幅の平均値(平均線幅)Bavと、の差である差分線幅ΔBの絶対値に重みW1を乗じて、失敗確率P1を評価することができる。このようにして、文字の認識が失敗する可能性の高さを定量的に示す失敗確率P1が評価されるため、文字の認識が失敗した原因を正確に推定することができるのである。
P1 = W1 × | ΔB | (3)
Here, the weight W1 is obtained by experiments or the like. In this manner, when the cause of character recognition failure is the line width of the character (the character is too thick or the character is too thin), a preset recommended line width B0 (for example, experimentally character Of the actual character line width (average line width) Bav, and multiplying the absolute value of the difference line width ΔB, which is the difference between the actual character line widths (average line width) Bav, by the weight W1 and the failure probability P1 Can be evaluated. In this way, since the failure probability P1 that quantitatively indicates the possibility of character recognition failure is evaluated, the cause of character recognition failure can be accurately estimated.
本実施形態では、平均線幅Bavを求める対象の文字を規定していない(すなわち、文字列に含まれる全ての文字の平均線幅Bavを求める形態でもよい)が、平均線幅Bavを求める対象の文字を認識成功文字とする形態でもよい。この場合には、文字認識が成功した文字に対して平均線幅Bavが求められるため、適正な平均線幅Bavを求めることができる。 In the present embodiment, the character for which the average line width Bav is to be obtained is not defined (that is, the average line width Bav of all characters included in the character string may be obtained), but the object for which the average line width Bav is to be obtained. The character may be a recognition success character. In this case, since the average line width Bav is obtained for a character that has been successfully recognized, an appropriate average line width Bav can be obtained.
次に、図12を参照して、失敗原因が文字の線幅の場合のパラメータ値修正処理について説明する。図12は、図7に示すフローチャートのステップS217において、選択された失敗原因が文字の線幅である場合にパラメータ値を修正する処理の一例を示す詳細フローチャートである。なお、以下の処理は、すべて処理修正部117によって実行される。また、以下の処理は、図7に示すフローチャートのステップS217において実行される処理の一部である。
Next, with reference to FIG. 12, the parameter value correction process when the cause of failure is the line width of a character will be described. FIG. 12 is a detailed flowchart illustrating an example of a process for correcting a parameter value when the selected failure cause is a line width of a character in step S217 of the flowchart illustrated in FIG. The following processing is all executed by the
まず、ステップS351において、図10に示すフローチャートのステップS311で求められた差分線幅ΔBが正であるか否かの判定が行われる。ステップS351でYESの場合には、処理がステップS353に進められる。ステップS351でNOの場合には、処理がステップS357に進められる。 First, in step S351, it is determined whether or not the difference line width ΔB obtained in step S311 of the flowchart shown in FIG. 10 is positive. If YES in step S351, the process proceeds to step S353. If NO in step S351, the process proceeds to step S357.
ステップS353において、失敗原因が文字の線幅Bが太すぎることであると判定される。そして、ステップS355において、差分線幅ΔBの絶対値分だけ、白膨張処理する回数を増加する(又は、黒膨張する回数を減少する)設定に修正され(パラメータが書き換えられ)、処理がリターンされる。 In step S353, it is determined that the cause of failure is that the line width B of the character is too thick. In step S355, the number of times of white expansion processing is increased (or the number of times of black expansion is decreased) by the absolute value of the difference line width ΔB (the parameter is rewritten), and the processing is returned. The
ステップS357において、失敗原因が文字の線幅Bが細すぎることであると判定される。そして、ステップS359において、差分線幅ΔBの絶対値分だけ、黒膨張処理する回数を増加する(又は、白膨張する回数を減少する)設定に修正され(パラメータが書き換えられ)、処理がリターンされる。 In step S357, it is determined that the cause of the failure is that the line width B of the character is too thin. In step S359, the number of times of black expansion processing is increased (or the number of times of white expansion is decreased) by the absolute value of the difference line width ΔB (the parameter is rewritten), and the processing is returned. The
このようにして、文字の認識が失敗した原因が文字の線幅Bである(文字が太すぎる、又は、文字が細すぎる)ことであると推定された場合には、予め設定された推奨線幅B0(例えば、実験的に文字の認識率が最も高くなる線幅)と、実際の文字の線幅の平均値(平均線幅)Bavと、の差である差分線幅ΔBの絶対値分だけ黒膨張処理又は白膨張処理を行う設定に修正すればよい。このようにして、推定された原因(ここでは、文字の線幅B)に対応する少なくとも1つのパラメータの値が修正されるため、画像処理を規定するパラメータを適正に調整することができる。 In this way, when it is estimated that the cause of the character recognition failure is the line width B of the character (the character is too thick or the character is too thin), a preset recommended line is set in advance. The absolute value of the difference line width ΔB, which is the difference between the width B0 (for example, the line width at which the character recognition rate becomes the highest experimentally) and the average value (average line width) Bav of the actual characters Only the black expansion process or the white expansion process needs to be corrected. In this way, since the value of at least one parameter corresponding to the estimated cause (here, the line width B of the character) is corrected, the parameter defining the image processing can be adjusted appropriately.
−失敗原因が文字列の回転である場合−
次に、図13〜図15を参照して、失敗原因が「文字列の回転」である場合の失敗確率算出処理及びパラメータ値修正処理について説明する。図13は、文字列の回転に起因して文字認識が失敗するケースの一例を示す説明図である。
-When the cause of failure is rotation of a character string-
Next, a failure probability calculation process and a parameter value correction process when the cause of failure is “rotation of character string” will be described with reference to FIGS. FIG. 13 is an explanatory diagram illustrating an example of a case where character recognition fails due to rotation of a character string.
図13(a)は、「ABC」との文字列が反時計回りに回転している場合の文字切出処理が失敗する状態を示す図である。図13(b)は、図13(a)に示す二値画像920(又は、二値画像920に対応する濃淡画像)に対して回転処理を施すことによって、文
字列を水平に並んだ状態とした二値画像900では適正に文字切出処理が行われる状態を示す図である。
FIG. 13A is a diagram illustrating a state where the character extraction process fails when the character string “ABC” rotates counterclockwise. FIG. 13B shows a state in which character strings are arranged horizontally by rotating the
図13(a)には、反時計回りに回転している「ABC」との文字列921、922、923を含む二値画像920と、それに対応する水平投影グラフGy2、垂直投影グラフGx2が記載されている。水平投影グラフGy2において、積算値が水平投影閾値Ty2以上である領域が文字領域の高さ範囲h2として求められる。また、垂直投影グラフGx2において、積算値が垂直投影閾値Tx2以上である領域が文字領域の幅範囲b21、b22、b23として求められる。
FIG. 13A shows a
すなわち、図13(a)の二値画像920に示すように、文字列921、922、923が反時計回りに回転しているために、高さ範囲h2が文字の高さと比較して過大となってしまうと共に、「A」、「B」、「C」にそれぞれ対応する文字921、922、923が反時計回りに回転しているため、切り出された文字領域921a、922a、923aの文字認識処理が失敗することになる。
That is, as shown in the
これに対して、図13(b)に示すよう文字列が水平に並んだ状態とすれば、高さ範囲h0が文字の高さと概ね同じ値となり、且つ、「A」、「B」、「C」にそれぞれ対応する文字921、922、923の回転が修正されるため、「A」の文字に対応する文字領域901a、「B」の文字に対応する文字領域902a、及び、「C」の文字に対応する文字領域903aが適正に設定されて、文字認識処理が成功することになる。
On the other hand, if the character strings are arranged horizontally as shown in FIG. 13B, the height range h0 is approximately the same as the character height, and “A”, “B”, “ Since the rotation of the
次に、図14、図15を参照して、失敗原因が文字列の回転である場合の失敗確率算出処理について説明する。図14は、図7に示すフローチャートのステップS205において、文字列の回転に起因した失敗確率を求める処理(以下、「失敗確率算出処理2」ともいう)の一例を示す詳細フローチャートである。図15は、画像回転処理における回転角の修正値を求める方法の一例を示す説明図である。
Next, with reference to FIG. 14 and FIG. 15, a failure probability calculation process when the cause of failure is rotation of a character string will be described. FIG. 14 is a detailed flowchart showing an example of processing for obtaining a failure probability due to rotation of a character string (hereinafter also referred to as “failure
まず、図15を参照して、画像回転処理における回転角の修正量Δθを求める方法の一例について説明する。まず、各文字領域921a、922a、923aに含まれる黒画素の平均座標が求められる。例えば、文字領域921aに含まれる黒画素の座標を(Xi、Yi)(ここで、i=1、2、・・・、M:Mは、文字領域921aに含まれる黒画素の総数)とおくと、黒画素の平均座標(Xav,Yav)は、次の(3)式、(4)式で求められる。
First, an example of a method for obtaining the rotation angle correction amount Δθ in the image rotation process will be described with reference to FIG. First, the average coordinates of the black pixels included in each
Xav=(X1+X2+・・・+XM)/M (3)
Yav=(Y1+Y2+・・・+YM)/M (4)
そして、各文字領域921a、922a、923aに含まれる黒画素の平均座標に対応する点PO1、PO2、PO3を求め、点PO1、PO2、PO3の近似直線LGを最小二乗法等により求める。近似直線LGの水平方向に対してなす角Δθが画像回転処理における回転角の修正量Δθである。
Xav = (X1 + X2 +... + XM) / M (3)
Yav = (Y1 + Y2 +... + YM) / M (4)
Then, the points PO1, PO2, and PO3 corresponding to the average coordinates of the black pixels included in the
次に、図14を参照して、文字列の回転に起因した失敗確率P2を求める手順を説明する。なお、以下の処理は、すべて原因評価部114によって実行される。また、以下の処理は、図7に示すフローチャートのステップS205において実行される処理の一部である。
Next, with reference to FIG. 14, the procedure for obtaining the failure probability P2 due to the rotation of the character string will be described. The following processing is all executed by the
まず、ステップS401において、各文字の切り出し領域(図15では、文字領域921a、922a、923a)に含まれる黒画素の平均座標が求められる。そして、ステップS403において、ステップS401で求められた黒画素の平均座標に対応する点(図
15では、点PO1、PO2、PO3)の近似直線(図15では、近似直線LG)が最小二乗法により求められる。次いで、ステップS405において、ステップS403で求められた近似直線の水平方向に対してなす角Δθが、画像回転処理における回転角の修正量Δθとして求められる。そして、ステップS407において、失敗確率P2が、次の(5)式により求められ、処理がリターンされる。
First, in step S401, the average coordinates of black pixels included in each character cutout region (
P2=W2×|Δθ| (5)
ここで、重みW2は、実験等によって求められるものである。このようにして、文字の認識が失敗した原因が文字列の回転である場合に、各文字の切り出し領域921a、922a、923aに含まれる黒画素の平均座標に対応する点PO1、PO2、PO3の近似直線LGの水平方向に対してなす角Δθ(修正量Δθ)の絶対値に重みW2を乗じて、失敗確率P2を評価することができる。このようにして、文字の認識が失敗する可能性の高さを定量的に示す失敗確率P2が評価されるため、文字の認識が失敗した原因を正確に推定することができるのである。
P2 = W2 × | Δθ | (5)
Here, the weight W2 is obtained by experiments or the like. In this way, when the cause of the character recognition failure is the rotation of the character string, the points PO1, PO2, and PO3 corresponding to the average coordinates of the black pixels included in the
次に、失敗原因が「文字列の回転」である場合に、パラメータ値を修正する処理の一例について説明する。上述のようにして、画像回転処理における回転角の修正量Δθが求められるため、現在の画像回転処理において設定された回転角θ0を回転角(θ0+Δθ)とする設定に修正すればよい。 Next, an example of processing for correcting a parameter value when the cause of failure is “rotation of character string” will be described. Since the rotation angle correction amount Δθ in the image rotation process is obtained as described above, the rotation angle θ0 set in the current image rotation process may be corrected to the setting of the rotation angle (θ0 + Δθ).
このようにして、文字の認識が失敗した原因が「文字列の回転」であると推定された場合には、画像回転処理において設定された回転角θ0を回転角(θ0+Δθ)とする設定に修正すればよい。このようにして、推定された原因(ここでは、文字列の回転)に対応する少なくとも1つのパラメータの値が修正されるため、画像処理を規定するパラメータを適正に調整することができる。 In this way, when it is estimated that the cause of character recognition failure is “rotation of character string”, the rotation angle θ0 set in the image rotation processing is corrected to the rotation angle (θ0 + Δθ). do it. In this way, since the value of at least one parameter corresponding to the estimated cause (here, the rotation of the character string) is corrected, the parameter defining the image processing can be adjusted appropriately.
−失敗原因が文字の滲み・擦れである場合−
また、図16〜図18を参照して、失敗原因が「文字の滲み・擦れ」である場合の失敗確率算出処理及びパラメータ値修正処理について説明する。図16は、文字の擦れに起因して文字認識が失敗するケースの一例を示す説明図である。
-When the cause of failure is bleeding or rubbing of characters-
In addition, with reference to FIGS. 16 to 18, the failure probability calculation process and the parameter value correction process when the failure cause is “character blur / rubbing” will be described. FIG. 16 is an explanatory diagram illustrating an example of a case where character recognition fails due to character rubbing.
図16(a)は、「ABC」との文字列を構成する文字のうち、「A」の文字の一部(ここでは、左側)が擦れている場合の文字切出処理が失敗する状態を示す図である。図16(b)は、図16(a)に示す二値画像930に対応する濃淡画像に対して2値化閾値を修正する(ここでは、2値化閾値を下げる)処理を施すことによって擦れを除去した二値画像900では適正に文字切出処理が行われる状態を示す図である。
FIG. 16A shows a state in which the character extraction process fails when a part of the character “A” (here, the left side) is rubbed among the characters constituting the character string “ABC”. FIG. FIG. 16B rubs by performing a process of correcting the binarization threshold (here, lowering the binarization threshold) on the grayscale image corresponding to the
図16(a)には、「ABC」との文字列931、932、933を含む二値画像930と、それに対応する水平投影グラフGy3、垂直投影グラフGx3が記載されている。ここで、「ABC」との文字列931、932、933に含まれる「A」の文字931は、その一部(ここでは、左側)が擦れている。図16(a)では、「A」の文字931の一部(ここでは、左側)が擦れていることを、「A」の文字内における縦線の太さが次第に細くなることで示している。水平投影グラフGy3において、積算値が水平投影閾値Ty3以上である領域が文字領域の高さ範囲h3として求められる。また、垂直投影グラフGx3において、積算値が垂直投影閾値Tx3以上である領域が文字領域の幅範囲b31、b32、b33として求められる。
FIG. 16A shows a
すなわち、図16(a)の二値画像930に示すように、「A」の文字931の一部が擦れているために、「A」の文字のうち、擦れが発生している左側の領域において、垂直投影グラフGx3が垂直投影閾値Tx3未満となってしまうため、切り出される文字領域
931aの幅範囲b31が「A」の文字の幅より狭くなってしまう結果となっている。すなわち、文字領域931aとして、擦れが発生していない右側の領域が設定され、これが切り出されるため、文字認識処理が失敗することになる。
That is, as shown in the
これに対して、図16(b)に示すよう2値化閾値を適性な値とすれば、「A」の文字の擦れが2値化処理において修正されるため、「A」の文字に対応する文字領域901a、「B」の文字に対応する文字領域902a、及び、「C」の文字に対応する文字領域903aが適正に設定されて、文字認識処理が成功することになる。
On the other hand, if the binarization threshold is set to an appropriate value as shown in FIG. 16B, the rubbing of the character “A” is corrected in the binarization process, so that it corresponds to the character “A”. The
次に、図17を参照して、失敗原因が文字の滲み・擦れであるの場合の失敗確率算出処理について説明する。図17は、図7に示すフローチャートのステップS205において、文字の滲み・擦れに起因した失敗確率P3を求める処理(以下、「失敗確率算出処理3」ともいう)の一例を示す詳細フローチャートである。
Next, with reference to FIG. 17, a failure probability calculation process in the case where the failure cause is character blurring or rubbing will be described. FIG. 17 is a detailed flowchart showing an example of a process for obtaining the failure probability P3 (hereinafter also referred to as “failure
ここで、図17を参照して、文字の文字の滲み・擦れに起因した失敗確率P3を求める手順を説明する。なお、以下の処理は、すべて原因評価部114によって実行される。また、以下の処理は、図7に示すフローチャートのステップS205において実行される処理の一部である。まず、ステップS501において、文字の認識が失敗した文字(ここでは、文字「A」)について、文字画像(図11(a)参照)がエッジ画像(図11(b)参照)に変換される。そして、ステップS503において、文字の輪郭線に対する法線ベクトルVn(図11(b)参照)が求められる。
Here, with reference to FIG. 17, a procedure for obtaining the failure probability P3 due to the blurring / rubbing of characters will be described. The following processing is all executed by the
次いで、ステップS505において、法線方向が180度異なる2つの法線ベクトルVnのペア(対)が求められる。そして、ステップS507において、ステップS505でペアに選定された2つの法線ベクトルの始点間距離が線幅Bとして求められる。次に、ステップS509において、ステップS507で求められた線幅Bの標準偏差σが求められる。そして、ステップS511において、失敗確率P3が、次の(6)式により求められ、処理がリターンされる。 Next, in step S505, a pair of two normal vectors Vn whose normal directions are different by 180 degrees is obtained. In step S507, the distance between the start points of the two normal vectors selected as a pair in step S505 is obtained as the line width B. Next, in step S509, the standard deviation σ of the line width B obtained in step S507 is obtained. In step S511, the failure probability P3 is obtained by the following equation (6), and the process is returned.
P2=W3×σ (6)
ここで、重みW3は、実験等によって求められるものである。このようにして、文字の認識が失敗した原因が文字の滲み・擦れである場合に、文字の線幅Bの標準偏差σに重みW3を乗じて、失敗確率P3を評価することができる。このようにして、文字の認識が失敗する可能性の高さを定量的に示す失敗確率P3が評価されるため、文字の認識が失敗した原因を正確に推定することができるのである。
P2 = W3 × σ (6)
Here, the weight W3 is obtained by experiment or the like. In this way, when the cause of character recognition failure is bleeding or rubbing of a character, the failure probability P3 can be evaluated by multiplying the standard deviation σ of the line width B of the character by the weight W3. In this way, the failure probability P3 that quantitatively indicates the high possibility of character recognition failure is evaluated, so that the cause of character recognition failure can be accurately estimated.
次に、図18を参照して、失敗原因が文字の滲み・擦れである場合のパラメータ値修正処理について説明する。図18は、図7に示すフローチャートのステップS215において、選択された失敗原因が文字の擦れ(又は、滲み)である場合にパラメータ値を修正する処理内容の一例を示す説明図である。なお、以下の処理は、すべて処理修正部117によって実行される。また、以下の処理は、図7に示すフローチャートのステップS217において実行される処理の一部である。
Next, with reference to FIG. 18, a parameter value correction process in the case where the cause of failure is blurring or rubbing of characters will be described. FIG. 18 is an explanatory diagram showing an example of the processing content for correcting the parameter value when the selected failure cause is character rubbing (or blurring) in step S215 of the flowchart shown in FIG. The following processing is all executed by the
まず、ステップS551において、文字認識が成功した文字(ここでは、文字「B」と文字「C」)の線幅の平均値B0が求められる。次に、ステップS553において、文字認識が失敗した文字(ここでは、文字「A」)の線幅の平均値B1が求められる。そして、ステップS555において、平均値B0が平均値B1未満であるか否かの判定が行われる。ステップS555でYESの場合には、処理がステップS557へ進められる。ステップS555でNOの場合には、処理がステップS561へ進められる。 First, in step S551, an average line width B0 of characters that have been successfully recognized (here, character “B” and character “C”) is obtained. Next, in step S553, the average value B1 of the line widths of the characters for which character recognition has failed (here, the character “A”) is obtained. Then, in step S555, it is determined whether or not the average value B0 is less than the average value B1. If YES in step S555, the process proceeds to step S557. If NO in step S555, the process proceeds to step S561.
ステップS557において、文字認識が失敗した原因は滲みであると判定される。そして、ステップS559において、2値化閾値の設定値TH0が次の(7)式によって求められる設定値TH1に修正され(パラメータが書き換えられ)、処理がリターンされる。 In step S557, it is determined that the cause of the character recognition failure is bleeding. In step S559, the binarization threshold setting value TH0 is corrected to the setting value TH1 obtained by the following equation (7) (the parameter is rewritten), and the process is returned.
TH1=TH0×(1+|B1−B0|/10) (7)
ステップS561において、文字認識が失敗した原因は擦れであると判定される。そして、ステップS563において、2値化閾値の設定値TH0が次の(8)式によって求められる設定値TH2に修正され(パラメータが書き換えられ)、処理がリターンされる。
TH1 = TH0 × (1+ | B1-B0 | / 10) (7)
In step S561, it is determined that the cause of character recognition failure is rubbing. In step S563, the binarization threshold setting value TH0 is corrected to the setting value TH2 obtained by the following equation (8) (the parameter is rewritten), and the process is returned.
TH2=TH0×(1−|B1−B0|/10) (8)
このようにして、文字の認識が失敗した原因が文字の擦れ(又は滲み)であると推定された場合には、予め設定された2値化閾値の設定値TH0を、設定値TH1(又は、設定値TH2)に修正すればよい。このようにして、推定された原因(ここでは、文字の擦れ、又は、滲み)に対応する少なくとも1つのパラメータの値が修正されるため、画像処理を規定するパラメータを適正に調整することができる。
TH2 = TH0 × (1- | B1-B0 | / 10) (8)
In this way, when it is estimated that the cause of character recognition failure is character rubbing (or blurring), the preset threshold value TH0 of the binarization threshold is set to the set value TH1 (or What is necessary is just to correct to setting value TH2). In this way, since the value of at least one parameter corresponding to the estimated cause (here, text rubbing or blurring) is corrected, the parameter defining the image processing can be adjusted appropriately. .
−失敗原因が低コントラストである場合−
また、図19、図20を参照して、失敗原因が「低コントラスト」である場合の失敗確率算出処理及びパラメータ値修正処理について説明する。図19は、低コントラストに起因して文字認識が失敗するケースの一例を示す説明図である。
-When the cause of failure is low contrast-
In addition, a failure probability calculation process and a parameter value correction process when the cause of failure is “low contrast” will be described with reference to FIGS. 19 and 20. FIG. 19 is an explanatory diagram illustrating an example of a case where character recognition fails due to low contrast.
図19(a)は、「ABC」との文字列を構成する文字のうち、「A」、「B」、「C」の各文字が低コントラストである場合に文字切出処理が失敗する状態を示す図である。図19(b)は、図19(a)に示す二値画像940に対応する濃淡画像に対して各画素のコントラストを調整する(ここでは、コントラストを上げる)処理を施した二値画像900では適正に文字切出処理が行われる状態を示す図である。
FIG. 19A shows a state in which character extraction processing fails when each of the characters “A”, “B”, and “C” has a low contrast among the characters constituting the character string “ABC”. FIG. FIG. 19B shows a
図19(a)には、「ABC」との文字列941、942、943を含む二値画像940と、それに対応する水平投影グラフGy4、垂直投影グラフGx4が記載されている。ここで、「ABC」との文字列941、942、943に含まれる「A」、「B」、「C」の文字941、942、943は、その背景に対するコントラストが低い。図19(a)では、コントラストが低いことを、「A」、「B」、「C」の文字941、942、943に斜線を施すことで示している。水平投影グラフGy4において、積算値が水平投影閾値Ty4以上である領域が文字領域の高さ範囲h4として求められる。また、垂直投影グラフGx4において、積算値が垂直投影閾値Tx4以上である領域が文字領域の幅範囲b41、b42、b43として求められる。
FIG. 19A shows a
すなわち、図19(a)の二値画像940に示すように、「A」、「B」、「C」の文字941、942、943は、その背景に対するコントラストが低いために、「A」の文字のうち、両側の領域において、垂直投影グラフGx4が垂直投影閾値Tx4未満となってしまうため、切り出される文字領域941aの幅範囲b41が「A」の文字の幅より狭くなってしまう結果となっている。したがって、文字領域941aとして、中央部の領域が設定され、これが切り出されるため、文字認識処理が失敗することになる。
That is, as shown in the
これに対して、図19(b)に示すようコントラスト調整を適性に行うと、濃淡画像のコントラストが適正な値に調整されるため、「A」の文字に対応する文字領域901a、「B」の文字に対応する文字領域902a、及び、「C」の文字に対応する文字領域903aが適正に設定されて、文字認識処理が成功することになる。
On the other hand, if the contrast adjustment is appropriately performed as shown in FIG. 19B, the contrast of the grayscale image is adjusted to an appropriate value, so that the
次に、図20を参照して、失敗原因が低コントラストであるの場合の失敗確率算出処理
について説明する。図20は、図7に示すフローチャートのステップS205において、コントラストが低いことに起因した失敗確率を求める処理(以下、「失敗確率算出処理4」ともいう)の一例を示す詳細フローチャートである。
Next, a failure probability calculation process when the cause of failure is low contrast will be described with reference to FIG. FIG. 20 is a detailed flowchart illustrating an example of a process for obtaining a failure probability (hereinafter, also referred to as “failure
ここで、図20を参照して、コントラストが低いことに起因した失敗確率P4を求める手順を説明する。なお、以下の処理は、すべて原因評価部114によって実行される。また、以下の処理は、図7に示すフローチャートのステップS205において実行される処理の一部である。まず、ステップS601において、濃淡画像の画像領域内における画素値の最大値Imax及び最小値Iminが求められる。そして、ステップS603において、次の(9)式によって、コントラストCが求められる。
Here, with reference to FIG. 20, the procedure for obtaining the failure probability P4 due to the low contrast will be described. The following processing is all executed by the
C=(Imax−Imin)/(Imax+Imin) (9)
次いで、ステップS605において、次の(10)式によって、失敗確率P4が、求められ、処理がリターンされる。
C = (Imax−Imin) / (Imax + Imin) (9)
Next, in step S605, the failure probability P4 is obtained by the following equation (10), and the process is returned.
P4=W4×C (10)
ここで、重みW4は、実験等によって求められるものである。このようにして、文字の認識が失敗した原因が低コントラストである場合に、濃淡画像のコントラストCに重みW4を乗じて、失敗確率P4を評価することができる。このようにして、文字の認識が失敗する可能性の高さを定量的に示す失敗確率P4が評価されるため、文字の認識が失敗した原因を正確に推定することができるのである。
P4 = W4 × C (10)
Here, the weight W4 is obtained by experiments or the like. In this way, when the cause of character recognition failure is low contrast, the failure probability P4 can be evaluated by multiplying the contrast C of the grayscale image by the weight W4. In this way, since the failure probability P4 that quantitatively indicates the possibility of character recognition failure is evaluated, the cause of character recognition failure can be accurately estimated.
次に、失敗原因が低コントラストである場合のパラメータ値修正処理について説明する。濃淡画像の各画素の画素値Iを次の(11)式によって求められる画素値I’にコントラスト調整するように、コントラスト調整を規定するパラメータの値を修正する。 Next, parameter value correction processing when the cause of failure is low contrast will be described. The parameter value defining the contrast adjustment is modified so that the pixel value I of each pixel of the grayscale image is contrast-adjusted to the pixel value I ′ obtained by the following equation (11).
I’=(I−Imin)×(255/((Imax−Imin)) (11)
このようにして、文字の認識が失敗した原因が低コントラストであると推定された場合には、濃淡画像の各画素の画素値Iを、上記(11)式で規定する画素値I’に修正すればよい。このようにして、推定された原因(ここでは、低コントラスト)に対応する少なくとも1つのパラメータの値が修正されるため、画像処理を規定するパラメータを適正に調整することができる。
I ′ = (I−Imin) × (255 / ((Imax−Imin)) (11)
In this way, when it is estimated that the cause of character recognition failure is low contrast, the pixel value I of each pixel of the grayscale image is corrected to the pixel value I ′ defined by the above equation (11). do it. In this manner, since the value of at least one parameter corresponding to the estimated cause (here, low contrast) is corrected, the parameter defining the image processing can be adjusted appropriately.
−他の実施形態−
本実施形態では、画像処理装置100を構成する画像処理部111、成否受付部112、成否判定部113、原因評価部114、結果表示部115、原因推定部116、及び、処理修正部117がすべてCPU11において機能部として実現されている場合について説明したが、画像処理部111、成否受付部112、成否判定部113、原因評価部114、結果表示部115、原因推定部116、及び、処理修正部117の少なくとも1つが電子回路等のハードウェアで構成されている形態でもよい。
-Other embodiments-
In the present embodiment, the
本実施形態では、失敗確率算出処理及びパラメータ値修正処理については、便宜上、文字の認識が失敗した原因が、文字の線幅、文字列の回転、文字の擦れ・滲み、及び、低コントラストである場合について、具体的な説明を行っているが、文字の認識が失敗した原因が、その他の原因(例えば、文字のサイズ(小さすぎる、大きすぎる)等)であってもよい。 In the present embodiment, for the failure probability calculation process and the parameter value correction process, for the sake of convenience, the cause of character recognition failure is character line width, character string rotation, character rubbing / bleeding, and low contrast. Although the specific description is given about the case, the cause of the failure in character recognition may be other causes (for example, the size of the character (too small or too large)).
本発明は、認識対象部位を含む物体を撮像して得られる画像に対して予め定められた画像処理を施して、前記認識対象部位を認識する画像処理装置、画像処理方法、及び、画像
処理プログラムに利用することができる。また、本発明は、認識対象部位を含む波形データに対して予め定められた認識処理を施して、前記認識対象部位を認識する波形データ処理装置に利用することができる。
The present invention provides an image processing apparatus, an image processing method, and an image processing program that perform predetermined image processing on an image obtained by imaging an object including a recognition target part to recognize the recognition target part. Can be used. In addition, the present invention can be used for a waveform data processing apparatus that recognizes the recognition target part by performing a predetermined recognition process on the waveform data including the recognition target part.
100 画像処理装置
1 画像処理装置本体
11 CPU
111 画像処理部
112 成否受付部(成否受付手段)
113 成否判定部(成否判定手段)
114 原因評価部(原因評価手段)
115 結果表示部(結果表示手段)
116 原因推定部(原因推定手段)
117 処理修正部(処理修正手段)
12 EEPROM
121 パラメータ記憶部
13 RAM
14 画像メモリ
15 変換器
16 変換器
17 入出力部
2 カメラ
3 モニタ(画像表示手段)
4 入力装置(操作受付手段)
5 製品
6 コンベア
DESCRIPTION OF
111
113 Success / failure determination unit (success / failure determination means)
114 Cause evaluation section (cause evaluation means)
115 result display section (result display means)
116 Cause estimation unit (cause estimation means)
117 Process Correction Unit (Process Correction Unit)
12 EEPROM
121
14
4 Input device (operation receiving means)
5
Claims (11)
前記認識対象部位の認識が失敗したか否かを判定する成否判定手段と、
前記成否判定手段によって前記認識対象部位の認識が失敗したと判定された場合に、前記認識対象部位の認識が失敗した原因を推定する原因推定手段と、
前記原因推定手段によって推定された原因に基づいて、前記画像処理を規定する複数のパラメータのうち、前記推定された原因に対応する少なくとも1つのパラメータの値を修正する処理修正手段と、を備えることを特徴とする画像処理装置。 An image processing apparatus that performs predetermined image processing on an image obtained by imaging an object including a recognition target part and recognizes the recognition target part,
Success / failure determination means for determining whether or not recognition of the recognition target portion has failed;
When it is determined by the success / failure determination unit that the recognition of the recognition target part has failed, cause estimation means for estimating the cause of the recognition target part recognition failure;
Processing correction means for correcting a value of at least one parameter corresponding to the estimated cause among a plurality of parameters defining the image processing based on the cause estimated by the cause estimating means. An image processing apparatus.
外部からの操作入力を受け付ける操作受付手段と、
前記認識対象部位の認識が成功したか否かの判定結果を示す操作入力を、前記操作受付手段を介して受け付ける成否受付手段と、を更に備え、
前記成否判定手段は、前記成否受付手段によって受け付けられた操作入力に基づいて、前記認識対象部位の認識が失敗したか否かを判定することを特徴とする画像処理装置。 The image processing apparatus according to claim 1.
Operation accepting means for accepting external operation input;
A success / failure accepting unit for accepting an operation input indicating a determination result of whether or not the recognition of the recognition target part has been successful through the operation accepting unit;
The image processing apparatus, wherein the success / failure determination unit determines whether or not recognition of the recognition target part has failed based on an operation input received by the success / failure reception unit.
前記成否判定手段によって前記認識対象部位の認識が失敗したと判定された場合に、予め設定された複数の原因ごとに、前記認識対象部位の認識が失敗する可能性の高さを定量的に示す失敗確率として評価する原因評価手段を更に備え、
前記原因推定手段は、前記原因評価手段によって評価された失敗確率に基づいて、前記認識対象部位の認識が失敗した原因を推定することを特徴とする画像処理装置。 The image processing apparatus according to claim 1 or 2,
When it is determined by the success / failure determination means that the recognition of the recognition target part has failed, the possibility of the recognition target part recognition failing is quantitatively indicated for each of a plurality of preset causes. Further comprising a cause evaluation means for evaluating as a failure probability,
The image processing apparatus according to claim 1, wherein the cause estimating means estimates a cause of failure in recognition of the recognition target part based on a failure probability evaluated by the cause evaluating means.
外部から視認可能に画像を表示する画像表示手段と、
前記複数の原因のうち、前記原因評価手段によって失敗確率が高いと評価された順に、予め設定された2以上の所定個数の原因を示す文字又は画像を、前記画像表示手段に表示させる結果表示手段と、を更に備えることを特徴とする画像処理装置。 The image processing apparatus according to claim 3.
Image display means for displaying an image so as to be visible from outside;
Among the plurality of causes, a result display unit that causes the image display unit to display characters or images indicating a predetermined number of two or more preset causes in the order in which the cause evaluation unit evaluates that the failure probability is high. And an image processing apparatus.
前記結果表示手段は、前記2以上の所定個数の原因に対応付けて、前記原因評価手段によって評価された失敗確率の値を示す文字又は画像を、前記画像表示手段に表示させることを特徴とする画像処理装置。 The image processing apparatus according to claim 4.
The result display means causes the image display means to display a character or an image indicating a failure probability value evaluated by the cause evaluation means in association with the two or more predetermined number of causes. Image processing device.
前記原因推定手段は、前記結果表示手段によって前記画像表示手段に表示された前記2以上の所定個数の原因の中から、1つの前記認識対象部位の認識が失敗した原因を選択する選択入力を、前記操作受付手段を介して受け付けて、選択された原因を前記認識対象部位の認識が失敗した原因であると推定することを特徴とする画像処理装置。 The image processing apparatus according to claim 4 or 5,
The cause estimating means is a selection input for selecting a cause of the recognition failure of one recognition target part from the two or more predetermined number of causes displayed on the image display means by the result display means, An image processing apparatus that receives via the operation accepting means and estimates that the selected cause is a cause of failure in recognition of the recognition target part.
前記処理修正手段は、前記原因推定手段によって前記認識対象部位の認識が失敗した原因であると推定された原因について、前記原因評価手段によって評価された失敗確率が大きい程、前記推定された原因に対応する少なくとも1つのパラメータの値を大幅に修正することを特徴とする画像処理装置。 The image processing apparatus according to any one of claims 3 to 6,
The processing correction means, for the cause estimated to be the cause of the recognition failure of the recognition target part by the cause estimation means, the greater the failure probability evaluated by the cause evaluation means, An image processing apparatus characterized by significantly correcting a value of at least one corresponding parameter.
前記認識対象部位は、前記物体の表面に形成された文字であることを特徴とする画像処
理装置。 In the image processing device according to any one of claims 1 to 7,
The image processing apparatus, wherein the recognition target part is a character formed on a surface of the object.
前記認識対象部位の認識が失敗したか否かを判定する成否判定手段と、
前記成否判定手段によって前記認識対象部位の認識が失敗したと判定された場合に、前記認識対象部位の認識が失敗した原因を推定する原因推定手段と、
前記原因推定手段によって推定された原因に基づいて、前記認識処理を規定する複数のパラメータのうち、前記推定された原因に対応する少なくとも1つのパラメータの値を修正する処理修正手段と、を備えることを特徴とする波形データ処理装置。 A waveform data processing device that performs a predetermined recognition process on waveform data including a recognition target part and recognizes the recognition target part,
Success / failure determination means for determining whether or not recognition of the recognition target portion has failed;
When it is determined by the success / failure determination unit that the recognition of the recognition target part has failed, cause estimation means for estimating the cause of the recognition target part recognition failure;
Processing correction means for correcting a value of at least one parameter corresponding to the estimated cause among a plurality of parameters defining the recognition process based on the cause estimated by the cause estimating means. A waveform data processing apparatus characterized by the above.
前記認識対象部位の認識が失敗したか否かを判定する成否判定ステップと、
前記成否判定ステップにおいて前記認識対象部位の認識が失敗したと判定された場合に、前記認識対象部位の認識が失敗した原因を推定する原因推定ステップと、
前記原因推定ステップにおいて推定された原因に基づいて、前記画像処理を規定する複数のパラメータのうち、前記推定された原因に対応する少なくとも1つのパラメータの値を修正する処理修正ステップと、を実行することを特徴とする画像処理方法。 An image processing method for recognizing the recognition target part by performing predetermined image processing on an image obtained by imaging an object including the recognition target part,
Success / failure determination step for determining whether or not recognition of the recognition target part has failed,
If it is determined in the success / failure determination step that the recognition of the recognition target part has failed, a cause estimation step for estimating the cause of the recognition target part recognition failure;
A process correcting step of correcting a value of at least one parameter corresponding to the estimated cause among a plurality of parameters defining the image processing based on the cause estimated in the cause estimating step; An image processing method.
前記認識対象部位の認識が失敗したか否かを判定する成否判定手段と、
前記成否判定手段によって前記認識対象部位の認識が失敗したと判定された場合に、前記認識対象部位の認識が失敗した原因を推定する原因推定手段と、
前記原因推定手段によって推定された原因に基づいて、前記画像処理を規定する複数のパラメータのうち、前記推定された原因に対応する少なくとも1つのパラメータの値を修正する処理修正手段として機能させることを特徴とする画像処理プログラム。 An image processing program executed on a computer disposed in an image processing apparatus that performs predetermined image processing on an image obtained by imaging an object including a recognition target part and recognizes the recognition target part. And said computer
Success / failure determination means for determining whether or not recognition of the recognition target portion has failed;
When it is determined by the success / failure determination unit that the recognition of the recognition target part has failed, cause estimation means for estimating the cause of the recognition target part recognition failure;
Based on the cause estimated by the cause estimating means, functioning as a process correcting means for correcting a value of at least one parameter corresponding to the estimated cause among a plurality of parameters defining the image processing. A characteristic image processing program.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011055805A JP5782760B2 (en) | 2011-03-14 | 2011-03-14 | Image processing apparatus, image processing method, image processing program, and waveform data processing apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011055805A JP5782760B2 (en) | 2011-03-14 | 2011-03-14 | Image processing apparatus, image processing method, image processing program, and waveform data processing apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012190422A true JP2012190422A (en) | 2012-10-04 |
JP5782760B2 JP5782760B2 (en) | 2015-09-24 |
Family
ID=47083463
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011055805A Active JP5782760B2 (en) | 2011-03-14 | 2011-03-14 | Image processing apparatus, image processing method, image processing program, and waveform data processing apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5782760B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014116007A (en) * | 2012-12-06 | 2014-06-26 | Toyota Motor Engineering & Manufacturing North America Inc | Object detection parameter, object recognition parameter and method and robot for adjusting object detection parameter and object recognition parameter |
JP5950317B1 (en) * | 2016-02-25 | 2016-07-13 | 有限会社Ics Sakabe | Code recognition system, code recognition method, code recognition program, and package sorting system |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000246184A (en) * | 1999-02-25 | 2000-09-12 | Toshiba Corp | Address specifying device |
WO2006129711A1 (en) * | 2005-05-31 | 2006-12-07 | Nikon Corporation | Evaluation system and evaluation method |
-
2011
- 2011-03-14 JP JP2011055805A patent/JP5782760B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000246184A (en) * | 1999-02-25 | 2000-09-12 | Toshiba Corp | Address specifying device |
WO2006129711A1 (en) * | 2005-05-31 | 2006-12-07 | Nikon Corporation | Evaluation system and evaluation method |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014116007A (en) * | 2012-12-06 | 2014-06-26 | Toyota Motor Engineering & Manufacturing North America Inc | Object detection parameter, object recognition parameter and method and robot for adjusting object detection parameter and object recognition parameter |
US10572774B2 (en) | 2012-12-06 | 2020-02-25 | Toyota Motor Engineering & Manufacturing North America. Inc. | Methods and robots for adjusting object detection parameters, object recognition parameters, or both object detection parameters and object recognition parameters |
JP5950317B1 (en) * | 2016-02-25 | 2016-07-13 | 有限会社Ics Sakabe | Code recognition system, code recognition method, code recognition program, and package sorting system |
Also Published As
Publication number | Publication date |
---|---|
JP5782760B2 (en) | 2015-09-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20200210702A1 (en) | Apparatus and method for image processing to calculate likelihood of image of target object detected from input image | |
US9613404B2 (en) | Image processing method, image processing apparatus and electronic device | |
JP2019046095A (en) | Information processing device, and control method and program for information processing device | |
EP2919167A2 (en) | Image processing device, image processing method, and image processing program | |
US20080089588A1 (en) | Rotation angle detection apparatus, and control method and control program of rotation angle detection apparatus | |
US20130315489A1 (en) | Pattern processing device, pattern processing method, and pattern processing program | |
CN109035167B (en) | Method, device, equipment and medium for processing multiple faces in image | |
CN108304243B (en) | Interface generation method and device, computer equipment and storage medium | |
US11847757B2 (en) | Systems and methods for lean ortho correction for computer models of structures | |
CN105761256B (en) | The sub-pixel edge straight line acquisition methods and device of image | |
JP5782760B2 (en) | Image processing apparatus, image processing method, image processing program, and waveform data processing apparatus | |
JP7106296B2 (en) | Image processing device, image processing method and program | |
US11527067B2 (en) | Electronic device, action instance generation method, and recording medium | |
WO2011033744A1 (en) | Image processing device, image processing method, and program for processing image | |
JP2006343989A (en) | Image processing device, image processing method, and image processing program | |
KR20200080409A (en) | Apparatus for analyzing microstructure | |
CN113167568B (en) | Coordinate calculation device, coordinate calculation method, and computer-readable recording medium | |
US9842406B2 (en) | System and method for determining colors of foreground, and computer readable recording medium therefor | |
JP4798018B2 (en) | Image matching device | |
CN110310235B (en) | Fundus image processing method, device and equipment and storage medium | |
CN113643265A (en) | Quality grade determination method, device, equipment and medium based on artificial intelligence | |
JP2011048469A (en) | Image processing device, image processing method, and image processing program | |
CN112508925A (en) | Electronic lock panel quality detection method, system, computer device and storage medium | |
US20220114773A1 (en) | Generation system and generation method for perspective image | |
CN110288662A (en) | Display detection method and system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140313 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20141126 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20141209 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150203 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150623 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150706 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5782760 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |