JP2010231541A - Information processor, character recognition method and program - Google Patents

Information processor, character recognition method and program Download PDF

Info

Publication number
JP2010231541A
JP2010231541A JP2009078915A JP2009078915A JP2010231541A JP 2010231541 A JP2010231541 A JP 2010231541A JP 2009078915 A JP2009078915 A JP 2009078915A JP 2009078915 A JP2009078915 A JP 2009078915A JP 2010231541 A JP2010231541 A JP 2010231541A
Authority
JP
Japan
Prior art keywords
recognition target
information
processing apparatus
area
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009078915A
Other languages
Japanese (ja)
Inventor
Tomoya Igi
智也 井木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2009078915A priority Critical patent/JP2010231541A/en
Publication of JP2010231541A publication Critical patent/JP2010231541A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Character Input (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an information processor that improves accuracy of character recognition by specifying a character-recognition area, and to provide a character recognition method, and a program. <P>SOLUTION: The information processor includes: a storage unit which stores, for each character recognition object, recognition object reference information formed by recording information on a position of an area to be processed in the character recognition object in association with a processing order; a recognition area setting unit which sets a recognition area to be processed in the order according to the processing order based on image data showing the character recognition object and recognition object reference information corresponding to the image data; and a character recognition unit which recognizes a character included in the set recognition area. The recognition area setting unit relatively sets a recognition area corresponding to a first area to be processed first based on a first reference position showing a predetermined position of the image data, and relatively sets a recognition area corresponding to the other area based on a second reference position corresponding to the set recognition area. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、情報処理装置、文字認識方法、およびプログラムに関する。   The present invention relates to an information processing apparatus, a character recognition method, and a program.

近年、文字認識対象に記載された文字(例えば、印字された文字や手書きの文字)を光学的に読み取り、光学文字認識(Optical Character Recognition)技術(以下、「OCR技術」という。)を用いて文字データを取得することが可能な情報処理装置が普及している。   In recent years, a character (for example, a printed character or a handwritten character) described as a character recognition target is optically read and optical character recognition (Optical Character Recognition) technology (hereinafter referred to as “OCR technology”) is used. Information processing apparatuses capable of acquiring character data have become widespread.

ここで、OCR技術により文字データを取得する情報処理装置は、文字認識対象の全体から文字データを取得することができるが、上記に限られない。例えば、情報処理装置は、文字が記載されうる記載欄が予め規定されている帳票(文字認識対象の一例)などから当該記載欄に記載された文字データを選択的に取得することもできる。上記のように文字認識対象から選択的に文字データを取得する場合、文字認識の精度の向上を図るためには、文字認識処理を行う処理対象の領域をより正確に特定することが重要となる。   Here, the information processing apparatus that acquires character data using the OCR technique can acquire character data from the entire character recognition target, but is not limited thereto. For example, the information processing apparatus can selectively acquire the character data described in the description column from a form (an example of a character recognition target) in which a description column in which characters can be described is defined in advance. When character data is selectively acquired from a character recognition target as described above, it is important to more accurately identify a processing target area for performing character recognition processing in order to improve the accuracy of character recognition. .

このような中、文字認識の精度の向上を図るための技術が開発されている。予め規定された処理対象の領域の相対的な位置関係を示す情報に基づいて、処理対象の領域を推定する技術としては、特許文献1が挙げられる。また、処理対象の領域間の相対的なずれが少ないことを前提とし、処理対象の領域を罫線に基づく基準位置から推定する技術としては、例えば、特許文献2が挙げられる。   Under such circumstances, techniques for improving the accuracy of character recognition have been developed. As a technique for estimating a processing target region based on information indicating a relative positional relationship between processing target regions defined in advance, Patent Literature 1 is cited. Further, as a technique for estimating a processing target region from a reference position based on a ruled line on the premise that a relative shift between processing target regions is small, for example, Patent Document 2 is cited.

特開2005−165978号公報JP 2005-165978 A 特開平5−159099号公報Japanese Patent Laid-Open No. 5-159099

文字認識の精度の向上を図るための従来の技術(以下、「従来の技術」という。)は、文字認識処理を行う処理対象の領域間の相対的な位置関係が予め規定された情報に基づいて、文字認識処理を行う処理対象の領域(以下、「処理領域」とよぶ場合がある。)を特定する。   A conventional technique for improving the accuracy of character recognition (hereinafter referred to as “conventional technique”) is based on information in which a relative positional relationship between regions to be subjected to character recognition processing is defined in advance. Thus, a region to be processed for character recognition processing (hereinafter, referred to as “processing region” in some cases) is specified.

しかしながら、従来の技術が適用された情報処理装置(以下、「従来の情報処理装置」とよぶ場合がある。)が処理を行う文字認識対象は、処理領域間の相対的な位置関係が常に理想の位置関係にあるとは限らない。例えば、帳票などの文字認識対象に文字を印刷する印刷時において間延び(または縮み)や印刷ずれ(位置ずれ)、歪みなどが生じた場合には、処理領域間の相対的な位置関係に水平方向および/または垂直方向のずれ(理想の位置関係からのずれ)が生じることがある。上記のように処理領域間の相対的な位置関係にずれが生じた場合であっても、従来の情報処理装置は、理想的な位置関係に基づいて処理領域を特定するので、特定された処理領域は、文字認識対象の記載欄に対応する領域とは異なるものとなる。よって、上記のように処理領域間の相対的な位置関係にずれが生じた場合には、従来の情報処理装置は誤って特定された処理領域に対して文字認識処理を行うので、取得された文字データは、文字認識対象の記載欄に記載された文字とは異なるものとなる(文字の誤認識の発生)。したがって、従来の技術を用いたとしても、文字認識の精度の向上は望むべくもない。   However, a character recognition target to be processed by an information processing apparatus to which a conventional technique is applied (hereinafter sometimes referred to as a “conventional information processing apparatus”) is always ideal in the relative positional relationship between processing regions. It is not always in the positional relationship. For example, when printing is performed on a character recognition target such as a form, if there is a stretch (or shrinkage), print misalignment (position misalignment), or distortion, the relative positional relationship between the processing areas is And / or vertical displacement (deviation from the ideal positional relationship) may occur. Even when the relative positional relationship between the processing regions is deviated as described above, the conventional information processing apparatus specifies the processing region based on the ideal positional relationship. The area is different from the area corresponding to the description column for the character recognition target. Therefore, when a shift occurs in the relative positional relationship between the processing areas as described above, the conventional information processing apparatus performs character recognition processing on the processing area that is specified in error, and thus is acquired. The character data is different from the characters described in the description column for character recognition (occurrence of character recognition error). Therefore, even if the conventional technique is used, it is not desired to improve the accuracy of character recognition.

本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、文字認識を行う処理対象の領域を特定し、文字認識の精度の向上を図ることが可能な、新規かつ改良された情報処理装置、文字認識方法、およびプログラムを提供することにある。   The present invention has been made in view of the above problems, and an object of the present invention is to identify a processing target area for character recognition and improve the accuracy of character recognition. Another object of the present invention is to provide an improved information processing apparatus, character recognition method, and program.

上記目的を達成するために、本発明の第1の観点によれば、文字認識対象における処理対象の領域の位置に関する情報が処理される順番と対応付けて記録された認識対象基準情報を文字認識対象ごとに記憶する記憶部と、文字認識対象を表す画像データと、上記画像データに対応する上記認識対象基準情報とに基づいて、上記処理される順番に応じた順序で処理対象となる認識対象領域を設定する認識対象領域設定部と、上記認識対象領域設定部において設定された上記認識対象領域に含まれる文字を認識する文字認識部とを備え、上記認識対象領域設定部は、1番目に処理される第1の領域に対応する認識対象領域を、上記画像データの所定の位置を示す第1基準位置を基準として相対的に設定し、上記第1の領域以外の他の領域に対応する認識対象領域を、設定済みの認識対象領域に対応する第2基準位置を基準として相対的に設定する情報処理装置が提供される。   In order to achieve the above object, according to the first aspect of the present invention, the recognition target reference information recorded in association with the order in which the information on the position of the processing target region in the character recognition target is processed is recognized. A recognition target to be processed in an order corresponding to the processing order based on a storage unit for each target, image data representing a character recognition target, and the recognition target reference information corresponding to the image data A recognition target region setting unit for setting a region; and a character recognition unit for recognizing characters included in the recognition target region set in the recognition target region setting unit. The recognition target area corresponding to the first area to be processed is set relative to the first reference position indicating the predetermined position of the image data, and corresponds to other areas other than the first area. The recognition target area, relative information processing apparatus for setting are provided with reference to the second reference position corresponding to the configured recognition target region.

かかる構成により、文字認識を行う処理対象の領域を特定し、文字認識の精度の向上を図ることができる。   With this configuration, it is possible to specify a processing target area for character recognition and improve the accuracy of character recognition.

また、上記認識対象領域設定部は、上記他の領域に対応する認識対象領域を、設定済みの認識対象領域のうち、上記他の領域と相対的な距離が近い認識対象領域に対応する第2基準位置に基づいて設定してもよい。   In addition, the recognition target area setting unit sets a recognition target area corresponding to the other area to a recognition target area corresponding to a recognition target area that is close to the other area among the set recognition target areas. You may set based on a reference position.

また、上記認識対象領域設定部は、上記他の領域に対応する認識対象領域を、設定済みの認識対象領域のうち、上記他の領域の1つ前に設定された認識対象領域に対応する第2基準位置に基づいて設定してもよい。   Further, the recognition target area setting unit sets a recognition target area corresponding to the other area to a recognition target area corresponding to a recognition target area set immediately before the other area among the set recognition target areas. You may set based on 2 reference positions.

また、上記画像データに基づいて、上記認識対象基準情報を上記記憶部に記録する情報記録部をさらに備えてもよい。   Moreover, you may further provide the information recording part which records the said recognition object reference | standard information in the said memory | storage part based on the said image data.

また、上記記憶部は、上記第2基準位置を導出するための基準となる領域が上記処理対象の領域ごとに設定された関連付情報を文字認識対象ごとに記憶し、上記認識対象領域設定部は、上記画像データに対応する関連付情報に基づいて、上記他の領域に対応する認識対象領域を、上記関連付情報において関連付けられた領域に対して設定された認識対象領域に対応する第2基準位置に基づいて設定してもよい。   The storage unit stores, for each character recognition target, association information in which a region serving as a reference for deriving the second reference position is set for each region to be processed, and the recognition target region setting unit Is based on the association information corresponding to the image data, and the second region corresponding to the recognition target region set for the region associated in the association information is set as the recognition target region corresponding to the other region. You may set based on a reference position.

また、上記画像データに基づいて、上記認識対象基準情報と上記関連付情報とを上記記憶部に記録する情報記録部をさらに備えてもよい。   Moreover, you may further provide the information recording part which records the said recognition object reference | standard information and the said association information on the said memory | storage part based on the said image data.

また、文字認識対象を読み取り、上記画像データを生成する読取部をさらに備えてもよい。   Further, a reading unit that reads a character recognition target and generates the image data may be further provided.

上記目的を達成するために、本発明の第2の観点によれば、文字認識対象における処理対象の領域の位置に関する情報が処理される順番と対応付けて記録された認識対象基準情報を文字認識対象ごとに記憶する記憶部を備える情報処理装置に用いることが可能な文字認識方法であって、文字認識対象を表す画像データに対応する上記認識対象基準情報を上記記憶部から読み出すステップと、上記画像データに基づいて上記画像データの所定の位置を示す第1基準位置を設定するステップと、上記認識対象基準情報と上記第1基準位置とに基づいて、1番目に処理される第1の領域に対応する認識対象領域を、上記第1基準位置を基準として相対的に設定するステップと、上記認識対象基準情報と設定済みの認識対象領域に対応する第2基準位置とに基づいて、上記第1の領域以外の他の領域に対応する認識対象領域を、上記第2基準位置を基準として相対的に設定するステップと、設定された各認識対象領域に含まれる文字を認識するステップとを有する文字認識方法が提供される。   In order to achieve the above object, according to the second aspect of the present invention, the recognition target reference information recorded in association with the order in which the information regarding the position of the processing target region in the character recognition target is processed is recognized. A character recognition method that can be used in an information processing apparatus including a storage unit that stores data for each target, the step of reading the recognition target reference information corresponding to image data representing a character recognition target from the storage unit, and A step of setting a first reference position indicating a predetermined position of the image data based on the image data, and a first area processed first based on the recognition target reference information and the first reference position And a second reference position corresponding to the recognition target area that has already been set and the recognition target reference information. And a step of relatively setting a recognition target area corresponding to an area other than the first area based on the second reference position, and characters included in each set recognition target area A method for recognizing a character is provided.

かかる方法を用いることにより、文字認識を行う処理対象の領域を特定し、文字認識の精度の向上を図ることができる。   By using such a method, it is possible to specify a processing target area for character recognition and improve the accuracy of character recognition.

上記目的を達成するために、本発明の第3の観点によれば、文字認識対象における処理対象の領域の位置に関する情報が処理される順番と対応付けて記録された認識対象基準情報を文字認識対象ごとに記憶する記憶部を備える情報処理装置に用いることが可能なプログラムであって、文字認識対象を表す画像データに対応する上記認識対象基準情報を上記記憶部から読み出すステップ、上記画像データに基づいて上記画像データの所定の位置を示す第1基準位置を設定するステップ、上記認識対象基準情報と上記第1基準位置とに基づいて、1番目に処理される第1の領域に対応する認識対象領域を、上記第1基準位置を基準として相対的に設定するステップ、上記認識対象基準情報と設定済みの認識対象領域に対応する第2基準位置とに基づいて、上記第1の領域以外の他の領域に対応する認識対象領域を、上記第2基準位置を基準として相対的に設定するステップ、設定された各認識対象領域に含まれる文字を認識するステップをコンピュータに実行させるためのプログラムが提供される。   In order to achieve the above object, according to the third aspect of the present invention, the recognition target reference information recorded in association with the order in which the information regarding the position of the processing target region in the character recognition target is processed is recognized. A program that can be used in an information processing apparatus that includes a storage unit that stores data for each target, the step of reading the recognition target reference information corresponding to image data representing a character recognition target from the storage unit, and the image data A step of setting a first reference position indicating a predetermined position of the image data based on the recognition, the recognition corresponding to the first region to be processed first based on the recognition target reference information and the first reference position The step of setting the target area relative to the first reference position as a reference, based on the recognition target reference information and the second reference position corresponding to the set recognition target area. A step of relatively setting a recognition target region corresponding to a region other than the first region with reference to the second reference position, and a step of recognizing characters included in each set recognition target region A program for causing a computer to execute is provided.

かかるプログラムを用いることにより、文字認識を行う処理対象の領域を特定し、文字認識の精度の向上を図ることができる。   By using such a program, it is possible to specify a region to be processed for character recognition and improve the accuracy of character recognition.

本発明によれば、文字認識を行う処理対象の領域を特定し、文字認識の精度の向上を図ることができる。   According to the present invention, it is possible to specify a processing target area for character recognition and improve the accuracy of character recognition.

本発明の実施形態に係る文字認識対象に対応する画像データの一の例を示す説明図である。It is explanatory drawing which shows an example of the image data corresponding to the character recognition object which concerns on embodiment of this invention. 本発明の実施形態に係る文字認識対象に対応する画像データの一の例を示す説明図である。It is explanatory drawing which shows an example of the image data corresponding to the character recognition object which concerns on embodiment of this invention. 文字認識に係る位置ずれ等が発生している画像データを処理するための一の方法における問題を説明するための説明図である。It is explanatory drawing for demonstrating the problem in one method for processing the image data in which the position shift etc. which concern on character recognition have generate | occur | produced. 本発明の実施形態に係る文字認識の精度向上アプローチの概要を説明するための説明図である。It is explanatory drawing for demonstrating the outline | summary of the accuracy improvement approach of the character recognition which concerns on embodiment of this invention. 本発明の実施形態に係る文字認識の精度向上アプローチの概要を説明するための説明図である。It is explanatory drawing for demonstrating the outline | summary of the accuracy improvement approach of the character recognition which concerns on embodiment of this invention. 本発明の実施形態に係る文字認識の精度向上アプローチの概要を説明するための説明図である。It is explanatory drawing for demonstrating the outline | summary of the accuracy improvement approach of the character recognition which concerns on embodiment of this invention. 本発明の実施形態に係る文字認識の精度向上アプローチの概要を説明するための説明図である。It is explanatory drawing for demonstrating the outline | summary of the accuracy improvement approach of the character recognition which concerns on embodiment of this invention. 本発明の実施形態に係る文字認識の精度向上アプローチの概要を説明するための説明図である。It is explanatory drawing for demonstrating the outline | summary of the accuracy improvement approach of the character recognition which concerns on embodiment of this invention. 本発明の実施形態に係る文字認識の精度向上アプローチの概要を説明するための説明図である。It is explanatory drawing for demonstrating the outline | summary of the accuracy improvement approach of the character recognition which concerns on embodiment of this invention. 本発明の実施形態に係る文字認識の精度向上アプローチの概要を説明するための説明図である。It is explanatory drawing for demonstrating the outline | summary of the accuracy improvement approach of the character recognition which concerns on embodiment of this invention. 本発明の実施形態に係る文字認識対象に対応する画像データの他の例を示す説明図である。It is explanatory drawing which shows the other example of the image data corresponding to the character recognition object which concerns on embodiment of this invention. 本発明の実施形態に係る文字認識対象に対応する画像データの他の例を示す説明図である。It is explanatory drawing which shows the other example of the image data corresponding to the character recognition object which concerns on embodiment of this invention. 本発明の実施形態に係る情報の記録に係る処理の第1の例を示す流れ図である。It is a flowchart which shows the 1st example of the process which concerns on the recording of the information which concerns on embodiment of this invention. 本発明の実施形態に係る情報の記録に係る処理の第2の例を示す流れ図である。It is a flowchart which shows the 2nd example of the process which concerns on the recording of the information which concerns on embodiment of this invention. 本発明の実施形態に係る関連付情報の一例を説明するための説明図である。It is explanatory drawing for demonstrating an example of the associated information which concerns on embodiment of this invention. 本発明の実施形態に係る文字認識に係る処理の第1の例を示す流れ図である。It is a flowchart which shows the 1st example of the process which concerns on the character recognition which concerns on embodiment of this invention. 本発明の実施形態に係る文字認識に係る処理の第2の例を示す流れ図である。It is a flowchart which shows the 2nd example of the process which concerns on the character recognition which concerns on embodiment of this invention. 本発明の実施形態に係る文字認識に係る処理の第3の例を示す流れ図である。It is a flowchart which shows the 3rd example of the process which concerns on the character recognition which concerns on embodiment of this invention. 本発明の実施形態に係る情報処理装置の構成の一例を示す説明図である。It is explanatory drawing which shows an example of a structure of the information processing apparatus which concerns on embodiment of this invention. 本発明の実施形態に係る情報装置のハードウェア構成の一例を示す説明図である。It is explanatory drawing which shows an example of the hardware constitutions of the information device which concerns on embodiment of this invention. 本発明の実施形態に係る情報処理装置が備える解析部の他の観点による構成の一例を示す説明図である。It is explanatory drawing which shows an example of the structure by the other viewpoint of the analysis part with which the information processing apparatus which concerns on embodiment of this invention is provided.

以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書および図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。   Exemplary embodiments of the present invention will be described below in detail with reference to the accompanying drawings. In the present specification and drawings, components having substantially the same functional configuration are denoted by the same reference numerals, and redundant description is omitted.

(本発明の実施形態に係るアプローチ)
本発明の実施形態に係る情報処理装置の構成について説明する前に、本発明の実施形態に係る文字認識の精度向上アプローチについて説明する。以下では、本発明の実施形態に係る情報処理装置(以下、「情報処理装置100」とよぶ場合がある。)が処理する文字認識対象として、帳票を例に挙げて説明する。なお、本発明の実施形態に係る文字認識対象が、帳票に限られないことは、言うまでもない。
(Approach according to the embodiment of the present invention)
Before describing the configuration of the information processing apparatus according to the embodiment of the present invention, an approach for improving the accuracy of character recognition according to the embodiment of the present invention will be described. Hereinafter, a form will be described as an example of a character recognition target to be processed by the information processing apparatus according to the embodiment of the present invention (hereinafter sometimes referred to as “information processing apparatus 100”). Needless to say, the character recognition target according to the embodiment of the present invention is not limited to a form.

図1、図2それぞれは、本発明の実施形態に係る文字認識対象に対応する画像データの一の例を示す説明図である。ここで、図1は、印刷ずれ等が発生していない帳票(文字認識対象の一例)を読み取ることにより取得された画像データが示す画像の一例を示しており、図1のA〜Cはそれぞれ処理領域を示している。また、図2は、一部に印刷ずれが発生した帳票(図1と同種の帳票)を読み取ることにより取得された画像データが示す画像の一例を示しており、図2のA〜C’はそれぞれ処理領域を示している。図1と図2を比較すると、図2に示す画像データでは、処理領域C’の位置が、図1に示す処理領域Cの位置から水平方向にずれていることが分かる。   1 and 2 are explanatory diagrams illustrating an example of image data corresponding to a character recognition target according to the embodiment of the present invention. Here, FIG. 1 shows an example of an image indicated by image data acquired by reading a form (an example of a character recognition target) in which no printing misalignment or the like has occurred, and A to C in FIG. The processing area is shown. FIG. 2 shows an example of an image indicated by image data acquired by reading a form in which printing misalignment has occurred in part (form of the same type as that in FIG. 1). A to C ′ in FIG. Each processing area is shown. Comparing FIG. 1 and FIG. 2, it can be seen that in the image data shown in FIG. 2, the position of the processing area C ′ is shifted in the horizontal direction from the position of the processing area C shown in FIG.

以下では、図2に示すように印刷ずれが発生した帳票を読み取ることにより取得された画像データに対する処理を例に挙げて、本発明の実施形態に係る文字認識の精度向上アプローチを説明する。   In the following, an approach for improving the accuracy of character recognition according to an embodiment of the present invention will be described by taking as an example processing for image data acquired by reading a form in which printing misalignment has occurred as shown in FIG.

[従来の技術における問題]
上述したように、従来の情報処理装置は、図2に示すように印刷ずれが発生している画像データに対しても、理想的な処理領域間の相対的な位置関係(例えば、図1に示す処理領域A〜Cの相対的な位置関係)に基づいて処理領域を特定する。よって、従来の情報処理装置が図2に示す画像データを処理した場合には、処理領域A、Bについては“¥1234”という正しい文字データを取得することができるが、処理領域C’については“¥123”という誤った文字データが取得される可能性がある。よって、従来の情報処理装置では、図2に示すように印刷ずれが発生している画像データを処理する場合には、文字の誤認識が発生するので、文字認識の精度の向上は望めない。
[Problems in the prior art]
As described above, the conventional information processing apparatus has an ideal relative positional relationship between processing regions (for example, in FIG. 1) even for image data in which printing misalignment occurs as shown in FIG. The processing area is specified based on the relative positional relationship between the processing areas A to C shown in FIG. Therefore, when the conventional information processing apparatus processes the image data shown in FIG. 2, the correct character data “¥ 1234” can be acquired for the processing areas A and B, but the processing area C ′ can be acquired. There is a possibility that erroneous character data “¥ 123” is acquired. Therefore, in the conventional information processing apparatus, when image data in which printing misalignment occurs as shown in FIG. 2 is processed, erroneous recognition of characters occurs, so that improvement in character recognition accuracy cannot be expected.

なお、上記では、図2に示すように処理領域が水平方向にずれが生じている画像データを処理する場合を例に挙げて説明したが、例えば、間延び(または縮み)や歪みなどが生じている画像データを処理する場合にも、従来の情報処理装置では、同様の問題が生じうる。   In the above description, an example has been described in which image data in which a processing area is shifted in the horizontal direction as illustrated in FIG. 2 is described. However, for example, a stretch (or shrinkage) or distortion occurs. In the case of processing existing image data, the same problem may occur in the conventional information processing apparatus.

[位置ずれ等が発生している画像データを処理するための一の方法における問題]
また、図2に示すような位置ずれ等が発生している画像データを処理するための一の方法としては、例えば、下記のような方法が挙げられる。
・位置ずれが生じていない帳票(文字認識対象)に対応する各処理領域の位置に関する情報を記憶する
・処理を行う帳票に対応する画像データから所定の位置(例えば、帳票端のうち、左上の帳票端を示す座標)を検出する
・処理領域の位置に関する情報を用い、上記所定の位置を基準として各処理領域に対応する相対座標を導出する
・導出された各処理領域に対応する相対座標に基づいて、各処理領域の位置を補正し、文字認識を行う認識対象領域を設定する
・設定された認識対象領域に対して文字認識を行う
[Problem in one method for processing image data in which misalignment or the like has occurred]
Further, as a method for processing image data in which a positional deviation or the like as shown in FIG. 2 occurs, for example, the following method can be cited.
-Stores information on the position of each processing area corresponding to a form (character recognition target) that has not been misaligned-From the image data corresponding to the form to be processed from a predetermined position (for example, the upper left of the form edges) (Coordinates indicating the edge of the form) ・ Deriving relative coordinates corresponding to each processing area using the information on the position of the processing area as a reference ・ Determining relative coordinates corresponding to each derived processing area Based on this, the position of each processing area is corrected and a recognition target area for character recognition is set.-Character recognition is performed for the set recognition target area.

図3は、文字認識に係る位置ずれ等が発生している画像データを処理するための一の方法における問題を説明するための説明図である。ここで、図3は、図2と同様の処理領域A〜C’を示している。また、図3に示す点Pは、上記所定の位置を示している。   FIG. 3 is an explanatory diagram for explaining a problem in one method for processing image data in which a positional deviation or the like related to character recognition has occurred. Here, FIG. 3 shows processing areas A to C ′ similar to those in FIG. 2. A point P shown in FIG. 3 indicates the predetermined position.

図3に示すように、点Pを基準として全ての処理領域に対する認識対象領域を設定する場合には、処理領域と設定された認識対象領域との間にずれが生じる場合がある(図3の処理領域C’を参照)。上記は、基準となる点Pと処理領域(処理領域内のある点)との相対距離が大きくなればなる程、認識対象領域を設定するために導出する処理領域に対応する相対座標に生じうる誤差が大きくなるためである。   As shown in FIG. 3, when the recognition target areas for all the processing areas are set with reference to the point P, there may be a deviation between the processing areas and the set recognition target areas (see FIG. 3). See processing area C ′). The above can occur in relative coordinates corresponding to the processing region derived to set the recognition target region, as the relative distance between the reference point P and the processing region (a certain point in the processing region) increases. This is because the error increases.

よって、上記位置ずれ等が発生している画像データを処理するための一の方法を用いる情報処理装置が、図3に示すように印刷ずれが発生している画像データを処理する場合には、当該情報処理装置は、処理領域A、Bについては“¥1234”という正しい文字データを取得し、処理領域C’については“¥123”という誤った文字データを取得する可能性がある。   Therefore, when an information processing apparatus using one method for processing image data in which the above-described misregistration or the like processes image data in which a misprint has occurred as shown in FIG. The information processing apparatus may acquire correct character data “¥ 1234” for the processing regions A and B, and may acquire erroneous character data “¥ 123” for the processing region C ′.

したがって、上記位置ずれ等が発生している画像データを処理するための一の方法を用いる場合であっても、図3に示すように印刷ずれが発生している画像データを処理する場合には、文字の誤認識が発生するので、文字認識の精度の向上は望めない。   Therefore, even when using one method for processing image data in which the above-described misregistration or the like is used, when processing image data in which a misprint has occurred as shown in FIG. Since the recognition of characters occurs, it is not possible to improve the accuracy of character recognition.

なお、上記では、図3に示すように処理領域が水平方向にずれが生じている画像データを処理する場合を例に挙げて説明したが、例えば、間延び(または縮み)や歪みなどが生じている画像データを処理する場合にも、上記位置ずれ等が発生している画像データを処理するための一の方法を用いる情報処理装置では、同様の問題が生じうる。   In the above description, an example has been described in which image data in which a processing area is shifted in the horizontal direction as illustrated in FIG. 3 is described. However, for example, an expansion (or contraction) or distortion occurs. When processing existing image data, the same problem may occur in an information processing apparatus that uses one method for processing image data in which the positional deviation or the like has occurred.

[本発明の実施形態に係る文字認識の精度向上アプローチの概要]
次に、本発明の実施形態に係る文字認識の精度向上アプローチについて、情報処理装置100が図2に示す水平方向に印刷ずれが生じている画像データを処理する場合を例に挙げて説明する。図4A〜図4Gそれぞれは、本発明の実施形態に係る文字認識の精度向上アプローチの概要を説明するための説明図である。
[Outline of Character Recognition Accuracy Improvement Approach According to Embodiment of the Present Invention]
Next, an approach for improving the accuracy of character recognition according to the embodiment of the present invention will be described by taking as an example the case where the information processing apparatus 100 processes image data in which a print deviation occurs in the horizontal direction shown in FIG. 4A to 4G are explanatory diagrams for explaining an outline of an approach for improving the accuracy of character recognition according to the embodiment of the present invention.

以下では、情報処理装置100が、原点となる位置を規定し、規定した原点を基準とした2次元平面上の座標の情報を用いて画像データを処理する場合を例に挙げて説明する。ここで、上記原点は、例えば、予め規定された位置とすることができるが、上記に限られない。例えば、情報処理装置100は、操作部(後述する)を用いてユーザ(例えば、オペレータなど)が指定した位置を、処理に用いる原点として設定することもできる。   In the following, an example will be described in which the information processing apparatus 100 defines a position as an origin and processes image data using information on coordinates on a two-dimensional plane with the defined origin as a reference. Here, for example, the origin can be set to a predetermined position, but is not limited thereto. For example, the information processing apparatus 100 can set a position designated by a user (for example, an operator) using an operation unit (described later) as an origin used for processing.

(1)処理領域Aに対応する認識対象領域の設定
〔1−1〕第1基準位置の設定
情報処理装置100は、処理を行う画像データに基づいて、画像データが示す画像における所定の位置を示す第1基準位置を設定する。ここで、情報処理装置100は、原点に対応する座標を第1基準位置として設定することができるが、上記に限られない。以下では、情報処理装置100が、原点を第1基準位置に設定する場合を例に挙げて説明する。また、図4Aは、情報処理装置100が左上の帳票端を示す点Pを第1基準位置として設定した例を示している。なお、情報処理装置100が設定する第1基準位置が、左上の帳票端に限られないことは、言うまでもない。
(1) Setting of recognition target area corresponding to processing area A [1-1] Setting of first reference position The information processing apparatus 100 sets a predetermined position in an image indicated by image data based on image data to be processed. A first reference position is set. Here, the information processing apparatus 100 can set the coordinate corresponding to the origin as the first reference position, but is not limited thereto. Hereinafter, a case where the information processing apparatus 100 sets the origin to the first reference position will be described as an example. FIG. 4A shows an example in which the information processing apparatus 100 sets the point P indicating the upper left form edge as the first reference position. Needless to say, the first reference position set by the information processing apparatus 100 is not limited to the upper left form edge.

〔1−2〕認証対象領域候補の設定
情報処理装置100は、第1基準位置(点P)を基準として、処理領域Aに対応する相対座標G1’を導出する。情報処理装置100は、例えば、第1基準位置の座標と、記憶部(後述する)に記憶された認識対象基準情報に記録された情報に基づいて、相対座標G1’を導出する。
[1-2] Setting of Authentication Target Area Candidate Information processing apparatus 100 derives relative coordinates G1 ′ corresponding to processing area A using the first reference position (point P) as a reference. For example, the information processing apparatus 100 derives the relative coordinates G1 ′ based on the coordinates of the first reference position and information recorded in the recognition target reference information stored in the storage unit (described later).

ここで、本発明の実施形態に係る認識対象基準情報とは、文字認識対象における処理対象の領域の位置に関する情報が処理される順番と対応付けて記録された情報である。より具体的には、認識対象基準情報には、例えば、図1に示すように位置ずれ等が生じていない理想的な画像データにおける処理領域の位置に関する情報(例えば、処理領域となる矩形領域の左上端の座標と、右下端の座標)が、処理領域ごとに記録される。また、認識対象基準情報は、例えば、処理領域の位置に関する情報の記録順序や、処理順序を示す情報をさらに含むことによって、処理される順番が表される。なお、本発明の実施形態に係る認識対象基準情報の記録処理については、後述する。   Here, the recognition target reference information according to the embodiment of the present invention is information recorded in association with the order in which information regarding the position of the processing target region in the character recognition target is processed. More specifically, the recognition target reference information includes, for example, information on the position of the processing area in ideal image data in which no positional deviation or the like has occurred as shown in FIG. 1 (for example, the rectangular area serving as the processing area). The coordinates of the upper left corner and the lower right corner) are recorded for each processing area. In addition, the recognition target reference information represents the processing order by further including, for example, information recording order regarding the position of the processing region and information indicating the processing order. In addition, the recording process of the recognition target reference information according to the embodiment of the present invention will be described later.

情報処理装置100は、例えば、上記のような認識対象基準情報を用い、処理領域Aの重心を導出することによって、相対座標G1’を導出することができる。ここで、情報処理装置100における一の処理領域に対する相対座標の導出は、認証対象領域の候補となる認証対象領域候補の設定に相当する。   For example, the information processing apparatus 100 can derive the relative coordinates G <b> 1 ′ by deriving the center of gravity of the processing region A using the recognition target reference information as described above. Here, the derivation of the relative coordinates for one processing area in the information processing apparatus 100 corresponds to the setting of an authentication target area candidate that is an authentication target area candidate.

〔1−3〕認証対象領域の設定
処理領域Aに対応する相対座標G1’が導出されると、情報処理装置100は、設定された認証対象領域候補を補正し、文字認識処理の対象(処理対象)となる認証対象領域を設定する。
[1-3] Setting of Authentication Target Area When the relative coordinate G1 ′ corresponding to the processing area A is derived, the information processing apparatus 100 corrects the set authentication target area candidate and performs the character recognition processing target (processing Set the target area for authentication.

より具体的には、情報処理装置100は、図4Bに示すように、相対座標G1’を中心とした検出領域を設定し、検出領域内に含まれる罫線を検出する。ここで、情報処理装置100が設定する検出領域の大きさは、予め規定された大きさとすることができるが、上記に限られない。例えば、情報処理装置100は、検出領域の面積が段階的に大きくされた複数の検出領域を、1段階ずつ設定することもできる。上記にような段階的に面積を大きくした検出領域を設定することによって、情報処理装置100は、検出領域内においてより確実に罫線を検出することができる。   More specifically, as illustrated in FIG. 4B, the information processing apparatus 100 sets a detection area centered on the relative coordinates G1 'and detects a ruled line included in the detection area. Here, the size of the detection area set by the information processing apparatus 100 can be a predetermined size, but is not limited thereto. For example, the information processing apparatus 100 can set a plurality of detection areas in which the area of the detection area is increased step by step. By setting the detection area whose area is gradually increased as described above, the information processing apparatus 100 can detect the ruled line more reliably in the detection area.

また、情報処理装置100は、検出された罫線に基づいて当該罫線により囲まれた領域の重心を導出する。そして、情報処理装置100は、例えば、認証対象領域候補の重心の座標を相対座標G1’から新たに導出された重心の座標G1とすることによって認証対象領域候補を補正し、認証対象領域を設定する。ここで、図4Bでは、処理領域Aに位置ずれ等が発生していないので、相対座標G1’と新たに導出された重心の座標G1とが一致することとなる。なお、情報処理装置100が検出した罫線に歪みが存在する場合には、情報処理装置100は、例えば、歪みを補正した上で罫線により囲まれた領域の重心を導出するが、上記に限られない。   The information processing apparatus 100 derives the center of gravity of the area surrounded by the ruled line based on the detected ruled line. Then, for example, the information processing apparatus 100 corrects the authentication target area candidate by setting the coordinates of the center of gravity of the authentication target area candidate as the coordinate G1 of the center of gravity newly derived from the relative coordinates G1 ′, and sets the authentication target area. To do. Here, in FIG. 4B, since no positional deviation or the like has occurred in the processing area A, the relative coordinates G1 'coincide with the newly derived center-of-gravity coordinates G1. If the ruled line detected by the information processing apparatus 100 is distorted, the information processing apparatus 100 corrects the distortion and derives the center of gravity of the area surrounded by the ruled line. Absent.

上記〔1−1〕の処理〜〔1−3〕の処理によって、情報処理装置100は、第1基準位置を基準として、1番目に処理される処理領域A(以下、1番目に処理される処理領域を「第1の領域」とよぶ場合がある。)に対応する認識対象領域を設定することができる。   Through the processes [1-1] to [1-3], the information processing apparatus 100 performs processing area A to be processed first (hereinafter referred to as the first processing) with the first reference position as a reference. The recognition target area corresponding to the processing area may be referred to as “first area”) may be set.

(2)処理領域Bに対応する認識対象領域の設定
〔2−1〕認証対象領域候補の設定
処理領域A(第1の領域)における認識対象領域が設定されると、情報処理装置100は、認識対象領域が設定された処理領域Aに対応する第2基準位置を基準として、処理領域Bに対応する認証対象領域候補を設定する。
(2) Setting of recognition target area corresponding to processing area B [2-1] Setting of authentication target area candidate When the recognition target area in the processing area A (first area) is set, the information processing apparatus 100 An authentication target area candidate corresponding to the processing area B is set with reference to the second reference position corresponding to the processing area A in which the recognition target area is set.

ここで、本発明の実施形態に係る第2基準位置としては、例えば、設定済みの認識対象領域の重心の座標が挙げられるが、上記に限られない。また、情報処理装置100は、例えば、設定済みの認識対象領域のうち、例えば、下記(i)〜(iii)の条件を満たす認識対象領域に対応する第2基準位置を基準として、第1の領域以外の処理領域(以下、「他の領域」とよぶ場合がある。)に対応する認証対象領域候補を設定する。ここで、下記に示す本発明の実施形態に係る関連付情報とは、第2基準位置を導出するための基準となる領域が処理領域ごとに設定された情報である。本発明の実施形態に係る関連付情報については、後述する。
(i)1つ前に処理した認識対象領域
(ii)相対距離が近い処理領域に対応する認識対象領域
(iii)関連付情報により予め対応付けられた処理領域に対応する認識対象領域
Here, examples of the second reference position according to the embodiment of the present invention include coordinates of the center of gravity of the set recognition target area, but are not limited thereto. Further, for example, the information processing apparatus 100 uses the second reference position corresponding to the recognition target area that satisfies the following conditions (i) to (iii) among the set recognition target areas as a reference, for example. Authentication target area candidates corresponding to processing areas other than the areas (hereinafter sometimes referred to as “other areas”) are set. Here, the association information according to the embodiment of the present invention described below is information in which a region serving as a reference for deriving the second reference position is set for each processing region. The association information according to the embodiment of the present invention will be described later.
(I) The recognition target area processed immediately before (ii) The recognition target area corresponding to the processing area whose relative distance is short (iii) The recognition target area corresponding to the processing area previously associated with the association information

なお、本発明の実施形態に係る他の領域に対応する認証対象領域候補の設定するための基準となる認識対象領域が、上記(i)〜(iii)の条件を満たす認識対象領域に限られないことは、言うまでもない。   In addition, the recognition target area | region used as the reference | standard for setting the authentication target area | region candidate corresponding to the other area | region which concerns on embodiment of this invention is restricted to the recognition target area | region which satisfy | fills the conditions of said (i)-(iii). It goes without saying that there is nothing.

より具体的には、情報処理装置100は、処理領域Aに対応する認識対象領域の重心座標G1(第2基準位置)と、記憶部(後述する)に記憶された認識対象基準情報に記録された情報に基づいて、相対座標G2’を導出する。ここで、情報処理装置100は、認識対象基準情報を用いることによって、図1に示すように位置ずれ等が生じていない理想的な画像データにおける処理領域Aと処理領域Bとの距離(図4Cの例では、垂直方向の距離)を導出することができる。よって、情報処理装置100は、重心座標G1(第2基準位置)と、認識対象基準情報に基づいて導出した距離とを用いることによって、重心座標G1(第2基準位置)を基準として相対座標G2’を導出することができる。   More specifically, the information processing apparatus 100 is recorded in the barycentric coordinates G1 (second reference position) of the recognition target area corresponding to the processing area A and the recognition target reference information stored in the storage unit (described later). Based on the obtained information, the relative coordinate G2 ′ is derived. Here, the information processing apparatus 100 uses the recognition target reference information, so that the distance between the processing area A and the processing area B in ideal image data in which no positional deviation or the like has occurred as shown in FIG. 1 (FIG. 4C). In this example, the vertical distance) can be derived. Therefore, the information processing apparatus 100 uses the barycentric coordinates G1 (second reference position) and the distance derived based on the recognition target reference information as a reference so that the relative coordinates G2 are based on the barycentric coordinates G1 (second reference position). 'Can be derived.

〔2−2〕認証対象領域の設定
処理領域Bに対応する相対座標G2’が導出されると、情報処理装置100は、上記〔1−3〕の処理と同様に、設定された認証対象領域候補を補正して認証対象領域を設定する。ここで、図4Cでは、処理領域Bに位置ずれ等が発生していないので、相対座標G2’と新たに導出された重心の座標G2とが一致することとなる。
[2-2] Setting of Authentication Target Area When the relative coordinate G2 ′ corresponding to the processing area B is derived, the information processing apparatus 100 determines the set authentication target area in the same manner as the process of [1-3]. The authentication target area is set by correcting the candidate. Here, in FIG. 4C, since no positional deviation or the like has occurred in the processing area B, the relative coordinates G2 ′ and the newly derived center-of-gravity coordinates G2 coincide.

上記〔2−1〕の処理、〔2−2〕の処理によって、情報処理装置100は、処理領域Aに対応する認証対象領域に基づく第2基準位置を基準として、処理領域B(他の領域)に対応する認識対象領域を設定することができる。   Through the processes [2-1] and [2-2], the information processing apparatus 100 uses the second reference position based on the authentication target area corresponding to the processing area A as a reference to the processing area B (another area). ) To be recognized can be set.

(3)処理領域C’に対応する認識対象領域の設定
〔3−1〕認証対象領域候補の設定
処理領域B(他の領域)における認識対象領域が設定されると、情報処理装置100は、上記〔2−1〕の処理と同様に、認識対象領域が設定された処理領域Bに対応する第2基準位置を基準として、処理領域C’に対応する認証対象領域候補を設定する(図4Dの座標G3’の導出)。
(3) Setting of recognition target area corresponding to processing area C ′ [3-1] Setting of authentication target area candidate When the recognition target area in processing area B (other area) is set, the information processing apparatus 100 Similar to the above-described process [2-1], an authentication target area candidate corresponding to the processing area C ′ is set with reference to the second reference position corresponding to the processing area B where the recognition target area is set (FIG. 4D). Derivation of the coordinates G3 ′).

〔3−2〕認証対象領域の設定
処理領域C’に対応する座標G3’が導出されると、情報処理装置100は、上記〔1−3〕の処理と同様に、検出領域を設定し、検出領域内に含まれる罫線を検出する(図4E)。また、情報処理装置100は、検出された罫線に基づいて当該罫線により囲まれた領域の重心を導出する。そして、情報処理装置100は、例えば、認証対象領域候補の重心の座標を相対座標G3’から新たに導出された重心の座標G3とすることによって認証対象領域候補を補正し、認証対象領域を設定する(図4F)。ここで、図4Fでは処理領域C’に水平方向の位置ずれ(図1に示す処理領域Cからの位置ずれ)が発生している。よって、情報処理装置100は、相対座標G3’と座標G3との距離に相当する分、認証対象領域候補を補正して認証対象領域を設定する。
[3-2] Setting of Authentication Target Area When the coordinate G3 ′ corresponding to the processing area C ′ is derived, the information processing apparatus 100 sets a detection area in the same manner as in the above process [1-3] A ruled line included in the detection area is detected (FIG. 4E). The information processing apparatus 100 derives the center of gravity of the area surrounded by the ruled line based on the detected ruled line. Then, for example, the information processing apparatus 100 corrects the authentication target area candidate by setting the coordinate of the center of gravity of the authentication target area candidate as the coordinate G3 of the center of gravity newly derived from the relative coordinates G3 ′, and sets the authentication target area. (FIG. 4F). Here, in FIG. 4F, a positional deviation in the horizontal direction (positional deviation from the processing area C shown in FIG. 1) occurs in the processing area C ′. Therefore, the information processing apparatus 100 sets the authentication target area by correcting the authentication target area candidate by an amount corresponding to the distance between the relative coordinate G3 ′ and the coordinate G3.

上記〔2−1〕の処理、〔3−2〕の処理によって、情報処理装置100は、処理領域Bに対応する認証対象領域に基づく第2基準位置を基準として、処理領域C(他の領域)に対応する認識対象領域を設定することができる(図4G)。   Through the processes [2-1] and [3-2] described above, the information processing apparatus 100 uses the second reference position based on the authentication target area corresponding to the processing area B as a reference to the processing area C (another area). ) Can be set (FIG. 4G).

上記(1)の処理〜(3)の処理によって、情報処理装置100は、処理対象の画像データに含まれる処理領域A〜C’それぞれに対して、認識対象領域を設定することができる。よって、図4Gの処理領域A〜C’に図2と同様の文字データが記載されている場合には、情報処理装置100は、処理領域A〜C’においては“¥1234”という正しい文字データを取得することができる。したがって、情報処理装置100は、本発明の実施形態に係る文字認識の精度向上アプローチに係る上記(1)の処理〜(3)の処理によって、文字認識を行う処理対象の領域を特定し、文字認識の精度の向上を図ることができる。   Through the processes (1) to (3), the information processing apparatus 100 can set a recognition target area for each of the processing areas A to C ′ included in the image data to be processed. Therefore, when the same character data as in FIG. 2 is described in the processing areas A to C ′ in FIG. 4G, the information processing apparatus 100 determines that the correct character data “¥ 1234” is in the processing areas A to C ′. Can be obtained. Therefore, the information processing apparatus 100 identifies a processing target area for character recognition by the processes (1) to (3) related to the approach for improving the accuracy of character recognition according to the embodiment of the present invention. The recognition accuracy can be improved.

上記のように、本発明の実施形態に係る文字認識の精度向上アプローチを用いる情報処理装置100は、画像データの所定の位置を示す第1基準位置を基準として第1の領域に対応する認識対象領域を相対的に設定する。また、情報処理装置100は、設定済みの認識対象領域に対応する第2基準位置を基準として他の領域に対応する認識対象領域を相対的に設定する。つまり、本発明の実施形態に係る文字認識の精度向上アプローチでは、各処理領域に対応する認識対象領域を、上記位置ずれ等が発生している画像データを処理するための一の方法を用いる場合よりも距離が近い基準位置(第1基準位置/第2基準位置)を基準として相対的に設定することが可能であるので、導出された相対座標に生じうる誤差をより小さくすることができる。よって、本発明の実施形態に係る文字認識の精度向上アプローチを用いることによって、情報処理装置100は、図2に示すように位置ずれ等が発生している画像データを処理する場合であっても、文字認識を行う処理対象の領域をより確実に特定することができる。   As described above, the information processing apparatus 100 that uses the approach for improving the accuracy of character recognition according to the embodiment of the present invention recognizes a recognition target corresponding to a first region with a first reference position indicating a predetermined position of image data as a reference. Set the area relatively. In addition, the information processing apparatus 100 relatively sets recognition target areas corresponding to other areas based on the second reference position corresponding to the set recognition target area. In other words, in the character recognition accuracy improving approach according to the embodiment of the present invention, when a recognition target region corresponding to each processing region is processed by using one method for processing image data in which the above-described positional deviation or the like has occurred. Since it is possible to relatively set a reference position (first reference position / second reference position) closer to the distance, an error that can occur in the derived relative coordinates can be further reduced. Therefore, by using the character recognition accuracy improving approach according to the embodiment of the present invention, the information processing apparatus 100 may process image data in which positional deviation or the like occurs as illustrated in FIG. Thus, it is possible to more reliably specify the processing target area for character recognition.

したがって、本発明の実施形態に係る文字認識の精度向上アプローチを用いる情報処理装置100は、文字認識を行う処理対象の領域を特定し、文字認識の精度の向上を図ることができる。   Therefore, the information processing apparatus 100 using the character recognition accuracy improving approach according to the embodiment of the present invention can specify a processing target area for character recognition and improve the character recognition accuracy.

なお、上記では、情報処理装置100が、図1、図2等に示すように、垂直方向に並んだ3つの処理領域を含む文字認識対象を例に挙げて説明したが、本発明の実施形態に係る文字認識対象は上記に限られない。図5、図6それぞれは、本発明の実施形態に係る文字認識対象に対応する画像データの他の例を示す説明図である。ここで、図5は、図1と同様に、印刷ずれ等が発生していない帳票(文字認識対象の一例)を読み取ることにより取得された画像データが示す画像の一例を示しており、図5のA1〜A6はそれぞれ処理領域を示している。また、図6は、図2と同様に、一部に印刷ずれが発生した帳票(図5と同種の帳票)を読み取ることにより取得された画像データが示す画像の一例を示しており、図6のa1〜a6はそれぞれ処理領域を示している。   In the above description, the information processing apparatus 100 has been described by taking, as an example, a character recognition target including three processing regions arranged in the vertical direction as illustrated in FIGS. 1 and 2, but the embodiment of the present invention. The character recognition target according to is not limited to the above. FIG. 5 and FIG. 6 are explanatory diagrams showing other examples of image data corresponding to the character recognition target according to the embodiment of the present invention. Here, as in FIG. 1, FIG. 5 shows an example of an image indicated by image data acquired by reading a form (an example of a character recognition target) in which no printing misalignment or the like has occurred. A1 to A6 respectively indicate processing areas. 6 shows an example of an image indicated by image data acquired by reading a form in which printing misalignment has occurred in part (the same type of form as in FIG. 5), as in FIG. A1 to a6 respectively indicate processing areas.

[本発明の実施形態に係るアプローチに係る処理の具体例]
次に、情報処理装置100における本発明の実施形態に係る文字認識の精度向上アプローチに係る処理について、より具体的に説明する。
[Specific Example of Processing Related to Approach According to Embodiment of Present Invention]
Next, processing related to the character recognition accuracy improving approach according to the embodiment of the present invention in the information processing apparatus 100 will be described more specifically.

〔A〕情報の記録に係る処理
まず、情報処理装置100における情報の記録に係る処理について説明する。以下では、情報処理装置100における情報の記録に係る処理として、認識対象基準情報の記録に係る処理(第1の例)と、認識対象基準情報および関連情報の記録に係る処理(第2の例)とについて、それぞれ説明する。
[A] Processing Related to Information Recording First, processing related to information recording in the information processing apparatus 100 will be described. Hereinafter, as processing related to recording of information in the information processing apparatus 100, processing related to recording of recognition target reference information (first example) and processing related to recording of recognition target reference information and related information (second example) ) And will be described respectively.

〔A−1〕情報の記録に係る処理の第1の例
図7は、本発明の実施形態に係る情報の記録に係る処理の第1の例を示す流れ図である。ここで、図7は、一の文字認識対象に対応する認識対象基準情報の記録に係る処理の一例を示している。図7に示す処理が文字認識対象ごと(文字認識対象を表す画像データごと)に行われることによって、情報処理装置100は、複数の文字認識対象に対応する認識対象基準情報を記憶することができる。
[A-1] First Example of Processing Related to Information Recording FIG. 7 is a flowchart showing a first example of processing related to information recording according to the embodiment of the present invention. Here, FIG. 7 shows an example of processing relating to recording of recognition object reference information corresponding to one character recognition object. 7 is performed for each character recognition target (for each image data representing the character recognition target), the information processing apparatus 100 can store recognition target reference information corresponding to a plurality of character recognition targets. .

情報処理装置100は、登録する画像データが取得されたか否かを判定する(S100)。ここで、情報処理装置100は、例えば、ユーザによるユーザ操作に応じて操作部(後述する)から伝達される操作信号に基づいて処理種別を決定し、取得された画像データが登録する画像データであるかを判定するが、上記に限られない。ステップS100において登録する画像データが取得されたと判定されない場合には、情報処理装置100は、登録する画像データが取得されたと判定されるまで処理を進めない。   The information processing apparatus 100 determines whether image data to be registered has been acquired (S100). Here, the information processing apparatus 100 determines, for example, a processing type based on an operation signal transmitted from an operation unit (described later) in response to a user operation by a user, and the acquired image data is registered as image data. Although it determines whether there exists, it is not restricted to the above. If it is not determined in step S100 that the image data to be registered has been acquired, the information processing apparatus 100 does not proceed until it is determined that the image data to be registered has been acquired.

また、ステップS100において登録する画像データが取得されたと判定された場合には、情報処理装置100は、基準認識対象領域の座標が設定されたか否かを判定する(S102)。ここで、基準認識対象領域とは、認識対象領域の基準となる領域であり、例えば、図1に示すように位置ずれ等が発生していない画像データの処理領域に対応する。情報処理装置100は、例えば、ユーザによるユーザ操作に応じて操作部(後述する)から伝達される操作信号に基づいて基準認識対象領域の座標が設定されたか否かを判定するが、上記に限られない。また、基準認識対象領域の座標としては、例えば、基準認識対象領域の左上の帳票端を表す座標と、右下の帳票端を表す座標とが挙げられるが、上記に限られない。   If it is determined in step S100 that the image data to be registered has been acquired, the information processing apparatus 100 determines whether or not the coordinates of the reference recognition target area have been set (S102). Here, the reference recognition target region is a region serving as a reference for the recognition target region, and corresponds to, for example, a processing region of image data in which no positional deviation or the like has occurred as shown in FIG. For example, the information processing apparatus 100 determines whether or not the coordinates of the reference recognition target region are set based on an operation signal transmitted from an operation unit (described later) in response to a user operation by the user. I can't. Examples of the coordinates of the reference recognition target area include, but are not limited to, coordinates representing the upper left form edge and coordinates representing the lower right form edge of the reference recognition target area.

ステップS102において、基準認識対象領域の座標が設定されたと判定されない場合には、情報処理装置100は、基準認識対象領域の座標が設定されたと判定されるまで処理を進めない。なお、ステップS102の処理を開始してから所定の時間経過しても基準認識対象領域の座標が設定されたと判定されない場合には、情報処理装置100は、情報の記録に係る処理を終了することもできる(いわゆる、タイムアウト)。   If it is not determined in step S102 that the coordinates of the reference recognition target area have been set, the information processing apparatus 100 does not proceed until it is determined that the coordinates of the reference recognition target area have been set. If it is not determined that the coordinates of the reference recognition target area have been set even after a predetermined time has elapsed from the start of the process of step S102, the information processing apparatus 100 ends the process related to information recording. (So-called timeout).

また、ステップS102において、基準認識対象領域の座標が設定されたと判定された場合には、情報処理装置100は、設定された基準認識対象領域(基準認識対象領域の座標により特定される領域)内に含まれる罫線を検出する(S104)。そして、情報処理装置100は、ステップS104において検出された罫線に基づいて、設定された基準認識対象領域を調整する(基準認識対象領域の検出された罫線に基づくフィッティング処理)。   If it is determined in step S102 that the coordinates of the reference recognition target area have been set, the information processing apparatus 100 determines that the information in the set reference recognition target area (the area specified by the coordinates of the reference recognition target area) is set. The ruled lines included in the are detected (S104). Then, the information processing apparatus 100 adjusts the set reference recognition target area based on the ruled line detected in step S104 (fitting process based on the ruled line detected in the reference recognition target area).

ここで、ステップS104において罫線が検出されない場合には、情報処理装置100は、設定された基準認識対象領域の座標が誤っている旨のエラー通知を、ユーザに対して行うことができるが、上記に限られない。   Here, when a ruled line is not detected in step S104, the information processing apparatus 100 can notify the user that the set reference recognition target region has an incorrect coordinate. Not limited to.

ステップS106において基準認識対象領域の調整が行われると、情報処理装置100は、画像データに基づいて第1基準位置を検出する(S108)。そして、情報処理装置100は、ステップS108において検出した第1基準位置と、ステップS106において調整した各基準認識対象領域とに基づいて、基準認識対象領域をソーティング(並び替え)する(S110)。   When the reference recognition target area is adjusted in step S106, the information processing apparatus 100 detects the first reference position based on the image data (S108). Then, the information processing apparatus 100 sorts (reorders) the reference recognition target areas based on the first reference position detected in step S108 and each reference recognition target area adjusted in step S106 (S110).

ここで、情報処理装置100は、例えば、第1基準位置から基準認識対象領域の重心の座標までの距離が小さい順に基準認識対象領域の並び替えを行う。ステップS110の処理を行うことによって、情報処理装置100は、第1の領域を第1基準位置から最も距離が近い基準認識対象領域に設定することができ、また、後述する文字認識に係る処理において処理領域(基準認識対象領域に対応する処理領域)の処理の順番を規定することができる。   Here, for example, the information processing apparatus 100 rearranges the reference recognition target regions in ascending order of the distance from the first reference position to the coordinates of the center of gravity of the reference recognition target region. By performing the process of step S110, the information processing apparatus 100 can set the first area as a reference recognition target area that is the closest to the first reference position, and in a process related to character recognition described later. The order of processing of the processing areas (processing areas corresponding to the reference recognition target areas) can be defined.

ステップS110の処理が行われると、情報処理装置100は、各基準認識対象領域の座標の情報をフォーマットデータベース(以下、「フォーマットDB」という。)に記録する(S112)。ここで、ステップS112における各基準認識対象領域の座標の情報の記録が、識対象基準情報の記録に相当する。また、情報処理装置100は、自装置に備える記憶部(後述する)に記憶されたフォーマットDBに各基準認識対象領域の座標の情報を記録するが、上記に限られない。例えば、情報処理装置100は、情報処理装置100と接続された外部装置や外部記録媒体などに記憶されたフォーマットDBに各基準認識対象領域の座標の情報を記録することもできる。   When the process of step S110 is performed, the information processing apparatus 100 records information on the coordinates of each reference recognition target area in a format database (hereinafter referred to as “format DB”) (S112). Here, the recording of the coordinate information of each reference recognition target area in step S112 corresponds to the recording of the recognition target reference information. In addition, the information processing apparatus 100 records the coordinate information of each reference recognition target area in a format DB stored in a storage unit (described later) provided in the apparatus itself, but is not limited thereto. For example, the information processing apparatus 100 can record information on the coordinates of each reference recognition target area in a format DB stored in an external device or an external recording medium connected to the information processing apparatus 100.

例えば図7に示す処理を行うことによって、情報処理装置100は、認識対象基準情報を記録することができる。なお、図7では、情報処理装置100が、識対象基準情報をフォーマットDBに記録する例を示したが、上記に限られない。例えば、情報処理装置100は、識対象基準情報を文字認識対象ごとにファイルとして記録することもできる。また、情報処理装置100は、認識対象基準情報の記録に際して、例えば、画像データの種類を一意に特定する情報(例えば、帳票IDなど)などの付加情報を併せて記録することもできる。   For example, by performing the process shown in FIG. 7, the information processing apparatus 100 can record the recognition target reference information. Although FIG. 7 shows an example in which the information processing apparatus 100 records the identification target standard information in the format DB, the present invention is not limited to this. For example, the information processing apparatus 100 can record the recognition target standard information as a file for each character recognition target. Further, when recording the recognition target reference information, the information processing apparatus 100 can also record additional information such as information that uniquely identifies the type of image data (for example, a form ID).

〔A−2〕情報の記録に係る処理の第2の例
図8は、本発明の実施形態に係る情報の記録に係る処理の第2の例を示す流れ図である。ここで、図8は、一の文字認識対象に対応する認識対象基準情報および関連付情報の記録に係る処理の一例を示している。図8に示す処理が文字認識対象ごと(文字認識対象を表す画像データごと)に行われることによって、情報処理装置100は、複数の文字認識対象に対応する認識対象基準情報および関連付情報を記憶することができる。
[A-2] Second Example of Processing Related to Information Recording FIG. 8 is a flowchart showing a second example of processing related to information recording according to the embodiment of the present invention. Here, FIG. 8 shows an example of processing related to recording of recognition target reference information and association information corresponding to one character recognition target. 8 is performed for each character recognition target (for each image data representing the character recognition target), the information processing apparatus 100 stores recognition target reference information and associated information corresponding to a plurality of character recognition targets. can do.

情報処理装置100は、図7に示すステップS100と同様に、登録する画像データが取得されたか否かを判定する(S200)。ステップS200において登録する画像データが取得されたと判定されない場合には、情報処理装置100は、登録する画像データが取得されたと判定されるまで処理を進めない。   The information processing apparatus 100 determines whether or not the image data to be registered has been acquired, similarly to step S100 illustrated in FIG. 7 (S200). If it is not determined in step S200 that the image data to be registered has been acquired, the information processing apparatus 100 does not proceed until it is determined that the image data to be registered has been acquired.

また、ステップS200において登録する画像データが取得されたと判定された場合には、情報処理装置100は、図7に示すステップS102と同様に、基準認識対象領域の座標が設定されたか否かを判定する(S202)。ステップS202において、基準認識対象領域の座標が設定されたと判定されない場合には、情報処理装置100は、基準認識対象領域の座標が設定されたと判定されるまで処理を進めない。なお、ステップS202の処理を開始してから所定の時間経過しても基準認識対象領域の座標が設定されたと判定されない場合には、情報処理装置100は、情報の記録に係る処理を終了することもできる(いわゆる、タイムアウト)。   If it is determined in step S200 that the image data to be registered has been acquired, the information processing apparatus 100 determines whether or not the coordinates of the reference recognition target area have been set as in step S102 illustrated in FIG. (S202). If it is not determined in step S202 that the coordinates of the reference recognition target area have been set, the information processing apparatus 100 does not proceed until it is determined that the coordinates of the reference recognition target area have been set. If it is not determined that the coordinates of the reference recognition target area have been set even after a predetermined time has elapsed from the start of the process of step S202, the information processing apparatus 100 ends the process related to recording of information. (So-called timeout).

また、ステップS202において、基準認識対象領域の座標が設定されたと判定された場合には、情報処理装置100は、図7に示すステップS104と同様に、設定された基準認識対象領域内に含まれる罫線を検出する(S204)。そして、情報処理装置100は、図7に示すステップS106と同様に、ステップS104において検出された罫線に基づいて、設定された基準認識対象領域を調整する。   If it is determined in step S202 that the coordinates of the reference recognition target area have been set, the information processing apparatus 100 is included in the set reference recognition target area as in step S104 shown in FIG. A ruled line is detected (S204). Then, the information processing apparatus 100 adjusts the set reference recognition target area based on the ruled line detected in step S104, similarly to step S106 illustrated in FIG.

ステップS206において基準認識対象領域の調整が行われると、情報処理装置100は、図7に示すステップS108と同様に、画像データに基づいて第1基準位置を検出する(S208)。そして、情報処理装置100は、図7に示すステップS210と同様に、ステップS208において検出した第1基準位置と、ステップS206において調整した各基準認識対象領域とに基づいて、基準認識対象領域をソーティングする(S210)。   When the reference recognition target area is adjusted in step S206, the information processing apparatus 100 detects the first reference position based on the image data as in step S108 shown in FIG. 7 (S208). Then, the information processing apparatus 100 sorts the reference recognition target areas based on the first reference position detected in step S208 and each reference recognition target area adjusted in step S206, as in step S210 shown in FIG. (S210).

情報処理装置100は、第1基準位置と各基準認識対象領域とに基づいて、関連付情報を生成する(S212)。ここで、情報処理装置100は、例えば、第1基準位置と各基準認識対象領域の重心の座標との距離、および基準認識対象領域間の相対距離(基準認識対象領域の重心間の距離)を導出し、導出された距離に基づいて関連付情報を生成するが、上記に限られない。   The information processing apparatus 100 generates association information based on the first reference position and each reference recognition target area (S212). Here, the information processing apparatus 100 determines, for example, the distance between the first reference position and the coordinates of the center of gravity of each reference recognition target area, and the relative distance between the reference recognition target areas (the distance between the center of gravity of the reference recognition target area). Deriving and generating the association information based on the derived distance is not limited to the above.

<関連付情報の一例>
図9は、本発明の実施形態に係る関連付情報の一例を説明するための説明図である。ここで、図9は、例えば図5に示すように画像データ内に6つの処理領域が存在する場合における関連付情報の一例を示している。また、図9は、関連付情報が配列で表される場合の一例を示しており、説明の便宜上、関連付情報を表形式で表している。
<Example of related information>
FIG. 9 is an explanatory diagram for explaining an example of association information according to the embodiment of the present invention. Here, FIG. 9 shows an example of association information when there are six processing areas in the image data as shown in FIG. 5, for example. FIG. 9 shows an example in which the association information is represented by an array, and the association information is represented in a table format for convenience of explanation.

図9を参照すると、関連付情報には、例えば、認識対象領域を設定する処理対象の領域を示す情報と、基準位置(第1基準位置/第2基準位置)を導出する基準となる基準領域の情報とが対応付けて記録される。例えば、処理対象の領域が1番目に処理される処理領域(第1の領域)である場合には、基準領域が“−1”であるため、情報処理装置100は、第1基準位置を基準とする。また、処理対象の領域が2番目に処理される処理領域(他の領域)である場合には、基準領域が“1”であるため、情報処理装置100は、1番目に処理された処理領域(第1の領域)に対応する第2基準位置を基準とする。   Referring to FIG. 9, the association information includes, for example, information indicating a processing target region for setting a recognition target region and a reference region serving as a reference for deriving a reference position (first reference position / second reference position). Are recorded in association with each other. For example, when the processing target region is the processing region (first region) to be processed first, the reference region is “−1”, and thus the information processing apparatus 100 uses the first reference position as a reference. And In addition, when the processing target area is the processing area (other area) to be processed second, the reference area is “1”, so that the information processing apparatus 100 processes the processing area processed first. The second reference position corresponding to (first area) is used as a reference.

図9に示すように、認識対象領域を設定する処理対象の領域を示す情報と、基準位置を導出する基準となる基準領域の情報とが対応付けて記録された関連付情報を用いることによって、情報処理装置100は、基準位置(第1基準位置/第2基準位置)を一意に特定することができる。なお、本発明の実施形態に係る関連付情報が、図9に示す例に限られないことは、言うまでもない。   As shown in FIG. 9, by using association information in which information indicating a region to be processed for setting a recognition target region and information on a reference region serving as a reference for deriving a reference position are recorded in association with each other, The information processing apparatus 100 can uniquely specify the reference position (first reference position / second reference position). Needless to say, the association information according to the embodiment of the present invention is not limited to the example shown in FIG.

再度図8を参照して、本発明の実施形態に係る情報の記録に係る処理の第2の例について説明する。ステップS210の処理が行われると、情報処理装置100は、図7に示すステップS112と同様に、各基準認識対象領域の座標の情報をフォーマットDBに記録する(S214)。   With reference to FIG. 8 again, a second example of processing relating to recording of information according to the embodiment of the present invention will be described. When the process of step S210 is performed, the information processing apparatus 100 records the coordinate information of each reference recognition target area in the format DB, similarly to step S112 shown in FIG. 7 (S214).

また、情報処理装置100は、ステップS212において生成した関連付情報を記録する(S216)。ここで、情報処理装置100は、自装置に備える記憶部(後述する)に関連付情報を記録するが、上記に限られない。例えば、情報処理装置100は、情報処理装置100と接続された外部装置や外部記録媒体などに関連付情報を記録することもできる。   Further, the information processing apparatus 100 records the association information generated in step S212 (S216). Here, the information processing apparatus 100 records the association information in a storage unit (described later) included in the own apparatus, but is not limited thereto. For example, the information processing apparatus 100 can record associated information in an external device or an external recording medium connected to the information processing apparatus 100.

例えば図8に示す処理を行うことによって、情報処理装置100は、認識対象基準情報および関連付情報を記録することができる。   For example, by performing the process shown in FIG. 8, the information processing apparatus 100 can record the recognition target reference information and the association information.

情報処理装置100は、例えば、図7や図8に示す処理を行うことによって、認識対象基準情報の記録、または、認識対象基準情報および関連情報の記録を実現することができる。なお、本発明の実施形態に係る情報処理装置100における情報の記録に係る処理が、図7や図8に示す処理に限られないことは、言うまでもない。   The information processing apparatus 100 can realize the recording of the recognition target standard information or the recording of the recognition target standard information and related information by performing the processes shown in FIGS. 7 and 8, for example. Needless to say, the processing related to the recording of information in the information processing apparatus 100 according to the embodiment of the present invention is not limited to the processing shown in FIGS.

〔B〕文字認識に係る処理
次に、情報処理装置100における文字認識に係る処理について説明する。以下では、情報処理装置100における文字認識に係る処理として、上記(i)の条件を満たす認識対象領域に対応する第2基準位置を基準とする場合(第1の例)、上記(ii)の条件を満たす認識対象領域に対応する第2基準位置を基準とする場合(第2の例)、そして、上記(iii)の条件を満たす認識対象領域に対応する第2基準位置を基準とする場合(第3の例)について、それぞれ説明する。
[B] Processing Related to Character Recognition Next, processing related to character recognition in the information processing apparatus 100 will be described. In the following, as processing related to character recognition in the information processing apparatus 100, when the second reference position corresponding to the recognition target region that satisfies the condition (i) is used as a reference (first example), When the second reference position corresponding to the recognition target area satisfying the condition is used as a reference (second example), and when the second reference position corresponding to the recognition target area satisfying the condition (iii) is used as a reference Each (third example) will be described.

〔B−1〕文字認識に係る処理の第1の例
図10は、本発明の実施形態に係る文字認識に係る処理の第1の例を示す流れ図である。ここで、図10は、上記(i)の条件(1つ前に処理した認識対象領域)を満たす認識対象領域に対応する第2基準位置を基準とする場合における文字認識に係る処理の一例を示している。
[B-1] First Example of Processing Related to Character Recognition FIG. 10 is a flowchart showing a first example of processing related to character recognition according to the embodiment of the present invention. Here, FIG. 10 shows an example of processing related to character recognition when the second reference position corresponding to the recognition target region that satisfies the condition (i) (the recognition target region processed immediately before) is used as a reference. Show.

情報処理装置100は、画像データが取得されたか否かを判定する(S300)。ステップS300において画像データが取得されたと判定されない場合には、情報処理装置100は、画像データが取得されたと判定されるまで処理を進めない。   The information processing apparatus 100 determines whether image data has been acquired (S300). If it is not determined in step S300 that image data has been acquired, the information processing apparatus 100 does not proceed until it is determined that image data has been acquired.

また、ステップS300において画像データが取得されたと判定された場合には、情報処理装置100は、フォーマットDBを読み込む(S302)。ここで、ステップS302の処理は、画像データに対応する認識対象基準情報の読出しに相当する。また、情報処理装置100は、例えば、画像データから文字認識対象の種別を特定する情報(例えば、帳票IDなど)を文字認識し、当該文字認識対象の種別を特定する情報をいわゆる検索キーとすることによって、フォーマットDBから画像データに対応する認識対象基準情報を読み出すが、上記に限られない。   If it is determined in step S300 that image data has been acquired, the information processing apparatus 100 reads the format DB (S302). Here, the process of step S302 corresponds to reading of recognition target reference information corresponding to image data. Further, the information processing apparatus 100 recognizes, for example, information (for example, a form ID) that specifies the type of a character recognition target from image data, and uses the information that specifies the type of the character recognition target as a so-called search key. Thus, the recognition target reference information corresponding to the image data is read from the format DB, but is not limited thereto.

情報処理装置100は、画像データに基づいて第1基準位置を検出する(S304)。ここで、情報処理装置100は、例えば上記〔1−1〕の処理によって、第1基準位置を検出するが、上記に限られない。   The information processing apparatus 100 detects the first reference position based on the image data (S304). Here, the information processing apparatus 100 detects the first reference position by, for example, the process [1-1], but is not limited thereto.

ステップS304において第1基準位置が検出されると、情報処理装置100は、l=1に設定する(S306)。ここで、図10における“l”は、処理を行った回数を示すカウンタに相当する。つまり、ステップS306の処理は、カウンタの初期化と捉えることができる。   When the first reference position is detected in step S304, the information processing apparatus 100 sets l = 1 (S306). Here, “l” in FIG. 10 corresponds to a counter indicating the number of times processing has been performed. That is, the process in step S306 can be regarded as counter initialization.

情報処理装置100は、“l=1”であるか否かを判定する(S308)。   The information processing apparatus 100 determines whether or not “1 = 1” (S308).

ステップS308において“l=1”であると判定された場合、すなわち、処理領域が第1領域である場合には、情報処理装置100は、第1基準位置と、第1領域に対応する認識対象基準情報とに基づいて、認識対象領域候補を設定する(S310)。ここで、情報処理装置100は、例えば上記〔1−2〕の処理によって認識対象領域候補を設定するが、上記に限られない。   If it is determined in step S308 that “l = 1”, that is, if the processing area is the first area, the information processing apparatus 100 recognizes the first reference position and the recognition target corresponding to the first area. Based on the reference information, recognition target area candidates are set (S310). Here, the information processing apparatus 100 sets the recognition target area candidates by, for example, the process [1-2] described above, but is not limited thereto.

また、ステップS308において“l=1”であると判定されない場合、すなわち、処理領域が第1領域以外の他の領域である場合には、情報処理装置100は、第1基準位置と、1つ前に設定した認識対象領域に対応する第2基準位置とに基づいて、認識対象領域候補を設定する(S312)。ここで、情報処理装置100は、例えば上記〔2−1〕や〔3−1〕に示す処理によって認識対象領域候補を設定するが、上記に限られない。   If it is not determined in step S308 that “l = 1”, that is, if the processing region is a region other than the first region, the information processing apparatus 100 determines that the first reference position and one A recognition target area candidate is set based on the second reference position corresponding to the previously set recognition target area (S312). Here, the information processing apparatus 100 sets the recognition target area candidates by the processes shown in [2-1] and [3-1], but is not limited thereto.

ステップS310、またはステップS312において認識対象領域候補が設定されると、情報処理装置100は、認識対象領域候補を補正して認識対象領域を設定する(S314)。ここで、情報処理装置100は、例えば、上記〔1−3〕、〔2−2〕、〔3−2〕に示す処理によって認識対象領域を設定するが、上記に限られない。   When the recognition target area candidate is set in step S310 or step S312, the information processing apparatus 100 corrects the recognition target area candidate and sets the recognition target area (S314). Here, the information processing apparatus 100 sets the recognition target region by the processes shown in [1-3], [2-2], and [3-2], but is not limited thereto.

ステップS314において一の処理領域に対する認識対象領域が設定されると、情報処理装置100は、“l=(処理領域数)”であるか否かを判定する(S316)。ここで、情報処理装置100は、例えば、ステップS302において読み出した認識対象基準情報に基づいて、画像データに含まれる処理領域数を把握することができる。   When the recognition target area for one processing area is set in step S314, the information processing apparatus 100 determines whether or not “l = (number of processing areas)” (S316). Here, for example, the information processing apparatus 100 can grasp the number of processing regions included in the image data based on the recognition target reference information read in step S302.

ステップS316において“l=(処理領域数)”であると判定されない場合には、情報処理装置100は、lの値を“l=l+1”に更新する(S318)。そして、情報処理装置100は、ステップS308からの処理を繰り返す。   If it is not determined in step S316 that “l = (number of processing areas)”, the information processing apparatus 100 updates the value of l to “l = 1 + 1” (S318). Then, the information processing apparatus 100 repeats the processing from step S308.

また、ステップS316において“l=(処理領域数)”であると判定された場合には、情報処理装置100は、設定された認識対象領域それぞれに対して文字認識処理を行い、文字を認識する(S320)。ここで、情報処理装置100は、例えば、パターンマッチングなどを用いることによって各認識対象領域に含まれる文字を認識するが、上記に限られない。   If it is determined in step S316 that “l = (number of processing areas)”, the information processing apparatus 100 performs character recognition processing on each of the set recognition target areas to recognize characters. (S320). Here, the information processing apparatus 100 recognizes characters included in each recognition target area by using, for example, pattern matching, but is not limited thereto.

ステップ320において設定された認識対象領域それぞれに対して文字が認識されると、情報処理装置100は、ステップS320における認識結果を出力情報として出力する(S322)。   When a character is recognized for each recognition target area set in step 320, the information processing apparatus 100 outputs the recognition result in step S320 as output information (S322).

図10に示す処理を行うことによって、情報処理装置100は、例えば図4A〜図4Gを参照して説明した本発明の実施形態に係る文字認識の精度向上アプローチに係る処理を実現することができる。よって、図10に示す処理を行うことによって、情報処理装置100は、文字認識を行う処理対象の領域を特定し、文字認識の精度の向上を図ることができる。   By performing the processing shown in FIG. 10, the information processing apparatus 100 can realize processing related to the character recognition accuracy improvement approach according to the embodiment of the present invention described with reference to FIGS. 4A to 4G, for example. . Therefore, by performing the processing illustrated in FIG. 10, the information processing apparatus 100 can specify a processing target area for character recognition and improve the accuracy of character recognition.

〔B−2〕文字認識に係る処理の第2の例
図11は、本発明の実施形態に係る文字認識に係る処理の第2の例を示す流れ図である。ここで、図11は、上記(ii)の条件(相対距離が近い処理領域に対応する認識対象領域)を満たす認識対象領域に対応する第2基準位置を基準とする場合における文字認識に係る処理の一例を示している。
[B-2] Second Example of Processing Relating to Character Recognition FIG. 11 is a flowchart showing a second example of processing related to character recognition according to the embodiment of the present invention. Here, FIG. 11 shows processing related to character recognition when the second reference position corresponding to the recognition target region that satisfies the condition (ii) (recognition target region corresponding to the processing region with a short relative distance) is used as a reference. An example is shown.

情報処理装置100は、図10に示すステップS300と同様に、画像データが取得されたか否かを判定する(S400)。ステップS400において画像データが取得されたと判定されない場合には、情報処理装置100は、画像データが取得されたと判定されるまで処理を進めない。   The information processing apparatus 100 determines whether or not image data has been acquired, similarly to step S300 illustrated in FIG. 10 (S400). If it is not determined in step S400 that image data has been acquired, the information processing apparatus 100 does not proceed until it is determined that image data has been acquired.

また、ステップS400において画像データが取得されたと判定された場合には、情報処理装置100は、図10に示すステップS302と同様に、フォーマットDBを読み込む(S402)。   If it is determined in step S400 that image data has been acquired, the information processing apparatus 100 reads the format DB as in step S302 illustrated in FIG. 10 (S402).

情報処理装置100は、図10に示すステップS304と同様に、画像データに基づいて第1基準位置を検出する(S404)。   The information processing apparatus 100 detects the first reference position based on the image data, similarly to step S304 shown in FIG. 10 (S404).

ステップS404において第1基準位置が検出されると、情報処理装置100は、図10に示すステップS306と同様に、l=1に設定する(S406)。そして、情報処理装置100は、“l=1”であるか否かを判定する(S408)。   When the first reference position is detected in step S404, the information processing apparatus 100 sets l = 1 as in step S306 shown in FIG. 10 (S406). Then, the information processing apparatus 100 determines whether or not “1 = 1” (S408).

ステップS408において“l=1”であると判定された場合には、情報処理装置100は、図10に示すステップS310と同様に、第1基準位置と、第1領域に対応する認識対象基準情報とに基づいて、認識対象領域候補を設定する(S410)。   When it is determined in step S408 that “l = 1”, the information processing apparatus 100 recognizes the first reference position and the recognition target reference information corresponding to the first region, similarly to step S310 illustrated in FIG. Based on the above, a recognition target area candidate is set (S410).

また、ステップS408において“l=1”であると判定されない場合、すなわち、処理領域が第1領域以外の他の領域である場合には、情報処理装置100は、第1基準位置と、相対距離が近い設定済みの認識対象領域に対応する第2基準位置とに基づいて、認識対象領域候補を設定する(S412)。ここで、情報処理装置100は、例えば、上記〔2−1〕や〔3−1〕に示す処理によって、認識対象領域候補を設定するが、上記に限られない。   If it is not determined in step S408 that “l = 1”, that is, if the processing region is a region other than the first region, the information processing apparatus 100 determines the relative distance from the first reference position. A recognition target area candidate is set based on the second reference position corresponding to the set recognition target area close to (S412). Here, the information processing apparatus 100 sets the recognition target region candidates by the processes shown in [2-1] and [3-1], but is not limited thereto.

ステップS410、またはステップS412において認識対象領域候補が設定されると、情報処理装置100は、図10に示すステップS314と同様に、認識対象領域候補を補正して認識対象領域を設定する(S414)。   When the recognition target area candidate is set in step S410 or step S412, the information processing apparatus 100 corrects the recognition target area candidate and sets the recognition target area as in step S314 shown in FIG. 10 (S414). .

ステップS414において一の処理領域に対する認識対象領域が設定されると、情報処理装置100は、図10に示すステップS316と同様に、“l=(処理領域数)”であるか否かを判定する(S416)。   When the recognition target region for one processing region is set in step S414, the information processing apparatus 100 determines whether or not “l = (number of processing regions)” as in step S316 illustrated in FIG. (S416).

ステップS416において“l=(処理領域数)”であると判定されない場合には、情報処理装置100は、図10に示すステップS318と同様に、lの値を“l=l+1”に更新する(S418)。そして、情報処理装置100は、ステップS408からの処理を繰り返す。   If it is not determined in step S416 that “l = (number of processing regions)”, the information processing apparatus 100 updates the value of l to “l = 1 + 1” as in step S318 illustrated in FIG. S418). Then, the information processing apparatus 100 repeats the processing from step S408.

また、ステップS416において“l=(処理領域数)”であると判定された場合には、情報処理装置100は、図10に示すステップS320と同様に、設定された認識対象領域それぞれに対して文字認識処理を行い、文字を認識する(S420)。   If it is determined in step S416 that “l = (number of processing areas)”, the information processing apparatus 100 applies to each of the set recognition target areas as in step S320 illustrated in FIG. Character recognition processing is performed to recognize characters (S420).

ステップ420において設定された認識対象領域それぞれに対して文字が認識されると、情報処理装置100は、図10に示すステップS322と同様に、ステップS420における認識結果を出力情報として出力する(S422)。   When a character is recognized for each recognition target area set in step 420, the information processing apparatus 100 outputs the recognition result in step S420 as output information, similarly to step S322 shown in FIG. 10 (S422). .

図11に示す処理を行うことによって、情報処理装置100は、例えば図4A〜図4Gを参照して説明した本発明の実施形態に係る文字認識の精度向上アプローチに係る処理を実現することができる。よって、図11に示す処理を行うことによって、情報処理装置100は、文字認識を行う処理対象の領域を特定し、文字認識の精度の向上を図ることができる。   By performing the processing shown in FIG. 11, the information processing apparatus 100 can realize the processing related to the character recognition accuracy improvement approach according to the embodiment of the present invention described with reference to FIGS. 4A to 4G, for example. . Therefore, by performing the processing shown in FIG. 11, the information processing apparatus 100 can specify a processing target area for character recognition and improve the accuracy of character recognition.

また、図11に示す第2の例に係る処理を行う情報処理装置100は、ステップS412において相対距離が近い認識対象領域に対応する第2基準位置を基準として他の処理領域に対応する認識対象領域を相対的に設定する。よって、第2の例に係る処理を行う情報処理装置100は、第1の例に係る処理を行う場合よりも、導出された相対座標に生じうる誤差をより小さくすることができる。つまり、第2の例に係る処理を行う情報処理装置100は、第1の例に係る処理を行う情報処理装置100よりもより文字認識の精度の向上を図ることができる。   In addition, the information processing apparatus 100 that performs the processing according to the second example illustrated in FIG. 11 recognizes corresponding to other processing regions with reference to the second reference position corresponding to the recognition target region having a short relative distance in step S412. Set the area relatively. Therefore, the information processing apparatus 100 that performs the process according to the second example can reduce an error that may occur in the derived relative coordinates, as compared with the case where the process according to the first example is performed. That is, the information processing apparatus 100 that performs the process according to the second example can improve the accuracy of character recognition more than the information processing apparatus 100 that performs the process according to the first example.

〔B−3〕文字認識に係る処理の第3の例
図12は、本発明の実施形態に係る文字認識に係る処理の第3の例を示す流れ図である。ここで、図12は、上記(iii)の条件(関連付情報により予め対応付けられた処理領域に対応する認識対象領域)を満たす認識対象領域に対応する第2基準位置を基準とする場合における文字認識に係る処理の一例を示している。
[B-3] Third Example of Processing Relating to Character Recognition FIG. 12 is a flowchart showing a third example of processing related to character recognition according to the embodiment of the present invention. Here, FIG. 12 shows a case where the second reference position corresponding to the recognition target region that satisfies the condition (iii) (the recognition target region corresponding to the processing region associated in advance by the association information) is used as a reference. An example of processing related to character recognition is shown.

情報処理装置100は、図10に示すステップS300と同様に、画像データが取得されたか否かを判定する(S500)。ステップS500において画像データが取得されたと判定されない場合には、情報処理装置100は、画像データが取得されたと判定されるまで処理を進めない。   The information processing apparatus 100 determines whether or not image data has been acquired, similarly to step S300 illustrated in FIG. 10 (S500). If it is not determined in step S500 that image data has been acquired, the information processing apparatus 100 does not proceed with processing until it is determined that image data has been acquired.

また、ステップS500において画像データが取得されたと判定された場合には、情報処理装置100は、図10に示すステップS302と同様に、フォーマットDBを読み込む(S502)。   If it is determined in step S500 that image data has been acquired, the information processing apparatus 100 reads the format DB as in step S302 shown in FIG. 10 (S502).

情報処理装置100は、図10に示すステップS304と同様に、画像データに基づいて第1基準位置を検出する(S504)。また、情報処理装置100は、関連付情報を読み出す(S506)。   The information processing apparatus 100 detects the first reference position based on the image data as in step S304 shown in FIG. 10 (S504). Further, the information processing apparatus 100 reads association information (S506).

ステップS504において第1基準位置が検出されると、情報処理装置100は、図10に示すステップS306と同様に、l=1に設定する(S508)。   When the first reference position is detected in step S504, the information processing apparatus 100 sets l = 1 as in step S306 shown in FIG. 10 (S508).

情報処理装置100は、関連付情報に設定された基準領域に対応する基準位置(第1基準位置/第2基準位置)と、認識対象基準情報とに基づいて、認識対象領域候補を設定する(S510)。ここで、情報処理装置100は、例えば、上記〔1−2〕や〔2−1〕、〔3−1〕に示す処理によって、認識対象領域候補を設定するが、上記に限られない。   The information processing apparatus 100 sets recognition target area candidates based on the reference position (first reference position / second reference position) corresponding to the reference area set in the association information and the recognition target reference information ( S510). Here, the information processing apparatus 100 sets recognition target area candidates by the processes shown in [1-2], [2-1], and [3-1], but is not limited thereto.

ステップS510において認識対象領域候補が設定されると、情報処理装置100は、図10に示すステップS314と同様に、認識対象領域候補を補正して認識対象領域を設定する(S512)。   When the recognition target area candidate is set in step S510, the information processing apparatus 100 corrects the recognition target area candidate and sets the recognition target area as in step S314 shown in FIG. 10 (S512).

ステップS512において一の処理領域に対する認識対象領域が設定されると、情報処理装置100は、図10に示すステップS316と同様に、“l=(処理領域数)”であるか否かを判定する(S514)。   When the recognition target region for one processing region is set in step S512, the information processing apparatus 100 determines whether “l = (number of processing regions)” as in step S316 illustrated in FIG. (S514).

ステップS514において“l=(処理領域数)”であると判定されない場合には、情報処理装置100は、図10に示すステップS318と同様に、lの値を“l=l+1”に更新する(S516)。そして、情報処理装置100は、ステップS510からの処理を繰り返す。   If it is not determined in step S514 that “l = (number of processing areas)”, the information processing apparatus 100 updates the value of l to “l = 1 + 1” as in step S318 illustrated in FIG. S516). Then, the information processing apparatus 100 repeats the processing from step S510.

また、ステップS514において“l=(処理領域数)”であると判定された場合には、情報処理装置100は、図10に示すステップS320と同様に、設定された認識対象領域それぞれに対して文字認識処理を行い、文字を認識する(S518)。   If it is determined in step S514 that “l = (number of processing areas)”, the information processing apparatus 100 applies to each set recognition target area in the same manner as in step S320 illustrated in FIG. Character recognition processing is performed to recognize characters (S518).

ステップ518において設定された認識対象領域それぞれに対して文字が認識されると、情報処理装置100は、図10に示すステップS322と同様に、ステップS518における認識結果を出力情報として出力する(S520)。   When a character is recognized for each recognition target area set in step 518, the information processing apparatus 100 outputs the recognition result in step S518 as output information, similarly to step S322 shown in FIG. 10 (S520). .

図12に示す処理を行うことによって、情報処理装置100は、例えば図4A〜図4Gを参照して説明した本発明の実施形態に係る文字認識の精度向上アプローチに係る処理を実現することができる。よって、図12に示す処理を行うことによって、情報処理装置100は、文字認識を行う処理対象の領域を特定し、文字認識の精度の向上を図ることができる。   By performing the process shown in FIG. 12, the information processing apparatus 100 can realize the process related to the character recognition accuracy improvement approach according to the embodiment of the present invention described with reference to FIGS. 4A to 4G, for example. . Therefore, by performing the processing shown in FIG. 12, the information processing apparatus 100 can specify the processing target area for character recognition and improve the accuracy of character recognition.

情報処理装置100は、例えば、図10や図11、図12に示す処理を行うことによって、本発明の実施形態に係る文字認識の精度向上アプローチに係る処理を実現することができる。したがって、情報処理装置100は、文字認識を行う処理対象の領域を特定し、文字認識の精度の向上を図ることができる。なお、本発明の実施形態に係る情報処理装置100における文字認識に係る処理が、図10や図11、図12に示す処理に限られないことは、言うまでもない。   For example, the information processing apparatus 100 can realize the processing related to the character recognition accuracy improvement approach according to the embodiment of the present invention by performing the processing illustrated in FIGS. 10, 11, and 12. Therefore, the information processing apparatus 100 can specify a processing target area for character recognition and improve the accuracy of character recognition. Needless to say, the processing related to character recognition in the information processing apparatus 100 according to the embodiment of the present invention is not limited to the processing shown in FIGS. 10, 11, and 12.

(本発明の実施形態に係る情報処理装置)
次に、上述した本発明の実施形態に係る文字認識の精度向上アプローチに係る処理を実現することが可能な、本発明の実施形態に係る情報処理装置100の構成例について説明する。
(Information processing apparatus according to an embodiment of the present invention)
Next, a configuration example of the information processing apparatus 100 according to the embodiment of the present invention capable of realizing the processing related to the above-described approach for improving the accuracy of character recognition according to the embodiment of the present invention will be described.

図13は、本発明の実施形態に係る情報処理装置100の構成の一例を示す説明図である。ここで、図13では、文字認識対象の一例として帳票190を併せて示している。   FIG. 13 is an explanatory diagram showing an example of the configuration of the information processing apparatus 100 according to the embodiment of the present invention. Here, in FIG. 13, a form 190 is also shown as an example of a character recognition target.

情報処理装置100は、読取部102と、記憶部104と、制御部106と、操作部108と、表示部110とを備える。   The information processing apparatus 100 includes a reading unit 102, a storage unit 104, a control unit 106, an operation unit 108, and a display unit 110.

また、情報処理装置100は、例えば、ROM(Read Only Memory;図示せず)や、RAM(Random Access Memory;図示せず)、通信部(図示せず)などを備えてもよい。情報処理装置100は、例えば、データの伝送路としてのバス(bus)により各構成要素間を接続する。   The information processing apparatus 100 may include, for example, a ROM (Read Only Memory; not shown), a RAM (Random Access Memory; not shown), a communication unit (not shown), and the like. For example, the information processing apparatus 100 connects each component by a bus as a data transmission path.

ここで、ROMは、制御部106が使用するプログラムや演算パラメータなどの制御用データを記憶する。RAMは、制御部106により実行されるプログラムなどを一次記憶する。通信部(図示せず)は、ネットワークを介して(あるいは、直接的に)外部装置と有線/無線で通信を行う役目を果たす。ここで、ネットワークとしては、例えば、LAN(Local Area Network)やWAN(Wide Area Network)などの有線ネットワーク、基地局を介した無線WAN(WWAN;Wireless Wide Area Network)や無線MAN(WMAN;Wireless Metropolitan Area Network)などの無線ネットワーク、あるいは、TCP/IP(Transmission Control Protocol/Internet Protocol)などの通信プロトコルを用いたインターネットなどが挙げられるが、上記に限られない。また、通信部(図示せず)としては、例えば、通信アンテナおよびRF回路(無線通信)や、IEEE802.15.1ポートおよび送受信回路(無線通信)、IEEE802.11bポートおよび送受信回路(無線通信)、あるいはLAN端子および送受信回路(有線通信)などが挙げられるが、上記に限られない。   Here, the ROM stores control data such as programs and calculation parameters used by the control unit 106. The RAM primarily stores programs executed by the control unit 106. A communication unit (not shown) serves to perform wired / wireless communication with an external device via a network (or directly). Here, as the network, for example, a wired network such as a LAN (Local Area Network) or a WAN (Wide Area Network), a wireless WAN (WWAN: Wireless Wide Area Network) via a base station, or a wireless MAN (WMAN: Wireless Metropolitan) Examples include, but are not limited to, a wireless network such as an area network or the Internet using a communication protocol such as TCP / IP (Transmission Control Protocol / Internet Protocol). The communication unit (not shown) includes, for example, a communication antenna and an RF circuit (wireless communication), an IEEE 802.15.1 port and a transmission / reception circuit (wireless communication), an IEEE 802.11b port and a transmission / reception circuit (wireless communication). Or a LAN terminal and a transmission / reception circuit (wired communication).

[情報処理装置100のハードウェア構成例]
図14は、本発明の実施形態に係る情報装置100のハードウェア構成の一例を示す説明図である。図14を参照すると、情報処理装置100は、例えば、CPU150と、ROM152と、RAM154と、記録媒体156と、通信インタフェース158と、操作デバイス160と、表示デバイス162と、スキャナ164とを備える。また、情報処理装置100は、例えば、データの伝送路としてのバス166で各構成要素間を接続する。
[Hardware Configuration Example of Information Processing Apparatus 100]
FIG. 14 is an explanatory diagram illustrating an example of a hardware configuration of the information device 100 according to the embodiment of the present invention. Referring to FIG. 14, the information processing apparatus 100 includes, for example, a CPU 150, a ROM 152, a RAM 154, a recording medium 156, a communication interface 158, an operation device 160, a display device 162, and a scanner 164. In addition, the information processing apparatus 100 connects each component with a bus 166 as a data transmission path, for example.

CPU150は、CPU(Central Processing Unit)や、制御機能を実現するための各種回路が集積された集積回路などで構成され、情報処理装置100全体を制御する制御部106として機能する。また、CPU150は、情報処理装置100において、後述する解析部120、文字認識部122、および出力情報生成部124としての役目を果たすこともできる。   The CPU 150 includes a CPU (Central Processing Unit) and an integrated circuit in which various circuits for realizing a control function are integrated, and functions as the control unit 106 that controls the entire information processing apparatus 100. Further, the CPU 150 can also serve as an analysis unit 120, a character recognition unit 122, and an output information generation unit 124 described later in the information processing apparatus 100.

ROM152は、CPU150が使用するプログラムや演算パラメータなどの制御用データを記憶し、また、RAM154は、CPU150により実行されるプログラムなどを一次記憶する。   The ROM 152 stores control data such as programs and calculation parameters used by the CPU 150, and the RAM 154 primarily stores programs executed by the CPU 150.

記録媒体156は、記憶部104として機能し、例えば、フォーマットDBや、関連付情報、アプリケーションなど様々なデータ(情報)を記憶する。ここで、記録媒体156としては、例えば、ハードディスク(Hard Disk)などの磁気記録媒体や、EEPROM(Electrically Erasable and Programmable Read Only Memory)、フラッシュメモリ(flash memory)、MRAM(Magnetoresistive Random Access Memory)、FeRAM(Ferroelectric Random Access Memory)、PRAM(Phase change Random Access Memory)などの不揮発性メモリ(nonvolatile memory)が挙げられるが、上記に限られない。   The recording medium 156 functions as the storage unit 104 and stores various data (information) such as a format DB, association information, and applications. Here, examples of the recording medium 156 include a magnetic recording medium such as a hard disk, an EEPROM (Electrically Erasable and Programmable Read Only Memory), a flash memory, a MRAM (Magnetoresistive Random Access Memory), and an FeRAM. Non-volatile memories such as (Ferroelectric Random Access Memory) and PRAM (Phase change Random Access Memory) are mentioned, but not limited to the above.

通信インタフェース158は、情報処理装置100が備える通信手段であり、ネットワークを介して(あるいは、直接的に)外部装置と無線/有線で通信を行うための通信部(図示せず)として機能する。ここで、通信インタフェース158としては、例えば、通信アンテナおよびRF回路(無線通信)や、IEEE802.15.1ポートおよび送受信回路(無線通信)、IEEE802.11bポートおよび送受信回路(無線通信)、あるいはLAN端子および送受信回路(有線通信)などが挙げられるが、上記に限られない。   The communication interface 158 is a communication unit included in the information processing apparatus 100, and functions as a communication unit (not shown) for performing wireless / wired communication with an external device via a network (or directly). Here, examples of the communication interface 158 include a communication antenna and an RF circuit (wireless communication), an IEEE 802.15.1 port and a transmission / reception circuit (wireless communication), an IEEE 802.11b port and a transmission / reception circuit (wireless communication), or a LAN. Although a terminal, a transmission / reception circuit (wired communication), etc. are mentioned, it is not restricted above.

操作デバイス160は、操作部108として機能し、ユーザによる操作を可能とする。また、操作デバイス160は、例えば、情報処理装置100上に備えられ、情報処理装置100の内部で入出力インタフェース(図示せず)を介してバス166と接続される。操作デバイス160としては、例えば、ボタン、方向キーあるいは、これらの組み合わせなどが挙げられるが、上記に限られない。   The operation device 160 functions as the operation unit 108 and enables operation by the user. The operation device 160 is provided on the information processing apparatus 100, for example, and is connected to the bus 166 through an input / output interface (not shown) inside the information processing apparatus 100. Examples of the operation device 160 include buttons, direction keys, and combinations thereof, but are not limited thereto.

表示デバイス162は、表示部110として機能し、表示画面に様々な情報を表示する。また、表示デバイス162は、例えば、情報処理装置100上に備えられ、情報処理装置100の内部で入出力インタフェース(図示せず)と接続される。表示デバイス162としては、例えば、LCD(Liquid Crystal Display)や有機ELディスプレイ(organic ElectroLuminescence display)などが挙げられるが、上記に限られない。   The display device 162 functions as the display unit 110 and displays various information on the display screen. The display device 162 is provided on the information processing apparatus 100, for example, and is connected to an input / output interface (not shown) inside the information processing apparatus 100. Examples of the display device 162 include an LCD (Liquid Crystal Display) and an organic EL display (organic ElectroLuminescence display), but are not limited thereto.

また、入出力インタフェース(図示せず)としては、例えば、USB(Universal Serial Bus)端子や、DVI(Digital Visual Interface)端子、HDMI(High-Definition Multimedia Interface)端子、各種処理回路などが挙げられるが、上記に限られない。なお、情報処理装置100は、入出力インタフェース(図示せず)を介して、情報処理装置100の外部装置としての操作デバイス(例えば、キーボードやマウスなど)や、表示デバイス(例えば、外部ディスプレイなど)と接続することもできる。   Examples of the input / output interface (not shown) include a USB (Universal Serial Bus) terminal, a DVI (Digital Visual Interface) terminal, an HDMI (High-Definition Multimedia Interface) terminal, and various processing circuits. It is not limited to the above. Note that the information processing apparatus 100 has an operation device (for example, a keyboard or a mouse) as an external device of the information processing apparatus 100 or a display device (for example, an external display) via an input / output interface (not shown). Can also be connected.

スキャナ164は、情報処理装置100が備える画像データ生成手段であり、読取部102として機能する。スキャナ164は、いわゆる光学式文字読取装置であり、帳票などの文字認識対象を光学的に読み取ることによって、文字認識対象に対応する画像データを生成する。   The scanner 164 is an image data generation unit included in the information processing apparatus 100 and functions as the reading unit 102. The scanner 164 is a so-called optical character reader, and generates image data corresponding to a character recognition target by optically reading a character recognition target such as a form.

情報処理装置100は、例えば図14に示す構成によって、上述した本発明の実施形態に係る文字認識の精度向上アプローチに係る処理を実現する。   The information processing apparatus 100 realizes the processing related to the character recognition accuracy improvement approach according to the embodiment of the present invention described above, for example, with the configuration shown in FIG.

なお、本発明の実施形態に係る情報処理装置100のハードウェア構成は、図14に示す構成に限られない。例えば、情報処理装置100は、スキャナ164を備えず、外部装置としてのスキャナと入出力インタフェース(図示せず)を介して接続することができる。また、情報処理装置100は、例えば、DSP(Digital Signal Processor)、増幅器(アンプ)、スピーカなどから構成される音声出力デバイス(図示せず)をさらに備えることもできる。   Note that the hardware configuration of the information processing apparatus 100 according to the embodiment of the present invention is not limited to the configuration shown in FIG. For example, the information processing apparatus 100 does not include the scanner 164 but can be connected to a scanner as an external apparatus via an input / output interface (not shown). In addition, the information processing apparatus 100 can further include an audio output device (not shown) including, for example, a DSP (Digital Signal Processor), an amplifier (amplifier), a speaker, and the like.

再度図13を参照して、情報処理装置100の構成要素について説明する。読取部102は、情報処理装置100が備える画像データ生成手段であり、帳票190(文字認識対象)を読み取ることによって、文字認識対象に対応する画像データを生成する。そして、読取部102は、生成した画像データを制御部106(より具体的には、後述する解析部120)へ伝達する。ここで、読取部102としては、スキャナなどの光学式文字読取装置が挙げられるが、上記に限られない。   With reference to FIG. 13 again, the components of the information processing apparatus 100 will be described. The reading unit 102 is an image data generation unit included in the information processing apparatus 100, and generates image data corresponding to a character recognition target by reading a form 190 (character recognition target). Then, the reading unit 102 transmits the generated image data to the control unit 106 (more specifically, an analysis unit 120 described later). Here, examples of the reading unit 102 include an optical character reading device such as a scanner, but are not limited thereto.

記憶部104は、情報処理装置100が備える記憶手段である。ここで、記憶部104としては、例えば、ハードディスクなどの磁気記録媒体や、フラッシュメモリなどの不揮発性メモリなどが挙げられるが、上記に限られない。   The storage unit 104 is a storage unit included in the information processing apparatus 100. Here, examples of the storage unit 104 include a magnetic recording medium such as a hard disk and a non-volatile memory such as a flash memory, but are not limited thereto.

また、記憶部104は、例えば、フォーマットDBや、関連付情報、アプリケーションなど様々なデータ(情報)を記憶する。ここで、図13では、フォーマットDB130が記憶部104に記憶されている例を示しているが、上記に限られない。   In addition, the storage unit 104 stores various data (information) such as a format DB, association information, and applications. Here, FIG. 13 shows an example in which the format DB 130 is stored in the storage unit 104, but the present invention is not limited thereto.

制御部106は、例えば、CPUや、各種処理回路が集積された集積回路などで構成され、情報処理装置100全体を制御する役目を果たす。また、制御部106は、解析部120と、文字認識部122と、出力情報生成部124とを備え、上述した本発明の実施形態に係る文字認識の精度向上アプローチに係る処理を主導的に行う役目を果たす。   The control unit 106 includes, for example, a CPU and an integrated circuit in which various processing circuits are integrated, and serves to control the entire information processing apparatus 100. In addition, the control unit 106 includes an analysis unit 120, a character recognition unit 122, and an output information generation unit 124, and performs the processing related to the character recognition accuracy improvement approach according to the above-described embodiment of the present invention. Play a role.

解析部120は、情報記録部126と、認識対象領域設定部128とを備える。情報記録部126は、読取部102から伝達される画像データに基づいて、上記〔A〕の処理(情報の記録に係る処理)を行う。情報記録部126を備えることによって、解析部120は、認識対象基準情報の記録、または、認識対象基準情報および関連情報の記録を実現することができる。   The analysis unit 120 includes an information recording unit 126 and a recognition target area setting unit 128. The information recording unit 126 performs the processing [A] (processing related to information recording) based on the image data transmitted from the reading unit 102. By including the information recording unit 126, the analysis unit 120 can realize the recording of the recognition target reference information or the recording of the recognition target reference information and related information.

また、認識対象領域設定部128は、読取部102から伝達される画像データに基づいて、上記〔B〕の処理(文字認識に係る処理)の一部の処理(認識対象領域の設定に係る処理)を行う。認識対象領域設定部128を備えることによって、解析部120は、文字認識を行う処理対象の領域を特定することができる。   Also, the recognition target area setting unit 128 is based on the image data transmitted from the reading unit 102 and is a part of the process [B] (process related to character recognition) (process related to setting of the recognition target area). )I do. By including the recognition target region setting unit 128, the analysis unit 120 can specify a processing target region for character recognition.

[解析部120の他の構成例]
図15は、本発明の実施形態に係る情報処理装置100が備える解析部120の他の観点による構成の一例を示す説明図である。
[Another configuration example of the analysis unit 120]
FIG. 15 is an explanatory diagram illustrating an example of a configuration according to another aspect of the analysis unit 120 included in the information processing apparatus 100 according to the embodiment of the present invention.

図15を参照すると、解析部120は、解析制御部132と、認識対象領域座標設定部134と、罫線検出部136と、基準認識対象領域調整部138と、第1基準位置検出部140と、認識対象領域ソーティング部142と、フォーマットDB記録部144と、フォーマットDB解析部146と、認識対象領域補正部148とを備える。また、解析部120は、関連付情報を生成して生成された関連付情報を記録する関連付情報生成部(図示せず)をさらに備えることもできる。   Referring to FIG. 15, the analysis unit 120 includes an analysis control unit 132, a recognition target region coordinate setting unit 134, a ruled line detection unit 136, a reference recognition target region adjustment unit 138, a first reference position detection unit 140, A recognition target area sorting unit 142, a format DB recording unit 144, a format DB analysis unit 146, and a recognition target area correction unit 148 are provided. The analysis unit 120 may further include an association information generation unit (not shown) that records association information generated by generating association information.

解析制御部132は、解析部120における各処理を制御する役目を果たす。認識対象領域座標設定部134は、例えばユーザによるユーザ操作に応じて操作部108から伝達される操作信号に基づいて、基準認識対象領域の座標を設定する。罫線検出部136は、罫線を検出する。基準認識対象領域調整部138は、基準認識対象領域を調整する(フィッティング処理を行う。)。第1基準位置検出部140は、画像データに基づいて第1基準位置を検出する。認識対象領域ソーティング部142は、基準認識対象領域をソーティングする。フォーマットDB記録部144は、認識対象基準情報をフォーマットDBに記録する。また、フォーマットDB記録部144は、フォーマットDBを新規に作成することもできる。フォーマットDB解析部146は、フォーマットDBを解析し、処理する画像データに対応する認識対象基準情報をフォーマットDBから読み出す。認識対象領域補正部148は、認識対象領域候補を設定し、設定された認識対象領域候補を補正して認識対象領域を設定する。   The analysis control unit 132 serves to control each process in the analysis unit 120. The recognition target area coordinate setting unit 134 sets the coordinates of the reference recognition target area based on, for example, an operation signal transmitted from the operation unit 108 in response to a user operation by the user. The ruled line detection unit 136 detects a ruled line. The reference recognition target area adjustment unit 138 adjusts the reference recognition target area (performs a fitting process). The first reference position detection unit 140 detects the first reference position based on the image data. The recognition target area sorting unit 142 sorts the reference recognition target areas. The format DB recording unit 144 records recognition target reference information in the format DB. The format DB recording unit 144 can also create a new format DB. The format DB analysis unit 146 analyzes the format DB and reads recognition target reference information corresponding to the image data to be processed from the format DB. The recognition target area correction unit 148 sets recognition target area candidates, corrects the set recognition target area candidates, and sets a recognition target area.

ここで、例えば、解析制御部132、認識対象領域座標設定部134、罫線検出部136、基準認識対象領域調整部138、第1基準位置検出部140、認識対象領域ソーティング部142、およびフォーマットDB記録部144が、情報記録部126としての役目を果たす。また、例えば、解析制御部132、罫線検出部136、第1基準位置検出部140、フォーマットDB解析部146、および認識対象領域補正部148が、認識対象領域設定部128としての役目を果たす。   Here, for example, the analysis control unit 132, the recognition target region coordinate setting unit 134, the ruled line detection unit 136, the reference recognition target region adjustment unit 138, the first reference position detection unit 140, the recognition target region sorting unit 142, and the format DB recording The unit 144 serves as the information recording unit 126. Further, for example, the analysis control unit 132, the ruled line detection unit 136, the first reference position detection unit 140, the format DB analysis unit 146, and the recognition target region correction unit 148 serve as the recognition target region setting unit 128.

再度図13を参照して、情報処理装置100の構成要素について説明する。文字認識部122は、解析部120(より厳密には認証対象領域設定部128)から伝達される認識対象領域を示す情報に基づいて、設定された認識対象領域それぞれに対して文字認識処理を行い、文字を認識する。   With reference to FIG. 13 again, the components of the information processing apparatus 100 will be described. The character recognition unit 122 performs character recognition processing for each set recognition target area based on information indicating the recognition target area transmitted from the analysis unit 120 (more precisely, the authentication target area setting unit 128). Recognize characters.

出力情報生成部124は、文字認識部122の認識結果に基づいて、認識された文字の情報が含まれる出力情報を生成する。ここで、出力情報生成部124は、例えば、出力情報に含まれる認識された文字を、表示部110の表示画面に表示させるが、上記に限られない。例えば、出力情報生成部124は、通信部(図示せず)を介して、外部装置へ出力情報を送信することもできる。   Based on the recognition result of the character recognition unit 122, the output information generation unit 124 generates output information including information on the recognized character. Here, the output information generation unit 124 displays the recognized characters included in the output information on the display screen of the display unit 110, but is not limited thereto. For example, the output information generation unit 124 can transmit output information to an external device via a communication unit (not shown).

制御部106は、解析部120、文字認識部122、および出力情報生成部124を備えることによって、上述した本発明の実施形態に係る文字認識の精度向上アプローチに係る処理を主導的に行うことができる。   The control unit 106 includes the analysis unit 120, the character recognition unit 122, and the output information generation unit 124, so that the process related to the character recognition accuracy improvement approach according to the embodiment of the present invention described above can be led. it can.

操作部108は、ユーザによる操作を可能とする情報処理装置100が備える操作手段である。情報処理装置100は、操作部108を備えることによって、例えば、ユーザによる基準認識対象領域の座標の設定や、情報の記録に係る処理と文字認識に係る処理との切替えなど、ユーザが所望する処理を行うことができる。ここで、操作部108としては、例えば、ボタン、方向キー、あるいは、これらの組み合わせなどが挙げられるが、上記に限られない。   The operation unit 108 is an operation unit included in the information processing apparatus 100 that enables an operation by a user. The information processing apparatus 100 includes the operation unit 108 so that, for example, user-desired processing such as setting of coordinates of a reference recognition target region by the user, switching between processing related to information recording and processing related to character recognition, and the like. It can be performed. Here, examples of the operation unit 108 include a button, a direction key, or a combination thereof, but are not limited thereto.

表示部110は、情報処理装置100が備える表示手段であり、表示画面に様々な情報を表示する。表示部110の表示画面に表示される画面としては、例えば、図2や図6などの文字認識対象に対応する画像データや、出力情報に基づく認識された文字が表示される認識結果画面、所望する動作を情報処理装置100に対して行わせるための操作画面などが挙げられる。ここで、表示部110としては、例えば、LCDや有機ELディスプレイなどが挙げられるが、上記に限られない。例えば、情報処理装置100は、表示部110を、タッチスクリーンで構成することもできる。上記の場合には、表示部110は、ユーザ操作および表示の双方が可能な操作表示部として機能することとなる。   The display unit 110 is a display unit included in the information processing apparatus 100 and displays various information on the display screen. The screen displayed on the display screen of the display unit 110 includes, for example, image data corresponding to a character recognition target such as FIGS. 2 and 6, a recognition result screen on which recognized characters based on output information are displayed, and a desired For example, an operation screen for causing the information processing apparatus 100 to perform the operation to be performed. Here, examples of the display unit 110 include an LCD and an organic EL display, but are not limited thereto. For example, the information processing apparatus 100 can also configure the display unit 110 with a touch screen. In the above case, the display unit 110 functions as an operation display unit capable of both user operation and display.

情報処理装置100は、例えば図13に示す構成によって、上述した本発明の実施形態に係る文字認識の精度向上アプローチに係る処理を実現することができる。したがって、情報処理装置100は、文字認識を行う処理対象の領域を特定し、文字認識の精度の向上を図ることができる。   The information processing apparatus 100 can realize the processing related to the character recognition accuracy improving approach according to the embodiment of the present invention described above, for example, with the configuration shown in FIG. Therefore, the information processing apparatus 100 can specify a processing target area for character recognition and improve the accuracy of character recognition.

以上のように、本発明の実施形態に係る情報処理装置100は、画像データの所定の位置を示す第1基準位置を基準として第1の領域に対応する認識対象領域を相対的に設定する。また、情報処理装置100は、設定済みの認識対象領域に対応する第2基準位置を基準として他の領域に対応する認識対象領域を相対的に設定する。つまり、情報処理装置100は、各処理領域に対応する認識対象領域を、上記位置ずれ等が発生している画像データを処理するための一の方法を用いる場合よりも距離が近い基準位置(第1基準位置/第2基準位置)を基準として相対的に設定することが可能であるので、導出された相対座標に生じうる誤差をより小さくすることができる。よって、情報処理装置100は、例えば図2に示すように位置ずれ等が発生している画像データを処理する場合であっても、文字認識を行う処理対象の領域をより確実に特定することができる。したがって、情報処理装置100は、文字認識を行う処理対象の領域を特定し、文字認識の精度の向上を図ることができる。   As described above, the information processing apparatus 100 according to the embodiment of the present invention relatively sets the recognition target area corresponding to the first area with the first reference position indicating the predetermined position of the image data as a reference. In addition, the information processing apparatus 100 relatively sets recognition target areas corresponding to other areas based on the second reference position corresponding to the set recognition target area. That is, the information processing apparatus 100 uses the reference position (first position) closer to the recognition target area corresponding to each processing area than when using one method for processing the image data in which the positional deviation occurs. (1 reference position / second reference position) can be set relative to each other, so that an error that can occur in the derived relative coordinates can be further reduced. Therefore, the information processing apparatus 100 can more reliably identify the processing target area for character recognition even when processing image data in which a positional deviation or the like has occurred, for example, as illustrated in FIG. it can. Therefore, the information processing apparatus 100 can specify a processing target area for character recognition and improve the accuracy of character recognition.

以上、本発明の実施形態として情報処理装置100を挙げて説明したが、本発明の実施形態は、かかる形態に限られない。本発明の実施形態は、例えば、PC(Personal Computer)やノート型PCなどのコンピュータ、携帯電話やPHS(Personal Handyphone System)などの携帯型通信装置、スキャナなどの光学式文字読取装置など、様々な機器に適用することができる。   As described above, the information processing apparatus 100 has been described as an embodiment of the present invention, but the embodiment of the present invention is not limited to such a form. Embodiments of the present invention include various types such as computers such as PCs (Personal Computers) and notebook PCs, portable communication devices such as mobile phones and PHSs (Personal Handyphone Systems), and optical character readers such as scanners. It can be applied to equipment.

(本発明の実施形態に係るプログラム)
コンピュータを、本発明の実施形態に係る情報処理装置として機能させるためのプログラムによって、文字認識を行う処理対象の領域を特定し、文字認識の精度の向上を図ることができる。
(Program according to an embodiment of the present invention)
By using a program for causing a computer to function as an information processing apparatus according to an embodiment of the present invention, it is possible to specify a processing target area for character recognition and improve character recognition accuracy.

以上、添付図面を参照しながら本発明の好適な実施形態について説明したが、本発明は係る例に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。   As mentioned above, although preferred embodiment of this invention was described referring an accompanying drawing, it cannot be overemphasized that this invention is not limited to the example which concerns. It will be apparent to those skilled in the art that various changes and modifications can be made within the scope of the claims, and these are naturally within the technical scope of the present invention. Understood.

例えば、上記では、コンピュータを、本発明の実施形態に係る情報処理装置として機能させるためのプログラム(コンピュータプログラム)が提供されることを示したが、本発明の実施形態は、さらに、上記各プログラムを記憶させた記憶媒体も併せて提供することができる。   For example, in the above description, it is shown that a program (computer program) for causing a computer to function as the information processing apparatus according to the embodiment of the present invention is provided. However, the embodiment of the present invention further includes the above-described programs. Can also be provided.

上述した構成は、本発明の実施形態の一例を示すものであり、当然に、本発明の技術的範囲に属するものである。   The configuration described above shows an example of the embodiment of the present invention, and naturally belongs to the technical scope of the present invention.

100 情報処理装置
102 読取部
104 記憶部
106 制御部
108 操作部
110 表示部
120 解析部
122 文字認識部
124 出力情報生成部
126 情報記録部
128 認識対象領域設定部
190 帳票
DESCRIPTION OF SYMBOLS 100 Information processing apparatus 102 Reading part 104 Storage part 106 Control part 108 Operation part 110 Display part 120 Analysis part 122 Character recognition part 124 Output information generation part 126 Information recording part 128 Recognition object area | region setting part 190 Form

Claims (9)

文字認識対象における処理対象の領域の位置に関する情報が処理される順番と対応付けて記録された認識対象基準情報を文字認識対象ごとに記憶する記憶部と;
文字認識対象を表す画像データと、前記画像データに対応する前記認識対象基準情報とに基づいて、前記処理される順番に応じた順序で処理対象となる認識対象領域を設定する認識対象領域設定部と;
前記認識対象領域設定部において設定された前記認識対象領域に含まれる文字を認識する文字認識部と;
を備え、
前記認識対象領域設定部は、
1番目に処理される第1の領域に対応する認識対象領域を、前記画像データの所定の位置を示す第1基準位置を基準として相対的に設定し、
前記第1の領域以外の他の領域に対応する認識対象領域を、設定済みの認識対象領域に対応する第2基準位置を基準として相対的に設定することを特徴とする、情報処理装置。
A storage unit for storing, for each character recognition target, recognition target reference information recorded in association with the order in which information regarding the position of the processing target region in the character recognition target is processed;
A recognition target region setting unit that sets a recognition target region to be processed in an order corresponding to the processing order based on image data representing a character recognition target and the recognition target reference information corresponding to the image data When;
A character recognition unit for recognizing characters included in the recognition target region set in the recognition target region setting unit;
With
The recognition target area setting unit
A recognition target area corresponding to the first area to be processed first is set relative to a first reference position indicating a predetermined position of the image data;
An information processing apparatus, wherein a recognition target region corresponding to a region other than the first region is relatively set with reference to a second reference position corresponding to a set recognition target region.
前記認識対象領域設定部は、前記他の領域に対応する認識対象領域を、設定済みの認識対象領域のうち、前記他の領域と相対的な距離が近い認識対象領域に対応する第2基準位置に基づいて設定することを特徴とする、請求項1に記載の情報処理装置。   The recognition target area setting unit sets a recognition target area corresponding to the other area as a second reference position corresponding to a recognition target area having a relative distance from the other area among the set recognition target areas. The information processing apparatus according to claim 1, wherein the information processing apparatus is set based on the information. 前記認識対象領域設定部は、前記他の領域に対応する認識対象領域を、設定済みの認識対象領域のうち、前記他の領域の1つ前に設定された認識対象領域に対応する第2基準位置に基づいて設定することを特徴とする、請求項1に記載の情報処理装置。   The recognition target area setting unit sets a recognition target area corresponding to the other area as a second reference corresponding to a recognition target area set immediately before the other area among the set recognition target areas. The information processing apparatus according to claim 1, wherein the information processing apparatus is set based on a position. 前記画像データに基づいて、前記認識対象基準情報を前記記憶部に記録する情報記録部をさらに備えることを特徴とする、請求項1〜3に記載の情報処理装置。   The information processing apparatus according to claim 1, further comprising an information recording unit that records the recognition target reference information in the storage unit based on the image data. 前記記憶部は、前記第2基準位置を導出するための基準となる領域が前記処理対象の領域ごとに設定された関連付情報を文字認識対象ごとに記憶し、
前記認識対象領域設定部は、前記画像データに対応する関連付情報に基づいて、前記他の領域に対応する認識対象領域を、前記関連付情報において関連付けられた領域に対して設定された認識対象領域に対応する第2基準位置に基づいて設定することを特徴とする、請求項1に記載の情報処理装置。
The storage unit stores, for each character recognition target, association information in which a region serving as a reference for deriving the second reference position is set for each of the processing target regions,
The recognition target area setting unit is configured to recognize a recognition target area corresponding to the other area based on association information corresponding to the image data with respect to an area associated in the association information. The information processing apparatus according to claim 1, wherein the information processing apparatus is set based on a second reference position corresponding to the region.
前記画像データに基づいて、前記認識対象基準情報と前記関連付情報とを前記記憶部に記録する情報記録部をさらに備えることを特徴とする、請求項5に記載の情報処理装置。   The information processing apparatus according to claim 5, further comprising an information recording unit that records the recognition target reference information and the association information in the storage unit based on the image data. 文字認識対象を読み取り、前記画像データを生成する読取部をさらに備えることを特徴とする、請求項1に記載の情報処理装置。   The information processing apparatus according to claim 1, further comprising a reading unit that reads a character recognition target and generates the image data. 文字認識対象における処理対象の領域の位置に関する情報が処理される順番と対応付けて記録された認識対象基準情報を文字認識対象ごとに記憶する記憶部を備える情報処理装置に用いることが可能な文字認識方法であって:
文字認識対象を表す画像データに対応する前記認識対象基準情報を前記記憶部から読み出すステップと;
前記画像データに基づいて前記画像データの所定の位置を示す第1基準位置を設定するステップと;
前記認識対象基準情報と前記第1基準位置とに基づいて、1番目に処理される第1の領域に対応する認識対象領域を、前記第1基準位置を基準として相対的に設定するステップと;
前記認識対象基準情報と設定済みの認識対象領域に対応する第2基準位置とに基づいて、前記第1の領域以外の他の領域に対応する認識対象領域を、前記第2基準位置を基準として相対的に設定するステップと;
設定された各認識対象領域に含まれる文字を認識するステップと;
を有することを特徴とする、文字認識方法。
Characters that can be used in an information processing apparatus including a storage unit that stores recognition target reference information recorded in association with the order in which information regarding the position of a processing target region in a character recognition target is processed for each character recognition target The recognition method is:
Reading the recognition target reference information corresponding to image data representing a character recognition target from the storage unit;
Setting a first reference position indicating a predetermined position of the image data based on the image data;
Setting a recognition target area corresponding to a first area to be processed first based on the recognition target reference information and the first reference position relative to the first reference position;
Based on the recognition target reference information and the second reference position corresponding to the set recognition target region, the recognition target region corresponding to the other region other than the first region is used as the reference. A relatively setting step;
Recognizing characters included in each set recognition target area;
A character recognition method comprising:
文字認識対象における処理対象の領域の位置に関する情報が処理される順番と対応付けて記録された認識対象基準情報を文字認識対象ごとに記憶する記憶部を備える情報処理装置に用いることが可能なプログラムであって:
文字認識対象を表す画像データに対応する前記認識対象基準情報を前記記憶部から読み出すステップ;
前記画像データに基づいて前記画像データの所定の位置を示す第1基準位置を設定するステップ;
前記認識対象基準情報と前記第1基準位置とに基づいて、1番目に処理される第1の領域に対応する認識対象領域を、前記第1基準位置を基準として相対的に設定するステップ;
前記認識対象基準情報と設定済みの認識対象領域に対応する第2基準位置とに基づいて、前記第1の領域以外の他の領域に対応する認識対象領域を、前記第2基準位置を基準として相対的に設定するステップ;
設定された各認識対象領域に含まれる文字を認識するステップ;
をコンピュータに実行させるためのプログラム。
A program that can be used in an information processing apparatus that includes a storage unit that stores recognition target reference information that is recorded in association with the order in which information on the position of a processing target region in a character recognition target is processed. Because:
Reading the recognition target reference information corresponding to the image data representing the character recognition target from the storage unit;
Setting a first reference position indicating a predetermined position of the image data based on the image data;
Relatively setting a recognition target area corresponding to a first area to be processed first based on the first reference position based on the recognition target reference information and the first reference position;
Based on the recognition target reference information and the second reference position corresponding to the set recognition target region, the recognition target region corresponding to the other region other than the first region is used as the reference. Relative setting step;
A step of recognizing characters included in each set recognition target area;
A program that causes a computer to execute.
JP2009078915A 2009-03-27 2009-03-27 Information processor, character recognition method and program Pending JP2010231541A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009078915A JP2010231541A (en) 2009-03-27 2009-03-27 Information processor, character recognition method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009078915A JP2010231541A (en) 2009-03-27 2009-03-27 Information processor, character recognition method and program

Publications (1)

Publication Number Publication Date
JP2010231541A true JP2010231541A (en) 2010-10-14

Family

ID=43047284

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009078915A Pending JP2010231541A (en) 2009-03-27 2009-03-27 Information processor, character recognition method and program

Country Status (1)

Country Link
JP (1) JP2010231541A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015041371A (en) * 2013-08-23 2015-03-02 株式会社ダイフク Article information recognition device
JP2017091419A (en) * 2015-11-16 2017-05-25 富士ゼロックス株式会社 Information processing device, image reading device and program
JP2018500704A (en) * 2015-10-30 2018-01-11 小米科技有限責任公司Xiaomi Inc. Region extraction method and apparatus
CN107665346A (en) * 2016-07-28 2018-02-06 京瓷办公信息***株式会社 Information extracting device, the image processing system with information extracting device, the control method of information extracting device

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08129607A (en) * 1994-10-31 1996-05-21 Hitachi Ltd Optical character recognizing method
JP2000306030A (en) * 1999-04-26 2000-11-02 Fujitsu Ltd Document collating device
JP2001084254A (en) * 1999-09-10 2001-03-30 Toshiba Corp Electronic filing system and filing method
JP2007011529A (en) * 2005-06-29 2007-01-18 Njk:Kk Method for determining character recognition position in ocr processing

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08129607A (en) * 1994-10-31 1996-05-21 Hitachi Ltd Optical character recognizing method
JP2000306030A (en) * 1999-04-26 2000-11-02 Fujitsu Ltd Document collating device
JP2001084254A (en) * 1999-09-10 2001-03-30 Toshiba Corp Electronic filing system and filing method
JP2007011529A (en) * 2005-06-29 2007-01-18 Njk:Kk Method for determining character recognition position in ocr processing

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015041371A (en) * 2013-08-23 2015-03-02 株式会社ダイフク Article information recognition device
JP2018500704A (en) * 2015-10-30 2018-01-11 小米科技有限責任公司Xiaomi Inc. Region extraction method and apparatus
US10127471B2 (en) 2015-10-30 2018-11-13 Xiaomi Inc. Method, device, and computer-readable storage medium for area extraction
JP2017091419A (en) * 2015-11-16 2017-05-25 富士ゼロックス株式会社 Information processing device, image reading device and program
CN107665346A (en) * 2016-07-28 2018-02-06 京瓷办公信息***株式会社 Information extracting device, the image processing system with information extracting device, the control method of information extracting device

Similar Documents

Publication Publication Date Title
US7950589B2 (en) Program, information storage medium, two-dimensional code generation system, image generation system and printed material
US7813553B2 (en) Image region detection method, recording medium, and device therefor
WO2018113665A1 (en) Two-dimensional code recognition method and apparatus
US20100158375A1 (en) Signal processing apparatus, signal processing method, computer-readable medium and computer data signal
CN110431563B (en) Method and device for correcting image
US20220101638A1 (en) Image processing method, and electronic device supporting same
JP2014215752A (en) Electronic equipment and method for processing handwritten data
US10810743B2 (en) Image processing device, image processing method, and computer program product
US20130321328A1 (en) Method and apparatus for correcting pen input in terminal
JP2010231541A (en) Information processor, character recognition method and program
US11194881B2 (en) Electronic device and method for displaying web content in augmented reality mode
JP2007012016A (en) Dot pattern
JP6471835B2 (en) Information processing apparatus, control method, and program
US20160155250A1 (en) Map obtaining method
JP2018124918A (en) Image processor, image processing method, and program
JP5606635B1 (en) Electronic device, correction method, and program
TW201823942A (en) Handwriting-gesture notification method and electronic system using the same
JP2007011529A (en) Method for determining character recognition position in ocr processing
JP2008269121A (en) Electronic equipment, two-dimensional code recognition method, program and two-dimensional code
JP5901680B2 (en) Portable terminal device and display device
JP2009250739A (en) Method for processing image and program
CN102968611A (en) Information processor and information processing method
JP2005322061A (en) Two-dimensional code reader
KR20160008407A (en) Apparatus and method for recognizing characters
JP6225096B2 (en) Form reading program, form reading method, and information processing apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111115

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120413

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120424

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120614

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120904

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121024

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130305