JP2014182618A - Sorting device and pattern recognition device - Google Patents

Sorting device and pattern recognition device Download PDF

Info

Publication number
JP2014182618A
JP2014182618A JP2013057018A JP2013057018A JP2014182618A JP 2014182618 A JP2014182618 A JP 2014182618A JP 2013057018 A JP2013057018 A JP 2013057018A JP 2013057018 A JP2013057018 A JP 2013057018A JP 2014182618 A JP2014182618 A JP 2014182618A
Authority
JP
Japan
Prior art keywords
unit
image
data value
width
line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013057018A
Other languages
Japanese (ja)
Inventor
Tomoyuki Hamamura
倫行 浜村
Bumpei Irie
文平 入江
Masaya Maeda
匡哉 前田
Yuka Kono
優香 河野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2013057018A priority Critical patent/JP2014182618A/en
Publication of JP2014182618A publication Critical patent/JP2014182618A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Sorting Of Articles (AREA)
  • Character Input (AREA)
  • Character Discrimination (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a sorting device and a pattern recognition device capable of efficiently recognizing patterns.SOLUTION: The pattern recognition device reads an image in an area written with a piece of sorting information on an article to be sorted. The pattern recognition device recognizes a pattern constituting the sorting information and recognizes the sorting information from the recognized pattern by using a parameter for recognizing a pattern from the read image as a sorting information of an article to be sorted stored in a storage. The pattern recognizing section sorts the article to be sorted based on the obtained sorting information as the recognition result and displays a read image of the article to be sorted which the pattern recognizing section has failed to recognize the pattern constituting the sorting information. The pattern constituting the sorting information included in the read image of the article to be sorted displayed on the display section is input by an operator. An optimization section selects an optimum parameter on the basis of the pattern input by the operator and the read image including the pattern, and stores the selected parameter in the storage as a parameter for recognizing a pattern.

Description

本発明の実施形態は、区分装置及びパターン認識装置に関する。   Embodiments described herein relate generally to a sorting apparatus and a pattern recognition apparatus.

紙葉類などの区分対象物を区分する区分装置は、区分対象物に記述される住所などの区分情報を認識して区分対象物を区分する。区分装置は、文字幅パラメータなどのパラメータを用いて区分対象物に記載されている区分情報の文字パターンを識別し、識別された文字パターンに基づいて区分情報を認識する。しかしながら、区分装置は、文字認識に失敗したり文字認識に時間がかかるなどの課題を有する。   A sorting device that sorts sorting objects such as paper sheets recognizes sorting information such as addresses described in the sorting objects and classifies the sorting objects. The sorting apparatus identifies a character pattern of the sorting information described in the sorting object using a parameter such as a character width parameter, and recognizes the sorting information based on the identified character pattern. However, the sorting apparatus has problems such as failure in character recognition and a long time for character recognition.

特開平9−16715号公報Japanese Patent Laid-Open No. 9-16715

上記の課題を解決するために、効率的にパターンを認識する区分装置及びパターン認識装置を提供する。   In order to solve the above problems, a sorting apparatus and a pattern recognition apparatus that efficiently recognize a pattern are provided.

実施形態によれば、区分装置は、画像読取部と、記憶部と、パターン認識部と、区分部と、表示部と、パターン入力部と、最適化部と、を備える区分装置。画像読取部は、区分対象物における区分情報の記載領域の画像を読取る。記憶部は、区分対象物の区分情報となりうるパターンを認識するためのパラメータを記憶する。パターン認識部は、前記画像読取部が読み取った画像から前記記憶部が記憶したパラメータを用いて区分情報を構成するパターンを認識し、認識されたパターンから区分情報を認識する。区分部は、前記パターン認識部が認識結果として得た区分情報に基づいて区分対象物を区分する。表示部は、前記パターン認識部が区分情報を構成するパターンを認識できなかった区分対象物の読取画像を表示する。パターン入力部は、前記表示部が表示した区分対象物の読取画像に含まれる区分情報を構成するパターンをオペレータが入力する。最適化部は、前記オペレータが前記パターン入力部に入力したパターンと当該パターンが含まれる前記読取画像とに基づいて最適なパラメータを選択し、選択されたパラメータを前記記憶部にパターンを認識するためのパラメータとして格納する。   According to the embodiment, the sorting apparatus includes an image reading unit, a storage unit, a pattern recognition unit, a sorting unit, a display unit, a pattern input unit, and an optimization unit. The image reading unit reads an image of a description area of the classification information on the classification target object. The storage unit stores a parameter for recognizing a pattern that can be the classification information of the classification target object. The pattern recognizing unit recognizes a pattern constituting the segment information from the image read by the image reading unit using the parameters stored in the storage unit, and recognizes the segment information from the recognized pattern. The sorting unit sorts the sorting object based on the sorting information obtained as a recognition result by the pattern recognition unit. The display unit displays a read image of the sorting object in which the pattern recognition unit has not been able to recognize the pattern constituting the sorting information. In the pattern input unit, the operator inputs a pattern constituting the segment information included in the read image of the segment object displayed by the display unit. The optimization unit selects an optimum parameter based on the pattern input by the operator to the pattern input unit and the read image including the pattern, and recognizes the selected parameter in the storage unit. Stored as a parameter.

図1は、第1実施形態に係る区分装置の構成例を示すブロック図である。FIG. 1 is a block diagram illustrating a configuration example of a sorting apparatus according to the first embodiment. 図2は、第1実施形態に係る区分装置の最適化部の動作例を説明するためのフローチャートである。FIG. 2 is a flowchart for explaining an operation example of the optimization unit of the sorting apparatus according to the first embodiment. 図3は、第2実施形態に係る区分装置の構成例を示すブロック図である。FIG. 3 is a block diagram illustrating a configuration example of the sorting apparatus according to the second embodiment. 図4は、第2実施形態に係る区分装置の複数幅抽出部の構成例を示すブロック図である。FIG. 4 is a block diagram illustrating a configuration example of the multiple width extraction unit of the sorting apparatus according to the second embodiment. 図5は、複数幅抽出部のデータ取得部が取得するデータの位置の例を示す図である。FIG. 5 is a diagram illustrating an example of the position of data acquired by the data acquisition unit of the multiple width extraction unit. 図6は、複数幅抽出部のデータ取得部が取得するデータの例を示す図である。FIG. 6 is a diagram illustrating an example of data acquired by the data acquisition unit of the multiple width extraction unit. 図7は、幅位置記憶部が格納する線情報テーブルの例を示す図である。FIG. 7 is a diagram illustrating an example of a line information table stored in the width position storage unit. 図8は、第2実施形態に係る区分装置の複数幅抽出部の動作例を説明するためのフローチャートである。FIG. 8 is a flowchart for explaining an operation example of the multiple width extraction unit of the sorting apparatus according to the second embodiment. 図9は、第2実施形態に係る区分装置の複数幅抽出部の動作例を説明するためのフローチャートである。FIG. 9 is a flowchart for explaining an operation example of the multiple width extraction unit of the sorting apparatus according to the second embodiment. 図10は、第2実施形態に係る区分装置の単独幅抽出部の構成例を示すブロック図である。FIG. 10 is a block diagram illustrating a configuration example of the single width extraction unit of the sorting apparatus according to the second embodiment. 図11は、単独幅抽出部のデータ取得部が取得するデータの例を示す図である。FIG. 11 is a diagram illustrating an example of data acquired by the data acquisition unit of the single width extraction unit. 図12は、複数幅抽出部の未確定バッファ部に格納されるデータの例を示す図である。FIG. 12 is a diagram illustrating an example of data stored in the undetermined buffer unit of the multiple width extraction unit. 図13は、単独幅抽出部のデータ取得部が取得するデータの他の例を示す図である。FIG. 13 is a diagram illustrating another example of data acquired by the data acquisition unit of the single width extraction unit. 図14は、単独幅抽出部のデータ取得部が取得するデータの他の例を示す図である。FIG. 14 is a diagram illustrating another example of data acquired by the data acquisition unit of the single width extraction unit. 図15は、第2実施形態に係る区分装置の単独幅抽出部の動作例を説明するためのフローチャートである。FIG. 15 is a flowchart for explaining an operation example of the single width extraction unit of the sorting apparatus according to the second embodiment. 図16は、第2実施形態に係る区分装置の単独幅抽出部の動作例を説明するためのフローチャートである。FIG. 16 is a flowchart for explaining an operation example of the single width extraction unit of the sorting apparatus according to the second embodiment.

(第1実施形態)
以下、第1実施形態について図面を参照して説明する。
第1実施形態に係る区分装置は、パターン認識のためのパラメータを更新するものである。たとえば、認識対象となるパターンは、文字、記号或いはコードなどの情報である。たとえば、パラメータは、二値化パラメータ、処理対象座標、文字幅パラメータ及びカラーパラメータなどである。第1実施形態では、パターンとしての文字を用いた文字認識処理を行う区分装置について説明するものとする。
(First embodiment)
Hereinafter, a first embodiment will be described with reference to the drawings.
The sorting apparatus according to the first embodiment updates parameters for pattern recognition. For example, the pattern to be recognized is information such as characters, symbols or codes. For example, the parameters are a binarization parameter, processing target coordinates, a character width parameter, a color parameter, and the like. In the first embodiment, a sorting apparatus that performs character recognition processing using characters as patterns will be described.

第1実施形態に係る区分装置は、最適化部、パターン認識部およびコーディング部などの機能を含むシステムである。本実施形態に係る区分装置は、紙葉類あるいは物品などの区分対象物に文字で記載されている区分情報に基づいて、区分対象物を区分処理する。区分装置は、紙葉類あるいは物品などの区分対象物に記載された区分情報としての文字を認識する文字認識機能を有する。区分装置は、文字認識処理による認識結果として得られる区分情報あるいは後述するビデオコーディング処理により入力される区分情報によって、紙葉類あるいは物品などの区分対象物を区分する。   The sorting apparatus according to the first embodiment is a system including functions such as an optimization unit, a pattern recognition unit, and a coding unit. The sorting apparatus according to the present embodiment sorts a sorting object based on sorting information written in letters on a sorting object such as paper sheets or articles. The sorting apparatus has a character recognition function for recognizing characters as sorting information written on sorting objects such as paper sheets or articles. The sorting device sorts sorting objects such as paper sheets or articles based on sorting information obtained as a recognition result by character recognition processing or sorting information input by video coding processing described later.

第1実施形態に係る区分装置は、区分機本体における辞書記録部が記録する文字認識用辞書を用いた文字認識処理で認識できなかった区分情報としての文字情報を人が入力するビデオコーディングシステム(以降、VCSと略称する)を有する。VCSは、複数のコーディング装置を有する。各コーディング装置は、区分機本体の文字認識処理で認識できなかった区分情報を含む画像を表示画面に表示し、その表示画面を見た人物(オペレータ)が当該文字画像に含まれる文字情報としての区分情報を入力する。また、第1実施形態に係るコーディング装置は、人物が入力した文字情報としての区分情報を区分機本体に返す。   The sorting apparatus according to the first embodiment is a video coding system in which a person inputs character information as sorting information that could not be recognized by a character recognition process using a dictionary for character recognition recorded by a dictionary recording unit in a sorting machine body ( Hereinafter, it is abbreviated as VCS). The VCS has a plurality of coding devices. Each coding device displays an image including classification information that could not be recognized by the character recognition processing of the classification machine body on the display screen, and a person (operator) who viewed the display screen as character information included in the character image. Enter classification information. In addition, the coding apparatus according to the first embodiment returns the sorting information as the character information input by the person to the sorting machine body.

第1実施形態に係る区分装置は、VCSから供給される区分情報などに基づいてパラメータを最適化(調整)する最適化部を有する。最適化部は、人物が入力した文字情報に基づいて、パラメータ記録部に記憶されているパターン認識のためのパラメータを最適化する。最適化部は、区分装置とは別に設けた装置であっても良い。   The sorting apparatus according to the first embodiment includes an optimization unit that optimizes (adjusts) parameters based on sorting information supplied from the VCS. The optimization unit optimizes the parameters for pattern recognition stored in the parameter recording unit based on the character information input by the person. The optimization unit may be a device provided separately from the sorting device.

なお、第1実施形態に係る区分装置は、郵便物などの紙葉類を区分する紙葉類処理装置(例えば郵便区分装置)、梱包品や貨物(たとえば、小包、宅配便)などの物品を区分する物品区分装置、あるいは、物品に付与されたタグなどに記載された区分情報により物品を仕分けする物品仕分け装置などが想定される。以下の説明では、区分装置の一例として、文字で記載された区分情報としての住所情報により紙葉類を区分する紙葉類処理装置を想定して説明するものとする。   Note that the sorting apparatus according to the first embodiment is configured to handle articles such as a paper sheet processing apparatus (for example, a mail sorting apparatus) that sorts paper sheets such as postal items, and packages and cargo (for example, parcels, parcel delivery). An article sorting apparatus for sorting, or an article sorting apparatus for sorting articles based on sorting information described in tags or the like attached to articles is assumed. In the following description, as an example of a sorting device, a description will be given assuming a paper sheet processing device that sorts paper sheets based on address information as sorting information written in characters.

図1は、第1実施形態に係る最適化装置、パターン認識装置およびコーディング装置などの機能を有する区分装置としての紙葉類処理装置の構成例を概略的に示すブロック図である。
紙葉類処理装置1(区分装置)は、たとえば、郵便物あるいは帳票等の紙葉類に記載された住所などの文字で表現された区分情報を文字認識し、その文字認識の結果に基づいて当該紙葉類を区分処理する。図1に示す構成例おいて、紙葉類処理装置1は、区分機本体3及びビデオコーディングシステム(以降、VCSと略称する)4などから構成される。区分機本体3及びVCS4は、互いに通信可能なように接続されている。
FIG. 1 is a block diagram schematically illustrating a configuration example of a sheet processing apparatus as a sorting apparatus having functions such as an optimization apparatus, a pattern recognition apparatus, and a coding apparatus according to the first embodiment.
The paper sheet processing apparatus 1 (sorting apparatus), for example, recognizes the sorting information expressed by characters such as an address described on a paper sheet such as a postal matter or a form, and based on the result of the character recognition. Sort the paper. In the configuration example shown in FIG. 1, the sheet processing apparatus 1 includes a sorter body 3 and a video coding system (hereinafter abbreviated as VCS) 4. The sorter main body 3 and the VCS 4 are connected so that they can communicate with each other.

まず、区分機本体3について説明する。
図1が示す紙葉類処理装置の区分機本体3は、紙葉類を区分情報としての住所情報により区分処理するものである。区分機本体3のパターン認識部は、文字認識用辞書を参照して、スキャナにより読み取った紙葉類の画像における住所情報らしい各文字を認識する。また、パターン認識部18は、文字認識の結果と辞書記録部19が格納する住所データベースに記憶されている住所情報とを参照して、紙葉類に記載されている住所情報を判定する。紙葉類処理装置の区分機本体3は、住所情報が認識(特定)できなかった紙葉類の画像をVCS4へ送る。VCS4は、紙葉類の画像における住所情報をオペレータが入力し、その入力結果を区分機本体3へ返す。区分機本体3は、VCS4で入力された住所情報に基づいて住所情報が認識できなかった紙葉類を区分処理する機能も有する。
First, the sorting machine body 3 will be described.
The sorter main body 3 of the paper sheet processing apparatus shown in FIG. 1 sorts paper sheets based on address information as sorting information. The pattern recognition unit of the sorter main body 3 refers to the character recognition dictionary and recognizes each character that seems to be address information in the image of the paper sheet read by the scanner. Further, the pattern recognition unit 18 refers to the result of character recognition and the address information stored in the address database stored in the dictionary recording unit 19 to determine the address information described on the paper sheet. The sorter body 3 of the paper sheet processing apparatus sends an image of the paper sheet whose address information could not be recognized (specified) to the VCS 4. In the VCS 4, the operator inputs address information in the image of the paper sheet, and returns the input result to the sorter main body 3. The sorter main body 3 also has a function of sorting paper sheets whose address information could not be recognized based on the address information input by the VCS 4.

区分機本体3は、オペレーションパネル10、供給部11、主搬送路12、バーコードリーダ(以下、BCR)13、スキャナ14、バーコードライタ(以下、BCW)15、区分部16、制御部17、パターン認識部18、辞書記録部19、パラメータ記録部20、最適化部20a及び画像記録部20bなどを備える。   The sorter body 3 includes an operation panel 10, a supply unit 11, a main transport path 12, a barcode reader (hereinafter referred to as BCR) 13, a scanner 14, a barcode writer (hereinafter referred to as BCW) 15, a sorting unit 16, a control unit 17, A pattern recognition unit 18, a dictionary recording unit 19, a parameter recording unit 20, an optimization unit 20a, an image recording unit 20b, and the like are provided.

制御部17は、紙葉類処理装置1の各部の動作を統合的に制御する。制御部17は、CPU、バッファメモリ、プログラムメモリ、及び不揮発性メモリなどを備える。CPUは、種々の演算処理を行う。バッファメモリは、CPUにより行われる演算の結果を一時的に記憶する。プログラムメモリ及び不揮発性メモリは、CPUが実行する種々のプログラム及び制御データなどを記憶する。制御部17は、CPUによりプログラムメモリに記憶されているプログラムを実行することにより、種々の処理を行うことができる。   The control unit 17 controls the operation of each unit of the paper sheet processing apparatus 1 in an integrated manner. The control unit 17 includes a CPU, a buffer memory, a program memory, a nonvolatile memory, and the like. The CPU performs various arithmetic processes. The buffer memory temporarily stores the results of calculations performed by the CPU. The program memory and the nonvolatile memory store various programs executed by the CPU, control data, and the like. The control unit 17 can perform various processes by executing a program stored in the program memory by the CPU.

オペレーションパネル10は、オペレータ(操作員)が処理モードを指定したり、処理開始を指定したりする入力部である。また、オペレーションパネル10は、紙葉類処理装置1の動作状態などを表示したりする表示部でもある。オペレーションパネル10は、タイミング入力部10a及びパラメータ入力部10bなどを備える。オペレーションパネル10は、タッチパネルであってもよいし、キーボード又はテンキーなどであってもよい。   The operation panel 10 is an input unit through which an operator (operator) designates a processing mode or designates the start of processing. The operation panel 10 is also a display unit that displays an operation state of the paper sheet processing apparatus 1. The operation panel 10 includes a timing input unit 10a and a parameter input unit 10b. The operation panel 10 may be a touch panel, a keyboard, a numeric keypad, or the like.

タイミング入力部10aは、同一のフォーマットで文字(住所)が記載されている大量の区分対象物(バルク)(たとえば、同一のフォーマットの伝票が張り付けられている多数の郵便物など)が区分機本体3に投入される場合に、バルクが投入されるタイミングをオペレータによって入力される。また、タイミング入力部10aは、バルクの投入が終了するタイミングをオペレータによって入力される。タイミング入力部10aは、オペレーションパネル10に表示されるアイコンなどであってもよい。   The timing input unit 10a includes a large number of sorting objects (bulk) in which characters (addresses) are written in the same format (for example, a large number of mail items on which slips of the same format are pasted). 3 is input by the operator when the bulk is input. In addition, the timing input unit 10a is input by the operator at the timing when the bulk loading ends. The timing input unit 10 a may be an icon displayed on the operation panel 10.

パラメータ入力部10bは、バルクに記載されている文字を認識するためのパラメータをオペレータによって入力される。入力されるパラメータは、パラメータ記録部20に記録される。パターン認識部18は、パラメータ記録部20が記録するパラメータを用いてバルクに記載されている文字を認識する。パラメータ入力部10bは、オペレーションパネル10に表示されるアイコンなどであってもよい。   In the parameter input unit 10b, an operator inputs parameters for recognizing characters written in the bulk. The input parameter is recorded in the parameter recording unit 20. The pattern recognition unit 18 recognizes characters written in the bulk using the parameters recorded by the parameter recording unit 20. The parameter input unit 10b may be an icon or the like displayed on the operation panel 10.

オペレータが入力するパラメータは、パターン認識部18がバルクに記載されている文字を認識するために利用される。パラメータは、バルクに応じて決定される。バルクが同一のフォーマットに従って住所を記載されているので、オペレータは、当該フォーマットに従って記載されている住所を認識するのに適したパラメータを選択し、選択されたパラメータをパラメータ入力部10bに入力する。オペレータが適切なパラメータをパラメータ入力部10bに入力することで、パターン認識部18は、バルクに記載されている住所を効率的に認識することができる。   The parameters input by the operator are used for the pattern recognition unit 18 to recognize characters written in the bulk. The parameter is determined according to the bulk. Since the address is described according to the same format in the bulk, the operator selects a parameter suitable for recognizing the address described according to the format, and inputs the selected parameter to the parameter input unit 10b. When the operator inputs an appropriate parameter to the parameter input unit 10b, the pattern recognition unit 18 can efficiently recognize the address described in the bulk.

供給部11は、紙葉類処理装置1に取り込む紙葉類をストックする。供給部11は、重ねられた状態の紙葉類をまとめて受け入れる。供給部11は、紙葉類を1つずつ主搬送路12へ供給する。たとえば、供給部11は、分離ローラを備える。分離ローラは、供給部11に紙葉類が投入された場合、投入された紙葉類の集積方向の下端に接する。分離ローラは、回転することにより、供給部11にセットされた紙葉類を集積方向の下端から1枚ずつ主搬送路12へ一定のピッチで供給する。   The supply unit 11 stocks paper sheets to be taken into the paper sheet processing apparatus 1. The supply unit 11 collectively receives the stacked paper sheets. The supply unit 11 supplies paper sheets one by one to the main transport path 12. For example, the supply unit 11 includes a separation roller. When a paper sheet is input to the supply unit 11, the separation roller contacts the lower end of the input paper sheet in the stacking direction. The separation roller rotates to supply paper sheets set in the supply unit 11 one by one from the lower end in the stacking direction to the main transport path 12 at a constant pitch.

主搬送路12は、紙葉類を紙葉類処理装置1内の各部に搬送する搬送部である。主搬送路12は、搬送ベルト及び駆動プーリなどを備える。主搬送路12は、駆動モータにより駆動プーリを駆動する。搬送ベルトは、駆動プーリにより動作する。主搬送路12上には、バーコードリーダ13、スキャナ14、バーコードライタ15、および、区分部16などが設けられている。   The main transport path 12 is a transport unit that transports paper sheets to each unit in the paper sheet processing apparatus 1. The main conveyance path 12 includes a conveyance belt and a drive pulley. The main conveyance path 12 drives a drive pulley by a drive motor. The conveyor belt is operated by a driving pulley. On the main transport path 12, a bar code reader 13, a scanner 14, a bar code writer 15, and a sorting unit 16 are provided.

BCR13は、主搬送路12上を搬送される紙葉類に印字されているIDバーコードあるいは宛先バーコードなどのバーコードを読取るものである。BCR13は、バーコードの画像を読取る読取部と、読取画像におけるバーコードを認識する認識部を有する。読取部は、バーコードを読み取ると、当該バーコードの画像を認識部へ供給する。認識部は、供給された当該バーコード画像を処理し、当該バーコードに含まれるデータを認識する。認識されたデータは、制御部17へ供給される。   The BCR 13 reads a barcode such as an ID barcode or a destination barcode printed on a sheet conveyed on the main conveyance path 12. The BCR 13 includes a reading unit that reads an image of a barcode and a recognition unit that recognizes the barcode in the read image. When the reading unit reads the barcode, the reading unit supplies an image of the barcode to the recognition unit. The recognition unit processes the supplied barcode image and recognizes data included in the barcode. The recognized data is supplied to the control unit 17.

スキャナ14は、主搬送路12により搬送される紙葉類から画像を取得する。スキャナ14は、例えば、照明と光学センサとを備える。照明は、主搬送路12により搬送される紙葉類に対して光を照射する。光学センサは、Charge Coupled Device(CCD)などの受光素子と光学系(レンズ)とを備える。光学センサは、紙葉類で反射した反射光を光学系により受光し、CCDに結像させ、電気信号(画像)を取得する。スキャナ14は、主搬送路12により搬送される紙葉類から連続して画像を取得することにより、紙葉類の全体の画像を取得する。スキャナ14は、取得した画像をパターン認識部18に供給する。なお、スキャナ14は、ビデオカメラなどにより構成しても良い。   The scanner 14 acquires an image from paper sheets conveyed by the main conveyance path 12. The scanner 14 includes, for example, illumination and an optical sensor. The illumination irradiates light on the paper sheet conveyed by the main conveyance path 12. The optical sensor includes a light receiving element such as a charge coupled device (CCD) and an optical system (lens). The optical sensor receives the reflected light reflected by the paper sheets by the optical system, forms an image on the CCD, and acquires an electrical signal (image). The scanner 14 acquires images of the entire paper sheet by continuously acquiring images from the paper sheets conveyed by the main conveyance path 12. The scanner 14 supplies the acquired image to the pattern recognition unit 18. The scanner 14 may be constituted by a video camera or the like.

パターン認識部18は、スキャナ14により読み取った紙葉類の画像に含まれるパターンとしての文字を認識するパターン認識部として機能する。パターン認識部18は、スキャナ14により読取った紙葉類の画像(住所画像)から住所情報を構成する各文字らしい文字画像の領域(文字候補領域)を抽出する。パターン認識部18は、抽出した文字候補領域の画像における各文字を辞書記録部19が格納する文字認識用辞書を参照して認識する。たとえば、パターン認識部18は、文字候補領域における文字(パターン)としての特徴パラメータと文字認識用辞書に辞書データとして記憶されている各文字の特徴パラメータ(各文字の辞書パターン)との類似度を算出し、算出した類似度により文字認識結果を判定する。   The pattern recognizing unit 18 functions as a pattern recognizing unit that recognizes characters as patterns included in the image of the paper sheet read by the scanner 14. The pattern recognition unit 18 extracts a character image region (character candidate region) that is likely to be each character constituting address information from an image (address image) of a paper sheet read by the scanner 14. The pattern recognition unit 18 recognizes each character in the extracted character candidate area image with reference to the character recognition dictionary stored in the dictionary recording unit 19. For example, the pattern recognition unit 18 determines the similarity between the feature parameter as a character (pattern) in the character candidate region and the feature parameter (character dictionary pattern) of each character stored as dictionary data in the character recognition dictionary. The character recognition result is determined based on the calculated similarity.

文字認識用辞書は、各文字の特徴をデータ化した特徴パラメータなどの辞書データを記憶する。文字認識用辞書は、パターン認識部18による文字認識処理(OCR処理)に使用される。たとえば、文字認識用辞書は、各文字の特徴を示す辞書データとして、各文字の特徴パラメータを記憶する。ここで、文字の特徴パラメータとは、文字の画像における特徴を数値化したものである。たとえば、文字認識用辞書に辞書データとして文字の特徴パラメータは、文字の画像をぼかした後の輝度勾配情報を128次元ベクトルとして抽出したものなどであっても良い。また、文字認識用辞書に辞書データとして記憶する文字の特徴パラメータは、平均m、共分散行列Σを有するガウス分布であっても良い。   The character recognition dictionary stores dictionary data such as feature parameters obtained by converting the features of each character into data. The character recognition dictionary is used for character recognition processing (OCR processing) by the pattern recognition unit 18. For example, the character recognition dictionary stores feature parameters of each character as dictionary data indicating the features of each character. Here, the character feature parameter is a numerical value of the feature in the character image. For example, the characteristic parameter of the character as dictionary data in the character recognition dictionary may be one obtained by extracting the luminance gradient information after blurring the character image as a 128-dimensional vector. The character feature parameter stored as dictionary data in the character recognition dictionary may be a Gaussian distribution having an average m and a covariance matrix Σ.

たとえば、パターン認識部18は、抽出した特徴パラメータと文字認識用辞書に格納されている「あ」の特徴パラメータとを比較して、文字候補領域に記載されている文字が「あ」である確率(或いは類似度)を計算する。さらに、パターン認識部18は、「い」、「う」、・・・などの各文字について、順に類似度(確率)を計算する。パターン認識部18は、計算した各文字に対する類似度(確率)から文字候補領域に含まれる文字を特定する。   For example, the pattern recognition unit 18 compares the extracted feature parameter with the feature parameter of “A” stored in the character recognition dictionary, and the probability that the character described in the character candidate area is “A”. (Or similarity) is calculated. Further, the pattern recognition unit 18 calculates the similarity (probability) in order for each character such as “I”, “U”,. The pattern recognition unit 18 specifies characters included in the character candidate region from the calculated similarity (probability) for each character.

パターン認識部18は、パターン認識部18による文字認識結果と辞書記録部19が格納する住所データベースに記憶されている住所情報とを比較することにより、紙葉類に記載されている住所情報を特定(認識)する。たとえば、パターン認識部18による文字認識結果として各文字候補領域について複数の文字候補が得られた場合、パターン認識部18は、得られた文字候補の組合せと住所データベースが記憶する住所情報とを比較して住所情報を特定する。住所情報が特定(認識)できた場合、パターン認識部18は、特定した住所情報を制御部17へ供給する。住所情報が特定(認識)できなかった場合、パターン認識部18は、紙葉類の画像、および、文字認識結果を含むビデオコーディング用の情報(コーディングデータ)を画像蓄積分配装置21へ送信する。   The pattern recognition unit 18 identifies the address information described on the paper sheet by comparing the character recognition result obtained by the pattern recognition unit 18 with the address information stored in the address database stored in the dictionary recording unit 19. (recognize. For example, when a plurality of character candidates are obtained for each character candidate region as a result of character recognition by the pattern recognition unit 18, the pattern recognition unit 18 compares the obtained combination of character candidates with address information stored in the address database. And address information is specified. When the address information can be specified (recognized), the pattern recognition unit 18 supplies the specified address information to the control unit 17. If the address information cannot be specified (recognized), the pattern recognition unit 18 transmits the image of paper sheets and video coding information (coding data) including the character recognition result to the image storage / distribution device 21.

辞書記録部19は、文字認識用辞書及び住所データベースを記録する。辞書記録部19は、パターン認識部18からの指示に基づいて、文字認識用辞書の辞書データ及び住所データベースの住所情報をパターン認識部18へ供給する。   The dictionary recording unit 19 records a character recognition dictionary and an address database. The dictionary recording unit 19 supplies the dictionary data of the character recognition dictionary and the address information of the address database to the pattern recognition unit 18 based on an instruction from the pattern recognition unit 18.

パラメータ記録部20は、パターン認識部18が文字認識をするために利用するパラメータを記録する。パラメータ記録部20は、オペレータがパラメータ入力部10bに入力したパラメータを記録する。また、パラメータ記録部20は、最適化部20aが最適化したパラメータを記録する。最適化部20aが最適化したパラメータを記録する場合、パラメータ記録部20は、これまで記録していたパラメータを削除してもよいし、過去のパラメータとして残しておいてもよい。パラメータ記録部20は、パターン認識部18からの指示に基づいて、パラメータを示す情報をパターン認識部18へ供給する。   The parameter recording unit 20 records parameters used by the pattern recognition unit 18 for character recognition. The parameter recording unit 20 records parameters input by the operator to the parameter input unit 10b. The parameter recording unit 20 records the parameters optimized by the optimization unit 20a. When recording the parameter optimized by the optimization unit 20a, the parameter recording unit 20 may delete the parameter that has been recorded so far, or may leave it as a past parameter. The parameter recording unit 20 supplies information indicating parameters to the pattern recognition unit 18 based on an instruction from the pattern recognition unit 18.

最適化部20aは、パラメータ記録部20が記録するパラメータを最適化する。最適化部20aは、パターン認識部18のバルクの住所認識率が低下すると(即ち、パラメータが適切でないと)、パラメータを最適化する。最適化部20aは、画像記録部20bが記録する住所画像と住所画像に対応する正解住所情報とからパラメータを最適化する。最適化部20aの動作は、後に詳述する。   The optimization unit 20a optimizes the parameters recorded by the parameter recording unit 20. The optimization unit 20a optimizes the parameters when the bulk address recognition rate of the pattern recognition unit 18 decreases (that is, the parameters are not appropriate). The optimization unit 20a optimizes parameters from the address image recorded by the image recording unit 20b and correct address information corresponding to the address image. The operation of the optimization unit 20a will be described in detail later.

画像記録部20bは、住所画像と住所画像に対応する正解住所情報とを対応付けて格納する。正解住所情報は、住所画像に記載される住所情報である。正解住所情報は、パターン認識部18が識別に成功した住所情報又はVCS4でオペレータが入力した住所情報である。即ち、画像記録部20bは、パターン認識部18からの住所情報又はVCS4からの住所情報を記録する。画像記録部20bは、タイミング入力部10aにオペレータがバルクの投入を開始することを入力すると、住所画像と住所画像に対応する正解住所情報との記録を開始する。画像記録部20bは、最適化部20aの指示に基づいて、住所画像及び正解住所情報を最適化部20aへ供給する。   The image recording unit 20b stores an address image and correct address information corresponding to the address image in association with each other. Correct address information is address information described in an address image. Correct address information is the address information that the pattern recognition unit 18 has succeeded in identifying, or the address information input by the operator using the VCS 4. That is, the image recording unit 20b records the address information from the pattern recognition unit 18 or the address information from the VCS 4. The image recording unit 20b starts recording the address image and the correct address information corresponding to the address image when the operator inputs to the timing input unit 10a that the bulk input is started. The image recording unit 20b supplies the address image and the correct address information to the optimization unit 20a based on the instruction from the optimization unit 20a.

BCW15は、必要に応じて紙葉類にIDバーコード、あるいは、宛先バーコードを印刷する。たとえば、BCW15は、パターン認識部18により住所情報が認識できた紙葉類に対し、認識結果としての住所情報をバーコード化した宛先バーコードを印刷する。また、BCW15は、パターン認識部18により住所情報が認識できなかった紙葉類に対し、制御部17から与えられる識別情報(IDコード)をバーコード化したIDバーコードを印刷する。つまり、BCW15は、住所情報が認識できた紙葉類にはその認識結果を宛先バーコードとして印刷し、住所情報が認識できなかった紙葉類にはIDバーコードを印刷する。すなわち、宛先バーコードは、住所情報そのものを示すバーコードであり、IDバーコードは、当該紙葉類を識別するための識別情報を示すバーコードである。IDバーコードで示す紙葉類の識別情報は、VCS4において打鍵入力された住所情報と紙葉類とを対応づけるための情報である。言い換えると、IDバーコードが印刷された紙葉類は、VCS4による処理対象となる紙葉類である。   The BCW 15 prints an ID barcode or a destination barcode on a paper sheet as necessary. For example, the BCW 15 prints a destination barcode obtained by converting the address information as a recognition result into a barcode on a paper sheet whose address information has been recognized by the pattern recognition unit 18. In addition, the BCW 15 prints an ID barcode obtained by converting the identification information (ID code) given from the control unit 17 into a barcode for paper sheets whose address information could not be recognized by the pattern recognition unit 18. That is, the BCW 15 prints the recognition result as a destination barcode on a paper sheet for which address information can be recognized, and prints an ID barcode on a paper sheet for which address information cannot be recognized. That is, the destination barcode is a barcode indicating the address information itself, and the ID barcode is a barcode indicating identification information for identifying the paper sheet. The identification information of the paper sheet indicated by the ID barcode is information for associating the address information input by keystroke with the VCS 4 and the paper sheet. In other words, the paper sheet on which the ID barcode is printed is a paper sheet to be processed by the VCS 4.

BCW15の紙葉類の搬送方向の下流側には、紙葉類が住所情報に応じて区分される区分部16が設けられている。この区分部16は、複数の段、複数の列に区画された複数の区分ポケット(図示しない)から構成されている。各ポケットは、区分先ごとに対応して設定されており、住所情報あるいは機械コードに基づいて、紙葉類が住所情報に対応したポケットに順次集積される。   On the downstream side of the BCW 15 in the sheet transport direction, a sorting unit 16 is provided for sorting the sheets according to the address information. The partitioning section 16 includes a plurality of partition pockets (not shown) partitioned into a plurality of stages and a plurality of rows. Each pocket is set corresponding to each sorting destination, and sheets are sequentially accumulated in the pocket corresponding to the address information based on the address information or the machine code.

また、区分部16には、区分先が認識できなかった紙葉類が集積されるVCS排除ポケット(図示しない)が設けられている。このVCS排除ポケットに集積された紙葉類は、住所情報がVCS4にて入力された後に、供給部11に再供給される。供給部11に再供給された紙葉類は、当該紙葉類に印刷されたIDコードとVCS4にて入力された住所情報とに基づいて再区分される。制御部17は、区分情報としての住所情報に基づいて紙葉類を区分部16の各ポケットに区分する。   Further, the sorting unit 16 is provided with a VCS exclusion pocket (not shown) in which paper sheets whose sorting destination cannot be recognized are accumulated. The paper sheets accumulated in the VCS exclusion pocket are re-supplied to the supply unit 11 after the address information is input by the VCS 4. The paper sheets re-supplied to the supply unit 11 are re-sorted based on the ID code printed on the paper sheets and the address information input by the VCS 4. The control unit 17 sorts the paper sheets into the respective pockets of the sorting unit 16 based on the address information as the sorting information.

次に、VCS4について説明する。
VCS4は、画像蓄積分配装置21および複数のビデオコーディングディスク(以降、VCDと略称する)22などから構成されている。画像蓄積分配装置21は、制御部、記憶部、および各種インターフェースなどを有するコンピュータで実現される。VCD22は、たとえば、表示部、VCS入力部、制御部、記憶部、および各種インターフェースなどを有するコンピュータで実現される。
Next, the VCS 4 will be described.
The VCS 4 includes an image storage / distribution device 21, a plurality of video coding disks (hereinafter abbreviated as VCD) 22, and the like. The image storage / distribution device 21 is realized by a computer having a control unit, a storage unit, various interfaces, and the like. The VCD 22 is realized by a computer having a display unit, a VCS input unit, a control unit, a storage unit, various interfaces, and the like, for example.

画像蓄積分配装置21には、区分機本体3と各VCD22とが接続される。画像蓄積分配装置21は、区分機本体3内のパターン認識部18により住所情報が認識できなかった紙葉類の画像(住所画像)を含むビデオコーディング用の情報(コーディングデータ)を区分機本体3から受信する。画像蓄積分配装置21は、各VCD22の稼働状況などを監視し、各VCD22の稼働状況などに応じて区分機本体3から受信した紙葉類の画像を含むコーディングデータを各VCD22へ配信する。   The image storage / distribution device 21 is connected to the sorter main body 3 and each VCD 22. The image storage / distribution device 21 receives information (coding data) for video coding including an image (address image) of a paper sheet whose address information could not be recognized by the pattern recognition unit 18 in the sorter body 3. Receive from. The image storage / distribution device 21 monitors the operating status of each VCD 22 and distributes the coding data including the sheet image received from the sorter main body 3 to each VCD 22 according to the operating status of each VCD 22.

各VCD22は、画像蓄積分配装置21から配信されたコーディングデータに含まれる紙葉類の画像を表示部27に表示し、オペレータに正しい住所情報(文字情報)の入力を促す。VCD22は、紙葉類の画像を表示部27に表示した状態において、オペレータが入力した住所情報として文字情報を含む入力情報を画像蓄積分配装置21へ返す。画像蓄積分配装置21は、各VCD22から取得した入力情報を区分機本体3へ返す処理を行なう。   Each VCD 22 displays a paper sheet image included in the coding data distributed from the image storage / distribution device 21 on the display unit 27 and prompts the operator to input correct address information (character information). The VCD 22 returns input information including character information as address information input by the operator to the image storage / distribution device 21 in a state where the image of the paper sheet is displayed on the display unit 27. The image storage / distribution device 21 performs a process of returning the input information acquired from each VCD 22 to the sorter body 3.

図1が示す構成例において、VCD22は、CPU23、不揮発性メモリ24、RAM25、ROM26、表示部27及びVCS入力部28などを有する。
CPU23は、VCD22全体の制御を司る制御部として機能する。CPU23は、ROM26あるいは不揮発性メモリ24に記憶されている制御プログラム及び制御データに基づいて種々の処理を行う。たとえば、CPU23は、オペレーティングシステムのプログラムを実行することにより、VCD22の基本的な動作制御を行う。なお、各種の機能のうちの一部は、ハードウェア回路により実現されるものであっても良い。
In the configuration example illustrated in FIG. 1, the VCD 22 includes a CPU 23, a nonvolatile memory 24, a RAM 25, a ROM 26, a display unit 27, a VCS input unit 28, and the like.
The CPU 23 functions as a control unit that controls the entire VCD 22. The CPU 23 performs various processes based on the control program and control data stored in the ROM 26 or the nonvolatile memory 24. For example, the CPU 23 performs basic operation control of the VCD 22 by executing an operating system program. Note that some of the various functions may be realized by a hardware circuit.

不揮発性メモリ24は、例えば、EEPROM、フラッシュROM、HDD(ハードディスクドライブ)、あるいは、SSD(Solid State Disk)などのデータの書き込み及び書換えが可能な不揮発性のメモリにより構成される。不揮発性メモリ24は、VCD22の運用用途に応じて制御プログラム、制御データ、および、種々のデータを格納する。たとえば、不揮発性メモリ24は、画像蓄積分配装置21から供給されるビデオコーディング用の画像(文字画像を含む画像)を含むコーディングデータを保存する。また、不揮発性メモリ24は、オペレータが入力する入力情報などを記憶するようにしても良い。   The nonvolatile memory 24 is configured by a nonvolatile memory capable of writing and rewriting data, such as an EEPROM, a flash ROM, an HDD (hard disk drive), or an SSD (Solid State Disk). The non-volatile memory 24 stores a control program, control data, and various data in accordance with the operation application of the VCD 22. For example, the nonvolatile memory 24 stores coding data including an image for video coding (an image including a character image) supplied from the image storage / distribution device 21. The nonvolatile memory 24 may store input information input by the operator.

RAM25は、揮発性のメモリである。RAM25は、CPU23の処理中のデータなどを一時的に格納する。たとえば、RAM25は、表示用の画像データを格納したり、オペレータが入力する入力情報などを格納したりする。ROM26は、予め制御用のプログラム及び制御データなどが記憶される書換え不可の不揮発性メモリである。   The RAM 25 is a volatile memory. The RAM 25 temporarily stores data being processed by the CPU 23. For example, the RAM 25 stores image data for display, and stores input information input by an operator. The ROM 26 is a non-rewritable nonvolatile memory in which a control program and control data are stored in advance.

表示部27は、液晶ディスプレイなどにより構成する。たとえば、表示部27は、画像蓄積分配装置21から供給されるビデオコーディング用の画像などを表示する。表示部27には、ビデオコーディング用の画像としての紙葉類の画像(住所画像)だけでなく、区分機本体3側で認識できた範囲の情報も表示するようにしても良い。VCS入力部28は、表示部27に表示された画像に含まれる住所情報としての文字情報をオペレータが入力するためのデバイスである。たとえば、VCS入力部28は、キーボードおよびポインティングデバイスなどにより構成される。   The display unit 27 is configured by a liquid crystal display or the like. For example, the display unit 27 displays an image for video coding supplied from the image storage / distribution device 21. The display unit 27 may display not only a paper sheet image (address image) as an image for video coding but also information on a range recognized on the sorting machine body 3 side. The VCS input unit 28 is a device for an operator to input character information as address information included in an image displayed on the display unit 27. For example, the VCS input unit 28 includes a keyboard and a pointing device.

次に、最適化部20aの動作例について説明する。
最適化部20aは、タイミング入力部10aよりタイミングが入力され、画像記録部20bに住所画像と住所画像に対応する正解住所情報が所定の数だけ蓄積された時に実行され、パラメータ記録部20が記録するパラメータを更新する。以下、詳細に説明する。
Next, an operation example of the optimization unit 20a will be described.
The optimization unit 20a is executed when the timing is input from the timing input unit 10a, and when a predetermined number of correct address information corresponding to the address image and the address image is accumulated in the image recording unit 20b, the parameter recording unit 20 records it. Update the parameters. Details will be described below.

図2は、最適化部20aの動作例を説明するためのフローチャートである。
まず、最適化部20aは、画像記録部20bが住所画像及び区分情報を所定の個数蓄積したか判定する(ステップS1)。
FIG. 2 is a flowchart for explaining an operation example of the optimization unit 20a.
First, the optimization unit 20a determines whether the image recording unit 20b has accumulated a predetermined number of address images and classification information (step S1).

画像記録部20bが住所画像を所定の枚数蓄積していないと判定すると(ステップS1、NO)、最適化部20aは、ステップS1へ戻る。   When the image recording unit 20b determines that a predetermined number of address images have not been accumulated (step S1, NO), the optimization unit 20a returns to step S1.

画像記録部20bが住所画像を所定の枚数蓄積したと判定すると(ステップS1、YES)、最適化部20aは、画像記録部20bからバルクの住所画像と住所画像の正解住所情報との組み合わせのデータ(最適化用データ)を所定の枚数取得する(ステップS2)。   When the image recording unit 20b determines that a predetermined number of address images have been accumulated (step S1, YES), the optimization unit 20a receives data from the image recording unit 20b in combination of the bulk address image and the correct address information of the address image. A predetermined number of (optimization data) is acquired (step S2).

最適化用データを取得すると、最適化部20aは、取得された複数の最適化用データに基づいて、パターン認識部18が住所認識を行うのに最適なパラメータを選択する(ステップS3)。即ち、最適化部20aは、複数の最適化用データの住所画像に対して住所認識処理を行った場合に最も正解住所情報を得られるパラメータを選択する。たとえば、最適化部20aは、パラメータを順次変更し、複数の最適化用データの住所画像に対して住所認識処理を行う。最適化部20aは、住所認識処理によって得られた住所情報と当該住所画像の正解住所情報とを照合し、正解住所情報を得られたか判定する。最適化部20aは、最も高い確率で正解住所情報を得られたパラメータを最適なパラメータとして選択する。   When the optimization data is acquired, the optimization unit 20a selects an optimum parameter for the pattern recognition unit 18 to perform address recognition based on the acquired plurality of optimization data (step S3). That is, the optimization unit 20a selects a parameter that provides the most correct address information when address recognition processing is performed on a plurality of address images of optimization data. For example, the optimization unit 20a sequentially changes the parameters and performs address recognition processing on a plurality of address images of optimization data. The optimization unit 20a collates the address information obtained by the address recognition process with the correct address information of the address image, and determines whether the correct address information has been obtained. The optimization unit 20a selects, as the optimum parameter, the parameter that has obtained the correct address information with the highest probability.

最適なパラメータを選択すると、最適化部20aは、選択されたパラメータを設定する(ステップS4)。即ち、最適化部20aは、選択されたパラメータを最適なパラメータとしてパラメータ記録部20へ送信する。パラメータ記録部20は、最適化部20aが送信するパラメータをパターン認識部18が住所認識に使用するパラメータとして記録する。
選択されたパラメータを設定すると、最適化部20aは、パラメータの最適化処理を終了する。
When the optimal parameter is selected, the optimization unit 20a sets the selected parameter (step S4). That is, the optimization unit 20a transmits the selected parameter to the parameter recording unit 20 as an optimum parameter. The parameter recording unit 20 records parameters transmitted by the optimization unit 20a as parameters used by the pattern recognition unit 18 for address recognition.
When the selected parameter is set, the optimization unit 20a ends the parameter optimization process.

なお、パラメータ記録部20は、バルクの種類と過去に当該バルクに最適化されたパラメータとを対応付けて格納してもよい。この場合、オペレーションパネル10は、バルクの種類の入力を受け付けるようにしてもよい。パラメータ記録部20は、入力されたバルクの種類に応じてパターン認識部18へパラメータを供給してもよい。   Note that the parameter recording unit 20 may store the type of bulk and a parameter optimized in the past in association with each other. In this case, the operation panel 10 may accept an input of a bulk type. The parameter recording unit 20 may supply parameters to the pattern recognition unit 18 according to the input bulk type.

以上のように構成された紙葉類処理装置は、オペレータがバルクに応じた適正なパラメータの入力をしなかった場合であっても、バルクに応じてパラメータを最適化することができる。これにより、紙葉類処理装置は、オペレータが再度パラメータを調節することなく、バルクに記載されている住所を適切に認識することができる。   The paper sheet processing apparatus configured as described above can optimize parameters according to the bulk even when the operator does not input an appropriate parameter according to the bulk. Thereby, the paper sheet processing apparatus can appropriately recognize the address described in the bulk without the operator adjusting the parameter again.

(第2実施形態)
次に、第2実施形態について説明する。
図3は、第2実施形態に係る区分装置である。
第2実施形態における区分装置は、パターン認識部(パターン認識装置)18が複数幅抽出部31及び単独幅抽出部32を備える点で第1実施形態と異なる。したがって、その他の点については同一の符号を付して詳細な説明を省略する。
(Second Embodiment)
Next, a second embodiment will be described.
FIG. 3 shows a sorting apparatus according to the second embodiment.
The sorting apparatus according to the second embodiment is different from the first embodiment in that the pattern recognition unit (pattern recognition device) 18 includes a plurality of width extraction units 31 and a single width extraction unit 32. Accordingly, the other points are denoted by the same reference numerals, and detailed description thereof is omitted.

複数幅抽出部31は、住所画像に記載されている文字を形成する線の幅を抽出する。即ち、複数幅抽出部31は、ある幅を持つ線を抽出した画像を形成する。また、複数幅抽出部31は、異なる幅の線を同時に抽出することができる。   The multiple width extraction unit 31 extracts the width of a line that forms a character described in an address image. That is, the multiple width extraction unit 31 forms an image in which lines having a certain width are extracted. The multiple width extraction unit 31 can simultaneously extract lines having different widths.

図4は、複数幅抽出部31の構成例を示すブロック図である。
図4が示すように、複数幅抽出部31は、データ取得部41、未確定バッファ部42、未確定バッファ操作部43、幅位置記憶部44、幅位置登録部45及び出力画像作成部46などを備える。
FIG. 4 is a block diagram illustrating a configuration example of the multiple width extraction unit 31.
As shown in FIG. 4, the multiple width extraction unit 31 includes a data acquisition unit 41, an undetermined buffer unit 42, an undetermined buffer operation unit 43, a width position storage unit 44, a width position registration unit 45, an output image creation unit 46, and the like. Is provided.

データ取得部41は、住所画像から1行分(即ち、横方向に1行分)のデータ値又は1列分(即ち、縦方向に1列分)のデータ値(画像信号値)を取得する。データ値(画像信号値)は、線がある部分において高い値を示し、線がない部分において低い値を示す信号値である。たとえば、データ値(画像信号値)は、ドットのノードを示す値又はドットの輝度を示す値であってもよい。なお、ある信号値が線がある部分において低い値を示し線がない部分において高い値を示す場合、画像信号値は、所定の値から当該信号値を減算した値であってもよい。ここでは、データ値(画像信号値)は、当該ポイントの輝度を示すものとする。即ち、データ値v(i)は、i番目のドットの輝度を示す値である。   The data acquisition unit 41 acquires data values for one row (that is, one row in the horizontal direction) or data values (image signal values) for one column (that is, one column in the vertical direction) from the address image. . The data value (image signal value) is a signal value indicating a high value in a portion where there is a line and a low value in a portion where there is no line. For example, the data value (image signal value) may be a value indicating the dot node or a value indicating the luminance of the dot. Note that when a certain signal value indicates a low value in a portion with a line and indicates a high value in a portion without a line, the image signal value may be a value obtained by subtracting the signal value from a predetermined value. Here, the data value (image signal value) represents the luminance of the point. That is, the data value v (i) is a value indicating the luminance of the i-th dot.

図5は、データ取得部41が取得するデータの位置の例を示す図である。
例えば、データ取得部41が第a行のデータを取得する場合、データ取得部41は、第a行目の輝度データを1行分取得する。データ値v(i)は、画像の左からi番目の輝度を示す値である。即ち、データ値v(i)は、上からa行目であって左からi番目であるドット(座標(i、a))の輝度を示す値である。
FIG. 5 is a diagram illustrating an example of the position of data acquired by the data acquisition unit 41.
For example, when the data acquisition unit 41 acquires the data of the a-th row, the data acquisition unit 41 acquires the luminance data of the a-th row for one row. The data value v (i) is a value indicating the i-th luminance from the left of the image. That is, the data value v (i) is a value indicating the luminance of the dot (coordinates (i, a)) in the a-th row from the top and the i-th from the left.

また、データ取得部41が第b列目のデータを取得する場合、データ取得部41は、第b列目の輝度データを1列分取得する。データv(i)は、画像の上からi番目の輝度を示す値である。即ち、データ値v(i)は、左からb列目であって上からi番目であるドット(座標(b、i))の輝度を示す値である。   Further, when the data acquisition unit 41 acquires the data in the b-th column, the data acquisition unit 41 acquires the luminance data for the b-th column for one column. Data v (i) is a value indicating the i-th luminance from the top of the image. That is, the data value v (i) is a value indicating the luminance of the dot (coordinate (b, i)) in the b-th column from the left and the i-th from the top.

未確定バッファ部42は、線の幅を抽出している間に、位置データを一時的に記録する。即ち、未確定バッファ部42は、所定の条件を満たす位置データを記録する。未確定バッファ部42は、複数幅抽出部31が注目している位置との間にそのデータ値より小さいデータ値(即ち、輝度値)を持つ位置「i」が存在しない位置を示す位置データを格納する。即ち、未確定バッファ部42は、データ値(輝度値)が上昇し始める上昇開始位置(線開始位置)を格納する。   The undetermined buffer unit 42 temporarily records the position data while extracting the line width. That is, the unconfirmed buffer unit 42 records position data that satisfies a predetermined condition. The unconfirmed buffer unit 42 stores position data indicating a position where there is no position “i” having a data value (that is, a luminance value) smaller than the data value between the position to which the multiple width extraction unit 31 is focused. Store. That is, the undetermined buffer unit 42 stores the rising start position (line start position) where the data value (luminance value) starts to rise.

図6は、データ取得部41が取得した輝度データの例である。
横軸は位置を示し、縦軸は位置のデータ値(即ち、輝度値)を示す。
図6の例において、未確定バッファ部42が格納する位置データについて説明する。
ここでは、複数幅抽出部31は、位置「10」に注目しているものとする。
FIG. 6 is an example of luminance data acquired by the data acquisition unit 41.
The horizontal axis indicates the position, and the vertical axis indicates the data value (that is, the luminance value) of the position.
In the example of FIG. 6, the position data stored in the unconfirmed buffer unit 42 will be described.
Here, it is assumed that the multiple width extraction unit 31 focuses on the position “10”.

まず、位置「1」が未確定バッファ部42に記録されるか検討する。
位置「1」のデータ値は、位置「2」のデータ値よりも大きい。したがって、位置「1」と位置「10」との間に、位置「1」のデータ値よりも小さいデータ値を持つ位置「2」が存在する。よって、位置「1」は、未確定バッファ部42に格納されない。
First, it is examined whether the position “1” is recorded in the undetermined buffer unit 42.
The data value at position “1” is greater than the data value at position “2”. Therefore, a position “2” having a data value smaller than the data value of the position “1” exists between the position “1” and the position “10”. Therefore, the position “1” is not stored in the undetermined buffer unit 42.

同様に、位置「2」が未確定バッファ部42に格納されるか検討する。
位置「2」のデータ値は、位置「3」から位置「9」までのデータ値のいずれのデータ値よりも小さい。したがって、位置「2」と位置「10」との間に、位置「2」のデータ値よりも小さいデータ値を持つ位置は存在しない。よって、位置「2」は、未確定バッファ部42に格納される。
Similarly, it is examined whether the position “2” is stored in the undetermined buffer unit 42.
The data value at the position “2” is smaller than any of the data values from the position “3” to the position “9”. Therefore, there is no position between the position “2” and the position “10” having a data value smaller than the data value of the position “2”. Therefore, the position “2” is stored in the undetermined buffer unit 42.

同様に、位置「3」が未確定バッファ部42に格納されるか検討する。
位置「3」のデータ値は、位置「4」のデータ値よりも大きい。したがって、位置「3」と位置「10」との間に、位置「3」のデータ値よりも小さいデータ値を持つ位置「4」が存在する。よって、位置「3」は、未確定バッファ部42に格納されない。
Similarly, it is examined whether the position “3” is stored in the undetermined buffer unit 42.
The data value at position “3” is greater than the data value at position “4”. Therefore, a position “4” having a data value smaller than the data value of the position “3” exists between the position “3” and the position “10”. Therefore, the position “3” is not stored in the undetermined buffer unit 42.

同様に、位置「4」が未確定バッファ部42に格納されるか検討する。
位置「4」のデータ値は、位置「5」から位置「9」までのデータ値のいずれのデータ値よりも小さい。したがって、位置「4」と位置「10」との間に、位置「4」のデータ値よりも小さいデータ値を持つ位置は存在しない。よって、位置「4」は、未確定バッファ部42に格納される。
Similarly, it is examined whether the position “4” is stored in the undetermined buffer unit 42.
The data value at position “4” is smaller than any of the data values from position “5” to position “9”. Therefore, there is no position between the position “4” and the position “10” having a data value smaller than the data value of the position “4”. Therefore, the position “4” is stored in the undetermined buffer unit 42.

同様に、位置「5」及び位置「6」が未確定バッファ部42に格納されるか検討する。
位置「5」及び位置「6」の各データ値は、それぞれから位置「9」までのデータ値のいずれのデータ値よりも小さい。したがって、位置「5」及び位置「6」は、未確定バッファ部42に格納される。
Similarly, it is examined whether the position “5” and the position “6” are stored in the undetermined buffer unit 42.
Each data value at the position “5” and the position “6” is smaller than any of the data values from the position “9” to the position “9”. Therefore, the position “5” and the position “6” are stored in the indeterminate buffer unit 42.

同様に、位置「7」が未確定バッファ部42に格納されるか検討する。
位置「7」のデータ値は、位置「8」のデータ値より大きい。したがって、位置「7」と位置「10」との間に、位置「7」のデータ値よりも小さいデータ値を持つ位置「8」が存在する。よって、位置「7」は、未確定バッファ部42に格納されない。
Similarly, it is examined whether the position “7” is stored in the undetermined buffer unit 42.
The data value at position “7” is greater than the data value at position “8”. Therefore, a position “8” having a data value smaller than the data value of the position “7” exists between the position “7” and the position “10”. Therefore, the position “7” is not stored in the undetermined buffer unit 42.

同様に、検討すると、位置「8」は、未確定バッファ部42に格納される。また、位置「9」は、未確定バッファ部42に格納される。   Similarly, when considered, the position “8” is stored in the indeterminate buffer unit 42. Further, the position “9” is stored in the indeterminate buffer unit 42.

以上のように、複数幅抽出部31が位置「10」に注目している時点では、未確定バッファ部42は、位置「2」、位置「4」、位置「5」、位置「6」、位置「8」及び位置「9」を格納する。
未確定バッファ部42は、以下の条件を満たす位置「j」を格納する。
j<k<iを満たすすべてのkについてv(j)<v(k) ・・・(1)
ここで、iは、複数幅抽出部31が注目している位置を示す。即ち、複数幅抽出部31が位置「i」に注目している場合に、未確定バッファ部42が格納している位置「j」は、式(1)を満たす。
As described above, at the time when the multiple width extraction unit 31 is paying attention to the position “10”, the unconfirmed buffer unit 42 has the position “2”, the position “4”, the position “5”, the position “6”, The position “8” and the position “9” are stored.
The unconfirmed buffer unit 42 stores a position “j” that satisfies the following condition.
For all k satisfying j <k <i, v (j) <v (k) (1)
Here, i indicates a position that the multiple width extraction unit 31 is paying attention to. That is, when the multi-width extracting unit 31 focuses on the position “i”, the position “j” stored in the unconfirmed buffer unit 42 satisfies Expression (1).

未確定バッファ操作部43は、未確定バッファ部42に記録されている位置データを削除したり、位置データを追加したりする機能を有する。未確定バッファ操作部43は、式(1)を満たす位置「j」を未確定バッファ部42に格納する。   The unconfirmed buffer operation unit 43 has a function of deleting position data recorded in the unconfirmed buffer unit 42 and adding position data. The unconfirmed buffer operation unit 43 stores the position “j” satisfying the expression (1) in the unconfirmed buffer unit 42.

幅位置記憶部44は、線情報として、複数幅抽出部31が抽出した線の始点座標、幅及びデータ値を互いに対応付けて格納する。たとえば、図6において、幅位置登録部45が位置「5」から位置「10」の間に文字の線がある(即ち、線は、位置「6」から位置「9」までにある)と判定すると、幅位置記憶部44は、始点座標として「5」、幅として「4」及びデータ値としてv(10)を格納する。格納されるデータ値は、線を挟む両側のデータ値(ここでは、v(5)及びv(10))のうちで大きい方の値である。即ち、格納されるデータ値は、線がある位置のいずれのデータ値よりも小さい。上記の例においては、v(5)<v(10)であるので、幅位置記憶部44は、v(10)をデータ値として格納する。また、格納されるデータ値であるv(10)は、線がある位置のデータ値であるv(6)、v(7)、v(8)及びv(9)よりも小さい。   The width position storage unit 44 stores, as line information, the line start point coordinates, widths, and data values extracted by the multiple width extraction unit 31 in association with each other. For example, in FIG. 6, the width position registration unit 45 determines that there is a character line between the position “5” and the position “10” (that is, the line is from the position “6” to the position “9”). Then, the width position storage unit 44 stores “5” as the start point coordinates, “4” as the width, and v (10) as the data value. The stored data value is the larger value of the data values on both sides of the line (here, v (5) and v (10)). That is, the stored data value is smaller than any data value at the position where the line is. In the above example, since v (5) <v (10), the width position storage unit 44 stores v (10) as a data value. The stored data value v (10) is smaller than the data values v (6), v (7), v (8), and v (9) at the position where the line is located.

幅位置登録部45は、幅位置記憶部44に線情報を追記する。即ち、幅位置登録部45は、確定された線の始点座標、幅及びデータ値を互いに対応付けて幅位置記憶部44に追加的に格納する。線を抽出する方法については後述する。
出力画像作成部46は、幅位置登録部45が格納する線の情報に基づいて、特定の幅の線を抽出した画像を生成する。生成方法については後述する。
The width position registration unit 45 adds line information to the width position storage unit 44. That is, the width position registration unit 45 additionally stores the determined start point coordinates, width, and data value of the line in the width position storage unit 44 in association with each other. A method for extracting lines will be described later.
Based on the line information stored in the width position registration unit 45, the output image creation unit 46 generates an image obtained by extracting a line having a specific width. The generation method will be described later.

次に、複数幅抽出部31が線を抽出する手順について説明する。
ここでは、線は、黒地に白で書かれているものとする。また、線は、データ値(輝度値)が山形になっている部分をいう。即ち。線は、データ値が上昇し下降する区間にあるものとする。以下の説明において、図6が示すデータ値の例をもとに説明する。ここでは、複数幅抽出部31は、位置「10」に注目しているものとし、未確定バッファ部42は、上記の例の位置データを格納しているものとする。また、複数幅抽出部31は、第a行目について幅抽出を行うものとする。
Next, the procedure by which the multiple width extraction unit 31 extracts lines will be described.
Here, it is assumed that the line is written in white on a black background. Moreover, a line says the part from which the data value (luminance value) is a mountain shape. That is. It is assumed that the line is in a section where the data value rises and falls. In the following description, description will be made based on an example of data values shown in FIG. Here, it is assumed that the multiple width extraction unit 31 focuses on the position “10”, and the unconfirmed buffer unit 42 stores the position data of the above example. The multiple width extraction unit 31 performs width extraction for the a-th row.

まず、未確定バッファ操作部43は、注目される位置「i」(注目位置)のデータ値v(i)と未確定バッファ部42が格納する末尾の位置データ(即ち、最も大きい値である位置データ)(位置「n」)のデータ値(v(n))とを比較する。上記の例において、未確定バッファ操作部43は、v(10)(注目される位置「10」のデータ値)とv(9)(未確定バッファ部42が格納する末尾の位置データのデータ値)と比較する。   First, the unconfirmed buffer operation unit 43 receives the data value v (i) of the position “i” (attention position) of interest and the last position data stored in the unconfirmed buffer unit 42 (that is, the position having the largest value). Data) (position (n)) and the data value (v (n)) are compared. In the above example, the undetermined buffer operation unit 43 uses v (10) (data value of the position “10” to be noticed) and v (9) (data value of the last position data stored in the undetermined buffer unit 42). ).

v(i)<v(n)である場合(即ち、注目される位置のデータ値が末尾の位置データのデータ値よりも小さい場合)、未確定バッファ操作部43は、未確定バッファ部42から末尾の位置データ(n)を削除する。上記の例において、v(10)<v(9)であるので、未確定バッファ操作部43は、未確定バッファ部42から末尾の位置データである位置「9」を削除する。   When v (i) <v (n) is satisfied (that is, when the data value of the position of interest is smaller than the data value of the last position data), the unconfirmed buffer operation unit 43 receives from the unconfirmed buffer unit 42. The last position data (n) is deleted. In the above example, since v (10) <v (9), the undetermined buffer operation unit 43 deletes the position “9” that is the last position data from the undetermined buffer unit 42.

末尾の位置データを削除すると、未確定バッファ操作部43は、再度、注目される位置「i」のデータ値v(i)と未確定バッファ部42が格納する末尾の位置データ(位置「n」)のデータ値(v(n))とを比較する。上記の例において、未確定バッファ操作部43は、v(10)とv(8)とを比較する。   When the end position data is deleted, the indeterminate buffer operation unit 43 again determines the data value v (i) of the position “i” to be noticed and the end position data (position “n”) stored in the indeterminate buffer unit 42. ) Is compared with the data value (v (n)). In the above example, the unconfirmed buffer operation unit 43 compares v (10) and v (8).

上記のとおり、v(i)<v(n)である場合(即ち、注目される位置のデータ値が末尾の位置データ(位置「n」)のデータ値よりも小さい場合)、未確定バッファ操作部43は、未確定バッファ部42から末尾の位置データ(n)を削除する。上記の例において、v(10)<v(8)であるので、未確定バッファ操作部43は、未確定バッファ部42から末尾の位置データである位置「8」を削除する。   As described above, when v (i) <v (n) (that is, when the data value of the position of interest is smaller than the data value of the last position data (position “n”)), the indeterminate buffer operation The unit 43 deletes the last position data (n) from the undetermined buffer unit 42. In the above example, since v (10) <v (8), the undetermined buffer operation unit 43 deletes the position “8” that is the last position data from the undetermined buffer unit 42.

未確定バッファ操作部43が末尾の位置データを削除すると、幅位置登録部45は、削除した位置「n」と注目される位置「i」との間に1つ以上のドットが存在するか判定する。即ち、幅位置登録部45は、n<i−1であるか判定する。   When the undetermined buffer operation unit 43 deletes the last position data, the width position registration unit 45 determines whether one or more dots exist between the deleted position “n” and the noticed position “i”. To do. That is, the width position registration unit 45 determines whether n <i−1.

削除された位置「n」と注目される位置「i」との間に1つ以上のドットが存在する場合、幅位置登録部45は、両者の間に存在するデータ値がv(n)及びv(i)よりも大きな値であることを認識する。なぜなら、未確定バッファ部42が格納する位置データは、条件(1)を満たし、注目される位置「i」との間により小さいデータ値を持つ位置kが存在しないからである。したがって、幅位置登録部45は、注目される位置「i」と削除された位置「n」との間にデータ値のピークが存在する(即ち、データ値が山形である)ことを認識することができる。即ち、幅位置登録部45は、位置「n」がデータ値(輝度値)の下降が終了した下降終了位置であると判定する。よって、幅位置登録部45は、注目される位置「i」と削除された位置「n」との間に線が存在すると判定する。   When one or more dots exist between the deleted position “n” and the noticed position “i”, the width position registration unit 45 determines that the data value existing between them is v (n) and It is recognized that the value is larger than v (i). This is because the position data stored in the undetermined buffer unit 42 satisfies the condition (1), and there is no position k having a smaller data value between the position “i” to be noticed. Therefore, the width position registration unit 45 recognizes that the peak of the data value exists between the noticed position “i” and the deleted position “n” (that is, the data value is a mountain shape). Can do. That is, the width position registration unit 45 determines that the position “n” is the descent end position where the descent of the data value (luminance value) has ended. Therefore, the width position registration unit 45 determines that there is a line between the noticed position “i” and the deleted position “n”.

上記の例において、注目される位置「10」と削除された位置「8」との間には、位置「9」が存在するので、幅位置登録部45は、v(9)がv(8)及びv(10)のいずれよりも大きい値であることを認識する。したがって、幅位置登録部45は、位置「8」と位置「10」との間に線が存在すると判定する。   In the above example, since the position “9” exists between the noted position “10” and the deleted position “8”, the width position registration unit 45 sets v (9) to v (8 ) And v (10). Therefore, the width position registration unit 45 determines that a line exists between the position “8” and the position “10”.

線が存在すると判定すると、幅位置登録部45は、線情報として、線の始点座標、幅及びデータ値を幅位置記憶部44に格納する。即ち、幅位置登録部45は、削除された位置「n」を始点座標とし、「i−n−1」を幅とし、v(n)をデータ値として、互いに対応付けて幅位置記憶部44に格納する。ここでは、v(n)>v(i)であるので、線情報のデータ値としてv(n)が格納される。上記の例において、幅位置登録部45は、位置「8」を始点座標とし、「1」(10−8−1)を幅とし、v(8)をデータ値として、互いに対応付けて幅位置記憶部44に格納する。   If it is determined that a line exists, the width position registration unit 45 stores the start point coordinates, the width, and the data value of the line in the width position storage unit 44 as line information. In other words, the width position registration unit 45 associates the deleted position “n” with the start point coordinates, “i−n−1” with the width, and v (n) with the data value in association with each other. To store. Here, since v (n)> v (i), v (n) is stored as the data value of the line information. In the above example, the width position registration unit 45 associates the position “8” with the start point coordinates, “1” (10-8-1) with the width, and v (8) with the data value in association with each other. Store in the storage unit 44.

幅位置登録部45が幅位置記憶部44に線情報を格納すると、未確定バッファ操作部43は、再度、注目される位置「i」のデータ値v(i)と未確定バッファ部42が格納する末尾の位置データ(即ち、最も大きい値である位置データ)のデータ値(v(n))とを比較する。上記の例において、未確定バッファ操作部43は、v(10)とv(6)と比較する。
v(10)<v(6)であるので、前述のとおり、未確定バッファ操作部43は、未確定バッファ部42から末尾の位置データである位置「6」を削除する。
When the width position registration unit 45 stores the line information in the width position storage unit 44, the unconfirmed buffer operation unit 43 stores the data value v (i) of the position “i” to be noted and the unconfirmed buffer unit 42 again. The data value (v (n)) of the last position data (that is, the position data having the largest value) is compared. In the above example, the unconfirmed buffer operation unit 43 compares v (10) and v (6).
Since v (10) <v (6), as described above, the unconfirmed buffer operation unit 43 deletes the position “6” that is the last position data from the unconfirmed buffer unit 42.

注目される位置「10」と削除された位置「6」との間には、位置「7」、位置「8」及び位置「9」が存在するので、前述のとおり、幅位置登録部45は、v(7)、v(8)及びv(9)がv(6)及びv(10)のいずれよりも大きい値であることを認識する。したがって、幅位置登録部45は、位置「6」と位置「10」との間に線が存在すると判定する。   Since the position “7”, the position “8”, and the position “9” exist between the noticed position “10” and the deleted position “6”, as described above, the width position registration unit 45 , V (7), v (8) and v (9) are recognized to be larger than v (6) and v (10). Therefore, the width position registration unit 45 determines that a line exists between the position “6” and the position “10”.

位置「6」と位置「10」との間に線が存在すると判定すると、幅位置登録部45は、位置「6」を始点座標とし、「3」(10−6−1)を幅とし、v(6)をデータ値として、互いに対応付けて幅位置記憶部44に格納する。   If it is determined that there is a line between the position “6” and the position “10”, the width position registration unit 45 uses the position “6” as the start point coordinate, “3” (10-6-1) as the width, v (6) is stored in the width position storage unit 44 as a data value in association with each other.

幅位置登録部45が線情報を幅位置記憶部44に格納すると、未確定バッファ操作部43は、再度、注目される位置「i」のデータ値v(i)と未確定バッファ部42が格納する末尾の位置データのデータ値(v(n))とを比較する。上記の例において、未確定バッファ操作部43は、v(10)とv(5)と比較する。   When the width position registration unit 45 stores the line information in the width position storage unit 44, the unconfirmed buffer operation unit 43 stores the data value v (i) of the position “i” to be noted and the unconfirmed buffer unit 42 again. The data value (v (n)) of the last position data is compared. In the above example, the indeterminate buffer operation unit 43 compares v (10) and v (5).

v(i)>v(n)である場合(即ち、注目される位置「i」のデータ値が末尾の位置データ(位置「n」)のデータ値よりも大きい場合)、幅位置登録部45は、注目される位置「i」と末尾の位置データ(位置「n」)との間に存在するデータ値がv(n)及びv(i)よりも大きな値であることを認識する。なぜなら、前述のように、未確定バッファ部42が格納する位置データは、条件(1)を満たし、注目される位置「i」との間により小さいデータ値を持つ位置kが存在しないからである。したがって、幅位置登録部45は、注目される位置「i」と末尾の位置データ(位置「n」)との間にデータ値のピークが存在する(即ち、データ値が山形である)ことを認識することができる。即ち、幅位置登録部45は、位置「n」がデータ値(輝度値)の下降が終了した下降終了位置であると判定する。よって、幅位置登録部45は、注目される位置「i」と末尾の位置データ(位置「n」)との間に線が存在すると判定する。   When v (i)> v (n) is satisfied (that is, when the data value of the noticed position “i” is larger than the data value of the last position data (position “n”)), the width position registration unit 45 Recognizes that the data value existing between the noticed position “i” and the last position data (position “n”) is larger than v (n) and v (i). This is because, as described above, the position data stored in the undetermined buffer unit 42 satisfies the condition (1), and there is no position k having a smaller data value with the focused position “i”. . Therefore, the width position registration unit 45 determines that a peak of the data value exists between the noticed position “i” and the end position data (position “n”) (that is, the data value has a mountain shape). Can be recognized. That is, the width position registration unit 45 determines that the position “n” is the descent end position where the descent of the data value (luminance value) has ended. Therefore, the width position registration unit 45 determines that a line exists between the noted position “i” and the end position data (position “n”).

上記の例において、注目される位置「10」と末尾の位置「5」との間には、位置「6」、位置「7」、位置「8」及び位置「9」が存在するので、幅位置登録部45は、v(6)、v(7)、v(8)及びv(9)がv(5)及びv(10)のいずれよりも大きい値であることを認識する。したがって、複数幅抽出部31は、位置「5」と位置「10」との間に線が存在すると判定する。   In the above example, the position “6”, the position “7”, the position “8”, and the position “9” exist between the noted position “10” and the last position “5”. The position registration unit 45 recognizes that v (6), v (7), v (8), and v (9) are larger than v (5) and v (10). Therefore, the multiple width extraction unit 31 determines that a line exists between the position “5” and the position “10”.

線が存在すると判定すると、幅位置登録部45は、線情報として、線の始点座標、幅及びデータ値を幅位置記憶部44に格納する。即ち、幅位置登録部45は、末尾の位置データ(位置「n」)を始点座標とし、「i−h−1」を幅とし、v(i)をデータ値として、互いに対応付けて幅位置記憶部44に格納する。ここでは、v(i)>v(n)であるので、線情報のデータ値としてv(i)が格納される。上記の例において、幅位置登録部45は、位置「5」を始点座標とし、「4」(10−5−1)を幅とし、v(10)をデータ値として、互いに対応付けて幅位置記憶部44に格納する。   If it is determined that a line exists, the width position registration unit 45 stores the start point coordinates, the width, and the data value of the line in the width position storage unit 44 as line information. That is, the width position registration unit 45 uses the position data (position “n”) at the end as the start point coordinates, “i−h−1” as the width, and v (i) as the data value, and associates them with each other as the width position. Store in the storage unit 44. Here, since v (i)> v (n), v (i) is stored as the data value of the line information. In the above example, the width position registration unit 45 associates the position “5” with the start point coordinates, “4” (10-5-1) with the width, and v (10) with the data value in association with each other. Store in the storage unit 44.

幅位置登録部45が線情報を幅位置記憶部44に格納すると、未確定バッファ操作部43は、位置「i」を未確定バッファ部42へ格納する。上記の例において、未確定バッファ操作部43は、位置「10」を未確定バッファ部42へ格納する。   When the width position registration unit 45 stores the line information in the width position storage unit 44, the unconfirmed buffer operation unit 43 stores the position “i” in the unconfirmed buffer unit 42. In the above example, the unconfirmed buffer operation unit 43 stores the position “10” in the unconfirmed buffer unit 42.

未確定バッファ操作部43が位置「i」を未確定バッファ部42へ格納すると、複数幅抽出部31は、位置「i」に注目した幅抽出を終了する。位置「i」に注目した幅抽出を終了すると、複数幅抽出部31は、位置「i+1」に注目した幅抽出を行う。上記の例において、位置「10」に注目した幅抽出を終了すると、複数幅抽出部31は、位置「11」に注目した幅抽出を行う。複数幅抽出部31は、すべての位置において幅抽出を行う。   When the undetermined buffer operation unit 43 stores the position “i” in the undetermined buffer unit 42, the multiple width extracting unit 31 ends the width extraction focusing on the position “i”. When the width extraction focused on the position “i” is finished, the multiple width extraction unit 31 performs the width extraction focused on the position “i + 1”. In the above example, when the width extraction focused on the position “10” is finished, the multiple width extraction unit 31 performs the width extraction focused on the position “11”. The multiple width extraction unit 31 performs width extraction at all positions.

図7は、幅位置記憶部44が格納する線情報テーブルの例を示す図である。
図7が示すように、幅位置記憶部44は、線情報を複数個格納する。前述のとおり、線情報は、始点座標、幅及びデータ値を対応付けた情報である。幅位置記憶部44は、複数幅抽出部31が線を特定し線情報を生成するたびに、新たに生成された線情報を追加的に記録する。図7が示す例において、たとえば、幅位置記憶部44は、始点座標として「5」、幅として「7」、及びデータ値として「39」を格納する。したがって、幅位置記憶部44は、位置「6」から位置「12」までに少なくともデータ値が39以上の線が存在することを示す。
FIG. 7 is a diagram illustrating an example of a line information table stored in the width position storage unit 44.
As shown in FIG. 7, the width position storage unit 44 stores a plurality of line information. As described above, the line information is information in which the start point coordinates, the width, and the data value are associated with each other. The width position storage unit 44 additionally records newly generated line information each time the multiple width extraction unit 31 specifies a line and generates line information. In the example illustrated in FIG. 7, for example, the width position storage unit 44 stores “5” as the start point coordinates, “7” as the width, and “39” as the data value. Therefore, the width position storage unit 44 indicates that there is at least a line having a data value of 39 or more from the position “6” to the position “12”.

線情報テーブルは、行及び列ごとに生成される。   The line information table is generated for each row and column.

すべての位置において幅抽出を行うと、複数幅抽出部31は、第a+1行目について幅抽出を行う。複数幅抽出部31は、同様にすべての行について幅抽出を行う。すべての行について幅抽出を行うと、複数幅抽出部31は、すべての列について同様の幅抽出を行う。   When width extraction is performed at all positions, the multiple width extraction unit 31 performs width extraction for the (a + 1) th row. Similarly, the multiple width extraction unit 31 performs width extraction for all rows. When width extraction is performed for all rows, the multiple width extraction unit 31 performs similar width extraction for all columns.

幅抽出を終了すると、複数幅抽出部31は、特定の幅の線を抽出した画像(出力画像)を生成する。即ち、複数幅抽出部31は、線の幅を示すパラメータcを用いて、幅がcである線を抽出した画像を生成する。また、複数幅抽出部31は、パラメータcを1から最大幅まで変化させ、各パラメータcに応じた画像を生成する。即ち。複数幅抽出部31は、すべての線の幅について、それぞれの幅の線を抽出した画像を生成する。なお、最大幅は、予め決められてもよいし、複数幅抽出部31が確定した線の最大幅としてもよい。   When the width extraction is completed, the multiple width extraction unit 31 generates an image (output image) obtained by extracting a line having a specific width. That is, the multiple width extraction unit 31 uses the parameter c indicating the line width to generate an image in which a line having a width c is extracted. In addition, the multiple width extraction unit 31 changes the parameter c from 1 to the maximum width, and generates an image corresponding to each parameter c. That is. The multiple width extraction unit 31 generates an image in which the lines of the respective widths are extracted for all the line widths. Note that the maximum width may be determined in advance, or may be the maximum width of a line determined by the multiple width extraction unit 31.

以下、出力画像を生成する手順について説明する。
ここでは、幅がcである線を抽出した出力画像を生成する手順について説明する。
Hereinafter, a procedure for generating an output image will be described.
Here, a procedure for generating an output image obtained by extracting a line having a width c will be described.

複数幅抽出部31の出力画像作成部46は、第a行目の線情報テーブルから幅がcである線情報を取得する。たとえば、cが「7」である場合、図7が示す例において、出力画像作成部46は、開始座標「5」、幅「7」およびデータ値「39」を取得する。幅位置記憶部44が他にも幅が「7」である線情報を保有する場合、出力画像作成部46は、当該線情報も取得する。   The output image creation unit 46 of the multiple width extraction unit 31 acquires line information having a width c from the line information table in the a-th row. For example, when c is “7”, in the example illustrated in FIG. 7, the output image creation unit 46 acquires the start coordinates “5”, the width “7”, and the data value “39”. When the width position storage unit 44 holds other line information having a width of “7”, the output image creation unit 46 also acquires the line information.

幅がcである線情報を取得すると、出力画像作成部46は、取得された線情報に基づいて、幅がcである線がある部分のデータ値を線の両端のデータ値(即ち、線の両端のうちデータ値が高い一端のデータ値)にそろえたデータ値列を生成する。即ち、開始座標をs、データ値をuとすると、出力画像作成部46は、第a行目のデータ値列から、位置s+1から位置s+cまでのデータ値をuに書き換えたデータ値列(中間画像データ値列)を生成する。上記の例において、出力画像作成部46は、第a行目のデータ値列から、位置「6」から位置「12」までのデータ値を39に書き換えた中間画像データ値列を生成する。幅位置記憶部44が他にも幅が「7」である線情報を保有する場合、出力画像作成部46は、生成された中間画像データ値列からさらに当該線情報が示す線の位置についてもデータ値を書き換え、書き換えたデータ値列を中間画像データ値列とする。   When the line information having the width c is acquired, the output image creating unit 46 converts the data value of the portion where the line having the width c is present to the data values at both ends of the line (that is, the line information) based on the acquired line information. A data value sequence aligned with the data value of one end having a higher data value) is generated. That is, assuming that the start coordinate is s and the data value is u, the output image creation unit 46 rewrites the data value from the position s + 1 to the position s + c to u from the data value string in the a-th row (intermediate value). Image data value sequence). In the above example, the output image creation unit 46 generates an intermediate image data value sequence in which the data values from the position “6” to the position “12” are rewritten to 39 from the data value sequence in the a-th row. When the width position storage unit 44 holds other line information having a width of “7”, the output image creation unit 46 also selects the line position indicated by the line information from the generated intermediate image data value sequence. The data value is rewritten, and the rewritten data value sequence is set as an intermediate image data value sequence.

出力画像作成部46は、同様の処理をすべての行について行う。したがって、出力画像作成部46は、すべての行に対応する中間画像データ値列を生成する。すべての行に対応する中間画像データ値列を生成すると、出力画像作成部46は、すべての中間画像データ値列を統合した画像(中間画像)を生成する。即ち、出力画像作成部46は、第a行目の中間画像データ値列を第a行目の中間画像のドット列とすることで、中間画像を生成する。中間画像は、元の画像(住所画像)を、幅がcである線のデータ値を線の両端の高さ(即ち、線の両端のうちデータ値が高い一端の高さ)にそろえた画像である。   The output image creation unit 46 performs the same processing for all rows. Therefore, the output image creation unit 46 generates an intermediate image data value sequence corresponding to all rows. When the intermediate image data value sequence corresponding to all the rows is generated, the output image creation unit 46 generates an image (intermediate image) obtained by integrating all the intermediate image data value sequences. In other words, the output image creation unit 46 generates an intermediate image by setting the intermediate image data value sequence of the a-th row as the dot sequence of the intermediate image of the a-th row. The intermediate image is an image obtained by aligning the original image (address image) with the data value of a line having a width c equal to the height of both ends of the line (that is, the height of one end of the line having the higher data value). It is.

中間画像を生成すると、出力画像作成部46は、生成された中間画像を元の画像(住所画像)から減算し、出力画像を生成する。即ち、出力画像作成部46は、元の画像の各ドットのデータ値から、生成された中間画像の対応するドットのデータ値を減算し、減算された値を対応するドットのデータ値とする出力画像を生成する。中間画像が幅がcである線のデータ値を線の両端の高さにそろえた画像であるので、出力画像は、幅がcである線の位置にデータ値が存在する(データ値が0でない)画像である。即ち、出力画像は、幅がcである線が輝度値を持つ画像である。
しがたって、出力画像は、幅がcである線を抽出した画像であるといえる。
When the intermediate image is generated, the output image creation unit 46 subtracts the generated intermediate image from the original image (address image) to generate an output image. That is, the output image creation unit 46 subtracts the data value of the corresponding dot of the generated intermediate image from the data value of each dot of the original image, and outputs the subtracted value as the data value of the corresponding dot. Generate an image. Since the intermediate image is an image in which the data values of the line having the width c are aligned with the heights of both ends of the line, the output image has a data value at the position of the line having the width c (the data value is 0). Not) image. That is, the output image is an image in which a line having a width c has a luminance value.
Therefore, it can be said that the output image is an image obtained by extracting a line having a width c.

出力画像作成部46は、すべてのc(即ち、1から最大幅まで)について出力画像を生成する。
以上の処理によって、出力画像作成部46は、幅が1から最大幅までの線を抽出した画像を生成することができる。
なお、出力画像作成部46は、列に注目して同様の処理を行ってもよい。この場合、出力画像作成部46は、列から生成された中間画像データ値列に基づいて中間画像を生成する。
The output image creation unit 46 generates output images for all c (that is, from 1 to the maximum width).
Through the above processing, the output image creation unit 46 can generate an image in which lines having a width from 1 to the maximum width are extracted.
Note that the output image creation unit 46 may perform the same processing while paying attention to the columns. In this case, the output image creation unit 46 generates an intermediate image based on the intermediate image data value sequence generated from the sequence.

次に、複数幅抽出部31の動作例について説明する。
図8は、複数幅抽出部31の動作例を説明するためのフローチャートである。
まず、複数幅抽出部31は、変数aに0を代入する(ステップS11)。変数aは、複数幅抽出部31が線の幅を抽出する行を示す。即ち、複数幅抽出部31は、第a行目について線の幅を抽出する。
Next, an operation example of the multiple width extraction unit 31 will be described.
FIG. 8 is a flowchart for explaining an operation example of the multiple width extraction unit 31.
First, the multiple width extraction unit 31 substitutes 0 for the variable a (step S11). The variable a indicates a line from which the multiple width extraction unit 31 extracts the line width. That is, the multiple width extraction unit 31 extracts the line width for the a-th row.

変数aに0を代入すると、複数幅抽出部31は、住所画像の第a行目のデータ値列を取得する(ステップS12)。即ち、複数幅抽出部31は、データ取得部41へ住所画像の第a行目のすべてのデータ値を格納する。   When 0 is substituted into the variable a, the multiple width extraction unit 31 acquires the data value sequence in the a-th row of the address image (step S12). That is, the multiple width extraction unit 31 stores all data values in the a-th row of the address image in the data acquisition unit 41.

第a行目のデータ値列を取得すると、複数幅抽出部31は、第a行目について線の幅を抽出する処理を行う(ステップS13)。線の幅を抽出する処理については後述する。   When the data value sequence of the a-th row is acquired, the multiple width extraction unit 31 performs a process of extracting the line width for the a-th row (step S13). The process of extracting the line width will be described later.

線の幅を抽出する処理を行うと、複数幅抽出部31は、すべての行について線の幅を抽出する処理を行ったか判定する(ステップS14)。即ち、複数幅抽出部31は、aが住所画像の最後の行を示す値であるかを判定する。   When the process of extracting the line width is performed, the multiple-width extracting unit 31 determines whether the process of extracting the line width is performed for all the rows (step S14). That is, the multiple width extraction unit 31 determines whether a is a value indicating the last line of the address image.

すべての行について線の幅を抽出する処理を行っていないと判定すると(ステップS14、NO)、複数幅抽出部31は、aをインクリメントする(ステップS15)。即ち、複数幅抽出部31は、aに1を加える。
aをインクリメントすると、複数幅抽出部31は、ステップ12へ戻る。
If it is determined that the process of extracting the line width is not performed for all the rows (step S14, NO), the multiple width extraction unit 31 increments a (step S15). That is, the multiple width extraction unit 31 adds 1 to a.
When a is incremented, the multiple width extraction unit 31 returns to step 12.

すべての行について線の幅を抽出する処理を行ったと判定すると(ステップS14、YES)、複数幅抽出部31は、変数bに0を代入する(ステップS16)。変数bは、複数幅抽出部31が線の幅を抽出する列を示す。即ち、複数幅抽出部31は、第b列目について線の幅を抽出する。   If it is determined that the process of extracting the line width is performed for all rows (step S14, YES), the multiple width extraction unit 31 substitutes 0 for the variable b (step S16). The variable b indicates a column from which the multiple width extraction unit 31 extracts the line width. That is, the multiple width extraction unit 31 extracts the line width for the b-th column.

変数bに0を代入すると、複数幅抽出部31は、住所画像の第b列目のデータ値列を取得する(ステップS17)。即ち、複数幅抽出部31は、データ取得部41に住所画像の第b列目のすべてのデータ値を格納する。   When 0 is substituted into the variable b, the multiple width extraction unit 31 acquires the b-th data value sequence of the address image (step S17). That is, the multiple width extraction unit 31 stores all data values in the b-th column of the address image in the data acquisition unit 41.

第b列目のデータ値列を取得すると、複数幅抽出部31は、第b列目について線の幅を抽出する処理を行う(ステップS18)。   When the b-th data value sequence is acquired, the multiple width extraction unit 31 performs a process of extracting the line width for the b-th column (step S18).

線の幅を抽出する処理を行うと、複数幅抽出部31は、すべての列について線の幅を抽出する処理を行ったか判定する(ステップS19)。即ち、複数幅抽出部31は、bが住所画像の最後の列を示す値であるかを判定する。   When the process of extracting the line width is performed, the multiple width extracting unit 31 determines whether the process of extracting the line width is performed for all the columns (step S19). That is, the multiple width extraction unit 31 determines whether b is a value indicating the last column of the address image.

すべての列について線の幅を抽出する処理を行っていないと判定すると(ステップS19、NO)、複数幅抽出部31は、bをインクリメントする(ステップS20)。即ち、複数幅抽出部31は、bに1を加える。
bをインクリメントすると、複数幅抽出部31は、ステップ17へ戻る。
If it is determined that the process of extracting the line width is not performed for all columns (step S19, NO), the multiple width extraction unit 31 increments b (step S20). That is, the multiple width extraction unit 31 adds 1 to b.
When b is incremented, the multiple width extraction unit 31 returns to Step 17.

すべての列について線の幅を抽出する処理を行ったと判定すると(ステップS19、YES)、複数幅抽出部31は、変数cに1を代入する(ステップS21)。変数cは、複数幅抽出部31が抽出する線の幅を示す線幅パラメータである。即ち、複数幅抽出部31は、幅がcである線を示す出力画像を生成する。   If it is determined that the process of extracting the line width has been performed for all the columns (step S19, YES), the multiple width extraction unit 31 substitutes 1 for the variable c (step S21). The variable c is a line width parameter indicating the line width extracted by the multiple width extraction unit 31. That is, the multiple width extraction unit 31 generates an output image indicating a line having a width c.

変数cに1を代入すると、複数幅抽出部31は、線幅パラメータcに対応する中間画像を生成する(ステップS22)。中間画像の生成方法は、前述のとおりである。なお、複数幅抽出部31は、行を用いて生成した線情報テーブルに基づいて中間画像を生成してもよいし、列を用いて生成した線情報テーブルに基づいて中間画像を生成してもよい。また、複数幅抽出部31は、その両者を生成してもよい。また、複数幅抽出部31は、行を用いて生成した線情報テーブルと列を用いて生成した線情報テーブルの両方を用いて一つの中間画像を生成してもよい。   When 1 is substituted into the variable c, the multiple width extraction unit 31 generates an intermediate image corresponding to the line width parameter c (step S22). The method for generating the intermediate image is as described above. The multiple width extraction unit 31 may generate an intermediate image based on a line information table generated using rows, or may generate an intermediate image based on a line information table generated using columns. Good. Moreover, the multiple width extraction unit 31 may generate both of them. The multiple width extraction unit 31 may generate one intermediate image using both the line information table generated using rows and the line information table generated using columns.

線幅パラメータcに対応する中間画像を生成すると、複数幅抽出部31は、幅がcである線を抽出した出力画像を生成する(ステップS23)。即ち、複数幅抽出部31は、元の住所画像の各ドットのデータ値から中間画像の対応するドットのデータ値を減算することで、出力画像を生成する。   When the intermediate image corresponding to the line width parameter c is generated, the multiple width extraction unit 31 generates an output image in which a line having a width c is extracted (step S23). That is, the multiple width extraction unit 31 generates an output image by subtracting the data value of the corresponding dot of the intermediate image from the data value of each dot of the original address image.

幅がcである線を抽出した出力画像を生成すると、複数幅抽出部31は、すべての線幅パラメータcで出力画像を生成したか判定する(ステップS24)。即ち、複数幅抽出部31は、cが最大幅であるか判定する。   When the output image obtained by extracting the line having the width c is generated, the multiple width extraction unit 31 determines whether the output image is generated with all the line width parameters c (step S24). That is, the multiple width extraction unit 31 determines whether c is the maximum width.

すべての線幅パラメータcで出力画像を生成していないと判定すると(ステップS24、NO)、複数幅抽出部31は、cをインクリメントする(ステップS25)。即ち、複数幅抽出部31は、cに1を加える。
cをインクリメントすると、複数幅抽出部31は、ステップ22へ戻る。
すべての線幅パラメータcで出力画像を生成したと判定すると(ステップS24、YES)、複数幅抽出部31は、出力画像の生成動作を終了する。
If it is determined that the output image is not generated with all the line width parameters c (step S24, NO), the multiple width extraction unit 31 increments c (step S25). That is, the multiple width extraction unit 31 adds 1 to c.
When c is incremented, the multiple width extraction unit 31 returns to step 22.
If it is determined that the output image has been generated with all the line width parameters c (step S24, YES), the multiple width extraction unit 31 ends the output image generation operation.

次に、複数幅抽出部31が幅を抽出する動作例(ステップS13及びステップS18)について説明する。
図9は、複数幅抽出部31が幅を抽出する動作例を説明するためのフローチャートである。
まず、複数幅抽出部31は、変数iに0を代入する(ステップS31)。変数iは、複数幅抽出部31が注目する位置を示す。即ち、複数幅抽出部31は、位置「i」に注目して線の幅を抽出する。
変数iに0を代入すると、複数幅抽出部31は、位置「i」のデータ値であるv(i)を取得する(ステップS32)。
Next, an operation example (step S13 and step S18) in which the multiple width extraction unit 31 extracts the width will be described.
FIG. 9 is a flowchart for explaining an operation example in which the multiple width extraction unit 31 extracts a width.
First, the multiple width extraction unit 31 substitutes 0 for the variable i (step S31). The variable i indicates a position that the multiple width extraction unit 31 pays attention to. That is, the multiple width extraction unit 31 extracts the line width while paying attention to the position “i”.
When 0 is substituted into the variable i, the multiple width extraction unit 31 acquires v (i) that is the data value of the position “i” (step S32).

v(i)を取得すると、複数幅抽出部31は、未確定バッファ部42が空であるか判定する(ステップS33)。未確定バッファ部42が空であるのは、複数幅抽出部31が幅抽出を開始したときである。   When v (i) is acquired, the multiple width extraction unit 31 determines whether the unconfirmed buffer unit 42 is empty (step S33). The unconfirmed buffer unit 42 is empty when the multiple width extraction unit 31 starts width extraction.

未確定バッファ部42が空でないと判定すると(ステップS33、NO)、複数幅抽出部31は、未確定バッファ部42が格納する末尾の位置データ(位置「n」)のデータ値v(n)がv(i)より小さいが判定する(ステップS34)。   If it is determined that the undetermined buffer unit 42 is not empty (step S33, NO), the multiple width extracting unit 31 stores the data value v (n) of the last position data (position “n”) stored in the undetermined buffer unit 42. Is smaller than v (i) (step S34).

v(n)よりv(i)が小さくないと判定すると(ステップS34、NO)、複数幅抽出部31は、未確定バッファ部が格納する末尾の位置データ(位置「n」)を削除する(ステップS35)。   If it is determined that v (i) is not smaller than v (n) (NO in step S34), the multiple width extraction unit 31 deletes the last position data (position “n”) stored in the undetermined buffer unit ( Step S35).

未確定バッファ部が格納する末尾の位置データ(位置「n」)を削除すると、複数幅抽出部31は、未確定バッファ部42が格納する末尾の位置データ(位置「n」)が位置「i−1」であるか判定する(ステップS36)。即ち、複数幅抽出部31は、位置「n」が位置「i」の直前の位置であるか判定する。   When the last position data (position “n”) stored in the unconfirmed buffer unit is deleted, the multi-width extracting unit 31 determines that the last position data (position “n”) stored in the unconfirmed buffer unit 42 is the position “i”. −1 ”is determined (step S36). That is, the multiple width extraction unit 31 determines whether the position “n” is a position immediately before the position “i”.

末尾の位置データ(位置「n」)が位置「i−1」でないと判定すると(ステップS36、NO)、複数幅抽出部31は、幅位置記憶部44に線情報を記録する(ステップS37)。即ち、複数幅抽出部31は、開始座標として位置「n」、幅として「i−n−1」、及びデータ値としてv(n)を互いに対応付けて幅位置記憶部44に記録する。   If it is determined that the end position data (position “n”) is not the position “i−1” (step S36, NO), the multiple width extraction unit 31 records line information in the width position storage unit 44 (step S37). . That is, the multiple width extraction unit 31 records the position “n” as the start coordinate, “in−1” as the width, and v (n) as the data value in association with each other and recorded in the width position storage unit 44.

末尾の位置データ(位置「n」)が位置「i−1」であると判定した場合(ステップS36、YES)、又は、幅位置記憶部44に線情報を記録した場合(ステップS37)、複数幅抽出部31は、ステップS33へ戻る。   When it is determined that the last position data (position “n”) is the position “i−1” (step S36, YES), or when line information is recorded in the width position storage unit 44 (step S37), a plurality of The width extraction unit 31 returns to step S33.

v(n)よりv(i)が小さいと判定すると(ステップS34、YES)、複数幅抽出部31は、未確定バッファ部42が格納する末尾の位置データ(位置「n」)が位置「i−1」であるか判定する(ステップS38)。即ち、複数幅抽出部31は、位置「n」が位置「i」の直前の位置であるか判定する。   If it is determined that v (i) is smaller than v (n) (YES in step S34), the multiple width extracting unit 31 determines that the last position data (position “n”) stored in the unconfirmed buffer unit 42 is the position “i”. −1 ”is determined (step S38). That is, the multiple width extraction unit 31 determines whether the position “n” is a position immediately before the position “i”.

末尾の位置データ(位置「n」)が位置「i−1」でないと判定すると(ステップS38、NO)、複数幅抽出部31は、幅位置記憶部44に線情報を記録する(ステップS39)。即ち、複数幅抽出部31は、開始座標として位置「n」、幅として「i−n−1」、及びデータ値としてv(i)を互いに対応付けて幅位置記憶部44に記録する。   If it is determined that the end position data (position “n”) is not the position “i−1” (step S38, NO), the multiple width extraction unit 31 records line information in the width position storage unit 44 (step S39). . That is, the multiple width extraction unit 31 records the position “n” as the start coordinate, “in−1” as the width, and v (i) as the data value in the width position storage unit 44 in association with each other.

未確定バッファ部42が空であると判定した場合(ステップS33、YES)、末尾の位置データ(位置「n」)が位置「i−1」であると判定した場合(ステップS39、YES)、又は、幅位置記憶部44に線情報を記録した場合(ステップS39)、複数幅抽出部31は、未確定バッファ部42の末尾に位置「i」を記録する(ステップS40)。即ち、複数幅抽出部31は、未確定バッファ部42が格納する位置データに位置「i」を追加的に記録する。   When it is determined that the indeterminate buffer unit 42 is empty (step S33, YES), when it is determined that the end position data (position “n”) is the position “i−1” (step S39, YES), Alternatively, when line information is recorded in the width position storage unit 44 (step S39), the multiple width extraction unit 31 records the position “i” at the end of the undetermined buffer unit 42 (step S40). That is, the multiple width extraction unit 31 additionally records the position “i” in the position data stored in the unconfirmed buffer unit 42.

未確定バッファ部42の末尾に位置「i」を記録すると、複数幅抽出部31は、すべての位置に注目して線の幅を抽出したか判定する(ステップS41)。即ち、複数幅抽出部31は、iが最後の位置座標であるか判定する。   When the position “i” is recorded at the end of the undetermined buffer unit 42, the multiple width extracting unit 31 determines whether the line width has been extracted by paying attention to all the positions (step S41). That is, the multiple width extraction unit 31 determines whether i is the last position coordinate.

すべての位置に注目して線の幅を抽出していないと判定すると(ステップS41、NO)、複数幅抽出部31は、iをインクリメントする(ステップS42)。即ち、複数幅抽出部31は、iに1を加える。   If it is determined that the line width is not extracted by paying attention to all positions (step S41, NO), the multiple width extraction unit 31 increments i (step S42). That is, the multiple width extraction unit 31 adds 1 to i.

iをインクリメントすると、複数幅抽出部31は、ステップS32へ戻る。
すべての位置に注目して線の幅を抽出したと判定すると(ステップS41、YES)、複数幅抽出部31は、幅抽出動作を終了する。
When i is incremented, the multiple width extraction unit 31 returns to step S32.
If it is determined that the line width is extracted by paying attention to all positions (step S41, YES), the multiple width extraction unit 31 ends the width extraction operation.

パターン認識部18は、複数幅抽出部31が生成した出力画像を利用して文字を認識する。パターン認識部18が出力画像を利用して文字を認識する方法は、特定の方法に限定されるものではない。   The pattern recognition unit 18 recognizes characters using the output image generated by the multiple width extraction unit 31. The method by which the pattern recognition unit 18 recognizes characters using the output image is not limited to a specific method.

なお、複数幅抽出部31は、特定のいくつかの線幅パラメータcについて出力画像を生成してもよい。複数幅抽出部31が生成する出力画像の枚数又は使用される線幅パラメータcなどは、特定の構成に限定されるものではない。   The multiple width extraction unit 31 may generate an output image for some specific line width parameters c. The number of output images generated by the multiple width extraction unit 31 or the line width parameter c used is not limited to a specific configuration.

また、幅がcである線を抽出する方法を説明したが、幅がc以下である線を抽出するように変更することも可能である。幅位置記憶部44にから幅がcである線情報でなく、c以下である線情報を全て取得し、中間画像を生成すればよい。   Moreover, although the method of extracting the line whose width is c was demonstrated, it is also possible to change so that the line whose width is c or less may be extracted. What is necessary is just to acquire not all the line information whose width is c from the width position memory | storage part 44 but all the line information below c, and produce | generate an intermediate image.

次に、単独幅抽出部32について説明する。
単独幅抽出部32は、住所画像に記載されている文字を形成する線を抽出する。即ち、単独幅抽出部32は、特定の幅以下の線を抽出した画像を形成する。単独幅抽出部32は、特定の幅以下の線を抽出することができる。
Next, the single width extraction unit 32 will be described.
The single width extraction unit 32 extracts lines that form characters described in the address image. That is, the single width extraction unit 32 forms an image in which lines having a specific width or less are extracted. The single width extraction unit 32 can extract a line having a specific width or less.

図10は、単独幅抽出部32の構成例を示すブロック図である。
図10が示すように、単独幅抽出部32は、データ取得部51、未確定バッファ部52、未確定バッファ操作部53、確定データ記憶部54、確定データ登録部55及び出力画像作成部56などを備える。
データ取得部51は、複数幅抽出部31のデータ取得部41と同様である。したがって、データ取得部51の詳細な説明は省略する。
FIG. 10 is a block diagram illustrating a configuration example of the single width extraction unit 32.
As shown in FIG. 10, the single width extraction unit 32 includes a data acquisition unit 51, an unconfirmed buffer unit 52, an unconfirmed buffer operation unit 53, a confirmed data storage unit 54, a confirmed data registration unit 55, an output image creation unit 56, and the like. Is provided.
The data acquisition unit 51 is the same as the data acquisition unit 41 of the multiple width extraction unit 31. Therefore, detailed description of the data acquisition unit 51 is omitted.

未確定バッファ部52は、線の幅を抽出している間に、位置データを一時的に記録する。即ち、未確定バッファ部52は、条件を満たす位置データを記録する。未確定バッファ部52は、単独幅抽出部32が注目している位置(位置「i」)との間によりその位置のデータ値より小さいデータ値(即ち、輝度値)を持つ位置が存在せず(条件1)、かつ、位置「i」から抽出する幅分座標を遡った位置(線候補位置)との間にその位置のデータ値より小さいデータ値を持つ位置が存在する(条件2)位置を示す位置データを格納する。なお、条件1は、複数幅抽出部31の未確定バッファ部42が格納する位置データの条件と同一である。即ち、未確定バッファ部52は、位置「i−h」から位置「i」までの間でデータ値(輝度値)の上昇が開始する上昇開始位置を格納する。   The unconfirmed buffer unit 52 temporarily records the position data while extracting the line width. That is, the unconfirmed buffer unit 52 records position data that satisfies the conditions. The unconfirmed buffer unit 52 does not have a position having a data value (that is, a luminance value) smaller than the data value at the position between the position (position “i”) focused on by the single width extracting unit 32. (Condition 1) and a position having a data value smaller than the data value of the position exists between the position (line candidate position) retroactive to the width coordinate extracted from the position “i” (Condition 2) Is stored. Condition 1 is the same as the condition of the position data stored in the undetermined buffer unit 42 of the multiple width extraction unit 31. In other words, the unconfirmed buffer unit 52 stores the rising start position where the increase in the data value (luminance value) starts from the position “i-h” to the position “i”.

図11は、データ取得部51が取得した輝度データの例である。
横軸は位置を示し、縦軸は位置のデータ値(即ち、輝度値)を示す。
図11の例において、未確定バッファ部52が格納する位置データについて説明する。ここでは、単独幅抽出部32が抽出する線の幅hは、8であるものとする。また、単独幅抽出部32は位置「11」に注目しているものとする。
FIG. 11 is an example of luminance data acquired by the data acquisition unit 51.
The horizontal axis indicates the position, and the vertical axis indicates the data value (that is, the luminance value) of the position.
In the example of FIG. 11, the position data stored in the unconfirmed buffer unit 52 will be described. Here, it is assumed that the line width h extracted by the single width extraction unit 32 is 8. Further, it is assumed that the single width extraction unit 32 pays attention to the position “11”.

まず、位置「1」が未確定バッファ部52に格納されるか検討する。
位置「1」のデータ値は、位置「2」のデータ値より大きい。即ち、v(1)よりv(2)が小さい。したがって、位置「1」は、条件1を満たさない。よって、位置「1」は、未確定バッファ部52に格納されない。
First, it is examined whether the position “1” is stored in the undetermined buffer unit 52.
The data value at position “1” is greater than the data value at position “2”. That is, v (2) is smaller than v (1). Therefore, the position “1” does not satisfy the condition 1. Therefore, the position “1” is not stored in the undetermined buffer unit 52.

次に、位置「2」が未確定バッファ部52に格納されるか検討する。
位置「2」のデータ値は、位置「3」から位置「10」までのデータ値のいずれのデータ値よりも小さい。即ち、v(2)は、v(3)乃至v(10)のいずれよりも小さい。したがって、位置「2」は、条件1を満たす。位置「2」は、位置「11」から抽出される線幅h遡った位置「3」の外の座標である。したがって、位置「2」は、条件2を満たさない。よって、位置「2」は、未確定バッファ部52に格納されない。
Next, it is examined whether the position “2” is stored in the undetermined buffer unit 52.
The data value at position “2” is smaller than any of the data values from position “3” to position “10”. That is, v (2) is smaller than any of v (3) to v (10). Therefore, the position “2” satisfies the condition 1. The position “2” is a coordinate outside the position “3” that is extracted from the position “11” and goes back the line width h. Therefore, the position “2” does not satisfy the condition 2. Therefore, the position “2” is not stored in the undetermined buffer unit 52.

次に、位置「3」が未確定バッファ部52に格納されるか検討する。
位置「3」のデータ値は、位置「4」のデータ値より大きい。条件1を満たさない。したがって、位置「3」は、未確定バッファ部52に格納されない。
Next, it is examined whether the position “3” is stored in the undetermined buffer unit 52.
The data value at position “3” is greater than the data value at position “4”. Condition 1 is not satisfied. Therefore, the position “3” is not stored in the undetermined buffer unit 52.

次に、位置「4」が未確定バッファ部52に格納されるか検討する。
位置「4」のデータ値は、位置「5」から位置「10」までのデータ値のいずれのデータ値よりも小さい。したがって、位置「4」は、条件1を満たす。位置「4」は、位置「3」との間に位置「4」のデータ値よりも小さいデータ値を持つ位置が存在しない位置である。したがって、位置「4」は、条件2を満たさない。よって、位置「4」は、未確定バッファ部52に格納されない。
Next, it is examined whether or not the position “4” is stored in the undetermined buffer unit 52.
The data value at position “4” is smaller than any of the data values from position “5” to position “10”. Therefore, the position “4” satisfies the condition 1. The position “4” is a position where there is no position between the position “3” and a data value smaller than the data value of the position “4”. Therefore, the position “4” does not satisfy the condition 2. Therefore, the position “4” is not stored in the undetermined buffer unit 52.

次に、位置「5」が未確定バッファ部52に格納されるか検討する。
位置「5」のデータ値は、位置「6」から位置「10」までのデータ値のいずれのデータ値よりも小さい。したがって、位置「5」は、条件1を満たす。位置「5」のデータ値は、位置「4」のデータ値より大きい。したがって、位置「5」は、位置「3」との間に位置「5」のデータ値よりも小さいデータ値を持つ位置が存在する位置である。したがって、位置「5」は、条件2を満たす。よって、位置「5」は、未確定バッファ部52に格納される。
Next, it is examined whether or not the position “5” is stored in the undetermined buffer unit 52.
The data value at the position “5” is smaller than any of the data values from the position “6” to the position “10”. Therefore, the position “5” satisfies the condition 1. The data value at position “5” is greater than the data value at position “4”. Therefore, the position “5” is a position where a position having a data value smaller than the data value of the position “5” exists between the position “3” and the position “3”. Therefore, the position “5” satisfies the condition 2. Therefore, the position “5” is stored in the undetermined buffer unit 52.

次に、位置「6」、位置「7」、位置「8」及び位置「9」が未確定バッファ部52に格納されるか検討する。
位置「6」、位置「7」、位置「8」及び位置「9」のデータ値は、位置「10」のデータ値より大きい。したがって、位置「6」、位置「7」、位置「8」及び位置「9」は、条件1を満たさない。よって、位置「6」、位置「7」、位置「8」及び位置「9」は、未確定バッファ部52に格納されない。
Next, it is examined whether the position “6”, the position “7”, the position “8”, and the position “9” are stored in the undetermined buffer unit 52.
The data values of the position “6”, the position “7”, the position “8”, and the position “9” are larger than the data value of the position “10”. Therefore, the position “6”, the position “7”, the position “8”, and the position “9” do not satisfy the condition 1. Therefore, the position “6”, the position “7”, the position “8”, and the position “9” are not stored in the unconfirmed buffer unit 52.

次に、位置「10」が未確定バッファ部52に格納されるか検討する。
位置「10」と位置「11」とは隣接しているので、両者の間に位置「10」のデータ値より小さいデータ値を持つ位置がない。したがって、位置「10」は、条件1を満たす。位置「10」のデータ値は、位置「3」、位置「4」及び位置「5」のデータ値より大きい。したがって、位置「10」は、位置「3」との間に位置「10」のデータ値よりも小さいデータ値を持つ位置が存在する位置である。したがって、位置「10」は、条件2を満たす。よって、位置「10」は、未確定バッファ部52に格納される。
Next, it is examined whether the position “10” is stored in the undetermined buffer unit 52.
Since the position “10” and the position “11” are adjacent to each other, there is no position having a data value smaller than the data value of the position “10” between them. Therefore, the position “10” satisfies the condition 1. The data value at the position “10” is larger than the data values at the position “3”, the position “4”, and the position “5”. Therefore, the position “10” is a position where a position having a data value smaller than the data value of the position “10” exists between the position “3” and the position “3”. Therefore, the position “10” satisfies the condition 2. Therefore, the position “10” is stored in the undetermined buffer unit 52.

以上のように、単独幅抽出部32が位置「11」に注目している時点では、未確定バッファ部52は、位置「5」及び位置「10」を格納する。
未確定バッファ部52は、以下の条件を満たす位置「j」を格納する。
j<k<iを満たすすべてのkについてv(j)<v(k) ・・・(1)
i−h<m<jかつv(m)<v(j)を満たすmが少なくとも1つ存在する ・・・(2)
ここで、iは、単独幅抽出部32が注目している位置を示す。即ち、単独幅抽出部32が位置「i」に注目している場合に、未確定バッファ部52が格納している位置「j」は、条件(1)(条件1に対応)及び条件(2)(条件2に対応)を満たす。
As described above, at the time when the single width extracting unit 32 is paying attention to the position “11”, the unconfirmed buffer unit 52 stores the position “5” and the position “10”.
The unconfirmed buffer unit 52 stores a position “j” that satisfies the following condition.
For all k satisfying j <k <i, v (j) <v (k) (1)
There is at least one m satisfying i−h <m <j and v (m) <v (j) (2)
Here, i indicates the position that the single width extraction unit 32 is paying attention to. That is, when the single width extraction unit 32 is paying attention to the position “i”, the position “j” stored in the unconfirmed buffer unit 52 is the condition (1) (corresponding to the condition 1) and the condition (2 ) (Corresponding to condition 2) is satisfied.

図12は、未確定バッファ部52が格納する位置データの例を示す。
図12は、単独幅抽出部32が位置「11」に注目している場合に未確定バッファ部52が格納する位置データである。前述のとおり、未確定バッファ部52は、位置「5」及び位置「10」を格納する。
FIG. 12 shows an example of position data stored in the undetermined buffer unit 52.
FIG. 12 shows position data stored in the undetermined buffer unit 52 when the single width extracting unit 32 focuses on the position “11”. As described above, the unconfirmed buffer unit 52 stores the position “5” and the position “10”.

未確定バッファ部52は、単独幅抽出部32が注目している位置を変更するたびに式(1)及び式(2)を満たす位置を格納する。即ち、未確定バッファ部52は、単独幅抽出部32が注目している位置を変更するたびに書き換えられる。   The undetermined buffer unit 52 stores a position that satisfies Expression (1) and Expression (2) every time the position focused by the single width extraction unit 32 is changed. That is, the undetermined buffer unit 52 is rewritten every time the position focused by the single width extracting unit 32 is changed.

未確定バッファ操作部53は、未確定バッファ部52に記録されている位置データを削除したり、位置データを追加したりする機能を有する。未確定バッファ操作部53は、式(1)及び式(2)を満たす位置「j」を未確定バッファ部42に格納する。   The unconfirmed buffer operation unit 53 has a function of deleting position data recorded in the unconfirmed buffer unit 52 and adding position data. The indeterminate buffer operation unit 53 stores the position “j” that satisfies the expressions (1) and (2) in the indeterminate buffer unit 42.

確定データ記憶部54は、単独幅抽出部32が確定したデータ値を格納する。即ち、確定データ記憶部54は、単独幅抽出部32が確定するデータ値を随時追加的に記録される。   The confirmed data storage unit 54 stores the data value confirmed by the single width extracting unit 32. That is, the confirmed data storage unit 54 additionally records data values determined by the single width extracting unit 32 as needed.

確定データ記憶部54が格納するデータ値列は、線幅パラメータhに対応する中間画像データ値列である。即ち、確定データ記憶部54が格納するデータ値列は、幅がh以下である線がある部分のデータ値を線の両端の高さ(即ち、線の両端のうちデータ値が高い一端の高さ)にそろえたデータ値列である。   The data value sequence stored in the confirmed data storage unit 54 is an intermediate image data value sequence corresponding to the line width parameter h. That is, the data value sequence stored in the fixed data storage unit 54 is obtained by calculating the data value of the portion where the line having a width equal to or less than h is the height of both ends of the line (that is, the height of one end of the line having the higher data value). This is a data value sequence aligned with (a).

確定データ登録部55は、確定データ記憶部54にデータを追記する。即ち、確定データ登録部55は、単独幅抽出部32が確定したデータ値を確定データ記憶部54に追加的に格納する。データ値を確定する方法については後述する。   The confirmed data registration unit 55 adds data to the confirmed data storage unit 54. That is, the confirmed data registration unit 55 additionally stores the data value confirmed by the single width extracting unit 32 in the confirmed data storage unit 54. A method for determining the data value will be described later.

出力画像作成部56は、確定データ登録部55が格納する中間画像データ値列に基づいて、特定の幅の線を抽出した画像を生成する。即ち、出力画像作成部56は、確定データ登録部55から中間画像データ値列を取得し、中間画像を生成する。出力画像作成部56は、生成される中間画像に基づいて出力画像を生成する。   Based on the intermediate image data value sequence stored in the finalized data registration unit 55, the output image creation unit 56 generates an image in which a line having a specific width is extracted. That is, the output image creation unit 56 acquires the intermediate image data value sequence from the confirmed data registration unit 55 and generates an intermediate image. The output image creation unit 56 generates an output image based on the generated intermediate image.

次に、単独幅抽出部32が線を抽出する手順について説明する。
まず、単独幅抽出部32は、線幅パラメータhに対応する中間画像を生成する。以下、単独幅抽出部32が中間画像データ値列を生成する手順について説明する。
Next, the procedure by which the single width extraction unit 32 extracts lines will be described.
First, the single width extraction unit 32 generates an intermediate image corresponding to the line width parameter h. Hereinafter, a procedure in which the single width extraction unit 32 generates the intermediate image data value sequence will be described.

ここでは、単独幅抽出部32が位置「11」に注目しているものとする。また、単独幅抽出部32は、図11が示すデータ値列をもとに中間画像データ値列を生成するものとし、未確定バッファ部52は、上記の位置データを格納しているものとする。また、単独幅抽出部32が抽出する線の幅hは、8であるものとする。   Here, it is assumed that the single width extraction unit 32 pays attention to the position “11”. The single width extraction unit 32 generates an intermediate image data value sequence based on the data value sequence shown in FIG. 11, and the unconfirmed buffer unit 52 stores the position data. . The line width h extracted by the single width extraction unit 32 is assumed to be 8.

まず、未確定バッファ操作部53は、未確定バッファ部52の末尾の位置データ(位置「n」)のデータ値(v(n))と位置「i」のデータ値(v(i))を比較する。上記の例において、未確定バッファ操作部53は、v(10)(未確定バッファ部52の末尾の位置データのデータ値)とv(11)(単独幅抽出部32が注目している位置のデータ値)を比較する。   First, the unconfirmed buffer operation unit 53 obtains the data value (v (n)) of the position data (position “n”) at the end of the unconfirmed buffer unit 52 and the data value (v (i)) of the position “i”. Compare. In the above example, the undetermined buffer operation unit 53 performs v (10) (data value of the position data at the end of the undetermined buffer unit 52) and v (11) (the position at which the single width extraction unit 32 is paying attention). Data value).

v(i)<v(n)である場合(即ち、注目される位置のデータ値が末尾の位置データのデータ値よりも小さい場合)、未確定バッファ操作部53は、未確定バッファ部52から末尾の位置データ(n)を削除する。上記の例において、v(11)<v(10)であるので、未確定バッファ操作部53は、未確定バッファ操作部53を通じて未確定バッファ部52から末尾の位置データである位置「10」を削除する。   When v (i) <v (n) is satisfied (that is, when the data value of the position of interest is smaller than the data value of the last position data), the unconfirmed buffer operation unit 53 The last position data (n) is deleted. In the above example, since v (11) <v (10), the unconfirmed buffer operation unit 53 transmits the position “10” that is the last position data from the unconfirmed buffer unit 52 through the unconfirmed buffer operation unit 53. delete.

末尾の位置データを削除すると、未確定バッファ操作部53は、再度、注目される位置「i」のデータ値v(i)と未確定バッファ部42が格納する末尾の位置データ(位置「n」)のデータ値(v(n))とを比較する。上記の例において、未確定バッファ操作部53は、v(11)とv(5)とを比較する。   When the end position data is deleted, the indeterminate buffer operation unit 53 again determines the data value v (i) of the position “i” to be noticed and the end position data (position “n”) stored in the indeterminate buffer unit 42. ) Is compared with the data value (v (n)). In the above example, the unconfirmed buffer operation unit 53 compares v (11) and v (5).

上記のとおり、v(i)<v(n)である場合(即ち、注目される位置のデータ値が末尾の位置データ(位置「n」)のデータ値よりも小さい場合)、未確定バッファ操作部53は、未確定バッファ部52から末尾の位置データ(n)を削除する。上記の例において、v(10)<v(5)であるので、未確定バッファ操作部53は、未確定バッファ部52から末尾の位置データである位置「5」を削除する。これで、未確定バッファ部52は、空になる。   As described above, when v (i) <v (n) (that is, when the data value of the position of interest is smaller than the data value of the last position data (position “n”)), the indeterminate buffer operation The unit 53 deletes the last position data (n) from the unconfirmed buffer unit 52. In the above example, since v (10) <v (5), the undetermined buffer operation unit 53 deletes the position “5” that is the last position data from the undetermined buffer unit 52. As a result, the undetermined buffer unit 52 becomes empty.

未確定バッファ部52が空になると、確定データ登録部55は、注目される位置「i」のデータ値(v(i))と位置「i」から幅h+1遡った位置(位置「i−h−1」)のデータ値(v(i−h−1))と比較する。上記の例において、確定データ登録部55は、v(11)とv(2)とを比較する。   When the undetermined buffer unit 52 is emptied, the confirmed data registering unit 55 sets the data value (v (i)) of the position “i” to be noticed and a position (position “i−h”) that is a width h + 1 backward from the position “i”. -1 ") data value (v (i-h-1)). In the above example, the confirmed data registration unit 55 compares v (11) and v (2).

v(i)>v(i−h−1)である場合、確定データ登録部55は、データ値の山がまだ下がり終わっておらず、幅がh以下である線がないと判定する。即ち、確定データ登録部55は、位置「i」が線の端ではないと判定する。したがって、確定データ登録部55は、位置「i」から位置「i−h−1」の間に線がない(即ち、位置「i−h」から位置「i」までが線ではない)と認識する。また、確定データ登録部55は、位置「i−h−1」のデータ値が中間画像データ値であると判定する。即ち、確定データ登録部55は、位置「i−h−1」のデータ値が減算されることなく中間画像データ値となると判定する。位置「i−h−1」のデータ値が中間画像データ値であると判定すると、確定データ登録部55は、位置「i−h−1」のデータ値(v(i−h−1))を確定データ記憶部54に格納する。   When v (i)> v (i−h−1), the confirmed data registration unit 55 determines that there is no line whose width is equal to or smaller than h because the peak of the data value has not yet been lowered. That is, the confirmed data registration unit 55 determines that the position “i” is not the end of the line. Therefore, the confirmed data registration unit 55 recognizes that there is no line between the position “i” and the position “ih-1” (that is, the line from the position “ih” to the position “i” is not a line). To do. Further, the confirmed data registration unit 55 determines that the data value at the position “i−h−1” is the intermediate image data value. That is, the confirmed data registration unit 55 determines that the data value at the position “i−h−1” is the intermediate image data value without being subtracted. If it is determined that the data value at the position “i−h−1” is the intermediate image data value, the confirmed data registration unit 55 determines the data value at the position “i−h−1” (v (i−h−1)). Is stored in the confirmed data storage unit 54.

上記の例において、v(11)>v(2)であるので、確定データ登録部55は、位置「11」と位置「2」との間に線(即ち、幅が8である線)がないと認識する。また、確定データ登録部55は、位置「2」のデータ値(v(2))が中間画像データ値として確定したと認識する。確定データ登録部55は、v(2)を中間画像データ値列の位置「2」のデータ値として確定データ記憶部54に格納する。   In the above example, since v (11)> v (2), the confirmed data registration unit 55 has a line (that is, a line having a width of 8) between the position “11” and the position “2”. Recognize not. Further, the confirmed data registration unit 55 recognizes that the data value (v (2)) at the position “2” is confirmed as the intermediate image data value. The confirmed data registration unit 55 stores v (2) in the confirmed data storage unit 54 as the data value at the position “2” of the intermediate image data value sequence.

確定データ登録部55がv(i−h−1)を確定データ記憶部54に格納すると、未確定バッファ操作部53は、位置「i」を未確定バッファ部52に追加的に格納する。上記の例において、未確定バッファ操作部53は、位置「11」を未確定バッファ部52に追加的に格納する。   When the confirmed data registration unit 55 stores v (i−h−1) in the confirmed data storage unit 54, the unconfirmed buffer operation unit 53 additionally stores the position “i” in the unconfirmed buffer unit 52. In the above example, the indeterminate buffer operation unit 53 additionally stores the position “11” in the indeterminate buffer unit 52.

未確定バッファ操作部53が位置「i」を未確定バッファ部52に追加的に格納すると、単独幅抽出部32は、位置「i」に対する幅抽出処理を終了する。位置「i」に対する幅抽出処理を終了すると、単独幅抽出部32は、位置「i+1」に対する幅抽出処理を開始する。上記の例において、単独幅抽出部32は、位置「12」に対して幅抽出処理を開始する。   When the undetermined buffer operation unit 53 additionally stores the position “i” in the undetermined buffer unit 52, the single width extracting unit 32 ends the width extracting process for the position “i”. When the width extraction process for the position “i” ends, the single width extraction unit 32 starts the width extraction process for the position “i + 1”. In the above example, the single width extraction unit 32 starts the width extraction process for the position “12”.

次に、単独幅抽出部32が図13が示すデータ値列をもとに中間画像データ値列を生成する場合について検討する。未確定バッファ部52は、上記の位置データを格納しているものとする。また、単独幅抽出部32が抽出する線の幅hは、8であるものとする。また、単独幅抽出部32は、位置「11」に注目しているものとする。   Next, consider the case where the single width extraction unit 32 generates an intermediate image data value sequence based on the data value sequence shown in FIG. It is assumed that the unconfirmed buffer unit 52 stores the position data. The line width h extracted by the single width extraction unit 32 is assumed to be 8. Further, it is assumed that the single width extraction unit 32 pays attention to the position “11”.

同様に、未確定バッファ操作部53は、未確定バッファ部52から位置「5」及び位置「10」を削除する。これで、未確定バッファ部52に空になる。   Similarly, the undetermined buffer operation unit 53 deletes the position “5” and the position “10” from the undetermined buffer unit 52. As a result, the undetermined buffer unit 52 becomes empty.

未確定バッファ部52が空になると、同様に、確定データ登録部55は、注目される位置「i」のデータ値(v(i))と位置「i」から幅h+1遡った位置(位置「i−h−1」)のデータ値(v(i−h−1))と比較する。上記の例において、確定データ登録部55は、v(11)とv(2)とを比較する。   When the unconfirmed buffer unit 52 becomes empty, similarly, the confirmed data registration unit 55 determines the data value (v (i)) of the position “i” to be noticed and the position (position “position“ i-h-1 ") data value (v (i-h-1)). In the above example, the confirmed data registration unit 55 compares v (11) and v (2).

v(i)<v(i−h−1)である場合、確定データ登録部55は、位置「i」でデータ値の山が下がり終わり、幅がh以下である線があると判定する。即ち、確定データ登録部55は、位置「i」が線の端であると判定する。したがって、単独幅抽出部32は、位置「i」から位置「i−h−1」の間に線がある(即ち、位置「i−h」から位置「i」までが線である)と認識する。上記の例において、v(11)<v(2)であるので、確定データ登録部55は、位置「i−h−1」と位置「i」との間に幅が8である線があると認識する。   In the case of v (i) <v (i−h−1), the confirmed data registration unit 55 determines that there is a line having a peak in the data value at the position “i” and having a width equal to or less than h. That is, the confirmed data registration unit 55 determines that the position “i” is the end of the line. Therefore, the single width extracting unit 32 recognizes that there is a line between the position “i” and the position “ih−1” (that is, the line from the position “ih” to the position “i”). To do. In the above example, since v (11) <v (2), the confirmed data registration unit 55 has a line having a width of 8 between the position “ih-1” and the position “i”. Recognize.

中間画像データ値列は線がある位置のデータ値を線の両端のデータ値(即ち、線の両端のうちデータ値が高い一端のデータ値)にそろえたデータ値列である。したがって、確定データ登録部55は、v(i−h−1)を、中間画像データ値列の位置「i−h−1」から位置「i−1」までのデータ値として確定データ記憶部54に格納する。即ち、確定データ記憶部54が格納する中間画像データ値列の位置「i−h−1」から位置「i−1」までのデータ値は、すべてv(i−h−1)となる。上記の例において、確定データ登録部55は、v(2)を、中間画像データ値列の位置「2」から位置「10」までのデータ値として確定データ記憶部54に格納する。   The intermediate image data value sequence is a data value sequence in which the data value at a certain position of the line is aligned with the data values at both ends of the line (that is, the data value at one end of the line having the higher data value). Accordingly, the confirmed data registration unit 55 sets v (i−h−1) as the data value from the position “ih−1” to the position “i−1” of the intermediate image data value sequence. To store. That is, the data values from the position “i−h−1” to the position “i−1” of the intermediate image data value sequence stored in the confirmed data storage unit 54 are all v (i−h−1). In the above example, the confirmed data registration unit 55 stores v (2) in the confirmed data storage unit 54 as data values from the position “2” to the position “10” of the intermediate image data value sequence.

確定データ登録部55がv(i−h−1)を確定データ記憶部54に格納すると、未確定バッファ操作部53は、位置「i」を未確定バッファ部52に追加的に格納する。上記の例において、未確定バッファ操作部53は、位置「11」を通じて未確定バッファ部52に追加的に格納する。   When the confirmed data registration unit 55 stores v (i−h−1) in the confirmed data storage unit 54, the unconfirmed buffer operation unit 53 additionally stores the position “i” in the unconfirmed buffer unit 52. In the above example, the indeterminate buffer operation unit 53 additionally stores in the indeterminate buffer unit 52 through the position “11”.

未確定バッファ操作部53が位置「i」を未確定バッファ部52に追加的に格納すると、単独幅抽出部32は、位置「i」に対する幅抽出処理を終了する。位置「i」に対する幅抽出処理を終了すると、単独幅抽出部32は、位置「i+1」に対する幅抽出処理を開始する。上記の例において、単独幅抽出部32は、位置「12」に対して幅抽出処理を開始する。   When the undetermined buffer operation unit 53 additionally stores the position “i” in the undetermined buffer unit 52, the single width extracting unit 32 ends the width extracting process for the position “i”. When the width extraction process for the position “i” ends, the single width extraction unit 32 starts the width extraction process for the position “i + 1”. In the above example, the single width extraction unit 32 starts the width extraction process for the position “12”.

次に、単独幅抽出部32が図14が示すデータ値列をもとに中間画像データ値列を生成する場合について検討する。未確定バッファ部52は、上記の位置データを格納しているものとする。また、単独幅抽出部32が抽出する線の幅hは、8であるものとする。また、単独幅抽出部32は、位置「11」に注目しているものとする。   Next, consider a case where the single width extraction unit 32 generates an intermediate image data value sequence based on the data value sequence shown in FIG. It is assumed that the unconfirmed buffer unit 52 stores the position data. The line width h extracted by the single width extraction unit 32 is assumed to be 8. Further, it is assumed that the single width extraction unit 32 pays attention to the position “11”.

同様に、未確定バッファ操作部53は、未確定バッファ部52から位置「10」を削除する。
未確定バッファ操作部53が末尾の位置データを削除すると、未確定バッファ操作部53は、再度、注目される位置「i」のデータ値v(i)と未確定バッファ部42が格納する末尾の位置データ(位置「n」)のデータ値(v(n))とを比較する。上記の例において、未確定バッファ操作部53は、v(11)とv(5)とを比較する。
Similarly, the undetermined buffer operation unit 53 deletes the position “10” from the undetermined buffer unit 52.
When the undetermined buffer operation unit 53 deletes the end position data, the undetermined buffer operation unit 53 again returns the data value v (i) of the position “i” to be noticed and the end position data stored in the undetermined buffer unit 42. The data value (v (n)) of the position data (position “n”) is compared. In the above example, the unconfirmed buffer operation unit 53 compares v (11) and v (5).

v(i)>v(n)である場合(即ち、注目される位置のデータ値が末尾の位置データ(位置「n」)のデータ値よりも大きい場合)、確定データ登録部55は、データ値の山がまだ下がり終わっておらず、幅がh以下である線がないと判定する。即ち、確定データ登録部55は、位置「i」が線の端ではないと判定する。したがって、確定データ登録部55は、位置「i」から位置「i−h−1」の間に線(即ち、幅がh以下である線)がないと認識する。また、確定データ登録部55、位置「i−h−1」のデータ値が中間画像データ値であると判定する。即ち、確定データ登録部55は、位置「i−h−1」のデータ値が減算されることなく中間画像データ値となると判定する。位置「i−h−1」のデータ値が中間画像データ値であると判定すると、確定データ登録部55は、位置「i−h−1」のデータ値(v(i−h−1))を確定データ記憶部54に格納する。   When v (i)> v (n) is satisfied (that is, when the data value at the position of interest is larger than the data value at the end position data (position “n”)), the confirmed data registration unit 55 It is determined that there is no line whose value peak is not yet lowered and whose width is equal to or less than h. That is, the confirmed data registration unit 55 determines that the position “i” is not the end of the line. Therefore, the confirmed data registration unit 55 recognizes that there is no line between the position “i” and the position “i−h−1” (that is, a line whose width is equal to or less than h). Further, it is determined that the data value of the fixed data registration unit 55 and the position “i−h−1” is the intermediate image data value. That is, the confirmed data registration unit 55 determines that the data value at the position “i−h−1” is the intermediate image data value without being subtracted. If it is determined that the data value at the position “i−h−1” is the intermediate image data value, the confirmed data registration unit 55 determines the data value at the position “i−h−1” (v (i−h−1)). Is stored in the confirmed data storage unit 54.

上記の例において、v(11)>v(5)であるので、確定データ登録部55は、位置「11」と位置「2」との間に線(即ち、幅が8である線)がないと認識する。また、確定データ登録部55は、位置「2」のデータ値(v(2))が中間画像データ値として確定したと認識する。確定データ登録部55は、v(2)を中間画像データ値列の位置「2」のデータ値として確定データ記憶部54に格納する。   In the above example, since v (11)> v (5), the confirmed data registration unit 55 has a line (that is, a line having a width of 8) between the position “11” and the position “2”. Recognize not. Further, the confirmed data registration unit 55 recognizes that the data value (v (2)) at the position “2” is confirmed as the intermediate image data value. The confirmed data registration unit 55 stores v (2) in the confirmed data storage unit 54 as the data value at the position “2” of the intermediate image data value sequence.

確定データ登録部55がv(i−h−1)を確定データ記憶部54に格納すると、未確定バッファ操作部53は、位置「i」を未確定バッファ部52に追加的に格納する。上記の例において、未確定バッファ操作部53は、位置「11」を未確定バッファ部52に追加的に格納する。   When the confirmed data registration unit 55 stores v (i−h−1) in the confirmed data storage unit 54, the unconfirmed buffer operation unit 53 additionally stores the position “i” in the unconfirmed buffer unit 52. In the above example, the indeterminate buffer operation unit 53 additionally stores the position “11” in the indeterminate buffer unit 52.

未確定バッファ操作部53が位置「i」を未確定バッファ部52に追加的に格納すると、単独幅抽出部32は、位置「i」に対する幅抽出処理を終了する。位置「i」に対する幅抽出処理を終了すると、単独幅抽出部32は、位置「i+1」に対する幅抽出処理を開始する。上記の例において、単独幅抽出部32は、位置「12」に対して幅抽出処理を開始する。   When the undetermined buffer operation unit 53 additionally stores the position “i” in the undetermined buffer unit 52, the single width extracting unit 32 ends the width extracting process for the position “i”. When the width extraction process for the position “i” ends, the single width extraction unit 32 starts the width extraction process for the position “i + 1”. In the above example, the single width extraction unit 32 starts the width extraction process for the position “12”.

単独幅抽出部32は、すべての位置において幅抽出処理を行い、中間画像データ値列を生成する。   The single width extraction unit 32 performs width extraction processing at all positions to generate an intermediate image data value sequence.

単独幅抽出部32は、同様の処理をすべての行及びすべての列について行う。したがって、単独幅抽出部32は、すべての行及びすべての列に対応する中間画像データ値列を生成する。   The single width extraction unit 32 performs the same processing for all rows and all columns. Therefore, the single width extraction unit 32 generates intermediate image data value sequences corresponding to all rows and all columns.

出力画像作成部56は、すべての行及びすべての列に対応する中間画像データ値列に基づいて、すべての行の中間画像データ値列を統合した画像(中間画像)及びすべての列の中間画像データ値列を統合した画像(中間画像)を生成する。即ち、出力画像作成部56は、第a行目の中間画像データ値列を第a行目の中間画像のドット列とすることで、中間画像を生成する。同様に、出力画像作成部56は、第b列目の中間画像データ値列を第b列目の中間画像のドット列とすることで、中間画像を生成する。   Based on the intermediate image data value sequences corresponding to all rows and all columns, the output image creation unit 56 integrates the intermediate image data value sequences of all rows (intermediate image) and the intermediate images of all columns. An image (intermediate image) in which the data value sequence is integrated is generated. In other words, the output image creation unit 56 generates an intermediate image by setting the intermediate image data value sequence of the a-th row as the dot sequence of the intermediate image of the a-th row. Similarly, the output image creation unit 56 generates an intermediate image by setting the b-th intermediate image data value sequence as the dot sequence of the b-th intermediate image.

中間画像を生成すると、出力画像作成部56は、生成された中間画像を元の画像(住所画像)から減算し、出力画像を生成する。即ち、出力画像作成部56は、元の画像の各ドットのデータ値から、生成された中間画像の対応するドットのデータ値を減算し、減算された値を対応するドットのデータ値とする出力画像を生成する。中間画像が幅がh以下である線のデータ値を線の両端の高さにそろえた画像であるので、出力画像は、幅がh以下である線の位置にデータ値が存在する(データ値が0でない)画像である。即ち、出力画像は、幅がh以下である線が輝度値を持つ画像である。
しがたって、出力画像は、幅がh以下である線を抽出した画像であるといえる。なお、出力画像作成部56は、行の中間画像データ値列から生成される中間画像に基づいて出力画像を生成してもよいし、列の中間画像データ値列から生成される中間画像に基づいて出力画像を生成してもよい。また、出力画像作成部56は、両者の中間画像を生成してもよい。
以上の処理によって、単独幅抽出部32は、幅がh以下である線を抽出した画像を生成することができる。
When the intermediate image is generated, the output image creation unit 56 subtracts the generated intermediate image from the original image (address image) to generate an output image. That is, the output image creation unit 56 subtracts the data value of the corresponding dot of the generated intermediate image from the data value of each dot of the original image, and outputs the subtracted value as the data value of the corresponding dot. Generate an image. Since the intermediate image is an image in which the data values of a line having a width of h or less are aligned to the heights of both ends of the line, the output image has a data value at the position of the line having a width of h or less (data value Is not 0). That is, the output image is an image in which a line having a width of h or less has a luminance value.
Therefore, it can be said that the output image is an image obtained by extracting a line having a width of h or less. The output image creation unit 56 may generate an output image based on the intermediate image generated from the intermediate image data value sequence in the row, or based on the intermediate image generated from the intermediate image data value sequence in the column. An output image may be generated. Further, the output image creation unit 56 may generate an intermediate image of both.
Through the above processing, the single width extraction unit 32 can generate an image in which a line having a width of h or less is extracted.

次に、単独幅抽出部32の動作例について説明する。
図15は、単独幅抽出部32の動作例を説明するためのフローチャートである。
まず、単独幅抽出部32は、変数aに0を代入する(ステップS51)。変数aは、単独幅抽出部32が線の幅を抽出する行を示す。
Next, an operation example of the single width extraction unit 32 will be described.
FIG. 15 is a flowchart for explaining an operation example of the single width extraction unit 32.
First, the single width extraction unit 32 substitutes 0 for the variable a (step S51). The variable a indicates a line from which the single width extraction unit 32 extracts the line width.

変数aに0を代入すると、単独幅抽出部32は、住所画像の第a行目のデータ値列を取得する(ステップS52)。即ち、単独幅抽出部32は、データ取得部51に住所画像の第a行目のすべてのデータ値を格納する。   When 0 is substituted into the variable a, the single width extraction unit 32 acquires the data value sequence in the a-th row of the address image (step S52). That is, the single width extraction unit 32 stores all data values in the a-th row of the address image in the data acquisition unit 51.

第a行目のデータ値列を取得すると、単独幅抽出部32は、第a行目について線を抽出する処理を行う(ステップS53)。ここでは、単独幅抽出部32は、幅がhの線を抽出する。線の幅を抽出する処理については後述する。   When the data value sequence of the a-th row is acquired, the single width extraction unit 32 performs a process of extracting a line for the a-th row (step S53). Here, the single width extraction unit 32 extracts a line having a width of h. The process of extracting the line width will be described later.

線を抽出する処理を行うと、単独幅抽出部32は、すべての行について線を抽出する処理を行ったか判定する(ステップS54)。即ち、複数幅抽出部31は、aが住所画像の最後の行を示す値であるかを判定する。   When the process of extracting a line is performed, the single width extracting unit 32 determines whether the process of extracting a line has been performed for all rows (step S54). That is, the multiple width extraction unit 31 determines whether a is a value indicating the last line of the address image.

すべての行について線を抽出する処理を行っていないと判定すると(ステップS54、NO)、単独幅抽出部32は、aをインクリメントする(ステップS55)。
aをインクリメントすると、単独幅抽出部32は、ステップ52へ戻る。
If it is determined that the process of extracting the lines for all the rows is not performed (step S54, NO), the single width extracting unit 32 increments a (step S55).
When a is incremented, the single width extraction unit 32 returns to Step 52.

すべての行について線を抽出する処理を行ったと判定すると(ステップS54、YES)、単独幅抽出部32は、変数bに0を代入する(ステップS56)。変数bは、複数幅抽出部31が線の幅を抽出する列を示す。   If it is determined that the process of extracting lines has been performed for all rows (step S54, YES), the single width extraction unit 32 substitutes 0 for the variable b (step S56). The variable b indicates a column from which the multiple width extraction unit 31 extracts the line width.

変数bに0を代入すると、複数幅抽出部31は、住所画像の第b列目のデータ値列を取得する(ステップS57)。即ち、複数幅抽出部31は、データ取得部51に住所画像の第b列目のすべてのデータ値を格納する。   When 0 is substituted for the variable b, the multiple width extraction unit 31 acquires the b-th data value sequence of the address image (step S57). That is, the multiple width extraction unit 31 stores all data values in the b-th column of the address image in the data acquisition unit 51.

第b列目のデータ値列を取得すると、単独幅抽出部32は、第b列目について線を抽出する処理を行う(ステップS58)。   When the b-th data value sequence is acquired, the single width extraction unit 32 performs a process of extracting a line for the b-th column (step S58).

線を抽出する処理を行うと、単独幅抽出部32は、すべての列について線を抽出する処理を行ったか判定する(ステップS59)。即ち、複数幅抽出部31は、bが住所画像の最後の列を示す値であるかを判定する。   If the process of extracting a line is performed, the single width extracting unit 32 determines whether the process of extracting a line has been performed for all columns (step S59). That is, the multiple width extraction unit 31 determines whether b is a value indicating the last column of the address image.

すべての列について線を抽出する処理を行っていないと判定すると(ステップS59、NO)、単独幅抽出部32は、bをインクリメントする(ステップS20)。
bをインクリメントすると、単独幅抽出部32は、ステップ57へ戻る。
If it is determined that the process of extracting lines for all the columns has not been performed (step S59, NO), the single width extraction unit 32 increments b (step S20).
When b is incremented, the single width extraction unit 32 returns to Step 57.

すべての列について線を抽出する処理を行ったと判定すると(ステップS59、YES)、中間画像を生成する(ステップS61)。中間画像の生成方法は、前述のとおりである。   If it is determined that the line extraction process has been performed for all the columns (step S59, YES), an intermediate image is generated (step S61). The method for generating the intermediate image is as described above.

線幅パラメータcに対応する中間画像を生成すると、単独幅抽出部32は、幅がh以下である線を抽出した出力画像を生成する(ステップS23)。即ち、複数幅抽出部31は、元の住所画像の各ドットのデータ値から中間画像の対応するドットのデータ値を減算することで、出力画像を生成する。
幅がh以下である線を抽出した出力画像を生成すると、複数幅抽出部31は、出力画像の生成動作を終了する。
When the intermediate image corresponding to the line width parameter c is generated, the single width extraction unit 32 generates an output image obtained by extracting a line whose width is equal to or less than h (step S23). That is, the multiple width extraction unit 31 generates an output image by subtracting the data value of the corresponding dot of the intermediate image from the data value of each dot of the original address image.
When the output image obtained by extracting the line whose width is equal to or smaller than h is generated, the multiple width extraction unit 31 ends the output image generation operation.

次に、単独幅抽出部32が幅がh以下である線を抽出する動作例(ステップS53及びステップS58)について説明する。
図16は、単独幅抽出部32が幅がh以下である線を抽出する動作例を説明するためのフローチャートである。
まず、単独幅抽出部32は、変数iに0を代入する。変数iは、単独幅抽出部32が注目している位置を示す。
Next, an operation example (step S53 and step S58) in which the single width extraction unit 32 extracts a line having a width of h or less will be described.
FIG. 16 is a flowchart for explaining an operation example in which the single width extraction unit 32 extracts a line whose width is equal to or less than h.
First, the single width extraction unit 32 substitutes 0 for the variable i. The variable i indicates the position that the single width extraction unit 32 is paying attention to.

変数iに0を代入すると、単独幅抽出部32は、位置「i」のデータ値であるv(i)を取得する。
v(i)を取得すると、単独幅抽出部32は、未確定バッファ部52が空であるか判定する(ステップS73)。
When 0 is substituted into the variable i, the single width extraction unit 32 acquires v (i) that is the data value of the position “i”.
When v (i) is acquired, the single width extraction unit 32 determines whether the unconfirmed buffer unit 52 is empty (step S73).

未確定バッファ部52が空でないと判定すると(ステップS73、NO)、単独幅抽出部32は、未確定バッファ部52の末尾の位置データ(位置「n」)のデータ値(v(n))がv(i)よりも小さいか判定する(ステップS74)。   If it is determined that the undetermined buffer unit 52 is not empty (step S73, NO), the single width extracting unit 32 determines the data value (v (n)) of the last position data (position “n”) of the undetermined buffer unit 52. Is smaller than v (i) (step S74).

未確定バッファ部52の末尾の位置データ(位置「n」)のデータ値(v(n))がv(i)よりも小さくないと判定すると(ステップS74、NO)、単独幅抽出部32は、未確定バッファ部52から未確定バッファ部52の末尾データ(位置「n」)を削除する(ステップS75)。
未確定バッファ部52の末尾データを削除すると、単独幅抽出部32は、ステップS73へ戻る。
If it is determined that the data value (v (n)) of the end position data (position “n”) of the unconfirmed buffer unit 52 is not smaller than v (i) (step S74, NO), the single width extraction unit 32 Then, the end data (position “n”) of the unconfirmed buffer unit 52 is deleted from the unconfirmed buffer unit 52 (step S75).
When the tail data of the undetermined buffer unit 52 is deleted, the single width extracting unit 32 returns to Step S73.

未確定バッファ部52の末尾の位置データ(位置「n」)のデータ値(v(n))がv(i)よりも小さいと判定すると(ステップS74、YES)、単独幅抽出部32は、i>hであるか判定する(ステップS76)。即ち、単独幅抽出部32は、位置「i」から幅h+1遡った位置が存在するか判定する。単独幅抽出部32は、位置「i」から幅h+1遡った位置が存在しない場合は、中間画像データ値を確定しない。   If it is determined that the data value (v (n)) of the position data (position “n”) at the end of the indeterminate buffer unit 52 is smaller than v (i) (step S74, YES), the single width extracting unit 32 It is determined whether i> h (step S76). That is, the single width extraction unit 32 determines whether there is a position that is backed by the width h + 1 from the position “i”. The single width extraction unit 32 does not determine the intermediate image data value when there is no position that is backed by the width h + 1 from the position “i”.

i>hであると判定すると(ステップS76、YES)、単独幅抽出部32は、位置「i−h−1」のデータ値(v(i−h−1))を中間画像データ値として確定データ記憶部54に格納する(ステップS77)。   If it is determined that i> h (step S76, YES), the single width extraction unit 32 determines the data value (v (i-h-1)) at the position "i-h-1" as the intermediate image data value. The data is stored in the data storage unit 54 (step S77).

未確定バッファ部52が空でないと判定すると(ステップS73、NO)、単独幅抽出部32は、i>hであるか判定する(ステップS78)。
i>hであると判定すると(ステップS78、YES)、単独幅抽出部32は、位置「i−h−1」のデータ値(v(i−h−1))がv(i)より大きいか判定する(ステップS79)。
If it is determined that the unconfirmed buffer unit 52 is not empty (step S73, NO), the single width extraction unit 32 determines whether i> h (step S78).
If it is determined that i> h (step S78, YES), the single width extraction unit 32 has a data value (v (i−h−1)) at the position “i−h−1” greater than v (i). (Step S79).

位置「i−h−1」のデータ値(v(i−h−1))がv(i)より大きくないと判定すると(ステップS79、NO)、単独幅抽出部32は、ステップS77へ進む。
位置「i−h−1」のデータ値(v(i−h−1))がv(i)より大きいと判定すると(ステップS79、YES)、単独幅抽出部32は、v(i−h−1)を、位置「i−h−1」から位置「i」までの中間画像データ値として確定データ記憶部54に格納する(ステップS80)。
If it is determined that the data value (v (i−h−1)) at the position “i−h−1” is not greater than v (i) (step S79, NO), the single width extraction unit 32 proceeds to step S77. .
If it is determined that the data value (v (i−h−1)) at the position “i−h−1” is larger than v (i) (step S79, YES), the single width extracting unit 32 determines v (i−h). -1) is stored in the confirmed data storage unit 54 as intermediate image data values from the position "i-h-1" to the position "i" (step S80).

i>hでないと判定した場合(ステップS76、NO)、データ値(v(i−h−1))を確定データ記憶部54に格納した場合(ステップS77)、i>hでないと判定した場合(ステップS78、NO)、又は、v(i−h−1)を確定データ記憶部54に格納した場合(ステップS80)、単独幅抽出部32は、位置「i」を未確定バッファ部52へ格納する(ステップS81)。   When it is determined that i> h is not satisfied (step S76, NO), when the data value (v (i−h−1)) is stored in the confirmed data storage unit 54 (step S77), when it is determined that i> h is not satisfied (Step S78, NO) or when v (i−h−1) is stored in the confirmed data storage unit 54 (Step S80), the single width extracting unit 32 transfers the position “i” to the unconfirmed buffer unit 52. Store (step S81).

位置「i」の未確定バッファ部52へ格納すると、単独幅抽出部32は、データが終了したか判定する(ステップS82)。即ち、単独幅抽出部32は、位置「i」が最後の位置座標であるか判定する。   When the data is stored in the undetermined buffer unit 52 at the position “i”, the single width extracting unit 32 determines whether the data is finished (step S82). That is, the single width extraction unit 32 determines whether the position “i” is the last position coordinate.

データが終了していないと判定する(ステップS82、NO)、単独幅抽出部32は、iをインクリメントする(ステップS83)。iをインクリメントすると、単独幅抽出部32は、ステップS72へ戻る。
データが終了したと判定すると(ステップS82、YES)、単独幅抽出部32は、幅抽出動作を終了する。
If it is determined that the data has not ended (step S82, NO), the single width extraction unit 32 increments i (step S83). When i is incremented, the single width extraction unit 32 returns to Step S72.
If it is determined that the data has ended (step S82, YES), the single width extracting unit 32 ends the width extracting operation.

パターン認識部18は、単独幅抽出部32が生成した出力画像を利用して文字を認識する。パターン認識部18が出力画像を利用して文字を認識する方法は、特定の方法に限定されるものではない。   The pattern recognition unit 18 recognizes characters using the output image generated by the single width extraction unit 32. The method by which the pattern recognition unit 18 recognizes characters using the output image is not limited to a specific method.

なお、白地に黒文字が記載されている場合、複数幅抽出部31及び単独幅抽出部32は、データ値を逆転させて幅抽出処理を行ってもよい。   When black characters are written on a white background, the multiple width extraction unit 31 and the single width extraction unit 32 may perform the width extraction process by reversing the data values.

以上のように構成されたパターン認識部は、効率的に特定の幅を持つ線から構成される文字画像(出力画像)を得ることができる。その結果、パターン認識部は、効率的に文字認識を行うことができる。   The pattern recognition unit configured as described above can efficiently obtain a character image (output image) composed of lines having a specific width. As a result, the pattern recognition unit can perform character recognition efficiently.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   Although several embodiments of the present invention have been described, these embodiments are presented by way of example and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof.

1…紙葉類処理装置(区分装置)、3…区分機本体、4…ビデオコーディングシステム、10…オペレーションパネル、10a…タイミング入力部、10b…パラメータ入力部、14…スキャナ(画像読取部)、16…区分部、18…パターン認識部(パターン認識装置)、20…パラメータ記録部(記憶部)、20a…最適化部、20b…画像記録部、22…VCD、27…表示部、28…VCS入力部(パターン入力部)、31…複数幅抽出部、32…単独幅抽出部、41…データ取得部(取得部)、42…未確定バッファ部、43…未確定バッファ操作部(処理部)、44…幅位置記憶部、45…幅位置登録部(判定部)、46…出力画像作成部(画像生成部)、51…データ取得部(取得部)、52…未確定バッファ部、53…未確定バッファ操作部(処理部)、54…確定データ記憶部、55…確定データ登録部(判定部)。 DESCRIPTION OF SYMBOLS 1 ... Paper sheet processing apparatus (sorting apparatus), 3 ... Sorting machine main body, 4 ... Video coding system, 10 ... Operation panel, 10a ... Timing input part, 10b ... Parameter input part, 14 ... Scanner (image reading part), DESCRIPTION OF SYMBOLS 16 ... Classification part, 18 ... Pattern recognition part (pattern recognition apparatus), 20 ... Parameter recording part (storage part), 20a ... Optimization part, 20b ... Image recording part, 22 ... VCD, 27 ... Display part, 28 ... VCS Input unit (pattern input unit), 31 ... multiple width extraction unit, 32 ... single width extraction unit, 41 ... data acquisition unit (acquisition unit), 42 ... indeterminate buffer unit, 43 ... indeterminate buffer operation unit (processing unit) , 44 ... Width position storage unit, 45 ... Width position registration unit (determination unit), 46 ... Output image creation unit (image generation unit), 51 ... Data acquisition unit (acquisition unit), 52 ... Unconfirmed buffer unit, 53 ... Uncertain Buffer operation unit (processor), 54 ... confirmation data storage unit, 55 ... confirmation data registration unit (determination unit).

Claims (15)

区分対象物を区分情報に基づいて区分する区分装置であって、
区分対象物を格納する供給部と、
前記供給部から搬送される区分対象物における区分情報の記載領域の画像を読取る画像読取部と、
前記供給部へ区分対象物が投入されるタイミングの入力を受け付けるタイミング入力部と、
区分対象物の区分情報となりうるパターンを認識するためのパラメータを記憶する記憶部と、
前記画像読取部が読み取った画像から前記記憶部が記憶したパラメータを用いて区分情報を構成するパターンを認識し、認識されたパターンから区分情報を認識するパターン認識部と、
前記パターン認識部が認識結果として得た区分情報に基づいて区分対象物を区分する区分部と、
前記パターン認識部が区分情報を構成するパターンを認識できなかった区分対象物の読取画像を表示する表示部と、
前記表示部が表示した区分対象物の読取画像に含まれる区分情報を構成するパターンをオペレータが入力するパターン入力部と、
前記タイミング入力部が前記タイミングの入力を受け付けてから、前記読取画像と前記読取画像の区分情報とを記録する画像記憶部と、
前記画像記憶部が前記読取画像を所定の枚数記録すると、前記画像記憶部が記録する前記読取画像と前記区分情報とに基づいて最適なパラメータを選択し、選択されたパラメータを前記記憶部にパターンを認識するためのパラメータとして格納する最適化部と、
を備える区分装置。
A sorting device for sorting sorting objects based on sorting information,
A supply unit for storing the classification object;
An image reading unit for reading an image of a description area of the sorting information in the sorting object conveyed from the supply unit;
A timing input unit for receiving an input of a timing at which the classification object is thrown into the supply unit;
A storage unit for storing a parameter for recognizing a pattern that can be classification information of the classification target;
A pattern recognition unit for recognizing a pattern constituting the division information from the image read by the image reading unit using a parameter stored in the storage unit, and recognizing the division information from the recognized pattern;
A classification unit that classifies the classification target object based on the classification information obtained as a recognition result by the pattern recognition unit;
A display unit for displaying a read image of a segmented object in which the pattern recognizing unit could not recognize a pattern constituting the segment information;
A pattern input unit in which an operator inputs a pattern constituting the segment information included in the read image of the segment object displayed by the display unit;
An image storage unit that records the read image and the classification information of the read image after the timing input unit receives the input of the timing;
When the image storage unit records a predetermined number of the read images, an optimum parameter is selected based on the read image recorded by the image storage unit and the classification information, and the selected parameter is patterned in the storage unit. An optimization unit that stores it as a parameter for recognizing
A sorting apparatus comprising:
前記区分対象物は、同一のフォーマットでパターンが記載される複数の紙葉類であって、
前記最適化部は、前記複数の紙葉類のフォーマットに応じて最適なパラメータを選択する、
前記請求項1に記載の区分装置。
The classification object is a plurality of paper sheets in which patterns are described in the same format,
The optimization unit selects an optimum parameter according to a format of the plurality of paper sheets;
The sorting apparatus according to claim 1.
前記最適化部は、前記パターン認識部が区分情報を認識する認識率が最も高くなるパラメータを最適なパラメータとして選択する、
前記請求項1又2に記載の区分装置。
The optimization unit selects, as an optimal parameter, a parameter that provides the highest recognition rate in which the pattern recognition unit recognizes segment information.
3. The sorting apparatus according to claim 1 or 2.
前記最適化部は、前記画像記憶部が記憶する複数の前記読取画像に対してパラメータを変更しながら区分情報の認識処理を行い、最も区分情報の認識率が高いパラメータを最適なパラメータとして選択する、
前記請求項1乃至3のいずれか1項に記載の区分装置。
The optimization unit performs classification information recognition processing while changing parameters for the plurality of read images stored in the image storage unit, and selects a parameter having the highest classification information recognition rate as an optimum parameter. ,
The sorting apparatus according to any one of claims 1 to 3.
前記パラメータは、二値化パラメータ、処理対象座標、文字幅パラメータ又はカラーパラメータのいずれかを含む、
前記請求項1乃至4のいずれか1項に記載の区分装置。
The parameters include any of binarization parameters, processing target coordinates, character width parameters, or color parameters.
The sorting apparatus according to any one of claims 1 to 4.
さらに、
オペレータがパラメータを入力するパラメータ入力部を備え、
前記記憶部は、前記オペレータが前記パラメータ入力部に入力した前記パラメータを記憶する、
前記請求項1乃至5のいずれか1項に記載の区分装置。
further,
A parameter input unit is provided for the operator to input parameters,
The storage unit stores the parameters input by the operator to the parameter input unit.
The sorting apparatus according to any one of claims 1 to 5.
前記パターンは、文字であって、
前記区分情報は、住所情報である、
前記請求項1乃至6のいずれか1項に記載の区分装置。
The pattern is a character,
The division information is address information.
The sorting apparatus according to any one of claims 1 to 6.
パターンを認識するパターン認識装置であって、
パターンが記載されるパターン画像の所定の1行又は1列の画像信号値を示すデータ値列を取得する取得部と、
前記取得部が取得するデータ値列の中から線開始位置を抽出する処理部と、
前記処理部が抽出した前記線開始位置を示すデータを格納する未確定バッファ部と、
前記未確定バッファ部が格納する前記線開始位置に基づいて、前記データ値列から線の場所を判定する判定部と、
を備えるパターン認識装置。
A pattern recognition device for recognizing a pattern,
An acquisition unit that acquires a data value sequence indicating an image signal value of a predetermined row or column of a pattern image in which a pattern is described;
A processing unit for extracting a line start position from the data value sequence acquired by the acquisition unit;
An undetermined buffer unit for storing data indicating the line start position extracted by the processing unit;
A determination unit that determines the location of a line from the data value sequence based on the line start position stored in the unconfirmed buffer unit;
A pattern recognition apparatus comprising:
前記判定部が判定した線の場所に基づいて、所定の幅を持つ線を抽出した出力画像を生成する画像生成部を備える、
前記請求項8に記載のパターン認識装置。
An image generation unit that generates an output image obtained by extracting a line having a predetermined width based on the location of the line determined by the determination unit;
The pattern recognition apparatus according to claim 8.
前記画像生成部は、前記判定部が判定した線の場所に基づいて、前記パターン画像の線のデータ値を、線のデータ値を線の両端のうちデータ値の大きい値に書き換えた中間画像を生成し、生成された前記中間画像のデータ値を前記パターン画像のデータ値から減算して出力画像を生成する、
前記請求項9に記載のパターン認識装置。
The image generation unit rewrites the data value of the line of the pattern image based on the line location determined by the determination unit, and rewrites the intermediate image by rewriting the data value of the line to a value having a larger data value at both ends of the line. Generating an output image by subtracting the data value of the generated intermediate image from the data value of the pattern image;
The pattern recognition apparatus according to claim 9.
前記処理部は、前記判定部が注目している注目位置との間により小さいデータ値を持つ位置が存在しない位置を、線開始位置をとして抽出し、
前記判定部は、前記注目位置に隣接しない線開始位置と前記注目位置との間に線があると判定する、
前記請求項8乃至10のいずれか1項に記載のパターン認識装置。
The processing unit extracts, as a line start position, a position where there is no position having a smaller data value between the target position that the determination unit is paying attention to,
The determination unit determines that there is a line between a line start position that is not adjacent to the target position and the target position;
The pattern recognition apparatus according to any one of claims 8 to 10.
前記処理部は、前記判定部が注目している注目位置との間により小さいデータ値を持つ位置が存在せず、かつ、注目位置から抽出される線の幅分座標を遡った線候補位置との間により小さいデータ値を持つ位置が存在する位置を、線開始位置として抽出し、
前記判定部は、前記未確定バッファ部が空である又は注目位置のデータ値が前記未確定バッファ部が格納する位置データが示す位置のデータ値より小さい場合であって、かつ、前記線候補位置から1つ座標を遡った位置のデータ値が前記注目位置のデータ値よりも大きい場合に、前記線候補位置から前記注目位置までの間に線があると判定する、
前記請求項8乃至10のいずれか1項に記載のパターン認識装置。
The processing unit does not have a position having a smaller data value between the target position that the determination unit is paying attention to, and the line candidate position traces the coordinates of the width of the line extracted from the target position; The position where a position with a smaller data value exists between is extracted as the line start position,
The determination unit is the case where the unconfirmed buffer unit is empty or the data value of the target position is smaller than the data value of the position indicated by the position data stored in the unconfirmed buffer unit, and the line candidate position Determining that there is a line between the line candidate position and the target position when the data value of the position retroactive to one coordinate is larger than the data value of the target position;
The pattern recognition apparatus according to any one of claims 8 to 10.
前記判定部は、注目位置を複数設定する、
前記請求項11又は12に記載のパターン認識装置。
The determination unit sets a plurality of positions of interest;
The pattern recognition apparatus according to claim 11 or 12.
前記画像信号値は、輝度値である、
前記請求項8乃至13のいずれか1項に記載のパターン認識装置。
The image signal value is a luminance value.
The pattern recognition apparatus according to any one of claims 8 to 13.
前記パターンは、文字である、
前記請求項8乃至14のいずれか1項に記載のパターン認識装置。
The pattern is a character.
The pattern recognition device according to claim 8.
JP2013057018A 2013-03-19 2013-03-19 Sorting device and pattern recognition device Pending JP2014182618A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013057018A JP2014182618A (en) 2013-03-19 2013-03-19 Sorting device and pattern recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013057018A JP2014182618A (en) 2013-03-19 2013-03-19 Sorting device and pattern recognition device

Publications (1)

Publication Number Publication Date
JP2014182618A true JP2014182618A (en) 2014-09-29

Family

ID=51701266

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013057018A Pending JP2014182618A (en) 2013-03-19 2013-03-19 Sorting device and pattern recognition device

Country Status (1)

Country Link
JP (1) JP2014182618A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017225969A (en) * 2016-06-16 2017-12-28 株式会社東芝 Delivery processor, delivery processing method and delivery processing program
US10235564B2 (en) 2016-06-16 2019-03-19 Kabushiki Kaisha Toshiba Delivery handling apparatus, delivery handling method, and delivery handling program
JP2019109729A (en) * 2017-12-19 2019-07-04 株式会社東芝 Classification device and classification system

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09239327A (en) * 1996-03-11 1997-09-16 Toshiba Corp Postal items processing device
JP2000293626A (en) * 1999-04-09 2000-10-20 Nec Corp Method and device for recognizing character and storage medium
JP2001250083A (en) * 2000-03-03 2001-09-14 Toshiba Corp Device and method for reading and dividing mall address

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09239327A (en) * 1996-03-11 1997-09-16 Toshiba Corp Postal items processing device
JP2000293626A (en) * 1999-04-09 2000-10-20 Nec Corp Method and device for recognizing character and storage medium
JP2001250083A (en) * 2000-03-03 2001-09-14 Toshiba Corp Device and method for reading and dividing mall address

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017225969A (en) * 2016-06-16 2017-12-28 株式会社東芝 Delivery processor, delivery processing method and delivery processing program
US10235564B2 (en) 2016-06-16 2019-03-19 Kabushiki Kaisha Toshiba Delivery handling apparatus, delivery handling method, and delivery handling program
JP2021169088A (en) * 2016-06-16 2021-10-28 株式会社東芝 Delivery processor, delivery processing method and delivery processing program
JP2022140466A (en) * 2016-06-16 2022-09-26 株式会社東芝 Delivery processor, delivery processing method and delivery processing program
JP7143488B2 (en) 2016-06-16 2022-09-28 株式会社東芝 Delivery processing device, delivery processing method, and delivery processing program
JP2019109729A (en) * 2017-12-19 2019-07-04 株式会社東芝 Classification device and classification system

Similar Documents

Publication Publication Date Title
JP4580233B2 (en) Mail identification tag with image signature and associated mail handler
US5880451A (en) System and method for OCR assisted bar code decoding
JP5105561B2 (en) Method for processing mail pieces using client code associated with digital imprint
JP4796080B2 (en) Mail sorting method and sorting apparatus by detecting occurrence of OCR attribute
JP2008529761A5 (en)
EP2851846A2 (en) Sorting device and sorting method
JP2017016549A (en) Character recognition device, character recognition method, and program
US9101961B2 (en) Word recognition apparatus, word recognition method, non-transitory computer readable medium storing word recognition program, and delivery item sorting apparatus
US9805062B2 (en) Address recognition apparatus, sorting apparatus, integrated address recognition apparatus and address recognition method
JP2014182618A (en) Sorting device and pattern recognition device
JP2008033851A (en) Mail automatic sorter and mail automatic sorting method
US9221283B1 (en) Determination apparatus and determination method for determining reusability of sheet
KR20110104880A (en) Address database update apparatus and address database update method
JP5992206B2 (en) Pattern recognition dictionary learning device, pattern recognition device, coding device, sorting device, and pattern recognition dictionary learning method
JPWO2009110538A1 (en) Shipment sorting apparatus, shipment sorting method, program, and computer-readable recording medium
JP2012252657A (en) Business form identification system, business form identification method and business form processing program
JP2009146245A (en) Image comparing method, apparatus and program
JP6976158B2 (en) Sorting device and sorting system
JP2018111082A (en) Division system, recognition support device, recognition support method, and recognition support program
JP2014232436A (en) Delivery information management server and delivery information management system
WO2022190900A1 (en) Image processing apparatus, program, and system
JP7087971B2 (en) Image processing equipment, image processing methods, and image processing programs
KR20060065061A (en) Apparatus for sorting post using a postal image characteristic
JPH07334610A (en) Optical character reader
JP2015155077A (en) Paper sorting device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150904

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160727

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160802

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160927

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161115

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170606