JP2003256851A - Image position detection method - Google Patents

Image position detection method

Info

Publication number
JP2003256851A
JP2003256851A JP2002059124A JP2002059124A JP2003256851A JP 2003256851 A JP2003256851 A JP 2003256851A JP 2002059124 A JP2002059124 A JP 2002059124A JP 2002059124 A JP2002059124 A JP 2002059124A JP 2003256851 A JP2003256851 A JP 2003256851A
Authority
JP
Japan
Prior art keywords
image
point
edge
hough
symbol string
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002059124A
Other languages
Japanese (ja)
Other versions
JP4079346B2 (en
Inventor
Kazutoshi Ukai
和歳 鵜飼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Glory Ltd
Original Assignee
Glory Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Glory Ltd filed Critical Glory Ltd
Priority to JP2002059124A priority Critical patent/JP4079346B2/en
Publication of JP2003256851A publication Critical patent/JP2003256851A/en
Application granted granted Critical
Publication of JP4079346B2 publication Critical patent/JP4079346B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To detect in a short period of time the position of a symbol string such as a digit string or a character string whose pattern changes one by one without using any addition code. <P>SOLUTION: The images of ten kinds of digit strings ranging from '000000', '111111' to α999999' are obtained as reference images, and then an edge is detected in each obtained reference image, and an R table in which a vector from the detected edge point to the central point of the symbol string is stored in each edge direction is prepared. The R tables prepared for each reference image are compounded into one by thinning out the data of the edge points where the edge directions and the vector values are overlapped, and an input image is Hough-transformed by using the compounded R table, so that the position of the symbol string can be detected. <P>COPYRIGHT: (C)2003,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】この発明は、画像位置検出方
法に関し、特に、ナンバリングスタンプ等により印字さ
れカウントアップするごとにパターンの変化する数字、
アルファベット等からなる記号列の印字位置を検出する
画像位置検出方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image position detecting method, and more particularly, to a number which is printed by a numbering stamp or the like and whose pattern changes each time the count is incremented.
The present invention relates to an image position detecting method for detecting a print position of a symbol string including alphabets and the like.

【0002】[0002]

【従来の技術】現在、手形、小切手に印字される取立番
号の位置検出は行われておらず、通常、取立番号のよう
に1つ1つパターンの変化する記号列の位置検出には、
記号列に付加的な記号を加え、この付加的な記号をキー
として記号列の位置を検出するといった手法が考えられ
る例えば、手形、小切手に押印される取立番号の場合、
図5に示すように、前後に「*」といった特徴のあるキ
ーワードを付加し、このキーワードの位置を検出するこ
とにより取立番号の数字列の位置を検出するといった手
法が考えられる。
2. Description of the Related Art Currently, the position of a collection number printed on a bill or a check is not detected. Normally, the position of a symbol string in which a pattern changes one by one like a collection number is detected.
A method of adding an additional symbol to the symbol string and detecting the position of the symbol string using this additional symbol as a key is conceivable, for example, in the case of a collection number stamped on a bill or check,
As shown in FIG. 5, a method of adding a characteristic keyword such as “*” before and after and detecting the position of this keyword to detect the position of the numeral string of the collection number can be considered.

【0003】また、通常、記号列の位置検出は、参照画
像と入力画像とを比較する(マッチングする)ことによ
り行われ、この参照画像と入力画像の比較には、一般化
ハフ変換が一般的に用いられる。この一般化ハフ変換
は、入力画像中の背景絵柄や検出対象の欠損やかすれ等
の影響を受けにくく、正確な位置検出を行うことがで
き、さらに、検出対象が傾いていたり、大きさが異なっ
ていても検出可能であり、有用な手法である。
Further, usually, the position detection of the symbol string is performed by comparing (matching) the reference image with the input image, and the generalized Hough transform is generally used for the comparison between the reference image and the input image. Used for. This generalized Hough transform is not easily affected by the background pattern in the input image and the loss or blurring of the detection target, and can perform accurate position detection. Furthermore, the detection target is tilted or has a different size. However, it is a useful method.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、付加的
な記号をキーワードとして用いる手法では、広範囲の用
途に使用することが難しい。一方、付加的な記号を用い
ない場合、考えられる全てのパターンについて参照画像
を用意し、マッチングを行わなければならず、膨大な手
間と時間がかかり現実的ではない。例えば、手形の取立
番号等のナンバリングスタンプにより押印された6桁の
数字列の位置を検出する場合、ナンバリングスタンプは
押印するごとにカウントアップしていくため、数字列は
1つ1つパターンの異なったものとなり、「00000
0」から「999999」までの1000000通りの
全ての数字列を参照画像として入力画像とのマッチング
を行わなければならず、膨大な時間がかかり現実的では
なかった。
However, the method of using the additional symbols as keywords is difficult to use for a wide range of purposes. On the other hand, when the additional symbols are not used, it is necessary to prepare reference images for all possible patterns and perform matching, which is enormous and time-consuming and not realistic. For example, when detecting the position of a 6-digit number string imprinted with a numbering stamp such as a bill collection number, the numbering stamp counts up each time it is imprinted, so each number string has a different pattern. It will be "0000"
Matching with the input image must be performed by using all 1,000,000 number strings from "0" to "999999" as reference images, which takes a huge amount of time and is not realistic.

【0005】また、特開平5−151390号公報で
は、みかん箱等に印字された等階級印字文字(優・秀・
S・Lなど)の認識に際して、認識対象領域を決定する
ために、入力画像から定められた参照パターンを検出し
ているが、手形や小切手の取立番号のように、1つ1つ
のパターンが変化する記号列の位置検出には適切ではな
い。
Further, in Japanese Unexamined Patent Publication No. 5-151390, the characters of equal rank printed on a mandarin orange box or the like (excellent
When recognizing (S, L, etc.), a reference pattern determined from the input image is detected in order to determine the recognition target area, but each pattern changes, such as the collection number of a bill or check. Is not suitable for detecting the position of a symbol string.

【0006】そこで、この発明は、1つ1つパターンの
変化する数字列や文字列等の記号列の位置を、付加符号
を用いることなく短時間で検出できる画像位置検出方法
を提供することを目的とする。
Therefore, the present invention provides an image position detecting method capable of detecting the position of a symbol string such as a number string or a character string whose pattern changes one by one in a short time without using an additional code. To aim.

【0007】[0007]

【課題を解決するための手段】上述した目的を達成する
ため、請求項1記載の発明は、所定のフォーマットでか
つ所定の桁数の記号列の位置を検出する画像位置検出方
法において、使用される全ての記号について同一記号か
ら成る前記所定の桁数の記号列の画像を参照画像として
登録する参照画像登録工程と、前記参照画像登録工程で
登録された複数の参照画像のそれぞれについて、各エッ
ジ点から所定の基準点へのベクトルをエッジ方向ごとに
格納したRテーブルを作成するRテーブル作成登録工程
と、前記Rテーブル作成登録工程で登録された全てのR
テーブルをエッジ方向とベクトル値とが重複するエッジ
点のデータを間引いて1つに合成した合成Rテーブルを
作成する合成Rテーブル作成工程と、前記合成Rテーブ
ルを用いて入力画像をハフ変換し、ハフ平面上の最大値
をとる点を該入力画像上における前記記号列の位置の基
準点として検出する画像位置検出工程とを含むことを特
徴とする。
In order to achieve the above object, the invention according to claim 1 is used in an image position detecting method for detecting the position of a symbol string having a predetermined format and a predetermined number of digits. Reference image registration step of registering an image of the symbol string of the same number of digits consisting of the same symbol as a reference image for all the symbols, and each of the plurality of reference images registered in the reference image registration step, each edge R table creation and registration step of creating an R table in which a vector from a point to a predetermined reference point is stored for each edge direction, and all Rs registered in the R table creation and registration step
A composite R table creating step of creating a composite R table by thinning out data of edge points where the table overlaps edge directions and vector values, and Hough transforming an input image using the composite R table; An image position detecting step of detecting a point having the maximum value on the Huff plane as a reference point of the position of the symbol string on the input image.

【0008】また、請求項2記載の発明は、請求項1記
載の発明において、前記参照画像登録工程は、「0」か
ら「9」までの全ての数字について同一数字から成る前
記所定の桁数の数字列を参照画像として登録することを
特徴とする。
According to a second aspect of the present invention, in the first aspect of the invention, the reference image registration step includes the predetermined number of digits consisting of the same number for all numbers from "0" to "9". Is registered as a reference image.

【0009】また、請求項3記載の発明は、所定のフォ
ーマットでかつ所定の桁数の記号列の位置を検出する画
像位置検出方法において、各桁位置において互いに同一
記号が重複せず、かつ、重ね合わせたときに各桁位置に
おいて使用される全ての記号が網羅される複数の記号列
の画像を、それぞれ参照画像として登録する参照画像登
録工程と、前記参照画像登録工程で登録された複数の参
照画像のそれぞれについて、各エッジ点から所定の基準
点へのベクトルをエッジ方向ごとに格納したRテーブル
を作成するRテーブル作成登録工程と、前記Rテーブル
作成登録工程で登録された全てのRテーブルをエッジ方
向とベクトル値とが重複するエッジ点のデータを間引い
て1つに合成した合成Rテーブルを作成する合成Rテー
ブル作成工程と、前記合成Rテーブルを用いて入力画像
をハフ変換し、ハフ平面上の最大値をとる点を該入力画
像上における前記記号列の位置の基準点として検出する
画像位置検出工程とを含むことを特徴とする。
According to the third aspect of the invention, in the image position detecting method for detecting the position of the symbol string having a predetermined format and a predetermined number of digits, the same symbols do not overlap each other at each digit position, and Images of a plurality of symbol strings covering all symbols used at each digit position when superposed, a reference image registration step of respectively registering as a reference image, a plurality of registered in the reference image registration step For each of the reference images, an R table creation registration step of creating an R table that stores a vector from each edge point to a predetermined reference point for each edge direction, and all R tables registered in the R table creation registration step. A combined R table creating step of creating a combined R table by thinning out the data of edge points where the edge direction and the vector value overlap with each other, The image position detection step of Hough-transforming the input image using the composition R table and detecting the point having the maximum value on the Hough plane as a reference point of the position of the symbol string on the input image. And

【0010】また、請求項4記載の発明は、請求項1お
よび請求項3記載の発明において、前記合成Rテーブル
を幾何学変換して回転角のステップ数および拡大縮小の
ステップ数分の合成Rテーブルを作成する合成Rテーブ
ル幾何学変換工程をさらに含み、前記画像位置検出工程
は、前記合成Rテーブル幾何学変換工程により作成され
た複数の合成Rテーブルのそれぞれについて前記入力画
像をハフ変換し、得られた複数のハフ平面のうちの最大
値が最も大きいハフ平面を適合ハフ平面として検出し、
該適合ハフ平面上の最大値をとる点を前記基準点として
検出することを特徴とする。
According to a fourth aspect of the present invention, in the first and third aspects of the present invention, the combined R table is geometrically transformed to obtain a combined R corresponding to the number of steps of the rotation angle and the number of steps of scaling. The method further includes a combined R table geometry conversion step of creating a table, wherein the image position detection step Hough-converts the input image for each of the plurality of combined R tables created by the combination R table geometry conversion step, Among the obtained Hough planes, the Huff plane with the largest maximum value is detected as the matching Huff plane,
The point having the maximum value on the adaptive Hough plane is detected as the reference point.

【0011】[0011]

【発明の実施の形態】以下、この発明に係わる画像位置
検出方法の実施の形態を添付図面を参照して詳細に説明
する。
BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of an image position detecting method according to the present invention will be described in detail below with reference to the accompanying drawings.

【0012】この例では、特に、認識対象画像中からナ
ンバリングスタンプにより押印された6桁の数字列の位
置を検出する方法を例に説明する。
In this example, a method for detecting the position of a 6-digit number string imprinted with a numbering stamp from an image to be recognized will be described as an example.

【0013】図1は、サンプル画像から参照画像を切り
出し、Rテーブルを作成するまでの過程を説明する図で
ある。
FIG. 1 is a diagram for explaining a process of cutting out a reference image from a sample image and creating an R table.

【0014】図1において、まず、ナンバリングスタン
プにより押印された「0」から「9」までの同一数字か
ら成る6桁、10種の数字列、すなわち、「00000
0」、「111111」、・・・、「999999」の
10種の数字列の画像を、参照画像として得る。なお、
この10種の参照画像は、参照画像中の数字列の位置が
各参照画像で同一となるように切り出される。図1
(a)に各参照画像の例を示す。
In FIG. 1, first, a 6-digit, 10-type numeric string consisting of the same numbers "0" to "9" imprinted by a numbering stamp, that is, "00000".
Images of 10 kinds of numeral strings of "0", "111111", ..., "999999" are obtained as reference images. In addition,
The ten types of reference images are cut out so that the positions of the number strings in the reference images are the same in each reference image. Figure 1
An example of each reference image is shown in (a).

【0015】続いて、得られた各参照画像をそれぞれ2
次微分し、この2次微分値がゼロとなる点、すなわちゼ
ロクロス点を求め、求めたゼロクロス点に対応する位置
の画像情報のみを1次微分してエッジ強度、エッジ方向
を演算し、各参照画像のエッジ点を決定する。そして、
各エッジ点のエッジ方向を示すエッジ方向画像を各参照
画像ごとに作成する。図1(b)に各参照画像ごとに作
成したエッジ方向画像の例を示す。
Then, each of the obtained reference images is set to 2
Second-order differentiation is performed to find a point where this second-order differential value becomes zero, that is, a zero-cross point, and only the image information of the position corresponding to the obtained zero-cross point is first-order differentiated to calculate the edge strength and the edge direction, and each reference Determine the edge points of the image. And
An edge direction image indicating the edge direction of each edge point is created for each reference image. FIG. 1B shows an example of the edge direction image created for each reference image.

【0016】このエッジ方向画像は、例えば、エッジの
方向に対応して画素の濃度を階調化した画像として作成
する。図1(b)では、エッジ方向を12度毎に30方
向に分割し、モノクロ256階調(黒を0、白を25
5)においてエッジ方向12度毎に濃度差を5階調毎と
して表現しており、エッジ方向0度を黒(0)、12度
を黒(5)、・・・、348度を黒(145)と表現し
ている。また、エッジ無しは白(255)と表現してい
る。なお、エッジ方向の分割数、エッジ方向ごとの濃度
差は、上記に限らず適宜選択すればよい。
This edge direction image is created, for example, as an image in which the density of the pixel is gradation-graded corresponding to the edge direction. In FIG. 1B, the edge direction is divided into 30 directions at intervals of 12 degrees, and monochrome 256 gradations (black is 0 and white is 25).
In 5), the density difference is expressed every 5 gradations every 12 degrees in the edge direction, and 0 degrees in the edge direction is black (0), 12 degrees is black (5), ..., 348 degrees is black (145). ). In addition, no edge is expressed as white (255). The number of divisions in the edge direction and the density difference for each edge direction are not limited to the above, and may be appropriately selected.

【0017】続いて、得られたエッジ方向画像に基づい
て、各参照画像ごとにRテーブルを作成する。ここで、
Rテーブルとは、エッジ方向をインデックスとして各エ
ッジ点から参照画像の基準点(この実施例では中心点)
までのベクトル(Xki、Ykj)を記述した表であ
る。
Next, an R table is created for each reference image based on the obtained edge direction image. here,
The R table is a reference point (center point in this embodiment) of the reference image from each edge point using the edge direction as an index.
Is a table describing vectors (Xki, Ykj) up to.

【0018】ここまでの処理により、各参照画像のそれ
ぞれに対応する10個のRテーブルが作成される(図1
(c))。この10個のRテーブルを、同一エッジ方向
かつ同一座標のエッジ点のデータを間引き、1つのRテ
ーブルに合成する(図1(d))。以下、この1つに合
成されたRテーブルを「合成Rテーブル」という。
By the processing up to this point, 10 R tables corresponding to each reference image are created (see FIG. 1).
(C)). Data of edge points having the same edge direction and the same coordinates is thinned out from these 10 R tables and combined into one R table (FIG. 1D). Hereinafter, the R table combined into this one is referred to as a “composite R table”.

【0019】すなわち、合成Rテーブルは、「0000
00」から「999999」までの10種の参照画像を
重ね合わせた画像から得られるRテーブル、つまり、各
桁位置において「0」から「9」までの全数字種の情報
を有する6桁の記号列の画像に対応するRテーブルに相
当する。したがって、参照画像は、上記の「00000
0」から「999999」までの10個の数字列に限ら
ず、重ね合わせた結果各桁位置で「0」から「9」まで
の全数字種の情報を有する画像を生成できるものであれ
ばよい。
That is, the combined R table is "0000.
R table obtained from images in which 10 types of reference images from "00" to "999999" are superimposed, that is, a 6-digit symbol having information of all numeric types from "0" to "9" at each digit position It corresponds to the R table corresponding to the image of the row. Therefore, the reference image is “00000” above.
The number string is not limited to 10 from “0” to “999999”, and any string can be generated as a result of superimposing an image having information of all number types from “0” to “9” at each digit position. .

【0020】続いて、合成Rテーブルを幾何学変換し、
回転角のステップ数×拡大縮小のステップ数個分のRテ
ーブルを作成する(図1(e))。例えば、回転角を
0.5度毎に±15度まで考えた場合、61個のRテー
ブルが作成される。拡大縮小についても回転角と同様に
ステップ数に応じたRテーブルを作成するが、ここでは
拡大縮小はないものとし、したがって、1つの合成Rテ
ーブルから61(回転角のステップ数)×1(拡大縮小
のステップ数)=61個のRテーブルが作成される。以
下、この幾何学変換によって得られる複数個のRテーブ
ルを幾何学変換Rテーブルという。
Then, the composite R table is geometrically transformed,
R tables corresponding to the number of steps of the rotation angle × the number of steps of scaling are created (FIG. 1 (e)). For example, when the rotation angle is considered to be ± 15 degrees at every 0.5 degrees, 61 R tables are created. Similarly to the rotation angle, an R table corresponding to the number of steps is also created for the enlargement / reduction. However, it is assumed that there is no enlargement / reduction here. The number of reduction steps) = 61 R tables are created. Hereinafter, a plurality of R tables obtained by this geometric conversion will be referred to as geometric conversion R tables.

【0021】次に、上記のように1つの合成Rテーブル
から作成された複数個の幾何学変換Rテーブルを用い
て、入力画像からナンバリングスタンプにより押下され
た6桁の数字列の位置を検出する工程について説明す
る。
Next, the position of the 6-digit number string pressed by the numbering stamp is detected from the input image using the plurality of geometric conversion R tables created from one composite R table as described above. The steps will be described.

【0022】図2は、幾何学変換Rテーブルを用いて入
力画像からハフ平面を作成する際の処理の流れを説明す
るフローチャートであり、図3は、入力画像およびその
エッジ画像の一例を示す図である。
FIG. 2 is a flowchart for explaining the flow of processing when creating a Huff plane from an input image using the geometric transformation R table, and FIG. 3 is a diagram showing an example of the input image and its edge image. Is.

【0023】まず、入力画像(図3(a))のエッジ点
を求め、エッジ方向画像(図3(b))を作成する(ス
テップ101)。続いて、この入力画像から作成したエ
ッジ方向画像に幾何学変換Rテーブルを1つずつ適用
し、ハフ変換を行う(ステップ102)。このハフ変換
を全幾何学変換Rテーブルについて行い(ステップ10
3)、回転角のステップ数×拡大縮小のステップ数枚の
ハフ平面を作成する。作成した回転角のステップ数×拡
大縮小のステップ数枚のハフ平面のそれぞれにおいてハ
フ平面上の最大値を求め、この最大値が最も大きいハフ
平面を適合ハフ平面とする(ステップ104)。この適
合ハフ平面上で最大値をとる点が検出対象記号列の中心
点であり、また、この適合ハフ平面によって検出対象記
号列の回転角および拡大縮小率が決定する(ステップ1
05)。
First, the edge points of the input image (FIG. 3A) are obtained, and the edge direction image (FIG. 3B) is created (step 101). Then, the geometric conversion R tables are applied to the edge direction images created from this input image one by one, and Hough conversion is performed (step 102). This Hough transformation is performed for all geometric transformation R tables (step 10
3) Create Hough planes with the number of rotation angle steps x the number of scaling steps. The maximum value on the Huff plane is obtained in each of the created Hough planes of the number of steps of the rotation angle × the number of steps of scaling, and the Huff plane having the largest maximum value is set as the adapted Huff plane (step 104). The point having the maximum value on this adaptive Huff plane is the center point of the detection target symbol string, and the rotation angle and the enlargement / reduction rate of the detection target symbol string are determined by this adaptive Huff plane (step 1).
05).

【0024】図4は、複数の幾何学変換Rテーブルによ
り得られた複数のハフ平面のうちの最も大きい最大値を
有するハフ平面(適合ハフ平面)と、この適合ハフ平面
によって目的の記号列の位置が検出された入力画像の一
例を示す図である。
FIG. 4 shows a Huff plane having the largest maximum value among a plurality of Hough planes obtained by a plurality of geometric transformation R tables (adapted Huff plane) and a target symbol string by the adapted Huff plane. It is a figure which shows an example of the input image in which the position was detected.

【0025】図4(a)は、適合ハフ平面の一例を示
し、点線で囲った部分(の中心の画素)が最大値をとる
点である。この適合ハフ平面と入力画像とを比較するこ
とにより、図4(b)において点線で囲った部分(の中
心の画素)が検出対象の記号列の中心点として検出さ
れ、さらに、適合ハフ平面が有する回転角の情報に基づ
いて、一点鎖線で囲った部分が入力画像上の記号列の位
置として検出される。
FIG. 4A shows an example of the adaptive Hough plane, in which the portion surrounded by the dotted line (the pixel at the center thereof) takes the maximum value. By comparing this adaptive Hough plane with the input image, the portion surrounded by the dotted line in FIG. 4B (the pixel at the center) is detected as the center point of the symbol string to be detected, and the adaptive Huff plane is further determined. The portion surrounded by the alternate long and short dash line is detected as the position of the symbol string on the input image based on the information about the rotation angle.

【0026】このような手法によれば、考えられる全て
の組み合わせをマッチングする手法に比べ、処理時間
が、 (1/C)×(C−a) C:記号の種類の数、n:桁数、a:特徴量の重なり に減少する。
According to such a method, the processing time is (1 / C n ) × (C−a) C: the number of types of symbols, and n: a digit as compared with the method of matching all possible combinations. Number, a: Decreases due to overlapping of feature quantities.

【0027】例えば、4桁の数字列の位置を検出したい
場合、「0000」〜「9999」までの10種類の特
徴を重ね合わせた参照画像1枚と入力画像とのマッチン
グを行えばよいため、考えられる全ての組み合わせをマ
ッチングする手法に比べ、 (1/10000)×(10−a) の処理時間の減少となり、約1000倍の高速化が実現
できる。
For example, when it is desired to detect the position of a four-digit number string, it is sufficient to perform matching between one input reference image and ten reference images in which ten types of characteristics "0000" to "9999" are superimposed. Compared to the method of matching all possible combinations, the processing time is reduced by (1/10000) × (10-a), and the speedup of about 1000 times can be realized.

【0028】なお、上記の実施例では、数字列を例に説
明したが、例えば、車のナンバー等のアルファベットや
その他の記号を含む記号列にも本発明は適用できる。
In the above embodiment, the number string is described as an example, but the present invention can be applied to a symbol string including alphabets such as car numbers and other symbols.

【0029】[0029]

【発明の効果】以上説明したように、この発明によれ
ば、同一記号から成る記号列の画像を使用する記号数分
だけ参照画像として得、得られた参照画像のそれぞれに
ついてエッジ点を検出し、エッジ方向をインデックスと
して各エッジ点から前記参照画像の中心点までのベクト
ルを記述したRテーブルを各参照画像ごとに作成し、こ
の各参照画像ごとのRテーブルを、エッジ方向とベクト
ル値とが重複するエッジ点のデータを間引いて1つに合
成した合成Rテーブルを作成し、この合成Rテーブルを
用いて入力画像をハフ変換してハフ平面上の最大値を検
出対象の記号列の中心点として検出するので、任意の記
号列が存在する位置を正確かつ高速に検出できる。
As described above, according to the present invention, the images of the symbol string consisting of the same symbols are obtained as many as the reference images, and the edge points are detected for each of the obtained reference images. , An R table in which a vector from each edge point to the center point of the reference image is described using the edge direction as an index is created for each reference image, and the R table for each reference image is stored with the edge direction and the vector value. A composite R table is created by decimating the data of overlapping edge points into a single composite R table, and using this composite R table, the input image is Hough-transformed and the maximum value on the Hough plane is detected as the center point of the symbol string to be detected. Therefore, the position where an arbitrary symbol string exists can be detected accurately and at high speed.

【図面の簡単な説明】[Brief description of drawings]

【図1】参照画像から合成Rテーブルを作成するまでの
流れを説明する図である。
FIG. 1 is a diagram illustrating a flow from creating a combined R table from a reference image.

【図2】この発明に係わる画像位置検出処理の流れを説
明するフローチャートである。
FIG. 2 is a flowchart illustrating a flow of image position detection processing according to the present invention.

【図3】入力画像とそのエッジ方向画像の一例を示す図
である。
FIG. 3 is a diagram showing an example of an input image and its edge direction image.

【図4】最大値を有するハフ平面とこのハフ平面により
検出された入力画像上の記号列の位置の一例を示す図で
ある。
FIG. 4 is a diagram showing an example of a Huff plane having a maximum value and a position of a symbol string on the input image detected by the Huff plane.

【図5】付加記号の付いた記号列の一例を示す図であ
る。
FIG. 5 is a diagram showing an example of a symbol string with additional symbols.

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 所定のフォーマットでかつ所定の桁数の
記号列の位置を検出する画像位置検出方法において、 使用される全ての記号について同一記号から成る前記所
定の桁数の記号列の画像を参照画像として登録する参照
画像登録工程と、 前記参照画像登録工程で登録された複数の参照画像のそ
れぞれについて、各エッジ点から所定の基準点へのベク
トルをエッジ方向ごとに格納したRテーブルを作成する
Rテーブル作成登録工程と、 前記Rテーブル作成登録工程で登録された全てのRテー
ブルをエッジ方向とベクトル値とが重複するエッジ点の
データを間引いて1つに合成した合成Rテーブルを作成
する合成Rテーブル作成工程と、 前記合成Rテーブルを用いて入力画像をハフ変換し、ハ
フ平面上の最大値をとる点を該入力画像上における前記
記号列の位置の基準点として検出する画像位置検出工程
とを含むことを特徴とする画像位置検出方法。
1. An image position detecting method for detecting the position of a symbol string having a predetermined format and a predetermined number of digits, wherein an image of the symbol string having the predetermined number of digits, which consists of the same symbols for all the symbols used, For each of the reference image registration step of registering as a reference image and each of the plurality of reference images registered in the reference image registration step, an R table in which a vector from each edge point to a predetermined reference point is stored for each edge direction is created. R table creation / registration step, and all R tables registered in the R table creation / registration step are thinned out to create a combined R table by thinning out data of edge points whose edge direction and vector value overlap. A step of creating a composite R table, and Hough transforming the input image using the composite R table, and setting a point having the maximum value on the Hough plane on the input image. Image position detecting method characterized by comprising the image position detecting step of detecting a reference point of the position of the symbol string.
【請求項2】 前記参照画像登録工程は、 同一数字から成る前記所定の桁数の数字列の画像を、
「0」から「9」までの全ての数字について参照画像と
して登録することを特徴とする請求項1記載の画像位置
検出方法。
2. The reference image registration step, wherein the image of the number string of the predetermined number of digits consisting of the same number,
The image position detecting method according to claim 1, wherein all the numbers from "0" to "9" are registered as reference images.
【請求項3】 所定のフォーマットでかつ所定の桁数の
記号列の位置を検出する画像位置検出方法において、 各桁位置において互いに同一記号が重複せず、かつ、重
ね合わせたときに各桁位置において使用される全ての記
号が網羅される複数の記号列の画像を、それぞれ参照画
像として登録する参照画像登録工程と、 前記参照画像登録工程で登録された複数の参照画像のそ
れぞれについて、各エッジ点から所定の基準点へのベク
トルをエッジ方向ごとに格納したRテーブルを作成する
Rテーブル作成登録工程と、 前記Rテーブル作成登録工程で登録された全てのRテー
ブルをエッジ方向とベクトル値とが重複するエッジ点の
データを間引いて1つに合成した合成Rテーブルを作成
する合成Rテーブル作成工程と、 前記合成Rテーブルを用いて入力画像をハフ変換し、ハ
フ平面上の最大値をとる点を該入力画像上における前記
記号列の位置の基準点として検出する画像位置検出工程
とを含むことを特徴とする画像位置検出方法。
3. An image position detecting method for detecting a position of a symbol string having a predetermined format and a predetermined number of digits, wherein the same symbols do not overlap each other at each digit position, and each digit position when superposed. In the reference image registration step of registering images of a plurality of symbol strings covering all the symbols used in each as a reference image, and for each of the plurality of reference images registered in the reference image registration step, each edge An R table creation and registration step of creating an R table in which a vector from a point to a predetermined reference point is stored for each edge direction, and all R tables registered in the R table creation and registration step have edge directions and vector values. A composite R table creating step of creating thin composite R tables by thinning out data of overlapping edge points into one, and using the composite R table The input image Hough transform, an image position detecting method characterized by comprising the image position detecting step of detecting a point having the maximum value of the Hough plane as a reference point position of the symbol string on the input image.
【請求項4】 前記合成Rテーブルを幾何学変換して回
転角のステップ数および拡大縮小のステップ数分の合成
Rテーブルを作成する合成Rテーブル幾何学変換工程を
さらに含み、 前記画像位置検出工程は、 前記合成Rテーブル幾何学変換工程により作成された複
数の合成Rテーブルのそれぞれについて前記入力画像を
ハフ変換し、得られた複数のハフ平面のうちの最大値が
最も大きいハフ平面を適合ハフ平面として検出し、該適
合ハフ平面上の最大値をとる点を前記基準点として検出
することを特徴とする請求項1および請求項3記載の画
像位置検出方法。
4. The image position detecting step further comprising: a combined R table geometric conversion step of geometrically converting the combined R table to create a combined R table for the number of steps of a rotation angle and the number of steps of scaling. Huff transforms the input image for each of the plurality of composite R tables created by the composite R table geometry conversion step, and selects the Hough plane having the largest maximum value among the obtained Hough planes as the matching Hough plane. 4. The image position detecting method according to claim 1, wherein the image position is detected as a plane, and the point having the maximum value on the adaptive Hough plane is detected as the reference point.
JP2002059124A 2002-03-05 2002-03-05 Image position detection method Expired - Fee Related JP4079346B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002059124A JP4079346B2 (en) 2002-03-05 2002-03-05 Image position detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002059124A JP4079346B2 (en) 2002-03-05 2002-03-05 Image position detection method

Publications (2)

Publication Number Publication Date
JP2003256851A true JP2003256851A (en) 2003-09-12
JP4079346B2 JP4079346B2 (en) 2008-04-23

Family

ID=28668905

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002059124A Expired - Fee Related JP4079346B2 (en) 2002-03-05 2002-03-05 Image position detection method

Country Status (1)

Country Link
JP (1) JP4079346B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009087087A (en) * 2007-09-28 2009-04-23 Toshiba Corp License plate information processor and license plate information processing method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009087087A (en) * 2007-09-28 2009-04-23 Toshiba Corp License plate information processor and license plate information processing method

Also Published As

Publication number Publication date
JP4079346B2 (en) 2008-04-23

Similar Documents

Publication Publication Date Title
US20020018071A1 (en) Method and apparatus for identification of documents, and computer product
JP4607633B2 (en) Character direction identification device, image forming apparatus, program, storage medium, and character direction identification method
CN101297319B (en) Embedding hot spots in electronic documents
US20070009158A1 (en) Paper and electronic recognizable forms
US20080143735A1 (en) Method and apparatus for dynamic connector analysis
WO1998035314A2 (en) System and method for pattern recognition
MX2007010180A (en) Intelligent importation of information from foreign application user interface using artificial intelligence.
EP1654610B1 (en) Method and system for identifying multiple questionnaire pages
JPH06508465A (en) Character recognition system and method using means for measuring endpoint characteristics in a character bitmap
US20080037904A1 (en) Apparatus, method and program storage medium for image interpretation
JP3301030B2 (en) Method and device for converting characters arranged in a circle into characters arranged in a straight line, and character recognition method and device
CN108921175A (en) One kind being based on the improved SIFT method for registering images of FAST
JPH06282686A (en) Method for character recognition
CN108182466A (en) A kind of circular two-dimensional identification code and its scanning recognition method
JP4079346B2 (en) Image position detection method
JP4121113B2 (en) Image position detection method
JP7075770B2 (en) Character recognition system, character sharpening system, character sharpening program, character sharpening method, and character sharpening image display device
JP2003022446A (en) Device and method for signature collation, and program making computer implement the same method
JP2002358521A (en) Device, method and program for registering and identifying document format
CN113362380B (en) Image feature point detection model training method and device and electronic equipment thereof
JPH08287188A (en) Character string recognition device
JP3948943B2 (en) Graphic recognition method and apparatus
JP2000352928A (en) Method and device for character information editing and working, and recording medium recording character information editing and working program
JPH0512438A (en) Method for extracting line segment with hough transformation
JPH08101880A (en) Character recognition device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050203

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20071026

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071106

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080129

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080201

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110215

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4079346

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120215

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120215

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130215

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130215

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140215

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140215

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees