JP2803224B2 - Pattern matching method - Google Patents

Pattern matching method

Info

Publication number
JP2803224B2
JP2803224B2 JP1248939A JP24893989A JP2803224B2 JP 2803224 B2 JP2803224 B2 JP 2803224B2 JP 1248939 A JP1248939 A JP 1248939A JP 24893989 A JP24893989 A JP 24893989A JP 2803224 B2 JP2803224 B2 JP 2803224B2
Authority
JP
Japan
Prior art keywords
directions
contour
matching
recognition target
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP1248939A
Other languages
Japanese (ja)
Other versions
JPH03110690A (en
Inventor
仁 古郡
友文 根本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Meidensha Corp
Original Assignee
Meidensha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Meidensha Corp filed Critical Meidensha Corp
Priority to JP1248939A priority Critical patent/JP2803224B2/en
Publication of JPH03110690A publication Critical patent/JPH03110690A/en
Application granted granted Critical
Publication of JP2803224B2 publication Critical patent/JP2803224B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Character Discrimination (AREA)
  • Image Analysis (AREA)

Description

【発明の詳細な説明】 A.産業上の利用分野 本発明は、認識対象物が存在する書類や図面等から認
識対象物を検出してパターン認識を行うパターンマッチ
ング方法に関する。
Description: BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a pattern matching method for performing pattern recognition by detecting a recognition target object from a document, a drawing, or the like in which the recognition target object exists.

B.発明の概要 本発明は、カメラやスキャナ等より読み込まれた画像
データから認識対象物データを抽出してパターン認識を
行うパターンマッチング方法において、 認識対象物の各輪郭ベクトルの方向を2方向D1,D2
成分分解した方向成分量G1,G2とともに、認識対象物を
含む画像を複数に分割した各領域内の輪郭ベクトルの方
向が、一定となるように座標交換したときの各領域に与
える影響を示す情報Hを求め、前記方向D1,D2別の方向
分解特徴量に前記G1H,G2Hを各々加算してマッチング用
特徴量を演算し、該マッチング用特徴量を用いてパター
ン認識を行うことにより、 認識対象物の特徴量を良く表すマッチング用特徴量が
得られるようにするとともに、パターン認識の処理を高
速化したものである。
B. Summary of the Invention The present invention relates to a pattern matching method for extracting recognition target data from image data read by a camera, a scanner, or the like, and performing pattern recognition. Along with the directional component amounts G 1 and G 2 that have been decomposed into 1 and D 2 , each coordinate when the direction of the contour vector in each area obtained by dividing the image including the recognition target into a plurality of areas is exchanged so that it is constant Information H indicating the influence on the area is obtained, and the G 1 H and G 2 H are added to the direction-resolved feature amounts for the directions D 1 and D 2 to calculate the matching feature amount, and the matching feature amount is calculated. By performing pattern recognition using the quantity, it is possible to obtain a matching feature quantity that well represents the feature quantity of the recognition target object, and to speed up the pattern recognition processing.

C.従来の技術 文字や図形等を読み取る場合、例えば、書類や図面等
の被写体をイメージスキャナ等の入力装置でラスタスキ
ャンして黒と白の2値画像データ(入力パターン)に変
換し、この2値画像データから対象物の文字データを抽
出し、対象物の認識処理を行っている。パターン認識装
置は例えば第9図のように構成される。第9図において
1は入力装置としてのカメラ、2はカメラ1より読み込
まれた画像を黒(対象物)と白(背景)の2値画像に変
換する2値化装置、3は2値化装置2の2値画像を記憶
する画像メモリ、4は画像メモリ3内の2値画像から対
象物(文字等)を切り出す切出し部、5は切り出された
対象物の特徴量を求める特徴抽出装置、6は特徴抽出装
置5で求められた特徴量と辞書7に格納された特徴量と
を比較するマッチング装置である。
C. Prior Art When reading characters and figures, for example, subjects such as documents and drawings are raster-scanned by an input device such as an image scanner and converted into black and white binary image data (input pattern). The character data of the object is extracted from the binary image data, and the object is recognized. The pattern recognition device is configured, for example, as shown in FIG. In FIG. 9, 1 is a camera as an input device, 2 is a binarizing device for converting an image read from the camera 1 into a binary image of black (object) and white (background), and 3 is a binarizing device. 2, an image memory for storing a binary image, 4 a cutout unit for cutting out an object (character or the like) from the binary image in the image memory 3, 5 a feature extraction device for obtaining a feature amount of the cutout object, 6 Is a matching device that compares the feature amount obtained by the feature extraction device 5 with the feature amount stored in the dictionary 7.

従来は上記のような装置を用いて、例えば2値化され
た画像そのものからマッチング用の特徴量を算出した
り、2値画像を線幅1まで細めた細線化画像から対象物
を構成する線分を求めマッチング用の特徴量を算出する
等の方法が採られていた。
Conventionally, using the above-described apparatus, for example, a feature amount for matching is calculated from a binarized image itself, or a line constituting an object from a thinned image obtained by reducing the binary image to a line width of 1 For example, a method of calculating a matching feature amount and calculating a feature amount for matching has been adopted.

D.発明が解決しようとする課題 しかし前記2値画像から特徴量を求める方法は、2値
画像を直接取り扱うため特徴量の算出時間が多くかか
る。また前記細線化による方法も細線化という非常に多
くの処理時間を要するという欠点があった。
D. Problems to be Solved by the Invention However, in the method of obtaining a feature amount from the binary image, it takes a long time to calculate the feature amount because the binary image is directly handled. In addition, the thinning method also has a drawback that a very long processing time of thinning is required.

本発明は上記の点に鑑みてなされたものでその目的
は、処理時間を短縮することができるパターンマッチン
グ方法を提供することにある。
The present invention has been made in view of the above points, and an object of the present invention is to provide a pattern matching method capable of reducing processing time.

E.課題を解決するための手段 本発明は、認識対象物の存在する被写体をラスタスキ
ャンして得られた黒白に対応する2値化画素データから
認識対象物データを抽出し、該抽出された認識対象物デ
ータと辞書を参照,比較して対象物を認識するパターン
マッチング方法において、前記2値化画素データから認
識対象物の輪郭画素を抽出するとともに、該輪郭画素を
線分近似して輪郭ベクトルを求め、認識対象物の輪郭ベ
クトルを順次抽出し、前記抽出された輪郭ベクトルの方
向を、d方向(dは正数)に量子化された方向のうち相
隣り合う2方向に成分分解して方向D1,D2を求めるとと
もに、該方向D1,D2に各々対応した方向成分量G1,G2を求
め、認識対象物を含む画像を横方向分割数Mおよび縦方
向分割数Nで分割して成る複数の領域を順次選択し、前
記選択された各領域内の輪郭ベクトルの方向が所定方向
となるように座標変換を行い、前記座標変換の実行によ
って前記輪郭ベクトルが前記各領域に与える影響を示す
情報Hを求め、前記選択された領域の横方向分割番号
i、縦方向分割番号jおよび前記方向D1から成る2方向
分解特徴量f(i,j,D1)に、前記方向成分量G1および情
報Hの積を加算するとともに、前記横方向分割番号i、
縦方向分割番号jおよび前記方向D2から成る2方向分解
特徴量f(i,j,D2)に、前記方向成分量G2および情報H
の積を加算してマッチング用特徴量f(i,j,d)を求
め、前記マッチング用特徴量f(i,j,d)と辞書に格納
されたマッチング用特徴量とを参照,比較して対象物を
認識することを特徴としている。
E. Means for Solving the Problems The present invention extracts recognition target data from binarized pixel data corresponding to black and white obtained by raster-scanning a subject where a recognition target exists, and In a pattern matching method for recognizing an object by referring to and comparing the object data and a dictionary, an outline pixel of the object to be recognized is extracted from the binarized pixel data, and the outline pixel is approximated by a line segment. A vector is obtained, contour vectors of the recognition object are sequentially extracted, and the direction of the extracted contour vector is decomposed into two adjacent directions among the directions quantized in the d direction (d is a positive number). Directions D 1 , D 2 , and direction component amounts G 1 , G 2 corresponding to the directions D 1 , D 2 , respectively, and the image including the recognition target is divided into a horizontal division number M and a vertical division number M. Select multiple areas divided by N sequentially Then, coordinate transformation is performed so that the direction of the contour vector in each of the selected regions is in a predetermined direction, and information H indicating the influence of the contour vector on each region by performing the coordinate transformation is obtained. lateral segment number i of the selected region, longitudinal segment number j and the consisting direction D 1 2 directionally resolved feature value f (i, j, D 1), the product of the direction component amount G 1 and information H And the horizontal division number i,
The two-way decomposition feature quantity f (i, j, D 2 ) consisting of the vertical division number j and the direction D 2 has the direction component quantity G 2 and information H
Are added to obtain a matching feature quantity f (i, j, d), and the matching feature quantity f (i, j, d) and the matching feature quantity stored in the dictionary are referenced and compared. It is characterized by recognizing the target object.

F.作用 抽出された対象物の輪郭ベクトルの方向は、所定方向
に量子化された方向のうち相隣り合う2方向D1,D2に成
分分解される。このため各領域の横方向分割番号i、縦
方向分割番号jおよび方向D1,D2とによって2方向分解
特徴量f(i,j,D1)、f(i,j,D2)が求められる。また
前記方向D1,D2に対応した方向成分量G1,G2も求められ
る。分割された各領域内の輪郭ベクトルの座標変換を行
うと、輪郭ベクトルが各領域に与える影響(H)は所定
方向の範囲にのみ現れる。このため前記2方向分解特徴
量f(i,j,D1)、f(i,j,D2)に、G1H、G2Hを各々加算
することによって対象物の特徴を良く表すマッチング用
特徴量f(i,j,d)が得られる。
F. Action The direction of the extracted contour vector of the object is decomposed into two adjacent directions D 1 and D 2 among the directions quantized in a predetermined direction. Therefore, the two-way decomposition feature values f (i, j, D 1 ) and f (i, j, D 2 ) are determined by the horizontal division number i, the vertical division number j, and the directions D 1 , D 2 of each area. Desired. Also, the direction D 1, D 2 direction component quantity G 1 corresponding to, G 2 is also obtained. When the coordinate transformation of the contour vector in each of the divided areas is performed, the effect (H) of the contour vector on each area appears only in a range in a predetermined direction. For this reason, G 1 H and G 2 H are added to the two-way decomposition feature amounts f (i, j, D 1 ) and f (i, j, D 2 ), respectively, so that matching that well expresses the feature of the target object The use feature amount f (i, j, d) is obtained.

前記のようにマッチング用特徴量f(i,j,d)を求め
るための元のデータとして、抽出された対象物の輪郭ベ
クトルを用いているので、従来のように細線化したり2
値画像データを直接取り扱う方法よりも処理速度が非常
に速い。
As described above, since the extracted contour vector of the target object is used as the original data for obtaining the matching feature quantity f (i, j, d), it is possible to reduce the line width as in the related art.
The processing speed is much faster than the method of directly handling value image data.

G.実施例 以下、図面を参照しながら本発明の一実施例を説明す
る。まずカメラ等の入力装置によって読み込まれた画像
を第2図のように黒、白の2値画像に変換する。そして
第2図の黒の画素を直線近似して輪郭ベクトルを求め
る。すると第2図の「A」という文字の入力画像は第3
図のように輪郭ベクトル化される。前記輪郭ベクトル化
された認識対象文字を含む長方形を横方向分割数M、縦
方向分割数Nで第4図のように分割する。また認識対象
文字のベクトルの方向はd方向、例えば第5図のように
8方向に分解する。本発明では前記輪郭ベクトルをもと
に8方向×M×N次元のマッチング用特徴量を求めるも
のである。従って認識対象物の特徴を表す特徴ベクトル
量は、横方向分割番号をi、縦方向分割番号をjとする
と、f(i,j,d)(i=1,2,…,M、j=1,2,…,N、d=
1,2,…8)となる。
G. Embodiment Hereinafter, an embodiment of the present invention will be described with reference to the drawings. First, an image read by an input device such as a camera is converted into a black and white binary image as shown in FIG. Then, a contour vector is obtained by linearly approximating the black pixels in FIG. Then, the input image of the character "A" in FIG.
The contour vector is formed as shown in the figure. The rectangle including the recognition target character converted into the contour vector is divided by the horizontal division number M and the vertical division number N as shown in FIG. The direction of the vector of the character to be recognized is decomposed into d directions, for example, eight directions as shown in FIG. In the present invention, a matching feature amount of 8 directions × M × N dimensions is obtained based on the contour vector. Therefore, assuming that the horizontal division number is i and the vertical division number is j, the feature vector quantity representing the feature of the recognition target is f (i, j, d) (i = 1, 2,..., M, j = 1,2,…, N, d =
1,2, ... 8).

輪郭ベクトルの本数をK、輪郭ベクトルの始点(矢印
の尾)の座標を=(xs,ys)、終点(矢印の先)の
座標を=(xs,ys)とすると、第6図のように輪郭
ベクトルVkskekの対で表される(k=1,2,…,
K)。輪郭ベクトルVkの長さLk、方向θは、 で計算される。θは連続的な値を採るので第5図の8
方向の隣り合う2つの方向の中間に存在することも考慮
し、輪郭ベクトルVkの方向を次のように2方向に成分分
解する。すなわちVkの方向が第7図に示すように8方向
のうち例えば方向1と方向2の間に存在したとする。こ
の場合は方向1に30゜/(30゜+15゜)=2/3、方向2
に15゜/(30゜+15゜)=1/3と分解する。従って輪郭
ベクトルVkは方向1に 長さ、方向2に 長さの2成分に分解され、方向の量子化が行われる。一
般にθから2つの隣り合う量子化された方向D
1(θ),D2(θ)と、それぞれに対応する成分量G1
(θ),G2(θ)が存在する(第7図の例ではθ
=15゜,D1(θ)=方向1,D2(θ)=方向2,G1(θ
)=2/3,G2(θ)=1/3となる)。
The number of contour vectors K, starting point of the outline vector coordinates s = the (tail of the arrow) (x s, y s), coordinates e = (x s, y s ) of the end point (arrow head) When, As shown in FIG. 6, the contour vector V k is represented by a pair of sk and ek (k = 1, 2,...,
K). The length L k of the contour vector V k, the direction theta k is Is calculated. Since θ k takes a continuous value, 8 in FIG.
Also consider that exists in two directions adjacent medial component decomposes direction of the contour vector V k in two directions as follows. I.e. the direction of the V k is present between 8 eg direction 1 of the direction and the direction 2 as shown in Figure 7. In this case, 30 ゜ / (30 ゜ +15 ゜) = 2/3 in direction 1 and direction 2
Decompose to 15 ゜ / (30 ゜ +15 ゜) = 1/3. Therefore, the contour vector V k Length, direction 2 It is decomposed into two components of length, and quantization of the direction is performed. In general, two adjacent quantized directions D from θ k
1k ), D 2k ), and the corresponding component amount G 1
(Theta k), in the example of G 2 to (theta k) are present (Figure 7 theta k
= 15 ゜, D 1k ) = direction 1, D 2k ) = direction 2, G 1
k ) = 2, G 2k ) = 1/3).

次に第4図のように分割した各領域の中心座標(xij,
yij)と輪郭ベクトルVkの中点座標([xsk+xek]/2,
[ysk+yek]/2)=(xck,yck)に基づいて領域i,jに及
ぼす成分を求める。すなわち中点座標(xck,yck)を原
点としθが−45゜(−π/4)となるような座標系に
(xij,yij)をし写像し、Xij,Yij)とする。
Next, the center coordinates (x ij ,
y ij ) and the midpoint coordinates of the contour vector V k ([x sk + x ek ] / 2,
Based on [y sk + y ek ] / 2) = (x ck , y ck ), a component affecting the region i, j is obtained. That is, (x ij , y ij ) is mapped to a coordinate system in which θ k is −45 ° (−π / 4) with the middle point coordinates (x ck , y ck ) as the origin, and X ij , Y ij ).

また第4図の認識対象文字を含む長方形において、横
方向(x方向)の長さをRx、縦方向(y方向)の長さを
Ryとした時、各領域を次の一辺の長さrを持つ正方形と
近似する。
In the rectangle including the recognition target character in FIG. 4, the length in the horizontal direction (x direction) is R x , and the length in the vertical direction (y direction) is R x .
When R y is set, each area is approximated to a square having a length r of one side.

r=(Rx/M+Ry/N)/2 又は、 第8図の原点付近にある矢印は輪郭ベクトルVkを新座
標系に写像したものであり、方向は必ず−45゜となる。
このベクトルVk′の影響は第8図の第1象限にしか発生
しないものとする。輪郭ベクトルVkが領域i,jに及ぼす
効果をH(xij,yij,xck,yckk,r)=H(Xij,Yij,r)
とする。(Xij,Yij)の関数Qを次のように定義する。
r = (R x / M + R y / N) / 2 or The arrow near the origin in FIG. 8 is obtained by mapping the contour vector Vk to the new coordinate system, and the direction is always -45 °.
It is assumed that the effect of the vector V k 'occurs only in the first quadrant of FIG. Contour vector V k is the area i, the effect on j H (x ij, y ij , x ck, y ck, θ k, r) = H (X ij, Y ij, r)
And The function Q of (X ij , Y ij ) is defined as follows.

Q(Xij,Yij,r)=1.0 …(1) (但しXij 2+Yij 2≦Pr2であるとき) 又は、 (但しXij 2+Yij 2≦Pr2以外のとき、 尚Pは定数) 上記(1),(2)式は座標変換を行った際の距離に
ついての補正成分となる。
Q (X ij , Y ij , r) = 1.0 (1) (provided that X ij 2 + Y ij 2 ≦ Pr 2 ) or (However, when X ij 2 + Y ij 2 ≦ Pr 2 , P is a constant.) The above equations (1) and (2) are correction components for the distance when coordinate transformation is performed.

また前記Qを用いてHを以下のように表すことができ
る。
In addition, H can be expressed as follows using the Q.

H=0.0 …(3) (但し(Xij,Yij)が第8図の1,5,9,13,14,15,16の位置
にあるとき) H=Q …(4) (但し(Xij,Yij)が第8図の4の位置にあるとき) (但し(Xij,Yij)が第8図の2,3の位置にあるとき) (但し(Xij,Yij)が第8図の8,12の位置にあるとき) (但し(Xij,Yij)が第8図の6,7,10,11の位置にあると
き) 上記(3)〜(7)式は座標変換を行った際の欠損部
分についての補正成分となる。
H = 0.0 (3) (provided that (X ij , Y ij ) is located at positions 1, 5, 9, 13, 14, 15, and 16 in FIG. 8) H = Q (4) (where ( X ij , Y ij ) is at position 4 in FIG. 8) (However, when (X ij , Y ij ) is at the position 2 and 3 in Fig. 8) (However, when (X ij , Y ij ) is at the position 8 or 12 in FIG. 8) (However, when (X ij , Y ij ) is located at positions 6, 7, 10, and 11 in FIG. 8) The above equations (3) to (7) are correction components for a missing portion when coordinate transformation is performed. Becomes

上記のように本発明は輪郭ベクトルの方向の分解と座
標変換を行ってマッチング用特徴量を求めるものである
が、次にその手順を第1図のフローチャートとともに説
明する。まずステップS1で輪郭ベクトル抽出を行いステ
ップS2で各特徴量fが格納される特徴テーブルをクリア
する。そしてステップS3では輪郭ベクトルを1本抽出
し、ステップS5において抽出されたベクトルを第7図の
ように2方向に分割し、ステップS6において2方向の成
分を抽出して成分量G1(θ),G2(θ)を求める。
次にステップS7において第4図のようにM×Nに分割さ
れた各領域を選択し、ステップS9においてベクトルのθ
が−45゜(−π/4)となるように座標変換を行う。そ
してステップS10では前記座標変換の実行により生じる
距離寄与成分(前記(1),(2)式のもの)を抽出
し、ステップS11では欠損部寄与成分(前記(3)〜
(7)式のもの)を抽出する。次にステップS12では前
記2方向成分量G1,G2およびベクトルが領域i,jに及ぼす
効果HとからG1H,G2Hを計算する。そしてステップS13
おいて2方向についてそれぞれ加算を行う。すなわちf
(i,j,D1(θ))にG1(θ)×H(xij,yij,xck,y
ckk,r)を加算し、f(i,j,D2(θ))にG
2(θ)×H(xij,yij,xck,yckk,r)を加算する。
尚ステップS4,S8は各処理が終了したか否かを判定する
ステップである。
As described above, in the present invention, the feature amount for matching is obtained by performing decomposition and coordinate transformation of the direction of the contour vector. Next, the procedure will be described with reference to the flowchart of FIG. First the feature amounts f at step S 2 performs contour vector extracted in step S 1 is to clear feature tables stored. Then Step S 3 in extracting one contour vector, dividing the vector extracted in step S 5 in two directions as in the Figure 7, the component amount G 1 extracts the two directions of components in step S 6k ) and G 2k ) are obtained.
Then select the respective regions divided into M × N as shown in FIG. 4 in step S 7, the vectors in step S 9 theta
The coordinate conversion is performed so that k becomes −45 ° (−π / 4). The distance contribution component resulting from the execution of step S 10 in the coordinate transformation (step (1), (2) those of Formula) extracts, defects contributing ingredients in step S 11 (the (3) -
(7) is extracted. In step S 12 the two directions component amount G 1, G 2 and vector to calculate the G 1 H, G 2 H from the effects H on areas i, j. And for adding respective two directions in step S 13. That is, f
(I, j, D 1k )) is G 1k ) × H (x ij , y ij , x ck , y
ck , θ k , r) and add G to f (i, j, D 2k ))
2k ) × H (x ij , y ij , x ck , y ck , θ k , r) are added.
Steps S 4 and S 8 are steps for determining whether or not each process has been completed.

上記のような手順で求められたf(i,j,d)をマッチ
ング用特徴量とみなし、辞書に格納した特徴量と比較し
てパターンマッチングを行うものである。
F (i, j, d) obtained by the above procedure is regarded as a matching feature quantity, and pattern matching is performed by comparing with the feature quantity stored in the dictionary.

前記のようなマッチング方法を実行するには、画像入
力装置と、2値化装置と、2値画像を記憶する画像メモ
リと、画像メモリ上のデータから対象物の輪郭画素を抽
出する輪郭画素抽出装置と、抽出された輪郭画素を線分
近似するベクトル化装置と、第1図の手順でマッチング
用特徴量f(i,j,d)を求める特徴抽出装置と、辞書と
前記マッチング用特徴量を比較する整合装置とでパター
ンマッチング装置を構成し、これを用いれば良い。また
前記パターンマッチング装置の輪郭画素抽出装置は、2
値化画像から一時記憶の画像メモリなしで対象物の輪郭
画素を抽出する装置で構成しても良い。
To execute the above matching method, an image input device, a binarizing device, an image memory for storing a binary image, and contour pixel extraction for extracting contour pixels of an object from data on the image memory Device, a vectorization device for approximating the extracted contour pixels to a line segment, a feature extraction device for obtaining a matching feature value f (i, j, d) by the procedure of FIG. 1, a dictionary and the matching feature value A pattern matching device may be configured with a matching device that compares the two patterns, and this may be used. In addition, the contour pixel extraction device of the pattern matching device includes:
The apparatus may be configured to extract a contour pixel of the object from the digitized image without a temporarily stored image memory.

H.発明の効果 以上のように本発明によれば、特徴量を求める元のデ
ータとして輪郭ベクトルを用いるので処理が速い。すな
わち輪郭を求めるのは細線化するのに比べてはるかに処
理速度が速く、また画素を直接扱うよりも速い。また輪
郭ベクトルが各領域に及ぼす効果はベクトルの片側の所
定範囲(45゜)にしか与えないので、対象物の特徴を良
く表すマッチング用特徴量が得られる。
H. Effects of the Invention As described above, according to the present invention, the processing is fast because the contour vector is used as the original data for obtaining the feature amount. That is, the processing speed for obtaining the contour is much faster than that for thinning, and also faster than directly processing pixels. Also, since the effect of the contour vector on each area is given only to a predetermined range (45 °) on one side of the vector, a matching feature amount that well represents the feature of the target object can be obtained.

【図面の簡単な説明】[Brief description of the drawings]

第1図〜第8図は本発明の一実施例を示し、第1図は実
行フローチャート、第2図は2値画像を示す説明図、第
3図は輪郭ベクトルを示す説明図、第4図は分解された
各領域を示す説明図、第5図は分割した方向を示す説明
図、第6図は1本の輪郭ベクトルを示す説明図、第7図
はベクトル方向の分解の様子を示す説明図、第8図は輪
郭ベクトルを座標変換した様子を示す説明図、第9図は
従来のパターン認識装置の一例を示すブロック図であ
る。 1……カメラ、2……2値化装置、3……画像メモリ、
4……切出し部、5……特徴抽出装置、6……マッチン
グ装置、7……辞書。
1 to 8 show an embodiment of the present invention, FIG. 1 is an execution flowchart, FIG. 2 is an explanatory diagram showing a binary image, FIG. 3 is an explanatory diagram showing an outline vector, FIG. Is an explanatory diagram showing each decomposed region, FIG. 5 is an explanatory diagram showing a divided direction, FIG. 6 is an explanatory diagram showing one contour vector, and FIG. 7 is an explanatory diagram showing a decomposition state in a vector direction. FIG. 8 is an explanatory diagram showing a state in which the contour vector is coordinate-transformed, and FIG. 9 is a block diagram showing an example of a conventional pattern recognition device. 1 ... camera, 2 ... binarization device, 3 ... image memory,
4... Extraction section, 5... Feature extraction device, 6... Matching device, 7.

フロントページの続き (56)参考文献 特開 平3−3090(JP,A) 特開 昭61−143887(JP,A) 特開 昭61−59581(JP,A) 「輪郭DP整合法の2次元性評価に関 する一改良」,昭和63年電子情報通信学 会春季全国大会、D−444,P.1−187 (58)調査した分野(Int.Cl.6,DB名) G06K 9/46 G06K 9/62 特許ファイル(PATOLIS) JICSTファイル(JOIS)Continuation of the front page (56) References JP-A-3-3090 (JP, A) JP-A-61-143887 (JP, A) JP-A-61-59581 (JP, A) "2D of contour DP matching method" One Improvement on Sexuality Evaluation ”, 1988 IEICE Spring National Convention, D-444, P. 1-187 (58) Fields investigated (Int. Cl. 6 , DB name) G06K 9/46 G06K 9/62 Patent file (PATOLIS) JICST file (JOIS)

Claims (1)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】認識対象物の存在する被写体をラスタスキ
ャンして得られた黒白に対応する2値化画素データから
認識対象物データを抽出し、該抽出された認識対象物デ
ータと辞書を参照,比較して対象物を認識するパターン
マッチング方法において、 前記2値化画素データから認識対象物の輪郭画素を抽出
するとともに、該輪郭画素を線分近似して輪郭ベクトル
を求め、 認識対象物の輪郭ベクトルを順次抽出し、 前記抽出された輪郭ベクトルの方向を、d方向(dは正
数)に量子化された方向のうち相隣り合う2方向に成分
分解して方向D1,D2を求めるとともに、該方向D1,D2に各
々対応した方向成分量G1,G2を求め、 認識対象物を含む画像を横方向分割数Mおよび縦方向分
割数Nで分割して成る複数の領域を順次選択し、 前記選択された各領域内の輪郭ベクトルの方向が所定方
向となるように座標変換を行い、 前記座標変換の実行によって前記輪郭ベクトルが前記各
領域に与える影響を示す情報Hを求め、 前記選択された領域の横方向分割番号i、縦方向分割番
号jおよび前記方向D1から成る2方向分解特徴量f(i,
j,D1)に、前記方向成分量G1および情報Hの積を加算す
るとともに、 前記横方向分割番号i、縦方向分割番号jおよび前記方
向D2から成る2方向分解特徴量f(i,j,D2)に、前記方
向成分量G2および情報Hの積を加算してマッチング用特
徴量f(i,j,d)を求め、 前記マッチング用特徴量f(i,j,d)と辞書に格納され
たマッチング用特徴量とを参照,比較して対象物を認識
することを特徴とするパターンマッチング方法。
1. A method for extracting recognition target data from binary pixel data corresponding to black and white obtained by raster-scanning a subject having a recognition target, and referring to the extracted recognition target data and a dictionary. A contour matching method for recognizing the object by comparing the pixel data with the outline pixel of the object to be recognized from the binarized pixel data; The contour vectors are sequentially extracted, and the directions of the extracted contour vectors are decomposed into two adjacent directions among the directions quantized in the d direction (d is a positive number) to obtain the directions D 1 and D 2 . And the direction component amounts G 1 and G 2 corresponding to the directions D 1 and D 2 , respectively, and a plurality of images obtained by dividing the image including the recognition target by the horizontal division number M and the vertical division number N Select the area sequentially and select the selected The coordinate transformation is performed so that the direction of the contour vector in the region is a predetermined direction. Information H indicating the influence of the contour vector on each region is obtained by performing the coordinate transformation, and the lateral direction of the selected region is determined. segment number i, longitudinal segment number j and the consisting direction D 1 2 directionally resolved feature value f (i,
j, D 1 ) and the product of the direction component amount G 1 and the information H, and a two-way decomposition feature amount f (i) including the horizontal division number i, the vertical division number j, and the direction D 2. , j, D 2 ) to obtain the matching feature f (i, j, d) by adding the product of the direction component G 2 and the information H to the matching feature f (i, j, d). ) And a matching feature amount stored in a dictionary are referenced and compared to recognize a target object.
JP1248939A 1989-09-25 1989-09-25 Pattern matching method Expired - Fee Related JP2803224B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1248939A JP2803224B2 (en) 1989-09-25 1989-09-25 Pattern matching method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1248939A JP2803224B2 (en) 1989-09-25 1989-09-25 Pattern matching method

Publications (2)

Publication Number Publication Date
JPH03110690A JPH03110690A (en) 1991-05-10
JP2803224B2 true JP2803224B2 (en) 1998-09-24

Family

ID=17185666

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1248939A Expired - Fee Related JP2803224B2 (en) 1989-09-25 1989-09-25 Pattern matching method

Country Status (1)

Country Link
JP (1) JP2803224B2 (en)

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
「輪郭DP整合法の2次元性評価に関する一改良」,昭和63年電子情報通信学会春季全国大会、D−444,P.1−187

Also Published As

Publication number Publication date
JPH03110690A (en) 1991-05-10

Similar Documents

Publication Publication Date Title
CN109313705B (en) Fingerprint identification method, device, equipment and storage medium
CN113988112A (en) Method, device and equipment for detecting lane line and storage medium
US20160125253A1 (en) Method and apparatus for image matching
JP2542947B2 (en) Image processing device
JP3252941B2 (en) Image segmentation recognition device
JP2803224B2 (en) Pattern matching method
CN113537216B (en) Dot matrix font text line inclination correction method and device
JP3164835B2 (en) Pre-processing method and post-processing method in human image recognition
JP2770849B2 (en) Image processing device
JP3095470B2 (en) Character recognition device
JP2795860B2 (en) Character recognition device
JPS622382A (en) Feature extracting devie for pattern
JP3140079B2 (en) Ruled line recognition method and table processing method
JPH07302338A (en) Template matching method and pattern recognizing device using the same method
JP2789622B2 (en) Character / graphic area determination device
JPS60195675A (en) Linear graphic data processor
JP2671322B2 (en) Feature extraction method
JPH03213053A (en) Original inclination detector
JP3127413B2 (en) Character recognition device
JPH0656625B2 (en) Feature extraction method
JP3536589B2 (en) High-speed Huff converter
CN113705430A (en) Table detection method, device and equipment based on detection model and storage medium
JPH0746371B2 (en) Character reader
JP2790507B2 (en) Character recognition method
CN113947684A (en) Document image matching method and device

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees