JPH07129768A - Device and method for pattern recognition - Google Patents

Device and method for pattern recognition

Info

Publication number
JPH07129768A
JPH07129768A JP27376493A JP27376493A JPH07129768A JP H07129768 A JPH07129768 A JP H07129768A JP 27376493 A JP27376493 A JP 27376493A JP 27376493 A JP27376493 A JP 27376493A JP H07129768 A JPH07129768 A JP H07129768A
Authority
JP
Japan
Prior art keywords
image
boundary
feature
point data
pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP27376493A
Other languages
Japanese (ja)
Inventor
Kazuhiro Tsumura
村 和 弘 津
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP27376493A priority Critical patent/JPH07129768A/en
Publication of JPH07129768A publication Critical patent/JPH07129768A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

PURPOSE:To provide a device and method for pattern recognition capable of recognizing pattern by eliminating inconvenience due to the incompletion of an input image and shortening the processing time. CONSTITUTION:This device is equipped with a differentiation processor 2 which generated an edge image 11 representing the boundary of an area be performing differential processing on the input image 10, a logical filtering device 3 which generates a feature boundary image 12 including feature point data representing the feature of the boundary by performing logical filtering processor by an image pattern on the edge image 11, a reduction processor 5 which applies reduction processing to the feature boundary image while keeping the feature point data of the boundary, a magnification processor 6 which magnifies a reduced image, and a decision device 8 which decides an image pattern by comparing the feature boundary image 14 magnified by the magnification processor 6 with the feature point data of a known basic graphic.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、テレビカメラ等でとら
えた入力画像から、対象物を構成する基本図形を識別す
るパターン認識装置およびパターン認識方法に係り、特
に入力画像の一部が不明瞭の場合に、不明瞭部分を排除
して基本図形を認識するパターン認識装置およびパター
ン認識方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a pattern recognition device and a pattern recognition method for identifying a basic figure forming an object from an input image captured by a television camera or the like, and in particular, a part of the input image is unclear. In this case, the present invention relates to a pattern recognition device and a pattern recognition method for recognizing a basic figure by eliminating an unclear part.

【0002】[0002]

【従来の技術】一般にロボットの視覚センサーの入力装
置として、テレビカメラが使用されている。このテレビ
カメラで取り込まれた画像が何であるかを判断するに
は、その画像を構成する円や三角や四角などの基本図形
を抽出し、その基本図形の構成や大きさによって対象物
を判別する。
2. Description of the Related Art Generally, a television camera is used as an input device of a visual sensor of a robot. To determine what the image captured by this TV camera is, the basic figures such as circles, triangles, and squares that make up the image are extracted, and the object is determined by the configuration and size of the basic figure. .

【0003】従来のパターン認識装置やパターン認識方
法では、画素濃度が急激に変化する画素に注目し、入力
画像に微分処理を施して領域の境界を抽出し、この境界
線をベクトル化して境界線の乱れを整え、この処理され
た画像パターンと予め入力されている基本図形とを比較
してパターンを認識していた。
In the conventional pattern recognition apparatus and pattern recognition method, attention is paid to pixels whose pixel density changes abruptly, differential processing is applied to the input image to extract the boundary of the area, and this boundary line is vectorized to create the boundary line. The pattern was recognized by comparing the processed image pattern with the basic figure input in advance.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、テレビ
カメラで取り込まれた映像は、照明の変化、環境の変化
等に影響されやすく、領域の境界を完全な形で取り出す
ことが困難であった。
However, an image captured by a television camera is easily affected by changes in illumination, changes in the environment, etc., and it has been difficult to extract the boundaries of regions in perfect form.

【0005】たとえば、照明の不足等によって、入力画
像上の領域の境界の一部が欠けていたり、境界線の一部
が不鮮明な場合があった。
For example, a part of the boundary of the area on the input image may be missing or a part of the boundary line may be unclear due to lack of illumination or the like.

【0006】このような場合、従来のパターン認識方法
では、これを基本図形と比較して、対象物を判別するこ
とができなかった。
In such a case, the conventional pattern recognition method cannot distinguish the object by comparing it with the basic figure.

【0007】また、従来のパターン認識方法では、ベク
トル化の処理が入力画像の複雑さに依存して処理時間が
長くなる問題があった。
Further, the conventional pattern recognition method has a problem that the processing time for vectorization depends on the complexity of the input image and the processing time becomes long.

【0008】そこで、本発明の目的は、上記従来のパタ
ーン認識装置およびパターン認識方法の課題を解決し、
入力画像の不完全さによる不具合を排除してパターンを
認識でき、かつ、処理時間が短いパターン認識装置およ
びパターン認識方法を提供することにある。
Therefore, an object of the present invention is to solve the problems of the above-described conventional pattern recognition apparatus and pattern recognition method,
An object of the present invention is to provide a pattern recognition device and a pattern recognition method that can recognize a pattern by eliminating defects due to incompleteness of an input image and that has a short processing time.

【0009】[0009]

【課題を解決するための手段】上記目的を達成するため
に、本発明によるパターン認識装置は、入力画像に対し
て微分処理を行って領域の境界を示すエッジ画像を作成
する微分処理装置と、前記エッジ画像に対して画像パタ
ーンによる論理フィルタリングを行って、境界の特徴を
示す特徴点データを含む特徴境界画像を作成する論理フ
ィルタリング装置と、境界の前記特徴点データを保持し
たまま前記特徴境界画像を縮小処理する縮小処理装置
と、縮小された特徴境界画像を拡大する拡大処理装置
と、前記拡大処理装置によって拡大された特徴境界画像
と既知の基本図形の特徴点データとを比較して画像パタ
ーンを判定する判定装置とを有することを特徴とするも
のである。
In order to achieve the above object, a pattern recognition apparatus according to the present invention is a differential processing apparatus for performing differential processing on an input image to create an edge image indicating a boundary of a region, A logical filtering device that performs logical filtering on the edge image with an image pattern to create a characteristic boundary image including characteristic point data indicating a characteristic of the boundary, and the characteristic boundary image while holding the characteristic point data of the boundary. , A reduction processing device for reducing the size of the feature boundary image, an enlargement processing device for enlarging the reduced feature boundary image, a feature boundary image enlarged by the enlargement processing device and feature point data of a known basic figure, and an image pattern And a determination device for determining.

【0010】また、本発明のパターン認識方法は、入力
画像に対して微分処理を行って領域の境界を示すエッジ
画像を作成する第一工程と、前記エッジ画像に対して画
像パターンによる論理フィルタリングを行って、境界の
特徴を示す特徴点データを含む特徴境界画像を作成し、
境界の特徴点データを保持したまま前記特徴境界画像を
縮小して、論理フィルタリング処理を繰り返す第二工程
と、縮小された特徴境界画像を拡大する第三工程と、前
記第三工程によって拡大された特徴境界画像と既知の基
本図形の特徴点データとを比較して画像パターンを判定
する第四工程とを有することを特徴とするものである。
In the pattern recognition method of the present invention, the first step of performing the differential processing on the input image to create the edge image indicating the boundary of the region and the logical filtering of the edge image by the image pattern are performed. Go and create a feature boundary image containing feature point data that shows the features of the boundary,
The second step of reducing the characteristic boundary image while retaining the characteristic point data of the boundary and repeating the logical filtering process, the third step of expanding the reduced characteristic boundary image, and the third step of expanding And a fourth step of determining an image pattern by comparing the characteristic boundary image with the characteristic point data of the known basic figure.

【0011】[0011]

【作用】本発明のパターン認識装置によれば、上記微分
処理装置において入力画像の画素間の濃度の傾斜を微分
して計算することにより、濃度が大きく変化する画素を
領域境界として抽出し、入力画像からエッジ画像を作成
する。
According to the pattern recognition apparatus of the present invention, the differentiation processing apparatus differentiates and calculates the density gradient between the pixels of the input image, thereby extracting the pixels whose density changes significantly as the area boundary and inputting the pixels. Create an edge image from the image.

【0012】上記論理フィルタリング装置は、所定の配
列の画素に対して、予め準備した複数の画像パターンを
あてはめ、合致する画像パターンを特定することによっ
て画素の配列の特徴を把握するものであり(この処理を
論理フィルタリングという)、この論理フィルタリング
装置によって、前記エッジ画像の領域境界の画素配列の
特徴を把握し、その配列の特徴を特徴点データとして表
す。具体的には、画像の各画素に前記特徴点データを与
えて、特徴境界画像を作成する。
The above-mentioned logical filtering device is to grasp the characteristics of the pixel array by applying a plurality of image patterns prepared in advance to pixels of a predetermined array and specifying the matching image pattern ( This processing is referred to as logical filtering), and the characteristics of the pixel array at the area boundary of the edge image are grasped by this logical filtering device, and the characteristics of the array are represented as feature point data. Specifically, the feature point data is given to each pixel of the image to create a feature boundary image.

【0013】次に上記縮小処理装置は、境界の特徴点デ
ータを保持したまま、すなわち特徴点データを一つ以上
失わないように、画像を縮小する。この縮小処理によっ
て、境界線の詳細さは失われる一方、境界線の不完全さ
は排除される。
Next, the reduction processing apparatus reduces the image while holding the characteristic point data of the boundary, that is, one or more characteristic point data is not lost. This reduction process loses the detail of the border, while eliminating the imperfections of the border.

【0014】上記縮小処理装置と論理フィルタリング装
置によって、境界の特徴点データを保持したまま、上記
特徴境界画像に縮小と論理フィルタリングの処理を繰り
返し行い、不完全な領域境界を含む特徴境界画像から不
完全さを排除する。つまり、この処理によって、完全な
入力画像から得られる特徴境界画像と同一の特徴境界画
像を得ることができる。
The reduction processing device and the logical filtering device repeatedly perform the reduction and logical filtering processing on the feature boundary image while retaining the feature point data of the boundary, and extract the feature boundary image including the incomplete area boundary from the feature boundary image. Eliminate perfection. That is, this processing makes it possible to obtain the same feature boundary image as the feature boundary image obtained from the complete input image.

【0015】さらに上記拡大処理装置は、特徴点データ
を保持したまま各画素を拡大して、拡大画像を得るもの
であり、この拡大処理装置によって前記縮小された特徴
境界画像を拡大する。
Further, the enlargement processing device enlarges each pixel while holding the feature point data to obtain an enlarged image, and the enlargement processing device enlarges the reduced feature boundary image.

【0016】上記判定装置は、画像の各画素に線形結合
とデータ変換の処理を行い、同一処理による既知の基本
図形の値と比較して、画像パターンを判定する。
The above-mentioned judging device judges the image pattern by performing a linear combination process and a data conversion process on each pixel of the image and comparing it with the value of the known basic figure by the same process.

【0017】この判定装置によって、前記拡大処理装置
によって拡大された特徴境界画像の各画素に線形結合と
データ変換の処理を行って画像パターンを認識すること
ができる。
With this determination device, it is possible to recognize the image pattern by performing linear combination and data conversion processing on each pixel of the characteristic boundary image enlarged by the enlargement processing device.

【0018】上述したように、本発明のパターン認識装
置およびパターン認識方法は、境界の特徴点データを保
持したまま画像を縮小処理および論理フィルタリング処
理を施し、これを再び拡大処理するので、処理の過程で
領域境界の不完全さが排除され、不完全な入力画像から
画像パターンを認識することができる。
As described above, the pattern recognition apparatus and the pattern recognition method of the present invention perform the reduction processing and the logical filtering processing on the image while holding the feature point data of the boundary, and perform the enlargement processing again. In the process, the incompleteness of the region boundary is eliminated, and the image pattern can be recognized from the incomplete input image.

【0019】また、本発明のパターン認識装置およびパ
ターン認識方法は、論理フィルタリングによって領域境
界の特徴を把握するので、ベクトル化によって領域境界
線の乱れを平滑化する必要がなく、画像の複雑さによっ
て画像処理の時間が極度に長くなることがない。
Further, since the pattern recognition apparatus and the pattern recognition method of the present invention grasp the characteristics of the region boundary by logical filtering, it is not necessary to smooth the disorder of the region boundary line by vectorization, and the complexity of the image can be used. The image processing time does not become extremely long.

【0020】[0020]

【実施例】次に、本発明の一実施例について図面を参照
して以下に説明する。図1は、本発明のパターン認識装
置の構成装置と、その構成装置による本発明のパターン
認識方法の処理の流れと、各処理工程の結果物とを示し
ている。
An embodiment of the present invention will be described below with reference to the drawings. FIG. 1 shows a constituent device of a pattern recognition apparatus of the present invention, a processing flow of a pattern recognition method of the present invention by the constituent device, and a result of each processing step.

【0021】図1に示すように、パターン認識装置1
は、8方向の微分処理装置2と、論理フィルタリング装
置3と、縮小終了判断装置4と、縮小処理装置5と、拡
大処理装置6と、データ圧縮装置7と、判定装置8とを
備えている。以下、図2の入力画像を例に、各構成装置
による具体的処理方法を説明する。
As shown in FIG. 1, the pattern recognition device 1
Includes an 8-direction differential processing device 2, a logical filtering device 3, a reduction end determination device 4, a reduction processing device 5, an expansion processing device 6, a data compression device 7, and a determination device 8. . Hereinafter, a specific processing method by each constituent device will be described by taking the input image of FIG. 2 as an example.

【0022】本実施例のパターン認識装置1による処理
では、最初にテレビカメラや視覚センサーによって対象
物を、図2に示す32×32画素の入力画像10に変換
する。この例では、入力画像10中に、大径の円形10
aと小径の円形10bと平行四辺形10cの各画像パタ
ーンが入力されている。これら各パターンの内部領域
は、背景部分より濃い濃度を有しているとする。また、
大径の円形10aの境界の一部Uは、不明確な形で取り
込まれているとする。
In the processing by the pattern recognition apparatus 1 of the present embodiment, the object is first converted into the input image 10 of 32 × 32 pixels shown in FIG. 2 by the television camera or the visual sensor. In this example, a large-diameter circle 10 is included in the input image 10.
Image patterns of a, a small-diameter circle 10b, and a parallelogram 10c are input. The internal area of each of these patterns is assumed to have a darker density than the background area. Also,
It is assumed that a part U of the boundary of the large-diameter circle 10a is captured in an indefinite form.

【0023】なお、一般的にテレビカメラで取り込まれ
る入力画像は512×512程度の画素を有している
が、32×32画素の入力画像の処理をそのまま適用で
きるので、以下簡単のために32×32画素の入力画像
10を用いて説明する。
Generally, an input image captured by a television camera has pixels of about 512 × 512, but since the processing of the input image of 32 × 32 pixels can be applied as it is, the following 32 will be used for simplicity. A description will be given using the input image 10 of x32 pixels.

【0024】図1に示すように、取り込まれた入力画像
10に対して、最初に微分処理装置2によって8方向の
微分処理を行う(ステップ100)。この微分処理は、
隣接する画素の濃度の差(傾斜)が大きく変化する画素
に大きな値を与えるものである。次に所定のしきい値を
超える濃度差を有する画素に対して、濃度の傾斜方向を
示す方向データ(1ないし8)を与える。ここで、方向
データが8個あるのは、本実施例の微分処理装置2が、
入力画像10に対して8方向に微分処理を行うからであ
る。
As shown in FIG. 1, the differential processing device 2 first performs differential processing in eight directions on the input image 10 taken in (step 100). This differentiation process
A large value is given to a pixel in which the difference (gradient) in density between adjacent pixels changes greatly. Next, the direction data (1 to 8) indicating the inclination direction of the density is given to the pixels having the density difference exceeding the predetermined threshold. Here, there are eight direction data because the differential processing device 2 of the present embodiment is
This is because the differential processing is performed on the input image 10 in eight directions.

【0025】図3は、上記ステップ100の8方向の微
分処理を具体的に示している。最初に、入力画像10に
対して、(+y)方向の荷重係数α1 で積和演算を行
い、濃度が変化する画素を抽出したエッジ画像Aを作成
する。このエッジ画像Aを作成するのと同時に、荷重係
数α1 に対応する方向データ(1)を画像全域に設定し
た方向画像Bを作成する。
FIG. 3 specifically shows the differential processing in the eight directions of step 100. First, the input image 10 is subjected to a product-sum operation with a weighting factor α1 in the (+ y) direction to create an edge image A in which pixels of which density changes are extracted. At the same time when the edge image A is created, the direction image B in which the direction data (1) corresponding to the weighting factor α1 is set in the entire image is created.

【0026】次に、他の荷重係数αi 、たとえば(+
y,−x)方向の荷重係数α2 で、積和演算を行って、
エッジ画像Ai を作成する。このエッジ画像Ai から前
記エッジ画像Aを引算処理し(負の値は0とする)、エ
ッジ画像(Ai −A)を作成する。このエッジ画像(A
i −A)に前記エッジ画像Aを加えてエッジ画像(A+
(Ai −A))を作成し、これを新たなエッジ画像Aと
する。この処理によって、図3に示すように、+y方向
の領域境界と、(+y,−x)方向の領域境界が接続さ
れる。
Next, another weighting factor α i, for example (+
y, −x) direction weighting factor α 2
Create an edge image Ai. The edge image A is subtracted from the edge image Ai (negative value is 0) to create an edge image (Ai-A). This edge image (A
i-A) and the edge image A is added to the edge image (A +
(Ai-A)) is created and used as a new edge image A. By this processing, as shown in FIG. 3, the region boundary in the + y direction and the region boundary in the (+ y, −x) direction are connected.

【0027】一方、エッジ画像(Ai −A)に対して、
荷重係数αi に対応する方向データ(図3の例では3)
が与えられ、この方向データ(3)の画像を前記方向デ
ータ(1)の方向画像Bと合成して新たな方向画像Bと
する。
On the other hand, for the edge image (Ai-A),
Direction data corresponding to the load coefficient αi (3 in the example of FIG. 3)
The image of the direction data (3) is combined with the direction image B of the direction data (1) to form a new direction image B.

【0028】図4は、他の荷重係数と方向データを示し
ている。図4の(a),(b),(c),(d),
(e),(f)はそれぞれ、(−x),(−y,−
x),(−y),(−y,+x),(+x),(+y,
+x)方向の荷重係数α3 ,α4 ,α5 ,α6 ,α7 ,
α8 と、対応する方向データ2,8,5,7,6,4と
を示している。
FIG. 4 shows other load factors and direction data. 4 (a), (b), (c), (d),
(E) and (f) are (-x), (-y,-), respectively.
x), (-y), (-y, + x), (+ x), (+ y,
+ X) load factors α3, α4, α5, α6, α7,
α8 and the corresponding direction data 2, 8, 5, 7, 6, 4 are shown.

【0029】上記すべての荷重係数と方向データについ
て、図3の処理を施すことによって、図5に示す8方向
エッジ画像11が作成される。この8方向エッジ画像1
1は、濃度が変化する画素、すなわち入力パターンの領
域の境界画素と、その濃度の傾斜方向の情報を含んでい
る。
The eight-direction edge image 11 shown in FIG. 5 is created by performing the processing of FIG. 3 on all the above load factors and direction data. This 8-direction edge image 1
1 includes a pixel whose density changes, that is, a boundary pixel in the area of the input pattern, and information on the density inclination direction.

【0030】次に上記8方向エッジ画像11を入力とし
て、論理フィルタリング装置3によって画素の配列の特
徴を特定する(図1のステップ110)。この論理フィ
ルタリングは、しきい値(1)以上の画素に対して、図
7に示すフィルター用画素パターンと一致する中央の画
素に特徴点データ()、横並び3画素パターンの画素
に特徴点データ(3)、縦並び3画素パターンの画素に
特徴点データ(4)、左上がりの3画素パターンの画素
に特徴点データ(5)、右上がりの3画素パターンの画
素に特徴点データ(6)、これ以外の画素パターンの画
素に特徴点データ(2)を付与することによって行われ
る。これによって、図6に示す特徴境界画像12が作成
される。
Next, the feature of the pixel array is specified by the logical filtering device 3 by using the 8-direction edge image 11 as an input (step 110 in FIG. 1). In this logical filtering, for pixels having a threshold value (1) or more, the feature point data () is set to the central pixel that matches the filter pixel pattern shown in FIG. 7, and the feature point data (( 3), feature point data (4) for vertically arranged three-pixel pattern pixels, feature point data (5) for leftwardly rising three-pixel pattern pixels, feature point data (6) for rightwardly upwardly three-pixel pattern pixels, It is performed by adding the feature point data (2) to the pixels of the other pixel patterns. As a result, the feature boundary image 12 shown in FIG. 6 is created.

【0031】図6に示すように、特徴境界画像は、領域
の境界を示す画素と、その画素の配列の特徴に関する情
報を含む。図において、2画素配列の特徴点データ
()は、3×3の論理フィルタリングでは、1回の処
理で付与することができない。この場合、まずしきい値
(1)以上の画素パターンに対して、フィルター用画素
パターンに加えて、1画素だけ膨張させ、これに特徴点
データ(7)を付与する論理フィルタリングを行う。続
いて、特徴点データ(7)をしきい値とする論理フィル
タリングで、連続した2画素パターンを特徴点データ
()にする。この結果得られた特徴点データ()の
画像を、前記特徴点データ(7)をもつ画像に対して、
特徴点データを入れ替える処理を行って図6の特徴境界
画像を作成することができる。
As shown in FIG. 6, the feature boundary image includes pixels indicating the boundaries of the regions and information about the features of the array of the pixels. In the figure, the feature point data () of a two-pixel array cannot be added in one process by 3 × 3 logical filtering. In this case, first, for a pixel pattern having a threshold value (1) or more, in addition to the filter pixel pattern, only one pixel is expanded, and logical filtering is performed to add the feature point data (7) thereto. Subsequently, the continuous two-pixel pattern is converted into the characteristic point data () by the logical filtering using the characteristic point data (7) as a threshold value. The image of the characteristic point data () obtained as a result is compared with the image having the characteristic point data (7),
The feature boundary image of FIG. 6 can be created by performing the process of replacing the feature point data.

【0032】なお、フィルター用画素パターンは、図7
に示した画素パターンがすべてではなく、これに類似し
たものも含まれる。
The filter pixel pattern is shown in FIG.
The pixel patterns shown in (1) are not all, and similar ones are also included.

【0033】次に、縮小終了判断装置4によって上記特
徴境界画像12の縮小処理が完了したか否かを判断する
(図1のステップ120)。縮小処理が完了していない
場合、縮小処理装置5によって、境界の特徴点データを
保持したまま、特徴境界画像12を1/2に縮小処理す
る(ステップ130)。この縮小された特徴境界画像1
3は、再び論理フィルタリング処理に供される。上記縮
小・論理フィルタリングの処理は、入力パターンの不完
全さを排除する作用を有し、縮小終了判断装置4の判断
によって所定回数繰り返される。
Next, the reduction end determination device 4 determines whether or not the reduction processing of the feature boundary image 12 is completed (step 120 in FIG. 1). When the reduction processing is not completed, the reduction processing device 5 reduces the feature boundary image 12 to 1/2 while holding the feature point data of the boundary (step 130). This reduced feature boundary image 1
3 is again subjected to the logical filtering process. The reduction / logical filtering process has a function of eliminating incompleteness of the input pattern, and is repeated a predetermined number of times according to the determination of the reduction end determination device 4.

【0034】本実施例では、上記論理フィルタリング・
縮小処理は2回繰り返され、32×32画素の特徴境界
画像12は、図8に示すように、16×16画素の特徴
境界画像13aと、8×8画素の特徴境界画像13bに
縮小される。縮小された特徴境界画像13aと特徴境界
画像13bは、それぞれ図示しない記憶装置に保存され
る。
In this embodiment, the above logical filtering
The reduction process is repeated twice, and the 32 × 32 pixel characteristic boundary image 12 is reduced to a 16 × 16 pixel characteristic boundary image 13a and an 8 × 8 pixel characteristic boundary image 13b, as shown in FIG. . The reduced characteristic boundary image 13a and the characteristic boundary image 13b are respectively stored in a storage device (not shown).

【0035】図8に示すように、1/4に縮小された特
徴境界画像13bは、滑らかな円周線の形状を有してい
ない替わりに、領域境界の不完全さが排除される。この
1/4に縮小された特徴境界画像13bと、1/2に縮
小された特徴境界画像13aの特徴を併せて判断するこ
とによって、画像パターンを特定できるようになる。
As shown in FIG. 8, the feature boundary image 13b reduced to 1/4 does not have the shape of a smooth circumferential line, but incompleteness of the area boundary is eliminated. The image pattern can be specified by determining the feature boundary image 13b reduced to 1/4 and the feature boundary image 13a reduced to 1/2 together.

【0036】図9は、32×32画素の特徴境界画像を
16×16画素の特徴境界画像に縮小する方法を具体的
に示している。境界の特徴点データを保持したまま1/
2の縮小処理とは、隣りあう4つの特徴点データの内、
2以上の特徴点データが失われないように、偶数番目と
奇数番目に位置する画素値の論理和を考慮して縮小する
処理をいう。
FIG. 9 specifically shows a method of reducing a characteristic boundary image of 32 × 32 pixels to a characteristic boundary image of 16 × 16 pixels. 1 / with the boundary feature point data retained
The reduction processing of No. 2 is, of the four adjacent feature point data,
This refers to a process of reducing in consideration of the logical sum of even-numbered and odd-numbered pixel values so that two or more feature point data are not lost.

【0037】具体的には、x方向にi番目、y方向にj
番目の画素を(xi ,yj )とすると、 (1) xi が偶数、yj が偶数である画素を1/2(x
i ,yj )、 (2) xi が偶数、yj が奇数である画素を1/2(x
i ,yj-1 )、 (3) xi が奇数、yj が偶数である画素を1/2(x
i-1 ,yj )、 (4) xi が奇数、yj が奇数である画素を1/2(x
i-1 ,yj-1 )、 となるように各画素を配置して画像を縮小する。上記縮
小処理(1)ないし(4)は、個別に32×32の特徴
境界画像の該当要素について行い、それぞれ図9の
(a),(b),(c),(d)に示す処理結果を得
る。
Specifically, it is i-th in the x direction and j in the y-direction.
If the x-th pixel is (xi, yj), then (1) the pixel where xi is an even number and yj is an even number is 1/2 (x
i, yj), (2) ½ (x
i, yj-1), (3) ½ (x) for pixels where xi is odd and yj is even
i−1, yj), (4) ½ (x) for pixels where xi is odd and yj is odd
i−1, yj−1), so that each pixel is arranged to reduce the image. The reduction processes (1) to (4) are individually performed on the corresponding elements of the 32 × 32 feature boundary image, and the processing results shown in (a), (b), (c), and (d) of FIG. To get

【0038】この4つの縮小処理結果(a)ないし
(d)を重ね合わせる(論理和を計算する)ことによ
り、図9(e)の16×16画素の縮小された特徴境界
画像13aを得る。
By superimposing these four reduction processing results (a) to (d) (calculating the logical sum), the 16 × 16 pixel reduced feature boundary image 13a of FIG. 9 (e) is obtained.

【0039】次に拡大処理装置6によって、上記縮小さ
れた特徴境界画像13a,13bを、拡大処理する(図
1のステップ140)。この拡大処理は、特徴点データ
を保持したまま各画素を拡大する。
Then, the enlargement processing device 6 enlarges the reduced characteristic boundary images 13a and 13b (step 140 in FIG. 1). This enlargement processing enlarges each pixel while retaining the feature point data.

【0040】1/2に縮小された特徴境界画像13aを
2倍に拡大・復元した特徴境界画像14aと、1/4に
縮小された特徴境界画像13bを4倍に拡大・復元した
特徴境界画像14bをそれぞれ図10と図11に示す。
A feature boundary image 14a obtained by expanding and restoring the feature boundary image 13a reduced to 1/2 by a factor of 2 and a feature boundary image obtained by expanding and restoring the feature boundary image 13b reduced to 1/4 by a factor of 4 14b is shown in FIGS. 10 and 11, respectively.

【0041】本実施例のパターン認識装置1では、各拡
大された特徴境界画像14a,14bのデータを効率よ
く格納するために、データ圧縮装置7を備え、このデー
タ圧縮装置7によって、原の特徴境界画像12と拡大さ
れた特徴境界画像14a,14bのデータを圧縮する
(図1のステップ150)。
The pattern recognition device 1 of the present embodiment is provided with a data compression device 7 in order to efficiently store the data of the respective enlarged feature boundary images 14a and 14b. The data of the boundary image 12 and the enlarged characteristic boundary images 14a and 14b are compressed (step 150 in FIG. 1).

【0042】図12は、上記データの圧縮処理の方法を
示している。図12に示すように、データ圧縮は、原の
特徴境界画像12の各画素の特徴点データを64倍に
し、1/2の縮小画像から拡大・復原した特徴境界画像
14aの各画素の特徴点データを8倍にし、さらに1/
4の縮小画像から拡大・復原した特徴境界画像14bの
各画素の特徴点データを1倍にして線形結合し、対応す
るデータに変換する。
FIG. 12 shows a method of compressing the data. As shown in FIG. 12, in the data compression, the feature point data of each pixel of the original feature boundary image 12 is multiplied by 64, and the feature point of each pixel of the feature boundary image 14a enlarged / restored from the reduced image of 1/2 is restored. Data is multiplied by 8 and 1 /
The feature point data of each pixel of the feature boundary image 14b enlarged and restored from the reduced image of No. 4 is multiplied by 1 and linearly combined to be converted into corresponding data.

【0043】詳しくは、線形結合による出力を以下のよ
うにデータ変換する。
More specifically, the data output from the linear combination is converted as follows.

【0044】 64× 0 64× 1 64× 2 64× 3 64× 4 64× 5 64× 6 8 ×0 0〜 6 7〜13 14〜20 21〜27 28〜34 35〜41 42〜48 ×1 49〜 56〜 63〜 70〜 77〜 84〜 91〜 ×2 98〜 105〜 112〜 119〜 126〜 133〜 140〜 ×3 147〜 154〜 161〜 168〜 175〜 182〜 189〜 ×4 196〜 203〜 210〜 217〜 224〜 231〜 238〜 ×5 245〜 252〜 259〜 266〜 273〜 280〜 287〜 ×6 294〜 301〜 308〜 315〜 322〜 329〜 326〜332 この変換で、3枚の特徴境界画像のデータは、0ないし
332の所定の数値に変換されて格納される。これによ
ってデータ量が1/3に圧縮される。
64 × 0 64 × 1 64 × 2 64 × 3 64 × 4 64 × 5 64 × 6 8 × 0 0 ~ 6 7 ~ 13 14 ~ 20 21 ~ 27 28 ~ 34 35 ~ 41 42 ~ 48 × 1 49 to 56 to 63 to 70 to 77 to 84 to 91 to × 2 98 to 105 to 112 to 119 to 126 to 133 to 140 to × 3 147 to 154 to 161 to 168 to 175 to 182 to 189 to × 4 196 to 203 ~ 210 ~ 217 ~ 224 ~ 231 ~ 238 ~ × 5 245 ~ 252 ~ 259 ~ 266 ~ 273 ~ 280 ~ 287 ~ × 6 294 ~ 301 ~ 308 ~ 315 ~ 322 ~ 329 ~ 326 ~ 332 With this conversion, 3 The data of the one feature boundary image is converted into a predetermined numerical value of 0 to 332 and stored. As a result, the amount of data is compressed to 1/3.

【0045】なお、上記データ圧縮処理は、画像の枚数
を少なくするためであり、その必要がなければ、前記3
枚の特徴境界画像をそれぞれ直接処理してもよい。
The above-mentioned data compression processing is for reducing the number of images.
Each of the feature boundary images may be directly processed.

【0046】次に、判定装置8によって、上記特徴境界
画像から基本図形を識別する(図1のステップ16
0)。まず、縮小率が大きい特徴境界画像(この例では
特徴境界画像13b)に着目して画素の配列に対して所
定の演算処理を行い、この演算結果と同一演算処理によ
る円や三角や四角などの基本図形の演算結果と比較す
る。
Next, the determining device 8 identifies the basic figure from the feature boundary image (step 16 in FIG. 1).
0). First, paying attention to the feature boundary image (feature boundary image 13b in this example) having a large reduction rate, a predetermined calculation process is performed on the pixel array, and a circle, triangle, square, or the like is calculated by the same calculation process as the calculation result. Compare with the calculation result of the basic figure.

【0047】上記演算処理は、注目すべき画素を中央画
素とする3×3の画素パターンに対して、図13に示す
4つの荷重係数β1 ,β2 ,β3 ,β4 で積和演算を行
って、第1ないし第4の特徴点を抽出することによって
行う。
In the above calculation processing, a product-sum calculation is performed on the 3 × 3 pixel pattern having the pixel of interest as the central pixel with the four weighting factors β 1, β 2, β 3 and β 4 shown in FIG. This is performed by extracting the first to fourth feature points.

【0048】たとえば、図11の網目線を施した画素を
抽出すべき画素としたとき、その周囲の特徴点データ
4,3,6を有する画素に対して、荷重係数β1 で積和
演算して512×4+64×3+8×6+1を算出し、
これをデータ変換で第1特徴点として取り出す。同様
に、荷重係数β2 ,β3 ,β4 を用いて第2ないし第4
の特徴点を取り出す。
For example, when the pixels to which the mesh line in FIG. 11 is applied are the pixels to be extracted, the sum of products is calculated by the weighting factor β1 for the pixels having the characteristic point data 4, 3 and 6 around them. 512 × 4 + 64 × 3 + 8 × 6 + 1 is calculated,
This is taken out as the first feature point by data conversion. Similarly, using the weighting factors β2, β3, and β4, the second to fourth
The characteristic points of are extracted.

【0049】一方、判定装置8は、予め円や三角や四角
などの基本図形の画素に同一の荷重係数β1 ,β2 ,β
3 ,β4 で積和演算を行った特徴点の値を格納してお
り、この特徴点の値と判定対象の画像パターンの特徴点
とを比較することにより、基本図形を判別する。
On the other hand, the judging device 8 preliminarily uses the same weighting factors β 1, β 2, β for pixels of a basic figure such as a circle, triangle or square.
The value of the characteristic point that has been subjected to the sum of products operation in 3 and β4 is stored, and the basic figure is discriminated by comparing the value of this characteristic point with the characteristic point of the image pattern to be judged.

【0050】縮小率が大きい特徴境界画像では、画像パ
ターンの特徴が失われていることがある。このような場
合は、縮小率がより小さい特徴境界画像について同様の
計算を行う。この縮小率が比較的小さい特徴境界画像の
判定結果と、前記縮小率が比較的大きい特徴境界画像の
判定結果とを組み合わせることによって、入力画像から
正確に基本図形を認識することができる。
In the feature boundary image having a large reduction rate, the feature of the image pattern may be lost. In such a case, the same calculation is performed for the feature boundary image having a smaller reduction rate. By combining the determination result of the feature boundary image with a relatively small reduction rate and the determination result of the feature boundary image with a relatively large reduction rate, the basic figure can be accurately recognized from the input image.

【0051】なお、荷重係数β2 ,β3 ,β4 は、図1
3に示したものに限られず、画素の配列を識別できる任
意の荷重計数とすることができる。
The load factors β2, β3 and β4 are as shown in FIG.
The weighting coefficient is not limited to that shown in FIG. 3 and can be any weighting coefficient that can identify the array of pixels.

【0052】[0052]

【発明の効果】上記説明から明らかなように、本発明の
パターン認識装置およびパターン認識方法は、微分処理
装置と、論理フィルタリング装置と、縮小処理装置と、
拡大処理装置と、判定装置とを有し、論理フィルタリン
グ装置と縮小処理装置によって境界の特徴点データを保
持したまま特徴境界画像を縮小し、さらにこれを拡大処
理装置によって拡大するので、入力画像に不明確な部分
が含まれている場合も、その入力画像の不完全さが縮小
・拡大の処理の過程で排除される。この縮小・拡大処理
を経た特徴境界画像と、既知の基本図形の特徴点を比較
することにより、基本図形を判別することができる。
As is apparent from the above description, the pattern recognition device and the pattern recognition method of the present invention include a differential processing device, a logical filtering device, a reduction processing device,
Since the feature boundary image is reduced by the logical filtering device and the reduction processing device while holding the feature point data of the boundary by the enlargement processing device and the determination device, and further enlarged by the enlargement processing device, Even when an unclear portion is included, the incompleteness of the input image is eliminated in the process of reduction / enlargement. By comparing the feature boundary image that has undergone this reduction / enlargement processing with the feature points of the known basic figure, the basic figure can be determined.

【0053】これにより、本発明のパターン認識装置お
よびパターン認識方法によれば、照明や使用環境によっ
て不完全な形で取り込まれた入力画像から基本図形を認
識することができる。
As a result, according to the pattern recognition apparatus and the pattern recognition method of the present invention, it is possible to recognize a basic figure from an input image which is imperfectly captured due to illumination or a use environment.

【0054】また、本発明のパターン認識装置およびパ
ターン認識方法は、上述したように、論理フィルタリン
グによって画素の配列の特徴を把握する。この論理フィ
ルタリングは、画素配列と所定の画素パターンとを比較
して、画素の配列の特徴を特定するので、従来の画像処
理方法のベクトル化のように画像の複雑化によって処理
時間が極度に長くなることがなく、複雑な図形の処理に
対してもほぼ一定の処理時間で処理することができる。
Further, as described above, the pattern recognition apparatus and the pattern recognition method of the present invention grasp the characteristics of the pixel array by logical filtering. In this logical filtering, the pixel array is compared with a predetermined pixel pattern to identify the characteristics of the pixel array, and therefore the processing time is extremely long due to the complexity of the image like the vectorization of the conventional image processing method. Therefore, it is possible to process a complicated graphic in a substantially constant processing time.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明のパターン認識装置の構成装置と、これ
ら構成装置による本発明のパターン認識方法の流れと、
各処理工程の結果物とを示した図。
FIG. 1 is a diagram showing a configuration apparatus of a pattern recognition apparatus according to the present invention, and a flow of a pattern recognition method according to the present invention by the configuration apparatus;
The figure which showed the result of each process.

【図2】入力画像の例を示した図。FIG. 2 is a diagram showing an example of an input image.

【図3】入力画像から領域境界を抽出する方法を示した
図。
FIG. 3 is a diagram showing a method of extracting a region boundary from an input image.

【図4】本発明による8方向微分処理に使用する荷重係
数と方向データの例を示した図。
FIG. 4 is a diagram showing an example of load factors and direction data used for 8-direction differential processing according to the present invention.

【図5】本発明のパターン認識方法によって作成した8
方向エッジ画像の例を示した図。
FIG. 5: 8 created by the pattern recognition method of the present invention
The figure which showed the example of the direction edge image.

【図6】本発明のパターン認識方法による特徴境界画像
の例を示した図。
FIG. 6 is a diagram showing an example of a feature boundary image according to the pattern recognition method of the present invention.

【図7】特徴点データを与えるフィルター用画素パター
ンの一例を示した図。
FIG. 7 is a diagram showing an example of a filter pixel pattern for giving feature point data.

【図8】境界の特徴点データを保持したまま縮小された
特徴境界画像の例を示した図。
FIG. 8 is a diagram showing an example of a feature boundary image reduced while holding feature point data of a boundary.

【図9】境界の特徴点データを保持したまま、特徴境界
画像を縮小する方法を示した図。
FIG. 9 is a diagram showing a method of reducing a feature boundary image while holding feature point data of a boundary.

【図10】1/2に縮小処理された特徴境界画像を2倍
に拡大処理した特徴境界画像を例示した図。
FIG. 10 is a diagram exemplifying a feature boundary image obtained by processing a feature boundary image that has been reduced to ½ by 2 times.

【図11】1/4に縮小処理された特徴境界画像を4倍
に拡大処理した特徴境界画像を例示した図。
FIG. 11 is a diagram exemplifying a characteristic boundary image obtained by processing a characteristic boundary image that has been reduced to ¼ by 4 times.

【図12】データ圧縮処理の方法を示した図。FIG. 12 is a diagram showing a method of data compression processing.

【図13】特徴境界画像から基本図形を判別する荷重係
数の例を示した図。
FIG. 13 is a diagram showing an example of weighting factors for discriminating a basic figure from a characteristic boundary image.

【符号の説明】[Explanation of symbols]

1 パターン認識装置 2 微分処理装置 3 論理フィルタリング装置 5 縮小処理装置 6 拡大処理装置 7 データ圧縮装置 8 判定装置 10 入力画像 11 8方向エッジ画像 12 特徴境界画像 13 縮小された特徴境界画像 14 拡大された特徴境界画像 1 Pattern Recognition Device 2 Differentiation Processing Device 3 Logical Filtering Device 5 Reduction Processing Device 6 Enlargement Processing Device 7 Data Compression Device 8 Judgment Device 10 Input Image 11 8 Directional Edge Image 12 Feature Border Image 13 Reduced Feature Border Image 14 Enlarged Feature boundary image

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】入力画像に対して微分処理を行って領域の
境界を示すエッジ画像を作成する微分処理装置と、 前記エッジ画像に対して画像パターンによる論理フィル
タリングを行って、境界の特徴を示す特徴点データを含
む特徴境界画像を作成する論理フィルタリング装置と、 境界の前記特徴点データを保持したまま前記特徴境界画
像を縮小処理する縮小処理装置と、 縮小された特徴境界画像を拡大する拡大処理装置と、 前記拡大処理装置によって拡大された特徴境界画像と既
知の基本図形の特徴点データとを比較して画像パターン
を判定する判定装置とを有することを特徴とするパター
ン認識装置。
1. A differential processing device for performing differential processing on an input image to create an edge image indicating a boundary of a region, and logical filtering by an image pattern for the edge image to show characteristics of the boundary. A logical filtering device for creating a feature boundary image including feature point data, a reduction processing device for reducing the feature boundary image while holding the feature point data of the boundary, and an enlargement process for enlarging the reduced feature boundary image. A pattern recognition device comprising: a device; and a determination device that determines an image pattern by comparing a feature boundary image enlarged by the enlargement processing device with feature point data of a known basic figure.
【請求項2】前記拡大処理装置の複数回の処理によって
拡大された複数の特徴境界画像の特徴点データを線形結
合とデータ変換によって圧縮するデータ圧縮装置を有す
ることを特徴とする請求項1に記載のパターン認識装
置。
2. A data compression device for compressing the feature point data of a plurality of feature boundary images enlarged by a plurality of processes of the enlargement processing device by linear combination and data conversion. The described pattern recognition device.
【請求項3】入力画像に対して微分処理を行って領域の
境界を示すエッジ画像を作成する第一工程と、 前記エッジ画像に対して画像パターンによる論理フィル
タリングを行って、境界の特徴を示す特徴点データを含
む特徴境界画像を作成し、境界の特徴点データを保持し
たまま前記特徴境界画像を縮小して、論理フィルタリン
グ処理を繰り返す第二工程と、 縮小された特徴境界画像を拡大する第三工程と、 前記第三工程によって拡大された特徴境界画像と既知の
基本図形の特徴点データとを比較して画像パターンを判
定する第四工程とを有することを特徴とするパターン認
識方法。
3. A first step of differentiating an input image to create an edge image showing a boundary of a region, and logically filtering the edge image with an image pattern to show a characteristic of the boundary. A second step of creating a feature boundary image including feature point data, reducing the feature boundary image while retaining the feature point data of the boundary, and repeating the logical filtering process, and a second step of enlarging the reduced feature boundary image. A pattern recognition method comprising: three steps; and a fourth step of comparing the feature boundary image enlarged in the third step with feature point data of a known basic figure to determine an image pattern.
【請求項4】前記微分処理は、8方向について微分処理
を行ってそれぞれの方向のエッジ情報を得て、これらエ
ッジ情報を一枚のエッジ画像に合成することを特徴とす
る請求項3に記載のパターン認識方法。
4. The differential processing according to claim 3, wherein the differential processing is performed in eight directions to obtain edge information in each direction, and the edge information is combined into one edge image. Pattern recognition method.
JP27376493A 1993-11-01 1993-11-01 Device and method for pattern recognition Pending JPH07129768A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP27376493A JPH07129768A (en) 1993-11-01 1993-11-01 Device and method for pattern recognition

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP27376493A JPH07129768A (en) 1993-11-01 1993-11-01 Device and method for pattern recognition

Publications (1)

Publication Number Publication Date
JPH07129768A true JPH07129768A (en) 1995-05-19

Family

ID=17532255

Family Applications (1)

Application Number Title Priority Date Filing Date
JP27376493A Pending JPH07129768A (en) 1993-11-01 1993-11-01 Device and method for pattern recognition

Country Status (1)

Country Link
JP (1) JPH07129768A (en)

Similar Documents

Publication Publication Date Title
US8300101B2 (en) Image processing method, image processing system, image pickup device, image processing device and computer program for manipulating a plurality of images
CN105894464A (en) Median filtering image processing method and apparatus
CN111754507A (en) Light-weight industrial defect image classification method based on strong attention machine mechanism
CN114581456B (en) Multi-image segmentation model construction method, image detection method and device
US20230252605A1 (en) Method and system for a high-frequency attention network for efficient single image super-resolution
CN113744142B (en) Image restoration method, electronic device and storage medium
CN112163996A (en) Flat-angle video fusion method based on image processing
CN111767752B (en) Two-dimensional code identification method and device
CN110599403B (en) Image super-resolution reconstruction method with good high-frequency visual effect
Ioannidis et al. An edge preserving image resizing method based on cellular automata
JPH07129768A (en) Device and method for pattern recognition
WO2022133874A1 (en) Image processing method and device and computer-readable storage medium
JPH06103371A (en) Color image processing method/device
CN111709886B (en) Image highlight removing method based on U-shaped cavity residual error network
JPS63211474A (en) Hierarchization structural template matching method
CN117237830B (en) Unmanned aerial vehicle small target detection method based on dynamic self-adaptive channel attention
JP3758229B2 (en) Line segment extraction method, line segment extraction apparatus, and line segment extraction processing program
CN114445364B (en) Fundus image microaneurysm region detection method and imaging method thereof
JP2020154562A (en) Information processing device, information processing method and program
JP7414540B2 (en) Probability acquisition device and probability acquisition method
CN112528851B (en) Face detection method and system
CN104541289A (en) Interest point judgement method and interest point judgement device
JPH02138677A (en) Detecting device for picture feature point
CN114581448B (en) Image detection method, device, terminal equipment and storage medium
JP2986185B2 (en) Line width classification method for line figures