JPH0528245A - Picture recognition device - Google Patents

Picture recognition device

Info

Publication number
JPH0528245A
JPH0528245A JP3184856A JP18485691A JPH0528245A JP H0528245 A JPH0528245 A JP H0528245A JP 3184856 A JP3184856 A JP 3184856A JP 18485691 A JP18485691 A JP 18485691A JP H0528245 A JPH0528245 A JP H0528245A
Authority
JP
Japan
Prior art keywords
num
image
divided
image data
div
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP3184856A
Other languages
Japanese (ja)
Inventor
Hirohide Ushida
牛田  博英
Toru Fujii
徹 藤井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP3184856A priority Critical patent/JPH0528245A/en
Publication of JPH0528245A publication Critical patent/JPH0528245A/en
Pending legal-status Critical Current

Links

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/12Improving ICE efficiencies

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

PURPOSE:To extract a characteristic on the boundary of a division area, to prevent the influence of density unevenness at the time of printing and to prevent misidentification owing to the difference of the form of a character. CONSTITUTION:A picture division part 3 divides a density picture into plural areas by a vertical line and a lateral line based on density picture data from a camera 1 through a picture conversion part 2, divides them by shifting the position of the vertical line and that of the lateral line and outputs division picture data for respective division areas. A characteristic amount extraction part 4 operates respective characteristic amounts such as a density average value, a density distribution value, a lateral direction centroid value and vertical direction centroid value from the division picture data and outputs them for respective division areas. A characteristic amount normalization part 5 normalizes the respective characteristic amounts and a recognition part 6 learns a back propagation using a neural network based on the respective characteristic amounts after normalization so as to recognize the picture of an inspection object.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、検査対象物を撮像して
画像データを読込み、その画像データに基づいて上記検
査対象物の画像を認識する画像認識装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image recognition apparatus for picking up an image of an inspection object, reading image data, and recognizing an image of the inspection object based on the image data.

【0002】[0002]

【従来の技術】従来、検査ラインなどに設けられ、印刷
文字等の検査対象物を撮像した画像データにより検査対
象物の画像を認識する画像認識装置では、例えば、検査
対象物の2値化画像における画素の欠け量等を判定基準
として、検査対象物の良品/不良品判定を行っている。
2. Description of the Related Art Conventionally, in an image recognition apparatus which is provided on an inspection line or the like and recognizes an image of the inspection object based on image data of the inspection object such as print characters, for example, a binary image of the inspection object. The defective / non-defective item of the inspection object is determined by using the amount of missing pixels or the like in FIG.

【0003】つまり、このような画像認識装置では、画
像のある領域を指定しその領域内の画素等の画像データ
のみを使用して判定し、また、検査対象物である文字等
の形状にも関係なく判定している。
That is, in such an image recognition apparatus, a certain area of an image is designated and judged using only image data such as pixels in the area, and the shape of a character or the like to be inspected is determined. Judging regardless.

【0004】[0004]

【発明が解決しようとする課題】しかし、このような従
来の画像認識装置では、2値化画像を認識する場合に
は、その2値化画像のある領域を指定し、その領域内の
画素数を判定基準としていたため、印刷文字等の検査の
際には、その領域の境界上の特徴については抽出でき
ず、認識率が低いという問題がある。
However, in the case of recognizing a binarized image in such a conventional image recognition apparatus, a certain region of the binarized image is designated and the number of pixels in the region is specified. Since the above is used as a criterion, there is a problem that the feature on the boundary of the area cannot be extracted when inspecting printed characters and the recognition rate is low.

【0005】また、指定したある領域内の画素の画像デ
ータのみを使用していたため、印刷による濃度ムラの影
響を受けやすく、また、文字の形に関係なく判定を行な
っているために文字の形により判定する人間の判断とは
異なる認識結果となり、誤認の発生確率が高いという問
題もある。
Further, since only the image data of the pixels within the designated certain area is used, it is easily affected by the density unevenness due to printing, and since the determination is made regardless of the character shape, the character shape is determined. There is also a problem that the recognition result is different from that of the human judgment, and the probability of false recognition is high.

【0006】そこで、本発明は上記問題に着目してなさ
れたもので、領域の境界上の特徴も抽出すると共に、印
刷の濃度ムラの影響を受けず、かつ、文字の形も考慮し
て、認識率を向上させた文字認識装置を提供することに
ある。
Therefore, the present invention has been made in view of the above-mentioned problem, and in addition to extracting the characteristic on the boundary of the area, it is not affected by the density unevenness of printing, and the shape of the character is taken into consideration. It is to provide a character recognition device with an improved recognition rate.

【0007】[0007]

【課題を解決するための手段】上記目的を達成するた
め、本発明では、検査対象物を撮像して画像データを読
込み、その画像データに基づき上記検査対象物の画像を
認識する画像認識装置において、上記画像データを複数
の領域に分割すると共に、再度、上記画像データを上記
分割領域とずれるように分割し、両分割時に、各分割領
域の画像データを各々出力する画像分割手段と、上記各
画像分割手段により出力された画像データから各分割領
域毎に複数の特徴量を抽出する特徴量抽出手段と、上記
特徴量抽出手段により抽出された各分割領域毎の複数の
特徴量を正規化する特徴量正規化手段と、上記特徴量正
規化手段により正規化された各分割領域毎の複数の特徴
量を入力し、期待する認識結果に近づくように学習して
認識結果を出力する認識手段とを具備したことを特徴と
する。
In order to achieve the above object, the present invention provides an image recognition apparatus for picking up an image of an inspection object, reading image data, and recognizing an image of the inspection object based on the image data. , The image data is divided into a plurality of areas, the image data is divided again so as to be shifted from the divided areas, and at the time of both divisions, image dividing means for outputting the image data of the divided areas, respectively. A feature quantity extracting means for extracting a plurality of feature quantities for each divided area from the image data output by the image dividing means, and a plurality of feature quantities for each divided area extracted by the feature quantity extracting means are normalized. A feature amount normalizing means and a plurality of feature amounts for each divided area normalized by the feature amount normalizing means are input, learning is performed so as to approach an expected recognition result, and the recognition result is output. Characterized by comprising the identification means.

【0008】[0008]

【作用】上記構成にあっては、画像分割手段が、検査対
象物を撮像した画像データに基づき検査対象物の画像を
複数の領域に分割すると共に、再度、検査対象物の画像
をその分割領域とずれるように分割し、両分割時には、
各分割領域における画像データを各々出力する。
In the above structure, the image dividing means divides the image of the inspection object into a plurality of areas based on the image data of the image of the inspection object, and again divides the image of the inspection object into the divided areas. Divide so that it will not come off, and when dividing,
The image data in each divided area is output.

【0009】そして、特徴量抽出手段が画像分割手段か
らの画像データから各分割領域毎に複数の特徴量を抽出
し、次いで特徴量正規化手段が特徴量抽出手段からの各
分割領域毎の複数の特徴量を正規化し、さらに認識手段
が特徴量正規化手段からの正規化された分割領域毎の複
数の特徴量を入力して、期待する認識結果に近づくよう
に学習して認識結果を出力する。
Then, the feature amount extracting means extracts a plurality of feature amounts for each divided area from the image data from the image dividing means, and then the feature amount normalizing means extracts a plurality of feature amounts for each divided area from the feature amount extracting means. The feature quantity is normalized, and the recognition means inputs a plurality of feature quantities for each of the normalized divided areas from the feature quantity normalization means, learns to approach the expected recognition result, and outputs the recognition result. To do.

【0010】なお、複数の特徴量には、分割領域の画像
データの平均や、分散、分割領域における横方向および
縦方向の重心等が考えられる。
It is to be noted that the plurality of feature quantities may be the average and variance of image data in the divided areas, the center of gravity in the horizontal and vertical directions in the divided areas, and the like.

【0011】[0011]

【実施例】以下、本発明に係る画像認識装置の一実施例
を、図面に基づいて説明する。図1は、この画像認識装
置の全体構成をブロック図により示している。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of an image recognition apparatus according to the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram showing the overall configuration of this image recognition apparatus.

【0012】この画像認識装置は、印刷文字等の検査対
象物を撮像するカメラ1と、本発明の各構成要素に対応
する画像変換部2、画像分割部3、特徴量抽出部4、特
徴量正規化部5および認識部6を有している。
This image recognition apparatus includes a camera 1 for picking up an inspection object such as a printed character, an image conversion unit 2, an image division unit 3, a feature amount extraction unit 4, and a feature amount corresponding to each component of the present invention. It has a normalization section 5 and a recognition section 6.

【0013】画像変換部2は、カメラ1が検査対象物を
撮像した画像信号を濃淡画像データ(以下、画像データ
という)に変換して出力するものである。
The image conversion unit 2 converts the image signal of the object to be inspected by the camera 1 into grayscale image data (hereinafter referred to as image data) and outputs it.

【0014】画像分割部3は、画像変換部2からの画像
データを入力して、後述する2つの分割手法により、ま
ずは検査対象物の画像データを縦およびを横線とにより
複数の領域に分割すると共に、再度、一回目の分割とは
XおよびY方向に各々1 /2ずらして分割し、両分割時
に、各分割領域毎に各画素の濃淡値を分割画像データと
して各々出力する。
The image dividing section 3 receives the image data from the image converting section 2 and divides the image data of the inspection object into a plurality of areas by vertical and horizontal lines by two dividing methods described later. At the same time, the first division is again performed by shifting by 1/2 in the X and Y directions, and at the time of both divisions, the grayscale value of each pixel is output as divided image data for each divided area.

【0015】特徴量抽出部4は、濃度平均演算部4a、
濃度分散演算部4b、横方向重心演算部4cおよび縦方
向重心演算部4dから構成されており、各々、画像分割
部3からの分割画像データを入力して、各分割領域ごと
に濃度平均値、濃度分散値、横方向および縦方向重心値
等の特徴量を抽出し、抽出された各特徴量を各分割領域
ごとに出力する。
The feature quantity extraction unit 4 includes a density average calculation unit 4a,
It is composed of a density distribution calculation unit 4b, a horizontal direction gravity center calculation unit 4c, and a vertical direction gravity center calculation unit 4d. The divided image data from the image division unit 3 is input to each of the divided regions, and an average density value is calculated for each divided region. A feature amount such as a density variance value, a horizontal direction and a vertical direction centroid value is extracted, and each extracted feature amount is output for each divided area.

【0016】特徴量正規化部5は、予め設定しておいた
正規化定数により、特徴量抽出部4が算出した分割画像
の各特徴量(平均値,分散値,横および縦方向の重心
値)を正規化し、正規化後の特徴量を出力する。
The feature quantity normalization unit 5 uses the preset normalization constants to calculate each feature quantity (average value, variance value, horizontal and vertical barycentric values of the divided images calculated by the feature quantity extraction unit 4. ) Is normalized, and the normalized feature amount is output.

【0017】認識部6は、特徴量正規化部5からの正規
化された各特徴量により検査対象物の画像を認識するも
ので、認識手法としてバックプロパゲーション・アルゴ
リズムにより学習する階層型ニューラルネットワークを
使用し、例えば、検査対象物として撮像したリレー・ケ
ース表面等の印刷文字の良否を認識し、その認識結果を
出力する。
The recognition unit 6 recognizes the image of the inspection object based on each normalized feature amount from the feature amount normalization unit 5, and is a hierarchical neural network that learns by a backpropagation algorithm as a recognition method. Is used to recognize the quality of the printed characters such as the surface of the relay case imaged as the inspection object and output the recognition result.

【0018】図2はこの画像認識装置の各構成要素の動
作を示している。まずは、カメラ1からの画像信号を画
像変換部2が画像データに変換し、その画像データを画
像分割部3が読み込み(ステップ100)、2つの分割
手法により検査対象物の画像をずらして分割し、両分割
時に、各分割領域ごとに分割画像データを各々出力する
(ステップ200)。
FIG. 2 shows the operation of each component of this image recognition apparatus. First, the image conversion unit 2 converts the image signal from the camera 1 into image data, and the image division unit 3 reads the image data (step 100) and shifts and divides the image of the inspection object by two division methods. During both divisions, divided image data is output for each divided area (step 200).

【0019】特徴量抽出部4ではその分割画像データを
入力して、各々、全分割画像の濃度平均値の算出(ステ
ップ300)、濃度分散値の算出(ステップ400)、
横方向重心値の算出(ステップ500)、縦方向重心値
の算出(ステップ600)を行ない、特徴量正規化部5
がその各特徴量を正規化して出力する(ステップ70
0)。
The feature amount extraction unit 4 inputs the divided image data, calculates the average density value of all divided images (step 300), calculates the density dispersion value (step 400),
The horizontal direction center value is calculated (step 500) and the vertical direction center value is calculated (step 600).
Outputs the normalized feature quantities (step 70).
0).

【0020】続いて、認識部6がその正規化後の特徴量
を取り込み(ステップ800)、その特徴量を「学習」
するか、「認識」するかを判別する(ステップ90
0)。「学習」は、「認識」の前に検査対象物の種類に
応じた回数だけ検査対象物あるいは検査の基準とする対
象物について実行される。
Subsequently, the recognition unit 6 takes in the normalized feature amount (step 800) and "learns" the feature amount.
It is determined whether to perform or "recognize" (step 90).
0). The “learning” is executed for the inspection target object or the inspection target object as many times as necessary according to the type of the inspection target object before “recognition”.

【0021】そして、「学習」の場合には後述するニュ
ーラルネットワークを使用したバックプロパゲーション
により学習を行なう一方(ステップ950)、「認識」
の場合には、学習により得られた結果に基づいて認識を
行ない(ステップ1000)、その認識結果を出力して
(ステップ1100)、一つの検査対象物についての検
査が終了する。
In the case of "learning", learning is performed by backpropagation using a neural network described later (step 950), while "recognition" is performed.
In this case, recognition is performed based on the result obtained by learning (step 1000), the recognition result is output (step 1100), and the inspection for one inspection target object ends.

【0022】この様な上記ステップ100〜1100ま
での処理を、順次、検査対象物ごとに行う。図3は、図
2におけるステップ100、すなわち画像変換部2から
画像分割部3へ入力する画像データと、その画像データ
における画素の座標との関係を示している。
The above steps 100 to 1100 are sequentially performed for each inspection object. FIG. 3 shows the relationship between step 100 in FIG. 2, that is, the image data input from the image conversion unit 2 to the image division unit 3 and the coordinates of pixels in the image data.

【0023】この図においては、画像Aに対する画素の
端点の座標値を、左上端点(x start,y start )、右上
端点(x end,y start )、左下端点(x start,y end
),右下端点(x end,y end )とし、また、座標(i,
j)における画素の値をgrade(i,j)とする。
In this figure, the coordinate values of the end points of the pixel with respect to the image A are the upper left end point (x start, y start), the upper right end point (x end, y start), and the lower left end point (x start, y end).
), The lower right point (x end, y end), and the coordinates (i,
Let the value of the pixel in j) be grade (i, j).

【0024】すると、この画像データは、grade(x star
t,y start), ……, grade(x end,ystart), ……, grade
(i,j), ……, grade(x start,y end), ……, grade(x e
nd,y end)という順で画像変換部2から出力される。
Then, this image data is grade (x star
t, y start), ……, grade (x end, y start), ……, grade
(i, j), ……, grade (x start, y end), ……, grade (xe
nd, y end) are output in this order from the image conversion unit 2.

【0025】図4は、図2におけるステップ200、す
なわち画像分割部3における第1の分割手法による画像
分割の詳細な処理手順を示している。
FIG. 4 shows a detailed processing procedure of step 200 in FIG. 2, that is, the image division by the first division method in the image division unit 3.

【0026】本実施例では、画像の横方向分割数をx nu
m 、縦方向分割数をy num 、各分割領域における横方向
画素数をdiv x num 、縦方向画素数をdiv y num で示し
ており、x num およびy num は予めユ−ザが設定してお
く。
In this embodiment, the number of horizontal divisions of the image is x nu.
m, the number of vertical divisions is y num, the number of horizontal pixels in each divided area is div x num, and the number of vertical pixels is div y num.x num and y num are preset by the user. deep.

【0027】以下、第1の分割方法を説明する。まず、
横方向分割数x num と縦方向の分割数y num を読み込む
共に(ステップ202)、画像変換部2からの画像デー
タを読み込み、画像データの始点(x start,y start)と
終点(x end,y end)を記憶する(ステップ204)。
The first division method will be described below. First,
The horizontal division number x num and the vertical division number y num are read (step 202), the image data from the image conversion unit 2 is read, and the start point (x start, y start) and end point (x end, y end) is stored (step 204).

【0028】次に、獲得した横方向の分割数(x num)と
縦方向の分割数(y num)に従って、分割領域の横方向の
画素数(div x num)と縦方向の画素数(div y num)を次
式、 div x num =(x end− x start+1)/ x num div y num =(y end− y start+1)/ y num により算出する(ステップ206)。ただし、小数点以
下は切り捨てる。従って、分割領域の横方向画素数(div
x num) と縦方向画素数(div y num) は、整数値をと
り、次式を満たしているものとする。 div x num ≧2 div y num ≧2 続いて、ステップ206で求めた横方向および縦方向の
画素数を基に、以下に示すステップ208〜234の処
理により、第1の分割手法により分割した場合の各分割
領域(Xx ,Yy )毎に、各画素の画像データを出力す
る。
Next, according to the acquired number of horizontal divisions (x num) and number of vertical divisions (y num), the number of horizontal pixels (div x num) and the number of vertical pixels (div y num) is calculated by the following formula: div x num = (x end-x start + 1) / x num div y num = (y end-y start + 1) / y num (step 206). However, the number after the decimal point is truncated. Therefore, the horizontal pixel count (div
x num) and the number of pixels in the vertical direction (div y num) take integer values and satisfy the following equation. div x num ≧ 2 div y num ≧ 2 Subsequently, based on the number of pixels in the horizontal direction and the vertical direction obtained in step 206, by the processing of steps 208 to 234 shown below, the first division method is used for division The image data of each pixel is output for each divided area (Xx, Yy).

【0029】つまり、まずは変数 n,m ,j ,i に初期
値として“0”を設定し(ステップ208〜214)、
次式、 Xx =x start +m * div x num+i Yy =y start +n * div y num+j により画素の座標(Xx ,Yy )を指定し(ステップ2
16)、その座標(Xx ,Yy )の画素の画像データを
出力する(ステップ218)。
That is, first, "0" is set as an initial value for the variables n, m, j and i (steps 208 to 214),
The pixel coordinates (Xx, Yy) are specified by the following formula: Xx = xstart + m * divxnum + iYy = ystart + n * divynum + j (step 2
16) and output the image data of the pixel at the coordinates (Xx, Yy) (step 218).

【0030】続いて、i を1 インクリメントして(ステ
ップ220)、i が分割領域の横方向画素数div x num
に達するまで上記ステップ216〜220までの処理を
繰り返し(ステップ222)、i がdiv x num 以上とな
った場合、j を1 インクリメントして(ステップ22
4)、j が分割領域の横方向画素数div y num に達する
まで上記ステップ214〜224までの処理を繰り返す
(ステップ226)。
Then, i is incremented by 1 (step 220), and i is the number of pixels in the horizontal direction of the divided area div x num.
The above steps 216 to 220 are repeated (step 222) until i reaches div x num or more, and j is incremented by 1 (step 22).
4), the above steps 214 to 224 are repeated until j reaches the horizontal direction pixel number div y num of the divided area (step 226).

【0031】これにより、一つの分割領域における全て
の画素が上記ステップ216で指定され、その分割領域
における全ての座標(Xx ,Yy )の画素から画像デー
タが出力される。なお、上記ステップ222でm が(X
num −1 )のときには、i が{(x end −x start +1
)−(m −1 ) *div xnum }に達するまで、また、ス
テップ226でn が(Y num −1 )のときには、j が
{(y end −y start +1 )−(m −1 ) *div y num
}に達するまでとする。
As a result, all the pixels in one divided area are designated in the above step 216, and the image data is output from the pixels of all the coordinates (Xx, Yy) in the divided area. In step 222, m is (X
num −1), i is {(x end −x start +1
) − (M −1) * div xnum}, and when n is (Y num −1) in step 226, j is {(y end −y start +1) − (m −1) * div. y num
} Is reached.

【0032】次に、上記ステップ226でj がdiv y nu
m 以上となった場合、m を1 インクリメントして(ステ
ップ228)、m が x numに達するまで上記ステップ2
12〜228までの処理を繰り返し(ステップ23
0)、ステップ218で座標(Xx ,Yy )の画素を出
力する。
Next, in step 226, j is div y nu.
If it becomes m or more, m is incremented by 1 (step 228), and the above step 2 is performed until m reaches x num.
The processing from 12 to 228 is repeated (step 23
0), in step 218, the pixel at the coordinates (Xx, Yy) is output.

【0033】この処理の繰返しにより、Y方向のある一
段について、そのX方向の1ライン全ての分割領域につ
いて左端から右端へ各分割領域ごとに、各画素の画像デ
ータが出力される。
By repeating this processing, the image data of each pixel is output from a left end to a right end of all the divided areas of one line in the X direction for one stage in the Y direction.

【0034】さらに、上記ステップ230でm がx num
以上となった場合、n を1 インクリメントして(ステッ
プ232)、nが y numに達するまで上記ステップ21
0〜232までの処理を繰り返し(ステップ234)、
ステップ218で座標(Xx,Yy )の画素を出力す
る。
Further, in step 230, m is x num.
In the case of the above, n is incremented by 1 (step 232) and the above step 21 is repeated until n reaches y num.
The processing from 0 to 232 is repeated (step 234),
In step 218, the pixel at the coordinates (Xx, Yy) is output.

【0035】ここまでの処理の繰返しにより、X方向の
1番目のライン、X方向の次のライン、・・・、X方向
の最後のラインというように、分割画像のY方向各段に
ついて、左端の分割領域から各分割領域ごとに各画素の
画像データが出力される。
By repeating the processing so far, the left end of each stage in the Y direction of the divided image, such as the first line in the X direction, the next line in the X direction, ..., And the last line in the X direction. The image data of each pixel is output from each divided area for each divided area.

【0036】以上、図4に示すステップ202〜234
までの処理を実行することにより、各座標(Xx ,Yy
)の画素における画像データが各分割領域ごとに上記
のように出力され、ここまでの処理が終了したら、続い
て、第2の分割手法により画像データを分割する。
As described above, steps 202 to 234 shown in FIG.
By executing the processes up to, each coordinate (Xx, Yy
The image data in the pixel) is output as described above for each divided area, and when the processing up to this point is completed, the image data is subsequently divided by the second dividing method.

【0037】図5は、分割領域と、その分割領域におけ
る画像データの座標との関係を示している。この図にお
いては、分割領域A’に対する画素の端点の座標値を、
左上端点(div x start,div y start )、右上端点(di
v x end,div y start )、左下端点(div x start,div
y end ),右下端点(div x end,div y end )とし、ま
た、座標(i,j)における画素の画像データ、すなわち濃
淡値をgrade(i,j)とする。
FIG. 5 shows the relationship between the divided areas and the coordinates of the image data in the divided areas. In this figure, the coordinate value of the end point of the pixel with respect to the divided area A ′ is
Upper left corner (div x start, div y start), upper right corner (di
vx end, div y start), the lower left point (div x start, div
y end), the lower right point (div x end, div y end), and the image data of the pixel at the coordinates (i, j), that is, the grayscale value is grade (i, j).

【0038】このように設定した場合、画像変換部2か
らの画像データは、各分割領域A’ごとに、grade(div
x start,div y start), ……, grade(div x end,div y
start), ……, grade(i,j), ……, grade(div x start,
div y end), ……, grade(div x end,div y end)という
順で出力される。
When set in this way, the image data from the image conversion unit 2 is grade (div) for each divided area A '.
x start, div y start), ......, grade (div x end, div y
start), ……, grade (i, j), ……, grade (div x start,
div y end), ......, grade (div x end, div y end) are output in this order.

【0039】図6は、第1の分割手法により画像データ
Aを分割した場合の各分割領域を示している。図に示す
ように、第1の分割方法では、画像データAの始点(x s
tart,y start) から、X方向にはdiv x num 、Y方向に
はdiv y num ずつ分割領域をとっていき、各分割領域ご
とに画像データが出力される。従って、分割領域の数
は、合計x num * y numとなる。
FIG. 6 shows each divided area when the image data A is divided by the first division method. As shown in the figure, in the first division method, the start point (xs
tart, y start), the divided areas are taken by div x num in the X direction and div y num in the Y direction, and the image data is output for each divided area. Therefore, the total number of divided areas is x num * y num.

【0040】なお、図中、 X1=X2=…=Xi=…=Xx num-1= div x num Xx num= div x num+(x end−x start + 1−div x nu
m * x num) ただし、i=1,2,…,x num Y1=Y2=…=Yj=…=Yy num-1=div ynum Yy num=div y num +(y end−y start + 1−div y nu
m * y num) ただし、j=1,2,…,y num である。
In the figure, X1 = X2 = ... = Xi = ... = Xx num-1 = div x num Xx num = div x num + (x end-x start + 1-div x nu
m * x num) However, i = 1,2, ..., x num Y1 = Y2 = ... = Yj = ... = Yy num-1 = div ynum Yy num = div y num + (y end−y start + 1− div y nu
m * y num) However, j = 1,2, ..., y num.

【0041】図7は、画像分割部4における第2の分割
手法による画像分割の詳細な処理手順を示している。ま
ずこの分割手法の場合には、第1の分割手法の場合と最
初の開始位置をずらすため、div x num'を (div x num)
/ 2、div y num'を (div y num)/ 2と各々設定し(ス
テップ236)、変数 n,m ,j ,i に初期値として
“0 ”を設定する(ステップ238〜244)。
FIG. 7 shows a detailed processing procedure of image division by the second division method in the image division unit 4. First, in the case of this division method, in order to shift the first start position from the case of the first division method, div x num 'is (div x num)
/ 2 and div y num 'are respectively set to (div y num) / 2 (step 236), and "0" is set as an initial value for variables n, m, j, and i (steps 238 to 244).

【0042】そして、この第2の分割手法により画像デ
ータを出力する画素の座標(Xx ,Yy )は、次式、 Xx = x start +div x num ’+(m-1) *div x num +i ( m≠0 の場合) Yx = y start +div y num ’+(m-1) *div y num +j ( n≠0 の場合) により指定され(ステップ250,256)、各座標
(Xx ,Yy )の画素における画像データを出力させる
(ステップ258)。
Then, the coordinates (Xx, Yy) of the pixel for outputting the image data by the second division method are as follows: Xx = xstart + divxnum '+ (m-1) * divxnum + i ( If m ≠ 0) Yx = y start + div y num '+ (m-1) * div y num + j (when n ≠ 0) is specified (steps 250, 256), for each coordinate (Xx, Yy) The image data in the pixel is output (step 258).

【0043】なお、各座標(Xx ,Yy )の指定前に
は、 m=0 および n=0 の判定が各々行われており(ス
テップ246,252)、ここで m=0 の場合、すなわ
ち画像データにおける最左端の分割領域の場合にはXx
を(x start + i)と設定する一方(ステップ24
8)、 n=0 の場合、すなわち画像データにおける最上
端の分割領域の場合にはYy を(y start + j)と設定
して(ステップ254)、上記ステップ258で各座標
(Xx ,Yy )の画素における画像データを出力させ
る。
Before each coordinate (Xx, Yy) is specified, it is judged that m = 0 and n = 0 (steps 246 and 252). If m = 0, that is, the image Xx in the case of the leftmost divided area in the data
While setting (x start + i) to (step 24
8) In the case of n = 0, that is, in the case of the uppermost divided area in the image data, Yy is set to (y start + j) (step 254), and in step 258, each coordinate (Xx, Yy) is set. The image data in the pixel is output.

【0044】そして、画像データ出力後は、変数i を1
インクリメントして(ステップ260)、変数m =0 の
ときは変数i がdiv x num'に達するまで上記ステップ2
46〜260までの処理を繰り返す(ステップ26
2)。ここで、変数m ≠0 、かつ、m ≠x num のときは
i がdiv x num に達するまで、m =x num のときはi が
{(x end −x start +1 )−div x num'−(m −2)*
div x num }に達するまでとする。
After outputting the image data, the variable i is set to 1
Increment (step 260) and when the variable m = 0, the above step 2 is performed until the variable i reaches div x num '.
The processing from 46 to 260 is repeated (step 26
2). Here, when the variables m ≠ 0 and m ≠ x num,
Until i reaches div x num, i is {(x end −x start +1) −div x num′− (m −2) * when m = x num.
div x num} is reached.

【0045】また、i が{(x end −x start +1 )−
div x num'−(m −2)*div xnum}以上となった場合に
は、j を1 インクリメントして(ステップ264)、m
=0 のときは変数j がdiv x num'に達するまでステップ
244〜264までの処理を繰り返す(ステップ26
6)。ここで、変数n ≠0 、かつ、n ≠y num −1 のと
きはj がdiv Y num に達するまで、n =y num −1 のと
きはj が{(y end −y start +1 )−div y num'−
(m −2)*div y num }に達するまでとする。
Further, i is {(x end −x start +1) −
div x num '-(m -2) * div xnum} or more, j is incremented by 1 (step 264) and m
When = 0, the processes of steps 244 to 264 are repeated until the variable j reaches div x num '(step 26
6). Here, when the variable n ≠ 0 and n ≠ y num −1, j reaches div Y num, and when n = y num −1, j is {(y end −y start +1) −div y num'-
(M − 2) * div y num} is reached.

【0046】ここまでの処理により、上記第1の分割手
法の分割領域とはXおよびYの各方向に1 /2 だけずれ
て指定された分割領域から、その一つの分割領域におけ
る全ての画素の画像データが出力される。
By the processing up to this point, all the pixels in one divided area are deselected from the specified divided area shifted by 1/2 in each of the X and Y directions from the divided area of the first division method. Image data is output.

【0047】続いて、変数j が{(y end −y start +
1 )−div y num'−(m −2)*divy num }以上となっ
た場合、変数m を1 インクリメントして(ステップ26
8)、変数m が x num+1 に達するまでステップ242
〜268までの処理を繰り返す(ステップ270)。
Then, the variable j is changed to {(y end −y start +
1) -div y num '-(m-2) * divy num} or more, the variable m is incremented by 1 (step 26
8), step 242 until the variable m reaches x num + 1
The processes up to 268 are repeated (step 270).

【0048】これにより、Y方向のある一段について、
そのX方向の1ライン全ての分割領域について左端から
右端へ各分割領域ごとに各画素から画像データが出力さ
れる。
As a result, for one stage in the Y direction,
Image data is output from each pixel for each divided area from the left end to the right end for all divided areas of one line in the X direction.

【0049】さらに、変数m が x num+1 以上となった
場合、次いで、変数n を1 インクリメントして(ステッ
プ272)、変数n が y num+1 に達するまでステップ
240〜272までの処理を繰り返す(ステップ27
4)。
Further, when the variable m becomes x num + 1 or more, then the variable n is incremented by 1 (step 272) and the processes of steps 240 to 272 are repeated until the variable n reaches y num + 1 (step 27).
4).

【0050】これにより、X方向の1番目のライン、X
方向の次のライン、・・・、X方向の最後のラインとい
うように、分割画像のY方向各段について、左端の分割
領域から各分割領域ごとに各画素の画像データが出力さ
れる。
As a result, the first line in the X direction, X
The next line in the direction, ..., And the last line in the X direction, for each stage in the Y direction of the divided image, the image data of each pixel is output for each divided region from the divided region at the left end.

【0051】以上、このようにして、図4に示すステッ
プ202〜234の上記第1の分割手法により分割され
た場合の画像データの出力後に、この図に示すステップ
236〜274までの処理を実行することにより、上記
第1の分割手法の分割領域とはXおよびYの各方向に 1
/2 だけずれて分割領域が形成され、各分割領域ごとに
各画素の画像データが出力される。
As described above, after the image data output in the case of being divided by the first dividing method in steps 202 to 234 shown in FIG. 4 in this way, the processing of steps 236 to 274 shown in this figure is executed. Therefore, the divided area of the first dividing method is 1 in each of the X and Y directions.
Divided areas are formed with a shift of / 2, and the image data of each pixel is output for each divided area.

【0052】図8は、第2の分割手法により画像データ
Aを分割した場合の各分割領域を示している。この図に
示すように、第2の分割方法では、X方向については、
画像データの始点(x start,y start)から、1回目のみ
横方向にdiv x num ’=div x num/ 2(小数点以下は、
切り上げ)だけ分割領域をとり、2回目以降は、横方向
にdivx num ずつ分割領域をとる。また、Y方向につい
ても同様に、画像データの始点(x start,y start)か
ら、1回目のみY方向にdiv y num ’=div y num/ 2
(小数点以下は、四捨五入)だけ分割領域をとり、2回
目以降は縦方向にdiv ynum つづ分割領域をとるること
になる。従って、この時の分割領域の数は、合計(x num
+1) *(y num+1) となる。また、第1及び第2の分割手
法による分割領域の数は、合計、(x num* ynum+(x num
+1)* (y num+1)) だけ存在することになる。
FIG. 8 shows each divided area when the image data A is divided by the second dividing method. As shown in this figure, in the second division method, in the X direction,
From the start point (x start, y start) of the image data, only div x num '= div x num / 2 in the horizontal direction for the first time (after the decimal point,
Round up) and take the divided area from the second time onward by dividing by divx num. Also in the Y direction, similarly, div y num '= div y num / 2 in the Y direction only the first time from the start point (x start, y start) of the image data.
Only the divided areas are rounded off (decimal points are rounded off), and the divided areas are divided by div ynum in the vertical direction from the second time onward. Therefore, the total number of divided areas at this time is (x num
+1) * (y num + 1). In addition, the total number of divided regions by the first and second dividing methods is (x num * ynum + (x num
There will be only +1) * (y num + 1)).

【0053】なお、図中、x1=div x num’ x2=x3=…=xi=…=Xx num=div x num Xx num+1 =x end −x start + 1−div x num *(x n
um−1)−div xnum ’ ただし、i=1,2,…,x num+1 Y1=div y num ’ Y2=Y3=…=Yj=…Yy num=div y num Yy num+1 =y end −y start +1 −div y num *(y n
um−1)−div ynum ’ ただし、j=1,2,…,y num+1 ここで、これらの2つの分割方法により画像データを分
割した場合の分割領域の関係を図9および図10に示
す。図9では、実線で第1の分割手法により分割した場
合の境界を示し、破線で第2の分割手法により分割した
場合の境界を示している。この図からは、第1の分割手
法により分割されたある分割領域A’と、その分割領域
A’に重なる第2の分割手法により分割された1つの分
割領域A”とは、XおよびYの各方向に 1/2 だけずれ
て、1 /4 だけオーバーラップすることがわかる。
In the figure, x1 = div x num 'x2 = x3 = ... = xi = ... = Xx num = div x num Xx num + 1 = x end-x start + 1-div x num * (xn
um−1) −div xnum 'However, i = 1,2, ..., x num + 1 Y1 = div y num' Y2 = Y3 = ... = Yj = ... Yy num = div y num Yy num + 1 = y end −y start +1 −div y num * (yn
um−1) −div ynum ′ However, j = 1, 2, ..., Y num + 1 Here, FIG. 9 and FIG. 10 show the relationship between the divided areas when the image data is divided by these two dividing methods. In FIG. 9, the solid line indicates the boundary when the division is performed by the first division method, and the broken line indicates the boundary when the division is performed by the second division method. From this figure, a certain divided area A ′ divided by the first divided method and one divided area A ″ divided by the second divided method that overlaps the divided area A ′ are It can be seen that they are offset by 1/2 in each direction and overlap by 1/4.

【0054】また、図10(a),(b)は、各々、リ
レーケースなどの測定対象物上の文字を実際にCCDカ
メラ等により撮像した際、その画像を第1および第2の
分割方法により分割した場合の一例を示している。この
図からは、第1の分割手法により分割した際の境界B’
が第2の分割手法により分割した場合の分割領域A”
に、また、第2の分割手法により分割した場合の境界
B”は第1の分割手法により分割した場合の分割領域
A’にオーバーラップしていることが分かる。
Further, FIGS. 10A and 10B respectively show the first and second dividing methods when a character on a measuring object such as a relay case is actually picked up by a CCD camera or the like. An example of the case of dividing by is shown. From this figure, the boundary B'when dividing by the first dividing method
Is divided by the second dividing method, the divided area A ″
Further, it can be seen that the boundary B ″ in the case of division by the second division method overlaps the division area A ′ in the case of division by the first division method.

【0055】このように、本装置の画像分割部3では、
検査対象物の画像データを複数の領域に2度分割すると
共に、2度目の分割による各分割領域のほうが1度目の
分割による各分割領域より、XおよびYの各方向に 1/
2 だけずれるように分割しているため、両分割時に分割
の境界付近となる画素の画像データも、他方の分割時に
は分割領域のほぼ中央に位置することになり、各分割領
域の境界上、および境界近傍の特徴を確実に抽出でき
る。
As described above, in the image dividing section 3 of this apparatus,
The image data of the inspection object is divided into a plurality of areas twice, and each divided area obtained by the second division is smaller than each divided area obtained by the first division in the X and Y directions.
Since the image is divided so that it is shifted by 2, the image data of the pixels that are near the boundary of the division in both divisions will also be located in the approximate center of the divided area in the other division. Features near the boundary can be reliably extracted.

【0056】つぎに、特徴量抽出部4における濃度平均
演算部4a、濃度分散演算部4b,横方向演算部4c,
縦方向演算部4dにおける各特徴値演算処理を、図11
〜15を参照して説明する。
Next, the density average calculation unit 4a, the density dispersion calculation unit 4b, the horizontal direction calculation unit 4c,
Each characteristic value calculation process in the vertical direction calculation unit 4d will be described with reference to FIG.
This will be described with reference to FIGS.

【0057】図11は図2におけるステップ300、す
なわち濃度平均演算部4aによる全分割画像の濃度平均
演算処理を示している。この図に示すように、まずは画
像データを読み込み(ステップ302)、ステップ30
4〜320までの処理、すなわち、次式の数1、
FIG. 11 shows step 300 in FIG. 2, that is, the density average calculation processing of all divided images by the density average calculation section 4a. As shown in this figure, first, the image data is read (step 302) and then step 30
4 to 320, that is, the following equation 1

【0058】[0058]

【数1】 [Equation 1]

【0059】を実行することにより、まずは分割領域に
おける各画素の濃度値の総和(gradesum) を算出する。
By executing, first, the total sum (gradesum) of the density values of each pixel in the divided area is calculated.

【0060】次いで、分割領域における画素数(grade n
um) を、次式、 grade num =(div x end−div x start +1) *(div y end− div y start+ 1) により算出し(ステップ322)、この値を利用して、
入力画像データの平均値(grade ave) を、次式、 grade ave=grade sum /grade num により算出する(ステップ324)。
Next, the number of pixels (grade n
um) is calculated by the following formula, grade num = (div x end-div x start + 1) * (div y end-div y start + 1) (step 322), and using this value,
The average value (grade ave) of the input image data is calculated by the following expression, grade ave = grade sum / grade num (step 324).

【0061】さらに、算出された濃度平均値(grade av
e) について、図11に詳細に示す明るさの正規化処理
を行ない(ステップ330)、その後、明るさ正規化後
の濃度平均値を出力する(ステップ340)。明るさの
正規化とは、印刷の濃淡がサンプル毎に異なるため、対
象サンプルの明るさを基準サンプルの明るさと同じにな
るようにする処理のことをいう。
Furthermore, the calculated average concentration (grade av
For e), the brightness normalization processing shown in detail in FIG. 11 is performed (step 330), and then the density average value after the brightness normalization is output (step 340). The brightness normalization is a process for making the brightness of the target sample the same as the brightness of the reference sample because the shade of printing is different for each sample.

【0062】ここで、n番目の分割領域の濃度平均値を
grade ave(n) とおけば、濃度平均演算部4aからは、
grade ave(1),・・・, grade ave(n) ,・・・,grad
e ave{(x num+ 1) *(y num+1 )}という形で出力され
る。なお、x num は横方向の分割数であり、y num は縦
方向の分割数である。
Here, the density average value of the n-th divided area is
If you say grade ave (n), from the concentration average calculation unit 4a,
grade ave (1), ..., grade ave (n), ..., grad
It is output in the form of e ave {(x num + 1) * (y num + 1)}. Note that x num is the number of divisions in the horizontal direction, and y num is the number of divisions in the vertical direction.

【0063】図12は明るさの正規化処理の詳細な処理
手順を示している。この処理は、まずは基準サンプルの
全体画像の全画素の濃淡値の総和( std sum)を計算す
ると共に(ステップ332)、対象サンプルの全体画像
の全画素の濃淡値の総和( in sum )を計算し(ステッ
プ334)、上記2つの総和の比(norm val )を次
式、 norm val =std sum /in sum により求め(ステップ336)、この値と、図11のス
テップ324で求めた濃度平均値(grade ave )とを基
に、次式、grade ave=grade ave *norm valにより濃度
平均値( grade ave)を算出する(ステップ338)。
FIG. 12 shows the detailed processing procedure of the brightness normalization processing. In this process, first, the sum of the gradation values (std sum) of all the pixels of the whole image of the reference sample is calculated (step 332), and the sum of the gradation values (in sum) of all the pixels of the whole image of the target sample is calculated. (Step 334), the ratio (norm val) of the above two sums is calculated by the following equation, norm val = std sum / in sum (step 336), and this value and the concentration average value calculated in step 324 of FIG. Based on (grade ave), the concentration average value (grade ave) is calculated by the following equation, grade ave = grade ave * norm val (step 338).

【0064】図13は図2におけるステップ400、す
なわち濃度分散演算部4bによる全分割画像の濃度分散
演算処理を示している。つまり、最初に画像分割部3か
らの分割画像データを読み込み(ステップ402)、初
期値“0”をセットして(ステップ404)、ステップ
406〜420までの処理、すなわち次式の数2、
FIG. 13 shows step 400 in FIG. 2, that is, the density dispersion calculation processing of all divided images by the density dispersion calculation section 4b. That is, first, the divided image data from the image dividing unit 3 is read (step 402), the initial value “0” is set (step 404), and the processing from step 406 to 420, that is, the following equation 2

【0065】[0065]

【数2】 [Equation 2]

【0066】を実行して、分割領域における全画素の濃
度値の総和(grade sum )、および分割領域における全
画素の濃度値の2乗和(grade sum 2 )を求める。
Then, the sum of the density values of all the pixels in the divided area (grade sum) and the sum of the squares of the density values of all the pixels in the divided area (grade sum 2) are obtained.

【0067】そして、分割領域における全画素数(grad
e num )を次式、 grade num =(div x end − div x start+ 1) *(div y end − div y start+ 1) により求め(ステップ422)、次いで分割領域におけ
る画素の平均値(grade ave )を次式、 grade ave =grade sum /grade num により求め(ステップ424)、最後に分割領域におけ
る入力画像データの濃度分散値(grade disp)を、次
式、 grade disp=(grade num 2 /grade num )−grade av
e *grade ave により求める(ステップ426)。そして、その演算結
果である濃度分散値(grade disp)を出力して(ステッ
プ428)、一つの分割領域についての濃度分散演算処
理を終了し、このような処理を各分割領域について行
う。
Then, the total number of pixels (grad
e num) is calculated by the following equation, grade num = (div x end − div x start + 1) * (div y end − div y start + 1) (step 422), and then the average value of pixels in the divided area (grade ave) Is calculated by the following equation, grade ave = grade sum / grade num (step 424), and finally the density dispersion value (grade disp) of the input image data in the divided area is calculated by the following equation: grade disp = (grade num 2 / grade num ) −grade av
Obtained by e * grade ave (step 426). Then, the density dispersion value (grade disp) that is the calculation result is output (step 428), the density dispersion calculation processing for one divided area is completed, and such processing is performed for each divided area.

【0068】ここで、n番目の分割領域の濃度分散値を
grade disp(n) とおけば、濃度分散演算部4bから
は、grade disp (1),・・・,grade disp (n),・・
・,grade disp {(x num+ 1) *(y num+1)}という形
で出力される。
Here, the density distribution value of the nth divided area is
If we say grade disp (n), the grade dispersion disp (1), ..., grade disp (n), ...
-, Output as grade disp {(x num + 1) * (y num + 1)}.

【0069】図14は図2におけるステップ500、す
なわち横方向重心演算部4cによる分割画像の横方向重
心を求める演算処理を示している。ここでは、図15に
示す後述する縦方向重心を求めるときと同様に、各分割
領域の始点座標(div x start,div y start) を座標(1,
1) と仮定し、その座標に対する各分割領域の相対的な
重心値(x center,y center) を求めることにする。
FIG. 14 shows step 500 in FIG. 2, that is, the calculation processing for obtaining the horizontal center of gravity of the divided images by the horizontal center of gravity calculating section 4c. Here, the start point coordinates (div x start, div y start) of each divided area are set to the coordinates (1,
Assuming 1), the relative barycentric value (x center, y center) of each divided area with respect to the coordinates will be obtained.

【0070】まずは、画像分割部3からの分割画像デー
タを読み込み(ステップ502)、初期値“0”をセッ
トして(ステップ504)、ステップ506〜520ま
での処理、すなわち次式の数3、
First, the divided image data from the image dividing unit 3 is read (step 502), an initial value "0" is set (step 504), and the processing from step 506 to 520, that is, the following equation 3,

【0071】[0071]

【数3】 [Equation 3]

【0072】を各々実行して分割領域における濃度値の
総和(grade sum )、および分割領域における各濃度値
の横方向重み付け値の総和(grade x )を求める。
By executing each of the above, the total sum (grade sum) of the density values in the divided areas and the total sum (grade x) of the lateral weighting values of the density values in the divided areas are obtained.

【0073】そして、分割領域の横方向重心値(x cent
er) を次式、 x center=grade x /grade sum により求め(ステップ522)、演算結果である横方向
重心値(x center) を出力して(ステップ524)、一
つの分割領域についての横方向重心演算処理を終了す
る。
Then, the horizontal center of gravity value (x cent
er) is calculated by the following formula, x center = grade x / grade sum (step 522), and the lateral center of gravity value (x center) that is the calculation result is output (step 524) to determine the horizontal direction for one divided region. The center of gravity calculation processing ends.

【0074】ここで、n番目の分割領域の横方向重心値
をx center (n) とおけば、横方向重心部4cからは、
縦方向重心値がx center (1),・・・,x center (n),
・・・,x center {(x num+1)*(y num+1 )}という形
で出力される。ただし、grade sum=0 の時は、分割領域
の横方向重心値 x center を1 とする。
Here, if the lateral center of gravity value of the n-th divided area is defined as x center (n), then from the lateral center of gravity portion 4c,
Vertical centroid value is x center (1), ..., x center (n),
..., x center {(x num + 1) * (y num + 1)} is output. However, when grade sum = 0, the horizontal center of gravity value x center of the divided area is set to 1.

【0075】図15は図2におけるステップ600、す
なわち縦方向重心演算部4dによる分割画像の縦方向重
心値を求める演算処理を示している。まずこの演算の場
合は、図14に示す縦方向の重心演算の場合と同様に、
画像分割部3からの分割画像データを読み込み(ステッ
プ602)、初期値“0”をセットして(ステップ60
4)、ステップ606〜620までの処理、すなわち次
式の数4、
FIG. 15 shows step 600 in FIG. 2, that is, the calculation processing for obtaining the vertical gravity center value of the divided image by the vertical gravity center calculation unit 4d. First, in the case of this calculation, as in the case of the vertical center of gravity calculation shown in FIG.
The divided image data from the image division unit 3 is read (step 602), and an initial value "0" is set (step 60).
4), the processing of steps 606 to 620, that is, the following equation 4

【0076】[0076]

【数4】 [Equation 4]

【0077】を各々実行して分割領域における濃度値の
総和(grade sum )、および分割領域における各濃度値
の縦方向(Y方向)重み付け値の総和(grade y )を求
める。
By executing each of the above, the total sum (grade sum) of the density values in the divided areas and the total sum (grade y) of the weighted values in the vertical direction (Y direction) of the density values in the divided areas are obtained.

【0078】そして、分割領域の縦方向重心値(y cent
er) を次式、 y center=grade y /grade sum により求め(ステップ622)、演算結果である縦方向
重心値(y center) を出力して(ステップ624)、こ
の縦方向重心演算処理を終了する。
Then, the vertical centroid value (y cent
er) is calculated by the following formula, y center = grade y / grade sum (step 622), the vertical gravity center value (y center) which is the calculation result is output (step 624), and this vertical gravity center calculation processing is ended. To do.

【0079】ここで、n番目の分割領域の縦方向重心値
をy center (n) とおけば、横方向重心演算部4dから
は、縦方向重心値がy center (1),・・・,y center
(n),・・・,y center {(x num+1)*(y num+1 )}と
いう形で出力される。ただし、grade sum=0 の時は、分
割領域の縦方向重心値y centerを1 とする。
Here, if the vertical center of gravity value of the n-th divided area is defined as y center (n), the horizontal center of gravity calculating section 4d indicates that the vertical center of gravity value is y center (1) ,. y center
(n), ..., y center {(x num + 1) * (y num + 1)} is output. However, when grade sum = 0, the vertical center of gravity y center of the divided area is set to 1.

【0080】以上、ここまでの図11〜15に示した処
理を、画像分割部3から第1および第2の分割手法によ
り分割されて各々出力される各分割領域について行う。
従って、本装置の特徴量抽出部4では、画像分割部3に
より分割された各分割領域の全てについて、特徴量とし
て濃度平均値の他に、濃度分散値、横方向重心値、およ
び縦方向重心値を抽出し、特徴量正規化部5を介し認識
部6へ送出しているため、本装置への入力画像データ全
てから認識のための特徴量を抽出することになり、検査
対象物である文字等の字体や形状を考慮することができ
ると共に、印刷による濃度ムラ等の影響も排除すること
が可能である。
As described above, the processing shown in FIGS. 11 to 15 up to this point is performed for each divided area which is divided by the image dividing unit 3 by the first and second dividing methods and is output.
Therefore, in the feature amount extraction unit 4 of the present apparatus, for all of the divided areas divided by the image dividing unit 3, in addition to the density average value as the feature amount, the density variance value, the horizontal gravity center value, and the vertical gravity center. Since the value is extracted and sent to the recognition unit 6 via the feature amount normalization unit 5, the feature amount for recognition is extracted from all the image data input to the apparatus, which is the inspection target. It is possible to take into consideration the font and shape of characters and the like, and it is also possible to eliminate the influence of density unevenness due to printing.

【0081】なお、1つの入力画像、すなわち1検査対
象物についての特徴量の数は、画像分割部3で画像の分
割を2度行い、各分割時に分割領域ごとに画像データを
出力しているため、以下に示す数だけ存在することにな
る。平均値:(x num*y num +(x num+1 ) *(y num+
1 ) ) 分散値:(x num*y num +(x num+1 ) *(y num+1 )
) 重心値:(x num*y num +(x num+1 ) *(y num+1 )
) * 2 次に、図2におけるステップ700、すなわち特徴量正
規化部5による濃度平均値等の各特徴量の正規化処理を
説明する。図16は特徴量正規化部5による各特徴量の
正規化処理手順を示している。まずは、特徴量抽出部4
からの濃度平均値等の各特徴量の内、一つを選択して読
み込み(ステップ702)、i に初期値1 をセットして
(ステップ704)、i 番目の分割領域の上記特徴量
(chara )の正規化定数(chara min,charamax)を決定
する(ステップ706)。これは、特徴量(chara )を
0.0 〜1.0 に正規化するためである。従って、1つの特
徴量に対して2つの正規化定数が存在し、必ず、上限値
は下限値よりも大きくなければならない。
For the number of feature quantities for one input image, that is, one inspection object, the image dividing unit 3 divides the image twice, and outputs image data for each divided area at each division. Therefore, there are as many numbers as shown below. Average value: (x num * y num + (x num + 1) * (y num +
1)) Variance: (x num * y num + (x num + 1) * (y num + 1)
) Centroid value: (x num * y num + (x num + 1) * (y num + 1)
) * 2 Next, step 700 in FIG. 2, that is, the normalization process of each feature amount such as the density average value by the feature amount normalization unit 5 will be described. FIG. 16 shows a procedure of normalizing each feature quantity by the feature quantity normalizing unit 5. First, the feature amount extraction unit 4
One of the feature values such as the average value of density from is selected and read (step 702), the initial value 1 is set to i (step 704), and the feature value of the i-th divided area (chara ) Normalization constants (charamin, charamax) are determined (step 706). This is a feature (chara)
This is to normalize to 0.0 to 1.0. Therefore, there are two normalization constants for one feature amount, and the upper limit value must be larger than the lower limit value.

【0082】次いで、i 番目の領域の特徴量(chara )
を読み込み(ステップ708)、その特徴量(chara )
と、上記特徴量正規化定数の下限値(chara min )とを
比較する(ステップ710)。
Next, the feature value (chara) of the i-th region
Is read (step 708), and its feature amount (chara)
And the lower limit value (chara min) of the feature amount normalization constant are compared (step 710).

【0083】chara <chara min の場合には、正規化後
の特徴量(norm chara)を、 norm chara=0.0 とする一方(ステップ718)、chara ≧chara min の
場合には、その特徴量(chara )と、上記特徴量正規化
定数の上限値(chara max )とを比較する(ステップ7
12)。
When chara <chara min, the normalized feature amount (norm chara) is set to norm chara = 0.0 (step 718), while when chara ≧ chara min, the feature amount (chara min). ) Is compared with the upper limit value (chara max) of the feature amount normalization constant (step 7).
12).

【0084】そして、chara >chara max の場合には、
正規化後の特徴量(norm chara)を、 norm chara=1.0 とする一方(ステップ716)、chara ≦chara max の
場合には、次式、 norm chara=(chara −chara min )/(chara max −chara min ) により、正規化後の特徴量(norm chara)を算出する
(ステップ714)。
If chara> chara max, then
The normalized feature quantity (norm chara) is set to norm chara = 1.0 (step 716), while in the case of chara ≤ chara max, the following expression, norm chara = (chara-chara min) / (chara max- chara min) to calculate the normalized feature quantity (norm chara) (step 714).

【0085】特徴量(norm chara)を正規化した後は、
その正規化後の特徴量を出力し、iを1 インクリメント
して(ステップ722)、順次特徴量を正規化して全て
の分割領域の特徴量について上記のような形で正規化す
る(ステップ724)。
After normalizing the feature quantity (norm chara),
The normalized feature amount is output, i is incremented by 1 (step 722), the feature amount is sequentially normalized, and the feature amounts of all divided areas are normalized in the above-described manner (step 724). .

【0086】以上、ここまでのステップ702〜724
までの処理を、特徴量正規化部5は、全ての特徴量(平
均,分散,横方向の重心,縦方向の重心)について行な
い、このようにして計算して正規化した特徴量を、計算
が終了するごとに1つずつ出力する。
The above steps 702 to 724
The feature amount normalization unit 5 performs the above process for all feature amounts (average, variance, center of gravity in the horizontal direction, center of gravity in the vertical direction), and calculates the normalized feature amount in this way. Is output each time is completed.

【0087】ここで、例えば、各特徴量の正規化定数の
下限値および上限値を、各々、濃度平均値の下限値;ch
ara min ave[i]〃 の上限値;chara max ave[i] 濃度分散値の下限値;chara min disp[i] 〃 の上限値;chara max disp[i] 横方向重心の下限値;chara min xc[i] 〃 の上限値;chara max xc[i] 縦方向重心の下限値;chara min yc[i] 〃 の上限値;chara max yc[i] と設定する。ただし、i =1 ,・・・,(x num+1)*(y
num+1 ) とする。
Here, for example, the lower limit value and the upper limit value of the normalization constant of each feature amount are respectively set to the lower limit value of the density average value; ch.
ara min ave [i] 〃 upper limit; chara max ave [i] Concentration variance lower limit; chara min disp [i] 〃 upper limit; chara max disp [i] Lateral center of gravity lower limit; chara min xc [i] 〃 upper limit; chara max xc [i] Vertical center of gravity lower limit; chara min yc [i] 〃 upper limit; chara max yc [i]. However, i = 1, ..., (x num + 1) * (y
num + 1).

【0088】この場合、正規化後の濃度平均値の出力
は、n番目の分割領域の正規化後濃度平均をnorm grade
ave(n)とすると、norm grade ave(1) ,・・・,no
rm grade ave(n) ,・・・,norm grade ave ((x num+
1)*(y num+1 ))となる。
In this case, the output of the normalized density average value is the norm grade of the normalized density average of the n-th divided area.
ave (n), norm grade ave (1), ..., no
rm grade ave (n), ・ ・ ・, norm grade ave ((x num +
1) * (y num + 1)).

【0089】また、正規化後の濃度分散値の出力は、n
番目の分割領域の正規化後濃度分散をnorm grade disp
(n)とすると、normgrade disp(1) ,・・・,norm g
radedisp(n) ,・・・,norm grade disp ((x num +
1)*(y num+1 ))となる。
The output of the density dispersion value after normalization is n
Normalized density distribution of the second divided area is norm grade disp
(n), normgrade disp (1), ..., norm g
radedisp (n) ・ ・ ・, norm grade disp ((x num +
1) * (y num + 1)).

【0090】また、正規化後の横方向重心値の出力は、
n番目の分割領域の正規化後横方向重心をnorm x cente
r(n)とすると、normx center(1) ,・・・,norm x c
enter(n) ,・・・,norm x center ((x num +1)*(y
num+1 ))となる。
Also, the output of the horizontal center of gravity value after normalization is
The normalized horizontal center of gravity of the nth divided area is norm x cente
If r (n), normx center (1), ..., norm xc
enter (n) ・ ・ ・, norm x center ((x num +1) * (y
num + 1)).

【0091】さらに、正規化後の縦方向重心値の出力
は、n番目の分割領域の正規化後縦方向重心をnorm y c
enter(n)とすると、norm y center(1) ,・・・,no
rm y center(n) ,・・・,norm y center ((x num +
1)*(y num+1 ))となる。
Further, the output of the normalized vertical center of gravity is the norm yc of the normalized vertical center of gravity of the n-th divided area.
If enter (n), norm y center (1), ..., no
rm y center (n), ・ ・ ・, norm y center ((x num +
1) * (y num + 1)).

【0092】図17は認識部6をニューラルネットワー
クにより構成した場合の構成を示している。
FIG. 17 shows the structure in which the recognition unit 6 is composed of a neural network.

【0093】図中、Nは1つのニューロンを示してお
り、また、X1 ,X2 ,・・・,XAは正規化後濃度平
均値を、XA+1 ,X A+2,・・・,X2Aは正規化後濃度
分散値を、X2A+1,X2A+2,・・・,X3Aは正規化後横
方向重心値を、X3A+1,X3A+2,・・・,X4Aは正規化
後縦方向重心値を各々示している。この例では、入力画
像をA (=(x num+1)*(y num+1 ))個の領域に分割
して、各領域の特徴量(平均値,分散,横重心,縦重
心)を抽出した値を第1層に入力しているため、第1層
のニューロン数は 4* A 個となる。
In the figure, N represents one neuron, and X1, X2, ..., XA represent normalized average density values, and XA + 1, XA + 2 ,. Is the normalized density variance value, X2A + 1, X2A + 2, ..., X3A is the normalized horizontal center of gravity value, and X3A + 1, X3A + 2 ,. The directional center of gravity values are shown. In this example, the input image is divided into A (= (x num + 1) * (y num + 1)) areas, and the feature values (average value, variance, horizontal center of gravity, vertical center of gravity) of each area are extracted. Since it is input to the first layer, the number of neurons in the first layer is 4 * A.

【0094】また、第2層はニューロン数が任意の複数
個の中間層で、第3層はニューロン数が1個の出力層で
ある。さらに、Yj(m)(j=1,2,…,N(m) ;N(m)は第 m層
のニューロン数)は第 m層のj番目のニューロン数の出
力を示しており、dは第3層のニューロンへの期待出力
を示している。
The second layer is an intermediate layer having an arbitrary number of neurons, and the third layer is an output layer having one neuron. Furthermore, Yj (m) (j = 1,2, ..., N (m); N (m) is the number of neurons in the m-th layer) indicates the output of the j-th neuron number in the m-th layer, and d Shows the expected output to the neurons of the third layer.

【0095】ここで、第(m-1) 層のi 番目のニューロン
Nと、第 m層のj 番目のニューロンNとの結合の重みを
Wij(m-1) で表すと、Wij(m-1) は、 となる。ただし、L は第1層目のニューロン数、M は
第2層目のニューロン数である。
Here, if the connection weight between the i-th neuron N in the (m-1) th layer and the j-th neuron N in the m-th layer is represented by Wij (m-1), Wij (m- 1) is Becomes However, L is the number of neurons in the first layer, and M is the number of neurons in the second layer.

【0096】このように構成されたニューラルネットワ
ークでは、第1層により分割画像から抽出された特徴量
が入力し、第3層のニューロンに、測定対象物となる印
刷文字等が良品、あるいは不良品かによって期待出力を
与えて学習を行い、入力画像が良品の場合は1、不良品
の場合は0を出力するように期待出力を与える。
In the thus constructed neural network, the feature amount extracted from the divided image by the first layer is input, and the printed characters and the like to be measured are good or defective in the neurons of the third layer. Depending on whether or not the input image is a non-defective product, the expected output is given to perform learning, and if the input image is a defective product, the expected output is given to output 0.

【0097】つまり、このニューラルネットワークにお
いて、入力画像の良品か、あるいは不良品かを学習する
場合には、各々について、検査対象物の画像の特徴量を
繰り返し第1層に入力させると同時に、それに応じた期
待出力を第3層に与える。
That is, in this neural network, when learning whether the input image is a good product or a defective product, the feature amount of the image of the inspection object is repeatedly input to the first layer for each of them, and at the same time, A corresponding expected output is given to the third layer.

【0098】そして、このニューラルネットワークにお
いて、入力画像の良品/不良品を認識する場合には、前
の学習により、良品画像の特徴量を入力した場合には第
3層の出力が0に近い値となる一方、不良品画像の特徴
量を入力した場合には第3層の出力が1に近い値とな
る。
In this neural network, when recognizing a non-defective item / defective item in the input image, the value of the output of the third layer is close to 0 when the feature amount of the non-defective item image is input by the previous learning. On the other hand, when the characteristic amount of the defective image is input, the output of the third layer has a value close to 1.

【0099】なお、ニューラルネットワーク上のニュー
ロン間の結合の重みWij(m-1) は、バックプロパゲーシ
ョンの学習アルゴリズム、すなわち自己学習により決定
される。
The weight Wij (m-1) of the connection between neurons on the neural network is determined by a back propagation learning algorithm, that is, self-learning.

【0100】この学習アルゴリズムの手順を簡単に以下
に示す。 (1)入力層(第1層)に各入力X1 〜X4Aが入力す
る。 (2)入力X1 〜X4Aを出力層(第3層)まで順次計算
し、出力Y1(3)を得る。 (3)出力層(第3層)に期待出力dを提示する。 (4)期待出力dと出力Y1(3)とを比較し、両者の誤差
を求め、その誤差によりニューロン間の重みWij(m-1)
を修正する。 (5)期待出力dと出力Y1(3)との誤差が小さくなるよ
うに上記(1)〜(4)の処理を繰り返す。
The procedure of this learning algorithm will be briefly described below. (1) Inputs X1 to X4A are input to the input layer (first layer). (2) The inputs X1 to X4A are sequentially calculated up to the output layer (third layer) to obtain the output Y1 (3). (3) Present the expected output d to the output layer (third layer). (4) The expected output d and the output Y1 (3) are compared, the error between them is obtained, and the weight Wij (m-1) between neurons is calculated by the error.
To fix. (5) The above processes (1) to (4) are repeated so that the error between the expected output d and the output Y1 (3) becomes small.

【0101】このようにして認識部6では、入力画像デ
ータを画像分割部3により複数の領域に2度分割し、そ
れにより得られた全ての分割領域から特徴量抽出部4が
抽出した濃度平均や、分散、縦横重心の各特徴量を特徴
量正規化部5を介して入力し、その全ての各特徴量を基
にしてニューラルネットワークを使用したバックプロパ
ゲーション・アルゴリズムにより学習し認識しているた
め、画像データの一部のみを直接入力して画素数の比較
等により画像認識する場合とは異なり、印刷の濃度ムラ
にほとんど影響されず、しかも字体も考慮して認識時の
誤差を低減させた人間の判断に近い認識を行うことがで
き、認識率が向上する。
In this way, the recognition unit 6 divides the input image data into a plurality of regions twice by the image division unit 3, and the density average extracted by the feature amount extraction unit 4 from all the divided regions obtained thereby. , And the feature values of the variance and the vertical and horizontal centroids are input through the feature amount normalization unit 5, and based on all the feature amounts, learning and recognition are performed by a back propagation algorithm using a neural network. Therefore, unlike when recognizing an image by directly inputting only part of the image data and comparing the number of pixels, there is almost no effect on uneven density in printing, and the error in recognition is reduced by considering the font. It is possible to perform recognition close to human judgment and improve the recognition rate.

【0102】[0102]

【発明の効果】以上説明したように、本発明では、画像
データを複数の領域に分割すると共に、再度、その画像
データを最初の分割領域とずれるように分割することに
より、両分割時の各分割領域を相互にオーバーラップさ
せてその各分割領域ごとに画像データを出力させ、次い
でその各画像データを入力して各分割領域ごとに字体や
濃淡ムラを考慮するように複数の特徴量を抽出して正規
化し、さらにその正規化後の各特徴量に基づき認識結果
が期待する値になるように学習してその認識結果を出力
するようにしたため、 1.分割時の領域境界上の特徴をオーバーラップした他
の分割領域により抽出することができる。 2.認識に使用する特徴量を濃度ムラを考慮して、必要
なだけ抽出できる。 3.印刷時の濃度ムラの影響を受けにくくなる。 4.文字の形状等の検査対象物全体の形を考慮して判定
できる。 5.人間に近い認識結果となる。 となり、検査対象物の認識率が向上するという効果が得
られる。
As described above, according to the present invention, the image data is divided into a plurality of regions, and the image data is divided again so as to be displaced from the first divided region, so that each of the two divided regions can be divided. The divided areas are overlapped with each other to output image data for each divided area, and then each image data is input to extract a plurality of feature amounts for each divided area so as to consider font and shading unevenness. Then, the recognition result is learned based on each normalized feature quantity so that the recognition result has an expected value, and the recognition result is output. The feature on the region boundary at the time of division can be extracted by another divided region that overlaps. 2. The feature amount used for recognition can be extracted as needed in consideration of the density unevenness. 3. It is less likely to be affected by uneven density during printing. 4. It can be determined in consideration of the shape of the entire inspection target such as the shape of characters. 5. The recognition result is similar to that of a human. Therefore, the effect of improving the recognition rate of the inspection object can be obtained.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明に係る画像認識装置の構成を示すブロッ
ク図。
FIG. 1 is a block diagram showing the configuration of an image recognition apparatus according to the present invention.

【図2】この画像認識装置の各構成要素の動作を示しフ
ローチャート。
FIG. 2 is a flowchart showing the operation of each component of this image recognition apparatus.

【図3】画像変換部2から画像分割部3へ入力する画像
データと、その画像データにおける画素の座標との関係
を示す説明図。
FIG. 3 is an explanatory diagram showing a relationship between image data input from the image converting unit 2 to the image dividing unit 3 and pixel coordinates in the image data.

【図4】画像分割部4における第1の分割手法の詳細な
処理手順を示すフローチャート。
FIG. 4 is a flowchart showing a detailed processing procedure of a first division method in the image division unit 4.

【図5】分割領域と、その分割領域における画素の座標
との関係を示す説明図。
FIG. 5 is an explanatory diagram showing a relationship between a divided area and coordinates of pixels in the divided area.

【図6】第1の分割手法により画像Aを分割した場合の
各分割領域を示す説明図。
FIG. 6 is an explanatory diagram showing each divided area when the image A is divided by the first dividing method.

【図7】画像分割部4における第2の分割手法の詳細な
処理手順を示すフローチャート。
FIG. 7 is a flowchart showing a detailed processing procedure of a second division method in the image division unit 4.

【図8】第2の分割手法により画像Aを分割した場合の
各分割領域を示す説明図。
FIG. 8 is an explanatory diagram showing each divided area when the image A is divided by a second dividing method.

【図9】第1および第2の分割手法により分割した場合
の関係を示す説明図。
FIG. 9 is an explanatory diagram showing a relationship when division is performed by the first and second division methods.

【図10】(a),(b)は、各々リレーケースなどの
測定対象物上の文字の画像データを第1および第2の分
割方法により分割した場合の一例を示す説明図。
10A and 10B are explanatory diagrams showing an example of a case where image data of characters on a measurement object such as a relay case is divided by the first and second division methods.

【図11】濃度演算部4aによる分割画像の濃度平均値
演算処理を示すフローチャート。
FIG. 11 is a flowchart showing a density average value calculation process of divided images by the density calculation unit 4a.

【図12】明るさの正規化処理を示すフローチャート。FIG. 12 is a flowchart showing brightness normalization processing.

【図13】濃度分散演算部4bにおける分割画像の濃度
分散値演算処理を示すフローチャート。
FIG. 13 is a flowchart showing a density variance value calculation process of divided images in a density variance calculator 4b.

【図14】横方向重心演算部4cにおける分割画像の横
方向重心を求めるフローチャート。
FIG. 14 is a flowchart for obtaining a horizontal gravity center of a divided image in a horizontal gravity center calculation unit 4c.

【図15】縦方向重心演算部4dにおける分割画像の縦
方向重心を求めるフローチャート。
FIG. 15 is a flowchart for obtaining the vertical gravity center of a divided image in the vertical gravity center calculation unit 4d.

【図16】特徴量正規化部5による各特徴量の正規化処
理手順を示すフローチャート。
16 is a flowchart showing a procedure of normalizing each feature quantity by the feature quantity normalization unit 5. FIG.

【図17】認識部6をニューラルネットワークにより構
成した場合を示す説明図。
FIG. 17 is an explanatory diagram showing a case where the recognition unit 6 is configured by a neural network.

【符号の説明】[Explanation of symbols]

1 カメラ 2 画像変換部 3 画像分割部 4 特徴量抽出部 4a 濃度平均演算部 4b 濃度分散演算部 4c 横方向重心演算部 4d 縦方向重心演算部 5 特徴量正規化部 6 認識部 DESCRIPTION OF SYMBOLS 1 camera 2 image conversion unit 3 image division unit 4 feature amount extraction unit 4a concentration average calculation unit 4b concentration dispersion calculation unit 4c horizontal gravity center calculation unit 4d vertical gravity center calculation unit 5 feature amount normalization unit 6 recognition unit

Claims (1)

【特許請求の範囲】 【請求項1】検査対象物を撮像して画像データを読込
み、その画像データに基づき上記検査対象物の画像を認
識する画像認識装置において、 上記画像データを複数の領域に分割すると共に、再度、
上記画像データを上記分割領域とずれるように分割し、
両分割時に、各分割領域の画像データを各々出力する画
像分割手段と、 上記各画像分割手段により出力された画像データから各
分割領域毎に複数の特徴量を抽出する特徴量抽出手段
と、 上記特徴量抽出手段により抽出された各分割領域毎の複
数の特徴量を正規化する特徴量正規化手段と、 上記特徴量正規化手段により正規化された各分割領域毎
の複数の特徴量を入力し、期待する認識結果に近づくよ
うに学習して認識結果を出力する認識手段と、 を具備したことを特徴とする画像認識装置。
Claim: What is claimed is: 1. An image recognition apparatus for imaging an inspection object, reading image data, and recognizing an image of the inspection object based on the image data. While splitting,
Divide the image data so that it deviates from the divided area,
Image division means for respectively outputting image data of each divided area at the time of both divisions; feature amount extraction means for extracting a plurality of feature amounts for each divided area from the image data output by the image division means; A feature amount normalizing means for normalizing a plurality of feature amounts for each divided area extracted by the feature amount extracting means, and a plurality of feature amounts for each divided area normalized by the feature amount normalizing means are input. An image recognition apparatus comprising: a recognition unit that learns so as to approach an expected recognition result and outputs the recognition result.
JP3184856A 1991-07-24 1991-07-24 Picture recognition device Pending JPH0528245A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP3184856A JPH0528245A (en) 1991-07-24 1991-07-24 Picture recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3184856A JPH0528245A (en) 1991-07-24 1991-07-24 Picture recognition device

Publications (1)

Publication Number Publication Date
JPH0528245A true JPH0528245A (en) 1993-02-05

Family

ID=16160507

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3184856A Pending JPH0528245A (en) 1991-07-24 1991-07-24 Picture recognition device

Country Status (1)

Country Link
JP (1) JPH0528245A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008228344A (en) * 2001-12-13 2008-09-25 Sony United Kingdom Ltd Detection data processing apparatus, identification method and program
CN110622177A (en) * 2017-11-15 2019-12-27 谷歌有限责任公司 Instance partitioning
CN111044993A (en) * 2019-12-27 2020-04-21 歌尔股份有限公司 Laser sensor based slam map calibration method and device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008228344A (en) * 2001-12-13 2008-09-25 Sony United Kingdom Ltd Detection data processing apparatus, identification method and program
CN110622177A (en) * 2017-11-15 2019-12-27 谷歌有限责任公司 Instance partitioning
CN111044993A (en) * 2019-12-27 2020-04-21 歌尔股份有限公司 Laser sensor based slam map calibration method and device

Similar Documents

Publication Publication Date Title
CN110274908B (en) Defect inspection apparatus, defect inspection method, and computer-readable recording medium
US11282185B2 (en) Information processing device, information processing method, and storage medium
JP7113657B2 (en) Information processing device, information processing method, and program
CN111401372B (en) Method for extracting and identifying image-text information of scanned document
Paulinas et al. A survey of genetic algorithms applications for image enhancement and segmentation
JP5546317B2 (en) Visual inspection device, visual inspection discriminator generation device, visual inspection discriminator generation method, and visual inspection discriminator generation computer program
CN112567229A (en) Defect inspection device, defect inspection method, and program thereof
JP4006224B2 (en) Image quality determination method, determination device, and determination program
US20060078191A1 (en) Apparatus and method for detecting defect on object
CN106326887B (en) A kind of method of calibration and device of optical character identification result
CN105427275B (en) Crop field environment wheat head method of counting and device
CN111652213A (en) Ship water gauge reading identification method based on deep learning
JP2010134957A (en) Pattern recognition method
CN115239737B (en) Corrugated paper defect detection method based on image processing
CN113221956A (en) Target identification method and device based on improved multi-scale depth model
CN117935296B (en) Employment quality report generation system
JP2006048370A (en) Method for recognizing pattern, method for generating teaching data to be used for the method and pattern recognition apparatus
JP7354063B2 (en) Classification systems, programs and learning systems
CN113807180A (en) Face recognition method based on LBPH and feature points
US6694059B1 (en) Robustness enhancement and evaluation of image information extraction
JP2002163637A (en) Device and method for examining image
JPH0528245A (en) Picture recognition device
JP3587029B2 (en) Image inspection method and image inspection device
CN110956623A (en) Wrinkle detection method, apparatus, device, and computer-readable storage medium
CN106845558A (en) The method and apparatus of pavement detection

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20000822