JP2014230146A - Image evaluation method, image evaluation device and image evaluation program - Google Patents

Image evaluation method, image evaluation device and image evaluation program Download PDF

Info

Publication number
JP2014230146A
JP2014230146A JP2013109066A JP2013109066A JP2014230146A JP 2014230146 A JP2014230146 A JP 2014230146A JP 2013109066 A JP2013109066 A JP 2013109066A JP 2013109066 A JP2013109066 A JP 2013109066A JP 2014230146 A JP2014230146 A JP 2014230146A
Authority
JP
Japan
Prior art keywords
distance
evaluation
divided
image
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013109066A
Other languages
Japanese (ja)
Other versions
JP5403180B1 (en
Inventor
哲司 山田
Tetsuji Yamada
哲司 山田
山口 直樹
Naoki Yamaguchi
直樹 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2013109066A priority Critical patent/JP5403180B1/en
Application granted granted Critical
Publication of JP5403180B1 publication Critical patent/JP5403180B1/en
Publication of JP2014230146A publication Critical patent/JP2014230146A/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To evaluate an evaluation object with high accuracy.SOLUTION: An image determination device 10 extracts a region of interest from a captured image of a sample and a captured image of an evaluation object 12 and extracts feature amount from images of a plurality of dividing frames set to the region of interest. A unit space distance calculation section 34 calculates first unit space distances of the dividing frames of the sample and an average distance of the first unit space distances on the basis of the feature amount for each dividing frame of the sample and calculates second unit space distances of the region of interest corresponding to the image of the region of interest of the sample from the first unit space distances and a unit space average distance that is an average of the second unit space distances. A target space distance calculation section 36 calculates first space distances of the dividing frames of the evaluation object on the basis of the feature amount for each dividing frame of the evaluation object and calculates a second space distance of the region of interest corresponding to the image of the region of interest of the evaluation object from the first space distance. A first evaluation section 38 evaluates the region of interest of the evaluation object while using the average distance of the first unit space distances and the second space distance.

Description

本発明は、画像評価方法、画像評価装置及び画像評価プログラムに関する。   The present invention relates to an image evaluation method, an image evaluation apparatus, and an image evaluation program.

製品の製造や部品の加工など各種の工程においては、製造工程中の生産品各種の製品、例えば、中間生産品及び最終生産品に対して、部品の欠品、取り付け向きの間違いなどの取り付け不良の有無を判定する際に、マハラノビス距離等が用いられる。   In various processes such as product manufacturing and parts processing, defective products such as missing parts or incorrect mounting orientations for various products in the manufacturing process, such as intermediate products and final products. The Mahalanobis distance or the like is used when determining whether or not there is any.

画像判定を行う場合、例えば、画像入力装置により得た複数の良品サンプル(以下、「サンプル」という。)の画像を所定数(例えば12)のブロック領域に分割し、分割した各ブロック領域について、特徴量として赤色、緑色、及び青色のそれぞれの輝度値の平均値、標準偏差、最大値、及び最小値のパラメータを用い、サンプルに基づいて判断の基準点となるマハラノビス基準空間(単位空間)を設定し、マハラノビス基準空間距離を計算する。また、画像入力装置から入力される判定対象の画像について、マハラノビス基準空間距離に対応するマハラノビス距離を計算し、得られたマハラノビス距離をサンプルから得ているマハラノビス基準空間距離、又はマハラノビス基準空間に基づいて設定したしきい値と比較することで、良否の判定を行う。   When performing image determination, for example, an image of a plurality of non-defective samples (hereinafter referred to as “samples”) obtained by an image input device is divided into a predetermined number (for example, 12) of block areas, and for each divided block area, The Mahalanobis reference space (unit space), which serves as a reference point for determination based on samples, using the average, standard deviation, maximum, and minimum parameters of the luminance values of red, green, and blue as feature quantities Set and calculate Mahalanobis reference spatial distance. Further, for the image to be judged input from the image input device, the Mahalanobis distance corresponding to the Mahalanobis reference spatial distance is calculated, and the obtained Mahalanobis distance is based on the Mahalanobis reference spatial distance obtained from the sample or the Mahalanobis reference space. The quality is judged by comparing with the threshold value set.

このような判定においては、判定対象が不良品であるにもかかわらず、マハラノビス距離ががしきい値より小さくなり誤判定が生じることがある。このため、特許文献1では、例えば、特徴量として輝度値のデータを用いる際、輝度値を16段階に分け、各段階の輝度範囲のピクセル数を輝度分布データとし、輝度分布データに対して差分処理、微分処理、積分処理等を施した値を特徴量として単位空間を設定するように提案している。これにより、特許文献1では、良品の画像のマハラノビス距離と不良の画像のマハラノビス距離とを明確に相違させている。   In such a determination, although the determination target is a defective product, the Mahalanobis distance may be smaller than a threshold value, resulting in an erroneous determination. For this reason, in Patent Document 1, for example, when using luminance value data as a feature amount, the luminance value is divided into 16 levels, the number of pixels in the luminance range at each level is set as luminance distribution data, and a difference from the luminance distribution data is obtained. It has been proposed to set a unit space using a value obtained by performing processing, differentiation processing, integration processing, etc. as a feature amount. Thereby, in patent document 1, the Mahalanobis distance of a non-defective image and the Mahalanobis distance of a defective image are clearly different.

特開2005−252451号公報JP-A-2005-252451

本発明は、サンプル及び評価対象物から抽出した特徴量に基づいて評価対象物の良否を判定するなどの評価を行う際に、誤判定の発生を抑制し、高精度の評価を行い得る画像評価方法、画像評価装置及び画像評価プログラムを提供すること目的とする。   The present invention is an image evaluation capable of suppressing the occurrence of misjudgment and performing highly accurate evaluation when performing evaluation such as determining the quality of an evaluation object based on a feature amount extracted from a sample and the evaluation object. It is an object to provide a method, an image evaluation apparatus, and an image evaluation program.

請求項1に係る画像評価方法は、評価対象物に対する評価基準のサンプルの画像の注目領域を複数の分割枠に仕切り、当該複数の分割枠の各々の画像から分割枠の各々の第一単位空間を設定し、各々の第一単位空間距離及び第一単位空間距離の平均距離を演算すると共に、当該分割枠の各々の第一単位空間距離に基づいて前記サンプルの注目領域の画像に対応する前記サンプルの各々の第二単位空間距離を演算し、当該第二単位空間距離を平均して単位空間平均距離を予め演算する準備工程と、評価対象物の画像の注目領域を複数の分割枠に仕切り、当該複数の分割枠の各々の画像から分割枠の各々の第一空間距離を演算すると共に、当該分割枠の各々の第一空間距離に基づいて前記評価対象物の注目領域の画像に対応する評価対象物の注目領域の第二空間距離を演算する演算工程と、前記サンプルの注目領域の単位空間平均距離及び前記評価対象物の注目領域の第二空間距離を用いて、前記評価対象物の注目領域を評価する評価工程と、を含む。   An image evaluation method according to claim 1 divides a region of interest of a sample image of an evaluation criterion for an evaluation object into a plurality of divided frames, and each first unit space of each divided frame from each of the plurality of divided frames. And calculating the average distance between the first unit spatial distances and the first unit spatial distances, and corresponding to the image of the region of interest of the sample based on the first unit spatial distances of the divided frames. A preparatory step of calculating the second unit spatial distance of each sample, averaging the second unit spatial distances and calculating the unit space average distance in advance, and partitioning the attention area of the image of the evaluation object into a plurality of divided frames The first spatial distance of each of the divided frames is calculated from the respective images of the plurality of divided frames, and the image of the attention area of the evaluation object is handled based on the first spatial distance of each of the divided frames. Attention of evaluation object The attention area of the evaluation object is evaluated using the calculation step of calculating the second spatial distance of the area, the unit space average distance of the attention area of the sample, and the second spatial distance of the attention area of the evaluation object. And an evaluation step.

ここで、第一単位空間とは、注目領域における各分割枠の正常な画像データの集合をいう。第一単位空間距離とは、第一単位空間から求められた距離をいう。第二単位空間とは、第一単位空間距離の集合を意味する。第二単位空間距離とは、第二単位空間から求められた距離をいう。単位空間平均距離とは、第二単位空間距離の平均距離(平均値)をいう。   Here, the first unit space refers to a set of normal image data of each divided frame in the region of interest. The first unit space distance means a distance obtained from the first unit space. The second unit space means a set of first unit space distances. The second unit space distance is a distance obtained from the second unit space. The unit space average distance refers to the average distance (average value) of the second unit space distances.

請求項2に係る画像評価方法は、請求項1記載の画像評価方法において、前記サンプルの注目領域の単位空間平均距離及び前記評価対象物の注目領域の第二空間距離を用いた評価結果に基づき、前記サンプルの分割枠の各々の第一単位空間距離の平均距離及び前記評価対象物の分割枠の各々の第一空間距離を用いて、前記評価対象物の前記複数の分割枠の各々を評価する。   The image evaluation method according to claim 2 is the image evaluation method according to claim 1, based on an evaluation result using a unit space average distance of the attention area of the sample and a second spatial distance of the attention area of the evaluation object. Each of the plurality of divided frames of the evaluation object is evaluated using the average distance of the first unit spatial distances of each of the divided frames of the sample and the first spatial distance of each of the divided frames of the evaluation object. To do.

請求項3に係る画像評価方法は、請求項1又は請求項2に記載の画像評価方法において、画素毎の輝度値を所定の輝度幅の複数の輝度区間に区分けし、区分けした前記複数の輝度区間の各々を特徴項目として、前記サンプルの分割枠の各々、及び前記評価対象物の分割枠の各々から、前記特徴項目毎の特徴量を抽出し、前記サンプルの分割枠の各々から抽出された前記特徴項目毎の特徴量に基づいて前記サンプルの分割枠の各々の第一単位空間距離及び第一単位空間距離の平均距離を演算し、前記評価対象物の分割枠の各々から抽出された前記特徴項目毎の特徴量に基づいて前記評価対象物の分割枠の各々の第一空間距離を演算する。   The image evaluation method according to claim 3 is the image evaluation method according to claim 1 or 2, wherein the luminance value for each pixel is divided into a plurality of luminance sections having a predetermined luminance width, and the plurality of divided luminances are divided. Using each of the sections as feature items, feature quantities for each feature item are extracted from each of the divided frames of the sample and each of the divided frames of the evaluation object, and extracted from each of the divided frames of the sample. The first unit space distance of each of the divided frames of the sample and the average distance of the first unit space distances are calculated based on the feature amount for each of the feature items, and extracted from each of the divided frames of the evaluation object. Based on the feature amount for each feature item, the first spatial distance of each of the divided frames of the evaluation object is calculated.

請求項4に係る画像評価装置は、評価対象物に対する評価基準のサンプルの画像の注目領域を複数の分割枠に仕切り、当該複数の分割枠の各々の画像から分割枠の各々の第一単位空間距離及び第一単位空間距離の平均距離を演算すると共に、当該分割枠の各々の第一単位空間距離に基づいて前記サンプルの注目領域の画像に対応するサンプルの注目領域の第二単位空間距離及び当該第二単位空間距離の平均である単位空間平均距離を演算する単位空間距離演算手段と、評価対象物の画像の注目領域を複数の分割枠に仕切り、当該複数の分割枠の各々の画像から分割枠の各々の第一空間距離を演算すると共に、当該分割枠の各々の第一空間距離に基づいて前記評価対象物の注目領域の画像に対応する評価対象物の注目領域の第二空間距離を演算する対象空間距離演算手段と、前記サンプルの注目領域の単位空間平均距離及び前記評価対象物の注目領域の第二空間距離を用いて、前記評価対象物の注目領域を評価する評価手段と、を含む。   An image evaluation apparatus according to claim 4 divides a region of interest of a sample image of an evaluation criterion for an evaluation object into a plurality of divided frames, and each first unit space of each of the divided frames from each of the plurality of divided frames. Calculating the average distance of the distance and the first unit spatial distance, and based on the first unit spatial distance of each of the division frames, the second unit spatial distance of the sample attention area corresponding to the image of the sample attention area Unit space distance calculation means for calculating a unit space average distance, which is an average of the second unit space distance, and a region of interest of the image of the evaluation object are divided into a plurality of divided frames, and each of the images of the plurality of divided frames The first spatial distance of each divided frame is calculated, and the second spatial distance of the attention area of the evaluation object corresponding to the image of the attention area of the evaluation object based on the first spatial distance of each of the divided frames Calculate Target space distance calculation means, and evaluation means for evaluating the attention area of the evaluation object using the unit space average distance of the attention area of the sample and the second spatial distance of the attention area of the evaluation object. Including.

請求項5に係る画像評価装置は、請求項4記載の画像評価装置において、前記評価手段は、前記サンプルの注目領域の単位空間平均距離及び前記評価対象物の注目領域の第二空間距離を用いた評価結果に基づき、前記サンプルの分割枠の各々の第一単位空間距離の平均距離及び前記評価対象物の分割枠の各々の第一空間距離を用いて、前記評価対象物の前記複数の分割枠の各々を評価する。   The image evaluation apparatus according to claim 5 is the image evaluation apparatus according to claim 4, wherein the evaluation unit uses a unit space average distance of the attention area of the sample and a second spatial distance of the attention area of the evaluation object. The plurality of divisions of the evaluation object using the average distance of the first unit spatial distances of each of the division frames of the sample and the first spatial distances of the division frames of the evaluation object Evaluate each of the frames.

請求項6に係る画像評価装置は、請求項4又は請求項5記載の画像評価装置において、画素毎の輝度値を所定の輝度幅の複数の輝度区間に区分けし、区分けした前記複数の輝度区間の各々を特徴項目として、前記サンプルの分割枠の各々、及び前記評価対象物の分割枠の各々から、前記特徴項目毎の特徴量を抽出する抽出手段を含み、前記単位空間距離演算手段が、前記サンプルの分割枠の各々から抽出された前記特徴項目毎の特徴量に基づいて前記サンプルの分割枠の各々の第一単位空間距離及び第一単位空間距離の平均距離を演算し、前記対象空間距離演算手段が、前記評価対象物の分割枠の各々から抽出された前記特徴項目毎の特徴量に基づいて前記評価対象物の分割枠の各々の第一空間距離を演算する。   The image evaluation apparatus according to claim 6 is the image evaluation apparatus according to claim 4 or 5, wherein the luminance value for each pixel is divided into a plurality of luminance sections having a predetermined luminance width, and the plurality of divided luminance sections are divided. Each of which is a feature item, each of the divided frame of the sample, and each of the divided frames of the evaluation object, the extraction unit for extracting the feature amount for each feature item, the unit space distance calculation unit, Calculating a first unit space distance of each of the sample division frames and an average distance of the first unit space distances based on a feature amount of each of the feature items extracted from each of the sample division frames; The distance calculation means calculates a first spatial distance of each of the evaluation object division frames based on the feature amount of each feature item extracted from each of the evaluation object division frames.

請求項7に係る画像評価装置は、請求項4から請求項6の何れかに記載の画像評価装置において、撮像手段により前記評価対象物の前記撮像画像を取得する画像取得手段を含む。   An image evaluation device according to a seventh aspect of the present invention is the image evaluation device according to any one of the fourth to sixth aspects, further comprising an image acquisition unit that acquires the captured image of the evaluation object by an imaging unit.

請求項8に係る画像評価装置は、請求項4から請求項7の画像評価装置において、前記評価手段の評価結果を報知する報知手段を含む。   An image evaluation apparatus according to an eighth aspect of the present invention is the image evaluation apparatus according to any one of the fourth to seventh aspects, further comprising an informing means for informing an evaluation result of the evaluation means.

請求項9に係る画像評価プログラムは、コンピュータを、評価対象物に対する評価基準のサンプルの画像の注目領域を複数の分割枠に仕切り、当該複数の分割枠の各々の画像から分割枠の各々の第一単位空間距離及び第一単位空間距離の平均距離を演算すると共に、当該分割枠の各々の第一単位空間距離に基づいて前記サンプルの注目領域の画像に対応するサンプルの注目領域の第二単位空間距離及び当該第二単位空間距離の平均である単位空間平均距離を演算する単位空間距離演算手段と、評価対象物の画像の注目領域を複数の分割枠に仕切り、当該複数の分割枠の各々の画像から分割枠の各々の第一空間距離を演算すると共に、当該分割枠の各々の第一空間距離に基づいて前記評価対象物の注目領域の画像に対応する評価対象物の注目領域の第二空間距離を演算する対象空間距離演算手段と、前記サンプルの注目領域の単位空間平均距離及び前記評価対象物の注目領域の第二空間距離を用いて、前記評価対象物の注目領域を評価する評価手段と、して動作させる。   An image evaluation program according to claim 9 divides an attention area of a sample image of an evaluation reference for an evaluation object into a plurality of divided frames, and each of the divided frames is divided into a plurality of divided frames. Calculate the average distance between the one unit spatial distance and the first unit spatial distance, and based on the first unit spatial distance of each of the divided frames, the second unit of the sample attention area corresponding to the image of the sample attention area A unit space distance calculation means for calculating a unit space average distance that is an average of the spatial distance and the second unit space distance; and a region of interest of the image of the evaluation object is divided into a plurality of divided frames, and each of the plurality of divided frames And calculating the first spatial distance of each of the divided frames from the image of the image, and based on the first spatial distance of each of the divided frames, the attention area of the evaluation object corresponding to the image of the attention area of the evaluation object Using the target space distance calculating means for calculating the second spatial distance, the unit space average distance of the sample attention area and the second spatial distance of the attention area of the evaluation object, Operate as an evaluation means to evaluate.

請求項10に係る画像評価プログラムは、請求項9の画像評価プログラムにおいて、前記評価手段は、前記サンプルの注目領域の単位空間平均距離及び前記評価対象物の注目領域の第二空間距離を用いた評価結果に基づき、前記サンプルの分割枠の各々の第一単位空間距離の平均距離及び前記評価対象物の分割枠の各々の第一空間距離を用いて、前記評価対象物の前記複数の分割枠の各々を評価する、ことを含む。   The image evaluation program according to claim 10 is the image evaluation program according to claim 9, wherein the evaluation means uses a unit space average distance of the attention area of the sample and a second spatial distance of the attention area of the evaluation object. Based on the evaluation result, using the average distance of the first unit spatial distance of each of the divided frames of the sample and the first spatial distance of each of the divided frames of the evaluation object, the plurality of divided frames of the evaluation object Including evaluating each of the.

請求項11に係る画像評価プログラムは、請求項9又は請求項10記載の画像評価プログラムにおいて、画素毎の輝度値を所定の輝度幅の複数の輝度区間に区分けし、区分けした前記複数の輝度区間の各々を特徴項目として、前記サンプルの分割枠の各々、及び前記評価対象物の分割枠の各々から、前記特徴項目毎の特徴量を抽出する抽出手段を含み、前記単位空間距離演算手段が、前記サンプルの分割枠の各々から抽出された前記特徴項目毎の特徴量に基づいて前記サンプルの分割枠の各々の第一単位空間距離及び第一単位空間距離の平均距離を演算し、前記対象空間距離演算手段が、前記評価対象物の分割枠の各々から抽出された前記特徴項目毎の特徴量に基づいて前記評価対象物の分割枠の各々の第一空間距離を演算する、ことを含む。   The image evaluation program according to claim 11 is the image evaluation program according to claim 9 or 10, wherein the luminance value for each pixel is divided into a plurality of luminance sections having a predetermined luminance width, and the plurality of divided luminance sections are divided. Each of which is a feature item, each of the divided frame of the sample, and each of the divided frames of the evaluation object, the extraction unit for extracting the feature amount for each feature item, the unit space distance calculation unit, Calculating a first unit space distance of each of the sample division frames and an average distance of the first unit space distances based on a feature amount of each of the feature items extracted from each of the sample division frames; A distance calculation means calculating a first spatial distance of each of the division frames of the evaluation object based on a feature amount for each of the feature items extracted from each of the division frames of the evaluation object;

請求項1に係る発明によれば、サンプルの注目領域に基づいて評価対象物の注目領域を適正に評価することができる、という効果を有する。   The invention according to claim 1 has an effect that the attention area of the evaluation target can be appropriately evaluated based on the attention area of the sample.

請求項2に記載の発明によれば、評価結果から評価対象物の注目領域が不良と判定された場合、不良と判定された注目領域内の部位を特定することができる、という効果を有する。   According to the second aspect of the present invention, when the attention area of the evaluation object is determined to be defective based on the evaluation result, there is an effect that it is possible to specify a part in the attention area determined to be defective.

請求項3に係る発明によれば、サンプルの注目領域の第一単位空間距離の演算、及び評価対象物の第一空間距離の演算の迅速化が可能となる、という効果を有する。   The invention according to claim 3 has an effect that the calculation of the first unit spatial distance of the attention area of the sample and the calculation of the first spatial distance of the evaluation object can be speeded up.

請求項4に係る発明によれば、サンプルに基づいて、評価対象物の注目領域を適正に評価することができる、という効果を有する。   According to the invention which concerns on Claim 4, it has the effect that the attention area | region of an evaluation target object can be evaluated appropriately based on a sample.

請求項5に係る発明によれば、評価結果から評価対象物の注目領域が不良と判定された場合、不良と判定された分割枠を特定することができる、という効果を有する。   According to the invention which concerns on Claim 5, when the attention area of an evaluation target object is determined to be defective from the evaluation result, it has the effect that the divided frame determined to be defective can be specified.

請求項6に係る発明によれば、サンプルの注目領域の第一単位空間距離の演算、及び評価対象物の第一空間距離の演算を迅速に行うことができる、という効果を有する。   According to the invention which concerns on Claim 6, it has the effect that the calculation of the 1st unit spatial distance of the attention area of a sample and the calculation of the 1st spatial distance of an evaluation target object can be performed rapidly.

請求項7に係る発明によれば、評価対象物の画像の取得が容易となる、という効果を有する。   According to the invention concerning Claim 7, it has the effect that acquisition of the image of an evaluation object becomes easy.

請求項8に係る発明によれば、評価対象物に対する評価結果を的確に把握し、次工程での適切な処理が可能となる、という効果を有する。   According to the invention which concerns on Claim 8, it has the effect that the evaluation result with respect to an evaluation target object is grasped | ascertained accurately, and the appropriate process at the next process is attained.

請求項9に係る発明によれば、サンプルの注目領域に基づいて、評価対象物の注目領域を適正に評価することができる、という効果を有する。   The invention according to claim 9 has an effect that the attention area of the evaluation object can be appropriately evaluated based on the attention area of the sample.

請求項10に記載の発明によれば、評価結果から評価対象物の注目領域が不良と判定された場合、不良と判定された注目領域内の部位を特定することができる、という効果を有する。   According to the tenth aspect of the present invention, when the attention area of the evaluation object is determined to be defective from the evaluation result, there is an effect that the part in the attention area determined to be defective can be specified.

請求項11に係る発明によれば、サンプルの注目領域の第一単位空間距離の演算、及び評価対象物の第一空間距離の迅速な演算が可能となる、という効果を有する。   According to the eleventh aspect of the present invention, it is possible to calculate the first unit spatial distance of the target region of the sample and to quickly calculate the first spatial distance of the evaluation object.

本実施形態に係る画像判定装置の一例を示す機能ブロック図である。It is a functional block diagram which shows an example of the image determination apparatus which concerns on this embodiment. 画像判定装置を形成する画像処理装置の一例を示す機能ブロック図である。It is a functional block diagram which shows an example of the image processing apparatus which forms an image determination apparatus. (A)は撮像画像上の注目領域の一例を示す概略平面図、(B)は注目領域内の分割枠の一例を示す概略平面図である。(A) is a schematic plan view showing an example of a region of interest on a captured image, and (B) is a schematic plan view showing an example of a divided frame in the region of interest. (A)及び(B)は、輝度区分ごとのデータの一例を示すヒストグラムである。(A) And (B) is a histogram which shows an example of the data for every brightness | luminance division. 本実施形態に係る評価処理の一例を示す流れ図である。It is a flowchart which shows an example of the evaluation process which concerns on this embodiment. サンプルからの単位空間平均距離の演算処理の一例を示す流れ図である。It is a flowchart which shows an example of the calculation process of the unit space average distance from a sample. 分割枠における特徴項目とする輝度区間に対する各サンプルのデータを示す図表である。It is a graph which shows the data of each sample with respect to the brightness area made into the feature item in a division | segmentation frame. 図7の特徴項目から得られる各サンプルの感度、SN比を特徴項目とするデータを示す図表である。It is a chart which shows the data which makes the sensitivity and SN ratio of each sample obtained from the characteristic item of FIG. 7 a characteristic item. 図8の特徴項目を感度、標準偏差に変換した各サンプルの統計データを示す図表である。It is a graph which shows the statistical data of each sample which converted the characteristic item of FIG. 8 into the sensitivity and the standard deviation. 図7〜図9のデータから演算された各分割枠における各サンプルの第一単位空間距離を特徴項目とするデータを示す図表である。FIG. 10 is a chart showing data whose feature item is the first unit spatial distance of each sample in each divided frame calculated from the data of FIG. 7 to FIG. 9. 図10の特徴項目から得られる各サンプルの感度、SN比を特徴項目とするデータを示す図表である。FIG. 11 is a table showing data having sensitivity items and SN ratios obtained from the feature items of FIG. 10 as feature items. 図11の特徴項目を感度、標準偏差に変換した各サンプルの統計データを示す図表である。12 is a chart showing statistical data of each sample obtained by converting the characteristic items of FIG. 11 into sensitivity and standard deviation. 評価対象物からの第二空間距離の演算処理の一例を示す流れ図である。It is a flowchart which shows an example of the calculation process of the 2nd spatial distance from an evaluation target object. 分割枠における特徴項目とする輝度区間に対する評価対象物のデータを示す図表である。It is a graph which shows the data of the evaluation target object with respect to the brightness area made into the feature item in a division | segmentation frame. 図14のデータから演算された各分割枠における評価対象物の第一空間距離を特徴項目とするデータを示す図表である。It is a graph which shows the data which make the feature item the 1st spatial distance of the evaluation target object in each division frame calculated from the data of FIG. 実施例1に係る注目領域及び分割枠の一例を示す画像である。6 is an image showing an example of a region of interest and a dividing frame according to Example 1; 各分割枠の特徴項目から演算した注目領域の第二空間距離に基づいた評価結果を示すグラフである。It is a graph which shows the evaluation result based on the 2nd spatial distance of the attention area computed from the feature item of each division frame. (A)及び(B)は分割枠毎に求めた第一空間距離に基づいた評価結果を示すグラフである。(A) And (B) is a graph which shows the evaluation result based on the 1st spatial distance calculated | required for every division | segmentation frame. 実施例2に係る注目領域及び分割枠の一例を示す画像である。10 is an image showing an example of a region of interest and a dividing frame according to Example 2. (A)は分割数に対する、評価対象物の第二空間距離の単位空間平均距離に対する距離比を示すグラフ、(B)は輝度区間係数に対する、評価対象物の第二空間距離の単位空間平均距離に対する距離比を示すグラフである。(A) is a graph showing the distance ratio of the second spatial distance of the evaluation object to the unit space average distance with respect to the number of divisions, and (B) is the unit space average distance of the second spatial distance of the evaluation object with respect to the luminance interval coefficient. It is a graph which shows the distance ratio with respect to.

以下に、図面を参照しながら本発明の実施の形態を説明する。図1には、本実施形態に係る画像判定装置10の一例を示す。画像判定装置10は、マハラノビスタグチ(MT)システムを用い、評価対象物12の画像から得られる第二空間距離を、評価基準とする複数のサンプル14の画像から得られる単位空間平均距離と照合することで評価し、評価対象物12が良品であるか否かを判定する。また、画像判定装置10は、評価対象物12が不良品であると判定する場合、不良箇所(領域)の特定を行う。   Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 shows an example of an image determination apparatus 10 according to the present embodiment. The image determination apparatus 10 uses the Mahalanobis Taguchi (MT) system to collate the second spatial distance obtained from the image of the evaluation object 12 with the unit space average distance obtained from the images of the plurality of samples 14 used as evaluation criteria. It is determined whether or not the evaluation object 12 is a non-defective product. Further, when the image determination apparatus 10 determines that the evaluation object 12 is a defective product, the image determination device 10 identifies a defective portion (region).

画像判定装置10は、評価対象物12として、例えば、各種の機器の完成品、各種の機器を製作する際の中間生産品、及び中間生産品が組み付けられた各種の機器の完成品等を適用することができる。また、評価対象物12は、切削、切断、及び研磨などの加工が行われた加工品等の任意の物品に適用することができる。さらに、検査対象物12としては、ディスプレイなどに表示した画像等のように目視し得るものであれば、任意の物品を適用することができる。   The image determination apparatus 10 applies, for example, a finished product of various devices, an intermediate product when manufacturing various devices, and a finished product of various devices assembled with the intermediate product as the evaluation object 12. can do. The evaluation object 12 can be applied to any article such as a processed product that has been subjected to processing such as cutting, cutting, and polishing. Furthermore, as the inspection object 12, any article can be applied as long as it can be visually observed such as an image displayed on a display or the like.

画像判定装置10は、画像情報取得部16、演算部18、基準記憶部20、評価部22、及び報知部24を含む。 画像情報取得部16は、例えば、評価対象物12を撮像する撮像カメラ26を備える。撮像カメラ26としては、単色画像を生成するカメラであっても良いが、カラー画像を生成し得ることが好ましく、本実施形態では、CCDエリアセンサ又はCMOSエリアセンサを用いたカラー撮像カメラを用いている。なお、撮像手段としては、エリアセンサに替えてラインセンサを用い、評価対象物12又はサンプル14をラインセンサの読み取り方向と交差する方向へ移動させながら画像データを読み込むか、又はラインセンサを移動させながら画像データを読み込むようにしても良い。   The image determination apparatus 10 includes an image information acquisition unit 16, a calculation unit 18, a reference storage unit 20, an evaluation unit 22, and a notification unit 24. The image information acquisition unit 16 includes, for example, an imaging camera 26 that images the evaluation object 12. The imaging camera 26 may be a camera that generates a monochromatic image, but it is preferable that a color image can be generated. In this embodiment, a color imaging camera using a CCD area sensor or a CMOS area sensor is used. Yes. As the imaging means, a line sensor is used instead of the area sensor, and image data is read or the line sensor is moved while moving the evaluation object 12 or the sample 14 in a direction crossing the reading direction of the line sensor. However, the image data may be read.

撮像カメラ26は、例えば、評価対象物12を生産する生産ラインの所定位置に配置され、評価対象物12及びサンプル14がロボットアーム、或いは搬送コンベアなどの搬送手段により搬送され、撮像カメラ26に対向する位置に位置決めされて配置される。   The imaging camera 26 is, for example, disposed at a predetermined position on the production line that produces the evaluation object 12, and the evaluation object 12 and the sample 14 are conveyed by a conveyance means such as a robot arm or a conveyance conveyor and face the imaging camera 26. It is positioned and arranged at the position to be.

画像情報取得部16は、評価対象物12及びサンプル14を撮像カメラ26により撮像することで、評価対象物12の画像データ、及びサンプル14の画像データを取得する。なお、サンプル14の画像データは、予め別の撮像カメラによりサンプル14を撮像することにより得た画像データを用いても良く、この場合、予めサンプルを撮像することにより得た画像データを画像情報取得部16又は演算部18に入力すれば良い。   The image information acquisition unit 16 acquires the image data of the evaluation object 12 and the image data of the sample 14 by imaging the evaluation object 12 and the sample 14 with the imaging camera 26. Note that the image data of the sample 14 may be image data obtained by imaging the sample 14 with another imaging camera in advance. In this case, image data obtained by imaging the sample in advance is obtained as image information. What is necessary is just to input into the part 16 or the calculating part 18.

演算部18は、注目領域抽出部28、分割部30、特徴量抽出部32、単位空間距離演算部34、及び対象空間距離演算部36を含む。注目領域抽出部28は、撮像画像のデータから予め設定した注目領域の画像の画像データを抽出する。   The calculation unit 18 includes an attention area extraction unit 28, a division unit 30, a feature amount extraction unit 32, a unit space distance calculation unit 34, and a target space distance calculation unit 36. The attention area extraction unit 28 extracts image data of an image of a predetermined attention area from the captured image data.

分割部30は、注目領域抽出部28で抽出した注目領域の画像を所定数の分割枠で分割する。特徴量抽出部32は、分割枠により分割された各領域の画像から予め設定された特徴量を抽出する。なお、以下では、分割された各領域を分割枠と表記する。   The dividing unit 30 divides the image of the attention area extracted by the attention area extraction unit 28 with a predetermined number of division frames. The feature amount extraction unit 32 extracts a preset feature amount from the image of each region divided by the division frame. Hereinafter, each divided area is referred to as a divided frame.

単位空間距離演算部34は、複数のサンプル14の分割枠の各々の画像から抽出された特徴量に基づいて、分割枠毎の画像の第一単位空間距離を演算する。また、単位空間距離演算部34は、個々のサンプル14について分割枠毎の画像の第一単位空間距離に基づき第一単位空間距離の平均距離、及びサンプル14個々の注目領域の画像の第二単位空間距離を演算し、当該第二単位空間距離の平均である単位空間平均距離を演算する。単位空間距離演算部34で演算されたサンプル14の分割枠毎の画像の第一単位空間距離、第一単位空間距離の平均距離、注目領域の画像の第二単位空間距離、及び単位空間平均距離は、基準記憶部20に記憶される。   The unit space distance calculation unit 34 calculates the first unit space distance of the image for each divided frame based on the feature amount extracted from each image of the divided frames of the plurality of samples 14. Further, the unit space distance calculation unit 34 calculates the average distance of the first unit space distance based on the first unit space distance of the image for each divided frame for each sample 14 and the second unit of the image of the attention area of each sample 14. A spatial distance is calculated, and a unit space average distance that is an average of the second unit spatial distances is calculated. The first unit space distance of the image for each divided frame of the sample 14 calculated by the unit space distance calculation unit 34, the average distance of the first unit space distance, the second unit space distance of the image of the region of interest, and the unit space average distance Is stored in the reference storage unit 20.

対象空間距離演算部36は、評価対象物12の撮像画像の分割枠毎の画像から抽出された特徴量に基づいて分割枠毎の画像の第一空間距離を演算する。また、対象空間距離演算部36は、評価対象物12の分割枠毎の画像の第一空間距離に基づき、注目領域の画像の第二空間距離を演算する。   The target space distance calculation unit 36 calculates the first spatial distance of the image for each divided frame based on the feature amount extracted from the image for each divided frame of the captured image of the evaluation object 12. In addition, the target space distance calculation unit 36 calculates the second spatial distance of the image of the attention area based on the first spatial distance of the image for each divided frame of the evaluation object 12.

評価部22は、第1評価部38及び第2評価部40を含む。第1評価部38は、サンプル14から得られた注目領域の画像の単位空間平均距離に基づき、評価対象物12の注目領域の画像の第二空間距離を評価し、評価対象物12の注目領域について良否を判定する。また、第2評価部40は、第1評価部38において評価対象物12の注目領域が不良と判定された場合、サンプル14の分割枠毎の画像の第一単位空間距離の平均距離及び評価対象物12の分割枠毎の画像の第一空間距離を用い、評価対象物12を分割枠毎に評価する。これにより、第2評価部40は、評価対象物12の注目領域における不良部位が含まれる分割枠を特定する。   The evaluation unit 22 includes a first evaluation unit 38 and a second evaluation unit 40. The first evaluation unit 38 evaluates the second spatial distance of the image of the attention area image of the evaluation object 12 based on the unit space average distance of the image of the attention area obtained from the sample 14, and the attention area of the evaluation object 12 Pass / fail is determined. In addition, when the first evaluation unit 38 determines that the attention area of the evaluation target 12 is defective, the second evaluation unit 40 determines the average distance of the first unit spatial distance of the image for each divided frame of the sample 14 and the evaluation target. Using the first spatial distance of the image for each divided frame of the object 12, the evaluation object 12 is evaluated for each divided frame. Thereby, the 2nd evaluation part 40 specifies the division frame in which the defective site | part in the attention area of the evaluation target object 12 is contained.

報知部24は、評価部22(第1評価部38及び第2評価部40)の評価結果を所定のディスプレイに表示するなどして報知する。また、報知部24で実行する報知処理には、例えば、良品と判定された評価対象品12について、生産ラインにおいて次工程へ送るように制御されるように通知することを含む。さらに、報知部24で実行する報知処理には、不良と判定された評価対象物12に対して、例えば、生産ラインから除くように通知することを含む。   The notification unit 24 notifies the evaluation result of the evaluation unit 22 (the first evaluation unit 38 and the second evaluation unit 40) on a predetermined display. In addition, the notification process executed by the notification unit 24 includes, for example, notifying the evaluation target product 12 determined to be non-defective product so as to be controlled to be sent to the next process in the production line. Further, the notification process executed by the notification unit 24 includes, for example, notifying the evaluation object 12 determined to be defective so as to be excluded from the production line.

図2に示すように、画像判定装置10は、パーソナルコンピュータなどの画像処理装置42が用いられる。画像処理装置42は、マイクロコンピュータ44を含む。マイクロコンピュータ44は、CPU44A、ROM44B、RAM44C、及び入出力インターフェイス44Dを備え、これらがデータバス及びシステムバスを含むバス44Eにより接続されている。画像処理装置44は、HDD46、通信インターフェイス48、及びUI50を含み、これらがマイクロコンピュータ44の入出力インターフェイス44Dに接続されている。また、画像処理装置42は、入出力インターフェイス44Dに撮像カメラ26が接続される。   As shown in FIG. 2, the image determination device 10 uses an image processing device 42 such as a personal computer. The image processing device 42 includes a microcomputer 44. The microcomputer 44 includes a CPU 44A, a ROM 44B, a RAM 44C, and an input / output interface 44D, which are connected by a bus 44E including a data bus and a system bus. The image processing apparatus 44 includes an HDD 46, a communication interface 48, and a UI 50, which are connected to an input / output interface 44D of the microcomputer 44. In the image processing apparatus 42, the imaging camera 26 is connected to the input / output interface 44D.

CPU44Aは、ROM44B及びHDD46に記憶された制御プログラムを実行することで、画像情報取得部16、演算部18、評価部22及び報知部24として機能する。この際、CPU44Aは、RAM44Cをワークメモリ等として用い、HDD46に各種のデータを記憶する。また、UI50は、各種の指示の入力用として用いるキーボード、及び各種の情報を表示するディスプレイを含み、CPU44Aは、UI50の図示しないディスプレイに評価結果を表示する。さらに、画像処理装置42は、通信インターフェイス48を介して、評価対象物12の製造システムに接続され、評価結果を出力する。生産システムは、評価結果が入力されることで、評価された評価対象物12に対して、評価結果に基づいた処理を実行する。   The CPU 44 </ b> A functions as the image information acquisition unit 16, the calculation unit 18, the evaluation unit 22, and the notification unit 24 by executing a control program stored in the ROM 44 </ b> B and the HDD 46. At this time, the CPU 44A stores various data in the HDD 46 using the RAM 44C as a work memory or the like. The UI 50 includes a keyboard used for inputting various instructions and a display for displaying various information, and the CPU 44A displays an evaluation result on a display (not shown) of the UI 50. Further, the image processing device 42 is connected to the manufacturing system of the evaluation object 12 via the communication interface 48 and outputs the evaluation result. When the evaluation result is input, the production system executes a process based on the evaluation result for the evaluated evaluation object 12.

画像判定装置10は、MTシステムにおいてRT法(Recognition Taguchi method)を適用する。前記したように、画像判定装置10では、RT法を用いて評価対象物12に対して評価を行う際に、評価対象物12上で評価を行う領域が設定される。図3(A)に示すように、本実施形態では、撮像された評価対象物12の画像12A上で評価を行う領域を注目領域12Bとして設定する。注目領域抽出部28は、評価対象物12の撮像画像12Aから注目領域12Bの画像データを抽出する。また、注目領域抽出部28は、サンプル14の画像14A上で、評価対象物12の注目領域12Bに対応する領域の画像データを、サンプル14の注目領域14Bの画像の画像データとして抽出する。   The image determination apparatus 10 applies the RT method (Recognition Taguchi method) in the MT system. As described above, in the image determination apparatus 10, when the evaluation object 12 is evaluated using the RT method, an area to be evaluated on the evaluation object 12 is set. As shown in FIG. 3A, in the present embodiment, an area to be evaluated on the image 12A of the imaged evaluation object 12 is set as the attention area 12B. The attention area extraction unit 28 extracts image data of the attention area 12B from the captured image 12A of the evaluation object 12. In addition, the attention area extraction unit 28 extracts image data of an area corresponding to the attention area 12B of the evaluation target 12 on the image 14A of the sample 14 as image data of the attention area 14B of the sample 14.

評価対象物12としては、例えば、プリント配線が形成された基板に各種の電装部品を装着した電装基板が適用される。当該工程における電装基板への部品の装着状態を評価する場合、注目領域12Bは、例えば、撮像カメラ26が配置される前段の生産工程で電装基板に装着される部品の位置を含む領域が設定される。注目領域抽出部28は、この注目領域12Bの画像データを抽出する。なお、注目領域12Bは、撮像画像12Aの一部に限らず、例えば、電装基板の全体を評価する場合、電装基板の全体画像が適用される。   As the evaluation object 12, for example, an electrical board in which various electrical components are mounted on a board on which printed wiring is formed is applied. When evaluating the mounting state of the component on the electrical board in the process, the attention area 12B is set, for example, as an area including the position of the component to be mounted on the electrical board in the previous production process in which the imaging camera 26 is disposed. The The attention area extraction unit 28 extracts image data of the attention area 12B. Note that the attention area 12B is not limited to a part of the captured image 12A. For example, when the entire electrical board is evaluated, the entire electrical board image is applied.

分割部30は、注目領域12B、14Bを、予め設定している分割数pに基づいて分割する。特徴量抽出部32は、分割枠の各々の画像から予め設定されている特徴量を抽出する。例えば、注目領域12B、14Bをl×m個に分割する場合、分割数pは、p=l×mとなる。図3(B)に示すように、分割部30は、注目領域12B及び注目領域14Bを分割数pに基づいて分割することで分割数pに応じた分割領域(以下、分割枠Fとする。p=1、2、・・・、l×m)を設定する。なお、画像判定装置10では、分割数pが、2以上(p≧2)に設定される。 The dividing unit 30 divides the attention areas 12B and 14B based on a preset division number p. The feature amount extraction unit 32 extracts a preset feature amount from each image of the division frame. For example, when the attention areas 12B and 14B are divided into l × m, the division number p is p = 1 × m. As shown in FIG. 3B, the dividing unit 30 divides the attention area 12B and the attention area 14B based on the division number p, thereby dividing the area into the division areas p (hereinafter referred to as division frames F p ). P = 1, 2,..., L × m). In the image determination device 10, the division number p is set to 2 or more (p ≧ 2).

特徴量抽出部32は、分割枠Fの各々の画像から特徴量を示すデータxを抽出する。
なお、以下では、注目領域12B、14Bの画像を含めて注目領域12B、14Bと表記詩、分割枠Fの画像を含めて分割枠Fと表記して説明する。
Feature amount extraction unit 32 extracts the data x indicating a feature from each image of the divided frame F p.
In the following, the attention area 12B, attention region 12B including the image 14B, 14B denoted verse, will be described with referred to as image including the divided frames F p divided frame F p.

画像判定装置10は、撮像画像としてカラー画像を用いており、特徴量抽出部32は、特徴量としては、例えば、画像の輝度値毎の画素数、赤色(R)の輝度値毎の画素数、緑色(G)の輝度値毎の画素数、及び青色(B)の輝度値毎の画素数を用いる。この際、特徴量としては、画像の輝度値毎の画素数のみを用いても良く、また、画像の輝度値毎の画素数に加え、赤色(R)、緑色(G)及び青色(B)の少なくとも一色の輝度値毎の画素数を用いても良く、任意の色の組み合わせを適用しても良い。なお、画像判定装置10は、各輝度値に対して同様の処理を行うので、以下では、色を特定せずに説明する。   The image determination apparatus 10 uses a color image as a captured image, and the feature amount extraction unit 32 includes, for example, the number of pixels for each luminance value of the image and the number of pixels for each luminance value of red (R) as the feature amount. , The number of pixels for each luminance value of green (G) and the number of pixels for each luminance value of blue (B) are used. At this time, only the number of pixels for each luminance value of the image may be used as the feature amount. In addition to the number of pixels for each luminance value of the image, red (R), green (G), and blue (B) The number of pixels for each luminance value of at least one color may be used, and any combination of colors may be applied. In addition, since the image determination apparatus 10 performs the same process with respect to each luminance value, it demonstrates below, without specifying a color.

例えば、輝度値が8bitの画像データでは、輝度値が0〜255までの256(2)段階に分けられている。ここで、画像判定装置10では、所定の輝度幅wで輝度範囲を区分けし、区分けした輝度範囲の各々を特徴項目として用いる。図4(A)及び図4(B)には、一つの分割枠Fにおける輝度区分i毎のデータxのヒストグラムを示す。なお、図4(A)は、輝度値を16区画に区分けし(輝度区分i=1〜16)、図4(B)は、輝度値を8区画に区分けしている(輝度区分i=1〜8)。また、図4(A)及び図4(B)では、縦軸をデータ数としている。 For example, image data having a luminance value of 8 bits is divided into 256 (2 8 ) stages with luminance values ranging from 0 to 255. Here, in the image determination apparatus 10, the luminance range is divided by a predetermined luminance width w, and each of the divided luminance ranges is used as a feature item. FIG. 4 (A) and 4 FIG. 4 (B), the shows a histogram of the data x for each luminance segment i in one of the divided frame F p. 4A divides the luminance value into 16 sections (luminance section i = 1 to 16), and FIG. 4B divides the luminance value into 8 sections (luminance section i = 1). ~ 8). 4A and 4B, the vertical axis represents the number of data.

図4(A)及び図4(B)に示すように、区分けする際の輝度値の幅を広く(粗く)し、輝度区分iの数を少なくすることで、輝度区分i毎のデータxの相違が明確となる。また、輝度区分iの数を少なくすることで、特徴項目が少なくなるので、演算処理等を行う際の処理時間の短縮(処理速度の向上)を図ることができる。しかし、区分けする際の輝度値の幅を広くしすぎると、輝度値の特徴が現れにくくなる場合がある。 As shown in FIGS. 4 (A) and 4 (B), the width xb of the luminance value at the time of classification is widened (coarse) and the number of luminance categories i is reduced, so that the data x i for each luminance category i. The difference becomes clear. Further, since the number of feature items is reduced by reducing the number of luminance categories i, it is possible to shorten the processing time (improving the processing speed) when performing arithmetic processing or the like. However, if the width of the luminance value at the time of classification is too wide, the characteristic of the luminance value may be difficult to appear.

ここから、輝度区分iの数は、変更可能であることが好ましく、また、輝度区分iの数は、注目領域12A内の画像に応じて設定されることが好ましく、本実施形態では、区分係数qを、q=0、1、2、3、4の範囲で設定されるようにしている。これにより、例えば、区分係数q=3とした場合、各輝度区分iの輝度値の幅wは、w=2となる。また、輝度値の分割数とする輝度区間係数kは、k=256/2で表される。従って、区分係数q=3とした場合、輝度値の幅wは、w=8となる。また、輝度区間係数kは、k=32となり、輝度区分iは、i=0〜kとなる。 From here, it is preferable that the number of luminance sections i can be changed, and the number of luminance sections i is preferably set according to the image in the attention area 12A. q is set in the range of q = 0, 1, 2, 3, and 4. Thereby, for example, when the division coefficient q = 3, the width w of the luminance value of each luminance division i is w = 2q . The luminance interval coefficient k, which is the number of luminance value divisions, is expressed by k = 256 / 2q . Therefore, when the division coefficient q = 3, the width w of the luminance value is w = 8. Further, the luminance interval coefficient k is k = 32, and the luminance division i is i = 0 to k.

特徴量抽出部32は、輝度区分iを特徴項目とし、分割枠F(p=1〜l・m)の各々について各輝度区分iのデータxpiを抽出する。 The feature quantity extraction unit 32 uses the luminance section i as a feature item, and extracts data x pi of each luminance section i for each of the divided frames F p (p = 1 to l · m).

単位空間距離演算部34は、各輝度区分iのデータxPiを用いて第一単位空間距離を演算し、対象空間距離演算部36は、各輝度区分iのデータxPiを用いて第一空間距離を演算する。画像判定装置10は、サンプル14について単位空間距離演算部34で演算する第二単位空間距離の平均を単位空間平均距離として用いる。 The unit space distance calculation unit 34 calculates the first unit space distance using the data x Pi of each luminance section i, and the target space distance calculation unit 36 uses the data x Pi of each luminance section i. Calculate the distance. The image determination apparatus 10 uses the average of the second unit spatial distances calculated by the unit space distance calculation unit 34 for the sample 14 as the unit space average distance.

図5には、画像判定装置10で実行される処理の概略を示している。   FIG. 5 shows an outline of processing executed by the image determination apparatus 10.

(準備工程)
画像処理装置10は、最初のステップ100において、評価対象物12に対する評価に先だって複数のサンプル14の各々の撮像画像を取得する。次のステップ102では、取得した複数のサンプル14の撮像画像(画像14A)に基づき、注目領域14Bの分割枠F毎の第一単位空間距離、注目領域14Bの第二単位空間距離、及び単位空間平均距離を演算する。
(Preparation process)
In the first step 100, the image processing apparatus 10 acquires captured images of each of the plurality of samples 14 prior to the evaluation on the evaluation object 12. In the next step 102, based on the captured images of the plurality of samples 14 obtained (image 14A), a first unit space distance for each divided frame F p of the attention area 14B, the second unit space distance of the region of interest 14B, and the unit Calculate the spatial average distance.

図6には、図5のステップ102で実行される第一単位空間距離、第二単位空間距離及び単位空間平均距離の演算の一例を示す。このフローチャートでは、最初のステップ130において、各サンプル14の画像14Aの各々から注目領域14Bを抽出する。この際、サンプル14がn個であれば、n個のサンプル14の各々について注目領域14Bが抽出される。以下、n個のサンプル14をサンプルj(j=1、2、・・・n)として説明する。   FIG. 6 shows an example of the calculation of the first unit space distance, the second unit space distance, and the unit space average distance executed in step 102 of FIG. In this flowchart, in a first step 130, a region of interest 14B is extracted from each of the images 14A of each sample 14. At this time, if there are n samples 14, the attention area 14 </ b> B is extracted for each of the n samples 14. Hereinafter, n samples 14 are described as samples j (j = 1, 2,... N).

次のステップ132では、サンプルjの注目領域14Bを、分割数pに基づいて分割した分割枠Fを設定する。また、ステップ134では、分割枠Fの各々について、各特徴項目に対応するデータxを抽出する。 In the next step 132, a divided frame Fp obtained by dividing the attention area 14B of the sample j based on the division number p is set. In step 134, for each of the divided frames F p, it extracts the data x p corresponding to each feature item.

これにより、例えば、図7に示すように、サンプルjの各々の一つの分割枠Fについて、輝度区分i(i=1〜k)毎に、n個のデータxが得られる。なお、図7では、分割枠Fの輝度区分i毎のデータxをxPi(xPi=xP1〜xpk)とし、各サンプルj(j=1〜n)のデータxをデータxpjiとして示している。 Thereby, for example, as shown in FIG. 7, n pieces of data x p are obtained for each luminance section i (i = 1 to k) for one divided frame F p of the sample j. In FIG. 7, the data x for each luminance section i of the divided frame F p is x Pi (x Pi = x P1 to x pk ), and the data x of each sample j (j = 1 to n) is the data x pji. As shown.

次のステップ134では、分割枠Fの各々について、各サンプルjに基づく輝度区分i毎のデータxpiの平均値axpiを演算する。平均値axpiの演算は、例えば、(1)式を用いて行われる。 In the next step 134, the average value ax pi of the data x pi for each luminance section i based on each sample j is calculated for each of the divided frames F p . The average value ax pi is calculated using, for example, equation (1).

これにより、図7に示すように、一つの分割枠Fについて、各輝度区間iを特徴項目とした平均値axpi(axp1〜axpk)が得られる。 As a result, as shown in FIG. 7, the average value ax pi (ax p1 to ax pk ) with each luminance section i as a feature item is obtained for one divided frame F p .

図6のフローチャートでは、次のステップ136において、サンプルjの各々について分割枠F毎に感度β(βpj)、及び標準SN比η(ηpj)を演算する。 In the flowchart of FIG. 6, in the next step 136, the sensitivity β (β pj ) and the standard SN ratio η (η pj ) are calculated for each divided frame F p for each sample j.

感度βpjの演算には、分割枠Fごとの有効除数r、及び各サンプルjの分割枠F毎の線形式Lpjを用いる。有効除数rは、(2)式に示す特徴量(輝度値)の輝度区分i毎のデータxの平均値axpiの平均二乗和を用いる。また、線形式Lpjは、(3)式により得られる。さらに、サンプルjの分割枠F毎の感度βpjは、有効除数r及び線形式Lpjから、(4)式を用いて得られる。 The calculation of the sensitivity beta pj, effective divisor r p for each divided frame F p, and the linear equation L pj of each divided frame F p of each sample j is used. Effective divisor r p uses the mean square sum of the average value ax pi data x for each luminance segment i (2) feature amounts shown in the expression (luminance value). Further, the line format L pj is obtained by the equation (3). Further, the sensitivity β pj for each divided frame F p of the sample j is obtained from the effective divisor r p and the line format L pj using the equation (4).

各サンプルjの分割枠F毎の標準SN比ηpjの演算には、サンプルj=1〜n及び分割数p=1〜l×mの各々における全変動S(以下、全変動SpjTとする)、比例項の変動Sβ(以下、比例項の変動Spjβとする)、及び誤差分散V(以下、誤差分散Vpjeとする)を用いる。全変動SpjTは、(5)式を用いた演算により得られ、比例項の変動Spjβは、(6)式を用いた演算により得られる。また、誤差分散Vpjeを演算するために、全変動SpjT及び比例項の変動Spjβを用い、(7)式により誤差変動Spjeを演算する。 For the calculation of the standard SN ratio η pj for each divided frame F p of each sample j, the total variation S T (hereinafter referred to as total variation S pjT) in each of the samples j = 1 to n and the number of divisions p = 1 to 1 × m. ), Proportional term variation S β (hereinafter referred to as proportional term variation S pjβ ), and error variance V e (hereinafter referred to as error variance V pje ). The total fluctuation S pjT is obtained by calculation using the equation (5), and the proportional term fluctuation S pjβ is obtained by calculation using the equation (6). Further , in order to calculate the error variance V pje , the error variation S pje is calculated by the equation (7) using the total variation S pjT and the proportional term variation S pjβ .

誤差分散Vpjeは、誤差変動Spje及び輝度区間係数kから、(8)式により演算され、標準SN比ηpjは、誤差分散Vpjeの逆数として、(9)式から求められる。これにより、図8に示すように、単位空間サンプルにおけるサンプルjに対する感度β(βpj)、及び標準SN比η(ηpj)が得られる。 The error variance V pje is calculated from the error variation S pje and the luminance interval coefficient k by the equation (8), and the standard SN ratio η pj is obtained from the equation (9) as the reciprocal of the error variance V pje . Accordingly, as shown in FIG. 8, the sensitivity β (β pj ) and the standard SN ratio η (η pj ) for the sample j in the unit space sample are obtained.

図6では、サンプルjの特徴量となる感度βpj、及び標準SN比ηpjを演算すると、次のステップ138では、感度βpj、及び標準SN比ηpjを、2つの統計データとする感度Ypj1((10)式参照)、及び標準偏差Ypj2((11)式参照)に変換する。 In FIG. 6, when the sensitivity β pj and the standard S / N ratio η pj that are the characteristic quantities of the sample j are calculated, in the next step 138, the sensitivity β pj and the standard S / N ratio η pj are converted into two statistical data. Y pj1 (see equation (10)) and standard deviation Y pj2 (see equation (11)).

次のステップ140では、統計データ(感度Ypj1、及び標準偏差Ypj2)から分散・共分散を求め、分散、共分散を用いた分散行列から余因子行列Aを求める。図9に示すように、サンプルjの感度Ypj1、及び標準偏差Ypj2は、第一単位空間の感度Y、及び標準偏差Yに対応する。ここから、第一単位空間の感度Yp1の分散Vp11は、(12)式から求められ、第一単位空間の標準偏差Yp2の分散Vp22は、(13)式から求められる。また、感度Yp1と標準偏差Yp2の共分散Vp12、Vp21は、(14)式から求められる。 In the next step 140, the statistical data (sensitivity Y PJ1, and the standard deviation Y PJ2) obtains the variance-covariance from the dispersion, obtaining a cofactor matrix A p from covariance matrix using the covariance. As shown in FIG. 9, the sensitivity Y pj1 and the standard deviation Y pj2 of the sample j correspond to the sensitivity Y 1 and the standard deviation Y 2 of the first unit space. From this, the variance V p11 of the sensitivity Y p1 of the first unit space is obtained from the equation (12), and the variance V p22 of the standard deviation Y p2 of the first unit space is obtained from the equation (13). Further, the covariances V p12 and V p21 of the sensitivity Y p1 and the standard deviation Y p2 are obtained from the equation (14).

感度Yp1の分散Vp11、標準偏差Yp2の分散Vp22、及び感度Yp1と標準偏差Yp2との共分散Vp12から、分散行列Vは、(15)式から求められる。余因子行列Aは、(16)式に示すように、分散行列Vから求められる。 Variance V pi 1 of sensitivity Y p1, from the covariance V p12 of the dispersion V p22, and sensitivity Y p1 and the standard deviation Y p2 of the standard deviation Y p2, variance matrix V p is determined from equation (15). Cofactor matrix A p, as shown in equation (16) is determined from the covariance matrix V p.

図6のフローチャートでは、次のステップ142において、第一単位空間の第一単位空間距離Dpjを求める。第一単位空間距離Dpjは、余因子行列A(感度Yp1の分散Vp11、標準偏差Yp2の分散Vp22、感度Yp1と標準偏差Yp2との共分散Vp12、及び分散行列V)から、(17)式を用いて得られる。 In the flowchart of FIG. 6, in the next step 142, a first unit space distance Dpj of the first unit space is obtained. The first unit space distance D pj, the dispersion V pi 1 of cofactor matrix A p (sensitivity Y p1, variance V p22 of the standard deviation Y p2, sensitivity Y p1 and the standard deviation Y p2 and covariance V p12, and covariance matrix V p ) is obtained using the equation (17).

これにより、図10に示すように、分割枠F(F〜Fl×m)の各々に対応するサンプルjの第一単位空間の第一単位空間距離Dpjが得られる。図6のステップ144では、第一単位空間距離Dpjを用い、分割枠F毎に第一単位空間距離Dpjの平均距離Dを演算する。分割枠F毎の第一単位空間距離Dpjの平均値aIは、(18)式を用いて演算される。また、分割枠F毎の第一単位空間距離Dpjの平均距離Dは、(19)式を用いて演算される。 Thereby, as shown in FIG. 10, the first unit space distance D pj of the first unit space of the sample j corresponding to each of the divided frames F p (F 1 to F 1 × m ) is obtained. In step 144 of FIG. 6, using the first unit space distance D pj, it calculates the average distance D p of the first unit space distance D pj for each divided frame F p. The average value aI p of the first unit spatial distance D pj for each divided frame F p is calculated using equation (18). Further, the average distance D p of the first unit space distance D pj for each divided frame F p is calculated using the equation (19).

図6のフローチャートでは、分割枠F毎の第一単位空間距離Dpjの平均距離Dの演算が終了すると、サンプルjの注目領域14Bに対する処理を行う。注目領域14Bに対する処理は、先ず、ステップ146において、(18)式により得られる第一単位空間距離Dpjの平均値aIを用いて、各サンプルjの注目領域14Bにおける感度β(β)、及び標準SN比η(η)を演算する。感度βの演算には、有効除数r、及び各サンプルjの線形式Lを用いる。有効除数rは、(20)式に示すように、分割枠F毎の第一単位空間距離Dpjの平均値aIの平均二乗和として演算する。また、線形式Lは、(21)式により得られる。さらに、第二単位空間の感度βは、有効除数r及び線形式Lから、(22)式を用いて得られる。 In the flowchart of FIG. 6, when the calculation of the average distance D p of the first unit space distances D pj for each divided frame F p is completed, the processing for the attention area 14B of the sample j is performed. In the processing for the attention area 14B, first, in step 146, the sensitivity β (β j ) in the attention area 14B of each sample j using the average value aI p of the first unit space distance D pj obtained by the equation (18). , And the standard SN ratio η (η j ). For the calculation of the sensitivity β j , the effective divisor r and the line format L j of each sample j are used. The effective divisor r is calculated as the average sum of squares of the average values aI p of the first unit spatial distances D pj for each divided frame F p as shown in the equation (20). Further, the line format L j is obtained by the equation (21). Further, the sensitivity β j of the second unit space is obtained from the effective divisor r and the line format L j using the equation (22).

サンプルjの標準SN比ηの演算には、全変動SjT、比例項の変動Sjβ、及び誤差分散Vjeを用いる。全変動SjTは、(23)式を用いた演算により得られ、比例項の変動Sjβは、(24)式を用いた演算により得られる。また、誤差分散Vjeを演算するために、全変動SjT及び比例項の変動Sjβを用い、(25)式により誤差変動Sjeを演算する。 For the calculation of the standard SN ratio η j of the sample j, the total variation S jT , the proportional term variation S , and the error variance V je are used. The total variation S jT is obtained by calculation using the equation (23), and the proportional term variation S is obtained by calculation using the equation (24). Further, in order to calculate the error variance V je, using the variation S Jbeta of total variation S jT and proportional term, it calculates the error variation S je by (25).

誤差分散Vjeは、誤差変動Sje及び分割枠Fの総数(l×m)から、(26)式により演算され、標準SN比ηは、誤差分散Vjeの逆数として、(27)式から求められる。これにより、図11に示すように、第二単位空間の感度β、及び標準偏差ηとなるサンプルj毎の感度β、及び標準SN比ηが得られる。 The error variance V je is calculated from the error variation S je and the total number (l × m) of the divided frames F p by the equation (26), and the standard SN ratio η j is expressed as (27) as the reciprocal of the error variance V je. It is obtained from the formula. Thus, as shown in FIG. 11, the sensitivity beta, and the sensitivity of each sample j as the standard deviation eta beta j of the second unit space, and a standard SN ratio eta j obtained.

サンプルjの特徴量となる感度β、及び標準SN比ηを演算すると、次のステップ148では、感度β、及び標準SN比ηを、2つの統計データとする感度Yj1((28)式参照)、及び標準偏差Yj2((29)式参照)に変換する。 Feature quantity to become sensitive beta j of the sample j, and when calculating the standard SN ratio eta j, the next step 148, the sensitivity Y j1 sensitivity beta j, and standard SN ratio eta j, the two statistical data (( 28) and standard deviation Y j2 (see equation (29)).

次のステップ150では、統計データから分散・共分散を求め、分散、共分散を用いた分散行列から余因子行列Aを求める。図12に示すように、サンプルjの感度Yj1、及び標準偏差Yj2は、第二単位空間の感度Y、及び標準偏差Yに対応する。また、感度Yj1、及び標準偏差Yj2から、感度Yの平均値、及び標準偏差Yの平均値が得られる。 In the next step 150, the variance / covariance is obtained from the statistical data, and the cofactor matrix A is obtained from the variance matrix using variance and covariance. As shown in FIG. 12, the sensitivity Y j1 and the standard deviation Y j2 of the sample j correspond to the sensitivity Y 1 and the standard deviation Y 2 of the second unit space. Further, the average value of the sensitivity Y 1 and the average value of the standard deviation Y 2 are obtained from the sensitivity Y j1 and the standard deviation Y j2 .

ここから、第二単位空間の感度Yの分散V11は、(30)式から求められ、第二単位空間の標準偏差Yの分散V22は、(31)式から求められる。また、感度Yと標準偏差Yの共分散V12は、(32)式から求められる。(nは、サンプル数)。 From this, the variance V 11 of the sensitivity Y 1 in the second unit space is obtained from the equation (30), and the variance V 22 of the standard deviation Y 2 in the second unit space is obtained from the equation (31). Further, the covariance V 12 Sensitivity Y 1 and the standard deviation Y 2 is determined from equation (32). (N is the number of samples).

分散行列Vは、感度Yの分散V11、標準偏差Yの分散V22、及び感度Yと標準偏差Yとの共分散V12、V21から、(33)式を用いて求められる。また、余因子行列Aは、分散行列Vから、(34)式を用いて求められる。 Covariance matrix V from the sensitivity Y 1 of the variance V 11, variance V 22 standard deviations Y 2 and sensitivity Y 1 and the standard deviation Y 2 and covariance V 12, V 21,, determined using the equation (33) It is done. Further, the cofactor matrix A is obtained from the variance matrix V p using the equation (34).

この後、ステップ152では、サンプルjの第二単位空間距離Dを求める。第二単位空間距離Dは、余因子行列A(感度Yの分散V11、標準偏差Yの分散V22、感度Yと標準偏差Yとの共分散V12、V21、及び分散行列V)から、(35)式を用いて得られる。 Thereafter, in step 152, the second unit spatial distance D j of the sample j is obtained. The second unit space distance D j, cofactor matrix A (sensitivity Y 1 of the variance V 11, variance V 22 of the standard deviation Y 2, sensitivity Y 1 and the standard deviation Y 2 and covariance V 12, V 21 and, The dispersion matrix V) is obtained using the equation (35).

サンプルjの第二単位空間距離Dの演算が終了すると、サンプルjの第二単位空間距離Dの単位空間平均距離Dを求める。第二単位空間距離Dの単位空間平均距離Dは、D=0からの標準偏差を示し、(36)式から求められる。 When the calculation of the second unit spatial distance D j of the sample j is completed, the unit space average distance D of the second unit spatial distance D j of the sample j is obtained. The unit space average distance D of the second unit space distance D j indicates a standard deviation from D = 0, and is obtained from the equation (36).

このようにして、複数のサンプル14の画像からサンプルの分割枠F毎の第一単位空間距離Dpjの平均距離D、及び第二単位空間距離Dの単位空間平均距離Dを演算すると、図5のフローチャートでは、ステップ104へ移行し、複数のサンプル14に基づいたサンプルjの分割枠F毎の第一単位空間距離Dpjの平均距離D、及び第二単位空間距離Dの単位空間平均距離Dを基準記憶部20に格納する。これら第一単位空間距離Dpjの平均距離D、第二単位空間距離D及び単位空間平均距離Dの演算、並びに基準記憶部20への格納は、評価対象物12の評価前の準備工程で行われる。つまり、これらは、評価対象物12の評価に際して常に行われるものでは無く、評価(判断)の基準の作成時や修正時に行われる。 In this way, when the average distance D p of the first unit space distance D pj and the unit space average distance D of the second unit space distance D j are calculated from the images of the plurality of samples 14 for each divided frame F p of the sample. In the flowchart of FIG. 5, the process proceeds to step 104 where the average distance D p of the first unit spatial distance D pj and the second unit spatial distance D j for each division frame F p of the sample j based on the plurality of samples 14. Is stored in the reference storage unit 20. The calculation of the average distance D p of the first unit space distance D pj , the second unit space distance D j and the unit space average distance D and the storage in the reference storage unit 20 are preparation steps before the evaluation of the evaluation object 12. Done in That is, these are not always performed when the evaluation object 12 is evaluated, but are performed when an evaluation (judgment) criterion is created or corrected.

(演算工程)
次に、評価対象物12に対する評価を行う。評価対象物12に対する評価を行う場合、ステップ106において評価対象物12の撮像画像12Aを取得し、ステップ108では、取得した評価対象物12の撮像画像12Aに基づき、注目領域12Bの分割枠F毎の第一空間距離、及び注目領域12Bの第二空間距離を演算する。
(Calculation process)
Next, the evaluation object 12 is evaluated. When evaluating the evaluation object 12, the captured image 12A of the evaluation object 12 is acquired in Step 106, and in Step 108, the divided frame F p of the attention area 12B is based on the acquired captured image 12A of the evaluation object 12. The first spatial distance for each and the second spatial distance of the attention area 12B are calculated.

図13には、図5のステップ108で実行される評価対象物12の第一空間距離及び第二空間距離の演算の一例を示す。第一空間距離及び第二空間距離の演算は、最初のステップ160において、評価対象物12の撮像画像12Aから注目領域12Bを抽出する。この注目領域12Bは、サンプル14の注目領域14Bに対応する領域となっている。   FIG. 13 shows an example of the calculation of the first spatial distance and the second spatial distance of the evaluation object 12 executed in step 108 of FIG. In the calculation of the first spatial distance and the second spatial distance, the attention area 12B is extracted from the captured image 12A of the evaluation object 12 in the first step 160. This attention area 12B is an area corresponding to the attention area 14B of the sample 14.

次のステップ162では、注目領域12Bを、分割数pに基づいて分割した分割枠Fを設定する。また、ステップ164では、分割枠Fの各々について、特徴量とするデータx’を抽出する。これにより、図14に示すように、各分割枠Fについて、特徴項目とする輝度区分(輝度範囲)i(i=1〜k)毎のデータx’piが得られる。 In the next step 162, a divided frame Fp obtained by dividing the attention area 12B based on the division number p is set. In step 164, data x ′ p as a feature amount is extracted for each of the divided frames F p . Thus, as shown in FIG. 14, for each of the divided frames F p, brightness segment (brightness range), wherein the item i (i = 1 to k) for each data x 'pi is obtained.

図13のフローチャートでは、次のステップ166において、分割枠F毎に感度β’(β’)、及び標準SN比η’(η’)を演算する。感度β’の演算には、分割枠Fごとの有効除数r、及び線形式L’を用いる。有効除数rとしては、(37)式((2)式)に示すサンプルの特徴項目として用いた輝度区分i毎のデータxpiの平均値axpiの平均二乗和を用いる。また、線形式L’は、(38)式により得られる。さらに、分割枠F毎の感度β’は、有効除数r及び線形式L’から、(39)式を用いて得られる。 In the flowchart of FIG. 13, in the next step 166, the sensitivity β ′ (β ′ p ) and the standard SN ratio η ′ (η ′ p ) are calculated for each divided frame F p . For the calculation of the sensitivity β ′ p , the effective divisor r p for each divided frame F p and the line format L ′ p are used. The effective divisor r p, (37) below using the mean square sum of the average value ax pi data x pi for each luminance segment i used as characteristic item of the sample shown in ((2)). Further, the line format L ′ p is obtained by the equation (38). Furthermore, the sensitivity β of each divided frame F p 'p is the effective divisor r p and linear equation L' from p, obtained using equation (39).

評価対象物12の分割枠F毎の標準SN比η’の演算には、全変動S’pT、比例項の変動S’pβ、及び誤差分散V’peを用いる。全変動S’pTは、(40)式を用いて得られ、比例項の変動S’pβは、(41)式を用いて得られる。また、誤差分散V’peを演算するために、全変動S’pT及び比例項の変動S’pβを用い、(42)式により誤差変動S’peを演算する。 For the calculation of the standard SN ratio η ′ p for each divided frame F p of the evaluation object 12, the total variation S ′ pT , the proportional term variation S ′ , and the error variance V ′ pe are used. The total variation S ′ pT is obtained using the equation (40), and the variation S ′ of the proportional term is obtained using the equation (41). Further, in order to calculate the error variance V ′ pe , the total variation S ′ pT and the variation S ′ of the proportional term are used, and the error variation S ′ pe is calculated by the equation (42).

誤差分散V’peは、誤差変動S’pe及び輝度区間係数kから、(43)式により演算され、標準SN比η’は、誤差分散V’peの逆数として、(44)式から求められる。 The error variance V ′ pe is calculated from the error variation S ′ pe and the luminance interval coefficient k by the equation (43), and the standard SN ratio η ′ p is obtained from the equation (44) as the reciprocal of the error variance V ′ pe. It is done.

評価対象物12の注目領域12Bの特徴量となる感度β’、及び標準SN比η’を演算すると、次のステップ168では、感度β’、及び標準SN比η’を、2つの統計データとする感度Y’p1((45)式参照)、及び標準偏差Y’p2((46)式参照)に変換する。 When the sensitivity β ′ p and the standard SN ratio η ′ p, which are the features of the attention area 12B of the evaluation object 12, are calculated, in the next step 168, the sensitivity β ′ p and the standard SN ratio η ′ p are set to 2 These are converted into sensitivity Y ′ p1 (see formula (45)) and standard deviation Y ′ p2 (see formula (46)) as two statistical data.

この後、ステップ170では、2つの統計データである感度Y’p1、及び標準偏差Y’p2より(16)式の余因子行列A’を用いて、(47)式から評価対象物12の分割枠F毎の第二空間距離D’を求める。 Thereafter, in step 170, from the equation (47), the evaluation object 12 is evaluated using the cofactor matrix A ′ p of the equation (16) from the sensitivity Y ′ p1 and the standard deviation Y ′ p2 which are two statistical data. A second spatial distance D ′ p for each divided frame F p is obtained.

これにより、図15に示すように、特徴項目として分割枠F(F〜Fl×m)の各々に対応する第一空間距離D’(D’〜D’l×m)が得られる。 As a result, as shown in FIG. 15, the first spatial distance D ′ p (D ′ 1 to D ′ 1 × m ) corresponding to each of the divided frames F p (F 1 to F 1 × m ) is used as a feature item. can get.

図13では、評価対象物12の分割枠Fについて、第一空間距離D’の演算を行うとステップ172へ移行し、評価対象物12の注目領域12Bについて、感度β’、及び標準SN比η’を演算する。感度β’の演算には、有効除数r、及び線形式L’を用いる。有効除数r及び線形式L’は、第一空間距離D’に基づいて、(48)式((20式参照)及び(49)式から得られる。また、感度β’は、有効除数r及び線形式L’から、(50)式を用いて得られる。 In FIG. 13, when the first spatial distance D ′ p is calculated for the divided frame F p of the evaluation object 12, the process proceeds to step 172, and the sensitivity β ′ and the standard SN for the attention area 12 </ b> B of the evaluation object 12. The ratio η ′ is calculated. For the calculation of the sensitivity β ′, an effective divisor r and a linear format L ′ are used. The effective divisor r and the linear form L ′ are obtained from the equation (48) (see the equation (20) and (49) based on the first spatial distance D ′ p . The sensitivity β ′ is the effective divisor r. And from the line format L ′, it is obtained using the equation (50).

標準SN比η’の演算には、全変動S’、比例項の変動S’β、及び誤差分散V’を用いる。全変動S’は、(51)式を用いた演算により得られ、比例項の変動S’βは、(52)式を用いた演算により得られる。また、誤差分散V’を演算するために、全変動S’及び比例項の変動S’βを用い、(53)式により誤差変動S’を演算する。 For the calculation of the standard SN ratio η ′, the total variation S ′ T , the variation S ′ β of the proportional term, and the error variance V ′ e are used. The total variation S ′ T is obtained by calculation using the equation (51), and the variation S ′ β of the proportional term is obtained by calculation using the equation (52). Further, in order to calculate the error variance V ′ e , the error variation S ′ e is calculated by the equation (53) using the total variation S ′ T and the proportional term variation S ′ β .

誤差分散V’は、誤差変動S’及び分割枠Fの総数(l×m)から、(54)式により演算され、標準SN比η’は、誤差分散V’の逆数として、(55)式から求められる。 The error variance V ′ e is calculated from the error variation S ′ e and the total number (l × m) of the divided frames F p according to the equation (54), and the standard SN ratio η ′ is the reciprocal of the error variance V ′ e . It is obtained from the equation (55).

評価対象物12の注目領域12Bに対する感度β’、及び標準SN比η’を演算すると、次のステップ174では、感度β’、及び標準SN比η’を、2つの統計データとする感度Y’((56)式参照)、及び標準偏差Y’((57)式参照)に変換する。 When the sensitivity β ′ and the standard SN ratio η ′ for the attention area 12B of the evaluation object 12 are calculated, in the next step 174, the sensitivity Y ′ using the sensitivity β ′ and the standard SN ratio η ′ as two statistical data. 1 (see formula (56)) and standard deviation Y ′ 2 (see formula (57)).

この後、ステップ176では、2つの統計データである感度Y’、及び標準偏差Y’より(34)式の余因子行列A’を用いて、(58)式から評価対象物12の注目領域12Bについて第二空間距離D’を求める。 Thereafter, in step 176, using the sensitivity is two statistical data Y '1, and standard deviation Y' than 2 (34) cofactor matrix A 'of the formula (58) Featured evaluation target 12 from the equation A second spatial distance D ′ is obtained for the region 12B.

(評価工程)
このようにして、評価対象物12の注目領域12Bについて、第一空間距離D’を演算すると、図5のフローチャートでは、評価対象物12の評価を行う。評価対象物12の評価は、先ず、ステップ110において、単位空間平均距離Dを用いて、評価対象物12の注目領域12Bの第二空間距離D’を評価する。単位空間平均距離Dを用いた第二空間距離D’の評価は、例えば、単位空間平均距離Dに基づいてしきい値Dthを設定し、設定したしきい値Dthと第二空間距離D’と比較して行う。また、単位空間平均距離Dを用いた第二空間距離D’の評価は、単位空間平均距離Dに対する第二空間距離D’の比が予め設定している比を超えたか否かから評価しても良く、これらに限らず、公知の各種の評価方法を適用することができる。
(Evaluation process)
When the first spatial distance D ′ is calculated for the attention area 12B of the evaluation object 12 in this way, the evaluation object 12 is evaluated in the flowchart of FIG. In the evaluation of the evaluation object 12, first, in step 110, the second spatial distance D ′ of the attention area 12B of the evaluation object 12 is evaluated using the unit space average distance D. The evaluation of the second spatial distance D ′ using the unit space average distance D is, for example, setting a threshold value D th based on the unit space average distance D, and setting the threshold value D th and the second spatial distance D. Compare with '. The evaluation of the second spatial distance D ′ using the unit space average distance D is based on whether or not the ratio of the second spatial distance D ′ to the unit space average distance D exceeds a preset ratio. Not limited to these, various known evaluation methods can be applied.

ステップ112では、評価結果から評価対象物12の注目領域12Bが良品か否かを判定する。評価対象物12の注目領域12Bがサンプル14の注目領域14Bと一致するとみなされる場合、ステップ112で肯定判定して、ステップ114へ移行する。このステップ114では、評価対象物12の注目領域12Bが良品と判定されたことを報知する。また、ステップ116で、次の評価対象物12の有無を確認し、次の評価対象物12がある場合、ステップ116で肯定判定して、ステップ106へ移行し、評価対象物12に対する評価処理を継続する。   In step 112, it is determined from the evaluation result whether the attention area 12B of the evaluation object 12 is a non-defective product. When it is considered that the attention area 12B of the evaluation object 12 matches the attention area 14B of the sample 14, an affirmative determination is made in step 112, and the process proceeds to step 114. In step 114, it is notified that the attention area 12B of the evaluation object 12 has been determined to be non-defective. Also, in step 116, the presence or absence of the next evaluation object 12 is confirmed. If there is the next evaluation object 12, an affirmative determination is made in step 116, the process proceeds to step 106, and the evaluation process for the evaluation object 12 is performed. continue.

これに対して、評価結果から評価対象品12の注目領域12Bが、サンプル14の注目領域14Bと一致しないと見なされる場合、ステップ112で否定判定してステップ118へ移行する。   On the other hand, if it is determined from the evaluation result that the attention area 12B of the evaluation target product 12 does not match the attention area 14B of the sample 14, a negative determination is made in step 112, and the process proceeds to step 118.

ステップ118では、サンプル14の分割枠F毎の第一単位空間距離Dpjの平均距離Dを読み出し、分割枠F毎に第一空間内距離D’を評価する。分割枠F毎の第一空間距離D’の評価は、例えば、サンプル14の分割枠F毎に求めた第一単位空間距離Dpjの平均距離Dに基づいたしきい値Dpthを設定し、このしきい値Dpthと第一空間距離D’を評価しても良く、第一単位空間距離Dpjの平均距離Dと第一空間距離D’の比を用いて評価しても良く、これらに限らず、公知の評価方法を適用することができる。ステップ118では、第一空間距離D’を評価することで、評価対象品12の注目領域12B内で、不良と評価される部位(分割枠F)を特定する。 In step 118, it reads the average distance D p of the first unit space distance D pj of each divided frame F p of the sample 14, to evaluate the first space distance D 'p for each divided frame F p. The evaluation of the first spatial distance D ′ p for each divided frame F p is, for example, a threshold D pth based on the average distance D p of the first unit spatial distances D pj obtained for each divided frame F p of the sample 14. And the threshold value D pth and the first spatial distance D ′ p may be evaluated using the ratio of the average distance D p of the first unit spatial distance D pj to the first spatial distance D ′ p. You may evaluate, and not only these but a well-known evaluation method is applicable. In step 118, by evaluating the first spatial distance D ′ p , a part (divided frame F p ) that is evaluated as defective in the attention area 12B of the evaluation target product 12 is specified.

この後、ステップ120では、評価対象物12を不良と判定した判定結果を報知すると共に、評価対象物12の分割枠F毎の評価結果、或いは不良と判定された分割枠Fを特定して報知する。 Thereafter, in step 120, an alarm about the determination result of evaluation target 12 was determined to be defective, the evaluation result of each division frame F p of the evaluation object 12, or to identify the divided frames F p determined to be defective To inform.

〔実施例1〕
図16には、評価対象物12として電装基板を適用し、この電装基板において白色のコネクタを含む注目領域12Bの評価の一例を示す。図16には、注目領域12Bとして白色のコネクタを含む画像(評価画像)52を示す。この評価画像52は、一例として、白色のコネクタを含む30画素×46画素の領域として、2つの分割枠F、Fに分割して評価を行った。なお、評価は、97個の正常品と、コネクタの組立方向間違いの3個の異常品の各々について、特徴量として輝度値を用いて、輝度区間係数k=32として行っている。
[Example 1]
FIG. 16 shows an example of evaluation of a region of interest 12B that includes an electrical board as the evaluation object 12 and includes a white connector on the electrical board. FIG. 16 shows an image (evaluation image) 52 including a white connector as the attention area 12B. As an example, the evaluation image 52 is divided into two divided frames F 1 and F 2 as an area of 30 pixels × 46 pixels including a white connector and evaluated. The evaluation is performed with the brightness interval coefficient k = 32 using the brightness value as the feature value for each of 97 normal products and 3 abnormal products with incorrect connector assembly direction.

図17には、分割枠F、Fの各々について第一空間距離D’(D’、D’)を演算し、第一空間距離D’、D’を用いて演算した第二空間距離D’を示している。また、図18(A)には、分割枠Fについて演算した第一空間距離D’を示し、図18(B)には、分割枠Fについて演算した第一空間距離D’を示している。なお、図17は、縦軸(第二空間距離)の最大レンジを0.02とし、また、第二単位空間距離に基づいたしきい値Dthは、0.009としている。図18(A)及び図18(B)は、縦軸(第一空間距離)の最大レンジを0.2とし、また、第一単位空間距離に基づいたしきい値Dpthは、0.09としている。 In FIG. 17, the first spatial distance D ′ j (D ′ 1 , D ′ 2 ) is calculated for each of the divided frames F 1 and F 2 , and the calculation is performed using the first spatial distances D ′ 1 and D ′ 2. The second spatial distance D ′ is shown. FIG. 18A shows the first spatial distance D ′ 1 calculated for the divided frame F 1 , and FIG. 18B shows the first spatial distance D ′ 2 calculated for the divided frame F 2. Show. In FIG. 17, the maximum range of the vertical axis (second spatial distance) is 0.02, and the threshold value D th based on the second unit spatial distance is 0.009. 18A and 18B, the maximum range of the vertical axis (first spatial distance) is 0.2, and the threshold value D pth based on the first unit spatial distance is 0.09. It is said.

第一空間距離D’、D’が0.05以下が、正常品の集合と考えられたが、図18(A)及び図18(B)に示すように、部品表面の明るさのばらつきから、正常品の第一空間距離D’、D’が、0.05を挟んで分散している。また、例えば、撮像の濃淡が濃い場合、図18(A)に示すように、正常品であっても、第一空間距離D’が大きくなりしきい値Dthを超えてしまう。 When the first spatial distances D ′ 1 and D ′ 2 were 0.05 or less, it was considered as a collection of normal products. However, as shown in FIGS. Due to the variation, the first spatial distances D ′ 1 and D ′ 2 of normal products are dispersed with 0.05 in between. Further, for example, when the density of imaging is dark, as shown in FIG. 18A, the first spatial distance D′ 1 becomes large and exceeds the threshold value Dth even for a normal product.

この結果、分割枠F、F毎に評価した場合、分割枠F、Fの何れか一方がしきい値Dpthを超えることで不良と判定されてしまう。従って、評価対象物12を分割枠Fごとに評価した場合、正確な評価結果は得られないことがある。 As a result, when evaluated for each divided frame F 1, F 2, one of the divided frames F 1, F 2 from being judged as defective by more than the threshold value D pth. Therefore, when evaluating the evaluation target 12 for each divided frame F p, may not accurate evaluation results are obtained.

一方、図17に示すように、分割枠F、Fの第一空間距離D’、D’を特徴項目とする注目領域12Bの第二空間距離D’は、多数が0.005以下となり、また、正常品においては、しきい値Dthを超えることがない。また、異常品については、第二空間距離D’がしきい値Dth以下となることがない。さらに、正常品と異常品との間の第二空間距離D’は、十分に離れた値となっている。 On the other hand, as shown in FIG. 17, the second spatial distance D divided frame F 1, the first spatial distance D of F 2 '1, D' 2 region of interest 12B characterized item 'are many 0.005 In the normal product, the threshold value Dth is not exceeded. For abnormal products, the second spatial distance D ′ does not become the threshold value Dth or less. Furthermore, the second spatial distance D ′ between the normal product and the abnormal product is a sufficiently separated value.

従って、分割枠F、Fの第一空間距離D’、D’を特徴項目とする注目領域12Bの第二空間距離D’を用いることで、正常品と異常品とを適正に識別することが可能となり、高精度の評価を行うことができる。 Therefore, by using the second spatial distance D ′ of the attention area 12B having the first spatial distances D ′ 1 and D ′ 2 of the divided frames F 1 and F 2 as characteristic items, the normal product and the abnormal product are appropriately set. It becomes possible to identify, and highly accurate evaluation can be performed.

〔実施例2〕
図19、図20(A)及び図20(B)には、分割枠F毎の特徴項目とする輝度区間係数kを変化させた際の単位空間平均距離Dに対する第二空間距D’の比を示している。
[Example 2]
In FIG. 19, FIG. 20 (A) and FIG. 20 (B), the second spatial distance D ′ with respect to the unit space average distance D when the luminance section coefficient k as the feature item for each divided frame F p is changed is shown. The ratio is shown.

図19には、注目領域12Bとして黒色のコネクタを含む画像(評価画像)54を示す。この評価画像54は、一例として、黒のコネクタを含む36画素×60画素の領域として、複数の分割枠Fpに分割して評価を行った。なお、図19は、一例として分割数p=6(分割枠F〜F)に分割した例を示している。 FIG. 19 shows an image (evaluation image) 54 including a black connector as the attention area 12B. As an example, the evaluation image 54 is divided into a plurality of divided frames Fp as an area of 36 pixels × 60 pixels including a black connector and evaluated. FIG. 19 shows an example where the number of divisions p = 6 (divided frames F 1 to F 6 ).

評価画像54に対する評価は、95個の正常品と、5個の異常品について行っている。5個の異常品の内訳は、2個の組立忘れ(コネクタの欠品1、2)、及び3個の組立方向間違い(コネクタの極性間違い1、2、3)としている。   Evaluation for the evaluation image 54 is performed for 95 normal products and 5 abnormal products. The breakdown of the five abnormal products includes two forgotten assemblies (connector missing items 1, 2) and three incorrect assembly directions (connector polarity errors 1, 2, 3).

図20(A)には、特徴項目とする輝度区間係数kを一定(k=32)とし、分割数p=1、2、4、6、8、10の各々における第二単位空間の平均距離である単位空間平均距離Dに対する第二空間距離D’の比(空間距離比)を示している。また、図20(B)には、分割数pを一定(p=6)とし、特徴項目とする輝度区間係数k=16、32、64の各々における第二単位空間の平均距離である単位空間平均距離Dに対する第二空間距離D’の比(空間距離比)を示している。なお、正常品Maxは、正常品の最大値を示している。   FIG. 20A shows the average distance of the second unit space in each of the division numbers p = 1, 2, 4, 6, 8, 10 with the luminance interval coefficient k as a feature item being constant (k = 32). The ratio (spatial distance ratio) of the second spatial distance D ′ to the unit spatial average distance D is shown. FIG. 20B shows a unit space that is an average distance of the second unit spaces in each of the luminance interval coefficients k = 16, 32, and 64 as feature items, with the division number p being constant (p = 6). The ratio of the second spatial distance D ′ to the average distance D (spatial distance ratio) is shown. The normal product Max represents the maximum value of the normal product.

図20(A)に示すように、分割数p=1(分割無し)の場合、正常品と不良品(特に極性間違い)との間の空間距離比が近似している。従って、分割数p=1の場合、評価の際に誤判定を生じる可能性が高くなる。   As shown in FIG. 20A, when the division number p = 1 (no division), the spatial distance ratio between a normal product and a defective product (especially a polarity error) is approximated. Therefore, when the number of divisions p = 1, there is a high possibility that erroneous determination will occur during evaluation.

これに対して、分割数pを2以上とすることで、正常品の空間距離比が不良品(特に極性間違い)の空間距離比より小さくなり、分割数pを4以上とすることで、正常品の空間距離比と不良品(特に極性間違い)の空間距離比の差が広がる。従って、分割数pを少なくとも2以上、好ましくは4以上とすることで、評価対象物12の適正な評価が可能となる。   On the other hand, by setting the division number p to 2 or more, the space distance ratio of normal products becomes smaller than the space distance ratio of defective products (particularly polarity errors), and normal by setting the division number p to 4 or more. The difference between the spatial distance ratio of products and the spatial distance ratio of defective products (especially wrong polarity) widens. Therefore, the evaluation object 12 can be properly evaluated by setting the division number p to at least 2 or more, preferably 4 or more.

また、図20(B)に示すように、特徴項目の数となる輝度区間係数kを64とした場合は勿論、輝度区間係数k=16とした場合においても、正常品の空間距離比と不良品の空間距離比との間には差が生じる。特徴項目の数が多くなると、第一空間距離D’の演算数が多くなり、輝度区間係数kを小さく設定すれば、特徴項目の数が減少し、演算時間の短縮が可能となる。 In addition, as shown in FIG. 20B, when the luminance section coefficient k, which is the number of feature items, is set to 64 as well as when the luminance section coefficient k = 16, the spatial distance ratio of the normal product and the difference between There is a difference between the spatial distance ratio of good products. As the number of feature items increases, the number of computations of the first spatial distance D′ p increases, and if the brightness interval coefficient k is set small, the number of feature items decreases and the computation time can be shortened.

従って、分割枠Fpの数(分割数p)、及び輝度区間係数kを適切に設定することで、適正な評価を迅速に行うことができる。   Therefore, appropriate evaluation can be quickly performed by appropriately setting the number of division frames Fp (division number p) and the luminance interval coefficient k.

以上説明した本実施形態は、本発明の一例を示すものであり、本発明を限定するものではない。本発明は、空間距離を用いて画像を評価する任意の構成に適用することができる。   This embodiment described above shows an example of the present invention and does not limit the present invention. The present invention can be applied to any configuration that evaluates an image using a spatial distance.

10 画像判定装置
12 評価対象物
12B、14B 注目領域
14 サンプル
16 撮像情報取得部
18 演算部
20 基準記憶部
22 評価部
24 報知部
26 撮像カメラ
28 注目領域抽出部
30 分割部
32 特徴量抽出部
34 単位空間距離演算部
36 対象空間距離演算部
38 第1評価部
40 第2評価部
52、54 評価画像
DESCRIPTION OF SYMBOLS 10 Image determination apparatus 12 Evaluation object 12B, 14B Attention area 14 Sample 16 Imaging information acquisition part 18 Calculation part 20 Reference storage part 22 Evaluation part 24 Notification part 26 Imaging camera 28 Attention area extraction part 30 Dividing part 32 Feature-value extraction part 34 Unit spatial distance calculation unit 36 Target spatial distance calculation unit 38 First evaluation unit 40 Second evaluation unit 52, 54 Evaluation image

Claims (11)

評価対象物に対する評価基準のサンプルの画像の注目領域を複数の分割枠に仕切り、当該複数の分割枠の各々の画像から分割枠の各々の第一単位空間を設定し、各々の第一単位空間距離及び第一単位空間距離の平均距離を演算すると共に、当該分割枠の各々の第一単位空間距離に基づいて前記サンプルの注目領域の画像に対応する前記サンプルの各々の第二単位空間距離を演算し、当該第二単位空間距離を平均して単位空間平均距離を予め演算する準備工程と、
評価対象物の画像の注目領域を複数の分割枠に仕切り、当該複数の分割枠の各々の画像から分割枠の各々の第一空間距離を演算すると共に、当該分割枠の各々の第一空間距離に基づいて前記評価対象物の注目領域の画像に対応する評価対象物の注目領域の第二空間距離を演算する演算工程と、
前記サンプルの注目領域の単位空間平均距離及び前記評価対象物の注目領域の第二空間距離を用いて、前記評価対象物の注目領域を評価する評価工程と、
を含む画像評価方法。
The attention area of the sample image of the evaluation criterion for the evaluation object is divided into a plurality of divided frames, and each first unit space of the divided frames is set from each image of the plurality of divided frames. Calculating the average distance of the distance and the first unit spatial distance, and calculating the second unit spatial distance of each of the samples corresponding to the image of the region of interest of the sample based on the first unit spatial distance of each of the divided frames. A preparatory step for calculating and pre-calculating the unit space average distance by averaging the second unit space distance;
The attention area of the image of the evaluation object is divided into a plurality of divided frames, the first spatial distances of the divided frames are calculated from the images of the divided frames, and the first spatial distances of the divided frames are calculated. A calculation step of calculating a second spatial distance of the attention area of the evaluation object corresponding to the image of the attention area of the evaluation object based on
An evaluation step of evaluating the attention area of the evaluation object using the unit space average distance of the attention area of the sample and the second spatial distance of the attention area of the evaluation object;
An image evaluation method including:
前記サンプルの注目領域の単位空間平均距離及び前記評価対象物の注目領域の第二空間距離を用いた評価結果に基づき、前記サンプルの分割枠の各々の第一単位空間距離の平均距離及び前記評価対象物の分割枠の各々の第一空間距離を用いて、前記評価対象物の前記複数の分割枠の各々を評価する、請求項1記載の画像評価方法。   Based on the evaluation result using the unit space average distance of the sample region of interest and the second space distance of the region of interest of the evaluation object, the average distance of the first unit space distance of each of the divided frames of the sample and the evaluation The image evaluation method according to claim 1, wherein each of the plurality of divided frames of the evaluation object is evaluated using a first spatial distance of each of the divided frames of the object. 画素毎の輝度値を所定の輝度幅の複数の輝度区間に区分けし、区分けした前記複数の輝度区間の各々を特徴項目として、前記サンプルの分割枠の各々、及び前記評価対象物の分割枠の各々から、前記特徴項目毎の特徴量を抽出し、
前記サンプルの分割枠の各々から抽出された前記特徴項目毎の特徴量に基づいて前記サンプルの分割枠の各々の第一単位空間距離及び第一単位空間距離の平均距離を演算し、
前記評価対象物の分割枠の各々から抽出された前記特徴項目毎の特徴量に基づいて前記評価対象物の分割枠の各々の第一空間距離を演算する、
ことを含む請求項1又は請求項2記載の画像評価方法。
The luminance value for each pixel is divided into a plurality of luminance intervals of a predetermined luminance width, and each of the divided luminance intervals is a feature item, and each of the divided frame of the sample and the divided frame of the evaluation object Extracting the feature amount for each feature item from each,
Calculating the first unit spatial distance of each of the sample division frames and the average distance of the first unit space distances based on the feature amount of each feature item extracted from each of the sample division frames;
Calculating a first spatial distance of each of the division frames of the evaluation object based on a feature amount for each of the feature items extracted from each of the division frames of the evaluation object;
The image evaluation method of Claim 1 or Claim 2 including this.
評価対象物に対する評価基準のサンプルの画像の注目領域を複数の分割枠に仕切り、当該複数の分割枠の各々の画像から分割枠の各々の第一単位空間距離及び第一単位空間距離の平均距離を演算すると共に、当該分割枠の各々の第一単位空間距離に基づいて前記サンプルの注目領域の画像に対応するサンプルの注目領域の第二単位空間距離及び当該第二単位空間距離の平均である単位空間平均距離を演算する単位空間距離演算手段と、
評価対象物の画像の注目領域を複数の分割枠に仕切り、当該複数の分割枠の各々の画像から分割枠の各々の第一空間距離を演算すると共に、当該分割枠の各々の第一空間距離に基づいて前記評価対象物の注目領域の画像に対応する評価対象物の注目領域の第二空間距離を演算する対象空間距離演算手段と、
前記サンプルの注目領域の単位空間平均距離及び前記評価対象物の注目領域の第二空間距離を用いて、前記評価対象物の注目領域を評価する評価手段と、
を含む画像評価装置。
The attention area of the sample image of the evaluation criterion for the evaluation object is divided into a plurality of divided frames, and the first unit spatial distance of each of the divided frames and the average distance of the first unit spatial distances from the images of the plurality of divided frames. And the average of the second unit spatial distance and the second unit spatial distance of the sample attention area corresponding to the image of the sample attention area based on the first unit spatial distance of each of the divided frames. A unit space distance calculating means for calculating a unit space average distance;
The attention area of the image of the evaluation object is divided into a plurality of divided frames, the first spatial distances of the divided frames are calculated from the images of the divided frames, and the first spatial distances of the divided frames are calculated. An object space distance calculating means for calculating a second space distance of the attention area of the evaluation object corresponding to the image of the attention area of the evaluation object based on
An evaluation unit that evaluates the attention area of the evaluation object using the unit space average distance of the attention area of the sample and the second spatial distance of the attention area of the evaluation object;
An image evaluation apparatus including:
前記評価手段は、前記サンプルの注目領域の単位空間平均距離及び前記評価対象物の注目領域の第二空間距離を用いた評価結果に基づき、前記サンプルの分割枠の各々の第一単位空間距離の平均距離及び前記評価対象物の分割枠の各々の第一空間距離を用いて、前記評価対象物の前記複数の分割枠の各々を評価する、請求項4記載の画像評価装置。   The evaluation means, based on the evaluation result using the unit space average distance of the attention area of the sample and the second spatial distance of the attention area of the evaluation object, the first unit space distance of each of the divided frames of the sample The image evaluation apparatus according to claim 4, wherein each of the plurality of divided frames of the evaluation object is evaluated using an average distance and a first spatial distance of each of the divided frames of the evaluation object. 画素毎の輝度値を所定の輝度幅の複数の輝度区間に区分けし、区分けした前記複数の輝度区間の各々を特徴項目として、前記サンプルの分割枠の各々、及び前記評価対象物の分割枠の各々から、前記特徴項目毎の特徴量を抽出する抽出手段を含み、
前記単位空間距離演算手段が、前記サンプルの分割枠の各々から抽出された前記特徴項目毎の特徴量に基づいて前記サンプルの分割枠の各々の第一単位空間距離及び第一単位空間距離の平均距離を演算し、
前記対象空間距離演算手段が、前記評価対象物の分割枠の各々から抽出された前記特徴項目毎の特徴量に基づいて前記評価対象物の分割枠の各々の第一空間距離を演算する、
請求項4又は請求項5記載の画像評価装置。
The luminance value for each pixel is divided into a plurality of luminance intervals of a predetermined luminance width, and each of the divided luminance intervals is a feature item, and each of the divided frame of the sample and the divided frame of the evaluation object An extraction means for extracting a feature amount for each feature item from each;
The unit space distance calculation means is configured to calculate an average of the first unit space distance and the first unit space distance of each of the sample division frames based on the feature amount of each feature item extracted from each of the sample division frames. Calculate the distance,
The target space distance calculation means calculates a first spatial distance of each of the evaluation object division frames based on a feature amount of each feature item extracted from each of the evaluation object division frames;
The image evaluation apparatus according to claim 4 or 5.
撮像手段により前記評価対象物の前記撮像画像を取得する画像取得手段を含む、請求項4から請求項6の何れか1項記載の画像評価装置。   The image evaluation apparatus according to claim 4, further comprising an image acquisition unit that acquires the captured image of the evaluation object using an imaging unit. 前記評価手段の評価結果を報知する報知手段を含む、請求項4から請求項7の何れか1項記載の画像評価装置。   The image evaluation apparatus according to claim 4, further comprising notification means for notifying an evaluation result of the evaluation means. コンピュータを、
評価対象物に対する評価基準のサンプルの画像の注目領域を複数の分割枠に仕切り、当該複数の分割枠の各々の画像から分割枠の各々の第一単位空間距離及び第一単位空間距離の平均距離を演算すると共に、当該分割枠の各々の第一単位空間距離に基づいて前記サンプルの注目領域の画像に対応するサンプルの注目領域の第二単位空間距離及び当該第二単位空間距離の平均である単位空間平均距離を演算する単位空間距離演算手段と、
評価対象物の画像の注目領域を複数の分割枠に仕切り、当該複数の分割枠の各々の画像から分割枠の各々の第一空間距離を演算すると共に、当該分割枠の各々の第一空間距離に基づいて前記評価対象物の注目領域の画像に対応する評価対象物の注目領域の第二空間距離を演算する対象空間距離演算手段と、
前記サンプルの注目領域の単位空間平均距離及び前記評価対象物の注目領域の第二空間距離を用いて、前記評価対象物の注目領域を評価する評価手段と、
して動作させるための画像評価プログラム。
Computer
The attention area of the sample image of the evaluation criterion for the evaluation object is divided into a plurality of divided frames, and the first unit spatial distance of each of the divided frames and the average distance of the first unit spatial distances from the images of the plurality of divided frames. And the average of the second unit spatial distance and the second unit spatial distance of the sample attention area corresponding to the image of the sample attention area based on the first unit spatial distance of each of the divided frames. A unit space distance calculating means for calculating a unit space average distance;
The attention area of the image of the evaluation object is divided into a plurality of divided frames, the first spatial distances of the divided frames are calculated from the images of the divided frames, and the first spatial distances of the divided frames are calculated. An object space distance calculating means for calculating a second space distance of the attention area of the evaluation object corresponding to the image of the attention area of the evaluation object based on
An evaluation unit that evaluates the attention area of the evaluation object using the unit space average distance of the attention area of the sample and the second spatial distance of the attention area of the evaluation object;
An image evaluation program to make it work.
前記評価手段は、前記サンプルの注目領域の単位空間平均距離及び前記評価対象物の注目領域の第二空間距離を用いた評価結果に基づき、前記サンプルの分割枠の各々の第一単位空間距離の平均距離及び前記評価対象物の分割枠の各々の第一空間距離を用いて、前記評価対象物の前記複数の分割枠の各々を評価する、請求項9記載の画像評価プログラム。   The evaluation means, based on the evaluation result using the unit space average distance of the attention area of the sample and the second spatial distance of the attention area of the evaluation object, the first unit space distance of each of the divided frames of the sample The image evaluation program according to claim 9, wherein each of the plurality of divided frames of the evaluation object is evaluated using an average distance and a first spatial distance of each of the divided frames of the evaluation object. 画素毎の輝度値を所定の輝度幅の複数の輝度区間に区分けし、区分けした前記複数の輝度区間の各々を特徴項目として、前記サンプルの分割枠の各々、及び前記評価対象物の分割枠の各々から、前記特徴項目毎の特徴量を抽出する抽出手段を含み、
前記単位空間距離演算手段が、前記サンプルの分割枠の各々から抽出された前記特徴項目毎の特徴量に基づいて前記サンプルの分割枠の各々の第一単位空間距離及び第一単位空間距離の平均距離を演算し、
前記対象空間距離演算手段が、前記評価対象物の分割枠の各々から抽出された前記特徴項目毎の特徴量に基づいて前記評価対象物の分割枠の各々の第一空間距離を演算する、
請求項9又は請求項10記載の画像評価プログラム。
The luminance value for each pixel is divided into a plurality of luminance intervals of a predetermined luminance width, and each of the divided luminance intervals is a feature item, and each of the divided frame of the sample and the divided frame of the evaluation object An extraction means for extracting a feature amount for each feature item from each;
The unit space distance calculation means is configured to calculate an average of the first unit space distance and the first unit space distance of each of the sample division frames based on the feature amount of each feature item extracted from each of the sample division frames. Calculate the distance,
The target space distance calculation means calculates a first spatial distance of each of the evaluation object division frames based on a feature amount of each feature item extracted from each of the evaluation object division frames;
The image evaluation program according to claim 9 or 10.
JP2013109066A 2013-05-23 2013-05-23 Image evaluation method, image evaluation apparatus, and image evaluation program Expired - Fee Related JP5403180B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013109066A JP5403180B1 (en) 2013-05-23 2013-05-23 Image evaluation method, image evaluation apparatus, and image evaluation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013109066A JP5403180B1 (en) 2013-05-23 2013-05-23 Image evaluation method, image evaluation apparatus, and image evaluation program

Publications (2)

Publication Number Publication Date
JP5403180B1 JP5403180B1 (en) 2014-01-29
JP2014230146A true JP2014230146A (en) 2014-12-08

Family

ID=50112428

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013109066A Expired - Fee Related JP5403180B1 (en) 2013-05-23 2013-05-23 Image evaluation method, image evaluation apparatus, and image evaluation program

Country Status (1)

Country Link
JP (1) JP5403180B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020183735A1 (en) * 2019-03-14 2020-09-17 株式会社Fuji Quality determination device and quality determination method
WO2020183734A1 (en) * 2019-03-14 2020-09-17 株式会社Fuji Quality determination device and quality determination method

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111462069B (en) * 2020-03-30 2023-09-01 北京金山云网络技术有限公司 Training method and device for target object detection model, electronic equipment and storage medium
CN111583283B (en) * 2020-05-20 2023-06-20 抖音视界有限公司 Image segmentation method, device, electronic equipment and medium

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5405245B2 (en) * 2009-09-09 2014-02-05 リコーエレメックス株式会社 Image inspection method and image inspection apparatus

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020183735A1 (en) * 2019-03-14 2020-09-17 株式会社Fuji Quality determination device and quality determination method
WO2020183734A1 (en) * 2019-03-14 2020-09-17 株式会社Fuji Quality determination device and quality determination method
JPWO2020183734A1 (en) * 2019-03-14 2021-11-25 株式会社Fuji Pass / fail judgment device and pass / fail judgment method
JPWO2020183735A1 (en) * 2019-03-14 2021-11-25 株式会社Fuji Pass / fail judgment device and pass / fail judgment method
JP7153126B2 (en) 2019-03-14 2022-10-13 株式会社Fuji Pass/Fail Judgment Device and Pass/Fail Judgment Method
JP7153127B2 (en) 2019-03-14 2022-10-13 株式会社Fuji Pass/Fail Judgment Device and Pass/Fail Judgment Method

Also Published As

Publication number Publication date
JP5403180B1 (en) 2014-01-29

Similar Documents

Publication Publication Date Title
JP4552749B2 (en) Inspection standard setting device and method, and process inspection device
JP4603512B2 (en) Abnormal region detection apparatus and abnormal region detection method
JP6632288B2 (en) Information processing apparatus, information processing method, and program
JP2018198053A5 (en)
CN110910350B (en) Nut loosening detection method for wind power tower cylinder
JP5403180B1 (en) Image evaluation method, image evaluation apparatus, and image evaluation program
US10445868B2 (en) Method for detecting a defect on a surface of a tire
KR102073468B1 (en) System and method for scoring color candidate poses against a color image in a vision system
KR20210008352A (en) System and method for detecting defects in imaged items
JP4728444B2 (en) Abnormal region detection apparatus and abnormal region detection method
CN105718931B (en) System and method for determining clutter in acquired images
JP6993852B2 (en) Building damage estimation device
DE102008041524A1 (en) Method and device for carrying out three-dimensional measurements
CN115144399B (en) Assembly quality detection method and device based on machine vision
CN110895716A (en) Inspection apparatus and machine learning method
JP5405245B2 (en) Image inspection method and image inspection apparatus
JP5419555B2 (en) Image inspection apparatus, image inspection method, and image inspection program
US11562505B2 (en) System and method for representing and displaying color accuracy in pattern matching by a vision system
JP6818263B2 (en) Fracture surface analysis device and fracture surface analysis method
US20210205061A1 (en) Occlusal pressure analysis program
CN112508925B (en) Electronic lock panel quality detection method, system, computer device and storage medium
CN112581472A (en) Target surface defect detection method facing human-computer interaction
JP2011232302A (en) Image inspection method and image inspection device
WO2015136716A1 (en) Image processing device, image sensor, and image processing method
CN117169286B (en) Industrial harness quality detection method under visual assistance

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131014

R150 Certificate of patent or registration of utility model

Ref document number: 5403180

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees