JP2018048968A - Inspection device and inspection method - Google Patents

Inspection device and inspection method Download PDF

Info

Publication number
JP2018048968A
JP2018048968A JP2016185788A JP2016185788A JP2018048968A JP 2018048968 A JP2018048968 A JP 2018048968A JP 2016185788 A JP2016185788 A JP 2016185788A JP 2016185788 A JP2016185788 A JP 2016185788A JP 2018048968 A JP2018048968 A JP 2018048968A
Authority
JP
Japan
Prior art keywords
image
alignment
reference image
unit
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016185788A
Other languages
Japanese (ja)
Other versions
JP6933887B2 (en
Inventor
努 作山
Tsutomu Sakuyama
努 作山
泰史 永田
Yasushi Nagata
泰史 永田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Screen Holdings Co Ltd
Original Assignee
Screen Holdings Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Screen Holdings Co Ltd filed Critical Screen Holdings Co Ltd
Priority to JP2016185788A priority Critical patent/JP6933887B2/en
Publication of JP2018048968A publication Critical patent/JP2018048968A/en
Application granted granted Critical
Publication of JP6933887B2 publication Critical patent/JP6933887B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To perform a preferable inspection by properly performing positioning with an object image and a reference image.SOLUTION: A positioning unit 53 of an inspection device includes: a fist positioning processing unit 531 and a second positioning processing unit 532. The first positioning processing unit 531 individually performs the positioning of a plurality of regions included in a first setting region of one of the object image and the reference image for the other image. The second positioning processing unit 532 is included in a second setting region of the one image, and performs the positioning of the region larger than any of the plurality of the regions for the other image. In a comparison unit 54, a defective region in the object image is detected by comparing both of the images after the positioning with the object image and the reference image. In this way, the positioning according to each setting region is appropriately performed by individually performing the positioning with the object image and the reference image in first and second setting regions, thereby enabling the preferable inspection to be performed.SELECTED DRAWING: Figure 3

Description

本発明は、検査装置および検査方法に関する。   The present invention relates to an inspection apparatus and an inspection method.

従来、立体的な対象物に光を照射して撮像し、撮像画像に基づいて対象物の外観を検査する装置が利用されている。例えば、特許文献1では、円形状製品を検査するための検査方法が開示されている。当該方法では、回転治具にて円形状製品を回転させながら撮像手段を用いて当該円形状製品の検査画像が帯状に展開取得され、帯状に展開したマスター画像に、検査基準位置をパターンマッチング処理により基準合わせした後、検査画像とマスター画像とが照合される。   2. Description of the Related Art Conventionally, there has been used an apparatus that irradiates a three-dimensional object with light and picks up an image and inspects the appearance of the object based on the picked-up image. For example, Patent Document 1 discloses an inspection method for inspecting a circular product. In this method, an inspection image of the circular product is developed and acquired in a strip shape using an imaging unit while rotating the circular product with a rotating jig, and a pattern matching process is performed on the inspection reference position on the master image developed in the strip shape. After the reference alignment is performed, the inspection image and the master image are collated.

なお、非特許文献1では、2つの画像におけるオプティカルフローを求める手法が開示されている。当該手法では、輝度不変の仮定、輝度勾配不変の仮定、および、平滑性の仮定からの逸脱にペナルティーを与えるエネルギー関数が用いられ、このエネルギーを最小化するベクトルが、粗密ワーピング(coarse-to-fine warping)を利用して求められる。   Note that Non-Patent Document 1 discloses a method for obtaining an optical flow in two images. The method uses an invariant assumption, a gradient-invariant assumption, and an energy function that penalizes deviations from the smoothness assumption, and a vector that minimizes this energy is a coarse-to- It is required using fine warping.

特開2014−95579号公報JP 2014-95579 A

Thomas Brox et al., "High Accuracy Optical Flow Estimation Based on a Theory for Warping", European Conference on Computer Vision, Springer LNCS 3024, May 2004, vol. 4, p. 25-36Thomas Brox et al., "High Accuracy Optical Flow Estimation Based on a Theory for Warping", European Conference on Computer Vision, Springer LNCS 3024, May 2004, vol. 4, p. 25-36

ところで、撮像部によりステージ上の対象物を撮像する際に、対象物の向きが、予め定められた向きからずれると、撮像部からの対象物の見え方が変化する。この場合に、撮像部により取得される対象画像と、所定の参照画像とを比較すると、対象画像において、参照画像には現れない部分が出現しているため、当該部分が、欠陥ではないにもかかわらず、欠陥として検出されてしまう(いわゆる、偽欠陥の検出)。   By the way, when the object on the stage is imaged by the imaging unit, if the direction of the object deviates from a predetermined direction, the appearance of the object from the imaging unit changes. In this case, when the target image acquired by the imaging unit is compared with the predetermined reference image, a portion that does not appear in the reference image appears in the target image, so that the portion is not a defect. Regardless, it is detected as a defect (so-called false defect detection).

一方、参照画像と対象画像との間で画素のオプティカルフローを求めることにより参照画像を対象画像に対して位置合わせする場合、上記部分に似せるように参照画像の一部が歪められるため、偽欠陥の検出は抑制される。しかしながら、画素単位での位置合わせでは、参照画像が対象画像に対して過度に似せられることがあり、対象物において寸法が設計値と大きく異なる部分等の欠陥が検出されなくなる。   On the other hand, when the reference image is aligned with the target image by obtaining the optical flow of the pixel between the reference image and the target image, a part of the reference image is distorted so as to resemble the above-mentioned part, so that a false defect Detection is suppressed. However, in the alignment in units of pixels, the reference image may be made to resemble the target image excessively, and a defect such as a portion having a dimension greatly different from the design value in the target object is not detected.

本発明は上記課題に鑑みなされたものであり、対象画像と参照画像との位置合わせを適切に行って、好ましい検査を行うことを目的としている。   The present invention has been made in view of the above problems, and an object of the present invention is to appropriately perform alignment between a target image and a reference image and perform a preferable inspection.

請求項1に記載の発明は、検査装置であって、対象物を撮像した対象画像を記憶する対象画像記憶部と、参照画像を記憶する参照画像記憶部と、前記対象画像と前記参照画像との位置合わせを行う位置合わせ部と、位置合わせ後の両画像を比較することにより、前記対象画像中の欠陥領域を検出する比較部とを備え、前記位置合わせ部が、前記対象画像および前記参照画像の一方の画像の第1設定領域に含まれる複数の領域を、他方の画像に対して個別に位置合わせする第1位置合わせ処理部と、前記一方の画像の第2設定領域に含まれ、かつ、前記複数の領域のいずれよりも大きい領域を前記他方の画像に対して位置合わせする第2位置合わせ処理部とを備える。   The invention according to claim 1 is an inspection apparatus, which includes a target image storage unit that stores a target image obtained by imaging a target, a reference image storage unit that stores a reference image, the target image, and the reference image. An alignment unit that performs alignment, and a comparison unit that detects a defect area in the target image by comparing both images after alignment, and the alignment unit includes the target image and the reference A plurality of areas included in the first setting area of one image of the image are included in the second setting area of the one image; And a second alignment processing unit that aligns an area larger than any of the plurality of areas with respect to the other image.

請求項2に記載の発明は、請求項1に記載の検査装置であって、前記比較部が、前記位置合わせ後の両画像の一方を他方に対して上下左右にずらした複数の相対位置関係において、前記両画像から複数の差分画像を求め、前記複数の差分画像に基づいて前記欠陥領域を検出する。   A second aspect of the present invention is the inspection apparatus according to the first aspect, wherein the comparison unit has a plurality of relative positional relationships in which one of the images after the alignment is shifted vertically and horizontally with respect to the other. In step (b), a plurality of difference images are obtained from the two images, and the defect area is detected based on the plurality of difference images.

請求項3に記載の発明は、請求項1または2に記載の検査装置であって、前記第2位置合わせ処理部が、アフィン変換を用いて前記第2設定領域における前記他方の画像に対する位置合わせを行う。   A third aspect of the present invention is the inspection apparatus according to the first or second aspect, wherein the second alignment processing unit aligns the other image in the second setting area using affine transformation. I do.

請求項4に記載の発明は、請求項3に記載の検査装置であって、前記第2位置合わせ処理部が、アフィン変換を用いて前記一方の画像の全体の処理済み画像を取得し、前記第1位置合わせ処理部による位置合わせ後の前記第1設定領域が、前記処理済み画像に合成される。   The invention according to claim 4 is the inspection apparatus according to claim 3, wherein the second alignment processing unit acquires an entire processed image of the one image using affine transformation, and The first setting area after alignment by the first alignment processing unit is combined with the processed image.

請求項5に記載の発明は、請求項1ないし4のいずれかに記載の検査装置であって、前記第1位置合わせ処理部が、前記第1設定領域における各画素の前記他方の画像に対するオプティカルフローを求めることにより、位置合わせを行う。   A fifth aspect of the present invention is the inspection apparatus according to any one of the first to fourth aspects, wherein the first alignment processing unit is optical for the other image of each pixel in the first setting area. Alignment is performed by obtaining the flow.

請求項6に記載の発明は、検査方法であって、a)対象物を撮像した対象画像を準備する工程と、b)前記対象画像と参照画像との位置合わせを行う工程と、c)位置合わせ後の両画像を比較することにより、前記対象画像中の欠陥領域を検出する工程とを備え、前記b)工程が、b1)前記対象画像および前記参照画像の一方の画像の第1設定領域に含まれる複数の領域を、他方の画像に対して個別に位置合わせする工程と、b2)前記一方の画像の第2設定領域に含まれ、かつ、前記複数の領域のいずれよりも大きい領域を前記他方の画像に対して位置合わせする工程とを備える。   Invention of Claim 6 is an inspection method, Comprising: a) The process of preparing the target image which imaged the target object, b) The process of aligning the said target image and a reference image, c) Position A step of detecting a defective area in the target image by comparing the two images after alignment, wherein the step b) includes a first setting area of one of the target image and the reference image. A step of individually aligning the plurality of regions included in the other image, and b2) a region included in the second setting region of the one image and larger than any of the plurality of regions. Aligning with the other image.

請求項7に記載の発明は、請求項6に記載の検査方法であって、前記c)工程において、前記位置合わせ後の両画像の一方を他方に対して上下左右にずらした複数の相対位置関係において、前記両画像から複数の差分画像が求められ、前記複数の差分画像に基づいて前記欠陥領域が検出される。   The invention according to claim 7 is the inspection method according to claim 6, wherein in the step c), a plurality of relative positions in which one of the images after the alignment is shifted vertically and horizontally with respect to the other. In relation, a plurality of difference images are obtained from the two images, and the defect area is detected based on the plurality of difference images.

請求項8に記載の発明は、請求項6または7に記載の検査方法であって、前記b2)工程において、アフィン変換を用いて前記第2設定領域における前記他方の画像に対する位置合わせが行われる。   The invention according to claim 8 is the inspection method according to claim 6 or 7, wherein in the step b2), alignment with the other image in the second setting area is performed using affine transformation. .

請求項9に記載の発明は、請求項8に記載の検査方法であって、前記b2)工程において、アフィン変換を用いて前記一方の画像の全体の処理済み画像が取得され、前記b1)工程における位置合わせ後の前記第1設定領域が、前記処理済み画像に合成される。   The invention according to claim 9 is the inspection method according to claim 8, wherein in the step b2), an entire processed image of the one image is acquired using affine transformation, and the step b1). The first setting area after the alignment in is combined with the processed image.

請求項10に記載の発明は、請求項6ないし9のいずれかに記載の検査方法であって、前記b1)工程において、前記第1設定領域における各画素の前記他方の画像に対するオプティカルフローを求めることにより、位置合わせが行われる。   A tenth aspect of the present invention is the inspection method according to any one of the sixth to ninth aspects, wherein in the step b1), an optical flow for the other image of each pixel in the first setting area is obtained. Thus, alignment is performed.

本発明によれば、対象画像と参照画像との位置合わせを、第1および第2設定領域において個別に行うことにより、各設定領域に応じた位置合わせを適切に行って、好ましい検査を行うことができる。   According to the present invention, the target image and the reference image are individually aligned in the first and second setting areas, thereby appropriately performing the alignment according to each setting area and performing a preferable inspection. Can do.

検査装置の構成を示す図である。It is a figure which shows the structure of an inspection apparatus. 検査装置の本体を示す平面図である。It is a top view which shows the main body of a test | inspection apparatus. コンピュータが実現する機能構成を示すブロック図である。It is a block diagram which shows the function structure which a computer implement | achieves. 対象物の検査の処理の流れを示す図である。It is a figure which shows the flow of a process of the test | inspection of a target object. 対象画像を示す図である。It is a figure which shows a target image. 参照画像を示す図である。It is a figure which shows a reference image. 第1処理済み参照画像を示す図である。It is a figure which shows the 1st processed reference image. 第2処理済み参照画像を示す図である。It is a figure which shows the 2nd processed reference image. 合成参照画像を示す図である。It is a figure which shows a synthetic | combination reference image. 合成参照画像の一部を拡大して示す図である。It is a figure which expands and shows a part of synthetic | combination reference image. ゆすらせ比較処理を説明するための図である。It is a figure for demonstrating the fluctuation comparison process. 欠陥領域画像を示す図である。It is a figure which shows a defect area | region image. 比較例の処理による欠陥領域画像を示す図である。It is a figure which shows the defect area | region image by the process of a comparative example. 他の比較例の処理による欠陥領域画像を示す図である。It is a figure which shows the defect area | region image by the process of another comparative example. 位置合わせ後の設定領域の画像を示す図である。It is a figure which shows the image of the setting area | region after alignment. 2つの設定領域を示す図である。It is a figure which shows two setting areas. 位置合わせ後の設定領域の画像を示す図である。It is a figure which shows the image of the setting area | region after alignment.

図1は、本発明の一の実施の形態に係る検査装置1の構成を示す図である。図2は、検査装置1の本体11を示す平面図である。検査装置1は、表面に光沢を有する立体的な対象物9の外観を検査する装置である。対象物9は、例えば、鍛造や鋳造により形成された金属部品であり、その表面は微小な凹凸を有する梨地状である。対象物9は、例えば、自在継手に用いられる各種部品(円筒形のハブの軸や外輪、ヨーク等)である。   FIG. 1 is a diagram showing a configuration of an inspection apparatus 1 according to an embodiment of the present invention. FIG. 2 is a plan view showing the main body 11 of the inspection apparatus 1. The inspection apparatus 1 is an apparatus that inspects the appearance of a three-dimensional object 9 having a glossy surface. The object 9 is, for example, a metal part formed by forging or casting, and the surface thereof has a matte shape with minute irregularities. The object 9 is, for example, various parts (cylindrical hub shaft, outer ring, yoke, etc.) used for universal joints.

図1に示すように、検査装置1は、本体11と、コンピュータ12とを備える。本体11は、ステージ2と、ステージ回動部21と、撮像ユニット3と、光源ユニット4とを備える。対象物9はステージ2上に載置される。ステージ回動部21は、上下方向を向く中心軸J1を中心として対象物9をステージ2と共に所定の角度だけ回動する。中心軸J1は、ステージ2の中央を通過する。本体11には、外部の光がステージ2上に到達することを防止する図示省略の遮光カバーが設けられ、ステージ2、撮像ユニット3および光源ユニット4は、遮光カバー内に設けられる。   As shown in FIG. 1, the inspection apparatus 1 includes a main body 11 and a computer 12. The main body 11 includes a stage 2, a stage rotating unit 21, an imaging unit 3, and a light source unit 4. The object 9 is placed on the stage 2. The stage rotation unit 21 rotates the object 9 together with the stage 2 by a predetermined angle about the central axis J1 that faces in the up-down direction. The central axis J1 passes through the center of the stage 2. The main body 11 is provided with a light shielding cover (not shown) that prevents external light from reaching the stage 2, and the stage 2, the imaging unit 3, and the light source unit 4 are provided within the light shielding cover.

図1および図2に示すように、撮像ユニット3は、1個の上方撮像部31と、4個の斜方撮像部32と、4個の側方撮像部33とを備える。図2では、上方撮像部31の図示を省略している(後述の上方光源部41において同様)。上方撮像部31は、ステージ2の上方にて中心軸J1上に配置される。上方撮像部31によりステージ2上の対象物9を真上から撮像した画像が取得可能である。   As shown in FIGS. 1 and 2, the imaging unit 3 includes one upper imaging unit 31, four oblique imaging units 32, and four side imaging units 33. In FIG. 2, the upper imaging unit 31 is not shown (the same applies to the upper light source unit 41 described later). The upper imaging unit 31 is disposed on the central axis J1 above the stage 2. An image obtained by imaging the object 9 on the stage 2 from directly above can be acquired by the upper imaging unit 31.

図2に示すように、上側から下方を向いて本体11を見た場合に(すなわち、本体11を平面視した場合に)、4個の斜方撮像部32はステージ2の周囲に配置される。4個の斜方撮像部32は、中心軸J1を中心とする周方向に90°の角度間隔(ピッチ)にて配列される。各斜方撮像部32の撮像光軸K2と中心軸J1とを含む面において(図1参照)、撮像光軸K2と中心軸J1とがなす角度θ2は、およそ45°である。各斜方撮像部32によりステージ2上の対象物9を斜め上から撮像した画像が取得可能である。   As shown in FIG. 2, when the main body 11 is viewed from the upper side downward (that is, when the main body 11 is viewed in plan), the four oblique imaging units 32 are arranged around the stage 2. . The four oblique imaging units 32 are arranged at an angular interval (pitch) of 90 ° in the circumferential direction around the central axis J1. In a plane including the imaging optical axis K2 and the central axis J1 of each oblique imaging unit 32 (see FIG. 1), an angle θ2 formed by the imaging optical axis K2 and the central axis J1 is approximately 45 °. Each oblique imaging unit 32 can acquire an image obtained by imaging the object 9 on the stage 2 from above.

本体11を平面視した場合に、4個の側方撮像部33も、4個の斜方撮像部32と同様にステージ2の周囲に配置される。4個の側方撮像部33は、周方向に90°の角度間隔にて配列される。各側方撮像部33の撮像光軸K3と中心軸J1とを含む面において、撮像光軸K3と中心軸J1とがなす角度θ3は、およそ90°である。各側方撮像部33によりステージ2上の対象物9を横から撮像した画像が取得可能である。上方撮像部31、斜方撮像部32および側方撮像部33は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal-Oxide Semiconductor)等を有し、多階調の画像が取得される。上方撮像部31、斜方撮像部32および側方撮像部33は、図示省略の支持部により支持される。   When the main body 11 is viewed in plan, the four side imaging units 33 are also arranged around the stage 2 in the same manner as the four oblique imaging units 32. The four side imaging units 33 are arranged at an angular interval of 90 ° in the circumferential direction. In the plane including the imaging optical axis K3 and the central axis J1 of each side imaging unit 33, the angle θ3 formed by the imaging optical axis K3 and the central axis J1 is approximately 90 °. An image obtained by imaging the object 9 on the stage 2 from the side can be acquired by each side imaging unit 33. The upper imaging unit 31, the oblique imaging unit 32, and the side imaging unit 33 include, for example, a charge coupled device (CCD), a complementary metal-oxide semiconductor (CMOS), and the like, and a multi-gradation image is acquired. The upper imaging unit 31, the oblique imaging unit 32, and the side imaging unit 33 are supported by a support unit (not shown).

光源ユニット4は、1個の上方光源部41と、8個の斜方光源部42と、8個の側方光源部43とを備える。上方光源部41は、中心軸J1を中心とするリング状に複数のLED(発光ダイオード)が配列された光源部である。リング状の上方光源部41は上方撮像部31の周囲を囲むように、上方撮像部31に固定される。上方光源部41によりステージ2上の対象物9に対して真上から中心軸J1に平行な方向に沿って光が照射可能である。   The light source unit 4 includes one upper light source unit 41, eight oblique light source units 42, and eight side light source units 43. The upper light source unit 41 is a light source unit in which a plurality of LEDs (light emitting diodes) are arranged in a ring shape centered on the central axis J1. The ring-shaped upper light source unit 41 is fixed to the upper imaging unit 31 so as to surround the upper imaging unit 31. The upper light source unit 41 can irradiate the object 9 on the stage 2 from directly above along a direction parallel to the central axis J1.

本体11を平面視した場合に、8個の斜方光源部42はステージ2の周囲に配置される。8個の斜方光源部42は、周方向に45°の角度間隔にて配列される。各斜方光源部42は、中心軸J1を中心とする円周の接線方向に伸びるバー状に複数のLEDが配列された光源部である。各斜方光源部42の出射面の中央と対象物9(の中心)とを結ぶ線を「照明軸」と呼ぶと、当該斜方光源部42の照明軸と中心軸J1とを含む面において、当該照明軸と中心軸J1とがなす角度は、およそ45°である。各斜方光源部42では、ステージ2上の対象物9に対して斜め上から当該照明軸に沿って光が照射可能である。検査装置1では、8個の斜方光源部42のうち4個の斜方光源部42は4個の斜方撮像部32にそれぞれ固定され、残りの4個の斜方光源部42は、図示省略の支持部により支持される。   When the main body 11 is viewed in plan, the eight oblique light source units 42 are arranged around the stage 2. The eight oblique light source units 42 are arranged at an angular interval of 45 ° in the circumferential direction. Each oblique light source unit 42 is a light source unit in which a plurality of LEDs are arranged in a bar shape extending in the tangential direction of the circumference around the central axis J1. When a line connecting the center of the emission surface of each oblique light source section 42 and the object 9 (the center thereof) is called an “illumination axis”, the plane including the illumination axis and the central axis J1 of the oblique light source section 42 is. The angle formed by the illumination axis and the central axis J1 is approximately 45 °. Each oblique light source unit 42 can irradiate the object 9 on the stage 2 along the illumination axis from obliquely above. In the inspection apparatus 1, four of the eight oblique light source units 42 are fixed to the four oblique imaging units 32, and the remaining four oblique light source units 42 are illustrated. It is supported by the omitted support part.

本体11を平面視した場合に、8個の側方光源部43はステージ2の周囲に配置される。8個の側方光源部43は、周方向に45°の角度間隔にて配列される。各側方光源部43は、中心軸J1を中心とする円周の接線方向に伸びるバー状に複数のLEDが配列された光源部である。斜方光源部42と同様に、各側方光源部43の出射面の中央と対象物9とを結ぶ線を「照明軸」と呼ぶと、当該側方光源部43の照明軸と中心軸J1とを含む面において、当該照明軸と中心軸J1とがなす角度は、およそ90°である。各側方光源部43では、ステージ2上の対象物9に対して横から当該照明軸に沿って光が照射可能である。検査装置1では、8個の側方光源部43のうち4個の側方光源部43は4個の側方撮像部33にそれぞれ固定され、残りの4個の側方光源部43は、図示省略の支持部により支持される。   When the main body 11 is viewed in plan, the eight side light source units 43 are arranged around the stage 2. The eight side light source units 43 are arranged at an angular interval of 45 ° in the circumferential direction. Each side light source unit 43 is a light source unit in which a plurality of LEDs are arranged in a bar shape extending in the tangential direction of the circumference around the central axis J1. Similarly to the oblique light source unit 42, when a line connecting the center of the emission surface of each side light source unit 43 and the object 9 is referred to as an “illumination axis”, the illumination axis and the central axis J 1 of the side light source unit 43. The angle formed by the illumination axis and the central axis J1 is approximately 90 °. Each side light source unit 43 can irradiate the object 9 on the stage 2 from the side along the illumination axis. In the inspection apparatus 1, four of the eight side light source units 43 are fixed to the four side imaging units 33, and the remaining four side light source units 43 are illustrated. It is supported by the omitted support part.

例えば、上方撮像部31および上方光源部41と対象物9との間の距離は、約55cm(センチメートル)である。また、斜方撮像部32および斜方光源部42と対象物9との間の距離は約50cmであり、側方撮像部33および側方光源部43と対象物9との間の距離は約40cmである。上方光源部41、斜方光源部42および側方光源部43では、LED以外の種類の光源が用いられてよい。   For example, the distance between the upper imaging unit 31 and the upper light source unit 41 and the object 9 is about 55 cm (centimeter). The distance between the oblique imaging unit 32 and the oblique light source unit 42 and the object 9 is about 50 cm, and the distance between the side imaging unit 33 and the side light source unit 43 and the object 9 is about 40 cm. In the upper light source unit 41, the oblique light source unit 42, and the side light source unit 43, a light source of a type other than an LED may be used.

図3は、コンピュータ12が実現する機能構成を示すブロック図である。コンピュータ12は、検査部5を備える。検査部5は、対象画像記憶部51と、参照画像記憶部52と、位置合わせ部53と、比較部54とを備える。対象画像記憶部51は、撮像ユニット3(の撮像部)により撮像された対象物9の画像(以下、「対象画像」という。)のデータを記憶する。参照画像記憶部52は、対象画像と同じ撮像部により取得された、欠陥が無い対象物9の画像(以下、「参照画像」という。)のデータを記憶する。位置合わせ部53は、対象画像と参照画像との位置合わせを行う。位置合わせ部53は、第1位置合わせ処理部531と、第2位置合わせ処理部532と、合成部533とを有する。比較部54は、位置合わせ後の両画像を比較することにより、対象画像中の欠陥領域を検出する。検査部5による処理の詳細については、後述する。コンピュータ12は、検査装置1の全体制御を行う制御部としての役割も担う。   FIG. 3 is a block diagram illustrating a functional configuration realized by the computer 12. The computer 12 includes an inspection unit 5. The inspection unit 5 includes a target image storage unit 51, a reference image storage unit 52, an alignment unit 53, and a comparison unit 54. The target image storage unit 51 stores data of an image of the target 9 (hereinafter referred to as “target image”) captured by the imaging unit 3 (imaging unit thereof). The reference image storage unit 52 stores data of an image of the target 9 having no defect (hereinafter referred to as “reference image”) acquired by the same imaging unit as the target image. The alignment unit 53 performs alignment between the target image and the reference image. The alignment unit 53 includes a first alignment processing unit 531, a second alignment processing unit 532, and a combining unit 533. The comparison unit 54 detects a defective area in the target image by comparing both images after alignment. Details of the processing by the inspection unit 5 will be described later. The computer 12 also serves as a control unit that performs overall control of the inspection apparatus 1.

図4は、検査装置1による対象物9の検査の処理の流れを示す図である。まず、ステージ2上に検査対象の対象物9が載置される(ステップS11)。ステージ2上には、例えば位置合わせ用の複数のピンが設けられており、対象物9の予め定められた部位を当該複数のピンに当接させることにより、ステージ2上の所定位置に対象物9が(理想的には)所定の向きにて配置される。続いて、操作者による入力等に基づいて、ステージ2上の対象物9に対する撮像設定情報が取得される(ステップS12)。ここで、撮像設定情報は、撮像ユニット3において使用する撮像部(以下、「選択撮像部」という。)と、当該選択撮像部による画像の取得の際に光源ユニット4において点灯する光源部(以下、「選択光源部」という。)とを示す。ここでは、選択撮像部として、一の斜方撮像部32が選択され、選択光源部として、選択撮像部の周囲の光源部が選択されているものとする。もちろん、他の撮像部および光源部が選択撮像部および選択光源部として選択されてもよい。撮像設定情報が取得されると、選択光源部および選択撮像部を利用して、図5に示す対象画像71(のデータ)が取得される(ステップS13)。   FIG. 4 is a diagram showing a flow of processing for inspecting the object 9 by the inspection apparatus 1. First, the object 9 to be inspected is placed on the stage 2 (step S11). On the stage 2, for example, a plurality of pins for alignment are provided, and an object is placed at a predetermined position on the stage 2 by bringing a predetermined portion of the object 9 into contact with the plurality of pins. 9 are (ideally) arranged in a predetermined orientation. Subsequently, imaging setting information for the object 9 on the stage 2 is acquired based on an input by the operator or the like (step S12). Here, the imaging setting information includes an imaging unit (hereinafter referred to as “selective imaging unit”) used in the imaging unit 3 and a light source unit (hereinafter referred to as “light source unit”) that is turned on in the light source unit 4 when the selected imaging unit acquires an image. And “selected light source section”). Here, it is assumed that one oblique imaging unit 32 is selected as the selected imaging unit, and a light source unit around the selected imaging unit is selected as the selected light source unit. Of course, other imaging units and light source units may be selected as the selected imaging unit and the selected light source unit. When the imaging setting information is acquired, the target image 71 (data thereof) shown in FIG. 5 is acquired using the selected light source unit and the selected imaging unit (step S13).

対象画像71は、対象物9を示す多階調の画像であり、対象画像記憶部51に記憶されて準備される。図5では、対象画像71中の対象物9に対して同じ符号9を付している(後述の図6の参照画像8において同様)。対象物9は、板状のベース部901の中央に円柱部902が設けられた形状を有する。撮像時における対象物9は、予め定められた向きから円柱部902を中心として僅かな角度だけ回転した向きとなっている。その結果、対象画像71では、ベース部901において、本来は背後に隠れた部分(いわゆる、オクルージョン)である角部側面903が現れている。また、ベース部901のエッジに欠陥904が存在し、円柱部902の長さも設計値に対して短くなっている(後述の図6参照)。   The target image 71 is a multi-tone image showing the target 9 and is stored in the target image storage unit 51 and prepared. In FIG. 5, the same reference numeral 9 is given to the object 9 in the target image 71 (the same applies to a reference image 8 in FIG. 6 described later). The object 9 has a shape in which a cylindrical portion 902 is provided at the center of a plate-like base portion 901. The object 9 at the time of imaging has a direction rotated by a slight angle around the cylindrical part 902 from a predetermined direction. As a result, in the target image 71, a corner side surface 903 that is a portion (so-called occlusion) originally hidden behind the base portion 901 appears. Moreover, the defect 904 exists in the edge of the base part 901, and the length of the cylindrical part 902 is also short with respect to the design value (refer FIG. 6 mentioned later).

一方、検査装置1では、光源部および撮像部の様々な組合せを利用して、欠陥が無い他の対象物9を撮像することにより、複数の参照画像(のデータ)が予め取得されている。参照画像は、欠陥が無い複数の対象物9を撮像した複数の画像から作成されてもよく、対象物9の設計データから作成されてもよい。検査部5では、対象画像71と同じ光源部および撮像部の組合せを利用して取得された参照画像が特定され、対象画像71と共に位置合わせ部53に出力される。   On the other hand, in the inspection apparatus 1, a plurality of reference images (data) are acquired in advance by imaging other objects 9 having no defect using various combinations of the light source unit and the imaging unit. The reference image may be created from a plurality of images obtained by imaging a plurality of objects 9 having no defect, or may be created from design data of the objects 9. In the inspection unit 5, a reference image acquired using the same combination of the light source unit and the imaging unit as the target image 71 is specified, and is output to the alignment unit 53 together with the target image 71.

図6は、対象画像71に対応する参照画像8を示す図である。第1位置合わせ処理部531および第2位置合わせ処理部532では、参照画像8と対象画像71との位置合わせが行われる。ここで、位置合わせ(レジストレーション)とは、対象画像71および参照画像の一方の画像において、対象物9の各部位を示す領域を、他方の画像における当該部位を示す位置へと移動する処理であり、位置合わせにより、両画像の差が低減される。   FIG. 6 is a diagram illustrating the reference image 8 corresponding to the target image 71. In the first alignment processing unit 531 and the second alignment processing unit 532, the reference image 8 and the target image 71 are aligned. Here, the registration (registration) is a process of moving an area indicating each part of the object 9 to a position indicating the part in the other image in one of the target image 71 and the reference image. Yes, the difference between the two images is reduced by the alignment.

第1位置合わせ処理部531では、参照画像8の各画素の対象画像71に対するオプティカルフローが求められる。そして、オプティカルフローに基づいて、参照画像8が対象画像71に対して位置合わせされ、図7に示す位置合わせ後の参照画像81(以下、「第1処理済み参照画像81」という。)が取得される(ステップS14)。   The first alignment processing unit 531 obtains an optical flow for the target image 71 of each pixel of the reference image 8. Then, based on the optical flow, the reference image 8 is aligned with the target image 71, and a reference image 81 after alignment (hereinafter referred to as “first processed reference image 81”) shown in FIG. 7 is acquired. (Step S14).

ここで、参照画像8と対象画像71との間のオプティカルフローの算出では、例えば、Thomas Broxらによる"High Accuracy Optical Flow Estimation Based on a Theory for Warping"(European Conference on Computer Vision, Springer LNCS 3024, May 2004, vol. 4, p. 25-36)(非特許文献1)に記載の手法が利用可能である。本手法では、輝度不変の仮定、輝度勾配不変の仮定、および、平滑性の仮定からの逸脱にペナルティーを与えるエネルギー関数が用いられ、このエネルギーを最小化するベクトルが、粗密ワーピング(coarse-to-fine warping)を利用して求められる。   Here, in the calculation of the optical flow between the reference image 8 and the target image 71, for example, “High Accuracy Optical Flow Estimation Based on a Theory for Warping” by Thomas Brox et al. (European Conference on Computer Vision, Springer LNCS 3024, May 2004, vol. 4, p. 25-36) (Non-Patent Document 1) can be used. The method uses an invariant assumption, a gradient-invariant assumption, and an energy function that penalizes deviations from the smoothness assumption, and the vector that minimizes this energy is a coarse-to-warp (coarse-to- It is required using fine warping.

このように、第1位置合わせ処理部531による位置合わせ処理では、画素を単位とする微視的な位置合わせ(すなわち、他方の画像にて類似する部分を探索する際における単位領域を1つの画素とする位置合わせ)が行われる。その結果、参照画像8には現れていない対象画像71中の角部側面903が、輝度が比較的近い参照画像8中の周囲の画素の位置合わせにより、第1処理済み参照画像81においてある程度表現される。また、第1処理済み参照画像81では、円柱部902の長さも対象画像71における長さにある程度合わせられる。オプティカルフローの算出では、他の手法が用いられてもよい。   As described above, in the alignment processing by the first alignment processing unit 531, microscopic alignment in units of pixels (that is, a unit region when searching for a similar portion in the other image is set to one pixel. Alignment) is performed. As a result, the corner side surface 903 in the target image 71 that does not appear in the reference image 8 is expressed to some extent in the first processed reference image 81 by the alignment of surrounding pixels in the reference image 8 having relatively close luminance. Is done. Further, in the first processed reference image 81, the length of the cylindrical portion 902 is adjusted to some extent to the length in the target image 71. Other methods may be used for calculating the optical flow.

また、第2位置合わせ処理部532では、アフィン変換を用いて参照画像8が対象画像71に対して位置合わせされ、図8に示す位置合わせ後の参照画像82(以下、「第2処理済み参照画像82」という。)が取得される(ステップS15)。アフィン変換を用いた位置合わせの一例では、参照画像8において対象物9上の複数の特徴点(例えば、対象物9の外形を示す線上の点)が予め定められており、対象画像71において当該複数の特徴点を示す複数の位置が、パターンマッチングにより求められる。そして、参照画像8における複数の特徴点の座標と、対象画像71における当該複数の位置の座標とを用いてアフィン変換行列の要素(ここでは、平行移動および回転に係る要素)の値が求められ、参照画像8に対して当該変換行列を用いてアフィン変換が施される。   In the second alignment processing unit 532, the reference image 8 is aligned with the target image 71 using affine transformation, and the reference image 82 after alignment shown in FIG. 8 (hereinafter referred to as “second processed reference”). An image 82 ") is acquired (step S15). In an example of alignment using affine transformation, a plurality of feature points on the target object 9 (for example, points on a line indicating the outer shape of the target object 9) in the reference image 8 are determined in advance. A plurality of positions indicating a plurality of feature points are obtained by pattern matching. Then, using the coordinates of the plurality of feature points in the reference image 8 and the coordinates of the plurality of positions in the target image 71, values of elements of the affine transformation matrix (here, elements relating to translation and rotation) are obtained. The reference image 8 is subjected to affine transformation using the transformation matrix.

このように、第2位置合わせ処理部532による位置合わせ処理では、複数の特徴点により囲まれる比較的大きな領域を単位として巨視的な位置合わせ(すなわち、単位領域を多数の画素の集合とする位置合わせ)が行われる。その結果、処理前の参照画像8と第2処理済み参照画像82との間において、対象物9の各部位の寸法(例えば、円柱部902の長さや直径、ベース部901の幅等)はおよそ維持される。なお、複数の特徴点により囲まれる領域は、後述の設定領域A1の外側の領域も含む。一方、第2処理済み参照画像82において、参照画像8には現れていない角部側面903に対応する領域(図8中に同じ符号903を付して示す領域)は、例えば背景となる。   Thus, in the alignment processing by the second alignment processing unit 532, macroscopic alignment is performed using a relatively large area surrounded by a plurality of feature points as a unit (that is, a position where the unit area is a set of a large number of pixels). Adjustment) is performed. As a result, between the reference image 8 before processing and the second processed reference image 82, the size of each part of the object 9 (for example, the length and diameter of the cylindrical portion 902, the width of the base portion 901, etc.) is approximately Maintained. Note that the region surrounded by the plurality of feature points includes a region outside the setting region A1 described later. On the other hand, in the second processed reference image 82, a region corresponding to the corner side surface 903 that does not appear in the reference image 8 (a region indicated by the same reference numeral 903 in FIG. 8) is, for example, a background.

図6の参照画像8では、破線の矩形にて示す設定領域A1が操作者の入力等により予め定められており、合成部533では、図7の第1処理済み参照画像81における設定領域A1の部分が抽出され、図8の第2処理済み参照画像82における設定領域A1の部分と置き換えられる。すなわち、第1位置合わせ処理部531による位置合わせ後の設定領域A1が、第2位置合わせ処理部532による位置合わせ後の第2処理済み参照画像82に合成される。これにより、図9に示す合成参照画像83が取得される(ステップS16)。   In the reference image 8 in FIG. 6, a setting area A1 indicated by a broken-line rectangle is determined in advance by an operator's input or the like, and the composition unit 533 sets the setting area A1 in the first processed reference image 81 in FIG. The part is extracted and replaced with the part of the setting area A1 in the second processed reference image 82 of FIG. That is, the setting area A1 after alignment by the first alignment processing unit 531 is combined with the second processed reference image 82 after alignment by the second alignment processing unit 532. Thereby, the synthesized reference image 83 shown in FIG. 9 is acquired (step S16).

比較部54では、対象画像71と合成参照画像83とを比較することにより、対象画像71中の欠陥領域が検出される(ステップS17)。ここで、図9中にて二点鎖線で囲む領域A0を拡大した図10に示すように、設定領域A1の境界では、対象物9のエッジに僅かなずれが生じる場合がある。第1処理済み参照画像81の設定領域A1を第2処理済み参照画像82に合成する際に、両画像が示す対象物9の位置が必ずしも完全には一致しないためである。そこで、比較部54では、ゆすらせ比較処理が行われる。   The comparison unit 54 detects the defective area in the target image 71 by comparing the target image 71 and the composite reference image 83 (step S17). Here, as shown in FIG. 10 in which the region A0 surrounded by the two-dot chain line in FIG. 9 is enlarged, a slight shift may occur in the edge of the object 9 at the boundary of the setting region A1. This is because, when the setting area A1 of the first processed reference image 81 is combined with the second processed reference image 82, the position of the object 9 indicated by both images does not necessarily match completely. Therefore, the comparison unit 54 performs a sway comparison process.

図11は、ゆすらせ比較処理を説明するための図であり、対象画像71と合成参照画像83との間の複数の(9個の)位置関係を3行3列に並べて示している。ゆすらせ比較処理では、図11中に破線の矩形にて示す対象画像71を、実線の矩形にて示す合成参照画像83と完全に重なる位置(図11中の中央参照)から、8方向のそれぞれに所定の画素数(例えば、1画素)だけ移動し、移動後の対象画像71の各画素に対して、当該画素の値と、当該画素と重なる合成参照画像83の画素の値との差(絶対値)が求められる。換言すると、移動後の対象画像71と合成参照画像83との差分画像が求められる。対象画像71が、合成参照画像83と完全に重なる位置においても同様に差分画像が求められる。   FIG. 11 is a diagram for explaining the sway comparison process, and shows a plurality of (nine) positional relationships between the target image 71 and the synthesized reference image 83 arranged in 3 rows and 3 columns. In the sway comparison process, the target image 71 indicated by a broken-line rectangle in FIG. 11 is each in eight directions from a position (see the center in FIG. 11) that completely overlaps the synthesized reference image 83 indicated by a solid-line rectangle. Is moved by a predetermined number of pixels (for example, one pixel), and for each pixel of the target image 71 after movement, the difference between the value of the pixel and the value of the pixel of the composite reference image 83 that overlaps the pixel ( Absolute value). In other words, a difference image between the target image 71 after movement and the composite reference image 83 is obtained. A difference image is similarly obtained even at a position where the target image 71 completely overlaps the synthesized reference image 83.

そして、複数の(ここでは、9個の)差分画像において、同じ位置の画素の値の最小値が特定され、当該位置に当該最小値を付与した画像が、ゆすらせ比較処理の結果画像として取得される。結果画像は、所定の閾値で二値化され、欠陥候補領域を示す二値の欠陥候補画像が取得される。比較部54では、欠陥候補画像が示す欠陥候補領域のうち、所定の条件(例えば、面積等)を満たすものが欠陥領域として特定される。これにより、図12に示すように、欠陥領域611を示す欠陥領域画像61が取得され、対象画像71中の欠陥領域が検出される。図12では、対象画像71が示す対象物9を二点鎖線にて示している(後述の図13および図14において同様)。上記ステップS11〜S17は、他の対象物9に対して繰り返される。なお、ゆすらせ比較処理により得られる結果画像は、上記の複数の差分画像から導かれるものであればよく、例えば、複数の差分画像のうち画素の値の和が最小の差分画像がそのまま結果画像として用いられてもよい。   Then, in a plurality of (here, nine) difference images, the minimum value of the pixel value at the same position is specified, and an image in which the minimum value is assigned to the position is acquired as a result image of the sway comparison process. Is done. The result image is binarized with a predetermined threshold value, and a binary defect candidate image indicating a defect candidate area is acquired. The comparison unit 54 identifies a defect candidate area indicated by the defect candidate image that satisfies a predetermined condition (for example, area) as a defect area. Thereby, as shown in FIG. 12, a defect area image 61 indicating the defect area 611 is acquired, and a defect area in the target image 71 is detected. In FIG. 12, the target object 9 indicated by the target image 71 is indicated by a two-dot chain line (the same applies to FIGS. 13 and 14 described later). The above steps S11 to S17 are repeated for the other object 9. Note that the result image obtained by the sway comparison process only needs to be derived from the plurality of difference images. For example, the difference image having the smallest sum of pixel values among the plurality of difference images is directly the result image. May be used as

ここで、対象画像71と参照画像8との位置合わせを行う際に、第2位置合わせ処理部532のみを用いる(アフィン変換のみを用いる)比較例の処理について説明する。当該比較例の処理では、欠陥領域を検出する際に、図8の第2処理済み参照画像82と図5の対象画像71とが比較されることにより、図13に示す欠陥領域画像91が取得される。図13の欠陥領域画像91では、図12の欠陥領域画像61と同様に、ベース部901のエッジに存在する欠陥領域911、および、円柱部902の長さが短いことを示す欠陥領域911が検出される。一方、既述のように、第2処理済み参照画像82では、参照画像8に現れていない角部側面903に対応する領域が、例えば背景となってしまう。したがって、欠陥領域画像91では、欠陥ではない角部側面903が欠陥領域911として検出され、欠陥が過検出されてしまう(偽欠陥が検出される。)。また、対象画像71における角部側面903の存在により、アフィン変換による参照画像8と対象画像71との位置合わせにおいてずれが生じ、多くの偽欠陥が検出される場合もある。上記問題は、欠陥が無い他の対象物9を撮像して参照画像8を取得する際に、当該対象物9が、予め定められた向きから僅かに回転している場合、すなわち、参照画像8にオクルージョンが発生している場合において同様である。   Here, a process of a comparative example that uses only the second alignment processing unit 532 (uses only affine transformation) when performing alignment between the target image 71 and the reference image 8 will be described. In the process of the comparative example, when the defective area is detected, the second processed reference image 82 in FIG. 8 and the target image 71 in FIG. 5 are compared to obtain the defective area image 91 shown in FIG. Is done. In the defect area image 91 of FIG. 13, as in the defect area image 61 of FIG. 12, a defect area 911 present at the edge of the base portion 901 and a defect region 911 indicating that the length of the cylindrical portion 902 is short are detected. Is done. On the other hand, as described above, in the second processed reference image 82, an area corresponding to the corner side surface 903 that does not appear in the reference image 8 becomes, for example, the background. Therefore, in the defect area image 91, a corner side surface 903 that is not a defect is detected as the defect area 911, and the defect is overdetected (a false defect is detected). In addition, due to the presence of the corner side surface 903 in the target image 71, a shift occurs in the alignment between the reference image 8 and the target image 71 by affine transformation, and many false defects may be detected. The above problem is caused when the target object 9 is slightly rotated from a predetermined orientation when the other target object 9 having no defect is captured and the reference image 8 is acquired, that is, the reference image 8. The same applies when occlusion occurs.

また、対象画像71と参照画像8との位置合わせを行う際に、第1位置合わせ処理部531のみを用いる(オプティカルフローのみを用いる)他の比較例の処理について説明する。当該他の比較例の処理では、欠陥領域を検出する際に、図7の第1処理済み参照画像81と図5の対象画像71とが比較されることにより、図14に示す欠陥領域画像92が取得される。図14の欠陥領域画像92では、図12の欠陥領域画像61と同様に、ベース部901のエッジに存在する欠陥領域921が検出される。また、既述のように、参照画像8には現れていない角部側面903が、参照画像8中の輝度が比較的近い周囲の画素により、第1処理済み参照画像81においてある程度表現される。したがって、当該他の比較例の処理により得られる欠陥候補画像では、角部側面903に対応する欠陥候補領域が比較的小さくなり、欠陥領域として検出されることが抑制される。一方、第1処理済み参照画像81では、円柱部902の長さが対象画像71における長さにある程度合わせられてしまうため、対象画像71において円柱部902の長さが短いことを示す欠陥領域が検出されなくなる。すなわち、円柱部902の長さに係る欠陥が見逃されてしまう。図14では、当該欠陥を示す領域922を破線にて示している。   In addition, processing of another comparative example that uses only the first alignment processing unit 531 (uses only the optical flow) when performing alignment between the target image 71 and the reference image 8 will be described. In the process of the other comparative example, when the defective area is detected, the first processed reference image 81 in FIG. 7 and the target image 71 in FIG. 5 are compared with each other, so that the defective area image 92 shown in FIG. Is acquired. In the defect area image 92 of FIG. 14, the defect area 921 existing at the edge of the base portion 901 is detected as in the defect area image 61 of FIG. 12. Further, as described above, the corner side surface 903 that does not appear in the reference image 8 is expressed to some extent in the first processed reference image 81 by surrounding pixels in the reference image 8 having relatively close luminance. Therefore, in the defect candidate image obtained by the process of the other comparative example, the defect candidate area corresponding to the corner side surface 903 is relatively small, and detection as a defect area is suppressed. On the other hand, in the first processed reference image 81, the length of the cylindrical portion 902 is adjusted to some extent to the length in the target image 71, so that a defective region indicating that the length of the cylindrical portion 902 is short in the target image 71. It will not be detected. That is, a defect related to the length of the cylindrical portion 902 is overlooked. In FIG. 14, a region 922 indicating the defect is indicated by a broken line.

これに対し、検査装置1では、対象画像71と参照画像8との位置合わせを行う際に、第1位置合わせ処理部531および第2位置合わせ処理部532の双方が利用される。第1位置合わせ処理部531では、参照画像8の各画素の対象画像71に対するオプティカルフローを求めることにより、参照画像8の複数の(全ての)画素が対象画像71に対して個別に位置合わせされる。第2位置合わせ処理部532では、参照画像8中の対象物9の領域が、アフィン変換を用いて全体的に対象画像71に対して位置合わせされる。そして、第1位置合わせ処理部531による位置合わせ後の設定領域A1が、第2位置合わせ処理部532による位置合わせ後の参照画像(第2処理済み参照画像82)に合成される。   On the other hand, in the inspection apparatus 1, both the first alignment processing unit 531 and the second alignment processing unit 532 are used when aligning the target image 71 and the reference image 8. The first alignment processing unit 531 individually aligns a plurality of (all) pixels of the reference image 8 with respect to the target image 71 by obtaining an optical flow with respect to the target image 71 of each pixel of the reference image 8. The In the second alignment processing unit 532, the region of the object 9 in the reference image 8 is entirely aligned with the target image 71 using affine transformation. Then, the setting area A1 after alignment by the first alignment processing unit 531 is combined with the reference image (second processed reference image 82) after alignment by the second alignment processing unit 532.

上記処理では、対象物9の回転による偽欠陥の発生が生じやすい、または、対象物9の寸法不良の許容範囲が大きい設定領域A1については、第1位置合わせ処理部531による位置合わせが実質的に行われる。また、対象物9の回転による偽欠陥の発生が生じにくい(上記の例では、回転体である円柱部902)、または、対象物9の寸法不良の許容範囲が小さい他の領域については、第2位置合わせ処理部532による位置合わせが実質的に行われる。このように、対象画像71と参照画像8との位置合わせを、設定領域A1と、設定領域A1以外の領域とにおいて個別に(すなわち、異なる大きさの単位領域で)行うことにより、各領域に応じた位置合わせを適切に行って、好ましい検査を行うことが可能となる。   In the processing described above, the first alignment processing unit 531 substantially aligns the setting region A1 that is likely to generate false defects due to the rotation of the object 9 or has a large allowable range of dimensional defects of the object 9. To be done. Further, the occurrence of false defects due to the rotation of the object 9 is unlikely to occur (in the above example, the cylindrical portion 902 that is a rotating body), or for other regions where the allowable range of the dimension defect of the object 9 is small. The alignment by the two alignment processing unit 532 is substantially performed. As described above, the alignment of the target image 71 and the reference image 8 is performed individually in the setting area A1 and the area other than the setting area A1 (that is, in the unit area having a different size). It is possible to perform a preferable inspection by appropriately performing the corresponding alignment.

また、比較部54では、位置合わせ後の参照画像(合成参照画像83)に対して、対象画像71を上下左右にずらした複数の相対位置関係において、両画像から複数の差分画像が求められ、当該複数の差分画像に基づいて欠陥領域が検出される。これにより、第1処理済み参照画像81と第2処理済み参照画像82との位置ずれに起因する偽欠陥の発生を抑制することができる。   In addition, the comparison unit 54 obtains a plurality of difference images from both images in a plurality of relative positional relationships in which the target image 71 is shifted vertically and horizontally with respect to the reference image after alignment (synthesized reference image 83). A defective area is detected based on the plurality of difference images. Thereby, generation | occurrence | production of the false defect resulting from the position shift of the 1st processed reference image 81 and the 2nd processed reference image 82 can be suppressed.

上記検査装置1では様々な変形が可能である。   The inspection apparatus 1 can be variously modified.

第1位置合わせ処理部531が、参照画像8における設定領域A1のみに対して処理を行って、図15に示すように、位置合わせ後の設定領域A1の画像81aが取得されてもよい。この場合、設定領域A1の画像81aが、第2位置合わせ処理部532による参照画像8の全体の処理済み画像(第2処理済み参照画像82)に合成され、図9と同様の合成参照画像83が取得される。また、第2位置合わせ処理部532が、参照画像8における設定領域A1以外の領域のみに対して処理を行って、位置合わせ後の当該領域を示す画像が取得され、第1処理済み参照画像81に合成されてもよい。   The first alignment processing unit 531 may perform processing only on the setting area A1 in the reference image 8, and an image 81a of the setting area A1 after alignment may be acquired as illustrated in FIG. In this case, the image 81a in the setting area A1 is combined with the entire processed image (second processed reference image 82) of the reference image 8 by the second alignment processing unit 532, and the combined reference image 83 similar to FIG. Is acquired. In addition, the second alignment processing unit 532 performs processing only on the region other than the setting region A1 in the reference image 8, an image indicating the region after alignment is acquired, and the first processed reference image 81 is acquired. May be synthesized.

ここで、同じ大きさの領域の位置合わせに係る演算量は、第2位置合わせ処理部532よりも第1位置合わせ処理部531において多くなる。したがって、位置合わせ部53における演算量を低減するには、第2位置合わせ処理部532が参照画像8の全部に対して処理を行い、第1位置合わせ処理部531が参照画像8の一部の領域のみ(設定領域A1)に対して処理を行うことが好ましいといえる。   Here, the amount of calculation related to the alignment of regions of the same size is larger in the first alignment processing unit 531 than in the second alignment processing unit 532. Therefore, in order to reduce the calculation amount in the alignment unit 53, the second alignment processing unit 532 performs processing on the entire reference image 8, and the first alignment processing unit 531 performs a part of the reference image 8. It can be said that it is preferable to perform processing only on the region (setting region A1).

上記処理例では、参照画像8において、ベース部901を主に含む1つの設定領域A1が設けられるが、図16に示すように、円柱部902を主に含む他の設定領域A2が、設定領域A1に加えて設けられてもよい。この場合、例えば、第2位置合わせ処理部532が、参照画像8における設定領域A2のみに対して処理を行って(詳細には、設定領域A2における複数の特徴点に基づくアフィン変換により位置合わせを行って)、図17に示すように、位置合わせ後の設定領域A2の画像82aが取得される。そして、図15の位置合わせ後の設定領域A1の画像81aと、図17の位置合わせ後の設定領域A2の画像82aとを結合して、位置合わせ後の参照画像が取得される。   In the above processing example, in the reference image 8, one setting area A1 mainly including the base portion 901 is provided, but as shown in FIG. 16, the other setting area A2 mainly including the cylindrical portion 902 is set to the setting area. It may be provided in addition to A1. In this case, for example, the second alignment processing unit 532 performs processing only on the setting area A2 in the reference image 8 (specifically, alignment is performed by affine transformation based on a plurality of feature points in the setting area A2. As shown in FIG. 17, an image 82a of the setting area A2 after the alignment is acquired. Then, the image 81a of the setting area A1 after alignment in FIG. 15 and the image 82a of the setting area A2 after alignment in FIG. 17 are combined to obtain a reference image after alignment.

また、設定領域A1および設定領域A2(以下、それぞれ「第1設定領域A1」および「第2設定領域A2」という。)において、対象画像71との比較が個別に行われてもよい。例えば、図15の位置合わせ後の第1設定領域A1の画像81aと対象画像71とを比較することにより、第1設定領域A1についての比較結果(欠陥領域画像の第1設定領域A1の部分)が取得される。また、図17の位置合わせ後の第2設定領域A2の画像82aと対象画像71とを比較することにより、第2設定領域A2についての比較結果(欠陥領域画像の第2設定領域A2の部分)が取得される。この場合、演算量を大幅に削減することができる。   Further, in the setting area A1 and the setting area A2 (hereinafter, referred to as “first setting area A1” and “second setting area A2”, respectively), the comparison with the target image 71 may be performed individually. For example, by comparing the image 81a of the first setting area A1 after the alignment shown in FIG. 15 with the target image 71, a comparison result for the first setting area A1 (part of the first setting area A1 of the defect area image). Is acquired. In addition, by comparing the image 82a of the second setting area A2 after the alignment shown in FIG. 17 with the target image 71, a comparison result for the second setting area A2 (part of the second setting area A2 of the defect area image). Is acquired. In this case, the calculation amount can be greatly reduced.

第1処理済み参照画像81および第2処理済み参照画像82を取得する上記処理例において、参照画像8中の設定領域A1を第1設定領域A1と捉え、設定領域A1以外の全ての領域を第2設定領域と捉えることも可能である。この場合、第1処理済み参照画像81は、参照画像8の第1設定領域A1に含まれる複数の画素を対象画像71に対して個別に位置合わせした画像であるといえる。また、第2処理済み参照画像82は、参照画像8の第2設定領域に含まれる対象物9の領域を対象画像71に対して位置合わせした画像であるといえる。   In the above processing example for obtaining the first processed reference image 81 and the second processed reference image 82, the setting area A1 in the reference image 8 is regarded as the first setting area A1, and all areas other than the setting area A1 are the first. It can also be regarded as a 2-setting area. In this case, it can be said that the first processed reference image 81 is an image obtained by individually aligning a plurality of pixels included in the first setting area A1 of the reference image 8 with respect to the target image 71. In addition, it can be said that the second processed reference image 82 is an image obtained by aligning the region of the object 9 included in the second setting region of the reference image 8 with respect to the target image 71.

位置合わせ部53では、対象画像71が参照画像8に対して位置合わせされてもよい。この場合、対象画像71において、第1設定領域および第2設定領域が設定され、第1位置合わせ処理部531により、対象画像71の第1設定領域に含まれる複数の画素が参照画像8に対して個別に位置合わせされる。また、第2位置合わせ処理部532により、対象画像71の第2設定領域に含まれる対象物9の領域が参照画像8に対して位置合わせされる。   In the alignment unit 53, the target image 71 may be aligned with the reference image 8. In this case, a first setting area and a second setting area are set in the target image 71, and a plurality of pixels included in the first setting area of the target image 71 are set to the reference image 8 by the first alignment processing unit 531. Individually aligned. Further, the region of the object 9 included in the second setting region of the target image 71 is aligned with the reference image 8 by the second alignment processing unit 532.

第1位置合わせ処理部531では、例えば、対象画像71および参照画像8の一方の画像の第1設定領域を分割して複数の領域を取得し、各領域(例えば、数個の画素の集合)をアフィン変換を用いて他方の画像に対して位置合わせすることにより、位置合わせ後の第1設定領域の画像が取得されてもよい。このように、一方の画像の第1設定領域に含まれる複数の領域(画素であってもよい。)を、他方の画像に対して個別に位置合わせすることにより、第1設定領域に対して微視的な位置合わせ(微小領域を単位とする位置合わせ)を実現することができる。なお、位置合わせ後の第1設定領域において当該複数の領域の間に間隙が生じる場合には、当該間隙を埋める補間処理が適宜行われる(間隙が生じる他の処理において同様)。   In the first alignment processing unit 531, for example, the first setting area of one of the target image 71 and the reference image 8 is divided to acquire a plurality of areas, and each area (for example, a set of several pixels) is obtained. The image of the first setting area after the alignment may be acquired by aligning with respect to the other image using affine transformation. In this way, by aligning a plurality of regions (may be pixels) included in the first setting region of one image with respect to the other image, Microscopic alignment (alignment in units of minute areas) can be realized. When gaps are generated between the plurality of areas in the first setting area after alignment, interpolation processing for filling the gaps is appropriately performed (the same applies to other processes in which gaps are generated).

第2位置合わせ処理部532では、第2設定領域に対して巨視的な位置合わせが実現されるのであるならば、アフィン変換以外の様々な手法が採用されてよい。ここで、第2位置合わせ処理部532による第2設定領域における位置合わせは、第1位置合わせ処理部531による位置合わせの単位よりも大きい領域を位置合わせの単位とするものであればよい。すなわち、第2位置合わせ処理部532では、対象画像71および参照画像8の一方の画像の第2設定領域に含まれ、かつ、第1位置合わせ処理部531における位置合わせの単位である複数の領域のいずれよりも大きい領域が他方の画像に対して位置合わせされる。検査装置1では、対象画像71と参照画像8との位置合わせを、第1および第2設定領域において異なる大きさの単位領域で行うことにより、各設定領域に応じた位置合わせを適切に行って、好ましい検査を実現することができる。   The second alignment processing unit 532 may employ various methods other than affine transformation as long as macroscopic alignment is realized with respect to the second setting region. Here, the alignment in the second setting area by the second alignment processing unit 532 may be performed using an area larger than the alignment unit by the first alignment processing unit 531 as an alignment unit. In other words, the second alignment processing unit 532 includes a plurality of regions that are included in the second setting region of one of the target image 71 and the reference image 8 and that are units of alignment in the first alignment processing unit 531. A region larger than any of the above is registered with respect to the other image. In the inspection device 1, the alignment between the target image 71 and the reference image 8 is performed in the unit areas having different sizes in the first and second setting areas, so that the alignment according to each setting area is appropriately performed. A preferable inspection can be realized.

位置合わせ部53では、複数の第1設定領域が設定されてもよく、同様に複数の第2設定領域が設定されてもよい。また、対象画像71中の対象物9の領域において、欠陥の検査を行わない非検査領域が設定されてもよい。   In the alignment unit 53, a plurality of first setting areas may be set, and a plurality of second setting areas may be set similarly. Further, in the region of the target object 9 in the target image 71, a non-inspection region where no defect inspection is performed may be set.

比較部54におけるゆすらせ比較処理では、合成参照画像83を対象画像71に対して移動させてもよい。すなわち、ゆすらせ比較処理では、対象画像71と参照画像8との位置合わせを行った後、両画像の一方を他方に対して上下左右にずらした複数の相対位置関係において、当該両画像から複数の差分画像が求められる。比較部54の設計によっては、ゆすらせ処理を行うことなく、両画像の比較が行われてもよい。また、位置合わせされた対象画像71と参照画像8との比較は、両画像の差分画像を求める手法以外に、例えば、両画像の対応する画素の値の比を求めることにより行われてもよい。   In the sway comparison process in the comparison unit 54, the composite reference image 83 may be moved with respect to the target image 71. That is, in the sway comparison process, after the alignment between the target image 71 and the reference image 8 is performed, a plurality of relative positions in which one of the two images is shifted up and down and left and right with respect to the other are obtained. Are obtained. Depending on the design of the comparison unit 54, the two images may be compared without performing the swaying process. Further, the comparison between the aligned target image 71 and the reference image 8 may be performed by, for example, obtaining a ratio of pixel values corresponding to both images, in addition to a method of obtaining a difference image between the two images. .

比較部54が有するメモリ領域によっては、対象画像71と第1処理済み参照画像81との比較結果を示す第1欠陥領域画像と、対象画像71と第2処理済み参照画像82との比較結果を示す第2欠陥領域画像とが取得されてもよい。この場合、例えば第1欠陥領域画像における設定領域A1の部分を第2欠陥領域画像に合成することにより、欠陥領域画像が取得される。   Depending on the memory area of the comparison unit 54, the comparison result between the first defect area image indicating the comparison result between the target image 71 and the first processed reference image 81 and the comparison result between the target image 71 and the second processed reference image 82 may be obtained. A second defect area image to be shown may be acquired. In this case, for example, the defective area image is acquired by combining the portion of the setting area A1 in the first defective area image with the second defective area image.

検査装置1における検査対象は、立体的な対象物9以外に、板状またはフィルム状の対象物等であってもよい。   The inspection object in the inspection apparatus 1 may be a plate-like or film-like object in addition to the three-dimensional object 9.

上記実施の形態および各変形例における構成は、相互に矛盾しない限り適宜組み合わされてよい。   The configurations in the above-described embodiments and modifications may be combined as appropriate as long as they do not contradict each other.

1 検査装置
8 参照画像
9 対象物
51 対象画像記憶部
52 参照画像記憶部
53 位置合わせ部
54 比較部
71 対象画像
82 第2処理済み参照画像
83 合成参照画像
531 第1位置合わせ処理部
532 第2位置合わせ処理部
611 欠陥領域
A1 第1設定領域
A2 第2設定領域
S11〜S17 ステップ
DESCRIPTION OF SYMBOLS 1 Inspection apparatus 8 Reference image 9 Object 51 Target image memory | storage part 52 Reference image memory | storage part 53 Position alignment part 54 Comparison part 71 Target image 82 2nd processed reference image 83 Composite reference image 531 1st position alignment process part 532 2nd Positioning processing unit 611 Defective area A1 First setting area A2 Second setting area S11 to S17 Steps

Claims (10)

検査装置であって、
対象物を撮像した対象画像を記憶する対象画像記憶部と、
参照画像を記憶する参照画像記憶部と、
前記対象画像と前記参照画像との位置合わせを行う位置合わせ部と、
位置合わせ後の両画像を比較することにより、前記対象画像中の欠陥領域を検出する比較部と、
を備え、
前記位置合わせ部が、
前記対象画像および前記参照画像の一方の画像の第1設定領域に含まれる複数の領域を、他方の画像に対して個別に位置合わせする第1位置合わせ処理部と、
前記一方の画像の第2設定領域に含まれ、かつ、前記複数の領域のいずれよりも大きい領域を前記他方の画像に対して位置合わせする第2位置合わせ処理部と、
を備えることを特徴とする検査装置。
An inspection device,
A target image storage unit that stores a target image obtained by imaging the target;
A reference image storage unit for storing a reference image;
An alignment unit for aligning the target image and the reference image;
A comparison unit that detects a defective area in the target image by comparing both images after alignment; and
With
The alignment portion is
A first alignment processing unit that individually aligns a plurality of areas included in a first setting area of one of the target image and the reference image with respect to the other image;
A second alignment processing unit that aligns a region that is included in the second setting region of the one image and is larger than any of the plurality of regions with respect to the other image;
An inspection apparatus comprising:
請求項1に記載の検査装置であって、
前記比較部が、前記位置合わせ後の両画像の一方を他方に対して上下左右にずらした複数の相対位置関係において、前記両画像から複数の差分画像を求め、前記複数の差分画像に基づいて前記欠陥領域を検出することを特徴とする検査装置。
The inspection apparatus according to claim 1,
The comparison unit obtains a plurality of difference images from the two images in a plurality of relative positional relationships in which one of the images after the alignment is shifted vertically and horizontally with respect to the other, and based on the plurality of difference images An inspection apparatus for detecting the defective area.
請求項1または2に記載の検査装置であって、
前記第2位置合わせ処理部が、アフィン変換を用いて前記第2設定領域における前記他方の画像に対する位置合わせを行うことを特徴とする検査装置。
The inspection apparatus according to claim 1 or 2,
The inspection apparatus, wherein the second alignment processing unit performs alignment with respect to the other image in the second setting region using affine transformation.
請求項3に記載の検査装置であって、
前記第2位置合わせ処理部が、アフィン変換を用いて前記一方の画像の全体の処理済み画像を取得し、
前記第1位置合わせ処理部による位置合わせ後の前記第1設定領域が、前記処理済み画像に合成されることを特徴とする検査装置。
The inspection apparatus according to claim 3,
The second alignment processing unit acquires an entire processed image of the one image using affine transformation;
The inspection apparatus, wherein the first setting area after alignment by the first alignment processing unit is combined with the processed image.
請求項1ないし4のいずれかに記載の検査装置であって、
前記第1位置合わせ処理部が、前記第1設定領域における各画素の前記他方の画像に対するオプティカルフローを求めることにより、位置合わせを行うことを特徴とする検査装置。
The inspection apparatus according to any one of claims 1 to 4,
The inspection apparatus, wherein the first alignment processing unit performs alignment by obtaining an optical flow with respect to the other image of each pixel in the first setting region.
検査方法であって、
a)対象物を撮像した対象画像を準備する工程と、
b)前記対象画像と参照画像との位置合わせを行う工程と、
c)位置合わせ後の両画像を比較することにより、前記対象画像中の欠陥領域を検出する工程と、
を備え、
前記b)工程が、
b1)前記対象画像および前記参照画像の一方の画像の第1設定領域に含まれる複数の領域を、他方の画像に対して個別に位置合わせする工程と、
b2)前記一方の画像の第2設定領域に含まれ、かつ、前記複数の領域のいずれよりも大きい領域を前記他方の画像に対して位置合わせする工程と、
を備えることを特徴とする検査方法。
An inspection method,
a) preparing a target image obtained by imaging the target;
b) aligning the target image with the reference image;
c) detecting a defective area in the target image by comparing both images after alignment;
With
Step b)
b1) individually aligning a plurality of areas included in a first setting area of one of the target image and the reference image with respect to the other image;
b2) aligning an area included in the second setting area of the one image and larger than any of the plurality of areas with respect to the other image;
An inspection method comprising:
請求項6に記載の検査方法であって、
前記c)工程において、前記位置合わせ後の両画像の一方を他方に対して上下左右にずらした複数の相対位置関係において、前記両画像から複数の差分画像が求められ、前記複数の差分画像に基づいて前記欠陥領域が検出されることを特徴とする検査方法。
The inspection method according to claim 6,
In the step c), a plurality of difference images are obtained from the images in a plurality of relative positional relationships in which one of the images after the alignment is shifted vertically and horizontally with respect to the other. An inspection method characterized in that the defect area is detected based on the detection result.
請求項6または7に記載の検査方法であって、
前記b2)工程において、アフィン変換を用いて前記第2設定領域における前記他方の画像に対する位置合わせが行われることを特徴とする検査方法。
The inspection method according to claim 6 or 7,
In the step b2), the alignment of the other image in the second setting area is performed using affine transformation.
請求項8に記載の検査方法であって、
前記b2)工程において、アフィン変換を用いて前記一方の画像の全体の処理済み画像が取得され、
前記b1)工程における位置合わせ後の前記第1設定領域が、前記処理済み画像に合成されることを特徴とする検査方法。
The inspection method according to claim 8,
In the step b2), the entire processed image of the one image is acquired using affine transformation,
The inspection method, wherein the first setting area after the alignment in the step b1) is combined with the processed image.
請求項6ないし9のいずれかに記載の検査方法であって、
前記b1)工程において、前記第1設定領域における各画素の前記他方の画像に対するオプティカルフローを求めることにより、位置合わせが行われることを特徴とする検査方法。
The inspection method according to any one of claims 6 to 9,
In the step b1), the alignment is performed by obtaining an optical flow of each pixel in the first setting area with respect to the other image.
JP2016185788A 2016-09-23 2016-09-23 Inspection equipment and inspection method Active JP6933887B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016185788A JP6933887B2 (en) 2016-09-23 2016-09-23 Inspection equipment and inspection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016185788A JP6933887B2 (en) 2016-09-23 2016-09-23 Inspection equipment and inspection method

Publications (2)

Publication Number Publication Date
JP2018048968A true JP2018048968A (en) 2018-03-29
JP6933887B2 JP6933887B2 (en) 2021-09-08

Family

ID=61767396

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016185788A Active JP6933887B2 (en) 2016-09-23 2016-09-23 Inspection equipment and inspection method

Country Status (1)

Country Link
JP (1) JP6933887B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102031001B1 (en) * 2018-11-05 2019-10-11 신한대학교 산학협력단 Apparatus for Providing Service of Checking Workpiece and Driving Method Thereof
KR102317992B1 (en) * 2021-03-26 2021-10-28 주식회사 트윔 Product inspection method and appratus using the neural network and method of training product inspection appratus
KR102355997B1 (en) * 2021-05-17 2022-02-08 주식회사 한국건설 방재연구원 method for monitoring the soundness of concrete structure based on smart glass

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005292017A (en) * 2004-04-02 2005-10-20 Dainippon Screen Mfg Co Ltd Apparatus for acquiring amount of position deviation, and defect detector
JP2012196597A (en) * 2011-03-18 2012-10-18 Meidensha Corp System for inspecting filter membrane plate by image processing
WO2012144025A1 (en) * 2011-04-20 2012-10-26 株式会社メガトレード Automatic inspection device and alignment method for automatic inspection device
JP2013124868A (en) * 2011-12-13 2013-06-24 Canon Inc Inspection apparatus, inspection method and computer program
JP2013123812A (en) * 2011-12-13 2013-06-24 Canon Inc Inspecting device, inspecting method, and computer program
JP2014048154A (en) * 2012-08-31 2014-03-17 Dainippon Screen Mfg Co Ltd Device for determining area of interest, defect detector, method for determining area of interest and method for detecting defect
JP2015232485A (en) * 2014-06-09 2015-12-24 株式会社キーエンス Image inspection device, image inspection method, image inspection program and computer readable recording medium, and apparatus having image inspection program recorded therein
JP2016075615A (en) * 2014-10-08 2016-05-12 三菱電機株式会社 Target detection device

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005292017A (en) * 2004-04-02 2005-10-20 Dainippon Screen Mfg Co Ltd Apparatus for acquiring amount of position deviation, and defect detector
JP2012196597A (en) * 2011-03-18 2012-10-18 Meidensha Corp System for inspecting filter membrane plate by image processing
WO2012144025A1 (en) * 2011-04-20 2012-10-26 株式会社メガトレード Automatic inspection device and alignment method for automatic inspection device
JP2013124868A (en) * 2011-12-13 2013-06-24 Canon Inc Inspection apparatus, inspection method and computer program
JP2013123812A (en) * 2011-12-13 2013-06-24 Canon Inc Inspecting device, inspecting method, and computer program
JP2014048154A (en) * 2012-08-31 2014-03-17 Dainippon Screen Mfg Co Ltd Device for determining area of interest, defect detector, method for determining area of interest and method for detecting defect
JP2015232485A (en) * 2014-06-09 2015-12-24 株式会社キーエンス Image inspection device, image inspection method, image inspection program and computer readable recording medium, and apparatus having image inspection program recorded therein
JP2016075615A (en) * 2014-10-08 2016-05-12 三菱電機株式会社 Target detection device

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
BROX, THOMAS ET AL.: "High Accuracy Optical Flow Estimation Based on a Theory for Warping", SPRINGER LNCS, vol. 4, JPN6020027801, 2004, pages 25 - 36, ISSN: 0004456224 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102031001B1 (en) * 2018-11-05 2019-10-11 신한대학교 산학협력단 Apparatus for Providing Service of Checking Workpiece and Driving Method Thereof
KR102317992B1 (en) * 2021-03-26 2021-10-28 주식회사 트윔 Product inspection method and appratus using the neural network and method of training product inspection appratus
KR102355997B1 (en) * 2021-05-17 2022-02-08 주식회사 한국건설 방재연구원 method for monitoring the soundness of concrete structure based on smart glass

Also Published As

Publication number Publication date
JP6933887B2 (en) 2021-09-08

Similar Documents

Publication Publication Date Title
TWI598581B (en) Inspection apparatus and inspection method
JP6370177B2 (en) Inspection apparatus and inspection method
JP6594039B2 (en) Image processing apparatus, method, and program
JP5039519B2 (en) Appearance inspection method and apparatus
US8731274B2 (en) Method and system for wafer registration
WO2017141611A1 (en) Defect detection apparatus, defect detection method, and program
JP6922539B2 (en) Surface defect determination method and surface defect inspection device
US20080181484A1 (en) Advanced cell-to-cell inspection
WO2020246366A1 (en) Substrate inspection device, substrate inspection system, and substrate inspection method
JP2018048968A (en) Inspection device and inspection method
JP2014215163A (en) Inspection apparatus
JP2020106461A (en) Image generation device and appearance inspection device
JP2017040612A (en) Inspection method, inspection device, image processor, program and record medium
JP2017166957A (en) Defect detection device, defect detection method and program
JP2016156648A (en) Pattern inspection device and pattern inspection method
JP6679538B2 (en) Inspection device and inspection method
CN112991334B (en) Global positioning method and device for industrial particle continuous product
JP2017166956A (en) Defect detection device detection method and program
US20160379360A1 (en) Inspecting method, inspecting apparatus, image processing apparatus, program and recording medium
JP2017181228A (en) Measurement device, measurement method and manufacturing method of article
JP6688629B2 (en) Defect detecting device, defect detecting method and program
JP6393663B2 (en) Surface inspection device
WO2023106260A1 (en) Mask image generation method, inspection method, and inspection device
JP6595800B2 (en) Defect inspection apparatus and defect inspection method
US20210342618A1 (en) Marking inspection device, marking inspection method and article inspection apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190624

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200625

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200803

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200929

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210304

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210427

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210802

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210820

R150 Certificate of patent or registration of utility model

Ref document number: 6933887

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150