JP2011095226A - Inspection device of material to be inspected, and position correction device of electronic substrate - Google Patents

Inspection device of material to be inspected, and position correction device of electronic substrate Download PDF

Info

Publication number
JP2011095226A
JP2011095226A JP2009252297A JP2009252297A JP2011095226A JP 2011095226 A JP2011095226 A JP 2011095226A JP 2009252297 A JP2009252297 A JP 2009252297A JP 2009252297 A JP2009252297 A JP 2009252297A JP 2011095226 A JP2011095226 A JP 2011095226A
Authority
JP
Japan
Prior art keywords
feature point
inspection
image
unit
position correction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009252297A
Other languages
Japanese (ja)
Other versions
JP5399205B2 (en
Inventor
Yoshihiro Akiyama
吉宏 秋山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Saki Corp
Original Assignee
Saki Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Saki Corp filed Critical Saki Corp
Priority to JP2009252297A priority Critical patent/JP5399205B2/en
Publication of JP2011095226A publication Critical patent/JP2011095226A/en
Application granted granted Critical
Publication of JP5399205B2 publication Critical patent/JP5399205B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To image an object, and improve accuracy in correcting a local position to take place based on the image. <P>SOLUTION: An inspection device images and inspects a material to be tested having a plurality of elements to be inspected. The inspection device includes a position correction part for generating a characteristic point from a pattern mutually connecting the elements to be inspected on the image of the material for correcting a shift in position of the image of the material based on displacement from a reference position of the characteristic point, and an inspection part for inspecting the image of the material whose position has been corrected. The position correction part also can generate the characteristic point on a polygonal line representing the pattern. The position correction part also can generate the characteristic point on an extension of a line segment included in the polygonal line representing the pattern. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

この発明は被検査体の検査装置に関し、特に撮像して得られた被検査体の画像を利用して被検査体を検査する被検査体の検査装置に関する。また、この発明は、電子基板を撮像して得られた画像を利用して、以降の処理のために電子基板またはその画像の位置を補正する装置に関する。   The present invention relates to an inspection apparatus for an inspection object, and more particularly to an inspection apparatus for an inspection object that inspects the inspection object using an image of the inspection object obtained by imaging. The present invention also relates to an apparatus for correcting the position of an electronic substrate or the image for subsequent processing using an image obtained by imaging the electronic substrate.

特許文献1には、プリント基板上に部品を実装する場合やプリント基板上に部品が正しく実装されているかどうかを検査する場合等にプリント基板の位置ずれ量を算出して補正するプリント基板の位置ずれ補正装置が記載されている。この装置では、プリント基板の銅箔パターンを横切るX方向及びY方向の特定位置での1次元画素列データを基準画素列データに比較してプリント基板の位置ずれ量を求めている。   Japanese Patent Application Laid-Open No. 2004-133867 discloses a position of a printed circuit board that calculates and corrects a positional deviation amount of the printed circuit board when mounting a component on the printed circuit board or inspecting whether or not the component is correctly mounted on the printed circuit board. A deviation correction device is described. In this apparatus, the amount of positional deviation of the printed circuit board is obtained by comparing the one-dimensional pixel array data at specific positions in the X direction and the Y direction across the copper foil pattern of the printed circuit board with the reference pixel array data.

また、特許文献2には、実装部品が実装された被検査基板を検査する実装部品検査方法が記載されている。この方法においては、検査基準であるマスタ基板の画像から基準実装部品の像を除去して得た第1の画像におけるスルーホールの位置と、被検査基板の画像から実装部品の像を除去して得た第2の画像におけるスルーホールの位置との位置ずれ量を算出し、被検査基板の画像で位置ずれ量の補正を行う。   Further, Patent Document 2 describes a mounting component inspection method for inspecting a substrate to be inspected on which a mounting component is mounted. In this method, the position of the through hole in the first image obtained by removing the image of the reference mounting component from the image of the master board as the inspection reference and the image of the mounting component from the image of the board to be inspected are removed. The amount of positional deviation from the position of the through hole in the obtained second image is calculated, and the amount of positional deviation is corrected with the image of the substrate to be inspected.

特開昭62−261005号公報JP 62-261005 A 特開2005−51032号公報JP 2005-51032 A

被検査基板の例えば実装状態を検査するとき、あるいは基板に部品を実装するときには、基板の画像または基板自体を所望の位置に位置決めする必要がある。位置決めされた当初の位置が所望の位置からずれている場合には位置を補正することになる。最近は基板実装の高密度化が進展しており、基板端部の基準マークで基板全体を一律に位置補正する従来の手法に加えて、局所的な基板の位置補正が要求されるようになってきている。実装部品の重量や加熱工程(例えばリフロー工程)により基板が局所的に変形して高密度実装精度に影響が生じ得るからである。   For example, when inspecting the mounting state of a substrate to be inspected or mounting components on the substrate, it is necessary to position the image of the substrate or the substrate itself at a desired position. If the initial position that has been positioned is deviated from the desired position, the position is corrected. Recently, the mounting density of the board has been increasing, and in addition to the conventional method of correcting the position of the entire board uniformly with the reference mark at the edge of the board, local board position correction has been required. It is coming. This is because the substrate may be locally deformed due to the weight of the mounting component or the heating process (for example, the reflow process), which may affect the high-density mounting accuracy.

上述のように特許文献1には、プリント基板の銅箔パターンを横切るX方向及びY方向の特定位置での1次元画素列データを用いて位置ずれ量を求めている。特許文献2においては、スルーホールの位置を用いて位置ずれ量を補正している。いずれにしても基板上の特定の形状を用いているから、任意の部位で局所的な位置補正を精度よく行うことは必ずしも可能でない。例えば、位置ずれ量演算に適した1次元画素列データを所望の位置補正範囲で得られるとは限らないし、所望の位置補正範囲にスルーホールがあるとも限らないからである。   As described above, in Patent Document 1, the amount of positional deviation is obtained using one-dimensional pixel column data at specific positions in the X direction and the Y direction that cross the copper foil pattern of the printed board. In Patent Document 2, the amount of displacement is corrected using the position of the through hole. In any case, since a specific shape on the substrate is used, it is not always possible to accurately perform local position correction at an arbitrary site. For example, it is not always possible to obtain one-dimensional pixel array data suitable for positional deviation amount calculation in a desired position correction range, and there is no guarantee that there is a through hole in the desired position correction range.

本発明はこうした状況に鑑みてなされたものであり、対象物自体または対象物画像の局所的な位置補正を精度よく行うことを可能とすることを目的とする。   The present invention has been made in view of such circumstances, and an object of the present invention is to enable accurate local position correction of an object itself or an object image.

本発明のある態様の検査装置は、複数の検査対象要素を有する被検査体を撮像して検査する検査装置である。この検査装置は、被検査体画像において検査対象要素を相互に接続するパターンから特徴点を生成し、特徴点の基準位置からの変位に基づいて被検査体画像の位置ずれを補正する位置補正部と、位置が補正された被検査体画像を検査する検査部と、を備える。   An inspection apparatus according to an aspect of the present invention is an inspection apparatus that images and inspects an inspection object having a plurality of inspection target elements. This inspection apparatus generates a feature point from a pattern connecting inspection target elements to each other in an inspection object image, and corrects a positional deviation of the inspection object image based on a displacement of the feature point from a reference position. And an inspection unit for inspecting the inspected object image whose position is corrected.

この態様によると、検査対象要素を相互に接続するパターンから特徴点を生成するため、検査領域の全体にわたって特徴点を生成することができる。検査領域に全体的に分布する特徴点の基準位置からの変位に基づいて位置ずれ量を補正するので、任意の位置での局所的な位置補正が可能となる。   According to this aspect, since the feature points are generated from the pattern connecting the inspection target elements to each other, the feature points can be generated over the entire inspection region. Since the amount of displacement is corrected based on the displacement from the reference position of the feature points that are distributed throughout the inspection area, local position correction at an arbitrary position is possible.

被検査体を走査しながら撮像して走査方向に分割された被検査体の部分画像を順次取得する撮像部と、取得済みの部分画像から被検査体画像の局所検査領域を合成する画像合成部と、をさらに備えてもよい。位置補正部は、局所検査領域に含まれるパターンから特徴点を生成し、特徴点の基準位置からの変位に基づいて局所検査領域の位置ずれを補正してもよい。検査部は、被検査体の撮像中に検査を開始してもよい。   An imaging unit that sequentially captures the partial images of the inspected object that are imaged while scanning the inspected object and is divided in the scanning direction, and an image composition unit that synthesizes the local inspection region of the inspected object image from the acquired partial images And may be further provided. The position correction unit may generate a feature point from a pattern included in the local inspection region, and correct the positional deviation of the local inspection region based on the displacement of the feature point from the reference position. The inspection unit may start inspection during imaging of the inspection object.

位置補正部は、パターンを表す折れ線上に特徴点を生成し、その一部または全部の特徴点の基準位置からの変位に基づいて位置ずれを補正してもよい。位置補正部は、パターンを表す折れ線に含まれる線分の延長線上に特徴点を生成し、その一部または全部の特徴点の基準位置からの変位に基づいて位置ずれを補正してもよい。位置補正部は、被検査体画像の位置補正範囲内の任意の特徴点と任意の基準点との被検査体画像上の位置の差を表す位置成分を有するベクトルを変位ベクトルとして生成する処理を反復して複数の変位ベクトルを生成するベクトル生成部と、位置成分に応じて変位ベクトルを複数の区分に分類するベクトル分類部と、を含み、得られた変位ベクトルの分類結果に基づいて該位置補正範囲の位置ずれを補正してもよい。ベクトル生成部は、変位ベクトルを生成する特徴点を、特徴点の性質を示す情報のうち特徴点の位置とは異なる情報に基づいて選択してもよい。位置補正部は、被検査体画像のパターンを含む部分を複数の分割画像に分割し、各分割画像においてパターンに沿う線を抽出し、抽出された線を隣接する分割画像間で結合してもよい。   The position correction unit may generate feature points on a polygonal line representing the pattern, and correct the positional deviation based on the displacement of some or all of the feature points from the reference position. The position correction unit may generate a feature point on an extension line of a line segment included in a broken line representing a pattern, and correct the position shift based on the displacement of a part or all of the feature points from the reference position. The position correction unit generates a vector having a position component representing a position difference between an arbitrary feature point within the position correction range of the inspection object image and an arbitrary reference point on the inspection object image as a displacement vector. A vector generation unit that repeatedly generates a plurality of displacement vectors, and a vector classification unit that classifies the displacement vectors into a plurality of sections according to position components, and the position based on the obtained displacement vector classification result You may correct | amend the position shift of a correction range. The vector generation unit may select a feature point for generating a displacement vector based on information different from the position of the feature point among information indicating the property of the feature point. The position correction unit divides a portion including the pattern of the inspection subject image into a plurality of divided images, extracts lines along the pattern in each divided image, and combines the extracted lines between adjacent divided images. Good.

本発明の別の態様は、被検査体の検査方法である。この方法は、被検査体画像において検査対象要素を相互に接続するパターンから特徴点を生成し、特徴点の基準位置からの変位に基づいて被検査体画像の位置ずれを補正し、位置が補正された被検査体画像を検査することを含む。   Another aspect of the present invention is a method for inspecting an object to be inspected. This method generates a feature point from a pattern that interconnects inspection target elements in an inspected object image, corrects the displacement of the inspected object image based on the displacement of the feature point from the reference position, and corrects the position. Inspecting the inspected object image.

本発明によれば、局所的な位置補正を精度よく行うことができる。   According to the present invention, local position correction can be accurately performed.

本発明の一実施形態に係る位置補正処理を模式的に示す図である。It is a figure which shows typically the position correction process which concerns on one Embodiment of this invention. 本発明の一実施形態に係る位置補正処理を説明するためのフローチャートである。It is a flowchart for demonstrating the position correction process which concerns on one Embodiment of this invention. 本発明の一実施形態に係る特徴点生成処理を模式的に示す図である。It is a figure which shows typically the feature point production | generation process which concerns on one Embodiment of this invention. 本発明の一実施形態に係る線分抽出処理を模式的に示す図である。It is a figure which shows typically the line segment extraction process which concerns on one Embodiment of this invention. 本発明の一実施形態に係る変位ベクトル分類処理を模式的に示す図である。It is a figure which shows typically the displacement vector classification | category process which concerns on one Embodiment of this invention. 本発明の一実施形態に係る変位ベクトル分類処理を模式的に示す図である。It is a figure which shows typically the displacement vector classification | category process which concerns on one Embodiment of this invention. 本発明の一実施形態に係る外観検査装置の構成を模式的に示す図である。It is a figure which shows typically the structure of the external appearance inspection apparatus which concerns on one Embodiment of this invention. 図7の試験ユニットの詳細斜視図である。It is a detailed perspective view of the test unit of FIG. 図7の照明ユニットを含む試験ユニットの模式図である。It is a schematic diagram of the test unit containing the illumination unit of FIG. 本発明の一実施形態に係る解析ユニットの構成の一例を示す図である。It is a figure which shows an example of a structure of the analysis unit which concerns on one Embodiment of this invention. 本発明の一実施形態に係る外観検査装置の撮像処理を示すフローチャートである。It is a flowchart which shows the imaging process of the external appearance inspection apparatus which concerns on one Embodiment of this invention. 本発明の一実施形態に係る検査処理を示すフローチャートである。It is a flowchart which shows the test | inspection process which concerns on one Embodiment of this invention.

本発明の一実施形態に係る画像処理装置は、例えば被検査体などの対象物の画像から生成される特徴点の基準位置からの変位に基づいて当該特徴点近傍の局所的な位置ずれ量を求める。被検査体は例えば、電子部品が実装された電子基板である。特徴点は例えば、対象物またはその画像の全体に分布するパターンであって、位置補正に要求される精度よりも高い設計精度を有するパターンから生成される。このようにすれば、高い位置精度を有する特徴点を全体的に分布させることができるので、局所的な位置ずれ量を任意の位置でより高い精度で求めることが可能となる。また、局所的位置ずれ量に基づいて局所的な位置補正を高い精度で行うことも可能となる。   An image processing apparatus according to an embodiment of the present invention calculates a local displacement amount in the vicinity of a feature point based on a displacement from a reference position of the feature point generated from an image of an object such as an object to be inspected. Ask. The object to be inspected is, for example, an electronic board on which electronic components are mounted. For example, the feature point is a pattern distributed over the entire object or its image, and is generated from a pattern having a higher design accuracy than the accuracy required for position correction. In this way, since feature points having high positional accuracy can be distributed as a whole, a local positional deviation amount can be obtained with higher accuracy at an arbitrary position. In addition, local position correction can be performed with high accuracy based on the amount of local positional deviation.

電子基板の場合には、実装される電子部品を相互に接続する配線パターンから特徴点を生成することが好ましい。基板上の部品の高密度実装化により、高い位置精度で配線パターンが形成されるようになってきているからである。また、各部品を接続するために通常、電子基板の配線パターンは、基板表面全域にわたって屈曲しながら延びる多数のラインを含む。なおここで、配線パターンには電子基板が動作するときに実際には機能しない配線パターンも含まれ得る。基板共通化により生産コストを低減するために、搭載される部品のセットに応じて実際に機能する配線パターンが異なるからである。よって、一般化して言えば、電子基板の場合には、電子部品を実装し得る複数の実装位置を相互に接続する配線パターンから特徴点を生成することが好ましい。   In the case of an electronic board, it is preferable to generate a feature point from a wiring pattern that interconnects electronic components to be mounted. This is because the wiring pattern has been formed with high positional accuracy due to the high density mounting of components on the substrate. Moreover, in order to connect each component, the wiring pattern of an electronic substrate usually includes a number of lines extending while being bent over the entire surface of the substrate. Here, the wiring pattern may include a wiring pattern that does not actually function when the electronic substrate operates. This is because, in order to reduce the production cost by sharing the board, the actually functioning wiring pattern differs depending on the set of components to be mounted. Therefore, in general terms, in the case of an electronic substrate, it is preferable to generate feature points from a wiring pattern that interconnects a plurality of mounting positions where electronic components can be mounted.

特徴点の基礎となるパターンに含まれるラインの例えば屈折点、端点、及び交点を特徴点として用いてもよい。このようにパターン上に実在する特徴点を以下では「実体特徴点」と呼ぶことがある。電子基板の場合には、配線パターンを折れ線として認識し、折れ線上の折れ点、端点、及び交点を特徴点としてもよい。   For example, a refraction point, an end point, and an intersection point of a line included in the pattern serving as the basis of the feature point may be used as the feature point. Such feature points that exist on the pattern may be referred to as “substance feature points” below. In the case of an electronic board, the wiring pattern may be recognized as a polygonal line, and the fold points, end points, and intersections on the polygonal line may be used as feature points.

また、特徴点の基礎となるパターンから、実体特徴点が存在しない位置に仮想的に特徴点を生成してもよい。これを以下では「仮想特徴点」と呼ぶことがある。例えば、パターンの一部を仮想的に延長したときにパターンの他の部分と交差して得られる交点を特徴点としてもよい。折れ線に含まれる線分を延長して得られる交点を特徴点としてもよい。このようにすれば、より多くの特徴点を位置補正に用いて位置ずれ量を正確に求めることができる。また、実体特徴点が存在しない領域にも仮想特徴点を設けて位置ずれ量を求めることが可能となる。   Further, a feature point may be virtually generated from a pattern serving as a basis of the feature point at a position where no actual feature point exists. Hereinafter, this may be referred to as a “virtual feature point”. For example, an intersection obtained by intersecting with another part of the pattern when a part of the pattern is virtually extended may be used as the feature point. An intersection obtained by extending a line segment included in the broken line may be used as the feature point. In this way, it is possible to accurately determine the amount of misalignment using more feature points for position correction. In addition, it is possible to determine the amount of positional deviation by providing virtual feature points in an area where there are no actual feature points.

なお、使用可能であるすべての特徴点を用いて位置ずれ量を求める必要はなく、位置補正装置は、選択された一部の特徴点の基準位置からの変位に基づいて位置ずれ量を求めてもよい。位置補正装置は、実体特徴点のみを用いて位置ずれ量を求めてもよいし、仮想特徴点のみを用いて位置ずれ量を求めてもよい。あるいは位置補正装置は、実体特徴点と仮想特徴点とを併用して位置ずれ量を求めてもよい。   Note that it is not necessary to determine the amount of misalignment using all the feature points that can be used, and the position correction device obtains the amount of misalignment based on the displacement of some selected feature points from the reference position. Also good. The position correction apparatus may determine the amount of positional deviation using only the actual feature points, or may determine the amount of positional deviation using only the virtual feature points. Alternatively, the position correction apparatus may obtain the amount of positional deviation using both the real feature point and the virtual feature point.

また、一実施形態においては、被検査体の検査装置は、被検査体を撮像する撮像部と、被検査体画像から認識可能であるパターンを利用して検査位置を補正する位置補正部と、被検査体画像から被検査体の良否を判定する検査部と、を備えてもよい。位置補正部は、被検査体画像に含まれるパターンから特徴点を生成する特徴点生成部と、特徴点の基準位置からの変位に基づいて被検査体画像の位置ずれ量を演算する位置ずれ量演算部と、を備えてもよい。位置補正部は、位置補正範囲を設定する位置補正範囲設定部を備えてもよい。   In one embodiment, an inspection apparatus for an inspection object includes an imaging unit that images the inspection object, a position correction unit that corrects an inspection position using a pattern that can be recognized from the inspection object image, and And an inspection unit that determines the quality of the inspected object from the inspected object image. The position correction unit includes a feature point generation unit that generates a feature point from a pattern included in the inspection object image, and a displacement amount that calculates a displacement amount of the inspection object image based on the displacement of the feature point from the reference position. And an arithmetic unit. The position correction unit may include a position correction range setting unit that sets a position correction range.

被検査体を撮像する撮像部は、検査を適切に実行し得る画像が得られる限り、いかなる撮像手段であってもよい。例えば、撮像部が撮像のために被検査体に照射する照明光は、可視光、X線、紫外光、及び赤外光を含む任意の波長の照明光であってもよい。また、以下では被検査体画像が2次元画像である実施形態を説明しているが、被検査体画像は3次元画像であってもよい。この場合、撮像部は被検査体の3次元画像を取得するよう構成される。撮像部は例えば、複数の異なる方向から照明光を照射して複数の2次元画像を取得し、これら複数の2次元画像から被検査体の3次元画像を合成してもよい。また、撮像部は、複数の異なる方向から放射線(例えばX線)を照射して被検査体の複数の2次元透過画像を取得し、これら複数の2次元透過画像に基づいて被検査体の外観形状及び内部構造を表す3次元画像を再構成してもよい。さらに、再構成により得られた3次元画像の断面画像である2次元画像を被検査体画像として、以下に説明する実施形態を適用することも可能である。   The imaging unit that images the object to be inspected may be any imaging means as long as an image capable of appropriately performing the inspection is obtained. For example, the illumination light that the imaging unit irradiates the object to be inspected for imaging may be illumination light having an arbitrary wavelength including visible light, X-rays, ultraviolet light, and infrared light. In the following, an embodiment in which the inspected object image is a two-dimensional image is described, but the inspected object image may be a three-dimensional image. In this case, the imaging unit is configured to acquire a three-dimensional image of the object to be inspected. For example, the imaging unit may acquire a plurality of two-dimensional images by irradiating illumination light from a plurality of different directions, and synthesize a three-dimensional image of the object to be inspected from the plurality of two-dimensional images. In addition, the imaging unit irradiates radiation (for example, X-rays) from a plurality of different directions to acquire a plurality of two-dimensional transmission images of the object to be inspected, and the appearance of the object to be inspected based on the plurality of two-dimensional transmission images. A three-dimensional image representing the shape and internal structure may be reconstructed. Furthermore, it is also possible to apply an embodiment described below using a two-dimensional image, which is a cross-sectional image of a three-dimensional image obtained by reconstruction, as an inspection object image.

図1は、本発明の一実施形態に係る位置補正処理を模式的に示す図である。この実施例は、部品を実装した電子基板を撮像した画像の位置補正に関する。図1には、電子基板画像のうち特定の電子部品1002を含む局所領域1000が示されている。この電子部品1002は例えば、実装状態について所望の検査がなされるべき電子部品であり、局所領域1000の位置補正後に当該検査が行われる。局所領域1000には、電子部品1002の近傍を通る折れ線状の配線パターン1004が含まれている。図1において局所領域1000内に実線で記載されている電子部品1002及び配線パターン1004は、検査のために撮像した画像を示している。破線で記載されているのは、検査の判定基準となる基準画像において対応する電子部品1003及び配線パターン1005である。   FIG. 1 is a diagram schematically illustrating position correction processing according to an embodiment of the present invention. This embodiment relates to position correction of an image obtained by imaging an electronic board on which components are mounted. FIG. 1 shows a local region 1000 including a specific electronic component 1002 in the electronic board image. The electronic component 1002 is, for example, an electronic component that is to be subjected to a desired inspection regarding the mounting state, and the inspection is performed after the position of the local region 1000 is corrected. The local region 1000 includes a polygonal wiring pattern 1004 passing through the vicinity of the electronic component 1002. In FIG. 1, an electronic component 1002 and a wiring pattern 1004 that are indicated by solid lines in the local region 1000 indicate images captured for inspection. Described by the broken lines are the electronic component 1003 and the wiring pattern 1005 corresponding to the reference image that is the determination criterion of the inspection.

位置補正処理は例えば検査装置の制御ユニットにより実行される。制御ユニットは、位置補正処理を司る位置補正部を備える。位置補正部は、局所領域1000において配線パターン1004上に特徴点1006を生成する。図1においては、配線パターン1004上の特徴点1006が黒丸で示されており、特徴点1006に対応する基準画像上の基準点1007が白丸で示されている。位置補正部は、配線パターン1004の屈折部を特徴点1006として生成する。基準画像上の配線パターン1005の屈折部が基準点1007である。   The position correction process is executed by a control unit of the inspection apparatus, for example. The control unit includes a position correction unit that performs position correction processing. The position correction unit generates a feature point 1006 on the wiring pattern 1004 in the local region 1000. In FIG. 1, feature points 1006 on the wiring pattern 1004 are indicated by black circles, and reference points 1007 on the reference image corresponding to the feature points 1006 are indicated by white circles. The position correction unit generates the refracted part of the wiring pattern 1004 as the feature point 1006. A refracted portion of the wiring pattern 1005 on the reference image is a reference point 1007.

位置補正部は、図示されるように、配線パターン1004の複数の屈折部から一部を選択して特徴点1006としてもよい。局所領域1000が十分に小さい領域である場合には特徴点1006が1つであっても十分な位置補正精度を実現可能であると考えられる。また、例えば回転角度も含めて更なる位置補正精度を追求する場合には、他の屈折部1008も含めて特徴点1006を複数生成してもよい。   As shown in the figure, the position correction unit may select a part from a plurality of refracting parts of the wiring pattern 1004 and use it as the feature point 1006. When the local region 1000 is a sufficiently small region, it is considered that sufficient position correction accuracy can be realized even if there is one feature point 1006. For example, in the case of pursuing further position correction accuracy including the rotation angle, a plurality of feature points 1006 including other refraction units 1008 may be generated.

この例においては、特徴点1006と、その特徴点1006に対応する基準点との対応関係は位置補正部に予め入力され記憶されている。すなわち、被検査体画像上の特徴点1006と位置を比較すべき基準画像上の基準点1007が予め定められている。よって、特徴点1006と基準点1007との位置の差が特徴点1006の位置ずれ量となる。位置補正部は、特徴点1006の座標と基準点1007の座標との差を演算して特徴点1006の位置ずれ量1010を求める。位置補正部は、演算した位置ずれ量1010に等しい位置補正量1012だけ局所領域1000の位置を補正する。その結果、基準画像に対して高い精度で位置を補正された局所的な被検査体画像を得ることができる。被検査体画像と基準画像とを検査対象の局所領域で正確に一致させることができる。次いで、検査装置は、電子部品1002に対し所望の検査項目について検査を行う。   In this example, the correspondence between the feature point 1006 and the reference point corresponding to the feature point 1006 is input and stored in advance in the position correction unit. That is, the reference point 1007 on the reference image whose position is to be compared with the feature point 1006 on the inspection object image is determined in advance. Therefore, the difference in position between the feature point 1006 and the reference point 1007 is the amount of displacement of the feature point 1006. The position correction unit calculates a difference between the coordinates of the feature point 1006 and the coordinates of the reference point 1007 to obtain a positional deviation amount 1010 of the feature point 1006. The position correction unit corrects the position of the local region 1000 by a position correction amount 1012 equal to the calculated displacement amount 1010. As a result, it is possible to obtain a local object image whose position is corrected with high accuracy with respect to the reference image. The inspected object image and the reference image can be accurately matched in the local region to be inspected. Next, the inspection apparatus inspects the electronic component 1002 for a desired inspection item.

一実施形態においては、対象物を走査しながら撮像して走査方向に分割された部分画像を順次取得する撮像部と、対象物の全体が撮像された全体画像に部分画像を合成する画像合成部と、が設けられていてもよい。画像合成部は、取得済みの部分画像から、全体画像の一部である局所画像を合成してもよい。局所画像は、取得済みの部分画像をすべて合成したものであってもよいし、必要な検査領域を局所的に合成した局所検査領域であってもよい。位置補正部は、局所画像に含まれるパターンから特徴点を生成し、特徴点の基準位置からの変位に基づいて局所画像の位置ずれを補正してもよい。   In one embodiment, an imaging unit that sequentially captures a partial image that is captured while scanning an object and is divided in the scanning direction, and an image synthesis unit that combines the partial image with the entire image obtained by capturing the entire target object And may be provided. The image synthesis unit may synthesize a local image that is a part of the entire image from the acquired partial images. The local image may be a combination of all acquired partial images, or may be a local inspection region obtained by locally combining necessary inspection regions. The position correction unit may generate a feature point from a pattern included in the local image, and correct the positional deviation of the local image based on the displacement of the feature point from the reference position.

位置補正部は、対象物の撮像中に局所画像の位置を補正してもよい。検査部は、位置が補正された局所画像の検査を対象物の撮像中に開始してもよい。検査部は例えば、検査対象の電子基板の端部に形成されている複数の基準マークのすべての撮像が完了する前に局所画像の検査を開始してもよい。このようにすれば、撮像の完了を待たずに位置補正さらには検査を開始することができるので、タクトタイムを短縮することができる。   The position correction unit may correct the position of the local image during imaging of the target object. The inspection unit may start the inspection of the local image whose position is corrected while the object is being imaged. For example, the inspection unit may start the inspection of the local image before all the imaging of the plurality of reference marks formed on the end portion of the electronic substrate to be inspected is completed. In this way, position correction and further inspection can be started without waiting for completion of imaging, so that the tact time can be shortened.

図2は、本発明の一実施形態に係る位置補正処理を説明するためのフローチャートである。この位置補正処理は、例えば基板への実装部品搭載処理後、あるいは部品搭載処理及び加熱処理(例えばリフロー処理)の後のように基板に不均一に変形が生じ得る処理の後に実行されることが好ましい。局所的な位置補正により後続の処理(例えば実装状態検査処理)を高い精度で行うことが可能となる。   FIG. 2 is a flowchart for explaining position correction processing according to an embodiment of the present invention. This position correction process may be executed after a process that may cause uneven deformation of the board, for example, after a mounting part mounting process on the board, or after a part mounting process and a heating process (for example, a reflow process). preferable. Subsequent processing (for example, mounting state inspection processing) can be performed with high accuracy by local position correction.

図2に示される処理においては、位置補正部はまず、位置補正範囲を設定する(S10)。位置補正範囲は、入力画像上の位置補正がなされるべき領域である。入力画像は、対象物の全体を撮像した画像であってもよい。また、対象物を走査しながら撮像する場合には、入力画像は、撮像が完了したところまでの対象物画像の全体または局所的に選択された一部分であってもよい。例えば電子基板の検査装置での位置補正処理においては、位置補正範囲は例えば、電子基板画像の全体または一部のうち検査対象となる電子部品を含む局所的な領域である。言い換えれば、位置補正範囲は、被検査体画像の局所検査領域に一致していてもよいし、局所検査領域の一部であってもよい。   In the process shown in FIG. 2, the position correction unit first sets a position correction range (S10). The position correction range is an area where position correction on the input image is to be performed. The input image may be an image obtained by capturing the entire object. In the case of imaging while scanning the object, the input image may be the entire object image up to the point where the imaging is completed or a locally selected part. For example, in a position correction process in an electronic board inspection apparatus, the position correction range is, for example, a local region including an electronic component to be inspected out of the whole or part of an electronic board image. In other words, the position correction range may coincide with the local inspection area of the inspection subject image, or may be a part of the local inspection area.

位置補正部は、入力画像の位置補正範囲内に特徴点を生成する(S12)。位置補正部は、入力画像を処理することにより特徴点を生成し、特徴点の位置を記憶する。位置補正部は例えば、入力画像の位置補正範囲に存在するパターンを認識し、パターン上に実体特徴点を生成してもよい。また、位置補正部は、入力画像の位置補正範囲に存在するパターンに基づいて、実体特徴点が存在しない位置に仮想特徴点を生成してもよい。あるいは、位置補正部は、入力画像のうち位置補正範囲の外部に存在するパターンに基づいて、位置補正範囲の内部で実体特徴点が存在しない位置に仮想特徴点を生成してもよい。位置補正部は、位置補正範囲内に生成し得る特徴点候補のうち一部を選択して特徴点として生成してもよい。この場合、位置補正部は、所望の位置補正精度を実現するよう位置補正範囲内の特徴点の分布を調整してもよい。   The position correction unit generates a feature point within the position correction range of the input image (S12). The position correction unit generates a feature point by processing the input image, and stores the position of the feature point. For example, the position correction unit may recognize a pattern existing in the position correction range of the input image and generate an entity feature point on the pattern. The position correction unit may generate a virtual feature point at a position where no actual feature point exists based on a pattern existing in the position correction range of the input image. Alternatively, the position correction unit may generate a virtual feature point at a position where no actual feature point exists within the position correction range based on a pattern existing outside the position correction range in the input image. The position correction unit may select a part of candidate feature points that can be generated within the position correction range and generate them as feature points. In this case, the position correction unit may adjust the distribution of the feature points within the position correction range so as to achieve a desired position correction accuracy.

位置補正部は、特徴点と基準点との対応関係を取得する(S14)。基準点は基準画像から予め生成され位置補正部に入力され記憶されていてもよいし、上述の特徴点と同様に、位置補正部は位置補正範囲に対応する基準画像上の領域に基準点をその都度生成してもよい。図1を参照して説明した一実施例のように特徴点と基準点との対応関係が既知である場合には、位置補正部は、その既知の対応関係を用いて以降の処理を実行する。ところが、位置補正範囲には通常複数の特徴点が生成され、基準点も複数存在する。一般には、複数の基準点のうち、ある1つの特徴点に対応する基準点がいずれであるかが未知である。よって、位置補正部は、例えば後述の変位ベクトル分類処理を用いて、複数の基準点候補から特徴点に対応する基準点を選択する。   The position correction unit acquires the correspondence between the feature points and the reference points (S14). The reference point may be generated in advance from the reference image and input and stored in the position correction unit. Similarly to the above-described feature point, the position correction unit sets the reference point in an area on the reference image corresponding to the position correction range. It may be generated each time. When the correspondence between the feature point and the reference point is known as in the embodiment described with reference to FIG. 1, the position correction unit performs the subsequent processing using the known correspondence. . However, a plurality of feature points are usually generated in the position correction range, and there are a plurality of reference points. In general, it is unknown which of the plurality of reference points corresponds to a certain feature point. Therefore, the position correction unit selects a reference point corresponding to the feature point from a plurality of reference point candidates using, for example, a displacement vector classification process described later.

変位ベクトル分類処理においては、位置補正部は、ある特徴点とその特徴点の基準点候補との間の変位を表すベクトルを複数の基準点候補の各々について求め、さらにこれを位置補正範囲内の複数の特徴点について行う。位置補正部は、得られた変位ベクトルを複数の区分に分類し、最も高頻度である区分の変位ベクトルから特徴点と基準点との対応関係を求める。   In the displacement vector classification process, the position correction unit obtains a vector representing a displacement between a certain feature point and a reference point candidate of the feature point for each of the plurality of reference point candidates, and further calculates the vector within the position correction range. This is performed for a plurality of feature points. The position correction unit classifies the obtained displacement vectors into a plurality of sections, and obtains the correspondence between the feature points and the reference points from the displacement vectors of the sections with the highest frequency.

位置補正部は、特徴点と基準点との対応関係に基づいて基準点からの特徴点の位置ずれ量を演算する(S16)。位置補正部は、位置ずれ量に基づいて位置補正範囲の位置を補正する(S18)。次いで、例えば電子基板の検査装置においては、位置補正により正確に位置決めされた局所検査領域に対して所望の検査項目について検査を行う。検査が終了すると、位置補正部は別の位置補正範囲について図2に示される位置補正処理を実行し、すべての位置補正範囲の処理が終了するまで図2に示される処理を繰り返す。また、例えば基板処理装置(例えばマウンタ)においては、入力画像の位置を補正する代わりに、撮像された基板自体の位置を補正してもよい。   The position correction unit calculates the amount of positional deviation of the feature point from the reference point based on the correspondence between the feature point and the reference point (S16). The position correction unit corrects the position of the position correction range based on the positional deviation amount (S18). Next, for example, in an electronic substrate inspection apparatus, a desired inspection item is inspected with respect to a local inspection region accurately positioned by position correction. When the inspection is completed, the position correction unit executes the position correction processing shown in FIG. 2 for another position correction range, and repeats the processing shown in FIG. 2 until the processing of all the position correction ranges is completed. For example, in a substrate processing apparatus (for example, a mounter), the position of the imaged substrate itself may be corrected instead of correcting the position of the input image.

なお、上述の実施形態においては位置補正範囲設定処理(S10)を特徴点生成処理(S12)の前に行うようにしているが、これに限られない。例えば、位置補正部は、基準点との対応関係を取得する処理(S14)の前に位置補正範囲を設定するようにしてもよい。この場合、位置補正部は、入力画像の全体について特徴点を生成してもよい。また、位置補正部は、位置ずれ量演算処理(S16)の前に位置補正範囲を設定するようにしてもよい。この場合、位置補正部は、入力画像の全体について特徴点を生成し各特徴点と基準点との対応関係を取得してもよい。   In the above-described embodiment, the position correction range setting process (S10) is performed before the feature point generation process (S12), but is not limited thereto. For example, the position correction unit may set the position correction range before the process of acquiring the correspondence with the reference point (S14). In this case, the position correction unit may generate feature points for the entire input image. Further, the position correction unit may set the position correction range before the positional deviation amount calculation process (S16). In this case, the position correction unit may generate feature points for the entire input image and acquire the correspondence between each feature point and the reference point.

また、一実施例においては、位置補正部は、パターンが非周期的に配列されている領域を位置補正範囲に設定してもよい。例えば多数の直線パターンが一定間隔に配列された規則的パターンを位置補正範囲に含めるよりも、例えば図3に示すように不規則なパターンを有する領域を位置補正範囲とするほうが高精度の位置補正が可能であることが経験的にわかっている。よって、位置補正部は、パターンが不規則である領域を位置補正範囲に設定してもよい。   In one embodiment, the position correction unit may set an area in which patterns are arranged aperiodically as a position correction range. For example, rather than including a regular pattern in which a large number of linear patterns are arranged at regular intervals in the position correction range, for example, an area having an irregular pattern as shown in FIG. Is empirically known to be possible. Therefore, the position correction unit may set an area where the pattern is irregular as the position correction range.

そのために、位置補正部は例えば、入力画像のパターン分布の空間周波数を測定し、パターン分布の空間周波数の帯域幅がしきい値よりも大きい領域を位置補正範囲に設定してもよい。つまり空間周波数のバラツキが大きい領域を位置補正範囲に設定してもよい。この帯域幅しきい値は例えば、要求される位置補正精度に基づいて設定することができる。   For this purpose, for example, the position correction unit may measure the spatial frequency of the pattern distribution of the input image and set a region where the bandwidth of the spatial frequency of the pattern distribution is larger than a threshold value as the position correction range. That is, an area where the spatial frequency variation is large may be set as the position correction range. This bandwidth threshold can be set, for example, based on the required position correction accuracy.

また、位置補正部は、入力画像とその同一画像とのイメージマッチングをとり、イメージマッチング結果に基づいて位置補正範囲を設定してもよい。位置補正部は例えば、入力画像とその同一画像との位置をずらしながら複数の位置でイメージマッチングを行う。入力画像上の周期的パターンを有する領域は、当該画像領域をずらしながら複数位置でマッチングをとった場合にマッチング率が高くなる位置が非周期的パターンに比べて多くなる。非周期的パターンの場合通常は、マッチング率が高くなる位置は1箇所だけである。よって例えば、位置補正部は、マッチング率がしきい値よりも高くなる位置の出現回数が所定回数以内(例えば1回のみ)である領域を位置補正範囲に設定してもよい。マッチング率及び出現回数のしきい値は、上述の空間周波数しきい値と同様に例えば、要求される位置補正精度に基づいて設定することができる。   The position correction unit may perform image matching between the input image and the same image, and set a position correction range based on the image matching result. For example, the position correction unit performs image matching at a plurality of positions while shifting the positions of the input image and the same image. The area having a periodic pattern on the input image has more positions where the matching rate is higher when matching is performed at a plurality of positions while shifting the image area as compared to the aperiodic pattern. In the case of an aperiodic pattern, there is usually only one position where the matching rate is high. Therefore, for example, the position correction unit may set an area where the number of appearances of the position where the matching rate is higher than the threshold value is within a predetermined number (for example, only once) as the position correction range. Similar to the above-described spatial frequency threshold, the threshold of the matching rate and the number of appearances can be set based on, for example, required position correction accuracy.

次に、本発明の一実施形態に係る特徴点の生成処理について更に詳しく説明する。一実施形態においては、特徴点生成部は、入力画像からパターンを認識するパターン認識部と、パターン上に実体特徴点を生成する実体特徴点生成部と、パターンを仮想的に延長して仮想特徴点を生成する仮想特徴点生成部と、生成された実体特徴点及び仮想特徴点から位置補正に使用する特徴点を選択する特徴点選択部と、を備えてもよい。   Next, the feature point generation processing according to an embodiment of the present invention will be described in more detail. In one embodiment, the feature point generation unit includes a pattern recognition unit that recognizes a pattern from an input image, an entity feature point generation unit that generates an entity feature point on the pattern, and a virtual feature obtained by virtually extending the pattern. You may provide the virtual feature point production | generation part which produces | generates a point, and the feature point selection part which selects the feature point used for position correction from the produced | generated entity feature point and virtual feature point.

パターン認識部は、複数の線分の連続的な配列、すなわち折れ線としてパターンを認識してもよい。また、パターン認識部は、パターンを複数の線分の集合として認識してもよい。実体特徴点生成部は、線分の端点及び交点を実体特徴点の候補としてもよい。仮想特徴点生成部は、線分の延長線上に仮想的に形成される他の線分または延長線との交点を仮想特徴点の候補としてもよい。特徴点選択部は、実体特徴点及び仮想特徴点の候補から位置補正処理に使用する特徴点を選択してもよい。特徴点選択部は例えば、実体特徴点を優先的に選択し仮想特徴点を必要に応じて付加するようにしてもよい。   The pattern recognition unit may recognize the pattern as a continuous arrangement of a plurality of line segments, that is, a broken line. The pattern recognition unit may recognize the pattern as a set of a plurality of line segments. The entity feature point generation unit may use the end points and intersections of the line segments as candidates for the entity feature points. The virtual feature point generation unit may use an intersection with another line segment or extension line virtually formed on the extension line of the line segment as a candidate for the virtual feature point. The feature point selection unit may select a feature point to be used for the position correction process from candidates for the actual feature point and the virtual feature point. For example, the feature point selection unit may preferentially select the actual feature points and add the virtual feature points as necessary.

特徴点選択部は、特徴点が非周期的に分布するよう特徴点を選択してもよい。特徴点が例えば格子状等のように周期的に分布している場合よりも非周期的に分布している場合のほうが経験的により高精度の位置補正が可能である。言い換えれば、特徴点は位置補正範囲において不規則に分布していることが好ましい。特徴点選択部は、特徴点分布の空間周波数の帯域幅をしきい値よりも大きくするよう特徴点分布を調整することが好ましい。この帯域幅しきい値は例えば、要求される位置補正精度に対応する特徴点分布の周期性に基づいて設定される。また、特徴点選択部は、同一の2つの特徴点分布間で位置をずらしながら複数位置でマッチングをとり、そのマッチング結果に基づいて特徴点分布を調整してもよい。このようにすれば、非周期的に特徴点を分布させることが可能となる。   The feature point selection unit may select the feature points so that the feature points are distributed aperiodically. When the feature points are distributed aperiodically, for example, when the feature points are distributed periodically, such as in a lattice shape, position correction with higher accuracy is possible empirically. In other words, the feature points are preferably distributed irregularly in the position correction range. The feature point selection unit preferably adjusts the feature point distribution so that the bandwidth of the spatial frequency of the feature point distribution is larger than a threshold value. This bandwidth threshold is set based on, for example, the periodicity of the feature point distribution corresponding to the required position correction accuracy. Further, the feature point selection unit may perform matching at a plurality of positions while shifting the position between the same two feature point distributions, and may adjust the feature point distribution based on the matching result. In this way, feature points can be distributed aperiodically.

図3は、本発明の一実施形態に係る特徴点生成処理を模式的に示す図である。特徴点生成部はまず、制御ユニットに付随するメモリから、特徴点を生成する画像1014の入力を受ける。入力画像1014はパターン1016を含む。入力画像1014が電子基板画像の一部分である場合には、パターン1016は例えば配線パターンである。特徴点生成部は、入力画像1014に対し線分抽出処理を実行する。図3においては線分抽出処理を矢印1018で表している。線分抽出処理1018は、パターン1016を複数の線分の集まりとしてパターン1016から抽出する処理である。線分抽出処理の一例については図4を参照してさらに詳しく説明する。   FIG. 3 is a diagram schematically illustrating a feature point generation process according to an embodiment of the present invention. First, the feature point generation unit receives an input of an image 1014 for generating a feature point from a memory attached to the control unit. The input image 1014 includes a pattern 1016. When the input image 1014 is a part of the electronic board image, the pattern 1016 is, for example, a wiring pattern. The feature point generation unit performs line segment extraction processing on the input image 1014. In FIG. 3, line segment extraction processing is indicated by an arrow 1018. The line segment extraction process 1018 is a process of extracting the pattern 1016 from the pattern 1016 as a collection of a plurality of line segments. An example of the line segment extraction process will be described in more detail with reference to FIG.

線分抽出処理1018がなされた入力画像1014は、元のパターン1016に対応するラインを含む。図3に示される例の場合、パターン1016に対応して5本のライン1020、1022、1024、1026、1028がパターン1016から抽出される。このうち、ライン1020、1022、1026は折れ線であり、ライン1024は端点を有する線分であり、ライン1028は入力画像1014内に折れ点及び端点を有しない直線である。   The input image 1014 that has been subjected to the line segment extraction processing 1018 includes a line corresponding to the original pattern 1016. In the example shown in FIG. 3, five lines 1020, 1022, 1024, 1026, 1028 corresponding to the pattern 1016 are extracted from the pattern 1016. Among these, the lines 1020, 1022, and 1026 are broken lines, the line 1024 is a line segment having end points, and the line 1028 is a straight line having no break points and end points in the input image 1014.

特徴点生成部は、抽出されたラインに対し特徴点の候補を生成する処理を実行する。図3においては、特徴点候補生成処理を矢印1030で示している。特徴点候補生成処理には、実体特徴点の候補を生成する処理と、仮想特徴点の候補を生成する処理とが含まれる。仮想特徴点候補生成処理には、入力画像1014の内部の抽出ラインを仮想的に延長した延長ライン1036を用いる第1仮想特徴点候補生成処理と、入力画像1014の外部のパターンに基づく抽出ライン1042を用いる第2仮想特徴点候補生成処理と、が含まれる。この外部の抽出ライン1042は例えば、対象物を走査しながら撮像して走査方向に分割された部分画像を順次取得するいわゆるラインスキャン方式の場合には、取得済みの画像のうち入力画像1014外部のパターンから抽出されたラインである。図3においては、実体特徴点候補生成処理、第1仮想特徴点候補生成処理、及び第2仮想特徴点候補生成処理をそれぞれ、上段、中段、及び下段に示している。   The feature point generation unit executes a process of generating feature point candidates for the extracted lines. In FIG. 3, the feature point candidate generation process is indicated by an arrow 1030. The feature point candidate generation processing includes processing for generating entity feature point candidates and processing for generating virtual feature point candidates. In the virtual feature point candidate generation processing, first virtual feature point candidate generation processing using an extension line 1036 obtained by virtually extending an extraction line inside the input image 1014, and an extraction line 1042 based on an external pattern of the input image 1014 And a second virtual feature point candidate generation process using. For example, in the case of a so-called line scan method in which the external extraction line 1042 is acquired while scanning a target object and sequentially acquires partial images divided in the scanning direction, the external extraction line 1042 is outside the input image 1014. A line extracted from the pattern. In FIG. 3, the entity feature point candidate generation process, the first virtual feature point candidate generation process, and the second virtual feature point candidate generation process are shown in the upper, middle, and lower stages, respectively.

実体特徴点候補生成処理においては、特徴点生成部は、抽出ライン1020、1022、1024、1026、1028上に実在する特徴点を特徴点候補とする。具体的には、特徴点生成部は、パターン1016を表す折れ線1020、1022、1026の折れ点1032を特徴点候補とする。また、特徴点生成部は、パターン1016を表す線分1024の端点1034を特徴点候補とする。図3においては、実体特徴点の候補を白丸で示している。   In the entity feature point candidate generation process, the feature point generation unit sets feature points existing on the extraction lines 1020, 1022, 1024, 1026, and 1028 as feature point candidates. Specifically, the feature point generation unit sets a break point 1032 of the broken lines 1020, 1022, 1026 representing the pattern 1016 as a feature point candidate. Also, the feature point generation unit sets the end point 1034 of the line segment 1024 representing the pattern 1016 as a feature point candidate. In FIG. 3, candidates for entity feature points are indicated by white circles.

第1仮想特徴点候補生成処理においては、特徴点生成部は、入力画像1014内で抽出ライン1020、1022、1024、1026、1028を仮想的に延長し、延長ライン1036を形成する。図3においては、抽出ライン1020、1022、1024、1026、1028を破線で示し、延長ライン1036を実線で示している。特徴点生成部は、抽出ライン1020、1022、1024、1026、1028と延長ライン1036との交点1038を仮想特徴点の候補とする。また、特徴点生成部は、2本の延長ライン1036の交点1040を仮想特徴点の候補とする。図3においては、第1仮想特徴点候補生成処理による仮想特徴点の候補を黒丸で示している。   In the first virtual feature point candidate generation process, the feature point generation unit virtually extends the extraction lines 1020, 1022, 1024, 1026, and 1028 in the input image 1014 to form an extension line 1036. In FIG. 3, the extraction lines 1020, 1022, 1024, 1026, and 1028 are indicated by broken lines, and the extension line 1036 is indicated by a solid line. The feature point generation unit sets an intersection 1038 between the extraction lines 1020, 1022, 1024, 1026, and 1028 and the extension line 1036 as a virtual feature point candidate. In addition, the feature point generation unit sets an intersection 1040 of the two extension lines 1036 as a candidate for a virtual feature point. In FIG. 3, virtual feature point candidates obtained by the first virtual feature point candidate generation process are indicated by black circles.

第2仮想特徴点候補生成処理においては、特徴点生成部は、入力画像1014の外部のパターンに基づく抽出ライン1042と、入力画像1014内の抽出ライン1020、1022、1024、1026、1028またはこれらの延長ライン1036との交点1044を仮想特徴点の候補とする。また、特徴点生成部は、入力画像1014の外部のパターンに基づく2本の抽出ライン1042の交点のうち入力画像1014の内部に形成される交点を仮想特徴点の候補としてもよい。図3においては、第2仮想特徴点候補生成処理による仮想特徴点の候補を二重丸で示している。   In the second virtual feature point candidate generation process, the feature point generation unit includes an extraction line 1042 based on an external pattern of the input image 1014 and extraction lines 1020, 1022, 1024, 1026, 1028 in the input image 1014, or these The intersection 1044 with the extension line 1036 is set as a virtual feature point candidate. In addition, the feature point generation unit may use the intersection formed inside the input image 1014 among the intersections of the two extraction lines 1042 based on the pattern outside the input image 1014 as a candidate for the virtual feature point. In FIG. 3, virtual feature point candidates obtained by the second virtual feature point candidate generation process are indicated by double circles.

特徴点生成部は、特徴点候補から特徴点を選択する処理を実行する。図3においては、特徴点選択処理を矢印1046で示している。特徴点生成部は、図3に示される例においては、実体特徴点候補(白丸)のすべて、第1仮想特徴点候補(黒丸)のすべて、及び第2仮想特徴点候補(二重丸)の一部を位置補正処理に使用する特徴点として選択している。図3においては、選択されなかった特徴点候補1048を破線で示している。特徴点生成部は、入力画像1014における特徴点分布が不規則となるように特徴点候補からランダムに特徴点を選択してもよい。   The feature point generation unit executes a process of selecting a feature point from the feature point candidates. In FIG. 3, the feature point selection process is indicated by an arrow 1046. In the example illustrated in FIG. 3, the feature point generation unit includes all of the entity feature point candidates (white circles), all of the first virtual feature point candidates (black circles), and all of the second virtual feature point candidates (double circles). A part is selected as a feature point used for position correction processing. In FIG. 3, feature point candidates 1048 that have not been selected are indicated by broken lines. The feature point generation unit may select feature points randomly from the feature point candidates such that the feature point distribution in the input image 1014 is irregular.

特徴点生成部は、生成された特徴点の位置を、例えば付随するメモリに記憶する。特徴点生成部は、互いに直交する2つの座標軸(典型的にはX軸及びY軸)を有する座標平面における座標で各特徴点を記憶する。つまり、X成分及びY成分を有する2次元ベクトルとして各特徴点は記憶される。特徴点生成部は、上述の特徴点生成処理と同様にして基準点を生成してもよい。すなわち特徴点生成部は、基準画像に対して特徴点生成処理を実行して基準点を生成し2次元ベクトルとして記憶してもよい。   The feature point generation unit stores the position of the generated feature point in, for example, an accompanying memory. The feature point generation unit stores each feature point with coordinates on a coordinate plane having two coordinate axes (typically, an X axis and a Y axis) that are orthogonal to each other. That is, each feature point is stored as a two-dimensional vector having an X component and a Y component. The feature point generation unit may generate a reference point in the same manner as the feature point generation process described above. That is, the feature point generation unit may generate a reference point by executing a feature point generation process on the reference image and store it as a two-dimensional vector.

一実施例においては、特徴点生成部は、位置を示す成分に新たな成分を加えて3次元以上の次元を有するベクトルとして特徴点ベクトル及び基準点ベクトルを生成してもよい。例えば、特徴点ベクトルは、その特徴点の性質を示す次元を有してもよい。特徴点の性質としては例えば、その特徴点が実体特徴点または仮想特徴点のいずれであるか、その特徴点が端点であるか交点であるかなどがある。特徴点ベクトルの第3の成分は例えば、その特徴点が実体特徴点である場合に「1」を割り当て、その特徴点が仮想特徴点である場合に「0」を割り当ててもよい。その他の特徴点の性質としては例えば、その特徴点近傍の特徴点分布密度を示す指標(例えば特徴点近傍の特徴点分布の空間周波数)であってもよいし、その特徴点の基礎となったパターンの画素の性質(例えば輝度や色彩等)であってもよい。また、特徴点ベクトルの第3の成分は、パターンを表す線分から特徴点を生成する場合には、線分に関連していてもよい。例えば特徴点が2つの線分の交点である場合には、特徴点ベクトルの新たな成分として、線分の交差する角度を入れてもよい。この場合、特徴点が線分の端点である場合には、交差角度としてはあり得ない値(例えばゼロ)とすることにより、その特徴点が交点であるか端点であるかを識別することもできる。   In one embodiment, the feature point generation unit may generate a feature point vector and a reference point vector as a vector having three or more dimensions by adding a new component to the component indicating the position. For example, the feature point vector may have a dimension indicating the nature of the feature point. The characteristics of the feature point include, for example, whether the feature point is an actual feature point or a virtual feature point, and whether the feature point is an end point or an intersection. For example, “1” may be assigned to the third component of the feature point vector when the feature point is an actual feature point, and “0” may be assigned when the feature point is a virtual feature point. Another feature point property may be, for example, an index indicating the feature point distribution density in the vicinity of the feature point (for example, the spatial frequency of the feature point distribution in the vicinity of the feature point), which is the basis of the feature point The pixel characteristics of the pattern (for example, brightness, color, etc.) may be used. The third component of the feature point vector may be related to the line segment when generating the feature point from the line segment representing the pattern. For example, when the feature point is an intersection of two line segments, an angle at which the line segments intersect may be entered as a new component of the feature point vector. In this case, if the feature point is an end point of a line segment, it is possible to identify whether the feature point is an intersection or an end point by setting the intersection angle to a value that is not possible (for example, zero). it can.

また、一実施例においては、特徴点生成部は、線分抽出処理を省略し、入力画像上のパターンから特徴点を直接生成するようにしてもよい。この場合、特徴点生成部は適宜の公知のパターン認識処理を用いてもよい。特徴点生成部は、生成された特徴点を互いに接続する直線を仮想的に形成し、これらの仮想直線の交点を仮想特徴点としてもよい。   In one embodiment, the feature point generation unit may omit the line segment extraction process and directly generate the feature points from the pattern on the input image. In this case, the feature point generation unit may use an appropriate known pattern recognition process. The feature point generation unit may virtually form a straight line connecting the generated feature points to each other, and an intersection of these virtual straight lines may be a virtual feature point.

図4は、本発明の一実施形態に係る線分抽出処理を模式的に示す図である。上述のように、線分抽出処理は、入力された画像上のパターンを複数の線分の集まりとしてパターンから抽出する処理である。線分抽出処理は例えば、特徴点生成部のパターン認識部により実行される。パターン認識部はまず、線分を抽出する画像1050の入力を受ける。入力画像1050はパターン1052を含む。入力画像1050が電子基板画像の一部分である場合には、パターン1052は例えば配線パターンである。   FIG. 4 is a diagram schematically showing line segment extraction processing according to an embodiment of the present invention. As described above, the line segment extraction process is a process of extracting the pattern on the input image from the pattern as a collection of a plurality of line segments. The line segment extraction process is executed, for example, by the pattern recognition unit of the feature point generation unit. The pattern recognition unit first receives an input of an image 1050 for extracting a line segment. The input image 1050 includes a pattern 1052. When the input image 1050 is a part of the electronic board image, the pattern 1052 is, for example, a wiring pattern.

パターン認識部は、パターンを表す代表画素を選択する代表画素選択処理を実行する。代表画素選択処理は図4において最左欄に示す。パターン認識部は、入力画像1050の各画素の輝度を測定し、測定輝度としきい値を比較して代表画素を選択する。具体的には例えば、パターン認識部は、入力画像1050をX方向(図4において横方向)及びY方向(図4において縦方向)のそれぞれについて一定間隔おきに複数位置で走査し、各走査位置でのX方向及びY方向に沿う測定輝度列1058を取得する。図4においては、X方向の輝度測定を矢印1054で示し、Y方向の輝度測定を矢印1056で示す。   The pattern recognition unit executes a representative pixel selection process for selecting a representative pixel representing the pattern. The representative pixel selection process is shown in the leftmost column in FIG. The pattern recognition unit measures the luminance of each pixel of the input image 1050 and compares the measured luminance with a threshold value to select a representative pixel. Specifically, for example, the pattern recognition unit scans the input image 1050 at a plurality of positions at regular intervals in the X direction (horizontal direction in FIG. 4) and the Y direction (vertical direction in FIG. 4). The measurement brightness | luminance row | line | column 1058 along X direction and Y direction in is acquired. In FIG. 4, luminance measurement in the X direction is indicated by an arrow 1054, and luminance measurement in the Y direction is indicated by an arrow 1056.

パターン認識部は例えば、測定輝度列1058のうち輝度しきい値よりも暗い部分1060から代表画素を選択する。なお図4に示される実施例においては入力画像1050上でパターン1052が周囲よりも暗いことがわかっているので輝度しきい値よりも暗い部分1060から代表画素を選択するが、パターン認識部は、入力画像1050上でパターン1052が周囲よりも明るい場合には輝度しきい値よりも明るい部分から代表画素を選択してもよい。輝度しきい値はパターン1052を周囲と識別することができるように適宜設定すればよく、例えば、パターン1052の平均的な輝度値と周囲の例えばレジストの平均的な輝度値との中間値に設定してもよい。   For example, the pattern recognition unit selects a representative pixel from a portion 1060 that is darker than the luminance threshold in the measured luminance column 1058. In the embodiment shown in FIG. 4, since it is known that the pattern 1052 is darker than the surroundings on the input image 1050, the representative pixel is selected from the portion 1060 that is darker than the luminance threshold value. When the pattern 1052 is brighter than the surroundings on the input image 1050, the representative pixel may be selected from a portion brighter than the luminance threshold. The luminance threshold value may be set as appropriate so that the pattern 1052 can be distinguished from the surroundings. For example, the luminance threshold value is set to an intermediate value between the average luminance value of the pattern 1052 and the average luminance value of the surroundings, for example, the resist. May be.

パターン認識部は、輝度しきい値よりも暗い部分1060(パターン1052が周囲よりも明るい場合には明るい部分)の中点1062に位置する画素を代表画素として選択する。なお、代表画素として輝度しきい値よりも暗い部分1060または明るい部分の中点以外の画素を選択することも可能である。例えば、輝度しきい値に最も近い輝度値をとる画素を代表画素としてもよい。このようにしてパターンを表す代表画素1062を選択した結果、図4の中央部に示されるように、入力画像1050における代表画素分布図1064が得られる。   The pattern recognition unit selects, as a representative pixel, a pixel located at the midpoint 1062 that is darker than the luminance threshold 1060 (or brighter if the pattern 1052 is brighter than the surroundings). It is also possible to select a pixel other than the midpoint of the darker portion 1060 or the brighter portion than the luminance threshold as the representative pixel. For example, a pixel having a luminance value closest to the luminance threshold may be used as the representative pixel. As a result of selecting the representative pixel 1062 representing the pattern in this way, a representative pixel distribution chart 1064 in the input image 1050 is obtained as shown in the center of FIG.

パターン認識部は、入力画像1050のパターン1052を含む部分を複数の分割画像に分割する。例えば図4に示されるように、パターン1052を含む部分を多数の格子状分割画像1066に分割する。言い換えれば、パターン認識部は、代表画素分布図1064において近接する代表画素1062をグループ化する。パターン認識部は例えば、基準となる代表画素1062を定め、その基準代表画素から所定距離内にある近傍の代表画素1062を1つのグループとする。   The pattern recognition unit divides a portion including the pattern 1052 of the input image 1050 into a plurality of divided images. For example, as shown in FIG. 4, the portion including the pattern 1052 is divided into a large number of grid-like divided images 1066. In other words, the pattern recognition unit groups adjacent representative pixels 1062 in the representative pixel distribution chart 1064. For example, the pattern recognizing unit determines a representative pixel 1062 as a reference, and sets neighboring representative pixels 1062 within a predetermined distance from the reference representative pixel as one group.

パターン認識部は、分割画像1066の大きさすなわち隣接基準代表画素間距離をパターン1052の配列に基づいて設定する。パターン認識部は例えば、パターン1052の設計情報、または被検査体画像に対する空間周波数測定から最小のパターン間隔を取得し、隣接基準代表画素間距離を最小パターン間隔よりも小さい値に設定する。このようにすれば、1つの分割画像1066に含まれる代表画素分布が複数の線分を形成しないことが保証される。よって、1つの分割画像1066中に分布する代表画素を1つの線分として抽出することが合理的となる。   The pattern recognition unit sets the size of the divided image 1066, that is, the distance between adjacent reference representative pixels based on the arrangement of the patterns 1052. For example, the pattern recognition unit acquires the minimum pattern interval from the design information of the pattern 1052 or the spatial frequency measurement for the inspected object image, and sets the distance between adjacent reference representative pixels to a value smaller than the minimum pattern interval. In this way, it is ensured that the representative pixel distribution included in one divided image 1066 does not form a plurality of line segments. Therefore, it is reasonable to extract representative pixels distributed in one divided image 1066 as one line segment.

パターン認識部は、1つの分割画像1066に含まれる代表画素1062を最もよく表す部分線分1068を抽出する。パターン認識部は、各代表画素1062に例えば最小二乗法を適用して部分線分1068を抽出する。パターン認識部は、すべての分割画像1066に対して部分線分1068の抽出を行う。   The pattern recognition unit extracts a partial line segment 1068 that best represents the representative pixel 1062 included in one divided image 1066. The pattern recognition unit extracts a partial line segment 1068 by applying, for example, the least square method to each representative pixel 1062. The pattern recognition unit extracts partial line segments 1068 for all the divided images 1066.

さらに、パターン認識部は、隣接する分割画像1066の部分線分1068を結合する処理を実行する。パターン認識部は、隣接する分割画像1066の境界1070上の隣接する2本の部分線分1068の端点が十分に近接し、かつ隣接する2本の部分線分1068の傾きが実質的に等しい場合には、2本の隣接する部分線分1068を1本の共通の線分1072に結合する。図4の右欄上方にこの例をしめす。パターン認識部は、2本の部分線分1068の端点間の距離がしきい値より小さい場合に、端点が十分に近接すると判定する。また、パターン認識部は、2本の隣接する部分線分1068の傾きの差がしきい値より小さい場合に、傾きが実質的に等しいと判定する。   Further, the pattern recognition unit executes processing for combining the partial line segments 1068 of the adjacent divided images 1066. The pattern recognition unit is configured such that the end points of two adjacent partial line segments 1068 on the boundary 1070 of adjacent divided images 1066 are sufficiently close and the inclinations of the two adjacent partial line segments 1068 are substantially equal. , Two adjacent partial line segments 1068 are combined into one common line segment 1072. This example is shown above the right column of FIG. The pattern recognition unit determines that the end points are sufficiently close when the distance between the end points of the two partial line segments 1068 is smaller than the threshold value. The pattern recognition unit determines that the slopes are substantially equal when the difference in slope between two adjacent partial line segments 1068 is smaller than the threshold value.

また、パターン認識部は、隣接する分割画像1066の境界1070上の隣接する2本の部分線分1068の端点が十分に近接し、かつ隣接する2本の部分線分1068の傾きが実質的に異なる場合には、2本の隣接する部分線分1068を折れ線1074に結合する。図4の右欄下方にこの例をしめす。この場合、隣接する分割画像1066の境界1070上に折れ点1076が形成される。この折れ点1076は実体特徴点の候補となる。パターン認識部は、2本の隣接する部分線分1068の傾きの差がしきい値より大きい場合に、傾きが実質的に異なると判定する。一方、パターン認識部は、隣接する2本の部分線分1068の端点が近接していない場合、つまり端点間の距離がしきい値より大きい場合には、部分線分1068を結合しない。   In addition, the pattern recognition unit is such that the end points of two adjacent partial line segments 1068 on the boundary 1070 of adjacent divided images 1066 are sufficiently close to each other, and the inclination of the two adjacent partial line segments 1068 is substantially equal. If they are different, two adjacent partial line segments 1068 are joined to the broken line 1074. An example of this is shown below the right column of FIG. In this case, a folding point 1076 is formed on the boundary 1070 between the adjacent divided images 1066. This break point 1076 is a candidate for an entity feature point. The pattern recognition unit determines that the inclination is substantially different when the difference between the inclinations of two adjacent partial line segments 1068 is larger than the threshold value. On the other hand, the pattern recognition unit does not combine the partial line segments 1068 when the end points of the two adjacent partial line segments 1068 are not close to each other, that is, when the distance between the end points is larger than the threshold value.

パターン認識部は、隣接する2つの分割画像1066のすべての組について部分線分1068を結合するか否かを判定する。パターン認識部は、複数の隣接する部分線分1068を1本の共通の線分に結合する場合には、結合前の部分線分を構成する代表画素に最小二乗法を再度適用して1本の結合線分を作成する。すなわち、複数の隣接する分割画像1066に分布する各代表画素1062に最小二乗法を適用して結合線分1072を再計算する。このようにして、入力された画像上のパターンを複数の線分の集まりとしてパターンから抽出することができる。   The pattern recognition unit determines whether or not to combine the partial line segments 1068 for all the sets of two adjacent divided images 1066. When combining a plurality of adjacent partial line segments 1068 into one common line segment, the pattern recognizing unit applies the least square method again to the representative pixels constituting the partial line segment before combining, Create a connecting line segment. That is, the combined line segment 1072 is recalculated by applying the least square method to each representative pixel 1062 distributed in a plurality of adjacent divided images 1066. In this way, the pattern on the input image can be extracted from the pattern as a collection of a plurality of line segments.

なお、一実施例においては、検査装置の検査部は、被検査体画像のパターンから抽出された線分の配列を、基準画像のパターンから抽出された線分の配列と比較することにより、被検査体画像のパターンの良否を判定してもよい。このようにすれば、例えば被検査体が電子基板である場合には、配線パターンの断線を検出することもできるようになる。   In one embodiment, the inspection unit of the inspection apparatus compares the array of line segments extracted from the pattern of the inspected object image with the array of line segments extracted from the pattern of the reference image. The quality of the pattern of the inspection object image may be determined. In this way, for example, when the object to be inspected is an electronic substrate, it is possible to detect disconnection of the wiring pattern.

次に、本発明の一実施形態に係る位置ずれ量の演算処理について更に詳しく説明する。一実施形態においては、位置ずれ量演算部は、特徴点を表す特徴点ベクトルと基準点を表す基準点ベクトルとの差を表す変位ベクトルを生成するベクトル生成部と、変位ベクトルを複数の区分に分類するベクトル分類部と、を含む。ベクトル生成部は、複数の特徴点ベクトルのうち任意の1つと複数の基準点ベクトルのうち任意の1つとの差を変位ベクトルとして生成する処理を反復して複数の変位ベクトルを生成する。   Next, the positional deviation amount calculation processing according to an embodiment of the present invention will be described in more detail. In one embodiment, the positional deviation amount calculation unit includes a vector generation unit that generates a displacement vector that represents a difference between a feature point vector that represents a feature point and a reference point vector that represents a reference point, and the displacement vector is divided into a plurality of sections. A vector classifying unit for classifying. The vector generation unit generates a plurality of displacement vectors by repeating a process of generating a difference between any one of the plurality of feature point vectors and any one of the plurality of reference point vectors as a displacement vector.

ベクトル生成部は、特徴点と基準点との被検査体画像上の位置の差を表す位置成分とは異なる成分を変位ベクトルに付加してもよい。ベクトル分類部は、付加された成分と位置成分とに基づいて変位ベクトルを分類してもよい。この場合、ベクトル分類部は、付加された成分により変位ベクトルを予備的に複数の区分に分類したうえで、予備的に分類された各区分において位置成分により変位ベクトルをさらに複数の区分に分類してもよい。   The vector generation unit may add a component that is different from a position component that represents a difference in position between the feature point and the reference point on the inspection object image to the displacement vector. The vector classification unit may classify the displacement vector based on the added component and the position component. In this case, the vector classifying unit preliminarily classifies the displacement vector into a plurality of sections based on the added component, and further classifies the displacement vector into a plurality of sections based on the position component in each preliminarily classified section. May be.

位置ずれ量演算部は、特徴点とその特徴点に対応する基準点との対応関係をいわば事後的に取得する。つまり、位置ずれ量演算部は、位置ずれ量の演算に使用する特徴点を生成してから、各特徴点がそれぞれどの基準点に対応しているかを決定する。よって、位置ずれ量演算部は、特徴点と基準点との対応関係が未知である場合に自動的に対応関係を取得して位置ずれ量を演算することができる。   The misregistration amount calculation unit obtains the correspondence relationship between the feature point and the reference point corresponding to the feature point after the fact. That is, the misregistration amount calculation unit determines which reference point each feature point corresponds to after generating a feature point used for calculating the misregistration amount. Therefore, when the correspondence between the feature point and the reference point is unknown, the positional deviation amount calculation unit can automatically obtain the correspondence and calculate the positional deviation amount.

位置ずれ量演算部は例えば、複数の特徴点のそれぞれについてベクトル生成範囲内の複数の基準点からの変位を表すベクトルを生成して分類し、変位ベクトルの分類結果に基づいて被検査体画像の位置ずれ量を演算してもよい。位置ずれ量演算部は、始点を共通の原点としたときの終点の位置に応じて変位ベクトルを複数の区分に分類し、最も高頻度である区分に基づいて位置ずれ量を演算してもよい。位置ずれ量演算部は、変位ベクトルの次元に等しい次元を有する空間を例えば格子状に区分し、変位ベクトルの終点が位置する区分により分類してもよい。   For example, the misregistration amount calculation unit generates and classifies a vector representing displacement from a plurality of reference points within the vector generation range for each of a plurality of feature points, and based on the classification result of the displacement vector, A positional deviation amount may be calculated. The misregistration amount calculation unit may classify the displacement vector into a plurality of categories according to the position of the end point when the start point is the common origin, and calculate the misregistration amount based on the most frequent category. . The misregistration amount calculation unit may classify a space having a dimension equal to the dimension of the displacement vector, for example, in a lattice shape, and classify it according to a section where the end point of the displacement vector is located.

図5及び図6は、本発明の一実施形態に係る変位ベクトル分類処理を模式的に示す図である。位置ずれ量演算部はまず、メモリから入力画像の位置補正範囲1080に含まれる特徴点1082、1083、1084の入力を受ける。それとともに、位置ずれ量演算部は位置補正範囲1080に含まれる基準点1085、1086、1087の入力を受ける。図5及び図6においては特徴点を白丸で示し、基準点を三角で示す。   5 and 6 are diagrams schematically showing displacement vector classification processing according to an embodiment of the present invention. First, the misregistration amount calculation unit receives input of feature points 1082, 1083, and 1084 included in the position correction range 1080 of the input image from the memory. At the same time, the misregistration amount calculation unit receives inputs of reference points 1085, 1086, and 1087 included in the position correction range 1080. In FIG. 5 and FIG. 6, feature points are indicated by white circles, and reference points are indicated by triangles.

図5及び図6においては説明をわかりやすくするために、位置補正範囲1080に第1特徴点1082、第2特徴点1083、第3特徴点1084の3つの特徴点だけが存在する例を示す。同様に基準点も第1基準点1085、第2基準点1086、第3基準点1087の3つだけが位置補正範囲1080に存在する。なお、一般には特徴点と基準点との対応関係及び位置ずれ量は未知であるから、位置補正範囲1080における特徴点と基準点の数は同数であるとは限らない。   5 and 6 show an example in which only three feature points of the first feature point 1082, the second feature point 1083, and the third feature point 1084 exist in the position correction range 1080 for easy understanding. Similarly, only three reference points, the first reference point 1085, the second reference point 1086, and the third reference point 1087, exist in the position correction range 1080. In general, since the correspondence between the feature points and the reference points and the amount of positional deviation are unknown, the number of feature points and reference points in the position correction range 1080 is not necessarily the same.

位置ずれ量演算部は、各特徴点についてベクトル生成範囲内の基準点からの変位を表す変位ベクトルを生成する。ここで、ベクトル生成範囲は位置補正範囲1080に一致する領域である。また、変位ベクトルは一般には、基準点の位置ベクトルと特徴点の位置ベクトルとの差で与えられる。この変位ベクトル生成処理を図5では矢印1088で示す。   The positional deviation amount calculation unit generates a displacement vector representing the displacement from the reference point within the vector generation range for each feature point. Here, the vector generation range is an area that matches the position correction range 1080. The displacement vector is generally given by the difference between the position vector of the reference point and the position vector of the feature point. This displacement vector generation processing is indicated by an arrow 1088 in FIG.

まず、位置ずれ量演算部は、第1特徴点1082を始点とし第1乃至第3基準点1085、1086、1087のそれぞれを終点とする変位ベクトル1090、1091、1092を求める(図5中央上段)。また、位置ずれ量演算部は、第2特徴点1083を始点とし第1乃至第3基準点1085、1086、1087のそれぞれを終点とする変位ベクトル1093、1094、1095を求める(図5中央中段)。さらに同様にして、位置ずれ量演算部は、第3特徴点1084を始点とし第1乃至第3基準点1085、1086、1087のそれぞれを終点とする変位ベクトル1096、1097、1098を求める(図5中央下段)。   First, the misregistration amount calculation unit obtains displacement vectors 1090, 1091, and 1092 starting from the first feature point 1082 and ending at the first to third reference points 1085, 1086, and 1087, respectively (upper center in FIG. 5). . The misregistration amount calculation unit obtains displacement vectors 1093, 1094, and 1095 starting from the second feature point 1083 and ending at the first to third reference points 1085, 1086, and 1087, respectively (the middle stage in FIG. 5). . Similarly, the misregistration amount calculation unit obtains displacement vectors 1096, 1097, and 1098 starting from the third feature point 1084 and ending at the first to third reference points 1085, 1086, and 1087, respectively (FIG. 5). Lower center).

次に、位置ずれ量演算部は、変位ベクトル分類処理1100を実行する。位置ずれ量演算部は、生成した変位ベクトル1090乃至1098を共通のXY平面上にクラスタリングする。つまり、位置ずれ量演算部は、変位ベクトル1090乃至1098の始点を共通の原点に一致させたときの終点の位置によって変位ベクトル1090乃至1098を分類する。その結果、図示されるように3つの変位ベクトル1090、1094、1098は重なり合うが、その他の変位ベクトルはすべて異なる位置に終点を有する。第1特徴点1082から第1基準点1085への変位ベクトル1090と、第2特徴点1083から第2基準点1086への変位ベクトル1094と、第3特徴点1084から第3基準点1087への変位ベクトル1098と、が重なり合っている。   Next, the positional deviation amount calculation unit executes a displacement vector classification process 1100. The misregistration amount calculation unit clusters the generated displacement vectors 1090 to 1098 on a common XY plane. That is, the misregistration amount calculation unit classifies the displacement vectors 1090 to 1098 according to the position of the end point when the start points of the displacement vectors 1090 to 1098 coincide with the common origin. As a result, as shown, the three displacement vectors 1090, 1094, 1098 overlap, but the other displacement vectors all have endpoints at different positions. Displacement vector 1090 from first feature point 1082 to first reference point 1085, displacement vector 1094 from second feature point 1083 to second reference point 1086, and displacement from third feature point 1084 to third reference point 1087 Vector 1098 overlaps.

この場合、第1特徴点1082と第1基準点1085とが対応しており、第2特徴点1083と第2基準点1086とが対応しており、第3特徴点1084と第3基準点1087とが対応していると結論づけることができる。また、特徴点と基準点との対応関係を示す変位ベクトル1090、1094、1098が、特徴点と基準点との位置ずれ量を表していると言える。   In this case, the first feature point 1082 and the first reference point 1085 correspond, the second feature point 1083 and the second reference point 1086 correspond, and the third feature point 1084 and the third reference point 1087. Can be concluded. In addition, it can be said that the displacement vectors 1090, 1094, and 1098 indicating the correspondence between the feature points and the reference points represent the amount of positional deviation between the feature points and the reference points.

よって、位置ずれ量演算部は、特徴点と基準点との対応関係を示す変位ベクトル1090、1094、1098を位置補正範囲1080の位置ずれ量と決定する。なお、実際には例えば測定誤差の影響により、特徴点と基準点との対応関係を示す変位ベクトル1090、1094、1098が厳密には一致しないこともある。よって、位置ずれ量演算部は、最も高頻度である分類区分に含まれる変位ベクトルを平均して位置ずれ量を決定してもよい。   Therefore, the positional deviation amount calculation unit determines the displacement vectors 1090, 1094, and 1098 indicating the correspondence between the feature points and the reference points as the positional deviation amount of the position correction range 1080. Actually, the displacement vectors 1090, 1094, and 1098 indicating the correspondence between the feature points and the reference points may not exactly match due to, for example, the influence of the measurement error. Therefore, the displacement amount calculation unit may determine the displacement amount by averaging the displacement vectors included in the most frequently classified category.

一方、図6は、例えば被検査体画像が不鮮明であることにより第3特徴点1084を生成することができなかった場合を示す。この場合でも、生成することができた第1特徴点1082及び第2特徴点1083に対して変位ベクトル生成処理1088及び変位ベクトル分類処理1100を実行することにより、位置ずれ量1090、1094を決定することができる。よって、上述の変位ベクトル分類処理により、一部の特徴点を生成することができなかった場合であっても精度の高い位置補正を行うことができる。   On the other hand, FIG. 6 shows a case where the third feature point 1084 could not be generated due to, for example, the inspected object image being unclear. Even in this case, the displacement vector generation processing 1088 and the displacement vector classification processing 1100 are executed on the first feature point 1082 and the second feature point 1083 that can be generated, thereby determining the displacement amounts 1090 and 1094. be able to. Therefore, even when some feature points cannot be generated by the above-described displacement vector classification process, highly accurate position correction can be performed.

なお、上述の実施例ではベクトル生成範囲を位置補正範囲に一致させ、位置補正範囲内のすべての特徴点及び基準点について変位ベクトルを生成しているが、これに限られない。ベクトル生成範囲は、位置補正範囲の一部であってもよく、位置補正範囲内の各特徴点に共通の領域であってもよい。あるいはベクトル生成範囲は、特徴点ごとに異なっていてもよく、例えば各特徴点の近傍領域であってもよい。ベクトル生成範囲は、想定される位置ずれ量を含むように設定することが好ましい。ベクトル生成範囲を小さくすることにより、変位ベクトル生成処理に要する計算量を小さくすることができる。   In the above-described embodiment, the vector generation range is made to coincide with the position correction range, and the displacement vectors are generated for all feature points and reference points in the position correction range. However, the present invention is not limited to this. The vector generation range may be a part of the position correction range, or may be a region common to each feature point in the position correction range. Alternatively, the vector generation range may be different for each feature point, for example, a region near each feature point. It is preferable that the vector generation range is set so as to include an assumed positional deviation amount. By reducing the vector generation range, the amount of calculation required for the displacement vector generation process can be reduced.

また、上述の実施例では、特徴点ベクトル及び基準点ベクトルを2次元ベクトルとしているので変位ベクトルも2次元ベクトルであるが、これに限られない。上述のように特徴点ベクトル及び基準点ベクトルを3次元以上の次元を有するベクトルとした場合には、変位ベクトルもこれに等しい次元のベクトルとなる。   In the above-described embodiment, since the feature point vector and the reference point vector are two-dimensional vectors, the displacement vector is also a two-dimensional vector, but is not limited thereto. As described above, when the feature point vector and the reference point vector are vectors having three or more dimensions, the displacement vector is also a vector having the same dimension.

あるいは、位置ずれ量演算部は、追加された新たな次元に基づいて特徴点ベクトルを複数の特徴点ベクトル群に予備的に分類してから、各ベクトル群について変位ベクトル生成処理を実行してもよい。変位ベクトルの予備的分類は、各ベクトル群ごとに個別の分類空間で行う。例えば、実体特徴点と仮想特徴点とに分類し、基準点も同様に実体点と仮想点とに分類し、実体点と仮想点とでそれぞれ別々に変位ベクトル生成処理を実行してもよい。実体特徴点と仮想基準点とはそもそも対応するはずがないから、無駄な変位ベクトルを求めなくても済む。変位ベクトル分類処理は、実体特徴点の変位ベクトルと仮想特徴点の変位ベクトルとを共通のXY平面に分類する。このようにすれば、実体特徴点と仮想特徴点とを区別することなく一律に変位ベクトルを生成し分類した場合と同レベルの精度で位置ずれ量を求めることが可能である。   Alternatively, the positional deviation amount calculation unit may preliminarily classify the feature point vectors into a plurality of feature point vector groups based on the added new dimension, and then execute a displacement vector generation process for each vector group. Good. The preliminary classification of the displacement vectors is performed in an individual classification space for each vector group. For example, the feature points may be classified into entity feature points and virtual feature points, the reference points may be similarly classified into entity points and virtual points, and the displacement vector generation processing may be executed separately for each of the entity points and the virtual points. Since the entity feature point and the virtual reference point cannot correspond to each other, it is not necessary to obtain a useless displacement vector. In the displacement vector classification process, the displacement vector of the actual feature point and the displacement vector of the virtual feature point are classified into a common XY plane. In this way, it is possible to obtain the positional deviation amount with the same level of accuracy as when the displacement vector is uniformly generated and classified without distinguishing between the actual feature point and the virtual feature point.

一実施形態においては、被検査体の検査装置は、被検査体を照明する照明光源と、照明された被検査体からの光を受けるセンサと、センサ出力に基づく被検査体の検査を制御するメイン制御ユニットと、を備えてもよい。検査装置は、被検査体からの光をセンサへと導く光学系と、センサと被検査体とを相対的に移動させる移動機構と、を備えてもよい。センサは撮像部であってもよい。   In one embodiment, an inspection apparatus for an object to be inspected controls an illumination light source that illuminates the object to be inspected, a sensor that receives light from the illuminated object to be inspected, and an inspection of the object to be inspected based on the sensor output. A main control unit. The inspection apparatus may include an optical system that guides light from the object to be inspected to the sensor, and a moving mechanism that relatively moves the sensor and the object to be inspected. The sensor may be an imaging unit.

図7は、本発明の一実施形態に係る外観検査装置10の構成を模式的に示す図である。この装置は、被検査体の検査面をラインセンサで走査して画像を形成し、画像認識によって被検査体の部品実装状態等の合否を判定するものである。ラインセンサによる撮像ラインに対して垂直に走査ヘッドを駆動することで順次ラインごとの画像が得られ、走査ヘッドの一次元運動で検査が完了する。   FIG. 7 is a diagram schematically showing the configuration of the appearance inspection apparatus 10 according to an embodiment of the present invention. This apparatus scans the inspection surface of the object to be inspected with a line sensor to form an image, and determines pass / fail of the component mounting state of the object to be inspected by image recognition. By driving the scanning head perpendicular to the imaging line by the line sensor, an image for each line is sequentially obtained, and the inspection is completed by one-dimensional movement of the scanning head.

図7のごとく、外観検査装置10は、メインユニット12と試験ユニット14を備える。試験ユニット14の下部には支持台22が設けられ、被検査体である基板1が把持される。支持台22にはコンベアが設けられており、被検査体である基板1が把持された状態で、例えば、他の工程から一定の速度で流れてくるようになっている。試験ユニット14の上部には、走査ヘッド16と、それを駆動するステッピングモータ20と、走査ヘッド16を支持するリニアガイド等のガイド18が設けられている。   As shown in FIG. 7, the appearance inspection apparatus 10 includes a main unit 12 and a test unit 14. A support base 22 is provided below the test unit 14 to hold the substrate 1 as an object to be inspected. The support 22 is provided with a conveyor so that, for example, the substrate 1 that is the object to be inspected is gripped and flows from another process at a constant speed. Above the test unit 14, a scanning head 16, a stepping motor 20 that drives the scanning head 16, and a guide 18 such as a linear guide that supports the scanning head 16 are provided.

走査ヘッド16は照明ユニット30、レンズ32およびラインセンサ34を有する。これらの部材はフレーム36上に固定されている。照明ユニット30は、後述の落射照明源、側方照明源、ハーフミラーなどを内蔵する。基板1から垂直上方への反射光はミラーでレンズ32へ導かれ、レンズ32を通過した後、一次元CCDセンサであるラインセンサ34へ入力される。ラインセンサ34はライン単位に基板1を撮像してその画像データ54を出力する。   The scanning head 16 has an illumination unit 30, a lens 32, and a line sensor 34. These members are fixed on the frame 36. The illumination unit 30 incorporates an epi-illumination source, a side illumination source, a half mirror and the like which will be described later. Reflected light vertically upward from the substrate 1 is guided to the lens 32 by a mirror, and after passing through the lens 32, is input to the line sensor 34 which is a one-dimensional CCD sensor. The line sensor 34 images the substrate 1 line by line and outputs the image data 54.

ラインセンサ34は、それぞれがRGB3色のいずれかに対応した赤色撮像素子列、緑色撮像素子列、青色撮像素子列とからなる。これら素子列は5000個〜10000個の撮像素子が配置されて構成される。赤色撮像素子列は、赤色成分を抽出する赤色カラーフィルタがその入射面に設けられる。同様に、緑色撮像素子列と青色撮像素子列の入射面に、それぞれ緑色成分を抽出する緑色カラーフィルタと青色成分を抽出する青色カラーフィルタとが設けられる。よって、ラインセンサ34は、赤成分画像、青成分画像、及び緑成分画像をメインユニット12に出力する。   The line sensor 34 includes a red imaging element array, a green imaging element array, and a blue imaging element array, each corresponding to one of RGB three colors. These element arrays are configured by arranging 5000 to 10000 image sensors. The red image sensor array is provided with a red color filter for extracting a red component on an incident surface thereof. Similarly, a green color filter for extracting a green component and a blue color filter for extracting a blue component are provided on the incident surfaces of the green image pickup device row and the blue image pickup device row, respectively. Therefore, the line sensor 34 outputs a red component image, a blue component image, and a green component image to the main unit 12.

これらRGB3色の画像には、各色の撮像素子の配置に起因してわずかな位置ズレが生じる場合がある。この位置ズレを解消するための位置補正をしながら合成することによって、ズレのない検査用カラー画像を生成してもよい。RGB3色の画像の位置補正および合成は、ラインセンサ34からメモリ44へ取り込む際にメモリ制御ユニットによって実行してもよいし、RGB3色の画像を別個にメモリ44へ取り込んでおき、後に解析ユニット46によって位置補正および合成を実行してもよい。また、解析ユニット46は、RGB3色の画像のいずれかを検査用画像として選択してもよい。   In these RGB three-color images, a slight positional shift may occur due to the arrangement of the image pickup elements of the respective colors. A color image for inspection with no deviation may be generated by combining while correcting the position to eliminate the deviation. The position correction and composition of the RGB three-color image may be executed by the memory control unit when fetching from the line sensor 34 to the memory 44, or the RGB three-color image may be fetched separately into the memory 44 and later analyzed. Position correction and composition may be executed by Further, the analysis unit 46 may select any of the RGB three-color images as the inspection image.

試験ユニット14には、検査前の待機状態における待機位置にある走査ヘッド16と対向する位置にシェーディング補正用の基準プレート60が設けられている。基準プレート60は、基準プレート60の位置を調整する位置調整機構(図示せず)に接続されている。基準プレート60は、蛍光増白剤を含む樹脂製の白色の板状部材である。基準プレート60に代えて、蛍光増白剤を含む樹脂製の白色シートであってもよい。   The test unit 14 is provided with a reference plate 60 for shading correction at a position facing the scanning head 16 at a standby position in a standby state before inspection. The reference plate 60 is connected to a position adjustment mechanism (not shown) that adjusts the position of the reference plate 60. The reference plate 60 is a resin-made white plate-like member containing a fluorescent brightening agent. Instead of the reference plate 60, a resin white sheet containing a fluorescent brightening agent may be used.

メインユニット12は、本装置全体を統括的に制御するもので、ハードウエアとしては、任意のコンピュータのCPU、メモリ、その他のLSIで実現でき、ソフトウエアとしてはメモリにロードされたコーティング検査機能のあるプログラムなどによって実現されるが、ここではそれらの連携によって実現される機能ブロックを描いている。したがって、これらの機能ブロックがハードウエアのみ、ソフトウエアのみ、またはそれらの組合せによっていろいろな形で実現できることは、当業者には理解されるところである。   The main unit 12 controls the entire apparatus as a whole. The hardware can be realized by a CPU, memory, or other LSI of any computer, and the software has a coating inspection function loaded in the memory. It is realized by a certain program or the like, but here, functional blocks realized by their cooperation are drawn. Accordingly, those skilled in the art will understand that these functional blocks can be realized in various forms by hardware only, software only, or a combination thereof.

メインユニット12のヘッド制御ユニット40はまず、照明制御クロック50(以下、同期信号ともいう)を照明ユニット30へ供給し、1ライン毎に落射照明と側方照明とを交互に切り替えて点灯させる。ヘッド制御ユニット40はさらに、モータ制御信号52をモータ20へ、試験開始信号56をメモリ制御ユニット42へそれぞれ出力する。モータ制御信号52によってモータ20のステップ制御がなされ、検査の開始に際し、走査ヘッド16が基板1の端部へ移動する。以下、この位置を「スタート位置」という。以降、1ライン撮像するたびにモータ制御信号52によって走査ヘッド16が1ライン分進行する。一方、試験開始信号56を参照し、メモリ制御ユニット42はメモリ44への画像データ54の書込を制御し、以降、画像データ54がライン単位で記録されていく。画像データ54は、落射照明で撮像されたものと、側方照明で撮像されたものとが1ライン毎に選択的に入力され、全ラインの撮像が終わると、メモリ44内には、落射照明で撮像された画像と、側方照明で撮像された画像とが形成される。   First, the head control unit 40 of the main unit 12 supplies an illumination control clock 50 (hereinafter also referred to as a synchronization signal) to the illumination unit 30, and switches on and turns off the epi-illumination and the side illumination for each line. The head control unit 40 further outputs a motor control signal 52 to the motor 20 and a test start signal 56 to the memory control unit 42, respectively. The motor 20 is step-controlled by the motor control signal 52, and the scanning head 16 moves to the end of the substrate 1 at the start of inspection. Hereinafter, this position is referred to as a “start position”. Thereafter, every time one line is imaged, the scanning head 16 advances by one line by the motor control signal 52. On the other hand, referring to the test start signal 56, the memory control unit 42 controls the writing of the image data 54 to the memory 44, and thereafter, the image data 54 is recorded in line units. As the image data 54, an image captured with epi-illumination and an image captured with side-illumination are selectively input for each line, and when all lines have been imaged, the epi-illumination is stored in the memory 44. And an image picked up by side illumination are formed.

メインユニット12は、例えば待機状態においてシェーディング補正をする。待機状態においては外観検査装置10に基板1は設けられていない。メインユニット12のヘッド制御ユニット40は、シェーディング補正をするとき、モータ制御信号52によってモータ20を制御して走査ヘッド16を待機位置に維持する。ヘッド制御ユニット40は、照明制御クロック50を照明ユニット30へ出力し、シェーディング補正のための点灯状態を制御する。メインユニット12は、それぞれの光源で基準プレート60を照明したときに得られる反射光の輝度が予め設定された基準輝度となるようシェーディング補正値を生成する。シェーディング補正は、ラインセンサ34のRGBの色成分それぞれについて行う。   For example, the main unit 12 performs shading correction in a standby state. In the standby state, the visual inspection apparatus 10 is not provided with the substrate 1. When performing shading correction, the head control unit 40 of the main unit 12 controls the motor 20 by the motor control signal 52 to maintain the scanning head 16 at the standby position. The head control unit 40 outputs an illumination control clock 50 to the illumination unit 30 and controls the lighting state for shading correction. The main unit 12 generates a shading correction value so that the luminance of the reflected light obtained when the reference plate 60 is illuminated with each light source becomes a preset reference luminance. Shading correction is performed for each of the RGB color components of the line sensor 34.

なお、メモリ44の内部構成、メモリ44内の画像データ54の配置については設計上の自由度があり、いろいろな構成が可能である。たとえば、メモリ44内に、複数の画像を個別に格納するための独立した2つの記憶領域が設けられ、メモリ制御ユニット42は、1ライン毎に各記憶領域に分けて画像データ54が個別に格納されるように制御してもよい。あるいは、メモリ44内には、複数の画像を格納するための単一の記憶領域が設けられ、メモリ制御ユニット42は、その単一の記憶領域に画像データ54が1ラインずつ交互に格納されるように制御してもよい。   Note that the internal configuration of the memory 44 and the arrangement of the image data 54 in the memory 44 have a degree of freedom in design, and various configurations are possible. For example, two independent storage areas for individually storing a plurality of images are provided in the memory 44, and the memory control unit 42 stores the image data 54 separately for each storage area for each line. You may control so that it is. Alternatively, a single storage area for storing a plurality of images is provided in the memory 44, and the memory control unit 42 stores image data 54 alternately in the single storage area line by line. You may control as follows.

解析ユニット46は、走査と並行して、または走査完了後にメモリ44から画像データを読み出し、先に得られたシェーディング補正値を加味し、判定基準記憶部48に予め記録された判定基準に照らして、検査項目ごとに合否を判断する。検査項目としては例えば、部品の位置ずれ、欠品、ハンダのヌレ、ハンダブリッジの有無、実装部品の間違い、極性の反転、基板表面の汚れやキズの有無などがある。解析ユニット46はさらに、各検査項目について基板上の位置を特定してもよい。判定基準記憶部48には予め合否に関する判断基準または基準画像が記録されている。解析ユニット46は、実際にラインセンサ34で取得された画像にそれらの基準または画像を適用して合否判定を行う。あるいは、解析ユニット46は、実際に撮像した画像を処理して作成した検査画像に判定基準を適用して合否判定を行う。   The analysis unit 46 reads the image data from the memory 44 in parallel with the scan or after the scan is completed, takes into account the shading correction value obtained previously, and in light of the determination criterion recorded in the determination criterion storage unit 48 in advance. Judge pass / fail for each inspection item. The inspection items include, for example, misalignment of parts, missing parts, solder drip, presence / absence of solder bridge, wrong mounting parts, polarity reversal, presence / absence of dirt and scratches on the substrate surface, and the like. The analysis unit 46 may further specify a position on the substrate for each inspection item. In the determination criterion storage unit 48, a determination criterion or a reference image regarding pass / fail is recorded in advance. The analysis unit 46 applies the reference or image to the image actually acquired by the line sensor 34 and makes a pass / fail determination. Alternatively, the analysis unit 46 performs pass / fail determination by applying a determination criterion to an inspection image created by processing an actually captured image.

図8は試験ユニット14の斜視図、図9は試験ユニット14を撮像ラインの方向110(以下、単に撮像ライン方向と呼ぶ)から見た模式図である。図8または図9に示した状態で1ライン分の画像データが取り込まれると、走査ヘッド16はガイド18(図7参照)によって駆動方向114へ1ライン分送り出される。以降同様の処理を繰り返すことにより、基板1全面にわたる画像データが取得される。   FIG. 8 is a perspective view of the test unit 14, and FIG. 9 is a schematic view of the test unit 14 as viewed from the imaging line direction 110 (hereinafter simply referred to as the imaging line direction). When one line of image data is captured in the state shown in FIG. 8 or FIG. 9, the scanning head 16 is sent out by one line in the driving direction 114 by the guide 18 (see FIG. 7). Thereafter, similar processing is repeated to obtain image data over the entire surface of the substrate 1.

照明ユニット30は落射照明源100と側方照明源102を有し、これらがハーフミラー108を取り囲んでいる。落射照明源100とハーフミラー108にはレンチキュラーシート106が間挿され、落射光はレンチキュラーシート106、ハーフミラー108を通過して基板1の検査面へ入射角がほぼゼロで投じられる。側方照明源102の下にはアクリルシート104が設けられる。この実施の形態では落射照明源100に幅をもたせており、基板1が反ったときでも入射角がゼロになるような落射光成分が存在するよう配慮している。   The illumination unit 30 has an epi-illumination source 100 and a side illumination source 102 that surround the half mirror 108. A lenticular sheet 106 is inserted between the epi-illumination source 100 and the half mirror 108, and the epi-illumination light passes through the lenticular sheet 106 and the half mirror 108 and is incident on the inspection surface of the substrate 1 with an incident angle of substantially zero. An acrylic sheet 104 is provided below the side illumination source 102. In this embodiment, the epi-illumination source 100 is given a width so that an epi-illumination component is present so that the incident angle becomes zero even when the substrate 1 is warped.

アクリルシート104は、側方照明源102からの側方光を拡散する。側方照明源102は点光源であるLEDの集合体であるため、拡散作用がないと、スポット的な光が画像データへ写り込んで検査精度に悪影響を及ぼす懸念がある。一方、レンチキュラーシート106は、撮像ライン方向110について落射光を基板1に垂直な成分に絞り込むよう作用する。なお、落射光に関する拡散作用はレンチキュラーシート106によって実現される。   The acrylic sheet 104 diffuses side light from the side illumination source 102. Since the side illumination source 102 is an aggregate of LEDs that are point light sources, if there is no diffusing action, there is a concern that spot-like light is reflected in image data and adversely affects inspection accuracy. On the other hand, the lenticular sheet 106 acts to narrow the incident light to a component perpendicular to the substrate 1 in the imaging line direction 110. The diffusing action related to the incident light is realized by the lenticular sheet 106.

図9のごとく、落射照明源100は中央からふたつのサブ基板100a、100bに分かれ、それぞれ撮像ライン方向110にLED(発光ダイオード)群をもつ。落射照明源100は緑色LED群からなる。これらのサブ基板100a、100bは微妙に内側を向け合う形で接続され、それぞれのLED群が効率的に検査中のライン112へ落射光を投ずる配置とされている。   As shown in FIG. 9, the epi-illumination source 100 is divided into two sub-boards 100 a and 100 b from the center, and each has an LED (light emitting diode) group in the imaging line direction 110. The epi-illumination source 100 is composed of a group of green LEDs. These sub-boards 100a and 100b are connected so as to be slightly inwardly directed, and each LED group is arranged to efficiently project incident light onto the line 112 under inspection.

一方、ふたつの側方照明源102は、3列のLED群をもつ高側方照明源102aと、1列のLED群をもつ低側方照明源102bとを有し、落射照明源100同様、ライン112へ効率的に側方光を投ずるよう傾斜がつけられている。高側方照明源102aは白色LED群からなり、低側方照明源102bは青色LED群からなる。高側方照明源102aよりも低側方照明源102bのほうが、より大きい入射角(入射光線と入射点での法線とがなす角度)で照明光をライン112に照射する。ライン112からの反射光はハーフミラー108で反射し、レンズ32へ向けられる。これを図8で示せば、落射照明源100内のある点Pからの落射光L1は基板1上の点Q付近で反射し、反射光L2がハーフミラー108で再度反射し、その反射光L3がレンズ32へ入射する。なお、落射照明源100、高側方照明源102a、及び低側方照明源102bは、それぞれ独立に点灯制御可能なよう、図示しない電源が別系統になっている。   On the other hand, the two side illumination sources 102 include a high side illumination source 102a having three rows of LED groups and a low side illumination source 102b having one row of LED groups. Inclination is applied so that side light is efficiently projected onto the line 112. The high side illumination source 102a is composed of a white LED group, and the low side illumination source 102b is composed of a blue LED group. The low side illumination source 102b irradiates the line 112 with illumination light at a larger incident angle (an angle formed between the incident light beam and the normal at the incident point) than the high side illumination source 102a. The reflected light from the line 112 is reflected by the half mirror 108 and directed to the lens 32. If this is shown in FIG. 8, the incident light L1 from a certain point P in the incident illumination source 100 is reflected near the point Q on the substrate 1, and the reflected light L2 is reflected again by the half mirror 108, and the reflected light L3. Enters the lens 32. The epi-illumination source 100, the high side illumination source 102a, and the low side illumination source 102b have separate power sources (not shown) so that they can be controlled independently.

また、照明ユニット30は、基板1に平行な面内で落射照明源100が撮像ライン方向110と任意の交差角度をなすように、図示される標準位置から落射照明源100を回転または移動させる駆動機構(図示せず)を備えてもよい。同様に、照明ユニット30は、基板1に平行な面内で側方照明源102が撮像ライン方向110と任意の交差角度をなすように側方照明源102を回転または移動させる駆動機構(図示せず)を備えてもよい。複数の角度で照明して撮像することにより、照明の当たらない死角を減らすことができる。なお、ミラー108等の付随する光学系、及びラインセンサ34等の角度または位置を変更する駆動機構を更に備えてもよく、落射照明源100または側方照明源102の交差角度を標準位置から変更したときは、ミラー108等の付随する光学系、及びラインセンサ34等もこの移動機構により対応する角度または位置に移動させてもよい。   The illumination unit 30 is also driven to rotate or move the epi-illumination source 100 from the illustrated standard position so that the epi-illumination source 100 forms an arbitrary intersection angle with the imaging line direction 110 in a plane parallel to the substrate 1. A mechanism (not shown) may be provided. Similarly, the illumination unit 30 is a drive mechanism (not shown) that rotates or moves the side illumination source 102 so that the side illumination source 102 forms an arbitrary crossing angle with the imaging line direction 110 in a plane parallel to the substrate 1. May be provided. By imaging with illumination at a plurality of angles, blind spots that are not illuminated can be reduced. It should be noted that a driving mechanism for changing the angle or position of the associated optical system such as the mirror 108 and the line sensor 34 may be further provided, and the intersection angle of the epi-illumination source 100 or the side illumination source 102 is changed from the standard position. In this case, the accompanying optical system such as the mirror 108 and the line sensor 34 may be moved to a corresponding angle or position by this moving mechanism.

図10は、本発明の一実施形態に係る解析ユニット46の構成の一例を示す図である。解析ユニット46は、検査部70及び位置補正部72を含んで構成される。検査部70は、判定基準記憶部48に予め記録された判定基準と検査画像とに基づいて、検査項目ごとに合否を判断する。また、不合格の場合、検査部70は、検出された異常の位置を検査画像上において特定してもよい。位置補正部72は、メモリ44から画像データを読み出して検査画像を合成し、当該画像の位置を補正する。位置補正部72は、検査画像の基準位置からのずれ量が許容範囲内にある場合には位置補正をしなくてもよい。位置補正部72は、検査画像の基準位置からのずれ量が許容範囲を超えかつ位置補正可能範囲内にある場合に位置補正をしてもよい。位置補正部72は、位置を補正した検査画像を検査部70に与える。なお解析ユニット46は、検査画像の基準位置からのずれ量が位置補正可能範囲を超える場合には被検査体の撮像をやり直してもよい。   FIG. 10 is a diagram showing an example of the configuration of the analysis unit 46 according to an embodiment of the present invention. The analysis unit 46 includes an inspection unit 70 and a position correction unit 72. The inspection unit 70 determines pass / fail for each inspection item based on the determination criterion and the inspection image recorded in advance in the determination criterion storage unit 48. In the case of failure, the inspection unit 70 may specify the position of the detected abnormality on the inspection image. The position correction unit 72 reads out image data from the memory 44, synthesizes an inspection image, and corrects the position of the image. The position correction unit 72 may not perform position correction when the amount of deviation from the reference position of the inspection image is within the allowable range. The position correction unit 72 may perform position correction when the amount of deviation from the reference position of the inspection image exceeds the allowable range and is within the position correction possible range. The position correction unit 72 gives the inspection image whose position has been corrected to the inspection unit 70. The analysis unit 46 may redo the imaging of the object to be inspected when the amount of deviation from the reference position of the inspection image exceeds the position correction possible range.

位置補正部72は、特徴点生成部74、位置ずれ量演算部76、位置補正範囲設定部78、及び画像合成部80を含んで構成される。特徴点生成部74は、パターン認識部82、実体特徴点生成部84、仮想特徴点生成部86、及び特徴点選択部88を含んで構成される。位置ずれ量演算部76は、ベクトル生成部90及びベクトル分類部92を含んで構成される。   The position correction unit 72 includes a feature point generation unit 74, a positional deviation amount calculation unit 76, a position correction range setting unit 78, and an image composition unit 80. The feature point generation unit 74 includes a pattern recognition unit 82, a real feature point generation unit 84, a virtual feature point generation unit 86, and a feature point selection unit 88. The positional deviation amount calculation unit 76 includes a vector generation unit 90 and a vector classification unit 92.

図11は、本発明の一実施形態に係る外観検査装置10の撮像処理を示すフローチャートである。落射照明の点灯と側方照明の点灯を同期信号に合わせて選択して行い、基板1上を走査ヘッド16が一回移動する間に落射照明による画像と側方照明による画像の両方の画像を個別かつ一度に形成する。具体的には、緑色LED照明による単色画像、白色LED照明によるカラー画像、及び青色LED照明による単色画像が一度に得られる。なお、外観検査装置10による画像解像度は十分に高く、画像を数ラインおきに取得しても十分検査目的に耐えるとする。   FIG. 11 is a flowchart showing an imaging process of the appearance inspection apparatus 10 according to the embodiment of the present invention. The lighting of the epi-illumination and the lighting of the side-illumination are selected according to the synchronization signal, and both the image by the epi-illumination and the image by the side-illumination are displayed while the scanning head 16 moves once on the substrate 1. Form individually and at once. Specifically, a monochrome image by green LED illumination, a color image by white LED illumination, and a monochrome image by blue LED illumination are obtained at a time. It should be noted that the image resolution by the appearance inspection apparatus 10 is sufficiently high, and even if an image is acquired every few lines, it can sufficiently withstand the inspection purpose.

まず、第1モードである落射照明モードが選択され、走査ヘッド16がスタート位置へ送られる(S50)。落射照明モードの選択に伴い、ヘッド制御ユニット40によって落射照明源100が点灯状態、高側方照明源102a及び低側方照明源102bが消灯状態におかれる。落射照明のもと、ラインセンサ34により第1ラインの撮像が実施され(S52)、その画像データ54がメモリ44へ書き込まれる(S54)。   First, the epi-illumination mode which is the first mode is selected, and the scanning head 16 is sent to the start position (S50). Along with the selection of the epi-illumination mode, the epi-illumination source 100 is turned on by the head control unit 40, and the high-side illumination source 102a and the low-side illumination source 102b are turned off. Under the epi-illumination, the line sensor 34 captures an image of the first line (S52), and the image data 54 is written into the memory 44 (S54).

つづいて、ヘッド制御ユニット40により走査ヘッド16が駆動方向へ1ライン分送られ(S56)、予め入力されていた基板1に関する情報に従い、その位置が走査のエンド位置、すなわち基板1の終了端であるか否かが判定される(S58)。エンド位置でなければ(S58のN)、高側方照明モードへ切り替えが行われる(S60)。高側方照明モードの選択に伴い、ヘッド制御ユニット40によって側方照明源102のうち高側方照明源102aが点灯状態、落射照明源100及び低側方照明源102bが消灯状態におかれる。高側方照明のもと、ラインセンサ34による第2ラインの撮像、メモリ44への画像データ54の書込、走査ヘッド16の進行(S52、S54、S56)が行われる。   Subsequently, the scanning head 16 is fed by one line in the driving direction by the head control unit 40 (S56), and the position is the scanning end position, that is, the end end of the substrate 1, in accordance with the information relating to the substrate 1 inputted in advance. It is determined whether or not there is (S58). If it is not the end position (N in S58), switching to the high side illumination mode is performed (S60). With the selection of the high side illumination mode, the head control unit 40 puts the high side illumination source 102a among the side illumination sources 102 in the on state, and the epi-illumination source 100 and the low side illumination source 102b in the off state. Under the high side illumination, imaging of the second line by the line sensor 34, writing of the image data 54 to the memory 44, and progression of the scanning head 16 (S52, S54, S56) are performed.

さらに同様にして、ヘッド制御ユニット40により走査ヘッド16が駆動方向へ1ライン分送られ(S56)、その位置が走査のエンド位置であるか否かが判定される(S58)。エンド位置でなければ(S58のN)、低側方照明モードへ切り替えが行われる(S60)。低側方照明モードの選択に伴い、ヘッド制御ユニット40によって側方照明源102のうち低側方照明源102bが点灯状態、落射照明源100及び高側方照明源102aが消灯状態におかれる。低側方照明のもと、ラインセンサ34による第3ラインの撮像、メモリ44への画像データ54の書込、走査ヘッド16の進行(S52、S54、S56)が行われる。   Similarly, the scanning head 16 is fed by one line in the driving direction by the head control unit 40 (S56), and it is determined whether or not the position is the scanning end position (S58). If it is not the end position (N in S58), switching to the low side illumination mode is performed (S60). In accordance with the selection of the low side illumination mode, the head control unit 40 puts the low side illumination source 102b in the side illumination source 102 in the on state and the epi-illumination source 100 and the high side illumination source 102a in the off state. Under the low side illumination, imaging of the third line by the line sensor 34, writing of the image data 54 to the memory 44, and progression of the scanning head 16 (S52, S54, S56) are performed.

走査ヘッド16がエンド位置にくるまでS52からS60の処理は繰り返され、複数の画像が形成される。3N+1番目(N=0,1,2,・・・)のラインの画像は、落射光によって形成される画像であり、3N+2番目(N=0,1,2,・・・)のラインの画像は、高側方照明によって形成される画像であり、3N番目(N=1,2,・・・)のラインの画像は、低側方照明によって形成される画像である。このインターリーブ方式によれば、走査ヘッド下に基板1を1度通過させることにより複数画像を取得でき、検査時間の短縮が実現される。走査ヘッド16がエンド位置にくれば(S58のY)、撮像処理は終了する。支持台22のコンベア上を流れてくる後続の基板1に対する撮像処理を続ける場合には、その基板1に対して上述の撮像処理を繰り返す。このようにして順次流れてくる基板1を連続的に撮像することができる。   The processing from S52 to S60 is repeated until the scanning head 16 reaches the end position, and a plurality of images are formed. The 3N + 1th (N = 0, 1, 2,...) Line image is an image formed by incident light, and the 3N + 2th (N = 0, 1, 2,...) Line image. Is an image formed by high side illumination, and the 3N-th (N = 1, 2,...) Line image is an image formed by low side illumination. According to this interleave method, a plurality of images can be acquired by passing the substrate 1 once under the scanning head, and the inspection time can be shortened. If the scanning head 16 reaches the end position (Y in S58), the imaging process ends. When the imaging process for the subsequent substrate 1 flowing on the conveyor of the support base 22 is continued, the above-described imaging process is repeated for the substrate 1. In this way, the substrate 1 flowing sequentially can be imaged continuously.

図12は、本発明の一実施形態に係る検査処理を示すフローチャートである。解析ユニット46は、図12に示される処理を図11に示される被検査体の撮像処理と並列に実行する。このため、本実施形態においては、被検査体の撮像が完了する前に検査処理を開始することができる。解析ユニット46の画像合成部80は、取得済みのライン画像を合成して被検査体の画像を作成する(S70)。被検査体の撮像処理中である場合には、画像合成部80は、取得済みのライン画像から被検査体画像を部分的に作成する。撮像処理が完了している場合には、画像合成部80は、被検査体画像の全体を作成する。画像合成部80は、検査項目ごとに異なる照明光による画像を選択して作成してもよい。   FIG. 12 is a flowchart showing an inspection process according to an embodiment of the present invention. The analysis unit 46 executes the process shown in FIG. 12 in parallel with the imaging process of the inspected object shown in FIG. For this reason, in this embodiment, the inspection process can be started before the imaging of the inspection object is completed. The image combining unit 80 of the analysis unit 46 combines the acquired line images to create an image of the object to be inspected (S70). When the object to be inspected is being imaged, the image compositing unit 80 partially creates the object to be inspected from the acquired line image. When the imaging process is completed, the image composition unit 80 creates the entire inspection object image. The image composition unit 80 may select and create an image with different illumination light for each inspection item.

解析ユニット46の位置補正部72は、作成された画像の位置補正を行う(S72)。位置補正処理は例えば、図2乃至図6を参照して説明した位置補正処理である。位置補正部72は、被検査体画像の局所検査領域の全体またはその一部を位置補正範囲に設定し、位置補正範囲に特徴点を生成して基準点との位置ずれ量を演算する。位置補正部72は、演算された位置ずれ量に基づく補正量だけ局所検査領域の位置を補正する。   The position correction unit 72 of the analysis unit 46 corrects the position of the created image (S72). The position correction process is, for example, the position correction process described with reference to FIGS. The position correction unit 72 sets the whole or a part of the local inspection region of the inspection subject image as a position correction range, generates a feature point in the position correction range, and calculates the amount of positional deviation from the reference point. The position correction unit 72 corrects the position of the local inspection region by a correction amount based on the calculated displacement amount.

解析ユニット46の検査部70は、位置が補正された局所検査領域に対し各検査項目について検査する(S74)。検査の合否判定基準その他の情報は判定基準記憶部48から読み出され、利用される。検査が終わると結果が表示され(S76)、一連の処理を終える。合否は表示だけでなくメモリ44へ記録してもよい。解析ユニット46は、未検査の別の局所検査領域に対して同様に検査処理を実行する。解析ユニット46は、すべての局所検査領域の検査が完了するまで上述の検査処理を繰り返す。   The inspection unit 70 of the analysis unit 46 inspects each inspection item with respect to the local inspection region whose position is corrected (S74). Inspection pass / fail criteria and other information are read from the criteria storage 48 and used. When the inspection is finished, the result is displayed (S76), and the series of processing is finished. Pass / fail may be recorded in the memory 44 as well as displayed. The analysis unit 46 similarly performs an inspection process on another local inspection region that has not been inspected. The analysis unit 46 repeats the above inspection process until the inspection of all the local inspection regions is completed.

本発明の一実施形態によれば、比較的高い位置精度で形成されている電子基板の配線パターンから特徴点を生成することにより、局所的な位置補正をすることができる。特に、配線パターンが存在しない領域にさえ特徴点を仮想的に生成することにより、位置特定の基準となりうる実在の形状またはマークが存在しない局所的領域の位置補正も可能となる。また、基板上の実在の形状またはマークの配置にとらわれることなく特徴点分布を調整して位置補正精度を高めることもできる。   According to an embodiment of the present invention, local position correction can be performed by generating feature points from a wiring pattern of an electronic board formed with relatively high position accuracy. In particular, by generating feature points virtually even in areas where no wiring pattern exists, it is possible to correct the position of a local area where there is no actual shape or mark that can serve as a reference for position identification. Further, the position correction accuracy can be improved by adjusting the feature point distribution without being restricted by the actual shape or the arrangement of the marks on the substrate.

また、典型的に基板の4隅に形成されている従来の基準マークの撮像を待たずに、撮像済みの配線パターンを利用して速やかに位置補正をすることができる。これに伴い、検査処理等の後続の処理も迅速に開始することができるので、装置のスループットを向上することができる。   Further, it is possible to quickly correct the position by using the already picked-up wiring pattern without waiting for the image pickup of the conventional reference marks formed typically at the four corners of the substrate. Along with this, subsequent processing such as inspection processing can be started quickly, so that the throughput of the apparatus can be improved.

1 基板、 10 外観検査装置、 16 走査ヘッド、 30 照明ユニット、 34 ラインセンサ、 40 ヘッド制御ユニット、 42 メモリ制御ユニット、 44 メモリ、 46 解析ユニット、 48 判定基準記憶部、 70 検査部、 72 位置補正部、 74 特徴点生成部、 76 位置ずれ量演算部。   DESCRIPTION OF SYMBOLS 1 Board | substrate, 10 Appearance inspection apparatus, 16 Scan head, 30 Illumination unit, 34 Line sensor, 40 Head control unit, 42 Memory control unit, 44 Memory, 46 Analysis unit, 48 Judgment reference memory | storage part, 70 Inspection part, 72 Position correction Unit, 74 feature point generation unit, 76 misregistration amount calculation unit.

Claims (8)

複数の検査対象要素を有する被検査体を撮像して検査する検査装置であって、
被検査体画像において検査対象要素を相互に接続するパターンから特徴点を生成し、特徴点の基準位置からの変位に基づいて被検査体画像の位置ずれを補正する位置補正部と、
位置が補正された被検査体画像を検査する検査部と、を備えることを特徴とする検査装置。
An inspection apparatus for imaging and inspecting an object to be inspected having a plurality of inspection target elements,
A position correction unit that generates a feature point from a pattern that interconnects inspection target elements in the inspection object image, and corrects a displacement of the inspection object image based on a displacement of the feature point from a reference position;
An inspection apparatus comprising: an inspection unit that inspects an object image whose position is corrected.
被検査体を走査しながら撮像して走査方向に分割された被検査体の部分画像を順次取得する撮像部と、
取得済みの部分画像から被検査体画像の局所検査領域を合成する画像合成部と、をさらに備え、
前記位置補正部は、前記局所検査領域に含まれるパターンから特徴点を生成し、特徴点の基準位置からの変位に基づいて前記局所検査領域の位置ずれを補正し、
前記検査部は、被検査体の撮像中に検査を開始することを特徴とする請求項1に記載の検査装置。
An imaging unit that sequentially captures partial images of the subject to be inspected and scanned in the scanning direction while scanning the subject;
An image synthesis unit that synthesizes a local examination region of the inspected object image from the acquired partial image; and
The position correction unit generates a feature point from a pattern included in the local inspection region, corrects a positional shift of the local inspection region based on a displacement from a reference position of the feature point,
The inspection apparatus according to claim 1, wherein the inspection unit starts inspection during imaging of the inspection object.
前記位置補正部は、パターンを表す折れ線上に特徴点を生成し、その一部または全部の特徴点の基準位置からの変位に基づいて位置ずれを補正することを特徴とする請求項1または2に記載の検査装置。   The position correction unit generates a feature point on a polygonal line representing a pattern, and corrects a positional shift based on a displacement of a part or all of the feature points from a reference position. The inspection device described in 1. 前記位置補正部は、パターンを表す折れ線に含まれる線分の延長線上に特徴点を生成し、その一部または全部の特徴点の基準位置からの変位に基づいて位置ずれを補正することを特徴とする請求項1から3のいずれかに記載の検査装置。   The position correction unit generates a feature point on an extension line of a line segment included in a polygonal line representing a pattern, and corrects a position shift based on a displacement of a part or all of the feature points from a reference position. The inspection apparatus according to any one of claims 1 to 3. 前記位置補正部は、
被検査体画像の位置補正範囲内の任意の特徴点と任意の基準点との被検査体画像上の位置の差を表す位置成分を有するベクトルを変位ベクトルとして生成する処理を反復して複数の変位ベクトルを生成するベクトル生成部と、
位置成分に応じて変位ベクトルを複数の区分に分類するベクトル分類部と、を含み、
得られた変位ベクトルの分類結果に基づいて該位置補正範囲の位置ずれを補正することを特徴とする請求項1から4のいずれかに記載の検査装置。
The position correction unit is
A process of repeatedly generating a vector having a position component representing a position difference between an arbitrary feature point within the position correction range of the inspection object image and an arbitrary reference point on the inspection object image as a displacement vector A vector generation unit for generating a displacement vector;
A vector classifying unit that classifies the displacement vector into a plurality of sections according to the position component, and
The inspection apparatus according to claim 1, wherein a position shift of the position correction range is corrected based on the obtained displacement vector classification result.
前記ベクトル生成部は、変位ベクトルを生成する特徴点を、特徴点の性質を示す情報のうち特徴点の位置とは異なる情報に基づいて選択することを特徴とする請求項5に記載の検査装置。   6. The inspection apparatus according to claim 5, wherein the vector generation unit selects a feature point for generating a displacement vector based on information different from the position of the feature point among information indicating the property of the feature point. . 前記位置補正部は、被検査体画像のパターンを含む部分を複数の分割画像に分割し、各分割画像においてパターンに沿う線を抽出し、抽出された線を隣接する分割画像間で結合することを特徴とする請求項1から6のいずれかに記載の検査装置。   The position correction unit divides a portion including a pattern of an inspection object image into a plurality of divided images, extracts lines along the pattern in each divided image, and combines the extracted lines between adjacent divided images. The inspection apparatus according to any one of claims 1 to 6. 被検査体画像において検査対象要素を相互に接続するパターンから特徴点を生成し、
特徴点の基準位置からの変位に基づいて被検査体画像の位置ずれを補正し、
位置が補正された被検査体画像を検査することを含むことを特徴とする被検査体の検査方法。
Generate feature points from the pattern that interconnects the elements to be inspected in the inspected object image,
Based on the displacement of the feature point from the reference position, the displacement of the object image is corrected,
A method for inspecting an object to be inspected, comprising inspecting an image of an object to be inspected whose position is corrected.
JP2009252297A 2009-11-02 2009-11-02 Inspection device for inspection object and position correction device for electronic substrate Active JP5399205B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009252297A JP5399205B2 (en) 2009-11-02 2009-11-02 Inspection device for inspection object and position correction device for electronic substrate

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009252297A JP5399205B2 (en) 2009-11-02 2009-11-02 Inspection device for inspection object and position correction device for electronic substrate

Publications (2)

Publication Number Publication Date
JP2011095226A true JP2011095226A (en) 2011-05-12
JP5399205B2 JP5399205B2 (en) 2014-01-29

Family

ID=44112282

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009252297A Active JP5399205B2 (en) 2009-11-02 2009-11-02 Inspection device for inspection object and position correction device for electronic substrate

Country Status (1)

Country Link
JP (1) JP5399205B2 (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014083527A (en) * 2012-10-26 2014-05-12 Ihi Corp Coating state inspection device and method
CN104020175A (en) * 2013-02-28 2014-09-03 发那科株式会社 Device and method for appearance inspection of object having line pattern
KR101444259B1 (en) 2013-09-12 2014-10-30 주식회사 고영테크놀러지 Method for generating a compensation matrix during a circuit board inspection
JP2015000580A (en) * 2013-06-13 2015-01-05 株式会社エアロ Inspection system of airplane
JP2015127689A (en) * 2013-11-29 2015-07-09 上野精機株式会社 Appearance inspection device
JP2015194368A (en) * 2014-03-31 2015-11-05 富士通株式会社 defect inspection method and defect inspection apparatus
KR101754089B1 (en) * 2015-10-28 2017-07-19 주식회사 비엔에스 Method for updating alignment mark of vision system in real time
KR20170115678A (en) * 2016-04-08 2017-10-18 한화테크윈 주식회사 The Apparatus For Teaching Tray Image
WO2018074755A1 (en) * 2016-10-20 2018-04-26 주식회사 고영테크놀러지 Substrate inspection device and substrate inspection method using same
JP2021015101A (en) * 2019-07-16 2021-02-12 株式会社竹中工務店 Image inspection device and image inspection program
CN115143887A (en) * 2022-09-05 2022-10-04 常州市建筑科学研究院集团股份有限公司 Method for correcting measurement result of visual monitoring equipment and visual monitoring system

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62261005A (en) * 1986-05-07 1987-11-13 Omron Tateisi Electronics Co Printed-circuit board processing apparatus
JPH0473759A (en) * 1990-07-16 1992-03-09 Matsushita Electric Ind Co Ltd Wiring pattern inspecting device
JP2002181729A (en) * 2000-12-12 2002-06-26 Saki Corp:Kk Apparatus and method for visual inspection
JP2005051032A (en) * 2003-07-28 2005-02-24 Nidec Copal Corp Method for inspecting package component
JP2008298489A (en) * 2007-05-29 2008-12-11 Saki Corp:Kk Inspection system of inspection object

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62261005A (en) * 1986-05-07 1987-11-13 Omron Tateisi Electronics Co Printed-circuit board processing apparatus
JPH0473759A (en) * 1990-07-16 1992-03-09 Matsushita Electric Ind Co Ltd Wiring pattern inspecting device
JP2002181729A (en) * 2000-12-12 2002-06-26 Saki Corp:Kk Apparatus and method for visual inspection
JP2005051032A (en) * 2003-07-28 2005-02-24 Nidec Copal Corp Method for inspecting package component
JP2008298489A (en) * 2007-05-29 2008-12-11 Saki Corp:Kk Inspection system of inspection object

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014083527A (en) * 2012-10-26 2014-05-12 Ihi Corp Coating state inspection device and method
CN104020175A (en) * 2013-02-28 2014-09-03 发那科株式会社 Device and method for appearance inspection of object having line pattern
JP2014167431A (en) * 2013-02-28 2014-09-11 Fanuc Ltd Appearance inspection device and appearance inspection method of object including linear pattern
US10113975B2 (en) 2013-02-28 2018-10-30 Fanuc Corporation Appearance inspection device and method for object having line pattern
JP2015000580A (en) * 2013-06-13 2015-01-05 株式会社エアロ Inspection system of airplane
WO2015037917A1 (en) * 2013-09-12 2015-03-19 주식회사 고영테크놀러지 Method for generating compensation matrix during substrate inspection
CN105557082B (en) * 2013-09-12 2018-09-11 株式会社高永科技 Compensation matrix generation method when inspecting substrate
CN105557082A (en) * 2013-09-12 2016-05-04 株式会社高永科技 Method for generating compensation matrix during substrate inspection
US10151705B2 (en) 2013-09-12 2018-12-11 Koh Young Technology Inc. Method of generating a compensation matrix during a substrate inspection
KR101444259B1 (en) 2013-09-12 2014-10-30 주식회사 고영테크놀러지 Method for generating a compensation matrix during a circuit board inspection
JP2015127689A (en) * 2013-11-29 2015-07-09 上野精機株式会社 Appearance inspection device
JP2015194368A (en) * 2014-03-31 2015-11-05 富士通株式会社 defect inspection method and defect inspection apparatus
KR101754089B1 (en) * 2015-10-28 2017-07-19 주식회사 비엔에스 Method for updating alignment mark of vision system in real time
KR20170115678A (en) * 2016-04-08 2017-10-18 한화테크윈 주식회사 The Apparatus For Teaching Tray Image
KR102564247B1 (en) * 2016-04-08 2023-08-07 한화정밀기계 주식회사 The Apparatus For Teaching Tray Image
KR101893831B1 (en) 2016-10-20 2018-08-31 주식회사 고영테크놀러지 Board inspection apparatus and board inspection method using the same
KR20180043463A (en) * 2016-10-20 2018-04-30 주식회사 고영테크놀러지 Board inspection apparatus and board inspection method using the same
WO2018074755A1 (en) * 2016-10-20 2018-04-26 주식회사 고영테크놀러지 Substrate inspection device and substrate inspection method using same
US10986761B2 (en) 2016-10-20 2021-04-20 Koh Young Technology Inc. Board inspecting apparatus and board inspecting method using the same
JP2021015101A (en) * 2019-07-16 2021-02-12 株式会社竹中工務店 Image inspection device and image inspection program
JP7331311B2 (en) 2019-07-16 2023-08-23 株式会社竹中工務店 Image inspection device and image inspection program
CN115143887A (en) * 2022-09-05 2022-10-04 常州市建筑科学研究院集团股份有限公司 Method for correcting measurement result of visual monitoring equipment and visual monitoring system

Also Published As

Publication number Publication date
JP5399205B2 (en) 2014-01-29

Similar Documents

Publication Publication Date Title
JP5399205B2 (en) Inspection device for inspection object and position correction device for electronic substrate
US8878929B2 (en) Three dimensional shape measurement apparatus and method
US7505149B2 (en) Apparatus for surface inspection and method and apparatus for inspecting substrate
CN103134446B (en) 3 d shape measuring apparatus and measuring method
JP5690774B2 (en) Inspection method
JP5239314B2 (en) Object recognition method and board visual inspection apparatus using this method
JP4166587B2 (en) Appearance inspection apparatus and volume inspection method
JP7122524B2 (en) Inspection program generation system, inspection program generation method, and inspection program generation program
US20070176927A1 (en) Image Processing method and image processor
JP2008046103A (en) Surface inspection apparatus
KR101794964B1 (en) Inspection system and inspection method
JP4987511B2 (en) Inspection equipment for printed wiring boards
JP5461841B2 (en) Inspection device for inspection object
JP2018185177A (en) Image inspection device, production system, image inspection method, program and memory medium
JP2011149736A (en) Appearance inspection apparatus and appearance inspection method
JP4573255B2 (en) Appearance inspection apparatus and appearance inspection method
KR101215083B1 (en) Method for generating height information of board inspection apparatus
JP2021022637A (en) Inspection equipment of bonding wire, inspection method of bonding wire, and inspection program of bonding wire
JP6236204B2 (en) Inspection apparatus and inspection method
JP2009192371A (en) Visual examination device and visual examination method
JP6433810B2 (en) Bonding wire detection method and bonding wire detection device
JP2004226316A (en) Scanning head and appearance inspection apparatus available for the same
JP4162132B2 (en) Scanning head and visual inspection apparatus using the same
KR20170124509A (en) Inspection system and inspection method
CN114450579A (en) Image processing system, setting method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120514

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130430

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130618

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130819

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131008

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131023

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5399205

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250