JP2000003444A - Pattern matching method - Google Patents

Pattern matching method

Info

Publication number
JP2000003444A
JP2000003444A JP10166600A JP16660098A JP2000003444A JP 2000003444 A JP2000003444 A JP 2000003444A JP 10166600 A JP10166600 A JP 10166600A JP 16660098 A JP16660098 A JP 16660098A JP 2000003444 A JP2000003444 A JP 2000003444A
Authority
JP
Japan
Prior art keywords
image
cross
pattern matching
correlation
fourier transform
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP10166600A
Other languages
Japanese (ja)
Inventor
Chie Shishido
千絵 宍戸
Mitsunobu Isobe
光庸 磯部
Yuji Takagi
裕治 高木
Shunji Maeda
俊二 前田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP10166600A priority Critical patent/JP2000003444A/en
Publication of JP2000003444A publication Critical patent/JP2000003444A/en
Pending legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To reduce an arithmetic quantity for obtaining the distribution of correlative coefficients by adding an area having a prescribed width and a fixed value to a measurement picture and a reference picture and executing a pre-processing where the sizes of the longitudinal and horizontal sizes of the picture are made to be the factorial pixel of two. SOLUTION: Picture data (s) and (r) are successively inputted to a position deviating amount arithmetic part 41 by one pixel. Since a fixed-sized picture is required for pattern matching, data corresponding to the fixed-sized picture are stored in memories 42 and 43. A whole control part 103 controls the addresses of the memories 42 and 43 and the picture where an O-area is added is outputted. Picture data with the O-area are inputted to FFT circuits 44 and 45 and Fourier-transformed. Transformed picture data are inputted to a cross power spectrum arithmetic circuit 46 and a cross power spectrum is obtained after multiplication. The cross power spectrum is inputted to an FFT-1 circuit 47 and reverse Fourier-transformed and a mutual function being its result is written in the memory 48.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、対象物の観測画像
と、あらかじめ登録(記憶)されている参照画像をパタ
ーンマッチングにより照合して、観測画像ともっとも適
合する参照画像上の画像領域を見つけだすための画像位
置検出方法であって、特に演算量を削減し得るようにし
たパターンマッチング方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention compares an observed image of an object with a previously registered (stored) reference image by pattern matching, and finds an image area on the reference image that best matches the observed image. And an image position detecting method, particularly, a pattern matching method capable of reducing the amount of calculation.

【0002】本発明はパターンマッチングの手法を用い
る多くの用途に有効であるが、例えば、半導体ウェーハ
などの回路パターンを自動検査する分野において、電子
線や光などによる検査対象物の観測画像と、別途観測し
記憶しておいた参照画像とを比較して欠陥を認識する比
較検査において、前記参照画像と前記観測画像とを位置
合わせするのに利用される。
The present invention is effective in many applications using a pattern matching technique. For example, in the field of automatically inspecting a circuit pattern such as a semiconductor wafer, an observation image of an inspection object using an electron beam or light can be obtained. In a comparative inspection for recognizing a defect by comparing a separately observed and stored reference image with a reference image, it is used to align the reference image with the observed image.

【0003】また例えば、プリント板やセラミック基板
などの回路パターンや、プリント基板上のチップ部品の
はんだ付け部を自動検査する分野において検査対象基板
の位置を認識するために、基板上の位置決めマークを含
む領域の観測画像と、あらかじめ観測し登録しておいた
基準となる位置決めマークとを照合するのに利用され
る。
For example, in the field of automatically inspecting a circuit pattern such as a printed board or a ceramic board, or a soldered portion of a chip component on the printed board, a positioning mark on the board is recognized in order to recognize a position of the board to be inspected. It is used to collate the observation image of the area including the region with a reference positioning mark that has been observed and registered in advance.

【0004】[0004]

【従来の技術】観測画像ともっとも適合する参照画像上
の画像領域を見つけだすためのパターンマッチング方法
としては、参照画像に対して観測画像を1画素ずつずら
しながら、参照画像と観測画像の対応領域(重なり領
域)の類似度を計算してマッチングを行う方法が知られ
ている。
2. Description of the Related Art As a pattern matching method for finding an image region on a reference image that is most suitable for an observation image, a corresponding region between the reference image and the observation image is shifted while shifting the observation image by one pixel with respect to the reference image. There is known a method of calculating the similarity of an overlapping area and performing matching.

【0005】図2において、10は観測画像、11はそ
の部分画像(以下、部分観測画像と呼ぶ)、20は参照
画像である。同図(c)のように、部分観測画像11の
位置を、参照画像20の左上隅から1画素ずつ移動(走
査)させながら、そのつど、部分観測画像11と、参照
画像20上の部分観測画像と重なる領域との類似度を求
め、この類似度が最大となる走査位置として、参照画像
20上の部分観測画像11が存在する位置を検出する。
In FIG. 2, reference numeral 10 denotes an observed image, 11 denotes a partial image thereof (hereinafter, referred to as a partial observed image), and 20 denotes a reference image. As shown in FIG. 3C, while moving (scanning) the position of the partial observation image 11 one pixel at a time from the upper left corner of the reference image 20, the partial observation image 11 and the partial observation The similarity between the image and the area overlapping the image is obtained, and the position where the partial observation image 11 exists on the reference image 20 is detected as the scanning position where the similarity is maximized.

【0006】類似度の尺度には、残差の二乗和、残差の
絶対値の総和などが用いられることもあるが、画像間の
濃度レベルの違い(例えば、画像検出時の照明強度の変
化などにより日常的に起こりうる)にも強く、信頼性の
面で優れているとされているのは、相関係数(正規化相
関係数とも呼ばれる)である。図2のように、部分観測
画像が縦横M画素、参照画像が縦横N画素であるとする
と、走査位置(a,b)における相関係数corr
(a,b)は下記(数1)で与えられる。
As a measure of similarity, the sum of squares of residuals, the sum of absolute values of residuals, and the like are sometimes used. However, differences in density levels between images (for example, changes in illumination intensity during image detection) are used. A correlation coefficient (also referred to as a normalized correlation coefficient) is considered to be strong in terms of reliability, which is likely to occur on a daily basis due to, for example, the above. As shown in FIG. 2, assuming that the partial observation image is M pixels vertically and horizontally and the reference image is N pixels vertically and horizontally, the correlation coefficient corr at the scanning position (a, b) is obtained.
(A, b) is given by the following (Equation 1).

【0007】[0007]

【数1】 (Equation 1)

【0008】(数1)からもわかるように、相関係数の
算出には大量の積算や累積加算演算が必要であり、マッ
チング位置を求めるには全走査箇所で相関係数を算出し
なければならないため、その演算量は膨大なものとな
る。このため、相関係数は信頼性の面で優れているが、
高速度の処理が求められる用途に採用するのは難しかっ
た。
As can be seen from (Equation 1), the calculation of the correlation coefficient requires a large amount of integration and cumulative addition, and in order to find the matching position, the correlation coefficient must be calculated at all scanning positions. Therefore, the amount of calculation becomes enormous. For this reason, the correlation coefficient is excellent in reliability,
It was difficult to adopt it for applications requiring high-speed processing.

【0009】そこで演算量の問題を解決するためにいく
つかの方法が提案されている。その中で、最も簡単で、
基本的な方法として知られているのは、画像からある一
定間隔で画素を間引いて抽出し、間引き後の画像により
相関係数の算出を行う方法(以下、間引き法と呼ぶ)で
ある。(数1)が示すように、演算量は演算する画素数
の二乗に比例するので、n画素ごとの間引きを行えば、
演算量は1/n2となる。
Therefore, several methods have been proposed to solve the problem of the amount of calculation. Among them, the easiest,
A method known as a basic method is a method in which pixels are thinned out from an image at certain intervals and extracted, and a correlation coefficient is calculated based on the thinned image (hereinafter, referred to as a thinning method). As shown in (Equation 1), the amount of calculation is proportional to the square of the number of pixels to be calculated.
The calculation amount is 1 / n 2 .

【0010】また、他の方法として、特開平3−110
685号公報では、参照画像と観測画像を縮小し、縮小
した画像間で相関係数を算出しておおまかなマッチング
位置を求めた後、順に縮小率を下げながら前の処理で求
めたマッチング位置の近傍に限定された領域内でより、
正確なマッチング位置を求める方法が示されている(以
下階層構造法と呼ぶ)。図3は特開平3−110685
号公報に開示されている階層構造法の原理図である。こ
の方法では、縮小倍率が高い最上層においては、演算を
行うべき画素数が減少しており、また縮小している分、
相関係数を求める回数も減るため演算量が少なくてすむ
(間引き法と同様、縮小比率が1/nならば、演算量は
1/n2となる)。そして、縮小倍率が低い下層におい
ては、走査範囲が前の階層で求められたマッチング位置
近傍に限定されているので相関係数を求める回数が減
る。その結果として、縮小しない画像に対して(数1)
を直接計算するよりも演算量が小さくなる。
Another method is disclosed in Japanese Patent Application Laid-Open No. 3-110.
In Japanese Patent No. 685, a reference image and an observed image are reduced, a correlation coefficient is calculated between the reduced images, a rough matching position is obtained, and then the matching position obtained in the previous process is sequentially reduced while reducing the reduction ratio. In the area limited to the neighborhood,
A method for obtaining an accurate matching position is shown (hereinafter referred to as a hierarchical structure method). FIG.
FIG. 1 is a principle diagram of a hierarchical structure method disclosed in Japanese Patent Application Laid-Open Publication No. H10-26095. In this method, in the uppermost layer having a high reduction ratio, the number of pixels to be calculated is reduced.
Since the number of times of obtaining the correlation coefficient is reduced, the amount of calculation is small (similar to the thinning method, if the reduction ratio is 1 / n, the amount of calculation is 1 / n 2 ). In the lower layer where the reduction magnification is low, since the scanning range is limited to the vicinity of the matching position obtained in the previous layer, the number of times of obtaining the correlation coefficient is reduced. As a result, for an image that is not reduced (Equation 1)
Requires less computation than directly calculating.

【0011】[0011]

【発明が解決しようとする課題】しかしながら、前者の
方法(間引き法)の場合、n画素ごとの間引きを行え
ば、マッチングの位置精度がプラスマイナス1/(2
n)に低下するのに加え、画像中のパターンの空間周波
数に比して間引き画素数が多すぎる場合には、情報の欠
落によるエリアシング誤差によって、真のマッチング位
置から全くはずれてしまうおそれもある。そして、それ
を避けるために間引き画素数を減らせば、演算量減少の
効果が薄れてしまうという問題がある。
However, in the former method (thinning method), if the thinning is performed every n pixels, the position accuracy of the matching becomes ± 1/1 / (2
If the number of thinned pixels is too large compared to the spatial frequency of the pattern in the image in addition to n), there is a risk that the information may be completely deviated from the true matching position due to an aliasing error due to lack of information. is there. If the number of thinned pixels is reduced to avoid this, there is a problem that the effect of reducing the amount of calculation is reduced.

【0012】後者の方法(階層構造法)の場合、上層に
おける縮小率が、画像中のパターンの空間周波数に比し
て過大であると、やはりエリアシング誤差によって真の
マッチング位置からはずれてしまうおそれがある。そし
て、下層においては上層で得られたマッチング位置の近
傍でしかマッチングを行わないため、正確なマッチング
位置の検出は不可能となってしまう。これを防ぐには上
層階での縮小率を下げなければならないが、そうすると
階層構造をとることによる演算量減少の効果が薄れてし
まうという問題がある。
In the case of the latter method (hierarchical structure method), if the reduction ratio in the upper layer is too large compared to the spatial frequency of the pattern in the image, there is a possibility that the pattern may deviate from the true matching position due to an aliasing error. There is. In the lower layer, matching is performed only in the vicinity of the matching position obtained in the upper layer, so that it is impossible to accurately detect the matching position. To prevent this, it is necessary to reduce the reduction ratio in the upper floor, but this causes a problem that the effect of reducing the amount of calculation by adopting the hierarchical structure is diminished.

【0013】上記の二方式は、要は、相関係数の演算量
を減少させるために、情報を抜粋して使用するようにし
たものである。全情報を使用しないため、マッチング位
置からはずれる危険性をはらんでいた。本発明の目的
は、情報を抜粋する代わりに、演算量が少ない相関係数
の演算方法を考案し、パターンの空間周波数による制限
を受けず、かつ、高速度の処理が求められる用途にも適
用可能なパターンマッチング方法を提供することにあ
る。
In the above two methods, the point is that information is extracted and used in order to reduce the amount of calculation of the correlation coefficient. Since all the information is not used, there is a risk of deviating from the matching position. An object of the present invention is to devise a calculation method of a correlation coefficient having a small amount of calculation instead of extracting information, and to be applied to an application which is not limited by a spatial frequency of a pattern and requires high-speed processing. It is to provide a possible pattern matching method.

【0014】[0014]

【課題を解決するための手段】上記目的を達成するため
に、請求項1のパターンマッチングによる画像位置検出
方法は、あらかじめ、観測画像および参照画像に対して
所定幅の一定値領域を付加して、画像の縦、横のサイズ
を2の階乗画素とする前処理を施すようにしたものであ
る。
In order to achieve the above object, a method for detecting an image position by pattern matching according to claim 1 is to add a constant value area having a predetermined width to an observation image and a reference image in advance. , Pre-processing is performed to set the vertical and horizontal sizes of the image to the factorial of 2 pixels.

【0015】また、請求項2のパターンマッチングによ
る画像位置検出方法は、観測画像及び参照画像の周囲
に、それぞれ所定幅の0領域を付加して同一サイズの画
像とする第1ステップと、0領域が付加された観測画像
及び参照画像をフーリエ変換し各々のフーリエ変換画像
を得る第2ステップと、一方のフーリエ変換画像に、他
方のフーリエ変換画像の複素共役を掛けてクロスパワー
スペクトルを得る第3ステップと、クロスパワースペク
トルを逆フーリエ変換して相互相関を得る第4ステップ
と、相関係相関上の強度のピーク位置から、観察画像と
参照画像のマッチング位置を検出する第5ステップとを
有するようにしたものである。
According to a second aspect of the present invention, there is provided a method for detecting an image position by pattern matching, wherein a first step of adding 0 areas each having a predetermined width around an observation image and a reference image to obtain images of the same size; A second step of Fourier transforming the observation image and the reference image to which each is added to obtain each Fourier transform image, and a third step of multiplying one Fourier transform image by a complex conjugate of the other Fourier transform image to obtain a cross power spectrum The method includes a step, a fourth step of obtaining a cross-correlation by performing an inverse Fourier transform of the cross power spectrum, and a fifth step of detecting a matching position between the observed image and the reference image from a peak position of the intensity on the phase relationship correlation. It was made.

【0016】また、請求項3のパターンマッチングによ
る画像位置検出方法は、前記0領域を付加して観測画像
と参照画像を同一サイズの画像にするに当たって、0領
域付加後の画像の縦、横のサイズが、2の階乗画素とな
るようにしたものである。
According to a third aspect of the present invention, in the method of detecting an image position by pattern matching, when the 0 area is added to make the observed image and the reference image the same size image, the vertical and horizontal directions of the image after the 0 area is added. The size is a factorial pixel of 2.

【0017】これらの発明により相互相関の演算量が減
少する原理を説明する。(数1)の分子は、二つの関数
sとrの畳み込みである。畳み込み定理によれば、「2
関数の畳込みは、各関数のフーリエ変換の積の逆フーリ
エ変換に等しい」ので、sとrの畳込みをする代わり
に、sとrのフーリエ変換S、Rを求め、これらの積を
逆フーリエ変換することが考えられる。上記ステップ
1、ステップ3、ステップ4がそれに当たる。普通に畳
込みの演算を行う場合、データの総数、すなわち、画像
の全画素数をN0とすると、積の計算の総回数はN0 2
である。一方、フーリエ変換を用いる場合、特にデータ
の総数が2の階乗個であれば、よく知られた高速フーリ
エ変換(fast Fourier transfor
m;FFT)のアルゴリズムが使用できるため、1回の
フーリエ変換に必要な積の計算回数は(N0/2)log2
0回である。上記の算法では、計3回のフーリエ変換
を行うため(始めに各関数のフーリエ変換を行い、その
後逆フーリエ変換を行う)、必要な積の計算回数は(3
0/2)log20回である。これは、明らかに、N0 2
回よりも少ない回数である。以上のように、フーリエ変
換を用いて畳み込みを求めるのは演算量の面で有利であ
る。
The principle by which the amount of calculation of the cross-correlation is reduced by these inventions will be described. The numerator of (Equation 1) is a convolution of two functions s and r. According to the convolution theorem, "2
The convolution of a function is equivalent to the inverse Fourier transform of the product of the Fourier transforms of each function. "Therefore, instead of convolving s and r, the Fourier transforms S and R of s and r are obtained, and these products are inversed. Fourier transformation is conceivable. Steps 1, 3, and 4 correspond to the above. For normal performing calculation of convolution, the total number of data, i.e., the total number of pixels of the image and N 0, the total number of calculations of the product is N 0 2 times. On the other hand, when the Fourier transform is used, particularly when the total number of data is a factorial of 2, the well-known fast Fourier transform (fast Fourier transform) is used.
m; for algorithms FFT) can be used, the number of calculations of the product required for the Fourier transform of one time (N 0/2) log 2
N 0 times. In the above algorithm, since the Fourier transform is performed a total of three times (the Fourier transform of each function is performed first, and then the inverse Fourier transform is performed), the number of times of calculation of the required product is (3
N is 0/2) log 2 N 0 times. This is, obviously, N 0 2
The number is less than the number of times. As described above, obtaining the convolution using the Fourier transform is advantageous in terms of the amount of computation.

【0018】ただし、フーリエ変換を用いて畳み込みを
求めるには、二つの関数のサイズ、すなわち画像のサイ
ズが等しい必要があり、図2(c)のように、サイズの
異なる画像(参照画像20>部分観測画像大11)の畳
み込みには使用できない。また、図2(a)と(b)は
同じサイズの画像であるが、この2画像に対して上記の
算法を適用しても、普通に計算した畳み込みと等しい演
算結果は得られない。異なったサイズ間の畳み込みに対
して、フーリエ変換を用いた算法を使用可能とするの
が、上記ステップ2の0領域である。0領域について
は、発明の実施の形態で詳しく説明する。本発明は、フ
ーリエ変換を用いることによって演算量の減少を図るも
のであり、従来の方法のように情報の抜粋を行うことに
よって演算量の減少を図るものではないため、パターン
の空間周波数によってマッチング位置からはずれるよう
な危険性もなく、かつ高速なパターンマッチングを可能
とする。
However, in order to obtain the convolution using the Fourier transform, the sizes of the two functions, that is, the sizes of the images, must be equal. As shown in FIG. It cannot be used for convolution of the partial observation image size 11). 2 (a) and 2 (b) are images of the same size, but even if the above-described algorithm is applied to these two images, an operation result equivalent to the convolution calculated normally cannot be obtained. It is the 0 region in step 2 that enables the use of an algorithm using the Fourier transform for convolution between different sizes. The region 0 will be described in detail in the embodiment of the present invention. The present invention aims to reduce the amount of computation by using the Fourier transform, and does not attempt to reduce the amount of computation by extracting information as in the conventional method. It enables high-speed pattern matching without the risk of deviating from the position.

【0019】また、請求項4のパターンマッチングによ
る画像位置検出方法は、前記相互相関を、観測画像の各
画素における値の2乗和の平方根と、参照画像の各画素
における値の2乗和の平方根の積で除算することにより
正規化するようにしたものである。
According to a fourth aspect of the present invention, in the method for detecting an image position by pattern matching, the cross-correlation is determined by calculating a square root of a sum of squares of the value of each pixel of the observed image and a sum of squares of the value of each pixel of the reference image. This is to normalize by dividing by the product of the square root.

【0020】観測画像と参照画像の各画素における値の
2乗和の平方根の積は、(数1)の分母に相当する。そ
して上述のように、前記ステップ1〜ステップ4で求め
た値は(数1)の分子と等価である。(数1)の分子
は、画像の明暗によって値が変化するため(明るいほど
大きな値に、暗いほど小さな値になる)、値そのものを
マッチングの尺度とすることはできないが、請求項4に
係わる発明にあっては、両画像の各画素における値の2
乗和の平方根の積で除算することにより、(画像の明る
さによらず)おおよそ−1から1の間に分布する正規化
された値とすることができる。例えば、画像上に照合す
るパターンがあるかないかを判断するのが目的であるよ
うな用途にあっては、値そのものによる判断が可能とな
る。さらに、観測画像と参照画像の明るさが異なってい
ても、等しいときと同様のマッチング性能を有するよう
になる。
The product of the square root of the sum of squares of the values at each pixel of the observation image and the reference image corresponds to the denominator of (Equation 1). Then, as described above, the values obtained in Steps 1 to 4 are equivalent to the numerator of (Equation 1). Since the value of the numerator in (Equation 1) changes depending on the brightness of the image (a brighter value becomes a larger value and a darker value becomes a smaller value), the value itself cannot be used as a measure of matching. According to the present invention, the value of each pixel of both images is 2
By dividing by the product of the square root of the sum of squares, it is possible to obtain a normalized value that is distributed between approximately -1 and 1 (regardless of the brightness of the image). For example, in an application in which the purpose is to determine whether or not there is a pattern to be collated on an image, it is possible to make a determination based on the value itself. Furthermore, even if the brightness of the observation image and the brightness of the reference image are different, the same matching performance as when the brightness is equal is obtained.

【0021】請求項5ないし請求項7は、それぞれ請求
項2ないし請求項3、請求項4の発明をN次元に拡張し
たものである。請求項2ないし請求項4の発明はいずれ
も画像という2次元のデータに対して適用しているが、
音声などの1次元データ、立体やカラー画像などの3次
元データなど、あらゆる次元数のデータに対しても、同
様の手段により同様の効果を得ることが可能となる。
Claims 5 to 7 are obtained by extending the inventions of claims 2 to 3 and 4 to N dimensions. Although the inventions of claims 2 to 4 are all applied to two-dimensional data of images,
Similar effects can be obtained by similar means for data of any number of dimensions, such as one-dimensional data such as voice, three-dimensional data such as three-dimensional or color images.

【0022】[0022]

【発明の実施の形態】次に図面を参照しながら、本発明
の実施例を説明する。
Embodiments of the present invention will now be described with reference to the drawings.

【0023】(実施の形態1)図1は、本発明に係るパ
ターンマッチング方法を用いた半導体ウェーハパターン
検査装置の概略ブロック図である。ここでは、電子線3
0により半導体ウェーハ100を走査して、電子線の照
射によって半導体ウェーハ100から発生する電子を検
知し、その強度変化に基づいて走査部位の電子線像を
得、電子線像を用いてパターン検査を行う。
Embodiment 1 FIG. 1 is a schematic block diagram of a semiconductor wafer pattern inspection apparatus using a pattern matching method according to the present invention. Here, electron beam 3
0, the semiconductor wafer 100 is scanned, electrons generated from the semiconductor wafer 100 by the irradiation of the electron beam are detected, and an electron beam image of a scanned portion is obtained based on the intensity change, and pattern inspection is performed using the electron beam image. Do.

【0024】半導体ウェーハには図4のごとく、最終的
に同一の製品となるチップが多数配列されている。図1
のパターン検査装置では、あるチップ(例えば図4のチ
ップ1)での検出画像を記憶しておき、別のチップ(例
えば図4のチップ2)での検出画像とを比較することに
より欠陥を認識する。
As shown in FIG. 4, a large number of chips that finally become the same product are arranged on a semiconductor wafer. FIG.
In the pattern inspection apparatus, a detected image of a certain chip (for example, chip 1 in FIG. 4) is stored, and a defect is recognized by comparing the detected image with another chip (for example, chip 2 in FIG. 4). I do.

【0025】本パターン検査装置は、図1に示す如く、
検出部101、画像処理部102、システム全体を制御
する全体制御部103からなる。全体制御部103は、
1台あるいは複数台のコンピュータから構成され、検出
部101、画像処理部102での各種動作のタイミング
の制御、座標管理を行うとともに、あらかじめプログラ
ミングされたシーケンスに従い、半導体ウェーハのセッ
ティングから、走査結果出力に至る一連の検査動作の制
御を司る。
As shown in FIG. 1, the present pattern inspection apparatus
It comprises a detection unit 101, an image processing unit 102, and an overall control unit 103 for controlling the entire system. The overall control unit 103
It consists of one or more computers, controls the timing of various operations in the detection unit 101 and the image processing unit 102, manages the coordinates, and outputs the scan results from the setting of the semiconductor wafer according to the sequence programmed in advance. It controls a series of inspection operations up to.

【0026】次に検出部101について説明する。電子
銃31を出た電子ビームは、コンデンサレンズ32、対
物レンズ33を経て、試料面では画素サイズ程度のビー
ム径に絞られる。電子線が照射されると、ウエハ100
からは電子が発生する。走査偏向器34による電子線の
X方向の繰り返し走査と、ステージ2による半導体ウェ
ーハ100のY方向の連続的な移動に同期して半導体ウ
ェーハ100から発生する電子を検出することで、2次
元の電子線像が得られる。発生した電子は検出器35で
捕らえられ、アンプ36で増幅された後、画像処理部に
入力される。
Next, the detecting section 101 will be described. The electron beam emitted from the electron gun 31 passes through the condenser lens 32 and the objective lens 33, and is condensed to a beam diameter of about a pixel size on the sample surface. When the electron beam is irradiated, the wafer 100
Generates electrons. By detecting the electrons generated from the semiconductor wafer 100 in synchronization with the repetitive scanning of the electron beam in the X direction by the scanning deflector 34 and the continuous movement of the semiconductor wafer 100 in the Y direction by the stage 2, two-dimensional electrons are detected. A line image is obtained. The generated electrons are captured by the detector 35, amplified by the amplifier 36, and then input to the image processing unit.

【0027】画像処理部102では、アンプ36で増幅
された信号をA/D変換器37によりデジタル画像デー
タに変換する。前処理回路38では、暗レベル補正、電
子源の揺らぎ補正、シューディング補正等の画像補正を
行う。シフトレジスタ等で構成される遅延回路39は、
前処理回路38を経た画像信号を一定時間だけ遅延させ
る。ここで、遅延時間を、例えばステージ2がチップ間
隔分(図4でのd1)移動する時間にすれば、理想的に
は、遅延された画像データrと遅延されていない画像デ
ータsとは隣り合うチップの、同じ箇所での画像信号と
なる。
In the image processing section 102, the signal amplified by the amplifier 36 is converted into digital image data by the A / D converter 37. The pre-processing circuit 38 performs image correction such as dark level correction, fluctuation correction of the electron source, and shading correction. The delay circuit 39 composed of a shift register or the like
The image signal that has passed through the preprocessing circuit 38 is delayed by a certain time. Here, if the delay time is, for example, a time required for the stage 2 to move by the chip interval (d1 in FIG. 4), ideally, the delayed image data r and the undelayed image data s are adjacent to each other. An image signal is obtained at the same location of a matching chip.

【0028】しかし、実際は電子光学系のドリフトや帯
電、あるいは半導体ウェーハ自身の帯電によって電子ビ
ームの偏向位置に狂いが生じたり、あるいは、ステージ
の振動の影響などによって、隣り合うチップの同じ箇所
の画像とはなり得ない。そこで、位置合わせ部40にお
いて、画像の位置合わせを行う。位置合わせ部40は、
位置ずれ量算出部41と、遅延回路51,52、および
アドレス制御部53、メモリ54,55とからなる。画
像データsおよびrは位置ずれ量算出部41に連続的に
入力され、メモリ42,43に一定量に至るまで蓄積さ
れて、一定サイズの画像となる。位置ずれ量算出部41
における以降の処理は、それら一定サイズの画像が処理
単位となる。位置ずれ量算出部41では、2枚の画像間
の相関係数分布を作成し、相関係数のピーク座標から位
置ずれ量を算出する。この間の処理内容が本発明に係わ
る部分であるが、これについては、別途、詳述すること
にする。
However, in practice, the deflection position of the electron beam is deviated due to the drift or charging of the electron optical system or the charging of the semiconductor wafer itself, or the image of the same portion of the adjacent chip is affected by the influence of the vibration of the stage. Can not be. Thus, the positioning unit 40 performs image positioning. The alignment unit 40
It comprises a displacement calculating unit 41, delay circuits 51 and 52, an address control unit 53, and memories 54 and 55. The image data s and r are continuously input to the displacement calculating unit 41, and are accumulated in the memories 42 and 43 up to a certain amount to form an image of a certain size. Position shift amount calculation unit 41
In the subsequent processing in, the image of the fixed size is a processing unit. The displacement calculator 41 creates a correlation coefficient distribution between the two images and calculates the displacement from the peak coordinates of the correlation coefficient. The processing content during this period is a part related to the present invention, and this will be separately described in detail.

【0029】シフトレジスタ等で構成された遅延回路5
1,52は、位置ずれ量算出部41において位置ずれ量
を求めるのに要する時間分だけ画像信号rとsを遅延さ
せるためのものである。アドレス制御部53は、位置ず
れ量算出部41で求められた位置ずれ量に基づきメモリ
54,55のアドレスを制御して画像データs,rの座
標をシフトさせ、互いに位置のあった画像データs1,
r1とする。比較検査部60では、互いに位置のあった
画像データs1とr1を比較し、一定基準を越える不一
致を欠陥と判定する。欠陥編集部61では、近隣の不一
致部同士を一つにまとめるマージ処理を行い、一まとま
りごとに重心座標、xy投影長、面積などの特徴量を算
出する。算出結果は全体制御部103に渡され、全体制
御部103では、検出画像上での位置座標を半導体ウェ
ーハ100上の座標系に変換し、最終的に、半導体ウェ
ーハ100上での位置と、欠陥編集部61から算出され
た特徴量とからなる欠陥データをまとめる。
A delay circuit 5 composed of a shift register or the like
Reference numerals 1 and 52 are for delaying the image signals r and s by the time required for the position shift amount calculation unit 41 to calculate the position shift amount. The address controller 53 shifts the coordinates of the image data s, r by controlling the addresses of the memories 54, 55 based on the position shift amount obtained by the position shift amount calculator 41, and shifts the image data s1 that is located to each other. ,
Let it be r1. The comparison inspection unit 60 compares the image data s1 and r1 that are located at the same position with each other, and determines a mismatch that exceeds a predetermined reference as a defect. The defect editing unit 61 performs a merging process to combine neighboring mismatched parts into one, and calculates a feature amount such as a barycentric coordinate, an xy projection length, and an area for each unit. The calculation result is passed to the overall control unit 103. The overall control unit 103 converts the position coordinates on the detected image into a coordinate system on the semiconductor wafer 100, and finally determines the position on the semiconductor wafer 100 and the defect. The defect data including the feature amounts calculated by the editing unit 61 is collected.

【0030】以下、位置ずれ量算出部41における処理
内容を、処理フローに基づいて説明する。図5は、本発
明に係るパターンマッチング方法の基本的な処理フロー
である。なお、記述中(ステップx)の語句は、図5の
各処理に対して付した番号xに相当するものとする。
Hereinafter, the processing contents of the displacement calculating section 41 will be described based on a processing flow. FIG. 5 is a basic processing flow of the pattern matching method according to the present invention. Note that the phrase in the description (step x) corresponds to the number x assigned to each process in FIG.

【0031】始めに、(画像sと画像rは元々は同一サ
イズの画像であるが)画像sからはM×M画素の画像
を、画像rからN×N画素の画像を切り出す(図6
(a)(b)参照、ステップ401,402)。M×M
画素の画像が部分観測画像に、N×N画素の画像が参照
画像に相当し、以降の処理により、部分観測画像が、最
も適合する参照画像上の画像領域の位置を求める。ここ
で、二つの画像間の位置ずれ量の見込みが最大±d画素
とすると、位置ずれ量が+d画素の場合でも、−d画素
の場合でも、部分観測画像と最も適合する参照画像上の
画像領域が、参照画像に含まれるためには、M≧N+2
dを満たさなければならない。
First, an image of M × M pixels is cut out from the image s (although the images s and r are originally images of the same size), and an image of N × N pixels is cut out from the image r (FIG. 6).
(See (a) and (b), steps 401 and 402). M × M
The image of the pixel corresponds to the partial observation image, and the image of N × N pixels corresponds to the reference image, and the position of the image area on the reference image to which the partial observation image is most suitable is obtained by the subsequent processing. Here, assuming that the expected amount of the displacement between the two images is a maximum of ± d pixels, the image on the reference image that best matches the partial observation image regardless of whether the displacement is + d pixels or −d pixels. In order for the region to be included in the reference image, M ≧ N + 2
d must be satisfied.

【0032】次に、切り出した画像に0領域を付加し、
画像の縦、横のサイズZが2の階乗画素(2n画素)に
なるようにする(図6(c),(d)参照、ステップ4
01,402)。
Next, 0 area is added to the cut image,
The vertical and horizontal size Z of the image is set to a factorial pixel of 2 (2 n pixels) (see FIGS. 6C and 6D, step 4).
01, 402).

【0033】[0033]

【数2】 (Equation 2)

【0034】次に、(数2)に従って、0領域の付加さ
れた部分観測画像(図6(c))、0領域の付加された
参照画像(図6(d))のFFT(高速フーリエ変換)
を行い、フーリエ変換画像を生成する(ステップ40
5,406)。前のステップにおいて画像の縦横のサイ
ズを2n画素にしたのは、FFTを可能とするためであ
る。
Next, according to (Equation 2), the FFT (fast Fourier transform) of the partial observation image to which the 0 region is added (FIG. 6C) and the reference image to which the 0 region is added (FIG. 6D) are performed. )
To generate a Fourier-transformed image (step 40).
5,406). The reason why the vertical and horizontal size of the image is set to 2 n pixels in the previous step is to enable FFT.

【0035】[0035]

【数3】 (Equation 3)

【0036】次に、(数3)に従って、二つのフーリエ
変換画像の積である、クロスパワースペクトルを求める
(ステップ407)。
Next, a cross power spectrum, which is the product of the two Fourier transform images, is obtained according to (Equation 3) (step 407).

【0037】[0037]

【数4】 (Equation 4)

【0038】次に、(数4)に従って、クロスパワース
ペクトルのFFT~1(高速逆フーリエ変換)を行い、相
互相関corr0を得る。相互相関corr0は、(数
1)の分子に相当する。相互相関もまた縦横のサイズが
Zの2次元配列であるが、有効領域は中央の((N−
M)/2)×((N−M)/2)画素の領域である。
Next, FFT- 1 (fast inverse Fourier transform) of the cross power spectrum is performed according to (Equation 4) to obtain a cross correlation corr0. The cross-correlation corr0 corresponds to the numerator of (Equation 1). The cross-correlation is also a two-dimensional array with a vertical and horizontal size of Z, but the effective area is at the center ((N−N−
M) / 2) × ((N−M) / 2) pixels.

【0039】最後に、得られた相互相関が、有効領域内
で最大値をとる座標を求める(ステップ409)。図7
において、dx,dyがそれぞれx方向、y方向の位置
ずれ量である。
Finally, the coordinates at which the obtained cross-correlation takes the maximum value in the effective area are obtained (step 409). FIG.
In the above, dx and dy are the displacement amounts in the x and y directions, respectively.

【0040】ここで、0領域の意味について説明する。Here, the meaning of the 0 area will be described.

【0041】フーリエ変換を用いて求められた相互相関
は、二つの画像が、画像のサイズを周期として、巡回的
な値をとるとして求めた相互相関に等しい。そして、そ
れら二つの画像は同一のサイズでなければならない。す
なわち、図8(a)と、図8(b)の二つの画像の相互
相関をフーリエ変換を用いて求めると、ちょうど、図8
(c)のような状況における相互相関を求めることにな
る。同一サイズの画像同士の相互相関なので、一方の画
像を他方の画像に対してちょうど重ねた(ずらし量0に
おける)位置関係における相互相関値だけしか求まらな
いはずなのであるが、フーリエ変換を用いると、一方の
画像を他方の画像に対してずらした時の相互相関値まで
が自動的に計算されてしまう。そこでの相互相関値が意
味のないものであることは、図8(c)のように明らか
である。
The cross-correlation obtained by using the Fourier transform is equal to the cross-correlation obtained when the two images take a cyclic value with the size of the image as a cycle. The two images must be the same size. That is, when the cross-correlation between the two images of FIG. 8A and FIG. 8B is obtained by using the Fourier transform,
The cross-correlation in the situation as shown in FIG. Since cross-correlation between images of the same size, only the cross-correlation value in a positional relationship where one image is superimposed on the other image (at a shift amount of 0) should be obtained, but Fourier transform is used. And the cross-correlation value when one image is shifted with respect to the other image is automatically calculated. It is clear that the cross-correlation value there is meaningless as shown in FIG.

【0042】一方、0領域を付加して二つの画像を同一
サイズの画像とする場合を図9に示す。フーリエ変換を
用いて求めた相互相関は、二つの画像、図9(a)、図
9(b)が、画像のサイズを周期として、巡回的な値を
とるとして求めた相互相関に等しい。しかし、今度の場
合は、先ほどの図8とは異なり、一方の画像を他方の画
像に対してずらした時にはみ出す部分には、値0が詰ま
っているので、相互相関値に影響を及ぼすことはない。
また、図9(c)をみれば、相互相関値の計算結果とし
て意味がある有効領域が、中央の((N−M)/2)×
((N−M)/2)画素の領域であることも明らかであ
る。
On the other hand, FIG. 9 shows a case where two images are made the same size by adding a zero area. The cross-correlation obtained using the Fourier transform is equal to the cross-correlation obtained between the two images, FIGS. 9A and 9B, taking a cyclic value with the image size as a cycle. However, in this case, unlike FIG. 8 described above, the portion protruding when one image is shifted with respect to the other image is filled with the value 0, so that it does not affect the cross-correlation value. Absent.
Also, referring to FIG. 9C, the effective area that is significant as the calculation result of the cross-correlation value is ((N−M) / 2) ×
It is also clear that this is an area of ((N−M) / 2) pixels.

【0043】次に図1に戻って、半導体ウェーハパター
ン検査装置の位置ずれ量算出部41における、図5の処
理フローの実現方法を説明する。半導体ウェーハパター
ン検査装置においては、画像データsおよびrは、連続
的に1画素ずつ位置ずれ量算出部41入力されるが、パ
ターンマッチングには、一定サイズの画像が必要なた
め、まず、メモリ42,43に一定サイズの画像に相当
するデータを蓄積する。全体制御部103はメモリ4
2,43のアドレスを制御し、0領域を付加した画像
(図6(c)、図6(d))が出力されるようにする。
なお、0領域を付加して出力する間も、連続的に入力さ
れる画像データを受け入れなければならないため、メモ
リ42,43は2バンクメモリとし、入力用と出力用を
交互に使用するようにする。0領域が付加された画像デ
ータは、FFT回路44,45に入力され、フーリエ変
換される。なお、FFT回路は、ハードウェアの規模は
大きくなるが、浮動小数点演算が可能な演算回路である
ことが望ましい。またFFT専用のLSIを使用しても
よい。
Next, returning to FIG. 1, a description will be given of a method for realizing the processing flow of FIG. 5 in the positional deviation amount calculating section 41 of the semiconductor wafer pattern inspection apparatus. In the semiconductor wafer pattern inspection apparatus, the image data s and r are continuously input one pixel at a time to the displacement amount calculating unit 41. However, since an image of a certain size is required for pattern matching, , 43 store data corresponding to images of a fixed size. The overall control unit 103 is a memory 4
The addresses 2 and 43 are controlled so that images (FIG. 6C and FIG. 6D) to which the 0 area is added are output.
Since the image data that is continuously input must be received even while the output is performed with the 0 area added, the memories 42 and 43 are two-bank memories, and the input and output memories are used alternately. I do. The image data to which the 0 region has been added is input to the FFT circuits 44 and 45 and is subjected to Fourier transform. Note that the FFT circuit has a large hardware scale, but is preferably an arithmetic circuit capable of performing floating-point arithmetic. Further, an LSI dedicated to FFT may be used.

【0044】フーリエ変換された画像データは、クロス
パワースペクトル演算回路46に入力され、掛け合わさ
れてクロスパワースペクトルが求められる。クロスパワ
ースペクトルは、FFT~1回路47に入力され、逆フー
リエ変換され、その結果である、相互相関がメモリ48
に書き込まれる。サブCPUでは、メモリ48に書き込
まれたデータのうち、有効領域(図7参照)に相当する
データを読みとり、最大値をとる座標を求める。なお、
メモリ48についても、先程と同じ理由から、2バンク
メモリであることが望ましい。
The Fourier-transformed image data is input to a cross power spectrum calculation circuit 46, where it is multiplied to obtain a cross power spectrum. The cross power spectrum is input to the FFT- 1 circuit 47, subjected to inverse Fourier transform, and the resulting cross correlation is stored in the memory 48.
Is written to. The sub CPU reads data corresponding to the effective area (see FIG. 7) from the data written in the memory 48, and obtains the coordinates that take the maximum value. In addition,
The memory 48 is preferably a two-bank memory for the same reason as described above.

【0045】なお、画像処理部102に入力される画像
は、x方向の幅がビームの偏向幅に相当し、y方向は連
続的に続く画像である。画像上に歪み(すなわち、場所
によって異なる位置ずれ)が想定される場合、高精度の
位置ずれ量算出、比較検査を行うためには、歪みが問題
とならない程度に画像を分割する必要がある。この際、
図6(a)のように、画像の周囲は切り捨てられ無効と
なるため、単に分割するのでなく、処理単位を互いをオ
ーバーラップさせないと、検査されない領域が生ずるこ
とになる。図10(a)の画像Aを拡大して、その一部
を示したのが図10(b)である。上記の切り捨て幅を
1とすると、処理単位は、x方向、y方向とも2d1
上オーバーラップさせる必要がある。
The image input to the image processing unit 102 has an x-direction width corresponding to the beam deflection width and a y-direction continuous image. When distortion (that is, positional deviation that varies depending on the location) is assumed on an image, it is necessary to divide the image to such an extent that distortion does not become a problem in order to perform highly accurate positional deviation calculation and comparative inspection. On this occasion,
As shown in FIG. 6A, the periphery of the image is truncated and becomes invalid. Therefore, if the processing units are not simply divided but the processing units are not overlapped with each other, an area that is not inspected occurs. FIG. 10B shows an enlarged image A of FIG. 10A and shows a part thereof. Assuming that the above truncation width is d 1 , the processing units need to overlap by 2d 1 or more in both the x and y directions.

【0046】また、以上の実施の形態においては、画像
のx方向の幅とy方向の幅が等しいとしたが、必ずしも
等しい必要はない。0領域を付加する際は、0領域を付
加した結果の画像の縦・横とも2の階乗画素とするが、
縦幅=横幅である必要は必ずしもない(例えば、横が1
28画素、縦が32画素でも全く差し支えない)。
In the above embodiment, the width of the image in the x direction is equal to the width of the image in the y direction. However, the width is not necessarily required to be equal. When the 0 region is added, both the height and width of the image resulting from the addition of the 0 region are two factorial pixels.
It is not always necessary that height = width (for example, 1 is width)
28 pixels and 32 pixels in height are acceptable.)

【0047】以上のように、本発明によれば、図1の位
置ずれ量算出部41の構成により、複数の走査位置にお
ける相互相関が同時に算出できるようになるため、処理
速度に対する要求によっては走査位置の個数分の相互相
関演算回路を設けなければならなかった従来に比べる
と、ハードウェア規模の大幅な縮小が可能となる。ま
た、この効果は、走査位置の個数が多いほど顕著であ
る。
As described above, according to the present invention, the cross-correlation at a plurality of scanning positions can be calculated at the same time by the configuration of the displacement calculating unit 41 in FIG. The hardware scale can be greatly reduced as compared with the related art in which the number of cross-correlation calculation circuits for the number of positions must be provided. This effect is more remarkable as the number of scanning positions increases.

【0048】(実施の形態2)次に、本発明に係わる第
2の実施の形態を図11に示す。実施の形態2は、実施
の形態1では実施していなかった、相互相関の正規化を
行うようにしたものである。図11の位置ずれ量算出部
71における処理内容が、図1の位置ずれ量算出部41
における処理内容と一部異なる。図12に、実施の形態
2に係わる位置ずれ量算出部71の処理フローを示す。
ここでは、図5の処理フローと同一処理内容のものにつ
いては、同一番号を付した。図5の処理フローと相違す
るステップ601、ステップ602、ステップ603に
ついて説明する。
(Embodiment 2) Next, FIG. 11 shows a second embodiment according to the present invention. In the second embodiment, cross-correlation normalization, which is not performed in the first embodiment, is performed. The processing content of the displacement calculating unit 71 in FIG. 11 is the same as the displacement calculating unit 41 in FIG.
Partially different from the processing contents in. FIG. 12 shows a processing flow of the displacement calculating unit 71 according to the second embodiment.
Here, the same processes as those in the process flow of FIG. 5 are denoted by the same reference numerals. Steps 601, 602, and 603 that are different from the processing flow in FIG. 5 will be described.

【0049】[0049]

【数5】 (Equation 5)

【0050】[0050]

【数6】 (Equation 6)

【0051】[0051]

【数7】 (Equation 7)

【0052】ステップ601では、(数5)に従って、
M×M画素のサイズの部分観測画像(図6(c)の0領
域を除く領域)の2乗和sumsを算出する。また、ス
テップ602では、(数6)に従って、N×N画素サイ
ズの参照画像(図6(d)の0領域を除く領域)の2乗
和sumrを算出する。そして、ステップ603では、
(数7)に従って、corr0をcorr1に変換す
る。corr1は、おおよそ−1〜1の間に分布するよ
うになる。
In step 601, according to (Equation 5),
Calculating the square sum sum s of M × M pixel size of the partial observation image (a region excluding 0 region of Figure 6 (c)). Further, in step 602, the sum of squares sum r of the reference image of N × N pixels (the area excluding the 0 area in FIG. 6D) is calculated according to (Equation 6). Then, in step 603,
According to (Equation 7), corr0 is converted to corr1. corr1 is distributed between approximately −1 and 1.

【0053】相互相関corr0、すなわち、ステップ
601、ステップ602、ステップ603を実施しない
で得られる相互相関は、(数1)の分子に等しい。(数
7)により正規化された相互相関corr1と、(数
1)のcorrとを比較すると、(数1)における参照
画像(画像r)の2乗和は走査位置が変わるつど計算さ
れるのに対して、(数7)の参照画像(画像r)の2乗
和は固定値である点が異なる。従って、本処理によって
もとめられる相互相関corr1は厳密な意味で正規化
されたものではない。(数7)のような正規化としたの
は、演算量をなるべく増やさない、言い換えればハード
ウェアの規模をなるべく大きくしないためである。パタ
ーンマッチングの精度は、(数1)に従って求められた
真の正規化相互相関に比べて劣るが、多くの場合、その
誤差は画素未満であり、実用上の問題は少ない。もちろ
ん、ハードウェアの規模を気にする必要がない場合は、
(数1)に従った厳密な正規化を行ってもよい。
The cross-correlation corr0, that is, the cross-correlation obtained without performing steps 601, 602, and 603, is equal to the numerator of (Equation 1). When the cross-correlation corr1 normalized by (Equation 7) is compared with the corr of (Equation 1), the sum of squares of the reference image (image r) in (Equation 1) is calculated every time the scanning position changes. However, the difference is that the sum of squares of the reference image (image r) in (Equation 7) is a fixed value. Therefore, the cross-correlation corr1 obtained by this processing is not normalized in a strict sense. The reason for the normalization as in (Equation 7) is that the amount of calculation is not increased as much as possible, in other words, the scale of the hardware is not increased as much as possible. The precision of pattern matching is inferior to the true normalized cross-correlation obtained according to (Equation 1), but in most cases the error is less than a pixel and there are few practical problems. Of course, if you don't need to worry about hardware size,
Strict normalization according to (Equation 1) may be performed.

【0054】図11の半導体ウェーハパターン検査装置
の位置ずれ量算出部71においては、2乗和演算回路7
1,72において、それぞれ図12の処理フローにおけ
るステップ601,602、すなわち(数5)、(数
6)の演算を実施する。その結果は、サブCPU49に
送られ、サブCPU49では(数7)に示される演算を
行った後、実施の形態1と同様、有効領域内で相互相関
値が最大値を取る座標から位置ずれ量を算出する。な
お、図11では、(数7)の割り算処理をサブCPU4
9で行うようにしたが、演算時間が不足するようであれ
ば、割り算回路に置き換えてもよい。
In the position shift amount calculating section 71 of the semiconductor wafer pattern inspection apparatus shown in FIG.
In steps 1 and 72, the operations of steps 601 and 602 in the processing flow of FIG. The result is sent to the sub-CPU 49, and after performing the calculation shown in (Equation 7), the sub-CPU 49 performs the displacement from the coordinate at which the cross-correlation value takes the maximum value in the effective area as in the first embodiment. Is calculated. Note that in FIG. 11, the division processing of (Equation 7) is
Although the processing is performed in step 9, if the calculation time is insufficient, a division circuit may be used.

【0055】本実施の形態によれば、実施の形態1の効
果に加えて、相互相関が正規化されるため、次のような
効果を有するようになる。本実施の形態によれば、相互
相関値そのものが、マッチング度を表すようになる。こ
のことは、観測画像と参照画像の明るさがことなってい
ても、等しいときと同様のマッチング性能を有すること
を意味している。また、半導体ウェーハの検査において
は、相互相関が基準値よりも低ければ、位置合わせ不成
功として、その領域についての検査結果の出力をコント
ロールするといったようなことも可能となる。
According to the present embodiment, in addition to the effect of the first embodiment, since the cross-correlation is normalized, the following effect is obtained. According to the present embodiment, the cross-correlation value itself indicates the degree of matching. This means that even if the brightness of the observation image and the brightness of the reference image are different, the same matching performance as when the brightness is equal is obtained. Further, in the inspection of the semiconductor wafer, if the cross-correlation is lower than the reference value, it is possible to determine that the alignment is unsuccessful and to control the output of the inspection result for the area.

【0056】(実施の形態3)次に、本発明に係わる第
3の実施の形態を図13に示す。図13(a)はプリン
ト基板上のチップ部品のはんだ付け部の自動検査システ
ムであり、本実施例においては、プリント板上の位置決
め用のマークを認識するのに本発明のパターンマッチン
グを用いる。
(Embodiment 3) FIG. 13 shows a third embodiment according to the present invention. FIG. 13A shows an automatic inspection system for a soldered portion of a chip component on a printed board. In this embodiment, the pattern matching of the present invention is used to recognize a positioning mark on a printed board.

【0057】図13(a)において、80はチップ部品
が実装されたプリント基板、81は検査対象物を撮像す
るための結像レンズ付のTVカメラ、82は、TVカメ
ラ81で検出された画像に対して、図11の処理フロー
に沿った処理を施す画像処理部である。画像処理部82
は、コンピュータおよびインターフェースなどからな
り、図11の処理フローに沿うソフトウェアを実行する
ものである。
13A, reference numeral 80 denotes a printed circuit board on which chip components are mounted, 81 denotes a TV camera with an imaging lens for picking up an object to be inspected, and 82 denotes an image detected by the TV camera 81. Is an image processing unit that performs processing according to the processing flow of FIG. Image processing unit 82
Is composed of a computer, an interface, and the like, and executes software according to the processing flow of FIG.

【0058】プリント板80には、図13(b)に示す
ような位置決めマークがプリントされており、このマー
クの位置を認識することにより、システムはプリント板
の位置を認識する。本発明のパターンマッチングを行う
には、検査に先立ち、画像処理部82内のコンピュータ
に、位置決めマークの検出画像を記憶させておく。図示
しない搬送装置によってプリント基板80がシステムに
セットされると、図示しない照明装置により照明され、
位置決めマークを含む領域の画像が検出される。コンピ
ュータは、予め記憶させた位置決めマークと、位置決め
マークを含む領域の検出画像とのパターンマッチング
を、図11の処理フローに沿って実施し、検出画像上の
位置決めマークの位置を認識する。
A positioning mark as shown in FIG. 13B is printed on the printed board 80. By recognizing the position of the mark, the system recognizes the position of the printed board. In order to perform the pattern matching of the present invention, a detection image of the positioning mark is stored in a computer in the image processing unit 82 prior to the inspection. When the printed circuit board 80 is set in the system by a transport device (not shown), it is illuminated by a lighting device (not shown),
An image of the area including the positioning mark is detected. The computer performs pattern matching between the previously stored positioning mark and the detected image of the area including the positioning mark according to the processing flow of FIG. 11 to recognize the position of the positioning mark on the detected image.

【0059】実施の形態1、あるいは実施の形態2にお
いては、高速度で連続的に入力される画像データに対し
て、遅滞なくパターンマッチング処理を行う必要があっ
たため、図5、図11の処理をハードウェアにより実現
したが、位置決めマークの認識は基板1枚につき、2,
3箇所だけ行えば十分であるため、コンピュータによる
ソフトウェア処理で実施した方がコスト的に有利であ
る。
In the first embodiment or the second embodiment, it is necessary to perform pattern matching processing on image data continuously input at a high speed without delay. Was realized by hardware, but recognition of the positioning mark was 2 per board.
Since it is sufficient to perform the processing only at three places, it is more cost-effective to perform the processing by software using a computer.

【0060】本実施の形態によれば、正規化相互相関の
利点、例えば、照明光の変動による画像の濃度値に影響
されにくいこと、あるいは、位置決めマークの画像を記
憶させておくだけで、マークごとに個別の位置認識アル
ゴリズムを必要としないことなどはそのまま、処理時間
を大幅に短縮することが可能となる。
According to this embodiment, the advantage of the normalized cross-correlation, for example, that the image is hardly influenced by the density value of the image due to the variation of the illumination light, or that the mark of the positioning mark is stored only by storing the image of the mark. The processing time can be greatly reduced without the need for an individual position recognition algorithm for each.

【0061】(実施の形態4)本発明は音声などの1次
元データ、立体やカラー画像などの3次元データなど、
あらゆる次元数のデータのマッチングに対しても有効で
ある。画像を対象とした場合の図5の処理フローに相当
する、1次元データ用の処理フローを図14に示す。
(Embodiment 4) The present invention relates to one-dimensional data such as sound, three-dimensional data such as three-dimensional and color images, etc.
It is also effective for matching data of any number of dimensions. FIG. 14 shows a processing flow for one-dimensional data corresponding to the processing flow of FIG. 5 when an image is targeted.

【0062】[0062]

【発明の効果】本発明は、対象物の観測画像に対して、
あらかじめ登録された参照画像を重ね合わせて、マッチ
ング位置を検出するパターンマッチング方法において、
観測画像および参照画像に対して所定幅の一定値(具体
的には0)の領域を付加して、画像の縦、横のサイズを
2の階乗画素とする前処理を施す。この前処理により、
相関係数分布を得るのに、畳み込み定理に従った算出方
法、すなわち、観測画像及び参照画像のフーリエ変換結
果の積(クロスパワースペクトル)を逆フーリエ変換す
るという算出方法を用いることができるようになる。そ
の結果、相関係数の分布を得るための演算量が、従来に
比べて大幅に少なくなり、高速性が要求されるパターン
マッチングにも用いることが可能となる。
According to the present invention, an observation image of an object is
In a pattern matching method for detecting a matching position by superimposing reference images registered in advance,
Preprocessing is performed by adding an area of a predetermined width and a constant value (specifically, 0) to the observation image and the reference image and setting the vertical and horizontal sizes of the image to 2 factor pixels. With this preprocessing,
In order to obtain the correlation coefficient distribution, a calculation method according to the convolution theorem, that is, a calculation method in which the product (cross power spectrum) of the Fourier transform result of the observed image and the reference image is subjected to inverse Fourier transform can be used. Become. As a result, the amount of calculation for obtaining the distribution of the correlation coefficient is significantly reduced as compared with the related art, and it can be used for pattern matching requiring high speed.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施例に係わる半導体ウェーハパタ
ーン検査装置の概略ブロック図である。
FIG. 1 is a schematic block diagram of a semiconductor wafer pattern inspection apparatus according to one embodiment of the present invention.

【図2】(a)ないし(c)は従来のパターンマッチン
グ方法の説明図である。
FIGS. 2A to 2C are explanatory diagrams of a conventional pattern matching method.

【図3】従来のパターンマッチング方法の説明図であ
る。
FIG. 3 is an explanatory diagram of a conventional pattern matching method.

【図4】本発明の一実施例に係わる半導体ウェーハパタ
ーン検査装置において、比較する画像の位置関係を示す
図である。
FIG. 4 is a diagram showing a positional relationship of images to be compared in the semiconductor wafer pattern inspection apparatus according to one embodiment of the present invention.

【図5】本発明の一実施例に係わる位置ずれ量算出の処
理フロー図である。
FIG. 5 is a processing flowchart for calculating a displacement amount according to an embodiment of the present invention.

【図6】(a)ないし(d)は本発明の0領域の付加方
法を説明する図である。
FIGS. 6A to 6D are diagrams for explaining a method of adding a 0 region according to the present invention.

【図7】本発明の相関係数分布における有効領域を説明
する図である。
FIG. 7 is a diagram illustrating an effective area in a correlation coefficient distribution according to the present invention.

【図8】(a)ないし(c)は本発明の0領域がない場
合のフーリエ変換を用いて算出された相関係数の意味を
説明する図である。
FIGS. 8A to 8C are diagrams illustrating the meaning of a correlation coefficient calculated using Fourier transform when there is no 0 region according to the present invention.

【図9】(a)ないし(c)は本発明の0領域がある場
合のフーリエ変換を用いて算出された相関係数の意味を
説明する図である。
FIGS. 9A to 9C are diagrams illustrating the meaning of a correlation coefficient calculated using Fourier transform when there is a zero region according to the present invention.

【図10】(a)及び(b)は本発明の処理単位のオー
バーラップのさせ方を説明する図である。
FIGS. 10A and 10B are diagrams for explaining how to overlap processing units according to the present invention.

【図11】本発明の第2の実施例に係わる半導体ウェー
ハパターン検査装置の概略ブロック図である。
FIG. 11 is a schematic block diagram of a semiconductor wafer pattern inspection apparatus according to a second embodiment of the present invention.

【図12】本発明の第2の実施例に係わる位置ずれ量算
出の処理フロー図である。
FIG. 12 is a processing flowchart for calculating a displacement amount according to the second embodiment of the present invention.

【図13】(a)及び(b)は本発明の第3の実施例に
係わるプリント基板上のチップ部品のはんだ付け部の自
動検査システムの概略構成図である。
FIGS. 13A and 13B are schematic diagrams of an automatic inspection system for a soldered portion of a chip component on a printed circuit board according to a third embodiment of the present invention.

【図14】本発明の第4の実施例に係わる1次元のデー
タマッチングを行う処理フロー図である。
FIG. 14 is a processing flowchart for performing one-dimensional data matching according to the fourth embodiment of the present invention.

【符号の説明】[Explanation of symbols]

10…観測画像、 11…部分観測画像、 2
0…参照画像、40…位置合わせ部、 41…位置ずれ
量算出部、 60…比較検査部、61…欠陥編集部、
100…ウエハ、 101…検出部、102…
画像処理部、 103…全体制御部。
10: observation image, 11: partial observation image, 2
0: Reference image, 40: Positioning unit, 41: Position shift amount calculating unit, 60: Comparative inspection unit, 61: Defect editing unit,
100: wafer, 101: detection unit, 102:
Image processing unit 103: Overall control unit.

───────────────────────────────────────────────────── フロントページの続き (72)発明者 高木 裕治 神奈川県横浜市戸塚区吉田町292番地株式 会社日立製作所生産技術研究所内 (72)発明者 前田 俊二 神奈川県横浜市戸塚区吉田町292番地株式 会社日立製作所生産技術研究所内 Fターム(参考) 2F065 AA17 AA20 BB02 BB27 CC01 CC19 DD06 FF01 FF04 JJ03 JJ19 JJ26 QQ03 QQ12 QQ16 QQ23 QQ25 QQ26 QQ29 QQ31 QQ38 QQ42 RR06 RR08 TT07 5B057 AA03 BA29 CD12 CE09 DA03 DA07 DC34 5L096 BA03 EA14 EA35 FA23 FA34 FA69 HA07 LA04 LA10  ──────────────────────────────────────────────────続 き Continuing on the front page (72) Inventor Yuji Takagi 292 Yoshida-cho, Totsuka-ku, Yokohama-shi, Kanagawa Prefecture Inside the Hitachi, Ltd. Production Technology Research Institute (72) Inventor Shunji 292 Yoshida-cho, Totsuka-ku, Yokohama-shi, Kanagawa Prefecture F-term (reference) in Hitachi, Ltd. Production Technology Laboratory 2F065 AA17 AA20 BB02 BB27 CC01 CC19 DD06 FF01 FF04 JJ03 JJ19 JJ26 QQ03 QQ12 QQ16 QQ23 QQ25 QQ26 QQ29 QQ31 QQ38 QQ42 RR06 RR08 TT07 5B009A03 DA03 DA03 FA23 FA34 FA69 HA07 LA04 LA10

Claims (7)

【特許請求の範囲】[Claims] 【請求項1】対象物の観測画像に対して、あらかじめ登
録された参照画像を重ね合わせて、マッチング位置を検
出するパターンマッチング方法において、観測画像およ
び参照画像に対して所定幅の一定値領域を付加して、画
像の縦、横のサイズを2の階乗画素とする前処理を施す
ことを特徴とするパターンマッチング方法。
1. A pattern matching method for detecting a matching position by superimposing a reference image registered in advance on an observation image of an object, wherein a constant value region having a predetermined width is defined for the observation image and the reference image. A pattern matching method characterized by performing a pre-processing in which the vertical and horizontal sizes of an image are 2 factor pixels.
【請求項2】対象物の観測画像に対して、あらかじめ登
録された参照画像を重ね合わせて、マッチング位置を検
出するパターンマッチング方法において、観測画像及び
参照画像の周囲に、それぞれ所定幅の0領域を付加して
同一サイズの画像とする第1ステップと、0領域が付加
された観測画像及び参照画像をフーリエ変換し各々のフ
ーリエ変換画像を得る第2ステップと、一方のフーリエ
変換画像に、他方のフーリエ変換画像の複素共役を掛け
てクロスパワースペクトルを得る第3ステップと、クロ
スパワースペクトルを逆フーリエ変換して相互相関を得
る第4ステップと、相互相関の強度のピーク位置から、
観察画像と参照画像のマッチング位置を検出する第5ス
テップとを有することを特徴とするパターンマッチング
方法。
2. A pattern matching method for detecting a matching position by superimposing a reference image registered in advance on an observation image of an object, wherein 0 areas of a predetermined width are respectively provided around the observation image and the reference image. A first step of obtaining an image of the same size by adding a second image, a second step of performing a Fourier transform on the observed image and the reference image to which the 0 region is added, and obtaining respective Fourier transformed images. A third step of obtaining a cross power spectrum by multiplying the complex conjugate of the Fourier transform image of the following, a fourth step of obtaining a cross-correlation by performing an inverse Fourier transform of the cross-power spectrum, and a peak position of the cross-correlation intensity,
A fifth step of detecting a matching position between the observation image and the reference image.
【請求項3】前記0領域を付加して観測画像と参照画像
を同一サイズの画像にするに当たっては、0領域付加後
の画像の縦、横のサイズが、2の階乗となるようにする
ことを特徴とする請求項2記載のパターンマッチング方
法。
3. When adding the 0 area to make the observation image and the reference image the same size, the vertical and horizontal sizes of the image after the 0 area is added are set to the factorial of 2. 3. The pattern matching method according to claim 2, wherein:
【請求項4】前記相互相関を、観測画像の各画素におけ
る値の2乗和の平方根と、参照画像の各画素における値
の2乗和の平方根の積で除算することにより正規化する
ことを特徴とする請求項2記載のパターンマッチング方
法。
4. Normalizing the cross-correlation by dividing the square root of the sum of squares of the value at each pixel of the observed image by the square root of the sum of squares of the value at each pixel of the reference image. 3. The pattern matching method according to claim 2, wherein:
【請求項5】対象物のN次元データに対して、あらかじ
め登録された基準のN次元データを重ね合わせてマッチ
ング座標を検出するパターンマッチング方法において、
対象物のN次元データ及び基準のN次元データの周囲
に、それぞれ所定幅の0領域を付加して同一サイズのデ
ータとする第1ステップと、0領域が付加された対象物
のN次元データ及び基準のN次元データをN次元フーリ
エ変換し各々のフーリエ変換データを得る第2ステップ
と、一方のフーリエ変換データに、他方のフーリエ変換
データの複素共役を掛けてN元のクロスパワースペクト
ルを得る第3ステップと、クロスパワースペクトルをN
次元逆フーリエ変換してN次元の相関係数分布を得る第
4ステップと、相互相関上の強度のピーク位置から、対
象物のN次元データと基準N次元データのマッチング位
置を検出する第5ステップとを有することを特徴とする
パターンマッチング方法。
5. A pattern matching method for detecting matching coordinates by superimposing reference N-dimensional data registered in advance on N-dimensional data of an object,
A first step of adding 0 regions each having a predetermined width around the N-dimensional data of the object and the reference N-dimensional data to obtain data of the same size; A second step of N-dimensional Fourier transforming the reference N-dimensional data to obtain respective Fourier transform data; and a second step of multiplying one of the Fourier transform data by a complex conjugate of the other Fourier transform data to obtain an N-element cross power spectrum. 3 steps and cross power spectrum N
A fourth step of obtaining an N-dimensional correlation coefficient distribution by performing a four-dimensional inverse Fourier transform, and a fifth step of detecting a matching position between the N-dimensional data of the object and the reference N-dimensional data from the peak position of the intensity on the cross-correlation And a pattern matching method comprising:
【請求項6】前記0領域を付加して対象物のN次元デー
タと基準のN次元データを同一サイズのデータにするに
当たっては、0領域付加後のデータの各次元のサイズ
が、2の階乗になるようにすることを特徴とする請求項
5記載のパターンマッチング方法。
6. When the N-dimensional data of the object and the reference N-dimensional data are made to have the same size by adding the 0 region, the size of each dimension of the data after the 0 region is added is 2nd floor. 6. The pattern matching method according to claim 5, wherein the power is set to a power.
【請求項7】前記相互相関を、対象物のN次元データの
各座標における値の2乗和の平方根と、基準のN次元デ
ータの各座標における値の2乗和の平方根の積で除算す
ることにより正規化することを特徴とする請求項5記載
のパターンマッチング方法。
7. The cross-correlation is divided by the product of the square root of the sum of squares of the values at each coordinate of the N-dimensional data of the object and the square root of the sum of squares of the values at each coordinate of the reference N-dimensional data. 6. The pattern matching method according to claim 5, wherein normalization is performed by the following.
JP10166600A 1998-06-15 1998-06-15 Pattern matching method Pending JP2000003444A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP10166600A JP2000003444A (en) 1998-06-15 1998-06-15 Pattern matching method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10166600A JP2000003444A (en) 1998-06-15 1998-06-15 Pattern matching method

Publications (1)

Publication Number Publication Date
JP2000003444A true JP2000003444A (en) 2000-01-07

Family

ID=15834308

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10166600A Pending JP2000003444A (en) 1998-06-15 1998-06-15 Pattern matching method

Country Status (1)

Country Link
JP (1) JP2000003444A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006127282A (en) * 2004-10-29 2006-05-18 Sony Corp Digital signal processor, digital signal processing method, program and verification device
JP2008282268A (en) * 2007-05-11 2008-11-20 Ono Sokki Co Ltd Peak position search method, peak position search device and peak position search program
WO2014203687A1 (en) 2013-06-17 2014-12-24 コニカミノルタ株式会社 Image processing method, image processing device, and image processing program
JP2015001406A (en) * 2013-06-13 2015-01-05 富士通株式会社 Surface inspection method, surface inspection device, and surface inspection program

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006127282A (en) * 2004-10-29 2006-05-18 Sony Corp Digital signal processor, digital signal processing method, program and verification device
JP4687948B2 (en) * 2004-10-29 2011-05-25 ソニー株式会社 Digital signal processing apparatus, digital signal processing method and program, and authentication apparatus
JP2008282268A (en) * 2007-05-11 2008-11-20 Ono Sokki Co Ltd Peak position search method, peak position search device and peak position search program
JP2015001406A (en) * 2013-06-13 2015-01-05 富士通株式会社 Surface inspection method, surface inspection device, and surface inspection program
WO2014203687A1 (en) 2013-06-17 2014-12-24 コニカミノルタ株式会社 Image processing method, image processing device, and image processing program

Similar Documents

Publication Publication Date Title
US6865288B1 (en) Pattern inspection method and apparatus
US8233699B2 (en) Inspection system and a method for detecting defects based upon a reference frame
US7869643B2 (en) Advanced cell-to-cell inspection
JP2003098114A (en) Method for reviewing defect inspection
US20130329039A1 (en) Defect inspection method and device thereof
JP2010520622A (en) Method for accurately identifying the edge of an inspection area for an array area formed on a wafer, and a method for binning detected defects in an array area formed on a wafer
JP2008052469A (en) Image correction device, image inspection device, and image correction method
JP4016472B2 (en) Appearance inspection method and apparatus
JP2006276454A (en) Image correcting method and pattern defect inspecting method using same
JPH1096613A (en) Defect detection method and device thereof
JP2000003444A (en) Pattern matching method
JP4629086B2 (en) Image defect inspection method and image defect inspection apparatus
JP2978866B2 (en) Dimension measurement circuit by image processing
JP3413110B2 (en) Pattern inspection apparatus, pattern inspection method, and recording medium storing pattern inspection program
JP4074624B2 (en) Pattern inspection method
JP4235756B2 (en) Misalignment detection method, misalignment detection apparatus, image processing method, image processing apparatus, and inspection apparatus using the same
JP2886278B2 (en) Circuit pattern image detection method and device
JP3274132B2 (en) How to create a reference pattern for visual inspection
JPH03201454A (en) Aligning method for semiconductor device
JP2861800B2 (en) Shape measuring device
JP2002198406A (en) Appearance inspecting method
JPH05129397A (en) Foreign matter detection method and device
JP2675167B2 (en) Pattern recognition method
JP3262030B2 (en) Defect detection device
JPH063541B2 (en) Pattern inspection equipment