JP2010061201A - Alignment mark image recognition device and alignment mark image recognition method - Google Patents

Alignment mark image recognition device and alignment mark image recognition method Download PDF

Info

Publication number
JP2010061201A
JP2010061201A JP2008223366A JP2008223366A JP2010061201A JP 2010061201 A JP2010061201 A JP 2010061201A JP 2008223366 A JP2008223366 A JP 2008223366A JP 2008223366 A JP2008223366 A JP 2008223366A JP 2010061201 A JP2010061201 A JP 2010061201A
Authority
JP
Japan
Prior art keywords
alignment mark
mark
pixel value
center
gravity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008223366A
Other languages
Japanese (ja)
Inventor
Tomohiro Sakuyama
知広 作山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Saitama Ltd
Original Assignee
NEC Saitama Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Saitama Ltd filed Critical NEC Saitama Ltd
Priority to JP2008223366A priority Critical patent/JP2010061201A/en
Publication of JP2010061201A publication Critical patent/JP2010061201A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To detect presence of foreign matter adhering to an alignment mark, and to exclude influence of a detected foreign matter to determine a gravity center of the alignment mark. <P>SOLUTION: An alignment mark image recognition device has: an area characteristic value calculation means 103 for calculating a characteristic value of a mark non-correspondence area formed by a mark non-correspondence pixel value different from a pixel value of the alignment mark from binarized image data; a decision means 104 for deciding whether or not the characteristic value of the mark non-correspondence area calculated by the area characteristic value calculation means 103 is contained in a range of a threshold value; a pixel value conversion means 105 for converting the pixel value of the mark non-correspondence area into a mark correspondence pixel value that is the pixel value of the alignment mark when the decision means 104 decides that the characteristic value of the mark non-correspondence area is contained in the range of the threshold value; and a gravity center determination means 106 for regarding an area formed by the mark correspondence pixel value after the pixel value conversion means 105 executes conversion processing as the alignment mark to determine the gravity center. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、基板等の位置合わせに用いられるアライメントマークを認識するアライメントマーク画像認識装置およびアライメントマーク画像認識方法に関する。   The present invention relates to an alignment mark image recognition apparatus and an alignment mark image recognition method for recognizing an alignment mark used for alignment of a substrate or the like.

印刷配線板(プリント基板:以下、基板という。)に電子部品を実装する実装機や、二つの基板を熱圧着する基板熱圧着装置等において、基板の位置検出や位置合わせのためにアライメントマークが使用される。例えば、アライメントマークを認識するアライメントマーク画像認識装置が基板熱圧着装置に組み込まれた場合には、アライメントマーク画像認識装置が、二つの基板のそれぞれに設けられたアライメントマークの位置を合わせるための処理を実行することによって、基板の位置合わせが行われる。アライメントマークの位置を合わせる際に、一般に、アライメントマークの重心を検出する処理が実行される。   Alignment marks are used to detect and align the position of a printed wiring board (printed circuit board: hereinafter referred to as a substrate), such as a mounting machine that mounts electronic components or a substrate thermocompression bonding device that thermocompresses two substrates. used. For example, when an alignment mark image recognition device for recognizing alignment marks is incorporated in a substrate thermocompression bonding device, the alignment mark image recognition device performs processing for aligning the positions of the alignment marks provided on each of the two substrates. By performing the above, alignment of the substrate is performed. When aligning the alignment mark, a process for detecting the center of gravity of the alignment mark is generally performed.

アライメントマークに異物が付着したりアライメントマークに欠損が生じている場合には、検出されるアライメントマークの重心が本来の重心からずれることがある。検出されるアライメントマークの重心が本来の重心からずれている場合には、正確なアライメントマークの位置合わせを行うことができない。   When foreign matter adheres to the alignment mark or the alignment mark is defective, the center of gravity of the detected alignment mark may deviate from the original center of gravity. When the center of gravity of the detected alignment mark is deviated from the original center of gravity, accurate alignment mark alignment cannot be performed.

そこで、実装機や基板熱圧着装置等において、アライメントマークに付着した異物やアライメントマークに生じた欠損の影響を除去してアライメントマークの重心を検出する方法が採用されている(例えば、特許文献1,2参照)。   Therefore, a method of detecting the center of gravity of an alignment mark by removing the influence of foreign matters attached to the alignment mark or defects generated in the alignment mark is employed in a mounting machine, a substrate thermocompression bonding apparatus, or the like (for example, Patent Document 1). , 2).

特開平8−128809号公報(段落0013−0016)JP-A-8-128809 (paragraphs 0013-0016) 特開平7−37104号公報(段落0007−0008)JP-A-7-37104 (paragraphs 0007-0008)

アライメントマーク画像認識方法の一例を説明する。図15は、一般的なアライメントマーク画像認識方法を示す説明図である。   An example of the alignment mark image recognition method will be described. FIG. 15 is an explanatory diagram showing a general alignment mark image recognition method.

図15(a)〜(e)には、アライメントマーク周辺の2値化画像1が示されている。図15(a)に示す2値化画像1において、白い円状に示された部分がアライメントマーク2である。アライメントマーク画像を認識するために、2値化画像1における近傍ピクセルをグループ化してオブジェクトを構築する。そして、アライメントマーク2の長軸3、短軸4、アライメントマーク面積5、検出重心6および長軸3と短軸4の比率から算出される真円度を求めるために、オブジェクトの面積等の特徴計算を行う画像処理を行う。求められた長軸3、短軸4、アライメントマーク面積5および真円度の各値(特徴値)を、予め設定されているしきい値と比較し、全ての各値がしきい値の範囲内であれば、アライメントマーク2の形状には問題がないと判断される。しきい値は、アライメントマーク2の形状公差を考慮して設定される。しきい値との比較によってアライメントマーク2の形状が問題ないと判断されると、アライメントマーク2の重心を算出し、図15(b)に示すように、算出された重心をアライメントマーク2の重心すなわちアライメントマーク重心6として採用する。   15A to 15E show a binarized image 1 around the alignment mark. In the binarized image 1 shown in FIG. 15A, the portion shown in a white circle is the alignment mark 2. In order to recognize the alignment mark image, neighboring pixels in the binarized image 1 are grouped to construct an object. Then, in order to obtain the roundness calculated from the major axis 3 and minor axis 4 of the alignment mark 2, the alignment mark area 5, the detection center of gravity 6 and the ratio of the major axis 3 and the minor axis 4, features such as the area of the object Perform image processing to perform calculations. The obtained major axis 3, minor axis 4, alignment mark area 5, and roundness values (feature values) are compared with preset threshold values, and all the values are within the threshold range. If it is within, it is determined that there is no problem in the shape of the alignment mark 2. The threshold value is set in consideration of the shape tolerance of the alignment mark 2. If it is determined that there is no problem with the shape of the alignment mark 2 by comparison with the threshold value, the center of gravity of the alignment mark 2 is calculated, and the center of gravity of the alignment mark 2 is calculated as shown in FIG. That is, the alignment mark gravity center 6 is adopted.

図15(c)および(d)に示すようにアライメントマーク2上に異物7が存在したり、図15(e)に示すようにアライメントマーク2の一部に欠損8が存在する場合には、特徴値がしきい値の範囲内にありアライメントマーク2の形状に問題はないと判断された場合でも、算出された重心にもとづくアライメントマーク重心6が本来の重心からずれることがある。その結果、正確な基板の位置合わせを行うことができない。   When the foreign matter 7 exists on the alignment mark 2 as shown in FIGS. 15C and 15D, or when the defect 8 exists in a part of the alignment mark 2 as shown in FIG. Even when it is determined that the feature value is within the threshold value range and there is no problem with the shape of the alignment mark 2, the alignment mark centroid 6 based on the calculated centroid may deviate from the original centroid. As a result, accurate substrate alignment cannot be performed.

アライメントマーク2上に微細な異物7が存在したりアライメントマーク2の一部に小さな欠損8が存在する場合にアライメントマーク2の形状に問題があると判断されないようにするために、各々の特徴値に関するしきい値の範囲を狭くしたときには、特徴値のいずれかがしきい値の範囲内に入らず、問題がないアライメントマーク2の形状が、問題があると判断されるおそれがある。なお、アライメントマーク2の形状の誤差等の許容度を高くするために各々の特徴値に関するしきい値の範囲を広くした場合には、より大きい異物7が付着したり欠損8がより大きい場合でも、アライメントマーク2の形状に問題はないと判断され、アライメントマーク重心6の本来の重心からずれの程度がより大きくなる。   Each feature value is used in order to prevent a problem in the shape of the alignment mark 2 when there is a minute foreign matter 7 on the alignment mark 2 or a small defect 8 in a part of the alignment mark 2. When the threshold value range is narrowed, any one of the feature values does not fall within the threshold value range, and there is a possibility that the shape of the alignment mark 2 having no problem is determined to be problematic. When the threshold range for each feature value is increased in order to increase the tolerance of the shape error of the alignment mark 2 or the like, even if a larger foreign matter 7 is attached or the defect 8 is larger. Therefore, it is determined that there is no problem in the shape of the alignment mark 2, and the degree of deviation of the alignment mark center 6 from the original center is larger.

異物7や欠損8の影響を的確に排除してアライメントマーク重心6を求めることが好ましいが、特許文献1に記載された方法は、背景を白画素と捉えて、黒画素部分の輪郭を検出し、最も大きい輪郭をアライメントマークの輪郭と判断して、アライメントマーク重心6を求める方法である。しかし、そのような方法では、図15(e)に示されたような欠損8の影響を排除することはできない。また、特許文献1に記載された方法では、異物7の存在を直接的に検出しているわけではない。   Although it is preferable to accurately determine the alignment mark center of gravity 6 by eliminating the influence of the foreign matter 7 and the defect 8, the method described in Patent Document 1 detects the outline of the black pixel portion by regarding the background as a white pixel. In this method, the center of gravity 6 of the alignment mark is obtained by determining the largest contour as the contour of the alignment mark. However, such a method cannot eliminate the influence of the defect 8 as shown in FIG. Further, the method described in Patent Document 1 does not directly detect the presence of the foreign material 7.

また、特許文献2に記載された方法では、マーク画像の輪郭を検出し、検出された輪郭上に設定された3点の位置を変更しながら3点の中心を求める。そして、求められた多数の中心が最も密集している箇所を求め、求められた箇所に存在する複数の中心の重心をアライメントマーク重心6にする。そのような方法では、図15(e)に示されたような欠損8の影響を排除することはできるが、図15(c)に示されたような異物7の影響を排除することはできない。また、図15(e)に示されたような欠損8が存在する場合には、特許文献2に記載された方法では、図15(e)に示された白色部分の輪郭が求められるので、決定されるアライメントマーク重心6の位置は、本来の重心からずれてしまう。   In the method described in Patent Document 2, the contour of the mark image is detected, and the center of the three points is obtained while changing the position of the three points set on the detected contour. Then, a place where the obtained many centers are most dense is obtained, and the center of gravity of a plurality of centers existing at the obtained place is set as the alignment mark center of gravity 6. In such a method, the influence of the defect 8 as shown in FIG. 15E can be eliminated, but the influence of the foreign substance 7 as shown in FIG. 15C cannot be eliminated. . Further, when the defect 8 as shown in FIG. 15 (e) exists, the method described in Patent Document 2 requires the outline of the white portion shown in FIG. 15 (e). The determined position of the center of gravity 6 of the alignment mark is deviated from the original center of gravity.

そこで、本発明は、アライメントマークに付着した異物の存在を直接的に検出し、検出された異物の影響を排除してアライメントマークの重心を決定できるアライメントマーク画像認識装置およびアライメントマーク画像認識方法を提供することを目的とする。また、欠損の形状によらず、アライメントマークの輪郭部に生じた欠損の影響を排除してアライメントマークの重心を決定できるアライメントマーク画像認識装置およびアライメントマーク画像認識方法を提供することを目的とする。   Therefore, the present invention provides an alignment mark image recognition apparatus and an alignment mark image recognition method that can directly detect the presence of foreign matter attached to an alignment mark and determine the center of gravity of the alignment mark by eliminating the influence of the detected foreign matter. The purpose is to provide. It is another object of the present invention to provide an alignment mark image recognition apparatus and an alignment mark image recognition method that can determine the center of gravity of an alignment mark by eliminating the influence of the defect generated in the outline of the alignment mark regardless of the shape of the defect. .

本発明によるアライメントマーク画像認識装置は、アライメントマークを検出してアライメントマークの重心を決定するアライメントマーク画像認識装置であって、アライメントマークの周辺を撮像して画像データを得る撮像手段と、撮像手段が得た画像データを2値化して2値化データを出力する2値化手段と、2値化手段が出力した2値化データから、アライメントマークの画素値とは異なるマーク非対応画素値で形成されるマーク非対応領域の特徴値を算出する領域特徴値算出手段と、領域特徴値算出手段が算出したマーク非対応領域の特徴値が、しきい値の範囲内に入っているか否か判定する判定手段と、判定手段がマーク非対応領域の特徴値がしきい値の範囲内に入っていると判定した場合に、そのマーク非対応領域の画素値をアライメントマークの画素値であるマーク対応画素値に変換する変換処理を実行する画素値変換手段と、画素値変換手段が変換処理を実行した後のマーク対応画素値で形成される領域をアライメントマークと見なして重心を決定する重心決定手段とを備えたことを特徴とする。   An alignment mark image recognition apparatus according to the present invention is an alignment mark image recognition apparatus that detects an alignment mark and determines the center of gravity of the alignment mark, and includes an imaging unit that images the periphery of the alignment mark to obtain image data, and an imaging unit The binarization unit that binarizes the image data obtained by the binarization and outputs the binarized data, and the binarized data output by the binarization unit has a pixel value that is different from the pixel value of the alignment mark. Area feature value calculation means for calculating a feature value of a mark non-corresponding area to be formed, and whether or not the feature value of the mark non-corresponding area calculated by the area feature value calculation means is within a threshold range Determining means for determining whether the feature value of the mark non-corresponding region is within the threshold range, the pixel value of the mark non-corresponding region is A pixel value conversion unit that performs a conversion process for converting the pixel value of the event mark into a mark corresponding pixel value, and an area formed by the mark corresponding pixel value after the pixel value conversion unit performs the conversion process as an alignment mark And a center-of-gravity determining means for determining the center of gravity.

本発明による他の態様のアライメントマーク画像認識装置は、円形のアライメントマークを検出してアライメントマークの重心を決定するアライメントマーク画像認識装置であって、アライメントマークの周辺を撮像して画像データを得る撮像手段と、撮像手段が得た画像データを2値化して2値化データを出力する2値化手段と、2値化手段が出力した2値化データにもとづいて、アライメントマークの画素値であるマーク対応画素値で形成される領域の外郭を検出する輪郭検出手段と、輪郭検出手段が検出した外郭にもとづいて円の最小二乗法を用いて円の重心を求め、求めた重心をアライメントマークの重心に決定する重心決定手段とを備えたことを特徴とする。   An alignment mark image recognition apparatus according to another aspect of the present invention is an alignment mark image recognition apparatus that detects a circular alignment mark and determines the center of gravity of the alignment mark, and obtains image data by imaging the periphery of the alignment mark. Based on the image pickup means, the binarization means for binarizing the image data obtained by the image pickup means and outputting the binarized data, the pixel value of the alignment mark based on the binarized data output by the binarization means Contour detection means for detecting the outline of an area formed by a certain pixel-corresponding pixel value, and using the least square method of the circle based on the outline detected by the contour detection means, the circle centroid is obtained, and the obtained centroid is the alignment mark. And a center of gravity determining means for determining the center of gravity.

本発明によるアライメントマーク画像認識方法は、アライメントマークを検出してアライメントマークの重心を決定するアライメントマーク画像認識方法であって、アライメントマークの周辺を撮像して画像データを得る撮像処理と、撮像処理で得られた画像データを2値化して2値化データにする2値化処理と、2値化処理で得られた2値化データから、アライメントマークの画素値とは異なるマーク非対応画素値で形成されるマーク非対応領域の特徴値を算出する領域特徴値算出処理と、領域特徴値算出処理で算出されたマーク非対応領域の特徴値が、しきい値の範囲内に入っているか否か判定する判定処理と、判定処理でマーク非対応領域の特徴値がしきい値の範囲内に入っていると判定された場合に、そのマーク非対応領域の画素値をアライメントマークの画素値であるマーク対応画素値に変換する画素値変換処理と、画素値変換処理を実行した後のマーク対応画素値で形成される領域をアライメントマークと見なして重心を決定する重心決定処理とを含むことを特徴とする。   An alignment mark image recognition method according to the present invention is an alignment mark image recognition method that detects an alignment mark and determines the center of gravity of the alignment mark, and includes an imaging process for imaging the periphery of the alignment mark to obtain image data, and an imaging process The non-mark corresponding pixel value different from the pixel value of the alignment mark from the binarization processing that binarizes the image data obtained in step 2 into binarized data and the binarization data obtained by the binarization processing Whether or not the feature value calculation process for calculating the feature value of the mark non-corresponding area formed in step 1 and the feature value of the mark non-corresponding area calculated by the area feature value calculation process are within the threshold range. And the pixel value of the mark non-corresponding area when it is determined in the determination process that the feature value of the mark non-corresponding area is within the threshold range A pixel value conversion process that converts the pixel value of the alignment mark into a pixel value corresponding to the mark, and a center of gravity determination that determines the center of gravity by regarding the region formed by the mark corresponding pixel value after the pixel value conversion process as an alignment mark Processing.

本発明による他の態様のアライメントマーク画像認識方法は、円形のアライメントマークを検出してアライメントマークの重心を決定するアライメントマーク画像認識方法であって、アライメントマークの周辺を撮像して画像データを得る撮像処理と、撮像処理で得られた画像データを2値化して2値化データにする2値化処理と、2値化処理で得られた2値化データにもとづいて、アライメントマークの画素値であるマーク対応画素値で形成される領域の外郭を検出する輪郭検出処理と、輪郭検出処理で検出された外郭にもとづいて円の最小二乗法を用いて円の重心を求め、求めた重心をアライメントマークの重心に決定する重心決定処理とを含むことを特徴とする。   Another aspect of the alignment mark image recognition method according to the present invention is an alignment mark image recognition method that detects a circular alignment mark and determines the center of gravity of the alignment mark, and obtains image data by imaging the periphery of the alignment mark. Based on the imaging process, the binarization process that binarizes the image data obtained by the imaging process into binarized data, and the binarized data obtained by the binarization process, the pixel value of the alignment mark Based on the contour detection process for detecting the outline of the area formed by the mark-corresponding pixel values and the outline detected by the contour detection process, the circle center of gravity is obtained using the least square method, and the obtained center of gravity is obtained. And a center of gravity determination process for determining the center of gravity of the alignment mark.

本発明によれば、アライメントマークに付着した異物の存在を直接的に検出し、検出された異物の影響を排除してアライメントマークの重心を決定することができる。また、本発明の他の態様によれば、欠損の形状によらず、アライメントマークの輪郭部に生じた欠損の影響を排除してアライメントマークの重心を決定することができる。   According to the present invention, it is possible to directly detect the presence of foreign matter attached to the alignment mark, and to determine the center of gravity of the alignment mark by eliminating the influence of the detected foreign matter. Further, according to another aspect of the present invention, it is possible to determine the center of gravity of the alignment mark by eliminating the influence of the defect generated in the contour portion of the alignment mark, regardless of the shape of the defect.

以下、本発明の実施形態を図面を参照して説明する。図1(A),(B)は、本発明によるアライメントマーク画像認識装置の主要部を示すブロック図である。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. 1A and 1B are block diagrams showing the main part of an alignment mark image recognition apparatus according to the present invention.

図1(A)に示すアライメントマーク画像認識装置200は、アライメントマークの周辺を撮像して画像データを得る撮像手段101と、撮像手段101が得た画像データを2値化して2値化データを出力する2値化手段102と、2値化手段102が出力した2値化データから、アライメントマークの画素値とは異なるマーク非対応画素値(例えば、画素値が8ビットで表現される場合の「黒」に対応する0)で形成されるマーク非対応領域の特徴値(例えば、面積、長軸の長さおよび短軸の長さ)を算出する領域特徴値算出手段103と、領域特徴値算出手段103が算出したマーク非対応領域の特徴値がしきい値の範囲内に入っているか否か判定する判定手段104と、判定手段104がマーク非対応領域の特徴値がしきい値の範囲内に入っていると判定した場合に、そのマーク非対応領域の画素値をアライメントマークの画素値であるマーク対応画素値(例えば、画素値が8ビットで表現される場合の「白」に対応する255)に変換する変換処理を実行する画素値変換手段105と、画素値変換手段105が変換処理を実行した後のマーク対応画素値で形成される領域をアライメントマークと見なして重心を決定する重心決定手段106とを備えている。   An alignment mark image recognition apparatus 200 shown in FIG. 1A captures binarized data by binarizing the image data obtained by the image capturing unit 101 and the image capturing unit 101 that captures image data by capturing the periphery of the alignment mark. From the binarization unit 102 to be output and the binarized data output from the binarization unit 102, a mark non-corresponding pixel value different from the pixel value of the alignment mark (for example, when the pixel value is expressed by 8 bits) A region feature value calculation unit 103 that calculates a feature value (for example, area, major axis length, and minor axis length) of a non-mark-corresponding region formed by “0” corresponding to “black”; The determination unit 104 determines whether or not the feature value of the mark non-corresponding region calculated by the calculation unit 103 is within the threshold range, and the determination unit 104 determines that the feature value of the mark non-corresponding region is within the threshold range Inside If it is determined that it is included, the pixel value of the mark non-corresponding region is changed to the mark corresponding pixel value that is the pixel value of the alignment mark (for example, 255 corresponding to “white” when the pixel value is expressed by 8 bits). The pixel value conversion means 105 that executes conversion processing for converting to), and the center of gravity determination that determines the center of gravity by regarding the region formed by the mark-corresponding pixel values after the pixel value conversion means 105 executes the conversion processing as an alignment mark. Means 106.

領域特徴値算出手段102は、一例として、特徴値としての面積、長軸の長さおよび短軸の長さを算出し、判定手段104は、領域特徴値算出手段が算出した面積、長軸の長さおよび短軸の長さのそれぞれが、それぞれに対応するしきい値の範囲内に入っている場合に、マーク非対応領域の特徴値がしきい値の範囲内に入っていると判定することができる。   For example, the area feature value calculation unit 102 calculates the area as the feature value, the length of the major axis, and the length of the minor axis. The determination unit 104 calculates the area and the major axis of the area feature value calculation unit. When each of the length and the length of the short axis is within the corresponding threshold range, it is determined that the feature value of the mark non-corresponding region is within the threshold range. be able to.

図1(B)に示すアライメントマーク画像認識装置210は、アライメントマークの周辺を撮像して画像データを得る撮像手段101と、撮像手段101が得た画像データを2値化して2値化データを出力する2値化手段102と、2値化手段102が出力した2値化データから、アライメントマークに対応するマーク対応画素値で形成される領域の輪郭を検出する輪郭検出手段108と、輪郭検出手段が検出した輪郭にもとづいて円の最小二乗法を用いて円の重心を求め、求めた重心をアライメントマークの重心に決定する重心決定手段109とを備えている。   An alignment mark image recognition device 210 shown in FIG. 1B captures binarized data by binarizing the image data obtained by the image capturing unit 101 and the image capturing unit 101 that captures image data around the alignment mark. Binarization means 102 to be output, contour detection means 108 for detecting the contour of the region formed by the mark corresponding pixel value corresponding to the alignment mark from the binarized data output by the binarization means 102, and contour detection The center of gravity of the circle is determined using the least square method of the circle based on the contour detected by the means, and the center of gravity of the circle is determined as the center of gravity of the alignment mark.

重心決定手段109は、一例として、アライメントマークの外郭を形成する複数の点の座標を用いて円の最小二乗法によって円を決定し、決定された円の周との間の距離がしきい値よりも小さい点を除外して、あらためて円の最小二乗法によって決定した円の重心を、アライメントマークの重心に決定する。   For example, the center-of-gravity determination unit 109 determines a circle by the least-square method of a circle using the coordinates of a plurality of points forming the outline of the alignment mark, and the distance between the determined circle circumference is a threshold value The center of gravity of the circle determined again by the least square method of the circle is determined as the center of gravity of the alignment mark.

実施形態1.
次に、本発明によるアライメントマーク画像認識方法の第1の実施形態(実施形態1)を説明する。第1の実施形態のアライメントマーク画像認識方法は、アライメントマークの内部に付着した異物の影響を排除してアライメントマークの重心を決定できる方法であるが、アライメントマークの内部に生じた欠損の影響も排除される。第1の実施形態のアライメントマーク画像認識方法は、図1(A)に例示されたアライメントマーク画像認識装置200において実行される。
Embodiment 1. FIG.
Next, a first embodiment (embodiment 1) of an alignment mark image recognition method according to the present invention will be described. The alignment mark image recognition method according to the first embodiment is a method that can determine the center of gravity of an alignment mark by eliminating the influence of foreign matter adhering to the inside of the alignment mark. Eliminated. The alignment mark image recognition method according to the first embodiment is executed in the alignment mark image recognition apparatus 200 illustrated in FIG.

図2は、アライメントマークの内部に存在する異物を排除する方法を示す説明図である。図2(a),(b)には、アライメントマーク2の周辺の2値化画像1が示されている。図2(a)に示すように、アライメントマーク2の内部に異物7が付着したとする。また、本実施形態では、2値化画像1において、アライメントマーク2は白画素で表され、背景9および異物7は黒画素で表されるとする。   FIG. 2 is an explanatory diagram showing a method for removing foreign matter existing inside the alignment mark. 2A and 2B show a binarized image 1 around the alignment mark 2. As shown in FIG. 2A, it is assumed that the foreign matter 7 has adhered to the inside of the alignment mark 2. In the present embodiment, in the binarized image 1, the alignment mark 2 is represented by white pixels, and the background 9 and the foreign object 7 are represented by black pixels.

撮像手段101は、アライメントマーク2の周辺を撮像して画像データを得る。2値化手段102は、撮像手段101が得た画像データを2値化して2値化画像1の画像データを出力する。本実施形態では、撮像手段101は、8ビットデータで表されるデータを出力するとし、2値化データを、「白」に相当する255、および「黒」に相当する0であるとする。   The imaging unit 101 captures the periphery of the alignment mark 2 to obtain image data. The binarization unit 102 binarizes the image data obtained by the imaging unit 101 and outputs the image data of the binarized image 1. In the present embodiment, it is assumed that the imaging unit 101 outputs data represented by 8-bit data, and the binarized data is 255 corresponding to “white” and 0 corresponding to “black”.

領域特徴値算出手段103は、2値化画像1における近傍ピクセルをグループ化してオブジェクトを構築する。オブジェクトを構築するときに、黒画素が連続する領域を1つのオブジェクトにする。そして、領域特徴値算出手段103は、黒画素のみを含むオブジェクトの長軸、短軸および面積を算出する画像処理を行う。なお、オブジェクトの長軸および短軸は、例えば、オブジェクトが内接する楕円の長軸および短軸として定義される。また、図2(a)に示す例では、背景9の矩形領域および異物7の略円形領域が、黒画素のみを含むオブジェクトである。   The region feature value calculation unit 103 constructs an object by grouping neighboring pixels in the binarized image 1. When constructing an object, an area in which black pixels are continuous is made into one object. Then, the region feature value calculation unit 103 performs image processing for calculating the long axis, the short axis, and the area of an object including only black pixels. The major and minor axes of the object are defined as, for example, the major and minor axes of an ellipse that is inscribed in the object. In the example shown in FIG. 2A, the rectangular area of the background 9 and the substantially circular area of the foreign object 7 are objects including only black pixels.

判定手段104は、黒画素のみを含むオブジェクトの面積、長軸および短軸のそれぞれが、予め設定されている対応するしきい値の範囲内に入っているか否か判定する。そして、面積、長軸および短軸のそれぞれが対応するしきい値の範囲内に入っている場合に、そのオブジェクトを異物7と判定する。なお、面積、長軸および短軸のしきい値は、背景9を異物7と判定しないように設定されている。   The determination unit 104 determines whether the area of the object including only the black pixel, the long axis, and the short axis are within the corresponding threshold values set in advance. Then, when each of the area, the major axis, and the minor axis falls within the corresponding threshold range, the object is determined as the foreign object 7. The area, the long axis, and the short axis threshold values are set so that the background 9 is not determined as the foreign object 7.

画素値変換手段105は、判定手段104が異物7と判定した場合に、異物7の画素値(この例では、「0」)をアライメントマーク2の画素値(この例では、「255」)に変換する変換処理を実行する。そして、重心決定手段106は、画素値変換手段105が変換処理を実行した後のマーク対応画素値(この例では、「255」)で形成される領域をアライメントマーク2と見なして重心を決定する。すなわち、図2(b)に示すようなアライメントマーク2を対象にして重心を決定することができる。その後、アライメントマーク画像認識装置200は、アライメントマーク2の長軸3、短軸4、アライメントマーク面積5、検出重心6および長軸3と短軸4の比率から算出される真円度を求めるために、オブジェクトの面積等の特徴計算を行う画像処理を行う。求められた長軸3、短軸4、アライメントマーク面積5および真円度の各値(特徴値)を、予め設定されているしきい値と比較し、全ての各値がしきい値の範囲内であれば、アライメントマーク2の形状には問題がないと判断する。   When the determination unit 104 determines that the foreign object 7 is detected, the pixel value conversion unit 105 converts the pixel value of the foreign object 7 (in this example, “0”) to the pixel value of the alignment mark 2 (in this example, “255”). Execute the conversion process to convert. The center-of-gravity determination unit 106 determines the center of gravity by regarding the region formed by the mark-corresponding pixel value (in this example, “255”) after the pixel value conversion unit 105 performs the conversion process as the alignment mark 2. . That is, the center of gravity can be determined for the alignment mark 2 as shown in FIG. Thereafter, the alignment mark image recognition apparatus 200 obtains the roundness calculated from the long axis 3, the short axis 4, the alignment mark area 5, the detected center of gravity 6, and the ratio of the long axis 3 to the short axis 4 of the alignment mark 2. In addition, image processing for performing feature calculation such as the area of the object is performed. The obtained major axis 3, minor axis 4, alignment mark area 5, and roundness values (feature values) are compared with preset threshold values, and all the values are within the threshold range. If it is within, it is determined that there is no problem in the shape of the alignment mark 2.

第1の実施形態では、図2(a)に示すようにアライメントマーク2の内部に異物7が存在していたり、アライメントマーク2の内部に欠損がある場合に、異物7や欠損が検出され、アライメントマーク2から異物7や欠損(画素値が「0」である欠損)が排除される。よって、アライメントマーク2の重心を正確に決定することができる。   In the first embodiment, as shown in FIG. 2A, when the foreign matter 7 exists inside the alignment mark 2 or when there is a defect inside the alignment mark 2, the foreign substance 7 or the defect is detected. The alignment mark 2 eliminates foreign matter 7 and defects (defects having a pixel value of “0”). Therefore, the center of gravity of the alignment mark 2 can be accurately determined.

実施形態2.
次に、本発明によるアライメントマーク画像認識方法の第2の実施形態(実施形態2)を説明する。第1の実施形態のアライメントマーク画像認識方法では、
アライメントマーク2の輪郭に接していない異物7や欠損の影響を排除したが、第2の実施形態では、アライメントマーク2の輪郭の部分を含む領域に存在する異物7や欠損の影響を排除する。第2の実施形態のアライメントマーク画像認識方法は、図1(B)に例示されたアライメントマーク画像認識装置210において実行される。
Embodiment 2. FIG.
Next, a second embodiment (embodiment 2) of an alignment mark image recognition method according to the present invention will be described. In the alignment mark image recognition method of the first embodiment,
Although the influence of the foreign substance 7 not touching the outline of the alignment mark 2 and the defect is eliminated, in the second embodiment, the influence of the foreign substance 7 and the defect existing in the region including the outline part of the alignment mark 2 is eliminated. The alignment mark image recognition method of the second embodiment is executed in the alignment mark image recognition device 210 illustrated in FIG.

図3および図4は、アライメントマークの内部に存在する異物を排除する方法を示す説明図である。図3(a)に示すように、アライメントマーク2の輪郭の部分を含む領域に異物7が付着したとする。また、本実施形態でも、2値化画像1において、アライメントマーク2は白画素で表され、背景9および異物7は黒画素で表されるとする。   3 and 4 are explanatory views showing a method of removing foreign matters existing inside the alignment mark. As shown in FIG. 3A, it is assumed that the foreign matter 7 is attached to a region including the contour portion of the alignment mark 2. Also in this embodiment, in the binarized image 1, the alignment mark 2 is represented by white pixels, and the background 9 and the foreign material 7 are represented by black pixels.

アライメントマーク2の輪郭の部分を含む領域に異物7が付着した場合には、第1の実施形態で使用した方法である異物7のみを含むオブジェクトを構築する方法を適用することができない。そこで、第2の実施形態では、オブジェクトを構築する方法を使用せず、異物7および欠損の影響を排除する。具体的には、アライメントマーク2の正常な部分の情報を用いて、異物7および欠損の影響を排除する。より具体的には、最小二乗法用いてアライメントマーク2の輪郭を抽出する方法によって、異物7および欠損の影響を排除する。   When the foreign matter 7 adheres to a region including the contour portion of the alignment mark 2, the method of constructing an object including only the foreign matter 7 which is the method used in the first embodiment cannot be applied. Therefore, in the second embodiment, the method of constructing the object is not used, and the influence of the foreign matter 7 and the defect is eliminated. Specifically, the information of the normal part of the alignment mark 2 is used to eliminate the influence of the foreign matter 7 and the defect. More specifically, the influence of the foreign matter 7 and the defect is eliminated by a method of extracting the contour of the alignment mark 2 using the least square method.

図3(b)〜(d)および図4(e)〜(h)を参照して、異物7および欠損の影響を排除する方法を説明する。   With reference to FIGS. 3B to 3D and FIGS. 4E to 4H, a method for eliminating the influence of the foreign matter 7 and the defect will be described.

撮像手段101は、アライメントマーク2の周辺を撮像して画像データを得る。2値化手段102は、撮像手段101が得た画像データを2値化して2値化画像1の画像データを出力する。本実施形態では、撮像手段101は、8ビットデータで表されるデータを出力するとし、2値化データを、「白」に相当する255、および「黒」に相当する0であるとする。   The imaging unit 101 captures the periphery of the alignment mark 2 to obtain image data. The binarization unit 102 binarizes the image data obtained by the imaging unit 101 and outputs the image data of the binarized image 1. In the present embodiment, it is assumed that the imaging unit 101 outputs data represented by 8-bit data, and the binarized data is 255 corresponding to “white” and 0 corresponding to “black”.

輪郭検出手段108は、アライメントマーク2の輪郭と異物7および背景9との境目になるポイントを求める。図3(b)に示すように、アライメントマーク2の内部に仮中心A10を設定し、仮中心A10とアライメントマーク2の外部の点A’とを繋ぐ直線を引くと、直線上に、異物7の境目にぶつかるポイントが出てくる。このポイントは、アライメントマーク2の白画素から異物7の黒画素に変化するポイントである。仮中心A10の位置は、アライメントマーク2の内部における任意の位置として指定可能であるが、円形のアライメントマーク2の輪郭全体におけるエッジ11を仮中心A10と点A’と間の距離を一定にして検出することを想定した場合には、アライメントマーク2の中心付近に設定することが好ましい。   The contour detection unit 108 obtains a point that is a boundary between the contour of the alignment mark 2 and the foreign object 7 and the background 9. As shown in FIG. 3B, when the temporary center A10 is set inside the alignment mark 2 and a straight line connecting the temporary center A10 and the point A ′ outside the alignment mark 2 is drawn, the foreign matter 7 is placed on the straight line. The point that hits the boundary of the will come out. This point is a point at which the white pixel of the alignment mark 2 changes to the black pixel of the foreign object 7. The position of the temporary center A10 can be designated as an arbitrary position inside the alignment mark 2, but the distance between the temporary center A10 and the point A ′ is constant for the edge 11 in the entire contour of the circular alignment mark 2. When it is assumed that detection is performed, it is preferable to set the position near the center of the alignment mark 2.

仮中心A10と点A’と間のピクセル値の推移を見ると図3(c)に示すようになる。白画素から黒画素に変化するポイント(点)をエッジ11ということにする。図3(b)には、仮中心A10と点A’と間の1箇所のみでエッジ11が検出されている様子が示されているが、同様の処理(アライメントマーク2の白画素から異物7の黒画素に変化するポイントを探す処理)を、仮中心A10からアライメントマーク2と異物7および背景9との境目全てに対して実行すると、図3(d)に示すように、アライメントマーク2の外郭におけるエッジaからエッジnで表されているエッジ11が検出される。なお、エッジ11におけるエッジaからエッジnまでのエッジ間の間隔は、固定的なサンプルリング角度θに応じた間隔である。サンプルリング角度θは、想定される異物7の大きさ等を考慮して決定される。なお、エッジ11と表現する場合、エッジ11は、多数のエッジ(エッジa〜nの全てまたは一部)を含むものである。   FIG. 3C shows the transition of the pixel value between the temporary center A10 and the point A '. A point (point) at which the white pixel changes to the black pixel is referred to as an edge 11. FIG. 3B shows a state in which the edge 11 is detected only at one place between the temporary center A10 and the point A ′. Similar processing (from the white pixel of the alignment mark 2 to the foreign object 7 is shown. 3) is performed on all the boundaries between the alignment mark 2 and the foreign matter 7 and the background 9 from the temporary center A10, as shown in FIG. An edge 11 represented by edge n from edge a in the outline is detected. Note that the interval between the edges a to n in the edge 11 is an interval according to a fixed sampling angle θ. The sampling angle θ is determined in consideration of the assumed size of the foreign material 7 and the like. When expressed as the edge 11, the edge 11 includes a large number of edges (all or a part of the edges a to n).

輪郭検出手段108は、検出したエッジ11の画像上の位置を、仮中心A10の座標(X0,Y0)とともにXY座標(Xi,Yi)(i:a〜n)として記憶する。アライメントマーク2の外郭における全てのエッジ11が検出されると既知の円の最小二乗法を用いた計算を行う。   The contour detection unit 108 stores the detected position of the edge 11 on the image as XY coordinates (Xi, Yi) (i: a to n) together with the coordinates (X0, Y0) of the temporary center A10. When all the edges 11 in the outline of the alignment mark 2 are detected, calculation using a known method of least squares of a circle is performed.

図4(e)には、円の最小二乗法による計算対象になるエッジ11と仮中心A10との位置が示されている。円の最小二乗法により求められた円および重心は、図4(f)に示す最小二乗法計算円12および最小二乗法計算円重心13である。最小二乗法計算円12は、アライメントマーク2の輪郭よりずれた箇所に位置している。ずれた理由は、アライメントマーク2の輪郭部分に存在する異物7または欠損の影響を受けたことである。この影響を排除するために、アライメントマーク2と異物7との境目にあるエッジ11を排除すること考える。アライメントマーク2と異物7との境目にあるエッジ11を排除するために、最小二乗法計算円12と全てのエッジ11との距離に着目する。   FIG. 4 (e) shows the positions of the edge 11 and the temporary center A10 that are to be calculated by the method of least squares of a circle. The circle and the center of gravity obtained by the least square method of the circle are the least square method calculation circle 12 and the least square method calculation circle center of gravity 13 shown in FIG. The least square method calculation circle 12 is located at a position shifted from the contour of the alignment mark 2. The reason for the deviation is that it is affected by the foreign matter 7 or a defect present in the contour portion of the alignment mark 2. In order to eliminate this influence, it is considered to eliminate the edge 11 at the boundary between the alignment mark 2 and the foreign material 7. In order to eliminate the edge 11 at the boundary between the alignment mark 2 and the foreign substance 7, attention is paid to the distance between the least square method calculation circle 12 and all the edges 11.

図4(f)には、最小二乗法計算円とエッジとの間の距離14が示されている。最小二乗法計算円12と、アライメントマーク2と異物7との境目にあるエッジ11との間の距離は、アライメントマーク2の正常な輪郭部(異物7が付着していない輪郭部)におけるエッジ11との間の距離よりも大きい。よって、最小二乗法計算円とエッジとの間の距離14に関してしきい値を設定し、最小二乗法計算円12とエッジ11との間の距離をしきい値と比較することによって、異物7によるエッジ11と正常な輪郭部にあるエッジ11とを区別することができる。具体的には、最小二乗法計算円12の周とエッジ11との間の距離がしきい値よりも小さい場合には、そのエッジ11を、異物7によるエッジ11であるとする。なお、しきい値は、異物7の位置や大きさを考慮して設定される。   FIG. 4F shows the distance 14 between the least squares calculation circle and the edge. The distance between the least square method calculation circle 12 and the edge 11 at the boundary between the alignment mark 2 and the foreign object 7 is the edge 11 in the normal contour part (contour part to which the foreign object 7 is not attached) of the alignment mark 2. Greater than the distance between. Therefore, the threshold value is set for the distance 14 between the least squares calculation circle and the edge, and the distance between the least square method calculation circle 12 and the edge 11 is compared with the threshold value. The edge 11 can be distinguished from the edge 11 in the normal contour portion. Specifically, when the distance between the circumference of the least square method calculation circle 12 and the edge 11 is smaller than the threshold value, the edge 11 is assumed to be the edge 11 due to the foreign matter 7. The threshold value is set in consideration of the position and size of the foreign material 7.

図4(f)に示す最小二乗法計算から除外されるエッジ15は、最小二乗法計算円とエッジとの間の距離14に関するしきい値の範囲から外れたエッジ11である。図4(h)には、最小二乗法計算から除外されるエッジ15を除いたエッジ11を対象にして円の最小二乗法を再度計算した結果が示されている。図4(h)には、アライメントマーク2の輪郭と最小二乗法で求められた円の輪郭とが一致していることが示されている。最小二乗法計算円重心13は、円の最小二乗法の計算によって求められるので、求められた最小二乗法計算円重心13をアライメントマークの重心として採用する。   The edge 15 excluded from the least square method calculation shown in FIG. 4F is an edge 11 that is out of the range of the threshold regarding the distance 14 between the least square method calculation circle and the edge. FIG. 4 (h) shows the result of recalculating the least square method of a circle for the edge 11 excluding the edge 15 excluded from the least square method calculation. FIG. 4H shows that the contour of the alignment mark 2 matches the contour of the circle obtained by the least square method. Since the least square method calculated circle centroid 13 is obtained by the calculation of the least square method of the circle, the obtained least square method calculated centroid 13 is adopted as the centroid of the alignment mark.

なお、ここでは、主として異物7を排除する方法を説明したが、アライメントマーク2の欠損も排除することができる。   Here, the method of mainly removing the foreign matter 7 has been described, but the defect of the alignment mark 2 can also be eliminated.

第2の実施形態では、図3(a)に示すようにアライメントマーク2の輪郭部に異物7が存在していたり、アライメントマーク2の輪郭部に欠損がある場合に、異物7や欠損(画素値が「0」である欠損)の影響を排除して、アライメントマーク2の重心を正確に決定することができる。   In the second embodiment, as shown in FIG. 3A, when the foreign matter 7 exists in the contour portion of the alignment mark 2 or there is a defect in the contour portion of the alignment mark 2, the foreign matter 7 or the defect (pixel The center of gravity of the alignment mark 2 can be accurately determined by eliminating the influence of a defect having a value of “0”.

実施例1.
次に、第1の実施形態のアライメントマーク画像認識方法が適用された第1実施例(実施例1)としての基板熱圧着装置を説明する。図5は、基板熱圧着装置の構成例を示すブロック図である。図6は、基板熱圧着装置においてアライメントマーク画像認識方法を実行する部分を示すブロック図である。図7は、熱圧着対象の基板を示す説明図、図8は、基板位置合わせ状態を示す説明図、図9は、基板位置合わせ処理を示すフローチャート、図10は、アライメントマーク重心位置を検出する処理を示すフローチャートである。
Example 1.
Next, a substrate thermocompression bonding apparatus as a first example (Example 1) to which the alignment mark image recognition method of the first embodiment is applied will be described. FIG. 5 is a block diagram illustrating a configuration example of the substrate thermocompression bonding apparatus. FIG. 6 is a block diagram showing a portion for executing the alignment mark image recognition method in the substrate thermocompression bonding apparatus. FIG. 7 is an explanatory diagram showing a substrate to be thermocompression bonded, FIG. 8 is an explanatory diagram showing a substrate alignment state, FIG. 9 is a flowchart showing a substrate alignment process, and FIG. 10 detects the alignment mark barycentric position. It is a flowchart which shows a process.

基板熱圧着装置は、二つの基板を所定の位置関係で位置合わせを行い、位置合わせをした状態で加圧と加熱を行うことによって、二つの基板を接続する機能を有する装置である。二つの基板の接続するために熱硬化樹脂が用いられる。基板熱圧着装置は、加熱によって熱硬化樹脂を硬化して、二つの基板を接続するとともに接続を保持させる。そして、二つの基板を所定の位置関係で位置を合わせる処理を、画像処理を用いた位置補正処理によって実行する。   The substrate thermocompression bonding apparatus is an apparatus having a function of connecting two substrates by aligning the two substrates in a predetermined positional relationship and performing pressurization and heating in the aligned state. A thermosetting resin is used to connect the two substrates. The substrate thermocompression bonding device cures the thermosetting resin by heating, connects the two substrates, and holds the connection. Then, a process of aligning the positions of the two substrates in a predetermined positional relationship is executed by a position correction process using image processing.

二つの基板は、ともにリジッドな基板であってもよいし、ともにフレキシブル基板であってもよいし、一方がリジッドな基板であり他方がフレキシブル基板であってもよい。また、以下の実施例では、二つの基板を接続する基板熱圧着装置を例にするが、本発明を、基板に電子部品を実装する実装機等に適用することもできる。   Both of the two substrates may be rigid substrates, both may be flexible substrates, one may be a rigid substrate, and the other may be a flexible substrate. In the following embodiments, a substrate thermocompression bonding apparatus that connects two substrates is taken as an example, but the present invention can also be applied to a mounting machine or the like that mounts electronic components on a substrate.

図4に示す基板熱圧着装置100は、装置全体を制御するパーソナルコンピュータ(以下、PCという。)52を含む。PC52は、出して、4つの制御を行う。第1の制御は、カメラ54で撮像された画像をPC52に取り込むための画像入力装置53の制御である。第2の制御は、装置に組み込まれたモータ(XYθ軸モータおよびXY軸モータ)56を制御するモータ制御装置55の制御である。第3の制御は、基板を熱圧着するヒータユニット58の温度・時間コントロールを行うヒータコントローラ57の制御である。第4の制御は、装置に組み込まれた各種入出力機器60および照明(リング照明)61の入出力制御を行う入出力制御装置59の制御である。   A substrate thermocompression bonding apparatus 100 shown in FIG. 4 includes a personal computer (hereinafter referred to as a PC) 52 that controls the entire apparatus. The PC 52 outputs and performs four controls. The first control is control of the image input device 53 for capturing an image captured by the camera 54 into the PC 52. The second control is control of a motor control device 55 that controls motors (XYθ axis motor and XY axis motor) 56 incorporated in the apparatus. The third control is a control of the heater controller 57 that controls the temperature and time of the heater unit 58 that thermocompresses the substrate. The fourth control is control of an input / output control device 59 that performs input / output control of various input / output devices 60 and illumination (ring illumination) 61 incorporated in the device.

PC52には、画像処理ツール62がインストールされている。画像処理ツール62は、カメラ54で撮像された画像に対して画像処理を施す機能を有するソフトウェアである。すなわち、基板熱圧着装置100が図1(A)に示されたアライメントマーク画像認識装置200を含む場合には、画像処理ツール62は、2値化手段102、領域特徴値算出手段103、判定手段104、画素値変換手段105および重心決定手段106の機能を実現する。なお、基板熱圧着装置100が図1(B)に示されたアライメントマーク画像認識装置210を含む場合には、画像処理ツール62は、2値化手段102、輪郭検出手段108および重心決定手段109の機能を実現する。また、モニタ51は、PC52に付属する表示用装置である。   An image processing tool 62 is installed in the PC 52. The image processing tool 62 is software having a function of performing image processing on an image captured by the camera 54. That is, when the substrate thermocompression bonding apparatus 100 includes the alignment mark image recognition apparatus 200 shown in FIG. 1A, the image processing tool 62 includes a binarizing unit 102, a region feature value calculating unit 103, and a determining unit. 104, the functions of the pixel value conversion means 105 and the center of gravity determination means 106 are realized. When the substrate thermocompression bonding apparatus 100 includes the alignment mark image recognition apparatus 210 shown in FIG. 1B, the image processing tool 62 includes a binarization unit 102, a contour detection unit 108, and a center of gravity determination unit 109. Realize the function. The monitor 51 is a display device attached to the PC 52.

次に、基板熱圧着装置100の内部において構成されているアライメントマークを認識して基板位置補正を行うハードウェア部分(アライメントマーク認識・基板位置補正処理部)の構成を図6を参照して説明する。熱圧着の対象となる基板A76は、XY軸モータ77上にセットされる。基板B71は、XYθ軸モータ70上にセットされる。XYθ軸モータ70およびXY軸モータ77は、基板の位置合わせや熱圧着位置への基板の移動を行うものである。XYθ軸モータ70は、XY軸モータ77の上部に配置され、XY軸モータ77が移動するとXYθ軸モータ70も一緒に移動する。基板A76と基板B71との間には、ハーフミラー74が組み込まれたハーフミラーユニット73が配置されている。ハーフミラーユニット73の側面にはカメラ54が取り付けられ、ハーフミラーユニット73の下面にはリング照明A75が、上面にはリング照明B72が取り付けられている。   Next, the configuration of the hardware portion (alignment mark recognition / substrate position correction processing unit) that recognizes the alignment mark configured in the substrate thermocompression bonding apparatus 100 and corrects the substrate position will be described with reference to FIG. To do. A substrate A76 to be subjected to thermocompression bonding is set on an XY axis motor 77. The substrate B71 is set on the XYθ-axis motor 70. The XYθ-axis motor 70 and the XY-axis motor 77 are for positioning the substrate and moving the substrate to the thermocompression bonding position. The XYθ-axis motor 70 is disposed above the XY-axis motor 77. When the XY-axis motor 77 moves, the XYθ-axis motor 70 also moves together. A half mirror unit 73 in which a half mirror 74 is incorporated is arranged between the substrate A76 and the substrate B71. A camera 54 is attached to the side surface of the half mirror unit 73, a ring illumination A75 is attached to the lower surface of the half mirror unit 73, and a ring illumination B72 is attached to the upper surface.

リング照明A75とリング照明B72とは、それぞれ、基板A76と基板B71に光を照射する。照射された光は、基板A76および基板B71で反射され、それぞれ下側光軸79および上側光軸78を通り、ハーフミラー74を介には、リング照明B72を消灯しリング照明A75のみ点灯させる。逆に、基板B71の画像のみをカメラ54に取り込む場合は、リング照明A75を消灯しリング照明B72のみ点灯させる。よって、各基板を個々にカメラ54で撮像することができる。   Ring illumination A75 and ring illumination B72 irradiate light to substrate A76 and substrate B71, respectively. The irradiated light is reflected by the substrate A76 and the substrate B71, passes through the lower optical axis 79 and the upper optical axis 78, and turns off the ring illumination B72 and turns on only the ring illumination A75 via the half mirror 74. Conversely, when only the image of the substrate B71 is taken into the camera 54, the ring illumination A75 is turned off and only the ring illumination B72 is turned on. Therefore, each substrate can be individually imaged by the camera 54.

ハーフミラーユニット73は、基板A76と基板B71との位置あわせ位置が決定した後、基板A76と基板B71とを張り合わせる際に、基板A76と基板B71との間から抜ける機構を有する。張り合わされた基板A76と基板B71を熱圧着するときに、基板A76、基板B71およびXYθ軸モータ70がXY軸モータ77によってヒータユニット58の下に移動し、ヒータユニット58が下降、加圧、加熱することによって熱圧着が行われる。図6には、XYθ軸モータ70が基板B71の真上に位置している状態が示されているが、実際には、熱圧着時にヒータユニット58と干渉しない所に位置している。   The half mirror unit 73 has a mechanism that comes out from between the substrate A76 and the substrate B71 when the substrate A76 and the substrate B71 are bonded together after the alignment position between the substrate A76 and the substrate B71 is determined. When the bonded substrate A76 and substrate B71 are thermocompression bonded, the substrate A76, the substrate B71, and the XYθ-axis motor 70 are moved below the heater unit 58 by the XY-axis motor 77, and the heater unit 58 is lowered, pressurized, and heated. By doing so, thermocompression bonding is performed. FIG. 6 shows a state in which the XYθ-axis motor 70 is positioned directly above the substrate B 71, but actually, it is positioned where it does not interfere with the heater unit 58 during thermocompression bonding.

次に、基板熱圧着装置100による熱圧着の対象である基板A76と基板B71を図7を参照して説明する。図7には、基板A76および基板B71において基板熱圧着に関連する部分のみが示されている。基板A76には、基板A左アライメントマーク91、基板A右アライメントマーク92、基板A端子94が配置されている。基板B71には、基板B左アライメントマーク96、基板B右アライメントマーク97、基板B端子99が配置されている。   Next, the substrate A76 and the substrate B71 that are targets of thermocompression bonding by the substrate thermocompression bonding apparatus 100 will be described with reference to FIG. FIG. 7 shows only portions related to the substrate thermocompression bonding in the substrate A76 and the substrate B71. A substrate A left alignment mark 91, a substrate A right alignment mark 92, and a substrate A terminal 94 are arranged on the substrate A76. A substrate B left alignment mark 96, a substrate B right alignment mark 97, and a substrate B terminal 99 are arranged on the substrate B71.

基板A左アライメントマーク91、基板A右アライメントマーク92、基板B左アライメントマーク96および基板B右アライメントマーク97は、基板A76と基板B71との位置合わせを行うときに画像処理によって認識される箇所である。基板A76と基板B71との位置合わせ精度は、各アライメントマークの重心をいかに精度よく検出するかに関係する。基板A端子94の上には、熱硬化樹脂テープ95が貼り付けられている。熱硬化樹脂テープ95は、熱圧着されて基板A端子94と基板B端子99とを接続するとともに接続を保持するものである。   The substrate A left alignment mark 91, the substrate A right alignment mark 92, the substrate B left alignment mark 96, and the substrate B right alignment mark 97 are portions recognized by image processing when the substrate A76 and the substrate B71 are aligned. is there. The alignment accuracy between the substrate A76 and the substrate B71 is related to how accurately the center of gravity of each alignment mark is detected. On the substrate A terminal 94, a thermosetting resin tape 95 is attached. The thermosetting resin tape 95 is thermocompression bonded to connect the substrate A terminal 94 and the substrate B terminal 99 and to maintain the connection.

基板A76と基板B71とを位置合わせするときに、各基板上のアライメントマークの重心が検出され、検出結果にもとづいてアライメントマーク間の中心が求められる。図7において、アライメントマーク間の中心が、基板A左右アライメントマーク間中心位置93と基板B左右アライメントマーク間中心位置98とで示されている。基板A左右アライメントマーク間中心位置93と基板B左右アライメントマーク間中心位置98とを合わせることによって、基板A76と基板B71との位置合わせが行われる。   When aligning the substrate A76 and the substrate B71, the center of gravity of the alignment mark on each substrate is detected, and the center between the alignment marks is obtained based on the detection result. In FIG. 7, the center between the alignment marks is indicated by a center position 93 between the substrate A left and right alignment marks and a center position 98 between the substrate B left and right alignment marks. By aligning the center position 93 between the substrate A left and right alignment marks and the center position 98 between the substrate B left and right alignment marks, the substrate A76 and the substrate B71 are aligned.

図8は、基板A76と基板B71とが位置合わせされた状態を示す説明図である。上記のように、位置合わせされた状態は、基板A左右アライメントマーク間中心位置93と基板B左右アライメントマーク間中心位置98とが合った状態である。なお、基板A76と基板B71とは同じ角度で位置合わせされている。基板A76と基板B71との熱圧着は、位置合わせされた状態において行われる。   FIG. 8 is an explanatory diagram showing a state in which the substrate A76 and the substrate B71 are aligned. As described above, the aligned state is a state where the center position 93 between the substrate A left and right alignment marks and the center position 98 between the substrate B left and right alignment marks are aligned. The substrate A76 and the substrate B71 are aligned at the same angle. The thermocompression bonding of the substrate A76 and the substrate B71 is performed in the aligned state.

図8は、基板A76と基板B71とを位置合わせする処理を示すフローチャートである。なお、図8に示す処理が開始される前に、既に基板A76と基板B71とは、各々XY軸モータ77およびXYθ軸モータ70上にセットされている。また、XY軸モータ77およびXYθ軸モータ70の移動位置ついて、移動位置に関する説明が省略された場合には、事前に所定の移動位置に設定されているとする。   FIG. 8 is a flowchart showing a process for aligning the substrate A76 and the substrate B71. Before the processing shown in FIG. 8 is started, the substrate A76 and the substrate B71 are already set on the XY axis motor 77 and the XYθ axis motor 70, respectively. In addition, regarding the movement positions of the XY-axis motor 77 and the XYθ-axis motor 70, it is assumed that a predetermined movement position is set in advance when the description on the movement positions is omitted.

位置合わせが開始されると、PC52で制御されるモータ制御装置55によってXY軸モータ77が駆動され、XY軸モータ77によって基板A右アライメントマーク92が下側光軸79の下に移動する。また、PC52で制御される入出力制御装置59によってリング照明B72が消灯されリング照明A75が点灯され、基板A右アライメントマーク92の画像がハーフミラー74を介してカメラ54に取り込まれる(ステップS201)。カメラ54が取り込んだ画像は、画像入力装置53を介してPC52に入力される。PC52において、画像処理ツール62は、基板A右アライメントマーク92の重心を検出するための基板A右アライメントマーク重心検出処理を行う(ステップS202)。なお、実際には、画像処理ツール62に従って処理を実行するPC52のCPUによって処理が実行される。   When the alignment is started, the XY axis motor 77 is driven by the motor control device 55 controlled by the PC 52, and the substrate A right alignment mark 92 is moved below the lower optical axis 79 by the XY axis motor 77. Further, the ring illumination B72 is turned off and the ring illumination A75 is turned on by the input / output control device 59 controlled by the PC 52, and the image of the substrate A right alignment mark 92 is taken into the camera 54 via the half mirror 74 (step S201). . An image captured by the camera 54 is input to the PC 52 via the image input device 53. In the PC 52, the image processing tool 62 performs a substrate A right alignment mark centroid detection process for detecting the centroid of the substrate A right alignment mark 92 (step S202). In practice, the processing is executed by the CPU of the PC 52 that executes processing according to the image processing tool 62.

基板A右アライメントマーク重心検出処理が終了すると、PC52で制御されるモータ制御装置55によってXY軸モータ77が駆動され、XY軸モータ77によって基板A左アライメントマーク91が下側光軸79の下に移動する。基板A左アライメントマーク91の画像は、ハーフミラー74を介してカメラ54に取り込まれる(ステップS203)。カメラ54が取り込んだ画像は、画像入力装置53を介してPC52に入力される。PC52において、画像処理ツール62は、基板A左アライメントマーク91の重心を検出するための基板A左アライメントマーク重心検出処理を行う(ステップS204)。   When the substrate A right alignment mark center-of-gravity detection process is completed, the XY axis motor 77 is driven by the motor control device 55 controlled by the PC 52, and the substrate A left alignment mark 91 is placed below the lower optical axis 79 by the XY axis motor 77. Moving. The image of the substrate A left alignment mark 91 is captured by the camera 54 via the half mirror 74 (step S203). An image captured by the camera 54 is input to the PC 52 via the image input device 53. In the PC 52, the image processing tool 62 performs a substrate A left alignment mark centroid detection process for detecting the centroid of the substrate A left alignment mark 91 (step S204).

次に、画像処理ツール62は、基板A左右アライメントマーク間角度算出処理を実行する(ステップS205)。すなわち、基板A76の左右アライメントマーク間でのX方向およびY方向のずれを、XY軸モータ77の移動量と重心検出位置結果とを元に角度として算出する。また、画像処理ツール62は、基板A左右アライメントマーク間中心位置算出処理を実行する(ステップS206)。すなわち、XY軸モータ77の移動量と重心検出位置結果とを元に左右アライメントマークの中心位置を算出する。   Next, the image processing tool 62 executes a substrate A left and right alignment mark angle calculation process (step S205). That is, the deviation in the X direction and the Y direction between the left and right alignment marks on the substrate A76 is calculated as an angle based on the movement amount of the XY axis motor 77 and the result of the center of gravity detection position. In addition, the image processing tool 62 performs a center position calculation process between the left and right alignment marks of the substrate A (step S206). That is, the center position of the left and right alignment marks is calculated based on the movement amount of the XY axis motor 77 and the center of gravity detection position result.

基板A76の左右アライメントマークに対する処理(ステップS201〜S206)が完了すると、PC52は、基板B71の左右アライメントマークの重心検処理、角度算出処理および中心位置算出処理(ステップS207〜S211)を行う。   When the processing for the left and right alignment marks on the substrate A76 (steps S201 to S206) is completed, the PC 52 performs the gravity center detection processing, angle calculation processing, and center position calculation processing (steps S207 to S211) for the left and right alignment marks on the substrate B71.

PC52で制御されるモータ制御装置55によってXY軸モータ77が駆動され、XY軸モータ77によって基板B右アライメントマーク97が上側光軸78の上に移動する。また、PC52で制御される入出力制御装置59によってリング照明A75が消灯されリング照明B72が点灯され、基板B右アライメントマーク97の画像がハーフミラー74を介してカメラ54に取り込まれる(ステップS207)。カメラ54が取り込んだ画像は、画像入力装置53を介してPC52に入力される。PC52において、画像処理ツール62は、基板B右アライメントマーク97の重心を検出するための基板B右アライメントマーク重心検出処理を行う(ステップS208)。   The XY axis motor 77 is driven by the motor control device 55 controlled by the PC 52, and the substrate B right alignment mark 97 is moved onto the upper optical axis 78 by the XY axis motor 77. Further, the ring illumination A75 is turned off and the ring illumination B72 is turned on by the input / output control device 59 controlled by the PC 52, and the image of the substrate B right alignment mark 97 is taken into the camera 54 via the half mirror 74 (step S207). . An image captured by the camera 54 is input to the PC 52 via the image input device 53. In the PC 52, the image processing tool 62 performs a substrate B right alignment mark centroid detection process for detecting the centroid of the substrate B right alignment mark 97 (step S208).

基板B右アライメントマーク97の重心検出処理が終了すると、PC52で制御されるモータ制御装置55によってXY軸モータ77が駆動され、XY軸モータ77によって基板B左アライメントマーク96が基板B左アライメントマーク96に移動する。基板B左アライメントマーク96の画像は、ハーフミラー74を介してカメラ54に取り込まれる(ステップS209)。カメラ54が取り込んだ画像は、画像入力装置53を介してPC52に入力される。PC52において、画像処理ツール62は、基板B左アライメントマーク96の重心を検出するための基板B左アライメントマーク重心検出処理を行う(ステップS210)。   When the center-of-gravity detection processing of the substrate B right alignment mark 97 is completed, the XY axis motor 77 is driven by the motor control device 55 controlled by the PC 52, and the substrate B left alignment mark 96 is moved by the XY axis motor 77. Move to. The image of the substrate B left alignment mark 96 is captured by the camera 54 via the half mirror 74 (step S209). An image captured by the camera 54 is input to the PC 52 via the image input device 53. In the PC 52, the image processing tool 62 performs a substrate B left alignment mark centroid detection process for detecting the centroid of the substrate B left alignment mark 96 (step S210).

次に、画像処理ツール62は、基板B左右アライメントマーク間角度算出処理を実行する(ステップS211)。すなわち、基板A76についての処理と同様に、基板B71の左右アライメントマーク間でのX方向およびY方向のずれを、XY軸モータ77の移動量と重心検出位置結果とを元に角度として算出する。   Next, the image processing tool 62 executes an angle calculation process between the substrate B left and right alignment marks (step S211). That is, similarly to the processing for the substrate A76, the deviation in the X direction and the Y direction between the left and right alignment marks of the substrate B71 is calculated as an angle based on the movement amount of the XY axis motor 77 and the center of gravity detection position result.

そして、画像処理ツール62は、基板B角度補正処理を実行する(ステップS212)。すなわち、ステップS211の基板B左右アライメントマーク間角度算出処理で求めた角度とステップS205の基板A左右アライメントマーク間角度算出処理で求めた角度との差を計算し、求めた角度差の分だけ、XYθ軸モータ70によって基板B71を回転させる。ステップS212の処理によって、基板A76と基板B71との角度が一致する。   Then, the image processing tool 62 executes a substrate B angle correction process (step S212). That is, the difference between the angle obtained in the angle calculation process between the substrate B left and right alignment marks in step S211 and the angle obtained in the angle calculation process between the substrate A left and right alignment marks in step S205 is calculated. The substrate B71 is rotated by the XYθ-axis motor 70. By the process of step S212, the angles of the substrate A76 and the substrate B71 coincide.

ステップS212の基板B角度補正処理で基板B71を回転させると、ステップS208の基板B右アライメントマーク重心検出処理およびステップS210の基板B左アライメントマーク重心検出処理で検出したときの重心位置が変わるので、変わった重心位置を確認して、XYθ軸モータ70のX軸およびY軸で重心位置を補正する必要がある。そこで、画像処理ツール62は、基板B角度補正によるアライメントマーク位置移動量確認処理を実行する(ステップS213)。アライメントマーク位置移動量確認処理では、例えば、XYθ軸モータ70のθ軸の回転半径等を考慮した計算によって重心位置を確認したり、ステップS207の基板B右アライメントマーク画像取り込み処理からステップS210の基板B左アライメントマーク重心検出処理をやり直すことによって変わった重心位置を確認することができる。   When the substrate B 71 is rotated in the substrate B angle correction process in step S212, the center of gravity position detected in the substrate B right alignment mark centroid detection process in step S208 and the substrate B left alignment mark centroid detection process in step S210 changes. It is necessary to check the changed center of gravity position and correct the center of gravity position on the X and Y axes of the XYθ-axis motor 70. Therefore, the image processing tool 62 executes alignment mark position movement amount confirmation processing by correcting the substrate B angle (step S213). In the alignment mark position movement amount confirmation process, for example, the position of the center of gravity is confirmed by calculation taking into consideration the rotation radius of the θ axis of the XYθ axis motor 70 or the substrate B right alignment mark image capturing process in step S207 to the substrate in step S210. The center-of-gravity position changed by redoing the B-left alignment mark center-of-gravity detection process can be confirmed.

ステップS213の基板B角度補正によるアライメントマーク位置移動量確認処理で基板B71の左右アライメントマークの重心位置が確認できたら、画像処理ツール62は、基板B左右アライメントマーク間中心位置算出処理を実行する(ステップS214)。すなわち、XYθ軸モータ70の移動量と重心位置結果とを元に左右アライメントマークの中心位置とを算出する。   When the center of gravity position of the left and right alignment marks on the substrate B71 can be confirmed by the alignment mark position movement amount confirmation processing by the substrate B angle correction in step S213, the image processing tool 62 executes the center position calculation processing between the substrate B left and right alignment marks ( Step S214). That is, the center position of the left and right alignment marks is calculated based on the amount of movement of the XYθ-axis motor 70 and the center of gravity position result.

次いで、基板位置合わせ処理を実行する(ステップS215)。すなわち、ステップS206の基板A左右アライメントマーク間中心位置算出処理で算出した基板A76の左右アライメントマーク中心位置と、ステップS214の基板B左右アライメントマーク間中心位置算出処理で算出した基板B71の左右アライメントマーク中心位置のXYずれ量を計算し、XYθ軸モータ70によって基板B71をXYずれ量分だけ移動する。ステップS215の処理によって、基板A76と基板B71との角度および位置が一致する。   Next, a substrate alignment process is executed (step S215). That is, the left and right alignment mark center position of the substrate A76 calculated in the center position calculation process between the substrate A left and right alignment marks in step S206, and the left and right alignment mark of the substrate B71 calculated in the center position calculation process between the substrate B left and right alignment marks in step S214. The XY deviation amount of the center position is calculated, and the substrate B71 is moved by the XY deviation amount by the XYθ-axis motor 70. By the processing in step S215, the angles and positions of the substrate A76 and the substrate B71 coincide.

ステップS201〜S215の処理が完了すると、基板位置合わせ処理が終了する。   When the processes in steps S201 to S215 are completed, the substrate alignment process is completed.

次に、ステップS202の基板A右アライメントマーク重心検出処理、S204の基板A左アライメントマーク重心検出処理、S208の基板B右アライメントマーク重心検出処理、およびS210の基板B左アライメントマーク重心検出処理で実行されるアライメントマークの重心検出処理を図10のフローチャートを参照して説明する。ここでは、図2(a)示す異物7がアライメントマーク2の内部にあるとする。   Next, the substrate A right alignment mark centroid detection process in step S202, the substrate A left alignment mark centroid detection process in S204, the substrate B right alignment mark centroid detection process in S208, and the substrate B left alignment mark centroid detection process in S210 are executed. The alignment mark center-of-gravity detection process will be described with reference to the flowchart of FIG. Here, it is assumed that the foreign substance 7 shown in FIG. 2A is inside the alignment mark 2.

重心検出処理において、アライメントマーク画像取り込み処理が実行される(ステップS302)。すなわち、アライメントマーク2の画像がハーフミラー74を介してカメラ54に取り込まれる。そして、画像処理ツール62は、前処理を実行する(ステップS303)。前処理では、必要に応じて、重心検出のし易い状態にするための画像処理(輝度調整やコントラスト調整等)を行う。なお、前処理を行わなくてもよい。   In the center of gravity detection process, an alignment mark image capturing process is executed (step S302). That is, the image of the alignment mark 2 is taken into the camera 54 through the half mirror 74. Then, the image processing tool 62 performs preprocessing (step S303). In the preprocessing, image processing (brightness adjustment, contrast adjustment, etc.) for making it easy to detect the center of gravity is performed as necessary. It is not necessary to perform preprocessing.

次いで、画像処理ツール62は、2値化処理を実行する(ステップS304)。すなわち、前処理を行った画像の画像データを2値化する。2値化する際のしきい値を、アライメントマーク2とそれ以外の部分とが明確に区別される値に設定する。   Next, the image processing tool 62 executes binarization processing (step S304). That is, the image data of the preprocessed image is binarized. The threshold value for binarization is set to a value that clearly distinguishes the alignment mark 2 from other parts.

そして、画像処理ツール62は、黒オブジェクト抽出処理(ステップS305)を実行する。すなわち、異物7を検出するための処理となる。2値化画像1を画像処理により近傍ピクセルをグループ化してオブジェクトを構築する。異物7は黒画素であるとしているので、ステップS305の処理では、黒画素のみで構成されたオブジェクトのみを抽出する。背景9も黒画素で構成されたオブジェクトになる。   Then, the image processing tool 62 executes black object extraction processing (step S305). That is, it is a process for detecting the foreign matter 7. An object is constructed by grouping neighboring pixels of the binarized image 1 by image processing. Since the foreign object 7 is assumed to be a black pixel, in the process of step S305, only an object composed only of black pixels is extracted. The background 9 is also an object composed of black pixels.

次に、画像処理ツール62は、特徴計算処理を実行する(ステップS306)。すなわち、ステップS305の黒オブジェクト抽出処理で抽出された黒画素のみで構成されたオブジェクトを対象にして、各オブジェクトの面積、長軸および短軸といった特徴値を算出する。図2(a)に示された画像を例にすると、異物7および背景9の面積、長軸および短軸が算出される。   Next, the image processing tool 62 executes feature calculation processing (step S306). That is, for each object composed only of black pixels extracted by the black object extraction process in step S305, feature values such as the area, major axis, and minor axis of each object are calculated. Taking the image shown in FIG. 2A as an example, the area, major axis, and minor axis of the foreign object 7 and the background 9 are calculated.

画像処理ツール62は、ステップS306の特徴計算処理で算出された各黒オブジェクトの特徴値にもとづいて、黒オブジェクトが異物かどうかの判定する異物有無確認処理を実行する(ステップS307)。ステップS307の処理で異物かどうかの判定を行うに場合に、予め異物として判定するための異物の面積、長軸および短軸の上下限をしきい値として設定しておく。ステップS307の異物有無確認処理では、ステップS306の特徴計算処理で算出された各黒オブジェクトの面積、長軸および短軸の値が、面積、長軸および短軸の全てのしきい値内に入っていた場合に、黒オブジェクトを異物7として判定する。算出された全ての黒オブジェクトの面積、長軸または短軸の値が、事前に設定したしきい値内に入っていない場合には、異物なしと判定される。異物なしと判定された場合には、ステップS308の処理を実行しない。   The image processing tool 62 executes a foreign object presence confirmation process for determining whether the black object is a foreign object based on the feature value of each black object calculated in the feature calculation process of step S306 (step S307). When determining whether or not it is a foreign object in the process of step S307, the area of the foreign object and upper and lower limits of the major axis and the minor axis for determining as a foreign object are set in advance as threshold values. In the foreign object presence / absence confirmation process in step S307, the area, major axis, and minor axis values of each black object calculated in the feature calculation process in step S306 fall within all the threshold values of the area, major axis, and minor axis. If so, the black object is determined as the foreign object 7. When the calculated area, major axis, or minor axis value of all the black objects are not within the preset threshold value, it is determined that there is no foreign object. If it is determined that there is no foreign object, the process of step S308 is not executed.

異物7が検出された場合に、画像処理ツール62は、異物排除処理を実行する(ステップS308)。すなわち、異物7と判定された黒オブジェクトを排除するための処理を実施する。黒画素で構成されたオブジェクトを排除するための処理は、異物7のオブジェクト内の各画素値を0から255に書き換える処理である。異物排除処理が実行されると、異物7の黒画素が白画素になり、図2(b)に示されたように、アライメントマーク2の内部の異物7が排除された画像になる。   When the foreign object 7 is detected, the image processing tool 62 executes the foreign object removal process (step S308). That is, a process for eliminating the black object determined as the foreign object 7 is performed. The process for eliminating an object composed of black pixels is a process for rewriting each pixel value in the object of the foreign object 7 from 0 to 255. When the foreign matter exclusion process is executed, the black pixels of the foreign matter 7 become white pixels, and as shown in FIG. 2B, an image in which the foreign matter 7 inside the alignment mark 2 is removed is obtained.

その後、ステップS309〜S312の一般的な重心検出方法を実施する。ステップS309の白オブジェクト抽出処理では、画像処理ツール62は、異物7が排除された2値化画像1の画像データを対象にして、画像処理によって近傍ピクセルをグループ化してオブジェクトを構築する。本実施例では、アライメントマーク2の画素は白なので、白画素のみで構成されたオブジェクトのみを抽出する。図2(b)に示された例では、白オブジェクトは、アライメントマーク2のみである。   Then, the general gravity center detection method of steps S309 to S312 is performed. In the white object extraction process in step S309, the image processing tool 62 constructs an object by grouping neighboring pixels by image processing on the image data of the binarized image 1 from which the foreign matter 7 is excluded. In this embodiment, since the pixel of the alignment mark 2 is white, only an object composed of only white pixels is extracted. In the example shown in FIG. 2B, the white object is only the alignment mark 2.

ステップS310の特徴計算処理では、画像処理ツール62は、アライメントマーク2の重心6、面積5、長軸3、短軸4および真円度(長軸3と短軸4の比率)を算出する。ステップS311のアライメントマーク有無確認処理では、ステップS310の特徴計算処理で算出された面積5、長軸3、短軸4および真円度の値が、予め設定されている面積5、長軸3、短軸4および真円度の全てのしきい値の範囲内に入っているかどうか確認する。面積5、長軸3、短軸4および真円度の値が全てしきい値の範囲内に入っていれば、アライメントマーク2の形状は問題ないと判断し、ステップS310の特徴計算処理で算出した重心6をアライメントマーク2の重心6として採用し(ステップS312)、重心検出を終了する。面積5、長軸3、短軸4または真円度の値がしきい値の範囲内に入っていない場合には、アライメントマーク2が検出できなかった状態で重心検出を終了する。   In the feature calculation process in step S310, the image processing tool 62 calculates the center of gravity 6, the area 5, the major axis 3, the minor axis 4, and the roundness (ratio of the major axis 3 to the minor axis 4) of the alignment mark 2. In the alignment mark presence / absence confirmation process in step S311, the area 5, the major axis 3, the minor axis 4 and the roundness values calculated in the feature calculation process in step S310 are set to the preset area 5, major axis 3, It is checked whether the minor axis 4 and the roundness are within all threshold values. If the values of area 5, major axis 3, minor axis 4 and roundness are all within the threshold range, it is determined that the shape of alignment mark 2 is satisfactory, and is calculated by the feature calculation process in step S310. The determined center of gravity 6 is adopted as the center of gravity 6 of the alignment mark 2 (step S312), and the center of gravity detection is terminated. If the value of area 5, long axis 3, short axis 4 or roundness is not within the threshold value range, the center-of-gravity detection ends with the alignment mark 2 not being detected.

第1の実施例では、アライメントマーク2の内部に異物7が存在していたり、アライメントマーク2の内部に欠損がある場合に、異物7や欠損が検出され、アライメントマーク2から異物7や欠損(画素値が「0」である欠損)が排除される。よって、基板熱圧着装置100は、アライメントマーク2の重心を正確に決定することができ、その結果、正確な基板の位置合わせを行うことができる。   In the first embodiment, when the foreign material 7 exists inside the alignment mark 2 or when there is a defect inside the alignment mark 2, the foreign material 7 or the defect is detected. (Deletion having a pixel value of “0”) is eliminated. Therefore, the substrate thermocompression bonding apparatus 100 can accurately determine the center of gravity of the alignment mark 2, and as a result, the substrate can be accurately aligned.

実施例2.
次に、第2の実施形態のアライメントマーク画像認識方法が適用された第2実施例(実施例2)としての基板熱圧着装置を説明する。基板熱圧着装置の構成は、図5に示された構成と同じである。基板熱圧着装置においてアライメントマーク画像認識方法を実行する部分の構成は、図6に示された構成と同じである。熱圧着対象の基板は、図7に示されたような基板である。また、基板熱圧着装置において、基板A76と基板B71とを位置合わせする処理は、図8に示された処理と同じである。
Example 2
Next, a substrate thermocompression bonding apparatus as a second example (Example 2) to which the alignment mark image recognition method of the second embodiment is applied will be described. The configuration of the substrate thermocompression bonding apparatus is the same as the configuration shown in FIG. The configuration of the part that executes the alignment mark image recognition method in the substrate thermocompression bonding apparatus is the same as the configuration shown in FIG. The substrate to be subjected to thermocompression bonding is a substrate as shown in FIG. In the substrate thermocompression bonding apparatus, the processing for aligning the substrate A76 and the substrate B71 is the same as the processing shown in FIG.

第2実施例では、重心検出処理(アライメントマーク重心位置を検出する処理)は、図11のフローチャートに示すように実行される。重心検出処理において、アライメントマーク画像取り込み処理が実行される(ステップS402)。すなわち、アライメントマーク2の画像がハーフミラー74を介してカメラ54に取り込まれる。そして、PC52における画像処理ツール62は、前処理を実行する(ステップS403)。すなわち、必要に応じて、重心検出のし易い状態にするための画像処理(輝度調整やコントラスト調整等)を行う。なお、前処理を行わなくてもよい。   In the second embodiment, the center-of-gravity detection processing (processing for detecting the alignment mark center-of-gravity position) is executed as shown in the flowchart of FIG. In the center of gravity detection process, an alignment mark image capturing process is executed (step S402). That is, the image of the alignment mark 2 is taken into the camera 54 through the half mirror 74. Then, the image processing tool 62 in the PC 52 executes preprocessing (step S403). That is, image processing (brightness adjustment, contrast adjustment, etc.) is performed as necessary to make the center of gravity easy to detect. It is not necessary to perform preprocessing.

次いで、画像処理ツール62は、2値化処理を実行する(ステップS404)。すなわち、前処理を行った画像の画像データを2値化する。2値化する際のしきい値を、アライメントマーク2とそれ以外の部分とが明確に区別される値に設定する。   Next, the image processing tool 62 executes binarization processing (step S404). That is, the image data of the preprocessed image is binarized. The threshold value for binarization is set to a value that clearly distinguishes the alignment mark 2 from other parts.

そして、画像処理ツール62は、エッジ検出処理(ステップS405)を実行する。すなわち、アライメントマーク2の輪郭と異物7および背景9との境目になるポイントを求める。図3(b)に示されたように、仮中心A10とA’の間を繋ぐ直線を引くと、直線上に、異物7との境目にぶつかるポイントが出てくる。このポイントは、アライメントマーク2の白画素から異物7の黒画素に変化するポイントである。図3(b)には、仮中心A10と点A’と間の1箇所のみでエッジ11が検出されている様子が示されているが、同様の処理(アライメントマーク2の白画素から異物7の黒画素に変化するポイントを探す処理)を、仮中心A10からアライメントマーク2と異物7および背景9との境目全てに対して実行すると、図3(d)に示すように、アライメントマーク2の外郭におけるエッジaからエッジnで表されているエッジ11が検出される。   Then, the image processing tool 62 executes edge detection processing (step S405). That is, a point that is a boundary between the contour of the alignment mark 2 and the foreign object 7 and the background 9 is obtained. As shown in FIG. 3B, when a straight line connecting the temporary centers A10 and A 'is drawn, a point that hits the boundary with the foreign substance 7 appears on the straight line. This point is a point at which the white pixel of the alignment mark 2 changes to the black pixel of the foreign object 7. FIG. 3B shows a state in which the edge 11 is detected only at one place between the temporary center A10 and the point A ′. Similar processing (from the white pixel of the alignment mark 2 to the foreign object 7 is shown. 3) is performed on all the boundaries between the alignment mark 2 and the foreign matter 7 and the background 9 from the temporary center A10, as shown in FIG. An edge 11 represented by edge n from edge a in the outline is detected.

画像処理ツール62は、検出したエッジ11の画像上の位置を、仮中心A10の座標(X0,Y0)とともにXY座標(Xn,Yn)として記憶する。そして、アライメントマーク2の外郭における全てのエッジ11が検出されると既知の円の最小二乗法を用いた計算処理を行う(ステップS406)。図4(e)には、円の最小二乗法による計算対象になるエッジ11と仮中心A10との位置が示されている。ステップS406の円の最小二乗法を用いた計算処理で求められた円(具体的には、円の半径)および重心は、図4(f)に示す最小二乗法計算円12および最小二乗法計算円重心13である。   The image processing tool 62 stores the detected position of the edge 11 on the image as the XY coordinates (Xn, Yn) together with the coordinates (X0, Y0) of the temporary center A10. When all the edges 11 in the outline of the alignment mark 2 are detected, a calculation process using a known least square method of a circle is performed (step S406). FIG. 4 (e) shows the positions of the edge 11 and the temporary center A10 that are to be calculated by the method of least squares of a circle. The circle (specifically, the radius of the circle) and the center of gravity obtained by the calculation process using the least square method of the circle in step S406 are the least square method calculation circle 12 and the least square method calculation shown in FIG. The center of gravity 13 of the circle.

図4(f)に示されたように、最小二乗法計算円12は、アライメントマーク2の輪郭よりずれた箇所に位置している。ずれた理由は、アライメントマーク2の輪郭部分に存在する異物7または欠損の影響を受けたことである。この影響を排除するために、アライメントマーク2と異物7との境目にあるエッジ11を排除すること考える。アライメントマーク2と異物7との境目にあるエッジ11を排除するために、最小二乗法計算円12と全てのエッジ11との距離を計算する(ステップS407)。   As shown in FIG. 4 (f), the least square method calculation circle 12 is located at a position shifted from the contour of the alignment mark 2. The reason for the deviation is that it is affected by the foreign matter 7 or a defect present in the contour portion of the alignment mark 2. In order to eliminate this influence, it is considered to eliminate the edge 11 at the boundary between the alignment mark 2 and the foreign material 7. In order to eliminate the edge 11 at the boundary between the alignment mark 2 and the foreign substance 7, the distance between the least square method calculation circle 12 and all the edges 11 is calculated (step S407).

画像処理ツール62は、最小二乗法計算円とエッジ間の距離確認(しきい値範囲外有無)の処理を実行する(ステップS408)。すなわち、ステップS407の処理で計算された最小二乗法計算円12とエッジ11との間の距離を、予め設定された最小二乗法計算円とエッジとの間の距離14に関するしきい値と比較することによって、異物7によるエッジ11と正常な輪郭部にあるエッジ11とを区別する。最小二乗法計算円12と、アライメントマーク2と異物7との境目にあるエッジ11との間の距離は、アライメントマーク2の正常な輪郭部(異物7が付着していない輪郭部)におけるエッジ11との間の距離よりも大きいので、最小二乗法計算円とエッジとの間の距離14に関してしきい値を設定し、最小二乗法計算円12とエッジ11との間の距離をしきい値と比較することによって、異物7によるエッジ11と正常な輪郭部にあるエッジ11とを区別することができる。   The image processing tool 62 executes a process of confirming the distance between the least square method calculation circle and the edge (existence / non-threshold range) (step S408). That is, the distance between the least square method calculation circle 12 and the edge 11 calculated in the process of step S407 is compared with a threshold value relating to a preset distance 14 between the least square method calculation circle and the edge. Thus, the edge 11 due to the foreign substance 7 is distinguished from the edge 11 in the normal contour portion. The distance between the least square method calculation circle 12 and the edge 11 at the boundary between the alignment mark 2 and the foreign object 7 is the edge 11 in the normal contour part (contour part to which the foreign object 7 is not attached) of the alignment mark 2. Therefore, a threshold is set for the distance 14 between the least square calculation circle and the edge, and the distance between the least square calculation circle 12 and the edge 11 is set as the threshold. By comparing, the edge 11 caused by the foreign matter 7 and the edge 11 in the normal contour portion can be distinguished.

しきい値の範囲外のエッジ11がない場合には、アライメントマーク2の輪郭上に異物7は存在しないとして、ステップS411に移行する。   If there is no edge 11 outside the threshold range, the foreign substance 7 does not exist on the contour of the alignment mark 2 and the process proceeds to step S411.

しきい値の範囲外にあるエッジ11がある場合には、画像処理ツール62は、しきい値範囲外エッジデータを削除する処理を実行する(ステップS409)。ステップS409の処理によって、しきい値の範囲外にあるエッジ11は削除される。図4(f)に示す最小二乗法計算から除外されるエッジ15は、最小二乗法計算円とエッジとの間の距離14に関するしきい値の範囲から外れたエッジ11である。   If there is an edge 11 that is outside the threshold range, the image processing tool 62 executes processing for deleting edge data outside the threshold range (step S409). By the process in step S409, the edge 11 outside the threshold value range is deleted. The edge 15 excluded from the least square method calculation shown in FIG. 4F is an edge 11 that is out of the range of the threshold regarding the distance 14 between the least square method calculation circle and the edge.

そして、画像処理ツール62は、最小二乗法計算処理を実行する(ステップS410)。すなわち、しきい値の範囲外のエッジ11のデータが削除された状態で、再度最小二乗法の計算を行う。図4(h)には、最小二乗法計算から除外されるエッジ15を除いたエッジ11を対象にして円の最小二乗法を再度計算した結果が示されている。図4(h)には、アライメントマーク2の輪郭と最小二乗法で求められた円の輪郭とが一致していることが示されている。   Then, the image processing tool 62 executes a least square method calculation process (step S410). That is, the least square method is calculated again in a state where the data of the edge 11 outside the threshold range is deleted. FIG. 4 (h) shows the result of recalculating the least square method of a circle for the edge 11 excluding the edge 15 excluded from the least square method calculation. FIG. 4H shows that the contour of the alignment mark 2 matches the contour of the circle obtained by the least square method.

画像処理ツール62は、最小二乗法計算円重心13は、円の最小二乗法の計算によって求められるので、求められた最小二乗法計算円重心13をアライメントマークの重心として採用する(ステップS411)。そして、重心検出を終了する。   The image processing tool 62 employs the obtained least square method calculated circle center of gravity 13 as the center of gravity of the alignment mark because the least square method calculated circle center of gravity 13 is obtained by calculation of the least square method of the circle (step S411). Then, the center of gravity detection ends.

第2の実施例では、図3(a)に示すようにアライメントマーク2の輪郭部に異物7が存在していたり、アライメントマーク2の輪郭部に欠損がある場合に、異物7や欠損(画素値が「0」である欠損)の影響を排除して、アライメントマーク2の重心を正確に決定することができる。   In the second embodiment, as shown in FIG. 3A, when the foreign substance 7 is present in the contour part of the alignment mark 2 or when there is a defect in the contour part of the alignment mark 2, the foreign substance 7 or the defect (pixel The center of gravity of the alignment mark 2 can be accurately determined by eliminating the influence of a defect having a value of “0”.

実施例3.
次に、第1の実施形態のアライメントマーク画像認識方法と第2の実施形態のアライメントマーク画像認識方法が適用された第2実施例(実施例2)としての基板熱圧着装置を説明する。図12は、アライメントマークの内部および輪郭に異物が付着している状態を示す説明図である。なお、図12(a)が、アライメントマークの内部および輪郭にアライメントマーク内異物350およびアライメントマーク輪郭上異物351が付着している状態を示し、図12(b)は、アライメントマークの内部の異物が排除された状態を示す。また、基板熱圧着装置において、基板A76と基板B71とを位置合わせする処理は、図8に示された処理と同じである。
Example 3 FIG.
Next, a substrate thermocompression bonding apparatus as a second example (Example 2) to which the alignment mark image recognition method of the first embodiment and the alignment mark image recognition method of the second embodiment are applied will be described. FIG. 12 is an explanatory diagram showing a state in which foreign matter adheres to the inside and the outline of the alignment mark. FIG. 12A shows a state where foreign matter 350 in the alignment mark and foreign matter 351 on the alignment mark contour are attached to the inside and the contour of the alignment mark, and FIG. 12B shows the foreign matter inside the alignment mark. Indicates a state in which is excluded. In the substrate thermocompression bonding apparatus, the processing for aligning the substrate A76 and the substrate B71 is the same as the processing shown in FIG.

また、基板熱圧着装置の構成は、図5に示された構成と同じである。基板熱圧着装置においてアライメントマーク画像認識方法を実行する部分の構成は、図6に示された構成と同じである。熱圧着対象の基板は、図7に示されたような基板である。   The configuration of the substrate thermocompression bonding apparatus is the same as that shown in FIG. The configuration of the part that executes the alignment mark image recognition method in the substrate thermocompression bonding apparatus is the same as the configuration shown in FIG. The substrate to be subjected to thermocompression bonding is a substrate as shown in FIG.

図13および図14は、実施例3における重心検出処理(アライメントマーク重心位置を検出する処理)を示すフローチャートである。重心検出処理において、アライメントマーク画像取り込み処理が実行される(ステップS502)。すなわち、アライメントマーク2の画像がハーフミラー74を介してカメラ54に取り込まれる。そして、PC52における画像処理ツール62は、前処理を実行する(ステップS503)。前処理では、必要に応じて、重心検出のし易い状態にするための画像処理(輝度調整やコントラスト調整等)を行う。なお、前処理を行わなくてもよい。   FIG. 13 and FIG. 14 are flowcharts illustrating the center of gravity detection processing (processing for detecting the alignment mark center of gravity position) in the third embodiment. In the center of gravity detection process, an alignment mark image capturing process is executed (step S502). That is, the image of the alignment mark 2 is taken into the camera 54 through the half mirror 74. Then, the image processing tool 62 in the PC 52 executes preprocessing (step S503). In the preprocessing, image processing (brightness adjustment, contrast adjustment, etc.) for making it easy to detect the center of gravity is performed as necessary. It is not necessary to perform preprocessing.

次いで、画像処理ツール62は、2値化処理を実行する(ステップS504)。すなわち、前処理を行った画像の画像データを2値化する。2値化する際のしきい値を、アライメントマーク2とそれ以外の部分とが明確に区別される値に設定する。   Next, the image processing tool 62 executes binarization processing (step S504). That is, the image data of the preprocessed image is binarized. The threshold value for binarization is set to a value that clearly distinguishes the alignment mark 2 from other parts.

そして、画像処理ツール62は、黒オブジェクト抽出処理(ステップS505)を実行する。すなわち、異物7を検出するための処理となる。2値化画像1を画像処理により近傍ピクセルをグループ化してオブジェクトを構築する。異物7は黒画素であるとしているので、ステップS505の処理では、黒画素のみで構成されたオブジェクトのみを抽出する。背景9も黒画素で構成されたオブジェクトになる。   Then, the image processing tool 62 executes black object extraction processing (step S505). That is, it is a process for detecting the foreign matter 7. An object is constructed by grouping neighboring pixels of the binarized image 1 by image processing. Since the foreign object 7 is assumed to be a black pixel, in the process of step S505, only an object composed only of black pixels is extracted. The background 9 is also an object composed of black pixels.

次に、画像処理ツール62は、特徴計算処理を実行する(ステップS506)。すなわち、ステップS505の黒オブジェクト抽出処理で抽出された黒画素のみで構成されたオブジェクトを対象にして、各オブジェクトの面積、長軸および短軸といった特徴値を算出する。図12(a)に示された画像を例にすると、アライメント内異物350および背景9(アライメント輪郭上異物351を包含する。)の面積、長軸および短軸が算出される。   Next, the image processing tool 62 executes feature calculation processing (step S506). That is, for each object composed only of black pixels extracted by the black object extraction process in step S505, feature values such as the area, major axis, and minor axis of each object are calculated. Taking the image shown in FIG. 12A as an example, the area, major axis, and minor axis of the in-alignment foreign matter 350 and the background 9 (including the foreign matter 351 on the alignment contour) are calculated.

画像処理ツール62は、ステップS506の特徴計算処理で算出された各黒オブジェクトの特徴値にもとづいて、黒オブジェクトが異物かどうかの判定する異物有無確認処理を実行する(ステップS507)。ステップS507の処理で異物かどうかの判定を行うに場合に、予め異物として判定するための異物の面積、長軸および短軸の上下限をしきい値として設定しておく。ステップS507の異物有無確認処理では、ステップS506の特徴計算処理で算出された各黒オブジェクトの面積、長軸および短軸の値が、面積、長軸および短軸の全てのしきい値内に入っていた場合に、黒オブジェクトを異物7として判定する。算出された全ての黒オブジェクトの面積、長軸または短軸の値が、事前に設定したしきい値内に入っていない場合には、異物なしと判定される。異物なしと判定された場合には、ステップS508の処理を実行しない。   The image processing tool 62 executes a foreign object presence confirmation process for determining whether or not the black object is a foreign object based on the feature value of each black object calculated in the feature calculation process of step S506 (step S507). When determining whether or not it is a foreign object in the process of step S507, the area of the foreign object and the upper and lower limits of the major axis and the minor axis for determining as a foreign object are set in advance as threshold values. In the foreign object presence / absence confirmation process in step S507, the area, major axis, and minor axis values of each black object calculated in the feature calculation process in step S506 fall within all the threshold values of the area, major axis, and minor axis. If so, the black object is determined as the foreign object 7. When the calculated area, major axis, or minor axis value of all the black objects are not within the preset threshold value, it is determined that there is no foreign object. If it is determined that there is no foreign object, the process of step S508 is not executed.

異物7が検出された場合に、画像処理ツール62は、異物排除処理を実行する(ステップS508)。すなわち、異物と判定された黒オブジェクトを排除するための処理を実施する。黒画素で構成されたオブジェクトを排除するための処理は、異物のオブジェクト内の各画素値を0から255に書き換える処理である。異物排除処理が実行されると、異物の黒画素が白画素になり、図12(b)に示すように、アライメントマーク異物350が排除された画像になる。すなわち、アライメントマーク2における異物は、アライメントマーク輪郭上異物351のみになる。   When the foreign object 7 is detected, the image processing tool 62 executes the foreign object removal process (step S508). That is, a process for eliminating a black object determined to be a foreign object is performed. The process for excluding an object composed of black pixels is a process for rewriting each pixel value in the foreign object from 0 to 255. When the foreign matter removal process is executed, the black pixels of the foreign matter become white pixels, and an image from which the alignment mark foreign matter 350 has been removed is obtained as shown in FIG. That is, the foreign matter in the alignment mark 2 is only the foreign matter 351 on the alignment mark outline.

そして、画像処理ツール62は、エッジ検出処理(ステップS509)を実行する。すなわち、アライメントマーク2の輪郭と異物7および背景9との境目になるポイントを求める。図3(b)に示されたように、仮中心A10とA’の間を繋ぐ直線を引くと、直線上に、異物7との境目にぶつかるポイントが出てくる。このポイントは、アライメントマーク2の白画素から異物7の黒画素に変化するポイントである。図3(b)には、仮中心A10と点A’と間の1箇所のみでエッジ11が検出されている様子が示されているが、同様の処理(アライメントマーク2の白画素から異物7の黒画素に変化するポイントを探す処理)を、仮中心A10からアライメントマーク2と異物7および背景9との境目全てに対して実行すると、図3(d)に示すように、アライメントマーク2の外郭におけるエッジaからエッジnで表されているエッジ11が検出される。   Then, the image processing tool 62 performs edge detection processing (step S509). That is, a point that is a boundary between the contour of the alignment mark 2 and the foreign object 7 and the background 9 is obtained. As shown in FIG. 3B, when a straight line connecting the temporary centers A10 and A 'is drawn, a point that hits the boundary with the foreign substance 7 appears on the straight line. This point is a point at which the white pixel of the alignment mark 2 changes to the black pixel of the foreign object 7. FIG. 3B shows a state in which the edge 11 is detected only at one place between the temporary center A10 and the point A ′. Similar processing (from the white pixel of the alignment mark 2 to the foreign object 7 is shown. 3) is performed on all the boundaries between the alignment mark 2 and the foreign matter 7 and the background 9 from the temporary center A10, as shown in FIG. An edge 11 represented by edge n from edge a in the outline is detected.

画像処理ツール62は、検出したエッジ11の画像上の位置を、仮中心A10の座標(X0,Y0)とともにXY座標(Xn,Yn)として記憶する。そして、アライメントマーク2の外郭における全てのエッジ11が検出されると既知の円の最小二乗法を用いた計算処理を行う(ステップS510)。図4(e)には、円の最小二乗法による計算対象になるエッジ11と仮中心A10との位置が示されている。ステップS510の円の最小二乗法を用いた計算処理で求められた円および重心は、図4(f)に示す最小二乗法計算円12および最小二乗法計算円重心13である。   The image processing tool 62 stores the detected position of the edge 11 on the image as the XY coordinates (Xn, Yn) together with the coordinates (X0, Y0) of the temporary center A10. When all the edges 11 in the outline of the alignment mark 2 are detected, a calculation process using a known least square method of a circle is performed (step S510). FIG. 4 (e) shows the positions of the edge 11 and the temporary center A10 that are to be calculated by the method of least squares of a circle. The circles and centroids obtained by the calculation process using the least square method of the circle in step S510 are the least square method calculation circle 12 and the least square method calculation circle centroid 13 shown in FIG.

図4(f)に示されたように、最小二乗法計算円12は、アライメントマーク2の輪郭よりずれた箇所に位置している。ずれた理由は、アライメントマーク2の輪郭部分に存在する異物7または欠損の影響を受けたことである。この影響を排除するために、アライメントマーク2と異物7との境目にあるエッジ11を排除すること考える。アライメントマーク2と異物7との境目にあるエッジ11を排除するために、最小二乗法計算円12と全てのエッジ11との距離を計算する(ステップS511)。   As shown in FIG. 4 (f), the least square method calculation circle 12 is located at a position shifted from the contour of the alignment mark 2. The reason for the deviation is that it is affected by the foreign matter 7 or a defect present in the contour portion of the alignment mark 2. In order to eliminate this influence, it is considered to eliminate the edge 11 at the boundary between the alignment mark 2 and the foreign material 7. In order to eliminate the edge 11 at the boundary between the alignment mark 2 and the foreign substance 7, the distance between the least square method calculation circle 12 and all the edges 11 is calculated (step S511).

画像処理ツール62は、最小二乗法計算円とエッジ間の距離確認(しきい値範囲外有無)の処理を実行する(ステップS512)。すなわち、ステップS511の処理で計算された最小二乗法計算円12とエッジ11との間の距離を、予め設定された最小二乗法計算円とエッジとの間の距離14に関するしきい値と比較することによって、異物7によるエッジ11と正常な輪郭部にあるエッジ11とを区別する。   The image processing tool 62 executes a process of confirming the distance between the least square method calculation circle and the edge (existence / absence of out of threshold value range) (step S512). That is, the distance between the least square method calculation circle 12 and the edge 11 calculated in the process of step S511 is compared with a threshold value relating to a preset distance 14 between the least square method calculation circle and the edge. Thus, the edge 11 due to the foreign substance 7 is distinguished from the edge 11 in the normal contour portion.

しきい値の範囲外のエッジ11がない場合には、アライメントマーク2の輪郭上に異物7は存在しないとして、ステップS515に移行する。   If there is no edge 11 outside the threshold range, the foreign substance 7 does not exist on the contour of the alignment mark 2 and the process proceeds to step S515.

しきい値の範囲外にあるエッジ11がある場合には、画像処理ツール62は、しきい値範囲外エッジデータを削除する処理を実行する(ステップS513)。ステップS513の処理によって、しきい値の範囲外にあるエッジ11は削除される。図4(f)に示す最小二乗法計算から除外されるエッジ15は、最小二乗法計算円とエッジとの間の距離14に関するしきい値の範囲から外れたエッジ11である。   If there is an edge 11 that is outside the threshold range, the image processing tool 62 executes processing for deleting edge data outside the threshold range (step S513). By the processing in step S513, the edge 11 outside the threshold range is deleted. The edge 15 excluded from the least square method calculation shown in FIG. 4F is an edge 11 that is out of the range of the threshold regarding the distance 14 between the least square method calculation circle and the edge.

そして、画像処理ツール62は、最小二乗法計算処理を実行する(ステップS514)。すなわち、しきい値の範囲外のエッジ11のデータが削除された状態で、再度最小二乗法の計算を行う。図4(h)には、最小二乗法計算から除外されるエッジ15を除いたエッジ11を対象にして円の最小二乗法を再度計算した結果が示されている。図4(h)には、アライメントマーク2の輪郭と最小二乗法で求められた円の輪郭とが一致していることが示されている。   Then, the image processing tool 62 executes a least square method calculation process (step S514). That is, the least square method is calculated again in a state where the data of the edge 11 outside the threshold range is deleted. FIG. 4 (h) shows the result of recalculating the least square method of a circle for the edge 11 excluding the edge 15 excluded from the least square method calculation. FIG. 4H shows that the contour of the alignment mark 2 matches the contour of the circle obtained by the least square method.

画像処理ツール62は、最小二乗法計算円重心13は、円の最小二乗法の計算によって求められるので、求められた最小二乗法計算円重心13をアライメントマークの重心として採用する(ステップS515)。そして、重心検出を終了する。   The image processing tool 62 employs the obtained least-squares calculation circle centroid 13 as the centroid of the alignment mark because the least-squares calculation circle centroid 13 is obtained by calculation of the least-squares method of the circle (step S515). Then, the center of gravity detection ends.

第3の実施形態では、図12(a)に示すように、アライメントマーク2の内部に異物7等が存在し、かつ、アライメントマーク2の輪郭部に異物7等が存在していた場合に、異物7や欠損(画素値が「0」である欠損)の影響を排除して、アライメントマーク2の重心を正確に決定することができる。   In the third embodiment, as shown in FIG. 12A, when the foreign matter 7 or the like is present inside the alignment mark 2 and the foreign matter 7 or the like is present at the contour portion of the alignment mark 2, The center of gravity of the alignment mark 2 can be accurately determined by eliminating the influence of the foreign object 7 and the defect (defect having a pixel value “0”).

本発明を、二つの基板を熱圧着する基板熱圧着装置や電子部品を実装する実装機等に適用することができる。   The present invention can be applied to a substrate thermocompression bonding apparatus for thermocompression bonding two substrates, a mounting machine for mounting electronic components, and the like.

本発明によるアライメントマーク画像認識装置の主要部を示すブロック図である。It is a block diagram which shows the principal part of the alignment mark image recognition apparatus by this invention. アライメントマークの内部に存在する異物を排除する方法を示す説明図である。It is explanatory drawing which shows the method of removing the foreign material which exists in the inside of an alignment mark. アライメントマークの内部に存在する異物を排除する方法を示す説明図である。It is explanatory drawing which shows the method of removing the foreign material which exists in the inside of an alignment mark. アライメントマークの内部に存在する異物を排除する方法を示す説明図である。It is explanatory drawing which shows the method of removing the foreign material which exists in the inside of an alignment mark. 基板熱圧着装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of a board | substrate thermocompression bonding apparatus. 基板熱圧着装置においてアライメントマーク画像認識方法を実行する部分を示すブロック図である。It is a block diagram which shows the part which performs the alignment mark image recognition method in a board | substrate thermocompression bonding apparatus. 熱圧着対象の基板を示す説明図である。It is explanatory drawing which shows the board | substrate of thermocompression bonding object. 基板位置合わせ状態を示す説明図である。It is explanatory drawing which shows a board | substrate position alignment state. 基板位置合わせ処理を示すフローチャートである。It is a flowchart which shows a board | substrate position alignment process. 第1実施例におけるアライメントマーク重心位置を検出する処理を示すフローチャートである。It is a flowchart which shows the process which detects the alignment mark gravity center position in 1st Example. 第2実施例におけるアライメントマーク重心位置を検出する処理を示すフローチャートである。It is a flowchart which shows the process which detects the alignment mark gravity center position in 2nd Example. アライメントマークの内部および輪郭に異物が付着している状態を示す説明図である。It is explanatory drawing which shows the state in which the foreign material has adhered to the inside and outline of an alignment mark. 第3実施例におけるアライメントマーク重心位置を検出する処理を示すフローチャートである。It is a flowchart which shows the process which detects the alignment mark gravity center position in 3rd Example. 第3実施例におけるアライメントマーク重心位置を検出する処理を示すフローチャートである。It is a flowchart which shows the process which detects the alignment mark gravity center position in 3rd Example. 一般的なアライメントマーク画像認識方法を示す説明図である。It is explanatory drawing which shows the general alignment mark image recognition method.

符号の説明Explanation of symbols

1 2値化画像
2 アライメントマーク
3 長軸
4 短軸
5 アライメントマーク面積
6 アライメントマーク重心
7 異物
8 欠損
9 背景
10 仮中心A
11 エッジ
12 最小二乗法計算円
13 最小二乗法計算円重心
14 最小二乗法計算円とエッジ間の距離
15 最小二乗法計算から除外されるエッジ
16 サンプリング角度θ
51 モニタ
52 パーソナルコンピュータ(PC)
53 画像入力装置
54 カメラ
55 モータ制御装置
56 モータ
57 ヒータコントローラ
58 ヒータユニット
59 入出力制御装置
60 入出力機器
61 照明
62 画像処理ツール
70 XYθ軸モータ
71 基板B
72 リング照明B
73 ハーフミラーユニット
74 ハーフミラー
75 リング照明A
76 基板A
77 XY軸モータ
78 上側光軸
79 下側光軸
91 基板A左アライメントマーク
92 基板A右アライメントマーク
93 基板A左右アライメントマーク間中心位置
94 基板A端子
95 熱硬化樹脂テープ
96 基板B左アライメントマーク
97 基板B右アライメントマーク
98 基板B左右アライメントマーク間中心位置
99 基板B端子
100 基板熱圧着装置
101 撮像手段
102 2値化手段
103 領域特徴値算出手段
104 判定手段
105 画素値変換手段
106 重心決定手段
108 輪郭検出手段
109 重心決定手段
200,210 アライメントマーク画像認識装置
350 アライメント内異物
351 アライメント輪郭上異物
1 Binary image 2 Alignment mark 3 Long axis 4 Short axis 5 Alignment mark area 6 Alignment mark center of gravity 7 Foreign object 8 Defect 9 Background 10 Temporary center A
11 Edge 12 Least Square Method Calculation Circle 13 Least Square Method Calculation Circle Center of Gravity 14 Distance between Least Square Method Calculation Circle and Edge 15 Edge Excluded from Least Square Method Calculation 16 Sampling Angle θ
51 Monitor 52 Personal computer (PC)
53 Image Input Device 54 Camera 55 Motor Control Device 56 Motor 57 Heater Controller 58 Heater Unit 59 Input / Output Control Device 60 Input / Output Equipment 61 Illumination 62 Image Processing Tool 70 XYθ Axis Motor 71 Substrate B
72 Ring illumination B
73 Half mirror unit 74 Half mirror 75 Ring illumination A
76 Substrate A
77 XY axis motor 78 Upper optical axis 79 Lower optical axis 91 Substrate A left alignment mark 92 Substrate A right alignment mark 93 Center position between substrate A left and right alignment marks 94 Substrate A terminal 95 Thermosetting resin tape 96 Substrate B left alignment mark 97 Substrate B right alignment mark 98 Center position between substrate B left and right alignment marks 99 Substrate B terminal 100 Substrate thermocompression bonding apparatus 101 Imaging means 102 Binarization means 103 Area feature value calculation means 104 Judgment means 105 Pixel value conversion means 106 Center of gravity determination means 108 Contour detection means 109 Center of gravity determination means 200, 210 Alignment mark image recognition device 350 Foreign matter in alignment 351 Foreign matter on alignment contour

Claims (8)

アライメントマークを検出してアライメントマークの重心を決定するアライメントマーク画像認識装置であって、
アライメントマークの周辺を撮像して画像データを得る撮像手段と、
前記撮像手段が得た画像データを2値化して2値化データを出力する2値化手段と、
前記2値化手段が出力した2値化データから、アライメントマークの画素値とは異なるマーク非対応画素値で形成されるマーク非対応領域の特徴値を算出する領域特徴値算出手段と、
前記領域特徴値算出手段が算出したマーク非対応領域の特徴値が、しきい値の範囲内に入っているか否か判定する判定手段と、
前記判定手段がマーク非対応領域の特徴値がしきい値の範囲内に入っていると判定した場合に、そのマーク非対応領域の画素値をアライメントマークの画素値であるマーク対応画素値に変換する変換処理を実行する画素値変換手段と、
前記画素値変換手段が変換処理を実行した後のマーク対応画素値で形成される領域をアライメントマークと見なして重心を決定する重心決定手段と
を備えたことを特徴とするアライメントマーク画像認識装置。
An alignment mark image recognition device that detects an alignment mark and determines the center of gravity of the alignment mark,
An imaging means for imaging the periphery of the alignment mark to obtain image data;
Binarization means for binarizing image data obtained by the imaging means and outputting binarized data;
Area feature value calculating means for calculating a feature value of a mark non-corresponding area formed by a pixel non-corresponding pixel value different from the pixel value of the alignment mark from the binarized data output by the binarizing means;
Determining means for determining whether or not the feature value of the mark non-corresponding area calculated by the area feature value calculating means is within a threshold range;
When the determination means determines that the feature value of the mark non-corresponding region is within the threshold range, the pixel value of the mark non-corresponding region is converted to a mark corresponding pixel value that is the pixel value of the alignment mark. Pixel value conversion means for executing the conversion processing;
An alignment mark image recognition apparatus comprising: a center of gravity determination unit that determines a center of gravity by regarding a region formed by the mark-corresponding pixel value after the pixel value conversion unit performs conversion processing as an alignment mark.
領域特徴値算出手段は、特徴値として、面積、長軸の長さおよび短軸の長さを算出し、
判定手段は、前記領域特徴値算出手段が算出した面積、長軸の長さおよび短軸の長さのそれぞれが、それぞれに対応するしきい値の範囲内に入っている場合に、マーク非対応領域の特徴値がしきい値の範囲内に入っていると判定する
請求項1記載のアライメントマーク画像認識装置。
The area feature value calculation means calculates the area, the length of the major axis and the length of the minor axis as the feature value,
The determination means is incompatible with the mark when the area calculated by the area feature value calculation means, the length of the major axis, and the length of the minor axis are within the corresponding threshold range. The alignment mark image recognition apparatus according to claim 1, wherein it is determined that the feature value of the region falls within a threshold value range.
円形のアライメントマークを検出してアライメントマークの重心を決定するアライメントマーク画像認識装置であって、
アライメントマークの周辺を撮像して画像データを得る撮像手段と、
前記撮像手段が得た画像データを2値化して2値化データを出力する2値化手段と、
前記2値化手段が出力した2値化データにもとづいて、アライメントマークの画素値であるマーク対応画素値で形成される領域の外郭を検出する輪郭検出手段と、
前記輪郭検出手段が検出した外郭にもとづいて円の最小二乗法を用いて円の重心を求め、求めた重心をアライメントマークの重心に決定する重心決定手段と
を備えたことを特徴とするアライメントマーク画像認識装置。
An alignment mark image recognition device that detects a circular alignment mark and determines the center of gravity of the alignment mark,
An imaging means for imaging the periphery of the alignment mark to obtain image data;
Binarization means for binarizing image data obtained by the imaging means and outputting binarized data;
Contour detecting means for detecting an outline of a region formed by a mark corresponding pixel value that is a pixel value of an alignment mark based on the binarized data output by the binarizing means;
An alignment mark comprising: a center of gravity determining means for determining a center of gravity of a circle using a least square method of a circle based on the contour detected by the contour detecting means, and determining the determined center of gravity as the center of gravity of the alignment mark. Image recognition device.
2値化手段が出力した2値化データから、アライメントマークの画素値とは異なるマーク非対応画素値で形成されるマーク非対応領域の特徴値を算出する領域特徴値算出手段と、
前記領域特徴値算出手段が算出したマーク非対応領域の特徴値が、しきい値の範囲内に入っているか否か判定する判定手段と、
前記判定手段がマーク非対応領域の特徴値がしきい値の範囲内に入っていると判定した場合に、そのマーク非対応領域の画素値をアライメントマークの画素値であるマーク対応画素値に変換する変換処理を実行する画素値変換手段とを備え、
輪郭検出手段は、前記画素値変換手段が変換処理を実行した後の2値化データを用いて、マーク対応画素値で形成される領域の外郭を検出する
請求項3記載のアライメントマーク画像認識装置。
Area feature value calculating means for calculating a feature value of a mark non-corresponding area formed by a pixel non-corresponding pixel value different from the pixel value of the alignment mark from the binarized data output by the binarizing means;
Determining means for determining whether or not the feature value of the mark non-corresponding area calculated by the area feature value calculating means is within a threshold range;
When the determination means determines that the feature value of the mark non-corresponding region is within the threshold range, the pixel value of the mark non-corresponding region is converted to a mark corresponding pixel value that is the pixel value of the alignment mark. Pixel value conversion means for executing conversion processing to
The alignment mark image recognition apparatus according to claim 3, wherein the contour detection unit detects an outline of a region formed by the mark-corresponding pixel value using the binarized data after the pixel value conversion unit performs the conversion process. .
重心決定手段は、アライメントマークの外郭を形成する複数の点の座標を用いて円の最小二乗法によって円を決定し、決定された円の周との間の距離がしきい値よりも小さい点を除外して、あらためて円の最小二乗法によって決定した円の重心を、アライメントマークの重心に決定する
請求項3または請求項4記載のアライメントマーク画像認識装置。
The center-of-gravity determination means determines the circle by the least square method of the circle using the coordinates of a plurality of points forming the outline of the alignment mark, and the distance between the determined circle circumference is smaller than the threshold value The alignment mark image recognition apparatus according to claim 3, wherein the center of gravity of the circle newly determined by the least square method of the circle is determined as the center of gravity of the alignment mark.
アライメントマークを検出してアライメントマークの重心を決定するアライメントマーク画像認識方法であって、
アライメントマークの周辺を撮像して画像データを得る撮像処理と、
前記撮像処理で得られた画像データを2値化して2値化データにする2値化処理と、
前記2値化処理で得られた2値化データから、アライメントマークの画素値とは異なるマーク非対応画素値で形成されるマーク非対応領域の特徴値を算出する領域特徴値算出処理と、
前記領域特徴値算出処理で算出されたマーク非対応領域の特徴値が、しきい値の範囲内に入っているか否か判定する判定処理と、
前記判定処理でマーク非対応領域の特徴値がしきい値の範囲内に入っていると判定された場合に、そのマーク非対応領域の画素値をアライメントマークの画素値であるマーク対応画素値に変換する画素値変換処理と、
前記画素値変換処理を実行した後のマーク対応画素値で形成される領域をアライメントマークと見なして重心を決定する重心決定処理とを含む
ことを特徴とする画像認識方法。
An alignment mark image recognition method for detecting an alignment mark and determining the center of gravity of the alignment mark,
An imaging process for obtaining image data by imaging the periphery of the alignment mark;
A binarization process that binarizes the image data obtained by the imaging process into binarized data;
An area feature value calculation process for calculating a feature value of a mark non-corresponding area formed by a pixel non-corresponding pixel value different from the pixel value of the alignment mark from the binarized data obtained by the binarization process;
A determination process for determining whether or not the feature value of the mark non-corresponding area calculated in the area feature value calculation process is within a threshold range;
When it is determined in the determination process that the feature value of the mark non-corresponding region is within the threshold range, the pixel value of the mark non-corresponding region is changed to the mark corresponding pixel value that is the pixel value of the alignment mark. Pixel value conversion processing to convert;
An image recognition method, comprising: a center-of-gravity determination process for determining a center of gravity by regarding a region formed by the mark-corresponding pixel values after the pixel value conversion process as an alignment mark.
円形のアライメントマークを検出してアライメントマークの重心を決定するアライメントマーク画像認識方法であって、
アライメントマークの周辺を撮像して画像データを得る撮像処理と、
前記撮像処理で得られた画像データを2値化して2値化データにする2値化処理と、
前記2値化処理で得られた2値化データにもとづいて、アライメントマークの画素値であるマーク対応画素値で形成される領域の外郭を検出する輪郭検出処理と、
前記輪郭検出処理で検出された外郭にもとづいて円の最小二乗法を用いて円の重心を求め、求めた重心をアライメントマークの重心に決定する重心決定処理とを含む
ことを特徴とするアライメントマーク画像認識方法。
An alignment mark image recognition method for detecting a circular alignment mark and determining the center of gravity of the alignment mark,
An imaging process for obtaining image data by imaging the periphery of the alignment mark;
A binarization process that binarizes the image data obtained by the imaging process into binarized data;
An outline detection process for detecting an outline of a region formed by a mark corresponding pixel value that is a pixel value of an alignment mark based on the binarized data obtained by the binarization process;
An alignment mark comprising: a center of gravity determination process for determining a center of gravity of the circle using a least square method of the circle based on the contour detected by the contour detection process, and determining the determined center of gravity as the center of gravity of the alignment mark. Image recognition method.
2値化処理で得られた2値化データから、アライメントマークの画素値とは異なるマーク非対応画素値で形成されるマーク非対応領域の特徴値を算出する領域特徴値算出処理と、
前記領域特徴値算出処理で算出されたマーク非対応領域の特徴値が、しきい値の範囲内に入っているか否か判定する判定処理と、
前記判定処理でマーク非対応領域の特徴値がしきい値の範囲内に入っていると判定された場合に、そのマーク非対応領域の画素値をアライメントマークの画素値であるマーク対応画素値に変換する画素値変換処理とを含み、
輪郭検出処理では、前記画素値変換処理を実行した後の2値化データを用いて、マーク対応画素値で形成される領域の外郭を検出する
請求項7記載のアライメントマーク画像認識方法。
An area feature value calculation process for calculating a feature value of a mark non-corresponding area formed by a pixel non-corresponding pixel value different from the pixel value of the alignment mark from the binarized data obtained by the binarization process;
A determination process for determining whether or not the feature value of the mark non-corresponding area calculated in the area feature value calculation process is within a threshold range;
When it is determined in the determination process that the feature value of the mark non-corresponding region is within the threshold range, the pixel value of the mark non-corresponding region is changed to the mark corresponding pixel value that is the pixel value of the alignment mark. Pixel value conversion processing to convert,
The alignment mark image recognition method according to claim 7, wherein in the contour detection process, an outline of a region formed by the mark-corresponding pixel values is detected using the binarized data after the pixel value conversion process is performed.
JP2008223366A 2008-09-01 2008-09-01 Alignment mark image recognition device and alignment mark image recognition method Pending JP2010061201A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008223366A JP2010061201A (en) 2008-09-01 2008-09-01 Alignment mark image recognition device and alignment mark image recognition method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008223366A JP2010061201A (en) 2008-09-01 2008-09-01 Alignment mark image recognition device and alignment mark image recognition method

Publications (1)

Publication Number Publication Date
JP2010061201A true JP2010061201A (en) 2010-03-18

Family

ID=42187961

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008223366A Pending JP2010061201A (en) 2008-09-01 2008-09-01 Alignment mark image recognition device and alignment mark image recognition method

Country Status (1)

Country Link
JP (1) JP2010061201A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10185876B2 (en) 2014-01-20 2019-01-22 Canon Kabushiki Kaisha Detection apparatus, detection method, and lithography apparatus
CN112001917A (en) * 2020-09-04 2020-11-27 南京大学金陵学院 Machine vision-based geometric tolerance detection method for circular perforated part

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10185876B2 (en) 2014-01-20 2019-01-22 Canon Kabushiki Kaisha Detection apparatus, detection method, and lithography apparatus
US11156929B2 (en) 2014-01-20 2021-10-26 Canon Kabushiki Kaisha Detection apparatus detection method and lithography apparatus
CN112001917A (en) * 2020-09-04 2020-11-27 南京大学金陵学院 Machine vision-based geometric tolerance detection method for circular perforated part

Similar Documents

Publication Publication Date Title
JP3366497B2 (en) Component detection method
US6751361B1 (en) Method and apparatus for performing fixturing in a machine vision system
EP3264181B1 (en) Substrate pre-alignment method
JP6197340B2 (en) Image processing apparatus, image processing method, and program
JP2009069866A (en) Three-dimensional shape detecting apparatus
US7139421B1 (en) Methods and apparatuses for detecting similar features within an image
JP2017173142A (en) Image processing device, image processing method and micro joint cutting system
CN109804730B (en) Substrate inspection apparatus and substrate distortion compensation method using the same
JP2010061201A (en) Alignment mark image recognition device and alignment mark image recognition method
US6614926B1 (en) Methods and apparatuses for generating from an image a model of an object
JP6714477B2 (en) Board angle position identification method
JP2013134176A (en) Imaging apparatus and imaging method
JP2002140713A (en) Image processing method and image processor
JP2007303994A (en) Visual inspecting device and method
KR101215516B1 (en) Apparatus and method for marking position recognition
JP2002288678A (en) Circular mark center position measuring method, and substrate exposure device positioning method
CN101517354B (en) Protrusion height measuring method, protrusion height measuring apparatus
JP2006234554A (en) Method and device for inspecting pattern
JP4106301B2 (en) Component recognition method and apparatus
JP2009250777A (en) Surface inspection device and surface inspection method
KR102177329B1 (en) Method for sensing of fiducial Mark
JP2007142009A (en) Bonding apparatus
JP2006112930A (en) Object-shape discriminating method and apparatus
JP4087973B2 (en) Inter-component inspection method and apparatus for mounted components
JP4327653B2 (en) Image processing method, image processing apparatus, image processing program, and recording medium on which image processing program is recorded