JP2016201409A - Recognition device, recognition method, mounting device, and mounting method - Google Patents

Recognition device, recognition method, mounting device, and mounting method Download PDF

Info

Publication number
JP2016201409A
JP2016201409A JP2015079025A JP2015079025A JP2016201409A JP 2016201409 A JP2016201409 A JP 2016201409A JP 2015079025 A JP2015079025 A JP 2015079025A JP 2015079025 A JP2015079025 A JP 2015079025A JP 2016201409 A JP2016201409 A JP 2016201409A
Authority
JP
Japan
Prior art keywords
chip
camera
recognition
image
mounting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015079025A
Other languages
Japanese (ja)
Inventor
真司 上山
Shinji Kamiyama
真司 上山
美昭 行森
Yoshiaki Yukimori
美昭 行森
宇佐見 康継
Yasutsugu Usami
康継 宇佐見
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Priority to JP2015079025A priority Critical patent/JP2016201409A/en
Publication of JP2016201409A publication Critical patent/JP2016201409A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L2224/00Indexing scheme for arrangements for connecting or disconnecting semiconductor or solid-state bodies and methods related thereto as covered by H01L24/00
    • H01L2224/74Apparatus for manufacturing arrangements for connecting or disconnecting semiconductor or solid-state bodies and for methods related thereto
    • H01L2224/75Apparatus for connecting with bump connectors or layer connectors

Landscapes

  • Supply And Installment Of Electrical Components (AREA)
  • Wire Bonding (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a recognition device and a recognition method, capable of excellently recognizing a semiconductor chip and estimating a position thereof at a low cost and in a short time, and also to provide a mounting device and a mounting method.SOLUTION: A recognition device includes: a lens for forming an image of a recognition object in movement; a division section for optically dividing the image into plural pieces in a movement direction; an imaging section with the number of divisions for imaging each of images obtained by being divided by the division section; and a signal processing section for recognizing a position of the recognition object on the basis of the image imaged by the imaging part with the number of divisions.SELECTED DRAWING: Figure 4

Description

本発明は、認識装置、認識方法、実装装置及び実装方法に関する。   The present invention relates to a recognition device, a recognition method, a mounting device, and a mounting method.

半導体製品の製造の後工程に用いる装置(Die−Bonder、Mounter)では、半導体チップを搭載する際のチップ位置推定方法として、搭載用の半導体チップ表面および基準マークを搭載先移動中に認識用ラインセンサで撮像する手法が知られている。
当該手法の半導体チップ搭載の機械的動作速度を向上させることは、装置の生産性を向上させることと同義である。しかし、その場合、同時にチップの位置推定精度を維持することも要求される。
In an apparatus (Die-Bonder, Monitor) used in a post-process of manufacturing a semiconductor product, as a chip position estimating method when mounting a semiconductor chip, a recognition line is used while the surface of the semiconductor chip for mounting and the reference mark are moved to the mounting destination. A technique for imaging with a sensor is known.
Increasing the mechanical operating speed of the semiconductor chip mounted by this method is synonymous with improving the productivity of the apparatus. However, in that case, it is also required to maintain the chip position estimation accuracy at the same time.

機械的動作速度は、ラインセンサのデータ転送速度および光学レンズ倍率に依存する。光学レンズ倍率を低くすると機械的動作速度が向上するが、空間分解能が低下し位置推定精度が低下する。この問題点に対する従来技術の解決策として、装置に半導体チップを複数保持する機構を設け、複数のラインセンサで複数のチップを撮像する方法が挙げられる(例えば、特許文献1参照)。   The mechanical operating speed depends on the data transfer speed of the line sensor and the optical lens magnification. When the optical lens magnification is lowered, the mechanical operation speed is improved, but the spatial resolution is lowered and the position estimation accuracy is lowered. As a conventional solution to this problem, there is a method of providing a mechanism for holding a plurality of semiconductor chips in an apparatus and imaging a plurality of chips with a plurality of line sensors (see, for example, Patent Document 1).

特許第4244696号公報Japanese Patent No. 4244696

しかしながら、特許文献1の方法を用いる場合、ヘッドとよばれる複数保持できる機構の重量が増加することにより移動用アクチュエータが大規模になる可能性がある。また、Die−Bonderの場合に搬送用ヘッドで直接チップをボンディング(Bonding)するため、高荷重アクチュエータ、チップ圧着のためのヒーター等を複数保持機構ごとに構成することは技術的に難易度が高く、結果的に装置価格が高くなる可能性がある。なお、特許文献1では複数ラインセンサを使用して複数の部品を認識する。   However, when the method of Patent Document 1 is used, there is a possibility that the moving actuator may become large due to an increase in the weight of a plurality of mechanisms called heads that can be held. Further, in the case of Die-Bonder, since the chip is directly bonded with the transfer head, it is technically difficult to configure a high load actuator, a heater for chip pressing, etc. for each of the plurality of holding mechanisms. As a result, the price of the apparatus may be high. In Patent Document 1, a plurality of parts are recognized using a plurality of line sensors.

本発明は、上記の事情を考慮してなされたものであり、低コスト、短時間で良好な半導体チップの認識および位置推定が可能となる認識装置、認識方法、実装装置及び実装方法を提供することを目的とする。   The present invention has been made in consideration of the above-described circumstances, and provides a recognition device, a recognition method, a mounting device, and a mounting method that enable good semiconductor chip recognition and position estimation in a low cost and in a short time. For the purpose.

上記課題を解決するため、本発明の認識装置は、移動している認識対象物の画像を結像するレンズと、前記画像を移動方向に光学的に複数分割する分割部と、前記分割部で分割された画像の各々を撮像する、分割数分の撮像部と、前記分割数分の撮像部が撮像する画像に基づいて前記認識対象物の位置を認識する信号処理部と、を有することを特徴とする。   In order to solve the above problems, a recognition apparatus according to the present invention includes a lens that forms an image of a moving recognition object, a division unit that optically divides the image into a plurality of movement directions, and the division unit. An imaging unit for each of the number of divisions that captures each of the divided images; and a signal processing unit that recognizes the position of the recognition object based on the images captured by the imaging units for the number of divisions. Features.

また、本発明の実装装置は、前記認識対象物が半導体チップであり、前記信号処理部による認識結果に基づいて前記認識対象物の位置や角度に係る所定の補正制御を行って前記認識対象物を所定の回路基板に実装する、ことを特徴とする。   In the mounting apparatus of the present invention, the recognition target object is a semiconductor chip, and the recognition target object is subjected to predetermined correction control related to the position and angle of the recognition target object based on a recognition result by the signal processing unit. Is mounted on a predetermined circuit board.

また、本発明の認識方法は、移動している認識対象物の画像を結像するレンズと、前記画像を移動方向に光学的に複数分割する分割部と、前記分割部で分割された画像の各々を撮像する、分割数分の撮像部と、を持ち、前記分割数分の撮像部が撮像する画像に基づいて前記認識対象物の位置を認識する、ことを特徴とする。   The recognition method of the present invention includes a lens that forms an image of a moving recognition object, a dividing unit that optically divides the image in a moving direction, and an image divided by the dividing unit. It has an imaging part for the number of divisions which images each, and it recognizes the position of the recognition subject based on the picture which the imaging part for the number of divisions picturizes.

また、本発明の実装方法は、前記認識対象物が半導体チップであり、前記認識結果に基づいて前記認識対象物の位置や角度に係る所定の補正制御を行って前記認識対象物を所定の回路基板に実装する、ことを特徴とする。   In the mounting method of the present invention, the recognition target is a semiconductor chip, and the correction target is subjected to predetermined correction control related to the position and angle of the recognition target based on the recognition result. It is mounted on a substrate.

本発明によれば、半導体チップをレンズで結像した画像を機械的動作方向に光学的に複数分割し、分割数分ラインセンサで同一チップを撮像し、各ラインセンサで得た画像、位置推定結果を合成することで、機械的動作速度および位置推定精度を両立させることを特徴とする。本発明によれば、光学レンズ倍率を低くすることなく高速・高精度に基準マーク取得時の位置と半導体バンプ位置を推定することが可能となる。
従って、本発明によれば、低コスト、短時間で良好な半導体チップの認識および位置推定が可能となる認識装置、認識方法、実装装置及び実装方法を提供することができる。
According to the present invention, an image formed by a lens on a semiconductor chip is optically divided into a plurality of mechanical movement directions, the same chip is picked up by the number of divisions, and the image obtained by each line sensor and position estimation are obtained. By combining the results, the mechanical operation speed and the position estimation accuracy are made compatible. According to the present invention, it is possible to estimate the reference mark acquisition position and the semiconductor bump position with high speed and high accuracy without reducing the optical lens magnification.
Therefore, according to the present invention, it is possible to provide a recognition device, a recognition method, a mounting device, and a mounting method that enable low-cost and good semiconductor chip recognition and position estimation in a short time.

本発明の一実施形態としての実装装置100の構成例を説明するための模式図である。It is a schematic diagram for demonstrating the structural example of the mounting apparatus 100 as one Embodiment of this invention. 図1に示したチップカメラ2、ズームレンズ33及びICチップ4の位置関係を模式的に示した斜視図である。2 is a perspective view schematically showing a positional relationship among a chip camera 2, a zoom lens 33, and an IC chip 4 shown in FIG. 図1に示したチップカメラ2による撮像画像の一例を説明するための模式図である。It is a schematic diagram for demonstrating an example of the picked-up image by the chip camera 2 shown in FIG. 図1に示したチップカメラ2、及びチップカメラ用照明装置52の構成例を説明するための模式図である。It is a schematic diagram for demonstrating the structural example of the chip camera 2 shown in FIG. 1, and the illuminating device 52 for chip cameras. 図1に示した実装装置100の内部構成例を説明するためのブロック図である。It is a block diagram for demonstrating the internal structural example of the mounting apparatus 100 shown in FIG. 位置ずれΔZ及び平面の傾き(a、b、c)について説明するための図である。It is a figure for demonstrating position shift (DELTA) Z and the inclination (a, b, c) of a plane. 実装装置100の動作の流れを示したフローチャートである。5 is a flowchart showing a flow of operation of the mounting apparatus 100. 本実施形態の実装装置100において、ラインセンサの台数を変えた時の位置推定精度の改善効果を示す図である。In the mounting apparatus 100 of this embodiment, it is a figure which shows the improvement effect of the position estimation precision when changing the number of line sensors.

以下、図面を参照して本発明の実施の形態について説明する。図1は、本発明の一実施形態としての実装装置100(認識装置)の構成例を説明するための模式図である。図1に示した実装装置100は、IC(Integrated Circuit)チップ4(半導体チップ)を回路基板8に実装するための装置である。実装装置100は、信号処理部1、チップカメラ2、ズームレンズ33、移動部6、モーションコントローラ61、基板ステージ7、固定台7a、高さ調整機構31、プレースカメラ10、照明コントローラ51、チップカメラ用照明装置52、プレースカメラ用照明装置53等を備えている。
なお、本実施形態において、チップカメラ2は、チップカメラ2−1とチップカメラ2−2の2台から構成されるが、図1においては、複数のカメラをチップカメラ2として示している。詳細については後述する。
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a schematic diagram for explaining a configuration example of a mounting apparatus 100 (recognition apparatus) as an embodiment of the present invention. A mounting apparatus 100 shown in FIG. 1 is an apparatus for mounting an IC (Integrated Circuit) chip 4 (semiconductor chip) on a circuit board 8. The mounting apparatus 100 includes a signal processing unit 1, a chip camera 2, a zoom lens 33, a moving unit 6, a motion controller 61, a substrate stage 7, a fixed base 7a, a height adjusting mechanism 31, a place camera 10, an illumination controller 51, and a chip camera. Lighting device 52, a place camera lighting device 53, and the like.
In the present embodiment, the chip camera 2 is composed of two cameras, the chip camera 2-1 and the chip camera 2-2. In FIG. 1, a plurality of cameras are shown as the chip camera 2. Details will be described later.

信号処理部1は、チップカメラ2及びプレースカメラ10から取得した各画像信号に対して所定の認識処理を行い、その認識処理の結果やICチップ4や回路基板8の設計情報等に応じてモーションコントローラ61、高さ調整機構31等を制御する。この信号処理部1は、ケーブル41を介してモーションコントローラ61と接続されている。また、信号処理部1は、ケーブル42−1及びケーブル42−2を介してチップカメラ2と接続されている。また、信号処理部1は、ケーブル43を介してプレースカメラ10と接続されている。そして、信号処理部1は、ケーブル44を介してズームレンズ33と接続されている。   The signal processing unit 1 performs predetermined recognition processing on each image signal acquired from the chip camera 2 and the place camera 10, and performs motion according to the result of the recognition processing, design information of the IC chip 4 and the circuit board 8, and the like. The controller 61, the height adjustment mechanism 31 and the like are controlled. This signal processing unit 1 is connected to a motion controller 61 via a cable 41. The signal processing unit 1 is connected to the chip camera 2 via the cable 42-1 and the cable 42-2. Further, the signal processing unit 1 is connected to the place camera 10 via a cable 43. The signal processing unit 1 is connected to the zoom lens 33 via the cable 44.

モーションコントローラ61は、モータ等を用いた駆動機構を有して構成されていて、信号処理部1の指示に従って、移動部6を矢印または丸印で示したXYZの各軸方向に移動させるとともに、XY平面上で向きθを変化させる。すなわち、移動部6は、図に向かって奥行前後方向(X方向)、左右方向(Y方向)、上下方向(Z方向)に所定の長さ移動可能であるとともに、吸着ヘッド5の向きθを所定の角度の範囲で変化させることが可能である。なお、X軸の正の向きは奥から手前への向きであり、Y及びZ軸の正の向きは矢印の向きである。   The motion controller 61 is configured to have a drive mechanism using a motor or the like, and moves the moving unit 6 in the XYZ axial directions indicated by arrows or circles in accordance with instructions from the signal processing unit 1. The direction θ is changed on the XY plane. That is, the moving unit 6 can move a predetermined length in the depth front-rear direction (X direction), left-right direction (Y direction), and vertical direction (Z direction) toward the drawing, and the direction θ of the suction head 5 can be changed. It is possible to change within a predetermined angle range. The positive direction of the X axis is the direction from the back to the front, and the positive directions of the Y and Z axes are the directions of the arrows.

また、モーションコントローラ61は、図1において不図示のエンコーダから出力されるエンコーダパルス(XYZの各軸における自身の位置を表す信号)に応じて、チップカメラ2、プレースカメラ10の撮像開始および終了タイミングとなる制御信号(後述する制御信号Trigger_C、Trigger_P)を出力する。そのため、モーションコントローラ61は、ケーブル48−1、ケーブル48−2を介してチップカメラ2と、ケーブル49を介してプレースカメラ10と、それぞれ接続されている。また、モーションコントローラ61は、ケーブル45を介して照明コントローラ51と接続されている。また、照明コントローラ51は、ケーブル46、47を介してチップカメラ用照明装置52、プレースカメラ用照明装置53と接続されている。   In addition, the motion controller 61 starts and ends the imaging of the chip camera 2 and the place camera 10 in accordance with encoder pulses (signals representing their positions on the XYZ axes) output from an encoder (not shown) in FIG. Control signals (control signals Trigger_C and Trigger_P described later) are output. Therefore, the motion controller 61 is connected to the chip camera 2 via the cables 48-1 and 48-2 and to the place camera 10 via the cable 49. The motion controller 61 is connected to the illumination controller 51 via the cable 45. The illumination controller 51 is connected to the chip camera illumination device 52 and the place camera illumination device 53 via cables 46 and 47.

照明コントローラ51は、モーションコントローラ61がエンコーダパルスから生成した制御信号(後述する制御信号Trigger_M)に基づいて制御信号(後述する制御信号Trigger_I1、I2)を生成し、ケーブル46、47を介してチップカメラ用照明装置52、プレースカメラ用照明装置53に対して出力する。チップカメラ用照明装置52、プレースカメラ用照明装置53は、照明コントローラ51から入力される制御信号に基づいて、各照明装置による照明の開始、切り替え、照明の終了タイミングなどを制御する。   The illumination controller 51 generates a control signal (control signals Trigger_I1, I2 described later) based on a control signal (control signal Trigger_M described later) generated from the encoder pulse by the motion controller 61, and the chip camera via the cables 46, 47. Output to the lighting device 52 and the lighting device 53 for the place camera. The chip camera illumination device 52 and the place camera illumination device 53 control the start and switching of illumination by each illumination device, the illumination end timing, and the like based on a control signal input from the illumination controller 51.

移動部6は、先端部に吸着ヘッド5を有して構成されている。吸着ヘッド5は、ICチップ4を吸着する。図1では、1つの移動部6の、チップカセット3からICチップ4を吸着して持ち上げた状態(左側の移動部6)、チップカメラ2の上を通過している状態(中央の移動部6)、及び、回路基板8上に移動した状態(右側の移動部6)を同時に示している。チップカセット3、チップカメラ2、回路基板8、プレースカメラ10等は、図1に示したような位置関係を有して配置されている。   The moving unit 6 has a suction head 5 at the tip. The suction head 5 sucks the IC chip 4. In FIG. 1, a single moving unit 6 sucks and lifts the IC chip 4 from the chip cassette 3 (left moving unit 6), and passes over the chip camera 2 (central moving unit 6). ) And the state of moving onto the circuit board 8 (the moving unit 6 on the right side). The chip cassette 3, the chip camera 2, the circuit board 8, the place camera 10, and the like are arranged with the positional relationship as shown in FIG.

吸着ヘッド5は、例えば多孔質金属からなる吸着面5aを有して構成されている。吸着ヘッド5は、負圧を利用して吸着面5aにICチップ4を吸着する。また、吸着ヘッド5は、回路基板8にICチップ4を載せた状態で加熱され、ICチップ4が有する複数の半田バンプを回路基板8上の所定の接点に熱圧着する。なお、吸着面5aには、ICチップ4の吸着状態を認識する際の基準となるマークが記されている。   The suction head 5 has a suction surface 5a made of, for example, a porous metal. The suction head 5 sucks the IC chip 4 on the suction surface 5a using negative pressure. Further, the suction head 5 is heated in a state where the IC chip 4 is placed on the circuit board 8, and a plurality of solder bumps of the IC chip 4 are thermocompression bonded to predetermined contacts on the circuit board 8. The suction surface 5a is marked with a reference mark for recognizing the suction state of the IC chip 4.

チップカセット3は、複数のICチップ4を収納する容器である。チップカセット3は、上面(すなわちZ軸上向き)が開放されている。   The chip cassette 3 is a container that stores a plurality of IC chips 4. The chip cassette 3 has an open upper surface (that is, upward in the Z axis).

ICチップ4は、半導体集積回路チップである。本実施形態において、ICチップ4は、いわゆるWLCSP(Wafer Level Chip Size(またはScale) Package)と呼ばれる構造を有している。ICチップ4の裏面(図の下向きの面、すなわち吸着ヘッド5が吸着する面の反対側の面)には、複数の半田バンプが形成されている。ICチップ4は、チップカセット3に収納された状態から、吸着ヘッド5に吸着され、Z方向上側に向かって持ち上げられる。そして、ICチップ4は、Y方向に移動し、その状態でチップカメラ2の上部を通過した後、回路基板8の上部へと搬送される。   The IC chip 4 is a semiconductor integrated circuit chip. In the present embodiment, the IC chip 4 has a structure called a so-called WLCSP (Wafer Level Chip Size (or Scale) Package). A plurality of solder bumps are formed on the back surface of the IC chip 4 (the downward surface in the figure, that is, the surface opposite to the surface to which the suction head 5 sucks). The IC chip 4 is sucked by the suction head 5 from the state stored in the chip cassette 3 and lifted upward in the Z direction. Then, the IC chip 4 moves in the Y direction, passes through the upper part of the chip camera 2 in that state, and then is conveyed to the upper part of the circuit board 8.

回路基板8は、基板ステージ7上に載せられている。基板ステージ7は、固定台7aに対して高さ調整機構31によって上下方向(すなわちZ軸方向)に微調整可能に支持されている。高さ調整機構31は、例えば基板ステージ7の3点を支持する3個の伸縮機構によって構成されていて、基板ステージ7の上下方向の高さや傾き(つまり基板ステージ7の平面の向き)を微調整する。   The circuit board 8 is placed on the substrate stage 7. The substrate stage 7 is supported by the height adjusting mechanism 31 with respect to the fixed base 7a so as to be finely adjustable in the vertical direction (that is, the Z-axis direction). The height adjustment mechanism 31 is configured by, for example, three expansion / contraction mechanisms that support three points of the substrate stage 7, and the height and inclination of the substrate stage 7 in the vertical direction (that is, the orientation of the plane of the substrate stage 7) are finely adjusted. adjust.

プレースカメラ10は、回路基板8のICチップ4が実装される面を撮像するカメラである。信号処理部1は、プレースカメラ10から取得した画像信号に基づき、ICチップ4との接続部周辺に対する位置認識処理等を行って、回路基板8の所定の基準からの位置ずれや角度ずれ量を算出する。   The place camera 10 is a camera that captures an image of the surface on which the IC chip 4 of the circuit board 8 is mounted. Based on the image signal acquired from the place camera 10, the signal processing unit 1 performs a position recognition process on the periphery of the connection part with the IC chip 4, and calculates a positional deviation and an angular deviation amount of the circuit board 8 from a predetermined reference. calculate.

チップカメラ2は、吸着ヘッド5に吸着されて移動中のICチップ4の裏面の画像を撮像し、撮像した画像信号を信号処理部1に対して出力する。このチップカメラ2は、チップカセット3の設置場所と回路基板8の設置場所との間の所定の位置に設けられている。チップカメラ2は、ズームレンズ33を介して、ICチップ4の裏面を撮像する。ズームレンズ33は、複数のレンズとレンズの移動機構とを有し、レンズ群の焦点距離を一定の範囲で任意に変化させることができ、かつ焦点面を移動させない(すなわちピントをずらさない)レンズ群である。ズームレンズ33は焦点距離を外部から入力された所定の制御信号に応じて可変する。   The chip camera 2 picks up an image of the back surface of the IC chip 4 being moved while being sucked by the suction head 5, and outputs the picked-up image signal to the signal processing unit 1. The chip camera 2 is provided at a predetermined position between the installation location of the chip cassette 3 and the installation location of the circuit board 8. The chip camera 2 images the back surface of the IC chip 4 through the zoom lens 33. The zoom lens 33 has a plurality of lenses and a lens moving mechanism, can arbitrarily change the focal length of the lens group within a certain range, and does not move the focal plane (that is, does not shift the focus). Is a group. The zoom lens 33 varies the focal length according to a predetermined control signal input from the outside.

信号処理部1は、所定の制御信号を、ケーブル44を介して送信することで、このズームレンズ33の焦点距離(すなわちチップカメラ2の撮像倍率)を変化させる。図2は、図1に示したチップカメラ2、ズームレンズ33及びICチップ4の位置関係を模式的に示した斜視図である。
なお、図2においては、チップカメラ2−1を示しており、チップカメラ2−2については省略している。また、チップカメラ2−1とチップカメラ2−2とのチップカメラ用レンズを構成するズームレンズ33のみを図2においては示している。
また、図2に示したXYZの各矢印の方向が、図1に示したXYZの各軸の方向に対応している。
The signal processing unit 1 transmits a predetermined control signal via the cable 44 to change the focal length of the zoom lens 33 (that is, the imaging magnification of the chip camera 2). FIG. 2 is a perspective view schematically showing a positional relationship among the chip camera 2, the zoom lens 33, and the IC chip 4 shown in FIG.
In FIG. 2, the chip camera 2-1 is shown, and the chip camera 2-2 is omitted. Further, only the zoom lens 33 constituting the chip camera lens of the chip camera 2-1 and the chip camera 2-2 is shown in FIG.
Also, the directions of the XYZ arrows shown in FIG. 2 correspond to the directions of the XYZ axes shown in FIG.

チップカメラ2−1は、ラインセンサ21−1を有して構成されている。ラインセンサ21−1は、CMOS(Complementary Metal Oxide Semiconductor)、CCD(Conference of Committee on Disarmament)等の固体撮像素子からなる複数の撮像画素を一列、あるいは露光時間を確保するために複数列で配列することで構成されている。チップカメラ2−1は、ラインセンサ21−1を構成する各画素への入射光を光電変換した電気信号の大きさを表す値である各画素値を、所定周期で繰り返し出力する。また、このラインセンサ21−1は、モノクロの多値階調(すなわちグレースケール)の画像信号を出力する。   The chip camera 2-1 includes a line sensor 21-1. The line sensor 21-1 arranges a plurality of imaging pixels formed of solid-state imaging devices such as a CMOS (Complementary Metal Oxide Semiconductor), a CCD (Conference of Committee on Disarmament), or the like in order to secure an exposure time. It is composed of that. The chip camera 2-1 repeatedly outputs each pixel value, which is a value representing the magnitude of an electric signal obtained by photoelectric conversion of incident light to each pixel constituting the line sensor 21-1, at a predetermined period. The line sensor 21-1 outputs a monochrome multi-value gradation (that is, gray scale) image signal.

したがって、ラインセンサ21−1が出力する各画素の画素値は、輝度値を表している。本実施形態では、ICチップ4がその裏面、すなわち複数のバンプ4aが配列して形成されている面を下方(つまりチップカメラ2−1側)に向けた状態で、バンプ4aが形成されている面と反対の面(すなわち、ICチップ4の表面)が吸着ヘッド5の吸着面5aに吸着されている。チップカメラ2−1は、図2にICチップ移動方向として矢印で示した方向(つまりY方向)に所定速度でICチップ4が移動している状態で、ラインセンサ21−1の各画素の出力を所定周期で繰り返し複数回出力する。チップカメラ2−2、及びラインセンサ21−2についても、上述したチップカメラ2−1、及びラインセンサ21−1の動作が当てはまる。   Therefore, the pixel value of each pixel output from the line sensor 21-1 represents a luminance value. In the present embodiment, the bump 4a is formed with the IC chip 4 having its back surface, that is, the surface on which the plurality of bumps 4a are arranged facing downward (that is, the chip camera 2-1 side). The surface opposite to the surface (that is, the surface of the IC chip 4) is attracted to the suction surface 5a of the suction head 5. The chip camera 2-1 outputs each pixel of the line sensor 21-1 in a state where the IC chip 4 is moving at a predetermined speed in the direction indicated by the arrow (that is, the Y direction) as the IC chip moving direction in FIG. Are output a plurality of times repeatedly at a predetermined cycle. The operations of the chip camera 2-1 and the line sensor 21-1 described above also apply to the chip camera 2-2 and the line sensor 21-2.

図3は、図1に示したチップカメラ2による撮像画像の一例を説明するための模式図である。図3では、図1に示したXYZの各軸の方向が、XYの各矢印及びZの丸印で示した方向に対応している。なお、図3で各軸の正の向きは、XYが矢印の向き、Zが手前から奥への向きである。図3に示した例では、撮像画像200が、ICチップ4の裏面全面の画像と、吸着面5aほぼ全面の画像とを含んでいる。また、1対の記号5bと、基準領域を表す線5cとは、吸着面5a上に実際に描かれているマークである。これらのマークが、ICチップ4の吸着状態(基準マークに対する相対的な吸着位置)を認識する際の基準となるマークである。ただし、記号5bと、基準線5c(これらを総称して、以下では基準マーク5mと呼ぶことがある)とは、必ずしも両方を設ける必要はない。なお、図3に示した例では、ICチップ4が、XY方向に等間隔で配列された複数のバンプ4aを有している。なお、本実施形態においては、チップカメラ2による撮像画像200のうち、チップカメラ2−1による撮像画像を撮像画像−1、チップカメラ2−2による撮像画像を撮像画像−2と言うことがある。   FIG. 3 is a schematic diagram for explaining an example of an image captured by the chip camera 2 shown in FIG. In FIG. 3, the directions of the XYZ axes shown in FIG. 1 correspond to the directions indicated by the XY arrows and the Z circles. In FIG. 3, the positive direction of each axis is XY as the direction of the arrow and Z as the direction from the front to the back. In the example illustrated in FIG. 3, the captured image 200 includes an image of the entire back surface of the IC chip 4 and an image of substantially the entire surface of the suction surface 5a. A pair of symbols 5b and a line 5c representing the reference region are marks actually drawn on the suction surface 5a. These marks are marks that serve as a reference when recognizing the suction state (relative suction position with respect to the reference mark) of the IC chip 4. However, it is not always necessary to provide both the symbol 5b and the reference line 5c (hereinafter collectively referred to as the reference mark 5m). In the example shown in FIG. 3, the IC chip 4 has a plurality of bumps 4a arranged at equal intervals in the XY direction. In the present embodiment, among the captured images 200 by the chip camera 2, the captured image by the chip camera 2-1 may be referred to as a captured image-1, and the captured image by the chip camera 2-2 may be referred to as a captured image-2. .

次に、本実施形態におけるチップカメラ2、及びチップカメラ用照明装置52の構成について図面を参照して説明する。図4は、図1に示したチップカメラ2、及びチップカメラ用照明装置52の構成例を説明するための模式図である。図4(a)は、チップカメラ2(チップカメラ2−1、チップカメラ2−2)の構成例、チップカメラ2のチップカメラ用レンズ2aの構成例、及びチップカメラ用照明装置52の構成例を、それぞれ示している。また、図4(b)は、チップカメラ用レンズ2aから見た光学的なラインセンサ21−1、ラインセンサ21−2の配置例を示している。
図4(a)に示すように、チップカメラ2のチップカメラ用レンズ2aは、Z軸の大きい方から小さい方へと、ハーフミラー2b、ズームレンズ33、ハーフミラー2cを有している。
ズームレンズ33は、ICチップ4(認識対象物)の画像を結像するレンズである。また、ハーフミラー2c(分割部)は、レンズが結像した画像を移動方向に複数(ここでは2個)に分割する。
Next, the structure of the chip camera 2 and the illumination device 52 for chip cameras in this embodiment is demonstrated with reference to drawings. FIG. 4 is a schematic diagram for explaining a configuration example of the chip camera 2 and the chip camera illumination device 52 shown in FIG. 4A shows a configuration example of the chip camera 2 (chip camera 2-1, chip camera 2-2), a configuration example of the chip camera lens 2a of the chip camera 2, and a configuration example of the chip camera illumination device 52. FIG. Respectively. FIG. 4B shows an arrangement example of the optical line sensor 21-1 and the line sensor 21-2 viewed from the chip camera lens 2a.
As shown in FIG. 4A, the chip camera lens 2a of the chip camera 2 includes a half mirror 2b, a zoom lens 33, and a half mirror 2c from the larger Z-axis to the smaller one.
The zoom lens 33 is a lens that forms an image of the IC chip 4 (recognition target object). The half mirror 2c (dividing unit) divides the image formed by the lens into a plurality (here, two) in the moving direction.

ラインセンサ21−1、ラインセンサ21−2(分割数分の撮像部)は、ハーフミラー2cで分割された画像の各々を撮像する。ラインセンサ21−1、ラインセンサ21−2は、図4(b)に示すように、チップの移動方向(Y方向)、移動方向に対する垂直な方向(X方向)に(dx,dy)ずらして配置される。
サンプリング誤差(デジタリング量子化誤差)の影響を低減するために、ラインセンサの配置(図4(b)に示す(dx,dy))はセンサ画素ピッチの半分となるように配置される。
すなわち、ラインセンサの1素子あたりのサイズ(センサ画像ピッチに等しい)を(sensor_sizex,sensor_sizey)とすると、(dx,dy)は下記式の通りとなる。
dx=0.5*sensor_sizex
dy=0.5*sensor_sizey
なお、さらに、吸着ヘッド5の移動中のX軸方向の装置固有振動周波数fmx、Y軸方向の装置固有振動周波数fmyによる誤差の影響を低減するために、ラインセンサのラインレート周波数fcを用いてdx、dyを下記式にすることが考えられる。
dx=sensor_sizex*integer(fc/(2*fmx))+0.5*sensor_sizex
dy=sensor_sizey*integer(fc/(2*fmy))+0.5*sensor_sizey
なお、このときfmx、fmyは80Hz〜500Hz、fcは100kHzを想定している。
The line sensor 21-1 and the line sensor 21-2 (imaging units for the number of divisions) capture each of the images divided by the half mirror 2c. As shown in FIG. 4B, the line sensor 21-1 and the line sensor 21-2 are shifted by (dx, dy) in the chip moving direction (Y direction) and in the direction perpendicular to the moving direction (X direction). Be placed.
In order to reduce the influence of the sampling error (digitizing quantization error), the arrangement of the line sensors ((dx, dy) shown in FIG. 4B) is arranged to be half the sensor pixel pitch.
That is, if the size of each line sensor (equal to the sensor image pitch) is (sensor_size, sensor_size), (dx, dy) is expressed by the following equation.
dx = 0.5 * sensor_size
dy = 0.5 * sensor_size
Furthermore, in order to reduce the influence of the error due to the device natural vibration frequency fmx in the X-axis direction and the device natural vibration frequency fmy in the Y-axis direction while the suction head 5 is moving, the line rate frequency fc of the line sensor is used. It is conceivable that dx and dy are expressed by the following equations.
dx = sensor_size * integer (fc / (2 * fmx)) + 0.5 * sensor_size
dy = sensor_size * integer (fc / (2 * fmy)) + 0.5 * sensor_size
At this time, fmx and fmy are assumed to be 80 Hz to 500 Hz, and fc is assumed to be 100 kHz.

また、チップカメラ用照明装置52は、図4(a)に示すように、チップカメラ用同軸照明52a(第1の照明部)と、チップカメラ用角度照明52b(第2の照明部)とを含んで構成される。
チップカメラ用同軸照明52aが照射する光は、チップカメラ用レンズ2a内に設けられたハーフミラー2bで反射し、ICチップ4(認識対象物)の主面(撮像するICチップ4の裏面)に垂直方向から同軸照明(Coaxial Light)として入光する。そして、ICチップ4で反射した光は、ICチップ4の主面に対して垂直方向に出射し、ハーフミラー2bを介してズームレンズ33に入光する。ハーフミラー2cは、ズームレンズ33で結像した画像を、2つに分割する。ハーフミラー2cを透過した画像は、チップカメラ2−1のラインセンサ21−1により撮像される。ハーフミラー2cで反射した画像は、チップカメラ2−2のラインセンサ21−2により撮像される。
As shown in FIG. 4A, the chip camera illumination device 52 includes a chip camera coaxial illumination 52a (first illumination unit) and a chip camera angle illumination 52b (second illumination unit). Consists of including.
The light emitted by the chip camera coaxial illumination 52a is reflected by the half mirror 2b provided in the chip camera lens 2a, and is reflected on the main surface of the IC chip 4 (recognition target) (the back surface of the IC chip 4 to be imaged). Incident light is incident as coaxial illumination from the vertical direction. The light reflected by the IC chip 4 is emitted in a direction perpendicular to the main surface of the IC chip 4 and enters the zoom lens 33 through the half mirror 2b. The half mirror 2c divides the image formed by the zoom lens 33 into two. The image transmitted through the half mirror 2c is captured by the line sensor 21-1 of the chip camera 2-1. The image reflected by the half mirror 2c is picked up by the line sensor 21-2 of the chip camera 2-2.

一方、チップカメラ用角度照明52bが照射する光は、ICチップ4の主面に垂直な線に対して所定の角度を有した斜め方向から入光する。そして、反射した光は、チップカメラ用角度照明52bの取り付け角度に応じて、ICチップ4の主面に対して垂直方向に出射し、ハーフミラー2bを介してズームレンズ33に入光する。ハーフミラー2cは、ズームレンズ33で結像した画像を、2つに分割する。ハーフミラー2cを透過した画像は、チップカメラ2−1のラインセンサ21−1により撮像される。ハーフミラー2cで反射した画像は、チップカメラ2−2のラインセンサ21−2により撮像される。この取り付け角度は、ICチップ4が有する半田バンプの下側(カメラ側)表面で光が反射した場合に、反射光が、ICチップ4の主面に対して垂直方向に出射するように、予め設定される。   On the other hand, the light irradiated by the chip camera angle illumination 52b enters from an oblique direction having a predetermined angle with respect to a line perpendicular to the main surface of the IC chip 4. The reflected light is emitted in a direction perpendicular to the main surface of the IC chip 4 in accordance with the mounting angle of the chip camera angle illumination 52b, and enters the zoom lens 33 through the half mirror 2b. The half mirror 2c divides the image formed by the zoom lens 33 into two. The image transmitted through the half mirror 2c is captured by the line sensor 21-1 of the chip camera 2-1. The image reflected by the half mirror 2c is picked up by the line sensor 21-2 of the chip camera 2-2. This mounting angle is set in advance so that when light is reflected on the lower surface (camera side) of the solder bump of the IC chip 4, the reflected light is emitted in a direction perpendicular to the main surface of the IC chip 4. Is set.

すなわち、ICチップ4の撮像を行う際に、チップカメラ用同軸照明52aと、チップカメラ用角度照明52bとによる光の照射を、基準マーク5mが設けられる領域(第1の領域)と、バンプが吸着した領域(第2の領域)とで切り替えている。第1の領域と第2の領域とを撮像する際、光の照射を変更することにより、撮像の際の照明条件を基準マーク5mおよび半田バンプ各々に対して最適な条件とすることができる。   That is, when the IC chip 4 is picked up, light is emitted from the chip camera coaxial illumination 52a and the chip camera angle illumination 52b, the region where the reference mark 5m is provided (first region), and the bump. Switching is made between the adsorbed area (second area). When imaging the first area and the second area, by changing the light irradiation, the illumination condition at the time of imaging can be set to an optimum condition for each of the reference mark 5m and the solder bump.

以上説明したチップカメラ2、及びチップカメラ用照明装置52の構成によれば、半導体チップをレンズで結像した画像を機械的動作方向に光学的に複数分割し、分割数分ラインセンサで同一チップを撮像し、各ラインセンサで得た画像、位置推定結果を合成することで、機械的動作速度および位置推定精度を両立させる。これにより、光学レンズ倍率を低くすることなく高速・高精度に基準マーク取得時の位置と半導体バンプ位置を推定することが可能となる。
なお、プレースカメラ10、及びプレースカメラ用照明装置53についても、チップカメラ2、及びチップカメラ用照明装置52と同一の構成にしてもよい。
すなわち、回路基板8の撮像を行う際に、プレースカメラ用同軸照明と、プレースカメラ用角度照明とによる光の照射を、基準マークが設けられる領域(第1の領域)と、回路基板8におけるICチップ4を搭載する領域(第2の領域)とで切り替え、第1の領域と第2の領域とを撮像する際、光の照射を変更することにより、撮像の際の照明条件を基準マークおよびチップ搭載予定領域各々に対して最適な条件とすることができる。また、光学レンズ倍率を低くすることなく高速・高精度に基準マーク取得時の位置と半導体バンプ位置を推定することが可能となる。
According to the configuration of the chip camera 2 and the chip camera illumination device 52 described above, an image formed by a lens on a semiconductor chip is optically divided into a plurality of directions in the mechanical operation direction, and the same chip is formed by a line sensor for the number of divisions. Are combined, and the image obtained by each line sensor and the position estimation result are combined to achieve both the mechanical operation speed and the position estimation accuracy. This makes it possible to estimate the reference mark acquisition position and the semiconductor bump position with high speed and high accuracy without reducing the optical lens magnification.
The place camera 10 and the place camera illumination device 53 may also have the same configuration as the chip camera 2 and the chip camera illumination device 52.
That is, when the circuit board 8 is imaged, light irradiation by the coaxial illumination for the place camera and the angle illumination for the place camera is performed using an area where the reference mark is provided (first area) and an IC on the circuit board 8. When switching between the area (second area) on which the chip 4 is mounted and imaging the first area and the second area, the illumination condition at the time of imaging is changed by changing the light irradiation. Optimum conditions can be set for each chip mounting planned area. In addition, it is possible to estimate the position at the time of acquiring the reference mark and the semiconductor bump position with high speed and high accuracy without reducing the optical lens magnification.

次に、図5を参照して、図1を参照して説明した実装装置100の制御動作に係る内部構成例について説明する。信号処理部1は、ホストコンピュータ11、入力部12、出力部13及び記憶部14を有している。ホストコンピュータ11は、メインメモリ11aを含み、メインメモリ11aには画像メモリ11bを含んでいる。ホストコンピュータ11は、CPU(Central Processing Unit)を内部に有し、記憶部14等に格納されている所定のプログラムを実行することで各部を制御する。入力部12は、プレースカメラ10及びチップカメラ2(チップカメラ2−1、チップカメラ2−2)から、ホストコンピュータ11へ信号を入力するためのインターフェースである。入力部12へは、プレースカメラ10及びチップカメラ2から、撮像した画像を表す画像データが入力される。   Next, an example of an internal configuration related to the control operation of the mounting apparatus 100 described with reference to FIG. 1 will be described with reference to FIG. The signal processing unit 1 includes a host computer 11, an input unit 12, an output unit 13, and a storage unit 14. The host computer 11 includes a main memory 11a, and the main memory 11a includes an image memory 11b. The host computer 11 has a CPU (Central Processing Unit) inside, and controls each unit by executing a predetermined program stored in the storage unit 14 or the like. The input unit 12 is an interface for inputting signals to the host computer 11 from the place camera 10 and the chip camera 2 (chip camera 2-1, chip camera 2-2). Image data representing captured images is input to the input unit 12 from the place camera 10 and the chip camera 2.

出力部13は、モーションコントローラ61、高さ調整機構31、及びズームレンズ33へ、ホストコンピュータ11から信号を出力するためのインターフェースである。出力部13は、モーションコントローラ61に対して移動部6の位置ずれ及び角度ずれを補正制御するための補正量を表す情報(ΔX、ΔY及びΔθに対応した補正量(あるいはそれを指示する信号))を、ケーブル41を介して出力する。また、出力部13は、高さ調整機構31に対して基板ステージ7の高さや傾きを調整するため、すなわち所定の補正制御を行うための補正量を表す情報(ΔZ及びa、b、cに対応した補正量(あるいはそれを指示する信号))を、ケーブル56を介して出力する。また、出力部13は、ズームレンズ33の焦点距離を変化させるための信号を、ケーブル44を介して出力する。   The output unit 13 is an interface for outputting signals from the host computer 11 to the motion controller 61, the height adjustment mechanism 31, and the zoom lens 33. The output unit 13 represents information indicating a correction amount for correcting and controlling the position shift and the angle shift of the moving unit 6 with respect to the motion controller 61 (a correction amount corresponding to ΔX, ΔY, and Δθ (or a signal indicating the correction amount). ) Is output via the cable 41. In addition, the output unit 13 adjusts the height and tilt of the substrate stage 7 with respect to the height adjustment mechanism 31, that is, information (ΔZ and a, b, c) indicating a correction amount for performing predetermined correction control. A corresponding correction amount (or a signal indicating the correction amount) is output via the cable 56. The output unit 13 outputs a signal for changing the focal length of the zoom lens 33 via the cable 44.

ここで図3、及び図6を参照して位置ずれ及び角度ずれを補正するための補正量を表す情報ΔX、ΔY及びΔθ、所定の補正制御を行うための補正量を表す情報である位置ずれΔZ及び平面の傾き(a、b、c)について説明する。図6は、位置ずれΔZ及び平面の傾き(a、b、c)について説明するための図である。
図3において、基準点P0は、吸着ヘッド5のθ方向の回転中心に対応する点である。吸着面5a上の基準記号5bや基準線5cに基づいて基準点P0の座標値を算出することができる。中心点PcはICチップ4の中心点(あるいは重心点)に対応する点である。中心点Pcの座標は、チップカメラ2の撮像画像から認識した複数のバンプ4aの各座標値と、ICチップ4の設計値(あるいは基準となる他のICチップ4の実測値)とに基づいて算出することができる。ΔXは、基準点P0と中心点PcのX方向のずれ量を表す。ΔYは、基準点P0と中心点PcのY方向のずれ量を表す。
Here, with reference to FIG. 3 and FIG. 6, information ΔX, ΔY and Δθ representing correction amounts for correcting the positional deviation and the angular deviation, and positional deviation which is information representing the correction amount for performing predetermined correction control. ΔZ and plane inclination (a, b, c) will be described. FIG. 6 is a diagram for explaining the positional deviation ΔZ and the plane inclinations (a, b, c).
In FIG. 3, the reference point P <b> 0 is a point corresponding to the rotation center of the suction head 5 in the θ direction. The coordinate value of the reference point P0 can be calculated based on the reference symbol 5b and the reference line 5c on the suction surface 5a. The center point Pc is a point corresponding to the center point (or centroid point) of the IC chip 4. The coordinates of the center point Pc are based on the coordinate values of the plurality of bumps 4a recognized from the captured image of the chip camera 2 and the design value of the IC chip 4 (or the actual measurement value of the other IC chip 4 serving as a reference). Can be calculated. ΔX represents the amount of deviation in the X direction between the reference point P0 and the center point Pc. ΔY represents the amount of deviation in the Y direction between the reference point P0 and the center point Pc.

ΔXとΔYは、基準点P0と中心点Pcの各座標値の偏差として算出される。そして、Δθは、ICチップ4の基準とする向きと、実際の向きとの差分として算出される。Δθは、チップカメラ2の撮像画像から認識した複数のバンプ4aの各座標値と、各バンプ4aの座標及び配列関係の設計値(あるいは基準となる他のICチップ4の実測値)とに基づいて算出することができる。   ΔX and ΔY are calculated as deviations of the coordinate values of the reference point P0 and the center point Pc. Δθ is calculated as a difference between the reference orientation of the IC chip 4 and the actual orientation. Δθ is based on the coordinate values of the plurality of bumps 4a recognized from the captured image of the chip camera 2, and the design values of the coordinates and arrangement relation of the bumps 4a (or the actual measurement values of other IC chips 4 serving as a reference). Can be calculated.

また、ΔZ及びa、b、cについては、図6に示したように、ΔZが基準点P0と中心点PcとのZ方向のずれ量を表し、a、b、cは、ICチップ4の平面の傾きに対応した法線ベクトルの各成分である。また、図6に示したように、3次元のXYZ座標系における基準点P0の座標値を(x0,y0,z0)、ICチップ4の中心点Pcの座標値を(xc,yc,zc)とした場合、ΔXはΔX=xc−x0として算出される。また、ΔYはΔY=yc−y0として算出される。また、ΔZはΔZ=zc−z0として算出される。また、ICチップ4を表す平面上の任意の点Pの座標値を(x,y,z)とした場合に、平面を表す式a・x+b・y+c・z+d=0(ただしd=−a・xc−b・yc−c・zc)のx,y,zの係数(a,b,c)が、この平面の法線ベクトルである。   For ΔZ and a, b, and c, as shown in FIG. 6, ΔZ represents the amount of deviation in the Z direction between the reference point P0 and the center point Pc, and a, b, and c are the values of the IC chip 4. Each component of the normal vector corresponding to the inclination of the plane. Also, as shown in FIG. 6, the coordinate value of the reference point P0 in the three-dimensional XYZ coordinate system is (x0, y0, z0), and the coordinate value of the center point Pc of the IC chip 4 is (xc, yc, zc). In this case, ΔX is calculated as ΔX = xc−x0. ΔY is calculated as ΔY = yc−y0. ΔZ is calculated as ΔZ = zc−z0. Further, when the coordinate value of an arbitrary point P on the plane representing the IC chip 4 is (x, y, z), the expression a · x + b · y + c · z + d = 0 representing the plane (where d = −a · The coefficients (a, b, c) of x, y, z of (xc-b, yc-c, zc) are normal vectors of this plane.

図5に戻って、記憶部14は、例えば不揮発メモリであり、チップカセット3、ICチップ4、回路基板8等の設計情報14aと、ズームレンズ33の焦点距離を指示する際に用いられる情報である焦点距離制御情報などとを記憶している。この焦点距離制御情報は、例えば、ICチップ4の識別番号と、チップカメラ2の仕様を表す情報と、設定する焦点距離との対応関係を記憶したテーブルとして構成されている。   Returning to FIG. 5, the storage unit 14 is, for example, a non-volatile memory, and is information used for designating the design information 14 a of the chip cassette 3, the IC chip 4, the circuit board 8, and the like and the focal length of the zoom lens 33. Some focal length control information and the like are stored. This focal length control information is configured, for example, as a table that stores the correspondence between the identification number of the IC chip 4, information indicating the specifications of the chip camera 2, and the focal length to be set.

なお、図5には示していないが、上記の構成のほか、信号処理部1は、例えば、プレースカメラ10やチップカメラ2へ所定の制御信号を送信するためのインターフェースや、モーションコントローラ61や高さ調整機構31から所定の制御信号を受信するためのインターフェースを含んでいる。また、記憶部14は、モーションコントローラ61の制御や高さ調整機構31の制御を行う際に必要な情報等も記憶している。なお、設計情報14aは、チップカセット3、ICチップ4、回路基板8等の外形、基準マーク、各接続端子等の形状や位置を表す情報、熱圧着時の設定値等を含むことができる。なお、設計情報は、図面上の設計値に限らず、例えば基準となる実際のICチップ4の実測値等であってもよい。   Although not shown in FIG. 5, in addition to the above configuration, the signal processing unit 1 includes, for example, an interface for transmitting a predetermined control signal to the place camera 10 and the chip camera 2, the motion controller 61, and the like. An interface for receiving a predetermined control signal from the height adjusting mechanism 31 is included. The storage unit 14 also stores information necessary for controlling the motion controller 61 and the height adjusting mechanism 31. The design information 14a can include information indicating the outer shape of the chip cassette 3, the IC chip 4, the circuit board 8, etc., the reference mark, the shape and position of each connection terminal, the set value at the time of thermocompression bonding, and the like. The design information is not limited to the design value on the drawing, but may be, for example, an actual measurement value of the actual IC chip 4 serving as a reference.

チップカメラ2は、上述の通り、複数個(ここでは2個)のチップカメラ2−1、チップカメラ2−2から構成される。チップカメラ2−1は、ラインセンサ21−1、A/D変換器(アナログ・デジタル変換器)22−1及び出力部23−1を有している。A/D変換器22−1は、ラインセンサ21−1から出力された各画素のアナログの画素値をデジタル信号に変換する。出力部23−1は、A/D変換器22−1が出力したデジタル信号列を所定形式のデジタル画像信号に変換して出力する。この出力部23−1が出力した画像信号は、ケーブル42−1及び入力部12を介して、例えばDMA(Direct Memory Access)方式によって画像メモリ11bに直接記憶される。
また、チップカメラ2−2は、ラインセンサ21−2、A/D変換器22−2及び出力部23−2を有している。A/D変換器22−2は、ラインセンサ21−2から出力された各画素のアナログの画素値をデジタル信号に変換する。出力部23−2は、A/D変換器22−2が出力したデジタル信号列を所定形式のデジタル画像信号に変換して出力する。この出力部23−2が出力した画像信号は、ケーブル42−2及び入力部12を介して、画像メモリ11bに直接記憶される。
As described above, the chip camera 2 includes a plurality of (here, two) chip cameras 2-1 and chip cameras 2-2. The chip camera 2-1 includes a line sensor 21-1, an A / D converter (analog / digital converter) 22-1, and an output unit 23-1. The A / D converter 22-1 converts the analog pixel value of each pixel output from the line sensor 21-1 into a digital signal. The output unit 23-1 converts the digital signal sequence output from the A / D converter 22-1 into a digital image signal of a predetermined format and outputs the digital image signal. The image signal output from the output unit 23-1 is directly stored in the image memory 11 b through the cable 42-1 and the input unit 12 by, for example, the DMA (Direct Memory Access) method.
Further, the chip camera 2-2 includes a line sensor 21-2, an A / D converter 22-2, and an output unit 23-2. The A / D converter 22-2 converts the analog pixel value of each pixel output from the line sensor 21-2 into a digital signal. The output unit 23-2 converts the digital signal sequence output from the A / D converter 22-2 into a digital image signal having a predetermined format and outputs the digital image signal. The image signal output from the output unit 23-2 is directly stored in the image memory 11b via the cable 42-2 and the input unit 12.

また、図5に示すように、モーションコントローラ61は、チップカメラ2(チップカメラ2−1、チップカメラ2−2)、プレースカメラ10と、それぞれケーブル48−1、ケーブル48−2、ケーブル49により接続される。モーションコントローラ61はエンコーダパルスが示す自身の位置に対応して、基準マーク5mが設けられる領域とバンプが吸着した領域とが、チップカメラ2による撮像範囲にある期間、制御信号Trigger_Cをチップカメラ2に送信する。これにより、チップカメラ2は、基準マーク5mが設けられる領域とバンプが吸着した領域の撮像を開始し、制御信号Trigger_Cが入力されている期間が経過したのち、撮像を終了する。   As shown in FIG. 5, the motion controller 61 includes a chip camera 2 (chip camera 2-1, chip camera 2-2), a place camera 10, a cable 48-1, a cable 48-2, and a cable 49, respectively. Connected. The motion controller 61 sends the control signal Trigger_C to the chip camera 2 during a period in which the area where the reference mark 5m is provided and the area where the bumps are attracted are within the imaging range of the chip camera 2 corresponding to the position indicated by the encoder pulse. Send. As a result, the chip camera 2 starts imaging the area where the reference mark 5m is provided and the area where the bumps are attracted, and ends imaging after the period during which the control signal Trigger_C is input.

モーションコントローラ61は、エンコーダパルスが示す自身の位置に対応して、基準マークが設けられる領域と回路基板8におけるICチップ4を搭載する領域とが、プレースカメラ10による撮像範囲にある期間、制御信号Trigger_Pをプレースカメラ10に送信する。これにより、プレースカメラ10は、基準マークが設けられる領域と回路基板8におけるICチップ4を搭載する領域の撮像を開始し、制御信号Trigger_Pが入力されている期間が経過したのち、撮像を終了する。   The motion controller 61 controls the control signal during a period in which the area where the reference mark is provided and the area where the IC chip 4 is mounted on the circuit board 8 are within the imaging range of the place camera 10 corresponding to its position indicated by the encoder pulse. Trigger_P is transmitted to the place camera 10. As a result, the place camera 10 starts imaging the area where the reference mark is provided and the area where the IC chip 4 is mounted on the circuit board 8, and ends the imaging after the period during which the control signal Trigger_P is input. .

また、照明コントローラ51は、制御信号Trigger_Mがケーブル45を介して入力される。この制御信号Trigger_Mは、モーションコントローラ61が、エンコーダパルスが示す自身の位置に対応して、チップカメラ2の撮像領域が、基準マーク5mが設けられる領域からバンプが吸着した領域へと、或いはバンプが吸着した領域から基準マーク5mが設けられる領域へ切り替わることを照明コントローラ51に対して通知する信号である。また、制御信号Trigger_Mは、モーションコントローラ61が、エンコーダパルスが示す自身の位置に対応して、プレースカメラ10の撮像領域が、基準マークが設けられる領域から回路基板8におけるICチップ4を搭載する領域へと、或いは回路基板8におけるICチップ4を搭載する領域から基準マークが設けられる領域へ切り替わることを照明コントローラ51に対して通知する信号である。   In addition, the illumination controller 51 receives the control signal Trigger_M via the cable 45. The control signal Trigger_M indicates that the motion controller 61 corresponds to its own position indicated by the encoder pulse so that the imaging area of the chip camera 2 changes from the area where the reference mark 5m is provided to the area where the bump is attracted or This is a signal notifying the illumination controller 51 that the suction area is switched to the area where the reference mark 5m is provided. The control signal Trigger_M indicates that the motion controller 61 corresponds to its own position indicated by the encoder pulse, and the imaging area of the place camera 10 is an area where the IC chip 4 is mounted on the circuit board 8 from the area where the reference mark is provided. Or a signal that notifies the illumination controller 51 that the area of the circuit board 8 where the IC chip 4 is mounted is switched to the area where the reference mark is provided.

照明コントローラ51は、チップカメラ用照明装置52とケーブル46により、プレースカメラ用照明装置53とケーブル47により、それぞれ接続されている。
チップカメラ用照明装置52は、照明コントローラ51から制御信号Trigger_I1Cが入力されている期間、チップカメラ用角度照明52bを点灯(オン)させ、制御信号Trigger_I2Cが入力されている期間、チップカメラ用同軸照明52aを点灯(オフ)させる。
また、プレースカメラ用照明装置53は、照明コントローラ51から制御信号Trigger_I1Pが入力されている期間、プレースカメラ用角度照明53bを点灯させ、制御信号Trigger_I2Pが入力されている期間、プレースカメラ用同軸照明53aを点灯させる。
The illumination controller 51 is connected to the chip camera illumination device 52 and the cable 46, and to the place camera illumination device 53 and the cable 47, respectively.
The chip camera illumination device 52 turns on (turns on) the chip camera angle illumination 52b while the control signal Trigger_I1C is input from the illumination controller 51, and the chip camera coaxial illumination during the period when the control signal Trigger_I2C is input. 52a is turned on (off).
Further, the place camera illumination device 53 lights the place camera angle illumination 53b while the control signal Trigger_I1P is input from the illumination controller 51, and turns on the place camera coaxial illumination 53a while the control signal Trigger_I2P is input. Lights up.

次に、図7を参照して、図1及び図5を参照して説明した実装装置100の動作例について説明する。図7は、実装装置100の動作の流れを示したフローチャートである。
ICチップ4を収容したチップカセット3や、回路基板8の所定の位置に用意するとともに、ICチップ4や回路基板8を指定する情報を図示していない所定の入力装置を介して信号処理部1に設定した後、操作者の所定の指示操作を行うと、それに従って実装装置100は動作を開始する。動作を開始すると、信号処理部1は、モーションコントローラ61に対して所定の制御信号を出力することで、移動部6をチップカセット3上で、吸着するICチップ4の上方へ移動する(ステップS101)。
Next, an operation example of the mounting apparatus 100 described with reference to FIGS. 1 and 5 will be described with reference to FIG. FIG. 7 is a flowchart showing the operation flow of the mounting apparatus 100.
The signal processing unit 1 is prepared at a predetermined position of the chip cassette 3 containing the IC chip 4 and the circuit board 8 and information for specifying the IC chip 4 and the circuit board 8 via a predetermined input device (not shown). After the setting is made, when the operator performs a predetermined instruction operation, the mounting apparatus 100 starts to operate accordingly. When the operation is started, the signal processing unit 1 outputs a predetermined control signal to the motion controller 61, thereby moving the moving unit 6 above the IC chip 4 to be sucked on the chip cassette 3 (step S101). ).

次に、信号処理部1からの指示に従い、モーションコントローラ61は、チップカセット3からICチップ4を吸着ヘッド5でピックする(ステップS102)。   Next, according to the instruction from the signal processing unit 1, the motion controller 61 picks the IC chip 4 from the chip cassette 3 with the suction head 5 (step S102).

次に、信号処理部1からの指示に従い、モーションコントローラ61は、移動部6を基板ステージ7へ向けて移動させ始める(ステップS103)。   Next, according to the instruction from the signal processing unit 1, the motion controller 61 starts to move the moving unit 6 toward the substrate stage 7 (step S103).

モーションコントローラ61からの指示に従い、チップカメラ2がICチップ4を撮像する(ステップS104)。ステップS104でチップカメラ2−1、チップカメラ2−2は、例えば次のようにしてICチップ4を撮像する。(1)まず、モーションコントローラ61は、制御信号Trigger_Cを有効にする。モーションコントローラ61は、基準マーク領域がチップカメラ2の撮像範囲に入ると、制御信号Trigger_Cを、例えばロウ(L)レベルからハイ(H)レベルに変化させ、チップカメラ2に撮像を開始させる。(2)次に、照明コントローラ51は、制御信号Trigger_I1Cを無効、制御信号Trigger_I2Cを有効とする。基準マーク領域を撮像するので、照明コントローラ51は、制御信号Trigger_I2CをHレベルに維持し、制御信号Trigger_I1CをLレベルに維持している。これにより、基準マーク領域を撮像する期間において、チップカメラ用同軸照明52aは点灯し、チップカメラ用角度照明52bは消灯している。   In accordance with an instruction from the motion controller 61, the chip camera 2 images the IC chip 4 (step S104). In step S104, the chip camera 2-1 and the chip camera 2-2 image the IC chip 4 as follows, for example. (1) First, the motion controller 61 enables the control signal Trigger_C. When the reference mark area enters the imaging range of the chip camera 2, the motion controller 61 changes the control signal Trigger_C from, for example, a low (L) level to a high (H) level, and causes the chip camera 2 to start imaging. (2) Next, the illumination controller 51 invalidates the control signal Trigger_I1C and validates the control signal Trigger_I2C. Since the reference mark area is imaged, the illumination controller 51 maintains the control signal Trigger_I2C at the H level and maintains the control signal Trigger_I1C at the L level. Thereby, in the period during which the reference mark area is imaged, the chip camera coaxial illumination 52a is turned on and the chip camera angle illumination 52b is turned off.

(3)次に、チップカメラ2−1、チップカメラ2−2は、基準マークを撮像する。基準マーク5mを含む基準マーク領域は、チップカメラ用同軸照明52aからの光が照射されている状態でチップカメラ2−1、チップカメラ2−2により撮像される。(4)次に、照明コントローラ51は、制御信号Trigger_I1Cを有効、制御信号Trigger_I2Cを無効とする。モーションコントローラ61が、基準マーク領域からバンプ領域に切り替わることを表す制御信号Trigger_Mを照明コントローラ51に出力する。照明コントローラ51は、制御信号Trigger_I1CをLレベルからHレベルに変化させ、制御信号Trigger_I2CをHレベルからLレベルに変化させる。これにより、チップカメラ用同軸照明52aは消灯し、チップカメラ用角度照明52bが点灯する。   (3) Next, the chip camera 2-1 and the chip camera 2-2 image the reference mark. The reference mark area including the reference mark 5m is imaged by the chip camera 2-1 and the chip camera 2-2 in a state where the light from the chip camera coaxial illumination 52a is irradiated. (4) Next, the illumination controller 51 validates the control signal Trigger_I1C and invalidates the control signal Trigger_I2C. The motion controller 61 outputs a control signal Trigger_M indicating switching from the reference mark area to the bump area to the illumination controller 51. The illumination controller 51 changes the control signal Trigger_I1C from L level to H level, and changes the control signal Trigger_I2C from H level to L level. As a result, the chip camera coaxial illumination 52a is turned off, and the chip camera angle illumination 52b is turned on.

(5)次に、チップカメラ2−1、チップカメラ2−2は、バンプを撮像する。バンプ領域は、チップカメラ用角度照明52bからの光が照射されている状態でチップカメラ2−1、チップカメラ2−2により撮像される。(6)次に、照明コントローラ51は、制御信号Trigger_I1Cを無効、制御信号Trigger_I2Cを有効とする。モーションコントローラ61が、バンプ領域から基準マーク領域に切り替わることを表す制御信号Trigger_Mを照明コントローラ51に出力する。照明コントローラ51は、制御信号Trigger_I2CをLレベルからHレベルに変化させ、制御信号Trigger_I1CをHレベルからLレベルに変化させる。これにより、チップカメラ用角度照明52bは消灯し、チップカメラ用同軸照明52aが点灯する。(7)次に、チップカメラ2−1、チップカメラ2−2は、基準マークを撮像する。基準マーク5mを含む基準マーク領域は、チップカメラ用同軸照明52aからの光が照射されている状態でチップカメラ2−1、チップカメラ2−2により撮像される。モーションコントローラ61は、基準マーク領域がチップカメラ2の撮像範囲から外れると、制御信号Trigger_CをHレベルからLレベルに変化させ、チップカメラ2−1、チップカメラ2−2の撮像を終了させる。   (5) Next, the chip camera 2-1 and the chip camera 2-2 image the bump. The bump area is imaged by the chip camera 2-1 and the chip camera 2-2 while being irradiated with light from the chip camera angle illumination 52b. (6) Next, the illumination controller 51 invalidates the control signal Trigger_I1C and validates the control signal Trigger_I2C. The motion controller 61 outputs a control signal Trigger_M indicating that the bump area is switched to the reference mark area to the illumination controller 51. The illumination controller 51 changes the control signal Trigger_I2C from L level to H level, and changes the control signal Trigger_I1C from H level to L level. As a result, the chip camera angle illumination 52b is turned off, and the chip camera coaxial illumination 52a is turned on. (7) Next, the chip camera 2-1 and the chip camera 2-2 image the reference mark. The reference mark area including the reference mark 5m is imaged by the chip camera 2-1 and the chip camera 2-2 in a state where the light from the chip camera coaxial illumination 52a is irradiated. When the reference mark area is out of the imaging range of the chip camera 2, the motion controller 61 changes the control signal Trigger_C from the H level to the L level, and ends the imaging of the chip camera 2-1 and the chip camera 2-2.

次に、信号処理部1は、チップカメラ2−1の撮像画像−1に基づきICチップ4の位置ずれ量、平面の傾きを、チップカメラ2−2の撮像画像−2に基づきICチップ4の位置ずれ量、平面の傾きを計算する(ステップS105)。
ステップS105で信号処理部1は、例えば次のようにしてICチップ4の位置ずれ量や角度ずれ量を計算する。(1)まず、信号処理部1は、予め確認されている輝度ばらつきやレンズ収差を補正するための情報を参照して、チップカメラ2で撮像された撮像画像の所定画素のグレースケール輝度やレンズ収差を補正する画像処理を実行する。ただし、この補正処理は構成によっては省略することができる。(2)次に、信号処理部1は、記憶部14から読み出したICチップ4の設計値に基づいて各バンプ4aに対応した認識対象領域を設定する。
Next, the signal processing unit 1 determines the positional deviation amount and the plane inclination of the IC chip 4 based on the captured image-1 of the chip camera 2-1, and the IC chip 4 based on the captured image-2 of the chip camera 2-2. The amount of displacement and the inclination of the plane are calculated (step S105).
In step S105, the signal processing unit 1 calculates the positional deviation amount and the angular deviation amount of the IC chip 4 as follows, for example. (1) First, the signal processing unit 1 refers to information for correcting previously confirmed luminance variations and lens aberrations, and the gray scale luminance and lens of a predetermined pixel of the captured image captured by the chip camera 2. Image processing for correcting aberration is executed. However, this correction process may be omitted depending on the configuration. (2) Next, the signal processing unit 1 sets a recognition target area corresponding to each bump 4 a based on the design value of the IC chip 4 read from the storage unit 14.

(3)次に、信号処理部1は、上記(2)で設定した認識対象領域毎に、各画素の輝度値(=画素値)から輝度値の重心位置を求める。(4)次に、信号処理部1は、各バンプ4aのX座標及びY座標に基づいてICチップ4のX方向のずれ量ΔX1、Y方向のずれ量ΔY1及び角度ずれ量Δθ1を求める。ここで、信号処理部1は、例えば、複数のバンプ4aの各X、Y座標値に基づき、最小二乗法等を用いて各バンプ4aの配列方向を推定する。次に、推定した各バンプ4aの配列方向に基づいて、ICチップ4の中心点Pcの座標を求める。また、信号処理部1は、図3を参照して説明した基準点5bや基準線5cを認識し、それに基づいて基準点P0の座標と、角度ずれ量θを求める際に基準となる方向を求める。そして、信号処理部1は、求めた各バンプ4aの配列方向、中心点Pcの座標、基準点P0の座標、基準となる方向に基づいて、X方向のずれ量ΔX1、Y方向のずれ量ΔY1及び角度ずれ量Δθ1を求める。同様に、信号処理部1は、上記(1)−(4)を撮像画像−2に関して行い、X方向のずれ量ΔX2、Y方向のずれ量ΔY2及び角度ずれ量Δθ2を求める。   (3) Next, the signal processing unit 1 obtains the barycentric position of the luminance value from the luminance value (= pixel value) of each pixel for each recognition target area set in (2) above. (4) Next, the signal processing unit 1 obtains the deviation amount ΔX1 in the X direction, the deviation amount ΔY1 in the Y direction, and the angular deviation amount Δθ1 of the IC chip 4 based on the X coordinate and the Y coordinate of each bump 4a. Here, the signal processing unit 1 estimates the arrangement direction of the bumps 4a using, for example, the least square method based on the X and Y coordinate values of the plurality of bumps 4a. Next, the coordinates of the center point Pc of the IC chip 4 are obtained based on the estimated arrangement direction of the bumps 4a. In addition, the signal processing unit 1 recognizes the reference point 5b and the reference line 5c described with reference to FIG. 3, and based on the reference point 5b, determines the reference point P0 and the reference direction when obtaining the angle deviation amount θ. Ask. Then, the signal processing unit 1 determines the deviation amount ΔX1 in the X direction and the deviation amount ΔY1 in the Y direction based on the obtained arrangement direction of the bumps 4a, the coordinates of the center point Pc, the coordinates of the reference point P0, and the reference direction. And an angle deviation amount Δθ1 is obtained. Similarly, the signal processing unit 1 performs the above (1)-(4) on the captured image-2, and obtains the X-direction deviation amount ΔX2, the Y-direction deviation amount ΔY2, and the angular deviation amount Δθ2.

また、ステップS105で信号処理部1は、各バンプ4aの高さZに基づきICチップ4のZ方向のずれ量ΔZ及び平面の傾き(法線ベクトル(a,b,c))を求める。複数のバンプ4aのXYZの各座標値から、例えば最小二乗法などを用いてICチップ4に対応する平面を推定し、法線ベクトル(a,b,c)と中心点Pcの基準点からのZ方向のずれ量ΔZを算出する。信号処理部1は、撮像画像−1に関して、Z方向のずれ量ΔZ1、法線ベクトル(a1,b1,c1)を算出する。また、信号処理部1は、撮像画像−2に関して、Z方向のずれ量ΔZ2、法線ベクトル(a2,b2,c2)を算出する。   In step S105, the signal processing unit 1 obtains the displacement amount ΔZ of the IC chip 4 in the Z direction and the plane inclination (normal vector (a, b, c)) based on the height Z of each bump 4a. A plane corresponding to the IC chip 4 is estimated from the coordinate values of XYZ of the plurality of bumps 4a using, for example, a least square method, and the like from the reference points of the normal vector (a, b, c) and the center point Pc. A shift amount ΔZ in the Z direction is calculated. The signal processing unit 1 calculates the shift amount ΔZ1 in the Z direction and the normal vector (a1, b1, c1) for the captured image-1. Further, the signal processing unit 1 calculates the shift amount ΔZ2 in the Z direction and the normal vector (a2, b2, c2) for the captured image-2.

次に、信号処理部1は、ICチップ4の位置ずれ量、平面の傾きを、各撮像画像から算出した位置ずれ量、平面の傾きから計算する(ステップS106)。
計算は、チップカメラ2のラインセンサがN台で構成されて場合、下記式のように撮像画像−1のずれ量〜撮像画像−Nのずれ量の平均値により位置ずれ量を求める。
ΔX=(ΔX1+ΔX2+…+ΔXN)/N
ΔY=(ΔY1+ΔY2+…+ΔYN)/N
ΔZ=(ΔZ1+ΔZ2+…+ΔZN)/N
Δθ=(Δθ1+Δθ2+…+ΔθN)/N
平面の傾きに関しても、下記式のように、各画像の法線ベクトルの平均値により求める。
a=(a1+a2+…aN)/N
b=(b1+b2+…bN)/N
c=(c1+c2+…cN)/N
Next, the signal processing unit 1 calculates the positional deviation amount and the plane inclination of the IC chip 4 from the positional deviation amount and the plane inclination calculated from each captured image (step S106).
In the calculation, when the number of line sensors of the chip camera 2 is N, the positional deviation amount is obtained from the average value of the deviation amount of the captured image-1 to the deviation amount of the captured image-N as in the following equation.
ΔX = (ΔX1 + ΔX2 +... + ΔXN) / N
ΔY = (ΔY1 + ΔY2 +... + ΔYN) / N
ΔZ = (ΔZ1 + ΔZ2 +... + ΔZN) / N
Δθ = (Δθ1 + Δθ2 +... + ΔθN) / N
The inclination of the plane is also obtained from the average value of the normal vectors of each image as in the following equation.
a = (a1 + a2 +... aN) / N
b = (b1 + b2 +... bN) / N
c = (c1 + c2 +... cN) / N

なお、単純平均以外の方法として、N個の値の中央値を求める方法にしてもよい。
本実施形態では、信号処理部1は、チップカメラ2−1のラインセンサ21−1とチップカメラ2−2のラインセンサ21−2との2台であるので、位置ずれ量等を、撮像画像−1、撮像画像−2から下記のように計算する。
ΔX=(ΔX1+ΔX2)/2、ΔY=(ΔY1+ΔY2)/2、ΔZ=(ΔZ1+ΔZ2)/2、Δθ=(Δθ1+Δθ2)/2、a=(a1+a2)/2、b=(b1+b2)/2、c=(c1+c2)/2
Note that, as a method other than simple averaging, a method of obtaining a median value of N values may be used.
In the present embodiment, the signal processing unit 1 includes two units of the line sensor 21-1 of the chip camera 2-1 and the line sensor 21-2 of the chip camera 2-2. −1 and captured image-2 are calculated as follows.
ΔX = (ΔX1 + ΔX2) / 2, ΔY = (ΔY1 + ΔY2) / 2, ΔZ = (ΔZ1 + ΔZ2) / 2, Δθ = (Δθ1 + Δθ2) / 2, a = (a1 + a2) / 2, b = (b1 + b2) / 2, c = (C1 + c2) / 2

次に、信号処理部1は、モーションコントローラ61に所定の指示を出力し、モーションコントローラ61が、移動部6を基板ステージ7上で回路基板8のICチップ4の搭載位置上方へ移動する(ステップS107)。   Next, the signal processing unit 1 outputs a predetermined instruction to the motion controller 61, and the motion controller 61 moves the moving unit 6 above the mounting position of the IC chip 4 on the circuit board 8 on the substrate stage 7 (step). S107).

次に、信号処理部1の指示に従い、プレースカメラ10が回路基板8上のICチップ4の搭載領域を撮像する(ステップS108)。なお、このとき、ステップS104で示す撮像処理及び照明装置の切替処理を行ってもよい。基準マークについては、プレースカメラ10の撮像領域に入るように基板ステージ7がXY方向へ移動され、撮像される。   Next, according to the instruction of the signal processing unit 1, the place camera 10 images the mounting area of the IC chip 4 on the circuit board 8 (step S108). At this time, the imaging process and the switching process of the illumination device shown in step S104 may be performed. With respect to the reference mark, the substrate stage 7 is moved in the XY directions so as to enter the imaging region of the place camera 10 and imaged.

次に、信号処理部1は、プレースカメラ10の撮像画像に対してICチップ4の搭載領域について、搭載位置のXY方向のずれ量や角度ずれを認識する(ステップS109)。   Next, the signal processing unit 1 recognizes a displacement amount or an angular displacement of the mounting position in the XY direction with respect to the mounting region of the IC chip 4 with respect to the captured image of the place camera 10 (step S109).

次に、信号処理部1は、上述したステップS106で計算したICチップ4の位置ずれ及び角度ずれ量、ICチップ4の平面の傾き(すなわち法線ベクトル(a,b,c))、並びに回路基板8の搭載領域位置ずれ量に基づいて移動部6及び高さ調整機構31の各補正量を計算する(ステップS110)。信号処理部1は、回路基板8に対する認識結果を考慮した上で、ICチップ4の各ずれ量(ΔX、ΔY、ΔZ、Δθ)や平面の傾き(a,b,c)を、基準とする位置及び向き、傾きにできるだけ一致させるように、移動部6のXYZ方向の位置及び角度θを調整する際の補正量を求めるとともに、高さ調整機構31が制御する高さや傾きの大きさを調整する際の補正量を計算する。   Next, the signal processing unit 1 calculates the positional deviation and the angular deviation amount of the IC chip 4 calculated in step S106 described above, the inclination of the plane of the IC chip 4 (that is, the normal vector (a, b, c)), and the circuit. Each correction amount of the moving unit 6 and the height adjustment mechanism 31 is calculated based on the mounting region position shift amount of the substrate 8 (step S110). The signal processing unit 1 takes into account the recognition results for the circuit board 8 and uses the deviation amounts (ΔX, ΔY, ΔZ, Δθ) of the IC chip 4 and the plane inclinations (a, b, c) as references. In order to match the position, orientation, and inclination as much as possible, the correction amount when adjusting the position and angle θ of the moving unit 6 in the XYZ directions is obtained, and the height and inclination controlled by the height adjustment mechanism 31 are adjusted. Calculate the amount of correction.

次に、信号処理部1は、ステップS110で求めた各補正量を指示する信号を、モーションコントローラ61や高さ調整機構31に送信する(ステップS111)。   Next, the signal processing unit 1 transmits a signal instructing each correction amount obtained in step S110 to the motion controller 61 and the height adjustment mechanism 31 (step S111).

そして、高さ調整機構31が基板ステージ7の高さや傾きを補正し、モーションコントローラ61が移動部6の位置ずれや角度ずれを補正した後、移動部6が高さを下げ、ICチップ4を回路基板8の接続部に載せて、熱圧着する(ステップS112)。   Then, after the height adjustment mechanism 31 corrects the height and inclination of the substrate stage 7 and the motion controller 61 corrects the positional deviation and the angular deviation of the moving unit 6, the moving unit 6 lowers the height and moves the IC chip 4. It mounts on the connection part of the circuit board 8, and thermocompression-bonds (step S112).

以上のように、本実施形態では、実装装置100(認識装置)が、ズームレンズ33(レンズ)と、ハーフミラー2c(分割部)と、ラインセンサ21−1、ラインセンサ21−2(分割数分の撮像部)と、信号処理部1(信号処理部)と、を有する。ズームレンズ33は、移動しているICチップ4(認識対象物)の画像を結像する。ハーフミラー2cは、画像をY方向(移動方向)に光学的に2(複数)分割する。ラインセンサ21−1、ラインセンサ21−2は、ハーフミラー2cで分割された画像の各々を撮像する。信号処理部1は、ラインセンサ21−1、ラインセンサ21−2が撮像する撮像画像−1、撮像画像−2(画像)に基づいてICチップ4の位置を認識する。   As described above, in the present embodiment, the mounting apparatus 100 (recognition apparatus) includes the zoom lens 33 (lens), the half mirror 2c (dividing unit), the line sensor 21-1, and the line sensor 21-2 (number of divisions). Image pickup unit) and a signal processing unit 1 (signal processing unit). The zoom lens 33 forms an image of the moving IC chip 4 (recognition target). The half mirror 2c optically divides the image into two (plural) in the Y direction (moving direction). The line sensor 21-1 and the line sensor 21-2 capture each of the images divided by the half mirror 2c. The signal processing unit 1 recognizes the position of the IC chip 4 based on the captured image-1 and captured image-2 (image) captured by the line sensor 21-1 and the line sensor 21-2.

以上の構成を備える本実施形態の実装装置100では、以下に説明する効果を奏する。図8は、本実施形態の実装装置100において、ラインセンサの台数を変えた時の位置推定精度の改善効果を示す図である。
図8においては、ラインセンサの台数を1台、2台、3台と変えていったときの、X軸方向の繰り返しばらつき量を横軸に示し、Y軸方向の繰り返しばらつき量を縦軸に示している。X軸方向の繰り返しばらつき量、Y軸方向の繰り返しばらつき量とは、ある1つのICチップ4について、実装装置100で複数回(ここでは数十回)測定した場合の、ΔX、ΔYを示すものである。図8は、1台のラインセンサを用いる場合のX軸方向の繰り返しばらつき量、Y軸方向の繰り返しばらつき量を基準とした場合、すなわち、ΔX、ΔYの分散を100%としたとき、2台のラインセンサを用いた場合ではばらつきが小さくなり分散が約75%にまで抑制されることを示している。また、図8は、3台のラインセンサを用いた場合では、更にばらつきが小さくなり、1台のラインセンサを用いた場合に対して分散が約65%にまで抑制されることを示している。なお、本実施形態では、効果を確認するため、ばらつきとしてΔX、ΔYの分散を利用したが、最大値と最小値との差を利用してもよい。この場合でも、ラインセンサの台数が多いほど、ばらつきは改善することが見込まれる。
The mounting apparatus 100 of the present embodiment having the above configuration has the effects described below. FIG. 8 is a diagram illustrating an improvement effect of the position estimation accuracy when the number of line sensors is changed in the mounting apparatus 100 of the present embodiment.
In FIG. 8, when the number of line sensors is changed to one, two, and three, the amount of repeat variation in the X-axis direction is shown on the horizontal axis, and the amount of repeat variation in the Y-axis direction is shown on the vertical axis. Show. The amount of repeated variation in the X-axis direction and the amount of repeated variation in the Y-axis direction indicate ΔX and ΔY when a certain IC chip 4 is measured a plurality of times (here, several tens of times) by the mounting apparatus 100. It is. FIG. 8 shows two units when the amount of repeated variation in the X-axis direction and the amount of repeated variation in the Y-axis direction when one line sensor is used, that is, when the variance of ΔX and ΔY is 100%. When this line sensor is used, the variation becomes small and the dispersion is suppressed to about 75%. Further, FIG. 8 shows that the variation is further reduced when three line sensors are used, and the dispersion is suppressed to about 65% as compared with the case where one line sensor is used. . In this embodiment, in order to confirm the effect, the variance of ΔX and ΔY is used as the variation. However, the difference between the maximum value and the minimum value may be used. Even in this case, the variation is expected to improve as the number of line sensors increases.

以上説明したように、本実施形態の実装装置100によれば、半導体チップをレンズで結像した画像を機械的動作方向に光学的に複数分割し、分割数分ラインセンサで同一チップを撮像し、各ラインセンサで得た画像、位置推定結果を合成することで、機械的動作速度および位置推定精度を両立させることを特徴とする。本発明によれば、光学レンズ倍率を低くすることなく高速・高精度に基準マーク取得時の位置と半導体バンプ位置を推定することが可能となる。
従って、本発明によれば、低コスト、短時間で良好な半導体チップの認識および位置推定が可能となる認識装置、認識方法、実装装置及び実装方法を提供することができる。
As described above, according to the mounting apparatus 100 of the present embodiment, an image formed by a lens on a semiconductor chip is optically divided into a plurality of mechanical operation directions, and the same chip is picked up by the line sensor by the number of divisions. By combining the images obtained by the line sensors and the position estimation results, both the mechanical operation speed and the position estimation accuracy are achieved. According to the present invention, it is possible to estimate the reference mark acquisition position and the semiconductor bump position with high speed and high accuracy without reducing the optical lens magnification.
Therefore, according to the present invention, it is possible to provide a recognition device, a recognition method, a mounting device, and a mounting method that enable low-cost and good semiconductor chip recognition and position estimation in a short time.

なお、本実施形態では、レンズ倍率の調整機構を例えば電動ズーム等の自動調整可能な構成としているので対象とするICチップ4のレイアウトが変化しても自動で対応可能である。ただし、ズームレンズ33の焦点距離を例えば手動で設定するようにしてもよい。   In the present embodiment, the lens magnification adjusting mechanism is configured to be automatically adjustable, such as an electric zoom, so that it can automatically cope with a change in the layout of the target IC chip 4. However, the focal length of the zoom lens 33 may be set manually, for example.

また、本実施形態では、認識対象をICチップ4上のはんだバンプ4aとしているが、チップカメラ2による位置認識は、例えばCSPではない他のパッケージングによる半導体チップや、他の回路搭載部品、受動部品等に対して応用することもできる。また、実装装置に限らず、例えば、チップカセット3に収納する前の段階でのバンプ4aの検査工程で用いる装置として構成することも可能である。また、チップカメラ2は、ラインセンサ21ではなく、エリアセンサを用いて構成することもできる。   In the present embodiment, the recognition target is the solder bump 4a on the IC chip 4, but the position recognition by the chip camera 2 is performed by, for example, a semiconductor chip other than CSP, other circuit mounting components, passive It can also be applied to parts and the like. In addition to the mounting device, for example, it may be configured as a device used in the inspection process of the bumps 4a in a stage before being stored in the chip cassette 3. The chip camera 2 can also be configured using an area sensor instead of the line sensor 21.

また、本実施形態では、ラインセンサの数として2の場合について詳細に述べたが、ラインセンサの数を3以上のセンサ数に増やしてもよい。また、本実施形態では、画像の分岐のためにビームベンダーで構成したが、偏光あるいは無偏光ビームスプリッタ、あるいは波長選択スプリッタとして分岐してもよい。   In the present embodiment, the case where the number of line sensors is 2 has been described in detail, but the number of line sensors may be increased to 3 or more. In this embodiment, the beam bender is used for image branching. However, the beam bender may be branched as a polarization or non-polarization beam splitter or a wavelength selection splitter.

1…信号処理部、2,2−1,2−2…チップカメラ(撮像部)、2a…チップカメラ用レンズ、2b,2c…ハーフミラー、3…チップカセット、4…ICチップ(認識対象物)、4a…バンプ(第1認識対象)、5…吸着ヘッド、6…移動部、7…基板ステージ、8…回路基板、11…ホストコンピュータ、31…高さ調整機構、33…ズームレンズ、51…照明コントローラ、52…チップカメラ用照明装置、52a…チップカメラ用同軸照明、52b…チップカメラ用角度照明、53…プレースカメラ用照明装置、61…モーションコントローラ、100…実装装置   DESCRIPTION OF SYMBOLS 1 ... Signal processing part, 2,2-1, 2-2 ... Chip camera (imaging part), 2a ... Lens for chip cameras, 2b, 2c ... Half mirror, 3 ... Chip cassette, 4 ... IC chip (recognition object) 4a ... bump (first recognition target), 5 ... suction head, 6 ... moving part, 7 ... substrate stage, 8 ... circuit board, 11 ... host computer, 31 ... height adjustment mechanism, 33 ... zoom lens, 51 ... Lighting controller, 52 ... Chip camera lighting device, 52a ... Chip camera coaxial lighting, 52b ... Chip camera angle lighting, 53 ... Place camera lighting device, 61 ... Motion controller, 100 ... Mounting device

Claims (4)

移動している認識対象物の画像を結像するレンズと、
前記画像を移動方向に光学的に複数分割する分割部と、
前記分割部で分割された画像の各々を撮像する、分割数分の撮像部と、
前記分割数分の撮像部が撮像する画像に基づいて前記認識対象物の位置を認識する信号処理部と、
を有することを特徴とする認識装置。
A lens that forms an image of a moving recognition object;
A dividing unit that optically divides the image in a moving direction;
An imaging unit for the number of divisions that captures each of the images divided by the division unit;
A signal processing unit for recognizing the position of the recognition object based on an image captured by the imaging units corresponding to the number of divisions;
A recognition apparatus comprising:
前記認識対象物が半導体チップであり、
請求項1記載の信号処理部による認識結果に基づいて前記認識対象物の位置や角度に係る所定の補正制御を行って前記認識対象物を所定の回路基板に実装する、
ことを特徴とする実装装置。
The recognition object is a semiconductor chip;
Mounting the recognition object on a predetermined circuit board by performing predetermined correction control on the position and angle of the recognition object based on the recognition result by the signal processing unit according to claim 1;
A mounting apparatus characterized by that.
移動している認識対象物の画像を結像するレンズと、
前記画像を移動方向に光学的に複数分割する分割部と、
前記分割部で分割された画像の各々を撮像する、分割数分の撮像部と、
を持ち、
前記分割数分の撮像部が撮像する画像に基づいて前記認識対象物の位置を認識する、
ことを特徴とする認識方法。
A lens that forms an image of a moving recognition object;
A dividing unit that optically divides the image in a moving direction;
An imaging unit for the number of divisions that captures each of the images divided by the division unit;
Have
Recognizing the position of the recognition object based on an image captured by the image capturing units for the number of divisions;
A recognition method characterized by the above.
前記認識対象物が半導体チップであり、
請求項3記載の認識結果に基づいて前記認識対象物の位置や角度に係る所定の補正制御を行って前記認識対象物を所定の回路基板に実装する、
ことを特徴とする実装方法。
The recognition object is a semiconductor chip;
Mounting the recognition object on a predetermined circuit board by performing predetermined correction control related to the position and angle of the recognition object based on the recognition result according to claim 3;
An implementation method characterized by that.
JP2015079025A 2015-04-08 2015-04-08 Recognition device, recognition method, mounting device, and mounting method Pending JP2016201409A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015079025A JP2016201409A (en) 2015-04-08 2015-04-08 Recognition device, recognition method, mounting device, and mounting method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015079025A JP2016201409A (en) 2015-04-08 2015-04-08 Recognition device, recognition method, mounting device, and mounting method

Publications (1)

Publication Number Publication Date
JP2016201409A true JP2016201409A (en) 2016-12-01

Family

ID=57422667

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015079025A Pending JP2016201409A (en) 2015-04-08 2015-04-08 Recognition device, recognition method, mounting device, and mounting method

Country Status (1)

Country Link
JP (1) JP2016201409A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018160555A (en) * 2017-03-23 2018-10-11 ヤマハ発動機株式会社 Component mounting machine, component recognition method, and component recognition program

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03241896A (en) * 1990-02-20 1991-10-29 Matsushita Electric Works Ltd Positional correction of component
JP2014116467A (en) * 2012-12-10 2014-06-26 Samsung R&D Institute Japan Co Ltd Recognition device, recognition method, mounting device and mounting method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03241896A (en) * 1990-02-20 1991-10-29 Matsushita Electric Works Ltd Positional correction of component
JP2014116467A (en) * 2012-12-10 2014-06-26 Samsung R&D Institute Japan Co Ltd Recognition device, recognition method, mounting device and mounting method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018160555A (en) * 2017-03-23 2018-10-11 ヤマハ発動機株式会社 Component mounting machine, component recognition method, and component recognition program

Similar Documents

Publication Publication Date Title
KR20160110110A (en) Bonding apparatus and bonding method
JP2014103353A (en) Recognition device, recognition method, mounting device, and mounting method
KR20170038648A (en) Exposure apparatus, alignment method of the exposure apparatus, and program
KR20100096684A (en) Three-dimensional image measuring apparatus and method thereof
WO2014174598A1 (en) Component mounting device, mounting head, and control device
JP2008045983A (en) Adjustment device for stereo camera
KR102034481B1 (en) Mounting method and mounting apparatus of electronic parts
TWI709835B (en) Methods of positioning components in desired positions on a board, pick and place machines, and sensors for such pick and place machines
JP5759271B2 (en) Electronic component mounting equipment
JP6309962B2 (en) Assembly machine
JP6271514B2 (en) Production equipment
JP6849815B2 (en) How to determine the component mounting device, shooting method, and mounting order
KR102157356B1 (en) Recognizing apparatus, recognizing method, mounting apparatus and mounting method
JP6338169B2 (en) Recognition apparatus, recognition method, mounting apparatus, and mounting method
JP2016201409A (en) Recognition device, recognition method, mounting device, and mounting method
US9319593B2 (en) Recognition apparatus, recognition method, mounting apparatus, and mounting method
CN108605432B (en) Surface mounting machine and recognition error correction method
JP2012248717A (en) Position recognition camera and position recognition device
JP5507378B2 (en) Electronic component mounting equipment
JP6475264B2 (en) Component mounter
TWI641872B (en) Photographing method and apparatus thereof and object alignment method and apparatus thereof
CN109257921B (en) Electronic component mounting apparatus and electronic component mounting method
JP6670590B2 (en) Image generation device, mounting device, and image generation method
JP2007095738A (en) Device and method for mounting electronic component
CN109257922B (en) Electronic component mounting apparatus and electronic component mounting method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180122

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181005

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181015

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190513