JP2012229964A - Image forming device, image forming method, and part mounting apparatus - Google Patents

Image forming device, image forming method, and part mounting apparatus Download PDF

Info

Publication number
JP2012229964A
JP2012229964A JP2011097802A JP2011097802A JP2012229964A JP 2012229964 A JP2012229964 A JP 2012229964A JP 2011097802 A JP2011097802 A JP 2011097802A JP 2011097802 A JP2011097802 A JP 2011097802A JP 2012229964 A JP2012229964 A JP 2012229964A
Authority
JP
Japan
Prior art keywords
position detection
light
detection element
detection result
element group
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011097802A
Other languages
Japanese (ja)
Other versions
JP5445509B2 (en
Inventor
Hideo Kikuchi
秀雄 菊地
Hirotake Nakayama
浩丈 中山
Hiroyoshi Minamide
裕喜 南出
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Priority to JP2011097802A priority Critical patent/JP5445509B2/en
Publication of JP2012229964A publication Critical patent/JP2012229964A/en
Application granted granted Critical
Publication of JP5445509B2 publication Critical patent/JP5445509B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an image forming device and an image forming method capable of obtaining an exact part recognition result by forming a stable 3-D recognition image, and a part mounting apparatus.SOLUTION: An image forming device comprises: a position detection part 25 that has two pairs of position detection elements 25A and 25B, each pair having two light-receiving surfaces disposed symmetrically about the axis in the incident direction toward a surface to be measured, and the inclination angle of one pair toward the surface to be measured being different from that of the other pair, and that detects a position where reflected light of scanning light from the surface to be measured is received; a received light quantity determining part 34 that determines whether or not light quantity received by each position detection element falls into a predetermined range; and a light receiving position detecting result determining part 35 that determines whether or not the level of difference in detected results of reflected light receiving position between the two position detection elements of the same position detection pair is equal to or less than a predetermined reference value. A 3-D recognition image of the surface to be measured is formed by taking into consideration the determination result by the received light quantity determining part 34 and the light receiving position detecting result determining part 35 on the basis of the detected result of light receiving position of the position detection part 25.

Description

本発明は、電子部品などの計測対象物の3次元認識画像を形成する画像形成装置および画像形成方法ならびにこの画像形成装置を用いた部品実装装置に関するものである。   The present invention relates to an image forming apparatus and an image forming method for forming a three-dimensional recognition image of a measurement object such as an electronic component, and a component mounting apparatus using the image forming apparatus.

近年電子機器の小型化・高機能化に伴い、電子部品の実装形態におけるファイン化・高密度化が急速に進展している。このため、基板に電子部品を実装する部品実装分野では、実装位置精度の更なる向上が求められており、電子部品の基板への搭載作業においては、実装ヘッドに保持された状態の電子部品の位置や形状を光学的に検出することが行われる(特許文献1参照)。この特許文献1に示す先行技術例においては、ヘッド部に保持された電子部品を3次元センサによって計測することにより3次元の形状検査を行い、この検査結果に基づいてリード曲がりやバンプの欠落などの電子部品の異常の有無を判定するとともに、電子部品を基板に搭載する際の位置補正を行うようにしている。   In recent years, with the miniaturization and high functionality of electronic devices, finer and higher density electronic device mounting forms are rapidly progressing. For this reason, in the component mounting field in which electronic components are mounted on a substrate, further improvement in mounting position accuracy is required. In mounting work of electronic components on a substrate, electronic components held by a mounting head The position and shape are optically detected (see Patent Document 1). In the prior art example shown in Patent Document 1, a three-dimensional shape inspection is performed by measuring an electronic component held by a head unit with a three-dimensional sensor, and lead bending, missing of a bump, etc. based on the inspection result. In addition, it is determined whether or not there is an abnormality in the electronic component, and position correction is performed when the electronic component is mounted on the substrate.

そして3次元センサとして、ここではレーザ光をポリゴンミラーによって主走査方向に走査させた走査光を、副走査方向に移動する電子部品の計測対象面にfθレンズを介して入射させ、この反射光をPSD(位置検出素子)によって受光する構成を用いており、PSDの受光位置検出結果に基づいて高さ方向の情報を含む電子部品の3次元形状データを生成するようにしている。   As a three-dimensional sensor, here, scanning light obtained by scanning laser light in the main scanning direction with a polygon mirror is incident on the measurement target surface of an electronic component moving in the sub-scanning direction via an fθ lens, and the reflected light is incident on the surface. A configuration in which light is received by a PSD (position detection element) is used, and three-dimensional shape data of an electronic component including information in the height direction is generated based on a light reception position detection result of PSD.

特開平10−51195号公報JP-A-10-51195

上述のように、PSDを用いた3次元センサにおいては、計測対象面によって反射されてPSDによって受光される光量が、使用されるPSDの特性やPSDから出力される信号を処理する電子回路の特性にマッチしていることが求められる。すなわち、PSDは受光により発生した電荷が端部電極に到達することによって生じる電気信号によって受光位置を検出する構成となっていることから、受光した光量がそのPSDの特性に対して過大である場合には、1つの走査動作によって発生した電荷が次の受光までに完全に出力されずに受光面に滞留することによる誤検出が生じる。   As described above, in the three-dimensional sensor using the PSD, the amount of light reflected by the measurement target surface and received by the PSD is the characteristic of the PSD used and the characteristic of the electronic circuit that processes the signal output from the PSD. It is required to match. That is, the PSD is configured to detect the light receiving position based on an electric signal generated when the charge generated by light reception reaches the end electrode, and therefore, the amount of received light is excessive with respect to the characteristics of the PSD. In this case, erroneous detection occurs due to charges generated by one scanning operation being not completely output until the next light reception but staying on the light receiving surface.

例えば、QFPなどのリード部品のリードからの反射光を受光した光量が過大である場合には、抜けきれずに滞留した電荷が次の走査時に出力されることから、本来リードが存在しない部位を走査する際にリードの存在を示す検出信号がノイズとして出力される場合がある。反対に受光した光量が過小である場合にも同様に誤検出が生じ、本来リードが存在する部位を走査しているにも拘わらず、検出結果を示す認識画像においてリードが欠落した黒抜け部分として現れる現象が生じる。   For example, if the amount of light received from the lead of a lead component such as QFP is excessive, the charge that has not been completely removed is output during the next scan, so that the portion where the lead is not originally present is detected. When scanning, a detection signal indicating the presence of a lead may be output as noise. On the other hand, when the amount of received light is too small, erroneous detection occurs in the same manner, and the black portion where the lead is missing in the recognition image indicating the detection result despite scanning the portion where the lead is originally present. A phenomenon appears.

このような不具合は、部品の計測対象面の状態によって反射光の光量が大きく変化することに起因して発生するものであるため、使用するPSDを選定することのみによっては常に正しい検出結果を得ることは難しい。また複数のPSDを異なる受光角度で配置して、計測対象の部品の種類に応じてこれらを選択的に使い分けることも考えられるが、受光量が過大、過小のいずれの場合にも不具合が生じるため、常に適正な光量を保つことが難しい。このように、従来のPSDを用いた部品の3次元認識においては、受光量の変化に起因して安定した3次元認識画像を形成して正しい部品認識結果を得ることが困難であるという課題があった。   Since such a problem occurs due to a large change in the amount of reflected light depending on the state of the measurement target surface of the component, a correct detection result can always be obtained only by selecting the PSD to be used. It ’s difficult. It is also conceivable to arrange a plurality of PSDs at different light receiving angles and selectively use them according to the type of component to be measured. However, a problem arises when the amount of received light is too large or too small. It is difficult to always maintain a proper light amount. Thus, in the conventional three-dimensional recognition of parts using PSD, there is a problem that it is difficult to form a stable three-dimensional recognition image and obtain a correct part recognition result due to a change in the amount of received light. there were.

そこで本発明は、安定した3次元認識画像を形成して正しい部品認識結果を得ることができる画像形成装置および画像形成方法ならびに部品実装装置を提供することを目的とする。   Therefore, an object of the present invention is to provide an image forming apparatus, an image forming method, and a component mounting apparatus that can form a stable three-dimensional recognition image and obtain a correct component recognition result.

本発明の画像形成装置は、部品の計測対象面に対して照射された光の反射光を受光することにより、前記計測対象面の平面情報を示す2次元画像における各画素の輝度によって高さ情報を表す3次元認識画像を形成する画像形成装置であって、光発生手段によって発生された前記光を主走査方向に走査させる走査手段と、前記主走査方向と直交する副走査方向に相対移動する前記計測対象面に対して前記走査された走査光を所定の入射方向から入射させる走査光入射手段と、それぞれが前記入射方向を挟んで対称に配置された1対の位置検出素子より成る2つの位置検出素子群であって、前記位置検出素子の受光面の前記計測対象面に対する傾斜角度が各対毎に相異なって設定され前記傾斜角度がより小さい第1の位置検出素子群と前記傾斜角度がより大きい第2の位置検出素子群とを有し、前記走査光の計測対象面からの反射光の受光位置を前記2つの位置検出素子群の各位置検出素子によってそれぞれ検出する位置検出部と、前記各位置検出素子が受光する光量が所定の範囲内にあるか否かを判定する受光量判定部と、同一の位置検出素子群に属する位置検出素子による前記反射光の受光位置検出結果の差異の大きさが所定の基準値以下であるか否かを判定する受光位置検出結果判定部と、前記位置検出部の受光位置検出結果に基づき前記受光量判定部および受光位置検出結果判定部の判定結果を加味して計測対象面の前記3次元認識画像を形成する画像形成部とを備え、前記画像形成部は、前記第1の位置検出素子群の各位置検出素子がそれぞれ受光した前記光量が前記所定の範囲内にあると前記受光量判定部によって判定され、且つ第1の位置検出素子群における前記受光位置検出結果の差異の大きさが前記所定の基準値以内であると前記受光位置検出結果判定部によって判定されたならば、当該走査部位についての受光位置検出結果として前記第1の位置検出素子群による受光位置検出結果を採用し、前記第1の位置検出素子群の各位置検出素子のいずれかがそれぞれ受光した前記光量が前記所定の範囲を超えると前記受光量判定部によって判定され、または前記第1の位置検出素子群における前記受光位置検出結果の差異の大きさが前記所定の基準値を超えると前記受光位置検出結果判定部によって判定されたならば、当該走査部位についての受光位置検出結果として前記第2の位置検出素子群による受光位置検出結果を採用して前記3次元認識画像を形成する。   The image forming apparatus of the present invention receives height reflected by the brightness of each pixel in the two-dimensional image indicating the plane information of the measurement target surface by receiving reflected light of the light irradiated on the measurement target surface of the component. An image forming apparatus that forms a three-dimensional recognition image representing the above-mentioned, and is relatively moved in a sub-scanning direction orthogonal to the main scanning direction and scanning means that scans the light generated by the light generating means in the main scanning direction. Scanning light incident means for making the scanned scanning light incident on the measurement target surface from a predetermined incident direction, and two pairs of position detection elements arranged symmetrically with respect to the incident direction. A first position detecting element group, wherein the inclination angle of the light receiving surface of the position detecting element with respect to the measurement target surface is set different for each pair, and the inclination angle is smaller; A second position detection element group having a higher degree, and a position detection unit that detects a light receiving position of the reflected light from the measurement target surface of the scanning light by each position detection element of the two position detection element groups A received light amount determination unit that determines whether or not the amount of light received by each of the position detection elements is within a predetermined range, and a light reception position detection result of the reflected light by the position detection elements belonging to the same position detection element group A light reception position detection result determination unit for determining whether or not the magnitude of the difference between the light detection position is equal to or less than a predetermined reference value, and the light reception amount determination unit and the light reception position detection result determination unit based on the light reception position detection result of the position detection unit And an image forming unit that forms the three-dimensional recognition image of the measurement target surface in consideration of the determination result, and the image forming unit receives each of the position detection elements of the first position detection element group. The amount of light is the predetermined amount The light reception position detection result determination unit that is determined by the light reception amount determination unit to be within a range, and that the magnitude of the difference between the light reception position detection results in the first position detection element group is within the predetermined reference value. If it is determined, the light reception position detection result by the first position detection element group is adopted as the light reception position detection result for the scanning part, and any one of the position detection elements of the first position detection element group is selected. When the amount of received light exceeds the predetermined range, it is determined by the received light amount determination unit, or the difference in the light reception position detection result in the first position detection element group is equal to the predetermined reference value. If it is determined by the light receiving position detection result determination unit if it exceeds, the light receiving position by the second position detection element group as the light receiving position detection result for the scanning part The three-dimensional recognition image is formed using the detection result.

本発明の画像形成方法は、部品の計測対象面に対して照射された光の反射光を受光することにより、前記計測対象面の平面情報を示す2次元画像における各画素の輝度によって高さ情報を表す3次元認識画像を形成する画像形成方法であって、光発生手段によって発生された前記光を主走査方向に走査させる走査工程と、前記主走査方向と直交する副走査方向に相対移動する前記計測対象面に対して前記走査された走査光を所定の入射方向から入射させる走査光入射工程と、それぞれが前記入射方向を挟んで対称に配置された1対の位置検出素子より成る2つの位置検出素子群であって、前記位置検出素子の受光面の前記計測対象面に対する傾斜角度が各対毎に相異なって設定され前記傾斜角度がより小さい第1の位置検出素子群と前記傾斜角度がより大きい第2の位置検出素子群とを有し、前記走査光の計測対象面からの反射光の受光位置を前記2つの位置検出素子群の各位置検出素子によってそれぞれ検出する位置検出部によって、前記走査光の計測対象面からの反射光の受光位置を検出する位置検出工程と、前記各位置検出素子が受光する光量が所定の範囲内にあるか否かを判定する受光量判定工程と、同一の位置検出素子群に属する位置検出素子による前記反射光の受光位置検出結果の差異の大きさが所定の基準値以下であるか否かを判定する受光位置検出結果判定工程と、前記位置検出工程における受光位置検出結果に基づき前記受光量判定工程および受光位置検出結果判定工程における判定結果を加味して計測対象面の前記3次元認識画像を形成する画像形成工程とを含み、前記受光量判定工程において前記第1の位置検出素子群の各位置検出素子がそれぞれ受光した前記光量が前記所定の範囲内にあると判定され、且つ前記受光位置検出結果判定工程において前記第1の位置検出素子群における前記受光位置検出結果の差異の大きさが前記所定の基準値以内であると判定されたならば、当該走査部位についての受光位置検出結果として前記第1の位置検出素子群による受光位置検出結果を採用して前記3次元認識画像を形成し、前記受光量判定工程において前記第1の位置検出素子群の各位置検出素子のいずれかがそれぞれ受光した前記光量が前記所定の範囲を超えると判定され、且つ前記受光位置検出結果判定工程において前記第1の位置検出素子群における前記受光位置検出結果の差異の大きさが前記所定の基準値を超えると判定されたならば、当該走査部位についての受光位置検出結果として前記第2の位置検出素子群による受光位置検出結果を採用して前記3次元認識画像を形成する。   According to the image forming method of the present invention, height information is obtained by brightness of each pixel in a two-dimensional image indicating planar information of the measurement target surface by receiving reflected light of light irradiated on the measurement target surface of the component. An image forming method for forming a three-dimensional recognition image representing an image, wherein the light generated by the light generation means is scanned in the main scanning direction, and is relatively moved in the sub-scanning direction orthogonal to the main scanning direction. A scanning light incident process in which the scanned scanning light is incident on the measurement target surface from a predetermined incident direction, and two pairs of position detecting elements arranged symmetrically with respect to the incident direction. A first position detecting element group, wherein the inclination angle of the light receiving surface of the position detecting element with respect to the measurement target surface is set different for each pair, and the inclination angle is smaller; A second position detection element group having a higher degree, and a position detection unit that detects a light receiving position of the reflected light from the measurement target surface of the scanning light by each position detection element of the two position detection element groups The position detection step of detecting the light receiving position of the reflected light from the measurement target surface of the scanning light, and the received light amount determination step of determining whether or not the amount of light received by each position detection element is within a predetermined range And a light receiving position detection result determining step for determining whether or not the magnitude of the difference in the light receiving position detection result of the reflected light by the position detecting elements belonging to the same position detecting element group is a predetermined reference value or less, An image forming step of forming the three-dimensional recognition image of the measurement target surface in consideration of the light reception amount determination step and the light reception position detection result determination step based on the light reception position detection result in the position detection step. Thus, it is determined that the light quantity received by each position detection element of the first position detection element group is within the predetermined range in the light reception amount determination step, and the light reception position detection result determination step If it is determined that the magnitude of the difference between the light reception position detection results in one position detection element group is within the predetermined reference value, the first position detection element is used as the light reception position detection result for the scanning region. The three-dimensional recognition image is formed by using the light reception position detection result by the group, and the light quantity received by each of the position detection elements of the first position detection element group in the light reception amount determination step is the predetermined light amount. And the magnitude of the difference between the light reception position detection results in the first position detection element group in the light reception position detection result determination step is the above-mentioned range. If it is determined that the predetermined reference value is exceeded, the light reception position detection result by the second position detection element group is adopted as the light reception position detection result for the scanning part to form the three-dimensional recognition image.

本発明の部品実装装置は、基板保持部に保持された基板に部品供給部から取り出された部品を実装する部品実装装置であって、実装ヘッドを移動させることにより前記部品供給部から部品を取り出して前記基板に実装する部品実装機構と、前記実装ヘッドに保持された前記部品の計測対象面に対して照射された光の反射光を受光することにより、前記計測対象面の平面情報を示す2次元画像における各画素の輝度によって高さ情報を表す3次元認識画像を形成する画像形成装置と、前記画像形成装置によって形成された前記3次元認識画像に基づいて前記部品の電極部の位置および高さを認識する認識部と、前記部品実装機構および画像形成装置を制御する制御部とを備え、前記画像形成装置は、光発生手段によって発生された前記光を主走査方向に走査させる走査手段と、前記主走査方向と直交する副走査方向に相対移動する前記計測対象面に対して前記走査された走査光を所定の入射方向から入射させる走査光入射手段と、それぞれが前記入射方向を挟んで対称に配置された1対の位置検出素子より成る2つの位置検出素子群であって、前記位置検出素子の受光面の前記計測対象面に対する傾斜角度が各対毎に相異なって設定され前記傾斜角度がより小さい第1の位置検出素子群と前記傾斜角度がより大きい第2の位置検出素子群とを有し、前記走査光の計測対象面からの反射光の受光位置を前記2つの位置検出素子群の各位置検出素子によってそれぞれ検出する位置検出部と、前記各位置検出素子が受光する光量が所定の範囲内にあるか否かを判定する受光量判定部と、同一の位置検出素子群に属する位置検出素子による前記反射光の受光位置検出結果の差異の大きさが所定の基準値以下であるか否かを判定する受光位置検出結果判定部と、前記位置検出部の受光位置検出結果に基づき前記受光量判定部および受光位置検出結果判定部の判定結果を加味して計測対象面の前記3次元認識画像を形成する画像形成部とを備え、前記画像形成部は、前記第1の位置検出素子群の各位置検出素子がそれぞれ受光した前記光量が前記所定の範囲内にあると前記受光量判定部によって判定され、且つ第1の位置検出素子群における前記受光位置検出結果の差異の大きさが前記所定の基準値以内であると前記受光位置検出結果判定部によって判定されたならば、当該走査部位についての受光位置検出結果として前記第1の位置検出素子群による受光位置検出結果を採用し、前記第1の位置検出素子群の各位置検出素子のいずれかがそれぞれ受光した前記光量が前記所定の範囲を超えると前記受光量判定部によって判定され、または前記第1の位置検出素子群における前記受光位置検出結果の差異の大きさが前記所定の基準値を超えると前記受光位置検出結果判定部によって判定されたならば、当該走査部位についての受光位置検出結果として前記第2の位置検出素子群による受光位置検出結果を採用して前記3次元認識画像を形成する。   The component mounting apparatus of the present invention is a component mounting apparatus that mounts a component taken out from the component supply unit onto a board held by the board holding unit, and takes out the component from the component supply unit by moving a mounting head. The component mounting mechanism mounted on the substrate and the reflected light of the light irradiated on the measurement target surface of the component held by the mounting head are received to indicate plane information of the measurement target surface 2 An image forming apparatus that forms a three-dimensional recognition image that represents height information according to the luminance of each pixel in the three-dimensional image, and the position and height of the electrode portion of the component based on the three-dimensional recognition image formed by the image forming apparatus A recognition unit for recognizing the thickness, and a control unit for controlling the component mounting mechanism and the image forming apparatus, wherein the image forming apparatus mainly runs the light generated by the light generating unit. Scanning means for scanning in the direction, scanning light incident means for causing the scanned scanning light to enter the measurement target surface that moves relative to the sub-scanning direction orthogonal to the main scanning direction from a predetermined incident direction, respectively Are two position detection element groups composed of a pair of position detection elements arranged symmetrically with respect to the incident direction, and the inclination angle of the light receiving surface of the position detection element with respect to the measurement target surface is in each pair. A first position detecting element group that is set differently and has a smaller inclination angle; and a second position detection element group that has a larger inclination angle, and receives reflected light from the measurement target surface of the scanning light. A position detection unit for detecting the position by each of the position detection elements of the two position detection element groups, and a received light amount determination unit for determining whether the amount of light received by each of the position detection elements is within a predetermined range; The same A light receiving position detection result determining unit that determines whether or not a difference in a light receiving position detection result of the reflected light by the position detecting elements belonging to the position detecting element group is equal to or less than a predetermined reference value; and An image forming unit that forms the three-dimensional recognition image of the measurement target surface in consideration of the determination results of the received light amount determination unit and the received light position detection result determination unit based on the received light position detection result, The received light amount determination unit determines that the amount of light received by each position detection element of the first position detection element group is within the predetermined range, and the light reception position detection in the first position detection element group If the light reception position detection result determination unit determines that the magnitude of the difference between the results is within the predetermined reference value, the first position detection is performed as a light reception position detection result for the scanning region. The light reception position detection result by the element group is adopted, and when the light amount received by each of the position detection elements of the first position detection element group exceeds the predetermined range, the light reception amount determination unit determines, Alternatively, if the light receiving position detection result determination unit determines that the magnitude of the difference between the light receiving position detection results in the first position detection element group exceeds the predetermined reference value, the light receiving position for the scanning region. The three-dimensional recognition image is formed by adopting the light reception position detection result by the second position detection element group as the detection result.

本発明によれば、計測対象面への入射方向を挟んで対称に配置され受光面の計測対象面に対する傾斜角度が各対毎に相異なる2対の位置検出素子群を有し、走査光の計測対象面からの反射光の受光位置を検出する位置検出部と、各位置検出素子が受光する光量が所定の範囲内にあるか否かを判定する受光量判定部と、同一の位置検出素子群に属する位置検出素子による反射光の受光位置検出結果の差異の大きさが所定の基準値以下であるか否かを判定する受光位置検出結果判定部とを備え、位置検出部の受光位置検出結果に基づき受光量判定部および受光位置検出結果判定部の判定結果を加味して計測対象面の3次元認識画像を形成する構成とすることにより、受光量が大きく変化する場合にあっても安定した3次元認識画像を形成して正しい部品認識結果を得ることができる。   According to the present invention, there are two pairs of position detection element groups that are arranged symmetrically with respect to the incident direction to the measurement target surface and that have different inclination angles of the light receiving surface with respect to the measurement target surface for each pair. A position detection unit that detects a light receiving position of reflected light from the measurement target surface, a received light amount determination unit that determines whether or not the amount of light received by each position detection element is within a predetermined range, and the same position detection element A light receiving position detection result determining unit for determining whether or not the magnitude of the difference in the light receiving position detection result of the reflected light by the position detecting elements belonging to the group is equal to or less than a predetermined reference value, and detecting the light receiving position of the position detecting unit Stable even when the amount of received light changes significantly by taking into account the determination results of the received light amount determination unit and the received light position detection result determination unit based on the result to form a three-dimensional recognition image of the measurement target surface Create and correct 3D recognition image It can be obtained component recognition results.

本発明の一実施の形態の部品実装装置の平面図The top view of the component mounting apparatus of one embodiment of this invention 本発明の一実施の形態の画像形成装置に用いられる3次元センサの構成説明図Structure explanatory drawing of the three-dimensional sensor used for the image forming apparatus of one embodiment of this invention 本発明の一実施の形態の画像形成装置に用いられる3次元センサによる3次元計測の説明図Explanatory drawing of the three-dimensional measurement by the three-dimensional sensor used for the image forming apparatus of one embodiment of this invention 本発明の一実施の形態の画像形成装置により形成される3次元認識画像の説明図Explanatory drawing of the three-dimensional recognition image formed with the image forming apparatus of one embodiment of this invention 本発明の一実施の形態の部品実装装置の制御系の構成を示すブロック図The block diagram which shows the structure of the control system of the component mounting apparatus of one embodiment of this invention 本発明の一実施の形態の画像形成装置における認識不良発生例の説明図Explanatory drawing of the example of recognition defect generation | occurrence | production in the image forming apparatus of one embodiment of this invention 本発明の一実施の形態の画像形成装置に用いられる3次元センサにおけるデータ処理部の構成を示すブロック図1 is a block diagram showing a configuration of a data processing unit in a three-dimensional sensor used in an image forming apparatus according to an embodiment of the present invention. 本発明の一実施の形態の画像形成装置に用いられる3次元センサにおけるデータ処理部のch選択モジュールの機能説明図Functional explanatory diagram of the ch selection module of the data processing unit in the three-dimensional sensor used in the image forming apparatus according to the embodiment of the present invention 本発明の一実施の形態の画像形成装置に用いられる3次元センサにおけるデータ処理部のPSD角度選択モジュールの機能説明図Functional explanatory diagram of a PSD angle selection module of a data processing unit in a three-dimensional sensor used in an image forming apparatus according to an embodiment of the present invention 本発明の一実施の形態の画像形成装置による3次元画像形成処理を示すフロー図3 is a flowchart showing three-dimensional image formation processing by the image forming apparatus according to the embodiment of the present invention. 本発明の一実施の形態の画像形成装置による3次元部品認識処理の説明図Explanatory drawing of the three-dimensional component recognition process by the image forming apparatus of one embodiment of this invention

次に本発明の実施の形態を図面を参照して説明する。まず図1を参照して部品実装装置の構造を説明する。図1において、基台1aにはX方向(基板搬送方向)に基板搬送機構2が配設されている。基板搬送機構2は上流側装置から搬入された基板3を搬送し、搬送経路に設けられた基板保持部に位置決めして保持する。基板搬送機構2の両側には、部品供給部4A、4Bが配置されている。部品供給部4Aには部品トレイ6を供給するトレイフィーダ5が装着されており、部品供給部4Bには複数のテープフィーダ8が並設されている。   Next, embodiments of the present invention will be described with reference to the drawings. First, the structure of the component mounting apparatus will be described with reference to FIG. In FIG. 1, a substrate transport mechanism 2 is disposed on a base 1a in the X direction (substrate transport direction). The substrate transport mechanism 2 transports the substrate 3 carried in from the upstream device, and positions and holds the substrate 3 on the substrate holder provided in the transport path. Component supply units 4 </ b> A and 4 </ b> B are arranged on both sides of the substrate transport mechanism 2. A tray feeder 5 for supplying a component tray 6 is mounted on the component supply unit 4A, and a plurality of tape feeders 8 are arranged in parallel on the component supply unit 4B.

部品トレイ6にはQFPやBGAなど、リードやバンプなど3次元形状を有する電極部が設けられたタイプの3次元部品が収納されている。部品トレイ6はマガジンなどの収納容器に複数が積層収納されており、トレイフィーダ5が部品トレイ6を所定の部品取出し位置に位置させることにより、3次元部品7は以下に説明する部品実装機構による部品ピックアップ位置に供給される。テープフィーダ8は実装対象の部品を保持したキャリアテープをピッチ送りすることにより、部品を部品実装機構による部品ピックアップ位置に供給する。   The component tray 6 stores a three-dimensional component of a type provided with an electrode portion having a three-dimensional shape, such as a lead or a bump, such as QFP or BGA. A plurality of component trays 6 are stacked and stored in a storage container such as a magazine, and the tray feeder 5 positions the component tray 6 at a predetermined component take-out position, whereby the three-dimensional component 7 is obtained by a component mounting mechanism described below. Supplied to the parts pick-up position. The tape feeder 8 feeds the component to the component pick-up position by the component mounting mechanism by pitch-feeding the carrier tape holding the component to be mounted.

基台1aのX方向の一端部には、リニアモータによるY方向駆動機構を備えたY軸移動テーブル9が配設されており、Y軸移動テーブル9には同様にリニアモータによるX方向駆動機構を備えたX軸移動テーブル10A、10BがY方向に移動自在に結合されている。X軸移動テーブル10A、10Bにはいずれも実装ヘッド11がX方向の移動自在に装着されている。実装ヘッド11は下端部に部品を吸着して保持する吸着ノズル12a(図2参照)を備えた複数の単位移載ヘッド12を備えており、Y軸移動テーブル9、X軸移動テーブル10A、10Bを駆動することにより実装ヘッド11は部品供給部4A、4Bと基板搬送機構2との間を移動し、部品供給部4A、4Bから取り出した部品を基板搬送機構2の基板保持部に保持された基板3に実装する。   A Y-axis moving table 9 having a Y-direction driving mechanism using a linear motor is disposed at one end of the base 1a in the X-direction. Similarly, the Y-axis moving table 9 has an X-direction driving mechanism using a linear motor. X-axis moving tables 10A and 10B having the above are coupled so as to be movable in the Y direction. A mounting head 11 is mounted on the X-axis moving tables 10A and 10B so as to be movable in the X direction. The mounting head 11 includes a plurality of unit transfer heads 12 each having a suction nozzle 12a (see FIG. 2) that sucks and holds a component at the lower end, and includes a Y-axis moving table 9 and X-axis moving tables 10A and 10B. , The mounting head 11 moves between the component supply units 4A and 4B and the substrate transport mechanism 2, and the components taken out from the component supply units 4A and 4B are held by the substrate holding unit of the substrate transfer mechanism 2. Mounted on the substrate 3.

したがって、ヘッド移動機構であるY軸移動テーブル9、X軸移動テーブル10A、10Bおよび実装ヘッド11は、実装ヘッド11を移動させることにより部品供給部4A、4Bから部品を取り出して基板3に実装する部品実装機構を構成する。X軸移動テーブル10A、10Bには、実装ヘッド11と一体的に移動する基板カメラ13が装着されており、基板カメラ13を基板搬送機構2に保持された基板3の上方に移動させることにより、基板カメラ13は基板3の実装位置を撮像して認識する。   Therefore, the Y-axis moving table 9, the X-axis moving tables 10 </ b> A and 10 </ b> B, and the mounting head 11, which are head moving mechanisms, take out the components from the component supply units 4 </ b> A and 4 </ b> B by moving the mounting head 11 and mount them on the substrate 3. Configure the component mounting mechanism. A substrate camera 13 that moves integrally with the mounting head 11 is mounted on the X-axis moving tables 10A and 10B. By moving the substrate camera 13 above the substrate 3 held by the substrate transport mechanism 2, The board camera 13 captures and recognizes the mounting position of the board 3.

基板搬送機構2と部品供給部4Aとの間には、部品カメラ14、3Dセンサ15、ノズルストッカ16が配設されており、基板搬送機構2と部品供給部4Bとの間には、部品カメラ14、ノズルストッカ16が配設されている。部品カメラ14はラインセンサを用いたラインカメラであり、部品供給部4A、4Bから部品を取り出した実装ヘッド11が部品カメラ14の上方で移動することにより、部品カメラ14は実装ヘッド11に保持された状態の部品を下方から撮像する。これにより、部品の位置や形状などの2次元情報が取得される。   A component camera 14, a 3D sensor 15, and a nozzle stocker 16 are disposed between the substrate transport mechanism 2 and the component supply unit 4A. A component camera is disposed between the substrate transport mechanism 2 and the component supply unit 4B. 14. A nozzle stocker 16 is provided. The component camera 14 is a line camera using a line sensor, and the component camera 14 is held by the mounting head 11 when the mounting head 11 that has taken out components from the component supply units 4A and 4B moves above the component camera 14. The captured part is imaged from below. Thereby, two-dimensional information such as the position and shape of the component is acquired.

3Dセンサ15は、部品供給部4Aから取り出された3次元部品7を対象として、3次元画像を形成するための処理を行う。すなわち実装ヘッド11に保持された3次元部品7の計測対象面7P(図3参照)に対してレーザ光を照射し、照射されたレーザ光の反射光を受光することにより、計測対象面7Pの平面情報を示す2次元画像における各画素の輝度によって高さ情報を表す3次元認識画像を形成する画像形成装置としての機能を有している。   The 3D sensor 15 performs a process for forming a three-dimensional image on the three-dimensional component 7 taken out from the component supply unit 4A. That is, the measurement target surface 7P (see FIG. 3) of the three-dimensional component 7 held by the mounting head 11 is irradiated with laser light, and the reflected light of the irradiated laser light is received, whereby the measurement target surface 7P. It has a function as an image forming apparatus that forms a three-dimensional recognition image representing height information by the brightness of each pixel in a two-dimensional image representing planar information.

次に図2を参照して3Dセンサ15の構造を説明する。なお、図2(a)、(b)は、3Dセンサ15のY方向、X方向の矢視をそれぞれ示しており、3Dセンサ15の上方では単位移載ヘッド12の吸着ノズル12aに保持された3次元部品7が、走査方向(X方向)に所定の走査速度で移動する。図2(b)において、上面に開口部20aが設けられた筐体20内の底部には、計測光であるレーザ光を発光するレーザ光源部21(光発生手段)が光軸を垂直上向きにして配置されており、レーザ光源部21の上方にはレーザ光を集光する集光レンズ22が配置されている。   Next, the structure of the 3D sensor 15 will be described with reference to FIG. 2A and 2B respectively show arrows in the Y direction and the X direction of the 3D sensor 15, and are held by the suction nozzle 12a of the unit transfer head 12 above the 3D sensor 15. The three-dimensional component 7 moves in the scanning direction (X direction) at a predetermined scanning speed. In FIG. 2B, a laser light source unit 21 (light generating means) that emits laser light as measurement light has a light axis vertically upward at the bottom of the housing 20 provided with an opening 20a on the top surface. A condensing lens 22 that condenses the laser light is disposed above the laser light source unit 21.

レーザ光源部21から発光された光は集光レンズ22によって集光されて上方へ照射され(矢印a)、さらにミラー27によって水平方向へ反射されて(矢印b)、多角反射面を有するポリゴンミラー23に入射する。反射面に入射した入射光は上方に反射されて上方に位置するfθレンズ24に入射し、垂直上方に投射される。このとき、ポリゴンミラー23を回転駆動部23a(図2(a))によって回転させる(矢印c)ことにより、ミラー27を介して投射される照射光は、矢印e1,e2,e3の順(矢印d方向)に、すなわち主走査方向に走査されながら、開口部20aの上方に位置する3次元部品7の計測対象面7P(図3(a)参照)に垂直下方から入射する。   The light emitted from the laser light source 21 is condensed by the condenser lens 22 and irradiated upward (arrow a), and further reflected by the mirror 27 in the horizontal direction (arrow b), and a polygon mirror having a polygonal reflecting surface. 23 is incident. Incident light incident on the reflecting surface is reflected upward, enters the fθ lens 24 positioned above, and is projected vertically upward. At this time, when the polygon mirror 23 is rotated by the rotation drive unit 23a (FIG. 2A) (arrow c), the irradiation light projected through the mirror 27 is in the order of arrows e1, e2, e3 (arrows). d-direction), that is, in the main scanning direction, enters the measurement target surface 7P (see FIG. 3A) of the three-dimensional component 7 located above the opening 20a from the vertically lower side.

計測対象面7Pは、単位移載ヘッド12を移動させることにより、主走査方向であるY方向と直交する副走査方向に3Dセンサ15に対して相対移動する。上記構成において、回転駆動部23aによって回転するポリゴンミラー23は、レーザ光源部21によって発生したレーザ光を主走査方向に走査する走査手段となっている。そしてfθレンズ24は、単位移載ヘッド12を移動させることにより主走査方向と直交する副走査方向(X方向)に相対移動する計測対象面7Pに対して、走査されたレーザ光の走査光を所定の入射方向である垂直下方から入射させる走査光入射手段となっている。   The measurement target surface 7 </ b> P moves relative to the 3D sensor 15 in the sub-scanning direction orthogonal to the Y direction, which is the main scanning direction, by moving the unit transfer head 12. In the above configuration, the polygon mirror 23 rotated by the rotation driving unit 23a is a scanning unit that scans the laser light generated by the laser light source unit 21 in the main scanning direction. The fθ lens 24 moves the scanning light of the scanned laser light with respect to the measurement target surface 7P that moves relative to the sub scanning direction (X direction) orthogonal to the main scanning direction by moving the unit transfer head 12. It is a scanning light incident means for making the light incident from a vertically lower direction which is a predetermined incident direction.

レーザ光の入射方向の両側部には、3次元部品7からの反射光を受光可能な斜め下方に位置して、1対の第1PSD25AR,25AL(第1の位置検出素子群25A)および1対の第2PSD25BR、25BL(第2の位置検出素子群25B)が、垂直な入射方向(図3に示す矢印h参照)を挟んで左右対称に、受光面25a(図3(b)参照)を斜め上向きにして配置されている。   On both sides of the incident direction of the laser beam, a pair of first PSDs 25AR, 25AL (first position detection element group 25A) and one pair are positioned obliquely below where the reflected light from the three-dimensional component 7 can be received. The second PSDs 25BR and 25BL (second position detection element group 25B) are symmetrical with respect to the vertical incident direction (see arrow h shown in FIG. 3), and the light receiving surface 25a (see FIG. 3B) is inclined. Arranged upwards.

これらの第1の位置検出素子群25A、第2の位置検出素子群25Bの各PSDは、いずれも受光面25aに入射したスポット光の受光位置を検出する機能を有しており、この受光位置検出結果を用いることにより、三角測距法によって計測対象面7Pの計測対象部位の高さ位置を検出する。すなわちfθレンズ24を介して計測対象面7Pに入射した光は3次元部品7の下面の各部位によって下方に反射され、集光レンズ26によって集光されて2つの位置検出素子群25A,25Bの各PSDの受光面25aによって受光される(矢印f,g)。   Each PSD of the first position detection element group 25A and the second position detection element group 25B has a function of detecting the light receiving position of the spot light incident on the light receiving surface 25a. By using the detection result, the height position of the measurement target portion of the measurement target surface 7P is detected by the triangulation method. In other words, the light incident on the measurement target surface 7P through the fθ lens 24 is reflected downward by the respective parts on the lower surface of the three-dimensional component 7 and is condensed by the condenser lens 26 to be reflected by the two position detection element groups 25A and 25B. Light is received by the light receiving surface 25a of each PSD (arrows f and g).

ここで第1の位置検出素子群25A、第2の位置検出素子群25Bに属するPSDの受光面25aの計測対象面7Pに対する傾斜角度は、第1の位置検出素子群25Aに属する第1PSD25AR,25ALが計測対象面7Pに対して傾斜している傾斜角度θ1よりも、第2の位置検出素子群25Bに属する第2PSD25BR,25BLが計測対象面7Pに対して傾斜している傾斜角度θ2の方が大きくなるように設定されている(図3(b)参照)。   Here, the inclination angles of the light receiving surfaces 25a of the PSDs belonging to the first position detecting element group 25A and the second position detecting element group 25B with respect to the measurement target surface 7P are the first PSDs 25AR and 25AL belonging to the first position detecting element group 25A. The inclination angle θ2 at which the second PSDs 25BR and 25BL belonging to the second position detection element group 25B are inclined with respect to the measurement target surface 7P is more than the inclination angle θ1 at which the measurement target surface 7P is inclined. It is set to be large (see FIG. 3B).

すなわち本実施の形態においては、3次元部品7からの反射光の受光位置を検出する位置検出部25は、それぞれが入射方向を挟んで対称に配置され傾斜角度がより小さい第1の位置検出素子群25Aと、傾斜角度がより大きい第2の位置検出素子群25Bとを有している。すなわち各位置検出素子群に属する各PSDの受光面25aの計測対象面7Pに対する傾斜角度は、各対毎に相異なって設定されている。走査光の計測対象面7Pからの反射光の受光位置は、2つの位置検出素子群25A,25Bの各PSDによってそれぞれ検出され、これらの各PSDが受光することによって取得されたデータはデータ処理部15aによってデータ処理され、後述する3次元画像形成処理が行われる。   In other words, in the present embodiment, the position detection unit 25 that detects the light receiving position of the reflected light from the three-dimensional component 7 is arranged symmetrically across the incident direction, and the first position detection element having a smaller inclination angle. It has a group 25A and a second position detection element group 25B having a larger inclination angle. That is, the inclination angle of the light receiving surface 25a of each PSD belonging to each position detection element group with respect to the measurement target surface 7P is set differently for each pair. The light receiving position of the reflected light from the measurement target surface 7P of the scanning light is detected by each PSD of the two position detecting element groups 25A and 25B, and the data acquired by receiving each PSD is a data processing unit. Data processing is performed by 15a, and a three-dimensional image forming process described later is performed.

次に図3,図4を参照して、計測対象の3次元部品7の形状および3Dセンサ15の機能を説明する。図3(a)に示すように、実装対象となる3次元部品7は矩形状の本体部7aの4辺から複数のリード7bが延出した構造のリード付き部品である。リード7bの先端部は本体部7aの下面の底面7dよりも下方に位置して水平方向に屈曲したリード脚部7cとなっており、3次元部品7を基板3に実装した状態では、リード脚部7cの下面のリード当接面7eが基板3の回路電極に当接する。このような構成のリード付き部品の実装においては、リード脚部7cができるだけ同一平面内にあって実装状態においてすべてのリード7bが基板3の回路電極に均一に当接することが求められる。このため、3次元部品7を対象とする部品実装動作においては、リード7bの水平面内の平面形状に加えて高さ方向の形状異常(いわゆるリード浮き)を計測対象として、3Dセンサ15によって3次元部品7の3次元認識画像を取得するようにしている。   Next, the shape of the three-dimensional part 7 to be measured and the function of the 3D sensor 15 will be described with reference to FIGS. As shown in FIG. 3A, the three-dimensional component 7 to be mounted is a leaded component having a structure in which a plurality of leads 7b extend from four sides of a rectangular main body 7a. The leading end portion of the lead 7b is a lead leg portion 7c which is positioned below the bottom surface 7d of the lower surface of the main body portion 7a and bent in the horizontal direction. When the three-dimensional component 7 is mounted on the substrate 3, the lead leg portion 7b The lead contact surface 7e on the lower surface of the portion 7c contacts the circuit electrode of the substrate 3. In mounting the leaded component having such a configuration, it is required that the lead leg portion 7c is in the same plane as much as possible and all the leads 7b are in contact with the circuit electrodes of the substrate 3 evenly in the mounted state. For this reason, in the component mounting operation for the three-dimensional component 7, in addition to the planar shape of the lead 7 b in the horizontal plane, the shape abnormality in the height direction (so-called lead floating) is measured and the 3D sensor 15 performs three-dimensional measurement. A three-dimensional recognition image of the component 7 is acquired.

3Dセンサ15による3次元部品7の3次元認識においては、前述の走査手段によってレーザ光を主走査方向(Y方向)に走査させるとともに、3次元部品7を実装ヘッド11によってX方向に移動させることにより計測対象面7Pに対してレーザ光を2次元的に走査させる。すなわち、図4(a)に示すように、前述の走査手段によってレーザ光を走査線SLに沿って主走査方向(Y方向)に走査させながら(矢印k)、実装ヘッド11によって3次元部品7を副走査方向(X方向)に所定の走査速度で移動させる(矢印l)ことにより、走査線SLを所定の走査線間隔で移動させる。   In the three-dimensional recognition of the three-dimensional component 7 by the 3D sensor 15, the laser beam is scanned in the main scanning direction (Y direction) by the above-described scanning means, and the three-dimensional component 7 is moved in the X direction by the mounting head 11. Thus, the laser beam is scanned two-dimensionally on the measurement target surface 7P. That is, as shown in FIG. 4A, while the laser beam is scanned in the main scanning direction (Y direction) along the scanning line SL by the above-described scanning means (arrow k), the mounting head 11 causes the three-dimensional component 7 to be scanned. Is moved in the sub-scanning direction (X direction) at a predetermined scanning speed (arrow l), thereby moving the scanning lines SL at predetermined scanning line intervals.

図3(a)は、このようにして走査させたレーザ光の入射光が垂直下方の入射方向(矢印h)から1つのリード7bのリード当接面7eに入射した状態を示している。この入射光の反射光(矢印i1)は集光レンズ26を介して第1PSD25Aの受光面によって受光され、このとき第1PSD25Aの両端部の端部電極A,Bからそれぞれ出力される電気信号をデータ処理部15aが受信することにより、受光面における受光位置d1が検出される。なおここでは第1PSD25AR,25ALの場合についてのみ図示して説明したが、第2PSD25BR,25BLについても同様である。   FIG. 3A shows a state in which the incident light of the laser beam thus scanned is incident on the lead contact surface 7e of one lead 7b from the vertically lower incident direction (arrow h). The reflected light (arrow i1) of the incident light is received by the light receiving surface of the first PSD 25A via the condenser lens 26. At this time, the electrical signals output from the end electrodes A and B at both ends of the first PSD 25A are used as data. By receiving the processing unit 15a, the light receiving position d1 on the light receiving surface is detected. Although only the case of the first PSDs 25AR and 25AL has been illustrated and described here, the same applies to the second PSDs 25BR and 25BL.

ここで第1PSD25AR、25AL、第2PSD25BR、25BLをそれぞれ入射光軸に関して対配置して位置検出素子群として用いているのは、計測光の入射点近傍に微小突起など不均一な反射光を発生する要因が存在して特定方向への反射光が遮られるような場合にも、他方向への反射光を確実に受光して正常な計測結果を得るようにするためである。すなわち、本実施の形態においてはそれぞれの位置検出素子群にはR/Lの2つの信号取得チャンネル(以下、Rch,Lchと略記する)が設けられており、Rch,Lchによって取得された信号データを適宜選択または組み合わせて画像形成用のデータとして用いるようにしている。   Here, the first PSD 25AR, 25AL, second PSD 25BR, 25BL are arranged in pairs with respect to the incident optical axis and used as a position detection element group, which generates non-uniform reflected light such as minute protrusions near the incident point of the measurement light. This is because even when there is a factor and the reflected light in a specific direction is blocked, the reflected light in the other direction is surely received to obtain a normal measurement result. That is, in this embodiment, each position detection element group is provided with two R / L signal acquisition channels (hereinafter abbreviated as Rch and Lch), and signal data acquired by Rch and Lch. Are appropriately selected or combined to be used as data for image formation.

このようにして検出された受光位置d1に基づき、三角測距法によって入射位置のリード脚部7cの高さが求められる。破線で示すリード7bは低い位置にある状態を示しており、この場合には反射光(矢印i2)が受光されることにより第1PSD25AR、25ALの受光面25aにおいて受光位置d1と異なる受光位置d2が検出され、これにより破線で示すリード7bの高さが求められる。このようにして計測対象面7Pの全範囲についてレーザ光を走査させながら各走査点毎の高さを求めることにより、計測対象面7Pにおける3次元部品7の3次元形状を示す高さ情報を検出することができる。そして本実施の形態においては、計測対象面7Pの平面情報を示す2次元画像における各画素の輝度によって、図4(b)に示す各走査点の高さ情報を表す3次元認識画像を形成するようにしている。   Based on the light receiving position d1 thus detected, the height of the lead leg portion 7c at the incident position is obtained by the triangulation method. A lead 7b indicated by a broken line indicates a state at a low position. In this case, a light receiving position d2 different from the light receiving position d1 on the light receiving surface 25a of the first PSD 25AR, 25AL is received by receiving reflected light (arrow i2). As a result, the height of the lead 7b indicated by the broken line is obtained. In this way, the height information indicating the three-dimensional shape of the three-dimensional component 7 on the measurement target surface 7P is detected by obtaining the height of each scanning point while scanning the laser beam over the entire range of the measurement target surface 7P. can do. In the present embodiment, the three-dimensional recognition image representing the height information of each scanning point shown in FIG. 4B is formed by the luminance of each pixel in the two-dimensional image representing the plane information of the measurement target surface 7P. I am doing so.

図4(b)において、3次元認識画像を示す認識画面29には、暗像で表される背景部29a中に、底面7d、リード裏面7f、リード当接面7eの平面形状が、それぞれの高さに応じて異なる輝度で表示される。すなわち最も下方に位置するリード当接面7eが最も高輝度で表されれ、底面7d、リード裏面7fの順に低い輝度で表される。このようにして形成された3次元認識画像を画像認識処理することにより、3次元部品7の位置や形状を検査する部品認識において、リード7bの延出長さaやリード幅b、リードピッチpなどの水平面内での形状・位置不良の有無に加えて、リード浮きhなどの高さ方向の形状、すなわち3次元形状における不良の有無を検出することができる。   In FIG. 4B, on the recognition screen 29 showing the three-dimensional recognition image, the planar shapes of the bottom surface 7d, the lead back surface 7f, and the lead contact surface 7e are shown in the background portion 29a represented by the dark image. It is displayed with different brightness depending on the height. That is, the lowermost lead contact surface 7e is represented with the highest luminance, and the bottom surface 7d and the lead back surface 7f are represented with the lower luminance in this order. In the component recognition for inspecting the position and shape of the three-dimensional component 7 by performing image recognition processing on the three-dimensional recognition image formed in this way, the extension length a, the lead width b, and the lead pitch p of the lead 7b. In addition to the presence / absence of a shape / position defect in a horizontal plane such as the above, it is possible to detect the presence / absence of a defect in a height direction such as a lead float h, that is, a three-dimensional shape.

ここで図3(b)を参照して、3Dセンサ15における第1の位置検出素子群25A、第2の位置検出素子群25Bに属するPSDの配置姿勢とそれぞれの受光面25aが受光する受光量との関係を説明する。ここでは、第1PSD25AR、第2PSD25BRについて説明するが、第1PSD25AL、第2PSD25BLについても同様である。   Here, referring to FIG. 3B, the arrangement posture of the PSD belonging to the first position detection element group 25A and the second position detection element group 25B in the 3D sensor 15 and the amount of light received by each light receiving surface 25a. Will be described. Here, the first PSD 25AR and the second PSD 25BR will be described, but the same applies to the first PSD 25AL and the second PSD 25BL.

第1PSD25ARは計測対象面7Pに対して所定の傾斜角度θ1(例えば15°)で配置されており、第2PSD25BRは計測対象面7Pに対して傾斜角度θ1よりも大きい傾斜角度θ2(例えば35°)で配置されている。このため、上方の計測対象物からの反射光(矢印j1,j2)が受光面25aに入光する際の入射角は、第1PSD25ARにおける入射角α1よりも第2PSD25BRにおける入射角α2の方が小さくなる。したがって、第1PSD25AR、第2PSD25BRにおいて受光面25aが単位面積あたりに受光する光量は、入射する反射光の強度が同じならば傾斜角度θ1の小さい第1PSD25ARの方が第2PSD25BRよりも大きくなる。   The first PSD 25AR is arranged with a predetermined inclination angle θ1 (for example, 15 °) with respect to the measurement target surface 7P, and the second PSD 25BR has an inclination angle θ2 (for example, 35 °) larger than the inclination angle θ1 with respect to the measurement target surface 7P. Is arranged in. Therefore, the incident angle when the reflected light (arrows j1, j2) from the upper measurement object enters the light receiving surface 25a is smaller at the incident angle α2 at the second PSD25BR than at the incident angle α1 at the first PSD25AR. Become. Therefore, the amount of light received by the light receiving surface 25a per unit area in the first PSD 25AR and the second PSD 25BR is larger in the first PSD 25AR having a smaller inclination angle θ1 than in the second PSD 25BR if the intensity of the incident reflected light is the same.

そして受光面25aが受光する光量は、反射状態によっても大きく変動するため、受光面25aが単位面積あたりに受光する光量は、走査対象部位の表面性状、すなわち入射した光を特定方向に反射する全反射の状態か、あるいは入射した光をランダムな方向に反射する乱反射の状態かによって大きく変動する。このような受光面25aが受光する光量の変動が、第1PSD25AR、25AL、第2PSD25BR,25BLの作動特性によって規定される所定の光量範囲からはずれている場合には、これらのPSDから出力される高さ情報は必ずしも計測対象面7Pの3次元形状を正しく反映させたものとはならず、局部的に誤った情報を含む3次元認識画像が形成される。この光量の過大・過小に起因する不具合の発生態様および本実施の形態におけるその対応策については後述する。   Since the amount of light received by the light receiving surface 25a varies greatly depending on the reflection state, the amount of light received by the light receiving surface 25a per unit area is the surface property of the scanning target part, that is, the total amount that reflects incident light in a specific direction. It varies greatly depending on whether it is in a reflection state or in a diffuse reflection state in which incident light is reflected in a random direction. When the variation in the amount of light received by the light receiving surface 25a deviates from the predetermined light amount range defined by the operating characteristics of the first PSD 25AR, 25AL, second PSD 25BR, 25BL, the high output from these PSDs The information does not necessarily reflect the three-dimensional shape of the measurement target surface 7P correctly, and a three-dimensional recognition image including locally incorrect information is formed. A mode of occurrence of a problem caused by the excessive / small amount of light and a countermeasure for the present embodiment will be described later.

次に図5を参照して制御系の構成を説明する。制御装置30(制御部)は部品実装機構、すなわち基板搬送機構2、Y軸移動テーブル9、X軸移動テーブル10A、X軸移動テーブル10Bよりなるヘッド駆動機構および部品供給部4A、部品供給部4Bを制御することにより、部品供給部4A、部品供給部4Bから取り出した部品を基板3に実装する部品実装動作が実行される。認識部31は制御装置30によって制御されて、基板カメラ13,部品カメラ14、3Dセンサ15により取得された認識画像を認識処理する。基板カメラ13によって取得された認識画像を認識処理することにより、基板3における部品実装点の位置が認識される。   Next, the configuration of the control system will be described with reference to FIG. The control device 30 (control unit) includes a component mounting mechanism, that is, a substrate transport mechanism 2, a Y-axis movement table 9, an X-axis movement table 10A, an X-axis movement table 10B, a head drive mechanism, a component supply unit 4A, and a component supply unit 4B. The component mounting operation for mounting the components taken out from the component supply unit 4A and the component supply unit 4B on the substrate 3 is executed. The recognition unit 31 is controlled by the control device 30 to perform recognition processing on the recognition image acquired by the board camera 13, the component camera 14, and the 3D sensor 15. By recognizing the recognition image acquired by the board camera 13, the position of the component mounting point on the board 3 is recognized.

部品カメラ14によって取得された認識画像を認識処理することにより、実装ヘッド11に保持された状態の部品の識別や位置ずれ状態が検出される。3Dセンサ15によって取得された3次元認識画像を認識処理することにより、3Dセンサ15に保持された状態の3次元部品7の3次元形状部分を有する部品の部品状態が検出される。すなわち、認識部31は、画像形成装置としての3Dセンサ15によって形成された3次元認識画像に基づいて、3次元部品7の電極部(図3に示すリード7b参照)の位置および高さを認識する処理を行う。   By recognizing the recognition image acquired by the component camera 14, the identification of the component held in the mounting head 11 and the misalignment state are detected. By performing a recognition process on the three-dimensional recognition image acquired by the 3D sensor 15, the component state of the component having the three-dimensional shape portion of the three-dimensional component 7 held by the 3D sensor 15 is detected. That is, the recognition unit 31 recognizes the position and height of the electrode part (see the lead 7b shown in FIG. 3) of the three-dimensional component 7 based on the three-dimensional recognition image formed by the 3D sensor 15 as the image forming apparatus. Perform the process.

3Dセンサ15は、第1の位置検出素子群25A(第1PSD25AR、25AL)、第2の位置検出素子群25B(第2PSD25BR,25BL)を有する位置検出部25からの出力信号をデータ処理するデータ処理部15aを備えている。データ処理部15aは、これらの出力信号をデータ処理することにより、3次元部品7の計測対象面7Pの3次元画像を形成する。記憶部32は、部品実装作業を実行するための必要な各種のプログラムやデータに加えて、部品カメラ14、3Dセンサ15による部品検査における異常の有無判定のための検査データを記憶する。入出力部33は、キーボードやタッチパネルなどによる操作指令やデータを入力する入力処理、表示パネルに画面を表示させる出力処理を行う。   The 3D sensor 15 performs data processing on the output signal from the position detection unit 25 having the first position detection element group 25A (first PSD 25AR, 25AL) and the second position detection element group 25B (second PSD 25BR, 25BL). A portion 15a is provided. The data processing unit 15a processes these output signals to form a three-dimensional image of the measurement target surface 7P of the three-dimensional component 7. The storage unit 32 stores inspection data for determining whether or not there is an abnormality in the component inspection by the component camera 14 and the 3D sensor 15 in addition to various programs and data necessary for executing the component mounting operation. The input / output unit 33 performs input processing for inputting operation commands and data using a keyboard, a touch panel, and the like, and output processing for displaying a screen on the display panel.

次に図6を参照して、上述構成の3Dセンサ15を用いた画像形成に際してPSDが受光する光量の過大・過小に起因して、3次元画像に生じる不具合例について説明する。図6(a)は認識対象の3次元部品7の一部を示しており、ここでは楕円で示す部位(イ)(ロ)内のリード当接面7eが認識対象となる場合に生じる誤認識について説明する。3次元部品7を対象とする3次元認識においては、部位(イ)(ロ)内はそれぞれ走査線SL1、走査線SL2のように走査され、各走査点が図3(a)にて示す高さ情報の取得対象となる。   Next, with reference to FIG. 6, a description will be given of an example of a problem that occurs in a three-dimensional image due to an excessive or too small amount of light received by the PSD during image formation using the 3D sensor 15 having the above-described configuration. FIG. 6A shows a part of the three-dimensional component 7 to be recognized, and here, erroneous recognition that occurs when the lead contact surface 7e in the portion (A) (B) indicated by an ellipse is the recognition target. Will be described. In the three-dimensional recognition for the three-dimensional component 7, the parts (A) and (B) are scanned as the scanning lines SL1 and SL2, respectively, and the respective scanning points are shown in FIG. It becomes the acquisition target of information.

図6(b)は、上述の走査処理における第1PSD25AR(または25AL)、第2PSD25BR(または25BL)のそれぞれの受光量を示しており、受光量グラフ(イ)、(ロ)は、それぞれ図6(a)に示す部位(イ)(ロ)を対象とする走査によって取得される受光量データを示している。ここで受光量曲線L1,L2は、それぞれ第1PSD25AR(または25AL)、第2PSD25BR(または25BL)によって個別に受光された受光量を示している。また受光量グラフ(イ)、(ロ)にて設定された第1閾値TH1、第2閾値TH2は、第1PSD25AR(または25AL)、第2PSD25BR(または25BL)によって正常な受光位置検出結果を得ることができる光量を規定する閾値である。すなわち、上限値を第1閾値TH1とし下限値を第2閾値TH2とする所定の範囲内の光量を受光している場合にのみ、第1PSD25AR(または25AL)、第2PSD25BR(または25BL)は正常に受光位置を検出する。   FIG. 6B shows the received light amounts of the first PSD 25AR (or 25AL) and the second PSD 25BR (or 25BL) in the scanning process described above, and the received light amount graphs (A) and (B) are shown in FIG. The figure shows received light amount data acquired by scanning the region (a) and (b) shown in (a). Here, the received light amount curves L1 and L2 indicate the received light amounts individually received by the first PSD 25AR (or 25AL) and the second PSD 25BR (or 25BL), respectively. In addition, the first threshold value TH1 and the second threshold value TH2 set in the received light amount graphs (a) and (b) are obtained by the first PSD25AR (or 25AL) and the second PSD25BR (or 25BL) to obtain a normal light reception position detection result. This is a threshold value that defines the amount of light that can be generated. In other words, the first PSD 25AR (or 25AL) and the second PSD 25BR (or 25BL) are normally operated only when a light amount within a predetermined range in which the upper limit value is the first threshold value TH1 and the lower limit value is the second threshold value TH2 is received. Detect the light receiving position.

図6(b)に示す例では、受光量グラフ(イ)において、受光量曲線L1は第1閾値TH1、第2閾値TH2によって規定される適正範囲内にあり、受光量曲線L2は、第2閾値TH2よりも少ない値を示している。換言すれば、図6(a)に示す部位(イ)については、受光量が適正範囲内の受光量曲線L1を与える第1PSD25AR(または25AL)による受光位置検出結果は正常であるものの、受光量が適正範囲からはずれた受光量曲線L2を与える第2PSD25BR(または25BL)による受光位置検出結果は正しくないことを示している。   In the example shown in FIG. 6B, in the received light amount graph (A), the received light amount curve L1 is within an appropriate range defined by the first threshold value TH1 and the second threshold value TH2, and the received light amount curve L2 is the second light amount curve L2. The value is smaller than the threshold value TH2. In other words, for the part (A) shown in FIG. 6A, the light reception position detection result by the first PSD 25AR (or 25AL) that gives the light reception amount curve L1 within the appropriate range of the light reception amount is normal, but the light reception amount Indicates that the light reception position detection result by the second PSD 25BR (or 25BL) that gives the light reception amount curve L2 deviating from the appropriate range is not correct.

すなわち、第1PSD25AR(または25AL)による受光位置検出結果によれば、図4(b)に示すように、底面7d、リード裏面7f、リード当接面7eの平面形状が、それぞれの高さに応じて異なる輝度で表示された3次元認識画像を得ることができる。これに対し第2PSD25BR(または25BL)による受光位置検出結果を用いると、受光量が閾値範囲からはずれて過小であることに起因して、図6(c)の画像例(イ)に示すように、本来高輝度部分として表れるべきリード当接面7eの範囲が部分的に欠損して暗像範囲に含まれる黒抜け部E1となって現れる。   That is, according to the light receiving position detection result by the first PSD 25AR (or 25AL), as shown in FIG. 4 (b), the planar shapes of the bottom surface 7d, the lead back surface 7f, and the lead contact surface 7e are in accordance with the respective heights. 3D recognition images displayed with different brightness can be obtained. On the other hand, when the light receiving position detection result by the second PSD 25BR (or 25BL) is used, as shown in the image example (A) in FIG. The range of the lead contact surface 7e that should originally appear as a high brightness portion is partially lost and appears as a black missing portion E1 included in the dark image range.

また受光量グラフ(ロ)においては、受光量曲線L1は部分的に第1閾値TH1を超えた大きな値となって規定の閾値範囲から部分的にはみ出しており、受光量曲線L2は、第1閾値TH1、第2閾値TH2によって規定される閾値範囲内にある場合の例を示している。換言すれば、図6(a)に示す部位(ロ)については、受光量が閾値範囲内にある受光量曲線L2を与える第2PSD25BR(または25BL)による受光位置検出結果は正常であるものの、受光量が閾値範囲からはずれた受光量曲線L1を与える第1PSD25AR(または25BL)による受光位置検出結果は正しくないことを示している。   In the received light amount graph (b), the received light amount curve L1 partially becomes a large value exceeding the first threshold value TH1 and partially protrudes from the specified threshold range. The example in the case where it exists in the threshold value range prescribed | regulated by threshold value TH1 and 2nd threshold value TH2 is shown. In other words, for the part (b) shown in FIG. 6A, although the light reception position detection result by the second PSD 25BR (or 25BL) that gives the light reception amount curve L2 in which the light reception amount is within the threshold range is normal, This indicates that the light reception position detection result by the first PSD 25AR (or 25BL) that gives the light reception amount curve L1 whose amount is out of the threshold range is not correct.

すなわち、第2PSD25BR(または25BL)による受光位置検出結果によれば、図4(b)に示すように、底面7d、リード裏面7f、リード当接面7eの平面形状が、それぞれの高さに応じて異なる輝度で表示された3次元認識画像を得ることができる。これに対し第1PSD25AR(または25AL)による受光位置検出結果を用いると、受光量が閾値範囲からはずれて過大であることに起因して、図6(c)の画像例(ロ)に示すように、高輝度部分として表れるリード当接面7eの範囲が後続走査線側の暗像範囲に部分的にはみ出したノイズ部E2となって現れる。この現象は、受光量が過大であるために1回の走査の受光による電荷が、次の走査までに端部電極A,B(図3(a))から完全に抜けきれずに滞留し、この滞留分が誤差となることによって発生する。   That is, according to the light receiving position detection result by the second PSD 25BR (or 25BL), as shown in FIG. 4B, the planar shapes of the bottom surface 7d, the lead back surface 7f, and the lead contact surface 7e are in accordance with the respective heights. 3D recognition images displayed with different brightness can be obtained. On the other hand, when the light reception position detection result by the first PSD 25AR (or 25AL) is used, as shown in the image example (b) of FIG. The range of the lead contact surface 7e that appears as a high luminance portion appears as a noise portion E2 that partially protrudes into the dark image range on the subsequent scanning line side. This phenomenon is because the amount of light received is excessive, so that the charge due to the light received in one scan stays without being completely removed from the end electrodes A and B (FIG. 3 (a)) until the next scan, It occurs when this staying part becomes an error.

このような位置検出素子が受光する光量の過不足に起因する検出不具合を防止するため、本実施の形態では、3Dセンサ15に用いられる位置検出部25を、同一部位から反射された光を異なる光量で受光することが可能な2対の位置検出素子群(第1の位置検出素子群25A、第2の位置検出素子群25B)を有する構成において、以下に説明するように、適正な光量範囲で取得されたデータのみを採用するとともに、同一の位置検出素子群に属する2つのPSDによる受光位置検出結果の差異が基準値以内である場合にのみ、当該データを3次元画像形成のためのデータとして採用するようにしている。   In this embodiment, in order to prevent detection failure caused by excess or deficiency of the amount of light received by the position detection element, the position detection unit 25 used in the 3D sensor 15 is configured to change the light reflected from the same part. In a configuration having two pairs of position detection element groups (first position detection element group 25A and second position detection element group 25B) capable of receiving light with a light amount, as described below, an appropriate light amount range Only when the difference between the light reception position detection results by two PSDs belonging to the same position detection element group is within the reference value, and the data is used for forming a three-dimensional image. I am trying to adopt it.

以下、このような検出不具合を防止するために本実施の形態において、データ処理部15aが備えた構成について、図7、図8、図9を参照して説明する。図7に示すように、データ処理部15aは、位置検出部25を構成する各PSDからの出力を受信して所定のデータ処理を行う受光量判定部34、受光位置検出結果判定部35、画像形成部36を有しており、さらに画像形成部36は、処理機能モジュールとして高さ計算モジュール37、ch選択モジュール38、PSD角度選択モジュール39および画像形成モジュール40を備えている。   Hereinafter, in order to prevent such a detection defect, the configuration of the data processing unit 15a in the present embodiment will be described with reference to FIGS. 7, 8, and 9. FIG. As shown in FIG. 7, the data processing unit 15a receives an output from each PSD constituting the position detection unit 25 and performs predetermined data processing, a received light amount determination unit 34, a received light position detection result determination unit 35, and an image. The image forming unit 36 further includes a height calculating module 37, a channel selecting module 38, a PSD angle selecting module 39, and an image forming module 40 as processing function modules.

受光量判定部34は、位置検出部25を構成する各PSDが受光する光量が所定の範囲内にあるか否かを判定する処理を行う。受光位置検出結果判定部35は、同一の位置検出素子群に属するPSDによる反射光の受光位置検出結果の差異の大きさが、所定の基準値以下であるか否かを判定する処理を行う。なお受光位置検出結果判定部35による判定は、受光量判定部34によって受光する光量が所定の範囲内であると判定された場合にのみ実行される。画像形成部36は、位置検出部25の受光位置検出結果に基づき、受光量判定部34および受光位置検出結果判定部35の判定結果を加味して、計測対象面7Pの3次元認識画像を形成する処理を行う。   The received light amount determination unit 34 performs processing for determining whether or not the amount of light received by each PSD constituting the position detection unit 25 is within a predetermined range. The light reception position detection result determination unit 35 performs a process of determining whether or not the magnitude of the difference in the light reception position detection result of the reflected light by the PSDs belonging to the same position detection element group is equal to or less than a predetermined reference value. The determination by the light reception position detection result determination unit 35 is executed only when the amount of light received by the light reception amount determination unit 34 is determined to be within a predetermined range. The image forming unit 36 forms a three-dimensional recognition image of the measurement target surface 7P based on the light reception position detection result of the position detection unit 25 and the determination results of the light reception amount determination unit 34 and the light reception position detection result determination unit 35. Perform the process.

高さ計算モジュール37は、位置検出部25の受光位置検出結果に基づき、図3(a)に示す方法により計測対象部位の高さを求める処理を行う。ch選択モジュール38は、位置検出部25から出力されるRch、Lchの信号データのうちいずれを採用するかを、受光量判定部34、受光位置検出結果判定部35の判定結果に基づいて選択する処理機能を有している。PSD角度選択モジュール39は、傾斜角度が異なる第1の位置検出素子群25A、第2の位置検出素子群25Bのいずれに属するPSDからの信号データを選択する機能を有するものである。画像形成モジュール40は、このようにしてch選択がなされ、さらに位置検出素子群の選択がなされて特定されたPSDからの信号データを用いて、高さ計算モジュール37によって計算された高さ計算結果に基づき、計測対象面7Pの3次元画像を形成する処理を行う。   The height calculation module 37 performs a process of obtaining the height of the measurement target part by the method shown in FIG. 3A based on the light reception position detection result of the position detection unit 25. The ch selection module 38 selects which of Rch and Lch signal data output from the position detection unit 25 is to be used based on the determination results of the received light amount determination unit 34 and the received light position detection result determination unit 35. It has a processing function. The PSD angle selection module 39 has a function of selecting signal data from PSDs belonging to either the first position detection element group 25A or the second position detection element group 25B having different inclination angles. In the image forming module 40, the height calculation result calculated by the height calculation module 37 using the signal data from the PSD specified by selecting the channel and further selecting the position detection element group in this way. Based on the above, a process of forming a three-dimensional image of the measurement target surface 7P is performed.

ch選択モジュール38によるデータ選択機能について、図8を参照して説明する。図8に示す判定対応表において、R側光量上限判定欄38Ra、R側光量下限判定欄38Rb、L側光量上限判定欄38La、L側光量下限判定欄38Lbはいずれも受光量判定部34による判定結果に対応しており、R側位置検出差異判定欄38Rc、L側位置検出差異判定欄38Lcは受光位置検出結果判定部35による判定結果に対応している。   The data selection function by the channel selection module 38 will be described with reference to FIG. In the determination correspondence table shown in FIG. 8, the R-side light intensity upper limit determination field 38Ra, the R-side light intensity lower limit determination field 38Rb, the L-side light intensity upper limit determination field 38La, and the L-side light intensity lower limit determination field 38Lb are all determined by the received light amount determination unit 34. The R-side position detection difference determination column 38Rc and the L-side position detection difference determination column 38Lc correspond to the determination results by the light receiving position detection result determination unit 35.

すなわち、R側光量上限判定欄38Ra、L側光量上限判定欄38Laにおいて光量上限:OK(NG)とは、図6(b)に示す受光量が予め設定された第1閾値TH1以下(超過)であることを示しており、R側光量下限判定欄38Rb、L側光量下限判定欄38Lbにおいて光量下限:OK(NG)とは、光量が予め設定された第2閾値TH2以上(未満)であることを示している。そしてR側位置検出差異判定欄38Rc、L側位置検出差異判定欄38Lcにおいて、|R−L|:OK(NG)とは、Rch、Lchの信号データに基づくそれぞれの受光位置の差異の絶対値が、予め正常な状態であるとして定められた基準値以内(超過)であることを示している。なお、光量上限:OK、光量下限:OKの条件が満たされていない場合には、R側位置検出差異判定欄38Rc、L側位置検出差異判定欄38Lcの判定は行われない。   That is, in the R-side light intensity upper limit determination field 38Ra and the L-side light intensity upper limit determination field 38La, the light intensity upper limit: OK (NG) is equal to or less than the first threshold value TH1 set in advance as shown in FIG. In the R-side light intensity lower limit determination field 38Rb and the L-side light intensity lower limit determination field 38Lb, the light intensity lower limit: OK (NG) is equal to or greater than (less than) a second threshold TH2 set in advance. It is shown that. In the R-side position detection difference determination field 38Rc and the L-side position detection difference determination field 38Lc, | R−L |: OK (NG) is the absolute value of the difference between the light receiving positions based on the Rch and Lch signal data. Indicates that the value is within (exceeded) a reference value determined in advance as being in a normal state. In addition, when the conditions of the light quantity upper limit: OK and the light quantity lower limit: OK are not satisfied, the determination of the R side position detection difference determination column 38Rc and the L side position detection difference determination column 38Lc is not performed.

そしてこれらの受光量判定結果、受光位置検出結果判定結果に基づき、Rch、Lchの信号データのいずれを採用するかが決定される。すなわち、Rch、Lchのいずれにおいても受光量が適正範囲内で光量上限:OK、光量下限:OKの条件が満たされ、且つ受光位置の差異の絶対値が基準値以内(|R−L|:OK)である場合には、図8の(イ)に示すように、Rch、Lchの信号データを平均した値が画像形成用のデータとして採用される。   Based on these light reception amount determination results and light reception position detection result determination results, it is determined which of the Rch and Lch signal data is to be used. That is, in both Rch and Lch, the amount of received light is within an appropriate range, the light amount upper limit: OK, the light amount lower limit: OK is satisfied, and the absolute value of the difference between the light receiving positions is within a reference value (| R−L |: In the case of (OK), as shown in (a) of FIG. 8, a value obtained by averaging the Rch and Lch signal data is adopted as the data for image formation.

これに対し、Lchにおいては光量上限:OK、光量下限:OKの条件が満たされているものの、Rchにおいては光量上限:OK、光量下限:OKの条件が満たされていない場合には、図8の(ロ)に示すように、Lchの信号データが画像形成用のデータとして採用される。反対に、Rchにおいては光量上限以下、光量下限以上の条件が満たされているものの、Lchにおいては光量上限以下、光量下限以上の条件が満たされていない場合には、図8の(ハ)に示すように、Rchの信号データが画像形成用のデータとして採用される。   On the other hand, in the Lch, the upper limit of the light amount: OK and the lower limit of the light amount: OK are satisfied, but the upper limit of the light amount: OK and the lower limit of the light amount: OK are not satisfied in the Rch. As shown in (b), Lch signal data is adopted as image formation data. On the other hand, if the conditions for the Rch are below the upper limit of the light quantity and above the lower limit of the light quantity are satisfied, but the conditions for the Lch are below the upper limit of the light quantity and above the lower limit of the light quantity are not satisfied, As shown, Rch signal data is employed as data for image formation.

なお図8において正常に信号データが出力される(イ)(ロ)(ハ)以外の場合については、以下のように取り扱われる。まずRch、Lchのいずれかにおいて、光量上限:OK、光量下限:OKの条件が満たされてはいるものの、|R−L|:NGの場合には、当該チャンネルからの信号データは出力しない。また、Rch、Lchのいずれにおいても光量上限:NG、光量下限:OKとなっている場合には、光量が過大な特異点であることを示す固定データ値(1023)を出力する。そしてそれ以外の場合、すなわちRch、Lchのいずれにおいても|R−L|:NGの場合、またはRch、Lchのいずれかにおいて光量上限:OK、光量下限:NGの場合には、固定データ値(0)を出力するようにしている。このような取り扱いは便宜上設定されるものであり、実際の運用上適当と考えられる範囲内で適宜変更可能である。   In FIG. 8, cases other than (a), (b), and (c) in which signal data are normally output are handled as follows. First, in either of Rch and Lch, although the conditions of the upper limit of light quantity: OK and the lower limit of light quantity: OK are satisfied, signal data from the channel is not output when | R−L |: NG. Further, in both Rch and Lch, when the light amount upper limit is NG and the light amount lower limit is OK, a fixed data value (1023) indicating that the light amount is an excessive singular point is output. In other cases, that is, in the case of | R−L |: NG in both Rch and Lch, or in the case of either Rch or Lch, the upper limit of light quantity: OK and the lower limit of light quantity: NG, a fixed data value ( 0) is output. Such handling is set for convenience, and can be changed as appropriate within a range that is considered appropriate in actual operation.

次にPSD角度選択モジュール39によるデータ選択機能について、図9を参照して説明する。ここでは、ch選択モジュール38によるch選択が行われた後に、傾斜角度の相異なる第1の位置検出素子群25A、第2の位置検出素子群25Bのいずれから出力される信号データを採用するかを選択するものである。PSD角度選択モジュール39においても、受光量判定部34による受光量判定結果に基づいて、採用するPSDが選択される。すなわち図9に示す判定対応表において、受光量判定結果組合わせ欄39a、39bは、それぞれ第1の位置検出素子群25A(第1PSD)、第2の位置検出素子群25B(第2PSD)について、Rch、Lchのそれぞれにおける受光量判定結果の組み合わせの種類を示している。ここで、Rch、LchについてOKとは、図8に示す光量上限:OK、光量下限:OKの条件がいずれも満たされて光量が適正範囲にある場合を示している。そしてRch、LchについてNGとは、上述以外の場合であって光量が適正範囲をはずれて過大・または過小となっている場合を示す。   Next, the data selection function by the PSD angle selection module 39 will be described with reference to FIG. Here, after the channel selection by the channel selection module 38 is performed, the signal data output from the first position detection element group 25A or the second position detection element group 25B having different inclination angles is adopted. Is to select. Also in the PSD angle selection module 39, the PSD to be adopted is selected based on the light reception amount determination result by the light reception amount determination unit 34. That is, in the determination correspondence table shown in FIG. 9, the received light amount determination result combination fields 39a and 39b are respectively for the first position detection element group 25A (first PSD) and the second position detection element group 25B (second PSD). The types of combinations of received light amount determination results for each of Rch and Lch are shown. Here, OK for Rch and Lch indicates a case where the light amount upper limit: OK and the light amount lower limit: OK conditions shown in FIG. 8 are both satisfied and the light amount is in the proper range. In addition, NG for Rch and Lch indicates cases other than those described above, where the light amount is too large or too small outside the appropriate range.

そしてこれらの受光量判定結果の組み合わせに基づき、第1の位置検出素子群25Aから出力される信号データ(第1PSDデータ)、第2の位置検出素子群25Bから出力される信号データ(第2PSDデータ)のいずれを選択するかが決定される。すなわち、第1PSD、第2PSDのいずれにおいてもRch:OK且つLch:OKの条件が満たされている場合には、図9の(ニ)に示すように、第1PSDデータ、第2PSDデータを平均した値が画像形成用のデータとして採用される。なおこの場合において、第1PSDデータを単独で用いるようにしてもよい。   Based on the combination of the received light amount determination results, the signal data (first PSD data) output from the first position detection element group 25A and the signal data (second PSD data) output from the second position detection element group 25B. ) Is selected. That is, when the conditions of Rch: OK and Lch: OK are satisfied in both the first PSD and the second PSD, the first PSD data and the second PSD data are averaged as shown in FIG. The value is adopted as data for image formation. In this case, the first PSD data may be used alone.

また第1PSDにおいてRch:OK且つLch:OKの条件が満たされているものの、第2PSDにおいてRchまたはLchの少なくとも1つがNGの場合には、図9の(ホ)に示すように、第1PSDデータが画像形成用のデータとして採用される。また第2PSDにおいてRch:OK且つLch:OKの条件が満たされているものの、第1PSDにおいてRchまたはLchの少なくとも1つがNGの場合には、図9の(ヘ)に示すように、第2PSDデータが画像形成用のデータとして採用される。なお上述の(ニ)(ホ)(ヘ)の場合には、Rch、Lchの信号データを平均した値が画像形成用のデータとして用いられる。   If the RPS: OK and Lch: OK conditions are satisfied in the first PSD, but at least one of Rch or Lch is NG in the second PSD, as shown in FIG. Are employed as data for image formation. If the RPS: OK and Lch: OK conditions are satisfied in the second PSD, but at least one of Rch or Lch is NG in the first PSD, as shown in FIG. Are employed as data for image formation. In the case of (d), (e), and (f) described above, a value obtained by averaging Rch and Lch signal data is used as image forming data.

そして第2PSDにおいてRch:OK且つLch:NGの場合には、図9の(ト)に示すように、第2PSDデータであってRchの信号データが画像形成用のデータとして採用される。さらに第2PSDにおいてRch:NG且つLch:OKの場合には、図9の(チ)に示すように、第2PSDデータであってLchの信号データが画像形成用のデータとして採用される。そしてそれ以外の場合、すなわち第1PSD、第2PSDのいずれかにおいて、Rch:NG且つLch:NGとなっている場合には、固定データ値(0)を出力する。   In the case of Rch: OK and Lch: NG in the second PSD, as shown in FIG. 9G, the second PSD data and the Rch signal data are adopted as image formation data. Further, in the case of Rch: NG and Lch: OK in the second PSD, as shown in (h) of FIG. 9, the second PSD data and the Lch signal data are employed as image formation data. In other cases, that is, in either the first PSD or the second PSD, when Rch: NG and Lch: NG, the fixed data value (0) is output.

すなわち上記構成において、画像形成部36は、第1の位置検出素子群25Aの各位置検出素子(第1PSD25AR,25AL)がそれぞれ受光した光量が、第1閾値TH1、第2閾値TH2によって規定される所定の範囲内にある(光量上限:OK且つ光量下限:OK)と受光量判定部34によって判定され、且つ第1の位置検出素子群25Aにおける受光位置検出結果の差異の大きさが所定の基準値以内である(|R−L|:OK)と受光位置検出結果判定部35によって判定されたならば、当該走査部位についての受光位置検出結果として第1の位置検出素子群25Aによる受光位置検出結果(第1PSDデータ)を採用して3次元認識画像を形成する(図9において(ニ)(ホ)にて示す第1PSDデータ参照)。   That is, in the above configuration, the image forming unit 36 defines the light amounts received by the position detection elements (first PSDs 25AR, 25AL) of the first position detection element group 25A by the first threshold value TH1 and the second threshold value TH2. The received light amount determining unit 34 determines that the light amount is within a predetermined range (light amount upper limit: OK and light amount lower limit: OK), and the difference between the light reception position detection results in the first position detection element group 25A is a predetermined reference. If the light reception position detection result determination unit 35 determines that the value is within the value (| R−L |: OK), the light reception position detection by the first position detection element group 25A is performed as the light reception position detection result for the scanning part. The result (first PSD data) is adopted to form a three-dimensional recognition image (see the first PSD data indicated by (d) and (e) in FIG. 9).

そして第1の位置検出素子群25Aの各位置検出素子(第1PSD25AR,25AL)のいずれかがそれぞれ受光した光量が、第1閾値TH1、第2閾値TH2によって規定される所定の範囲を超える(光量上限:NGまたは光量下限:NG)と受光量判定部34によって判定され、または第1の位置検出素子群25Aにおける受光位置検出結果の差異の大きさが所定の基準値を超える(|R−L|:NG)と受光位置検出結果判定部35によって判定されたならば、当該走査部位についての受光位置検出結果として第2の位置検出素子群25Bによる受光位置検出結果(第2PSDデータ)を採用して3次元認識画像を形成する。(図9において(へ)(ト)(チ)にて示す第1PSDデータ参照)。   The amount of light received by each of the position detection elements (first PSDs 25AR, 25AL) of the first position detection element group 25A exceeds a predetermined range defined by the first threshold value TH1 and the second threshold value TH2 (light amount) The upper limit: NG or the lower limit of light intensity: NG) is determined by the received light amount determination unit 34, or the magnitude of the difference between the received light position detection results in the first position detection element group 25A exceeds a predetermined reference value (| RL) |: NG) and the light reception position detection result determination unit 35, the light reception position detection result (second PSD data) by the second position detection element group 25B is adopted as the light reception position detection result for the scanning portion. To form a three-dimensional recognition image. (Refer to the first PSD data shown in (f) (g) (h) in FIG. 9).

次に本実施の形態の画像形成装置による3次元画像形成方法について、図10のフローに則して図11を参照して説明する。ここでは、部品の計測対象面に対して照射された光の反射光を受光することにより、計測対象面の平面情報を示す2次元画像における各画素の輝度によって高さ情報を表す3次元認識画像を形成する。   Next, a three-dimensional image forming method by the image forming apparatus of this embodiment will be described with reference to FIG. 11 in accordance with the flow of FIG. Here, a three-dimensional recognition image in which height information is represented by the brightness of each pixel in a two-dimensional image indicating plane information of the measurement target surface by receiving reflected light of the light irradiated to the measurement target surface of the component Form.

まず3D部品(3次元部品7)の認識が開始される(ST1)。すなわち、部品供給部4Aにて部品トレイ6から3次元部品7を取り出したX軸移動テーブル10Aが3Dセンサ15の上方へ移動する。次いで部品スキャンが実行される(ST2)。すなわち、光発生手段であるレーザ光源部21によって発生したレーザ光をポリゴンミラー23によって主走査方向(Y方向)に走査させながら(走査工程)、3次元部品7を保持したX軸移動テーブル10Aを副走査方向(X方向)へ所定の走査速度で相対移動させる(図4(a)参照)。次いで3次元部品7の計測対象面7Pに対して、走査光を所定の入射方向から入射させる(走査光入射工程)。   First, recognition of a 3D part (three-dimensional part 7) is started (ST1). That is, the X-axis movement table 10 </ b> A in which the three-dimensional component 7 is taken out from the component tray 6 by the component supply unit 4 </ b> A moves above the 3D sensor 15. Next, a component scan is executed (ST2). That is, the X-axis moving table 10A holding the three-dimensional component 7 is scanned while scanning the laser light generated by the laser light source unit 21 serving as light generation means in the main scanning direction (Y direction) with the polygon mirror 23 (scanning process). Relative movement is performed at a predetermined scanning speed in the sub-scanning direction (X direction) (see FIG. 4A). Next, the scanning light is incident on the measurement target surface 7P of the three-dimensional component 7 from a predetermined incident direction (scanning light incident process).

そして受光位置検出が行われる(ST4)。すなわち入射した走査光の計測対象面7Pからの反射光の受光位置を、前述構成の位置検出部25によって検出する(位置検出工程)。これにより、第1の位置検出素子群25A、第2の位置検出素子群25Bに属する各PSDによってそれぞれ計測対象面7Pの各部位の高さ情報を含む3次元画像データの基となる各部位毎の受光位置が取得される。このとき、図11(a)において楕円で示す部位(イ)(ロ)についても、図6(a)に示す例と同様に、走査が実行される。   Then, the light receiving position is detected (ST4). That is, the light receiving position of the reflected light from the measurement target surface 7P of the incident scanning light is detected by the position detection unit 25 having the above-described configuration (position detection step). As a result, each part serving as a base of the three-dimensional image data including the height information of each part of the measurement target surface 7P by each PSD belonging to the first position detection element group 25A and the second position detection element group 25B. The light receiving position of is acquired. At this time, scanning is executed for the portions (A) and (B) indicated by ellipses in FIG. 11A as in the example shown in FIG.

次に受光量判定が行われる(ST5)。すなわち第1の位置検出素子群25A、第2の位置検出素子群25Bに属する各PSDが受光する光量が所定の範囲内にあるか否かを受光量判定部34によって判定する(受光量判定工程)。次いで受光位置検出結果判定が行われる(ST6)。すなわち、同一の位置検出素子群に属する位置検出素子による反射光の受光位置検出結果の差異の大きさ(|R−L|)が、所定の基準値以下であるか否かを、受光位置検出結果判定部35によって判定する(受光位置検出結果判定工程)。   Next, the amount of received light is determined (ST5). That is, the received light amount determination unit 34 determines whether or not the amount of light received by each PSD belonging to the first position detection element group 25A and the second position detection element group 25B is within a predetermined range (light reception amount determination step). ). Next, light reception position detection result determination is performed (ST6). That is, whether or not the magnitude (| R−L |) of the difference in the light reception position detection result of the reflected light by the position detection elements belonging to the same position detection element group is equal to or smaller than a predetermined reference value is detected. It is determined by the result determination unit 35 (light reception position detection result determination step).

次に画像形成が行われる(ST7)。すなわち位置検出工程における位置検出部25による受光位置検出結果に基づき、受光量判定工程における受光量判定部34の判定結果および受光位置検出結果判定工程における受光位置検出結果判定部35による受光位置検出結果判定結果を加味して、計測対象面7Pの3次元認識画像を形成する(画像形成工程)。   Next, image formation is performed (ST7). That is, based on the light reception position detection result by the position detection unit 25 in the position detection step, the light reception amount detection unit 34 in the light reception amount determination step and the light reception position detection result in the light reception position detection result determination unit 35 in the light reception position detection result determination step In consideration of the determination result, a three-dimensional recognition image of the measurement target surface 7P is formed (image forming step).

この画像形成においては、図8,図9にて説明したように、受光量判定工程において第1の位置検出素子群25Aの各位置検出素子(第1PSD25AR,25AL)がそれぞれ受光した光量が所定の範囲内にある(光量上限:OK且つ光量下限:OK)と判定され、且つ第1の位置検出素子群25Aにおける受光位置検出結果の差異の大きさが所定の基準値以内である(|R−L|:OK)と判定されたならば、当該走査部位についての受光位置検出結果として第1の位置検出素子群25Aによる受光位置検出結果(第1PSDデータ)を採用して3次元認識画像を形成する。   In this image formation, as described with reference to FIGS. 8 and 9, the amount of light received by each position detection element (first PSD 25AR, 25AL) of the first position detection element group 25A in the received light amount determination step is a predetermined amount. It is determined that it is within the range (light amount upper limit: OK and light amount lower limit: OK), and the magnitude of the difference in the light reception position detection result in the first position detection element group 25A is within a predetermined reference value (| R− If it is determined that L |: OK), a light reception position detection result (first PSD data) by the first position detection element group 25A is adopted as a light reception position detection result for the scanning part to form a three-dimensional recognition image. To do.

そして第1の位置検出素子群25Aの各位置検出素子のいずれかがそれぞれ受光した光量が所定の範囲を超える(光量上限:NGまたは光量下限:NG)と判定され、または第1の位置検出素子群25Aにおける受光位置検出結果の差異の大きさが所定の基準値を超える(|R−L|:NG)と判定されたならば、当該走査部位についての受光位置検出結果として第2の位置検出素子群25Bによる受光位置検出結果(第2PSDデータ)を採用して3次元認識画像を形成する。   Then, it is determined that the amount of light received by each of the position detection elements of the first position detection element group 25A exceeds a predetermined range (light quantity upper limit: NG or light quantity lower limit: NG), or the first position detection element. If it is determined that the magnitude of the difference between the light reception position detection results in the group 25A exceeds a predetermined reference value (| R−L |: NG), the second position detection is performed as the light reception position detection result for the scanning portion. A three-dimensional recognition image is formed by using the light reception position detection result (second PSD data) by the element group 25B.

画像形成に際してこのようなデータ処理を行うことにより、画像形成モジュール40が画像形成に採用するPSDデータ、すなわち第1PSDデータ、第2PSDデータから選択された画像形成用データについては、当該データの基になる入射光の受光量が常に適正範囲内にあることが担保される。すなわち図11(b)に示すように、当該データの受光量を示す受光量曲線Lは、常に第1閾値TH1〜第1閾値TH2の間にある。したがって、部位(イ)(ロ)のいずれの部位の走査においても、図6(c)にて例示した光量の過大・過小に起因する不具合を招くことなく、図11(c)に示すように、底面7d、リード裏面7f、リード当接面7eの平面形状が、それぞれの高さに応じて異なる輝度で表示された正しい3次元認識画像を得ることができる。   By performing such data processing at the time of image formation, PSD data employed by the image forming module 40 for image formation, that is, image forming data selected from the first PSD data and the second PSD data, is based on the data. It is ensured that the amount of incident light received is always within an appropriate range. That is, as shown in FIG. 11B, the received light amount curve L indicating the received light amount of the data is always between the first threshold value TH1 and the first threshold value TH2. Accordingly, as shown in FIG. 11 (c), scanning of any of the parts (A) and (B) does not lead to problems caused by the excessive or too small amount of light illustrated in FIG. 6C. In addition, it is possible to obtain a correct three-dimensional recognition image in which the planar shapes of the bottom surface 7d, the lead back surface 7f, and the lead contact surface 7e are displayed with different luminances according to the respective heights.

そしてこのようにして形成された3次元認識画像を認識部31によって認識処理することにより、部品状態検査が行われる(ST8)。すなわち、検査対象の3次元部品7について、図4(b)に示すリード7bの延出長さaやリード幅b、リードピッチpなどの水平面内での形状やリード浮きhなどの3次元形状が検査される。そしてこの検査結果を記憶部32に記憶された検査データと比較することにより、部品状態が正常であるか否かが判定される(ST9)。そして部品状態が正常であると判定されたならば、3D部品認識を終了し(ST11)、部品実装動作のための次の動作ステップに移行する。また(ST8)にて部品状態が正常でないと判定されたならば、入出力部33の報知手段によってエラー報知を行う(ST10)。   The three-dimensional recognition image formed in this way is subjected to recognition processing by the recognition unit 31, thereby performing a component state inspection (ST8). That is, for the three-dimensional component 7 to be inspected, the shape in a horizontal plane such as the extension length a, the lead width b, and the lead pitch p of the lead 7b shown in FIG. Is inspected. Then, by comparing the inspection result with the inspection data stored in the storage unit 32, it is determined whether or not the component state is normal (ST9). If it is determined that the component state is normal, 3D component recognition is terminated (ST11), and the process proceeds to the next operation step for component mounting operation. If it is determined in (ST8) that the component state is not normal, an error notification is performed by the notification means of the input / output unit 33 (ST10).

上記説明したように、本実施の形態に示す3次元部品を対象とする3次元画像形成においては、計測対象面7Pへの入射方向を挟んで対称に配置され受光面の計測対象面に対する傾斜角度が各対毎に相異なる2対の位置検出素子群25A,25Bを有し、走査光の計測対象面からの反射光の受光位置を検出する位置検出部25と、各位置検出素子が受光する光量が所定の範囲内にあるか否かを判定する受光量判定部34と、同一の位置検出素子群に属する位置検出素子による反射光の受光位置検出結果の差異の大きさが所定の基準値以下であるか否かを判定する受光位置検出結果判定部35とを備え、位置検出部25の受光位置検出結果に基づき受光量判定部34および受光位置検出結果判定部35の判定結果を加味して計測対象面7Pの3次元認識画像を形成する構成としたものである。これにより、受光量が大きく変化する場合にあっても安定した3次元認識画像を形成して正しい部品認識結果を得ることができる。   As described above, in the three-dimensional image formation for the three-dimensional component shown in the present embodiment, the inclination angle of the light receiving surface with respect to the measurement target surface arranged symmetrically with respect to the incident direction on the measurement target surface 7P. Has two pairs of position detection element groups 25A and 25B that are different for each pair, and the position detection unit 25 that detects the light reception position of the reflected light from the measurement target surface of the scanning light, and each position detection element receives light. The magnitude of the difference between the received light amount detection unit 34 for determining whether the amount of light is within a predetermined range and the received light position detection result of the reflected light by the position detection elements belonging to the same position detection element group is a predetermined reference value. A light reception position detection result determination unit 35 that determines whether or not the light reception position detection result is below. Based on the light reception position detection result of the position detection unit 25, the determination results of the light reception amount determination unit 34 and the light reception position detection result determination unit 35 are taken into account. 3 of the measurement target surface 7P It is obtained by the structure forming the original recognition image. Thereby, even when the amount of received light changes greatly, a stable three-dimensional recognition image can be formed and a correct component recognition result can be obtained.

本発明の画像形成装置および画像形成方法ならびに部品実装装置は、安定した3次元認識画像を形成して正しい部品認識結果を得ることができるという効果を有し、基板に電子部品を実装する部品実装装置において電子部品の形状検査や位置補正を行う用途に有用である。   The image forming apparatus, the image forming method, and the component mounting apparatus according to the present invention have an effect that a stable three-dimensional recognition image can be formed and a correct component recognition result can be obtained. This is useful for applications that perform shape inspection and position correction of electronic components in the apparatus.

1 部品実装装置
2 基板搬送機構
3 基板
4A,4B 部品供給部
5 トレイフィーダ
6 部品トレイ
7 3次元部品
7a 本体部
7b リード
7P 計測対象面
11 実装ヘッド
15 3Dセンサ
21 レーザ光源部
23 ポリゴンミラー
24 fθレンズ
25 位置検出部
25A 第1の位置検出素子群
25B 第2の位置検出素子群
25AR、25AL 第1PSD
25BR、25BL 第2PSD
DESCRIPTION OF SYMBOLS 1 Component mounting apparatus 2 Substrate conveyance mechanism 3 Substrate 4A, 4B Component supply part 5 Tray feeder 6 Component tray 7 Three-dimensional part 7a Main body part 7b Lead 7P Measurement object surface 11 Mounting head 15 3D sensor 21 Laser light source part 23 Polygon mirror 24 fθ Lens 25 Position detection unit 25A First position detection element group 25B Second position detection element group 25AR, 25AL First PSD
25BR, 25BL 2nd PSD

Claims (3)

部品の計測対象面に対して照射された光の反射光を受光することにより、前記計測対象面の平面情報を示す2次元画像における各画素の輝度によって高さ情報を表す3次元認識画像を形成する画像形成装置であって、
光発生手段によって発生された前記光を主走査方向に走査させる走査手段と、
前記主走査方向と直交する副走査方向に相対移動する前記計測対象面に対して前記走査された走査光を所定の入射方向から入射させる走査光入射手段と、
それぞれが前記入射方向を挟んで対称に配置された1対の位置検出素子より成る2つの位置検出素子群であって、前記位置検出素子の受光面の前記計測対象面に対する傾斜角度が各対毎に相異なって設定され前記傾斜角度がより小さい第1の位置検出素子群と前記傾斜角度がより大きい第2の位置検出素子群とを有し、前記走査光の計測対象面からの反射光の受光位置を前記2つの位置検出素子群の各位置検出素子によってそれぞれ検出する位置検出部と、
前記各位置検出素子が受光する光量が所定の範囲内にあるか否かを判定する受光量判定部と、
同一の位置検出素子群に属する位置検出素子による前記反射光の受光位置検出結果の差異の大きさが所定の基準値以下であるか否かを判定する受光位置検出結果判定部と、
前記位置検出部の受光位置検出結果に基づき前記受光量判定部および受光位置検出結果判定部の判定結果を加味して計測対象面の前記3次元認識画像を形成する画像形成部とを備え、
前記画像形成部は、前記第1の位置検出素子群の各位置検出素子がそれぞれ受光した前記光量が前記所定の範囲内にあると前記受光量判定部によって判定され、且つ第1の位置検出素子群における前記受光位置検出結果の差異の大きさが前記所定の基準値以内であると前記受光位置検出結果判定部によって判定されたならば、当該走査部位についての受光位置検出結果として前記第1の位置検出素子群による受光位置検出結果を採用し、
前記第1の位置検出素子群の各位置検出素子のいずれかがそれぞれ受光した前記光量が前記所定の範囲を超えると前記受光量判定部によって判定され、または前記第1の位置検出素子群における前記受光位置検出結果の差異の大きさが前記所定の基準値を超えると前記受光位置検出結果判定部によって判定されたならば、当該走査部位についての受光位置検出結果として前記第2の位置検出素子群による受光位置検出結果を採用して前記3次元認識画像を形成することを特徴とする画像形成装置。
By receiving reflected light of the light irradiated on the measurement target surface of the component, a three-dimensional recognition image representing height information is formed by the brightness of each pixel in the two-dimensional image indicating the plane information of the measurement target surface. An image forming apparatus that
Scanning means for scanning the light generated by the light generating means in the main scanning direction;
A scanning light incident means for causing the scanned scanning light to enter the measurement target surface that moves relative to the sub-scanning direction orthogonal to the main scanning direction from a predetermined incident direction;
Each of the two position detection element groups is composed of a pair of position detection elements arranged symmetrically with respect to the incident direction, and the inclination angle of the light receiving surface of the position detection element with respect to the measurement target surface is in each pair. And a second position detection element group having a smaller inclination angle and a second position detection element group having a larger inclination angle, the reflected light from the measurement target surface of the scanning light. A position detection unit that detects a light receiving position by each position detection element of the two position detection element groups;
A received light amount determination unit that determines whether or not the amount of light received by each of the position detection elements is within a predetermined range;
A light receiving position detection result determining unit that determines whether or not the magnitude of the difference in the light receiving position detection result of the reflected light by the position detecting elements belonging to the same position detecting element group is equal to or less than a predetermined reference value;
An image forming unit that forms the three-dimensional recognition image of the measurement target surface in consideration of the determination results of the light reception amount determination unit and the light reception position detection result determination unit based on the light reception position detection result of the position detection unit;
In the image forming unit, the received light amount determining unit determines that the amount of light received by each position detecting element of the first position detecting element group is within the predetermined range, and the first position detecting element If the light receiving position detection result determination unit determines that the difference between the light receiving position detection results in the group is within the predetermined reference value, the first light receiving position detection result for the scanning region is the first light receiving position detection result. Adopting the light reception position detection result by the position detection element group,
When the amount of light received by each of the position detection elements of the first position detection element group exceeds the predetermined range, it is determined by the received light amount determination unit, or the light amount in the first position detection element group If the light receiving position detection result determination unit determines that the magnitude of the difference between the light receiving position detection results exceeds the predetermined reference value, the second position detection element group as a light receiving position detection result for the scanning portion. An image forming apparatus characterized in that the three-dimensional recognition image is formed by using a light reception position detection result obtained by the method.
部品の計測対象面に対して照射された光の反射光を受光することにより、前記計測対象面の平面情報を示す2次元画像における各画素の輝度によって高さ情報を表す3次元認識画像を形成する画像形成方法であって、
光発生手段によって発生された前記光を主走査方向に走査させる走査工程と、
前記主走査方向と直交する副走査方向に相対移動する前記計測対象面に対して前記走査された走査光を所定の入射方向から入射させる走査光入射工程と、
それぞれが前記入射方向を挟んで対称に配置された1対の位置検出素子より成る2つの位置検出素子群であって、前記位置検出素子の受光面の前記計測対象面に対する傾斜角度が各対毎に相異なって設定され前記傾斜角度がより小さい第1の位置検出素子群と前記傾斜角度がより大きい第2の位置検出素子群とを有し、前記走査光の計測対象面からの反射光の受光位置を前記2つの位置検出素子群の各位置検出素子によってそれぞれ検出する位置検出部によって、前記走査光の計測対象面からの反射光の受光位置を検出する位置検出工程と、
前記各位置検出素子が受光する光量が所定の範囲内にあるか否かを判定する受光量判定工程と、
同一の位置検出素子群に属する位置検出素子による前記反射光の受光位置検出結果の差異の大きさが所定の基準値以下であるか否かを判定する受光位置検出結果判定工程と、
前記位置検出工程における受光位置検出結果に基づき前記受光量判定工程および受光位置検出結果判定工程における判定結果を加味して計測対象面の前記3次元認識画像を形成する画像形成工程とを含み、
前記受光量判定工程において前記第1の位置検出素子群の各位置検出素子がそれぞれ受光した前記光量が前記所定の範囲内にあると判定され、且つ前記受光位置検出結果判定工程において前記第1の位置検出素子群における前記受光位置検出結果の差異の大きさが前記所定の基準値以内であると判定されたならば、当該走査部位についての受光位置検出結果として前記第1の位置検出素子群による受光位置検出結果を採用して前記3次元認識画像を形成し、
前記受光量判定工程において前記第1の位置検出素子群の各位置検出素子のいずれかがそれぞれ受光した前記光量が前記所定の範囲を超えると判定され、且つ前記受光位置検出結果判定工程において前記第1の位置検出素子群における前記受光位置検出結果の差異の大きさが前記所定の基準値を超えると判定されたならば、当該走査部位についての受光位置検出結果として前記第2の位置検出素子群による受光位置検出結果を採用して前記3次元認識画像を形成することを特徴とする画像形成方法。
By receiving reflected light of the light irradiated on the measurement target surface of the component, a three-dimensional recognition image representing height information is formed by the brightness of each pixel in the two-dimensional image indicating the plane information of the measurement target surface. An image forming method
A scanning step of scanning the light generated by the light generating means in the main scanning direction;
A scanning light incident step in which the scanned scanning light is incident on the measurement target surface that is relatively moved in the sub-scanning direction orthogonal to the main scanning direction from a predetermined incident direction;
Each of the two position detection element groups is composed of a pair of position detection elements arranged symmetrically with respect to the incident direction, and the inclination angle of the light receiving surface of the position detection element with respect to the measurement target surface is in each pair. And a second position detection element group having a smaller inclination angle and a second position detection element group having a larger inclination angle, the reflected light from the measurement target surface of the scanning light. A position detection step of detecting a light reception position of reflected light from the measurement target surface of the scanning light by a position detection unit that detects a light reception position by each position detection element of the two position detection element groups;
A received light amount determination step for determining whether or not the amount of light received by each of the position detection elements is within a predetermined range;
A light reception position detection result determination step for determining whether or not the magnitude of the difference in the light reception position detection result of the reflected light by the position detection elements belonging to the same position detection element group is equal to or less than a predetermined reference value;
An image forming step of forming the three-dimensional recognition image of the measurement target surface in consideration of the determination result in the received light amount determination step and the received light position detection result determination step based on the received light position detection result in the position detection step,
In the received light amount determination step, it is determined that the amount of light received by each position detection element of the first position detection element group is within the predetermined range, and in the received light position detection result determination step, the first light amount is determined. If it is determined that the magnitude of the difference between the light reception position detection results in the position detection element group is within the predetermined reference value, the light reception position detection result for the scanning site is determined by the first position detection element group. Using the light receiving position detection result to form the three-dimensional recognition image,
In the received light amount determination step, it is determined that the amount of light received by each of the position detection elements of the first position detection element group exceeds the predetermined range, and in the received light position detection result determination step, the first If it is determined that the magnitude of the difference between the light reception position detection results in one position detection element group exceeds the predetermined reference value, the second position detection element group as a light reception position detection result for the scanning region. An image forming method characterized in that the three-dimensional recognition image is formed by using a light reception position detection result obtained by the method.
基板保持部に保持された基板に部品供給部から取り出された部品を実装する部品実装装置であって、
実装ヘッドを移動させることにより前記部品供給部から部品を取り出して前記基板に実装する部品実装機構と、
前記実装ヘッドに保持された前記部品の計測対象面に対して照射された光の反射光を受光することにより、前記計測対象面の平面情報を示す2次元画像における各画素の輝度によって高さ情報を表す3次元認識画像を形成する画像形成装置と、
前記画像形成装置によって形成された前記3次元認識画像に基づいて前記部品の電極部の位置および高さを認識する認識部と、前記部品実装機構および画像形成装置を制御する制御部とを備え、
前記画像形成装置は、光発生手段によって発生された前記光を主走査方向に走査させる走査手段と、前記主走査方向と直交する副走査方向に相対移動する前記計測対象面に対して前記走査された走査光を所定の入射方向から入射させる走査光入射手段と、
それぞれが前記入射方向を挟んで対称に配置された1対の位置検出素子より成る2つの位置検出素子群であって、前記位置検出素子の受光面の前記計測対象面に対する傾斜角度が各対毎に相異なって設定され前記傾斜角度がより小さい第1の位置検出素子群と前記傾斜角度がより大きい第2の位置検出素子群とを有し、前記走査光の計測対象面からの反射光の受光位置を前記2つの位置検出素子群の各位置検出素子によってそれぞれ検出する位置検出部と、
前記各位置検出素子が受光する光量が所定の範囲内にあるか否かを判定する受光量判定部と、同一の位置検出素子群に属する位置検出素子による前記反射光の受光位置検出結果の差異の大きさが所定の基準値以下であるか否かを判定する受光位置検出結果判定部と、
前記位置検出部の受光位置検出結果に基づき前記受光量判定部および受光位置検出結果判定部の判定結果を加味して計測対象面の前記3次元認識画像を形成する画像形成部とを備え、前記画像形成部は、前記第1の位置検出素子群の各位置検出素子がそれぞれ受光した前記光量が前記所定の範囲内にあると前記受光量判定部によって判定され、且つ第1の位置検出素子群における前記受光位置検出結果の差異の大きさが前記所定の基準値以内であると前記受光位置検出結果判定部によって判定されたならば、当該走査部位についての受光位置検出結果として前記第1の位置検出素子群による受光位置検出結果を採用し、
前記第1の位置検出素子群の各位置検出素子のいずれかがそれぞれ受光した前記光量が前記所定の範囲を超えると前記受光量判定部によって判定され、または前記第1の位置検出素子群における前記受光位置検出結果の差異の大きさが前記所定の基準値を超えると前記受光位置検出結果判定部によって判定されたならば、当該走査部位についての受光位置検出結果として前記第2の位置検出素子群による受光位置検出結果を採用して前記3次元認識画像を形成することを特徴とする部品実装装置。
A component mounting apparatus for mounting a component taken out from a component supply unit on a substrate held by a substrate holding unit,
A component mounting mechanism for removing a component from the component supply unit by moving a mounting head and mounting the component on the substrate;
By receiving the reflected light of the light irradiated on the measurement target surface of the component held by the mounting head, height information is obtained according to the brightness of each pixel in the two-dimensional image indicating the plane information of the measurement target surface. An image forming apparatus for forming a three-dimensional recognition image representing
A recognition unit for recognizing the position and height of the electrode unit of the component based on the three-dimensional recognition image formed by the image forming apparatus, and a control unit for controlling the component mounting mechanism and the image forming apparatus.
The image forming apparatus scans the scanning target with respect to a scanning unit that scans the light generated by the light generating unit in a main scanning direction, and the measurement target surface that relatively moves in a sub scanning direction orthogonal to the main scanning direction. Scanning light incident means for making the scanned light incident from a predetermined incident direction;
Each of the two position detection element groups is composed of a pair of position detection elements arranged symmetrically with respect to the incident direction, and the inclination angle of the light receiving surface of the position detection element with respect to the measurement target surface is in each pair. And a second position detection element group having a smaller inclination angle and a second position detection element group having a larger inclination angle, the reflected light from the measurement target surface of the scanning light. A position detection unit that detects a light receiving position by each position detection element of the two position detection element groups;
Difference between the received light amount determination unit for determining whether or not the amount of light received by each position detection element is within a predetermined range, and the detection result of the received light position of the reflected light by the position detection elements belonging to the same position detection element group A light receiving position detection result determination unit for determining whether or not the magnitude of the light receiving position is equal to or less than a predetermined reference value;
An image forming unit that forms the three-dimensional recognition image of the measurement target surface in consideration of the determination results of the light reception amount determination unit and the light reception position detection result determination unit based on the light reception position detection result of the position detection unit, In the image forming unit, the received light amount determination unit determines that the amount of light received by each position detection element of the first position detection element group is within the predetermined range, and the first position detection element group If the light receiving position detection result determination unit determines that the magnitude of the difference in the light receiving position detection result is within the predetermined reference value, the first position is obtained as the light receiving position detection result for the scanning site. Adopting the detection position detection result by the detection element group
When the amount of light received by each of the position detection elements of the first position detection element group exceeds the predetermined range, it is determined by the received light amount determination unit, or the light amount in the first position detection element group If the light receiving position detection result determination unit determines that the magnitude of the difference between the light receiving position detection results exceeds the predetermined reference value, the second position detection element group as a light receiving position detection result for the scanning portion. A component mounting apparatus characterized in that the three-dimensional recognition image is formed by using a light reception position detection result obtained by the method.
JP2011097802A 2011-04-26 2011-04-26 Image forming apparatus, image forming method, and component mounting apparatus Active JP5445509B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011097802A JP5445509B2 (en) 2011-04-26 2011-04-26 Image forming apparatus, image forming method, and component mounting apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011097802A JP5445509B2 (en) 2011-04-26 2011-04-26 Image forming apparatus, image forming method, and component mounting apparatus

Publications (2)

Publication Number Publication Date
JP2012229964A true JP2012229964A (en) 2012-11-22
JP5445509B2 JP5445509B2 (en) 2014-03-19

Family

ID=47431635

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011097802A Active JP5445509B2 (en) 2011-04-26 2011-04-26 Image forming apparatus, image forming method, and component mounting apparatus

Country Status (1)

Country Link
JP (1) JP5445509B2 (en)

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016510397A (en) * 2012-12-19 2016-04-07 ビーエーエスエフ ソシエタス・ヨーロピアBasf Se Detector for optically detecting one or more objects
JP2016151538A (en) * 2015-02-19 2016-08-22 富士機械製造株式会社 Component determination device
US9989623B2 (en) 2013-06-13 2018-06-05 Basf Se Detector for determining a longitudinal coordinate of an object via an intensity distribution of illuminated pixels
JP2018098404A (en) * 2016-12-15 2018-06-21 ヤマハ発動機株式会社 Determination device and surface mounting machine
US10012532B2 (en) 2013-08-19 2018-07-03 Basf Se Optical detector
US10094927B2 (en) 2014-09-29 2018-10-09 Basf Se Detector for optically determining a position of at least one object
US10353049B2 (en) 2013-06-13 2019-07-16 Basf Se Detector for optically detecting an orientation of at least one object
US10412283B2 (en) 2015-09-14 2019-09-10 Trinamix Gmbh Dual aperture 3D camera and method using differing aperture areas
JP2020107623A (en) * 2018-12-26 2020-07-09 Juki株式会社 Three-dimensional measurement device
US10775505B2 (en) 2015-01-30 2020-09-15 Trinamix Gmbh Detector for an optical detection of at least one object
US10890491B2 (en) 2016-10-25 2021-01-12 Trinamix Gmbh Optical detector for an optical detection
US10948567B2 (en) 2016-11-17 2021-03-16 Trinamix Gmbh Detector for optically detecting at least one object
US10955936B2 (en) 2015-07-17 2021-03-23 Trinamix Gmbh Detector for optically detecting at least one object
US11041718B2 (en) 2014-07-08 2021-06-22 Basf Se Detector for determining a position of at least one object
US11060922B2 (en) 2017-04-20 2021-07-13 Trinamix Gmbh Optical detector
US11067692B2 (en) 2017-06-26 2021-07-20 Trinamix Gmbh Detector for determining a position of at least one object
US11125880B2 (en) 2014-12-09 2021-09-21 Basf Se Optical detector
US11211513B2 (en) 2016-07-29 2021-12-28 Trinamix Gmbh Optical sensor and detector for an optical detection
US11428787B2 (en) 2016-10-25 2022-08-30 Trinamix Gmbh Detector for an optical detection of at least one object
US11860292B2 (en) 2016-11-17 2024-01-02 Trinamix Gmbh Detector and methods for authenticating at least one object

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63153412A (en) * 1986-12-18 1988-06-25 Fujitsu Ltd Packaging component inspecting instrument
JPH04282845A (en) * 1991-03-12 1992-10-07 Nec Corp Three-dimensional shape measuring instrument
JP2002107126A (en) * 2000-09-28 2002-04-10 Mitsubishi Heavy Ind Ltd Apparatus and method for inspecting substrate
JP2009174974A (en) * 2008-01-24 2009-08-06 Panasonic Corp 3-d sensor
JP2009277749A (en) * 2008-05-13 2009-11-26 Panasonic Corp Height measuring device and method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63153412A (en) * 1986-12-18 1988-06-25 Fujitsu Ltd Packaging component inspecting instrument
JPH04282845A (en) * 1991-03-12 1992-10-07 Nec Corp Three-dimensional shape measuring instrument
JP2002107126A (en) * 2000-09-28 2002-04-10 Mitsubishi Heavy Ind Ltd Apparatus and method for inspecting substrate
JP2009174974A (en) * 2008-01-24 2009-08-06 Panasonic Corp 3-d sensor
JP2009277749A (en) * 2008-05-13 2009-11-26 Panasonic Corp Height measuring device and method

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10120078B2 (en) 2012-12-19 2018-11-06 Basf Se Detector having a transversal optical sensor and a longitudinal optical sensor
JP2016510397A (en) * 2012-12-19 2016-04-07 ビーエーエスエフ ソシエタス・ヨーロピアBasf Se Detector for optically detecting one or more objects
US10845459B2 (en) 2013-06-13 2020-11-24 Basf Se Detector for optically detecting at least one object
US10353049B2 (en) 2013-06-13 2019-07-16 Basf Se Detector for optically detecting an orientation of at least one object
US9989623B2 (en) 2013-06-13 2018-06-05 Basf Se Detector for determining a longitudinal coordinate of an object via an intensity distribution of illuminated pixels
US10823818B2 (en) 2013-06-13 2020-11-03 Basf Se Detector for optically detecting at least one object
US10012532B2 (en) 2013-08-19 2018-07-03 Basf Se Optical detector
US11041718B2 (en) 2014-07-08 2021-06-22 Basf Se Detector for determining a position of at least one object
US10094927B2 (en) 2014-09-29 2018-10-09 Basf Se Detector for optically determining a position of at least one object
US11125880B2 (en) 2014-12-09 2021-09-21 Basf Se Optical detector
US10775505B2 (en) 2015-01-30 2020-09-15 Trinamix Gmbh Detector for an optical detection of at least one object
JP2016151538A (en) * 2015-02-19 2016-08-22 富士機械製造株式会社 Component determination device
US10955936B2 (en) 2015-07-17 2021-03-23 Trinamix Gmbh Detector for optically detecting at least one object
US10412283B2 (en) 2015-09-14 2019-09-10 Trinamix Gmbh Dual aperture 3D camera and method using differing aperture areas
US11211513B2 (en) 2016-07-29 2021-12-28 Trinamix Gmbh Optical sensor and detector for an optical detection
US10890491B2 (en) 2016-10-25 2021-01-12 Trinamix Gmbh Optical detector for an optical detection
US11428787B2 (en) 2016-10-25 2022-08-30 Trinamix Gmbh Detector for an optical detection of at least one object
US10948567B2 (en) 2016-11-17 2021-03-16 Trinamix Gmbh Detector for optically detecting at least one object
US11415661B2 (en) 2016-11-17 2022-08-16 Trinamix Gmbh Detector for optically detecting at least one object
US11635486B2 (en) 2016-11-17 2023-04-25 Trinamix Gmbh Detector for optically detecting at least one object
US11698435B2 (en) 2016-11-17 2023-07-11 Trinamix Gmbh Detector for optically detecting at least one object
US11860292B2 (en) 2016-11-17 2024-01-02 Trinamix Gmbh Detector and methods for authenticating at least one object
JP2018098404A (en) * 2016-12-15 2018-06-21 ヤマハ発動機株式会社 Determination device and surface mounting machine
US11060922B2 (en) 2017-04-20 2021-07-13 Trinamix Gmbh Optical detector
US11067692B2 (en) 2017-06-26 2021-07-20 Trinamix Gmbh Detector for determining a position of at least one object
JP2020107623A (en) * 2018-12-26 2020-07-09 Juki株式会社 Three-dimensional measurement device
JP7253914B2 (en) 2018-12-26 2023-04-07 Juki株式会社 Electronic component mounting system

Also Published As

Publication number Publication date
JP5445509B2 (en) 2014-03-19

Similar Documents

Publication Publication Date Title
JP5445509B2 (en) Image forming apparatus, image forming method, and component mounting apparatus
EP1666185B1 (en) Laser processing machine and method with image acquisition and processing means
US10107853B2 (en) Apparatus and method for inspecting PCB-mounted integrated circuits
US8136219B2 (en) Electronic component mounter and mounting method
KR102515369B1 (en) 3D measurement device
JP4733001B2 (en) Component mounting apparatus, component mounting method, and program
JP2010278323A (en) Electronic component mounting device
JP2018004378A (en) Automated imaging device
JP5296387B2 (en) Electrical circuit component height direction information acquisition method and system
JP2008196974A (en) Device and method for measuring height of projection object
JP2008070135A (en) Detecting method of optical axis shift of imaging apparatus and part position detecting method and device
JP2009094295A (en) Apparatus for measuring height of electronic component
US7843573B2 (en) Component shape profiling method and component mounting method
JP4999502B2 (en) Component transfer device and surface mounter
US8881380B2 (en) Component mounting apparatus and method for photographing component
JP5721222B2 (en) Electronic component mounting equipment
JP7337997B2 (en) Measuring device and component mounter
JP2010261965A (en) Component recognition device, surface mounting machine, and component inspection device
JP5219765B2 (en) Method for measuring height of electronic component mounting position
JP2012173188A (en) Image forming apparatus, image forming method, and component mounting device
JP4373404B2 (en) Part shape measuring method, part shape measuring device
KR101005076B1 (en) Apparatus and method for detecting bump
JP4973294B2 (en) Component mounting equipment
KR101005077B1 (en) Apparatus for detecting bump
JP3923168B2 (en) Component recognition method and component mounting method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130213

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20130313

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131016

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131022

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131105

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131126

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131209

R151 Written notification of patent or utility model registration

Ref document number: 5445509

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151