JP3807490B2 - Component recognition camera position offset teaching method and teaching apparatus - Google Patents

Component recognition camera position offset teaching method and teaching apparatus Download PDF

Info

Publication number
JP3807490B2
JP3807490B2 JP2001362715A JP2001362715A JP3807490B2 JP 3807490 B2 JP3807490 B2 JP 3807490B2 JP 2001362715 A JP2001362715 A JP 2001362715A JP 2001362715 A JP2001362715 A JP 2001362715A JP 3807490 B2 JP3807490 B2 JP 3807490B2
Authority
JP
Japan
Prior art keywords
recognition camera
dot matrix
component recognition
teaching
component
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001362715A
Other languages
Japanese (ja)
Other versions
JP2003165080A (en
Inventor
善紀 池田
俊明 和田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi High Tech Instruments Co Ltd
Original Assignee
Hitachi High Tech Instruments Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi High Tech Instruments Co Ltd filed Critical Hitachi High Tech Instruments Co Ltd
Priority to JP2001362715A priority Critical patent/JP3807490B2/en
Publication of JP2003165080A publication Critical patent/JP2003165080A/en
Application granted granted Critical
Publication of JP3807490B2 publication Critical patent/JP3807490B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)
  • Image Processing (AREA)
  • Supply And Installment Of Electrical Components (AREA)
  • Image Analysis (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、プリント基板に付されたマークを撮像する基板認識カメラと吸着ノズルに吸着保持された電子部品を撮像する部品認識カメラの相対位置をオフセットとして教示する部品認識カメラ位置オフセット教示方法及び教示装置に関するものである。
【0002】
【従来の技術】
従来は、基板認識カメラと部品認識カメラの相対位置をオフセットとして教示する場合には、以下の方法を行なっていた。即ち、先ず初めに吸着ノズルに教示用治具を吸着させて、部品認識カメラ位置まで該吸着ノズルを移動させて、前記治具の位置を部品認識カメラで撮像して位置認識する。次に、前記治具を面発光照明(教示専用照明)上に吸着ノズルから外して載置して、基板認識カメラを前記面発光照明上方に移動させて、基板認識カメラで撮像して認識する。そして、その結果を基にオフセット値を計算していた。
【0003】
【発明が解決しようとする課題】
しかし、前記従来方法によれば、治具を面発光照明(教示専用照明)の上に置き直した時にズレが発生するため、その分精度に悪影響を与えていた。
【0004】
そこで本発明は、教示専用照明を設けることなく、基板認識カメラと部品認識カメラの相対位置をオフセットとして教示する際の精度を向上させることを目的とする。
【0005】
【課題を解決するための手段】
このため第1の発明は、プリント基板に付されたマークを撮像する基板認識カメラと吸着ノズルに吸着保持された電子部品を撮像する部品認識カメラの相対位置をオフセットとして教示する部品認識カメラ位置オフセット教示方法において、部品認識装置の天面部上にドットマトリックスを有する教示用治具を載置し、前記教示用治具の反射像を前記部品認識カメラが撮像してドットマトリックスの位置を認識して、ドットマトリックスセンタ−位置を算出し、前記基板認識カメラを前記教示用治具上方に位置させ、該治具の透過像を該基板認識カメラが撮像し、ドットマトリックスの位置を認識して、ドットマトリックスセンタ−位置を算出し、部品認識オフセットデ−タを両ドットマトリックスセンタ−位置から算出しメモリに格納するようにしたことを特徴とする。
【0006】
また第2の発明は、プリント基板に付されたマークを撮像する基板認識カメラと吸着ノズルに吸着保持された電子部品を撮像する部品認識カメラの相対位置をオフセットとして教示する部品認識カメラ位置オフセット教示装置において、ドットマトリックスを有し部品認識装置の天面部上に載置される教示用治具と、該教示用治具の反射像を前記部品認識カメラが撮像してドットマトリックスの位置を認識してドットマトリックスセンタ−位置を算出する第1の算出手段と、前記教示用治具の透過像を該基板認識カメラが撮像してドットマトリックスの位置を認識してドットマトリックスセンタ−位置を算出する第2の算出手段と、部品認識オフセットデ−タを両ドットマトリックスセンタ−位置から算出する第3の算出手段と、該第3の算出手段による算出結果を格納するメモリとから成ることを特徴とする。
【0007】
【課題を解決するための手段】
このため第1の発明は、プリント基板に付されたマークを撮像する基板認識カメラと吸着ノズルに吸着保持された電子部品を撮像する部品認識カメラの相対位置を部品認識オフセットデータとして教示する部品認識カメラ位置オフセット教示方法において、部品認識装置の天面部上にドットマトリックスを有する教示用治具を載置し、前記教示用治具の反射像を前記部品認識カメラが撮像してドットマトリックスの位置を認識して、撮像結果に基づくドットマトリックスセンタ−位置座標と前記部品認識カメラのピント位置ずれによる倍率とにより、ドットマトリックスセンタ−位置を算出し、前記基板認識カメラを前記教示用治具上方に位置させ、該治具の透過像を該基板認識カメラが撮像し、ドットマトリックスの位置を認識して、撮像結果に基づくドットマトリックスセンタ−位置座標と前記基板認識カメラのピント位置ずれによる倍率とにより、ドットマトリックスセンタ−位置を算出し、前記部品認識オフセットデ−タを両ドットマトリックスセンタ−位置から算出しメモリに格納するようにしたことを特徴とする。
【0008】
また第2の発明は、プリント基板に付されたマークを撮像する基板認識カメラと吸着ノズルに吸着保持された電子部品を撮像する部品認識カメラの相対位置を部品認識オフセットデータとして教示する部品認識カメラ位置オフセット教示装置において、ドットマトリックスを有し部品認識装置の天面部上に載置される教示用治具と、該教示用治具の反射像を前記部品認識カメラが撮像してドットマトリックスの位置を認識して、撮像結果に基づくドットマトリックスセンタ−位置座標と前記部品認識カメラのピント位置ずれによる倍率とにより、ドットマトリックスセンタ−位置を算出する第1の算出手段と、前記教示用治具の透過像を該基板認識カメラが撮像してドットマトリックスの位置を認識して、撮像結果に基づくドットマトリックスセンタ−位置座標と前記基板認識カメラのピント位置ずれによる倍率とにより、ドットマトリックスセンタ−位置を算出する第2の算出手段と、前記部品認識オフセットデ−タを両ドットマトリックスセンタ−位置から算出する第3の算出手段と、該第3の算出手段による算出結果を格納するメモリとから成ることを特徴とする。
【0010】
各ビ−ム8にはその長手方向、即ちX方向にX軸駆動モ−タ12によりガイド(図示せず)に沿って移動する装着ヘッド7が夫々設けられている。夫々の装着ヘッド7には吸着ノズル7Aを上下動させるための上下軸駆動モ−タ14が2個搭載され、また鉛直軸周りに回転させるためのθ軸駆動モ−タ15が搭載されている。したがって、各装着ヘッド7の吸着ノズル7AはX方向及びY方向に移動可能であり、垂直線回りに回転可能で、かつ上下動可能となっている。
【0011】
17は吸着ノズル7Aを収納するノズルストッカで、最大10本収納可能であるが9本収納している。
【0012】
18は基板認識装置19の基板位置認識用の基板認識カメラで、前記装着ヘッド7に設けられ、前記位置決め部5で位置決め機構により位置決めされたプリント基板Pの位置ずれを認識するためにその位置決めマ−クを撮像するものである。
【0013】
20は前記吸着ノズル7Aの上部に固定された円板状の拡散板である。21は基板認識用スコ−プ22を内蔵せる筒体で、該筒体21の外周下部には照明点灯回路24により点灯する基板認識用照明装置23が固定されている。
【0014】
30は部品認識装置31の透過部品位置認識用の部品認識カメラで、該部品認識カメラ30の直上方には部品認識用スコ−プ32が配設され、更に内筒33内で前記部品認識用スコ−プ32の上方には照明点灯回路24により点灯する部品認識用照明装置34が配設される。前記部品認識カメラ31は、前記各装着ヘッド7に対応してそれぞれ設けられ、電子部品が吸着ノズル7Aに対してどれだけ位置ずれして吸着保持されているかXY方向及び回転角度につき、位置認識するために電子部品を撮像する。
【0015】
また、部品認識装置31の天面部31Aには、図3に示すような教示用治具35が載置される。該教示用治具35は、例えば透明ガラス製でその上面にドットがマトリックス状に付されている。詳述すれば、中央部の複数のドットマトリックス36は基板認識用であり、このドットマトリックス36とはエリアを存してその周りに部品認識用のドットマトリックス37が付されている。
【0016】
図4は本電子部品装着装置1の制御ブロック図である。40は本装着装置の装着に係る動作を統括制御する制御部としてのCPU、41は電子部品の装着順序毎にプリント基板P内でのX方向、Y方向及び角度位置情報や、各部品供給ユニットの配置番号情報等から成る装着デ−タ、パ−ツライブラリデ−タ等を格納するRAM(ランダム・アクセス・メモリ)、42はプログラムを格納するROM(リ−ド・オンリ−・メモリ)である。
【0017】
そして、CPU40は前記RAM41に記憶されたデ−タに基づき、前記ROM42に格納されたプログラムに従い、電子部品装着装置の部品装着動作に係る動作を統括制御する。即ち、CPU40は、駆動回路43を介して前記X軸駆動モ−タ12、前記Y軸駆動モ−タ9、前記上下軸駆動モ−タ14及び前記θ軸駆動モ−タ15の駆動を制御する。
【0018】
44はインタ−フェ−ス45を介して前記CPU40に接続される部品認識処理部で、前記部品認識カメラ30により撮像して取込まれた画像の認識処理が該認識処理部44にて行われ、CPU40に処理結果が送出される。即ち、CPU40は、部品認識カメラ30に撮像された画像を認識処理(位置ずれ量の算出など)するように指示を認識処理部44に出力すると共に、認識処理結果を認識処理部44から受取るものである。
【0019】
また、46はインタ−フェ−ス45を介して前記CPU40に接続される基板認識処理部で、前記基板認識カメラ18により撮像して取込まれた画像の認識処理が該認識処理部46にて行われ、CPU40に処理結果が送出される。即ち、CPU40は、基板認識カメラ18に撮像された画像を認識処理(位置ずれ量の算出など)するように指示を認識処理部46に出力すると共に、認識処理結果を認識処理部46から受取るものである。
【0020】
従って、前記認識処理部44及び46の認識処理により位置ずれ量が把握されると、その結果がCPU40に送られ、CPU40は前記ビ−ム8をY軸駆動モ−タ9の駆動によりY方向に、装着ヘッド7をX軸駆動モ−タ12の駆動によりX方向に移動させることにより、またθ軸駆動モ−タ15によりθ回転させ、X、Y方向及び鉛直軸線回りへの回転角度位置の補正がなされるものである。
【0021】
尚、前記部品認識カメラ30、基板認識カメラ18で撮像されると、撮像された画像が表示回路47を介してモニタ48に表示される。
【0022】
52は操作部で、数字をキ−インするテンキ−53、カ−ソルキ−54、モ−ドの設定等をするSETキ−55、電子部品装着装置を教示モ−ドにするための教示キ−56、同装置を自動運転モ−ドにするための自動キ−57、同装置を手動運転モ−ドにするための手動キ−58、始動キ−59、作動キ−60及び停止キ−61とを備えている。
【0023】
以上の構成により、以下特に図5のフロ−チャ−トに基づき教示動作について説明する。先ず、作業者が前記部品認識装置31の天面部31A上に、教示用治具35を載置するが、吸着ノズル7Aで吸着して自動的に載置してもよい。そして、作業者が教示キ−56を押圧すると、CPU40は照明点灯回路24を介して部品認識用照明装置34を点灯させる。
【0024】
次に、CPU40は教示用治具35の反射像を部品認識カメラ30に撮像させ、部品認識処理部44のメモリにその画像を取込ませる。そして、教示用治具35のドットマトリックス37の位置を認識して、部品認識処理部44はモニタ48における画像センタ−からマトリックスセンタ−位置座標(X1、Y1、θ1)及び部品認識カメラ30のピント位置P1がずれるので倍率(Xa、Ya)を測定する。そして、CPU40はドットマトリックスセンタ−位置をXa1=X1×Xa及びYa1=Y1×Yaから算出する。
【0025】
次に、CPU40Aが、ビ−ムY軸駆動モ−タ9及びX軸駆動モ−タ12を駆動させることにより、装着ヘッド7を移動させることにより、基板認識カメラ18が部品認識カメラ30、部品認識照明装置34や教示用治具35の上方に来るように移動させる。このように、教示用治具35は載置したままであり、置き直したりする必要がないため、ずれを回避でき、以下に記述するオフセットデータの精度を向上することができる。
【0026】
そして、CPU40は教示用治具35の透過像を基板認識カメラ18に撮像させ、基板認識処理部46のメモリに画像を取込み、部品認識用照明装置34を消灯させる。
【0027】
次に、ドットマトリックス36の位置を認識して、画像センタ−からマトリックスセンタ−位置座標(X2、Y2、θ2)及び基板認識カメラ18のピント位置P2がずれるので倍率(Xb、Yb)を測定する。そして、CPU40はドットマトリックスセンタ−位置をXb2=X2×Xb及びYb2=Y2×Ybから算出する。
【0028】
以上から、CPU40は部品認識オフセットデ−タを、X=Xa1−Xb2、Y=Ya1−Yb2及びθ=θ1−θ2から算出し、その算出結果をRAM41に格納させ教示する。このように、部品認識オフセットデータを求めるために、専用の照明を設ける必要がないため、コストダウンを図ることが可能となる。
【0029】
そして、このRAM41に格納された算出結果を、CPU40は実際の電子部品装着時に補正データとして加味して使用するものである。即ち、作業者は自動キ−57を押圧して部品装着装置を自動運転モ−ドとし、始動キ−59を押圧することにより部品装着装置の自動運転を行なう際に、前記算出結果は使用されることとなる。
【0030】
以上本発明の実施態様について説明したが、上述の説明に基づいて当業者にとって種々の代替例、修正又は変形が可能であり、本発明はその趣旨を逸脱しない範囲で前述の種々の代替例、修正又は変形を包含するものである。
【0031】
【発明の効果】
以上のように本発明は、教示専用照明を設けることなく、基板認識カメラと部品認識カメラの相対位置を部品認識オフセットデータとして教示する際の精度を向上させることができ、しかも、教示用治具が認識カメラのピントから外れた位置であっても、精度を一層向上することができる。
【図面の簡単な説明】
【図1】電子部品装着装置の平面図である。
【図2】電子部品装着装置の要部正面図である。
【図3】教示用治具の平面図である。
【図4】制御ブロック図である。
【図5】フローチャートを示す図である。
【符号の説明】
1 電子部品装着装置
9 装着ヘッド
18 基板認識カメラ
23 基板認識用照明装置
30 部品認識カメラ
34 部品認識用照明装置
35 教示用治具
36 ドットマトリックス
37 ドットマトリックス
40 CPU
41 RAM
44 部品認識処理部
46 基板認識処理部
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a component recognition camera position offset teaching method and teaching that teaches, as an offset, a relative position between a substrate recognition camera that images a mark attached to a printed circuit board and a component recognition camera that images an electronic component that is suctioned and held by a suction nozzle. It relates to the device.
[0002]
[Prior art]
Conventionally, the following method has been used to teach the relative position between the board recognition camera and the component recognition camera as an offset. That is, first, the teaching jig is attracted to the suction nozzle, the suction nozzle is moved to the position of the component recognition camera, and the position of the jig is imaged by the component recognition camera to recognize the position. Next, the jig is placed on the surface emitting illumination (teaching-dedicated illumination) by removing it from the suction nozzle, the substrate recognition camera is moved above the surface emitting illumination, and is imaged and recognized by the substrate recognition camera. . And the offset value was calculated based on the result.
[0003]
[Problems to be solved by the invention]
However, according to the conventional method, when the jig is repositioned on the surface emitting illumination (teaching-only illumination), a deviation occurs, which adversely affects the accuracy.
[0004]
Therefore, an object of the present invention is to improve the accuracy when teaching the relative position between the board recognition camera and the component recognition camera as an offset without providing dedicated teaching illumination.
[0005]
[Means for Solving the Problems]
Therefore, according to the first aspect of the present invention, a component recognition camera position offset that teaches as an offset a relative position between a board recognition camera that captures a mark attached to a printed circuit board and a component recognition camera that captures an electronic component sucked and held by a suction nozzle. In the teaching method, a teaching jig having a dot matrix is placed on the top surface of the component recognition device, and the reflection image of the teaching jig is captured by the component recognition camera to recognize the position of the dot matrix. The dot matrix center position is calculated, the substrate recognition camera is positioned above the teaching jig, the transmission image of the jig is picked up by the substrate recognition camera, the dot matrix position is recognized, and the dot matrix The matrix center position is calculated, and the component recognition offset data is calculated from both dot matrix center positions and stored in the memory. And it said that there was Unishi.
[0006]
According to a second aspect of the present invention, there is provided a component recognition camera position offset teaching that teaches, as an offset, a relative position between a substrate recognition camera that captures a mark attached to a printed circuit board and a component recognition camera that captures an electronic component sucked and held by a suction nozzle. In the apparatus, the component recognition camera captures a teaching jig that has a dot matrix and is placed on the top surface of the component recognition apparatus, and a reflection image of the teaching jig to recognize the position of the dot matrix. A first calculating means for calculating a dot matrix center position; and a substrate recognition camera that captures a transmission image of the teaching jig and recognizes the position of the dot matrix to calculate a dot matrix center position. 2 calculation means, third calculation means for calculating component recognition offset data from both dot matrix center positions, and the third calculation And a memory for storing a calculation result obtained by the means.
[0007]
[Means for Solving the Problems]
Therefore, according to the first aspect of the present invention, the component recognition that teaches the relative position between the substrate recognition camera that captures the mark attached to the printed circuit board and the component recognition camera that captures the electronic component sucked and held by the suction nozzle as the component recognition offset data. In the camera position offset teaching method, a teaching jig having a dot matrix is placed on the top surface of the component recognition apparatus, and the reflection image of the teaching jig is captured by the component recognition camera to determine the position of the dot matrix. Recognizing and calculating the dot matrix center position based on the dot matrix center position coordinate based on the imaging result and the magnification due to the focus position shift of the component recognition camera, and positioning the substrate recognition camera above the teaching jig It is, then imaged substrate recognize camera transmission image of the jig, to recognize the position of the dot matrix, imaging Dot matrix centers based on results - by the magnification of the focus position shift coordinates and the board recognition camera, dot matrix center - position is calculated, the component recognition offset de - the data both dot matrix centers - calculated from the position memory It is characterized in that it is stored in.
[0008]
According to a second aspect of the present invention, there is provided a component recognition camera that teaches, as component recognition offset data, a relative position between a substrate recognition camera that captures a mark attached to a printed circuit board and a component recognition camera that captures an electronic component sucked and held by a suction nozzle. In the position offset teaching apparatus, a teaching jig that has a dot matrix and is placed on the top surface of the part recognition apparatus, and a reflection image of the teaching jig is captured by the part recognition camera so that the position of the dot matrix And a first calculation means for calculating a dot matrix center position based on a dot matrix center position coordinate based on an imaging result and a magnification due to a focus position shift of the component recognition camera, and the teaching jig The substrate recognition camera captures the transmission image, recognizes the position of the dot matrix, and the dot matrix based on the imaging result Second calculation means for calculating a dot matrix center position based on a center position coordinate and a magnification due to a focus position shift of the substrate recognition camera, and the component recognition offset data are calculated from both dot matrix center positions. It is characterized by comprising a third calculation means and a memory for storing a calculation result by the third calculation means.
[0010]
Each beam 8 is provided with a mounting head 7 that moves along a guide (not shown) by an X-axis drive motor 12 in the longitudinal direction, that is, in the X direction. Each mounting head 7 is equipped with two vertical axis drive motors 14 for moving the suction nozzle 7A up and down, and a θ-axis drive motor 15 for rotating around the vertical axis. . Therefore, the suction nozzle 7A of each mounting head 7 can move in the X direction and the Y direction, can rotate around the vertical line, and can move up and down.
[0011]
Reference numeral 17 denotes a nozzle stocker for storing the suction nozzle 7A, which can store a maximum of ten, but stores nine.
[0012]
Reference numeral 18 denotes a board recognition camera for board position recognition of the board recognition device 19, which is provided on the mounting head 7 and is used for recognizing the positional deviation of the printed board P positioned by the positioning mechanism in the positioning unit 5. -To capture the image.
[0013]
Reference numeral 20 denotes a disk-shaped diffusion plate fixed to the upper portion of the suction nozzle 7A. Reference numeral 21 denotes a cylinder in which a board recognition scope 22 is built. A board recognition illumination device 23 that is lit by an illumination lighting circuit 24 is fixed to the lower part of the outer periphery of the cylinder 21.
[0014]
30 is a component recognition camera for recognizing the position of the transparent component of the component recognition device 31. A component recognition scope 32 is disposed immediately above the component recognition camera 30, and the component recognition scope 32 is further disposed in the inner cylinder 33. Above the scope 32, a component recognition illumination device 34 that is lit by the illumination lighting circuit 24 is disposed. The component recognition camera 31 is provided corresponding to each mounting head 7 and recognizes the position of the electronic component with respect to the suction nozzle 7 </ b> A by being displaced and held with respect to the XY direction and the rotation angle. For this purpose, the electronic component is imaged.
[0015]
Further, a teaching jig 35 as shown in FIG. 3 is placed on the top surface portion 31 </ b> A of the component recognition device 31. The teaching jig 35 is made of, for example, transparent glass, and has dots on its upper surface in a matrix. More specifically, a plurality of dot matrices 36 at the center are for substrate recognition, and the dot matrix 36 has an area around it and a dot matrix 37 for component recognition is attached around it.
[0016]
FIG. 4 is a control block diagram of the electronic component mounting apparatus 1. Reference numeral 40 denotes a CPU as a control unit that performs overall control of operations related to mounting of the mounting apparatus. Reference numeral 41 denotes information on the X direction, Y direction and angular position in the printed circuit board P for each mounting order of electronic components, and each component supply unit. RAM (Random Access Memory) for storing mounting data, part library data, etc., and ROM (Read Only Memory) for storing programs. is there.
[0017]
Based on the data stored in the RAM 41, the CPU 40 controls the operation related to the component mounting operation of the electronic component mounting apparatus according to the program stored in the ROM. That is, the CPU 40 controls the drive of the X-axis drive motor 12, the Y-axis drive motor 9, the vertical drive motor 14 and the θ-axis drive motor 15 via the drive circuit 43. To do.
[0018]
A component recognition processing unit 44 is connected to the CPU 40 via an interface 45. The recognition processing unit 44 performs recognition processing of an image captured by the component recognition camera 30. The processing result is sent to the CPU 40. That is, the CPU 40 outputs an instruction to the recognition processing unit 44 so as to perform recognition processing (calculation of misalignment amount, etc.) on the image captured by the component recognition camera 30, and receives the recognition processing result from the recognition processing unit 44. It is.
[0019]
Reference numeral 46 denotes a substrate recognition processing unit connected to the CPU 40 via an interface 45. The recognition processing unit 46 performs recognition processing of an image captured by the substrate recognition camera 18. The processing result is sent to the CPU 40. That is, the CPU 40 outputs an instruction to the recognition processing unit 46 so as to perform a recognition process (calculation of a positional deviation amount) on the image captured by the board recognition camera 18 and receives a recognition process result from the recognition processing unit 46. It is.
[0020]
Accordingly, when the amount of positional deviation is grasped by the recognition processing of the recognition processing units 44 and 46, the result is sent to the CPU 40, and the CPU 40 drives the beam 8 in the Y direction by driving the Y-axis drive motor 9. In addition, the mounting head 7 is moved in the X direction by driving the X-axis drive motor 12, and is rotated by θ by the θ-axis drive motor 15, so that the rotational angular position about the X, Y direction and the vertical axis is obtained. Correction is made.
[0021]
When the image is picked up by the component recognition camera 30 and the board recognition camera 18, the picked up image is displayed on the monitor 48 through the display circuit 47.
[0022]
An operation unit 52 is a numeric keypad 53 for keying a number, a cursor key 54, a SET key 55 for setting a mode, etc., and a teaching key for setting the electronic component mounting apparatus to a teaching mode. -56, automatic key 57 for setting the device to the automatic operation mode, manual key 58 for setting the device to the manual operation mode, start key 59, operation key 60 and stop key 61.
[0023]
With the above configuration, the teaching operation will be described below based on the flowchart of FIG. First, the operator places the teaching jig 35 on the top surface portion 31A of the component recognition device 31. However, the teaching jig 35 may be automatically adsorbed by the adsorption nozzle 7A. When the operator presses the teaching key 56, the CPU 40 lights up the component recognition lighting device 34 via the lighting lighting circuit 24.
[0024]
Next, the CPU 40 causes the component recognition camera 30 to capture a reflection image of the teaching jig 35 and causes the memory of the component recognition processing unit 44 to capture the image. Then, by recognizing the position of the dot matrix 37 of the teaching jig 35, the component recognition processing unit 44 determines the matrix center position coordinates (X1, Y1, θ1) from the image center on the monitor 48 and the focus of the component recognition camera 30. Since the position P1 is shifted, the magnification (Xa, Ya) is measured. Then, the CPU 40 calculates the dot matrix center position from Xa1 = X1 × Xa and Ya1 = Y1 × Ya.
[0025]
Next, the CPU 40A drives the beam Y-axis drive motor 9 and the X-axis drive motor 12 to move the mounting head 7, whereby the board recognition camera 18 moves the component recognition camera 30 and the parts. The recognition illumination device 34 and the teaching jig 35 are moved so as to come above. In this way, the teaching jig 35 remains placed and does not need to be re-placed, so that a deviation can be avoided and the accuracy of offset data described below can be improved.
[0026]
Then, the CPU 40 causes the board recognition camera 18 to capture a transmission image of the teaching jig 35, loads the image into the memory of the board recognition processing unit 46, and turns off the component recognition lighting device 34.
[0027]
Next, the position of the dot matrix 36 is recognized, and the magnification (Xb, Yb) is measured because the matrix center position coordinates (X2, Y2, θ2) and the focus position P2 of the substrate recognition camera 18 are shifted from the image center. . Then, the CPU 40 calculates the dot matrix center position from Xb2 = X2 × Xb and Yb2 = Y2 × Yb.
[0028]
From the above, the CPU 40 calculates the component recognition offset data from X = Xa1-Xb2, Y = Ya1-Yb2, and θ = θ1-θ2, and stores the calculation result in the RAM 41 for teaching. As described above, since it is not necessary to provide dedicated illumination in order to obtain the component recognition offset data, it is possible to reduce the cost.
[0029]
Then, the CPU 40 uses the calculation result stored in the RAM 41 as correction data when actually mounting the electronic component. That is, the operator presses the automatic key 57 to place the component mounting apparatus in the automatic operation mode, and the calculation result is used when the component mounting apparatus is automatically operated by pressing the start key 59. The Rukoto.
[0030]
Although the embodiments of the present invention have been described above, various alternatives, modifications, and variations can be made by those skilled in the art based on the above description, and the present invention is not limited to the various alternatives described above without departing from the spirit of the present invention. It includes modifications or variations.
[0031]
【The invention's effect】
As described above, the present invention can improve the accuracy when teaching the relative position between the board recognition camera and the component recognition camera as component recognition offset data without providing dedicated teaching illumination. Even if the position is out of focus of the recognition camera, the accuracy can be further improved.
[Brief description of the drawings]
FIG. 1 is a plan view of an electronic component mounting apparatus.
FIG. 2 is a front view of an essential part of the electronic component mounting apparatus.
FIG. 3 is a plan view of a teaching jig.
FIG. 4 is a control block diagram.
FIG. 5 is a flowchart.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 Electronic component mounting apparatus 9 Mounting head 18 Substrate recognition camera 23 Substrate recognition illumination device 30 Component recognition camera 34 Component recognition illumination device 35 Teaching jig 36 Dot matrix 37 Dot matrix 40 CPU
41 RAM
44 Component recognition processing unit 46 Substrate recognition processing unit

Claims (2)

プリント基板に付されたマークを撮像する基板認識カメラと吸着ノズルに吸着保持された電子部品を撮像する部品認識カメラの相対位置を部品認識オフセットデータとして教示する部品認識カメラ位置オフセット教示方法において、
部品認識装置の天面部上にドットマトリックスを有する教示用治具を載置し、
前記教示用治具の反射像を前記部品認識カメラが撮像してドットマトリックスの位置を認識して、撮像結果に基づくドットマトリックスセンタ−位置座標と前記部品認識カメラのピント位置ずれによる倍率とにより、ドットマトリックスセンタ−位置を算出し、
前記基板認識カメラを前記教示用治具上方に位置させ、該治具の透過像を該基板認識カメラが撮像し、ドットマトリックスの位置を認識して、撮像結果に基づくドットマトリックスセンタ−位置座標と前記基板認識カメラのピント位置ずれによる倍率とにより、ドットマトリックスセンタ−位置を算出し、
前記部品認識オフセットデ−タを両ドットマトリックスセンタ−位置から算出しメモリに格納するようにしたことを特徴とする部品認識カメラ位置オフセット教示方法。
In a component recognition camera position offset teaching method for teaching a relative position between a substrate recognition camera that images a mark attached to a printed circuit board and a component recognition camera that images an electronic component sucked and held by a suction nozzle as component recognition offset data.
A teaching jig having a dot matrix is placed on the top surface of the component recognition device,
The component recognition camera captures the reflected image of the teaching jig and recognizes the position of the dot matrix. Based on the dot matrix center position coordinates based on the imaging result and the magnification due to the focus position shift of the component recognition camera, Calculate the dot matrix center position,
The substrate recognition camera is positioned above the teaching jig, the transmission image of the jig is captured by the substrate recognition camera, the position of the dot matrix is recognized, and the dot matrix center position coordinates based on the imaging result The dot matrix center position is calculated by the magnification due to the focus position shift of the substrate recognition camera ,
A component recognition camera position offset teaching method, wherein the component recognition offset data is calculated from both dot matrix center positions and stored in a memory.
プリント基板に付されたマークを撮像する基板認識カメラと吸着ノズルに吸着保持された電子部品を撮像する部品認識カメラの相対位置を部品認識オフセットデータとして教示する部品認識カメラ位置オフセット教示装置において、
ドットマトリックスを有し部品認識装置の天面部上に載置される教示用治具と、
該教示用治具の反射像を前記部品認識カメラが撮像してドットマトリックスの位置を認識して、撮像結果に基づくドットマトリックスセンタ−位置座標と前記部品認識カメラのピント位置ずれによる倍率とにより、ドットマトリックスセンタ−位置を算出する第1の算出手段と、
前記教示用治具の透過像を該基板認識カメラが撮像してドットマトリックスの位置を認識して、撮像結果に基づくドットマトリックスセンタ−位置座標と前記基板認識カメラのピント位置ずれによる倍率とにより、ドットマトリックスセンタ−位置を算出する第2の算出手段と、
前記部品認識オフセットデ−タを両ドットマトリックスセンタ−位置から算出する第3の算出手段と、
該第3の算出手段による算出結果を格納するメモリとから成ることを特徴とする部品認識カメラ位置オフセット教示装置。
In a component recognition camera position offset teaching apparatus that teaches, as component recognition offset data, a relative position between a substrate recognition camera that images a mark attached to a printed circuit board and a component recognition camera that images an electronic component sucked and held by a suction nozzle.
A teaching jig that has a dot matrix and is placed on the top surface of the component recognition device;
The component recognition camera captures the reflected image of the teaching jig to recognize the position of the dot matrix, and the dot matrix center position coordinates based on the imaging result and the magnification by the focus position shift of the component recognition camera, First calculation means for calculating a dot matrix center position;
The substrate recognition camera captures a transmission image of the teaching jig and recognizes the position of the dot matrix, and the dot matrix center position coordinates based on the imaging result and the magnification due to the focus position shift of the substrate recognition camera, A second calculating means for calculating a dot matrix center position;
Third calculation means for calculating the component recognition offset data from both dot matrix center positions;
A component recognition camera position offset teaching apparatus comprising: a memory for storing a calculation result by the third calculation means.
JP2001362715A 2001-11-28 2001-11-28 Component recognition camera position offset teaching method and teaching apparatus Expired - Fee Related JP3807490B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001362715A JP3807490B2 (en) 2001-11-28 2001-11-28 Component recognition camera position offset teaching method and teaching apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001362715A JP3807490B2 (en) 2001-11-28 2001-11-28 Component recognition camera position offset teaching method and teaching apparatus

Publications (2)

Publication Number Publication Date
JP2003165080A JP2003165080A (en) 2003-06-10
JP3807490B2 true JP3807490B2 (en) 2006-08-09

Family

ID=19173171

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001362715A Expired - Fee Related JP3807490B2 (en) 2001-11-28 2001-11-28 Component recognition camera position offset teaching method and teaching apparatus

Country Status (1)

Country Link
JP (1) JP3807490B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4604533B2 (en) * 2004-03-24 2011-01-05 セイコーエプソン株式会社 Coordinate accuracy confirmation method and electro-optic device manufacturing method
KR100662564B1 (en) 2004-08-19 2006-12-28 삼성전자주식회사 Align apparatus
CN101258030B (en) * 2005-04-25 2011-05-11 株式会社爱发科 Printing alignment method
CN111127549A (en) * 2019-12-25 2020-05-08 苏州伟信奥图智能科技有限公司 Calibration method for center of polyhedron
CN111127566A (en) * 2019-12-25 2020-05-08 苏州伟信奥图智能科技有限公司 Calibration method for center of polyhedron

Also Published As

Publication number Publication date
JP2003165080A (en) 2003-06-10

Similar Documents

Publication Publication Date Title
JP4387745B2 (en) Electronic component mounting device
JP5318334B2 (en) Method and apparatus for detecting position of object
JP2004146661A (en) Electronic component mounting apparatus
JP3807490B2 (en) Component recognition camera position offset teaching method and teaching apparatus
KR101122356B1 (en) Board positioning device and board positioning method
JP2007012889A (en) Method and apparatus for mounting electronic component
JP4602174B2 (en) Mounting coordinate data updating method and mounting coordinate data updating apparatus in electronic component mounting apparatus
JP4309221B2 (en) Electronic component mounting equipment
JP2009283504A (en) Screen printer, electronic component mounting device, and mounting line for electronic component
JP4202042B2 (en) Electronic component mounting apparatus recognition method and recognition apparatus
JP4056572B2 (en) Data creation apparatus and method, and electronic component mounting apparatus
JPH10135700A (en) Data processing device and electronic components mounting apparatus
JPH10135686A (en) Data processing device and electronic components mounting apparatus
JP4220288B2 (en) Electronic component mounting method and electronic component mounting apparatus
JP3847070B2 (en) Electronic component mounting apparatus and electronic component mounting method
JP4450540B2 (en) Electronic component mounting device
JP2008010620A (en) Device and method for moving in directions of x and y
JP4925943B2 (en) How to verify parts library data
JP5740082B2 (en) Board production line consisting of multiple surface mount devices
JP2008139260A (en) Image display unit and method, appearance inspection device, cream solder printer
JP2003298293A (en) Electronic component mounter
JP3133584B2 (en) Electronic component automatic mounting device
JP3888063B2 (en) Image recognition method
JP4989517B2 (en) Mounting method of electronic parts
JPH06232599A (en) Component pickup apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040730

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050308

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050509

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20051109

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051209

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060220

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20060228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060411

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060509

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100526

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110526

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120526

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130526

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130526

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140526

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees