JP2007013021A - Component recognition method and device - Google Patents

Component recognition method and device Download PDF

Info

Publication number
JP2007013021A
JP2007013021A JP2005194651A JP2005194651A JP2007013021A JP 2007013021 A JP2007013021 A JP 2007013021A JP 2005194651 A JP2005194651 A JP 2005194651A JP 2005194651 A JP2005194651 A JP 2005194651A JP 2007013021 A JP2007013021 A JP 2007013021A
Authority
JP
Japan
Prior art keywords
component
image
recognition
suction head
imaging device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005194651A
Other languages
Japanese (ja)
Other versions
JP4651466B2 (en
Inventor
Yoshiaki Abe
好晃 安部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Juki Corp
Original Assignee
Juki Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Juki Corp filed Critical Juki Corp
Priority to JP2005194651A priority Critical patent/JP4651466B2/en
Publication of JP2007013021A publication Critical patent/JP2007013021A/en
Application granted granted Critical
Publication of JP4651466B2 publication Critical patent/JP4651466B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Supply And Installment Of Electrical Components (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a component recognition method and device capable of taking an image of a component by moving an absorption head relatively to an imaging device and accurately recognizing the component even through the component image is shifted. <P>SOLUTION: The absorption head 1 for absorbing a component 3 is moved on a component recognition camera 7 in one direction, and images the component 3 together with a spot light source 8 provided at the head 1 as an indication pointer for measuring a speed. A moving speed or an acceleration of the head 1 is measured depending on the length in the movement direction of a taken light path of the light source 8. The component recognition is conducted by varying the component data used for the component recognition, or by compensating the taken image of the component on the basis of the measured result. This constitution can obtain the recognition result equal to the component recognition of the component in resting state, which can conduct the component recognition as the component moves to be able to improve the component recognition tact. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、部品認識方法及び装置、更に詳細には、吸着ヘッドに吸着された部品を撮像し、その画像を処理して部品認識する部品認識方法及び装置に関するものである。   The present invention relates to a component recognition method and apparatus, and more particularly, to a component recognition method and apparatus for recognizing a component by imaging a component sucked by a suction head and processing the image.

電子部品を回路基板上に実装する部品実装機では、部品供給装置から供給される電子部品を吸着ヘッドの吸着ノズルで吸着した後、吸着ヘッドを部品認識カメラ上に移動させて電子部品を撮像し、その画像を処理して電子部品の中心と傾きを検出し、吸着ずれを算出している。このように部品画像を処理して部品中心と傾きを検出する処理あるいは吸着ずれを検出する処理を部品認識と呼んでいる(部品位置検出あるいは部品位置決めともいう)。部品実装機は、この部品認識により検出された吸着ずれを補正して、電子部品を基板の所定位置に搭載する。   In a component mounter that mounts electronic components on a circuit board, the electronic component supplied from the component supply device is sucked by the suction nozzle of the suction head, and then the suction head is moved onto the component recognition camera to image the electronic component. The image is processed to detect the center and inclination of the electronic component, and the suction deviation is calculated. The process of processing a part image to detect the part center and inclination, or the process of detecting a suction deviation is called part recognition (also referred to as part position detection or part positioning). The component mounter corrects the suction deviation detected by the component recognition and mounts the electronic component at a predetermined position on the board.

ところで、電子部品を部品認識カメラで撮像するときに、吸着ヘッドをカメラ上で移動させながら撮像すると、撮像した電子部品の画像がずれてしまう。例えば、図9に示したように、吸着ヘッドの吸着ノズル1aに吸着された円形の電子部品3が、部品認識カメラ7上で矢印で示す一方向に一定速度で移動して撮像された場合、撮像画面91において部品3の画像92の形状は、本来の円形ではなく、2つの半円どうしを2本の直線でつないだ小判形状になってしまう。この部品画像92に基づいて部品認識を行うと、本来の形状と異なるので、認識エラーとなって部品3の基板上での搭載ができない、或いは誤認識して正確な位置に搭載できなくなる、という問題がある。   By the way, when the electronic component is imaged by the component recognition camera, if the image is taken while moving the suction head on the camera, the image of the captured electronic component is shifted. For example, as shown in FIG. 9, when the circular electronic component 3 sucked by the suction nozzle 1a of the suction head is imaged by moving at a constant speed in one direction indicated by an arrow on the component recognition camera 7, In the imaging screen 91, the shape of the image 92 of the component 3 is not an original circle but an oval shape in which two semicircles are connected by two straight lines. When component recognition is performed based on this component image 92, it is different from the original shape, so that it becomes a recognition error and the component 3 cannot be mounted on the board, or it is erroneously recognized and cannot be mounted at an accurate position. There's a problem.

従来では、この問題を回避するために、図8に示すように、部品認識カメラ7上で部品3を停止させる(吸着ヘッドを停止させる)か、或いは吸着ヘッドの移動速度を充分に遅くして撮像することにより、部品画像82にズレが生じないようにしていた。しかし、この方法では、撮像のために時間がかかってしまい、部品の搭載タクトを上げることができない、という問題がある。   Conventionally, in order to avoid this problem, as shown in FIG. 8, the component 3 is stopped (stops the suction head) on the component recognition camera 7, or the moving speed of the suction head is sufficiently slowed down. By taking an image, the component image 82 is prevented from being displaced. However, this method has a problem in that it takes time for imaging, and the mounting tact of the component cannot be increased.

これに対して、部品認識カメラ上で吸着ヘッドを移動させながら、電子部品を撮像し、その際に露光時間を短くすることにより、撮像した電子部品の画像のズレを防ぐ方法が下記の特許文献1などに記載されている。この特許文献に記載された方法では、電子部品と共に、吸着ヘッドに設けた基準マークを露光時間を短くして撮像し、撮像された基準マークの画像から部品の吸着位置を検出し、予め定められた基準マークと吸着ノズルとの相対位置と、前記検出した吸着位置とからずれ量を計算し、このずれ量を補正して電子部品を搭載している。
特開平5−63398号公報
On the other hand, the following patent document discloses a method for preventing deviation of an image of the captured electronic component by capturing the electronic component while moving the suction head on the component recognition camera and shortening the exposure time at that time. 1 and the like. In the method described in this patent document, the reference mark provided on the suction head is imaged together with the electronic component with a short exposure time, and the suction position of the component is detected from the image of the captured reference mark. A deviation amount is calculated from the relative position between the reference mark and the suction nozzle and the detected suction position, and the electronic component is mounted by correcting the deviation amount.
JP-A-5-63398

しかしながら、電子部品の撮像時の露光時間を短くする方法では、電子部品の照明光量を大きくして電子部品が明瞭に写るようにする必要がある。このため、照明光源に照明光量の大きな高価なものを用いる必要があると共に、その消費電力も大きくなってしまうという問題がある。   However, in the method of shortening the exposure time when imaging an electronic component, it is necessary to increase the amount of illumination light of the electronic component so that the electronic component can be clearly seen. For this reason, it is necessary to use an expensive illumination light source with a large amount of illumination, and there is a problem that the power consumption is increased.

そこで本発明の課題は、吸着ヘッドを撮像装置に対して相対的に移動させて部品を撮像し、部品画像にズレが生じても、部品認識を正確に行えることができる部品認識方法及び装置を提供することにある。   Accordingly, an object of the present invention is to provide a component recognition method and apparatus capable of accurately performing component recognition even when a component image is imaged by moving a suction head relative to an imaging device and the component image is displaced. It is to provide.

上記の課題を解決するため、
本発明(請求項1、3)は、
吸着ヘッドに吸着された部品を撮像装置で撮像しその部品画像を処理して部品認識を行う部品認識方法及び装置であって、
吸着ヘッドを撮像装置に対して相対的に移動させて部品を撮像すること、
吸着ヘッドの撮像装置に対する相対速度又は加速度を測定すること、
測定された相対速度又は加速度に基づいて部品認識に使用される部品データを変更すること、
変更された部品データを用いて部品認識を行うことを特徴とする。
To solve the above problem,
The present invention (Claims 1 and 3)
A component recognition method and device for recognizing a component by picking up an image of a component sucked by a suction head with an imaging device and processing the component image,
Moving the suction head relative to the imaging device to image the component;
Measuring the relative speed or acceleration of the suction head relative to the imaging device;
Changing the part data used for part recognition based on the measured relative speed or acceleration,
Component recognition is performed using the changed component data.

また、本発明(請求項2、4)は、
吸着ヘッドに吸着された部品を撮像装置で撮像しその部品画像を処理して部品認識を行う部品認識方法及び装置であって、
吸着ヘッドを撮像装置に対して相対的に移動させて部品を撮像すること、
吸着ヘッドの撮像装置に対する相対速度又は加速度を測定すること、
測定された相対速度又は加速度に基づいて撮像された部品の画像を補正すること、
補正された部品画像に基づいて部品認識を行うことを特徴とする。
The present invention (claims 2 and 4)
A component recognition method and device for recognizing a component by picking up an image of a component sucked by a suction head with an imaging device and processing the component image,
Moving the suction head relative to the imaging device to image the component;
Measuring the relative speed or acceleration of the suction head relative to the imaging device;
Correcting the image of the imaged part based on the measured relative velocity or acceleration;
Component recognition is performed based on the corrected component image.

本発明によれば、吸着ヘッドの撮像装置に対する相対速度又は加速度に基づいて、部品データを変更して、ないしは撮像された部品の画像を補正して部品認識しているので、吸着ヘッドを撮像装置上を移動させて部品を撮像しても、部品を停止して撮像したときと同様な部品認識結果を得ることができる。従って、部品を移動させながら、部品認識することができるので、部品の認識速度を向上させることができる。   According to the present invention, the component data is changed based on the relative speed or acceleration of the suction head with respect to the imaging device or the image of the captured component is corrected to recognize the component. Even if the part is moved and the part is picked up, the same part recognition result as that obtained when the part is stopped and picked up can be obtained. Accordingly, since the component can be recognized while moving the component, the recognition speed of the component can be improved.

以下、添付した図を参照して本発明の実施の形態を説明する。   Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings.

図1は、本発明に利用される部品実装機の要部の構成を示している。吸着ヘッド1は、フィーダー9から供給される電子部品(以下、部品と略す)3を吸着ノズル1aで吸着して基板4上に移送し、そこの所定位置に搭載する。吸着ヘッド1には、吸着ノズル1aと共に、マーク認識ユニット2とスポット光源8が設けられている。マーク認識ユニット2は、基板4の基板マーク4a,4b,4cを画像認識するためのもので、これらのマークを撮像するCCDカメラなどの撮像装置からなる。基板4は、搬送ベルト6の駆動により基板搬送ガイド5に沿って搬送され、部品3を搭載する所定の基準位置に位置決めされる。スポット光源8は、吸着ヘッド1の移動速度を測定するための標識となるものである。また、7は、部品認識のために部品3を撮像するCCDカメラなどからなる部品認識カメラ(撮像装置)であり、部品実装機の本体上の所定位置に固定されている。   FIG. 1 shows a configuration of a main part of a component mounter used in the present invention. The suction head 1 sucks an electronic component (hereinafter abbreviated as a component) 3 supplied from the feeder 9 with a suction nozzle 1a, transfers it onto the substrate 4, and mounts it on a predetermined position. The suction head 1 is provided with a mark recognition unit 2 and a spot light source 8 together with a suction nozzle 1a. The mark recognition unit 2 is for recognizing images of the substrate marks 4a, 4b, and 4c of the substrate 4, and includes an imaging device such as a CCD camera that images these marks. The substrate 4 is transported along the substrate transport guide 5 by driving the transport belt 6 and is positioned at a predetermined reference position on which the component 3 is mounted. The spot light source 8 serves as a marker for measuring the moving speed of the suction head 1. Reference numeral 7 denotes a component recognition camera (imaging device) including a CCD camera that images the component 3 for component recognition, and is fixed at a predetermined position on the main body of the component mounter.

図2は、部品実装機の制御系と部品認識を行う画像処理装置の構成を示している。   FIG. 2 shows a configuration of a control system of the component mounter and an image processing apparatus that performs component recognition.

メイン制御装置12のCPU121は、実装機全体の制御を行うもので、吸着ヘッド1をX軸,Y軸,Z軸の各方向に移動させるX軸モータ13,Y軸モータ14,Z軸モータ15の駆動を制御する。また、吸着ノズル1aをθ軸を中心に回転させるθ軸モータ16の駆動を制御する。照明コントローラ122は、スポット光源8及び部品照明装置10の点灯/消灯を制御する。   The CPU 121 of the main control device 12 controls the entire mounting machine. The X-axis motor 13, the Y-axis motor 14, and the Z-axis motor 15 move the suction head 1 in the X-axis, Y-axis, and Z-axis directions. Control the drive. Further, the driving of the θ-axis motor 16 that rotates the suction nozzle 1a around the θ-axis is controlled. The illumination controller 122 controls turning on / off of the spot light source 8 and the component lighting device 10.

また、画像処理装置11では、部品認識カメラ7から入力されるアナログの画像信号がA/D変換器111によりデジタル画像データに変換され、画像メモリ112に格納される。画像処理装置11には、部品3の形状や、部品寸法、リード幅、リードピッチ、リード長さなど位置決めのためのデータや、吸着位置、搭載位置などのデータを部品ごとに記憶する部品データ記憶部115が設けられている。   In the image processing apparatus 11, an analog image signal input from the component recognition camera 7 is converted into digital image data by the A / D converter 111 and stored in the image memory 112. The image processing device 11 stores component data such as the shape of the component 3, component dimensions, lead width, lead pitch, and lead length, and data such as suction position and mounting position for each component. A section 115 is provided.

画像処理装置11のCPU116は、メモリに記憶された部品認識プログラム114を読み出して実行し、画像メモリ112に格納された部品画像を処理し、部品中心と部品傾きを算出する。その場合、CPU116は、後述するように、吸着ヘッドの移動速度又は加速度を測定し(測定手段)、測定された移動速度又は加速度に基づいて部品認識に使用される部品データを変更し(変更手段)、また測定された移動速度又は加速度に基づいて部品の画像を補正する(補正手段)機能を有する。作業用メモリ113は、この画像処理時の作業用のメモリとして用いられる。   The CPU 116 of the image processing apparatus 11 reads and executes the component recognition program 114 stored in the memory, processes the component image stored in the image memory 112, and calculates the component center and the component inclination. In that case, as will be described later, the CPU 116 measures the moving speed or acceleration of the suction head (measuring means) and changes the component data used for component recognition based on the measured moving speed or acceleration (changing means). And a function of correcting the image of the component based on the measured moving speed or acceleration (correcting means). The work memory 113 is used as a work memory during the image processing.

画像処理装置11は、算出した中心位置と傾きから吸着ずれ量を求め、そのずれ量をインターフェース117を介してメイン制御装置12に送信する。メイン制御装置11は、このずれ量をX軸モータ13、Y軸モータ14、θ軸モータ16の駆動時に反映させ、吸着ずれを補正して部品3を基板4上に搭載する。   The image processing apparatus 11 obtains an adsorption deviation amount from the calculated center position and inclination, and transmits the deviation amount to the main control apparatus 12 via the interface 117. The main control device 11 reflects the deviation amount when driving the X-axis motor 13, the Y-axis motor 14, and the θ-axis motor 16, corrects the adsorption deviation, and mounts the component 3 on the substrate 4.

また、画像処理装置11は、マーク認識ユニット2のカメラから入力される基板マーク4a〜4cの画像認識処理を行って基板4の基準位置からの位置ずれ量を求め、基板4の位置ずれを算出し、その情報をメイン制御装置12に送信する。メイン制御装置11は、このずれ量をX軸モータ13、Y軸モータ14の駆動時に反映させ、基板の位置ずれを補償する。   Further, the image processing apparatus 11 performs image recognition processing of the substrate marks 4 a to 4 c input from the camera of the mark recognition unit 2 to obtain the amount of displacement from the reference position of the substrate 4, and calculates the displacement of the substrate 4. Then, the information is transmitted to the main control device 12. The main control device 11 reflects this deviation amount when the X-axis motor 13 and the Y-axis motor 14 are driven, and compensates for the positional deviation of the substrate.

本発明では、部品の搭載タクトを向上させるために、吸着ヘッド1を部品認識カメラ7の位置で停止させて部品を撮像するのではなく、部品認識カメラ7上を一定速度で相対移動させ、部品3を撮像する。その際に、図3に示すタイミングで部品認識カメラ7のシャッターの開閉と、照明装置10による部品3の照明と、スポット光源8のオン/オフ(点灯/消灯)を制御する。すなわち、シャッターを所定時間だけ開き、その間に、より短い時間で、部品照明とスポット光源8を同時に点灯させて、部品3と共にスポット光源8を撮像する。なお、ここでは説明を簡単にするために、吸着ヘッド1の移動方向はX軸方向とするが、Y軸方向あるいはX軸ないしY軸方向に対して傾斜した方向でもよい。   In the present invention, in order to improve the component mounting tact, the suction head 1 is not stopped at the position of the component recognition camera 7 and the component is imaged, but the component recognition camera 7 is moved relative to the component recognition camera 7 at a constant speed. 3 is imaged. At that time, the opening / closing of the shutter of the component recognition camera 7, the illumination of the component 3 by the illumination device 10, and the on / off (lighting / extinguishing) of the spot light source 8 are controlled at the timing shown in FIG. That is, the shutter is opened for a predetermined time, and during that time, the component illumination and the spot light source 8 are turned on at the same time, and the spot light source 8 is imaged together with the component 3. Here, for the sake of simplicity, the moving direction of the suction head 1 is the X-axis direction, but it may be the Y-axis direction or a direction inclined with respect to the X-axis or Y-axis direction.

図4には、上記のような条件で円形の部品3が撮像されたときの画面21が図示されている。画面21において横方向がX軸方向であり、部品3の画像22は移動速度に応じて直線部が発生し両側が半円となった長方形(図4に示した部品画像22の形状)の画像となる。   FIG. 4 shows a screen 21 when the circular component 3 is imaged under the above conditions. In the screen 21, the horizontal direction is the X-axis direction, and the image 22 of the component 3 is an image of a rectangle (shape of the component image 22 shown in FIG. 4) in which a straight line portion is generated according to the moving speed and both sides are semicircles. It becomes.

また、画面21中で上端部の領域23には、スポット光源8の光跡(以下、標識光跡という)24が線分として撮像される。標識光跡24はヘッド移動方向に沿って伸びており、その長さがヘッド移動速度に対応する。画像処理装置11のCPU116は、領域23の画像信号を適当なしきい値で2値化して標識光跡24の線分の両端を検出し、その長さと、スポット光源8の点灯時間(露光時間)から、ヘッド1の認識カメラ7に対する移動速度を測定する。例えば、長さが100画素の長さで点灯時間が10msecだった場合、ヘッド移動速度は10画素/msecとなる。   Further, a light trace (hereinafter, referred to as a marker light trace) 24 of the spot light source 8 is imaged as a line segment in the upper end region 23 in the screen 21. The marker light trace 24 extends along the head moving direction, and its length corresponds to the head moving speed. The CPU 116 of the image processing apparatus 11 binarizes the image signal of the area 23 with an appropriate threshold value, detects both ends of the line segment of the marker light trace 24, and the length and lighting time (exposure time) of the spot light source 8. Then, the moving speed of the head 1 relative to the recognition camera 7 is measured. For example, when the length is 100 pixels and the lighting time is 10 msec, the head moving speed is 10 pixels / msec.

部品3が部品データにその形状が円形として定義されていると、図4の部品3の画像22に基づいて部品認識すると、円形とは判定されず、認識アルゴリズムによっては、認識エラーとなって認識できないか、或いは誤認識してしまう。しかし、ヘッド移動速度が分かれば部品3がどのような形状に変化するかが分かる。例えば、部品撮像中のヘッド移動速度が、上記のように10画素/msecであった場合、部品3は10msecの照明点灯中に100画素の距離移動することになる。したがって、撮像される部品画像は、停止画像に比べて、中心位置を同じとして、両端のエッジがX軸方向の両方向に50画素ずつずれることになり、部品画像の形状は直線部の長さが100画素の長方形でその両側が半円となった形状(図4に示した部品画像22の形状)となる。そこで、部品データ記憶部115に格納されている部品3の部品データにおいて、部品の形状を、ヘッド移動速度に応じて変化する形状に設定(変更)する。そして、公知のアルゴリズムにより部品画像22の最外周エッジを取得して部品認識を行い、部品中心と傾きを取得する。このように、部品形状が、ヘッドの移動速度に応じて変化する形状に変更されるので、形状が部品データに記憶されているものと異なるという理由では認識エラーとならず、ヘッドを移動させながら部品を撮像して部品認識を行うことができる。   If the shape of the component 3 is defined as a circle in the component data, if the component is recognized based on the image 22 of the component 3 in FIG. 4, it is not determined to be a circle, and may be recognized as a recognition error depending on the recognition algorithm. Can't do it or misrecognizes it. However, if the head moving speed is known, the shape of the component 3 can be understood. For example, when the moving speed of the head during imaging of the component is 10 pixels / msec as described above, the component 3 moves by a distance of 100 pixels during lighting of 10 msec. Therefore, the captured component image has the same center position as the stop image, and the edges of both ends are shifted by 50 pixels in both directions in the X-axis direction. The shape of the component image is the length of the straight line portion. The shape is a rectangle of 100 pixels, with both sides being semicircles (the shape of the component image 22 shown in FIG. 4). Therefore, in the component data of the component 3 stored in the component data storage unit 115, the shape of the component is set (changed) to a shape that changes according to the head moving speed. Then, the outermost peripheral edge of the component image 22 is acquired by a known algorithm, component recognition is performed, and the component center and inclination are acquired. In this way, the part shape is changed to a shape that changes according to the moving speed of the head. Therefore, there is no recognition error because the shape is different from that stored in the part data. It is possible to recognize a part by imaging the part.

また、リード部品などで、リード幅やリード長さが部品位置決めに使用される場合、部品データのリード幅やリード長さをヘッド移動速度に応じて変更することで、ヘッドを移動させながら部品を撮像して部品認識を行っても、ヘッドを停止させて部品を撮像し部品認識を行った場合と同じ結果を得ることができる。   In addition, when the lead width and lead length are used for part positioning in lead parts, etc., the parts can be moved while moving the head by changing the lead width and lead length of the part data according to the head moving speed. Even if parts are recognized by capturing an image, the same result can be obtained as in the case where parts are captured by stopping the head and parts are recognized.

なお、ヘッド移動方向がX軸ないしY軸方向に対して傾斜した方向である場合には、ヘッド移動速度のX軸方向への成分とY軸方向への成分に基づいて、部品認識処理に用いる部品形状データを変更する。   When the head moving direction is a direction inclined with respect to the X-axis or Y-axis direction, it is used for component recognition processing based on the component of the head moving speed in the X-axis direction and the component in the Y-axis direction. Change part shape data.

実施例1では、部品3の撮像時のヘッド移動速度に基づいて、部品認識に用いる部品3の部品形状データを変更したが、ヘッド移動速度に基づいて、撮像された部品3の画像を補正し、補正された画像に基づいて部品認識するようにしてもよい。以下に、その例を説明する。   In the first embodiment, the component shape data of the component 3 used for component recognition is changed based on the head moving speed at the time of imaging of the component 3, but the captured image of the component 3 is corrected based on the head moving speed. Alternatively, parts may be recognized based on the corrected image. An example will be described below.

図5は、実施例1の図1及び図2と同じ構成で、実施例1と同様に、吸着ヘッド1を部品認識カメラ7上でX軸方向に沿った一方向に一定速度で移動させながら円形の部品3とスポット光源8を撮像した結果を示している。   FIG. 5 is the same configuration as FIG. 1 and FIG. 2 of the first embodiment, and as in the first embodiment, the suction head 1 is moved on the component recognition camera 7 in one direction along the X-axis direction at a constant speed. The result of imaging the circular component 3 and the spot light source 8 is shown.

撮像画面21において、部品3の画像22は、撮影時の露光条件により、X軸方向の両端(左右両端)のエッジ部分が暗くなっている。この部品画像22を、標識光跡24の長さで測定されるヘッド移動速度に基づいて補正する。   On the imaging screen 21, the image 22 of the component 3 has dark edges at both ends (left and right ends) in the X-axis direction depending on the exposure conditions at the time of shooting. The component image 22 is corrected based on the head moving speed measured by the length of the marker light trace 24.

そのため、まず部品画像22の最外周において白の×印で示す左右両端の各エッジ点を求める。エッジ点の求め方は、画面21の各ラインの濃度勾配を求め、勾配の立ち上がり開始点を部品画像22の左エッジ、立下り終了点を右エッジとして、左右の各エッジ点を求める。   Therefore, first, the edge points at the left and right ends indicated by white crosses in the outermost periphery of the component image 22 are obtained. The method of obtaining the edge points is to obtain the density gradient of each line on the screen 21, and obtain the left and right edge points with the rising start point of the gradient as the left edge and the falling end point as the right edge.

ここで、部品画像22の左右両端のエッジは、停止画像に比べて、画像の中心位置を同じとして、左右の外側に同じ長さずつずれている。そのずれ量は、撮像中の部品移動量/2(部品移動量=ヘッド移動速度×部品照明の点灯時間)となる。このずれ量だけ、白の×印で示す左右両端の各エッジ点を黒の×印で示すように内側へオフセットする。例えば、実施例1と同様に、撮像中に部品3が100画素移動するものとすると、ずれ量は50画素ずつとなり、50画素ずつ内側へオフセットさせる。   Here, the left and right edges of the component image 22 are shifted from each other by the same length on the left and right sides with the same center position of the image as compared with the stop image. The shift amount is the component movement amount being imaged / 2 (component movement amount = head movement speed × component illumination lighting time). By this amount of deviation, the respective edge points on both the left and right sides indicated by white crosses are offset inward as indicated by black crosses. For example, in the same way as in the first embodiment, if the part 3 moves 100 pixels during imaging, the shift amount is 50 pixels each, and is offset inward by 50 pixels.

これにより、停止撮像時の部品画像の各エッジ点に対応するように補正された各エッジ点が得られ、この補正エッジ点に基づいて部品認識処理を行うことにより、正確に部品認識を行うことができる。すなわち、画像処理装置11のCPU116が部品認識プログラム114に従って上記の処理を行い、標識光跡24の長さにより測定されるヘッド移動速度に基づいて部品3の画像を上記のように補正し、補正された画像に基づいて部品認識することにより、ヘッドを停止して部品を撮像し部品認識を行ったのと同様な結果を得ることができる。   Thereby, each edge point corrected so as to correspond to each edge point of the component image at the time of stop imaging is obtained, and the component recognition processing is performed based on the corrected edge point, thereby accurately performing the component recognition. Can do. That is, the CPU 116 of the image processing apparatus 11 performs the above processing according to the component recognition program 114, corrects the image of the component 3 as described above based on the head moving speed measured by the length of the marker light trace 24, and By recognizing the parts based on the obtained image, it is possible to obtain the same result as when the head is stopped, the parts are imaged and the parts are recognized.

なお、予め治具などを使用した実験によって、ヘッド移動速度と上記オフセットすべきずれ量との関係を求めて、そのデータをテーブルとしてメモリに格納しておいてもよい。こうすれば、このデータテーブルを用いてヘッド移動速度に応じたオフセット量を簡単に求めることができる。この方法は、特にヘッド移動方向をX軸ないしY軸方向に対して傾斜した方向とした場合に有効である。その場合、ヘッド移動速度に応じたずれ量は、ヘッド移動速度のX軸方向とY軸方向のそれぞれの成分に応じたX軸方向とY軸方向のずれ量成分を合成したものとなり、これを演算で求めると処理が複雑になるからである。   It should be noted that a relationship between the head moving speed and the amount of deviation to be offset may be obtained by an experiment using a jig or the like in advance, and the data may be stored in a memory as a table. In this way, the offset amount corresponding to the head moving speed can be easily obtained using this data table. This method is particularly effective when the head moving direction is inclined with respect to the X-axis or Y-axis direction. In this case, the deviation amount according to the head moving speed is a combination of the deviation amount components of the X axis direction and the Y axis direction according to the respective components of the head moving speed in the X axis direction and the Y axis direction. This is because the processing becomes complicated when it is calculated.

実施例1及び2では、部品3の撮像中のヘッド移動速度を一定とした。しかし撮像中に吸着ヘッドが加速ないし減速される場合がある。図7は、撮像中に吸着ヘッドが図中の右方向に加速されていた場合の部品画像を示している。部品画像22は、左右のエッジの鈍り具合(ずれ具合)が異なっており、左右のエッジのずれ量が異なっている。このヘッドの移動速度が変化する場合の画像の補正を以下に説明する。   In Examples 1 and 2, the head moving speed during imaging of the component 3 was constant. However, the suction head may be accelerated or decelerated during imaging. FIG. 7 shows a component image when the suction head is accelerated rightward in the drawing during imaging. In the component image 22, the left and right edges are blunted (displaced), and the left and right edges are displaced differently. Image correction when the moving speed of the head changes will be described below.

まず、図6に示すようなタイミングで、部品認識カメラ7のシャッターの開閉と、部品照明及びスポット光源8のオン/オフ(点灯/消灯)を制御する。すなわち、シャッターを所定時間だけ開き、その間に、スポット光源8を短い所定時間ずつ所定時間間隔で複数回(図6では5回)点灯させ、部品照明を前記複数回の点灯の途中の所定タイミング(図6では3回目の消灯の間から5回目の点灯の間にかけて)で点灯する。   First, the opening / closing of the shutter of the component recognition camera 7 and the on / off (lighting / extinguishing) of the component illumination and the spot light source 8 are controlled at the timing shown in FIG. That is, the shutter is opened for a predetermined time, and during that time, the spot light source 8 is lit a plurality of times (five times in FIG. 6) at predetermined time intervals for a short predetermined time, and the component illumination is turned on at a predetermined timing during the plurality of times of lighting ( In FIG. 6, the light is turned on between the third turn-off and the fifth turn-on.

これにより、図7に示すような部品画像25が撮像されると共に、ヘッド移動速度の測定領域23にスポット光源8の標識光跡26が一直線上で断続した5本の線分として撮像される。5本の線分のそれぞれのヘッド移動方向への長さは、5本の線分のそれぞれが撮像されたスポット光源8の点灯中のヘッド移動速度(平均値)に対応している。また、隣り合う線分どうしの長さの差は、ヘッド移動速度の差、すなわち加速度に対応している。従って、5本の線分のそれぞれの長さを測定し、測定されたそれぞれの長さと、スポット光源8の1回の点灯時間の関係から、ヘッド移動速度及び加速度を算出することができる。   As a result, a component image 25 as shown in FIG. 7 is picked up, and the marker light trace 26 of the spot light source 8 is picked up as five line segments intermittently on a straight line in the head moving speed measurement region 23. The length of each of the five line segments in the head movement direction corresponds to the head movement speed (average value) during lighting of the spot light source 8 in which each of the five line segments is imaged. The difference in length between adjacent line segments corresponds to the difference in head moving speed, that is, acceleration. Therefore, the length of each of the five line segments is measured, and the head moving speed and acceleration can be calculated from the relationship between the measured lengths and the lighting time of the spot light source 8 once.

そこで、ヘッド移動速度が変化する場合には、図6に示したように、部品3が照明されて部品の撮像が開始される時点t1と照明が消え撮像が終了する時点t2のヘッド移動速度を求める。例えば、撮像開始時点t1のヘッド移動速度は、標識光跡26a及び/又は26bに基づく速度ないし加速度、あるいはその平均値により求め、撮像終了時点t2のヘッド移動速度は、標識光跡26b及び/又は26cに基づく速度ないし加速度、あるいはその平均値より求める。そして、部品画像25の左側エッジを部品撮像開始時点t1のヘッド移動速度に応じた量だけ、また、右側エッジを部品撮像終了時点t2のヘッド移動速度に応じた量だけそれぞれ内側にオフセットすることにより、停止撮影時の部品画像のエッジに対応したエッジを得ることができ、部品を停止して撮像したときと同様な部品認識結果を得ることができる。   Therefore, when the head moving speed changes, as shown in FIG. 6, the head moving speed at the time t1 when the component 3 is illuminated and the imaging of the component is started and the time t2 when the illumination is extinguished and the imaging is finished is set. Ask. For example, the head moving speed at the imaging start time t1 is obtained by the speed or acceleration based on the marker light traces 26a and / or 26b, or an average value thereof, and the head moving speed at the imaging end time t2 is determined by the marker light trace 26b and / or It is obtained from the speed or acceleration based on 26c, or its average value. Then, the left edge of the component image 25 is offset inward by an amount corresponding to the head moving speed at the component imaging start time t1, and the right edge is offset inward by an amount corresponding to the head moving speed at the component imaging end time t2. An edge corresponding to the edge of the component image at the time of stop shooting can be obtained, and a component recognition result similar to that obtained when the component is stopped and imaged can be obtained.

なお、以上では、部品撮像中のヘッド移動速度あるいは加速度に基づいて、部品画像を補正しているが、実施例1のように、部品認識に用いる部品形状データを変更し、変更された部品形状データを用いて部品認識するようにしてもよい。   In the above, the component image is corrected based on the head moving speed or acceleration during component imaging. However, as in the first embodiment, the component shape data used for component recognition is changed and the changed component shape is changed. Parts may be recognized using data.

また、以上説明した実施例1〜3では、ヘッド移動速度測定用の標識としてスポット光源8を吸着ヘッド1の下側に設けるようにしているが、標識としてマークを吸着ヘッド1の下側に設け、これを部品照明装置10で照明するようにしてもよい。或いは下方からマークだけ照明する専用のスポット照明などを設けてもよい。ヘッド移動速度のみならず加速度も測定する場合は、専用の照明が必要である。なお、マークは紫外線を反射するものとして、下方からの照明は紫外線照明にし、撮像装置としての部品認識カメラ7は紫外領域も撮像可能なものにしても良い。   In the first to third embodiments described above, the spot light source 8 is provided on the lower side of the suction head 1 as a mark for measuring the head moving speed. However, a mark is provided on the lower side of the suction head 1 as a mark. This may be illuminated by the component lighting device 10. Alternatively, a dedicated spot illumination that illuminates only the mark from below may be provided. When measuring not only the head moving speed but also the acceleration, a dedicated illumination is required. Note that the mark may reflect ultraviolet rays, the illumination from below may be ultraviolet illumination, and the component recognition camera 7 as an imaging device may be capable of imaging the ultraviolet region.

また、実施例1〜3と異なる手段によってヘッド移動速度ないし加速度を検出するようにしてもよい。例えば、X軸モータ13とY軸モータ14のそれぞれの回転速度を検出するロータリーエンコーダを設け、それぞれの回転速度によりヘッド移動速度ないし加速度を検出するようにしてもよい。   Further, the head moving speed or acceleration may be detected by means different from the first to third embodiments. For example, a rotary encoder that detects the rotational speeds of the X-axis motor 13 and the Y-axis motor 14 may be provided, and the head moving speed or acceleration may be detected based on the respective rotational speeds.

また、以上の実施例1〜3では、撮像装置としての部品認識カメラ7が実装機に固定されており、部品が認識カメラ7上を通過するときに部品を撮像しているが、逆に撮像装置を移動させて停止している部品を撮像したり、あるいは撮像装置と部品(吸着ヘッド)の両方を相対的に移動させて部品を撮像するときにも、同様に適用できることは勿論である。   In the above first to third embodiments, the component recognition camera 7 as the imaging device is fixed to the mounting machine, and the component is imaged when the component passes over the recognition camera 7. Needless to say, the present invention can be applied in the same manner to image a stopped part by moving the apparatus or to image a part by relatively moving both the imaging apparatus and the part (suction head).

本発明が用いられる部品実装機の機械的構成を示す斜視図である。It is a perspective view which shows the mechanical structure of the component mounting machine with which this invention is used. 同部品実装機の部品認識に関わる制御系の構成を示すブロック図である。It is a block diagram which shows the structure of the control system in connection with component recognition of the component mounting machine. 実施例1における部品撮像時のシャッターの開閉と部品照明及びスポット光源の点灯/消灯のタイミングを示すタイミング図である。FIG. 6 is a timing chart showing opening / closing of the shutter, component illumination, and lighting / extinguishing timing of the spot light source during component imaging in the first embodiment. 実施例1における部品撮像画面を示す説明図である。FIG. 6 is an explanatory diagram illustrating a component imaging screen in the first embodiment. 実施例2における部品撮像画面を示す説明図である。FIG. 10 is an explanatory diagram illustrating a component imaging screen in the second embodiment. 実施例2における部品撮像時のシャッターの開閉と部品照明及びスポット光源の点灯/消灯のタイミングを示すタイミング図である。FIG. 10 is a timing diagram illustrating opening / closing of a shutter, component illumination, and lighting / extinguishing timing of a spot light source during component imaging in the second embodiment. 実施例3における部品撮像画面を示す説明図である。FIG. 10 is an explanatory diagram illustrating a component imaging screen according to a third embodiment. 部品を停止させて撮像する様子と部品撮像画面を示す説明図である。It is explanatory drawing which shows a mode that a component is stopped and imaged, and a component imaging screen. 部品を移動させながら撮像する様子とその部品撮像画面を示す説明図である。It is explanatory drawing which shows a mode that it images while moving components, and its component imaging screen.

符号の説明Explanation of symbols

1 吸着ヘッド
1a 吸着ノズル
2 マーク認識ユニット
3 電子部品
4 回路基板
7 部品認識カメラ
8 スポット光源(標識)
10 部品照明装置
11 画像処理装置
12 メイン制御装置
13 X軸モータ
14 Y軸モータ
15 Z軸モータ
16 θ軸モータ
21 撮像結果の画面
22 部品画像
23 ヘッド移動速度測定領域
24 標識光跡
114 部品認識プログラム
115 部品データ記憶部
116 画像処理装置のCPU
121 メイン制御装置のCPU
122 照明コントローラ
DESCRIPTION OF SYMBOLS 1 Adsorption head 1a Adsorption nozzle 2 Mark recognition unit 3 Electronic component 4 Circuit board 7 Component recognition camera 8 Spot light source (sign)
DESCRIPTION OF SYMBOLS 10 Component illumination apparatus 11 Image processing apparatus 12 Main control apparatus 13 X-axis motor 14 Y-axis motor 15 Z-axis motor 16 θ-axis motor 21 Imaging result screen 22 Component image 23 Head moving speed measurement area 24 Marked light trace 114 Component recognition program 115 Component data storage unit 116 CPU of image processing apparatus
121 CPU of main controller
122 Lighting controller

Claims (4)

吸着ヘッドに吸着された部品を撮像装置で撮像しその部品画像を処理して部品認識を行う部品認識方法であって、
吸着ヘッドを撮像装置に対して相対的に移動させて部品を撮像し、
吸着ヘッドの撮像装置に対する相対速度又は加速度を測定し、
測定された相対速度又は加速度に基づいて部品認識に使用される部品データを変更し、
変更された部品データを用いて部品認識を行うことを特徴とする部品認識方法。
A component recognition method in which a component picked up by a suction head is picked up by an imaging device, and the component image is processed to perform component recognition.
Move the suction head relative to the imaging device to image the part,
Measure the relative speed or acceleration of the suction head to the imaging device,
Change part data used for part recognition based on measured relative speed or acceleration,
A component recognition method comprising performing component recognition using changed component data.
吸着ヘッドに吸着された部品を撮像装置で撮像しその部品画像を処理して部品認識を行う部品認識方法であって、
吸着ヘッドを撮像装置に対して相対的に移動させて部品を撮像し、
吸着ヘッドの撮像装置に対する相対速度又は加速度を測定し、
測定された相対速度又は加速度に基づいて撮像された部品の画像を補正し、
補正された部品画像に基づいて部品認識を行うことを特徴とする部品認識方法。
A component recognition method in which a component picked up by a suction head is picked up by an imaging device, and the component image is processed to perform component recognition.
Move the suction head relative to the imaging device to image the part,
Measure the relative speed or acceleration of the suction head to the imaging device,
Correct the image of the imaged part based on the measured relative velocity or acceleration,
A component recognition method comprising performing component recognition based on a corrected component image.
吸着ヘッドに吸着された部品を撮像装置で撮像しその部品画像を処理して部品認識を行う部品認識装置であって、
吸着ヘッドを撮像装置に対して相対的に移動させる移動手段と、
吸着ヘッドの撮像装置に対する相対速度又は加速度を測定する測定手段と、
測定された相対速度又は加速度に基づいて部品認識に使用される部品データを変更する変更手段とを有し、
吸着ヘッドを撮像装置に対して相対的に移動させて部品を撮像し、測定された相対速度又は加速度に基づいて部品データを変更して部品認識を行うことを特徴とする部品認識装置。
A component recognition device that performs image recognition on a component picked up by a suction head and processes the component image to perform component recognition.
Moving means for moving the suction head relative to the imaging device;
Measuring means for measuring relative velocity or acceleration of the suction head with respect to the imaging device;
Changing means for changing part data used for part recognition based on the measured relative velocity or acceleration,
A component recognition apparatus, wherein a component is imaged by moving a suction head relative to an imaging device, and component recognition is performed by changing component data based on a measured relative speed or acceleration.
吸着ヘッドに吸着された部品を撮像装置で撮像しその部品画像を処理して部品認識を行う部品認識装置であって、
吸着ヘッドを撮像装置に対して相対的に移動させる移動手段と、
吸着ヘッドの撮像装置に対する相対速度又は加速度を測定する測定手段と、
測定された相対速度又は加速度に基づいて撮像された部品の画像を補正する補正手段とを有し、
吸着ヘッドを撮像装置に対して相対的に移動させて部品を撮像し、補正された部品画像に基づいて部品認識を行うことを特徴とする部品認識装置。
A component recognition device that performs image recognition on a component picked up by a suction head and processes the component image to perform component recognition.
Moving means for moving the suction head relative to the imaging device;
Measuring means for measuring relative velocity or acceleration of the suction head with respect to the imaging device;
Correction means for correcting the image of the imaged part based on the measured relative velocity or acceleration,
A component recognition apparatus, wherein a component is imaged by moving a suction head relative to an imaging device, and component recognition is performed based on the corrected component image.
JP2005194651A 2005-07-04 2005-07-04 Component recognition method and apparatus Active JP4651466B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005194651A JP4651466B2 (en) 2005-07-04 2005-07-04 Component recognition method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005194651A JP4651466B2 (en) 2005-07-04 2005-07-04 Component recognition method and apparatus

Publications (2)

Publication Number Publication Date
JP2007013021A true JP2007013021A (en) 2007-01-18
JP4651466B2 JP4651466B2 (en) 2011-03-16

Family

ID=37751093

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005194651A Active JP4651466B2 (en) 2005-07-04 2005-07-04 Component recognition method and apparatus

Country Status (1)

Country Link
JP (1) JP4651466B2 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010521331A (en) * 2007-03-02 2010-06-24 マーベル ワールド トレード リミテッド Dynamic dithering of images
JP2010535118A (en) * 2007-08-07 2010-11-18 マーベル ワールド トレード リミテッド Error correction of position data
US8297858B1 (en) 2007-03-02 2012-10-30 Marvell International Ltd. Managing project information with a hand-propelled device
CN102812793A (en) * 2010-08-17 2012-12-05 松下电器产业株式会社 Component-mounting device and component-detection method
WO2015011851A1 (en) * 2013-07-25 2015-01-29 パナソニックIpマネジメント株式会社 Electronic component mounting apparatus and electronic component mounting method
WO2015011852A1 (en) * 2013-07-25 2015-01-29 パナソニックIpマネジメント株式会社 Electronic component mounting apparatus and electronic component mounting method
WO2015145665A1 (en) * 2014-03-27 2015-10-01 富士機械製造株式会社 Component mounting device
WO2020144776A1 (en) * 2019-01-09 2020-07-16 三菱電機株式会社 Control device and control method
JP2021111665A (en) * 2020-01-08 2021-08-02 キヤノンメディカルシステムズ株式会社 Winding inspection method, winding inspection device, and manufacturing method of superconducting coil device
JP2021136315A (en) * 2020-02-26 2021-09-13 ヤマハ発動機株式会社 Imaging apparatus for object and component mounting device with the same

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0563398A (en) * 1991-08-22 1993-03-12 Philips Gloeilampenfab:Nv Method and device for mounting part
JPH0818284A (en) * 1994-07-04 1996-01-19 Toshiba Corp Part recognition device
JPH08255996A (en) * 1995-03-16 1996-10-01 Juki Corp Chip mounter
JPH10135700A (en) * 1996-10-25 1998-05-22 Sanyo Electric Co Ltd Data processing device and electronic components mounting apparatus
JP2001174221A (en) * 1999-12-16 2001-06-29 Juki Corp Method and device for detecting position of component
JP2003198200A (en) * 2001-12-28 2003-07-11 Yamagata Casio Co Ltd Image-processing method and component-mounting apparatus using the same
JP2006073959A (en) * 2004-09-06 2006-03-16 Yamaha Motor Co Ltd Component recognition device, surface mounting machine and component testing device

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0563398A (en) * 1991-08-22 1993-03-12 Philips Gloeilampenfab:Nv Method and device for mounting part
JPH0818284A (en) * 1994-07-04 1996-01-19 Toshiba Corp Part recognition device
JPH08255996A (en) * 1995-03-16 1996-10-01 Juki Corp Chip mounter
JPH10135700A (en) * 1996-10-25 1998-05-22 Sanyo Electric Co Ltd Data processing device and electronic components mounting apparatus
JP2001174221A (en) * 1999-12-16 2001-06-29 Juki Corp Method and device for detecting position of component
JP2003198200A (en) * 2001-12-28 2003-07-11 Yamagata Casio Co Ltd Image-processing method and component-mounting apparatus using the same
JP2006073959A (en) * 2004-09-06 2006-03-16 Yamaha Motor Co Ltd Component recognition device, surface mounting machine and component testing device

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8297858B1 (en) 2007-03-02 2012-10-30 Marvell International Ltd. Managing project information with a hand-propelled device
US8485743B1 (en) 2007-03-02 2013-07-16 Marvell International Ltd. Managing project information with a hand-propelled device
JP2010521331A (en) * 2007-03-02 2010-06-24 マーベル ワールド トレード リミテッド Dynamic dithering of images
JP2010535118A (en) * 2007-08-07 2010-11-18 マーベル ワールド トレード リミテッド Error correction of position data
US8325379B2 (en) 2007-08-07 2012-12-04 Marvell World Trade Ltd. Positional data error correction
US8614826B2 (en) 2007-08-07 2013-12-24 Marvell World Trade Ltd. Positional data error correction
US9001201B2 (en) 2010-08-17 2015-04-07 Panasonic Intellectual Property Management Co., Ltd. Component mounting apparatus and component detection method
CN102812793A (en) * 2010-08-17 2012-12-05 松下电器产业株式会社 Component-mounting device and component-detection method
US9491411B2 (en) 2013-07-25 2016-11-08 Panasonic Intellectual Property Management Co., Ltd. Electronic component mounting apparatus and electronic component mounting method
WO2015011852A1 (en) * 2013-07-25 2015-01-29 パナソニックIpマネジメント株式会社 Electronic component mounting apparatus and electronic component mounting method
US9015928B2 (en) 2013-07-25 2015-04-28 Panasonic Intellectual Property Management Co., Ltd. Electronic component mounting apparatus
WO2015011851A1 (en) * 2013-07-25 2015-01-29 パナソニックIpマネジメント株式会社 Electronic component mounting apparatus and electronic component mounting method
JPWO2015011851A1 (en) * 2013-07-25 2017-03-02 パナソニックIpマネジメント株式会社 Electronic component mounting apparatus and electronic component mounting method
JPWO2015011852A1 (en) * 2013-07-25 2017-03-02 パナソニックIpマネジメント株式会社 Electronic component mounting apparatus and electronic component mounting method
WO2015145665A1 (en) * 2014-03-27 2015-10-01 富士機械製造株式会社 Component mounting device
US10524401B2 (en) 2014-03-27 2019-12-31 Fuji Corporation Component mounting device
JP6771674B1 (en) * 2019-01-09 2020-10-21 三菱電機株式会社 Control device and control method
WO2020144776A1 (en) * 2019-01-09 2020-07-16 三菱電機株式会社 Control device and control method
KR20210095918A (en) * 2019-01-09 2021-08-03 미쓰비시덴키 가부시키가이샤 Control device and control method
CN113260941A (en) * 2019-01-09 2021-08-13 三菱电机株式会社 Control device and control method
KR102537029B1 (en) 2019-01-09 2023-05-26 미쓰비시덴키 가부시키가이샤 Control device and control method
CN113260941B (en) * 2019-01-09 2023-10-24 三菱电机株式会社 Control device and control method
JP2021111665A (en) * 2020-01-08 2021-08-02 キヤノンメディカルシステムズ株式会社 Winding inspection method, winding inspection device, and manufacturing method of superconducting coil device
JP7361613B2 (en) 2020-01-08 2023-10-16 キヤノンメディカルシステムズ株式会社 Winding inspection method, winding inspection device, and manufacturing method of superconducting coil device
JP2021136315A (en) * 2020-02-26 2021-09-13 ヤマハ発動機株式会社 Imaging apparatus for object and component mounting device with the same

Also Published As

Publication number Publication date
JP4651466B2 (en) 2011-03-16

Similar Documents

Publication Publication Date Title
JP4651466B2 (en) Component recognition method and apparatus
US10420267B2 (en) Electronic component mounting apparatus
JP5318334B2 (en) Method and apparatus for detecting position of object
JP4657834B2 (en) Component mounting method and surface mounter
JP4260545B2 (en) Surface mount machine
US7376486B2 (en) Board positioning device and board positioning method
JP2008070135A (en) Detecting method of optical axis shift of imaging apparatus and part position detecting method and device
JP5620807B2 (en) Three-dimensional shape measuring device, component transfer device, and three-dimensional shape measuring method
JP2009212251A (en) Component transfer equipment
JP2007048921A (en) Electronic component image acquiring method and apparatus thereof
JP2005347412A (en) Sucked state inspection apparatus, surface mounter, and part testing apparatus
JP4091950B2 (en) Component mounting position correction method and surface mounter
JP3265143B2 (en) Component mounting method and device
JP4437686B2 (en) Surface mount machine
JP2006210531A (en) Image recognition device of component mounting machine
JP2006073959A (en) Component recognition device, surface mounting machine and component testing device
JP3600643B2 (en) Substrate position detection method and substrate position detection device
JP4056572B2 (en) Data creation apparatus and method, and electronic component mounting apparatus
JP3793387B2 (en) Surface mount machine
JP2006073960A (en) Component recognition device, surface mounting machine and component testing device
JP7015709B2 (en) Board work equipment
JP2005166769A (en) Electronic part packaging apparatus
JP4686329B2 (en) Component recognition method and apparatus
JP4386425B2 (en) Surface mount machine
JP4368709B2 (en) Surface mount machine

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20070202

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20070202

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080620

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100825

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100831

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101029

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101130

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101214

R150 Certificate of patent or registration of utility model

Ref document number: 4651466

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131224

Year of fee payment: 3