WO2015019487A1 - 実装装置及び部品検出方法 - Google Patents

実装装置及び部品検出方法 Download PDF

Info

Publication number
WO2015019487A1
WO2015019487A1 PCT/JP2013/071639 JP2013071639W WO2015019487A1 WO 2015019487 A1 WO2015019487 A1 WO 2015019487A1 JP 2013071639 W JP2013071639 W JP 2013071639W WO 2015019487 A1 WO2015019487 A1 WO 2015019487A1
Authority
WO
WIPO (PCT)
Prior art keywords
component
mounting
mounting head
reference mark
image data
Prior art date
Application number
PCT/JP2013/071639
Other languages
English (en)
French (fr)
Inventor
浩二 河口
Original Assignee
富士機械製造株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士機械製造株式会社 filed Critical 富士機械製造株式会社
Priority to EP13891019.5A priority Critical patent/EP3032934B1/en
Priority to US14/911,183 priority patent/US10314220B2/en
Priority to PCT/JP2013/071639 priority patent/WO2015019487A1/ja
Priority to CN201380078705.9A priority patent/CN105453715B/zh
Priority to JP2015530640A priority patent/JP6279581B2/ja
Publication of WO2015019487A1 publication Critical patent/WO2015019487A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05KPRINTED CIRCUITS; CASINGS OR CONSTRUCTIONAL DETAILS OF ELECTRIC APPARATUS; MANUFACTURE OF ASSEMBLAGES OF ELECTRICAL COMPONENTS
    • H05K13/00Apparatus or processes specially adapted for manufacturing or adjusting assemblages of electric components
    • H05K13/08Monitoring manufacture of assemblages
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05KPRINTED CIRCUITS; CASINGS OR CONSTRUCTIONAL DETAILS OF ELECTRIC APPARATUS; MANUFACTURE OF ASSEMBLAGES OF ELECTRICAL COMPONENTS
    • H05K13/00Apparatus or processes specially adapted for manufacturing or adjusting assemblages of electric components
    • H05K13/04Mounting of components, e.g. of leadless components
    • H05K13/0404Pick-and-place heads or apparatus, e.g. with jaws
    • H05K13/0408Incorporating a pick-up tool
    • H05K13/041Incorporating a pick-up tool having multiple pick-up tools
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05KPRINTED CIRCUITS; CASINGS OR CONSTRUCTIONAL DETAILS OF ELECTRIC APPARATUS; MANUFACTURE OF ASSEMBLAGES OF ELECTRICAL COMPONENTS
    • H05K13/00Apparatus or processes specially adapted for manufacturing or adjusting assemblages of electric components
    • H05K13/08Monitoring manufacture of assemblages
    • H05K13/081Integration of optical monitoring devices in assembly lines; Processes using optical monitoring devices specially adapted for controlling devices or machines in assembly lines
    • H05K13/0812Integration of optical monitoring devices in assembly lines; Processes using optical monitoring devices specially adapted for controlling devices or machines in assembly lines the monitoring devices being integrated in the mounting machine, e.g. for monitoring components, leads, component placement

Definitions

  • the present invention relates to a mounting apparatus and a component detection method.
  • a detected part is provided at a position where an image is picked up simultaneously with a part sucked by a suction nozzle, and a relative positional relationship between the rotation center of the suction nozzle and the detected part is detected in advance, and the sucked part And the detected part are simultaneously captured, and a position shift of the center of the component is acquired based on the previous relative positional relationship (for example, see Patent Document 1).
  • this apparatus it is possible to improve the detection accuracy of the positional deviation of the component with respect to the rotation center of the suction nozzle.
  • the present invention has been made in view of such a problem, and a main object of the present invention is to provide a mounting device and a component detection method capable of more efficiently detecting a holding state of a moving component.
  • the present invention adopts the following means in order to achieve the main object described above.
  • the mounting apparatus of the present invention is A mounting device for mounting one or more components on a substrate, A mounting head having a reference mark to hold the component and move it onto the substrate; An imaging unit for imaging the mounting head; Setting means for setting a processing region including the component based on the position of the reference mark in the image data captured by the imaging unit of the component held by the mounting head that is moving and the reference mark; Detection means for processing the image data of the set processing area and detecting the state of the component held by the mounting head; It is equipped with.
  • the mounting apparatus sets a processing area including a component based on the position of the reference mark among image data obtained by imaging the component and the reference mark held by the moving mounting head, and the image data of the set processing area To detect the state of the component held by the mounting head.
  • the mounting head position may be displaced. For this reason, it may be necessary to expand the processing area in which the components are included in the captured image data to an area that takes into account the amount of positional deviation of the mounting head.
  • the reference mark of the mounting head is used as a reference first, the processing area that will contain the components in the image can be made a smaller area that does not consider the amount of positional deviation of the mounting head. Therefore, in this mounting apparatus, the holding state of the moving component can be detected more efficiently.
  • the setting means may set the processing area in consideration of the component size and the positional deviation amount of the component. This is preferable because the processing area can be made narrower.
  • the positional deviation amount of the component added to the processing region may be a value obtained empirically.
  • the imaging unit transfers the image data of the set processing region in the captured image data to the detection unit, and the detection unit transfers the image data of the transferred processing region. It is good also as what processes. In this way, since the amount of transfer data can be further reduced as compared with the case where all the captured image data is transferred, the holding state of the moving component can be detected more efficiently.
  • the mounting head may hold a plurality of components
  • the setting means may set a plurality of processing areas corresponding to the components. Since a mounting head that holds a plurality of components has more processing areas, it is highly meaningful to apply the present invention to efficiently detect the holding state of components. In addition, for example, if processing regions including components overlap, it may not be possible to detect the state of the component held by the mounting head. In the present invention, since the respective processing areas can be reduced, it is possible to further suppress the overlapping of the processing areas of the respective parts, and to detect the holding state of the parts. The component holding state can be detected even for larger components.
  • the mounting head may hold a plurality of parts on the circumference and have the reference mark at the center of the circumference. In this way, since the component and the reference mark can be easily photographed in the same image, the holding state of the moving component can be detected more reliably.
  • the mounting head may have the reference mark including detection points arranged on a rectangle. In this way, the reference position can be obtained more reliably, and as a result, the holding state of the moving component can be detected more reliably.
  • the mounting head is moved in a state where the component is held, and the component held on the moving mounting head and the reference mark are moved within the imaging range of the imaging unit.
  • Control means for causing the image pickup unit to pick up an image may be provided.
  • the setting unit detects the reference mark for a predetermined area smaller than the area of the image data, and sets the processing area based on the position of the detected reference mark. It is good also as what to do. In this way, the reference mark can be detected more efficiently than the case where the reference mark is detected for the entire image data.
  • the reference mark is formed at a central portion of the plurality of held parts, and the setting means detects the reference mark with respect to a predetermined central region smaller than the image data region. It may be done.
  • the component detection method of the present invention includes: A mounting head having a reference mark and holding the component and moving the component onto the substrate; and an imaging unit that images the component held by the mounting head and the reference mark; and mounting one or more components on the substrate
  • a component detection method for a mounting apparatus (A) setting a processing area including the component based on the position of the reference mark in the image data captured by the imaging unit of the component held by the mounting head in motion and the reference mark; (B) processing the image data of the set processing area to detect the state of the component held by the mounting head; Is included.
  • the reference mark of the mounting head is used as a reference first, so that the processing region that would contain the component is a smaller region that does not consider the amount of positional deviation of the mounting head. Can be. Therefore, the holding state of the moving component can be detected more efficiently.
  • various aspects of the mounting apparatus described above may be adopted, and steps for realizing each function of the mounting apparatus described above may be added.
  • FIG. 1 is a schematic explanatory diagram of a component mounting system 10.
  • FIG. The perspective view of the mounting apparatus 11.
  • FIG. Explanatory drawing which looked at the nozzle holding body 42 from the downward direction.
  • the block diagram showing the electrical connection relation of the mounting apparatus.
  • the flowchart which shows an example of a mounting process routine.
  • Explanatory drawing of the captured image 90 which imaged the moving nozzle holding body 42.
  • FIG. Explanatory drawing of the process area
  • FIG. 1 is a schematic explanatory diagram of a component mounting system 10.
  • FIG. 2 is a perspective view of the mounting apparatus 11.
  • 3A and 3B are explanatory views of the nozzle holding body 42 as viewed from below, in which FIG. 3A is an illustration without holding the component P and FIG. 3B is an illustration with holding the component P.
  • FIG. FIG. 4 is a block diagram showing an electrical connection relationship of the mounting apparatus 11.
  • the left-right direction (X-axis), the front-rear direction (Y-axis), and the up-down direction (Z-axis) are as shown in FIGS.
  • the mounting process includes a process of placing, mounting, inserting, joining, and bonding components on a substrate.
  • the component mounting system 10 includes a mounting machine 11 configured as a mounting line, and a management computer 80 that manages information on components to be mounted.
  • a plurality of mounting apparatuses 11 that respectively perform a mounting process for mounting an electronic component (hereinafter referred to as “component P”) on a substrate S are arranged from upstream to downstream.
  • the plurality of mounting apparatuses 11 have the same configuration.
  • the mounting apparatus 11 includes a base 12, a mounting machine main body 14 installed on the base 12, and a reel unit 56 to which a reel 57 that houses a component P is mounted. I have.
  • the base 12 is a heavy object formed in a rectangular parallelepiped, and casters (not shown) are attached to the four corners of the back surface.
  • the mounting machine main body 14 is installed to be replaceable with respect to the base 12.
  • the mounting machine body 14 includes a substrate transport device 18 that transports the substrate S, a mounting head 24 that can move in the XY plane, a suction nozzle 40 that is attached to the mounting head 24 and can move in the Z-axis direction, and a suction nozzle 40.
  • a camera unit 60 that captures an image of the component P adsorbed on the nozzle, a nozzle stocker 55 that stocks a plurality of types of adsorption nozzles 40 that can be attached to the mounting head 24, and a control device 70 (see FIG. 4) that performs various controls. I have.
  • the substrate transport device 18 is provided with support plates 20 and 20 provided at intervals in the front and rear direction of FIG. 2 and extending in the left-right direction, and conveyor belts 22 and 22 provided on the mutually opposing surfaces of the support plates 20 and 20 (FIG. 2 shows only one of them).
  • the conveyor belts 22 and 22 are stretched over the drive wheels and the driven wheels provided on the left and right sides of the support plates 20 and 20 so as to be endless.
  • substrate S is mounted on the upper surface of a pair of conveyor belts 22 and 22, and is conveyed from the left to the right.
  • the substrate S is supported by a large number of support pins 23 erected on the back side.
  • the mounting head 24 holds (sucks) the component P and moves it onto the substrate S, and is mounted on the front surface of the X-axis slider 26.
  • the X-axis slider 26 is attached to the front surface of the Y-axis slider 30 that can slide in the front-rear direction so as to be slidable in the left-right direction.
  • the Y-axis slider 30 is slidably attached to a pair of left and right guide rails 32, 32 extending in the front-rear direction.
  • the guide rails 32 and 32 are fixed inside the mounting apparatus 11.
  • a pair of upper and lower guide rails 28, 28 extending in the left-right direction are provided on the front surface of the Y-axis slider 30, and the X-axis slider 26 is attached to the guide rails 28, 28 so as to be slidable in the left-right direction.
  • the mounting head 24 moves in the left-right direction as the X-axis slider 26 moves in the left-right direction, and moves in the front-rear direction as the Y-axis slider 30 moves in the front-rear direction.
  • Each slider 26, 30 is driven by a drive motor.
  • the mounting head 24 has a head body 41 that is detachably mounted on the X-axis slider 26 as shown in FIG.
  • a nozzle holder 42 is supported on the head body 41 so as to be intermittently rotatable, and is intermittently rotated by a rotating device using a motor 43 as a drive source.
  • a plurality of nozzle holders 44 are movably held on the circumference of the nozzle holder 42, and suction nozzles 40 for sucking components are detachably mounted on these nozzle holders 44.
  • the nozzle holder 44 positioned at a predetermined angular position by intermittent rotation of the nozzle holder 42 is moved in the Z-axis direction (vertical direction) perpendicular to the X-axis and Y-axis directions by a holder lifting device using a Z-axis motor 46 as a drive source.
  • the component P is sucked by the suction nozzle 40, and the component P can be mounted on the substrate S.
  • the nozzle holder 44 is rotated (rotated) by a holder rotating device using a motor 47 as a drive source, and the angle of the component P sucked by the suction nozzle 40 can be adjusted.
  • the mounting head 24 has a reference mark 50 used for detecting the position of the mounting head 24 on the lower surface that can be imaged by the camera unit 60.
  • a plurality (eight in this case) of suction nozzles 40 are mounted on the circumference of the nozzle holder 42, and a plurality of components P are sucked on the circumference.
  • a reference mark 50 is provided in the central portion of each.
  • the reference mark 50 is formed at the center of the mounting head 24 that can be viewed from below even when each suction nozzle 40 sucks the component P.
  • the reference mark 50 includes four detection points arranged on a rectangle. Further, the reference mark 50 is formed in a color (for example, red) different from the surrounding members, so that detection by image processing is easy.
  • the adsorption nozzle 40 uses pressure to adsorb a component to the nozzle tip or to release a component adsorbed to the nozzle tip.
  • the suction nozzle 40 is connected to one of a vacuum pump and an air pipe via a solenoid valve.
  • the solenoid valve When the solenoid valve is controlled so that the vacuum pump and the suction nozzle 40 communicate with each other, the suction nozzle 40 has a negative pressure inside and sucks the component P at the tip.
  • the solenoid valve is controlled so that the air pipe and the suction nozzle 40 communicate with each other, the suction nozzle 40 has a positive pressure inside and releases the component P sucked at the tip.
  • the camera unit 60 is a unit that images the component P adsorbed by the mounting head 24 and the reference mark 50 included in the mounting head 24, and is in front of the support plate 20 on the front side of the substrate transport apparatus 18. Is arranged.
  • the imaging range of the camera unit 60 is above the camera unit 60.
  • the camera unit 60 includes an illumination unit 61 that irradiates light to the component P attracted by the mounting head 24 and an illumination control unit 62 that controls the illumination unit 61.
  • the camera unit 60 includes an image sensor 63 that generates charges by receiving light and outputs the generated charges, and an image processing unit 64 that generates image data based on the charges input from the image sensor 63.
  • the image sensor 63 may be a CCD, but is preferably a CMOS. This is because part of the image is easy to transfer.
  • the image processing unit 64 executes processing for transferring, to the control device 70, image data in a processing area set by an area setting unit 77, which will be described in detail later, among the captured image data.
  • the suction nozzle 40 that sucks the component P passes above the camera unit 60
  • the camera unit 60 images the component P and the reference mark 50 sucked by the suction nozzle 40 and controls a part of the imaging result to the control device 70. Output to.
  • the control device 70 is configured as a microprocessor centered on a CPU 71, and includes a ROM 72 that stores processing programs, an HDD 73 that stores various data, a RAM 74 that is used as a work area, an external device and an electrical device. An input / output interface 75 for exchanging signals is provided, and these are connected via a bus.
  • the control device 70 outputs drive signals to the substrate transport device 18, the drive motors of the X-axis slider 26 and the Y-axis slider 30, the Z-axis motor 34 of the mounting head 24, and the electromagnetic valve, and outputs image pickup signals to the camera unit 60. To do.
  • the control device 70 inputs an image signal from the camera unit 60.
  • the control device 70 is connected to the reel unit 56, the camera unit 60, and the management computer 80 so as to be capable of bidirectional communication.
  • Each slider 26, 30 is equipped with a position sensor (not shown), and the control device 70 controls the drive motor of each slider 26, 30 while inputting position information from these position sensors.
  • the control device 70 includes a mounting control unit 76, a region setting unit 77, a detection unit 78, a determination unit 79, and an imaging control unit 65 as functional blocks.
  • the mounting control unit 76 executes a process of mounting the component P based on mounting condition information including conditions such as the size and arrangement position of each component P. Further, the mounting control unit 76 manages the position (XY coordinates) of the mounting head 24 by acquiring position information of the drive motor shafts of the X-axis slider 26 and the Y-axis slider 30.
  • the mounting condition information includes, for example, information such as the shape and size of the component and the arrangement position on the substrate S, and is managed by the management computer 80.
  • the area setting unit 77 is based on the position of the reference mark 50 among the image data obtained by the camera unit 60 capturing one or more components P and the reference mark 50 that are attracted to the mounting head 24 that is moving.
  • region containing the components P in is performed.
  • the region setting unit 77 sets a plurality of processing regions corresponding to each component P when the plurality of components P are attracted to the respective suction nozzles 40.
  • the area setting unit 77 sets a processing area in consideration of the size of the part P and the positional deviation amount of the part P.
  • the detection unit 78 executes processing for processing the image data of the set processing area and detecting the state of the component P sucked to the mounting head 24.
  • the detection unit 78 uses the image of the mounting head 24 when no component is mounted as a reference, and the shift amount of the component P sucked by the suction nozzle 40 due to the difference between the center position of the component P and the center position of the suction nozzle 40. And processing for detecting the suction angle.
  • the detection unit 78 detects the suction state of the component P on the mounting head 24 based on the captured image.
  • the determination unit 79 mounts the adsorbed component based on whether or not the detected deviation amount is larger than a threshold value determined empirically in advance or whether the shape of the component is different from a reference value. A process for determining whether or not to use is used.
  • the imaging control unit 65 executes a process of outputting a signal that causes the camera unit 60 to image the component P and the reference mark 50 adsorbed by the mounting head 24 that is moving within the imaging range of the camera unit 60. For example, the imaging control unit 65 acquires the position of the mounting head 24 managed in units of control cycles of the drive motor shafts of the X-axis slider 26 and the Y-axis slider 30, and the acquired position is an upper position of the camera unit 60. When it is, the imaging signal is output.
  • the management computer 80 is a computer that manages information on a plurality of mounting apparatuses 11, and includes a controller that is configured by a CPU, a ROM, a RAM, and the like to control the entire apparatus, and a communication unit that communicates with external devices such as the mounting apparatus 11. And a storage unit for storing various application programs and various data files.
  • the management computer 80 stores the mounting condition information in the storage unit, and transmits the mounting condition information to the mounting apparatus 11 in response to a request from the mounting apparatus 11 or the like.
  • FIG. 5 is a flowchart illustrating an example of a mounting process routine executed by the CPU 71 of the control device 70.
  • This routine is stored in the HDD 73 of the control device 70, and is executed by a start instruction from the operator.
  • This routine is executed by the CPU 71 using, for example, the functions of the imaging control unit 65, the mounting control unit 76, the region setting unit 77, the detection unit 78, and the determination unit 79, which are each functional block of the control device 70, and each unit. It shall be.
  • the CPU 71 of the control device 70 first acquires the mounting condition information from the management computer 80 and stores it in the HDD 73 (step S100). Next, the CPU 71 attaches the nozzle holding body 42 to the mounting head 24 and attaches the suction nozzle 40 to the nozzle holding body 42, and images the mounting head 24 not sucking the component P by the camera unit 60. As a reference image (step S110).
  • the captured reference image is the same as that shown in FIG. 3A, for example, but the relative positional relationship (for example, coordinates) between the reference mark 50 and each suction nozzle 40 is grasped from this image. be able to.
  • the CPU 71 executes the conveyance and fixing process of the substrate S (step S120), and sets the component P to be mounted on the substrate S based on the contents of the mounting condition information (step S130). It is assumed that a predetermined order for mounting the parts P is stored in the mounting condition information.
  • the CPU 71 performs suction and movement processing of the set component P (step S140). In the suction process, the CPU 71 performs a process of moving the mounting head 24 to the take-out position of the reel unit 56 in which the corresponding part is stored, and lowering the suction nozzle 40 to suck the part P onto the suction nozzle 40. In this suction process, one or more components may be sucked to the mounting head 24. In the moving process, the CPU 71 performs a process of moving the mounting head 24 that has attracted the component P to the mounting position of the substrate S through the upper part of the camera unit 60.
  • the CPU 71 determines whether or not it is the imaging timing based on whether or not the component P attracted to the mounting head 24 is above the camera unit 60 (step S150). This determination can be made based on whether or not the coordinates of the mounting head 24 managed by the mounting control unit 76 are located above the camera unit 60 (imaging coordinates). When it is not the imaging timing, the CPU 71 moves the mounting head 24 as it is. On the other hand, when the imaging timing is reached, the CPU 71 outputs an imaging signal for causing the camera unit 60 to perform imaging (step S160). The camera unit 60 that has received the imaging signal executes an imaging process for the image.
  • the camera unit 60 images the mounting head 24 that has moved to the mounting position, so that, for example, the imaging process can be performed in a shorter time than when the mounting head 24 is temporarily stopped for imaging. .
  • the CPU 71 executes a process for detecting the reference mark 50 included in the captured image data (step S170).
  • the detection of the reference mark 50 can be performed, for example, by determining whether or not there is a pixel corresponding to the color of the reference mark 50 with respect to the central region of the image.
  • the mounting apparatus 11 is set to perform imaging when the mounting head 24 (that is, the reference mark 50) is substantially in the center region.
  • the detection of the fiducial mark 50 is performed on a predetermined central area smaller than the area of the image data (see the central area 95 in FIG. 6 described later). In this way, the reference mark 50 can be detected more efficiently than the case where the reference mark 50 is detected for the entire image data.
  • FIG. 6 is an explanatory diagram of a captured image 90 obtained by capturing the moving nozzle holder 42.
  • FIG. 7 is an explanatory diagram of a processing area 91 that takes into account the amount of adsorption deviation and an enlarged area 92 that takes into account the capture position deviation in the captured image 90.
  • the CPU 71 uses the positional relationship between the coordinates of the reference mark 50 of the reference image and the coordinates of the central axis of the suction nozzle 40, and this positional relationship with respect to the coordinates of the reference mark 50 included in the image data captured this time. Is set to the coordinates of the position of the suction nozzle 40.
  • the coordinates of the central axis of the suction nozzle 40 are set for the plurality of suction nozzles 40.
  • the coordinates of the reference mark 50 for example, the coordinate values of four detection points may be used, respectively, and the intersection (center coordinate) of two diagonal lines connecting the four detection points is calculated and used. May be. As illustrated in FIG.
  • the CPU 71 sets a processing area in which the coordinate of the axis center of the suction nozzle 40 matches the center coordinate of the processing area. Further, this processing area is an area where the part P will be present in the image data, and is set as an area larger than the area of the part P in consideration of the part size and the amount of suction position deviation of the part. Yes.
  • the positional deviation of the component P will be described.
  • the component P when picking up the component P, the component P is displaced from the center of the suction nozzle 40 and the center of the component P due to the influence of the accommodation position on the tape, or the component P rotates at a predetermined angle. It is sucked by the suction nozzle 40 with a shift in the suction position. Therefore, in the image processing for grasping the suction state of the component P, it is necessary to detect the presence / absence of the component P in the region (processing region 91) in consideration of the size of the component P and the suction position deviation amount. .
  • the mounting apparatus 11 manages the position of the mounting head 24 based on the positions of the drive motor shafts of the X-axis slider 26 and the Y-axis slider 30. Further, the camera unit 60 instantaneously performs imaging processing when the mounting head 24 passes on predetermined imaging coordinates. However, the mounting apparatus 11 can grasp the position of the mounting head 24 only in the control cycle unit of the drive motor shaft. Therefore, as shown by the dotted line in FIG. 6, the captured image 90 may be shifted by one control cycle at the maximum in the position of the mounting head 24.
  • this deviation amount (hereinafter also referred to as “take-in position deviation amount”) is 0.75 mm at the maximum.
  • the component P which is becoming smaller, shows a large value that cannot be ignored.
  • the region of the component P is compared with the region (enlarged region 92) that takes into account the amount of the capture position deviation larger than the processing region 91. The presence or absence must be detected.
  • the mounting head 24 cannot arrange the high-density suction nozzles 40, or the suction nozzles 40 that cannot suck the components P due to the overlap of the enlarged regions 92 are generated. For this reason, in the mounting apparatus, the processing time of the mounting process becomes longer, and the efficiency may decrease.
  • the reference mark 50 is provided on the mounting head 24, and the reference mark 50 is detected to grasp the position of the mounting head 24.
  • the smaller processing area 91 is set. In this way, it is possible to grasp the suction state during movement even for a larger part.
  • the CPU 71 acquires image data of the set processing area (step S190).
  • the CPU 71 acquires the image data of the processing area from the entire image data by being transferred from the image processing unit 64 of the camera unit 60.
  • the CPU 71 performs image processing on the image data of the processing area, and detects the state of the component, specifically, the amount of displacement of the component (step S200).
  • a method for detecting the amount of component displacement will be described below.
  • the control device 70 determines whether each pixel of the image data in the processing area is a pixel corresponding to the part P, and detects an area corresponding to the part P.
  • the CPU 71 detects the center position of the processing region (that is, the axis center of the suction nozzle 40) and the center position of the sucked part P, and obtains the distance between the detected center positions as a deviation amount. At this time, the CPU 71 may obtain the rotation angle of the component P from the inclination of the shape of the component P with respect to the normal suction position. In this way, the amount of deviation from the nozzle center of the component P sucked by the suction nozzle 40 can be obtained. Although omitted in this flowchart for convenience of explanation, the CPU 71 determines that the detected deviation amount is larger than a threshold value that is empirically determined in advance or the shape of the component P is different from the reference value. The sucked component P is processed as not being used for the mounting process.
  • the CPU 71 executes a process of mounting (arranging) the component P at the position where the detected deviation amount is corrected (step S210). At this time, when the component P is adsorbed in a rotated state, the CPU 71 rotates the nozzle holder 44 so as to correct it. When the component P is mounted, the CPU 71 determines whether or not the mounting process by the current board mounting apparatus 11 has been completed (step S220), and if the current board mounting process has not been completed, the process after step S130 is performed. Execute.
  • the CPU 71 sets a component P to be mounted next, causes the component P to be attracted to the suction nozzle 40, and sets a processing area 91 including the component P in the captured image 90 based on the position of the reference mark 50.
  • the CPU 71 examines the inside of the processing area 91 to detect the positional deviation amount of the component P and the like, and repeatedly executes a process of arranging the component P at a position where the positional deviation amount is corrected.
  • the CPU 71 performs the discharging process of the board S that has been mounted (step S230), and whether the mounting process has been performed for all the boards S or not. A determination is made based on whether or not (step S240).
  • the CPU 71 repeatedly executes the processes after step S120, and when the mounting process has been performed for all the substrates S, the routine is terminated as it is.
  • the mounting head 24 of this embodiment corresponds to a mounting head
  • the camera unit 60 corresponds to an imaging unit
  • the area setting unit 77 corresponds to a setting unit
  • the detection unit 78 corresponds to a detection unit.
  • the processing region including the component P based on the position of the reference mark 50 in the captured image 90 obtained by capturing the component P held (adsorbed) on the moving mounting head 24 and the reference mark 50. 91 is set, and the image data of the set processing area 91 is processed to detect the state of the component P attracted to the mounting head 24.
  • the processing area 91 that is considered to include the component P in the captured image data may need to be expanded to an area that takes into account the positional deviation amount of the mounting head 24.
  • the mounting apparatus 11 since it is possible to grasp the position of the mounting head 24 without any deviation with reference to the reference mark 50 of the mounting head 24, the processing area 91 that will contain the component P in the image is defined as the mounting head. It is possible to make the area smaller without considering the amount of positional deviation of 24. Therefore, the mounting apparatus 11 of the present embodiment can more efficiently detect the holding (suction) state of the moving component P. In addition, when the mounting apparatus 11 detects the suction state of the component P, it is possible to shorten the image processing time for detecting the component P more particularly. Furthermore, since the mounting apparatus 11 sets the region including the component P attracted to the mounting head 24 after grasping the position of the mounting head 24, the suction state of the component P can be detected more reliably.
  • the mounting apparatus 11 sets the processing region 91 that takes into account the component size and the amount of positional deviation of the component, the processing region 91 can be set to a narrower range, which is preferable. Further, the mounting apparatus 11 transfers the image data of the set processing area 91 among the captured image data, and processes all the captured image data in order to process the transferred image data of the processing area 91. In comparison, the amount of transferred data can be further reduced, and the suction state of the moving component P can be detected more efficiently. That is, the mounting apparatus 11 can further shorten the processing time.
  • the mounting head 24 sucks a plurality of components P and sets a plurality of processing areas 91 corresponding to the components P, that is, has more processing areas, so that the suction state of the parts P is more efficient. Therefore, it is highly significant to apply the present invention to the detection.
  • the state of the component held by the mounting head such as accompanied by erroneous detection.
  • each processing area 91 can be made small, it is possible to further suppress the overlapping of the processing areas of the components, and it is possible to detect the suction state of the components. And the adsorption
  • the mounting head 24 holds a plurality of components P on the circumference and has a reference mark 50 at the center of the circumference, so that the component P and the reference mark 50 can be easily photographed in the same image.
  • the suction state of the moving component P can be detected more reliably.
  • the mounting head has the reference marks 50 including the detection points arranged on the rectangle, the reference position can be obtained more reliably, and as a result, the suction state of the component P can be detected more reliably. it can.
  • the reference mark 50 is detected for the central area 95 smaller than the area of the image data, the reference mark 50 can be detected as compared with the case where the reference mark 50 is detected for the entire image data. Detection can be performed more efficiently.
  • the camera unit 60 transfers only the image data of the set processing area.
  • the present invention is not limited to this, and the entire image data may be transferred. Even in this case, since the smaller processing area 91 is used for the image processing for detecting the component P, the processing time can be further shortened.
  • the mounting head 24 has been described as picking up a plurality of components P.
  • the present invention is not particularly limited to this, and a single component P may be picked up. Even in this case, since the smaller processing area 91 is used for the image processing for detecting the component P, the suction state of the moving component P can be detected more efficiently.
  • the present invention is not particularly limited to this.
  • the reference mark 50 may be formed at any position as long as it can be imaged by the camera unit 60 together with the sucked component P.
  • the mounting head may adsorb a plurality of components P on the circumference, and the reference mark may be formed outside the circumference.
  • the mounting head may adsorb a plurality of components P on a rectangle, and the reference mark 50 may be formed at the center or outside of the rectangle.
  • the mounting head 24 has the reference mark 50 including the detection points arranged on the rectangle.
  • the mounting head 24 is not particularly limited as long as the position of the mounting head 24 can be grasped.
  • one or more detection points may be included.
  • the reference mark may include a detection point arranged on a triangle when the number of detection points is three, or the detection point arranged on the triangle and arranged at the center when the number of detection points is four. It may be included.
  • the reference mark may be arranged on a rectangle and include a detection point at the center, or may include detection points arranged on a pentagon.
  • the reference mark 50 including the detection point is used.
  • the shape of the reference mark 50 is not limited to the detection point, and may be a rectangular or polygonal region.
  • the detection point of the reference mark 50 is red, for example, blue, white, black, mirror surface, or the like may be easily distinguished.
  • the reference mark is detected for the central area 95 smaller than the area of the image data.
  • the present invention is not limited to this.
  • the control device 70 detects the reference mark 50 in the predetermined area that will include the detection point at the upper left.
  • the reference mark may be detected.
  • the positional relationship (coordinates, etc.) of each detection point of the reference mark 50 is known, after detecting one detection point, the region that will include the detection points on the upper right, lower left, and lower right Thus, the reference mark may be detected.
  • control device 70 performs the reference mark detection process for a narrower region, and thus can more efficiently detect the suction state of the component P.
  • control device 70 may detect the reference mark for the image data area without using a predetermined area smaller than the image data area. Even in this case, since the displacement of the loading position of the mounting head 24 can be eliminated based on the position of the reference mark 50, the suction state of the component P can be detected more efficiently.
  • the region setting unit 77, the detection unit 78, and the determination unit 79 are described as being included in the control device 70, but are not particularly limited thereto, and may be included in the camera unit 60. Even in this case, the suction state of the moving part P can be detected more efficiently. In particular, if the camera unit 60 includes the area setting unit 77 and the like, processing such as transfer of image data may be omitted, which is more efficient.
  • the component P is attracted to the mounting head 24.
  • the component P is not limited to that to be attracted.
  • the mounting head 24 may be configured to hook and hold the component P on the grip portion.
  • control device 70 may be realized by executing software by a CPU, or may be configured by hardware using a circuit or the like.
  • the present invention has been described as the mounting apparatus 11.
  • the present invention can be used in the technical field of mounting components on a board.

Landscapes

  • Engineering & Computer Science (AREA)
  • Manufacturing & Machinery (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Operations Research (AREA)
  • Supply And Installment Of Electrical Components (AREA)

Abstract

 実装装置11は、移動中の実装ヘッド24に吸着された部品Pと基準マークとを撮像した撮像画像のうち基準マークの位置に基づいて部品Pを含む処理領域を設定し、設定された処理領域の画像データを処理して実装ヘッド24に吸着された部品Pの状態を検出する。一般に、移動中の実装ヘッド24を撮像する場合、実装ヘッド24の位置にずれが生じる場合がある。この実装装置11では、実装ヘッド24の基準マークを基準として、ずれのない実装ヘッド24の位置を把握可能であるから、画像における部品Pが含まれるであろう処理領域を、この実装ヘッド24の位置ずれ量を考慮しない、より小さな領域にすることができる。

Description

実装装置及び部品検出方法
 本発明は、実装装置及び部品検出方法に関する。
 従来、実装装置としては、吸着ノズルにより吸着された部品と同時に撮像される位置に被検出部を備え、吸着ノズルの回転中心と被検出部との相対位置関係を予め検出し、吸着された部品と被検出部とを同時に撮像し、先の相対位置関係に基づいて部品の中心の位置ずれを取得するものが提案されている(例えば、特許文献1参照)。この装置では、吸着ノズルの回転中心に対する部品の位置ずれの検出精度を高めることができる。
特開2002-185198号公報
 ところで、部品の位置ずれを検出するに際して、吸着ノズルに吸着された部品を移動しながら撮像することがある。こうすれば、実装処理の時間短縮を図ることができるが、撮像部上を通過するときに撮像を行っても、そのタイミングにずれが生じてしまうことがある。この場合、部品を停止して撮像する場合に比して、より大きな範囲の画像データを解析して部品の位置ずれの検出を行う必要があり、処理時間がかかる問題があった。このように、部品の保持状態を検出する処理の効率を高めることがが望まれていた。
 本発明は、このような課題に鑑みなされたものであり、移動する部品の保持状態をより効率的に検出することができる実装装置及び部品検出方法を提供することを主目的とする。
 本発明は、上述の主目的を達成するために以下の手段を採った。
 即ち、本発明の実装装置は、
 1以上の部品を基板上に実装する実装装置であって、
 基準マークを有し前記部品を保持し前記基板上へ移動させる実装ヘッドと、
 前記実装ヘッドを撮像する撮像部と、
 移動中の前記実装ヘッドに保持された部品と前記基準マークとを前記撮像部が撮像した画像データのうち前記基準マークの位置に基づいて前記部品を含む処理領域を設定する設定手段と、
 前記設定された処理領域の画像データを処理して前記実装ヘッドに保持された部品の状態を検出する検出手段と、
 を備えたものである。
 この実装装置は、移動中の実装ヘッドに保持された部品と基準マークとを撮像した画像データのうち基準マークの位置に基づいて部品を含む処理領域を設定し、設定された処理領域の画像データを処理して実装ヘッドに保持された部品の状態を検出する。移動中の実装ヘッドを撮像する場合、実装ヘッドの位置にずれが生じる場合がある。このため、撮像した画像データのうち部品が含まれていると思われる処理領域は、この実装ヘッドの位置ずれ量を加味した領域に広げなければならないことがある。この実装装置では、実装ヘッドの基準マークをまず基準とするから、画像における部品が含まれるであろう処理領域を、この実装ヘッドの位置ずれ量を考慮しない、より小さな領域にすることができる。したがって、この実装装置では、移動する部品の保持状態をより効率的に検出することができる。
 本発明の実装装置において、前記設定手段は、前記部品サイズと該部品の位置ずれ量とを加味した前記処理領域を設定するものとしてもよい。こうすれば、処理領域をより狭い範囲とすることができ、好ましい。ここで、処理領域に加味する部品の位置ずれ量は、経験的に求めた値としてもよい。
 本発明の実装装置において、前記撮像部は、前記撮像した画像データのうち前記設定された処理領域の画像データを前記検出手段へ転送し、前記検出手段は、前記転送された処理領域の画像データを処理するものとしてもよい。こうすれば、撮像した画像データをすべて転送するものに比して、転送データ量をより低減できるため、移動する部品の保持状態を更に効率的に検出することができる。
 本発明の実装装置において、前記実装ヘッドは、複数の部品を保持し、前記設定手段は、前記部品に応じた複数の処理領域を設定するものとしてもよい。複数の部品を保持する実装ヘッドでは、処理領域をより多く有するため、部品の保持状態を効率的に検出するという本発明を適用する意義が高い。また、例えば、部品の含まれる処理領域が重なり合うと、実装ヘッドに保持された部品の状態を検出することができないことがある。本発明では、それぞれの処理領域を小さくすることができるため、各部品の処理領域が重なり合うのをより抑制することができ、部品の保持状態の検出を行うことができる。そして、より大きな部品に対しても部品の保持状態の検出を行うことができる。
 本発明の実装装置において、前記実装ヘッドは、円周上に複数の部品を保持し、該円周の中央部に前記基準マークを有するものとしてもよい。こうすれば、部品と基準マークとを同一画像内に撮影しやすいため、移動する部品の保持状態をより確実に検出することができる。
 本発明の実装装置において、前記実装ヘッドは、矩形上に配列された検出点を含む前記基準マークを有するものとしてもよい。こうすれば、基準位置をより確実に求めることができ、ひいては、移動する部品の保持状態をより確実に検出することができる。
 なお、本発明の実装装置は、前記部品を保持した状態で前記実装ヘッドを移動させ、前記撮像部の撮像範囲内で前記移動中の前記実装ヘッドに保持された部品と前記基準マークとを前記撮像部に撮像させる制御手段、を備えたものとしてもよい。
 また、本発明の実装装置において、前記設定手段は、前記画像データの領域よりも小さい所定領域に対して前記基準マークの検出を行い、検出された基準マークの位置に基づいて前記処理領域を設定するものとしてもよい。こうすれば、画像データの全体に対して基準マークの検出を行うものに比して、基準マークの検出をより効率よく行うことができる。このとき、前記基準マークは、保持された複数の前記部品の中央部に形成されており、前記設定手段は、前記画像データの領域よりも小さい所定の中央領域に対して前記基準マークの検出を行うものとしてもよい。
 本発明の部品検出方法は、
 基準マークを有し部品を保持し基板上へ移動させる実装ヘッドと、前記実装ヘッドに保持された部品と前記基準マークとを撮像する撮像部と、を備え、1以上の部品を基板上に実装する実装装置の部品検出方法であって、
(a)移動中の前記実装ヘッドに保持された部品と前記基準マークとを前記撮像部が撮像した画像データのうち前記基準マークの位置に基づいて前記部品を含む処理領域を設定するステップと、
(b)前記設定された処理領域の画像データを処理して前記実装ヘッドに保持された部品の状態を検出するステップと、
 を含むものである。
 この部品検出方法では、上述した実装装置と同様に、実装ヘッドの基準マークをまず基準とするから、部品が含まれるであろう処理領域を、この実装ヘッドの位置ずれ量を考慮しないより小さな領域にすることができる。したがって、移動する部品の保持状態をより効率的に検出することができる。なお、この部品検出方法において、上述した実装装置の種々の態様を採用してもよいし、また、上述した実装装置の各機能を実現するようなステップを追加してもよい。
部品実装システム10の概略説明図。 実装装置11の斜視図。 ノズル保持体42を下方から見た説明図。 実装装置11の電気的な接続関係を表すブロック図。 実装処理ルーチンの一例を示すフローチャート。 移動するノズル保持体42を撮像した撮像画像90の説明図。 撮像画像90における処理領域91及び拡大領域92の説明図。
 本発明の好適な実施形態を図面を参照しながら以下に説明する。図1は部品実装システム10の概略説明図である。図2は実装装置11の斜視図である。図3は、ノズル保持体42を下方から見た説明図であり、図3(a)が部品Pの保持なし、図3(b)が部品Pの保持ありの説明図である。図4は、実装装置11の電気的な接続関係を表すブロック図である。なお、本実施形態において、左右方向(X軸)、前後方向(Y軸)及び上下方向(Z軸)は、図1及び図2に示した通りとする。また、実装処理とは、部品を基板上に配置、装着、挿入、接合、接着する処理などを含む。
 部品実装システム10は、実装ラインとして構成された実装機11と、実装する部品の情報などを管理する管理コンピュータ80とを備えている。部品実装システム10は、電子部品(以下「部品P」という)を基板Sに実装する実装処理をそれぞれ実施する複数の実装装置11が上流から下流に配置されている。この複数の実装装置11は同様の構成を備えるものとする。実装装置11は、図2に示すように、基台12と、基台12の上に設置された実装機本体14と、部品Pを収容しているリール57が装着されたリールユニット56とを備えている。基台12は、直方体に形成された重量物であり、裏面の四隅には図示しないキャスタが取り付けられている。
 実装機本体14は、基台12に対して交換可能に設置されている。この実装機本体14は、基板Sを搬送する基板搬送装置18と、XY平面を移動可能な実装ヘッド24と、実装ヘッド24に取り付けられZ軸方向に移動可能な吸着ノズル40と、吸着ノズル40に吸着された部品Pを撮像するカメラユニット60と、実装ヘッド24に取り付け可能な複数種類の吸着ノズル40をストックするノズルストッカ55と、各種制御を実行する制御装置70(図4参照)とを備えている。
 基板搬送装置18は、図2の前後に間隔を開けて設けられ左右方向に延びる支持板20,20と、両支持板20,20の互いに対向する面に設けられたコンベアベルト22,22(図2では片方のみ図示)とを備えている。コンベアベルト22,22は、支持板20,20の左右に設けられた駆動輪及び従動輪に無端状となるように架け渡されている。基板Sは、一対のコンベアベルト22,22の上面に乗せられて左から右へと搬送される。この基板Sは、裏面側に多数立設された支持ピン23によって支持されている。
 実装ヘッド24は、部品Pを保持(吸着)し基板S上へ移動させるものであり、X軸スライダ26の前面に取り付けられている。X軸スライダ26は、前後方向にスライド可能なY軸スライダ30の前面に、左右方向にスライド可能となるように取り付けられている。Y軸スライダ30は、前後方向に延びる左右一対のガイドレール32,32にスライド可能に取り付けられている。なお、ガイドレール32,32は、実装装置11の内部に固定されている。Y軸スライダ30の前面には、左右方向に延びる上下一対のガイドレール28,28が設けられ、このガイドレール28,28にX軸スライダ26が左右方向にスライド可能に取り付けられている。実装ヘッド24は、X軸スライダ26が左右方向に移動するのに伴って左右方向に移動し、Y軸スライダ30が前後方向に移動するのに伴って前後方向に移動する。なお、各スライダ26,30は、それぞれ駆動モータにより駆動される。
 この実装ヘッド24は、図2に示すように、X軸スライダ26に着脱可能に装着されたヘッド本体41を有している。ヘッド本体41には、ノズル保持体42が間欠回転可能に支持され、モータ43を駆動源とする回転装置によって間欠回転されるようになっている。ノズル保持体42の円周上には複数のノズルホルダ44が昇降可能に保持され、これらノズルホルダ44に、部品を吸着する吸着ノズル40がそれぞれ着脱可能に装着されている。ノズル保持体42の間欠回転によって所定の角度位置に位置決めされたノズルホルダ44は、Z軸モータ46を駆動源とするホルダ昇降装置によってX軸およびY軸方向と直交するZ軸方向(上下方向)に昇降され、吸着ノズル40によって部品Pを吸着し、かつ部品Pを基板Sに実装できるようになっている。また、ノズルホルダ44は、モータ47を駆動源とするホルダ回転装置によって回転(自転)し、吸着ノズル40によって吸着した部品Pの角度を調整可能となっている。
 実装ヘッド24は、図3に示すように、カメラユニット60により撮像可能な下面に、実装ヘッド24の位置を検出するのに用いられる基準マーク50が形成されている。この実装ヘッド24は、例えば、ノズル保持体42の円周上に複数(ここでは8個)の吸着ノズル40が装着されており、この円周上に複数の部品Pを吸着し、この円周の中央部に基準マーク50を有している。基準マーク50は、図3(b)に示すように、各吸着ノズル40が部品Pを吸着した状態でも、下方から視認できる実装ヘッド24の中央部に形成されている。この基準マーク50は、矩形上に配列された検出点を4つ含んでいる。また、基準マーク50は、周囲の部材とは異なる色(例えば赤色)で形成されており、画像処理による検出が容易になっている。
 吸着ノズル40は、圧力を利用して、ノズル先端に部品を吸着したり、ノズル先端に吸着している部品を離したりするものである。この吸着ノズル40は、電磁弁を介して真空ポンプ及びエア配管のいずれか一方に接続される。真空ポンプと吸着ノズル40とが連通するように電磁弁を制御すると、吸着ノズル40は、その内部が負圧になり、部品Pを先端に吸着する。一方、エア配管と吸着ノズル40とが連通するように電磁弁を制御すると、吸着ノズル40は、その内部が正圧になり、先端に吸着された部品Pを離す。
 カメラユニット60は、図2に示すように、実装ヘッド24に吸着された部品Pと実装ヘッド24が有する基準マーク50とを撮像するユニットであり、基板搬送装置18の前側の支持板20の前方に配置されている。このカメラユニット60の撮像範囲は、カメラユニット60の上方である。カメラユニット60は、図4に示すように、実装ヘッド24に吸着された部品Pに対して光を照射する照明部61と、照明部61を制御する照明制御部62とを備えている。また、カメラユニット60は、受光により電荷を発生させ発生した電荷を出力する撮像素子63と、撮像素子63から入力された電荷に基づいて画像データを生成する画像処理部64とを備えている。撮像素子63は、CCDとしてもよいが、CMOSとすることが好ましい。画像の一部を転送しやすいからである。画像処理部64は、撮像した画像データのうち、詳しくは後述する領域設定部77により設定された処理領域の画像データを制御装置70へ転送する処理を実行する。カメラユニット60は、部品Pを吸着した吸着ノズル40がカメラユニット60の上方を通過する際、吸着ノズル40に吸着された部品P及び基準マーク50を撮像し、撮像結果の一部を制御装置70へ出力する。
 制御装置70は、図4に示すように、CPU71を中心とするマイクロプロセッサとして構成されており、処理プログラムを記憶するROM72、各種データを記憶するHDD73、作業領域として用いられるRAM74、外部装置と電気信号のやり取りを行うための入出力インタフェース75などを備えており、これらはバスを介して接続されている。この制御装置70は、基板搬送装置18、X軸スライダ26やY軸スライダ30の駆動モータ、実装ヘッド24のZ軸モータ34、電磁弁へ駆動信号を出力し、カメラユニット60へ撮像信号を出力する。制御装置70は、カメラユニット60からの画像信号を入力する。また、制御装置70は、リールユニット56やカメラユニット60、管理コンピュータ80と双方向通信可能に接続されている。なお、各スライダ26,30には図示しない位置センサが装備されており、制御装置70はそれらの位置センサからの位置情報を入力しつつ、各スライダ26,30の駆動モータを制御する。
 この制御装置70は、機能ブロックとしての実装制御部76、領域設定部77、検出部78、判定部79及び撮像制御部65を備えている。実装制御部76は、各部品Pのサイズや配置位置などの条件を含む実装条件情報に基づいて部品Pを実装する処理を実行する。また、実装制御部76は、X軸スライダ26及びY軸スライダ30の駆動モータ軸の位置情報を取得することにより、実装ヘッド24の位置(XY座標)を管理する。実装条件情報は、例えば、部品の形状、サイズ、基板Sにおける配置位置などの情報が含まれており、管理コンピュータ80で管理されている。領域設定部77は、移動中の実装ヘッド24に吸着された1以上の部品Pと基準マーク50とをカメラユニット60が撮像した画像データのうち、基準マーク50の位置に基づいて、画像データ上における部品Pを含む処理領域を設定する処理を実行する。領域設定部77は、複数の部品Pが各々の吸着ノズル40に吸着されている際には、各々の部品Pに応じた複数の処理領域を設定する。この領域設定部77は、画像データ上における部品Pを含む処理領域を設定するに際して、部品Pのサイズとこの部品Pの位置ずれ量とを加味した処理領域を設定する。検出部78は、設定された処理領域の画像データを処理して実装ヘッド24に吸着された部品Pの状態を検出する処理を実行する。検出部78は、部品を装着していないときの実装ヘッド24の画像をリファレンスとし、部品Pの中心位置と吸着ノズル40の中心位置との差により吸着ノズル40に吸着された部品Pのずれ量や吸着角度を検出する処理を実行する。また、検出部78は、撮像画像に基づいて部品Pの実装ヘッド24での吸着状態を検出する。判定部79は、検出したずれ量が予め経験的に定められた閾値よりも大きいか否か、あるいは、部品の形状が基準値よりも異なるか否かに基づいて、その吸着した部品を実装処理に用いるか否かを判定する処理を実行する。撮像制御部65は、カメラユニット60の撮像範囲内で移動中の実装ヘッド24に吸着された部品Pと基準マーク50とをカメラユニット60に撮像させる信号を出力する処理を実行する。この撮像制御部65は、例えば、X軸スライダ26及びY軸スライダ30の駆動モータ軸の制御周期単位で管理されている実装ヘッド24の位置を取得し、取得した位置がカメラユニット60の上方位置であるときに撮像信号を出力する。
 管理コンピュータ80は、複数の実装装置11の情報を管理するコンピュータであり、CPU、ROM及びRAMなどにより構成され装置全体の制御を司るコントローラと、実装装置11など外部機器と通信を行う通信部と、各種アプリケーションプログラムや各種データファイルを記憶する記憶部とを備える。管理コンピュータ80は、記憶部に実装条件情報が記憶されており、実装装置11からの依頼などに応じて実装装置11へ実装条件情報を送信する。
 次に、こうして構成された本実施形態の実装装置11の動作、例えば、吸着ノズル40に吸着した部品Pを移動しながら撮像し、基板Sに配置する実装処理について説明する。図5は、制御装置70のCPU71により実行される実装処理ルーチンの一例を表すフローチャートである。このルーチンは、制御装置70のHDD73に記憶され、作業者による開始指示により実行される。このルーチンは、例えば、制御装置70の各機能ブロックである撮像制御部65、実装制御部76、領域設定部77、検出部78及び判定部79の機能や、各ユニットを利用してCPU71が実行するものとする。
 このルーチンが開始されると、制御装置70のCPU71は、まず、実装条件情報を管理コンピュータ80から取得し、HDD73に記憶させる(ステップS100)。次に、CPU71は、実装ヘッド24にノズル保持体42を装着すると共に、吸着ノズル40をノズル保持体42に装着し、部品Pを吸着していない実装ヘッド24をカメラユニット60により撮像し、これをリファレンス画像として取得する(ステップS110)。撮像されたリファレンス画像は、例えば、図3(a)に示すものと同様になるが、この画像から、基準マーク50と各吸着ノズル40との相対的な位置関係(例えば座標など)を把握することができる。
 次に、CPU71は、基板Sの搬送及び固定処理を実行し(ステップS120)、実装条件情報の内容に基づいて基板S上に実装する部品Pを設定する(ステップS130)。部品Pの実装順番は、予め定められたものが実装条件情報に格納されているものとする。次に、CPU71は、設定された部品Pの吸着及び移動処理を行う(ステップS140)。吸着処理では、CPU71は、該当する部品が収納されているリールユニット56の取出位置まで実装ヘッド24を移動し、吸着ノズル40を下降して吸着ノズル40に部品Pを吸着させる処理を行う。この吸着処理では、1以上の部品を実装ヘッド24に吸着するものとしてもよい。また、移動処理では、CPU71は、部品Pを吸着した実装ヘッド24をカメラユニット60の上方を通過させて基板Sの実装位置まで移動する処理を行う。
 続いて、CPU71は、実装ヘッド24に吸着された部品Pがカメラユニット60の上方にいるか否かに基づいて、撮像タイミングであるか否かを判定する(ステップS150)。この判定は、実装制御部76が管理する実装ヘッド24の座標がカメラユニット60の上方(撮像座標)に位置するか否かに基づいて行うことができる。撮像タイミングでないときには、CPU71は、そのまま実装ヘッド24を移動させる。一方、撮像タイミングに至ったときには、CPU71は、カメラユニット60へ撮像を実行させる撮像信号を出力する(ステップS160)。この撮像信号を受けたカメラユニット60は、画像の撮像処理を実行する。カメラユニット60は、実装位置へ移動している実装ヘッド24を撮像することにより、例えば、実装ヘッド24を一旦停止させて撮像する場合に比して、撮像処理をより短時間とすることができる。撮像処理を実行すると、CPU71は、撮像した画像データに含まれる基準マーク50を検出する処理を実行する(ステップS170)。基準マーク50の検出は、例えば、画像の中央領域に対して、基準マーク50の色に該当する画素があるか否かを判定することにより行うことができる。実装装置11は、実装ヘッド24(即ち基準マーク50)がほぼ中央領域に存在するときに撮像を行う設定になっている。このため、基準マーク50の検出は、画像データの領域よりも小さい所定の中央領域に対して行うものとする(後述図6の中央領域95を参照)。こうすれば、画像データの全体に対して基準マーク50の検出を行うものに比して、基準マーク50の検出をより効率よく行うことができる。
 基準マーク50を検出すると、CPU71は、基準マーク50の位置に基づいて、部品Pが存在するであろう、画像上の処理領域を設定する(ステップS180)。ここで、この処理領域の設定について説明する。図6は、移動するノズル保持体42を撮像した撮像画像90の説明図である。また、図7は、撮像画像90における、吸着ずれ量を加味した処理領域91及び取込位置ずれを加味した拡大領域92の説明図である。まず、CPU71は、リファレンス画像の基準マーク50の座標と吸着ノズル40の中心軸の座標との位置関係を用いて、今回撮像した画像データに含まれる基準マーク50の座標に対して、この位置関係になる座標を吸着ノズル40の位置の座標に設定する。ここでは、複数の吸着ノズル40に対して吸着ノズル40の中心軸の座標を設定する。なお、基準マーク50の座標としては、例えば、4点の検出点の座標値をそれぞれ用いてもよいし、4つの検出点を結ぶ2つの対角線の交点(中心座標)を算出してこれを用いてもよい。CPU71は、図7に示すように、吸着ノズル40の軸中心の座標と、処理領域の中心座標とが一致する処理領域を設定するものとする。また、この処理領域は、画像データのうち部品Pが存在するであろう領域であり、且つ部品サイズと部品の吸着位置ずれ量とを加味し、部品Pの面積よりも大きい領域として設定されている。
 ここで、部品Pの位置ずれなどについて説明する。一般的に、部品Pをピックアップする際に、テープにおける収容位置などの影響により、部品Pは、吸着ノズル40の中心と部品Pの中心とがずれたり、部品Pが所定の角度で回転したりする吸着位置ずれを伴って吸着ノズル40に吸着される。したがって、部品Pの吸着状態を把握するための画像処理では、部品Pのサイズ及び吸着位置ずれ量を加味した領域(処理領域91)に対して、部品Pの存在の有無を検出しなければならない。また、実装装置11は、X軸スライダ26及びY軸スライダ30の駆動モータ軸の位置により実装ヘッド24の位置を管理している。また、カメラユニット60は、実装ヘッド24が所定の撮像座標上を通過したときに瞬間的に撮像処理を行う。しかし、実装装置11は、実装ヘッド24の位置を、駆動モータ軸の制御周期単位でしか把握することができない。したがって、図6の点線で示すように、撮像された撮像画像90は、実装ヘッド24の位置が最大で1制御周期分、ずれることがある。例えば、実装ヘッド24の移動速度が3m/sであり、駆動モータ軸の制御周期単位が250μsである場合、このずれ量(以下、取込位置ずれ量とも称する)は、最大で0.75mmとなり、小型化の進む部品Pにおいては、無視できない大きな値を示す。部品Pの状態を把握するための画像処理においては、そのまま画像処理を行おうとすると、処理領域91よりも大きいこの取込位置ずれ量を加味した領域(拡大領域92)に対して、部品Pの存在の有無を検出しなければならない。また、図7に示すように、この取込位置ずれを考慮した拡大領域92が、隣り合う拡大領域92と重なってしまうと誤検出を招くことになる。したがって、部品Pの大きさによっては、実装ヘッド24は、密度の高い吸着ノズル40の配置を行うことができない、又は、拡大領域92の重なりによって部品Pを吸着できない吸着ノズル40が生じてしまう。このため、実装装置では、実装処理の処理時間がより長くなり、その効率が低下することがある。この実装装置11では、実装ヘッド24に基準マーク50を設け、基準マーク50を検出して実装ヘッド24の位置を把握することにより、この取込位置ずれを加味せず、吸着位置ずれだけを加味した、より小さい処理領域91を設定するのである。こうすれば、より大きい部品であっても、移動中の吸着状態を把握することができる。
 さて、処理領域を設定すると、CPU71は、設定された処理領域の画像データを取得する(ステップS190)。ここでは、CPU71は、画像データの全体のうち、処理領域の画像データをカメラユニット60の画像処理部64から転送されて取得するものとする。次に、CPU71は、処理領域の画像データを画像処理して、部品の状態、具体的には、部品のずれ量を検出する(ステップS200)。部品のずれ量の検出方法について、以下説明する。制御装置70は、例えば、処理領域の画像データの各画素が部品Pに該当する画素であるか否かを判定し、部品Pに該当する領域を検出する。次に、CPU71は、処理領域の中心位置(即ち吸着ノズル40の軸中心)及び吸着した部品Pの中心位置を検出し、検出した中心位置の距離をずれ量として求める。このとき、CPU71は、正常な吸着位置を基準とする部品Pの形状の傾きから、部品Pの回転角を求めるものとしてもよい。このようにして、吸着ノズル40に吸着された部品Pのノズル中心からのずれ量を求めることができる。なお、このフローチャートでは説明の便宜のため省略したが、CPU71は、検出したずれ量が予め経験的に定められた閾値よりも大きい場合や、部品Pの形状が基準値よりも異なる場合には、その吸着した部品Pを実装処理に用いないものとして処理する。
 続いて、CPU71は、検出したずれ量を補正した位置に部品Pを実装(配置)する処理を実行する(ステップS210)。このとき、CPU71は、部品Pが回転した状態で吸着されているときには、それを修正するようノズルホルダ44を回転するものとする。部品Pを実装すると、CPU71は、現基板の実装装置11による実装処理が完了したか否かを判定し(ステップS220)、現基板の実装処理が完了していないときには、ステップS130以降の処理を実行する。即ち、CPU71は、次に実装する部品Pを設定し、この部品Pを吸着ノズル40に吸着させ、基準マーク50の位置に基づいて撮像画像90のうち部品Pを含む処理領域91を設定する。CPU71は、この処理領域91の内部を調べることにより、部品Pの位置ずれ量などを検出し、この位置ずれ量を補正した位置に部品Pを配置させる処理を繰り返し実行する。一方、現基板の実装処理が完了したときには、CPU71は、実装完了した基板Sの排出処理を行い(ステップS230)、生産完了したか否かを、すべての基板Sに対して実装処理を行ったか否かに基づいて判定する(ステップS240)。すべての基板Sに対して実装処理を行っていないときには、CPU71は、ステップS120以降の処理を繰り返し実行し、すべての基板Sに対して実装処理を行ったときには、そのままこのルーチンを終了する。
 ここで、本実施形態の構成要素と本発明の構成要素との対応関係を明らかにする。本実施形態の実装ヘッド24が実装ヘッドに相当し、カメラユニット60が撮像部に相当し、領域設定部77が設定手段に相当し、検出部78が検出手段に相当する。
 以上説明した実装装置11では、移動中の実装ヘッド24に保持(吸着)された部品Pと基準マーク50とを撮像した撮像画像90のうち基準マーク50の位置に基づいて部品Pを含む処理領域91を設定し、設定された処理領域91の画像データを処理して実装ヘッド24に吸着された部品Pの状態を検出する。実装装置では、移動中の実装ヘッド24を撮像する場合、実装ヘッド24の位置にずれが生じる場合がある。このため、撮像した画像データのうち部品Pが含まれていると思われる処理領域91は、この実装ヘッド24の位置ずれ量を加味した領域に広げなければならないことがある。この実装装置11では、実装ヘッド24の基準マーク50を基準として、ずれのない実装ヘッド24の位置を把握可能であるから、画像における部品Pが含まれるであろう処理領域91を、この実装ヘッド24の位置ずれ量を考慮しない、より小さな領域にすることができる。したがって、本実施形態の実装装置11は、移動する部品Pの保持(吸着)状態をより効率的に検出することができる。また、実装装置11は、部品Pの吸着状態を検出するに際して、特に、部品Pを検出する画像処理の時間をより短縮することができる。更に、実装装置11は、実装ヘッド24の位置を把握してから実装ヘッド24に吸着された部品Pを含む領域を設定するため、より確実に部品Pの吸着状態を検出することができる。
 また、実装装置11は、部品サイズと部品の位置ずれ量とを加味した処理領域91を設定するため、処理領域91をより狭い範囲とすることができ、好ましい。更に、実装装置11は、撮像した画像データのうち設定された処理領域91の画像データを転送し、転送された処理領域91の画像データを処理するため、撮像した画像データをすべて転送するものに比して、転送データ量をより低減でき、移動する部品Pの吸着状態を更に効率的に検出することができる。即ち、実装装置11は、処理時間を更に短縮することができる。更にまた、実装ヘッド24は、複数の部品Pを吸着し、この部品Pに応じた複数の処理領域91を設定する、即ち、処理領域をより多く有するため、部品Pの吸着状態をより効率的に検出するという本発明を適用する意義が高い。また、例えば、一般的に、部品Pの含まれる処理領域が重なり合うと、誤検出を伴うなど、実装ヘッドに保持された部品の状態を検出することができないことがある。実装装置11では、それぞれの処理領域91を小さくすることができるため、各部品の処理領域が重なり合うのをより抑制することができ、部品の吸着状態の検出を行うことができる。そして、より大きな部品に対しても部品の吸着状態の検出を行うことができる。そしてまた、実装ヘッド24は、円周上に複数の部品Pを保持し、この円周の中央部に基準マーク50を有するため、部品Pと基準マーク50とを同一画像内に撮影しやく、移動する部品Pの吸着状態をより確実に検出することができる。そして更に、実装ヘッドは、矩形上に配列された検出点を含む基準マーク50を有するため、基準位置をより確実に求めることができ、ひいては、部品Pの吸着状態をより確実に検出することができる。そして更にまた、画像データの領域よりも小さい中央領域95に対して基準マーク50の検出を行うため、画像データの全体に対して基準マーク50の検出を行うものに比して、基準マーク50の検出をより効率よく行うことができる。
 なお、本発明は上述した実施形態に何ら限定されることはなく、本発明の技術的範囲に属する限り種々の態様で実施し得ることはいうまでもない。
 例えば、上述した実施形態では、カメラユニット60は、設定された処理領域の画像データのみを転送するものとしたが、特にこれに限られず、画像データ全体を転送するものとしてもよい。こうしても、より小さい処理領域91を、部品Pを検出する画像処理に用いるため、処理時間をより短縮することができる。
 上述した実施形態では、実装ヘッド24が複数の部品Pを吸着するものとして説明したが、特にこれに限定されず、1つの部品Pを吸着するものとしてもよい。こうしても、より小さい処理領域91を、部品Pを検出する画像処理に用いるため、移動する部品Pの吸着状態をより効率的に検出することができる。
 上述した実施形態では、円周上に複数の部品Pを吸着し、この円周の中央部に基準マーク50を有するものとしたが、特にこれに限定されない。例えば、基準マーク50は、吸着した部品Pと共に、カメラユニット60で撮像可能な位置であればどの位置に形成されていてもよい。例えば、実装ヘッドは円周上に複数の部品Pを吸着し、基準マークはこの円周の外に形成されていてもよい。また、実装ヘッドは矩形上に複数の部品Pを吸着し、基準マーク50はこの矩形の中央部又は外部に形成されるものとしてもよい。
 上述した実施形態では、実装ヘッド24は、矩形上に配列された検出点を含む基準マーク50を有するものとしたが、実装ヘッド24の位置を把握可能なものとすれば、特にこれに限定されず、例えば、1以上の検出点を含むものとしてもよい。例えば、基準マークは、検出点が3つでは、三角形上に配列された検出点を含むものとしてもよいし、検出点が4つでは、三角形上に配列され且つ中心に配置された検出点を含むものとしてもよい。例えば、基準マークは、検出点が5つでは、矩形上に配列され且つ中心に検出点を含むものとしてもよいし、五角形上に配列された検出点を含むものとしてもよい。また、上述した実施形態では、検出点を含む基準マーク50としたが、この基準マーク50の形状は、検出点に限らず、矩形や多角形の領域としてもよい。また、基準マーク50の検出点は赤色としたが、例えば、青色、白色、黒色、鏡面など、判別しやすいものとすればよい。
 上述した実施形態では、画像データの領域よりも小さい中央領域95に対して基準マークの検出を行うものとしたが、特にこれに限定されない。例えば、基準マークの検出を最上段の左の画素から右側へ2段目の左の画素から右側へ行う場合、制御装置70は、基準マーク50の左上の検出点を含むであろう所定領域に対して基準マークの検出を行うようにしてもよい。このとき、基準マーク50の各検出点の位置関係(座標など)は既知であるので、検出点を1つ検出したあとは、右上、左下、右下の検出点を含むであろう領域に対して基準マークの検出を行うようにしてもよい。こうすれば、制御装置70は、より狭い領域に対して基準マークの検出処理を行うため、部品Pの吸着状態の検出を更に効率よく行うことができる。あるいは、制御装置70は、画像データの領域よりも小さい所定領域を用いずに、画像データの領域に対して基準マークの検出を行うものとしてもよい。こうしても、基準マーク50の位置に基づいて実装ヘッド24の取込位置ずれは解消できるので、部品Pの吸着状態をより効率的に検出することができる。
 上述した実施形態では、領域設定部77、検出部78及び判定部79は、制御装置70が備えるものとして説明したが、特にこれに限定されず、カメラユニット60が備えるものとしてもよい。こうしても、移動する部品Pの吸着状態をより効率的に検出することができる。特に、カメラユニット60が領域設定部77などを備えるものとすると、画像データの転送などの処理を省略することができる場合があり、より効率的である。
 上述した実施形態では、実装ヘッド24に部品Pを吸着させるものとしたが、実装ヘッド24に部品Pを保持するものとすれば、吸着するものに限定されない。例えば、実装ヘッド24は、把持部に部品Pを引っかけて保持するものとしてもよい。
 なお、上述した制御装置70の機能ブロックは、ソフトウエアをCPUが実行することにより実現するものとしてもよいし、回路などによりハードウエア的に構成するものとしてもよい。
 上述した実施形態では、本発明を実装装置11として説明したが、特にこれに限定されず、部品検出方法やそのプログラムの形態としてもよい。
 本発明は、基板に部品を実装する技術分野に利用可能である。
10 部品実装システム、11 実装装置、12 基台、14 実装機本体、18 基板搬送装置、20 支持板、22 コンベアベルト、23 支持ピン、24 実装ヘッド、26 X軸スライダ、28 ガイドレール、30 Y軸スライダ、32 ガイドレール、40 吸着ノズル、42 ノズル保持体、43 モータ、44 ノズルホルダ、46 Z軸モータ、47 モータ、50 基準マーク、55 ノズルストッカ、56 リールユニット、60 カメラユニット、61 照明部、62 照明制御部、63 撮像素子、64 画像処理部、65 撮像制御部、70 制御装置、71 CPU、72 ROM、73 HDD、74 RAM、75 入出力インタフェース、76 実装制御部、77 領域設定部、78 検出部、79 判定部、80 管理コンピュータ、90 撮像画像、91 処理領域、92 拡大領域、95 中央領域、P 部品、S 基板。

Claims (7)

  1.  1以上の部品を基板上に実装する実装装置であって、
     基準マークを有し前記部品を保持し前記基板上へ移動させる実装ヘッドと、
     前記実装ヘッドを撮像する撮像部と、
     移動中の前記実装ヘッドに保持された部品と前記基準マークとを前記撮像部が撮像した画像データのうち前記基準マークの位置に基づいて前記部品を含む処理領域を設定する設定手段と、
     前記設定された処理領域の画像データを処理して前記実装ヘッドに保持された部品の状態を検出する検出手段と、
     を備えた実装装置。
  2.  前記設定手段は、前記部品サイズと該部品の位置ずれ量とを加味した前記処理領域を設定する、請求項1に記載の実装装置。
  3.  前記撮像部は、前記撮像した画像データのうち前記設定された処理領域の画像データを前記検出手段へ転送し、
     前記検出手段は、前記転送された処理領域の画像データを処理する、請求項1又は2に記載の実装装置。
  4.  前記実装ヘッドは、複数の部品を保持し、
     前記設定手段は、前記部品に応じた複数の処理領域を設定する、請求項1~3のいずれか1項に記載の実装装置。
  5.  前記実装ヘッドは、円周上に複数の部品を保持し、該円周の中央部に前記基準マークを有する、請求項4に記載の実装装置。
  6.  前記実装ヘッドは、矩形上に配列された検出点を含む前記基準マークを有する、請求項1~5のいずれか1項に記載の実装装置。
  7.  基準マークを有し部品を保持し基板上へ移動させる実装ヘッドと、前記実装ヘッドに保持された部品と前記基準マークとを撮像する撮像部と、を備え、1以上の部品を基板上に実装する実装装置の部品検出方法であって、
    (a)移動中の前記実装ヘッドに保持された部品と前記基準マークとを前記撮像部が撮像した画像データのうち前記基準マークの位置に基づいて前記部品を含む処理領域を設定するステップと、
    (b)前記設定された処理領域の画像データを処理して前記実装ヘッドに保持された部品の状態を検出するステップと、
     を含む部品検出方法。
PCT/JP2013/071639 2013-08-09 2013-08-09 実装装置及び部品検出方法 WO2015019487A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
EP13891019.5A EP3032934B1 (en) 2013-08-09 2013-08-09 Mounting device and part detection method
US14/911,183 US10314220B2 (en) 2013-08-09 2013-08-09 Mounting machine and component detection method
PCT/JP2013/071639 WO2015019487A1 (ja) 2013-08-09 2013-08-09 実装装置及び部品検出方法
CN201380078705.9A CN105453715B (zh) 2013-08-09 2013-08-09 安装装置及元件检测方法
JP2015530640A JP6279581B2 (ja) 2013-08-09 2013-08-09 実装装置及び部品検出方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2013/071639 WO2015019487A1 (ja) 2013-08-09 2013-08-09 実装装置及び部品検出方法

Publications (1)

Publication Number Publication Date
WO2015019487A1 true WO2015019487A1 (ja) 2015-02-12

Family

ID=52460854

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/071639 WO2015019487A1 (ja) 2013-08-09 2013-08-09 実装装置及び部品検出方法

Country Status (5)

Country Link
US (1) US10314220B2 (ja)
EP (1) EP3032934B1 (ja)
JP (1) JP6279581B2 (ja)
CN (1) CN105453715B (ja)
WO (1) WO2015019487A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017126025A1 (ja) * 2016-01-19 2017-07-27 富士機械製造株式会社 実装装置および撮像処理方法
WO2018163385A1 (ja) * 2017-03-09 2018-09-13 株式会社Fuji 部品認識装置
WO2019167110A1 (ja) * 2018-02-27 2019-09-06 ヤマハ発動機株式会社 部品搬送装置、部品搬送方法および部品実装装置
JPWO2021166220A1 (ja) * 2020-02-21 2021-08-26
TWI816532B (zh) * 2021-09-17 2023-09-21 日商上野精機股份有限公司 電子零組件的處理裝置

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3687270B1 (en) * 2017-09-22 2022-10-19 Fuji Corporation Electronic component mounting method and electronic component mounting machine
US10759190B2 (en) 2017-10-31 2020-09-01 Nike, Inc. Image registration for printing
JP7197285B2 (ja) * 2018-05-14 2022-12-27 Juki株式会社 実装装置、実装方法
CN111954460B (zh) * 2020-08-01 2022-08-09 深圳市华成工业控制股份有限公司 一种基于视觉的自动焊锡位置校正方法及***

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01169587A (ja) * 1987-12-24 1989-07-04 Matsushita Electric Ind Co Ltd 文字認識方法
JP2002094296A (ja) * 2000-09-13 2002-03-29 Fuji Mach Mfg Co Ltd 吸着ノズル,電気部品の保持位置検出方法,吸着管曲がり検出方法,吸着ノズルの回転位置特定方法,電気部品取扱装置
JP2002144267A (ja) * 2000-11-06 2002-05-21 Fuji Mach Mfg Co Ltd 電気部品吸着ノズル,倍率検出方法,吸着位置検出方法
JP2002185198A (ja) 2000-12-11 2002-06-28 Fuji Mach Mfg Co Ltd 吸着ノズルによる電気部品の位置ずれ検出方法および電気部品装着方法
JP2005286241A (ja) * 2004-03-30 2005-10-13 Fuji Mach Mfg Co Ltd 電子回路製造関連作業機
JP2012248717A (ja) * 2011-05-30 2012-12-13 Fuji Mach Mfg Co Ltd 位置認識用カメラ及び位置認識装置

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0563398A (ja) * 1991-08-22 1993-03-12 Philips Gloeilampenfab:Nv 部品実装方法及び部品実装装置
JP3366497B2 (ja) * 1995-07-12 2003-01-14 松下電器産業株式会社 部品検出方法
US6739036B2 (en) * 2000-09-13 2004-05-25 Fuji Machine Mfg., Co., Ltd. Electric-component mounting system
US6718626B2 (en) * 2000-09-13 2004-04-13 Fuji Machine Mfg. Co., Ltd. Apparatus for detecting positioning error of a component with respect to a suction nozzle
JP2002204096A (ja) * 2000-12-28 2002-07-19 Fuji Mach Mfg Co Ltd 電気部品装着システムおよび電気部品装着方法
JP4516220B2 (ja) * 2001-01-15 2010-08-04 富士機械製造株式会社 部品装着精度関連部分の相対位置関係取得方法および電気部品装着システム
JP4616514B2 (ja) * 2001-06-07 2011-01-19 富士機械製造株式会社 電気部品装着システムおよびそれにおける位置誤差検出方法
US6999835B2 (en) * 2001-07-23 2006-02-14 Fuji Machine Mfg. Co., Ltd. Circuit-substrate working system and electronic-circuit fabricating process
US7043820B2 (en) * 2001-07-27 2006-05-16 Fuji Machine Mfg. Co., Ltd. Electric-component mounting system
JP4343710B2 (ja) * 2004-01-09 2009-10-14 ヤマハ発動機株式会社 表面実装機
TW200601947A (en) * 2004-06-23 2006-01-01 Asustek Comp Inc Electronic apparatus and shielding structure for heat dissipation openings
JP5223683B2 (ja) * 2009-01-05 2013-06-26 富士電機株式会社 ワーク保持位置姿勢計測システムおよびワーク搬送システム
JP5636272B2 (ja) * 2010-12-20 2014-12-03 三星テクウィン株式会社Samsung Techwin Co., Ltd 電子部品実装装置
JP5791408B2 (ja) * 2011-07-15 2015-10-07 富士機械製造株式会社 電子部品実装装置
JP5987205B2 (ja) * 2011-08-10 2016-09-07 富士機械製造株式会社 電子回路部品装着機の位置決め不良検出方法
JP6124918B2 (ja) * 2012-11-19 2017-05-10 富士機械製造株式会社 部品実装機および実装検査機

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01169587A (ja) * 1987-12-24 1989-07-04 Matsushita Electric Ind Co Ltd 文字認識方法
JP2002094296A (ja) * 2000-09-13 2002-03-29 Fuji Mach Mfg Co Ltd 吸着ノズル,電気部品の保持位置検出方法,吸着管曲がり検出方法,吸着ノズルの回転位置特定方法,電気部品取扱装置
JP2002144267A (ja) * 2000-11-06 2002-05-21 Fuji Mach Mfg Co Ltd 電気部品吸着ノズル,倍率検出方法,吸着位置検出方法
JP2002185198A (ja) 2000-12-11 2002-06-28 Fuji Mach Mfg Co Ltd 吸着ノズルによる電気部品の位置ずれ検出方法および電気部品装着方法
JP2005286241A (ja) * 2004-03-30 2005-10-13 Fuji Mach Mfg Co Ltd 電子回路製造関連作業機
JP2012248717A (ja) * 2011-05-30 2012-12-13 Fuji Mach Mfg Co Ltd 位置認識用カメラ及び位置認識装置

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10869421B2 (en) 2016-01-19 2020-12-15 Fuji Corporation Mounting device and imaging processing method
CN108702867A (zh) * 2016-01-19 2018-10-23 株式会社富士 安装装置及拍摄处理方法
JPWO2017126025A1 (ja) * 2016-01-19 2018-11-08 株式会社Fuji 実装装置および撮像処理方法
EP3407696A4 (en) * 2016-01-19 2019-01-16 Fuji Corporation MOUNTING DEVICE AND PICTURE PROCESSING METHOD
WO2017126025A1 (ja) * 2016-01-19 2017-07-27 富士機械製造株式会社 実装装置および撮像処理方法
JPWO2018163385A1 (ja) * 2017-03-09 2019-11-07 株式会社Fuji 部品認識装置
WO2018163385A1 (ja) * 2017-03-09 2018-09-13 株式会社Fuji 部品認識装置
JPWO2019167110A1 (ja) * 2018-02-27 2020-12-03 ヤマハ発動機株式会社 部品搬送装置、部品搬送方法および部品実装装置
CN111742625A (zh) * 2018-02-27 2020-10-02 雅马哈发动机株式会社 元件输送装置、元件输送方法及元件安装装置
WO2019167110A1 (ja) * 2018-02-27 2019-09-06 ヤマハ発動機株式会社 部品搬送装置、部品搬送方法および部品実装装置
CN111742625B (zh) * 2018-02-27 2021-06-18 雅马哈发动机株式会社 元件输送装置、元件输送方法及元件安装装置
JPWO2021166220A1 (ja) * 2020-02-21 2021-08-26
WO2021166220A1 (ja) * 2020-02-21 2021-08-26 ヤマハ発動機株式会社 表面実装機、及び、画像解析方法
JP7290790B2 (ja) 2020-02-21 2023-06-13 ヤマハ発動機株式会社 表面実装機、及び、画像解析方法
TWI816532B (zh) * 2021-09-17 2023-09-21 日商上野精機股份有限公司 電子零組件的處理裝置

Also Published As

Publication number Publication date
EP3032934A4 (en) 2016-08-17
EP3032934B1 (en) 2019-09-25
JPWO2015019487A1 (ja) 2017-03-02
CN105453715B (zh) 2018-11-27
US20160192553A1 (en) 2016-06-30
EP3032934A1 (en) 2016-06-15
US10314220B2 (en) 2019-06-04
JP6279581B2 (ja) 2018-02-14
CN105453715A (zh) 2016-03-30

Similar Documents

Publication Publication Date Title
JP6279581B2 (ja) 実装装置及び部品検出方法
JP6231791B2 (ja) 実装装置
JP6293899B2 (ja) 実装装置
JP6828223B2 (ja) 実装装置
JP6712260B2 (ja) 実装装置、撮像処理方法及び撮像ユニット
JP6021374B2 (ja) 部品実装装置及び部品実装方法
JP6475165B2 (ja) 実装装置
JP2020055059A (ja) 作業システム
JP3709800B2 (ja) 実装機およびその部品装着方法
JP6053572B2 (ja) 実装装置及び実装方法
JP2013058605A (ja) 電子部品実装機および電子部品実装方法
WO2014141427A1 (ja) 実装設定方法及び実装設定装置
JP6612845B2 (ja) 実装装置、撮像処理方法及び撮像ユニット
CN110431934B (zh) 元件安装机
WO2021144971A1 (ja) 検査装置及び検査方法
JP2018037586A (ja) 実装装置
JP2013173196A (ja) ロボットのハンドリングアームの位置補正方法
WO2016151797A1 (ja) 実装装置及び実装方法
JP5977579B2 (ja) 基板作業装置
JP6423193B2 (ja) 実装装置及び実装方法
JP5860688B2 (ja) 対基板作業機
JP6789603B2 (ja) 実装装置
JP2018186116A (ja) 対基板作業装置

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201380078705.9

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13891019

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2015530640

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 2013891019

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 14911183

Country of ref document: US