WO2018062156A1 - ロボット、ロボットの制御装置、及び、ロボットの位置教示方法 - Google Patents

ロボット、ロボットの制御装置、及び、ロボットの位置教示方法 Download PDF

Info

Publication number
WO2018062156A1
WO2018062156A1 PCT/JP2017/034696 JP2017034696W WO2018062156A1 WO 2018062156 A1 WO2018062156 A1 WO 2018062156A1 JP 2017034696 W JP2017034696 W JP 2017034696W WO 2018062156 A1 WO2018062156 A1 WO 2018062156A1
Authority
WO
WIPO (PCT)
Prior art keywords
substrate
hand
teaching
robot
unit
Prior art date
Application number
PCT/JP2017/034696
Other languages
English (en)
French (fr)
Inventor
後藤 博彦
吉田 哲也
治彦 丹
一夫 藤森
山下 雄大
雅彦 住友
Original Assignee
川崎重工業株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 川崎重工業株式会社 filed Critical 川崎重工業株式会社
Priority to US16/337,584 priority Critical patent/US11110599B2/en
Priority to KR1020197008973A priority patent/KR102121973B1/ko
Priority to CN201780058115.8A priority patent/CN109716500B/zh
Publication of WO2018062156A1 publication Critical patent/WO2018062156A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L21/00Processes or apparatus adapted for the manufacture or treatment of semiconductor or solid state devices or of parts thereof
    • H01L21/67Apparatus specially adapted for handling semiconductor or electric solid state devices during manufacture or treatment thereof; Apparatus specially adapted for handling wafers during manufacture or treatment of semiconductor or electric solid state devices or components ; Apparatus not specifically provided for elsewhere
    • H01L21/677Apparatus specially adapted for handling semiconductor or electric solid state devices during manufacture or treatment thereof; Apparatus specially adapted for handling wafers during manufacture or treatment of semiconductor or electric solid state devices or components ; Apparatus not specifically provided for elsewhere for conveying, e.g. between different workstations
    • H01L21/67739Apparatus specially adapted for handling semiconductor or electric solid state devices during manufacture or treatment thereof; Apparatus specially adapted for handling wafers during manufacture or treatment of semiconductor or electric solid state devices or components ; Apparatus not specifically provided for elsewhere for conveying, e.g. between different workstations into and out of processing chamber
    • H01L21/67742Mechanical parts of transfer devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1612Programme controls characterised by the hand, wrist, grip control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/42Recording and playback systems, i.e. in which the programme is recorded from a cycle of operations, e.g. the cycle of operations being manually controlled, after which this record is played back on the same machine
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L21/00Processes or apparatus adapted for the manufacture or treatment of semiconductor or solid state devices or of parts thereof
    • H01L21/67Apparatus specially adapted for handling semiconductor or electric solid state devices during manufacture or treatment thereof; Apparatus specially adapted for handling wafers during manufacture or treatment of semiconductor or electric solid state devices or components ; Apparatus not specifically provided for elsewhere
    • H01L21/67005Apparatus not specifically provided for elsewhere
    • H01L21/67242Apparatus for monitoring, sorting or marking
    • H01L21/67259Position monitoring, e.g. misposition detection or presence detection
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L21/00Processes or apparatus adapted for the manufacture or treatment of semiconductor or solid state devices or of parts thereof
    • H01L21/67Apparatus specially adapted for handling semiconductor or electric solid state devices during manufacture or treatment thereof; Apparatus specially adapted for handling wafers during manufacture or treatment of semiconductor or electric solid state devices or components ; Apparatus not specifically provided for elsewhere
    • H01L21/67005Apparatus not specifically provided for elsewhere
    • H01L21/67242Apparatus for monitoring, sorting or marking
    • H01L21/67276Production flow monitoring, e.g. for increasing throughput
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L21/00Processes or apparatus adapted for the manufacture or treatment of semiconductor or solid state devices or of parts thereof
    • H01L21/67Apparatus specially adapted for handling semiconductor or electric solid state devices during manufacture or treatment thereof; Apparatus specially adapted for handling wafers during manufacture or treatment of semiconductor or electric solid state devices or components ; Apparatus not specifically provided for elsewhere
    • H01L21/677Apparatus specially adapted for handling semiconductor or electric solid state devices during manufacture or treatment thereof; Apparatus specially adapted for handling wafers during manufacture or treatment of semiconductor or electric solid state devices or components ; Apparatus not specifically provided for elsewhere for conveying, e.g. between different workstations
    • H01L21/67763Apparatus specially adapted for handling semiconductor or electric solid state devices during manufacture or treatment thereof; Apparatus specially adapted for handling wafers during manufacture or treatment of semiconductor or electric solid state devices or components ; Apparatus not specifically provided for elsewhere for conveying, e.g. between different workstations the wafers being stored in a carrier, involving loading and unloading
    • H01L21/67766Mechanical parts of transfer devices
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L21/00Processes or apparatus adapted for the manufacture or treatment of semiconductor or solid state devices or of parts thereof
    • H01L21/67Apparatus specially adapted for handling semiconductor or electric solid state devices during manufacture or treatment thereof; Apparatus specially adapted for handling wafers during manufacture or treatment of semiconductor or electric solid state devices or components ; Apparatus not specifically provided for elsewhere
    • H01L21/677Apparatus specially adapted for handling semiconductor or electric solid state devices during manufacture or treatment thereof; Apparatus specially adapted for handling wafers during manufacture or treatment of semiconductor or electric solid state devices or components ; Apparatus not specifically provided for elsewhere for conveying, e.g. between different workstations
    • H01L21/67763Apparatus specially adapted for handling semiconductor or electric solid state devices during manufacture or treatment thereof; Apparatus specially adapted for handling wafers during manufacture or treatment of semiconductor or electric solid state devices or components ; Apparatus not specifically provided for elsewhere for conveying, e.g. between different workstations the wafers being stored in a carrier, involving loading and unloading
    • H01L21/67778Apparatus specially adapted for handling semiconductor or electric solid state devices during manufacture or treatment thereof; Apparatus specially adapted for handling wafers during manufacture or treatment of semiconductor or electric solid state devices or components ; Apparatus not specifically provided for elsewhere for conveying, e.g. between different workstations the wafers being stored in a carrier, involving loading and unloading involving loading and unloading of wafers
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L21/00Processes or apparatus adapted for the manufacture or treatment of semiconductor or solid state devices or of parts thereof
    • H01L21/67Apparatus specially adapted for handling semiconductor or electric solid state devices during manufacture or treatment thereof; Apparatus specially adapted for handling wafers during manufacture or treatment of semiconductor or electric solid state devices or components ; Apparatus not specifically provided for elsewhere
    • H01L21/68Apparatus specially adapted for handling semiconductor or electric solid state devices during manufacture or treatment thereof; Apparatus specially adapted for handling wafers during manufacture or treatment of semiconductor or electric solid state devices or components ; Apparatus not specifically provided for elsewhere for positioning, orientation or alignment
    • H01L21/681Apparatus specially adapted for handling semiconductor or electric solid state devices during manufacture or treatment thereof; Apparatus specially adapted for handling wafers during manufacture or treatment of semiconductor or electric solid state devices or components ; Apparatus not specifically provided for elsewhere for positioning, orientation or alignment using optical controlling means
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L21/00Processes or apparatus adapted for the manufacture or treatment of semiconductor or solid state devices or of parts thereof
    • H01L21/67Apparatus specially adapted for handling semiconductor or electric solid state devices during manufacture or treatment thereof; Apparatus specially adapted for handling wafers during manufacture or treatment of semiconductor or electric solid state devices or components ; Apparatus not specifically provided for elsewhere
    • H01L21/683Apparatus specially adapted for handling semiconductor or electric solid state devices during manufacture or treatment thereof; Apparatus specially adapted for handling wafers during manufacture or treatment of semiconductor or electric solid state devices or components ; Apparatus not specifically provided for elsewhere for supporting or gripping
    • H01L21/687Apparatus specially adapted for handling semiconductor or electric solid state devices during manufacture or treatment thereof; Apparatus specially adapted for handling wafers during manufacture or treatment of semiconductor or electric solid state devices or components ; Apparatus not specifically provided for elsewhere for supporting or gripping using mechanical means, e.g. chucks, clamps or pinches
    • H01L21/68707Apparatus specially adapted for handling semiconductor or electric solid state devices during manufacture or treatment thereof; Apparatus specially adapted for handling wafers during manufacture or treatment of semiconductor or electric solid state devices or components ; Apparatus not specifically provided for elsewhere for supporting or gripping using mechanical means, e.g. chucks, clamps or pinches the wafers being placed on a robot blade, or gripped by a gripper for conveyance
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/45Nc applications
    • G05B2219/45031Manufacturing semiconductor wafers

Definitions

  • the present invention relates to a robot, a robot control device, and a robot position teaching method.
  • Patent Document 1 discloses that the position of the hand member in the traveling direction is the optimum position while the substrate carrying robot is moved by a teaching box and the image taken by the camera provided at the tip of the hand is confirmed on the monitor.
  • a teaching method for adjusting to become is disclosed.
  • the present invention has been made to solve such a problem, and an object of the present invention is to easily and accurately teach the robot the position of the hand even when the operator's skill is insufficient.
  • a robot is a robot that transports a substrate to a target position of the substrate on which the substrate is to be placed, and is attached to a robot arm and a tip of the robot arm. And a camera fixedly attached to a part other than the substrate platform so as to photograph the substrate platform on which the substrate of the hand is placed, and a teaching object photographed by the camera
  • a virtual board information generation unit that generates information on the arranged virtual boards; an operation unit that generates operation information corresponding to the operation by being operated; and the teaching board and the virtual board image
  • a robot operation control unit for controlling the operation of the robot arm according to the operation information generated by the operation unit, and a hand of the hand when the virtual board matches the teaching board
  • a teaching data recording unit that stores the position as
  • the screen display unit displays the virtual substrate generated on the substrate placement unit of the hand together with the teaching substrate disposed at the target position of the substrate to be taught on the screen.
  • the operation unit By operating the operation unit while viewing the screen, it is possible to control the operation of the robot arm so that the virtual substrate matches the teaching substrate.
  • teaching data By storing the hand position at this time as teaching data, the hand position corresponding to the target position can be taught to the robot.
  • store as teaching data means storing (registering) the position of the hand as reproducible information such as an operation program in a robot controller, for example.
  • the camera may be fixedly attached to the base end portion of the hand.
  • a distance information calculation unit that calculates distance information from the substrate placement unit to the teaching substrate based on image data of the camera is further provided, and the screen display unit is provided from the substrate placement unit to the teaching substrate. Based on the distance information, an operation guide for guiding the position of the hand may be displayed on the screen so that the virtual board coincides with the teaching board.
  • the operation guide for guiding the position of the hand is displayed on the screen so that the virtual board matches the teaching board, the operator can easily operate.
  • the distance information calculation unit may calculate distance information from the substrate placement unit to the teaching substrate by pattern matching the virtual substrate image and the teaching substrate image.
  • the operation guide includes an upper and lower guide portion that guides a vertical position of the hand, a left and right guide portion that guides a horizontal position of the hand, a front and rear guide portion that guides the front and rear position of the hand, May be included.
  • the operator can easily operate the position of the hand in the vertical direction, the front-rear direction, and the left-right direction.
  • the screen display unit touches any one of the up / down guide unit, the left / right direction guide unit, or the front / rear direction guide unit displayed on the screen, so that the vertical position, the left / right position of the hand is reached. Or you may further provide the touch panel which can perform input operation of the position of the front-back direction.
  • the operator can input the position of the hand by touching each guide portion displayed on the screen. Easy to operate.
  • the operation guide may be displayed in one color when the hand is facing in a direction in which the virtual board is coincident with the teaching board, and may be displayed in another color when the hand is not.
  • the operator can determine whether or not the teaching status is correct based on the color of the screen, so that the hand position operation becomes easier.
  • the operation unit and the display unit may be mounted on a portable operation terminal.
  • a robot control apparatus comprising: a robot arm; a hand attached to a tip of the robot arm; and a substrate placement unit on which a substrate placement unit on which the substrate of the hand is placed is photographed.
  • a camera that is fixedly attached to a portion other than the placement portion, and that is a robot control device that transports the substrate to a target position of the substrate on which the substrate is to be placed, the teaching target imaged by the camera
  • a teaching substrate disposed at a target position of the substrate to be used, an image data acquisition unit that acquires image data of the substrate mounting unit of the hand, and a virtual image on the substrate mounting unit of the hand in the image data
  • a virtual board information generation unit that generates information of the arranged virtual board; an operation unit that generates operation information according to the operation by being operated; and an image of the board and the virtual board.
  • a screen display unit displayed on a screen, a robot operation control unit that controls the operation of the robot arm according to the operation information, and a hand position when the virtual substrate coincides with the teaching substrate is stored as teaching data.
  • a teaching data recording unit a teaching data recording unit.
  • a robot position teaching method is a robot position teaching method for teaching the position of a robot hand that conveys a substrate to a target position of the substrate on which the substrate is to be placed. Placing a teaching substrate at a target position of the substrate, and fixing and attaching the camera to a portion other than the substrate platform so as to photograph the substrate platform on which the substrate of the hand is placed Moving the robot to a predetermined position where the camera can be photographed by the camera, and the teaching substrate and the hand substrate by the camera. A step of photographing the placement unit; and a step of generating information on a virtual substrate virtually arranged on the substrate placement unit of the hand in the photographed image data by the camera.
  • FIG. 1 is a perspective view schematically showing a configuration of a semiconductor processing facility including a robot according to an embodiment of the present invention.
  • FIG. 2 is a plan view schematically showing the configuration of the robot and the FOUP.
  • FIG. 3 is a diagram schematically showing the configuration of the internal mechanism of the robot.
  • FIG. 4 is a block diagram showing the configuration of the robot control device.
  • FIG. 5 is a flowchart showing an example of the operation of the robot.
  • FIG. 6 is a first example of an image taken by a camera.
  • FIG. 7 is a second example of an image taken by a camera.
  • FIG. 8 is a third example of an image taken by a camera.
  • FIG. 9 is a fourth example of an image taken with a camera.
  • FIG. 10 is a fifth example of an image taken by a camera.
  • FIG. 1 is a perspective view showing a semiconductor processing facility including a robot according to an embodiment of the present invention.
  • the semiconductor processing facility 100 is a facility for processing semiconductor wafers. Examples of semiconductor wafers include silicon wafers, sapphire (single crystal alumina) wafers, and other various wafers. Examples of the glass wafer include a glass substrate for FPD (Flat Panel Display) and a glass substrate for MEMS (Micro Electro Mechanical Systems).
  • the semiconductor processing facility 100 is previously defined by, for example, SEMI (Semiconductor Equipment and Materials International) standard. In this case, the FOUP 101 described later follows the use of the SEMI standard.
  • the configuration of the semiconductor processing facility 100 may be a configuration outside the SEMI standard.
  • a semiconductor wafer (hereinafter, also simply referred to as a substrate) W before and after processing is accommodated in a container called Front Opening Unified Pod (FOUP) 101.
  • the FOUP 101 is a substrate container for mini-environment in a clean environment, with regard to a technique for cleaning an extreme place.
  • a plurality of substrates W are accommodated in the three FOUPs 101.
  • the substrates W accommodated in the FOUP 101 are arranged at equal intervals in the vertical direction Z in a horizontal state.
  • the FOUP 101 is formed in a substantially box shape on the base 102 and opened to one side.
  • the semiconductor processing facility 100 includes a substrate processing apparatus 110 that processes the substrate W.
  • process processing such as heat treatment, impurity introduction processing, thin film formation processing, lithography processing, cleaning processing, and planarization processing is assumed.
  • the substrate W is transported between the FOUP 101 and the substrate processing apparatus 110 by the robot 1.
  • FIG. 2 is a plan view schematically showing the configuration of the FOUP in which the robot and the substrate according to the embodiment of the present invention are stored.
  • the FOUP 101 has an XY cross section. As shown in FIG. 2, the FOUP 101 includes a pair of side walls 101a facing each other and a plurality of pairs of substrate support portions 101d provided on the side walls 101a.
  • the substrate support unit 101d supports the end portions of the plurality of substrates W so that the plurality of substrates W are arranged in a horizontal posture with a space in the vertical direction.
  • the front surface of the FOUP 101 constitutes an open front opening 101e.
  • the robot 1 unloads the substrate W from the FOUP 101 through the front opening 101e, and loads the substrate W into the FOUP 101. That is, the robot 1 is a robot that transfers the substrate W to the target position T of the substrate on which the substrate W is to be placed, and includes the robot arm 4 and the hand 2 attached to the tip of the robot arm 4.
  • the robot 1 takes out the substrate W from the FOUP 101 and stores the substrate W in the FOUP 101 with the hand 2.
  • the center of the substrate W to be taught supported by the substrate support portion 101d when viewed from the vertical direction constitutes the target position T of the substrate W, but is not limited thereto.
  • the target position T is the FOUP 101 of the substrate W by the robot 1 by the control unit (to be described later) of the robot 1 storing the position of the hand when the teaching substrate W and the virtual substrate (to be described later) coincide with each other as teaching data. It is a position that enables unloading from the substrate or loading of the substrate W into the FOUP 101.
  • a camera 3 is fixedly attached to a wrist (base end portion) 2 a on the base end side of the hand 2 of the robot 1. In this embodiment, the camera 3 is attached to the list 2a as a position where the blade 2b can be fixed and photographed. However, the camera 3 may be fixedly attached to a portion other than the blade 2b of the hand 2.
  • the camera 3 includes a CCD (Charge-Coupled Device) camera, a CMOS (Complementary Metal-Oxide Semiconductor) camera, and the like.
  • the blade 2 b corresponds to a “substrate placement portion” of the hand 2 and is a portion on which the substrate W is placed.
  • the extending direction of a rotation axis L1 described later of the robot 1 is referred to as a Z direction or a vertical direction.
  • the direction orthogonal to the Z direction is referred to as the X direction or the left-right direction.
  • a direction orthogonal to the Z direction and the X direction is referred to as a Y direction or a front-rear direction.
  • the X direction is set in the direction from the robot 1 toward the FOUP 101 and in the opposite direction.
  • FIG. 3 is a diagram schematically showing the configuration of the internal mechanism of the robot 1.
  • the robot 1 includes a base 10, a robot arm 4, a hand 2, a camera 3 attached to the hand 2, and a control device 7 that controls the operation of the robot 1.
  • the robot arm 4 includes a lower arm 20 and an upper arm 30.
  • the base 10 is, for example, a hollow cylindrical member.
  • a lower arm drive unit 15 including a servo motor and a control device 7 are disposed inside the base 10.
  • the lower arm drive unit 15 includes a lower arm rotating main gear 16.
  • the robot 1 is provided with an elevating mechanism (not shown).
  • the elevating mechanism includes, for example, a well-known ball screw mechanism (not shown) and a servo motor (not shown) with an encoder for driving the same, and the lower arm rotating shaft 21 and the lower arm driving unit are provided by the ball screw mechanism.
  • the lower arm 20, the upper arm 30, and the hand 2 are integrally moved up and down in the Z direction by moving up and down a movable body (not shown) on which 15 is installed. Thereby, the hand 2 can be moved up and down between the raised position and the lowered position.
  • the height position of the lowered position is set lower than the height position of the base 102 of the FOUP 101. Further, the height position of the raised position is set above the height position of the uppermost substrate support portion 101d.
  • the lower arm 20 is, for example, a hollow plate-like member, and is formed in a substantially strip shape in plan view. As shown in FIG. 3, the lower arm 20 has a lower arm rotation shaft 21 formed so as to protrude downward from the bottom surface of the base end portion thereof.
  • the lower arm rotation shaft 21 is attached to the base 10 so as to be rotatable about a rotation axis L1 extending in the Z direction. Therefore, the lower arm 20 is configured to rotate in the XY plane.
  • the rotation axis L1 constitutes the reference point O on the XY plane.
  • a lower arm rotation driven gear 22 is fixed to the lower end of the lower arm rotation shaft 21.
  • the lower arm rotating driven gear 22 is provided at the same height as the lower arm rotating main gear 16 of the base 10 and meshes with the lower arm rotating main gear 16.
  • the lower arm 20 is provided with an upper arm drive unit 25 including a servo motor.
  • the upper arm drive unit 25 includes an upper arm rotating main gear 26.
  • the relative angular position around the rotation axis L1 with respect to the base 10 of the lower arm 20 is detected by the encoder of the servo motor of the lower arm drive unit 15.
  • the upper arm 30 is, for example, a hollow plate-like member, and is formed in a substantially strip shape in plan view. As shown in FIG. 3, the upper arm 30 is provided with an upper arm rotation shaft 31 so as to protrude downward from the bottom surface of the base end portion thereof.
  • the upper arm rotation shaft 31 is attached to the lower arm 20 so as to be rotatable about a rotation axis L2 extending in parallel with the rotation axis L1. Therefore, the upper arm 30 is configured to rotate on the XY plane.
  • the upper arm rotation driven gear 32 is fixed to the lower end portion of the upper arm rotation shaft 31.
  • the upper arm rotation driven gear 32 is provided at the same height as the upper arm rotation main gear 26 of the lower arm 20 and meshes with the upper arm rotation main gear 26.
  • the upper arm 30 has a hand drive unit 35 including a servo motor disposed therein.
  • the hand drive unit 35 includes a hand rotation main gear 36.
  • the relative angular position around the rotation axis L2 with respect to the lower arm 20 of the upper arm 30 is detected by the encoder of the servo motor of the upper arm drive unit 25.
  • the hand 2 includes a wrist 2 a formed on the proximal end side of the hand 2 and a blade 2 b formed on the distal end side of the hand 2.
  • the list 2a and the blade 2b are formed continuously.
  • the list 2a has a hand rotation shaft 41 formed so as to protrude downward from the bottom surface of the base end portion thereof.
  • the hand rotation shaft 41 is attached to the hand 2 so as to be rotatable about a rotation axis L3 extending in parallel with the rotation axes L1 and L2. Therefore, the hand 2 is configured to rotate in the XY plane.
  • a hand rotating driven gear 42 is fixed to the lower end portion of the hand rotating shaft 41.
  • the hand rotation driven gear 42 is provided at the same height as the hand rotation main gear 36 and meshes with the hand rotation main gear 36.
  • the relative angular position around the rotation axis L3 with respect to the upper arm 30 of the hand 2 is detected by the encoder of the servo motor of the hand drive unit 35.
  • the arm drive unit drives the lower arm 20 and the upper arm 30 to drive the hand 2 in the XY plane.
  • the list 2a has a camera 3 attached to the upper surface of its base end.
  • the camera 3 is attached in a direction in which the blade 2b on which the substrate W is placed can be imaged.
  • the blade 2b is formed in a thin plate shape, for example.
  • the upper surface of the blade 2b corresponds to the “substrate placement portion” of the hand 2, and the substrate W is held by the blade 2b.
  • the camera 3 is mounted on the rotation axis L3 of the blade 2b of the hand 2.
  • FIG. 4 is a block diagram illustrating a configuration of the control device 7 of the robot 1.
  • the control device 7 includes, for example, a control unit 70 having a computing unit such as a CPU, a servo control unit 71, a storage unit 72 having a memory such as a ROM and a RAM, and an interface unit (not shown).
  • the control device 7 may be configured by a single control device that performs centralized control, or may be configured by a plurality of control devices that perform distributed control in cooperation with each other.
  • the control device 7 is connected to a portable operation terminal (hereinafter also referred to as a teaching pendant) 8 having an operation unit 8b and a display unit 8a via an interface unit (not shown).
  • a portable operation terminal hereinafter also referred to as a teaching pendant
  • the teaching pendant 8 is disposed outside the semiconductor processing facility 100 (see FIG. 1) via a cable.
  • the operation unit 8b includes operation keys for operating the robot 1 in the teaching mode, and operation keys for instructing start, end, stop and record of teaching.
  • the control device 7 is configured to receive operation information and various commands via the operation unit 8b, and to output images of the camera 3 and the like to the display unit 8a in addition to various command values and calculation results. The operator performs teaching work by remotely operating the robot 1 with the teaching pendant 8 from the outside of the semiconductor processing facility 100.
  • the control unit 70 includes a camera controller 73, a distance information calculation unit 74, a virtual board information generation unit 75, a control command generation unit 76, and a teaching data recording unit 77. These functional units (73 to 77) are functional blocks realized by the control unit 70 executing a predetermined control program stored in the storage unit 72.
  • the camera controller 73 controls the camera 3 via an interface unit (not shown). That is, a shooting command is output to the camera 3.
  • the adjustment of the imaging timing or the position and orientation of the camera 3 may be changed.
  • the camera 3 is fixedly attached at a position and posture where the blade 2b of the hand 2 can be photographed.
  • the camera controller 73 acquires a camera image taken by the camera 3 and stores it in the storage unit 72.
  • the distance information calculation unit 74 calculates distance information from the blade 2 b (substrate placement unit) of the hand 2 to the substrate W to be taught based on the camera image taken by the camera 3. That is, the distance information calculation unit 74 calculates the distance information based on the camera image stored in the storage unit 72.
  • the virtual board information generation unit 75 generates information on the virtual board VW virtually arranged on the blade 2b of the hand 2 in the image data.
  • Information for generating the virtual substrate VW is stored in the storage unit 72 in advance.
  • the generated virtual board VW information is displayed on the screen by the display unit 8a so as to be placed on the blade 2b of the hand 2.
  • the control command generation unit 76 is configured to control the operation of the robot arm 4 according to operation information generated by the operation unit 8b in response to an operation by the operator. Specifically, the position command value of the servo motor of each drive unit 15, 25, 35, 19 is generated according to the operation information.
  • the control command generator 76 generates a speed command value based on the deviation between the generated position command value and the detected value (actual value) of the encoder. Then, a torque command value (current command value) is generated based on the deviation between the generated speed command value and the current speed value, and control is performed based on a detected value (actual value) between the generated current command value and the current sensor. A command is generated and output to the servo control unit 71.
  • the servo control unit 71 generates a current based on a given control command, and causes the generated current to flow through the servo motors of the drive units 15, 25, 35, and 19 to operate the robot 1.
  • the servo control unit 71 controls the lower arm driving unit 15 to rotate the lower arm 20 in the XY plane, controls the upper arm driving unit 25, and rotates the upper arm 30 in the XY plane. Further, the hand driving unit 35 is controlled to rotate the hand 2 in the XY plane.
  • the servo control unit 71 controls the lifting mechanism driving unit 19 to raise and lower the lower arm 20, the upper arm 30, and the hand 2 in the Z direction integrally.
  • the teaching data recording unit 77 stores the position of the hand 2 when the coordinates of the surface of the substrate W to be taught coincide with the coordinates of the surface of the virtual substrate VW in the storage unit 72 as teaching data.
  • the teaching data recording unit 77 stores the servo motor position command values of the driving units 15, 25, 35, and 19 in the storage unit 72.
  • a predetermined operation program is stored in the storage unit 72, and the operation of the robot 1 is controlled by the control unit 70 reading and executing these operation programs.
  • the predetermined operation program is a command for moving the hand 2 of the robot 1 to a predetermined position.
  • the storage unit 72 stores various information such as the shape, diameter, material, and weight of the substrate W as information for generating the virtual substrate VW.
  • FIG. 5 is a flowchart showing an example of the operation of the robot 1. 6 to 10 show images taken by the camera 3.
  • the teaching target of the present embodiment is the position of the hand 2 corresponding to the substrate W placed on the 14th stage from the top of the FOUP 101 located at the right end when viewed from the robot 1.
  • the center of the substrate W coincides with the target position T.
  • the substrate to be taught is referred to as a teaching substrate W.
  • the control unit 70 moves the robot 1 to the initial position (step S1 in FIG. 5).
  • the control command generator 76 generates position command values for the servo motors of the drive units 15, 25, 35, and 19 according to the robot operation program, and outputs the control command.
  • the servo control unit 71 controls each of the drive units 15, 25, 35, and 19 based on the given control command to operate the robot 1 to the initial position.
  • the initial position is a position where the camera 3 can photograph the space S including the teaching substrate W and the blade 2 b of the hand 2.
  • the route to the initial position is stored in advance in the storage unit 72 as an operation program. However, by operating the operation unit 8b with the teaching pendant 8, the robot 1 is initialized according to the operation information. You may move to a position.
  • the space 3 including the substrate W and the blade 2b of the hand 2 is photographed by the camera 3 (step S2 in FIG. 5).
  • the camera controller 73 stores the camera image taken by the camera 3 in the storage unit 72.
  • the virtual substrate information generation unit 75 is information on the virtual substrate VW virtually arranged on the blade 2b of the hand 2 in the image data based on the information such as the shape of the substrate W stored in advance in the storage unit 72. Is generated (step S3 in FIG. 5).
  • the distance information calculation unit 74 calculates the distance information from the blade 2b (substrate placement unit) of the hand 2 to the teaching substrate W based on the camera image taken by the camera 3.
  • the distance information calculation unit 74 calculates distance information from the blade 2b to the teaching substrate W by pattern matching the image of the virtual substrate VW and the image of the teaching substrate W.
  • the display unit 8a displays an image of the shooting space S shot by the camera 3 (step S4 in FIG. 5).
  • FIG. 6 shows a camera image displayed on the display unit 8a.
  • the teaching substrate W stored in the FOUP 101, the virtual substrate VW virtually placed on the blade 2 b of the hand 2, and the operation guide 9 are displayed on the screen.
  • the control unit 70 Based on the distance information from the blade 2b to the teaching substrate W, the control unit 70 displays the operation guide 9 so as to guide the position of the hand 2 so that the virtual substrate VW matches the teaching substrate W, and the display unit 8a. To display on the screen.
  • the operation guide 9 includes an upper guide portion 9U, a lower guide portion 9D, a left guide portion 9L, a right guide portion 9R, a front guide portion 9F, a rear guide portion 9B, an upper and lower display portion 9S, and a center guide portion 9C. .
  • the upper guide portion 9U and the lower guide portion 9D are displayed at the right end of the screen and guide the positions of the hand 2 in the upward direction and the downward direction.
  • the upper guide portion 9U is configured with an arrow pointing upward
  • the lower guide portion 9D is configured with an arrow pointing downward.
  • the left guide portion 9L and the right guide portion 9R are displayed on the left and right sides of the virtual substrate VW on the blade 2b in the center of the screen, and guide the position of the hand 2 in the left-right direction.
  • the left guide portion 9L is configured with an arrow pointing leftward
  • the right guide portion 9R is configured with an arrow pointing rightward.
  • the front guide portion 9F and the rear guide portion 9B are displayed on the front side and the rear side of the virtual substrate VW on the blade 2b in the center of the screen, and guide the position of the hand 2 in the front-rear direction.
  • the front guide portion 9F is configured by an arrow pointing forward
  • the rear guide portion 9B is configured by an arrow pointing backward.
  • the vertical display portion 9S is displayed between the upper guide portion 9U and the lower guide portion 9D located at the right end of the screen, and indicates the current position of the hand 2 in the vertical direction (Z).
  • the central guide portion 9C has a rectangular shape that passes through the central axis of the hand 2, and is displayed between the virtual substrate VW on the blade 2b at the center of the screen and the front guide portion 9F.
  • the operation guide 9 is displayed in, for example, green (indicated by a slanted line in the figure) when the hand is pointing in the correct direction, and is displayed in red (in black in the figure) otherwise.
  • the correct direction is a direction in which the virtual substrate VW coincides with the teaching substrate W.
  • the operator operates the operation unit 8b to adjust the position of the hand 2 so that the virtual substrate VW coincides with the teaching substrate W (step S5 in FIG. 5).
  • the upper / lower display portion 9S located at the right end of the screen is displayed in red.
  • the current value of the hand 2 in the vertical direction (Z) is the lowest value (1). Therefore, first, the operator operates the vertical position of the hand 2.
  • the operation unit 8b is operated in accordance with the upper guide unit 9U, the lower guide unit 9D, and the vertical display unit 9S located at the right end of the screen.
  • the control unit 70 controls the operation of the robot arm 4 so that the height position of the virtual substrate VW matches the height position of the teaching substrate W according to the operation information generated by the operation unit 8b.
  • FIG. 7 is a camera image when the vertical position of the hand 2 is adjusted to the correct position. As shown in FIG. 7, the display colors of the upper guide portion 9U, the lower guide portion 9D, and the upper and lower display portions 9S are changed to green (hatched lines). As a result, the operator can recognize that the height position of the virtual substrate VW matches the height position of the teaching substrate W.
  • FIG. 8 is a camera image when the horizontal position of the hand 2 is adjusted to the correct position.
  • the left guide portion 9L and the right guide portion 9R are changed to green (shaded line).
  • the front guide part 9F and the rear guide part 9B displayed before and after the virtual substrate VW at the center of the screen are red (black paint).
  • FIG. 9 is a camera image in the middle of adjusting the front-rear direction of the hand 2. As shown in FIG.
  • FIG. 10 is a camera image when the position of the hand 2 in the front-rear direction is adjusted to the correct position.
  • the front guide portion 9F and the rear guide portion 9B change from red (black) to green (hatched), so that the hand 2 can be adjusted to the position of the teaching substrate W.
  • the virtual substrate VW may be blinked. As shown in FIGS.
  • the teaching substrate W is displayed only at a part of the outer edge, and the entire shape thereof is not displayed.
  • the virtual substrate VW is replaced with the teaching substrate. Can be matched with W.
  • the control unit 70 causes the display unit 8a to display the characters of Record in red. As a result, the operator presses the record button of the operation unit 8b.
  • the teaching data recording unit 77 stores the position of the hand 2 when the virtual substrate VW coincides with the teaching substrate W in the storage unit 72 as teaching data (step S6 in FIG. 5).
  • “store as teaching data” means that the control device 7 stores (registers) the position of the hand 2 as reproducible information such as an operation program.
  • the teaching data recording unit 77 stores the servo motor position command values of the driving units 15, 25, 35, and 19 in the storage unit 72.
  • the display unit 8a displays the virtual substrate VW generated on the blade 2b of the hand 2 together with the teaching substrate W arranged at the target position T on the screen (FIG. 6 and the like).
  • the operator can control the operation of the robot arm 4 so that the virtual substrate VW coincides with the teaching substrate W by operating the operation unit 8b while viewing the screen.
  • teaching data By storing the position of the hand 2 at this time as teaching data, the position of the hand 2 corresponding to the target position T can be taught to the robot 1.
  • the position of the hand can be easily and accurately taught to the robot.
  • the operation guide 9 for guiding the position of the hand 2 is displayed on the screen so that the virtual substrate VW coincides with the teaching substrate W, the operator can easily operate.
  • the operation guide 9 includes an upper guide portion 9U, a lower guide portion 9D, a left guide portion 9L, a right guide portion 9R, a front guide portion 9F, a rear guide portion 9B, an upper and lower display portion 9S, and a central guide portion 9C.
  • the operator can further easily operate the hand 2 in the vertical direction, the front-rear direction, and the left-right direction.
  • the display unit 8a has a touch panel function and touches any one of the upper guide unit 9U, the lower guide unit 9D, the left guide unit 9L, the right guide unit 9R, the front guide unit 9F, or the rear guide unit 9B displayed on the screen.
  • the configuration may be such that the input operation of the position of the hand 2 in the vertical direction, the position in the horizontal direction, or the position in the front-rear direction is performed.
  • the operator can input the position of the hand 2 by touching each guide portion displayed on the screen, and the operation becomes easy.
  • the operation guide 9 may include a guide unit that guides the position in the rotation direction of the hand, or an operation for inputting the position in the rotation direction may be performed using a touch panel.
  • the operation guide 9 is displayed in green when the hand 2 is facing in the direction in which the virtual substrate VW coincides with the teaching substrate W, and is displayed in red otherwise. Whether or not the teaching status is correct can be determined by the color, and the position operation of the hand 2 becomes easier. Note that other colors may be used as display colors used to notify the operator of correctness. Further, the teaching status may be presented by voice, or the degree of completion of teaching may be displayed by a waveform or a gauge.
  • the distance information calculation unit 74 calculates the distance information from the blade 2b to the teaching substrate W by pattern matching the image of the virtual substrate VW and the image of the teaching substrate W. It is not limited to this.
  • the distance information to the object may be calculated by other known methods.
  • the distance information to the object may be acquired by attaching a color filter to the lens of the camera 3 and performing image analysis on blur and color shift that occur according to the distance to the object in the captured image.
  • an actual semiconductor wafer is used as the teaching substrate W, but a simulated substrate having a shape simulating an actual substrate may be used.
  • the camera 3 is fixedly attached to the wrist 2a of the hand 2, but may be configured to be detachable. In this case, the camera 3 may be attached only during teaching and removed when the robot 1 is operated in the repeat mode.
  • a plurality of cameras 3 may be arranged, or a three-dimensional camera may be used.
  • a three-dimensional camera acquires the distance information to a target object by image
  • the coordinate data of the surface of the object in a predetermined coordinate system can be generated.
  • a three-dimensional camera is a kind of stereo camera.
  • the three-dimensional camera has a pair of cameras arranged at a predetermined distance, and each of the pair of cameras has an image sensor.
  • the three-dimensional camera may acquire not only the distance information but also the color information (RGB or the like) of the object. Further, the three-dimensional camera may emit a laser and acquire distance information of a reflection point from a reflection position and a reflection time.
  • the present invention is useful when teaching the position of a robot hand that conveys a substrate.

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Manufacturing & Machinery (AREA)
  • Computer Hardware Design (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Power Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Manipulator (AREA)
  • Numerical Control (AREA)

Abstract

ロボットの制御装置は、カメラにより撮影された、教示対象となる基板の目標位置に配置された教示用基板、及び、ハンドの基板載置部の画像データを取得する画像データ取得部と、画像データにおいてハンドの基板載置部に仮想的に配置された仮想基板の情報を生成する仮想基板情報生成部と、操作されることにより当該操作に応じた操作情報を生成する操作部と、教示用基板及び仮想基板の画像を画面に表示する画面表示部と、操作情報に従って、ロボットアームの動作を制御するロボット動作制御部と、仮想基板が教示用基板と一致したときのハンドの位置を教示データとして記憶する教示データ記録部と、を備える。

Description

ロボット、ロボットの制御装置、及び、ロボットの位置教示方法
 本発明は、ロボット、ロボットの制御装置、及び、ロボットの位置教示方法に関する。
 半導体装置および液晶装置の分野では、装置の複雑化および搬送物の巨大化に起因して、ロボットの教示が益々難しくなっている。正確な位置をロボットに教示することは、ロボットの信頼性にとって、極めて重要なことである。このような状況の中で、オペレータの技量不足に起因する教示ミスは、深刻な問題である。
 従来は、オペレータがロボットを見ながら、教示用の可搬型操作端末(ティーチングペンダント)を使用してロボットを遠隔操作することにより、動作を教示する方法がある。例えば、特許文献1には、ティーチングボックスによって基板搬送ロボットを寸動操作して、ハンドの先端に設けられたカメラが撮像した映像をモニタで確認しながらハンド部材の進行方向の位置が最適な位置となるように調整する教示方法が開示されている。
特開2007-88110号公報
 しかし、従来の方法のように、ロボットを遠隔操作する場合、オペレータは半導体装置の外側からしか内部に設置されたロボットを見ることができない。このため、オペレータは装置を斜めや真上からから見ることにより、ロボットと目標位置との距離を確認しなければならず作業が煩雑であった。また、特許文献1のように、単にカメラの映像をモニタで確認する方法では、ロボットの教示に対するオペレータの技量不足に起因する教示ミスが起こり得るという課題があった。
 そこで、本発明は、このような課題を解決するためになされたものであり、オペレータの技量不足の場合であっても、ロボットにハンドの位置を簡単且つ正確に教示することを目的とする。
 上記の課題を解決するために、本発明のある態様に係るロボットは、基板を載置すべき基板の目標位置に基板を搬送するロボットであって、ロボットアームと、前記ロボットアームの先端に取り付けられたハンドと、前記ハンドの基板が載置される基板載置部を撮影するように当該基板載置部以外の部分に固定して取り付けられたカメラと、前記カメラにより撮影された、教示対象となる基板の目標位置に配置された教示用基板、及び、前記ハンドの基板載置部の画像データを取得する画像データ取得部と、前記画像データにおいて前記ハンドの基板載置部に仮想的に配置された仮想基板の情報を生成する仮想基板情報生成部と、操作されることにより当該操作に応じた操作情報を生成する操作部と、前記教示用基板及び前記仮想基板の画像を画面に表示する画面表示部と、前記操作部で生成される操作情報に従って、前記ロボットアームの動作を制御するロボット動作制御部と、前記仮想基板が前記教示用基板と一致したときのハンドの位置を教示データとして記憶する教示データ記録部と、を備える。
 上記構成によれば、画面表示部によって、教示対象となる基板の目標位置に配置された教示用基板とともにハンドの基板載置部に生成された仮想基板が画面に表示されるので、オペレータは、画面を見ながら操作部を操作することにより、仮想基板を教示用基板に一致させるようにロボットアームの動作を制御することができる。このときのハンドの位置を教示データとして記憶することにより、ロボットに目標位置に応じたハンドの位置を教示することができる。これにより、オペレータの技量不足の場合であっても、ロボットにハンドの位置を簡単且つ正確に教示することができる。ここで「教示データとして記憶する」とは、例えばロボットコントローラにおいて、動作プログラム等の再生可能な情報としてハンドの位置を記憶(登録)することを意味する。尚、カメラは、ハンドの基端部に固定して取り付けられてもよい。
 前記カメラの画像データに基づいて前記基板載置部から前記教示用基板までの距離情報を算出する距離情報算出部を更に備え、前記画面表示部は、前記基板載置部から前記教示用基板までの距離情報に基づいて、前記仮想基板が前記教示用基板と一致するようにハンドの位置をガイドする操作ガイドを画面に表示してもよい。
 上記構成によれば、仮想基板が教示用基板と一致するようにハンドの位置をガイドする操作ガイドが画面に表示されるので、オペレータは、容易に操作できる。
 前記距離情報算出部は、前記仮想基板の画像と前記教示用基板の画像とをパターンマッチングすることにより、前記基板載置部から前記教示用基板までの距離情報を算出してもよい。
 前記操作ガイドは、前記ハンドの上下方向の位置をガイドする上下ガイド部と、前記ハンドの左右方向の位置をガイドする左右ガイド部と、前記ハンドの前後方向の位置をガイドする前後ガイド部と、を含んでもよい。
 上記構成によれば、オペレータは、上下方向、前後方向、及び、左右方向のハンドの位置操作がより容易になる。
 前記画面表示部は、前記画面に表示された前記上下ガイド部、前記左右方向ガイド部、又は、前記前後方向ガイド部のいずれかに触れることによって、前記ハンドの上下方向の位置、左右方向の位置、又は、前後方向の位置の入力操作を行うことができるタッチパネルを更に備えてもよい。
 上記構成によれば、オペレータは、画面に表示された各ガイド部に触れることにより、ハンドの位置の入力操作ができる。操作が容易になる。
 前記操作ガイドは、前記仮想基板が前記教示用基板と一致する方向を、前記ハンドが向いている場合は一の色で表示され、そうでない場合はその他の色で表示されてもよい。
 上記構成によれば、オペレータは、画面の色で教示状況が正しいか否かを判断できるので、ハンドの位置操作がより容易になる。
 前記操作部及び前記表示部は、可搬型操作端末に実装されてもよい。
 本発明のその他の態様に係るロボットの制御装置は、ロボットアームと、前記ロボットアームの先端に取り付けられハンドと、前記ハンドの基板が載置される基板載置部を撮影するように当該基板載置部以外の部分に固定して取り付けられたカメラと、を備え、基板を載置すべき基板の目標位置に基板を搬送するロボットの制御装置であって、前記カメラにより撮影された、教示対象となる基板の目標位置に配置された教示用基板、及び、前記ハンドの基板載置部の画像データを取得する画像データ取得部と、前記画像データにおいて前記ハンドの基板載置部に仮想的に配置された仮想基板の情報を生成する仮想基板情報生成部と、操作されることにより当該操作に応じた操作情報を生成する操作部と、前記基板及び前記仮想基板の画像を画面に表示する画面表示部と、前記操作情報に従って、前記ロボットアームの動作を制御するロボット動作制御部と、前記仮想基板が前記教示用基板と一致したときのハンドの位置を教示データとして記憶する教示データ記録部と、を備える。
 本発明のその他の態様に係るロボットの位置教示方法は、基板を載置すべき基板の目標位置に基板を搬送するロボットのハンドの位置を教示するロボットの位置教示方法であって、教示対象となる基板の目標位置に教示用基板を配置するステップと、前記ハンドの基板が載置される基板載置部を撮影するように当該基板載置部以外の部分にカメラを固定して取り付けるステップと、前記教示用基板、及び、前記ハンドの基板載置部を、前記カメラにより撮影可能な所定の位置に前記ロボットを移動させるステップと、前記カメラにより、前記教示用基板、及び、前記ハンドの基板載置部を撮影するステップと、前記カメラにより、撮影された画像データにおいて前記ハンドの基板載置部に仮想的に配置された仮想基板の情報を生成するステップと、操作部により、操作を受け付けて、当該操作に応じた操作情報を生成するステップと、画面表示部により、前記教示用基板及び前記仮想基板の画像を画面に表示するステップと、前記操作情報に従って、前記ロボットアームの動作を制御するステップと、前記仮想基板が前記教示用基板と一致したときのハンドの位置を、教示データとして記憶部に記憶するステップと、を含む。
 本発明によれば、オペレータの技量不足の場合であっても、ロボットにハンドの位置を簡単且つ正確に教示することを目的とする。
図1は、本発明の実施形態に係るロボットを備える半導体処理設備の構成を概略的に示す斜視図である。 図2は、ロボット及びFOUPの構成を概略的に示す平面図である。 図3は、ロボットの内部機構の構成を概略的に示す図である。 図4は、ロボットの制御装置の構成を示すブロック図である。 図5は、ロボットの動作の一例を示すフローチャートである。 図6は、カメラで撮影された画像の第1の例である。 図7は、カメラで撮影された画像の第2の例である。 図8は、カメラで撮影された画像の第3の例である。 図9は、カメラで撮影された画像の第4の例である。 図10は、カメラで撮影された画像の第5の例である。
 本発明の実施の形態について、図面を参照しつつ説明する。以下では、全ての図面を通じて同一又は相当する要素には同じ符号を付して、重複する説明は省略する。
(実施形態)
[半導体処理設備]
 図1は、本発明の実施形態に係るロボットを備える半導体処理設備を示す斜視図である。半導体処理設備100は半導体ウェハを処理するための設備である。半導体ウェハとして、シリコンウェハ、サファイヤ(単結晶アルミナ)ウェハ、その他の各種のウェハが例示される。また、ガラスウェハとしては、例えば、FPD(Flat Panel Display)用ガラス基板、MEMS(Micro Electro Mechanical Systems)用ガラス基板が例示される。半導体処理設備100は、たとえばSEMI(Semiconductor Equipment and Materials International)規格によって、予め規定される。この場合、後述のFOUP101はSEMI規格の使用に従う。半導体処理設備100の構成はSEMI規格外の構成であってもよい。
 処理前および処理後の半導体ウェハ(以下、単に基板ともいう)Wは、Front Opening Unified Pod(FOUP)101と呼ばれる容器に収容される。FOUP101は、極所クリーン化技術に関し、クリーン環境におけるミニエンバイロメント用基板容器である。3つのFOUP101には複数の基板Wが収容される。FOUP101に収容される各基板Wは、水平な状態で、上下方向Zに等間隔を空けて配置される。FOUP101は、基台102の上に略箱状に形成され、一方に開放される。半導体処理設備100は、基板Wを処理する基板処理装置110を含んでいる。基板Wに対する処理としては、熱処理、不純物導入処理、薄膜形成処理、リソグラフィ処理、洗浄処理および平坦化処理などのプロセス処理が想定される。基板Wは、FOUP101と基板処理装置110との間をロボット1により搬送される。
[ロボット]
 図2は、本発明の実施形態に係るロボット及び基板が収納されるFOUPの構成を概略的に示す平面図である。FOUP101はXY断面が示されている。図2に示すように、FOUP101は、互いに対向する一対の側壁101aと、側壁101aに設けられた複数対の基板支持部101dを備えている。基板支持部101dは、複数の基板Wが水平姿勢で且つ上下方向に間隔をあけて並ぶように複数の基板Wの端部を支持する。そして、FOUP101の前面は開放された前面開口101eを構成している。
 ロボット1は、この前面開口101eを通じて基板WをFOUP101から搬出し、また、基板WをFOUP101に搬入する。即ち、ロボット1は、基板Wを載置すべき基板の目標位置Tに基板Wを搬送するロボットであって、ロボットアーム4と、ロボットアーム4の先端に取り付けられたハンド2と、を備える。ロボット1は、ハンド2により、FOUP101からの基板Wの取り出し及びFOUP101への基板Wの収納を行う。図2に示すように、例えば、鉛直方向から見て基板支持部101dに支持される教示対象となる基板Wの中心が基板Wの目標位置Tを構成するがこれに限られるものではない。この目標位置Tとは、ロボット1の後述する制御部が、教示用の基板Wと後述する仮想基板が一致したときのハンドの位置を教示データとして記憶することによって、ロボット1による基板WのFOUP101からの搬出又は基板WのFOUP101への搬入を可能にする位置である。ロボット1のハンド2の基端側のリスト(基端部)2aにはカメラ3が固定して取付けられている。本実施形態ではカメラ3は、ブレード2bを固定して撮影できる位置としてリスト2aに取付けられるが、ハンド2のブレード2b以外の部分に固定して取り付けられてもよい。カメラ3はCCD(Charge Coupled Device)カメラ、CMOS(Complementary Metal Oxide Semiconductor)カメラなどにより構成される。ブレード2bはハンド2の『基板載置部』に相当し、基板Wが載置される部分である。
 以下では、ロボット1の後述する回動軸線L1の延在方向をZ方向又は上下方向という。Z方向に直交する方向をX方向又は左右方向という。Z方向及びX方向に直交する方向をY方向又は前後方向という。本実施の形態において、X方向は、ロボット1からFOUP101に向かう方向及びこれと反対方向に設定されている。
 図3は、ロボット1の内部機構の構成を概略的に示す図である。図3に示すように、ロボット1は、基台10と、ロボットアーム4と、ハンド2と、ハンド2に取付けられたカメラ3と、ロボット1の動作を制御する制御装置7を備えている。ロボットアーム4は、下アーム20及び上アーム30によって構成される。
 基台10は、例えば、中空の円筒状部材である。基台10の内部には、サーボモータを含む下アーム駆動部15及び制御装置7が配設されている。下アーム駆動部15は、下アーム回動用主働ギヤ16を備えている。
 また、ロボット1は、昇降機構(図示せず)を備えている。昇降機構は、例えば周知のボールねじ機構(図示せず)及びこれを駆動するエンコーダ付きのサーボモータ(図示せず)を備え、当該ボールねじ機構によって、下アーム回動軸21及び下アーム駆動部15が設置された可動体(図示せず)をZ方向に昇降させることによって、下アーム20,上アーム30及びハンド2を一体的にZ方向に昇降させる。これによって、ハンド2を上昇位置と下降位置との間で昇降させることができる。下降位置の高さ位置は、FOUP101の基台102の高さ位置よりも下方に設定されている。また、上昇位置の高さ位置は、最上段の基板支持部101dの高さ位置よりも上方に設定されている。
 下アーム20は、例えば、中空の板状部材であり、平面視において大略短冊状に形成されている。図3に示すように、下アーム20は、その基端部の底面から下方に突出するように下アーム回動軸21が形成されている。そして、下アーム回動軸21は、Z方向に延びる回動軸線L1を中心に回動可能に基台10に取り付けられている。従って、下アーム20は、XY平面において回動するように構成されている。なお、本実施の形態において、回動軸線L1がXY平面上における基準点Oを構成する。
 下アーム回動軸21の下端部には、下アーム回動用従動ギヤ22が固定されている。この下アーム回動用従動ギヤ22は、基台10の下アーム回動用主働ギヤ16と同じ高さ位置に位置するよう設けられ、この下アーム回動用主働ギヤ16と歯合している。下アーム20は、その内部にサーボモータを含む上アーム駆動部25が配設されている。上アーム駆動部25は、上アーム回動用主働ギヤ26を備えている。
 そして、下アーム20の基台10に対する回動軸線L1周りの相対的な角度位置は、下アーム駆動部15のサーボモータのエンコーダによって検出される。
 上アーム30は、例えば、中空の板状部材であり、平面視において大略短冊状に形成されている。図3に示すように、上アーム30は、その基端部の底面から下方に突出するように上アーム回動軸31が設けられている。そして、上アーム回動軸31は、回動軸線L1と平行に延びる回動軸線L2を中心に回動可能に下アーム20に取り付けられている。従って、上アーム30は、XY平面上を回動するように構成されている。
 上アーム回動軸31の下端部には、上アーム回動用従動ギヤ32が固定されている。この上アーム回動用従動ギヤ32は、下アーム20の上アーム回動用主働ギヤ26と同じ高さ位置に位置するよう設けられ、この上アーム回動用主働ギヤ26と歯合している。上アーム30は、その内部にサーボモータを含むハンド駆動部35が配設されている。ハンド駆動部35は、ハンド回動用主働ギヤ36を備えている。
 そして、上アーム30の下アーム20に対する回動軸線L2周りの相対的な角度位置は、上アーム駆動部25のサーボモータのエンコーダによって検出される。
 ハンド2は、ハンド2の基端側に形成されたリスト2aと、ハンド2の先端側に形成されたブレード2bとを含む。リスト2aとブレード2bとは連続して形成されている。
 リスト2aは、その基端部の底面から下方に突出するように形成されたハンド回動軸41を有している。そして、ハンド回動軸41は、回動軸線L1,L2と平行に延びる回動軸線L3を中心に回動可能にハンド2に取り付けられている。従って、ハンド2は、XY平面において回動するように構成されている。
 ハンド回動軸41の下端部には、ハンド回動用従動ギヤ42が固定されている。このハンド回動用従動ギヤ42は、ハンド回動用主働ギヤ36と同じ高さ位置に位置するよう設けられ、このハンド回動用主働ギヤ36と歯合している。
 そして、ハンド2の上アーム30に対する回動軸線L3周りの相対的な角度位置は、ハンド駆動部35のサーボモータのエンコーダによって検出される。
 そして、上記下アーム駆動部15及び上アーム駆動部25がアーム駆動部を構成する。アーム駆動部は、その駆動によって、下アーム20及び上アーム30を駆動し、ハンド2をXY平面において移動させる。
 リスト2aは、その基端部の上面に取り付けられたカメラ3を有している。カメラ3は、基板Wを載置するブレード2bを撮像可能な方向に取付けられる。ブレード2bは、例えば薄板状に形成されている。このブレード2bの上面がハンド2の「基板載置部」を相当し、基板Wはブレード2bにより保持される。カメラ3は、ハンド2のブレード2bの回動軸線L3上に取付けられる。
[制御装置]
 図4は、ロボット1の制御装置7の構成を示すブロック図である。制御装置7は、例えば、CPU等の演算器を有する制御部70と、サーボ制御部71と、ROM及びRAM等のメモリを有する記憶部72と、インターフェース部(図示せず)を備えている。制御装置7は、集中制御する単独の制御装置で構成されていてもよく、互いに協働して分散制御する複数の制御装置で構成されてもよい。本実施形態では、制御装置7は、操作部8b及び表示部8aを有する可搬型操作端末(以下、ティーチングペンダントともいう)8とインターフェース部(図示せず)を介して接続される。ティーチングペンダント8は、ケーブルを介して半導体処理設備100(図1参照)の外側に配置される。操作部8bは、教示モードにおいてロボット1を操作する操作キー、及び、教示の開始、終了、停止及びレコードを指令するための操作キーを含む。制御装置7は、操作部8bを介して操作情報や各種指令が入力され、各種指令値や演算結果の他、カメラ3の映像等を表示部8aに出力するように構成されている。オペレータは、半導体処理設備100の外側から、ティーチングペンダント8で、ロボット1を遠隔操作することにより教示作業を行う。
 制御部70は、カメラコントローラ73と、距離情報算出部74、仮想基板情報生成部75、制御指令生成部76、及び、教示データ記録部77を含む。これらの機能部(73~77)は、記憶部72に格納された所定の制御プログラムを制御部70が実行することにより実現される機能ブロックである。
 カメラコントローラ73は、インターフェース部(図示せず)を介して、カメラ3を制御する。すなわち、カメラ3に撮影指令を出力する。撮像タイミングの調整、又は、カメラ3の位置および姿勢を変更してもよい。本実施形態では、カメラ3は、ハンド2のブレード2bを撮影可能な位置及び姿勢で固定して取り付けられている。カメラコントローラ73は、カメラ3によって撮影されたカメラ画像を取得し、これを記憶部72に記憶する。
 距離情報算出部74は、カメラ3により撮影されたカメラ画像に基づいてハンド2のブレード2b(基板載置部)から教示対象となる基板Wまでの距離情報を算出する。距離情報算出部74は、すなわち、記憶部72に記憶されたカメラ画像に基づき、距離情報を算出する。
 仮想基板情報生成部75は、画像データにおいてハンド2のブレード2bに仮想的に配置された仮想基板VWの情報を生成する。仮想基板VWを生成するための情報は、予め、記憶部72に記憶されている。生成された仮想基板VWの情報は、ハンド2のブレード2bに載置されるように表示部8aによって画面表示される。
 制御指令生成部76は、オペレータの操作に応じて操作部8bで生成される操作情報に従って、ロボットアーム4の動作を制御するように構成される。具体的には、操作情報に応じて各駆動部15,25,35,19のサーボモータの位置指令値を生成する。制御指令生成部76は、生成した位置指令値とエンコーダの検出値(実際値)の偏差に基づいて速度指令値を生成する。そして、生成した速度指令値と速度現在値の偏差に基づいてトルク指令値(電流指令値)を生成し、生成した電流指令値と電流センサとの偏差の検出値(実際値)に基づいて制御指令を生成し、サーボ制御部71に出力する。
 サーボ制御部71は、与えられる制御指令に基づいて電流を発生し、発生した電流を、各駆動部15,25,35,19のサーボモータに流し、ロボット1を動作させる。サーボ制御部71は、下アーム駆動部15を制御し、XY平面において下アーム20を回動させ、上アーム駆動部25を制御し、XY平面において上アーム30を回動させる。また、ハンド駆動部35を制御し、XY平面においてハンド2を回動させる。サーボ制御部71は、昇降機構駆動部19を制御し、下アーム20,上アーム30及びハンド2を一体的にZ方向に昇降させる。
 教示データ記録部77は、教示対象となる基板Wの表面の座標と仮想基板VWの表面の座標が一致したときのハンド2の位置を教示データとして記憶部72に記憶する。本実施形態では、教示データ記録部77は、各駆動部15,25,35,19のサーボモータの位置指令値として記憶部72に記憶する。
 記憶部72には所定の動作プログラムが記憶されていて、制御部70がこれらの動作プログラムを読み出して実行することにより、ロボット1の動作が制御される。
所定の動作プログラムとは、ロボット1のハンド2を所定の位置に移動させる命令である。そして、記憶部72には、上述した通り、仮想基板VWを生成するための情報として、基板Wの形状、直径、材料、重量等の各種情報が記憶されている。
[動作例]
 次に、ロボット1に教示対象となる基板Wの目標位置Tを教示する際のロボット1の動作例を説明する。図5はロボット1の動作の一例を示すフローチャートである。図6~図10は、カメラ3で撮影された画像を示している。本実施形態の教示対象は、ロボット1から見て右端に位置するFOUP101の上から14段目に載置された基板Wに対応するハンド2の位置である。この基板Wの中心が目標位置Tに一致している。以下では、教示対象となる基板を教示用基板Wと呼ぶ。
 まず、制御部70は、ロボット1を初期位置に移動させる(図5のステップS1)。具体的には、制御指令生成部76は、ロボットの動作プログラムに従って、各駆動部15,25,35,19のサーボモータの位置指令値を生成し、制御指令を出力する。サーボ制御部71は、与えられる制御指令に基づいて、各駆動部15,25,35,19を制御して、初期位置にロボット1を動作させる。初期位置とは、カメラ3により、教示用基板W、及び、ハンド2のブレード2bを含む空間Sを撮影可能な位置である。本実施形態では、初期位置までの経路は、予め、動作プログラムとして、記憶部72に記憶されているが、ティーチングペンダント8によって、操作部8bを操作することにより、操作情報に従って、ロボット1を初期位置まで移動させてもよい。
 次に、カメラ3により、基板W、及び、ハンド2のブレード2bを含む空間Sを撮影する(図5のステップS2)。カメラコントローラ73は、カメラ3によって撮影されたカメラ画像を記憶部72に記憶する。
 次に、仮想基板情報生成部75は、記憶部72に予め記憶された基板Wの形状等の情報に基づいて、画像データにおいてハンド2のブレード2bに仮想的に配置された仮想基板VWの情報を生成する(図5のステップS3)。このとき、距離情報算出部74は、カメラ3により撮影されたカメラ画像に基づいてハンド2のブレード2b(基板載置部)から教示用基板Wまでの距離情報を算出する。本実施形態では、距離情報算出部74は、仮想基板VWの画像と教示用基板Wの画像とをパターンマッチングすることにより、ブレード2bから教示用基板Wまでの距離情報を算出する。
 次に、表示部8aは、カメラ3により撮影された撮影空間Sの画像を表示する(図5のステップS4)。図6は、表示部8aで表示されたカメラ映像を示している。図6に示すように、FOUP101に収納された教示用基板Wと、ハンド2のブレード2bに仮想的に載置された仮想基板VWと、操作ガイド9が画面に表示される。制御部70は、ブレード2bから教示用基板Wまでの距離情報に基づいて、仮想基板VWが教示用基板Wと一致するようにハンド2の位置をガイドするように操作ガイド9を、表示部8aによって画面に表示させる。
 操作ガイド9は、上ガイド部9U、下ガイド部9D、左ガイド部9L、右ガイド部9R、前ガイド部9F、後ガイド部9B、上下表示部9S、および、中央ガイド部9Cを含んでいる。上ガイド部9U及び下ガイド部9Dは、画面の右端に表示され、ハンド2の上方向及び下方向の位置をガイドする。上ガイド部9Uは上方向を向いた矢印で構成され、下ガイド部9Dは下方向を向いた矢印で構成される。
 左ガイド部9L及び右ガイド部9Rは、画面中央のブレード2b上の仮想基板VWの左側及び右側に表示され、ハンド2の左右方向の位置をガイドする。左ガイド部9Lは左方向を向いた矢印で構成され、右ガイド部9Rは右方向を向いた矢印で構成される。
 前ガイド部9F及び後ガイド部9Bは、画面中央のブレード2b上の仮想基板VWの前方側及び後方側に表示され、ハンド2の前後方向の位置をガイドする。前ガイド部9Fは前方向を向いた矢印で構成され、後ガイド部9Bは後方向を向いた矢印で構成される。上下表示部9Sは、画面の右端に位置する上ガイド部9Uと下ガイド部9Dの間に表示され、ハンド2の上下方向(Z)の現在の位置を示している。中央ガイド部9Cは、ハンド2の中心軸を通る矩形状を有し、画面中央のブレード2b上の仮想基板VWと前ガイド部9Fの間に表示される。
 尚、操作ガイド9は、ハンドが正しい方向を向いている場合は例えば緑色(図では斜線)で表示され、そうでない場合は赤色(図では黒塗り)で表示される。ここで正しい方向とは、仮想基板VWが教示用基板Wと一致する方向である。
 次に、オペレータは、操作部8bを操作して、仮想基板VWを教示用基板Wに一致させるようにハンド2の位置を調整する(図5のステップS5)。図6に示すように、初期位置においては、画面の右端に位置する上下表示部9Sが赤で表示されている。ここではハンド2の上下方向(Z)の現在値は最低値(1)である。そこで、まず、オペレータは、ハンド2の上下方向の位置を操作する。画面の右端に位置する上ガイド部9U、下ガイド部9D、及び、上下表示部9Sに従って、操作部8bを操作する。制御部70は、操作部8bで生成される操作情報に従って、仮想基板VWの高さ位置が教示用基板Wの高さ位置と一致するようにロボットアーム4の動作を制御する。図7は、ハンド2の上下方向の位置が正しい位置に調整されたときのカメラ映像である。図7に示すように、上ガイド部9U、下ガイド部9D、及び、上下表示部9Sの表示色が緑色(斜線)に変わっている。これにより、オペレータは仮想基板VWの高さ位置が教示用基板Wの高さ位置と一致したことを認識することができる。
 次に、オペレータは、ハンド2の左右方向の位置を操作する。画面中央の仮想基板VWの左右に表示された左ガイド部9L及び右ガイド部9Rに従って、操作部8bを操作する。制御部70は、操作部8bで生成される操作情報に従って、仮想基板VWの左右方向の位置が教示用基板Wの左右方向の位置と一致するようにロボットアーム4の動作を制御する。図8は、ハンド2の左右方向の位置が正しい位置に調整されたときのカメラ映像である。図8に示すように、左ガイド部9L及び右ガイド部9Rが緑色(斜線)に変わっている。一方で、画面中央の仮想基板VWの前後に表示された前ガイド部9F及び後ガイド部9Bは赤色(黒塗り)である。これにより、オペレータは仮想基板VWの左右の位置が教示用基板Wの左右の位置と一致した一方で、仮想基板VWの前後の位置は教示用基板Wの前後の位置と一致していないことを認識することができる。
 最後に、オペレータは、ハンド2の前後方向の位置を操作する。画面中央の仮想基板VWの前後に表示された前ガイド部9F及び後ガイド部9Bに従って、操作部8bを操作する。このときオペレータは画面に表示された仮想基板VWの中心を矩形状の中央ガイド部9Cの中心に近づけるようにして操作部8bを操作する。制御部70は、操作部8bで生成される操作情報に従って、仮想基板VWの前後方向の位置が教示用基板Wの前後方向の位置と一致するようにロボットアーム4の動作を制御する。図9は、ハンド2の前後方向を調整している途中のカメラ映像である。図9に示すように、ハンド2は前方向に移動しているが、前ガイド部9F及び後ガイド部9Bは依然として赤色(黒塗り)のままであるので、正しい位置でないことを認識できるので、オペレータは仮想基板VWの中心を矩形状の中央ガイド部9Cの中心に近づけるようにして操作部8bによる前方向の操作を継続する。図10は、ハンド2の前後方向の位置が正しい位置に調整されたときのカメラ映像である。図10に示すように、前ガイド部9F及び後ガイド部9Bは赤色(黒塗り)から緑色(斜線)に変わることにより、ハンド2が教示用基板Wの位置に調整できたことが分かる。また、それ以外にも仮想基板VWを点滅させるようにしてもよい。図6~図10で示したように、教示用基板Wは、外縁の一部のみ表示され、その全形が表示されることはないが、操作ガイド9に従って、仮想基板VWを、教示用基板Wと一致させることができる。一方、制御部70は、仮想基板VWが教示用基板Wと一致したことを判断すると、表示部8aにRecordの文字を赤色で表示させる。これにより、オペレータは、操作部8bのレコードボタンを押す。
 最後に、教示データ記録部77は、仮想基板VWが教示用基板Wと一致したときのハンド2の位置を、記憶部72に教示データとして記憶する(図5のステップS6)。ここで「教示データとして記憶する」とは、制御装置7において、動作プログラム等の再生可能な情報としてハンド2の位置を記憶(登録)することを意味する。本実施形態では、教示データ記録部77は、各駆動部15,25,35,19のサーボモータの位置指令値として記憶部72に記憶する。
 従って、本実施形態によれば、表示部8aによって、目標位置Tに配置された教示用基板Wとともにハンド2のブレード2b上に生成された仮想基板VWが画面に表示されるので(図6等参照)、オペレータは、画面を見ながら操作部8bを操作することにより、仮想基板VWを教示用基板Wに一致させるようにロボットアーム4の動作を制御することができる。このときのハンド2の位置を教示データとして記憶することにより、ロボット1に目標位置Tに応じたハンド2の位置を教示することができる。これにより、オペレータの技量不足の場合であっても、ロボットにハンドの位置を簡単且つ正確に教示することができる。
 また、仮想基板VWが教示用基板Wと一致するようにハンド2の位置をガイドする操作ガイド9が画面に表示されるので、オペレータは、容易に操作できる。
 更に、操作ガイド9が、上ガイド部9U、下ガイド部9D、左ガイド部9L、右ガイド部9R、前ガイド部9F、後ガイド部9B、上下表示部9S、および、中央ガイド部9Cを含むことにより、オペレータは、ハンド2の上下方向、前後方向、及び、左右方向の位置操作が更に容易になる。
 尚、表示部8aがタッチパネル機能を備え、画面に表示された上ガイド部9U、下ガイド部9D、左ガイド部9L、右ガイド部9R、前ガイド部9F又は後ガイド部9Bのいずれかに触れることによって、ハンド2の上下方向の位置、左右方向の位置、又は、前後方向の位置の入力操作を行うような構成でもよい。これにより、オペレータは、画面に表示された各ガイド部に触れることにより、ハンド2の位置の入力操作ができ、操作が容易になる。また、操作ガイド9がハンドの回転方向の位置をガイドするガイド部を含んでもよいし、タッチパネルによって回転方向の位置の入力操作を行ってもよい。
 また、操作ガイド9は、仮想基板VWが教示用基板Wと一致する方向を、ハンド2が向いている場合は緑色で表示され、そうでない場合は赤色で表示されるので、オペレータは、画面の色で教示状況が正しいか否かを判断でき、ハンド2の位置操作がより容易になる。尚、オペレータに正否を伝えるために用いる表示色は、その他の色を使用してもよい。また、教示状況を音声で提示してもよいし、教示の完成度を波形又はゲージで表示してもよい。
(その他の実施形態)
 尚、本実施形態では、距離情報算出部74は、仮想基板VWの画像と教示用基板Wの画像とをパターンマッチングすることにより、ブレード2bから教示用基板Wまでの距離情報を算出したが、これに限られない。その他の公知の方法によって、対象物(教示用基板W)までの距離情報を算出してもよい。例えばカメラ3のレンズにカラーフィルタを取り付けて、撮影画像において物体までの距離に応じて発生するボケと色ずれを画像解析することにより、物体までの距離情報を取得してもよい。
 尚、本実施形態では、教示用基板Wは実際の半導体ウェハを使用したが、実際の基板を模した形状を有する模擬基板を使用してもよい。
 尚、本実施形態では、カメラ3はハンド2のリスト2aに固定して取り付けられたが、着脱自在に構成されてもよい。この場合は、教示の際のみカメラ3を取り付けてロボット1をリピートモードで動作させる際には、取り外してもよい。
 尚、本実施形態のカメラ3は複数配置してもよいし、3次元カメラでもよい。3次元カメラとは、対象物を異なる方向から同時に撮影し、視差を生み出すことによって、対象物までの距離情報を取得するものである。所定の座標系における対象物の表面の座標データを生成することができる。3次元カメラは、ステレオカメラの一種である。3次元カメラは、所定距離だけ離れて配置された一対のカメラを有し、一対のカメラはそれぞれ撮像素子を有する。3次元カメラは、距離情報だけでなく、対象物の色情報(RGB等)を取得してもよい。また、3次元カメラは、レーザを発射して反射位置および反射時間から反射点の距離情報を取得するものであってもよい。
 上記説明から、当業者にとっては、本発明の多くの改良や他の実施形態が明らかである。従って、上記説明は、例示としてのみ解釈されるべきであり、本発明を実行する最良の態様を当業者に教示する目的で提供されたものである。本発明の精神を逸脱することなく、その構造及び/又は機能の詳細を実質的に変更できる。
 本発明は、基板を搬送するロボットのハンドの位置を教示する際に有用である。
1 ロボット
2 ハンド
2a リスト
2b ブレード(基板載置部)
3 カメラ
4 ロボットアーム
7 制御装置(ロボットコントローラ)
8 可搬型操作端末(ティーチングペンダント)
8a 表示部
8b 操作部
9 操作ガイド
10 基台
20 下アーム
30 上アーム
70 制御部
71 サーボ制御部
72 記憶部
73 カメラコントローラ(画像データ取得部)
74 距離情報算出部
75 仮想基板情報生成部
76 制御指令生成部
77 教示データ記録部
100 半導体処理設備
101 FOUP
102 基台(FOUP)
110 基板処理装置
S 撮影空間,VW 仮想基板,W 基板
 
 
 

Claims (10)

  1.  基板を載置すべき基板の目標位置に基板を搬送するロボットであって、
     ロボットアームと、
     前記ロボットアームの先端に取り付けられたハンドと、
     前記ハンドの基板が載置される基板載置部を撮影するように当該基板載置部以外の部分に固定して取り付けられたカメラと、
     前記カメラにより撮影された、教示対象となる基板の目標位置に配置された教示用基板、及び、前記ハンドの基板載置部の画像データを取得する画像データ取得部と、
     前記画像データにおいて前記ハンドの基板載置部に仮想的に配置された仮想基板の情報を生成する仮想基板情報生成部と、
     操作されることにより当該操作に応じた操作情報を生成する操作部と、
     前記教示用基板及び前記仮想基板の画像を画面に表示する画面表示部と、
     前記操作部で生成される操作情報に従って、前記ロボットアームの動作を制御するロボット動作制御部と、
     前記仮想基板が前記教示用基板と一致したときのハンドの位置を教示データとして記憶する教示データ記録部と、
    を備える、ロボット。
  2.  前記カメラは、前記ハンドの基端部に固定して取り付けられる、請求項1に記載のロボット。
  3.  前記カメラの画像データに基づいて前記基板載置部から前記教示用基板までの距離情報を算出する距離情報算出部を更に備え、
     前記画面表示部は、前記基板載置部から前記教示用基板までの距離情報に基づいて、前記仮想基板が前記教示用基板と一致するようにハンドの位置をガイドする操作ガイドを画面に表示する、請求項1に記載のロボット。
  4.  前記距離情報算出部は、前記仮想基板の画像と前記教示用基板の画像とをパターンマッチングすることにより、前記基板載置部から前記教示用基板までの距離情報を算出する、請求項3に記載のロボット。
  5.  前記操作ガイドは、前記ハンドの上下方向の位置をガイドする上下ガイド部と、前記ハンドの左右方向の位置をガイドする左右ガイド部と、前記ハンドの前後方向の位置をガイドする前後ガイド部と、を含む、請求項3又は4に記載のロボット。
  6.  前記画面表示部は、
     前記画面に表示された前記上下ガイド部、前記左右方向ガイド部、又は、前記前後方向ガイド部のいずれかに触れることによって、前記ハンドの上下方向の位置、左右方向の位置、又は、前後方向の位置の入力操作を行うことができるタッチパネルを更に備える、請求項5に記載のロボット。
  7.  前記操作ガイドは、前記仮想基板が前記教示用基板と一致する方向を、前記ハンドが向いている場合は一の色で表示され、そうでない場合はその他の色で表示される、請求項3乃至6のいずれか一項に記載のロボット。
  8.  前記操作部及び前記表示部は、可搬型操作端末に実装される、請求項1乃至7のいずれか一項に記載のロボット。
  9.  ロボットアームと、前記ロボットアームの先端に取り付けられハンドと、前記ハンドの基板が載置される基板載置部を撮影するように当該基板載置部以外の部分に固定して取り付けられたカメラと、を備え、基板を載置すべき基板の目標位置に基板を搬送するロボットの制御装置であって、
     前記カメラにより撮影された、教示対象となる基板の目標位置に配置された教示用基板、及び、前記ハンドの基板載置部の画像データを取得する画像データ取得部と、
     前記画像データにおいて前記ハンドの基板載置部に仮想的に配置された仮想基板の情報を生成する仮想基板情報生成部と、
     操作されることにより当該操作に応じた操作情報を生成する操作部と、
     前記教示用基板及び前記仮想基板の画像を画面に表示する画面表示部と、
     前記操作情報に従って、前記ロボットアームの動作を制御するロボット動作制御部と、
     前記仮想基板が前記教示用基板と一致したときのハンドの位置を教示データとして記憶する教示データ記録部と、
    を備える、ロボットの制御装置。
  10.  基板を載置すべき基板の目標位置に基板を搬送するロボットのハンドの位置を教示するロボットの位置教示方法であって、
     教示対象となる基板の目標位置に教示用基板を配置するステップと、
     前記ハンドの基板が載置される基板載置部を撮影するように当該基板載置部以外の部分にカメラを固定して取り付けるステップと、
     前記教示用基板、及び、前記ハンドの基板載置部を、前記カメラにより撮影可能な所定の位置に前記ロボットを移動させるステップと、
     前記カメラにより、前記教示用基板、及び、前記ハンドの基板載置部を撮影するステップと、
     前記カメラにより、撮影された画像データにおいて前記ハンドの基板載置部に仮想的に配置された仮想基板の情報を生成するステップと、
     操作部により、操作を受け付けて、当該操作に応じた操作情報を生成するステップと、
     画面表示部により、前記教示用基板及び前記仮想基板の画像を画面に表示するステップと、
     前記操作情報に従って、前記ロボットアームの動作を制御するステップと、
     前記仮想基板が前記教示用基板と一致したときのハンドの位置を、教示データとして記憶部に記憶するステップと、
    を含む、ロボットの位置教示方法。
PCT/JP2017/034696 2016-09-28 2017-09-26 ロボット、ロボットの制御装置、及び、ロボットの位置教示方法 WO2018062156A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US16/337,584 US11110599B2 (en) 2016-09-28 2017-09-26 Robot, control device of robot, and method of teaching position of robot
KR1020197008973A KR102121973B1 (ko) 2016-09-28 2017-09-26 로봇, 로봇의 제어장치 및 로봇의 위치 교시 방법
CN201780058115.8A CN109716500B (zh) 2016-09-28 2017-09-26 机器人、机器人的控制装置、及机器人的位置教示方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016-189149 2016-09-28
JP2016189149A JP6741538B2 (ja) 2016-09-28 2016-09-28 ロボット、ロボットの制御装置、及び、ロボットの位置教示方法

Publications (1)

Publication Number Publication Date
WO2018062156A1 true WO2018062156A1 (ja) 2018-04-05

Family

ID=61760756

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/034696 WO2018062156A1 (ja) 2016-09-28 2017-09-26 ロボット、ロボットの制御装置、及び、ロボットの位置教示方法

Country Status (6)

Country Link
US (1) US11110599B2 (ja)
JP (1) JP6741538B2 (ja)
KR (1) KR102121973B1 (ja)
CN (1) CN109716500B (ja)
TW (1) TWI691392B (ja)
WO (1) WO2018062156A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2020261698A1 (ja) * 2019-06-27 2020-12-30
FR3101165A1 (fr) 2019-09-23 2021-03-26 Ponant Technologies Procédé d’enregistrement de séquences de commande et de contrôle d’un robot de test, logiciel pour mise en œuvre de ce procédé
WO2022196712A1 (ja) * 2021-03-19 2022-09-22 川崎重工業株式会社 ウエハ搬送ロボット及びウエハ取出方法

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6856583B2 (ja) 2018-07-25 2021-04-07 ファナック株式会社 センシングシステム、作業システム、拡張現実画像の表示方法、拡張現実画像の記憶方法、およびプログラム
JP6856590B2 (ja) 2018-08-31 2021-04-07 ファナック株式会社 センシングシステム、作業システム、拡張現実画像の表示方法、およびプログラム
JP2020096079A (ja) * 2018-12-12 2020-06-18 東京エレクトロン株式会社 基板処理装置の処理方法及び基板処理装置
JP6878391B2 (ja) 2018-12-18 2021-05-26 ファナック株式会社 ロボットシステムとその調整方法
US20210086364A1 (en) * 2019-09-20 2021-03-25 Nvidia Corporation Vision-based teleoperation of dexterous robotic system

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05343495A (ja) * 1992-06-05 1993-12-24 Tokyo Electron Tohoku Ltd 被処理物の移載装置
JP2003086658A (ja) * 2001-09-11 2003-03-20 Anelva Corp 基板搬送装置の監視装置
JP2005019963A (ja) * 2003-06-03 2005-01-20 Tokyo Electron Ltd 基板処理装置及び基板受け渡し位置の調整方法
JP2011508453A (ja) * 2007-12-27 2011-03-10 ラム リサーチ コーポレーション プラズマ処理システムにおいてエンドエフェクタのアラインメントを校正するためのシステムおよび方法
JP2014128855A (ja) * 2012-12-28 2014-07-10 Kawasaki Heavy Ind Ltd 自動教示システム及び教示方法

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4871252A (en) * 1986-10-30 1989-10-03 The Regents Of The University Of California Method and apparatus for object positioning
JP4461203B2 (ja) * 1999-09-21 2010-05-12 ムラテックオートメーション株式会社 ストッカ用ロボットの教示方法、ストッカ用ロボットの教示装置及び記録媒体
JP2002224982A (ja) * 2000-12-01 2002-08-13 Yaskawa Electric Corp 薄型基板搬送用ロボットおよび薄型基板検出方法
US6591160B2 (en) * 2000-12-04 2003-07-08 Asyst Technologies, Inc. Self teaching robot
JP3694808B2 (ja) * 2001-04-13 2005-09-14 株式会社安川電機 ウェハ搬送用ロボットの教示方法および教示用プレート
JP4257570B2 (ja) * 2002-07-17 2009-04-22 株式会社安川電機 搬送用ロボットのティーチング装置および搬送用ロボットのティーチング方法
JP2004276151A (ja) * 2003-03-13 2004-10-07 Yaskawa Electric Corp 搬送用ロボットおよび搬送用ロボットの教示方法
JP2007088110A (ja) 2005-09-21 2007-04-05 Daihen Corp 基板搬送ロボットの基準位置教示方法
JP4869852B2 (ja) * 2006-09-28 2012-02-08 株式会社ダイヘン 搬送用ロボットの教示方法
JP5343495B2 (ja) 2008-09-30 2013-11-13 カシオ計算機株式会社 貫通状態判別装置および電子時計
WO2013035244A1 (ja) * 2011-09-06 2013-03-14 パナソニック株式会社 ロボットアームの制御装置及び制御方法、ロボット、制御プログラム、並びに、集積電子回路
JP2013154410A (ja) * 2012-01-26 2013-08-15 Canon Inc 教示装置
JP5573861B2 (ja) * 2012-02-16 2014-08-20 株式会社安川電機 搬送システム
US8676375B2 (en) * 2012-02-27 2014-03-18 Veeco Instruments Inc. Automated cassette-to-cassette substrate handling system
KR101964964B1 (ko) * 2012-05-08 2019-08-07 세메스 주식회사 기판 이송 로봇의 자동 티칭 장치를 구비하는 반도체 제조 설비 및 그의 티칭 방법
JP6006103B2 (ja) * 2012-12-07 2016-10-12 株式会社ダイヘン ロボットの教示方法、搬送方法、および搬送システム
JP6112300B2 (ja) * 2013-01-10 2017-04-12 パナソニックIpマネジメント株式会社 マスタースレーブロボットの制御装置及び制御方法、マスタースレーブロボット、並びに、制御プログラム
US9548231B2 (en) * 2013-06-05 2017-01-17 Persimmon Technologies, Corp. Robot and adaptive placement system and method
US9905446B2 (en) * 2013-11-06 2018-02-27 Kawasaki Jukogyo Kabushiki Kaisha Substrate transferring apparatus
JP6127925B2 (ja) * 2013-11-11 2017-05-17 株式会社安川電機 ロボットシミュレーション装置、ロボットシミュレーション方法、およびロボットシミュレーションプログラム
JP2014166681A (ja) * 2014-05-16 2014-09-11 Yaskawa Electric Corp ロボット教示システムおよびロボット教示方法
EP3218925B1 (en) * 2014-11-10 2020-12-30 Brooks Automation, Inc. Tool auto-teach method and apparatus
US10134623B2 (en) * 2015-07-13 2018-11-20 Brooks Automation, Inc. On the fly automatic wafer centering method and apparatus
JP6741537B2 (ja) * 2016-09-28 2020-08-19 川崎重工業株式会社 ロボット、ロボットの制御装置、及び、ロボットの位置教示方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05343495A (ja) * 1992-06-05 1993-12-24 Tokyo Electron Tohoku Ltd 被処理物の移載装置
JP2003086658A (ja) * 2001-09-11 2003-03-20 Anelva Corp 基板搬送装置の監視装置
JP2005019963A (ja) * 2003-06-03 2005-01-20 Tokyo Electron Ltd 基板処理装置及び基板受け渡し位置の調整方法
JP2011508453A (ja) * 2007-12-27 2011-03-10 ラム リサーチ コーポレーション プラズマ処理システムにおいてエンドエフェクタのアラインメントを校正するためのシステムおよび方法
JP2014128855A (ja) * 2012-12-28 2014-07-10 Kawasaki Heavy Ind Ltd 自動教示システム及び教示方法

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2020261698A1 (ja) * 2019-06-27 2020-12-30
WO2020261698A1 (ja) * 2019-06-27 2020-12-30 川崎重工業株式会社 基板マッピング装置、そのマッピング方法及びマッピング教示方法
CN114025925A (zh) * 2019-06-27 2022-02-08 川崎重工业株式会社 基板扫描映射装置、其扫描映射方法及扫描映射示教方法
JP7238126B2 (ja) 2019-06-27 2023-03-13 川崎重工業株式会社 基板マッピング装置、そのマッピング方法及びマッピング教示方法
FR3101165A1 (fr) 2019-09-23 2021-03-26 Ponant Technologies Procédé d’enregistrement de séquences de commande et de contrôle d’un robot de test, logiciel pour mise en œuvre de ce procédé
WO2021058307A1 (fr) 2019-09-23 2021-04-01 Ponant Technologies Procede d'enregistrement de sequences de commande et de controle d'un robot de test, logiciel pour mise en oeuvre de ce procede
WO2022196712A1 (ja) * 2021-03-19 2022-09-22 川崎重工業株式会社 ウエハ搬送ロボット及びウエハ取出方法

Also Published As

Publication number Publication date
US11110599B2 (en) 2021-09-07
KR102121973B1 (ko) 2020-06-26
US20200030973A1 (en) 2020-01-30
TWI691392B (zh) 2020-04-21
JP6741538B2 (ja) 2020-08-19
TW201827185A (zh) 2018-08-01
JP2018051671A (ja) 2018-04-05
KR20190058500A (ko) 2019-05-29
CN109716500A (zh) 2019-05-03
CN109716500B (zh) 2023-05-05

Similar Documents

Publication Publication Date Title
WO2018062156A1 (ja) ロボット、ロボットの制御装置、及び、ロボットの位置教示方法
KR102121972B1 (ko) 로봇, 로봇의 제어장치 및 로봇의 위치 교시 방법
JP6859967B2 (ja) コンベアトラッキングシステムおよびキャリブレーション方法
JP6113742B2 (ja) 半導体基板の位置検出装置及び位置検出方法
JP5468366B2 (ja) ロボット制御システムおよびロボット制御方法
JP2008109027A (ja) 基板処理装置、基板受け渡し位置の調整方法及び記憶媒体
US9533412B2 (en) Robot, robot system, robot control device and robot control method
JP6571116B2 (ja) 検査支援装置
WO2021161582A1 (ja) 基板搬送装置及び基板位置ずれ測定方法
TW202021757A (zh) 機械人系統及連接方法
JP5427566B2 (ja) ロボット制御方法、ロボット制御プログラムおよびロボット制御方法に用いられるロボットハンド
WO2018168962A1 (ja) 基板搬送装置
JP5610211B2 (ja) 投影面情報提示装置と方法
CN112566758A (zh) 机器人控制装置、机器人控制方法及机器人控制程序
JP2008153511A (ja) 部品実装装置
JP7529907B2 (ja) 視覚センサにて撮像された画像に基づいて3次元の位置を算出する撮像装置
JP2018171342A (ja) マスタ画像生成システム及び縫製システム
WO2024047808A1 (ja) ロボット座標系に搬送装置座標系を設定する装置、及び方法
JP2024058215A (ja) 位置教示装置および位置教示方法
JP2022089034A (ja) 電子機器組立装置および電子機器組立方法
JP2002314300A (ja) 電子部品搭載装置及び電子部品搭載方法
JPH1034573A (ja) 視覚認識ロボットの教示方法およびその装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17856106

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 20197008973

Country of ref document: KR

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17856106

Country of ref document: EP

Kind code of ref document: A1