JP5549129B2 - Position control method, robot - Google Patents

Position control method, robot Download PDF

Info

Publication number
JP5549129B2
JP5549129B2 JP2009159557A JP2009159557A JP5549129B2 JP 5549129 B2 JP5549129 B2 JP 5549129B2 JP 2009159557 A JP2009159557 A JP 2009159557A JP 2009159557 A JP2009159557 A JP 2009159557A JP 5549129 B2 JP5549129 B2 JP 5549129B2
Authority
JP
Japan
Prior art keywords
unit
robot
movement
control method
movable
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009159557A
Other languages
Japanese (ja)
Other versions
JP2011011318A (en
Inventor
泉 飯田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2009159557A priority Critical patent/JP5549129B2/en
Priority to US12/828,539 priority patent/US8452449B2/en
Publication of JP2011011318A publication Critical patent/JP2011011318A/en
Priority to US13/849,098 priority patent/US8655488B2/en
Priority to US14/093,882 priority patent/US9020638B2/en
Application granted granted Critical
Publication of JP5549129B2 publication Critical patent/JP5549129B2/en
Priority to US14/674,961 priority patent/US9221173B2/en
Priority to US14/950,861 priority patent/US20160082592A1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/1638Programme controls characterised by the control loop compensation for arm bending/inertia, pay load weight/inertia
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/04Viewing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/10Programme-controlled manipulators characterised by positioning means for manipulator elements
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/10Programme-controlled manipulators characterised by positioning means for manipulator elements
    • B25J9/12Programme-controlled manipulators characterised by positioning means for manipulator elements electric
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/404Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by control arrangements for compensation, e.g. for backlash, overshoot, tool offset, tool wear, temperature, machine construction errors, load, inertia
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39199Active vibration absorber
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40549Acceleration of end effector
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/41Servomotor, servo controller till figures
    • G05B2219/41117Cancel vibration during positioning of slide
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/41Servomotor, servo controller till figures
    • G05B2219/41122Mechanical vibrations in servo, antihunt also safety, stray pulses, jitter
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/41Servomotor, servo controller till figures
    • G05B2219/41123Correction inertia of servo
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/41Servomotor, servo controller till figures
    • G05B2219/41168Compensate position error by shifting projected image electronically
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/02Arm motion controller
    • Y10S901/09Closed loop, sensor feedback controls arm movement
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10TTECHNICAL SUBJECTS COVERED BY FORMER US CLASSIFICATION
    • Y10T156/00Adhesive bonding and miscellaneous chemical manufacture
    • Y10T156/19Delaminating means

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Manufacturing & Machinery (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Manipulator (AREA)
  • Numerical Control (AREA)

Description

本発明は、位置制御方法にかかわり、特に、位置精度良く制御する方法に関するものである。   The present invention relates to a position control method, and more particularly to a method for controlling with high position accuracy.

多関節のリンク(以下アームと称す)を有するロボットが組み立て装置等の多くの装置に活用されている。ロボットがアームを移動させて停止するとき、アームが振動する。アームが振動している間はアームの先端に配置されたロボットハンドも振動する。そして、ロボットハンドが振動している間はロボットハンドがワークを把持等の作業を施すことが難しいので、ロボットハンドの振動が停止するのを待つ必要がある。   A robot having an articulated link (hereinafter referred to as an arm) is used in many devices such as an assembly device. When the robot stops by moving the arm, the arm vibrates. While the arm is vibrating, the robot hand arranged at the tip of the arm also vibrates. And while the robot hand is vibrating, it is difficult for the robot hand to perform work such as gripping the workpiece, so it is necessary to wait for the vibration of the robot hand to stop.

ロボットの生産性を向上するために、ロボットハンドが振動する時間を短縮させる方法が特許文献1に開示されている。それによると、アームの回転角度を検出する角度センサーをアームのアクチュエーターに配置する。さらに、アームの振動を検出する角速度センサーをアームのハンド側に配置する。そして、ローパスフィルターを用いて角度センサーの低周波成分を抽出し、ハイパスフィルターを用いて角速度センサーの出力の高周波成分を抽出する。次に、角度センサーの出力と角速度センサーの出力とを合成してアームの動作を検出する。そして、アームの動作に対応してアームを制御することにより、アームの振動を抑えている。   In order to improve the productivity of the robot, Patent Document 1 discloses a method for shortening the time during which the robot hand vibrates. According to this, an angle sensor for detecting the rotation angle of the arm is arranged on the actuator of the arm. Further, an angular velocity sensor for detecting arm vibration is arranged on the arm side. Then, the low-frequency component of the angle sensor is extracted using a low-pass filter, and the high-frequency component of the output of the angular velocity sensor is extracted using a high-pass filter. Next, the movement of the arm is detected by combining the output of the angle sensor and the output of the angular velocity sensor. The arm vibration is suppressed by controlling the arm corresponding to the operation of the arm.

特許第3883544号公報Japanese Patent No. 3883544

アクチュエーターはモーター等からなり電力を供給することにより駆動される。そして、駆動する時間が長くなると、モーターが発熱する。そして、モーターの熱がアームに伝導することにより、アームの温度が上昇する。そして、アームが温度上昇することによりアームが膨張するので、アームの長さが変動することがある。さらに、ロボットハンドがワークを把持するとき、ワークの重量でアームが撓むことがある。このときにもアクチュエーターに対してロボットハンドの位置が変動する。このように、アームが変形する場合にもアームを位置精度良く制御する方法が望まれていた。   The actuator is composed of a motor or the like and is driven by supplying electric power. When the driving time becomes longer, the motor generates heat. Then, the heat of the motor is conducted to the arm, so that the temperature of the arm rises. Since the arm expands as the temperature of the arm rises, the length of the arm may vary. Furthermore, when the robot hand grips the workpiece, the arm may be bent by the weight of the workpiece. Also at this time, the position of the robot hand changes with respect to the actuator. Thus, there has been a demand for a method for controlling the arm with high positional accuracy even when the arm is deformed.

本発明は、上述の課題の少なくとも一部を解決するためになされたものであり、以下の形態または適用例として実現することが可能である。   SUMMARY An advantage of some aspects of the invention is to solve at least a part of the problems described above, and the invention can be implemented as the following forms or application examples.

[適用例1]
本適用例にかかる位置制御方法は、可動部の位置を制御する位置制御方法であって、前記可動部の移動を行い、前記可動部を所定の位置に接近させる制御を行う第1移動工程と、前記可動部の移動と撮像部による前記所定の位置に対する前記可動部の相対位置の検出とを行い、前記可動部を前記所定の位置に移動させる制御を行う第2移動工程と、を有することを特徴とする。
[Application Example 1]
The position control method according to this application example is a position control method for controlling the position of a movable part, and includes a first movement step of performing control to move the movable part and bring the movable part closer to a predetermined position. A second moving step of performing control for moving the movable part and detecting the relative position of the movable part with respect to the predetermined position by the imaging unit and moving the movable part to the predetermined position. It is characterized by.

この位置制御方法によれば、第1移動工程と第2移動工程とで可動部を移動させる制御を行っている。第1移動工程では可動部の移動量を検出して、可動部の移動量を制御する。そして、第2移動工程では撮像部が可動部の位置を検出して、可動部の位置を制御している。従って、第1移動工程では第2移動工程より早く可動部を移動させる制御を行うことができる。そして、第2移動工程では可動部の位置と所定の位置とを検出して可動部を制御する。従って、可動部を精度良く確実に所定の位置に移動することができる。   According to this position control method, control for moving the movable portion is performed in the first movement step and the second movement step. In the first movement step, the amount of movement of the movable part is detected and the amount of movement of the movable part is controlled. In the second movement process, the imaging unit detects the position of the movable part and controls the position of the movable part. Therefore, in the first movement process, it is possible to perform control for moving the movable part earlier than in the second movement process. In the second movement step, the position of the movable part and a predetermined position are detected and the movable part is controlled. Therefore, the movable part can be moved to a predetermined position with accuracy and reliability.

[適用例2]
上記適用例にかかる位置制御方法において、慣性センサーを用いて検出した前記可動部の動きを基に前記可動部の振動を抑制する振動抑制工程を有し、前記振動抑制工程が行われる振動抑制期間は、前記第1移動工程又は前記第2移動工程が行われる移動期間の少なくとも一部と重なることを特徴とする。
[Application Example 2]
In the position control method according to the application example described above, the vibration suppression period in which the vibration suppression step is performed, including a vibration suppression step of suppressing vibration of the movable portion based on the movement of the movable portion detected using an inertial sensor. Is characterized in that it overlaps at least a part of a moving period in which the first moving step or the second moving step is performed.

この位置制御方法によれば、振動抑制工程において可動部の振動が検出される。そして、可動部の振動が抑制される。第1移動工程または第2移動工程と一部重ねて振動抑制工程が行われるとき、可動部は振動を抑えながら移動することができる。第1移動工程にて可動部の振幅を小さくするとき、第2移動工程に移行するときの可動部の振幅を小さくできる。従って、第2移動工程においても可動部の振幅を小さくすることができる。第2移動工程と重ねて振動抑制工程を行うときにも、可動部の振幅を小さくすることができる。可動部の振幅が小さい為、撮像部はブレの少ない画像を撮影することができる。従って、撮像部は品質の良い画像を用いることにより可動部の場所を精度良く検出することができる。   According to this position control method, the vibration of the movable part is detected in the vibration suppressing step. And the vibration of a movable part is suppressed. When the vibration suppressing step is performed partially overlapping with the first moving step or the second moving step, the movable part can move while suppressing vibration. When the amplitude of the movable part is reduced in the first movement process, the amplitude of the movable part when shifting to the second movement process can be reduced. Therefore, the amplitude of the movable part can be reduced also in the second movement step. The amplitude of the movable part can also be reduced when performing the vibration suppressing process overlapping the second moving process. Since the amplitude of the movable unit is small, the imaging unit can capture an image with less blur. Therefore, the imaging unit can detect the location of the movable unit with high accuracy by using a high-quality image.

[適用例3]
上記適用例にかかる位置制御方法において、前記振動抑制工程では、前記慣性センサーを用いて前記可動部の振動を検出し、前記振動と逆の位相の振動を前記可動部に加えることにより前記可動部の振動を抑制することを特徴とする。
[Application Example 3]
In the position control method according to the application example described above, in the vibration suppression step, vibration of the movable part is detected using the inertial sensor, and vibration having a phase opposite to that of the vibration is applied to the movable part. It is characterized by suppressing vibrations of.

この位置制御方法によれば、検出した振動と逆の位相の振動を可動部に加えている。従って、可動部の振動を確実に抑制することができる。   According to this position control method, vibration having a phase opposite to the detected vibration is applied to the movable portion. Therefore, the vibration of the movable part can be reliably suppressed.

[適用例4]
上記適用例にかかる位置制御方法では、前記第1移動工程において、前記所定の位置と前記可動部との距離を検出し、前記距離が所定の距離となった場合、前記第1移動工程から前記第2移動工程に移行することを特徴とする。
[Application Example 4]
In the position control method according to the application example, in the first movement step, a distance between the predetermined position and the movable part is detected, and when the distance becomes a predetermined distance, It shifts to a 2nd movement process, It is characterized by the above-mentioned.

この位置制御方法によれば、所定の位置と可動部との距離を検出している。所定の位置が移動する場合がある。この場合にも、所定の位置と可動部との距離が所定の距離となるときに第1移動工程から第2移動工程に移行することができる。   According to this position control method, the distance between the predetermined position and the movable part is detected. The predetermined position may move. Also in this case, when the distance between the predetermined position and the movable portion becomes a predetermined distance, the first movement process can be shifted to the second movement process.

[適用例5]
上記適用例にかかる位置制御方法では、前記第1移動工程において、前記可動部と前記所定の位置とを撮影して、前記可動部と前記所定の位置との距離を検出することを特徴とする。
[Application Example 5]
In the position control method according to the application example, in the first moving step, the movable part and the predetermined position are photographed, and a distance between the movable part and the predetermined position is detected. .

この位置制御方法によれば、撮影する画像を解析することにより、可動部と所定の位置との距離を検出することができる。従って、所定の位置が視覚的に認識できるようにするだけで検出することができる。その結果、簡便に可動部と所定の位置との距離を検出することができる。   According to this position control method, the distance between the movable part and the predetermined position can be detected by analyzing the image to be captured. Therefore, it is possible to detect the predetermined position only by making it visually recognizable. As a result, the distance between the movable part and the predetermined position can be easily detected.

[適用例6]
上記適用例にかかる位置制御方法において、前記可動部と前記所定の位置との距離が所定の距離となるのに要する時間を演算し、前記第1移動工程において前記時間が経過した場合に前記第1移動工程から前記第2移動工程に移行することを特徴とする。
[Application Example 6]
In the position control method according to the application example described above, a time required for the distance between the movable portion and the predetermined position to be a predetermined distance is calculated, and the first movement step is performed when the time has elapsed. It shifts from the 1st movement process to the said 2nd movement process, It is characterized by the above-mentioned.

この位置制御方法によれば、第1移動工程から第2移動工程に移行するまでに必要な時間を演算している。そして、演算した時間が経過したとき、第1移動工程から第2移動工程に移行している。上記方法を適用しない場合、計測装置を用いて可動部の場所を検出し、可動部が所定の場所に位置するときに第1移動工程から第2移動工程に移行する方法がある。この方法のときには計測装置を駆動するのでエネルギーを消費する。計測装置を用いる場合に比べて、経過時間にて判断する方法は省資源な位置制御方法である。   According to this position control method, the time required to move from the first movement process to the second movement process is calculated. When the calculated time has elapsed, the process moves from the first movement process to the second movement process. When the above method is not applied, there is a method in which the location of the movable part is detected using a measuring device and the process moves from the first movement process to the second movement process when the movable part is located at a predetermined location. This method consumes energy because the measuring device is driven. Compared to the case of using a measuring device, the method of determining by elapsed time is a resource-saving position control method.

[適用例7]
上記適用例にかかる位置制御方法において、前記所定の位置に対する相対位置情報を取得可能なマークを撮像し、撮像した画像を分析することにより前記所定の位置に対する前記可動部の相対位置を検出することを特徴とする位置制御方法。
[Application Example 7]
In the position control method according to the application example, the relative position of the movable unit with respect to the predetermined position is detected by imaging a mark that can acquire relative position information with respect to the predetermined position and analyzing the captured image. A position control method characterized by the above.

この位置制御方法によれば、撮像部がマークを撮影する。撮像部が可動部に配置されているときには、撮像部とマークとの相対位置を検出することによりマークと可動部との相対位置を認識することができる。撮像部が可動部に配置されないときでも、撮像部がマークと可動部とを撮影することにより、マークと可動部との相対位置を認識することができる。マークの場所は所定の位置に対する位置が既知である。従って、マークの場所と可動部の場所とを分析することにより、所定の位置に対して可動部が位置する場所を検出することができる。その結果、所定の位置を撮影できないときにも、マークを検出することにより、可動部の場所と所定の位置との相対位置を認識することができる。   According to this position control method, the imaging unit captures a mark. When the imaging unit is disposed on the movable unit, the relative position between the mark and the movable unit can be recognized by detecting the relative position between the imaging unit and the mark. Even when the imaging unit is not disposed on the movable part, the relative position between the mark and the movable part can be recognized by the imaging unit photographing the mark and the movable part. The position of the mark is known with respect to a predetermined position. Therefore, by analyzing the location of the mark and the location of the movable portion, the location where the movable portion is located with respect to the predetermined position can be detected. As a result, even when the predetermined position cannot be photographed, the relative position between the position of the movable part and the predetermined position can be recognized by detecting the mark.

[適用例8]
上記適用例にかかる位置制御方法において、前記所定の位置はワークが配置された場所を通る鉛直線上であり、前記マークは前記ワークに配置されていることを特徴とする。
[Application Example 8]
In the position control method according to the application example, the predetermined position is on a vertical line passing through a place where the workpiece is arranged, and the mark is arranged on the workpiece.

この位置制御方法によれば、ワークに配置された目印をマークとしている。ワークに配置された目印を撮影して可動部を移動させることにより、可動部をワークの位置する場所に移動させることができる。ワークが目立たないためワークの形状が把握し難い場合にもマークを用いることによりワークの位置を認識し易くすることができる。   According to this position control method, the mark placed on the workpiece is used as a mark. By photographing the mark placed on the workpiece and moving the movable portion, the movable portion can be moved to a location where the workpiece is located. Even when it is difficult to grasp the shape of the work because the work is not conspicuous, the position of the work can be easily recognized by using the mark.

[適用例9]
上記適用例にかかる位置制御方法において、前記マークは、光を照射して所定の形状となるように形成されることを特徴とする。
[Application Example 9]
In the position control method according to the application example, the mark is formed so as to have a predetermined shape when irradiated with light.

この位置制御方法によれば、マークは光を照射して形成されている。従って、マークを撮影するとき、撮影した画像におけるマークの像はコントラストが高い像となる。その結果、撮影した画像におけるマークの像を検出し易くすることができる。   According to this position control method, the mark is formed by irradiating light. Therefore, when a mark is photographed, the image of the mark in the photographed image is an image with high contrast. As a result, it is possible to easily detect the mark image in the captured image.

[適用例10]
本適用例にかかる位置制御方法は、可動部の位置を制御する位置制御方法であって、前記可動部の移動と前記可動部の移動量の検出とを行い、前記可動部を所定の位置に接近させる第1移動工程と、前記可動部の移動と撮像部による前記所定の位置に対する前記可動部の相対位置の検出とを行い、前記可動部を前記所定の位置に移動させる第2移動工程と、慣性センサーを用いて検出した前記可動部の動きを基に前記可動部の振動を抑制する振動抑制工程と、を有することを特徴とする。
[Application Example 10]
The position control method according to this application example is a position control method for controlling the position of the movable part, and performs the movement of the movable part and the amount of movement of the movable part to bring the movable part into a predetermined position. A first moving step of approaching, a second moving step of moving the movable portion and detecting the relative position of the movable portion with respect to the predetermined position by the imaging unit, and moving the movable portion to the predetermined position; And a vibration suppressing step of suppressing vibration of the movable part based on the movement of the movable part detected using an inertial sensor.

この位置制御方法によれば、第1移動工程で検出する移動量の情報は第2移動工程にて検出する場所の情報に比べて情報量が少ないので、第1移動工程では第2移動工程より早く制御のための演算を行うことができる。従って、第1移動工程では第2移動工程より早く可動部を移動させる制御を行うことができる。そして、第2移動工程では可動部の場所と目標の場所とを検出して可動部を制御する。従って、可動部を確実に所定の位置に移動することができる。振動抑制工程において可動部の動きが検出される。そして、その動きを基に可動部の振動を抑制する制御を行うことにより可動部の不要な振動が抑えられる。可動部の振幅が小さい為、可動部の場所を検出し易くすることができる。その結果、可動部の場所を精度良く検出することができる。   According to this position control method, since the information on the amount of movement detected in the first movement step is smaller than the information on the location detected in the second movement step, the first movement step has a smaller amount of information than the second movement step. Calculations for control can be performed quickly. Therefore, in the first movement process, it is possible to perform control for moving the movable part earlier than in the second movement process. In the second movement step, the location of the movable portion and the target location are detected and the movable portion is controlled. Therefore, the movable part can be reliably moved to a predetermined position. The movement of the movable part is detected in the vibration suppressing step. And the unnecessary vibration of a movable part is suppressed by performing control which suppresses the vibration of a movable part based on the motion. Since the amplitude of the movable part is small, the location of the movable part can be easily detected. As a result, the location of the movable part can be detected with high accuracy.

[適用例11]
本適用例にかかるロボットは、可動部と、所定の位置に対する前記可動部の相対位置を検出する撮像部と、前記可動部を前記所定の位置に近づけさせる制御を行う第1移動制御部と、前記撮像部が撮像した画像の情報を用いて前記可動部を前記所定の位置に移動させる制御を行う第2移動制御部と、を有することを特徴とする。
[Application Example 11]
The robot according to this application example includes a movable unit, an imaging unit that detects a relative position of the movable unit with respect to a predetermined position, a first movement control unit that performs control to bring the movable unit closer to the predetermined position, And a second movement control unit that performs control to move the movable unit to the predetermined position using information of an image captured by the imaging unit.

このロボットによれば、第1移動先制御部は所定の位置に可動部を近づけさせる。撮像部は可動部が位置する場所を検出して第2移動先制御部に出力する。そして、第2移動先制御部は所定の位置まで可動部を移動させる。   According to this robot, the first movement destination control unit brings the movable unit closer to a predetermined position. The imaging unit detects the location where the movable unit is located and outputs it to the second destination control unit. Then, the second movement destination control unit moves the movable unit to a predetermined position.

第1移動先制御部が所定の位置に可動部を接近させるとき、位置精度を要求されないので、早く可動部を移動させることができる。そして、撮像部が検出する可動部の位置の情報を用いて第2移動先制御部は可動部を制御する。従って、可動部を確実に所定の位置に移動することができる。従って、可動部の位置を精度良く制御することができる。   When the first movement destination control unit moves the movable unit to a predetermined position, the movable unit can be moved quickly because position accuracy is not required. Then, the second movement destination control unit controls the movable unit using information on the position of the movable unit detected by the imaging unit. Therefore, the movable part can be reliably moved to a predetermined position. Therefore, the position of the movable part can be controlled with high accuracy.

[適用例12]
上記適用例にかかるロボットにおいて、前記撮像部は前記可動部に配置されていることを特徴とする。
[Application Example 12]
In the robot according to the application example, the imaging unit is disposed in the movable unit.

このロボットによれば、撮像部は目標の場所を撮影する。そして、撮像部が撮影する画像を分析することにより、撮像部と目標の場所との相対位置を算出することができる。そして、撮像部は可動部に配置されている為、可動部と目標の場所との相対位置を検出することができる。その結果、目標の位置を精度良く検出することができる。   According to this robot, the imaging unit photographs a target location. Then, by analyzing the image captured by the imaging unit, the relative position between the imaging unit and the target location can be calculated. And since the imaging part is arrange | positioned at a movable part, it can detect the relative position of a movable part and a target place. As a result, the target position can be detected with high accuracy.

[適用例13]
上記適用例にかかるロボットにおいて、前記可動部が移動する範囲は前記撮像部が撮像する範囲に含まれることを特徴とする。
[Application Example 13]
In the robot according to the application example described above, a range in which the movable unit moves is included in a range in which the imaging unit captures an image.

このロボットによれば、撮像部は可動部を確実に撮影することができる。そして、撮像部が撮影する画像を分析することにより、画像に撮影された可動部と撮像部との相対位置を算出することができる。従って、可動部と撮像部との相対位置を検出することができる。   According to this robot, the imaging unit can reliably photograph the movable part. Then, by analyzing the image captured by the image capturing unit, the relative position between the movable unit captured by the image and the image capturing unit can be calculated. Therefore, the relative position between the movable part and the imaging part can be detected.

[適用例14]
上記適用例にかかるロボットにおいて、前記可動部を駆動する駆動部を備え、前記駆動部はステップモーターを含むことを特徴とする。
[Application Example 14]
The robot according to the application example includes a driving unit that drives the movable unit, and the driving unit includes a step motor.

ステップモーターの駆動信号はパルス波形であり、パルス波形の波数に対応してステップモーターの駆動軸が回転する。従って、ステップモーターの駆動信号を制御することにより可動部の移動量を制御することができる。ステップモーターには、ロータリーエンコーダーは不要であるが、現在の回転角度を見失う脱調現象が起こる場合がある。この位置制御装置によれば、脱調現象から回復後に撮像部が可動部の位置を検出することにより、ステップモーターを用いて可動部を所定の位置に移動させることができる。そして、ステップモーターにはロータリーエンコーダーが不要であることから簡便な構成にすることができる。   The step motor drive signal has a pulse waveform, and the drive shaft of the step motor rotates in accordance with the wave number of the pulse waveform. Therefore, the amount of movement of the movable part can be controlled by controlling the drive signal of the step motor. The step motor does not require a rotary encoder, but a step-out phenomenon that loses sight of the current rotation angle may occur. According to this position control device, when the imaging unit detects the position of the movable part after recovery from the step-out phenomenon, the movable part can be moved to a predetermined position using the step motor. And since a rotary encoder is unnecessary for a step motor, it can be set as a simple structure.

(a)は、第1の実施形態にかかわるロボットの構成を示す概略斜視図、(b)は、ロボットの構成を示す模式断面図。(A) is a schematic perspective view which shows the structure of the robot concerning 1st Embodiment, (b) is a schematic cross section which shows the structure of a robot. ロボットの電気制御ブロック図。The electric control block diagram of a robot. 信号の流れを示す電気制御ブロック図。The electric control block diagram which shows the flow of a signal. 手部の移動作業を示すフローチャート。The flowchart which shows the movement operation | movement of a hand part. 手部の移動作業におけるロボット制御方法を説明するための模式図。The schematic diagram for demonstrating the robot control method in the movement operation | movement of a hand part. 手部の移動作業におけるロボット制御方法を説明するための模式図。The schematic diagram for demonstrating the robot control method in the movement operation | movement of a hand part. 第2の実施形態にかかわる手部を目標の場所に移動する推移を示すタイムチャート。The time chart which shows the transition which moves the hand part in connection with 2nd Embodiment to a target place. 第3の実施形態にかかわるロボットの構成を示す概略斜視図。The schematic perspective view which shows the structure of the robot in connection with 3rd Embodiment. 第4の実施形態にかかわるロボット制御方法を説明するための模式図。The schematic diagram for demonstrating the robot control method concerning 4th Embodiment. 第5の実施形態にかかわるロボットの構成を示す模式断面図。The schematic cross section which shows the structure of the robot in connection with 5th Embodiment. 第6の実施形態にかかわるクレーンの構成を示す概略斜視図。The schematic perspective view which shows the structure of the crane in connection with 6th Embodiment. 第7の実施形態にかかわるICテストハンドラーの構成を示す概略斜視図。The schematic perspective view which shows the structure of the IC test handler concerning 7th Embodiment. 比較例にかかわり手部が目標の場所に移動する推移を示すタイムチャート。The time chart which shows transition which a hand part is concerned with a comparative example, and moves to a target place.

以下、実施形態について図面に従って説明する。尚、各図面における各部材は、各図面上で認識可能な程度の大きさとするため、各部材毎に縮尺を異ならせて図示している。
(第1の実施形態)
本実施形態におけるロボットハンドの位置制御方法が特徴的なロボットについて図1〜図6に従って説明する。
Hereinafter, embodiments will be described with reference to the drawings. In addition, each member in each drawing is illustrated with a different scale for each member in order to make the size recognizable on each drawing.
(First embodiment)
A robot characterized by the position control method of the robot hand in this embodiment will be described with reference to FIGS.

図1(a)は、ロボットの構成を示す概略斜視図であり、図1(b)は、ロボットの構成を示す模式断面図である。図1に示すように、ロボット1は平板状に形成された基台2を備えている。基台2の水平面上の1方向をX方向とする。そして、重力方向と逆の方向をZ方向とし、X方向及びZ方向と直交する方向をY方向とする。   FIG. 1A is a schematic perspective view showing the configuration of the robot, and FIG. 1B is a schematic cross-sectional view showing the configuration of the robot. As shown in FIG. 1, the robot 1 includes a base 2 formed in a flat plate shape. One direction on the horizontal plane of the base 2 is defined as the X direction. The direction opposite to the gravitational direction is the Z direction, and the X direction and the direction orthogonal to the Z direction are the Y direction.

基台2上には支持台3が配置されている。支持台3の内部には空洞が形成され、この空洞は支持板4により上下に分割されている。支持板4の下側には駆動部としての第1モーター5が配置され、第1モーター5の下側には移動量検出部としての第1角度検出器6が配置されている。第1角度検出器6は第1モーター5の回転角度を検出する装置である。   A support base 3 is disposed on the base 2. A cavity is formed inside the support base 3, and the cavity is divided into upper and lower parts by a support plate 4. A first motor 5 as a drive unit is disposed below the support plate 4, and a first angle detector 6 as a movement amount detection unit is disposed below the first motor 5. The first angle detector 6 is a device that detects the rotation angle of the first motor 5.

支持板4の上側には第1減速機7が配置され、第1減速機7の入力軸には第1モーター5の回転軸5aが接続されている。第1減速機7の上側には出力軸7aが配置されている。そして、第1モーター5の回転軸5aの回転速度を減速した回転速度にて出力軸7aが回転する。第1減速機7には各種の減速機を採用することができる。本実施形態では、例えば、ハーモニックドライブ(登録商標)を採用している。支持台3の上面には孔部3aが形成され、孔部3aから出力軸7aが突出して配置されている。   A first speed reducer 7 is disposed on the upper side of the support plate 4, and a rotating shaft 5 a of the first motor 5 is connected to an input shaft of the first speed reducer 7. An output shaft 7 a is disposed on the upper side of the first speed reducer 7. Then, the output shaft 7a rotates at a rotational speed obtained by reducing the rotational speed of the rotational shaft 5a of the first motor 5. Various reduction gears can be adopted as the first reduction gear 7. In the present embodiment, for example, a harmonic drive (registered trademark) is employed. A hole 3 a is formed on the upper surface of the support 3, and the output shaft 7 a protrudes from the hole 3 a.

出力軸7aと接続して略直方体状の第1腕部8が配置され、第1腕部8は出力軸7aを中心に回転させられる。第1モーター5が回転することにより、第1腕部8が回転させられる。そして、第1腕部8が回転する角度を第1角度検出器6が検出する。   The first arm 8 having a substantially rectangular parallelepiped shape is disposed in connection with the output shaft 7a, and the first arm 8 is rotated around the output shaft 7a. As the first motor 5 rotates, the first arm portion 8 is rotated. And the 1st angle detector 6 detects the angle which the 1st arm part 8 rotates.

第1腕部8の図1(b)中左側には第1腕部8の先端に振動検出部及び慣性センサーとしての第1角速度センサー9が配置されている。第1腕部8が回転するとき第1腕部8の角速度を第1角速度センサー9が検出する。   On the left side of the first arm portion 8 in FIG. 1B, a vibration detecting portion and a first angular velocity sensor 9 as an inertial sensor are arranged at the tip of the first arm portion 8. When the first arm portion 8 rotates, the first angular velocity sensor 9 detects the angular velocity of the first arm portion 8.

第1腕部8上において第1モーター5と反対側の端には第2減速機10、駆動部としての第2モーター11、移動量検出部としての第2角度検出器12がこの順に重ねて配置されている。そして、第2減速機10の出力軸10aが図中下方向に配置されている。第1腕部8には第2減速機10と対向する場所に孔部8aが形成され、孔部8aから出力軸10aが突出して配置されている。   A second speed reducer 10, a second motor 11 as a drive unit, and a second angle detector 12 as a movement amount detection unit are stacked in this order on the end of the first arm unit 8 opposite to the first motor 5. Has been placed. And the output shaft 10a of the 2nd reduction gear 10 is arrange | positioned in the downward direction in the figure. A hole 8a is formed in the first arm portion 8 at a location facing the second speed reducer 10, and an output shaft 10a protrudes from the hole 8a.

第2モーター11の回転軸には第2角度検出器12が接続され、第2角度検出器12は第2モーター11の回転軸の回転角度を検出する。さらに、第2モーター11の回転軸は第2減速機10の入力軸と接続されている。そして、第2モーター11の回転軸の回転速度を減速した回転速度にて第2減速機10の出力軸10aが回転させられる。   A second angle detector 12 is connected to the rotation shaft of the second motor 11, and the second angle detector 12 detects the rotation angle of the rotation shaft of the second motor 11. Furthermore, the rotation shaft of the second motor 11 is connected to the input shaft of the second reduction gear 10. And the output shaft 10a of the 2nd reduction gear 10 is rotated at the rotational speed which reduced the rotational speed of the rotating shaft of the 2nd motor 11. As shown in FIG.

第1モーター5及び第2モーター11は電気信号によって回転方向を制御可能であればよく、直流モーター、パルスモーター、交流モーター等の各種類のモーターを用いることができる。本実施形態では、例えば、直流モーターを採用している。第1角度検出器6は第1モーター5の駆動軸の回転角度を検出可能であれば良く、第2角度検出器12は第2モーター11の駆動軸の回転角度を検出可能であれば良い。第1角度検出器6及び第2角度検出器12には磁気式や光学式等の各種類のロータリーエンコーダーを用いることができる。本実施形態では、例えば、光学式のロータリーエンコーダーを採用している。   The first motor 5 and the second motor 11 may be any type of motor such as a direct current motor, a pulse motor, and an alternating current motor as long as the rotation direction can be controlled by an electric signal. In this embodiment, for example, a DC motor is employed. The first angle detector 6 only needs to detect the rotation angle of the drive shaft of the first motor 5, and the second angle detector 12 only needs to detect the rotation angle of the drive shaft of the second motor 11. For the first angle detector 6 and the second angle detector 12, various types of rotary encoders such as a magnetic type and an optical type can be used. In this embodiment, for example, an optical rotary encoder is employed.

出力軸10aと接続して略直方体状の第2腕部13が配置され、第2腕部13は出力軸10aを中心に回転させられる。第2腕部13上において第2モーター11と反対側の端には昇降装置14が配置されている。昇降装置14は直動機構を備え、直動機構を駆動することにより伸縮することができる。   A second arm part 13 having a substantially rectangular parallelepiped shape is arranged in connection with the output shaft 10a, and the second arm part 13 is rotated around the output shaft 10a. On the second arm portion 13, an elevating device 14 is disposed at the end opposite to the second motor 11. The elevating device 14 includes a linear motion mechanism, and can be expanded and contracted by driving the linear motion mechanism.

昇降装置14の下側には可動部としての回転装置15が配置されている。回転装置15は回転角度を制御可能であれば良く、各種モーターと回転角度センサーとを組み合わせて構成することができる。他にも、回転角度を所定の角度にて回転できるステップモーターを用いることができる。本実施形態では、例えば、ステップモーターを採用している。   A rotating device 15 as a movable part is disposed below the lifting device 14. The rotation device 15 only needs to be able to control the rotation angle, and can be configured by combining various motors and a rotation angle sensor. In addition, a step motor capable of rotating at a predetermined rotation angle can be used. In this embodiment, for example, a step motor is employed.

昇降装置14の下側には可動部としての手部16が配置されている。そして、手部16は回転装置15の回転軸と接続されている。従って、ロボット1は回転装置15を駆動することにより手部16を回転させることができる。さらに、ロボット1は昇降装置14を駆動することにより手部16を昇降させることができる。   A hand portion 16 as a movable portion is disposed below the lifting device 14. The hand portion 16 is connected to the rotating shaft of the rotating device 15. Therefore, the robot 1 can rotate the hand portion 16 by driving the rotating device 15. Furthermore, the robot 1 can raise and lower the hand portion 16 by driving the elevating device 14.

手部16は略直方体状の2つの可動部としての指部16aと直動機構とを有し、直動機構が2つの指部16aの間隔を変更することができる。そして、手部16は指部16aの間にワークを挟んで保持することが可能になっている。昇降装置14及び手部16の直動機構には、エアーシリンダー、リニアモーター、ボールネジと回転モーターとを組合せた装置等の各種類の機構を用いることができる。本実施形態では、例えば、昇降装置14及び手部16の直動機構にボールネジとステップモーターとを組合せた装置を採用している。   The hand portion 16 has two finger portions 16a as a substantially rectangular parallelepiped movable portion and a linear motion mechanism, and the linear motion mechanism can change the interval between the two finger portions 16a. And the hand part 16 can hold | maintain a workpiece | work between the finger parts 16a. Various types of mechanisms such as an air cylinder, a linear motor, and a device combining a ball screw and a rotary motor can be used as the linear motion mechanism of the elevating device 14 and the hand portion 16. In the present embodiment, for example, a device in which a ball screw and a step motor are combined with the linear motion mechanism of the lifting device 14 and the hand portion 16 is employed.

昇降装置14の図1(b)中左側の側面において回転装置15側には振動検出部及び慣性センサーとしての第2角速度センサー17が配置されている。第1角速度センサー9及び第2角速度センサー17の種類は特に限定されず、回転型ジャイロスコープ、振動型ジャイロスコープ、ガス型ジャイロスコープ、リングレーザージャイロ等のジャイロスコープを用いることができる。本実施形態では、例えば、振動型ジャイロスコープに属する振動子型ジャイロスコープを採用している。   On the left side surface in FIG. 1B of the lifting device 14, a vibration detection unit and a second angular velocity sensor 17 as an inertial sensor are arranged on the rotating device 15 side. The types of the first angular velocity sensor 9 and the second angular velocity sensor 17 are not particularly limited, and a gyroscope such as a rotary gyroscope, a vibration gyroscope, a gas gyroscope, or a ring laser gyro can be used. In the present embodiment, for example, a vibratory gyroscope belonging to a vibrating gyroscope is employed.

昇降装置14を挟んで第2角速度センサー17と対向する場所には第1撮像装置18が配置されている。第1撮像装置18は図中下方に向けて撮像レンズ18aが配置されているので、第1撮像装置18は図中下方を撮影可能である。従って、手部16及び手部16の図中下方を撮影することができる。そして、第1撮像装置18はオートフォーカス機能を有し、撮影する物に焦点を合わせて撮影することができる。さらに、撮像レンズ18aは倍率切り替え機構を備え、レンズの構成を切り替えることが可能になっている。   A first imaging device 18 is disposed at a location facing the second angular velocity sensor 17 across the lifting device 14. Since the imaging lens 18a is arranged in the first imaging device 18 downward in the figure, the first imaging device 18 can photograph the lower side in the drawing. Accordingly, the hand portion 16 and the lower portion of the hand portion 16 in the figure can be photographed. The first imaging device 18 has an autofocus function, and can shoot while focusing on an object to be photographed. Furthermore, the imaging lens 18a includes a magnification switching mechanism, and the configuration of the lens can be switched.

基台2上において第2腕部13と対向する場所には直方体の載置台21が配置されている。載置台21上にはワーク22が載置され、手部16はワーク22を把持することができる。   A rectangular parallelepiped mounting table 21 is disposed on the base 2 at a location facing the second arm portion 13. The workpiece 22 is placed on the mounting table 21, and the hand portion 16 can grip the workpiece 22.

載置台21は内部に空洞21aを有し、空洞21aを囲んで枠部23が配置されている。載置台21内の空洞21aにおいて基台2側には、冷陰極管24と反射板25が配置されている。反射板25の一面には凹面鏡が形成され、冷陰極管24が照射する光を図中上側に向けて反射する。載置台21内の空洞21aにおいて図中上側には光拡散板26、透明基板27、マスク基板28が重ねて配置されている。   The mounting table 21 has a cavity 21a therein, and a frame portion 23 is disposed surrounding the cavity 21a. A cold cathode tube 24 and a reflecting plate 25 are disposed on the base 2 side in the cavity 21 a in the mounting table 21. A concave mirror is formed on one surface of the reflection plate 25, and reflects the light emitted from the cold cathode tube 24 toward the upper side in the figure. In the cavity 21 a in the mounting table 21, a light diffusion plate 26, a transparent substrate 27, and a mask substrate 28 are arranged on the upper side in the drawing.

光拡散板26は冷陰極管24及び反射板25から照射される光の分布を一様にする光学素子である。例えば、光拡散板26は半透明の樹脂板に白色の塗料にて所定のパターンを配置することにより形成される。光拡散板26は、照射される光量の多い場所に配置される白色塗料の面積比率が光量の少ない場所より大きく配置されている。従って、照射される光量の多い場所では光が拡散されるので、光の分布が一様となっている。   The light diffusion plate 26 is an optical element that makes the distribution of light emitted from the cold cathode tubes 24 and the reflection plate 25 uniform. For example, the light diffusing plate 26 is formed by arranging a predetermined pattern with a white paint on a translucent resin plate. The light diffusing plate 26 is arranged such that the area ratio of the white paint disposed in a place where the amount of light to be irradiated is large is larger than that in a place where the amount of light is small. Accordingly, the light is diffused in a place where the amount of light to be irradiated is large, so that the light distribution is uniform.

透明基板27はワーク22の重量を支えるための構造物である。透明基板27は光透過性であればよく、例えば、ガラス板や、樹脂製の板を用いることができる。マスク基板28は遮光性の基板であり、所定のパターン形状に形成されたマーク29の場所のみ光が通過するように形成されている。例えば、金属板に所定のパターン形状の孔を形成した板をマスク基板28に用いることができる。他にも光透過性の樹脂製の基板に遮光性の塗料を塗布することにより、所定のパターンを形成した板をマスク基板28に用いることができる。   The transparent substrate 27 is a structure for supporting the weight of the workpiece 22. The transparent substrate 27 only needs to be light transmissive, and for example, a glass plate or a resin plate can be used. The mask substrate 28 is a light-shielding substrate, and is formed so that light passes only at the locations of the marks 29 formed in a predetermined pattern shape. For example, a plate in which holes having a predetermined pattern shape are formed on a metal plate can be used as the mask substrate 28. In addition, a plate on which a predetermined pattern is formed can be used for the mask substrate 28 by applying a light-shielding paint to a light-transmitting resin substrate.

冷陰極管24が照射する光は光拡散板26、透明基板27、マスク基板28を通過して図中上方に進行する。そして、第1撮像装置18がマーク29と対向する場所に位置するとき、マーク29の形状の光が第1撮像装置18を照射する。従って、第1撮像装置18がマーク29を撮影するとき、マーク29はコントラストの高い画像に撮影される。   The light emitted from the cold cathode tube 24 passes through the light diffusing plate 26, the transparent substrate 27, and the mask substrate 28 and proceeds upward in the figure. When the first imaging device 18 is located at a location facing the mark 29, the light having the shape of the mark 29 irradiates the first imaging device 18. Therefore, when the first imaging device 18 captures the mark 29, the mark 29 is captured in a high contrast image.

基台2上において支持台3のX方向には支持部30が配置され、支持部30と接続して第2撮像装置31が配置されている。第2撮像装置31は載置台21と対向する場所に配置され、第2撮像装置31の載置台21側には撮像レンズ31aが配置されている。そして、第2撮像装置31は載置台21上のマーク29、ワーク22、手部16を撮影することができる。手部16が移動可能な範囲は第2撮像装置31が撮影する範囲に含まれている。従って、第2撮像装置31がロボット1を撮影するとき手部16が位置する場所を検出することができる。   On the base 2, a support portion 30 is disposed in the X direction of the support base 3, and a second imaging device 31 is disposed in connection with the support portion 30. The second imaging device 31 is disposed at a location facing the mounting table 21, and an imaging lens 31 a is disposed on the mounting table 21 side of the second imaging device 31. The second imaging device 31 can photograph the mark 29, the work 22, and the hand portion 16 on the mounting table 21. The range in which the hand portion 16 is movable is included in the range where the second imaging device 31 captures an image. Therefore, it is possible to detect the place where the hand portion 16 is located when the second imaging device 31 photographs the robot 1.

支持台3の図1(b)中右側には位置制御装置としての制御装置32が配置されている。制御装置32は第1モーター5、第2モーター11、昇降装置14、手部16等を制御することにより、ロボット1の動作を制御する装置である。   A control device 32 as a position control device is arranged on the right side of the support base 3 in FIG. The control device 32 is a device that controls the operation of the robot 1 by controlling the first motor 5, the second motor 11, the lifting device 14, the hand portion 16, and the like.

図2は、ロボットの電気制御ブロック図である。図2において、ロボット1の制御部としての制御装置32はプロセッサーとして各種の演算処理を行うCPU(中央処理装置)35と各種情報を記憶する記憶部としてのメモリー36とを有する。   FIG. 2 is an electric control block diagram of the robot. In FIG. 2, a control device 32 as a control unit of the robot 1 includes a CPU (Central Processing Unit) 35 that performs various arithmetic processes as a processor and a memory 36 as a storage unit that stores various information.

ロボット駆動装置37、第1角度検出器6、第2角度検出器12、第1角速度センサー9、第2角速度センサー17は、入出力インターフェイス38及びデータバス39を介してCPU35に接続されている。さらに、第1撮像装置18、第2撮像装置31、入力装置40、表示装置41も入出力インターフェイス38及びデータバス39を介してCPU35に接続されている。   The robot drive device 37, the first angle detector 6, the second angle detector 12, the first angular velocity sensor 9, and the second angular velocity sensor 17 are connected to the CPU 35 via the input / output interface 38 and the data bus 39. Further, the first imaging device 18, the second imaging device 31, the input device 40, and the display device 41 are also connected to the CPU 35 via the input / output interface 38 and the data bus 39.

ロボット駆動装置37はロボット1と接続され、ロボット1を駆動する装置である。ロボット駆動装置37は、第1モーター5及び第2モーター11等のアクチュエーターを駆動する。そして、CPU35がワーク22の移動を指示するとき、ワーク22の把持及び移動を行う。   The robot drive device 37 is a device that is connected to the robot 1 and drives the robot 1. The robot drive device 37 drives actuators such as the first motor 5 and the second motor 11. When the CPU 35 instructs the movement of the workpiece 22, the workpiece 22 is gripped and moved.

第1角度検出器6は第1モーター5が回転する角度を検出し、第1モーター5の角度情報をCPU35に送信する。同様に、第2角度検出器12は第2モーター11が回転する角度を検出し、第2モーター11の角度情報をCPU35に送信する。第1角速度センサー9は第1腕部8が回転する角速度を検出し、第1腕部8の角速度情報をCPU35に送信する。同様に、第2角速度センサー17は昇降装置14が回転する角速度を検出し、昇降装置14の角速度情報をCPU35に送信する。   The first angle detector 6 detects the angle at which the first motor 5 rotates and transmits angle information of the first motor 5 to the CPU 35. Similarly, the 2nd angle detector 12 detects the angle which the 2nd motor 11 rotates, and transmits the angle information of the 2nd motor 11 to CPU35. The first angular velocity sensor 9 detects the angular velocity at which the first arm portion 8 rotates, and transmits angular velocity information of the first arm portion 8 to the CPU 35. Similarly, the second angular velocity sensor 17 detects the angular velocity at which the lifting device 14 rotates, and transmits angular velocity information of the lifting device 14 to the CPU 35.

第1撮像装置18及び第2撮像装置31の各撮像装置はCPU35の指示する信号に従って撮影した後、撮影した画像のデータをメモリー36に出力する。入力装置40はワーク22の形状に関する情報やロボット1の動作条件等の諸情報を入力する装置である。例えば、ワーク22の形状を示す座標を図示しない外部装置から受信し、入力する装置である。表示装置41はワーク22やロボット1に関するデータや作業状況を表示する装置である。表示装置41に表示される情報を基に入力装置40を用いて操作者が入力操作を行う。   Each of the first imaging device 18 and the second imaging device 31 shoots according to a signal instructed by the CPU 35, and then outputs the shot image data to the memory 36. The input device 40 is a device for inputting various information such as information on the shape of the workpiece 22 and operating conditions of the robot 1. For example, it is a device that receives and inputs coordinates indicating the shape of the workpiece 22 from an external device (not shown). The display device 41 is a device that displays data and work status related to the workpiece 22 and the robot 1. An operator performs an input operation using the input device 40 based on the information displayed on the display device 41.

メモリー36は、RAM、ROM等といった半導体メモリーや、ハードディスク、DVD−ROMといった外部記憶装置を含む概念である。機能的には、ロボット1における動作の制御手順が記述されたプログラムソフト42を記憶する記憶領域がメモリー36に設定される。さらに、ワーク22の形状や寸法等の情報であるワーク属性データ43を記憶するための記憶領域もメモリー36に設定される。さらに、ロボット1を構成する要素の情報や、ワーク22を移動するときに各可動部を駆動する条件等の情報であるロボット関連データ44を記憶するための記憶領域もメモリー36に設定される。さらに、第1撮像装置18及び第2撮像装置31が撮影した画像のデータや画像処理後の画像のデータである画像データ45を記憶するための記憶領域もメモリー36に設定される。さらに、角度センサーや撮像装置を切り換える条件のデータであるセンサー切替データ46を記憶するための記憶領域もメモリー36に設定される。さらに、CPU35のためのワークエリアやテンポラリーファイル等として機能する記憶領域やその他各種の記憶領域がメモリー36に設定される。   The memory 36 is a concept including a semiconductor memory such as a RAM and a ROM, and an external storage device such as a hard disk and a DVD-ROM. Functionally, a storage area for storing program software 42 in which a control procedure of the operation in the robot 1 is described is set in the memory 36. Furthermore, a storage area for storing work attribute data 43 that is information such as the shape and dimensions of the work 22 is also set in the memory 36. Further, a memory area for storing robot-related data 44 that is information such as information on elements constituting the robot 1 and conditions for driving each movable part when the workpiece 22 is moved is also set in the memory 36. Furthermore, a storage area for storing image data taken by the first imaging device 18 and the second imaging device 31 and image data 45 that is image data after image processing is also set in the memory 36. Furthermore, a storage area for storing sensor switching data 46 that is data of conditions for switching between the angle sensor and the imaging device is also set in the memory 36. Further, a storage area that functions as a work area for the CPU 35, a temporary file, and the like, and various other storage areas are set in the memory 36.

CPU35はメモリー36内に記憶されたプログラムソフト42に従って、ワーク22の位置を検出した後、ワーク22を所定の場所へ移動するための制御を行うものである。具体的な機能実現部として、ロボット1を駆動してワーク22を移動させるための制御を行うロボット制御部49を有する。ロボット制御部49は第1移動先制御部49aと第2移動先制御部49bとを有している。第1移動先制御部49aは、第1角度検出器6と第2角度検出器12とが出力する信号を用いて手部16を所定の場所に移動させる制御を行う。第2移動先制御部49bは、第1撮像装置18と第2撮像装置31が出力する信号を用いて手部16を所定の場所に移動させる制御を行う。他にも、第1撮像装置18及び第2撮像装置31に撮影する指示を出力して撮影動作を制御する撮影制御部50を有する。他にも、撮像装置が撮影した画像からノイズを除去し、ワーク22やマーク29と対応する画像を抽出する画像演算部51を有する。   The CPU 35 detects the position of the work 22 according to the program software 42 stored in the memory 36, and then performs control for moving the work 22 to a predetermined location. As a specific function realization unit, a robot control unit 49 that performs control for driving the robot 1 and moving the workpiece 22 is provided. The robot control unit 49 includes a first movement destination control unit 49a and a second movement destination control unit 49b. The first movement destination control unit 49a performs control to move the hand unit 16 to a predetermined location using signals output from the first angle detector 6 and the second angle detector 12. The second movement destination control unit 49b performs control to move the hand unit 16 to a predetermined location using signals output from the first imaging device 18 and the second imaging device 31. In addition, it has a photographing control unit 50 that outputs photographing instructions to the first imaging device 18 and the second imaging device 31 to control the photographing operation. In addition, an image calculation unit 51 that removes noise from an image captured by the imaging apparatus and extracts an image corresponding to the workpiece 22 or the mark 29 is provided.

他にも、ロボット1の第1腕部8及び第2腕部13の移動や停止の動作をさせたとき、手部16の振動が振動し難くするようにロボット1の動作を制御する振動抑制制御部52を有する。他にも、撮影した画像を用いてワーク22の位置を検出するワーク位置演算部53を有する。   In addition, when the first arm portion 8 and the second arm portion 13 of the robot 1 are moved or stopped, vibration suppression is performed to control the operation of the robot 1 so that the vibration of the hand portion 16 is less likely to vibrate. A control unit 52 is included. In addition, there is a work position calculation unit 53 that detects the position of the work 22 using the captured image.

図3は、信号の流れを示す電気制御ブロック図である。図3において、第1腕部8の動作を検出する第1角速度センサー9及び第1角度検出器6から信号が制御装置32に出力される。第1角速度センサー9が出力する角速度信号は第1積分演算部54に入力される。第1積分演算部54は、入力した角速度信号を時間に対して積分することにより、角度信号を算出する。次に、第1積分演算部54は算出した角度信号を第1高周波フィルター演算部55に出力する。第1高周波フィルター演算部55は角度信号を入力して、角度信号の高周波成分を抽出する演算を行う。換言すれば、角度信号の低周波成分を減衰させる演算を行う。そして、第1高周波フィルター演算部55は高周波成分を抽出した第1高周波信号55aを第1加算部56に出力する。   FIG. 3 is an electric control block diagram showing a signal flow. In FIG. 3, signals are output to the control device 32 from the first angular velocity sensor 9 and the first angle detector 6 that detect the movement of the first arm portion 8. The angular velocity signal output from the first angular velocity sensor 9 is input to the first integration calculation unit 54. The first integration calculation unit 54 calculates the angle signal by integrating the input angular velocity signal with respect to time. Next, the first integration calculation unit 54 outputs the calculated angle signal to the first high frequency filter calculation unit 55. The first high frequency filter calculation unit 55 receives the angle signal and performs a calculation for extracting a high frequency component of the angle signal. In other words, an operation for attenuating the low frequency component of the angle signal is performed. Then, the first high-frequency filter calculation unit 55 outputs the first high-frequency signal 55 a extracted from the high-frequency component to the first addition unit 56.

第1角度検出器6が出力する角度信号は第1低周波フィルター演算部57に入力される。第1低周波フィルター演算部57は角度信号を入力して、角度信号の低周波成分を抽出する演算を行う。換言すれば、角度信号の高周波成分を減衰させる演算を行う。そして、第1低周波フィルター演算部57は低周波成分を抽出した第1低周波信号57aを第1加算部56に出力する。第1加算部56は第1高周波信号55aと第1低周波信号57aとを合成することにより、第1角度信号56a形成する。第1角度信号56aは、第1角度検出器6が出力する信号の低周波成分と第1角速度センサー9が出力する信号の高周波成分とにより形成された信号となっている。つまり、第1角度信号56aは第1腕部8の角度に対応する信号となっている。そして、第1加算部56は第1角度信号56aを振動抑制制御部52に出力する。   The angle signal output from the first angle detector 6 is input to the first low frequency filter calculation unit 57. The first low frequency filter calculation unit 57 receives the angle signal and performs a calculation for extracting a low frequency component of the angle signal. In other words, an operation for attenuating the high frequency component of the angle signal is performed. Then, the first low frequency filter calculation unit 57 outputs the first low frequency signal 57 a obtained by extracting the low frequency component to the first addition unit 56. The first adder 56 combines the first high frequency signal 55a and the first low frequency signal 57a to form a first angle signal 56a. The first angle signal 56 a is a signal formed by the low frequency component of the signal output from the first angle detector 6 and the high frequency component of the signal output from the first angular velocity sensor 9. That is, the first angle signal 56 a is a signal corresponding to the angle of the first arm portion 8. Then, the first adder 56 outputs the first angle signal 56 a to the vibration suppression controller 52.

第2腕部13の動作を検出する第2角速度センサー17、第2角度検出器12及び第1撮像装置18から信号が制御装置32に出力される。第2角速度センサー17が出力する角速度信号は第2積分演算部58に入力される。第2積分演算部58は、入力した角速度信号を時間に対して積分することにより、角度信号を算出する。次に、第2積分演算部58は算出した角度信号を第2高周波フィルター演算部59に出力する。第2高周波フィルター演算部59は角度信号を入力して、角度信号の高周波成分を抽出する演算を行う。換言すれば、角度信号の低周波成分を減衰させる演算を行う。そして、第2高周波フィルター演算部59は角度信号から高周波成分を抽出した第2高周波信号59aを第2加算部60に出力する。   Signals are output to the control device 32 from the second angular velocity sensor 17, the second angle detector 12, and the first imaging device 18 that detect the operation of the second arm portion 13. The angular velocity signal output from the second angular velocity sensor 17 is input to the second integration calculation unit 58. The second integration calculation unit 58 calculates the angle signal by integrating the input angular velocity signal with respect to time. Next, the second integration calculation unit 58 outputs the calculated angle signal to the second high frequency filter calculation unit 59. The second high frequency filter calculation unit 59 receives the angle signal and performs a calculation to extract a high frequency component of the angle signal. In other words, an operation for attenuating the low frequency component of the angle signal is performed. Then, the second high frequency filter calculation unit 59 outputs a second high frequency signal 59 a obtained by extracting a high frequency component from the angle signal to the second addition unit 60.

第2角度検出器12が出力する角度信号は第2低周波フィルター演算部61に入力される。第2低周波フィルター演算部61は角度信号を入力して、角度信号の低周波成分を抽出する演算を行う。換言すれば、角度信号の高周波成分を減衰させる演算を行う。そして、第2低周波フィルター演算部61は低周波成分を抽出した低周波角度信号61aを切替部62に出力する。   The angle signal output from the second angle detector 12 is input to the second low frequency filter calculation unit 61. The second low frequency filter calculation unit 61 receives the angle signal and performs a calculation for extracting a low frequency component of the angle signal. In other words, an operation for attenuating the high frequency component of the angle signal is performed. Then, the second low frequency filter calculation unit 61 outputs a low frequency angle signal 61 a obtained by extracting a low frequency component to the switching unit 62.

第1撮像装置18が出力する画像情報は画像演算部51に入力される。画像演算部51は画像情報を用いて第1撮像装置18の位置情報を算出する。具体的には目標とするマーク29等の画像を抽出し、画像におけるマーク29等の位置を検出する。そして、画像の位置情報から第1撮像装置18に対するマーク29等の位置情報を算出する。画像演算部51は算出した位置情報を第3低周波フィルター演算部63に出力する。第3低周波フィルター演算部63は位置情報を入力して、位置情報が変化する推移の低周波成分を抽出する演算を行う。換言すれば、位置情報が変化する推移の高周波成分を減衰させる演算を行う。そして、第3低周波フィルター演算部63は位置情報の変化から低周波成分を抽出した低周波位置情報63aを切替部62に出力する。   Image information output by the first imaging device 18 is input to the image calculation unit 51. The image calculation unit 51 calculates the position information of the first imaging device 18 using the image information. Specifically, an image of the target mark 29 or the like is extracted, and the position of the mark 29 or the like in the image is detected. Then, position information such as the mark 29 for the first imaging device 18 is calculated from the position information of the image. The image calculation unit 51 outputs the calculated position information to the third low frequency filter calculation unit 63. The third low-frequency filter calculation unit 63 receives position information and performs a calculation for extracting a low-frequency component of transition where the position information changes. In other words, a calculation for attenuating the high frequency component of the transition in which the position information changes is performed. Then, the third low frequency filter calculation unit 63 outputs the low frequency position information 63a obtained by extracting the low frequency component from the change of the position information to the switching unit 62.

切替部62は第2加算部60と接続されている。そして、CPU35が出力する指示信号により、切替部62は低周波角度信号61aと低周波位置情報63aとのうち一方の信号を第2加算部60に出力する。切替部62が第2加算部60に出力する信号を第2低周波信号62aとする。   The switching unit 62 is connected to the second adding unit 60. Then, the switching unit 62 outputs one signal of the low frequency angle signal 61 a and the low frequency position information 63 a to the second addition unit 60 according to the instruction signal output from the CPU 35. A signal output from the switching unit 62 to the second addition unit 60 is referred to as a second low-frequency signal 62a.

第2加算部60は第2高周波信号59aと第2低周波信号62aとを合成することにより、第2角度信号60aを形成する。第2角度信号60aは、第2角度検出器12の角度信号または第1撮像装置18が出力する位置信号の低周波成分と第2角速度センサー17が出力する信号の高周波成分とにより形成された信号となっている。つまり、第2角度信号60aは第2腕部13の角度または姿勢に対応する信号となっている。そして、第2加算部60は第2角度信号60aを振動抑制制御部52に出力する。   The second addition unit 60 combines the second high frequency signal 59a and the second low frequency signal 62a to form the second angle signal 60a. The second angle signal 60 a is a signal formed by the angle signal of the second angle detector 12 or the low frequency component of the position signal output by the first imaging device 18 and the high frequency component of the signal output by the second angular velocity sensor 17. It has become. That is, the second angle signal 60 a is a signal corresponding to the angle or posture of the second arm portion 13. Then, the second addition unit 60 outputs the second angle signal 60 a to the vibration suppression control unit 52.

振動抑制制御部52は第1角度信号56aを入力して、第1腕部8の振動を抑制させる制御信号を演算する。具体的には、第1角度信号56aを基に、第1腕部8の振動発生を極力抑えつつ、且つ第1腕部8の全体動作は所望の動きになるべく近づくような駆動を第1モーター5に行わせる。例えば、第1腕部8が振動している位相と逆の位相の振動が加わるように第1モーター5を駆動させる。そして、第1腕部8の振動と新たに加えた振動とが打ち消しあうように制御する。   The vibration suppression control unit 52 receives the first angle signal 56 a and calculates a control signal for suppressing the vibration of the first arm unit 8. Specifically, on the basis of the first angle signal 56a, the first motor is driven so that vibration of the first arm portion 8 is suppressed as much as possible and the entire operation of the first arm portion 8 is as close as possible to the desired movement. 5 to do. For example, the first motor 5 is driven so that vibration having a phase opposite to the phase in which the first arm portion 8 is vibrating is applied. Then, control is performed so that the vibration of the first arm portion 8 and the newly added vibration cancel each other.

さらに、振動抑制制御部52は第1角度信号56aと第2角度信号60aとを入力して、第2腕部13の振動を抑制させる制御信号を演算する。具体的には、第2腕部13の振動発生を極力抑えつつ、且つ第2腕部13の全体動作が所望の動きになるべく近づくような駆動を第1モーター5と第2モーター11とに行わせる。例えば、第2腕部13が振動している位相と逆の位相の振動が加わるように第1モーター5と第2モーター11とを駆動させる。そして、第2腕部13の振動と新たに加えた振動とが打ち消しあうように制御する。   Further, the vibration suppression control unit 52 inputs the first angle signal 56a and the second angle signal 60a, and calculates a control signal for suppressing the vibration of the second arm portion 13. Specifically, the first motor 5 and the second motor 11 are driven so that the vibration of the second arm 13 is suppressed as much as possible and the entire operation of the second arm 13 is as close as possible to the desired movement. Make it. For example, the 1st motor 5 and the 2nd motor 11 are driven so that the vibration of the phase opposite to the phase which the 2nd arm part 13 is vibrating may be added. Then, control is performed so that the vibration of the second arm portion 13 and the newly added vibration cancel each other.

振動抑制制御部52は、演算した制御信号、第1角度信号56a及び第2角度信号60aをロボット制御部49に出力する。第2角度検出器12の出力を基にした低周波角度信号61aを切替部62が第2低周波信号62aとして出力するとき、第1移動先制御部49aが制御する演算を行う。そして、第1撮像装置18の出力を基にした低周波位置情報63aを切替部62が第2低周波信号62aとして出力するとき、第2移動先制御部49bが制御する演算を行う。ロボット制御部49は手部16の位置と移動する目標の場所との差を演算する。そして、第1モーター5及び第2モーター11を駆動する角度と角速度とのパラメーターの推移等からなる制御信号を演算する。そして、ロボット制御部49は制御信号をロボット駆動装置37に出力する。ロボット駆動装置37は制御信号を入力して、第1モーター5と第2モーター11とに駆動信号を出力する。第1モーター5と第2モーター11とが駆動信号に応じて回転することにより、第1腕部8と第2腕部13とが作動する。   The vibration suppression control unit 52 outputs the calculated control signal, the first angle signal 56a, and the second angle signal 60a to the robot control unit 49. When the switching unit 62 outputs the low-frequency angle signal 61a based on the output of the second angle detector 12 as the second low-frequency signal 62a, a calculation controlled by the first movement destination control unit 49a is performed. Then, when the switching unit 62 outputs the low frequency position information 63a based on the output of the first imaging device 18 as the second low frequency signal 62a, a calculation controlled by the second movement destination control unit 49b is performed. The robot controller 49 calculates the difference between the position of the hand 16 and the target location to move. And the control signal which consists of transition of the parameter of the angle and angular velocity which drive the 1st motor 5 and the 2nd motor 11, etc. is calculated. Then, the robot control unit 49 outputs a control signal to the robot drive device 37. The robot drive device 37 inputs a control signal and outputs a drive signal to the first motor 5 and the second motor 11. As the first motor 5 and the second motor 11 rotate according to the drive signal, the first arm portion 8 and the second arm portion 13 operate.

(ロボット制御方法)
次に、上述したロボット1において手部16を所定の位置に移動させる位置制御方法について図4〜図6にて説明する。この説明は、制御装置32が手部16を待機場所からワーク22と対向する場所に移動させる作業の例を用いて行う。図4は、手部の移動作業を示すフローチャートである。図5及び図6は、手部の移動作業におけるロボット制御方法を説明するための模式図である。
(Robot control method)
Next, a position control method for moving the hand portion 16 to a predetermined position in the robot 1 described above will be described with reference to FIGS. This description will be made using an example of the operation in which the control device 32 moves the hand portion 16 from the standby location to a location facing the workpiece 22. FIG. 4 is a flowchart showing the hand moving operation. 5 and 6 are schematic views for explaining a robot control method in the hand moving operation.

図4に示すフローチャートにおいて、ステップS1は、第1移動工程に相当する。この工程は、第1角度検出器と第2角度検出器とを用いて手部の移動量を検出し、手部を所定の位置としての目標とする場所に接近させる工程である。次にステップS3に移行する。ステップS1と並行してステップS2が行われる。ステップS2は振動抑制工程に相当する。角速度センサーを用いて手部の動きを検出し、振動を抑制する制御を行う工程である。次にステップS3に移行する。ステップS3は、センサー切替判断工程に相当する。この工程は、手部の位置を検出するのに角度センサーと撮像装置とのどちらを用いるかを判断する工程である。手部と目標との距離が判定値より長いとき、角度センサーを用いることにする。そして、ステップS1及びステップS2に移行する。手部と目標との距離が判定値より短いとき、撮像装置を用いることにする。そして、ステップS4及びステップS5に移行する。   In the flowchart shown in FIG. 4, step S1 corresponds to a first movement process. This step is a step of detecting the amount of movement of the hand using the first angle detector and the second angle detector and bringing the hand close to a target location as a predetermined position. Next, the process proceeds to step S3. Step S2 is performed in parallel with step S1. Step S2 corresponds to a vibration suppressing step. This is a process of detecting the movement of the hand using an angular velocity sensor and performing control to suppress vibration. Next, the process proceeds to step S3. Step S3 corresponds to a sensor switching determination step. This step is a step of determining which of the angle sensor and the imaging device is used to detect the position of the hand portion. When the distance between the hand and the target is longer than the determination value, an angle sensor is used. And it transfers to step S1 and step S2. When the distance between the hand and the target is shorter than the determination value, the imaging device is used. And it transfers to step S4 and step S5.

ステップS4は、第2移動工程に相当する。この工程は、第1撮像装置を用いて手部の位置を検出し、手部を目標とする場所に移動させる工程である。ステップS4と並行してステップS5が行われる。ステップS5は振動抑制工程に相当する。角速度センサーを用いて手部の動きを検出し、振動を抑制する制御を行う工程である。ステップS4とステップS5が終了するとき、手部の移動作業を終了する。   Step S4 corresponds to a second movement process. This step is a step of detecting the position of the hand using the first imaging device and moving the hand to a target location. Step S5 is performed in parallel with step S4. Step S5 corresponds to a vibration suppressing step. This is a process of detecting the movement of the hand using an angular velocity sensor and performing control to suppress vibration. When step S4 and step S5 are finished, the hand moving work is finished.

次に、図5及び図6を用いて、図4に示したステップと対応させて、手部の移動作業におけるロボットの位置制御方法を詳細に説明する。図5(a)は、ステップS1の第1移動工程及びステップS2の振動抑制工程に対応する図である。図5(a)に示すように、ステップS1及びステップS2において、手部16はワーク22から離れた待機場所に位置する。手部16を移動させる目標の場所をワーク22の中心とする。手部16の中心線とワーク22の中心線との距離を手部目標間距離66とする。第1移動先制御部49aはロボット1を駆動させて手部16をワーク22に向けて移動させる。次に、第1移動先制御部49aは第1角度検出器6の出力と第2角度検出器12との出力を用いて手部16の移動量を算出する。そして、ワーク22の中心に向けて、手部16を制御しながら移動させる。   Next, referring to FIGS. 5 and 6, the robot position control method in the hand moving operation will be described in detail in correspondence with the steps shown in FIG. FIG. 5A is a diagram corresponding to the first movement process of step S1 and the vibration suppression process of step S2. As shown in FIG. 5A, in step S1 and step S2, the hand portion 16 is located at a standby place away from the workpiece 22. The target location where the hand portion 16 is moved is the center of the work 22. The distance between the center line of the hand portion 16 and the center line of the workpiece 22 is defined as a hand portion target distance 66. The first movement destination control unit 49 a drives the robot 1 to move the hand unit 16 toward the workpiece 22. Next, the first movement destination control unit 49 a calculates the movement amount of the hand unit 16 using the output of the first angle detector 6 and the output of the second angle detector 12. Then, the hand portion 16 is moved while being controlled toward the center of the work 22.

手部16の移動と並行して、振動抑制制御部52は第2角速度センサー17が検出する手部16の振動と対応する信号を入力する。そして、振動抑制制御部52はロボット1を駆動することにより、手部16の振動を抑制する。手部16が移動する間、第2撮像装置31が手部16及びワーク22を撮影する。そして、画像演算部51は撮影された画像から手部目標間距離66を算出する。   In parallel with the movement of the hand part 16, the vibration suppression control part 52 inputs a signal corresponding to the vibration of the hand part 16 detected by the second angular velocity sensor 17. Then, the vibration suppression control unit 52 suppresses the vibration of the hand portion 16 by driving the robot 1. While the hand portion 16 moves, the second imaging device 31 photographs the hand portion 16 and the work 22. Then, the image calculation unit 51 calculates a hand target distance 66 from the captured image.

図5(b)は、ステップS3のセンサー切替判断工程に対応する図である。図5(b)に示すように、手部16がワーク22に接近する。そして、第2撮像装置31が手部目標間距離66を検出する。CPU35は手部目標間距離66と判定値とを比較し、手部目標間距離66が所定の距離となるとき、ステップS4の第2移動工程に移行する判断をする。   FIG. 5B is a diagram corresponding to the sensor switching determination step in step S3. As shown in FIG. 5B, the hand portion 16 approaches the work 22. Then, the second imaging device 31 detects the hand target distance 66. The CPU 35 compares the hand target distance 66 with the determination value, and when the hand target distance 66 becomes a predetermined distance, the CPU 35 determines to move to the second moving step in step S4.

図5(c)及び図6(a)はステップS4の第2移動工程及びステップS5の振動抑制工程に対応する図である。図5(c)に示すように、ステップS4において、第2移動先制御部49bは手部16の中心をワーク22の中心に移動する。ワーク22の第1撮像装置18側の面には位置検出マーク22aが配置されている。そして、第1撮像装置18は手部16、指部16a及びワーク22の位置検出マーク22aを撮影する。   FIG. 5C and FIG. 6A are diagrams corresponding to the second moving process in step S4 and the vibration suppressing process in step S5. As shown in FIG. 5C, in step S <b> 4, the second movement destination control unit 49 b moves the center of the hand portion 16 to the center of the workpiece 22. A position detection mark 22a is arranged on the surface of the workpiece 22 on the first imaging device 18 side. Then, the first imaging device 18 images the hand portion 16, the finger portion 16 a and the position detection mark 22 a of the work 22.

図6(a)は第1撮像装置18が撮影した画像を示す。画像67には手部16、指部16a、ワーク22、位置検出マーク22aにそれぞれ対応する手部像68、指部像69、ワーク像70、位置検出マーク像71が撮影されている。画像演算部51はX方向における手部像68の端と位置検出マーク像71の中心との距離72を算出する。さらに、画像演算部51はY方向における2つの指部像69の中間点と2つの位置検出マーク像71の中間点との距離73を算出する。そして、ワーク位置演算部53は距離72及び距離73の情報を用いて手部16とワーク22との相対位置を算出する。第2移動先制御部49bはワーク22の中心に指部16aの中心を移動させる。このとき、制御装置32は、第1撮像装置18による撮影と手部16及びワーク22の相対位置演算と手部16の移動とを繰り返し行う。   FIG. 6A shows an image taken by the first imaging device 18. In the image 67, a hand part image 68, a finger part image 69, a work image 70, and a position detection mark image 71 corresponding to the hand part 16, the finger part 16a, the work 22, and the position detection mark 22a are taken. The image calculation unit 51 calculates a distance 72 between the end of the hand image 68 and the center of the position detection mark image 71 in the X direction. Further, the image calculation unit 51 calculates a distance 73 between the midpoint of the two finger image 69 and the midpoint of the two position detection mark images 71 in the Y direction. Then, the workpiece position calculation unit 53 calculates the relative position between the hand portion 16 and the workpiece 22 using information on the distance 72 and the distance 73. The second movement destination control unit 49 b moves the center of the finger portion 16 a to the center of the work 22. At this time, the control device 32 repeatedly performs photographing by the first imaging device 18, calculation of the relative position of the hand portion 16 and the workpiece 22, and movement of the hand portion 16.

図6(b)は手部を目標の場所に移動するタイムチャートを示す。縦軸は手部16と目標地点であるワーク22の中心との距離である手部目標間距離66を示している。縦軸の上側は下側より目標地点より離れている場所を示す。横軸は時間の経過を示し、時間は左から右へ推移する。手部位置推移線74は手部16が待機場所から目標地点まで移動する経過を示している。まず、手部16は待機場所に位置する。そして、ステップS1,S2,S3を繰り返して行うことにより、制御装置32は手部16の振動を抑制させながら手部16を目標地点に接近させる。このとき、切替部62は低周波角度信号61aを第2低周波信号62aとして出力する。そして、第1移動先制御部49aは第1角度検出器6と第2角度検出器12との出力を用いて手部16の移動を制御する。   FIG. 6B shows a time chart for moving the hand to the target location. The vertical axis indicates the hand target distance 66 which is the distance between the hand 16 and the center of the work 22 as the target point. The upper side of the vertical axis indicates a place farther from the target point than the lower side. The horizontal axis shows the passage of time, and the time changes from left to right. The hand part position transition line 74 shows the progress of the hand part 16 moving from the standby position to the target point. First, the hand portion 16 is located at the standby place. Then, by repeatedly performing steps S1, S2, and S3, the control device 32 brings the hand portion 16 closer to the target point while suppressing the vibration of the hand portion 16. At this time, the switching unit 62 outputs the low frequency angle signal 61a as the second low frequency signal 62a. Then, the first movement destination control unit 49 a controls the movement of the hand unit 16 using the outputs of the first angle detector 6 and the second angle detector 12.

さらに、ロボット制御部49は第2撮像装置31が検出する手部16の場所の情報を用いて手部目標間距離66を算出する。そして、手部目標間距離66が予め設定した判定値より短くなったとき、ロボット制御部49では第2移動先制御部49bがロボット1の制御を行う。そして、ステップS4,S5に移行する。   Further, the robot control unit 49 calculates the hand target distance 66 using the information on the location of the hand 16 detected by the second imaging device 31. When the hand part target distance 66 becomes shorter than a predetermined determination value, in the robot control unit 49, the second movement destination control unit 49 b controls the robot 1. And it transfers to step S4, S5.

そして、ステップS4,S5を繰り返して行うことにより、制御装置32は手部16の振動を抑制させながら手部16を目標地点に接近させる。このとき、切替部62は低周波位置情報63aを第2低周波信号62aとして出力する。そして、第2移動先制御部49bは第1角度検出器6と第1撮像装置18との出力を用いて手部16の移動を制御する。その結果、手部16は目標地点であるワーク22の中心に到達し、手部の移動作業を終了する。   And by repeating step S4, S5, the control apparatus 32 makes the hand part 16 approach a target point, suppressing the vibration of the hand part 16. FIG. At this time, the switching unit 62 outputs the low frequency position information 63a as the second low frequency signal 62a. Then, the second movement destination control unit 49 b controls the movement of the hand unit 16 using the outputs of the first angle detector 6 and the first imaging device 18. As a result, the hand portion 16 reaches the center of the work 22 that is the target point, and the hand moving operation is completed.

上述したように、本実施形態によれば、以下の効果を有する。
(1)本実施形態によれば、ステップS1の第1移動工程では第1角度検出器6及び第2角度検出器12の出力から手部16の移動量を検出して、手部16の移動量を制御している。そして、ステップS4の第2移動工程では第1撮像装置18の出力を用いて手部16の場所を検出して、手部16の場所を制御している。第1移動工程で検出する移動量の情報は第2移動工程にて検出する場所の情報に比べて情報量が少ないので、第1移動工程では第2移動工程より早く制御のための演算を行うことができる。従って、第1移動工程では第2移動工程より早く手部16を移動させる制御を行うことができる。さらに、第1移動工程では制御のための演算量が少ないため、消費電力を低減することができる。そして、第2移動工程では手部16の場所と目標の場所とを検出して手部16を制御している。従って、手部16を精度良く確実に目標とする場所に移動することができる。
As described above, this embodiment has the following effects.
(1) According to the present embodiment, in the first movement step of Step S <b> 1, the movement amount of the hand portion 16 is detected by detecting the movement amount of the hand portion 16 from the outputs of the first angle detector 6 and the second angle detector 12. The amount is controlled. Then, in the second movement step of step S4, the location of the hand portion 16 is controlled by detecting the location of the hand portion 16 using the output of the first imaging device 18. Since the information on the amount of movement detected in the first movement process is smaller than the information on the location detected in the second movement process, the calculation for control is performed earlier in the first movement process than in the second movement process. be able to. Therefore, in the first movement process, it is possible to perform control for moving the hand portion 16 earlier than in the second movement process. Furthermore, since the amount of calculation for control is small in the first movement step, power consumption can be reduced. In the second movement process, the hand 16 is controlled by detecting the location of the hand 16 and the target location. Therefore, the hand portion 16 can be accurately and reliably moved to the target location.

(2)本実施形態によれば、ステップS2及びステップS5の振動抑制工程において第1腕部8及び昇降装置14の振動が検出される。そして、第1腕部8及び昇降装置14の振動と逆の位相に可動部を振動させることにより第1腕部8及び昇降装置14の振動が抑えられる。ステップS1の第1移動工程及びステップS4の第2移動工程と並行してステップS2及びステップS5の振動抑制工程が行われるとき、第1腕部8及び昇降装置14は振動を抑えながら移動することができる。第1移動工程にて第1腕部8及び昇降装置14の振幅を小さくするとき、第2移動工程に移行するときの第1腕部8及び昇降装置14の振幅を小さくできる。従って、第2移動工程に移行する段階においても第1腕部8及び昇降装置14の振幅を小さくすることができる。第2移動工程と並行して振動抑制工程を行うときにも、第1腕部8及び昇降装置14の振幅を小さくすることができる。そして、第1腕部8及び昇降装置14の振幅が小さい為、第1撮像装置18を用いて手部16の場所を検出し易くすることができる。その結果、手部16の場所を精度良く検出することができる。   (2) According to the present embodiment, the vibrations of the first arm portion 8 and the lifting device 14 are detected in the vibration suppressing process of step S2 and step S5. And vibration of the 1st arm part 8 and the raising / lowering apparatus 14 is suppressed by vibrating a movable part to the phase opposite to the vibration of the 1st arm part 8 and the raising / lowering apparatus 14. FIG. When the vibration suppressing process of step S2 and step S5 is performed in parallel with the first moving process of step S1 and the second moving process of step S4, the first arm portion 8 and the lifting device 14 move while suppressing vibration. Can do. When the amplitudes of the first arm 8 and the lifting device 14 are reduced in the first movement process, the amplitudes of the first arm 8 and the lifting device 14 when shifting to the second movement process can be reduced. Accordingly, the amplitude of the first arm portion 8 and the lifting device 14 can be reduced even at the stage of shifting to the second moving step. Even when the vibration suppressing step is performed in parallel with the second moving step, the amplitudes of the first arm portion 8 and the lifting device 14 can be reduced. And since the amplitude of the 1st arm part 8 and the raising / lowering apparatus 14 is small, it can make it easy to detect the location of the hand part 16 using the 1st imaging device 18. FIG. As a result, the location of the hand portion 16 can be detected with high accuracy.

(3)本実施形態によれば、第1撮像装置18にて手部16及び位置検出マーク22aの場所の検出を行っている。第1撮像装置18は撮像レンズ18aの倍率を選択することにより、手部16及び位置検出マーク22aの場所を検出するときの分解能を上げることができる。従って、精度良く手部16及び位置検出マーク22aの場所の検出を行うことができる。これにより、アームが変形した場合でも、実際の画像情報を基に精度良く手部16を所望の位置へ移動させることができる。   (3) According to the present embodiment, the first imaging device 18 detects the location of the hand portion 16 and the position detection mark 22a. The first imaging device 18 can increase the resolution when detecting the location of the hand portion 16 and the position detection mark 22a by selecting the magnification of the imaging lens 18a. Therefore, the location of the hand portion 16 and the position detection mark 22a can be detected with high accuracy. Thereby, even when the arm is deformed, the hand portion 16 can be accurately moved to a desired position based on the actual image information.

(4)本実施形態によれば、第1撮像装置18は手部16と位置検出マーク22aとを撮影している。画像演算部51は撮影する画像67を解析することにより、手部16の中心とワーク22の中心との距離を検出することができる。従って、位置検出マーク22aにより目標とする場所が視覚的に認識できるようにするだけで手部16の中心とワーク22の中心との距離を検出することができる。その結果、簡便に手部16の中心とワーク22の中心との距離を検出することができる。   (4) According to this embodiment, the 1st imaging device 18 is image | photographing the hand part 16 and the position detection mark 22a. The image calculation unit 51 can detect the distance between the center of the hand portion 16 and the center of the work 22 by analyzing the captured image 67. Therefore, the distance between the center of the hand portion 16 and the center of the workpiece 22 can be detected only by making the target location visually recognizable by the position detection mark 22a. As a result, the distance between the center of the hand portion 16 and the center of the work 22 can be easily detected.

(5)本実施形態によれば、第1撮像装置18が位置検出マーク22aを撮影している。第1撮像装置18は昇降装置14に配置されているので、第1撮像装置18と手部16との相対位置は既知となっている。そして、第1撮像装置18が撮影する画像67を用いて、第1撮像装置18と位置検出マーク22aとの相対位置を算出することにより位置検出マーク22aと手部16との相対位置を認識することができる。従って、第1撮像装置18が手部16を撮影できない場合にも位置検出マーク22aと手部16との相対位置を認識することができる。   (5) According to this embodiment, the 1st imaging device 18 image | photographs the position detection mark 22a. Since the first imaging device 18 is arranged in the lifting device 14, the relative position between the first imaging device 18 and the hand portion 16 is known. Then, the relative position between the position detection mark 22a and the hand portion 16 is recognized by calculating the relative position between the first image capture apparatus 18 and the position detection mark 22a using the image 67 captured by the first image capture apparatus 18. be able to. Accordingly, the relative position between the position detection mark 22 a and the hand portion 16 can be recognized even when the first imaging device 18 cannot photograph the hand portion 16.

(6)本実施形態によれば、第1撮像装置18が手部16と位置検出マーク22aとを1つの画像67内に撮影している。従って、撮影した画像を解析することにより、手部16と位置検出マーク22aとの相対位置を検出することができる。   (6) According to the present embodiment, the first imaging device 18 captures the hand portion 16 and the position detection mark 22 a in one image 67. Therefore, the relative position between the hand portion 16 and the position detection mark 22a can be detected by analyzing the photographed image.

(7)本実施形態によれば、ワーク22に配置された位置検出マーク22aを用いて目標の場所を検出している。ワーク22に配置された位置検出マーク22aを撮影して手部16を移動させることにより、手部16をワーク22の位置する場所に移動させることができる。ワーク22の外観、色調が載置台21に対してコントラストが低いときにも、コントラストの高い位置検出マーク22aを配置することにより、位置検出マーク22aを検出し易くすることができる。   (7) According to the present embodiment, the target location is detected using the position detection mark 22 a arranged on the workpiece 22. By photographing the position detection mark 22 a arranged on the workpiece 22 and moving the hand portion 16, the hand portion 16 can be moved to a location where the workpiece 22 is located. Even when the appearance and color tone of the workpiece 22 are low in contrast to the mounting table 21, the position detection mark 22a can be easily detected by arranging the position detection mark 22a having high contrast.

(8)本実施形態によれば、第1移動先制御部49aは第2角度検出器12の出力を参照して第2腕部13を駆動する。そして、第2移動先制御部49bは、第1撮像装置18の出力を画像演算部51が算出した結果を参照して第2腕部13を駆動する。   (8) According to the present embodiment, the first movement destination control unit 49 a drives the second arm unit 13 with reference to the output of the second angle detector 12. Then, the second movement destination control unit 49b drives the second arm unit 13 with reference to the result of the image calculation unit 51 calculating the output of the first imaging device 18.

第2角度検出器12が検出する回転角度の情報は第1撮像装置18が検出する場所の情報に比べて情報量が少ないので、第1移動先制御部49aは第2移動先制御部49bより早く制御のための演算を行うことができる。従って、第1移動先制御部49aは第2移動先制御部49bが制御するより早く第2腕部13を移動させる制御を行うことができる。   The information on the rotation angle detected by the second angle detector 12 has a smaller amount of information than the information on the location detected by the first imaging device 18, and therefore the first movement destination control unit 49a is more than the second movement destination control unit 49b. Calculations for control can be performed quickly. Therefore, the first movement destination control unit 49a can perform control to move the second arm unit 13 earlier than the second movement destination control unit 49b controls.

第2移動先制御部49bは手部16の場所を検出して手部16を制御する。従って、手部16を確実に目標とする場所に移動することができる。第2角速度センサー17は昇降装置14の振動を検出する。そして、振動抑制制御部52が昇降装置14の動きを基に振動を抑制する制御を行うことにより昇降装置14の振動が抑えられる。昇降装置14の振幅が小さい為、画像演算部51が手部16の場所を検出し易くすることができる。従って、手部16の場所を精度良く検出することができる為、手部16の位置を精度良く制御することができる。   The second movement destination control unit 49 b detects the location of the hand part 16 and controls the hand part 16. Therefore, the hand 16 can be reliably moved to the target location. The second angular velocity sensor 17 detects the vibration of the lifting device 14. And the vibration suppression control part 52 performs the control which suppresses a vibration based on the motion of the raising / lowering apparatus 14, and the vibration of the raising / lowering apparatus 14 is suppressed. Since the amplitude of the lifting device 14 is small, the image calculation unit 51 can easily detect the location of the hand portion 16. Therefore, since the location of the hand portion 16 can be detected with high accuracy, the position of the hand portion 16 can be controlled with high accuracy.

(9)本実施形態によれば、第1撮像装置18は手部16を撮影する。手部16をワーク22に接近させるとき、第1撮像装置18は手部16とワーク22とを撮影することができる。そして、第1撮像装置18が撮影する画像67を分析することにより、画像演算部51は画像に撮影された手部16とワーク22との相対位置を算出することができる。従って、制御装置32は手部16とワーク22との相対位置を検出することができる。   (9) According to the present embodiment, the first imaging device 18 images the hand portion 16. When the hand portion 16 is brought close to the work 22, the first imaging device 18 can photograph the hand portion 16 and the work 22. Then, by analyzing the image 67 photographed by the first imaging device 18, the image calculation unit 51 can calculate the relative position between the hand portion 16 photographed in the image and the work 22. Therefore, the control device 32 can detect the relative position between the hand portion 16 and the workpiece 22.

(10)本実施形態によれば、第2撮像装置31は手部16を撮影することができる。そして、画像演算部51が撮影する画像を分析することにより、画像に撮影された手部16と第2撮像装置31との相対位置を算出することができる。ロボット1における第2撮像装置31が配置されている場所は既知の情報である。従って、制御装置32は手部16の位置を検出することができる。   (10) According to the present embodiment, the second imaging device 31 can photograph the hand portion 16. Then, by analyzing the image captured by the image calculation unit 51, the relative position between the hand unit 16 captured in the image and the second imaging device 31 can be calculated. The location where the second imaging device 31 is arranged in the robot 1 is known information. Therefore, the control device 32 can detect the position of the hand portion 16.

(11)本実施形態によれば、ロボット制御部49が手部16の位置を精度良く制御できる。従って、このロボット1は品質良く動作することができる。   (11) According to this embodiment, the robot control unit 49 can control the position of the hand unit 16 with high accuracy. Therefore, the robot 1 can operate with high quality.

(12)本実施形態によれば、振動抑制制御部52が昇降装置14の振動を抑制している。従って、昇降装置14及び手部16の振動が停止するまで待機する時間を短縮できる。   (12) According to this embodiment, the vibration suppression control unit 52 suppresses the vibration of the lifting device 14. Therefore, it is possible to shorten the time for waiting until the vibration of the lifting device 14 and the hand portion 16 stops.

(第2の実施形態)
次に、ロボットの一実施形態について図7を用いて説明する。本実施形態が第1の実施形態と異なるところは、ステップS3のセンサー切替判断工程にて経過時間を用いて判断する点にある。尚、第1の実施形態と同じ点については説明を省略し、異なる点のみ記載する。その他の点は第1の実施形態と同様である。
(Second Embodiment)
Next, an embodiment of the robot will be described with reference to FIG. This embodiment is different from the first embodiment in that the determination is made using the elapsed time in the sensor switching determination step in step S3. Note that description of the same points as in the first embodiment is omitted, and only different points are described. The other points are the same as in the first embodiment.

図7は、手部を目標の場所に移動する推移を示すタイムチャートである。縦軸は手部16と目標地点であるワーク22の中心との距離である手部目標間距離66を示している。縦軸の上側は下側より目標地点より離れている場所を示す。横軸は時間の経過を示し、時間は左から右へ推移する。手部位置推移線74は手部16が待機場所から目標地点まで移動する経過を示している。まず、手部16は待機場所に位置する。そして、ステップS1,S2,S3を繰り返して行うことにより、制御装置32は手部16の振動を抑制させながら手部16を目標地点に接近させる。このとき、第1移動先制御部49aは第1角度検出器6と第2角度検出器12との出力を用いて手部16の移動を制御する。   FIG. 7 is a time chart showing the transition of moving the hand to the target location. The vertical axis indicates the hand target distance 66 which is the distance between the hand 16 and the center of the work 22 as the target point. The upper side of the vertical axis indicates a place farther from the target point than the lower side. The horizontal axis shows the passage of time, and the time changes from left to right. The hand part position transition line 74 shows the progress of the hand part 16 moving from the standby position to the target point. First, the hand portion 16 is located at the standby place. Then, by repeatedly performing steps S1, S2, and S3, the control device 32 brings the hand portion 16 closer to the target point while suppressing the vibration of the hand portion 16. At this time, the first movement destination control unit 49 a controls the movement of the hand unit 16 using the outputs of the first angle detector 6 and the second angle detector 12.

ロボット制御部49はロボット1を駆動する前に、手部16がワーク22に所定の距離まで接近するのにかかる時間を算出する。そして、その時間を判定値とする。次に、制御装置32はステップS1の第1移動工程にてロボット1の駆動を開始してからの経過時間75を計測する。そして、経過時間75が判定値となるとき、制御装置32はロボット1の制御を第1移動先制御部49aから第2移動先制御部49bに切り替える。そして、ステップS1の第1移動工程からステップS4の第2移動工程に移行する。   The robot controller 49 calculates the time required for the hand 16 to approach the workpiece 22 to a predetermined distance before driving the robot 1. Then, the time is set as a determination value. Next, the control device 32 measures an elapsed time 75 from the start of driving of the robot 1 in the first movement process of step S1. When the elapsed time 75 becomes the determination value, the control device 32 switches the control of the robot 1 from the first movement destination control unit 49a to the second movement destination control unit 49b. And it transfers to the 2nd movement process of step S4 from the 1st movement process of step S1.

上述したように、本実施形態によれば、以下の効果を有する。
(1)本実施形態によれば、経過時間75が判定値の時間になったとき、ステップS1の第1移動工程からステップS4の第2移動工程に移行している。計測装置を用いて手部16の場所を検出し、手部16が所定の場所に位置するときに第1移動工程から第2移動工程に移行する方法がある。この方法のときには計測装置を駆動するのでエネルギーを消費する。この計測装置を用いる場合に比べて、本実施形態の方法は省資源にロボット1を制御することができる。
As described above, this embodiment has the following effects.
(1) According to the present embodiment, when the elapsed time 75 becomes the time of the determination value, the process moves from the first movement process of step S1 to the second movement process of step S4. There is a method of detecting the location of the hand portion 16 using a measuring device and shifting from the first movement step to the second movement step when the hand portion 16 is located at a predetermined location. This method consumes energy because the measuring device is driven. Compared with the case where this measuring device is used, the method of the present embodiment can control the robot 1 with less resources.

(第3の実施形態)
次に、ロボットの一実施形態について図8を用いて説明する。本実施形態が第1の実施形態と異なるところは、第2撮像装置31の代わりに位置検出センサーを用いて手部16の位置を検出することである。尚、第1の実施形態と同じ点については説明を省略し、異なる点のみ記載する。その他の点は第1の実施形態と同様である。
(Third embodiment)
Next, an embodiment of the robot will be described with reference to FIG. The present embodiment is different from the first embodiment in that the position of the hand portion 16 is detected using a position detection sensor instead of the second imaging device 31. Note that description of the same points as in the first embodiment is omitted, and only different points are described. The other points are the same as in the first embodiment.

図8は、ロボットの構成を示す概略斜視図である。図8に示すように、ロボット76は基台2の周辺に近い場所にはZ方向に長く形成された支持部77が3箇所に配置されている。そして、支持部77のZ方向側には超音波受信機78が配置されている。さらに、昇降装置14のZ方向側には超音波送信機80が設置されている。ロボット76は制御装置79を備え、制御装置79は超音波受信機78及び超音波送信機80の駆動回路及び制御部を備えている。   FIG. 8 is a schematic perspective view showing the configuration of the robot. As shown in FIG. 8, in the robot 76, support portions 77 formed long in the Z direction are arranged at three locations near the periphery of the base 2. An ultrasonic receiver 78 is disposed on the Z direction side of the support portion 77. Furthermore, an ultrasonic transmitter 80 is installed on the Z direction side of the lifting device 14. The robot 76 includes a control device 79, and the control device 79 includes a drive circuit and a control unit for the ultrasonic receiver 78 and the ultrasonic transmitter 80.

制御装置79は超音波送信機80から順次超音波を発信させる。そして、制御装置79は超音波受信機78に超音波を受信させる。制御装置79は超音波送信機80が発信する超音波が各超音波受信機78に到達する時間を解析することにより、各超音波受信機78と超音波送信機80との距離を検出する。そして、三角測量の方法を用いることにより超音波送信機80が位置する場所を算出する。超音波送信機80と手部16との相対位置は予め既知であり、制御装置79は手部16の位置を算出することができる。   The control device 79 sequentially transmits ultrasonic waves from the ultrasonic transmitter 80. Then, the control device 79 causes the ultrasonic receiver 78 to receive ultrasonic waves. The control device 79 detects the distance between each ultrasonic receiver 78 and the ultrasonic transmitter 80 by analyzing the time when the ultrasonic wave transmitted from the ultrasonic transmitter 80 reaches each ultrasonic receiver 78. Then, the location where the ultrasonic transmitter 80 is located is calculated by using a triangulation method. The relative position between the ultrasonic transmitter 80 and the hand portion 16 is known in advance, and the control device 79 can calculate the position of the hand portion 16.

ワーク22にも超音波送信機81が設置されている。超音波送信機81は所定の時間距離をあけて超音波を発信する。そして、超音波送信機81が発信する超音波を各超音波受信機78が受信する。次に、制御装置79は三角測量の方法を用いることにより超音波送信機81が位置する場所を算出する。そして、制御装置79はワーク22が位置する場所を検出する。   An ultrasonic transmitter 81 is also installed on the work 22. The ultrasonic transmitter 81 transmits ultrasonic waves at a predetermined time distance. Then, each ultrasonic receiver 78 receives the ultrasonic wave transmitted from the ultrasonic transmitter 81. Next, the control device 79 calculates a location where the ultrasonic transmitter 81 is located by using a triangulation method. And the control apparatus 79 detects the place where the workpiece | work 22 is located.

ステップS1の第1移動工程において、制御装置79は手部16とワーク22との距離を算出する。そして、手部16とワーク22との距離が判定値より小さくなるとき、ステップS1の第1移動工程からステップS4の第2移動工程へ移行する。   In the first movement process of step S1, the control device 79 calculates the distance between the hand portion 16 and the workpiece 22. And when the distance of the hand part 16 and the workpiece | work 22 becomes smaller than a determination value, it transfers to the 2nd movement process of step S4 from the 1st movement process of step S1.

上述したように、本実施形態によれば、以下の効果を有する。
(1)本実施形態によれば、超音波送信機80,81が発信する超音波を超音波受信機78が受信することにより、ワーク22と手部16との距離を検出している。ワーク22が移動するときにも、ワーク22と手部16との距離が判定値となるときにステップS1の第1移動工程からステップS4の第2移動工程に移行することができる。
As described above, this embodiment has the following effects.
(1) According to the present embodiment, the ultrasonic receiver 78 receives the ultrasonic waves transmitted by the ultrasonic transmitters 80 and 81, thereby detecting the distance between the workpiece 22 and the hand portion 16. Even when the workpiece 22 moves, when the distance between the workpiece 22 and the hand portion 16 becomes the determination value, the process can move from the first movement step of step S1 to the second movement step of step S4.

(第4の実施形態)
次に、ロボットの一実施形態について図9を用いて説明する。本実施形態が第1の実施形態と異なるところは、手部16がワーク22を把持してマーク29に移動する点である。尚、第1の実施形態と同じ点については説明を省略し、異なる点のみ記載する。その他の点は第1の実施形態と同様である。
(Fourth embodiment)
Next, an embodiment of the robot will be described with reference to FIG. This embodiment is different from the first embodiment in that the hand 16 grips the work 22 and moves to the mark 29. Note that description of the same points as in the first embodiment is omitted, and only different points are described. The other points are the same as in the first embodiment.

図9は、手部の移動作業におけるロボット制御方法を説明するための模式図である。そして、ステップS4の第2移動工程及びステップS5の振動抑制工程に対応する図である。図9(a)に示すように、ステップS4において、手部16はワーク22を把持して移動する。基台2にはマーク29が形成されており、第1撮像装置18はワーク22及びマーク29を撮影する。マーク29は、載置台21の内部に配置された冷陰極管24の光がマスク基板28にて一部が遮光されることにより形成されている。マスク基板28に形成されたマーク形状の光29aが載置台21から第1撮像装置18に向けて照射される。   FIG. 9 is a schematic diagram for explaining a robot control method in a hand moving operation. And it is a figure corresponding to the 2nd movement process of step S4, and the vibration suppression process of step S5. As shown in FIG. 9A, in step S4, the hand portion 16 moves while gripping the workpiece 22. A mark 29 is formed on the base 2, and the first imaging device 18 photographs the workpiece 22 and the mark 29. The mark 29 is formed by partially blocking the light of the cold cathode tubes 24 arranged inside the mounting table 21 by the mask substrate 28. A mark-shaped light 29 a formed on the mask substrate 28 is irradiated from the mounting table 21 toward the first imaging device 18.

図9(b)は第1撮像装置18が撮影した画像を示す。画像82には手部16、指部16a、ワーク22、マーク29にそれぞれ対応する手部像68、指部像69、ワーク像70、マーク像83が撮影されている。画像演算部51は画像82におけるマーク像83の位置を算出する。マーク像83は2つの直線が交差した図形となっている。そして、画像演算部51は交差する場所である交差部83aの座標を算出する。そして、第2移動先制御部49bはロボット1を駆動して交差部83aとワーク像70の図中右下の隅70aとを重ねて配置する。このとき、第2移動先制御部49bは、第1撮像装置18による撮影、ワーク22とマーク29との相対位置演算及び手部16の移動とを繰り返し行う。   FIG. 9B shows an image taken by the first imaging device 18. In the image 82, a hand part image 68, a finger part image 69, a work image 70, and a mark image 83 corresponding to the hand part 16, the finger part 16a, the work 22, and the mark 29 are taken. The image calculation unit 51 calculates the position of the mark image 83 in the image 82. The mark image 83 is a figure in which two straight lines intersect. Then, the image calculation unit 51 calculates the coordinates of the intersecting portion 83a, which is a place where the images intersect. Then, the second movement destination control unit 49b drives the robot 1 to arrange the intersecting part 83a and the lower right corner 70a of the workpiece image 70 in the drawing. At this time, the second movement destination control unit 49b repeatedly performs photographing by the first imaging device 18, calculation of the relative position between the workpiece 22 and the mark 29, and movement of the hand unit 16.

上述したように、本実施形態によれば、以下の効果を有する。
(1)本実施形態によれば、第1撮像装置18がマーク29を撮影している。第1撮像装置18は昇降装置14に配置されており、昇降装置14と手部16との相対位置は固定している。従って、第1撮像装置18とマーク29との相対位置を検出することによりマーク29と手部16との相対位置を認識することができる。そして、載置台21においてマーク29の位置は固定され既知であることから、制御装置32は載置台21における手部16の位置を検出することができる。
As described above, this embodiment has the following effects.
(1) According to the present embodiment, the first imaging device 18 captures the mark 29. The first imaging device 18 is disposed in the lifting device 14, and the relative position between the lifting device 14 and the hand portion 16 is fixed. Therefore, the relative position between the mark 29 and the hand portion 16 can be recognized by detecting the relative position between the first imaging device 18 and the mark 29. Since the position of the mark 29 is fixed and known on the mounting table 21, the control device 32 can detect the position of the hand portion 16 on the mounting table 21.

(2)本実施形態によればマーク29はマーク29の形状の光29aを照射して形成されている。従って、マーク29は輝度を高くすることができる為、撮影した画像82におけるマーク像83はコントラストが高い像となる。その結果、撮影した画像82におけるマーク像83を検出し易くすることができる。   (2) According to the present embodiment, the mark 29 is formed by irradiating the light 29 a having the shape of the mark 29. Accordingly, since the mark 29 can have high luminance, the mark image 83 in the photographed image 82 is an image with high contrast. As a result, the mark image 83 in the photographed image 82 can be easily detected.

(第5の実施形態)
次に、ロボットの一実施形態について図10を用いて説明する。本実施形態が第1の実施形態と異なるところは、モーターにステップモーターを用いた点である。尚、第1の実施形態と同じ点については説明を省略し、異なる点のみ記載する。その他の点は第1の実施形態と同様である。
(Fifth embodiment)
Next, an embodiment of the robot will be described with reference to FIG. This embodiment is different from the first embodiment in that a step motor is used as the motor. Note that description of the same points as in the first embodiment is omitted, and only different points are described. The other points are the same as in the first embodiment.

図10は、ロボットの構成を示す模式断面図である。ロボット85において支持台3の内部には駆動部としての第3モーター86が配置されている。第3モーター86はステップモーターであり、第3モーター86は入力されるパルス数に対応した角度の回転をするモーターである。支持板4の上側には第1減速機7が配置され、第1減速機7の入力軸には第3モーター86が接続されている。第1減速機7の上側には出力軸7aが配置されている。そして、第3モーター86の回転速度を減速した回転速度にて出力軸7aが回転する。   FIG. 10 is a schematic cross-sectional view showing the configuration of the robot. In the robot 85, a third motor 86 as a drive unit is disposed inside the support base 3. The third motor 86 is a step motor, and the third motor 86 is a motor that rotates at an angle corresponding to the number of input pulses. A first reduction gear 7 is disposed above the support plate 4, and a third motor 86 is connected to the input shaft of the first reduction gear 7. An output shaft 7 a is disposed on the upper side of the first speed reducer 7. Then, the output shaft 7a rotates at a rotational speed obtained by reducing the rotational speed of the third motor 86.

第1腕部8上において第3モーター86と反対側の端には第2減速機10、駆動部としての第4モーター87がこの順に重ねて配置されている。第4モーター87はステップモーターであり、第4モーター87は入力されるパルス数に対応した角度の回転をするモーターである。そして、第4モーター87の回転軸は第2減速機10の入力軸と接続されている。第2減速機10の出力軸10aは図中下方向に配置されている。そして、第4モーター87の回転軸の回転速度を減速した回転速度にて第2減速機10の出力軸10aが回転させられる。出力軸10aには第2腕部13が接続して配置され、出力軸10aの回転と対応して第2腕部13が回転する。   On the first arm portion 8, a second reduction gear 10 and a fourth motor 87 as a drive portion are arranged in this order on the opposite end to the third motor 86 in this order. The fourth motor 87 is a step motor, and the fourth motor 87 is a motor that rotates at an angle corresponding to the number of input pulses. The rotation shaft of the fourth motor 87 is connected to the input shaft of the second reduction gear 10. The output shaft 10a of the second reduction gear 10 is arranged in the downward direction in the figure. Then, the output shaft 10a of the second reducer 10 is rotated at a rotational speed obtained by reducing the rotational speed of the rotational shaft of the fourth motor 87. The second arm 13 is connected to the output shaft 10a, and the second arm 13 rotates corresponding to the rotation of the output shaft 10a.

ロボット85は位置制御装置としての制御装置88を備えており、制御装置88は第3モーター86及び第4モーター87を駆動する駆動回路を備えている。さらに、第3モーター86及び第4モーター87を駆動するパルス波形のパルス数を制御することにより、第3モーター86及び第4モーター87の回転角度を制御する制御装置を備えている。   The robot 85 includes a control device 88 as a position control device, and the control device 88 includes a drive circuit that drives the third motor 86 and the fourth motor 87. Further, a control device for controlling the rotation angle of the third motor 86 and the fourth motor 87 by controlling the number of pulses of the pulse waveform for driving the third motor 86 and the fourth motor 87 is provided.

上述したように、本実施形態によれば、以下の効果を有する。
(1)本実施形態によれば、第1腕部8を回転する第3モーター86と第2腕部13を回転する第4モーター87にはステップモーターが用いられている。ステップモーターの駆動信号はパルス波形であり、パルス波形の波数に対応してステップモーターの駆動軸が回転する。従って、ステップモーターの駆動信号を制御することにより可動部の移動量を制御することができる。ステップモーターには、ロータリーエンコーダーは不要であるが、現在の回転角度を見失う脱調現象が起こる場合がある。この位置制御装置によれば、脱調現象から回復後に第1撮像装置18が手部16の位置を検出することにより、ステップモーターを用いて手部16を所定の位置に移動させることができる。そして、ステップモーターにはロータリーエンコーダーが不要であることから簡便な構成にすることができる。
As described above, this embodiment has the following effects.
(1) According to the present embodiment, step motors are used for the third motor 86 that rotates the first arm portion 8 and the fourth motor 87 that rotates the second arm portion 13. The step motor drive signal has a pulse waveform, and the drive shaft of the step motor rotates in accordance with the wave number of the pulse waveform. Therefore, the amount of movement of the movable part can be controlled by controlling the drive signal of the step motor. The step motor does not require a rotary encoder, but a step-out phenomenon that loses sight of the current rotation angle may occur. According to this position control device, when the first imaging device 18 detects the position of the hand portion 16 after recovery from the step-out phenomenon, the hand portion 16 can be moved to a predetermined position using the step motor. And since a rotary encoder is unnecessary for a step motor, it can be set as a simple structure.

(第6の実施形態)
次に、クレーンの一実施形態について図11を用いて説明する。本実施形態におけるクレーンは第1の実施形態におけるロボットの制御方法と同様の制御方法が用いられている。尚、第1の実施形態と同じ点については説明を省略し、異なる点のみ記載する。その他の点は第1の実施形態と同様である。
(Sixth embodiment)
Next, an embodiment of a crane will be described with reference to FIG. The crane in this embodiment uses the same control method as the robot control method in the first embodiment. Note that description of the same points as in the first embodiment is omitted, and only different points are described. The other points are the same as in the first embodiment.

図11は、クレーンの構成を示す概略斜視図である。図11に示すように、ロボットとしてのクレーン91は矩形の板状の基台92を備えている。基台92の長手方向をY方向とし、水平方向においてY方向と直交する方向をX方向とする。そして、鉛直方向をZ方向とする。基台92のZ方向側の面には格子状のマーク92aが形成されている。マーク92aはX方向に延在する線とY方向に延在する線とにより構成されている。各線の間隔は等間隔に配置され、各線の交点には記号が形成されている。そして、その記号により交点の座標を認知することができるようになっている。   FIG. 11 is a schematic perspective view showing the configuration of the crane. As shown in FIG. 11, a crane 91 as a robot includes a rectangular plate-like base 92. The longitudinal direction of the base 92 is defined as the Y direction, and the direction orthogonal to the Y direction in the horizontal direction is defined as the X direction. The vertical direction is the Z direction. A grid-like mark 92 a is formed on the surface of the base 92 on the Z direction side. The mark 92a includes a line extending in the X direction and a line extending in the Y direction. The intervals between the lines are equally spaced, and symbols are formed at the intersections of the lines. And the coordinate of an intersection can be recognized by the symbol.

基台92の四隅には図中上下方向に延在する支柱93が立設されている。そして、支柱93の図中上側には矩形の枠の形状をした架橋部94が配置されている。架橋部94はX方向に配置された2本の第1梁94aとY方向に配置された2本の第2梁94bから構成されている。そして、各第1梁94aの中央には第1撮像装置95が配置されている。2台の第1撮像装置95は基台92のマーク92aが配置された面における総ての場所を撮影することができる。   At the four corners of the base 92, support columns 93 extending in the vertical direction in the figure are erected. A bridging portion 94 having a rectangular frame shape is disposed on the upper side of the column 93 in the drawing. The bridge portion 94 is composed of two first beams 94a arranged in the X direction and two second beams 94b arranged in the Y direction. And the 1st imaging device 95 is arrange | positioned in the center of each 1st beam 94a. The two first imaging devices 95 can photograph all locations on the surface on which the mark 92a of the base 92 is disposed.

2本の第2梁94bの図中上側の面にはY方向に延在する縦行レール96が配置されている。そして、2本の縦行レール96上にクレーンガーダ97が配置されている。クレーンガーダ97の内部には駆動部としての走行装置98が配置されている。走行装置98はモーター、ロータリーエンコーダー、減速ギア、車輪等から構成されている。モーターの回転軸が減速ギアに接続され、減速ギアの出力軸が車輪に接続されている。車輪は縦行レール96上に配置され、車輪は縦行レール96上を移動する。モーターを回転させることにより、車輪が縦行レール96上を移動する。そして、クレーンガーダ97が縦行レール96上を走行する。モーターにはロータリーエンコーダーが設置されており、モーターの回転角度を検出することにより、走行装置98はクレーンガーダ97の移動量を検出することができる。クレーンガーダ97のX方向の両側には第1加速度センサー99が設置されている。そして、第1加速度センサー99はクレーンガーダ97の振動を検出する。   Longitudinal rails 96 extending in the Y direction are arranged on the upper surfaces of the two second beams 94b in the drawing. A crane girder 97 is disposed on the two longitudinal rails 96. A traveling device 98 as a drive unit is disposed inside the crane girder 97. The traveling device 98 includes a motor, a rotary encoder, a reduction gear, wheels, and the like. The rotation shaft of the motor is connected to the reduction gear, and the output shaft of the reduction gear is connected to the wheels. The wheels are arranged on the longitudinal rails 96 and the wheels move on the longitudinal rails 96. By rotating the motor, the wheel moves on the longitudinal rail 96. The crane girder 97 travels on the longitudinal rail 96. A rotary encoder is installed in the motor, and the traveling device 98 can detect the movement amount of the crane girder 97 by detecting the rotation angle of the motor. First acceleration sensors 99 are installed on both sides of the crane girder 97 in the X direction. The first acceleration sensor 99 detects the vibration of the crane girder 97.

クレーンガーダ97の図中上側には横行レール100がX方向に延在して配置されている。横行レール100の図中上側には台車101(トロリとも称す)が配置されている。台車101の内部にはクレーンガーダ97と同様の走行装置98が設置されており、台車101は横行レール100上をX方向に移動することが可能になっている。そして、台車101の走行装置98はロータリーエンコーダーを備えているので、走行装置98は台車101の移動量を検出することができる。さらに、台車101には第2加速度センサー102が設置されている。そして、第2加速度センサー102は台車101の振動を検出する。   On the upper side of the crane girder 97 in the figure, a traverse rail 100 is arranged extending in the X direction. A carriage 101 (also referred to as a trolley) is disposed on the upper side of the traverse rail 100 in the drawing. A traveling device 98 similar to the crane girder 97 is installed inside the carriage 101, and the carriage 101 can move on the traversing rail 100 in the X direction. Since the traveling device 98 of the carriage 101 includes a rotary encoder, the traveling device 98 can detect the movement amount of the carriage 101. Furthermore, a second acceleration sensor 102 is installed on the carriage 101. The second acceleration sensor 102 detects the vibration of the carriage 101.

台車101の図中下側にはワイヤー103を介して可動部としてのフックブロック104が配置されている。台車101の図中上側には駆動部としての巻上機105が配置され、巻上機105がワイヤー103を巻上げたり、送り出したりすることにより、フックブロック104を上下に移動することができる。巻上機105の内部には、モーター、ロータリーエンコーダー、減速ギア、プーリー等を備えている。モーターの回転軸が減速ギアに接続され、減速ギアの出力軸がプーリーに接続されている。そして、巻上機105はモーターを回転させることにより、巻上機105はワイヤー103を巻上げたり、送り出したりする。このとき、巻上機105はロータリーエンコーダーの出力を用いてフックブロック104の移動量を検出することができる。   A hook block 104 as a movable part is arranged via a wire 103 on the lower side of the carriage 101 in the figure. A hoisting machine 105 as a drive unit is disposed on the upper side of the carriage 101 in the drawing, and the hoisting machine 105 can move the hook block 104 up and down by winding and feeding the wire 103. The hoisting machine 105 includes a motor, a rotary encoder, a reduction gear, a pulley, and the like. The rotation shaft of the motor is connected to the reduction gear, and the output shaft of the reduction gear is connected to the pulley. Then, the hoisting machine 105 rotates the motor, so that the hoisting machine 105 winds or sends out the wire 103. At this time, the hoisting machine 105 can detect the amount of movement of the hook block 104 using the output of the rotary encoder.

フックブロック104にはフック104a、第2撮像装置106及び第3加速度センサー107が配置されている。第2撮像装置106はマーク92a及びフック104aを同時に撮影することにより、フック104aと所定の場所とのXY平面上の距離を検出することができる。第1撮像装置95においてもマーク92a及びフック104aを同時に撮影することにより、フック104aと所定の場所との距離を検出することができる。第3加速度センサー107はフックブロック104の振動を検出する。   On the hook block 104, a hook 104a, a second imaging device 106, and a third acceleration sensor 107 are arranged. The second imaging device 106 can detect the distance on the XY plane between the hook 104a and a predetermined place by photographing the mark 92a and the hook 104a simultaneously. Also in the first imaging device 95, the distance between the hook 104a and a predetermined place can be detected by simultaneously photographing the mark 92a and the hook 104a. The third acceleration sensor 107 detects the vibration of the hook block 104.

基台92の図中左側には位置制御装置としての制御装置108が配置されている。制御装置108はクレーンガーダ97、台車101、巻上機105を制御する装置である。そして、フック104aを目標とする場所に移動して停止する制御を行う。詳しくは、制御装置108はクレーンガーダ97を駆動することによりフック104aをY方向に移動させる。さらに、制御装置108は台車101を駆動することによりフック104aをX方向に移動させる。さらに、制御装置108は巻上機105を駆動することによりフック104aをZ方向に移動させる。フック104aが移動する範囲は第1撮像装置95が撮影する範囲内となっている。制御装置108は、第1撮像装置95が撮影する画像を解析する画像演算部を備えている。そして、画像演算部は第1撮像装置95が撮影した画像を解析することにより、フック104aが位置する場所を算出することができる。   A control device 108 as a position control device is arranged on the left side of the base 92 in the drawing. The control device 108 is a device that controls the crane girder 97, the carriage 101, and the hoisting machine 105. Then, the hook 104a is moved to a target location and stopped. Specifically, the control device 108 drives the crane girder 97 to move the hook 104a in the Y direction. Further, the control device 108 drives the carriage 101 to move the hook 104a in the X direction. Further, the control device 108 drives the hoisting machine 105 to move the hook 104a in the Z direction. The range in which the hook 104a moves is within the range in which the first imaging device 95 captures images. The control device 108 includes an image calculation unit that analyzes an image captured by the first imaging device 95. The image calculation unit can calculate the location where the hook 104a is located by analyzing the image captured by the first imaging device 95.

制御装置108は第1の実施形態におけるロボット制御方法と同様の方法を用いてフック104aの位置制御を行う。つまり、制御装置108は第1移動工程と第2移動工程とを経てフック104aを移動させる。まず、第1移動工程において、制御装置108はクレーンガーダ97、台車101、フックブロック104を駆動してフック104aを目標の場所に近づける。このとき、制御装置108はロータリーエンコーダーの出力を用いてクレーンガーダ97、台車101、フックブロック104の移動量を制御する。さらに、制御装置108は第1加速度センサー99、第2加速度センサー102、第3加速度センサー107の出力を用いてクレーンガーダ97、台車101、フックブロック104の振動を抑制させる制御を行う。   The control device 108 controls the position of the hook 104a using a method similar to the robot control method in the first embodiment. That is, the control device 108 moves the hook 104a through the first movement process and the second movement process. First, in the first movement process, the control device 108 drives the crane girder 97, the carriage 101, and the hook block 104 to bring the hook 104a closer to the target location. At this time, the control device 108 controls the movement amounts of the crane girder 97, the carriage 101, and the hook block 104 using the output of the rotary encoder. Further, the control device 108 performs control to suppress the vibration of the crane girder 97, the carriage 101, and the hook block 104 using the outputs of the first acceleration sensor 99, the second acceleration sensor 102, and the third acceleration sensor 107.

次に、第2移動工程において、制御装置108はクレーンガーダ97、台車101、フックブロック104を駆動してフック104aを目標の場所に移動する。このとき、制御装置108は第2撮像装置106の出力を用いてフック104aの場所を検出する。そして、制御装置108はクレーンガーダ97、台車101、フックブロック104を制御することにより、フック104aを目標とする場所へ移動させる。さらに、制御装置108は第1加速度センサー99、第2加速度センサー102、第3加速度センサー107の出力を用いてクレーンガーダ97、台車101、フックブロック104の振動を抑制させる制御を行う。   Next, in the second movement step, the control device 108 drives the crane girder 97, the carriage 101, and the hook block 104 to move the hook 104a to a target location. At this time, the control device 108 detects the location of the hook 104 a using the output of the second imaging device 106. And the control apparatus 108 moves the hook 104a to the target place by controlling the crane girder 97, the trolley | bogie 101, and the hook block 104. FIG. Further, the control device 108 performs control to suppress the vibration of the crane girder 97, the carriage 101, and the hook block 104 using the outputs of the first acceleration sensor 99, the second acceleration sensor 102, and the third acceleration sensor 107.

上述したように、本実施形態によれば、以下の効果を有する。
(1)本実施形態によれば、制御装置108は第1移動工程と第2移動工程とを経て可動部を移動させる制御を行っている。第1移動工程ではクレーンガーダ97、台車101、フックブロック104の移動量を検出して、クレーンガーダ97、台車101、フックブロック104の移動量を制御する。そして、第2移動工程ではフック104aの場所を検出して、フック104aの場所を制御している。第1移動工程で検出する移動量の情報は第2移動工程にて検出する場所の情報に比べて情報量が少ないので、第1移動工程では第2移動工程より早く制御のための演算を行うことができる。従って、第1移動工程では第2移動工程より早くクレーンガーダ97、台車101、フックブロック104を移動させる制御を行うことができる。そして、第2移動工程ではフック104aの場所と目標の場所とを検出してクレーンガーダ97、台車101、フックブロック104を制御する。従って、フック104aを確実に目標とする場所に移動することができる。
As described above, this embodiment has the following effects.
(1) According to the present embodiment, the control device 108 performs control to move the movable part through the first movement process and the second movement process. In the first movement process, the movement amounts of the crane girder 97, the carriage 101, and the hook block 104 are detected, and the movement amounts of the crane girder 97, the carriage 101, and the hook block 104 are controlled. In the second movement step, the location of the hook 104a is detected and the location of the hook 104a is controlled. Since the information on the amount of movement detected in the first movement process is smaller than the information on the location detected in the second movement process, the calculation for control is performed earlier in the first movement process than in the second movement process. be able to. Therefore, in the first movement process, it is possible to perform control to move the crane girder 97, the carriage 101, and the hook block 104 earlier than in the second movement process. In the second movement step, the location of the hook 104a and the target location are detected, and the crane girder 97, the carriage 101, and the hook block 104 are controlled. Therefore, the hook 104a can be reliably moved to the target location.

(2)本実施形態によれば、制御装置108がフック104aの位置を精度良く制御できる。従って、このクレーン91は品質良く動作することができる。   (2) According to the present embodiment, the control device 108 can accurately control the position of the hook 104a. Therefore, the crane 91 can operate with high quality.

(第7の実施形態)
次に、IC(Integrated Circuit)テストハンドラーの一実施形態について図12を用いて説明する。本実施形態におけるICテストハンドラーは第1の実施形態におけるロボットの制御方法と同様の制御方法が用いられている。尚、第1の実施形態と同じ点については説明を省略し、異なる点のみ記載する。その他の点は第1の実施形態と同様である。
(Seventh embodiment)
Next, an embodiment of an IC (Integrated Circuit) test handler will be described with reference to FIG. The IC test handler in this embodiment uses the same control method as the robot control method in the first embodiment. Note that description of the same points as in the first embodiment is omitted, and only different points are described. The other points are the same as in the first embodiment.

図12は、ICテストハンドラーの構成を示す概略斜視図である。図12に示すように、ロボットとしてのICテストハンドラー111は主に、トレイ搬送用ロボット112、デバイス供給用ロボット113、デバイス供給用シャトル114、デバイス測定用ロボット115、デバイス分類ロボット116及びこれらの装置を制御する制御装置118等から構成されている。そして、制御装置118以外の装置が外装117内に配置され、外装117の図中左側に制御装置118が配置されている。   FIG. 12 is a schematic perspective view showing the configuration of the IC test handler. As shown in FIG. 12, the IC test handler 111 as a robot mainly includes a tray transfer robot 112, a device supply robot 113, a device supply shuttle 114, a device measurement robot 115, a device classification robot 116, and these apparatuses. It is comprised from the control apparatus 118 etc. which control. A device other than the control device 118 is disposed in the exterior 117, and the control device 118 is disposed on the left side of the exterior 117 in the figure.

トレイ搬送用ロボット112はトレイ119を移動する装置である。トレイ搬送用ロボット112は、IC120が配置されたトレイ119をデバイス供給用ロボット113に供給する。そして、デバイス供給用ロボット113はトレイ119に配置されたIC120をデバイス供給用シャトル114に供給する装置である。デバイス供給用ロボット113がIC120を移動した後、IC120が空になったトレイ119をトレイ搬送用ロボット112が移動する。次に、トレイ搬送用ロボット112は、IC120が配置されたトレイ119をデバイス供給用ロボット113に供給する。   The tray transfer robot 112 is a device that moves the tray 119. The tray transfer robot 112 supplies the tray 119 on which the IC 120 is disposed to the device supply robot 113. The device supply robot 113 is an apparatus for supplying the IC 120 arranged on the tray 119 to the device supply shuttle 114. After the device supply robot 113 moves the IC 120, the tray transfer robot 112 moves on the tray 119 where the IC 120 is empty. Next, the tray transfer robot 112 supplies the device supply robot 113 with the tray 119 on which the IC 120 is arranged.

デバイス供給用シャトル114はトレイ119からIC120を取り出して、デバイス測定用ロボット115に供給する装置である。デバイス供給用シャトル114はIC120をデバイス測定用ロボット115と対向する場所に移動させる。そして、デバイス測定用ロボット115がIC120を吸着する。デバイス測定用ロボット115はIC120の電気特性を検査する図示しない検査装置と電気的に接続されている。IC120には複数の入力端子及び出力端子が形成されている。そして、デバイス測定用ロボット115はIC120の入力端子へ信号を入力し、出力端子から出力される信号を検査装置に送信する。   The device supply shuttle 114 is a device that takes out the IC 120 from the tray 119 and supplies it to the device measurement robot 115. The device supply shuttle 114 moves the IC 120 to a location facing the device measurement robot 115. Then, the device measuring robot 115 sucks the IC 120. The device measuring robot 115 is electrically connected to an inspection apparatus (not shown) that inspects the electrical characteristics of the IC 120. The IC 120 has a plurality of input terminals and output terminals. The device measuring robot 115 inputs a signal to the input terminal of the IC 120 and transmits a signal output from the output terminal to the inspection apparatus.

次に、デバイス測定用ロボット115は、検査が終了したIC120をデバイス供給用シャトル114に配置する。デバイス供給用シャトル114は検査が終了したIC120をデバイス分類ロボット116に供給する。デバイス分類ロボット116は、検査装置が出力するIC120の検査結果の信号を用いてIC120を分類する装置である。デバイス分類ロボット116はデバイス供給用シャトル114からIC120をトレイ119に移動する。このとき、デバイス分類ロボット116は検査装置が出力する検査結果の信号にもとづいて、IC120をトレイ119内の所定の場所に分類して配置する。   Next, the device measurement robot 115 places the IC 120 that has been inspected on the device supply shuttle 114. The device supply shuttle 114 supplies the IC 120 that has been inspected to the device classification robot 116. The device classification robot 116 is a device that classifies the IC 120 using a signal of an inspection result of the IC 120 output from the inspection device. The device classification robot 116 moves the IC 120 from the device supply shuttle 114 to the tray 119. At this time, the device classification robot 116 classifies and arranges the IC 120 at a predetermined location in the tray 119 based on the inspection result signal output from the inspection apparatus.

トレイ119内にIC120が配置された後、トレイ搬送用ロボット112はIC120が配置されたトレイ119を移動し、IC120が配置されていないトレイ119をデバイス分類ロボット116に供給する。   After the IC 120 is placed in the tray 119, the tray transfer robot 112 moves the tray 119 on which the IC 120 is placed, and supplies the tray 119 on which the IC 120 is not placed to the device classification robot 116.

トレイ搬送用ロボット112は1方向に長く形成された案内レール121を備えている。案内レール121が延在する方向をY方向とする。そして、水平面上にてY方向と直交する方向をX方向とし、鉛直方向をZ方向とする。トレイ搬送用ロボット112は案内レール121に沿って移動する可動部としての移動テーブル122を備えている。移動テーブル122の内部には駆動部としての直動機構が配置されている。案内レール121にはリニアエンコーダーが配置され、移動テーブル122にはリニアエンコーダーに形成された目盛りを検出するエンコーダー検出器が配置されている。制御装置118はこのエンコーダー検出器の出力を用いて移動テーブル122の移動量を検出することができる。移動テーブル122のX方向側の面にはX方向に伸縮する腕部123が配置されている。そして、腕部123の図中下側には把持部124が配置されている。把持部124は一対の指部と指部の間隔を変更する直動機構とを有している。そして、指部がトレイ119を挟むことにより、把持部124はトレイ119を把持することができる。   The tray transfer robot 112 includes a guide rail 121 that is long in one direction. The direction in which the guide rail 121 extends is defined as the Y direction. A direction orthogonal to the Y direction on the horizontal plane is defined as an X direction, and a vertical direction is defined as a Z direction. The tray transfer robot 112 includes a moving table 122 as a movable portion that moves along the guide rail 121. A linear motion mechanism as a drive unit is arranged inside the moving table 122. A linear encoder is disposed on the guide rail 121, and an encoder detector that detects a scale formed on the linear encoder is disposed on the moving table 122. The control device 118 can detect the movement amount of the movement table 122 using the output of the encoder detector. An arm portion 123 that expands and contracts in the X direction is disposed on the surface of the moving table 122 on the X direction side. A grip 124 is disposed below the arm 123 in the figure. The grip portion 124 includes a pair of finger portions and a linear motion mechanism that changes the interval between the finger portions. Then, when the finger portion pinches the tray 119, the grip portion 124 can grip the tray 119.

把持部124には振動検出部及び慣性センサーとしての加速度センサー125及び撮像装置126が配置されている。制御装置118は加速度センサー125の出力を入力して把持部124の振動を検出し、把持部124の振動を抑制する制御を行う。   An acceleration sensor 125 and an imaging device 126 as a vibration detection unit and an inertial sensor are arranged on the grip unit 124. The control device 118 receives the output of the acceleration sensor 125, detects the vibration of the grip portion 124, and performs control to suppress the vibration of the grip portion 124.

制御装置118は目標とするトレイ119と対向する場所に把持部124を移動させる。このとき、制御装置118は第1の実施形態におけるロボット制御方法と同様の方法を用いて把持部124の位置制御を行う。つまり、制御装置118は第1移動工程と第2移動工程とを経て把持部124を移動させる。まず、第1移動工程において、制御装置118は移動テーブル122及び腕部123を駆動して把持部124を目標の場所に近づける。このとき、制御装置118はエンコーダー検出器の出力を用いて移動テーブル122の移動量を制御する。さらに、制御装置118は加速度センサー125の出力を用いて把持部124の振動を抑制させる制御を行う。   The control device 118 moves the grip portion 124 to a location facing the target tray 119. At this time, the control device 118 controls the position of the grip portion 124 by using a method similar to the robot control method in the first embodiment. That is, the control device 118 moves the grip portion 124 through the first movement process and the second movement process. First, in the first movement step, the control device 118 drives the movement table 122 and the arm portion 123 to bring the grip portion 124 closer to the target location. At this time, the control device 118 controls the movement amount of the movement table 122 using the output of the encoder detector. Further, the control device 118 performs control to suppress the vibration of the grip portion 124 using the output of the acceleration sensor 125.

次に、第2移動工程において、制御装置118は移動テーブル122及び腕部123を駆動して把持部124を目標の場所に移動させる。このとき、制御装置118は撮像装置126の出力を用いて把持部124の場所を検出する。そして、制御装置118は移動テーブル122及び腕部123の移動を制御することにより、把持部124を目標とする場所へ移動させる。このとき、制御装置118は加速度センサー125の出力を用いて把持部124の振動を抑制させる制御を行う。   Next, in the second movement step, the control device 118 drives the movement table 122 and the arm portion 123 to move the grip portion 124 to a target location. At this time, the control device 118 detects the location of the grip portion 124 using the output of the imaging device 126. And the control apparatus 118 moves the holding part 124 to the target place by controlling the movement of the movement table 122 and the arm part 123. FIG. At this time, the control device 118 performs control to suppress the vibration of the grip portion 124 using the output of the acceleration sensor 125.

外装117の上側には撮像装置126が配置されている。そして、撮像装置126は外装117内に配置された装置とトレイ119を撮影する。制御装置118は撮影された画像を用いてトレイ119の場所や各装置の位置や状況を検出することができる。   An imaging device 126 is disposed above the exterior 117. Then, the imaging device 126 images the device and the tray 119 disposed in the exterior 117. The control device 118 can detect the location of the tray 119 and the position and status of each device using the captured image.

デバイス供給用ロボット113はX方向に長く形成された案内レール127を備えている。デバイス供給用ロボット113は案内レール127に沿って移動する可動部としての移動テーブル128を備えている。移動テーブル128の内部には駆動部としての直動機構が配置されている。案内レール127にはリニアエンコーダーが配置され、移動テーブル128にはリニアエンコーダーに形成された目盛りを検出するエンコーダー検出器が配置されている。制御装置118はこのエンコーダー検出器の出力を用いて移動テーブル128の移動量を検出することができる。移動テーブル128の図中下方向にはZ方向に伸縮する吸着部129が配置されている。吸着部129はZ方向に伸縮する直動機構とIC120を吸着する真空チャックを備えている。そして、制御装置118はトレイ119内のIC120に吸着部129を押圧したあと真空チャックを作動させることにより、吸着部129にIC120を吸着させることができる。   The device supply robot 113 includes a guide rail 127 formed long in the X direction. The device supply robot 113 includes a moving table 128 as a movable portion that moves along the guide rail 127. A linear motion mechanism as a drive unit is arranged inside the moving table 128. A linear encoder is disposed on the guide rail 127, and an encoder detector that detects a scale formed on the linear encoder is disposed on the moving table 128. The control device 118 can detect the amount of movement of the moving table 128 using the output of the encoder detector. A suction part 129 that expands and contracts in the Z direction is arranged in the lower direction of the moving table 128 in the figure. The suction unit 129 includes a linear motion mechanism that expands and contracts in the Z direction and a vacuum chuck that sucks the IC 120. The control device 118 can cause the suction unit 129 to suck the IC 120 by operating the vacuum chuck after pressing the suction unit 129 against the IC 120 in the tray 119.

移動テーブル128には加速度センサー125及び撮像装置126が配置されている。制御装置118は加速度センサー125の出力を入力して移動テーブル128の振動を検出し、把持部124の振動を抑制する制御を行う。   An acceleration sensor 125 and an imaging device 126 are arranged on the moving table 128. The control device 118 receives the output of the acceleration sensor 125, detects the vibration of the moving table 128, and performs control to suppress the vibration of the grip portion 124.

制御装置118は目標とするIC120と対向する場所に吸着部129を移動させる。このとき、制御装置118は第1の実施形態におけるロボット制御方法と同様の方法を用いて吸着部129の位置制御を行う。つまり、制御装置118は第1移動工程と第2移動工程とを経て吸着部129を移動させる。まず、第1移動工程において、制御装置118は移動テーブル128を駆動して吸着部129を目標の場所に近づける。このとき、制御装置118はエンコーダー検出器の出力を用いて移動テーブル128の移動量を制御する。さらに、制御装置118は加速度センサー125の出力を用いて移動テーブル128の振動を抑制させる制御を行う。   The control device 118 moves the suction unit 129 to a location facing the target IC 120. At this time, the control device 118 controls the position of the suction unit 129 using a method similar to the robot control method in the first embodiment. That is, the control device 118 moves the suction unit 129 through the first movement process and the second movement process. First, in the first movement process, the control device 118 drives the movement table 128 to bring the suction unit 129 closer to the target location. At this time, the control device 118 controls the movement amount of the movement table 128 using the output of the encoder detector. Furthermore, the control device 118 performs control to suppress the vibration of the moving table 128 using the output of the acceleration sensor 125.

次に、第2移動工程において、制御装置118は移動テーブル128を駆動して吸着部129を目標の場所に移動させる。このとき、制御装置118は撮像装置126の出力を用いて吸着部129の場所を検出する。そして、制御装置118は移動テーブル128の移動を制御することにより、吸着部129を目標とする場所へ移動させる。このとき、制御装置118は加速度センサー125の出力を用いて移動テーブル128の振動を抑制させる制御を行う。   Next, in the second movement step, the control device 118 drives the movement table 128 to move the suction unit 129 to the target location. At this time, the control device 118 detects the location of the suction unit 129 using the output of the imaging device 126. And the control apparatus 118 moves the adsorption | suction part 129 to the target place by controlling the movement of the movement table 128. FIG. At this time, the control device 118 performs control to suppress the vibration of the moving table 128 using the output of the acceleration sensor 125.

デバイス分類ロボット116とデバイス供給用ロボット113とは同様の構造であり、デバイス分類ロボット116の説明を省略する。そして、制御装置118はデバイス分類ロボット116を駆動するとき、デバイス供給用ロボット113を駆動するときと同様の方法を用いて吸着部129を移動させる。   The device classification robot 116 and the device supply robot 113 have the same structure, and the description of the device classification robot 116 is omitted. Then, when driving the device classification robot 116, the control device 118 moves the suction unit 129 using the same method as when driving the device supply robot 113.

デバイス供給用シャトル114はY方向に長く形成された案内レール132と案内レール132に沿って移動する可動部としての移動テーブル133とを備えている。移動テーブル133の内部には駆動部としての直動機構が配置されている。案内レール132にはリニアエンコーダーが配置され、移動テーブル133にはリニアエンコーダーに形成された目盛りを検出するエンコーダー検出器が配置されている。制御装置118はこのエンコーダー検出器の出力を用いて移動テーブル133の移動量を検出することができる。移動テーブル133の上面にはIC120を吸着する真空チャックを備えている。そして、制御装置118は移動テーブル133の上面にIC120に吸着した後、移動テーブル133を移動させることにより、IC120を確実に移動させることができる。   The device supply shuttle 114 includes a guide rail 132 formed long in the Y direction and a moving table 133 as a movable portion that moves along the guide rail 132. A linear motion mechanism as a drive unit is arranged inside the moving table 133. A linear encoder is disposed on the guide rail 132, and an encoder detector that detects a scale formed on the linear encoder is disposed on the moving table 133. The control device 118 can detect the movement amount of the movement table 133 using the output of the encoder detector. A vacuum chuck for attracting the IC 120 is provided on the upper surface of the moving table 133. Then, the controller 118 can move the IC 120 reliably by moving the moving table 133 after adsorbing the IC 120 to the upper surface of the moving table 133.

移動テーブル133には加速度センサー125が配置されている。制御装置118は加速度センサー125の出力を入力して移動テーブル133の振動を検出し、把持部124の振動を抑制する制御を行う。   An acceleration sensor 125 is arranged on the moving table 133. The control device 118 receives the output of the acceleration sensor 125, detects the vibration of the moving table 133, and performs control to suppress the vibration of the grip portion 124.

案内レール132の図中上側で案内レール132と対向する場所には撮像装置126が2台配置されている。そして、撮像装置126は移動テーブル133を撮影する。案内レール132上には移動テーブル133が停止する目標とする場所に図示しないマークが形成されている。そして、撮像装置126はこのマークと移動テーブル133とを同一の画像に撮影することにより、マークと移動テーブル133との距離を検出することができる。   Two imaging devices 126 are arranged at a position facing the guide rail 132 on the upper side of the guide rail 132 in the drawing. Then, the imaging device 126 images the moving table 133. On the guide rail 132, a mark (not shown) is formed at a target location where the moving table 133 stops. The imaging device 126 can detect the distance between the mark and the movement table 133 by photographing the mark and the movement table 133 in the same image.

制御装置118はIC120を目標とする場所に移動させる。このとき、制御装置118は第1の実施形態におけるロボット制御方法と同様の方法を用いて吸着部129の位置制御を行う。つまり、制御装置118は第1移動工程と第2移動工程とを経て吸着部129を移動させる。まず、第1移動工程において、制御装置118は移動テーブル133を移動させて目標の場所に近づける。このとき、制御装置118はエンコーダー検出器の出力を用いて移動テーブル133の移動量を制御する。さらに、制御装置118は加速度センサー125の出力を用いて移動テーブル133の振動を抑制させる制御を行う。   The control device 118 moves the IC 120 to a target location. At this time, the control device 118 controls the position of the suction unit 129 using a method similar to the robot control method in the first embodiment. That is, the control device 118 moves the suction unit 129 through the first movement process and the second movement process. First, in the first movement step, the control device 118 moves the movement table 133 so as to approach the target location. At this time, the control device 118 controls the movement amount of the movement table 133 using the output of the encoder detector. Further, the control device 118 performs control to suppress the vibration of the moving table 133 using the output of the acceleration sensor 125.

次に、第2移動工程において、制御装置118は移動テーブル133を目標の場所に移動させる。このとき、制御装置118は撮像装置126の出力を用いて移動テーブル133の場所を検出する。そして、制御装置118は移動テーブル133の移動を制御することにより、移動テーブル133を目標とする場所へ移動させる。このとき、制御装置118は加速度センサー125の出力を用いて移動テーブル133の振動を抑制させる制御を行う。   Next, in the second movement process, the control device 118 moves the movement table 133 to a target location. At this time, the control device 118 detects the location of the movement table 133 using the output of the imaging device 126. Then, the control device 118 controls the movement of the movement table 133 to move the movement table 133 to a target location. At this time, the control device 118 performs control to suppress the vibration of the moving table 133 using the output of the acceleration sensor 125.

デバイス測定用ロボット115はY方向に長く形成された案内レール134と案内レール134に沿って移動する可動部としての移動テーブル135を備えている。移動テーブル135の内部には駆動部としての直動機構が配置されている。案内レール134にはリニアエンコーダーが配置され、移動テーブル135にはリニアエンコーダーに形成された目盛りを検出するエンコーダー検出器が配置されている。制御装置118はこのエンコーダー検出器の出力を用いて移動テーブル135の移動量を検出することができる。移動テーブル135の図中下方向にはZ方向に伸縮する吸着部136が配置されている。吸着部136はZ方向に伸縮する直動機構とIC120を吸着する真空チャックを備えている。そして、制御装置118は移動テーブル135上のIC120に吸着部136を押圧したあと真空チャックを作動させることにより、吸着部136にIC120を吸着させることができる。吸着部136はIC120と電気信号を送受信する電極を備えている。デバイス測定用ロボット115はこの電極を通じてIC120に電気信号を送受信することにより、IC120の電気特性を検査する。   The device measuring robot 115 includes a guide rail 134 formed long in the Y direction and a moving table 135 as a movable portion that moves along the guide rail 134. A linear motion mechanism as a drive unit is disposed inside the moving table 135. A linear encoder is disposed on the guide rail 134, and an encoder detector that detects a scale formed on the linear encoder is disposed on the moving table 135. The control device 118 can detect the amount of movement of the moving table 135 using the output of the encoder detector. A suction portion 136 that extends and contracts in the Z direction is disposed in the lower direction of the moving table 135 in the drawing. The suction unit 136 includes a linear motion mechanism that expands and contracts in the Z direction and a vacuum chuck that sucks the IC 120. The control device 118 can cause the suction unit 136 to suck the IC 120 by operating the vacuum chuck after pressing the suction unit 136 against the IC 120 on the moving table 135. The suction unit 136 includes electrodes that transmit and receive electrical signals to and from the IC 120. The device measuring robot 115 inspects the electrical characteristics of the IC 120 by transmitting and receiving electrical signals to and from the IC 120 through the electrodes.

移動テーブル135には加速度センサー125及び撮像装置126が配置されている。制御装置118は加速度センサー125の出力を入力して移動テーブル135の振動を検出し、移動テーブル128の振動を抑制する制御を行う。   An acceleration sensor 125 and an imaging device 126 are arranged on the moving table 135. The control device 118 receives the output of the acceleration sensor 125, detects the vibration of the moving table 135, and performs control to suppress the vibration of the moving table 128.

制御装置118は目標とするIC120と対向する場所に吸着部136を移動させる。このとき、制御装置118は第1の実施形態におけるロボット制御方法と同様の方法を用いて吸着部136の位置制御を行う。つまり、制御装置118は、第1移動工程と第2移動工程とを経て吸着部136を移動させる。まず、第1移動工程において、制御装置118は移動テーブル135を駆動して吸着部136を目標の場所に近づける。このとき、制御装置118はエンコーダー検出器の出力を用いて移動テーブル135の移動量を制御する。さらに、制御装置118は加速度センサー125の出力を用いて移動テーブル135の振動を抑制させる制御を行う。   The control device 118 moves the suction unit 136 to a place facing the target IC 120. At this time, the control device 118 controls the position of the suction unit 136 using a method similar to the robot control method in the first embodiment. That is, the control device 118 moves the suction unit 136 through the first movement process and the second movement process. First, in the first movement process, the control device 118 drives the movement table 135 to bring the suction unit 136 closer to the target location. At this time, the control device 118 controls the movement amount of the movement table 135 using the output of the encoder detector. Further, the control device 118 performs control to suppress the vibration of the moving table 135 using the output of the acceleration sensor 125.

次に、第2移動工程において、制御装置118は移動テーブル135を駆動して吸着部136を目標の場所に移動させる。このとき、制御装置118は撮像装置126の出力を用いて吸着部136の場所を検出する。そして、制御装置118は移動テーブル135に配置された撮像装置126の出力を用いて移動テーブル135の移動を制御することにより、吸着部136を目標とする場所へ移動させる。このとき、制御装置118は加速度センサー125の出力を用いて移動テーブル135の振動を抑制させる制御を行う。   Next, in the second movement step, the control device 118 drives the movement table 135 to move the suction unit 136 to a target location. At this time, the control device 118 detects the location of the suction unit 136 using the output of the imaging device 126. Then, the control device 118 controls the movement of the movement table 135 using the output of the imaging device 126 arranged on the movement table 135, thereby moving the suction unit 136 to a target location. At this time, the control device 118 performs control to suppress the vibration of the moving table 135 using the output of the acceleration sensor 125.

(1)本実施形態によれば、制御装置118が把持部124、移動テーブル128,133,135の位置を精度良く制御できる。従って、ICテストハンドラー111は品質良く動作することができる。   (1) According to this embodiment, the control device 118 can accurately control the positions of the grip portion 124 and the movement tables 128, 133, and 135. Therefore, the IC test handler 111 can operate with high quality.

(2)本実施形態によれば、制御装置118が把持部124、移動テーブル128,133,135の振動を抑制している。従って、制御装置118は把持部124、移動テーブル128,133,135を移動させた後、制御装置118は次に行う動作に早く移行することができる。その結果、ICテストハンドラー111は生産性良く動作することができる。   (2) According to this embodiment, the control device 118 suppresses vibrations of the grip portion 124 and the movement tables 128, 133, and 135. Therefore, after the control device 118 moves the grip portion 124 and the movement tables 128, 133, and 135, the control device 118 can quickly shift to the next operation. As a result, the IC test handler 111 can operate with high productivity.

(比較例)
次に、制御方法に対応する可動部の挙動を比較した比較例について図13を用いて説明する。本比較例では第1の実施形態におけるロボット制御方法の形態を用いて説明する。尚、第1の実施形態と同じ点については説明を省略し、異なる点のみ記載する。その他の点は第1の実施形態と同様である。
(Comparative example)
Next, a comparative example in which the behavior of the movable part corresponding to the control method is compared will be described with reference to FIG. This comparative example will be described using the robot control method according to the first embodiment. Note that description of the same points as in the first embodiment is omitted, and only different points are described. The other points are the same as in the first embodiment.

図13(a)は、制御装置32が第1角度検出器6及び第2角度検出器12を用いて手部16を目標地点に移動させるときに、手部が目標の場所に移動する推移を示すタイムチャートである。図13において、縦軸は手部16と目標地点との距離を示している。縦軸の上側は下側より目標地点より離れている場所を示す。横軸は時間の経過を示し、時間は左から右へ推移する。   FIG. 13A shows the transition of the hand portion to the target location when the control device 32 moves the hand portion 16 to the target location using the first angle detector 6 and the second angle detector 12. It is a time chart which shows. In FIG. 13, the vertical axis indicates the distance between the hand portion 16 and the target point. The upper side of the vertical axis indicates a place farther from the target point than the lower side. The horizontal axis shows the passage of time, and the time changes from left to right.

図13(a)において手部位置推移線139は手部16が目標地点に接近する様子を示している。手部16が移動して停止するまでの時間を3つの区間に分割する。まず、第1区間139aは手部16が目標地点に接近する区間である。制御装置32は第1角度検出器6及び第2角度検出器12の出力を用いて目標地点に手部16を移動させる区間である。第1区間139aでは手部位置推移線139は円弧状の曲線となっている。   In FIG. 13A, the hand position transition line 139 shows the hand 16 approaching the target point. The time until the hand 16 moves and stops is divided into three sections. First, the first section 139a is a section in which the hand portion 16 approaches the target point. The control device 32 is a section in which the hand 16 is moved to the target point using the outputs of the first angle detector 6 and the second angle detector 12. In the first section 139a, the hand position transition line 139 is an arcuate curve.

第2区間139bにおいて、制御装置32は手部16の移動を停止する。そのとき、第1腕部8、第2腕部13、昇降装置14等の可動部が振動するので、手部位置推移線139は振動した曲線となっている。第3区間139cでは手部16の振動が収束している。従って、手部位置推移線139は直線となる。このとき、第1腕部8、第2腕部13等の可動部が熱等により変形したり、手部16が把持するワークの重量により撓むことがある。手部16の位置はこれらの影響を受けるので、手部位置推移線139は目標地点の間の差分139dが生じている。   In the second section 139b, the control device 32 stops the movement of the hand portion 16. At that time, since the movable parts such as the first arm part 8, the second arm part 13, and the lifting device 14 vibrate, the hand position transition line 139 is a vibrating curve. In the third section 139c, the vibration of the hand portion 16 converges. Therefore, the hand position transition line 139 is a straight line. At this time, the movable parts such as the first arm part 8 and the second arm part 13 may be deformed by heat or the like, or may be bent due to the weight of the work gripped by the hand part 16. Since the position of the hand portion 16 is affected by these, a difference 139d between the target points is generated in the hand position transition line 139.

図13(b)は、制御装置32が第1角度検出器6、第2角度検出器12及び第1撮像装置18、を用いて手部16を目標地点に移動させるときに手部16が目標の場所に移動する推移を示すタイムチャートである。図13(b)において手部位置推移線140は手部16が目標地点に接近する様子を示している。手部16が移動して停止するまでの時間を3つの区間に分割する。まず、第1区間140aは手部16が目標地点に接近する区間である。制御装置32は第1角度検出器6及び第2角度検出器12の出力を用いて目標地点に手部16を移動させる区間である。第1区間140aでは手部位置推移線140は円弧状の曲線となっている。   FIG. 13B shows that when the control device 32 moves the hand portion 16 to the target point using the first angle detector 6, the second angle detector 12, and the first imaging device 18, the hand portion 16 is set to the target position. It is a time chart which shows the transition which moves to this place. In FIG. 13B, the hand position transition line 140 shows the hand 16 approaching the target point. The time until the hand 16 moves and stops is divided into three sections. First, the first section 140a is a section in which the hand portion 16 approaches the target point. The control device 32 is a section in which the hand 16 is moved to the target point using the outputs of the first angle detector 6 and the second angle detector 12. In the first section 140a, the hand position transition line 140 is an arcuate curve.

第2区間140bにおいて、制御装置32は手部16の移動を停止する。そのとき、第1腕部8、第2腕部13、昇降装置14等の可動部が振動するので、手部位置推移線140は振動した曲線となっている。第1区間140a及び第2区間140bにおける手部位置推移線140は手部位置推移線139と同じ曲線となっている。第3区間140cにおいて制御装置32は第1撮像装置18に手部16と目標地点とを撮影させる。そして、手部16と目標地点との差分140dを検出する。次に、制御装置32は手部16を目標地点に移動させる。その結果、手部16は目標地点に位置することができる。   In the second section 140b, the control device 32 stops the movement of the hand portion 16. At this time, since the movable parts such as the first arm part 8, the second arm part 13, and the lifting device 14 vibrate, the hand position transition line 140 is a vibrating curve. The hand position transition line 140 in the first section 140a and the second section 140b is the same curve as the hand position transition line 139. In the third section 140c, the control device 32 causes the first imaging device 18 to photograph the hand portion 16 and the target point. Then, a difference 140d between the hand portion 16 and the target point is detected. Next, the control device 32 moves the hand portion 16 to the target point. As a result, the hand portion 16 can be located at the target point.

図13(c)は、制御装置32が第1角度検出器6、第2角度検出器12、第1撮像装置18、第1角速度センサー9及び第2角速度センサー17を用いて手部16を目標地点に移動させるときに手部が目標の場所に移動する推移を示すタイムチャートである。図13(c)において手部位置推移線141は手部16が目標地点に接近する様子を示している。   In FIG. 13C, the control device 32 targets the hand portion 16 using the first angle detector 6, the second angle detector 12, the first imaging device 18, the first angular velocity sensor 9, and the second angular velocity sensor 17. It is a time chart which shows transition in which a hand moves to a target place when making it move to a point. In FIG.13 (c), the hand part transition line 141 has shown the mode that the hand part 16 approaches a target point.

手部16が移動して停止するまでの時間を2つの区間に分割する。まず、第1区間141aは手部16が目標地点に接近する区間である。この区間では制御装置32が第1角度検出器6及び第2角度検出器12の出力を用いて目標地点に手部16を移動させる。第1の実施形態におけるステップS1の第1移動工程に相当する。そして、ステップS2の振動抑制工程が並行して行われる。制御装置32は第1角速度センサー9及び第2角速度センサー17の出力を用いて手部16の振動を抑制させる。従って、手部位置推移線141は振動せずに第1区間141aから第2区間141bに移行する。   The time until the hand 16 moves and stops is divided into two sections. First, the first section 141a is a section in which the hand portion 16 approaches the target point. In this section, the control device 32 moves the hand 16 to the target point using the outputs of the first angle detector 6 and the second angle detector 12. This corresponds to the first movement step of step S1 in the first embodiment. And the vibration suppression process of step S2 is performed in parallel. The control device 32 suppresses the vibration of the hand portion 16 using the outputs of the first angular velocity sensor 9 and the second angular velocity sensor 17. Therefore, the hand position transition line 141 shifts from the first section 141a to the second section 141b without vibrating.

第2区間141bでは制御装置32は第1撮像装置18に手部16と目標地点とを撮影させる。そして、手部16と目標地点との差分141cを検出する。このとき手部16は振動していないので、第1撮像装置18が撮影する画像はボケの少ない画像となっている。従って、手部16と目標地点との差分141cを精度良く検出することができる。次に、制御装置32は手部16を目標地点に移動させる。その結果、手部16は目標地点に位置することができる。このステップは第1の実施形態におけるステップS4の第2移動工程に相当する。そして、ステップS5の振動抑制工程が並行して行われる。   In the second section 141b, the control device 32 causes the first imaging device 18 to photograph the hand portion 16 and the target point. Then, a difference 141c between the hand portion 16 and the target point is detected. At this time, since the hand portion 16 is not vibrated, the image captured by the first imaging device 18 is an image with less blur. Therefore, the difference 141c between the hand portion 16 and the target point can be detected with high accuracy. Next, the control device 32 moves the hand portion 16 to the target point. As a result, the hand portion 16 can be located at the target point. This step corresponds to the second moving step of step S4 in the first embodiment. And the vibration suppression process of step S5 is performed in parallel.

(1)本比較例によれば、第1撮像装置18が撮影する画像を用いて制御装置32が手部16の位置を制御している。従って、手部16の位置を精度良く制御できる。   (1) According to this comparative example, the control device 32 controls the position of the hand portion 16 using an image captured by the first imaging device 18. Therefore, the position of the hand portion 16 can be controlled with high accuracy.

(2)本比較例によれば、制御装置32が手部16の振動を抑制している。従って、制御装置32は第1区間141aから第2区間141bに早く移行することができる。その結果、手部16は早く目標地点に移動することができる。   (2) According to this comparative example, the control device 32 suppresses the vibration of the hand portion 16. Therefore, the control device 32 can quickly shift from the first section 141a to the second section 141b. As a result, the hand portion 16 can quickly move to the target point.

尚、本実施形態は上述した実施形態に限定されるものではなく、種々の変更や改良を加えることも可能である。変形例を以下に述べる。
(変形例1)
前記第1の実施形態では、第2角速度センサー17を昇降装置14に配置したが、手部16に配置しても良い。手部16に第2角速度センサー17を配置するとき第2角速度センサー17が障害とならない場合には手部16に第2角速度センサー17を配置しても良い。手部16の振動を抑制し易くすることができる。
In addition, this embodiment is not limited to embodiment mentioned above, A various change and improvement can also be added. A modification will be described below.
(Modification 1)
In the first embodiment, the second angular velocity sensor 17 is disposed on the lifting device 14, but may be disposed on the hand portion 16. When the second angular velocity sensor 17 is not obstructed when the second angular velocity sensor 17 is disposed on the hand portion 16, the second angular velocity sensor 17 may be disposed on the hand portion 16. The vibration of the hand portion 16 can be easily suppressed.

(変形例2)
前記第1の実施形態では、ロボット1に水平多関節ロボットを採用したが、ロボットの形態に限定されない。垂直多関節ロボット、直交ロボット、パラレルリンクロボット等各種の形態のロボットを採用することができる。そして、ロボットの腕部(アーム、リンクとも称す)が直線移動するときには角速度センサーに換えて慣性センサーとしての加速度センサーを用いても良い。腕部が直線移動するときにも振動を検出することができる。さらに、第1角度検出器6及び第2角度検出器12に換えてリニアエンコーダーを用いても良い。腕部が直線移動するときにも腕部の移動量を精度良く検出することができる。
(Modification 2)
In the first embodiment, a horizontal articulated robot is adopted as the robot 1, but the present invention is not limited to the form of the robot. Various types of robots such as vertical articulated robots, orthogonal robots, and parallel link robots can be employed. Then, when the robot arm (also referred to as an arm or link) moves linearly, an acceleration sensor as an inertial sensor may be used instead of the angular velocity sensor. Vibration can also be detected when the arm moves linearly. Furthermore, a linear encoder may be used in place of the first angle detector 6 and the second angle detector 12. Even when the arm moves linearly, the amount of movement of the arm can be accurately detected.

(変形例3)
前記第1の実施形態では、マーク29は2つの直線が交差した図形としたが、これに限らない。マーク29は位置が検出可能な図形であれば良い。例えば、円形、多角形、角部、凹凸等を採用することができる。他にも、繰り返しパターンと記号等の場所を識別するマークを組み合わせても良い。さらに、色の異なるマークを用いてマークを識別しても良い。
(Modification 3)
In the first embodiment, the mark 29 is a figure in which two straight lines intersect, but the present invention is not limited to this. The mark 29 may be a graphic whose position can be detected. For example, a circular shape, a polygonal shape, a corner portion, unevenness, or the like can be adopted. In addition, a repetitive pattern and a mark for identifying a place such as a symbol may be combined. Further, the mark may be identified using marks of different colors.

(変形例4)
前記第1の実施形態では、載置台21の内部に冷陰極管24を配置することにより、マーク29の形状に発光させた。マーク29を光らせる方法はこれに限らない。反射率の高い素材にてマーク29を形成して、マーク29に光を照射しても良い。そして、マーク29を反射する光を第1撮像装置18及び第2撮像装置31が撮影しても良い。他にも、冷陰極管24の代わりにLED(Light Emitting Diode)や蛍光灯を採用しても良い。
(Modification 4)
In the first embodiment, the cold cathode fluorescent lamp 24 is arranged inside the mounting table 21 to emit light in the shape of the mark 29. The method of making the mark 29 shine is not limited to this. The mark 29 may be formed of a material having high reflectance, and the mark 29 may be irradiated with light. Then, the first imaging device 18 and the second imaging device 31 may photograph the light reflected from the mark 29. In addition, instead of the cold cathode tube 24, an LED (Light Emitting Diode) or a fluorescent lamp may be employed.

(変形例5)
前記第1の実施形態では、ワーク22に位置検出マーク22aが配置され、位置検出マーク22aを用いてワーク22の位置を検出した。これに限らず、ワーク22の形状からワーク22の位置を検出しても良い。このとき、ワーク22に位置検出マーク22aを配置する必要がないので、生産性良くワーク22を生産することができる。
(Modification 5)
In the first embodiment, the position detection mark 22a is arranged on the work 22, and the position of the work 22 is detected using the position detection mark 22a. However, the position of the workpiece 22 may be detected from the shape of the workpiece 22. At this time, since it is not necessary to arrange the position detection mark 22a on the workpiece 22, the workpiece 22 can be produced with high productivity.

(変形例6)
前記第1の実施形態では、ステップS2の振動抑制工程とステップS5の振動抑制工程とを行ったが、手部16の振動が小さいときには省略しても良い。状況に応じて、ステップS2だけ省略しても良く、ステップS5だけ省略しても良い。さらに、ステップS2及びステップS5を省略しても良い。振動抑制工程を省略するとき、制御するためのエネルギーが不要となるので省エネルギーな制御をすることができる。
(Modification 6)
In the first embodiment, the vibration suppressing process of step S2 and the vibration suppressing process of step S5 are performed, but may be omitted when the vibration of the hand portion 16 is small. Depending on the situation, only step S2 may be omitted or only step S5 may be omitted. Further, step S2 and step S5 may be omitted. When the vibration suppressing step is omitted, energy for control is not necessary, and energy-saving control can be performed.

(変形例7)
前記第1の実施形態では、ステップS3のセンサー切替工程において、第2撮像装置31を用いて手部目標間距離66を検出したが、第1撮像装置18を用いて手部目標間距離66を検出しても良い。この場合にも、同様の効果を得ることができる。
(Modification 7)
In the first embodiment, the hand target distance 66 is detected using the second imaging device 31 in the sensor switching process of step S3. However, the hand target distance 66 is determined using the first imaging device 18. It may be detected. In this case, the same effect can be obtained.

(変形例8)
前記第1の実施形態では、第1撮像装置18が手部16とワーク22とを撮影して画像67を形成した。第1撮像装置18と手部16との相対位置が既知のとき、第1撮像装置18はワーク22のみ撮影しても良い。そして、画像演算部51が第1撮像装置18とワーク22との相対位置を検出し、ワーク位置演算部53が手部16とワーク22との相対位置を算出しても良い。第1撮像装置18が手部16を撮影しないように設定することにより、広い範囲を撮影することができる。
(Modification 8)
In the first embodiment, the first imaging device 18 images the hand portion 16 and the work 22 to form the image 67. When the relative position between the first imaging device 18 and the hand portion 16 is known, the first imaging device 18 may photograph only the workpiece 22. Then, the image calculation unit 51 may detect the relative position between the first imaging device 18 and the workpiece 22, and the workpiece position calculation unit 53 may calculate the relative position between the hand portion 16 and the workpiece 22. By setting so that the first imaging device 18 does not photograph the hand portion 16, a wide range can be photographed.

(変形例9)
前記第3の実施形態では、超音波受信機78、超音波送信機80及び超音波送信機81を用いて昇降装置14及びワーク22の位置を検出した。超音波以外にも光学式センサーを用いて昇降装置14及びワーク22の位置を検出しても良い。超音波に比べて光の方が波長が短いので、精度良く位置検出することができる。
(Modification 9)
In the third embodiment, the positions of the lifting device 14 and the workpiece 22 are detected using the ultrasonic receiver 78, the ultrasonic transmitter 80, and the ultrasonic transmitter 81. In addition to ultrasonic waves, the positions of the lifting device 14 and the workpiece 22 may be detected using an optical sensor. Since the wavelength of light is shorter than that of ultrasonic waves, position detection can be performed with high accuracy.

(変形例10)
前記第6の実施形態では、クレーン91は天井クレーンの例を示したが、天井クレーン以外のクレーンに適用することができる。例えば、ジブクレーン、つち形クレーン、引込クレーン、壁クレーン等、各種のクレーンに適用することができる。この場合にも、エンコーダー、撮像装置、慣性センサーを用いることにより、同様の効果を得ることができる。
(Modification 10)
In the said 6th Embodiment, although the crane 91 showed the example of the overhead crane, it is applicable to cranes other than an overhead crane. For example, the present invention can be applied to various cranes such as a jib crane, a cantilever crane, a retractable crane, and a wall crane. Also in this case, the same effect can be obtained by using an encoder, an imaging device, and an inertial sensor.

(変形例11)
前記第7の実施形態では、ロボットの例としてICテストハンドラー111の例を示したが、ICテストハンドラー111以外にもICを供給する装置に本発明の方法を用いることができる。例えば、ICを実装する装置、ICをテープに貼り付ける装置、ICをモールドする装置、ICにマーキングする装置等の各種装置に用いることができる。この場合にも、エンコーダー、撮像装置、慣性センサーを用いることにより、同様の効果を得ることができる。
(Modification 11)
In the seventh embodiment, the example of the IC test handler 111 is shown as an example of the robot. However, the method of the present invention can be used for an apparatus that supplies an IC in addition to the IC test handler 111. For example, it can be used in various devices such as a device for mounting an IC, a device for attaching an IC to a tape, a device for molding an IC, and a device for marking an IC. Also in this case, the same effect can be obtained by using an encoder, an imaging device, and an inertial sensor.

1…ロボット、5…駆動部としての第1モーター、9…慣性センサーとしての第1角速度センサー、11…駆動部としての第2モーター、12…移動量検出部としての第2角度検出器、15…可動部としての回転装置、16…可動部としての手部、16a…可動部としての指部、17…慣性センサーとしての第2角速度センサー、18…撮像部としての第1撮像装置、29,92a…マーク、31…撮像部としての第2撮像装置、49a…第1移動先制御部、49b…第2移動先制御部、51…撮像部としての画像演算部、52…振動抑制制御部、86…駆動部としての第3モーター、87…駆動部としての第4モーター、91…ロボットとしてのクレーン、97…可動部としてのクレーンガーダ、98…駆動部としての走行装置、101…可動部としての台車、104…可動部としてのフックブロック、105…駆動部としての巻上機、111…ロボットとしてのICテストハンドラー、122,128,133,135…可動部としての移動テーブル、125…慣性センサーとしての加速度センサー、126…撮像部としての撮像装置。   DESCRIPTION OF SYMBOLS 1 ... Robot, 5 ... 1st motor as a drive part, 9 ... 1st angular velocity sensor as an inertial sensor, 11 ... 2nd motor as a drive part, 12 ... 2nd angle detector as a movement amount detection part, 15 Rotating device as movable part 16 Hand part as movable part 16a Finger part as movable part 17 Second angular velocity sensor as inertial sensor 18 First imaging device 29 as imaging part 92a ... mark, 31 ... second imaging device as imaging unit, 49a ... first movement destination control unit, 49b ... second movement destination control unit, 51 ... image calculation unit as imaging unit, 52 ... vibration suppression control unit, 86 ... Third motor as drive unit, 87 ... Fourth motor as drive unit, 91 ... Crane as robot, 97 ... Crane girder as movable unit, 98 ... Traveling device as drive unit, 101 ... Carriage as moving part, 104 ... Hook block as moving part, 105 ... Hoisting machine as driving part, 111 ... IC test handler as robot, 122, 128, 133, 135 ... Moving table as moving part, 125 ... an acceleration sensor as an inertial sensor, 126 ... an imaging device as an imaging unit.

Claims (12)

角度検出器により検出された角度に基づいて、可動部を所定の位置に移動させる第1工程と、
撮像部により目標位置に対する前記可動部の相対位置の検出を行い、前記可動部を目標位置に移動させる第2工程と、
慣性センサーから出力された情報に基づいて、前記可動部の振動を抑制する第3工程と、を有し、
前記第1工程から前記第2工程に移行し、
前記第1工程を開始した位置から前記目標位置までの間に前記可動部があるときに、前記第3工程が行われることを特徴とする位置制御方法。
A first step of moving the movable part to a predetermined position based on the angle detected by the angle detector;
It performs detection of the relative position of the movable part with respect to the target position by the imaging unit, and a second step of moving the movable portion to a target position,
A third step of suppressing vibration of the movable part based on information output from the inertial sensor,
Transition from the first step to the second step,
The position control method, wherein the third step is performed when the movable portion is between the position where the first step is started and the target position.
請求項1に記載の位置制御方法であって、
前記第3工程では、前記慣性センサーを用いて前記可動部の振動を検出し、前記振動と逆の位相の振動を前記可動部に加えることにより前記可動部の振動を抑制することを特徴とする位置制御方法。
The position control method according to claim 1,
In the third step, vibration of the movable part is detected by using the inertial sensor, and vibration of the movable part is suppressed by applying vibration having a phase opposite to that of the vibration to the movable part. Position control method.
請求項1または2に記載の位置制御方法であって、
前記第1工程において、前記所定の位置と前記可動部との距離を検出し、前記距離が所定の距離となった場合、前記第1工程から前記第2工程に移行することを特徴とする位置制御方法。
The position control method according to claim 1 or 2 ,
In the first step, a distance between the predetermined position and the movable part is detected, and when the distance becomes a predetermined distance, the process shifts from the first step to the second step. Control method.
請求項1乃至3のいずれか一項に記載の位置制御方法であって、
前記第1工程において、前記可動部と前記所定の位置とを撮影して、前記可動部と前記所定の位置との距離を検出することを特徴とする位置制御方法。
The position control method according to any one of claims 1 to 3 ,
A position control method characterized in that, in the first step, the movable part and the predetermined position are photographed to detect a distance between the movable part and the predetermined position.
請求項乃至のいずれか一項に記載の位置制御方法であって、
前記可動部と前記所定の位置との距離が所定の距離となるのに要する時間を演算し、前記第1工程において前記時間が経過した場合に前記第1工程から前記第2工程に移行することを特徴とする位置制御方法。
The position control method according to any one of claims 1 to 4 ,
The distance between the predetermined position and the movable part calculates the time required for a predetermined distance, the transition from the first step when the time in the first step has passed the second step A position control method characterized by the above.
請求項1乃至のいずれか一項に記載の位置制御方法であって、
前記目標位置に対する相対位置情報を取得可能なマークを撮像し、撮像した画像を分析することにより前記目標位置に対する前記可動部の相対位置を検出することを特徴とする位置制御方法。
A position control method according to any one of claims 1 to 5 ,
A position control method, comprising: imaging a mark capable of acquiring relative position information with respect to the target position; and analyzing the captured image to detect a relative position of the movable unit with respect to the target position.
請求項に記載の位置制御方法であって、
前記目標位置はワークが配置された場所を通る鉛直線上であり、前記マークは前記ワークに配置されていることを特徴とする位置制御方法。
The position control method according to claim 6 ,
The position control method according to claim 1, wherein the target position is on a vertical line passing through a place where the work is placed, and the mark is placed on the work.
請求項に記載の位置制御方法であって、
前記マークは、光を照射して所定の形状となるように形成されることを特徴とする位置制御方法。
The position control method according to claim 6 ,
The position control method, wherein the mark is formed so as to have a predetermined shape when irradiated with light.
可動部と、
角度検出器と、
目標位置に対する前記可動部の相対位置を検出する撮像部と、
性センサーと、
前記角度検出器により検出された前記角度に基づいて、前記可動部を所定の位置に移動させる第1制御部と、
前記撮像部により検出された前記相対位置に基づいて前記可動部を前記目標位置に移動させる制御を行う第2制御部と、
前記慣性センサーから出力された情報に基づいて前記可動部の振動を抑制する第3制御部と、を備え、
前記可動部は、前記第1制御部による移動を開始した後、前記第2制御部による移動を行い、
前記第1制御部により移動を開始した位置から前記目標位置までの間に前記可動部があるとき、前記第3制御部により前記可動部の振動が抑制されることを特徴とするロボット。
Moving parts;
An angle detector;
An imaging unit for detecting a relative position of the movable unit with respect to a target position;
And the inertial sensor,
A first control unit that moves the movable unit to a predetermined position based on the angle detected by the angle detector;
A second control unit that performs control to move the movable unit to the target position based on the relative position detected by the imaging unit;
A third controller that suppresses vibration of the movable part based on information output from the inertial sensor,
The movable unit starts moving by the first control unit and then moves by the second control unit,
The robot according to claim 1 , wherein the third control unit suppresses vibrations of the movable unit when the movable unit is present between the position where the first control unit starts moving and the target position.
請求項に記載のロボットであって、
前記撮像部は前記可動部に配置されていることを特徴とするロボット。
The robot according to claim 9 ,
The robot according to claim 1, wherein the imaging unit is disposed on the movable unit.
請求項に記載のロボットであって、
前記可動部が移動する範囲は前記撮像部が撮像する範囲に含まれることを特徴とするロボット。
The robot according to claim 9 ,
The range in which the movable unit moves is included in the range imaged by the imaging unit.
請求項乃至1のいずれか一項に記載のロボットであって、
前記可動部を駆動する駆動部を備え、
前記駆動部はステップモーターを含むことを特徴とするロボット。
The robot according to any one of claims 9 to 11,
A drive unit for driving the movable unit;
The robot according to claim 1, wherein the driving unit includes a step motor.
JP2009159557A 2009-07-06 2009-07-06 Position control method, robot Active JP5549129B2 (en)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2009159557A JP5549129B2 (en) 2009-07-06 2009-07-06 Position control method, robot
US12/828,539 US8452449B2 (en) 2009-07-06 2010-07-01 Position control method and robot
US13/849,098 US8655488B2 (en) 2009-07-06 2013-03-22 Position control method and robot
US14/093,882 US9020638B2 (en) 2009-07-06 2013-12-02 Position control method and robot
US14/674,961 US9221173B2 (en) 2009-07-06 2015-03-31 Position control method and robot
US14/950,861 US20160082592A1 (en) 2009-07-06 2015-11-24 Position control method and robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009159557A JP5549129B2 (en) 2009-07-06 2009-07-06 Position control method, robot

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2014105005A Division JP5854083B2 (en) 2014-05-21 2014-05-21 Position control method, robot

Publications (2)

Publication Number Publication Date
JP2011011318A JP2011011318A (en) 2011-01-20
JP5549129B2 true JP5549129B2 (en) 2014-07-16

Family

ID=43413104

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009159557A Active JP5549129B2 (en) 2009-07-06 2009-07-06 Position control method, robot

Country Status (2)

Country Link
US (5) US8452449B2 (en)
JP (1) JP5549129B2 (en)

Families Citing this family (70)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5549129B2 (en) * 2009-07-06 2014-07-16 セイコーエプソン株式会社 Position control method, robot
JP5652042B2 (en) * 2010-08-06 2015-01-14 セイコーエプソン株式会社 Robot apparatus, control method and program for robot apparatus
KR102015307B1 (en) * 2010-12-28 2019-08-28 삼성전자주식회사 Robot and method for controlling the same
JP5821210B2 (en) * 2011-02-22 2015-11-24 セイコーエプソン株式会社 Horizontal articulated robot and control method of horizontal articulated robot
JP5803189B2 (en) * 2011-03-23 2015-11-04 セイコーエプソン株式会社 Robot equipment
US9965850B2 (en) * 2012-07-05 2018-05-08 Bernard Fryshman Object image recognition and instant active response with enhanced application and utility
JP5561260B2 (en) * 2011-09-15 2014-07-30 株式会社安川電機 Robot system and imaging method
JP2013132697A (en) * 2011-12-26 2013-07-08 Seiko Epson Corp Linear motion robot
JP2013144325A (en) * 2012-01-13 2013-07-25 Seiko Epson Corp Robot apparatus, and failure detection method
JP5949911B2 (en) * 2012-05-21 2016-07-13 株式会社安川電機 robot
US10521896B2 (en) * 2012-07-05 2019-12-31 Bernard Fryshman Object image recognition and instant active response with enhanced application and utility
CN104540648B (en) 2012-08-02 2018-10-12 株式会社富士 Have the working rig and electronic part mounting of articulated robot
JP6332899B2 (en) * 2012-08-31 2018-05-30 セイコーエプソン株式会社 robot
JP6332900B2 (en) * 2012-08-31 2018-05-30 セイコーエプソン株式会社 Robot system and robot controller
JP5962340B2 (en) * 2012-08-31 2016-08-03 セイコーエプソン株式会社 robot
JP6111563B2 (en) 2012-08-31 2017-04-12 セイコーエプソン株式会社 robot
US9296105B2 (en) * 2012-11-30 2016-03-29 Applied Materials Inc. Vibration-controlled substrate handling robots, systems, and methods
WO2014106914A1 (en) * 2013-01-07 2014-07-10 日本電産サンキョー株式会社 Industrial robot
JP6313963B2 (en) * 2013-01-07 2018-04-18 日本電産サンキョー株式会社 Industrial robot
JP6008121B2 (en) * 2013-01-28 2016-10-19 セイコーエプソン株式会社 Robot and robot controller
JP6155780B2 (en) * 2013-04-10 2017-07-05 セイコーエプソン株式会社 Robot, robot controller and robot system
JP2014205197A (en) * 2013-04-10 2014-10-30 セイコーエプソン株式会社 Robot, robot control device, and robot system
JP2014205199A (en) * 2013-04-10 2014-10-30 セイコーエプソン株式会社 Robot, robot control device, and robot system
JP2014205198A (en) 2013-04-10 2014-10-30 セイコーエプソン株式会社 Robot, robot control device, and robot system
JP6354122B2 (en) * 2013-06-05 2018-07-11 セイコーエプソン株式会社 robot
JP5698798B2 (en) * 2013-06-24 2015-04-08 ファナック株式会社 Machine tool with thermal displacement compensation function
JP6322948B2 (en) * 2013-10-10 2018-05-16 セイコーエプソン株式会社 Robot control apparatus, robot system, robot, robot control method, and program
CN104669244A (en) * 2013-12-02 2015-06-03 精工爱普生株式会社 Robot
JP2015104789A (en) * 2013-12-02 2015-06-08 セイコーエプソン株式会社 Robot
JP6425385B2 (en) * 2014-01-24 2018-11-21 キヤノン株式会社 Robot control method, robot control device, program, recording medium, and part manufacturing method
US9718187B2 (en) * 2014-06-11 2017-08-01 Canon Kabushiki Kaisha Robot controlling method, robot apparatus, program, recording medium, and method for manufacturing assembly component
CN105430255A (en) 2014-09-16 2016-03-23 精工爱普生株式会社 Image processing apparatus and robot system
JP6428081B2 (en) * 2014-09-16 2018-11-28 セイコーエプソン株式会社 Image processing apparatus and robot system
US9873198B2 (en) * 2014-10-06 2018-01-23 The Johns Hopkins University Active vibration damping device
DE102014226008B3 (en) * 2014-12-16 2016-03-17 Kuka Roboter Gmbh Method for checking the assignment of a drive to a control device
US10035592B1 (en) * 2015-06-09 2018-07-31 Amazon Technologies, Inc. Unmanned aerial vehicle scale alignment
CN105066884B (en) * 2015-09-09 2018-07-06 大族激光科技产业集团股份有限公司 A kind of robot end's deviations bearing calibration and system
CN105234943B (en) * 2015-09-09 2018-08-14 大族激光科技产业集团股份有限公司 A kind of industrial robot teaching device and method of view-based access control model identification
JP2017087301A (en) * 2015-11-02 2017-05-25 セイコーエプソン株式会社 Robot, control device and robot system
CN105547173A (en) * 2015-12-04 2016-05-04 凌云光技术集团有限责任公司 Screw return gap calibration method
CN105415368B (en) * 2015-12-10 2017-08-25 河南科技大学 A kind of transplanting machine hand with adjustable positioning device
JP6137379B2 (en) * 2016-04-25 2017-05-31 セイコーエプソン株式会社 Robot equipment
DE102016213663A1 (en) * 2016-07-26 2018-02-01 Siemens Aktiengesellschaft Method for controlling an end element of a machine tool and a machine tool
US10405440B2 (en) 2017-04-10 2019-09-03 Romello Burdoucci System and method for interactive protection of a mobile electronic device
US10350754B2 (en) * 2016-09-27 2019-07-16 Denso Wave Incorporated Control device for robot
US10369702B2 (en) * 2016-10-17 2019-08-06 Raytheon Company Automated work piece moment of inertia (MOI) identification system and method for same
WO2018112025A1 (en) 2016-12-16 2018-06-21 Mako Surgical Corp. Techniques for modifying tool operation in a surgical robotic system based on comparing actual and commanded states of the tool relative to a surgical site
JP6707485B2 (en) * 2017-03-22 2020-06-10 株式会社東芝 Object handling device and calibration method thereof
US11458632B2 (en) * 2017-08-23 2022-10-04 Sony Corporation Robot having reduced vibration generation in in arm portion
JP7051045B2 (en) 2017-11-08 2022-04-11 オムロン株式会社 Mobile manipulators, control methods and programs for mobile manipulators
JP6971822B2 (en) * 2017-12-11 2021-11-24 キヤノン株式会社 Encoder, robot and gap measurement method
JP7131162B2 (en) * 2018-07-20 2022-09-06 オムロン株式会社 Control system, control system control method, and control system program
TWI698311B (en) * 2018-08-03 2020-07-11 台達電子工業股份有限公司 Automatic alignment system and method of robot manipulator
CN110788873A (en) 2018-08-03 2020-02-14 台达电子工业股份有限公司 Automatic alignment system and method for mechanical arm
US11027435B2 (en) 2018-12-04 2021-06-08 Raytheon Company Automated work piece testing system and method for same
US11198227B2 (en) 2018-12-04 2021-12-14 Raytheon Company Adjustable ballast system and method for same
JP6719784B2 (en) * 2018-12-21 2020-07-08 株式会社 Synax handler
JP6770758B2 (en) 2019-01-15 2020-10-21 株式会社 Synax Contactor and handler
JP6653777B1 (en) * 2019-02-01 2020-02-26 株式会社大気社 Automatic polishing system
US10766141B1 (en) * 2019-05-09 2020-09-08 Mujin, Inc. Robotic system with a coordinated transfer mechanism
US11878432B2 (en) * 2019-10-21 2024-01-23 Silicon Laboratories Inc. Low-cost robotics for placement of integrated circuit and method therefor
US11529742B2 (en) 2019-10-21 2022-12-20 Silicon Laboratories Inc. Control of low-cost robotics and method therefor
US20210209352A1 (en) * 2019-12-26 2021-07-08 Bernard Fryshman Insect and other small object image recognition and instant active response with enhanced application and utility
CN111178296B (en) * 2019-12-31 2024-03-01 深圳市鲲鹏智能装备制造有限公司 Multi-workpiece visual positioning and identifying method
US11518573B2 (en) * 2020-02-14 2022-12-06 Dell Products L.P. Palletizing containers for charging electronic devices contained therein
TWI728762B (en) * 2020-03-27 2021-05-21 財團法人工業技術研究院 Method for reducing vibration of robot arm
JP7441707B2 (en) * 2020-03-31 2024-03-01 株式会社ユーシン精機 Attachment three-dimensional shape measurement method
US11518027B2 (en) 2020-05-01 2022-12-06 Abb Schweiz Ag System and method for robotic assembly
JP2022181762A (en) * 2021-05-27 2022-12-08 株式会社東芝 Work supporting device, work supporting method, and work supporting program
CN117608326B (en) * 2024-01-19 2024-03-29 四川图林科技有限责任公司 Hemispherical harmonic oscillator vibration amplitude control system and method of hemispherical harmonic oscillator gyroscope

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0679673A (en) 1992-09-04 1994-03-22 Amada Co Ltd Method and device for vibration isolation for gripping material of robot
US5333819A (en) * 1993-03-12 1994-08-02 General Electric Company Self tuning motion/vibration suppression system
JPH079374A (en) 1993-06-30 1995-01-13 Tamagawa Seiki Co Ltd Control method for articulated robot and articulated robot
JPH07314360A (en) * 1994-05-31 1995-12-05 Ishikawajima Harima Heavy Ind Co Ltd Camera operating robot
JP3442941B2 (en) 1996-09-30 2003-09-02 株式会社東芝 Robot vibration suppression control device and control method thereof
JPH11349280A (en) * 1998-06-05 1999-12-21 Shinko Electric Co Ltd Suspended conveying device
DE20022244U1 (en) * 1999-07-01 2001-11-08 Immersion Corp Control of vibrotactile sensations for haptic feedback devices
JP2002134583A (en) 2000-10-24 2002-05-10 Tokyo Electron Ltd Substrate conveying apparatus
JP3782679B2 (en) * 2001-05-09 2006-06-07 ファナック株式会社 Interference avoidance device
AU2002319119A1 (en) * 2001-07-02 2003-01-21 Microbotic A/S Apparatus comprising a robot arm adapted to move object handling hexapods
JP2003071767A (en) 2001-09-04 2003-03-12 Mitsubishi Heavy Ind Ltd Vibration control system for robot arm
US6836700B2 (en) * 2002-07-29 2004-12-28 Advanced Robotic Technologies, Inc. System and method generating a trajectory for an end effector
DE10242710A1 (en) 2002-09-13 2004-04-08 Daimlerchrysler Ag Method for producing a connection area on a workpiece
JP2004160567A (en) * 2002-11-11 2004-06-10 Fanuc Ltd Article taking-out device
CN100348383C (en) 2002-12-12 2007-11-14 松下电器产业株式会社 Robot control device
US20040150144A1 (en) * 2003-01-30 2004-08-05 Honeywell International Inc. Elastomeric vibration and shock isolation for inertial sensor assemblies
JP2004261881A (en) 2003-02-07 2004-09-24 Junichi Yakahi Work welding system, work welding method, and work welding program
JP3733364B2 (en) * 2003-11-18 2006-01-11 ファナック株式会社 Teaching position correction method
JP4377665B2 (en) * 2003-12-01 2009-12-02 本田技研工業株式会社 Mark for position detection, mark detection apparatus, method and program thereof
JP3883544B2 (en) 2004-02-27 2007-02-21 株式会社東芝 Robot control apparatus and robot control method
JP3876260B2 (en) * 2004-09-16 2007-01-31 ファナック株式会社 Article supply equipment
US7640076B2 (en) * 2004-10-29 2009-12-29 Bradley Darrel Olson Remote control rover configured for viewing and manipulating objects
JP4266211B2 (en) * 2005-03-23 2009-05-20 株式会社東芝 Robot device, method of moving robot device, and program
US7860614B1 (en) * 2005-09-13 2010-12-28 The United States Of America As Represented By The Secretary Of The Army Trainer for robotic vehicle
CN101870108B (en) * 2006-01-13 2011-09-28 松下电器产业株式会社 Device for controlling robot arm
JP2008091856A (en) 2006-03-22 2008-04-17 Juki Corp Electronic component mounting apparatus
US7313464B1 (en) * 2006-09-05 2007-12-25 Adept Technology Inc. Bin-picking system for randomly positioned objects
JP2010152664A (en) * 2008-12-25 2010-07-08 Nissei Corp Sensorless motor-driven robot using image
JP5549129B2 (en) * 2009-07-06 2014-07-16 セイコーエプソン株式会社 Position control method, robot

Also Published As

Publication number Publication date
US20130218338A1 (en) 2013-08-22
JP2011011318A (en) 2011-01-20
US20150209959A1 (en) 2015-07-30
US9221173B2 (en) 2015-12-29
US8452449B2 (en) 2013-05-28
US20110004343A1 (en) 2011-01-06
US8655488B2 (en) 2014-02-18
US9020638B2 (en) 2015-04-28
US20140088762A1 (en) 2014-03-27
US20160082592A1 (en) 2016-03-24

Similar Documents

Publication Publication Date Title
JP5549129B2 (en) Position control method, robot
JP5854083B2 (en) Position control method, robot
CN206696201U (en) A kind of multiple dimensioned Automatic Visual Inspection device towards flexible PCB
JP5549203B2 (en) Optical position detection device, hand device, and touch panel
JP2011185608A (en) Inspection device and inspection method
JP6144473B2 (en) Substrate working apparatus, substrate working method
JP2007048921A (en) Electronic component image acquiring method and apparatus thereof
JP2008294065A (en) Mounting method and mounting device for electronic component
JP2018044897A (en) Information processing device, camera, mobile body, mobile body system, information processing method, and program
JP2002168800A (en) Appearance inspection device
JP4901451B2 (en) Component mounting equipment
JP2019039841A (en) Visual inspection device
JP2019039842A (en) Appearance inspection device
JP6388134B2 (en) Electronic component mounting apparatus and electronic component mounting method
JPH08327332A (en) Apparatus for measuring film thickness of solder paste
JP3807490B2 (en) Component recognition camera position offset teaching method and teaching apparatus
JP2019039840A (en) Appearance inspection device
JP2003004666A (en) Radiographic/fluoroscopic imaging apparatus
JP2009257774A (en) Marker for vision sensor and method for making actuator recognize workspace
JP2007136332A (en) Apparatus and method for applying paste
JP3345936B2 (en) Scanner for confocal scanning optical microscope
JP3114474B2 (en) Object position recognition device
JP6547106B2 (en) Reference body
JP2023003591A (en) Calibration method and robot system
JPH0222504A (en) Measuring method for outward shape size of substrate by position detecting element

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120614

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130528

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130725

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131203

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140129

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140422

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140505

R150 Certificate of patent or registration of utility model

Ref document number: 5549129

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350