WO2010064353A1 - ロボットアームの制御方法 - Google Patents

ロボットアームの制御方法 Download PDF

Info

Publication number
WO2010064353A1
WO2010064353A1 PCT/JP2009/005225 JP2009005225W WO2010064353A1 WO 2010064353 A1 WO2010064353 A1 WO 2010064353A1 JP 2009005225 W JP2009005225 W JP 2009005225W WO 2010064353 A1 WO2010064353 A1 WO 2010064353A1
Authority
WO
WIPO (PCT)
Prior art keywords
control
robot arm
workpiece
robot
end effector
Prior art date
Application number
PCT/JP2009/005225
Other languages
English (en)
French (fr)
Inventor
中島陵
藤井玄徳
Original Assignee
本田技研工業株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 本田技研工業株式会社 filed Critical 本田技研工業株式会社
Priority to US13/132,763 priority Critical patent/US20110301758A1/en
Priority to CN2009801554613A priority patent/CN102300680A/zh
Publication of WO2010064353A1 publication Critical patent/WO2010064353A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/1641Programme controls characterised by the control loop compensation for backlash, friction, compliance, elasticity in the joints
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/1633Programme controls characterised by the control loop compliant, force, torque control, e.g. combined with position control

Definitions

  • the present invention relates to a position control method for a robot arm, in particular, among industrial robot control methods for performing work such as screw tightening on a work target in an industrial product manufacturing process.
  • an end effector such as a screw tightening device is attached to the hand of an articulated robot, and work such as screw tightening is automatically performed on a work target (workpiece).
  • Patent Documents 1 and 2 after the robot has moved to the position specified by the teaching, the amount of positional deviation between the robot and the work is obtained by a camera attached to the wrist or arm of the robot.
  • a control method is disclosed in which the movement correction amount of the robot system is calculated from the deviation amount to perform position correction.
  • control by teaching playback that reproduces the motion taught to the robot in advance is performed up to the specified position, and in the subsequent position correction stage, feedback control according to the position information of the robot and the workpiece is performed. Is done.
  • the PID control method is widely used as feedback control.
  • Patent Document 1 and Patent Document 2 the robot moves to a specified position and temporarily stops. At this position, the reference point of the workpiece is recognized, and the position information of the robot and the workpiece is used to determine the normal position. In the method of calculating the deviation of the position and performing the position correction operation, there is a problem that it takes time until the position correction is completed as long as the robot is temporarily stopped.
  • the inventors once stop the robot before moving to the position correction operation when the workpiece is recognized during the teaching playback control by teaching. Instead, we investigated a robot control method that switched to feedback control and performed position correction.
  • the camera always checks the presence or absence of a workpiece, immediately switches to feedback control when the workpiece is recognized, and then checks the position of the robot with respect to the workpiece reference point while constantly checking the position of the robot. This is a control method of performing a correction operation.
  • the robot operation is set to feedback control from the beginning without performing the teaching playback control.
  • the work is always captured by the camera due to problems with the work environment and the viewing angle of the camera. It is difficult to leave.
  • the present invention is a method for controlling a robot arm having an end effector at the tip, which is determined in advance by executing teaching playback control in accordance with a program instruction stored in the control unit of the control unit.
  • the present invention is characterized in that the workpiece recognition means is a camera, and the workpiece is recognized based on a photographed image.
  • a non-contact impedance control method is used as feedback control in switching from teaching playback control to feedback control. Thereby, the vibration at the time of the control switching is suppressed, and a time shortening effect can be obtained.
  • FIG. 1 is a system configuration diagram of a robot showing an embodiment of the present invention.
  • the workpiece W is stationary at a predetermined position, and the robot system R is located away from the workpiece W.
  • the robot system R is an articulated robot arm 1 pivotably attached to a robot base 6, an end effector 2 attached to the tip of the robot arm 1, and a work recognition means arranged in the vicinity of the end effector 2. It comprises a camera 3 for detecting a workpiece, and a control unit including an image processing unit 4 and a control unit 5. The robot arm 1 and the control unit are connected, and the robot arm 1 operates based on a signal from the control unit.
  • the program is stored in the control unit 5 of the control unit.
  • This program includes a step of operating the robot arm along a predetermined path by teaching playback control while recognizing the presence or absence of the workpiece W by the camera 3, and a feedback control from the teaching playback control when the camera 3 recognizes the workpiece W. And the step of operating the robot arm 1 by feedback control while confirming the relative position of the end effector 2 with respect to the workpiece W by the camera 3.
  • the robot arm 1 first moves according to the route taught by the teaching playback control by a signal from the control unit.
  • Teaching playback control at this time is position control.
  • An image is acquired by the camera 3 while the robot arm 1 is moving, and the presence or absence of the workpiece W in the image is recognized as needed. If the workpiece W is not in the image, the workpiece W continues to move along the taught route.
  • a pattern matching method for comparing an image stored in the image processing unit 4 in advance with the acquired image can be used.
  • control is switched to the feedback control by the non-contact impedance control method.
  • feedback control control based on the position of the end effector 2 with respect to the workpiece W is performed.
  • the position of the end effector 2 is calculated by the image processing unit 4 using the coordinates of the image space obtained by the image acquired by the camera 3, and the end effector 2 ends toward the target position (reference point) with respect to the workpiece W.
  • the robot arm 1 is moved so as to correct the position of the effector 2.
  • the coordinate origin of the image space can be a target position of the end effector 2 with respect to the workpiece W.
  • the camera 3 acquires an image at any time. Then, a deviation between the position of the end effector 2 and the target position is detected, and the robot arm 1 is moved until the deviation is eliminated.
  • the workpiece recognition means is not limited to the camera 3 of the present embodiment, but can be used as long as the position information of the end effector with respect to the workpiece can be recognized by non-contact such as a laser sensor or an ultrasonic sensor. Since it is easy to grasp the workpiece shape, a camera is preferable.
  • FIG. 2 is a flowchart of the robot arm control according to the present invention.
  • the robot arm 1 is controlled by teaching playback control based on the operation (movement plan) taught to the robot in advance online or offline. Operation starts.
  • step S03 the camera 3 captures an image
  • step S04 the control unit determines whether the workpiece W stored in advance is detected.
  • the process returns to step S02 and the taught operation is continued again.
  • step S04 When the work W is detected by the camera 3 in step S04, the control unit switches the control method to feedback control based on the non-contact type impedance control method in step S05.
  • step S06 an image is acquired by the camera 3.
  • step S07 it is determined whether or not the position of the end effector 2 is the target position. If the position is shifted from the target position, feedback control is performed in step S08. A position correction operation to the target position is performed.
  • step S07 when the end effector is located at the target position, the feedback control is terminated in step S09, and the work on the workpiece W is performed.
  • a non-contact type impedance control method used in the feedback control will be described.
  • a desired impedance at the end effector of the robot is to be realized by the following formula 1.
  • Md, Dd, and Kd are virtual mass, virtual viscosity, and virtual elasticity, respectively
  • x and xd are the position and target position of the robot end effector
  • F is the external force applied to the robot end effector.
  • the virtual elasticity, virtual viscosity, and virtual mass are set on the software of the control unit so that desired dynamic characteristics can be obtained.
  • the conventional impedance control method is a contact type impedance control method in which an external force is measured by a sensor provided to an end effector of a robot, and the value is fed back to a control unit so that desired dynamic characteristics can be obtained.
  • the workpiece recognition means (camera 3).
  • a non-contact type impedance control method is employed in which a virtual external force is applied as if it were virtually in contact with the object, and control is performed to obtain a desired dynamic characteristic. That is, the difference becomes the virtual contact amount between the end effector 2 and the workpiece W.
  • Formula 1 can be modified as follows.
  • the impedance parameter is set so that the acceleration of the above equation becomes the target value, that is, the robot arm 1 is not vibrated.
  • the virtual external force F is calculated by multiplying the difference between the position of the end effector 2 and the target position by a constant coefficient.
  • a function using the difference as a variable can be used.
  • the impedance parameter may be a numerical value set in advance by a prior test, and may be varied according to the motion state of the end effector 2 during operation by feedback control.
  • FIG. 3 shows a flowchart of contactless impedance control.
  • step P04 the position of the end effector 2 of the robot relative to the target position of the work W is calculated on the screen (image space) by the image processing unit 4 based on the acquired image.
  • step P05 it is determined whether or not the calculated position of the end effector 2 is the target position. If it is the target position, the feedback control by the non-contact type impedance control method ends in step P07, and Work is done.
  • Step P05 If there is a deviation between the end effector 2 and the target position in the determination in Step P05, the virtual external force F based on the calculated position of the end effector 2 and the calculated speed of the end effector 2 are given in Step P06, Based on Equation 1, the operation of the robot arm 1 is controlled. Then, returning to step P02 again, these steps are repeated until the position of the end effector 2 reaches the target position in step P04.
  • FIG. 4 shows an example of actual measurement data of the position of the moving speed of the end effector when the non-contact impedance control method is used as feedback control.
  • FIG. 5 shows an example of actual measurement data of the moving speed and position of the end effector when the robot arm is operated in the same manner as in the above embodiment, except that PID control is used as feedback control.
  • the camera recognizes the workpiece at timing t1 and switches to PID control.
  • the scale of the axis in FIG. 5 is the same as that in FIG.
  • Robot arm 1 ... Robot arm, 2 ... End effector, 3 ... Camera, 4 ... Image processing unit, 5 ... Control unit, 6 ... Robot base

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)
  • Numerical Control (AREA)

Abstract

【課題】 ティーチングプレイバック制御による動作中にフィードバック制御に切り替えた時に、ロボットのアームの振動が抑制されるロボットアームの制御方法を提供する。 【解決手段】 制御部のコントロール部に格納されたプログラムの指示でティーチングプレイバック制御を実行して予め決まった経路に沿ってロボットアームを動かすステップと、アームに設けたワーク認識手段によってワークの有無を認識するステップと、ワークを認識すると同時に前記コントロール部のプログラムをティーチングプレイバック制御から非接触型インピーダンス制御法によるフィードバック制御に切り替え、ワークに追従してロボットアームを動かすステップとからなる制御方法でロボットアームを動作させる。非接触型インピーダンス制御法を用いたことにより、制御切り替え時のロボットアームの振動が抑制される。

Description

ロボットアームの制御方法
 本発明は、工業製品の製造工程でねじ締めなどの作業を作業対象物に対して行う産業用ロボットの制御方法のうち、特にロボットアームの位置制御方法に関する。
 従来、自動車など生産ラインにおいて、多関節ロボットの手先にねじ締め装置などのエンドエフェクタを取り付け、作業対象物(ワーク)に対しねじ締めなどの作業を自動的に行うことが行われている。
 実際の作業においては、生産ライン上でのワーク搬送の停止精度やワークを生産ライン上で搬送するためのワークパレットの個体差などにより、ワークの位置に誤差が生ずるため、作業前にロボットとワークの相対位置の補正が行われる。例えば、特許文献1や特許文献2に開示されるように、教示により規定された位置までロボットが移動して一旦停止し、規定位置でカメラによりワークの基準点を認識し、次いで、ロボットとワークの位置情報から正常位置からのずれを計算し、相対位置が正常なものとなるようにロボットの位置補正動作が為される。
 より具体的には、特許文献1および2には、教示により規定された位置までロボットが移動した後、ロボットの手首やアームに取り付けられたカメラによりロボットとワークの位置ずれ量を求め、求めたずれ量からロボットシステムの移動補正量を算出して、位置補正を行う制御方法が開示されている。
 以上、このようなロボットでは、前記規定位置までは、事前のロボットへの教示した動作を再現するティーチングプレイバックによる制御が行われ、続く位置補正段階ではロボットとワークの位置情報に従ったフィードバック制御が行われる。なお、フィードバック制御としてはPID制御法が広く用いられる。
特開平8-174457号公報 特開2001-246582号公報
 生産ラインにおいては、効率化のため時間短縮の試みが行われる。ここで、特許文献1および特許文献2に開示されるような、規定位置までロボットが移動して一旦停止し、この位置でワークの基準点を認識し、ロボットとワークの位置情報から正常位置からのずれを計算して位置補正動作を行う方法では、ロボットを一旦停止する分、位置補正終了までの時間が掛かるという問題がある。
  そこで、発明者らはロボットのワークに対する位置補正終了までの時間を短縮すべく、教示によるティーチングプレイバック制御での動作中にワークを認識すると、位置補正動作に移る前にロボットが一旦停止することなく、直ちにフィードバック制御に切り替えて位置補正動作を行なうというロボットの制御方法を検討した。すなわち、ティーチングプレイバック制御による動作中にカメラで常にワークの有無を確認しながら、ワークを認識すると直ちにフィードバック制御に切り替え、次いでワークの基準点に対するロボットの位置のずれをカメラで常に確認しながら位置補正動作を行うという制御方法である。
  しかし、上記フィードバック制御としてPID制御法を採用し、ティーチングプレイバック制御から突如PID制御に切り替えると、教示されている動作から動作方向が急に変化するため、ロボットのアームに不要な振動が生ずる場合がある。ロボットに振動が生ずると、位置補正の精度が低下する他、エンドエフェクタで把持したネジなどのパーツを落としたり、ロボットの関節の寿命が短くなったりする虞がある。一方、振動を抑制しようとすると、アームを作業位置に収束させる時間、すなわち位置補正時間が長くなり、所望の時間短縮が図れない。
  ここで、ティーチングプレイバック制御を行なわず、ロボットの動作を最初からフィードバック制御としておくことも考えられるが、実際の生産作業では作業環境やカメラの視野角の問題から、常にカメラでワークを捉えておくことは困難である。
 本発明は、ティーチングプレイバック制御による動作中にフィードバック制御に切り替えた時に、ロボットのアームの振動が抑制され、もって位置補正に要する時間が短縮されるロボットの制御方法を提供することを目的とする。
 上記の課題を解決するため本発明は、先端にエンドエフェクタを備えたロボットアームの制御方法であって、制御部のコントロール部に格納されたプログラムの指示でティーチングプレイバック制御を実行して予め決まった経路に沿ってロボットアームを動かすステップと、アームに設けたワーク認識手段によってワークの有無を認識するステップと、ワークを認識すると同時に前記コントロール部のプログラムをティーチングプレイバック制御から非接触型インピーダンス制御法によるフィードバック制御に切り替え、ワークに追従してロボットアームを動かすステップとからなることを特徴とする。
 さらに本発明は、前記ワーク認識手段がカメラであって、前記ワークの認識が撮影された画像に基づいて行われることを特徴とする。
 本発明では、ティーチングプレイバック制御からフィードバック制御への切り替えにおいて、フィードバック制御として非接触型インピーダンス制御法を用いる。これにより、前記制御切り替え時の振動が抑制され、時間短縮効果を得ることができる。
本発明に係るロボットのシステム構成図 本発明に係るロボット制御のフローチャート 本発明に係る制御プログラムのフローチャート 本発明に係る非接触型インピーダンス制御法を用いた実測データ例 PID制御法を用いた実測データ例
 以下、本発明を実施するための最良の形態を図面に基づいて説明する。
図1は、本発明の一実施の形態を示すロボットのシステム構成図である。ワークWは所定位置に静止しており、ロボットシステムRはワークWとは離れた位置にある。
 前記ロボットシステムRは、ロボットベース6に旋回可能に取り付けられた多関節のロボットアーム1、ロボットアーム1の先端に取り付けられたエンドエフェクタ2、およびエンドエフェクタ2近傍に配されたワーク認識手段であるワーク検出用のカメラ3、並びに画像処理部4およびコントロール部5からなる制御部で構成されている。ロボットアーム1と制御部は接続されており、ロボットアーム1は前記制御部からの信号に基づいて動作を行う。
 前記制御部のコントロール部5にはプログラムが格納されている。このプログラムは、カメラ3でワークWの有無を認識しながらティーチングプレイバック制御で予め決まった経路に沿ってロボットアームを動作させるステップと、カメラ3でワークWを認識するとティーチングプレイバック制御からフィードバック制御に切り替えるステップと、カメラ3でワークWに対するエンドエフェクタ2の相対位置を確認しながらフィードバック制御によりロボットアーム1を動作させるステップからなる。
 ここで、本発明に係るロボットアームの動作について説明する。まず、コントロール部からの信号によりロボットアーム1はまずティーチングプレイバック制御により教示された経路に従って移動する。このときのティーチングプレイバック制御は位置制御である。また、ロボットアーム1の移動中にカメラ3により画像が取得され、該画像におけるワークWの有無が随時認識される。そしてワークWが該画像内に無い場合、引き続き教示された経路に従って移動する。画像内のワークWの有無の認識には、予め画像処理部4に記憶させた画像と前記取得した画像を比較するパターンマッチング法を用いることができる。
 そして、カメラ3が取得した画像によりワークWが認識されると、制御が非接触型インピーダンス制御法によるフィードバック制御に切り替わる。フィードバック制御では、ワークWに対するエンドエフェクタ2の位置に基づく制御が行われる。具体的には、カメラ3で取得した画像による画像空間の座標を用いてエンドエフェクタ2の位置を画像処理部4で算出し、エンドエフェクタ2のワークWに対する目標位置(基準点)に向けてエンドエフェクタ2の位置を補正するようロボットアーム1を移動させる。ここで前記画像空間の座標原点は、エンドエフェクタ2のワークWに対する目標位置とすることができる。
 前記フィードバック制御によるステップにおいても、カメラ3により随時画像の取得が行われる。そして、エンドエフェクタ2の位置と前記目標位置とのずれを検出し、前記ずれが無くなるまでロボットアーム1の移動がなされる。
 なお前記ワーク認識手段は本実施の形態のカメラ3に限らず、レーザーセンサや超音波センサなど非接触によりワークに対するエンドエフェクタの位置情報が認識できるものであれば使用することが可能であるが、ワーク形状の把握が容易であるため、カメラであることが好ましい。
 図2は、本発明に係るロボットアーム制御のフローチャートである。本発明においては、ステップS01でコントロール部5のプログラムが開始されると、ステップS02でまず予めオンラインあるいはオフラインによりロボットに教示された動作(移動計画)に基づいたティーチングプレイバック制御によるロボットアーム1の動作が開始される。
 次いでステップS03にてカメラ3で画像を取り込み、ステップS04にて予め記憶しておいたワークWを検出したかどうかを制御部で判断する。ここでカメラ3によりワークWが検出されなかった場合、ステップS02に戻り、再び教示された動作を継続する。
 ステップS04にてカメラ3によりワークWが検出されると、ステップS05にて制御部が制御方式を非接触型インピーダンス制御法によるフィードバック制御に切り替える。そして、ステップS06にてカメラ3による画像取得が行われ、ステップS07にてエンドエフェクタ2の位置が目標位置であるかどうかの判断を行い、目標位置からずれている場合はステップS08でフィードバック制御により目標位置への位置補正動作がなされる。
 ステップS07において、エンドエフェクタが目標位置に位置する場合は、ステップS09にてフィードバック制御は終了し、ワークWへの作業が為される。
 ここで、上記フィードバック制御で用いられる非接触型インピーダンス制御法について説明する。インピーダンス制御法とは、ロボットのエンドエフェクタでの望ましいインピーダンスを、以下の数式1にて実現しようとするものである。
Figure JPOXMLDOC01-appb-M000001
 ここで、Md、Dd、Kdはそれぞれ仮想質量、仮想粘性、仮想弾性であり、x 、 xdはロボットのエンドエフェクタの位置および目標位置、Fはロボットエンドのエフェクタにかかる外力である。なお、仮想弾性、仮想粘性、仮想質量は望む動特性が得られるよう制御部のソフトウェア上で設定される。
 従来のインピーダンス制御法では、ロボットのエンドエフェクタに供えたセンサで外力を計測し、その値を制御部にフィードバックし、望ましい動特性が得られるようにする接触型のインピーダンス制御法であった。
 一方、ワークに対する作業前にエンドエフェクタの位置を制御する場合は、ワークとエンドエフェクタとを直接接触させることはできない。そこで、本発明ではロボットがワークWに接触する代わりに、ワーク認識手段(カメラ3)によりロボットのエンドエフェクタ2の位置とワークWの目標位置との差分を計測し、このエンドエフェクタ2がワークWと仮想的に接触したものとして仮想外力を与え、望ましい動特性が得られるよう制御を行う非接触型インピーダンス制御法を採用している。すなわち、前記差分がエンドエフェクタ2とワークWとの仮想接触量となる。
 具体的には、画像空間の目標位置に対するエンドエフェクタの位置の差分に所定の定数を掛けたものをエンドエフェクタ2への仮想外力の大きさとし、その他のインピーダンスパラメータ(仮想質量・仮想粘性・仮想弾性)を設定することによってロボットアーム1の制御を行う。すなわち、画像空間の座標でx軸方向について数式1を適用すると(ここで、目標位置を画像空間座標の原点としd=0とする)、仮想外力は次のように表される。
Figure JPOXMLDOC01-appb-M000002
従って、数式1は次のように変形できる。
Figure JPOXMLDOC01-appb-M000003
ここで速度 にはエンドエフェクタのx軸方向の実際の速度を計測して与え、上式の加速度が目標とする値となるように、つまりロボットアーム1に振動を生じさせないようにインピーダンスパラメータを設定する。
 なお、本実施の形態では、仮想外力Fとしてエンドエフェクタ2の位置と目標位置の差分に定数係数を掛けて算出したが、この他前記差分を変数とする関数とすることができる。
また、前記のインピーダンスパラメータは事前のテストにより予め設定されている数値を用いることができる他、フィードバック制御による動作中のエンドエフェクタ2の運動状態に従って可変させることも可能である。
 図3は、非接触型インピーダンス制御のフローチャートを示している。ステップP01(前記ステップS05)で非接触型インピーダンス制御法によるフィードバック制御プログラムが開始されると、ステップP02でエンドエフェクタ2の速度がロボットアーム1の動作からコントロール部5で計算され、ステップP03でカメラ3によりワークWの画像が取得される。
 次いでステップP04にて、取得した画像に基づいて、ワークWの目標位置に対するロボットのエンドエフェクタ2の位置を画面上(画像空間)の座標を画像処理部4で算出する。ステップP05では算出したエンドエフェクタ2の位置が目標位置であるかどうかの判断を行い、目標位置である場合は、ステップP07にて非接触型インピーダンス制御法によるフィードバック制御が終了し、ワークWへの作業が為される。
 ステップP05における判断でエンドエフェクタ2と目標位置の間にずれが存在する場合は、ステップP06にて前記算出したエンドエフェクタ2の位置による仮想外力Fと前記計算したエンドエフェクタ2の速度を与えて、数式1に基づきロボットアーム1の動作を制御する。そして、再びステップP02に戻りステップP04でエンドエフェクタ2の位置が前記目標位置となるまで、これらのステップを繰り返す。
 以下、上述のようにティーチングプレイバック制御からフィードバック制御に切り替えてロボットアームを動作させたものにおいて、フィードバック制御として非接触型インピーダンス制御法とPID制御法を用いた場合の実験結果を示す。 
 図4は、フィードバック制御として非接触型インピーダンス制御法を用いた場合のエンドエフェクタの移動速度の位置の実測データ例を示している。時間0よりティーチングプレイバック制御によりロボットアームが動作を開始した後、移動速度が一定値まで上昇し、その後減速途中のタイミングt1にてカメラによりワークが認識され非接触型インピーダンス制御法よるフィードバック制御に切り替わったものである。非接触型インピーダンス制御法を用いた本例では、エンドエフェクタはタイミングt2で目標位置に到達した。また、タイミングt1以後のエンドエフェクタ2の移動速度と位置のグラフを見ても振動はほとんど生じておらず、比較的滑らかに移動していることが分かる。
 図5は、フィードバック制御としてPID制御を用いた他は、上記実施例と同様にしてロボットアームを動作させたときのエンドエフェクタの移動速度と位置の実測データ例を示している。時間0よりティーチングプレイバック制御によりロボットアームが移動を開始した後、タイミングt1にてカメラがワークを認識してPID制御に切り替わったものである。なお、図5中の軸のスケールは、図4と同じである。
 PID制御を用いた本例では、タイミングt1以後の移動速度と位置のグラフを見ると、t1の直後にピークが見られ、制御切り替え直後にアームに振動が生じてしまっていることが分かる。また、エンドエフェクタの目標位置への到達は、タイミングt2よりも遅れたタイミングt3まで掛かった。
 すなわち、PID制御においては、PID制御に切り替わった後、振動が生じ(グラフ上のピーク)、さらに制御切り替え後の収束時間(位置補正時間)も長い。一方、本発明による視覚フィードバック制御では、振動は生じておらず、収束時間も比較例に比べ短くきるものである。
 1…ロボットアーム、2…エンドエフェクタ、3…カメラ、4…画像処理部、5…コントロール部、6…ロボットベース

Claims (2)

  1. 先端にエンドエフェクタを備えたロボットアームの制御方法であって、制御部のコントロール部に格納されたプログラムの指示でティーチングプレイバック制御を実行して予め決まった経路に沿ってロボットアームを動かすステップと、アームに設けたワーク認識手段によってワークの有無を認識するステップと、ワークを認識すると同時に前記コントロール部のプログラムをティーチングプレイバック制御から非接触型インピーダンス制御法によるフィードバック制御に切り替え、ワークに追従してロボットアームを動かすステップとからなることを特徴とするロボットアームの制御方法。
  2. 請求項1に記載のロボットアームの制御方法において、前記ワーク認識手段がカメラであって、前記ワークの認識は撮影された画像に基づいて行われることを特徴とするロボットアームの制御方法。
PCT/JP2009/005225 2008-12-05 2009-10-07 ロボットアームの制御方法 WO2010064353A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US13/132,763 US20110301758A1 (en) 2008-12-05 2009-10-07 Method of controlling robot arm
CN2009801554613A CN102300680A (zh) 2008-12-05 2009-10-07 机器人手臂的控制方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2008-310412 2008-12-05
JP2008310412A JP2010131711A (ja) 2008-12-05 2008-12-05 ロボットアームの制御方法

Publications (1)

Publication Number Publication Date
WO2010064353A1 true WO2010064353A1 (ja) 2010-06-10

Family

ID=42233013

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2009/005225 WO2010064353A1 (ja) 2008-12-05 2009-10-07 ロボットアームの制御方法

Country Status (4)

Country Link
US (1) US20110301758A1 (ja)
JP (1) JP2010131711A (ja)
CN (1) CN102300680A (ja)
WO (1) WO2010064353A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102645932A (zh) * 2012-04-27 2012-08-22 北京智能佳科技有限公司 一种远程控制的导购机器人

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011000703A (ja) 2009-05-19 2011-01-06 Canon Inc カメラ付きマニピュレータ
JP5318727B2 (ja) * 2009-10-30 2013-10-16 本田技研工業株式会社 情報処理方法及び装置並びにプログラム
JP5290934B2 (ja) * 2009-10-30 2013-09-18 本田技研工業株式会社 情報処理方法及び装置並びにプログラム
JP5556825B2 (ja) * 2012-01-24 2014-07-23 株式会社安川電機 生産システムおよび物品製造方法
DE102012006352B4 (de) * 2012-03-28 2014-07-17 Mbda Deutschland Gmbh Vorrichtung zum Testen und/oder Betreiben einer Wirkeinheit
JP6511715B2 (ja) 2013-10-31 2019-05-15 セイコーエプソン株式会社 ロボット制御装置、ロボットシステム、及びロボット
US9505133B2 (en) * 2013-12-13 2016-11-29 Canon Kabushiki Kaisha Robot apparatus, robot controlling method, program and recording medium
JP6443837B2 (ja) * 2014-09-29 2018-12-26 セイコーエプソン株式会社 ロボット、ロボットシステム、制御装置、及び制御方法
JP6582483B2 (ja) * 2015-03-26 2019-10-02 セイコーエプソン株式会社 ロボット制御装置およびロボットシステム
JP6267157B2 (ja) 2015-05-29 2018-01-24 ファナック株式会社 位置補正機能を有するロボットを備えた生産システム
CN207861446U (zh) * 2015-07-29 2018-09-14 Abb瑞士股份有限公司 用于机器人拆垛设备的控制***
CN105773619A (zh) * 2016-04-26 2016-07-20 北京光年无限科技有限公司 用于实现人形机器人抓取行为的电控***和人形机器人
JP6858593B2 (ja) * 2017-03-02 2021-04-14 ソニー・オリンパスメディカルソリューションズ株式会社 医療用観察装置、および制御方法
JP7427358B2 (ja) 2017-07-20 2024-02-05 キヤノン株式会社 ロボットシステム、物品の製造方法、制御方法、制御プログラム、および記録媒体
JP6795471B2 (ja) * 2017-08-25 2020-12-02 ファナック株式会社 ロボットシステム
JP7384575B2 (ja) * 2018-08-10 2023-11-21 川崎重工業株式会社 情報処理装置、仲介装置、シミュレートシステム、情報処理方法及びプログラム
CN111067515B (zh) * 2019-12-11 2022-03-29 中国人民解放军军事科学院军事医学研究院 一种基于闭环控制技术的智能气囊头盔***
JP7054036B1 (ja) * 2021-07-09 2022-04-13 株式会社不二越 ロボットビジョンシステム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002018754A (ja) * 2000-07-10 2002-01-22 Toyota Central Res & Dev Lab Inc ロボット装置及びその制御方法
JP2003305676A (ja) * 2002-04-11 2003-10-28 Denso Wave Inc 移動ロボットの制御方法及び制御装置

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003211381A (ja) * 2002-01-16 2003-07-29 Denso Wave Inc ロボット制御装置
JP2003231078A (ja) * 2002-02-14 2003-08-19 Denso Wave Inc ロボットアームの位置制御方法およびロボット装置
JP4257570B2 (ja) * 2002-07-17 2009-04-22 株式会社安川電機 搬送用ロボットのティーチング装置および搬送用ロボットのティーチング方法
US8108072B2 (en) * 2007-09-30 2012-01-31 Intuitive Surgical Operations, Inc. Methods and systems for robotic instrument tool tracking with adaptive fusion of kinematics information and image information
JP4221014B2 (ja) * 2006-06-20 2009-02-12 ファナック株式会社 ロボット制御装置
JP4235214B2 (ja) * 2006-07-04 2009-03-11 ファナック株式会社 ロボットプログラムを作成するための装置、プログラム、記録媒体及び方法
JP4866782B2 (ja) * 2007-04-27 2012-02-01 富士フイルム株式会社 基板クランプ機構及び描画システム
JP2008296330A (ja) * 2007-05-31 2008-12-11 Fanuc Ltd ロボットシミュレーション装置
JP4347386B2 (ja) * 2008-01-23 2009-10-21 ファナック株式会社 加工用ロボットプラグラムの作成装置
JP4763074B2 (ja) * 2009-08-03 2011-08-31 ファナック株式会社 ロボットのツール先端点の位置の計測装置および計測方法
US8600552B2 (en) * 2009-10-30 2013-12-03 Honda Motor Co., Ltd. Information processing method, apparatus, and computer readable medium

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002018754A (ja) * 2000-07-10 2002-01-22 Toyota Central Res & Dev Lab Inc ロボット装置及びその制御方法
JP2003305676A (ja) * 2002-04-11 2003-10-28 Denso Wave Inc 移動ロボットの制御方法及び制御装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
TAMIO ARAI ET AL.: "Kasoteki na Impedance o Mochiita Fukusu Ido Robot-kei no Dosa Keikaku", JOURNAL OF THE ROBOTICS SOCIETY OF JAPAN, vol. 11, no. 7, 15 October 1993 (1993-10-15), pages 1039 - 1046 *
TOSHIO TSUJI ET AL.: "Manipulator no Hisesshokugata Impedance Seigyo", JOURNAL OF THE ROBOTICS SOCIETY OF JAPAN, vol. 15, no. 4, 15 May 1997 (1997-05-15), pages 616 - 623 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102645932A (zh) * 2012-04-27 2012-08-22 北京智能佳科技有限公司 一种远程控制的导购机器人

Also Published As

Publication number Publication date
CN102300680A (zh) 2011-12-28
US20110301758A1 (en) 2011-12-08
JP2010131711A (ja) 2010-06-17

Similar Documents

Publication Publication Date Title
WO2010064353A1 (ja) ロボットアームの制御方法
US20200147787A1 (en) Working robot and control method for working robot
JP4265088B2 (ja) ロボット装置及びその制御方法
JP5685027B2 (ja) 情報処理装置、物体把持システム、ロボットシステム、情報処理方法、物体把持方法およびプログラム
JP5318727B2 (ja) 情報処理方法及び装置並びにプログラム
WO2019116891A1 (ja) ロボットシステム及びロボット制御方法
JPH05241626A (ja) 検出位置補正方式
US11833687B2 (en) Robot apparatus, control method for the robot apparatus, assembly method using the robot apparatus, and recording medium
JP2011093014A (ja) ハンドアイ式ビンピッキングロボットの制御装置
JP7163506B2 (ja) 作業ロボットおよび作業システム
JP2018161700A (ja) 情報処理装置、システム、情報処理方法、製造方法
US20220134550A1 (en) Control system for hand and control method for hand
JP6838833B2 (ja) 把持装置、把持方法、及びプログラム
CN110914025B (zh) 把持***
JP6217322B2 (ja) ロボット制御装置、ロボット及びロボット制御方法
JP2012125852A (ja) 組立ロボットとその制御方法
JP5290934B2 (ja) 情報処理方法及び装置並びにプログラム
JP2016002642A (ja) ロボット制御装置および制御方法
JP2015085492A (ja) ロボット、ロボットシステム、制御装置及び制御方法
WO2020179507A1 (ja) 制御装置および位置合わせ装置
JP2017127932A (ja) ロボット装置、ロボット制御方法、部品の製造方法、プログラム及び記録媒体
JP5942720B2 (ja) 状態判別方法、ロボット、制御装置、及びプログラム
JP7433509B2 (ja) 制御装置、ロボットシステム、学習装置、軌跡モデル、制御方法、およびプログラム
WO2024135220A1 (ja) ロボット制御システム
JP7040567B2 (ja) 制御装置、制御装置の制御方法、情報処理プログラム、および記録媒体

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200980155461.3

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09830124

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 13132763

Country of ref document: US

122 Ep: pct application non-entry in european phase

Ref document number: 09830124

Country of ref document: EP

Kind code of ref document: A1