JP2011230243A - Device and method for teaching-procedure calibration for robot - Google Patents

Device and method for teaching-procedure calibration for robot Download PDF

Info

Publication number
JP2011230243A
JP2011230243A JP2010103344A JP2010103344A JP2011230243A JP 2011230243 A JP2011230243 A JP 2011230243A JP 2010103344 A JP2010103344 A JP 2010103344A JP 2010103344 A JP2010103344 A JP 2010103344A JP 2011230243 A JP2011230243 A JP 2011230243A
Authority
JP
Japan
Prior art keywords
robot
work
teaching
posture
procedure
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010103344A
Other languages
Japanese (ja)
Other versions
JP5366018B2 (en
Inventor
Yosuke Kamiya
陽介 神谷
Yasuyuki Inoue
康之 井上
Hideo Nagata
英夫 永田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yaskawa Electric Corp
Original Assignee
Yaskawa Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yaskawa Electric Corp filed Critical Yaskawa Electric Corp
Priority to JP2010103344A priority Critical patent/JP5366018B2/en
Publication of JP2011230243A publication Critical patent/JP2011230243A/en
Application granted granted Critical
Publication of JP5366018B2 publication Critical patent/JP5366018B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Manipulator (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a calibration method of a work coordinate system of a high-speed highly-accurate robot, by highly-accurately detecting at the submillimeter level such as the encoder resolution, by detecting a contact position by contacting with a work object without losing high speed performance being a characteristic of the robot.SOLUTION: Processing is performed by a procedure in such a way that a probe having an elastically deformable area is used to repeat contact position detecting processing by a predetermined frequency before and after a position-posture error is caused, so that a position-posture of the work object to the robot coordinates is calculated, the position-posture error is calculated, and teaching data before a position error is caused is corrected.

Description

本発明の実施例は、例えばロボットの教示手順校正装置および方法に関する。   Embodiments described herein relate generally to a robot teaching procedure calibration apparatus and method, for example.

産業用ロボットを用いた組立・溶接等の生産ラインの事前レイアウト検討ではオフライン教示システムが導入されている。オフライン教示システムにおいて事前検討した教示データ(作業プログラム)を実際の生産ラインに適用するためには、オフライン教示システムと実ラインの作業対象物の配置誤差を修正するための、ロボット・作業対象物間の位置姿勢関係をキャリブレーション(校正)するという一般的な技術課題がある。
この一般的な技術課題を解決するために、実際の生産ラインにおいてロボットのツール先端を作業対象物、もしくは作業対象物を固定する治具の角に目視で合わせて位置検出を行い、検出した位置情報から作業座標系を作成する方法(例えば、特許文献1)や、作業対象物を数回タッチアップし、接触センサや、導通により電気的に接触を検出するセンサにより作業対象物の接触位置を求め、作業座標とロボット座標の位置関係を把握し修正する方法があった(例えば、特許文献2、特許文献3)。
また、組立ロボットに部品組付け位置を教示する方法として、CADの幾何データに基づいてロボットのハンド先端位置を目標点近傍まで移動させ、作業対象物に対して組付けを行いながら接触型センサで得た位置情報に基づいて位置修正を行う方法があった(特許文献4)。
また、弾性部材を備えたタッチセンサを利用して接触位置を求め、接触位置に移動して溶接作業を開始する方法があった(特許文献5)。
図7は、前記した特許文献2の手法を説明する図である。ロボット(30)を動作させて作業対象物(40)上に接触し、手先効果器に装着したセンサ(32)からロボット座標で測定した作業対象物の同一平面状に無い4点の接触位置と、これに対応するオフライン教示システムで設定された基準座標系における作業対象物の4点から、オフライン教示システムでの位置姿勢を作業プログラム上の位置姿勢に変換することが出来る。
このように、従来のロボットの作業座標系のキャリブレーション(校正)方法では、オフライン教示システムを用いて、あらかじめ設定した同一平面状に無い4点をタッチして作業座標とロボット座標の位置関係を算出し、作成した作業プログラムに対して修正するという手順がとられていた。
An off-line teaching system has been introduced for pre-layout studies of production lines such as assembly and welding using industrial robots. In order to apply the teaching data (work program) examined in advance in the offline teaching system to the actual production line, the robot-working object between the offline teaching system and the actual work line must be corrected. There is a general technical problem of calibrating the position / posture relationship.
In order to solve this general technical problem, in the actual production line, the robot tool tip is visually aligned with the work object or the corner of the jig that fixes the work object, and the position is detected. The contact position of the work object is determined by a method for creating a work coordinate system from information (for example, Patent Document 1) or by touching up the work object several times and detecting a contact electrically by a contact sensor or conduction. There has been a method for obtaining and correcting the positional relationship between work coordinates and robot coordinates (for example, Patent Document 2 and Patent Document 3).
Also, as a method of teaching the assembly position of the parts to the assembly robot, a contact-type sensor is used while moving the tip of the robot's hand to the vicinity of the target point based on CAD geometric data and assembling the work object. There has been a method of correcting the position based on the obtained position information (Patent Document 4).
Further, there is a method of obtaining a contact position using a touch sensor provided with an elastic member, and moving to the contact position to start a welding operation (Patent Document 5).
FIG. 7 is a diagram for explaining the method of Patent Document 2 described above. The robot (30) is operated to come into contact with the work object (40), and the contact positions of the work object not measured on the same plane measured by the robot coordinates from the sensor (32) attached to the hand effector The position and orientation in the offline teaching system can be converted into the position and orientation in the work program from the four points of the work object in the reference coordinate system set in the offline teaching system corresponding to this.
As described above, in the conventional method for calibrating the work coordinate system of the robot, the offline teaching system is used to touch four points that are not set on the same plane in advance to determine the positional relationship between the work coordinates and the robot coordinates. The procedure of calculating and correcting the created work program was taken.

特許第2684359号公報Japanese Patent No. 2684359 特開平03−251378号公報Japanese Patent Laid-Open No. 03-251378 特開平04−340605号公報Japanese Patent Laid-Open No. 04-340605 特許第3304251号公報Japanese Patent No. 3304251 特開2007−069275号公報JP 2007-069275 A

特許文献1のロボットのツール先端を作業対象物、もしくは作業対象物を固定する治具の角に目視で合わせて位置検出を行い、検出した位置情報から作業座標系を作成する方法は目視位置合わせを行うため作業負荷が大きい。作業に慣れていない初心者ではキャリブレーション(校正)時間が大きくなり、精度も均一でない。
特許文献2のあらかじめ設定した同一平面状に無い4点をタッチして作業座標とロボット座標の位置関係を算出する方法は、ロボットの手先効果器に装着したセンサを接触させており、接触部は剛体であるため接触時のスピードを極低速にする必要がある(接触部を剛体としている点で特許文献3、特許文献4も同様の課題を抱えている)。また、近接スイッチや静電容量スイッチを用い、センサ情報を常時監視することによって接触した瞬間を検出し、その時点の接触部を記憶するという手法をとっているが、実際の接触では、センサで取得する情報は瞬間的な変化ではなく、一定の時間をかけて徐々に変化するため、正確な接触位置を求めることは出来なかった。
特許文献3の接触検出子をロボットの手先に設けて、作業対象物と接触検出子の接触状況を電気的に出力し、接触瞬間の接触検出子の位置データから検出対象物の位置を演算する方法は、接触検出子の接触動作は低速に限定され、また接触検出した瞬間に移動停止するためロボットの減速機に多大な負荷を与える。さらに、プラスチックや樹脂など通電しない材質に対して位置検出を行った場合には、接触検出信号が得られないため、接触検出処理としての汎用性を欠くものである。
特許文献5の弾性部材を備えたタッチセンサを利用して接触位置を求める方法は、タッチセンサはコイルスプリングを内在させたコイルスプリング伸縮方向の摺動装置と先端が端面のタッチピンで構成されているため、接触動作においてタッチピン端面と作業対象物の表面が平行になるようにロボットの姿勢は制限される。それ以外の姿勢で接触動作をさせた場合には接触位置が不正確となることや、タッチセンサに著しい損傷をもたらすことは自明である。また、接触検知方法に関して、接触検知信号を入信してから接触位置を計算する手順をとるため、接触から接触位置計算までの時間の遅延により、動作速度が速くなるにつれて、接触位置が不正確となる。さらに、位置検出した後の処理に関しても、タッチセンサで検出した位置へ装着した溶接具を移動させるという手順を取っているため、移動後の溶接具の姿勢決定方法を別途考慮する必要があり、作業教示手順の簡便さに課題がある。
従って、以上いずれの従来技術においても、オフライン教示時と、再生時の作業対象物の配置誤差を修正するために、オンライン教示時(実作業時の直前)において、人による誘導無く自動的に、しかも高速に、当該修正を行うことはできなかった。
The method of creating a work coordinate system from the detected position information by visually aligning the tool tip of the robot of Patent Document 1 with the work object or the corner of the jig for fixing the work object is a visual alignment. Work load. For beginners who are not familiar with the work, the calibration time becomes large and the accuracy is not uniform.
The method of calculating the positional relationship between the work coordinates and the robot coordinates by touching four points that are not in the same plane set in advance in Patent Document 2 is to contact a sensor mounted on the hand effector of the robot. Since it is a rigid body, it is necessary to make the speed at the time of contact extremely low (Patent Document 3 and Patent Document 4 have the same problem in that the contact portion is a rigid body). In addition, a proximity switch or a capacitance switch is used to detect the moment of contact by constantly monitoring sensor information and memorize the contact portion at that time. Since the information to be acquired is not an instantaneous change but gradually changes over a certain period of time, an accurate contact position cannot be obtained.
The contact detector of Patent Document 3 is provided at the hand of the robot, the contact state between the work object and the contact detector is electrically output, and the position of the detection object is calculated from the position data of the contact detector at the moment of contact. In the method, the contact operation of the contact detector is limited to a low speed, and the movement is stopped at the moment when the contact is detected, so that a great load is applied to the speed reducer of the robot. Furthermore, when position detection is performed on a material that is not energized, such as plastic or resin, a contact detection signal cannot be obtained, so that versatility as a contact detection process is lacking.
In the method of obtaining a contact position using a touch sensor having an elastic member of Patent Document 5, the touch sensor is composed of a sliding device in a coil spring expansion / contraction direction in which a coil spring is incorporated and a touch pin having an end surface at the end. Therefore, the posture of the robot is limited so that the end face of the touch pin and the surface of the work object are parallel in the contact operation. Obviously, when the contact operation is performed in any other posture, the contact position becomes inaccurate and the touch sensor is significantly damaged. Also, regarding the contact detection method, since the procedure for calculating the contact position after receiving the contact detection signal is taken, the contact position becomes inaccurate as the operation speed increases due to the time delay from contact to contact position calculation. Become. Furthermore, regarding the processing after position detection, since the procedure of moving the welding tool attached to the position detected by the touch sensor is taken, it is necessary to consider separately the attitude determination method of the welding tool after movement, There is a problem in the simplicity of the work teaching procedure.
Therefore, in any of the above prior arts, in order to correct the placement error of the work object at the time of offline teaching and reproduction, automatically at the time of online teaching (immediately before the actual work) without human guidance, Moreover, the correction could not be performed at high speed.

上記課題を解決するため、本願発明は、次のような発明を提供する。
なお、本願出願時の明細書の記載を基礎として、特許請求の範囲の記載が補正され得ることは勿論であるが、その際に、以下の各「発明」の内容を訂正することは予定しない(以下の各「発明」は、本願明細書における開示の要点としての意味を持つ)。
In order to solve the above problems, the present invention provides the following inventions.
Of course, the description of the scope of claims can be amended based on the description of the specification at the time of filing the application, but at that time, the contents of the following “inventions” are not scheduled to be corrected. (Each "invention" below has the meaning as a gist of disclosure in the present specification).

[発明1]
第1の教示時におけるロボットと作業対象物の相対的な位置及び姿勢を前提として与えられた、前記ロボットが行うべき作業対象物に対する作業手順を記憶する、作業手順記憶手段と、
前記ロボットに備えられた、前記ロボットと前記作業対象物との相対的な位置、及び/又は、姿勢の変化量を獲得する、位置・姿勢変化量獲得手段によって、
前記第1の教示の後に、
(a)前記ロボットと作業対象物の相対的な位置、及び/又は、姿勢、
(b)前記ロボットの、少なくとも1つのアーム長、
(c)前記ロボットの軸を駆動するモータと当該軸との連結関係の変更による駆動モータにおける機械的回転運動の原点位置、
の少なくとも1つが変更された場合に、当該変更の存在に関わらず、前記作業対象物に対して同様の作業が行われるように、前記記憶された作業手順を修正する手段と、
を備え、
前記修正された作業手順が、前記位置・姿勢変化量獲得手段によって得られた、前記変更後の、前記作業対象物の位置及び姿勢をもとに得られる、ロボットを基準とした座標から作業対象物を基準とした座標への、同次変換行列を用いて、ロボットを基準とした座標での作業手順として与えられる、
ロボットの教示手順校正装置。
[Invention 1]
A work procedure storage means for storing a work procedure for a work target to be performed by the robot, given on the premise of a relative position and posture of the robot and the work target at the time of the first teaching;
Position / posture change amount acquisition means for acquiring a relative position and / or posture change amount of the robot and the work object provided in the robot,
After the first teaching,
(A) relative position and / or posture of the robot and the work object;
(B) at least one arm length of the robot;
(C) the origin position of the mechanical rotary motion in the drive motor by changing the connection relationship between the motor driving the robot shaft and the shaft;
Means for modifying the stored work procedure so that the same work is performed on the work object regardless of the presence of the change when at least one of the
With
The corrected work procedure is obtained from the position / posture change amount acquisition means, and is obtained based on the position and posture of the work target after the change, and the work target is obtained from coordinates based on the robot. Given as a work procedure with coordinates based on the robot, using a homogeneous transformation matrix to coordinates based on the object,
Robot teaching procedure calibration device.

このようにすることによって、ロボットと作業対象物の間の位置、及び/又は、姿勢に、何らかの原因により変化が生じた場合でも、獲得された当該変化の程度に基づいて、再生作業前に、以前に作成された作業手順を、修正することができる。
また、「前記作業手順を修正する手段が、前記位置・姿勢変化量獲得手段によって得られた、前記変更後の、前記作業対象物の位置及び姿勢をもとに得られる、ロボットを基準とした座標から作業対象物を基準とした座標への、同次変換行列を用いて、ロボットを基準とした座標での作業手順として与えられる」ように構成することによって、ロボット座標で作業を定義でき、ロボットに対する作業指示が容易となる。
「位置・姿勢変化量獲得手段」は、実施例の接触位置検出プローブ3によって検出した接触位置情報からロボットと作業対象物の相対的な位置及び姿勢を計算する手段に対応するが、これに限定されず、将来開発され得る、図8−1の通電方式、図8−2の接触センサ方式、図8−3の外乱オブザーバ方式も含まれる。(なお、図8−3のオブザーバ方式に限らず、位置、及び/又は、姿勢の変化を、システム内部の「状態」の変化と捉える、その他の「オブザーバ」や、ノイズの影響も考慮した「カルマン・フィルタ」も含まれる。)
また、図8−4に例示されるような、レーザ光線を用いたり、図8−5に例示されるような2次元的や3次元的な接触状態検出手段を用いたりするものも広く含まれる。また、
図8−4に例示されるようなレーザ光線を用いた場合は、非接触状態で、位置・姿勢を検出可能である。
図8−5に例示されるような2次元的な位置・姿勢変化量獲得手段を用いるものは、柔軟な2次元的な位置・姿勢変化量獲得手段を用いるものであり、作業対象物の所定の形状に「フィット」する状態を検知して、その検知に応じて、位置・姿勢を検出可能である。
「位置・姿勢変化量獲得手段」は、その下位概念である、「接触状態検出手段」を包含する。この「接触状態検出手段」には、例えば、図1−Bの接触位置検出プローブ3、図8−1の導電検出プローブ011、図8−2の剛体プローブ023、図8−3のカルマンフィルタを利用する手段、図8−5の柔軟性を有する接触状態検出手段等が含まれるが、図8−4のレーザ光を用いた検出手段は含まれない。
「作業手順記憶手段」は、実施例のステップS13で教示された作業を記憶する手段(図1−Bのロボットコントローラ5の内部(不図示))に対応するがこれに限定されない。
「作業手順修正手段」は、実施例の[数5]から[数10]を用いた処理に対応するがこれに限定されない。同次変換行列を用いる限り、本発明の範囲に含まれる。
「獲得」とは、計算によって得る場合も含むし、予めテーブルに記憶された値を読み出す場合も含む。
なお、「作業対象物」には、再生過程における、実際に作業を行う対象物(「被作業物」と呼ぶ。)のみならず、本発明の「位置・姿勢を検出」の目的のために、被作業物の一部に固定された物体、又は、被作業物と所定の位置・姿勢関係になることがロボットから見て既知である、本発明の「位置・姿勢を検出」の目的に利用可能な物体も含む。
また、「作業手順」とは、ロボットに時系列的に与えられる、例えば図1−Bのロボット1、手先効果器2に関する指示の双方を含む。
「位置・姿勢変化量獲得手段」、「作業手順記憶手段」、「作業手順修正手段」、「作業手順」については、以下同様である。つまり、以下において、以上の「位置・姿勢変化量獲得手段」、「作業手順記憶手段」、「作業手順修正手段」、「作業手順」の用語を用いる場合には、以上の各説明がそのまま妥当する。
「(a)前記ロボットと作業対象物の相対的な位置、及び/又は、姿勢」の変化、「(b)前記ロボットの、少なくとも1つのアーム長」の変化、「(c)前記ロボットの軸を駆動するモータと当該軸との連結関係の変更による駆動モータにおける機械的回転運動の原点位置」の変化、の異同について説明する。「(b)前記ロボットの、少なくとも1つのアーム長」の変化、「(c)前記ロボットの軸を駆動するモータと当該軸との連結関係の変更による駆動モータにおける機械的回転運動の原点位置」の変化の2つは、ロボット自体の構成が変化してしまった場合を意味するが、「(a)前記ロボットと作業対象物の相対的な位置、及び/又は、姿勢」の変化は、ロボット自体の構成は変化していないが、ロボットと作業対象物の間の相対的な位置・姿勢関係が、変化した場合が代表例である。以下同様。
本発明は、「相対的な」位置・姿勢を利用しているが、ロボット又は作業対象物のいずれかの「絶対的な」位置・姿勢が既知な場合(固定されている場合)の、当該「絶対的な」位置・姿勢を前提として、何らかの原因によって変動し得る、作業対象物又はロボットの絶対的位置・姿勢の「変化」を検出して、所望の作業を行うようにする態様も、本発明に含まれる。
本発明の「ロボット」は、本体自体は固定されて、例えば図1−Bのロボット1、手先効果器2を移動させることによって、作業対象物の位置等の変化に対応可能なものを含む。
In this way, even if there is a change in the position and / or posture between the robot and the work object due to any cause, based on the degree of the obtained change, before the reproduction work, Previously created work procedures can be modified.
In addition, “the means for correcting the work procedure is obtained based on the position and posture of the work object after the change obtained by the position / posture change amount obtaining means, based on a robot. By using the homogeneous transformation matrix from the coordinates to the coordinates based on the work object, it is given as a work procedure with the coordinates based on the robot. It is easy to give work instructions to the robot.
“Position / posture change amount acquisition means” corresponds to means for calculating the relative position and posture of the robot and the work object from the contact position information detected by the contact position detection probe 3 of the embodiment, but is not limited thereto. In addition, the energization method shown in FIG. 8A, the contact sensor method shown in FIG. 8B, and the disturbance observer method shown in FIG. (It is not limited to the observer method of FIG. 8-3, and other “observers” that consider changes in position and / or posture as changes in the “state” inside the system, and the influence of noise are also considered. (Kalman filter ”is also included.)
In addition, those using a laser beam as exemplified in FIG. 8-4 or using a two-dimensional or three-dimensional contact state detecting means as exemplified in FIG. 8-5 are also widely included. . Also,
When a laser beam as illustrated in FIG. 8-4 is used, the position / posture can be detected in a non-contact state.
The one using the two-dimensional position / posture change amount acquisition unit as illustrated in FIG. 8-5 uses a flexible two-dimensional position / posture change amount acquisition unit, and is a predetermined work object. It is possible to detect the state of “fitting” to the shape and detect the position / orientation according to the detection.
The “position / posture change amount acquisition means” includes “contact state detection means” which is a subordinate concept thereof. For the “contact state detection means”, for example, the contact position detection probe 3 in FIG. 1B, the conductivity detection probe 011 in FIG. 8-1, the rigid probe 023 in FIG. 8-2, and the Kalman filter in FIG. 8-3 are used. 8-5, the contact state detecting means having flexibility shown in FIG. 8-5, and the like, but the detecting means using the laser beam shown in FIG. 8-4 are not included.
The “work procedure storage means” corresponds to means for storing the work taught in step S13 of the embodiment (inside the robot controller 5 in FIG. 1B (not shown)), but is not limited thereto.
“Work procedure correction means” corresponds to the processing using [Equation 5] to [Equation 10] of the embodiment, but is not limited thereto. As long as a homogeneous transformation matrix is used, it is included in the scope of the present invention.
“Acquisition” includes a case of obtaining by calculation and a case of reading a value stored in a table in advance.
Note that the “work object” includes not only an object actually performing work (referred to as “work object”) in the reproduction process, but also for the purpose of “position / posture detection” of the present invention. For the purpose of “detect position / orientation” of the present invention, an object fixed to a part of the work object or a known position / orientation relationship with the work object is known from the viewpoint of the robot. Includes available objects.
Further, the “work procedure” includes both instructions relating to the robot 1 and the hand effector 2 shown in FIG.
The same applies to “position / posture change amount acquisition means”, “work procedure storage means”, “work procedure correction means”, and “work procedure”. In other words, in the following, when the terms “position / posture change amount acquisition means”, “work procedure storage means”, “work procedure correction means”, and “work procedure” are used, the above explanations are valid as they are. To do.
“(A) change in the relative position and / or posture of the robot and work object”, “(b) change in at least one arm length of the robot”, “(c) axis of the robot The difference between the change in the origin position of the mechanical rotational motion in the drive motor due to the change in the connection relationship between the motor driving the shaft and the shaft will be described. “(B) Change in at least one arm length of the robot”, “(c) Origin position of mechanical rotational motion in the drive motor by changing the connection relation between the motor driving the robot shaft and the shaft” The two changes mean that the configuration of the robot itself has changed, but the change in “(a) relative position and / or posture of the robot and work object” Although the configuration of itself has not changed, a typical example is a case where the relative position / posture relationship between the robot and the work object has changed. The same applies below.
The present invention uses the “relative” position / posture, but the “absolute” position / posture of either the robot or the work target is known (when fixed). On the premise of "absolute" position / posture, an aspect of detecting a "change" in the absolute position / posture of the work object or robot that may fluctuate due to some cause, and performing a desired work, It is included in the present invention.
The “robot” of the present invention includes a robot whose main body itself is fixed and capable of responding to changes in the position or the like of the work object by moving the robot 1 and the hand effector 2 in FIG.

[発明2]
作業対象物の位置及び姿勢を前提として与えられた、教示時における、前記ロボットが行うべき作業対象物に対する作業手順を記憶する、作業手順記憶手段と、
ロボットを基準とした作業対象物の位置及び姿勢を獲得可能な、ロボットに設置された位置・姿勢変化量獲得手段によって、第1の教示の後に、
(a)前記ロボットと作業対象物の相対的な位置、及び/又は、姿勢、
(b)前記ロボットの、少なくとも1つのアーム長、
(c)前記ロボットの軸を駆動するモータと当該軸との連結関係の変更による駆動モータにおける機械的回転運動の原点位置、
の少なくとも1つが変更された場合に、前記ロボットからの、当該検出された情報を受け取る位置・姿勢変化量獲得データ受領手段と、
前記受領された位置・姿勢変化量データを元に、前記変更の存在に関わらず、前記作業対象物に対して同様の作業が行われるように、前記記憶された作業手順を修正する手段と、
を備え、
前記作業手順を修正する手段が、前記位置・姿勢変化量獲得手段によって検出された、前記変更後の、前記作業対象物の位置及び姿勢をもとに得られる、ロボットを基準とした座標から作業対象物を基準とした座標への、同次変換行列を用いて、ロボットを基準とした座標での作業手順として与えられる、
ロボットの教示手順校正装置。
[Invention 2]
Work procedure storage means for storing a work procedure for the work object to be performed by the robot at the time of teaching, given on the premise of the position and posture of the work object;
After the first teaching by the position / posture change amount acquisition means installed in the robot, which can acquire the position and posture of the work object based on the robot,
(A) relative position and / or posture of the robot and the work object;
(B) at least one arm length of the robot;
(C) the origin position of the mechanical rotary motion in the drive motor by changing the connection relationship between the motor driving the robot shaft and the shaft;
Position / posture change amount acquisition data receiving means for receiving the detected information from the robot when at least one of the robot is changed;
Based on the received position / posture change amount data, means for correcting the stored work procedure so that the same work is performed on the work object regardless of the presence of the change;
With
The means for correcting the work procedure works from coordinates based on the robot, which are obtained based on the position and posture of the work object after the change detected by the position / posture change amount obtaining means. Given as a work procedure in coordinates relative to the robot, using a homogeneous transformation matrix to coordinates relative to the object,
Robot teaching procedure calibration device.

このように構成することによって、ロボット本体から離れた位置に、位置・姿勢変化量獲得手段からのデータを受け取る「ロボットの教示手順校正装置」を設置することが可能となる。
このように構成することによって、ロボットと制御系を空間的に隔離でき、保守等が容易になる。
「受領」とは、リアルタイムに通信によって受信する場合や、データが取り外し可能記憶媒体に記憶されている場合、当該記憶媒体を、教示手順校正装置に挿入して、制御を行うような態様も含む。また、「位置・姿勢変化量データ受領」とは、実際の「位置・姿勢」自体を受領する場合も、以前の検出時点からの差分値を受領する場合等も含む。
With this configuration, a “robot teaching procedure calibration device” that receives data from the position / posture change amount acquisition unit can be installed at a position away from the robot body.
With this configuration, the robot and the control system can be spatially separated, and maintenance and the like are facilitated.
“Receiving” includes a mode in which control is performed by inserting the storage medium into the teaching procedure calibration apparatus when data is received by communication in real time or when data is stored in a removable storage medium. . “Position / posture change amount data reception” includes a case where the actual “position / posture” itself is received and a case where a difference value from the previous detection time is received.

[発明2’] ロボットに設置され、ロボットを基準とした、作業対象物の位置及び姿勢を獲得可能な位置・姿勢変化量獲得手段と、
前記ロボットを制御する教示手順校正装置を備え、
前記教示手順校正装置が、
前記位置・姿勢変化量獲得手段からのデータを受け取る、位置・姿勢変化量データ受領手段と、
作業対象物の位置及び姿勢を前提として与えられた、教示時における前記ロボットが行うべき作業対象物に対する作業手順を記憶する、作業手順記憶手段と、
前記位置・姿勢変化量獲得手段によって、第1の教示の後に、
(a)前記ロボットと作業対象物の相対的な位置、及び/又は、姿勢、
(b)前記ロボットの、少なくとも1つのアーム長、
(c)前記ロボットの軸を駆動するモータと当該軸との連結関係の変更による駆動モータにおける機械的回転運動の原点位置、
の少なくとも1つが変更された場合に、前記ロボットからの、当該検出された情報を受け取る位置・姿勢変化量データ受領手段と、
前記受領された位置・姿勢変化量データを元に、前記変更の存在に関わらず、前記作業対象物に対して同様の作業が行われるように、前記記憶された作業手順を修正する手段と、
を備え、
前記作業手順を修正する手段が、前記位置・姿勢変化量獲得手段によって検出された、前記変更後の、前記作業対象物の位置及び姿勢をもとに得られる、ロボットを基準とした座標から作業対象物を基準とした座標への、同次変換行列を用いて、ロボットを基準とした座標での作業手順として与えられる、
ロボットの教示手順校正装置。
[Invention 2 '] Position / posture change amount acquisition means installed on the robot and capable of acquiring the position and posture of the work object with reference to the robot;
A teaching procedure calibration device for controlling the robot;
The teaching procedure calibration device comprises:
Position / posture change amount data receiving means for receiving data from the position / posture change amount acquiring means;
A work procedure storage means for storing a work procedure for a work target to be performed by the robot at the time of teaching given on the premise of the position and posture of the work target;
After the first teaching by the position / posture change amount acquisition means,
(A) relative position and / or posture of the robot and the work object;
(B) at least one arm length of the robot;
(C) the origin position of the mechanical rotary motion in the drive motor by changing the connection relationship between the motor driving the robot shaft and the shaft;
Position / posture change amount data receiving means for receiving the detected information from the robot when at least one of the robot is changed;
Based on the received position / posture change amount data, means for correcting the stored work procedure so that the same work is performed on the work object regardless of the presence of the change;
With
The means for correcting the work procedure works from coordinates based on the robot, which are obtained based on the position and posture of the work object after the change detected by the position / posture change amount obtaining means. Given as a work procedure in coordinates relative to the robot, using a homogeneous transformation matrix to coordinates relative to the object,
Robot teaching procedure calibration device.

この発明は、上記発明1又は2における、「ロボット制御システム」が、ロボットと一体的に存在する態様である。
このように構成することによって、ロボットと制御系が一体化され、制御用の通信ラインや、通信回線が不要となる。
本願の審査過程、又は、特許後の訂正請求(訂正審判)において、本願請求項に係る発明の一部又は全てを、本発明のように、「ロボット制御システム」が、ロボットと一体的に存在する態様に修正する可能性を留保する。
The present invention is an aspect in which the “robot control system” in the first or second aspect of the present invention is integrated with a robot.
With this configuration, the robot and the control system are integrated, and a control communication line and a communication line become unnecessary.
In the examination process of this application, or in the request for correction after the patent (correction trial), part or all of the claimed invention is partly integrated with the robot as in the present invention. Reserves the possibility of modification to the mode to do.

[発明3]
前記作業手順修正手段が、
(a)第1の教示時における第1の同次変換行列と、(b)第2の教示時における、前記位置、及び/又は、姿勢の変化量に基づいて得られた、第2の同次変換行列と、
の差を用いて、前記作業手順を修正する、
発明1ないし2’に記載のロボットの教示手順校正装置。
[Invention 3]
The work procedure correcting means is
(A) a first homogeneous transformation matrix at the time of the first teaching, and (b) a second same matrix obtained based on the amount of change in the position and / or posture at the time of the second teaching. A second-order transformation matrix,
To correct the work procedure using the difference of
The robot teaching procedure calibration apparatus according to the first or second aspect.

このように、同次変換行列の差を用いて、容易に作業手順を修正することができる。   In this way, the work procedure can be easily corrected using the difference between the homogeneous transformation matrices.

[発明4]
前記位置・姿勢変化量獲得手段が、作業対象物への接触状態を検出する接触状態検出手段を含み、当該接触状態検出手段が、前記ロボットの前記作業対象物への接近速度において、前記ロボット、及び、前記作業対象物に損傷を与えない程度の柔軟性を有する、位置・姿勢変化量獲得用接触状態検出部を有する、発明1ないし3に記載のロボットの教示手順校正装置。
[Invention 4]
The position / posture change amount acquisition unit includes a contact state detection unit that detects a contact state with a work object, and the contact state detection unit is configured to move the robot at an approach speed of the robot to the work object. The robot teaching procedure calibration apparatus according to any one of claims 1 to 3, further comprising a contact / state detecting unit for acquiring a position / posture change amount that is flexible enough not to damage the work object.

このように構成することによって、従来技術に比して、高速で、作業対象物に接近することが可能となる。   By comprising in this way, it becomes possible to approach a work target at high speed compared with a prior art.

[発明5]
前記ロボットの、前記作業対象物への接触過程を時系列的に記憶する、接触過程記憶手段を更に備え、
前記作業対象物への接触過程を過去に遡って検証することによって、接触開始位置、及び/又は、接触開始時刻を得る、接触開始位置/接触開始時刻獲得手段を備える、
発明4に記載のロボットの教示手順校正装置。
[Invention 5]
The robot further comprises contact process storage means for storing the contact process of the robot with the work object in time series,
A contact start position / contact start time acquisition means for obtaining a contact start position and / or a contact start time by verifying the contact process with the work object retroactively;
A robot teaching procedure calibration apparatus according to a fourth aspect of the present invention.

このように構成することによって、接触開始位置、及び/又は、接触開始時刻を正確に把握できる。   By comprising in this way, a contact start position and / or a contact start time can be grasped | ascertained correctly.

[発明6]
前記第1の同次変換行列、及び、前記第2の同次変換行列は、
直交する二平面、もしくは互いに直交する三平面を有する作業対象物の各平面を所定回数位置検出し、検出した位置から計算されることを特徴とし、特に直交する二平面の場合には、前記直交する二平面上に位置する2つの点P1、P2と、当該平面と直交する別の平面上に位置する1つの点P3、のそれぞれについて、
(i=1,2,3:それぞれP1、P2、及び、P3に対応。)
に基づいて、P1、P2、及び、P3の位置を検出する手段であって、
[x1 y1]、[x2 y2]、[x3 y3]が、それぞれ、P1、P2、及び、P3の、ロボットに基づく座標上の座標値であり、
[xtcp ytcp]が、ロボットに基づく座標上の前記接触検出部の先端部の位置であり、
[R 0]、[−R 0]、[0 R]、[0 −R]がそれぞれ、前記接触検出部の先端部の半径Rを用いて、前記[xtcp ytcp]を補正して、より正確な位置を求めるための行列である、前記手段と、
以下の、
及び、
に基づいて、
以下の、
で表される同次変換行列を計算する手段、
によって得られる、
発明4又は5に記載のロボットの教示手順校正装置。
[Invention 6]
The first homogeneous transformation matrix and the second homogeneous transformation matrix are:
Each plane of a work object having two orthogonal planes or three planes orthogonal to each other is detected a predetermined number of times, and is calculated from the detected positions. In particular, in the case of two orthogonal planes, the orthogonal For each of two points P1 and P2 located on two planes and one point P3 located on another plane orthogonal to the plane,
(I = 1,2,3: corresponding to P1, P2, and P3, respectively)
Is a means for detecting the positions of P1, P2 and P3 based on
R [x1 y1], R [x2 y2], and R [x3 y3] are coordinate values on coordinates based on the robots of P1, P2, and P3, respectively.
R [xtcp ytcp] is the position of the tip of the contact detector on coordinates based on the robot,
[R 0], [−R 0], [0 R], and [0 −R] respectively correct the R [xtcp ytcp] using the radius R of the tip of the contact detection unit, and Said means being a matrix for determining an exact position;
below,
as well as,
On the basis of the,
below,
Means for calculating a homogeneous transformation matrix R T W represented by:
Obtained by
The robot teaching procedure calibration apparatus according to claim 4 or 5.

このように、作業対象物の形状を一定のものにすることで、画一的に作業対象物の位置及び姿勢を得ることができる。この「一定の形状」は,本発明では、矩形形状であるが、本発明の上位概念発明では、矩形に限定されず、例えば三角形や円形等の任意の(平面、立体)形状が採用可能であり、本願の審査過程又は特許後の訂正請求(訂正審判)において、本発明の上位概念に対応する請求項にそのような発明を含める可能性を留保する。
なお、本発明では「鉛直方向から見た作業対象物」を対象としているが、ロボットが一意的に認識可能であれば、ロボットから見て「所定の方向」の「作業対象物」の特定の形状を用いることも可能である。そのような発明の態様は、本発明より上位概念の発明に含まれるし、審査過程又は特許後の訂正請求(訂正審判)で、そのような発明を補正によって、特許請求の範囲に含める可能性も留保する。
Thus, by making the shape of the work object constant, the position and orientation of the work object can be obtained uniformly. In the present invention, this “certain shape” is a rectangular shape, but in the superordinate concept invention of the present invention, it is not limited to a rectangle, and any (planar, three-dimensional) shape such as a triangle or a circle can be adopted. Yes, the possibility of including such an invention in the claims corresponding to the superordinate concept of the present invention in the examination process of the present application or the request for correction after correction (correction trial) is reserved.
In the present invention, the “work object viewed from the vertical direction” is targeted. However, if the robot can be uniquely recognized, a specific “work object” in the “predetermined direction” as viewed from the robot is specified. It is also possible to use a shape. Such an aspect of the invention is included in the invention of a higher concept than the present invention, and such an invention may be included in the scope of the claims by amendment in the examination process or a request for correction after the patent (correction trial). Also reserve.

[発明7]
発明1ないし6に記載のロボットの教示手順校正装置を用いて、ロボットを制御する方法であって、
第1の教示時における、前記同次変換行列、即ち、第3の同次変換行列を取得し、
第2の教示時における、前記同次変換行列、即ち、第4の同次変換行列を取得し、
前記第3の同次変換行列と、前記第4の同次変換行列の差を求め、
前記求められた同次変換行列の差を用いて、前記第1の教示時に用いた、ロボットの作業手順を修正して、第2の教示時に利用する、
ロボットの教示手順校正方法。
[Invention 7]
A method for controlling a robot using the robot teaching procedure calibration device according to any one of the first to sixth aspects,
Obtaining the homogeneous transformation matrix, that is, the third homogeneous transformation matrix at the time of the first teaching;
Obtaining the homogeneous transformation matrix at the time of the second teaching, that is, the fourth homogeneous transformation matrix;
Obtaining a difference between the third homogeneous transformation matrix and the fourth homogeneous transformation matrix;
Using the difference between the obtained homogeneous transformation matrices, the robot work procedure used at the time of the first teaching is corrected and used at the time of the second teaching.
Robot teaching procedure calibration method.

このようにすることによって、第1の教示に引き続いて、第2の教示が行われるよう場合に、直前の教示時の作業手順を容易に修正して、妥当な第2の教示データを求めることができる。
ここで、「第1の」、「第2の」とは、「最初の」、「2番目の」という意味に限定されるものではなく、任意のある時点の教示と、それに後続する「次の」教示過程の、という意味である。つまり、教示→第1の再生→第2の再生→・・・、というように、複数の再生作業が連続する場合、1つ前における再生(当該時点での相対的位置・姿勢を前提として与えられていた)を、今回の再生時点における相対的位置・姿勢と、前回の再生時の相対的位置・姿勢との「差」を元に修正することによって、連続的に再生作業を行うことが可能となる。
In this way, when the second teaching is performed following the first teaching, the work procedure at the time of the previous teaching is easily corrected to obtain the appropriate second teaching data. Can do.
Here, the terms “first” and “second” are not limited to the meanings of “first” and “second”, but any given point in time, followed by “next” Means "in the teaching process". In other words, when a plurality of reproduction operations are continued, such as teaching → first reproduction → second reproduction →..., Reproduction immediately before (given based on the relative position and orientation at the time) Can be performed continuously by correcting the difference between the relative position / posture at the time of the current playback and the relative position / posture at the time of the previous playback. It becomes possible.

以下、本明細書で用いられる用語の意義について説明する。
・ロボット→人の代わりに何等かの作業を行う装置。本発明では、主に、ある程度自律的に連続した自動作業を行う、産業用ロボットが代表例だが、これに限定されない。将来開発される「ロボット(人の代わりに何等かの作業を行う装置)」であって、本願特許請求の範囲の技術的範囲に含まれる発明を利用可能な全ての「ロボット」が含まれる。
・レイアウト検討→産業用ロボットを用いた組立・溶接等の生産ラインの作業手順の検討のこと。
・教示→ロボットに作業を行わせるためにその作業を実現する動作を何らかの方法で教え込むことである。
・再生→ロボットが、記憶した情報によって指示された作業・動作を実行すること(playback)。
・教示データ(作業プログラム)→ロボットへの作業の教示に用いるデータ、及び/又は、コンピュータプログラムである。
・オンライン教示→ロボットが作業を行う環境にて、教示作業者が実際にロボットを動作させながら教示を行うこと。
・オフライン教示→オンライン教示と対の概念。実際のロボットを用いず、コンピュータ上のシミュレーションなどによって教示を行うこと。
・実ライン→ロボットによって作業が行われる一連の工程全体を意味する。
・生産ライン→実ラインと同義。ロボットによって作業が行われる一連の工程全体を意味する。
・ロボットのツール→ロボットの手先に取り付けられ、作業対象物に対して何らからの作業をするもの。物を掴むハンド(グリッパ)や、バリ取りを行うグラインダなど、具体的な構成は用途によって様々存在する。
・作業対象物→ロボットによって作業を行う対象物。ロボットによって、把持、運搬、溶接等が行われる対象物。
・治具→治具(jig)は、加工や組立ての際、部品や工具の作業位置を指示・誘導するために用いる器具の総称。
・位置検出→ロボットと、既知である空間上に位置に存在する物体との位置関係を測定・計算等することによって、ロボットが、現実に空間内のどの位置に存在するかを判断すること。
・作業座標系→ロボットのエンドエフェクタの先(手先部)に固定された直交座標系であり、ロボットの手先位置姿勢を変化させる際の基準として使う座標系である。作業座標系の軸方向は、エンドエフェクタの形状に合わせて、作業者が任意に決定する。(エンドエフェクタとは、ロボットの手先に取り付けられ、作業対象物に対して何らからの作業をするもの。物を掴むハンド(グリッパ)や、バリ取りを行うグラインダなど、具体的な構成は用途によって様々存在する。)
・タッチアップ→接触すること。
・ロボット座標系→ロボット本体に固定された直交座標系であり、ロボットを動作させる際の基準として使う座標系である。このロボット座標系は、通常ロボットの前後方向にX軸、左右方向にY軸、上下方向にZ軸をとる。
・組付け→部品等を装置に据え付けること。組み立てと同義。
・タッチセンサ→接触を検出するセンサ。
・キャリブレーション(校正)→所定の位置・姿勢に移動せよ、というロボットに対する指令に係る当該位置・姿勢と、実際にロボットが移動した位置・姿勢が一致するよう、設計時のロボット座標系と実際のロボット座標系との間のズレやロボットの機械的な誤差を同定すること。
・作業プログラム→ロボットに対する指令(取るべき位置や姿勢を指示するもの)。時間の進展に従って、順次所定の位置や姿勢を取るように、シーケンシャルな指令となる場合が多い。
・接触安定→制御の不完全性等による手先効果器の振動等によって、手先効果器と作業対象物との接触が、不安定になることが無い状態のこと。
・タッチピン→被接触物と接触する棒状物。
・端面→平坦な面。
・(接触検知信号を)入信→位置検出を行う測定部に信号が入ってくること。
・パレタイジング→パレットなどの上に、物を一定の規則にしたがって並べることを
いう。ここで、パレットとは、当該並べられる物を置くために特に適した形状を持つ板状の土台、基盤、等を意味する。
・同次変換行列→座標系Σ2からΣ1に変換するための変換行列。例えば、上記ロボット座標系の座標値を表す行列に、この同次変換行列を乗算すると、上記作業座標系上の座標値を表す行列が得られる。
・オンライン作業→ロボットが、記憶した情報によって指示された作業・動作を実行する再生(playback)作業のこと。オフライン作業と対の概念。
・定盤(じょうばん)→金属加工の台。たたき定盤。
・アプローチ→実施例レベルでは、ロボット1や手先効果器2を、作業対象物8へ接近させること。上位概念的には、或る物を他の物に接近させること。
・順変換→順運動学とも呼ぶ。ロボット制御の場合は各軸を駆動するモータにエンコーダが設けられており、エンコーダで測定した各軸の位置(回転角度)と、ロボットの各リンクの長さ(既知)とからロボットの手先の位置・姿勢を求めることができる。このロボットの手先の位置・姿勢を求めることを順運動学(順変換)と言う。
・教示ペンダント(操作ペンダント)→ロボット教示手順校正装置と有線または無線で接続され、作業者が把持して操作する画面と複数のボタンを備えた装置。ロボットに所定の作業の動作を教示(ティーチング)したりロボットの状態を把握したり、教示した作業のスタート、一時停止、非常停止等を指令したりするのに利用する。ティーチングボックス、ティーチングペンダント、プログラミングペンダント等とも呼称する。
・手先効果器→「エンドエフェクタ」とも呼ぶ。ロボットの手先に取り付けられ、作業対象物に対して何らからの作業をするもの。物を掴むハンド(グリッパ)や、バリ取りを行うグラインダなど、具体的な構成は用途によって様々存在する。
・A及び/又はB→A及びBの少なくとも一方の意味。つまり、Aのみ、Bのみ、又は、A及びBの双方、のいずれか、の3つの態様を全て含む。
・外乱オブザーバ→所定のシステムへの入力信号値、所定のシステムからの出力信号値から、システム内部の状態を推定する手法又は装置のこと。図8−3の例では、例えば、「上位からの位置指令」、「トルク指令」、「位置FB(フィードバック)」という、システムの外から把握できる物理量から、システム内部(例えば「エンコーダ」)に加わった外乱としての、システム外の物体との接触状態を推定する手法又は装置を指す。
・カルマンフィルタ→外乱オブザーバでは、ノイズの影響を考慮できないが、ノイズの影響も更に考慮して、所定のシステムへの入力信号値、所定のシステムからの出力信号値から、システム内部の状態を推定する手法又は装置のこと。
・相対的:→「絶対的」と対となる概念。例えば「相対的位置が把握されている」というときは、例えば、ロボットから見た作業対象物までの距離・方向が、ロボットによって把握されていることを意味する。この場合、外部の人間から見た、作業対象物の絶対的な位置(例えば人間が設定したXYZ座標上での座標値)を、ロボットが知らない場合であっても、「相対的位置が把握されている」といえる。
・備考:以上の各「発明」の説明及び用語の解説は、本願明細書のみに妥当するものであり、類似発明について同一発明者又は同一出願人によって、同日又は別の日に出願される特許出願に係る明細書にも同様に適用可能であるとは限らない。
Hereinafter, the meanings of terms used in this specification will be described.
-Robot → A device that performs some work on behalf of a person. In the present invention, an industrial robot that performs automatic work continuously autonomously to some extent is a representative example, but the present invention is not limited to this. It is a “robot (an apparatus that performs some work on behalf of a person)” to be developed in the future, and includes all “robots” that can use the invention included in the technical scope of the claims of the present application.
・ Examination of layout → Examination of work procedures for production lines such as assembly and welding using industrial robots.
・ Teaching → Instructing the robot to perform the work by some method.
-Replay-> The robot performs a task / operation instructed by the stored information (playback).
Teaching data (work program) → data used for teaching work to the robot and / or computer program.
・ Online teaching → In the environment where the robot is working, the teaching worker should teach while actually operating the robot.
・ Offline teaching → Online teaching and the concept of pairing. Teaching by computer simulation without using an actual robot.
・ Real line → This means the entire series of processes performed by the robot.
-Synonymous with production line → actual line. It means the entire series of processes performed by a robot.
・ Robot tool → A tool that is attached to the robot's hand and works on the work object. There are various specific configurations such as a hand (gripper) for gripping an object and a grinder for deburring.
-Work object-> an object to be worked by a robot. Objects that are gripped, transported, welded, etc. by a robot.
-Jig → Jig (jig) is a general term for instruments used to indicate and guide the work positions of parts and tools during processing and assembly.
-Position detection → Judgment where the robot actually exists in space by measuring / calculating the positional relationship between the robot and an object existing in a position in a known space.
Work coordinate system → An orthogonal coordinate system that is fixed to the end (tip part) of the end effector of the robot, and is a coordinate system that is used as a reference when changing the hand position / posture of the robot. The operator arbitrarily determines the axial direction of the work coordinate system in accordance with the shape of the end effector. (The end effector is attached to the end of the robot and works from the work object. The specific structure, such as a hand (gripper) that grabs the object, or a grinder that deburrs, depends on the application. There are various.)
・ Touch up → Touch.
Robot coordinate system → An orthogonal coordinate system fixed to the robot body, and used as a reference for operating the robot. This robot coordinate system normally has an X axis in the front-rear direction of the robot, a Y axis in the left-right direction, and a Z axis in the up-down direction.
・ Assembly → Install parts on the equipment. Synonymous with assembly.
・ Touch sensor → Sensor that detects contact.
・ Calibration (calibration) → Robot coordinate system at the time of design and actual so that the position / posture related to the command to the robot to move to a predetermined position / posture coincides with the actual position / posture of the robot To identify the gap between the robot coordinate system and the mechanical error of the robot.
-Work program-> command to the robot (instructing the position and posture to be taken). In many cases, sequential commands are given so that a predetermined position and posture are sequentially taken as time advances.
-Contact stability → The state where the contact between the hand effector and the work object does not become unstable due to vibration of the hand effector due to imperfect control.
・ Touch pin → Stick-shaped object that comes into contact with the contacted object.
・ End face → flat face.
-Incoming signal (contact detection signal) → A signal must be input to the measuring unit that performs position detection.
・ Palletizing → Arrangement of items on a pallet etc. according to certain rules. Here, the pallet means a plate-like base, base, or the like having a shape particularly suitable for placing the objects to be arranged.
Homogeneous transformation matrix → A transformation matrix for transforming from the coordinate system Σ2 to Σ1. For example, when the matrix representing the coordinate values of the robot coordinate system is multiplied by the homogeneous transformation matrix, a matrix representing the coordinate values on the work coordinate system is obtained.
Online work → Replay (playback work) in which the robot performs the work / motion specified by the stored information. The concept of offline and working versus.
・ Surface plate → Metal processing base. Slap plate.
-Approach-> At the example level, the robot 1 and the hand effector 2 are brought close to the work object 8. Conceptually, to bring one thing close to another.
-Forward transformation-> also called forward kinematics. In the case of robot control, an encoder is provided in the motor that drives each axis, and the position of the robot's hand is determined from the position (rotation angle) of each axis measured by the encoder and the length (known) of each link of the robot.・ You can ask for posture. Obtaining the position and orientation of the hand of the robot is called forward kinematics (forward transformation).
-Teaching pendant (operating pendant)-> A device that has a screen and a plurality of buttons that are connected to the robot teaching procedure calibration device by wire or wirelessly and are gripped and operated by an operator. It is used for teaching (teaching) the operation of a predetermined work to the robot, grasping the state of the robot, and instructing the start, temporary stop, emergency stop, etc. of the taught work. Also called teaching box, teaching pendant, programming pendant, etc.
-Hand effector-> also called "end effector". Attached to the robot's hand and works from the work object. There are various specific configurations such as a hand (gripper) for gripping an object and a grinder for deburring.
A and / or B → means at least one of A and B. That is, all three aspects of either A alone, B alone, or both A and B are included.
Disturbance observer → A method or apparatus for estimating the internal state of a system from the input signal value to a predetermined system and the output signal value from the predetermined system. In the example of FIG. 8-3, for example, “physical position command”, “torque command”, and “position FB (feedback)” such as “physical quantities” that can be grasped from outside the system are entered into the system (eg, “encoder”). This refers to a method or apparatus for estimating the contact state with an object outside the system as an added disturbance.
・ Kalman filter → Disturbance observer cannot consider the influence of noise, but further consider the influence of noise and estimate the internal state of the system from the input signal value to the specified system and the output signal value from the specified system. A technique or device.
・ Relative: → Concept that is paired with “absolute”. For example, “relative position is known” means, for example, that the distance / direction from the robot to the work object is grasped by the robot. In this case, even if the robot does not know the absolute position of the work object (for example, the coordinate value on the XYZ coordinates set by the human) as seen from an external person, the “relative position is known”. It can be said.
-Remarks: The above explanation of each "invention" and explanation of terms are valid only in the present specification, and patents filed on the same day or on different dates for the same invention by the same inventor or the same applicant. The same applies to the specification of the application.

本発明の実施例により、例えば、ロボットの特徴である高速性を失うことなく、速度や姿勢に依存せずに作業対象物に接触するとともに接触位置検出し、エンコーダ分解能程度のサブミリ単位の高精度検出することで、高速高精度なロボットの作業座標系のキャリブレーション(校正)方法を提供することができる。   According to the embodiment of the present invention, for example, without losing the high speed characteristic of the robot, the work object is contacted and the contact position is detected without depending on the speed or the posture, and the high accuracy of the sub-millimeter unit is about the encoder resolution. By detecting, it is possible to provide a high-speed and high-precision calibration method of the work coordinate system of the robot.

本発明の実施例の概念の説明図Explanatory drawing of the concept of the embodiment of the present invention 本発明の実施例の技術を適用するキャリブレーション装置の構成図Configuration diagram of a calibration apparatus to which the technology of the embodiment of the present invention is applied 本発明の実施例1の処理手順を示すフローチャートThe flowchart which shows the process sequence of Example 1 of this invention. 本発明の実施例の説明図Explanatory drawing of the Example of this invention 本発明の実施例の説明図Explanatory drawing of the Example of this invention 本発明の実施例の説明図Explanatory drawing of the Example of this invention 本発明の実施例2の処理手順を示すフローチャートThe flowchart which shows the process sequence of Example 2 of this invention. 従来技術の説明図Illustration of prior art 本発明の実施例で使用可能な作業対象物の相対的な位置・姿勢の検出方法の例Example of a method for detecting a relative position / posture of a work object that can be used in an embodiment of the present invention 本発明の実施例で使用可能な作業対象物の相対的な位置・姿勢の検出方法の例Example of a method for detecting a relative position / posture of a work object that can be used in an embodiment of the present invention 本発明の実施例で使用可能な作業対象物の相対的な位置・姿勢の検出方法の例Example of a method for detecting a relative position / posture of a work object that can be used in an embodiment of the present invention 本発明の実施例で使用可能な作業対象物の相対的な位置・姿勢の検出方法の例Example of a method for detecting a relative position / posture of a work object that can be used in an embodiment of the present invention 本発明の実施例で使用可能な作業対象物の相対的な位置・姿勢の検出方法の例Example of a method for detecting a relative position / posture of a work object that can be used in an embodiment of the present invention

以下、本発明の方法の具体的実施例について、図に基づいて説明する。
まず、本発明の各実施例で用いられる基本的概念について、図1−Aを参照して解説する。
以下の説明は、あくまで参考として、本願発明の理解を容易にするための「概念」の説明であって、以下の説明によって、本願発明の技術的範囲又は発明の要旨が限定されるべきではない。
Hereinafter, specific examples of the method of the present invention will be described with reference to the drawings.
First, the basic concept used in each embodiment of the present invention will be described with reference to FIG.
The following description is merely a description of the “concept” for facilitating the understanding of the present invention as a reference, and the technical scope of the present invention or the gist of the invention should not be limited by the following description. .

図1−Aでは、まず、教示過程(K:上半分)で、ロボット設置面に固定されたロボットに対して、作業対象物に対して行うべき作業(溶接、切断等)の手順(時系列的に、ロボットのエンドエフェクタをどこに移動させ、どのような作業を行うか、等の一連の指示)を、ロボット(の教示手順校正装置)に教示する(ここでは説明の簡略化のため二次元の図で説明するが、容易に三次元に拡張できる)。
一般的に、このような教示は、ロボットを導入する生産ライン構築の初期段階において、導入したロボット実機や生産ラインのシミュレーション環境に対して行われる。
しかし、このような教示を行った後、当該ロボットから、仕様が若干修正されたロボットに対して、同様の作業を行わせる場合がある。ここで、「仕様が若干修正」とは、例えば、ロボットのアームの長さ(L1)を若干変更したり(図1−AのL1→L1’)、駆動モータ(M1)の駆動形態の変更(図1−AのM1→M1’)により駆動モータにおける機械的回転運動の原点位置を変更したりする場合等をいう。また、作業対象物(W1)の位置・姿勢も、最初の教示時(K)からずれる可能性もある(図1−AのW1→W1’により「ずれ」Disが発生する)。
本発明の実施例では、導入したロボット実機や生産ラインのシミュレーション環境に対して教示した最初の作業内容を、当該ロボット実機や生産ラインのシミュレーション環境以外の類似ロボットで、しかも、最初の作業環境とは異なった環境(作業対象物の「ずれ」等)において利用(流用)して、最初の教示手順の修正を行うことに関する。実際には、このような修正された教示手順を用いて、実際の作業(再生)が行われるが、本発明の実施例では、この再生段階については、詳述しない。
図1−Aにおいて、まず、教示過程(K:上半分)では、ロボットに接続されているプローブにより、作業対象物表面の位置を所定回数検出する。これをもとに、作業対象物の位置・姿勢を表す同次変換行列R1W1を求める。
教示手順の修正過程(K’:下半分)では、ロボットに対する作業対象物の(相対的)位置・姿勢がずれている。
そこで、まず、ロボットに接続されているプローブにより、作業対象物表面の位置を所定回数検出する。これをもとに、作業対象物がずれた状態での、作業対象物の位置・姿勢を表す同次変換行列R1T’W1を求める。次に、R1W1R1T’W1に基づいて、上記教示されている作業を修正する。
実際には、この当該修正済みの教示情報を用いて、再生作業を実行するが、上述のように、この段階については詳述しない。
1A, first, in a teaching process (K: upper half), a procedure (time series) of work (welding, cutting, etc.) to be performed on a work target with respect to a robot fixed on a robot installation surface. In particular, the robot (a teaching instruction calibration device) is instructed (a series of instructions such as where to move the robot end effector and what kind of work is to be performed). But can be easily extended to three dimensions).
In general, such teaching is performed on the introduced robot and the simulation environment of the production line at the initial stage of construction of the production line where the robot is introduced.
However, after such teaching is performed, the robot may be caused to perform the same operation on a robot whose specifications are slightly modified. Here, “specification is slightly modified” means that, for example, the length (L1) of the robot arm is slightly changed (L1 → L1 ′ in FIG. 1A) or the drive mode of the drive motor (M1) is changed. (M1 → M1 ′ in FIG. 1A) The case where the origin position of the mechanical rotational motion in the drive motor is changed. In addition, the position / orientation of the work object (W1) may also be deviated from the initial teaching time (K) (a “displacement” Dis occurs due to W1 → W1 ′ in FIG. 1A).
In the embodiment of the present invention, the initial work contents taught for the introduced robot actual machine and the production line simulation environment are similar robots other than the robot actual machine and the production line simulation environment, and the first work environment and Is used (appropriated) in a different environment (such as “displacement” of the work object) and relates to correcting the initial teaching procedure. Actually, the actual operation (regeneration) is performed using such a modified teaching procedure. However, in the embodiment of the present invention, this regeneration step is not described in detail.
1A, first, in the teaching process (K: upper half), the position of the surface of the work object is detected a predetermined number of times by a probe connected to the robot. Based on this, a homogeneous transformation matrix R1 T W1 representing the position and orientation of the work object is obtained.
In the correction process of the teaching procedure (K ′: lower half), the (relative) position / posture of the work object with respect to the robot is shifted.
Therefore, first, the position of the surface of the work object is detected a predetermined number of times by a probe connected to the robot. Based on this, a homogeneous transformation matrix R1 T ′ W1 representing the position / posture of the work object in a state where the work object is displaced is obtained. Then, R1 T W1 - based on R1 T 'W1, modifies the tasks that are above teachings.
Actually, the reproduction operation is executed using the corrected teaching information, but as described above, this stage will not be described in detail.

図1−Bは本発明の実施例の技術を説明するロボットと作業対象物の位置姿勢のキャリブレーション(校正)装置の構成図である。実施例1では、上述の導入したロボット実機や生産ラインのシミュレーション環境に対する教示を行った後、「仕様」は変更されず、作業対象物(W)の位置・姿勢が、最初の教示時(K)からずれる場合を想定する。
図1−Bにおいて、ロボット1は、少なくとも一つ以上のサーボモータ及びエンコーダにより駆動される。ロボット1の先端部には、手先効果器2が接続される。手先効果器2としては、例えば、溶接トーチ、もしくは溶接ガン、作業用グリッパなど(図1−Bにはグリッパを記載)が含まれるがこれに限定されない。手先効果器2には、接触位置検出プローブ3が接続されている。この接触位置検出プローブ3の取り付け位置や延在方向、その形態は、図1−Bに記載のものに限定されない。接触位置検出プローブ3は、取外し可能で、プローブ長手方向、または長手方向以外の2方向の曲げ、いずれか3方向に対して弾性変形領域を持つ。そして、位置検出動作に伴い作業対象物へ接触する際に手先効果器2もしくはロボット1自身と作業対象物8との干渉がない程度の長さを持ち、接触方向に制限を与えないために先端は球状である。(この「干渉」とは、ロボット1や手先効果器2が、作業対象物8に対して作業を行う際に、接触位置検出プローブ3が邪魔になる、という意味である)
また、接触位置検出プローブ3は、ロボットの作業性を損なわないように、プローブが必要な時のみ突き出す収納式でも良い。
FIG. 1B is a configuration diagram of a robot and a position / orientation calibration apparatus for explaining a technique according to an embodiment of the present invention. In the first embodiment, after teaching the above-described introduced robot actual machine and the simulation environment of the production line, the “specification” is not changed, and the position / orientation of the work object (W) is the first teaching time (K ) Assumes a case where it deviates.
1B, the robot 1 is driven by at least one servo motor and encoder. A tip effector 2 is connected to the tip of the robot 1. Examples of the hand effector 2 include, but are not limited to, a welding torch, a welding gun, a work gripper, and the like (a gripper is shown in FIG. 1B). A contact position detection probe 3 is connected to the hand effector 2. The attachment position, the extending direction, and the form of the contact position detection probe 3 are not limited to those shown in FIG. The contact position detection probe 3 is detachable and has an elastic deformation region with respect to any one of the three directions, ie, the probe longitudinal direction or bending in two directions other than the longitudinal direction. Further, the tip has a length that does not cause interference between the hand effector 2 or the robot 1 itself and the work object 8 when coming into contact with the work object in accordance with the position detection operation, and in order not to limit the contact direction. Is spherical. (This “interference” means that the contact position detection probe 3 gets in the way when the robot 1 or the hand effector 2 performs work on the work object 8).
Further, the contact position detection probe 3 may be a retractable type that protrudes only when the probe is necessary so as not to impair the workability of the robot.

ロボット1の先端部には、1方向以上の力を検出できる外力検出器4が設置されている。外力検出器4としては、接触状態を導通により電気的に検出するセンサ、接触センサ、薄型圧力センサ、トルク指令値と負荷トルクとの差で表される外乱トルクを用いた力検出器でも代用できる(本実施例では力センサを例にして説明する)。
ロボットコントローラ5は、ロボット1、手先効果器2の制御を行うと同時に、ロボット1に内在するエンコーダの位置情報や外力検出器4からの検出データを受信し、必要なデータ処理を行うものである。ロボットコントローラ5の内部には通常のロボットの位置制御を行う位置指令生成部(51)、力センサ等の値を監視し接触判断を行う外力値監視部(52)、エンコーダの値とプローブの設計寸法と取り付け位置と位置検出動作のアプローチ方向からプローブ先端位置を計算するプローブ先端位置計算部(53)、位置検出動作中の力センサの値とプローブ先端位置を記録する記録装置(54)、記録したプローブ先端位置から接触位置を計算する接触位置検出部(55)、ロボット・作業対象物間の位置姿勢誤差発生前後のロボット座標系に対する作業対象物の位置姿勢から位置姿勢誤差の修正量を算出する位置姿勢誤差計算部(56)が含まれる(なお、本明細書中では、場合によって、ロボット1と、手先効果器2、接触位置検出プローブ3、外力検出器4を区別する場合もあり、「ロボット」が、手先効果器2、接触位置検出プローブ3、外力検出器4を含むように説明する場合があるが、それぞれの場合の区分けは、当業者に容易に理解可能である。)
An external force detector 4 capable of detecting a force in one or more directions is installed at the tip of the robot 1. As the external force detector 4, a sensor that electrically detects a contact state by conduction, a contact sensor, a thin pressure sensor, or a force detector using a disturbance torque expressed by a difference between a torque command value and a load torque can be substituted. (In this embodiment, a force sensor will be described as an example).
The robot controller 5 controls the robot 1 and the hand effector 2 and at the same time receives the position information of the encoder inherent in the robot 1 and the detection data from the external force detector 4 and performs necessary data processing. . The robot controller 5 includes a position command generation unit (51) for controlling the position of a normal robot, an external force value monitoring unit (52) for monitoring a value of a force sensor and the like, and making a contact determination, an encoder value and a probe design. Probe tip position calculation unit (53) that calculates the probe tip position from the dimensions, the attachment position, and the approach direction of the position detection operation, a recording device (54) that records the value of the force sensor and the probe tip position during the position detection operation, and recording The contact position detector (55) that calculates the contact position from the probe tip position, and calculates the correction amount of the position and orientation error from the position and orientation of the work object relative to the robot coordinate system before and after the position and orientation error between the robot and the work object is generated A position / posture error calculation unit (56) that includes the robot 1, the hand effector 2, and the contact position detection procedure. In some cases, the robot 3 and the external force detector 4 may be distinguished from each other. The “robot” may be described as including the hand end effector 2, the contact position detection probe 3, and the external force detector 4. The division can be easily understood by those skilled in the art.)

プローブ3の設計寸法と取り付け位置が正確に分からない場合は、別途キャリブレーション(校正)しても良く例えば次のような方法がある。ロボット座標系に対する作業対象物8の位置、及び、姿勢、並びに、ロボット1の手先位置、及び、姿勢が既知の条件下で、接触位置検出プローブ3を用いて、作業対象物8に接触し、接触時点での、ロボット1の手先位置・姿勢と、作業対象物8の位置・姿勢の「差(ベクトル)」を、接触位置検出プローブ3の設計寸法と取り付け位置とするのである。
オフライン教示システム6は、ロボットの作業教示を含む生産ラインのシミュレーション環境を備えた外部パソコンである。オフライン教示システム6において作成した教示データやロボット座標系に対する作業対象物の位置姿勢等のデータは外部メディアや通信ケーブルによりロボットコントローラに転送可能となる。
操作ペンダント7はロボットの作業教示、および再生、接触動作実行や力センサ値の検出閾値、プローブ寸法の設定変更に使用する。
If the design dimensions and mounting position of the probe 3 are not accurately known, calibration may be performed separately. For example, the following method is available. The position and posture of the work object 8 with respect to the robot coordinate system and the hand position and posture of the robot 1 are contacted with the work object 8 using the contact position detection probe 3 under known conditions. The “difference (vector)” between the hand position / posture of the robot 1 and the position / posture of the work object 8 at the time of contact is set as the design dimension and the mounting position of the contact position detection probe 3.
The offline teaching system 6 is an external personal computer equipped with a production line simulation environment including robot work teaching. The teaching data created in the off-line teaching system 6 and the data such as the position and orientation of the work object with respect to the robot coordinate system can be transferred to the robot controller via an external medium or a communication cable.
The operation pendant 7 is used for teaching work of the robot, reproduction, execution of contact operation, detection threshold of the force sensor value, and change of probe dimension setting.

図2は本発明の実施例の処理手順を示すフローチャートである。この図を用いて本発明の方法を順を追って説明する。実施例は図3を用いて2次元で記述するが、容易に3次元に拡張可能である。
まず、オフライン作業について説明する。ステップS11において、オフライン教示システムで作業教示をする。つまり、オフライン教示システム6に備えられたシミュレーション環境におけるGUIなどのロボット操作ツール(不図示)を教示作業者が操作しながら、シミュレーション環境内のロボット1、手先効果器2等が時系列的に為すべき、作業対象物の溶接、パレタイジング、ハンドリング、組立などの手順、手順の各段階におけるロボット1、手先効果器2等の位置・姿勢等を、オフライン教示システム6内のメモリに記憶させる。
ステップS12では、オフライン教示システムにおいてロボット座標系における作業対象物8の位置姿勢情報を取得する。オフライン教示システム6に備えられたシミュレーション環境において、配置した作業対象物を含む全ての物***置・寸法は数値データとして得ることが出来る。なお、作業対象物8の位置姿勢情報はロボット座標上での値としているが、実ラインで得ることの出来るものであれば生産ライン内のどこを基準としても良い(ロボット1との対応関係が把握可能である限り、ロボット1から離れた場所を座標系の原点としても良い)。本実施例のロボット座標系は、ロボットを設置する側のリンク端を原点とし、右手系の座標をとるものである。ロボットが複数存在する場合には、ΣR1、ΣR2、…のように複数のロボット座標系を設定する必要がある。また、複数の作業対象物が存在する場合には、ΣW1、ΣW2、…のように複数の作業座標系を設定する必要がある。ロボット座標系ΣR1に対する作業座対象物の位置姿勢情報とは、ΣR1からΣW1、ΣW2、…の同次変換行列R1W1R1W2、…を取得することを意味する(図3)。
FIG. 2 is a flowchart showing the processing procedure of the embodiment of the present invention. The method of the present invention will be described step by step with reference to this figure. The embodiment is described in two dimensions using FIG. 3, but can be easily extended to three dimensions.
First, offline work will be described. In step S11, work teaching is performed using an offline teaching system. That is, the robot 1 and the hand effector 2 in the simulation environment perform in time series while the teaching operator operates a robot operation tool (not shown) such as GUI in the simulation environment provided in the offline teaching system 6. Procedures such as welding, palletizing, handling, and assembly of work objects, and the positions and postures of the robot 1 and the hand effector 2 at each stage of the procedure are stored in the memory in the offline teaching system 6.
In step S12, position and orientation information of the work target 8 in the robot coordinate system is acquired in the offline teaching system. In the simulation environment provided in the off-line teaching system 6, all object positions and dimensions including the arranged work objects can be obtained as numerical data. Although the position and orientation information of the work object 8 is a value on the robot coordinates, any position in the production line may be used as long as it can be obtained on the actual line (the correspondence relationship with the robot 1 is As long as it can be grasped, a place away from the robot 1 may be used as the origin of the coordinate system). The robot coordinate system of the present embodiment takes a right-handed coordinate system with the link end on the side where the robot is installed as the origin. When there are a plurality of robots, it is necessary to set a plurality of robot coordinate systems such as ΣR1, ΣR2,. Further, when there are a plurality of work objects, it is necessary to set a plurality of work coordinate systems such as ΣW1, ΣW2,. The position / orientation information of the work seat object with respect to the robot coordinate system ΣR1 means that the homogeneous transformation matrices R1 T W1 , R1 T W2 ,... Of ΣW1, ΣW2,.

ステップS13では、後のオンライン作業で使用する作業対象物の位置検出動作の教示を行う。つまり、このオフライン作業において、後のオンライン作業で接触位置検出プローブ3をどのように操作して、作業対象物の位置検出動作を行うべきかを、オフライン教示システム6に備えられたシミュレーション環境におけるGUIなどのロボット操作ツールを用いて、予め教示しておく。教示された内容は、オフライン教示システム6のメモリ内に記憶される。
この位置検出動作の教示(ステップS13)では、ロボット1や手先効果器2と作業対象物8の干渉が無いように、プローブ3先端を作業対象物8、もしくは作業対象物8を支える治具、定盤に押し込む位置を教示する(接触位置から押し込み位置までの距離はプローブの柔軟性により吸収される)。なお、本実施例では、この位置は、エンコーダで測定した各軸の位置(回転角度)として得られる(後述のステップS16において、この、各軸の回転角度とロボットの各リンクの長さ(既知)とプローブ3の設計寸法と取り付け位置(既知)と位置検出動作のアプローチ方向から、順運動学計算によってロボットの手先の位置・姿勢を求める)。位置検出は図3に示すように、1つの作業対象物8に対して3回(位置P1、P2、P3に対してそれぞれ1回ずつ)繰り返し、当該位置検出動作により検出位置P1、P2、P3を得る。P1、P2は同一直線上にある点で、P3はP1、P2と直交する線上の点である(3次元的な位置姿勢を得る場合では、最低5点の位置を検出する必要があり、内3点は同一平面上の点で、他2点はそれぞれが直交する平面上の点とする)。検出の順番の制約は特に無く、例えば、P3、P1、P2としても良い。また、片面のみ2点を位置検出する必要が有るが、どちらの面でも良い。
In step S13, the position detection operation of the work object used in the subsequent online work is taught. That is, in this offline work, the GUI in the simulation environment provided in the offline teaching system 6 indicates how to operate the contact position detection probe 3 in the later online work to perform the position detection operation of the work object. Using a robot operation tool such as The taught contents are stored in the memory of the off-line teaching system 6.
In this position detection operation teaching (step S13), the tip of the probe 3 is placed on the work object 8 or a jig for supporting the work object 8 so that there is no interference between the robot 1 or the hand effector 2 and the work object 8. Teach the position to push into the surface plate (the distance from the contact position to the push position is absorbed by the flexibility of the probe). In this embodiment, this position is obtained as the position (rotation angle) of each axis measured by the encoder (in step S16 described later, the rotation angle of each axis and the length of each link of the robot (known ), The design position of the probe 3, the attachment position (known), and the approach direction of the position detection operation, the position / orientation of the hand of the robot is obtained by forward kinematics calculation). As shown in FIG. 3, the position detection is repeated three times for each work object 8 (one for each of the positions P1, P2, and P3), and the detected positions P1, P2, and P3 are detected by the position detection operation. Get. P1 and P2 are points on the same straight line, and P3 is a point on a line orthogonal to P1 and P2. (When obtaining a three-dimensional position and orientation, it is necessary to detect the positions of at least five points. Three points are points on the same plane, and the other two points are points on a plane orthogonal to each other). There is no particular restriction on the detection order, and for example, P3, P1, and P2 may be used. Moreover, it is necessary to detect the position of two points on only one side, but either side may be used.

ステップS14では、オフライン教示データと、作業対象物の位置姿勢情報R1W1、…を、ロボットコントローラ5に転送する。
は、一般的に、ロボット座標上での作業対象物の位置姿勢を表す同次変換行列である。
R1W1のR1は、第1のロボット座標系を意味し、W1は第1の作業座標系を示す。
In step S14, the offline teaching data and the position / orientation information R1 T W1 of the work object are transferred to the robot controller 5.
R T W is generally a homogeneous transformation matrix that represents the position and orientation of a work object on robot coordinates.
R1 of R1 T W1 means the first robot coordinate system, and W1 shows the first work coordinate system.

次に、オンライン作業について説明する。
ステップS15では、ステップS13で教示した位置検出動作を実際の生産ラインにおいて再生して(ロボット1により実行させて)、下記[数8]に基づいて検出位置P1 R1 [x1,y1]、P2 R1 [x2,y2]、P3 R1 [x3,y3]を得、[数5]〜[数7]によりロボット座標上での作業対象物の位置姿勢を表す同次変換行列R1T’W1を計算する(ロボット、および作業対象物が複数ある場合には、同様の手法でR1T’W2、…、R2T’W1R2T’W2…を求める)。
なお、P1 R1 [x1,y1]は、点P1のロボット座標系R1のX軸,Y軸の座標値を意味する。また、R1T’W1における、T’は、前述の、R1W1とはTに「’」が追加されている点で異なるが、Tは、オフライン教示段階で得られた同次変換行列を意味し、T’は、オンライン作業中に得られた同次変換行列を意味する。両者が異なる可能性がある(往々にして異なる)理由は、例えば、オフライン教示時の作業対象物8の位置・姿勢もしくはロボットの据付位置・姿勢と、オンライン作業段階におけるそれが、往々にしてずれてしまうためや、ロボットの原点位置における各軸モータの角度、ロボットのリンク長さ、リンク間距離などの幾何学的パラメータがオフライン教示システムと実機で異なるためである。作業対象物8の位置・姿勢もしくはロボットの据付位置・姿勢がずれてしまうと、当該作業対象物8の位置において作業を行う場合の作業座標系の配置関係が、ロボット座標系からずれてしまい、ロボット座標系から作業座標系に変換するための変換行列である、同次変換行列も変化してしまうのである。
Next, online work will be described.
In step S15, the position detection operation taught in step S13 is reproduced on the actual production line (executed by the robot 1), and detected positions P1 R1 [x1, y1], P2 R1 based on the following [Equation 8]. [x2, y2], P3 R1 [x3, y3] is obtained, and a homogeneous transformation matrix R1 T ′ W1 representing the position and orientation of the work object on the robot coordinates is calculated from [Equation 5] to [Equation 7]. (When there are a plurality of robots and work objects, R1 T ′ W2 ,..., R2 T ′ W1 , R2 T ′ W2 ... Are obtained by the same method).
P1 R1 [x1, y1] means the coordinate values of the X axis and the Y axis of the robot coordinate system R1 of the point P1. Also, T ′ in R1 T ′ W1 is different from R1 T W1 described above in that “′” is added to T, but T represents the homogeneous transformation matrix obtained in the offline teaching stage. T ′ means a homogeneous transformation matrix obtained during online work. The reason why the two may be different (often different) is, for example, that the position / posture of the work object 8 or the installation position / posture of the robot at the time of off-line teaching and that in the online work stage are often shifted. This is because the geometric parameters such as the angle of each axis motor at the origin position of the robot, the link length of the robot, and the distance between the links are different between the offline teaching system and the actual machine. If the position / posture of the work target 8 or the installation position / posture of the robot is deviated, the arrangement relationship of the work coordinate system when performing work at the position of the work target 8 is deviated from the robot coordinate system. The homogeneous transformation matrix, which is a transformation matrix for transforming from the robot coordinate system to the work coordinate system, also changes.

ただし、x0,y0は直線1、2の交点で[数6]より求める(直線1、2は、それぞれ作業対象物8の直交する二平面上に存在する直線である)。
ただし、直線1はy=a1x+b1、直線2はy=a2x+b2であり、a1,b1,a2,b2は[数7]より求める。
[数8]によれば、点P1に対してのx1、y1が求められるが、点P2に対するx2,y2、及び、点P3に対するx3,y3も同様にして求められる。
However, x0 and y0 are obtained from [Equation 6] at the intersection of the straight lines 1 and 2 (the straight lines 1 and 2 are straight lines existing on two orthogonal planes of the work object 8, respectively).
However, the straight line 1 is y = a1x + b1, the straight line 2 is y = a2x + b2, and a1, b1, a2, and b2 are obtained from [Equation 7].
According to [Equation 8], x1 and y1 for the point P1 are obtained, but x2 and y2 for the point P2 and x3 and y3 for the point P3 are obtained in the same manner.

プローブ先端位置はプローブ球の中心位置PTCP R1 [xtcp ytcp]にプローブ半径Rを加算した位置であり、[数8]に示すように位置検出動作におけるプローブのアプローチ方向(4方向)に応じて求める。[数8]におけるX軸、Y軸は、それぞれ、図3のX軸、Y軸を意味する。
また、PTCP R1 [xtcp ytcp]は、点PTCPの、第1のロボット座標系における座標値(xtcp, ytcp)を意味する。
「tcp」は、Tool Center Point(工具中心点)を意味する。ここで言う工具とはプローブとなる。
The probe tip position is a position obtained by adding the probe radius R to the center position P TCP R1 [xtcp ytcp] of the probe sphere, and according to the approach direction (four directions) of the probe in the position detection operation as shown in [Equation 8]. Ask. The X axis and Y axis in [Equation 8] mean the X axis and Y axis in FIG. 3, respectively.
P TCP R1 [xtcp ytcp] means a coordinate value (xtcp, ytcp) of the point P TCP in the first robot coordinate system.
“Tcp” means Tool Center Point. The tool here is a probe.

[数8]はロボット座標系を基準とした動作でのアプローチ方向の場合分けで、当該場合分け以外の方向から動作した場合には、移動量の多い方向をアプローチ方向として計算しても精度に影響は無い。
例えば、アプローチ動作としてX軸負から正方向へ200mm、Y軸正から負方向へ10mm動作した場合(I)のX軸負から正方向へアプローチする場合として計算する。
プローブ球の中心位置PTCP R1 [xtcp ytcp] はロボットのエンコーダ値とプローブの設計寸法と取り付け位置から求める。ただし、プローブ半径Rが数百ミクロンであれば、プローブ球の中心位置をプローブ先端位置としても良い。
プローブ先端位置(プローブ球表面と作業対象物との物理的な接触点位置)とプローブ球中心位置を分けて、アプローチ方向に応じてプローブ球中心位置からプローブ先端位置を計算するが、それ以外の場合には特に使い分けをしない(プローブ先端位置はプローブ球中心位置と同じ値と考える)。
検出動作の間、外力監視部52において、力センサの値が検出閾値を超えているかを一定の周期で監視する処理と、記録装置にプローブ先端位置と力センサ値を記録する処理を同時に行う。
外力監視部52において、力センサの値が検出閾値を超えた場合には接触を検出したと判断し、接触位置検出信号が位置指令生成部51へ送信され、同位置指令生成部の指令によりロボット1を減速停止させ、アプローチ開始地点へ撤退する動作を行う。
記録装置54に記録した、(a)動作中の力センサで得られた検出力と、(b)プローブ先端位置、から接触時の力センサ値の立上り時点を求め、立上り時点のプローブ位置を接触位置として算出する(図4)。つまり、過去に遡って、実際に接触が起こった時点及び位置を確定する。
また記録処理54はメモリ(不図示)に一定のバッファ領域を設け、記録時に随時上書きする。
ステップS16では、オフライン教示システムと実際の生産ラインのロボット座標に対する作業対象物の位置姿勢誤差を[数9]を用いて計算する。
ステップS17では、位置姿勢誤差ΔR1W1を用いてロボットの教示位置の修正を行う。つまり、ステップS11の作業教示位置に修正量を左側から乗算することで作業プログラムの教示位置データの修正を行う。
[Equation 8] is the case of approach direction in the movement based on the robot coordinate system. When moving from a direction other than the case, the direction with a large amount of movement is calculated as the approach direction. There is no effect.
For example, the approach operation is calculated as a case of approaching from the X-axis negative to the positive direction in the case of moving by 200 mm from the X-axis negative to the positive direction and 10 mm from the Y-axis positive to the negative direction (I).
The center position P TCP R1 [xtcp ytcp] of the probe sphere is obtained from the encoder value of the robot, the design dimension of the probe, and the mounting position. However, if the probe radius R is several hundred microns, the center position of the probe sphere may be the probe tip position.
Divide the probe tip position (physical contact point position between the probe sphere surface and the work object) and the probe sphere center position, and calculate the probe tip position from the probe sphere center position according to the approach direction. In this case, it is not used properly (the probe tip position is considered to be the same value as the probe sphere center position).
During the detection operation, the external force monitoring unit 52 simultaneously performs processing for monitoring whether the value of the force sensor exceeds the detection threshold at a constant period and processing for recording the probe tip position and the force sensor value on the recording device.
In the external force monitoring unit 52, when the value of the force sensor exceeds the detection threshold value, it is determined that contact has been detected, and a contact position detection signal is transmitted to the position command generation unit 51. 1 is decelerated and stopped, and the operation to withdraw to the approach start point is performed.
The rise time of the force sensor value at the time of contact is obtained from (a) the detection force obtained by the force sensor in operation and (b) the probe tip position recorded in the recording device 54, and the probe position at the rise time is contacted. The position is calculated (FIG. 4). In other words, the time and position where contact actually occurs are determined retroactively.
In the recording process 54, a fixed buffer area is provided in a memory (not shown) and overwritten as needed during recording.
In step S16, the position and orientation error of the work object with respect to the robot coordinates of the offline teaching system and the actual production line is calculated using [Equation 9].
In step S17, to correct the teaching position of the robot using the position and orientation error delta R1 T W1. That is, the teaching position data of the work program is corrected by multiplying the work teaching position in step S11 by the correction amount from the left side.

即ち、ステップS13における、各軸教示位置を、まず順変換して、ロボット座標系における手先教示位置Pk R1 [xk,yk,rzk]を得、[数10]のようにPkの左側からΔR1W1を掛けることで、修正した手先位置Ps R1 [xs,ys,rzs]を得るか、もしくは位置姿勢誤差ΔR1W1を逆変換して各軸の角度を計算し、ステップS13における各軸教示位置に加算するのである。
なお、手先教示位置Pk R1 [xk,yk,rzk]は、ロボット座標系において、そのX座標がxkであり、Y座標がykであり、そのようなXY座標で表される点を、Z座標軸周りにrzk(rad)だけ回転させた位置を示す。
That is, in step S13, the respective axes teaching position, first forward transform, obtained hand teaching position Pk R1 [xk, yk, rzk ] a in the robot coordinate system, delta from the left side of Pk as [Expression 10] R1 By multiplying T W1 , a corrected hand position Ps R1 [xs, ys, rzs] is obtained, or the position and orientation error Δ R1 T W1 is inversely converted to calculate the angle of each axis, and each axis in step S13 is calculated. It is added to the teaching position.
The hand teaching position Pk R1 [xk, yk, rzk] has an X coordinate of xk and a Y coordinate of yk in the robot coordinate system, and a point represented by such an XY coordinate is represented by a Z coordinate axis. A position rotated around rzk (rad) is shown.

ロボット、および作業対象物が複数存在する場合には、図5のように、作業プログラムにおいて、対象となるロボット、および作業対象物に対する作業区間のみ教示位置データの修正を行えば良い。
例えば、ロボット1の作業対象物1に対する作業教示であればΔR1W1を用い、ロボット2の作業対象物1に対する作業教示であればΔR2W1を用い、という要領で、対象となるロボット、および作業対象物に対する作業区間のみ教示位置データの修正を行う。なお、図5で、SFTは、シフト命令を表し、ロボット手先位置を教示位置データからどれだけずらすか(位置姿勢誤差ΔRmWn)を示す(mはロボットの番号、nは作業対象物の番号)。
MOVは移動命令であり、POS_w1_04は、対象物w1(第1の作業対象物)に対して、04番目に教示した位置(POSITION)に移動するという指令内容を表す。
If there are a plurality of robots and work objects, the teaching position data may be corrected only in the work section for the target robot and work objects in the work program as shown in FIG.
For example, Δ R1 T W1 is used for work teaching for the work target 1 of the robot 1, and Δ R2 T W1 is used for work teaching for the work target 1 of the robot 2. The teaching position data is corrected only in the work section for the work object. In FIG. 5, SFT represents a shift command and indicates how much the robot hand position is shifted from the teaching position data (position and orientation error ΔRm T Wn ) (m is the robot number, and n is the work target). number).
MOV is a movement command, and POS_w1_04 represents a command content that the object w1 (first work object) is moved to the position (POSITION) taught in the fourth position.

このように、実際の作業時(オフライン教示の後の、再生時の直前に行われる、教示手順の修正時)において接触位置検出処理を所定回数繰り返すことでロボット座標系に対する作業対象物の位置姿勢を算出し、オフライン教示時と実際の作業時のロボット座標系に対する作業対象物の位置姿勢誤差を計算し、オフライン教示データを修正することができ、高速高精度なロボットの作業座標系のキャリブレーション(校正)ができるのである。   In this way, the position and orientation of the work object with respect to the robot coordinate system can be obtained by repeating the contact position detection process a predetermined number of times during actual work (after offline teaching and immediately before playback, when correcting the teaching procedure). Calculate the position and orientation error of the work object with respect to the robot coordinate system during offline teaching and actual work, and correct the offline teaching data, calibrating the work coordinate system of the robot with high speed and high accuracy (Calibration) is possible.

実施例2は、レイアウト(作業対象物の位置、及び/又は、姿勢)の変更や、ロボットを置き換える場合に、本発明を用いる場合の例である。(実施例1では、上述の導入したロボット実機や生産ラインのシミュレーション環境に対する教示を行った後、「仕様」は変更されず、作業対象物(W1)の位置・姿勢が最初の教示時(K)からずれる場合のみを想定したが、実施例2では、導入したロボット実機や生産ラインのシミュレーション環境のロボットから仕様が若干修正されたロボットに対する、教示手順の修正をも含む。)
実施例2は実施例1と同構成のキャリブレーション(校正)装置を用いる。
図6は本発明の実施例2の処理手順を示すフローチャートである。この図を用いて本発明の方法を順を追って説明する。
まず、レイアウト変更、もしくはロボット置換え前の処理について説明する。ステップS21では、上記実施例1でのステップS15と同様に、接触位置検出処理を所定回数繰り返し、ロボット座標における作業対象物の位置姿勢R1W1を算出する(位置姿勢関係が既知の場合には必要ない)。
ロボット、および作業対象物が複数存在する場合には、実施例1と同様に、組み合わせの数だけ実施する。位置検出動作は教示作業者が教示ペンダントを用いて、手先効果器に搭載した柔軟なプローブを作業対象物に接触させ、さらに押し込んだ位置を教示するという手順で教示するか、もしくは、教示ペンダント7を用いずにCAD等のソフトウェア上でオフライン教示しても良い。
The second embodiment is an example in which the present invention is used when a layout (position and / or posture of a work target) is changed or a robot is replaced. (In the first embodiment, after the teaching of the introduced robot actual machine and the simulation environment of the production line is performed, the “specification” is not changed, and the position / posture of the work object (W1) is the first teaching time (K However, in the second embodiment, the teaching procedure is also corrected for a robot whose specifications are slightly modified from the actual robot introduced and the robot in the simulation environment of the production line.
The second embodiment uses a calibration apparatus having the same configuration as that of the first embodiment.
FIG. 6 is a flowchart showing a processing procedure according to the second embodiment of the present invention. The method of the present invention will be described step by step with reference to this figure.
First, processing before layout change or robot replacement will be described. In step S21, as in step S15 in the first embodiment, the contact position detection process is repeated a predetermined number of times, and the position / orientation R1 T W1 of the work object in the robot coordinates is calculated (if the position / orientation relationship is known). unnecessary).
When there are a plurality of robots and work objects, the same number of combinations are performed as in the first embodiment. The position detecting operation is taught by a procedure in which the teaching worker uses the teaching pendant to bring the flexible probe mounted on the hand effector into contact with the work object and teach the pushed position, or the teaching pendant 7 You may teach off-line on software such as CAD without using.

ステップS22では、生産ラインのレイアウト変更(作業対象物の位置、及び/又は、姿勢の変更)、ロボットの置き換えを行う(位置姿勢誤差のため、従来の教示データでは正確な作業ができなくなる)。
ステップS23では、ステップS21と同様にして再度接触位置検出処理を所定回数繰り返し、ロボット座標に対する作業対象物の位置姿勢R1T’W1を算出する。位置検出動作はステップS21と同様に、教示ペンダント7を用いて、接触した位置を教示するか、位置姿勢誤差が数十mm単位で既知であれば、ステップS21の位置検出動作を既知量だけ修正しても良い。
また、位置姿勢誤差が数mm単位であれば、ステップS21の位置検出動作をそのまま使用すれば良い(プローブの柔軟性により許容できる)。
ステップS24では、レイアウト変更、もしくはロボット置換え前後のロボット座標に対する作業対象物の位置姿勢誤差を[数9]を用いて計算する。
ステップS25では、位置姿勢誤差ΔR1W1を用いてロボットの作業プログラムの教示位置の修正を行う。レイアウト変更、もしくはロボット置換え前の作業教示位置に修正量ΔR1W1を左側から乗算することで教示位置データの修正を行う。
つまり、レイアウト変更、もしくはロボット置換え前の各軸教示位置を、まず順変換して、ロボット座標系における手先教示位置Pk R1 [xk,yk,rzk]を得、[数10]のようにPkの左側からΔR1W1を掛けることで、修正した手先位置Ps R1 [xs,ys,rzs]を得るか、もしくは位置姿勢誤差ΔR1W1を逆変換して各軸の角度を計算し、レイアウト変更、もしくはロボット置換え前の各軸教示位置に加算するのである。
In step S22, the layout of the production line is changed (the position and / or posture of the work object is changed) and the robot is replaced (because of the position and posture error, accurate work cannot be performed with the conventional teaching data).
In step S23, as in step S21, the contact position detection process is repeated again a predetermined number of times, and the position / orientation R1 T ′ W1 of the work object with respect to the robot coordinates is calculated. As in step S21, the position detection operation is taught by using the teaching pendant 7, or if the position and orientation error is known in units of several tens of millimeters, the position detection operation in step S21 is corrected by a known amount. You may do it.
If the position / posture error is several mm, the position detection operation in step S21 may be used as it is (allowable due to the flexibility of the probe).
In step S24, the position and orientation error of the work object with respect to the robot coordinates before and after the layout change or robot replacement is calculated using [Equation 9].
At step S25, to correct the teaching position of the robot operation program by using the position and orientation error delta R1 T W1. The teaching position data is corrected by multiplying the work teaching position before the layout change or robot replacement by the correction amount Δ R1 T W1 from the left side.
In other words, each axis teaching position before the layout change or robot replacement is first forward converted to obtain the hand teaching position Pk R1 [xk, yk, rzk] in the robot coordinate system. Multiply Δ R1 T W1 from the left side to obtain a corrected hand position Ps R1 [xs, ys, rzs], or inversely transform the position and orientation error ΔR1 T W1 to calculate the angle of each axis and change the layout Alternatively, it is added to each axis teaching position before robot replacement.

なお、手先教示位置Pk [xk,yk,rzk]の意味等は、上述したものと同様である。 The meaning of the hand teaching position Pk R [xk, yk, rzk] is the same as that described above.

このように、産業用ロボットを稼動する生産ラインのレイアウト変更、もしくはロボットの置換え前後において接触位置検出処理を所定回数繰り返すことでロボット座標系に対する作業対象物の位置姿勢を算出し、レイアウト変更、もしくはロボット置換えに伴うロボット・作業対象物間の位置姿勢誤差を計算し、レイアウト変更前、もしくはロボット置換え前の教示データを修正することができ、高速高精度なロボットの作業座標系のキャリブレーション(校正)ができるのである。   In this way, the layout of the production line that operates the industrial robot is changed, or the position and orientation of the work object with respect to the robot coordinate system is calculated by repeating the contact position detection process a predetermined number of times before and after the robot replacement, or the layout change, or Calculates the position and orientation error between the robot and the work object associated with the robot replacement, and can correct the teaching data before the layout change or before the robot replacement. ) Is possible.

上記あるいは特許請求の範囲に記載の発明において、各用語は、装置の具体的形態や具体的呼称を限定するものではなく、その一般的な機能を備えた装置を表わすためのものである。1つの構成要素が有する機能が2つ以上の物理的構成によって実現されてもよく、2つ以上の構成要素が有する機能が1つの物理的構成によって実現されてもよい。システムの発明は、それぞれの構成要素の有する機能が逐次的に実行される方法の発明として把握することもできるし、その逆も成り立つ。方法の発明においては、各ステップSは記載された順序に実行されるものに限定されるものではなく、全体としての機能が矛盾なく実行され得る限りにおいて、自由な順序でそれを実行することができる。これらの発明は、所定のハードウェアと協働して所定の機能を実現させるプログラムとしても成立し、それを記録した記録媒体としても成立する。また本発明は、搬送波上に具現化されたコンピュータ・データ信号であって、そのプログラムのコードを備えたものとしても成立しうる。
本態様の他の実施形態は、対応するシステム、装置、デバイス、コンピュータプログラム製品、及びコンピュータ可読媒体を含む。
審査中の手続補正によって、及び、特許後の訂正審判又は訂正請求において、法的な制限の範囲内で、本発明は、以上の種々の態様に訂正され得る。
なお、特許後の訂正審判又は訂正請求における「実質上特許請求の範囲を変更」の判断は、特許時の請求項に新たな構成要素が追加されたか否か(即ち、いわゆる外的付加が為されたか否か)、又は、特許時の請求項の1つ又はそれより多いいずれかの構成要素を更に限定するものか(即ち、いわゆる内的付加が為されたか)によって判断されるべきでなく、訂正の前後の請求項に係る発明の効果が類似するか否かの観点から為されるべきである。
In the invention described above or in the claims, each term is not intended to limit the specific form or specific name of the device, but to represent the device having its general function. A function of one component may be realized by two or more physical configurations, and a function of two or more components may be realized by one physical configuration. The invention of the system can be grasped as an invention of a method in which the functions of each component are sequentially executed, and vice versa. In the method invention, each step S is not limited to being performed in the order described, but may be performed in any order as long as the overall function can be performed consistently. it can. These inventions are also established as a program that realizes a predetermined function in cooperation with predetermined hardware, and also as a recording medium that records the program. The present invention can also be realized as a computer data signal embodied on a carrier wave and having a program code.
Other embodiments of the present aspect include corresponding systems, apparatuses, devices, computer program products, and computer readable media.
The present invention can be corrected to the various aspects described above by amendment of procedures during examination and within the scope of legal restrictions in a trial for correction or a request for correction after patent.
In addition, the judgment of “substantially change the scope of claims” in a trial for correction after a patent or a request for correction is based on whether or not a new component has been added to the claims at the time of patent (that is, because of so-called external addition). Or whether it further restricts any one or more components of the claims at the time of the patent (ie, so-called internal additions have been made) Therefore, it should be made from the viewpoint of whether the effects of the claimed invention before and after the correction are similar.

本明細書は、多数の特定のものを含むが、これらは、特許請求される又は特許請求されることができる範囲に対する制限として解釈されるべきではなく、特定の実施形態に特有の特徴の説明として解釈されるべきである。別個の実施形態の内容において、本明細書に説明される特定の特徴は、さらに、単一の実施形態において組み合わせて実施することができる。対照的に、単一の実施形態の内容において説明される種々の特徴は、さらに、多数の実施形態において、又はあらゆる好適な小結合において実施することができる。さらに、特徴は、特定の組み合わせにおいて作用するように上述され、さらに最初に、そのように特許請求されることがあるが、特許請求される組み合わせからの1つ又はそれ以上の特徴は、幾つかの場合においては、その組み合わせから実行されることができ、特許請求される組み合わせは、小結合又は様々な小結合に向けられることができる。
同様に、動作は、特定の順番で図示されるが、このことは、望ましい結果を実現するために、こうした動作が、示される特定の順番で又は逐次的な順番で実行され、又は、それらのすべての図示される動作が実行されることを必要とするように理解されるべきではない。
本明細書に説明される特定の実施形態が説明された。他の実施形態は、特許請求の範囲内にある。例えば、特許請求の範囲に挙げられた動作は、異なる順番で実行し、依然として望ましい結果を実現することができる。一例として、添付図面に示されるプロセスは、望ましい結果を実現するために、必ずしも、示される特定の順番又は逐次的な順番を必要とするものではない。
This specification includes a number of specifics, which should not be construed as a limitation on the scope of what is claimed or can be claimed, but a description of features specific to a particular embodiment. Should be interpreted as In the context of separate embodiments, certain features described herein can be further implemented in combination in a single embodiment. In contrast, the various features described in the context of a single embodiment can be further implemented in a number of embodiments or in any suitable subcombination. Further, features are described above to act in a particular combination and may be initially so claimed, but one or more features from the claimed combination may be several In that case, it can be carried out from that combination, and the claimed combination can be directed to a small coupling or various small couplings.
Similarly, operations are illustrated in a particular order, which means that such operations are performed in the particular order shown or in sequential order to achieve the desired results, or their It should not be understood as requiring that all illustrated operations be performed.
Particular embodiments described herein have been described. Other embodiments are within the scope of the claims. For example, the actions recited in the claims can be performed in a different order and still achieve desirable results. By way of example, the processes shown in the accompanying drawings do not necessarily require the particular order shown or sequential order to achieve desirable results.

1 ロボット
2 手先効果器
3 接触位置検出プローブ
4 外力検出器
5 ロボットコントローラ
51 位置指令生成部
52 外力値監視部
53 プローブ先端位置計算部
54 記録装置
55 接触位置検出部
56 位置姿勢誤差計算部
6 オフライン教示システム
7 操作ペンダント
8 作業対象物
DESCRIPTION OF SYMBOLS 1 Robot 2 Hand effector 3 Contact position detection probe 4 External force detector 5 Robot controller 51 Position command generation part 52 External force value monitoring part 53 Probe tip position calculation part 54 Recording device 55 Contact position detection part 56 Position and posture error calculation part 6 Offline Teaching system 7 Operation pendant 8 Work object

Claims (7)

第1の教示時におけるロボットと作業対象物の相対的な位置及び姿勢を前提として与えられた、前記ロボットが行うべき作業対象物に対する作業手順を記憶する、作業手順記憶手段と、
前記ロボットに備えられた、前記ロボットと前記作業対象物との相対的な位置、及び/又は、姿勢の変化量を獲得する、位置・姿勢変化量獲得手段によって、
前記第1の教示の後に、
(a)前記ロボットと作業対象物の相対的な位置、及び/又は、姿勢、
(b)前記ロボットの、少なくとも1つのアーム長、
(c)前記ロボットの軸を駆動するモータと当該軸との連結関係の変更による駆動モータにおける機械的回転運動の原点位置、
の少なくとも1つが変更された場合に、当該変更の存在に関わらず、前記作業対象物に対して同様の作業が行われるように、前記記憶された作業手順を修正する手段と、
を備え、
前記修正された作業手順が、前記位置・姿勢変化量獲得手段によって検出された、前記変更後の、前記作業対象物の位置及び姿勢をもとに得られる、ロボットを基準とした座標から作業対象物を基準とした座標への、同次変換行列を用いて、ロボットを基準とした座標での作業手順として与えられる、
ロボットの教示手順校正装置。
A work procedure storage means for storing a work procedure for a work target to be performed by the robot, given on the premise of a relative position and posture of the robot and the work target at the time of the first teaching;
Position / posture change amount acquisition means for acquiring a relative position and / or posture change amount of the robot and the work object provided in the robot,
After the first teaching,
(A) relative position and / or posture of the robot and the work object;
(B) at least one arm length of the robot;
(C) the origin position of the mechanical rotary motion in the drive motor by changing the connection relationship between the motor driving the robot shaft and the shaft;
Means for modifying the stored work procedure so that the same work is performed on the work object regardless of the presence of the change when at least one of the
With
The corrected work procedure is obtained from the position / posture change amount acquisition unit and is obtained based on the position and posture of the work target after the change. Given as a work procedure with coordinates based on the robot, using a homogeneous transformation matrix to coordinates based on the object,
Robot teaching procedure calibration device.
作業対象物の位置及び姿勢を前提として与えられた、教示時における、前記ロボットが行うべき作業対象物に対する作業手順を記憶する、作業手順記憶手段と、
ロボットを基準とした作業対象物の位置及び姿勢を獲得可能な、ロボットに設置された位置・姿勢変化量獲得手段によって、第1の教示の後に、
(a)前記ロボットと作業対象物の相対的な位置、及び/又は、姿勢、
(b)前記ロボットの、少なくとも1つのアーム長、
(c)前記ロボットの軸を駆動するモータと当該軸との連結関係の変更による駆動モータにおける機械的回転運動の原点位置、
の少なくとも1つが変更された場合に、前記ロボットからの、当該検出された情報を受け取る位置・姿勢変化量データ受領手段と、
前記受領された位置・姿勢変化量データを元に、前記変更の存在に関わらず、前記作業対象物に対して同様の作業が行われるように、前記記憶された作業手順を修正する手段と、
を備え、
前記修正された作業手順が、前記位置・姿勢変化量獲得手段によって検出された、前記変更後の、前記作業対象物の位置及び姿勢をもとに得られる、ロボットを基準とした座標から作業対象物を基準とした座標への、同次変換行列を用いて、ロボットを基準とした座標での作業手順として与えられる、
ロボットの教示手順校正装置。
Work procedure storage means for storing a work procedure for the work object to be performed by the robot at the time of teaching, given on the premise of the position and posture of the work object;
After the first teaching by the position / posture change amount acquisition means installed in the robot, which can acquire the position and posture of the work object based on the robot,
(A) relative position and / or posture of the robot and the work object;
(B) at least one arm length of the robot;
(C) the origin position of the mechanical rotary motion in the drive motor by changing the connection relationship between the motor driving the robot shaft and the shaft;
Position / posture change amount data receiving means for receiving the detected information from the robot when at least one of the robot is changed;
Based on the received position / posture change amount data, means for correcting the stored work procedure so that the same work is performed on the work object regardless of the presence of the change;
With
The corrected work procedure is obtained from the position / posture change amount acquisition unit and is obtained based on the position and posture of the work target after the change. Given as a work procedure with coordinates based on the robot, using a homogeneous transformation matrix to coordinates based on the object,
Robot teaching procedure calibration device.
前記作業手順修正手段が、
(a)第1の教示時における第1の同次変換行列と、(b)第2の教示時における、前記位置、及び/又は、姿勢の変化量に基づいて得られた、第2の同次変換行列と、
の差を用いて、前記作業手順を修正する、
請求項1ないし2に記載のロボットの教示手順校正装置。
The work procedure correcting means is
(A) a first homogeneous transformation matrix at the time of the first teaching, and (b) a second same matrix obtained based on the amount of change in the position and / or posture at the time of the second teaching. A second-order transformation matrix,
To correct the work procedure using the difference of
The robot teaching procedure calibration apparatus according to claim 1 or 2.
前記位置・姿勢変化量獲得手段が、作業対象物への接触状態を検出する接触状態検出手段を含み、当該接触状態検出手段が、前記ロボットの前記作業対象物への接近速度において、前記ロボット、及び、前記作業対象物に損傷を与えない程度の柔軟性を有する、位置・姿勢変化量獲得用接触状態検出部を有する、請求項1ないし3のいずれか1項に記載のロボットの教示手順校正装置。   The position / posture change amount acquisition unit includes a contact state detection unit that detects a contact state with a work object, and the contact state detection unit is configured to move the robot at an approach speed of the robot to the work object. 4. The robot teaching procedure calibration according to claim 1, further comprising a contact state detection unit for acquiring a position / posture change amount, having a degree of flexibility that does not damage the work object. 5. apparatus. 前記ロボットの、前記作業対象物への接触過程を時系列的に記憶する、接触過程記憶手段を更に備え、
前記作業対象物への接触過程を過去に遡って検証することによって、接触開始位置、及び/又は、接触開始時刻を得る、接触開始位置/接触開始時刻獲得手段を備える、
請求項4に記載のロボットの教示手順校正装置。
The robot further comprises contact process storage means for storing the contact process of the robot with the work object in time series,
A contact start position / contact start time acquisition means for obtaining a contact start position and / or a contact start time by verifying the contact process with the work object retroactively;
The robot teaching procedure calibration apparatus according to claim 4.
前記第1の同次変換行列、及び、前記第2の同次変換行列は、
直交する二平面、もしくは互いに直交する三平面を有する作業対象物の各平面を所定回数位置検出し、検出した位置から計算されることを特徴とし、特に直交する二平面の場合には、前記直交する二平面上に位置する2つの点P1、P2と、当該平面と直交する別の平面上に位置する1つの点P3、のそれぞれについて、
(i=1,2,3:それぞれP1、P2、及び、P3に対応。)
に基づいて、P1、P2、及び、P3の位置を検出する手段であって、
[x1 y1]、[x2 y2]、[x3 y3]が、それぞれ、P1、P2、及び、P3の、ロボットに基づく座標上の座標値であり、
[xtcp ytcp]が、ロボットに基づく座標上の前記接触検出部の先端部の位置であり、
[R 0]、[−R 0]、[0 R]、[0 −R]がそれぞれ、前記接触検出部の先端部の半径Rを用いて、前記[xtcp ytcp]を補正して、より正確な位置を求めるための行列である、前記手段と、
以下の、
及び、
に基づいて、
以下の、
で表される同次変換行列を計算する手段、
によって得られる、
請求項4又は5に記載のロボットの教示手順校正装置。
The first homogeneous transformation matrix and the second homogeneous transformation matrix are:
Each plane of a work object having two orthogonal planes or three planes orthogonal to each other is detected a predetermined number of times, and is calculated from the detected positions. In particular, in the case of two orthogonal planes, the orthogonal For each of two points P1 and P2 located on two planes and one point P3 located on another plane orthogonal to the plane,
(I = 1,2,3: corresponding to P1, P2, and P3, respectively)
Is a means for detecting the positions of P1, P2 and P3 based on
R [x1 y1], R [x2 y2], and R [x3 y3] are coordinate values on coordinates based on the robots of P1, P2, and P3, respectively.
R [xtcp ytcp] is the position of the tip of the contact detector on coordinates based on the robot,
[R 0], [−R 0], [0 R], and [0 −R] respectively correct the R [xtcp ytcp] using the radius R of the tip of the contact detection unit, and Said means being a matrix for determining an exact position;
below,
as well as,
On the basis of the,
below,
Means for calculating a homogeneous transformation matrix R T W represented by:
Obtained by
The robot teaching procedure calibration apparatus according to claim 4 or 5.
請求項1ないし6に記載のロボットの教示手順校正装置を用いて、ロボットを制御する方法であって、
第1の教示時における、前記同次変換行列、即ち、第3の同次変換行列を取得し、
第2の教示時における、前記同次変換行列、即ち、第4の同次変換行列を取得し、
前記第3の同次変換行列と、前記第4の同次変換行列の差を求め、
前記求められた同次変換行列の差を用いて、前記第1の教示時に用いた、ロボットの作業手順を修正して、第2の教示時に利用する、
ロボットの教示手順校正方法。
A method for controlling a robot using the robot teaching procedure calibration device according to claim 1, comprising:
Obtaining the homogeneous transformation matrix, that is, the third homogeneous transformation matrix at the time of the first teaching;
Obtaining the homogeneous transformation matrix at the time of the second teaching, that is, the fourth homogeneous transformation matrix;
Obtaining a difference between the third homogeneous transformation matrix and the fourth homogeneous transformation matrix;
Using the difference between the obtained homogeneous transformation matrices, the robot work procedure used at the time of the first teaching is corrected and used at the time of the second teaching.
Robot teaching procedure calibration method.
JP2010103344A 2010-04-28 2010-04-28 Robot teaching procedure calibration apparatus and method Expired - Fee Related JP5366018B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010103344A JP5366018B2 (en) 2010-04-28 2010-04-28 Robot teaching procedure calibration apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010103344A JP5366018B2 (en) 2010-04-28 2010-04-28 Robot teaching procedure calibration apparatus and method

Publications (2)

Publication Number Publication Date
JP2011230243A true JP2011230243A (en) 2011-11-17
JP5366018B2 JP5366018B2 (en) 2013-12-11

Family

ID=45320102

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010103344A Expired - Fee Related JP5366018B2 (en) 2010-04-28 2010-04-28 Robot teaching procedure calibration apparatus and method

Country Status (1)

Country Link
JP (1) JP5366018B2 (en)

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104669272A (en) * 2015-03-19 2015-06-03 广州科然机电有限公司 Robot
CN104842347A (en) * 2014-02-17 2015-08-19 发那科株式会社 Robot system for preventing accidental dropping of conveyed objects
JP2016013608A (en) * 2014-07-03 2016-01-28 川崎重工業株式会社 Teaching point conversion method of robot, device and robot cell
WO2017033247A1 (en) * 2015-08-21 2017-03-02 株式会社安川電機 Processing system and robot control method
CN106737691A (en) * 2017-02-07 2017-05-31 珠海金萝卜智动科技有限公司 The method and apparatus of manual teaching robot
CN107457793A (en) * 2016-06-03 2017-12-12 发纳科美国公司 Dynamic laser touch-sensing is carried out using multirobot dynamic subscriber frame
WO2018085984A1 (en) * 2016-11-08 2018-05-17 Abb Schweiz Ag Method for work piece calibration and robot system using the same
JP2018094649A (en) * 2016-12-09 2018-06-21 ファナック株式会社 Robot system with plural robots, robot control device, and robot control method
CN108535444A (en) * 2018-07-06 2018-09-14 国网浙江省电力有限公司电力科学研究院 A kind of system that quick nondestructive detects electrical energy metering tank metallic element automatically
JP2018176333A (en) * 2017-04-10 2018-11-15 ファナック株式会社 Offline programming apparatus and method having workpiece position detection program generation function using contact sensor
JP2019014011A (en) * 2017-07-06 2019-01-31 株式会社不二越 Method of correcting teaching position of robot
DE102017111543B4 (en) * 2016-05-31 2019-11-07 Fanuc Corporation Robot control device and a method for controlling a robot
JP2020015149A (en) * 2018-07-26 2020-01-30 株式会社Ihi Force control robot and method for calibrating tool coordinate system
US10913150B2 (en) 2015-09-11 2021-02-09 Kabushiki Kaisha Yaskawa Denki Processing system and method of controlling robot
CN113442131A (en) * 2020-03-27 2021-09-28 精工爱普生株式会社 Teaching method
CN114322752A (en) * 2020-09-30 2022-04-12 合肥欣奕华智能机器有限公司 Method, device and equipment for automatically conveying glass
WO2022181688A1 (en) * 2021-02-26 2022-09-01 ファナック株式会社 Robot installation position measurement device, installation position measurement method, robot control device, teaching system, and simulation device
CN115026393A (en) * 2022-05-23 2022-09-09 西门子(中国)有限公司 Tool center point checking system, method, device and storage medium
US20230075185A1 (en) * 2021-09-09 2023-03-09 Ford Global Technologies, Llc Method and system for positioning a moveable robotic system
WO2023089817A1 (en) * 2021-11-22 2023-05-25 三菱電機株式会社 Information processing device, simulation system, simulation method, and simulation program
CN117182931A (en) * 2023-11-07 2023-12-08 上海仙工智能科技有限公司 Calibration method and system for calibration data of mechanical arm and storage medium
WO2024016980A1 (en) * 2022-07-20 2024-01-25 节卡机器人股份有限公司 Robot calibration method and apparatus, electronic device and storage medium

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03251378A (en) * 1990-02-28 1991-11-08 Fanuc Ltd Calibration system for robot
JPH04340605A (en) * 1991-05-17 1992-11-27 Matsushita Electric Works Ltd Method and device for off-line teaching of robot
JPH06304893A (en) * 1993-04-22 1994-11-01 Fanuc Ltd Calibration system for positioning mechanism
JPH07205071A (en) * 1994-01-27 1995-08-08 Matsushita Electric Ind Co Ltd Industrial robot
JPH09106311A (en) * 1995-10-09 1997-04-22 Nissan Motor Co Ltd Automatic correction device for teaching data
JP2684359B2 (en) * 1985-02-22 1997-12-03 ファナック 株式会社 Robot work Cartesian coordinate system setting device
JP3304251B2 (en) * 1995-11-27 2002-07-22 松下電工株式会社 Automatic teaching method and device for assembly robot
JP2007069275A (en) * 2005-09-05 2007-03-22 Yachiyo Industry Co Ltd Touch sensor
JP2007115011A (en) * 2005-10-20 2007-05-10 Daihen Corp Control method of industrial robot

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2684359B2 (en) * 1985-02-22 1997-12-03 ファナック 株式会社 Robot work Cartesian coordinate system setting device
JPH03251378A (en) * 1990-02-28 1991-11-08 Fanuc Ltd Calibration system for robot
JPH04340605A (en) * 1991-05-17 1992-11-27 Matsushita Electric Works Ltd Method and device for off-line teaching of robot
JPH06304893A (en) * 1993-04-22 1994-11-01 Fanuc Ltd Calibration system for positioning mechanism
JPH07205071A (en) * 1994-01-27 1995-08-08 Matsushita Electric Ind Co Ltd Industrial robot
JPH09106311A (en) * 1995-10-09 1997-04-22 Nissan Motor Co Ltd Automatic correction device for teaching data
JP3304251B2 (en) * 1995-11-27 2002-07-22 松下電工株式会社 Automatic teaching method and device for assembly robot
JP2007069275A (en) * 2005-09-05 2007-03-22 Yachiyo Industry Co Ltd Touch sensor
JP2007115011A (en) * 2005-10-20 2007-05-10 Daihen Corp Control method of industrial robot

Cited By (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9604360B2 (en) 2014-02-17 2017-03-28 Fanuc Corporation Robot system for preventing accidental dropping of conveyed objects
CN104842347A (en) * 2014-02-17 2015-08-19 发那科株式会社 Robot system for preventing accidental dropping of conveyed objects
JP2016013608A (en) * 2014-07-03 2016-01-28 川崎重工業株式会社 Teaching point conversion method of robot, device and robot cell
CN104669272A (en) * 2015-03-19 2015-06-03 广州科然机电有限公司 Robot
JPWO2017033247A1 (en) * 2015-08-21 2018-03-15 株式会社安川電機 Processing system and robot control method
WO2017033247A1 (en) * 2015-08-21 2017-03-02 株式会社安川電機 Processing system and robot control method
US10913150B2 (en) 2015-09-11 2021-02-09 Kabushiki Kaisha Yaskawa Denki Processing system and method of controlling robot
DE102017111543B4 (en) * 2016-05-31 2019-11-07 Fanuc Corporation Robot control device and a method for controlling a robot
JP7411024B2 (en) 2016-06-03 2024-01-10 ファナック アメリカ コーポレイション Dynamic laser touch sensing and dynamic user coordinate system with multiple robots
CN107457793A (en) * 2016-06-03 2017-12-12 发纳科美国公司 Dynamic laser touch-sensing is carried out using multirobot dynamic subscriber frame
JP2018012188A (en) * 2016-06-03 2018-01-25 ファナック アメリカ コーポレイション Dynamic laser touch sensing by multiple robots, and dynamic user coordinate system
JP2022132251A (en) * 2016-06-03 2022-09-07 ファナック アメリカ コーポレイション Dynamic laser touch-sensing with multiple robots and dynamic user frame
WO2018085984A1 (en) * 2016-11-08 2018-05-17 Abb Schweiz Ag Method for work piece calibration and robot system using the same
CN109789548B (en) * 2016-11-08 2022-06-28 Abb瑞士股份有限公司 Method for workpiece calibration and robot system using the same
US11312019B2 (en) 2016-11-08 2022-04-26 Abb Schweiz Ag Method for work piece calibration and robot system using the same
CN109789548A (en) * 2016-11-08 2019-05-21 Abb瑞士股份有限公司 Method for workpiece alignment and the robot system using this method
CN108214454B (en) * 2016-12-09 2020-03-06 发那科株式会社 Robot system, robot control device, and robot control method
US10456917B2 (en) 2016-12-09 2019-10-29 Fanuc Corporaration Robot system including a plurality of robots, robot controller and robot control method
JP2018094649A (en) * 2016-12-09 2018-06-21 ファナック株式会社 Robot system with plural robots, robot control device, and robot control method
CN108214454A (en) * 2016-12-09 2018-06-29 发那科株式会社 Robot system, robot controller and robot control method
CN106737691A (en) * 2017-02-07 2017-05-31 珠海金萝卜智动科技有限公司 The method and apparatus of manual teaching robot
JP2018176333A (en) * 2017-04-10 2018-11-15 ファナック株式会社 Offline programming apparatus and method having workpiece position detection program generation function using contact sensor
US10406688B2 (en) 2017-04-10 2019-09-10 Fanuc Corporation Offline programming apparatus and method having workpiece position detection program generation function using contact sensor
JP2019014011A (en) * 2017-07-06 2019-01-31 株式会社不二越 Method of correcting teaching position of robot
CN108535444A (en) * 2018-07-06 2018-09-14 国网浙江省电力有限公司电力科学研究院 A kind of system that quick nondestructive detects electrical energy metering tank metallic element automatically
CN108535444B (en) * 2018-07-06 2023-09-29 国网浙江省电力有限公司营销服务中心 System for quick nondestructive automatic detection of metal elements of electric energy metering box
JP2020015149A (en) * 2018-07-26 2020-01-30 株式会社Ihi Force control robot and method for calibrating tool coordinate system
JP7172248B2 (en) 2018-07-26 2022-11-16 株式会社Ihi Calibration method of force control robot and tool coordinate system
CN113442131A (en) * 2020-03-27 2021-09-28 精工爱普生株式会社 Teaching method
CN113442131B (en) * 2020-03-27 2023-11-17 精工爱普生株式会社 Teaching method
CN114322752A (en) * 2020-09-30 2022-04-12 合肥欣奕华智能机器有限公司 Method, device and equipment for automatically conveying glass
CN114322752B (en) * 2020-09-30 2024-03-12 合肥欣奕华智能机器股份有限公司 Method, device and equipment for automatically transmitting glass
WO2022181688A1 (en) * 2021-02-26 2022-09-01 ファナック株式会社 Robot installation position measurement device, installation position measurement method, robot control device, teaching system, and simulation device
US20230075185A1 (en) * 2021-09-09 2023-03-09 Ford Global Technologies, Llc Method and system for positioning a moveable robotic system
WO2023089817A1 (en) * 2021-11-22 2023-05-25 三菱電機株式会社 Information processing device, simulation system, simulation method, and simulation program
JPWO2023089817A1 (en) * 2021-11-22 2023-05-25
CN115026393A (en) * 2022-05-23 2022-09-09 西门子(中国)有限公司 Tool center point checking system, method, device and storage medium
CN115026393B (en) * 2022-05-23 2024-06-07 西门子(中国)有限公司 Tool center point verification system, method, device and storage medium
WO2024016980A1 (en) * 2022-07-20 2024-01-25 节卡机器人股份有限公司 Robot calibration method and apparatus, electronic device and storage medium
CN117182931A (en) * 2023-11-07 2023-12-08 上海仙工智能科技有限公司 Calibration method and system for calibration data of mechanical arm and storage medium
CN117182931B (en) * 2023-11-07 2024-01-23 上海仙工智能科技有限公司 Calibration method and system for calibration data of mechanical arm and storage medium

Also Published As

Publication number Publication date
JP5366018B2 (en) 2013-12-11

Similar Documents

Publication Publication Date Title
JP5366018B2 (en) Robot teaching procedure calibration apparatus and method
JP5218470B2 (en) Robot work success / failure determination apparatus and method
JP5311294B2 (en) Robot contact position detector
JP5321532B2 (en) Robot calibration apparatus and calibration method
JP3665353B2 (en) 3D position correction amount acquisition method of robot teaching position data and robot system
JP5670416B2 (en) Robot system display device
EP2837472A2 (en) Robot system, robot control apparatus, method for controlling robot
Abderrahim et al. Accuracy and calibration issues of industrial manipulators
JP5447432B2 (en) Robot teaching system and teaching method
EP3326037B1 (en) System and method for determining tool offsets
JP6466661B2 (en) Robot teaching point conversion method, apparatus, and robot cell
JP2014176943A (en) Robot system, calibration method and method for manufacturing workpiece
US10987742B2 (en) Method of controlling positioning control apparatus and positioning control apparatus
WO2018196232A1 (en) Method for automatically calibrating robot and end effector, and system
CN111002304B (en) Device for acquiring position and location of end effector of manipulator
KR20080088165A (en) Robot calibration method
KR100754008B1 (en) Robot controlling device and robot controlling method
JP2011224672A (en) Deriving method and calibration method for tool vector of robot
Theissen et al. Quasi-static compliance calibration of serial articulated industrial manipulators
Hähn et al. Hybrid compliance compensation for path accuracy enhancement in robot machining
JP3580562B2 (en) robot
JP5447150B2 (en) Robot control device and method for controlling robot
Sawyer et al. Improving robotic accuracy through iterative teaching
JP2019093504A (en) Article manufacturing method and robot system
JP2021186929A (en) Control method for multi-axis robot

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20111006

RD05 Notification of revocation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7425

Effective date: 20111026

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120420

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130521

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130523

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130716

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20130716

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130819

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130901

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees