JPH06175712A - Automatic calibration method for visually recognizing robot - Google Patents

Automatic calibration method for visually recognizing robot

Info

Publication number
JPH06175712A
JPH06175712A JP32314792A JP32314792A JPH06175712A JP H06175712 A JPH06175712 A JP H06175712A JP 32314792 A JP32314792 A JP 32314792A JP 32314792 A JP32314792 A JP 32314792A JP H06175712 A JPH06175712 A JP H06175712A
Authority
JP
Japan
Prior art keywords
robot
tool
visual sensor
visual
tip axis
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP32314792A
Other languages
Japanese (ja)
Inventor
Shigeo Ishikawa
重雄 石川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP32314792A priority Critical patent/JPH06175712A/en
Publication of JPH06175712A publication Critical patent/JPH06175712A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Numerical Control (AREA)
  • Manipulator (AREA)

Abstract

PURPOSE:To provide a calibration method for visually recognizing robot which can automatically perform the calibration of the tip shaft of a robot, a tool and a visual sensor, respectively. CONSTITUTION:A robot 7 which can work in an orthogonal coordinate system is provided together with a visual sensor 6 and a tool 5 which are attached to a tip shaft 2 of the robot 7, an image processor 8 which detects the positions basing on the data fetched by the sensor 6, and a host computer 9 which serve as the interfaces of these robot 7, the sensor 6, the tool 5, and the processor 8. In such a constitution, an automatic robot calibration method includes at least a process where the ink, etc., is painted on the bottom surface of the tool 5 and the shape of the tool 5 is transferred on an optional coordinate plane.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は視覚認識ロボットの自動
キャリブレーション方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an automatic calibration method for a visual recognition robot.

【0002】近年、視覚センサーを用いた視覚認識ロボ
ットが製品の組立工程等に用いられているが、ロボット
と、ロボットに取り付けられた作業用ツール及び視覚セ
ンサーの位置関係が正確にキャリブレーションされてい
なければ期待通りに動作させることは出来ない。従っ
て、このキャリブレーションを正確に行なっておくこと
が重要である。
In recent years, a visual recognition robot using a visual sensor has been used in a product assembling process, etc., but the positional relationship between the robot, a work tool attached to the robot, and the visual sensor is accurately calibrated. Without it, you can't get it to work as expected. Therefore, it is important to perform this calibration accurately.

【0003】[0003]

【従来の技術】従来の視覚認識ロボットのキャリブレー
ション方法を図5を用いて説明する。この方法は、先ず
図5(a)の如くある任意の位置に正確に位置決めされ
た治具1にロボットの先端軸2の中心に取り付けられた
治具3をティーチングによって位置決めし、ロボットの
座標値を読み取る。
2. Description of the Related Art A conventional visual recognition robot calibration method will be described with reference to FIG. In this method, first, the jig 1 attached to the center of the tip shaft 2 of the robot is positioned by teaching on the jig 1 which is accurately positioned at an arbitrary position as shown in FIG. To read.

【0004】次に、図5(b)に示すようにロボットの
先端軸2に取り付けられたロボットハンド4に固定され
たツール5の任意の部分を治具1に位置決めし、ロボッ
トの座標値を読み取る。この座標値と前記ロボットの座
標値からツールとロボットの相対的な位置関係が分か
る。
Next, as shown in FIG. 5B, an arbitrary portion of the tool 5 fixed to the robot hand 4 attached to the tip axis 2 of the robot is positioned on the jig 1, and the coordinate value of the robot is determined. read. From this coordinate value and the coordinate value of the robot, the relative positional relationship between the tool and the robot can be known.

【0005】次に図5(c)の如く視覚センサー6の原
点で治具1の中心を捉えるようにロボットを操作し、こ
の時のロボットの座標値を読み取る。この時の座標値と
図(a)で説明した座標値から視覚センサー6とロボッ
トの相対的な位置関係を得る。以上のようにして視覚認
識ロボットの先端軸2と、そこに取り付けられた視覚セ
ンサー6及びツール5の位置関係のキャリブレーション
ができる。
Next, as shown in FIG. 5C, the robot is operated so that the center of the jig 1 is captured by the origin of the visual sensor 6, and the coordinate values of the robot at this time are read. The relative positional relationship between the visual sensor 6 and the robot is obtained from the coordinate values at this time and the coordinate values described in FIG. As described above, the positional relationship between the tip axis 2 of the visual recognition robot and the visual sensor 6 and the tool 5 attached to the tip axis 2 can be calibrated.

【0006】[0006]

【発明が解決しようとする課題】上記従来の視覚認識ロ
ボットのキャリブレーション方法では、ロボットの先端
軸3と治具1との位置合わせ、あるいは治具1とツール
4又は視覚センサー5の位置合わせを手動で行なうた
め、正確に位置合わせをする事は非常に困難であり、個
人差によって精度にばらつきが生ずるという問題があ
る。
In the above-mentioned conventional calibration method for the visual recognition robot, the alignment of the tip shaft 3 of the robot and the jig 1 or the alignment of the jig 1 with the tool 4 or the visual sensor 5 is performed. Since it is performed manually, it is very difficult to perform accurate alignment, and there is a problem in that accuracy varies due to individual differences.

【0007】本発明は、ロボットの先端軸とツール及び
視覚センサーのキャリブレーションを高精度で且つ自動
的に行うことが出来る視覚認識ロボットのキャリブレー
ション方法を実現しようとする。
The present invention is intended to realize a calibration method for a visual recognition robot capable of automatically calibrating a tip axis of a robot, a tool and a visual sensor with high accuracy.

【0008】[0008]

【課題を解決するための手段】本発明の視覚認識ロボッ
トの自動キャリブレーション方法に於いては、直交座標
系で動作しうるロボット7と、該ロボットの先端軸2に
取り付けられた視覚センサー6及びツール5と、該視覚
センサー6から取り込まれたデータから位置を検出する
画像処理装置8と、これらのインターフェースとなるホ
ストコンピュータ9とを具備した視覚認識ロボットのキ
ャリブレーション方法であって、上記ツール5の底面に
インク等を塗り付けて任意の座標平面上にその形を転写
する工程を少なくとも含むことを特徴とする。
In the automatic calibration method for a visual recognition robot according to the present invention, a robot 7 capable of operating in a Cartesian coordinate system, a visual sensor 6 attached to a tip axis 2 of the robot, and A calibration method for a visual recognition robot, comprising: a tool 5, an image processing device 8 for detecting a position from data captured by the visual sensor 6, and a host computer 9 serving as an interface between the tools. It is characterized by including at least a step of applying ink or the like to the bottom surface of the above and transferring the shape onto an arbitrary coordinate plane.

【0009】また、それに加えて、上記ツール(5)の
底面を転写した転写像(5′)を視覚センサー(6)で
複数の位置から取り込み、その取り込まれたデータから
画像処理装置(8)及びホストコンピュータ(9)によ
りロボット先端軸(2)の座標を検出し、その座標位置
から計算してロボット先端軸(2)とツール(5)と視
覚センサー(6)との関係位置を得ることを特徴とす
る。この構成を採ることによりロボットの先端軸とツー
ル及び視覚センサーのキャリブレーションを高精度で且
つ自動的に行うことができる視覚認識ロボットのキャリ
ブレーション方法が得られる。
In addition to that, the transfer image (5 ') obtained by transferring the bottom surface of the tool (5) is captured by the visual sensor (6) from a plurality of positions, and the image processing device (8) is used from the captured data. And detecting the coordinates of the robot tip axis (2) by the host computer (9) and calculating from the coordinate position to obtain the relational position of the robot tip axis (2), the tool (5) and the visual sensor (6). Is characterized by. By adopting this configuration, it is possible to obtain a calibration method for a visual recognition robot capable of highly accurately and automatically calibrating the tip axis of the robot, the tool, and the visual sensor.

【0010】[0010]

【作用】本発明では図3に示すように先ず(a)図の如
くツール5の底面にインク等を塗り付けて任意の座標平
面上にその形を転写する。この時のロボット先端軸の座
標値をP0 とする。次に(b)図の如く転写されたツー
ルの転写像5′を視覚センサー6から入力し、画像処理
装置8によりツールの転写像5′の中心(又は重心)及
び(c)図の如く視覚センサー6の中心軸の傾き角αを
検出する。なお(b)図の場合のロボット先端軸の座標
値をP1 とする。
In the present invention, as shown in FIG. 3, first, as shown in FIG. 3A, ink or the like is applied to the bottom surface of the tool 5 to transfer the shape onto an arbitrary coordinate plane. The coordinate value of the robot tip axis at this time is P 0 . Next, the transferred image 5'of the tool transferred as shown in FIG. 7B is inputted from the visual sensor 6, and the image processing device 8 provides the center (or center of gravity) of the transferred image 5'of the tool and the visual image as shown in FIG. The inclination angle α of the central axis of the sensor 6 is detected. Note the coordinate values of the robot tip axis in the case of (b) diagram and P 1.

【0011】次に(d)図の如く画像処理装置8からの
情報に基きホストコンピュータからロボットコントロー
ラへ指令し、ツールの転写像5′の中心軸に視覚センサ
ー6の中心軸が一致するように操作する。この時のロボ
ット先端軸の座標値をP2 とする。次いで(e)図の如
く視覚センサー6を180°回転させ、この時のロボッ
ト先端軸の座標値をP3 とする。
Next, as shown in (d), the host computer issues a command to the robot controller based on the information from the image processing device 8 so that the central axis of the visual sensor 6 coincides with the central axis of the transferred image 5'of the tool. Manipulate. The coordinate value of the robot tip axis at this time is P 2 . Then, the visual sensor 6 is rotated 180 ° as shown in FIG. 8E, and the coordinate value of the robot tip axis at this time is set to P 3 .

【0012】以上の視覚センサーの中心軸の傾き角α
と、ロボット先端軸の座標値P0 〜P 3 より次の全ての
パラメータが計算される。 β=∠P1 * 2 −α,γ=∠P1 * 0 ,L1
|P* 2 |,L2 =|P0 * | (但し、α=視覚センサーの傾き角、β=ツールの傾き
角、L1 =ロボット先端軸と視覚センサーの中心間距
離、L2 =ロボット先端軸とツールの中心間距離、P*
=ツール底面の中心座標)
The tilt angle α of the central axis of the above visual sensor
And the coordinate value P of the robot tip axis0~ P 3All of the following
Parameters are calculated. β = ∠P1P*P2-Α, γ = ∠P1P*P0, L1=
| P*P2|, L2= | P0P*│ (where α = visual sensor tilt angle, β = tool tilt
Corner, L1= Distance between the robot tip axis and the center of the visual sensor
Away, L2= Distance between robot tip axis and tool center, P*
= Center coordinates of the bottom of the tool)

【0013】[0013]

【実施例】図1は本発明方法を適用する視覚認識ロボッ
トの構成を示す図、図2は図1のロボットハンドを拡大
して示す図であり、図2(a)は側面図、図2(b)は
図2(a)のZ矢視図である。図1において、7はロボ
ット、7aはそのアーム、2はそのアームの先端に支持
された先端軸、4はその先端軸に取り付けられ且つツー
ル5及び視覚センサー6を有するロボットハンド、8は
視覚センサー6から取り込まれたデータから位置を検出
する画像処理装置、9は画像処理装置に接続されたホス
トコンピュータ、10はホストコンピュータに接続され
その指示によりロボット7を制御するロボットコントロ
ーラである。
1 is a diagram showing the construction of a visual recognition robot to which the method of the present invention is applied, FIG. 2 is an enlarged view of the robot hand of FIG. 1, and FIG. 2 (a) is a side view. 2B is a Z arrow view of FIG. In FIG. 1, 7 is a robot, 7 a is its arm, 2 is a tip axis supported by the tip of the arm, 4 is a robot hand attached to the tip axis and has a tool 5 and a visual sensor 6, and 8 is a visual sensor. An image processing device for detecting the position from the data taken in from 6, a host computer 9 connected to the image processing device, and a robot controller 10 connected to the host computer for controlling the robot 7 according to the instruction.

【0014】ロボットハンド4は図2の拡大図に示すよ
うに、ロボットの先端軸2の中心2aを中心として対称
にツール5と視覚センサー6とが固定されている。なお
ツール5は図においては2つの吸着カップからなる吸着
ハンドを示している。また、ツール5及び視覚センサー
6とは図のような組立方法の場合、取付用のバカ穴の影
響により、図の如く位置ずれを生じ、正確な対称位置に
はない。このためロボット先端軸2に対するツール5及
び視覚センサー6の関係位置をキャリブレーションする
必要がある。
As shown in the enlarged view of FIG. 2, the robot hand 4 has a tool 5 and a visual sensor 6 fixed symmetrically with respect to the center 2a of the tip axis 2 of the robot. It should be noted that the tool 5 shows a suction hand including two suction cups in the drawing. Further, in the case of the assembling method as shown in the drawing, the tool 5 and the visual sensor 6 are displaced from each other as shown in the drawing due to the influence of the mounting holes for attachment, and are not in the exact symmetrical positions. Therefore, it is necessary to calibrate the relative positions of the tool 5 and the visual sensor 6 with respect to the robot tip axis 2.

【0015】図3及び図4は本発明のキャリブレーショ
ン方法を説明するための図である。本発明方法は先ず、
図3の如くロボット座標のY軸に対する視覚センサー6
の傾き角をα、ロボットの先端軸2の中心2aとツール
5の中心(2つの吸着カップの中心を結ぶ線の中点)5
aとを結んだ線に対するツール5の中心軸5bの傾き角
をβとする。
3 and 4 are views for explaining the calibration method of the present invention. The method of the present invention is
As shown in FIG. 3, the visual sensor 6 for the Y axis of the robot coordinates
Is α, the center 2a of the robot tip axis 2 and the center of the tool 5 (the midpoint of the line connecting the centers of the two suction cups) 5
The inclination angle of the central axis 5b of the tool 5 with respect to the line connecting a and β is β.

【0016】また、ロボットの先端軸2の中心2aとツ
ール5の中心5aとを結んだ線とロボット座標のY軸と
のなす角をγとし、視覚センサー6とロボットの先端軸
2との中心間距離をL1 、ツール5とロボットの先端軸
2との中心間距離をL2 とする。
The angle formed by the line connecting the center 2a of the robot tip axis 2 and the center 5a of the tool 5 and the Y axis of the robot coordinates is γ, and the center between the visual sensor 6 and the tip axis 2 of the robot is defined. between the distance L 1, the center-to-center distance between the tip end shaft 2 of the tool 5 and the robot and L 2.

【0017】次に図4(a)に示すように、視覚センサ
ー6とロボットの先端軸の中心2aを結ぶ線がロボット
座標のY軸と平行となるように操作し、インク等によっ
てツール5の底面の形状をロボット座標平面上に転写し
て転写像5′を得る。そしてこの時のロボット先端軸の
座標値P0 をコンピュータ9のメモリに記録する。
Next, as shown in FIG. 4 (a), the line connecting the visual sensor 6 and the center 2a of the tip end axis of the robot is operated so as to be parallel to the Y axis of the robot coordinates, and the tool 5 is moved by ink or the like. The bottom surface shape is transferred onto the robot coordinate plane to obtain a transfer image 5 '. Then, the coordinate value P 0 of the robot tip axis at this time is recorded in the memory of the computer 9.

【0018】次に図4(b)に示すようにツールの転写
像5′の中心5a′が視覚センサー6の中心に来るよう
に操作する。この時ロボットの先端軸は回転させない。
そして、ロボット先端軸の座標値P1 をコンピュータ9
のメモリに記録する。
Next, as shown in FIG. 4B, the tool is operated so that the center 5a 'of the transferred image 5'of the tool comes to the center of the visual sensor 6. At this time, the tip axis of the robot is not rotated.
Then, the coordinate value P 1 of the robot tip axis is calculated by the computer 9
To the memory of.

【0019】ここで図4(c)に示すように、ロボット
座標のX軸と平行にロボットの先端軸を移動することで
図の△x,△yを計測し、視覚センサーの傾き角α=T
an -1(△x/△y)を得る。
Here, as shown in FIG. 4C, the robot
By moving the tip axis of the robot parallel to the X axis of the coordinates
Measure Δx and Δy in the figure, and tilt angle α = T of the visual sensor
an -1(Δx / Δy) is obtained.

【0020】次に図4(d)に示すようにツールの転写
像5′の中心軸に視覚センサー6の中心軸が一致するよ
うにロボットを操作して、その時のロボット先端軸の座
標値P2 を画像処理装置を通してコンピュータのメモリ
に記録する。
Next, as shown in FIG. 4 (d), the robot is operated so that the central axis of the visual sensor 6 coincides with the central axis of the transferred image 5'of the tool, and the coordinate value P of the robot tip axis at that time. 2 is recorded in the memory of the computer through the image processing device.

【0021】更に、図4(e)に示すように(d)図の
状態から視覚センサー6が180°回転するようにロボ
ットを操作してロボット先端軸の座標値P3 を画像処理
装置を通してコンピュータのメモリに記録する。以上の
操作を行うことにより、図4(f)に示される座標値P
0 〜P3 が記録される。なおP2 とP3 の中点であるP
* が転写されたツールの底面の像の中心座標を表すこと
は以上の説明から明らかである。よってβ=∠P1 *
2 −α,γ=∠P1 * 0 ,L1 =|P* 2 |,
2 =|P0 * |という具合に全てのパラメータが計
算できる。
Further, as shown in FIG. 4 (e), the robot is operated so that the visual sensor 6 rotates 180 ° from the state shown in FIG. 4 (d), and the coordinate value P 3 of the robot tip axis is transferred to the computer through the image processing apparatus. To the memory of. By performing the above operation, the coordinate value P shown in FIG.
0 to P 3 are recorded. Note that P, which is the midpoint of P 2 and P 3 ,
It is clear from the above description that * represents the center coordinates of the image of the bottom surface of the transferred tool. Therefore β = ∠P 1 P *
P 2 −α, γ = ∠P 1 P * P 0 , L 1 = | P * P 2 |,
All parameters can be calculated, such as L 2 = | P 0 P * |.

【0022】ロボットの操作は、画像処理装置で視覚セ
ンサーの中心座標とツールの転写像の中心とのずれをホ
ストコンピュータでロボット座標に変換しロボットコン
トローラに移動量として指令することにより自動的に行
うことができる。
The operation of the robot is automatically performed by converting the deviation between the center coordinates of the visual sensor and the center of the transfer image of the tool in the image processing device into the robot coordinates by the host computer and instructing the robot controller as the movement amount. be able to.

【0023】[0023]

【発明の効果】本発明に依れば、視覚センサーの分解能
に比例した一定の精度で自動的にロボットの先端軸とツ
ール及び視覚センサーのキャリブレーションを行なうこ
とができ、視覚認識ロボットを用いた作業に必要な精度
が簡単に得られ、視覚認識ロボットの実用化に寄与する
ことができる。
According to the present invention, the tip axis of the robot, the tool and the visual sensor can be automatically calibrated with a constant accuracy proportional to the resolution of the visual sensor. The precision required for the work can be easily obtained, which can contribute to the practical application of the visual recognition robot.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明方法を適用する視覚認識ロボットの構成
を示す図である。
FIG. 1 is a diagram showing a configuration of a visual recognition robot to which the method of the present invention is applied.

【図2】図1のロボットハンドを拡大して示す図で、
(a)は正面図、(b)は(a)図のZ矢視図である。
FIG. 2 is an enlarged view showing the robot hand of FIG.
(A) is a front view, (b) is a Z arrow view of (a) figure.

【図3】本発明の視覚認識ロボットの自動キャリブレー
ション方法を説明するための図である。
FIG. 3 is a diagram for explaining an automatic calibration method for a visual recognition robot according to the present invention.

【図4】本発明の視覚認識ロボットの自動キャリブレー
ション方法を説明するための図である。
FIG. 4 is a diagram illustrating an automatic calibration method for a visual recognition robot according to the present invention.

【図5】従来の視覚認識ロボットのキャリブレーション
方法を説明するための図である。
FIG. 5 is a diagram for explaining a conventional calibration method for a visual recognition robot.

【符号の説明】[Explanation of symbols]

1,3…治具 2…ロボットの先端軸 4…ロボットハンド 5…ツール 5′…ツールの転写像 6…視覚センサー 7…ロボット 8…画像処理装置 9…ホストコンピュータ 10…ロボットコントローラ 1, 3 ... Jig 2 ... Robot tip axis 4 ... Robot hand 5 ... Tool 5 '... Tool transfer image 6 ... Visual sensor 7 ... Robot 8 ... Image processing device 9 ... Host computer 10 ... Robot controller

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 直交座標系で動作しうるロボット(7)
と、該ロボットの先端軸(2)に取り付けられた視覚セ
ンサー(6)及びツール(5)と、該視覚センサー
(6)から取り込まれたデータから位置を検出する画像
処理装置(8)と、これらのインターフェースとなるホ
ストコンピュータ(9)とを具備した視覚認識ロボット
のキャリブレーション方法であって、 上記ツール(5)の底面にインク等を塗り付けて任意の
座標平面上にその形を転写する工程を少なくとも含むこ
とを特徴とする視覚認識ロボットの自動キャリブレーシ
ョン方法。
1. A robot (7) capable of operating in a Cartesian coordinate system.
A visual sensor (6) and a tool (5) attached to the tip axis (2) of the robot, and an image processing device (8) for detecting a position from data captured by the visual sensor (6), A method for calibrating a visual recognition robot equipped with a host computer (9) that serves as an interface, wherein ink or the like is applied to the bottom surface of the tool (5) to transfer the shape onto an arbitrary coordinate plane. A method for automatically calibrating a visual recognition robot, comprising at least steps.
【請求項2】 上記ツール(5)の底面を転写した転写
像(5′)を視覚センサー(6)で複数の位置から取り
込み、その取り込まれたデータから画像処理装置(8)
及びホストコンピュータ(9)とによりロボット先端軸
(2)の座標を検出し、その座標位置から計算してロボ
ット先端軸(2)とツール(5)と視覚センサー(6)
との関係位置を得ることを特徴とする請求項1の視覚認
識ロボットの自動キャリブレーション方法。
2. A transfer image (5 ') obtained by transferring the bottom surface of the tool (5) is captured from a plurality of positions by a visual sensor (6), and an image processing device (8) is obtained from the captured data.
Also, the coordinates of the robot tip axis (2) are detected by the host computer (9), and the robot tip axis (2), the tool (5) and the visual sensor (6) are calculated from the coordinate position.
The method for automatically calibrating a visual recognition robot according to claim 1, wherein a position related to is obtained.
JP32314792A 1992-12-02 1992-12-02 Automatic calibration method for visually recognizing robot Withdrawn JPH06175712A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP32314792A JPH06175712A (en) 1992-12-02 1992-12-02 Automatic calibration method for visually recognizing robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP32314792A JPH06175712A (en) 1992-12-02 1992-12-02 Automatic calibration method for visually recognizing robot

Publications (1)

Publication Number Publication Date
JPH06175712A true JPH06175712A (en) 1994-06-24

Family

ID=18151611

Family Applications (1)

Application Number Title Priority Date Filing Date
JP32314792A Withdrawn JPH06175712A (en) 1992-12-02 1992-12-02 Automatic calibration method for visually recognizing robot

Country Status (1)

Country Link
JP (1) JPH06175712A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020045936A (en) * 2000-12-12 2002-06-20 정재문 Auto application equipment and method
DE102015000589A1 (en) 2014-01-23 2015-08-06 Fanuc Corporation Data generation device for a visual sensor and a detection simulation system
US11338440B2 (en) 2018-07-30 2022-05-24 Fanuc Corporation Robot system and calibration method

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020045936A (en) * 2000-12-12 2002-06-20 정재문 Auto application equipment and method
DE102015000589A1 (en) 2014-01-23 2015-08-06 Fanuc Corporation Data generation device for a visual sensor and a detection simulation system
DE102015000589B4 (en) * 2014-01-23 2016-07-14 Fanuc Corporation Data generation device for a visual sensor and a detection simulation system
US9519736B2 (en) 2014-01-23 2016-12-13 Fanuc Corporation Data generation device for vision sensor and detection simulation system
US11338440B2 (en) 2018-07-30 2022-05-24 Fanuc Corporation Robot system and calibration method

Similar Documents

Publication Publication Date Title
JP2651251B2 (en) Mechanism error correction method for SCARA robot
US20150224649A1 (en) Robot system using visual feedback
JPH0435885A (en) Calibration method for visual sensor
US7551979B2 (en) Robot calibration system and method
JPH041505A (en) Three-dimensional position measuring method and acquiring method for work
JP2007014950A (en) Paste applicator and its control method
JP2006082171A (en) Tool location correcting method for articulated robot
CN114012719A (en) Zero calibration method and system for six-axis robot
JPH08142304A (en) Marking device
JPH06175712A (en) Automatic calibration method for visually recognizing robot
JP2890874B2 (en) Robot arm relative posture correction method
JP3880030B2 (en) V-groove shape measuring method and apparatus
JP2003039000A (en) Paste applicator
JPH1011146A (en) Device for correcting stop posture of mobile object
JP3144233B2 (en) Automatic adjustment of robot and camera
JP7384653B2 (en) Control device for robot equipment that controls the position of the robot
JPH0283183A (en) Setting method for position of articulated robot
CN113905859B (en) Robot control system and robot control method
US11826919B2 (en) Work coordinate generation device
JP2003181782A (en) Industrial robot
JPH0774964B2 (en) Robot positioning error correction method
JP2002144034A (en) Device for checking reference position in working tool with robot
JP3562096B2 (en) Position detection method
JPH06206186A (en) Calibration of handling precision of horizontal articulated type robot equipped with visual sensor
CN113043264A (en) Zero calibration method for integrated joint seven-axis robot

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20000307