JPS61131887A - 視覚付ロボツトのキヤリブレ−シヨン方式 - Google Patents

視覚付ロボツトのキヤリブレ−シヨン方式

Info

Publication number
JPS61131887A
JPS61131887A JP25373984A JP25373984A JPS61131887A JP S61131887 A JPS61131887 A JP S61131887A JP 25373984 A JP25373984 A JP 25373984A JP 25373984 A JP25373984 A JP 25373984A JP S61131887 A JPS61131887 A JP S61131887A
Authority
JP
Japan
Prior art keywords
hand
robot
coordinate system
force
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP25373984A
Other languages
English (en)
Inventor
徹 鎌田
浅川 和雄
信彦 恩田
正 秋田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP25373984A priority Critical patent/JPS61131887A/ja
Publication of JPS61131887A publication Critical patent/JPS61131887A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Manipulator (AREA)
  • Control Of Position Or Direction (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は、カメラ等の撮像手段が視覚として設けちれた
ロボットにおいてカメラ座標系とロボット座標系との対
応付けを行なうキャリブレーション方式に関し、特にキ
ャリブレーションのためのロボットの位置合せを容易に
した視覚付ロボットのキャリブレーション方式に関する
近年のファクトリ−オートメーションの進展は目覚しく
、なかでもその中核となるロボットも高度な作業を実行
できるように改良されている。ロボットは基本的には位
置決めの精度の向上によって高度なハメ合い等の作業を
可能とするものであるが、ハメ合いの対象物の位置か予
め定められた位置に正確にないと、作業を実現できない
ため、対象物の位置を認識する視覚手段が設けられてい
る。
例えば、745図に示す如く、ロボットのハンドHDに
カメラCRか設けられ、ロボットに予じめ与えられた対
象物A1の位置をカメラCRか対象物AIを撮像して得
た実際の位置で補正してハンドHDを第5図(B)の如
く対象+27A1に位置決めするようにし、ハンドHD
が把持したハメ合い物A2を対象’llAlにハメ合わ
せる作業を行なうようにしている。
このようにして、カメラCRで撮像した内容から対象物
AIの位置を検出してロボットの位置制御を行うが、カ
メラCRをハンドHDの位置に設けられないことから、
カメラCRの座標系とロボットの座標系とが相違して、
カメラCRで撮像して得た座標をそのままロボットの座
標として用いることはできない。このため、カメラ座標
系で得た座標をロボット座標系に変換するためのカメラ
座標系とロボット座標系との対応付け、いわゆるキャリ
ブレーションが必要となる。
〔従来の技術〕
第6図は従来のキャリブレーション方式の説明図であり
、予じめ2つの認識対象α、jを設け、これをカメラC
Rで撮像し、第7図Jζ示す認識対象α、bのカメラ座
標系における座標(xcl。
ycl )、Cxc2 、yc2)を得る。次に、オペ
レータはロボットのティーチングボックスを操作して、
ロボットのハンドHDを認識対象α、bに位置決めし、
第7図に示す認識対象α、−のロボット座標系における
座標(rRl、yil)、(xR2,yn2)を得る。
そして得られた認識対象α、6のカメラ及びロボット座
標系の座標値から両座種糸の倍率S及び傾きΔθを求め
、更にロボット座標系の原点を求める。このようにして
、カメラ座標系とロボット座標系とのキャリブレーショ
ンにおいて認識対象α、bの両座種糸における座標値を
求める必要があり、このため従来はティーチングボック
スをオペレータが操作してロボットを遠隔操作して位置
決めしていた。
〔発明が解決しようとする問題点〕
このキャリブレーションは、同一の対象に対する同一作
業においては変更の必要はないか、異なる対象に対する
異なる作業では、再度キャリブレーションを行い、対応
付けを求める必要がある。
このためには、従来はキャリブレーション毎にオペレー
タがティーチングボックスを操作してロボットを遠11
44作する必要かあるため、作業時間か長くなり、しか
も正確に認識対象に位置合せすることが謔しいという問
題があった。
又、キャリブレーション作業中には、ロボットの下に認
識対象α、6を設けるために、ロボットのハンドHD等
を退避させる必要があるか、このような目標・位置を定
めずに動作させる場合にもティーチングボックスより指
令値を与えて動作させる必要があるという問題があり、
キャリブレーションの作業を一層複雑化且つ長時間化さ
せる原因となっていた。近年、製品のライフサイクルの
短縮化や製品の多様化の要求により係るキャリブレーシ
ョン作業の回数も増加し、キャリブレーション作業の改
善が望まれていた。
〔問題点を解決するための手段〕
本発明は、キャリブレーション作業を容易化して作業時
間を短縮するとともに正確な位置決めの可能な視覚付き
ロボットの牛ヤリブレーション方式を提供するにある。
このため、本発明は、対象物に対し処理を施すハンドと
、該ハンドを移動するハンド移動手段と。
該対象物′f−撮像する撮像手段と、該撮像手段に接続
され、該ハンド移動手段を制御する制御手段とを有する
視覚付ロボットにおいて、該ハンドに付与される力を検
出する力検出手段を設け、該ハンドを手動操作した時に
該力検出手段より出力される信号に基いて該制御手段が
該ハンド移動手段を駆動して該ハンドに追従せしめて該
ハンドの手動操作によって該ハンドを認識対象に位置合
せし該撮像手段か該認識対象を撮1象して得たカメラ座
標系の座標と、該位置合せによる該認識対象のロボット
座標系の座標とから該両座種糸の対応付けを得ることを
特徴としている。
〔作 用〕
本発明では、ハンドに付与される力を検出する力検出手
段を設けて、ハンドに付与される力を検出するとともに
ハンドに付与される力に従って制御・叩手段かハンド#
勤手段を駆動する禄に構成して、キャリブレーション作
業中ハンドを手動操作してハンド及び虚像手段のキャリ
ブレーションのための位置合せを可能とし、キャリブレ
ーション作業におけるハンド及び撮り峻手段の位置合せ
を荏易且つ正確にせしめるものである。
〔実施例〕
以下、本発明を実施例により詳細に説明する。
第1図は、本発明の一実施列ブロック図であり、図中、
1はロボット制御装置であり、後述する視覚付ロボット
を制御するもの、lOαは操作パネルであり、オペレー
タが操作してプレイバック(再生)モード、キャリブレ
ーションモード等を指示するためのもの、IOAはディ
スプレイでありロボットの動作状態や後述するカメラの
撮影した1象を表示するもの、11はメモリであり、教
示データ等を格納するためのもの、12はマイクロプロ
セッサ(以下プロセッサと称す)であり、プレイバック
時にメモリ11から教示データを読み出し、ハンドの指
令軌道を作成して後述する位置制f鐸部へ送出したり、
ハンドの開閉指令を後述するハンド開閉部へ送出し、更
に画像メモリの内容を基い対象物の座像を検出し、前述
の指令軌道を補正するものであり、キャリブレーション
時には、ハンド位d座襟を検出し、後述する対応性はデ
ータ(倍率、傾き等)を得るものであり、これをプログ
ラム制御によって行なうもの、13は位置制御部であり
、プロセッサ12からの指令軌道に従って位置又は速度
制御するため、指令軌道の各軸の移動量ΔX、ΔY、Δ
2を対応する周波数のパルス列Vx、Vy、Vzに変換
して出力するものであり、プロセッサ12とによって主
制御部を構成する。14はハンド位置検出部であり、現
在の後述するハンドの3次元位置(x、y、z)を検出
するため、各軸の枢動源(モータ)に設けられたエンコ
ーグの出力P” I P !/ e P ”を受け、各
−の位置(x、y、、z)を検出するもの、15は力制
御部であり、後述する力センサの検出出力から各軸の追
従移動′I#PFx、PFy、PFzを作成するもの、
16はアーム駆動回路であり、位置制御W513からの
指令移動量ΔX、ΔY、Δ2と力制御部15からの追従
移動1tPF”、PFytPFZとの和によって各軸の
駆tlJTfi、 (モータ)をサーボ駆動するもので
ある。17はハンド開閉部であり、プロセッサ12のハ
ンド開閉指令により、ハンドを開閉KA#するものであ
り、18は画潔メモリであり、後述するカメラからの撮
影像を1気的に蓄積しておくもの、19はバスであり、
プロセッサ12とメモリ11.操作パネル】0α。
ディスプレイ107.位置制@部130位置検出fll
14.ハンド開閉部17及び画像メモリ18とを接続す
るものである。2は視覚付きロボットであり、ロボット
制御装置lによって制御されるもの、20.21はベー
スであり、門型ロボットの左右ベースを構成するもの、
22はアームブロックであり、図の左右(Y)方向に移
動するもの、23はキャリアブロックであり、アームブ
ロック22に対し、上下(Z)方向に移動するもの、2
4はY軸モータであり、ベース21上に設けられ、送り
ネジ24Aを回転せしめて一対のベース20.21間に
設けられたガイドレール24α。
24Cに沿って送りネジ24bに係合するアームブロッ
ク22をY方向に駆動するもの、25は2軸モータであ
り、アームブロック22に設けられ、キャリアブロック
23を2一方向に駆動するもの、26はハンドであり、
指令により開閉して対象物を把持するもの、27は力セ
ンサであり、ハンド26とキャリアブロック23のハン
ド回転部23αとを連結する様に設けられ、ハンド26
に加えられる力を検出するものであり、例えば十字バネ
とこれに設けられた歪ゲージによって構成され、ハンド
26に加えられた力の各軸成分” s F3’ e1’
zを検出して力制御部15へ出力するもの、28は撮像
手段(以下、カメラと称す)であり、キャリアブロック
23に設けられ、ハンド26近傍の対象物を撮像し、電
気信号に変換するものであり、例えば((0((:Ae
Lryg Cowplgrt Dtvicg )によっ
て構成されるもの、29はベル)29.、(7[動モー
タでうり、パレット296をX軸方向に駆動するベルト
29αを3%mしてパレット29)をYz軸の位置迄搬
送して位置決めするものである。
尚、パレット29bはベルト29AのF’ti(5でX
方向に4−tするブロックによってX方向に位置決めさ
れる。このX方向への移ψブロックは、YZ・油と同様
に送りネジと送りネジをダイレクトドライブするモータ
によって位Jt決め速動を行なう。
従って、視覚付ロボット2は、ハン ド26かY軸モー
タ24及び2軸モータ25によってY、Z軸方向に位1
e決めされ且つパレット29 A 7JSXI+伯モー
タ29によってX@方向に位d&めされてハンド26か
パレット29Aの所望の位置に位置決めされ、更にハン
ド回転部23αによってα軸。
β軸方向にハンド26を回転させることかできる。
次に、第1図wm例構成の動作について嬉2図のグイレ
クトテーチ動作説明図、第3図の処理フロー図、第4図
の作業説明図を用いて説明する。
本発明においては、ロボット制御装置1は視覚付ロボッ
ト2を通常の位置制御モードで制御する他に力制御モー
ドによっても制御できる。即ち、位を制#モードにおい
ては、プロセッサ12はメモIJ I 1の指令位賃を
カメラ28で絖取った画像メモリ18のlI&lIJに
よって得た対象物の座標で噛正し、補正した指令位−を
位置制御部13に与えてアーム駆動部16にパルス状の
各軸の移動指令vJe、vy、vzを入力し、アーム4
!E!1816によって各軸のモータ24,25.29
をサーボ制御して位*?!ll1mする。
一方、力制御ピードにおいては、ハンド26に外部より
力が加わると、力センサ27から力の加わった方向に対
する各軸X、Y、Z成分の出力FZ、Fy、FZが出力
される。力制一部15はV / Fコンバータ(成田/
周波数変換器)を有し、入力された各軸成分の検出出力
の大きさに応じた周液数でその極性に応じアップ又はダ
ウンパルスを出力する。このパルス列PFZ、PF7.
PFZit通常の移動指令”*V’/、Vzと同様に移
動指令としてアーム駆動部16のサーボ回路に入力し、
各軸のモータ24,25,29をサーボ制御する。
従って、各軸のモータ24,25.29はハンド26に
加わった力が零となる様に、ハンド26及びパレット2
9Δを移動せしめる。
即ち、この力制御は、位置制御部13の位置制御とは独
立して行なわれ、ハンド26に加った力を零となる様に
ハンド26の駆動モータ24 、25゜29を駆動制御
して、ハンド26に一稽の復元力を付与している。そし
てこの実施例では、力センサ27からの出力に基づく力
成分” e ’ 7 ep’zを直接各軸駆動源に゛I
IC流指令として導くのではなく、通常の位置制御系の
指令と同様の形式の追従指令に変換し、位置制御系の位
置指令と同様にアーム(サーボ)駆動回路16に入力し
、各細繊動源をサーボ駆動している。従って、力制御に
おいては、力センサ5からの出力に基づく力成分FZ、
F’J、1zは単なる状態フィードバックの意味だけで
なく、位置フィードバックのサーボ系に対する追従指令
を発生する意味を持ち、サーボ系の共用かoT純となる
とともに、位置制御を加味した復元力制御かでき、し小
も位置制御系の位置制御と並行動作ができる。
本発明では、この様な力制御の特性を利用して、操作者
かハンド26を持って、ハンド26をパレット29b上
の位置に位置合せできるようにしている。即ち。プロセ
ッサ12が位置制御モードを行なわない状態においては
、アーム駆動部16へ入力される制御入力は力センサ2
7からの力検出出力F’−f、Fy、FZに基づく追従
指令PF、Z’。
pry、przのみであるから、5g2図に示す様に、
オペレータかハンド26を持ってA方向(+Y方向)に
力を加えると、アームブロック22かY軸モータ24に
駆動され、ハンド26は同方向のA′方向に移動する。
同様にオペレータかハンド26を待ってB方向C+X方
向)に力を加えると、X軸モータ29によってベルト2
9αが駆動され、パレット29bはB′方向(−X方向
)に移動し、ハンド26をC方向(+2方向)に力を加
えると、キャリアブロック23が2軸モータ25によっ
て駆動され、ハンド26がd方向(+2方向)に移移動
する。
このようにして、ハンド26をハンド26に加わる力に
4いて駆動せしめ、オペレータのハンド26に加わる力
の方向に追従制御し、ハンド26をオペレータの手によ
りオペレータの意思に従い追従tJ−させる、いわゆる
ダイレクトテーチか央現できる。
次に、第3図及びg4図に従ってキャリブレーション作
業を説明する。
■ 先づ、オペレータは操作パネル10αよりキャリブ
レーションモードを指示する。
■ 次に、オペレータは第4図(4)の如くg識対凌α
をパレット29b上に設け、認識対象αがカメラ28の
視野に入るようにハンド26を把んでダイレクトテーチ
によりハンド26を移動させる。
この時、カメラ28の撮影像は画像メモリ18に格納さ
れ、且つディスプレイ10bに表示されるから、オペレ
ータはディスプレイ10にの画面を見ながら、ハンド2
6に所定の方向の力を付与してハンド26を移−させる
ことかできる。
■ 次に、オペレータはセット指示を操作パネル10α
より指示する。これによって、プロセッサ12はステッ
プ■の位置決め点におけるハンド位置検出部14の出力
座標を続出し、これをロボット座標系の原点ORとして
、メモリ11に格納する。更に、プロセッサ12は画像
メモリ18の内耳(即ち、カメラ28の撮影像)を続出
し、gl#対象αのカメラ座Jrs系の座標値αc(s
ccl、ycl)を求めメモリ11に格納する。
■ 次に、オペレータはハンド26を持ってグイレクト
テーチによりハンド26をパレット29b上の認識対象
αに位置合せする。この時、l−%ノド26を認識対象
αにはめ合せると位置合せか正確になる。そして、オペ
レータはセット指示を操作パネル10αより指示すると
、プロセッサ12はこの位置決め点におけるハンド位置
検出ff114の出力座標をd出し、これをg識対象α
のロボット座標系の座標eLR(ril、yxl’)と
してメモリ11に格納する。
■ 次に、オペレータは操作パネル10αより復帰指令
を与える。これによってプロセッサ12はメモリ11の
ロボット座標系の原点ORにノ1ンド26か移動するよ
うな位置指令を位置制御部13に送り、アーム駆動部1
6によって各軸のモータ24.25.29をサーボ制御
して、ハンド26をロボット座標系の原点ORに復帰せ
しめる。
■ 次に、オペレータはディスプレイ104を見ながら
、第4図(4)の如く、認識対象すをパレット296上
の認識対象αと異なる位置でカメラ28の視野内に設け
る。そして、オペレータは操作パネル10αよりセット
指示を与えると、プロセッサ12はm+歇メモリ】8の
内容を続出し、認識対象すのカメラ座標系の座標値A 
c(xc2.yc2)を求め、メモリ11に格納する。
■ 次1こ、オペレータは、ステップ■と同様にハンド
26を持ってダイレクトテーチによりハンド26をパレ
ット29b上の認識対象すに位置合せする。そして、オ
ペレータはセット指示を操作パネル10αより与えて、
プロセッサ12はこの位置決め点におけるハンド位置検
出部14の出力座標・と読出し、これを認識対象すのロ
ボット座標系の7 d A R(、x R2、’/ R
2)としてメモリ11に格納す・oo ■ このようにして認識対攬α、hのカメラ及びロボッ
ト座標系のwmacebc*ax*bLを測定した後、
プロセッサ12が対応関係を求める。
ここで、対応関係を説明の簡単のためロボット座七員系
に対するカメラ座標系の2軸回りの傾きを第7因の如く
考イし、x−y平面内の第一象限のみで扱うものとする
先づ、倍率Sとロボット座標系に対するカメラ座標系の
煩きΔθを求める。
倍率Sはカメラ座標系における認識対象α、b間の距g
li 4 cとロボット座標系におけるg識対象α、b
間の距41 nとの比であり次式で求められる。
・・・・−(1) また、Δθはロボット座標系における線分αbのなす角
θRとカメラ座標系における線分αbのなす角θCとの
差であり次式で求められる。
Δθ=θR−θC = +cLs−’((yR2−yRl)/(zR2−r
a1月−ttL’L−’<<’/C2−”/C1>Ax
e2−JcC]))  −−−−・−(21プロセツサ
]2は、前述の測定座標を用いて(1)。
(2)式を実行して倍率S及び傾きΔσを求める。
次に、ロボットM標系の原点ORの座標(J:RO。
yRo )を求める。 このためには、カメラ座像系に
おける原点Qcと認識対象α1…の距離tαと傾きθC
αを次式より先づ求める。
ta= 、r石T石7F        ・・・・・・
・・・(3)θCα= tars−’ (yc 1/x
c 1 )        −e目e・…(4)従って
、前述の倍率SL!:傾きΔθを用いて原点τ凡の座標
(x n o * y RO)は次式で表わされる。
zRQ=rR1−8@la*coz(θCCL−Δθ)
……・・・(5)yRO=yR1−8stcLs、rf
rL(θCα−Δθ)    ・−1・・−・−(6)
プロセッサ12は前述と同様にして(5) (6)式よ
りロボット座標系の原点TRの座標を求め、倍率S、傾
きΔθとともにメモリ11に格納しておく。
以降、プレイバック時にプロセッサ】2はカメラ28か
得た撮−画面より対象物のカメラ座標系における座標値
xj、yt’を得、メモIJ 11の前述の格納データ
を用いて次式により対応するロボット座標系の座標値z
R′、yR′を求める。
但し、t=シ4τ7]コ−1 θ= toLn−’ (y c’/x j )    
 とする。
そして、プレイバック時には、プロセッサ12はこれに
よって位置指令を補正して位置制御部13へ与え、アー
ム駆動部16より各軸のモータ24゜25.29をサー
ボ制御して位置制御せしめる。
この時、力制御部】5の出力がアーム駆動部16に入力
されるのをプロセッサ12の指示で禁止しておけば純位
置制御が実行できる。逆に力制御部15の出力をアーム
駆動部16に入力して積極的に利用すると、ハンド26
がパレット297上の対象物からの力を受けると、力が
零になる様に力制御も併用され、従ってハメ合せ作業に
おいてハンド26に柔軟性を持たせることか出来、ハメ
合せを円滑に実行させることかできる。
上述の実施例では、カメラからの位fit慣報を予じめ
教示された位置の補正に用いているか、これをIff位
置指令とするシステムに適用してもよい。
又視地付ロボットの構成も実施例のものに限られず周卸
の他の形式のものを用いることかでさる。
更に、ロボットのハンドも吻品を把持するものに限られ
ず、溶接ロボットなら、溶接トーチで(うってもよく、
要するに対象物に何らかの処理を肩すものであればよい
以上本発明を一実蝿例により説明したか、本発明は本発
明の主旨に従い種々の変形か可能であり、本発明からこ
れらを排除するものではない。
〔発明の効果〕
以上説明した鏝に、本発明によれば、対象物に対し処理
を施すハンドと、該ハンドを移動するハンド移動手段と
、該対象物を撮像するm+象手段と、該撮像手段に接続
され該ハンド移動手段を制御する制御手段とを有する視
覚付ロボットにおいて、該ハンドに付与される力を検出
する力検出手段を設け、該ハンドを手動操作した時に該
力検出手段より出力される信号に基いて該制御手段か該
ハンド移動手段を駆動して該ハンドに追従せしめて該ハ
ンドの手動操作によって該ハンドを認遮対象に位1&合
せし、該撮像手段か該認識対象を撮像して得たカメラ座
標系の座標と、譲位置合せによる該認識対象のロボット
座標系の座標とから該両座種糸の対応性は杏得ることを
特徴としているので、ハンドを手動操作してキャリブレ
ーション作業におけるロボットの移動を行なえるから、
位置合せ  喝を高速に宵なうことかできるという効果
を奏する他に位置合せを正確に行うこ′とも可能となる
という効果を4し、キャリブレーション作業の時間を短
縮化でき且つキャリブレーションの精度向上を図ること
もできる。又、認識対象を設定するためハンド等を退避
させる場合でもハンドに手を触れるだけでよいのr、 
−7mキャリブレーション作業の時間を短縮ししかも作
業を簡単化できるという効果も秦する。
【図面の簡単な説明】
g1図は本発明の一実施タリブロック図、第2図は41
図実施例イS成に3けるダイレクトテーチ劾作説明図、
第3図は第1図病成によるキャリブレーション作業の処
理フロー図、第4IAは、4番1図構成におけるキャリ
ブレーション作i説明図、第5図は4JE t、付ロボ
ットの説明図、第6図は従来のキャリブレーション作業
説明図、第7図はロボット座標系とカメラ座標系の説明
図である。 図中、l・・・ロボット制御装置、2・・・視覚付きロ
ボット、】】・・・メモリ、】2・・・プロセッサ、1
5・・・力制御部、24,25.29・・・モータ(ハ
ンド移動手段)、26・・・ハンド、27・・・力セン
サ、28・・・撮像手段(カメラ)。

Claims (1)

    【特許請求の範囲】
  1. 対象物に対し処理を施すハンドと、該ハンドを移動する
    ハンド移動手段と、該対象物を撮像する撮像手段と、該
    撮像手段に接続され該ハンド移動手段を制御する制御手
    段とを有する視覚付ロボットにおいて、該ハンドに付与
    される力を検出する力検出手段を設け、該ハンドを手動
    操作した時に該力検出手段より出力される信号に基いて
    該制御手段が該ハンド移動手段を駆動して該ハンドに追
    従せしめて該ハンドの手動操作によつて該ハンドを認識
    対象に位置合せし、該撮像手段が該認識対象を撮像して
    得たカメラ座標系の座標と、該位置合せによる該認識対
    象のロボット座標系の座標とから該両座標系の対応付け
    を得ることを特徴とする視覚付ロボットのキャリブレー
    ション方式。
JP25373984A 1984-11-30 1984-11-30 視覚付ロボツトのキヤリブレ−シヨン方式 Pending JPS61131887A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP25373984A JPS61131887A (ja) 1984-11-30 1984-11-30 視覚付ロボツトのキヤリブレ−シヨン方式

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP25373984A JPS61131887A (ja) 1984-11-30 1984-11-30 視覚付ロボツトのキヤリブレ−シヨン方式

Publications (1)

Publication Number Publication Date
JPS61131887A true JPS61131887A (ja) 1986-06-19

Family

ID=17255460

Family Applications (1)

Application Number Title Priority Date Filing Date
JP25373984A Pending JPS61131887A (ja) 1984-11-30 1984-11-30 視覚付ロボツトのキヤリブレ−シヨン方式

Country Status (1)

Country Link
JP (1) JPS61131887A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1989001849A1 (en) * 1987-08-22 1989-03-09 Fanuc Ltd Calibration system for visual sensor system
WO2018088199A1 (ja) * 2016-11-11 2018-05-17 セイコーエプソン株式会社 ロボット制御装置、ロボット、ロボットシステム、及び、ロボット制御方法
JP2018083284A (ja) * 2016-11-11 2018-05-31 セイコーエプソン株式会社 ロボット制御装置、ロボット、ロボットシステム、及び、ロボット制御方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1989001849A1 (en) * 1987-08-22 1989-03-09 Fanuc Ltd Calibration system for visual sensor system
WO2018088199A1 (ja) * 2016-11-11 2018-05-17 セイコーエプソン株式会社 ロボット制御装置、ロボット、ロボットシステム、及び、ロボット制御方法
JP2018083284A (ja) * 2016-11-11 2018-05-31 セイコーエプソン株式会社 ロボット制御装置、ロボット、ロボットシステム、及び、ロボット制御方法

Similar Documents

Publication Publication Date Title
US9517563B2 (en) Robot system using visual feedback
EP0383944B1 (en) Action teaching method and control apparatus for a robot
JPH04344503A (ja) ロボットの数値制御装置
CN111347431A (zh) 一种手持工具示教的机器人示教喷涂方法和装置
JPH023806A (ja) ロボット制御システム
US11376734B2 (en) Trajectory control device
JP2018167334A (ja) 教示装置および教示方法
JP2667153B2 (ja) 複腕装置の直接教示方法
JPH05261682A (ja) 産業用ロボットのキャリブレーション方式
JPS61131887A (ja) 視覚付ロボツトのキヤリブレ−シヨン方式
JP3577124B2 (ja) 力制御ロボットを用いて嵌合データを取得する方法
JPH0746288B2 (ja) 手先視覚を持つロボットの制御方法とその装置
WO2022092168A1 (ja) ロボット制御装置及びロボットシステム
WO2023272529A1 (zh) 动态装配方法、装置和***
Chen et al. Application of visual servoing to an X-ray based welding inspection robot
JP2656180B2 (ja) ツール先端位置調整方法
JPH05134737A (ja) ロボツトの教示装置
JP3175623B2 (ja) ロボットの制御装置
JPH05197416A (ja) ロボット動作点教示装置
JPH05108131A (ja) ロボツトの教示装置
CN116100562B (zh) 多机器人协同上下料的视觉引导方法及***
JPH0731536B2 (ja) 教示デ−タ補正ロボツト
JPS6340908A (ja) ロボツト制御装置
JPH05301195A (ja) 視覚センサにおけるカメラ位置ずれ検出方法
JP2584151Y2 (ja) ロボット制御装置