JPH054180A - ハンドアイ付き多軸ロボツトの座標系整合方法 - Google Patents

ハンドアイ付き多軸ロボツトの座標系整合方法

Info

Publication number
JPH054180A
JPH054180A JP15707291A JP15707291A JPH054180A JP H054180 A JPH054180 A JP H054180A JP 15707291 A JP15707291 A JP 15707291A JP 15707291 A JP15707291 A JP 15707291A JP H054180 A JPH054180 A JP H054180A
Authority
JP
Japan
Prior art keywords
robot
optical axis
coordinate system
visual
axis
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP15707291A
Other languages
English (en)
Inventor
Kazuyuki Yamaguchi
和幸 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Industries Corp
Original Assignee
Toyoda Automatic Loom Works Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyoda Automatic Loom Works Ltd filed Critical Toyoda Automatic Loom Works Ltd
Priority to JP15707291A priority Critical patent/JPH054180A/ja
Publication of JPH054180A publication Critical patent/JPH054180A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Manipulator (AREA)
  • Control Of Position Or Direction (AREA)

Abstract

(57)【要約】 【目的】簡単かつ自動的にロボット座標系上のカメラ位
置と実際のカメラ位置すなわち撮像画面上のカメラ位置
との位置ずれを解消し得る座標系間位置ずれ解消方法を
提供する。 【構成】第1発明の方法では、両光軸を平行化した後、
ハンドアイをロボット光軸の回りに回転することによる
視覚座標系上の静止基準点の位置変化に基づいて両光軸
間の位置ずれベクトルを求め、この位置ずれベクトルを
解消するようにどちらかの光軸をシフトする。第2発明
の方法では、両光軸を平行化した後、静止基準点を貫通
しかつロボット光軸の直交する軸の回りにハンドアイを
回転することにより両光軸間の位置ずれベクトルを求
め、この位置ずれベクトルを解消するようにどちらかの
光軸をシフトする。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、ハンドアイ付き多軸ロ
ボットにおけるハンドアイの視覚座標系と、多軸ロボッ
ト自体のロボット座標系とを整合させる方法に関し、詳
しくは、視覚座標系の原点としてのカメラ位置と、前記
ロボット座標系上の前記カメラ位置との間の位置ずれを
解消する方法に関する。
【0002】
【従来の技術】従来、多軸ロボットのハンドに二次元固
体撮像素子内蔵のTVカメラ(以下、ハンドアイともい
う)を搭載し、ロボットのハンドワ−クを支援する提案
がある。このようなロボットでは、ハンドアイすなわち
ハンドに装着されたTVカメラが有する視覚座標系と、
多軸ロボット自体のロボット座標系とを整合させる作業
(以下、キャリブレーションともいう)が必要である。
【0003】このようなハンドアイ付き多軸ロボットの
キャリブレ−ションでは、ハンドアイの撮像画面上の互
いに直交する2本の直交軸及び光軸を各座標軸とする直
交座標系を視覚座標系とし、この視覚座標系の原点すな
わちカメラ位置と、光軸及び直交軸とを、ロボット座標
系上で整合させるのが簡単である。従来のキャリブレ−
ションでは、所定数の基準点の座標をロボット座標系上
のロボット座標点としてロボットに教示し、次に、この
基準点を所定位置から撮像して視覚座標系上の視覚座標
点として求め、次に、ロボット座標点とそれらに対応す
る視覚座標点との座標関係(座標系変換マトリックス)
を決定している。
【0004】
【発明が解決しようとする課題】上記した従来のキャリ
ブレ−ション方法は、単にロボット座標系と視覚座標系
との変換マトリックスを求めることができるが、多くの
手作業を要し作業が複雑である。また、視覚座標系上の
カメラ光軸(以下、視覚光軸またはz軸ともいう)と、
それと平行なロボット座標系が認識するカメラ光軸(以
下、ロボット光軸またはZ軸ともいう)とがロボット光
軸と直角な面内において位置ずれしていたり、視覚座標
系上の原点すなわちカメラ位置が、絶対空間内において
ロボット座標系が認識するカメラ位置に対してロボット
光軸方向にずれていると、測定誤差を生じてしまう。
【0005】本発明は、上記問題点に鑑みなされたもの
であり、実際のカメラ位置(すなわち視覚座標系の原点
位置)と、ロボット座標系上の前記カメラ位置との位置
ずれを解消し、キャリブレ−ション(座標系整合)作業
を簡単化することを、その解決すべき課題としている。
【0006】
【課題を解決するための手段】本第1発明は、3次元移
動可能なハンドに固定されたハンドアイの視覚光軸を座
標軸とし前記ハンドアイの位置を原点とする視覚座標系
と、前記ハンドアイの位置を算出可能なロボット座標系
とを有し、前記視覚光軸の前記ロボット座標系上への投
影すなわち前記算出結果としてのロボット光軸と前記視
覚光軸との前記視覚光軸に直交する面内における位置ず
れを解消するハンドアイ付き多軸ロボットの座標系整合
方法であって、前記視覚光軸と前記ロボット光軸とを平
行に調整し、所定の静止基準点を撮像しつつ前記ハンド
アイを前記ロボット光軸の回りに所定角度回転させ、該
回転による前記視覚座標系上の前記静止基準点の位置変
化に基づいて前記視覚座標系上における前記両光軸間の
位置ずれベクトルを求め、前記位置ずれベクトルに応じ
て前記両光軸の少なくとも一方の位置を前記ロボット光
軸と直角な方向に変位させることにより、前記両光軸間
の位置ずれを解消することを特徴としている。
【0007】本第2発明は、3次元移動可能なハンドに
固定されたハンドアイの視覚光軸を座標軸とし前記ハン
ドアイの位置を原点とする視覚座標系と、前記ハンドア
イの位置を算出可能なロボット座標系とを有し、前記視
覚光軸の前記ロボット座標系上への投影すなわち前記算
出結果としてのロボット光軸と前記視覚光軸との前記視
覚光軸方向における位置ずれを解消するハンドアイ付き
多軸ロボットの座標系整合方法であって、前記視覚光軸
と前記ロボット光軸とを平行に調整し、所定の静止基準
点を撮像しつつ前記ハンドアイを静止基準点を中心とし
て前記ロボット光軸と直交する軸の回りに所定角度回転
させ、該回転による前記視覚座標系上の前記静止基準点
の位置変化に基づいて前記視覚座標系上における前記両
光軸間の位置ずれベクトルを求め、前記位置ずれベクト
ルに応じて前記両光軸の少なくとも一方の位置を前記ロ
ボット光軸の方向に変位させることにより、前記両光軸
間の位置ずれを解消することを特徴としている。
【0008】本第3発明は、3次元移動可能なハンドに
固定されたハンドアイの視覚光軸を座標軸とし前記ハン
ドアイの位置を原点とする視覚座標系と、前記ハンドア
イの位置を算出可能なロボット座標系とを有し、前記視
覚光軸の前記ロボット座標系上への投影すなわち前記算
出結果としてのロボット光軸と前記視覚光軸との位置ず
れを解消するハンドアイ付き多軸ロボットの座標系整合
方法であって、 前記ハンドアイが所定距離離れた位置
から所定姿勢で注視する所定の静止注視点をロボット座
標系上の代表点とし、前記ロボット座標系上における前
記視覚座標系の前記原点すなわちカメラ位置を前記代表
点からの変位ベクトルとして規定することを特徴として
いる。
【0009】
【発明の効果】上記した第1発明の方法では、両光軸を
平行化した後、ハンドアイをロボット光軸の回りに回転
することによる視覚座標系上の静止基準点の位置変化に
基づいて両光軸間の位置ずれベクトルを求め、この位置
ずれベクトルを解消するようにどちらかの光軸をシフト
するものであり、このようにすればカメラの実際の光軸
をロボット座標系上に簡単かつ正確に投影することがで
きる。
【0010】上記した第2発明の方法では、両光軸を平
行化した後、静止基準点を貫通しかつロボット光軸の直
交する軸の回りにハンドアイを回転することにより両光
軸間の位置ずれベクトルを求め、この位置ずれベクトル
を解消するようにどちらかの光軸をシフトするものであ
り、このようにすればカメラの実際の光軸をロボット座
標系上に簡単かつ正確に投影することができる。
【0011】上記した第3発明の方法では、ハンドアイ
が所定距離離れた位置から所定姿勢で注視する所定の注
視点をロボット座標系上の代表点とし、ロボット座標系
上における前記視覚座標系の原点すなわちカメラ位置を
前記代表点からの変位として規定している。このように
すれば、ハンドアイの実際の光軸すなわち視覚光軸の位
置が、ロボット座標系が算出する前記光軸すなわちロボ
ット光軸の位置とずれた場合、容易にこの位置ずれを解
消できるという優れた効果を奏することができる。
【0012】すなわちこの場合、ロボット座標系上に注
視点の座標と、この注視点を撮像するハンドアイのベク
トル座標とは予め規定されている。一方、この注視点を
注視するハンドアイの画像からこの注視点を原点とする
ハンドアイの位置や姿勢がわかる。したがって、ハンド
アイの画像から求めたハンドアイのベクトル座標(注視
点を基準)と、予めロボット座標系上に設定されたハン
ドアイのベクトル座標(注視点を基準)とを比較するこ
とにより、両者間の位置ずれを容易に発見することがで
き、更に、両者の位置ずれの分だけロボット座標系上の
ハンドアイのベクトル位置をシフトすることにより、上
記位置ずれを容易に解消することができる。
【0013】
【実施例】本発明の一実施例を使用する工作機械装置を
図1に示す。この装置は、制御用のロボットコントロ−
ラ(以下単にコントロ−ラという)10を備え、ハンド
11を3次元移動可能な多軸ロボット1と、多軸ロボッ
ト1のハンド11に装着されたハンドアイ3とからな
り、ハンドアイ3には光軸30を有するレンズ系(図示
せず)と、このレンズ系と直交配置されて撮像する二次
元固体撮像素子(図示せず)が格納されている。
【0014】ハンド11の旋回範囲直下の所定位置にキ
ャリブレ−ションプレ−ト4が配置されている。このキ
ャリブレ−ションプレ−ト4は孔40を有する厚肉の金
属板であって、後述するキャリブレ−ション、すなわ
ち、ハンドアイ3の視覚座標系と、ロボットコントロ−
ラの座標系(ロボット座標系)との整合(補正)を行う
作業に使用される。ハンドアイ3はキャリブレ−ション
プレ−ト4の直上に略所定距離だけ隔てて配置されてい
る。
【0015】なお、上記キャリブレ−ション(座標系整
合)を実行する前に、孔40の中心線である基軸Aにハ
ンドアイ3の光軸30を合致させ、かつ、ハンドアイ3
とキャリブレ−ション4の孔40との光軸方向の距離を
確定する光軸、距離設定作業を行う。光軸設定作業は、
後で行うキャリブレ−ション作業において、ハンドアイ
を移動させた場合、基軸Aの検出が不正確となって測定
誤差が生じるのを排除するためである。また、距離設定
作業は、撮像画面上での画素距離と孔40表面の実距離
との変換を正確にするためである。
【0016】以下、各設定作業を順に説明する。 (面直出し)まず、面直出しについて図2に基づいて説
明する。図2において、キャリブレ−ションプレ−ト4
は平坦床面上の所定位置に配設されており、キャリブレ
−ションプレ−ト4に面直アタッチメント5が配設され
ている。
【0017】この面直アタッチメント5は、平坦な下面
53を有しキャリブレ−ションプレ−ト4の平坦な上面
に載置される円盤部55と、この円盤部55の中央から
下方に突設されキャリブレ−ションプレ−ト4の孔40
に密着嵌入される下軸部54と、この円盤部55の中央
から上方に突設される上軸部56とを備えている。上軸
部56及び下軸部54は円盤部55と同軸となってお
り、したがって、このアタッチメント軸心は孔40の軸
心である。。
【0018】上軸部56及び円盤部55の輪郭は上方か
ら撮像した場合、円C1、C2となり、円C1の直径は
d1、円C2の直径はd2に設計されている(図3参
照)。この面直出しをロボットコントロ−ラ10を用い
て全自動で実施する手順を図4のフロ−チャ−トを参照
して、以下説明する。まず、ハンド11を制御して、ハ
ンドアイ3をキャリブレ−ションプレ−ト4の略直上位
置に移動させ、かつ光軸30を基軸Aに略合致させ、ア
タッチメント5とハンドアイ3との距離Lを基準距離L
oに略一致させる(100)。なおこの実施例では、光
軸30は画面の中央画素の位置にあるとしている。
【0019】次に、アタッチメント5を撮像して画像信
号を取り込み(101)、得られた画像信号から円C
1、C2を抽出し、それを真円に正規化処理して正規化
円C1’、C2’を求め、正規化円C1’、C2’の中
心座標点(視覚座標系における)P1(x1,y1)、
P2(x2,y2)を求める(102)。なお、これら
の画像処理はロボットコントロ−ラ10に内蔵された画
像処理プロセッサ(図示せず)で行う。
【0020】次に、内円である正規化円C1’の中心点
P1が画面(図5参照)の中央位置(光軸30)にくる
ように、ハンド11を移動させる(104)。次に、両
中心座標点P1(x1,y1)、P2(x2,y2)を
結ぶ画面上の直線Lx(図5参照)を求め、ハンドアイ
3をこの直線Lxと光軸30とを含む面内で、直線Lx
の長さが減る方向に揺動させる(106)。なお、この
時、ハンドアイ3の揺動角度は直線Lxの大きさに対応
する量(正確には三角関数関係にある量)とする。
【0021】次に、中心点P1が画面(図5参照)の中
央位置(光軸30)にくるように、ハンド11を再度、
移動させる(108)。次に、直線Lxの長さが、微小
な長さΔLより小さいかどうかを調べ、小さければ面直
出しが行われたとしてル−チンを終了しそうでなければ
ステップ106に戻ってル−チンを繰り返す。
【0022】このようにすれば、面直出しに好適なアタ
ッチメント5を用いているので、面直出しを自動的に高
精度に実行することができる。またこの実施例では、キ
ャリブレ−ションプレ−ト4の孔40の中心線からなる
基軸と光軸30とを合致させること、すなわち、孔40
の中心に光軸30をセットすることもできる。上記した
実施例は面直アタッチメント50を用いた面直出しを説
明しているが、この面直アタッチメント50の形状自体
にも大きな特徴がある。すなわち、このアタッチメント
50は互いに平行で軸に直交する二面を有し、この二面
から同心円が抽出可能となっている。したがって、両円
の中心点間を結ぶ直線の方向及び長さにより簡単に面直
出しを行うことができる。
【0023】なお、キャリブレーションプレート4への
アタッチメント5の係止はこのような嵌合構造だけでな
く、他の方法を採用することができる。例えば、キャリ
ブレーションプレート4が磁性体の場合、アタッチメン
トを磁石としてもよい。図6に面直アタッチメントの他
の態様を示す。このアタッチメント5aでは、上軸部5
6aが切頭円錐形状を有している。この場合には、照明
光を光軸30と平行な方向に照射することが好ましい。
このようにすれば斜面58aで照明光は全反射して上面
51a.52aと斜面58aとを視覚的に区別すること
ができる。もちろん、斜面58a又は上面51a.52
aのどちらかを着色してもよい。 (距離出し)次に、距離出しについて図8に基づいて説
明する。
【0024】上記した面直出し及び光軸合わせを行った
後、図8に示すように、キャリブレ−ションプレ−ト4
に距離アタッチメント6を載置する。この距離アタッチ
メント6は、平坦な下面63を有しキャリブレ−ション
プレ−ト4の平坦な上面に載置される円盤部65と、こ
の円盤部65の中央から下方に突設されキャリブレ−シ
ョンプレ−ト4の孔40に密着嵌入される下軸64とを
有し、この円盤部65の中央には上方開口で円形の凹部
66が穿設されている。 ここで、凹部66、下軸6
4、円盤部65は同軸となっており、したがって、この
アタッチメント6の軸心は、孔40の軸心、すなわち、
基軸Aに合致している。凹部66の輪郭は上方から撮像
した場合、円C3となり、円C3の直径はdoに設計さ
れている(図9参照)。
【0025】この距離出しをロボットコントロ−ラ10
を用いて全自動で実施する手順を図10のフロ−チャ−
トを参照して、以下説明する。まず撮像を行って画像信
号を取り込み(200)、取り込んだ画像信号を画像処
理プロセッサで処理して凹部66の輪郭である円C3の
平均直径dを算出する(202)。次に、この平均直径
dと予め記憶する真の直径doとの差(d−do)が微
小値Δdより小さいかどうかを調べ(204)、小さけ
ればル−チンを終了し(204)、そうでなければ、d
がdoより小さいかどうかを調べ(206)、小さけれ
ばハンドアイ3を所定距離接近させ(210)、そうで
なければハンドアイ3を所定距離離遠させ(210)、
204にリタ−ンする。
【0026】ただし、コントロ−ラ10に記憶されてい
る上記真の直径doは、ハンドアイ3を基準距離Loに
位置させた場合に画面上に得られる距離すなわち画素距
離で記憶されており、平均直径dも画素距離で表示され
る。以上説明したようにこの実施例では、アタッチメン
ト6上に形成され既知の長さを有する明瞭な直線(ここ
では直径)の画素距離の大小によりハンドアイ3のアタ
ッチメント6からの遠近を検出しているので、高精度か
つ高速に距離出しを行うことができる。
【0027】以下、本実施例の骨子となるキャリブレ−
ション作業を説明する。このキャリブレ−ション作業は
上記光軸設定及び距離設定の後で実施される。 (光軸整合)まず、光軸整合について図11から図13
及びフロ−チャ−トである図14を参照して説明する。
【0028】最初、図11に示すように、キャリブレ−
ションプレ−ト4の直上において光軸30を基軸Aに合
致させ、キャリブレ−ションプレ−ト4(ここでは、そ
の上面)とハンドアイ3(ここでは、その先端)との距
離を基準距離Lに一致させる(400)。なお、この基
準距離Lは、上記距離出しで設定された距離であり、こ
の時のハンドアイ3のポジションはロボット座標系上に
おいてPr1で表示される(図12参照)。
【0029】次に、キャリブレ−ションプレ−ト4を撮
像して画像信号を取り込み、得られた画像信号から孔4
0の中心点(本発明でいう静止基準点)を求め、これに
視覚光軸30を合致させる(402)。なおこの実施例
では、上述の面直出しで既に視覚光軸30は基軸Aに合
致しているので、このステップは省略することができ
る。
【0030】次に、この視覚光軸30の画面上の座標点
を第1視覚座標点P1として記憶する(404、なお、
第1座標点P1については図13参照)。ただしこの実
施例では、上述の光軸出しで既に視覚光軸30は画面の
中央点に設定されているので、第1座標点P1としてそ
の座標位置を記憶すれば、このステップは省略すること
ができる。
【0031】次に、ハンドアイ3をロボット光軸に沿っ
て所定距離だけ移動させる(406)。なお、コントロ
−ラ10がロボット座標系上の所定のベクトルだけハン
ド11の移動を支持する場合、ハンド11はそのベクト
ルに忠実に変位するものとする。移動後のハンドアイ3
のロボット座標系上のポジションはPr2で表示される
(図12参照)。
【0032】次に、このポジションPr2で再度キャリ
ブレ−ションプレ−ト4を撮像し、得た画像信号を画像
処理して、孔40の中心点の画面上の座標点を第2視覚
座標点P2として記憶し(408)、その後、ハンドア
イ3を元の位置に復帰させる(410)。次に、視覚座
標系上の上記第1、第2視覚座標点P1、P2間の移動
ベクトル(図13参照)を算出する(412)。もし、
ロボット光軸と視覚光軸とが合致していれば、この移動
ベクトルは0になる筈である。
【0033】次に、算出した移動ベクトルが充分に小さ
いか(所定の微小値ΔLより小さいかどうかを調べ(4
14)、もし小さければロボット光軸と視覚光軸とは合
致しているものとして次のル−チン(図17)に進む。
もし移動ベクトルが充分に小さくなければ、移動ベクト
ルの大きさに応じてその大きさが縮小する方向にハンド
アイ3を揺動し(416)、再度、ステップ406にリ
タ−ンする。なお、この揺動はロボット光軸と、視覚座
標系上の移動ベクトルに対応するロボット座標系上のベ
クトルとを含む面内で実施されるが、他の面内で実施し
ても構わない。このようにして、移動ベクトルが充分に
小さくなるまでル−チンを繰り返せば、簡単かつ自動的
に視覚光軸をロボット光軸に合致させることができる。
【0034】(直交軸整合)次に、視覚光軸と直交して
所定方向に延びる視覚座標系上の所定の視覚直交軸(こ
こでは、画面の水平走査方向であるX軸を選択する)
と、このX軸と対応するとともに、ロボット光軸と直交
して延びる視覚座標系上のロボッ直交軸(ここでは、x
軸と呼ぶ)との方向を整合させる直交軸整合方法を図1
5、図16及びフロ−チャ−トである図17を参照して
説明する。
【0035】当然、図17に示すル−チンの開始前に、
ロボット光軸と視覚光軸30と基軸Aとは合致してお
り、かつ、ハンドアイ3はポジションPr1に位置して
おり、そして、第1視覚座標点P1を記憶している。最
初、図15に示すようにハンドアイ3をロボット直交軸
の一つであるx軸(水平軸)方向に距離Lだけ移動させ
(500)、キャリブレ−ションプレ−ト4を撮像して
画像信号を取り込み、得られた画像信号から孔40の中
心点(本発明でいう静止基準点)を求め、その画面上の
座標点を第3視覚座標点P3として記憶する(502な
お、第3視覚座標点P3については図16参照)。
【0036】次に、視覚座標系上の上記第1、第3視覚
座標点P1、P2間の移動ベクトル(図16参照)を算
出する(506)。次に、この移動ベクトルと視覚直交
軸としてのX軸との交差角Θを求め(508)、交差角
Θが微小値ΔΘより小いかどうかを調べ(510)。小
さければ、ロボット直交軸xと視覚直交軸Xとは合致し
ているとしてル−チンを終了する。
【0037】一方、交差角Θが微小値ΔΘ以上であれ
ば、交差角Θの大きさに応じて交差角Θが減少する方向
にハンドアイ3を回動させ(512)、再度、ステップ
406にリタ−ンする。もし、ロボット直交軸のx軸と
視覚直交軸のX軸(水平走査方向)とが合致していれ
ば、交差角Θは0になる筈である。
【0038】このようにすれば、簡単かつ自動的に視覚
直交軸とロボット直交軸とを合致させることができる。
上記した光軸整合作業及び直交軸整合作業により、ほぼ
両光軸及び各直交軸は合致する(より正確に言えば、平
行となる)。しかし、例えば図12からわかるように、
視覚光軸とロボット光軸とが平行であり、かつ、両者が
近接している場合、ハンドアイ3をロボット光軸方向に
所定距離移動しても移動ベクトルの変化は小さい。すな
わち、この方法では、互いに平行な両光軸間の光軸と直
交する方向への位置ずれを正確に補正することは容易で
はない。
【0039】また、ハンドアイの位置すなわち視覚座標
系の原点位置とロボット座標系が算出するそれとが光軸
方向において位置ずれしている可能性があり、この位置
ずれも補正する必要がある。本発明の特徴をなすこれら
視覚座標系の原点とロボット座標系上のその位置との間
の位置ずれを補正する方法(以下、ポジション合わせと
もいう)を以下に説明する。 (光軸直交方向の位置ずれ解消)まず、光軸直交方向の
位置ずれ解消方法について、図18の模式図、図19の
静止基準点移動図、図20のフロ−チャ−トにより説明
する。
【0040】この工程を実施する前に、上記した各工程
が全て実施され、視覚光軸とロボット光軸とは平行に調
整されており、互いに近接しているものとする。まずこ
の実施例では、絶対空間内の所定位置に設定される静止
基準点Phを準備する。なお、この静止基準点Phとし
ては例えば図11の基軸Aを採用すればよい。この実施
例では、この静止基準点Phをロボット座標系の原点P
r0として、この原点Pr0からロボット光軸方向に所
定距離Lだけ離れた点をロボット座標系上のカメラ位置
としてハンドアイ3をこのカメラ位置に移動させ(60
0)、次に、ハンドアイ3を光軸と直交する方向に移動
して視覚光軸(ここでは、撮像画面の中心点を視覚光軸
とする)を静止基準点Phに一致させる(602)。な
お、静止基準点Phをロボット座標系の原点としたの
は、カメラ位置(視覚座標系の原点)のロボット座標系
上の位置の算出を簡単化するためになされたものであ
り、静止基準点Ph以外のポイントをロボット座標系の
原点としても構わない。
【0041】したがって、いま、視覚直交軸をx,y軸
とし、視覚光軸をz軸とし、ロボット直交軸をX、Y軸
とし、ロボット光軸をZ軸とする場合、静止基準点Ph
の視覚座標系上での座標(x,y,z)は(0,0,L
z)となり、また、ロボット座標系上での座標(X,
Y,Z)は(0,0,0)となる。Lzは視覚座標系に
おける静止基準点Phとカメラ位置との間の視覚光軸方
向の距離である。
【0042】そして、この視覚座標系上のx−y面にお
ける静止基準点Ph=(0,0)をメモリしておく(6
04)。次に、ハンドアイをロボット光軸(Z軸)を中
心として180度回転させる。(606)。もしもロボ
ット光軸と視覚光軸とが絶対空間内において一致してお
れば、撮像画面上における静止基準点Phの位置は変位
しない。そして両者が一致していない場合、撮像画面上
で静止基準点Phは、図19に示すように静止基準点P
h’の位置(視覚座標系上で(x1,y1)の位置)に
シフトする(608)。
【0043】したがって、視覚座標系上のロボット光軸
の実際の位置は点Ph(0,0)とPh’(x1,y
1)との中点(0.5x1,0.5y1)の位置となる
(610)。図19のVが本発明でいう位置ずれベクト
ルとなり、この位置ずれベクトルVは、静止基準点Ph
とPh’とを結ぶ線分の半分の長さと、Ph’からPh
に向かう方向とを有する。
【0044】次に、ロボット座標系上のカメラ位置すな
わち視覚座標系の原点を図19に示す位置ずれベクトル
Vだけ移動するように、カメラ位置をロボット座標系上
で再指定する(612)。ここでは元のカメラ位置は
(0,0,L)であるので、新しいカメラ位置は(−
0.5x1,−0.5y1,L)となる。ここにLは、
ロボット座標系が記憶するロボット座標系の原点Pr0
からカメラ位置までの距離である。
【0045】次に、位置ずれベクトルVの絶対値(距
離)が大きいかどうかを調べ、大きければステップ60
2にリタ−ンして再度ル−チンを行い、大きくなければ
終了する。なお、上記実施例では回転角度を180度と
したが、回転角度の設定は当然、自由である。。 (光軸方向の位置ずれ解消)次にハンドアイ3の光軸方
向における実際の位置(正確に言えば視覚座標系上の位
置)とロボット座標系上の算出位置との間の位置ずれを
解消する方法を、図21の模式図、図22の静止基準点
移動図、図23のフロ−チャ−トにより説明する。
【0046】この工程を実施する前に、上記した各工程
が全て実施され、視覚光軸とロボット光軸とは平行に調
整されているものとする。まずこの実施例では、静止基
準点Phをロボット座標系の原点Proとして、この原
点Pr0からロボット光軸方向に所定距離Lだけ離れた
点をロボット座標系上のカメラ位置としてハンドアイ3
を移動させ(700)、次に、ハンドアイ3を光軸と直
交する方向に移動して視覚光軸(ここでは、撮像画面の
中心点を視覚光軸とする)を静止基準点Phに一致させ
る(702)。
【0047】なお、静止基準点Phをロボット座標系の
原点としたのは、カメラ位置(視覚座標系の原点)のロ
ボット座標系上の位置の算出を簡単化するためになされ
たものであり、静止基準点Ph以外のポイントをロボッ
ト座標系の原点としても構わない。したがって、いま、
視覚直交軸をx,y軸とし、視覚光軸をz軸とし、ロボ
ット直交軸をX、Y軸とし、ロボット光軸をZ軸とする
場合、静止基準点Phの視覚座標系上での座標(x,
y,z)は(0,0,Lz)となり、また、ロボット座
標系上での座標(X,Y,Z)は(0,0,0)とな
る。Lzは視覚座標系における静止基準点Phとカメラ
位置との間の視覚光軸方向の距離である。
【0048】次に、ハンドアイ3をロボット直交軸であ
るY軸の回りにΘだけ回転する(704)。ここで、こ
のY軸は、上記したようにロボット座標系の原点として
の静止基準点Phを貫通している(図21において、Y
軸は静止基準点Phを貫通して紙面と直角に立ってい
る)。図21において、もしも静止基準点Phから回転
前のカメラ位置Pc0までの実際の距離(すなわち視覚
座標系上で視認した距離)Lzがロボット座標系が認識
する静止基準点Phから回転前のカメラ位置Pc0まで
の距離Lに等しければ、上記回転により撮像画面上で静
止基準点Phの位置は変位しない筈である。そして両者
が一致していない場合、撮像画面上で静止基準点Ph
は、図22に示すように静止基準点Ph’の位置(視覚
座標系上で(x2,y2)の位置)にシフトするので、
この位置をメモリする(706)。
【0049】次に、ロボット座標系上に算出されている
静止基準点Phと視覚座標系上で視認された静止基準点
Ph’との間の距離ΔZを求める(708)。図21か
らわかるように、回転前後の視覚座標系(撮像画面)上
の静止基準点Phの変位距離をΔLとすれば、ΔZはΔ
L/sinΘとなる。次に、本発明でいう位置ずれベク
トルである上記ΔZだけ、ロボット座標系上の静止基準
点Phの位置をロボット光軸上でシフトする。当然、カ
メラ位置すなわち、視覚座標系の原点はロボット座標系
上でΔZだけ視覚光軸方向にシフトされ、(0、0、L
z−ΔL)となる(710)。
【0050】次に、上記距離ΔLが所定距離に比べて小
さいかどうかを調べ、小さければ光軸方向の位置ずれは
解消したものとしてル−チンを終了する。一方、小さく
なければ、ステップ702にリタ−ンして再度ル−チン
を実行する。ただし、この偶数回目のル−チンではステ
ップ704で右に2Θだけ回転することにより、ハンド
アイ3の位置を振らせ,一方、三回目以降の奇数回目の
ル−チンではステップ704で再び左に2Θだけ回転す
ることにより、ハンドアイ3の位置を振らせる。
【0051】このようにすれば、簡単かつ正確に光軸方
向の位置ずれを補正することができる。更にこの実施例
では、以上説明した静止基準点Phをこのロボット座標
系におけるロボット代表点としてロボット座標系上の座
標を予め記憶しておく。更にこの静止基準点Phをこの
ハンドアイ3の注視点とする。ここでいう注視点とは、
ハンドアイ3がこの注視点から所定ベクトル距離離れた
カメラ位置から所定方向に注視する点を意味する。
【0052】すなわち、この実施例では、ハンドアイ3
の位置(カメラ位置又は視覚座標系の原点)は、注視点
からのベクトル距離として規定され、かつ、この注視点
はロボット代表点としてロボット座標系に規定されてい
るので、カメラ位置はロボット座標系上でロボット代表
点の座標からの上記ベクトル距離だけ変位する位置とし
て簡単に表示することができる。
【0053】またこのように、カメラ位置を注視点から
のベクトル距離として表示する場合、撮像画面上の静止
基準点Phすなわち注視点の変位だけ、ロボット座標系
上の注視点すなわちロボット代表点の位置をシフトすれ
ば、カメラ位置をロボット座標系上に正確に補正するこ
とができる。
【図面の簡単な説明】
【図1】第1図は本発明の設定方法を用いた多軸ロボッ
ト系の概略図、
【図2】面直アタッチメントを装着した状態を示す断面
図、
【図3】図2の面直アタッチメントの平面図、
【図4】面直出しル−チンを示すフロ−チャ−ト、
【図5】画面を表す説明図、
【図6】他の面直アタッチメントを装着した状態を示す
断面図、
【図7】図6の面直アタッチメントの平面図、
【図8】距離アタッチメントを装着した状態を示す断面
図、
【図9】図8の距離アタッチメントの平面図、
【図10】距離出しル−チンを示すフロ−チャ−ト、
【図11】光軸整合を説明するための説明図、
【図12】光軸整合を説明するための説明図、
【図13】光軸整合作業における画面図、
【図14】光軸整合ル−チンを示すフロ−チャ−ト、
【図15】直交軸整合を説明するための説明図、
【図16】直交軸整合作業における画面図、
【図17】直交軸整合ル−チンを示すフロ−チャ−ト、
【図18】両光軸間の光軸と直交する方向における位置
ずれを示す説明図、
【図19】図18の位置ずれを示す画面図、
【図20】図18の位置ずれ解消ル−チンを示すフロ−
チャ−ト、
【図21】両光軸間の光軸方向における位置ずれを示す
説明図、
【図22】図21の位置ずれを示す画面図、
【図23】図21の位置ずれ解消ル−チンを示すフロ−
チャ−ト、
【符号の説明】
3はハンドアイ、4はキャリブレ−ションプレ−ト4、
5はハンドアイ、30は光軸、

Claims (3)

    【特許請求の範囲】
  1. 【請求項1】3次元移動可能なハンドに固定されたハン
    ドアイの視覚光軸を座標軸とし前記ハンドアイの位置を
    原点とする視覚座標系と、前記ハンドアイの位置を算出
    可能なロボット座標系とを有し、前記視覚光軸の前記ロ
    ボット座標系上への投影すなわち前記算出結果としての
    ロボット光軸と前記視覚光軸との前記視覚光軸に直交す
    る面内における位置ずれを解消するハンドアイ付き多軸
    ロボットの座標系整合方法であって、前記視覚光軸と前
    記ロボット光軸とを平行に調整し、所定の静止基準点を
    撮像しつつ前記ハンドアイを前記ロボット光軸の回りに
    所定角度回転させ、該回転による前記視覚座標系上の前
    記静止基準点の位置変化に基づいて前記視覚座標系上に
    おける前記両光軸間の位置ずれベクトルを求め、前記位
    置ずれベクトルに応じて前記両光軸の少なくとも一方の
    位置を前記ロボット光軸と直角な方向に変位させること
    により、前記両光軸間の位置ずれを解消することを特徴
    とするハンドアイ付き多軸ロボットの座標系整合方法。
  2. 【請求項2】3次元移動可能なハンドに固定されたハン
    ドアイの視覚光軸を座標軸とし前記ハンドアイの位置を
    原点とする視覚座標系と、前記ハンドアイの位置を算出
    可能なロボット座標系とを有し、前記視覚光軸の前記ロ
    ボット座標系上への投影すなわち前記算出結果としての
    ロボット光軸と前記視覚光軸との前記視覚光軸方向にお
    ける位置ずれを解消するハンドアイ付き多軸ロボットの
    座標系整合方法であって、前記視覚光軸と前記ロボット
    光軸とを平行に調整し、所定の静止基準点を撮像しつつ
    前記ハンドアイを静止基準点を中心として前記ロボット
    光軸と直交する軸の回りに所定角度回転させ、該回転に
    よる前記視覚座標系上の前記静止基準点の位置変化に基
    づいて前記視覚座標系上における前記両光軸間の位置ず
    れベクトルを求め、前記位置ずれベクトルに応じて前記
    両光軸の少なくとも一方の位置を前記ロボット光軸の方
    向に変位させることにより、前記両光軸間の位置ずれを
    解消することを特徴とするハンドアイ付き多軸ロボット
    の座標系整合方法。
  3. 【請求項3】3次元移動可能なハンドに固定されたハン
    ドアイの視覚光軸を座標軸とし前記ハンドアイの位置を
    原点とする視覚座標系と、前記ハンドアイの位置を算出
    可能なロボット座標系とを有し、前記視覚光軸の前記ロ
    ボット座標系上への投影すなわち前記算出結果としての
    ロボット光軸と前記視覚光軸との位置ずれを解消するハ
    ンドアイ付き多軸ロボットの座標系整合方法であって、
    前記ハンドアイが所定距離離れた位置から所定姿勢で
    注視する所定の静止注視点をロボット座標系上の代表点
    とし、前記ロボット座標系上における前記視覚座標系の
    前記原点すなわちカメラ位置を前記代表点からの変位ベ
    クトルとして規定することを特徴とするハンドアイ付き
    多軸ロボットの座標系整合方法。
JP15707291A 1991-06-27 1991-06-27 ハンドアイ付き多軸ロボツトの座標系整合方法 Pending JPH054180A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP15707291A JPH054180A (ja) 1991-06-27 1991-06-27 ハンドアイ付き多軸ロボツトの座標系整合方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP15707291A JPH054180A (ja) 1991-06-27 1991-06-27 ハンドアイ付き多軸ロボツトの座標系整合方法

Publications (1)

Publication Number Publication Date
JPH054180A true JPH054180A (ja) 1993-01-14

Family

ID=15641627

Family Applications (1)

Application Number Title Priority Date Filing Date
JP15707291A Pending JPH054180A (ja) 1991-06-27 1991-06-27 ハンドアイ付き多軸ロボツトの座標系整合方法

Country Status (1)

Country Link
JP (1) JPH054180A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010152664A (ja) * 2008-12-25 2010-07-08 Nissei Corp 画像を利用したセンサレスモータ駆動ロボット
JP2018001332A (ja) * 2016-06-30 2018-01-11 セイコーエプソン株式会社 ロボット、制御装置、及びロボットシステム
WO2021210456A1 (ja) * 2020-04-13 2021-10-21 ファナック株式会社 ロボットの制御座標系における視覚センサの位置を取得する装置、ロボットシステム、方法、及びコンピュータプログラム

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010152664A (ja) * 2008-12-25 2010-07-08 Nissei Corp 画像を利用したセンサレスモータ駆動ロボット
JP2018001332A (ja) * 2016-06-30 2018-01-11 セイコーエプソン株式会社 ロボット、制御装置、及びロボットシステム
WO2021210456A1 (ja) * 2020-04-13 2021-10-21 ファナック株式会社 ロボットの制御座標系における視覚センサの位置を取得する装置、ロボットシステム、方法、及びコンピュータプログラム
JPWO2021210456A1 (ja) * 2020-04-13 2021-10-21

Similar Documents

Publication Publication Date Title
US9197810B2 (en) Systems and methods for tracking location of movable target object
US4724480A (en) Method for optical alignment of one object with respect to another
CN102448679B (zh) 至少一个物体以高精度定位到空间最终位置的方法和***
JP7153085B2 (ja) ロボットキャリブレーションシステム及びロボットキャリブレーション方法
CN108326850B (zh) 一种机器人准确移动机械臂到达指定位置的方法及***
CN114311346B (zh) 晶圆与工作台对准识别方法
JP3442140B2 (ja) 3次元視覚センサを用いた位置計測装置及び位置ずれ補正装置
CN113724337B (zh) 一种无需依赖云台角度的相机动态外参标定方法及装置
CN111707189A (zh) 基于双目视觉的激光位移传感器光束方向标定方法
JPH08132373A (ja) ロボット−センサシステムにおける座標系結合方法
CN113409406A (zh) 一种大范围单目跟踪扫描设备
JP3666108B2 (ja) 外観検査装置
JPH0755439A (ja) 三次元形状計測装置
JP6565367B2 (ja) 位置補正システム
JPH054180A (ja) ハンドアイ付き多軸ロボツトの座標系整合方法
CN112598752A (zh) 基于视觉识别的标定方法及作业方法
JP2568005B2 (ja) ハンドアイの面直、距離及び回転角設定方法
JP2020099969A (ja) 位置合わせ装置
JPH0545117A (ja) 光学式3次元位置計測方法
US10885368B2 (en) Six-dimensional smart target
JPH0675617A (ja) カメラ視点変更方式
JP2003121112A (ja) 位置検出装置
JP2000193429A (ja) 形状測定装置
JPH0283183A (ja) 多関節型ロボットの位置設定方法
JPH0996506A (ja) 3次元視覚センサによる位置調整方法および3次元画像認識装置