JPH03280106A - 視覚センサ座標情報とロボット基準座標情報の換算方式 - Google Patents

視覚センサ座標情報とロボット基準座標情報の換算方式

Info

Publication number
JPH03280106A
JPH03280106A JP2081943A JP8194390A JPH03280106A JP H03280106 A JPH03280106 A JP H03280106A JP 2081943 A JP2081943 A JP 2081943A JP 8194390 A JP8194390 A JP 8194390A JP H03280106 A JPH03280106 A JP H03280106A
Authority
JP
Japan
Prior art keywords
visual sensor
coordinate system
robot
robot reference
reference coordinate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2081943A
Other languages
English (en)
Inventor
Nobuo Katsube
展生 勝部
Masashi Yoshiki
吉木 昌志
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Proterial Ltd
Original Assignee
Hitachi Metals Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Metals Ltd filed Critical Hitachi Metals Ltd
Priority to JP2081943A priority Critical patent/JPH03280106A/ja
Publication of JPH03280106A publication Critical patent/JPH03280106A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Numerical Control (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は視覚認識機能を有するロボットあるいは移載機
において、視覚センサ測定範囲内の任意の位置の視覚セ
ンサ座標情報をロボット基準座標系に変換する方法に関
するものである。
〔従来の技術〕
視覚座標系からロボット基準座標系への変換方法として
は、例えば特開昭61−131887号公報及び特開昭
60−252914号公報に示されている方法がある。
視覚認識する対象物の形状が平面的な場合は有効に適用
でき、平行移動量や回転を精度良く変換できる。しかし
、3次元的な形状物で視覚認識する位置が、対象物の上
面と底面のように、視覚センサ光軸方向に対し距離に違
いがある場合、−定の座標変換係数による座標変換では
教示平面以外は座標変換誤差が住じる。
〔発明が解決しようとする問題点〕
視覚センサ光軸に垂直な平面で、視覚センサ光軸上で異
なった距離の平面では、視覚センサ座標系からロボット
基準座標系に変換する倍率及びロボット基準座標系から
見た視覚センサ座標系原点が異なるためそれらからなる
座標変換係数が異なる。そのため3次元的形状物の位置
姿勢等を計測する時、視覚センサ光軸上で距離の異なっ
た部分を用い計測する場合、その部分毎に座標変換係数
が必要であるが、無視したり誤差を含んだまま位置、姿
勢計算をおこなっていた。
本発明の目的は、視覚センサ座標系を角錐の座標系とし
て扱い、視覚センサからの視覚センサ光軸上での距離が
既知である任意の位置における、視覚センサ座標情報と
ロボット基準座標情報の換算を行うことを提供すること
である。
c問題を解決するための手段〕 視覚センサで認識された視覚センサ座標系における物体
の座標値をロボット基準座標値に変換する方法において
、視覚センサ光軸に対し垂直な平面を2つ設定し、該各
平面上に視覚センサ座標系における座標値と、ロボット
基準座標系における座標値とを対応づけることのできる
点を少なくとも2点設定し、該2点のロボット基準座標
系での座標値は、ロボットのハンドを該2点に合わすこ
とによりロボットから得、また該2点の視覚センサ座標
系での座標値は視覚センサで計測することにより得、該
ロボット基準座標値と視覚センサ座標値より、該2千面
におけるロボット基準座標系から見た視覚センサ座標系
の原点位置、ロボット基準座標系から見た視覚センサ座
標系とのなす角及び視覚センサ座標系からロボット基準
座標系への変換倍率を計算し、視覚センサ光軸に垂直な
該教示面の間の面の座標変換係数を、該2面より計算さ
れた値を視覚センサからの視覚センサ光軸上の距離の1
次関数として表すことにより、視覚センサ座標系を角錐
の座標系として扱う。これより、視覚センサからの視覚
センサ光軸上での距離が既知である任意の位置における
、視覚センサ座標情報とロボット基準座標情報の換算を
行う。
教示面が3面以上とする時は、該3面以上のロボット基
準座標系から見た視覚センサ座標系とのなす角、視覚セ
ンサ座標系からロボット基準座標系への変換倍率及びロ
ボット基準座標系の原点から見た視覚センサ座標系の原
点位置より、該値を視覚センサからの視覚センサ光軸上
の距離を変数とする1次関数として表すとき、該1次関
数の係数を最小2乗法により求め、これより視覚センサ
からの視覚センサ光軸上での距離が既知である任意の位
置における、視覚センサ座標情報とロボット基準座標情
報の換算を行う。
〔実施例〕
第1図は、本発明方式を実施するシステムの一例を示す
。基本構成として、視覚センサ1により計測対象ワーク
の位置、姿勢計測を行う。画像処理装置2により計測結
果の演算処理を行い、ロボット制御装置3に位置、姿勢
情報を与えロボット5を動作させる。
第2図がロボット基準座標系6と視覚センサ座標系40
を横から見た図、第3図は第2図を視覚センサ光軸20
の真上から見た図で、第4図は、第3図における教示面
一つだけ取りだした図である。第2図、第3図、第4図
を使って、視覚センサ座標系40からロボット基準座標
系6へ変換する座標変換係数の計算の仕方について説明
する。
最初ロボット座標系6のZ軸21と、視覚センサ光軸2
0を平行にする。第2図に示すように視覚センサ1は測
定範囲が視覚センサ1に近づくほど狭(なるにもかかわ
らず、画像処理装置2の縦及び横の画素数が変わらない
為に、画像処理装置座標値からロボット基準座標系座標
値に変換する際の変換倍率及びロボット基準座標系6上
における画像処理装置座標系7,8.9等の原点が、視
覚センサ1からの距離により変わる。視覚センサ1から
の距離に対応した画像処理装置座標系7゜8.9等から
ロボット基準座標系6への座標変換係数を計算する。2
面以上の視覚センサ光軸20に垂直な平面で、画像処理
装置座標系7,8.9等からロボット基準座標系6から
に変換するための教示を視覚センサ1とロボット5を使
って行う。
それにより教示された面間の座標変換係数を、視覚セン
サ1からの視覚センサ光軸20上の距離の1次関数とし
、視覚センサ1からの視覚センサ光軸20上での距離が
既知の任意の位置での、視覚センサ座標系座標値からロ
ボット基準座標系座標値への変換を行う。以下具体的に
計算方法を述べる。説明を簡単にするために、教示を行
う面は2面とし、1面上でロボット基準座標系6と視覚
センサ座標系40とで対応をとる点は、画像処理装置座
標系X軸上からロボット基準座標系6への変換倍率と画
像処理装置座標系y軸上からロボット基準座標系6への
変換倍率が同じであれば以降で述べる式中の値を等しい
として扱い2点で良いが、画像処理装置座標系X軸上か
らロボット基準座標系6への変換倍率と画像処理装置座
標系y軸上からロボット基準座標系6への変換倍率の違
いを考慮し、3点とする。視覚センサ1とロボット5を
使い教示面31上の画像処理装置座標系7のxly、座
標上でロボット基準座標系6と画像処理装置座標系7と
の対応をとる。その結果第4図に示す通り(X++、 
 y++)と(X、、Yl )、(x12+y+z)と
(x2. y2)、(X13.yI3)と(X。
Y3)とをおのおの対応させる。これら2つの座標値の
関係を表すと X +−K x 1 * x 11 * c o sθ
1−Ky、*yll*sinθ、十X、。
Y1=Kx、*x、、*s inθ1+KyI*yIl
*cosθ、+Y、。
fl) X2=K x、* x、2* c o s θ+   
Kyl*Y+z*sin θI  +Xl0 Y2=K x、* x、2* s  i  n θI+
Ky1*y12*cosθ1 +Y、。
(2) X3=K x、*x、3* c o s θ+   K
V+*y++*sinθI  +Xl0 Y、−K x、* x、3* s  i nθ1+Ky
1*yI3*cos  θ、  +y+。
(3) となる。
これら(1)〜(3)式を行列で表現するとただし KX、:画像処理装置座標系X軸上からロボット基準座
標系への変換倍率 二画像処理装置座標系y軸上からロボット基準座標系へ
の変換倍率 :ロボット基準座標系から見た画像処理装置座標系の原
点位置 二ロボ・7ト基準座標系から見た画像処理装置座標系の
原点位置 θ1 :ロボット基準座標系から見た画像処理装置座標
系とのなす角 yI Xl。
Yl。
である。
これより、Kx、*cosθ+、Ky+)ksinθK
x、*sin  θ +、Ky、*cos  θ +、
  X  +o、  Y  +o を解く。それらの値
より教示面31上の画像処理装置座標系7上において視
覚センサ1により(x、y)と計測された点は、ロボッ
ト基準座標系座椋値での(X、 Y)は となる。
同様に視覚センサ座標系40の教示面33上の画像処理
座標系9のxnyn座標上に対して、視覚センサ1によ
り (x、y)と計測された点は、ロボット基準座標系
6での(X、Y)はである。これにより教示面31上及
び教示面33上の視覚センサ座標系40からロボット基
準座標系6への変換を行う。
更に、教示面31と教示面33間での視覚センサ座標系
40からロボット基準座標系6への変換法について述べ
る。教示面31のロボット基準座標系6でのZ軸21で
の座標値を21、教示面33の座標値を27とする。視
覚センサ光軸20とロボット基準座標系6のZ軸21が
平行であるため、Zは視覚センサ1からの視覚センサ光
軸20上の距離に対応しており、各平面での座標変換係
数はZの1次関数として表せ、 Kxl *cosθ+ =a、*Z1 +blKx、1
*cosθ、=2.*z、l十す。
K3’+*sinθ1 =a2 *Z2 +b2K)’
n’ksinθn  = 82  ’l’ Z、1  
+ b2Kx、*sinθr  =a3  *Zl  
+b3Kx、*sinθn  =a3 *Zn  +b
3Ky、  *CO3θl = a4  * Zl  
+ b4Ky、l *CO5θn  = a4  *Z
n  ” b4X+o=a5 * Z、  + b5 Xno”” a s  * Zn  + b sY+o
=a6 ’I’Z1  + b6Yno=ab  *Z
ll +b。
(7) となる。これらの方程式により、a、−xa6.b、〜
b6について解き、教示面31から教示面33の間の変
換係数を、視覚センサ1からの視覚センサ光軸20上の
距離に対応するZの1次関数として算出する。計測すべ
き位置のロボット基準座標系6でのZ軸21の座標値を
Zとし、視覚センサ座標系40での計測値を(x、y)
とするとロボット基準座標系6での座標値(X、Y)は
、(8) となる。
この座標変換法を使うことにより、視覚センサ座標系4
0を、角錐の座標系として扱うことになる。
ある面での視覚センサ座標系40とロボット基準座標系
6の対応を取るときの点が4点以上のときは3点ずつ組
とし、それから計算された(4)式の係数の平均を取り
、その面での換算係数を計測誤差を減らし求める。
また、測定面が3面以上のときは、式(7)と同様に、 KX、  *cos  θ+  =aI *Z、  十
す。
KX2*CO5θ2’=al *Z2 +b。
Kx、l *cos θn  =aI*Z B  + 
l) H)(y、*sinθ1−a2 *Z1 +b2
Kyz*sinθ2−a2 *Z2 +b2Kyn*s
inθ、 a2 *Z、l +b2 Kx、*sinθI =a、 *Zl +b3Kx2 
*S i nθ2  =a3  *Z2  +b3Kx
l。
*sinθ7−a3 *Z□ +b3 Ky+*Co s θI  =a、  *Zl  +b
4)(y2 *cos θ2  ==a4 *ZZ  
+b4K y。
*COS θ□ =a。
*Zn +b4 X +o−a 5  * Z 1  + b 5Xzo
=as *Zz +bs XIIO=a5 *Z。
+b5 YI0=a6 *Z1 +b6 Yzo=ab  *Zz  +1)6 Y、o=a b *Zn +bb (9) と表現する。これより、視覚センサ1から視覚センサ光
軸20上の距離に対応するZを変数とした1次関数を計
算するために、係数であるa1〜a6及びす、〜b6の
値を、最小2乗法にて(8)式を計算する。
視覚センサ1とロボット5を使い、どのようにして対応
をとるかについて説明する。第1図に示すような基準マ
ーク1(1−1,11−1,121を、視覚センサ光軸
20に対し垂直な教示面31の視覚センサ測定範囲内に
置く。その基準マーク10−1の重心位置17にロボッ
ト制御装置3を操作してロボット5のハンドを手動送り
等によりロボットハンドの手先を合わすことにより、そ
の位置でのロボットサーボモータのエンコーダ値をもと
にして計算されたロボ・ノド5のハンドのロボット基準
座標値を求め画像処理装置2に送り(1)式の(x、、
Yl )を算出する。
その後視覚センサ1によりその基準マーク101の画像
処理装置座標系7の重心の座標値を測定し、(1)弐の
(XII+yz)を算出する。同様にして同じ教示面3
1での他基準マーク11−1゜12−1の位置(X2 
、 Yz ) 、  (X3 、 Y3 )を算出し画
像処理装置2に送り、視覚センサ1により(X+z、3
’+z) 、  (X+:+、  y+、+)を算出し
く4)式を解き(5)弐を算出する。
、同様にして(6)式のnを2とし、教示面33での変
換係数を求める。
この方法により計算された座標変換係数を利用し応用し
た例を述べる。作業内容は、視覚センサ測定範囲内の任
意の位置に置かれた第5図に示すようなワーク50の把
持部13をロボット5のハンドに対し一定方向に把持さ
せ、ワーク50の外周部分を加工するものである。加工
部14の部分はほぼ円であり把持部13の部分の中心は
加工部14の部分の円の中心に対し偏心しているため、
第6図に示すようにワーク方向を求める2箇所の部分と
して把持部13と加工部14との円の重心15.16よ
り、ワーク50方向を計測する。把持部重心15を視覚
センサ1で求めた視覚センサ座標系40での座標値を、
ロボット基準座標系6に変換する係数は、把持部重心1
5の部分を含む平面で教示された値から求めたものを使
い、加工部重心16の部分の変換は、加工部重心16の
部分を含む平面で教示された値から求めたものを使う。
加工部重心16を含む平面を教示面31とし、把持部重
心15を含む平面を教示面33とした。
加工部重心16を含む平面から約185(haの高さか
ら視覚センサ1で測定し、画像処理装置1画素当りの分
解能を約0.6鶴とした場合で、ロボット制御装置3側
から画像処理装置2に送られた値と、視覚センサ1より
求めた値より(4)弐を使い計算した結果教示面31で
の座標変換係数は、教示面33での座標変換係数は、 という値が得られた。第5図に示すようなワーク高さ約
240鶴の物を、教示面33だけの変換係数を使い、実
際にはワークの方向を変えず、視覚センサ1の測定範囲
中央より少しずつずらしていった場合のワーク50の方
向測定結果は、であった。教示面31の座標変換係数、
教示面33の座標変換係数両方を使った場合の、ワーク
50の方向測定結果は、 となり、精度良くワーク50の方向を求めることが可能
となった。
更に第5図に示すような形のワークで、ワーク高さが異
なっている他の品種に対しても、予めワーク高さを画像
処理装置2に入力しておくことで、自動的にロボット基
準座標系6上でのZの値を計算させ、(7)式を使う事
により精度良くワーク方向を計測することが可能である
〔発明の効果〕
従来の方法だと把持部重心15と加工部重心16の部分
の高さがかなり違うため、実際には同じ方向でも視覚セ
ンサ測定位置により、違った方向に見えてしまう。その
様子を第7図に示す。(alと(b)とではワークは同
じ方向であるにもかかわらず、視覚センサ測定位置の違
いにより異なった値となる。ワークの方向を違えてつか
みそのまま加工を行うと加工部14の加工精度が悪くな
ってしまう。
本発明により、3次元的な物に対しても精度良く視覚セ
ンサ座標系からロボット基準座標系への変換が可能とな
り、視覚センサの計測結果を精度良くロボット基準座標
系に変換させることができ、より高精度な動作をロボッ
トにさせることが可能となる。
【図面の簡単な説明】
第1図はこの発明の実施例を示す視覚センサとロボット
の構成図、第2図は視覚センサ座標系を示す図、第3図
は視覚センサ光軸上から見た教示面ごとの画像処理装置
座標系とロボット基準座標系を示す図、第4図は視覚セ
ンサ座標系からロボット基準座標系への変換係数をもと
める方法を示した図、第5図は実施例に用いたワークを
示す図、第6図はワーク方向を示す図、第7図は視覚セ
ンサ計測誤差を示す図である。 1・・・視覚センサ、2・・・画像処理装置、3・・・
ロボット制御装置、5・・・ロボット、6・・・ロボッ
ト基準座標系、7・・・教示面31上の画像処理装置座
標系、9・・・教示面33上の画像処理装置座標系、1
01・・・教示面31上の基準マーク、11−1・・・
教示面31上の基準マーク、12−1・・・教示面31
上の基準マーク、10−2・・・教示面33上の基準マ
ーク、11−2・・・教示面33上の基準マーク、12
2・・・教示面33上の基準マーク、13・・・把持部
、14・・・加工部、20・・・視覚センサ光軸、21
・・・ロボットZ座標軸、31,32.33・・・教示
面、40・・・視覚センサ座標系、50・・・ワーク第 1 図 2 第 区 第 図

Claims (1)

    【特許請求の範囲】
  1.  ロボット基準座標値と視覚センサ座標値より平面にお
    けるロボット基準座標系から見た視覚センサ座標系の原
    点位置、ロボット基準座標系から見た視覚センサ座標系
    とのなす角及び視覚センサ座標系からロボット基準座標
    系への変換倍率を計算し、視覚センサ光軸に垂直な面の
    座標変換係数を計算する方法において、視覚センサ光軸
    に対し垂直な教示面を少なくとも2面設定し、2面より
    計算されたロボット基準座標系から見た視覚センサ座標
    系の原点位置、ロボット基準座標系から見た視覚センサ
    座標系とのなす角及び視覚センサ座標系から見たロボッ
    ト基準座標系への変換倍率を視覚センサからの視覚セン
    サ光軸上の距離の1次関数として表すことにより、視覚
    センサ座標系を角錐の座標系として扱い、視覚センサか
    らの視覚センサ光軸上での距離が既知である任意の位置
    における、視覚センサ座標情報とロボット基準座標情報
    の換算を行うことを特徴とする、視覚センサ座標情報と
    ロボット基準座標情報の換算方式。
JP2081943A 1990-03-29 1990-03-29 視覚センサ座標情報とロボット基準座標情報の換算方式 Pending JPH03280106A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2081943A JPH03280106A (ja) 1990-03-29 1990-03-29 視覚センサ座標情報とロボット基準座標情報の換算方式

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2081943A JPH03280106A (ja) 1990-03-29 1990-03-29 視覚センサ座標情報とロボット基準座標情報の換算方式

Publications (1)

Publication Number Publication Date
JPH03280106A true JPH03280106A (ja) 1991-12-11

Family

ID=13760584

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2081943A Pending JPH03280106A (ja) 1990-03-29 1990-03-29 視覚センサ座標情報とロボット基準座標情報の換算方式

Country Status (1)

Country Link
JP (1) JPH03280106A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3147086A1 (de) * 2015-09-22 2017-03-29 Airbus Defence and Space GmbH Automatisieren von roboteroperationen
CN114310884A (zh) * 2021-12-28 2022-04-12 四川共享铸造有限公司 不同坐标系中机械手自动抓取的方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3147086A1 (de) * 2015-09-22 2017-03-29 Airbus Defence and Space GmbH Automatisieren von roboteroperationen
US10618178B2 (en) 2015-09-22 2020-04-14 Airbus Defence and Space GmbH Automating robot operations
CN114310884A (zh) * 2021-12-28 2022-04-12 四川共享铸造有限公司 不同坐标系中机械手自动抓取的方法
CN114310884B (zh) * 2021-12-28 2023-10-13 四川共享铸造有限公司 不同坐标系中机械手自动抓取的方法

Similar Documents

Publication Publication Date Title
CN113084808B (zh) 一种基于单目视觉的移动机械臂2d平面抓取方法
US8280151B2 (en) Method for displaying recognition result obtained by three-dimensional visual sensor and three-dimensional visual sensor
US9519736B2 (en) Data generation device for vision sensor and detection simulation system
CN111415391B (zh) 一种采用互拍法的多目相机外部方位参数标定方法
JP4289619B2 (ja) 多関節ロボットのツール位置補正方法
CN112109072B (zh) 一种大型稀疏特征托盘精确6d位姿测量和抓取方法
TWI708667B (zh) 運動裝置之位置與姿態校正裝置及系統與方法
Lee et al. High precision hand-eye self-calibration for industrial robots
CN109048887A (zh) 一种基于三点标定法的单轴变位机标定方法
JP6928015B2 (ja) ロボットシステムおよび座標変換方法
CN109048911B (zh) 一种基于矩形特征的机器人视觉控制方法
CN110490934B (zh) 基于单目相机与机器人的混合机立式桨叶姿态检测方法
JPH03280106A (ja) 視覚センサ座標情報とロボット基準座標情報の換算方式
JPS61240304A (ja) 産業用ロボツトのエンド・エフエクタ取付け誤差演算装置
CN111604900B (zh) 一种适用于机械手在手操作的目标参数检测方法
JPH02110788A (ja) 3次元物体の形状認識方法
Qingda et al. Workpiece posture measurement and intelligent robot grasping based on monocular vision
JPS643661Y2 (ja)
JPH0774964B2 (ja) ロボットの位置決め誤差補正方法
JPH0731536B2 (ja) 教示デ−タ補正ロボツト
CN113733078A (zh) 机械臂精调控制量判读方法、计算机可读存储介质
JPH0283183A (ja) 多関節型ロボットの位置設定方法
JPH05337863A (ja) 画像認識を備えたロボットによる加工装置
Motta Robot Calibration: Modeling, Measurement and Applications
WO2023013699A1 (ja) ロボット制御装置、ロボット制御システム、及びロボット制御方法