JP2011067889A - キャリブレーション装置及びキャリブレーション方法 - Google Patents

キャリブレーション装置及びキャリブレーション方法 Download PDF

Info

Publication number
JP2011067889A
JP2011067889A JP2009220067A JP2009220067A JP2011067889A JP 2011067889 A JP2011067889 A JP 2011067889A JP 2009220067 A JP2009220067 A JP 2009220067A JP 2009220067 A JP2009220067 A JP 2009220067A JP 2011067889 A JP2011067889 A JP 2011067889A
Authority
JP
Japan
Prior art keywords
calibration
robot
jig
reference plane
calibration jig
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009220067A
Other languages
English (en)
Inventor
Kazuya Ono
一也 小野
Tomohiro Inoue
智洋 井之上
Akio Ueda
章雄 上田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
IHI Corp
Original Assignee
IHI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by IHI Corp filed Critical IHI Corp
Priority to JP2009220067A priority Critical patent/JP2011067889A/ja
Publication of JP2011067889A publication Critical patent/JP2011067889A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Numerical Control (AREA)
  • Manipulator (AREA)

Abstract

【課題】視覚センサを用いてロボットをキャリブレーションする場合に、構成が簡単で正確かつ容易にキャリブレーションが可能なキャリブレーション装置及びキャリブレーション方法を提供すること。
【解決手段】アーム部と、前記アーム部の位置及び姿勢を検出する位置検出手段と、前記アーム部の位置及び姿勢を制御する制御部60とを備えたロボット5のキャリブレーション装置2であって、基準平面部に面内の方向を特定する複数の交差する溝部が形成され、前記溝部のうち交差する2つの溝部のそれぞれの側壁が接続される稜線が前記基準平面部に形成する角部のうち3つを校正点として有するキャリブレーション治具40と、視覚センサ12により撮像した前記キャリブレーション治具40の画像に基づき前記キャリブレーション治具40の位置及び姿勢を認識する物体認識装置10とを備えることを特徴とする。
【選択図】図1

Description

この発明は、複数の自由度を有するアーム部を備えたロボットのキャリブレーション装置及びキャリブレーション方法に関する。
周知のように、複数の自由度を有するアーム部を備えたロボットは種々の駆動部や伝達部を有しており、これら駆動部や伝達部の製作精度、バックラッシ、経年変化による磨耗等に起因するガタつきにより、例えば、アーム部先端に配置したツールで作業を行なう場合に、ツールの作用点が設定した作業箇所からずれる可能性がある。
また、異なる重量のツールを持ち変える場合や、一つのツールを用いる場合であっても、アーム部の傾きが変化するとアーム部の支点からツールの作用点までの水平距離及び曲げモーメントが変化し、アーム部に発生するたわみが異なることとなりツールの作用点にずれが発生する場合がある。
そのため、アーム部をロボットの基準に対して正確に移動させて所望の作業を正確にさせるためには、ツールの作用点の位置をロボットの基準に対して正確にキャリブレーションする必要があり、その一形態として視覚センサを用いたキャリブレーション手法が用いられる場合がある。
上記のように、視覚センサを用いたキャリブレーション手法として、ロボットと基準治具のキャリブレーションと、視覚センサと基準治具のキャリブレーションをそれぞれ行い、それぞれの座標系を共有させる場合がある。
このようなロボットと基準治具のキャリブレーションにおいて、基準治具に形成された特定点を指示する場合がある(例えば、特許文献1参照)。
また、キャリブレーション用基準治具として、球形治具、丸型治具等が用いられる場合がある(例えば、特許文献2、3、4参照)。
特許第2684359号公報 特開2002−310651号公報 特許第2686351号公報 特許第4020994号公報
しかしながら、上記特許文献1から3に記載された基準治具の特定点を、ロボットのアーム部により正確に指示することは非常に困難であり、基準治具が高価になり、又は基準治具に形成するロボット用と3次元測定装置用のそれぞれの特定点に製作精度に起因する相対的な位置の誤差が発生し、キャリブレーションの精度の確保が制約されるという問題があった。
また、特許文献4等に記載される球や円形の基準治具を用いる場合には、単純な校正によってキャリブレーションが可能であるが、方向を特定することができないという問題があった。
本発明は、このような事情を考慮してなされたものであり、視覚センサを用いてロボットをキャリブレーションする場合に、構成が簡単で正確かつ容易にキャリブレーションが可能なキャリブレーション装置及びキャリブレーション方法を提供することを目的とする。
上記課題を解決するために、この発明は以下の手段を提案している。
本発明は、複数の自由度を有するアーム部と、前記アーム部の位置及び姿勢を検出する位置検出手段と、前記アーム部の位置及び姿勢を制御する制御部とを備えたロボットのキャリブレーション装置であって、基準平面部を有し、前記基準平面部に面内の方向を特定する複数の交差する溝部が形成され、前記溝部のうち交差する2つの溝部のそれぞれの側壁が接続される稜線が前記基準平面部に形成する角部のうち3つを校正点として有するキャリブレーション治具と、視覚センサにより撮像した前記キャリブレーション治具の画像に基づき前記キャリブレーション治具の位置及び姿勢を認識する物体認識装置と、を備えることを特徴とする。
この発明に係るキャリブレーション装置によれば、基準平面部に形成された複数の溝部により、平面上に3つの校正点が正確に形成されたキャリブレーション治具を用いるので、物体認識装置が視覚センサにより撮像したキャリブレーション治具に基づいて3つの校正点の位置を正確に認識し、3つの校正点とロボットのアーム部の位置及び姿勢を対応させることにより、ロボットのキャリブレーションを容易かつ正確に行うことができる。
また、キャリブレーション治具の構成が簡単であるので、容易に製作することが可能とされ、製造コストを抑制することができる。
なお、視覚センサによる撮像とは、物体が反射した光(赤外線及び紫外線を含む)を取り込んで、電気信号に変換することをいい、例えば、スキャンニングによる画像の逐次取得の他、CCDカメラによる画像の同時取得を含むものとする。
また、本発明は、請求項1に記載のキャリブレーション装置であって、前記キャリブレーション治具は、前記基準平面部の非対称な位置に互いに交差する2つの溝部が形成されていることを特徴とする。
この発明に係るキャリブレーション装置によれば、キャリブレーション治具が、基準平面部の非対称な位置に互いに交差する2つの溝部を形成して構成されているので、キャリブレーション治具の方向を正確に認識し、3つの校正点の位置を正確かつ容易に認識することができる。
また、キャリブレーション治具に3つの校正点を容易に形成することができる。
また、本発明は、複数の自由度を有するアーム部と、前記アーム部の位置及び姿勢を検出する位置検出手段と、前記アーム部の位置及び姿勢を制御する制御部とを備えたロボットのキャリブレーション方法であって、基準平面部を有し、前記基準平面部に面内の方向を特定する複数の交差する溝部が形成され、前記溝部のうち交差する2つの溝部のそれぞれの側壁が接続される稜線が前記基準平面部に形成する角部のうち3つを校正点として有するキャリブレーション治具と、視覚センサにより撮像した物体の画像に基づき前記物体の位置及び姿勢を認識する物体認識装置とを設け、前記視覚センサにより前記キャリブレーション治具を撮像した画像を前記物体認識装置に入力し、前記3つの校正点を前記ロボットにより指示し、前記物体認識装置が認識した前記3つの校正点の位置と、前記位置検出手段が検出した前記3つの校正点の位置とを対応させることを特徴とする。
この発明に係るキャリブレーション方法によれば、視覚センサにより撮像して物体認識装置に入力して3つの校正点の位置を認識し、この3つの校正点と、ロボットがキャリブレーション治具の3つの校正点を指示した際のロボットの位置及び姿勢を対応させるので、ロボットを容易かつ正確にキャリブレーションすることができる。
また、本発明は、複数の自由度を有するアーム部と、前記アーム部の位置及び姿勢を検出する位置検出手段と、前記アーム部の位置及び姿勢を制御する制御部とを備えたロボットのキャリブレーション方法であって、 基準平面部を有し、前記基準平面部に面内の方向を特定する複数の交差する溝部が形成されたキャリブレーション治具と、視覚センサにより撮像した物体の画像に基づき前記物体の位置及び姿勢を認識する物体認識装置とを設け、前記キャリブレーション治具を前記アーム部の先端に配置し、前記キャリブレーション治具を前記視覚センサにより撮像して、前記視覚センサが撮像した画像を前記物体認識装置に入力して得た前記キャリブレーション治具の位置及び姿勢と、前記視覚センサが撮像した際に前記位置検出手段が検出した前記ロボットの位置及び姿勢とを対応させることを特徴とする。
この発明に係るキャリブレーション方法によれば、アーム部の先端に配置されたキャリブレーション治具を撮像して認識されるキャリブレーション治具の位置及び姿勢と、視覚センサによりキャリブレーション治具を撮像した際のロボットの位置及び姿勢を対応させるので、ロボットを容易かつ正確にキャリブレーションすることができる。ロボットとキャリブレーション治具との相対的位置が既知である場合には、視覚センサがキャリブレーション治具を一度撮像することにより、ロボットを容易かつ正確にキャリブレーションすることができる。
その結果、ロボットが作動中であっても、ロボットを容易かつ正確にキャリブレーションすることができる。
また、本発明は、請求項4に記載のキャリブレーション方法であって、前記キャリブレーション治具と前記アーム部との相対位置が未知の場合に、前記アーム部の位置、姿勢を異ならせて前記視覚センサにより前記キャリブレーション治具を3回撮像することを特徴とする。
この発明に係るキャリブレーション方法によれば、アーム部とキャリブレーション治具との相対的位置が未知の場合でも、ロボットの位置、姿勢を異ならせてキャリブレーション治具を3回撮像するので、ロボットによりキャリブレーション治具を指示することなく、容易かつ正確にキャリブレーションすることができる。
その結果、ロボットが作動中であっても、ロボットを容易かつ正確にキャリブレーションすることができる。
この発明に係るキャリブレーション装置によれば、ロボットのキャリブレーションを容易かつ正確に行うことができる。また、キャリブレーション治具の構成が簡単であるので、容易に製作することが可能とされ、製造コストを抑制することができる。
また、この発明に係るキャリブレーション方法によれば、ロボットを容易かつ正確にキャリブレーションすることができる。
本発明の第1の実施形態に係るロボットシステムの概略構成を示す図である。 第1の実施形態に係る三次元レーザレーダの構成を示す図である。 第1の実施形態に係るキャリブレーション治具を示す斜視図である。 第1の実施形態に係るロボットの概略構成を示す図である。 第1の実施形態に係るキャリブレーションの手順の一例を示すフロー図である。 本発明の第2の実施形態に係るロボットシステムの概略構成を示す図である。 第2の実施形態に係るキャリブレーション手順の一例を示すフロー図である。
以下、図1を参照し、この発明の第1の実施形態について説明する。
図1は、本発明に係るロボットシステムの一例を示す概略構成図であり、符号1はロボットシステムを示している。
ロボットシステム1は、キャリブレーション装置2と、アーム型ロボット(ロボット)5とを備え、キャリブレーション装置2が出力したキャリブレーション信号が、ロボット5の制御部60に入力されるようになっている。
キャリブレーション装置2は、三次元レーザレーダ(物体認識装置)10と、キャリブレーション治具40とを備えている。
図2は、三次元レーザレーダ10の概略構成を示す図である。
三次元レーザレーダ10は、図2に示すように、レーダヘッド(視覚センサ)12と、信号処理部20とを備えており、アーム型ロボット5とは独立した位置に配置され、キャリブレーション治具40等の計測対象物を撮像可能とされている。
また、レーダヘッド12が撮像した画像からキャリブレーション治具40等の計測対象物までの距離を計測し、計測対象物上の特定の点を、例えば、レーダヘッド設置位置を原点とする三次元空間データ(x,y,z)に変換して、ロボット5の制御部60に出力するようになっている。
レーダヘッド12は、図2に示すように、レーザダイオード13から発振したパルスレーザ光L1を、投光レンズ14で平行光L2とし、ミラー18a、18bと回転、揺動するポリゴンミラー15で二次元方向に走査して、測定対象物に照射するようになっている。また、測定対象物に照射して反射されたパルスレーザ光L3は、ポリゴンミラー15を介して受光レンズ16で集光され、光検出器17で電気信号に変換するようになっている。
信号処理部20は、時間間隔カウンタ21と、信号処理ボード22と、判定処理ユニット23とを備えている。
時間間隔カウンタ21は、レーザダイオード13のパルス発振タイミングと同期したスタートパルスP4と、光検出器17から出力されたストップパルスP5の時間間隔を計測するようになっている。
信号処理ボード22は、反射光が検出された時点の時間間隔t、ポリゴンミラー15の回転角度θ、揺動角度φを極座標データ(r,θ,φ)として出力するようになっている。ここで、rは計測位置(レーダヘッド設置位置)を原点とする距離であり、数式r=c×t/2で求められる。なお、cは光速である。
判定処理ユニット23は、信号処理ボード22からの極座標データを、レーダヘッド設置位置を原点とした三次元空間データ(x,y,z)に変換するようになっている。
なお、必要に応じて、レーダヘッド12に加え、オドメータ、カメラ、GPS、姿勢センサを用いて、物体認識精度を向上させてもよい。
キャリブレーション治具40は、図3に示すように、略直方体とされた治具本体41のひとつの面に基準平面部42が形成され、基準平面部42には、基準平面部42の中心からはずれた位置に基準平面部42において非対称とされ、互いに直交(交差)する2つのV溝、第1溝部(溝部)43と第2溝部(溝部)44が形成されている。
第1溝部43と、第2溝部44とが交差する箇所は、第1溝部43の側壁部と第2溝部44の側壁部の接続される部分に4つの稜線部45が形成され、この稜線部45が基準平面部に形成する4つの角部のうち、3つの角部が第1校正点46A、第2校正点46b、第3校正点46Cとされている。したがって、第1校正点46A、第2校正点46b、第3校正点46Cは、基準平面部42と同一平面上に配置されている。
アーム型ロボット5は、図4に示すように、6つの自由度を有するロボット本体51と、ロボット本体51の位置及び姿勢を制御する制御部60とを備えており、制御部60からの制御信号によってロボット本体51の位置及び姿勢が制御可能とされている。
ロボット本体51は、ロボット本体ベース51Bと、このロボット本体ベース51Bの上部に配置され、鉛直軸J1周りに水平面上にて矢印R1方向に回動可能とされるベース回転部52と、ベース回転部52の上部に連接される第1アーム部53と、第1アーム部53に連接される第2アーム部54と、第2アーム部54に連接される手首部55と、第1アーム部53、第2アーム部54、手首部55の位置及び姿勢を検出するために、例えば、6つのエンコーダからなる位置検出手段(図示せず)と、第1アーム部53、第2アーム部54、手首部55の位置及び姿勢を変化させるための駆動部(図示せず)とを備えている。
第1アーム部53は、水平に配置された軸J2によりベース回転部52と接続されるとともにこの軸J1廻りにベース回転部52に対して矢印R2方向に回動自在とされている。
また、第2アーム部54は、その基端部が水平に配置された軸J3により第1アーム部53と接続されて、第1アーム部53と第2アーム部54との間は関節構造とされている。その結果、第2アーム部54は、第1アーム部53に対して軸J3廻りに矢印R3方向に回動自在とされている。
手首部55は、基端部が第2アーム部54の先端側に接続され、第2アーム部54に形成された回動軸J4廻りに、第2アーム部54に対して矢印R4方向に回動可能とされている。
また、手首部55は、回転軸J4と直交する回動軸J5廻りに、矢印R5方向に回動可能とされるとともに、回転軸J5と直交する回転軸J6周りにR6方向に回転可能とされている。
また、手首部55の先端側には、ロボット5が所定の作業をするためのツール58が取り付けられるようになっている。
制御部60は、例えば、図4に示すように、入力部61と、メモリ62と、演算部63と、出力部64と、これら相互のデータ等を通信するための通信線65とを備えている。
入力部61は、例えば、図示しないキーボード等のデータ入力機器を有して演算部63に設定等を出力するとともに、ロボット本体51の第1アーム部53、第2アーム部54、手首部55の位置及び姿勢を検出する6つのエンコーダ及び三次元レーザレーダ10の信号処理部20と接続されている。
その結果、各エンコーダから、第1アーム部53、第2アーム部54、手首部55の位置及び姿勢データと、三次元レーザレーダ10が認識、出力したキャリブレーション治具40の3つの校正点46A、46B、46Cの座標データが入力されるようになっている。
メモリ62には、入力部61を介して入力された6つのエンコーダが検出した第1アーム部53、第2アーム部54、手首部55の位置及び姿勢データ、三次元レーザレーダ10が認識した3つの校正点46A、46B、46Cの座標データ等が一時的に格納され、演算部63が必要に応じて取り出して算出するとともに、その結果を、必要に応じて格納するようになっている。
演算部63は、例えば、メモリ62のROMに格納されたプログラムを読み込んで実行し、出力部65を介して、ロボット本体51の第1アーム部53、第2アーム部54、手首部55の駆動源に出力し、これら第1アーム部53、第2アーム部54、手首部55を所定の位置及び姿勢に制御するようになっている。
また、演算部63は、ロボット本体51がキャリブレーション治具40の各校正点46A、46B、46Cを指示した際に各エンコーダが検出する第1アーム部53、第2アーム部54、手首部55の位置及び姿勢データを、三次元レーザレーダ10から入力された各校正点46A、46B、46Cに対応させることにより、ロボット本体51をキャリブレーションするようになっている。
なお、第1の実施形態において、曲座標から三次元空間座標への変換は、同時変換行列等、周知の演算手段を適用することができるものとする。
次に、図5を参照して、ロボットシステム1のキャリブレーション手順について説明する。
図5は、ロボットシステム1において、ロボット5をキャリブレーションする手順の一例を示すフロー図である。
キャリブレーションに際し、ロボットシステム1の所定の位置にキャリブレーション治具40を配置する。キャリブレーション治具40を配置する位置は、ロボットシステム1における既知の位置でもよいし、未知の位置でもよい。
(1)まず、レーダヘッド12により、キャリブレーション治具40を撮像する(S1)。
このとき、時間間隔カウンタ21がレーザダイオード13のパルス発振タイミングと同期したスタートパルスP4と、光検出器17から出力されたストップパルスP5の時間間隔を計測する
(2)レーダヘッド12により撮像した画像を、信号処理部20に入力し、レーダヘッド12の設置位置を原点としたセンサ座標系の三次元空間データ(X、Y、Z)に変換する(S2)。このとき、信号処理部20において、以下の1)、2)の処理をする。
1)信号処理ボード22が、3つの校正点46A、46B、46Cについて、反射光L3が検出された時点の時間間隔t、ポリゴンミラー15の回転角度θ、揺動角度φを、極座標データ(r,θ,φ)として出力する。
2)判定処理ユニット23が、信号処理ボード22からの3つの校正点46A、46B、46Cに係る極座標データを、センサ座標系の三次元空間データ(XSA、YSA、ZSA)、(XSB、YSB、ZSB)、(XSC、YSC、ZSC)に変換する。ここで、三次元空間データ(XSA、YSA、ZSA)、(XSB、YSB、ZSB)、(XSC、YSC、ZSC)は、3つの校正点46A、46B、46Cと、この順に対応している。
(3)三次元レーザレーダ10は、判定処理ユニット23が変換した3つの校正点46A、46B、46Cに係る三次元空間データ(XSA、YSA、ZSA)、(XSB、YSB、ZSB)、(XSC、YSC、ZSC)をロボット5の制御部60に出力する。
制御部60において、演算部63は入力部61を介して入力されたセンサ座標系の三次元空間データ(XSA、YSA、ZSA)、(XSB、YSB、ZSB)、(XSC、YSC、ZSC)をメモリ62に格納する(S3)。
(4)次に、ロボット本体51を操作し、例えば、3つの校正点46A、46B、46Cを、ロボット本体51との相対的位置が既知とされたツール58により順次指示し、その際に6つのエンコーダが検出したロボット本体51の位置及び姿勢データ(e1A、e2A、e3A、e4A、e5A、e6A)、(e1B、e2B、e3B、e4B、e5B、e6B)、(e1C、e2C、e3C、e4C、e5C、e6C)を、入力部61を介してメモリ62に格納する(S4)。
ここで、エンコーダにより検出される位置及び姿勢は、各回転軸J1からJ6の回転角度と既知の各回転軸J1、・・・、J6間の距離により表されるものである。
また、(e1A、e2A、e3A、e4A、e5A、e6A)、(e1B、e2B、e3B、e4B、e5B、e6B)、(e1C、e2C、e3C、e4C、e5C、e6C)は、それぞれ、3つの校正点46A、46B、46Cを指示した際の回転軸J1からJ6と順と対応している。
(5)演算部63は、センサ座標系の三次元空間データ(XSA、YSA、ZSA)、(XSB、YSB、ZSB)、(XSC、YSC、ZSC)を、ロボット本体51を基準とするロボット座標系の三次元空間データ(XRA、YRA、ZRA)、(XRB、YRB、ZRB)、(XRC、YRC、ZRC)に変換する(S5)。
センサ座標系の三次元空間データ(X、Y、Z)をロボット座標系の三次元空間データ(X、Y、Z)に変換する場合、例えば、変換行列等による周知の変換手法を適用することができる。
(6)演算部63は、3つの校正点46A、46B、46Cのロボット座標系の三次元空間データ(XRA、YRA、ZRA)、(XRB、YRB、ZRB)、(XRC、YRC、ZRC)と、エンコーダの位置及び姿勢データ(e1A、e2A、e3A、e4A、e5A、e6A)、(e1B、e2B、e3B、e4B、e5B、e6B)、(e1C、e2C、e3C、e4C、e5C、e6C)に基づいて、ロボット座標系とエンコーダ座標系の変換式(例えば、変換行列)を求める(S6)。
(7)ロボット座標系とエンコーダ座標系の変換式(例えば、変換行列)を求めたら、ロボット5のキャリブレーションを終了する。
キャリブレーション装置2によれば、ロボット5のキャリブレーションを容易かつ正確に行うことができる。
また、キャリブレーション治具40は、構成が簡単であるので、容易に製作することが可能とされ、キャリブレーション治具40の製造コストを抑制することができる。
次に、図6、図7を参照して、この発明の第2の実施形態について説明する。
第2の実施形態に係るロボットシステム1Aが、第1の実施形態と異なるのは、キャリブレーション治具40が、アーム型ロボット5の手首部55の先端側の所定の位置に、ロボット本体51との相対的位置が既知の状態で保持されていて、レーダヘッド12が、キャリブレーション治具40をロボット本体51に保持された状態で撮像する点である。その他は、第1の実施形態と同様であるので、同一の符号を付し、説明を省略する。
キャリブレーション治具40は、ロボット5の基準に対して6つの自由度の動作の全てが反映される部位である手首部55の先端側、例えば、ツール58に固定されている。
また、レーダヘッド12は、ロボット本体51とは独立して配置されており、キャリブレーション治具40を撮像可能とされている。
三次元レーザレーダ10は、ロボット本体51が、任意に設定された位置で、レーダヘッド12によりキャリブレーション治具40を撮像し、ロボット5の制御部60に撮像したことを示す信号を出力する。
また、三次元レーザレーダ10は、レーダヘッド12によりキャリブレーション治具40を撮像した画像から、キャリブレーション治具40の位置及び姿勢に関するセンサ座標系のデータ(XSD、YSD、ZSD、αSD、βSD、γSD)を、ロボット5の制御部60に出力するようになっている。
また、制御部60は、レーダヘッド12がキャリブレーション治具40を撮像したことを示す信号を受けて、そのときのエンコーダの検出データ(e1D、e2D、e3D、e4D、e5D、e6D)を、入力部61を介してメモリ62に格納するようになっている。
また、演算部63は、センサ座標系のデータ(XSD、YSD、ZSD、αSD、βSD、γSD)を、ロボット座標系のデータ(XRD、YRD、ZRD、αRD、βRD、γRD)に変換し、ロボット座標系のデータ(XRD、YRD、ZRD、αRD、βRD、γRD)と、エンコーダの検出データ(e1D、e2D、e3D、e4D、e5D、e6D)に基づきロボット座標系とエンコーダ座標系の変換式(例えば、変換行列)を求めるようになっている。
次に、図7を参照して、ロボットシステム1Aのキャリブレーション手順について説明する。
図7は、ロボットシステム1Aにおいて、ロボット5をキャリブレーションする手順の一例を示すフロー図である。
キャリブレーションに際し、キャリブレーション治具40をアーム部55の先端側のツール58に配置する。
(1)まず、レーダヘッド12により、キャリブレーション治具40を撮像する(S11)。
このとき、時間間隔カウンタ21がレーザダイオード13のパルス発振タイミングと同期したスタートパルスP4と、光検出器17から出力されたストップパルスP5の時間間隔を計測する
(2)レーダヘッド12により撮像した画像を、信号処理部20に入力し、レーダヘッド12の設置位置を原点としたセンサ座標系のキャリブレーション治具40の位置及び姿勢に関するセンサ座標系のデータ(XSD、YSD、ZSD、αSD、βSD、γSD)に変換する(S12)。このとき、信号処理部20において、以下の1)、2)の処理をする。
1)信号処理ボード22が、キャリブレーション治具40の一及び姿勢を反射光L3が検出された時点の時間間隔t、ポリゴンミラー15の回転角度θ、揺動角度φを、極座標データ(r,θ,φ)として出力する。
2)判定処理ユニット23が、信号処理ボード22からの極座標データを、キャリブレーション治具40の位置及び姿勢に関するセンサ座標系のデータ(XSD、YSD、ZSD、αSD、βSD、γSD)に変換する。
(3)次に、レーダヘッド12によりキャリブレーション治具40を撮像したことを示す信号に基づき、そのときのエンコーダの検出データ(e1D、e2D、e3D、e4D、e5D、e6D)を、入力部61を介してメモリ62に格納する(S13)。
ここで、エンコーダにより検出される位置及び姿勢は、各回転軸J1からJ6の回転角度と既知の各回転軸J1、・・・、J6間の距離により表されるものである。
また、エンコーダの検出データ(e1D、e2D、e3D、e4D、e5D、e6D)は、は、それぞれ回転軸J1からJ6の回転角と対応している。
(4)三次元レーザレーダ10は、判定処理ユニット23が変換したキャリブレーション治具40の位置及び姿勢に関するセンサ座標系のデータ(XSD、YSD、ZSD、αSD、βSD、γSD)をロボット5の制御部60に出力する。
制御部60において、演算部63は入力部61を介して入力されたセンサ座標系のキャリブレーション治具40の位置及び姿勢に関するセンサ座標系のデータ(XSD、YSD、ZSD、αSD、βSD、γSD)をメモリ62に格納する(S14)。
(5)演算部63は、センサ座標系のデータ(XSD、YSD、ZSD、αSD、βSD、γSD)を、ロボット座標系のデータ(XRD、YRD、ZRD、αRD、βRD、γRD)に変換する(S15)。
センサ座標系のデータ(XSD、YSD、ZSD、αSD、βSD、γSD)を、ロボット座標系のデータ(XRD、YRD、ZRD、αRD、βRD、γRD)に変換する場合、例えば、変換行列等による周知の変換手法を適用することができる。
(6)演算部63は、ロボット座標系のデータ(XRD、YRD、ZRD、αRD、βRD、γRD)と、エンコーダの位置及び姿勢データ(e1D、e2D、e3D、e4D、e5D、e6D)に基づいて、ロボット座標系とエンコーダ座標系の変換式(例えば、変換行列)を求める(S16)。
(7)ロボット座標系とエンコーダ座標系の変換式(例えば、変換行列)を求めたら、ロボット5のキャリブレーションを終了する。
第2の実施形態に係るロボットシステム1Aによれば、ロボット5の手首部55の先端側の既知の位置にキャリブレーション治具40が設けられているので、レーダヘッド12によってキャリブレーション治具を一度撮像することで容易かつ正確にキャリブレーションすることができる。
また、ロボット5がキャリブレーション治具40を指示しなくてもキャリブレーションが可能とされるので、ロボット5の作動中であっても、容易かつ正確にキャリブレーションすることができる。
なお、第2の実施形態においては、手首部55の先端側の既知の位置にキャリブレーション治具40を設けて、キャリブレーション治具40を撮像してキャリブレーションする場合について説明したが、例えば、キャリブレーション治具40を手首部55の先端側の未知の位置に配置した場合に、ロボット本体51の姿勢を変化させて、異なる3つの姿勢でキャリブレーション治具40を撮像し、アーム部の姿勢が異なる3つの姿勢における各エンコーダの位置及び姿勢データと、アーム部の姿勢が異なる3つの姿勢における各3つの校正点46A、46B、46Cの三次元空間データとに基づいて、ロボット5をキャリブレーションしてもよい。
なお、この発明は上記第1、第2の実施形態に限定されるものではなく、発明の趣旨を逸脱しない範囲において、種々の変更をすることが可能である。
例えば、上記実施形態においては、ロボット本体51が6自由度の多関節式のアーム型ロボットである場合について説明したが、自由度が6軸以外の多関節式のアーム型ロボットや直交座標型ロボットに適用してもよい。
また、上記実施の形態においては、キャリブレーション治具40が、略直方体の治具本体41の基準平面部42に、直交する2つのV溝部を設けて、2つのV溝の側壁部が接続されるときの稜線45と基準平面部42とにより形成される4つの角部のうち3つの角部を3つの校正点46A、46B、46Cとする場合について説明したが、例えば、3つ以上の溝部を形成して形成される角部のなかから選んだ3つの角部を校正点としてもよい。
また、複数の溝部を交差させる場合に、交差角が90°以外で交差させてもよい。
また、溝部を基準平面部42に対して平面視した場合に、一部に曲線部を含む形態としてもよいし、溝部の形態をV溝以外としてもよい。
また、上記実施の形態においては、視覚センサがレーダヘッド12である場合について説明したが、3つの校正点46A、46B、46Cの座標を算出することが可能な、例えば、CCDカメラを用いたもの等、レーダヘッド12以外の周知の視覚センサを適用してもよい。
また、上記実施の形態においては、三次元レーザレーダ10の信号処理部20がアーム型ロボット5とは別々に配置される場合について説明したが、信号処理部20を、アーム型ロボット5の制御部60内部等、任意の位置に配置してもよい。
また、上記実施の形態においては、キャリブレーション治具40の位置及び姿勢に関するセンサ座標系のデータをアーム型ロボット5に入力し、制御部60内においてセンサ座標系のデータをロボット座標系のデータに変換する場合について説明したが、センサ座標系からロボット座標系へのデータ変換を、信号処理部20又は他の演算装置によって演算してもよい。
また、センサ座標系のデータをロボット座標系のデータに変換する際に、センサ座標系のデータを、例えば、絶対座標(アーム型ロボット5が設置されたライン全体の座標等)等に一時的に変換し、その後、ロボット座標系のデータに変換してもよい。
1、1A ロボットシステム
2、2A キャリブレーション装置
5 アーム型ロボット(ロボット)
10 三次元レーザレーダ(物体認識装置)
12 レーダヘッド(視覚センサ)
20 信号処理部
40 キャリブレーション治具
41 治具本体
42 基準平面部
43 第1溝部
44 第2溝部
45 稜線部
46 校正点
46A 第1校正点
46B 第2校正点
46C 第3校正点
51 ロボット本体
52 ベース回転部
53 第1アーム(アーム部)
54 第2アーム(アーム部)
55 手首部(アーム部)
56 位置検出手段
60 制御部

Claims (5)

  1. 複数の自由度を有するアーム部と、前記アーム部の位置及び姿勢を検出する位置検出手段と、前記アーム部の位置及び姿勢を制御する制御部とを備えたロボットのキャリブレーション装置であって、
    基準平面部を有し、前記基準平面部に面内の方向を特定する複数の交差する溝部が形成され、前記溝部のうち交差する2つの溝部が前記基準平面部に形成する角部のうち3つを校正点として有するキャリブレーション治具と、
    視覚センサにより撮像した前記キャリブレーション治具の画像に基づき前記キャリブレーション治具の位置及び姿勢を認識する物体認識装置と、を備えることを特徴とするキャリブレーション装置。
  2. 請求項1に記載のキャリブレーション装置であって、
    前記キャリブレーション治具は、
    前記基準平面部の非対称な位置に互いに交差する2つの溝部が形成されていることを特徴とするキャリブレーション装置。
  3. 複数の自由度を有するアーム部と、前記アーム部の位置及び姿勢を検出する位置検出手段と、前記アーム部の位置及び姿勢を制御する制御部とを備えたロボットのキャリブレーション方法であって、
    基準平面部を有し、前記基準平面部に面内の方向を特定する複数の交差する溝部が形成され、前記溝部のうち交差する2つの溝部が前記基準平面部に形成する角部のうち3つを校正点として有するキャリブレーション治具と、
    視覚センサにより撮像した物体の画像に基づき前記物体の位置及び姿勢を認識する物体認識装置と、を設け、
    前記視覚センサにより前記キャリブレーション治具を撮像した画像を前記物体認識装置に入力し、
    前記3つの校正点を前記ロボットにより指示し、
    前記物体認識装置が認識した前記3つの校正点の位置と、前記位置検出手段が検出した前記3つの校正点の位置とを対応させることを特徴とするキャリブレーション方法。
  4. 複数の自由度を有するアーム部と、前記アーム部の位置及び姿勢を検出する位置検出手段と、前記アーム部の位置及び姿勢を制御する制御部とを備えたロボットのキャリブレーション方法であって、
    基準平面部を有し、前記基準平面部に面内の方向を特定する複数の交差する溝部が形成されたキャリブレーション治具と、
    視覚センサにより撮像した物体の画像に基づき前記物体の位置及び姿勢を認識する物体認識装置と、を設け、
    前記キャリブレーション治具を前記アーム部の先端に配置し、
    前記キャリブレーション治具を前記視覚センサにより撮像して、前記視覚センサが撮像した画像を前記物体認識装置に入力して得た前記キャリブレーション治具の位置及び姿勢と、前記視覚センサが撮像した際に前記位置検出手段が検出した前記ロボットの位置及び姿勢とを対応させることを特徴とするキャリブレーション方法。
  5. 請求項4に記載のキャリブレーション方法であって、
    前記キャリブレーション治具と前記アーム部との相対位置が未知の場合に、前記アーム部の位置、姿勢を異ならせて前記視覚センサにより前記キャリブレーション治具を3回撮像することを特徴とするキャリブレーション方法。
JP2009220067A 2009-09-25 2009-09-25 キャリブレーション装置及びキャリブレーション方法 Pending JP2011067889A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009220067A JP2011067889A (ja) 2009-09-25 2009-09-25 キャリブレーション装置及びキャリブレーション方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009220067A JP2011067889A (ja) 2009-09-25 2009-09-25 キャリブレーション装置及びキャリブレーション方法

Publications (1)

Publication Number Publication Date
JP2011067889A true JP2011067889A (ja) 2011-04-07

Family

ID=44013697

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009220067A Pending JP2011067889A (ja) 2009-09-25 2009-09-25 キャリブレーション装置及びキャリブレーション方法

Country Status (1)

Country Link
JP (1) JP2011067889A (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103192386A (zh) * 2012-01-06 2013-07-10 沈阳新松机器人自动化股份有限公司 基于图像视觉的洁净机器人自动化标定方法
CN103991078A (zh) * 2013-02-14 2014-08-20 佳能株式会社 机器人***和用于控制该机器人***的方法
KR20170087996A (ko) * 2016-01-21 2017-08-01 현대로보틱스주식회사 로봇의 캘리브레이션 장치 및 그 방법
JP2018103329A (ja) * 2016-12-27 2018-07-05 トヨタ自動車株式会社 水平多関節型ロボット用の校正治具および校正方法
JP2019077016A (ja) * 2017-10-27 2019-05-23 ファナック株式会社 ロボット、ロボットシステム、およびロボットの座標系設定方法
CN110260819A (zh) * 2019-07-08 2019-09-20 东莞市三姆森光电科技有限公司 非接触式测量中多测头标定方法、标定装置及标准块
CN110682287A (zh) * 2018-07-06 2020-01-14 发那科株式会社 自动机械以及控制装置
US20200209365A1 (en) * 2018-12-29 2020-07-02 Ubtech Robotics Corp Ltd Laser data calibration method and robot using the same
CN111546324A (zh) * 2019-02-08 2020-08-18 发那科株式会社 机器人校准方法及机器人校准装置
CN113884020A (zh) * 2021-09-16 2022-01-04 苏州三姆森光电科技有限公司 一种3c产品内部长宽尺寸的测量方法

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01180401A (ja) * 1988-01-11 1989-07-18 Komatsu Ltd 視覚センサ付ロボットの物体認識位置の補正方法
JPH06243236A (ja) * 1993-02-18 1994-09-02 Sharp Corp 視覚認識装置の座標系校正パラメータ設定装置
JPH07311610A (ja) * 1994-05-19 1995-11-28 Fanuc Ltd 視覚センサを用いた座標系設定方法
JPH0847881A (ja) * 1994-08-05 1996-02-20 Ishikawajima Harima Heavy Ind Co Ltd ロボットの遠隔操作方法
JPH08210816A (ja) * 1995-02-03 1996-08-20 Fanuc Ltd ロボット−視覚センサシステムにおいてセンサ座標系とロボット先端部の関係を定める座標系結合方法
JP2005189298A (ja) * 2003-12-24 2005-07-14 Nikon Corp 顕微鏡装置
JP2005201824A (ja) * 2004-01-16 2005-07-28 Fanuc Ltd 計測装置
JP2005342832A (ja) * 2004-06-02 2005-12-15 Fanuc Ltd ロボットシステム
JP2006297559A (ja) * 2005-04-22 2006-11-02 Yaskawa Electric Corp キャリブレーションシステムおよびロボットのキャリブレーション方法
JP2007061979A (ja) * 2005-09-01 2007-03-15 Sharp Corp ロボットアームの視覚センサ補正方法およびコンピュータプログラム
JP2007125633A (ja) * 2005-11-02 2007-05-24 Pulstec Industrial Co Ltd 多自由度ロボットの位置決め誤差補正装置、同位置決め誤差補正方法および位置決め誤差補正用校正治具

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01180401A (ja) * 1988-01-11 1989-07-18 Komatsu Ltd 視覚センサ付ロボットの物体認識位置の補正方法
JPH06243236A (ja) * 1993-02-18 1994-09-02 Sharp Corp 視覚認識装置の座標系校正パラメータ設定装置
JPH07311610A (ja) * 1994-05-19 1995-11-28 Fanuc Ltd 視覚センサを用いた座標系設定方法
JPH0847881A (ja) * 1994-08-05 1996-02-20 Ishikawajima Harima Heavy Ind Co Ltd ロボットの遠隔操作方法
JPH08210816A (ja) * 1995-02-03 1996-08-20 Fanuc Ltd ロボット−視覚センサシステムにおいてセンサ座標系とロボット先端部の関係を定める座標系結合方法
JP2005189298A (ja) * 2003-12-24 2005-07-14 Nikon Corp 顕微鏡装置
JP2005201824A (ja) * 2004-01-16 2005-07-28 Fanuc Ltd 計測装置
JP2005342832A (ja) * 2004-06-02 2005-12-15 Fanuc Ltd ロボットシステム
JP2006297559A (ja) * 2005-04-22 2006-11-02 Yaskawa Electric Corp キャリブレーションシステムおよびロボットのキャリブレーション方法
JP2007061979A (ja) * 2005-09-01 2007-03-15 Sharp Corp ロボットアームの視覚センサ補正方法およびコンピュータプログラム
JP2007125633A (ja) * 2005-11-02 2007-05-24 Pulstec Industrial Co Ltd 多自由度ロボットの位置決め誤差補正装置、同位置決め誤差補正方法および位置決め誤差補正用校正治具

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103192386A (zh) * 2012-01-06 2013-07-10 沈阳新松机器人自动化股份有限公司 基于图像视觉的洁净机器人自动化标定方法
CN103991078A (zh) * 2013-02-14 2014-08-20 佳能株式会社 机器人***和用于控制该机器人***的方法
US9221176B2 (en) 2013-02-14 2015-12-29 Canon Kabushiki Kaisha Robot system and method for controlling the same
KR102314092B1 (ko) 2016-01-21 2021-10-19 현대중공업지주 주식회사 로봇의 캘리브레이션 장치 및 그 방법
KR20170087996A (ko) * 2016-01-21 2017-08-01 현대로보틱스주식회사 로봇의 캘리브레이션 장치 및 그 방법
JP2018103329A (ja) * 2016-12-27 2018-07-05 トヨタ自動車株式会社 水平多関節型ロボット用の校正治具および校正方法
US10744644B2 (en) 2016-12-27 2020-08-18 Toyota Jidosha Kabushiki Kaisha Calibration jig and calibration method for horizontal articulated robot
US10935968B2 (en) 2017-10-27 2021-03-02 Fanuc Corporation Robot, robot system, and method for setting coordinate system of robot
JP2019077016A (ja) * 2017-10-27 2019-05-23 ファナック株式会社 ロボット、ロボットシステム、およびロボットの座標系設定方法
CN110682287A (zh) * 2018-07-06 2020-01-14 发那科株式会社 自动机械以及控制装置
US20200209365A1 (en) * 2018-12-29 2020-07-02 Ubtech Robotics Corp Ltd Laser data calibration method and robot using the same
CN111546324A (zh) * 2019-02-08 2020-08-18 发那科株式会社 机器人校准方法及机器人校准装置
CN111546324B (zh) * 2019-02-08 2024-05-28 发那科株式会社 机器人校准方法及机器人校准装置
CN110260819A (zh) * 2019-07-08 2019-09-20 东莞市三姆森光电科技有限公司 非接触式测量中多测头标定方法、标定装置及标准块
CN113884020A (zh) * 2021-09-16 2022-01-04 苏州三姆森光电科技有限公司 一种3c产品内部长宽尺寸的测量方法
CN113884020B (zh) * 2021-09-16 2022-06-28 苏州三姆森光电科技有限公司 一种3c产品内部长宽尺寸的测量方法

Similar Documents

Publication Publication Date Title
JP2011067889A (ja) キャリブレーション装置及びキャリブレーション方法
EP3619498B1 (en) Triangulation scanner having flat geometry and projecting uncoded spots
JP4015161B2 (ja) 産業用ロボットの制御装置
JP3556589B2 (ja) 位置姿勢認識装置
JP5377758B2 (ja) 空間内において少なくとも1つのオブジェクトを最終姿勢に高精度で位置決めするための方法およびシステム
EP2132523B1 (en) Method and device for exact measurement of objects
US20090299688A1 (en) Method for determining a virtual tool center point
US8363904B2 (en) Offset amount calibrating method and surface texture measuring machine
US11230011B2 (en) Robot system calibration
KR20140008262A (ko) 로봇 시스템, 로봇, 로봇 제어 장치, 로봇 제어 방법 및 로봇 제어 프로그램
JP2008547026A (ja) 有関節座標計測機再配置装置及び方法
JP7109161B2 (ja) 多関節ロボットの機構モデルパラメータ推定方法
JP3754402B2 (ja) 産業用ロボットの制御方法および制御装置
JP2010169633A (ja) 形状測定装置
JP2001050741A (ja) ロボットのキャリブレーション方法及び装置
JP2006297559A (ja) キャリブレーションシステムおよびロボットのキャリブレーション方法
JP2020165658A (ja) 三次元計測方法、三次元計測装置およびロボットシステム
WO2022195944A1 (ja) ロボットシステム、およびロボットシステムの制御方法
JP2012066321A (ja) ロボットシステムおよびロボット組立システム
JP7401682B2 (ja) ロボットシステム
JP2016203282A (ja) エンドエフェクタの姿勢変更機構を備えたロボット
JP2017170552A (ja) 位置制御システム
JP2012159436A (ja) 位置姿勢測定装置および3次元形状測定装置
WO2022124232A1 (ja) 画像処理システム及び画像処理方法
JP2018185204A (ja) 移動ロボット

Legal Events

Date Code Title Description
A621 Written request for application examination

Effective date: 20120724

Free format text: JAPANESE INTERMEDIATE CODE: A621

A02 Decision of refusal

Effective date: 20131015

Free format text: JAPANESE INTERMEDIATE CODE: A02