JP2015042437A - ロボットシステム及びロボットシステムの校正方法 - Google Patents

ロボットシステム及びロボットシステムの校正方法 Download PDF

Info

Publication number
JP2015042437A
JP2015042437A JP2014141984A JP2014141984A JP2015042437A JP 2015042437 A JP2015042437 A JP 2015042437A JP 2014141984 A JP2014141984 A JP 2014141984A JP 2014141984 A JP2014141984 A JP 2014141984A JP 2015042437 A JP2015042437 A JP 2015042437A
Authority
JP
Japan
Prior art keywords
robot
marker
coordinate system
calibration
points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014141984A
Other languages
English (en)
Other versions
JP6468741B2 (ja
Inventor
新吾 天野
Shingo Amano
新吾 天野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014141984A priority Critical patent/JP6468741B2/ja
Publication of JP2015042437A publication Critical patent/JP2015042437A/ja
Application granted granted Critical
Publication of JP6468741B2 publication Critical patent/JP6468741B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1692Calibration of manipulator
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39008Fixed camera detects reference pattern held by end effector
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39022Transform between measuring and manipulator coordinate system
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/46Sensing device
    • Y10S901/47Optical

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)

Abstract

【課題】正確な設計データが明らかな特別な治具を必要とせず、かつ、ロボット座標系とビジョン座標系との校正の精度をより向上させる。
【解決手段】制御装置は、カメラ3によるマーカ21の計測を実行することで、ロボット座標系とビジョン座標系との校正を行う際に、校正範囲に設定された少なくとも3点の教示点のロボット座標系での位置とビジョン座標系での位置とから校正値を算出する。3点の教示点のうちの2点は、マーカ21のカメラ3の光軸に対する傾きが同じで、且つ、光軸を法線とする同一平面Aの異なる位置に設定される。3点の教示点のうちの上述の2点以外の1点は、マーカ21の光軸に対する傾きが上述の2点と異なるように設定される。カメラ3の計測誤差として光軸方向に大きい量子化誤差の影響を低減でき、ロボット座標系とビジョン座標系との校正の精度をより向上できる。
【選択図】図3

Description

本発明は、ワークの位置をカメラなどの視覚センサにより計測して、ロボット本体の動作位置補正などを行うロボットシステム、及び、このようなロボットシステムの校正を行うロボットシステムの校正方法に関する。
近年、工場の生産ラインにおいて、作業の自動化・省人化を図るために、ロボットによる自動組立が多くなってきた。そこでは、多関節アームなどのロボット本体とカメラなどの視覚センサを組合せたシステムが利用されている。特に最近では作業対象物となるワークを視覚センサで3次元計測する必要性が高くなっている。
視覚センサによりワークを位置計測し、それに基づいてロボット本体の動作を補正する場合、視覚センサが計測したワークの位置姿勢データをロボット本体の位置姿勢を定義する座標系上のデータに変換する必要がある。ゆえに、視覚センサの計測データに用いられる座標系(以下、ビジョン座標系)と、ロボット本体の位置姿勢を定義する座標系(以下、ロボット座標系)との間の関係を予め求めておかなければならない。これら座標系間の校正を、一般的には“ハンドアイキャリブレーション”と呼ぶ。また、ビジョン座標系とロボット座標系の相対位置姿勢の校正精度が、そのまま視覚センサを用いたロボット本体の動作位置補正精度に関わるため、ハンドアイキャリブレーションの精度を高くすることが望まれる。
従来、正確な設計データや特別な治具を用いないハンドアイキャリブレーションの方法として、エンドエフェクタ(多指ハンド)に設置した所謂オンハンドカメラを備えたロボットアームを利用する方法が知られていた。その方法では、まず一直線上に並ばない少なくとも3つの位置から、基準となる同一対象物に関する位置を表わすセンサ出力を得る。そして、それぞれの出力をロボット座標系上で表現するデータと前記センサ出力を表わすデータとに基づくソフトウェア処理を実行することで、ハンドアイキャリブレーションを行う方法が提案されている(特許文献1参照)。また、センサで計測可能なマーカと、ロボットがタッチアップするための点との両者の位置関係が既知となるような治具と、を用いての自動ハンドアイキャリブレーション方法が提案されている(特許文献2参照)。これらの方法により、ロボット座標系とビジョン座標系との相対的な位置関係を算出していた。
特許第3644991号公報 特許第2700965号公報
しかしながら、上述の特許文献1に記載の方法では、ハンドアイキャリブレーションで用いる教示点によっては、カメラの計測精度を十分生かすことができない可能性がある。即ち、一般的に、カメラの計測誤差は量子化誤差の影響により、撮像面内での計測よりも光軸方向での計測の方が大きくなる。詳しく述べると、有限の画素からなる撮像素子を備えるカメラで対象物の位置計測を行う場合、対象物の検出位置は離散的に存在し、量子化誤差が存在する。また、カメラ光軸方向の対象物位置は、例えば三角測量法により、対象物の既知の間隔を有する2点を撮影した撮像面における計測距離に基づいて算出される。このため、カメラ光軸方向の位置計測誤差は、撮像面における2点の位置計測誤差の影響を受けるため、一般的にカメラ光軸方向の位置計測誤差は撮像面内での位置計測誤差よりも大きくなる。そのため、実際の作業現場等で人手による試行錯誤により、基準としての対象物とカメラの相対位置姿勢、即ち、校正で用いる教示点を探索すると、キャリブレーションに適した教示点が選ばれないケースがあり、校正精度が十分でないという問題があった。
また、上述の特許文献2に記載の方法の場合、基準としてのマーカとカメラの相対位置姿勢は複数点は必要ないが、正確な設計データが明らかな特別な治具を要する。正確な設計データが明らかな特別な治具は、普通の治具に比べてコスト増であり、工数もかかる。
本発明は、このような事情に鑑み、正確な設計データが明らかな特別な治具を必要とせず、かつ、ロボット座標系とビジョン座標系との校正の精度をより向上させられるロボットシステム及びその校正方法を提供することを目的とする。
本発明は、ワークに対して動作を行うロボット本体と、視覚センサと、前記ロボット本体の位置姿勢を制御すると共に、前記視覚センサによる計測値を利用してワークの位置姿勢を算出する制御装置と、を備え、前記制御装置は、前記視覚センサによるマーカの計測を実行することで、前記ロボット本体の位置姿勢を定義するロボット座標系と、前記視覚センサの位置姿勢を定義するビジョン座標系と、の校正を行う際に、校正範囲に設定された少なくとも3点の教示点の前記ロボット座標系での位置と前記ビジョン座標系での位置とから校正値を算出し、前記3点の教示点のうちの2点は、前記マーカの前記視覚センサの光軸に対する傾きが同じで、且つ、光軸を法線とする同一平面の異なる位置に設定され、前記3点の教示点のうちの前記2点以外の1点は、前記マーカの光軸に対する傾きが前記2点と異なるように設定される、ことを特徴とするロボットシステムにある。
また、本発明は、ワークに対して動作を行うロボット本体と、視覚センサと、前記ロボット本体の位置姿勢を制御すると共に、前記視覚センサによる計測値を利用してワークの位置姿勢を算出する制御装置と、を備えたロボットシステムによって、前記ロボット本体の位置姿勢を定義するロボット座標系と、前記視覚センサの位置姿勢を定義するビジョン座標系との校正を行うロボットシステムの校正方法であって、前記制御装置は、校正範囲に設定された少なくとも3点の教示点を得られるように前記ロボット本体を動作させる動作工程と、前記視覚センサによるマーカの計測を実行することで、少なくとも前記3点の教示点の前記ロボット座標系での前記ロボット本体の位置と前記ビジョン座標系での前記マーカの位置とから校正値を算出する校正工程と、を備え、前記3点の教示点のうちの2点は、前記マーカの前記視覚センサの光軸に対する傾きが同じで、且つ、光軸を法線とする同一平面の異なる位置に設定され、前記3点の教示点のうちの前記2点以外の1点は、前記マーカの光軸に対する傾きが前記2点と異なるように設定される、ことを特徴とするロボットシステムの校正方法にある。
本発明によれば、少なくとも3点の教示点のうちの2点が、マーカの光軸に対する傾きが同じで、且つ、光軸を法線とする同一平面の異なる位置に設定されるため、光軸方向に大きい量子化誤差の影響を低減できる。そして、ロボット座標系とビジョン座標系との校正の精度をより向上させられる。また、この校正の際には、正確な設計データが明らかな特別な治具を必要としないため、低コストで校正の精度をより向上させられる。
本発明の第1の実施形態に係るロボットシステムの概略構成図。 第1の実施形態で用いるマーカの平面図。 (a)本実施形態で用いる3点の教示点を示す模式図、(b)カメラとマーカの教示点における相対位置姿勢を示す模式図。 2つのドットをカメラの撮像面に投影した場合の模式図。 実施例と比較例との校正の誤差を示す図。 本発明の第2の実施形態に係るロボットシステムの概略構成図。
<第1の実施形態>
本発明の第1の実施形態について、図1〜図5を用いて説明する。まず、図1を用いて、本実施形態のロボットシステムの概略構成について説明する。
[ロボットシステム]
本実施形態のロボットシステム100は、制御装置200、ロボット本体10、視覚センサとしてのカメラ3を備える。制御装置200は、ロボット本体10の位置姿勢を制御すると共に、カメラ3による計測値を利用してワークの位置姿勢を算出するもので、ロボットコントローラ1とビジョンコントローラ2とを有している。ロボットコントローラ1にはロボット本体10とビジョンコントローラ2が接続されている。ビジョンコントローラ2には、カメラ3が接続されている。ロボット本体10のエンドエフェクタとしてのハンド12には、校正治具20が把持されている。以下、各部分について説明する。
ロボット本体10は、多関節アーム11(以下、アームという)及びハンド(エンドエフェクタ)12を有し、ワークに対して動作を行う。アーム11としては、7つのリンクと、各リンクを揺動又は回動可能に連結する6つの関節とを備える6軸の垂直多関節アームを適用している。本実施形態では、アーム11として6軸の垂直多関節アームを適用しているが、これに限らず、軸数は用途や目的に応じて適宜変更しても良い。また、アーム11は、基台13に固定されており、基台13には基台13を基準にしてアーム11の位置姿勢を表すロボット座標系41が設定されている。言い換えれば、ロボット座標系41は、ロボット本体10の位置姿勢を定義する座標系であり、ロボット本体10(基台13)に固定された座標系となっている。
アーム11の各関節には、各関節を各々駆動するモータあるいは必要に応じて直動アクチュエータが、出力機器として設けられている。各関節には、モータの回転角度を検知するエンコーダと、各モータに供給する電流を検知する電流センサと、各関節のトルクを検知するトルクセンサとが、入力機器として設けられている。
アーム11は、制御装置200のロボットコントローラ1から出力される指令値により各関節を駆動して、ハンド12の位置姿勢を調整するようになっている。ロボットコントローラ1は、ロボット座標系41を基準とするツール座標系43の相対位置姿勢の目標値に対して、アーム11の各関節の取るべき角度を計算し、各関節に対して指令値を出力するようになっている。また、ロボットコントローラ1は、エンコーダから各関節の現在角度情報を取得し、ツール座標系43の相対位置姿勢を算出可能になっている。
アーム11の先端部にはハンド12が支持されており、ハンド12は、アーム11の動作により位置姿勢が調整されると共に、ワークや校正治具20を把持可能な例えば3本の指を備えている。ハンド12には、ハンド12を基準にしてツール座標系43が設定されている。本実施形態では、エンドエフェクタとしてワークなどを把持可能なハンド12が適用されている。しかしながら、これには限らず、例えば把持以外の手段でワークなどを保持する機構や、ワークに加工を施す工具等、ワークに対して作業可能なエンドエフェクタの全般を含めることができる。
カメラ3は、固定位置からワークやマーカ21の位置を計測する視覚センサであって、後述する校正を行うためのマーカ21、実際に作業を行うワークなどの対象物を撮影し、ビジョンコントローラ2に画像信号を送信する。本実施形態では、視覚センサであるカメラ3として単眼カメラを用いているが、視覚センサは、複眼カメラ、レーザレンジファインダ、或いは、それらの組合せでも良い。カメラ3には、光軸方向及び撮像視野の縦横方向を基準にしてカメラ3の位置姿勢を定義するビジョン座標系42が設定されている。即ち、ビジョン座標系42は、カメラ3の位置姿勢を定義する座標系であり、カメラ3に固定された座標系となっている。
ロボットコントローラ1は、コンピュータとしてのCPU31と、CPU31にバス接続されたROM32、RAM33、汎用信号インターフェイス34などから構成される。ROM32には、ロボットシステム100を制御するプログラムが格納される。また、RAM33には、ロボット本体10の動作やビジョンコントローラ2への指令送信、ビジョンコントローラ2からの画像処理結果の受信等を制御するプログラム、関連設定値が格納される。更に、RAM33は、CPU31による演算実行時の一時記憶用のメモリや必要に応じて設定されるレジスタ領域としても使用される。汎用信号インターフェイス34は、ビジョンコントローラ2やロボット本体10の各軸を制御するサーボ回路、オフラインプログラミング装置、製造ラインの制御部等に対する入出力装置として機能する。
ビジョンコントローラ2は、カメラ3を介して取り込まれた画像信号を、濃淡グレイスケールによる明暗信号に変換した上でフレームメモリに格納する。また、フレームメモリに格納された画像を処理し、ワークやマーカ21などの対象物の識別、位置姿勢を計測する。ここで計測される位置姿勢は、ビジョン座標系42を基準とするマーカ座標系44の位置姿勢に相当するデータである。更に、処理した対象物の識別結果、および位置姿勢をロボットコントローラ1に送信する。また、ビジョンコントローラ2には照明(不図示)が接続されていても良い。そのとき、ビジョンコントローラ2は照明の制御も行う。
校正治具20は、ロボットシステム100の校正を行う際に、マーカ21を固定することができ、ハンド12あるいはアーム11に固定される。例えば、校正治具20はハンド12により把持されることで、ハンド12に固定される。なお、校正治具20に対して、マーカ21がどこに固定されているかは既知でなくとも良い。
マーカ21は、校正を行うためにカメラ3で計測するもので、図2に示すように、穴や印刷などの複数のドット22がパターンとして付され、ドット22間の位置は予めビジョンコントローラ2に設定値として格納されている。それにより、ビジョンコントローラ2はマーカ21の位置姿勢を計測することができる。また、マーカに付された三角形23によりマーカ21の姿勢を一意に求めることができる。なお、マーカ21はカメラ3から計測できればよく、平面上でなく立体的なものでも良い。
このように構成されるロボットシステム100は、ロボットコントローラ1のメモリに格納された動作プログラムによって、ロボット本体10を制御する。そして、ロボット本体10を動作させることにより、校正治具20をロボット本体10の動作範囲内の任意の位置姿勢で位置決めすることができる。
ここで、本実施形態におけるロボットシステム100の、ロボット座標系41とビジョン座標系42との校正方法について説明する。前提条件として、校正治具20に対して、マーカ21がどこに固定されているかは既知で無い場合を考える。また、各座標系自体の校正は終了しているものとする。その場合、一般的に、カメラ3とマーカ21の相対位置姿勢において、少なくとも3点の異なる相対位置姿勢を取らせる。即ち、ユーザが、例えばティーチングペンダントなどの汎用信号インターフェイス34により少なくとも3点の相対位置姿勢を教示する。制御装置200は、ロボット座標系41とビジョン座標系42との校正を行う際に、校正範囲に設定された少なくとも3点の教示点のロボット座標系41での位置とビジョン座標系42での位置とから校正値を算出する。
このとき、それぞれの点でロボット座標系41とツール座標系43の相対位置姿勢と、ビジョン座標系42とマーカ座標系44の相対位置姿勢を得る必要がある。それにより、校正すべきロボット座標系41とビジョン座標系42の相対位置姿勢を求めることができる。
次に、校正で用いる少なくとも3点の教示点の設定方法について、図3を用いて説明する。図3(a)は教示点と校正範囲を示し、図3(b)はカメラ3とマーカ21の相対位置姿勢を示す。3点の教示点のうちの2点は、基準であるマーカ21のカメラ3の光軸(z軸)に対する傾きが同じで、且つ、光軸を法線とする同一平面Aの異なる位置に設定される。ここで、図3に示す平面Aは、カメラ3の画角の範囲内に設定されたカメラ3の光軸を法線とする平面であり、この平面Aはロボット座標系41とビジョン座標系42との校正範囲を示している。また、ここで言うカメラ3の光軸は、ロボット座標系41において設定される光軸(z軸)であるが、上述のようにロボット座標系41自体の校正は終了しているため、実際のカメラ3の光軸と一致しているものとする。なお、設計値上のカメラ3の光軸と一致するようにしても良い。また、3点の教示点のうちの上述の2点以外の残りの1点は、マーカ21の光軸に対する傾きが上述の2点と異なるように設定される。なお、少なくとも3点の教示点がこのように設定されれば良く、教示点は3点以上あっても良く、教示点を設定する順番も問わない。また、取り得る教示点の位置姿勢は、マーカ21が画角の範囲内に収まるようにし、かつ、校正で必要な回転角度の範囲内とする。さらに、後述する第2及び第3の実施形態でも、同様な位置姿勢を取っても良い。
制御装置200は、上述のように設定される教示点を得られるように、次のようにロボット本体10を動作させる。即ち、光軸と平行な軸を中心として、校正を行うためのマーカ21とカメラ3とを相対的に第1所定角度α回転させることで同一平面Aの異なる位置に2点の教示点を得る。本実施形態では、カメラ3は固定されているため、ロボット本体10によりマーカ21をz軸と平行な軸を中心として回転させることで2点の教示点を得る。このとき、マーカ21のドット22が形成されている平面が平面Aとの平行を維持した状態で、マーカ21を回転させることが好ましい。但し、マーカ21のドット22が形成されている面が平面Aに対して傾斜していたとしても、2点の教示点で、マーカ21の中心が平面A上に位置し、且つ、マーカ21の面のカメラ3の光軸(z軸)に対する傾きが同じであれば良い。なお、上述の第1所定角度αは、0°<α<180°とする。また、本実施形態では、上述の光軸と平行な軸とは、厳密に平行な軸の他、光軸からの傾斜角度が例えば±2°以内である軸についても、計測精度を大きく低下させることはないので含めてもよい。
また、光軸と平行な軸に対してマーカ21とカメラ3とを相対的に第2所定角度β回転させることで、マーカ21の光軸に対する傾きが上述の2点と異なる1点の教示点を得る。本実施形態では、ロボット本体10によりマーカ21をz軸と平行な軸に対して傾ける。言い換えれば、マーカ21を上述の2点の教示点を得る場合よりも平面Aに対して傾ける。これにより、マーカ21のドット22が形成されている面が、同一平面A上から外れる。なお、第2所定角度βは、5°≦β≦10°とする。
ここで、第2所定角度βが5°未満の場合には、上述の2点の教示点との差が得にくい。言い換えれば、校正するためのデータとして、3点目の教示点が1点目及び2点目の教示点に対して確実にずれていた方が良いため、第2所定角度βを5°以上とする。一方、第2所定角度βを10°よりも大きくした場合、上述の2点で計測するマーカ21の複数のドット22に対して、残りの1点で計測するマーカ21の複数のドット22を計測しにくくなる可能性がある。言い換えれば、3点の教示点のマーカ21の複数のドット22をカメラ3で正確に認識するためには、第2所定角度βを10°以下とすることが好ましい。
具体的な教示点の設定方法を説明する。まず、1点目の教示点は、校正する位置姿勢を選ぶ。2点目の教示点は、1点目の教示点に対して、光軸(z軸)回りにユーザが指定した相対角度(第1所定角度)αを取り、且つ、光軸に対して直角なxy方向に並進させた位置姿勢を取る。つまり、1点目の教示点から2点目の教示点への回転移動の回転軸である光軸と平行な軸として、光軸そのものを選択する。また、ここでは、相対角度αを90°とする。3点目の教示点は、光軸以外の2軸、即ち、xy軸まわりにユーザが指定した相対角度(第2所定角度)βを取り、且つ、1点目とも2点目とも異なる位置姿勢を取る。なお、上述の3点の教示点は、図3(a)に示すように、それぞれのマーカ21の中心が光軸を法線とする同一平面A上でそれぞれ異なる位置姿勢になるように配置し、かつ、校正する範囲最大になるように配置することが好ましい。
本実施形態のロボットシステム100の校正方法では、制御装置200のロボットコントローラ1が、少なくとも上述の3点の教示点にマーカ21の中心が来るようにロボット本体10を動作させる(動作工程)。そして、制御装置200は、少なくとも3点の教示点のロボット座標系41での位置とビジョン座標系42での位置とから校正値を算出する(校正工程)。
即ち、校正工程では、それぞれの教示点においてロボット座標系41とツール座標系43の相対位置姿勢と、ビジョン座標系42とマーカ座標系44の相対位置姿勢を得る。ロボット座標系41とツール座標系43は、教示点の位置姿勢と同義なので、ロボットコントローラ1から得られる。また、ビジョン座標系42とマーカ座標系44の相対位置姿勢は、マーカ21をカメラ3で計測することにより得られるので、ビジョンコントローラ2から取得可能である。
ここで、相対位置姿勢を並進成分とオイラー角で表すと、(X、Y、Z、Rx、Ry、Rz)となる。それを同次変換行列Hの形で次式のように定義する。
Figure 2015042437
但し、Rotx、Roty、Rotzはそれぞれx、y、z軸まわりの回転を表す3×3の回転行列である。
ロボット座標系41とビジョン座標系42の相対位置姿勢を同次変換行列Hrv、ツール座標系43とマーカ座標系44の相対位置姿勢を同次変換行列Htpとする。また、3点それぞれの教示点におけるロボット座標系41とツール座標系43の相対位置姿勢を同次変換行列Hrt1、Hrt2、Hrt3とする。また、ビジョン座標系42とマーカ座標系44の相対位置姿勢を同次変換行列Hvp1、Hvp2、Hvp3とすると、次式で示す連立方程式が得られる。
Figure 2015042437
式(2)をHrvとHtpについて最適化計算で解くことによって、校正すべきロボット座標系41とビジョン座標系42の相対位置姿勢の同次変換行列Hrvを求めることができる。Htpは、ツール座標系43とマーカ座標系44の相対位置姿勢である。最適化計算においては、それに限らないが、最小二乗法などで解けることが知られている。
本実施形態の場合、上述のように、少なくとも3点の教示点のうちの2点が、マーカ21の光軸に対する傾きが同じで、且つ、光軸を法線とする同一平面Aの異なる位置に設定される。特に本実施形態では、マーカ21のドット22が形成されている面が、2点の教示点で同一平面A上に位置する。このため、カメラ3の計測誤差として光軸方向に大きい量子化誤差の影響を低減でき、ロボット座標系41とビジョン座標系42との校正の精度をより向上させられる。また、この校正の際には、正確な設計データが明らかな特別な治具を必要としないため、低コストで校正の精度をより向上させられる。
ここで、本実施形態の校正精度向上の原理を、図4を用いて簡単に示す。図4は、マーカ計測を例示した模式図であり、原理を説明するために簡略化した図である。まず、カメラ3の撮像面とマーカ21のドット間の距離を精度よく求めることを考える。カメラ3の焦点とドット間の距離Lは次式で計算される。
Figure 2015042437
ただし、fは焦点と撮像面との距離、dは2つのドット間距離、Xl、Xrは、それぞれカメラ3の撮像面に投影された2つのドット中心の画素位置である。
Xl、Xrは、カメラ3のセンサの画素位置であるため、量子化誤差がある。式(3)より、fは焦点と撮像面との距離であり定数なので、距離Lの分解能を大きく取るためには、2つのドット間距離dを大きく取る必要がある。従って、距離Lを精度良く計測するためには、2つのドット22とカメラ3の撮像面が平行である必要がある。
本実施形態の場合、2点の教示点、即ち、マーカ21の位置姿勢のうちの2点は、マーカ21の光軸に対する傾きが同じで、且つ、光軸を法線とする同一平面Aの異なる位置に設定されている。このため、2点の教示点は、カメラ3の撮像面と平行になるように設定される。例えば、マーカ21が光軸に対して傾いていても、言い換えれば、撮像面に対して傾いていても、マーカ21の各ドット22は、それぞれ撮像面に対して平行に移動することになる。従って、2点の教示点における各ドット22のそれぞれの関係は、撮像面と平行となるように設定される。
この結果、本実施形態では、2点の教示点が撮像面に対して平行でない場合よりも、2点の教示点の距離を大きくできる。そして、カメラ3の計測精度に影響を与える光軸方向に大きい量子化誤差を低減でき、ロボット座標系41とビジョン座標系42との校正の精度をより向上させられる。特に本実施形態のように、マーカ21のドット22が形成されている面が、2点の教示点で同一平面A上に位置すれば、カメラ3により各ドット22の計測精度が向上して、校正の精度をより向上させられる。
また、上述のように、各教示点で得られたロボット座標系41とツール座標系43の相対位置姿勢と、ビジョン座標系42とマーカ座標系44の相対位置姿勢から連立方程式を立てる。そして、それを最適化計算で解くことによって、ビジョン座標系42とロボット座標系41の相対位置姿勢を求める。その可解条件として、上述の2点に加え、これら2点以外の1点がこれら2点と異なる位置姿勢になければならない。従って、本実施形態では、上述の2点以外の1点は、マーカ21の光軸に対する傾きが上述の2点と異なるように設定している。これにより、連立方程式をビジョン座標系42とロボット座標系41の相対位置姿勢について解くための前記可解条件を満たすことができる。
以上より、カメラ3及びマーカ21を用いたロボット座標系41とビジョン座標系42との校正において、正確な設計データが明らかな特別な治具を必要とせず、かつ、その精度をより向上させることができる。
図5は、実施例と比較例とにおけるロボット座標系41とビジョン座標系42との校正誤差を示した図である。ここで、実施例とは、上述のように校正を行った場合である。一方、比較例とは、全ての教示点においてマーカ21とカメラ3の撮像面とが傾きを持つ場合、言い換えれば、全ての教示点でマーカ21の光軸に対する傾きが異なる場合である。図5から明らかなように、実施例では、比較例に対して校正誤差を半分程度小さくすることができた。
なお、校正で用いる教示点は、上記条件を満たす3点を含んでいれば3点に限定されるものでなく、3点以上設定してもよい。そのとき、それらの点で式(2)の関係を立て、その式を最小二乗法などの最適化計算により解くことで、校正すべきロボット座標系とビジョン座標系の相対位置姿勢を求めることができる。
<第2の実施形態>
本発明の第2の実施形態について、図6を用いて説明する。上述の第1の実施形態では、視覚センサとしてのカメラ3をロボット本体10とは別の位置に固定した構成について説明した。これに対して本実施形態では、視覚センサとしてのカメラ4をロボット本体10に設置している。また、校正を行うためのマーカ21は、ロボット本体10とは別の位置に固定されている。その他の構成については第1の実施形態と同様であるため、以下、第1の実施形態と異なる点を中心に説明する。
カメラ4は、アーム11の先端に装着され、ロボット本体10を動作させることにより、ロボット本体10の動作範囲内の任意の位置姿勢で位置決めすることができる。ビジョンコントローラ2には、カメラ4が接続されている。
ビジョンコントローラ2は、カメラ4を介して取り込まれた画像信号を、濃淡グレイスケールによる明暗信号に変換した上でフレームメモリに格納する。また、フレームメモリに格納された画像を処理し、対象物の識別、位置姿勢を計測し、処理した対象物の識別結果、および位置姿勢をロボットコントローラ1に送信する機能は、第1の実施形態と同様である。
カメラ4は、マーカ21等の対象物を撮影し、ビジョンコントローラ2に画像信号を送信する。カメラ4は、本実施形態でも単眼カメラを用いているが、3次元を計測できるセンサであれば良く、複眼カメラ、レーザレンジファインダ、或いは、それらの組合せでも良い。
校正治具20は、マーカ21を固定することができ、環境に固定される。例えば、基台13上の実際の作業時にワークが固定される位置に校正治具20を固定する。なお、校正治具20に対して、マーカ21がどこに固定されているかは既知でなくともよい。ここで用いるマーカ21は、第1の実施形態と同じである。
次に、本実施形態のロボットシステム100Aの校正方法について説明する。まず、校正で用いる3点の教示点の設定方法を述べる。第1の実施形態ではマーカ21の位置姿勢をロボット本体10で動作させていたのに対し、本実施形態ではカメラ4の位置姿勢をロボット本体10で動作させる。そのとき、カメラ4とマーカ21の相対位置姿勢は、前述の図3で示すような位置関係になるように教示点を設定する。設定の仕方は、第1の実施形態と同様である。
制御装置200は、上述の3点の教示点を得られるようにロボット本体10を動作させ、それぞれの教示点においてロボット座標系41とツール座標系43の相対位置姿勢と、ビジョン座標系42とマーカ座標系44の相対位置姿勢を得る。
ここで、ツール座標系43とビジョン座標系42の相対位置姿勢を同次変換行列Htv、ロボット座標系41とマーカ座標系44の相対位置姿勢を同次変換行列Hrpとする。また、3点それぞれの教示点におけるロボット座標系41とツール座標系43の相対位置姿勢を、同次変換行列Hrt1、Hrt2、Hrt3とする。また、ビジョン座標系42とマーカ座標系44の相対位置姿勢を同次変換行列Hvp1、Hvp2、Hvp3とすると、次式で示す連立方程式が得られる。
Figure 2015042437
そして、式(4)をHtvとHrpについて最適化計算で解くことによって、校正すべきツール座標系43とビジョン座標系42の相対位置姿勢の同次変換行列Htvを求めることができる。Hrpは、ロボット座標系41とマーカ座標系44の相対位置姿勢である。最適化計算においては、それに限らないが、最小二乗法などで解けることが知られている。ロボット座標系41とツール座標系43は、教示点の位置姿勢と同義なので、ツール座標系43とビジョン座標系42の相対位置姿勢の同次変換行列Htvを求めることで、ロボット座標系41とビジョン座標系42との校正を行える。
本実施形態の場合も、第1の実施形態と同様に、少なくとも3点の教示点のうちの2点が、マーカ21の光軸に対する傾きが同じで、且つ、光軸を法線とする同一平面の異なる位置に設定される。このため、ロボット座標系41(ツール座標系43)とビジョン座標系42との校正の精度をより向上させられる。即ち、カメラ4がロボット本体10に固定される構成であっても、第1の実施形態と同様にロボットシステム100Aの校正精度を向上させられる。また、この校正の際には、正確な設計データが明らかな特別な治具を必要としないため、低コストで校正の精度をより向上させられる。
<第3の実施形態>
本発明の第3の実施形態について、図1〜図3を援用して説明する。上述の第1の実施形態では、校正で用いる3点の教示点の位置姿勢は、平面A上でロボット本体10が狙いの位置姿勢を取り得ることが前提であった。これに対して本実施形態では、校正する平面Aの例えば下側に障害物(不図示)があり、校正で用いる3点の教示点のうち、少なくとも1点の教示点の位置姿勢を、平面A上でロボット本体10が取れないものとする。障害物の存在は、予め設定されたロボットシステム100のレイアウト情報によって既知のものとして認識してもよいし、あるいはカメラ3による撮影により認識してもよい。校正で用いる3点の教示点の設定方法以外は、第1の実施形態と同様であるため、以下、第1の実施形態と異なる点を中心に説明する。
校正で用いる3点の教示点の設定方法は、3点の教示点のうちの2点は、第1の実施形態と同様に、マーカ21のカメラ3の光軸(z軸)に対する傾きが同じで、且つ、光軸を法線とする同一平面Aの異なる位置に設定される。一方、第1の実施形態では、3点の教示点のうちの上述の2点以外の残りの1点は、マーカ21の光軸に対する傾きが上述の2点と異なるように設定された。しかし、第3の実施形態では、平面Aの下側に障害物があり、障害物と校正治具20とが干渉するため、教示点を設定することができない。そこで、教示点をカメラ3の光軸に沿った方向に僅かに平行移動させ、平面Aの上側で設定し、障害物と校正治具20との干渉を避ける。ここでの平行移動距離は、例えば2mm以内であれば、計測精度を大きく低下させることはないので好ましい。
このように、本実施形態では、校正で用いる3点の教示点のうち、少なくとも1点の教示点に対応する位置姿勢をロボット本体10が取れない場合、該教示点をカメラ3の光軸に沿った方向に平行移動させた点に教示点を設定するようになっている。そして、第1の実施形態の同様の校正工程を行うことにより、ロボット座標系41とビジョン座標系42との校正を行うことができる。
第3の実施形態によれば、校正で用いる教示点が障害物によって平面A内では取れない場合においても、校正作業時に取り得る姿勢の自由度が上がることで、ロボット座標系41とビジョン座標系42との校正を行うことができる。
また、上述した第1及び第2の実施形態では、3点の教示点の全てが同一平面Aの異なる位置に設定された場合について説明したが、これには限られない。例えば、本実施形態のように、3点の教示点のうちの2点の教示点が同一平面Aの異なる位置に設定され、残る1点の教示点は同一平面Aには存在しないようにしてもよい。この場合も、残る1点の教示点は、マーカ21の光軸に対する傾きが他の2点の教示点と異なるように設定する。
なお、以上に述べた第1〜第3の実施形態の各処理動作は、具体的には制御装置200により実行されるものである。従って、上述した機能を実現するソフトウェアのプログラムを記録した記録媒体を制御装置200に供給し、制御装置200のCPU31が記録媒体に格納されたプログラムを読み出し実行することによって達成されるようにしてもよい。この場合、記録媒体から読み出されたプログラム自体が上述した各実施の形態の機能を実現することになり、プログラム自体及びそのプログラムを記録した記録媒体は本発明を構成することになる。
また、各実施の形態では、コンピュータで読み取り可能な記録媒体がROM32或いはRAM33であり、ROM32或いはRAM33にプログラムが格納される場合について説明したが、これに限定するものではない。プログラムは、コンピュータ読み取り可能な記録媒体であれば、いかなる記録媒体に記録されていてもよい。例えば、プログラムを供給するための記録媒体としては、HDD、外部記憶装置、記録ディスク等を用いてもよい。
1…ロボットコントローラ、2…ビジョンコントローラ、3,4…カメラ(視覚センサ)、10…ロボット本体、20…校正治具、21…マーカ、22…ドット、31…CPU(コンピュータ)、32…ROM(記録媒体)、33…RAM(記録媒体)、41…ロボット座標系、42…ビジョン座標系、43…ツール座標系、44…マーカ座標系、100,100A…ロボットシステム、200…制御装置

Claims (13)

  1. ワークに対して動作を行うロボット本体と、
    視覚センサと、
    前記ロボット本体の位置姿勢を制御すると共に、前記視覚センサによる計測値を利用してワークの位置姿勢を算出する制御装置と、を備え、
    前記制御装置は、前記視覚センサによるマーカの計測を実行することで、前記ロボット本体の位置姿勢を定義するロボット座標系と、前記視覚センサの位置姿勢を定義するビジョン座標系と、の校正を行う際に、校正範囲に設定された少なくとも3点の教示点の前記ロボット座標系での位置と前記ビジョン座標系での位置とから校正値を算出し、
    前記3点の教示点のうちの2点は、前記マーカの前記視覚センサの光軸に対する傾きが同じで、且つ、光軸を法線とする同一平面の異なる位置に設定され、
    前記3点の教示点のうちの前記2点以外の1点は、前記マーカの光軸に対する傾きが前記2点と異なるように設定される、
    ことを特徴とするロボットシステム。
  2. 前記制御装置は、前記ロボット本体により、前記マーカを前記3点の教示点に動作させ、
    前記視覚センサは、固定位置から前記マーカの位置を計測する、
    ことを特徴とする請求項1記載のロボットシステム。
  3. 前記マーカは、前記ロボット本体とは別の位置に固定され、
    前記視覚センサは、前記ロボット本体に設置され、
    前記制御装置は、ロボット本体を、固定された前記マーカに対して前記3点の教示点を得られるように動作させる、
    ことを特徴とする請求項1記載のロボットシステム。
  4. 前記制御装置は、前記光軸と平行な軸を中心として前記マーカと前記視覚センサとを相対的に第1所定角度α回転させることで前記同一平面の異なる位置に前記2点の教示点を、前記軸に対して前記マーカと前記視覚センサとを相対的に第2所定角度β回転させることで前記2点以外の1点の教示点を、それぞれ得られるように前記ロボット本体を動作させる、
    ことを特徴とする請求項1乃至3のいずれか1項に記載のロボットシステム。
  5. 前記第1所定角度αは、0°<α<180°である、
    ことを特徴とする請求項4記載のロボットシステム。
  6. 前記第2所定角度βは、5°≦β≦10°である、
    ことを特徴とする請求項4又は5に記載のロボットシステム。
  7. ワークに対して動作を行うロボット本体と、視覚センサと、前記ロボット本体の位置姿勢を制御すると共に、前記視覚センサによる計測値を利用してワークの位置姿勢を算出する制御装置と、を備えたロボットシステムによって、前記ロボット本体の位置姿勢を定義するロボット座標系と、前記視覚センサの位置姿勢を定義するビジョン座標系との校正を行うロボットシステムの校正方法であって、
    前記制御装置は、校正範囲に設定された少なくとも3点の教示点を得られるように前記ロボット本体を動作させる動作工程と、
    前記視覚センサによるマーカの計測を実行することで、少なくとも前記3点の教示点の前記ロボット座標系での前記ロボット本体の位置と前記ビジョン座標系での前記マーカの位置とから校正値を算出する校正工程と、を備え、
    前記3点の教示点のうちの2点は、前記マーカの前記視覚センサの光軸に対する傾きが同じで、且つ、光軸を法線とする同一平面の異なる位置に設定され、
    前記3点の教示点のうちの前記2点以外の1点は、前記マーカの光軸に対する傾きが前記2点と異なるように設定される、
    ことを特徴とするロボットシステムの校正方法。
  8. 前記動作工程は、前記光軸と平行な軸を中心として前記マーカと前記視覚センサとを相対的に第1所定角度α回転させることで前記同一平面の異なる位置に前記2点の教示点を、前記軸に対して前記マーカと前記視覚センサとを相対的に第2所定角度β回転させることで前記2点以外の1点の教示点を、それぞれ得られるように前記ロボット本体を動作させる、
    ことを特徴とする請求項7記載のロボットシステムの校正方法。
  9. 前記第1所定角度αは、0°<α<180°である、
    ことを特徴とする請求項8記載のロボットシステムの校正方法。
  10. 前記第2所定角度βは、5°≦β≦10°である、
    ことを特徴とする請求項8又は9に記載のロボットシステムの校正方法。
  11. 校正で用いる前記3点の教示点のうち、少なくとも1点の教示点に対応する位置姿勢をロボット本体が取れない場合、該教示点を前記視覚センサの光軸に沿った方向に平行移動させた点に教示点を設定する、
    ことを特徴とする請求項7乃至10のいずれか1項に記載のロボットシステムの校正方法。
  12. 請求項7乃至11のいずれか1項に記載のロボットシステムの校正方法の各工程を前記制御装置に実行させるためのプログラム。
  13. 請求項12に記載のロボットシステムの校正方法をコンピュータに実行させるためのプログラムが記録されたコンピュータが読み取り可能な記録媒体。
JP2014141984A 2013-07-22 2014-07-10 ロボットシステム及びロボットシステムの校正方法 Active JP6468741B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014141984A JP6468741B2 (ja) 2013-07-22 2014-07-10 ロボットシステム及びロボットシステムの校正方法

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2013151718 2013-07-22
JP2013151718 2013-07-22
JP2014141984A JP6468741B2 (ja) 2013-07-22 2014-07-10 ロボットシステム及びロボットシステムの校正方法

Publications (2)

Publication Number Publication Date
JP2015042437A true JP2015042437A (ja) 2015-03-05
JP6468741B2 JP6468741B2 (ja) 2019-02-13

Family

ID=52344208

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014141984A Active JP6468741B2 (ja) 2013-07-22 2014-07-10 ロボットシステム及びロボットシステムの校正方法

Country Status (2)

Country Link
US (1) US9517560B2 (ja)
JP (1) JP6468741B2 (ja)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016187844A (ja) * 2015-03-30 2016-11-04 セイコーエプソン株式会社 ロボット、ロボット制御装置およびロボットシステム
JP2017052015A (ja) * 2015-09-07 2017-03-16 セイコーエプソン株式会社 制御装置、ロボットおよびロボットシステム
JP2017077609A (ja) * 2015-10-21 2017-04-27 ファナック株式会社 ロボットの手首部の機構パラメータを校正する校正装置および校正方法
KR20170087996A (ko) * 2016-01-21 2017-08-01 현대로보틱스주식회사 로봇의 캘리브레이션 장치 및 그 방법
JP2019014031A (ja) * 2017-07-11 2019-01-31 セイコーエプソン株式会社 ロボットの制御装置、ロボット、ロボットシステム、並びに、ロボット用カメラの校正方法
JP2019014030A (ja) * 2017-07-11 2019-01-31 セイコーエプソン株式会社 ロボットの制御装置、ロボット、ロボットシステム、並びに、カメラの校正方法
CN110834322A (zh) * 2018-08-16 2020-02-25 株式会社三丰 具有辅助测量位置坐标确定***的机器人***
CN110834320A (zh) * 2018-08-16 2020-02-25 株式会社三丰 与机器人一起使用的辅助测量位置坐标确定***
CN110936373A (zh) * 2018-09-24 2020-03-31 株式会社三丰 具有端部工具计量位置坐标确定***的机器人***
JP2020116734A (ja) * 2019-01-28 2020-08-06 コグネックス・コーポレイション ロボットモーション用のビジョンシステムの自動ハンドアイ校正のためのシステム及び方法
CN112607394A (zh) * 2020-12-18 2021-04-06 如东联亿机电有限公司 一种基于视觉定位的机器人上料***及其上料方法
WO2022224358A1 (ja) * 2021-04-20 2022-10-27 ファナック株式会社 ロボット
US11745354B2 (en) 2018-08-16 2023-09-05 Mitutoyo Corporation Supplementary metrology position coordinates determination system including an alignment sensor for use with a robot

Families Citing this family (52)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6335460B2 (ja) * 2013-09-26 2018-05-30 キヤノン株式会社 ロボットシステムの制御装置及び指令値生成方法、並びにロボットシステムの制御方法
US10198865B2 (en) 2014-07-10 2019-02-05 Seiko Epson Corporation HMD calibration with direct geometric modeling
JP6415190B2 (ja) * 2014-09-03 2018-10-31 キヤノン株式会社 ロボット装置、ロボット制御プログラム、記録媒体、およびロボット装置の制御方法
JP6416560B2 (ja) * 2014-09-11 2018-10-31 株式会社デンソー 位置決め制御装置
US10179407B2 (en) * 2014-11-16 2019-01-15 Robologics Ltd. Dynamic multi-sensor and multi-robot interface system
CN107073719B (zh) * 2014-11-21 2020-07-28 精工爱普生株式会社 机器人和机器人***
US9857786B2 (en) 2015-03-31 2018-01-02 Recognition Robotics, Inc. System and method for aligning a coordinated movement machine reference frame with a measurement system reference frame
JP2016221645A (ja) * 2015-06-02 2016-12-28 セイコーエプソン株式会社 ロボット、ロボット制御装置およびロボットシステム
US10192133B2 (en) 2015-06-22 2019-01-29 Seiko Epson Corporation Marker, method of detecting position and pose of marker, and computer program
US10192361B2 (en) 2015-07-06 2019-01-29 Seiko Epson Corporation Head-mounted display device and computer program
WO2017055955A1 (en) * 2015-09-29 2017-04-06 Koninklijke Philips N.V. Automatic robotic arm calibration to camera system using a laser
FR3043004B1 (fr) * 2015-10-29 2017-12-22 Airbus Group Sas Procede d'orientation d'un effecteur portant un outil d'assemblage par rapport a une surface
US10424117B2 (en) 2015-12-02 2019-09-24 Seiko Epson Corporation Controlling a display of a head-mounted display device
CN108463313A (zh) * 2016-02-02 2018-08-28 Abb瑞士股份有限公司 机器人***校准
CN105798909B (zh) * 2016-04-29 2018-08-03 上海交通大学 基于激光与视觉的机器人零位标定***与方法
CN106166742A (zh) * 2016-07-29 2016-11-30 北海明杰科技有限公司 一种具有拾取芯片的机械拾取装置
DE102016216196A1 (de) * 2016-08-29 2018-03-01 Robert Bosch Gmbh Sensoranlage mit einer optischen Sensoreinheit und eine Automatisierungsanlage
US10076842B2 (en) 2016-09-28 2018-09-18 Cognex Corporation Simultaneous kinematic and hand-eye calibration
EP3321043A3 (en) 2016-11-10 2018-10-10 Canon Kabushiki Kaisha Method of controlling holding apparatus, holding apparatus, and robot apparatus
JP2018094654A (ja) * 2016-12-09 2018-06-21 セイコーエプソン株式会社 制御装置、ロボットおよびロボットシステム
JP6922204B2 (ja) * 2016-12-09 2021-08-18 セイコーエプソン株式会社 制御装置、ロボットおよびロボットシステム
JP6396516B2 (ja) 2017-01-12 2018-09-26 ファナック株式会社 視覚センサのキャリブレーション装置、方法及びプログラム
US11679507B2 (en) * 2017-04-26 2023-06-20 Hewlett-Packard Development Company, L.P. Robotic structure calibrations
WO2018212226A1 (ja) * 2017-05-17 2018-11-22 Telexistence株式会社 制御装置、ロボット制御方法及びロボット制御システム
CN108943014A (zh) * 2017-05-19 2018-12-07 王恒升 一种重型6自由度机械臂各关节传感器的现场标定方法
TWI668541B (zh) 2017-09-29 2019-08-11 財團法人工業技術研究院 機器人工具中心點校正系統及其方法
WO2019095045A1 (en) 2017-11-20 2019-05-23 Kindred Systems Inc. Systems, devices, articles, and methods for calibration of rangefinders and robots
CN107730581A (zh) * 2017-11-25 2018-02-23 广东惠利普路桥信息工程有限公司 一种生产线三维展示***
DE112019004129T5 (de) * 2018-08-16 2021-05-12 Mitutoyo Corporation Zusatzmesstechnik-Positionskoordinatenbestimmungssystem, das einen Ausrichtungssensor zur Verwendung mit einem Roboter enthält
CN109732601B (zh) * 2019-01-04 2021-08-13 上海交通大学 一种自动标定机器人位姿与相机光轴垂直的方法和装置
KR102577448B1 (ko) * 2019-01-22 2023-09-12 삼성전자 주식회사 핸드 아이 캘리브레이션 방법 및 시스템
EP3927497A1 (en) * 2019-02-22 2021-12-29 ABB Schweiz AG Delta robot calibration methods, control system, delta robot and robot system
US10369698B1 (en) * 2019-03-07 2019-08-06 Mujin, Inc. Method and system for performing automatic camera calibration for robot control
US10906184B2 (en) * 2019-03-29 2021-02-02 Mujin, Inc. Method and control system for verifying and updating camera calibration for robot control
US10399227B1 (en) 2019-03-29 2019-09-03 Mujin, Inc. Method and control system for verifying and updating camera calibration for robot control
CN110017852B (zh) * 2019-04-25 2023-03-21 广东省智能机器人研究院 一种导航定位误差测量方法
CN110243376A (zh) * 2019-06-28 2019-09-17 湖南三一快而居住宅工业有限公司 一种室内定位方法以及室内定位***
US20220258352A1 (en) * 2019-07-19 2022-08-18 Siemens Ltd., China Robot hand-eye calibration method and apparatus, computing device, medium and product
CN110345869A (zh) * 2019-08-08 2019-10-18 江苏汇博机器人技术股份有限公司 一种用于技能鉴定实训的机器人手眼标定精度鉴定***
KR102220173B1 (ko) * 2019-11-01 2021-02-25 주식회사 뉴로메카 로봇 비전 시스템을 위한 자동 캘리브레이션 방법 및 장치
CN111054841A (zh) * 2019-12-26 2020-04-24 芜湖哈特机器人产业技术研究院有限公司 冲压件自动上料方法
CN111089569B (zh) * 2019-12-26 2021-11-30 中国科学院沈阳自动化研究所 一种基于单目视觉的大型箱体测量方法
TWI754888B (zh) * 2020-01-21 2022-02-11 財團法人工業技術研究院 校準方法及校準系統
US20210291376A1 (en) * 2020-03-18 2021-09-23 Cognex Corporation System and method for three-dimensional calibration of a vision system
US11584013B2 (en) 2020-03-31 2023-02-21 Wipro Limited System, device and method for determining error in robotic manipulator-to-camera calibration
CN112171666B (zh) * 2020-09-15 2022-04-01 深圳市商汤科技有限公司 视觉机器人的位姿标定方法及装置、视觉机器人、介质
JP2022065646A (ja) * 2020-10-15 2022-04-27 株式会社ミツトヨ 補足計測位置決定システムを用いたロボットシステム
US11912513B1 (en) * 2021-04-14 2024-02-27 Amazon Technologies, Inc. Robotic system camera calibration and localization using robot-mounted registered patterns
EP4094897B1 (de) * 2021-05-26 2023-09-20 MVTec Software GmbH Hand-auge-kalibrierung von kamerageführten apparaturen
CN113199486B (zh) * 2021-06-01 2021-12-03 北京长木谷医疗科技有限公司 机械臂法兰物理原点的标定方法、装置及电子设备
CN113787515B (zh) * 2021-08-12 2023-06-02 佛山缔乐视觉科技有限公司 一种基于移动机器人的上下料方法、装置及存储介质
CN113607066B (zh) * 2021-08-16 2023-09-12 上海发那科机器人有限公司 一种激光位移传感器的光轴坐标系的标定方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010188439A (ja) * 2009-02-16 2010-09-02 Mitsubishi Electric Corp パラメータ算出方法及びパラメータ算出装置
JP2012091280A (ja) * 2010-10-27 2012-05-17 Mitsubishi Electric Corp 座標系校正方法及びロボットシステム

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6163946A (en) * 1981-05-11 2000-12-26 Great Lakes Intellectual Property Vision target based assembly
JP2700965B2 (ja) 1991-07-04 1998-01-21 ファナック株式会社 自動キャリブレーション方式
JP3644991B2 (ja) 1994-11-08 2005-05-11 ファナック株式会社 ロボット−センサシステムにおける座標系結合方法
JP4794708B2 (ja) * 1999-02-04 2011-10-19 オリンパス株式会社 3次元位置姿勢センシング装置
JP4021413B2 (ja) * 2004-01-16 2007-12-12 ファナック株式会社 計測装置
DE102004021892B4 (de) * 2004-05-04 2010-02-04 Amatec Robotics Gmbh Robotergeführte optische Messanordnung sowie Verfahren und Hilfsvorrichtung zum Einmessen dieser Messanordnung
JP4757142B2 (ja) * 2006-08-10 2011-08-24 キヤノン株式会社 撮影環境校正方法及び情報処理装置
US8055466B2 (en) * 2007-03-30 2011-11-08 Mitutoyo Corporation Global calibration for stereo vision probe
WO2009059323A1 (en) * 2007-11-01 2009-05-07 Rimrock Automation, Inc. Dba Wolf Robotics A method and system for finding a tool center point for a robot using an external camera
JP4418841B2 (ja) * 2008-01-24 2010-02-24 キヤノン株式会社 作業装置及びその校正方法
JP5509645B2 (ja) * 2009-03-25 2014-06-04 富士ゼロックス株式会社 位置・姿勢認識方法、部品把持方法、部品配置方法、部品組立方法、位置・姿勢認識装置、部品把持装置、部品配置装置、および部品組立装置
JP2011209064A (ja) * 2010-03-29 2011-10-20 Fuji Xerox Co Ltd 物品認識装置及びこれを用いた物品処理装置
TWI408037B (zh) * 2010-12-03 2013-09-11 Ind Tech Res Inst 機械手臂的定位方法及校正方法
US9188973B2 (en) * 2011-07-08 2015-11-17 Restoration Robotics, Inc. Calibration and transformation of a camera system's coordinate system
JP5670416B2 (ja) * 2012-12-28 2015-02-18 ファナック株式会社 ロボットシステム表示装置
JP6335460B2 (ja) * 2013-09-26 2018-05-30 キヤノン株式会社 ロボットシステムの制御装置及び指令値生成方法、並びにロボットシステムの制御方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010188439A (ja) * 2009-02-16 2010-09-02 Mitsubishi Electric Corp パラメータ算出方法及びパラメータ算出装置
JP2012091280A (ja) * 2010-10-27 2012-05-17 Mitsubishi Electric Corp 座標系校正方法及びロボットシステム

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016187844A (ja) * 2015-03-30 2016-11-04 セイコーエプソン株式会社 ロボット、ロボット制御装置およびロボットシステム
JP2017052015A (ja) * 2015-09-07 2017-03-16 セイコーエプソン株式会社 制御装置、ロボットおよびロボットシステム
US10189161B2 (en) 2015-10-21 2019-01-29 Fanuc Corporation Calibration system and calibration method calibrating mechanical parameters of wrist part of robot
JP2017077609A (ja) * 2015-10-21 2017-04-27 ファナック株式会社 ロボットの手首部の機構パラメータを校正する校正装置および校正方法
KR102314092B1 (ko) * 2016-01-21 2021-10-19 현대중공업지주 주식회사 로봇의 캘리브레이션 장치 및 그 방법
KR20170087996A (ko) * 2016-01-21 2017-08-01 현대로보틱스주식회사 로봇의 캘리브레이션 장치 및 그 방법
JP2019014030A (ja) * 2017-07-11 2019-01-31 セイコーエプソン株式会社 ロボットの制御装置、ロボット、ロボットシステム、並びに、カメラの校正方法
JP2019014031A (ja) * 2017-07-11 2019-01-31 セイコーエプソン株式会社 ロボットの制御装置、ロボット、ロボットシステム、並びに、ロボット用カメラの校正方法
CN110834320B (zh) * 2018-08-16 2023-02-24 株式会社三丰 与机器人一起使用的辅助测量位置坐标确定***
CN110834320A (zh) * 2018-08-16 2020-02-25 株式会社三丰 与机器人一起使用的辅助测量位置坐标确定***
CN110834322A (zh) * 2018-08-16 2020-02-25 株式会社三丰 具有辅助测量位置坐标确定***的机器人***
CN110834322B (zh) * 2018-08-16 2023-02-28 株式会社三丰 具有辅助测量位置坐标确定***的机器人***
US11745354B2 (en) 2018-08-16 2023-09-05 Mitutoyo Corporation Supplementary metrology position coordinates determination system including an alignment sensor for use with a robot
CN110936373A (zh) * 2018-09-24 2020-03-31 株式会社三丰 具有端部工具计量位置坐标确定***的机器人***
CN110936373B (zh) * 2018-09-24 2023-02-28 株式会社三丰 具有端部工具计量位置坐标确定***的机器人***
JP2020116734A (ja) * 2019-01-28 2020-08-06 コグネックス・コーポレイション ロボットモーション用のビジョンシステムの自動ハンドアイ校正のためのシステム及び方法
US11911914B2 (en) 2019-01-28 2024-02-27 Cognex Corporation System and method for automatic hand-eye calibration of vision system for robot motion
CN112607394A (zh) * 2020-12-18 2021-04-06 如东联亿机电有限公司 一种基于视觉定位的机器人上料***及其上料方法
WO2022224358A1 (ja) * 2021-04-20 2022-10-27 ファナック株式会社 ロボット

Also Published As

Publication number Publication date
US20150025683A1 (en) 2015-01-22
US9517560B2 (en) 2016-12-13
JP6468741B2 (ja) 2019-02-13

Similar Documents

Publication Publication Date Title
JP6468741B2 (ja) ロボットシステム及びロボットシステムの校正方法
JP6429473B2 (ja) ロボットシステム、ロボットシステムの校正方法、プログラム、およびコンピュータ読み取り可能な記録媒体
JP7237483B2 (ja) ロボットシステムの制御方法、制御プログラム、記録媒体、制御装置、ロボットシステム、物品の製造方法
JP6108860B2 (ja) ロボットシステム及びロボットシステムの制御方法
JP4021413B2 (ja) 計測装置
JP3946711B2 (ja) ロボットシステム
JP6489776B2 (ja) 座標系校正方法、ロボットシステム、プログラム及び記録媒体
JP6855492B2 (ja) ロボットシステム、ロボットシステム制御装置、およびロボットシステム制御方法
JP4191080B2 (ja) 計測装置
CN111300481B (zh) 基于视觉及激光传感器的机器人抓取位姿纠正方法
JP5321532B2 (ja) ロボットキャリブレーション装置及びキャリブレーション方法
JP5670416B2 (ja) ロボットシステム表示装置
JP6661028B2 (ja) 作業位置補正方法
US20160288333A1 (en) Robot, robot control device, and robotic system
JP2015066603A (ja) ロボット校正装置及びロボット校正方法、並びにロボット装置及びロボット装置の制御方法
JP2009269110A (ja) 組立装置
JP5618770B2 (ja) ロボットの校正装置および校正方法
JP2019069493A (ja) ロボットシステム
CN107953333B (zh) 一种机械手末端工具标定的控制方法及***
KR20080088165A (ko) 로봇 캘리브레이션 방법
JP2019000923A (ja) 多関節ロボットの機構モデルパラメータ推定方法
CN109531604B (zh) 进行校准的机器人控制装置、测量***以及校准方法
JP2006297559A (ja) キャリブレーションシステムおよびロボットのキャリブレーション方法
WO2023013740A1 (ja) ロボット制御装置、ロボット制御システム、及びロボット制御方法
JP2016203282A (ja) エンドエフェクタの姿勢変更機構を備えたロボット

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170706

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180510

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180522

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180723

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181218

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190115

R151 Written notification of patent or utility model registration

Ref document number: 6468741

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151