JP5371927B2 - 座標系校正方法及びロボットシステム - Google Patents

座標系校正方法及びロボットシステム Download PDF

Info

Publication number
JP5371927B2
JP5371927B2 JP2010241016A JP2010241016A JP5371927B2 JP 5371927 B2 JP5371927 B2 JP 5371927B2 JP 2010241016 A JP2010241016 A JP 2010241016A JP 2010241016 A JP2010241016 A JP 2010241016A JP 5371927 B2 JP5371927 B2 JP 5371927B2
Authority
JP
Japan
Prior art keywords
robot
observation
mark
coordinate system
visual sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010241016A
Other languages
English (en)
Other versions
JP2012091280A (ja
Inventor
晴久 奥田
幸康 堂前
靖雄 北明
慎二郎 川戸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2010241016A priority Critical patent/JP5371927B2/ja
Publication of JP2012091280A publication Critical patent/JP2012091280A/ja
Application granted granted Critical
Publication of JP5371927B2 publication Critical patent/JP5371927B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Numerical Control (AREA)
  • Manipulator (AREA)

Description

本発明は、ロボットと視覚センサとを組み合わせたロボットシステムの座標系校正方法に関するものである。
従来、ロボットと視覚センサとを組み合わせたシステムにおいて、視覚センサの設置形態の一つにハンドアイと呼ばれる方式が提案されている。ロボットの手先部(フランジ)に視覚センサを固定し、視覚センサにロボットの手先部と同一の動きをさせるもので、視覚センサの数を増やすことなく複数の位置での計測が可能なことから、コスト面や作業スペース節約の面から効果が大きい。
ハンドアイ方式を採用したシステムにおいては、視覚センサを用いて対象物の位置を計測し、それに基づいてロボットの動作(位置)を補正する。そのためには、視覚センサによって得られる対象物の位置データをロボットが動作する座標系上のデータに変換する必要がある。すなわち、視覚センサの座標系(センサ座標系)と、ロボットが動作する座標系(ロボット座標系)の間の関係を情報として求めておく必要がある。
一般に、ロボットアームの先端には、各種ツールを取付けるフランジが設けられている。そして、このフランジに定義されている座標系(フランジ座標系/手先座標系)をロボット座標系に変換するパラメータ(回転行列と並進ベクトル)が、ロボットコントローラの記憶部に記憶されている。したがって、このフランジに視覚センサが取付けられた場合には、視覚センサの座標系つまりセンサ座標系をフランジ座標系に変換するパラメータを校正すればよい。これにより、視覚センサで検出した対象物のセンサ座標系をフランジ座標系に変換し、さらにそれをロボット座標系に変換することができる。
下記の特許文献1は、視覚センサがロボットのアーム先端に取り付けられている場合の校正方法に関するものである。同一平面上に視覚センサが検出可能なマークを4つ以上設けて、ロボットの制御点をマークに位置決めすることによりマークのロボット座標を取得する。一方、ロボットの手先を所定位置に固定して視覚センサでマークを検出することでマークのセンサ座標を取得する。その後、一定の評価により3つのマークを選択し、3つのマークのロボット座標とセンサ座標の対応関係から両座標系の関係を決定する。
また、下記の非特許文献1は、視覚センサがロボットのアーム先端に取り付けられている場合の校正方法に関するものである。この文献では座標系の回転と並進を4×4の行列で表現する方法を用いているが、アーム先端の姿勢すなわち視覚センサの姿勢を変えて2方向から校正用マークを観測すると、センサ座標系のXをフランジ座標系に変換する行列として、AX=XBという形式の方程式が成立することを示している。ここでAは校正用マークを視覚センサで検出したときのアームの2通りの姿勢に関する行列で、ロボットコントローラの出力から得られる。一方Bはアームの各姿勢のときに視覚センサで検出された校正用マークのセンサ系座標に関する行列で、校正用マークの検出結果から得られる。そして、この方程式をいかに解いて行列Xを求めるかということがこの文献の主題になっている。ここで、行列Bを得るためには同一平面にはない校正用マークが少なくとも4点必要である。
さらに、下記の非特許文献2は、ロボットの手先に取り付けられた視覚センサで、ロボット座標系に固定されたただ一つのマークを、ロボットの手先の位置・姿勢を変化させてさまざまな方向(一つの実験例では27方向)から観測し、その観測データを用いて非線形最適化手法による複雑なアルゴリズムでロボットの手先の座標系とセンサの座標系の関係を計算している。
特許第3541980号公報
Y. Shiu and S. Ahmad: "Calibration of Wrist-Mounted Robotic Sensors by Solving Homogeneous Transform Equations of the Form AX = XB", IEEE Trans. on Robotics and Automation, vol. 5, no. 1, pp.16-29, August 1989. 川端聡, 永田和之, 河井良浩:"環境に固定されたマーカを用いたハンドアイキャリブレーション", 「画像認識・理解シンポジウム(MIRU2009)」,pp.825−832, 2009年7月
しかしながら、上記特許文献1に開示された校正方法は、視覚センサがロボットのアーム先端に取り付けられている場合の校正方法において、視覚センサが検出可能なマークを同一平面上に4つ以上設けて、ロボットの制御点をマークに位置決めすることによりマークのロボット座標を取得するものであり、校正用マークが4点以上必要であるので、コストが増えるという問題があった。
また、上記非特許文献1に開示された校正方法は、同一平面にない、すなわち3次元的に配置された校正用マークが4点以上必要であり、それらは2方向から同時に精度よく視覚センサによって検出可能とされていなければならない。そのため、形状と配置に工夫が必要で、その製作にコストと時間を要する、という問題があった。
また、非特許文献2に開示された校正方法は、校正用マークはただ一つでよいが、非常に多数の方向からマークを観測する必要があり、また非線形最適化手法を用いているので、計算が真値に収束する保証がない、という問題があった。
本発明は、上記に鑑みてなされたものであって、ロボットと、ロボットの手先に固定された視覚センサを組み合わせたロボットシステムにおいて、ロボットの手先座標系と視覚センサのセンサ座標系の相対的な関係を記述する関連情報(回転行列と並進ベクトル)を、容易にまた安価に校正することができる座標系校正方法及びロボットシステムを提供することを目的とする。
上述した課題を解決し、目的を達成するために、本発明の座標系校正方法は、ロボットと、ロボットの手先に固定された視覚センサを組み合わせたシステムにおいて、記憶部に記憶されたロボットの手先座標系と視覚センサのセンサ座標系の相対的な関係を記述する関連情報を校正する方法であり、前記関連情報は、回転行列と並進ベクトルとを含み、ロボットのロボット座標系に一つのマークを配置し、視覚センサを取り付けたロボットの手先を移動させて、マークに向けた視覚センサの姿勢を変えずに平行移動させた少なくとも第1から第3の3箇所の観測箇所と、マークに対して第1から第3の3箇所の観測方向と異なる方向でかつ相互に異なる方向からマークを臨む少なくとも第4及び第5の観測箇所で、マークの観測を行い、各観測箇所の画像を画像処理してマーク位置認識データを得て、各観測箇所でのロボットの姿勢データとマーク位置認識データとを対応づけて取得し、前記第1から第3の観測箇所での姿勢データとマーク位置認識データとの対応関係に基づいて前記回転行列を校正し、前記第1から第3の観測箇所のうちの一つと、前記第4及び第5の観測箇所と、での姿勢データとマーク位置認識データとの対応関係に基づいて前記並進ベクトルを校正する、ことを特徴とする。
上述した課題を解決し、目的を達成するために、本発明のロボットシステムは、ロボットと、ロボットの手先に固定された視覚センサと、視覚センサの画像処理を行う画像処理装置と、ロボットを動作させるロボット動作手段と、ロボットの手先座標系と視覚センサのセンサ座標系の相対的な関係を記述する関連情報を記憶する記憶部と、関連情報を校正する演算部とを備え、ロボットのロボット座標系に一つのマークが配置されており、ロボット動作手段は、視覚センサを取り付けたロボットの手先を、マークに向けた視覚センサの姿勢を変えずに平行移動させた少なくとも第1から第3の3箇所の観測箇所と、マークに対して第1から第3の3箇所の観測方向と異なる方向でかつ相互に異なる方向の少なくとも第4及び第5の観測箇所に移動させ、画像処理装置は、各観測箇所の視覚センサの画像を画像処理してマーク位置認識データを出力し、演算部は、各観測箇所でのロボットの姿勢データとマーク位置認識データとを対応づけて取得し、このデータに基づいて関連情報を校正することを特徴とする。
本発明によれば、ロボットの手先座標系と視覚センサのセンサ座標系の相対的な関係を記述する関連情報を、容易にまた安価に校正することができる、という効果を奏する。
図1は、実施の形態1のロボットシステムを示す模式図である。 図2は、5箇所の観測位置の位置と姿勢を表す概念図である。 図3は、各観測位置におけるマークの観測画像である。 図4は、実施の形態3のロボットシステムを示す模式図である。
以下に、本発明にかかる座標系校正方法及びロボットシステムの実施の形態を図面に基づいて詳細に説明する。なおこの実施の形態によりこの発明が限定されるものではない。
実施の形態1.
本実施の形態1においては、視覚センサが位置認識可能である一つのマークをロボットの座標系に配置し、視覚センサを取り付けたロボットの手先を制御して、少なくとも3箇所の視覚センサの姿勢が同じでかつ異なる観測位置に移動(つまり平行移動のみ)させ、また少なくとも3箇所の視覚センサの姿勢が互いに異なる方向から該マークを観測する観測位置に移動させてマークを観測し、各マーク観測箇所でのロボットの姿勢のデータと視覚システムによるマーク位置認識データとを対応づけて取得し、そのデータに基づいてロボットの手先の座標系と視覚センサの座標系の関係を表す関連情報(パラメータ)を校正する。
用意する校正用マークは一つでよく、その配置位置の座標は未知でよい。マークの観測位置は5箇所でたり、そのうち3箇所は視覚センサを平行移動させた位置でよいので、安価で、容易にロボットの手先の座標系とセンサ座標系の間の関係を校正することができる。計算は連立方程式を解いて行われるが解析的に解を求めることができるので、非線形最適化アルゴリズムのように真値に収束するか否の心配がない。
図1は、実施の形態1のロボットシステムを示す模式図である。図1において、本実施の形態1のロボットシステム101は、ロボット30、ロボットコントローラ31、手動操作パネル37、画像処理装置21、視覚センサ20を含んで構成されている。ロボットコントローラ31には、ロボット30と画像処理装置21と手動操作パネル37が接続されている。
ロボット30は、6自由度の多関節ロボットであり、ロボットアームの先端には、フランジ32が設けられている。このフランジ32には作業用のツールとして例えばロボットハンド等が装着されるが図1では省略している。そして、このフランジ32には、ロボットハンド等のツールと並んで視覚センサ20が取り付けられている。
一般にロボット座標系35の原点は、ロボット30の基部の底面にあり、Z軸を垂直方向にとって定義される。図1ではこのロボット座標系35を便宜上少しずらして描いている。フランジ座標系(手先座標系)36は、ロボット30の手先のフランジ32に定義された座標系で、同様に図1では便宜上少しずらして描いている。フランジ座標系(手先座標系)36の位置と姿勢はロボットコントローラ31が制御している。ロボット座標系35内に唯一つの校正用マークが配置されており、その座標位置は未知である。
視覚センサ20を用いて対象物の位置を計測し、それに基づいてロボット30の動作をさせるために、視覚センサ20によって得られる対象物の位置データをロボット30が動作する座標系上のデータに変換する。つまり、視覚センサ20の座標系(これを「センサ座標系25」と言う)と、ロボット30が動作する座標系(これを「ロボット座標系35」と言う)の間の関係を予め求める。ロボットアーム先端のフランジ32に定義されているフランジ座標系(手先座標系)36をロボット座標系35に変換するパラメータが、ロボットコントローラ31の記憶部31cにあらかじめ記憶されている。そして、このフランジ32に視覚センサ20が取付けられているので、センサ座標系25をフランジ座標系36に変換するパラメータ(回転行列と並進ベクトル)を校正すればよい。これにより、視覚センサ20で検出したマーク10のセンサ座標系25をフランジ座標系36に変換し、さらにそれをロボット座標系35に変換することができる。
ロボットコントローラ31は、マイクロプロセッサからなる中央演算処理装置(CPU)と、CPUにバス結合されたROMメモリ、RAMメモリ、不揮発性メモリ、ロボットの軸制御のためのディジタルサーボ回路と、サーボアンプ、外部信号の入出力装置、画像処理装置21と結ばれた通信インターフェイス等を備えている。これら電子部品は、機能的に制御部31a、演算部31b、記憶部31cを構成している。
記憶部31cを構成するメモリのうち、ROMメモリにはシステムを制御するシステムプログラムが格納され、RAMメモリはCPUが行なう処理のためのデータの一時記憶等に使用される。また、不揮発性メモリには、動作プログラムのデータや、システムの動作に必要な各種設定値が格納される。この各種設定値には、ロボット30のフランジ32に定義されている座標系(フランジ座標系/手先座標系)36をロボット座標系35に変換するパラメータ、すなわち、フランジ座標系(手先座標系)36とセンサ座標系25の相対的な関係を記述する関連情報であるパラメータ(回転行列と並進ベクトル)も含まれている。ロボットコントローラ31は、フランジ32の位置姿勢を制御すると同時にそのデータをリアルタイムでアップデートしており、出力することができる。なお、本実施の形態の記憶部31cは、ロボットコントローラ31の内部に設けられているが、外部に設けられた記憶装置であってもよい。
手動操作パネル37は、ロボット30の手動操作をするためのパネルであり、このパネル上に設けられたボタン、ジョイスティックなどを操作することにより、ロボット30を手動操作できるようになっている。
本実施の形態1の動作においては、ロボットコントローラ31と手動操作パネル37は、視覚センサ20を第1の観測位置1から第5の観測位置5に順次移動させるロボット動作手段を構成している。作業者が、手動操作パネル37を使ってボタン操作などによりロボットを操作して、視覚センサ20を第1の観測位置1から第5の観測位置5に順次移動させる場合には、手動操作パネル37がロボット動作手段を構成する。一方、ロボットコントローラ31の記憶部31cに記憶された動作プログラムにより、自動的に視覚センサ20が第1の観測位置1から第5の観測位置5に順次移動する場合(実施の形態2)には、ロボットコントローラ31がロボット動作手段を構成する。
視覚センサ20は、視野22を有し、マーク10の3次元位置データを得ることができる視覚センサであり、図1では一つのカメラのように描かれているが、2眼ステレオカメラのようなセンサでもよい。視覚センサ20には、視覚センサ20が撮像した画像の情報を処理する画像処理装置21が接続されている。一般にセンサ座標系25の原点はレンズ中心にとり、Z軸を光軸方向にとるが、図1では便宜上少しずらして描いている。
次に、動作の説明に入る前に、座標系の関係を整理しておく。ロボット30の手先座標系(フランジ座標系)36とセンサ座標系25の間の関係の校正作業で目的とするのは、次式に示すセンサ系座標(x、y、z)をフランジ系座標(X,Y,Z)に変換する3×3の回転行列Rと並進ベクトルTを決定することである。
Figure 0005371927
フランジ系座標36は、次式でロボット系座標35に変換される。
Figure 0005371927
ここでR、Tはロボットコントローラ31が保持しているフランジ32の位置、姿勢を表す回転行列と並進ベクトルである。そして、(1)(2)式を結合すると、
Figure 0005371927
となる。すなわち、この式がセンサ系座標(x、y、z)をロボット系座標(X,Y,Z)に変換する式である。フランジ32の姿勢をRfcに固定して、つまり視覚センサ20の姿勢を同じに保ったまま、2つの位置Tf1およびTf2に移動して校正用マークを観測したときのマーク10のセンサ系座標25をそれぞれ(x、y、z)、(x、y、z)とすると、ロボット座標系35におけるマーク10の座標は同じであるから次の等式が成り立つ。
Figure 0005371927
式を変形すると
Figure 0005371927
同様にして、視覚センサ20の姿勢を同じに保ったまま第3の位置Tf3に移動して、同じ校正用マークを観測すると、
Figure 0005371927
が得られる。(5)(6)式において未知数はRのみである。Rは3×3の行列で9要素からなるが、回転行列であることから、各列(各行)の要素の2乗和が1になるという制約条件があり、(x、y、z)、(x、y、z)、(x、y、z)が互いに異なっていれば、(5)(6)の連立方程式を解いてRをユニークに決定できる。
次に、フランジ32の位置と姿勢をTf4,Rf4に移動して校正用マークを観測し、マーク10のセンサ系座標が(x、y、z)だったとすると、(4)式と同様に
Figure 0005371927
が言える。整理をすると
Figure 0005371927
前述のようにしてRが求まっていれば、(8)式の未知数は右辺のTのみであり、[Rf4−Rfc]の逆行列を左から掛ければTが求まるように思われる。しかし回転行列の差の行列はランクが2に縮退しているため、逆行列は存在しない。そこで、さらにフランジ32の位置と姿勢をTf5,Rf5に移動して校正用マークを観測し、マークのセンサ系座標が(x、y、z)だったとすると、(8)式と同様にして
Figure 0005371927
を得る。回転行列Rf4、Rf5の回転軸が平行でなければ、言い換えれば回転方向が異なっていれば、(8)(9)式を連立一次方程式として解いてTを求めることが出来る。
以上の準備のもと、以下に動作について説明する。作業者は、まず校正用マーク10を配置するが、その位置はロボット30を操作してその手先に取り付けられた視覚センサ20で以下に述べるような観測が可能な位置ならどこでもよい。そして、その座標も未知でよい。マーク10の形状やパターンに特に制限はなく、マークが視覚センサで認識できて、その上の1点の位置が視覚センサ20で計測できればよい。
次に、作業者はロボット30の手動操作パネル37を操作して、順次ロボット30の手先の位置と姿勢を制御しながら、視覚センサ20によるマーク10の検出を5回実行し、各回のロボット30の姿勢データR、Tとマークのセンサ系座標を対応付けて記録する。このときに姿勢を変えずに位置だけ手先を移動させた第1から第3の観測箇所にてマーク10の観測を行い、次いで手先の位置も姿勢も変化させた第4および第5の観測箇所でマーク10の検出を実行する。
図2は、本実施の形態1の5箇所の観測位置の位置と姿勢を表す概念図である。第1から第3の観測箇所である観測1、2、3の観測姿勢は固定(一定の方向に保持)されており、観測位置のみ互いに異なることを示している。第4および第5の観測箇所である観測4と5は、第1の観測箇所にくらべて位置も姿勢も互いに異なっていることを示している。第1の観測箇所から第4の観測箇所への移動するとき、あるいは、第1の観測箇所から第5の観測箇所へ移動するときには、視覚センサ20はマーク10を回転中心とする円弧状の経路を通って移動(回転)する。このとき図示は難しいが、上述のように第1の観測箇所から第4の観測箇所への移動するときの円弧の回転軸と第1の観測箇所から第5の観測箇所へ移動するときの円弧の回転軸とは、ともにマーク10中心近傍を通る直線となるが、両直線が平行にならないように制御する。
各観測毎に、ロボットコントローラ31から出力されるフランジ座標系36の位置、姿勢を表す回転行列Rfと並進ベクトルTfが、画像処理装置21から出力される観測されたマーク10のセンサ系座標(x、y、z)25と対応づけられて記録される。
第1から第3の観測箇所である観測1、2、3から並進ベクトルを含まない方程式が得られて、回転行列が容易に求まり、第1、第4及び第5の観測箇所である観測1,4,5からは回転行列、並進ベクトルを含む一般形の方程式が得られるが、回転行列がわかっていると並進ベクトルだけの方程式となり、容易に並進ベクトルが求まる。
なお、マーク10の観測順序は図2に示された観測1から観測5の順序に従う必要はなく、任意の順序で実行してよい。図3にマークの観測例を示す。マークは正方形を2本の対角線で4分割し、4つの3角形を白、黒交互に塗り分けたパターンで、視覚センサ20がその位置を計測する点は対角線の交点である。このような明確な特徴のある点であれば、上記非特許文献2の技術のように2眼ステレオ方式の視覚センサで容易に対応点を見つけて、カメラからの距離を計算できる。
所定の5箇所のマーク観測が終了した後、方程式(5)(6)を連立で解いてRを求め、求まったRを利用して、方程式(8)(9)を連立で解いてTを求める。方程式を解く作業は、マーク観測時に得られるフランジ32の位置姿勢に関するデータ、TとRおよび視覚センサ20から出力されるマークのセンサ系座標(x、y、z)25の値を対応付けて、例えばエクセルのような表計算プログラムにインプットして解くことができる。
方程式を解く作業は、ロボットコントローラ31の記憶部31cに記憶されたプログラムを演算部31bにより解いたり、画像処理装置21の図示しない記憶部に記憶されたプログラムで実行したりしてもよい。その場合には、ロボットコントローラ31と画像処理装置21が通信網を介して必要なデータの送受信をするようにするのがよい。
以上のように、本実施の形態1の座標系校正方法は、ロボット30のロボット座標系35に一つのマーク10を配置し、視覚センサ20を取り付けたロボット30の手先を移動させて、視覚センサ20の姿勢を変えずに平行移動させた少なくとも第1から第3の3箇所の観測箇所と、マーク10に対して第1から第3の3箇所の観測方向と異なる方向でかつ相互に異なる方向からマーク10を臨む少なくとも第4及び第5の観測箇所で、マーク10の観測を行い、各観測箇所の画像を画像処理してマーク位置認識データを得て、各観測箇所でのロボット30の姿勢データとマーク位置認識データとを対応づけて取得し、両データに基づいて関連情報(パラメータ)を校正する。計算は連立方程式を解いて行われるが解析的に解を求めることができるので、非線形最適化アルゴリズムのように真値に収束するか否の心配がない。そして、第1から第3の観測箇所から並進ベクトルを含まない方程式がえられて、回転行列が容易に求まり、第1、第4及び第5の観測箇所からは回転行列、並進ベクトルを含む一般形の方程式が得られ、その際、回転行列がわかっていると並進ベクトルだけの方程式となり、容易に並進ベクトルが求まる。これにより、ロボット30の手先座標系(フランジ座標系)36と視覚センサ20のセンサ座標系25の相対的な関係を記述する関連情報(パラメータ)を、容易にまた安価に校正することができる。
実施の形態2.
実施の形態1では、作業者が手動操作パネル37からロボット30を操作して、ロボット30の手先の位置と姿勢を制御して、必要な5箇所の観測位置へロボット手先を誘導した。本実施の形態2では、あらかじめ5箇所のマーク観測位置および各位置での姿勢をロボット制御プログラムとしてプログラミングしてロボットコントローラ31の記憶部31cに記憶させておき、作業者はマーク10を配置したのち、プログラムの起動操作をすることのみで、必要な5箇所の観測データを得られるようにする。必要な5箇所のマークの観測位置、姿勢をあらかじめプログラムとして組み込んでおくことにより、何かのトラブルで再度、座標系の校正作業が必要になったときに、迅速に対応できる。
実施の形態3.
図4は、実施の形態3のロボットシステムを示す模式図である。本実施の形態3の構成は実施の形態1の構成に対してロボット誘導装置(ロボット誘導手段)40が付加されている。実施の形態1では、マーク観測位置への手先すなわち視覚センサ20の移動は作業者の手動操作によるものであったが、本実施の形態3ではロボット誘導装置40が主導権を持って、マーク10の位置認識結果を用いてロボット10を誘導して視覚センサ20を順次所定のマーク観測位置へ移動させる。ロボット誘導装置40は誘導目標データとして理想観測画像情報41を記憶している。理想観測画像情報41には、第2、第3の観測に対しては、マーク10を観測する画像上の理想位置、第4、第5の観測にたいしてはマーク10を観測する画像上の理想位置と観測1から見た姿勢の理想回転情報が保持されている。
まず、作業者は図3の観測1のような観測ができる位置にロボット30の手先を手動操作で移動させる。次に自動モードに切り替えて、ロボット誘導装置40を起動する。ロボット誘導装置40は、順次、第2、第3、第4、第5のマーク観測位置姿勢に、ビジュアルフィードバックと呼ばれる手法でロボット30の手先を誘導する。すなわち、現在観測しているマーク10の位置と理想観測画像情報41に記された画像上の理想マーク位置の差が小さくなるようにロボット30を誘導する。そのためにまず、視覚センサ25の視野22からマークが外れない程度にわずかにロボット30の手先を移動させ、その結果マーク10が画像上でどの方向へ移動したか調べ、理想位置にマークが近づくように試行錯誤を繰り返す。そして、理想マーク位置と画像上のマーク位置の差が一定以下になれば、目標観測位置に達したと判断する。第2、第3の観測においては姿勢は最初に作業者が手動操作で移動した姿勢を変化させず、第4、第5の観測においては理想観測画像情報41に記された回転を、マーク10が視野22から外れない程度に序々に加えて同様に誘導する。なお、本実施の形態の理想観測画像情報41は、ロボット誘導装置40の内部に設けられた記憶部に記憶されているが、外部に設けられた記憶装置などに記憶されてもよい。
このようにして、本実施の形態3では5箇所の観測データを自動的に取得することができる。視覚センサ20では一般に視野中心部における計測精度が視野周辺部よりも高い。理想観測画像情報41として視野中心で観測するように設定しておけば、作業者の目視によるマーク観測位置の位置決めよりも精度のよい観測データをもとに座標系の校正を実施できる。
以上のように、本発明にかかる座標系校正方法及びロボットシステムは、ロボットハンドに視覚センサを組み合わせたロボットシステムの座標系校正方法に最適なものである。
10 マーク
20 視覚センサ
21 画像処理装置
22 視野
25 センサ座標系
30 ロボット
31 ロボットコントローラ(ロボット動作手段)
31a 制御部
31b 演算部
31c 記憶部
32 フランジ
35 ロボット座標系
36 フランジ座標系(手先座標系)
37 手動操作パネル(ロボット動作手段)
40 ロボット誘導装置(ロボット誘導手段)
41 理想観測画像情報

Claims (6)

  1. ロボットと、前記ロボットの手先に固定された視覚センサを組み合わせたシステムにおいて、記憶部に記憶された前記ロボットの手先座標系と前記視覚センサのセンサ座標系の相対的な関係を記述する関連情報を校正する方法であり、
    前記関連情報は、回転行列と並進ベクトルとを含み、
    前記ロボットのロボット座標系に一つのマークを配置し、
    前記視覚センサを取り付けた前記ロボットの手先を移動させて、前記マークに向けた前記視覚センサの姿勢を変えずに平行移動させた少なくとも第1から第3の3箇所の観測箇所と、前記マークに対して前記第1から第3の3箇所の観測方向と異なる方向でかつ相互に異なる方向から前記マークを臨む少なくとも第4及び第5の観測箇所で、前記マークの観測を行い、
    各観測箇所の画像を画像処理してマーク位置認識データを得て、
    各観測箇所での前記ロボットの姿勢データと前記マーク位置認識データとを対応づけて取得し、
    前記第1から第3の観測箇所での姿勢データとマーク位置認識データとの対応関係に基づいて前記回転行列を校正し、
    前記第1から第3の観測箇所のうちの一つと、前記第4及び第5の観測箇所と、での姿勢データとマーク位置認識データとの対応関係に基づいて前記並進ベクトルを校正する、
    ことを特徴とする座標系校正方法。
  2. 前記ロボットを制御するロボットコントローラに、あらかじめ前記第1から第5の5箇所の観測箇所をプログラミングしておき、前記ロボットコントローラにより、各観測箇所への移動、観測、画像処理及び前記関連情報の校正を自動的に制御する
    ことを特徴とする請求項1に記載の座標系校正方法。
  3. 前記視覚センサによって観測される画像が、あらかじめ登録された理想的な観測画像と一致するように漸近的にロボットを誘導するロボット誘導手段を設け、
    前記ロボット誘導手段により、前記視覚センサの各観測箇所への移動を行う
    ことを特徴とする請求項1に記載の座標系校正方法。
  4. ロボットと、前記ロボットの手先に固定された視覚センサと、前記視覚センサの画像処理を行う画像処理装置と、前記ロボットを動作させるロボット動作手段と、前記ロボットの手先座標系と前記視覚センサのセンサ座標系の相対的な関係を記述する関連情報を記憶する記憶部と、前記関連情報を校正する演算部とを備え、
    前記ロボットのロボット座標系に一つのマークが配置されており、
    前記ロボット動作手段は、前記視覚センサを取り付けた前記ロボットの手先を、前記マークに向けた前記視覚センサの姿勢を変えずに平行移動させた少なくとも第1から第3の3箇所の観測箇所と、前記マークに対して前記第1から第3の3箇所の観測方向と異なる方向でかつ相互に異なる方向の少なくとも第4及び第5の観測箇所に移動させ、
    前記画像処理装置は、各観測箇所の前記視覚センサの画像を画像処理してマーク位置認識データを出力し、
    前記関連情報は、回転行列と並進ベクトルとを含み、
    前記演算部は、各観測箇所での前記ロボットの姿勢データと前記マーク位置認識データとを対応づけて取得し、前記第1から第3の観測箇所での姿勢データとマーク位置認識データとの対応関係に基づいて前記回転行列を校正し、前記第1から第3の観測箇所のうちの一つと、前記第4及び第5の観測箇所と、での姿勢データとマーク位置認識データとの対応関係に基づいて前記並進ベクトルを校正する、
    ことを特徴とするロボットシステム。
  5. 前記ロボット動作手段は、前記第1から第5の5箇所の観測箇所があらかじめプログラミングされたロボットコントローラであり、前記ロボットコントローラは、各観測箇所への移動、観測及び前記関連情報の校正を自動的に行う
    ことを特徴とする請求項4に記載のロボットシステム。
  6. 前記視覚センサによって観測される画像が、あらかじめ登録された理想的な観測画像と一致するように漸近的にロボットを誘導するロボット誘導手段を、さらに備え、
    前記ロボット誘導手段は、各観測箇所にて前記視覚センサが理想的な位置に近づくように誘導する
    ことを特徴とする請求項4に記載のロボットシステム。
JP2010241016A 2010-10-27 2010-10-27 座標系校正方法及びロボットシステム Active JP5371927B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010241016A JP5371927B2 (ja) 2010-10-27 2010-10-27 座標系校正方法及びロボットシステム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010241016A JP5371927B2 (ja) 2010-10-27 2010-10-27 座標系校正方法及びロボットシステム

Publications (2)

Publication Number Publication Date
JP2012091280A JP2012091280A (ja) 2012-05-17
JP5371927B2 true JP5371927B2 (ja) 2013-12-18

Family

ID=46385224

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010241016A Active JP5371927B2 (ja) 2010-10-27 2010-10-27 座標系校正方法及びロボットシステム

Country Status (1)

Country Link
JP (1) JP5371927B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11911914B2 (en) 2019-01-28 2024-02-27 Cognex Corporation System and method for automatic hand-eye calibration of vision system for robot motion

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014061578A (ja) * 2012-09-24 2014-04-10 Seiko Epson Corp ロボット、ロボットシステム、ロボット制御装置、ロボット制御方法及びプログラム
JP5962394B2 (ja) * 2012-09-28 2016-08-03 株式会社デンソーウェーブ キャリブレーション装置、および撮像装置のキャリブレーション方法
JP5991121B2 (ja) * 2012-09-28 2016-09-14 株式会社デンソーウェーブ キャリブレーション装置、および撮像装置のキャリブレーション方法
KR101842286B1 (ko) 2012-10-30 2018-03-26 현대로보틱스주식회사 로봇의 자동 캘리브레이션 방법
KR101465652B1 (ko) * 2013-04-12 2014-11-28 성균관대학교산학협력단 로봇 핸드와 로봇 핸드에 부착된 카메라의 캘리브레이션 방법 및 장치
JP6468741B2 (ja) * 2013-07-22 2019-02-13 キヤノン株式会社 ロボットシステム及びロボットシステムの校正方法
JP6489776B2 (ja) * 2013-08-28 2019-03-27 キヤノン株式会社 座標系校正方法、ロボットシステム、プログラム及び記録媒体
JP5815761B2 (ja) * 2014-01-23 2015-11-17 ファナック株式会社 視覚センサのデータ作成システム及び検出シミュレーションシステム
JP6555248B2 (ja) * 2014-02-28 2019-08-07 ソニー株式会社 医療用アーム装置、キャリブレーション方法及びプログラム
CN106061427B (zh) * 2014-02-28 2020-10-27 索尼公司 机器人臂设备、机器人臂控制方法和程序
JP2017100202A (ja) * 2015-11-30 2017-06-08 株式会社アイキューブテクノロジ ロボットシステム、制御装置、制御方法、及びプログラム
CN107309884B (zh) * 2016-04-27 2023-03-21 上海捷勃特机器人有限公司 机器人标定***及方法
EP3467428A4 (en) * 2016-05-30 2019-05-08 Sony Corporation INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD, PROGRAM, AND IMAGE CAPTURE SYSTEM
KR101848027B1 (ko) * 2016-08-16 2018-04-12 주식회사 고영테크놀러지 정위수술용 수술로봇 시스템 및 정위수술용 로봇의 제어방법
US10076842B2 (en) 2016-09-28 2018-09-18 Cognex Corporation Simultaneous kinematic and hand-eye calibration
CN107175662A (zh) * 2017-06-02 2017-09-19 成都福莫斯智能***集成服务有限公司 机器人手臂的位置校准方法
JP7003462B2 (ja) * 2017-07-11 2022-01-20 セイコーエプソン株式会社 ロボットの制御装置、ロボットシステム、並びに、カメラの校正方法
JP7035657B2 (ja) * 2018-03-15 2022-03-15 セイコーエプソン株式会社 ロボットの制御装置、ロボット、ロボットシステム、並びに、カメラの校正方法
WO2021012122A1 (zh) * 2019-07-19 2021-01-28 西门子(中国)有限公司 机器人手眼标定方法、装置、计算设备、介质以及产品
CN111504183B (zh) * 2020-04-22 2021-03-09 无锡中车时代智能装备有限公司 线激光三维测量传感器与机器人相对位置的标定方法
CN112686964B (zh) * 2021-03-15 2021-06-04 中科长光精拓智能装备(苏州)有限公司 一种提高精度图像间接识别的标定方法及***

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3541980B2 (ja) * 1995-03-28 2004-07-14 株式会社安川電機 視覚センサ付きロボットにおけるキャリブレーション方法
JPH1063317A (ja) * 1996-08-13 1998-03-06 Fanuc Ltd ロボット−視覚センサシステムにおける座標系結合方法
JP2005138223A (ja) * 2003-11-06 2005-06-02 Fanuc Ltd ロボット用位置データ修正装置
JP2007061979A (ja) * 2005-09-01 2007-03-15 Sharp Corp ロボットアームの視覚センサ補正方法およびコンピュータプログラム
JP5093058B2 (ja) * 2008-11-04 2012-12-05 株式会社デンソーウェーブ ロボットの座標の結合方法
JP2010188439A (ja) * 2009-02-16 2010-09-02 Mitsubishi Electric Corp パラメータ算出方法及びパラメータ算出装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11911914B2 (en) 2019-01-28 2024-02-27 Cognex Corporation System and method for automatic hand-eye calibration of vision system for robot motion

Also Published As

Publication number Publication date
JP2012091280A (ja) 2012-05-17

Similar Documents

Publication Publication Date Title
JP5371927B2 (ja) 座標系校正方法及びロボットシステム
US11911914B2 (en) System and method for automatic hand-eye calibration of vision system for robot motion
US20230060472A1 (en) Teaching device, teaching method, and robot system
JP5670416B2 (ja) ロボットシステム表示装置
JP4021413B2 (ja) 計測装置
US20200298411A1 (en) Method for the orientation of an industrial robot, and industrial robot
US11403780B2 (en) Camera calibration device and camera calibration method
US11072074B2 (en) Calibration and operation of vision-based manipulation systems
US20160279800A1 (en) Robot, robot control device, and robotic system
US20130010070A1 (en) Information processing apparatus and information processing method
EP1584426A1 (en) Tool center point calibration system
JP2019509186A (ja) ロボットシステムの自動較正方法
JP2018528084A (ja) ロボットシステムの自動較正方法
US11230011B2 (en) Robot system calibration
KR20140008262A (ko) 로봇 시스템, 로봇, 로봇 제어 장치, 로봇 제어 방법 및 로봇 제어 프로그램
JP2014013147A (ja) 3次元計測装置及びロボット装置
JP2010188439A (ja) パラメータ算出方法及びパラメータ算出装置
JP5787646B2 (ja) ロボットシステム及び部品の製造方法
JP7258516B2 (ja) キャリブレーション方法および把持システム
KR102269776B1 (ko) 중재시술 로봇의 캘리브레이션 방법
KR101695248B1 (ko) 센서 캘리브레이션 장치
JP7366264B2 (ja) ロボット教示方法及びロボット作業方法
Evangelista et al. A graph-based optimization framework for hand-eye calibration for multi-camera setups
Scaria et al. Cost Effective Real Time Vision Interface for Off Line Simulation of Fanuc Robots
WO2020184575A1 (ja) 計測システム及び計測方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120531

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130611

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130717

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130820

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130917

R150 Certificate of patent or registration of utility model

Ref document number: 5371927

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250