JP5729219B2 - ロボット制御システムのカメラ座標系とロボット座標系の結合方法、画像処理装置、プログラム、及び記憶媒体 - Google Patents

ロボット制御システムのカメラ座標系とロボット座標系の結合方法、画像処理装置、プログラム、及び記憶媒体 Download PDF

Info

Publication number
JP5729219B2
JP5729219B2 JP2011184953A JP2011184953A JP5729219B2 JP 5729219 B2 JP5729219 B2 JP 5729219B2 JP 2011184953 A JP2011184953 A JP 2011184953A JP 2011184953 A JP2011184953 A JP 2011184953A JP 5729219 B2 JP5729219 B2 JP 5729219B2
Authority
JP
Japan
Prior art keywords
coordinate system
robot
axis
camera
coordinate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011184953A
Other languages
English (en)
Other versions
JP2012076216A (ja
Inventor
伊藤 毅
毅 伊藤
伊藤 彰
彰 伊藤
靖彦 加藤
靖彦 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Auto Body Co Ltd
Original Assignee
Toyota Auto Body Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Auto Body Co Ltd filed Critical Toyota Auto Body Co Ltd
Priority to JP2011184953A priority Critical patent/JP5729219B2/ja
Publication of JP2012076216A publication Critical patent/JP2012076216A/ja
Application granted granted Critical
Publication of JP5729219B2 publication Critical patent/JP5729219B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)

Description

本発明は、ロボット制御システムのカメラ座標系とロボット座標系の結合方法、画像処理装置、プログラム、及び記憶媒体に関する。
従来のカメラ座標系とロボット座標系を結合するシステムについて、図16を参照して説明する。前記システムは、ハンドリングロボット、前記ハンドリングロボットを制御するロボット制御装置及びハンドリングロボットが把持するワークの位置を検出する2次元視覚装置を備える。図16に示すように、2次元視覚装置90は、カメラ110でワークWを撮像した撮像画像に基づいてワーク置台150上のワークWのワーク位置を認識し、前記ワークWの位置情報をハンドリングロボット120のロボット制御装置130へ伝達するようにされている。ロボット制御装置130は、前記ワークWの位置情報に基づいて、ハンドリングロボット120に対してそのロボットアーム先端に設けたハンドツール140がワークWの規定位置を把持するように制御する。
このようなシステムは、一般に、図17に示すように、カメラ110のカメラ座標系(二次元)と、ロボット座標系(三次元)が異なるため、2次元視覚装置90からロボット制御装置130へ正しい指示を出すためには、何らかの方法により、両座標系の相対位置関係を調べて2つの座標系を結合する作業が必要である。図17は、カメラ座標系とロボット座標系を上方から下方に見た場合の一例である。
従来のカメラ座標系とロボット座標系の結合方法では、図18に示すように、まず、ハンドリングロボットのアーム先端に取り付けられているハンドツール(例えば、吸着器、グリッパ)を取り外し、専用治具160をツールの基準点に正確に位置決めして取り付ける。次に、ワーク置台150の複数の基準位置にも専用治具170をそれぞれ取り付ける。これらの基準位置のカメラ座標値は、予め調べておき、図示しないロボット制御装置に記憶させておく。ハンドリングロボット120を移動させて、専用治具160,170同士を正確にタッチさせ、このタッチした状態におけるロボット座標値が何であるかを図示しないロボット制御装置のディスプレイで確認する。このようなロボット座標値とカメラ座標値の対応点を数ヶ所で取得し、取得した各基準値におけるロボット座標値と、基準値のカメラ座標値とを使用してロボット制御装置で演算することにより、両座標系の相対関係を知ることができる(従来技術1)。なお、基準位置の取り方、及び演算の仕方については、従来から諸法ある。
なお、本願出願時には特許文献1、2が公知である。
特許文献1では、ロボットアームの先端に視覚センサが取り付けられており、ロボットのハンドにて、治具を正確に把持した状態で、異なる2点にそれぞれ治具を置いた時の各点におけるロボット座標値を取得する等の作業を行うようにして、取得した座標値等により、カメラ座標系とロボット座標系との関係を得るようにしている(従来技術2)。
特許文献2の実施例3で提案されている方法は、ロボットの把持装置に認識対象物を把持させ、この状態で、ロボット以外の位置に配置された視覚センサの撮像範囲内で、第1回目は認識対象物を移動後の位置を教示するようにしている。次の第2回目はX(+)方向に認識対象物を平行移動させた後の位置を教示し、第3回目は認識対象物を所定角度回転させた後、平行移動させ、平行移動後の位置を教示するようにしている(従来技術3)。
特許文献3では、物品の位置検出方法において、テレビカメラを使用した位置検出した例が示されている。
特開平1−72208号公報 特開平6−190756号公報、段落0046〜0054、図7〜図10 特公平7−104143号公報
従来技術1は、ハンドツールを一旦外さなければならず、又、専用治具を正確に取り付けなければならず、オペレータにスキルが必要となる問題がある。さらに、従来技術1では、ロボット側に取付けした専用治具をタッチするために、ワーク置台側に取付けする専用治具は少なくとも3カ所設ける必要があり、正確な両座標系の関係を得るための測定作業には通常10カ所以上設ける必要がある。このため、オペレータのスキルと手間が必要となるばかりか、専用治具によるタッチする場所も多いため、多くの演算処理が必要となる問題がある。
従来技術2は、ロボットのハンドにて治具を正確に把持する必要があるとともに、異なる2点で前記治具の把持を解除する作業等を行うことから手間が掛かる問題がある。
従来技術3の実施例3では、ハンドリングロボットで把持した認識対象物を、移動する毎に教示作業が必要であり、手間が掛かる問題がある。
本発明の目的は、上記課題を解決して、ハンドリングロボットに認識対象治具を把持する際に正確に把持させる必要が無く、又、認識対象治具を把持させた状態で、回転及び直線移動させたときに取得した連続画像からフレーム差分をそれぞれ得ることにより、ハンドツールのツール軸中心と、ロボット座標系とカメラ座標系の傾きを簡単に得ることができるカメラ座標系とロボット座標系の結合を得るカメラのカメラ座標系とロボットのロボット座標系の結合方法、画像処理装置、プログラム、及び記憶媒体を提供することにある。
上記問題点を解決するために、請求項1の発明は、ロボットの先端にツール軸を介して設けられたハンドツールと、前記ハンドツールの作業を撮像する固定カメラを備えたロボット制御システムのカメラ座標系とロボット座標系の結合方法において、ハンドツールをロボット先端のツール軸の周りで回転させて、前記ハンドツールが保持する認識対象治具の動画像(以下、回転動画像という)を固定カメラで取得し、前記回転動画像から得られたフレーム差分に基づいて前記認識対象治具の特徴部位が描いた軌跡から閉曲線を割り出し、前記閉曲線の中心点をカメラ座標系で算出する第1ステップと、ロボット座標系の座標軸であって、前記ツール軸が交差可能な座標平面を構成する2つの座標軸のうち少なくとも一方の座標軸(以下、傾き計測座標軸という)に対して、沿うように前記認識対象治具を保持したハンドツールを直線移動させて、前記認識対象治具の動画像(以下、直線移動動画像という)を前記固定カメラで取得し、前記直線移動動画像に基づいて、カメラ座標系に対する前記傾き計測座標軸の傾き指標パラメータを算出する第2ステップと、前記閉曲線の中心点と前記傾き指標パラメータに基づいてカメラ座標系とロボット座標系の相対位置関係を算出する第3ステップを備えることを特徴とするロボット制御システムのカメラ座標系とロボット座標系の結合方法を要旨としている。
なお、本明細書では、ロボット座標系は、ロボットの台座(ベース)を基準にした座標系(ベース座標系)と、ユーザが任意位置に設定する座標系(ユーザ座標系)の両者を含む趣旨である。いずれも直交座標系である。又、カメラ座標系は、カメラの撮像範囲内に展開される二次元の直交座標系である。
請求項2の発明は、請求項1において、前記閉曲線が楕円であり、第2ステップでは、ロボット座標系の2つの座標軸を傾き計測座標軸とし、前記傾き指標パラメータは、前記2つの傾き計測座標軸に沿って、ハンドツールをそれぞれ移動させた際の、カメラ座標系での始点及び終点の座標値に基づいたベクトルであることを特徴とする。
請求項3の発明は、請求項1において、前記閉曲線が円であり、第2ステップでは、ロボット座標系の1つの座標軸を傾き計測座標軸とし、前記傾き指標パラメータは、前記1つの傾き計測座標軸に沿って、ハンドツールを移動させた際の、直線軌跡と傾き計測座標軸との角度であることを特徴とする。
請求項4の発明は、請求項1乃至請求項3のうちいずれか1項において、前記認識対象治具の特徴部位が、前記認識対象治具の一端に設けられた突起であることを特徴とする。
請求項5の発明は、ハンドツールをロボット先端のツール軸の周りで回転させて、前記ハンドツールが保持する認識対象治具の動画像(以下、回転動画像という)を固定カメラから取得し、前記回転動画像から得られたフレーム差分に基づいて前記認識対象治具の特徴部位が描いた軌跡から閉曲線を割り出し、前記閉曲線の中心点をカメラ座標系で算出する第1算出手段と、ロボット座標系の座標軸であって、前記ツール軸が交差可能な座標平面を構成する2つの座標軸のうち少なくとも一方の座標軸(以下、傾き計測座標軸という)に対して、沿うように前記認識対象治具を保持したハンドツールを直線移動させて、前記認識対象治具の動画像(以下、直線移動動画像という)を前記固定カメラで取得し、前記直線移動動画像に基づいて、カメラ座標系に対する前記傾き計測座標軸の傾き指標パラメータを算出する第2算出手段と、前記閉曲線の中心点と前記傾き指標パラメータに基づいてカメラ座標系とロボット座標系の相対位置関係を算出する第3算出手段を備えることを特徴とする画像処理装置を要旨としている。
請求項6の発明は、請求項5において、前記閉曲線が楕円であり、第2算出手段は、ロボット座標系の2つの座標軸を傾き計測座標軸とし、前記傾き指標パラメータとして、前記2つの傾き計測座標軸に沿って、ハンドツールをそれぞれ移動させた際の、カメラ座標系での始点及び終点の座標値に基づいたベクトルを算出することを特徴とする。
請求項7の発明は、請求項5において、前記閉曲線が円であり、第2算出手段は、ロボット座標系の1つの座標軸を傾き計測座標軸とし、前記傾き指標パラメータとして、前記1つの傾き計測座標軸に沿って、ハンドツールを移動させた際の、直線軌跡と傾き計測座標軸との角度を算出することを特徴とする。
請求項8の発明は、コンピュータを、ハンドツールをロボット先端のツール軸の周りで回転させて、前記ハンドツールが保持する認識対象治具の動画像(以下、回転動画像という)を固定カメラから取得し、前記回転動画像から得られたフレーム差分に基づいて前記認識対象治具の特徴部位が描いた軌跡から閉曲線を割り出し、前記閉曲線の中心点をカメラ座標系で算出する第1算出手段と、ロボット座標系の座標軸であって、前記ツール軸が交差可能な座標平面を構成する2つの座標軸のうち少なくとも一方の座標軸(以下、傾き計測座標軸という)に対して、沿うように前記認識対象治具を保持したハンドツールを直線移動させて、前記認識対象治具の動画像(以下、直線移動動画像という)を前記固定カメラで取得し、前記直線移動動画像に基づいて、カメラ座標系に対する前記傾き計測座標軸の傾き指標パラメータを算出する第2算出手段と、前記閉曲線の中心点と前記傾き指標パラメータに基づいてカメラ座標系とロボット座標系の相対位置関係を算出する第3算出手段として機能させるプログラムを要旨としている。
請求項9の発明は、コンピュータを、ハンドツールをロボット先端のツール軸の周りで回転させて、前記ハンドツールが保持する認識対象治具の動画像(以下、回転動画像という)を固定カメラから取得し、前記回転動画像から得られたフレーム差分に基づいて前記認識対象治具の特徴部位が描いた軌跡から閉曲線を割り出し、前記閉曲線の中心点をカメラ座標系で算出する第1算出手段と、ロボット座標系の座標軸であって、前記ツール軸が交差可能な座標平面を構成する2つの座標軸のうち少なくとも一方の座標軸(以下、傾き計測座標軸という)に対して、沿うように前記認識対象治具を保持したハンドツールを直線移動させて、前記認識対象治具の動画像(以下、直線移動動画像という)を前記固定カメラで取得し、前記直線移動動画像に基づいて、カメラ座標系に対する前記傾き計測座標軸の傾き指標パラメータを算出する第2算出手段と、前記閉曲線の中心点と前記傾き指標パラメータに基づいてカメラ座標系とロボット座標系の相対位置関係を算出する第3算出手段として機能させるプログラムを記憶したコンピュータ読み取り可能な記憶媒体を要旨としている。
本発明によれば、ハンドリングロボットに認識対象治具を把持する際に正確に把持させる必要が無く、又、認識対象治具を把持させた状態で、回転及び直線移動させたときに取得した連続画像(動画像)からフレーム差分をそれぞれ得ることにより、ハンドツールのツール軸中心と、ロボット座標系とカメラ座標系の傾きを簡単に得ることができる。
本実施形態の2次元視覚装置、ロボット制御装置、及びロボットの全体概略図。 (a)は第1実施形態の認識対象治具、(b)は他の実施形態の認識対象治具。 2次元視覚装置、ロボット制御装置、ロボットの電気ブロック図。 (a)、(b)は連続画像(動画)の画像処理のフローチャート。 (a)〜(d)は、動画像のフレームの説明図、(e)はフレーム差分結果を示す説明図、(f)は円弧、該円弧の曲率中心を算出した結果の説明図。 (a)、(b)は認識対象治具の直線移動した場合のフレームの説明図。 カメラ座標系とロボット座標系の結合関係を示す説明図。 (a)、(b)は第2実施形態の連続画像(動画)の画像処理のフローチャート。 (a)、(b)は第2実施形態のカメラ座標系とロボット座標系との関係を示す説明図。 参考例の2次元視覚装置、ロボット制御装置、及びロボットの全体概略図。 照明装置100とワークWとカメラ30の配置関係の説明図。 正反射と拡散反射の説明図。 照明光がモールと補色関係の色の場合の説明図。 照明光が白色光の場合の説明図。 モールを備えたウインドウガラスの断面図。 従来の2次元視覚装置、ロボット制御装置、及びロボットの全体概略図。 カメラ座標系とロボット座標系との関係を示す説明図。 従来のカメラ座標系とロボット座標系の結合方法の説明図。
(第1実施形態)
以下、本発明のカメラ座標系とロボット座標系の結合方法、画像処理装置、プログラム、並びに記憶媒体を具体化した第1実施形態を図1〜図7を参照して説明する。図1は、本実施形態のロボット制御システムの全体の概略を示している。ロボット制御システムはロボット制御装置10及びハンドリングロボット(以下、単にロボットという)20、固定カメラとしてのカメラ30及び画像処理装置としての2次元視覚装置40を備えている。本実施形態のロボット制御システムは、パレット等のワーク台60上の図示しないワークに対する物***置認識によって一つのワークの位置及び姿勢を認識し、ワーク台60上のワークを保持し、目標位置に運搬するためのシステムである。
ロボット20は、多関節型ロボットであって、ベース21上に、複数(本実施形態では6つ)の関節を介して連結された複数のアーム22を備えている。すなわち、本実施形態のロボット20は6軸ロボットで構成されている。前記各関節には、サーボモータ23と、各サーボモータ23の軸角度をそれぞれ検出するエンコーダ24(図3参照)を備えている。なお、図1では、複数のサーボーモータのうち、一部のサーボモータ23のみが図示されている。前記各関節は、アーム22の一端部を揺動可能として他端部を軸支する揺動関節と、アーム22自身をその長手方向を中心に回転可能に軸支する回転関節とのいずれかから構成されている。
又、各関節に連結された全アーム22の最先端部、すなわちロボット先端(以下、「アーム先端部」という)には、図1に示すように、関節としてのツール軸26を介してハンドツール25が設けられている。ハンドツール25は、前記各関節を介してアーム22の作動により任意の位置に位置決めすることにより任意の姿勢を取らせることが可能となっている。本実施形態のハンドツール25は、真空吸引力によってワークを吸着可能な真空吸着パッド27を備える。
ロボット制御装置10は、CPU、ROM、RAM(いずれも図示しない)を備えている。前記ROMには、ロボット20の動作制御を行う制御プログラムを含む各種のプログラムと図示しないワークの移動目的位置を示す動作データが格納されている。前記CPUは、前記ROMに格納された各種のプログラムを実行することにより、ロボット20をワーク搬送のために制御する。前記RAMは、前記CPUの処理により各種データを格納するワークエリアとなる。ロボット制御装置10は、ロボット20の教示点、その他の各種の設定を入力するための例えば教示データを入力するための可搬式の入力装置15を備えている。又、前記入力装置15に対するオペレータの操作により、手動によるロボット20の制御が可能である。又、ロボット制御装置10は、2次元視覚装置40からの解析結果及び動作指令を受信するための通信インターフェイス11を備える。
なお、図3では、説明の便宜上、ロボット20の各関節のサーボモータ23、及びエンコーダ24は代表的に1つのみ図示し、他のサーボモータ23及びエンコーダ24の図示を省略している。
カメラ30は、CCD、CMOS等の固体撮像デバイスを有するビデオカメラからなり、カメラ30から出力された画像信号に基づき所定のフレームレート(例えば、1秒間に30フレーム)での動画像の撮像が可能である。カメラ30はカラーカメラ或いはモノクロカメラのいずれでもよい。又、カメラ30は、図示しない支持手段により支持されてワーク台60上方に配置されており、ワーク台60上のワーク(図示しない)を保持して移動目的位置へ搬送する実作業時においてワーク台60のワーク載置面60aの全範囲を少なくとも含む範囲を撮像範囲としている。
2次元視覚装置40は、カメラ30から出力された画像信号に基づいて、撮像範囲内(撮像して画像取り込みが行われる撮像対象となる範囲)の画像に応じた画像データを生成する。すなわち、前記ビデオカメラより得られた画像信号は、2次元視覚装置40によりコンピュータでの処理が可能なRGBのカラー画像(或いはモノクロ画像)からなるフレーム画像に変換される。なお、撮影画像の解像度は、例えば水平方向画素数を640画素、垂直方向画素数を480画素としている。尚、フレームレート、変換される画像及び解像度は、上記の例に限定するものではない。
2次元視覚装置40は、コンピュータからなり、CPU41、ROM42、RAM43、画像メモリ45、カメラインターフェイス44、モニタインターフェイス46、入力インターフェイス47及び通信インターフェイス48を備えている。CPU41と前記各部はバス49を介して入力出力が可能である。CPU41は、第1算出手段、第2算出手段、第3算出手段に相当する。
ROM42は、CPU41が実行するワークの姿勢位置検出の画像処理プログラム、カメラ座標系とロボット座標系の結合のための画像処理プログラム等を含む各種処理プログラムが格納されている。本実施形態では、ロボット座標系は、ロボットの台座(ベース)を基準にした座標系(ベース座標系)としている。ROM42は、記憶媒体に相当する。RAM43は、CPU41の処理により各種データを格納するワークエリアである。カメラインターフェイス44は、カメラ30から出力された画像信号を入力する。画像メモリ45は、CPU41が、前記画像信号に基づいて処理して生成された各フレーム画像(画像データ)を格納する。2次元視覚装置40は、液晶表示装置等からなるディスプレイ50がモニタインターフェイス46を介して接続されている。ディスプレイ50は、モニタインターフェイス46を介して、CPU41による各種処理における所定の表示を行うとともに、画像メモリ45に格納された画像データを表示する。又、入力インターフェイス47は、CPU41による各種処理に必要な各種データの入力を行う入力装置51との接続を行う。通信インターフェイス48は、ロボット制御装置10の通信インターフェイス11との間で各種データの通信を行う。
2次元視覚装置40は、カメラ30でワークを撮像して得られた画像に基づいてワーク台60上のワーク(図示しない)のワーク位置を認識し、通信インターフェイス48,11を介して該ワークの位置情報をロボット制御装置10へ伝達する。ロボット制御装置10は、前記ワークの位置情報に基づいて、ロボット20に対してそのアーム先端部に設けたハンドツール25を前記ワークの規定位置で把持させ、目的位置に前記ワークを運搬するように制御する。
(第1実施形態の作用)
次に、本実施形態のロボット制御システムにおいて、カメラ30のカメラ座標系とロボット20のロボット座標系を結合する手順について説明する。
なお、本実施形態では、ロボット座標系のXY座標平面と、カメラ座標系のXY座標平面とが互いに平行であるとともに、カメラ30から見たロボット座標系のX軸及びY軸が直交している場合に有効である。
<1.ロボットのハンドツールの中心座標>
図4(a)において、S10〜S18は、CPU41が、カメラ座標系とロボット座標系の結合のための画像処理プログラムを実行する際、ロボットのハンドツール25の中心座標の求め方のフローチャートである。
なお、S10では、前記画像処理プログラムが実行される際に、ロボット制御装置10のCPU41により下記で説明するロボット20の作動制御が行われる。
この作動制御は、オペレータが入力装置15に対する入力操作により、手動制御されてもよく、或いは、カメラ座標系とロボット座標系の結合のための画像処理プログラムを実行する際に、ロボット制御装置10のROMに格納された自動制御プログラムに基づいて自動制御で行うようにしてもよい。
ロボット20は上記手動制御又は自動制御により、図2(a)に示す認識対象治具70を真空吸着パッド27にて吸着保持し、かつ、カメラ30とワーク台60間の位置であってカメラ30の撮像範囲内に入るように位置した状態で、ツール軸26を鉛直方向(すなわち、大地に対して垂直方向)に向けた姿勢で回転する。前記鉛直方向は、ロボット座標系のZ軸と平行な方向であり、ロボット座標系のX軸及びY軸とは直交する。ここで、ツール軸26は、前記制御により、ロボット座標系のX座標値及びY座標値(p,q)で回転することになる。この座標値は、ロボット座標系で各エンコーダ24からの信号及びロボット20のリンクパラメータに基づいてロボット制御装置10のCPUが算出し、ロボット制御装置10のRAMに格納される。
なお、認識対象治具70は、図2(a)に示すように全体が略平板状の長方形に形成されており、長手方向の一端部には、特徴部位としての突起71が同長手方向に延出するように形成されている。認識対象治具70の全体の形状は、長方形に限定するものではなく、平面視した場合、正方形、円形、楕円形等の形状でもよい。又、平板に限定されるものではなく、厚みを有するブロック状であってもよい。特徴部位は、カメラ30から見た場合に、認識対象治具70においてハンドツール25に隠れない部位に配置し、突起形状にするとフレーム差分処理で容易に検出することができる。
又、認識対象治具70の回転姿勢は、正確に水平である必要はなく、傾いていてもよい。ハンドツール25による保持位置は、前述したように特徴部位がカメラ30から見た場合に、ハンドツール25に隠れないようにされていれば、任意の位置でよい。
又、S10では、上記のようにして回転中の認識対象治具70は、カメラ30により撮像されて、その画像信号は、2次元視覚装置40に入力される。2次元視覚装置40に入力された画像信号は、CPU41により、時系列に従って所定のフレームレートのフレーム画像が生成され、画像メモリ45に格納される。図5の(a)〜(d)は、S10の処理により取得されて画像メモリ45に格納されたフレーム画像1〜4を示している。前記フレーム画像は回転動画像に相当する。
S12では、CPU41は、時系列順に生成されたフレーム画像において、時間的に隣接するフレーム画像間のフレーム差分を抽出する。図5(e)は、前記フレーム画像1〜4のフレーム差分結果の画像データを示している。
S14では、CPU41は、前記フレーム差分結果である画像データ(以下、フレーム差分画像という)中において、認識対象治具70の特徴部位に関する複数の特徴点P1〜Prのカメラ座標系の座標値を取得する。なお、rは、フレーム画像のフレーム番号である。この特徴点の座標値の取得は、フレーム差分画像を予め定められた閾値で2値化処理等の公知の画像処理を行い、特徴点P1〜Prを割り出して行う。
S16では、CPU41は、S14で取得した特徴点P1〜Prの座標値に基づいて各座標値を通過する共通の円弧を算出する。この円弧の算出は、実質的に閉曲線としての円を算出(割り出し)することと同義である。この円弧Eは、特徴点P1〜Prを含む円弧軌跡である(図5(f)参照)。
S18では、CPU41は、この得られた円弧の曲率中心、すなわち、割り出した円の中心の座標値(m,n)を算出し、RAM43に記憶する。この算出された円弧の中心の座標値(m,n)は、ツール軸26のカメラ座標系の座標値である。
S10〜S18は、第1ステップに相当する。
<2.ロボット座標系の傾き>
図4(b)において、S20〜S28は、CPU41が、カメラ座標系とロボット座標系の結合のための画像処理プログラムを実行する際、ロボット座標系のカメラ座標系に対する傾きの求め方のフローチャートである。
なお、S20では、前記画像処理プログラムが実行される際に、ロボット制御装置10により下記で説明するロボット20の作動制御が行われる。
この作動制御は、オペレータが入力装置15に対する入力操作により、手動制御されてもよく、或いは、カメラ座標系とロボット座標系の結合のための画像処理プログラムを実行する際に、ロボット制御装置10のROMに格納された自動制御プログラムに基づいて自動制御で行うようにしてもよい。
ロボット20は上記手動制御又は自動制御により、図2(a)に示す認識対象治具70を真空吸着パッド27にて吸着保持し、かつ、カメラ30とワーク台60間の位置であってカメラ30の撮像範囲内に入るように位置した状態で、ツール軸26をロボット座標系のX軸に沿うように直線移動する。
すなわち、本実施形態では、ロボット座標系において、前記ツール軸26と直交するロボット座標系を構成する2つの座標軸(X軸及びY軸)のうち、X軸(傾き計測座標軸)に対して、沿うように認識対象治具70をハンドツール25を移動させる。
このときの、認識対象治具70の姿勢は、正確に水平である必要はなく、傾いていてもよい。ハンドツール25による保持位置は、前述したように特徴部位がカメラ30から見た場合に、ハンドツール25に隠れないようにされていれば、任意の位置でよい。
又、S20では、上記のようにして直線移動中の認識対象治具70は、カメラ30により撮像されて、その画像信号は、2次元視覚装置40に入力される。2次元視覚装置40に入力された画像信号は、CPU41により、時系列に従って所定のフレームレートでフレーム画像が生成されて、画像メモリ45に格納される。図6の(a)は、S20の処理により取得されて画像メモリ45に格納された、初期位置のハンドツール25の動画像であるフレーム画像の1つを示している。図6(b)は、S20の処理により取得されて画像メモリ45に格納された、終期位置のハンドツール25の動画像であるフレーム画像の1つを示している。前記フレーム画像は直線移動動画像に相当する。図6(b)において、Qは、前記初期位置の認識対象治具70の突起71の先端の位置を示している。Qは、前記終期位置の認識対象治具70の突起71の先端の位置を示している。sはフレーム番号である。
S22では、CPU41は、時系列順に生成されたフレーム画像において、時間的に隣接するフレーム画像間のフレーム差分を抽出する。
S24では、CPU41は、前記フレーム差分結果である画像データ(以下、フレーム差分画像という)中において、認識対象治具70の特徴部位に関する複数の特徴点Q〜Qのカメラ座標系の座標値を取得する。この特徴点の座標値の取得は、フレーム差分画像を予め定められた閾値で2値化処理等の公知の画像処理を行い、特徴点Q〜Qを割り出して行う。
S26では、CPU41は、S24で取得した特徴点Q〜Qの座標値に基づいて各座標値を通過する直線を算出する。この直線は、特徴点Q〜Qの直線軌跡である。
S28では、CPU41は、この得られた直線Dは、ロボット座標系のX軸に平行な直線であるため、この直線Dとカメラ座標系のX軸との傾きαを算出し、RAM43に記憶する。なお、カメラ座標系のX軸は、図6(b)に示す水平方向画素数(640画素)、垂直方向画素数(480画素)からなる画像データにおいて、左上角を原点とした水平方向の軸である。又、カメラ座標系のY軸は、前記原点から下方へ垂直方向に延びる軸である。
S20〜S28は、第2ステップに相当する。傾きαは、傾き指標パラメータに相当する。
<3.カメラ座標系とロボット座標系の相対位置関係の算出>.
上記のようにS18及びS28で取得されたツール軸26のカメラ座標系の円弧の中心の座標値(m,n)と、ロボット座標系のX軸とカメラ座標系のX軸の傾きαに基づいて、CPU41は、カメラ座標系とロボット座標の相対位置関係の算出を行う。この算出は、第3ステップに相当する。
ここで、カメラ座標系とロボット座標の相対位置関係について説明する。
ロボット座標の原点OR(x0,y0)とツール軸の中心(円弧の中心)Tを結ぶ線分のカメラ座標系X軸との角度をθとすると、下記式(1)で求めることができる。なお、ツール軸26の中心Tのロボット座標値(p,q)は、CPU41は通信によりロボット制御装置10から取得し、RAM43に格納されている。
θ=α+tan−1(q/p) ……(1)
線分OR−Tのロボット座標系での長さUは、
√(p+q) [mm]
である。
カメラ座標系での1画素(ピクセル)当たりの実距離をμ[mm/pixel]とし、カメラ座標系での線分OR−Tの長さUは、
U= √(p+q)× 1/μ [pixel] ……(2)
である。ここで、μは距離係数である。
又、ロボット座標の原点のX座標値(x0)とmの差分、ロボット座標の原点のY座標値(y0)とnの差分は、それぞれOR−Tにsinθ,cosθを乗じたものであるから、パラメータm,n,p,q,αより、ロボット座標の原点ORのカメラ座標値(x0,y0)は、下式(3)、式(4)より得られる。
x0=m−√(p+q)× 1/μ ×cosθ ……(3)
y0=n−√(p+q)× 1/μ ×sinθ ……(4)
このため、CPU41は、式(3)、式(4)を使用して、ロボット座標の原点ORのカメラ座標値(x0,y0)を算出する。θの算出は式(1)を使用する。
このようにしてカメラ座標系とロボット座標系の相対位置関係が算出されて、その結果がRAM43等のメモリに格納される。
以後、カメラ座標系とロボット座標系の相対位置関係が得られているため、実作業を行う際に、2次元視覚装置40からロボット制御装置10へこの相対位置関係が反映された正しい指示を出すことが可能となる。
本実施形態では、下記の特徴を有する。
(1) 本実施形態のロボット制御システムのカメラ座標系とロボット座標系の結合方法は、第1ステップでは、ハンドツール25をロボット先端のツール軸26の周りで回転させて、ハンドツール25が保持する認識対象治具70の回転動画像をカメラ30(固定カメラ)で取得し、前記回転動画像から得られたフレーム差分に基づいて認識対象治具70の突起71(特徴部位)が描いた軌跡から円弧(すなわち、閉曲線)を割り出し、前記円弧曲線の中心点をカメラ座標系で算出する。
また、第2ステップでは、ロボット座標系の座標軸であって、ツール軸26が交差可能な座標平面(XY座標平面)を構成する2つの座標軸の一方のX軸(傾き計測座標軸)に対して、沿うように認識対象治具70を保持したハンドツール25を直線移動させて、認識対象治具70の動画像(直線移動動画像)をカメラ30で取得し、直線移動動画像に基づいて、カメラ座標系のX軸に対するロボット座標系のX軸(傾き計測座標軸)の傾きα(傾き指標パラメータ)を算出する。
また、第3ステップでは、円弧曲線(閉曲線)の中心点と、カメラ座標系のX軸に対するロボット座標系のX軸(傾き計測座標軸)の傾きα(傾き指標パラメータ)に基づいてカメラ座標系とロボット座標系の相対位置関係を算出する。
この結果、ロボット20(ハンドリングロボット)に認識対象治具70を把持する際に正確に把持させる必要が無く、又、認識対象治具70を把持させた状態で、回転及び直線移動させたときに取得した連続画像(動画像)により、ハンドツール25のツール軸26中心と、ロボット座標系とカメラ座標系の傾きを簡単に得ることができる。
又、本実施形態の認識対象治具は、ハンドツール25で保持できる形状としているため、保持する際に厳密な位置決めを行う必要がない。又、厳密な位置決めなしで認識対象治具を把持した場合、認識対象治具の姿勢がバラつくが、保持された後の処理は、回転、直線移動のみであり、治具の端部に設けられた特徴部位に関する特徴点の取得を目的として動画像を得るだけであるため、前記バラつきを吸収することができる。
又、ハンドツール25を取り外していた従来例と異なり、ハンドツールを外す必要がない。そのため、カメラ座標系とロボット座標系の結合する作業は、ハンドツールの取り外し及び作業終了後の取付作業が必要でなく、短時間で行うことができる。因みに従来技術1での測定作業は、1時間ほどの作業時間が必要であったが、本方法では、5分程度の作業時間ですむ利点がある。又、上記の理由から製造ラインにおいて、この方法を適用した場合、カメラ交換等の際に発生するライン停止による多大な損失を最小限に抑えることができる。
(2) 本実施形態では、フレーム差分を用いて動体、すなわち、認識対象治具70の特徴部位を検出する処理を行うため、認識対象治具の軌跡の自動的な検出が可能になり、カメラ座標系とロボット座標系の両座標系の関係を得るための測定作業を自動化できる。すなわち、オペレータに特別なスキルが必要でなく、誰でも容易に測定作業を行うことができる。
(3) 本実施形態のロボット制御システムのカメラ座標系とロボット座標系の結合方法では、第2ステップで割り出す閉曲線を円とするとともに、ロボット座標系のX軸を傾き計測座標軸とし、傾き指標パラメータを、X軸に沿ってハンドツール25をそれぞれ移動させた際の、直線軌跡とX軸(傾き計測座標軸)との角度としている。
この結果、ロボット座標系のXY座標平面と、カメラ座標系のXY座標平面とが互いに平行であるとともに、カメラ30から見たロボット座標系のX軸及びY軸が直交している場合に、後述する第2実施形態よりも、カメラ座標系とロボット座標系の結合する作業を容易に行うことができる。
(4) 本実施形態では、認識対象治具70の特徴部位は、一端に設けられた突起71としている。この結果、治具の端部に設けられた突起71(特徴部位)に関する特徴点の取得を目的として動画像を得るだけであるため、厳密な位置決めなしで認識対象治具を把持できる。
(5) 本実施形態の2次元視覚装置40(画像処理装置)は、ハンドツール25をロボット先端のツール軸26の周りで回転させて、ハンドツール25が保持する認識対象治具70の回転動画像をカメラ30(固定カメラ)から取得し、回転動画像から得られたフレーム差分に基づいて認識対象治具70の突起71(特徴部位)が描いた軌跡から円弧(すなわち、閉曲線)を割り出し、前記円弧曲線の中心点をカメラ座標系で算出するCPU41(第1算出手段)を備える。
又、CPU41は、ロボット座標系の座標軸であって、ツール軸26と直交するロボット座標系を構成する2つの座標軸の一方のX軸(傾き計測座標軸)に対して、沿うように認識対象治具70を保持したハンドツール25を直線移動させて、認識対象治具70の動画像(直線移動動画像)をカメラ30で取得し、直線移動動画像に基づいて、カメラ座標系のX軸に対するロボット座標系のX軸(傾き計測座標軸)の傾きα(傾き指標パラメータ)を算出する第2算出手段として機能する。
又、CPU41は、円弧曲線(閉曲線)の中心点と、カメラ座標系のX軸に対するロボット座標系のX軸(傾き計測座標軸)の傾きα(傾き指標パラメータ)に基づいてカメラ座標系とロボット座標系の相対位置関係を算出する第3算出手段として機能する。
この結果、上記(1)に記載の作用効果を奏することができる2次元視覚装置40を提供できる。
又、認識対象治具70を回転させるツール軸26の位置のロボット座標系の座標値を予めロボット制御装置のプログラムにセットして固定化するとともに、ロボット座標系のX軸に沿って移動するようにプログラムを組み込みすることにより、全ての演算が自動化できるため、オペレータは、画像処理装置(本実施形態では、2次元視覚装置40)を作動させながらロボットを決められた通りに動かすだけでよい。
(6) 本実施形態のカメラ座標系とロボット座標系の結合のための画像処理プログラムは、コンピュータを、ツール軸26を介してロボット20先端に設けられたハンドツール25がツール軸26の周りで回転する際の、ハンドツール25が保持する認識対象治具70の回転動画像をカメラ30(固定カメラ)から取得し、回転動画像からフレーム差分を得て、該フレーム差分に基づく認識対象治具70の特徴部位が描いた軌跡から円弧(閉曲線)を割り出し、円弧曲線の中心点をカメラ座標系で算出する第1算出手段として機能させる。
又、前記プログラムは、コンピュータを、ロボット座標系の座標軸であって、ツール軸26が交差可能な座標平面(XY座標平面)を構成する2つの座標軸の一方のX軸(傾き計測座標軸)に対して、沿うように認識対象治具70を保持したハンドツール25を直線移動させて、認識対象治具70の動画像(直線移動動画像)をカメラ30で取得し、直線移動動画像から得られたフレーム差分に基づいて認識対象治具70の突起71の直線軌跡を取得し、直線軌跡に基づいて、カメラ座標系のX軸に対するロボット座標系のX軸(傾き計測座標軸)の傾きα(傾き指標パラメータ)を算出する第2算出手段として機能させる。
又、前記プログラムは、コンピュータを、円弧曲線(閉曲線)の中心点と、カメラ座標系のX軸に対するロボット座標系のX軸(傾き計測座標軸)の傾きα(傾き指標パラメータ)に基づいてカメラ座標系とロボット座標系の相対位置関係を算出する第3算出手段として機能させる。
この結果、上記(1)に記載の作用効果を奏することができるプログラムを提供できる。
(7) 本実施形態の記憶媒体としてのROM42は、コンピュータが読み取り可能であって、上記(6)に記載の画像処理プログラムを記憶する。
この結果、上記(1)に記載の作用効果を奏することができるプログラムを記憶したROM42を提供できる。すなわち、上記プログラムを記憶した記憶媒体をコンピュータに実装することにより、簡単にカメラ座標系とロボット座標系の関係を求めることが可能となる。
(第2実施形態)
次に、第2実施形態を図8、図9を参照して説明する。なお、第2実施形態のロボット制御システムのハード構成は、第1実施形態と同一構成であるため、同一構成については、同一符号を付してその説明を省略する。
なお、本実施形態において、CPU41は、第1算出手段、第2算出手段、及び第3算出手段に相当する。
第1実施形態では、ロボット座標系のXY座標平面と、カメラ座標系のXY座標平面とが互いに平行であるとともに、カメラ30から見たロボット座標系のX軸及びY軸が直交している場合に有効としている。それに対して、第2実施形態では、ロボット座標系のXY座標平面と、カメラ座標系のXY座標平面とが互いに平行ではないとともに、実機(ロボット)上において、ハンドツール25をロボット座標系のX軸及びY軸に沿ってそれぞれ移動させたときの軌跡が直交していない場合に有効である。なお、ここで前記両軌跡が直交しない理由は、ロボットを構成しているアームの連結構成に機械誤差があるためである。
本実施形態では、2次元視覚装置40のROM42に格納されている画像処理プログラムが第1実施形態の画像処理プログラムと異なっている。ROM42は、画像処理プログラムを記憶する記憶媒体に相当する。
(第2実施形態の作用)
本実施形態のロボット制御システムにおいて、カメラ30のカメラ座標系とロボット20のロボット座標系を結合する手順について説明する。
<1.ロボットのハンドツールの中心座標>
図8(a)は、CPU41が、カメラ座標系とロボット座標系の結合のための画像処理プログラムを実行する際、ロボットのハンドツール25の中心座標の求め方のフローチャートである。同フローチャートにおいて、S10〜S14は、第1実施形態と同様であるため、説明を省略するが、なお、S10では、第1実施形態で記述したようにツール軸26は、前記制御により、ロボット座標系のX座標値及びY座標値(p,q)で回転する。
S16Aでは、CPU41は、S14で取得した特徴点P1〜Prの座標値に基づいて各座標値を通過する軌跡から楕円弧(すなわち、閉曲線としての楕円を形成する円弧)を算出(割り出し)する。
ここで、ロボット座標系のXY座標平面と、カメラ座標系のXY座標平面とが互いに平行ではない場合、カメラ30で撮像した得られた認識対象治具70の特徴部位(突起71)の軌跡は、楕円を描くため、S16Aでは、この楕円弧を算出するようにしている。
S18Aでは、CPU41は、この得られた楕円弧の中心点(中心)、すなわち、割り出した楕円の中心点の座標値(m,n)を算出し、RAM43に記憶する。楕円の中心点の求め方は、例えば、楕円を割り出した場合、その長径の両端の各座標値をそれぞれ算出し、その両端の1/2の位置の座標を楕円の中心座標とする。なお、中心の求め方は前記方法に限定するものではない。
この算出された楕円の中心の座標値(m,n)は、ツール軸26のカメラ座標系の座標値である。
S10〜S18Aは、第1ステップに相当する。
<2.ロボット座標系の傾き>
図8(b)において、S20A〜S28Aは、CPU41が、カメラ座標系とロボット座標系の結合のための画像処理プログラムを実行する際、ロボット座標系のカメラ座標系に対する傾きの求め方のフローチャートである。
S20Aでは、前記画像処理プログラムが実行される際に、ロボット制御装置10により下記で説明するロボット20の作動制御が行われる。
この作動制御は、オペレータが入力装置15に対する入力操作により、手動制御されてもよく、或いは、カメラ座標系とロボット座標系の結合のための画像処理プログラムを実行する際に、ロボット制御装置10のROMに格納された自動制御プログラムに基づいて自動制御で行うようにしてもよい。
ロボット20は上記手動制御又は自動制御により、図2(a)に示す認識対象治具70を真空吸着パッド27にて吸着保持し、かつ、カメラ30とワーク台60間の位置であってカメラ30の撮像範囲内に入るように位置した状態で、ツール軸26をロボット座標系のX軸に沿うように、直線距離L分、直線移動する。この直線距離は予め設定された距離である。
この後、上記手動制御又は自動制御により、図2(a)に示す認識対象治具70を真空吸着パッド27にて吸着保持し、かつ、カメラ30とワーク台60間の位置であってカメラ30の撮像範囲内に入るように位置した状態で、ツール軸26をロボット座標系のY軸に沿うように、直線距離L分、直線移動する。
すなわち、本実施形態では、ロボット座標系において、前記ツール軸26を交差可能な座標平面を構成する2つの座標軸、すなわち、X軸(傾き計測座標軸)及びY軸(傾き計測座標軸)に対して、それぞれ沿うように認識対象治具70、すなわちハンドツール25を移動させる。
このときの、認識対象治具70の姿勢は、正確に水平である必要はなく、傾いていてもよい。ハンドツール25による保持位置は、前述したように特徴部位がカメラ30から見た場合に、ハンドツール25に隠れないようにされていれば、任意の位置でよい。
又、S20Aでは、上記のようにしてX軸、並びに、Y軸に沿って直線移動中の認識対象治具70は、カメラ30により撮像されて、その画像信号は、2次元視覚装置40に入力される。2次元視覚装置40に入力された画像信号は、CPU41により、軸(X軸及びY軸)別に、時系列に従って所定のフレームレートでフレーム画像が生成されて、画像メモリ45に格納される。
前記フレーム画像は直線移動動画像に相当する。
S22Aでは、CPU41は、軸(X軸及びY軸)毎に、時系列順に生成されたフレーム画像において、時間的に隣接するフレーム画像間のフレーム差分を抽出する。
S24Aでは、CPU41は、前記フレーム差分結果である画像データ(以下、フレーム差分画像という)中において、認識対象治具70の突起71(特徴部位)の各軸に沿って直線移動した際、それぞれの始点と終点のカメラ座標系の座標値を取得する。この突起71の座標値の取得は、フレーム差分画像を予め定められた閾値で2値化処理等の公知の画像処理を行い、始点及び終点を割り出して行う。
本実施形態では、これらのそれぞれの始点及び終点の座標値を、ベクトルとして扱う。
S20A〜S24Aは、第2ステップに相当する。
<3.カメラ座標系とロボット座標系の相対位置関係の算出>.
上記のようにS18Aで取得されたツール軸26のカメラ座標系の楕円弧の中心の座標値(m,n)と、S24Aで取得された始点及び終点の座標値に基づいた2つのベクトルに基づいて、CPU41は、カメラ座標系とロボット座標の相対位置関係の算出を、S28Aで行う。この算出は、第3ステップに相当する。
まず、ロボット座標系原点のカメラ座標値(x,y)を求める。
具体的には、直線距離L(mm)移動したときの、X軸に沿った始点、終点を、
(x,y)、U(x,y
とし、Y軸に沿った始点、終点を、
(x,y)、V(x,y
とする。
ロボットのX軸に沿った長さ1mmの単位ベクトルは、
Figure 0005729219
ロボットのY軸に沿った長さ1mmの単位ベクトルは、
Figure 0005729219
となる。
ロボットのX軸に沿った単位ベクトルは、カメラ座標系のX軸(傾き計測座標軸)に対する傾き指標パラメータに相当する。ロボットのY軸に沿った単位ベクトルは、カメラ座標系のY軸(傾き計測座標軸)に対する傾き指標パラメータに相当する。
図9(a)に示すロボット座標系原点Oからツール軸26の中心Tまでのベクトルを、2つの単位ベクトルの合成ベクトルとして表すと、以下のようになる。
Figure 0005729219
これに、今までに取得したパラメータを代入すると、
Figure 0005729219
となる。
CPU41は、式(8)を解いて、ロボット座標原点のカメラ座標値(x,y)を求める。
次に、CPU41は、カメラ座標値からロボット座標値への変換式を求める。すなわち、カメラ座標系とロボット座標の相対位置関係の算出を行う。
具体的には、上記のように取得したx,y、及び式(5)、式(6)で表される単位ベクトルを使用して、CPU41は、カメラ座標値をロボット座標値に変換する変換式を求める。
図9(b)に示すカメラ座標値(x,y)の点Pをロボット座標系に変換した時の座標値を(X,Y)とすると、
Figure 0005729219
となる。この式(9)に、今までに取得したパラメータを代入すると、
Figure 0005729219
となる。CPU41は、この式(10)から得られる連立方程式を解いて、下記式(11)、式(12)を求める。
Figure 0005729219
Figure 0005729219
Figure 0005729219
なお、式(13)〜式(16)は式(11)、式(12)中で使用したU、U、V、Vの定義のための式である。
このようにしてカメラ座標系とロボット座標系の相対位置関係が算出されて、その結果がRAM43等のメモリに格納される。
以後、カメラ座標系とロボット座標系の相対位置関係が得られているため、実作業を行う際に、2次元視覚装置40からロボット制御装置10へこの相対位置関係が反映された正しい指示を出すことが可能となる。
第2実施形態では、第1実施形態の(2)、(4)の効果に加えて、下記の特徴がある。
(1) ロボット制御システムのカメラ座標系とロボット座標系の結合方法は、第1ステップでは、ハンドツール25をロボット先端のツール軸26の周りで回転させて、ハンドツール25が保持する認識対象治具70の回転動画像をカメラ30(固定カメラ)で取得し、前記回転動画像から得られたフレーム差分に基づいて認識対象治具70の突起71(特徴部位)の楕円弧(すなわち、閉曲線)を割り出し、前記楕円弧の中心点をカメラ座標系で算出する。
また、第2ステップでは、ロボット座標系の座標軸であって、ツール軸26が交差可能な座標平面を構成するX軸(傾き計測座標軸)及びY軸(傾き計測座標軸)に対して、沿うように認識対象治具70を保持したハンドツール25を直線移動させて、認識対象治具70の直線移動動画像をカメラ30(固定カメラ)で取得し、直線移動動画像に基づいて、カメラ座標系のX軸(傾き計測座標軸)及びY軸(傾き計測座標軸)に対する傾き指標パラメータとなるベクトルを算出する。
また、第3ステップでは、楕円弧(閉曲線)の中心点と、カメラ座標系のX軸,Y軸に対するロボット座標系のX軸(傾き計測座標軸)、Y軸(傾き計測座標軸)に対する傾き指標パラメータとなるベクトルに基づいてカメラ座標系とロボット座標系の相対位置関係を算出する。
この結果、ロボット20(ハンドリングロボット)に認識対象治具70を把持する際に正確に把持させる必要が無く、又、認識対象治具70を把持させた状態で、回転及び直線移動させたときに取得した連続画像(動画像)により、ハンドツール25のツール軸26中心と、ロボット座標系とカメラ座標系の傾きを簡単に得ることができる。
又、本実施形態によれば、ロボット座標系のXY座標平面と、カメラ座標系のXY座標平面とが互いに平行ではないとともに、ロボット座標系のX軸及びY軸とが直交していない場合においても、ハンドツールのツール軸中心と、ロボット座標系とカメラ座標系の傾きを簡単に得ることができる。
(2) 第2実施形態の2次元視覚装置40(画像処理装置)は、ハンドツール25をロボット先端のツール軸26の周りで回転させて、ハンドツール25が保持する認識対象治具70の回転動画像をカメラ30(固定カメラ)から取得し、回転動画像から得られたフレーム差分に基づいて認識対象治具70の突起71(特徴部位)が描いた軌跡から楕円弧(すなわち、閉曲線)を割り出し、前記楕円弧(楕円)の中心点をカメラ座標系で算出するCPU41(第1算出手段)を備える。
又、CPU41は、ロボット座標系の座標軸であって、ツール軸26が交差可能な座標平面を構成するX軸(傾き計測座標軸)及びY軸(傾き計測座標軸)に対して、沿うように認識対象治具70を保持したハンドツール25を直線移動させて、認識対象治具70の直線移動動画像をカメラ30(固定カメラ)で取得し、直線移動動画像に基づいて、カメラ座標系のX軸(傾き計測座標軸)及びY軸(傾き計測座標軸)に対する傾き指標パラメータとなるベクトルを算出する第2算出手段として機能する。
又、CPU41は、楕円弧(閉曲線)の中心点と、カメラ座標系のX軸,Y軸に対するロボット座標系のX軸(傾き計測座標軸)、Y軸(傾き計測座標軸)に対する傾き指標パラメータとなるベクトルに基づいてカメラ座標系とロボット座標系の相対位置関係を算出する第3算出として機能する。
この結果、第2実施形態の(1)に記載の作用効果を奏することができる2次元視覚装置40を提供できる。
第2実施形態の2次元視覚装置40では、認識対象治具70を回転させるツール軸26の位置のロボット座標系の座標値を予めロボット制御装置のプログラムにセットして固定化するとともに、ロボット座標系のX軸、及びY軸に沿って移動するようにプログラムを組み込みすることにより、全ての演算が自動化できるため、オペレータは、画像処理装置(本実施形態では、2次元視覚装置40)を作動させながらロボットを決められた通りに動かすだけでよい。
(3) 本実施形態のカメラ座標系とロボット座標系の結合のための画像処理プログラムは、コンピュータを、ツール軸26を介してロボット20先端に設けられたハンドツール25がツール軸26の周りで回転する際の、ハンドツール25が保持する認識対象治具70の回転動画像をカメラ30(固定カメラ)から取得し、回転動画像から得られたフレーム差分に基づいて認識対象治具70の突起71(特徴部位)が描いた軌跡から楕円弧(閉曲線)を割り出し、楕円弧の中心点をカメラ座標系で算出する第1算出手段として機能させる。
又、前記プログラムは、コンピュータを、ロボット座標系の座標軸であって、ツール軸26が交差可能な座標平面を構成するX軸(傾き計測座標軸)及びY軸(傾き計測座標軸)に対して、沿うように認識対象治具70を保持したハンドツール25を直線移動させて、認識対象治具70の直線移動動画像をカメラ30(固定カメラ)で取得し、直線移動動画像に基づいて、カメラ座標系のX軸(傾き計測座標軸)及びY軸(傾き計測座標軸)に対する傾き指標パラメータとなるベクトルを算出する第2算出手段として機能させる。
又、前記プログラムは、コンピュータを、楕円弧(閉曲線)の中心点と、カメラ座標系のX軸,Y軸に対するロボット座標系のX軸(傾き計測座標軸)、Y軸(傾き計測座標軸)に対する傾き指標パラメータとなるベクトルに基づいてカメラ座標系とロボット座標系の相対位置関係を算出する第3算出として機能させる。
この結果、第2実施形態の(1)に記載の作用効果を奏することができるプログラムを提供できる。
(4) 本実施形態の記憶媒体としてのROM42は、コンピュータが読み取り可能であって、第2実施形態の(3)に記載の画像処理プログラムを記憶する。
この結果、第2実施形態の(1)に記載の作用効果を奏することができるプログラムを記憶したROM42を提供できる。すなわち、上記プログラムを記憶した記憶媒体をコンピュータに実装することにより、簡単にカメラ座標系とロボット座標系の関係を求めることが可能となる。
(参考例)
次に、参考例を図10〜図14を参照して説明する。参考例は下記の問題を解消するためのものである。
ロボットにより部品をハンドリング等により取り扱う工程では、画像処理技術を利用してワークの位置・姿勢を検出することが行われている。この場合、前記画像処理技術では、ワーク外形の輪郭線を検出する手法が行われることが多い。
透明なガラスだけで構成されたワーク(例えば、車両のフロントウインドウ、リヤウインドウ)の場合は、カメラの外形のエッジを検出するのが難しいため、エッジをうまく撮影するための様々な手法が考案されている(特許文献3参照)。
一方、ガラスとガラス以外のものと一体になっているウインドウ(例えばハメ殺しのクォータウインドウ)の場合は、ラバーや樹脂からなるモールが一体に形成されてエッジが形成されているため、ワークのエッジをカメラで検出することが容易であるが、下記の大きな問題がある。
すなわち、柔らかい樹脂やラバーで構成されたエッジの部分は、柔らかくて、変形しやすいため、保護のため箱などに収納されて運ばれる間にエッジが変形してしまうことが多い。この変形した状態のままカメラで検出しようとすると、エッジを誤った形状で認識し、別の種類のワークと誤認する問題がある。又、位置計測の場合は、誤差が発生する問題がある。
外形輪郭線を使わずにワークの位置・姿勢を計測する方法として、ワーク表面に成形、又は印刷したアライメントマークを検出する方法もある。しかし、このような細工を施すと、外観品質を損なうので、意匠面側をカメラに向けワークを置く設定の場合は、この手法は使えない。
外形輪郭線を使わない別の案として、モールの内側の線(ガラスとモールの境界線)を検出する方法も考えられる。図15に示すようにモール200はガラス210との一体成形時に型で規制されるため精度がよく、接着されているので、変形もない。しかし、ガラス210の片面(反意匠面)側にはモールと同色のセラミックが見栄え向上のため塗布されており、透明なガラスを通してこのセラミックが見えるため、この部分を撮像して得られた画像は、黒く見えてしまい、このため、画像処理でガラスとモールの境界線を認識することが極めて難しい問題がある。
さらに、上記例において内側のセラミックのエッジを検出する方法も考えられるが、セラミックは吹き付けで塗着されるため、位置精度が良くない上、ウインドウがプライバシーガラスのように着色されたガラスにより構成されている場合、セラミックのエッジが見づらくなり、画像処理によるエッジ検出は困難である問題がある。
このようにワークの位置・姿勢の計測で、一般的な用いられる外形輪郭線を利用する方法は、輪郭線が変形しやすいモールの場合には使用できず、精度が良く、変形もしないモールの場合においても画像認識処理によるエッジの識別が困難である問題がある。
上記の問題を解決するために、本参考例のロボット制御システムは、ロボット制御装置10及びハンドリングロボット(以下、単にロボットという)20、固定カメラとしてのカメラ30及びワーク形状認識装置としての2次元視覚装置40を備えている。これらのハード構成は、第1実施形態と同一構成については、図10に示すように同一符号を付してその説明を省略する。又、ロボット制御システムは、図10に示すように、ロボットが把持するワークを照明する照明手段としての照明装置100が設けられている。
なお、本実施形態では、ワークWは、自動車のウインドウガラスであって、透明材質であるガラスからなる本体Waと、本体Waの全周部に配置されたモールWbとを有する。モールWbは、投射された光が拡散する拡散反射部材に相当する。モールWbは、ゴム又は合成樹脂により形成されている。図12に示すように、モールWbは、本体Waの周縁部に対して溝Wcにより嵌合されるとともに、本体Waの反意匠面側(図12において下面側)の一部にはモールWbと同色のセラミックWdが塗布されている。
照明装置100は、図11に示すように、有蓋四角箱状のケース101と、ケース101の内頂部に配置された複数の発光体102と、ケース101の底部開口を閉塞して配置された拡散板103とにより構成されている。発光体102は、本実施形態では、蛍光灯、LED(Light Emitting Diode)等により構成されている。なお、ケース101の箱形状は限定されるものではない。
又、照明装置100と、図示しないテーブル上のワークWと、カメラ30との配置関係は、下記の関係にある。なお、カメラ30内には、CCD、或いはCMOS等からなる撮像素子32、及びレンズ33を備えている。
図11に示すように、カメラ30内部の撮像素子32の撮像エリアを規定する一方の線とレンズ主点34を結ぶ線を直線Aとし、反対の縁とレンズ主点34を結ぶ線を直線Bとし、これらの直線A,Bをウインドウガラス(本体Wa)の表面で入射角θ1=反射角θ2、入射角θ3=反射角θ4となるように折り返した線をそれぞれ直線A’,B’とする。図11では、本体Waの表面から延長した仮想ガラス面上で入射角θ1=反射角θ2、入射角θ3=反射角θ4となるように、直線A,Bと直線A’,B’が折り返されている。
撮像素子32は、一般的には撮像面が長方形であるため、この直線A,A’を撮像素子32の撮像面の縁に沿って一周させると、直線A,A’によって四角錐が形成される。なお、直線A,A’によって形成される四角錐は、図11では、仮想ガラス面、並びに本体Waの表面において、折り返されたものとなる。
又、直線B,B’を撮像素子32の撮像面の縁に沿って一周させると、直線B,B’によって四角錐が形成される。なお、直線B,B’によって形成される四角錐は、図11では、仮想ガラス面、並びに本体Waの表面において、折り返されたものとなる。
照明装置100は、これらの四角錐を全て遮るような配置及び形状としている。この条件下において、照明装置100のワークWに対する照明角度、ワークWとの距離は任意に設定されていてよい。この条件において、図12に示すように、カメラ視野に入った本体Waでは、照明装置100から投射された光が正反射されて撮像素子32により撮像されることになる。又、カメラ視野に入ったモールWbでは、図12に示すように照明装置100から投射された光が拡散反射されて撮像素子32により撮像されることになる。
なお、照明装置100はワークWから遠くになればなるほど大型化するため、なるべく、ロボットと干渉しない位置であって近い距離が望ましい。
又、本実施形態では、発光体102は、モールWbの表面色に対して補色関係にある色を発光するように設けられている。
補色は、色相環で、対向位置にある色同士のことをいい、ある色に対して、重ねると黒になる関係の色を言う。例えば、緑色の補色はマゼンタ色であり、両者が重ねられると黒色となる。
(参考例の作用)
さて、上記のように構成された2次元視覚装置40の作用を説明する。
前記説明した条件下で照明装置100によりワークWを照明すると、図12に示すように、カメラ視野内において、本体Waでは正反射し、モールWbでは拡散反射する。ここで、正反射した反射光の色は、光源色に支配されて、本体Waは光源色で撮像素子32により撮像される。一方、モールWbは、拡散反射するため、その反射光はモールWbの表面色に支配される。
ところで、発光体102は、モールWbの表面色に対して補色関係にある色でモールWbに対して投射しているため、モールWbは黒く見えることになる。図13の例では、マゼンタ色のモールWbの場合、発光体102が補色である緑色を発光させて照明を当てると、モールWbはその緑色の光を吸収するため、黒く見えることになる。
撮像素子32は、その黒色のモールWbを撮像する。
2次元視覚装置40は、カメラ30により、取得した画像に対して公知の画像処理を行い、カメラ視野に入った、光源色で撮像された領域(本体Waの領域、すなわち、明るい部分)と、黒色で撮像された領域(モールWbの領域、すなわち、暗い部分)との境界線を抽出する。この境界線の抽出により、該境界線で規定される本体Waの外形形状が得られる。
このワークWの本体Waの外形形状の取得により、2次元視覚装置40は、カメラ30は固定カメラであることから、カメラ座標系で予め設定された基準位置におけるワークWの外形形状と比較して、その基準位置との位置ずれ量を算出することが可能となる。
本参考例において、発光体102は、モールWbの表面色とは補色関係の色を発光するようにしたが、モールWbが黒色の場合は、補色関係の色はないため、発光体102は、白色光を発光する様にしてもよい。
図14は、黒色のモールWbの場合、発光体102が白色を発光させて照明を当てると、モールWbは白色の光を吸収するため、黒く見えることになる例を示している。
・ なお、前記参考例では、本体Waの全周部にモールWbを配置したが、モールの配置は全周部に限定するものではない。全周部にモールWbを配置していない場合、ワークWが載置されるワーク台の載置面とモールWbが配置されていない本体Waの部分との境界線(外形線)が識別できるように、前記載置面は拡散反射する面とすることが好ましい。
・ 参考例では、発光体102自身が、モールWbの補色の関係の色を発光するようにしたが、拡散板103が補色関係の色のみを透過して拡散するようにしてもよく、拡散板103と発光体102との間に補色関係の色を透過させるフィルターを介在させるようにしてもよい。
・ 前記参考例では、ワークWはウインドウガラスとしたが、ウインドウガラスに限定されるものではない。透明体を本体として、その本体の周囲に拡散反射部材が設ける構造のものであれば、限定されるものではない。例えば、ガラス戸、ガラス蓋等の形状認識装置として具体化できるものである。
なお、本発明の実施形態は前記各実施形態に限定されるものではなく、下記のように変更しても良い。
・ 前記各実施形態では、ロボットのハンドツール25は、真空吸着パッド付きのハンド装置としたが、機械式チャック装置に代えても良い。この場合、例えば、機械式チャック装置が互いに対向する指部材で、ワークを把持可能である場合、図2(b)に示すように、認識対象治具70の形状は、長手方向に延びる互いに反対側に位置する両側部に凹部72を設けるものとする。なお、凹部72の形状は、限定するものではない。この変形例の認識対象治具においても、特徴的部位としての端部には、突起71が設けられている。
・ 前記各実施形態では、ロボットのハンドツール25は、真空吸着パッド付きのハンド装置としたが、磁気によってワークを吸着する磁気吸着式チャック装置であってもよい。この場合、認識対象治具は、磁気吸着式チャック装置により磁気吸着可能な材質で形成するものとする。
・ 前記各実施形態では、ROM42をカメラ座標系とロボット座標系の結合のための画像処理プログラムを記憶する記憶媒体としたが、画像処理プログラムを記憶する記憶媒体は、ROM42に限定されるものではない。ROM42の代わりに、CPU41が書き込み、読み取り可能な外部記憶装置としてハードディスクに具体化したり、或いは、USBメモリ等の半導体記憶装置に具体化してもよい。
・ 前記各実施形態のロボットは6軸ロボットに具体化したが、6軸ロボットに限定されるものではなく、7軸以上のロボット、或いは5軸未満のロボットであって、アーム先端部において、ツール軸の回転と、アームの先端部の直線移動が可能なロボットであってもよい。
・ 前記各実施形態では、ロボット座標系を、ロボットの台座(ベース)を基準にした座標系(ベース座標系)としたが、ユーザが任意位置に設定する座標系(ユーザ座標系)としてもよい。
・ 前記各実施形態では、S20では、カメラ30とワーク台60間の位置であってカメラ30の撮像範囲内に入るように位置した状態で、ツール軸26をロボット座標系のX軸に平行に直線移動するようにしたが、ツール軸26をロボット座標系のY軸に平行に直線移動するようにしてもよい。この場合においても、ロボット座標系のY軸とカメラ座標系の傾きが得られるため、この傾きに基づいて、同様にしてカメラ座標系とロボット座標系の相対位置関係を算出することができる。
・ 第1実施形態では、S10〜S18を実行した後に、S20〜S28を実行したが、S20〜S28を実行後、S10〜S18を実行してもよい。
・ 第2実施形態では、S10〜S18Aを実行した後に、S20A〜S28Aを実行したが、S20A〜S28Aを実行後、S10〜S18Aを実行してもよい。
・ 第2実施形態では、S20Aにおいて、ツール軸26をロボット座標系のX軸及びY軸に沿うようにそれぞれ同じ直線距離L分、直線移動するようにしたが、異なる直線距離L1,L2で移動するようにしてもよい。この場合、式(5)、式(6)、式(8)、式(10)、式(13)〜式(14)で使用したLの代わりに、L1,L2を使用するものとする。
次に、参考例から想起できる技術的思想を以下に記載する。
技術的思想(1)は、光源色を、拡散反射部材の表面色の補色関係の色とすることにより、画像処理手段が取得する画像において、拡散反射部材が撮像された画像領域は黒色となり、正反射光が得られた画像領域は白色となる。このため、ワークにおける本体と拡散反射部材間における境界の形状認識は、前記境界以外の拡散反射部材の変形の影響を受けず精度良く行うことができる。
(1) 表面が正反射可能であるとともに透明材質からなる本体の周部に拡散反射部材が配置されたワークを撮像するカメラと、
光を拡散する拡散板を有するとともに、前記拡散反射部材の表面色と補色関係の色を投射して前記拡散板により面光源として前記ワークに対して照明する照明手段と、
前記照明手段から投射されて前記ワークの本体の表面で正反射した正反射光、及び前記拡散反射部材で拡散反射した拡散反射光を、前記カメラで取得して得られた画像中の前記正反射光の光源色と前記拡散反射光による拡散反射部材の表面色の違いに基づいて前記本体及び拡散反射部材の形状認識を行う画像処理手段を備えることを特徴とするワーク形状認識装置。
技術的思想(2)は、光源色を白色光とすることにより、拡散反射部材が黒色の場合、画像処理手段が取得する画像において、拡散反射部材が撮像された画像領域は黒色となり、正反射光が得られた画像領域は白色となる。このため、ワークにおける本体と拡散反射部材間における境界の形状認識は、前記境界以外の拡散反射部材の変形の影響を受けず精度良く行うことができる。
(2) 表面が正反射可能であるとともに透明材質からなる本体の周部に拡散反射部材が配置されたワークを撮像するカメラと、
光を拡散する拡散板を有するとともに、白色光を投射して前記拡散板により面光源として前記ワークに対して照明する照明手段と、
前記照明手段から投射されて前記ワークの本体の表面で正反射した正反射光、及び前記拡散反射部材で拡散反射した拡散反射光を、前記カメラで取得して得られた画像中の前記正反射光の光源色と前記拡散反射光による拡散反射部材の表面色の違いに基づいて前記本体及び拡散反射部材の形状認識を行う画像処理手段を備えることを特徴とするワーク形状認識装置。
技術的思想(3)によれば、ワークの本体が、透明材質であるガラス又は合成樹脂からなり、前記拡散反射部材がモールの場合のワークの形状認識を精度良く行うことができる。
(3) 前記ワークの本体が、透明材質であるガラス又は合成樹脂からなり、前記拡散反射部材がモールであることを特徴とする技術的思想(1)又は(2)に記載のワーク形状認識装置。
10…ロボット制御装置、20…ロボット、25…ハンドツール、
26…ツール軸、30…カメラ(固定カメラ)、
40…2次元視覚装置(画像処理装置)、
41…CPU(第1算出手段、第2算出手段、第3算出手段)、
42…ROM(記憶媒体)、70…認識対象治具、71…突起(特徴部位)。

Claims (9)

  1. ロボットの先端にツール軸を介して設けられたハンドツールと、前記ハンドツールの作業を撮像する固定カメラを備えたロボット制御システムのカメラ座標系とロボット座標系の結合方法において、ハンドツールをロボット先端のツール軸の周りで回転させて、前記ハンドツールが保持する認識対象治具の動画像(以下、回転動画像という)を固定カメラで取得し、前記回転動画像から得られたフレーム差分に基づいて前記認識対象治具の特徴部位が描いた軌跡から閉曲線を割り出し、前記閉曲線の中心点をカメラ座標系で算出する第1ステップと、ロボット座標系の座標軸であって、前記ツール軸が交差可能な座標平面を構成する2つの座標軸のうち少なくとも一方の座標軸(以下、傾き計測座標軸という)に対して、沿うように前記認識対象治具を保持したハンドツールを直線移動させて、前記認識対象治具の動画像(以下、直線移動動画像という)を前記固定カメラで取得し、前記直線移動動画像に基づいて、カメラ座標系に対する前記傾き計測座標軸の傾き指標パラメータを算出する第2ステップと、前記閉曲線の中心点と前記傾き指標パラメータに基づいてカメラ座標系とロボット座標系の相対位置関係を算出する第3ステップを備えることを特徴とするロボット制御システムのカメラ座標系とロボット座標系の結合方法。
  2. 前記閉曲線が楕円であり、
    第2ステップでは、ロボット座標系の2つの座標軸を傾き計測座標軸とし、
    前記傾き指標パラメータは、前記2つの傾き計測座標軸に沿って、ハンドツールをそれぞれ移動させた際の、カメラ座標系での始点及び終点の座標値に基づいたベクトルであることを特徴とする請求項1に記載のロボット制御システムのカメラ座標系とロボット座標系の結合方法。
  3. 前記閉曲線が円であり、
    第2ステップでは、ロボット座標系の1つの座標軸を傾き計測座標軸とし、
    前記傾き指標パラメータは、前記1つの傾き計測座標軸に沿って、ハンドツールを移動させた際の、直線軌跡と傾き計測座標軸との角度であることを特徴とする請求項1に記載のロボット制御システムのカメラ座標系とロボット座標系の結合方法。
  4. 前記認識対象治具の特徴部位が、前記認識対象治具の一端に設けられた突起であることを特徴とする請求項1乃至請求項3のうちいずれか1項に記載のロボット制御システムのカメラ座標系とロボット座標系の結合方法。
  5. ハンドツールをロボット先端のツール軸の周りで回転させて、前記ハンドツールが保持する認識対象治具の動画像(以下、回転動画像という)を固定カメラから取得し、前記回転動画像から得られたフレーム差分に基づいて前記認識対象治具の特徴部位が描いた軌跡から閉曲線を割り出し、前記閉曲線の中心点をカメラ座標系で算出する第1算出手段と、
    ロボット座標系の座標軸であって、前記ツール軸が交差可能な座標平面を構成する2つの座標軸のうち少なくとも一方の座標軸(以下、傾き計測座標軸という)に対して、沿うように前記認識対象治具を保持したハンドツールを直線移動させて、前記認識対象治具の動画像(以下、直線移動動画像という)を前記固定カメラで取得し、前記直線移動動画像に基づいて、カメラ座標系に対する前記傾き計測座標軸の傾き指標パラメータを算出する第2算出手段と、
    前記閉曲線の中心点と前記傾き指標パラメータに基づいてカメラ座標系とロボット座標系の相対位置関係を算出する第3算出手段を備えることを特徴とする画像処理装置。
  6. 前記閉曲線が楕円であり、
    第2算出手段は、ロボット座標系の2つの座標軸を傾き計測座標軸とし、前記傾き指標パラメータとして、前記2つの傾き計測座標軸に沿って、ハンドツールをそれぞれ移動させた際の、カメラ座標系での始点及び終点の座標値に基づくベクトルを算出することを特徴とする請求項5に記載の画像処理装置。
  7. 前記閉曲線が円であり、
    第2算出手段は、ロボット座標系の1つの座標軸を傾き計測座標軸とし、
    前記傾き指標パラメータとして、前記1つの傾き計測座標軸に沿って、ハンドツールを移動させた際の、直線軌跡と傾き計測座標軸との角度を算出することを特徴とする請求項5に記載の画像処理装置。
  8. コンピュータを、
    ハンドツールをロボット先端のツール軸の周りで回転させて、前記ハンドツールが保持する認識対象治具の動画像(以下、回転動画像という)を固定カメラから取得し、前記回転動画像から得られたフレーム差分に基づいて前記認識対象治具の特徴部位が描いた軌跡から閉曲線を割り出し、前記閉曲線の中心点をカメラ座標系で算出する第1算出手段と、
    ロボット座標系の座標軸であって、前記ツール軸が交差可能な座標平面を構成する2つの座標軸のうち少なくとも一方の座標軸(以下、傾き計測座標軸という)に対して、沿うように前記認識対象治具を保持したハンドツールを直線移動させて、前記認識対象治具の動画像(以下、直線移動動画像という)を前記固定カメラで取得し、前記直線移動動画像に基づいて、カメラ座標系に対する前記傾き計測座標軸の傾き指標パラメータを算出する第2算出手段と、
    前記閉曲線の中心点と前記傾き指標パラメータに基づいてカメラ座標系とロボット座標系の相対位置関係を算出する第3算出手段
    として機能させるプログラム。
  9. コンピュータを、
    ハンドツールをロボット先端のツール軸の周りで回転させて、前記ハンドツールが保持する認識対象治具の動画像(以下、回転動画像という)を固定カメラから取得し、前記回転動画像から得られたフレーム差分に基づいて前記認識対象治具の特徴部位が描いた軌跡から閉曲線を割り出し、前記閉曲線の中心点をカメラ座標系で算出する第1算出手段と、
    ロボット座標系の座標軸であって、前記ツール軸が交差可能な座標平面を構成する2つの座標軸のうち少なくとも一方の座標軸(以下、傾き計測座標軸という)に対して、沿うように前記認識対象治具を保持したハンドツールを直線移動させて、前記認識対象治具の動画像(以下、直線移動動画像という)を前記固定カメラで取得し、前記直線移動動画像に基づいて、カメラ座標系に対する前記傾き計測座標軸の傾き指標パラメータを算出する第2算出手段と、
    前記閉曲線の中心点と前記傾き指標パラメータに基づいてカメラ座標系とロボット座標系の相対位置関係を算出する第3算出手段として機能させるプログラムを記憶したコンピュータ読み取り可能な記憶媒体。
JP2011184953A 2010-09-06 2011-08-26 ロボット制御システムのカメラ座標系とロボット座標系の結合方法、画像処理装置、プログラム、及び記憶媒体 Active JP5729219B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011184953A JP5729219B2 (ja) 2010-09-06 2011-08-26 ロボット制御システムのカメラ座標系とロボット座標系の結合方法、画像処理装置、プログラム、及び記憶媒体

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2010199006 2010-09-06
JP2010199006 2010-09-06
JP2011184953A JP5729219B2 (ja) 2010-09-06 2011-08-26 ロボット制御システムのカメラ座標系とロボット座標系の結合方法、画像処理装置、プログラム、及び記憶媒体

Publications (2)

Publication Number Publication Date
JP2012076216A JP2012076216A (ja) 2012-04-19
JP5729219B2 true JP5729219B2 (ja) 2015-06-03

Family

ID=46237043

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011184953A Active JP5729219B2 (ja) 2010-09-06 2011-08-26 ロボット制御システムのカメラ座標系とロボット座標系の結合方法、画像処理装置、プログラム、及び記憶媒体

Country Status (1)

Country Link
JP (1) JP5729219B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107363823A (zh) * 2017-06-21 2017-11-21 深圳市恒科通机器人有限公司 机械臂的坐标标定方法
CN107972026A (zh) * 2016-10-25 2018-05-01 深圳光启合众科技有限公司 机器人、机械臂及其控制方法和装置

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014180720A (ja) * 2013-03-19 2014-09-29 Yaskawa Electric Corp ロボットシステム及びキャリブレーション方法
JP6005299B2 (ja) * 2013-11-28 2016-10-12 三菱電機株式会社 ロボットシステムおよびロボットシステムの制御方法
CN107702653B (zh) * 2017-11-13 2023-06-06 易思维(天津)科技有限公司 一种机器人涂胶三维信息视觉检测装置及方法
JP7064884B2 (ja) * 2018-01-05 2022-05-11 株式会社Fdkエンジニアリング 部品組付装置の較正方法
CN111015664B (zh) * 2019-12-26 2023-05-30 重庆盟讯电子科技有限公司 一种基于ccd相机的智能化识别方法
CN114043528B (zh) * 2021-11-25 2023-08-04 成都飞机工业(集团)有限责任公司 一种机器人定位性能测试方法、***、设备及介质
CN114227691B (zh) * 2021-12-30 2023-11-28 中铭谷智能机器人(广东)有限公司 一种汽车钣金机器人智能喷漆轨迹安全检测方法
CN114545862B (zh) * 2022-02-25 2024-05-03 浪潮电子信息产业股份有限公司 一种夹具作业点位确定方法、装置、设备及存储介质
CN114904798B (zh) * 2022-05-16 2024-05-28 上海方酋机器人有限公司 一种基于图像识别的煤矸石自动分拣方法、***及介质
CN114800533B (zh) * 2022-06-28 2022-09-02 诺伯特智能装备(山东)有限公司 一种用于工业机器人的分拣控制方法及***
CN117641882B (zh) * 2024-01-25 2024-04-02 合肥安迅精密技术有限公司 基于机器视觉的贴装误差实时校正方法及***

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07104143B2 (ja) * 1986-08-25 1995-11-13 マツダ株式会社 物品の位置検出方法
JPS6472208A (en) * 1987-09-11 1989-03-17 Aisin Seiki Conversion system between robot coordinate and visual coordinate
JP3104448B2 (ja) * 1992-12-25 2000-10-30 三菱電機株式会社 視覚センサ付きロボットの座標系の設定方法
JPH07227784A (ja) * 1994-02-15 1995-08-29 Daikin Ind Ltd ビジョン装置と産業用ロボットとの座標合せ方法およびその装置
JPH08118272A (ja) * 1994-10-20 1996-05-14 Toyota Motor Corp ロボットのキャリブレーション方法
JP2002307346A (ja) * 2001-04-18 2002-10-23 Mitsubishi Electric Corp ロボットの視覚座標校正方法および装置
JP4274558B2 (ja) * 2004-09-15 2009-06-10 富士フイルム株式会社 キャリブレーション方法
JP5365379B2 (ja) * 2009-07-06 2013-12-11 富士電機株式会社 ロボットシステム及びロボットシステムのキャリブレーション方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107972026A (zh) * 2016-10-25 2018-05-01 深圳光启合众科技有限公司 机器人、机械臂及其控制方法和装置
CN107363823A (zh) * 2017-06-21 2017-11-21 深圳市恒科通机器人有限公司 机械臂的坐标标定方法

Also Published As

Publication number Publication date
JP2012076216A (ja) 2012-04-19

Similar Documents

Publication Publication Date Title
JP5729219B2 (ja) ロボット制御システムのカメラ座標系とロボット座標系の結合方法、画像処理装置、プログラム、及び記憶媒体
CN110509300B (zh) 基于三维视觉引导的钢箍加工上料控制***及控制方法
US10899001B2 (en) Method for teaching an industrial robot to pick parts
JP4309439B2 (ja) 対象物取出装置
TWI650626B (zh) 基於三維影像之機械手臂加工方法及系統
JP5854815B2 (ja) 情報処理装置、情報処理装置の制御方法、およびプログラム
US9279661B2 (en) Information processing apparatus and information processing method
JP2022028672A (ja) ロボットモーション用のビジョンシステムの自動ハンドアイ校正のためのシステム及び方法
JP2018176334A (ja) 情報処理装置、計測装置、システム、干渉判定方法および物品の製造方法
CN107009358B (zh) 一种基于单相机的机器人无序抓取装置及方法
US11972589B2 (en) Image processing device, work robot, substrate inspection device, and specimen inspection device
JP2016099257A (ja) 情報処理装置及び情報処理方法
JPH0428518B2 (ja)
JP7064884B2 (ja) 部品組付装置の較正方法
US20150202776A1 (en) Data generation device for vision sensor and detection simulation system
US20150071491A1 (en) Method And Device For Optically Determining A Position And/Or Orientation Of An Object In Space
US12002240B2 (en) Vision system for a robotic machine
US20150343640A1 (en) System and method for locating vehicle components relative to each other
US20180222055A1 (en) Calibration article for a 3d vision robotic system
EP3411194A1 (en) Robot system calibration
US20130057652A1 (en) Handheld Scanning Device
CN108942921A (zh) 一种基于深度学习物体识别的散乱抓取装置
CN113689509A (zh) 基于双目视觉的无序抓取方法、***及存储介质
CN210589323U (zh) 基于三维视觉引导的钢箍加工上料控制***
US11090812B2 (en) Inspection apparatus for optically inspecting an object, production facility equipped with the inspection apparatus, and method for optically inspecting the object using the inspection apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131224

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140924

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141001

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141107

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150310

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150323

R150 Certificate of patent or registration of utility model

Ref document number: 5729219

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250