JP4284765B2 - Robot hand position measuring device - Google Patents

Robot hand position measuring device Download PDF

Info

Publication number
JP4284765B2
JP4284765B2 JP21226699A JP21226699A JP4284765B2 JP 4284765 B2 JP4284765 B2 JP 4284765B2 JP 21226699 A JP21226699 A JP 21226699A JP 21226699 A JP21226699 A JP 21226699A JP 4284765 B2 JP4284765 B2 JP 4284765B2
Authority
JP
Japan
Prior art keywords
value
light source
imaging
robot hand
axis
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP21226699A
Other languages
Japanese (ja)
Other versions
JP2001041709A (en
Inventor
敏彦 塚田
隆志 和田
伊藤  博
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Central R&D Labs Inc
Original Assignee
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Central R&D Labs Inc filed Critical Toyota Central R&D Labs Inc
Priority to JP21226699A priority Critical patent/JP4284765B2/en
Publication of JP2001041709A publication Critical patent/JP2001041709A/en
Application granted granted Critical
Publication of JP4284765B2 publication Critical patent/JP4284765B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明はロボットハンド位置計測装置に係り、特に、ロボットハンドの基準部位の3次元座標を計測するロボットハンド位置計測装置に関する。
【0002】
【従来の技術】
工場の生産ライン等で多数用いられているロボットハンドは、先端部に設けられたハンドにより、例えばワークを吸着又は把持して保持したり、切削、ねじ締め、溶接等の様々な作業を実行可能とされている。ハンドはアームによって3次元的に移動可能とされており、ロボットハンド設置位置にワークが搬送されてくる毎に、作業空間内の予め複数定められた移動目標位置へハンドが順次移動するようにアームが駆動される。これにより、順次搬送されてくるワークに対して搬送、組立、加工等の所期の作業が行われる。
【0003】
ところで、ロボットハンドは、移動目標位置をロボットハンド固有の3次元座標系(ロボットハンド座標系)における座標値として記憶しているが、先端部を移動目標位置へ精度良く移動させるためには、作業空間内の一定位置を原点とする絶対座標系を定め、ロボットハンドの先端部が移動可能範囲内の各位置(例えば移動目標位置)に位置している状態での先端部の絶対座標系における座標値を計測し、絶対座標系とロボットハンド座標系とのずれを検知する必要がある。
【0004】
上記に関連して特許第2682763号公報には、ロボット機体の最先端リンクに装着した撮像装置によりロボットのベース近傍の固定被写点(点光源(32))を撮影し、撮像装置の2次元画像上における固定被写点の撮影による像の位置と計算によって得られる理論上の像の位置とのずれに基づいて、ロボット機体の各リンク要素間の相対位置関係における理論値と実際値との誤差を求めるようにしたロボット機体の作動誤差の自動測定方法が開示されている。
【0005】
また、特開平4−291111号公報には、移動物体を同時に撮像する2台のビデオカメラを、パン角及びチルト角が可変の2台の雲台にそれぞれ取付け、両カメラの撮影画面上での移動物体の目標点が画面中央に引き込まれるように両雲台のパン角及びチルト角を制御し、三角測量法の演算によって移動物体の位置を3次元座標値で検出する技術が開示されている。
【0006】
【発明が解決しようとする課題】
しかしながら、特許第2682763号公報に記載の技術は、単一の撮像装置による撮像によって得られた2次元画像を用いているので、各リンク要素間の相対位置関係の誤差を求めることはできても、ロボットハンド先端部の絶対座標系における3次元座標値を計測することはできず、絶対座標系とロボットハンド座標系とのずれを検知することは不可能である。従って、例えばロボット機体のベース(12)及び点光源(32)の設置位置が所期の位置に対してずれている等によりロボットハンド座標系が絶対座標系に対してずれていた場合、ロボットハンドの先端部を、絶対座標系の座標値で与えられた移動目標位置へ精度良く移動させることは困難である。
【0007】
ロボットハンド先端部の絶対座標系における座標値は、例えば先の特開平4−291111号公報に記載の技術等を利用し、絶対座標系における座標値が既知の所定位置にカメラ等の撮像手段を設置すれば計測可能である。この場合、撮像手段の撮像方向をロボットハンド先端部の存在する方向に一致させるための駆動機構(例えば特開平4−291111号公報に記載の雲台のパン角及びチルト角を変化させる駆動機構)の駆動源としては、回転軸の回転角度を精密かつ簡易に制御可能なステッピングモータが好適である。
【0008】
しかしながら、ステッピングモータは、回転軸を微小な一定角度ずつステップ回転させる構成であるので、撮像手段の撮像方向がロボットハンド先端部の方向に正確には一致しないことも多く、撮像方向がロボットハンド先端部の方向と若干ずれた状態で計測を行った場合、絶対座標系におけるロボットハンド先端部の正確な座標値が得られないという問題があった。
【0009】
本発明は上記事実を考慮して成されたもので、ロボットハンドの位置計測精度の向上を実現できるロボットハンド位置計測装置を得ることが目的である。
【0010】
【課題を解決するための手段】
上記目的を達成するために請求項1記載の発明に係るロボットハンド位置計測装置は、姿勢角、又は位置、又は姿勢角と位置に関する少なくとも2種類のパラメータの値を変更可能で、前記パラメータの値を変更することで指向方向が変化すると共に、ズームレンズを介して前記指向方向を撮像する撮像素子を備えた指向手段と、前記指向手段の前記撮像素子による撮像によって得られる画像上での前記ズームレンズの光学中心に対応する撮像中心位置を、前記ズームレンズのズーム値毎に記憶する記憶手段と、前記指向方向がロボットハンドの基準部位の存在する方向に略一致した状態で、前記指向手段の指向方向と前記基準部位の存在する方向との偏差として、前記指向手段の前記撮像素子による撮像によって得られる画像上での、前記ズームレンズの現在のズーム値に対応する前記撮像中心位置と、前記基準部位の像の重心位置との偏差を検出する第1検出手段と、指向手段の前記少なくとも2種類のパラメータの値を所定の3次元座標系を基準にして検出する第2検出手段と、前記指向方向が前記基準部位の存在する方向に略一致した状態で、前記第1検出手段によって検出された前記偏差、及び前記第2検出手段によって検出された前記パラメータの値に基づいて、前記指向方向が前記基準部位の存在する方向に一致した状態での前記パラメータの値を演算し、演算したパラメータの値を用いて前記所定の3次元座標系における前記基準部位の座標を演算する演算手段と、を含んで構成されている。
【0011】
請求項1の発明では、姿勢角、又は位置、又は姿勢角と位置に関する少なくとも2種類のパラメータの値を変更可能で、前記パラメータの値を変更することで指向方向が変化すると共に、ズームレンズを介して指向方向を撮像する撮像素子を備えた指向手段が設けられている。なお、姿勢角に関する2種類のパラメータとしては、例えば請求項2に記載した方位角と仰角を用いることができ、姿勢角と位置に関する2種類のパラメータとしては、例えば請求項3に記載した仰角と単一の水平方向(水平面内の任意の1方向)に沿った位置を用いることができ、位置に関する2種類のパラメータとしては、例えば請求項4に記載した各々水平でかつ互いに交差する2方向(互いに交差する水平面内の任意の2方向)に沿った位置を用いることができる。
【0012】
上記のパラメータの値を変更して指向手段の指向方向を変化させることで、指向手段の指向方向を、ロボットハンドの基準部位(例えばロボットハンド先端やその近傍)の存在する方向に一致(又は略一致)させることが可能となる。なお、前記パラメータの値を変更するための駆動源としてはステッピングモータを用いてもよいし(この場合、指向手段の前記パラメータの値及び指向方向は段階的に変化する)、前記パラメータの値及び指向方向を連続的に変更可能な他の駆動源を用いてもよい。
【0013】
また請求項1の発明は、指向手段の撮像素子による撮像によって得られる画像上でのズームレンズの光学中心に対応する撮像中心位置が、ズームレンズのズーム値毎に記憶手段に記憶されており、第1検出手段は、指向方向がロボットハンドの基準部位の存在する方向に略一致した状態で、指向手段の指向方向とロボットハンドの基準部位の存在する方向との偏差として、指向手段の撮像素子による撮像によって得られる画像上での、ズームレンズの現在のズーム値に対応する撮像中心位置と、基準部位の像の重心位置との偏差を検出する。第1検出手段による偏差の検出を考慮すると、ロボットハンドの基準部位は他の部位との識別が容易であることが望ましく、例えばロボットハンドの基準部位に光源を取付けることが好ましい。基準部位に光源を取付ける態様において、指向手段の指向方向とロボットハンドの基準部位の存在する方向(すなわち前記光源が存在する方向)との偏差は、例えば基準部位に取付けられた光源からの光の受光位置を検出し、指向方向が光源の存在する方向に一致していた場合の光源からの光の受光位置に対し、検出した受光位置のずれに基づいて検出することができる。これにより、ロボットハンドに光を照射して基準部位で反射された光を検出する場合と比較して、検出光量が基準部位の光反射率の影響を受けたり基準部位の反射面の向きに応じて変化することが抑制される。
【0014】
また、上記のように基準部位に光源を取付けることに代えて、例えば基準部位を特定の色に塗装したり、或いは基準部位に特定のパターンを記録する等によっても、ロボットハンドの基準部位を他の部位と光学的に容易に識別することができる。基準部位を光学的に識別する態様(例えば基準部位に光源を取付ける等の態様)において、第1の検出手段としては、例えば撮像方向が指向手段の指向方向と一致するように指向手段に取付けられた撮像手段や、複数の光センサから成り光検出方向が指向手段の指向方向と一致するように指向手段に取付けられた光検出手段で構成することができる。
【0015】
また請求項1の発明は、指向手段の前記少なくとも2種類のパラメータの値を所定の3次元座標系を基準にして検出する第2検出手段を備えている。第2検出手段は、前記少なくとも2種類のパラメータの各々の種類に応じて、例えばロータリーエンコーダ等の姿勢角検出手段やリニアエンコーダ等の位置検出手段を含んで構成することができる。
【0016】
また、請求項1の発明に係る演算手段は、指向方向がロボットハンドの基準部位の存在する方向に略一致した状態で、第1検出手段によって検出された偏差、及び第2検出手段によって検出された前記パラメータの値に基づいて、指向方向が前記基準部位の存在する方向に一致した状態での前記パラメータの値を演算する。なお、指向方向が基準部位の存在する方向に一致した状態でのパラメータの値は、具体的には、例えば指向手段の指向方向と基準部位の存在する方向との偏差が各々所定値未満でかつ前記パラメータの値が互いに異なる複数の状態において、第1検出手段によって各々検出された偏差と第2検出手段によって各々検出された前記パラメータの値に基づき補間演算(内挿でも外挿でもよい)によって求めることができる。
【0017】
これにより、例えば指向方向を連続的に変化させることができない(段階的に変化する)等の理由で、指向手段の指向方向を基準部位の存在する方向に正確に一致させることができない場合、或いは計測時間の短縮等を目的として指向手段の指向方向が基準部位の存在する方向に正確には一致していない状態で計測(前記パラメータの値の検出)を行った等の場合にも、指向方向が基準部位の存在する方向に一致したときの指向手段の前記パラメータの値を得ることができる。
【0018】
そして演算手段は、上記の演算によって求めた、指向方向が基準部位の存在する方向に一致した状態での前記パラメータの値を用いて所定の3次元座標系における基準部位の座標を演算するので、指向手段の指向方向が基準部位の存在する方向に正確には一致していない状態で計測を行ったことに起因する誤差を排除することができる。また、第1検出手段は、指向手段の指向方向とロボットハンドの基準部位の存在する方向との偏差として、指向手段の撮像素子による撮像によって得られる画像上での、ズームレンズの現在のズーム値に対応する撮像中心位置と、基準部位の像の重心位置との偏差を検出するので、ズームレンズのズーム値の変更に伴ってズームレンズの光軸中心がずれることが、第1検出手段による偏差検出の精度に悪影響を与え、ロボットハンドの位置計測精度の低下を招くことも防止することができる。従って、請求項1の発明によれば、ロボットハンドの位置計測精度の向上を実現できる。
【0019】
ところで、ロボットハンドの基準部位の3次元座標を求めるためには、単一の指向手段の指向方向が基準部位の存在する方向に一致した状態での少なくとも2種類のパラメータの値を計測する以外に、基準部位の3次元座標に関連する少なくとも一種類の別の物理量も計測する必要がある。
【0020】
このため、請求項2記載の発明は、請求項1の発明において、前記指向手段は複数設けられ、各指向手段はロボットハンドの移動可能範囲近傍の互いに異なる一定の位置に各々設置され、前記姿勢角に関する2種類のパラメータとして方位角及び仰角を各々変更可能とされており、前記演算手段は、各指向手段の指向方向が前記基準部位の存在する方向に略一致した状態での各指向手段の方位角及び仰角を用いて前記基準部位の座標を演算することを特徴としている。
【0021】
請求項2の発明では、ロボットハンドの移動可能範囲近傍の互いに異なる一定の位置に、姿勢角に関する2種類のパラメータとして方位角及び仰角を各々変更可能な複数の指向手段が各々設置されており、各指向手段の指向方向が基準部位の存在する方向に略一致した状態での各指向手段の方位角及び仰角を用いてロボットハンドの基準部位の座標が演算される。これにより、ロボットハンドの基準部位の3次元座標を高精度に計測することができる。また、請求項2の発明では、複数の指向手段が互いに異なる一定の位置に設置されている(すなわち各指向手段の水平面内における位置が変化しない)ので、本発明に係るロボットハンド位置計測装置の設置に必要なスペースを削減することができる。
【0022】
また、請求項3記載の発明は、請求項1の発明において、前記指向手段は複数設けられ、各指向手段は、前記姿勢角と位置に関する2種類のパラメータとして仰角及び各々水平でかつ互いに交差する2方向のうちの互いに異なる単一の方向に沿った位置を各々変更可能とされており、前記演算手段は、各指向手段の指向方向が前記基準部位の存在する方向に略一致した状態での各指向手段の仰角及び前記単一の方向に沿った位置を用いて前記基準部位の座標を演算することを特徴としている。
【0023】
請求項3記載の発明では、姿勢角と位置に関する2種類のパラメータとして仰角及び各々水平でかつ互いに交差する2方向のうちの互いに異なる単一の方向に沿った位置を各々変更可能な複数の指向手段が設けられており、各指向手段の指向方向が基準部位の存在する方向に略一致した状態での各指向手段の仰角及び前記単一の方向に沿った位置を用いてロボットハンドの基準部位の座標が演算される。これにより、ロボットハンドの基準部位の3次元座標を高精度に計測することができる。
【0024】
また、請求項3の発明において、複数の指向手段として、双方の指向手段が互いに直交する方向に沿った位置を変更可能な一対の指向手段を設ける場合、指向手段の位置を変更させるための機構として安価なXYステージを利用することが可能となるので、ロボットハンド位置計測装置を安価に構成することができる。
【0025】
また、請求項4記載の発明は、請求項1の発明において、前記指向手段は、前記位置に関する2種類のパラメータとして、各々水平でかつ互いに交差する2方向に沿った位置を各々変更可能とされており、鉛直方向に沿ったロボットハンドの基準部位の高さを検出する第3検出手段を更に備え、前記演算手段は、前記指向手段の指向方向が前記基準部位の存在する方向に略一致した状態での指向手段の前記2方向に沿った位置と、前記第3検出手段によって検出されたロボットハンドの基準部位の高さと、を用いて前記基準部位の座標を演算することを特徴としている。
【0026】
請求項4記載の発明では、位置に関する2種類のパラメータとして各々、水平でかつ互いに交差する2方向に沿った位置を各々変更可能な指向手段が設けられていると共に、鉛直方向に沿ったロボットハンドの基準部位の高さを検出する第3検出手段が設けられており、指向方向が基準部位の存在する方向に略一致した状態での指向手段の前記2方向に沿った位置と、第3検出手段によって検出されたロボットハンドの基準部位の高さと、を用いてロボットハンドの基準部位の座標が演算される。これにより、ロボットハンドの基準部位の3次元座標を高精度に計測することができる。なお第3検出手段は、例えば三角測量の原理を利用して基準部位の高さを検出するものであってもよいし、基準部位に接触することで基準部位の高さを検出するものであってもよいし、基準部位との距離を測定することで基準部位の高さを検出するものであってもよい。
【0027】
なお、請求項1〜請求項4の何れかの発明において、請求項5に記載したように、前記指向手段の指向方向を変化させる駆動手段と、前記ズームレンズのズーム値が前記撮像中心位置が既知の第1のズーム値となっている状態で、前記指向手段の前記撮像素子による撮像によって得られる画像上での前記基準部位の像の重心位置が前記第1のズーム値に対応する前記撮像中心位置に一致するように、前記駆動手段によって前記指向手段の指向方向を制御した後に、前記ズームレンズのズーム値を前記撮像中心位置が未知の第2のズーム値へ変化させ、前記指向手段の前記撮像素子による撮像によって得られる画像上での、前記第1のズーム値に対応する前記撮像中心位置と、前記基準部位の像の重心位置とのずれ量を検出し、前記第1のズーム値に対応する前記撮像中心位置に対して前記検出したずれ量だけずれた位置を、前記第2のズーム値に対応する撮像中心位置として前記記憶手段に記憶させる撮像中心位置取得手段と、を更に設けることが好ましい。これにより、撮像中心位置が未知のズーム値についても、当該ズーム値に対応する撮像中心位置を得ることができる。
【0028】
【発明の実施の形態】
以下、図面を参照して本発明の実施形態の一例を詳細に説明する。
【0029】
〔第1実施形態〕
図1には、本第1実施形態に係るロボットハンド位置計測装置10が示されている。ロボットハンド位置計測装置10は、CPUと、ROM・RAM・入出力ポート等の周辺回路とを含んで構成された制御部12を備えている。制御部12には、各種の情報を入力するための情報入力手段としてのキーボード14、及び各種の情報を表示するための表示手段としてのディスプレイ16が接続されている。なお、ディスプレイ16としては、LCDやCRTディスプレイ等の各種のディスプレイを適用可能である。また、キーボード14に加えてポインティングデバイス(例えばマウス等)の他の情報入力手段も設けてもよい。
【0030】
また、制御部12はロボットハンド駆動部18に接続されている。ロボットハンド駆動部18は、一例として図2に示すロボットハンド20を駆動する。図2に示したロボットハンド20は、基準水平面30に対して旋回可能とされた基部22と、回動可能に基部22に軸支された第1アーム24と、第1アーム24の先端部に回動可能に軸支された第2アーム26と、第2アーム26の先端部に取付けられたハンド28と、から構成されている。ロボットハンド駆動部18はマイクロコンピュータ等を含んで構成され、例えばステッピングモータ等から成る駆動源を複数備えている。ロボットハンド駆動部18は、前記複数の駆動源の駆動力によって基部22を旋回させたり第1アーム24や第2アーム26を回動させることが可能とされている。
【0031】
ロボットハンド20のハンド28の先端部の移動目標位置はロボットハンド20に固有の3次元座標系における座標値として与えられ、ロボットハンド駆動部18は、移動目標位置を表す座標値を、基部22の旋回方向及び角度・第1アーム24の回動方向及び角度・第2アーム26の回動方向及び角度に変換し、ハンド28の先端部が移動目標位置へ移動するように基部22の旋回・第1アーム24及び第2アーム26の回動を制御する。
【0032】
なお、図2に示したロボットハンドの構成は単なる一例であり、本発明が適用可能なロボットハンドは、図2に示した構成のロボットハンド20に限定されるものではなく、上記で説明したロボットハンド駆動部18の構成も、駆動対象のロボットハンドの構成に応じて変更されることは言うまでもない。
【0033】
ロボットハンド20及びロボットハンド駆動部18は一定の位置に固定的に設置されているが、本実施形態に係るロボットハンド位置計測装置は設置位置を移動可能とされており、後述する座標設定処理や位置計測処理を行うときにロボットハンド20の設置位置の近傍に移動され、制御部12がコネクタを介してロボットハンド駆動部18と接続される。
【0034】
また、制御部12には第1の読取望遠鏡40及び第2の読取望遠鏡42が各々接続されている。図2に示すように、ロボットハンド20のハンド28の移動可能空間近傍の基準水平面30上には、読取望遠鏡40、42(又は後述する座標設定用点光源54)を設置可能なステージ32A、32B、32Cが互いに異なる位置に設けられている。なお図2には、ステージ32Aに第1の読取望遠鏡40が設置され、ステージ32Bに第2の読取望遠鏡42が設置され、ステージ32Cに座標設定用点光源54が設置された状態が示されている。
【0035】
ステージ32A、32B、32Cは互いに同一の構成とされており、図3に示すように、ステージ32は円形状の上面34が基準水平面30と面一となるように基準水平面30に取付けられており、上面34の中央には鉛直方向に沿って円溝(ノック穴)36が穿設されている。また、ステージ32Aとステージ32Bは、ステージ32Aの中央(ノック穴36の軸線位置)とステージ32Bの中央の間隔が予め定められた距離Lに一致するように取付位置が調整されている(図2も参照)。
【0036】
また、第1の読取望遠鏡40と第2の読取望遠鏡42も同一の構成であり、以下では第1の読取望遠鏡40を例に、その構成を説明する。図3に示すように、第1の読取望遠鏡40は円筒状の基部40Aを備え、基部40Aの軸線方向に沿った一端部には、外径寸法が基部40Aよりも小さくされた(ノック穴36の内径寸法と略同径とされた)円筒状の挿入部40Bが、基部40Aと同軸に形成されている。図3に想像線で示すように、第1の読取望遠鏡40は挿入部40Bがステージ32のノック穴36に挿入されることでステージ32に設置される。この状態で基部40A及び挿入部40Bの軸線は鉛直方向に一致し、第1の読取望遠鏡40は鉛直方向に沿った軸周り(方位角θ方向)に回動可能となる。
【0037】
このように、本実施形態ではステージ32のノック穴36に読取望遠鏡の挿入部を挿入することで、基準水平面30上の一定の位置に読取望遠鏡を設置することができると共に、設置した読取望遠鏡を方位角方向に回動可能とすることができるので、読取望遠鏡の設置を極めて容易に行うことができる。また、読取望遠鏡の設置位置の精度についても、単にノック穴36の内径及び挿入部の外径の寸法精度を高く(公差を小さく)することで確保することができる。また、ステージ32の設置位置が後述するXYZ絶対座標系の基準となるので、座標系の基準となる物体を別に設ける必要もない。
【0038】
図1に示すように、第1の読取望遠鏡40は、第1の読取望遠鏡40を方位角方向に回動させる方位角方向駆動部44と、第1の読取望遠鏡40の方位角方向の回動角度を検出する方位角検出部46を有している。
【0039】
方位角方向駆動部44は図示しないステッピングモータを備えており、制御部12からの指示に応じたステップ数だけステッピングモータの回転軸が回転するようにステッピングモータを駆動する。ステッピングモータの回転軸の回転は図示しない駆動伝達機構を介して伝達され、第1の読取望遠鏡40は回転軸の回転量に比例した回動量だけ方位角方向に回転される。
【0040】
また、方位角検出部46は制御部12から方位角方向駆動部44に指示されたステップ数に基づいて第1の読取望遠鏡40の方位角方向の回動角度を算出する。これにより、方位角検出部46を低コストで構成できると共に、読取望遠鏡の方位角方向の回動角度を高分解能で算出(検出)できる。方位角検出部46によって算出された第1の読取望遠鏡40の方位角方向の回動角度は制御部12に入力される。なお、方位角方向駆動部44及び方位角検出部46は、基準水平面30側に配置される構成、及び第1の読取望遠鏡40側に配置される構成の何れを採用してもよい。
【0041】
また、第1の読取望遠鏡40の基部40Aの軸線方向に沿った他端部には、軸線方向が基部40Aの軸線方向と直交するように配置された円筒状の旋回部40Cが配置されている。旋回部40Cは図示しない軸支機構を介し、旋回部40Cの軸線周り(仰角φ方向)に回動可能に基部40Aに軸支されている。図1に示すように、第1の読取望遠鏡40は、旋回部40Cを仰角方向に回動させる仰角方向駆動部48と、旋回部40Cの仰角方向の回動角度を検出する仰角検出部50を有している。
【0042】
仰角方向駆動部48は、方位角方向駆動部44と同様に、図示しないステッピングモータを備えており、制御部12からの指示に応じたステップ数だけステッピングモータの回転軸が回転するようにステッピングモータを駆動する。ステッピングモータの回転軸の回転は図示しない駆動伝達機構を介して伝達され、旋回部40Cは回転軸の回転量に比例した回動量だけ仰角方向に回転される。
【0043】
また、仰角検出部50は制御部12から仰角方向駆動部48に指示されたステップ数に基づいて第1の読取望遠鏡40の仰角方向の回動角度を算出する。これにより、仰角検出部50を低コストで構成できると共に、読取望遠鏡の仰角方向の回動角度を高分解能で算出(検出)できる。仰角検出部50によって算出された旋回部40Cの仰角方向の回動角度は制御部12に入力される。なお、仰角方向駆動部48及び仰角検出部50についても、基部40A側に配置される構成、及び旋回部40C側に配置される構成の何れを採用してもよい。
【0044】
また、第1の読取望遠鏡40は撮像部52を備えている。撮像部52は、旋回部40Cの内部に配置されたレンズ及びエリアCCD等の撮像素子と、撮像素子から出力された画像信号に対して増幅やデジタルの画像データへの変換等の処理を行う信号処理部とを含んで構成されている。第1の読取望遠鏡40の撮像部52から出力された画像データは制御部12に入力される。なお、撮像部52は本発明の第1検出手段に対応している。
【0045】
第1の読取望遠鏡40がステージ32に設置されている状態で、撮像部52の撮像素子による撮像方向は、第1の読取望遠鏡40の方位角方向の回動、及び旋回部40Cの仰角方向の回動に応じて変化するが、撮像素子は、第1の読取望遠鏡40の方位角方向の回動中心軸と旋回部40Cの仰角方向の回動中心軸の交点に受光面の中心が位置するように旋回部40C内に取付けられている。これにより、第1の読取望遠鏡40の方位角方向の回動、及び旋回部40Cの仰角方向の回動に拘わらず、撮像素子の受光面の中心は一定の位置に保持される。
【0046】
なお、第1の読取望遠鏡40及び第2の読取望遠鏡42の基部、挿入部、旋回部、方位角方向駆動部44及び仰角方向駆動部48は本発明の指向手段(詳しくは請求項2に記載の指向手段)に対応しており、方位角検出部46及び仰角検出部48は本発明の第2検出手段に対応している。
【0047】
また制御部12には、後述する座標設定処理を行うときに使用される座標設定用点光源54、及び後述する位置計測処理を行うときにロボットハンド20のハンド28の先端部に取付けられるターゲット点光源58(図2も参照)が接続されている。
【0048】
図2に示すように、座標設定用点光源54は基台56に取付けられている。基台56は、第1の読取望遠鏡40と同様に、ステージ32に挿入するための挿入部(図示省略)が設けられており、ステージ32に設置された状態で、座標設定用点光源54がステージ32の中央を通る鉛直線上に位置し、かつ座標設定用点光源54の高さ(鉛直方向に沿った基準水平面30との距離)が、第1の読取望遠鏡40(又は第2の読取望遠鏡42)がステージ32に設置された状態での撮像部52の撮像素子の受光面の中心の高さと等しくなるように、形状及び座標設定用点光源54の取付位置が調整されている。
【0049】
また、基準水平面30上には予め3次元直交座標系(本発明に係る所定の3次元座標系に相当:以下、XYZ絶対座標系と称する)が設定されている。第1実施形態では、上記のXYZ絶対座標系として、ステージ32Aに第1の読取望遠鏡40(又は第2の読取望遠鏡42)が設置された状態で該読取望遠鏡の撮像素子の受光面の中心に相当する位置を原点とし、この原点と、ステージ32Bに第2の読取望遠鏡42(又は第1の読取望遠鏡40)が設置された状態での該読取望遠鏡の撮像素子の受光面の中心とを通る軸をX軸、基準水平面30と平行でX軸と直交する軸をY軸、鉛直方向に沿いX軸及びY軸と各々直交する軸をZ軸とするXYZ座標系を用いている。
【0050】
次に本第1実施形態の作用として、ロボットハンド20固有の座標系をXYZ絶対座標系と対応させるための作業及び処理について説明する。この作業及び処理は、ロボットハンド20の設置時や、ロボットハンド20の故障や異物との衝突によって前記座標系の対応がずれた等の場合に実施され、まずロボットハンド位置計測装置10がロボットハンド20設置位置の近傍に移動され、制御部12がコネクタ等を介してロボットハンド駆動部18と電気的に接続される。
【0051】
次に制御部12に対して座標設定処理の実行が指示される。座標設定処理はロボットハンド位置計測装置10の方位角検出値及び仰角検出値をXYZ絶対座標系に対応させるための処理であり、前記指示に従って制御部12のCPUで実行される。以下、この座標設定処理について、図4のフローチャートを参照して説明する。
【0052】
ステップ100では、ステージ32A(以下、便宜的に位置Aという)に座標設定用点光源54を設置すると共に、ステージ32C(以下、便宜的に位置Cという)に第1の読取望遠鏡40(第2の読取望遠鏡42でもよい)に設置することをオペレータに要請するメッセージをディスプレイ16に表示する。上記の要請に従い、オペレータによって座標設定用点光源54及び第1の読取望遠鏡40が設置されると、次のステップ102において、位置Aに設置されている座標設定用点光源54を捕捉対象の点光源、位置Cに設置されている第1の読取望遠鏡40を制御対象の読取望遠鏡として点光源捕捉制御処理を行う。この点光源捕捉制御処理について、図5のフローチャートを参照して説明する。
【0053】
ステップ150では、捕捉対象の点光源と制御対象の読取望遠鏡との位置関係(位置Aと位置Cの位置関係)に基づき、制御対象の読取望遠鏡の撮像部52の撮像素子の受光面内に捕捉対象の点光源像が結像されるように、制御対象の読取望遠鏡の方位角及び仰角を方位角方向駆動部44及び仰角方向駆動部48によって制御する。上記の制御により、捕捉対象の点光源が存在している方向に対する制御対象の読取望遠鏡の撮像方向の偏差が一定値以下とされ、撮像部52からは点光源に相当する領域(点光源領域という)が存在している画像(例として図6(A)を参照)を表す画像データが入力される。
【0054】
次のステップ152以降では、捕捉対象の点光源が存在している方向(点光源の方向)に対する制御対象の読取望遠鏡の撮像方向の方位角方向に沿った偏差が0のときの方位角値θを求める。すなわち、ステップ152では制御対象の読取望遠鏡の方位角検出部46から方位角の検出値を取り込む。ステップ154では制御対象の読取望遠鏡の撮像部52から入力された画像データを取り込み、ステップ156では、取り込んだ画像データが表す画像中の点光源領域を抽出し、抽出した点光源領域の重心位置を演算する。画像中の点光源領域は他の領域と比較して明らかに高輝度であるので、点光源領域の抽出は二値化等の処理によって容易に実現できる。
【0055】
ところで、本実施形態では、点光源領域の重心位置が画像の中心に一致している状態を、撮像方向が点光源の方向に一致している状態と定義しており、点光源の方向に対して撮像方向が方位角方向にずれていた場合、点光源領域の重心位置は画像の中心に対して図6(A)に示す方位角方向に沿って偏倚し、点光源の方向に対して撮像方向が仰角方向にずれていた場合、点光源領域の重心位置は画像中心に対して図6(A)に示す仰角方向(方位角方向に直交する方向)に沿って偏倚する。
【0056】
このためステップ158では、先に取り込んだ画像データが表す画像に対し、画像の中心を原点とし、方位角方向に平行な第1座標軸と仰角方向に平行な第2座標軸とが原点で直交する直交座標系を設定し(図6(A)では各座標軸を一点鎖線で示す)、ステップ156で求めた点光源領域の重心位置を上記の直交座標系における座標値に変換し、得られた座標値から方位角方向に沿った位置に相当する座標値を抽出することで、制御対象の読取望遠鏡の撮像方向が点光源の方向に一致しているときの点光源領域の重心位置に対する、現在の点光源領域の重心位置の方位角方向に沿った偏差(方位角偏差)を求める。
【0057】
ステップ160ではステップ158で求めた方位角偏差が0か否か判定する。判定が否定された場合にはステップ162で方位角偏差の符号を判定する。そして、次のステップ164では今回の周期で演算した方位角偏差の符号が前回の周期で演算した方位角偏差の符号に対して変化したか否か判定する。今回の周期で初めて方位角偏差を演算した場合には上記判定は無条件に否定され、ステップ166へ移行する。
【0058】
ステップ166では、制御対象の読取望遠鏡の方位角方向駆動部44のステッピングモータの回転軸を1ステップ回転させ、制御対象の読取望遠鏡の方位角を1ステップ分変更する。なお、このときの方位角の変更方向は、先のステップ158で演算した方位角偏差の符号と逆の方向(方位角偏差の絶対値が減少する方向)である。ステップ166の処理を行うとステップ152に戻り、ステップ160又はステップ164の判定が肯定される迄ステップ152〜166を繰り返し、制御対象の読取望遠鏡の方位角を1ステップ分ずつ順次変更する。
【0059】
本実施形態では方位角方向駆動部44及び仰角方向駆動部48の駆動源がステッピングモータであるので、駆動部44又は駆動部48によって読取望遠鏡の方位角又は仰角を変更した場合、読取望遠鏡の方位角又は仰角は段階的に(とびとびに)変化する。このため、ステップ152〜166を繰り返しても、例として図6(A)に示すように、nステップ目では点光源領域の重心位置が方位角方向に沿って画像中心の左側に位置し、n+1ステップ目では点光源領域の重心位置が方位角方向に沿って画像中心の右側に位置する等のように、方位角偏差が0の状態が生じないことが多い。
【0060】
上記のような場合には、ステップ160の判定が肯定されずにステップ164の判定が肯定されてステップ168へ移行し、前回及び今回の周期で演算した方位角偏差、前回及び今回の周期での方位角検出値に基づいて、方位角偏差が0のときの方位角値θを補間演算によって求める。一例として、前回の周期での方位角偏差をdn、今回の周期での方位角偏差をdn+1、前回の周期での方位角検出値をθn、今回の周期での方位角検出値をθn+1とすると、方位角値θは次式によって求めることができる。
θ=θn+dn/(dn+dn+1)・(θn+1−θn
上記により、例として図6(B)にも示すように方位角偏差が0のときの方位角値θを得ることができる。
【0061】
なお上記の演算では、図6(B)からも明らかなように、点光源領域の重心位置の変化に対する方位角値の変化を線形近似して方位角値θを求めているが、本発明はこれに限定されるものではなく、例えば最小自乗法等を適用し非線形近似によって方位角偏差が0のときの方位角値θを求めるようにしてもよい。
【0062】
なお、ステップ152〜166を繰り返して方位角偏差が0の状態が生じた場合には、ステップ160の判定が肯定されてステップ170へ移行し、ステップ152で取り込んだ方位角検出値を、方位角偏差が0のときの方位角値θとして設定する。
【0063】
次のステップ172以降では、上述したステップ152〜170と同様にして点光源の方向に対する撮像方向の仰角方向に沿った偏差(仰角偏差)が0のときの仰角値φを求める。すなわち、ステップ172では仰角検出部50から仰角検出値を取り込む。ステップ174では撮像部52から入力された画像データを取り込み、ステップ176では、取り込んだ画像データが表す画像中の点光源領域の重心位置を演算する。
【0064】
次のステップ178では、撮像方向が点光源の方向に一致しているときの点光源領域の重心位置に対する、現在の点光源領域の重心位置の仰角方向に沿った偏差(仰角偏差)を求める。ステップ180では仰角偏差が0か否か判定する。判定が否定された場合には、ステップ182で仰角偏差の符号を判定し、次のステップ184において、今回の周期で演算した仰角偏差の符号が前回の周期で演算した仰角偏差の符号に対して変化したか否か判定する。
【0065】
ステップ184の判定が否定された場合にはステップ186へ移行し、仰角方向駆動部48のステッピングモータの回転軸を1ステップ回転させ、制御対象の読取望遠鏡の仰角を仰角偏差の符号と逆の方向へ1ステップ分変更した後にステップ172に戻り、ステップ180又はステップ184の判定が肯定される迄ステップ172〜186を繰り返し、制御対象の読取望遠鏡の仰角を1ステップ分ずつ順次変更する。
【0066】
ステップ172〜186を繰り返しても仰角偏差が0の状態が生じなかった場合には、ステップ184の判定が肯定されてステップ188へ移行し、先のステップ168と同様に、前回及び今回の周期で演算した仰角偏差、前回及び今回の周期での仰角検出値に基づいて、仰角偏差が0のときの仰角値φを補間演算によって求める。一方、仰角偏差が0の状態が生じた場合には、ステップ180の判定が肯定されてステップ190へ移行し、ステップ172で取り込んだ仰角検出値を、仰角偏差が0のときの仰角値φとして設定する。
【0067】
上記の点光源捕捉制御処理により、捕捉対象の点光源を制御対象の読取望遠鏡で捕捉したときに、撮像方向が点光源の方向に一致した状態(方向方位角偏差が0かつ仰角偏差が0の状態)における方位角値θ及び仰角値φが得られることになる。
【0068】
点光源捕捉制御処理を終了すると図4のフローチャートのステップ104へ移行し、ステップ102の点光源捕捉制御処理によって得られた、位置Aの座標設定用点光源54を位置Cの第1の読取望遠鏡40で捕捉して方位角偏差が0となったときの方位角値θを取り込む。ステップ106では、位置Aに設置されている座標設定用点光源54を、ステージ32B(以下、便宜的に位置Bという)に設置(移動)することをオペレータに要請するメッセージをディスプレイ16に表示する。
【0069】
上記の要請に従い、オペレータによって座標設定用点光源54の設置位置が移動されると、次のステップ108において、位置Bに設置されている座標設定用点光源54を捕捉対象の点光源、位置Cに設置されている第1の読取望遠鏡40を制御対象の読取望遠鏡として点光源捕捉制御処理を行う。点光源捕捉制御処理が終了すると、ステップ110では、ステップ108の点光源捕捉制御処理によって得られた方位角値θ(位置Bの座標設定用点光源54を位置Cの第1の読取望遠鏡40で捕捉して方位角偏差が0となったときの方位角値θ)を取り込み、この方位角値θと先のステップ104で取り込んだ方位角値θとに基づいて角度∠ACBを演算し、演算結果をRAM等に記憶する。
【0070】
次のステップ112では、第1の読取望遠鏡40を位置A(第1の読取望遠鏡40の本来の設置位置)に設置することをオペレータに要請するメッセージをディスプレイ16に表示する。上記の要請に従い、オペレータによって第1の読取望遠鏡40が設置されると、次のステップ114において、位置Bに設置されている座標設定用点光源54を捕捉対象の点光源、位置Aに設置されている第1の読取望遠鏡40を制御対象の読取望遠鏡として点光源捕捉制御処理を行う。
【0071】
点光源捕捉制御処理が終了すると、次のステップ116では、ステップ114の点光源捕捉制御処理によって得られた方位角値θ(位置Bの座標設定用点光源54を位置Aの第1の読取望遠鏡40で捕捉して方位角偏差が0となったときの方位角値θ)を取り込む。そして次のステップ118では、取り込んだ方位角値θを、第1の読取望遠鏡40の方位角0°に対応する方位角値としてRAM等に記憶する。従って第1の望遠鏡40は、撮像方向が位置Bの方向に一致したときの方位角が方位角0°とされることになる。
【0072】
次のステップ120では、ステップ114の点光源捕捉制御処理によって得られた仰角値φ(位置Bの座標設定用点光源54を位置Aの第1の読取望遠鏡40で捕捉して仰角偏差が0となったときの仰角値φ)を取り込む。そしてステップ122では、取り込んだ仰角値φを、第1の読取望遠鏡40の仰角0°に対応する仰角値としてRAM等に記憶する。座標設定用点光源54の高さは第1の読取望遠鏡40及び第2の読取望遠鏡42の撮像部52の撮像素子の受光面の中心の高さと等しくされているので、第1の望遠鏡40は撮像方向が水平のときの仰角が仰角0°とされることになる。
【0073】
ステップ124では、位置Bに設置されている座標設定用点光源54を位置Cに設置(移動)することをオペレータに要請するメッセージをディスプレイ16に表示する。上記の要請に従い、オペレータによって座標設定用点光源54の設置位置が移動されると、次のステップ126において、位置Cに設置されている座標設定用点光源54を捕捉対象の点光源、位置Aに設置されている第1の読取望遠鏡40を制御対象の読取望遠鏡として点光源捕捉制御処理を行う。
【0074】
点光源捕捉制御処理が終了すると、次のステップ128では、ステップ126の点光源捕捉制御処理によって得られた方位角値θ(位置Cの座標設定用点光源54を位置Aの第1の読取望遠鏡40で捕捉して方位角偏差が0となったときの方位角値θ)を取り込み、この方位角値θと先のステップ116で取り込んだ方位角値θとに基づいて角度∠CABを演算し、演算結果をRAM等に記憶する。そしてステップ130では、ステップ128で演算した角度∠CABとステップ110で演算した角度∠ACBとに基づいて角度∠CBAを演算し、演算結果をRAM等に記憶する。
【0075】
続いてステップ132では、第2の読取望遠鏡42を位置Bに設置することをオペレータに要請するメッセージをディスプレイ16に表示する。上記の要請に従い、オペレータによって第2の読取望遠鏡42が設置されると(これにより図2に示した状態になる)、次のステップ134において、位置Cに設置されている座標設定用点光源54を捕捉対象の点光源、位置Bに設置されている第2の読取望遠鏡42を制御対象の読取望遠鏡として点光源捕捉制御処理を行う。
【0076】
点光源捕捉制御処理が終了すると、次のステップ136では、ステップ134の点光源捕捉制御処理によって得られた方位角値θ(位置Cの座標設定用点光源54を位置Bの第2の読取望遠鏡42で捕捉して方位角偏差が0となったときの方位角値θ)を取り込む。そして次のステップ138では、取り込んだ方位角値θから角度∠CBAを減算した値を、第2の読取望遠鏡42の方位角0°に対応する方位角値としてRAM等に記憶する。従って第2の読取望遠鏡40は、撮像方向が位置Aの方向に一致したときの方位角が方位角0°とされることになる。
【0077】
ステップ140では、ステップ134の点光源捕捉制御処理によって得られた仰角値φを取り込む。そしてステップ142では、取り込んだ仰角値φを、第2の読取望遠鏡42の仰角0°に対応する仰角値としてRAM等に記憶する。これにより、第2の読取望遠鏡42についても、撮像方向が水平のときの仰角が仰角0°とされることになる。
【0078】
次のステップ144では、位置Cから座標設定用点光源54を除去すると共に、ロボットハンド20のハンド28の先端部にターゲット点光源58を取り付けることをオペレータに要請するメッセージをディスプレイ16に表示し、座標設定処理を終了する。
【0079】
上記の座標設定処理が終了し、位置Cから座標設定用点光源54が除去されると共に、ロボットハンド20のハンド28の先端部(本発明に係る基準部位に相当)にターゲット点光源58が取り付けられると、制御部12のCPUにおいて、ロボットハンド20固有の座標系をXYZ絶対座標系と対応させるための位置計測処理が行われる。以下、この位置計測処理について、図7のフローチャートを参照して説明する。
【0080】
ステップ200ではロボットハンド駆動部18に対し、ロボットハンド20のハンド28の先端部の移動目標位置として所定の計測位置の座標値(ロボットハンド20固有の座標系における座標値)を入力し、ロボットハンド20のハンド28の先端部(ターゲット点光源58)を所定の計測位置へ移動させる。
【0081】
次のステップ202では、ターゲット点光源58を捕捉対象の点光源、位置Aに設置されている第1の読取望遠鏡40を制御対象の読取望遠鏡として点光源捕捉制御処理を行う。なお、このときの点光源捕捉制御処理におけるステップ150では、移動目標位置としてロボットハンド駆動部18に入力した所定の計測位置の座標値に基づいて第1の読取望遠鏡40の方位角及び仰角が制御される。また、位置計測処理時に行われる点光源捕捉制御処理(ステップ202及び後述するステップ208)は本発明の演算手段に対応している。
【0082】
この点光源捕捉制御処理により、第1の読取望遠鏡40の撮像方向がターゲット点光源58の方向(すなわち基準部位が存在する方向)に正確に一致(方位角偏差が0かつ仰角偏差が0)したときの方位角値θ及び仰角値φが得られる。点光源捕捉制御処理が終了すると、次のステップ204では、ステップ202の点光源捕捉制御処理によって得られた方位角偏差が0のときの方位角値θを方位角θ1(図2も参照)としてRAMに記憶すると共に、仰角偏差が0のときの仰角値φを仰角φ1(図2も参照)としてRAMに記憶する。
【0083】
次のステップ208では、ターゲット点光源58を捕捉対象の点光源、位置Bに設置されている第2の読取望遠鏡42を制御対象の読取望遠鏡として点光源捕捉制御処理を行う。この点光源捕捉制御処理により、第2の読取望遠鏡42の撮像方向がターゲット点光源58の方向に正確に一致(方位角偏差が0かつ仰角偏差が0)したときの方位角値θ及び仰角値φが得られる。点光源捕捉制御処理が終了すると、次のステップ208では、ステップ206の点光源捕捉制御処理によって得られた方位角偏差が0のときの方位角値θを方位角θ2(図2も参照)としてRAMに記憶すると共に、仰角偏差が0のときの仰角値φを仰角φ2(図2も参照)としてRAMに記憶する。
【0084】
そしてステップ210では、上記処理によって得られた方位角θ1,θ2、仰角φ1,φ2、位置Aと位置Bとの距離Lに基づいて、XYZ絶対座標系におけるターゲット点光源58(所定の計測位置)の座標値(X,Y,Z)を次式に従って演算する。
X=(L・tanθ2)/(tanθ1+tanθ2
Y=X・tanθ1 Z=√(X2+Y2)・tanφ1
上記により、所定の計測位置のXYZ絶対座標系における座標値(X,Y,Z)を高精度に求めることができる。所定の計測位置のロボットハンド20固有の座標系における座標値は既知であるので、所定の計測位置におけるロボットハンド20固有の座標系とXYZ絶対座標系との対応がとれることになる。
【0085】
所定の計測位置は予め複数定められており、次のステップ212では、全ての計測位置について上記の処理を行ったか否か判定する。判定が否定された場合にはステップ200に戻り、ステップ200以降を繰り返す。全ての計測位置に対してステップ200〜210の処理を行うと、ステップ212の判定が肯定されて位置計測処理を終了する。
【0086】
上述した作業・処理により、ロボットハンド20のハンド28の移動可能空間内の複数の計測位置において、ロボットハンド20固有の座標系とXYZ絶対座標系との対応が各々とれることになり、ハンド28の移動目標位置をXYZ絶対座標系における座標値として与えれば、該座標値によって表される位置へハンド28が精度良く移動されることになる。
【0087】
また、本第1実施形態では、第1の読取望遠鏡40、第2の読取望遠鏡42がステージ32A、32Bに設置された状態で方位角方向や仰角方向に回動することでターゲット点光源58を捕捉することができるので、読取望遠鏡の移動範囲が小さく、読取望遠鏡40、42を含むロボットハンド位置計測装置10を設置するために必要なスペースを小さくすることができる。
【0088】
また、読取望遠鏡40、42を含むロボットハンド位置計測装置10は、位置計測処理が終了すればロボットハンド20の設置位置近傍から除去することができるので、例えば複数台のロボットハンド20が設置されている等の状況において、個々のロボットハンド20に対応してステージ32のみを設けておけば、単一のロボットハンド位置計測装置10を複数台のロボットハンド20で共有することも可能となる。
【0089】
なお、上記では距離Lの値を一定値として記憶していたが、熱膨張等によって距離Lが変動することによる影響が無視できない程大きい等の場合には、例えば第1の読取望遠鏡40及び第2の読取望遠鏡に相互の距離(距離L)を測定する機構を設けてもよい。
【0090】
また、本第1実施形態において、点光源捕捉制御処理(図5)における点光源捕捉精度を向上させる(これに伴って位置計測処理における位置計測精度も向上する)ためには、点光源像の画素分解能を或る値以上とする(画像中の点光源領域の大きさ(点光源領域の画素数)を所定値以上とする)ために、撮像される画面範囲の大きさと撮像される点光源像の大きさを調整することが望ましい。ロボットハンド20のハンド28の先端部の全ての移動範囲で上記のような条件を満たして点光源像を結像させる1つの方法として、撮像部52のレンズをズームレンズで構成し、点光源捕捉制御処理のステップ150において、画像中の点光源領域の大きさが所定値以上になるように、捕捉対象の点光源の奥行距離(読取望遠鏡から見た奥行方向に沿った距離)に応じてズームレンズのズーム値(ズーム倍率)を変更することが考えられる。
【0091】
しかしながら、ズームレンズのズーム値を変更すると、レンズの光軸中心がずれることで撮像素子の受光面内における点光源像の結像位置がずれ、例として図8(A)に示すように画像中の点光源領域の重心位置が変化するので、計測精度の低下に繋がる。このため、以下の手順でズームレンズの光軸ずれを補正することが望ましい。
【0092】
すなわち、まずロボットハンド20のハンド28の先端部の移動範囲に基づいて、読取望遠鏡によって撮像すべき空間(撮像空間)の範囲を求め、求めた撮像空間を、読取望遠鏡から見た奥行方向に沿って所定距離毎に複数の範囲に区画する。複数の範囲への区画は、単一の範囲の奥行方向に沿った距離範囲(前記所定距離に相当)が、単一の範囲内の各位置を或る一定のズーム値で撮像したときに、前記各位置で点光源像の重心演算が可能な程度の結像が得られる値となるように行われる。これにより、各撮像範囲毎にズーム値が決定される。そして、各撮像範囲毎に、決定した各ズーム値においてレンズの光軸中心に対応する撮像面内位置(撮像中心)を調べ、調べた撮像中心を各撮像範囲毎に記憶しておく。
【0093】
そして、点光源捕捉制御処理においては、ステップ150で捕捉対象の点光源の奥行距離に応じてズームレンズのズーム値を変更した後に、変更後のズーム値に対応する撮像中心に点光源像の重心位置が一致した状態を方位角偏差及び仰角偏差が0の状態とし、方位角偏差が0のときの方位角値θ及び仰角偏差が0のときの仰角値φを求める。これにより、ズームレンズの光軸のずれを補正することができる。
【0094】
また、予め単一のズーム値についてのみ撮像中心を調べておき、図8(B)に示す撮像中心演算処理を行うことで、各ズーム値における撮像中心を求めてもよい。この方法では、予め単一のズーム値についてのみ撮像中心を調べておき、そのズーム値を設定し(ステップ250)、設定した現在のズーム値に対応する撮像範囲内へロボットハンド20(のハンド28の先端部)を移動させる(ステップ252)。続いて、点光源捕捉制御処理と同様に、撮像によって得られた画像の点光源領域の重心が現在のズーム値における撮像中心に一致するように読取望遠鏡の方位角及び仰角を制御して、方位角偏差が0のときの方位角値θ及び仰角偏差が0のときの仰角値φを求める(ステップ254)。
【0095】
次に、点光源の位置を固定したままでズーム値を変更する(ステップ256)。このときのズーム値の変更量は、ボケによる影響がある場合にも点光源像の重心演算が可能な程度の大きさとする。そして撮像によって得られた画像中の点光源像の重心位置を演算し(ステップ258)、点光源像の重心位置と前回のズーム値における点光源像の重心位置とのずれ量を計測する(ステップ260)。このずれ量は、ステップ258におけるズーム値の変更に伴うズームレンズの光軸位置のずれ量に相当するので、次のステップ262において、前回のズーム値における撮像中心に対し計測したずれ量だけずれた位置を、現在のズーム値における撮像中心として記憶する。
【0096】
他のズーム値における撮像中心を求める場合(ステップ264の判定が否定された場合)にはステップ252に戻り、ステップ256で変更した現在のズーム値に対応する撮像範囲内へロボットハンドを移動させ、ステップ254以降の処理を繰り返す。上記の撮像中心演算処理を行うことで、各ズーム値における撮像中心が各々求まることになる。
【0097】
〔第2実施形態〕
次に本発明の第2実施形態について説明する。なお、第1実施形態と同一の部分には同一の符号を付し、説明を省略する。図9に示すように、本第2実施形態に係るロボットハンド位置計測装置60は、第1実施形態で説明した読取望遠鏡40、42に代えて、X軸撮像装置62、Y軸撮像装置64、X軸ステージ66及びY軸ステージ68が設けられており、これらは各々制御部12に接続されている。
【0098】
図10(B)に示すように、X軸撮像装置62は円筒状の旋回部62Aを備えており、旋回部62Aの軸線周り(仰角φ方向)に回動可能に基部62Bに軸支されている。X軸撮像装置62は、第1実施形態で説明した読取望遠鏡40、42と同様に、旋回部62Aを仰角方向に回動させる仰角方向駆動部48と、旋回部62Aの仰角方向の回動角度を検出する仰角検出部50と、エリアCCD等の撮像素子を備えた撮像装置52と、を有している。なお、Y軸撮像装置64はX軸撮像装置62と同一の構成であるので説明を省略する。
【0099】
図10(A)に示すように、X軸ステージ66及びY軸ステージ68は、各々一定方向に沿って延設されたレールを備えており、互いのレールの延設方向が直交している状態で一体化されている。X軸ステージ66及びY軸ステージ68は、底部の複数箇所に脚部70が取付けられており、基準水平面30には、該脚部70に対応してステージ32が複数設けられている。X軸ステージ66及びY軸ステージ68は、複数の脚部70の先端部がステージ32のノック穴36に各々挿入されることにより、基準水平面30上の一定位置に設置される。
【0100】
X軸ステージ66には、旋回部62Aの軸線方向がレールの延設方向(X軸ステージ66及びY軸ステージ68が基準水平面30上の一定位置に設置された状態でのX軸方向)と平行になるようにX軸撮像装置62が取付けられており、X軸撮像装置62はレールの延設方向に沿って移動可能とされている。図9に示すように、X軸ステージ66は、X軸撮像装置62をレールに沿って移動させるX軸方向駆動部72と、レールの延設方向に沿ったX軸撮像装置62の位置(X軸方向位置)を検出するX軸位置検出部74を備えている。
【0101】
X軸方向駆動部72は、第1実施形態で説明した方位角方向駆動部44及び仰角方向駆動部48と同様にステッピングモータを駆動源とし、ステッピングモータの回転軸の回転を図示しない駆動伝達機構を介して伝達することで、X軸撮像装置62を回転軸の回転量に比例した移動量だけ移動させる。また、X軸位置検出部74はリニアエンコーダ等で構成され、X軸撮像装置62の位置として、X軸ステージ66のレールの延設方向とY軸ステージ68のレールの延設方向との交差位置からの距離(詳しくは前記交差位置とX軸撮像装置62の撮像素子の受光面の中心との水平方向に沿った距離)を検出する。
【0102】
またY軸ステージ68には、レールの延設方向に沿って移動可能にY軸撮像装置64が取付けられている。図9に示すように、Y軸ステージ68は、Y軸撮像装置64をレールに沿って移動させるY軸方向駆動部76と、レールの延設方向に沿ったY軸撮像装置64の位置(Y軸方向位置)を検出するY軸位置検出部78を備えている。なお、Y軸方向駆動部76はX軸方向駆動部72と同様の構成であり、Y軸位置検出部78はX軸位置検出部74と同様の構成であるので、詳細な説明は省略する。
【0103】
なお、X軸撮像装置62及びY軸撮像装置64の旋回部、基部及び仰角方向駆動部48と、X軸ステージ66及びY軸ステージ68は本発明の指向手段(詳しくは請求項3に記載の指向手段)に対応しており、仰角検出部50、X軸位置検出部74及びY軸位置検出部78は本発明の第2検出手段に対応している。
【0104】
本第2実施形態では、XYZ絶対座標系として、X軸ステージ66及びY軸ステージ68が基準水平面30上の一定位置に設置された状態で、X軸ステージ66のレールの延設方向とY軸ステージ68のレールの延設方向との交差位置を通る鉛直線上で、X軸撮像装置62及びY軸撮像装置64の撮像素子の受光面の中心に相当する高さの位置を原点とし、原点を通りX軸ステージ66のレールの延設方向に平行な軸をX軸、原点を通りY軸ステージ68のレールの延設方向に平行な軸をY軸、原点を通り鉛直方向に沿った軸をZ軸とするXYZ座標系を用いている。
【0105】
次に本第2実施形態の作用を説明する。本第2実施形態では、XYZ絶対座標系の原点、X軸及びY軸を規定するX軸ステージ66、Y軸ステージ68、X軸撮像装置62及びY軸撮像装置64が予め一体に組付けられているので、X軸位置検出部74によって検出されるX軸方向位置及びY軸位置検出部78によって検出されるY軸方向位置をXYZ絶対座標系に対応させる処理を組付け時に行っておくことで、座標設定処理では上記の処理を省略可能であり、仰角検出部50によって検出される仰角検出値をXYZ絶対座標系に対応させるための処理のみを第1実施形態と同様にして行えばよい。
【0106】
また、X軸撮像装置62は撮像方向をX軸方向及び仰角方向に変更可能とされており、Y軸撮像装置64は撮像方向をY軸方向及び仰角方向に変更可能とされているので、本第2実施形態に係る点光源捕捉制御処理では、第1実施形態のように方位角偏差が0のときの方位角値θを求めることに代えて、X軸方向偏差(又はY軸方向偏差)が0のときのX軸方向位置x(又はY軸方向位置y)を求めればよい。
【0107】
すなわち、X軸撮像装置62(又はY軸撮像装置64)の撮像方向が点光源(座標設定用点光源54又はターゲット点光源58)の方向に一致しているときの点光源領域の重心位置に対する、現在の点光源領域の重心位置のX軸方向(又はY軸方向)に沿った偏差を求めることを、X軸撮像装置62(又はY軸撮像装置64)のX軸方向位置(又はY軸方向位置)を1ステップ分ずつ順次変更しながら繰り返す。
【0108】
このとき、X軸撮像装置62(又はY軸撮像装置64)のX軸方向位置(又はY軸方向位置)は段階的に(とびとびに)変化するので、X軸方向偏差(又はY軸方向偏差)が0の状態が生じなかった場合には、X軸方向偏差(又はY軸方向偏差)が0のときのX軸方向位置x(又はY軸方向位置y)を、第1実施形態と同様にして補間演算によって求める。なお、仰角偏差が0のときの仰角値φについては第1実施形態と同様の処理によって求めることができる。
【0109】
また、位置計測処理においては、ターゲット点光源58を捕捉対象の点光源、X軸撮像装置62を制御対象の撮像装置として点光源捕捉制御処理を行い、得られたX軸方向位置x及び仰角φを記憶すると共に、ターゲット点光源58を捕捉対象の点光源、Y軸撮像装置64を制御対象の撮像装置として点光源捕捉制御処理を行い、得られたY軸方向位置yを記憶し、XYZ絶対座標系におけるターゲット点光源58の座標値(X,Y,Z)を次式に従って演算する。
X=x Y=y Z=Y・tanφ
上記により、所定の計測位置のXYZ絶対座標系における座標値(X,Y,Z)を高精度に求めることができる。
【0110】
〔第3実施形態〕
次に本発明の第3実施形態について説明する。なお、第1実施形態及び第2実施形態と同一の部分には同一の符号を付し、説明を省略する。図11に示すように、本第3実施形態に係るロボットハンド位置計測装置82は、第2実施形態で説明したX軸ステージ66及びY軸ステージ68に代えてXYステージ84が設けられている。
【0111】
図12(A)に示すように、XYステージ84は互いに直交するように配置された第1シャフト86及び第2シャフト88を備えている。第1シャフト86の両端部は、第1シャフト86の長手方向と直交する方向(図12に示すX軸方向)に沿って延設された一対のレール(図示省略)に各々支持されており、第1シャフト86はX軸方向に沿ってスライド移動可能とされている。また、第2シャフト88の両端部も、第2シャフト88の長手方向と直交する方向(図12に示すY軸方向)に沿って延設された一対のレール(図示省略)に各々支持されており、第2シャフト88はY軸方向に沿ってスライド移動可能とされている。
【0112】
図11に示すように、XYステージ84は、ステッピングモータを駆動源として第1シャフト86をX軸方向に沿って移動させるX軸方向駆動部72と、X軸方向に沿った第1シャフト86の位置を検出するX軸位置検出部74と、ステッピングモータを駆動源として第2シャフト88をY軸方向に沿って移動させるY軸方向駆動部76と、Y軸方向に沿った第2シャフト88の位置を検出するY軸位置検出部78と、を備えている。
【0113】
また、第1シャフト86と第2シャフト88の交差位置には、第1シャフト86のX軸方向に沿った移動に追従して移動すると共に、第2シャフト88のY軸方向に沿った移動に追従して移動するプレート90が設けられている。図示は省略するが、第1シャフト86を支持するレール及び第2シャフト88を支持するレールは一体化されていると共に、第2実施形態で説明した脚部70と同様の脚部が複数取付けられており、各脚部の先端部が、各脚部に対応して基準水平面30に複数設けられているステージ32のノック穴36に各々挿入されることにより、XYステージ84は基準水平面30上の一定位置に設置される。
【0114】
また、本第3実施形態では、第1実施形態で説明した読取望遠鏡40、42、第2実施形態で説明した撮像装置62、64に代えて、点光源検出装置92が設けられている。点光源検出装置92は撮像部52と、ターゲット点光源58の高さ(Z軸方向距離)を検出するZ軸距離検出部94から構成されている。撮像部52とZ軸距離検出部94はプレート90上に一定距離隔てて配置されている。Z軸距離検出部94としては種々の構成を採用可能であるが、例えば図12(A)に示す三角測量用TVカメラ94Aを含んでZ軸距離検出部94を構成することができる。
【0115】
なお、XYステージ84及びプレート90は本発明の指向手段(詳しくは請求項4に記載の指向手段)に対応しており、X軸位置検出部74及びY軸位置検出部78は本発明の第2検出手段に対応している。また、Z軸距離検出部94は請求項4に記載の第3検出手段に対応している。
【0116】
次に本第3実施形態の作用を説明する。本第3実施形態では、XYステージ84及び点光源検出装置92が予め一体に組付けられているので、X軸位置検出部74によって検出されるX軸方向位置、Y軸位置検出部78によって検出されるY軸方向位置、及びZ軸距離検出部94によって検出されるZ軸方向距離をXYZ絶対座標系に各々対応させる処理を組付け時に行っておくことで、ロボットハンド20固有の座標系をXYZ絶対座標系と対応させるための作業及び処理を行うに際して座標設定処理の実行を省略可能である。
【0117】
また、位置計測処理においては、ターゲット点光源58を捕捉対象の点光源、撮像装置52を制御対象の撮像装置として点光源捕捉制御処理を行う。すなわち、まず撮像装置52の撮像方向がターゲット点光源58の方向に一致しているときの点光源領域の重心位置(画像の中心位置)に対する、現在の点光源領域の重心位置のX軸方向に沿った偏差を求めることを、撮像装置52のX軸方向位置をX軸方向駆動部72によって1ステップ分ずつ順次変更しながら繰り返す。このとき、撮像装置52のX軸方向位置は段階的に(とびとびに)変化するので、X軸方向偏差が0の状態が生じなかった場合には、X軸方向偏差が0のときのX軸方向位置xを補間演算によって求める。
【0118】
続いて、現在の点光源領域の重心位置の画像の中心位置に対するY軸方向に沿った偏差を求めることを、撮像装置52のY軸方向位置をY軸方向駆動部76によって1ステップ分ずつ順次変更しながら繰り返す。このとき、撮像装置52のY軸方向位置は段階的に(とびとびに)変化するので、Y軸方向偏差が0の状態が生じなかった場合には、Y軸方向偏差が0のときのY軸方向位置yを補間演算によって求める。
【0119】
上記により、撮像方向がターゲット点光源58の方向に正確に一致(X軸方向偏差が0かつY軸方向偏差が0)したときのX軸方向位置x及びY軸方向位置y(すなわちXYZ絶対座標系におけるX座標値及びY座標値)が得られると共に、図12(A)に示すように、撮像部52はターゲット点光源58の略鉛直下に位置される。
【0120】
次にターゲット点光源58のZ軸方向距離をZ軸距離検出部94によって検出する。三角測量用TVカメラ94Aを含んでZ軸距離検出部94を構成した場合、撮像部52がターゲット点光源58の略鉛直下に位置している状態でZ軸方向距離(すなわちXYZ絶対座標系におけるZ座標値)の検出を行う。
【0121】
図12(A)に示すように、三角測量用TVカメラ94Aは上記の状態でターゲット点光源58が撮像範囲内に入るように撮像方向が調整されており、前記状態で三角測量用TVカメラ94Aによる撮像によって得られる画像中には、ターゲット点光源58に対応する点光源領域が存在している。三角測量用TVカメラ94Aと撮像部52との距離は既知であるので、ターゲット点光源58のZ軸方向距離は、三角測量の原理により、前記画像上での点光源領域のZ方向に対応する方向に沿った位置(詳しくは重心位置)から一意に定まる。
【0122】
このため、例えば三角測量用TVカメラ94Aによる撮像によって得られる画像から点光源領域を抽出し、抽出した点光源領域の重心位置を算出し、画像上でのZ方向に対応する方向に沿った位置をターゲット点光源58のZ軸方向距離と対応させて記憶することを、ターゲット点光源58のZ軸方向距離を変化させながら繰り返すことで、ターゲット点光源58のZ軸方向距離と、画像中の点光源領域のZ方向に対応する方向に沿った重心位置と、の関係を予め求めておくことで、三角測量用TVカメラ94Aによる撮像によって得られる画像からターゲット点光源58のZ軸方向距離を求めることができる。これにより、所定の計測位置のXYZ絶対座標系における座標値(X,Y,Z)を高精度に求めることができる。
【0123】
なお、上記構成において、図12(B)に示すように三角測量用TVカメラ94Aを複数設け、それぞれのカメラ94Aの撮像範囲がZ軸方向に沿って互いに異なりかつ一部重複している範囲となるように撮像範囲を調整すれば、Z軸方向距離の検出可能範囲に比して個々のカメラの撮像範囲を小さくすることができ、Z軸方向距離の検出精度を向上させることができる。
【0124】
また、例として図13に示すように、Z軸距離検出部94は磁気式のリニアスケール(接触式測距装置)95を含んで構成することも可能である。リニアスケール95は三角測量用TVカメラ94Aと同様にプレート90上に設置することができる。この場合、撮像部52の撮像方向がターゲット点光源58の方向に一致している状態でのX軸方向位置x及びY軸方向位置yを求めた後に、求めたX軸方向位置x及びY軸方向位置yに基づいてリニアスケール95がターゲット点光源58の鉛直下に位置するようにプレート90を移動させ、続いてリニアスケール95のアームがターゲット点光源58に接触する迄アームを伸長させ、ターゲット点光源58に接触したときのアームの伸長量からZ軸方向距離を求めることができる。これにより、所定の計測位置のXYZ絶対座標系における座標値(X,Y,Z)を高精度に求めることができる。
【0125】
また、例として図14(A)に示すように、Z軸距離検出部94は光レーダ装置98を含んで構成することも可能である。この場合、プレート90上には光レーダ装置98の投受光器98Aのみを設置することが望ましい。また位置計測処理の実施に際しては、ハンド28の先端部にターゲット点光源58及び反射ミラー96を取付ける。この態様におけるZ軸方向距離の検出は、前述のようにX軸方向位置x及びY軸方向位置yを求めた後に、求めたX軸方向位置x及びY軸方向位置yに基づいて投受光器98Aがターゲット点光源58の鉛直下に位置するようにプレート90を移動させた状態で行う。
【0126】
図14(B)に示すように、光レーダ装置98は、発振器から出力される一定周波数の信号によって光源から射出された光の強度を変調し、強度変調した光を投受光器98Aから鉛直方向に沿って射出させると共に、電気信号に変換して参照光信号として位相差検出器に入射させる。投受光器98Aから射出された光はハンド28の先端部に取付けられた反射ミラー96で反射され、投受光器98Aに内蔵されている光検出器によって検出される。位相差検出器では参照光信号と光検出器から出力された反射光信号との位相差を検出し、検出した位相差に基づいて反射ミラー96との距離、すなわちハンド28の先端部のZ軸方向距離を検出する。これにより、所定の計測位置のXYZ絶対座標系における座標値(X,Y,Z)を高精度に求めることができる。
【0127】
なお、上記では本発明に係る第1検出手段として、撮像素子を含んで構成された撮像部52を用いた例を説明したが、これに限定されるものではなく、例えば受光面を複数の領域(例えば図6(A)において、2本の一点鎖線で区分されて成る4個の領域)に分割し、各領域に設けた各光センサによる検出光量を比較することで、点光源が存在している方向に対する指向方向の偏差を検出することも可能である。
【0128】
以上、本発明の実施形態について説明したが、上記の実施形態は、特許請求の範囲に記載した事項の実施態様以外に、以下に記載した事項の実施態様を含んでいる。
【0129】
(1)ロボットハンドの移動可能空間の近傍に前記指向手段を着脱自在に支持するための支持部が複数設けられており、前記指向手段は、前記支持部に装着されることで前記移動可能空間内の近傍の一定の位置に設置されることを特徴とする請求項1記載のロボットハンド位置計測装置。
【0130】
(2)方位角及び仰角を変更可能で、ロボットハンドの移動可能空間の近傍に設けられた支持部に着脱自在かつ方位角を変更可能に支持され、方位角及び仰角の少なくとも一方を変更することで指向方向が変化する複数の指向手段と、前記各指向手段の指向方向とロボットハンドの基準部位に取付けられた光源の存在する方向との偏差を各々検出する第1検出手段と、各指向手段の方位角及び仰角を所定の3次元座標系を基準にして各々検出する第2検出手段と、各指向手段の指向方向が前記光源の存在する方向に略一致した状態で、前記第2検出手段によって検出された方位角及び仰角に基づいて、前記所定の3次元座標系における前記基準部位の座標を演算する演算手段と、を含むロボットハンド位置計測装置。
【0131】
【発明の効果】
以上説明したように本発明は、姿勢角、又は位置、又は姿勢角と位置に関する少なくとも2種類のパラメータの値を変更可能で、前記パラメータの値を変更することで指向方向が変化すると共に、ズームレンズを介して指向方向を撮像する撮像素子を備えた指向手段を設け、指向手段の指向方向がロボットハンドの基準部位の存在する方向に略一致した状態で、指向方向と基準部位の存在する方向との偏差として、指向手段の撮像素子による撮像によって得られる画像上での、ズームレンズの現在のズーム値に対応する撮像中心位置と、基準部位の像の重心位置との偏差を検出すると共に、前記2種類のパラメータの値を所定の3次元座標系を基準にして検出し、検出した偏差及び前記2種類のパラメータの値に基づいて、指向方向が基準部位の存在する方向に一致した状態での前記パラメータの値を演算し、該パラメータの値を用いて所定の3次元座標系における基準部位の座標を演算するので、ロボットハンドの位置計測精度の向上を実現できる、という優れた効果を有する。
【図面の簡単な説明】
【図1】 第1実施形態に係るロボットハンド位置計測装置の概略構成を示すブロック図である。
【図2】 ロボットアーム、読取望遠鏡、座標設定用点光源を各々示す斜視図である。
【図3】 読取望遠鏡及びステージの詳細を示す斜視図である。
【図4】 座標設定処理の内容を示すフローチャートである。
【図5】 点光源捕捉制御処理の内容を示すフローチャートである。
【図6】 (A)は方位角偏差が0のときの方位角値の補間演算に用いる一対の画像の一例を示すイメージ図、(B)は補間演算の一例を示す線図である。
【図7】 位置計測処理の内容を示すフローチャートである。
【図8】 撮像部のレンズをズームレンズで構成した場合の、(A)はズーム値の変更に伴う画像中の点光源領域の重心位置の変化の一例を示すイメージ図、(B)は撮像中心演算処理の内容を示すフローチャートである。
【図9】 第2実施形態に係るロボットハンド位置計測装置の概略構成を示すブロック図である。
【図10】 (A)はX軸ステージ、Y軸ステージ、X軸撮像装置、Y軸撮像装置を各々示す斜視図、(B)は撮像装置の斜視図である。
【図11】 第3実施形態に係るロボットハンド位置計測装置の概略構成を示すブロック図である。
【図12】 (A)及び(B)は三角測量用TVカメラを含んでZ軸距離検出部を構成した場合の、XYステージ、撮像装置、三角測量用TVカメラを各々示す斜視図である。
【図13】 リニアスケールを含んでZ軸距離検出部を構成した場合の、XYステージ、撮像装置、リニアスケールを各々示す斜視図である。
【図14】 (A)は光レーダを含んでZ軸距離検出部を構成した場合の、XYステージ、撮像装置、光レーダを各々示す斜視図、(B)は光レーダによるZ軸距離の検出の原理を説明するための概略ブロック図である。
【符号の説明】
10 ロボットハンド位置計測装置
12 制御部
20 ロボットハンド
40 第1の読取望遠鏡
42 第2の読取望遠鏡
52 撮像部
64 Y軸撮像装置
58 ターゲット点光源
60 ロボットハンド位置計測装置
62 X軸撮像装置
64 Y軸撮像装置
82 ロボットハンド位置計測装置
92 点光源検出装置
94 Z軸距離検出部
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a robot hand position measuring apparatus, and more particularly to a robot hand position measuring apparatus that measures three-dimensional coordinates of a reference part of a robot hand.
[0002]
[Prior art]
Robot hands that are used in large numbers in factory production lines, etc. can perform various operations such as cutting, screwing, welding, etc. by holding or holding a workpiece, for example, by a hand provided at the tip. It is said that. The hand can be moved three-dimensionally by the arm, and each time the workpiece is transferred to the robot hand installation position, the arm moves sequentially to a plurality of predetermined movement target positions in the work space. Is driven. As a result, intended operations such as conveyance, assembly, and processing are performed on the workpieces that are sequentially conveyed.
[0003]
By the way, the robot hand stores the movement target position as a coordinate value in a robot hand-specific three-dimensional coordinate system (robot hand coordinate system). In order to move the tip to the movement target position with high accuracy, Define an absolute coordinate system with a fixed position in the origin as the origin, and the coordinates of the tip of the robot hand in the absolute coordinate system when the tip of the robot hand is located at each position within the movable range (for example, the movement target position) It is necessary to measure the value and detect the deviation between the absolute coordinate system and the robot hand coordinate system.
[0004]
In relation to the above, Japanese Patent No. 2668263 discloses a two-dimensional image of the imaging device by photographing a fixed object point (point light source (32)) in the vicinity of the base of the robot with an imaging device attached to the most advanced link of the robot body. Based on the difference between the position of the image obtained by shooting a fixed object point on the image and the position of the theoretical image obtained by calculation, the theoretical value and the actual value in the relative positional relationship between each link element of the robot body An automatic measuring method of an operation error of a robot body that is designed to obtain an error is disclosed.
[0005]
In Japanese Patent Laid-Open No. 4-291111, two video cameras for simultaneously capturing moving objects are attached to two pan heads with variable pan and tilt angles, respectively, on the shooting screens of both cameras. A technique is disclosed in which the pan angle and tilt angle of both pan heads are controlled so that the target point of the moving object is drawn into the center of the screen, and the position of the moving object is detected with a three-dimensional coordinate value by calculation of the triangulation method. .
[0006]
[Problems to be solved by the invention]
However, since the technique described in Japanese Patent No. 2668263 uses a two-dimensional image obtained by imaging with a single imaging device, an error in the relative positional relationship between each link element can be obtained. The three-dimensional coordinate value in the absolute coordinate system of the tip of the robot hand cannot be measured, and it is impossible to detect the deviation between the absolute coordinate system and the robot hand coordinate system. Therefore, if the robot hand coordinate system is deviated from the absolute coordinate system due to, for example, the installation position of the base (12) of the robot body and the point light source (32) being deviated from the intended position, the robot hand It is difficult to accurately move the leading end portion to the movement target position given by the coordinate value of the absolute coordinate system.
[0007]
The coordinate value in the absolute coordinate system of the tip of the robot hand is obtained by using an imaging means such as a camera at a predetermined position where the coordinate value in the absolute coordinate system is known, for example, using the technique described in JP-A-4-291111. If installed, measurement is possible. In this case, a driving mechanism for making the imaging direction of the imaging means coincide with the direction in which the tip portion of the robot hand is present (for example, a driving mechanism for changing the pan angle and tilt angle of the pan head described in JP-A-4-291111). As the driving source, a stepping motor capable of precisely and easily controlling the rotation angle of the rotating shaft is suitable.
[0008]
However, since the stepping motor is configured to rotate the rotation axis by a small fixed angle step by step, the imaging direction of the imaging means often does not exactly match the direction of the tip of the robot hand, and the imaging direction is often the tip of the robot hand. When the measurement is performed in a state slightly deviated from the direction of the part, there is a problem that an accurate coordinate value of the tip part of the robot hand in the absolute coordinate system cannot be obtained.
[0009]
The present invention has been made in consideration of the above facts, and an object of the present invention is to obtain a robot hand position measuring apparatus capable of improving the position measuring accuracy of the robot hand.
[0010]
[Means for Solving the Problems]
  In order to achieve the above object, the robot hand position measuring device according to the first aspect of the present invention is capable of changing at least two kinds of parameter values relating to the posture angle, the position, or the posture angle and the position, The directional direction is changed by changing the directional means, and the directional means including an imaging device that images the directional direction via a zoom lens, and the zoom on the image obtained by imaging by the imaging device of the directional means Storage means for storing an imaging center position corresponding to the optical center of the lens for each zoom value of the zoom lens; andRobot handIn a state that substantially matches the direction in which the reference portion exists,AboveAs the deviation from the direction in which the reference part exists, the imaging center position corresponding to the current zoom value of the zoom lens on the image obtained by imaging by the imaging element of the directing means, and the image of the reference part First detection means for detecting a deviation from the center of gravity position, second detection means for detecting values of the at least two types of parameters of the directing means with reference to a predetermined three-dimensional coordinate system, and Based on the deviation detected by the first detection means and the value of the parameter detected by the second detection means in a state that substantially matches the direction in which the reference part exists, the pointing direction is determined by the reference part. The value of the parameter in a state matching the direction in which the object exists is calculated, and the coordinate of the reference part in the predetermined three-dimensional coordinate system is calculated using the calculated parameter value. Calculating means for, it is configured to include a.
[0011]
  According to the first aspect of the present invention, it is possible to change the value of at least two kinds of parameters related to the posture angle, or the position, or the posture angle and the position, and the pointing direction changes by changing the value of the parameter.In addition, an image pickup device for picking up an image in the directivity direction through the zoom lensDirecting means are provided. As the two types of parameters related to the posture angle, for example, the azimuth angle and the elevation angle described in claim 2 can be used, and as the two types of parameters related to the posture angle and position, for example, the elevation angle described in claim 3 and A position along a single horizontal direction (any one direction in the horizontal plane) can be used, and two types of parameters relating to the position include, for example, two horizontal directions that intersect with each other as described in claim 4 ( A position along any two directions in a horizontal plane intersecting each other can be used.
[0012]
By changing the value of the above-mentioned parameter to change the pointing direction of the pointing means, the pointing direction of the pointing means is made coincident with the direction in which the reference part of the robot hand (for example, the tip of the robot hand or its vicinity) exists (or substantially). Match). In addition, a stepping motor may be used as a drive source for changing the parameter value (in this case, the parameter value and the pointing direction of the pointing means change stepwise), the parameter value and Other drive sources capable of continuously changing the directivity direction may be used.
[0013]
  According to the first aspect of the present invention, the imaging center position corresponding to the optical center of the zoom lens on the image obtained by imaging with the imaging device of the directing means is stored in the storage means for each zoom value of the zoom lens, The first detection means has a pointing directionRobot handA zoom lens on an image obtained by imaging with the imaging element of the directing means as a deviation between the pointing direction of the directing means and the direction of the reference part of the robot hand in a state substantially matching the direction in which the reference part exists The deviation between the imaging center position corresponding to the current zoom value and the barycentric position of the image of the reference part is detected. Considering the detection of deviation by the first detection means, it is desirable that the reference part of the robot hand is easily distinguishable from other parts. For example, it is preferable to attach a light source to the reference part of the robot hand. In the aspect in which the light source is attached to the reference portion, the deviation between the pointing direction of the pointing means and the direction in which the reference portion of the robot hand exists (that is, the direction in which the light source exists) is, for example, the light from the light source attached to the reference portion. The light receiving position is detected, and the light receiving position of the light from the light source when the pointing direction matches the direction in which the light source exists can be detected based on the detected shift of the light receiving position. As a result, compared to the case where the light reflected on the reference part is detected by irradiating the robot hand with light, the detected light amount is affected by the light reflectance of the reference part or the direction of the reflecting surface of the reference part. Change is suppressed.
[0014]
Also, instead of attaching the light source to the reference part as described above, the reference part of the robot hand may be changed by, for example, painting the reference part in a specific color or recording a specific pattern on the reference part. It can be easily discriminated optically. In an aspect for optically identifying the reference part (for example, an aspect in which a light source is attached to the reference part), the first detection means is, for example, attached to the directing means so that the imaging direction matches the directivity direction of the directing means. The image pickup means and the light detection means that is composed of a plurality of optical sensors and is attached to the directing means so that the light detection direction matches the directivity direction of the directivity means.
[0015]
The invention of claim 1 further comprises second detection means for detecting values of the at least two types of parameters of the directing means with reference to a predetermined three-dimensional coordinate system. The second detection means can be configured to include, for example, an attitude angle detection means such as a rotary encoder or a position detection means such as a linear encoder, according to each of the at least two types of parameters.
[0016]
Further, the computing means according to the invention of claim 1 is detected by the deviation detected by the first detecting means and the second detecting means in a state where the pointing direction substantially coincides with the direction in which the reference part of the robot hand exists. Based on the value of the parameter, the value of the parameter in a state in which the directing direction matches the direction in which the reference site exists is calculated. Note that the value of the parameter in a state where the pointing direction matches the direction in which the reference part exists is specifically, for example, the deviation between the pointing direction of the pointing means and the direction in which the reference part exists is less than a predetermined value, respectively. In a plurality of states in which the parameter values are different from each other, an interpolation operation (which may be interpolation or extrapolation) is performed based on the deviation detected by the first detection unit and the parameter value detected by the second detection unit. Can be sought.
[0017]
Thereby, for example, the directing direction of the directing means cannot be accurately matched with the direction in which the reference part exists, for example, because the directing direction cannot be changed continuously (changes stepwise), or Directional direction even when measurement (detection of the value of the parameter) is performed in a state where the directing direction of the directing means does not exactly match the direction in which the reference part exists for the purpose of shortening the measurement time, etc. It is possible to obtain the value of the parameter of the directing means when is coincident with the direction in which the reference portion exists.
[0018]
  And the computing means computes the coordinates of the reference part in a predetermined three-dimensional coordinate system using the value of the parameter in the state where the directing direction coincides with the direction in which the reference part exists, obtained by the above calculation. It is possible to eliminate errors caused by measurement when the pointing direction of the pointing device does not exactly match the direction in which the reference part exists.The Further, the first detection means is a current zoom value of the zoom lens on an image obtained by imaging with the imaging element of the pointing means as a deviation between the pointing direction of the pointing means and the direction in which the reference part of the robot hand exists. The deviation of the optical axis center of the zoom lens due to the change in the zoom value of the zoom lens is detected by the first detection means. It is possible to prevent the detection accuracy from being adversely affected and the position measurement accuracy of the robot hand from being lowered. Therefore, according to the invention of claim 1,Improves accuracy of robot hand position measurement.
[0019]
By the way, in order to obtain the three-dimensional coordinates of the reference part of the robot hand, in addition to measuring the values of at least two types of parameters in a state where the pointing direction of the single pointing means coincides with the direction in which the reference part exists. It is also necessary to measure at least one other physical quantity related to the three-dimensional coordinates of the reference part.
[0020]
For this reason, the invention according to claim 2 is the invention according to claim 1, wherein a plurality of the directing means are provided, and each directing means is installed at a different fixed position near the movable range of the robot hand, and the posture is set. An azimuth angle and an elevation angle can be changed as two types of parameters relating to the angle, and the calculation means can change the direction of each pointing means in a state where the pointing direction of each pointing means substantially coincides with the direction in which the reference portion exists. The coordinates of the reference part are calculated using the azimuth angle and the elevation angle.
[0021]
In the invention of claim 2, a plurality of directing means capable of respectively changing the azimuth angle and the elevation angle as two kinds of parameters relating to the posture angle are respectively installed at different positions near the movable range of the robot hand. The coordinates of the reference part of the robot hand are calculated using the azimuth angle and elevation angle of each directing means in a state where the pointing direction of each pointing means substantially coincides with the direction in which the reference part exists. Thereby, the three-dimensional coordinates of the reference part of the robot hand can be measured with high accuracy. Further, in the invention of claim 2, since the plurality of directing means are installed at fixed positions different from each other (that is, the position of each directing means in the horizontal plane does not change), the robot hand position measuring device according to the present invention Space required for installation can be reduced.
[0022]
The invention according to claim 3 is the invention according to claim 1, wherein a plurality of the directing means are provided, and each directing means intersects with each other as an elevation angle and a horizontal as two kinds of parameters relating to the posture angle and the position. Each of the positions along a single different direction of the two directions can be changed, and the calculation means is configured so that the directing direction of each directing means substantially coincides with the direction in which the reference portion exists. The coordinates of the reference portion are calculated using the elevation angle of each directing means and the position along the single direction.
[0023]
In the invention according to claim 3, as the two kinds of parameters relating to the posture angle and the position, the elevation angle and a plurality of directivity capable of changing each of the positions along a single different direction among the two directions that are horizontal and intersect each other. A reference part of the robot hand using the elevation angle of each directing means and the position along the single direction in a state in which the directing direction of each directing means substantially coincides with the direction in which the reference part exists Is calculated. Thereby, the three-dimensional coordinates of the reference part of the robot hand can be measured with high accuracy.
[0024]
Further, in the invention of claim 3, when a pair of directing means capable of changing the position along the direction perpendicular to each other is provided as the plurality of directing means, a mechanism for changing the position of the directing means Since an inexpensive XY stage can be used, the robot hand position measuring device can be configured at low cost.
[0025]
According to a fourth aspect of the present invention, in the first aspect of the present invention, the directing means can change the positions along two directions that are horizontal and intersect each other as two types of parameters relating to the position. And further comprising third detecting means for detecting the height of the reference part of the robot hand along the vertical direction, wherein the calculation means substantially matches the direction of the pointing means with the direction in which the reference part exists. The coordinates of the reference part are calculated using the position of the pointing means along the two directions in the state and the height of the reference part of the robot hand detected by the third detection means.
[0026]
  According to the fourth aspect of the present invention, there are provided pointing means capable of changing the positions along two directions that are horizontal and intersect each other as two kinds of parameters relating to the position, and the robot hand along the vertical direction. A third detecting means for detecting the height of the reference part, a position along the two directions of the directing means in a state where the pointing direction substantially coincides with the direction in which the reference part exists, and a third detection The coordinates of the reference part of the robot hand are calculated using the height of the reference part of the robot hand detected by the means. Thereby, the three-dimensional coordinates of the reference part of the robot hand can be measured with high accuracy.The third detection means may be one that detects the height of the reference portion using, for example, the principle of triangulation, or detects the height of the reference portion by contacting the reference portion. Alternatively, the height of the reference part may be detected by measuring the distance from the reference part.
[0027]
  In any one of the first to fourth aspects of the present invention, as described in the fifth aspect, the driving unit that changes the directing direction of the directing unit, and the zoom value of the zoom lens is the center position of the imaging. The imaging in which the center of gravity position of the image of the reference portion on the image obtained by imaging by the imaging element of the directing means corresponds to the first zoom value in a state where the first zoom value is known After controlling the directing direction of the directing means by the driving means so as to coincide with the center position, the zoom value of the zoom lens is changed to a second zoom value whose imaging center position is unknown, and Detecting an amount of deviation between the imaging center position corresponding to the first zoom value and the center-of-gravity position of the image of the reference part on an image obtained by imaging by the imaging element;AboveImaging center position acquisition means for storing, in the storage means, a position shifted by the detected shift amount with respect to the imaging center position corresponding to the first zoom value as an imaging center position corresponding to the second zoom value. Are preferably further provided. Thereby, even for a zoom value whose imaging center position is unknown, an imaging center position corresponding to the zoom value can be obtained.
[0028]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, an example of an embodiment of the present invention will be described in detail with reference to the drawings.
[0029]
[First Embodiment]
FIG. 1 shows a robot hand position measuring apparatus 10 according to the first embodiment. The robot hand position measuring apparatus 10 includes a control unit 12 including a CPU and peripheral circuits such as a ROM, a RAM, and an input / output port. Connected to the control unit 12 are a keyboard 14 as information input means for inputting various information and a display 16 as display means for displaying various information. As the display 16, various displays such as an LCD and a CRT display can be applied. In addition to the keyboard 14, other information input means such as a pointing device (for example, a mouse) may be provided.
[0030]
The control unit 12 is connected to the robot hand drive unit 18. The robot hand drive unit 18 drives the robot hand 20 shown in FIG. 2 as an example. The robot hand 20 shown in FIG. 2 includes a base portion 22 that is turnable with respect to a reference horizontal plane 30, a first arm 24 that is pivotally supported by the base portion 22, and a distal end portion of the first arm 24. The second arm 26 is pivotally supported, and a hand 28 is attached to the tip of the second arm 26. The robot hand drive unit 18 includes a microcomputer or the like, and includes a plurality of drive sources such as stepping motors. The robot hand drive unit 18 can turn the base 22 or turn the first arm 24 or the second arm 26 by the driving force of the plurality of drive sources.
[0031]
The movement target position of the tip of the hand 28 of the robot hand 20 is given as a coordinate value in a three-dimensional coordinate system unique to the robot hand 20, and the robot hand drive unit 18 uses the coordinate value representing the movement target position as the base 22. The turning direction and angle of the first arm 24 are converted into the turning direction and angle of the first arm 24. The turning direction and angle of the second arm 26 are converted into the turning direction and angle of the base arm 22 so that the tip of the hand 28 moves to the movement target position. The rotation of the first arm 24 and the second arm 26 is controlled.
[0032]
The configuration of the robot hand shown in FIG. 2 is merely an example, and the robot hand to which the present invention can be applied is not limited to the robot hand 20 having the configuration shown in FIG. 2, but the robot described above. It goes without saying that the configuration of the hand drive unit 18 is also changed according to the configuration of the robot hand to be driven.
[0033]
The robot hand 20 and the robot hand drive unit 18 are fixedly installed at fixed positions. However, the robot hand position measuring apparatus according to the present embodiment can move the installation position. When the position measurement process is performed, the robot hand 20 is moved to the vicinity of the installation position, and the control unit 12 is connected to the robot hand driving unit 18 via the connector.
[0034]
Further, a first reading telescope 40 and a second reading telescope 42 are respectively connected to the control unit 12. As shown in FIG. 2, stages 32 </ b> A and 32 </ b> B on which reading telescopes 40 and 42 (or a coordinate setting point light source 54 to be described later) can be placed on a reference horizontal plane 30 near the movable space of the hand 28 of the robot hand 20. , 32C are provided at different positions. FIG. 2 shows a state where the first reading telescope 40 is installed on the stage 32A, the second reading telescope 42 is installed on the stage 32B, and the coordinate setting point light source 54 is installed on the stage 32C. Yes.
[0035]
The stages 32A, 32B, and 32C have the same configuration. As shown in FIG. 3, the stage 32 is attached to the reference horizontal plane 30 so that the circular upper surface 34 is flush with the reference horizontal plane 30. A circular groove (knock hole) 36 is formed in the center of the upper surface 34 along the vertical direction. Further, the mounting positions of the stage 32A and the stage 32B are adjusted so that the distance between the center of the stage 32A (the axial position of the knock hole 36) and the center of the stage 32B coincides with a predetermined distance L (FIG. 2). See also).
[0036]
Also, the first reading telescope 40 and the second reading telescope 42 have the same configuration, and the configuration will be described below by taking the first reading telescope 40 as an example. As shown in FIG. 3, the first reading telescope 40 includes a cylindrical base portion 40A, and an outer diameter dimension is made smaller than that of the base portion 40A at one end portion along the axial direction of the base portion 40A (a knock hole 36). A cylindrical insertion portion 40B (which is substantially the same diameter as the inner diameter dimension) is formed coaxially with the base portion 40A. As shown by an imaginary line in FIG. 3, the first reading telescope 40 is installed on the stage 32 by inserting the insertion portion 40 </ b> B into the knock hole 36 of the stage 32. In this state, the axes of the base portion 40A and the insertion portion 40B coincide with the vertical direction, and the first reading telescope 40 can be rotated around the axis (azimuth angle θ direction) along the vertical direction.
[0037]
Thus, in this embodiment, by inserting the insertion portion of the reading telescope into the knock hole 36 of the stage 32, the reading telescope can be installed at a certain position on the reference horizontal plane 30, and the installed reading telescope can be Since it can be rotated in the azimuth direction, the reading telescope can be installed very easily. Further, the accuracy of the installation position of the reading telescope can be ensured by simply increasing the dimensional accuracy of the inner diameter of the knock hole 36 and the outer diameter of the insertion portion (reducing the tolerance). Further, since the installation position of the stage 32 serves as a reference in an XYZ absolute coordinate system, which will be described later, it is not necessary to separately provide an object serving as a reference in the coordinate system.
[0038]
As shown in FIG. 1, the first reading telescope 40 includes an azimuth direction driving unit 44 that rotates the first reading telescope 40 in the azimuth direction, and rotation of the first reading telescope 40 in the azimuth direction. An azimuth angle detection unit 46 that detects an angle is included.
[0039]
The azimuth direction driving unit 44 includes a stepping motor (not shown), and drives the stepping motor so that the rotation shaft of the stepping motor rotates by the number of steps according to an instruction from the control unit 12. The rotation of the rotation shaft of the stepping motor is transmitted through a drive transmission mechanism (not shown), and the first reading telescope 40 is rotated in the azimuth direction by a rotation amount proportional to the rotation amount of the rotation shaft.
[0040]
The azimuth angle detection unit 46 calculates the rotation angle of the first reading telescope 40 in the azimuth direction based on the number of steps instructed by the control unit 12 to the azimuth angle direction drive unit 44. Thereby, the azimuth angle detector 46 can be configured at low cost, and the rotation angle of the reading telescope in the azimuth angle direction can be calculated (detected) with high resolution. The rotation angle in the azimuth direction of the first reading telescope 40 calculated by the azimuth angle detection unit 46 is input to the control unit 12. Note that the azimuth angle driving unit 44 and the azimuth angle detection unit 46 may employ either a configuration arranged on the reference horizontal plane 30 side or a configuration arranged on the first reading telescope 40 side.
[0041]
In addition, a cylindrical swivel portion 40C is disposed at the other end portion along the axial direction of the base portion 40A of the first reading telescope 40 so that the axial direction is orthogonal to the axial direction of the base portion 40A. . The turning portion 40C is pivotally supported by the base portion 40A via an unillustrated shaft support mechanism so as to be rotatable around the axis of the turning portion 40C (elevation angle φ direction). As shown in FIG. 1, the first reading telescope 40 includes an elevation angle direction drive unit 48 that rotates the turning unit 40C in the elevation direction, and an elevation angle detection unit 50 that detects the rotation angle of the turning unit 40C in the elevation direction. Have.
[0042]
Like the azimuth direction drive unit 44, the elevation direction direction drive unit 48 includes a stepping motor (not shown), and the stepping motor rotates so that the rotation shaft of the stepping motor rotates by the number of steps according to an instruction from the control unit 12. Drive. The rotation of the rotation shaft of the stepping motor is transmitted through a drive transmission mechanism (not shown), and the turning portion 40C is rotated in the elevation direction by a rotation amount proportional to the rotation amount of the rotation shaft.
[0043]
Further, the elevation angle detection unit 50 calculates the rotation angle of the first reading telescope 40 in the elevation direction based on the number of steps instructed by the control unit 12 to the elevation angle direction driving unit 48. Thereby, the elevation angle detection unit 50 can be configured at low cost, and the rotation angle of the reading telescope in the elevation angle direction can be calculated (detected) with high resolution. The rotation angle in the elevation direction of the turning unit 40C calculated by the elevation angle detection unit 50 is input to the control unit 12. Note that the elevation direction drive unit 48 and the elevation angle detection unit 50 may adopt either the configuration arranged on the base 40A side or the configuration arranged on the turning unit 40C side.
[0044]
Further, the first reading telescope 40 includes an imaging unit 52. The imaging unit 52 is a signal that performs processing such as amplification and conversion to digital image data on an image signal output from the imaging device such as a lens and an area CCD disposed inside the turning unit 40C. And a processing unit. Image data output from the imaging unit 52 of the first reading telescope 40 is input to the control unit 12. The imaging unit 52 corresponds to the first detection means of the present invention.
[0045]
In the state where the first reading telescope 40 is installed on the stage 32, the imaging direction by the imaging element of the imaging unit 52 is the rotation in the azimuth direction of the first reading telescope 40 and the elevation angle direction of the turning unit 40C. Although it changes according to the rotation, the center of the light receiving surface of the image sensor is located at the intersection of the rotation center axis in the azimuth direction of the first reading telescope 40 and the rotation center axis in the elevation direction of the turning unit 40C. As shown in FIG. Accordingly, the center of the light receiving surface of the image sensor is held at a fixed position regardless of the rotation of the first reading telescope 40 in the azimuth direction and the rotation of the turning unit 40C in the elevation direction.
[0046]
In addition, the base part, insertion part, turning part, azimuth angle direction driving part 44 and elevation angle direction driving part 48 of the first reading telescope 40 and the second reading telescope 42 are the directing means of the present invention. The azimuth angle detector 46 and the elevation angle detector 48 correspond to the second detector of the present invention.
[0047]
In addition, the control unit 12 includes a coordinate setting point light source 54 used when a coordinate setting process described later and a target point attached to the tip of the hand 28 of the robot hand 20 when a position measurement process described later is performed. A light source 58 (see also FIG. 2) is connected.
[0048]
As shown in FIG. 2, the coordinate setting point light source 54 is attached to a base 56. Similarly to the first reading telescope 40, the base 56 is provided with an insertion portion (not shown) for insertion into the stage 32, and the coordinate setting point light source 54 is installed in the stage 32. The first reading telescope 40 (or the second reading telescope) is positioned on a vertical line passing through the center of the stage 32 and the height of the coordinate setting point light source 54 (the distance from the reference horizontal plane 30 along the vertical direction) is set. 42) is adjusted to be equal to the height of the center of the light receiving surface of the image sensor of the imaging unit 52 in a state where it is installed on the stage 32, and the mounting position of the shape and coordinate setting point light source 54 is adjusted.
[0049]
A three-dimensional orthogonal coordinate system (corresponding to a predetermined three-dimensional coordinate system according to the present invention: hereinafter referred to as an XYZ absolute coordinate system) is set on the reference horizontal plane 30 in advance. In the first embodiment, as the XYZ absolute coordinate system, the first reading telescope 40 (or the second reading telescope 42) is installed on the stage 32A, and the center of the light receiving surface of the image sensor of the reading telescope is used. The corresponding position is set as the origin, and this origin passes through the center of the light receiving surface of the image sensor of the reading telescope in a state where the second reading telescope 42 (or the first reading telescope 40) is installed on the stage 32B. An XYZ coordinate system is used in which the axis is the X axis, the axis parallel to the reference horizontal plane 30 and perpendicular to the X axis is the Y axis, and the X axis along the vertical direction and the axes orthogonal to the Y axis are the Z axes.
[0050]
Next, as an operation of the first embodiment, operations and processes for associating the coordinate system unique to the robot hand 20 with the XYZ absolute coordinate system will be described. This operation and processing is performed when the robot hand 20 is installed or when the correspondence of the coordinate system is shifted due to a failure of the robot hand 20 or a collision with a foreign object. The control unit 12 is electrically connected to the robot hand driving unit 18 via a connector or the like.
[0051]
Next, the control unit 12 is instructed to execute the coordinate setting process. The coordinate setting process is a process for causing the azimuth angle detection value and the elevation angle detection value of the robot hand position measurement device 10 to correspond to the XYZ absolute coordinate system, and is executed by the CPU of the control unit 12 according to the instruction. Hereinafter, the coordinate setting process will be described with reference to the flowchart of FIG.
[0052]
In step 100, the coordinate setting point light source 54 is installed on the stage 32A (hereinafter referred to as position A for convenience), and the first reading telescope 40 (second position) on the stage 32C (hereinafter referred to as position C for convenience). A message for requesting the operator to install the telescope 42 on the display 16 is displayed on the display 16. When the coordinate setting point light source 54 and the first reading telescope 40 are installed by the operator in accordance with the above request, the coordinate setting point light source 54 installed at the position A is captured at the next step 102. A point light source capture control process is performed using the first reading telescope 40 installed at the light source, position C, as the reading telescope to be controlled. This point light source capture control process will be described with reference to the flowchart of FIG.
[0053]
In step 150, capture is performed within the light receiving surface of the imaging element of the imaging unit 52 of the reading telescope to be controlled based on the positional relationship between the point light source to be captured and the reading telescope to be controlled (positional relationship between position A and position C). The azimuth angle and elevation angle of the reading telescope to be controlled are controlled by the azimuth angle direction driving unit 44 and the elevation direction driving unit 48 so that the target point light source image is formed. By the above control, the deviation of the imaging direction of the reading telescope to be controlled with respect to the direction in which the point light source to be captured exists is set to a certain value or less, and an area corresponding to the point light source (referred to as a point light source area) ) Is input (for example, see FIG. 6A).
[0054]
In the next step 152 and subsequent steps, the azimuth value θ when the deviation along the azimuth direction of the imaging direction of the reading telescope to be controlled with respect to the direction in which the point light source to be captured exists (point light source direction) is zero. Ask for. That is, in step 152, the detected value of the azimuth is taken from the azimuth angle detector 46 of the reading telescope to be controlled. In step 154, the image data input from the imaging unit 52 of the reading telescope to be controlled is captured. In step 156, the point light source region in the image represented by the captured image data is extracted, and the barycentric position of the extracted point light source region is determined. Calculate. Since the point light source region in the image is clearly brighter than other regions, extraction of the point light source region can be easily realized by processing such as binarization.
[0055]
By the way, in this embodiment, the state where the center of gravity of the point light source region matches the center of the image is defined as the state where the imaging direction matches the direction of the point light source, and the direction of the point light source When the imaging direction is shifted in the azimuth angle direction, the center of gravity of the point light source region is deviated from the center of the image along the azimuth angle direction shown in FIG. When the direction is shifted in the elevation angle direction, the gravity center position of the point light source region is deviated from the image center along the elevation angle direction (direction orthogonal to the azimuth angle direction) shown in FIG.
[0056]
For this reason, in step 158, with respect to the image represented by the previously captured image data, the center of the image is the origin, and the first coordinate axis parallel to the azimuth direction and the second coordinate axis parallel to the elevation direction are orthogonal to each other at the origin. A coordinate system is set (in FIG. 6A, each coordinate axis is indicated by a one-dot chain line), the position of the center of gravity of the point light source area obtained in step 156 is converted into the coordinate value in the orthogonal coordinate system, and the obtained coordinate value By extracting the coordinate value corresponding to the position along the azimuth direction from the current point, the current point relative to the barycentric position of the point light source region when the imaging direction of the reading telescope to be controlled matches the direction of the point light source A deviation (azimuth angle deviation) along the azimuth angle direction of the gravity center position of the light source region is obtained.
[0057]
In step 160, it is determined whether or not the azimuth deviation obtained in step 158 is zero. If the determination is negative, the sign of the azimuth deviation is determined at step 162. In the next step 164, it is determined whether or not the sign of the azimuth deviation calculated in the current cycle has changed with respect to the sign of the azimuth deviation calculated in the previous cycle. When the azimuth deviation is calculated for the first time in this cycle, the above determination is unconditionally denied, and the routine proceeds to step 166.
[0058]
In step 166, the rotation axis of the stepping motor of the azimuth direction driving unit 44 of the reading telescope to be controlled is rotated by one step, and the azimuth angle of the reading telescope to be controlled is changed by one step. Note that the direction in which the azimuth angle is changed at this time is the direction opposite to the sign of the azimuth deviation calculated in the previous step 158 (the direction in which the absolute value of the azimuth deviation decreases). When the process of step 166 is performed, the process returns to step 152, and steps 152 to 166 are repeated until the determination of step 160 or 164 is affirmed, and the azimuth of the reading telescope to be controlled is sequentially changed by one step.
[0059]
In this embodiment, the driving source of the azimuth direction driving unit 44 and the elevation direction driving unit 48 is a stepping motor. Therefore, when the azimuth or elevation angle of the reading telescope is changed by the driving unit 44 or the driving unit 48, the azimuth of the reading telescope The angle or elevation angle changes step by step. Therefore, even if steps 152 to 166 are repeated, as shown in FIG. 6A as an example, at the nth step, the position of the center of gravity of the point light source region is located on the left side of the image center along the azimuth direction, and n + 1 At the step, the state where the azimuth deviation is zero does not often occur such that the gravity center position of the point light source region is located on the right side of the image center along the azimuth direction.
[0060]
In such a case, the determination in step 160 is not affirmed but the determination in step 164 is affirmed, and the process proceeds to step 168. The azimuth deviation calculated in the previous and current cycles, the previous and current cycles, and so on. Based on the azimuth angle detection value, the azimuth angle value θ when the azimuth angle deviation is 0 is obtained by interpolation calculation. As an example, the azimuth deviation in the previous cycle is dn, The azimuth deviation in the current cycle is dn + 1, The azimuth angle detection value in the previous cycle is θn, Azimuth angle detection value in this cycle is θn + 1Then, the azimuth value θ can be obtained by the following equation.
θ = θn+ Dn/ (Dn+ Dn + 1) ・ (Θn + 1−θn)
As described above, as shown in FIG. 6B as an example, the azimuth value θ when the azimuth deviation is 0 can be obtained.
[0061]
In the above calculation, as is apparent from FIG. 6B, the azimuth value θ is obtained by linearly approximating the change in the azimuth value with respect to the change in the center of gravity of the point light source region. However, the present invention is not limited to this. For example, the azimuth angle value θ when the azimuth angle deviation is 0 may be obtained by applying a least square method or the like by nonlinear approximation.
[0062]
If steps 152 to 166 are repeated and an azimuth deviation is zero, the determination at step 160 is affirmed and the routine proceeds to step 170, where the azimuth detection value captured at step 152 is used as the azimuth angle detection value. It is set as the azimuth value θ when the deviation is zero.
[0063]
In the next step 172 and thereafter, similarly to steps 152 to 170 described above, the elevation angle value φ when the deviation (elevation angle deviation) along the elevation direction of the imaging direction with respect to the direction of the point light source is 0 is obtained. That is, in step 172, the elevation angle detection value is fetched from the elevation angle detection unit 50. In step 174, the image data input from the imaging unit 52 is captured, and in step 176, the barycentric position of the point light source region in the image represented by the captured image data is calculated.
[0064]
In the next step 178, a deviation (elevation angle deviation) along the elevation direction of the center of gravity of the current point light source region with respect to the center of gravity of the point light source region when the imaging direction coincides with the direction of the point light source is obtained. In step 180, it is determined whether or not the elevation angle deviation is zero. If the determination is negative, the sign of the elevation angle deviation is determined in step 182, and in the next step 184, the sign of the elevation angle deviation calculated in the current cycle corresponds to the sign of the elevation angle deviation calculated in the previous cycle. Determine if it has changed.
[0065]
If the determination in step 184 is negative, the process proceeds to step 186, the rotation axis of the stepping motor of the elevation angle direction drive unit 48 is rotated by one step, and the elevation angle of the reading telescope to be controlled is the direction opposite to the sign of the elevation angle deviation. After one step is changed to step 172, the procedure returns to step 172, and steps 172 to 186 are repeated until the determination in step 180 or step 184 is affirmed, and the elevation angle of the reading telescope to be controlled is sequentially changed by one step.
[0066]
If the elevation angle deviation is not zero after repeating steps 172 to 186, the determination in step 184 is affirmed and the routine proceeds to step 188, and in the same way as in the previous step 168, the previous and current cycles are repeated. Based on the calculated elevation angle deviation and the detected elevation angle values in the previous and current cycles, an elevation angle value φ when the elevation angle deviation is 0 is obtained by interpolation. On the other hand, when the state where the elevation angle deviation is 0 occurs, the determination in step 180 is affirmed and the routine proceeds to step 190, where the elevation angle detection value captured in step 172 is set as the elevation angle value φ when the elevation angle deviation is 0. Set.
[0067]
When the point light source to be captured is captured by the reading telescope to be controlled by the above point light source capture control process, the imaging direction coincides with the direction of the point light source (the direction azimuth deviation is 0 and the elevation angle deviation is 0) Azimuth angle value θ and elevation angle value φ in the state) are obtained.
[0068]
When the point light source capture control process ends, the process proceeds to step 104 in the flowchart of FIG. 4, and the coordinate setting point light source 54 at position A obtained by the point light source capture control process at step 102 is converted into the first reading telescope at position C. The azimuth value θ is captured when the azimuth angle deviation becomes 0 when captured at 40. In step 106, a message for requesting the operator to install (move) the coordinate setting point light source 54 installed at the position A on the stage 32B (hereinafter referred to as the position B for convenience) is displayed on the display 16. .
[0069]
When the installation position of the coordinate setting point light source 54 is moved by the operator in accordance with the above request, in the next step 108, the coordinate setting point light source 54 installed at the position B is captured as the point light source to be captured, the position C. A point light source capture control process is performed by using the first reading telescope 40 installed in the camera as a reading telescope to be controlled. When the point light source capture control process ends, in step 110, the azimuth angle value θ obtained by the point light source capture control process in step 108 (the coordinate setting point light source 54 at position B is moved by the first reading telescope 40 at position C). The azimuth angle value θ) when the azimuth angle deviation is 0 is captured and the angle ∠ACB is calculated based on the azimuth angle value θ and the azimuth angle value θ acquired in the previous step 104. The result is stored in RAM or the like.
[0070]
In the next step 112, a message requesting the operator to install the first reading telescope 40 at the position A (the original installation position of the first reading telescope 40) is displayed on the display 16. When the first reading telescope 40 is installed by the operator according to the above request, the coordinate setting point light source 54 installed at the position B is installed at the point light source to be captured, the position A, at the next step 114. The point light source capture control process is performed using the first reading telescope 40 as a control target reading telescope.
[0071]
When the point light source capture control process is completed, in the next step 116, the azimuth angle value θ obtained by the point light source capture control process in step 114 (the point setting point light source 54 at the position B is changed to the first reading telescope at the position A). At 40, the azimuth value θ) when the azimuth deviation becomes 0 is captured. In the next step 118, the captured azimuth value θ is stored in a RAM or the like as an azimuth value corresponding to the azimuth angle 0 ° of the first reading telescope 40. Therefore, the first telescope 40 has an azimuth angle of 0 ° when the imaging direction coincides with the direction of the position B.
[0072]
In the next step 120, the elevation angle value φ obtained by the point light source capture control process in step 114 (the coordinate setting point light source 54 at the position B is captured by the first reading telescope 40 at the position A and the elevation angle deviation is zero. Is taken in. In step 122, the captured elevation angle value φ is stored in a RAM or the like as an elevation angle value corresponding to the elevation angle 0 ° of the first reading telescope 40. Since the height of the coordinate setting point light source 54 is equal to the height of the center of the light receiving surface of the image sensor of the imaging unit 52 of the first reading telescope 40 and the second reading telescope 42, the first telescope 40 The elevation angle when the imaging direction is horizontal is 0 °.
[0073]
In step 124, a message for requesting the operator to install (move) the coordinate setting point light source 54 installed at the position B is displayed on the display 16. When the installation position of the coordinate setting point light source 54 is moved by the operator in accordance with the above request, in the next step 126, the coordinate setting point light source 54 installed at the position C is captured as the point light source to be captured, the position A. A point light source capture control process is performed by using the first reading telescope 40 installed in the camera as a reading telescope to be controlled.
[0074]
When the point light source capture control process is completed, in the next step 128, the azimuth angle value θ obtained by the point light source capture control process of step 126 (the coordinate setting point light source 54 at the position C is changed to the first reading telescope at the position A). The azimuth angle value θ) when the azimuth angle deviation becomes 0 after capturing at 40 is calculated, and the angle ∠CAB is calculated based on the azimuth value θ and the azimuth value θ acquired in the previous step 116. The operation result is stored in a RAM or the like. In step 130, the angle ∠CBA is calculated based on the angle ∠CAB calculated in step 128 and the angle ∠ACB calculated in step 110, and the calculation result is stored in a RAM or the like.
[0075]
Subsequently, at step 132, a message for requesting the operator to install the second reading telescope 42 at the position B is displayed on the display 16. When the second reading telescope 42 is installed by the operator in accordance with the above request (which results in the state shown in FIG. 2), the coordinate setting point light source 54 installed at the position C in the next step 134. Is used as a point light source to be captured, and the second reading telescope 42 installed at the position B is used as a reading telescope to be controlled.
[0076]
When the point light source capture control process ends, in the next step 136, the azimuth angle value θ obtained by the point light source capture control process in step 134 (the coordinate setting point light source 54 at the position C is changed to the second reading telescope at the position B). At 42, the azimuth value θ) when the azimuth deviation becomes 0 is captured. In the next step 138, the value obtained by subtracting the angle ∠CBA from the captured azimuth value θ is stored in the RAM or the like as the azimuth value corresponding to the azimuth angle 0 ° of the second reading telescope 42. Therefore, in the second reading telescope 40, the azimuth angle when the imaging direction coincides with the direction of the position A is set to an azimuth angle of 0 °.
[0077]
In step 140, the elevation angle value φ obtained by the point light source capture control process in step 134 is captured. In step 142, the acquired elevation angle value φ is stored in a RAM or the like as an elevation angle value corresponding to the elevation angle 0 ° of the second reading telescope 42. Thereby, also for the second reading telescope 42, the elevation angle when the imaging direction is horizontal is set to an elevation angle of 0 °.
[0078]
In the next step 144, a message requesting the operator to remove the coordinate setting point light source 54 from the position C and attach the target point light source 58 to the tip of the hand 28 of the robot hand 20 is displayed on the display 16. The coordinate setting process ends.
[0079]
After the above coordinate setting process is completed, the coordinate setting point light source 54 is removed from the position C, and the target point light source 58 is attached to the tip of the hand 28 of the robot hand 20 (corresponding to the reference portion according to the present invention). Then, the CPU of the control unit 12 performs a position measurement process for associating the coordinate system unique to the robot hand 20 with the XYZ absolute coordinate system. Hereinafter, this position measurement process will be described with reference to the flowchart of FIG.
[0080]
In step 200, a coordinate value of a predetermined measurement position (a coordinate value in a coordinate system unique to the robot hand 20) is input to the robot hand drive unit 18 as a movement target position of the tip of the hand 28 of the robot hand 20, and the robot hand 20 The tip of 20 hands 28 (target point light source 58) is moved to a predetermined measurement position.
[0081]
In the next step 202, the point light source capture control process is performed using the target point light source 58 as the point light source to be captured and the first reading telescope 40 installed at the position A as the control target reading telescope. At step 150 in the point light source capture control process at this time, the azimuth angle and elevation angle of the first reading telescope 40 are controlled based on the coordinate value of the predetermined measurement position input to the robot hand drive unit 18 as the movement target position. Is done. Further, the point light source capture control process (step 202 and step 208 described later) performed during the position measurement process corresponds to the calculation means of the present invention.
[0082]
As a result of this point light source capture control processing, the imaging direction of the first reading telescope 40 exactly matches the direction of the target point light source 58 (that is, the direction in which the reference portion exists) (azimuth angle deviation is 0 and elevation angle deviation is 0). Azimuth angle value θ and elevation angle value φ are obtained. When the point light source capture control process is completed, in the next step 204, the azimuth value θ when the azimuth deviation obtained by the point light source capture control process in step 202 is 0 is determined as the azimuth angle θ.1(See also FIG. 2) and stored in the RAM, and the elevation angle value φ when the elevation angle deviation is 0 is the elevation angle φ.1(See also FIG. 2).
[0083]
In the next step 208, point light source capture control processing is performed using the target point light source 58 as the point light source to be captured and the second reading telescope 42 installed at the position B as the control target reading telescope. By this point light source capture control processing, the azimuth value θ and elevation angle value when the imaging direction of the second reading telescope 42 exactly matches the direction of the target point light source 58 (azimuth angle deviation is 0 and elevation angle deviation is 0). φ is obtained. When the point light source capture control process ends, in the next step 208, the azimuth angle value θ obtained when the point light source capture control process in step 206 is 0 is set to the azimuth angle θ.2(See also FIG. 2) and stored in the RAM, and the elevation angle value φ when the elevation angle deviation is 0 is the elevation angle φ.2(See also FIG. 2).
[0084]
Then, in step 210, the azimuth angle θ obtained by the above processing.1, Θ2, Elevation angle φ1, Φ2Based on the distance L between the position A and the position B, the coordinate value (X, Y, Z) of the target point light source 58 (predetermined measurement position) in the XYZ absolute coordinate system is calculated according to the following equation.
X = (L · tan θ2) / (Tanθ1+ Tan θ2)
Y = X · tanθ1    Z = √ (X2+ Y2) ・ Tanφ1
As described above, the coordinate value (X, Y, Z) in the XYZ absolute coordinate system at the predetermined measurement position can be obtained with high accuracy. Since the coordinate value in the coordinate system unique to the robot hand 20 at the predetermined measurement position is known, the correspondence between the coordinate system unique to the robot hand 20 at the predetermined measurement position and the XYZ absolute coordinate system can be taken.
[0085]
A plurality of predetermined measurement positions are determined in advance, and in the next step 212, it is determined whether or not the above processing has been performed for all measurement positions. If the determination is negative, the process returns to step 200 and step 200 and subsequent steps are repeated. If the process of steps 200-210 is performed with respect to all the measurement positions, determination of step 212 will be affirmed and a position measurement process will be complete | finished.
[0086]
Through the above-described operations and processing, the correspondence between the coordinate system unique to the robot hand 20 and the XYZ absolute coordinate system can be taken at a plurality of measurement positions in the movable space of the hand 28 of the robot hand 20. If the movement target position is given as a coordinate value in the XYZ absolute coordinate system, the hand 28 is accurately moved to the position represented by the coordinate value.
[0087]
Further, in the first embodiment, the target point light source 58 is turned by rotating the first reading telescope 40 and the second reading telescope 42 in the azimuth and elevation directions with the stages 32A and 32B being installed. Since it can be captured, the moving range of the reading telescope is small, and the space required for installing the robot hand position measuring apparatus 10 including the reading telescopes 40 and 42 can be reduced.
[0088]
Further, the robot hand position measuring apparatus 10 including the reading telescopes 40 and 42 can be removed from the vicinity of the installation position of the robot hand 20 when the position measurement processing is completed. For example, a plurality of robot hands 20 are installed. In such a situation, if only the stage 32 is provided for each robot hand 20, the single robot hand position measuring device 10 can be shared by a plurality of robot hands 20.
[0089]
In the above description, the value of the distance L is stored as a constant value. However, if the influence of the fluctuation of the distance L due to thermal expansion or the like is so large that it cannot be ignored, for example, the first reading telescope 40 and the first reading telescope 40 Two reading telescopes may be provided with a mechanism for measuring the mutual distance (distance L).
[0090]
Further, in the first embodiment, in order to improve the point light source capture accuracy in the point light source capture control process (FIG. 5) (and accordingly improve the position measurement accuracy in the position measurement process), In order to set the pixel resolution to a certain value or more (the size of the point light source region in the image (the number of pixels in the point light source region) is set to a predetermined value or more), the size of the screen range to be imaged and the point light source to be imaged It is desirable to adjust the size of the image. As one method of forming a point light source image by satisfying the above-mentioned conditions in the entire movement range of the tip of the hand 28 of the robot hand 20, the lens of the imaging unit 52 is configured by a zoom lens, and the point light source is captured. In step 150 of the control process, zoom is performed according to the depth distance of the point light source to be captured (the distance along the depth direction as viewed from the reading telescope) so that the size of the point light source region in the image is equal to or greater than a predetermined value. It is conceivable to change the zoom value (zoom magnification) of the lens.
[0091]
However, when the zoom value of the zoom lens is changed, the center of the optical axis of the lens shifts, so that the position of the point light source image in the light receiving surface of the image sensor shifts. For example, as shown in FIG. Since the position of the center of gravity of the point light source region changes, it leads to a decrease in measurement accuracy. For this reason, it is desirable to correct the optical axis shift of the zoom lens by the following procedure.
[0092]
That is, first, the range of the space (imaging space) to be imaged by the reading telescope is obtained based on the movement range of the tip of the hand 28 of the robot hand 20, and the obtained imaging space is along the depth direction viewed from the reading telescope. And divide into a plurality of ranges for each predetermined distance. The division into a plurality of ranges is a distance range (corresponding to the predetermined distance) along the depth direction of the single range when each position in the single range is imaged with a certain zoom value. It is performed so as to obtain a value at which the image of the center of gravity of the point light source image can be calculated at each position. Thereby, a zoom value is determined for each imaging range. Then, for each imaging range, an in-imaging position (imaging center) corresponding to the center of the optical axis of the lens is examined for each determined zoom value, and the examined imaging center is stored for each imaging range.
[0093]
In the point light source capture control process, after changing the zoom value of the zoom lens in accordance with the depth distance of the point light source to be captured in step 150, the center of gravity of the point light source image is set to the imaging center corresponding to the changed zoom value. An azimuth angle deviation and an elevation angle deviation are set to 0 when the positions coincide with each other, and an azimuth angle value θ when the azimuth angle deviation is 0 and an elevation angle value φ when the elevation angle deviation is 0 are obtained. Thereby, it is possible to correct the shift of the optical axis of the zoom lens.
[0094]
Alternatively, the imaging center may be obtained only for a single zoom value in advance, and the imaging center at each zoom value may be obtained by performing the imaging center calculation process shown in FIG. In this method, the imaging center is checked in advance only for a single zoom value, the zoom value is set (step 250), and the robot hand 20 (hand 28) is moved into the imaging range corresponding to the set current zoom value. Is moved (step 252). Subsequently, as in the point light source capture control process, the azimuth and elevation angles of the reading telescope are controlled so that the center of gravity of the point light source region of the image obtained by imaging coincides with the imaging center at the current zoom value. An azimuth value θ when the angular deviation is 0 and an elevation angle value φ when the elevation deviation is 0 are obtained (step 254).
[0095]
Next, the zoom value is changed while the position of the point light source is fixed (step 256). The amount of change of the zoom value at this time is set to such a size that the gravity center calculation of the point light source image can be performed even when there is an influence of blur. Then, the center of gravity of the point light source image in the image obtained by imaging is calculated (step 258), and the amount of deviation between the center of gravity of the point light source image and the center of gravity of the point light source image at the previous zoom value is measured (step). 260). This shift amount corresponds to the shift amount of the optical axis position of the zoom lens accompanying the change of the zoom value in step 258. Therefore, in the next step 262, the shift amount is shifted by the measured shift amount with respect to the imaging center at the previous zoom value. The position is stored as the imaging center at the current zoom value.
[0096]
When obtaining the imaging center at another zoom value (when the determination at step 264 is negative), the process returns to step 252 to move the robot hand into the imaging range corresponding to the current zoom value changed at step 256, The processing after step 254 is repeated. By performing the above-described imaging center calculation processing, the imaging center at each zoom value is obtained.
[0097]
[Second Embodiment]
Next, a second embodiment of the present invention will be described. In addition, the same code | symbol is attached | subjected to the part same as 1st Embodiment, and description is abbreviate | omitted. As shown in FIG. 9, the robot hand position measuring device 60 according to the second embodiment includes an X-axis imaging device 62, a Y-axis imaging device 64, instead of the reading telescopes 40 and 42 described in the first embodiment. An X-axis stage 66 and a Y-axis stage 68 are provided, and these are each connected to the control unit 12.
[0098]
As shown in FIG. 10B, the X-axis imaging device 62 includes a cylindrical turning portion 62A, and is pivotally supported by the base portion 62B so as to be rotatable around the axis of the turning portion 62A (the elevation angle φ direction). Yes. Similar to the reading telescopes 40 and 42 described in the first embodiment, the X-axis imaging device 62 includes an elevation angle direction driving unit 48 that rotates the turning unit 62A in the elevation direction, and a rotation angle of the turning unit 62A in the elevation direction. And an imaging device 52 provided with an imaging device such as an area CCD. Since the Y-axis imaging device 64 has the same configuration as the X-axis imaging device 62, the description thereof is omitted.
[0099]
As shown in FIG. 10A, the X-axis stage 66 and the Y-axis stage 68 are each provided with rails extending along a certain direction, and the extending directions of the rails are orthogonal to each other. It is integrated with. The X-axis stage 66 and the Y-axis stage 68 have legs 70 attached to a plurality of locations at the bottom, and a plurality of stages 32 corresponding to the legs 70 are provided on the reference horizontal plane 30. The X-axis stage 66 and the Y-axis stage 68 are installed at fixed positions on the reference horizontal plane 30 by inserting the tip ends of the plurality of leg portions 70 into the knock holes 36 of the stage 32, respectively.
[0100]
In the X-axis stage 66, the axial direction of the turning portion 62A is parallel to the rail extending direction (the X-axis direction in a state where the X-axis stage 66 and the Y-axis stage 68 are installed at fixed positions on the reference horizontal plane 30). The X-axis imaging device 62 is attached so that the X-axis imaging device 62 can move along the rail extending direction. As shown in FIG. 9, the X-axis stage 66 includes an X-axis direction drive unit 72 that moves the X-axis imaging device 62 along the rail, and the position of the X-axis imaging device 62 along the extending direction of the rail (X An X-axis position detection unit 74 that detects an axial position) is provided.
[0101]
The X-axis direction drive unit 72 uses a stepping motor as a drive source similarly to the azimuth angle direction drive unit 44 and the elevation angle direction drive unit 48 described in the first embodiment, and a drive transmission mechanism (not shown) that rotates the rotation shaft of the stepping motor. , The X-axis imaging device 62 is moved by a movement amount proportional to the rotation amount of the rotation shaft. The X-axis position detection unit 74 is configured by a linear encoder or the like, and the position of the X-axis imaging device 62 is an intersection position between the rail extension direction of the X-axis stage 66 and the rail extension direction of the Y-axis stage 68. Distance (specifically, a distance along the horizontal direction between the intersection position and the center of the light receiving surface of the image sensor of the X-axis imaging device 62).
[0102]
A Y-axis imaging device 64 is attached to the Y-axis stage 68 so as to be movable along the rail extending direction. As shown in FIG. 9, the Y-axis stage 68 includes a Y-axis direction drive unit 76 that moves the Y-axis imaging device 64 along the rail, and the position (Y of the Y-axis imaging device 64 along the extending direction of the rail). A Y-axis position detector 78 for detecting an axial position) is provided. The Y-axis direction drive unit 76 has the same configuration as that of the X-axis direction drive unit 72, and the Y-axis position detection unit 78 has the same configuration as the X-axis position detection unit 74.
[0103]
Note that the turning unit, base unit, and elevation direction driving unit 48 of the X-axis imaging device 62 and the Y-axis imaging device 64, the X-axis stage 66, and the Y-axis stage 68 are the directing means of the present invention (specifically, according to claim 3). The elevation angle detector 50, the X-axis position detector 74, and the Y-axis position detector 78 correspond to the second detector of the present invention.
[0104]
In the second embodiment, as the XYZ absolute coordinate system, the X axis stage 66 and the Y axis stage 68 are installed at fixed positions on the reference horizontal plane 30, and the rail extension direction of the X axis stage 66 and the Y axis are set. On the vertical line passing through the crossing position with the rail extending direction of the stage 68, the position corresponding to the center of the light receiving surface of the image sensor of the X-axis imaging device 62 and the Y-axis imaging device 64 is defined as the origin, and the origin is defined as the origin. The axis parallel to the rail extending direction of the X-axis stage 66 is the X axis, the axis passing through the origin and parallel to the rail extending direction of the Y-axis stage 68 is the Y axis, and the axis passing through the origin is along the vertical direction. An XYZ coordinate system using the Z axis is used.
[0105]
Next, the operation of the second embodiment will be described. In the second embodiment, the X-axis stage 66, the Y-axis stage 68, the X-axis imaging device 62, and the Y-axis imaging device 64 that define the origin of the XYZ absolute coordinate system, the X-axis, and the Y-axis are assembled together in advance. Therefore, processing for associating the X-axis direction position detected by the X-axis position detection unit 74 and the Y-axis direction position detected by the Y-axis position detection unit 78 with the XYZ absolute coordinate system is performed at the time of assembly. In the coordinate setting process, the above process can be omitted, and only the process for associating the elevation angle detection value detected by the elevation angle detection unit 50 with the XYZ absolute coordinate system may be performed in the same manner as in the first embodiment. .
[0106]
The X-axis imaging device 62 can change the imaging direction to the X-axis direction and the elevation angle direction, and the Y-axis imaging device 64 can change the imaging direction to the Y-axis direction and the elevation angle direction. In the point light source capture control process according to the second embodiment, instead of obtaining the azimuth value θ when the azimuth deviation is 0 as in the first embodiment, an X-axis direction deviation (or Y-axis direction deviation) is obtained. What is necessary is just to obtain | require the X-axis direction position x when Y is 0 (or Y-axis direction position y).
[0107]
That is, with respect to the position of the center of gravity of the point light source region when the imaging direction of the X-axis imaging device 62 (or Y-axis imaging device 64) matches the direction of the point light source (coordinate setting point light source 54 or target point light source 58). The X axis direction position (or Y axis) of the X axis imaging device 62 (or Y axis imaging device 64) is to obtain the deviation along the X axis direction (or Y axis direction) of the center of gravity position of the current point light source region. (Directional position) is repeated one step at a time.
[0108]
At this time, the X-axis direction position (or Y-axis direction position) of the X-axis image pickup device 62 (or Y-axis image pickup device 64) changes stepwise (stepwise), so the X-axis direction deviation (or Y-axis direction deviation). ) Is not 0, the X-axis direction position x (or Y-axis direction position y) when the X-axis direction deviation (or Y-axis direction deviation) is 0 is the same as in the first embodiment. And obtained by interpolation calculation. The elevation angle value φ when the elevation angle deviation is 0 can be obtained by the same processing as in the first embodiment.
[0109]
Further, in the position measurement process, the point light source capture control process is performed with the target point light source 58 as the capture target point light source and the X-axis imaging device 62 as the control target imaging device, and the obtained X-axis direction position x and elevation angle φ are obtained. , And the point light source capture control processing is performed using the target point light source 58 as the capture target point light source and the Y-axis imaging device 64 as the control target imaging device, and the obtained Y-axis direction position y is stored. The coordinate value (X, Y, Z) of the target point light source 58 in the coordinate system is calculated according to the following equation.
X = x Y = y Z = Y · tanφ
As described above, the coordinate value (X, Y, Z) in the XYZ absolute coordinate system at the predetermined measurement position can be obtained with high accuracy.
[0110]
[Third Embodiment]
Next, a third embodiment of the present invention will be described. In addition, the same code | symbol is attached | subjected to the part same as 1st Embodiment and 2nd Embodiment, and description is abbreviate | omitted. As shown in FIG. 11, the robot hand position measuring apparatus 82 according to the third embodiment is provided with an XY stage 84 instead of the X-axis stage 66 and the Y-axis stage 68 described in the second embodiment.
[0111]
As shown in FIG. 12A, the XY stage 84 includes a first shaft 86 and a second shaft 88 arranged so as to be orthogonal to each other. Both ends of the first shaft 86 are respectively supported by a pair of rails (not shown) extending along a direction orthogonal to the longitudinal direction of the first shaft 86 (X-axis direction shown in FIG. 12). The first shaft 86 is slidable along the X-axis direction. Further, both end portions of the second shaft 88 are also supported by a pair of rails (not shown) extending along a direction (Y-axis direction shown in FIG. 12) orthogonal to the longitudinal direction of the second shaft 88. The second shaft 88 is slidable along the Y-axis direction.
[0112]
As shown in FIG. 11, the XY stage 84 includes an X-axis direction drive unit 72 that moves the first shaft 86 along the X-axis direction using a stepping motor as a drive source, and the first shaft 86 along the X-axis direction. An X-axis position detection unit 74 that detects a position, a Y-axis direction drive unit 76 that moves the second shaft 88 along the Y-axis direction using a stepping motor as a drive source, and a second shaft 88 that extends along the Y-axis direction. And a Y-axis position detector 78 for detecting the position.
[0113]
In addition, the first shaft 86 and the second shaft 88 are moved to follow each other along the X axis direction of the first shaft 86, and the second shaft 88 is moved along the Y axis direction. A plate 90 that moves following the movement is provided. Although illustration is omitted, the rail supporting the first shaft 86 and the rail supporting the second shaft 88 are integrated, and a plurality of leg portions similar to the leg portion 70 described in the second embodiment are attached. The XY stage 84 is placed on the reference horizontal plane 30 by inserting the tip of each leg into the knock holes 36 of the stage 32 provided in the reference horizontal plane 30 corresponding to each leg. Installed at a fixed position.
[0114]
In the third embodiment, a point light source detection device 92 is provided instead of the reading telescopes 40 and 42 described in the first embodiment and the imaging devices 62 and 64 described in the second embodiment. The point light source detection device 92 includes an imaging unit 52 and a Z-axis distance detection unit 94 that detects the height (Z-axis direction distance) of the target point light source 58. The imaging unit 52 and the Z-axis distance detection unit 94 are arranged on the plate 90 at a predetermined distance. Although various configurations can be adopted as the Z-axis distance detection unit 94, for example, the Z-axis distance detection unit 94 can be configured including the triangulation TV camera 94A shown in FIG.
[0115]
The XY stage 84 and the plate 90 correspond to the directing means of the present invention (specifically, the directing means described in claim 4), and the X-axis position detecting unit 74 and the Y-axis position detecting unit 78 are the first of the present invention. It corresponds to 2 detection means. The Z-axis distance detection unit 94 corresponds to the third detection means described in claim 4.
[0116]
Next, the operation of the third embodiment will be described. In the third embodiment, since the XY stage 84 and the point light source detection device 92 are assembled together in advance, the X-axis direction position detected by the X-axis position detection unit 74 is detected by the Y-axis position detection unit 78. The coordinate system peculiar to the robot hand 20 can be obtained by performing processing for associating the Y-axis direction position and the Z-axis direction distance detected by the Z-axis distance detection unit 94 with the XYZ absolute coordinate system at the time of assembly. The execution of the coordinate setting process can be omitted when performing the work and the process for making it correspond to the XYZ absolute coordinate system.
[0117]
In the position measurement process, the point light source capture control process is performed using the target point light source 58 as the capture target point light source and the imaging apparatus 52 as the control target imaging apparatus. That is, first, in the X-axis direction of the centroid position of the current point light source region with respect to the centroid position (center position of the image) of the point light source region when the imaging direction of the imaging device 52 matches the direction of the target point light source 58. The deviation along the line is repeated while the X-axis direction position of the imaging device 52 is sequentially changed step by step by the X-axis direction driving unit 72. At this time, the position in the X-axis direction of the image pickup device 52 changes stepwise (stepwise). Therefore, when the X-axis direction deviation is not zero, the X-axis when the X-axis direction deviation is zero. The direction position x is obtained by interpolation calculation.
[0118]
Subsequently, the deviation along the Y-axis direction with respect to the center position of the image at the center of gravity of the current point light source region is obtained, and the Y-axis direction drive unit 76 sequentially determines the Y-axis direction position of the imaging device 52 step by step. Repeat while changing. At this time, the position in the Y-axis direction of the image pickup device 52 changes stepwise (stepwise). Therefore, when the state where the Y-axis direction deviation is zero does not occur, the Y-axis when the Y-axis direction deviation is zero. The direction position y is obtained by interpolation calculation.
[0119]
As described above, the X-axis direction position x and the Y-axis direction position y (that is, XYZ absolute coordinates) when the imaging direction exactly matches the direction of the target point light source 58 (X-axis direction deviation is 0 and Y-axis direction deviation is 0). X coordinate value and Y coordinate value in the system) are obtained, and the imaging unit 52 is positioned substantially vertically below the target point light source 58 as shown in FIG.
[0120]
Next, the Z-axis direction distance of the target point light source 58 is detected by the Z-axis distance detector 94. When the Z-axis distance detection unit 94 is configured including the triangulation TV camera 94A, the Z-axis direction distance (that is, in the XYZ absolute coordinate system in a state where the imaging unit 52 is positioned substantially vertically below the target point light source 58). Z coordinate value) is detected.
[0121]
As shown in FIG. 12A, the triangulation TV camera 94A is adjusted so that the target point light source 58 falls within the imaging range in the above state, and in this state, the triangulation TV camera 94A. A point light source region corresponding to the target point light source 58 is present in an image obtained by imaging with the above. Since the distance between the TV camera 94A for triangulation and the imaging unit 52 is known, the Z-axis direction distance of the target point light source 58 corresponds to the Z direction of the point light source region on the image according to the principle of triangulation. It is uniquely determined from the position along the direction (specifically, the center of gravity position).
[0122]
For this reason, for example, a point light source region is extracted from an image obtained by imaging by the triangulation TV camera 94A, a center of gravity position of the extracted point light source region is calculated, and a position along a direction corresponding to the Z direction on the image Is stored in correspondence with the Z-axis direction distance of the target point light source 58 while changing the Z-axis direction distance of the target point light source 58, and the Z-axis direction distance of the target point light source 58 and the By obtaining the relationship between the position of the center of gravity along the direction corresponding to the Z direction of the point light source region in advance, the distance in the Z-axis direction of the target point light source 58 from the image acquired by the triangulation TV camera 94A is obtained. Can be sought. Thereby, the coordinate value (X, Y, Z) in the XYZ absolute coordinate system of the predetermined measurement position can be obtained with high accuracy.
[0123]
In the above configuration, as shown in FIG. 12B, a plurality of triangulation TV cameras 94A are provided, and the imaging ranges of the respective cameras 94A are different from each other along the Z-axis direction and partially overlapped. If the imaging range is adjusted as described above, the imaging range of each camera can be made smaller than the detectable range of the Z-axis direction distance, and the detection accuracy of the Z-axis direction distance can be improved.
[0124]
As an example, as shown in FIG. 13, the Z-axis distance detection unit 94 may include a magnetic linear scale (contact distance measuring device) 95. The linear scale 95 can be installed on the plate 90 in the same manner as the triangulation TV camera 94A. In this case, the X-axis direction position x and the Y-axis obtained after obtaining the X-axis direction position x and the Y-axis direction position y in a state where the imaging direction of the imaging unit 52 coincides with the direction of the target point light source 58. The plate 90 is moved so that the linear scale 95 is positioned vertically below the target point light source 58 based on the directional position y, and then the arm is extended until the arm of the linear scale 95 contacts the target point light source 58. The Z-axis direction distance can be obtained from the amount of arm extension when the point light source 58 is contacted. Thereby, the coordinate value (X, Y, Z) in the XYZ absolute coordinate system of the predetermined measurement position can be obtained with high accuracy.
[0125]
Further, as an example, as shown in FIG. 14A, the Z-axis distance detection unit 94 may include an optical radar device 98. In this case, it is desirable to install only the projector / receiver 98 </ b> A of the optical radar device 98 on the plate 90. When performing the position measurement process, the target point light source 58 and the reflection mirror 96 are attached to the tip of the hand 28. In this embodiment, the Z-axis direction distance is detected by obtaining the X-axis direction position x and the Y-axis direction position y as described above, and then based on the obtained X-axis direction position x and Y-axis direction position y. This is performed with the plate 90 moved so that 98A is positioned vertically below the target point light source 58.
[0126]
As shown in FIG. 14B, the optical radar device 98 modulates the intensity of light emitted from the light source by a signal of a constant frequency output from the oscillator, and the intensity-modulated light is vertically transmitted from the light projector / receiver 98A. And is converted into an electrical signal and made incident on a phase difference detector as a reference light signal. The light emitted from the light projector / receiver 98A is reflected by a reflection mirror 96 attached to the tip of the hand 28, and is detected by a photodetector built in the light projector / receiver 98A. The phase difference detector detects the phase difference between the reference light signal and the reflected light signal output from the light detector, and based on the detected phase difference, the distance from the reflection mirror 96, that is, the Z axis at the tip of the hand 28. Detect the direction distance. Thereby, the coordinate value (X, Y, Z) in the XYZ absolute coordinate system of the predetermined measurement position can be obtained with high accuracy.
[0127]
In addition, although the example using the imaging part 52 comprised including an imaging device was demonstrated as the 1st detection means which concerns on this invention above, it is not limited to this, For example, a light-receiving surface is divided into several area | regions (For example, in FIG. 6A, four areas divided by two dot-and-dash lines) are divided, and the amount of light detected by each optical sensor provided in each area is compared, so that a point light source exists. It is also possible to detect a deviation of the pointing direction with respect to the direction in which the light is directed.
[0128]
As mentioned above, although embodiment of this invention was described, said embodiment contains the embodiment of the matter described below other than the embodiment of the matter described in the claim.
[0129]
(1) A plurality of support portions for detachably supporting the directing means are provided in the vicinity of the movable space of the robot hand, and the directing means is attached to the support portion so that the movable space is provided. The robot hand position measuring apparatus according to claim 1, wherein the robot hand position measuring apparatus is installed at a certain position in the vicinity of the inside.
[0130]
(2) The azimuth angle and elevation angle can be changed, and the support portion provided in the vicinity of the movable space of the robot hand is supported so as to be detachable and the azimuth angle can be changed, and at least one of the azimuth angle and elevation angle is changed. A plurality of directing means whose directing directions change, a first detecting means for detecting a deviation between the directing direction of each directing means and the direction in which the light source attached to the reference part of the robot hand exists, and each directing means Second detection means for detecting the azimuth angle and elevation angle of the light source with reference to a predetermined three-dimensional coordinate system, and the second detection means in a state in which the directing direction of each directing means substantially coincides with the direction in which the light source exists. A robot hand position measuring device, comprising: a calculating means for calculating the coordinates of the reference portion in the predetermined three-dimensional coordinate system based on the azimuth angle and the elevation angle detected by.
[0131]
【The invention's effect】
  As described above, according to the present invention, it is possible to change the value of at least two kinds of parameters related to the posture angle, the position, or the posture angle and the position, and the pointing direction is changed by changing the value of the parameter.In addition, an image pickup device for picking up an image in the directivity direction through the zoom lensA state in which the pointing means is provided and the pointing direction of the pointing means substantially matches the direction in which the reference part of the robot hand existsThus, as the deviation between the pointing direction and the direction in which the reference part exists, the imaging center position corresponding to the current zoom value of the zoom lens on the image obtained by imaging with the imaging device of the pointing means, and the image of the reference part And detecting the deviation of the two kinds of parameters with reference to a predetermined three-dimensional coordinate system,Based on the values of the two types of parameters, the value of the parameter is calculated in a state in which the directing direction matches the direction in which the reference part exists, and the reference part in a predetermined three-dimensional coordinate system is calculated using the parameter value This is advantageous in that the position accuracy of the robot hand can be improved.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a schematic configuration of a robot hand position measuring apparatus according to a first embodiment.
FIG. 2 is a perspective view showing a robot arm, a reading telescope, and a coordinate setting point light source.
FIG. 3 is a perspective view showing details of a reading telescope and a stage.
FIG. 4 is a flowchart showing the contents of a coordinate setting process.
FIG. 5 is a flowchart showing the contents of a point light source capture control process.
6A is an image diagram showing an example of a pair of images used for an azimuth angle interpolation calculation when the azimuth deviation is 0, and FIG. 6B is a diagram showing an example of an interpolation calculation.
FIG. 7 is a flowchart showing the contents of position measurement processing.
8A is an image diagram showing an example of a change in barycentric position of a point light source region in an image accompanying a change in zoom value when the lens of the imaging unit is a zoom lens, and FIG. 8B is an imaging center. It is a flowchart which shows the content of the arithmetic processing.
FIG. 9 is a block diagram showing a schematic configuration of a robot hand position measuring apparatus according to a second embodiment.
10A is a perspective view showing an X-axis stage, a Y-axis stage, an X-axis imaging device, and a Y-axis imaging device, and FIG. 10B is a perspective view of the imaging device.
FIG. 11 is a block diagram showing a schematic configuration of a robot hand position measuring apparatus according to a third embodiment.
FIGS. 12A and 12B are perspective views showing an XY stage, an imaging apparatus, and a triangulation TV camera, respectively, when a Z-axis distance detection unit is configured including the triangulation TV camera.
FIG. 13 is a perspective view showing an XY stage, an imaging apparatus, and a linear scale when a Z-axis distance detection unit is configured including the linear scale.
14A is a perspective view showing an XY stage, an imaging device, and an optical radar when a Z-axis distance detection unit is configured including an optical radar, and FIG. 14B is a Z-axis distance detection by the optical radar. It is a schematic block diagram for demonstrating the principle of.
[Explanation of symbols]
10 Robot hand position measuring device
12 Control unit
20 Robot hand
40 First reading telescope
42 Second reading telescope
52 Imaging unit
64 Y-axis imaging device
58 Target point light source
60 Robot hand position measuring device
62 X-axis imaging device
64 Y-axis imaging device
82 Robot hand position measuring device
92 Point light source detector
94 Z-axis distance detector

Claims (5)

姿勢角、又は位置、又は姿勢角と位置に関する少なくとも2種類のパラメータの値を変更可能で、前記パラメータの値を変更することで指向方向が変化すると共に、ズームレンズを介して前記指向方向を撮像する撮像素子を備えた指向手段と、
前記指向手段の前記撮像素子による撮像によって得られる画像上での前記ズームレンズの光学中心に対応する撮像中心位置を、前記ズームレンズのズーム値毎に記憶する記憶手段と、
前記指向方向がロボットハンドの基準部位の存在する方向に略一致した状態で、前記指向手段の指向方向と前記基準部位の存在する方向との偏差として、前記指向手段の前記撮像素子による撮像によって得られる画像上での、前記ズームレンズの現在のズーム値に対応する前記撮像中心位置と、前記基準部位の像の重心位置との偏差を検出する第1検出手段と、
指向手段の前記少なくとも2種類のパラメータの値を所定の3次元座標系を基準にして検出する第2検出手段と、
前記指向方向が前記基準部位の存在する方向に略一致した状態で、前記第1検出手段によって検出された前記偏差、及び前記第2検出手段によって検出された前記パラメータの値に基づいて、前記指向方向が前記基準部位の存在する方向に一致した状態での前記パラメータの値を演算し、演算したパラメータの値を用いて前記所定の3次元座標系における前記基準部位の座標を演算する演算手段と、
を含むロボットハンド位置計測装置。
It is possible to change the value of at least two types of parameters related to the posture angle, or the position, or the posture angle and the position. Changing the value of the parameter changes the directivity direction, and images the directivity direction via the zoom lens. Directing means comprising an image sensor to
Storage means for storing, for each zoom value of the zoom lens, an imaging center position corresponding to the optical center of the zoom lens on an image obtained by imaging by the imaging element of the directing means;
In a state in which the directivity direction are substantially the same in the direction of presence of the reference part of the robot hand, as the difference between the present direction of the reference site and the orientation direction of the directing means, obtained by imaging by the imaging device of the directing means First detection means for detecting a deviation between the imaging center position corresponding to the current zoom value of the zoom lens and the barycentric position of the image of the reference portion on the obtained image;
Second detection means for detecting values of the at least two types of parameters of the directing means with reference to a predetermined three-dimensional coordinate system;
Based on the deviation detected by the first detection means and the value of the parameter detected by the second detection means in a state where the directivity direction substantially coincides with the direction in which the reference site exists, the directivity Calculating means for calculating the value of the parameter in a state in which the direction coincides with the direction in which the reference portion exists, and calculating the coordinates of the reference portion in the predetermined three-dimensional coordinate system using the calculated parameter value; ,
Robot hand position measuring device including
前記指向手段は複数設けられ、各指向手段はロボットハンドの移動可能範囲近傍の互いに異なる一定の位置に各々設置され、前記姿勢角に関する2種類のパラメータとして方位角及び仰角を各々変更可能とされており、
前記演算手段は、各指向手段の指向方向が前記基準部位の存在する方向に略一致した状態での各指向手段の方位角及び仰角を用いて前記基準部位の座標を演算する
ことを特徴とする請求項1記載のロボットハンド位置計測装置。
A plurality of directing means are provided, each directing means is installed at a different fixed position near the movable range of the robot hand, and the azimuth angle and elevation angle can be changed as two types of parameters related to the posture angle. And
The calculation means calculates the coordinates of the reference part using the azimuth and elevation angle of each directing means in a state where the directing direction of each directing means substantially coincides with the direction in which the reference part exists. The robot hand position measuring apparatus according to claim 1.
前記指向手段は複数設けられ、各指向手段は、前記姿勢角と位置に関する2種類のパラメータとして仰角及び各々水平でかつ互いに交差する2方向のうちの互いに異なる単一の方向に沿った位置を各々変更可能とされており、
前記演算手段は、各指向手段の指向方向が前記基準部位の存在する方向に略一致した状態での各指向手段の仰角及び前記単一の方向に沿った位置を用いて前記基準部位の座標を演算する
ことを特徴とする請求項1記載のロボットハンド位置計測装置。
A plurality of the directing means are provided, and each directing means has an elevation angle and a position along a single different direction from two directions that are horizontal and intersect each other as two types of parameters relating to the posture angle and the position, respectively. Can be changed,
The arithmetic means calculates the coordinates of the reference part using the elevation angle of each directing means and the position along the single direction in a state where the directing direction of each directing means substantially coincides with the direction in which the reference part exists. The robot hand position measuring apparatus according to claim 1, wherein the position is calculated.
前記指向手段は、前記位置に関する2種類のパラメータとして、各々水平でかつ互いに交差する2方向に沿った位置を各々変更可能とされており、
鉛直方向に沿ったロボットハンドの基準部位の高さを検出する第3検出手段を更に備え、
前記演算手段は、前記指向手段の指向方向が前記基準部位の存在する方向に略一致した状態での指向手段の前記2方向に沿った位置と、前記第3検出手段によって検出されたロボットハンドの基準部位の高さと、を用いて前記基準部位の座標を演算する
ことを特徴とする請求項1記載のロボットハンド位置計測装置。
The directing means can change the positions along two directions that are horizontal and intersect each other as two types of parameters related to the position,
Further comprising third detection means for detecting the height of the reference portion of the robot hand along the vertical direction;
The calculation means includes a position along the two directions of the pointing means in a state where the pointing direction of the pointing means substantially coincides with the direction in which the reference portion exists, and the robot hand detected by the third detecting means. The robot hand position measuring apparatus according to claim 1, wherein the coordinates of the reference part are calculated using the height of the reference part.
前記指向手段の指向方向を変化させる駆動手段と、
前記ズームレンズのズーム値が前記撮像中心位置が既知の第1のズーム値となっている状態で、前記指向手段の前記撮像素子による撮像によって得られる画像上での前記基準部位の像の重心位置が前記第1のズーム値に対応する前記撮像中心位置に一致するように、前記駆動手段によって前記指向手段の指向方向を制御した後に、前記ズームレンズのズーム値を前記撮像中心位置が未知の第2のズーム値へ変化させ、前記指向手段の前記撮像素子による撮像によって得られる画像上での、前記第1のズーム値に対応する前記撮像中心位置と、前記基準部位の像の重心位置とのずれ量を検出し、前記第1のズーム値に対応する前記撮像中心位置に対して前記検出したずれ量だけずれた位置を、前記第2のズーム値に対応する撮像中心位置として前記記憶手段に記憶させる撮像中心位置取得手段と、
を更に備えたことを特徴とする請求項1〜請求項4の何れか1項記載のロボットハンド位置計測装置。
Driving means for changing the directing direction of the directing means;
The position of the center of gravity of the image of the reference portion on the image obtained by imaging with the imaging element of the directing means in a state where the zoom value of the zoom lens is the first zoom value at which the imaging center position is known After controlling the directivity direction of the directing means by the driving means so that the image pickup central position corresponding to the first zoom value corresponds to the zoom value of the zoom lens, The zoom center position is changed to a zoom value of 2, and the image pickup center position corresponding to the first zoom value and the barycentric position of the image of the reference portion on an image obtained by image pickup by the image pickup device of the directing means detecting a shift amount, a position shifted by the detected shift amount to the image pickup center position corresponding to the first zoom value, as image pickup center position corresponding to the second zoom value An imaging center position obtaining means to be stored in the serial storage means,
The robot hand position measuring device according to any one of claims 1 to 4, further comprising:
JP21226699A 1999-07-27 1999-07-27 Robot hand position measuring device Expired - Fee Related JP4284765B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP21226699A JP4284765B2 (en) 1999-07-27 1999-07-27 Robot hand position measuring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP21226699A JP4284765B2 (en) 1999-07-27 1999-07-27 Robot hand position measuring device

Publications (2)

Publication Number Publication Date
JP2001041709A JP2001041709A (en) 2001-02-16
JP4284765B2 true JP4284765B2 (en) 2009-06-24

Family

ID=16619746

Family Applications (1)

Application Number Title Priority Date Filing Date
JP21226699A Expired - Fee Related JP4284765B2 (en) 1999-07-27 1999-07-27 Robot hand position measuring device

Country Status (1)

Country Link
JP (1) JP4284765B2 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006289588A (en) * 2005-04-14 2006-10-26 Matsushita Electric Ind Co Ltd Origin adjusting method of industrial robot
JP2007120993A (en) * 2005-10-25 2007-05-17 Tokyo Institute Of Technology Object shape measuring device
US8930025B2 (en) 2006-05-25 2015-01-06 Takehiro Ishizaki Work robot
JP2011227073A (en) * 2010-03-31 2011-11-10 Saxa Inc Three-dimensional position measuring device
EP2722136A1 (en) * 2012-10-19 2014-04-23 inos Automationssoftware GmbH Method for in-line calibration of an industrial robot, calibration system for performing such a method and industrial robot comprising such a calibration system
CN105526906B (en) * 2015-11-30 2018-02-09 上海卫星工程研究所 Wide-angle dynamic high precision laser angular measurement method
JP6912604B2 (en) * 2018-02-02 2021-08-04 株式会社Ihi Coordinate system integration method and device with columnar body
CN108469831B (en) * 2018-03-19 2024-03-15 中国计量大学 Attitude control device and control method of mirror surface cleanliness detection equipment
CN112665476B (en) * 2020-12-29 2022-11-01 东风模具冲压技术有限公司 Precision detection device for gripper of welding robot

Also Published As

Publication number Publication date
JP2001041709A (en) 2001-02-16

Similar Documents

Publication Publication Date Title
CN109115126B (en) Method for calibrating a triangulation sensor, control and processing unit and storage medium
EP2132523B1 (en) Method and device for exact measurement of objects
JP3511450B2 (en) Position calibration method for optical measuring device
US6460004B2 (en) Method and apparatus for calibrating a non-contact gauging sensor with respect to an external coordinate system
JP3837431B2 (en) Pipe inner surface shape measuring device
JP2000207028A (en) Polar coordinate stage for compensating stage turn, device using continuous image turn, and measuring method by device
EP1091186A2 (en) Method and apparatus for calibrating a non-contact gauging sensor with respect to an external coordinate system
CA2751878A1 (en) Measurement of positional information for a robot arm
JP2004050356A (en) Position and attitude sensor of movable structure
JP4284765B2 (en) Robot hand position measuring device
JP3579396B2 (en) Method and apparatus for calibrating a first coordinate system of an indexing means in a second coordinate system of a sensing means
KR100394208B1 (en) Apparatus and method for measuring human body
JP2018522240A (en) Method for measuring artifacts
JPS6332306A (en) Non-contact three-dimensional automatic dimension measuring method
JP3666108B2 (en) Appearance inspection device
US11940274B2 (en) Tilt detecting device and surveying instrument
JPH0755439A (en) Three-dimensional shape measuring equipment
JPH04365586A (en) Optical axis aligning method and orthogonal axis aligning method for hand eye
JPH05126521A (en) Position-measuring device for remote-controlled manipulator
JPH1011146A (en) Device for correcting stop posture of mobile object
JP3893191B2 (en) Calibration value measurement method for measurement imaging device
JP2000326082A (en) Laser beam machine
JP3195850B2 (en) Method and apparatus for measuring three-dimensional position on curved surface
JPH0854234A (en) Three-dimensional coordinate position measuring method
JP2012013593A (en) Calibration method for three-dimensional shape measuring machine, and three-dimensional shape measuring machine

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060322

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080401

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080701

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080827

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081202

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081212

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090303

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090316

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120403

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120403

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120403

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130403

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130403

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140403

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees