JP6430986B2 - ロボットを用いた位置決め装置 - Google Patents

ロボットを用いた位置決め装置 Download PDF

Info

Publication number
JP6430986B2
JP6430986B2 JP2016062884A JP2016062884A JP6430986B2 JP 6430986 B2 JP6430986 B2 JP 6430986B2 JP 2016062884 A JP2016062884 A JP 2016062884A JP 2016062884 A JP2016062884 A JP 2016062884A JP 6430986 B2 JP6430986 B2 JP 6430986B2
Authority
JP
Japan
Prior art keywords
robot
movement amount
command
feature
command movement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016062884A
Other languages
English (en)
Other versions
JP2017170599A (ja
Inventor
悠太郎 高橋
悠太郎 高橋
象太 滝澤
象太 滝澤
文和 藁科
文和 藁科
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
FANUC Corp
Original Assignee
FANUC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by FANUC Corp filed Critical FANUC Corp
Priority to JP2016062884A priority Critical patent/JP6430986B2/ja
Priority to DE102017002608.4A priority patent/DE102017002608B4/de
Priority to US15/467,434 priority patent/US10525598B2/en
Priority to CN201710183424.XA priority patent/CN107225569B/zh
Publication of JP2017170599A publication Critical patent/JP2017170599A/ja
Application granted granted Critical
Publication of JP6430986B2 publication Critical patent/JP6430986B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/1641Programme controls characterised by the control loop compensation for backlash, friction, compliance, elasticity in the joints
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1692Calibration of manipulator
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39008Fixed camera detects reference pattern held by end effector
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39024Calibration of manipulator
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39039Two cameras detect same reference on workpiece to define its position in space
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39045Camera on end effector detects reference pattern
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39192Compensate thermal effects, expansion of links

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Manipulator (AREA)

Description

本発明は、ロボットを用いた位置決め装置に関し、特には、視覚センサを用いたビジュアルフィードバックを利用して、ロボットを高精度な位置決め装置として使用する技術に関する。
一般的な産業用ロボットは、ティーチングプレイバックと呼ばれる方式に基づいており、教示された動きを正確に繰り返すことができる。そのため、ロボットで対象物を把持して所定の位置に供給するような使い方をした場合、ロボットを一種の位置決め装置とみなすことができる。
これに関する従来技術として、例えば特許文献1には、ロボットを位置決め装置として使用する際に、ロボットハンドによる対象物に対する把持位置がずれても、視覚センサを用いて把持ずれを計測・補正することで、対象物を正確に位置決めする機能を備えたロボットハンドリング装置が記載されている。
また特許文献2には、平面上の第1の対象物位置に置かれた対象物に対して、所定の作業を行うプログラムによって制御されるロボットと、第1の対象物位置に対して、所定の相対的位置関係にあるアーム先端部の位置を記憶する第1のロボット位置記憶部と、カメラの画像上での対象物の特徴量を記憶する目標到達状態データ記憶部と、第2の対象物位置に置かれた対象物の特徴量を目標到達状態データの特徴量と一致させるための、任意の初期位置からの移動量を求めるロボット移動量計算部と、アーム先端部を移動量に基づいて移動させた際における第2のロボット位置と、第1のロボット位置との差異に基づいてプログラムの補正データを計算する補正データ計算部と、を備えるロボットシステムが記載されている。
特許第3702257号公報 特開2015−150636号公報
一般的に、ロボットは金属などで構成された構造物であるため、環境温度の変化によりアームや減速機が熱膨張・収縮し、寸法に変化が発生する。また、減速機にはバックラッシがあるため、目標位置までの経路の違いによって停止位置に誤差が発生する可能性がある。さらに、バックラッシ量は摩耗などの経年変化により一定ではない。また、ロボットで弾性体を変形させながら位置決めする場合には、弾性体である対象物から外力を受けることで、位置決めした位置が本来意図する位置とは異なるものとなる可能性がある。
従来の位置決め装置または位置決め方法は、上述のような熱変形、バックラッシ、経年変化、外力などに起因する誤差を考慮していないものが多い。一方で、そのような誤差のないロボットを作ることは困難であるし、そのような誤差を解析的に解いて完全に補正することも困難である。
例えば特許文献1では、ロボットを位置決め治具として使用してはいるが、熱変形などの誤差要因を排除した高精度な位置決めまでは企図していない。一方、特許文献2では、作業者がロボットの座標系を考慮・認識せずとも、ビジュアルフィードバックを利用して簡単に、複雑な経路の作業を実行可能とすることを目的としており、ロボットを位置決め治具としては使用していない。
そこで本発明は、熱変形やバックラッシ等のロボットの誤差要因を排除し、本来ロボットが備えている位置決め精度よりも高い精度でのロボットの位置決めを可能にする位置決め装置を提供することを目的とする。
上記目的を達成するために、本願第1の発明は、可動のアームを備えたロボットと、前記アームの先端部、および前記ロボットの外部の定位置のうちの一方に設けられた視覚的な特徴部位と、前記アームの前記先端部、および前記ロボットの外部の前記定位置のうちの他方に設けられ、前記特徴部位を撮像する複数の視覚センサと、前記複数の視覚センサにより撮像して得た画像上での、前記特徴部位の位置、姿勢、及び大きさのうちの少なくとも1つを含む特徴量を検出する特徴量検出部と、前記アームの前記先端部を所定の指令位置に位置決めした状態で、前記特徴量検出部により検出された特徴量を、第一の特徴量として記憶する目標データ記憶部と、前記第一の特徴量を検出したときとは異なる時刻において、前記アームの前記先端部を前記所定の指令位置または該指令位置の近傍に位置決めしている状態で、前記複数の視覚センサにより前記特徴部位を撮像して、前記特徴量検出部により検出した第二の特徴量と、前記目標データ記憶部に記憶された前記第一の特徴量との差異に基づいて、前記複数の視覚センサのすべてにおいて前記第二の特徴量を前記第一の特徴量に一致させるための、ロボットの第一の指令移動量を算出するロボット移動量計算部と、前記ロボットの機械的特性により定められるパラメータと前記第一の指令移動量に基づいて、第二の指令移動量を算出する指令移動量調整部と、該第二の指令移動量に基づいて、前記アームの前記先端部を移動させる移動指令部と、を備え、前記指令移動量調整部及び前記移動指令部は、前記第一の指令移動量が所定の閾値以下になるまで、前記第二の指令移動量の算出と、前記第二の指令移動量に基づく前記アームの前記先端部の移動とを繰り返すように構成されている、位置決め装置を提供する。
第2の発明は、第1の発明において、前記指令移動量調整部は、前記第一の指令移動量が前記ロボットの機械的特性により定められるパラメータ以上である場合は、前記第一の指令移動量をそのまま前記第二の指令移動量とし、前記第一の指令移動量が前記ロボットの機械的特性により定められるパラメータより小さい場合は、前記第一の指令移動量に1より小さい係数を掛けた値を前記第二の指令移動量とする、位置決め装置を提供する。
第3の発明は、第1の発明において、前記指令移動量調整部は、前記第一の指令移動量によって前記ロボットを移動することで生ずる前記ロボットの各可動部の動作量を算出し、該各可動部の動作量に基づいて、前記第二の指令移動量を算出する、位置決め装置を提供する。
第4の発明は、第1の発明において、前記指令移動量調整部は、前記ロボットの稼働状況から経年変化による性能低下を見積もり、該見積もりに基づいて前記ロボットの機械的特性により定められるパラメータを修正し、該修正したパラメータと前記第一の指令移動量に基づいて、前記第二の指令移動量を算出する、位置決め装置を提供する。
第5の発明は、第1から第4のいずれか一つの発明において、一つの前記特徴部位と複数の前記視覚センサとを備え、前記複数の視覚センサが前記一つの特徴部位を撮像する、位置決め装置を提供する。
第6の発明は、第1から第4のいずれか一つの発明において、複数の前記特徴部位と複数の前記視覚センサとを備え、前記複数の視覚センサが前記複数の特徴部位をそれぞれ撮像する、位置決め装置を提供する。
本発明によれば、ビジュアルフィードバックを利用し、さらにロボットの機械的特性により定められるパラメータに基づいたロボット移動量の調整を行うことにより、キャリブレーションの有無に関わらず、作業者が補正という概念を意識せずに、気温変化による熱変形、バックラッシの影響、外力による位置ずれ、および磨耗による経年変化などのロボットの誤差要因を排除し、本来ロボットが備えている位置決め精度以上の精度を持つ位置決め装置としてロボットを使用することができる。
本発明の第1の実施形態に係る位置決め装置の概略構成を示す図である。 図1の位置決め装置に含まれるロボットのハンドと、該ハンドに把持される対象物とを例示する図である。 図1の位置決め装置の機能ブロック図である。 図1の位置決め装置における、システム立ち上げ時の処理の一例を示すフローチャートである。 図1の位置決め装置における、システム稼働時の処理の一例を示すフローチャートである。 同一の特徴部位について、目標データ記憶時の画像を破線で示し、現在の画像を実線で示した例を示す図である。 バックラッシによる誤差範囲がある場合に、指令移動量を計算する例を説明する図である。 本発明の第2の実施形態に係る位置決め装置の概略構成を示す図である。
図1は、本発明の第1の実施形態に係る位置決め装置(ロボットシステム)5の概略構成を示す図である。位置決め装置5は、可動のアーム6を備えたロボット10と、アーム4の先端部(図示例ではハンド11)に設けられた視覚的な特徴部位と、ロボット10の外部の定位置に設けられ、特徴部位を撮像する複数(図示例では2つ)の視覚センサ12a、12bとを有する。ロボット10は、例えば6軸多関節ロボットであり、ロボット10自体は周知のものでよい。
また図2に示すように、ロボット10のハンド11は、特徴部位13a、13bが形成された対象物13を把持するように構成されており、第一の視覚センサ12aおよび第二の視覚センサ12bは、それぞれ特徴部位13a、13bを撮像するように配置・構成されている。但しこれは一例であり、例えば、ハンド11に直接、特徴部位13a、13bを形成してもよい。また特徴部位の形状は、視覚センサで撮像した特徴部位の画像の画像処理に適したものであればどのようなものでもよいが、図示例のような内部に十字線を有する円形等、画像処理によって位置、姿勢(回転角度)および大きさ(視覚センサと特徴部位との距離に反比例)が検出できるものが好ましい。
ロボット10は、ロボット10を制御するロボット制御装置15に接続され、ロボット制御装置15により指令された任意の位置へ動作するように数値制御可能となっている。また視覚センサ12a、12bは例えば、画像(上述の特徴部位)を撮像する機能を持つ受光デバイスであり、視覚センサ12a、12bが撮像した画像は、視覚センサ12a、12bに接続された画像処理装置14に送られる。
図3は、位置決め装置5の機能ブロック図である。画像処理装置14は、視覚センサ12a、12bで撮像したそれぞれの画像から、特徴部位13a、13bを検出し、それぞれの画像上での、特徴部位13a、13bの位置、姿勢、及び大きさのうちの少なくとも1つを含む特徴量を検出する特徴量検出部16を有する。また画像処理装置14は、通信ケーブルまたは無線通信などによってロボット制御装置15と接続され、ロボット制御装置15から指令を受け取ったり、画像処理の結果をロボット制御装置15に送ったりすることができる。なお図1および図3では、画像処理装置14はロボット制御装置15とは別の装置として記載されているが、ロボット制御装置15に内蔵されてもよい。
なお本実施形態では、視覚センサ12a、12bは、後述する処理を行う前に、自らの座標系(センサ座標系)とロボット10の座標系(ロボット座標系)との位置合わせ、すなわちキャリブレーションを行っていなくてもよい。無論、キャリブレーションを行っておいてもよいが、その場合でも、センサ座標系に対するロボット座標系の方向とスケールだけが分かるような簡易的なものでよい。
図3に示すように、ロボット制御装置15は、ハンド11を所定の指令位置に位置決めした状態で、特徴量検出部16により検出された特徴量を、第一の特徴量(目標データ)として記憶する目標データ記憶部17と、第一の特徴量を検出したときとは異なる時刻において、ハンド11を上記所定の指令位置または該指令位置の近傍に位置決めしている状態で、視覚センサ12a、12bにより特徴部位13a、13bをそれぞれ撮像して、特徴量検出部16により検出した第二の特徴量と、目標データ記憶部17に記憶された第一の特徴量(目標データ)との差異に基づいて、複数の視覚センサのすべてにおいて第二の特徴量を第一の特徴量に一致させるための、ロボット10の第一の指令移動量を算出するロボット移動量計算部18と、ロボット10の機械的特性により定められるパラメータ(後述)と第一の指令移動量に基づいて、第二の指令移動量を算出する指令移動量調整部19と、該第二の指令移動量に基づいて、ロボット10(ハンド11)を移動させる移動指令部20と、を備える。また指令移動量調整部19および移動指令部20は、第一の指令移動量が所定の閾値以下になるまで、第二の指令移動量の算出と、第二の指令移動量に基づくハンド11の移動とを繰り返すように構成されている。
以下、位置決め装置5における処理の流れについて、図4および図5のフローチャートを参照しつつ説明する。
図4は、位置決め装置5を含むロボットシステム立ち上げ時の流れを説明するフローチャートである。先ず、ロボット10を所定の指令位置(位置決め位置)に移動する(S101)。次に、ハンド11、またはハンド11に把持された対象物13に設けられた特徴部位13a、13bが、それぞれ視覚センサ12a、12bの視野に写るように視覚センサ12a、12bを設置する(S102)。ここで、各視覚センサは、該視覚センサの光軸が、撮像対象の特徴部位の面に対しておおよそ垂直になるような位置・姿勢に配置されることが好ましいが、これに限定されるものではない。また、特徴部位13a、13bは、それぞれ視覚センサ12a、12bの視野のおおよそ中心に写る位置とすることが好ましいが、これに限定されるものではない。
次に、視覚センサ12a、12bで特徴部位13a、13bの画像をそれぞれ撮像し、特徴部位13a、13bの画像をモデルデータとして教示する(S103)。ここで、どのような情報をモデルデータとして記憶するかは、画像から特徴部位13a、13bを検出するのに用いる画像処理のアルゴリズムに依存する。本実施形態では、どのような画像処理アルゴリズムを用いても構わないが、たとえば、正規化相関を用いたテンプレートマッチングや、エッジ情報を用いた一般化ハフ変換などの周知の手法を用いることができる。正規化相関によるテンプレートマッチングの場合は、テンプレートがモデルデータに相当する。
最後に、教示したモデルデータを用いて、画像から特徴部位13a、13bを検出し、検出したそれぞれの特徴部位の、画像上での位置、姿勢、大きさのうちの少なくとも1つを含む第一の特徴量を、目標データとして目標データ記憶部17に記憶する(S104)。例えば、画像処理アルゴリズムとしてテンプレートマッチングを採用した場合、最も一致度が高いテンプレートの中心位置、回転角度、拡大・縮小した割合を、目標データとして記憶する。このようにして、目標データ記憶部17は、特徴部位13a、13bの双方について第一の特徴量が記憶される。また、ロボット制御装置15は、この目標データ記憶時のロボット10の制御上の位置を、指令位置1として適当なメモリ等に記憶する。
次に図5は、位置決め装置5を含むロボットシステム稼働時の流れを説明するフローチャートである。先ず、ロボット10を、図4のS104において目標データを記憶したとき(第一の特徴量を検出したとき)とは異なる時刻において、上述の指令位置1と同じ位置、または指令位置1の近傍へ移動させる(S201)。ここで、「指令位置1の近傍」とは、指令位置1とは厳密には異なるが、特徴部位13a、13bがそれぞれ視覚センサ12a、12bの視野に入り、かつ、ロボット10の姿勢が目標データ記憶時のロボットの姿勢と同じである指令位置を意味する。
ここで、制御上は正確に、目標データを記憶したときの指令位置1またはその近傍へロボット10が移動したとしても、ロボット10の各部における、気温変化による熱変形、バックラッシの影響、磨耗による経年変化、外力による影響(弾性体の対象物を変形させながら位置決めする場合には、該対象物から外力を受ける)などの誤差要因により、実際には正確には、指令位置1に対応する位置(位置決め位置1)にロボット10が移動できていない場合がある。
次に、視覚センサ12a、12bで特徴部位13a、13bの画像をそれぞれ撮像し、得られた画像から特徴部位13a、13bを検出する(S202)。画像処理アルゴリズムには、先のS104と同じ手法を用い、各特徴部位の画像上での位置、姿勢、大きさうちの少なくとも1つを含む第二の特徴量(現在の特徴量)を算出する。
次に、S202で算出した第二の(現在の)特徴量が、目標データとして記憶されている第一の特徴量と一致するような位置へロボット10を移動させるための、ロボットの第一の指令移動量を算出する(S203)。ステップS203における処理の具体例については後述する。
次に、現在のロボット位置が所定の位置決め位置1に到達したか否かを判断する(S204)。具体的には、S203で算出した第一の指令移動量の大きさを、あらかじめ設定しておいた閾値と比較し、第一の指令移動量が該閾値以下であれば、ロボット10が位置決め位置1に到達したと判断することができる。例えば、閾値が0.5mmに設定されている場合、計算されたロボットの指令移動量が0.5mm未満であれば、ロボット10が所定の位置決め位置1に到達したと判断することができる。なお閾値は、本来ロボットが備えている位置決め精度よりも高い精度で目標位置へロボットを位置決めすることができる程度の値として設定されることが好ましい。
ロボット10が所定の位置決め位置1に到達していない場合は、S203で算出したロボットの第一の指令移動量を調整して第二の指令移動量を算出し(S205)、第二の指令移動量に基づいてロボット10を移動させる(S206)。その後、ステップS202へ戻り、同じ処理を再度行う。なおステップS206における処理の具体例についても後述する。
一方、ステップS204においてロボット10が所定の位置決め位置1に到達したと判断された場合は、ロボット10が正確に位置決めされたものと判断できるので、一連の処理・動作を終了する。
以下、上述のステップS203において、画像から得られた現在の(第二の)特徴量と、目標位置記憶部17に目標データとして記憶されている第一の特徴量に基づいて、ロボット10を所定の位置決め位置1に一致させるための第一の指令移動量の算出方法の具体例を、2つ説明する。なおここでは視覚センサ12aについて説明するが、視覚センサ12bについても同様なので説明は省略する。
1つ目の具体例は、ロボット座標系と視覚センサ座標系との位置合わせ(キャリブレーション)を行う方法である。視覚センサのキャリブレーション方法の詳細を記した文献の例として、「Roger Y. Tsai, “An efficient and accurate camera calibration technique for 3d machine vision”, Proc. Computer Vision and Pattern Recognition ’86, pp.368-374, 1986」が挙げられる。
図6は、ステップS203において、目標データ記憶時(ステップS104)の特徴部位13aの像を破線21で示し、現在(ステップS202)の特徴部位13aの像を実線22で示した例を示す図である。ここで、視覚センサ座標系での位置を(u,v)で表すと、Δuが画像の縦方向の位置の差分となり、Δvが画像の横方向の位置の差分となる。上記文献に記載されているような方法で視覚センサ12aのキャリブレーションを行うことによって、視覚センサ12aの座標系での位置(u,v)をロボット10の座標系での位置(x,y,z)に変換することができるようになる。
詳細には、現在の特徴部位13aの画像上での位置(u,v)と、目標データとして記憶している特徴部位13aの画像上での位置(u,v)を、ロボット10の座標系での位置(x,y,z)と(x,y,z)に変換する。ここで、求めるべきロボットの指令移動量を(Δx,Δy,Δz)とすると、Δx、Δy、およびΔzは、それぞれ式(1)〜(3)で定義される。
Figure 0006430986
Figure 0006430986
Figure 0006430986
上式(1)〜(3)により、ロボット10を所定の位置決め位置1に一致させるためのロボットの指令移動量(Δx,Δy,Δz)を求めることができる。
2つ目の具体例は、ヤコビアン行列を用いた方法である。ここでは、所定の位置決め位置1に一致させるためのロボットの指令移動量を、検出された特徴部位13aの第二の特徴量と、目標データとして記憶されている第一の特徴量との差分に基づいて算出する。例えば図6では、前述のように、視覚センサの座標系での位置を(u,v)で表すと、Δuが画像の縦方向の位置の差分となり、Δvが画像の横方向の位置の差分となる。
ここでは、画像上での見た目の大きさに関する特徴量をsとする。例えば、テンプレートマッチングの場合は、テンプレートの大きさを100%(=1.0)として、テンプレートより大きく見えていれば、sは1.0より大きな値とし、小さく見えていれば、sは1.0よりも小さな値で表現することができる。
次に、目標データとして記憶している第一の特徴量を(u,v,s)とし、ステップS202で得られた第二の特徴量を(u,v,s)とすると、特徴量の差分は次の式(4)〜(6)で表すことができる。なお、画像上での見た目の大きさに関する特徴量sは、特徴部位13aが設置されている対象物13の上面から視覚センサ12aまでの距離に反比例するため、割合のままではなく、距離に比例した値になるように逆数を用いる。
Figure 0006430986
Figure 0006430986
Figure 0006430986
次に、求めるべきロボットの指令移動量を(Δx,Δy,Δz)とすると、ヤコビアン行列Jは次式(7)で定義される。
Figure 0006430986
続いて、ヤコビアン行列Jを求める方法を説明する。先ず、特徴部位13aが画像中心付近に写る状態をロボットの原位置として、ロボット10が原位置に位置決めされている状態で、視覚センサ12aが撮像した画像から特徴部位13aを検出し、得られた特徴量を(u,v,s)とする。次に、ロボット10を原位置から、図1に示すような直交座標系のX軸方向に距離mだけ移動し、その位置において視覚センサ12aが撮像した画像から特徴部位13aを検出し、得られた特徴量を(u,v,s)とする。同様に、ロボットを原位置から該直交座標系のY軸方向(紙面に垂直な方向)に距離mだけ移動した位置、Z軸方向に距離mだけ移動した位置で、それぞれ特徴部位13aを検出し、それぞれの特徴量を(u,v,s)、(u,v,s)とする。但し、ロボットの指令移動量を表す座標系は、図1に記載のものに限られず、他の座標系を使用することもできる。
上述のようにX軸、Y軸、Z軸方向にロボットを移動したときの特徴部位13aの検出結果と、原位置での特徴部位13aの検出結果とから、Δu,Δv,Δsは以下の式(8)〜(16)を用いて求めることができる。
Figure 0006430986
Figure 0006430986
Figure 0006430986
Figure 0006430986
Figure 0006430986
Figure 0006430986
Figure 0006430986
Figure 0006430986
Figure 0006430986
式(8)〜(16)を式(7)に代入することにより、ヤコビアン行列Jを求める式(17)、(18)が得られる。
Figure 0006430986
Figure 0006430986
一旦ヤコビアン行列Jが求まれば、任意の特徴部位13aの特徴量(u,v,s)に対して、それらを式(7)に代入することで、ロボット10を所定の位置決め位置1に一致させるためのロボットの指令移動量(Δx,Δy,Δz)を求めることができる。なお、ロボット10は所定の位置決め位置1に向けて漸近的に近付いていくので、算出される指令移動量は厳密な値でなくてもよい。従って本実施例に対して、ヤコビアン行列Jを使用した方法は好適に使用可能である。
次に、図5に示したステップS205において、ステップS203で得られた第一の指令移動量を、ロボット10の機械的特性により定められるパラメータに基づいて調整して、第二の指令移動量を算出する方法の一例を以下に説明する。なおここでは、バックラッシをロボット10の機械的特性とした場合を説明する。
バックラッシは、ロボット10の各可動部に存在し、また、ロボット10にかかる重力によっても変化するので、バックラッシが最終的にロボット10のアーム先端部(ハンド11)に与える誤差を、幾何学的な計算により求めることは困難である。そこで、ロボット10の各可動部のそれぞれの状態とロボット10そのものの姿勢を考慮し、まずは複合的に、バックラッシによりロボット10のアーム先端部の位置の誤差の範囲を求める。ここで求められた誤差の範囲こそが、ロボットの機械的特性により定められるパラメータとなる。ここでは、このパラメータを第一のパラメータと称する。
次に、上述の第一のパラメータと、ステップS203で求められた第一の指令移動量とに基づいて、指令移動量調整部19が第二の指令移動量を算出する(ステップS205)。具体的には、第一の指令移動量がアーム先端部の誤差範囲以上である場合は、第一の指令移動量をそのまま前記第二の指令移動量とする。一方、第一の指令移動量がアーム先端部の誤差範囲より小さい場合は、第一の指令移動量に1より小さい係数を掛けた値を第二の指令移動量とし、ロボット10のアーム先端部の移動量を制限しつつ移動させていく。以下、その具体例を図7を参照しつつ説明する。
図7は、バックラッシによる誤差範囲がある場合に、第二の指令移動量を計算する例を説明する図である。一般に。ロボット10を動かすということは、各可動部に設けられた複数の歯車を噛み合わせて、指定移動量に相当する量(角度)だけ歯車を回転させることを意味する。例えば、図7に示すように、ロボット10のある可動部において、歯車Aおよび歯車Bが互いに係合しており、歯車Aを時計回りに回転(駆動)させることで、歯車Bを反時計回りに回転(従動)させる場合を考える。
ここで、第一の指令移動量が第一のパラメータより大きくなる場合(例えば、第一の指令移動量が、歯車Bを現在位置B1から位置B3まで回転させるものである場合)には、歯車Aと歯車Bを完全に噛み合わせて指令移動量分回転させてよく、第一の指令移動量をそのまま第二の指令移動量とすることができる。
一方、第一の指令移動量が、第一のパラメータより小さくなる場合(例えば、第一の指令移動量が、歯車Bを現在位置B1から、比較的B1に近い位置B2まで回転させるものである場合)には、歯車Aと歯車Bを完全に噛み合わせて指令移動量分回転させてしまうと、オーバーシュートして位置B2を通り過ぎてしまうこととなり、正確に所定の位置決め位置1に収束させることができない。そこで、このような場合には、第一の指令移動量に1より小さい係数を掛けた値を第二の指令移動量とすることにより、より少量ずつ歯車Bを動かして、オーバーシュートすることなく位置B1から位置B2に回転移動させることができる。
このような方法でロボット10のアーム先端部を移動させていくことにより、ロボット位置を効率的に所定の位置決め位置1に収束させていくことが可能となる。
また図7を参照して説明した例ではバックラッシを扱ったが、バックラッシを扱うことは必須ではない。例えば、ロストモーションなど機械的な遊びを補正するシステムに対し、本実施形態に係る位置決め装置を同じように適用することができる。
なおステップS205における他の処理として、指令移動量調整部19は、第一の指令移動量によってロボット10を移動することで生ずるロボット10の各可動部の動作量を算出し、該各可動部の動作量に基づいて、第二の指令移動量を算出してもよい。より具体的には、ロボット10のアーム先端部での差異(ステップS202)から各可動部での動作量(回転量)を求め、その値に必要な係数を掛けた後、逆変換することでアーム先端部の第二の指令移動量を算出してもよい。
或いは、ステップS205におけるさらなる他の処理として、指令移動量調整部19は、ロボット10の稼働状況から経年変化による性能低下を見積もり、該見積もりに基づいてロボット10の機械的特性により定められるパラメータを修正し、該修正したパラメータと第一の指令移動量に基づいて、第二の指令移動量を算出してもよい。より具体的には、定期的に記録されたデータなどから経年劣化によるバックラッシの増加量を推測し、その推測値から第一のパラメータを変更して、変更された第一のパラメータと第一の指令移動量とから、第二の指令移動量を算出してもよい。
本実施形態では、特徴部位13aの特徴量として何を用いるかにより、位置決めの対象が異なる。画像上の位置を用いれば、特徴部位13aが設置された平面上での位置を特定できる。画像上の姿勢を特徴量として用いれば、同平面上での回転位置を特定できる。また、画像上の大きさを特徴量として用いれば、同平面からの法線方向の高さを特定することができる。
上述のようなステップS203およびS205における処理は、視覚センサ12bについても、視覚センサ12aと同様に行うことができる。そして、目標データ記憶部17に記憶した特徴部位13a、13bの2組の(第一の)特徴量と、特徴部位13a、13bの2組の現在の(第二の)特徴量とをそれぞれ比較し、それらの差異から、ロボット10の第一の指令移動量が算出される。
ロボット10の第一の指令移動量(Δx,Δy,Δz)は、上述の算出方法等で算出した、特徴部位13aの特徴量から求められた第一の指令移動量を(Δx,Δy,Δz)とし、特徴部位13bの特徴量から求められた第一の指令移動量を(Δx,Δy,Δz)とすると、式(19)〜(21)の通りとなる。
Figure 0006430986
Figure 0006430986
Figure 0006430986
上式(19)〜(21)は、図1のように視覚センサ12a、12bが設置された場合の第一の指令移動量の算出方法に対応するものであり、すなわち、視覚センサ12aと特徴部位13aを用いてロボット10のXY方向の位置決めを行い、視覚センサ12bと特徴部位13bを用いてロボット10のZ方向の位置決めを行うことを意味している。
図1の例では、視覚センサ12aは直交座標系のXY平面に垂直なので、X方向およびY方向について高感度での計測が可能となる。また視覚センサ12bはYZ平面に垂直なので、Y方向およびZ方向について高感度の計測が可能となる。このように、複数の視覚センサの利用によって、XYZの全ての方向について高感度の測定が可能となる。但しこれは一例であり、複数の視覚センサを他の向きや位置に配置し、全ての方向について高感度の測定を行うことも可能である。
図8は、本発明の第2の実施形態における位置決め装置(ロボットシステム)の全体構成を示す図である。第2の実施形態は、基本的な構成は第1の実施形態と同じであるが、視覚センサ12a、12bがロボット10のハンド11に設置され、特徴部位13a、13bがロボット10の外部の定位置に設けられている点で異なる。
第2の実施形態では、ロボットシステム立ち上げ時の処理(図4)のステップS102において、視覚センサ12a、12bを設置するのではなく、視覚センサ12a、12bで撮像できる位置に特徴部位13a、13bの方を設置する点が異なる。その他の処理については、第2の実施形態は第1の実施形態と同様でよいので、詳細な説明は省略する。
なお上記実施形態ではいずれも、複数の特徴部位を複数の視覚センサでそれぞれ撮像しているが、複数の視覚センサで一つの特徴部位を異なる位置又は角度から撮像することも可能である。具体的には、2つの視覚センサをステレオカメラとして使用して、一つの特徴部位を計測する場合が挙げられる。
上記実施形態では、ロボットのアーム先端部に視覚的な特徴部位を設け、ロボットの外部の定位置に設置された複数の視覚センサで該特徴部位を計測する。或いは、ロボットのアーム先端部に複数の視覚センサを設け、ロボットの外部の定位置に設置された視覚的な特徴部位を該視覚センサで計測する。次に、ロボットが所定の位置に位置決めされた状態で、視覚センサのそれぞれの画像に写る特徴部位の画像上での位置を目標データとして記憶しておく。現在の視覚センサの画像に写る特徴部位の画像上での位置が、目標データとして記憶されている位置と同じであれば、ロボットが物理的に所定の位置に位置決めされていると言える。したがって、視覚センサの画像に写る特徴部位の画像上での位置が目標データとして記憶されている位置と同じになるようにロボットを制御することによって、ロボットのアーム先端部を所定の位置に位置決めすることができる。
ロボットのアームは減速機などを介して駆動されるが、減速機にはバックラッシがあるため、視覚センサの画像に写る特徴部位の画像上での位置を、目標データとして記憶されている位置と同じになるような正確なロボットの指令移動量を算出できたとしても、ロボットのアーム先端部は物理的には指令通りの量を移動するとは限らない。そこで、その指令通りの移動量でそのままアーム先端部を移動させるのではなく、例えばバックラッシの幅などのロボットの機械的特性によって定められるパラメータに基づき指令移動量の調整を行うことで、より精度よくアーム先端部を所定の位置に位置決めすることができる。
また、視覚センサによって検出した現在の特徴部位の画像上の位置を目標データとして記憶している位置と同じにさせるようにロボットのアーム先端部の移動量を算出し、それをロボットの機械的特性によるパラメータに基づいて調整して、実際に移動させるという制御を、算出される指令移動量が所定の閾値以下になるまで繰り返すことで、ロボットのアーム先端部を所定の位置に漸近的に近付けていくことができる。ロボットは所定の位置に漸近的に近付くので、算出される指令移動量は高精度な値でなくてもよい。これは、視覚センサが厳密にキャリブレーションされていなくても、ロボットが本来持つ位置決めの精度以上で、所定の位置に位置決めすることが可能になることを意味するとともに、自らの様々な誤差要因に依らず、ロボットを高精度な位置決め装置として用いることが可能なことを意味する。
5 位置決めシステム
6 ロボットアーム
10 ロボット
11 ロボットハンド
12a、12b 視覚センサ
13 対象物
13a、13b 特徴部位
14 画像処理装置
15 ロボット制御装置
16 特徴量検出部
17 目標データ記憶部
18 ロボット移動量計算部
19 指令移動量調整部
20 移動指令部

Claims (6)

  1. 可動のアームを備えたロボットと、
    前記アームの先端部、および前記ロボットの外部の定位置のうちの一方に設けられた視覚的な特徴部位と、
    前記アームの前記先端部、および前記ロボットの外部の前記定位置のうちの他方に設けられ、前記特徴部位を撮像する複数の視覚センサと、
    前記複数の視覚センサにより撮像して得た画像上での、前記特徴部位の位置、姿勢、及び大きさのうちの少なくとも1つを含む特徴量を検出する特徴量検出部と、
    前記アームの前記先端部を所定の指令位置に位置決めした状態で、前記特徴量検出部により検出された特徴量を、第一の特徴量として記憶する目標データ記憶部と、
    前記第一の特徴量を検出したときとは異なる時刻において、前記アームの前記先端部を前記所定の指令位置または該指令位置の近傍に位置決めしている状態で、前記複数の視覚センサにより前記特徴部位を撮像して、前記特徴量検出部により検出した第二の特徴量と、前記目標データ記憶部に記憶された前記第一の特徴量との差異に基づいて、前記複数の視覚センサのすべてにおいて前記第二の特徴量を前記第一の特徴量に一致させるための、ロボットの第一の指令移動量を算出するロボット移動量計算部と、
    前記ロボットの機械的特性により定められるパラメータと前記第一の指令移動量に基づいて、第二の指令移動量を算出する指令移動量調整部と、
    該第二の指令移動量に基づいて、前記アームの前記先端部を移動させる移動指令部と、を備え、
    前記指令移動量調整部及び前記移動指令部は、前記第一の指令移動量が所定の閾値以下になるまで、前記第二の指令移動量の算出と、前記第二の指令移動量に基づく前記アームの前記先端部の移動とを繰り返すように構成されている、位置決め装置。
  2. 前記指令移動量調整部は、前記第一の指令移動量が前記ロボットの機械的特性により定められるパラメータ以上である場合は、前記第一の指令移動量をそのまま前記第二の指令移動量とし、前記第一の指令移動量が前記ロボットの機械的特性により定められるパラメータより小さい場合は、前記第一の指令移動量に1より小さい係数を掛けた値を前記第二の指令移動量とする、請求項1に記載の位置決め装置。
  3. 前記指令移動量調整部は、前記第一の指令移動量によって前記ロボットを移動することで生ずる前記ロボットの各可動部の動作量を算出し、該各可動部の動作量に基づいて、前記第二の指令移動量を算出する、請求項1に記載の位置決め装置。
  4. 前記指令移動量調整部は、前記ロボットの稼働状況から経年変化による性能低下を見積もり、該見積もりに基づいて前記ロボットの機械的特性により定められるパラメータを修正し、該修正したパラメータと前記第一の指令移動量に基づいて、前記第二の指令移動量を算出する、請求項1に記載の位置決め装置。
  5. 一つの前記特徴部位と複数の前記視覚センサとを備え、前記複数の視覚センサが前記一つの特徴部位を撮像する、請求項1から4のいずれか一項に記載の位置決め装置。
  6. 複数の前記特徴部位と複数の前記視覚センサとを備え、前記複数の視覚センサが前記複数の特徴部位をそれぞれ撮像する、請求項1から4のいずれか一項に記載の位置決め装置。
JP2016062884A 2016-03-25 2016-03-25 ロボットを用いた位置決め装置 Active JP6430986B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2016062884A JP6430986B2 (ja) 2016-03-25 2016-03-25 ロボットを用いた位置決め装置
DE102017002608.4A DE102017002608B4 (de) 2016-03-25 2017-03-17 Positioniersystem unter Verwendung eines Roboters
US15/467,434 US10525598B2 (en) 2016-03-25 2017-03-23 Positioning system using robot
CN201710183424.XA CN107225569B (zh) 2016-03-25 2017-03-24 定位装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016062884A JP6430986B2 (ja) 2016-03-25 2016-03-25 ロボットを用いた位置決め装置

Publications (2)

Publication Number Publication Date
JP2017170599A JP2017170599A (ja) 2017-09-28
JP6430986B2 true JP6430986B2 (ja) 2018-11-28

Family

ID=59814602

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016062884A Active JP6430986B2 (ja) 2016-03-25 2016-03-25 ロボットを用いた位置決め装置

Country Status (4)

Country Link
US (1) US10525598B2 (ja)
JP (1) JP6430986B2 (ja)
CN (1) CN107225569B (ja)
DE (1) DE102017002608B4 (ja)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6333871B2 (ja) * 2016-02-25 2018-05-30 ファナック株式会社 入力画像から検出した対象物を表示する画像処理装置
JP6755724B2 (ja) * 2016-06-20 2020-09-16 キヤノン株式会社 制御方法、ロボットシステム、および物品の製造方法
CN108972572B (zh) * 2017-05-31 2022-10-28 精工爱普生株式会社 控制装置、机器人以及控制方法
JP2020536753A (ja) 2017-10-06 2020-12-17 アドバンスト・ソリューションズ・ライフ・サイエンシズ,エルエルシー エンドエフェクタ較正の組立体、システム、および方法
JP6734253B2 (ja) * 2017-12-20 2020-08-05 ファナック株式会社 ワークを撮像する視覚センサを備える撮像装置
JP6608977B2 (ja) * 2018-01-25 2019-11-20 ファナック株式会社 物品搬送システム
JP6933167B2 (ja) * 2018-03-14 2021-09-08 オムロン株式会社 ロボットの制御装置
JP6740288B2 (ja) * 2018-07-13 2020-08-12 ファナック株式会社 物体検査装置、物体検査システム、及び検査位置を調整する方法
CN109176505B (zh) * 2018-08-10 2021-06-11 厦门大学 一种基于球杆仪的六轴关节工业机器人空间误差标定方法
US10871366B2 (en) * 2018-08-16 2020-12-22 Mitutoyo Corporation Supplementary metrology position coordinates determination system for use with a robot
CN112584984A (zh) * 2018-08-16 2021-03-30 株式会社三丰 用于机器人的包括对准传感器的辅助度量位置坐标确定***
JP7000361B2 (ja) 2019-01-24 2022-01-19 ファナック株式会社 追随ロボットおよび作業ロボットシステム
JP7326911B2 (ja) * 2019-06-20 2023-08-16 オムロン株式会社 制御システムおよび制御方法
JP7249221B2 (ja) * 2019-07-09 2023-03-30 株式会社日立製作所 センサ位置姿勢キャリブレーション装置及びセンサ位置姿勢キャリブレーション方法
US11679508B2 (en) 2019-08-01 2023-06-20 Fanuc Corporation Robot device controller for controlling position of robot
JP7306937B2 (ja) 2019-09-25 2023-07-11 ファナック株式会社 ロボットに支持された部材の位置を調整するロボット装置の制御装置
JP2022059951A (ja) * 2020-10-02 2022-04-14 日本電産サンキョー株式会社 産業用ロボット
CN115847492B (zh) * 2023-02-16 2024-04-26 三维信技测量技术(苏州)有限公司 一种工业机器人视觉传感器测量装置

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS51121722A (en) * 1975-04-18 1976-10-25 Fujitsu Ltd Control system for motor stop position
US6317953B1 (en) * 1981-05-11 2001-11-20 Lmi-Diffracto Vision target based assembly
US4753569A (en) * 1982-12-28 1988-06-28 Diffracto, Ltd. Robot calibration
EP0114505B1 (en) * 1982-12-28 1987-05-13 Diffracto Ltd. Apparatus and method for robot calibration
JPS6212483A (ja) * 1985-05-30 1987-01-21 Nachi Fujikoshi Corp 自動車窓ガラスの自動取付装置
JPH0785202B2 (ja) * 1986-07-14 1995-09-13 株式会社杉山電機製作所 回転位置検出制御装置
JPH0285709A (ja) * 1988-09-22 1990-03-27 Hitachi Ltd 多関節ロボットを用いた物体計測方法と計測装置
JPH02110489U (ja) * 1989-02-17 1990-09-04
JP2919135B2 (ja) * 1991-10-09 1999-07-12 川崎重工業株式会社 ロボットの位置補正方法
JPH05233065A (ja) * 1992-02-20 1993-09-10 Matsushita Electric Ind Co Ltd 精密位置決め装置
US5572102A (en) * 1995-02-28 1996-11-05 Budd Canada Inc. Method and apparatus for vision control of welding robots
JPH0970780A (ja) * 1995-09-06 1997-03-18 Fanuc Ltd ロボットのツール形状補正方式
DE19826395A1 (de) * 1998-06-12 1999-12-23 Amatec Gmbh Verfahren zum Erfassen und Kompensieren von kinematischen Veränderungen eines Roboters
JP2000052178A (ja) * 1998-08-10 2000-02-22 Amada Eng Center Co Ltd 駆動装置のガタ防止方法および装置
JP4090666B2 (ja) * 1999-10-05 2008-05-28 三菱電機株式会社 数値制御システムおよびそれに用いられる位置指令値補正装置
JP2004531048A (ja) 2000-12-15 2004-10-07 サイバーオプティクス コーポレーション 改良されたインタフェースを有する基板整列画像捕捉装置
US6681151B1 (en) * 2000-12-15 2004-01-20 Cognex Technology And Investment Corporation System and method for servoing robots based upon workpieces with fiducial marks using machine vision
JP3702257B2 (ja) * 2002-08-23 2005-10-05 ファナック株式会社 ロボットハンドリング装置
DE10242710A1 (de) 2002-09-13 2004-04-08 Daimlerchrysler Ag Verfahren zum Herstellen eines Verbindungsbereiches auf einem Werkstück
DE10345743A1 (de) 2003-10-01 2005-05-04 Kuka Roboter Gmbh Verfahren und Vorrichtung zum Bestimmen von Position und Orientierung einer Bildempfangseinrichtung
JP4220920B2 (ja) 2004-03-08 2009-02-04 ファナック株式会社 視覚センサ
DE102004024378B4 (de) 2004-05-17 2009-05-20 Kuka Roboter Gmbh Verfahren zur robotergestützten Vermessung von Objekten
DE102008019435B4 (de) 2008-04-17 2012-06-06 Aicon Metrology Gmbh Verfahren zum berührungslosen Vermessen dreidimensionaler, komplex geformter Bauteile
US9492927B2 (en) * 2009-08-15 2016-11-15 Intuitive Surgical Operations, Inc. Application of force feedback on an input device to urge its operator to command an articulated instrument to a preferred pose
US9457473B2 (en) * 2012-06-20 2016-10-04 Irobot Corporation Suspended robot systems and methods for using same
CN102773524A (zh) 2012-08-01 2012-11-14 西北工业大学 一种基于机器视觉找正的制孔方法
JP6164970B2 (ja) * 2013-08-07 2017-07-19 キヤノン株式会社 ロボット制御方法、ロボットシステム、プログラム、記録媒体及び部品の製造方法
JP5850962B2 (ja) * 2014-02-13 2016-02-03 ファナック株式会社 ビジュアルフィードバックを利用したロボットシステム

Also Published As

Publication number Publication date
JP2017170599A (ja) 2017-09-28
US20170274534A1 (en) 2017-09-28
US10525598B2 (en) 2020-01-07
CN107225569B (zh) 2020-04-10
DE102017002608B4 (de) 2020-10-29
CN107225569A (zh) 2017-10-03
DE102017002608A1 (de) 2017-09-28

Similar Documents

Publication Publication Date Title
JP6430986B2 (ja) ロボットを用いた位置決め装置
CN108453701B (zh) 控制机器人的方法、示教机器人的方法和机器人***
JP5850962B2 (ja) ビジュアルフィードバックを利用したロボットシステム
JP6429473B2 (ja) ロボットシステム、ロボットシステムの校正方法、プログラム、およびコンピュータ読み取り可能な記録媒体
JP4267005B2 (ja) 計測装置及びキャリブレーション方法
US20200298411A1 (en) Method for the orientation of an industrial robot, and industrial robot
US9221176B2 (en) Robot system and method for controlling the same
US20180161984A1 (en) Control device, robot, and robot system
CN101842195B (zh) 把持设备和把持设备控制方法
JP3946711B2 (ja) ロボットシステム
US20170072566A1 (en) Measurement system used for calibrating mechanical parameters of robot
CN111482959A (zh) 机器人运动视觉***的自动手眼标定***与方法
JP6235664B2 (ja) ロボットの機構パラメータを校正するために使用される計測装置
KR20140008262A (ko) 로봇 시스템, 로봇, 로봇 제어 장치, 로봇 제어 방법 및 로봇 제어 프로그램
JP6298026B2 (ja) 多関節ロボットのたわみを計測するたわみ計測システム
WO2015197100A1 (en) Method for calibrating a robot and a robot system
JP7306937B2 (ja) ロボットに支持された部材の位置を調整するロボット装置の制御装置
US20230256615A1 (en) Robot device controller for controlling position of robot
JPWO2018092243A1 (ja) 作業位置補正方法および作業ロボット
US20180161983A1 (en) Control device, robot, and robot system
CN115446847A (zh) 用于提高机器人***的3d眼手协调准确度的***和方法
JP6217322B2 (ja) ロボット制御装置、ロボット及びロボット制御方法
US20230123629A1 (en) 3d computer-vision system with variable spatial resolution
JP2016203282A (ja) エンドエフェクタの姿勢変更機構を備えたロボット
JP7059968B2 (ja) 制御装置および位置合わせ装置

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180308

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180320

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181009

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181101

R150 Certificate of patent or registration of utility model

Ref document number: 6430986

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150