JP2008183690A - ロボット制御装置及びロボット制御システム - Google Patents
ロボット制御装置及びロボット制御システム Download PDFInfo
- Publication number
- JP2008183690A JP2008183690A JP2007021435A JP2007021435A JP2008183690A JP 2008183690 A JP2008183690 A JP 2008183690A JP 2007021435 A JP2007021435 A JP 2007021435A JP 2007021435 A JP2007021435 A JP 2007021435A JP 2008183690 A JP2008183690 A JP 2008183690A
- Authority
- JP
- Japan
- Prior art keywords
- robot
- trigger signal
- position information
- unit
- visual sensor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Manipulator (AREA)
Abstract
【解決手段】ロボット1の駆動を制御するサーボドライバ7と、サーボドライバにロボットを駆動させるための指令信号を送信する処理部5と、視覚センサ4及びサーボドライバに対して同時にトリガ信号を送信するトリガ信号送信手段52と、サーボドライバに備えられ、トリガ信号が入力されるトリガ信号入力手段72と、トリガ信号が入力された時点におけるロボットの位置情報を取得する位置情報取得手段74と、取得したロボットの位置情報を記憶する位置情報記憶手段76と、トリガ信号送信時におけるロボット座標系でのロボットの位置情報と視覚センサ座標系でのワークの位置情報とに基づいてロボットの位置の補正量を算出し、作業プログラムを補正する補正手段58と、を備える。
【選択図】図2
Description
視覚センサによってロボットの動作を補正する場合において、視覚センサには、撮像手段としてのカメラが用いられ、複数のカメラを使用してステレオ視の原理により3次元位置を計算するものがある。
この座標変換について、ロボットの先端にカメラが取り付けられたシステムを例に簡単に説明する。ロボットがある姿勢をとった時のロボット先端に定義された座標系(以下、ロボット先端座標系という)とロボット座標系の関係は、ロボットが持っている現在位置データから知ることができる。ロボット先端から見たカメラの位置は、ロボットの姿勢が変化しても変わることがない。このため、ロボット先端座標系と視覚センサ座標系との関係がわかれば、視覚センサ座標系上の位置をロボット座標系への位置に変換することが可能である。ロボット座標系と視覚センサ座標系との関係は、座標変換行列を用いて表される(例えば、特許文献1参照。)。
ロボットを停止させずに視覚センサによりワークを計算すれば、前記の問題は解決できるが、このためには、視覚センサが計算を行った同一の時刻のロボットの現在位置データを取得する必要がある。例えば、ロボット先端に取り付けられたカメラのロボット座標系での速度が1000mm/secであった場合に、ワークを計算すると考えると、前述の時刻のずれが1msecだけで計算結果として1mmの誤差が発生することになる。
一般的にロボットの駆動を制御する制御装置は、ロボットの駆動源をサーボ制御するサーボドライバとサーボドライバに対して指令信号を送る等の処理を行うメイン処理部とを備えており、視覚センサに計算要求を行うのはメイン処理部となる。メイン処理部はサーボドライバよりロボットの位置データを取得している。
以上の問題は、制御装置に使用されるCPUを性能の高いものにし、位置データの更新周期を高速化することにより解消することができるが、制御装置自体のコストが増加する問題がある。
そして、補正手段は、位置情報記憶手段に記憶された、トリガ信号送信手段によるトリガ信号送信時におけるロボットの位置と、視覚センサにより計算されたトリガ信号送信手段によるトリガ信号送信時におけるワークの位置とに基づいてロボットの位置の補正量を算出し、当該補正量に基づいてロボットを駆動させる際の作業プログラムを補正する。
これにより、視覚センサは、トリガ信号送信時のワークの位置を取得することができ、サーボドライバはトリガ信号送信時のロボットの位置情報を取得することができるので、視覚センサとロボットとで位置を定める基準となる座標系を相互に変換することができるようになる。
よって、座標系が変換できるようになることで、従来のようにワークの位置計算のたびにロボットを停止させることなく、ロボットを動作させた状態であっても視覚センサによるワーク位置の計算時のロボットの位置データを取得してロボットの作業プログラムを的確に補正することができる。
さらに、安価な信号入力手段をサーボドライバに設けるだけで、処理部のロボット位置情報更新周期を早めるために各部のCPU等の演算装置を高性能にする必要がなくなるので、処理部やサーボドライバにかかるコストの高騰を抑えることができる。
そして、補正手段は、位置情報記憶手段に記憶された、トリガ信号送信手段によるトリガ信号送信時におけるロボットの位置と、視覚センサにより計算されたトリガ信号送信手段によるトリガ信号送信時におけるワークの位置とに基づいてロボットの位置の補正量を算出し、当該補正量に基づいてロボットを駆動させる際の作業プログラムを補正する。
これにより、視覚センサは、トリガ信号送信時のワークの位置を取得することができ、サーボドライバはトリガ信号送信時のロボットの位置情報を取得することができるので、視覚センサとロボットとで位置を定める基準となる座標系を相互に変換することができるようになる。
よって、座標系が変換できるようになることで、従来のようにワークの位置計算のたびにロボットを停止させることなく、ロボットを動作させた状態であっても視覚センサによるワーク位置の計算時のロボットの位置データを取得してロボットの作業プログラムを的確に補正することができる。
さらに、安価な信号入力手段をサーボドライバに設けるだけで、処理部のロボット位置情報更新周期を早めるために各部のCPU等の演算装置を高性能にする必要がなくなるので、処理部やサーボドライバにかかるコストの高騰を抑えることができる。
図1に示すように、ロボット制御システム100は、複数のアーム12が複数の関節13により回転自在に連結されたロボット1と、このロボット1の駆動等を制御するロボット制御装置2と、ワークWを撮像する撮像手段としてのカメラ3と、このカメラ3で撮像された画像を処理する視覚センサ4と、を備えている。
図1に示すように、ロボット1は、ワークWをハンドリングする等の機能を有するロボットであり、土台となるベース11と、ロボット1のアーム部を構成し、複数の関節13で連結された複数のアーム12と、各関節13に設けられた駆動源としてのサーボモータ14(図2参照)と、ロボット1の位置情報を検出する、より具体的には、サーボモータ14に設けられ、各サーボモータ14の軸の位置(軸角度)をそれぞれ検出する位置検出手段としてのエンコーダ15と、を備えている。そして、連結されたアーム12の最先端部には、ワークWをハンドリングするハンドH等が装備されている。
各関節13は、アーム12の一端部を揺動可能として他端部を軸支する揺動関節と、アーム12自身をその長手方向を中心に回転可能に軸支する回転関節とのいずれかから構成される。つまり、ロボット1は多関節型ロボットに相当する。また、ロボット1は、各関節13により、その先端部のハンドH等を任意の位置に位置決めし、任意の姿勢を取らせることが可能となっている。
図1〜図3に示すように、ロボット制御装置2は、ティーチング或いはプログラミングにより設定されたロボット1の教示動作データに従って、ロボット1の指令信号を出力する処理部5と、エンコーダ15から各サーボモータ14の軸角度を取得しながら処理部5からの指令信号に基づいてロボット1の各サーボモータ14の制御を行うサーボドライバ7と、を備えている。
処理部5は、サーボドライバ7及び視覚センサ4に接続されている。
処理部5は、サーボドライバ7にロボット1を駆動させるための指令信号を送信する指令信号送信部51を有している。
処理部5は、視覚センサ4に対してワークWの位置を計算させるトリガ信号を送信すると同時に、サーボドライバ7に対して各サーボモータ14の軸角度であるエンコーダ値をエンコーダ15から取得して記憶させるためのトリガ信号を送信するトリガ信号送信手段としてのトリガ信号出力部52を有している。
処理部5は、通信部53により視覚センサ4に送信した指令信号により、視覚センサ4から視覚センサ座標系でのワークWの位置情報を受信するワーク位置情報受信部54を有している。
処理部5は、通信部53によりサーボドライバ7に送信した指令信号により、サーボドライバ7からエンコーダ値を受信するエンコーダ値受信部55を有している。
処理部5は、エンコーダ値受信部55で受信したエンコーダ値を記憶するエンコーダ値記憶部57を有している。
処理部5は、ワーク位置情報記憶部56に記憶された視覚センサ座標系でのワークWの位置情報とエンコーダ値記憶部57に記憶されたエンコーダ値とに基づいてロボット1の位置の補正量を算出し、当該補正量に基づいてロボット1を駆動させる際の作業プログラムを補正する補正手段としての補正部58を有する。
処理部5は、メモリ59に記憶されたプログラムやデータに従って、上記の各部の処理を実行するための制御部60を有している。
なお、処理部5による各処理は、処理部5に備えられた制御部60がメモリ59内に記憶されたプログラム等のソフトウェアを実行することにより実現させてもよいし、回路等のハードウェアにより実現させてもよい。
サーボドライバ7は、処理部5、ロボット1のサーボモータ14及びエンコーダ15に接続されている。
サーボドライバ7は、処理部5の指令信号送信部51から送信されたロボット1を駆動させるための指令信号を受信する指令信号受信部71を有している。
サーボドライバ7は、処理部5のトリガ信号出力部52から送信されたトリガ信号を受信するトリガ信号入力手段としてのトリガ信号入力部72を有している。
サーボドライバ7は、処理部5の通信部53からエンコーダ値を送信する旨の指令信号を受信すると、エンコーダ15から取得したエンコーダ値をエンコーダ値受信部55に送信する通信部73を有している。
サーボドライバ7は、トリガ信号入力部72にてトリガ信号を受信した際にその信号受信時におけるエンコーダ15からのエンコーダ値を記憶する位置情報記憶手段としてのトリガ時エンコーダ値記憶部76を有している。
サーボドライバ7は、通信部73において、エンコーダ値を処理部5に送信する旨の信号が入力された場合に、エンコーダ値記憶部75及びトリガ時エンコーダ値記憶部76に記憶されたエンコーダ値を処理部5のエンコーダ値記憶部55に送信するエンコーダ値送信部77を有している。なお、通信部73には、所定の周期で指令信号が入力されるため、エンコーダ値送信部77も所定の周期で処理部5にエンコーダ値を送信することになる。
なお、サーボドライバ7による各処理は、サーボドライバ7に備えられた制御部78がプログラム等のソフトウェアを実行することにより実現させてもよいし、回路等のハードウェアにより実現させてもよい。
図1,図2に示すように、カメラ3は、ロボット1の最先端にあるアーム12の先端に複数設けられている。カメラ3を複数設けるのは、ワークWをステレオ視して撮像することにより、ワークWの位置を三次元で把握するためである。
カメラ3は、視覚センサ4から受信したシャッタ信号に基づき、シャッタ信号がONとなっている間、ワークWを撮像する。そして、撮像された画像は、視覚センサ4の指令信号に基づいて、視覚センサ4に画像データで送信する。ここで、視覚センサ4から受信するシャッタ信号は、処理部5のトリガ信号出力部52からトリガ信号が視覚センサ4に送信されると同時に視覚センサ4から送信されてくるものである。詳細は視覚センサ4の説明に委ねる。
図1,図2に示すように、視覚センサ4は、カメラ3及び処理部5に接続されている。
視覚センサ4は、処理部5のトリガ信号出力部52から送信されたトリガ信号を受信するトリガ信号入力部41を有している。
視覚センサ4は、処理部5からトリガ信号を受信したと同時にカメラ3によるワークWの撮像を開始させるべく、カメラ3にシャッタ信号を送信する撮像制御手段としての撮像制御部42を有している。
視覚センサ4は、カメラ3により撮像されたワークWの画像データを受信する画像データ受信部43を有している。
視覚センサ4は、カメラ3により撮像された画像データの画像処理を行う画像処理手段としての画像処理部44を有している。
視覚センサ4は、画像処理部44により画像処理された撮像画像のデータからトリガ信号受信時(処理部5によるトリガ信号の送信時とほぼ同時)における視覚センサ座標系でのワークWの位置を計算するワーク位置計算手段としてのワーク位置計算部45を有している。
視覚センサ4は、計算された視覚センサ座標系でのワークWの位置情報を処理部5に送信するワーク位置情報送信部46を有している。
なお、視覚センサ4による各処理は、視覚センサ4に備えられたCPU等がメモリ内に記憶されたプログラム等のソフトウェアを実行することにより実現させてもよいし、回路等のハードウェアにより実現させてもよい。
次に、ロボット制御装置2による処理について図3〜図6を用いて説明する。ここで、図3は処理部5の処理、図4及び図5はサーボドライバ7の処理、図6は視覚センサ4の処理を示すフローチャートである。
<処理部の処理(前半)>
図3に示すように、処理部5の制御部60は、メモリ59に記憶された作業プログラムを実行し(ステップS1)、指令信号送信部51は、サーボドライバ7にロボット1を駆動させる指令信号を送信する(ステップS2)。ここで、制御部60は、作業プログラム上におけるワークWの計算位置であるか否かを判断する(ステップS3)。
制御部60が作業プログラム上でのワークWの計算位置であると判断した場合(ステップS3:YES)、制御部60は、エンコーダ15から受信したエンコーダ値をトリガ時エンコーダ値記憶部76に記憶させるトリガとなるトリガ信号を、トリガ信号出力部52を介してサーボドライバ7に送信するとともに、カメラ3によりワークWの位置を計算させる撮像開始のトリガ信号を、トリガ信号出力部52を介して視覚センサ4に送信する(ステップS4)。なお、各トリガ信号は、同時に送信される。
ここで、トリガ信号を受信したサーボドライバ7の処理について説明する。なお、サーボドライバ7においては、制御部78によるロボット1の駆動のサーボ制御処理と、処理部5の通信部53からのエンコーダ値を送信する旨の指令信号に基づき、エンコーダ値をエンコーダ値送信部77により処理部5に送信する処理とを行っているため、各処理に分けて説明する。
図4に示すように、制御部78は、エンコーダ値受信部74を制御して、エンコーダ15からエンコーダ値をエンコーダ値受信部74にて受信させる(ステップS21)。
次いで、制御部78は、エンコーダ15から受信したエンコーダ値をエンコーダ値記憶部75に記憶させる(ステップS22)。
次いで、制御部78は、トリガ信号入力部72がトリガ信号を受信したか否かを判断する(ステップS23)。ここで、制御部78が、トリガ信号入力部72がトリガ信号を受信したと判断した場合(ステップS23:YES)、制御部78は、トリガ信号を受信した時点におけるエンコーダ15からのエンコーダ値をトリガ時エンコーダ値記憶部76に記憶させる(ステップS24)。そして、制御部78は、指令信号受信部71にて受信したロボット1の駆動の指令信号に基づきロボット1を駆動させ、エンコーダ値記憶部75に記憶されたデータに基づき、サーボ制御を行う(ステップS25)。
一方、ステップS23において、制御部78が、トリガ信号入力部72がトリガ信号を受信していないと判断した場合(ステップS23:NO)、制御部78は、ステップS24の処理をすることなく、指令信号受信部71にて受信したロボット1の駆動の指令信号に基づきロボット1を駆動させ、エンコーダ値記憶部75に記憶されたデータに基づき、サーボ制御を行う(ステップS25)。
なお、この処理は一定の周期で繰り返される。
図5に示すように、エンコーダ値送信部77は、処理部5の通信部53からエンコーダ値を送信する旨の指令が通信部73にきたか否かを判断する(ステップS31)。ここで、エンコーダ値送信部77が、エンコーダ値を送信する旨の指令がきたと判断した場合(ステップS31:YES)、エンコーダ値送信部77は、エンコーダ値記憶部75及びトリガ時エンコーダ値記憶部76に記憶されたエンコーダ値を処理部5に送信する(ステップS32)。なお、通信部53からの指令信号は所定の周期で通信部73に送信されており、サーボドライバ7がエンコーダ15からエンコーダ値を受信する周期に比べて十分に長い。
さらに、トリガ信号を受信した視覚センサ4の処理について説明する。
図6に示すように、視覚センサ4のトリガ信号入力部41は、処理部5からトリガ信号を受信したか否かを判断する(ステップS41)。
ここで、視覚センサ4は、処理部5からトリガ信号を受信したと判断した場合(ステップS41:YES)、視覚センサ4の撮像制御部42は、ワークWの撮像を開始させるシャッタ信号をカメラ3に送信する(ステップS42)。
次いで、視覚センサ4は、シャッタ信号を送信したカメラ3から撮像した画像のデータを画像データ受信部43で受信したか否かを判断する(ステップS43)。ここで、視覚センサ4は、カメラ3から撮像した画像のデータを画像データ受信部43で受信したと判断した場合(ステップS43:YES)、視覚センサ4の画像処理部44は、受信した画像データの画像処理を行う(ステップS44)。
次いで、視覚センサ4のワーク位置計算部45は、画像処理を施した画像データから視覚センサ座標系でのワークWの位置を計算する(ステップS45)。
次いで、視覚センサ4のワーク位置情報送信部46は、ステップS45にて計算された視覚センサ座標系でのワークWの位置情報を処理部5に送信し(ステップS46)、これをもって本処理を終了させる。
再度、図3に戻って説明する。
図3に示すように、処理部5の制御部60は、サーボドライバ7及び視覚センサ4にトリガ信号出力部52を介してトリガ信号を同時に送信した後、サーボドライバ7からエンコーダ値を受信したか否かを判断する(ステップS5)。ここで、制御部60は、サーボドライバ7からエンコーダ値を受信したと判断した場合(ステップS5:YES)、制御部60は、受信したエンコーダ値をエンコーダ値記憶部57に記憶させる。そして、制御部60は、視覚センサ4から計算した視覚センサ座標系でのワークWの位置情報を受信したか否かを判断する(ステップS6)。ここで、制御部60は、サーボドライバ7から視覚センサ座標系でのワークWの位置情報を受信したと判断した場合(ステップS6:YES)、制御部60は、受信した視覚センサ座標系でのワークWの位置情報をワーク位置情報記憶部56に記憶させる。
次いで、処理部5の補正部58は、作業プログラムの補正に必要な補正量を算出し(ステップS7)、算出された補正量に基づいて作業プログラムを補正する(ステップS8)。
ここで、ステップS7で算出される補正量の算出について説明する。
サーボドライバ7から受信するエンコーダ15による各サーボモータ14の軸角度データは、ロボット座標系におけるデータである。従って、これらのデータから算出されるロボット1のアームの先端の位置は、ロボット座標系での位置を示している。すなわち、エンコーダ15により検出した軸角度データに基づいて算出されることから、その位置も当然ロボット基準となるロボット座標系での位置となる。
また、ロボット1のアームの先端に設けられたカメラ3により撮像される画像データにおけるワークWの位置データは、視覚センサ座標系である。そのため、ロボット1の動作によりロボット座標と視覚センサ座標との関係は変化する。しかし、カメラ3はロボット1のアームの先端に設けられていることからアームの先端とカメラ3との位置関係は既知である。
本実施形態において、処理部5はトリガ信号をサーボドライバ7及び視覚センサ4に同時に送信しているので、カメラ3によりワークWを撮像した時点におけるエンコーダ15の検出した値(エンコーダ値)は、トリガ時エンコーダ値記憶部76に記憶されている。
よって、視覚センサ座標系とロボット座標系との間で位置データを座標変換することができる。
このような手法により、撮像画像におけるワークWの視覚センサ座標におけるワークWの位置をロボット座標でのワークWの位置に変換し、ロボット1のアームの先端との位置のずれ(補正量)を算出し、その位置ずれ分だけ作業プログラムを補正する。
以上のように、ロボット制御装置2及びロボット制御装置2を備えたロボット制御システム100によれば、処理部5のトリガ信号出力部52により、視覚センサ4及びサーボドライバ7にトリガ信号を同時に送信すると、視覚センサ4の撮像制御部42はカメラ3にワークWの撮像を開始させ、撮像された画像の処理を行って視覚センサ座標系でのワークWの位置を計算するとともに、サーボドライバ7は、トリガ信号がトリガ信号入力部72に入力された時点におけるエンコーダ値を、エンコーダ値受信部74を介して取得し、取得したエンコーダ値をトリガ時エンコーダ値記憶部76に記憶させる。
そして、補正部58は、トリガ時エンコーダ値記憶部76に記憶されたトリガ信号送信時におけるエンコーダ値に基づいて算出されるロボット座標系でのロボット1の先端の位置と、トリガ信号送信時における視覚センサ座標系でのワークWの位置とに基づいてロボット1の位置の補正量を算出し、当該補正量に基づいてロボット1を駆動させる際の作業プログラムを補正する。
これにより、視覚センサ4は、トリガ信号送信時の視覚センサ座標系でのワークWの位置を取得することができ、サーボドライバ7はトリガ信号送信時のエンコーダ値を取得することができるので、視覚センサ4とロボット1とで位置を定める基準となる座標系を相互に変換することができるようになる。
よって、座標系が変換できるようになることで、従来のようにワークWの位置計算のたびにロボット1を停止させることなく、ロボット1を動作させた状態であっても視覚センサ4によるワーク位置の計算時のロボット1の位置データを取得してロボット1の作業プログラムを的確に補正することができる。
さらに、安価なトリガ信号入力部72をサーボドライバ7に設けるだけで、処理部5のロボット位置情報の更新周期を早めるために各部のCPU等(例えば制御部60)の演算装置を高性能にする必要がなくなるので、処理部5やサーボドライバ7にかかるコストの高騰を抑えることができる。
本発明は上記実施形態に限定されるものではない。例えば、位置検出手段としてエンコーダを用いたが、エンコーダに代えてレゾルバ等を用いて位置を検出してもよい。
また、複数のカメラを用いてステレオ視の原理によりワークを撮像していたが、一台のカメラでワークを撮像するようにしてもよい。
また、カメラはロボットの先端のハンドに設けられているが、カメラを定置式のものとし、ロボットのハンドでワークを把持してワークをそのカメラにより撮像するようにしてもよい。この場合、ロボットのハンドとワークの相対関係のずれ量によりワークの位置を計算できる。
また、処理部は、サーボドライバに対してエンコーダ値を当該処理部に送信する旨の信号を送信しているが、サーボドライバが処理部からトリガ信号を受信したときにサーボドライバが処理部にエンコーダ値を送信するようにしてもよい。
また、サーボドライバによるエンコーダデータの取得の周期、処理部によるサーボドライバからのエンコーダ値の受信の周期は、互いに異なるけれども一定の周期で行ったいたが、割り込み処理、例えば、ユーザからの指示入力等によってその取得の周期、受信の周期を変化させてもよい。
2 ロボット制御装置
3 カメラ
4 視覚センサ
5 処理部(処理手段)
7 サーボドライバ
15 エンコーダ(位置検出手段)
42 撮像制御部(撮像制御手段)
52 トリガ信号出力部(トリガ信号送信手段)
58 補正部(補正手段)
72 トリガ信号入力部(トリガ信号入力手段)
74 エンコーダ値受信部(位置情報取得手段)
76 トリガ時エンコーダ値記憶部(位置情報記憶手段)
100 ロボット制御システム
Claims (2)
- ロボットと、ワークを撮像するカメラと、前記カメラの撮像制御を行うとともに前記カメラで撮像された画像を処理する視覚センサとにより、前記カメラで撮像したワークの画像を前記視覚センサで処理することで、前記ワークの位置を計算し、計算された位置に対してロボットが向かうべき目標位置を補正するようにロボットの駆動を制御するロボット制御装置において、
前記ロボットの位置を検出する位置検出手段からロボットの位置情報を取得しながら前記ロボットの駆動を制御するサーボドライバと、
前記サーボドライバにロボットを駆動させるための指令信号を送信する処理部と、
前記視覚センサに対してワークの位置を計算させるトリガ信号を送信すると同時に、前記サーボドライバに対して前記ロボットの位置情報を取得して記憶させるためのトリガ信号を送信するトリガ信号送信手段と、
前記サーボドライバに備えられ、前記トリガ信号送信手段から送信されたトリガ信号が入力されるトリガ信号入力手段と、
前記トリガ信号入力手段にトリガ信号が入力された時点における前記位置検出手段から前記ロボットの位置情報を取得する位置情報取得手段と、
前記位置情報取得手段により取得した前記ロボットの位置情報を記憶する位置情報記憶手段と、
前記位置情報記憶手段に記憶された、前記トリガ信号送信手段によるトリガ信号送信時におけるロボットの位置情報と、前記視覚センサにより計算された前記トリガ信号送信手段によるトリガ信号送信時におけるワークの位置とに基づいてロボットの位置の補正量を算出し、当該補正量に基づいて前記ロボットを駆動させる際の作業プログラムを補正する補正手段と、
を備えることを特徴とするロボット制御装置。 - 複数の関節を有するロボットと、
ワークを撮像するカメラと、
前記ロボットに設けられ、ロボットの位置を検出する位置検出手段と、
前記カメラの撮像制御を行うとともに前記カメラで撮像された画像の処理を行ってワークの位置を計算する視覚センサと、
前記位置検出手段からロボットの位置情報を取得しながら前記ロボットの駆動を制御するサーボドライバと、
前記視覚センサから取得したワークの位置と前記サーボドライバから取得したロボットの位置情報とに基づいて、ロボットが向かうべき目標位置を補正する処理部と、を備え、
前記処理部は、前記視覚センサに対してワークの位置を計算させるトリガ信号を送信すると同時に、前記サーボドライバに対してロボットの位置情報を取得して記憶させるトリガ信号を送信するトリガ信号送信手段を有し、
前記サーボドライバは、前記トリガ信号送信手段から送信されたトリガ信号が入力されるトリガ信号入力手段と、前記トリガ信号入力手段にトリガ信号が入力された時点における前記位置検出手段から前記ロボットの位置情報を取得する位置情報取得手段と、前記位置情報取得手段により取得した前記ロボットの位置情報を記憶する位置情報記憶手段と、を有し、
前記視覚センサは、前記処理部からトリガ信号を受信したと同時に前記カメラによるワークの撮像を開始する撮像制御手段を有し、
前記処理部は、前記位置情報記憶手段に記憶された、前記トリガ信号送信手段によるトリガ信号送信時におけるロボットの位置と、前記視覚センサにより計算された前記トリガ信号送信手段によるトリガ信号送信時におけるワークの位置とに基づいてロボットの位置の補正量を算出し、当該補正量に基づいて前記ロボットを駆動させる際の作業プログラムを補正する補正手段を有する、
ことを特徴とするロボット制御システム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007021435A JP2008183690A (ja) | 2007-01-31 | 2007-01-31 | ロボット制御装置及びロボット制御システム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007021435A JP2008183690A (ja) | 2007-01-31 | 2007-01-31 | ロボット制御装置及びロボット制御システム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008183690A true JP2008183690A (ja) | 2008-08-14 |
Family
ID=39727048
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007021435A Pending JP2008183690A (ja) | 2007-01-31 | 2007-01-31 | ロボット制御装置及びロボット制御システム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2008183690A (ja) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102011009814A1 (de) | 2010-03-05 | 2011-09-08 | Fanuc Corporation | Robotersystem mit visuellem Sensor |
CN102653099A (zh) * | 2011-03-04 | 2012-09-05 | 精工爱普生株式会社 | 机械手位置检测装置以及机械手*** |
KR101421672B1 (ko) | 2012-03-23 | 2014-07-28 | 경북대학교 산학협력단 | 정밀 트리거 신호를 이용한 로봇 비젼 검사 시스템 및 그 방법 |
JP2020069614A (ja) * | 2018-11-01 | 2020-05-07 | ファナック株式会社 | ロボットシステム |
CN111152243A (zh) * | 2018-11-08 | 2020-05-15 | 发那科株式会社 | 控制*** |
WO2020121399A1 (ja) * | 2018-12-11 | 2020-06-18 | 株式会社Fuji | ロボット制御システム及びロボット制御方法 |
JP2020116711A (ja) * | 2019-01-25 | 2020-08-06 | 株式会社ソニー・インタラクティブエンタテインメント | ロボット制御システム |
JP2020157398A (ja) * | 2019-03-25 | 2020-10-01 | ファナック株式会社 | ロボット装置の動作を調整する動作調整装置およびロボット装置の動作を調整する動作調整方法 |
US11192254B2 (en) * | 2018-12-18 | 2021-12-07 | Fanuc Corporation | Robot system and adjustment method therefor |
WO2023138536A1 (zh) * | 2022-01-20 | 2023-07-27 | 华为技术有限公司 | 电机控制***、电机控制方法和电机驱动和转发装置 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004249391A (ja) * | 2003-02-19 | 2004-09-09 | Fanuc Ltd | ワーク搬送装置 |
-
2007
- 2007-01-31 JP JP2007021435A patent/JP2008183690A/ja active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004249391A (ja) * | 2003-02-19 | 2004-09-09 | Fanuc Ltd | ワーク搬送装置 |
Cited By (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102011009814A1 (de) | 2010-03-05 | 2011-09-08 | Fanuc Corporation | Robotersystem mit visuellem Sensor |
US8326460B2 (en) | 2010-03-05 | 2012-12-04 | Fanuc Corporation | Robot system comprising visual sensor |
DE102011009814B4 (de) | 2010-03-05 | 2018-09-06 | Fanuc Corporation | Robotersystem mit visuellem Sensor |
CN102653099A (zh) * | 2011-03-04 | 2012-09-05 | 精工爱普生株式会社 | 机械手位置检测装置以及机械手*** |
US20120226382A1 (en) * | 2011-03-04 | 2012-09-06 | Seiko Epson Corporation | Robot-position detecting device and robot system |
JP2012183606A (ja) * | 2011-03-04 | 2012-09-27 | Seiko Epson Corp | ロボット位置検出装置及びロボットシステム |
US8768508B2 (en) * | 2011-03-04 | 2014-07-01 | Seiko Epson Corporation | Robot-position detecting device and robot system |
US9586319B2 (en) | 2011-03-04 | 2017-03-07 | Seiko Epson Corporation | Robot-position detecting device and robot system |
KR101421672B1 (ko) | 2012-03-23 | 2014-07-28 | 경북대학교 산학협력단 | 정밀 트리거 신호를 이용한 로봇 비젼 검사 시스템 및 그 방법 |
JP2020069614A (ja) * | 2018-11-01 | 2020-05-07 | ファナック株式会社 | ロボットシステム |
US11241797B2 (en) | 2018-11-08 | 2022-02-08 | Fanuc Corporation | Control system |
CN111152243B (zh) * | 2018-11-08 | 2024-02-06 | 发那科株式会社 | 控制*** |
JP2020075327A (ja) * | 2018-11-08 | 2020-05-21 | ファナック株式会社 | 制御システム |
CN111152243A (zh) * | 2018-11-08 | 2020-05-15 | 发那科株式会社 | 控制*** |
WO2020121399A1 (ja) * | 2018-12-11 | 2020-06-18 | 株式会社Fuji | ロボット制御システム及びロボット制御方法 |
CN113015604A (zh) * | 2018-12-11 | 2021-06-22 | 株式会社富士 | 机器人控制***及机器人控制方法 |
JPWO2020121399A1 (ja) * | 2018-12-11 | 2021-09-02 | 株式会社Fuji | ロボット制御システム及びロボット制御方法 |
JP7057841B2 (ja) | 2018-12-11 | 2022-04-20 | 株式会社Fuji | ロボット制御システム及びロボット制御方法 |
CN113015604B (zh) * | 2018-12-11 | 2024-03-08 | 株式会社富士 | 机器人控制***及机器人控制方法 |
US11192254B2 (en) * | 2018-12-18 | 2021-12-07 | Fanuc Corporation | Robot system and adjustment method therefor |
JP2020116711A (ja) * | 2019-01-25 | 2020-08-06 | 株式会社ソニー・インタラクティブエンタテインメント | ロボット制御システム |
JP7309371B2 (ja) | 2019-01-25 | 2023-07-18 | 株式会社ソニー・インタラクティブエンタテインメント | ロボット制御システム |
JP2020157398A (ja) * | 2019-03-25 | 2020-10-01 | ファナック株式会社 | ロボット装置の動作を調整する動作調整装置およびロボット装置の動作を調整する動作調整方法 |
US11534908B2 (en) | 2019-03-25 | 2022-12-27 | Fanuc Corporation | Operation adjustment apparatus for adjusting operation of robot apparatus and operation adjustment method for adjusting operation of robot apparatus |
WO2023138536A1 (zh) * | 2022-01-20 | 2023-07-27 | 华为技术有限公司 | 电机控制***、电机控制方法和电机驱动和转发装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2008183690A (ja) | ロボット制御装置及びロボット制御システム | |
US8326460B2 (en) | Robot system comprising visual sensor | |
JP4961860B2 (ja) | ロボット装置及びロボット装置の制御方法 | |
JP6420229B2 (ja) | 仮想物体の画像をロボットの映像に重畳表示する映像表示装置を備えるロボットシステム | |
US9457472B2 (en) | Position detection device for robot, robotic system, and position detection method for robot | |
JP5860021B2 (ja) | 複数の締結部材を締結するための締結装置、ロボットシステム、および締結方法 | |
JP5272617B2 (ja) | ロボット装置及びロボット装置の制御方法 | |
JP6622765B2 (ja) | ロボットシステム | |
JP2007011978A (ja) | ロボットの運動制御装置 | |
JP2010112859A (ja) | ロボットシステム、ロボット制御装置およびロボット制御方法 | |
JP6816070B2 (ja) | 干渉回避装置およびロボットシステム | |
JP2009083094A (ja) | ロボット装置の制御方法及びロボット装置 | |
CN109421049B (zh) | 机器人*** | |
JP2014161950A (ja) | ロボットシステム、ロボット制御方法、ロボット較正方法 | |
JP2014065100A (ja) | ロボットシステム、及びロボットのティーチング方法 | |
CN110303474B (zh) | 使用图像处理修正机器人的示教的机器人*** | |
JP2015174155A (ja) | ロボット、ロボットの制御方法、及びロボットの制御プログラム | |
JP2019119027A (ja) | ロボットシステムの制御方法、およびロボットシステム | |
JP7502003B2 (ja) | 移動機械の移動軌跡のずれを取得する装置、及び方法 | |
JP2006224291A (ja) | ロボットシステム | |
JP2015127096A (ja) | ロボットシステム | |
WO2017141569A1 (ja) | 制御装置、制御システム、制御方法およびプログラム | |
JP2016203282A (ja) | エンドエフェクタの姿勢変更機構を備えたロボット | |
JP5200866B2 (ja) | ロボットシステム、ロボット制御装置およびロボット制御方法 | |
JP2021146445A (ja) | 校正方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100107 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20101125 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20101202 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110131 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110920 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20120131 |