JP2008183690A - Robot control device and system - Google Patents
Robot control device and system Download PDFInfo
- Publication number
- JP2008183690A JP2008183690A JP2007021435A JP2007021435A JP2008183690A JP 2008183690 A JP2008183690 A JP 2008183690A JP 2007021435 A JP2007021435 A JP 2007021435A JP 2007021435 A JP2007021435 A JP 2007021435A JP 2008183690 A JP2008183690 A JP 2008183690A
- Authority
- JP
- Japan
- Prior art keywords
- robot
- trigger signal
- position information
- unit
- visual sensor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Manipulator (AREA)
Abstract
Description
本発明は、ロボット制御装置及びロボット制御システムに関する。 The present invention relates to a robot control device and a robot control system.
工場等の生産現場において、ロボットを用いて作業対象物としてのワークをハンドリングするような作業においては、設置されているワークの厳密な位置をロボットが認識している必要がある。このため、ワークを治具等の補助装置により正確に位置決めするような方法がよく用いられている。また、視覚センサによってワークの位置を計算し、その計算結果に基づいてロボットの動作を補正する方法もよく用いられている。
視覚センサによってロボットの動作を補正する場合において、視覚センサには、撮像手段としてのカメラが用いられ、複数のカメラを使用してステレオ視の原理により3次元位置を計算するものがある。
In a work site such as a factory where a robot is used to handle a workpiece as a work target, the robot needs to recognize the exact position of the workpiece. For this reason, a method of accurately positioning a work with an auxiliary device such as a jig is often used. In addition, a method of calculating the position of a workpiece with a visual sensor and correcting the operation of the robot based on the calculation result is often used.
When correcting the motion of a robot by a visual sensor, a camera as an imaging unit is used as the visual sensor, and there is a visual sensor that calculates a three-dimensional position based on the principle of stereo vision using a plurality of cameras.
ここで、視覚センサを用いてワークの位置を計算し、その結果に基づいてロボットの動作を補正する際には、視覚センサの出力するワークの位置データは、視覚センサ内で形成された座標系、いわゆる視覚センサ座標系であるため、この視覚センサ座標系をロボットが動作する座標系、いわゆるロボット座標系に座標変換しなければ期待する作業を行うことができない。ここで、ロボット座標系は、例えば、ロボット設置面のロボット位置を原点として定義される。
この座標変換について、ロボットの先端にカメラが取り付けられたシステムを例に簡単に説明する。ロボットがある姿勢をとった時のロボット先端に定義された座標系(以下、ロボット先端座標系という)とロボット座標系の関係は、ロボットが持っている現在位置データから知ることができる。ロボット先端から見たカメラの位置は、ロボットの姿勢が変化しても変わることがない。このため、ロボット先端座標系と視覚センサ座標系との関係がわかれば、視覚センサ座標系上の位置をロボット座標系への位置に変換することが可能である。ロボット座標系と視覚センサ座標系との関係は、座標変換行列を用いて表される(例えば、特許文献1参照。)。
This coordinate conversion will be briefly described with reference to a system in which a camera is attached to the tip of a robot. The relationship between the coordinate system defined at the robot tip when the robot assumes a certain posture (hereinafter referred to as the robot tip coordinate system) and the robot coordinate system can be known from the current position data held by the robot. The position of the camera viewed from the robot tip does not change even if the posture of the robot changes. For this reason, if the relationship between the robot tip coordinate system and the visual sensor coordinate system is known, the position on the visual sensor coordinate system can be converted to the position on the robot coordinate system. The relationship between the robot coordinate system and the visual sensor coordinate system is expressed using a coordinate transformation matrix (see, for example, Patent Document 1).
ところで、視覚センサによってワークの位置を計算する場合、視覚センサ座標系上の計算位置をロボット座標系に変換するために、計算を行った時刻のロボット先端位置を知る必要がある。このため、ロボットが停止した状態で視覚センサによる計算を行う方法が用いられている。この結果、ロボットが停止するための減速時間および画像処理にかかる時間がタクトタイムの増加を招くという問題があった。
ロボットを停止させずに視覚センサによりワークを計算すれば、前記の問題は解決できるが、このためには、視覚センサが計算を行った同一の時刻のロボットの現在位置データを取得する必要がある。例えば、ロボット先端に取り付けられたカメラのロボット座標系での速度が1000mm/secであった場合に、ワークを計算すると考えると、前述の時刻のずれが1msecだけで計算結果として1mmの誤差が発生することになる。
一般的にロボットの駆動を制御する制御装置は、ロボットの駆動源をサーボ制御するサーボドライバとサーボドライバに対して指令信号を送る等の処理を行うメイン処理部とを備えており、視覚センサに計算要求を行うのはメイン処理部となる。メイン処理部はサーボドライバよりロボットの位置データを取得している。
By the way, when the position of the workpiece is calculated by the visual sensor, it is necessary to know the position of the robot tip at the time of calculation in order to convert the calculated position on the visual sensor coordinate system into the robot coordinate system. For this reason, a method of performing calculation using a visual sensor while the robot is stopped is used. As a result, there has been a problem that the deceleration time for stopping the robot and the time required for image processing increase the tact time.
If the workpiece is calculated by the visual sensor without stopping the robot, the above problem can be solved. For this purpose, it is necessary to acquire the current position data of the robot at the same time that the visual sensor has calculated. . For example, if the speed of the camera attached to the robot tip in the robot coordinate system is 1000 mm / sec, and the workpiece is calculated, an error of 1 mm will be generated as a result of the calculation when the above time lag is only 1 msec. Will do.
In general, a control device that controls the driving of a robot includes a servo driver that servo-controls the driving source of the robot and a main processing unit that performs processing such as sending a command signal to the servo driver. The main processing unit makes a calculation request. The main processing unit obtains robot position data from the servo driver.
しかし、メイン処理部でロボットの位置データが更新される周期はそれ程速くなく、計算要求時の同一時刻の位置データを取得することは非常に困難であった。また、サーボドライバはエンコーダ等の位置検出器と接続されており、サーボ制御のために高速な周期で位置検出器の出力データを受信しているが、ある特定の瞬間の位置データを取得する手段を有していない。このため、サーボドライバにおいても計算要求時の位置データを取得することができなかった。
以上の問題は、制御装置に使用されるCPUを性能の高いものにし、位置データの更新周期を高速化することにより解消することができるが、制御装置自体のコストが増加する問題がある。
However, the cycle in which the position data of the robot is updated in the main processing unit is not so fast, and it is very difficult to acquire position data at the same time when a calculation is requested. The servo driver is connected to a position detector such as an encoder and receives position detector output data at a high speed for servo control, but means for acquiring position data at a specific moment Does not have. For this reason, the position data at the time of the calculation request cannot be acquired even in the servo driver.
The above problem can be solved by making the CPU used in the control device high in performance and speeding up the update cycle of the position data, but there is a problem that the cost of the control device itself increases.
本発明は、上記課題を解決するためになされたものであり、ロボットを停止させることなく視覚センサによるワーク位置の計算時のロボットの位置データを取得してロボットの動作を制御しつつ、制御装置にかかるコストの高騰を抑えることができるロボット制御装置及びロボット制御システムを提供することを目的とする。 The present invention has been made to solve the above-described problem, and obtains the position data of the robot at the time of calculating the work position by the visual sensor without stopping the robot, and controls the operation of the robot while controlling the operation of the robot. It is an object of the present invention to provide a robot control device and a robot control system that can suppress an increase in cost.
請求項1に記載の発明は、ロボットと、ワークを撮像するカメラと、前記カメラの撮像制御を行うとともに前記カメラで撮像された画像を処理する視覚センサとにより、前記カメラで撮像したワークの画像を前記視覚センサで処理することで、前記ワークの位置を計算し、計算された位置に対してロボットが向かうべき目標位置を補正するようにロボットの駆動を制御するロボット制御装置において、前記ロボットの位置を検出する位置検出手段からロボットの位置情報を取得しながら前記ロボットの駆動を制御するサーボドライバと、前記サーボドライバにロボットを駆動させるための指令信号を送信する処理部と、前記視覚センサに対してワークの位置を計算させるトリガ信号を送信すると同時に、前記サーボドライバに対して前記ロボットの位置情報を取得して記憶させるためのトリガ信号を送信するトリガ信号送信手段と、前記サーボドライバに備えられ、前記トリガ信号送信手段から送信されたトリガ信号が入力されるトリガ信号入力手段と、前記トリガ信号入力手段にトリガ信号が入力された時点における前記位置検出手段から前記ロボットの位置情報を取得する位置情報取得手段と、前記位置情報取得手段により取得した前記ロボットの位置情報を記憶する位置情報記憶手段と、前記位置情報記憶手段に記憶された、前記トリガ信号送信手段によるトリガ信号送信時におけるロボットの位置情報と、前記視覚センサにより計算された前記トリガ信号送信手段によるトリガ信号送信時におけるワークの位置とに基づいてロボットの位置の補正量を算出し、当該補正量に基づいて前記ロボットを駆動させる際の作業プログラムを補正する補正手段と、を備えることを特徴とする。 According to the first aspect of the present invention, an image of a workpiece imaged by the camera by a robot, a camera that images the workpiece, and a visual sensor that performs imaging control of the camera and processes an image captured by the camera. In the robot control device that controls the driving of the robot so as to correct the target position to which the robot should go with respect to the calculated position by calculating the position of the workpiece by the visual sensor. A servo driver that controls driving of the robot while acquiring position information of the robot from position detecting means for detecting a position, a processing unit that transmits a command signal for driving the robot to the servo driver, and the visual sensor At the same time, a trigger signal for calculating the workpiece position is transmitted to the servo driver. Trigger signal transmitting means for transmitting a trigger signal for acquiring and storing the position information of the target, and trigger signal input means provided in the servo driver, to which the trigger signal transmitted from the trigger signal transmitting means is input The position information acquisition means for acquiring the position information of the robot from the position detection means at the time when the trigger signal is input to the trigger signal input means, and the position information of the robot acquired by the position information acquisition means are stored. Position information storage means, position information of the robot at the time of trigger signal transmission by the trigger signal transmission means stored in the position information storage means, and trigger signal transmission by the trigger signal transmission means calculated by the visual sensor The amount of robot position correction is calculated based on the workpiece position at A correction means for correcting the operation program at the time of driving the robot Zui characterized in that it comprises a.
請求項2に記載の発明は、ロボット制御システムにおいて、複数の関節を有するロボットと、ワークを撮像するカメラと、前記ロボットに設けられ、ロボットの位置を検出する位置検出手段と、前記カメラの撮像制御を行うとともに前記カメラで撮像された画像の処理を行ってワークの位置を計算する視覚センサと、前記位置検出手段からロボットの位置情報を取得しながら前記ロボットの駆動を制御するサーボドライバと、前記視覚センサから取得したワークの位置と前記サーボドライバから取得したロボットの位置情報とに基づいて、ロボットが向かうべき目標位置を補正する処理部と、を備え、前記処理部は、前記視覚センサに対してワークの位置を計算させるトリガ信号を送信すると同時に、前記サーボドライバに対してロボットの位置情報を取得して記憶させるトリガ信号を送信するトリガ信号送信手段を有し、前記サーボドライバは、前記トリガ信号送信手段から送信されたトリガ信号が入力されるトリガ信号入力手段と、前記トリガ信号入力手段にトリガ信号が入力された時点における前記位置検出手段から前記ロボットの位置情報を取得する位置情報取得手段と、前記位置情報取得手段により取得した前記ロボットの位置情報を記憶する位置情報記憶手段と、を有し、前記視覚センサは、前記処理部からトリガ信号を受信したと同時に前記カメラによるワークの撮像を開始する撮像制御手段を有し、前記処理部は、前記位置情報記憶手段に記憶された、前記トリガ信号送信手段によるトリガ信号送信時におけるロボットの位置と、前記視覚センサにより計算された前記トリガ信号送信手段によるトリガ信号送信時におけるワークの位置とに基づいてロボットの位置の補正量を算出し、当該補正量に基づいて前記ロボットを駆動させる際の作業プログラムを補正する補正手段を有する、ことを特徴とする。 According to a second aspect of the present invention, in the robot control system, a robot having a plurality of joints, a camera that images a workpiece, a position detection unit that is provided in the robot and detects the position of the robot, and imaging of the camera A visual sensor for performing control and processing the image captured by the camera to calculate the position of the workpiece; a servo driver for controlling the driving of the robot while acquiring position information of the robot from the position detecting means; A processing unit that corrects a target position to which the robot should head based on the position of the workpiece acquired from the visual sensor and the position information of the robot acquired from the servo driver, and the processing unit includes the visual sensor. At the same time, a trigger signal for calculating the position of the workpiece is transmitted to the servo driver. Trigger signal transmitting means for transmitting a trigger signal for acquiring and storing position information, and the servo driver includes a trigger signal input means for receiving a trigger signal transmitted from the trigger signal transmitting means, and the trigger signal Position information acquisition means for acquiring position information of the robot from the position detection means at the time when a trigger signal is input to the input means, and position information storage means for storing the position information of the robot acquired by the position information acquisition means The visual sensor includes an imaging control unit that starts imaging of the workpiece by the camera at the same time as receiving the trigger signal from the processing unit, and the processing unit stores in the position information storage unit The position of the robot at the time of trigger signal transmission by the trigger signal transmission means and calculated by the visual sensor A correction unit that calculates a correction amount of the position of the robot based on the position of the workpiece when the trigger signal is transmitted by the trigger signal transmission unit, and corrects a work program for driving the robot based on the correction amount. It is characterized by that.
請求項1に記載の発明によれば、処理部はサーボドライバに対してロボットを駆動させるための指令信号を送信し、サーボドライバは指令信号に基づいてロボットの駆動を制御する。ここで、トリガ信号送信手段が、視覚センサ及びサーボドライバにトリガ信号を同時に送信すると、視覚センサはワークの位置を計算するとともに、サーボドライバは、トリガ信号がトリガ信号入力手段に入力された時点におけるロボットの位置情報を位置情報取得手段により取得し、取得したロボットの位置情報を位置情報記憶手段に記憶させる。
そして、補正手段は、位置情報記憶手段に記憶された、トリガ信号送信手段によるトリガ信号送信時におけるロボットの位置と、視覚センサにより計算されたトリガ信号送信手段によるトリガ信号送信時におけるワークの位置とに基づいてロボットの位置の補正量を算出し、当該補正量に基づいてロボットを駆動させる際の作業プログラムを補正する。
これにより、視覚センサは、トリガ信号送信時のワークの位置を取得することができ、サーボドライバはトリガ信号送信時のロボットの位置情報を取得することができるので、視覚センサとロボットとで位置を定める基準となる座標系を相互に変換することができるようになる。
よって、座標系が変換できるようになることで、従来のようにワークの位置計算のたびにロボットを停止させることなく、ロボットを動作させた状態であっても視覚センサによるワーク位置の計算時のロボットの位置データを取得してロボットの作業プログラムを的確に補正することができる。
さらに、安価な信号入力手段をサーボドライバに設けるだけで、処理部のロボット位置情報更新周期を早めるために各部のCPU等の演算装置を高性能にする必要がなくなるので、処理部やサーボドライバにかかるコストの高騰を抑えることができる。
According to the first aspect of the present invention, the processing unit transmits a command signal for driving the robot to the servo driver, and the servo driver controls the driving of the robot based on the command signal. Here, when the trigger signal transmission means transmits the trigger signal to the visual sensor and the servo driver at the same time, the visual sensor calculates the position of the workpiece, and the servo driver at the time when the trigger signal is input to the trigger signal input means. The position information of the robot is acquired by the position information acquisition means, and the acquired position information of the robot is stored in the position information storage means.
The correcting means stores the position of the robot stored in the position information storage means when the trigger signal is transmitted by the trigger signal transmitting means, and the position of the workpiece when the trigger signal is transmitted by the trigger signal transmitting means calculated by the visual sensor. The amount of correction of the position of the robot is calculated based on the above, and the work program for driving the robot is corrected based on the amount of correction.
As a result, the visual sensor can acquire the position of the workpiece when the trigger signal is transmitted, and the servo driver can acquire the position information of the robot when the trigger signal is transmitted. It becomes possible to mutually convert coordinate systems to be determined.
Therefore, since the coordinate system can be converted, it is possible to calculate the workpiece position by the visual sensor even when the robot is operated without stopping the robot each time the workpiece position is calculated. It is possible to accurately correct the robot work program by acquiring the robot position data.
Furthermore, by providing inexpensive signal input means in the servo driver, it is not necessary to improve the performance of the arithmetic unit such as the CPU of each unit in order to accelerate the robot position information update cycle of the processing unit. Such an increase in cost can be suppressed.
請求項2に記載の発明によれば、処理部のトリガ信号送信手段により、視覚センサ及びサーボドライバにトリガ信号を同時に送信すると、視覚センサの撮像制御手段はカメラにワークの撮像を開始させ、撮像された画像の処理を行ってワークの位置を計算するとともに、サーボドライバは、トリガ信号がトリガ信号入力手段に入力された時点におけるロボットの位置情報を位置情報取得手段により取得し、取得したロボットの位置情報を位置情報記憶手段に記憶させる。
そして、補正手段は、位置情報記憶手段に記憶された、トリガ信号送信手段によるトリガ信号送信時におけるロボットの位置と、視覚センサにより計算されたトリガ信号送信手段によるトリガ信号送信時におけるワークの位置とに基づいてロボットの位置の補正量を算出し、当該補正量に基づいてロボットを駆動させる際の作業プログラムを補正する。
これにより、視覚センサは、トリガ信号送信時のワークの位置を取得することができ、サーボドライバはトリガ信号送信時のロボットの位置情報を取得することができるので、視覚センサとロボットとで位置を定める基準となる座標系を相互に変換することができるようになる。
よって、座標系が変換できるようになることで、従来のようにワークの位置計算のたびにロボットを停止させることなく、ロボットを動作させた状態であっても視覚センサによるワーク位置の計算時のロボットの位置データを取得してロボットの作業プログラムを的確に補正することができる。
さらに、安価な信号入力手段をサーボドライバに設けるだけで、処理部のロボット位置情報更新周期を早めるために各部のCPU等の演算装置を高性能にする必要がなくなるので、処理部やサーボドライバにかかるコストの高騰を抑えることができる。
According to the second aspect of the present invention, when a trigger signal is transmitted to the visual sensor and the servo driver at the same time by the trigger signal transmission unit of the processing unit, the imaging control unit of the visual sensor causes the camera to start imaging the workpiece, The servo driver calculates the position of the workpiece by performing processing on the obtained image, and the servo driver acquires the position information of the robot at the time when the trigger signal is input to the trigger signal input means by the position information acquisition means. The position information is stored in the position information storage means.
The correcting means stores the position of the robot stored in the position information storage means when the trigger signal is transmitted by the trigger signal transmitting means, and the position of the workpiece when the trigger signal is transmitted by the trigger signal transmitting means calculated by the visual sensor. The amount of correction of the position of the robot is calculated based on the above, and the work program for driving the robot is corrected based on the amount of correction.
As a result, the visual sensor can acquire the position of the workpiece when the trigger signal is transmitted, and the servo driver can acquire the position information of the robot when the trigger signal is transmitted. It becomes possible to mutually convert coordinate systems to be determined.
Therefore, since the coordinate system can be converted, it is possible to calculate the workpiece position by the visual sensor even when the robot is operated without stopping the robot each time the workpiece position is calculated. It is possible to accurately correct the robot work program by acquiring the robot position data.
Furthermore, by providing inexpensive signal input means in the servo driver, it is not necessary to improve the performance of the arithmetic unit such as the CPU of each unit in order to accelerate the robot position information update cycle of the processing unit. Such an increase in cost can be suppressed.
以下、図面を参照して、本発明に係るロボット制御装置及びロボット制御システムの最良の形態について詳細に説明する。 Hereinafter, the best mode of a robot control device and a robot control system according to the present invention will be described in detail with reference to the drawings.
〔ロボット制御システムの構成〕
図1に示すように、ロボット制御システム100は、複数のアーム12が複数の関節13により回転自在に連結されたロボット1と、このロボット1の駆動等を制御するロボット制御装置2と、ワークWを撮像する撮像手段としてのカメラ3と、このカメラ3で撮像された画像を処理する視覚センサ4と、を備えている。
[Robot control system configuration]
As shown in FIG. 1, the
<ロボット>
図1に示すように、ロボット1は、ワークWをハンドリングする等の機能を有するロボットであり、土台となるベース11と、ロボット1のアーム部を構成し、複数の関節13で連結された複数のアーム12と、各関節13に設けられた駆動源としてのサーボモータ14(図2参照)と、ロボット1の位置情報を検出する、より具体的には、サーボモータ14に設けられ、各サーボモータ14の軸の位置(軸角度)をそれぞれ検出する位置検出手段としてのエンコーダ15と、を備えている。そして、連結されたアーム12の最先端部には、ワークWをハンドリングするハンドH等が装備されている。
各関節13は、アーム12の一端部を揺動可能として他端部を軸支する揺動関節と、アーム12自身をその長手方向を中心に回転可能に軸支する回転関節とのいずれかから構成される。つまり、ロボット1は多関節型ロボットに相当する。また、ロボット1は、各関節13により、その先端部のハンドH等を任意の位置に位置決めし、任意の姿勢を取らせることが可能となっている。
<Robot>
As shown in FIG. 1, the
Each joint 13 is one of a swing joint that supports one end of the
<ロボット制御装置>
図1〜図3に示すように、ロボット制御装置2は、ティーチング或いはプログラミングにより設定されたロボット1の教示動作データに従って、ロボット1の指令信号を出力する処理部5と、エンコーダ15から各サーボモータ14の軸角度を取得しながら処理部5からの指令信号に基づいてロボット1の各サーボモータ14の制御を行うサーボドライバ7と、を備えている。
<Robot control device>
As shown in FIGS. 1 to 3, the
(処理部)
処理部5は、サーボドライバ7及び視覚センサ4に接続されている。
処理部5は、サーボドライバ7にロボット1を駆動させるための指令信号を送信する指令信号送信部51を有している。
処理部5は、視覚センサ4に対してワークWの位置を計算させるトリガ信号を送信すると同時に、サーボドライバ7に対して各サーボモータ14の軸角度であるエンコーダ値をエンコーダ15から取得して記憶させるためのトリガ信号を送信するトリガ信号送信手段としてのトリガ信号出力部52を有している。
(Processing part)
The
The
The
処理部5は、視覚センサ4に対しては視覚センサ座標系でのワークWの位置情報を処理部5に送信するように指令信号を送信するとともに、サーボドライバ7に対してはエンコーダ値を送信するように指令信号を送信する通信部53を有している。ここで、通信部53による指令信号の送信は、予め定められた一定の周期で行われるが、ユーザによる割り込み入力操作により任意に設定することもできる。
処理部5は、通信部53により視覚センサ4に送信した指令信号により、視覚センサ4から視覚センサ座標系でのワークWの位置情報を受信するワーク位置情報受信部54を有している。
処理部5は、通信部53によりサーボドライバ7に送信した指令信号により、サーボドライバ7からエンコーダ値を受信するエンコーダ値受信部55を有している。
The
The
The
処理部5は、ワーク位置情報受信部54で受信した視覚センサ座標系でのワークWの位置情報を記憶するワーク位置情報記憶部56を有している。
処理部5は、エンコーダ値受信部55で受信したエンコーダ値を記憶するエンコーダ値記憶部57を有している。
処理部5は、ワーク位置情報記憶部56に記憶された視覚センサ座標系でのワークWの位置情報とエンコーダ値記憶部57に記憶されたエンコーダ値とに基づいてロボット1の位置の補正量を算出し、当該補正量に基づいてロボット1を駆動させる際の作業プログラムを補正する補正手段としての補正部58を有する。
The
The
The
処理部5は、ロボット1を駆動させる作業プログラムや、その他必要なプログラムやデータが格納されたメモリ59を有している。このメモリ59には、上記プログラムの他、エンコーダ値受信部55及びワーク位置情報受信部56が受信した各データの座標系を統一するために座標変換を行うための座標変換行列式等が記憶されている。なお、座標変換行列式、座標変換の手法は、従来技術にも挙げたように公知の技術であるため、説明を省略する。
処理部5は、メモリ59に記憶されたプログラムやデータに従って、上記の各部の処理を実行するための制御部60を有している。
なお、処理部5による各処理は、処理部5に備えられた制御部60がメモリ59内に記憶されたプログラム等のソフトウェアを実行することにより実現させてもよいし、回路等のハードウェアにより実現させてもよい。
The
The
Each process by the
(サーボドライバ)
サーボドライバ7は、処理部5、ロボット1のサーボモータ14及びエンコーダ15に接続されている。
サーボドライバ7は、処理部5の指令信号送信部51から送信されたロボット1を駆動させるための指令信号を受信する指令信号受信部71を有している。
サーボドライバ7は、処理部5のトリガ信号出力部52から送信されたトリガ信号を受信するトリガ信号入力手段としてのトリガ信号入力部72を有している。
サーボドライバ7は、処理部5の通信部53からエンコーダ値を送信する旨の指令信号を受信すると、エンコーダ15から取得したエンコーダ値をエンコーダ値受信部55に送信する通信部73を有している。
(Servo driver)
The
The
The
The
サーボドライバ7は、エンコーダ15からエンコーダ値を取得するエンコーダ値受信部74を有している。ここで取得するエンコーダ値を用いながらサーボドライバ7はロボット1のサーボ制御を行う。ここで、エンコーダ値受信部74は、トリガ信号入力部72にトリガ信号が入力された場合にトリガ信号が入力された時点におけるエンコーダ値をエンコーダ15から受信する。すなわち、エンコーダ値受信部74は、位置情報取得手段として機能する。エンコーダ値受信部74によるエンコーダ値の受信処理は、所定の周期で行われ、上述した処理部5とサーボドライバ7との間で行われる通信周期に比べて十分に長い。
The
サーボドライバ7は、エンコーダ15から取得したエンコーダ値を記憶するエンコーダ値記憶部75を有している。
サーボドライバ7は、トリガ信号入力部72にてトリガ信号を受信した際にその信号受信時におけるエンコーダ15からのエンコーダ値を記憶する位置情報記憶手段としてのトリガ時エンコーダ値記憶部76を有している。
サーボドライバ7は、通信部73において、エンコーダ値を処理部5に送信する旨の信号が入力された場合に、エンコーダ値記憶部75及びトリガ時エンコーダ値記憶部76に記憶されたエンコーダ値を処理部5のエンコーダ値記憶部55に送信するエンコーダ値送信部77を有している。なお、通信部73には、所定の周期で指令信号が入力されるため、エンコーダ値送信部77も所定の周期で処理部5にエンコーダ値を送信することになる。
The
The
The
サーボドライバ7は、ロボット1に信号を送信する処理や、エンコーダ15から取得したエンコーダ値をエンコーダ値記憶部75及びトリガ時エンコーダ値記憶部76に記憶させる等の処理の制御を行う制御部78を有している。
なお、サーボドライバ7による各処理は、サーボドライバ7に備えられた制御部78がプログラム等のソフトウェアを実行することにより実現させてもよいし、回路等のハードウェアにより実現させてもよい。
The
Each process by the
<カメラ>
図1,図2に示すように、カメラ3は、ロボット1の最先端にあるアーム12の先端に複数設けられている。カメラ3を複数設けるのは、ワークWをステレオ視して撮像することにより、ワークWの位置を三次元で把握するためである。
カメラ3は、視覚センサ4から受信したシャッタ信号に基づき、シャッタ信号がONとなっている間、ワークWを撮像する。そして、撮像された画像は、視覚センサ4の指令信号に基づいて、視覚センサ4に画像データで送信する。ここで、視覚センサ4から受信するシャッタ信号は、処理部5のトリガ信号出力部52からトリガ信号が視覚センサ4に送信されると同時に視覚センサ4から送信されてくるものである。詳細は視覚センサ4の説明に委ねる。
<Camera>
As shown in FIGS. 1 and 2, a plurality of
Based on the shutter signal received from the visual sensor 4, the
<視覚センサ>
図1,図2に示すように、視覚センサ4は、カメラ3及び処理部5に接続されている。
視覚センサ4は、処理部5のトリガ信号出力部52から送信されたトリガ信号を受信するトリガ信号入力部41を有している。
視覚センサ4は、処理部5からトリガ信号を受信したと同時にカメラ3によるワークWの撮像を開始させるべく、カメラ3にシャッタ信号を送信する撮像制御手段としての撮像制御部42を有している。
視覚センサ4は、カメラ3により撮像されたワークWの画像データを受信する画像データ受信部43を有している。
視覚センサ4は、カメラ3により撮像された画像データの画像処理を行う画像処理手段としての画像処理部44を有している。
視覚センサ4は、画像処理部44により画像処理された撮像画像のデータからトリガ信号受信時(処理部5によるトリガ信号の送信時とほぼ同時)における視覚センサ座標系でのワークWの位置を計算するワーク位置計算手段としてのワーク位置計算部45を有している。
視覚センサ4は、計算された視覚センサ座標系でのワークWの位置情報を処理部5に送信するワーク位置情報送信部46を有している。
なお、視覚センサ4による各処理は、視覚センサ4に備えられたCPU等がメモリ内に記憶されたプログラム等のソフトウェアを実行することにより実現させてもよいし、回路等のハードウェアにより実現させてもよい。
<Visual sensor>
As shown in FIGS. 1 and 2, the visual sensor 4 is connected to a
The visual sensor 4 includes a trigger
The visual sensor 4 includes an
The visual sensor 4 includes an image
The visual sensor 4 includes an
The visual sensor 4 calculates the position of the workpiece W in the visual sensor coordinate system when receiving a trigger signal (substantially simultaneously with the transmission of the trigger signal by the processing unit 5) from the captured image data processed by the
The visual sensor 4 includes a workpiece position
Each processing by the visual sensor 4 may be realized by executing software such as a program stored in the memory by a CPU or the like provided in the visual sensor 4, or may be realized by hardware such as a circuit. May be.
〔ロボット制御装置の処理〕
次に、ロボット制御装置2による処理について図3〜図6を用いて説明する。ここで、図3は処理部5の処理、図4及び図5はサーボドライバ7の処理、図6は視覚センサ4の処理を示すフローチャートである。
<処理部の処理(前半)>
図3に示すように、処理部5の制御部60は、メモリ59に記憶された作業プログラムを実行し(ステップS1)、指令信号送信部51は、サーボドライバ7にロボット1を駆動させる指令信号を送信する(ステップS2)。ここで、制御部60は、作業プログラム上におけるワークWの計算位置であるか否かを判断する(ステップS3)。
制御部60が作業プログラム上でのワークWの計算位置であると判断した場合(ステップS3:YES)、制御部60は、エンコーダ15から受信したエンコーダ値をトリガ時エンコーダ値記憶部76に記憶させるトリガとなるトリガ信号を、トリガ信号出力部52を介してサーボドライバ7に送信するとともに、カメラ3によりワークWの位置を計算させる撮像開始のトリガ信号を、トリガ信号出力部52を介して視覚センサ4に送信する(ステップS4)。なお、各トリガ信号は、同時に送信される。
[Robot controller processing]
Next, processing by the
<Processing of processing unit (first half)>
As shown in FIG. 3, the
When the
<サーボドライバの処理>
ここで、トリガ信号を受信したサーボドライバ7の処理について説明する。なお、サーボドライバ7においては、制御部78によるロボット1の駆動のサーボ制御処理と、処理部5の通信部53からのエンコーダ値を送信する旨の指令信号に基づき、エンコーダ値をエンコーダ値送信部77により処理部5に送信する処理とを行っているため、各処理に分けて説明する。
<Servo driver processing>
Here, the processing of the
(制御部の処理)
図4に示すように、制御部78は、エンコーダ値受信部74を制御して、エンコーダ15からエンコーダ値をエンコーダ値受信部74にて受信させる(ステップS21)。
次いで、制御部78は、エンコーダ15から受信したエンコーダ値をエンコーダ値記憶部75に記憶させる(ステップS22)。
次いで、制御部78は、トリガ信号入力部72がトリガ信号を受信したか否かを判断する(ステップS23)。ここで、制御部78が、トリガ信号入力部72がトリガ信号を受信したと判断した場合(ステップS23:YES)、制御部78は、トリガ信号を受信した時点におけるエンコーダ15からのエンコーダ値をトリガ時エンコーダ値記憶部76に記憶させる(ステップS24)。そして、制御部78は、指令信号受信部71にて受信したロボット1の駆動の指令信号に基づきロボット1を駆動させ、エンコーダ値記憶部75に記憶されたデータに基づき、サーボ制御を行う(ステップS25)。
一方、ステップS23において、制御部78が、トリガ信号入力部72がトリガ信号を受信していないと判断した場合(ステップS23:NO)、制御部78は、ステップS24の処理をすることなく、指令信号受信部71にて受信したロボット1の駆動の指令信号に基づきロボット1を駆動させ、エンコーダ値記憶部75に記憶されたデータに基づき、サーボ制御を行う(ステップS25)。
なお、この処理は一定の周期で繰り返される。
(Control processing)
As shown in FIG. 4, the
Next, the
Next, the
On the other hand, when the
This process is repeated at a constant cycle.
(エンコーダ値送信部の処理)
図5に示すように、エンコーダ値送信部77は、処理部5の通信部53からエンコーダ値を送信する旨の指令が通信部73にきたか否かを判断する(ステップS31)。ここで、エンコーダ値送信部77が、エンコーダ値を送信する旨の指令がきたと判断した場合(ステップS31:YES)、エンコーダ値送信部77は、エンコーダ値記憶部75及びトリガ時エンコーダ値記憶部76に記憶されたエンコーダ値を処理部5に送信する(ステップS32)。なお、通信部53からの指令信号は所定の周期で通信部73に送信されており、サーボドライバ7がエンコーダ15からエンコーダ値を受信する周期に比べて十分に長い。
(Processing of encoder value transmitter)
As shown in FIG. 5, the encoder
<視覚センサの処理>
さらに、トリガ信号を受信した視覚センサ4の処理について説明する。
図6に示すように、視覚センサ4のトリガ信号入力部41は、処理部5からトリガ信号を受信したか否かを判断する(ステップS41)。
ここで、視覚センサ4は、処理部5からトリガ信号を受信したと判断した場合(ステップS41:YES)、視覚センサ4の撮像制御部42は、ワークWの撮像を開始させるシャッタ信号をカメラ3に送信する(ステップS42)。
次いで、視覚センサ4は、シャッタ信号を送信したカメラ3から撮像した画像のデータを画像データ受信部43で受信したか否かを判断する(ステップS43)。ここで、視覚センサ4は、カメラ3から撮像した画像のデータを画像データ受信部43で受信したと判断した場合(ステップS43:YES)、視覚センサ4の画像処理部44は、受信した画像データの画像処理を行う(ステップS44)。
次いで、視覚センサ4のワーク位置計算部45は、画像処理を施した画像データから視覚センサ座標系でのワークWの位置を計算する(ステップS45)。
次いで、視覚センサ4のワーク位置情報送信部46は、ステップS45にて計算された視覚センサ座標系でのワークWの位置情報を処理部5に送信し(ステップS46)、これをもって本処理を終了させる。
<Visual sensor processing>
Furthermore, the process of the visual sensor 4 that has received the trigger signal will be described.
As shown in FIG. 6, the trigger
Here, when the visual sensor 4 determines that the trigger signal has been received from the processing unit 5 (step S41: YES), the
Next, the visual sensor 4 determines whether or not the image
Next, the work
Next, the work position
<処理部の処理(後半)>
再度、図3に戻って説明する。
図3に示すように、処理部5の制御部60は、サーボドライバ7及び視覚センサ4にトリガ信号出力部52を介してトリガ信号を同時に送信した後、サーボドライバ7からエンコーダ値を受信したか否かを判断する(ステップS5)。ここで、制御部60は、サーボドライバ7からエンコーダ値を受信したと判断した場合(ステップS5:YES)、制御部60は、受信したエンコーダ値をエンコーダ値記憶部57に記憶させる。そして、制御部60は、視覚センサ4から計算した視覚センサ座標系でのワークWの位置情報を受信したか否かを判断する(ステップS6)。ここで、制御部60は、サーボドライバ7から視覚センサ座標系でのワークWの位置情報を受信したと判断した場合(ステップS6:YES)、制御部60は、受信した視覚センサ座標系でのワークWの位置情報をワーク位置情報記憶部56に記憶させる。
次いで、処理部5の補正部58は、作業プログラムの補正に必要な補正量を算出し(ステップS7)、算出された補正量に基づいて作業プログラムを補正する(ステップS8)。
<Processing of processing unit (second half)>
Returning again to FIG.
As shown in FIG. 3, has the
Next, the
<補正値の算出について>
ここで、ステップS7で算出される補正量の算出について説明する。
サーボドライバ7から受信するエンコーダ15による各サーボモータ14の軸角度データは、ロボット座標系におけるデータである。従って、これらのデータから算出されるロボット1のアームの先端の位置は、ロボット座標系での位置を示している。すなわち、エンコーダ15により検出した軸角度データに基づいて算出されることから、その位置も当然ロボット基準となるロボット座標系での位置となる。
また、ロボット1のアームの先端に設けられたカメラ3により撮像される画像データにおけるワークWの位置データは、視覚センサ座標系である。そのため、ロボット1の動作によりロボット座標と視覚センサ座標との関係は変化する。しかし、カメラ3はロボット1のアームの先端に設けられていることからアームの先端とカメラ3との位置関係は既知である。
<Calculation of correction value>
Here, calculation of the correction amount calculated in step S7 will be described.
The axis angle data of each
The position data of the workpiece W in the image data captured by the
従って、視覚センサ座標系とロボット座標との関係は、視覚センサ座標系で画像を撮像する時点におけるロボット1のアームの先端の位置がわかれば導き出すことができる。
本実施形態において、処理部5はトリガ信号をサーボドライバ7及び視覚センサ4に同時に送信しているので、カメラ3によりワークWを撮像した時点におけるエンコーダ15の検出した値(エンコーダ値)は、トリガ時エンコーダ値記憶部76に記憶されている。
よって、視覚センサ座標系とロボット座標系との間で位置データを座標変換することができる。
このような手法により、撮像画像におけるワークWの視覚センサ座標におけるワークWの位置をロボット座標でのワークWの位置に変換し、ロボット1のアームの先端との位置のずれ(補正量)を算出し、その位置ずれ分だけ作業プログラムを補正する。
Therefore, the relationship between the visual sensor coordinate system and the robot coordinates can be derived if the position of the tip of the arm of the
In the present embodiment, since the
Therefore, the position data can be coordinate-converted between the visual sensor coordinate system and the robot coordinate system.
By such a method, the position of the workpiece W in the visual sensor coordinates of the workpiece W in the captured image is converted to the position of the workpiece W in the robot coordinates, and the positional deviation (correction amount) from the tip of the arm of the
〔実施形態の効果〕
以上のように、ロボット制御装置2及びロボット制御装置2を備えたロボット制御システム100によれば、処理部5のトリガ信号出力部52により、視覚センサ4及びサーボドライバ7にトリガ信号を同時に送信すると、視覚センサ4の撮像制御部42はカメラ3にワークWの撮像を開始させ、撮像された画像の処理を行って視覚センサ座標系でのワークWの位置を計算するとともに、サーボドライバ7は、トリガ信号がトリガ信号入力部72に入力された時点におけるエンコーダ値を、エンコーダ値受信部74を介して取得し、取得したエンコーダ値をトリガ時エンコーダ値記憶部76に記憶させる。
そして、補正部58は、トリガ時エンコーダ値記憶部76に記憶されたトリガ信号送信時におけるエンコーダ値に基づいて算出されるロボット座標系でのロボット1の先端の位置と、トリガ信号送信時における視覚センサ座標系でのワークWの位置とに基づいてロボット1の位置の補正量を算出し、当該補正量に基づいてロボット1を駆動させる際の作業プログラムを補正する。
これにより、視覚センサ4は、トリガ信号送信時の視覚センサ座標系でのワークWの位置を取得することができ、サーボドライバ7はトリガ信号送信時のエンコーダ値を取得することができるので、視覚センサ4とロボット1とで位置を定める基準となる座標系を相互に変換することができるようになる。
よって、座標系が変換できるようになることで、従来のようにワークWの位置計算のたびにロボット1を停止させることなく、ロボット1を動作させた状態であっても視覚センサ4によるワーク位置の計算時のロボット1の位置データを取得してロボット1の作業プログラムを的確に補正することができる。
さらに、安価なトリガ信号入力部72をサーボドライバ7に設けるだけで、処理部5のロボット位置情報の更新周期を早めるために各部のCPU等(例えば制御部60)の演算装置を高性能にする必要がなくなるので、処理部5やサーボドライバ7にかかるコストの高騰を抑えることができる。
[Effect of the embodiment]
As described above, according to the
The
Thereby, the visual sensor 4 can acquire the position of the workpiece W in the visual sensor coordinate system at the time of trigger signal transmission, and the
Therefore, since the coordinate system can be converted, the work position by the visual sensor 4 can be obtained even when the
Furthermore, only by providing an inexpensive trigger
〔その他〕
本発明は上記実施形態に限定されるものではない。例えば、位置検出手段としてエンコーダを用いたが、エンコーダに代えてレゾルバ等を用いて位置を検出してもよい。
また、複数のカメラを用いてステレオ視の原理によりワークを撮像していたが、一台のカメラでワークを撮像するようにしてもよい。
また、カメラはロボットの先端のハンドに設けられているが、カメラを定置式のものとし、ロボットのハンドでワークを把持してワークをそのカメラにより撮像するようにしてもよい。この場合、ロボットのハンドとワークの相対関係のずれ量によりワークの位置を計算できる。
また、処理部は、サーボドライバに対してエンコーダ値を当該処理部に送信する旨の信号を送信しているが、サーボドライバが処理部からトリガ信号を受信したときにサーボドライバが処理部にエンコーダ値を送信するようにしてもよい。
また、サーボドライバによるエンコーダデータの取得の周期、処理部によるサーボドライバからのエンコーダ値の受信の周期は、互いに異なるけれども一定の周期で行ったいたが、割り込み処理、例えば、ユーザからの指示入力等によってその取得の周期、受信の周期を変化させてもよい。
[Others]
The present invention is not limited to the above embodiment. For example, although the encoder is used as the position detection means, the position may be detected using a resolver or the like instead of the encoder.
Moreover, although the workpiece | work was imaged by the principle of the stereo vision using several cameras, you may make it image a workpiece | work with one camera.
Further, although the camera is provided at the hand at the tip of the robot, the camera may be a stationary type, and the work may be grasped by the robot hand and the work may be imaged by the camera. In this case, the position of the workpiece can be calculated from the amount of deviation of the relative relationship between the robot hand and the workpiece.
In addition, the processing unit transmits a signal indicating that the encoder value is transmitted to the processing unit to the servo driver, but when the servo driver receives a trigger signal from the processing unit, the servo driver sends an encoder to the processing unit. A value may be transmitted.
In addition, although the cycle of acquiring encoder data by the servo driver and the cycle of receiving encoder values from the servo driver by the processing unit are different from each other, they are performed at a constant cycle, but interrupt processing, for example, instruction input from the user, etc. The period of acquisition and the period of reception may be changed.
1 ロボット
2 ロボット制御装置
3 カメラ
4 視覚センサ
5 処理部(処理手段)
7 サーボドライバ
15 エンコーダ(位置検出手段)
42 撮像制御部(撮像制御手段)
52 トリガ信号出力部(トリガ信号送信手段)
58 補正部(補正手段)
72 トリガ信号入力部(トリガ信号入力手段)
74 エンコーダ値受信部(位置情報取得手段)
76 トリガ時エンコーダ値記憶部(位置情報記憶手段)
100 ロボット制御システム
DESCRIPTION OF
7
42 Imaging control unit (imaging control means)
52 Trigger signal output unit (trigger signal transmission means)
58 Correction part (correction means)
72 Trigger signal input section (trigger signal input means)
74 Encoder value receiver (position information acquisition means)
76 Trigger encoder value storage (position information storage means)
100 Robot control system
Claims (2)
前記ロボットの位置を検出する位置検出手段からロボットの位置情報を取得しながら前記ロボットの駆動を制御するサーボドライバと、
前記サーボドライバにロボットを駆動させるための指令信号を送信する処理部と、
前記視覚センサに対してワークの位置を計算させるトリガ信号を送信すると同時に、前記サーボドライバに対して前記ロボットの位置情報を取得して記憶させるためのトリガ信号を送信するトリガ信号送信手段と、
前記サーボドライバに備えられ、前記トリガ信号送信手段から送信されたトリガ信号が入力されるトリガ信号入力手段と、
前記トリガ信号入力手段にトリガ信号が入力された時点における前記位置検出手段から前記ロボットの位置情報を取得する位置情報取得手段と、
前記位置情報取得手段により取得した前記ロボットの位置情報を記憶する位置情報記憶手段と、
前記位置情報記憶手段に記憶された、前記トリガ信号送信手段によるトリガ信号送信時におけるロボットの位置情報と、前記視覚センサにより計算された前記トリガ信号送信手段によるトリガ信号送信時におけるワークの位置とに基づいてロボットの位置の補正量を算出し、当該補正量に基づいて前記ロボットを駆動させる際の作業プログラムを補正する補正手段と、
を備えることを特徴とするロボット制御装置。 By processing the image of the workpiece imaged by the camera with the robot, the camera for imaging the workpiece, and the visual sensor for performing the imaging control of the camera and processing the image captured by the camera, In the robot control device for controlling the driving of the robot so as to calculate the position of the workpiece and correct the target position to which the robot should go with respect to the calculated position,
A servo driver for controlling the driving of the robot while acquiring the position information of the robot from position detecting means for detecting the position of the robot;
A processing unit for transmitting a command signal for driving the robot to the servo driver;
A trigger signal transmitting means for transmitting a trigger signal for acquiring and storing the position information of the robot to the servo driver at the same time as transmitting a trigger signal for calculating the position of the workpiece to the visual sensor;
Trigger signal input means provided in the servo driver, to which a trigger signal transmitted from the trigger signal transmission means is input,
Position information acquisition means for acquiring position information of the robot from the position detection means at the time when a trigger signal is input to the trigger signal input means;
Position information storage means for storing position information of the robot acquired by the position information acquisition means;
The position information of the robot stored in the position information storage means when the trigger signal is transmitted by the trigger signal transmission means and the position of the workpiece when the trigger signal is transmitted by the trigger signal transmission means calculated by the visual sensor. A correction unit that calculates a correction amount of the position of the robot based on the correction amount and corrects a work program for driving the robot based on the correction amount;
A robot control device comprising:
ワークを撮像するカメラと、
前記ロボットに設けられ、ロボットの位置を検出する位置検出手段と、
前記カメラの撮像制御を行うとともに前記カメラで撮像された画像の処理を行ってワークの位置を計算する視覚センサと、
前記位置検出手段からロボットの位置情報を取得しながら前記ロボットの駆動を制御するサーボドライバと、
前記視覚センサから取得したワークの位置と前記サーボドライバから取得したロボットの位置情報とに基づいて、ロボットが向かうべき目標位置を補正する処理部と、を備え、
前記処理部は、前記視覚センサに対してワークの位置を計算させるトリガ信号を送信すると同時に、前記サーボドライバに対してロボットの位置情報を取得して記憶させるトリガ信号を送信するトリガ信号送信手段を有し、
前記サーボドライバは、前記トリガ信号送信手段から送信されたトリガ信号が入力されるトリガ信号入力手段と、前記トリガ信号入力手段にトリガ信号が入力された時点における前記位置検出手段から前記ロボットの位置情報を取得する位置情報取得手段と、前記位置情報取得手段により取得した前記ロボットの位置情報を記憶する位置情報記憶手段と、を有し、
前記視覚センサは、前記処理部からトリガ信号を受信したと同時に前記カメラによるワークの撮像を開始する撮像制御手段を有し、
前記処理部は、前記位置情報記憶手段に記憶された、前記トリガ信号送信手段によるトリガ信号送信時におけるロボットの位置と、前記視覚センサにより計算された前記トリガ信号送信手段によるトリガ信号送信時におけるワークの位置とに基づいてロボットの位置の補正量を算出し、当該補正量に基づいて前記ロボットを駆動させる際の作業プログラムを補正する補正手段を有する、
ことを特徴とするロボット制御システム。 A robot having a plurality of joints;
A camera for imaging the workpiece;
A position detecting means provided on the robot for detecting the position of the robot;
A visual sensor that performs imaging control of the camera and calculates the position of a workpiece by processing an image captured by the camera;
A servo driver for controlling the driving of the robot while acquiring the position information of the robot from the position detecting means;
A processing unit that corrects a target position to which the robot should go based on the position of the workpiece acquired from the visual sensor and the position information of the robot acquired from the servo driver,
The processing unit includes a trigger signal transmitting unit that transmits a trigger signal for calculating a position of a workpiece to the visual sensor and simultaneously transmitting a trigger signal for acquiring and storing the position information of the robot to the servo driver. Have
The servo driver includes: a trigger signal input unit to which a trigger signal transmitted from the trigger signal transmission unit is input; and position information of the robot from the position detection unit at the time when the trigger signal is input to the trigger signal input unit. Position information acquisition means for acquiring the position information storage means for storing the position information of the robot acquired by the position information acquisition means,
The visual sensor has imaging control means for starting imaging of a workpiece by the camera at the same time as receiving a trigger signal from the processing unit,
The processing unit stores the position of the robot at the time of trigger signal transmission by the trigger signal transmission unit and the work at the time of trigger signal transmission by the trigger signal transmission unit calculated by the visual sensor, stored in the position information storage unit. A correction unit that calculates a correction amount of the position of the robot based on the position of the robot, and corrects a work program for driving the robot based on the correction amount.
A robot control system characterized by that.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007021435A JP2008183690A (en) | 2007-01-31 | 2007-01-31 | Robot control device and system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007021435A JP2008183690A (en) | 2007-01-31 | 2007-01-31 | Robot control device and system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008183690A true JP2008183690A (en) | 2008-08-14 |
Family
ID=39727048
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007021435A Pending JP2008183690A (en) | 2007-01-31 | 2007-01-31 | Robot control device and system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2008183690A (en) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102011009814A1 (en) | 2010-03-05 | 2011-09-08 | Fanuc Corporation | Robotic system with visual sensor |
CN102653099A (en) * | 2011-03-04 | 2012-09-05 | 精工爱普生株式会社 | Robot-position detecting device and robot system |
KR101421672B1 (en) | 2012-03-23 | 2014-07-28 | 경북대학교 산학협력단 | robot vision monitoring system using trigger signal, and method thereof |
JP2020069614A (en) * | 2018-11-01 | 2020-05-07 | ファナック株式会社 | Robot system |
CN111152243A (en) * | 2018-11-08 | 2020-05-15 | 发那科株式会社 | Control system |
WO2020121399A1 (en) * | 2018-12-11 | 2020-06-18 | 株式会社Fuji | Robot control system and robot control method |
JP2020116711A (en) * | 2019-01-25 | 2020-08-06 | 株式会社ソニー・インタラクティブエンタテインメント | Robot control system |
JP2020157398A (en) * | 2019-03-25 | 2020-10-01 | ファナック株式会社 | Operation adjustment device for adjusting operation of robot device and operation adjustment method for adjusting operation of robot device |
US11192254B2 (en) * | 2018-12-18 | 2021-12-07 | Fanuc Corporation | Robot system and adjustment method therefor |
WO2023138536A1 (en) * | 2022-01-20 | 2023-07-27 | 华为技术有限公司 | Motor control system, motor control method, and motor driving and forwarding device |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004249391A (en) * | 2003-02-19 | 2004-09-09 | Fanuc Ltd | Workpiece carrier |
-
2007
- 2007-01-31 JP JP2007021435A patent/JP2008183690A/en active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004249391A (en) * | 2003-02-19 | 2004-09-09 | Fanuc Ltd | Workpiece carrier |
Cited By (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102011009814A1 (en) | 2010-03-05 | 2011-09-08 | Fanuc Corporation | Robotic system with visual sensor |
US8326460B2 (en) | 2010-03-05 | 2012-12-04 | Fanuc Corporation | Robot system comprising visual sensor |
DE102011009814B4 (en) | 2010-03-05 | 2018-09-06 | Fanuc Corporation | Robotic system with visual sensor |
CN102653099A (en) * | 2011-03-04 | 2012-09-05 | 精工爱普生株式会社 | Robot-position detecting device and robot system |
US20120226382A1 (en) * | 2011-03-04 | 2012-09-06 | Seiko Epson Corporation | Robot-position detecting device and robot system |
JP2012183606A (en) * | 2011-03-04 | 2012-09-27 | Seiko Epson Corp | Robot-position detecting device and robot system |
US8768508B2 (en) * | 2011-03-04 | 2014-07-01 | Seiko Epson Corporation | Robot-position detecting device and robot system |
US9586319B2 (en) | 2011-03-04 | 2017-03-07 | Seiko Epson Corporation | Robot-position detecting device and robot system |
KR101421672B1 (en) | 2012-03-23 | 2014-07-28 | 경북대학교 산학협력단 | robot vision monitoring system using trigger signal, and method thereof |
JP2020069614A (en) * | 2018-11-01 | 2020-05-07 | ファナック株式会社 | Robot system |
US11241797B2 (en) | 2018-11-08 | 2022-02-08 | Fanuc Corporation | Control system |
CN111152243B (en) * | 2018-11-08 | 2024-02-06 | 发那科株式会社 | Control system |
JP2020075327A (en) * | 2018-11-08 | 2020-05-21 | ファナック株式会社 | Control system |
CN111152243A (en) * | 2018-11-08 | 2020-05-15 | 发那科株式会社 | Control system |
WO2020121399A1 (en) * | 2018-12-11 | 2020-06-18 | 株式会社Fuji | Robot control system and robot control method |
CN113015604A (en) * | 2018-12-11 | 2021-06-22 | 株式会社富士 | Robot control system and robot control method |
JPWO2020121399A1 (en) * | 2018-12-11 | 2021-09-02 | 株式会社Fuji | Robot control system and robot control method |
JP7057841B2 (en) | 2018-12-11 | 2022-04-20 | 株式会社Fuji | Robot control system and robot control method |
CN113015604B (en) * | 2018-12-11 | 2024-03-08 | 株式会社富士 | Robot control system and robot control method |
US11192254B2 (en) * | 2018-12-18 | 2021-12-07 | Fanuc Corporation | Robot system and adjustment method therefor |
JP2020116711A (en) * | 2019-01-25 | 2020-08-06 | 株式会社ソニー・インタラクティブエンタテインメント | Robot control system |
JP7309371B2 (en) | 2019-01-25 | 2023-07-18 | 株式会社ソニー・インタラクティブエンタテインメント | robot control system |
JP2020157398A (en) * | 2019-03-25 | 2020-10-01 | ファナック株式会社 | Operation adjustment device for adjusting operation of robot device and operation adjustment method for adjusting operation of robot device |
US11534908B2 (en) | 2019-03-25 | 2022-12-27 | Fanuc Corporation | Operation adjustment apparatus for adjusting operation of robot apparatus and operation adjustment method for adjusting operation of robot apparatus |
WO2023138536A1 (en) * | 2022-01-20 | 2023-07-27 | 华为技术有限公司 | Motor control system, motor control method, and motor driving and forwarding device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2008183690A (en) | Robot control device and system | |
US8326460B2 (en) | Robot system comprising visual sensor | |
JP4961860B2 (en) | Robot apparatus and control method of robot apparatus | |
JP6420229B2 (en) | A robot system including a video display device that superimposes and displays an image of a virtual object on a video of a robot | |
US9457472B2 (en) | Position detection device for robot, robotic system, and position detection method for robot | |
JP5860021B2 (en) | Fastening device, robot system, and fastening method for fastening a plurality of fastening members | |
JP5272617B2 (en) | Robot apparatus and control method of robot apparatus | |
JP6622765B2 (en) | Robot system | |
JP2007011978A (en) | Motion controller for robot | |
JP6816070B2 (en) | Interference avoidance device and robot system | |
JP2010112859A (en) | Robot system, robot control device, and method for controlling robot | |
JP2009083094A (en) | Control method of robot device, and the robot device | |
CN109421049B (en) | Robot system | |
JP2014161950A (en) | Robot system, robot control method, and robot calibration method | |
JP2014065100A (en) | Robot system and method for teaching robot | |
JP2019119027A (en) | Method of controlling robot system, and robot system | |
US11376732B2 (en) | Robot system for correcting teaching of robot using image processing | |
JP7502003B2 (en) | Apparatus and method for acquiring deviation of moving trajectory of moving machine | |
JP2006224291A (en) | Robot system | |
JP2010172992A (en) | Device and method for controlling robot | |
JP2015127096A (en) | Robot system | |
WO2017141569A1 (en) | Control device, control system, control method, and program | |
JP2016203282A (en) | Robot with mechanism for changing end effector attitude | |
JP5200866B2 (en) | Robot system, robot control apparatus, and robot control method | |
JP2021146445A (en) | Calibration method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100107 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20101125 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20101202 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110131 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110920 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20120131 |