JP2008183690A - Robot control device and system - Google Patents

Robot control device and system Download PDF

Info

Publication number
JP2008183690A
JP2008183690A JP2007021435A JP2007021435A JP2008183690A JP 2008183690 A JP2008183690 A JP 2008183690A JP 2007021435 A JP2007021435 A JP 2007021435A JP 2007021435 A JP2007021435 A JP 2007021435A JP 2008183690 A JP2008183690 A JP 2008183690A
Authority
JP
Japan
Prior art keywords
robot
trigger signal
position information
unit
visual sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007021435A
Other languages
Japanese (ja)
Inventor
Katsutoshi Ono
克俊 大野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nachi Fujikoshi Corp
Original Assignee
Nachi Fujikoshi Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nachi Fujikoshi Corp filed Critical Nachi Fujikoshi Corp
Priority to JP2007021435A priority Critical patent/JP2008183690A/en
Publication of JP2008183690A publication Critical patent/JP2008183690A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To suppress a rise in cost of a control device, while controlling a robot by acquiring positional data of the robot when calculating the position of a workpiece by a visual sensor without stopping the robot. <P>SOLUTION: This robot control device is provided with a servo driver 7 for controlling driving of the robot 1, a processing part 5 for transmitting a command signal to make the servo driver 7 drive the robot, a trigger signal transmission means 52 for simultaneously transmitting a trigger signal to the visual sensor 4 and the servo driver 7, a trigger signal input means 72 provided in the servo driver 7 and input with the trigger signal therein, a positional information acquisition means 74 for acquiring positional information on the robot at a point of time when the trigger signal is input, a positional information storage means 76 for storing the acquired positional information on the robot, and a correction means 58 for correcting a work program by calculating correction amount of the position of the robot based on the positional information on the robot in a robot coordinate system when transmitting the trigger signal and positional information on the workpiece in a visual sensor coordinate system. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、ロボット制御装置及びロボット制御システムに関する。   The present invention relates to a robot control device and a robot control system.

工場等の生産現場において、ロボットを用いて作業対象物としてのワークをハンドリングするような作業においては、設置されているワークの厳密な位置をロボットが認識している必要がある。このため、ワークを治具等の補助装置により正確に位置決めするような方法がよく用いられている。また、視覚センサによってワークの位置を計算し、その計算結果に基づいてロボットの動作を補正する方法もよく用いられている。
視覚センサによってロボットの動作を補正する場合において、視覚センサには、撮像手段としてのカメラが用いられ、複数のカメラを使用してステレオ視の原理により3次元位置を計算するものがある。
In a work site such as a factory where a robot is used to handle a workpiece as a work target, the robot needs to recognize the exact position of the workpiece. For this reason, a method of accurately positioning a work with an auxiliary device such as a jig is often used. In addition, a method of calculating the position of a workpiece with a visual sensor and correcting the operation of the robot based on the calculation result is often used.
When correcting the motion of a robot by a visual sensor, a camera as an imaging unit is used as the visual sensor, and there is a visual sensor that calculates a three-dimensional position based on the principle of stereo vision using a plurality of cameras.

ここで、視覚センサを用いてワークの位置を計算し、その結果に基づいてロボットの動作を補正する際には、視覚センサの出力するワークの位置データは、視覚センサ内で形成された座標系、いわゆる視覚センサ座標系であるため、この視覚センサ座標系をロボットが動作する座標系、いわゆるロボット座標系に座標変換しなければ期待する作業を行うことができない。ここで、ロボット座標系は、例えば、ロボット設置面のロボット位置を原点として定義される。
この座標変換について、ロボットの先端にカメラが取り付けられたシステムを例に簡単に説明する。ロボットがある姿勢をとった時のロボット先端に定義された座標系(以下、ロボット先端座標系という)とロボット座標系の関係は、ロボットが持っている現在位置データから知ることができる。ロボット先端から見たカメラの位置は、ロボットの姿勢が変化しても変わることがない。このため、ロボット先端座標系と視覚センサ座標系との関係がわかれば、視覚センサ座標系上の位置をロボット座標系への位置に変換することが可能である。ロボット座標系と視覚センサ座標系との関係は、座標変換行列を用いて表される(例えば、特許文献1参照。)。
特開平8−210816号公報
Here, when calculating the position of the workpiece using the visual sensor and correcting the movement of the robot based on the result, the position data of the workpiece output from the visual sensor is a coordinate system formed in the visual sensor. Since this is a so-called visual sensor coordinate system, an expected operation cannot be performed unless the coordinate system of the visual sensor coordinate system is transformed into a coordinate system in which the robot operates, that is, a so-called robot coordinate system. Here, the robot coordinate system is defined with the robot position on the robot installation surface as the origin, for example.
This coordinate conversion will be briefly described with reference to a system in which a camera is attached to the tip of a robot. The relationship between the coordinate system defined at the robot tip when the robot assumes a certain posture (hereinafter referred to as the robot tip coordinate system) and the robot coordinate system can be known from the current position data held by the robot. The position of the camera viewed from the robot tip does not change even if the posture of the robot changes. For this reason, if the relationship between the robot tip coordinate system and the visual sensor coordinate system is known, the position on the visual sensor coordinate system can be converted to the position on the robot coordinate system. The relationship between the robot coordinate system and the visual sensor coordinate system is expressed using a coordinate transformation matrix (see, for example, Patent Document 1).
JP-A-8-210816

ところで、視覚センサによってワークの位置を計算する場合、視覚センサ座標系上の計算位置をロボット座標系に変換するために、計算を行った時刻のロボット先端位置を知る必要がある。このため、ロボットが停止した状態で視覚センサによる計算を行う方法が用いられている。この結果、ロボットが停止するための減速時間および画像処理にかかる時間がタクトタイムの増加を招くという問題があった。
ロボットを停止させずに視覚センサによりワークを計算すれば、前記の問題は解決できるが、このためには、視覚センサが計算を行った同一の時刻のロボットの現在位置データを取得する必要がある。例えば、ロボット先端に取り付けられたカメラのロボット座標系での速度が1000mm/secであった場合に、ワークを計算すると考えると、前述の時刻のずれが1msecだけで計算結果として1mmの誤差が発生することになる。
一般的にロボットの駆動を制御する制御装置は、ロボットの駆動源をサーボ制御するサーボドライバとサーボドライバに対して指令信号を送る等の処理を行うメイン処理部とを備えており、視覚センサに計算要求を行うのはメイン処理部となる。メイン処理部はサーボドライバよりロボットの位置データを取得している。
By the way, when the position of the workpiece is calculated by the visual sensor, it is necessary to know the position of the robot tip at the time of calculation in order to convert the calculated position on the visual sensor coordinate system into the robot coordinate system. For this reason, a method of performing calculation using a visual sensor while the robot is stopped is used. As a result, there has been a problem that the deceleration time for stopping the robot and the time required for image processing increase the tact time.
If the workpiece is calculated by the visual sensor without stopping the robot, the above problem can be solved. For this purpose, it is necessary to acquire the current position data of the robot at the same time that the visual sensor has calculated. . For example, if the speed of the camera attached to the robot tip in the robot coordinate system is 1000 mm / sec, and the workpiece is calculated, an error of 1 mm will be generated as a result of the calculation when the above time lag is only 1 msec. Will do.
In general, a control device that controls the driving of a robot includes a servo driver that servo-controls the driving source of the robot and a main processing unit that performs processing such as sending a command signal to the servo driver. The main processing unit makes a calculation request. The main processing unit obtains robot position data from the servo driver.

しかし、メイン処理部でロボットの位置データが更新される周期はそれ程速くなく、計算要求時の同一時刻の位置データを取得することは非常に困難であった。また、サーボドライバはエンコーダ等の位置検出器と接続されており、サーボ制御のために高速な周期で位置検出器の出力データを受信しているが、ある特定の瞬間の位置データを取得する手段を有していない。このため、サーボドライバにおいても計算要求時の位置データを取得することができなかった。
以上の問題は、制御装置に使用されるCPUを性能の高いものにし、位置データの更新周期を高速化することにより解消することができるが、制御装置自体のコストが増加する問題がある。
However, the cycle in which the position data of the robot is updated in the main processing unit is not so fast, and it is very difficult to acquire position data at the same time when a calculation is requested. The servo driver is connected to a position detector such as an encoder and receives position detector output data at a high speed for servo control, but means for acquiring position data at a specific moment Does not have. For this reason, the position data at the time of the calculation request cannot be acquired even in the servo driver.
The above problem can be solved by making the CPU used in the control device high in performance and speeding up the update cycle of the position data, but there is a problem that the cost of the control device itself increases.

本発明は、上記課題を解決するためになされたものであり、ロボットを停止させることなく視覚センサによるワーク位置の計算時のロボットの位置データを取得してロボットの動作を制御しつつ、制御装置にかかるコストの高騰を抑えることができるロボット制御装置及びロボット制御システムを提供することを目的とする。   The present invention has been made to solve the above-described problem, and obtains the position data of the robot at the time of calculating the work position by the visual sensor without stopping the robot, and controls the operation of the robot while controlling the operation of the robot. It is an object of the present invention to provide a robot control device and a robot control system that can suppress an increase in cost.

請求項1に記載の発明は、ロボットと、ワークを撮像するカメラと、前記カメラの撮像制御を行うとともに前記カメラで撮像された画像を処理する視覚センサとにより、前記カメラで撮像したワークの画像を前記視覚センサで処理することで、前記ワークの位置を計算し、計算された位置に対してロボットが向かうべき目標位置を補正するようにロボットの駆動を制御するロボット制御装置において、前記ロボットの位置を検出する位置検出手段からロボットの位置情報を取得しながら前記ロボットの駆動を制御するサーボドライバと、前記サーボドライバにロボットを駆動させるための指令信号を送信する処理部と、前記視覚センサに対してワークの位置を計算させるトリガ信号を送信すると同時に、前記サーボドライバに対して前記ロボットの位置情報を取得して記憶させるためのトリガ信号を送信するトリガ信号送信手段と、前記サーボドライバに備えられ、前記トリガ信号送信手段から送信されたトリガ信号が入力されるトリガ信号入力手段と、前記トリガ信号入力手段にトリガ信号が入力された時点における前記位置検出手段から前記ロボットの位置情報を取得する位置情報取得手段と、前記位置情報取得手段により取得した前記ロボットの位置情報を記憶する位置情報記憶手段と、前記位置情報記憶手段に記憶された、前記トリガ信号送信手段によるトリガ信号送信時におけるロボットの位置情報と、前記視覚センサにより計算された前記トリガ信号送信手段によるトリガ信号送信時におけるワークの位置とに基づいてロボットの位置の補正量を算出し、当該補正量に基づいて前記ロボットを駆動させる際の作業プログラムを補正する補正手段と、を備えることを特徴とする。   According to the first aspect of the present invention, an image of a workpiece imaged by the camera by a robot, a camera that images the workpiece, and a visual sensor that performs imaging control of the camera and processes an image captured by the camera. In the robot control device that controls the driving of the robot so as to correct the target position to which the robot should go with respect to the calculated position by calculating the position of the workpiece by the visual sensor. A servo driver that controls driving of the robot while acquiring position information of the robot from position detecting means for detecting a position, a processing unit that transmits a command signal for driving the robot to the servo driver, and the visual sensor At the same time, a trigger signal for calculating the workpiece position is transmitted to the servo driver. Trigger signal transmitting means for transmitting a trigger signal for acquiring and storing the position information of the target, and trigger signal input means provided in the servo driver, to which the trigger signal transmitted from the trigger signal transmitting means is input The position information acquisition means for acquiring the position information of the robot from the position detection means at the time when the trigger signal is input to the trigger signal input means, and the position information of the robot acquired by the position information acquisition means are stored. Position information storage means, position information of the robot at the time of trigger signal transmission by the trigger signal transmission means stored in the position information storage means, and trigger signal transmission by the trigger signal transmission means calculated by the visual sensor The amount of robot position correction is calculated based on the workpiece position at A correction means for correcting the operation program at the time of driving the robot Zui characterized in that it comprises a.

請求項2に記載の発明は、ロボット制御システムにおいて、複数の関節を有するロボットと、ワークを撮像するカメラと、前記ロボットに設けられ、ロボットの位置を検出する位置検出手段と、前記カメラの撮像制御を行うとともに前記カメラで撮像された画像の処理を行ってワークの位置を計算する視覚センサと、前記位置検出手段からロボットの位置情報を取得しながら前記ロボットの駆動を制御するサーボドライバと、前記視覚センサから取得したワークの位置と前記サーボドライバから取得したロボットの位置情報とに基づいて、ロボットが向かうべき目標位置を補正する処理部と、を備え、前記処理部は、前記視覚センサに対してワークの位置を計算させるトリガ信号を送信すると同時に、前記サーボドライバに対してロボットの位置情報を取得して記憶させるトリガ信号を送信するトリガ信号送信手段を有し、前記サーボドライバは、前記トリガ信号送信手段から送信されたトリガ信号が入力されるトリガ信号入力手段と、前記トリガ信号入力手段にトリガ信号が入力された時点における前記位置検出手段から前記ロボットの位置情報を取得する位置情報取得手段と、前記位置情報取得手段により取得した前記ロボットの位置情報を記憶する位置情報記憶手段と、を有し、前記視覚センサは、前記処理部からトリガ信号を受信したと同時に前記カメラによるワークの撮像を開始する撮像制御手段を有し、前記処理部は、前記位置情報記憶手段に記憶された、前記トリガ信号送信手段によるトリガ信号送信時におけるロボットの位置と、前記視覚センサにより計算された前記トリガ信号送信手段によるトリガ信号送信時におけるワークの位置とに基づいてロボットの位置の補正量を算出し、当該補正量に基づいて前記ロボットを駆動させる際の作業プログラムを補正する補正手段を有する、ことを特徴とする。   According to a second aspect of the present invention, in the robot control system, a robot having a plurality of joints, a camera that images a workpiece, a position detection unit that is provided in the robot and detects the position of the robot, and imaging of the camera A visual sensor for performing control and processing the image captured by the camera to calculate the position of the workpiece; a servo driver for controlling the driving of the robot while acquiring position information of the robot from the position detecting means; A processing unit that corrects a target position to which the robot should head based on the position of the workpiece acquired from the visual sensor and the position information of the robot acquired from the servo driver, and the processing unit includes the visual sensor. At the same time, a trigger signal for calculating the position of the workpiece is transmitted to the servo driver. Trigger signal transmitting means for transmitting a trigger signal for acquiring and storing position information, and the servo driver includes a trigger signal input means for receiving a trigger signal transmitted from the trigger signal transmitting means, and the trigger signal Position information acquisition means for acquiring position information of the robot from the position detection means at the time when a trigger signal is input to the input means, and position information storage means for storing the position information of the robot acquired by the position information acquisition means The visual sensor includes an imaging control unit that starts imaging of the workpiece by the camera at the same time as receiving the trigger signal from the processing unit, and the processing unit stores in the position information storage unit The position of the robot at the time of trigger signal transmission by the trigger signal transmission means and calculated by the visual sensor A correction unit that calculates a correction amount of the position of the robot based on the position of the workpiece when the trigger signal is transmitted by the trigger signal transmission unit, and corrects a work program for driving the robot based on the correction amount. It is characterized by that.

請求項1に記載の発明によれば、処理部はサーボドライバに対してロボットを駆動させるための指令信号を送信し、サーボドライバは指令信号に基づいてロボットの駆動を制御する。ここで、トリガ信号送信手段が、視覚センサ及びサーボドライバにトリガ信号を同時に送信すると、視覚センサはワークの位置を計算するとともに、サーボドライバは、トリガ信号がトリガ信号入力手段に入力された時点におけるロボットの位置情報を位置情報取得手段により取得し、取得したロボットの位置情報を位置情報記憶手段に記憶させる。
そして、補正手段は、位置情報記憶手段に記憶された、トリガ信号送信手段によるトリガ信号送信時におけるロボットの位置と、視覚センサにより計算されたトリガ信号送信手段によるトリガ信号送信時におけるワークの位置とに基づいてロボットの位置の補正量を算出し、当該補正量に基づいてロボットを駆動させる際の作業プログラムを補正する。
これにより、視覚センサは、トリガ信号送信時のワークの位置を取得することができ、サーボドライバはトリガ信号送信時のロボットの位置情報を取得することができるので、視覚センサとロボットとで位置を定める基準となる座標系を相互に変換することができるようになる。
よって、座標系が変換できるようになることで、従来のようにワークの位置計算のたびにロボットを停止させることなく、ロボットを動作させた状態であっても視覚センサによるワーク位置の計算時のロボットの位置データを取得してロボットの作業プログラムを的確に補正することができる。
さらに、安価な信号入力手段をサーボドライバに設けるだけで、処理部のロボット位置情報更新周期を早めるために各部のCPU等の演算装置を高性能にする必要がなくなるので、処理部やサーボドライバにかかるコストの高騰を抑えることができる。
According to the first aspect of the present invention, the processing unit transmits a command signal for driving the robot to the servo driver, and the servo driver controls the driving of the robot based on the command signal. Here, when the trigger signal transmission means transmits the trigger signal to the visual sensor and the servo driver at the same time, the visual sensor calculates the position of the workpiece, and the servo driver at the time when the trigger signal is input to the trigger signal input means. The position information of the robot is acquired by the position information acquisition means, and the acquired position information of the robot is stored in the position information storage means.
The correcting means stores the position of the robot stored in the position information storage means when the trigger signal is transmitted by the trigger signal transmitting means, and the position of the workpiece when the trigger signal is transmitted by the trigger signal transmitting means calculated by the visual sensor. The amount of correction of the position of the robot is calculated based on the above, and the work program for driving the robot is corrected based on the amount of correction.
As a result, the visual sensor can acquire the position of the workpiece when the trigger signal is transmitted, and the servo driver can acquire the position information of the robot when the trigger signal is transmitted. It becomes possible to mutually convert coordinate systems to be determined.
Therefore, since the coordinate system can be converted, it is possible to calculate the workpiece position by the visual sensor even when the robot is operated without stopping the robot each time the workpiece position is calculated. It is possible to accurately correct the robot work program by acquiring the robot position data.
Furthermore, by providing inexpensive signal input means in the servo driver, it is not necessary to improve the performance of the arithmetic unit such as the CPU of each unit in order to accelerate the robot position information update cycle of the processing unit. Such an increase in cost can be suppressed.

請求項2に記載の発明によれば、処理部のトリガ信号送信手段により、視覚センサ及びサーボドライバにトリガ信号を同時に送信すると、視覚センサの撮像制御手段はカメラにワークの撮像を開始させ、撮像された画像の処理を行ってワークの位置を計算するとともに、サーボドライバは、トリガ信号がトリガ信号入力手段に入力された時点におけるロボットの位置情報を位置情報取得手段により取得し、取得したロボットの位置情報を位置情報記憶手段に記憶させる。
そして、補正手段は、位置情報記憶手段に記憶された、トリガ信号送信手段によるトリガ信号送信時におけるロボットの位置と、視覚センサにより計算されたトリガ信号送信手段によるトリガ信号送信時におけるワークの位置とに基づいてロボットの位置の補正量を算出し、当該補正量に基づいてロボットを駆動させる際の作業プログラムを補正する。
これにより、視覚センサは、トリガ信号送信時のワークの位置を取得することができ、サーボドライバはトリガ信号送信時のロボットの位置情報を取得することができるので、視覚センサとロボットとで位置を定める基準となる座標系を相互に変換することができるようになる。
よって、座標系が変換できるようになることで、従来のようにワークの位置計算のたびにロボットを停止させることなく、ロボットを動作させた状態であっても視覚センサによるワーク位置の計算時のロボットの位置データを取得してロボットの作業プログラムを的確に補正することができる。
さらに、安価な信号入力手段をサーボドライバに設けるだけで、処理部のロボット位置情報更新周期を早めるために各部のCPU等の演算装置を高性能にする必要がなくなるので、処理部やサーボドライバにかかるコストの高騰を抑えることができる。
According to the second aspect of the present invention, when a trigger signal is transmitted to the visual sensor and the servo driver at the same time by the trigger signal transmission unit of the processing unit, the imaging control unit of the visual sensor causes the camera to start imaging the workpiece, The servo driver calculates the position of the workpiece by performing processing on the obtained image, and the servo driver acquires the position information of the robot at the time when the trigger signal is input to the trigger signal input means by the position information acquisition means. The position information is stored in the position information storage means.
The correcting means stores the position of the robot stored in the position information storage means when the trigger signal is transmitted by the trigger signal transmitting means, and the position of the workpiece when the trigger signal is transmitted by the trigger signal transmitting means calculated by the visual sensor. The amount of correction of the position of the robot is calculated based on the above, and the work program for driving the robot is corrected based on the amount of correction.
As a result, the visual sensor can acquire the position of the workpiece when the trigger signal is transmitted, and the servo driver can acquire the position information of the robot when the trigger signal is transmitted. It becomes possible to mutually convert coordinate systems to be determined.
Therefore, since the coordinate system can be converted, it is possible to calculate the workpiece position by the visual sensor even when the robot is operated without stopping the robot each time the workpiece position is calculated. It is possible to accurately correct the robot work program by acquiring the robot position data.
Furthermore, by providing inexpensive signal input means in the servo driver, it is not necessary to improve the performance of the arithmetic unit such as the CPU of each unit in order to accelerate the robot position information update cycle of the processing unit. Such an increase in cost can be suppressed.

以下、図面を参照して、本発明に係るロボット制御装置及びロボット制御システムの最良の形態について詳細に説明する。   Hereinafter, the best mode of a robot control device and a robot control system according to the present invention will be described in detail with reference to the drawings.

〔ロボット制御システムの構成〕
図1に示すように、ロボット制御システム100は、複数のアーム12が複数の関節13により回転自在に連結されたロボット1と、このロボット1の駆動等を制御するロボット制御装置2と、ワークWを撮像する撮像手段としてのカメラ3と、このカメラ3で撮像された画像を処理する視覚センサ4と、を備えている。
[Robot control system configuration]
As shown in FIG. 1, the robot control system 100 includes a robot 1 in which a plurality of arms 12 are rotatably connected by a plurality of joints 13, a robot control device 2 that controls driving of the robot 1, and a work W And a visual sensor 4 for processing an image picked up by the camera 3.

<ロボット>
図1に示すように、ロボット1は、ワークWをハンドリングする等の機能を有するロボットであり、土台となるベース11と、ロボット1のアーム部を構成し、複数の関節13で連結された複数のアーム12と、各関節13に設けられた駆動源としてのサーボモータ14(図2参照)と、ロボット1の位置情報を検出する、より具体的には、サーボモータ14に設けられ、各サーボモータ14の軸の位置(軸角度)をそれぞれ検出する位置検出手段としてのエンコーダ15と、を備えている。そして、連結されたアーム12の最先端部には、ワークWをハンドリングするハンドH等が装備されている。
各関節13は、アーム12の一端部を揺動可能として他端部を軸支する揺動関節と、アーム12自身をその長手方向を中心に回転可能に軸支する回転関節とのいずれかから構成される。つまり、ロボット1は多関節型ロボットに相当する。また、ロボット1は、各関節13により、その先端部のハンドH等を任意の位置に位置決めし、任意の姿勢を取らせることが可能となっている。
<Robot>
As shown in FIG. 1, the robot 1 is a robot having a function of handling a workpiece W and the like. The robot 11 includes a base 11 that serves as a base and an arm portion of the robot 1. 2, a servo motor 14 (see FIG. 2) as a drive source provided at each joint 13, and position information of the robot 1 is detected. More specifically, the servo motor 14 is provided with each servo. And an encoder 15 as position detecting means for detecting the position (axis angle) of the shaft of the motor 14. And the hand H etc. which handle the workpiece | work W are equipped in the most advanced part of the connected arm 12. FIG.
Each joint 13 is one of a swing joint that supports one end of the arm 12 so that the other end can swing, and a rotary joint that supports the arm 12 so that the arm 12 can rotate about its longitudinal direction. Composed. That is, the robot 1 corresponds to an articulated robot. In addition, the robot 1 can position the hand H or the like at the tip thereof at an arbitrary position by each joint 13 and can take an arbitrary posture.

<ロボット制御装置>
図1〜図3に示すように、ロボット制御装置2は、ティーチング或いはプログラミングにより設定されたロボット1の教示動作データに従って、ロボット1の指令信号を出力する処理部5と、エンコーダ15から各サーボモータ14の軸角度を取得しながら処理部5からの指令信号に基づいてロボット1の各サーボモータ14の制御を行うサーボドライバ7と、を備えている。
<Robot control device>
As shown in FIGS. 1 to 3, the robot control device 2 includes a processing unit 5 that outputs a command signal of the robot 1 according to teaching operation data of the robot 1 set by teaching or programming, and an encoder 15 to each servo motor. And a servo driver 7 that controls each servo motor 14 of the robot 1 based on a command signal from the processing unit 5 while acquiring 14 shaft angles.

(処理部)
処理部5は、サーボドライバ7及び視覚センサ4に接続されている。
処理部5は、サーボドライバ7にロボット1を駆動させるための指令信号を送信する指令信号送信部51を有している。
処理部5は、視覚センサ4に対してワークWの位置を計算させるトリガ信号を送信すると同時に、サーボドライバ7に対して各サーボモータ14の軸角度であるエンコーダ値をエンコーダ15から取得して記憶させるためのトリガ信号を送信するトリガ信号送信手段としてのトリガ信号出力部52を有している。
(Processing part)
The processing unit 5 is connected to the servo driver 7 and the visual sensor 4.
The processing unit 5 includes a command signal transmission unit 51 that transmits a command signal for causing the servo driver 7 to drive the robot 1.
The processing unit 5 transmits a trigger signal for calculating the position of the workpiece W to the visual sensor 4, and at the same time acquires an encoder value, which is an axis angle of each servo motor 14, from the encoder 15 and stores it to the servo driver 7. A trigger signal output unit 52 as trigger signal transmission means for transmitting a trigger signal for generating the trigger signal.

処理部5は、視覚センサ4に対しては視覚センサ座標系でのワークWの位置情報を処理部5に送信するように指令信号を送信するとともに、サーボドライバ7に対してはエンコーダ値を送信するように指令信号を送信する通信部53を有している。ここで、通信部53による指令信号の送信は、予め定められた一定の周期で行われるが、ユーザによる割り込み入力操作により任意に設定することもできる。
処理部5は、通信部53により視覚センサ4に送信した指令信号により、視覚センサ4から視覚センサ座標系でのワークWの位置情報を受信するワーク位置情報受信部54を有している。
処理部5は、通信部53によりサーボドライバ7に送信した指令信号により、サーボドライバ7からエンコーダ値を受信するエンコーダ値受信部55を有している。
The processing unit 5 transmits a command signal to the visual sensor 4 so as to transmit the position information of the workpiece W in the visual sensor coordinate system to the processing unit 5, and transmits an encoder value to the servo driver 7. Thus, the communication unit 53 that transmits a command signal is provided. Here, the transmission of the command signal by the communication unit 53 is performed at a predetermined constant cycle, but can be arbitrarily set by an interrupt input operation by the user.
The processing unit 5 includes a workpiece position information receiving unit 54 that receives position information of the workpiece W in the visual sensor coordinate system from the visual sensor 4 based on a command signal transmitted to the visual sensor 4 by the communication unit 53.
The processing unit 5 includes an encoder value receiving unit 55 that receives an encoder value from the servo driver 7 based on a command signal transmitted to the servo driver 7 by the communication unit 53.

処理部5は、ワーク位置情報受信部54で受信した視覚センサ座標系でのワークWの位置情報を記憶するワーク位置情報記憶部56を有している。
処理部5は、エンコーダ値受信部55で受信したエンコーダ値を記憶するエンコーダ値記憶部57を有している。
処理部5は、ワーク位置情報記憶部56に記憶された視覚センサ座標系でのワークWの位置情報とエンコーダ値記憶部57に記憶されたエンコーダ値とに基づいてロボット1の位置の補正量を算出し、当該補正量に基づいてロボット1を駆動させる際の作業プログラムを補正する補正手段としての補正部58を有する。
The processing unit 5 includes a workpiece position information storage unit 56 that stores the position information of the workpiece W in the visual sensor coordinate system received by the workpiece position information receiving unit 54.
The processing unit 5 includes an encoder value storage unit 57 that stores the encoder value received by the encoder value receiving unit 55.
The processing unit 5 calculates the correction amount of the position of the robot 1 based on the position information of the workpiece W in the visual sensor coordinate system stored in the workpiece position information storage unit 56 and the encoder value stored in the encoder value storage unit 57. A correction unit 58 is provided as a correction unit that calculates and corrects a work program for driving the robot 1 based on the correction amount.

処理部5は、ロボット1を駆動させる作業プログラムや、その他必要なプログラムやデータが格納されたメモリ59を有している。このメモリ59には、上記プログラムの他、エンコーダ値受信部55及びワーク位置情報受信部56が受信した各データの座標系を統一するために座標変換を行うための座標変換行列式等が記憶されている。なお、座標変換行列式、座標変換の手法は、従来技術にも挙げたように公知の技術であるため、説明を省略する。
処理部5は、メモリ59に記憶されたプログラムやデータに従って、上記の各部の処理を実行するための制御部60を有している。
なお、処理部5による各処理は、処理部5に備えられた制御部60がメモリ59内に記憶されたプログラム等のソフトウェアを実行することにより実現させてもよいし、回路等のハードウェアにより実現させてもよい。
The processing unit 5 includes a memory 59 in which a work program for driving the robot 1 and other necessary programs and data are stored. In addition to the above program, the memory 59 stores a coordinate transformation determinant for performing coordinate transformation in order to unify the coordinate system of each data received by the encoder value receiving unit 55 and the work position information receiving unit 56. ing. Note that the coordinate transformation determinant and the coordinate transformation method are known techniques as described in the prior art, and thus description thereof is omitted.
The processing unit 5 includes a control unit 60 for executing the processing of each unit described above in accordance with programs and data stored in the memory 59.
Each process by the processing unit 5 may be realized by the control unit 60 provided in the processing unit 5 executing software such as a program stored in the memory 59, or by hardware such as a circuit. It may be realized.

(サーボドライバ)
サーボドライバ7は、処理部5、ロボット1のサーボモータ14及びエンコーダ15に接続されている。
サーボドライバ7は、処理部5の指令信号送信部51から送信されたロボット1を駆動させるための指令信号を受信する指令信号受信部71を有している。
サーボドライバ7は、処理部5のトリガ信号出力部52から送信されたトリガ信号を受信するトリガ信号入力手段としてのトリガ信号入力部72を有している。
サーボドライバ7は、処理部5の通信部53からエンコーダ値を送信する旨の指令信号を受信すると、エンコーダ15から取得したエンコーダ値をエンコーダ値受信部55に送信する通信部73を有している。
(Servo driver)
The servo driver 7 is connected to the processing unit 5, the servo motor 14 of the robot 1, and the encoder 15.
The servo driver 7 has a command signal receiving unit 71 that receives a command signal for driving the robot 1 transmitted from the command signal transmitting unit 51 of the processing unit 5.
The servo driver 7 has a trigger signal input unit 72 as trigger signal input means for receiving the trigger signal transmitted from the trigger signal output unit 52 of the processing unit 5.
The servo driver 7 includes a communication unit 73 that transmits the encoder value acquired from the encoder 15 to the encoder value receiving unit 55 when receiving a command signal for transmitting the encoder value from the communication unit 53 of the processing unit 5. .

サーボドライバ7は、エンコーダ15からエンコーダ値を取得するエンコーダ値受信部74を有している。ここで取得するエンコーダ値を用いながらサーボドライバ7はロボット1のサーボ制御を行う。ここで、エンコーダ値受信部74は、トリガ信号入力部72にトリガ信号が入力された場合にトリガ信号が入力された時点におけるエンコーダ値をエンコーダ15から受信する。すなわち、エンコーダ値受信部74は、位置情報取得手段として機能する。エンコーダ値受信部74によるエンコーダ値の受信処理は、所定の周期で行われ、上述した処理部5とサーボドライバ7との間で行われる通信周期に比べて十分に長い。   The servo driver 7 has an encoder value receiving unit 74 that acquires an encoder value from the encoder 15. The servo driver 7 performs servo control of the robot 1 using the encoder value acquired here. Here, the encoder value receiving unit 74 receives the encoder value from the encoder 15 when the trigger signal is input when the trigger signal is input to the trigger signal input unit 72. That is, the encoder value receiving unit 74 functions as a position information acquisition unit. Encoder value reception processing by the encoder value receiving unit 74 is performed at a predetermined cycle, which is sufficiently longer than the communication cycle performed between the processing unit 5 and the servo driver 7 described above.

サーボドライバ7は、エンコーダ15から取得したエンコーダ値を記憶するエンコーダ値記憶部75を有している。
サーボドライバ7は、トリガ信号入力部72にてトリガ信号を受信した際にその信号受信時におけるエンコーダ15からのエンコーダ値を記憶する位置情報記憶手段としてのトリガ時エンコーダ値記憶部76を有している。
サーボドライバ7は、通信部73において、エンコーダ値を処理部5に送信する旨の信号が入力された場合に、エンコーダ値記憶部75及びトリガ時エンコーダ値記憶部76に記憶されたエンコーダ値を処理部5のエンコーダ値記憶部55に送信するエンコーダ値送信部77を有している。なお、通信部73には、所定の周期で指令信号が入力されるため、エンコーダ値送信部77も所定の周期で処理部5にエンコーダ値を送信することになる。
The servo driver 7 includes an encoder value storage unit 75 that stores the encoder value acquired from the encoder 15.
The servo driver 7 has a trigger encoder value storage unit 76 as position information storage means for storing the encoder value from the encoder 15 when receiving the trigger signal at the trigger signal input unit 72. Yes.
The servo driver 7 processes the encoder values stored in the encoder value storage unit 75 and the trigger encoder value storage unit 76 when the communication unit 73 receives a signal indicating that the encoder value is to be transmitted to the processing unit 5. An encoder value transmission unit 77 that transmits to the encoder value storage unit 55 of the unit 5 is provided. Since the command signal is input to the communication unit 73 at a predetermined cycle, the encoder value transmission unit 77 also transmits the encoder value to the processing unit 5 at a predetermined cycle.

サーボドライバ7は、ロボット1に信号を送信する処理や、エンコーダ15から取得したエンコーダ値をエンコーダ値記憶部75及びトリガ時エンコーダ値記憶部76に記憶させる等の処理の制御を行う制御部78を有している。
なお、サーボドライバ7による各処理は、サーボドライバ7に備えられた制御部78がプログラム等のソフトウェアを実行することにより実現させてもよいし、回路等のハードウェアにより実現させてもよい。
The servo driver 7 includes a control unit 78 that controls processing such as processing for transmitting a signal to the robot 1 and processing for storing the encoder value acquired from the encoder 15 in the encoder value storage unit 75 and the trigger encoder value storage unit 76. Have.
Each process by the servo driver 7 may be realized by the control unit 78 provided in the servo driver 7 executing software such as a program, or may be realized by hardware such as a circuit.

<カメラ>
図1,図2に示すように、カメラ3は、ロボット1の最先端にあるアーム12の先端に複数設けられている。カメラ3を複数設けるのは、ワークWをステレオ視して撮像することにより、ワークWの位置を三次元で把握するためである。
カメラ3は、視覚センサ4から受信したシャッタ信号に基づき、シャッタ信号がONとなっている間、ワークWを撮像する。そして、撮像された画像は、視覚センサ4の指令信号に基づいて、視覚センサ4に画像データで送信する。ここで、視覚センサ4から受信するシャッタ信号は、処理部5のトリガ信号出力部52からトリガ信号が視覚センサ4に送信されると同時に視覚センサ4から送信されてくるものである。詳細は視覚センサ4の説明に委ねる。
<Camera>
As shown in FIGS. 1 and 2, a plurality of cameras 3 are provided at the tip of an arm 12 at the forefront of the robot 1. The reason for providing a plurality of cameras 3 is to grasp the position of the workpiece W in three dimensions by capturing the workpiece W in stereo.
Based on the shutter signal received from the visual sensor 4, the camera 3 images the workpiece W while the shutter signal is ON. The captured image is transmitted to the visual sensor 4 as image data based on a command signal from the visual sensor 4. Here, the shutter signal received from the visual sensor 4 is transmitted from the visual sensor 4 at the same time as the trigger signal is transmitted from the trigger signal output unit 52 of the processing unit 5 to the visual sensor 4. Details are left to the description of the visual sensor 4.

<視覚センサ>
図1,図2に示すように、視覚センサ4は、カメラ3及び処理部5に接続されている。
視覚センサ4は、処理部5のトリガ信号出力部52から送信されたトリガ信号を受信するトリガ信号入力部41を有している。
視覚センサ4は、処理部5からトリガ信号を受信したと同時にカメラ3によるワークWの撮像を開始させるべく、カメラ3にシャッタ信号を送信する撮像制御手段としての撮像制御部42を有している。
視覚センサ4は、カメラ3により撮像されたワークWの画像データを受信する画像データ受信部43を有している。
視覚センサ4は、カメラ3により撮像された画像データの画像処理を行う画像処理手段としての画像処理部44を有している。
視覚センサ4は、画像処理部44により画像処理された撮像画像のデータからトリガ信号受信時(処理部5によるトリガ信号の送信時とほぼ同時)における視覚センサ座標系でのワークWの位置を計算するワーク位置計算手段としてのワーク位置計算部45を有している。
視覚センサ4は、計算された視覚センサ座標系でのワークWの位置情報を処理部5に送信するワーク位置情報送信部46を有している。
なお、視覚センサ4による各処理は、視覚センサ4に備えられたCPU等がメモリ内に記憶されたプログラム等のソフトウェアを実行することにより実現させてもよいし、回路等のハードウェアにより実現させてもよい。
<Visual sensor>
As shown in FIGS. 1 and 2, the visual sensor 4 is connected to a camera 3 and a processing unit 5.
The visual sensor 4 includes a trigger signal input unit 41 that receives a trigger signal transmitted from the trigger signal output unit 52 of the processing unit 5.
The visual sensor 4 includes an imaging control unit 42 as an imaging control unit that transmits a shutter signal to the camera 3 in order to start imaging of the workpiece W by the camera 3 at the same time that the trigger signal is received from the processing unit 5. .
The visual sensor 4 includes an image data receiving unit 43 that receives image data of the work W imaged by the camera 3.
The visual sensor 4 includes an image processing unit 44 as an image processing unit that performs image processing on image data captured by the camera 3.
The visual sensor 4 calculates the position of the workpiece W in the visual sensor coordinate system when receiving a trigger signal (substantially simultaneously with the transmission of the trigger signal by the processing unit 5) from the captured image data processed by the image processing unit 44. A workpiece position calculation unit 45 is provided as workpiece position calculation means.
The visual sensor 4 includes a workpiece position information transmission unit 46 that transmits the calculated position information of the workpiece W in the visual sensor coordinate system to the processing unit 5.
Each processing by the visual sensor 4 may be realized by executing software such as a program stored in the memory by a CPU or the like provided in the visual sensor 4, or may be realized by hardware such as a circuit. May be.

〔ロボット制御装置の処理〕
次に、ロボット制御装置2による処理について図3〜図6を用いて説明する。ここで、図3は処理部5の処理、図4及び図5はサーボドライバ7の処理、図6は視覚センサ4の処理を示すフローチャートである。
<処理部の処理(前半)>
図3に示すように、処理部5の制御部60は、メモリ59に記憶された作業プログラムを実行し(ステップS1)、指令信号送信部51は、サーボドライバ7にロボット1を駆動させる指令信号を送信する(ステップS2)。ここで、制御部60は、作業プログラム上におけるワークWの計算位置であるか否かを判断する(ステップS3)。
制御部60が作業プログラム上でのワークWの計算位置であると判断した場合(ステップS3:YES)、制御部60は、エンコーダ15から受信したエンコーダ値をトリガ時エンコーダ値記憶部76に記憶させるトリガとなるトリガ信号を、トリガ信号出力部52を介してサーボドライバ7に送信するとともに、カメラ3によりワークWの位置を計算させる撮像開始のトリガ信号を、トリガ信号出力部52を介して視覚センサ4に送信する(ステップS4)。なお、各トリガ信号は、同時に送信される。
[Robot controller processing]
Next, processing by the robot control device 2 will be described with reference to FIGS. 3 is a flowchart showing the processing of the processing unit 5, FIGS. 4 and 5 are the processing of the servo driver 7, and FIG.
<Processing of processing unit (first half)>
As shown in FIG. 3, the control unit 60 of the processing unit 5 executes the work program stored in the memory 59 (Step S <b> 1), and the command signal transmission unit 51 causes the servo driver 7 to drive the robot 1. Is transmitted (step S2). Here, the control unit 60 determines whether or not it is the calculation position of the work W on the work program (step S3).
When the control unit 60 determines that it is the calculation position of the work W on the work program (step S3: YES), the control unit 60 stores the encoder value received from the encoder 15 in the encoder value storage unit 76 at the time of trigger. A trigger signal serving as a trigger is transmitted to the servo driver 7 via the trigger signal output unit 52 and an imaging start trigger signal for causing the camera 3 to calculate the position of the workpiece W is transmitted via the trigger signal output unit 52 to the visual sensor. 4 (step S4). Each trigger signal is transmitted simultaneously.

<サーボドライバの処理>
ここで、トリガ信号を受信したサーボドライバ7の処理について説明する。なお、サーボドライバ7においては、制御部78によるロボット1の駆動のサーボ制御処理と、処理部5の通信部53からのエンコーダ値を送信する旨の指令信号に基づき、エンコーダ値をエンコーダ値送信部77により処理部5に送信する処理とを行っているため、各処理に分けて説明する。
<Servo driver processing>
Here, the processing of the servo driver 7 that has received the trigger signal will be described. In the servo driver 7, the encoder value is transmitted to the encoder value transmission unit based on a servo control process for driving the robot 1 by the control unit 78 and a command signal for transmitting the encoder value from the communication unit 53 of the processing unit 5. 77, the process of transmitting to the processing unit 5 is performed.

(制御部の処理)
図4に示すように、制御部78は、エンコーダ値受信部74を制御して、エンコーダ15からエンコーダ値をエンコーダ値受信部74にて受信させる(ステップS21)。
次いで、制御部78は、エンコーダ15から受信したエンコーダ値をエンコーダ値記憶部75に記憶させる(ステップS22)。
次いで、制御部78は、トリガ信号入力部72がトリガ信号を受信したか否かを判断する(ステップS23)。ここで、制御部78が、トリガ信号入力部72がトリガ信号を受信したと判断した場合(ステップS23:YES)、制御部78は、トリガ信号を受信した時点におけるエンコーダ15からのエンコーダ値をトリガ時エンコーダ値記憶部76に記憶させる(ステップS24)。そして、制御部78は、指令信号受信部71にて受信したロボット1の駆動の指令信号に基づきロボット1を駆動させ、エンコーダ値記憶部75に記憶されたデータに基づき、サーボ制御を行う(ステップS25)。
一方、ステップS23において、制御部78が、トリガ信号入力部72がトリガ信号を受信していないと判断した場合(ステップS23:NO)、制御部78は、ステップS24の処理をすることなく、指令信号受信部71にて受信したロボット1の駆動の指令信号に基づきロボット1を駆動させ、エンコーダ値記憶部75に記憶されたデータに基づき、サーボ制御を行う(ステップS25)。
なお、この処理は一定の周期で繰り返される。
(Control processing)
As shown in FIG. 4, the control unit 78 controls the encoder value receiving unit 74 so that the encoder value receiving unit 74 receives an encoder value from the encoder 15 (step S <b> 21).
Next, the control unit 78 stores the encoder value received from the encoder 15 in the encoder value storage unit 75 (step S22).
Next, the control unit 78 determines whether or not the trigger signal input unit 72 has received the trigger signal (step S23). Here, when the control unit 78 determines that the trigger signal input unit 72 has received the trigger signal (step S23: YES), the control unit 78 triggers the encoder value from the encoder 15 when the trigger signal is received. It is stored in the hour encoder value storage unit 76 (step S24). Then, the control unit 78 drives the robot 1 based on the command signal for driving the robot 1 received by the command signal receiving unit 71, and performs servo control based on the data stored in the encoder value storage unit 75 (step). S25).
On the other hand, when the control unit 78 determines in step S23 that the trigger signal input unit 72 has not received the trigger signal (step S23: NO), the control unit 78 performs the command without performing the process of step S24. The robot 1 is driven based on the driving command signal of the robot 1 received by the signal receiving unit 71, and servo control is performed based on the data stored in the encoder value storage unit 75 (step S25).
This process is repeated at a constant cycle.

(エンコーダ値送信部の処理)
図5に示すように、エンコーダ値送信部77は、処理部5の通信部53からエンコーダ値を送信する旨の指令が通信部73にきたか否かを判断する(ステップS31)。ここで、エンコーダ値送信部77が、エンコーダ値を送信する旨の指令がきたと判断した場合(ステップS31:YES)、エンコーダ値送信部77は、エンコーダ値記憶部75及びトリガ時エンコーダ値記憶部76に記憶されたエンコーダ値を処理部5に送信する(ステップS32)。なお、通信部53からの指令信号は所定の周期で通信部73に送信されており、サーボドライバ7がエンコーダ15からエンコーダ値を受信する周期に比べて十分に長い。
(Processing of encoder value transmitter)
As shown in FIG. 5, the encoder value transmission unit 77 determines whether or not an instruction to transmit the encoder value from the communication unit 53 of the processing unit 5 has come to the communication unit 73 (step S31). Here, when the encoder value transmission unit 77 determines that an instruction to transmit the encoder value has been received (step S31: YES), the encoder value transmission unit 77 includes the encoder value storage unit 75 and the trigger encoder value storage unit. The encoder value stored in 76 is transmitted to the processing unit 5 (step S32). The command signal from the communication unit 53 is transmitted to the communication unit 73 at a predetermined cycle, which is sufficiently longer than the cycle in which the servo driver 7 receives the encoder value from the encoder 15.

<視覚センサの処理>
さらに、トリガ信号を受信した視覚センサ4の処理について説明する。
図6に示すように、視覚センサ4のトリガ信号入力部41は、処理部5からトリガ信号を受信したか否かを判断する(ステップS41)。
ここで、視覚センサ4は、処理部5からトリガ信号を受信したと判断した場合(ステップS41:YES)、視覚センサ4の撮像制御部42は、ワークWの撮像を開始させるシャッタ信号をカメラ3に送信する(ステップS42)。
次いで、視覚センサ4は、シャッタ信号を送信したカメラ3から撮像した画像のデータを画像データ受信部43で受信したか否かを判断する(ステップS43)。ここで、視覚センサ4は、カメラ3から撮像した画像のデータを画像データ受信部43で受信したと判断した場合(ステップS43:YES)、視覚センサ4の画像処理部44は、受信した画像データの画像処理を行う(ステップS44)。
次いで、視覚センサ4のワーク位置計算部45は、画像処理を施した画像データから視覚センサ座標系でのワークWの位置を計算する(ステップS45)。
次いで、視覚センサ4のワーク位置情報送信部46は、ステップS45にて計算された視覚センサ座標系でのワークWの位置情報を処理部5に送信し(ステップS46)、これをもって本処理を終了させる。
<Visual sensor processing>
Furthermore, the process of the visual sensor 4 that has received the trigger signal will be described.
As shown in FIG. 6, the trigger signal input unit 41 of the visual sensor 4 determines whether or not a trigger signal is received from the processing unit 5 (step S41).
Here, when the visual sensor 4 determines that the trigger signal has been received from the processing unit 5 (step S41: YES), the imaging control unit 42 of the visual sensor 4 transmits a shutter signal for starting imaging of the workpiece W to the camera 3. (Step S42).
Next, the visual sensor 4 determines whether or not the image data receiving unit 43 has received image data captured from the camera 3 that has transmitted the shutter signal (step S43). Here, when the visual sensor 4 determines that the image data receiving unit 43 has received the data of the image captured from the camera 3 (step S43: YES), the image processing unit 44 of the visual sensor 4 receives the received image data. Image processing is performed (step S44).
Next, the work position calculation unit 45 of the visual sensor 4 calculates the position of the work W in the visual sensor coordinate system from the image data subjected to the image processing (step S45).
Next, the work position information transmitting unit 46 of the visual sensor 4 transmits the position information of the work W in the visual sensor coordinate system calculated in step S45 to the processing unit 5 (step S46), and this process is terminated. Let

<処理部の処理(後半)>
再度、図3に戻って説明する。
図3に示すように、処理部5の制御部60は、サーボドライバ7及び視覚センサ4にトリガ信号出力部52を介してトリガ信号を同時に送信した後、サーボドライバ7からエンコーダ値を受信したか否かを判断する(ステップS5)。ここで、制御部60は、サーボドライバ7からエンコーダ値を受信したと判断した場合(ステップS5:YES)、制御部60は、受信したエンコーダ値をエンコーダ値記憶部57に記憶させる。そして、制御部60は、視覚センサ4から計算した視覚センサ座標系でのワークWの位置情報を受信したか否かを判断する(ステップS6)。ここで、制御部60は、サーボドライバ7から視覚センサ座標系でのワークWの位置情報を受信したと判断した場合(ステップS6:YES)、制御部60は、受信した視覚センサ座標系でのワークWの位置情報をワーク位置情報記憶部56に記憶させる。
次いで、処理部5の補正部58は、作業プログラムの補正に必要な補正量を算出し(ステップS7)、算出された補正量に基づいて作業プログラムを補正する(ステップS8)。
<Processing of processing unit (second half)>
Returning again to FIG.
As shown in FIG. 3, has the control unit 60 of the processing unit 5 received the encoder value from the servo driver 7 after simultaneously transmitting the trigger signal to the servo driver 7 and the visual sensor 4 via the trigger signal output unit 52? It is determined whether or not (step S5). Here, when the control unit 60 determines that the encoder value has been received from the servo driver 7 (step S5: YES), the control unit 60 causes the encoder value storage unit 57 to store the received encoder value. And the control part 60 judges whether the positional information on the workpiece | work W in the visual sensor coordinate system calculated from the visual sensor 4 was received (step S6). Here, when the control unit 60 determines that the position information of the workpiece W in the visual sensor coordinate system has been received from the servo driver 7 (step S6: YES), the control unit 60 receives the information in the received visual sensor coordinate system. The position information of the workpiece W is stored in the workpiece position information storage unit 56.
Next, the correction unit 58 of the processing unit 5 calculates a correction amount necessary for correcting the work program (step S7), and corrects the work program based on the calculated correction amount (step S8).

<補正値の算出について>
ここで、ステップS7で算出される補正量の算出について説明する。
サーボドライバ7から受信するエンコーダ15による各サーボモータ14の軸角度データは、ロボット座標系におけるデータである。従って、これらのデータから算出されるロボット1のアームの先端の位置は、ロボット座標系での位置を示している。すなわち、エンコーダ15により検出した軸角度データに基づいて算出されることから、その位置も当然ロボット基準となるロボット座標系での位置となる。
また、ロボット1のアームの先端に設けられたカメラ3により撮像される画像データにおけるワークWの位置データは、視覚センサ座標系である。そのため、ロボット1の動作によりロボット座標と視覚センサ座標との関係は変化する。しかし、カメラ3はロボット1のアームの先端に設けられていることからアームの先端とカメラ3との位置関係は既知である。
<Calculation of correction value>
Here, calculation of the correction amount calculated in step S7 will be described.
The axis angle data of each servo motor 14 by the encoder 15 received from the servo driver 7 is data in the robot coordinate system. Therefore, the position of the tip of the arm of the robot 1 calculated from these data indicates the position in the robot coordinate system. That is, since the position is calculated based on the shaft angle data detected by the encoder 15, the position is naturally the position in the robot coordinate system that is the robot reference.
The position data of the workpiece W in the image data captured by the camera 3 provided at the tip of the arm of the robot 1 is a visual sensor coordinate system. Therefore, the relationship between the robot coordinates and the visual sensor coordinates changes depending on the operation of the robot 1. However, since the camera 3 is provided at the tip of the arm of the robot 1, the positional relationship between the tip of the arm and the camera 3 is known.

従って、視覚センサ座標系とロボット座標との関係は、視覚センサ座標系で画像を撮像する時点におけるロボット1のアームの先端の位置がわかれば導き出すことができる。
本実施形態において、処理部5はトリガ信号をサーボドライバ7及び視覚センサ4に同時に送信しているので、カメラ3によりワークWを撮像した時点におけるエンコーダ15の検出した値(エンコーダ値)は、トリガ時エンコーダ値記憶部76に記憶されている。
よって、視覚センサ座標系とロボット座標系との間で位置データを座標変換することができる。
このような手法により、撮像画像におけるワークWの視覚センサ座標におけるワークWの位置をロボット座標でのワークWの位置に変換し、ロボット1のアームの先端との位置のずれ(補正量)を算出し、その位置ずれ分だけ作業プログラムを補正する。
Therefore, the relationship between the visual sensor coordinate system and the robot coordinates can be derived if the position of the tip of the arm of the robot 1 at the time of capturing an image in the visual sensor coordinate system is known.
In the present embodiment, since the processing unit 5 transmits the trigger signal to the servo driver 7 and the visual sensor 4 at the same time, the value (encoder value) detected by the encoder 15 when the work W is imaged by the camera 3 is the trigger. It is stored in the hour encoder value storage unit 76.
Therefore, the position data can be coordinate-converted between the visual sensor coordinate system and the robot coordinate system.
By such a method, the position of the workpiece W in the visual sensor coordinates of the workpiece W in the captured image is converted to the position of the workpiece W in the robot coordinates, and the positional deviation (correction amount) from the tip of the arm of the robot 1 is calculated. Then, the work program is corrected by the misalignment.

〔実施形態の効果〕
以上のように、ロボット制御装置2及びロボット制御装置2を備えたロボット制御システム100によれば、処理部5のトリガ信号出力部52により、視覚センサ4及びサーボドライバ7にトリガ信号を同時に送信すると、視覚センサ4の撮像制御部42はカメラ3にワークWの撮像を開始させ、撮像された画像の処理を行って視覚センサ座標系でのワークWの位置を計算するとともに、サーボドライバ7は、トリガ信号がトリガ信号入力部72に入力された時点におけるエンコーダ値を、エンコーダ値受信部74を介して取得し、取得したエンコーダ値をトリガ時エンコーダ値記憶部76に記憶させる。
そして、補正部58は、トリガ時エンコーダ値記憶部76に記憶されたトリガ信号送信時におけるエンコーダ値に基づいて算出されるロボット座標系でのロボット1の先端の位置と、トリガ信号送信時における視覚センサ座標系でのワークWの位置とに基づいてロボット1の位置の補正量を算出し、当該補正量に基づいてロボット1を駆動させる際の作業プログラムを補正する。
これにより、視覚センサ4は、トリガ信号送信時の視覚センサ座標系でのワークWの位置を取得することができ、サーボドライバ7はトリガ信号送信時のエンコーダ値を取得することができるので、視覚センサ4とロボット1とで位置を定める基準となる座標系を相互に変換することができるようになる。
よって、座標系が変換できるようになることで、従来のようにワークWの位置計算のたびにロボット1を停止させることなく、ロボット1を動作させた状態であっても視覚センサ4によるワーク位置の計算時のロボット1の位置データを取得してロボット1の作業プログラムを的確に補正することができる。
さらに、安価なトリガ信号入力部72をサーボドライバ7に設けるだけで、処理部5のロボット位置情報の更新周期を早めるために各部のCPU等(例えば制御部60)の演算装置を高性能にする必要がなくなるので、処理部5やサーボドライバ7にかかるコストの高騰を抑えることができる。
[Effect of the embodiment]
As described above, according to the robot control device 2 and the robot control system 100 including the robot control device 2, the trigger signal output unit 52 of the processing unit 5 transmits the trigger signal to the visual sensor 4 and the servo driver 7 at the same time. The imaging control unit 42 of the visual sensor 4 causes the camera 3 to start imaging the workpiece W, processes the captured image to calculate the position of the workpiece W in the visual sensor coordinate system, and the servo driver 7 The encoder value at the time when the trigger signal is input to the trigger signal input unit 72 is acquired via the encoder value receiving unit 74, and the acquired encoder value is stored in the encoder value storage unit 76 at the time of trigger.
The correction unit 58 then determines the position of the tip of the robot 1 in the robot coordinate system calculated based on the encoder value at the time of trigger signal transmission stored in the encoder value storage unit 76 at the time of trigger and the visual at the time of trigger signal transmission. A correction amount of the position of the robot 1 is calculated based on the position of the workpiece W in the sensor coordinate system, and a work program for driving the robot 1 is corrected based on the correction amount.
Thereby, the visual sensor 4 can acquire the position of the workpiece W in the visual sensor coordinate system at the time of trigger signal transmission, and the servo driver 7 can acquire the encoder value at the time of trigger signal transmission. A coordinate system that serves as a reference for determining the position between the sensor 4 and the robot 1 can be mutually converted.
Therefore, since the coordinate system can be converted, the work position by the visual sensor 4 can be obtained even when the robot 1 is operated without stopping the robot 1 every time the position of the work W is calculated as in the prior art. The position data of the robot 1 at the time of the calculation can be acquired and the work program of the robot 1 can be accurately corrected.
Furthermore, only by providing an inexpensive trigger signal input unit 72 in the servo driver 7, in order to speed up the update period of the robot position information of the processing unit 5, the arithmetic unit of the CPU or the like (for example, the control unit 60) of each unit has high performance. Since it is not necessary, it is possible to suppress an increase in the cost of the processing unit 5 and the servo driver 7.

〔その他〕
本発明は上記実施形態に限定されるものではない。例えば、位置検出手段としてエンコーダを用いたが、エンコーダに代えてレゾルバ等を用いて位置を検出してもよい。
また、複数のカメラを用いてステレオ視の原理によりワークを撮像していたが、一台のカメラでワークを撮像するようにしてもよい。
また、カメラはロボットの先端のハンドに設けられているが、カメラを定置式のものとし、ロボットのハンドでワークを把持してワークをそのカメラにより撮像するようにしてもよい。この場合、ロボットのハンドとワークの相対関係のずれ量によりワークの位置を計算できる。
また、処理部は、サーボドライバに対してエンコーダ値を当該処理部に送信する旨の信号を送信しているが、サーボドライバが処理部からトリガ信号を受信したときにサーボドライバが処理部にエンコーダ値を送信するようにしてもよい。
また、サーボドライバによるエンコーダデータの取得の周期、処理部によるサーボドライバからのエンコーダ値の受信の周期は、互いに異なるけれども一定の周期で行ったいたが、割り込み処理、例えば、ユーザからの指示入力等によってその取得の周期、受信の周期を変化させてもよい。
[Others]
The present invention is not limited to the above embodiment. For example, although the encoder is used as the position detection means, the position may be detected using a resolver or the like instead of the encoder.
Moreover, although the workpiece | work was imaged by the principle of the stereo vision using several cameras, you may make it image a workpiece | work with one camera.
Further, although the camera is provided at the hand at the tip of the robot, the camera may be a stationary type, and the work may be grasped by the robot hand and the work may be imaged by the camera. In this case, the position of the workpiece can be calculated from the amount of deviation of the relative relationship between the robot hand and the workpiece.
In addition, the processing unit transmits a signal indicating that the encoder value is transmitted to the processing unit to the servo driver, but when the servo driver receives a trigger signal from the processing unit, the servo driver sends an encoder to the processing unit. A value may be transmitted.
In addition, although the cycle of acquiring encoder data by the servo driver and the cycle of receiving encoder values from the servo driver by the processing unit are different from each other, they are performed at a constant cycle, but interrupt processing, for example, instruction input from the user, etc. The period of acquisition and the period of reception may be changed.

ロボットとロボット制御装置を有するロボット制御システムの全体構成図。1 is an overall configuration diagram of a robot control system having a robot and a robot control device. ロボットとロボット制御装置を有するロボット制御システムのブロック図。The block diagram of the robot control system which has a robot and a robot control apparatus. 処理部による処理のフローチャート。The flowchart of the process by a process part. サーボドライバの制御部による処理のフローチャート。The flowchart of the process by the control part of a servo driver. サーボドライバのエンコーダ値送信部による処理のフローチャート。The flowchart of the process by the encoder value transmission part of a servo driver. 視覚センサによる処理のフローチャート。The flowchart of the process by a visual sensor.

符号の説明Explanation of symbols

1 ロボット
2 ロボット制御装置
3 カメラ
4 視覚センサ
5 処理部(処理手段)
7 サーボドライバ
15 エンコーダ(位置検出手段)
42 撮像制御部(撮像制御手段)
52 トリガ信号出力部(トリガ信号送信手段)
58 補正部(補正手段)
72 トリガ信号入力部(トリガ信号入力手段)
74 エンコーダ値受信部(位置情報取得手段)
76 トリガ時エンコーダ値記憶部(位置情報記憶手段)
100 ロボット制御システム
DESCRIPTION OF SYMBOLS 1 Robot 2 Robot control apparatus 3 Camera 4 Visual sensor 5 Processing part (processing means)
7 Servo driver 15 Encoder (Position detection means)
42 Imaging control unit (imaging control means)
52 Trigger signal output unit (trigger signal transmission means)
58 Correction part (correction means)
72 Trigger signal input section (trigger signal input means)
74 Encoder value receiver (position information acquisition means)
76 Trigger encoder value storage (position information storage means)
100 Robot control system

Claims (2)

ロボットと、ワークを撮像するカメラと、前記カメラの撮像制御を行うとともに前記カメラで撮像された画像を処理する視覚センサとにより、前記カメラで撮像したワークの画像を前記視覚センサで処理することで、前記ワークの位置を計算し、計算された位置に対してロボットが向かうべき目標位置を補正するようにロボットの駆動を制御するロボット制御装置において、
前記ロボットの位置を検出する位置検出手段からロボットの位置情報を取得しながら前記ロボットの駆動を制御するサーボドライバと、
前記サーボドライバにロボットを駆動させるための指令信号を送信する処理部と、
前記視覚センサに対してワークの位置を計算させるトリガ信号を送信すると同時に、前記サーボドライバに対して前記ロボットの位置情報を取得して記憶させるためのトリガ信号を送信するトリガ信号送信手段と、
前記サーボドライバに備えられ、前記トリガ信号送信手段から送信されたトリガ信号が入力されるトリガ信号入力手段と、
前記トリガ信号入力手段にトリガ信号が入力された時点における前記位置検出手段から前記ロボットの位置情報を取得する位置情報取得手段と、
前記位置情報取得手段により取得した前記ロボットの位置情報を記憶する位置情報記憶手段と、
前記位置情報記憶手段に記憶された、前記トリガ信号送信手段によるトリガ信号送信時におけるロボットの位置情報と、前記視覚センサにより計算された前記トリガ信号送信手段によるトリガ信号送信時におけるワークの位置とに基づいてロボットの位置の補正量を算出し、当該補正量に基づいて前記ロボットを駆動させる際の作業プログラムを補正する補正手段と、
を備えることを特徴とするロボット制御装置。
By processing the image of the workpiece imaged by the camera with the robot, the camera for imaging the workpiece, and the visual sensor for performing the imaging control of the camera and processing the image captured by the camera, In the robot control device for controlling the driving of the robot so as to calculate the position of the workpiece and correct the target position to which the robot should go with respect to the calculated position,
A servo driver for controlling the driving of the robot while acquiring the position information of the robot from position detecting means for detecting the position of the robot;
A processing unit for transmitting a command signal for driving the robot to the servo driver;
A trigger signal transmitting means for transmitting a trigger signal for acquiring and storing the position information of the robot to the servo driver at the same time as transmitting a trigger signal for calculating the position of the workpiece to the visual sensor;
Trigger signal input means provided in the servo driver, to which a trigger signal transmitted from the trigger signal transmission means is input,
Position information acquisition means for acquiring position information of the robot from the position detection means at the time when a trigger signal is input to the trigger signal input means;
Position information storage means for storing position information of the robot acquired by the position information acquisition means;
The position information of the robot stored in the position information storage means when the trigger signal is transmitted by the trigger signal transmission means and the position of the workpiece when the trigger signal is transmitted by the trigger signal transmission means calculated by the visual sensor. A correction unit that calculates a correction amount of the position of the robot based on the correction amount and corrects a work program for driving the robot based on the correction amount;
A robot control device comprising:
複数の関節を有するロボットと、
ワークを撮像するカメラと、
前記ロボットに設けられ、ロボットの位置を検出する位置検出手段と、
前記カメラの撮像制御を行うとともに前記カメラで撮像された画像の処理を行ってワークの位置を計算する視覚センサと、
前記位置検出手段からロボットの位置情報を取得しながら前記ロボットの駆動を制御するサーボドライバと、
前記視覚センサから取得したワークの位置と前記サーボドライバから取得したロボットの位置情報とに基づいて、ロボットが向かうべき目標位置を補正する処理部と、を備え、
前記処理部は、前記視覚センサに対してワークの位置を計算させるトリガ信号を送信すると同時に、前記サーボドライバに対してロボットの位置情報を取得して記憶させるトリガ信号を送信するトリガ信号送信手段を有し、
前記サーボドライバは、前記トリガ信号送信手段から送信されたトリガ信号が入力されるトリガ信号入力手段と、前記トリガ信号入力手段にトリガ信号が入力された時点における前記位置検出手段から前記ロボットの位置情報を取得する位置情報取得手段と、前記位置情報取得手段により取得した前記ロボットの位置情報を記憶する位置情報記憶手段と、を有し、
前記視覚センサは、前記処理部からトリガ信号を受信したと同時に前記カメラによるワークの撮像を開始する撮像制御手段を有し、
前記処理部は、前記位置情報記憶手段に記憶された、前記トリガ信号送信手段によるトリガ信号送信時におけるロボットの位置と、前記視覚センサにより計算された前記トリガ信号送信手段によるトリガ信号送信時におけるワークの位置とに基づいてロボットの位置の補正量を算出し、当該補正量に基づいて前記ロボットを駆動させる際の作業プログラムを補正する補正手段を有する、
ことを特徴とするロボット制御システム。
A robot having a plurality of joints;
A camera for imaging the workpiece;
A position detecting means provided on the robot for detecting the position of the robot;
A visual sensor that performs imaging control of the camera and calculates the position of a workpiece by processing an image captured by the camera;
A servo driver for controlling the driving of the robot while acquiring the position information of the robot from the position detecting means;
A processing unit that corrects a target position to which the robot should go based on the position of the workpiece acquired from the visual sensor and the position information of the robot acquired from the servo driver,
The processing unit includes a trigger signal transmitting unit that transmits a trigger signal for calculating a position of a workpiece to the visual sensor and simultaneously transmitting a trigger signal for acquiring and storing the position information of the robot to the servo driver. Have
The servo driver includes: a trigger signal input unit to which a trigger signal transmitted from the trigger signal transmission unit is input; and position information of the robot from the position detection unit at the time when the trigger signal is input to the trigger signal input unit. Position information acquisition means for acquiring the position information storage means for storing the position information of the robot acquired by the position information acquisition means,
The visual sensor has imaging control means for starting imaging of a workpiece by the camera at the same time as receiving a trigger signal from the processing unit,
The processing unit stores the position of the robot at the time of trigger signal transmission by the trigger signal transmission unit and the work at the time of trigger signal transmission by the trigger signal transmission unit calculated by the visual sensor, stored in the position information storage unit. A correction unit that calculates a correction amount of the position of the robot based on the position of the robot, and corrects a work program for driving the robot based on the correction amount.
A robot control system characterized by that.
JP2007021435A 2007-01-31 2007-01-31 Robot control device and system Pending JP2008183690A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007021435A JP2008183690A (en) 2007-01-31 2007-01-31 Robot control device and system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007021435A JP2008183690A (en) 2007-01-31 2007-01-31 Robot control device and system

Publications (1)

Publication Number Publication Date
JP2008183690A true JP2008183690A (en) 2008-08-14

Family

ID=39727048

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007021435A Pending JP2008183690A (en) 2007-01-31 2007-01-31 Robot control device and system

Country Status (1)

Country Link
JP (1) JP2008183690A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102011009814A1 (en) 2010-03-05 2011-09-08 Fanuc Corporation Robotic system with visual sensor
CN102653099A (en) * 2011-03-04 2012-09-05 精工爱普生株式会社 Robot-position detecting device and robot system
KR101421672B1 (en) 2012-03-23 2014-07-28 경북대학교 산학협력단 robot vision monitoring system using trigger signal, and method thereof
JP2020069614A (en) * 2018-11-01 2020-05-07 ファナック株式会社 Robot system
CN111152243A (en) * 2018-11-08 2020-05-15 发那科株式会社 Control system
WO2020121399A1 (en) * 2018-12-11 2020-06-18 株式会社Fuji Robot control system and robot control method
JP2020116711A (en) * 2019-01-25 2020-08-06 株式会社ソニー・インタラクティブエンタテインメント Robot control system
JP2020157398A (en) * 2019-03-25 2020-10-01 ファナック株式会社 Operation adjustment device for adjusting operation of robot device and operation adjustment method for adjusting operation of robot device
US11192254B2 (en) * 2018-12-18 2021-12-07 Fanuc Corporation Robot system and adjustment method therefor
WO2023138536A1 (en) * 2022-01-20 2023-07-27 华为技术有限公司 Motor control system, motor control method, and motor driving and forwarding device

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004249391A (en) * 2003-02-19 2004-09-09 Fanuc Ltd Workpiece carrier

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004249391A (en) * 2003-02-19 2004-09-09 Fanuc Ltd Workpiece carrier

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102011009814A1 (en) 2010-03-05 2011-09-08 Fanuc Corporation Robotic system with visual sensor
US8326460B2 (en) 2010-03-05 2012-12-04 Fanuc Corporation Robot system comprising visual sensor
DE102011009814B4 (en) 2010-03-05 2018-09-06 Fanuc Corporation Robotic system with visual sensor
CN102653099A (en) * 2011-03-04 2012-09-05 精工爱普生株式会社 Robot-position detecting device and robot system
US20120226382A1 (en) * 2011-03-04 2012-09-06 Seiko Epson Corporation Robot-position detecting device and robot system
JP2012183606A (en) * 2011-03-04 2012-09-27 Seiko Epson Corp Robot-position detecting device and robot system
US8768508B2 (en) * 2011-03-04 2014-07-01 Seiko Epson Corporation Robot-position detecting device and robot system
US9586319B2 (en) 2011-03-04 2017-03-07 Seiko Epson Corporation Robot-position detecting device and robot system
KR101421672B1 (en) 2012-03-23 2014-07-28 경북대학교 산학협력단 robot vision monitoring system using trigger signal, and method thereof
JP2020069614A (en) * 2018-11-01 2020-05-07 ファナック株式会社 Robot system
US11241797B2 (en) 2018-11-08 2022-02-08 Fanuc Corporation Control system
CN111152243B (en) * 2018-11-08 2024-02-06 发那科株式会社 Control system
JP2020075327A (en) * 2018-11-08 2020-05-21 ファナック株式会社 Control system
CN111152243A (en) * 2018-11-08 2020-05-15 发那科株式会社 Control system
WO2020121399A1 (en) * 2018-12-11 2020-06-18 株式会社Fuji Robot control system and robot control method
CN113015604A (en) * 2018-12-11 2021-06-22 株式会社富士 Robot control system and robot control method
JPWO2020121399A1 (en) * 2018-12-11 2021-09-02 株式会社Fuji Robot control system and robot control method
JP7057841B2 (en) 2018-12-11 2022-04-20 株式会社Fuji Robot control system and robot control method
CN113015604B (en) * 2018-12-11 2024-03-08 株式会社富士 Robot control system and robot control method
US11192254B2 (en) * 2018-12-18 2021-12-07 Fanuc Corporation Robot system and adjustment method therefor
JP2020116711A (en) * 2019-01-25 2020-08-06 株式会社ソニー・インタラクティブエンタテインメント Robot control system
JP7309371B2 (en) 2019-01-25 2023-07-18 株式会社ソニー・インタラクティブエンタテインメント robot control system
JP2020157398A (en) * 2019-03-25 2020-10-01 ファナック株式会社 Operation adjustment device for adjusting operation of robot device and operation adjustment method for adjusting operation of robot device
US11534908B2 (en) 2019-03-25 2022-12-27 Fanuc Corporation Operation adjustment apparatus for adjusting operation of robot apparatus and operation adjustment method for adjusting operation of robot apparatus
WO2023138536A1 (en) * 2022-01-20 2023-07-27 华为技术有限公司 Motor control system, motor control method, and motor driving and forwarding device

Similar Documents

Publication Publication Date Title
JP2008183690A (en) Robot control device and system
US8326460B2 (en) Robot system comprising visual sensor
JP4961860B2 (en) Robot apparatus and control method of robot apparatus
JP6420229B2 (en) A robot system including a video display device that superimposes and displays an image of a virtual object on a video of a robot
US9457472B2 (en) Position detection device for robot, robotic system, and position detection method for robot
JP5860021B2 (en) Fastening device, robot system, and fastening method for fastening a plurality of fastening members
JP5272617B2 (en) Robot apparatus and control method of robot apparatus
JP6622765B2 (en) Robot system
JP2007011978A (en) Motion controller for robot
JP6816070B2 (en) Interference avoidance device and robot system
JP2010112859A (en) Robot system, robot control device, and method for controlling robot
JP2009083094A (en) Control method of robot device, and the robot device
CN109421049B (en) Robot system
JP2014161950A (en) Robot system, robot control method, and robot calibration method
JP2014065100A (en) Robot system and method for teaching robot
JP2019119027A (en) Method of controlling robot system, and robot system
US11376732B2 (en) Robot system for correcting teaching of robot using image processing
JP7502003B2 (en) Apparatus and method for acquiring deviation of moving trajectory of moving machine
JP2006224291A (en) Robot system
JP2010172992A (en) Device and method for controlling robot
JP2015127096A (en) Robot system
WO2017141569A1 (en) Control device, control system, control method, and program
JP2016203282A (en) Robot with mechanism for changing end effector attitude
JP5200866B2 (en) Robot system, robot control apparatus, and robot control method
JP2021146445A (en) Calibration method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100107

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101125

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101202

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110920

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120131