JP2012228757A - Teaching method of robot, teaching device of robot, and program - Google Patents

Teaching method of robot, teaching device of robot, and program Download PDF

Info

Publication number
JP2012228757A
JP2012228757A JP2011099242A JP2011099242A JP2012228757A JP 2012228757 A JP2012228757 A JP 2012228757A JP 2011099242 A JP2011099242 A JP 2011099242A JP 2011099242 A JP2011099242 A JP 2011099242A JP 2012228757 A JP2012228757 A JP 2012228757A
Authority
JP
Japan
Prior art keywords
robot
teaching
marker
information
workpiece
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011099242A
Other languages
Japanese (ja)
Inventor
Tatsuya Matsudo
達哉 松土
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2011099242A priority Critical patent/JP2012228757A/en
Publication of JP2012228757A publication Critical patent/JP2012228757A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Numerical Control (AREA)
  • Manipulator (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a teaching method of a robot easily teaching information about work to be performed by the robot.SOLUTION: The teaching method of a robot is for teaching the robot 1 operations related to the work to be performed to a workpiece 10, and includes: an image capturing step (step S2) of obtaining captured images of the workpiece 10 having a marker 15 by a camera 6 provided to the robot 1; a detection step (step S3) of detecting the marker 15 from the captured image; analysis steps (steps S4, S5) of analyzing the marker 15 and obtaining teaching information for making the robot 1 perform operations; and a storage step (step S6) of storing the teaching information.

Description

本発明は、ロボットに動作を教示するためのロボット教示方法と、このロボット教示方法に基づいてロボットに動作を教示することが可能なロボット教示装置と、ロボット教示方法に準拠しロボット教示装置に搭載可能なプログラムと、に関する。   The present invention provides a robot teaching method for teaching a robot to motion, a robot teaching device capable of teaching the robot based on the robot teaching method, and a robot teaching device based on the robot teaching method. About possible programs.

従来、ロボットの教示方法として、ロボットが有する関節の数以上の自由度を有する教示用アームを用いる方法が開示されており、この方法によれば、教示用アームの先端を変位させることで、ロボットに対して該変位を教示する。つまり、教示作業の際に、教示用アームの変位量に応じてロボットのアームが連動するようになっていて、実際のロボットを操作することなく、ロボットの教示ができ、しかも極めて直感的に行うことが可能である。(例えば特許文献1)。   Conventionally, as a teaching method for a robot, a method using a teaching arm having a degree of freedom equal to or greater than the number of joints of the robot has been disclosed. According to this method, a robot is moved by displacing the tip of the teaching arm. The displacement is taught. That is, during teaching work, the robot arm is interlocked according to the amount of displacement of the teaching arm, so that the robot can be taught without operating the actual robot, and it is extremely intuitive. It is possible. (For example, patent document 1).

特開2006−346827号公報JP 2006-346827 A

しかし、特許文献1においては、直感的に教示が可能な情報は、ロボットの位置や姿勢に関する形態情報に留まっている。つまり、ロボットがその位置およびその姿勢でどのような作業、即ち動作を行なうのか、といった動作情報は、別途データベース等から得なくてはならない。この場合、該形態情報と該動作情報との整合性をとらなくてはならず、この整合作業がたいへん煩雑である、という課題があった。   However, in Patent Document 1, the information that can be taught intuitively remains in the form information regarding the position and posture of the robot. That is, operation information such as what kind of work, that is, operation, the robot performs at its position and its posture must be obtained from a separate database or the like. In this case, there is a problem that consistency between the form information and the operation information has to be taken, and this matching work is very complicated.

本発明は、上記課題の少なくとも一部を解決するためになされたものであり、以下の適用例または形態として実現することが可能である。   SUMMARY An advantage of some aspects of the invention is to solve at least a part of the problems described above, and the invention can be implemented as the following application examples or forms.

[適用例1]本適用例に係るロボット教示方法は、ワークに対して行なう作業に関わる動作をロボットへ教示するための方法であって、前記ロボットに備えられた撮影装置によって、マーカーを有する前記ワークの撮像を取得する撮影ステップと、前記撮像から前記マーカーを検出する検出ステップと、前記マーカーを解析して、前記ロボットが前記動作をするための教示情報を取得する解析ステップと、前記教示情報を記憶する記憶ステップと、を有する、ことを特徴とする。   [Application Example 1] A robot teaching method according to this application example is a method for teaching a robot an operation related to a work to be performed on a workpiece, and includes the marker provided by the imaging device provided in the robot. An imaging step for acquiring an image of a workpiece, a detecting step for detecting the marker from the imaging, an analyzing step for analyzing the marker and acquiring teaching information for the robot to perform the operation, and the teaching information And a storing step for storing.

このロボット教示方法によれば、ロボットに動作を教示するために、まず撮影ステップにおいて、ワークの撮像を取得し、次いで、検出ステップにおいて、取得した撮像からマーカーを検出する。このマーカーは、ロボットが作業の動作を行なうワークの側に配置されていて、該作業を行なうためのロボットの動作を示す教示情報を含んでいる。教示情報とは、例えば、ワークへねじ等の部材を取り付ける作業の場合、ワークの取付穴に対し、ねじをどの方向からどのくらいのトルクで締め付けるか等を示す情報である。解析ステップでは、この教示情報を、マーカーを解析することによって取得する。そして、記憶ステップにおいて、該教示情報をロボットに係る記憶装置に記憶する。このように、ロボット教示方法は、ロボットの位置や姿勢に関する形態情報と、ロボットがその位置およびその姿勢で行なう作業に関する動作情報と、を、ワークに配置されたマーカーから一括して取得する。そのため、従来のように、別々に取得した形態情報および動作情報の整合性を図る必要がほとんどない。また、ロボットへの教示情報の変更も、マーカーを変更することで容易に行なえるようになるため、変更の迅速化が可能である。   According to this robot teaching method, in order to teach an operation to the robot, first, an image of a workpiece is acquired in an imaging step, and then a marker is detected from the acquired imaging in a detection step. This marker is arranged on the side of the workpiece on which the robot performs the operation of the work, and includes teaching information indicating the operation of the robot for performing the operation. The teaching information is information indicating, for example, from which direction and how much torque the screw is tightened with respect to the mounting hole of the workpiece in the operation of attaching a member such as a screw to the workpiece. In the analysis step, the teaching information is acquired by analyzing the marker. In the storing step, the teaching information is stored in a storage device related to the robot. As described above, the robot teaching method collectively obtains form information relating to the position and posture of the robot and operation information relating to work performed by the robot at the position and posture from the markers arranged on the workpiece. For this reason, unlike the conventional case, there is almost no need to achieve consistency between separately acquired form information and operation information. In addition, the teaching information to the robot can be easily changed by changing the marker, so that the change can be speeded up.

[適用例2]上記適用例に係るロボット教示方法において、前記マーカーは、前記ワークへの前記作業が行なわれる位置の近傍に配置され、前記教示情報を含む二次元コードを有している、ことが好ましい。   Application Example 2 In the robot teaching method according to the application example, the marker is arranged in the vicinity of a position where the work is performed on the workpiece, and has a two-dimensional code including the teaching information. Is preferred.

この方法によれば、マーカーは、二次元コードの形式で教示情報を保有しているため、多量の情報を有することができ、狭いスペースに配置されても、教示情報として必要十分な情報を有することが可能である。また、マーカーは、ワークへの作業が行なわれる位置近傍に配置されているため、撮影装置を当該位置へ概略移動させるだけで、マーカーの撮像を取得することが可能である。   According to this method, since the marker has teaching information in the form of a two-dimensional code, it can have a large amount of information, and has necessary and sufficient information as teaching information even if it is arranged in a narrow space. It is possible. In addition, since the marker is arranged in the vicinity of the position where the work is performed, it is possible to acquire the imaging of the marker only by roughly moving the photographing apparatus to the position.

[適用例3]本記適用例に係るロボット教示装置は、ワークに対して行なう作業に関わる動作をロボットへ教示するためのものであって、前記ロボットに備えられた撮影装置によって、マーカーを有する前記ワークの撮像を取得する撮影部と、前記撮像から前記マーカーを検出する検出部と、前記マーカーを解析して、前記ロボットが前記動作をするための教示情報を取得する解析部と、前記教示情報を記憶する記憶部と、を有する、ことを特徴とする。   Application Example 3 A robot teaching apparatus according to this application example is for teaching a robot about an operation related to a work performed on a workpiece, and has a marker by an imaging apparatus provided in the robot. An imaging unit that acquires an image of the workpiece, a detection unit that detects the marker from the imaging, an analysis unit that analyzes the marker and acquires teaching information for the robot to perform the operation, and the teaching And a storage unit for storing information.

このロボット教示装置によれば、ロボットに動作を教示するために、まず撮影部によって、ワークの撮像を取得し、次いで、検出部によって、取得した撮像からマーカーを検出する。このマーカーは、ロボットが作業の動作を行なうワークの側に配置されていて、該作業を行なうためのロボットの動作を示す教示情報を含んでいる。教示情報とは、例えば、ワークへねじ等の部材を取り付ける作業の場合、ワークの取付穴に対し、ねじをどの方向からどのくらいのトルクで締め付けるか等を示す情報である。解析部は、この教示情報を、マーカーを解析することによって取得する。そして、記憶部は、該教示情報をロボットに係る記憶装置に記憶する。このように、ロボット教示装置は、ロボットの位置や姿勢に関する形態情報と、ロボットがその位置およびその姿勢で行なう動作に関する動作情報と、を、ワークに配置されたマーカーから一括して取得する。そのため、従来のように、別々に取得した形態情報および動作情報の整合性を図る必要がほとんどない。また、ロボットへの教示情報の変更も、マーカーを変更するだけで可能となり、変更したマーカーをロボット教示装置が取得することにより、容易に行なえるようになる。そのため、教示情報において、その変更の迅速化を図ることが可能である。   According to this robot teaching apparatus, in order to teach a robot to perform an operation, first, an imaging of a workpiece is acquired by an imaging unit, and then a marker is detected from the acquired imaging by a detection unit. This marker is arranged on the side of the workpiece on which the robot performs the operation of the work, and includes teaching information indicating the operation of the robot for performing the operation. The teaching information is information indicating, for example, from which direction and how much torque the screw is tightened with respect to the mounting hole of the workpiece in the operation of attaching a member such as a screw to the workpiece. The analysis unit acquires the teaching information by analyzing the marker. Then, the storage unit stores the teaching information in a storage device related to the robot. As described above, the robot teaching apparatus collectively acquires form information related to the position and posture of the robot and operation information related to the operation performed by the robot at the position and posture from the markers arranged on the workpiece. For this reason, unlike the conventional case, there is almost no need to achieve consistency between separately acquired form information and operation information. In addition, the teaching information to the robot can be changed only by changing the marker, and the robot teaching device acquires the changed marker so that it can be easily performed. Therefore, it is possible to speed up the change in the teaching information.

[適用例4]本適用例に係るプログラムは、ワークに対して行なう作業に関わる動作をロボットへ教示する制御を実行するためのものであって、前記ロボットに備えられた撮影装置によって、マーカーを有する前記ワークの撮像を取得する撮影ステップと、前記撮像から前記マーカーを検出する検出ステップと、前記マーカーを解析して、前記ロボットが前記動作をするための教示情報を取得する解析ステップと、前記教示情報を記憶する記憶ステップと、を前記ロボットへ教示する、ことを特徴とする。   Application Example 4 A program according to this application example is for executing control for teaching a robot an operation related to a work to be performed on a workpiece, and a marker is set by an imaging device provided in the robot. An imaging step for acquiring an image of the workpiece, a detection step for detecting the marker from the imaging, an analysis step for analyzing the marker and acquiring teaching information for the robot to perform the operation, A storage step of storing teaching information is taught to the robot.

このプログラムによれば、ロボットに動作を教示するために、まず撮影ステップにおいて、ワークの撮像を取得し、次いで、検出ステップにおいて、取得した撮像からマーカーを検出する。このマーカーは、ロボットが作業の動作を行なうワークの側に配置されていて、該作業を行なうためのロボットの動作を示す教示情報を含んでいる。教示情報とは、例えば、ワークへねじ等の部材を取り付ける作業の場合、ワークの取付穴に対し、ねじをどの方向からどのくらいのトルクで締め付けるか等を示す情報である。解析ステップでは、この教示情報を、マーカーを解析することによって取得する。そして、記憶ステップにおいて、該教示情報をロボットに係る記憶装置に記憶する。このように、プログラムでは、ロボットの位置や姿勢に関する形態情報と、ロボットがその位置およびその姿勢で行なう動作に関する動作情報と、を、ワークに配置されたマーカーから一括して取得してプログラムへ組み込む。そのため、従来のように、別々に取得した形態情報および動作情報の整合性を図る必要がほとんどない。また、ロボットへの教示情報の変更も、マーカーを変更することによりプログラムへ組み込めるため、容易に行なうことが可能である。   According to this program, in order to teach the operation to the robot, first, an image of the workpiece is acquired in the imaging step, and then a marker is detected from the acquired imaging in the detection step. This marker is arranged on the side of the workpiece on which the robot performs the operation of the work, and includes teaching information indicating the operation of the robot for performing the operation. The teaching information is information indicating, for example, from which direction and how much torque the screw is tightened with respect to the mounting hole of the workpiece in the operation of attaching a member such as a screw to the workpiece. In the analysis step, the teaching information is acquired by analyzing the marker. In the storing step, the teaching information is stored in a storage device related to the robot. As described above, in the program, the configuration information relating to the position and orientation of the robot and the operation information relating to the operation performed by the robot in the position and orientation are collectively acquired from the markers arranged on the workpiece and incorporated into the program. . For this reason, unlike the conventional case, there is almost no need to achieve consistency between separately acquired form information and operation information. In addition, the teaching information to the robot can be easily changed because it can be incorporated into the program by changing the marker.

ロボットへの教示の一形態に係る構成例を示す斜視図。The perspective view which shows the structural example which concerns on one form of the teaching to a robot. ロボットの教示装置に係る構成を示すブロック図。The block diagram which shows the structure which concerns on the teaching apparatus of a robot. ロボットへの教示手順を示すフローチャート。The flowchart which shows the teaching procedure to a robot. (a)ワークへカメラを移動させる状態を示す斜視図、(b)マーカー情報の取得を示す斜視図。(A) The perspective view which shows the state which moves a camera to a workpiece | work, (b) The perspective view which shows acquisition of marker information. (a)ねじの把持状態を示す斜視図、(b)ねじの取付部への移動状態を示す斜視図、(c)ねじの取付状態を示す斜視図。(A) The perspective view which shows the holding state of a screw, (b) The perspective view which shows the movement state to the attachment part of a screw, (c) The perspective view which shows the attachment state of a screw.

以下、本発明のロボット教示方法、ロボット教示装置およびプログラムにおける好適な一例について、添付図面を参照して説明する。
(実施形態)
Preferred examples of the robot teaching method, robot teaching apparatus and program of the present invention will be described below with reference to the accompanying drawings.
(Embodiment)

図1は、ロボットへの教示の一形態に係る構成例を示す斜視図である。図1は、ワーク10へ、ねじ21またはねじ22の部材を取り付ける作業を、ロボット1へ教示する場合を一例として示している。このロボット1は、直線状のアーム部3と、アーム部3の回動動作の支点である関節部2と、支持部7と、を有し、支持部7から順に、関節部2およびアーム部3を一組として三組が延伸している構成となっている。また、ロボット1は、支持部7から最遠位置のアーム部3の先端に、3本の指からなり部材を把持するための把持部5を有している。つまり、ロボット1は、関節部2およびアーム部3により自在な動作が可能な、いわゆる多関節ロボットである。さらに、ロボット1は、支持部7に隣接して設けられロボット1の動作を制御するためのロボット制御装置4と、ロボット制御装置4に接続している教示部8と、把持部5が設けられているアーム部3に配置されたカメラ(撮影装置)6と、を有している。このカメラ6は、取り付けられているアーム部3の先端方向を撮影するように配置されている。   FIG. 1 is a perspective view illustrating a configuration example according to one form of teaching to a robot. FIG. 1 shows, as an example, a case where the robot 1 is instructed to attach the screw 21 or the screw 22 to the workpiece 10. The robot 1 includes a linear arm portion 3, a joint portion 2 that is a fulcrum of the pivoting operation of the arm portion 3, and a support portion 7. The joint portion 2 and the arm portion are sequentially arranged from the support portion 7. It is the structure which three sets are extending | stretching considering 3 as one set. In addition, the robot 1 has a gripping part 5 made of three fingers for gripping a member at the tip of the arm part 3 farthest from the support part 7. That is, the robot 1 is a so-called multi-joint robot that can be freely operated by the joint portion 2 and the arm portion 3. Further, the robot 1 is provided with a robot control device 4 provided adjacent to the support unit 7 for controlling the operation of the robot 1, a teaching unit 8 connected to the robot control device 4, and a gripping unit 5. A camera (photographing device) 6 disposed on the arm unit 3. The camera 6 is arranged so as to photograph the tip direction of the arm portion 3 to which the camera 6 is attached.

ロボット1が動作を行なう対象であるワーク10は、ねじ21,22を取り付ける作業が行なわれる位置である取付部11と、取付部11へ、ねじ21,22を取り付ける動作をロボット1へ教示するための情報である、教示情報を示す二次元コードを有するマーカー15と、を備えている。実作業の場合、ワーク10は、ベルトコンベアー12によって、順次、作業位置へ正確に搬送されるようになっている。また、ねじ21,22は、パーツフィーダー(不図示)により整列した状態で、供給部A,Bの所定位置にそれぞれ並べられている。これらワーク10および供給部A,Bは、ロボット1の作業可能な範囲内に配置されている。   The workpiece 10 to which the robot 1 operates is to teach the robot 1 the operation of attaching the screws 21 and 22 to the attachment portion 11 and the attachment portion 11 where the work of attaching the screws 21 and 22 is performed. And a marker 15 having a two-dimensional code indicating teaching information. In the case of actual work, the work 10 is sequentially and accurately conveyed to the work position by the belt conveyor 12. Further, the screws 21 and 22 are arranged at predetermined positions of the supply units A and B in a state of being aligned by a parts feeder (not shown). The workpiece 10 and the supply units A and B are arranged within a range where the robot 1 can work.

ここで、教示部8は、いわゆるティーチングペンダントであって、ロボット1に対し、ワーク10の取付部11へねじ21,22を取り付ける作業に関わる動作の教示を補助的に行なうためのものである。教示部8は、各種データやカメラ6による撮像等を表示するための液晶表示部8aと、データ等を入力するための操作部8bと、ロボット制御装置4へ接続するためのケーブル8cと、を有していて、ロボット制御装置4と共にロボット教示装置として機能する。また、マーカー15は、ワーク10の取付部11の近傍に印刷された二次元コードであって、二次元コードには、ねじ21,22を取付部11へ取り付ける作業に関わる、ロボット1の動作を教示するための教示情報が記されている。また、教示部8は、ロボット制御装置4を介して、関節部2、アーム部3およびカメラ6を制御し、カメラ6で撮影したマーカー15の撮像を解析して取得した、教示情報を得るために機能する。これら一連の教示方法については、図3を参照して後述する。   Here, the teaching unit 8 is a so-called teaching pendant, and is intended to assist the robot 1 in teaching operations related to the operation of attaching the screws 21 and 22 to the attachment unit 11 of the workpiece 10. The teaching unit 8 includes a liquid crystal display unit 8 a for displaying various data and images taken by the camera 6, an operation unit 8 b for inputting data and the like, and a cable 8 c for connecting to the robot control device 4. It functions as a robot teaching device together with the robot control device 4. The marker 15 is a two-dimensional code printed in the vicinity of the attachment portion 11 of the workpiece 10, and the two-dimensional code indicates the operation of the robot 1 related to the operation of attaching the screws 21 and 22 to the attachment portion 11. Teaching information for teaching is written. In addition, the teaching unit 8 controls the joint unit 2, the arm unit 3, and the camera 6 via the robot control device 4, and obtains teaching information obtained by analyzing the imaging of the marker 15 captured by the camera 6. To work. A series of these teaching methods will be described later with reference to FIG.

そして、マーカー15の有する二次元コードは、水平方向および垂直方向の二次元方向に情報を持つコードであって、例えば一次元コードであるバーコード等と比較すると、少面積の中に多大な情報量を持つことが可能である。また、二次元コードは、漢字、かな、英字、数字およびバイナリーデータ等を扱うことができる。本実施形態において、二次元コードは、教示情報として、取付部11に取り付けるのは供給部Aに供されているねじ21である、という部材のデータや、ワーク10の上面に形成されている取付部11に、ねじ21を取り付ける、という取り付け位置を示すデータや、取付部11が該上面に対して垂直方向のねじ穴である、という取り付け方向を示すデータや、ねじ21を右方向に回転させて、例えば、トルク5N・mで締める、という取り付け方法のデータ等を含んでいる。   The two-dimensional code possessed by the marker 15 is a code having information in the two-dimensional direction of the horizontal direction and the vertical direction. Compared with, for example, a barcode which is a one-dimensional code, a large amount of information is obtained in a small area. It is possible to have a quantity. The two-dimensional code can handle kanji, kana, alphabetic characters, numbers, binary data, and the like. In the present embodiment, the two-dimensional code is, as teaching information, data of a member that is attached to the attachment portion 11 is the screw 21 provided to the supply portion A, or attachment formed on the upper surface of the workpiece 10. Data indicating the mounting position of attaching the screw 21 to the portion 11, data indicating the mounting direction that the mounting portion 11 is a screw hole perpendicular to the upper surface, and rotating the screw 21 to the right. For example, it includes data on an attachment method of tightening with a torque of 5 N · m.

次に、ロボット1における動作の教示を制御し、教示部8とロボット制御装置4とから成って機能するロボット教示装置の構成について説明する。図2は、ロボットの教示装置の構成を示すブロック図である。図2に示すロボット1は、厳密には、ロボット駆動に関わる関節部2、アーム部3および把持部5を指している。図2を参照して、ロボット教示装置のロボット制御装置4は、マーカー15を含むワーク10の撮像を取得するためにカメラ6の制御をするカメラ制御部(撮影部)41と、該撮像を解析して教示情報を取得するマーカー情報解析部(解析部)42と、ロボット1の動作を制御するロボット駆動制御部43と、教示部8との接続をするための入出力インターフェース44と、を有している。そして、ロボット制御装置4は、ロボット駆動制御部43が参照してロボット1を制御するためのプログラム等が記憶されているROM(Read Only Memory)47と、カメラ6が撮影したワーク10の撮像および撮像に含まれているマーカー15から取得した教示情報を一時的に記憶しておくRAM(Random Access Memory)46と、ROM47に記憶されているプログラム等の情報に基づきカメラ制御部41、マーカー情報解析部42およびロボット駆動制御部43の制御を実行するCPU(Central Processing Unit)45と、を有している。なお、ROM47は、いわゆるフラッシュメモリーであって、ロボット1への教示がなされた後、記憶部として教示情報を記憶する。   Next, the configuration of a robot teaching device that controls teaching of operations in the robot 1 and functions by the teaching unit 8 and the robot control device 4 will be described. FIG. 2 is a block diagram showing the configuration of the robot teaching apparatus. Strictly speaking, the robot 1 shown in FIG. 2 indicates the joint portion 2, the arm portion 3, and the grip portion 5 that are involved in driving the robot. Referring to FIG. 2, the robot control device 4 of the robot teaching device analyzes a camera control unit (imaging unit) 41 that controls the camera 6 in order to obtain an image of the workpiece 10 including the marker 15. A marker information analysis unit (analysis unit) 42 for acquiring teaching information, a robot drive control unit 43 for controlling the operation of the robot 1, and an input / output interface 44 for connecting to the teaching unit 8. doing. Then, the robot control device 4 refers to a ROM (Read Only Memory) 47 in which a program for controlling the robot 1 with reference to the robot drive control unit 43 is stored, and an image of the workpiece 10 photographed by the camera 6 and Based on information such as a RAM (Random Access Memory) 46 that temporarily stores teaching information acquired from the marker 15 included in the imaging and a program stored in the ROM 47, the camera control unit 41 and marker information analysis A CPU (Central Processing Unit) 45 that executes control of the unit 42 and the robot drive control unit 43. The ROM 47 is a so-called flash memory, and stores teaching information as a storage unit after teaching the robot 1.

以上のようなロボット1、ねじ21,22、ワーク10および教示部8による構成において、ねじ21、または、ねじ22のいずれかをワーク10へ取り付ける締付作業を一例として取り上げ、この締付作業をロボットに教示する場合の具体的手順を説明する。図3は、ロボットへの教示手順を示すフローチャートである。そして、図4(a)は、ワークへカメラを移動させる状態を示す斜視図、図4(b)は、マーカー情報の取得を示す斜視図である。図3に示すフローチャートは、ロボット教示部である教示部8およびロボット制御装置4が、ロボット1の関節部2、アーム部3、把持部5およびカメラ6を制御し、ロボット1へ締付作業に関わる動作の教示をするステップを示している。また、図4は、フローチャートの主要なステップにおけるロボット1への教示状態を示している。   In the configuration including the robot 1, the screws 21 and 22, the workpiece 10, and the teaching unit 8 as described above, a tightening operation for attaching either the screw 21 or the screw 22 to the workpiece 10 is taken as an example, and this tightening operation is A specific procedure for teaching the robot will be described. FIG. 3 is a flowchart showing a procedure for teaching the robot. FIG. 4A is a perspective view showing a state in which the camera is moved to the workpiece, and FIG. 4B is a perspective view showing acquisition of marker information. In the flowchart shown in FIG. 3, the teaching unit 8 and the robot control device 4, which are robot teaching units, control the joint unit 2, arm unit 3, gripping unit 5, and camera 6 of the robot 1, and tighten the robot 1. The steps for teaching the related operations are shown. FIG. 4 shows the teaching state to the robot 1 in the main steps of the flowchart.

まず、ステップS1において、ワーク10の近傍へ移動する。詳細には、教示部8に入力されたワーク10の位置情報およびロボット1への指示情報に基づき、ロボット制御装置4が関節部2およびアーム部3を制御して、アーム部3に取り付けられているカメラ6をワーク10の近傍まで移動させる。ワーク10の位置情報は、所定位置にあるワーク10の位置を座標値で示した情報であり、指示情報は、ワーク10へカメラ6を移動するための命令情報である。所定位置へ移動したカメラ6は、図4(a)に示すように、ワーク10の方向へ向いており、ワーク10の取付部11およびマーカー15と対面するように位置した状態となっている。この場合、カメラ6が、取付部11の近傍に印刷されているマーカー15を含む撮像を得ることが可能な、好ましい位置に移動しているか否かは、教示部8の液晶表示部8aで確認することができる。そして、カメラ6がワーク10の近傍へ移動したと、CPU45が判断した後、ステップS2へ進む。   First, in step S1, the robot moves to the vicinity of the workpiece 10. Specifically, the robot controller 4 controls the joint unit 2 and the arm unit 3 based on the position information of the workpiece 10 input to the teaching unit 8 and the instruction information to the robot 1, and is attached to the arm unit 3. The existing camera 6 is moved to the vicinity of the workpiece 10. The position information of the work 10 is information indicating the position of the work 10 at a predetermined position by a coordinate value, and the instruction information is command information for moving the camera 6 to the work 10. As shown in FIG. 4A, the camera 6 that has moved to the predetermined position faces the workpiece 10 and is positioned so as to face the mounting portion 11 and the marker 15 of the workpiece 10. In this case, it is confirmed by the liquid crystal display unit 8a of the teaching unit 8 whether or not the camera 6 has moved to a preferable position where an image including the marker 15 printed in the vicinity of the mounting unit 11 can be obtained. can do. Then, after the CPU 45 determines that the camera 6 has moved to the vicinity of the workpiece 10, the process proceeds to step S2.

ステップS2において、カメラ撮影を行なう。この撮影は、ワーク10のほぼ全体を対象にして、教示部8に入力された撮影の指示に基づき、カメラ制御部41がカメラ6を制御することにより行なわれる。このカメラ6によれば、図4(b)に示すように、ワーク10の方向へ向いて位置しており、マーカー15を含むワーク10の撮像を確実に得ることができる。カメラ6で撮影した撮像は、RAM46へ一時的に記憶される。このステップS2は、撮影ステップに該当する。そして、撮影した撮像を取得した後、ステップS3へ進む。   In step S2, camera shooting is performed. This photographing is performed by controlling the camera 6 by the camera control unit 41 based on a photographing instruction input to the teaching unit 8 for almost the entire workpiece 10. According to the camera 6, as shown in FIG. 4B, the camera 6 is positioned in the direction of the workpiece 10, and it is possible to reliably obtain an image of the workpiece 10 including the marker 15. The image taken by the camera 6 is temporarily stored in the RAM 46. This step S2 corresponds to a photographing step. And after acquiring the image | photographed imaging, it progresses to step S3.

ステップS3において、マーカー15を認識したか否かを判断する。これは、CPU45が、検出部としてRAM46に記憶した撮像を分析し、ワーク10に印刷されているべきマーカー15が検出されたかどうかを判断することにより行なわれる。このステップS3は、検出ステップに該当する。そして、マーカー15が検出されれば、ステップS4へ進み、一方、マーカー15が検出されなければ、フローを終了する。   In step S3, it is determined whether or not the marker 15 has been recognized. This is performed by the CPU 45 analyzing the imaging stored in the RAM 46 as a detection unit and determining whether or not the marker 15 to be printed on the workpiece 10 has been detected. This step S3 corresponds to a detection step. If the marker 15 is detected, the process proceeds to step S4. On the other hand, if the marker 15 is not detected, the flow ends.

マーカー15が検出されると、ステップS4において、マーカー15の情報を取得する。これは、教示部8の指示により、マーカー情報解析部42が、RAM46に記憶した撮像に含まれるマーカー15から、締付作業に係わる動作をロボット1に教示するための教示情報が含まれる、二次元コードを認識することにより取得される。マーカー15の情報を取得後、ステップS5へ進む。   When the marker 15 is detected, information on the marker 15 is acquired in step S4. This includes teaching information for the marker information analysis unit 42 to teach the robot 1 the operation related to the tightening operation from the marker 15 included in the imaging stored in the RAM 46 in accordance with an instruction from the teaching unit 8. Acquired by recognizing the dimension code. After acquiring the information of the marker 15, the process proceeds to step S5.

ステップS5において、マーカー15の情報に基づいて教示情報を取得する。教示情報は、マーカー情報解析部42が、マーカー15の検出に続いてマーカー15の二次元コードを解析することにより、取得される。この教示情報については既述したが、ワーク10へ取り付ける部材が、ねじ21であることと、ねじ21をワーク10の取付部11へ取り付けることと、ねじ21を垂直方向に取付部11へ挿入することと、ねじ21を右方向に回転させて、例えば、トルク5N・mで締め付けること等の取り付けに係る情報、およびこれら情報によりロボット1が行なう動作に関する動作情報が含まれている。このステップS5とステップS4とは、解析ステップに該当する。マーカー情報解析部42により教示情報を取得した後、ステップS6へ進む。   In step S5, teaching information is acquired based on the information of the marker 15. The teaching information is acquired by the marker information analysis unit 42 analyzing the two-dimensional code of the marker 15 following the detection of the marker 15. Although the teaching information has already been described, the member attached to the workpiece 10 is the screw 21, the screw 21 is attached to the attachment portion 11 of the workpiece 10, and the screw 21 is inserted into the attachment portion 11 in the vertical direction. And information related to attachment such as rotating the screw 21 in the right direction and tightening it with a torque of 5 N · m, for example, and operation information related to operations performed by the robot 1 based on these information are included. Steps S5 and S4 correspond to analysis steps. After the teaching information is acquired by the marker information analysis unit 42, the process proceeds to step S6.

ステップS6において、教示情報を記憶する。これは、図4(b)に示すように、教示部8の指示に基づき、CPU45が、ROM47に記憶されているロボット1の制御のためのプログラムへ、取得した教示情報を組み込んで記憶することにより行われる。これにより、ロボット制御装置4は、関節部2、アーム部3および把持部5を制御して、ねじ21をワーク10の取付部11へ取り付ける締付作業を実行することが可能となる。このステップS6は、記憶ステップに該当する。教示情報の記憶後、ステップS7へ進む。   In step S6, teaching information is stored. As shown in FIG. 4B, based on the instruction from the teaching unit 8, the CPU 45 stores the acquired teaching information in a program for controlling the robot 1 stored in the ROM 47. Is done. As a result, the robot control device 4 can control the joint portion 2, the arm portion 3, and the grip portion 5 to execute a tightening operation for attaching the screw 21 to the attachment portion 11 of the workpiece 10. This step S6 corresponds to a storage step. After storing the teaching information, the process proceeds to step S7.

ステップS7において、ロボット動作の確認を行う。これは、ロボット制御装置4が、教示部8と協同して取得した教示情報に基づいて、ロボット1に締付作業に関わる動作を実行させ、締付作業が正しく実行されるか否かを確認することにより行われる。以下に、この締付作業の確認について説明する。図5(a)は、ねじの把持状態を示す斜視図、図5(b)は、ねじの取付部への移動状態を示す斜視図、図5(c)は、ねじの取付状態を示す斜視図である。   In step S7, the robot operation is confirmed. This is because the robot control device 4 causes the robot 1 to perform an operation related to the tightening operation based on the teaching information acquired in cooperation with the teaching unit 8 and confirms whether the tightening operation is correctly performed. Is done. Hereinafter, confirmation of the tightening operation will be described. FIG. 5A is a perspective view showing a screw gripping state, FIG. 5B is a perspective view showing a screw moving state to a mounting portion, and FIG. 5C is a perspective view showing a screw mounting state. FIG.

まず、図5(a)に示すように、ロボット制御装置4のロボット駆動制御部43(図2)が、教示情報である部材のデータを基に、ねじ21を部材として認識し、ねじ21を把持する。この場合、ねじ21は、供給部Aに整列しており、ロボット駆動制御部43は、ロボット1の関節部2およびアーム部3を制御して、把持部5を供給部Aのねじ21の位置まで移動させる。この制御は、教示情報から得られた、ねじ21の位置を示す座標値に基づいて、関節部2およびアーム部3が把持部5を移動させることにより行なわれる。そして、把持部5の3本の指は、ねじ21を掴んで供給部Aから抜き出す。   First, as shown in FIG. 5A, the robot drive control unit 43 (FIG. 2) of the robot control device 4 recognizes the screw 21 as a member based on the member data as teaching information, Hold it. In this case, the screw 21 is aligned with the supply unit A, and the robot drive control unit 43 controls the joint unit 2 and the arm unit 3 of the robot 1 so that the grip unit 5 is positioned at the position of the screw 21 of the supply unit A. To move. This control is performed by the joint portion 2 and the arm portion 3 moving the grip portion 5 based on the coordinate value indicating the position of the screw 21 obtained from the teaching information. Then, the three fingers of the gripping part 5 grip the screw 21 and pull it out from the supply part A.

次に、図5(b)に示すように、把持部5は、教示情報である取り付け位置を示すデータを基に、ねじ21を把持してワーク10の取付部11へ移動する。これは、把持部5がねじ21を把持した状態を維持しつつ、ロボット駆動制御部43が関節部2およびアーム部3を制御して、把持部5の把持しているねじ21を、取付部11の位置まで、運ぶことにより行われる。この場合、ワーク10の有する取付部11は1箇所であり、ねじ21を取付部11へ移動させるための、取付部11の位置情報である座標値は、教示情報から取得されてROM47のプログラムへ組み込まれている。   Next, as shown in FIG. 5B, the gripping part 5 grips the screw 21 and moves to the attachment part 11 of the workpiece 10 based on data indicating the attachment position as teaching information. This is because the robot drive control unit 43 controls the joint unit 2 and the arm unit 3 while maintaining the state in which the grip unit 5 grips the screw 21, and the screw 21 gripped by the grip unit 5 is attached to the attachment unit. This is done by carrying to 11 position. In this case, the work 10 has only one mounting portion 11, and the coordinate value, which is positional information of the mounting portion 11 for moving the screw 21 to the mounting portion 11, is acquired from the teaching information and stored in the program of the ROM 47. It has been incorporated.

そして、図5(c)に示すように、把持部5は、教示情報である取り付け方向を示すデータおよび取り付け方法のデータを基に、取付部11へねじ21の取り付けを行なう。これは、ロボット駆動制御部43が把持部5を制御して、ねじ21を右回転させながら、ねじ21の先端部から取付部11へ挿入していくことにより行なわれる。また、この挿入において、把持部5は、ねじ21を取付部11に対して、トルク5N・mの強さで締め付ける。これら取り付け方向および方法に係るデータは、教示情報から取得されてROM47のプログラムへ組み込まれている。このようにして、マーカー15から取得した教示情報に基づいて、ロボット1の締付作業に関わる動作の確認が行われる。これらステップS1からステップS7の各ステップを経て、フローが終了する。以降、ロボット1に対し、実行する動作が締付作業であることを指示するだけで、ロボット1は、教示情報に基づき締付作業に関わる動作を行なう。   Then, as shown in FIG. 5C, the grip portion 5 attaches the screw 21 to the attachment portion 11 based on the data indicating the attachment direction and the data of the attachment method, which are teaching information. This is performed by the robot drive control unit 43 controlling the gripping unit 5 and inserting the screw 21 from the tip of the screw 21 into the mounting unit 11 while rotating the screw 21 clockwise. In this insertion, the gripping part 5 fastens the screw 21 to the attachment part 11 with a torque of 5 N · m. Data relating to these attachment directions and methods is acquired from the teaching information and incorporated in the program of the ROM 47. Thus, based on the teaching information acquired from the marker 15, the operation related to the tightening operation of the robot 1 is confirmed. The flow is completed through these steps S1 to S7. Thereafter, simply instructing the robot 1 that the operation to be performed is a tightening operation, the robot 1 performs an operation related to the tightening operation based on the teaching information.

以上説明した実施形態におけるロボット教示方法の主要な効果としては、締付作業におけるロボット1の動作に係わる情報を、ワーク10に印刷されているマーカー15から教示情報として取得するため、ロボット制御装置4が事前に記憶しておかなくてはならないプログラムの容量を軽減できることが挙げられる。さらに、ロボット1の動作を変更したい場合、ワーク10へ印刷するマーカー15を変更することによって容易に行なうことができ、ロボット制御装置4のROM47のプログラムを変更する必要がほとんどないことも挙げられる。つまり、教示情報には、従来における形態情報と動作情報とが一緒に含まれており、従来のように、これら形態情報と動作情報との整合性を図らなくても良い、という大きな効果がある。これは、ロボット教示方法が、撮影ステップ、検出ステップ、解析ステップおよび記憶ステップを経ることにより、部材を取り付けるワーク10に印刷されているマーカー15から、部材が何であるかを示す部材のデータや部材のワーク10への取り付け方法等を含む、教示情報を取得してROM47のプログラムへ組み込むことに、特徴を有することによる。そして、この教示情報を含むプログラムに基づいて、ロボット1は、ステップS7に示すように、ワーク10へ部材であるねじ21を取り付ける動作を確実に行なうことができる。   As a main effect of the robot teaching method in the embodiment described above, the robot control device 4 is used to acquire information related to the operation of the robot 1 in the tightening work as teaching information from the marker 15 printed on the workpiece 10. Can reduce the capacity of programs that must be stored in advance. Furthermore, when it is desired to change the operation of the robot 1, it can be easily performed by changing the marker 15 to be printed on the workpiece 10, and there is almost no need to change the program of the ROM 47 of the robot control device 4. That is, the teaching information includes the conventional form information and the operation information together, and there is a great effect that it is not necessary to match the form information and the operation information as in the conventional case. . This is because the robot teaching method passes through the imaging step, the detection step, the analysis step, and the storage step, so that the member data and the member indicating what the member is from the marker 15 printed on the workpiece 10 to which the member is attached. This is because the teaching information including the attachment method to the workpiece 10 is acquired and incorporated in the program of the ROM 47. Based on the program including the teaching information, the robot 1 can reliably perform the operation of attaching the screw 21 as a member to the workpiece 10 as shown in step S7.

また、ロボット教示方法、ロボット教示装置およびプログラムは、上記の実施形態に限定されるものではなく、次に挙げる変形例のような形態であっても、実施形態と同様な効果が得られる。   In addition, the robot teaching method, the robot teaching apparatus, and the program are not limited to the above-described embodiments, and the same effects as those of the embodiments can be obtained even in the following modifications.

(変形例1)ロボット教示方法において、教示情報は、マーカー15の有する二次元コードを解析して取得する方法であるが、この方法に限定されることはない。例えば、二次元コードの代わりにバーコード等の他の手段による方法であっても良い。あるいは、マーカー15は、ロボット制御装置4内等の参照すべき参照プログラムやデータを指定するのみの設定であっても良い。ロボット制御装置4が事前に記憶しなければならないプログラム等の容量が本実施形態より膨大になってしまうが、ロボット1は、当該プログラムやデータに基づいて作業をすることができる。   (Modification 1) In the robot teaching method, the teaching information is a method of obtaining by analyzing the two-dimensional code of the marker 15, but is not limited to this method. For example, a method using other means such as a barcode may be used instead of the two-dimensional code. Alternatively, the marker 15 may be set only to designate a reference program or data to be referred to in the robot control device 4 or the like. Although the capacity of a program or the like that must be stored in advance by the robot control device 4 is larger than that of the present embodiment, the robot 1 can perform work based on the program and data.

(変形例2)マーカー15は、ワーク10に印刷されている形態であるが、マーカー15がワーク10への印刷ではなく、ラベル状になっていて、ワーク10へ貼付する形態等であっても良い。これによれば、教示情報の変更や更新をする場合、マーカー15の印刷に比べて、より迅速に行なうことができる。   (Modification 2) The marker 15 is printed on the workpiece 10, but the marker 15 is not printed on the workpiece 10, but is in a label shape and is attached to the workpiece 10. good. According to this, when changing or updating the teaching information, it can be performed more quickly than the printing of the marker 15.

(変形例3)カメラ6は、ロボット1のアーム部3に設けられている構成に限定されず、必要時に把持部5が他所から運んできて、撮影をする方法であっても良い。但し、カメラ6は、ロボット制御装置4の管理下にあることが好ましい。   (Modification 3) The camera 6 is not limited to the structure provided in the arm part 3 of the robot 1, and may be a method in which the gripping part 5 is carried from another place to take a picture when necessary. However, the camera 6 is preferably under the control of the robot control device 4.

(変形例4)ロボット1は、関節部2およびアーム部3を一組として三組を有する構成であるが、三組以外の他の構成であっても良い。例えば、ロボット1が、6軸または7軸等の構成を有する多関節ロボットや、双腕ロボット等のような、複数のアームを有するロボットであっても良い。即ち、ロボット教示方法は、いろいろな作業に関わる動作を行なうために、種々の機構形態で構成されたロボットに対しても、有効に適用することができる。また、ねじ21,22は、供給部A,Bに整列して並べられているが、ロボット1が、箱等にランダムに収められている部材の中から、ねじ21,22のそれぞれの向き等を判断して、同一姿勢で把持する方法であっても良い。さらに、ワーク10は、ベルトコンベアー12で搬送される構成に限定されない。   (Modification 4) The robot 1 is configured to have three sets of the joint portion 2 and the arm portion 3 as one set, but may have a configuration other than the three sets. For example, the robot 1 may be a robot having a plurality of arms such as an articulated robot having a configuration of 6 axes or 7 axes, a double arm robot, or the like. That is, the robot teaching method can be effectively applied to robots configured in various mechanism forms in order to perform operations related to various operations. The screws 21 and 22 are arranged in alignment with the supply units A and B, but the robot 1 can select the direction of the screws 21 and 22 from among the members randomly stored in a box or the like. It is possible to use a method of judging the above and holding in the same posture. Furthermore, the workpiece 10 is not limited to the configuration of being conveyed by the belt conveyor 12.

(変形例5)ロボット1の把持部5は、3本の指からなる構成であるが、これに限定されない。把持部5は、指が3本以外の本数であっても良く、例えば、人間の手に近いフレキシブルで多目的な5本指の把持部構成や、特定の部材の把持に特化したグリッパーのような把持部構成等であっても良い。また、把持部5は、部材の単純移動等のために、真空引きや磁力等により部材を吸着する形態であっても良い。   (Modification 5) Although the grip part 5 of the robot 1 is composed of three fingers, it is not limited to this. The grip part 5 may have a number of fingers other than three, for example, a flexible and versatile five-finger grip part structure close to a human hand, or a gripper specialized for gripping a specific member. A simple gripper configuration or the like may be used. Further, the grip portion 5 may be configured to adsorb the member by evacuation or magnetic force for simple movement of the member.

(変形例6)ロボット1への教示は、ロボット制御装置4に教示部8を接続して行っているが、教示部8を用いずに、作業者がアーム部3を直接動かして位置移動させる方法であってもよい。これによれば、より直感的にロボット1の教示が行える。この場合、ロボット制御装置4がロボット教示装置として機能することになる。また、教示部8は、ティーチングペンダントに限定されるものではなく、PC(パーソナルコンピューター)等であっても良い。   (Modification 6) Teaching to the robot 1 is performed by connecting the teaching unit 8 to the robot control device 4, but without using the teaching unit 8, the operator moves the arm unit 3 directly to move the position. It may be a method. According to this, the robot 1 can be taught more intuitively. In this case, the robot control device 4 functions as a robot teaching device. The teaching unit 8 is not limited to the teaching pendant, and may be a PC (personal computer) or the like.

(変形例7)図3のフローチャートにおいて、解析ステップであるステップS4およびステップS5では、教示情報として、ワーク10へ取り付ける部材がねじ21であることや、ねじ21の取り付け方法等の詳細を含めて取得しているが、この取得方法に限定されず、例えば、解析ステップでは、部材が、ねじ21であることのみを教示情報として取得し、ねじ21の取り付け方法等の詳細は、ロボット制御装置4に記憶している情報から取得する方法等であっても良い。これによれば、情報量の少ないバーコード等であっても、教示情報を有するマーカー15として活用することができる。   (Modification 7) In step S4 and step S5, which are analysis steps, in the flowchart of FIG. 3, the teaching information includes that the member to be attached to the workpiece 10 is the screw 21 and details such as the method for attaching the screw 21. However, the present invention is not limited to this acquisition method. For example, in the analysis step, only the fact that the member is the screw 21 is acquired as teaching information. It may be a method of acquiring from information stored in the memory. According to this, even a barcode with a small amount of information can be used as the marker 15 having teaching information.

(変形例8)図3のフローチャートにおいて、解析ステップであるステップS4およびステップS5は、まとめて1つのステップにしても良い。また、撮影ステップ(ステップS2)、検出ステップ(ステップS3)および解析ステップ(ステップS4,S5)のそれぞれにおける実行内容は、ステップS7の記憶ステップにおいて教示情報の記憶ができる形態となっていれば、実施形態に限定されるものではない。   (Modification 8) In the flowchart of FIG. 3, step S4 and step S5, which are analysis steps, may be combined into one step. In addition, if the execution contents in each of the photographing step (step S2), the detection step (step S3) and the analysis step (steps S4 and S5) are in a form in which teaching information can be stored in the storage step of step S7, It is not limited to the embodiment.

(変形例9)図3のフローチャートは、教示情報をROM47へ記憶するステップS6の後のステップS7において、ロボット1の動作の確認をしているが、この動作確認をステップS6の前に行い、ロボット1の正常な動作を確認してから教示情報をROM47へ記憶しても良い。また、ロボット教示方法のフローチャートには、ステップS7を含まなくても良い。   (Modification 9) In the flowchart of FIG. 3, the operation of the robot 1 is confirmed in step S7 after step S6 for storing the teaching information in the ROM 47. This operation confirmation is performed before step S6. The teaching information may be stored in the ROM 47 after confirming the normal operation of the robot 1. Further, step S7 may not be included in the flowchart of the robot teaching method.

(変形例10)実施形態では、マーカー15の教示情報に基づき、1つの取付部11へ、ねじ21を取り付ける作業を、ロボット1へ教示する単純な例について説明したが、複数の取付部へ異なる部材を取り付けるような、複雑な作業の教示にも、ロボット教示方法は十分に対応することが可能である。   (Modification 10) In the embodiment, a simple example of teaching the robot 1 the operation of attaching the screw 21 to one attachment portion 11 based on the teaching information of the marker 15 has been described, but it differs to a plurality of attachment portions. The robot teaching method can sufficiently cope with the teaching of complicated operations such as attaching members.

1…ロボット、2…関節部、3…アーム部、4…ロボット制御装置、5…把持部、6…撮影装置としてのカメラ、8…教示部、10…ワーク、11…取付部、15…マーカー、21…ねじ、22…ねじ、41…カメラ制御部、42…マーカー情報解析部、43…ロボット駆動制御部、47…(プログラム記憶の)ROM。   DESCRIPTION OF SYMBOLS 1 ... Robot, 2 ... Joint part, 3 ... Arm part, 4 ... Robot control apparatus, 5 ... Grasp part, 6 ... Camera as imaging | photography apparatus, 8 ... Teaching part, 10 ... Workpiece, 11 ... Attachment part, 15 ... Marker , 21 ... screws, 22 ... screws, 41 ... camera control unit, 42 ... marker information analysis unit, 43 ... robot drive control unit, 47 ... ROM (for program storage).

Claims (4)

ワークに対して行なう作業に関わる動作をロボットへ教示するためのロボット教示方法であって、
前記ロボットに備えられた撮影装置によって、マーカーを有する前記ワークの撮像を取得する撮影ステップと、
前記撮像から前記マーカーを検出する検出ステップと、
前記マーカーを解析して、前記ロボットが前記動作をするための教示情報を取得する解析ステップと、
前記教示情報を記憶する記憶ステップと、を有する、ことを特徴とするロボット教示方法。
A robot teaching method for teaching a robot an operation related to a work performed on a workpiece,
An imaging step of acquiring an image of the workpiece having a marker by an imaging device provided in the robot;
A detection step of detecting the marker from the imaging;
Analyzing the marker and obtaining teaching information for the robot to perform the operation;
And a storage step of storing the teaching information.
請求項1に記載のロボット教示方法において、
前記マーカーは、前記ワークへの前記作業が行なわれる位置の近傍に配置され、前記教示情報を含む二次元コードを有している、ことを特徴とするロボット教示方法。
The robot teaching method according to claim 1,
The robot teaching method, wherein the marker is arranged in the vicinity of a position where the work is performed on the workpiece and has a two-dimensional code including the teaching information.
ワークに対して行なう作業に関わる動作をロボットへ教示するためのロボット教示装置であって、
前記ロボットに備えられた撮影装置によって、マーカーを有する前記ワークの撮像を取得する撮影部と、
前記撮像から前記マーカーを検出する検出部と、
前記マーカーを解析して、前記ロボットが前記動作をするための教示情報を取得する解析部と、
前記教示情報を記憶する記憶部と、を有する、ことを特徴とするロボット教示装置。
A robot teaching apparatus for teaching a robot operations related to work performed on a workpiece,
An imaging unit that acquires an image of the workpiece having a marker by an imaging device provided in the robot;
A detection unit for detecting the marker from the imaging;
An analysis unit that analyzes the marker and acquires teaching information for the robot to perform the operation;
And a storage unit for storing the teaching information.
ワークに対して行なう作業に関わる動作をロボットへ教示する制御を実行するためのプログラムであって、
前記ロボットに備えられた撮影装置によって、マーカーを有する前記ワークの撮像を取得する撮影ステップと、
前記撮像から前記マーカーを検出する検出ステップと、
前記マーカーを解析して、前記ロボットが前記動作をするための教示情報を取得する解析ステップと、
前記教示情報を記憶する記憶ステップと、を前記ロボットへ教示する、ことを特徴とするプログラム。
A program for executing control for teaching the robot operations related to work performed on a workpiece,
An imaging step of acquiring an image of the workpiece having a marker by an imaging device provided in the robot;
A detection step of detecting the marker from the imaging;
Analyzing the marker and obtaining teaching information for the robot to perform the operation;
A storage step of storing the teaching information is taught to the robot.
JP2011099242A 2011-04-27 2011-04-27 Teaching method of robot, teaching device of robot, and program Withdrawn JP2012228757A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011099242A JP2012228757A (en) 2011-04-27 2011-04-27 Teaching method of robot, teaching device of robot, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011099242A JP2012228757A (en) 2011-04-27 2011-04-27 Teaching method of robot, teaching device of robot, and program

Publications (1)

Publication Number Publication Date
JP2012228757A true JP2012228757A (en) 2012-11-22

Family

ID=47430751

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011099242A Withdrawn JP2012228757A (en) 2011-04-27 2011-04-27 Teaching method of robot, teaching device of robot, and program

Country Status (1)

Country Link
JP (1) JP2012228757A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10099380B2 (en) 2015-06-02 2018-10-16 Seiko Epson Corporation Robot, robot control device, and robot system
CN113211431A (en) * 2021-04-16 2021-08-06 中铁第一勘察设计院集团有限公司 Pose estimation method based on two-dimensional code correction robot system
CN115062742A (en) * 2022-08-17 2022-09-16 广州里工实业有限公司 Method, device and medium for communication between autonomous robot and working machine without network
WO2022195680A1 (en) * 2021-03-15 2022-09-22 株式会社日立ハイテク Robot task teaching device and method for teaching task

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10099380B2 (en) 2015-06-02 2018-10-16 Seiko Epson Corporation Robot, robot control device, and robot system
WO2022195680A1 (en) * 2021-03-15 2022-09-22 株式会社日立ハイテク Robot task teaching device and method for teaching task
CN113211431A (en) * 2021-04-16 2021-08-06 中铁第一勘察设计院集团有限公司 Pose estimation method based on two-dimensional code correction robot system
CN113211431B (en) * 2021-04-16 2022-07-01 中铁第一勘察设计院集团有限公司 Pose estimation method based on two-dimensional code correction robot system
CN115062742A (en) * 2022-08-17 2022-09-16 广州里工实业有限公司 Method, device and medium for communication between autonomous robot and working machine without network
CN115062742B (en) * 2022-08-17 2022-11-22 广州里工实业有限公司 Method, device and medium for communication between autonomous robot and working machine without network

Similar Documents

Publication Publication Date Title
CN101842195B (en) Gripping apparatus and gripping apparatus control method
JP6429473B2 (en) Robot system, robot system calibration method, program, and computer-readable recording medium
JP5685027B2 (en) Information processing apparatus, object gripping system, robot system, information processing method, object gripping method, and program
JP6450960B2 (en) Robot, robot system and teaching method
JP5815761B2 (en) Visual sensor data creation system and detection simulation system
JP6499273B2 (en) Teaching apparatus and control information generation method
JP2009148845A (en) Small-size production equipment
JP2009083095A (en) Control method of robot device, and the robot device
JP2015071206A (en) Control device, robot, teaching data generation method, and program
JP2010264559A (en) Method of controlling robot
JP2019069493A (en) Robot system
JP2013099808A (en) Assembling apparatus, and method thereof, assembling operation program
JP4287788B2 (en) Self-propelled robotic hand
US20190030722A1 (en) Control device, robot system, and control method
JP2012228757A (en) Teaching method of robot, teaching device of robot, and program
JP7167681B2 (en) Robot system and connection method
JP2009172685A (en) Manipulator system and its control method
JP2018051634A (en) Robot control device, robot, robot system and posture specifying device
JP2006026790A (en) Teaching model production device
CN115194752A (en) Apparatus and method for training neural network to control task-inserted robot
CN114670189B (en) Storage medium, and method and system for generating control program of robot
JP2023024890A (en) Control device capable of receiving direct teaching operation, teaching device and computer program of control device
JP4591043B2 (en) Method of gripping an arbitrarily shaped object by a robot
JP2005349490A (en) Multi-flexible multi-finger hand
JP2011140084A (en) Controller, robot, robot system, and following method of robot

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140701