JPH0934528A - Robot control method and robot system device - Google Patents

Robot control method and robot system device

Info

Publication number
JPH0934528A
JPH0934528A JP17977395A JP17977395A JPH0934528A JP H0934528 A JPH0934528 A JP H0934528A JP 17977395 A JP17977395 A JP 17977395A JP 17977395 A JP17977395 A JP 17977395A JP H0934528 A JPH0934528 A JP H0934528A
Authority
JP
Japan
Prior art keywords
manipulator
sensing
teaching
information
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP17977395A
Other languages
Japanese (ja)
Inventor
Tadashi Naruse
正 成瀬
Akio Mitamura
章雄 三田村
Yoshito Nanjo
義人 南條
Kenichi Arakawa
賢一 荒川
Yukihisa Katayama
幸久 片山
Hirohisa Tezuka
博久 手塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP17977395A priority Critical patent/JPH0934528A/en
Publication of JPH0934528A publication Critical patent/JPH0934528A/en
Pending legal-status Critical Current

Links

Landscapes

  • Manipulator (AREA)
  • Numerical Control (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a robot control method and a robot system device which can move a manipulator to its accurate target path even when an external sensor cannot function when the target path is produced by the external sensor. SOLUTION: When the locus information on a manipulator is produced and the operation of a robot is controlled by a robot controller, a teaching path is generated by a teaching path generation part 70 based on the discrete sequence-of-point information on a taught work object. Then a sensing path is generated by a sensing path generation part 71 based on the discrete sequence- of-point information on the work object that is acquired by a sensing device. A target path generation part 72 maps both teaching and sensing paths together to generate a target path. Then a locus generation part 73 generates the locus information on the manipulator based on the target path.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、作業ロボットの倣い制
御に好適なロボット制御方法及びこれを実施するための
ロボットシステム装置に係り、特にロボットによる高精
度な加工を可能にするロボット制御方法及びロボットシ
ステム装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a robot control method suitable for copy control of a work robot and a robot system apparatus for carrying out the same, and more particularly to a robot control method which enables highly accurate machining by a robot and The present invention relates to a robot system device.

【0002】[0002]

【従来の技術】この種のロボット制御方法はティーチン
グプレイバック方式と呼ばれ、図11に示すように、教
示装置1、ロボット制御装置2、サーボ駆動装置3、及
び多軸構造のマニピュレータ4からなるロボットシステ
ム装置βにて実現される。
2. Description of the Related Art This type of robot control method is called a teaching playback method, and comprises a teaching device 1, a robot control device 2, a servo drive device 3 and a manipulator 4 having a multi-axis structure as shown in FIG. It is realized by the robot system device β.

【0003】ロボット制御装置2では、教示ペンダント
等の教示装置1にて作業経路等を教示して、教示点列の
情報を得て以下の手順でサーボ駆動装置3を駆動してい
る。
In the robot control device 2, the teaching device 1 such as a teaching pendant is used to teach a work route or the like, and information on a teaching point sequence is obtained to drive the servo drive device 3 in the following procedure.

【0004】まず、教示点列の情報を、図12に示すよ
うに「変換」ブロックにおいて、マニピュレータ4の手
先の位置と姿勢と時刻の組からなる離散時間表現された
空間軌道Xref に変換する(C'1)。次に、空間軌道
Xref をもとに関節空間の角度情報θref を生成し
(C'2)、これをサーボ駆動装置3に送出する。
First, as shown in FIG. 12, the information of the teaching point sequence is converted into a spatial trajectory Xref represented in discrete time, which is composed of a set of the position, orientation and time of the hand of the manipulator 4 in a "transform" block ( C'1). Then the spatial orbit
Angle information θref of the joint space is generated based on Xref (C′2), and this is sent to the servo drive device 3.

【0005】サーボ駆動装置3では、ロボット制御装置
2からの関節空間の角度情報θrefを受けると、マニピ
ュレータ4の位置姿勢が関節角度θref に達成するよう
にサーボモータの駆動制御をする(C'3)。
Upon receiving the joint space angle information θref from the robot controller 2, the servo drive unit 3 controls the drive of the servomotor so that the position and orientation of the manipulator 4 reaches the joint angle θref (C'3). ).

【0006】したがって、従来のロボットシステム装置
βは、教示点列の情報をもとにマニピュレータ4の駆動
を制御する構成をしている。また、作業対象物の目標位
置を確認するに当たり、外界センサを用いる場合がある
が、かかるセンサは入出力ポートを介して制御され、外
付け装置として機能していた。
Therefore, the conventional robot system device β is configured to control the driving of the manipulator 4 based on the information of the teaching point sequence. An external sensor may be used to confirm the target position of the work object, but such sensor is controlled via the input / output port and functions as an external device.

【0007】[0007]

【発明が解決しようとする課題】ところで、従来のロボ
ットシステム装置では、作業経路等を教示しても、マニ
ピュレータの位置及び姿勢を検出する内界センサの分解
能が有限値であり、しかも実作業対象物(ワークピー
ス)と教示対象物(マスターピース)に個体差および設
置誤差があるので、マニピュレータを高精度に作業経路
に沿って駆動制御させることが困難であった。
By the way, in the conventional robot system apparatus, even if the work route is taught, the resolution of the internal sensor for detecting the position and orientation of the manipulator is a finite value, and the actual work target Since there are individual differences and installation errors between the object (workpiece) and the teaching object (masterpiece), it is difficult to drive and control the manipulator with high accuracy along the work path.

【0008】一方、外界センサにて作業対象物に対する
作業経路を追従させて、マニピュレータを駆動するロボ
ット制御方法もある。しかし、かかる制御方法では距離
測定センサにおける計測範囲の制限や光学センサにおけ
る計測対象の光学的性質の依存性等によって計測不能状
態に陥ることがあるので、マニピュレータの駆動の継続
が保証されないという問題がある。
On the other hand, there is also a robot control method in which the manipulator is driven by following the work path with respect to the work object by an external sensor. However, in such a control method, the measurement range may be limited due to the limitation of the measurement range in the distance measurement sensor or the dependency of the optical property of the measurement target in the optical sensor, so that the continuation of the driving of the manipulator is not guaranteed. is there.

【0009】ここにおいて本発明の解決すべき主要な目
的は、次の通りである。本発明の第1の目的は、高い精
度で目標経路にマニピュレータを駆動することができる
ロボット制御方法及びロボットシステム装置を提供せん
とするものである。
Here, the main objects to be solved by the present invention are as follows. A first object of the present invention is to provide a robot control method and a robot system device capable of driving a manipulator to a target path with high accuracy.

【0010】本発明の第2の目的は、外界センサを使用
して目標経路を作成する際に、当該外界センサが計測不
能状態に陥った場合でも、マニピュレータを正確な目標
経路に追従させることができるロボット制御方法及びロ
ボットシステム装置を提供せんとするものである。
A second object of the present invention is to make a manipulator follow an accurate target path even when the external sensor falls into an unmeasurable state when a target path is created using the external sensor. An object of the present invention is to provide a robot control method and a robot system device which can be performed.

【0011】本発明の第3の目的は、倣い制御におい
て、粗く教示してもきめ細かなマニピュレータの制御が
でき、教示の手間を減らすことができるロボット制御方
法及びロボットシステム装置を提供せんとするものであ
る。
A third object of the present invention is to provide a robot control method and a robot system apparatus capable of finely controlling a manipulator even if coarse teaching is performed in the copying control and reducing the labor of teaching. Is.

【0012】本発明のその他の目的は、明細書、図面、
特に特許請求の範囲の記載から自ずと明らかとなろう。
[0012] Other objects of the present invention are as follows:
In particular, it will be obvious from the description of the appended claims.

【0013】[0013]

【課題を解決するための手段】前記した課題の解決は、
本発明が次に列挙する新規な特徴的構成手法及び手段を
採用することにより前記目的を達成する。
[Means for Solving the Problems] To solve the above-mentioned problems,
The above object is achieved by the present invention employing the following novel characteristic configuration methods and means.

【0014】すなわち、本発明方法の第1の特徴は、ロ
ボット制御手段にてマニピュレータの軌道情報を作成し
てロボットの動作を制御するに当たり、作業対象物に対
するセンシング情報と教示情報とを逐一同時並行入力
し、当該両情報の対応付けを実行しつつ、当該センシン
グ情報を優先採用し、当該センシング情報が作業途中で
途絶えた時、その時点での前記教示情報を取り込むマッ
ピング処理をし、作業を一貫連続して円滑遂行してなる
ロボット制御方法にある。
That is, the first feature of the method of the present invention is that when the robot control means creates the trajectory information of the manipulator to control the operation of the robot, the sensing information and the teaching information for the work object are simultaneously and in parallel. While inputting and associating the two pieces of information, the sensing information is preferentially adopted, and when the sensing information is interrupted during the work, a mapping process that captures the teaching information at that time is performed, and the work is consistently performed. This is a robot control method in which continuous smooth execution is performed.

【0015】本発明方法第2の特徴は、ロボット制御手
段にてマニピュレータの軌道情報を作成してロボットの
動作を制御するに当たり、当該マニピュレータと、入力
された軌道情報に基づいてマニピュレータを駆動するサ
ーボ駆動手段と、当該マニピュレータによる作業を教示
する教示手段と、外界情報を検出するセンシング手段
と、前記ロボット制御手段とを擁して、前記教示手段に
て教示された作業対象物に係る離散的な点列情報から教
示経路を生成するとともに、前記センシング手段にて得
られる作業対象物に係る離散的な点列情報からセンシン
グ経路を生成し、当該センシング経路と前記教示経路と
をマッピング処理して目標経路を生成し、かかる目標経
路からマニピュレータの軌道情報を生成してなるロボッ
ト制御方法にある。
The second feature of the method of the present invention is that when the robot control means creates trajectory information of the manipulator and controls the operation of the robot, the manipulator and the servo that drives the manipulator based on the trajectory information input. Discrete points relating to the work object taught by the teaching means, including driving means, teaching means for teaching work by the manipulator, sensing means for detecting external world information, and the robot control means. A teaching route is generated from the row information, and a sensing route is generated from the discrete point sequence information related to the work object obtained by the sensing means, and the sensing route and the teaching route are mapped to obtain a target route. Is generated, and trajectory information of the manipulator is generated from the target path.

【0016】本発明方法の第3の特徴は、前記本発明方
法の第2の特徴における教示手段から得られる離散的な
点列情報が、複数の制御点と補間方法を与えて空間曲線
を表す数値情報としてなるロボット制御方法にある。
A third feature of the method of the present invention is that the discrete point sequence information obtained from the teaching means in the second feature of the method of the present invention represents a space curve by giving a plurality of control points and an interpolation method. It is in the robot control method that becomes numerical information.

【0017】本発明方法の第4の特徴は、前記本発明方
法の第1、第2又は第3の特徴におけるマッピング処理
が、センシング成功の箇所はセンシング経路を目標経路
とし、センシング失敗の箇所は教示経路をセンシング経
路に結合するように平行移動、合同変換、相似変換、ア
フィン変換等の幾何変換処理した目標経路としてなるロ
ボット制御方法にある。
A fourth feature of the method of the present invention is that the mapping process in the first, second or third feature of the method of the present invention is such that the sensing success point is the sensing path and the sensing failure point is the target path. The robot control method is a target route that is subjected to geometric transformation processing such as parallel movement, congruential transformation, similarity transformation, and affine transformation so that the teaching route is coupled to the sensing route.

【0018】本発明方法の第5の特徴は、前記本発明方
法の第1、第2、第3又は第4の特徴におけるマニピュ
レータが、複数の軸を有する構造からなるロボット制御
方法にある。
A fifth feature of the method of the present invention is a robot control method in which the manipulator according to the first, second, third or fourth feature of the method of the present invention has a structure having a plurality of axes.

【0019】本発明方法の第6の特徴は、前記本発明方
法の第2、第3、第4又は第5の特徴におけるセンシン
グ経路の生成は、作業対象物の特徴点を検出する特徴点
処理を行い、検出した特徴点を経路作成時の基準点とし
てなるロボット制御方法にある。
The sixth feature of the method of the present invention is that the generation of the sensing path in the second, third, fourth or fifth feature of the method of the present invention is feature point processing for detecting feature points of a work object. And the detected feature points are used as reference points when creating a route.

【0020】本発明方法の第7の特徴は、前記本発明方
法の第2、第3、第4、第5、又は第6の特徴における
マニピュレータの軌道情報を作成するためにマニピュレ
ータの移動量を検出するに当たり、当該マニピュレータ
の手先の速度パタンと最大速度に基づき速度プロファイ
ルを作成し、当該速度プロファイルと経過時間にて当該
マニピュレータの現時点の移動量を決定してなるロボッ
ト制御方法にある。
The seventh feature of the method of the present invention is that the movement amount of the manipulator is used to create trajectory information of the manipulator in the second, third, fourth, fifth or sixth feature of the method of the present invention. In the detection, there is a robot control method in which a velocity profile is created based on the velocity pattern of the hand of the manipulator and the maximum velocity, and the current movement amount of the manipulator is determined by the velocity profile and the elapsed time.

【0021】本発明装置の第1の特徴は、マニピュレー
タと、入力された軌道情報に基づいてマニピュレータを
駆動するサーボ駆動装置と、マニピュレータによる作業
を教示する教示装置と、外界情報を検出するセンシング
装置と、ロボット制御装置とを備えたロボットシステム
において、当該ロボット制御装置は、前記教示装置にて
教示された作業対象物に係る離散的な点列情報から教示
経路を生成する教示経路生成部と、前記センシング装置
にて検出される作業対象物の離散的な点列情報からセン
シング経路を生成するセンシング経路生成部と、前記セ
ンシング経路と前記教示経路とをマッピングする目標経
路生成部と、目標経路からマニピュレータの軌道情報を
生成する軌道生成部とを備えてなるロボットシステム装
置にある。
The first feature of the device of the present invention is a manipulator, a servo drive device for driving the manipulator based on the input trajectory information, a teaching device for teaching work by the manipulator, and a sensing device for detecting external information. In a robot system including a robot control device, the robot control device includes a teaching route generation unit that generates a teaching route from discrete point sequence information related to a work target taught by the teaching device, From the sensing route generation unit that generates a sensing route from the discrete point sequence information of the work target detected by the sensing device, the target route generation unit that maps the sensing route and the teaching route, and the target route And a trajectory generation unit that generates trajectory information of the manipulator.

【0022】本発明装置の第2の特徴は、前記本発明装
置の第1の特徴における軌道生成部が、マニピュレータ
の手先の速度パタンと最大速度に基づき速度プロファイ
ルを作成する速度プロファイル部と、前記速度プロファ
イルと経過時間からマニピュレータの移動量を生成する
S生成器と接続され、マニピュレータの現時点の移動量
情報を得る構成としてなるロボットシステム装置にあ
る。
A second feature of the device of the present invention is that the trajectory generator in the first feature of the device of the present invention creates a velocity profile based on the velocity pattern of the hand of the manipulator and the maximum velocity, and The robot system device is connected to an S generator that generates the amount of movement of the manipulator from the velocity profile and the elapsed time, and is configured to obtain information on the amount of movement of the manipulator at the present time.

【0023】本発明装置の第3の特徴は、前記本発明装
置の第1又は第2の特徴におけるセンシング装置の外界
センサが、マニピュレータの先端にオフセットを付けた
状態で配置されてなるロボットシステム装置にある。
A third feature of the device of the present invention is a robot system device in which the external sensor of the sensing device according to the first or second feature of the device of the present invention is arranged with the tip of the manipulator being offset. It is in.

【0024】本発明装置の第4の特徴は、前記本発明装
置の第1、第2又は第3の特徴におけるマニピュレータ
が、複数の軸を有する構造からなるロボットシステム装
置にある。
A fourth feature of the device of the present invention resides in a robot system device in which the manipulator according to the first, second or third feature of the device of the present invention has a structure having a plurality of axes.

【0025】[0025]

【作用】本発明は、前記のような新規な手法及び手段を
講じているので、以下のような作用をなす。
The present invention takes the following actions because it takes the novel method and means as described above.

【0026】本発明では、目標経路の作成に当たりセン
シング情報と教示情報を利用するので、ロボット制御装
置にてマニピュレータの手先の目標位置姿勢を時々刻々
と制御でき、曲線形状の倣い制御精度を高くでき、高精
度なロボット制御が可能となる。また、粗く教示してき
め細かな倣い制御が可能となる。
According to the present invention, since the sensing information and the teaching information are used to create the target route, the robot controller can control the target position / orientation of the hand of the manipulator from moment to moment, and the accuracy of the contour control of the curved shape can be improved. It enables highly accurate robot control. Further, it is possible to coarsely teach and perform fine copying control.

【0027】特に、外界センサが計測した情報から作業
対象の特徴点を検出できず、センシングに失敗した場合
には、その時点までに与えられたセンシング情報とあら
かじめ教示してある教示情報から、ロボットの手先がと
るべき位置姿勢を決定することができる。
In particular, when the feature point of the work target cannot be detected from the information measured by the external sensor and the sensing fails, the robot is determined from the sensing information given up to that point and the teaching information previously taught. It is possible to determine the position and orientation to be taken by the minions.

【0028】[0028]

【実施例】以下、添付図面を参照し、本発明をその装置
例、方法例に基づいて、より詳細に説明する。なお、本
装置例及び方法例において、ロボットシステム装置αが
「倣うべき経路」は、作業対象物Aの曲面状の凹凸によ
って発生する曲線形状(図4参照)として説明するが、
本発明はこれらの作業対象等に限定されるものではな
い。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS The present invention will be described in more detail below with reference to the accompanying drawings on the basis of an apparatus example and a method example thereof. In the present apparatus example and method example, the “path to be followed” by the robot system apparatus α will be described as a curved shape (see FIG. 4) generated by the curved surface unevenness of the work target A.
The present invention is not limited to these work targets and the like.

【0029】(装置例)図1は本装置例のロボットシス
テム装置の主要構成を示し、図2は外界センサの取付け
位置を示し、図3はロボット制御装置の主要部を示して
いる。なお、従来の技術の欄で説明したロボットシステ
ム装置βの構成と同じ名称の箇所は同じ符号を使用する
こととした。
(Apparatus Example) FIG. 1 shows a main configuration of a robot system apparatus of the present apparatus example, FIG. 2 shows a mounting position of an external sensor, and FIG. 3 shows a main part of a robot controller. It should be noted that the same reference numerals are used for the parts having the same names as those of the configuration of the robot system device β described in the section of the related art.

【0030】ロボットシステム装置αは、図1に示すよ
うに、教示装置1、ロボット制御装置2、サーボ駆動装
置3、マニピュレータ4及びセンシング装置5からな
る。教示装置1は、ティーチングプレイバック方式にて
マニピュレータ4による作業をロボット制御装置2に教
示する働きをする。
As shown in FIG. 1, the robot system device α comprises a teaching device 1, a robot control device 2, a servo drive device 3, a manipulator 4 and a sensing device 5. The teaching device 1 serves to teach the robot controller 2 the work by the manipulator 4 by the teaching playback method.

【0031】センシング装置5は、外界情報を得るため
の外界センサ5aを有する構成をしている。外界センサ
5aは、図2に示すように、マニピュレータ4の手先と
オフセットを設けた位置に配置される。
The sensing device 5 has an external world sensor 5a for obtaining external world information. As shown in FIG. 2, the external sensor 5a is arranged at a position offset from the hand of the manipulator 4.

【0032】サーボ駆動装置3は、入力された軌道情報
に基づいてマニピュレータ4を駆動する働きをする。マ
ニピュレータ4は、多軸構造になっており、サーボ駆動
装置3にて駆動される。
The servo drive device 3 functions to drive the manipulator 4 based on the input trajectory information. The manipulator 4 has a multi-axis structure and is driven by the servo drive device 3.

【0033】ロボット制御装置2は、図3に示した特徴
点処理部6、及びXref 生成器7を主要部とし、その他
に図を省略したメモリ及び制御部を備えている。
The robot controller 2 has the feature point processing unit 6 and the Xref generator 7 shown in FIG. 3 as main components, and additionally has a memory and a control unit (not shown).

【0034】特徴点処理部6は、センシングによりセン
シング装置5から一定の時間間隔で送出される実経路の
座標情報と付加情報とを得る。そして、実経路の座標情
報を世界座標系(床面を基準にした座標系)に変換して
センシング情報列を作成し、当該センシング情報列の情
報をXref 生成器7のセンシング経路生成部71に送出
する。
The characteristic point processing unit 6 obtains the coordinate information of the actual route and the additional information transmitted from the sensing device 5 at a constant time interval by sensing. Then, the coordinate information of the actual route is converted into the world coordinate system (coordinate system based on the floor surface) to create a sensing information sequence, and the information of the sensing information sequence is sent to the sensing route generation unit 71 of the Xref generator 7. Send out.

【0035】なお、特徴点処理部6における対象物の特
徴点検出アルゴリズムについては、金子氏の形状処理方
式(特願平4−114428号)等の基本発明を用い
る。例えば、センシング装置5として1次元レンジセン
サを使用する場合には、図4に示すように、対象物Aの
曲線形状に交差するa−b方向に距離を計測して図5の
グラフに表した断面形状情報を得る。そして、かかる断
面形状情報から特徴点(図5のc点)及び当該特徴点の
空間座標を決定する。かかる手順を対象物Aの曲線形状
に沿って連続して実行することにより合わせ面の境界
(実経路)Bを検出する。
As for the feature point detection algorithm of the object in the feature point processing unit 6, the basic invention such as Mr. Kaneko's shape processing method (Japanese Patent Application No. 4-114428) is used. For example, when a one-dimensional range sensor is used as the sensing device 5, as shown in FIG. 4, the distance is measured in the ab direction that intersects the curved shape of the object A and is shown in the graph of FIG. Obtain cross-sectional shape information. Then, the feature point (point c in FIG. 5) and the spatial coordinates of the feature point are determined from the cross-sectional shape information. The boundary (actual path) B of the mating surface is detected by continuously executing such a procedure along the curved shape of the object A.

【0036】ロボット制御装置2のXref 生成器7は、
図3に示すように、教示経路生成部70、センシング経
路生成部71、目標経路生成部72、軌道生成部73、
速度プロファイル部74、及びS生成器75からなる。
The Xref generator 7 of the robot controller 2 is
As shown in FIG. 3, the teaching route generation unit 70, the sensing route generation unit 71, the target route generation unit 72, the trajectory generation unit 73,
It is composed of a velocity profile section 74 and an S generator 75.

【0037】教示経路生成部70は、入力された教示点
列の情報を離散教示点列から曲線の長さ(S)で表した
教示経路Tw(s) に変換して、目標経路生成部72に送
出する。このときの教示経路Tw(s) は3次元ベクトル
となる。
The teaching path generating unit 70 converts the input teaching point sequence information from the discrete teaching point sequence into the teaching route Tw (s) represented by the length (S) of the curve, and the target route generating unit 72. Send to. The teaching path Tw (s) at this time is a three-dimensional vector.

【0038】なお、教示点列の情報は、始点と終点およ
びその間を結ぶ経路(直線、円弧など)の情報からなる
従来のものを拡張し、離散的な教示点列からなる複数の
制御点と補間方法を与えて空間曲線を表すものとした。
例えば、制御点を2点与え、補間法を直線とすれば従来
と同様に2点間を結ぶ直線が与えられ、また複数の制御
点と補間法としてスプラインを与えれば滑らかな空間曲
線が与えられる。
The information on the teaching point sequence is expanded from the conventional one consisting of information on a start point and an end point and a path (straight line, arc, etc.) connecting them, and a plurality of control points consisting of a discrete teaching point sequence. An interpolation method was given to represent the space curve.
For example, if two control points are given and the interpolation method is a straight line, a straight line connecting the two points is given as in the conventional case, and if a spline is given as a plurality of control points and an interpolation method, a smooth space curve is given. .

【0039】センシング経路生成部71は、倣うべき経
路上の離散的なセンシング情報列の点を教示で与えられ
た教示経路の形状(補間法)にしたがって繋ぐことによ
りセンシング経路Sw(s) に変換して、これを目標経路
生成部72に送出する。
The sensing path generation unit 71 converts the points of the discrete sensing information string on the path to be copied into the sensing path Sw (s) by connecting the points according to the shape (interpolation method) of the teaching path given by the teaching. Then, this is sent to the target route generation unit 72.

【0040】目標経路生成部72は、実作業対象物(ワ
ークピース)に対するセンシング経路Sw(s) と教示対
象物(マスターピース)に対する教示経路Tw(s) との
対応付けを実行する。ここでは、マスターピースの教示
経路Tw(s) とワークピースのセンシング経路Sw(s)
は平行移動、合同変換、相似変換、アフィン変換等の幾
何変換のいずれかの関係で結合されると仮定する。
The target path generation unit 72 associates the sensing path Sw (s) for the actual work object (workpiece) with the teaching path Tw (s) for the teaching object (masterpiece). Here, the teaching path Tw (s) of the master piece and the sensing path Sw (s) of the workpiece
Are assumed to be connected by any relation of translation, geometric transformation such as congruential transformation, similarity transformation, and affine transformation.

【0041】すなわち、次の一般式で結ばれるものとす
る。 Sw(s) =A・Tw(s) +B (1) ここで、Aは線形変換(回転)を表す3×3マトリック
ス、Bは並進を表す3次元ベクトルである。なお、Aお
よびBの求め方は後述する。
That is, it is assumed that they are connected by the following general formula. Sw (s) = A · Tw (s) + B (1) Here, A is a 3 × 3 matrix representing linear transformation (rotation), and B is a three-dimensional vector representing translation. The method of obtaining A and B will be described later.

【0042】以上のように対応付ければ、図10示すよ
うにセンシング装置5によりセンシング成功の時にはセ
ンシング経路Sw(s) を用い、センシングが失敗した時
(センシングミス区間)には教示経路Tw(s) を用いる
ようにマッピング処理をすれば、次式のように目標経路
Sw'(s)を生成することができる。
According to the above correspondence, as shown in FIG. 10, when the sensing device 5 succeeds in sensing, the sensing path Sw (s) is used, and when the sensing fails (sensing miss section), the teaching path Tw (s). If the mapping process is performed using (), the target route Sw ′ (s) can be generated as in the following equation.

【0043】[0043]

【数1】 [Equation 1]

【0044】なお、本装置例ではマニピュレータ4の作
業姿勢は教示装置1による教示時の姿勢とする。
In this example of the apparatus, the working posture of the manipulator 4 is the posture at the time of teaching by the teaching device 1.

【0045】軌道生成部73は、目標経路生成部72か
ら送出される目標経路Sw'(s)、速度プロファイル部7
4及びS生成器75にて作成されたマニピュレータ4の
移動量を基に、順次制御すべきマニピュレータのXref
の軌道情報を生成する。かかるデータ変換の詳細は後述
する。
The trajectory generation unit 73 has the target route Sw '(s) and the velocity profile unit 7 sent from the target route generation unit 72.
4 and the Xref of the manipulator to be sequentially controlled based on the movement amount of the manipulator 4 created by the S generator 75.
Generate orbital information of. Details of such data conversion will be described later.

【0046】速度プロファイル部74は、マニピュレー
タ4の速度パタン(図6に示すように時間を変数とした
時の速度の形)と最大速度をパラメータとした速度プロ
ファイルを生成する。なお、本装置例のように接触倣い
では、図を省略した力センサを設けて、かかる力センサ
の値により速度の変化等をモニタして速度プロファイル
の修正を行う。
The speed profile unit 74 generates a speed profile using the speed pattern of the manipulator 4 (the shape of speed when time is a variable as shown in FIG. 6) and the maximum speed as parameters. In the contact copying as in the example of the present device, a force sensor (not shown) is provided, and a change in speed or the like is monitored by the value of the force sensor to correct the speed profile.

【0047】S生成器75は、速度プロファイルをマニ
ピュレータ4の移動距離Sの関数とし、現時刻のSの値
を作成する。
The S generator 75 uses the velocity profile as a function of the movement distance S of the manipulator 4, and creates the value of S at the current time.

【0048】次に本装置例のロボットシステム装置αに
て用いるロボット操作コマンドについて説明する。な
お、図7及び図8は、それぞれ本装置例のロボットシス
テム装置αで用いるロボット制御方法の制御モデルを示
している。なお、省略して使用する手先とは、マニピュ
レータ4の先端をいい、手先経路指定とは、マニピュレ
ータ4の先端が移動する経路を指定するこという。
Next, a robot operation command used in the robot system apparatus α of this apparatus example will be described. 7 and 8 each show a control model of a robot control method used in the robot system apparatus α of this apparatus example. It should be noted that the hand to be used by omission refers to the tip of the manipulator 4, and the hand path designation refers to designation of a path along which the tip of the manipulator 4 moves.

【0049】(ロボット操作コマンド)本装置例におけ
る制御モデルから導くロボット操作コマンドは、 A)世界座標系と関節座標系 B)外界センサ5a利用の有無 C)教示装置1を用いた手先経路(教示経路)指定の有
無の組合わせで決まる。
(Robot operation command) The robot operation commands derived from the control model in this device example are: A) world coordinate system and joint coordinate system B) presence / absence of external sensor 5a C) hand path (teaching) using the teaching device 1 It is determined by the combination of whether or not the route is specified.

【0050】ただし、本装置例ではマニピュレータ4の
駆動制御を世界座標系を基準にして行うので、関節座標
系の場合は外界センサ5a利用無しでかつ手先経路指定
無しの場合のみ、外界センサ5a利用有りは補正すべき
経路が必要なので手先経路指定有りの場合のみを対象と
する。なお、外界センサ5aを利用しない場合は従来型
のロボットシステム装置βと等価となる。
However, in this example of the apparatus, the drive control of the manipulator 4 is performed with reference to the world coordinate system. Therefore, in the case of the joint coordinate system, the external sensor 5a is used only when the external sensor 5a is not used and the hand path is not specified. Since "Yes" requires a route to be corrected, only the case where the fingertip route is specified is targeted. When the external sensor 5a is not used, it is equivalent to the conventional robot system device β.

【0051】1)関節座標系/外界センサ5a利用無し
/手先経路指定無し この場合、図7又は図8の教示点列は目標関節角度であ
り、軌道情報を作成するため速度プロファイルおよび最
大速度を与え、Xref 生成器7の伝達関数は1(すなわ
ち、入力をそのまま出力する)、空間軌道 Xref をも
とに関節空間の角度情報θref を生成する、x→θの変
換ブロックも1とする。かかるロボット操作は、MOV
EJと名付け目標関節角度、最大速度をパラメータとす
ると、MOVEJ(目標関節角度、最大速度)なるコマ
ンドとして記述できる。なお、速度プロファイルは台形
則などを予め与えて置く。
1) Joint coordinate system / no external sensor 5a used / no hand path designation In this case, the teaching point sequence in FIG. 7 or 8 is the target joint angle, and the velocity profile and maximum velocity are used to create trajectory information. Given that the transfer function of the Xref generator 7 is 1 (that is, the input is output as it is), the conversion block of x → θ that generates the angle information θref of the joint space based on the spatial trajectory Xref is also 1. Such robot operation is based on MOV
If EJ is named and the target joint angle and maximum speed are parameters, it can be described as a command MOVEJ (target joint angle, maximum speed). The speed profile is set by giving a trapezoidal rule or the like in advance.

【0052】2)世界座標系/外界センサ5a利用無し
/手先経路指定無し この場合、図7又は図8の教示点列は目標位置姿勢であ
り、速度プロファイルおよび最大速度を与え、Xref 生
成器7は1、x→θのブロックは目標位置姿勢の関節角
度への変換を行う。通過経路はシステムに依存する。か
かるロボット操作は、MOVEPと名付け目標位置姿
勢、最大速度をパラメータとすると、MOVEP(目標
位置姿勢、最大速度)なるコマンドとして記述できる。
なお、速度プロファイルは台形則などを予め与えて置
く。
2) World coordinate system / no external world sensor 5a use / no hand path designation In this case, the teaching point sequence in FIG. 7 or 8 is the target position / orientation, the velocity profile and the maximum velocity are given, and the Xref generator 7 is used. Is 1, and the block of x → θ converts the target position / orientation into the joint angle. The path of passage depends on the system. Such a robot operation can be described as a command of MOVEP (target position / posture, maximum speed) when MOVEP is named and the target position / posture and maximum speed are parameters.
The speed profile is set by giving a trapezoidal rule or the like in advance.

【0053】3)世界座標系/外界センサ5aセンサ利
用無し/手先経路指定有り この場合、教示時に教示点列と点列間の補間法を与える
こととし、制御点数、制御点配列、補間モード(経路生
成モード)から経路を指定する。補間法としては、折れ
線補間、教示点を制御点とするスプライン補間、ベジエ
曲線補間等を用い、CAD情報等の取込みを可能とす
る。かかるロボットの操作は、MOVEと名付け上記し
た制御点数、制御点配列、経路生成モードをパラメータ
とするとともに、速度プロファイルおよび最大速度をパ
ラメータとすると、MOVE(制御点数、制御点配列、
経路生成モード、最大速度、速度プロファイル)なるコ
マンドとして記述できる。なお、ここでは速度プロファ
イルも陽に与えて置く。
3) World coordinate system / outside world sensor 5a sensor not used / hand tip path specified In this case, an interpolation method between teaching point sequences and point sequences is given at the time of teaching, and the number of control points, control point array, and interpolation mode ( Specify the route from (Route generation mode). As the interpolation method, polygonal line interpolation, spline interpolation using a teaching point as a control point, Bezier curve interpolation, or the like is used, and CAD information or the like can be captured. Such a robot operation is called MOVE, and has the number of control points, the control point array, and the route generation mode described above as parameters, and the velocity profile and the maximum speed as parameters, MOVE (number of control points, control point array,
Route generation mode, maximum speed, speed profile) command. The velocity profile is also given here explicitly.

【0054】4)世界座標系/外界センサ5a利用有り この場合、教示装置1からの教示点列の情報から教示経
路を生成する手法及び経路の指定法は3)と同一の方法
を用いる。処理アルゴリズムを簡略化するための外界セ
ンサ5a処理用の付加情報とともに、マニピュレータ4
の移動量を修正する用途に外界センサ5aから得られた
情報を速度プロファイル部74に反映するための制御モ
ードを、教示時に与える方法を新たに導入する。
4) Use of world coordinate system / outside world sensor 5a In this case, the same method as 3) is used as a method of generating a teaching route from the teaching point sequence information from the teaching device 1 and a route designation method. The manipulator 4 together with additional information for processing the external sensor 5a for simplifying the processing algorithm.
A method of giving a control mode at the time of teaching for reflecting the information obtained from the external sensor 5a in the speed profile section 74 for the purpose of correcting the movement amount of is newly introduced.

【0055】かかるロボットの操作は、TRACKと名
付け上記パラメータとともに、速度プロファイルおよび
最大速度をパラメータとすると、TRACK(制御点の
数、制御点の配列、経路生成モード、付加情報、最大速
度、速度プロファイル、制御モード)なるコマンドとし
て記述できる。このように7つのパラメータにて、図8
の制御モデルの制御が実現される。ここで、パラメータ
中、a)制御点数、制御点配列、経路生成モードは教示経
路を教示装置にて指定する際に用いられ、b)付加情報は
外界をセンシング装置5にてセンシングする際に用いら
れ、c)最大速度、速度プロファイルはマニピュレータ4
の移動量を速度プロファイルにて求めるのに用いられ、
d)制御モードは接触センシングにより得られる接触量か
ら該マニピュレータ4の移動量の修正量を求めるのに用
いられる。
In the operation of such a robot, TRACK (number of control points, arrangement of control points, route generation mode, additional information, maximum speed, speed profile) , Control mode). As shown in FIG.
The control of the control model is realized. Here, in the parameters, a) the number of control points, control point array, and route generation mode are used when the teaching route is specified by the teaching device, and b) additional information is used when the external device is sensed by the sensing device 5. C) Maximum speed, speed profile is manipulator 4
Is used to calculate the movement amount of
d) The control mode is used to obtain the correction amount of the movement amount of the manipulator 4 from the contact amount obtained by the contact sensing.

【0056】(方法例)次に、図面を参照して、上述し
た装置例のロボットシステム装置αを用いた具体的なロ
ボット制御方法を説明する。図9は本方法例のロボット
制御方法のフロチャートを示している。
(Example of Method) Next, with reference to the drawings, a specific robot control method using the robot system apparatus α of the above-described apparatus example will be described. FIG. 9 shows a flowchart of the robot control method of this method example.

【0057】先ず、初期化してt=0、i=0とする
(ST1)。次に、教示装置1にて教示され、図を省略
したメモリに格納された教示点iの情報を読み出す(S
T2)。そして、読み出した情報の中から付加情報を選
出して、特徴点処理部6に送信する(ST3)。
First, initialization is performed to set t = 0 and i = 0 (ST1). Next, the information of the teaching point i which is taught by the teaching device 1 and is stored in the memory (not shown) is read (S
T2). Then, additional information is selected from the read information and transmitted to the feature point processing unit 6 (ST3).

【0058】なお、付加情報としては、例えば、特徴点
検出アルゴリズムの選択をする情報、検出すべき特徴点
を指定する情報とする。ここで、特徴点検出アルゴリズ
ムの選択をする情報とは、複数の特徴点検出アルゴリズ
ム情報が利用できる場合に、教示の時点で教示者がどの
アルゴリズムを使用するかを指定する情報をいう。ま
た、検出すべき特徴点を指定する情報は、特徴点検出ア
ルゴリズムが複数の特徴点を検出した時あるいは検出す
る可能性がある場合、どの特徴点を選択するかを指定す
る情報をいう。かかる付加情報は、マニピュレータ4の
手先4aが制御点を通過する時点で更新される。
The additional information is, for example, information for selecting a feature point detection algorithm or information for designating a feature point to be detected. Here, the information for selecting the feature point detection algorithm is information that specifies which algorithm the teacher uses at the time of teaching when a plurality of pieces of feature point detection algorithm information are available. Further, the information designating the feature point to be detected is the information designating which feature point to select when the feature point detection algorithm detects a plurality of feature points or when there is a possibility of detection. The additional information is updated when the hand 4a of the manipulator 4 passes the control point.

【0059】特徴点処理部6では、特徴点検出のアルゴ
リズムI 〜III の選択を行い(ST4)、最適な検出ア
ルゴリズムI 〜III にて特徴点をセンシング検出し(S
T5)、検出情報をロボット制御装置2に送信する。
The feature point processing section 6 selects the feature point detection algorithms I to III (ST4), and detects the feature points by the optimum detection algorithms I to III (S).
T5), the detection information is transmitted to the robot controller 2.

【0060】次にtに経過時間を加えるt=t+Δtの
処理を行う(ST6)。そして、特徴点処理部6からの
センシング送信情報等から、ロボット制御装置2のXre
f 生成器7にて、時刻tにおける空間曲線Xref の目標
位置のマニピュレータの姿勢を算出する(ST7)。
Next, processing of t = t + Δt is performed to add elapsed time to t (ST6). Then, from the sensing transmission information from the feature point processing unit 6 and the like, Xre of the robot controller 2 is
The f generator 7 calculates the attitude of the manipulator at the target position of the space curve Xref at time t (ST7).

【0061】続いて、ロボット制御装置2からサーボ駆
動装置3へは目標位置姿勢情報Xref を送信する(ST
8)。サーボ制御装置2は、目標位置姿勢情報Xref を
受信して、マニピュレータ4を駆動する(ST9)。
Subsequently, the target position / orientation information Xref is transmitted from the robot control device 2 to the servo drive device 3 (ST
8). The servo control device 2 receives the target position / orientation information Xref and drives the manipulator 4 (ST9).

【0062】ステップST6からステップST9までの
手順はマニピュレータ4が教示点iに到達するまで実行
し、マニピュレータが教示点iに到達すると、次のステ
ップST11に移る(ST10)。
The procedure from step ST6 to step ST9 is executed until the manipulator 4 reaches the teaching point i, and when the manipulator reaches the teaching point i, the process proceeds to the next step ST11 (ST10).

【0063】ステップST11では、最後の教示点まで
マニピュレータ4が移動したかを確認し、最後の教示点
に到達していないと判断するとステップST12に移
り、最後の教示点に到達したと判断すると処理を終了す
る。
In step ST11, it is confirmed whether the manipulator 4 has moved to the last teaching point. If it is determined that the last teaching point has not been reached, the process proceeds to step ST12, and if it is determined that the last teaching point has been reached, the processing is performed. To finish.

【0064】ステップST12では、i=i+1の加算
処理を行いステップST2の処理に戻る。
At step ST12, an addition process of i = i + 1 is performed, and the process returns to step ST2.

【0065】次に本発明のロボット制御方法の主な処理
内容を詳述する。 (経路の長さ表示および経路から軌道への変換処理)空
間曲線をx(u) [a≦u≦b]と仮定し、x(u) の始点
からの曲線の長さをSとすると、
Next, the main processing contents of the robot control method of the present invention will be described in detail. (Path length display and path-to-orbit conversion processing) Assuming that the space curve is x (u) [a≤u≤b], and the length of the curve from the start point of x (u) is S,

【0066】[0066]

【数2】 [Equation 2]

【0067】なる関係式が得られる。このため、速度プ
ロファイルをv=f(s) 、f(s,ds/dt,ds2/dt2) =0な
どの形で与えることにより、経路x(s) から軌道x(s
(t))が求まる。ただし、停止動作をともなう場合は、停
止期間について時間を陽に指定する。
The following relational expression is obtained. Therefore, by giving a velocity profile in the form of v = f (s), f (s, ds / dt, ds2 / dt2) = 0, etc., the trajectory x (s) is changed to the trajectory x (s
(t)) is obtained. However, when the stop operation is involved, the time is explicitly specified for the stop period.

【0068】(経路補正法(マッピング法))経路補正
法は前述の式(2)で目標経路Sw'(s)の生成を行う。
本装置例のロボットシステム装置αでは、図10に示す
ように教示経路Tw(s) とセンシング経路Sw(s) の対
応は平行移動、合同変換、相似変換、アフィン変換のい
ずれかで結び付けるものとする。
(Route Correction Method (Mapping Method)) In the route correction method, the target route Sw ′ (s) is generated by the above-mentioned equation (2).
In the robot system device α of this device example, as shown in FIG. 10, the correspondence between the teaching path Tw (s) and the sensing path Sw (s) is to be linked by any of parallel movement, congruential transformation, similarity transformation, and affine transformation. To do.

【0069】なお、本装置例では、センシング装置5に
てセンシングを常時実行し、センシング経路Sw(s) で
ロボット作業を行う一方、センシングが失敗した区間だ
け、教示経路Tw(s) をもとに経路補正した目標経路S
w'(s)でロボット作業を行い、またセンシングが回復す
ると、センシング経路Sw(s) でロボット作業を行う制
御方法を採用した。しかし、ロボットシステム装置αの
作業経路が短い場合には、センシング装置5にてセンシ
ングが失敗した後、教示経路Tw(s) をもとに経路補正
した目標経路Sw'(s)で最後までロボット作業を行う制
御方法にしても良い。
In this example of the apparatus, the sensing apparatus 5 always performs sensing and performs the robot work on the sensing path Sw (s), while the teaching path Tw (s) is used only for the section where the sensing fails. Target route S corrected to
A control method is adopted in which robot work is performed on w '(s), and when sensing is restored, robot work is performed on the sensing path Sw (s). However, when the work route of the robot system device α is short, after the sensing device 5 fails in sensing, the robot moves to the end with the target route Sw ′ (s) corrected based on the teaching route Tw (s). A control method for performing work may be used.

【0070】以下、経路補正法の具体的な処理手法につ
いて説明する。 1)センシング経路Sw(s) の始点O' は、当初、ロボッ
ト制御装置2のメモリに記憶された教示経路Tw(s) に
従ってマニピュレータを駆動し、初期段階において少な
くともセンシング生情報が安定落ち着いた後に、センシ
ング装置5にて最初にセンシングした点とする。なお、
教示経路Tw(s) の始点Oとセンシング経路Sw(s) の
始点O' に誤差が生じる要因として、(1) 個体差、(2)
取付け誤差、(3) センシング誤差、を挙げることができ
る。
A specific processing method of the path correction method will be described below. 1) The starting point O ′ of the sensing path Sw (s) initially drives the manipulator in accordance with the teaching path Tw (s) stored in the memory of the robot controller 2, and after at least the sensing raw information stabilizes and stabilizes in the initial stage. , The first sensing point of the sensing device 5. In addition,
As a factor causing an error between the starting point O of the teaching path Tw (s) and the starting point O ′ of the sensing path Sw (s), (1) individual difference, (2)
Installation error and (3) sensing error can be mentioned.

【0071】2)センシング経路Sw(s) を主として作成
される目標経路Sw'(s)の曲線形状は、教示で与えられ
た教示経路Tw(s) の曲線形状と幾何学的に同様である
と仮定して、センシング列の情報に教示経路Tw(s) の
曲線情報を当てはめ処理することによって求める。
2) The curve shape of the target path Sw '(s) created mainly by the sensing path Sw (s) is geometrically similar to the curve shape of the teaching path Tw (s) given by the teaching. Assuming that, the curve information of the teaching path Tw (s) is applied to the information of the sensing row to obtain the information.

【0072】3)マッピング処理をするに当たっては、変
換式(1)の初期値を決める。 Sw(s) =Tw(s) +B (1) ここで、回転マトリクスAは単位マトリクス、並進ベク
トルBは教示経路Tw(s) の始点Oとセンシング経路S
w(s) の始点O' の差とする。 すなわち、S' w(s) =Tw(s) +B
3) In performing the mapping process, the initial value of the conversion formula (1) is determined. Sw (s) = Tw (s) + B (1) Here, the rotation matrix A is the unit matrix, and the translation vector B is the starting point O of the teaching path Tw (s) and the sensing path S.
The difference is the starting point O'of w (s). That is, S'w (s) = Tw (s) + B

【0073】4)マッピング処理の変換式(1)はマッピ
ングの内容によって以下のように更新をする。 ・平行移動の場合は、Aは単位マトリクスとして、経路
の長さSからBを求める。 ・合同変換の場合は、平行移動分に加え、経路の接線ベ
クトルから回転マトリクスAを決定する。 ・相似変換の場合は、経路の曲率から相似比を決め、並
進ベクトルおよび回転マトリクスを求める。 ・アフィン変換の場合は、現在位置の近傍の複数点の情
報から回転マトリクスと並進ベクトルを決める。
4) The conversion formula (1) of the mapping process is updated as follows according to the contents of the mapping. In the case of parallel movement, A is a unit matrix and B is calculated from the path length S. In the case of the congruential transformation, the rotation matrix A is determined from the tangential vector of the route in addition to the translation amount. In the case of similarity transformation, the similarity ratio is determined from the curvature of the path, and the translation vector and rotation matrix are obtained. -In the case of affine transformation, the rotation matrix and translation vector are determined from the information of multiple points near the current position.

【0074】5)経路の終点の検出を行うには、以下の手
法を採用する。 ・センシングした点の世界座標と教示の終点の距離を、
計測誤差を考慮し近傍何点かのセンシング情報から計算
し距離が最小となる点を終点とする。 ・教示経路から求めた経路長から終点を計算し、これを
プレイバック時の終点とする。 ・教示経路を変換マトリクスにて変換して終点の世界座
標を求め、センシングして求めた世界座標と比較し距離
最小となる点を終点とする。
5) To detect the end point of the route, the following method is adopted.・ The distance between the world coordinates of the sensed point and the end point of the teaching,
Considering the measurement error, it is calculated from the sensing information of several neighboring points, and the point with the minimum distance is set as the end point. -Calculate the end point from the path length obtained from the taught path, and use this as the end point during playback. -The teaching route is converted by the conversion matrix to obtain the world coordinates of the end point, and compared with the world coordinates obtained by sensing, the point with the minimum distance is set as the end point.

【0075】以上説明した本発明の装置例及び方法例を
採用すれば、ロボット制御装置にてマニピュレータの手
先の目標位置姿勢を時々刻々と制御でき、曲線形状の倣
い制御精度を高くでき、高精度なロボット制御が可能と
なる。
By adopting the apparatus example and the method example of the present invention described above, the robot controller can control the target position / orientation of the hand of the manipulator moment by moment, and the precision of the control of copying the curved shape can be made high and the precision can be improved. Robot control is possible.

【0076】特に、外界センサ5aが計測した生情報か
ら特徴点を検出できず、センシングに失敗した場合で
も、その時点までに与えられたセンシング情報とあらか
じめ教示してある教示情報から、マニピュレータ4がと
るべき位置姿勢を決定することができる。
In particular, even if the characteristic point cannot be detected from the raw information measured by the external sensor 5a and the sensing fails, the manipulator 4 can detect the sensing information given up to that point and the teaching information previously taught. The position and orientation to be taken can be determined.

【0077】以上本発明の代表的な装置例及び方法例に
ついて説明したが、本発明は必ずしもこれらの装置例の
手段及び方法例の手法だけに限定されるものではなく、
本発明にいう目的を達成し、後述する効果を有する範囲
内において適宜変更して実施することができるものであ
る。特に、速度プロファイルの作成には、時間とその時
間におけるマニピュレータ4の手先の速度を指定する手
法を採用したが、経路の長さと経路上のその長さの点に
おけるマニピュレータ4の手先速度を指定する方法を採
用しても良い。
Although the typical apparatus examples and method examples of the present invention have been described above, the present invention is not necessarily limited to the means and method examples of these apparatus examples.
The present invention can be appropriately modified and carried out within a range where the object of the present invention is achieved and the effects described later are obtained. In particular, the method of designating the time and the speed of the hand of the manipulator 4 at that time was adopted to create the speed profile, but the hand speed of the manipulator 4 at the point of the length of the path and the length on the path is specified. The method may be adopted.

【0078】[0078]

【発明の効果】以上説明したように本発明によれば、外
界センサ系とサーボ制御系とが連系して目標経路を作成
するので、極めて高い精度で作業経路にマニピュレータ
を駆動することができるという効果を奏する。
As described above, according to the present invention, the external sensor system and the servo control system are interconnected to create a target path, so that the manipulator can be driven on the work path with extremely high accuracy. Has the effect.

【0079】特に、外界センサが計測不能状態に陥った
場合でも、マニピュレータを目標経路に移動させること
ができ、しかも倣い制御において、粗く教示してもきめ
細かなマニピュレータの制御ができる。
In particular, even when the external sensor falls into a state in which measurement is impossible, the manipulator can be moved to the target path, and in the copying control, the manipulator can be finely controlled even if it is roughly taught.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明に係る装置例のロボットシステム装置の
構成を示したブロック図である。
FIG. 1 is a block diagram showing a configuration of a robot system device as an example of a device according to the present invention.

【図2】外界センサの取付け位置を示したロボットシス
テム装置の概略図である。
FIG. 2 is a schematic view of the robot system device showing the mounting position of the external sensor.

【図3】本発明に係る装置例のロボット制御装置の主要
部を示したブロック図である。
FIG. 3 is a block diagram showing a main part of a robot controller of an apparatus example according to the present invention.

【図4】作業対象物Aの2枚の鋼板合わせ面に発生する
曲線形状を示した説明図である。
FIG. 4 is an explanatory view showing a curved shape generated on the two steel plate mating surfaces of the work object A;

【図5】図4のa−b断面を計測した結果をグラフに表
した図である。
FIG. 5 is a graph showing a result of measuring the ab cross section of FIG. 4.

【図6】本発明の装置例及び方法例で使用する速度プロ
ファイルの例を示した図である。
FIG. 6 is a diagram showing an example of a velocity profile used in the apparatus example and the method example of the present invention.

【図7】本発明の装置例及び方法例で用いる第1のロボ
ット制御モデルを示すブロック図である。
FIG. 7 is a block diagram showing a first robot control model used in an apparatus example and a method example of the present invention.

【図8】本発明の装置例及び方法例で用いる第2のロボ
ット制御モデルを示すブロック図である。
FIG. 8 is a block diagram showing a second robot control model used in the apparatus example and the method example of the present invention.

【図9】本発明の方法例で用いるロボット制御方法の手
順を示したフロチャートである。
FIG. 9 is a flowchart showing a procedure of a robot control method used in a method example of the present invention.

【図10】センシング経路と教示経路との関係を示した
説明図である。
FIG. 10 is an explanatory diagram showing a relationship between a sensing route and a teaching route.

【図11】従来例のロボットシステム装置の構成を示し
たブロック図である。
FIG. 11 is a block diagram showing a configuration of a conventional robot system device.

【図12】従来例のロボット制御モデルを示すブロック
図である。
FIG. 12 is a block diagram showing a robot control model of a conventional example.

【符号の説明】[Explanation of symbols]

α、β…ロボットシステム装置 A…作業対象物 B…合わせ面の境界 O…教示始点 O' …センシング始点 Tw(s) …教示経路 Sw(s) …センシング経路 S' w(s) …目標経路 1…教示装置 2…ロボット制御装置 3…サーボ駆動装置 4…マニピュレータ 4a…手先 5…センシング装置 5a…外界センサ 6…特徴点処理部 7…Xref 生成器 70…教示経路生成部 71…センシング経路生成部 72…目標経路生成部 73…軌道生成部 74…速度プロファイル 75…S生成器 α, β ... Robot system device A ... Work target B ... Mating plane boundary O ... Teaching start point O '... Sensing start point Tw (s) ... Teaching path Sw (s) ... Sensing path S'w (s) ... Target path DESCRIPTION OF SYMBOLS 1 ... Teaching device 2 ... Robot control device 3 ... Servo drive device 4 ... Manipulator 4a ... Minions 5 ... Sensing device 5a ... External sensor 6 ... Feature point processing unit 7 ... Xref generator 70 ... Teaching route generation unit 71 ... Sensing route generation Part 72 ... Target route generation unit 73 ... Orbit generation unit 74 ... Velocity profile 75 ... S generator

───────────────────────────────────────────────────── フロントページの続き (72)発明者 荒川 賢一 東京都千代田区内幸町1丁目1番6号 日 本電信電話株式会社内 (72)発明者 片山 幸久 東京都千代田区内幸町1丁目1番6号 日 本電信電話株式会社内 (72)発明者 手塚 博久 東京都千代田区内幸町1丁目1番6号 日 本電信電話株式会社内 ─────────────────────────────────────────────────── ─── Continuation of the front page (72) Kenichi Arakawa 1-1-6 Uchisaiwaicho, Chiyoda-ku, Tokyo Nihon Telegraph and Telephone Corporation (72) Inventor Yukihisa Katayama 1-6-6 Uchisaiwaicho, Chiyoda-ku, Tokyo Nihon Telegraph and Telephone Corp. (72) Inventor Hirohisa Tezuka 1-1-6 Uchisaiwaicho, Chiyoda-ku, Tokyo Nihon Telegraph and Telephone Corp.

Claims (11)

【特許請求の範囲】[Claims] 【請求項1】ロボット制御手段にてマニピュレータの軌
道情報を作成してロボットの動作を制御するに当たり、 作業対象物に対するセンシング情報と教示情報とを逐一
同時並行入力し、 当該両情報の対応付けを実行しつつ、当該センシング情
報を優先採用し、 当該センシング情報が作業途中で途絶えた時、その時点
での前記教示情報を即座に取り込むマッピング処理を
し、 作業を一貫連続して円滑遂行する、 ことを特徴とするロボット制御方法。
1. When the robot control means creates trajectory information of a manipulator and controls the operation of a robot, sensing information and teaching information for a work object are simultaneously input in parallel, and the two pieces of information are associated with each other. While executing, preferentially adopt the sensing information, and when the sensing information is interrupted during the work, perform mapping processing to immediately take in the teaching information at that time, and carry out the work consistently and continuously. A robot control method characterized by:
【請求項2】ロボット制御手段にてマニピュレータの軌
道情報を作成してロボットの動作を制御するに当たり、 当該マニピュレータと、入力された軌道情報に基づいて
マニピュレータを駆動するサーボ駆動手段と、当該マニ
ピュレータによる作業を教示する教示手段と、外界情報
を検出するセンシング手段と、前記ロボット制御手段と
を擁して、 前記教示手段にて教示された作業対象物に係る離散的な
点列情報から教示経路を生成するとともに、前記センシ
ング手段にて得られる作業対象物に係る離散的な点列情
報からセンシング経路を生成し、 当該センシング経路と前記教示経路とをマッピング処理
して目標経路を生成し、かかる目標経路からマニピュレ
ータの軌道情報を生成する、 ことを特徴とするロボット制御方法。
2. When the robot control means creates trajectory information of the manipulator to control the operation of the robot, the manipulator, the servo drive means for driving the manipulator based on the entered trajectory information, and the manipulator are used. The teaching means for teaching the work, the sensing means for detecting the external world information, and the robot control means are provided, and the teaching path is generated from the discrete point sequence information related to the work target taught by the teaching means. In addition, a sensing route is generated from the discrete point sequence information related to the work object obtained by the sensing means, and the sensing route and the teaching route are mapped to generate a target route. The robot control method is characterized in that the trajectory information of the manipulator is generated from the.
【請求項3】教示手段から得られる離散的な点列情報
は、 複数の制御点と補間方法を与えて空間曲線を表す数値情
報とした、 ことを特徴とする請求項2に記載のロボット制御方法。
3. The robot control according to claim 2, wherein the discrete point sequence information obtained from the teaching means is numerical information representing a space curve by giving a plurality of control points and an interpolation method. Method.
【請求項4】マッピング処理は、 センシング成功の箇所はセンシング経路を目標経路と
し、 センシング失敗の箇所は教示経路をセンシング経路に結
合するように平行移動、合同変換、相似変換、アフィン
変換等の幾何変換処理した目標経路とする、 ことを特徴とする請求項1、2又は3に記載のロボット
制御方法。
4. The mapping process includes a geometry such as parallel movement, congruential transformation, similarity transformation, affine transformation, etc., so that a sensing path is a target path at a sensing success point, and a sensing path is a teaching path at a sensing failure point. The robot control method according to claim 1, wherein the converted target path is used.
【請求項5】マニピュレータは、 複数の軸を有する構造からなる、 ことを特徴とする請求項1、2、3又は4に記載のロボ
ット制御方法。
5. The robot control method according to claim 1, wherein the manipulator has a structure having a plurality of axes.
【請求項6】センシング経路の生成は、 作業対象物の特徴点を検出する特徴点処理を行い、 検出した特徴点を経路作成時の基準点とする、 ことを特徴とする請求項2、3、4又は5に記載のロボ
ット制御方法。
6. The generation of a sensing route is performed by a feature point process for detecting a feature point of a work target, and the detected feature point is used as a reference point when a route is created. 4. The robot control method according to 4 or 5.
【請求項7】マニピュレータの軌道情報を作成するため
にマニピュレータの移動量を検出するに当たり、 当該マニピュレータの手先の速度パタンと最大速度に基
づき速度プロファイルを作成し、当該速度プロファイル
と経過時間にて当該マニピュレータの現時点の移動量を
決定する、 ことを特徴とする請求項2、3、4、5又は6に記載の
ロボット制御方法。
7. When detecting the amount of movement of the manipulator in order to create the trajectory information of the manipulator, a speed profile is created based on the speed pattern and the maximum speed of the hand of the manipulator, and the speed profile and the elapsed time are used. The robot control method according to claim 2, wherein the current movement amount of the manipulator is determined.
【請求項8】マニピュレータと、入力された軌道情報に
基づいてマニピュレータを駆動するサーボ駆動装置と、
マニピュレータによる作業を教示する教示装置と、外界
情報を検出するセンシング装置と、ロボット制御装置と
を備えたロボットシステムにおいて、 当該ロボット制御装置は、 前記教示装置にて教示された作業対象物に係る離散的な
点列情報から教示経路を生成する教示経路生成部と、前
記センシング装置にて検出される作業対象物に係る離散
的な点列情報からセンシング経路を生成するセンシング
経路生成部と、当該センシング経路と前記教示経路とを
マッピングする目標経路生成部と、目標経路からマニピ
ュレータの軌道情報を生成する軌道生成部とを備えた、 ことを特徴とするロボットシステム装置。
8. A manipulator, and a servo drive device for driving the manipulator based on input trajectory information,
In a robot system including a teaching device that teaches work by a manipulator, a sensing device that detects external world information, and a robot controller, the robot controller is a discrete device that relates to a work target taught by the teaching device. Teaching path generating unit that generates a teaching route from specific point sequence information, a sensing route generating unit that generates a sensing route from discrete point sequence information related to a work object detected by the sensing device, and the sensing A robot system apparatus comprising: a target route generation unit that maps a route and the teaching route; and a trajectory generation unit that generates trajectory information of the manipulator from the target route.
【請求項9】軌道生成部は、 マニピュレータの手先の速度パタンと最大速度に基づき
速度プロファイルを作成する速度プロファイル部と、前
記速度プロファイルと経過時間からマニピュレータの移
動量を生成するS生成器と接続され、マニピュレータの
現時点の移動量情報を得る構成とした、 ことを特徴とする請求項8に記載のロボットシステム装
置。
9. The trajectory generation unit is connected to a velocity profile unit that creates a velocity profile based on the velocity pattern of the hand of the manipulator and the maximum velocity, and an S generator that generates the movement amount of the manipulator from the velocity profile and the elapsed time. 9. The robot system apparatus according to claim 8, wherein the robot system apparatus is configured to obtain the current movement amount information of the manipulator.
【請求項10】センシング装置の外界センサは、 マニピュレータの先端にオフセットを付けた状態で配置
された、 ことを特徴とする請求項8又は9に記載のロボットシス
テム装置。
10. The robot system apparatus according to claim 8, wherein the external sensor of the sensing device is arranged in a state where the tip of the manipulator is offset.
【請求項11】マニピュレータは、 複数の軸を有する構造からなる、 ことを特徴とする請求項8、9又は10に記載のロボッ
トシステム装置。
11. The robot system apparatus according to claim 8, wherein the manipulator has a structure having a plurality of axes.
JP17977395A 1995-07-17 1995-07-17 Robot control method and robot system device Pending JPH0934528A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP17977395A JPH0934528A (en) 1995-07-17 1995-07-17 Robot control method and robot system device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP17977395A JPH0934528A (en) 1995-07-17 1995-07-17 Robot control method and robot system device

Publications (1)

Publication Number Publication Date
JPH0934528A true JPH0934528A (en) 1997-02-07

Family

ID=16071641

Family Applications (1)

Application Number Title Priority Date Filing Date
JP17977395A Pending JPH0934528A (en) 1995-07-17 1995-07-17 Robot control method and robot system device

Country Status (1)

Country Link
JP (1) JPH0934528A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7047107B2 (en) * 2001-02-22 2006-05-16 Mitsubishi Denki Kabushiki Kaisha Robot control apparatus
JP2014104558A (en) * 2012-11-29 2014-06-09 Daihen Corp Controlling device
CN107421755A (en) * 2017-08-11 2017-12-01 中汽研(天津)汽车工程研究院有限公司 A kind of automobile composite measurement platform

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7047107B2 (en) * 2001-02-22 2006-05-16 Mitsubishi Denki Kabushiki Kaisha Robot control apparatus
JP2014104558A (en) * 2012-11-29 2014-06-09 Daihen Corp Controlling device
CN107421755A (en) * 2017-08-11 2017-12-01 中汽研(天津)汽车工程研究院有限公司 A kind of automobile composite measurement platform

Similar Documents

Publication Publication Date Title
US10618164B2 (en) Robot system having learning control function and learning control method
US20050273202A1 (en) Method and device for improving the positioning accuracy of a manipulator
Baeten et al. Hybrid vision/force control at corners in planar robotic-contour following
JP2014180704A (en) Robot picking system and manufacturing method for workpiece
JPH08377B2 (en) Robot inaccuracy correction method
Afthoni et al. Proportional derivative control based robot arm system using Microsoft Kinect
JP2767417B2 (en) Robot control device
Baeten et al. Combining force control and visual servoing for planar contour following
JPH0934528A (en) Robot control method and robot system device
JP3287151B2 (en) Force control device for assembly robot
JPH09300264A (en) Robot controller
JP3380028B2 (en) Profile control method of pipe surface by force control robot
JP3579742B2 (en) Teaching data correction method, correction program and correction device
JP2739764B2 (en) Robot scanning speed control method
JP2737325B2 (en) Robot trajectory generation method
JPH01222311A (en) Curve profile controller for multidegree of freedom work machine
JP3175623B2 (en) Robot control device
JPH07314359A (en) Follow-up device for manipulator, and control thereof
JP2778285B2 (en) Copying sensor robot system
WO2022176761A1 (en) Control device, robot system, learning device, control method, and program
JP3089027B2 (en) Robot profiling control device
de Graaf et al. Real-time trajectory generation for sensor-guided robotic laser welding
JPH06114768A (en) Robot control device
Chaudhry et al. VISUAL CONTROL OF A ROBOTIC MANIPULATOR FOR TRACKING OF AN UNCOOPERATIVE PLATFORM
JPH0241843A (en) Teaching method for profile of work locus