JPH05228868A - Control method of robot - Google Patents

Control method of robot

Info

Publication number
JPH05228868A
JPH05228868A JP3024992A JP3024992A JPH05228868A JP H05228868 A JPH05228868 A JP H05228868A JP 3024992 A JP3024992 A JP 3024992A JP 3024992 A JP3024992 A JP 3024992A JP H05228868 A JPH05228868 A JP H05228868A
Authority
JP
Japan
Prior art keywords
information
robot
target object
visual device
approach
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP3024992A
Other languages
Japanese (ja)
Inventor
Hidetoshi Nogo
英俊 野吾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP3024992A priority Critical patent/JPH05228868A/en
Publication of JPH05228868A publication Critical patent/JPH05228868A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Manipulator (AREA)
  • Control Of Position Or Direction (AREA)

Abstract

PURPOSE:To make an approach from many direction achievable by setting an operating for approach's sake on the basis of information showing an approaching direction at the time of setting the operating command on the basis of register information of an object table and output information of a visual device. CONSTITUTION:An across-the-board working area inclusive of an object body 1 is photographed by a camera 4, outputting a picture signal. In addition, this picture signal is processed by a visual device 5, and positional information and tilting information of the object body 1 are calculated and outputted. Moreover, on the basis of those of position and tilting information, a robot 2 is controlled by a robot controller 3. In this case, a name for discriminating the object body 1, height information in a range from a reference plane of this body 1 to a holding point 11 and information showing an approaching direction of the object body 1 are all registered each in an object table 31 of this robot controller 3. In succession, an operating command for approaching is set up on the basis of information showing the approaching direction at the time of setting up the operating command on the basis of the register information and output information of the visual device 5.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は視覚装置が出力する情報
に基づいてロボットの動作を制御するロボット制御系に
係り、特にロボットハンドを上下方向の他に任意の方向
からアプローチできるロボットの制御方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a robot control system for controlling the operation of a robot based on information output from a visual device, and more particularly to a robot control method capable of approaching a robot hand from any direction other than the vertical direction. Regarding

【0002】視覚装置が出力する対象物体の位置や姿勢
に関する情報に基づいてロボットの動作を指令するロボ
ット制御装置は、教示時に対象物体の位置を正確に定義
できない状況においても動作時に正確な位置を指定でき
るため応用範囲が広がる。
[0002] A robot control device that commands the operation of a robot based on information about the position and orientation of a target object output by a visual device provides an accurate position during operation even when the position of the target object cannot be accurately defined during teaching. The range of applications is expanded because it can be specified.

【0003】しかし、対象物体にロボットハンドをアプ
ローチする方向が例えば上下方向だけの場合は対象物体
の形状が限定される。そこで、ロボットハンドを上下方
向の他に任意の方向からアプローチできるロボット制御
方法の実現が望まれている。
However, when the robot hand approaches the target object only in the vertical direction, the shape of the target object is limited. Therefore, it is desired to realize a robot control method capable of approaching the robot hand from any direction other than the vertical direction.

【0004】[0004]

【従来の技術】図2はロボット制御系の一例を示すブロ
ック図、図3はロボット制御系の動作を説明するための
図、図4は従来のロボット制御方法を示す図である。
2. Description of the Related Art FIG. 2 is a block diagram showing an example of a robot control system, FIG. 3 is a diagram for explaining the operation of the robot control system, and FIG. 4 is a diagram showing a conventional robot control method.

【0005】図2において対象物体1を把持し移送する
ロボット2は対象物体1を把持する機構を具えたロボッ
トハンド21と、対象物体1の移送に際して先端に装着さ
れたロボットハンド21を所定の位置に移動させるロボッ
トアーム22を具えている。
In FIG. 2, a robot 2 for gripping and transferring the target object 1 has a robot hand 21 equipped with a mechanism for gripping the target object 1 and a robot hand 21 attached to the tip when the target object 1 is transferred at a predetermined position. It is equipped with a robot arm 22 for moving to.

【0006】かかるロボット2は予め設定されてなるプ
ログラムに基づいて制御信号を出力するロボット制御装
置3により制御され、例えばAという名前の対象物体1
は図3(a) に示すプログラムにしたがって第1の点から
第2の点に移送される。
The robot 2 is controlled by a robot controller 3 which outputs a control signal based on a preset program, for example, a target object 1 named A.
Are transferred from the first point to the second point according to the program shown in FIG.

【0007】 ロボットハンド移動:ロボットアーム
22を駆動して対象物体1の把持点11から所定の距離だけ
離れた目標点にロボットハンド21を移動させる。 ロボットハンドアプローチ:上記目標点から対象物
体1の把持点11までの距離をオフセット量と称し、ロボ
ットハンド21を目標点から所定の方向にオフセット量移
動させて対象物体1にアプローチする。
Robot Hand Movement: Robot Arm
The robot hand 21 is driven to move the robot hand 21 to a target point that is separated from the grip point 11 of the target object 1 by a predetermined distance. Robot hand approach: The distance from the target point to the gripping point 11 of the target object 1 is referred to as an offset amount, and the robot hand 21 is moved from the target point in a predetermined direction by an offset amount to approach the target object 1.

【0008】 ロボットハンドクローズ:ロボットハ
ンド21を閉じて対象物体1の把持点11を把持する。 ロボットハンドリターン:対象物体1を把持したロ
ボットハンド21を所定の方向にオフセット量移動させ
る。
Robot hand close: The robot hand 21 is closed and the grip point 11 of the target object 1 is gripped. Robot hand return: The robot hand 21 holding the target object 1 is moved by an offset amount in a predetermined direction.

【0009】 ロボットハンド移動:ロボットアーム
22を駆動して対象物体1を第1の点から第2の点に移送
する。ロボットアーム22を駆動して対象物体1を移送す
る際に対象物体1を載置する基準面から対象物体1の把
持点11までの高さ、およびロボットハンド21を対象物体
1にアプローチするときのオフセット量を設定すること
は極めて容易である。
Robot hand movement: robot arm
22 is driven to transfer the target object 1 from the first point to the second point. When the robot arm 22 is driven to transfer the target object 1, the height from the reference plane on which the target object 1 is placed to the gripping point 11 of the target object 1 and the robot hand 21 when approaching the target object 1 Setting the offset amount is extremely easy.

【0010】しかし、図3(b) に示す対象物体1のXY
座標やX座標軸に対する角度θ等を予め正確に設定する
ことは困難である。そこで、図2に示す如く作業領域全
般を上方から撮影するカメラ4を設置してかかる情報を
取り込んでいる。
However, the XY of the target object 1 shown in FIG.
It is difficult to accurately set the angle θ with respect to the coordinate and the X coordinate axis in advance. Therefore, as shown in FIG. 2, a camera 4 for photographing the entire work area from above is installed to capture such information.

【0011】即ち、ロボット制御系は対象物体1を含む
作業領域全般を上方から撮影し画像信号を出力するカメ
ラ4と、画像信号を処理することによって対象物体1の
位置情報や座標軸からの傾き情報を出力する視覚装置5
を具えている。
That is, the robot control system captures the entire work area including the target object 1 from above and outputs an image signal, and the position information of the target object 1 by processing the image signal and the tilt information from the coordinate axis. Output device 5
It is equipped with

【0012】視覚装置5は画像信号を一時的に記憶する
画像入力部51と、画像に強調やフィルタリング等の処理
を施す画像処理部52と、画像識別部53および対象物体1
毎に面積や周長等の特徴を予め記憶させた特徴量テーブ
ル54とで構成されている。
The visual device 5 includes an image input section 51 for temporarily storing an image signal, an image processing section 52 for performing processing such as emphasis and filtering on an image, an image identification section 53 and a target object 1.
A feature amount table 54 in which features such as area and perimeter are stored in advance.

【0013】画像識別部53は画像処理部52から出力され
る画像とロボット制御装置3が指定した対象物体1の特
徴を比較し、画像中の対象物体1を識別すると共に対象
物体1の位置を示すXY座標やX座標軸に対する角度θ
等を算出し情報を出力する。
The image identification unit 53 compares the image output from the image processing unit 52 with the characteristics of the target object 1 designated by the robot control device 3 to identify the target object 1 in the image and determine the position of the target object 1. Angle θ with respect to XY coordinates and X coordinate axis
Etc. are calculated and information is output.

【0014】情報を伝達する通信回線や共通バスを介し
て視覚装置5と接続されたロボット制御装置3は物体テ
ーブル31を有し、物体テーブル31には全対象物体1を識
別する名前や対象物体1の把持点11までの高さを示す情
報H等が登録されている。
The robot control device 3 connected to the visual device 5 via a communication line or a common bus for transmitting information has an object table 31, and the object table 31 has names for identifying all target objects 1 and target objects. Information H indicating the height up to the grip point 11 of 1 is registered.

【0015】ロボット制御装置3はまたロボット2を制
御するコマンド解析部32とコマンド実行部33とサーボ制
御部34を有し、コマンド解析部32は視覚装置5から入力
されるXY座標やX座標軸に対する角度θ等に基づいて
動作コマンドを設定する。
The robot controller 3 also has a command analysis section 32 for controlling the robot 2, a command execution section 33, and a servo control section 34. The command analysis section 32 corresponds to XY coordinates and X coordinate axes input from the visual device 5. The operation command is set based on the angle θ and the like.

【0016】コマンド実行部33にはコマンド解析部32お
いて設定されたX座標、Y座標や角度θに関する動作コ
マンドと共に、別に設定されたオフセット量O、高さ情
報Hとオフセット量Oから算出されたZ座標等が動作コ
マンドとして入力される。
The command execution unit 33 calculates from the separately set offset amount O, height information H and offset amount O together with the operation commands relating to the X coordinate, Y coordinate and angle θ set in the command analysis unit 32. The Z coordinate and the like are input as operation commands.

【0017】コマンド実行部33とサーボ制御部34は入力
された各種動作コマンドにしたがってロボット2を制御
する制御信号を出力し、ロボットハンド21やロボットア
ーム22をX、Y、Z方向に移動させると共にロボットハ
ンド21をθ度回転させる。
The command executing section 33 and the servo control section 34 output control signals for controlling the robot 2 in accordance with various input operation commands to move the robot hand 21 and the robot arm 22 in X, Y and Z directions. The robot hand 21 is rotated by θ degrees.

【0018】かかるロボット制御系でロボットを制御す
る従来の方法はアプローチ方向を垂直方向に限定してお
り物体テーブル31には、図4に示す如く対象物体1を識
別する名前と各対象物体の把持点11までの高さを示す情
報Hのみが登録されている。
In the conventional method of controlling a robot by such a robot control system, the approach direction is limited to the vertical direction, and in the object table 31, as shown in FIG. 4, the name for identifying the target object 1 and the grip of each target object are held. Only the information H indicating the height up to the point 11 is registered.

【0019】したがって、コマンド実行部33に視覚装置
5から入力されるX座標、Y座標およびX座標軸に対す
る角度θと、物体テーブル31に登録された高さ情報Hと
オフセット量Oを加算したZ座標が目標点を示す動作コ
マンドとして入力される。
Accordingly, the command execution unit 33 adds the X coordinate, the Y coordinate and the angle θ with respect to the X coordinate axis input from the visual device 5, the height information H registered in the object table 31 and the Z coordinate obtained by adding the offset amount O. Is input as an operation command indicating the target point.

【0020】[0020]

【発明が解決しようとする課題】従来のロボット制御系
は対象物体へのロボットハンドのアプローチ方向が垂直
方向、即ちZ方向のみに限定されており、物体テーブル
には図示の如く全対象物体の名前と各対象物体の把持点
までの高さを示す情報のみが記憶されている。
In the conventional robot control system, the approach direction of the robot hand to the target object is limited to the vertical direction, that is, the Z direction, and the names of all target objects are shown in the object table as shown in the figure. And only information indicating the height of each target object to the gripping point is stored.

【0021】しかし、垂直方向にのみアプローチするロ
ボット制御系は障害物の下に隠れた対象物体を把持でき
ないという問題があった。本発明の目的はロボットハン
ドの多方向からのアプローチを可能にするロボット制御
方法を提供することにある。
However, there is a problem that the robot control system approaching only in the vertical direction cannot grasp the target object hidden under the obstacle. An object of the present invention is to provide a robot control method that enables a robot hand to approach from multiple directions.

【0022】[0022]

【課題を解決するための手段】図1は本発明になるロボ
ット制御方法を示す図である。なお全図を通し同じ対象
物は同一記号で表している。
FIG. 1 is a diagram showing a robot control method according to the present invention. Note that the same object is denoted by the same symbol throughout the drawings.

【0023】上記課題は作業領域の上方に設置され対象
物体1を含む作業領域全般を撮影して画像信号を出力す
るカメラ4と、画像信号を処理して対象物体1の位置情
報や座標軸からの傾き情報を算出し出力する視覚装置5
と、通信回線または共通バスを介して視覚装置5と接続
されたロボット制御装置3を具え、視覚装置5から出力
される位置情報や座標軸からの傾き情報に基づいてロボ
ット2を制御するロボット制御系において、ロボット制
御装置3が内蔵してなる物体テーブル31に少なくとも全
ての対象物体を識別する名前と、各対象物体の基準面か
ら把持点11までの高さを示す情報H、および各対象物体
のアプローチ方向を示す情報φを登録すると共に、物体
テーブル31に登録された情報と視覚装置5の出力情報に
基づいて動作コマンドを設定する際に、アプローチ方向
を示す情報φに基づいてアプローチのための動作コマン
ドを設定する本発明になるロボットの制御方法によって
達成される。
The above-mentioned problem is solved by the camera 4 installed above the work area for photographing the whole work area including the target object 1 and outputting an image signal, and the position information of the target object 1 by processing the image signal and the coordinate axis. Visual device 5 for calculating and outputting tilt information
And a robot control device 3 connected to the visual device 5 via a communication line or a common bus, and a robot control system for controlling the robot 2 based on position information output from the visual device 5 and tilt information from the coordinate axes. In the above, in the object table 31 built in the robot control device 3, at least all the target objects are identified, the information H indicating the height from the reference plane of each target object to the gripping point 11, and each target object. The information φ indicating the approach direction is registered, and at the time of setting the operation command based on the information registered in the object table 31 and the output information of the visual device 5, the approach φ is set based on the information φ indicating the approach direction. This is achieved by the robot control method according to the present invention, which sets motion commands.

【0024】[0024]

【作用】図1においてロボット制御装置の物体テーブル
に少なくとも全ての対象物体を識別する名前と、各対象
物体の基準面から把持点11までの高さを示す情報H、お
よび各対象物体のアプローチ方向を示す情報φを登録す
ることによって、視覚装置から入力された情報をアプロ
ーチ方向とオフセット量に応じて補正することが可能に
なる。また物体テーブルから得たZ方向の情報の補正や
ロボットハンドのアプローチ方向への回転要否の判定も
可能になる。
In FIG. 1, in the object table of the robot controller, a name for identifying at least all target objects, information H indicating the height from the reference plane of each target object to the gripping point 11, and the approach direction of each target object. It is possible to correct the information input from the visual device in accordance with the approach direction and the offset amount by registering the information φ indicating the. Further, it becomes possible to correct the information in the Z direction obtained from the object table and determine whether or not the robot hand should rotate in the approach direction.

【0025】また、物体テーブルに登録された情報と視
覚装置の出力情報に基づいて動作コマンドを設定する際
に、アプローチ方向を示す情報φに基づいてアプローチ
のための動作コマンドを設定することで、ロボットハン
ドを垂直方向のみならず任意の方向から対象物体にアプ
ローチすることが可能になり、ロボットハンドの多方向
からのアプローチを可能にするロボット制御方法を実現
することができる。
Further, when the operation command is set based on the information registered in the object table and the output information of the visual device, by setting the operation command for the approach based on the information φ indicating the approach direction, The robot hand can approach the target object not only in the vertical direction but also in any direction, and a robot control method that enables the robot hand to approach from multiple directions can be realized.

【0026】[0026]

【実施例】以下添付図により本発明の実施例について詳
細に説明する。本発明になるロボット制御方法では図1
に示す如くロボット制御装置3が内蔵してなる物体テー
ブル31に、全対象物体を識別する名前と共に各対象物体
の把持点11までの高さを示す情報Hとアプローチ方向を
示す情報φが登録されている。
Embodiments of the present invention will be described in detail below with reference to the accompanying drawings. The robot control method according to the present invention is shown in FIG.
As shown in FIG. 3, in the object table 31 built in the robot control device 3, information H indicating the height of each target object up to the gripping point 11 and information φ indicating the approach direction are registered together with the names for identifying all target objects. ing.

【0027】図においてアプローチ情報φ欄に記載され
た0(度)や30(度)や90(度)はそれぞれアプローチ
の方向を示しており、X方向、Y方向、Z方向へのオフ
セット量XO 、YO 、ZO はθとφとオフセット量Oか
ら次式によって求められる。
In the figure, 0 (degree), 30 (degree) and 90 (degree) described in the approach information φ column indicate the approach direction, respectively, and the offset amount X in the X direction, Y direction and Z direction. O, Y O, Z O is determined by the following formulas θ and φ and the offset amount O.

【0028】X方向のオフセット量XO =オフセット量
O× sinφ× cosθ Y方向のオフセット量YO =オフセット量O× sinφ×
cosθ Z方向のオフセット量ZO =オフセット量O× cosφ 例えば、Aという名前の対象物体1はφが30(度)であ
り視覚装置からθとして45(度)が得られたとすると、
オフセット量20(mm)と共に上式に代入するとオフセット
量XO およびYO は 7.1(mm)、オフセット量ZO は17.3
(mm)0になる。
Offset amount in X direction X O = Offset amount O × sin φ × cos θ Y offset amount in Y direction Y O = Offset amount O × sin φ ×
cos θ Z-direction offset amount Z O = offset amount O × cos φ For example, if the target object 1 named A has φ of 30 (degrees) and the visual device obtains θ (45 degrees),
Substituting into the above equation together with the offset amount 20 (mm), the offset amounts X O and Y O are 7.1 (mm) and the offset amount Z O is 17.3.
(mm) becomes 0.

【0029】また、Bという名前の対象物体1の場合は
φが0(度)でありオフセット量20(mm)と共に上式に代
入すると、オフセット量XO およびYO は0、オフセッ
ト量ZO は20(mm)になってZ方向にアプローチすること
を示している。
Further, in the case of the target object 1 named B, φ is 0 (degrees), and when it is substituted into the above equation together with the offset amount 20 (mm), the offset amounts X O and Y O are 0, and the offset amount Z O. Indicates 20 (mm) and approaches in the Z direction.

【0030】コマンド解析部32は物体テーブル31のアプ
ローチ方向を示す情報φとオフセット量Oからオフセッ
ト量XO 、ZO を算出し、視覚装置5から入力されたX
座標をオフセット量XO で補正し動作コマンドとしてコ
マンド実行部33に入力する。
The command analysis unit 32 calculates the offset amounts X O and Z O from the information φ indicating the approach direction of the object table 31 and the offset amount O , and the X input from the visual device 5 is calculated.
The coordinates are corrected by the offset amount X O and input to the command execution unit 33 as an operation command.

【0031】また、コマンド解析部32はコマンド実行部
33に視覚装置5から入力されたX座標軸に対する角度
θ、および物体テーブル31から読み出した把持点11まで
の高さ情報HとZ方向へのオフセット量ZO から算出さ
れたZ座標を入力する。
The command analysis section 32 is a command execution section.
The angle θ with respect to the X coordinate axis input from the visual device 5 and the Z coordinate calculated from the height information H up to the gripping point 11 read from the object table 31 and the offset amount Z O in the Z direction are input to 33.

【0032】サーボ制御部34はロボットハンド21のアプ
ローチに先立って動作コマンドに基づいた制御信号をロ
ボット2に入力し、ロボットハンド21やロボットアーム
22をX、Y、Z方向に移動させると共にロボットハンド
21をθ度回転させる。
The servo control unit 34 inputs a control signal based on an operation command to the robot 2 prior to the approach of the robot hand 21, and the robot hand 21 and the robot arm are controlled.
Move 22 in X, Y, and Z directions and use robot hand
Rotate 21 by θ degrees.

【0033】なお、対象物体1のX座標軸に対する角度
に合わせてロボットハンド21をθ度回転させると目標点
に誤差を生じるが、ロボットハンド21を回転させたとき
のずれを算出しX座標、Y座標を修正することによって
誤差の吸収が可能になる。
When the robot hand 21 is rotated by θ degrees according to the angle of the target object 1 with respect to the X coordinate axis, an error occurs at the target point. However, the deviation when the robot hand 21 is rotated is calculated and the X coordinate, Y coordinate is calculated. By correcting the coordinates, it becomes possible to absorb the error.

【0034】また、アプローチ方向を変えるとロボット
ハンド21をアプローチ方向に向けて回転させる必要が生
じるが、物体テーブル31から得た姿勢を示す情報に基づ
いてロボットハンドのアプローチ方向への回転要否の判
定も可能になる。
When the approach direction is changed, it is necessary to rotate the robot hand 21 toward the approach direction. However, based on the information indicating the posture obtained from the object table 31, whether the robot hand needs to rotate in the approach direction is determined. Judgment is also possible.

【0035】このようにロボット制御装置の物体テーブ
ルに少なくとも全ての対象物体を識別する名前と、各対
象物体の基準面から把持点11までの高さを示す情報H、
および各対象物体のアプローチ方向を示す情報φを登録
することによって、視覚装置から入力された情報をアプ
ローチ方向とオフセット量に応じて補正することが可能
になる。また物体テーブルから得たZ方向の情報の補正
やロボットハンドのアプローチ方向への回転要否の判定
も可能になる。
As described above, in the object table of the robot controller, at least the names for identifying all target objects and the information H indicating the height from the reference plane of each target object to the gripping point 11,
By registering the information φ indicating the approach direction of each target object, it becomes possible to correct the information input from the visual device according to the approach direction and the offset amount. Further, it becomes possible to correct the information in the Z direction obtained from the object table and determine whether or not the robot hand should rotate in the approach direction.

【0036】また、物体テーブルに登録された情報と視
覚装置の出力情報に基づいて動作コマンドを設定する際
に、アプローチ方向を示す情報φに基づいてアプローチ
のための動作コマンドを設定することで、ロボットハン
ドを垂直方向のみならず任意の方向から対象物体にアプ
ローチすることが可能になり、ロボットハンドの多方向
からのアプローチを可能にするロボット制御方法を実現
することができる。
Further, when the operation command is set based on the information registered in the object table and the output information of the visual device, by setting the operation command for the approach based on the information φ indicating the approach direction, The robot hand can approach the target object not only in the vertical direction but also in any direction, and a robot control method that enables the robot hand to approach from multiple directions can be realized.

【0037】[0037]

【発明の効果】上述の如く本発明によればロボットハン
ドの多方向からのアプローチを可能にするロボット制御
方法を提供することができる。
As described above, according to the present invention, it is possible to provide a robot control method capable of approaching a robot hand from multiple directions.

【図面の簡単な説明】[Brief description of drawings]

【図1】 本発明になるロボット制御方法を示す図であ
る。
FIG. 1 is a diagram showing a robot control method according to the present invention.

【図2】 ロボット制御系の一例を示すブロック図であ
る。
FIG. 2 is a block diagram showing an example of a robot control system.

【図3】 ロボット制御系の動作を説明するための図で
ある。
FIG. 3 is a diagram for explaining the operation of the robot control system.

【図4】 従来のロボット制御方法を示す図である。FIG. 4 is a diagram showing a conventional robot control method.

【符号の説明】[Explanation of symbols]

1 対象物体 2 ロボット 3 ロボット制御装置 4 カメラ 5 視覚装置 11 把持点 21 ロボットハンド 22 ロボットアーム 31 物体テーブル 32 コマンド解析部 33 コマンド実行部 34 サーボ制御部 51 画像入力部 52 画像処理部 53 画像識別部 54 特徴量テーブル 1 target object 2 robot 3 robot control device 4 camera 5 visual device 11 gripping point 21 robot hand 22 robot arm 31 object table 32 command analysis unit 33 command execution unit 34 servo control unit 51 image input unit 52 image processing unit 53 image identification unit 54 Feature table

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】 作業領域の上方に設置され対象物体(1)
を含む作業領域全般を撮影して画像信号を出力するカメ
ラ(4) と、該画像信号を処理して該対象物体(1) の位置
情報や座標軸からの傾き情報を算出し出力する視覚装置
(5) と、 通信回線または共通バスを介して該視覚装置(5) と接続
されたロボット制御装置(3) を具え、該視覚装置(5) か
ら出力される該位置情報や座標軸からの傾き情報に基づ
いてロボット(2) を制御するロボット制御系において、 ロボット制御装置(3) が内蔵してなる物体テーブル(31)
に少なくとも全ての対象物体を識別する名前と、各対象
物体の基準面から把持点(11)までの高さを示す情報H、
および各対象物体のアプローチ方向を示す情報φを登録
すると共に、 該物体テーブル(31)に登録された情報と該視覚装置(5)
の出力情報に基づいて動作コマンドを設定する際に、ア
プローチ方向を示す情報φに基づいてアプローチのため
の動作コマンドを設定することを特徴としたロボットの
制御方法。
1. A target object installed above a work area (1)
(4) that captures an entire work area including the image signal and outputs an image signal, and a visual device that processes the image signal and calculates and outputs position information of the target object (1) and tilt information from a coordinate axis
(5) and a robot controller (3) connected to the visual device (5) via a communication line or a common bus, and the position information output from the visual device (5) and the inclination from the coordinate axis In the robot control system that controls the robot (2) based on information, the object table (31) built in the robot controller (3)
To identify at least all target objects, and information H indicating the height from the reference plane of each target object to the gripping point (11),
And the information φ indicating the approach direction of each target object, and the information registered in the object table (31) and the visual device (5).
A method for controlling a robot, characterized in that, when the operation command is set based on the output information of the above, the operation command for the approach is set based on the information φ indicating the approach direction.
JP3024992A 1992-02-18 1992-02-18 Control method of robot Withdrawn JPH05228868A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP3024992A JPH05228868A (en) 1992-02-18 1992-02-18 Control method of robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3024992A JPH05228868A (en) 1992-02-18 1992-02-18 Control method of robot

Publications (1)

Publication Number Publication Date
JPH05228868A true JPH05228868A (en) 1993-09-07

Family

ID=12298439

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3024992A Withdrawn JPH05228868A (en) 1992-02-18 1992-02-18 Control method of robot

Country Status (1)

Country Link
JP (1) JPH05228868A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103620513A (en) * 2011-07-11 2014-03-05 富士机械制造株式会社 Trigger emission device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103620513A (en) * 2011-07-11 2014-03-05 富士机械制造株式会社 Trigger emission device
CN103620513B (en) * 2011-07-11 2016-05-04 富士机械制造株式会社 Trigger generating means

Similar Documents

Publication Publication Date Title
US5371836A (en) Position teaching method and control apparatus for robot
JP4265088B2 (en) Robot apparatus and control method thereof
JPH0435885A (en) Calibration method for visual sensor
JPH04344503A (en) Numerical controller for robot
JPH05241626A (en) Detecting position correcting system
JP2003211381A (en) Robot control device
US5333242A (en) Method of setting a second robots coordinate system based on a first robots coordinate system
JPWO2018043525A1 (en) Robot system, robot system control apparatus, and robot system control method
JP2016187846A (en) Robot, robot controller and robot system
JP2767417B2 (en) Robot control device
JP2667153B2 (en) Direct teaching method for multiple arm device
JP2779072B2 (en) Robot teaching method
JPS6257884A (en) Manipulator device
JPH0511822A (en) Cooperative operation system for robot
CN113771042B (en) Vision-based method and system for clamping tool by mobile robot
JPH06187021A (en) Coordinate correcting method for robot with visual sense
JPH05228868A (en) Control method of robot
JP3754340B2 (en) Position detection device
JPH03213244A (en) Positioning device for flat plate workpiece work machine
JPH0588721A (en) Controller for articulated robot
JPH06218682A (en) Robot for assembly
JPH05303425A (en) Direct teaching type robot
JPH0299802A (en) Setting method of coordinate system in visual sensor using hand eye
JPH05138582A (en) Active camera searching device for manipulating object by using robot
JPH07117403B2 (en) Robot visual coordinate calibration method and system

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 19990518