JPH04310103A - Limiting method for robot correction value - Google Patents

Limiting method for robot correction value

Info

Publication number
JPH04310103A
JPH04310103A JP10313191A JP10313191A JPH04310103A JP H04310103 A JPH04310103 A JP H04310103A JP 10313191 A JP10313191 A JP 10313191A JP 10313191 A JP10313191 A JP 10313191A JP H04310103 A JPH04310103 A JP H04310103A
Authority
JP
Japan
Prior art keywords
robot
reference position
vertex
cube
correction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP10313191A
Other languages
Japanese (ja)
Other versions
JP2839386B2 (en
Inventor
Atsushi Watanabe
淳 渡辺
Taro Arimatsu
有松 太郎
Takashi Jumonji
十文字 隆
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Priority to JP3103131A priority Critical patent/JP2839386B2/en
Publication of JPH04310103A publication Critical patent/JPH04310103A/en
Application granted granted Critical
Publication of JP2839386B2 publication Critical patent/JP2839386B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Machine Tool Sensing Apparatuses (AREA)
  • Numerical Control (AREA)
  • Manipulator (AREA)

Abstract

PURPOSE:To exactly discriminate the correction limit for robot actions in a space including a whole subject. CONSTITUTION:A cube 40 enclosing the outer shape of a car body 30 is set at a reference position, and the apexes L1A-L8A of the cube 40 are inputted in a robot coordinate system. Then the detection points P, Q and R of the body 30 are detected by an image processor 20 at both the reference position and a shifted position respectively. Based on the detecting results of the points P, Q and R, a conversion matrix T of the body 30 into the shifted position from the reference position is obtained. Then the projecting destinations L1B-L8B of the apexes L1A-L8A are obtained from the matrix T. Furthermore the distances are obtained among these apexes. When these distances are larger than a prescribed value, it is discriminated that a robot applies its work to the shifted subject at the points out of its operating area. Thus the robot operations are not corrected.

Description

【発明の詳細な説明】[Detailed description of the invention]

【0001】0001

【産業上の利用分野】本発明は動作領域内で補正動作が
行われるように補正量を制限するロボットの補正量制限
方法に関し、特に画像処理装置を用いてロボットの補正
量を制限するロボットの補正量制限方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method for limiting the amount of correction for a robot so that a correction operation is performed within a motion area, and more particularly to a method for limiting the amount of correction for a robot using an image processing device. This invention relates to a correction amount limiting method.

【0002】0002

【従来の技術】ロボットは自動車の溶接、組立等の生産
ラインに広く使用されるようになってきた。このような
自動車の生産ラインでは、ロボットの作業対象物である
車体の停止位置は常に一定とは限らないため、視覚セン
サ等を用いて対象物の位置認識を行い、その結果に基づ
いてロボットの動作を補正し、ロボットが各対象物毎に
正確な作業を行うことができるようにしている。その際
に、視覚センサが認識した対象物の位置が、予め設定さ
れた基準位置に対して大きくずれている場合は、ロボッ
トの動作補正を行わないようにしている。それは、その
大きくずれている視覚センサが認識した対象物の位置に
合わせて、ロボットの動作を補正し作業を行うとしたら
、その作業はロボットの動作領域外となり、作業環境内
の他の物体との干渉等が発生したりするからである。 このロボットの動作補正制限は、検出点の位置が所定範
囲内に入っているか否かを判別して行われる。また、そ
の検出点が形成する平面を表す座標系を算出し、その座
標系の並行移動量または回転量が所定範囲内に入ってい
るか否かを判別して行われている。
2. Description of the Related Art Robots have come to be widely used in production lines for automobile welding, assembly, etc. On such automobile production lines, the stopping position of the car body, which is the work object of the robot, is not always constant, so the position of the object is recognized using a visual sensor, etc., and the robot is controlled based on the result. The robot corrects its movements and allows the robot to perform precise tasks on each object. At this time, if the position of the object recognized by the visual sensor deviates significantly from a preset reference position, the robot's motion is not corrected. If the robot's motion is corrected to match the position of the object recognized by the vision sensor, which is greatly misaligned, the work will be outside of the robot's operating range and will interfere with other objects in the work environment. This is because interference may occur. This robot motion correction restriction is performed by determining whether the position of the detection point is within a predetermined range. Further, the detection is performed by calculating a coordinate system representing a plane formed by the detection point, and determining whether the amount of parallel movement or rotation of the coordinate system is within a predetermined range.

【0003】0003

【発明が解決しようとする課題】しかし、ロボットの動
作補正制限の判別が、上述したように、検出点の位置ま
たはその位置から算出された座標系を基準に行われると
、その検出点の位置周辺に限ると、正しい判別が得られ
るが、対象物全体が含まれる空間においては、必ずしも
そうとはいえない。すなわち、動作補正を行うことがで
きるという判別結果が得られたときでも、その判別結果
に基づいてロボットの動作補正を行い、ロボットに実際
の作業を行わせると、その動作がロボットの動作領域外
のものになる場合がある。例えば、車体のドア付近の検
出点に基づいて判別しても、ヘッドライト付近では、ロ
ボットの動作がその動作領域から外れる場合がある。
[Problem to be Solved by the Invention] However, if the determination of the robot's motion correction limit is performed based on the position of the detection point or the coordinate system calculated from the position, as described above, the position of the detection point Correct discrimination can be obtained only in the periphery, but this is not necessarily the case in a space that includes the entire object. In other words, even when a determination result indicating that motion correction can be performed is obtained, if the robot motion is corrected based on the determination result and the robot performs the actual work, the motion may be outside the robot's operating range. It may become the property of For example, even if the determination is made based on detection points near the doors of the vehicle body, the robot's motion may deviate from its motion range near the headlights.

【0004】本発明はこのような点に鑑みてなされたも
のであり、対象物全体を含む空間でロボットの動作補正
制限の判別を的確に行うことができるロボットの補正量
制限方法を提供することを目的とする。
SUMMARY OF THE INVENTION The present invention has been made in view of the above-mentioned problems, and it is an object of the present invention to provide a robot correction amount limiting method that can accurately determine the robot motion correction limit in a space that includes the entire object. With the goal.

【0005】[0005]

【課題を解決するための手段】本発明では上記課題を解
決するために、動作領域内で補正動作が行われるように
補正量を制限するロボットの補正量制限方法において、
対象物の外形を囲む所定形状を基準位置において設定し
、前記基準位置における所定形状の各頂点の位置をロボ
ット座標系で入力し、前記対象物に設けられた検出点を
、前記対象物の基準位置及び移動後の位置において、視
覚センサを用いて検出し、前記対象物の検出点の検出結
果に基づいて、前記対象物の基準位置から移動後の位置
への変換行列を求め、前記変換行列を用いて前記各頂点
の、前記対象物の移動後の位置における投影先を求め、
前記基準位置における各頂点の位置と、前記投影先にお
ける各頂点の位置との間の距離を求め、前記距離が所定
距離以上のとき、前記移動後の対象物に対する前記ロボ
ットの作業は、前記ロボットの動作領域外になるとして
前記ロボットの動作補正を行わないことを特徴とするロ
ボットの補正量制限方法が、提供される。
[Means for Solving the Problems] In order to solve the above problems, the present invention provides a correction amount limiting method for a robot that limits the correction amount so that the correction operation is performed within the motion area.
A predetermined shape surrounding the outer shape of the target object is set at a reference position, the position of each vertex of the predetermined shape at the reference position is input in the robot coordinate system, and the detection points provided on the target object are set at the reference position of the target object. The position and the position after the movement are detected using a visual sensor, and based on the detection results of the detection points of the object, a transformation matrix from the reference position of the object to the position after the movement is determined, and the transformation matrix is find the projection destination of each of the vertices at the position after the object has been moved using
The distance between the position of each vertex at the reference position and the position of each vertex at the projection destination is determined, and when the distance is a predetermined distance or more, the robot's work on the object after the movement is performed by the robot. Provided is a method for limiting the amount of correction for a robot, characterized in that the motion of the robot is not corrected because the motion is outside the motion range of the robot.

【0006】[0006]

【作用】先ず、対象物の外形を囲む所定形状を基準位置
において設定し、その所定形状の各頂点の位置をロボッ
ト座標系で入力する。次に、視覚センサを用いて、対象
物に設けられた検出点を、基準位置及び移動後の位置に
おいてそれぞれ検出する。その検出点の検出結果に基づ
いて、対象物の基準位置から移動後の位置への変換行列
を求める。その変換行列を用いて、対象物の移動後の位
置における各頂点の投影先が求められる。基準位置にお
ける各頂点の位置と、投影先における各頂点の位置との
間の距離を求め、その距離が所定距離以上のとき、移動
後の対象物に対するロボットの作業はロボットの動作領
域外になると判別して、ロボットの動作補正は行わない
ようにする。このため、対象物全体を含む空間において
ロボットの補正後の位置が動作領域内にあるか否かを判
別することができる。したがって、ロボットの動作補正
制限の判別を的確に行うことができる。
[Operation] First, a predetermined shape surrounding the outer shape of the object is set at a reference position, and the position of each vertex of the predetermined shape is input in the robot coordinate system. Next, using a visual sensor, detection points provided on the object are detected at the reference position and the position after the movement. Based on the detection results of the detection points, a transformation matrix from the reference position of the object to the position after movement is determined. Using the transformation matrix, the projection destination of each vertex at the position after the object is moved is determined. The distance between the position of each vertex at the reference position and the position of each vertex at the projection destination is calculated, and if the distance is greater than or equal to a predetermined distance, the robot's work on the object after movement will be outside the robot's operation area. It is determined that the robot's motion is not corrected. Therefore, it is possible to determine whether or not the corrected position of the robot is within the motion range in the space that includes the entire object. Therefore, it is possible to accurately determine the robot motion correction limitations.

【0007】[0007]

【実施例】以下、本発明の一実施例を図面に基づいて説
明する。図1は本発明のロボットの補正量制限方法を実
施するためのロボットシステムの全体の構成図である。 図において、ロボット1は、生産ラインの作業対象物で
ある車体30に対して組立、塗装等の作業を行う。ロボ
ット制御装置10はそのロボット1の動作を制御する。 画像処理装置20はプロセッサ(CPU)21を中心に
構成される。ROM22には本発明を実施するためのコ
ントロール・ソフトウェアが格納されている。RAM2
3には、車体30を囲む立方体40の各頂点L1A,L
2A,L3A,L4A,L5A,L6A,L7A,L8
Aの位置データが、ロボット座標系で予め入力されてい
る。この立方体40は、基準位置における車体30の外
形に沿って形成されたものであり、その位置データはキ
ーボード29から入力される。画像処理装置20にはカ
メラ4が結合されている。一方、車体30には3点の検
出点P,Q,Rが設けられており、カメラ4は、車体3
0が基準位置にあるときのその検出点P,Q,Rを撮像
し、その撮像データはカメラインタフェース28を経由
してRAM24に格納される。さらに、カメラ4は、車
体30がライン上を送られてきて所定位置 (基準位置
近傍) に停止したときの検出点P,Q,R、すなわち
、車体30の移動後の検出点P,Q,Rを撮像し、その
撮像データも、RAM24に格納される。
DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described below with reference to the drawings. FIG. 1 is an overall configuration diagram of a robot system for implementing the robot correction amount limiting method of the present invention. In the figure, a robot 1 performs work such as assembly and painting on a vehicle body 30, which is a work object on a production line. The robot control device 10 controls the operation of the robot 1. The image processing device 20 is mainly configured with a processor (CPU) 21. Control software for implementing the present invention is stored in the ROM 22. RAM2
3, each vertex L1A, L of the cube 40 surrounding the vehicle body 30
2A, L3A, L4A, L5A, L6A, L7A, L8
Position data of A is input in advance in the robot coordinate system. This cube 40 is formed along the outer shape of the vehicle body 30 at the reference position, and its position data is input from the keyboard 29. A camera 4 is coupled to the image processing device 20 . On the other hand, the vehicle body 30 is provided with three detection points P, Q, and R, and the camera 4 is connected to the vehicle body 30.
The detection points P, Q, and R when 0 is at the reference position are imaged, and the imaged data is stored in the RAM 24 via the camera interface 28. Furthermore, the camera 4 detects detection points P, Q, and R when the vehicle body 30 is moved along a line and stops at a predetermined position (near the reference position), that is, detection points P, Q, and R after the vehicle body 30 has moved. R is imaged, and the imaged data is also stored in the RAM 24.

【0008】画像処理プロセッサ26はRAM24に格
納された検出点P,Q,Rの、基準位置及び移動後の位
置における位置データに基づいて、基準位置から移動後
の位置への変換行列Tを求め、その変換行列TをRAM
23に格納する。さらに、その変換行列Tを用いて、立
方体40の各頂点L1〜L8の移動後の投影先を求める
。すなわち、移動後の車体30に対応して想定される立
方体41の各頂点L1B,L2B,L3B,L4B,L
5B,L6B,L7B,L8Bの位置データを求める。 その位置データはRAM23に格納される。次に、この
RAM23に格納された各頂点L1A〜L8A及びL1
B〜L8Bの位置データに基づいて、その各頂点間の距
離|L1A−L1B|等を求める。すなわち、基準位置
での各頂点L1A〜L8Aと移動後の各頂点L1B〜L
8Bとの間の各距離を求める。その各距離が所定距離L
o (例えば5cm)以上であるときは、移動後の車体
30に対するロボット1の作業は、ロボット1の動作領
域外になると判別し、その判別結果をロボット制御装置
10に送る。ロボット制御装置10はその判別結果に基
づいてロボット1の動作補正を行わないようにする。 このように、頂点間の距離が大きくなるような場合は、
例えば、カメラ4が誤って別の検出点を撮像した場合と
か、実際に車体30の位置が大きくずれた場合等である
[0008] The image processing processor 26 calculates a transformation matrix T from the reference position to the post-move position based on the position data of the detection points P, Q, and R stored in the RAM 24 at the reference position and the post-move position. , the transformation matrix T is stored in RAM
23. Furthermore, using the transformation matrix T, the projection destination after each of the vertices L1 to L8 of the cube 40 is moved is determined. That is, each vertex L1B, L2B, L3B, L4B, L of the cube 41 assumed to correspond to the vehicle body 30 after movement
Find the position data of 5B, L6B, L7B, and L8B. The position data is stored in the RAM 23. Next, each vertex L1A to L8A and L1 stored in this RAM 23
Based on the position data of B to L8B, the distance between the respective vertices |L1A-L1B| etc. is determined. That is, each vertex L1A to L8A at the reference position and each vertex L1B to L after movement
Find each distance between 8B and 8B. Each distance is a predetermined distance L
o (for example, 5 cm) or more, it is determined that the work performed by the robot 1 on the moved vehicle body 30 is outside the operating range of the robot 1, and the determination result is sent to the robot control device 10. The robot control device 10 does not correct the motion of the robot 1 based on the determination result. In this way, when the distance between vertices becomes large,
For example, this may occur if the camera 4 mistakenly captures an image of another detection point, or if the position of the vehicle body 30 actually shifts significantly.

【0009】このように、車体30を囲む立方体40を
想定し、その立方体40の基準位置における各頂点L1
A〜L8Aの位置と、投影先における各頂点L1B〜L
8Bの位置との間の距離を求め、その距離が所定距離L
o以上のとき、移動後の対象物に対するロボットの作業
はロボットの動作領域外になると判別して、ロボットの
動作補正は行わないように構成した。すなわち、ロボッ
ト1の動作補正を制限するか否かの判別を、車体30を
囲む立方体40の各頂点の移動量に基づいて行うように
した。このため、車体30の一部でなくその全体を含む
空間においてロボット1の補正後の位置が動作領域内に
あるか否かを判別することができる。したがって、ロボ
ット1の動作補正制限の判別を的確に行うことができる
。また、判別基準となる所定距離Loは、立方体40の
移動量であるため、その設定を容易に行うことができる
。さらに、この判別は、ロボット制御装置10でなく、
画像処理装置20で行われる。このため、ロボット制御
装置10は画像処理装置20から判別結果が送られるま
での間に別の作業、例えばロボット1のハンドの取り替
え等を行うことができる。したがって、アプリケーショ
ンのサイクルタイム削減を可能にすることができる。
As described above, assuming a cube 40 surrounding the vehicle body 30, each vertex L1 at the reference position of the cube 40 is
The positions of A to L8A and each vertex L1B to L at the projection destination
Find the distance between the position 8B and the distance L.
o or more, it is determined that the robot's work on the object after movement is outside the robot's operating range, and the robot's motion is not corrected. That is, the determination as to whether or not to limit the motion correction of the robot 1 is made based on the amount of movement of each vertex of the cube 40 surrounding the vehicle body 30. Therefore, it is possible to determine whether or not the corrected position of the robot 1 is within the operating range in a space that includes not only a part of the vehicle body 30 but the entire vehicle body 30. Therefore, it is possible to accurately determine the motion correction limitations of the robot 1. Further, since the predetermined distance Lo serving as the determination criterion is the amount of movement of the cube 40, it can be easily set. Furthermore, this determination is not made by the robot control device 10, but by
This is performed by the image processing device 20. Therefore, the robot control device 10 can perform other work, such as replacing the hand of the robot 1, until the determination result is sent from the image processing device 20. Therefore, it is possible to reduce application cycle time.

【0010】図2は本発明のロボットの補正量制限方法
を実行するためのフローチャートを示す図である。図に
おいて、Sに続く数値はステップ番号を示す。 〔S1〕車体30を囲む立方体40の各頂点L1A〜L
8Aの位置データを入力する。 〔S2〕車体30の基準位置から移動後の位置への変換
行列Tを求める。 〔S3〕各頂点L1A〜L8A及び変換行列Tから各頂
点L1A〜L8Aの投影先L1B〜L8Bを求める。 〔S4〕各頂点間の距離 (例えば|L1A−L1B|
) を求める。 〔S5〕各頂点間の距離が所定距離Lo以上のとき、ロ
ボット1の動作補正を停止する。
FIG. 2 is a flowchart for carrying out the robot correction amount limiting method of the present invention. In the figure, the number following S indicates the step number. [S1] Each vertex L1A to L of the cube 40 surrounding the vehicle body 30
Input the position data of 8A. [S2] A conversion matrix T is found for the vehicle body 30 from its reference position to the position after movement. [S3] Projection destinations L1B to L8B of each of the vertices L1A to L8A are determined from the vertices L1A to L8A and the transformation matrix T. [S4] Distance between each vertex (e.g. |L1A-L1B|
). [S5] When the distance between each vertex is equal to or greater than the predetermined distance Lo, the motion correction of the robot 1 is stopped.

【0011】上記の説明では、対象物を囲むものとして
立方体を想定したが、他の形状のもの、例えば円柱、三
角柱等を想定して構成することもできる。また、一台の
カメラで撮像するようにしたが、複数のカメラで撮像す
るようにしてもよい。
[0011] In the above description, a cube is assumed to surround the object, but other shapes such as a cylinder, a triangular prism, etc. can also be assumed and constructed. Moreover, although the image is taken with one camera, it is also possible to take the image with a plurality of cameras.

【0012】0012

【発明の効果】以上説明したように本発明では、対象物
を囲む所定形状を想定し、その所定形状の基準位置にお
ける各頂点の位置と、投影先における各頂点の位置との
間の距離を求め、その距離が所定距離以上のとき、移動
後の対象物に対するロボットの作業はロボットの動作領
域外になると判別して、ロボットの動作補正は行わない
ように構成した。すなわち、ロボットの動作補正を制限
するか否かの判別を、対象物を囲む所定形状の各頂点の
移動量に基づいて行うようにした。このため、対象物の
一部でなくその全体を含む空間においてロボットの補正
後の位置が動作領域内にあるか否かを判別することがで
きる。したがって、ロボットの動作補正制限の判別を的
確に行うことができる。
As explained above, in the present invention, a predetermined shape surrounding an object is assumed, and the distance between the position of each vertex at the reference position of the predetermined shape and the position of each vertex at the projection destination is calculated. When the distance is equal to or greater than a predetermined distance, it is determined that the robot's work on the object after the movement is outside the robot's operating range, and the robot's motion is not corrected. That is, the determination as to whether or not to limit the motion correction of the robot is made based on the amount of movement of each vertex of a predetermined shape surrounding the object. Therefore, it is possible to determine whether or not the corrected position of the robot is within the motion range in a space that includes not only a part of the object but the entire object. Therefore, it is possible to accurately determine the robot motion correction limitations.

【0013】また、判別基準となる所定距離は、所定形
状の各頂点の移動量であるため、その設定を容易に行う
ことができる。さらに、この判別は、ロボット制御装置
でなく、画像処理装置側で行われる。このため、ロボッ
ト制御装置は画像処理装置から判別結果が送られるまで
の間に別の作業、例えばロボットのハンドの取り替え等
を行うことができる。したがって、アプリケーションの
サイクルタイム削減を可能にすることができる。
Furthermore, since the predetermined distance serving as the determination criterion is the amount of movement of each vertex of the predetermined shape, it can be easily set. Furthermore, this determination is performed not by the robot control device but by the image processing device. Therefore, the robot control device can perform other work, such as replacing the robot's hand, until the determination result is sent from the image processing device. Therefore, it is possible to reduce application cycle time.

【図面の簡単な説明】[Brief explanation of drawings]

【図1】本発明のロボットの補正量制限方法を実施する
ためのロボットシステムの全体の構成図である。
FIG. 1 is an overall configuration diagram of a robot system for implementing the robot correction amount limiting method of the present invention.

【図2】本発明のロボットの補正量制限方法を実行する
ためのフローチャートを示す図である。
FIG. 2 is a diagram showing a flowchart for executing the robot correction amount limiting method of the present invention.

【符号の説明】[Explanation of symbols]

1  ロボット 10  ロボット制御装置 20  画像処理装置 21  プロセッサ 22  ROM 23,24  RAM 30  車体 40,41  立方体 1 Robot 10 Robot control device 20 Image processing device 21 Processor 22 ROM 23, 24 RAM 30 Vehicle body 40,41 cube

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】  動作領域内で補正動作が行われるよう
に補正量を制限するロボットの補正量制限方法において
、対象物の外形を囲む所定形状を基準位置において設定
し、前記基準位置における所定形状の各頂点の位置をロ
ボット座標系で入力し、前記対象物に設けられた検出点
を、前記対象物の基準位置及び移動後の位置において、
視覚センサを用いて検出し、前記対象物の検出点の検出
結果に基づいて、前記対象物の基準位置から移動後の位
置への変換行列を求め、前記変換行列を用いて前記各頂
点の、前記対象物の移動後の位置における投影先を求め
、前記基準位置における各頂点の位置と、前記投影先に
おける各頂点の位置との間の距離を求め、前記距離が所
定距離以上のとき、前記移動後の対象物に対する前記ロ
ボットの作業は、前記ロボットの動作領域外になるとし
て前記ロボットの動作補正を行わないことを特徴とする
ロボットの補正量制限方法。
1. A correction amount limiting method for a robot that limits a correction amount so that a correction operation is performed within a motion region, in which a predetermined shape surrounding the outer shape of a target object is set at a reference position, and the predetermined shape at the reference position is Input the position of each vertex in the robot coordinate system, and set the detection point provided on the object at the reference position and the position after movement of the object.
Detection is performed using a visual sensor, and based on the detection results of the detection points of the object, a transformation matrix from the reference position of the object to the position after the movement is determined, and using the transformation matrix, the The projection destination at the position after the object is moved is determined, the distance between the position of each vertex at the reference position and the position of each vertex at the projection destination is determined, and when the distance is a predetermined distance or more, the A method for limiting the amount of correction for a robot, characterized in that the operation of the robot on the object after movement is outside the operation range of the robot, and the operation of the robot is not corrected.
【請求項2】  前記所定形状は立方体であることを特
徴とする請求項1記載のロボットの補正量制限方法。
2. The robot correction amount limiting method according to claim 1, wherein the predetermined shape is a cube.
【請求項3】  前記立方体は、前記対象物の外形に沿
って形成されることを特徴とする請求項2記載のロボッ
トの補正量制限方法。
3. The robot correction amount limiting method according to claim 2, wherein the cube is formed along the outer shape of the object.
JP3103131A 1991-04-08 1991-04-08 How to limit the compensation amount of the robot Expired - Fee Related JP2839386B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP3103131A JP2839386B2 (en) 1991-04-08 1991-04-08 How to limit the compensation amount of the robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3103131A JP2839386B2 (en) 1991-04-08 1991-04-08 How to limit the compensation amount of the robot

Publications (2)

Publication Number Publication Date
JPH04310103A true JPH04310103A (en) 1992-11-02
JP2839386B2 JP2839386B2 (en) 1998-12-16

Family

ID=14345993

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3103131A Expired - Fee Related JP2839386B2 (en) 1991-04-08 1991-04-08 How to limit the compensation amount of the robot

Country Status (1)

Country Link
JP (1) JP2839386B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6044293A (en) * 1983-08-18 1985-03-09 株式会社日立製作所 Control system of industrial robot
JPS63241603A (en) * 1987-03-30 1988-10-06 Hitachi Ltd Method and device for processing position deviation signal of robot
JPS6466508A (en) * 1987-09-08 1989-03-13 Nissan Motor Coordinate conversion
JPH01205204A (en) * 1988-02-10 1989-08-17 Hitachi Ltd Coordinate system calibration system for robot with visual sense

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6044293A (en) * 1983-08-18 1985-03-09 株式会社日立製作所 Control system of industrial robot
JPS63241603A (en) * 1987-03-30 1988-10-06 Hitachi Ltd Method and device for processing position deviation signal of robot
JPS6466508A (en) * 1987-09-08 1989-03-13 Nissan Motor Coordinate conversion
JPH01205204A (en) * 1988-02-10 1989-08-17 Hitachi Ltd Coordinate system calibration system for robot with visual sense

Also Published As

Publication number Publication date
JP2839386B2 (en) 1998-12-16

Similar Documents

Publication Publication Date Title
KR970007039B1 (en) Detection position correction system
US20040080758A1 (en) Three-dimensional visual sensor
JP2010112859A (en) Robot system, robot control device, and method for controlling robot
JPH06175715A (en) Visual sensor coordinate system setting jig and setting method therefor
JP7250489B2 (en) Image processing device, its control method, and program
JP6489894B2 (en) A robot system having a function of correcting the take-out path of an object
WO2016152755A1 (en) Object recognition device
CN110722550A (en) Robot system
JP2006224291A (en) Robot system
JP2003136465A (en) Three-dimensional position and posture decision method of detection target object and visual sensor of robot
JP2006021300A (en) Predicting device and holding device
KR20170142379A (en) Apparatus for detect dimensional welding line of welding robot using image processing
KR20100081881A (en) Data matching device and method, and robot using these
JPH04310103A (en) Limiting method for robot correction value
JPH04269194A (en) Plane measuring method
JPH0575243B2 (en)
JPH03281182A (en) Coordinate correcting method for moving robot
WO2019093299A1 (en) Position information acquisition device and robot control device provided with same
JPH0411352B2 (en)
JP2000180138A (en) Calibration plate and calibration system for visual sensor utilizing it
JP7341079B2 (en) Distance image estimation device and control device
WO2023013698A1 (en) Robot control device, robot control system, and robot control method
Ismail et al. Soccer Robot Localization Based on Sensor Fusion From Odometry and Omnivision
JP3541980B2 (en) Calibration method for robot with visual sensor
WO2023013739A1 (en) Robot control device, robot control system, and robot control method

Legal Events

Date Code Title Description
R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees