JPS58114887A - Automatic positioning mechanism - Google Patents

Automatic positioning mechanism

Info

Publication number
JPS58114887A
JPS58114887A JP21054781A JP21054781A JPS58114887A JP S58114887 A JPS58114887 A JP S58114887A JP 21054781 A JP21054781 A JP 21054781A JP 21054781 A JP21054781 A JP 21054781A JP S58114887 A JPS58114887 A JP S58114887A
Authority
JP
Japan
Prior art keywords
robot
coordinate system
visual
coordinates
input device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP21054781A
Other languages
Japanese (ja)
Inventor
隆 内山
西本 克史
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP21054781A priority Critical patent/JPS58114887A/en
Publication of JPS58114887A publication Critical patent/JPS58114887A/en
Pending legal-status Critical Current

Links

Landscapes

  • Control Of Position Or Direction (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
(57) [Summary] This bulletin contains application data before electronic filing, so abstract data is not recorded.

Description

【発明の詳細な説明】 (1)発明の技術分野 本発明は自動位置決め機構に係り、特にロボットに視覚
機能を付加した場合のロボット自体の座標系と視覚入力
装置の座標系の相対関係を決定する自動位置決め機構に
関する。
Detailed Description of the Invention (1) Technical Field of the Invention The present invention relates to an automatic positioning mechanism, and in particular determines the relative relationship between the coordinate system of the robot itself and the coordinate system of a visual input device when a visual function is added to the robot. This invention relates to an automatic positioning mechanism.

(2)技術の背景 近時、産業用のロボットが多くの分野で使用されている
が、その大部分は一度人間がロボットを直接又は間接的
に操縦して作業を教え込み、動作を記憶させた後に、こ
れを再生する方式が多い。
(2) Technical background Recently, industrial robots have been used in many fields, but in most cases, humans directly or indirectly operate the robots to teach them the tasks and memorize their movements. There are many ways to play this after the file has been downloaded.

このようなロボットで物体のハンドリング作業を行う場
合には握持される物体は定められた場所に正確に配列さ
れる必要があるが物体をきちんと整列させる作業は大変
であった。
When handling objects with such a robot, the objects to be gripped must be accurately arranged in predetermined locations, but it is difficult to align the objects properly.

このような欠点を除くためにはロボットに視覚機能を付
加して物体の位置、姿勢、形状等を認識してハンドリン
グを行うようにすればよい。この場合は物体が視覚入力
装置の視野内にあれば比較的簡単にハンドリングをロボ
ットに行わせることができる。この場合ロボット自体の
座標系と、視覚入力装置の座標系が異なっているため、
視覚入力装置で計測したデータによりロボットを駆動す
る場合には視覚入力装置の座標系とロボットの座標系の
相対関係をあらかじめ与えておく必要がある。
In order to eliminate these drawbacks, a visual function may be added to the robot so that the robot can recognize the position, orientation, shape, etc. of objects and handle them. In this case, if the object is within the field of view of the visual input device, it is relatively easy to have the robot handle the object. In this case, the robot's own coordinate system and the visual input device's coordinate system are different, so
When driving a robot using data measured by a visual input device, it is necessary to give the relative relationship between the coordinate system of the visual input device and the coordinate system of the robot in advance.

この相対関係の要素には原点の相対位置、座標軸の回転
1倍率等がある。
Elements of this relative relationship include the relative position of the origin, the rotational magnification of the coordinate axes, etc.

従来はこれらの値を求めるには標準パターンを人力し、
人間がモニタテレビを見ながら、原点の相対位置、座標
軸の回転等のパラメータを実測し。
Traditionally, these values were calculated manually using standard patterns.
While watching a TV monitor, humans actually measure parameters such as the relative position of the origin and the rotation of the coordinate axes.

カメラの位置を試行錯誤しながら調整していた。I was adjusting the camera position through trial and error.

また、変換定数を1算してロボットの制御回路に入力す
る方法等が提案されていた。しかし、これら方法による
と正確な測定が困難なため、作業が煩雑となりカメラ装
置の位置1倍率を変更する毎に一連の動作を繰り返す必
要があり、より簡単な相対位置決め機構が要望されてい
た。
Furthermore, a method has been proposed in which the conversion constant is incremented by 1 and input into the control circuit of the robot. However, these methods make accurate measurement difficult, making the work complicated and requiring a series of operations to be repeated each time the position 1 magnification of the camera device is changed.Therefore, a simpler relative positioning mechanism has been desired.

(3)従来技術と問題点 第1図は従来の自動位置決め機構を説明するための斜視
図であり、同図に於て、1は載置台であり、該載置台上
には位置合せの十字マーク2が設けられ、該十字マーク
2の位置はロボット6の固定点、即ちロボットの座標軸
の原点に対しX軸及びY軸方向にLl及びL2の距離に
あるように配置されている。十字マーク2のZ軸方向に
は十字マーク2の交点にテレビジ9ンカメラ装置4の光
軸5が一致するように配置されている。
(3) Prior art and problems Figure 1 is a perspective view for explaining a conventional automatic positioning mechanism. A mark 2 is provided, and the position of the cross mark 2 is located at distances L1 and L2 in the X-axis and Y-axis directions from the fixed point of the robot 6, that is, the origin of the robot's coordinate axes. The cross mark 2 is arranged in the Z-axis direction so that the optical axis 5 of the television camera device 4 coincides with the intersection of the cross mark 2.

上述の如き構成に於て、ロボット6によってハンドリン
グすべき物体3が載置台1上に載置されるとカメラ装置
4等の視覚入力装置の視野7内の観測パターンはモニタ
用テレビジジン画像には第2図に示す如く表示されるの
で視覚入力装置の倍率等を定めておけば座標点(Ll、
L2)を中心に物体3まで距JIL1’をモニタ画面8
上より求めることができる。即ちこの場合の物体の座標
点は (Ll +L1′、L2)となりこの値をロボッ
トにフィードバックさせることでロボットは物体のハン
ドリングを行い得る。しかし、これらの構成によると倍
率を変更する毎に一連の動作を繰      !り返し
て、その操作が極めて煩雑である欠点を有する。
In the configuration as described above, when the object 3 to be handled by the robot 6 is placed on the mounting table 1, the observation pattern within the field of view 7 of the visual input device such as the camera device 4 will not be visible in the television picture for monitor. The display will be as shown in Figure 2, so if the magnification of the visual input device is determined, the coordinate point (Ll,
Monitor the distance JIL1' from L2) to object 3 on screen 8.
You can find it from above. That is, the coordinate point of the object in this case is (Ll +L1', L2), and by feeding this value back to the robot, the robot can handle the object. However, according to these configurations, a series of operations must be repeated every time the magnification is changed! On the other hand, it has the disadvantage that its operation is extremely complicated.

(4)本発明の目的 本発明は上記した従来の欠点に鑑み、ロボットの座標系
と視覚入力装置の座標系との相対関係を簡単な方法で求
めるためにロボット自体を測定装置として使用し、ロボ
ット自身が2次元の位置。
(4) Purpose of the present invention In view of the above-mentioned conventional drawbacks, the present invention uses the robot itself as a measuring device in order to determine the relative relationship between the coordinate system of the robot and the coordinate system of the visual input device in a simple manner. The robot itself is in a two-dimensional position.

倍率1回転角等のパラメータを抽出、記憶し、以後の座
標変換に用いようとすることを目的とするものである。
The purpose of this is to extract and store parameters such as magnification and rotation angle, and use them for subsequent coordinate transformation.

(5)発明の構成 上記した本発明の目的は下記の如き構成によって達成す
ることができる。
(5) Structure of the invention The above-mentioned object of the present invention can be achieved by the following structure.

即ち、ロボットのハンド自体又はハンドに付与した1つ
のマーク座標をテレビカメラ等を用いた視覚人力装置に
固定された視覚座標系の視野内の2点で入力し、該ロボ
ットの姿勢より求まるロボットの姿勢データと上記2点
の座標により、ロボットに固定されたロボット座標系と
該視覚入力装置に固定された視覚座標系との相対位置を
決定してなることを特徴とする自動位置決め機構である
That is, by inputting the coordinates of the robot's hand itself or one mark given to the hand at two points within the field of view of a visual coordinate system fixed to a visual human power device using a television camera or the like, the robot's posture determined from the robot's posture is determined. This automatic positioning mechanism is characterized in that the relative position between a robot coordinate system fixed to the robot and a visual coordinate system fixed to the visual input device is determined based on posture data and the coordinates of the two points.

(6)発明の実施例 以下、本発明の実施例を図面によって説明する。(6) Examples of the invention Embodiments of the present invention will be described below with reference to the drawings.

第3図は本発明のロボット6の座標系Ck−CXR,Y
I2.Z”)及び視覚人力装置4の座標系C6−(X、
Y、Z)の関係を示す斜視図である。
FIG. 3 shows the coordinate system Ck-CXR,Y of the robot 6 of the present invention.
I2. Z”) and the coordinate system C6-(X,
FIG. 3 is a perspective view showing the relationship between Y and Z.

第3図に於て、テレビジ9ンカメラ装置4からなる視覚
入力装置の座標系のロボット座標系に対ド する平行移動位置く2次元位置)の座標を(xo。
In FIG. 3, the coordinates of the coordinate system of the visual input device consisting of the television camera device 4 (the two-dimensional position of the parallel movement position relative to the robot coordinate system) are expressed as (xo).

yo)とし、回転をθとし、視覚座標系の倍率をkすれ
ば、視覚座標系の平面座標を(XO,VC)とした時の
ロボット座標系の平面座標(x’、y”)そこで、第4
図に示す如くロボット6のハンド9にマーク10を付し
、該マーク点又はハンド9の軸方向中心線12と直交す
る回動中心線11の交点13をロボットのハンド座標基
準とし、ロボ・7ト内部の検出器によって、これらハン
ド座標基準点を読み取るように構成する。
yo), the rotation is θ, and the magnification of the visual coordinate system is k. When the plane coordinates of the visual coordinate system are (XO, VC), the plane coordinates of the robot coordinate system (x', y'') are Fourth
As shown in the figure, a mark 10 is attached to the hand 9 of the robot 6, and the mark point or the intersection point 13 of the rotation center line 11 perpendicular to the axial center line 12 of the hand 9 is used as the hand coordinate reference of the robot. A detector inside the hand is configured to read these hand coordinate reference points.

この状態でロボット6のハンド9が例えばロボット系座
標の原点より角度θ1だけ回動した位置でI2I2 のハンド座標(xl−11’  yr’ll )と原点
から角度θ2だけ回動した位置でのハンド座標(Xlf
fl、y+’i2)をロボットにフィードバックするよ
うに教示しておくと平行移動量(xo  、  yF 
 )、回転量θ。
In this state, the hand 9 of the robot 6 is, for example, at a position rotated by an angle θ1 from the origin of the robot system coordinates, and the hand coordinates of I2I2 (xl-11'yr'll) and the hand at a position rotated by an angle θ2 from the origin. Coordinates (Xlf
If the robot is taught to feed back fl, y+'i2), the amount of parallel movement (xo, yF
), rotation amount θ.

倍率に等のパラメータを求めることができる。Parameters such as magnification can be obtained.

上記実施例ではロボット6のハンドにマークを付して位
置の異なる2点(X!’:1.yA)、 (X心。
In the above embodiment, marks are attached to the hand of the robot 6 to mark two points at different positions (X!': 1.yA), (X center).

yh)を入力したが第5図に示すようなキャブレージリ
ン用ツール14をロボット6のハンド9に握持させるよ
うにしてもよい。
yh), the hand 9 of the robot 6 may hold the carburetor ring tool 14 as shown in FIG.

この場合キャプレーション用ツール14のハンド位置の
中心13を(xH、y4 )とし、該キャブレージリン
用ツール14の左右端にマーク15゜16を付与し、こ
れらマーク間隔を2Lとすれば各マーク位’llノ座標
(x、7.、  y、!7.) 、  (xlQ、、 
 yj2)の値は で表すことができる。
In this case, if the center 13 of the hand position of the capration tool 14 is (xH, y4), marks 15° 16 are provided at the left and right ends of the carburetion tool 14, and the interval between these marks is 2L, each mark Position'll coordinates (x, 7., y, !7.), (xlQ,,
The value of yj2) can be expressed as.

上式中、θ −tan”(y” / x’ )  ・−
・・−(41?’l          rlii で表すことができる。
In the above formula, θ −tan”(y”/x’) ・−
...-(41?'l rlii).

この場合、上記のハンド座標(X’、yj4>は第4図
の場合と同様にロボット6内の内部検出器データ読み取
ることができるので2つのマーク位置IL 15.16の座標(xH+ 、>ru ) 、  (X
1!’2 、  y!z )は既知となる。よって視覚
入力装置のカメラにより計測した各マーク位置(x?、
  yC)、  (xi 。
In this case, the above hand coordinates (X', yj4> can be read from the internal detector data in the robot 6 as in the case of FIG. 4, so the coordinates of the two mark positions IL 15.16 (xH+, >ru ), (X
1! '2, y! z) is known. Therefore, each mark position (x?,
yC), (xi.

y2)と上記2つのマーク位置15.16の座標(X、
F、 、yA ) 、  (4、YKz> )1ヲ上E
IR(1)式に代入すれば平行移動量(x”  y’ 
)、回転Ol    。
y2) and the coordinates (X,
F, , yA ), (4, YKz> ) 1 wo E
By substituting into the IR (1) formula, the amount of parallel movement (x"y'
), rotation Ol.

量61倍率kを求めることができる。1184図の場合
も(1)式に2点の異なる位置の値を代入すれば座標変
換パラメータが求められることは明らかである。
The quantity 61 magnification k can be determined. It is clear that in the case of the 1184 diagram as well, the coordinate transformation parameters can be obtained by substituting values at two different positions into equation (1).

本発明に於てはロボット6に予めキャリプレーシロン用
ツール14を握持するように教示して置けば人手を介さ
ずに自動的にロボット座標系と視覚入力装置座標系の相
対座標を決定することができる。なお上記実施例では2
次元座標について詳記したが本発明を3次元座標にまで
拡大できることは明白である。
In the present invention, if the robot 6 is taught in advance to grasp the Calipre Siron tool 14, the relative coordinates between the robot coordinate system and the visual input device coordinate system can be automatically determined without human intervention. be able to. In the above example, 2
Although dimensional coordinates have been described in detail, it is clear that the invention can be extended to three-dimensional coordinates.

(7)発明の効果 以上、詳細に説明したように、本発明の自動位置決め機
構によればロボット自体にキャリブレーション用ツール
を握持させるようにプログラムするか、ロボットのハン
ドに付加したマーク位置を異なる2ケ所に移動させるよ
うにプログラムすればロボットの平行移動量、回動角等
の、s+ラメータが求められてロボット座標系と視覚入
力装置の座標系の相対関係が簡単に求められるため操作
は煩雑でなく安全性、保守性の点でも極めて有効なもの
である。
(7) Effects of the Invention As explained in detail above, according to the automatic positioning mechanism of the present invention, the robot itself can be programmed to grasp the calibration tool, or the mark position added to the robot hand can be programmed to hold the calibration tool. If you program the robot to move to two different locations, the s+ parameters such as the amount of parallel movement and rotation angle of the robot can be determined, and the relative relationship between the robot coordinate system and the coordinate system of the visual input device can be easily determined. It is not complicated and is extremely effective in terms of safety and maintainability.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は従来の位置決めの機構を説明するための斜視図
、第2図は第1図の視覚人力装置よりのモニタ出力画像
を示す平面図、第3図は本発明の位置決め機構を説明す
るための斜視図、第4図は本発明の位置決め機構に用い
るロボットのノ\ンドに付加したマークとハンド座標系
の関係を説明する平面図、第5図は本発明の位置決め機
構に用いるキャリプレーシロン用ツールの斜視図である
。 1・・・載置台、2・・・十字マーク、3・・・物体、
4・・・カメラ装置、6・・・ロボット、7・・・カメ
ラ視野、8・・・画像、9・・・ノ\ンド、10,15
.16・・・マーク、14・・・キャリブレーション用
ツール 特許出願人  富士通株式会社 手続補正書(方式) 昭和62年 gII、5in 1事件の表示 昭和九1−持訂騎第−+10tダ2シ;3 補止を4る
者 事で↑との関係     持許出願ノ(IU所 神奈用
県川崎11川り91イ1.・I・1111111015
番地(522)名4る。富士通株式会社
FIG. 1 is a perspective view for explaining a conventional positioning mechanism, FIG. 2 is a plan view showing a monitor output image from the visual human power device in FIG. 1, and FIG. 3 is for explaining the positioning mechanism of the present invention. FIG. 4 is a plan view illustrating the relationship between the mark added to the robot's node and the hand coordinate system used in the positioning mechanism of the present invention, and FIG. 5 is a perspective view of the caliper used in the positioning mechanism of the present invention. It is a perspective view of the tool for Chiron. 1... Placement table, 2... Cross mark, 3... Object,
4... Camera device, 6... Robot, 7... Camera field of view, 8... Image, 9... Note, 10, 15
.. 16...Mark, 14...Calibration tool patent applicant Fujitsu Ltd. Procedural amendment (method) 1988 gII, 5in 1 Incident display Showa 91-Revised version-+10t da 2shi; 3.Relationship with ↑ in the case of 4 amendments Application for license (IU office, Kawasaki 11, Kawasaki, Kanagawa Prefecture, 91 I1.・I・1111111015
Address (522) Name 4ru. Fujitsu Limited

Claims (2)

【特許請求の範囲】[Claims] (1)ロボットのハンド自体又はハンドに付与した1つ
のマーク座標をテレビカメラ等を用した視覚入力装置に
固定された視覚座標系の視野内の2点で入力し、該ロボ
ットの姿勢より求まるロボ。 トの姿勢データと上記2点の座標により、ロボットに固
定されたロボット座標系と該視覚入力装置に固定された
視覚座標系との相対位置を決定してなることを特徴とす
る自動位置決め機構。
(1) Input the coordinates of the robot's hand itself or one mark given to the hand at two points within the field of view of a visual coordinate system fixed to a visual input device using a television camera, etc., and determine the robot's posture from the robot's posture. . An automatic positioning mechanism characterized in that the relative position between a robot coordinate system fixed to the robot and a visual coordinate system fixed to the visual input device is determined based on the posture data of the robot and the coordinates of the two points.
(2)ロボットのハンドによって2ケ所にマークを付け
た寸法が既知のキヤリプレーシジン用ツールを握持させ
、テレビカメラ等を用いた視覚入力装置により検出した
マーク座標と、該ロボット姿勢より求まるロボット座標
系におけるマーク座標とによりロボットに固定されたロ
ボット座標系と該視覚入力装置に固定された視覚座標系
との相対位置を決定してなることを特徴とする自動位置
決め機構。
(2) The robot hand grasps a caliper precision tool with known dimensions marked in two places, and the robot is determined from the mark coordinates detected by a visual input device such as a television camera and the robot posture. An automatic positioning mechanism characterized in that the relative position between a robot coordinate system fixed to the robot and a visual coordinate system fixed to the visual input device is determined based on mark coordinates in the coordinate system.
JP21054781A 1981-12-26 1981-12-26 Automatic positioning mechanism Pending JPS58114887A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP21054781A JPS58114887A (en) 1981-12-26 1981-12-26 Automatic positioning mechanism

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP21054781A JPS58114887A (en) 1981-12-26 1981-12-26 Automatic positioning mechanism

Publications (1)

Publication Number Publication Date
JPS58114887A true JPS58114887A (en) 1983-07-08

Family

ID=16591137

Family Applications (1)

Application Number Title Priority Date Filing Date
JP21054781A Pending JPS58114887A (en) 1981-12-26 1981-12-26 Automatic positioning mechanism

Country Status (1)

Country Link
JP (1) JPS58114887A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62254206A (en) * 1986-04-28 1987-11-06 Fuji Electric Co Ltd Deciding device for plane direction
JPS63163907A (en) * 1986-12-26 1988-07-07 Toyota Motor Corp Method for matching coordinate in intelligent robot
JP2009172718A (en) * 2008-01-24 2009-08-06 Canon Inc Working device and calibration method of the same

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62254206A (en) * 1986-04-28 1987-11-06 Fuji Electric Co Ltd Deciding device for plane direction
JPS63163907A (en) * 1986-12-26 1988-07-07 Toyota Motor Corp Method for matching coordinate in intelligent robot
JP2009172718A (en) * 2008-01-24 2009-08-06 Canon Inc Working device and calibration method of the same

Similar Documents

Publication Publication Date Title
DE102018213985B4 (en) robotic system
DE102016011653B4 (en) Robot system with camera for taking an image of a target
EP1555508B1 (en) Measuring system
US20080249659A1 (en) Method and system for establishing no-entry zone for robot
JP4289619B2 (en) Tool position correction method for articulated robots
GB2151350A (en) Sensing arrangement
JPS6332306A (en) Non-contact three-dimensional automatic dimension measuring method
DE102019102927B4 (en) Method and device for determining dimensional and/or geometric properties of a measurement object
JPS58114887A (en) Automatic positioning mechanism
JPH07237158A (en) Position-attitude detecting method and device thereof and flexible production system
JPH0310125B2 (en)
JPH05111897A (en) Finding method of relative position relationship between plurality of robots
JPH0626770B2 (en) Workpiece fitting method
King et al. Vision guided robots for automated assembly
JPH1011146A (en) Device for correcting stop posture of mobile object
Cheng Robot manipulation of 3D cylindrical objects with a robot-mounted 2D vision camera
JP3160443B2 (en) Non-contact point teaching device
JPH02110788A (en) Method for recognizing shape of three-dimensional object
JPH0283183A (en) Setting method for position of articulated robot
Cheng et al. A study of using 2D vision system for enhanced industrial robot intelligence
JP2539043B2 (en) Display method of shape measurement result
JPH01193902A (en) Coordinate calibration method for robot with terminal visual sense
JPH03170289A (en) Target grip
JP2584151Y2 (en) Robot controller
JPH04114607U (en) Robot positioning device