JPH11156764A - Locomotive robot device - Google Patents

Locomotive robot device

Info

Publication number
JPH11156764A
JPH11156764A JP9328097A JP32809797A JPH11156764A JP H11156764 A JPH11156764 A JP H11156764A JP 9328097 A JP9328097 A JP 9328097A JP 32809797 A JP32809797 A JP 32809797A JP H11156764 A JPH11156764 A JP H11156764A
Authority
JP
Japan
Prior art keywords
guided vehicle
robot
marks
automatic guided
work
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP9328097A
Other languages
Japanese (ja)
Inventor
Yutaka Inoue
裕 井上
Shigeru Takeda
滋 竹田
Tadayuki Fujita
忠行 藤田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP9328097A priority Critical patent/JPH11156764A/en
Publication of JPH11156764A publication Critical patent/JPH11156764A/en
Pending legal-status Critical Current

Links

Landscapes

  • Manipulator (AREA)

Abstract

PROBLEM TO BE SOLVED: To increase the correcting accuracy when the working position of a robot is corrected by a photographing means, and to reduce the working time. SOLUTION: Vision sensors 5a and 5b are fixed on an unmanned carrier 1 loading a multishaft robot 2, and marks 10a and 10b are provided on a working table 7. The handling position to a work 9 is corrected by a multishaft robot 2 depending on the position slippage amount of the marks 10a and 10b by the vision sensors 5a and 5b, at the instruction time and the stopping time, in the condition stopping the unmanned carrier 1 at a specific instruction position. In this case, since the marks 10a and 10b are set in the separating condition to position independently in the photographing area of the vision sensors 5a and 5b, it can be photographed by closing the vision sensors 5a and 5b to the marks 10a and 10b, and the detecting accuracy of the marks 10a and 10b can be increased, so as to increase the detecting accuracy of the stopping position slippage of the unmanned carrier 1.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、ロボットが搭載さ
れた無人搬送車を所定の停止位置に停止させた状態で静
止部位側に設けられた複数の基準点を撮影手段で撮影す
ることにより停止位置を認識し、前記ロボットによる作
業位置を補正する移動ロボット装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an automatic guided vehicle on which a robot is mounted and stopped at a predetermined stop position by photographing a plurality of reference points provided on a stationary part side by photographing means. The present invention relates to a mobile robot device that recognizes a position and corrects a work position of the robot.

【0002】[0002]

【従来の技術】従来より、無人搬送車に搭載したロボッ
トにより一連の作業を行わせる無人搬送車搭載型ロボッ
トが供されている。この種の無人搬送車搭載型ロボット
は、無人搬送車が作業台近傍の所定の教示位置に停止し
た状態で、予め教示された位置及び姿勢となるように制
御されることにより作業台の所定位置に載置されたワー
クをハンドリングして他の場所に移動したり、工作装置
にセットするようになっている。
2. Description of the Related Art Conventionally, there has been provided an automatic guided vehicle mounted robot in which a series of operations are performed by a robot mounted on the automatic guided vehicle. This type of unmanned carrier mounted robot is configured to control the unmanned carrier at a predetermined teaching position in the vicinity of the work table and to control the robot to a pre-taught position and posture, thereby controlling the predetermined position of the work table. The work placed on the work is handled and moved to another place, or set on a machine tool.

【0003】ところで、作業時に無人搬送車を所定の教
示位置に停止させるにしても、無人搬送車の停止位置或
いはロボットの停止位置は教示位置から僅かにずれてい
るのが通常であり、そのままの状態でロボットによりワ
ークに対してハンドリング作業を実行したのでは、ワー
クに対するハンドリング位置がずれて支障を生じる虞が
ある。
By the way, even when the automatic guided vehicle is stopped at a predetermined teaching position during operation, the stop position of the automatic guided vehicle or the stop position of the robot is usually slightly deviated from the teaching position. If the robot performs the handling operation on the workpiece in the state, the handling position on the workpiece may be shifted and cause a problem.

【0004】そこで、ロボットのハンド部に視覚センサ
を取付けると共に、作業台上の所定位置にマーク(基準
点)を付しておき、無人搬送車が教示位置に停止した状
態で視覚センサにより撮影したマークの教示時位置と作
業時位置との差を比較することにより、無人搬送車の位
置ずれを含むロボットの位置ずれ求め、その位置ずれ分
だけロボットによるワークに対するハンドリング位置を
補正することが提案されている。
Therefore, a visual sensor is attached to the hand part of the robot, a mark (reference point) is attached at a predetermined position on the work table, and an image is taken by the visual sensor while the automatic guided vehicle is stopped at the teaching position. By comparing the difference between the teaching position and the working position of the mark, it has been proposed to obtain the position shift of the robot including the position shift of the automatic guided vehicle and to correct the handling position of the robot with respect to the work by the position shift. ing.

【0005】この種の移動ロボットの位置補正方法とし
て、特公平8−9151号のものでは、作業台上に設け
られた2つの基準点をロボット先端に取付けたカメラで
順に認識するようにしている。
As a method of correcting the position of a mobile robot of this type, Japanese Patent Publication No. Hei 8-9151 discloses a method in which two reference points provided on a work table are sequentially recognized by a camera attached to the robot tip. .

【0006】[0006]

【発明が解決しようとする課題】しかしながら、特公平
8−9151号のものでは、ロボット先端のカメラの同
一視野内で2点のマーカを認識するようにしていること
から、2点のマーカをカメラの視野内に位置させる必要
があり、カメラをマーカから十分に離す必要がある。こ
の場合、無人搬送車の停止角度の認識精度はカメラの分
解能で決定されてしまうことから、マーカからカメラが
離れた距離にあるポイントでは、補正角度が悪化すると
いう問題が生じていた。
However, in Japanese Patent Publication No. Hei 8-9151, two markers are recognized within the same field of view of the camera at the tip of the robot. And the camera needs to be sufficiently far from the marker. In this case, since the recognition accuracy of the stop angle of the automatic guided vehicle is determined by the resolution of the camera, there has been a problem that the correction angle is deteriorated at a point at a distance from the marker to the camera.

【0007】また、特公平8−9151号のものでは、
無人搬送車が作業台に到着し、位置補正動作が必要とな
る毎に、マーカの真上にカメラを移動させるためにロボ
ット動作を実施する必要があり、作業時のサイクルタイ
ムが長くなるという問題がある。この場合、ロボット動
作を無くすために、無人搬送車が作業台に到着する前に
カメラをマーカの真上に位置するように予め移動させる
ことも考えられるが、それでは、無人搬送車からロボッ
トアームとカメラがはみ出してしまい、安全性が低下す
ると共に設備側との干渉の問題が発生する虞がある。
[0007] In Japanese Patent Publication No. Hei 8-9151,
Every time an unmanned guided vehicle arrives at a worktable and a position correction operation is required, it is necessary to perform a robot operation to move the camera directly above the marker, resulting in a longer cycle time during the operation. There is. In this case, in order to eliminate the robot operation, it is conceivable to preliminarily move the camera so that the camera is positioned directly above the marker before the automatic guided vehicle arrives at the workbench. The camera may protrude, lowering the safety and causing a problem of interference with the equipment.

【0008】本発明は上記事情に鑑みてなされたもの
で、その目的は、撮影手段によりロボットの作業位置を
補正する構成において、補正精度を高めることができる
と共に作業時間を短縮することができる移動ロボット装
置を提供することにある。
SUMMARY OF THE INVENTION The present invention has been made in view of the above circumstances, and an object of the present invention is to provide a configuration in which a work position of a robot is corrected by a photographing means, so that the correction accuracy can be improved and the work time can be reduced. It is to provide a robot device.

【0009】[0009]

【課題を解決するための手段】請求項1の発明によれ
ば、ロボットにより作業するときは、無人搬送車を所定
の停止位置に停止させる。このとき、静止部位側に設け
られた複数の基準点は、撮影手段による予め設定された
撮影領域毎に1つだけ位置するように離間した状態で設
けられているので、撮影領域に複数の基準点を位置させ
る必要から基準点同士が近接した位置に設けられている
場合に比較して、撮影手段を基準点に接近した状態で撮
影できると共に、基準点を離して設けることができる。
これにより、撮影手段による撮影分解能が高くなり、無
人搬送車の停止位置ずれの検出精度を高めることができ
ると共に、離れた基準点位置に基づいて無人搬送車の停
止角度ずれの検出精度も高めることができるので、ロボ
ットによる作業位置の精度を高めることができる。
According to the first aspect of the present invention, when working with a robot, the automatic guided vehicle is stopped at a predetermined stop position. At this time, since the plurality of reference points provided on the stationary part side are provided so as to be separated from each other so as to be located only once for each imaging region set by the imaging means in advance, the plurality of reference points Compared to the case where the reference points are provided at positions close to each other due to the necessity of locating the points, the photographing means can be photographed in a state close to the reference points and the reference points can be provided at a distance from each other.
Thereby, the imaging resolution by the imaging means is increased, and the detection accuracy of the stop position deviation of the automatic guided vehicle can be improved, and the detection accuracy of the stop angle deviation of the automatic guided vehicle based on the distant reference point position can also be increased. Therefore, the accuracy of the work position by the robot can be improved.

【0010】請求項2の発明によれば、無人搬送車の移
動中は、撮影手段は、無人搬送車が停止位置に停止した
ときに基準点を撮影可能な所定位置に退避しているの
で、撮影手段が無人搬送車から側方に突出した状態で移
動する構成に比較して、無人搬送車の移動中の安全性が
低下すると共に設備側との干渉の問題が発生することは
ない。
According to the second aspect of the present invention, while the automatic guided vehicle is moving, the photographing means is retracted to a predetermined position where the reference point can be photographed when the automatic guided vehicle stops at the stop position. Compared to a configuration in which the photographing means moves in a state of protruding sideways from the automatic guided vehicle, the safety during the movement of the automatic guided vehicle is reduced and there is no problem of interference with the equipment.

【0011】請求項3の発明によれば、撮影手段は基準
点に1対1に対応して固定的に設けられているので、無
人搬送車が停止したタイミングで基準点の撮影を直ちに
行うことができ、基準点の撮影時間を短縮することがで
きる。また、撮影手段の姿勢ずれによる撮影ずれを生じ
ることはない。
According to the third aspect of the present invention, since the photographing means is fixedly provided in one-to-one correspondence with the reference points, the photographing of the reference points can be performed immediately when the automatic guided vehicle stops. Thus, the photographing time of the reference point can be reduced. Further, there is no occurrence of a shooting shift due to a shift in the attitude of the shooting unit.

【0012】請求項4の発明によれば、撮影手段はロボ
ットのアーム先端部に装着されているので、ロボットの
アーム先端部を退避しておくことにより、無人搬送車の
移動中に撮影手段が無人搬送車からはみ出してしまうこ
とはなく安全性を確保することができる。また、1台の
撮影手段を設ければ済むので、コストを低減することが
できる。
According to the fourth aspect of the present invention, since the photographing means is mounted on the tip of the arm of the robot, the photographing means can be moved while the automatic guided vehicle is moving by retreating the tip of the arm of the robot. Safety can be ensured without protruding from the automatic guided vehicle. Further, since only one photographing means is required, the cost can be reduced.

【0013】[0013]

【発明の実施の形態】(第1実施例)以下、本発明の第
1実施例を図1乃至図4を参照して説明する。図1は移
動ロボット装置の全体を示す斜視図である。この図1に
おいて、無人搬送車1は、床面に付設された誘導線に沿
って走行すると共に、予め教示された教示位置で停止す
るようなっている。無人搬送車1上には多軸ロボット2
が搭載されており、この多軸ロボット2は予め教示され
た位置及び姿勢に制御されることにより所定の動作を実
行するようになっている。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS (First Embodiment) A first embodiment of the present invention will be described below with reference to FIGS. FIG. 1 is a perspective view showing the entire mobile robot device. In FIG. 1, the automatic guided vehicle 1 travels along a guide line provided on the floor and stops at a teaching position previously taught. Multi-axis robot 2 on automatic guided vehicle 1
The multi-axis robot 2 executes a predetermined operation by being controlled to a position and an orientation taught in advance.

【0014】多軸ロボット2は複数のアーム3を備え、
そのアーム先端部3aにはハンド部4が設けられてい
る。また、無人搬送車1上の隅部には2台の視覚センサ
5a,5b(撮像手段に相当)がL字状のフレーム6に
より固定されている。
The multi-axis robot 2 has a plurality of arms 3,
A hand part 4 is provided at the arm tip part 3a. Further, two visual sensors 5 a and 5 b (corresponding to imaging means) are fixed to the corners on the automatic guided vehicle 1 by an L-shaped frame 6.

【0015】一方、地上側には作業台7(静止部位に相
当)が固定されており、その作業台7上の所定位置に形
成された凹部8にワーク9が挿入されている。ここで、
作業台7上の所定位置には2つのマーク10a,10b
(基準点に相当)が離間して設けられており、それらの
マーク10a,10bとワーク9の中心位置とが常に一
定の位置関係となっている。
On the ground side, a work table 7 (corresponding to a stationary part) is fixed, and a work 9 is inserted into a recess 8 formed at a predetermined position on the work table 7. here,
Two marks 10a and 10b are provided at predetermined positions on the worktable 7.
(Corresponding to a reference point) are provided apart from each other, and the marks 10a and 10b and the center position of the work 9 always have a fixed positional relationship.

【0016】この場合、作業台7上に設けられたマーク
10a,10bは、無人搬送車1が作業台7に対して所
定の教示位置に停止した状態で2台の視覚センサ5a,
5bがそれらを独立に画像として取り込むことが可能な
位置に設定されている。
In this case, the marks 10a and 10b provided on the work table 7 indicate that the two visual sensors 5a and 5a are in a state where the automatic guided vehicle 1 is stopped at a predetermined teaching position with respect to the work table 7.
5b is set at a position where they can be independently captured as images.

【0017】図2は全体の電気的構成を概略的に示して
いる。この図2において、多軸ロボット2はロボット制
御装置11により制御される。視覚センサ5a,5bは
シャッタ機能を有し、画像処理装置12からトリガー信
号が与えられたタイミングで撮像信号を当該画像処理装
置12に出力する。
FIG. 2 schematically shows the entire electrical configuration. In FIG. 2, the multi-axis robot 2 is controlled by a robot controller 11. The visual sensors 5a and 5b have a shutter function, and output an imaging signal to the image processing device 12 at a timing when a trigger signal is given from the image processing device 12.

【0018】画像処理装置12は、視覚センサ5a,5
bからの撮像信号に基づいて画像処理を施すことによ
り、後述するように視覚センサ5a,5b、ひいては無
人搬送車1の位置ずれ及び角度ずれによる認識ずれ量を
認識する。ティーチペンダント13は、ロボット制御装
置10に対して多軸ロボット2の動作を予め教示するた
めのものである。
The image processing device 12 includes the visual sensors 5a and 5
By performing image processing based on the imaging signal from b, the visual sensors 5a and 5b, and eventually the recognition deviation amount due to the positional deviation and angular deviation of the automatic guided vehicle 1 are recognized as described later. The teach pendant 13 is for teaching the operation of the multi-axis robot 2 to the robot controller 10 in advance.

【0019】一方、多軸ロボット2は、ロボット制御装
置11からの指令に応じて複数のサーボモータ(図示せ
ず)により複数のアーム3を動作させることによりアー
ム先端部3aの位置及び姿勢を制御するようになってい
る。この場合、各アーム3の位置はエンコーダ(図示せ
ず)により検出するようになっている。
On the other hand, the multi-axis robot 2 controls the position and attitude of the arm tip 3a by operating a plurality of arms 3 by a plurality of servo motors (not shown) in response to a command from the robot controller 11. It is supposed to. In this case, the position of each arm 3 is detected by an encoder (not shown).

【0020】次に、上記構成の作用を多軸ロボット2の
動作を示す図3のフローチャート及び視覚センサ5a,
5bによる撮像画像の幾何学的位置関係を示す図4を参
照して説明する。
Next, the operation of the multi-axis robot 2 will be described with reference to the flowchart of FIG.
A description will be given with reference to FIG.

【0021】まず、教示時においては、無人搬送車1を
作業台7に対して所定位置に停止させる。ここで、視覚
センサ5a,5bは、教示時においては図4に示す教示
時ロボット座標系(X,Y)を有しており、その教示時
ロボット座標系(X,Y)における視野が矢印Pa,P
bで示す範囲に設定されていると共に、その視野の略中
央に作業台7上に設けられた2つのマーク10a,10
bが夫々位置している。
First, at the time of teaching, the automatic guided vehicle 1 is stopped at a predetermined position with respect to the work table 7. Here, the visual sensors 5a and 5b have a teaching robot coordinate system (X, Y) shown in FIG. 4 when teaching, and the visual field in the teaching robot coordinate system (X, Y) is indicated by an arrow Pa. , P
b, and two marks 10a, 10a provided on the workbench 7 substantially at the center of the field of view.
b are located respectively.

【0022】さて、教示時においては、図3に示すよう
にワーク9の座標位置(it ,jt)を教示してから
(S1)、作業台7上に設けられた2つのマーク10
a,10bの基準位置(Xat,Yat)、(Xbt,Ybt)
を2台の視覚センサ5a,5bにより検出してその位置
を算出する(S2)。
At the time of teaching, the coordinate position (it, jt) of the work 9 is taught as shown in FIG. 3 (S1), and then the two marks 10 provided on the work table 7 are taught.
a, 10b reference position (Xat, Yat), (Xbt, Ybt)
Is detected by the two visual sensors 5a and 5b, and the position is calculated (S2).

【0023】続いて、作業台7に設けられた2つのマー
ク10a,10b間の中点10cの座標位置を求め(S
3)、その中点10cからワーク9までのベクトルAt
を算出する(S4)。つまり、マーク10a,10bの
位置(Xat,Yat)、(Xbt,Ybt)に基づいて、それ
らの中点10c(Xct,Yct)の位置は((Xat+Xb
t)/2、(Yat+Ybt)/2)と算出されるので、こ
の中点10cの位置とワーク9の中心位置(it,j
t)との差から、ベクトルAtは(i−((Xat+Xb
t)/2)、j−((Yat+Ybt)/2)と算出するこ
とができる。
Subsequently, the coordinate position of the midpoint 10c between the two marks 10a and 10b provided on the work table 7 is determined (S
3), a vector At from the midpoint 10c to the work 9
Is calculated (S4). That is, based on the positions (Xat, Yat) and (Xbt, Ybt) of the marks 10a and 10b, the position of the midpoint 10c (Xct, Yct) is ((Xat + Xb
t) / 2 and (Yat + Ybt) / 2), the position of the midpoint 10c and the center position of the work 9 (it, j
t), the vector At becomes (i − ((Xat + Xb)
t) / 2) and j-((Yat + Ybt) / 2).

【0024】要するに、マーク10a,10bの中点1
0cからベクトルAtだけ変位した位置にワーク9が存
在することになる。以上の動作により教示時における必
要データを取得することができる。
In short, the midpoint 1 of the marks 10a and 10b
The work 9 exists at a position displaced from 0c by the vector At. With the above operation, necessary data at the time of teaching can be obtained.

【0025】次に、実際に無人搬送車1が走行した後、
停止したときの処理方法について説明する。ここで、視
覚センサ5a,5bは、停止時においては図4に示す停
止時ロボット座標系(U,V)を有しており、その教示
時ロボット座標系(U,V)における視野が矢印Qa,
Qbで示す範囲に設定されている。
Next, after the automatic guided vehicle 1 actually travels,
A processing method at the time of stopping will be described. Here, the visual sensors 5a and 5b have the stationary robot coordinate system (U, V) shown in FIG. 4 when stopped, and the visual field in the robot coordinate system (U, V) during teaching is indicated by an arrow Qa. ,
It is set in the range indicated by Qb.

【0026】まず、2台の視覚センサ5a,5bにより
マーク10a,10bの位置を算出する(S5)。つま
り、このときの視覚センサ5a,5bの停止時ロボット
座標系(U,V)におけるマーク10a,10bの位置
(Xas,Yas)、(Xbs,Ybs)を視覚センサ5a,5
bにより算出する(図4参照)。ここから、停止時ロボ
ット座標系におけるマーク10a,10bの中点10c
(Xcs,Ycs)の位置は((Xas+Xbs)/2、((Y
as+Ybs)/2)と算出することができる(S6)。
First, the positions of the marks 10a and 10b are calculated by the two visual sensors 5a and 5b (S5). That is, the positions (Xas, Yas) and (Xbs, Ybs) of the marks 10a, 10b in the robot coordinate system (U, V) when the visual sensors 5a, 5b are stopped at this time are determined by the visual sensors 5a, 5b.
b (see FIG. 4). From here, the midpoint 10c of the marks 10a and 10b in the robot coordinate system at the time of stop
The position of (Xcs, Ycs) is ((Xas + Xbs) / 2, ((Y
as + Ybs) / 2) (S6).

【0027】続いて、ベクトルAtを停止時ロボット座
標系(U,V)でのベクトル値に変換するため、教示
時、停止時のマーク10a,10bの座標値から教示
時、停止時各座標の角度ずれ量θを算出し、これに基づ
く回転行列を教示時ベクトルAtに乗ずることによりベ
クトルAsを求める(S7)。これにマーク10a,1
0bの中点10cの位置データに加算することにより、
停止時のワーク9の位置を算出することができる(S
8)。従って、ロボット制御装置11により補正したワ
ーク9の位置に対してハンドリングすることにより当該
ワーク9を正しくハンドリングすることができる。
Subsequently, in order to convert the vector At into a vector value in the robot coordinate system (U, V) at the time of stopping, the coordinates of the coordinates at the time of teaching and at the time of stopping are calculated from the coordinate values of the marks 10a and 10b at the time of teaching and at the time of stopping. The angle As is calculated, and a vector As is obtained by multiplying the rotation vector based on the angle shift θ by the teaching vector At (S7). The mark 10a, 1
By adding to the position data of the midpoint 10c of 0b,
The position of the work 9 at the time of stop can be calculated (S
8). Therefore, by handling the position of the work 9 corrected by the robot control device 11, the work 9 can be correctly handled.

【0028】上記構成のものによれば、無人搬送車1が
教示位置からずれて停止した場合であっても、作業台7
に設けられたマーク10a,10bを視覚センサ5a,
5bで位置検出し、それらの位置情報に基づいて無人搬
送車1ひいてはワーク9の位置を求めるようにしたの
で、多軸ロボット2によりワーク9に対して正しくハン
ドリングすることできる。
According to the above configuration, even when the automatic guided vehicle 1 is shifted from the teaching position and stopped, the work table 7
The marks 10a, 10b provided on the visual sensor 5a,
Since the position is detected at 5b and the position of the automatic guided vehicle 1 and thus the position of the work 9 are obtained based on the position information, the multi-axis robot 2 can handle the work 9 correctly.

【0029】この場合、各マーク10a,10bの位置
を無人搬送車1に固定的に設けられた視覚センサ5a,
5bで独立に検出するようにしたので、1台の視覚セン
サ5a,5bで複数のマークを同時に認識する構成に比
較して、マーク10a,10bの位置を離間して設定す
ることができ、視覚センサ5a,5bによる分解能を高
めて、座標系の回転に対する回転ずれを精度よく補正す
ることができる。
In this case, the positions of the marks 10a and 10b are determined by the visual sensors 5a and 5a fixedly provided on the automatic guided vehicle 1.
5b, the positions of the marks 10a, 10b can be set apart from each other as compared with a configuration in which a single visual sensor 5a, 5b recognizes a plurality of marks simultaneously. By increasing the resolution by the sensors 5a and 5b, it is possible to accurately correct the rotational deviation with respect to the rotation of the coordinate system.

【0030】しかも、マーク10a,10bを視覚セン
サ5a,5bの略中央で検出することができるので、視
覚センサ5a,5bの光学系(レンズ)による撮像の歪
みが周辺部となるにしたがって大きくなるという特性を
有するにしても、マーク10a,10bの位置を正しく
検出することができる。
Moreover, since the marks 10a and 10b can be detected at substantially the center of the visual sensors 5a and 5b, the distortion of the image pickup by the optical system (lens) of the visual sensors 5a and 5b becomes larger as it becomes closer to the periphery. , The positions of the marks 10a and 10b can be correctly detected.

【0031】また、無人搬送車1に視覚センサ5a,5
bが固定されているので、多軸ロボット2により視覚セ
ンサ5a,5bを移動する構成に比較して、アーム先端
部3aの位置及び角度精度の影響を受けることを防止で
きる。
Further, the visual sensors 5a and 5
Since b is fixed, it is possible to prevent the position and angle accuracy of the arm tip 3a from being affected by the multi-axis robot 2 moving the visual sensors 5a and 5b.

【0032】(第2実施例)次に本発明の第2実施例を
図5を参照して説明するに、第1実施例と同一部分には
同一符号を付して説明を省略し、異なる部分について説
明する。この第2実施例は、視覚センサ5を多軸ロボッ
ト2のアーム先端部3aに装着し、多軸ロボット2に対
する制御により視覚センサ5を移動することによりマー
ク10a,10bの位置を検出することを特徴とする。
(Second Embodiment) Next, a second embodiment of the present invention will be described with reference to FIG. 5. The same parts as those in the first embodiment are denoted by the same reference numerals, and description thereof will be omitted. The parts will be described. In the second embodiment, the position of the marks 10a and 10b is detected by mounting the visual sensor 5 on the arm tip 3a of the multi-axis robot 2 and moving the visual sensor 5 by controlling the multi-axis robot 2. Features.

【0033】即ち、多軸ロボット2に対する制御によ
り、教示時及び停止時において、視覚センサ5の位置及
び姿勢を制御してマーク10a,10bの上方に順に位
置させることにより、マーク10a,10bの位置を順
に取得する。そして、斯様にして取得したマーク10
a,10bの位置に基づいて無人搬送車1の停止位置を
検出し、ワーク9に対する作業位置を補正することによ
り、ワーク9を正しくハンドリングすることができる。
That is, by controlling the multi-axis robot 2, at the time of teaching and at the time of stopping, the position and posture of the visual sensor 5 are controlled so as to be positioned above the marks 10a and 10b in order, so that the positions of the marks 10a and 10b are changed. Are obtained in order. And the mark 10 thus obtained
The work 9 can be correctly handled by detecting the stop position of the automatic guided vehicle 1 based on the positions a and 10b and correcting the work position with respect to the work 9.

【0034】この第2実施例によれば、1台の視覚セン
サ5により無人搬送車の停止位置を検出することができ
るので、視覚センサ5の台数を削減して、コスト低減を
図ることができる。
According to the second embodiment, since the stop position of the automatic guided vehicle can be detected by one visual sensor 5, the number of visual sensors 5 can be reduced, and the cost can be reduced. .

【0035】(第3実施例)次に本発明の第3実施例を
図6を参照して説明する。この第3実施例は、無人搬送
車1上に補助マーク14を設け、その補助マーク14の
位置により視覚センサ5の姿勢ずれを補正するようにし
たことを特徴とする。
(Third Embodiment) Next, a third embodiment of the present invention will be described with reference to FIG. The third embodiment is characterized in that an auxiliary mark 14 is provided on the automatic guided vehicle 1 and the attitude of the visual sensor 5 is corrected based on the position of the auxiliary mark 14.

【0036】即ち、第2実施例のようにして算出した中
点10cの位置データには、(1)視覚センサ5が取付
けてある多軸ロボット2のアーム先端部3aの停止位置
誤差、(2)アーム先端部3aの停止角度誤差、(3)
画像データ伝送時のずれによる視覚認識誤差を含んでお
り、特に、(2)の停止角度誤差の影響が大きい。
That is, the position data of the midpoint 10c calculated as in the second embodiment includes (1) a stop position error of the arm tip 3a of the multi-axis robot 2 to which the visual sensor 5 is attached, and (2) ) Stop angle error of arm tip 3a, (3)
This includes a visual recognition error due to a shift at the time of image data transmission, and particularly, the influence of the stop angle error of (2) is large.

【0037】そこで、これらの誤差を算出するために教
示時に記憶した補助マーク14の位置情報を利用するこ
とにした。即ち、無人搬送車1が所定の停止位置に停止
した状態で、マーク10bを取得する際に補助マーク1
4の位置(Xds,Yds)を視覚センサ5により同時に取
得する。この補助マーク14の位置(Xds,Yds)と、
教示時における補助マーク14の位置(Xdt,Ydt)と
の差が視野のずれ、つまり、停止角度誤差、停止位置誤
差、画像データ伝送時のずれによる視覚視認誤差であ
る。
Therefore, in order to calculate these errors, the position information of the auxiliary mark 14 stored at the time of teaching is used. That is, when the automatic guided vehicle 1 is stopped at a predetermined stop position, the auxiliary mark 1
4 (Xds, Yds) are simultaneously acquired by the visual sensor 5. The position (Xds, Yds) of the auxiliary mark 14 and
The difference from the position (Xdt, Ydt) of the auxiliary mark 14 at the time of teaching is a visual field shift, that is, a stop angle error, a stop position error, and a visual recognition error due to a shift at the time of image data transmission.

【0038】従って、上記の誤差を除去するために、こ
の差を算出すると、(Xdt−Xds,Ydt−Yds)とな
る。次に、算出済みのマーク10a,10bの中点10
cの位置((Xas+Xbs)/2、(Yas+Ybs)/2)
に差(Xct−Xcs、Yct−Ycs)を加算すると、これが
視覚視認誤差を除去した中点10cの位置となる。
Therefore, when this difference is calculated in order to remove the above error, it becomes (Xdt−Xds, Ydt−Yds). Next, the midpoint 10 of the calculated marks 10a and 10b
Position of c ((Xas + Xbs) / 2, (Yas + Ybs) / 2)
, The difference (Xct-Xcs, Yct-Ycs) is added to the position of the midpoint 10c from which the visual recognition error has been removed.

【0039】そして、ベクトルAtを停止時ロボット座
標系(U,V)でのベクトル値に変換するため、教示
時、停止時のマーク10a,10bの座標値から教示
時、停止時各座標の角度ずれ量θを算出し、これに基づ
く回転行列を教示時ベクトルAtに乗ずることによりベ
クトルAsを求める。これに先ほど算出した誤差を除い
たマーク10a,10bの中点10cの位置データに加
算することにより、停止時のワーク9の位置を算出する
ことができる。
Then, in order to convert the vector At into a vector value in the robot coordinate system (U, V) at the time of stopping, the angle of each coordinate at the time of teaching and at the time of stopping is calculated from the coordinate values of the marks 10a and 10b at the time of teaching and at the time of stopping. The displacement amount θ is calculated, and the vector As is obtained by multiplying the rotation matrix based on the displacement amount θ by the teaching vector At. By adding this to the position data of the midpoint 10c of the marks 10a and 10b excluding the error calculated earlier, the position of the work 9 at the time of stopping can be calculated.

【0040】この第3実施例によれば、多軸ロボット2
のアーム先端部3aに取付けられた視覚センサ5の位置
及び姿勢が教示時と異なっているにしても、ロボット制
御装置11により補正したワーク9の位置に対してハン
ドリングすることにより当該ワーク9を正確にハンドリ
ングすることができる。
According to the third embodiment, the multi-axis robot 2
Even when the position and orientation of the visual sensor 5 attached to the arm tip 3a of the robot 9 are different from those at the time of teaching, the robot 9 can accurately handle the workpiece 9 by handling the position of the workpiece 9 corrected by the robot controller 11. Can be handled.

【0041】(第4実施例)図7は本発明の第4実施例
を示している。この第4実施例の特徴は、多軸ロボット
2のアーム先端部3aに装着した視覚センサ5によりマ
ークを検出する構成において、無人搬送車1に補助マー
ク14a,14bを2つ設けたことを特徴とする。
(Fourth Embodiment) FIG. 7 shows a fourth embodiment of the present invention. The feature of the fourth embodiment is that in the configuration in which the mark is detected by the visual sensor 5 attached to the arm tip 3a of the multi-axis robot 2, two automatic marks 14a and 14b are provided on the automatic guided vehicle 1. And

【0042】即ち、アーム先端部3aに取付けた視覚セ
ンサ5の姿勢ずれとしては、第3実施例で説明した垂直
方向に対する姿勢ずれに加えて水平方向の回転ずれがあ
る。従って、無人搬送車1上に2つの補助マーク14
a,14bを設け、これらの補助マーク14a,14b
の位置に基づいてアーム先端部3aの水平面方向におけ
る回転ずれを補正することができる。
That is, as the positional deviation of the visual sensor 5 attached to the arm tip 3a, there is a horizontal rotational deviation in addition to the vertical positional deviation described in the third embodiment. Therefore, two auxiliary marks 14 are provided on the automatic guided vehicle 1.
a, 14b, and these auxiliary marks 14a, 14b
, The rotational displacement of the arm tip 3a in the horizontal plane direction can be corrected.

【0043】この第4実施例によれば、2つの補助マー
ク14a,14bの位置に基づいてアーム先端部3aの
垂直方向に対する姿勢ずれに加えて水平面方向における
回転ずれを補正するようにしたので、無人搬送車1の停
止時における視覚センサ5のずれを確実に補正すること
ができる。
According to the fourth embodiment, based on the positions of the two auxiliary marks 14a and 14b, not only the vertical displacement of the arm tip 3a but also the rotational displacement in the horizontal plane direction are corrected. The displacement of the visual sensor 5 when the automatic guided vehicle 1 stops can be reliably corrected.

【0044】(第5実施例)図8は本発明の第5実施例
を示している。この第5実施例は、作業台7側のマーク
10a,10bを側方に突出した位置に設け、それらの
マーク10a,10bを無人搬送車1に設けられた視覚
センサ5a,5bで撮影することを特徴とする。
(Fifth Embodiment) FIG. 8 shows a fifth embodiment of the present invention. In the fifth embodiment, the marks 10a and 10b on the workbench 7 are provided at positions protruding laterally, and the marks 10a and 10b are photographed by the visual sensors 5a and 5b provided on the automatic guided vehicle 1. It is characterized by.

【0045】即ち、作業台7にはマーク部材15が取付
けられおり、そのマーク部材15にマーク10a,10
bが設けられている。つまり、マーク10a,10b
は、作業台7から無人搬送車1側にはみ出す位置関係と
なるように設定されている。
That is, a mark member 15 is attached to the work table 7, and the marks 10a, 10a
b is provided. That is, the marks 10a, 10b
Are set so as to have a positional relationship protruding from the worktable 7 to the automatic guided vehicle 1 side.

【0046】また、無人搬送車1には視覚センサ5a,
5bが固定的に設けられており、それらの視覚センサ5
a,5bによりマーク10a,10bを独立に撮影する
ようになっている。この場合、視覚センサ5a,5bの
位置は無人搬送車1の端部から退避した位置となるよう
に設定されている。
The automatic guided vehicle 1 has a visual sensor 5a,
5b are fixedly provided, and their visual sensors 5
The marks 10a and 10b are independently photographed by using a and 5b. In this case, the positions of the visual sensors 5a and 5b are set so as to be retracted from the end of the automatic guided vehicle 1.

【0047】この第5実施例によれば、無人搬送車1が
作業台7に対して停止した状態では、作業台7のマーク
部材15が無人搬送車1上に位置するので、視覚センサ
5a,5bによりマーク10a,10bの位置を直ちに
取得し得、作業のサイクルタイムの短縮を図ることがで
きる。
According to the fifth embodiment, when the automatic guided vehicle 1 is stopped with respect to the work table 7, the mark member 15 of the work table 7 is positioned on the automatic guided vehicle 1, so that the visual sensors 5a, 5b allows the positions of the marks 10a and 10b to be immediately obtained, thereby shortening the cycle time of the operation.

【0048】また、視覚センサ5a,5bが無人搬送車
1の端部から退避した所定位置に設けられているので、
無人搬送車1の移動中の安全性を確保することができる
と共に視覚センサ5a,5bが設備側に衝突してしまう
ことを防止できる。
Also, since the visual sensors 5a and 5b are provided at predetermined positions retracted from the end of the automatic guided vehicle 1,
It is possible to ensure safety during the movement of the automatic guided vehicle 1 and to prevent the visual sensors 5a and 5b from colliding with the equipment.

【0049】(第6実施例)図9は本発明の第6実施例
を示している。この第6実施例は、作業台7側のマーク
10a,10bを側方に突出した位置に設け、そのマー
ク10a,10bを多軸ロボット2のアーム先端部3a
に設けられた視覚センサ5により撮影することを特徴と
する。
(Sixth Embodiment) FIG. 9 shows a sixth embodiment of the present invention. In the sixth embodiment, marks 10a and 10b on the workbench 7 are provided at positions protruding sideward, and the marks 10a and 10b are attached to the arm tip 3a of the multi-axis robot 2.
The photographing is performed by the visual sensor 5 provided in the camera.

【0050】即ち、作業台7にはマーク部材15が取付
けられおり、そのマーク部材15にマーク10a,10
bが設けられている。この場合、マーク10a,10b
は視覚センサ5により同時に撮影可能な位置に設けられ
ている。
That is, a mark member 15 is attached to the workbench 7, and the marks 10a, 10a
b is provided. In this case, the marks 10a, 10b
Are provided at positions that can be photographed simultaneously by the visual sensor 5.

【0051】一方、無人搬送車1上には作業に必要な各
種治具16が配置されている。この場合、それらの各種
治具16は、無人搬送車1が作業台7で作業を行うため
に到着する際に、マーク部材15及び多軸ロボット2が
干渉しない位置に配置されている。
On the other hand, various jigs 16 necessary for work are arranged on the automatic guided vehicle 1. In this case, the various jigs 16 are arranged at positions where the mark member 15 and the multi-axis robot 2 do not interfere when the automatic guided vehicle 1 arrives to perform work on the worktable 7.

【0052】そして、多軸ロボット2は作業台7に到着
する前に、アーム先端部3aに設けられた視覚センサ5
が作業台7に到着時にマーク10a,10bの真上に位
置するように予め移動しておく。この状態で、無人搬送
車1が作業台7に到着した際、視覚センサ5によりマー
ク10a,10bの画像を認識し、補正計算の実行、作
業台7に対する作業を直ちに実施する。
Before the multi-axis robot 2 arrives at the workbench 7, the visual sensor 5 provided on the arm tip 3a is provided.
Are moved in advance so as to be located directly above the marks 10a and 10b when they arrive at the work table 7. In this state, when the automatic guided vehicle 1 arrives at the work table 7, the images of the marks 10 a and 10 b are recognized by the visual sensor 5, the correction calculation is executed, and the work on the work table 7 is immediately performed.

【0053】この第6実施例によれば、無人搬送車1が
作業台7に対して停止した状態では、作業台7のマーク
部材15が無人搬送車1上に位置するので、視覚センサ
5によりマーク10a,10bの位置を直ちに取得し
得、作業のサイクルタイムの短縮を図ることができる。
According to the sixth embodiment, when the automatic guided vehicle 1 is stopped with respect to the work table 7, the mark member 15 of the work table 7 is positioned on the automatic guided vehicle 1, so that the visual sensor 5 The positions of the marks 10a and 10b can be immediately acquired, and the cycle time of the operation can be reduced.

【0054】本発明は、上記実施例にのみ限定されるも
のではなく、次のように変形または拡張できる。第1実
施例において、無人搬送車1からの視覚センサ5のはみ
出しを防止するために、無人搬送車1が作業台7に到着
したときのみ、視覚センサ5の固定用のフレーム6を例
えばエアシリンダ等により突き出すことによりマーク1
0a,10bを認識するようにしてもよい。また、マー
ク10a,10bをマーク部材に設け、そのマーク部材
を例えば無人搬送車1側に突出するようにしてもよい。
The present invention is not limited to the above embodiment, but can be modified or expanded as follows. In the first embodiment, in order to prevent the visual sensor 5 from protruding from the automatic guided vehicle 1, only when the automatic guided vehicle 1 arrives at the workbench 7, the frame 6 for fixing the visual sensor 5 is, for example, an air cylinder. Mark 1 by sticking out
0a and 10b may be recognized. Further, the marks 10a and 10b may be provided on the mark member, and the mark member may protrude toward, for example, the automatic guided vehicle 1 side.

【0055】一方の視覚センサ5aを無人搬送車1に固
定的に設ける共に、他方の視覚センサ5bを多軸ロボッ
ト2のアーム先端部3aに装着するようにしてもよい。
視覚センサ5を複数用いる場合は、使用する視覚センサ
5を作業する工程毎に変更するようにしてもよい。
One visual sensor 5 a may be fixedly provided on the automatic guided vehicle 1, and the other visual sensor 5 b may be mounted on the arm tip 3 a of the multi-axis robot 2.
When a plurality of visual sensors 5 are used, the visual sensors 5 to be used may be changed for each operation step.

【0056】多軸ロボット2のアーム先端部3aに取付
けた視覚センサ5によりマーク10a,10bを検出す
る構成において、カメラレンズの歪み誤差を無くすため
に、マーク10a,10bを一度認識した後に、視野中
心にマーク10a,10bが位置するようにアーム先端
部3aの位置を移動してからマーク10a,10bを再
び認識するようにしてもよい。
In the configuration in which the marks 10a and 10b are detected by the visual sensor 5 attached to the arm tip 3a of the multi-axis robot 2, in order to eliminate the distortion error of the camera lens, once the marks 10a and 10b are recognized, The position of the arm tip 3a may be moved so that the marks 10a and 10b are located at the center, and then the marks 10a and 10b may be recognized again.

【0057】多軸ロボット2のアーム先端部3aが最終
ポイントに達する直前で位置認識を実行するようにして
もよい。この場合、補正計算した後のアーム動作等によ
る無人搬送車1の位置ずれにかかわらず、ワーク9に対
する位置ずれに対応することができる。
The position recognition may be executed immediately before the arm tip 3a of the multi-axis robot 2 reaches the final point. In this case, it is possible to cope with the positional deviation with respect to the work 9 regardless of the positional deviation of the automatic guided vehicle 1 due to the arm operation or the like after the correction calculation.

【0058】マーク10a,10bの中点10cを基準
としてワーク9までのベクトルAtを求めるのに代え
て、マーク10a,10bの何れか一方を基準としてベ
クトルAtを求めるようにしてもよい。
Instead of obtaining the vector At up to the workpiece 9 based on the midpoint 10c of the marks 10a and 10b, the vector At may be obtained based on one of the marks 10a and 10b.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の第1実施例における全体の斜視図FIG. 1 is an overall perspective view of a first embodiment of the present invention.

【図2】電気的構成を示す概略図FIG. 2 is a schematic diagram showing an electrical configuration.

【図3】教示時及び停止時の視認動作を示すフローチャ
ート
FIG. 3 is a flowchart showing a visual recognition operation at the time of teaching and at the time of stopping.

【図4】各座標系の関係を示す図FIG. 4 is a diagram showing a relationship between coordinate systems.

【図5】本発明の第2実施例を示す図1相当図FIG. 5 is a view corresponding to FIG. 1 showing a second embodiment of the present invention.

【図6】本発明の第3実施例を示す図1相当図FIG. 6 is a view corresponding to FIG. 1, showing a third embodiment of the present invention.

【図7】本発明の第4実施例を示す図1相当図FIG. 7 is a view corresponding to FIG. 1, showing a fourth embodiment of the present invention;

【図8】本発明の第5実施例を示す図1相当図FIG. 8 is a view corresponding to FIG. 1, showing a fifth embodiment of the present invention.

【図9】本発明の第6実施例を示す図1相当図FIG. 9 is a view corresponding to FIG. 1, showing a sixth embodiment of the present invention.

【符号の説明】[Explanation of symbols]

1は無人搬送車、2は多軸ロボット、3はアーム、3a
はアーム先端部、5,5a,5bは視覚センサ(撮像手
段)、7は作業台、9はワーク、10a,10bはマー
ク(基準点)、11はロボット制御装置、12は画像処
理装置、14,14a,14bは補助マークである。
1 is an automatic guided vehicle, 2 is a multi-axis robot, 3 is an arm, 3a
Is an arm tip, 5, 5a and 5b are visual sensors (imaging means), 7 is a worktable, 9 is a work, 10a and 10b are marks (reference points), 11 is a robot control device, 12 is an image processing device, 14 , 14a and 14b are auxiliary marks.

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 ロボットが搭載された無人搬送車を所定
の停止位置に停止させた状態で静止部位側に設けられた
複数の基準点を撮影手段で撮影することにより停止位置
を認識し、前記ロボットによる作業位置を補正する移動
ロボット装置において、 前記複数の基準点は、前記撮影手段による予め設定され
た撮影領域毎に1つだけ位置するように離間した状態で
設けられていることを特徴とする移動ロボット装置。
1. An autonomous guided vehicle on which a robot is mounted is stopped at a predetermined stop position, and a plurality of reference points provided on a stationary part side are photographed by photographing means to recognize the stop position. In a mobile robot apparatus for correcting a work position by a robot, the plurality of reference points are provided so as to be separated from each other so as to be located only once in each of the photographing areas set in advance by the photographing means. Mobile robot device.
【請求項2】 ロボットが搭載された無人搬送車を所定
の停止位置に停止させた状態で静止部位側に設けられた
複数の基準点を撮影手段で撮影することにより停止位置
を認識し、前記ロボットによる作業位置を補正する移動
ロボット装置において、 前記基準点は、前記無人搬送車が所定の停止位置に停止
した状態では当該無人搬送車上に位置するように前記静
止部位側から側方に突出した位置に設けられ、 前記撮影手段は、前記無人搬送車の少なくとも移動中は
当該無人搬送車が所定の停止位置に停止したときに前記
基準点を撮影可能な所定位置に退避していることを特徴
とする移動ロボット装置。
2. An autonomous guided vehicle on which a robot is mounted is stopped at a predetermined stop position, and a plurality of reference points provided on a stationary part side are photographed by photographing means to recognize the stop position. In the mobile robot device for correcting a work position by a robot, the reference point projects laterally from the stationary part side so as to be located on the automatic guided vehicle when the automatic guided vehicle is stopped at a predetermined stop position. The photographing means is configured to retreat to a predetermined position where the reference point can be photographed when the automatic guided vehicle stops at a predetermined stop position at least while the automatic guided vehicle is moving. Characteristic mobile robot device.
【請求項3】 前記撮影手段は、前記基準点に1対1に
対応するように前記無人搬送車に固定的に複数設けられ
ていることを特徴とする請求項1または2記載の移動ロ
ボット装置。
3. The mobile robot apparatus according to claim 1, wherein a plurality of the photographing means are fixedly provided on the automatic guided vehicle so as to correspond to the reference point one-to-one. .
【請求項4】 前記撮影手段は、前記ロボットのアーム
先端部に装着されていることを特徴とする請求項1また
は2記載の移動ロボット装置。
4. The mobile robot device according to claim 1, wherein the photographing unit is mounted on an end of an arm of the robot.
JP9328097A 1997-11-28 1997-11-28 Locomotive robot device Pending JPH11156764A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP9328097A JPH11156764A (en) 1997-11-28 1997-11-28 Locomotive robot device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP9328097A JPH11156764A (en) 1997-11-28 1997-11-28 Locomotive robot device

Publications (1)

Publication Number Publication Date
JPH11156764A true JPH11156764A (en) 1999-06-15

Family

ID=18206484

Family Applications (1)

Application Number Title Priority Date Filing Date
JP9328097A Pending JPH11156764A (en) 1997-11-28 1997-11-28 Locomotive robot device

Country Status (1)

Country Link
JP (1) JPH11156764A (en)

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010162635A (en) * 2009-01-14 2010-07-29 Fanuc Ltd Method for correcting position and attitude of self-advancing robot
CN101846495A (en) * 2009-03-25 2010-09-29 富士施乐株式会社 Component assembly inspection method and component assembly inspection apparatus
CN101846494A (en) * 2009-03-25 2010-09-29 富士施乐株式会社 Position/attitude recognizing method, part holding method, part arranging method, part assembling method, position/attitude recognizing apparatus, part holding apparatus, part arranging apparatus and part assembling apparatus
CN102207369A (en) * 2010-03-29 2011-10-05 富士施乐株式会社 Article recognition apparatus and article processing apparatus using the same
US8319831B2 (en) 2009-03-25 2012-11-27 Fuji Xerox Co., Ltd. Component manipulating method, component extracting method, component assembling method, component manipulating apparatus, component extracting apparatus, and component assembling apparatus
JP2014104540A (en) * 2012-11-27 2014-06-09 Denso Corp Manufacturing device
EP2783806A2 (en) 2013-03-15 2014-10-01 Kabushiki Kaisha Yaskawa Denki Robot system, calibration method, and method for producing to-be-processed material
EP2792456A2 (en) 2013-04-18 2014-10-22 Kabushiki Kaisha Yaskawa Denki A mobile robot, a positioning system of a mobile robot, and a positioning method of a mobile robot
JP2017074631A (en) * 2015-10-13 2017-04-20 富士電機株式会社 Manufacturing system
WO2018024366A1 (en) * 2016-08-05 2018-02-08 Kuka Roboter Gmbh Robot system with mobile robots
JP2018058142A (en) * 2016-10-04 2018-04-12 ファナック株式会社 Robot system equipped with robot supported by movable truck
JP2019058954A (en) * 2017-09-22 2019-04-18 株式会社ケー・デー・イー Work support unit and automatic work system
JP2019535539A (en) * 2016-10-21 2019-12-12 バイストロニック レーザー アクチェンゲゼルシャフト Positionable robot cell, manufacturing apparatus, manufacturing equipment having positionable robot cell, and method for operating such positionable robot cell
CN111745617A (en) * 2019-03-29 2020-10-09 发那科株式会社 Conveying device and delivery system
JP6909944B1 (en) * 2021-03-11 2021-07-28 株式会社竹中土木 Material transportation and mounting equipment
JP2022530589A (en) * 2019-09-11 2022-06-30 Dmg森精機株式会社 Robot-mounted mobile devices, systems and machine tools
CN116022555A (en) * 2023-02-15 2023-04-28 中迪机器人(盐城)有限公司 Equipment for realizing high-precision carrying of components among carriers of different specifications
DE112021007989T5 (en) 2021-09-30 2024-05-29 Fanuc Corporation Control unit and robot system

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0448304A (en) * 1990-06-18 1992-02-18 Hitachi Ltd Method and device for correcting position of self-traveling robot
JPH06149369A (en) * 1992-11-05 1994-05-27 Daifuku Co Ltd Stop position detector for moving vehicle

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0448304A (en) * 1990-06-18 1992-02-18 Hitachi Ltd Method and device for correcting position of self-traveling robot
JPH06149369A (en) * 1992-11-05 1994-05-27 Daifuku Co Ltd Stop position detector for moving vehicle

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010162635A (en) * 2009-01-14 2010-07-29 Fanuc Ltd Method for correcting position and attitude of self-advancing robot
CN101846495A (en) * 2009-03-25 2010-09-29 富士施乐株式会社 Component assembly inspection method and component assembly inspection apparatus
CN101846494A (en) * 2009-03-25 2010-09-29 富士施乐株式会社 Position/attitude recognizing method, part holding method, part arranging method, part assembling method, position/attitude recognizing apparatus, part holding apparatus, part arranging apparatus and part assembling apparatus
US8194929B2 (en) 2009-03-25 2012-06-05 Fuji Xerox Co., Ltd. Position/attitude recognizing method, part holding method, part arranging method, part assembling method, position/attitude recognizing apparatus, part holding apparatus, part arranging apparatus and part assembling apparatus
US8319831B2 (en) 2009-03-25 2012-11-27 Fuji Xerox Co., Ltd. Component manipulating method, component extracting method, component assembling method, component manipulating apparatus, component extracting apparatus, and component assembling apparatus
CN102207369A (en) * 2010-03-29 2011-10-05 富士施乐株式会社 Article recognition apparatus and article processing apparatus using the same
US8582121B2 (en) 2010-03-29 2013-11-12 Fuji Xerox Co., Ltd. Article recognition apparatus and article processing apparatus using the same
JP2014104540A (en) * 2012-11-27 2014-06-09 Denso Corp Manufacturing device
EP2783806A2 (en) 2013-03-15 2014-10-01 Kabushiki Kaisha Yaskawa Denki Robot system, calibration method, and method for producing to-be-processed material
US9383741B2 (en) 2013-04-18 2016-07-05 Kabushiki Kaisha Yaskawa Denki Mobile robot, positioning system of mobile robot, and positioning method of mobile robot
EP2792456A3 (en) * 2013-04-18 2016-04-20 Kabushiki Kaisha Yaskawa Denki A mobile robot, a positioning system of a mobile robot, and a positioning method of a mobile robot
EP2792456A2 (en) 2013-04-18 2014-10-22 Kabushiki Kaisha Yaskawa Denki A mobile robot, a positioning system of a mobile robot, and a positioning method of a mobile robot
JP2014210306A (en) * 2013-04-18 2014-11-13 株式会社安川電機 Moving robot, positioning system of moving robot, and positioning method of moving robot
JP2017074631A (en) * 2015-10-13 2017-04-20 富士電機株式会社 Manufacturing system
WO2018024366A1 (en) * 2016-08-05 2018-02-08 Kuka Roboter Gmbh Robot system with mobile robots
US10500731B2 (en) 2016-10-04 2019-12-10 Fanuc Corporation Robot system including robot supported by movable carriage
JP2018058142A (en) * 2016-10-04 2018-04-12 ファナック株式会社 Robot system equipped with robot supported by movable truck
JP2019535539A (en) * 2016-10-21 2019-12-12 バイストロニック レーザー アクチェンゲゼルシャフト Positionable robot cell, manufacturing apparatus, manufacturing equipment having positionable robot cell, and method for operating such positionable robot cell
JP2019058954A (en) * 2017-09-22 2019-04-18 株式会社ケー・デー・イー Work support unit and automatic work system
CN111745617A (en) * 2019-03-29 2020-10-09 发那科株式会社 Conveying device and delivery system
CN111745617B (en) * 2019-03-29 2024-02-23 发那科株式会社 Conveying device and delivery system
JP2022530589A (en) * 2019-09-11 2022-06-30 Dmg森精機株式会社 Robot-mounted mobile devices, systems and machine tools
JP6909944B1 (en) * 2021-03-11 2021-07-28 株式会社竹中土木 Material transportation and mounting equipment
JP2022139234A (en) * 2021-03-11 2022-09-26 株式会社竹中土木 Material conveying and mounting device
DE112021007989T5 (en) 2021-09-30 2024-05-29 Fanuc Corporation Control unit and robot system
CN116022555A (en) * 2023-02-15 2023-04-28 中迪机器人(盐城)有限公司 Equipment for realizing high-precision carrying of components among carriers of different specifications
CN116022555B (en) * 2023-02-15 2023-11-07 中迪机器人(盐城)有限公司 Equipment for realizing high-precision carrying of components among carriers of different specifications

Similar Documents

Publication Publication Date Title
JPH11156764A (en) Locomotive robot device
CN109866206B (en) Robot system and control method for robot system
CN108214454B (en) Robot system, robot control device, and robot control method
US7386367B2 (en) Workpiece conveying apparatus
WO2021039829A1 (en) Production system
KR102226986B1 (en) Automatic apparatus and position detecting apparatus
JP3412465B2 (en) Mobile robot device
JP6855492B2 (en) Robot system, robot system control device, and robot system control method
US11285609B2 (en) Working position correcting method and working robot
JPS6212483A (en) Automatic mounting device for windowpane of automobile
CN112428248B (en) Robot system and control method
US11161697B2 (en) Work robot system and work robot
JP2001252883A (en) Movable robot system
JPH0448304A (en) Method and device for correcting position of self-traveling robot
JP2001300875A (en) Robot system
JPS63120088A (en) Method of correcting position of unmanned cart loading robot
US11161239B2 (en) Work robot system and work robot
KR100194216B1 (en) Position Correction Device and Method of Mobile Robot Using Vision System
WO2023032400A1 (en) Automatic transport device, and system
JP7477633B2 (en) Robot System
JP2016203282A (en) Robot with mechanism for changing end effector attitude
JPH04211807A (en) Method and device for estimating installing error of robot and robot drive controlling method, working bench with standard, and standard
US20220388179A1 (en) Robot system
JP2021058980A (en) Production system
JPH03281182A (en) Coordinate correcting method for moving robot

Legal Events

Date Code Title Description
A977 Report on retrieval

Effective date: 20031218

Free format text: JAPANESE INTERMEDIATE CODE: A971007

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040302

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040421

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Effective date: 20040518

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040531

R150 Certificate of patent (=grant) or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (prs date is renewal date of database)

Year of fee payment: 4

Free format text: PAYMENT UNTIL: 20080618

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090618

Year of fee payment: 5

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100618

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees