JPH05212690A - Handling method in robot system - Google Patents

Handling method in robot system

Info

Publication number
JPH05212690A
JPH05212690A JP4016164A JP1616492A JPH05212690A JP H05212690 A JPH05212690 A JP H05212690A JP 4016164 A JP4016164 A JP 4016164A JP 1616492 A JP1616492 A JP 1616492A JP H05212690 A JPH05212690 A JP H05212690A
Authority
JP
Japan
Prior art keywords
work
robot
image
measurement
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP4016164A
Other languages
Japanese (ja)
Other versions
JP3151906B2 (en
Inventor
Tsuneyoshi Takahashi
常悦 高橋
Kiyohide Abe
清秀 阿部
Satoru Nomura
悟 野村
Katsuhiro Hayashi
克浩 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Meidensha Corp
Meidensha Electric Manufacturing Co Ltd
Original Assignee
Meidensha Corp
Meidensha Electric Manufacturing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Meidensha Corp, Meidensha Electric Manufacturing Co Ltd filed Critical Meidensha Corp
Priority to JP01616492A priority Critical patent/JP3151906B2/en
Publication of JPH05212690A publication Critical patent/JPH05212690A/en
Application granted granted Critical
Publication of JP3151906B2 publication Critical patent/JP3151906B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Numerical Control (AREA)
  • Manipulator (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • Image Processing (AREA)
  • Control Of Position Or Direction (AREA)
  • Image Analysis (AREA)

Abstract

PURPOSE:To provide a handling method in a robot system, capable of obtaining the specified data so well even in the case where a lot of works are mounted on a pallet at randoam. CONSTITUTION:This method is constituted as follows; a position of a work 13 mounted on a pallet 8 is secured by way of processing image information by a camera 4 with an image processor 3, and on the basis of processing data of this image processor 3, the work 13 is held by a robot 1, inserting it into a measuring box 12, and the image information of the work 13 is made so as to be gatherable in a state of having a light at the outside interrupted.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明はロボットシステムにおけ
るハンドリング方法に関し、ワークの映像情報を処理す
る画像処理装置を有するロボットシステムに適用して有
用なものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a handling method in a robot system, and is useful when applied to a robot system having an image processing device for processing video information of a work.

【0002】[0002]

【従来の技術】鋳物のバリ取りを行なうロボットシステ
ムとして画像処理装置とロボットとを組合せたものが提
案されている(例えば、日本産業用ロボット工業会、ロ
ボットNo. 81 第32頁〜第37頁「鋳バリ取りロボ
ットと適用例」)。
2. Description of the Related Art As a robot system for deburring a casting, a combination of an image processing device and a robot has been proposed (for example, Robot No. 81, pages 32 to 37 of Japan Industrial Robot Industry Association). "Cast deburring robot and application examples").

【0003】この種のロボットシステムは、バリ取り作
業のワークであるパレット上に任意に載置された鋳物
を、カメラで撮影し、このカメラが送出する映像情報を
画像処理装置で処理することによりワークの位置姿勢を
認識し、この値をロボット座標に変換してロボットに送
信する。このことによりロボットは前記値を基にワーク
を把持し、研磨機によりバリを取るように構成してあ
る。
In this type of robot system, a casting, which is arbitrarily placed on a pallet, which is a work for deburring, is photographed by a camera, and image information sent by this camera is processed by an image processing device. The position and orientation of the work is recognized, and this value is converted into robot coordinates and sent to the robot. As a result, the robot is configured to grip the work on the basis of the above value and remove the burrs by the polishing machine.

【0004】[0004]

【発明が解決しようとする課題】上記従来技術におい
て、ワークの位置姿勢は、ワークの1個がカメラの視野
に入るような状態で検出している。これは、パレットに
ランダムに載置された複数のワークを1視野中で撮影す
ると計測精度が荒くなり、特にワーク同志が接触してい
る場合には、ワークの外周円等、検出すべき部位を検出
することができないからであるが、このようにワークを
1個づつカメラの視野に入れてワークの位置姿勢を検出
する場合には、パレットの所定位置に1個づつワークを
搬入しなければならず、多くのワークがパレット上にラ
ンダムに載置されている場合に対応できないという不便
がある。
In the above-mentioned prior art, the position and orientation of the work is detected in such a state that one of the works is within the field of view of the camera. This is because the measurement accuracy becomes rough when multiple workpieces randomly placed on the pallet are photographed in one field of view. Especially when the workpieces are in contact with each other, the area to be detected, such as the outer circumference circle of the workpieces, is detected. This is because it cannot be detected. However, in order to detect the position and orientation of the work by putting each work into the camera's field of view in this way, the work must be carried into the pallet at a predetermined position. However, there is an inconvenience that it is not possible to deal with many works randomly placed on the pallet.

【0005】本発明は、上記従来技術に鑑み、パレット
上に多くのワークがランダムに載置されている場合でも
良好に所定のデータを得ることができるロボットシステ
ムにおけるハンドリング方法を提供することを目的とす
る。
In view of the above-mentioned prior art, the present invention has an object of providing a handling method in a robot system capable of satisfactorily obtaining predetermined data even when many works are randomly placed on a pallet. And

【0006】[0006]

【課題を解決するための手段】上記目的を達成する本発
明の構成は、撮像手段を介して取り込んだワークの映像
情報を処理する画像処理装置と、この画像処理装置の処
理データに基づきロボットを制御するロボットコントロ
ーラとを有するロボットシステムにおけるハンドリング
方法において、パレット上に載置した複数のワークを撮
影する第1の撮像手段を介して取り込んだワークの映像
情報を処理して得られる特定の1個のワークの位置情報
に基づきロボットのハンドでこの特定のワークを把持
し、この状態でワークを計測箱の挿入口からこの計測箱
の内部に挿入するとともに、ロボットのハンドに装着し
た閉塞部材で前記挿入口を閉塞してワークを計測箱内に
密閉し、さらにこの計測箱内に配設した第2の撮像手段
でワークを撮影し、この撮影に伴なう映像情報を前記画
像処理装置で処理するようにしたことを特徴とする。
The structure of the present invention which achieves the above-mentioned object is to configure an image processing apparatus for processing video information of a work taken in through an image pickup means, and a robot based on the processing data of this image processing apparatus. In a handling method in a robot system having a robot controller for controlling, a specific one obtained by processing video information of a work taken in through a first imaging means for photographing a plurality of works placed on a pallet This specific work is grasped by the robot hand based on the position information of the work, and in this state the work is inserted into the measurement box from the insertion opening of the measurement box, and the closing member attached to the robot hand described above. The insertion opening is closed to seal the work in the measurement box, and the work is photographed by the second image pickup means arranged in the measurement box. Wherein the imaging accompanied the Nau image information of the to handle in the image processing apparatus.

【0007】[0007]

【作用】上記構成の本発明によれば、第1の撮像手段の
映像情報に基づきパンフレット上にランダムに多数載置
されたワークの特定の1個をロボットのハンドで把持
し、このワークを計測箱内に挿入して第2の撮像手段で
撮影し、この第2の撮像手段の映像情報に基づきワーク
に関する所定のデータを得る。
According to the present invention having the above-mentioned structure, a robot hand holds a specific one of a large number of works randomly placed on a pamphlet based on the image information of the first image pickup means, and measures this work. It is inserted into the box and photographed by the second image pickup means, and predetermined data regarding the work is obtained based on the image information of the second image pickup means.

【0008】[0008]

【実施例】以下本発明の実施例を図面に基づき詳細に説
明する。
Embodiments of the present invention will now be described in detail with reference to the drawings.

【0009】図1は本発明の実施例を実現するロボット
システムを示すブロック線図である。同図に示すよう
に、ロボット1はロボットコントローラ2によりその動
作を制御されて所定の動作を行なう。画像処理装置3は
第1の撮像手段であるカメラ4及び第2の撮像手段であ
るカメラ5,6が送出する映像情報に基づき所定の画像
処理を行ない、その結果をロボットコントローラ2及び
モニタ7に送出する。パレット8は、光の反射を可及的
に少なくするための黒色の平板であるゴム板8aを介し
てワーク13(図1にはロボット1のロボットアーム1
aで把持した状態を示している)を載置する水平面を有
する台で、その水平面上のワーク13は照明9で照らす
ように構成してある。前記カメラ4はパレット8の上方
に配設してあり、したがってこのパレット8に載置され
たワーク13の平面的な映像を撮影するように構成して
ある。また、カメラ5,6は、先端部に照明10,11
がそれぞれ取り付けてあり、それぞれのレンズの光軸が
直交するよう計測箱12内に配設してある。すなわち、
カメラ5,6は直交する二平面に投影されるワーク13
の像を撮影する。
FIG. 1 is a block diagram showing a robot system for realizing an embodiment of the present invention. As shown in the figure, the robot 1 is controlled by the robot controller 2 to perform a predetermined operation. The image processing device 3 performs predetermined image processing based on the video information sent by the camera 4 which is the first image pickup means and the cameras 5 and 6 which are the second image pickup means, and outputs the result to the robot controller 2 and the monitor 7. Send out. The pallet 8 has a work 13 (the robot arm 1 of the robot 1 in FIG. 1) via a rubber plate 8a which is a black flat plate for reducing the reflection of light as much as possible.
(a state of being gripped by a) is provided, and the work 13 on the horizontal plane is configured to be illuminated by the illumination 9. The camera 4 is disposed above the pallet 8 and is therefore configured to capture a planar image of the work 13 placed on the pallet 8. Further, the cameras 5 and 6 are provided with illuminations 10 and 11 at the tips.
Are attached respectively, and they are arranged in the measurement box 12 so that the optical axes of the respective lenses are orthogonal to each other. That is,
The cameras 5 and 6 are the work 13 projected on two orthogonal planes.
Take a picture of.

【0010】前記ロボット1はそのロボットハンド1a
でワーク13を把持して所定の作業を行なうのである
が、その1つに計測箱12にワークを挿入してカメラ
5,6による映像情報の採取に資する作業がある。この
作業のためロボットハンド1aは、図2(a)に示す計
測箱12の開口部である挿入口12aを閉塞する平板状
の閉塞部材14を把持している。かくして、ロボット1
はそのロボットハンド1aでワーク13を把持し、図2
(a)に示すように、挿入口12aを介してワーク13
を計測箱12内に挿入するとともに閉塞部材14で挿入
口12aを閉塞する。この結果形成される外部からの光
を遮断した図2(b)に示す密閉状態で、照明10,1
1の光によりカメラ5,6を用いてワーク13の映像情
報を採取する。
The robot 1 has its robot hand 1a.
The work 13 is gripped and the predetermined work is performed. One of them is the work of inserting the work into the measurement box 12 and contributing to the collection of image information by the cameras 5 and 6. For this work, the robot hand 1a holds a flat plate-shaped closing member 14 that closes the insertion opening 12a which is the opening of the measurement box 12 shown in FIG. Thus, the robot 1
2 holds the work 13 with the robot hand 1a, and
As shown in (a), the workpiece 13 is inserted through the insertion opening 12a.
Is inserted into the measurement box 12 and the insertion port 12a is closed by the closing member 14. As a result, the lights 10, 1 are sealed in the sealed state shown in FIG.
The image information of the work 13 is collected using the cameras 5 and 6 by the light of 1.

【0011】上記ロボットシステムにより実現するハン
ドリング方法は次の通りである。
The handling method realized by the robot system is as follows.

【0012】パレット8のゴム板8a上にはワーク13
がランダムに載置してある。このワーク13には大,
中,小がある。
The work 13 is placed on the rubber plate 8a of the pallet 8.
Are randomly placed. This work 13 is large,
There are medium and small.

【0013】ロボットコントローラ2から画像処理装置
3に対してワーク13の大,中,小の指令を送信する。
このとき、パレット8上にワーク13がなければ、画像
処理装置3はロボットコントローラ2に対して終了を送
信する。正常な場合、ロボットコントローラ2からハン
ドリング要求を画像処理装置3に対して送信する。
The robot controller 2 transmits a large, medium, and small command for the work 13 to the image processing device 3.
At this time, if there is no work 13 on the pallet 8, the image processing apparatus 3 sends the end to the robot controller 2. If normal, the robot controller 2 transmits a handling request to the image processing apparatus 3.

【0014】画像処理装置3はカメラ4の映像情報を処
理してワーク13の位置を計測し、水平面内のX,Y方
向の移動量をロボットコントローラ2に送信し、ロボッ
ト1に(X,Y)でハンドリング(後に詳述する)を行
ない、計測箱12にワーク13を挿入する。
The image processing device 3 processes the image information of the camera 4 to measure the position of the work 13, and sends the movement amount in the X and Y directions in the horizontal plane to the robot controller 2 to send the robot 1 (X, Y). ), And the work 13 is inserted into the measuring box 12.

【0015】その後閉塞部材14で計測箱12の挿入口
12aを閉塞し、図2(b)に示すような密閉状態とし
てロボットコントローラ2からの計測指令でカメラ5に
より角度計測(後に詳述する)を行ない、ワーク13を
ロボット1の正規の角度に回転させる。
After that, the insertion port 12a of the measuring box 12 is closed by the closing member 14, and the angle is measured by the camera 5 by the measurement command from the robot controller 2 in a closed state as shown in FIG. 2B (detailed later). The work 13 is rotated to the regular angle of the robot 1.

【0016】次に、同様の密閉状態でカメラ6によりワ
ーク13の側面から型違いを検査し(後に詳述する)、
正常の場合、通常のパレタイズを行なう一方、型違いの
場合、排出を行なう。
Next, in the same sealed state, the camera 6 is used to inspect the mold 13 from the side surface of the work 13 (detailed later),
If it is normal, normal palletizing is performed, and if it is wrong, discharging is performed.

【0017】かかる一連の動作をロボット1側と画像処
理装置3側とに分けて表わしたのが図3及び図4に示す
フローチャートである。
The flow chart shown in FIGS. 3 and 4 shows the series of operations separately for the robot 1 side and the image processing apparatus 3 side.

【0018】前述のハンドリング(概略計測)、角度計
測及び型違い検査の具体的な内容は次の通りである。
The specific contents of the above-mentioned handling (outline measurement), angle measurement, and mold difference inspection are as follows.

【0019】 ハンドリング(概略計測) 画像処理装置3は、カメラ1でパンフレット8のゴム板
8aの全体を撮影し、このときの映像情報に基づきワー
ク13の(X,Y)座標を計測する。さらに詳言する
と、映像情報を2値化し、ロボット1によるワーク13
の把持部である円筒部の重心を求める。図5はカメラ1
で撮影したゴム板8a上のワーク13(本例では7個)
を示す平面図である。同図中、13aはワーク13の円
筒部、Gは重心である。
Handling (Rough Measurement) The image processing device 3 photographs the entire rubber plate 8a of the pamphlet 8 with the camera 1, and measures the (X, Y) coordinates of the work 13 based on the image information at this time. More specifically, the image information is binarized and the work 13 by the robot 1 is
The center of gravity of the cylindrical portion, which is the gripping portion, is calculated. FIG. 5 shows the camera 1.
Work 13 on the rubber plate 8a (7 in this example)
FIG. In the figure, 13a is a cylindrical portion of the work 13, and G is the center of gravity.

【0020】 角度計測 ロボット1はハンド中心(把持中心)をカメラ5の中心
(光軸上)に移動させる。このことにより、図6に示す
ように、画面中心(X0 ,Y0 )にワーク13の円筒部
13aが位置したことになるので、画面中心(X0 ,Y
0 )より放射状に計測ラインl1 ,l2 ,l3 を引き、
外周円cの中心の座標(a,b)を求め、この中心の座
標(a,b)と前記画面中心(X0 ,Y0 )から角度θ
を計算する。すなわち、図6において、外周円cと計測
ラインl1 ,l2 ,l3 の交点である計測点の座標を
(X1 ,Y1 )、(X2 ,Y2 )、(X3 ,Y3 )とす
ると、円の方程式(X+a)2 +(Y+b)2 =R2
基づき外周円cの中心の座標(a,b)を計算すること
ができる。次に、画面中心(X0 ,Y0 )と座標(a,
b)とに基づき角度θは、θ=tan -1(Y0 −b/X0
−a)として計算できる。
Angle Measurement The robot 1 moves the center of the hand (gripping center) to the center of the camera 5 (on the optical axis). As a result, as shown in FIG. 6, since the cylindrical portion 13a of the work 13 is located at the center of the screen (X 0 , Y 0 ), the center of the screen (X 0 , Y 0
0 ) radiating measurement lines l 1 , l 2 , l 3 from
The coordinates (a, b) of the center of the outer circumference circle c are obtained, and the angle θ is formed from the coordinates (a, b) of the center and the screen center (X 0 , Y 0 ).
To calculate. That is, in FIG. 6, the coordinates of the measurement point, which is the intersection of the outer circumference circle c and the measurement lines l 1 , l 2 , l 3 are (X 1 , Y 1 ), (X 2 , Y 2 ), (X 3 , Y 3 ), the coordinates (a, b) of the center of the outer circle c can be calculated based on the equation (X + a) 2 + (Y + b) 2 = R 2 of the circle. Next, the screen center (X 0 , Y 0 ) and the coordinates (a,
b) and the angle θ is θ = tan −1 (Y 0 −b / X 0).
-A) can be calculated.

【0021】したがって、角度θは、画面中心(X0
0 )と座標(a,b)とに基づき、θ=tan -1(Y0
−b/X0 −a)として計算できる。
Therefore, the angle θ is determined by the center of the screen (X 0 ,
Based on Y 0 ) and the coordinates (a, b), θ = tan −1 (Y 0
It can be calculated as −b / X 0 −a).

【0022】さらに、計測結果を安定させるため、計測
ラインl1 〜l3 の角度を変えて同様の計測処理をし、
異常な計測点を除去するようにしても良い。また、外周
円cの中心は外周の境界追跡を行ない重心を求めること
によっても計測可能である。
Further, in order to stabilize the measurement result, the same measurement processing is performed by changing the angles of the measurement lines l 1 to l 3 ,
Abnormal measurement points may be removed. The center of the outer circle c can also be measured by tracking the boundary of the outer circumference and obtaining the center of gravity.

【0023】 型違い検査 カメラ6によりワーク13の側面からの映像を撮影し、
この映像情報を画像処理装置3で処理することにより同
種類で型違いワーク13の検査を行なう。すなわち、図
7に示すように、例えば特定エリア(図中の斜線部)E
の面積を比較することによりワーク13が型違いである
か否かを判別する。このときワーク13はロボット1に
より回転することができるので、360°回転した全範
囲で前記面積を検査する。
Image inspection from the side surface of the work 13 by the camera 6
By processing this video information by the image processing device 3, the different types of workpieces 13 of the same type are inspected. That is, as shown in FIG. 7, for example, a specific area (hatched portion in the figure) E
It is determined whether or not the work 13 has a different mold by comparing the areas. At this time, since the work 13 can be rotated by the robot 1, the area is inspected in the entire range rotated by 360 °.

【0024】上記実施例によればワークの同種型違いの
判別を容易に実施し得る。
According to the above-mentioned embodiment, it is possible to easily discriminate the same type difference of the work.

【0025】[0025]

【発明の効果】以上実施例とともに具体的に説明したよ
うに、本発明によれば、パレット上にランダムに載置さ
れた複数のワークのハンドリングが可能となる。また、
各種の測定を密閉した計測箱内で撮影した映像情報に基
づき行なうことができるので、この場合には外乱等の影
響を受けることがない安定した計測を行なうことができ
る。
As described above in detail with the embodiments, according to the present invention, a plurality of works randomly placed on the pallet can be handled. Also,
Since various measurements can be performed based on the image information taken in the closed measurement box, stable measurement can be performed without being affected by disturbance or the like in this case.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の実施例を実現するロボットシステムを
示すブロック線図である。
FIG. 1 is a block diagram showing a robot system that realizes an embodiment of the present invention.

【図2】本実施例における計測時の態様を示す説明図で
ある。
FIG. 2 is an explanatory diagram showing a mode during measurement in the present embodiment.

【図3】本実施例を示すフローチャートの前半部分であ
る。
FIG. 3 is the first half of the flowchart showing the present embodiment.

【図4】本実施例を示すフローチャートの後半部分であ
る。
FIG. 4 is the latter half of the flowchart showing the present embodiment.

【図5】カメラで撮影したパレット上の平面的な映像を
示す説明図である。
FIG. 5 is an explanatory diagram showing a planar image on a palette captured by a camera.

【図6】本実施例における角度計測時の態様を示す説明
図である。
FIG. 6 is an explanatory diagram showing a mode during angle measurement in the present embodiment.

【図7】本実施例における型違い検査時の態様を示す説
明図である。
FIG. 7 is an explanatory diagram showing a mode at the time of a mold difference inspection in the present embodiment.

【符号の説明】[Explanation of symbols]

1 ロボット 1a ロボットハンド 2 ロボットコントローラ 3 画像処理装置 4,5,6 カメラ 8 パレット 12 計測箱 13 ワーク 14 閉塞部材 1 Robot 1a Robot Hand 2 Robot Controller 3 Image Processing Device 4, 5, 6 Camera 8 Pallet 12 Measuring Box 13 Workpiece 14 Closing Member

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.5 識別記号 庁内整理番号 FI 技術表示箇所 G05D 3/12 W 9179−3H G06F 15/62 400 9287−5L (72)発明者 林 克浩 東京都品川区大崎二丁目1番17号 株式会 社明電舍内─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 5 Identification code Internal reference number FI Technical indication location G05D 3/12 W 9179-3H G06F 15/62 400 9287-5L (72) Inventor Katsuhiro Hayashi Tokyo 2-17-1 Osaki, Shinagawa-ku Stock Company Meiden Sho

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】 撮像手段を介して取り込んだワークの映
像情報を処理する画像処理装置と、この画像処理装置の
処理データに基づきロボットを制御するロボットコント
ローラとを有するロボットシステムにおけるハンドリン
グ方法において、 パレット上に載置した複数のワークを撮影する第1の撮
像手段を介して取り込んだワークの映像情報を処理して
得られる特定の1個のワークの位置情報に基づきロボッ
トのハンドでこの特定のワークを把持し、この状態でワ
ークを計測箱の挿入口からこの計測箱の内部に挿入する
とともに、ロボットのハンドに装着した閉塞部材で前記
挿入口を閉塞してワークを計測箱内に密閉し、さらにこ
の計測箱内に配設した第2の撮像手段でワークを撮影
し、この撮影に伴なう映像情報を前記画像処理装置で処
理するようにしたことを特徴とするロボットシステムに
おけるハンドリング方法。
1. A handling method in a robot system, comprising: an image processing device for processing video information of a work taken in through an image pickup means; and a robot controller for controlling a robot on the basis of processing data of the image processing device. This specific work is performed by the robot hand based on the position information of the specific one work obtained by processing the image information of the work captured through the first image pickup means for photographing the plurality of works placed on the work. Gripping, and in this state the work is inserted into the measurement box from the insertion opening of the measurement box, and the insertion opening is closed by the closing member attached to the hand of the robot to seal the work in the measurement box, Further, the work is photographed by the second image pickup means arranged in the measuring box, and the image information associated with the photograph is processed by the image processing device. Handling method in a robot system, characterized in that the so that.
JP01616492A 1992-01-31 1992-01-31 Handling method in robot system Expired - Fee Related JP3151906B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP01616492A JP3151906B2 (en) 1992-01-31 1992-01-31 Handling method in robot system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP01616492A JP3151906B2 (en) 1992-01-31 1992-01-31 Handling method in robot system

Publications (2)

Publication Number Publication Date
JPH05212690A true JPH05212690A (en) 1993-08-24
JP3151906B2 JP3151906B2 (en) 2001-04-03

Family

ID=11908872

Family Applications (1)

Application Number Title Priority Date Filing Date
JP01616492A Expired - Fee Related JP3151906B2 (en) 1992-01-31 1992-01-31 Handling method in robot system

Country Status (1)

Country Link
JP (1) JP3151906B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014005434A1 (en) 2013-04-18 2014-11-06 Fanuc Corporation Control device for a robot for conveying a workpiece
WO2015080669A1 (en) * 2013-11-29 2015-06-04 K-One Industries Pte Ltd Flexible vision inspector
JP2015172575A (en) * 2014-03-05 2015-10-01 タイコ エレクトロニクス (シャンハイ) カンパニー リミテッド programmable digital machine vision inspection system

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014005434A1 (en) 2013-04-18 2014-11-06 Fanuc Corporation Control device for a robot for conveying a workpiece
DE102014005434B4 (en) * 2013-04-18 2016-03-17 Fanuc Corporation Control device for a robot for conveying a workpiece
US9296103B2 (en) 2013-04-18 2016-03-29 Fanuc Corporation Control device for robot for conveying workpiece
WO2015080669A1 (en) * 2013-11-29 2015-06-04 K-One Industries Pte Ltd Flexible vision inspector
JP2015172575A (en) * 2014-03-05 2015-10-01 タイコ エレクトロニクス (シャンハイ) カンパニー リミテッド programmable digital machine vision inspection system

Also Published As

Publication number Publication date
JP3151906B2 (en) 2001-04-03

Similar Documents

Publication Publication Date Title
KR100719210B1 (en) Wafer inspection apparatus
JP3805302B2 (en) Work take-out device
JP4461203B2 (en) Stocker robot teaching method, stocker robot teaching apparatus, and recording medium
US7502504B2 (en) Three-dimensional visual sensor
US5317388A (en) Method and apparatus for determining the displacement of a rectangular object with respect to a reference position
JP6639181B2 (en) Imaging device, production system, imaging method, program, and recording medium
JPH06137828A (en) Detecting method for position of obstacle
JP2017162133A (en) Imaging system, measurement system, production system, imaging method, program, recording media, and measurement method
JPS6332306A (en) Non-contact three-dimensional automatic dimension measuring method
JPH05212690A (en) Handling method in robot system
JPH09329418A (en) Calibrating method for camera
JP3651026B2 (en) Method for teaching robot for stocker
US11820607B2 (en) Systems and methods for die transfer
JP2921449B2 (en) Golf ball appearance inspection method and appearance inspection device
JP2020197983A (en) Object measurement method, measuring device, program, and computer-readable recording medium
JPH0471673B2 (en)
JP2669685B2 (en) Inspection equipment for linear objects
JPH0981748A (en) Method for discriminating outline shape and automatic sorting device
JPH0477465B2 (en)
JP2527233Y2 (en) Work position detector
JP4029975B2 (en) Measuring method of shoulder arc radius of notch of semiconductor wafer
JPH1114308A (en) Three-dimensional position detecting method and device
JPH03166073A (en) Detection of work position
JP2900564B2 (en) Parts suction detector
JP7054342B2 (en) Mobile

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20001226

LAPS Cancellation because of no payment of annual fees