JPH06317406A - Device for detecting position of article - Google Patents

Device for detecting position of article

Info

Publication number
JPH06317406A
JPH06317406A JP13140893A JP13140893A JPH06317406A JP H06317406 A JPH06317406 A JP H06317406A JP 13140893 A JP13140893 A JP 13140893A JP 13140893 A JP13140893 A JP 13140893A JP H06317406 A JPH06317406 A JP H06317406A
Authority
JP
Japan
Prior art keywords
template
templates
detected
matching
bolt hole
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP13140893A
Other languages
Japanese (ja)
Other versions
JP3386183B2 (en
Inventor
Yoshimi Niihara
良美 新原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mazda Motor Corp
Original Assignee
Mazda Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mazda Motor Corp filed Critical Mazda Motor Corp
Priority to JP13140893A priority Critical patent/JP3386183B2/en
Publication of JPH06317406A publication Critical patent/JPH06317406A/en
Application granted granted Critical
Publication of JP3386183B2 publication Critical patent/JP3386183B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Abstract

PURPOSE:To detect an object or its position by setting templates having patterns corresponding to the shape of the object and calculating the position of the object from the data of the templates matching the picture of the part corresponding to the object and coordinates on the matching picture by successively scanning the templates. CONSTITUTION:Templates P1-P3 having bright and dark patterns corresponding to the shape of a part are set at several points at regular intervals on the virtual circle corresponding to a bolt hole 5. The taken picture of the hole 5 is fetched and displayed on a screen 22a. Then pattern matching is performed by successively scanning the templates on the screen 22a. When the matching is completed, the central position of the hole 5 is found at every template and the final central position of the hole 5 is recognized from the average value of the central positions by performing analysis and arithmetic operation on the results of the matching. Therefore, even when only one template matches, the position of the reference bolt hole 5 can be found. When the number of templates increases, the position detecting accuracy becomes higher.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、例えば自動車の自動組
立ラインにおいてボディにワークを取り付ける際などに
用いられる物品の位置検出装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a position detecting device for an article used for attaching a work to a body in an automatic assembly line for automobiles.

【0002】[0002]

【従来の技術】例えば特開平4−47205号公報によ
れば、半導体製造装置等に適用されるXYθテーブル用
の位置検出センサとして、所定のパターンで光を発光及
び受光する一対の発光素子と受光素子とを用い、両素子
の発光もしくは受光パターンの位置関係からテーブルな
いし該テーブル上に載置された被試験物の位置のずれを
検出、修正するようにしたものが開示されている。
2. Description of the Related Art For example, according to Japanese Unexamined Patent Publication No. 4-47205, a pair of light emitting elements that emit and receive light in a predetermined pattern and a light receiving element are used as a position detection sensor for an XYθ table applied to a semiconductor manufacturing apparatus or the like. It is disclosed that the element and the element are used to detect and correct the displacement of the table or the position of the device under test placed on the table from the positional relationship between the light emitting or light receiving patterns of the elements.

【0003】また、ロボットを用いた自動車の自動組立
ラインにおいては、ボディに設けられたボルト穴等のワ
ーク取り付け基準点をカメラで撮像すると共に、その画
像を表示する画面上での撮像位置の座標を読み取ること
により、上記基準点ないしボディ全体としての位置を検
出するように構成した位置検出装置が用いられることが
ある。
In an automatic vehicle assembly line using a robot, a camera is used to pick up a work attachment reference point such as a bolt hole provided in the body, and the coordinates of the image pickup position are displayed on the screen for displaying the image. A position detection device configured to detect the reference point or the position of the entire body by reading may be used.

【0004】つまり、この位置検出装置は、図7に示す
ように、ボディに設けられた基準穴と同一の形状を有す
る2値化データのパターンでなるテンプレートAを設定
した上で、カメラで撮像した基準穴の画像Bが表示され
た画面C上で上記テンプレートAを走査させ、この画面
C上で該テンプレートAと基準穴の画像Bとがマッチン
グしたときの該テンプレートAの座標(X,Y)を読み
取ることにより、上記基準穴ないしボディの位置を検出
するようにしたものである。
That is, in this position detecting device, as shown in FIG. 7, a template A consisting of a binary data pattern having the same shape as a reference hole provided in a body is set, and then imaged by a camera. The template A is scanned on the screen C on which the image B of the reference hole is displayed, and the coordinates (X, Y) of the template A when the template A and the image B of the reference hole are matched on the screen C. ) Is read to detect the position of the reference hole or the body.

【0005】これによれば、検出された位置を基準とし
てワークを取り付けることにより、ボディのセット位置
が一定しなくても、該ワークが常に所定位置に正しく取
り付けられることになる。
According to this, by mounting the work on the basis of the detected position, the work is always correctly mounted at the predetermined position even if the set position of the body is not constant.

【0006】[0006]

【発明が解決しようとする課題】ところで、上記のカメ
ラを用いた位置検出装置においては、例えばボディの色
の種類や汚れの有無、或は照明の反射等により、図8に
示すように、基準穴の全体が明確に撮像されないことが
あり、この場合、テンプレートAを走査させて基準穴の
画像B’とマッチングしても、これらがマッチングした
とは判断されず、結局、基準穴ないしボディの位置が検
出不能となるのである。
By the way, in the position detecting device using the above-mentioned camera, as shown in FIG. 8, the reference is determined by the type of color of the body, the presence or absence of dirt, the reflection of illumination, and the like. The entire hole may not be clearly imaged, and in this case, even if the template A is scanned to match the image B ′ of the reference hole, it is not determined that they match, and eventually the reference hole or the body The position becomes undetectable.

【0007】そこで、本発明は、上記の基準穴のような
被検出部位が、その全体にわたって明確に撮像されてい
ない場合にも、該被検出部位もしくはこれが設けられた
物品の位置を確実に検出することができる位置検出装置
を提供することを課題とする。
Therefore, the present invention reliably detects the position of the detection site or the article provided with it even when the detection site such as the reference hole is not clearly imaged over the entire area. An object of the present invention is to provide a position detection device that can do the above.

【0008】[0008]

【課題を解決するための手段】上記課題を解決するた
め、本発明は次のような手段を用いたことを特徴とす
る。
In order to solve the above problems, the present invention is characterized by using the following means.

【0009】まず、本願の請求項1に係る発明(以下、
第1発明という)は、物品に設けられた被検出部位の形
状に対応したパターンを有するテンプレートを上記被検
出部位を撮像した画面上で走査させて、該被検出部位の
画像とテンプレートとがマッチングしたときの該テンプ
レートの座標から被検出部位の位置を検出する位置検出
装置において、上記テンプレートとして、被検出部位の
形状を複数個に分割したときの各部分の形状にそれぞれ
対応したパターンを有する複数個のテンプレートを設定
するテンプレート設定手段と、該設定手段で設定された
各テンプレートを順次走査させるテンプレート走査手段
と、これらのテンプレートのうち被検出部位の対応部分
の画像とマッチングしたテンプレートについてのデータ
と、そのマッチングした画面上の座標とから被検出部位
の全体としての位置を演算する位置演算手段とを備えた
ことを特徴とする。
First, the invention according to claim 1 of the present application (hereinafter,
According to the first invention), a template having a pattern corresponding to the shape of the detected part provided on the article is scanned on the screen where the detected part is imaged, and the image of the detected part and the template are matched. In the position detecting device for detecting the position of the detected part from the coordinates of the template when the template is formed, as the template, a plurality of patterns each having a shape corresponding to the shape of each part when the shape of the detected part is divided Template setting means for setting individual templates, template scanning means for sequentially scanning each template set by the setting means, and data about the template matching the image of the corresponding portion of the detected site among these templates , The position of the detected part as a whole from the matched screen coordinates Characterized by comprising a position calculating means for calculating a.

【0010】また、請求項2に係る発明(以下、第2発
明という)は、上記第1発明における位置演算手段を具
体化したもので、該位置演算手段を、複数個のテンプレ
ートが被検出部位の対応部分の画像とそれぞれマッチン
グしたときに、各テンプレートについて求められる被検
出部位全体としての位置の平均値を算出するように構成
したことを特徴とする。
The invention according to claim 2 (hereinafter referred to as the second invention) embodies the position calculating means in the above-mentioned first invention, and the position calculating means comprises a plurality of templates to be detected parts. When the image is matched with the image of the corresponding portion of, the average value of the positions of the entire detected region obtained for each template is calculated.

【0011】[0011]

【作用】上記の構成によれば、第1、第2発明のいずれ
によっても、ボルト穴等の被検出部位の全体が明確に撮
像されていない場合であっても、その一部が撮像されて
おれば、その部分に対応するテンプレートが画面上での
走査によりその部分の画像とマッチングすることにな
る。そして、位置演算手段が、そのテンプレートについ
てのデータと、該テンプレートと上記画像がマッチング
したときの画面上の座標とから被検出部位の全体として
の位置を算出することにより、該被検出部位ないしこれ
が設けられた物品自体の位置が検出されることになる。
According to the above construction, even if the whole of the detected portion such as the bolt hole is not clearly imaged by any of the first and second inventions, a part thereof is imaged. If so, the template corresponding to that portion will match the image of that portion by scanning on the screen. Then, the position calculating means calculates the position of the detected part as a whole from the data about the template and the coordinates on the screen when the template and the image are matched, and thereby the detected part or this is detected. The position of the provided article itself will be detected.

【0012】そして、第2発明によれば、複数のテンプ
レートが被検出部位の各対応する部分の画像とマッチン
グしたときに、位置演算手段がこれらのテンプレートに
ついてそれぞれ求められる被検出部位全体としての位置
を平均することにより、該被検出部位の位置ないし物品
の位置が精度よく検出されることになる。
According to the second aspect of the invention, when the plurality of templates match the images of the corresponding portions of the detected region, the position calculation means obtains the positions of the detected regions as a whole for each of the templates. By averaging, the position of the detection site or the position of the article can be detected with high accuracy.

【0013】[0013]

【実施例】以下、本発明の実施例について説明する。EXAMPLES Examples of the present invention will be described below.

【0014】図1は、自動車の自動組立ラインにおける
例えばリヤコンビネーションランプ等のワーク自動組み
付けシステムの全体構成を示すもので、このシステム
は、ライン1によって搬送されて当該組み付けステーシ
ョンで停止されたボディ2にワーク3を取り付けるロボ
ット10を有する。このロボット10は、ワーク供給部
4に供給されているワーク3を把持具11によって把持
して上記ボディ2の組み付け位置に移送すると共に、こ
のワーク3をボディ2に自動的に組み付けるように制御
される。
FIG. 1 shows the overall construction of an automatic work assembly system for a vehicle such as a rear combination lamp in an automatic assembly line of an automobile. This system is a body 2 conveyed by a line 1 and stopped at the assembly station. It has a robot 10 for mounting the work 3 thereon. The robot 10 is controlled so that the work 3 supplied to the work supply unit 4 is gripped by the gripping tool 11 and transferred to the assembly position of the body 2, and the work 3 is automatically assembled to the body 2. It

【0015】また、このロボット10は、上記ワーク3
の組み付けに際し、該ワーク3をボディ2に対して正し
く位置合わせするために、ボディ2に設けられた基準点
としてのボルト穴5を撮像するカメラ12を有し、この
カメラ12で撮像したボルト穴5の撮像画面上の位置か
ら求められるワーク組み付け位置にワーク3が正しく組
み付けられるように、上記把持具11の位置が制御され
るようになっている。
Further, the robot 10 is provided with the work 3 described above.
In order to correctly position the work 3 with respect to the body 2 when assembling, the camera has a camera 12 for taking an image of the bolt hole 5 provided as a reference point on the body 2, and the bolt hole taken by the camera 12 is taken. The position of the gripping tool 11 is controlled so that the work 3 is correctly assembled at the work assembly position obtained from the position of the image pickup screen 5 of FIG.

【0016】そして、この位置合わせ制御用として、上
記カメラ12からの撮像信号が入力される画像処理装置
21と、その入力画像を表示する表示装置22と、画像
処理の結果に応じてロボット10を作動させるロボット
制御装置23と、これらを総合的に制御するシステム制
御装置24とが備えられている。また、このシステム制
御装置24によって制御されて、上記ワーク供給部4に
おけるワーク3を順次ロボット10への受け渡し位置に
供給するワーク供給装置25が備えられている。
For this alignment control, the image processing device 21 to which the image pickup signal from the camera 12 is input, the display device 22 for displaying the input image, and the robot 10 according to the result of the image processing. A robot control device 23 for operating and a system control device 24 for comprehensively controlling these are provided. Further, there is provided a work supply device 25 which is controlled by the system control device 24 and sequentially supplies the work 3 in the work supply unit 4 to the transfer position to the robot 10.

【0017】ここで、当該システムの全体的な作動を図
2のフローチャートに従って説明する。
The overall operation of the system will now be described with reference to the flow chart of FIG.

【0018】まず、ステップS1で、ロボット10が原
点から移動してワーク供給部4に供給されているワーク
3を把持し、次いでステップS2で、ライン1の当該ス
テーションにボディ2が到着するのを待つ。また、ボデ
ィ2が到着すれば、ステップS3で、ロボット10に備
えられたカメラ12によって該ボディ2に設けられてい
る基準ボルト穴5を撮像すると共に、その撮像画像に対
する所定の処理により、上記ボルト穴5の位置、即ちワ
ーク3の組み付け位置を検出する。
First, in step S1, the robot 10 moves from the origin and grips the work 3 supplied to the work supply unit 4, and then in step S2, the body 2 arrives at the station of the line 1. wait. When the body 2 arrives, in step S3, the camera 12 provided in the robot 10 captures an image of the reference bolt hole 5 provided in the body 2, and the bolt image is subjected to a predetermined process on the captured image. The position of the hole 5, that is, the mounting position of the work 3 is detected.

【0019】そして、ステップS4で、その組み付け位
置にワーク3が位置合わせされるように、ロボット10
の把持具11に把持されたワーク3を移動させると共
に、このようにしてボディ2とワーク3との位置合わせ
が終了した後、ステップS5で組み付け作業が行われ、
その後、ステップS6でロボット10を原点に戻し、こ
れにより1サイクルの作業が完了する。
Then, in step S4, the robot 10 is adjusted so that the work 3 is aligned with the assembling position.
After the work 3 gripped by the gripping tool 11 is moved and the alignment of the body 2 and the work 3 is completed in this way, the assembly work is performed in step S5.
After that, the robot 10 is returned to the origin in step S6, and the work of one cycle is completed.

【0020】次に、本案の特徴部としての画像処理装置
21の構成及び作動を説明する。
Next, the configuration and operation of the image processing device 21 as a characteristic part of the present invention will be described.

【0021】この画像処理装置21は、基本的にはパタ
ーンマッチング法によってカメラ12で撮像した基準ボ
ルト穴5の位置を検出するものであるが、そのパターン
マッチング用のテンプレートが次のように設定されてい
るのである。
The image processing device 21 basically detects the position of the reference bolt hole 5 imaged by the camera 12 by the pattern matching method. The template for the pattern matching is set as follows. -ing

【0022】つまり、図3に示すように、基準ボルト穴
5に相当する仮想円C0上の等間隔位置の8箇所に、上
記ボルト穴5のその8つの部位の形状にそれぞれ対応す
る明暗のパターンを有する第1〜第8テンプレートP1
〜P8を設定する。具体的には、基準ボルト穴5を撮像
したときに、その穴内が暗く、周囲が明るく撮像される
ものとしたときに、各テンプレートP1〜P8は、仮想
円C0と同一半径の円弧で領域を該仮想円C0の内側の
部分と外側の部分とに分割し、その内側部分を暗部、外
側部分を明部としたパターンに設定されるのである。
That is, as shown in FIG. 3, light and dark patterns corresponding to the shapes of the eight portions of the bolt hole 5 are provided at eight equidistant positions on the virtual circle C0 corresponding to the reference bolt hole 5. First to eighth templates P1 having
~ Set P8. Specifically, when the inside of the hole is dark and the surroundings are bright when the reference bolt hole 5 is imaged, each template P1 to P8 defines an area with an arc having the same radius as the virtual circle C0. The virtual circle C0 is divided into an inner portion and an outer portion, and the inner portion is set as a dark portion and the outer portion is set as a bright portion.

【0023】そして、例えば仮想円C0の中心Oを表示
装置22の画面22aの中央に設定したものとして、そ
の中心Oの画面上でのXY座標及び各テンプレートP1
〜P8のXY座標が設定され、その数値が図4に示すよ
うなテーブルとして画像処理装置21にティーチングさ
れる。
For example, assuming that the center O of the virtual circle C0 is set at the center of the screen 22a of the display device 22, the XY coordinates on the screen of the center O and each template P1.
The XY coordinates of P8 to P8 are set, and the numerical values are taught to the image processing device 21 as a table as shown in FIG.

【0024】次に、このような8個のテンプレートP1
〜P8を用いた画像処理装置21の具体的動作を図5の
フローチャートに従って説明する。なお、このフローチ
ャートは図2のフローチャートにおけるステップS3の
サブルーチンとして実行されるものである。
Next, eight such templates P1
Specific operations of the image processing apparatus 21 using P8 to P8 will be described with reference to the flowchart of FIG. Note that this flowchart is executed as a subroutine of step S3 in the flowchart of FIG.

【0025】まず、ステップS11で、カメラ12で撮
像された基準ボルト穴5の画像を取り込み、表示装置2
2の画面22aに表示する。このとき、基準ボルト穴5
の全体が明瞭に撮像されず、例えば図6に符号aで示す
ように、該ボルト穴5の一部分のみがが暗部として表示
されたものとする。
First, in step S11, the image of the reference bolt hole 5 picked up by the camera 12 is fetched and displayed on the display device 2.
It is displayed on the second screen 22a. At this time, the reference bolt hole 5
Is not clearly imaged, and only a part of the bolt hole 5 is displayed as a dark portion, for example, as indicated by a symbol a in FIG.

【0026】次いで、ステップS12で、第1テンプレ
ートP1から第8テンプレートP8まで順次画面22a
上を走査させてパターンマッチングを行うのであるが、
例えば第1テンプレートP1を走査させたときに、図6
に符号bで示すように、本来そのテンプレートに対応す
る基準ボルト穴5の部分が撮像されている位置に該テン
プレートP1が到達しても、基準ボルト穴5のその部分
が明瞭に撮像されていない場合には、その部分の画像と
該テンプレートP1とがマッチングせず、結局、第1テ
ンプレートP1によるパターンマッチングは不能とな
る。
Next, in step S12, the screen 22a is sequentially displayed from the first template P1 to the eighth template P8.
The pattern is matched by scanning the top.
For example, when the first template P1 is scanned, as shown in FIG.
As indicated by the symbol b, even if the template P1 reaches the position where the portion of the reference bolt hole 5 corresponding to the template is originally imaged, that portion of the reference bolt hole 5 is not clearly imaged. In that case, the image of that portion and the template P1 do not match, and eventually pattern matching by the first template P1 becomes impossible.

【0027】次に、第2テンプレートP2によるパター
ンマッチングが開始されて、該第2テンプレートP2が
画面22a上を走査すると、この第2テンプレートP2
に対応する基準ボルト穴5の部分は明部と暗部とが明瞭
に撮像されているので、符号cで示すように、該基準ボ
ルト穴5の当該部分が撮像されている位置でマッチング
することになる。
Next, when the pattern matching with the second template P2 is started and the second template P2 scans the screen 22a, the second template P2 is scanned.
Since the bright portion and the dark portion are clearly imaged in the portion of the reference bolt hole 5 corresponding to, the matching is performed at the position in which the portion of the reference bolt hole 5 is imaged, as indicated by the symbol c. Become.

【0028】そして、このようにして各テンプレートP
1〜P8について順次パターンマッチングを行い、第8
テンプレートP8でのパターンマッチングが終了した時
点で、ステップS13,S14によるマッチング結果の
解析処理及び演算処理が行われる。
Then, in this way, each template P
Pattern matching is sequentially performed for 1 to P8, and the eighth
When the pattern matching in the template P8 is completed, the matching result analysis process and the calculation process in steps S13 and S14 are performed.

【0029】これらの処理は、基準ボルト穴5の対応す
る部分とマッチングしたテンプレートについて、そのマ
ッチングした画面22a上の位置をXY座標として記憶
し、その座標に基づいて基準ボルト穴5の中心5aの位
置を検出するもので、例えば図6に示す例で第2、第3
テンプレートP2,P3が基準ボルト穴5の対応部分の
画像とマッチングしたものとして、そのマッチングした
画面22a上の位置のXY座標がそれぞれ次の値であっ
たとする。
In these processes, for the template matched with the corresponding portion of the reference bolt hole 5, the matched position on the screen 22a is stored as XY coordinates, and the center 5a of the reference bolt hole 5 is stored based on the coordinates. The position is detected. For example, in the example shown in FIG. 6, the second and third positions are detected.
It is assumed that the templates P2 and P3 match the image of the corresponding portion of the reference bolt hole 5, and the XY coordinates of the matched positions on the screen 22a are the following values.

【0030】 第2テンプレートP2のマッチング位置:XM2,YM2 第3テンプレートP2のマッチング位置:XM3,YM3 そして、これらのマッチング位置と、図4に示す第2、
第3テンプレートP2,P3及び仮想円C0の中心Oの
ティーチング位置、すなわち、 第2テンプレートP2のティーチング位置:XP2,YP2 第3テンプレートP3のティーチング位置:XP3,YP3 仮想円の中心Oの位置 :XC0,YC0 とに基づいて、次式に従って基準ボルト穴5の中心5a
の位置の座標(XC,YC)を求めるのである。ここで、
(XC2,YC2),(XC3,YC3)は、第2テンプレート
P2もしくは第3テンプレートP3の単独のデータで求
めた基準ボルト穴5の中心位置の座標である。
Matching position of the second template P2: X M2 , Y M2 Matching position of the third template P2: X M3 , Y M3 Then, these matching positions and the second position shown in FIG.
Teaching position of the center O of the third template P2, P3 and the virtual circle C0, that is, teaching position of the second template P2: X P2 , Y P2 Teaching position of the third template P3: X P3 , Y P3 Center of the virtual circle O Position: The center 5a of the reference bolt hole 5 according to the following formula based on X C0 and Y C0
The coordinates (X C , Y C ) of the position are calculated. here,
(X C2 , Y C2 ) and (X C3 , Y C3 ) are the coordinates of the center position of the reference bolt hole 5 obtained from the independent data of the second template P2 or the third template P3.

【0031】 XC=(XC2+XC3)/2=[(XC0+XM2−XP2)+
(XC0+XM3−XP3)]/2 YC=(YC2+YC3)/2=[(YC0+YM2−YP2)+
(YC0+YM3−YP3)]/2 つまり、各テンプレート毎に基準ボルト穴5の中心位置
を求めると共に、それらの平均値を求めて最終的な基準
ボルト穴5の中心位置と認定するのである。したがっ
て、マッチングしたテンプレートが1つの場合でも基準
ボルト穴5の中心位置を求めることができるが、マッチ
ングしたテンプレートの数が多くなるに従って該基準ボ
ルト穴5の中心位置の検出精度が高くなる。
X C = (X C2 + X C3 ) / 2 = [(X C0 + X M2 −X P2 ) +
(X C0 + X M3- X P3 )] / 2 Y C = (Y C2 + Y C3 ) / 2 = [(Y C0 + Y M2- Y P2 ) +
(Y C0 + Y M3 −Y P3 )] / 2 That is, the center position of the reference bolt hole 5 is obtained for each template, and the average value of them is determined to be the final center position of the reference bolt hole 5. is there. Therefore, the center position of the reference bolt hole 5 can be obtained even if there is only one matched template, but the detection accuracy of the center position of the reference bolt hole 5 increases as the number of matched templates increases.

【0032】そして、このようにして基準ボルト穴5の
中心位置が求められると、図5のフローチャートのステ
ップS15でそのデータが出力され、図2のフローチャ
ートのステップS4により、そのボルト穴5の位置を基
準としてロボット10に把持されたワーク3の位置の修
正が行われるのである。
When the center position of the reference bolt hole 5 is obtained in this way, the data is output in step S15 of the flow chart of FIG. 5, and the position of the bolt hole 5 is output in step S4 of the flow chart of FIG. The position of the work 3 gripped by the robot 10 is corrected with reference to.

【0033】[0033]

【発明の効果】以上のように本発明によれば、被検出部
位の形状に対応したパターンを有するテンプレートを該
被検出部位を撮像した画面上で走査させて、これらをマ
ッチングさせることにより、該被検出部位の位置を検出
する物品の位置検出装置において、上記テンプレートと
して、被検出部位の形状を複数個に分割したときの各部
分の形状にそれぞれ対応したパターンを有する複数個の
テンプレートを設定し、これらのテンプレートと被検出
部位の対応する部分の画像とをマッチングさせ、その結
果から被検出部位の全体としての位置を求めるようにし
たから、上記被検出部位の全体が明確に撮像されていな
い場合でも、一部のテンプレートがマッチングすれば被
検出部位の位置が検出されることになる。
As described above, according to the present invention, the template having the pattern corresponding to the shape of the detected region is scanned on the screen where the detected region is imaged, and these are matched to each other. In the article position detecting device for detecting the position of the detected part, as the template, a plurality of templates each having a pattern corresponding to the shape of each part when the shape of the detected part is divided into a plurality of parts are set. , The template and the image of the corresponding portion of the detected region are matched, and the position of the detected region as a whole is determined from the result, so the entire detected region is not clearly imaged. Even in such a case, if some of the templates match, the position of the detected part will be detected.

【0034】したがって、例えば、自動車のボディへの
ワークの組み付けに際しての位置合わせにおいて、ボデ
ィの色の種類や汚れの有無、或は照明の反射等により、
被検出部位としての基準点の全体が明確に撮像されてい
ない場合でも、この基準点の位置が確実に検出されるこ
とになり、この種の位置合わせ作業ないし組み付け作業
が良好に行われることになる。
Therefore, for example, in the alignment when assembling the work to the body of the automobile, depending on the type of color of the body, the presence or absence of dirt, the reflection of illumination, etc.
Even if the entire reference point as the detected part is not clearly imaged, the position of this reference point is reliably detected, and this kind of alignment work or assembly work is performed well. Become.

【0035】そして、特に第2発明によれば、複数個の
テンプレートが被検出部位の対応部分の画像とそれぞれ
マッチングしたときに、各テンプレートについて求めら
れる被検出部位全体としての位置の平均値を算出するよ
うにしたので、当該位置検出が精度よく行われることに
なる。
In particular, according to the second aspect of the invention, when a plurality of templates are respectively matched with the images of the corresponding parts of the detected part, the average value of the positions of the detected parts as a whole calculated for each template is calculated. Since this is done, the position detection can be performed accurately.

【図面の簡単な説明】[Brief description of drawings]

【図1】 本発明の実施例に係るワーク組み付けシステ
ムの概略構成図である。
FIG. 1 is a schematic configuration diagram of a work assembly system according to an embodiment of the present invention.

【図2】 同システムの作動を示すフローチャート図で
ある。
FIG. 2 is a flowchart showing the operation of the system.

【図3】 本実施例で用いられるテンプレートの構成を
示す説明図である。
FIG. 3 is an explanatory diagram showing the configuration of a template used in this embodiment.

【図4】 上記テンプレートの座標を示すテーブルであ
る。
FIG. 4 is a table showing coordinates of the template.

【図5】 位置合わせ制御の動作を示すフローチャート
図である。
FIG. 5 is a flowchart showing an operation of alignment control.

【図6】 パターンマッチング動作の説明図である。FIG. 6 is an explanatory diagram of a pattern matching operation.

【図7】 従来のパターンマッチング法の説明図であ
る。
FIG. 7 is an explanatory diagram of a conventional pattern matching method.

【図8】 その問題点の説明図である。FIG. 8 is an explanatory diagram of the problem.

【符号の説明】 5 被検出部位(基準ボルト穴) 21 テンプレート設定手段、テンプレート走査
手段、位置演算手段(画像処理装置) P1〜P8 テンプレート
[Description of Reference Signs] 5 Detected Part (Reference Bolt Hole) 21 Template Setting Means, Template Scanning Means, Position Calculating Means (Image Processing Device) P1 to P8 Templates

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 物品に設けられた被検出部位の形状に対
応したパターンを有するテンプレートを上記被検出部位
を撮像した画面上で走査させて、該被検出部位の画像と
テンプレートとがマッチングしたときの該テンプレート
の座標から被検出部位の位置を検出する装置であって、
上記テンプレートとして、被検出部位の形状を複数個に
分割したときの各部分の形状にそれぞれ対応したパター
ンを有する複数個のテンプレートを設定するテンプレー
ト設定手段と、該設定手段で設定された各テンプレート
を順次走査させるテンプレート走査手段と、これらのテ
ンプレートのうち被検出部位の対応部分の画像とマッチ
ングしたテンプレートについてのデータと、そのマッチ
ングした画面上の座標とから被検出部位の全体としての
位置を演算する位置演算手段とを有することを特徴とす
る物品の位置検出装置。
1. When a template having a pattern corresponding to the shape of a detection site provided on an article is scanned on a screen where the detection site is imaged, and the image of the detection site matches the template. A device for detecting the position of the detected part from the coordinates of the template,
As the template, a template setting means for setting a plurality of templates each having a pattern corresponding to the shape of each part when the shape of the detected region is divided into a plurality, and each template set by the setting means The overall position of the detected site is calculated from the template scanning means for sequentially scanning, the data of the template matched with the image of the corresponding part of the detected site among these templates, and the coordinates on the matched screen. A position detecting device for an article, comprising: a position calculating means.
【請求項2】 位置演算手段は、複数個のテンプレート
が被検出部位の対応部分の画像とマッチングしたとき
に、各テンプレートについて求められる被検出部位全体
としての位置の平均値を算出するようになっている請求
項1に記載の物品の位置検出装置。
2. The position calculating means is adapted to calculate an average value of the positions of all the detected parts obtained for each template when a plurality of templates match the images of the corresponding parts of the detected parts. The position detecting device for the article according to claim 1.
JP13140893A 1993-05-07 1993-05-07 Article position detection device Expired - Fee Related JP3386183B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP13140893A JP3386183B2 (en) 1993-05-07 1993-05-07 Article position detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP13140893A JP3386183B2 (en) 1993-05-07 1993-05-07 Article position detection device

Publications (2)

Publication Number Publication Date
JPH06317406A true JPH06317406A (en) 1994-11-15
JP3386183B2 JP3386183B2 (en) 2003-03-17

Family

ID=15057277

Family Applications (1)

Application Number Title Priority Date Filing Date
JP13140893A Expired - Fee Related JP3386183B2 (en) 1993-05-07 1993-05-07 Article position detection device

Country Status (1)

Country Link
JP (1) JP3386183B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011233059A (en) * 2010-04-30 2011-11-17 Seiko Epson Corp Image processing apparatus, image processing method, holding robot and program
US8532429B2 (en) 2010-09-28 2013-09-10 Sharp Laboratories Of America, Inc. Methods and systems for noise reduction and image enhancement involving selection of noise-control parameter
US8588535B2 (en) 2010-09-15 2013-11-19 Sharp Laboratories Of America, Inc. Methods and systems for estimation of compression noise
US8600188B2 (en) 2010-09-15 2013-12-03 Sharp Laboratories Of America, Inc. Methods and systems for noise reduction and image enhancement
WO2014024854A1 (en) 2012-08-10 2014-02-13 コニカミノルタ株式会社 Image processing device, image processing method, and image processing program

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011233059A (en) * 2010-04-30 2011-11-17 Seiko Epson Corp Image processing apparatus, image processing method, holding robot and program
US8588535B2 (en) 2010-09-15 2013-11-19 Sharp Laboratories Of America, Inc. Methods and systems for estimation of compression noise
US8600188B2 (en) 2010-09-15 2013-12-03 Sharp Laboratories Of America, Inc. Methods and systems for noise reduction and image enhancement
US8532429B2 (en) 2010-09-28 2013-09-10 Sharp Laboratories Of America, Inc. Methods and systems for noise reduction and image enhancement involving selection of noise-control parameter
WO2014024854A1 (en) 2012-08-10 2014-02-13 コニカミノルタ株式会社 Image processing device, image processing method, and image processing program

Also Published As

Publication number Publication date
JP3386183B2 (en) 2003-03-17

Similar Documents

Publication Publication Date Title
US6748104B1 (en) Methods and apparatus for machine vision inspection using single and multiple templates or patterns
US20030078694A1 (en) Robot teaching apparatus
EP1388738A1 (en) Inspection data producing method and board inspection apparatus using the method
JP2000241120A (en) Measuring apparatus
JP3386183B2 (en) Article position detection device
JP2001300875A (en) Robot system
JP6438275B2 (en) Paint surface inspection equipment
CN114518079A (en) Hole internal feature detection system and detection method
JPH0696193A (en) Method and device for displaying component identification result
JPH0341577A (en) Discriminating method for circular body
JP3654092B2 (en) Image recognition method
JPH06201603A (en) Method for generating inspection data in missing inspection of electronic component and method for detecting missing of the component
JPH095022A (en) Pattern position detecting method and apparatus by image recognition
JPH04141384A (en) Calibration method in positioning system using image processing device and device therefor
JP2527233Y2 (en) Work position detector
JPH0772076A (en) Deciding apparatus for work material
JP2000011173A (en) Method for recognizing image and device therefor
JP2023013517A (en) Method and system for displaying paint defects in automobile manufacturing line
JP3052734B2 (en) Inspection method for missing parts of electronic parts
JP3395922B2 (en) Inspection method and inspection device
JP2522794B2 (en) Automatic mask setting device for image recognition device
JPH07107651B2 (en) Method of teaching reference board data in automatic inspection device
JP2023013522A (en) Method and system for displaying paint defects in automobile manufacturing line
JP2000193435A (en) Image processing method for object
JP2974788B2 (en) Pattern position detection method

Legal Events

Date Code Title Description
FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090110

Year of fee payment: 6

FPAY Renewal fee payment (prs date is renewal date of database)

Year of fee payment: 7

Free format text: PAYMENT UNTIL: 20100110

LAPS Cancellation because of no payment of annual fees