JP2836104B2 - Object posture detection device - Google Patents

Object posture detection device

Info

Publication number
JP2836104B2
JP2836104B2 JP1176130A JP17613089A JP2836104B2 JP 2836104 B2 JP2836104 B2 JP 2836104B2 JP 1176130 A JP1176130 A JP 1176130A JP 17613089 A JP17613089 A JP 17613089A JP 2836104 B2 JP2836104 B2 JP 2836104B2
Authority
JP
Japan
Prior art keywords
gravity
center
posture
image
circular
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP1176130A
Other languages
Japanese (ja)
Other versions
JPH0340182A (en
Inventor
彰彦 金森
秀一 砂原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP1176130A priority Critical patent/JP2836104B2/en
Publication of JPH0340182A publication Critical patent/JPH0340182A/en
Application granted granted Critical
Publication of JP2836104B2 publication Critical patent/JP2836104B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

【発明の詳細な説明】 [産業上の利用分野] 本発明は、軸対称物体の姿勢検出を行う物体の姿勢検
出装置に関する。
Description: BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an object posture detecting device that detects the posture of an axisymmetric object.

[従来の技術] 従来より、物体の姿勢を画像認識により検出する物体
の姿勢検出装置が用いられている。例えば、工業用ロボ
ットを用いて所定形状の物体を把持しようとする場合に
は、この物体の置かれた姿勢を検出し、該ロボットの動
作補正を行う必要があり、このような場合においては、
該姿勢を画像認識により検出する物体の姿勢検出装置が
好適である。
[Prior Art] Conventionally, an object posture detection device that detects the posture of an object by image recognition has been used. For example, when trying to grasp an object of a predetermined shape using an industrial robot, it is necessary to detect the posture of the object and perform motion correction of the robot. In such a case,
An object posture detection device that detects the posture by image recognition is preferable.

このような物体の姿勢検出装置としては、例えば特開
昭63−288374号公報に開示された装置がある。
As such a posture detecting device for an object, there is, for example, a device disclosed in JP-A-63-288374.

この装置においては、物体の姿勢検出は、複数の特徴
点の座標を検出することにより行われる。この特徴点
は、例えば、画像認識に係る画面上での物体像の重心、
該重心に対して最遠の物体輪郭上の一点(最遠点)、同
様に重心に対して最近の物体輪郭上で一点(最近点)等
の点である。特徴点として、これらの点、すなわち、重
心、最遠点及び最近点を用いた場合には、画像認識に係
る物体の「位置」としては重心の座標が、また該物体の
「姿勢」としては該最遠点及び最近点の座標を用いて算
出される慣性の主軸方法が、それぞれ採用される。
In this device, the posture of the object is detected by detecting the coordinates of a plurality of feature points. This feature point is, for example, the center of gravity of the object image on the screen related to image recognition,
One point on the object contour furthest to the center of gravity (the farthest point), and similarly, a point on the object contour closest to the center of gravity (the closest point). When these points are used as the feature points, that is, the center of gravity, the farthest point, and the nearest point, the coordinates of the center of gravity are used as the “position” of the object related to image recognition, and the “posture” of the object is used as the “posture”. A principal axis method of inertia calculated using the coordinates of the farthest point and the nearest point is adopted, respectively.

このようにして、従来の物体の姿勢検出装置によれ
ば、物体を画像認識して所定の特徴点座標を検出し、さ
らにこの特徴点座標を用いて所定の演算を行うことによ
り、物体の姿勢を検出することができる。さらに、この
従来例に係る物体の姿勢検出装置により検出された姿勢
情報を物体把持を行う作業用ロボットに供給した場合に
は、該情報に基づきより好適な動作補正を行い、物体把
持を行うことが可能となる。
As described above, according to the conventional object posture detection device, the object is image-recognized, the predetermined feature point coordinates are detected, and the predetermined calculation is performed using the feature point coordinates. Can be detected. Furthermore, when the posture information detected by the object posture detecting device according to the conventional example is supplied to a work robot that performs object grasping, more suitable motion correction is performed based on the information, and object grasping is performed. Becomes possible.

[発明が解決しようとする課題] しかしながら、このような構成を有する従来の物体の
姿勢検出装置においては、次のような問題点があった。
[Problems to be Solved by the Invention] However, the conventional object posture detection device having such a configuration has the following problems.

(1)軸対称形状物体の姿勢特定が不可能 一般に、軸対称形状の物体について、従来装置により
姿勢検出を行おうとすると、画像認識に係る画面上にお
ける重心と、最遠点、最近点等の特徴点とを結ぶ直線
が、所定の基準線に対してなす角(又はその相対角)で
ある位相を特定することができず、該位相により特定さ
れる姿勢、例えば慣性主軸方向の特定が不可能である。
(1) It is impossible to specify the orientation of an object having an axisymmetric shape. Generally, when an object having an axisymmetric shape is to be subjected to orientation detection using a conventional device, the center of gravity on a screen related to image recognition, the farthest point, the nearest point, and the like, are determined. It is not possible to specify a phase that is an angle (or a relative angle thereof) between a straight line connecting the feature points and a predetermined reference line, and it is not possible to specify a posture specified by the phase, for example, the direction of the principal axis of inertia. It is possible.

例えば、円板状物体で、かつ、円周部に繰り繰り返し
凹部があるような物体においては、最遠点、最近点が複
数個存在する場合があり、慣性主軸方向、すなわち物体
の姿勢が検出できない。
For example, in the case of a disk-shaped object and an object having a circularly-repeated concave portion, there may be a plurality of farthest points and a plurality of nearest points, and the direction of the principal axis of inertia, that is, the posture of the object is detected. Can not.

(2)姿勢検出の誤差発生 物体形状の画像認識において誤差が発生した場合、重
心、最遠点、最近点等の特徴点の座標算出に誤差が発生
し、これらの座標を用いて決定する慣性主軸方向等の物
体の姿勢にも、誤差が発生し、従って姿勢検出精度が確
保できない。
(2) Posture detection error occurrence If an error occurs in the object shape image recognition, an error occurs in the coordinate calculation of the feature point such as the center of gravity, the farthest point, the nearest point, and the inertia determined using these coordinates. An error also occurs in the posture of the object in the main axis direction or the like, and therefore, the posture detection accuracy cannot be ensured.

本発明は、このような問題点を解決することを課題と
してなされたものであり、軸対称形状物体の姿勢を、形
状認識誤差の影響防止を行いつつ検出する物体の姿勢検
出装置を提供することを目的とする。
SUMMARY OF THE INVENTION The present invention has been made to solve such a problem, and an object of the present invention is to provide an object posture detecting device that detects the posture of an axisymmetric object while preventing the influence of a shape recognition error. With the goal.

[課題を解決するための手段] 前記目的を達成するために、本発明は、画像認識によ
り求められた物体の重心を中心とする所定半径の円形領
域であるマスク領域を塗り潰す円形マスク手段と、この
塗り潰し後の画像につきあらためて重心を求め、あらた
な重心を中心とする所定半径の円形領域である円形ウィ
ンドウを前記画面上に設定する円形ウィンドウ設定手段
と、この円形ウィンドウ内に、物体の凹部等欠落部の重
心を求める欠落部重心決定手段と、重心及び欠落部重心
により、所定条件を満たす位相基準線を検出する位相基
準線決定手段と、を有し、物体が軸対称の形状を有する
場合にも、位相基準線を検出して、この物体の姿勢検出
を行うことを特徴とする。
Means for Solving the Problems In order to achieve the above object, the present invention provides a circular mask means for filling a mask area which is a circular area having a predetermined radius centered on the center of gravity of an object obtained by image recognition. Circular window setting means for re-determining the center of gravity of the image after filling, and setting a circular window, which is a circular area having a predetermined radius centered on the new center of gravity, on the screen; A missing portion center of gravity determining means for finding the center of gravity of the equally missing portion, and a phase reference line determining means for detecting a phase reference line satisfying a predetermined condition by the center of gravity and the missing portion center of gravity, and the object has an axially symmetric shape. Also in this case, the phase reference line is detected and the posture of the object is detected.

[作用] 本発明の物体の姿勢検出装置においては、物体の画像
認識に係る画面上において、重心を中心とする円形ウィ
ンドウが設定される。この円形ウィンドウ内に、物体の
凹部等の欠落部がある場合には、この欠落部の重心であ
る欠落部重心が求められる。そして、前記重心及び欠落
部重心により、位相基準線が決定される。このとき、前
記位相基準線は、物体の姿勢を示す軸として用いうる直
線であって、従って物体が軸対称形状である場合にも、
該物体の姿勢が検出される。さらに、前記円形ウィンド
ウは円形マスク後の画像につき求められた重心を中心と
して設定されるため、物体形状の画像認識誤差の位相基
準線決定への影響が防止される。
[Operation] In the object posture detection device of the present invention, a circular window centered on the center of gravity is set on a screen related to image recognition of an object. If there is a missing portion such as a concave portion of the object in the circular window, the center of gravity of the missing portion, which is the center of gravity of the missing portion, is obtained. Then, a phase reference line is determined by the center of gravity and the center of gravity of the missing portion. At this time, the phase reference line is a straight line that can be used as an axis indicating the posture of the object, and therefore, even when the object has an axisymmetric shape,
The posture of the object is detected. Further, since the circular window is set around the center of gravity obtained for the image after the circular mask, the influence of the image recognition error of the object shape on the determination of the phase reference line is prevented.

[実施例] 以下、本発明の実施例を図面に基づいて説明する。[Example] Hereinafter, an example of the present invention will be described with reference to the drawings.

第1図には、本発明の一実施例に係る物体の姿勢検出
装置を用いた自動組立ラインのシステム構成が示されて
いる。
FIG. 1 shows a system configuration of an automatic assembly line using an object posture detecting device according to one embodiment of the present invention.

この図においては、例えば自動車部品等の所定のワー
ク10がコンベア等により流されてきたときに、このワー
ク10を撮像するカメラ12が設けられ、該カメラ12にはワ
ーク10を照明するライト14が付設されている。すなわ
ち、前記ライト14により照明されたワーク10は、前記カ
メラ12により撮像され、撮像された画像は、例えばNTSC
画像信号として出力される。
In this figure, when a predetermined work 10 such as an automobile part is flowed by a conveyor or the like, a camera 12 for imaging the work 10 is provided, and the camera 12 has a light 14 for illuminating the work 10. It is attached. That is, the work 10 illuminated by the light 14 is captured by the camera 12, and the captured image is, for example, NTSC.
It is output as an image signal.

前記カメラ12には、本実施例に係る姿勢検出装置16が
接続され、該装置16には、ロボット18を制御するロボッ
ト制御装置20が接続されている。
A posture detection device 16 according to the present embodiment is connected to the camera 12, and a robot control device 20 for controlling a robot 18 is connected to the device 16.

すなわち、前記姿勢検出装置16においては、後述する
ように、ワーク10の位置及び姿勢の検出が行われ、該検
出に係る位置及び姿勢データが、前記ロボット制御装置
20に出力される。前記ロボット制御装置20においては、
前記姿勢検出装置16における検出に係る位置及び姿勢デ
ータに応じて、ハンド22を有するロボット18の制御が行
われる。このハンド22、前記制御に応じて、前記ワーク
22を把持する。
That is, in the posture detection device 16, as described later, the position and posture of the work 10 are detected, and the position and posture data related to the detection are transmitted to the robot control device.
Output to 20. In the robot control device 20,
The control of the robot 18 having the hand 22 is performed according to the position and posture data related to the detection by the posture detection device 16. This hand 22, according to the control, the work
Hold 22.

このように、本実施例に係る姿勢検出装置16を用いた
自動組立ラインにおいては、所定形状を有するワーク10
が画像認識され、検出されたワーク10の位置及び姿勢に
もとづきロボット18が制御され、ハンド22によりワーク
10が把持される。
As described above, in the automatic assembly line using the posture detecting device 16 according to the present embodiment, the work 10 having a predetermined shape is
Is recognized, and the robot 18 is controlled based on the detected position and orientation of the work 10.
10 is gripped.

第2図には、本実施例に係る姿勢検出装置16の構成が
示されている。
FIG. 2 shows the configuration of the attitude detection device 16 according to the present embodiment.

この図においては、前記カメラ12により撮像された画
像に係る画像信号をA/D変換するA/D変換器24には、本発
明の特徴に係る姿勢検出演算を行うCPU26が接続されて
いる。
In this figure, an A / D converter 24 that performs A / D conversion of an image signal of an image captured by the camera 12 is connected to a CPU 26 that performs a posture detection calculation according to a feature of the present invention.

すなわち、前記カメタ12により撮像されたワーク10の
画像は、NTSC等の画像信号として前記A/D変換器24に入
力され。A/D変換される。このA/D変換の結果、デジタル
化された画像信号は、前記CPU26に入力され、該CPU26に
おいてはこの画像信号を用いてワーク10の位置及び姿勢
検出が行われる。この、位置及び姿勢検出に係る演算は
後に詳細に説明する。
That is, the image of the work 10 captured by the camera 12 is input to the A / D converter 24 as an image signal of NTSC or the like. A / D converted. As a result of the A / D conversion, the digitized image signal is input to the CPU 26, and the CPU 26 detects the position and orientation of the work 10 using the image signal. The calculation relating to the position and orientation detection will be described later in detail.

前記CPU26には、前記A/D変換器24によりデジタル化さ
れた画像信号をD/A変換してアナログ化するD/A変換器28
が接続され、該D/A変換器28には、前記カメラ12により
撮像された画像を再生するモニタ30が接続されている。
The CPU 26 has a D / A converter 28 for D / A converting the image signal digitized by the A / D converter 24 into an analog signal.
The D / A converter 28 is connected to a monitor 30 that reproduces an image captured by the camera 12.

すなわち、前記A/D変換器24によりデジタル化された
画像信号が、前記D/A変換器28により再びアナログの画
像信号に変換され、前記モニタ30にカメラ12の撮像に係
る画像すなわちワーク10の画像が再生される。
That is, the image signal digitized by the A / D converter 24 is again converted to an analog image signal by the D / A converter 28, and the monitor 30 displays an image related to an image captured by the camera 12, that is, the image of the workpiece 10. The image is played.

前記CPU26には、さらに、位置及び姿勢検出演算プロ
グラムが格納されたROM32と、位置及び姿勢検出演算の
結果を一時記憶するRAM34と、前記A/D変換器24によりデ
ジタル化された画像信号に係る画像データを記憶するビ
デオRAM36と、が接続されている。
The CPU 26 further includes a ROM 32 in which a position and orientation detection calculation program is stored, a RAM 34 for temporarily storing the results of the position and orientation detection calculation, and an image signal digitized by the A / D converter 24. A video RAM 36 for storing image data is connected.

すなわち、前記CPU26においては、前記ROM26に格納さ
れた位置及び姿勢検出演算プログラムに基づいて、後述
のように、ワーク10の位置及び姿勢演算が行われ、該演
算の結果が前記RAM34に格納される。また、前記演算に
用いられるデータである前記画像データは、前記ビデオ
RAM36に記憶され、必要に応じてCPU26に読み出される。
That is, in the CPU 26, the position and orientation of the workpiece 10 are calculated based on the position and orientation detection calculation program stored in the ROM 26, as described later, and the calculation result is stored in the RAM 34. . Further, the image data, which is data used for the calculation, is the video data.
The data is stored in the RAM 36 and read out by the CPU 26 as needed.

前記CPU26は、前記演算結果を外部出力するインター
フェースである外部機器I/F38に接続され、該外部機器I
/C38には、該演算結果をパラレル及びシリアルデータと
して出力するインターフェースであるパラレルI/F40及
びシリアルI/F42が接続されている。
The CPU 26 is connected to an external device I / F 38 which is an interface for outputting the calculation result to the outside, and the external device I / F 38
A parallel I / F 40 and a serial I / F 42, which are interfaces for outputting the operation result as parallel and serial data, are connected to the / C 38.

すなわち、前記CPU26において演算されあるいはさら
に前記RAM34に一時記憶されたワーク10の位置及び姿勢
データは、前記外部機器I/F38及びパラレルI/F40又はシ
リアルI/F42を介して、外部、例えば前記ロボット制御
装置20に、パラレルデータ又はシリアルデータとして、
出力される。
That is, the position and orientation data of the work 10 calculated in the CPU 26 or further temporarily stored in the RAM 34 are transmitted to the external device, for example, the robot via the external device I / F 38 and the parallel I / F 40 or the serial I / F 42. In the control device 20, as parallel data or serial data,
Is output.

このように、本実施例に係る姿勢検出装置16において
は、カメラ12により撮像されたワーク10の画像に係る画
像データが、後述の本発明の特徴に係る位置及び姿勢検
出演算に供せされ、ワーク10の位置及び姿勢データが前
記ロボット制御装置20に出力される。
As described above, in the posture detection device 16 according to the present embodiment, the image data related to the image of the work 10 captured by the camera 12 is subjected to a position and posture detection calculation according to features of the present invention described below, The position and posture data of the work 10 are output to the robot controller 20.

次に、第3図ないし第5図を用いて、本実施例に係る
姿勢検出装置16の、本発明の特徴に係る位置及び姿勢検
出演算の動作を説明する。
Next, the operation of the position and orientation detection calculation according to the features of the present invention of the orientation detection apparatus 16 according to the present embodiment will be described with reference to FIGS.

第3図には、本実施例の動作を説明するためのワーク
10の一形状例が示されている。このワーク10は、第3図
(a)の下面図及び第3図(b)の上面図に示されるよ
うに、円板状の部分に5個の凹部が設けられ、側面から
見た場合には第3図(c)に示されるように上下に突出
部を有する物体である。
FIG. 3 shows a work for explaining the operation of the present embodiment.
One shape example of 10 is shown. As shown in the bottom view of FIG. 3 (a) and the top view of FIG. 3 (b), this work 10 has five concave portions provided in a disc-shaped portion, and when viewed from the side, Is an object having protrusions vertically as shown in FIG. 3 (c).

第4図には、このワーク10をカメラ12により撮像した
場合の画像認識に係る画面が示されている。この場合に
おいて、第4図(a)には、鮮明な認識画像が得られた
場合の該画像が、第4図(b)には、図において矢印で
示される部位に誤認識が発生した場合の画像が示されて
いる。
FIG. 4 shows a screen relating to image recognition when the workpiece 10 is imaged by the camera 12. In this case, FIG. 4 (a) shows a case where a clear recognition image is obtained, and FIG. 4 (b) shows a case where misrecognition occurs in a portion indicated by an arrow in the drawing. Are shown.

第5図には、本実施例の位置及び姿勢検出演算のアル
ゴリズムが示され、第5図(a)ないし(c)は、第3
図に示される形状のワーク10により例示されている。ま
た、第5図(a)は、第4図(b)のように画像誤認識
が発生した場合の画面、第5図(d)は、位置及び姿勢
検出演算のフローチャートである。
FIG. 5 shows the algorithm of the position and orientation detection calculation of the present embodiment, and FIGS.
This is exemplified by the work 10 having the shape shown in the figure. FIG. 5 (a) is a screen when an erroneous image recognition occurs as in FIG. 4 (b), and FIG. 5 (d) is a flowchart of the position and orientation detection calculation.

ここで、第5図(d)の流れに沿って、本実施例の動
作を詳細に説明する。
Here, the operation of the present embodiment will be described in detail with reference to the flow of FIG.

まず、カメラ12により撮像された第3図に示されるワ
ーク10の画像データより、ワーク10の従来より公知の方
法により重心Aが決定される(100)。この重心Aは、
第5図(a)に示されるように示される点であって、こ
の図のように矢印で示される誤認識発生が伴う場合に
は、真の重心からやや偏心した位置の点となる。
First, from the image data of the work 10 shown in FIG. 3 captured by the camera 12, the center of gravity A of the work 10 is determined by a conventionally known method (100). This center of gravity A is
In the case shown in FIG. 5 (a), when a misrecognition indicated by an arrow occurs as shown in FIG. 5, the point is located at a position slightly eccentric from the true center of gravity.

次に、前記重心Aを中心とする所定半径の円形マスク
が施される(110)。この円形マスクの半径は、予めワ
ーク10の形状に応じて設定された値の半径であり、画像
誤認識が発生しやすいと推定される領域をおおうことが
できるように設定されている。この半径内の領域(第5
図(b)において破線で示される)が塗り潰される(い
わゆる、マスクされる)と第5図(b)に示されるよう
に、前記画像誤認識が発生しやすいと推定される領域
(この例のワーク10においては、中心の突出部近傍)の
境界線が消滅する。
Next, a circular mask having a predetermined radius centered on the center of gravity A is applied (110). The radius of the circular mask is a radius of a value set in advance according to the shape of the workpiece 10, and is set so as to cover an area where it is estimated that erroneous image recognition is likely to occur. The area within this radius (fifth
When the area indicated by the broken line in FIG. 5B is painted out (so-called masked), as shown in FIG. 5B, the area where the image erroneous recognition is likely to occur (in this example). In the work 10, the boundary line near the center protrusion disappears.

第5図(b)に示される円形マスク後の画像につい
て、あらためて重心が決定される。この重心は、図にお
いてBとして表される(120)。このあらたな重心B
は、前記画像誤認識を排除しているため、ワーク10の真
の重心に、より近い位置の点となる。この新たな重心B
は、ワーク10の位置を表す情報として、前述のように記
憶又は出力される。
With respect to the image after the circular mask shown in FIG. 5B, the center of gravity is determined again. This center of gravity is represented as B in the figure (120). This new center of gravity B
Is a point closer to the true center of gravity of the work 10 because the erroneous image recognition is excluded. This new center of gravity B
Is stored or output as information indicating the position of the work 10 as described above.

次に、このあらたな重心Bを中心として、所定半径の
円形ウィンドウが設定される(130)。この円形ウィン
ドウは、第5図(b)においては実線の円として示され
る。また、円形ウィンドウの半径は、ワーク10の形状に
応じて予め設定される量であって、第3図に示されるこ
の例の形状のワーク10においては、例えば円板部の凹部
が円形ウィンドウ内に包囲されるように設定される。
Next, a circular window having a predetermined radius is set around the new center of gravity B (130). This circular window is shown as a solid circle in FIG. 5 (b). Further, the radius of the circular window is an amount set in advance according to the shape of the work 10, and in the work 10 having the shape of this example shown in FIG. Is set to be surrounded by

次に、前記円形ウィンドウ内に包囲された凹部の重心
C1〜C5が演算決定される(140)。さらに、これらの重
心C1〜C5の隣接するそれぞれを結ぶ直線L1〜L5が描かれ
(150)、これらの直線L1〜L5の中点D12〜D51が演算決
定され(160)、前記重心Bとこの中点D12〜D51とを結
ぶ直線L12〜L51が描かれる(170)。
Next, the center of gravity of the recess surrounded by the circular window
C 1 to C 5 are calculated and determined (140). Furthermore, a linear L 1 ~L 5 connecting each adjacent of the center of gravity C 1 -C 5 drawn (150), the midpoint D 12 to D 51 of these lines L 1 ~L 5 is determined operations ( 160), the straight line L 12 ~L 51 connecting the middle point D 12 to D 51 is drawn to the center of gravity B (170).

そして、前記直線L12〜L51のなす角α〜αが演算
され(180)、この角α〜αによりワーク10の姿勢
が判定される(190)。すなわち、第5図(c)に示さ
れるように、前記角α〜αは、それぞれ凹部(重心
がC1〜C5で表される)を臨む角であって、ワーク10の円
周上における凹部繰り返しの位相を示す角である。この
ため、例えば、前記凹部が等間隔(72゜)で設けられて
いる場合には、前記角α〜αのうち最も72゜に近い
角度をなす2つの角により定まる直線(前記直線L12〜L
51のうち一)を位相基準線として検出し、この直線の指
向方向により、ワーク10の姿勢判定が行われる。
Then, the angle alpha 1 to? 5 of the straight line L 12 ~L 51 is calculated (180), the posture of the workpiece 10 is determined by the angle α 15 (190). That is, as shown in FIG. 5 (c), the angles α 1 to α 5 are angles facing the concave portions (the centers of gravity are represented by C 1 to C 5 ), respectively. It is an angle indicating the phase of the concave portion repetition above. For this reason, for example, when the concave portions are provided at equal intervals (72 °), a straight line (the straight line L) defined by two angles which are the closest to 72 ° among the angles α 1 to α 5. 12 to L
One of 51 ) is detected as a phase reference line, and the orientation of the work 10 is determined based on the directivity of this straight line.

このように、本実施例に係る姿勢検出装置16によれ
ば、第3図に示されるような軸対称形状のワーク10につ
いても、姿勢検出を行うことができる。すなわち、凹部
の重心C1〜C5が円形ウィンドウの設定により決定され、
位相基準線が決定される。この位相基準線(L12〜L51
うち一)は、ワーク10の姿勢を示す軸として用いうる直
線であるため、ワーク10の姿勢検出が可能となる。
As described above, according to the posture detection device 16 according to the present embodiment, the posture can be detected even for the axially symmetric work 10 as shown in FIG. That is, the center of gravity C 1 -C 5 the recess is determined by the setting of the circular windows,
A phase reference line is determined. The phase reference line (one of L 12 ~L 51) are the straight lines can be used as an axis indicating the posture of the workpiece 10, it is possible to position detection of the workpiece 10.

また、本実施例によれば、カメラ12により撮像された
画像に第4図(b)に示されるような誤認識が発生して
いる場合にも、円形マスクにより真の重心に近い点を重
心Bとして求めることができ、この重心Bにもとづいて
円形ウィンドウ設定及び位相基準検出が行われるため、
画像誤認識による位相基準線決定の誤差発生が防止され
る。
Further, according to the present embodiment, even when an erroneous recognition as shown in FIG. 4 (b) occurs in the image captured by the camera 12, a point close to the true center of gravity is determined by the circular mask. B, the circular window setting and the phase reference detection are performed based on the center of gravity B.
An error in determining the phase reference line due to erroneous image recognition is prevented.

なお、本実施例においては、複数の凹部につきすべて
の欠落部重心を求める構成が示されているが、いずれか
一つの凹部についてのみ該重心を求める構成でもかまわ
ない。この場合には、すべての凹部につき欠落部重心を
求める場合に比べ、重心Bに係る誤差による位相基準線
決定への誤差が大であるが、前述の軸対称物体について
の姿勢検出及び円形マスクによる誤差防止の効果は、同
様に得ることが可能である。
In this embodiment, a configuration is shown in which all the centers of gravity of missing portions are obtained for a plurality of concave portions, but a configuration in which the center of gravity is obtained only for any one of the concave portions may be used. In this case, the error in determining the phase reference line due to the error relating to the center of gravity B is larger than in the case where the center of gravity of the missing portion is obtained for all the concave portions. The effect of error prevention can be obtained similarly.

[発明の効果] 以上説明したように、本発明によれば、軸対称の形状
を有する物体についても姿勢検出を行うことができ、さ
らに画像誤認識による姿勢検出誤差の発生を防止するこ
とができる。
[Effects of the Invention] As described above, according to the present invention, posture detection can be performed even for an object having an axisymmetric shape, and furthermore, occurrence of a posture detection error due to erroneous image recognition can be prevented. .

【図面の簡単な説明】[Brief description of the drawings]

第1図は、本発明の一実施例に係る物体の姿勢検出装置
を用いた自動組立ラインのシステム構成図、 第2図は、この実施例の構成を示す構成図、 第3図は、本実施例の動作を説明するための物体形状の
一例を示す物体形状図であって、第3図(a)は、その
下面図、第3図(b)は、その上面図、第3図(c)
は、側面図、 第4図は、第3図の物体の画像認識に係る画面図であっ
て、第4図(a)は、良好な画像認識に係る画面図、第
4図(b)は、画像誤認識発生時の画面図、 第5図は、本実施例の動作を示す動作図であって、第5
図(a)は、画像認識に係る画面図、第5図(b)は、
円形マスク及び円形ウィンドウを施した画面を示す画面
図、第5図(c)は、位相基準線決定に係るアルゴリズ
ムを示す画面図、第5図(d)は、本実施例の位置及び
姿勢検出演算の流れを示すフローチャート図である。 10……ワーク 16……姿勢検出装置 26……CPU 32……ROM C1、C2、C3、C4、C5……凹部の重心 L12、L23、L34、L45、L51……直線
FIG. 1 is a system configuration diagram of an automatic assembly line using an object posture detection device according to one embodiment of the present invention, FIG. 2 is a configuration diagram showing the configuration of this embodiment, and FIG. 3 (a) is a bottom view, FIG. 3 (b) is a top view, and FIG. 3 (b) is an object shape diagram showing an example of an object shape for explaining the operation of the embodiment. c)
4 is a side view, FIG. 4 is a screen view related to image recognition of the object in FIG. 3, FIG. 4 (a) is a screen view related to good image recognition, and FIG. FIG. 5 is a diagram showing a screen when an erroneous image recognition occurs. FIG. 5 is an operation diagram showing the operation of this embodiment.
FIG. 5A is a screen diagram related to image recognition, and FIG.
FIG. 5 (c) is a screen diagram showing an algorithm for determining a phase reference line, and FIG. 5 (d) is a position and orientation detection of the present embodiment. It is a flowchart figure which shows the flow of a calculation. 10 ...... workpiece 16 ...... posture detection device 26 ...... CPU 32 ...... ROM C 1 , C 2, C 3, C 4, C 5 ...... centroid L 12 of the recess, L 23, L 34, L 45, L 51 ...... Straight line

フロントページの続き (58)調査した分野(Int.Cl.6,DB名) G06T 7/00 G06T 1/00 G01B 11/00Continuation of the front page (58) Field surveyed (Int.Cl. 6 , DB name) G06T 7/00 G06T 1/00 G01B 11/00

Claims (1)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】物体を画像認識し、画像認識に係る画面上
でのこの物体の重心を求める重心決定手段を有する物体
の姿勢検出装置において、 前記重心決定手段により求められた重心を中心とする所
定半径の円形領域であるマスク領域を塗り潰す円形マス
ク手段と、 前記円形マスク手段により塗り潰された後の画像につい
てあらためて重心を求め、あらたな重心を中心として、
所定半径の円形領域である円形ウィンドウを前記画面上
に設定する円形ウィンドウ設定手段と、 前記円形ウィンドウ内に前記物体の凹部等の欠落部があ
る場合には、この欠落部の重心である欠落部重心を求め
る欠落部重心決定手段と、 前記重心及び欠落部重心により、所定条件を満たす直線
である位相基準線を検出する位相基準線決定手段と、 を有し、 前記物体が軸対称の形状を有する場合にも、前記位相基
準線を検出して、この物体の姿勢検出を行うことを特徴
とする物体の姿勢検出装置。
1. An object posture detecting apparatus having a center of gravity determining means for recognizing an object on an image and determining a center of gravity of the object on a screen relating to image recognition, wherein the center of gravity is determined by the center of gravity determining means. A circular mask means for filling a mask area which is a circular area with a predetermined radius, and a new center of gravity is obtained for the image after being filled by the circular mask means, with the new center of gravity as the center.
A circular window setting means for setting a circular window, which is a circular area having a predetermined radius, on the screen; and, when there is a missing portion such as a concave portion of the object in the circular window, a missing portion which is a center of gravity of the missing portion. A missing part center of gravity determining means for obtaining a center of gravity, and a phase reference line determining means for detecting a phase reference line that is a straight line satisfying a predetermined condition by the center of gravity and the missing part center of gravity, wherein the object has an axially symmetric shape. Also in the case of having an object posture detecting apparatus, the phase reference line is detected and the posture of the object is detected.
JP1176130A 1989-07-07 1989-07-07 Object posture detection device Expired - Fee Related JP2836104B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1176130A JP2836104B2 (en) 1989-07-07 1989-07-07 Object posture detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1176130A JP2836104B2 (en) 1989-07-07 1989-07-07 Object posture detection device

Publications (2)

Publication Number Publication Date
JPH0340182A JPH0340182A (en) 1991-02-20
JP2836104B2 true JP2836104B2 (en) 1998-12-14

Family

ID=16008186

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1176130A Expired - Fee Related JP2836104B2 (en) 1989-07-07 1989-07-07 Object posture detection device

Country Status (1)

Country Link
JP (1) JP2836104B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2662139B2 (en) * 1992-04-28 1997-10-08 有限会社北勝建設 Wall construction equipment
JP4815597B2 (en) * 2006-06-16 2011-11-16 国立大学法人富山大学 Image processing method, image processing apparatus, and image processing program

Also Published As

Publication number Publication date
JPH0340182A (en) 1991-02-20

Similar Documents

Publication Publication Date Title
EP0528054B1 (en) Detected position correcting method
JP3242108B2 (en) Target mark recognition and tracking system and method
US5249035A (en) Method of measuring three dimensional shape
US20040122552A1 (en) Workpiece taking-out apparatus
JPH0435885A (en) Calibration method for visual sensor
US5452370A (en) Image processing apparatus
US5131754A (en) Method of and device for detecting position of body
JP2836104B2 (en) Object posture detection device
JP2003136465A (en) Three-dimensional position and posture decision method of detection target object and visual sensor of robot
JPH01234140A (en) Method and apparatus for removing influence of dead load of tool
JP2995127B2 (en) How to recognize circular holes
JP2953116B2 (en) Wire bonding equipment
JPH0575243B2 (en)
JPH06270083A (en) Work position detector
JP2730754B2 (en) Robot with visual device
JPH06226561A (en) Circular position recognizing device
JPH05185388A (en) Parts supply device
JPH0765175A (en) Position recognizing method
JPH0622720B2 (en) Automatic coating device using teaching robot
JP2508916B2 (en) Tracking distance measuring device
JPH01222880A (en) Method for inserting cylindrical member onto pin erected in pallet and its device
JP3156230B2 (en) How to set location information reliability
JPH0432703A (en) Image measuring instrument
JPH0339611A (en) Calibration method between coordinate systems in robot with visual recognition device
JP3198467B2 (en) Sensor position and attitude path tracking control method

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees