JPH0340182A - Body attitude detector - Google Patents

Body attitude detector

Info

Publication number
JPH0340182A
JPH0340182A JP1176130A JP17613089A JPH0340182A JP H0340182 A JPH0340182 A JP H0340182A JP 1176130 A JP1176130 A JP 1176130A JP 17613089 A JP17613089 A JP 17613089A JP H0340182 A JPH0340182 A JP H0340182A
Authority
JP
Japan
Prior art keywords
gravity
center
image
phase reference
circular
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP1176130A
Other languages
Japanese (ja)
Other versions
JP2836104B2 (en
Inventor
Akihiko Kanamori
金森 彰彦
Shuichi Sunahara
秀一 砂原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP1176130A priority Critical patent/JP2836104B2/en
Publication of JPH0340182A publication Critical patent/JPH0340182A/en
Application granted granted Critical
Publication of JP2836104B2 publication Critical patent/JP2836104B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PURPOSE:To prevent an attitude detection error by setting a circular window centering center of gravity, finding the center of gravity of the notched part of a body when it exists, and detecting a phase reference line with the center of gravity and notched part center of gravity. CONSTITUTION:The circular window centering the center B of gravity is set on a picture relating to the image recognition of the body, and when the notched part such as a recessed part of the body, etc., exists in the circular window, the notched part centers C1-C5 of gravity that are the centers of gravity of the notched part are found. Then, the phase reference lines L12-L51 are decided with the center B of gravity and the notched part centers C1-C5 of gravity. At this time, since the phase reference lines L12-L51 are straight lines used as axes representing the posture of the body, the posture of the body can be detected even when the body is formed in axial symmetry. Furthermore, since the circular window is set centering the center B of gravity found for an image on which circular masking is applied, the influence of the recognition error of the image of body shape on the decision of the phase reference line can be suppressed. In such a way, the detection error of the attitude can be prevented.

Description

【発明の詳細な説明】 [産業上の利用分野] 本発明は、軸対称物体の姿勢検出を行う物体の姿勢検出
装置に関する。
DETAILED DESCRIPTION OF THE INVENTION [Field of Industrial Application] The present invention relates to an object attitude detection device that detects the attitude of an axially symmetrical object.

[従来の技術] 従来より、物体の姿勢を画像認識により検出する物体の
姿勢検出装置が用いられている。例えば、工業用ロボッ
トを用いて所定形状の物体を把持しようとする場合には
、この物体の置かれた姿勢を検出し、該ロボットの動作
補正を行う必要があり、このような場合においては、該
姿勢を画像認識により検出する物体の姿勢検出装置が好
適である。
[Prior Art] Conventionally, an object attitude detection device has been used that detects the attitude of an object by image recognition. For example, when an industrial robot is used to grasp an object of a predetermined shape, it is necessary to detect the orientation of the object and correct the robot's motion. An object posture detection device that detects the posture by image recognition is suitable.

このような物体の姿勢検出装置としては、例えば特開昭
63−288374号公報に開示された装置がある。
As an example of such an object attitude detection device, there is a device disclosed in Japanese Patent Application Laid-Open No. 63-288374.

この装置においては、物体の姿勢検出は、複数の特徴点
の座標を検出することにより行われる。
In this device, the posture of an object is detected by detecting the coordinates of a plurality of feature points.

この特徴点は、例えば、画像認識に係る画面上での物体
像の重心、該重心に対して最遠の物体輪郭上の一点(最
遠点)、同様に重心に対して最近の物体輪郭上の一点(
最近点)等の点である。特徴点として、これらの点、す
なわち、重心、最遠点及び最近点を用いた場合には、画
像認識に係る物体の「位置」としては重心の座標が、ま
た該物体の「姿勢」としては該最遠点及び最近点の座標
を用いて算出される慣性の主軸方向が、それぞれ採用さ
れる。
This feature point is, for example, the center of gravity of the object image on the screen related to image recognition, a point on the object contour that is farthest from the center of gravity (farthest point), or a point on the object contour that is closest to the center of gravity. One point (
(nearest point) etc. When these points, that is, the center of gravity, the farthest point, and the nearest point, are used as feature points, the coordinates of the center of gravity are used as the "position" of an object related to image recognition, and the "posture" of the object is The directions of the principal axes of inertia calculated using the coordinates of the farthest point and the nearest point are respectively adopted.

このようにして、従来の物体の姿勢検出装置によれば、
物体を画像認識して所定の特徴点座標を検出し、さらに
この特徴点座標を用いて所定の演算を行うことにより、
物体の姿勢を検出することができる。さらに、この従来
例に係る物体の姿勢検出装置により検出された姿勢情報
を物体把持を行う工業用ロボットに供給した場合には、
該情報に基づきより好適な動作補正を行い、物体把持を
行うことか可能となる。
In this way, according to the conventional object attitude detection device,
By image-recognizing the object, detecting predetermined feature point coordinates, and then performing predetermined calculations using these feature point coordinates,
The posture of an object can be detected. Furthermore, when the posture information detected by the object posture detection device according to the conventional example is supplied to an industrial robot that grasps an object,
Based on this information, it becomes possible to perform more suitable motion correction and grasp the object.

[発明が解決しようとする課題] しかしながら、このような構成を有する従来の物体の姿
勢検出装置においては、次のような問題点があった。
[Problems to be Solved by the Invention] However, the conventional object attitude detection device having such a configuration has the following problems.

(1)軸対称形状物体の姿勢特定か不可能一般に、軸対
称形状の物体について、 従来装置により姿勢検出を行おうとすると、画像認識に
係る画面上における重心と、最遠点、最近点等の特徴点
とを結ぶ直線か、所定の基準線に対してなす角 (又はその相対角)である位相を特定することかできず
、該位相により特定される姿勢、例えば慣性主軸方向の
特定か不可能である。
(1) Is it impossible to determine the posture of an axially symmetrical object?Generally, when trying to detect the posture of an axially symmetrical object using conventional equipment, it is difficult to determine the posture of an axially symmetrical object by determining the center of gravity, farthest point, nearest point, etc. on the screen for image recognition. It is not possible to specify the phase, which is a straight line connecting a feature point or an angle (or its relative angle) with a predetermined reference line, and the posture specified by the phase, for example, whether the direction of the principal axis of inertia is specified or not. It is possible.

例えば、円板状物体で、かつ、円周部 に繰り返し凹部かあるような物体においては、最遠点、
最近点か複数個存在する場合があり、慣性主軸方向、す
なわち物体の姿勢が検出できない。
For example, in a disc-shaped object that has repeated concave portions on its circumference, the farthest point,
There may be multiple closest points, and the direction of the principal axis of inertia, that is, the attitude of the object, cannot be detected.

(2)姿勢検出の誤差発生 物体形状の画像認識において誤差が発 生した場合、重心、最遠点、最近点等の特徴点の座標算
出に誤差が発生し、これらの座標を用いて決定する慣性
主軸方向等の物体の姿勢にも、誤差が発生し、従って姿
勢検出精度が確保できない。
(2) Error Occurrence in Posture Detection If an error occurs in the image recognition of the object shape, an error will occur in the coordinate calculation of feature points such as the center of gravity, farthest point, nearest point, etc., and the inertia determined using these coordinates will occur. Errors also occur in the attitude of the object, such as in the direction of the main axis, and therefore attitude detection accuracy cannot be ensured.

本発明は、このような問題点を解決することを課題とし
てなされたものであり、軸対称形状物体の姿勢を、形状
認識誤差の影響防止を行いつつ検出する物体の姿勢検出
装置を提供することを目的とする。
The present invention has been made to solve these problems, and it is an object of the present invention to provide an object posture detection device that detects the posture of an axially symmetrical object while preventing the influence of shape recognition errors. With the goal.

[課題を解決するための手段] 前記目的を達成するために、本発明は、画像認識により
求められた物体の重心を中心とする所定半径の円形領域
であるマスク領域を塗り潰す円形マスク手段と、この塗
り潰し後の画像につきあらためて重心を求め、あらたな
重心を中心とする所定半径の円形領域である円形ウィン
ドウを前記画面上に設定する円形ウィンドウ設定手段と
、この円形ウィンドウ内に、物体の凹部等欠落部の重心
を求める欠落部重心決定手段と、重心及び欠落部重心に
より、所定条件を満たす位相基準線を検出する位相基準
線決定手段と、を有し、物体が軸対称の形状を有する場
合にも、位相基準線を検出して、この物体の姿勢検出を
行うことを特徴とする。
[Means for Solving the Problems] In order to achieve the above object, the present invention provides a circular mask means for filling out a mask area, which is a circular area of a predetermined radius centered on the center of gravity of an object determined by image recognition. , a circular window setting means for recalculating the center of gravity of the image after filling, and setting a circular window, which is a circular area of a predetermined radius around the new center of gravity, on the screen; and a phase reference line determining means for detecting a phase reference line that satisfies a predetermined condition based on the center of gravity and the center of gravity of the missing part, and the object has an axially symmetrical shape. In this case, the phase reference line is also detected to detect the attitude of the object.

[作用] 本発明の物体の姿勢検出装置においては、物体の画像認
識に係る画面上において、重心を中心とする円形ウィン
ドウが設定される。この円形ウィンドウ内に、物体の凹
部等の欠落部がある場合には、この欠落部の重心である
欠落部重心が求められる。そして、前記重心及び欠落部
重心により、位相基準線が決定される。このとき、前記
位相基準線は、物体の姿勢を示す軸として用いつる直線
であって、従って物体が軸対称形状である場合にも、該
物体の姿勢が検出される。さらに、前記円形ウィンドウ
は円形マスク後の画像につき求められた重心を中心とし
て設定されるため、物体形状の画像認識誤差の位相基準
線決定への影響が防止される。
[Operation] In the object posture detection device of the present invention, a circular window centered on the center of gravity is set on the screen related to image recognition of the object. If there is a missing part such as a recess of the object within this circular window, the center of gravity of the missing part, which is the center of gravity of this missing part, is determined. Then, a phase reference line is determined by the center of gravity and the center of gravity of the missing portion. At this time, the phase reference line is a straight line used as an axis indicating the attitude of the object, and therefore, even if the object is axially symmetrical, the attitude of the object is detected. Furthermore, since the circular window is set centered on the center of gravity determined for the image after the circular mask, it is possible to prevent an image recognition error of the object shape from affecting phase reference line determination.

[実施例] 以下、本発明の実施例を図面に基づいて説明する。[Example] Embodiments of the present invention will be described below based on the drawings.

第1図には、本発明の一実施例に係る物体の姿勢検出装
置を用いた自動組立ラインのシステム構成が示されてい
る。
FIG. 1 shows a system configuration of an automatic assembly line using an object attitude detection device according to an embodiment of the present invention.

この図においては、例えば自動車部品等の所定のワーク
10がコンベア等により流されてきたときに、このワー
ク10を撮像するカメラ12が設けられ、該カメラ12
にはワーク10を照明するライト14が付設されている
。すなわち、前記ライト14により照明されたワーク1
0は、前記カメラ12により撮像され、撮像された画像
は、例えばNTSC画像信号として出力される。
In this figure, a camera 12 is provided to take an image of a predetermined workpiece 10 such as an automobile part when it is carried away by a conveyor or the like.
A light 14 is attached to illuminate the workpiece 10. That is, the workpiece 1 illuminated by the light 14
0 is imaged by the camera 12, and the imaged image is output as, for example, an NTSC image signal.

前記カメラ12には、本実施例に係る姿勢検出装置16
が接続され、該装置16には、ロボット18を制御する
ロボット制御装置20が接続されている。
The camera 12 includes an attitude detection device 16 according to the present embodiment.
is connected to the device 16, and a robot control device 20 that controls the robot 18 is connected to the device 16.

すなわち、前記姿勢検出装置16においては、後述する
ように、ワーク10の位置及び姿勢の検出が行われ、該
検出に係る位置及び姿勢データが、前記ロボット制御装
置20に出力される。前記ロボット制御装置20におい
ては、前記姿勢検出装置16における検出に係る位置及
び姿勢データに応じて、ハンド22を有するロボット1
8の制御か行われる。このハンド22は、前記制御に応
じて、前記ワーク22を把持する。
That is, in the posture detection device 16, the position and posture of the workpiece 10 are detected, and the position and posture data related to the detection are output to the robot control device 20, as will be described later. The robot control device 20 controls the robot 1 having the hand 22 according to the position and posture data detected by the posture detection device 16.
8 control is performed. This hand 22 grips the workpiece 22 according to the control.

このように、本実施例に係る姿勢検出装置16を用いた
自動組立ラインにおいては、所定形状を有するワーク1
0が画像認識され、検出されたワク10の位置及び姿勢
にもとづきロボット18が制御され、ハンド22により
ワーク10が把持される。
In this way, in the automatic assembly line using the posture detection device 16 according to this embodiment, the workpiece 1 having a predetermined shape
0 is image-recognized, the robot 18 is controlled based on the detected position and posture of the workpiece 10, and the workpiece 10 is gripped by the hand 22.

第2図には、本実施例に係る姿勢検出装置16の構成が
示されている。
FIG. 2 shows the configuration of the attitude detection device 16 according to this embodiment.

この図においては、前記カメラ12により撮像された画
像に係る画像信号をA/D変換するA/D変換器24に
は、本発明の特徴に係る姿勢検出演算を行うCPU26
が接続されている。
In this figure, an A/D converter 24 that A/D converts an image signal related to an image captured by the camera 12 includes a CPU 26 that performs attitude detection calculation related to the feature of the present invention.
is connected.

すなわち、前記カメラ12により撮像されたワク10の
画像は、NTSC等の画像信号として前記A/D変換器
24に入力され、A/D変換される。このA/D変換の
結果、デジタル化された画像信号は、前記CPU26に
入力され、該CPU26においてはこの画像信号を用い
てワーク10の位置及び姿勢検出か行われる。この、位
置及び姿勢検出に係る前鼻は後に詳細に説明する。
That is, the image of the workpiece 10 captured by the camera 12 is input to the A/D converter 24 as an NTSC or other image signal, and is A/D converted. As a result of this A/D conversion, the digitized image signal is input to the CPU 26, and the CPU 26 uses this image signal to detect the position and orientation of the work 10. The front nose related to position and orientation detection will be explained in detail later.

前記CPU26には、前記A/D変換器24によりデジ
タル化された画像信号をD/A変換してアナログ化する
D/A変換器28が接続され、該D/A変換器28には
、前記カメラ12により撮像された画像を再生するモニ
タ30が接続されている。
A D/A converter 28 is connected to the CPU 26 and converts the image signal digitized by the A/D converter 24 into an analog signal by D/A converting the image signal. A monitor 30 for reproducing images captured by the camera 12 is connected.

すなわち、前記A/D変換器24によりデジタル化され
た画像信号が、前記D/A変換器28により再びアナロ
グの画像信号に変換され、前記モニタ30にカメラ12
の撮像に係る画像すなわちワーク10の画像が再生され
る。
That is, the image signal digitized by the A/D converter 24 is again converted into an analog image signal by the D/A converter 28, and the image signal is displayed on the monitor 30 by the camera 12.
An image related to the imaging, that is, an image of the workpiece 10 is reproduced.

前記CPU26には、さらに、位置及び姿勢検出演算プ
ログラムが格納されたROM32と、位置及び姿勢検出
演算の結果を一時記憶するRAM34と、前記A/D変
換器24によりデジタル化された画像信号に係る画像デ
ータを記憶するビデオRAM36と、が接続されている
The CPU 26 further includes a ROM 32 in which a position and orientation detection calculation program is stored, a RAM 34 that temporarily stores the results of the position and orientation detection calculation, and an image signal related to the image signal digitized by the A/D converter 24. A video RAM 36 for storing image data is connected.

すなわち、前記CPU26においては、前記ROM26
に格納された位置及び姿勢検出演算プログラムに基づい
て、後述のように、ワーク10の位置及び姿勢演算が行
われ、該演算の結果が前記RAM34に格納される。ま
た、前記演算に用いられるデータである前記画像データ
は、前記ビデオRAM3Bに記憶され、必要に応じてC
PU26に読み出される。
That is, in the CPU 26, the ROM 26
As will be described later, the position and orientation of the workpiece 10 are calculated based on the position and orientation detection calculation program stored in the RAM 34, and the results of the calculation are stored in the RAM 34. Further, the image data, which is the data used in the calculation, is stored in the video RAM 3B, and is stored in the video RAM 3B as needed.
It is read out to PU26.

前記CPU26は、前記演算結果を外部出力するインタ
ーフェースである外部機器1/F38に接続され、該外
部機器I/F3gには、該演算結果をパラレル及びシリ
アルデータとして出力するインターフェースであるパラ
レルI/F40及びシリアルI/F42が接続されてい
る。
The CPU 26 is connected to an external device 1/F 38 that is an interface that outputs the calculation results to the outside, and the external device I/F 3g has a parallel I/F 40 that is an interface that outputs the calculation results as parallel and serial data. and serial I/F 42 are connected.

すなわち、前記CPU26において演算されあるいはさ
らに前記RAM34に一時記憶されたワク10の位置及
び姿勢データは、前記外部機器1/F3g及びパラレル
I/F40又はシリアル1/F4’2を介して、外部、
例えば前記ロボット制御装置20に、パラレルデータ又
はシリアルデータとして、出力される。
That is, the position and posture data of the workpiece 10 calculated in the CPU 26 or further temporarily stored in the RAM 34 are transmitted to the outside via the external device 1/F 3g and the parallel I/F 40 or the serial 1/F 4'2.
For example, the data is output to the robot control device 20 as parallel data or serial data.

このように、本実施例に係る姿勢検出装置16において
は、カメラ12により撮像されたワーク10の画像に係
る画像データが、後述の本発明の特徴に係る位置及び姿
勢検出演算に供せられ、ワーク10の位置及び姿勢デー
タが前記ロボット制御装置20に出力される。
As described above, in the posture detection device 16 according to the present embodiment, image data related to the image of the workpiece 10 captured by the camera 12 is subjected to position and posture detection calculations related to the features of the present invention, which will be described later. Position and orientation data of the workpiece 10 are output to the robot control device 20.

次に、第3図ないし第5図を用いて、本実施例に係る姿
勢検出装置16の、本発明の特徴に係る位置及び姿勢検
出演算の動作を説明する。
Next, with reference to FIGS. 3 to 5, the operation of the position and orientation detection calculations of the orientation detection device 16 according to the present embodiment, which is a feature of the present invention, will be explained.

第3図には、本実施例の動作を説明するためのワーク1
0の一形状例が示されている。このワーク10は、第3
図(a)の下面図及び第3図(b)の上面図に示される
ように、円板状の部分に5個1 の凹部か設けられ、側面から見た場合には第3図(C)
に示されるように上下に突出部を有する物体である。
FIG. 3 shows a workpiece 1 for explaining the operation of this embodiment.
An example of a shape of 0 is shown. This work 10 is the third
As shown in the bottom view of Figure (a) and the top view of Figure 3(b), five concave portions are provided in the disc-shaped portion, and when viewed from the side, the disc-shaped portion has five recesses. )
It is an object that has protrusions on the top and bottom as shown in .

第4図には、このワーク10をカメラ12により撮像し
た場合の画像認識に係る画面が示されている。この場合
において、第4図(a)には、鮮明な認識画像が得られ
た場合の該画像が、第4図(b)には、図において矢印
で示される部位に誤認識が発生した場合の画像が示され
ている。
FIG. 4 shows a screen related to image recognition when the work 10 is imaged by the camera 12. In this case, Fig. 4(a) shows the image when a clear recognition image is obtained, and Fig. 4(b) shows the case where erroneous recognition occurs in the part indicated by the arrow in the figure. An image of is shown.

第5図には、本実施例の位置及び姿勢検出演算のアルゴ
リズムか示され、第5図(a)ないしくC)は、第3図
に示される形状のワーク10により例示されている。ま
た、第5図(a)は、第4図(b)のように画像誤認識
が発生した場合の画面、第5図(d)は、位置及び姿勢
検出演算のフローチャートである。
FIG. 5 shows an algorithm for the position and orientation detection calculation of this embodiment, and FIGS. 5(a) to 5(C) are exemplified by a workpiece 10 having the shape shown in FIG. 3. Further, FIG. 5(a) is a screen when image recognition error occurs as shown in FIG. 4(b), and FIG. 5(d) is a flowchart of position and orientation detection calculations.

ここで、第5図(d)の流れに沿って、本実施例の動作
を詳細に説明する。
Here, the operation of this embodiment will be explained in detail along the flow shown in FIG. 5(d).

ます、カメラ12により撮像された第3図に示されるワ
ーク10の画像データより、ワーク10の従来より公知
の方法により重心Aが決定される(100)。この重心
Aは、第5図(a)に示されるように示される点であっ
て、この図のように矢印で示される誤認識発生が伴う場
合には、真の重心からやや偏心した位置の点となる。
First, the center of gravity A of the workpiece 10 is determined by a conventionally known method from the image data of the workpiece 10 shown in FIG. 3 taken by the camera 12 (100). This center of gravity A is the point shown in FIG. 5(a), and if there is an error in recognition as shown by the arrow in this figure, the center of gravity A is a point slightly eccentric from the true center of gravity. It becomes a point.

次に、前記重心Aを中心とする所定半径の円形マスクが
施される(110)。この円形マスクの半径は、予めワ
ーク10の形状に応じて設定された値の半径であり、画
像誤認識が発生しやすいと推定される領域をおおうこと
ができるように設定されている。この半径内の領域(第
5図(b)において破線で示される)が塗り潰される(
いわゆる、マスクされる)と、第5図(b)に示される
ように、前記画像誤認識が発生しやすいと推定される領
域(この例のワーク10においては、中心の突出部近傍
)の境界線が消滅する。
Next, a circular mask having a predetermined radius centered on the center of gravity A is applied (110). The radius of this circular mask is a radius set in advance according to the shape of the workpiece 10, and is set so as to be able to cover an area where it is estimated that image recognition errors are likely to occur. The area within this radius (indicated by the dashed line in Figure 5(b)) is filled in (
As shown in FIG. 5(b), the boundary between the area where it is estimated that the image misrecognition is likely to occur (in the workpiece 10 of this example, near the central protrusion) The line disappears.

第5図(b)に示される円形マスク後の画像について、
あらためて重心が決定される。この重心は、図において
Bとして表される(120)。このあらたな重心Bは、
前記画像誤認識を排除して3 いるため、ワーク10の真の重心に、より近い位置の点
となる。この新たな重心Bは、ワーク10の位置を表す
情報として、前述のように記憶又は出力される。
Regarding the image after the circular mask shown in FIG. 5(b),
The center of gravity is determined again. This center of gravity is represented as B in the diagram (120). This new center of gravity B is
Since the image misrecognition is eliminated, the point is closer to the true center of gravity of the workpiece 10. This new center of gravity B is stored or output as information representing the position of the workpiece 10 as described above.

次に、このあらたな重心Bを中心として、所定半径の円
形ウィンドウが設定される(130)。
Next, a circular window with a predetermined radius is set around this new center of gravity B (130).

この円形ウィンドウは、第5図(b)においては実線の
円として示される。また、円形ウィンドウの半径は、ワ
ーク10の形状に応じて予め設定される量であって、第
3図に示されるこの例の形状のワーク10においては、
例えば円板部の凹部が円形ウィンドウ内に包囲されるよ
うに設定される。
This circular window is shown as a solid circle in FIG. 5(b). Further, the radius of the circular window is a preset amount depending on the shape of the workpiece 10, and in the workpiece 10 having the shape of this example shown in FIG.
For example, the concave portion of the disc portion is set to be surrounded within a circular window.

次に、前記円形ウィンドウ内に包囲された凹部の重心C
1−C5が演算決定される(140)。
Next, the center of gravity C of the recess enclosed within the circular window
1-C5 is calculated and determined (140).

さらに、これらの重心C1〜C5の隣接するそれぞれを
結ぶ直線Ll−L5が描かれ(150)、これらの直線
 L  −L  の中点D12〜D51が演5 算決定され(160) 、前記重心Bとこの中点D12
〜D51とを結ぶ直線L12〜”51が描かれる(17
0)。
Furthermore, a straight line Ll-L5 connecting each of the adjacent centers of gravity C1 to C5 is drawn (150), and midpoints D12 to D51 of these straight lines L-L are determined by calculation (160), and the center of gravity B Midpoint D12
A straight line L12~”51 connecting ~D51 is drawn (17
0).

そして、前記直線L1□〜”51のなす角α1〜α が
演算され(180) 、この角α1〜α5によりワーク
10の姿勢が判定される(190)。
Then, the angles α1 to α formed by the straight lines L1□ to “51 are calculated (180), and the posture of the workpiece 10 is determined based on these angles α1 to α5 (190).

すなわち、第5図(C)に示されるように、前記角α1
〜α5は、それぞれ凹部(重心がC1〜C5で表される
)を臨む角であって、ワーク10の円周上における凹部
繰り返しの位相を示す角である。このため、例えば、前
記凹部が等間隔(72°)で設けられている場合には、
前記角α 〜 α5のうち最も72°に近い角度をなす
2つの角により定まる直線(前記直線Ll。〜L5□の
うち−)を位相基準線として検出し、この直線の指向方
向により、ワーク10の姿勢判定が行われる。
That is, as shown in FIG. 5(C), the angle α1
~α5 are angles facing the recesses (centers of gravity are represented by C1 to C5), respectively, and are angles indicating the phase of recess repetition on the circumference of the workpiece 10. Therefore, for example, if the recesses are provided at equal intervals (72°),
A straight line defined by the two angles closest to 72° among the angles α to α5 (− of the straight line Ll to L5□) is detected as a phase reference line, and the direction of the workpiece 10 is determined by the orientation direction of this straight line. The posture is determined.

このように、本実施例に係る姿勢検出装置16によれば
、第3図に示されるような軸対称形状のワーク10につ
いても、姿勢検出を行うことができる。すなわち、凹部
の重心C1〜C5が円形ウィンドウの設定により決定さ
れ、位相基準線が決定される。この位相基準線(L 1
□〜”51のうち−)5 は、ワーク10の姿勢を示す軸として用いつる直線であ
るため、ワーク10の姿勢検出が可能となる。
In this way, according to the attitude detection device 16 according to this embodiment, the attitude can be detected even for the workpiece 10 having an axially symmetrical shape as shown in FIG. That is, the centers of gravity C1 to C5 of the recesses are determined by setting the circular window, and the phase reference line is determined. This phase reference line (L 1
□~''51 -)5 is a vine straight line used as an axis indicating the attitude of the work 10, so the attitude of the work 10 can be detected.

また、本実施例によれば、カメラ12により撮像された
画像に第4図(b)に示されるような誤認識が発生して
いる場合にも、円形マスクにより真の重心に近い点を重
心Bとして求めることができ、この重心Bにもとづいて
円形ウィンドウ設定及び位相基準線検出が行われるため
、画像誤認識による位相基準線決定の誤差発生が防止さ
れる。
Furthermore, according to the present embodiment, even if an erroneous recognition as shown in FIG. Since the circular window setting and phase reference line detection are performed based on this center of gravity B, errors in determining the phase reference line due to erroneous image recognition are prevented from occurring.

なお、本実施例においては、複数の凹部につきすべての
欠落部重心を求める構成が示されているが、いずれか一
つの凹部についてのみ該重心を求める構成でもかまわな
い。この場合には、すべての凹部につき欠落部重心を求
める場合に比べ、重心Bに係る誤差による位相基準線決
定への誤差が大であるが、前述の軸対称物体についての
姿勢検出及び円形マスクによる誤差防止の効果は、同様
に得ることが可能である。
Although this embodiment shows a configuration in which the center of gravity of all the missing parts is determined for a plurality of recesses, a configuration in which the center of gravity of only one of the recesses is determined may also be used. In this case, the error in determining the phase reference line due to the error related to the center of gravity B is large compared to the case where the center of gravity of the missing part is determined for all recesses. The effect of error prevention can be obtained in the same way.

[発明の効果] 6 以上説明したように、本発明によれば、軸対称の形状を
有する物体についても姿勢検出を行うことができ、さら
に画像誤認識による姿勢検出誤差の発生を防止すること
ができる。
[Effects of the Invention] 6 As explained above, according to the present invention, it is possible to detect the posture of an object having an axially symmetrical shape, and furthermore, it is possible to prevent the occurrence of posture detection errors due to erroneous image recognition. can.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は、本発明の一実施例に係る物体の姿勢検出装置
を用いた自動組立ラインのシステム構成図、 第2図は、この実施例の構成を示す構成図、第3図は、
本実施例の動作を説明するための物体形状の一例を示す
物体形状図であって、第3図(a)は、その下面図、第
3図(b)は、その上面図、第3図(c)は、側面図、 第4図は、第3図の物体の画像認識に係る画面図であっ
て、第4図(a)は、良好な画像認識に係る画面図、第
4図(b)は、画像誤認識発生時の画面図、 第5図は、本実施例の動作を示す動作図であって、第5
図(a)は、画像認識に係る画面図、第5図(b)は、
円形マスク及び円形ウィンドウを施した画面を示す画面
図、第5図(c)は、位相基準線決定に係るアルゴリズ
ムを示す画面図、第5図(d)は、本実施例の位置及び
姿勢検出演算の流れを示すフローチャート図である。 10 ・・・ ワーク 16 ・・・ 姿勢検出装置 26 ・・・ CPU 32 ・・・ ROM
FIG. 1 is a system configuration diagram of an automatic assembly line using an object attitude detection device according to an embodiment of the present invention, FIG. 2 is a configuration diagram showing the configuration of this embodiment, and FIG.
3(a) is a bottom view thereof, FIG. 3(b) is a top view thereof, and FIG. (c) is a side view; FIG. 4 is a screen diagram related to image recognition of the object in FIG. 3; FIG. 4(a) is a screen diagram related to good image recognition; b) is a screen diagram when image recognition error occurs, and FIG. 5 is an operation diagram showing the operation of this embodiment.
Figure (a) is a screen diagram related to image recognition, and Figure 5 (b) is
A screen diagram showing a screen with a circular mask and a circular window, FIG. 5(c) is a screen diagram showing an algorithm related to phase reference line determination, and FIG. 5(d) is a screen diagram showing the position and orientation detection of this embodiment. FIG. 3 is a flowchart showing the flow of calculations. 10... Workpiece 16... Posture detection device 26... CPU 32... ROM

Claims (1)

【特許請求の範囲】 物体を画像認識し、画像認識に係る画面上でのこの物体
の重心を求める重心決定手段を有する物体の姿勢検出装
置において、 前記重心決定手段により求められた重心を中心とする所
定半径の円形領域であるマスク領域を塗り潰す円形マス
ク手段と、 前記円形マスク手段により塗り潰された後の画像につい
てあらためて重心を求め、あらたな重心を中心として、
所定半径の円形領域である円形ウィンドウを前記画面上
に設定する円形ウィンドウ設定手段と、 前記円形ウィンドウ内に前記物体の凹部等の欠落部があ
る場合には、この欠落部の重心である欠落部重心を求め
る欠落部重心決定手段と、 前記重心及び欠落部重心により、所定条件を満たす直線
である位相基準線を検出する位相基準線決定手段と、 を有し、 前記物体が軸対称の形状を有する場合にも、前記位相基
準線を検出して、この物体の姿勢検出を行うことを特徴
とする物体の姿勢検出装置。
[Scope of Claims] An object attitude detection device comprising a center of gravity determination means for image recognition of an object and determining the center of gravity of the object on a screen related to image recognition, wherein the center of gravity determined by the center of gravity determination means is a circular masking means for filling in a mask area, which is a circular area with a predetermined radius; recalculating the center of gravity of the image after being filled in by the circular masking means;
circular window setting means for setting a circular window, which is a circular area with a predetermined radius, on the screen; and when there is a missing part such as a recess of the object in the circular window, a missing part that is the center of gravity of the missing part; missing part gravity center determining means for determining the center of gravity; and phase reference line determining means for detecting a phase reference line that is a straight line that satisfies a predetermined condition from the center of gravity and the missing part gravity center, and the object has an axially symmetrical shape. An apparatus for detecting an attitude of an object, characterized in that even when the object has an object, the attitude of the object is detected by detecting the phase reference line.
JP1176130A 1989-07-07 1989-07-07 Object posture detection device Expired - Fee Related JP2836104B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1176130A JP2836104B2 (en) 1989-07-07 1989-07-07 Object posture detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1176130A JP2836104B2 (en) 1989-07-07 1989-07-07 Object posture detection device

Publications (2)

Publication Number Publication Date
JPH0340182A true JPH0340182A (en) 1991-02-20
JP2836104B2 JP2836104B2 (en) 1998-12-14

Family

ID=16008186

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1176130A Expired - Fee Related JP2836104B2 (en) 1989-07-07 1989-07-07 Object posture detection device

Country Status (1)

Country Link
JP (1) JP2836104B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0754427A (en) * 1992-04-28 1995-02-28 Hokushiyou Kensetsu:Kk Construction method of wall and device thereof
JP2007333647A (en) * 2006-06-16 2007-12-27 Toyama Univ Image processing method, device, and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0754427A (en) * 1992-04-28 1995-02-28 Hokushiyou Kensetsu:Kk Construction method of wall and device thereof
JP2007333647A (en) * 2006-06-16 2007-12-27 Toyama Univ Image processing method, device, and program

Also Published As

Publication number Publication date
JP2836104B2 (en) 1998-12-14

Similar Documents

Publication Publication Date Title
JP3242108B2 (en) Target mark recognition and tracking system and method
EP0497477A2 (en) Method of and apparatus for inspecting end of object for defect
US5345675A (en) Method of mounting wheel to vehicle
US5452370A (en) Image processing apparatus
JPH0340182A (en) Body attitude detector
JP3747800B2 (en) Skill improvement support device
JP2995127B2 (en) How to recognize circular holes
JPH06270083A (en) Work position detector
JP2913370B2 (en) Optical position measurement method
JPH08110206A (en) Method and apparatus for detecting position and posture
JPH04269194A (en) Plane measuring method
KR0167585B1 (en) Position recognizing method
JP2932418B2 (en) Work position measurement method
JP4207327B2 (en) Rotation position detector
JP3353437B2 (en) Image tracking device
JP2897612B2 (en) Work detection method
JPH04321185A (en) Image processing method
JPH0268678A (en) External appearance checking device
JPH0599622A (en) Calibration device employing rotating mechanism for camera
JPH01276003A (en) Position recognizing method for minute parts
JPH01259204A (en) Three-dimensional automatic position detecting device
CN112861563A (en) Sitting posture detection method and system
JPH076774B2 (en) Three-dimensional shape measuring device by optical cutting method
JPH0196504A (en) Measuring instrument for three-dimensional object
JPS62148190A (en) Actual length conversion system of visual sensor

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees