JPH0844872A - Multidirectionally illuminating object recognizing device - Google Patents

Multidirectionally illuminating object recognizing device

Info

Publication number
JPH0844872A
JPH0844872A JP6178816A JP17881694A JPH0844872A JP H0844872 A JPH0844872 A JP H0844872A JP 6178816 A JP6178816 A JP 6178816A JP 17881694 A JP17881694 A JP 17881694A JP H0844872 A JPH0844872 A JP H0844872A
Authority
JP
Japan
Prior art keywords
matching
image
recognition
boundary
illumination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP6178816A
Other languages
Japanese (ja)
Inventor
Yasushi Teraoka
裕史 寺岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toppan Inc
Original Assignee
Toppan Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toppan Printing Co Ltd filed Critical Toppan Printing Co Ltd
Priority to JP6178816A priority Critical patent/JPH0844872A/en
Publication of JPH0844872A publication Critical patent/JPH0844872A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Input (AREA)

Abstract

PURPOSE:To prevent a wrong recognition and to improve the pattern recognition performance by performing an exact identification by adding rotary state transition information to image data expressing an object. CONSTITUTION:A target object is illuminated in four directions of X, Y, Z and camera, and when recognizing that object while using a gradation image provided by this illumination, sometimes, plural candidates are remained even after two stages of matching, that is, matching 1 paying attention on surface connection relation and matching 2 for inputting shape data, are executed. Then, when changing the attitude of the object, one more input image is further fetched and matching is continued (matching 3). At such a time, in order to change the attitude of the object, a turn table mounting the object is turned 180 deg. and concerning each candidate, it is checked whether the attitudes before and after the turn belong to the same group or not. Thus, by introducing the rotary state transition information, the pattern recognition of the object is made possible without being affected by the difference of the attitude.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、物体を認識するパター
ン認識装置、詳しくは多方向照明物体認識装置に関す
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a pattern recognition device for recognizing an object, and more particularly to a multidirectional illuminated object recognition device.

【0002】[0002]

【従来の技術】従来より、パターン認識装置として数多
く装置が考案されてきた。しかし、いずれの装置にあっ
ても完全なパターン認識を行うことは期待することがで
きず、それぞれに一長一短があるというのが現状であ
る。その中で、「4方向照明法」と呼ばれる多方向照明
物体認識装置は、きわめて簡素な構成で、多角体の物体
認識に有効である。以下に、4方向照明法の概略を記
す。
2. Description of the Related Art Many devices have been devised as pattern recognition devices. However, it is not possible to expect complete pattern recognition in any of the devices, and each device has its advantages and disadvantages at present. Among them, the multi-directional illuminated object recognition device called “four-direction illumination method” has an extremely simple configuration and is effective for object recognition of a polygon. The outline of the four-direction illumination method will be described below.

【0003】4方向照明法とは、対象物体に対し、x,
y,z、および、カメラの4方向からの照明を与え、こ
の照明により得られた濃淡画像を用いてその認識を行う
ものである。原理的には、x,y,z方向からの照明に
よる三枚の画像を重ね合わせるだけで、簡単に画方向を
判別できる。しかし、実際問題として対象物体に生じる
「影」の問題を解決するため、カメラ方向からの照明に
よる画像も必要となる。図1にカメラと照明の位置関
係、照明方法を示す。そして、4方向照明法による物体
認識の全体の処理の流れを、図2に示し、以下に各々の
処理について説明する。
The four-direction illumination method is such that x,
Illumination from four directions of y, z, and the camera is applied, and the grayscale image obtained by this illumination is used for recognition. In principle, the image direction can be easily determined by superimposing three images by illumination from the x, y, and z directions. However, in order to solve the problem of "shadow" that occurs in the target object as a practical problem, an image by illumination from the camera direction is also necessary. FIG. 1 shows the positional relationship between the camera and the lighting and the lighting method. The flow of the entire process of object recognition by the four-direction illumination method is shown in FIG. 2, and each process will be described below.

【0004】まず、濃淡画像の入力、2値化を行い、面
方向の判別を行う。すなわち、x,y,Z、カメラの各
方向からの照明で得られる濃淡画像を、あるスレッショ
ルド・レベル(しきい値)を設けることによって2値化
し(S201)、各々の照明によって抽出される面に対
してそれぞれ1、2、4、8の値を与える。これら4枚
の2値画像を重ねることによって画方向が判別できる
(S202)。画方向は0から8までの値を取るが、そ
の物理的意味は、図3に示すとおりである。
First, a grayscale image is input and binarized to determine the surface direction. That is, a grayscale image obtained by illumination from x, y, Z, and each direction of the camera is binarized by setting a threshold level (threshold value) (S201), and a surface extracted by each illumination is displayed. Are given values of 1, 2, 4, and 8, respectively. The image direction can be determined by superimposing these four binary images (S202). The image direction takes a value from 0 to 8, and its physical meaning is as shown in FIG.

【0005】次に、領域の名前付けを行う(S20
3)。すなわち、画方向の判別で得られた画方向画面に
対し、同一の面方向を持つ領域に名前を付ける(例えば
アルファベットを用いる)。この際、直方体等の稜線付
近に現れやすい小領域の処理を行い、これを除去するこ
とによって誤認識を防ぐ。こうして得られた画面を名前
づけ面と呼ぶ。
Next, the area is named (S20).
3). That is, a region having the same surface direction is named in the image orientation screen obtained by the image orientation determination (for example, alphabets are used). At this time, a small area that is likely to appear near the ridgeline of a rectangular parallelepiped or the like is processed and removed to prevent erroneous recognition. The screen thus obtained is called a naming surface.

【0006】次に、境界の傾きの判別を行う(S20
4)。中心を除く3×3の環状ウインドウを全画面に対
して操作させ、ウインドウ中に現れるパターンを見るこ
とにより、隣接2領域の境界かどうかを判別する。境界
であると判別されたときは、その傾きを図4に示す8種
類に分類する。
Next, the boundary inclination is determined (S20).
4). A 3 × 3 circular window excluding the center is operated on the entire screen, and the pattern appearing in the window is observed to determine whether it is the boundary between two adjacent areas. When it is determined that it is a boundary, the inclination is classified into eight types shown in FIG.

【0007】次に、面接続関係の判別を行う(S20
5)。隣接2領域の接続関係は、図5のように分類され
る。これを面接続関係と呼ぶ。面接続関係は4方向照明
法による物体認識において重要な概念である。面接続関
係は、2面の面方向と境界の傾きがわかると、面接続関
係判別表により簡単に知ることができる。面接続関係判
別表とは、画像上で隣接する2領域の面方向、境界線の
傾き、面接続関係(+、−、Nなど)を表の形にまとめ
たものをいう。図6にその例として、凸関係判別表を示
す。凹凸両面接続関係判別表に載っていない組合せに対
しては、非隣接関係表と判別される。
Next, the surface connection relationship is determined (S20).
5). The connection relationship between two adjacent regions is classified as shown in FIG. This is called a surface connection relationship. The surface connection relation is an important concept in object recognition by the four-direction illumination method. The surface connection relationship can be easily known from the surface connection relationship determination table when the surface direction of the two surfaces and the inclination of the boundary are known. The surface connection relation determination table is a table in which the surface directions of two areas adjacent to each other on the image, the inclination of the boundary line, and the surface connection relations (+, −, N, etc.) are summarized in the form of a table. FIG. 6 shows a convex relationship discrimination table as an example. Combinations not listed in the concave-convex double-sided connection relation determination table are determined as non-adjacent relation tables.

【0008】次に、境界の性質の判別を行う(S20
6)。2値化処理画像は、以後の処理を簡略化するとい
う意味では有効であるが、その分情報量が減り、図7の
ような場合、直方体の境界(真の境界)と円柱の擬似境
界とを区別することができない。そこで、境界付近に限
り、濃淡レベルの変化を調べることによって境界の性質
(急な境界−Sharpか緩やかな境界−Dull)を
判別する。例えば、図7のような場合、境界部分におけ
る境界の外側の濃淡のレベルの差をD1、境界の内側の
濃淡レベルの差をD2とすると、D1、D2の関係によ
って図8のように境界の性質が定まる。
Next, the nature of the boundary is determined (S20).
6). The binarized image is effective in that it simplifies the subsequent processing, but the amount of information is reduced by that amount, and in the case of FIG. 7, there is a boundary (true boundary) of a rectangular parallelepiped and a pseudo boundary of a cylinder. Cannot be distinguished. Therefore, the nature of the boundary (a steep boundary-Sharp or a gentle boundary-Dull) is discriminated by examining the change in the gray level only near the boundary. For example, in the case of FIG. 7, assuming that the difference in the gray level outside the boundary in the boundary portion is D1 and the difference in the gray level inside the boundary is D2, the boundary of the boundary is changed as shown in FIG. 8 depending on the relationship between D1 and D2. The nature is fixed.

【0009】次に、相互隣接3領域の作成を行う(S2
07)。相互隣接3領域、すなわち三つの隣接する領域
の組合せを考える。相互隣接3領域の種類は、それを構
成する各々の隣接2領域の面接続関係(+、−、N)と
境界の性質(S、D、U)によって組合せ論的に決定さ
れる。また、相互隣接3領域をなさない隣接2領域に対
しては、孤立隣接2領域として定義する。
Next, three areas adjacent to each other are created (S2).
07). Consider three regions adjacent to each other, ie a combination of three adjacent regions. The types of the three regions adjacent to each other are determined combinatorially depending on the surface connection relation (+,-, N) and the property (S, D, U) of the boundary of the respective adjacent two regions forming the region. Further, two adjacent areas that do not form three mutually adjacent areas are defined as isolated adjacent two areas.

【0010】次に、物体の認識を行う(S208)。物
体の認識は、(S207)で述べた特定のタイプの相互
隣接3領域を捜し出すことを基本にして行う。さらに、
相互隣接3領域をもとに作成された画接続グラフと、そ
れを分解したものを用いて複雑な物体を認識する。画接
続グラフとは、物体の形状表現を行うための表記法の一
つであり、各領域間(A,B,C,......)を画
接続関係(+、−、N)、境界の性質(S、D、U)と
いった情報で結びつけたものをいう。面接続グラフは、
相互隣接3領域及び孤立隣接2領域に分解し、そのタイ
プ番号(例:1−1*2)と、各々つながり方、すなわ
ち共有関係(例:POINT. S.CONC)という
形でコンピュータ(記憶装置)に記憶させる。
Next, the object is recognized (S208). The recognition of the object is performed on the basis of finding the mutually adjacent three regions of the specific type described in (S207). further,
A complex object is recognized by using an image connection graph created based on three mutually adjacent regions and a decomposed one. The image connection graph is one of the notations for expressing the shape of an object, and the image connection relationship (+,-, N) between regions (A, B, C, ...). , Bounded by information such as boundary properties (S, D, U). The surface connection graph is
A computer (storage device) is decomposed into three areas adjacent to each other and two areas adjacent to each other, and their type numbers (eg: 1-1 * 2) and their connection, that is, a shared relationship (eg: POINT.S.CONC). ).

【0011】以上のように、4方向照明法によって得ら
れる濃淡画像から、面接続グラフを作成、さらに分解表
記することによって、対象物体を構成する部分物体の認
識が可能になる。図9に面接続グラフによる認識例を示
す。
As described above, it is possible to recognize the partial objects constituting the target object by creating the surface connection graph from the grayscale image obtained by the four-direction illumination method and further expressing the surface connection graph. FIG. 9 shows an example of recognition by the surface connection graph.

【0012】[0012]

【発明が解決しようとする課題】しかしながら、このよ
うな従来技術では、物体認識を困難にする因子として、
同じ物体でも姿勢を変えると面接続関係が変化してしま
う場合がある。そこで、物体の姿勢の変化に対応するた
め、見える面の組み合せによって、姿勢を8通り(DI
R=1〜8)に分類し、そのすべてをその物体の見え方
として、データの形で持つ。
However, in such a conventional technique, as a factor that makes object recognition difficult,
If the posture of the same object is changed, the surface connection relationship may change. Therefore, in order to respond to changes in the posture of the object, there are eight postures (DI
R = 1 to 8), and all of them are in the form of data as the appearance of the object.

【0013】姿勢を表すパラメータDIRが1から8ま
での値を取るのは、以下の理由による。直方体をITV
カメラで見た場合を考えると、見えるのは、図10に示
すように面の方向が1か11かの一方、2か12かの一
方、4か14かの一方の3つの互いに垂直な方向に限ら
れる。したがって、見える3つの面方向の組合せから得
られる異なった姿勢は、8通りしかないことになる。
The reason why the parameter DIR representing the posture takes a value from 1 to 8 is as follows. A rectangular parallelepiped is ITV
Considering the case of viewing with a camera, as shown in FIG. 10, it is possible to see three mutually perpendicular directions in which the direction of the surface is 1 or 11, 1 or 2, 12 or 4 or 14. Limited to Therefore, there are only eight different postures that can be obtained from the combination of the three visible surface directions.

【0014】したがって、本方式による問題点は、画像
入力処理で、姿勢の変化に対して誤った面接続関係表を
作成してしまったり、正確な物体の同定を行えない点で
ある。
Therefore, a problem with this method is that in the image input processing, an incorrect surface connection relation table is created for a change in posture, or an accurate object cannot be identified.

【0015】そこで、本発明は、誤認識を防止し、正確
な物体の同定を行なうことによりパターン認識装置の性
能の飛躍的な向上を行なうことを目的としている。
Therefore, it is an object of the present invention to prevent erroneous recognition and to improve the performance of a pattern recognition apparatus by identifying a correct object.

【0016】[0016]

【課題を解決するための手段】このため、本発明では、
「回転状態遷移情報」を導入する。すなわち、対象物体
に対して、X、Y、Zの3軸座標方向にカメラ方向を加
えた照明を与える照明手段と、この照明手段により照明
された対象物体の濃淡画像を得る画像取得手段と、この
濃淡画像に基いて面を得る面取得手段と、この面を単位
に対象物体を認識する認識手段とを備えた多方向照明物
体認識装置において、物体を表す画像データに回転状態
遷移情報を付加する手段を有する多方向照明物体認識装
置である。回転状態遷移情報とは、対象物体を180°
回転させたときに得られる面情報のことである。
Therefore, in the present invention,
Introduce "rotation state transition information". That is, an illuminating unit that gives illumination to the target object by adding the camera direction to the three-axis coordinate directions of X, Y, and Z, and an image acquiring unit that obtains a grayscale image of the target object illuminated by the illuminating unit, In a multi-directional illuminated object recognition device including a surface acquisition means for obtaining a surface based on this grayscale image and a recognition means for recognizing a target object in units of this surface, rotation state transition information is added to image data representing the object. A multi-directional illuminated object recognition device having a means for performing. The rotation state transition information is the target object 180 °
It is the surface information obtained when rotating.

【0017】[0017]

【作用】本発明において、多方向照明物体認識装置は、
物体を表す画像データについて、回転状態遷移情報を利
用するので、姿勢の変化に対しても十分対応でき、従来
困難であった物体の同定をほぼ完全に可能とする。
In the present invention, the multi-directional illuminated object recognition device is
Since the rotation state transition information is used for the image data representing the object, it is possible to sufficiently deal with the change in the posture, and it is possible to almost completely identify the object, which was difficult in the past.

【0018】[0018]

【実施例】次に、本発明の一実施例にかかる回転状態遷
移情報を利用した多方向照明物体装置を詳細に説明す
る。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Next, a multi-directional illuminated object device using rotational state transition information according to an embodiment of the present invention will be described in detail.

【0019】図1に示すように、ハードウエア構成は、
4方向照明法装置と同じであり、マイクロコンピュー
タシステムと、画像入出力システムと、照明システ
ムとを備えて構成されている。また、本装置では、マ
イクロコンピュータシステムで実行されるソフトウエア
も4方向照明法で必要なものを備えているものとする
(図2〜図9参照)。すなわち、濃淡画像の入力・2値
化(S201)、面方向判別(S202)、領域の名前
付け(S203)、境界の傾き判別(S204)、面接
続関係判別(S205)、境界の性質判別(S20
6)、相互隣接3領域の作成(S207)、および、物
体の認識(S208)である。
As shown in FIG. 1, the hardware configuration is as follows.
It is the same as the four-direction illumination method device, and is configured by including a microcomputer system, an image input / output system, and an illumination system. Further, in this apparatus, it is assumed that the software executed by the microcomputer system also includes the software required for the four-direction illumination method (see FIGS. 2 to 9). That is, input / binarization of grayscale image (S201), face direction determination (S202), region naming (S203), boundary inclination determination (S204), surface connection relation determination (S205), boundary property determination ( S20
6), creation of three mutually adjacent areas (S207), and recognition of an object (S208).

【0020】本発明では、面接続関係データとして、マ
ッチングデータを作成する。マッチングデータは、相互
隣接3領域、孤立隣接2領域間の接続関係を分類し、構
造化したもので、ダミー・データもふくむ。
In the present invention, matching data is created as the surface connection relation data. The matching data is structured by classifying and structuring the connection relationships between the three areas adjacent to each other and the two areas adjacent to each other, and includes dummy data.

【0021】図11における入力画像を考えてみる。4
方向照明法による領域名前付け等の処理を経て得られる
のがこの入力画像である。この入力画像(a)は、モデ
ルとして予め用意してあったがNo.3,No.4,N
o.5の3つのタイプの物体から得ることができる。つ
まり、領域併合を起こしているのか(No.4,No.
5の場合)、それとも起こしていないのか(No.3の
場合)、入力画像(a)の情報だけでは判別できない。
そして、原理的にその判別は不可能である。入力画像
は、3次元の物体を2次元の画像情報に落としているの
だから当然情報損失が起きる。2次元の画像情報から3
次元物体を完全に復元することはできないのである。従
来の領域併合に関する研究は、2次元画像情報から3次
元物体の復元をいかに行うかという姿勢を貫いていた。
しかし、完全な復元は不可能である。
Consider the input image in FIG. Four
This input image is obtained through processing such as area naming by the directional illumination method. This input image (a) was prepared in advance as a model, but No. 3, No. 4, N
o. It can be obtained from three types of objects. In other words, is region merging occurring (No. 4, No.
In the case of No. 5), or whether it has not occurred (in the case of No. 3), it is not possible to determine only by the information of the input image (a).
And, in principle, the discrimination is impossible. In the input image, information loss naturally occurs because a three-dimensional object is converted into two-dimensional image information. 3 from 2D image information
The dimensional object cannot be completely restored. The conventional research on area merging has been based on the attitude of how to restore a three-dimensional object from two-dimensional image information.
However, a complete restoration is impossible.

【0022】ところで、認識対象物体についても、深く
考慮しておく必要がある。本発明で扱う対象物体は、直
方体の組み合わせによってできている。しかし、一口に
直方体の組み合わせと言ってもその種類は理論的には無
限に考えられる。
By the way, the object to be recognized also needs to be carefully considered. The target object handled in the present invention is made of a combination of rectangular parallelepipeds. However, even if it is called a combination of rectangular parallelepipeds, the types are theoretically infinite.

【0023】本発明では、問題の本質を明確化する意味
で、対象をさらに絞り、「二つの直方体の組み合わせ」
によって得られる物体の幾何学的特色の考慮とその認識
を行う。この処理を図21を参考にして説明する。
In the present invention, in order to clarify the essence of the problem, the target is further narrowed down to a "combination of two rectangular parallelepipeds".
The geometrical characteristics of the object obtained by the method are considered and recognized. This process will be described with reference to FIG.

【0024】二つの直方体の接合によってできる物体を
決定するには、各々の直方体の三方向の長さ、及び接合
状態を表す2つのパラメータの合計8つのパラメーター
があればよい。(図12)。
In order to determine an object formed by joining two rectangular parallelepipeds, the total length of the three parallelepipeds of each rectangular parallelepiped, and the two parameters representing the joining state, must be eight parameters in total. (FIG. 12).

【0025】この八つのパラメーターの組み合せ的な場
合分けによって二つの直方体の接合によってできる物体
の数は54通りとなるが、同じ物体の姿勢を変化させて
入力している重複がある。
By combining the eight parameters in combination, the number of objects formed by joining two rectangular parallelepipeds is 54, but there are overlaps when the postures of the same object are changed.

【0026】そこで、幾何学的性質に着目し、このよう
な重複した物体を一まとめのタイプとすると、物体は1
5のタイプに分類できることがわかる。15のタイプを
さらに分類していく上でその指標として、接合指数(S
etting Parameter)S値というものを
導入する。
Therefore, if attention is paid to the geometrical properties and such overlapping objects are grouped together, the object is 1
It can be seen that they can be classified into 5 types. As an index for further classifying the 15 types, the junction index (S
Introducing what is called an S parameter.

【0027】二つの直方体REC〔1〕とREC〔2〕
との接合で出来る物体を考えた時のREC〔2〕側の接
合面は直方体であり、当然四つの互いに平行な辺があ
る。接合によって、この四つの辺のうちREC〔1〕の
辺と一致し、その結果、辺として全長にわたって消滅し
てしまうものの数Sを接合指数(S値)と定義する。
Two rectangular parallelepiped bodies REC [1] and REC [2]
The joint surface on the REC [2] side when considering an object that can be joined with is a rectangular parallelepiped, and naturally has four parallel sides. The number S of the four sides that coincide with the side of REC [1] due to joining and disappear as a result over the entire length is defined as a joining index (S value).

【0028】S={0,1,2,3,4}となるのは自
明であろう。接合指数(S値)で15のタイプを分類し
てみると、図13のような結果を得る。図14に15の
タイプ物体を図示する。
It will be obvious that S = {0, 1, 2, 3, 4}. When 15 types are classified by the bonding index (S value), the result as shown in FIG. 13 is obtained. FIG. 14 illustrates 15 type objects.

【0029】図14を見ると、高いS値4,3,2を持
つ物体は、非常に少ないことがわかる。S値は、二直方
体間の接合の整合性の一面を表わす指標であるから、整
合性が高く、接続条件が厳しくなる高いS値の物体のタ
イプ数が少ないのは当然であろう。
It can be seen from FIG. 14 that very few objects have high S values 4, 3, and 2. Since the S value is an index showing one aspect of the consistency of the junction between the two rectangular parallelepipeds, it is natural that the number of types of objects having a high S value and having a high consistency and a severe connection condition is small.

【0030】反対に、低いS値1,0をもつ物体は、タ
イプ数で全体の73%(11/15)、場合分けののべ
数で全体の68%(37/54)を占めている。これ
は、まったくランダムに二つの直方体を抽出して、ラン
ダムに接合した場合、S値の期待値が低い値になるとい
う事実と合致する。それだけ低いS値の物体の自由度は
大きいと言える。
On the contrary, an object having a low S value of 1,0 occupies 73% (11/15) of the total number of types, and 68% (37/54) of the total number of cases. . This agrees with the fact that the expected S value becomes a low value when two rectangular parallelepipeds are extracted at random and joined randomly. It can be said that the degree of freedom of an object having such a low S value is large.

【0031】その意味で、高いS値4,3,2を持つ四
つのタイプは人為的な操作を多く加え、接合の拘束条件
を厳しくして出来た物体であり、複雑な直方体複合物体
のサブ・ユニットとして位置付けることができる。そこ
で、本発明では、S値が4,3,2の四つのタイプと、
S値0のうち一つのタイプの合わせて5つのタイプを物
体認識対象として限定する。(図15)。
In that sense, the four types having high S-values 4, 3, and 2 are objects that have been subjected to a lot of artificial operations and strict conditions for joining, and are sub-objects of complex rectangular parallelepiped compound objects. -Can be positioned as a unit. Therefore, in the present invention, four types having S values of 4, 3 and 2 are provided.
A total of five types of S values of 0 are limited to object recognition targets. (FIG. 15).

【0032】従来の多方向照明法では、認識物体の入力
画像を一枚取り込んでマッチングを行っただけでは、物
体のタイプを限定できない場合がある。つまり、面接続
関係に着目したマッチング1と形状データを入力するマ
ッチング2と二段階のマッチングを行っても複数個の候
補が残ってしまうことがあるのである。そこで、物体の
姿勢を変化させる時に、入力画像ももう一枚取り込んで
マッチングを継続する。(マッチング3)。
In the conventional multi-directional illumination method, there are cases where the type of the object cannot be limited only by capturing one input image of the recognized object and performing matching. That is, a plurality of candidates may remain even if two-step matching is performed with the matching 1 focusing on the surface connection relationship and the matching 2 for inputting shape data. Therefore, when the posture of the object is changed, another input image is captured and matching is continued. (Matching 3).

【0033】物体のの姿勢を変化させるのに、物体を載
せている回転台を回転させるわけであるが、何度回転さ
せれば、最も有効であるかを考慮すると、一度に見える
三方向の面が各々直角を成すことを考えれば、回転角は
90°の倍数でなくては意味がない。そこで、回転角
は、90°か180°かのどちらかとなる。90°回転
では、今まで見えていた三方向の面のうち、一方向の面
のみ消えて、新しい方向の面が現われる。これに対して
180°回転では、三方向のうち二方向の面が消えて、
新しい二つの方向の面が現われる。
In order to change the posture of the object, the turntable on which the object is placed is rotated. Considering how many times it is most effective, the three directions can be seen at once. Considering that the surfaces form a right angle, the rotation angle has no meaning unless it is a multiple of 90 °. Therefore, the rotation angle is either 90 ° or 180 °. With 90 ° rotation, of the three directional surfaces that have been visible so far, only the unidirectional surface disappears and a new directional surface appears. On the other hand, in 180 ° rotation, the faces in two of the three directions disappear,
Two new directional faces appear.

【0034】その意味で、180°回転の方が、より多
くの情報を付加する可能性が高いと言える。実際にN
o.1からNo.5までの五つの物体の回転の実験を行
ったところ、180°回転の方が、面接続関係が変化す
る場合が多いという事実が認められた。
In that sense, it can be said that 180 ° rotation is more likely to add more information. Actually N
o. 1 to No. Experiments on the rotation of five objects up to 5 revealed that the fact that the 180 ° rotation often changes the surface connection relationship.

【0035】物体の姿勢は、前述のようにDIRという
パラメーターで決定できる。しかし、その姿勢から18
0°回転させた後の姿勢は一意には決まらない。
The posture of the object can be determined by the parameter DIR as described above. However, from that position, 18
The posture after rotating by 0 ° is not uniquely determined.

【0036】図16において、No.2の物体の姿勢D
IR=1の場合が示されているが、両方向1,11の面
をSX、面方向2,12の面をSY、面方向4,14の
面をSZとすると、同じ姿勢DIR=1で面接続関係が
同じでも、物体の底面がSX,SY,SZの三方向のど
れかによって、図17、図18、図19のように、18
0°回転後の姿勢は三通り考えられることに注意しなく
てはならない。
In FIG. 16, No. Posture D of object 2
Although the case of IR = 1 is shown, if the surfaces in both directions 1 and 11 are SX, the surfaces in surface directions 2 and 12 are SY, and the surfaces in surface directions 4 and 14 are SZ, the surfaces are in the same posture DIR = 1. Even if the connection relationship is the same, depending on which of the three directions of SX, SY and SZ the bottom surface of the object is, as shown in FIG. 17, FIG. 18 and FIG.
It should be noted that there are three possible postures after 0 ° rotation.

【0037】図20に示された結果は、後述のマッチン
グ3で重要な意味を持つ。180°回転した後の物体の
画像を取り込んでも、見える面が変わるだけで、面接続
関係、面形状が全く変わらず、マッチングを行っても候
補が絞れない場合がでてくる。
The result shown in FIG. 20 has an important meaning in the matching 3 described later. Even if an image of an object after being rotated by 180 ° is captured, only the visible surface changes, the surface connection relationship and the surface shape do not change at all, and there are cases where candidates cannot be narrowed down even if matching is performed.

【0038】図18は、対象物体のタイプ別の認識不確
定確率を示したものだが、マッチング1とマッチング2
の繰り返しだけでは、No.1のタイプの物体は絶対に
認識できないことがわかる。
FIG. 18 shows the probability of recognition uncertainty for each type of target object. Matching 1 and matching 2
No. It can be seen that the type 1 object is absolutely unrecognizable.

【0039】図20からわかるように、物体の姿勢DI
R(1〜8)を、「180°回転演算」という観点から
分類すると、第1グループ(1,4,6,7)と第2グ
ループ(2,3,5,8)の二つに分けることができ
る。つまり、第1グループの要素の姿勢から180°回
転させると、必ず第1グループの要素の姿勢となるし、
第2グループにおいても同様のことがいえる。数学的に
言えば、この「180°回転演算」は、「群」を成すと
いえよう。
As can be seen from FIG. 20, the posture DI of the object
If R (1 to 8) is classified from the viewpoint of “180 ° rotation calculation”, it is divided into two groups, a first group (1, 4, 6, 7) and a second group (2, 3, 5, 8). be able to. In other words, if you rotate 180 degrees from the posture of the elements of the first group, the posture of the elements of the first group will always be
The same applies to the second group. Mathematically speaking, it can be said that this “180 ° rotation operation” forms a “group”.

【0040】この事実を利用して、2枚の入力画像によ
っても候補が絞れなかった場合は、180°回転前と回
転後の姿勢が同じグループに入っているかどうかを各々
の候補についてチェックする。これが、回転状態遷移情
報(マッチング3)である。回転状態遷移情報の導入に
よって、階層的マッチング・システムは完成する。
By utilizing this fact, when the candidates cannot be narrowed down by the two input images, it is checked for each candidate whether the postures before and after the 180 ° rotation are in the same group. This is the rotation state transition information (matching 3). The introduction of rotational state transition information completes the hierarchical matching system.

【0041】[0041]

【発明の効果】本発明は、上記のように構成されている
ので、「物体の姿勢」を定量的に現し、回転状態遷移情
報を導入し、物体の取り得る姿勢すべてを数え上げるこ
とによって姿勢の違いに影響されない物体のパターン認
識が可能となった。
EFFECTS OF THE INVENTION Since the present invention is configured as described above, the posture of the object is quantitatively expressed, the rotation state transition information is introduced, and all the possible postures of the object are counted. It has become possible to recognize patterns of objects that are not affected by differences.

【0042】また、四方向照明法によるため、従来の線
画作成のための空間微分等の処理によらないで、適当な
スレッショルドレベルを設定することによって、面抽出
が可能になり、線画作成の信頼性が増し、処理時間が短
い。
Further, since the four-direction illumination method is used, surface extraction becomes possible by setting an appropriate threshold level without relying on conventional processing such as spatial differentiation for line drawing creation, and reliability of line drawing creation becomes possible. And the processing time is short.

【0043】また、物体の面に番号を付け、これをグラ
フ表現することによって物体認識を行っているため、画
像データの大幅な縮れが可能である。(グラフの有効利
用)さらに、「面」を単位に物体を認識することによ
り、ノイズの影響を受けにくい。
Further, since the object recognition is performed by assigning a number to the surface of the object and expressing it in a graph, the image data can be greatly reduced. (Effective Use of Graph) Furthermore, by recognizing an object in units of “plane”, it is less likely to be affected by noise.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例に係るシステム構成図であ
る。
FIG. 1 is a system configuration diagram according to an embodiment of the present invention.

【図2】本発明の一実施例に係るシステムの処理の流れ
を示す図である。
FIG. 2 is a diagram showing a processing flow of a system according to an embodiment of the present invention.

【図3】本発明の一実施例に係る面方向の判別を示す図
である。
FIG. 3 is a diagram showing discrimination of a surface direction according to an embodiment of the present invention.

【図4】本発明の一実施例に係る境界の傾きと傾きの判
別のための図である。
FIG. 4 is a diagram for determining a boundary slope and a slope according to an exemplary embodiment of the present invention.

【図5】本発明の一実施例に係る面接続関係を示す図で
ある。
FIG. 5 is a diagram showing a surface connection relationship according to an embodiment of the present invention.

【図6】本発明の一実施例に係る面接続関係判別法を示
す図である。
FIG. 6 is a diagram showing a surface connection relation determining method according to an embodiment of the present invention.

【図7】本発明の一実施例に係る境界の違いを示す図で
ある。
FIG. 7 is a diagram showing a difference in boundaries according to an embodiment of the present invention.

【図8】本発明の一実施例に係る境界の性質判別のため
の図である。
FIG. 8 is a diagram for determining a boundary property according to an exemplary embodiment of the present invention.

【図9】本発明の一実施例に係る面接続グラフの分解に
よる物体認識を示す図である。
FIG. 9 is a diagram showing object recognition by decomposition of a surface connection graph according to an embodiment of the present invention.

【図10】本発明の一実施例に係る物体の見える面の組
合せを示す図である。
FIG. 10 is a diagram showing a combination of visible surfaces of an object according to an embodiment of the present invention.

【図11】本発明の一実施例に係るダミー・データが必
要な場合を示す図である。
FIG. 11 is a diagram showing a case where dummy data is required according to an embodiment of the present invention.

【図12】本発明の一実施例に係る接合パラメーターを
示す図である。
FIG. 12 is a diagram showing joining parameters according to an example of the present invention.

【図13】本発明の一実施例に係る接合パラメーター
(S値)による物体の分類を示す図である。
FIG. 13 is a diagram showing classification of objects according to a joining parameter (S value) according to an embodiment of the present invention.

【図14】本発明の一実施例に係る物体の分類を示す図
である。
FIG. 14 is a diagram showing classification of objects according to an embodiment of the present invention.

【図15】本発明の一実施例に係る認識対象物体(N
o.1〜No.5)を示す図である。
FIG. 15 is a diagram illustrating a recognition target object (N
o. 1 to No. It is a figure which shows 5).

【図16】本発明における180°回転入力でも変化し
ない例を示す説明図である。
FIG. 16 is an explanatory diagram showing an example that does not change even when input by 180 ° rotation according to the present invention.

【図17】本発明の一実施例に係る、180°回転後の
物体の姿勢を分類した状態を示す説明図である。
FIG. 17 is an explanatory diagram showing a state in which the postures of the object after being rotated by 180 ° are classified according to the embodiment of the present invention.

【図18】2枚の入力画像に対してマッチング1、マッ
チング2を行なっても対象物体のタイプが決まらない確
率を示す説明図である。
FIG. 18 is an explanatory diagram showing the probability that the type of a target object is not determined even if matching 1 and matching 2 are performed on two input images.

【図19】3通りの180°回転の状態を示す説明図で
ある。
FIG. 19 is an explanatory diagram showing three 180 ° rotation states.

【図20】本発明の一実施例に係る、180°回転後の
姿勢が群を成すことを示す図である。
FIG. 20 is a diagram showing that postures after 180 ° rotation form a group according to an embodiment of the present invention.

【図21】本発明の一実施例に係る物体認識の全体アル
ゴリズムである。
FIG. 21 is an overall algorithm for object recognition according to an embodiment of the present invention.

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 G06T 7/20 9061−5H G06F 15/70 400 ─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 6 Identification code Internal reference number FI Technical display location G06T 7/20 9061-5H G06F 15/70 400

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】対象物体に対して、X,Y,Zの3軸座標
方向に、カメラ方向を加えた照明を与える照明手段と、
この照明手段により照明された対象物体の濃淡画像を得
る画像取得手段と、この面を単位に対象物体を認識する
認識手段とを備えた多方向照明物体認識装置において、
180°の物体回転によって得られる回転状態遷移情報
を物体を表す画像データに付加する手段をもつことを特
徴とする多方向照明物体認識装置。
1. Illumination means for applying illumination to a target object in which the direction of the camera is added to the three-axis coordinate directions of X, Y, Z.
In a multidirectional illuminated object recognition device comprising an image acquisition means for obtaining a grayscale image of a target object illuminated by this illumination means, and a recognition means for recognizing the target object in units of this surface,
An apparatus for recognizing a multi-directional illuminated object, comprising means for adding rotation state transition information obtained by rotating an object by 180 ° to image data representing the object.
JP6178816A 1994-07-29 1994-07-29 Multidirectionally illuminating object recognizing device Pending JPH0844872A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP6178816A JPH0844872A (en) 1994-07-29 1994-07-29 Multidirectionally illuminating object recognizing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6178816A JPH0844872A (en) 1994-07-29 1994-07-29 Multidirectionally illuminating object recognizing device

Publications (1)

Publication Number Publication Date
JPH0844872A true JPH0844872A (en) 1996-02-16

Family

ID=16055168

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6178816A Pending JPH0844872A (en) 1994-07-29 1994-07-29 Multidirectionally illuminating object recognizing device

Country Status (1)

Country Link
JP (1) JPH0844872A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005004039A1 (en) * 2003-07-04 2005-01-13 Kwang-Don Park Random-type identifying material, 3-d identifying system and method using the same
WO2020161899A1 (en) * 2019-02-08 2020-08-13 インテグラル・テクノロジー株式会社 Image processing device, image processing method, and image processing program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005004039A1 (en) * 2003-07-04 2005-01-13 Kwang-Don Park Random-type identifying material, 3-d identifying system and method using the same
WO2020161899A1 (en) * 2019-02-08 2020-08-13 インテグラル・テクノロジー株式会社 Image processing device, image processing method, and image processing program
JPWO2020161899A1 (en) * 2019-02-08 2021-10-14 インテグラル・テクノロジー株式会社 Image processing device, image processing method and image processing program

Similar Documents

Publication Publication Date Title
Johnson et al. Recognizing objects by matching oriented points
Konishi et al. Real-time 6D object pose estimation on CPU
Sansoni et al. Optoranger: A 3D pattern matching method for bin picking applications
CN110673607A (en) Feature point extraction method and device in dynamic scene and terminal equipment
Yang et al. Determination of the identity, position and orientation of the topmost object in a pile: Some further experiments
Yang et al. Local geometric consensus: A general purpose point pattern-based tracking algorithm
US20030210243A1 (en) Generating surface normals
JPH0844872A (en) Multidirectionally illuminating object recognizing device
CA2307439C (en) Method and apparatus for evaluating a scale factor and a rotation angle in image processing
Uma et al. Marker based augmented reality food menu
Ibelaiden et al. Scene description from depth images for visually positioning
JPH08101893A (en) Model image data registering device for image processor
JPH07160889A (en) Multi-directionally lighting device for recognizing object
Wallace Feature determination and inexact matching of images of industrial components
US20030179196A1 (en) Classifying a voxel
Zaki et al. The use of invariant features for object recognition from a single image
Chrysostomou et al. Multi-camera 3d scene reconstruction from vanishing points
Buurman DIAC object recognition system
Böhnke Hierarchical object localization for robotic bin picking
Slysz et al. On uniqueness in triangulation based pattern for structured light reconstruction
Schütz Geometric point matching of free-form 3D objects
Hameiri et al. Using principal curvatures and darboux frame to recover 3D geometric primitives from range images
JPH0614365B2 (en) Model generation device for object recognition
CN117911472A (en) Point cloud processing method, camera calibration method and system thereof, and electronic equipment
Liu et al. Research on improved diffusion algorithm based on gradient quantization in target localization algorithm