JPH02167410A - 対象物体の位置姿勢認識方法 - Google Patents

対象物体の位置姿勢認識方法

Info

Publication number
JPH02167410A
JPH02167410A JP63320575A JP32057588A JPH02167410A JP H02167410 A JPH02167410 A JP H02167410A JP 63320575 A JP63320575 A JP 63320575A JP 32057588 A JP32057588 A JP 32057588A JP H02167410 A JPH02167410 A JP H02167410A
Authority
JP
Japan
Prior art keywords
target object
teaching
hole
feature point
holes
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP63320575A
Other languages
English (en)
Other versions
JP2562047B2 (ja
Inventor
Masaaki Yasumoto
安本 雅昭
Masahide Hirai
平井 正英
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nachi Fujikoshi Corp
Original Assignee
Nachi Fujikoshi Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nachi Fujikoshi Corp filed Critical Nachi Fujikoshi Corp
Priority to JP63320575A priority Critical patent/JP2562047B2/ja
Publication of JPH02167410A publication Critical patent/JPH02167410A/ja
Application granted granted Critical
Publication of JP2562047B2 publication Critical patent/JP2562047B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 (産業上の利用分野) 本発明は、ITVカメラなどで撮影された画像から1画
像処理装置を用いて画像内の対象物体の位置や傾きを認
識する方法に関する。
(従来の技術) ロボットなどを用いた自動化生産ラインなどでは9M立
や搬送をロボットが行うケースが最近増加しつつある。
ところが、ロボット自身は、決められた位置においであ
る対象物体に対して作業を行うもので、このためには対
象物体をあらかじめ位置ぎめしておかなければならない
4 常に同じ物体に対して作業を行う場合は2機械的な
位置ぎめ装置を設ければ良いが、対象物体の形状などが
変化する場合は2位置ぎめ装置が複雑になり、コストが
高くなってしまう、これに対して、最近は視覚センサを
用いて、対象物体の位置や傾きを画像処理の手法を用い
て認識し、この位置に対してロボットが作業を行う方式
が採用され始めている。
第6図は視覚センサを用いたロボット用位置認識装置の
模式図である。41はロボット42はロボットの制御装
置、43は対象物体を撮影するカメラ、44はカメラで
撮影された画像を処理し。
対象物体の位置や傾きを計測する視覚センサー45は作
業テーブル、46は対象物体である。この図を用いて簡
単に視覚センサによる位置認識方法を説明する。
まず、対象物体46が作業テーブル45におかれると、
カメラ43で対象物体を撮影し、その画像を視覚センサ
44の画像メモリに記憶させる。
第7図は視覚センサて撮影した画像の一例である。
51は対象物体、52はカメラで撮影された画像の境界
である1通常1人力画像を明るい領域と暗い領域の2値
画像に変換して処理を行う、第7図の斜線部は、対象物
体の映像で、明るい領域となっている。視覚センサは、
この画像から、対象物体の位置や傾きを計算する。対象
物体の位置や傾きは2画像の明るい領域の面積2重心2
周囲長などの幾何学的特徴量を計算することにより得る
ことができる1例えば2位置は、撮影された画像の重心
位置を計算すれば良い、また、傾きは図のような長方形
の場合は、慣性主軸の傾きを計算すればよい、この様に
していま置かれている対象物体の位置、傾きなどを視覚
センサで認識した後、ロボットにそのデータを教える。
−船釣には、第7図に破線53で示されている位置に対
象物体がある場合において、ロボットが作業するように
あらかしめ教示されているため、視覚センサからロボッ
トに与えるデータは、教示位置からの移動量となる。従
って、0ボツトは視覚センサから教えられた移動量だけ
座標をシフトして9作業を行う。
この様に、視覚センサで対象物体の位置を計測して、そ
のデータにもとずきロボットが作業を行う方法を使用す
ると、カメラで撮影する範囲を超えた位置に対象物体が
置かれない限り位置ぎめ装置などが不要となるから、シ
ステムが簡単になる。
さらに、対象物体の種類や形状が変わると、ロボットと
同時に視覚センサを教示できるので、新たな設備投資が
不要となるなど、FAに適した製造ラインを構成するこ
とができる。
(発明が解決しようとする課題) いま説明した方法は、比較的簡単な形状を持つ対象物体
には有効であるが、複雑なものについては、視覚センサ
が誤認識する可能性が高くなる。
例えば、エンジンブロックなどは、外形形状が複雑なほ
か、大小様々な穴が設けられているkめ。
従来の様な方法、すなわち簡単な幾何学的特徴量を計算
するだけでは、対象物体の位置や傾きを正確に認識する
ことができななどの課題が発生する。
(課題を解決するための手段) の対象物体に対しても、正確に、かつ短時間でその位置
や傾きを認識するための対象物体の認識方法を提供する
ものとなった (実施例) 本発明につき図面を参照しながら説明する。第1図は、
対象物体の一例である。この対象物体1は、外形形状が
複雑で、また内部に複数の組立用の穴が設けられている
。斜線部は対象物体の表面で2次に説明する画像の2値
化が容易なように。
光沢があるものとする。まず、この対象物をカメラで撮
影して、視覚センサの画像メモリに記憶する。この時視
覚センサでは、処理速度の高速化と画像メモリの節約の
ためカメラから入力された画像信号を2値化した後9画
像メモリに記憶する。
2値化とは、入力信号のある明るさを閾値(24m化レ
ベル)として、これより暗い部分を黒、明るい部分を白
の2値(黒と白)に変換する処理である、2値化レベル
を最適な値に設定すると2画像メモリの内容は、第2図
のようになる。ここで。
2はカメラで撮影された範囲を表し、この範囲が画像処
理の対象となる。なお、入力画像の処理範囲を限定する
ウィンドウというものが画像処理ではよく使用されるが
、2をこのウィンドウとしてもよい、第1図の対象物体
1の表面は光沢があるので、2値化した画像では、斜線
部が白く、背景や複数の穴が黒くなっている。対象物体
の画像には2合計9個の穴が設けられており、これらの
穴が対象物体の特徴を表している。そこで、これらの穴
を形状的に特徴がある部分(特徴点)の候補として2画
像処理による認識の対象とする。
まず2図、2の画像に対して、対象物に設けられている
9個の穴を抽出し、各式に対して幾何学的性微量を計算
する。穴の抽出方法については。
既に公知となっているパーツ認識方法を利用すればよい
、これは、2値化画像に対して、白画素の領域と黒画素
の領域に分類して、黒画素の領域に囲まれた白画素の領
域を1つのパーツと認識するものである。これを白画素
の領域と黒画素の領域を逆に認識するような方法を用い
れば、各式を独立に認識することができる1次に各式に
対して。
幾何学的性微量を計算する。ここでは各式は円形である
から、各式の重心と面積を計算しておく。
重心はその穴の位置を表し2面積は穴の大きさを表して
いる。さらに、各式の長径と短径も同時に計算させてお
くと、長径と短径の比から円に近いものだけ抽出できる
ため、不要なものをあらかじめ除去しておくことができ
る。ここで、各式に対する重心2面積をGi、Siとし
、このデータの絹を各式に対する幾何学的性微量F1と
する。なお。
は各式に対する仮の番号で、1から9の値をとる。
第2図では、11の穴の幾何学的性微量F1は2重心G
l、面積S1となる。同様に、12から19までの各式
についてF2からF9の幾何学的性微量を割り当てる。
次に、各穴同士の位置関係を計算する。すなわち、穴同
士の距離、および穴同士の方向である。
方向は9例えば画像処理画面の水平方向に対する角度で
計算する。1番目の穴と3番目の穴の距離。
方向をL ij、  θijとする0例えば、1番目の
穴11と9番目の穴19の位置関係は、第3図のように
距離がLi2.方向が019となる。いままで説明した
例では+  f+  Jの範囲は1から9までであるか
ら、その鞘合せは81 (=9X9)通りあるが2例え
ばLljとLJlは同じとなるので、実際には36通り
のデータの組(LiJ+  θij)となる、ここで。
L ij、  θijの組を位置関係PIJとする。
さて、対象物体を認識するためには、あらかじめ対象物
体の基準位置を計算しておかなければならない、そこで
2通常は、視覚センサにおいて。
ティーチング、あるいは教示というものを実行する。こ
れはマスターとなる対象物体を一度撮影しておき、この
画像に対して各式を特徴点として。
幾何学的特徴量2伎置関係のデータを計算する。
この時、9個の大全てのデータを計算しておく必要がな
い0例えば、第4図の様に、9個の穴の中から5個の穴
を選んで、これに対するデータのみを計算、記憶してお
く、第4図において、9番目の穴19を教示番号1番2
1,1番目の穴11を教示番号2番22,8番目の穴1
8を教示番号3番23,3番目の穴13を教示番号4番
24,7番目の穴17を教示番号5番25とし、残りの
穴12.14,1δ、16を教示対象から除外する。
なお、教示する穴の数は、対象物体に依存し、対象物体
を特定できればよい、従って5に限らない。
また、教示順序に制限がない、にだし、後で述べるよう
に、教示順序を効果的に選ぶと、より認識時間が短縮す
る。ここで、マスターの対象物体の幾何学的特徴量1伎
置関係をそれぞれFk’  Pk1″とする。には、マ
スタ一対象物体で教示された各式の番号で、この例では
に、  Iの範囲は1から5の整数となる。
次に実際に認識すべき対象物体を撮影して、全ての穴ζ
こ対する幾何学的性微量と位置関係を計算する。第5図
は、認識すべき対象物体の2値化画像の例である。第3
図で教示したものに対して。
傾いた状態で撮影されている。同様に各式の幾何学的性
微量を計算する。これを先に記述したように、Fi、P
ijとする。この例では+  L  Jの範囲は1から
9となる。なお、対象物体が傾いて置かれているために
、穴を認識する順序が第2図とは異なっている。新しく
認識した穴の番号は、第5図の■から■までの記号て示
されている。
次に、マスターの幾何学的性微量2伎置関係と認識すべ
き対象物体の幾何学的性微量2伎置関係を比較し、各式
を順に特定していく、特定していく方法には、いろいろ
あるが、ここでは効果的な特定方法について説明する。
まず、認識すべき対象物体の幾何学的特徴量Fの面積S
iについてのみ注目する。すなわち、あらかじめマスタ
一対象物体で得られた幾何学的特徴量Fk’の面積S1
′に対して、その誤差範囲を設けておき、この範囲に該
当するFiをクラス分けする9 この結果、明らかに大
きさが異なる穴が最初から分類される1例えば、第5図
の穴■は明らかに他の穴と大きさが異なるため、第4図
で教示された教示番号1番21に分類される9 次に第
5図の穴の、■、■は第4図の教示番号2番22と3番
23に該当するため2両方の教示番号に分類される。ま
た、第5図の残りの穴■、■、■、■。
■は、第4図の教示番号4,5番目に該当するため9両
方の教示番号に分類される。これを表に表すと次のよう
になる。
教示番号    分類番号 1       ■ 2       ■、■、■ 3       ■、■、■ 4       ■、■、■、■、■ 5       ■、■、■、■、■ これで、認識すべき対象物体の全ての穴がマスター物体
で教示されている穴に分類されたことになる。
次は9分類された穴に対して2位置関係のデータP1j
を用いながら、各式の位置を特定していく。
まず、教示番号1番に分類された穴は■のみであるから
、この穴は特定されたことになる。
次に、教示番号2番に分類された穴を特定する。
既に特定されている■の穴と教示番号2番に分類された
の、■、■の穴との距離データL 16.  L 46
゜L67を教示番号1番21と2番22のデータの距離
データL 12’を比較し、最も誤差の小さいものを選
び出す、この場合は、1番の穴が最も近いため、教示番
号2番22に対応する穴は■と特定される。 これで■
と■の穴が特定された。従って。
教示番号3@に分類されている穴■は削除される。
次に教示番号3番に分類された穴を特定する。
既に六〇は除外されているので、穴のと■について、教
示番号2番に特定された穴■との距離データL +4.
  L 47を教示番号2番22と3番23の距離デー
タL23′を比較し、最も誤差の小さいものを選び出す
、この例では穴■が選ばれる。これにより、穴■も特定
された。
次は、教示番号4番に分類されている5つの穴から1つ
を特定する。教示番号3番の場合と同様に、穴■、■、
■、■、■と穴■の距離から教示番号3番23と4番2
4の距離L34′に最も近いものを選ぶ、この例では、
穴■と■が該当する。
このように該当する候補が2種類以上ある場合は。
先に該当する方について、さらに教示番号5番目25に
相当する穴を調べる。この例で、六〇を教示番号4番目
24と特定した場合は、穴■、■。
■、■と穴■の距離L 29.  L 39.  L 
59.  L 89を教示番号4番目24と5番目25
の距fi L 45′と比較する。ところが、いずれの
場合も該当するものが見つからない、従って、教示番号
4番目に特定した穴■が間違っていることがわかる。そ
こで。
先はど教示番号4番目のもう一つの候補となっていた穴
■について同様の比較を行う、そこで、教示番号5番目
に対応する穴は六〇となり、すべての穴の特定が終了す
る。この例で特定された穴は次のようになる。
教示番号    分類番号 1       ■ 2       ■ 3       ■ 4       ■ 5       ■ なお、候補を特定していく過程において、誤差が最小と
なるものを選んでいったが、実際の対象物体は加工誤差
などにより教示通りの位置関係のデータが得られるとは
限らない、そこで、最初かを複数候補選んでおき、最後
に、全ての誤差の合計が最も小さいパターンを特定して
もよい。
また、対象物体が左右対象の場合は、距離データLiJ
+  Lki’だけでは、一義的に特定できない場合が
発生する。この場合は、距離データに加え。
方向θ1j、θkl’を併用するとよい。
以上で認識すべき対象物体の穴の位置が特定できたので
1次に対象物体の位置、傾きを計算する。
まず位置は2例えば教示番号1番21の幾何学的性微量
Fl’の中の重心座標Gl’と教示番号1番に対応する
と特定された穴■の幾何学的性微量F6の重心座標G6
を比較する9重心座標は2通常X座標とY座標で与えら
れているので9両重心座標のX座標およびY座標の差を
計算すれば、穴■が教示位置からX方向にΔXだけ、Y
方向にΔYだけシフトしていることがわかる。
次に教示番号1番21と2番22の位置関係のデータP
 12’の中の傾き012′と教示番号1番。
2番に対応すると特定されたそれぞれ穴■と■の傾きθ
46との差から対象物体の回転方向の変化Δθがわかる
従って、撮影された対象物体の穴■を(−ΔX。
−ΔY)だけ移動させた後、−Δθだけ回転させれば対
象物体が教示位置に戻ることになる。
この様にすれば、いま置かれた対象物がロボットに教え
込まれた教示位置よりどの様に移動しているかがわかり
、この値を用いてロボットの教示データを変更すること
により、ロボットはいま置かれた対象物に対して決めら
れた作業を行うことができるようになる。
以上の説明では、特徴点を対象物体の穴としたが、必ず
しもこれに限定するものではない1例えば、対象物体の
コーナーの位置なども特徴点として設定することができ
る。また、幾何学的性微量は2円形の穴を刻象としたの
で2重心2面積て説明したが、これに限定されない、特
徴点の形状により種々の幾何学的性微量が使用できる9
例えば。
多角形の特徴点であれば、コーナーの数なども有効な幾
何学的性微量となり得る。
(発明の効果) 本発明はカメラで撮影された対象物の位置が教示位置よ
りどの様に変化しているかを正確に認識できる方法を提
供したものである。特に2本発明を用いると、教示され
た位置にあるパターンのみを用いて認識するものである
ため、教示位置以外の画像状態に左右されないことであ
る0例えば。
先の実施例に置いて、第2図の12. 15. 16の
穴の位置が異なっても、全く影響を受けずに正確に認識
できる点である。つまり、対象物の設計変更のため15
の穴の位置が変更されても改めて教示する必要がない、
また、照明状態の変化などで対象物の周囲形状が変化し
ても、これによる影響がない点である。
また、穴を特定する作業においても、最短の方法で各式
を特定することができるので、無駄の少ない処理が可能
となり、複雑な場合においても高速に認識できる点であ
る。
【図面の簡単な説明】
第1図は2本発明の実施例に使用する対象物体の形状を
示したものである。1は対象物体である。 第2図は、カメラで撮影した対象物体を示したものであ
る。2は画面の境界である。また、11から19は視覚
センサーが認識し九対象物体内の特徴点である穴である
。 第3図は、特徴点間の位置関係のデータの説明を行った
ものである。Li2.  θ19は、2個の穴の距離、
及び方向である。 第4図は、対象物体の教示例を示したものである。21
から25は教示された特徴点である。 第5図は、認識しようとする対象物体をカメラで撮影し
た例である。■〜■は、視覚センサーが認識しに特徴点
(穴)である。 第6図は、視覚センサーを用いたロボット作業の模式図
である。41はロボット、42はロボットの制御装置、
43はカメラ、44はし各センサ− 45は作業テーブ
ル、46は対象物体である。 第7図は、従来例を説明するための図で、51は撮影さ
れている対象物体、52は教示位置における対象物体で
ある。

Claims (4)

    【特許請求の範囲】
  1. (1)認識すべき対象物体をカメラなどで撮影し、この
    画像を基に画像処理の手法を用いて対象物体の位置や傾
    きを認識する方法において、対象物体の一部であって形
    状的に特徴がある部分(特徴点)を複数個所あらかじめ
    決めておき、各特徴点の幾何学的特徴量及び各特徴点間
    の位置関係のデータを計算した後、実際に対象物を撮影
    した画像に対して、まず前記各特徴点の幾何学的特徴量
    から各特徴点毎に該当する複数の特徴点候補を抽出した
    後、前記各特徴点間の位置関係に関するデータと前記特
    徴点候補間の位置関係から各特徴点を一義的に決定し、
    しかる後、撮影された対象物体において決定された特徴
    点の位置から対象物の位置や傾きを認識する対象物体の
    認識方法。
  2. (2)前記各特徴点の幾何学的特徴量には許容誤差を設
    定しておき、照明条件の変化によって対象物の撮影画像
    がわずかに変化しても各特徴点の候補を抽出し易くする
    ことを特徴とする特許請求範囲第1項の対象物体の認識
    方法。
  3. (3)各特徴点間の位置関係に関するデータは、特徴点
    間の距離、傾きからなることを特徴とする特許請求範囲
    第1項の対象物体の認識方法。
  4. (4)前記各特徴点間の位置関係に関するデータには許
    容誤差を設定しておき、製造上の誤差などに影響されず
    に各特徴点を一義的に決定することを特徴とする特許請
    求範囲第1項の対象物体の認識方法。
JP63320575A 1988-12-21 1988-12-21 対象物体の位置姿勢認識方法 Expired - Fee Related JP2562047B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP63320575A JP2562047B2 (ja) 1988-12-21 1988-12-21 対象物体の位置姿勢認識方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP63320575A JP2562047B2 (ja) 1988-12-21 1988-12-21 対象物体の位置姿勢認識方法

Publications (2)

Publication Number Publication Date
JPH02167410A true JPH02167410A (ja) 1990-06-27
JP2562047B2 JP2562047B2 (ja) 1996-12-11

Family

ID=18122962

Family Applications (1)

Application Number Title Priority Date Filing Date
JP63320575A Expired - Fee Related JP2562047B2 (ja) 1988-12-21 1988-12-21 対象物体の位置姿勢認識方法

Country Status (1)

Country Link
JP (1) JP2562047B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1094991A (ja) * 1996-09-24 1998-04-14 Mazda Motor Corp 物品位置検出方法及び装置

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3859571B2 (ja) 2002-10-17 2006-12-20 ファナック株式会社 3次元視覚センサ
JP4346297B2 (ja) 2002-10-22 2009-10-21 株式会社東芝 X線コンピュータ断層撮影装置、画像処理装置及び画像処理方法
KR102252888B1 (ko) * 2020-01-03 2021-05-17 포테닛 주식회사 공간 내에서 이송로봇의 위치 검출장치 및 방법

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5282163A (en) * 1975-12-29 1977-07-09 Nec Corp Characteristics point pair decision unit
JPS61290311A (ja) * 1985-06-19 1986-12-20 Hitachi Ltd はんだ付部の検査装置及びその方法
JPS6344103A (ja) * 1986-08-12 1988-02-25 Nissan Motor Co Ltd 位置姿勢認識装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5282163A (en) * 1975-12-29 1977-07-09 Nec Corp Characteristics point pair decision unit
JPS61290311A (ja) * 1985-06-19 1986-12-20 Hitachi Ltd はんだ付部の検査装置及びその方法
JPS6344103A (ja) * 1986-08-12 1988-02-25 Nissan Motor Co Ltd 位置姿勢認識装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1094991A (ja) * 1996-09-24 1998-04-14 Mazda Motor Corp 物品位置検出方法及び装置

Also Published As

Publication number Publication date
JP2562047B2 (ja) 1996-12-11

Similar Documents

Publication Publication Date Title
WO2021138995A1 (zh) 一种棋盘格角点全自动检测方法
CN104835173B (zh) 一种基于机器视觉的定位方法
CN109003258B (zh) 一种高精度亚像素圆形零件测量方法
KR920004956B1 (ko) 도형인식장치
JP2885823B2 (ja) 視覚認識装置
CN108555908A (zh) 一种基于rgbd相机的堆叠工件姿态识别及拾取方法
CN104933720B (zh) 一种基于视觉的sop元件定位和缺陷检测方法
CN108007388A (zh) 一种基于机器视觉的转盘角度高精度在线测量方法
CN114494045B (zh) 一种基于机器视觉的大型直齿轮几何参数测量***及方法
CN115609591B (zh) 一种基于2D Marker的视觉定位方法和***、复合机器人
US5226095A (en) Method of detecting the position of an object pattern in an image
CN103752534A (zh) 智觉图像智能识别分拣装置及识别分拣方法
CN104680519A (zh) 基于轮廓和颜色的七巧板识别方法
CN112734750B (zh) 罐盖视觉检测与定位方法及***、介质、装置
CN114972531B (zh) 一种角点检测方法、设备及可读存储介质
CN116991162A (zh) 一种非巡线机器人自主定位视觉识别方法
CN111814918B (zh) 一种合作靶标及靶标识别方法
JPH02167410A (ja) 対象物体の位置姿勢認識方法
JPH09189513A (ja) マーカ重心計測方法および装置
CN116843748B (zh) 一种远距二维码及其物体空间位姿获取方法及***
CN117496401A (zh) 一种用于视频测量影像序列椭圆形目标点全自动识别与跟踪方法
CN203778363U (zh) 一种电气产品全自动智能识别分拣***
CN110969357A (zh) 一种铝合金机加工零件孔洞视觉检测方法
KR0130950B1 (ko) 원형구멍의 인식방법
CN113706632A (zh) 基于三维视觉标定板的标定方法和***

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees