JP2562047B2 - 対象物体の位置姿勢認識方法 - Google Patents

対象物体の位置姿勢認識方法

Info

Publication number
JP2562047B2
JP2562047B2 JP63320575A JP32057588A JP2562047B2 JP 2562047 B2 JP2562047 B2 JP 2562047B2 JP 63320575 A JP63320575 A JP 63320575A JP 32057588 A JP32057588 A JP 32057588A JP 2562047 B2 JP2562047 B2 JP 2562047B2
Authority
JP
Japan
Prior art keywords
target object
image
points
feature
teaching
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP63320575A
Other languages
English (en)
Other versions
JPH02167410A (ja
Inventor
雅昭 安本
正英 平井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nachi Fujikoshi Corp
Original Assignee
Fujikoshi KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujikoshi KK filed Critical Fujikoshi KK
Priority to JP63320575A priority Critical patent/JP2562047B2/ja
Publication of JPH02167410A publication Critical patent/JPH02167410A/ja
Application granted granted Critical
Publication of JP2562047B2 publication Critical patent/JP2562047B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Description

【発明の詳細な説明】 (産業上の利用分野) 本発明は、ITVカメラなどで撮影された画像から、画
像処理装置を用いて画像内の対象物体の位置や傾きを認
識する方法に関し、特に複数の特徴点について、これら
の幾何学的特徴量が相互に等しいものが存在する場合の
認識方法に関するものである。
(従来の技術) ロボットなどを用いた自動化生産ラインなどでは、組
立や搬送をロボットが行うケースが最近増加しつつあ
る。ところが、ロボット自身は、決められた位置におい
てある対象物体に対して作業を行うもので、このために
は対象物体をあらかじめ位置決めしておかなければなら
ない。常に同じ物体に対して作業を行う場合は、機械的
な位置決め装置を設ければ良いが、対象物体の形状など
が変化する場合は、位置決め装置が複雑になり、コスト
が高くなってしまう。これに対して、最近は視覚センサ
を用いて、対象物体の位置や傾きを画像処理の手法を用
いて認識し、この位置に対してロボットが作業を行う方
式が採用され始めている。
第6図は視覚センサを用いたロボット用位置認識装置
の模式図である。41はロボット、42はロボットの制御装
置、43は対象物体を撮影するカメラ、44はカメラで撮影
された画像を処理し、対象物体の位置や傾きを計測する
視覚センサ、45は作業テーブル、46は対象物体である。
この図を用いて簡単に視覚センサによる位置認識方法を
説明する。
まず、対象物体46が作業テーブル45におかれると、カ
メラ43で対象物体を撮影し、その画像を視覚センサ44の
画像メモリに記憶させる。第7図は視覚センサで撮影し
た画像の一例である。51は対象物体、52はカメラで撮影
された画像の境界である。通常、入力画像を明るい領域
と暗い領域の2値画像に変換して処理を行う。第7図の
斜線部は、対象物体の映像で、明るい領域となってい
る。視覚センサは、この画像から、対象物体の位置や傾
きを計算する。対象物体の位置や傾きは、画像の明るい
領域の面積、重心、周囲長などの幾何学的特徴量を計算
することにより得ることができる。例えば、位置は撮影
された画像の重心位置を計算すれば良い。また、傾きは
図のような長方形の場合は、慣性主軸の傾きを計算すれ
ばよい。このようにしていま置かれている対象物体の位
置、傾きなどを視覚センサで認識した後、ロボットにそ
のデータを教える。一般的には、第7図に示されている
破線53の位置に対象物体がある場合において、ロボット
が作業するようにあらかじめ教示されているため、視覚
センサからロボットに与えられるデータは、教示位置か
らの移動量となる。従って、ロボットは視覚センサから
教えられた移動量だけ座標をシフトして、作業を行う。
このように、視覚センサで対象物体の位置を計測し
て、そのデータにもとづきロボットが作業を行う方法を
使用すると、カメラで撮影する範囲を超えた位置に対象
物体が置かれない限り位置決め装置などが不要となるか
ら、システムが簡単になる。さらに、対象物体の種類や
外形形状が変わる場合は、ロボットを同時に視覚センサ
を教示するだけで対処できるので、新たな設備投資が不
要となるなど、FAに適した製造ラインを構成することが
できる。
しかし、以上説明した方法は、比較的簡単な外形形状
を持つ対象物体には有効であるが、対象物体の外形形状
が複雑なものについては、視覚センサが誤認識する可能
性が高くなるという問題があった。
そこで、特開昭63−44103号公報では、対象物体の撮
影画像から対象物体の特徴点を複数個抽出し、この特徴
点相互間の位置と距離とから当該対象物体の位置及び姿
勢を認識する位置姿勢認識装置が開示されている。この
装置によれば、抽出された被測定物画像の特徴点の位置
に基づいて、これら特徴点間相互の全て置の組合わせに
おける距離を算出し、この被測定物画像の各特徴点間相
互の距離がマスター画像の各特徴点間相互の距離にほぼ
一致していると思われる何組かの組合わせ候補(特徴点
候補)を選択し、この選択された被測定物画像の特徴点
候補についてのみマスター画像の特徴点の位置データと
順次比較し、対象物体の位置及び姿勢を求めるようにし
ているので、対象物体の外形形状が複雑なものについて
も高精度の認識が可能になるとされている。
(発明が解決しようとする課題) しかし、この方法は、特徴点候補を抽出する際に特徴
点間相互の全ての組合わせにおける距離を算出している
ので、特徴点の数が多い場合は特徴点間相互の組合わせ
数が非常に多くなり、その結果特徴点候補を抽出する際
のデータ処理量が多くなり全体の演算時間も長くなると
いう問題がある。また、処理されるデータの量が多くな
ると、近似する位置データや距離データが多くなるの
で、比較処理において許容誤差を設定している場合は、
許容誤差を小さく設定しなければならなくなるが、許容
誤差を極端に小さく設定すると、比較処理の演算時間が
長くなったり、場合によっては該当データなしと誤判定
されてしまうことも起こりうる。逆に、抽出される特徴
点の数が少なすぎると高精度の認識ができなくなる。し
たがって、この方法では、高速かつ高精度の認識を行わ
せるためには抽出する特徴点の数を適正に選択しなけれ
ばならないことになるが、様々な外形形状の対象物体の
認識を想定した場合、対象物体毎に適正な特徴点の数を
選択することは容易ではない。
本発明の目的は、特に幾何学的特徴量が相互に等しい
特徴点が多数存在する場合の対象物体の認識方法におい
て、特徴点候補の抽出にかかる演算時間を短縮し、かつ
正確に対象物体の位置や傾きを認識するための対象物体
の位置姿勢認識方法を提供することにある。
(課題を解決するための手段) このため本発明は、特許請求の範囲記載の対象物体の
位置姿勢認識方法を提供することにより、上述の従来技
術の課題を解決した。
(作用) 以下、本発明の作用について説明する。本発明は、マ
スターとなる対象物体を撮影したマスター画像と被測定
物となる対象物体を撮影した被測定物画像のそれぞれの
特徴点の幾何学的特徴量と位置関係データを比較するこ
とにより、被測定物となる対象物体の位置がロボットに
教え込まれた対象物体の教示位置に対してどれだけシフ
トしているかを算出し、ロボットが対象物体に対して正
確に位置決めできるようにしたものである。
その手順は、第1に、被測定物画像のそれぞれの特徴
点がマスター画像のどの特徴点に対応するものであるか
を特定する。まず、画像処理が施されたマスター画像に
対して複数の特徴点を教示し、この教示された複数の特
徴点即ち教示点のそれぞれについて幾何学的特徴量とし
ての各教示点の面積及び重心と位置関係データとしての
各教示点間の距離及び傾きが算出される。また、算出さ
れた幾何学的特徴量及び位置関係データには許容誤差が
設定される。次に、被測定物となる対象物体を撮影した
被測定物画像に対して、マスター画像と同様の画像処理
が施され、抽出された複数の特徴点のそれぞれについて
幾何学的特徴量としての各特徴点の面積及び重心と位置
関係データとしての各特徴点間の距離及び傾きが算出さ
れる。さらに、被測定物画像の全ての特徴点に対して、
前述のマスター画像の教示点の幾何学的特徴量の許容誤
差の範囲に含まれる特徴点即ち特徴点候補が抽出され、
この抽出された被測定物画像の特徴点候補の位置関係デ
ータとマスター画像の教示点の位置関係データを比較す
ることにより、マスター画像のそれぞれの教示点に対応
する被測定物画像の特徴点が特徴点候補の中から特定さ
れる。
第2に、特定された被測定物画像の特徴点とこれに対
応するマスター画像の教示点のそれぞれの幾何学的特徴
量及び位置関係データを比較することにより、被測定物
画像の対象物体の位置がマスター画像の対象物体の位置
に対してどれだけシフトしているかが算出される。ロボ
ットに教え込まれた対象物体の教示位置がマスター画像
の対象物体の位置を基準にしたものであるとすれば、算
出されたシフト量を補正量としてロボットの制御装置に
入力されるようにすることで、ロボットを対象物体に対
して正確に位置決めすることが可能となる。
(実施例) 本発明につき図面を参照しながら説明する。第1図
は、対象物体の一例である。この対象物体1は、外形形
状が複雑で、また内部に複数の組立用の穴が設けられて
いる。斜線部は対象物体1の表面で、次に説明する画像
の2値化が容易なように、光沢があるものとする。ま
ず、この対象物体1をカメラで撮影して、視覚センサの
画像メモリに記憶する。この時視覚センサでは、処理速
度の高速化と画像メモリの節約のためカメラから入力さ
れた画像信号を2値化した後、画像メモリに記憶する。
2値化とは、入力信号のある明るさを閾値(2値化レベ
ル)として、これより暗い部分を黒、明るい部分を白の
2値(黒と白)に変換する処理である。2値化レベルを
最適な値に設定すると、画像メモリの内容は、第2図の
ようになる。ここで、2はカメラで撮影された範囲を表
し、この範囲が画像処理の対象となっている。なお、入
力画像の処理範囲を限定するウィンドウというものが画
像処理ではよく使用されるが、2をこのウィンドウとし
てもよい。第1図の対象物体1の表面は光沢があるの
で、2値化した画像では、斜線部が白く、背景や複数の
穴11〜19が黒くなっている。対象物体1の画像には、合
計9個の穴11〜19が設けられており、穴11〜19が対象物
体1の特徴を表している。そこで、穴11〜19を形状的に
特徴がある部分即ち特徴点として、画像処理による認識
の対象とする。
ここで、第2図の画像を用いて、特徴点としての各穴
の抽出方法と、抽出された各穴の幾何学的特徴量及び位
置関係データについて説明する。
対象物体1に設けられている9個の穴11〜19の抽出に
は、既に公知となっているパーツ認識方法を利用すれば
よい。これは、2値化画像に対して、白画素の領域と黒
画素の領域に分類して、黒画素の領域に囲まれた白画素
の領域を1つのパーツと認識するものである。第1図に
おいては各穴が黒画素の領域となるので、白画素の領域
と黒画素の領域を逆に認識するような方法を用いれば、
白画素の領域となる各穴を認識することができる。
各穴の幾何学的特徴量は各穴の重心及び面積とする。
重心はその穴の位置を表し、面積は穴の大きさを表して
いる。さらに、各穴の長径も短径も同時に計算させてお
くと長径と短径の比から真円に近いものだけを抽出でき
るため、本実施例のように認識対象となる穴が真円の場
合は不要なものをあらかじめ除去しておくことができ
る。ここで、各穴に対する重心、面積をGi、Siとし、こ
のデータの組を各穴に対する幾何学的特徴量Fiとする。
なお、iは各穴に対応する仮の番号で1から9の値をと
る。例えば、第2図の穴11では、幾何学的特徴量F1、重
心G1、面積S1となる。同様に、12から19までの各穴につ
いてF2からF9の幾何学的特徴量を割り当てる。
穴同士の位置関係データは穴同士の距離及び穴同士の
方向とする。ここで、穴同士の距離は、例えば各穴の重
心間の距離として算出すればよい。方向は、例えば画像
処理画面の水平方向に対する角度で計算する。i番目の
穴とj番目の穴の距離、方向をそれぞれLij、θijとす
ると、例えば、1番目の穴11と9番目の穴19の位置関係
データは、第3図に示すように、距離がL19、方向がθ1
9となる。以上説明した例では、i、jの範囲は1から
9までであるから、その組合せは81(=9×9)通りあ
るが、例えば距離Lijと距離Ljiは等価となるので、実際
には36通りのデータの組(Lij、θij)となる。ここ
で、距離Lij、方向θijの組を位置関係データPijとす
る。
さて、対象物体の位置を認識するためには、予め対象
物体の基準位置を計算しておかなければならない。そこ
で、通常は、視覚センサにおいて、ティーチング、ある
いは教示というものを実行する。これはマスターとなる
対象物体を一度撮影しておき、このマスター画像に対し
て画像処理を施し、抽出された複数の穴を特徴点として
幾何学的特徴量及び位置関係データを計算する。この
時、抽出された9個の穴全てについて幾何学的特徴量及
び位置関係データを計算しておく必要はない。例えば、
第4図に示すように、特徴点としての9個の穴の中から
5個の穴を教示点として教示対象に選ぶ。そして、この
教示点としての5個の各穴に対する幾何学的特徴量及び
位置関係データのみを計算し記憶しておく。第4図に示
すように、穴19を教示番号1番21、穴11を教示番号2番
22、穴18を教示番号3番23、穴13を教示番号4番24、穴
17を教示番号5番25とし、第2図に示す残りの4つの穴
12、14、15、16は教示対象から除外する。なお、教示対
象とする穴の数は、各穴の幾何学的特徴量に依存し、対
象物体を特定できればよく、従って5個に限らない。例
えば、第2図に示す対象物体1では、穴11,14,18のそれ
ぞれの面積は等しく、穴12,13,15,16,17のそれぞれの面
積も等しいので、各穴の幾何学的特徴量を面積とした場
合は、面積を等しくする穴の各グループの中から最低1
個以上の穴を教示点として選べばよい。また、教示対象
とする穴の教示順序に制限はないが、教示順序を規則的
に選ぶことにより演算効率を向上させ認識時間の短縮を
図ることができる。ここで、マスターとなる対象物体の
幾何学的特徴量、位置関係データをそれぞれFk′、Pk
l′とする。また、位置関係データPkl′のうち、距離、
方向はそれぞれLkl′、θkl′とする。kは、マスター
となる対象物体で教示された各穴の番号で、この例では
教示する穴の数を5個としたので、k、lの範囲は1か
ら5の整数となる。
次に、実際に認識すべき被測定物となる対象物体を撮
影して、この被測定物画像に対して画像処理を施し、抽
出された全ての穴に対する幾何学的特徴量及び位置関係
データを計算する。第5図は被測定物となる対象物体の
2値化画像の例である。算出された各穴の幾何学的特徴
量及び位置関係データを先に記述したようにそれぞれF
i、Pijとする。この例では、抽出された穴の数は9個と
なるので、i、jの範囲は1から9となる。なお、第5
図に示すように、被測定物となる対象物体はマスターと
なる対象物体に対して傾いて置かれているために、穴を
認識する順序は第2図の場合とは異なっており、認識さ
れた穴の番号は画面右上から左下に向かって規則的に
からまでの記号で設定する。
次に、前述のマスターとなる対象物体の教示点として
の穴の幾何学的特徴量及び位置関係データと、被測定物
となる対象物体の特徴点としての穴の幾何学的特徴量及
び位置関係データを比較し、マスターとなる対象物体の
各穴(第4図に示す穴21〜25)が被測定物となる対象物
体の各穴(第5図に示す穴〜)のどれと対応してい
るかを順に特定していく。特定していく方法にはいろい
ろあるが、ここでは演算効率の良い特定方法について説
明する。
まず、被測定物となる対象物体の各穴の幾何学的特徴
量Fiとしての面積Siについてのみ注目する。すなわち、
予めマスターとなる対象物体で算出された教示点として
の各穴の幾何学的特徴量Fk′の面積Siについてその許容
誤差を設けておき、被測定物となる対象物体の特徴量と
しての各穴の幾何学的特徴Fiがこの許容誤差の範囲内に
該当するか否かでクラス分けする。このようにマスター
となる対象物体の教示点毎にクラス分けされた被測定物
となる対象物体の特徴点を特徴点候補と呼ぶ。この結
果、穴の面積において明らかに他とは大きさが異なる穴
がこの時点で特定されることになる。例えば、第5図の
穴は明らかに他の穴と大きさが異なるため、第4図で
教示された教示番号1番21に分類される。次に第5図の
穴、、は第4図の教示番号2番22と3番23の双方
の穴に該当するため、両方の教示番号に分類される。ま
た、第5図の残りの穴、、、、は、第4図の
教示番号4番24と5番25の双方の穴に該当するため、両
方の教示番号に分類される。これを表に表すと次のよう
になる。
教示番号 分類番号 1 2 ,, 3 ,, 4 ,,,, 5 ,,,, これで、被測定物となる対象物体の全ての穴がマスタ
ーとなる対象物体で教示された穴に分類されたことにな
る。
次に、分類された各穴に対して、位置関係データPij
を用いることにより各穴を特定していく。
まず、教示番号1番に分類された穴はのみであるか
ら、この穴は特定されたことになる。即ち、第5図の穴
は第4図の穴21に特定された。
次に、教示番号2番に分類された穴を特定する。既に
特定された穴と教示番号2番に分類された穴、、
とのそれぞれの距離L16、L46、L67を、教示番号1番2
1の穴と2番22の穴との距離L12′と比較し、最も値が近
いものを選び出す。この場合、教示番号1番21と2番22
の穴との距離L12′と最も値が近いのは、穴と穴と
の距離L46なので、第5図の穴は第4図の穴22に特定
された。これでとの穴が特定された。
次に、教示番号3番に分類された穴を特定する。既に
穴は特定されているので、穴とについて、同様
に、既に特定された穴とのそれぞれの距離L14、L47
を、教示番号2番22の穴と3番23の穴との距離L23′と
比較し、最も値が近いものを選び出す。この場合、教示
番号2番22の穴と3番23の穴との距離L23′と最も値が
近いのは、穴と穴との距離L47なので、第5図の穴
は第4図の穴23に特定された。
次に、上記番号4番に分類された5つの穴、、
、、から1つを特定する。教示番号3番の場合と
同様に、穴、、、、と穴とのそれぞれの距
離L27、L37、L57、L78、L79を、教示番号3番23の穴と
4番24の穴との距離L34′と比較し、最も値が近いもの
を選び出す。この場合、教示番号3番23の穴と4番24の
穴との距離L34′と最も値が近いのは、穴と穴との
距離L27と、穴と穴との距離L79となり、穴とが
該当する。このように該当する候補が2種類以上ある場
合は、さらに教示番号5番25の穴に該当する穴を調べ
る。即ち、穴を教示番号4番24の穴と特定した場合
は、穴、、、と穴とのそれぞれの距離L29、L
39、L59、L89を、教示番号4番24の穴と5番25の穴との
距離L45′と比較し、最も値が近いものを選び出す。と
ころが、いずれの場合も該当するものが見つからないの
で、教示番号4番に特定した穴が間違っていることが
わかる。そこで、先ほど教示番号4番のもう一つの候補
となっていた穴について同様の比較を行う。即ち、穴
を教示番号4番24の穴と特定した場合は、穴、、
、と穴とのそれぞれの距離L23、L25、L28、L29
を、教示番号4番24の穴と5番25の穴との距離L45′と
比較し、最も値が近いものを選び出す。この場合、教示
番号4番24の穴と5番25の穴との距離L45′と最も値が
近いのは、穴と穴との距離L29なので、第5図の穴
は第4図の穴25に特定された。さらに、教示番号4番
に対応する穴は穴となり、すべての穴の特定が終了す
る。これを表に表すと次のようになる。
教示番号 分類番号 1 2 3 4 5 なお、候補を特定していく過程において、比較値が最
も近いものを選んでいったが、実際の対象物体は加工誤
差などにより教示通りの位置関係データが得られない場
合がある。そこで、各距離データにも許容範囲を設定し
ておき、この範囲内にあるものを複数候補選んでおき、
最後に、全ての誤差の合計が最も小さいパターンを特定
してもよい。
また、対象物体が左右対象の場合は、被測定物となる
対象物体とマスターとなる対象物体のそれぞれの距離Li
j、Lkl′だけでは、一義的に穴を特定できない場合が発
生する。この場合は、距離Lij、Lkl′に加え、被測定物
となる対象物体とマスターとなる対象物体のそれぞれの
方向θij、θkl′を併用するとよい。
以上で、マスターとなる対象物体の教示点として選ん
だ各穴が、被測定物となる対象物体のどの穴(特徴点)
に対応しているかが特定できたので、次に、被測定物と
なる対象物体の位置及び傾きが、マスターとなる対象物
体の位置及び傾きに対して、どれだけシフトしているか
を計算する。
まず、マスターとなる対象物体に対する被測定物とな
る対象物体の位置のシフト量は、例えば、マスターとな
る対象物体の教示番号1番21の穴の幾何学的特徴量F1′
の中の重心座標G1′と、この穴に対応すると特定された
被測定物となる対象物体の穴の幾何学的特徴量F6の重
心座標G6との差を算出することにより求める。即ち、重
心座標は通常X座標とY座標で与えられているので、両
重心座標のX座標およびY座標の差を計算すれば、被測
定物となる対象物体の位置がマスターとなる対象物体の
位置に対して、X方向にΔXだけ、Y方向にΔYだけシ
フトしていることがわかる。
次に、マスターとなる対象物体に対する被測定物とな
る対象物体の傾きのシフト量は、例えば、教示番号1番
21の穴と2番22の穴との位置関係データP12′の中の傾
きθ12′と、教示番号1番21の穴、2番22の穴のそれぞ
れに対応すると特定された穴、の位置関係データP4
6の中の傾きθ46との差を算出することにより求める。
これにより、被測定物となる対象物体の傾きがマスター
となる対象物体の傾きに対して、Δθだけシフトしてい
ることがわかる。
従って、被測定物となる対象物体の位置をマスターと
なる対象物体の位置に対して(−ΔX、−ΔY)だけ平
行移動させた後、−Δθだけ回転させれば、被測定物と
なる対象物体の位置は教示位置であるマスターとなる対
象物体の位置に戻ることになる。
このようにすれば、置かれている対象物体がロボット
に教え込まれた教示位置に対してどれだけシフトしてい
るかがわかり、このシフト量を補正量として用いロボッ
トの教示データを変更することにより、ロボットは置か
れている対象物に対して正確に位置決めができるように
なる。
以上の説明では、特徴点を対象物体の穴としたが、必
ずしもこれに限定するものではない。例えば、対象物体
のコーナーの位置なども特徴点として設定することがで
きる。また、幾何学的特徴量は、円形の穴を対象とした
ので、重心、面積で説明したが、これに限定されない。
特徴点の形状により種々の幾何学的特徴量が使用でき
る。例えば、多角形の特徴点であれば、コーナーの数な
ども有効な幾何学的特徴量となり得る。
(発明の効果) 本発明によれば、カメラで撮影された対象物体の位置
が予め教示された位置よりどれだけシフトしているかを
認識する場合、マスターとなる対象物体を撮影したマス
ター画像と被測定物となる対象物体を撮影した被測定物
画像のそれぞれの特徴点の幾何学的特徴量と位置関係デ
ータを比較するようにしているので、複雑な外形形状の
対象物体に対しても、被測定物となる対象物体が予め教
示された対象物体に対して位置や傾きがどれだけシフト
しているかを正確に算出することができる。
特に本発明は、マスター画像中に幾何学的特徴量が相
互に等しい特徴点のグループガ多数存在する場合におい
て、各グループより最低1個以上の特徴点を教示点とし
て選択し、各教示点毎にこれと幾何学的特徴量が等しい
被測定物画像の特徴点を分類しこれを特徴点候補とする
ことにより、マスター画像と被測定物画像の比較処理は
各教示点とこれに対応する複数の特徴点候補の間でのみ
行えばよいので、従来のようにマスター画像と被測定物
画像のそれぞれの全ての特徴点間の距離を算出すること
により特徴点候補を抽出する方法と比較して演算時間が
短縮された。
さらに、設定する教示点の数は対象物体の特徴点の幾
何学的特徴量に依存して決定され、同一の幾何学的特徴
量を持った特徴点が多くある場合には、教示点の数を少
なく設定することができる。これにより、マスターとな
る対象物体の教示点に対応する、被測定物となる対象物
体の特徴点を特定する処理においては、教示点の数は対
象物体の特徴点の幾何学的特徴量により適正に設定する
ことが可能となり、認識を短時間に行うことができるよ
うになった。
【図面の簡単な説明】
第1図は、本発明の実施例に使用する対象物体の形状を
示したものである。1は対象物体である。 第2図は、カメラで撮影された対象物体を示したもので
ある。2は画面の境界である。また、11から19は視覚セ
ンサが認識した対象物体内の特徴点としての穴である。 第3図は、特徴点間の位置関係データの説明を行ったも
のである。L19、θ19は2個の穴の距離、及び方向であ
る。 第4図は、対象物体の教示例を示したものである。21か
ら25は教示された特徴点である。 第5図は、認識しようとする被測定物となる対象物体を
カメラで撮影した例である。〜は、視覚センサが認
識した特徴点(穴)である。 第6図は、視覚センサを用いたロボット作業の模式図で
ある。41はロボット、42はロボットの制御装置、43はカ
メラ、44は視覚センサ、45は作業テーブル、46は対象物
体である。 第7図は、従来例を説明するための図で、51は撮影され
ている対象物体、52は教示位置における対象物体であ
る。

Claims (3)

    (57)【特許請求の範囲】
  1. 【請求項1】認識すべき対象物体をカメラなどで撮影
    し、該撮影画像を基に画像処理の手法を用いて前記対象
    物体の位置や傾きを認識する方法であって、特に対象物
    体の一部であって形状的に特徴がある複数の領域即ち特
    徴点に関して、幾何学的特徴量が相互に等しい特徴点が
    存在する場合の認識方法において、 予め、マスターとなる前記対象物体の撮影画像即ちマス
    ター画像に対して画像処理を施すことにより前記特徴点
    を複数個抽出し、 該抽出された複数個の特徴点について幾何学的特徴量が
    相互に等しい特徴点毎に複数個のグループを作成し、 該複数個のグループのそれぞれについてグループ内の特
    徴点の少なくとも1個以上を教示点として選出し、 該選出された複数個の教示点の幾何学的特徴量及び各教
    示点間の位置関係データを算出し、 該算出された幾何学的特徴量及び位置関係データの許容
    誤差を設定し、 しかる後、被測定物となる対象物体の撮影画像即ち被測
    定物画像に対して前記マスター画像の場合と同様の画像
    処理を施し前記複数個の特徴点を抽出し、 該抽出された被測定物画像の特徴点の幾何学的特徴量及
    び各特徴点間の位置関係データを算出し、 前記被測定物画像の全ての特徴点に対して、前記マスタ
    ー画像の各教示点の幾何学的特徴量の許容誤差の範囲に
    含まれる特徴点即ち複数の特徴点候補を抽出し、該抽出
    された被測定物画像の特徴点候補の位置関係データと前
    記マスター画像の教示点の位置関係データを比較するこ
    とにより、前記マスター画像のそれぞれの教示点に対応
    する前記被測定物画像の特徴点を前記特徴点候補の中か
    ら特定し、特定された被測定物画像の特徴点とこれに対
    応する前記マスター画像の教示点のそれぞれの幾何学的
    特徴量及び位置関係データを比較することにより、前記
    マスター画像の対象物体の位置及び傾きを基準としたと
    きの前記被測定物画像の対象物体の位置及び傾きを認識
    することを特徴とする対象物体の位置姿勢認識方法。
  2. 【請求項2】前記各特徴点間の位置関係データは特徴点
    間の距離及び傾きからなることを特徴とする特許請求の
    範囲第1項記載の対象物体の位置姿勢認識方法。
  3. 【請求項3】前記幾何学的特徴量は特徴点の重心及び面
    積からなることを特徴とする特許請求の範囲第1項記載
    の対象物体の位置姿勢認識方法。
JP63320575A 1988-12-21 1988-12-21 対象物体の位置姿勢認識方法 Expired - Fee Related JP2562047B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP63320575A JP2562047B2 (ja) 1988-12-21 1988-12-21 対象物体の位置姿勢認識方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP63320575A JP2562047B2 (ja) 1988-12-21 1988-12-21 対象物体の位置姿勢認識方法

Publications (2)

Publication Number Publication Date
JPH02167410A JPH02167410A (ja) 1990-06-27
JP2562047B2 true JP2562047B2 (ja) 1996-12-11

Family

ID=18122962

Family Applications (1)

Application Number Title Priority Date Filing Date
JP63320575A Expired - Fee Related JP2562047B2 (ja) 1988-12-21 1988-12-21 対象物体の位置姿勢認識方法

Country Status (1)

Country Link
JP (1) JP2562047B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7260252B2 (en) 2002-10-22 2007-08-21 Kabushiki Kaisha Toshiba X-ray computed tomographic apparatus, image processing apparatus, and image processing method
US7502504B2 (en) 2002-10-17 2009-03-10 Fanuc Ltd Three-dimensional visual sensor
KR102252888B1 (ko) * 2020-01-03 2021-05-17 포테닛 주식회사 공간 내에서 이송로봇의 위치 검출장치 및 방법

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1094991A (ja) * 1996-09-24 1998-04-14 Mazda Motor Corp 物品位置検出方法及び装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5282163A (en) * 1975-12-29 1977-07-09 Nec Corp Characteristics point pair decision unit
JPS61290311A (ja) * 1985-06-19 1986-12-20 Hitachi Ltd はんだ付部の検査装置及びその方法
JPS6344103A (ja) * 1986-08-12 1988-02-25 Nissan Motor Co Ltd 位置姿勢認識装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7502504B2 (en) 2002-10-17 2009-03-10 Fanuc Ltd Three-dimensional visual sensor
US7260252B2 (en) 2002-10-22 2007-08-21 Kabushiki Kaisha Toshiba X-ray computed tomographic apparatus, image processing apparatus, and image processing method
KR102252888B1 (ko) * 2020-01-03 2021-05-17 포테닛 주식회사 공간 내에서 이송로봇의 위치 검출장치 및 방법

Also Published As

Publication number Publication date
JPH02167410A (ja) 1990-06-27

Similar Documents

Publication Publication Date Title
US5692061A (en) Method of utilizing a two-dimensional image for detecting the position, posture, and shape of a three-dimensional objective
CN111611989B (zh) 一种基于自主机器人的多目标精准定位识别方法
WO2004011876A1 (en) Apparatus and method for automatically arranging three dimensional scan data using optical marker
CN111627072A (zh) 一种对多传感器进行标定的方法、装置和存储介质
TW200821156A (en) Screen printing equipment, and method for image recognition and alignment
CN113269762B (zh) 屏幕不良检测方法、***及计算机存储介质
US20130058526A1 (en) Device for automated detection of feature for calibration and method thereof
CN115609591B (zh) 一种基于2D Marker的视觉定位方法和***、复合机器人
CN108907526A (zh) 一种具有高鲁棒性的焊缝图像特征识别方法
KR900002509B1 (ko) 화상 처리 장치
CN113538583A (zh) 一种工件在机床上位置的精准定位方法及视觉***
JPS62285004A (ja) 対象パタ−ンの回転角検出方式
JP2562047B2 (ja) 対象物体の位置姿勢認識方法
US6633663B1 (en) Method and system for determining component dimensional information
JPH09189513A (ja) マーカ重心計測方法および装置
JPH06243236A (ja) 視覚認識装置の座標系校正パラメータ設定装置
JP3684799B2 (ja) 移動体の停止位置ズレ量検出装置
CN114782535B (zh) 工件位姿识别方法、装置、计算机设备及存储介质
CN116823708A (zh) 基于机器视觉的pc构件边模识别与定位研究
TWI504859B (zh) 拍攝並拼接物件影像的方法
JPH07121713A (ja) パターン認識方法
JP2003078925A (ja) カメラ校正システムおよびカメラ校正方法
JP2912070B2 (ja) 対象物の位置認識方法
JP2013010160A (ja) ロボット制御システム、ロボットシステム及びマーカー処理方法
KR100266805B1 (ko) 2단계의 영상 처리를 통한 조선소 조립부재의 위치 및 자세 측정방법

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees