JP5056841B2 - 認識処理方法およびこの方法を用いた画像処理装置 - Google Patents

認識処理方法およびこの方法を用いた画像処理装置 Download PDF

Info

Publication number
JP5056841B2
JP5056841B2 JP2009297530A JP2009297530A JP5056841B2 JP 5056841 B2 JP5056841 B2 JP 5056841B2 JP 2009297530 A JP2009297530 A JP 2009297530A JP 2009297530 A JP2009297530 A JP 2009297530A JP 5056841 B2 JP5056841 B2 JP 5056841B2
Authority
JP
Japan
Prior art keywords
feature point
combination
model
point group
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009297530A
Other languages
English (en)
Other versions
JP2010113731A (ja
Inventor
紫朗 藤枝
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp filed Critical Omron Corp
Priority to JP2009297530A priority Critical patent/JP5056841B2/ja
Publication of JP2010113731A publication Critical patent/JP2010113731A/ja
Application granted granted Critical
Publication of JP5056841B2 publication Critical patent/JP5056841B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/26Measuring arrangements characterised by the use of optical techniques for measuring angles or tapers; for testing the alignment of axes
    • G01B11/27Measuring arrangements characterised by the use of optical techniques for measuring angles or tapers; for testing the alignment of axes for testing the alignment of axes
    • G01B11/272Measuring arrangements characterised by the use of optical techniques for measuring angles or tapers; for testing the alignment of axes for testing the alignment of axes using photoelectric detection means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/757Matching configurations of points or features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)

Description

この発明は、認識対象物の特徴を表す点の集合(以下、「特徴点群」ともいう。)について、あらかじめ登録された認識対象物のモデルの特徴点群との対応関係から認識対象物の位置や姿勢を認識する方法、およびこの認識処理方法が適用された画像処理装置に関する。
2次元の画像処理で処理対象画像中の認識対象物の位置や姿勢を認識する場合の代表的な方法として、あらかじめ登録したモデル画像と処理対象の画像との間の相関値を求める方法がある(たとえば、特許文献1)。また、ステレオカメラを用いた3次元計測処理により認識対象物の特徴点の3次元座標を複数求めた後に、3次元空間におけるこれらの特徴点の分布パターンとモデルの特徴点群の分布パターンとの相関値を求め、空間における認識対象物の位置や姿勢を認識する場合もある(たとえば特許文献2)。
特開2005−346232号公報 特開2004−295223号公報
2次元の画像処理においては、認識対象物の位置や向きがモデルとは異なるものになるほか、カメラと認識対象物との距離のばらつきによって画像中の認識対象物の大きさが変わる場合もある。このように、モデル画像とは違う状態の計測対象物を精度良く認識するために、従来では、一般に向きや大きさの異なる複数種のモデル画像を登録し、モデル画像毎に相関値を求めるようにしている。しかし、このような方法では、モデル画像との照合回数が増えるほど、処理に時間がかかってしまう。
3次元の認識処理を行う場合には、モデルの特徴点群の位置や方向を種々に変更して、認識対象物の特徴点群に対する相関値を求める処理を繰り返し実行する。この場合にも、モデルの特徴点群の位置および方向の組み合わせが多岐にわたるほど、処理にかかる時間が長くなるという問題が生じる。
このように、2次元、3次元のいずれの処理においても、認識の精度を向上しようとすると、処理時間が長くなってしまう。この種の認識処理は、計測や検査の前処理として行われることが多いため、処理時間が長くなることは望ましいことではない。
この発明は、特に2次元の認識処理における問題に着目し、認識精度を確保しつつ、一定の時間内に処理を終了できるようにすることを、課題とするものである。
この発明による認識処理方法は、認識対象物を撮像することにより生成された2次元画像から抽出された認識対象物の特徴点群とあらかじめ登録されたモデルの特徴点群との対応関係に基づいて認識対象物を認識するもので、以下の第1〜第4のステップを実行することを特徴とする。
第1ステップでは、モデルの特徴点群に含まれる各特徴点を3個ずつ組み合わせた各組み合わせのうち、各辺の長さがそれぞれあらかじめ定めた基準の範囲に含まれる三角形を構成する特徴点の組み合わせをモデルの組み合わせに設定して、設定されたモデルの組み合わせを特定するための情報をメモリに登録する。第2ステップでは、認識対象物の特徴点群に含まれる各特徴点を3個ずつ組み合わせた各組み合わせのうち、各辺の長さがそれぞれ基準の範囲に含まれる三角形を構成する特徴点の組み合わせを、比較対象の組み合わせに設定する。第3ステップでは、メモリの登録情報により特定されるモデルの組み合わせと比較対象の組み合わせとを順に対応づけて、対応づけた組み合わせ毎に、各組み合わせにおける特徴点の対応関係を複数とおり設定して、設定された対応関係毎に、一方の組み合わせの各特徴点をそれぞれ他方の組み合わせの対応する特徴点に変換した場合の変換パラメータを求める処理と、この変換パラメータにより前記モデルまたは認識対象物の特徴点群を変換した場合の変換後の特徴点群の他方の特徴点群に対する適合度を求める処理とを実行する。第4ステップでは、第3ステップで求めた各適合度の中で最大となる適合度が得られたときに使用された変換パラメータ、または所定の目標値に達する適合度が得られたときに使用された変換パラメータを、モデルの特徴点群と認識対象物の特徴点群との対応関係を示す変換パラメータとして特定する。
認識対象物の位置や姿勢がモデルと異なっていても、モデルの所定数の特徴点に対する対応点が判明している場合には、これら対応関係にある特徴点の座標を用いて、モデルの特徴点群を認識対象物の特徴点群と同様の状態に変換するための変換パラメータを求めることができる。上記の方法は、この原理を逆に応用したものである。
すなわち、この方法では、モデルの特徴点群と認識対象物の特徴点群との対応関係は不明であるが、各特徴点群からそれぞれ3個ずつ抽出した特徴点を対応関係にあると仮定し、両者間の関係を表す変換パラメータを求める。実際にこれらの特徴点が対応関係にあるならば、特徴点群の他の特徴点間の関係も、同様の変換パラメータにより表すことができるはずである。したがって、上記の変換パラメータを用いて認識対象物またはモデルの特徴点群を変換した場合、その変換後の座標が他方の特徴点群に適合する度合は、正しく対応づけられていない特徴点の組み合わせから求めた変換パラメータによる場合の適合の度合より高くなると考えられる。よって、特徴点の組み合わせの対応づけ毎に求めた変換パラメータについて、モデルの特徴点と認識対象物の特徴点との関係に対する適合度を求め、これらの適合度のうち最大の適合度を得たときの変換パラメータを特定すれば、認識対象物の位置や姿勢などを高い確度で認識することができる。
なお、特定される変換パラメータは、全ての対応づけの中で最大の適合度が得られたときの変換パラメータであるのが望ましいが、これに限定されるものではない。たとえば、対応づけの途中で適合度があらかじめ定めた目標値以上になった時点で処理を打ち切り、その適合度を得たときの変換パラメータを特定してもよい。
上記の方法によれば、認識対象物を高い精度で認識することが可能になる。また、基準の範囲を表す上限値および下限値を調整することによって3個の特徴点の組み合わせの数を絞り込むことができるから、変換パラメータや適合度の算出に要する時間が長くなりすぎるのを防止することができる。
上記の方法の第3ステップでは、特徴点群の位置ずれ量および回転ずれ量、ならびに倍率を反映した変換パラメータを用いることができる。たとえばアフィン変換の変換パラメータを用いることができる。
上記方法の好ましい態様では、第1ステップおよび第2ステップで用いられる基準の範囲を表す上限値および下限値を入力するユーザの操作を受け付けて、基準の範囲を設定した後に、第1〜第4の各ステップを実行する。
さらに好ましい態様では、第1ステップおよび第2ステップでは、一辺の長さが上記の上限値と下限値との間の値になる正三角形を構成する特徴点の組み合わせを設定する。このようにすれば、特徴点の組み合わせ数を大幅に削減して処理を高速化することができる。また、ユーザーにとっても、対象物に対する三角形の設定状態を推測しやすくなるから、上限値や下限値の設定が容易になる。
本発明の他の態様では、第3ステップにおいて、モデルの特徴点群および認識対象物の特徴点群のいずれかを変換対象として、変換対象の特徴点群と他方の特徴点群との間で毎回設定される対応関係毎に、変換パラメータを求める処理と適合度を求める処理とを実行する。適合度を求める処理では、変換対象の特徴点群中の各特徴点に順に着目して、着目中の特徴点を変換パラメータにより変換するステップと、他方の特徴点群における変換後の特徴点への対応点を検索するステップとを実行しつつ、対応点が見つかった特徴点の数を示す第1の累計値と対応点が見つからなかった特徴点の数を示す第2の累計値とを求め、第2の累計値が所定のしきい値に達する前に変換対象の特徴点群中の全ての特徴点に対する処理が終了したときの第1の累計値に基づき適合度を導出する。一方、変換対象の特徴点群中の全ての特徴点に対する処理が終了する前に第2の累計値がしきい値に達した場合には、現在設定されている特徴点の対応関係に対する処理を打ち切って、次の特徴点の対応関係に対する処理に移行する。
上記の認識処理方法が適用された画像処理装置は、認識対象物の2次元画像より前記認識対象物の特徴点を複数抽出し、抽出された特徴点群とあらかじめ登録されたモデルの特徴点群との対応関係に基づいて認識対象物を認識するものである。この画像処理装置は、特徴点群中の一対の特徴点の間の距離について、その距離の基準の範囲を示す上限値および下限値を入力するための入力手段と、モデルの特徴点群中の各特徴点を3個ずつ組み合わせた各組み合わせのうち、各辺の長さがそれぞれ基準の範囲に含まれる三角形を構成する特徴点の組み合わせを、モデルの組み合わせに設定するモデル設定手段と、モデル設定手段により設定されたモデルの組み合わせを特定するための情報をメモリに登録する登録処理手段と、入力画像から抽出された特徴点を3個ずつ組み合わせた各組み合わせのうち、各辺の長さがそれぞれ前記基準の範囲に含まれる三角形を構成する特徴点の組み合わせを、比較対象の組み合わせに設定する組み合わせ設定手段と、メモリの登録情報により特定されるモデルの組み合わせと比較対象の組み合わせとを順に対応づけて、対応づけた組み合わせ毎に、各組み合わせにおける特徴点の対応関係を複数とおり設定して、設定された対応関係毎に、一方の組み合わせの各特徴点をそれぞれ他方の組み合わせの対応する特徴点に変換した場合の変換パラメータを求める処理と、この変換パラメータにより前記モデルまたは認識対象物の特徴点群を変換した場合の変換後の特徴点群の他方の特徴点群に対する適合度を求める処理とを、実行する照合処理手段と、照合処理手段により求められた各適合度の中で最大となる適合度が得られたときに使用された変換パラメータ、または所定の目標値に達する適合度が得られたときに使用された変換パラメータを、モデルの特徴点群と認識対象物の特徴点群との対応関係を示す変換パラメータとして特定する特定手段とを、具備する。
上記構成の画像処理装置によれば、最終的に特定された変換パラメータにより画像中の認識対象物の位置や姿勢を判別し、その判別結果を出力することができる。また特定された変換パラメータにより処理対象の画像の各点を変換することにより画像のずれを補正した後に、補正後の画像を対象に、パターン認識などの画像処理を実行することもできる。
上記の認識処理方法および画像処理装置によれば、認識対象物の特徴点群とモデルの特徴点群との間で対応関係にある特徴点には共通の変換パラメータを適用できるという原則に基づき、各特徴点群間の対応関係を精度良く認識することができる。また、認識対象物の位置や姿勢が変化しても、特徴点の数が極端に変わることはないから、処理時間が長引くおそれがない。また、認識対象物の大きさや形状に応じて特徴点間の距離に対する基準値を調整することによって、照合対象となる特徴点の組み合わせを絞り込むことができるから、処理時間を短縮することができる。
画像処理装置のブロック図である。 三角形の対応づけ例を示す説明図である。 モデル画像および処理対象画像ならびにこれらのエッジ画像を、特徴点の対応関係とともに示す説明図である。 モデル三角形の登録処理の流れを示すフローチャートである。 本処理の流れを示すフローチャートである。 変換行列の特定処理の詳細な流れを示すフローチャートである。 変換行列の特定処理の詳細な流れの他の例を示すフローチャートである。 図7の続きのフローチャートである。 3次元モデルおよび認識対象物の例を特徴点の対応関係とともに示す説明図である。 3次元認識処理を用いたピッキングシステムの例を示す説明図である。 ピッキングシステムのブロック図である。 ピッキング対象の部品の3次元モデルと実際の部品とを特徴点の対応関係とともに示す説明図である。 ロボット制御のために画像処理装置で実行される認識処理の流れを示すフローチャートである。
図1は、この発明の一実施例にかかる画像処理装置の構成を示す。
この画像処理装置は、工業製品や印刷物など、形状や大きさがほぼ同一の認識対象物を1つずつ撮像し、生成された画像中の認識対象物の位置や姿勢を認識するためのもので、撮像のためのカメラ1とコントローラ2とにより構成される。
コントローラ2には、画像入力部3,エッジ抽出部4、画像メモリ5、入出力インターフェース6、画像出力部7、モニタ8、制御部10などが含まれる。画像入力部3は、カメラ1用のインターフェースやA/D変換回路を含むもので、カメラ1からの濃淡画像信号を入力してディジタル変換する。変換後のディジタル画像は、画像メモリ5に格納されるとともに、エッジ抽出部4に与えられる。
エッジ抽出部4には、ディジタル画像を微分処理して濃度勾配の大きさを画素毎に算出する微分回路と、算出された濃度勾配の大きさを所定のしきい値と比較する比較回路とが含まれる。これらの回路による処理により、ディジタル画像は、エッジ構成画素を黒画素とし、その他の画素を白画素とする2値のエッジ画像に変換される。この変換後のエッジ画像も画像メモリ5に格納される。
入出力インターフェース6は、図示しない入力部(キーボード、マウスなど)や外部機器に接続される。画像出力部7には、D/A変換回路やモニタ8へのインターフェース回路などが含められる。この画像出力部7は、制御部10からの指令に応じて画像メモリ5やRAM13から表示対象のデータを読み出し、これをモニタ8に表示させることができる。
制御部10は、CPU11、ROM12、RAM13、およびハードディスク14により構成される。ハードディスク14には、認識処理を実行するのに必要なプログラムや設定データなどが格納されている。また、RAM13には、これらのプログラムや設定データに基づく処理によって設定された特徴点の組み合わせや、後記する一致度などのデータが格納される。
図1には図示していないが、計測対象物がカメラ1の視野に入ると、図示しないセンサまたはCPU11からカメラ1にトリガ信号が入力される。カメラ1は、このトリガ信号に応じて撮像を行う。以下、この撮像により生成される認識対象物のディジタル画像を「処理対象画像」といい、認識対象物のことを、単に「対象物」という。
ハードディスク14には、あらかじめ対象物のモデルを撮像して得られたモデル画像やそのエッジ画像ならびに後記するモデル三角形に関する情報が登録されている。
対象物の処理対象画像およびエッジ画像が画像メモリ5に格納されると、CPU11は、まず、エッジ画像を用いて、その画像に分布する特徴点群(以下では、「処理対象の特徴点群」という。この実施例の特徴点群はエッジ構成点の集合である。)をモデルのエッジ画像における特徴点群(以下、「モデルの特徴点群」という。)と照合する処理により、対象物の位置や向きなどを認識する。さらに、この認識結果に基づき、処理対象画像中の対象物を含む範囲に計測領域を設定する処理や、この計測領域内の対象物がモデル画像と同様の姿勢になるように補正する処理を実行した後に、本格的な計測処理や検査の処理に移行する。
以下、処理対象の特徴点群とモデルの特徴点群とを照合する処理について、詳細に説明する。
処理対象画像中の対象物の位置や向きは、モデル画像とは異なるものになることが多い。また、大きさについても、カメラ1に対する距離によっては、モデル画像の大きさと異なるものになる可能性がある。
したがって、モデルの特徴点群中の一特徴点の座標を(mx,my)とし、処理対象の特徴点群において(mx,my)に対応する点の座標を(tx,ty)とすると、(tx,ty)は、(mx,my)をアフィン変換した場合の変換後の座標に相当すると考えられる。
ここで、x,yの各軸方向における対象物の位置ずれ量をdx,dyとし、モデルに対する対象物の回転角度をθとし、モデルに対する計測対象物のx方向における倍率をbx、y方向における倍率をbyとすると、上記の2点の関係は、下記の(1)式のように表される。
Figure 0005056841
上記の(1)式に示すように、2次元の画像処理においては、モデルと対象物との対応関係を、dx,dy、θ,bx,byの5つのパラメータによって表すことができる。以下では、これらのパラメータを変換パラメータと呼び、これら変換パラメータによって特定される行列Hを変換行列と呼ぶ。変換行列Hも、広義の変換パラメータであると考えられる。よって、この変換行列Hまたはdx,dy、θ,bx,byを求める処理によって、対象物の状態を認識することができる。
ここで、(1)式を展開すると、(1−1)式および(1−2)式を導出することができる。
tx=mx・T00+my・T01+T02 ・・・(1−1)
ty=mx・T10+my・T11+T12 ・・・(1−2)
なお、T01〜T12は、下記のとおり、変換行列Hの各要素を置き換えたものである。
00=bx・cosθ ・・・(a)
01=−by・sinθ ・・・(b)
02=dx ・・・(c)
10=bx・sinθ ・・・(d)
11=by・cosθ ・・・(e)
12=dy ・・・(f)
上記によれば、モデルの特徴点群中の3点の座標をそれぞれ(mx,my)として、これらの点につき、処理対象の特徴点群中における対応点の座標(tx,ty)を特定することができれば、各対応点の座標の組み合わせを(1−1)式および(1−2)式にあてはめて、3元連立方程式を設定することができる。よって、これらの連立方程式を解くことにより、T00〜T12の値を求めることができ、変換行列Hを特定することができる。
また、T00〜T12の値が判明すれば、T02,T12の値からdx,dyを特定することができる((c)(f)式参照。)。また、T00,T10の値からθを求めることもできる((a)(d)式より、tanθ=sinθ/cosθ=(T10/T00)となるから、θ=tan−1(T10/T00)である。)。さらに、θの値が求まれば、(a)(b)(d)(e)式からbx,byの値を求めることもできる。
このように、処理対象の特徴点群とモデルの特徴点群との間で対応関係にある特徴点を3組以上特定することができれば、これらの点の座標を用いた演算により各種の変換パラメータを求めることができる。
上記の考察に基づき、この実施例では、モデルおよび処理対象の各特徴点の座標を用いた演算処理により、未知の変換行列Hを求めることによって、対象物を認識するようにしている。
この処理では、あらかじめ、モデルの特徴点群の中から所定の条件を満たす三角形を構成する3個の特徴点を複数組抽出し、これらの特徴点の組み合わせを登録する。以下では、この3個の特徴点の組み合わせを、各特徴点により構成される三角形としてとらえて、「モデル三角形」と呼ぶ。
処理対象の特徴点群についても、モデルの特徴点群に対するのと同様の条件で、3個の特徴点の組み合わせを複数組抽出する(以下、この特徴点の組み合わせを「比較対象三角形」と呼ぶ。)。そして、上記のモデル三角形と比較対象三角形とを順に対応づけ、対応づけ毎に、その対応づけが正しいものと仮定して、各三角形の頂点の座標を(1−1)式および(1−2)式にあてはめ、変換行列Hを算出する。さらに、対応づけ毎に求めた変換行列Hのうち、モデル特徴点群の各点をこの行列Hにより変換したときの変換後の特徴点群が処理対象の特徴点群に適合する度合(以下、「変換行列Hの適合度」または単に「適合度」という。)によって、モデルの特徴点群と処理対象の特徴点群との対応関係を最も的確に表した変換行列H(以下、「最適な変換行列H」という。)を特定する。
さらに、この実施例では、各辺の長さの値がそれぞれ所定の数値範囲(後記する上限値dと下限値dとにより定められる。)に入っていることを、モデル三角形および比較対象三角形の抽出条件とする。上限値dおよび下限値dは、ユーザーの入力に応じて自由に変更することができる。
図2は、モデル三角形と比較対象三角形との対応づけ例を示す。
対応づけ処理では、モデル三角形の各頂点A,B,Cに対し、比較対象三角形の1点を点Aへの対応点A´とし、もう一点を点Bへの対応点B´とし、残り一点を点Cへの対応点C´とする。ただし、特徴点群間の対応関係は全く判明していないので、各点の対応関係を変更して、6通りの対応づけを行う必要がある。
上記の点A,B,Cと点A´,B´,C´との対応づけにより求めた変換行列Hが最適なものであるかどうかは、上記した適合度に基づいて判断される。この実施例では、モデルの特徴点群中の各特徴点を変換行列Hにより変換し、処理対象の特徴点群中の変換後の座標に近い位置に特徴点があるかどうかをサーチし、特徴点が見つかった度合いを適合度として求めている。
点A,B,Cと点A´,B´,C´との対応づけが正しければ、この対応づけに基づき求めた変換行列Hによりモデルの特徴点群中の各特徴点を変換すると、変換後の座標またはその近傍位置に高い確度で対応点が存在すると考えられる。したがって、誤った対応づけが行われた場合の変換行列Hよりも、適合度が高くなると考えられる。
よって、この実施例では、最大の一致度が得られたときの変換行列Hを最適な変換行列として特定し、特定した変換行列に基づき、対象物の認識処理を行うようにしている。
図3は、モデル画像および処理対象画像の具体例を、認識処理の結果とともに示す。
この例は、印刷物を認識対象物とするもので、図中、左側にモデル画像およびそのエッジ画像を示し、右側に処理対象画像およびそのエッジ画像を示している。また、この例では、各エッジ画像中に、各画像間で対応づけられる三角形の組のうちの特定の1組(三角形ABCとA´B´C´)を示している。
三角形は、平面を表す最小の単位であり、特徴点との関係も認識しやすい。したがって、図3に示すようなエッジ画像と特定の三角形をモニタに表示すれば、ユーザーは、対象物の位置や回転状態を容易に認識することが可能になる。
さらに、この実施例では、三角形の各辺の長さの範囲を定める上限値dおよび下限値dを調整することによって、抽出される三角形の数を絞り込むことができる。したがって、特徴点群中に多数の特徴点があっても、三角形の各辺の長さ範囲を調整することによって、照合処理の時間が長くなるのを防ぐことができる。また、対象物の大きさや形状に応じて各辺の長さの範囲を定めるようにすれば、三角形の分布パターンの特徴が明確になり、適合度の信頼性を高めることができる。
したがって、三角形の抽出条件を可変設定することにより、演算時間を短縮することができ、また認識の精度を確保することができる。
さらに、抽出対象の三角形を正三角形にまで限定すると、三角形の数を大幅に絞り込んで演算の時間を短縮することができる。また、ユーザーが上限値dや下限値dを設定する場合に、特徴点群と三角形との関係をイメージしやすくなるから、設定を簡単に行うことができる。
なお、対象物の認識処理では、モデルに対する対象物の位置ずれ、回転ずれ、倍率変化を認識結果として出力したい場合には、アフィン変換の実質的な変換パラメータであるdx,dy,θ,bx,byまで特定すれば良いが、その必要がなければ、最適な変換行列Hの特定をもって、認識処理を終了してもよい。
変換行列Hが特定できれば、これを用いて処理対象画像をモデル画像と同様の状態に変換して、必要な計測や検査を行うことができる。また変換行列によって、あらかじめ定めた基準点に対応する点を特定し、その点を基準に、計測対象の部位を特定することもできる。
以下、上記の認識処理方法を実施する際の制御部10による処理を詳細に説明する。
まず、図4は、本処理に先立って、モデル三角形を登録する際の処理の流れである。この処理は、特徴点の組み合わせの抽出条件となる三角形の上限値dおよび下限値dがユーザーにより入力され、対象物のモデルがカメラ1の視野内に搬入されたことに応じて開始される。
最初のステップ101(以下、各ステップを「ST」と略す。)では、搬入されたモデルを撮像する。ST102では、エッジ抽出部4によって、上記の撮像により生成されたモデル画像から特徴点(エッジ構成点)を抽出する。
以下、抽出された特徴点の座標を用いて、モデル三角形を設定、登録する処理を実行する。
まず、ST103では、モデル三角形を特定するためのカウンタiに、初期値の0をセットする。つぎのST104では、抽出された特徴点の中から任意の3点A,B,Cをサンプリングする。ST105では、サンプリングした各点を2つずつ組み合わせ、組み合わせ毎に距離L1,L2,L3を算出する。
ST106〜108では、算出された距離L1,L2,L3が、それぞれ上限値dと下限値dとにより規定される長さ範囲に入るかどうかをチェックする。ここで、L1,L2,L3がいずれも上記の長さ範囲に入ると判断すると、ST109に進み、A,B,Cの各点をi番目のモデル三角形Tの構成点に設定する。
さらにST110では、上記のモデル三角形Tを登録する。なお、ここで登録される情報は、たとえば各点A,B,Cの座標をiの現在値に対応づけた構成のものとなる。
以下、特徴点の組がすべてサンプリングされるまで、ST112においてiの値を更新しつつ、ST104〜110を繰り返し実行する。ただし、サンプリングされた3点間の距離L1〜L3のいずれか1つでも、上限値dと下限値dとにより示される長さ範囲に含まれない場合には、その3点による三角形はモデル三角形としては登録されない。
特徴点の組がすべてサンプリングされると、ST111が「YES」となり、モデル登録処理を終了する。この終了時点でのiの値が後記するimaxとなる。
図4に示した一連の処理は、モデルの特徴点群に含まれる各特徴点をn個(n=3)ずつ組み合わせた各組み合わせのうち、特徴点間の距離があらかじめ定めた基準値を満たすものをモデルの組み合わせとして設定して、設定されたモデルの組み合わせを特定するための情報をメモリに登録するステップに相当する。
図5は、本処理の流れを示す。なお、この図5のST1〜5は一対象物に対する流れであって、対象物がカメラ1の撮像エリアに入る毎に実行される。
ST1では、対象物を撮像する。つぎのST2では、エッジ抽出部4によって、上記の撮像により生成された処理対象画像から特徴点を抽出する処理が行われる。
ST3では、ST2の処理により抽出された特徴点群を対象に、比較対象三角形を抽出する。この抽出処理の手順は、図4のST103〜112と同様であるので、詳細な説明は省略するが、抽出された各三角形には、それぞれ識別番号jが付与される。また比較対象三角形を特定する情報として、各識別番号jに三角形の各構成点の座標を対応づけたデータが設定され、RAM13に格納される。
上記のST3は、認識対象物の特徴点群に含まれる各特徴点をn個(n=3)ずつ組み合わせた各組み合わせのうち、特徴点間の距離が基準値を満たすものを、比較対象の組み合わせに設定するステップに相当する。
ST4では、登録されているモデル三角形と上記の比較対象三角形とを順に対応づけて、最適な変換行列Hを特定する処理を実行する。この特定により、対象物の位置や向きなど、処理対象画像中の対象物の状態が認識されることになる。
この後は、ST5において、特定された変換行列Hを用いて、処理対象画像の補正や計測対象部位の特定などの処理を行った後、本格的な計測処理や検査を実行する。
上記のST4は、モデルの組み合わせと比較対象の組み合わせとを順に対応づけて、対応づけた組み合わせ毎に、一方の組み合わせの各特徴点を他方の組み合わせの各特徴点に変換した場合の変換パラメータを求め、さらに、この変換パラメータについて、モデルの特徴点群と認識対象物の特徴点群との関係に対する適合度を求めるステップ、および各適合度に基づき、モデルの特徴点群と認識対象物の特徴点群との対応関係を示す変換パラメータを特定するステップを、実行するものである。以下、これらのステップに関する具体的な処理の流れについて、図6を用いて詳細に説明する。
ST401,402では、初期設定として、適合度の最大値Cmaxおよびカウンタiに、それぞれ初期値の0をセットする(ST401,402)。この後は、iの値によりモデル三角形Tを特定しながら、三角形T毎に下記の処理を実行する。
ST403では、i番目のモデル三角形Tの登録データから、構成点A,B,Cの座標を読み出す。つぎのST404では、比較対象三角形を特定するためのカウンタjに初期値の0をセットする。ST405では、j番目の比較対象三角形Tの各構成点の座標を読み出し、これらの点をモデル三角形Tの構成点A,B,Cに対応づける。この対応づけには6通りの態様があるが、ST405では、これらのうちの1つを実行する。さらにつぎのST406では、対応づけの実行回数を示すカウンタpに初期値の1をセットする。
ST407では、対応づけられた各点の座標を前出の(1−1)式および(1−2)式にあてはめることにより、2とおりの3元連立方程式を設定し、これらを用いて、モデル三角形Tiを比較対象三角形Tjに変換する場合の変換行列Hijpを算出する。
以下のST408〜414は、上記の変換行列Hijpの適合度CijPを算出するものである。ST408では、カウンタkおよび変換行列Hijpの適合度Cijpに初期値の0をセットする。つぎに、ST409では、モデルの特徴点群中のk番目の特徴点Aの座標を読み出す。ST410では、このAの座標を変換行列Hijpを用いて変換し、変換後の点をBとする。
ST411では、処理対象の特徴点群中に上記のBに対応する点があるかどうかをチェックする。ここでは、処理対象の特徴点群において、対象物の特徴点群中のBと同じ座標、または当該座標から所定の距離範囲に特徴点があれば、その特徴点をBの対応点であるとする。この場合にはST411が「YES」となってST412に進み、適合度Cijpを、現在値に1を加算した値に更新する。
一方、変換後の点Bへの対応点が見つからなかった場合には、ST411は「NO」となり、適合度Cijpの更新処理はスキップされる。
以下、kの値がモデルの特徴点の総数kmaxになるまで上記の処理を行うことにより、モデルの特徴点の変換後の座標が処理対象の特徴点群に対応した頻度が、各特徴点群間の関係に対する変換行列Hijpの適合度Cijpとして算出される。
ST414が「YES」となって適合度Cijpの値が確定すると、つぎのST415では、このCijpを最大値Cmaxと比較する。ここでCijpがCmaxより大きい場合には、ST416に進み、CijpによりCmaxを書き換える。またこのときの変換行列Hijpを最適な変換行列Hとする。
この後は、三角形T,T間の構成点の対応関係を変更するとともに、カウンタpを1つ大きな値に更新し(ST417〜419)、新たに対応づけた組み合わせについて、変換行列Hijpおよび適合度Cijpを求める処理を実行する(ST407〜414)。以下、6通りの組み合わせ毎に同様の処理を実行し、全ての組み合わせに対する処理が終了すると(ST417が「NO」の場合)、ST420においてカウンタjを更新することにより比較対象三角形Tを変更し、しかる後にST405に戻る。さらに全ての比較対象三角形について、i番目のモデル三角形Tiに対する6通りの変換行列Hijpおよび適合度Cijpを求める処理が実行されると、ST421が「YES」となり、ST422においてカウンタiを変更することによりモデル三角形を変更し、ST403に戻る。
このようにして、毎時のi,jの組み合わせにつき、三角形TとTとの間で6通りの構成点の対応づけを行って、対応づけられた構成点の組み合わせ毎に、変換行列Hijpおよびその適合度Cijpを算出する。また、適合度Cijpが最大値Cmaxを上回った場合には、その適合度Cijpにより最大値Cmaxを書き換えるとともに、その最大値Cmaxを得たときの適合度Hijpにより最適な変換行列Hを書き換える。
設定されたすべてのモデル三角形とすべての比較対象三角形とが、順に対応づけされ、対応づけ毎に上記の処理が実行されると、ST423が「YES」となり、処理を終了する。この終了時点でのHが最適な変換行列、すなわち最大の適合度を得たときの変換パラメータを示すものとなる。
図6の例では、モデル三角形と比較対象三角形を総当たり方式で対応づけて、対応する三角形の組毎に、変換行列Hijpおよび適合度Cijpを算出したが、これに代えて、適合度の最大値Cmaxが所定の目標値に達した時点でST403〜423の大ループの処理を打ち切るようにしてもよい。このようにすれば、認識の精度は若干落ちる可能性があるが、処理を高速化することができる。また、適合度Cijpの算出では、モデルの特徴点群のすべての特徴点を対象とする必要はなく、モデル三角形の頂点に設定されている特徴点の座標のみを用いて適合度Cijpを求めてもよい。また、適合度Cijpは対応点の数そのものに限らず、対応点の数に所定の重みを乗算したものや、処理対象の特徴点群全体に占める対応点の割合を百分率で表した数値などを、適合度Cijpとしてもよい。
図7および図8は、変換行列を特定する処理に関する他の実施態様を示す。ただし、この処理手順の大半は図6と同様であるため、各ステップに図6と同じ符号を付すことにより、説明を省略し、変更した処理のみを説明する。
この例では、モデル三角形Tと比較対象三角形Tとの毎時の対応づけにおいて、適合度Cijpまたは相違度Dijpを算出する。具体的には、ST410においてk番目のモデル特徴点Aの座標を変換行列Hijpにより変換した後、処理対象の特徴点群中に変換後の点Bに対応する特徴点が存在する場合(ST411が「YES」の場合)には、適合度Cijpに1を加算し(ST412)、点Bに対応する特徴点が見つからなかった場合(ST411が「NO」の場合)には相違度Dijpに1を加算する(ST424)。また、加算後の相違度Dijpが所定のしきい値Dmaxに達した場合(ST425が「YES」の場合)には、処理を打ち切って、つぎの対応づけにかかる処理に移行する。また、ST408では、カウンタkおよび適合度Cijpとともに相違度Dijpにも初期値0をセットする。
上記の処理によれば、構成点の対応づけが正しくない組み合わせについては、適合度の演算を最後まで行わなくても良くなるので、その分、処理を高速化することができる。
つぎに、上記の実施例では、モデルの特徴点群、処理対象の特徴点群のいずれについても、各特徴点の組み合わせにより設定される三角形のうち、各辺の長さの値がそれぞれ上限値dおよび下限値dにより特定される基準の数値範囲に入る三角形を、モデル三角形、比較対象三角形として絞り込んだが、これに限らず、辺の長さと角度とに基づいて三角形の絞り込みを行ってもよい。たとえば、少なくとも一辺の長さが基準の数値範囲に入り、その両端の角度が基準の角度範囲に入る三角形や、二辺の長さが基準の数値範囲に入り、これらの辺のなす角度が基準の角度範囲に入る三角形を、モデル三角形、比較対象三角形に設定することができる。この場合、三角形の角度を算出する代わりに、各辺に対応するベクトルの内積を求め、その結果を、同様に内積に換算されたしきい値と比較するようにすれば、演算が簡単になり、十分な処理速度を確保することができる。
これまでに説明したように、上記の実施例では、アフィン変換の変換パラメータを求めるには、モデルの特徴点群と対象物の特徴点群との間で、3組以上の特徴点を対応づける必要があるという観点から、3個の特徴点による三角形を用いた照合処理により最適な変換行列Hを特定するようにした。
しかし、画像のような平面に分布する特徴点群を処理対象とする場合には、少なくとも対応関係にある特徴点の組を2組求めることができれば、これらの特徴点の座標から残りの1組の対応点の座標を推定することが可能である。たとえば、特徴点群から抽出した2個の特徴点を、二等辺三角形の2頂点または直角三角形の斜辺を構成する2頂点に相当すると考えて、これらの点の座標から残りの1頂点の座標を算出することができる。
よって、モデルおよび処理対象の特徴点群から抽出する特徴点の数を2個にして、これらの点を対応づけるとともに、別途、対応関係にある仮想の特徴点の座標を1組算出し、これら3組の点によりモデル三角形および比較対象三角形を設定して、変換行列Hを求めてもよい。この場合にも、適合度の算出フローは図6のST407〜414に示したものと同様になる。
ただし、特徴点の抽出数を単純に3から2に減らすと、特徴点の組み合わせの対応づけ数が大幅に増加して、演算時間が長くなるおそれがある。したがって、このような処理は、長尺状の対象物に限定するのが望ましい。対象物が長尺状である場合には、その長さに応じて抽出対象の2点間の距離を限定することによって、特徴点の組み合わせの数を絞り込むことができ、演算時間を短縮できるからである。
つぎに、2台のカメラによるステレオ画像を処理して3次元計測を実行し、算出された空間座標を用いて対象物の認識を行う場合にも、空間内に分布する特徴点群に対し、2次元の場合と同様の方法で対象物を認識することができる。
3次元空間における特徴点の関係を特定するには、同次座標変換の変換パラメータを特定する必要がある。
モデルの特徴点群中の一特徴点の座標を(mX,mY,mZ)とし、処理対象の特徴点群中の対応点の座標を(tX,tY,tZ)とし、モデルに対する対象物のx軸方向における回転角度をθ、y軸方向における回転角度をφ、z軸方向における回転角度をψとすると、同次座標変換の変換式は、下記の(2)式のようになる。
Figure 0005056841
上記の(2)式によれば、モデルの特徴点群と処理対象の特徴点群との間で対応関係にある特徴点の組を3組特定できれば、これら点の座標を、(mX,mY,mZ)および(tX,tY,tZ)として、上記の(2)式から3とおりの3元連立方程式を設定し、変換行列H1を求めることができる。よって、3次元モデルから複数のモデル三角形を抽出して登録しておき、対象物のステレオ画像に対する3次元計測により複数の特徴点の空間座標を求め、これらの中から比較対象三角形を抽出し、各三角形を図6と同様の手順で照合することにより、最適な変換行列を求めることができる。
図9は、ICを対象物として、3次元の認識処理を行う例を示す。
この認識処理では、空間内の所定位置を原点Oとして空間座標系XYZを設定し、3次元モデル40および認識対象のIC41について、それぞれ複数の特徴点の空間座標を算出し、その算出結果を用いて、上記した三角形の照合処理を行う。この例でも、先の図3の例と同様に、対応関係にある種々の三角形のうちの特定の1組(三角形ABCとA´B´C´)を示している。
上記の認識処理によれば、たとえばICのリードの検査において、認識対象のIC41の先頭のリードの先端部の座標(図9の点B´の座標に相当する。)を特定し、さらに、この座標を基準に他のリードの先端部の座標を特定して、各先端部の高さが揃っているかどうかを判別することができる。
また、ロボットによる組み立て工程の制御に上記の認識処理を適用する場合に、たとえば点A´,C´の座標に基づいて、認識対象のIC41の上面内の中央部に吸着ポイントを設定し、この設定位置にロボットアームの吸着ノズルが移動するように制御することができる。
図10および図11は、上記の3次元認識処理が適用された部品ピッキングシステムの具体例を示す。
このシステムは、支持台60にバラ積みされた部品51を1つずつ摘み上げて別の場所に運び、整列配置することを目的とするもので、現場には、ピッキング作業を担当するロボット30や2台のカメラ1A,1Bが配備される。さらに、このシステムには、3次元認識処理用の画像処理装置20、PLC21(プログラマブル・ロジック・コントローラ)、ロボットコントローラ22などが含まれる。
ロボット30は、先端にハンド部31が設けられた多関節型のアーム部32を具備しており、ロボットコントローラ22に接続される。ロボットコントローラ22は、PLC21からの制御信号に応じて、アーム部32の各関節やハンド部31の動作を制御することにより、ハンド部31の位置や方向を定め、部品51の把持や移動を行わせる。
各カメラ1A,1Bは、画像処理装置20に接続される。画像処理装置20の構成は、図1に示したものとほぼ同様であるため、詳細な図示は省略するが、画像入力部3、エッジ抽出部4、画像メモリ5はカメラ1A,1B毎に個別に設けられる。また、この画像処理装置20は、PLC21からの指令に応じて、各カメラ1A,1Bに同時にトリガ信号を出力するように設定されている。
画像処理装置20では、各カメラ1A,1Bからの画像を用いた3次元認識処理を行って、バラ積み部品の中の1つを認識し、この部品の位置を示す3次元座標や姿勢を示す角度データを出力する。PLC21は、画像処理装置20から出力されたデータを用いてロボット30のハンド部31の位置や姿勢を示すデータを算出する演算を実行し、演算で得たデータをロボットコントローラ22に供給する。ロボットコントローラ22では、PLC21から供給されたデータに基づき、ロボットのアーム部32やハンド部31の動作量を決定し、その結果に基づき各部31,32を制御する。これにより、画像処理装置20により認識された部品を摘み上げ、所定の場所に搬送することが可能になる。
この実施例でも、あらかじめ認識対象の部品51の3次元モデルから所定数の特徴点を抽出して、これらによりモデル三角形を設定し、画像処理装置20に登録するようにしている。またピッキング処理においては、各カメラ1A,1Bにより撮像された画像を用いて複数の特徴点の3次元座標を求めた後に、これらの特徴点により設定した比較対象三角形とモデル三角形とを照合することによって、モデルの特徴点群と処理対象の特徴点群との関係を表すのに最適な変換行列を特定する。さらに、特定した変換行列に基づき、ピッキング対象の部品の位置や姿勢を示すデータを算出する。
図12は、特徴点の具体例を、対応関係にある三角形のうちの特定の1組(三角形ABCとA´B´C´)とともに示す。
この実施例では、認識対象の部品51の3次元モデル50が空間座標系XYZに所定の姿勢で配備されているときの各角部の頂点の座標を特徴点とし、これらの特徴点による三角形のうち、各辺の長さが所定の数値範囲(第1実施例と同様にユーザにより入力される。)に含まれるものをモデル三角形として登録する。一方、認識対象の部品51については、カメラ1A,1Bからの画像をエッジ画像に変換した後に、各エッジ画像から角部の頂点に相当するエッジ構成点を特定して、これらのエッジ構成点につき求めた3次元座標により比較対象三角形を設定する。また、比較対象三角形についても、各辺の長さがモデル三角形と同様の数値範囲に含まれるものに限定する。
なお、角部の頂点を特定するには、たとえば、エッジ画像中の各エッジ構成点が表す輪郭線を直線や曲線等のセグメントに分割し、各セグメントの交点を求めればよい。また図12の例のように認識対象物の輪郭線が直線状になる場合には、各エッジ構成点につき、それぞれ濃度勾配方向に直交する方向に沿って仮想の直線を設定し、これらの直線を方向が近似するグループ毎に統合した後、これらの直線の交点を特徴点として求めてもよい。
ただし、特徴点はエッジの交点に限定されるものではない。たとえば、曲線状の輪郭形状を有する対象物であれば、曲線状のセグメントを抽出し、曲率の変化量に基づき、勾配が緩やかな部位から急峻な部位に変化した点などを、特徴点として抽出してもよい。
3次元モデル側の特徴点も、実物の部品51のモデルを用いて上記と同様の3次元計測処理を実行することにより求めることができるが、部品51のCADデータがある場合には、そのCADデータが表す3次元の輪郭線から同様の特徴点を抽出してもよい。
この実施例では、複数の認識対象物を撮像するため、各カメラ1A,1Bの画像からは、1つの対象物のみを処理対象とする場合よりも多くのエッジ構成点が抽出されるが、対象物の特徴的な輪郭形状の構成点に特徴点を絞り込むことにより、演算の負担を減らすことができる。また、モデル三角形や比較対象三角形の設定においても、対象物の形状に応じて三角形の長さや角度等に条件を設けることにより、三角形の数を絞り込んで精度の良い認識処理を行うことができる。ただし、特徴点の数を減らすと、三角形の設定に関する条件を定めるのが難しくなるため、ノウハウのないユーザが処理を行う場合や、認識対象物が頻繁に変わるような場合には、特徴点の絞り込みを行わずに、全てのエッジ構成点を特徴点としてもよい。
以下、ロボット30の動作制御のために画像処理装置20で実行される処理の流れについて、図13を用いて説明する。
まずST501では、PLC21からの指令を受けて各カメラ1A,1Bにトリガ信号を出力し、撮像を行わせる。つぎのST502では、各カメラ1A,1Bから入力された画像を対象に特徴点の抽出を行う。ここでは、各入力画像をそれぞれのエッジ抽出部4によりエッジ画像に変換した後、上記した角部の頂点等のエッジ構成点を複数特定し、これらを特徴点として設定してもよい。または全てのエッジ構成点を特徴点としてもよい。
ここで特徴点が抽出されると、ST503が「YES」となり、ST504において、抽出された特徴点について3次元座標を算出する。具体的には、各特徴点を画像間で対応づけた後、対応づけされた点の組毎に、各点の座標を三角測量の原理による数式にあてはめた演算を実行することによって、これらの点に対応する3次元座標を算出する。
この後は、ST505において、算出された各3次元座標が示す特徴点群を対象に、比較対象三角形を抽出する処理を実行する。さらに、ST506において、比較対象三角形とあらかじめ登録されたモデル三角形とを順に対応づけ、対応づけた組み合わせ毎に、変換行列やその行列の適合度を算出する処理を実行することにより、処理対象の特徴点群に最適な変換行列H1(適合度が最大になったときの変換行列)を特定する。このST505の詳細は、同次座標変換の演算式((2)式)を実行する点を除けば、先の図6または図7,8に示した処理とほぼ同様の流れになる。
最適な変換行列H1が特定されると、ST507では、3次元モデル50につきあらかじめ定めておいた代表点を変換行列H1により変換し、その変換後の座標を、ピックアップ対象の部品の位置データとする。さらに、ST508では、特定した変換行列H1の各成分を用いて、同次座標変換のパラメータθ,φ,ψを算出し、これらの組み合わせをピックアップ対象の部品の姿勢データとする。
3次元モデル50の代表点には、特徴点のうちの1つ(たとえば図12の点A)を設定しても良いが、これに限らず、エッジ構成点以外の点(たとえば図12の三角形ABCの重心)を代表点としてもよい。
ST509では、ST507で算出した位置データおよびST508で算出した各角度θ,φ,ψによる姿勢データを、PLC21に出力する。この出力を受けたPLC21では、ロボット制御用のデータを算出し、これをロボットコントローラ22に出力する。ロボットコントローラ22では、PLC21から供給されたデータに基づきロボット30の動作を制御することにより、認識されたピックアップ対象の部品をロボット30に把持させ、撮像対象領域外に搬送させる。この搬送処理が完了し、その旨がロボットコントローラ22からPLC21に通知されると、PLC21は画像処理装置20に、つぎの撮像用のトリガ信号の出力を指示する。
画像処理装置20では、データの出力が終了すると、再びST501に戻り、PLC21からの指示に応じて、上記の部品搬送後の撮像対象領域を撮像する。さらに、ST502以下の処理を実行することにより、つぎのピッキング対象の部品の位置および回転角度を求め、PLC21に出力する。
以下も同様に、ST501〜509を繰り返すことにより、バラ積みされていた部品が1つずつ認識され、その認識結果に基づく制御を受けたロボット30により搬送される。この結果、全ての部品が搬送され、撮像により得た画像に特徴点が含まれない状態になると、ST503が「NO」となり、処理を終了する。
なお、認識対象の部品51のバラ積み位置がカメラ1A,1Bの視野からずれるなどして、部品51の全体像が生成されなかった場合には、最大の適合度でも非常に低い値になる可能性がある。このような場合に対応するために、最大の適合度が所定の基準値を下回った場合には、部品51の認識処理を打ち切ってエラー処理を実行するのが望ましい。この点については、先の2次元の認識処理でも同様である。
上記の説明では、ST506において、最適な変換行列H1として、適合度が最大になったときの変換行列を特定するとした。変換行列の適合度が大きくなるほど、その変換行列によりモデルの特徴点群を変換したときの変換後の各点が処理対象の特徴点群に対応する頻度も増えるから、適合度が最大になったときの変換行列を選択することにより、バラ積みされた複数の部品51の中からモデルの特徴点群に対応する点が最も多い部品51を認識することができる。言い換えれば、露出の度合いが一番大きい部品51、さらに言い換えれば、ロボット30にとって一番摘みやすい部品51を認識することができる。
ただし、最適な変換行列H1として特定できるものは上記に限定されるものではない。たとえば、適合度が所定の基準値を超えた変換行列を、全て変換行列H1の候補としてピックアップし、これらの変換行列により3次元モデルの代表点の座標を変換して、変換後のZ座標が最も高くなったときの変換行列を最適な変換行列H1としてもよい。この場合には、バラ積みされた部品51の中の一番上にある部品を認識することができる。
また、上記のシステムでは、対象物(部品51)を1つ特定する必要性から各組み合わせ毎に求めた変換行列の中から最適なものを1つ特定したが、これに限らず、用途によっては、適合度が基準値を超えた変換行列を複数特定し、特定された一変換行列につき対象物を1つ認識してもよい。このようにすれば、複数のロボット30に作業を行わせる場合でも、各ロボット30に把持させるべき部品51を、それぞれ個別に認識することが可能になる。
また3次元の認識処理の適用範囲は、上記のようなステレオ画像を用いた計測処理結果に限るものではない。たとえば、所定の範囲に変位センサを走査して、対象物までの距離を複数地点で計測する方法による3次元計測の結果に適用することもできる。
上記の2次元、3次元の画像処理による実施例では、モデルおよび処理対象の特徴点をエッジ構成点としているが、特徴点はこれに限るものではない。たとえば、特定の色彩を有する領域を処理対象とする場合には、その色彩が現れている画素を特徴点として抽出してもよい。
1 カメラ
2 コントローラ
3 画像入力部
4 エッジ抽出部
5 画像メモリ
10 制御部
11 CPU
13 RAM
14 ハードディスク

Claims (5)

  1. 認識対象物を撮像することにより生成された2次元画像から抽出された前記認識対象物の特徴点群とあらかじめ登録されたモデルの特徴点群との対応関係に基づいて前記認識対象物を認識するために、コンピュータが実行する方法であって、
    前記モデルの特徴点群に含まれる各特徴点を3個ずつ組み合わせた各組み合わせのうち、各辺の長さがそれぞれあらかじめ定めた基準の範囲に含まれる三角形を構成する特徴点の組み合わせをモデルの組み合わせに設定して、設定されたモデルの組み合わせを特定するための情報をメモリに登録する第1ステップ、
    前記認識対象物の特徴点群に含まれる各特徴点を3個ずつ組み合わせた各組み合わせのうち、各辺の長さがそれぞれ前記基準の範囲に含まれる三角形を構成する特徴点の組み合わせを、比較対象の組み合わせに設定する第2ステップ、
    前記メモリの登録情報により特定されるモデルの組み合わせと第2ステップで設定された比較対象の組み合わせとを順に対応づけて、対応づけた組み合わせ毎に、各組み合わせにおける特徴点の対応関係を複数とおり設定して、設定された対応関係毎に、一方の組み合わせの各特徴点をそれぞれ他方の組み合わせの対応する特徴点に変換した場合の変換パラメータを求める処理と、この変換パラメータにより前記モデルまたは認識対象物の特徴点群を変換した場合の変換後の特徴点群の他方の特徴点群に対する適合度を求める処理とを実行する第3ステップ、
    前記第3ステップで求めた各適合度の中で最大となる適合度が得られたときに使用された変換パラメータ、または所定の目標値に達する適合度が得られたときに使用された変換パラメータを、前記モデルの特徴点群と認識対象物の特徴点群との対応関係を示す変換パラメータとして特定する第4ステップ、の各ステップを実行することを特徴とする認識処理方法。
  2. 請求項1に記載された方法において、
    前記第1ステップおよび第2ステップで用いられる基準の範囲を表す上限値および下限値を入力するユーザの操作を受け付けて、前記基準の範囲を設定した後に、第1〜第4の各ステップを実行する認識処理方法。
  3. 請求項1または2に記載された方法において、
    前記第1ステップおよび第2ステップでは、一辺の長さが前記上限値と下限値との間の値になる正三角形を構成する特徴点の組み合わせを設定する認識処理方法。
  4. 請求項1に記載された方法において、
    前記第3ステップでは、前記モデルの特徴点群および認識対象物の特徴点群のいずれかを変換対象として、変換対象の特徴点群と他方の特徴点群との間で毎回設定される対応関係毎に、前記変換パラメータを求める処理と前記適合度を求める処理とを実行し、
    前記適合度を求める処理では、変換対象の特徴点群中の各特徴点に順に着目して、着目中の特徴点を前記変換パラメータにより変換するステップと、他方の特徴点群における変換後の特徴点への対応点を検索するステップとを実行しつつ、対応点が見つかった特徴点の数を示す第1の累計値と対応点が見つからなかった特徴点の数を示す第2の累計値とを求め、第2の累計値が所定のしきい値に達する前に前記変換対象の特徴点群中の全ての特徴点に対する処理が終了したときの第1の累計値に基づき前記適合度を導出する一方、変換対象の特徴点群中の全ての特徴点に対する処理が終了する前に第2の累計値が前記しきい値に達した場合には、現在設定されている特徴点の対応関係に対する処理を打ち切って、次の特徴点の対応関係に対する処理に移行する認識処理方法。
  5. 認識対象物の2次元画像より前記認識対象物の特徴点を複数抽出し、抽出された特徴点群とあらかじめ登録されたモデルの特徴点群との対応関係に基づいて認識対象物を認識する処理を行う画像処理装置であって、
    前記特徴点群中の一対の特徴点の間の距離について、その距離の基準の範囲を示す上限値および下限値を入力するための入力手段と、
    前記モデルの特徴点群中の各特徴点を3個ずつ組み合わせた各組み合わせのうち、各辺の長さがそれぞれ前記基準の範囲に含まれる三角形を構成する特徴点の組み合わせを、モデルの組み合わせに設定するモデル設定手段と、
    前記モデル設定手段により設定されたモデルの組み合わせを特定するための情報を、メモリに登録する登録処理手段と、
    前記入力画像から抽出された特徴点を3個ずつ組み合わせた各組み合わせのうち、各辺の長さがそれぞれ前記基準の範囲に含まれる三角形を構成する特徴点の組み合わせを、比較対象の組み合わせに設定する組み合わせ設定手段と、
    前記メモリの登録情報により特定されるモデルの組み合わせと前記組み合わせ設定手段により設定された比較対象の組み合わせとを順に対応づけて、対応づけた組み合わせ毎に、各組み合わせにおける特徴点の対応関係を複数とおり設定して、設定された対応関係毎に、一方の組み合わせの各特徴点をそれぞれ他方の組み合わせの対応する特徴点に変換した場合の変換パラメータを求める処理と、この変換パラメータにより前記モデルまたは認識対象物の特徴点群を変換した場合の変換後の特徴点群の他方の特徴点群に対する適合度を求める処理とを、実行する照合処理手段と、
    前記照合処理手段により求められた各適合度の中で最大となる適合度が得られたときに使用された変換パラメータ、または所定の目標値に達する適合度が得られたときに使用された変換パラメータを、前記モデルの特徴点群と認識対象物の特徴点群との対応関係を示す変換パラメータとして特定する特定手段とを、具備する画像処理装置。
JP2009297530A 2007-03-09 2009-12-28 認識処理方法およびこの方法を用いた画像処理装置 Active JP5056841B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009297530A JP5056841B2 (ja) 2007-03-09 2009-12-28 認識処理方法およびこの方法を用いた画像処理装置

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2007059509 2007-03-09
JP2007059509 2007-03-09
JP2009297530A JP5056841B2 (ja) 2007-03-09 2009-12-28 認識処理方法およびこの方法を用いた画像処理装置

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2008523464A Division JP4508283B2 (ja) 2007-03-09 2008-03-05 認識処理方法およびこの方法を用いた画像処理装置

Publications (2)

Publication Number Publication Date
JP2010113731A JP2010113731A (ja) 2010-05-20
JP5056841B2 true JP5056841B2 (ja) 2012-10-24

Family

ID=39759395

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2008523464A Active JP4508283B2 (ja) 2007-03-09 2008-03-05 認識処理方法およびこの方法を用いた画像処理装置
JP2009297530A Active JP5056841B2 (ja) 2007-03-09 2009-12-28 認識処理方法およびこの方法を用いた画像処理装置

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2008523464A Active JP4508283B2 (ja) 2007-03-09 2008-03-05 認識処理方法およびこの方法を用いた画像処理装置

Country Status (6)

Country Link
US (1) US8861834B2 (ja)
EP (1) EP2133838B1 (ja)
JP (2) JP4508283B2 (ja)
KR (1) KR100975512B1 (ja)
CN (1) CN101542520B (ja)
WO (1) WO2008111452A1 (ja)

Families Citing this family (54)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010140609A1 (ja) * 2009-06-02 2010-12-09 株式会社ニコン 画像処理装置、プログラム、および、顕微鏡
KR101068465B1 (ko) * 2009-11-09 2011-09-28 한국과학기술원 삼차원 물체 인식 시스템 및 방법
WO2011088497A1 (en) * 2010-01-19 2011-07-28 Richard Bruce Baxter Object recognition method and computer system
JP5035372B2 (ja) * 2010-03-17 2012-09-26 カシオ計算機株式会社 三次元モデリング装置、三次元モデリング方法、ならびに、プログラム
JP5024410B2 (ja) * 2010-03-29 2012-09-12 カシオ計算機株式会社 三次元モデリング装置、三次元モデリング方法、ならびに、プログラム
IT1399420B1 (it) * 2010-04-08 2013-04-16 Ocn S P A "metodo di rilevamento della estremita' finale di un avvolgimento"
JP5556382B2 (ja) * 2010-05-28 2014-07-23 トヨタ自動車株式会社 ワーク段積み状態認識装置
JP5554286B2 (ja) * 2010-06-28 2014-07-23 ミツビシ・エレクトリック・リサーチ・ラボラトリーズ・インコーポレイテッド 環境における3次元(3d)オブジェクトの3d姿勢を求めるための方法
EP2659434A1 (en) * 2010-12-29 2013-11-06 Thomson Licensing Method for face registration
CN102073981B (zh) * 2011-02-23 2012-11-14 中国测绘科学研究院 一种关联要素限制下的点群地理实体选取方法
US8634654B2 (en) * 2011-04-15 2014-01-21 Yahoo! Inc. Logo or image recognition
WO2012160611A1 (ja) * 2011-05-26 2012-11-29 富士通テレコムネットワークス株式会社 位置検出装置およびそれを搭載した外観検査装置
JP5791976B2 (ja) * 2011-06-16 2015-10-07 オリンパス株式会社 画像処理装置、画像処理方法、およびプログラム
KR101260367B1 (ko) 2011-09-26 2013-05-07 한국과학기술연구원 범주 인식에 의한 파지점 생성방법 및 그 방법에 대한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체
JP5719277B2 (ja) * 2011-11-09 2015-05-13 日本電信電話株式会社 物体座標系変換行列推定成否判定装置および物体座標系変換行列推定成否判定方法ならびにそのプログラム
JP6044079B2 (ja) * 2012-02-06 2016-12-14 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
EP2889835A4 (en) * 2012-08-23 2016-06-08 Nec Corp DEVICE, METHOD AND PROGRAM FOR DIFFERENTIATING AN OBJECT
US9644952B2 (en) * 2012-10-18 2017-05-09 Hunter Engineering Company Method for evaluating component calibration in machine vision vehicle wheel alignment system
JP5561384B2 (ja) * 2013-01-15 2014-07-30 株式会社安川電機 認識プログラム評価装置および認識プログラム評価方法
JP6192088B2 (ja) * 2013-02-20 2017-09-06 国立大学法人九州工業大学 物体検出方法および物体検出装置
EP3023808A4 (en) * 2013-07-18 2017-09-06 Mitsubishi Electric Corporation Target type identification device
KR20150015680A (ko) * 2013-08-01 2015-02-11 씨제이씨지브이 주식회사 특징점의 생성을 이용한 이미지 보정 방법 및 장치
JP6131149B2 (ja) * 2013-08-26 2017-05-17 富士フイルム株式会社 画像処理装置、方法およびプログラム
CN103500282A (zh) 2013-09-30 2014-01-08 北京智谷睿拓技术服务有限公司 辅助观察方法及辅助观察装置
US20160292529A1 (en) * 2013-11-11 2016-10-06 Nec Corporation Image collation system, image collation method, and program
CN104732511B (zh) * 2013-12-24 2018-04-20 华为技术有限公司 一种凸多边形图像块的检测方法、装置及设备
JP6331517B2 (ja) * 2014-03-13 2018-05-30 オムロン株式会社 画像処理装置、システム、画像処理方法、および画像処理プログラム
US10055670B2 (en) * 2014-03-14 2018-08-21 Omron Corporation Image recognition device, image sensor, and image recognition method using feature
JP6427332B2 (ja) * 2014-04-08 2018-11-21 株式会社ミツトヨ 画像測定機
US11151630B2 (en) 2014-07-07 2021-10-19 Verizon Media Inc. On-line product related recommendations
JP6405891B2 (ja) * 2014-10-29 2018-10-17 富士通株式会社 位置・姿勢推定装置、位置・姿勢推定方法、及び、プログラム
GB2536493B (en) 2015-03-20 2020-11-18 Toshiba Europe Ltd Object pose recognition
US10708571B2 (en) * 2015-06-29 2020-07-07 Microsoft Technology Licensing, Llc Video frame processing
CN105163025B (zh) * 2015-08-31 2020-01-31 联想(北京)有限公司 图像捕获方法和电子设备
US9990561B2 (en) 2015-11-23 2018-06-05 Lexmark International, Inc. Identifying consumer products in images
US9858481B2 (en) * 2015-11-23 2018-01-02 Lexmark International, Inc. Identifying consumer products in images
US10136103B2 (en) * 2015-11-23 2018-11-20 Lexmark International, Inc. Identifying consumer products in images
EP3447442A4 (en) * 2016-06-01 2019-05-01 Mitsubishi Electric Corporation POSITIONING DEVICE, POSITIONING PROCESS AND POSITIONING PROGRAM
JP6514156B2 (ja) * 2016-08-17 2019-05-15 ファナック株式会社 ロボット制御装置
US20180300872A1 (en) * 2017-04-12 2018-10-18 Ngr Inc. Method And Apparatus For Integrated Circuit Pattern Inspection With Automatically Set Inspection Areas
EP3667611A4 (en) * 2017-08-07 2020-08-26 Fujitsu Limited INFORMATION PROCESSING DEVICE, MODEL DATA GENERATION PROGRAM AND MODEL DATA GENERATION METHOD
EP3726462A4 (en) * 2017-12-14 2020-12-23 NEC Corporation IDENTIFICATION DEVICE, IDENTIFICATION METHOD AND STORAGE MEDIUM
US10665028B2 (en) * 2018-06-04 2020-05-26 Facebook, Inc. Mobile persistent augmented-reality experiences
CN109360460A (zh) * 2018-12-10 2019-02-19 南京硕材信息科技有限公司 一种课堂即时反馈内容生成方法及***
KR102259704B1 (ko) * 2018-12-31 2021-06-02 경희대학교 산학협력단 특징점 간 삼각형 닮음 조건 기반 영상 유사도 평가 알고리즘
EP3699856A1 (en) * 2019-02-21 2020-08-26 INL - International Iberian Nanotechnology Laboratory Tagging of an object
CN110175952B (zh) * 2019-05-28 2023-12-05 合肥晌玥科技有限公司 一种基于目标检测的玉石加工路径的自动生成方法及装置
EP3985347B1 (en) * 2019-06-17 2024-04-03 OMRON Corporation Device, method and program for measuring point clouds
CN112348876B (zh) * 2019-08-08 2024-06-11 北京地平线机器人技术研发有限公司 一种标志牌的空间坐标获取方法及装置
CN110941989A (zh) * 2019-10-18 2020-03-31 北京达佳互联信息技术有限公司 图像校验、视频校验方法、装置、设备及存储介质
JP7494862B2 (ja) * 2019-12-24 2024-06-04 日本電気株式会社 情報処理装置、制御方法及びプログラム
CN113473834B (zh) * 2021-06-23 2022-04-15 珠海格力电器股份有限公司 异型元件的插装方法、装置、***、电子设备和存储介质
WO2023105274A1 (en) * 2021-12-10 2023-06-15 Sensetime International Pte. Ltd. Object recognition method, apparatus, device and storage medium
US20240228192A9 (en) * 2022-10-24 2024-07-11 Mujin, Inc. Robotic systems with dynamic motion planning for transferring unregistered objects

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0830783A (ja) * 1994-07-12 1996-02-02 Meidensha Corp 2次元物体の認識方法
DE69823116D1 (de) * 1997-08-05 2004-05-19 Canon Kk Bildverarbeitungsverfahren und -gerät
US6532304B1 (en) * 1998-10-21 2003-03-11 Tele Atlas North America, Inc. Matching geometric objects
JP2001250122A (ja) 2000-03-06 2001-09-14 Nippon Telegr & Teleph Corp <Ntt> 物体の位置姿勢決定処理方法およびそのためのプログラム記録媒体
US6580821B1 (en) * 2000-03-30 2003-06-17 Nec Corporation Method for computing the location and orientation of an object in three dimensional space
JP3914864B2 (ja) 2001-12-13 2007-05-16 株式会社東芝 パターン認識装置及びその方法
JP3842233B2 (ja) 2003-03-25 2006-11-08 ファナック株式会社 画像処理装置及びロボットシステム
JP4530723B2 (ja) 2004-06-01 2010-08-25 パナソニック株式会社 パターンマッチング方法、パターンマッチング装置、および電子部品実装方法
JP2005063463A (ja) 2004-11-08 2005-03-10 Toshiba Corp 動画像処理装置
JP4613617B2 (ja) * 2005-01-07 2011-01-19 ソニー株式会社 画像処理システム、学習装置および方法、並びにプログラム
JP4284288B2 (ja) * 2005-03-10 2009-06-24 株式会社東芝 パターン認識装置及びその方法
JP2006252473A (ja) 2005-03-14 2006-09-21 Toshiba Corp 障害物検出装置、キャリブレーション装置、キャリブレーション方法およびキャリブレーションプログラム
JP4687518B2 (ja) * 2005-03-15 2011-05-25 オムロン株式会社 画像処理方法およびその方法を用いた3次元計測方法ならびに画像処理装置
JP4200979B2 (ja) * 2005-03-31 2008-12-24 ソニー株式会社 画像処理装置及び方法
KR100785594B1 (ko) * 2005-06-17 2007-12-13 오므론 가부시키가이샤 화상 처리 장치
JP4774824B2 (ja) * 2005-06-17 2011-09-14 オムロン株式会社 3次元計測処理の計測対象範囲の確認方法および計測対象範囲の設定方法ならびに各方法を実施する装置
JP4815592B2 (ja) * 2006-03-13 2011-11-16 国立大学法人九州工業大学 物体検出方法

Also Published As

Publication number Publication date
EP2133838A1 (en) 2009-12-16
WO2008111452A1 (ja) 2008-09-18
JP4508283B2 (ja) 2010-07-21
CN101542520A (zh) 2009-09-23
US8861834B2 (en) 2014-10-14
KR20090009824A (ko) 2009-01-23
CN101542520B (zh) 2011-12-07
EP2133838A4 (en) 2012-02-29
JP2010113731A (ja) 2010-05-20
KR100975512B1 (ko) 2010-08-11
US20100098324A1 (en) 2010-04-22
JPWO2008111452A1 (ja) 2010-06-24
EP2133838B1 (en) 2015-11-11

Similar Documents

Publication Publication Date Title
JP5056841B2 (ja) 認識処理方法およびこの方法を用いた画像処理装置
JP6348093B2 (ja) 入力データから検出対象物の像を検出する画像処理装置および方法
JP5850962B2 (ja) ビジュアルフィードバックを利用したロボットシステム
JP5839971B2 (ja) 情報処理装置、情報処理方法及びプログラム
US11654571B2 (en) Three-dimensional data generation device and robot control system
JP5458885B2 (ja) 物体検出方法と物体検出装置およびロボットシステム
JP2010121999A (ja) 3次元モデルの作成方法および物体認識装置
JP6324025B2 (ja) 情報処理装置、情報処理方法
US20040170315A1 (en) Calibration apparatus, calibration method, program for calibration, and calibration jig
JP5088278B2 (ja) 物体検出方法と物体検出装置およびロボットシステム
JP5480667B2 (ja) 位置姿勢計測装置、位置姿勢計測方法、プログラム
JP6836561B2 (ja) 画像処理装置及び画像処理方法
US20130058526A1 (en) Device for automated detection of feature for calibration and method thereof
US20100231711A1 (en) Method for registering model data for optical recognition processing and optical sensor
JP6889865B2 (ja) テンプレート作成装置、物体認識処理装置、テンプレート作成方法及びプログラム
JP2017087326A (ja) ロボット制御装置およびロボット制御方法
JP5287152B2 (ja) 3次元モデルの作成方法および物体認識装置
JP5092711B2 (ja) 物体認識装置およびロボット装置
US10810761B2 (en) Position and orientation estimation apparatus, position and orientation estimation method, and program
JP2016170050A (ja) 位置姿勢計測装置、位置姿勢計測方法及びコンピュータプログラム
CN110298879B (zh) 一种待抓取物***姿的确定方法、装置及电子设备
JP5104248B2 (ja) 物体認識装置およびロボット装置
JP5976089B2 (ja) 位置姿勢計測装置、位置姿勢計測方法、およびプログラム
JP5462662B2 (ja) 位置姿勢計測装置、物体識別装置、位置姿勢計測方法及びプログラム
JP2010113398A (ja) 3次元モデルの作成方法および物体認識装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110107

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120426

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120703

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120716

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150810

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5056841

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250