JP5839671B2 - 三次元位置・姿勢認識装置、産業用ロボット、三次元位置・姿勢認識方法、プログラム、記録媒体 - Google Patents

三次元位置・姿勢認識装置、産業用ロボット、三次元位置・姿勢認識方法、プログラム、記録媒体 Download PDF

Info

Publication number
JP5839671B2
JP5839671B2 JP2011204945A JP2011204945A JP5839671B2 JP 5839671 B2 JP5839671 B2 JP 5839671B2 JP 2011204945 A JP2011204945 A JP 2011204945A JP 2011204945 A JP2011204945 A JP 2011204945A JP 5839671 B2 JP5839671 B2 JP 5839671B2
Authority
JP
Japan
Prior art keywords
parallax
edge
image
information
captured images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011204945A
Other languages
English (en)
Other versions
JP2013068417A (ja
Inventor
佐々 泰志
泰志 佐々
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Screen Holdings Co Ltd
Original Assignee
Screen Holdings Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Screen Holdings Co Ltd filed Critical Screen Holdings Co Ltd
Priority to JP2011204945A priority Critical patent/JP5839671B2/ja
Publication of JP2013068417A publication Critical patent/JP2013068417A/ja
Application granted granted Critical
Publication of JP5839671B2 publication Critical patent/JP5839671B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Manipulator (AREA)
  • Processing Or Creating Images (AREA)
  • Studio Devices (AREA)

Description

この発明は、複数の撮像部により異なる場所から対象物を撮像して得られる撮像画像に対してステレオマッチング処理を行って、三次元における対象物の位置および姿勢を求める技術に関する。
特許文献1では、複数のカメラから対象物を撮像した結果に基づいて、対象物の三次元モデルを生成する三次元モデリング技術が記載されている。このような三次元モデリング技術では、異なる場所から対象物を撮像して得られる複数の撮像画像に対してステレオマッチング処理が施される。このステレオマッチング処理では、対象物の同一部分に対応する位置が複数の撮像画像の各々から求められて相互に対応付けられるとともに、こうして対応付けられた位置での各撮像画像間の視差が求められる。このような対応付けの結果、撮像画像の各位置での視差を示した二次元画像(視差画像)が求められる。そして、この視差画像に基づいて、対象物の三次元モデルを生成することができる。
特開2004−264937号公報
ところで、機械部品や電子部品等の部品を組み立てる産業用ロボットに、上述のような技術を応用することが考えられる。具体例を挙げると、このような産業用ロボットとしては、部品を取り上げて移動させるアームを用いて部品を組み立てるものがある。この際、部品を確実に取り上げるには、三次元における部品の位置および姿勢を正確に把握する必要がある。そこで、上述のように、異なる場所から部品を撮像して得られる複数の撮像画像にステレオマッチング処理を施して、三次元における部品の位置・姿勢を認識し、この認識結果に基づいて産業用ロボットのアームを制御することが考えられる。
この際、三次元における部品の位置および姿勢を正確に認識するにあたっては、部品の特にエッジ部分の視差が重要となる。つまり、ステレオマッチング処理では、複数の撮像画像の間でパターンの類似する位置どうしが部品の同一部分に対応するとして、互いに対応付けられる。このような対応付けは、パターンの変化が急峻なエッジ部分に対しては高い精度で実行される。一方で、画像パターンの変化が緩やかな他の部分については、対応付けの精度が低下する。このように、対応付けの精度は、部品のエッジ部分で高くなる一方、その他の部分で低くなる傾向を有する。したがって、三次元における部品の位置および姿勢の認識動作を、対応付けの精度の高い部品のエッジ部分の視差に基づいて実行することが好適となる。
この発明は上記課題に鑑みなされたものであり、三次元における対象物(部品)の位置および姿勢の認識動作を、対象物のエッジ部分の視差に基づいて実行することを可能とし、これによって当該認識動作を正確に実行することを可能とする技術の提供を目的とする。
この発明にかかる三次元位置・姿勢認識装置は、上記目的を達成するために、複数の撮像部から対象物を撮像することで、互いに異なる場所から前記対象物を撮像した複数の撮像画像を取得する画像取得部と、複数の撮像画像についてステレオマッチング処理を行って、複数の撮像画像間の視差を示す視差情報を取得する視差取得部と、撮像画像からエッジを抽出して、対象物のエッジを示すエッジ情報を取得するエッジ抽出部と、エッジ情報が示す対象物のエッジ上の位置での視差を、視差情報に含まれる視差から抽出する視差抽出部と、視差抽出部が抽出した視差に基づいて、三次元における対象物の位置および姿勢を認識する認識部とを備え、エッジ抽出部は、複数の撮像画像のうちの一の撮像画像からエッジを抽出して得られる対象物のエッジ画像を、エッジ情報として求め、視差取得部は、一の撮像画像の各位置での視差を示す視差画像を、視差情報として求め、視差抽出部は、視差画像にエッジ画像を重ね合わせることで、エッジ画像が示す対象物のエッジ上の位置での視差を、視差画像に含まれる視差から抽出することを特徴としている。
この発明にかかる産業用ロボットは、上記目的を達成するために、部品を取って移動させる部品移動手段と、上記の三次元位置・姿勢認識装置と、三次元位置・姿勢認識装置により対象物としての部品の三次元での位置および姿勢を認識した結果に基づいて、部品移動手段を制御する制御手段とを備えることを特徴としている。
また、この発明にかかる三次元位置・姿勢認識方法は、上記目的を達成するために、互いに異なる場所から対象物を撮像した複数の撮像画像を取得する画像取得工程と、複数の撮像画像についてステレオマッチング処理を行って、複数の撮像画像間の視差を示す視差情報を取得する視差取得工程と、撮像画像からエッジを抽出して、対象物のエッジを示すエッジ情報を取得するエッジ抽出工程と、エッジ情報が示す対象物のエッジ上の位置での視差を、視差情報に含まれる視差から抽出する視差抽出工程と、視差抽出工程が抽出した視差に基づいて、三次元における対象物の位置および姿勢を認識する認識工程とを備え、エッジ抽出工程は、複数の撮像画像のうちの一の撮像画像からエッジを抽出して得られる対象物のエッジ画像を、エッジ情報として求め、視差取得工程は、一の撮像画像の各位置での視差を示す視差画像を、視差情報として求め、視差抽出工程は、視差画像にエッジ画像を重ね合わせることで、エッジ画像が示す対象物のエッジ上の位置での視差を、視差画像に含まれる視差から抽出することを特徴としている。
また、この発明にかかるプログラムは、上記目的を達成するために、互いに異なる場所から対象物を撮像した複数の撮像画像を取得する画像取得機能と、複数の撮像画像についてステレオマッチング処理を行って、複数の撮像画像間の視差を示す視差情報を取得する視差取得機能と、撮像画像からエッジを抽出して、対象物のエッジを示すエッジ情報を取得するエッジ抽出機能と、エッジ情報が示す対象物のエッジ上の位置での視差を、視差情報に含まれる視差から抽出する視差抽出機能と、視差抽出機能が抽出した視差に基づいて、三次元における対象物の位置および姿勢を認識する認識機能とを、コンピューターに実現させ、エッジ抽出機能は、複数の撮像画像のうちの一の撮像画像からエッジを抽出して得られる対象物のエッジ画像を、エッジ情報として求め、視差取得機能は、一の撮像画像の各位置での視差を示す視差画像を、視差情報として求め、視差抽出機能は、視差画像にエッジ画像を重ね合わせることで、エッジ画像が示す対象物のエッジ上の位置での視差を、視差画像に含まれる視差から抽出することを特徴としている。
また、この発明にかかる記録媒体は、上記目的を達成するために、上記のプログラムが記録されており、コンピューターにより読み取りが可能であることを特徴としている。
このように構成された発明(三次元位置・姿勢認識装置、産業用ロボット、三次元位置・姿勢認識方法、プログラム、記録媒体)では、互いに異なる場所から対象物を撮像した複数の撮像画像に対してステレオマッチング処理が実行されて、複数の撮像画像間の視差を示す視差情報が取得される。また、撮像画像からエッジが抽出されて、対象物のエッジを示すエッジ情報が取得される。そして、エッジ情報が示す対象物のエッジ上の位置での視差が、視差情報に含まれる視差から抽出されるとともに、こうして抽出された視差に基づいて、三次元における対象物の位置および姿勢が認識される。これにより、対象物のエッジ部分の視差に基づいて、三次元における対象物の位置および姿勢を認識することが可能となり、その結果、当該認識動作を正確に実行することが可能となる。
ここで、エッジ抽出部は、複数の撮像画像のうちの一の撮像画像からエッジを抽出して得られる対象物のエッジ画像を、エッジ情報として求めるように、三次元位置・姿勢認識装置を構成している
この際、視差取得部は、一の撮像画像の各位置での視差を示す視差画像を、視差情報として求めるように、三次元位置・姿勢認識装置を構成している
そして、このようにエッジ画像と視差画像を求めた上で、視差抽出部は、視差画像にエッジ画像を重ね合わせることで、エッジ画像が示す対象物のエッジ上の位置での視差を、視差画像に含まれる視差から抽出するように、三次元位置・姿勢認識装置を構成している。これによって、視差(視差画像)から視差を抽出する上述の動作を簡便に実行することができる。
また、視差取得部は、複数の撮像画像それぞれのエピポーラ線を平行にする画像変換を行って、当該画像変換後の複数の撮像画像についてステレオマッチングを実行するように、三次元位置・姿勢認識装置を構成しても良い。このように、複数の撮像画像それぞれのエピポーラ線を平行にすることで、ステレオマッチングを簡便に実行することが可能となる。
また、認識部は、視差抽出部が抽出した視差を三次元での情報に変換して三次元情報を生成するとともに、三次元情報と対象物の外形を示すモデルとをマッチングさせて、三次元における対象物の位置および姿勢を認識するように、三次元位置・姿勢認識装置を構成しても良い。つまり、この発明では、対象物のエッジ部分での視差が求められており、換言すれば、対応付けの精度の高い位置での視差が求められている。そして、このような視差から求めた三次元情報に対して対象物の外形を示すモデルをマッチングさせることで、三次元における対象物の位置および姿勢を正確に認識することができる。
三次元における対象物の位置および姿勢の認識動作を、対象物のエッジ部分の視差に基づいて実行することが可能となり、これによって当該認識動作を正確に実行することが可能となる。
本発明を適用可能な双腕ロボットの一例を模式的示す斜視図である。 図1の双腕ロボットが具備する電気的構成を模式的に示すブロック図である。 三次元認識で実行される動作のフローの一例を示すフローチャートである。 三次元認識で行われる画像処理の一例を模式的に示した図である。
図1は、本発明を適用可能な双腕ロボットの一例を模式的示す斜視図である。図2は、図1の双腕ロボットが具備する電気的構成を模式的に示すブロック図である。図1および以下に示す図では、鉛直方向をz軸方向とするxyz直交座標軸を適宜示すこととする。
双腕ロボット1は、ロボット本体2とこのロボット本体2の動作を制御するコンピューター3で構成される。ロボット本体2は、胴体部21に2本のアーム22を取り付けた概略構成を備える。詳しくは、各アーム22は、駆動モーターM23に接続された肩関節23を介して取り付けられている。そして、駆動モーターM23で肩関節23を回転させることで、アーム22を動かすことができる。
また、各アーム22の先端には、手首関節24を介してハンド25が取り付けられている。この手首関節24には駆動モーターM24が接続されている。したがって、駆動モーターM24で手首関節24を回転させることで、ハンド25の向きを変えることができる。さらに、ハンド25には駆動モーターM25が接続されており、駆動モーターM25によりハンド25を開閉させることができる。
そして、双腕ロボット1は、駆動モーターM23〜M25を制御することで、部品トレイ9の上に並ぶ部品91(機械部品、電子部品)をハンド25で掴んで所定位置まで運んだり、ハンド25を回転させて部品91の姿勢を変えたり、ハンド25から部品91を放して所定位置に載置したりといった種々の動作を実行できる。つまり、このような各種動作を組み合わせて実行することで、双腕ロボット1は、部品91を組み立てることができる。
また、2本のアーム22の一方には、2つの撮像カメラC1、C2が取り付けられている。これら撮像カメラC1、C2は一方のアーム22と一体的に移動しつつ、部品91を適宜撮像するものである。そして、後述するように、撮像カメラC1、C2により部品91を撮像した結果に基づいて、アーム22およびハンド25の動作が制御されて、部品91の組立が実行される。
さらに、双腕ロボット1は、胴体部21から上方に延びる首部26と、首部26の先端に取り付けられた頭部27を有している。これら首部26および頭部27は、鉛直方向zおよび当該方向zを中心とする回転方向Drに一体的に移動できる。
このようなロボット本体2の動作は、コンピューター3により制御される。コンピューター3は、ドライバー4と、三次元認識部5とを具備している。ドライバー4は、コンピューター3により読み取りが可能な記録媒体6に記録されたプログラム7を読み出す機能を果たす。このような記録媒体6としては、例えば、CD(Compact Disc)、DVD(Digital Versatile Disc)、USB(Universal Serial Bus)メモリー等の種々のものが挙げられる。そして、ドライバー4が記録媒体6から読み出したプログラム7に従って、三次元認識部5が三次元認識を行う。
この三次元認識部5は、制御回路50によって他の構成回路51〜56を制御する概略構成を備えるものであり、コンピューター3に備えられたCPU(Central Processing Unit)およびメモリーにより実現される。続いて、三次元認識部5が実行する三次元認識の説明を通じて、三次元認識部5の構成について説明する。
図3は、三次元認識で実行される動作のフローの一例を示すフローチャートである。図4は、三次元認識で行われる画像処理の一例を模式的に示した図である。図4の各欄の左上では、図3のフローチャートにおいて当該欄内に示す画像処理が実行されるステップが示されている。ここでは、四角錐台の部品91の三次元における位置および姿勢を認識する場合を例示して説明する。
三次元認識では、制御回路50が撮像カメラC1、C2に撮像指令を出力すると、撮像カメラC1、C2のそれぞれが認識対象である部品91の画像を撮像して、制御回路50に出力する。こうして、異なる場所から部品91を撮像した2枚の撮像画像I1、I2が取得される(ステップS101)。
これら2枚の撮像画像I1、I2は、平行化回路51で平行化処理を受けた後にステレオマッチング回路52へ出力される。この平行化回路51は、制御回路50から受け取った撮像画像I1、I2それぞれのエピポーラ線を平行にする平行化処理(画像変換)を撮像画像I1、I2に対して行うものである(ステップS102)。
図4のステップS101、102の欄に示すように、それぞれのエピポーラ線が平行となった撮像画像I1、I2のy軸は一致している。ただし、x軸方向には撮像画像I1、I2が視差を有することから、撮像画像I1、I2のx軸は一致していない。図4ではこの点を考慮して、撮像画像I1、I2のx座標に対して互いに異なる符合x1、x2が付されている。
平行化回路51で平行化処理を受けた撮像画像I1、I2は、ステレオマッチング回路52に出力される。そして、ステレオマッチング回路52は、撮像画像I1、I2に対してステレオマッチング処理を行う(ステップS103)。このステレオマッチング処理では、2つの撮像画像I1、I2の間でパターンの類似する位置(微小領域)どうしが部品91の同一部分に対応するとして、互いに対応付けられる。
具体的に説明すると、撮像画像I1中の注目位置と、この注目位置を通るエピポーラ線上にある撮像画像I2中の各位置との間でパターンの類似性が判断されて、撮像画像I1の注目位置とパターンの類似する位置が撮像画像I2中から探索される。ここでは撮像画像I1、I2のエピポーラ線が互いに平行であるため、y座標が注目位置と同じである撮像画像I2の各位置と注目位置との間でパターンの類似性が判断される。その結果、撮像画像I2の各位置のうち最も類似性の高い位置が、撮像画像I1の注目位置と対応付けられる。さらに、撮像画像I1中の注目位置を移動させながら同様の動作を繰り返すことで、撮像画像I1の各位置と撮像画像I2の各位置とが対応付けられる。
そして、ステレオマッチング回路52は、こうして対応付けられた2つの位置の間の視差pを算出する。具体的には、撮像画像I1中の位置とこれに対応する撮像画像I2中の位置との視差pが求められて、撮像画像I1中の位置に対して視差pが付与される。このようにして、撮像画像I1中の座標系(x1,y)の各位置に対して視差pを付与した視差画像Isが生成される。言い換えれば、視差画像Isは、撮像画像I1の座標系(x1,y)の各位置での視差p(x1,y)を示す情報である。
なお、図4のステップS103の欄に示すように、視差画像Isにおいて部品91の輪郭Lは、一定の幅を持ったぼやけたものとなる。これは、ステレオマッチング処理での対応付けが、微小領域単位で実行されるために、視差画像Isにおいて部品91の輪郭Lが少なくとも微小領域の幅を有することに起因する。
ところで、平行化回路51は平行化処理を行った撮像画像I1を、上述のステレオマッチング回路52の他にエッジ抽出回路53にも出力する。エッジ抽出回路53は、受け取った撮像画像I1を二値化することで、撮像画像I1からエッジEを抽出する(ステップS104)。こうして、部品91のエッジEを示すエッジ画像Ieが生成される(図4のステップS104の欄)。
このようにして、ステレオマッチング回路52およびエッジ抽出回路53で求められた、視差画像Isおよびエッジ画像Ieはマスク回路54に出力される。そして、このマスク回路54では、撮像画像I1の座標系(x1,y)において、視差画像Isとエッジ画像Ieとが重ね合わされ、これによって、視差画像Isにおける部品91の輪郭Lとエッジ画像Ieにおける部品91のエッジEとが重ね合わされる(ステップS105)。そして、エッジ画像Ieの示す部品91のエッジE上に位置する視差pのみが、視差画像Isに含まれる視差pから抽出されて、エッジE上の視差pのみを示すエッジ視差画像Iesが形成される(ステップS106)。このように、マスク回路54において、エッジ画像Ieは、部品91のエッジE上に位置する視差pのみを視差画像Isから抽出するマスク画像として機能する。
こうして、マスク回路54において、視差画像IsからエッジE上の視差pのみを抽出したエッジ視差画像Ies(図4のステップS106の欄内)は、三次元情報生成回路55に出力される。この三次元情報生成回路55は、受け取ったエッジ視差画像Iesから三次元情報Sを生成する。つまり、xy平面での位置(x1,y)での視差pを示す情報Iesが、当該位置(x1,y)でのz成分を示す三次元情報Sに変換される。こうして、三次元の座標系(x1,y,z)における位置を示す三次元情報Sが生成される。
なお、この三次元情報Sの変換にあたっては、撮像カメラC1、C2の焦点距離等の内部パラメーターや、撮像カメラC1、C2の位置関係を示す基礎行列Fが必要となる。この基礎行列Fについては、予め行われた撮像カメラC1、C2の校正時に求められて、三次元情報生成回路55に記憶されている。
こうして、求められた部品91の三次元情報Sは、三次元情報生成回路55からモデルマッチング回路56へ出力される。そして、モデルマッチング回路56は、部品91の外形を示す外形モデルと三次元情報Sとをマッチングさせるモデルマッチングを行う(ステップS108)。このとき使用される部品91のモデルは、部品91の外形を示すCAD(computer aided design)データから求められて、モデルマッチング回路56に予め記憶されている。
モデルマッチングの結果Rmは、モデルマッチング回路56から制御回路50に出力される。制御回路50は、モデルマッチング結果Rmに基づいて、三次元における部品91の位置および姿勢を認識する三次元認識処理を実行する(ステップS109)。言い換えれば、ステップS109では、モデルマッチング結果Rmに基づいて、三次元における部品91の位置および姿勢を示す三次元モデルが生成される(三次元モデリング)。そして、制御回路50は、部品91の三次元モデルとロボット本体2の座標系に基づいて、各駆動モーターM23〜M25を制御して、双腕ロボット1による部品91の組立動作を実行する。
以上に説明したように、この実施形態では、互いに異なる場所から部品91(対象物)を撮像した2枚の撮像画像I1、I2に対してステレオマッチング処理が実行されて、2枚の撮像画像I1、I2間の視差pを示す視差画像Is(視差情報)が取得される。また、撮像画像I1からエッジEが抽出されて、部品91のエッジEを示すエッジ画像Ie(エッジ情報)が取得される。そして、エッジ画像Ieが示す部品91のエッジE上の位置での視差pが、視差画像Isに含まれる視差pから抽出されるとともに、こうして抽出された視差pに基づいて、三次元における部品91の位置および姿勢が認識される。これにより、部品91のエッジE部分の視差pに基づいて、三次元における部品91の位置および姿勢を認識することが可能となり、その結果、この三次元認識を正確に実行することが可能となっている。
また、この実施形態では、三次元情報の生成に用いられる視差pが、部品91のエッジE上のものに限定されているため、三次元情報の生成に要する演算時間を短縮化できる。その結果、三次元認識の高速化を図ることが可能となっている。
また、この実施形態では、2枚の撮像画像I1、I2のうちの一の撮像画像I1からエッジEを抽出して部品91のエッジ画像Ieを得ている。また、視差画像Isは、一の撮像画像I1の各位置での視差pを示す情報として求められている。つまり、エッジ画像Ieおよび視差画像Isのいずれもが同じ座標系(x1,y)(一の撮像画像I1の座標系)で求められている。その結果、エッジ画像Ieが示す部品91のエッジE上の視差pを視差画像Isから抽出する視差抽出を、エッジ画像Ieと視差画像Isを重ね合わせるだけで簡便に実行することが可能となっている。
また、この実施形態では、2枚の撮像画像I1、I2それぞれのエピポーラ線を平行にする画像変換(平行化処理)を行って、当該画像変換後の2枚の撮像画像I1、I2についてステレオマッチングが実行される。このように、2枚の撮像画像I1、I2それぞれのエピポーラ線を平行にすることで、撮像画像I1、I2間で対応付けられる位置どうしのy成分が同じとなるため、この対応付けが容易となり、ステレオマッチングを簡便に実行することが可能となる。
また、この実施形態は、視差pから求めた三次元情報Sと部品91の外形を示すモデルとをマッチングさせて、三次元における部品91の位置および姿勢を認識しており、好適である。つまり、この実施形態では、部品91のエッジE部分での視差pが求められており、換言すれば、対応付けの精度の高い位置での視差pが求められている。そして、このような視差pから求めた三次元情報Sに対して部品91の外形を示すモデルをマッチングさせることで、三次元における部品91の位置および姿勢を正確に認識することができる。
その他
このように上記実施形態では、撮像カメラC1、C2と三次元認識部5で構成されるステレオ撮像系SS(図2)が本発明の「三次元位置・姿勢認識装置」に相当し、双腕ロボット1が本発明の「産業用ロボット」に相当し、コンピューター3が本発明の「コンピューター」に相当し、記録媒体6が本発明の「記録媒体」に相当し、プログラム7が本発明の「プログラム」に相当する。また、撮像カメラC1、C2が本発明の「撮像部」に相当し、撮像カメラC1、C2と制御回路50が本発明の「画像取得部」として機能し、平行化回路51およびステレオマッチング回路52が本発明の「視差取得部」として機能し、エッジ抽出回路53が本発明の「エッジ抽出部」に相当し、マスク回路54が本発明の「視差抽出部」に相当し、三次元情報生成回路55、モデルマッチング回路56および制御回路50が本発明の「認識部」に相当し、アーム22およびハンド25が本発明の「部品移動手段」に相当し、制御回路50が本発明の「制御手段」に相当する。また、ステップS101が本発明の「画像取得工程」に相当し、ステップS102、S103が本発明の「視差取得工程」に相当し、ステップS104が本発明の「エッジ抽出工程」に相当し、ステップS105、S106が本発明の「視差抽出工程」に相当し、ステップS108、S109が本発明の「認識工程」に相当する。また、撮像画像I1、I2が本発明の「撮像画像」に相当し、視差画像Isが本発明の「視差画像」および「視差情報」に相当し、エッジ画像Ieが本発明の「エッジ画像」および「エッジ情報」に相当する。
なお、本発明は上記した実施形態に限定されるものではなく、その趣旨を逸脱しない限りにおいて上述したもの以外に種々の変更を行うことが可能である。例えば、三次元認識における各ステップS101〜S109は、図3のフローチャートに示したものに限られない。具体例を挙げると、ステップS103のステレオマッチングより先にステップS104のエッジ抽出を行なっても良く、あるいは、ステップS103、S104のステレオマッチングおよびエッジ抽出を並行して実行しても良い。
また、上記実施形態では、三次元認識部5は、コンピューター3の内臓するCPUやメモリーで構成されていた。しかしながら、三次元認識部5は、FPGA(Field-Programmable Gate Array)等のプログラマブルロジックデバイスや、ディスクリートな回路素子を組み合わせて構成されても良い。
また、上述のエッジ抽出についても種々の方法により実行することができ、例えば、Roberts、Sobel、Prewitt等の演算子を用いた方法を採用可能である。
また、撮像カメラC1、C2の個数や、取り付け位置等についても上述したものに限られず、適宜変更可能である。
また、三次元における部品91の位置および姿勢を求める方法についても、上述のモデルマッチングに限られず、適宜変更可能である。
また、本発明を適用可能な産業用ロボットは、上述の双腕ロボット1に限られない。しがたって、その他の構成を具備するロボットに対して本発明を適用することもできる。
この発明は、三次元での画像認識技術の全般に対して適用可能であり、特に産業用ロボットにおいて三次元における部品の位置・姿勢を認識する技術に好適に適用することができる。
1…双腕ロボット
2…ロボット本体
22…アーム
25…ハンド
3…コンピューター
4…ドライバー
5…三次元認識部
50…制御回路
51…平行化回路
52…ステレオマッチング回路
53…エッジ抽出回路
54…マスク回路
55…三次元情報生成回路
56…モデルマッチング回路
6…記録媒体
7…プログラム
91…部品
C1,C2…撮像カメラ
I1,I2…撮像画像
Is…視差画像
Ie…エッジ画像
E…エッジ
L…輪郭
S…三次元情報
SS…ステレオ撮像系

Claims (9)

  1. 複数の撮像部から対象物を撮像することで、互いに異なる場所から前記対象物を撮像した複数の撮像画像を取得する画像取得部と、
    前記複数の撮像画像についてステレオマッチング処理を行って、前記複数の撮像画像間の視差を示す視差情報を取得する視差取得部と、
    前記撮像画像からエッジを抽出して、前記対象物のエッジを示すエッジ情報を取得するエッジ抽出部と、
    前記エッジ情報が示す前記対象物の前記エッジ上の位置での前記視差を、前記視差情報に含まれる前記視差から抽出する視差抽出部と、
    前記視差抽出部が抽出した前記視差に基づいて、三次元における前記対象物の位置および姿勢を認識する認識部と
    を備え
    前記エッジ抽出部は、前記複数の撮像画像のうちの一の撮像画像から前記エッジを抽出して得られる前記対象物のエッジ画像を、前記エッジ情報として求め、
    前記視差取得部は、前記一の撮像画像の各位置での前記視差を示す視差画像を、前記視差情報として求め、
    前記視差抽出部は、前記視差画像に前記エッジ画像を重ね合わせることで、前記エッジ画像が示す前記対象物の前記エッジ上の位置での前記視差を、前記視差画像に含まれる前記視差から抽出することを特徴とする三次元位置・姿勢認識装置。
  2. 前記エッジ抽出部は、前記複数の撮像画像のうちの一の撮像画像のみから前記エッジを抽出して得られる前記対象物の一の前記エッジ画像を、前記エッジ情報として求める請求項1に記載の三次元位置・姿勢認識装置。
  3. 前記視差取得部は、前記一の撮像画像の各位置での前記視差を示す一の前記視差画像を、前記視差情報として求める請求項2に記載の三次元位置・姿勢認識装置。
  4. 前記視差取得部は、前記複数の撮像画像それぞれのエピポーラ線を平行にする画像変換を行って、当該画像変換後の前記複数の撮像画像について前記ステレオマッチングを実行する請求項1ないし3のいずれか一項に記載の三次元位置・姿勢認識装置。
  5. 前記認識部は、前記視差抽出部が抽出した前記視差を三次元での情報に変換して三次元情報を生成するとともに、前記三次元情報と前記対象物の外形を示すモデルとをマッチングさせて、三次元における前記対象物の位置および姿勢を認識する請求項1ないし4のいずれか一項に記載の三次元位置・姿勢認識装置。
  6. 部品を取って移動させる部品移動手段と、
    請求項1ないし5のいずれか一項に記載の三次元位置・姿勢認識装置と、
    前記三次元位置・姿勢認識装置により前記対象物としての前記部品の三次元での位置および姿勢を認識した結果に基づいて、前記部品移動手段を制御する制御手段と
    を備えることを特徴とする産業用ロボット。
  7. 互いに異なる場所から対象物を撮像した複数の撮像画像を取得する画像取得工程と、
    前記複数の撮像画像についてステレオマッチング処理を行って、前記複数の撮像画像間の視差を示す視差情報を取得する視差取得工程と、
    前記撮像画像からエッジを抽出して、前記対象物のエッジを示すエッジ情報を取得するエッジ抽出工程と、
    前記エッジ情報が示す前記対象物の前記エッジ上の位置での前記視差を、前記視差情報に含まれる前記視差から抽出する視差抽出工程と、
    前記視差抽出工程が抽出した前記視差に基づいて、三次元における前記対象物の位置および姿勢を認識する認識工程と
    を備え
    前記エッジ抽出工程は、前記複数の撮像画像のうちの一の撮像画像から前記エッジを抽出して得られる前記対象物のエッジ画像を、前記エッジ情報として求め、
    前記視差取得工程は、前記一の撮像画像の各位置での前記視差を示す視差画像を、前記視差情報として求め、
    前記視差抽出工程は、前記視差画像に前記エッジ画像を重ね合わせることで、前記エッジ画像が示す前記対象物の前記エッジ上の位置での前記視差を、前記視差画像に含まれる前記視差から抽出することを特徴とする三次元位置・姿勢認識方法。
  8. 互いに異なる場所から対象物を撮像した複数の撮像画像を取得する画像取得機能と、
    前記複数の撮像画像についてステレオマッチング処理を行って、前記複数の撮像画像間の視差を示す視差情報を取得する視差取得機能と、
    前記撮像画像からエッジを抽出して、前記対象物のエッジを示すエッジ情報を取得するエッジ抽出機能と、
    前記エッジ情報が示す前記対象物の前記エッジ上の位置での前記視差を、前記視差情報に含まれる前記視差から抽出する視差抽出機能と、
    前記視差抽出機能が抽出した前記視差に基づいて、三次元における前記対象物の位置および姿勢を認識する認識機能とを、コンピューターに実現させ
    前記エッジ抽出機能は、前記複数の撮像画像のうちの一の撮像画像から前記エッジを抽出して得られる前記対象物のエッジ画像を、前記エッジ情報として求め、
    前記視差取得機能は、前記一の撮像画像の各位置での前記視差を示す視差画像を、前記視差情報として求め、
    前記視差抽出機能は、前記視差画像に前記エッジ画像を重ね合わせることで、前記エッジ画像が示す前記対象物の前記エッジ上の位置での前記視差を、前記視差画像に含まれる前記視差から抽出することを特徴とするプログラム。
  9. 請求項8に記載のプログラムが記録されており、コンピューターにより読み取りが可能であることを特徴とする記録媒体。
JP2011204945A 2011-09-20 2011-09-20 三次元位置・姿勢認識装置、産業用ロボット、三次元位置・姿勢認識方法、プログラム、記録媒体 Expired - Fee Related JP5839671B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011204945A JP5839671B2 (ja) 2011-09-20 2011-09-20 三次元位置・姿勢認識装置、産業用ロボット、三次元位置・姿勢認識方法、プログラム、記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011204945A JP5839671B2 (ja) 2011-09-20 2011-09-20 三次元位置・姿勢認識装置、産業用ロボット、三次元位置・姿勢認識方法、プログラム、記録媒体

Publications (2)

Publication Number Publication Date
JP2013068417A JP2013068417A (ja) 2013-04-18
JP5839671B2 true JP5839671B2 (ja) 2016-01-06

Family

ID=48474295

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011204945A Expired - Fee Related JP5839671B2 (ja) 2011-09-20 2011-09-20 三次元位置・姿勢認識装置、産業用ロボット、三次元位置・姿勢認識方法、プログラム、記録媒体

Country Status (1)

Country Link
JP (1) JP5839671B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6849262B1 (ja) * 2020-05-28 2021-03-24 リンクウィズ株式会社 情報処理方法、情報処理システム、プログラム
EP4261496A4 (en) * 2020-12-08 2024-05-29 Panasonic Intellectual Property Management Co., Ltd. METHOD AND DEVICE FOR CREATING A THREE-DIMENSIONAL MODEL

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3826236B2 (ja) * 1995-05-08 2006-09-27 松下電器産業株式会社 中間像生成方法、中間像生成装置、視差推定方法、及び画像伝送表示装置
CN1162681C (zh) * 1999-03-19 2004-08-18 松下电工株式会社 三维物体识别方法及使用该方法的零件抓取***
JP2002216113A (ja) * 2001-01-16 2002-08-02 Fujitsu Ten Ltd 物体認識装置
JP2008082870A (ja) * 2006-09-27 2008-04-10 Setsunan Univ 画像処理プログラム及びこれを用いた路面状態計測システム
JP5380792B2 (ja) * 2007-06-15 2014-01-08 株式会社Ihi 物体認識方法および装置
JP5311465B2 (ja) * 2008-11-25 2013-10-09 Necシステムテクノロジー株式会社 ステレオマッチング処理システム、ステレオマッチング処理方法、及びプログラム

Also Published As

Publication number Publication date
JP2013068417A (ja) 2013-04-18

Similar Documents

Publication Publication Date Title
JP5852364B2 (ja) 情報処理装置、情報処理装置の制御方法、およびプログラム
Song et al. CAD-based pose estimation design for random bin picking using a RGB-D camera
JP6427972B2 (ja) ロボット、ロボットシステム及び制御装置
JP6180086B2 (ja) 情報処理装置及び情報処理方法
JP6222898B2 (ja) 3次元計測装置及びロボット装置
US8977378B2 (en) Systems and methods of using a hieroglyphic machine interface language for communication with auxiliary robotics in rapid fabrication environments
JP2013069100A (ja) 三次元位置・姿勢認識装置、産業用ロボット、三次元位置・姿勢認識方法、プログラム、記録媒体
JP2012254518A (ja) ロボット制御システム、ロボットシステム及びプログラム
JP2015071206A (ja) 制御装置、ロボット、教示データ生成方法及びプログラム
JP2004185123A (ja) 3次元モデルデータ生成装置
US20130054030A1 (en) Object gripping apparatus, object gripping method, and object gripping program
JP4709668B2 (ja) 3次元物体認識システム
JP2013099808A (ja) 組み付け装置、およびその方法、組み付け動作プログラム
JP2014184543A (ja) ロボット制御装置、ロボットシステム、ロボット、ロボット制御方法及びロボット制御プログラム
TW201609302A (zh) 機器人控制程式產生方法及裝置
JP5839671B2 (ja) 三次元位置・姿勢認識装置、産業用ロボット、三次元位置・姿勢認識方法、プログラム、記録媒体
Jerbić et al. Robot assisted 3D point cloud object registration
Kingkan et al. Model-based virtual visual servoing with point cloud data
Liang et al. Rgb-d camera based 3d object pose estimation and grasping
JP5868005B2 (ja) 撮像装置、撮像条件設定方法、プログラム
Di Castro et al. Tracking-based depth estimation of metallic pieces for robotic guidance
Byambaa et al. 6d pose estimation of transparent object from single rgb image for robotic manipulation
Seçil et al. 3-d visualization system for geometric parts using a laser profile sensor and an industrial robot
CN116419829A (zh) 测量***、测量装置、测量方法以及测量程序
Niu et al. Eye-in-hand manipulation for remote handling: Experimental setup

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140625

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150320

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150324

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150519

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151104

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151109

R150 Certificate of patent or registration of utility model

Ref document number: 5839671

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees