JP6364856B2 - ロボット - Google Patents
ロボット Download PDFInfo
- Publication number
- JP6364856B2 JP6364856B2 JP2014061478A JP2014061478A JP6364856B2 JP 6364856 B2 JP6364856 B2 JP 6364856B2 JP 2014061478 A JP2014061478 A JP 2014061478A JP 2014061478 A JP2014061478 A JP 2014061478A JP 6364856 B2 JP6364856 B2 JP 6364856B2
- Authority
- JP
- Japan
- Prior art keywords
- hand
- unit
- finger
- grip
- point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1612—Programme controls characterised by the hand, wrist, grip control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J15/00—Gripping heads and other end effectors
- B25J15/0033—Gripping heads and other end effectors with gripping surfaces having special shapes
- B25J15/0042—V-shaped gripping surfaces
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39476—Orient hand relative to object
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39487—Parallel jaws, two fingered hand
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40053—Pick 3-D object from pile of objects
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40583—Detect relative position or orientation between gripper and currently handled object
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40607—Fixed camera to observe workspace, object, workpiece, global
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Orthopedic Medicine & Surgery (AREA)
- Manipulator (AREA)
Description
この構成によれば、指部は4点以上の接触点で物体を挟持することができるので、乱雑に積まれた金属光沢のある物体を安定して把持することができる。
前記物体の長手方向と前記物体の撮像方向とに直交する方向に、前記指部の開閉方向を定める把持計画部と、を備える。
この構成によれば物体の撮像方向と指部の開閉方向が直交するため、撮像データによる物体の位置の撮像方向の誤差が他の方向よりも大きく、指部の開閉方向の誤差が他の方向よりも小さいときでも、誤差の累積が特定の方向に集中しない。また、物体の長手方向に直交する方向に指部が開閉するため、ハンドは、その物体を確実に把持することができる。
この構成によれば、ハンドは、把持対象の物体とその物体が積み重ねられた平面に対して平行な成分を有しない方向に前記物体の位置より予め定めた距離離れた点を起点として、その物体に接近する。ハンドがその物体やその物体が積み重ねられた平面に接触する可能性を低減することができるので、その物体を確実に把持することができる。
この構成によれば、物体が積み重ねられた平面からの物体の傾きが大きい場合、その傾きに応じて指部の開閉方向が、物体の長手方向に直交する方向により近い方向に傾けられる。そのため、ハンドを物体の長手方向に直交する方向から接近させた場合でも、その物体を確実に把持することができる。
この構成によれば、把持された物体の姿勢が自律的に調整されるため、調整に係る人手による作業を省略又は軽減することができる。
この構成によれば、物体の姿勢を調整する際、ハンドが物体を把持する力を減少させることにより、物体にかかる重力を活用できる。また、ハンドが物体を把持する力を増加させることにより、一対の指部が対向する面の形状に応じて物体の姿勢を調整することができる。
また、本発明の一態様は、円柱に近似可能な形状を有する物体を把持するハンドと、前記ハンドを動作させる制御部と、を含み、前記ハンドは、前記物体を4点以上の接触点で把持可能な指部を備え、前記制御部は、前記物体を撮像する撮像部が接続され、前記撮像部が前記物体を撮像して取得された三次元点群に基づいて前記物体の位置及び姿勢を算出する位置姿勢算出部と、前記円柱の中心軸に沿った第1方向と、前記物体の撮像方向とに直交する第2方向に、前記指部の開閉方向を定める把持計画部と、を含み、前記把持計画部は、前記物体が積み重ねられた平面と前記第1方向のなす角度が所定の角度の閾値以上のとき、前記平面に対する前記第1方向の傾きと同じ方向に、前記指部を前記平面に直交する方向から傾け、前記第1方向に垂直、かつ、前記平面に対して平行な成分を有しない第3方向に前記物体の位置より予め定めた距離離れた点から、前記ハンドを前記物体に接近させる、ロボットである。
各図における部品や構造等の縮尺は、図を明瞭なものとするために実際のものとは異なっていることがある。
図1は、本実施形態に係るロボットシステム1の概略斜視図である。
図1に示すように、ロボットシステム1は、ロボット10及び撮像装置80を備える。
ロボット10は、アーム20とハンド40との連係した動作によって6軸の自由度を有する垂直多関節ロボットである。ロボット10は、ハンド40が把持する対象物Wkの位置および姿勢を自在に変更することができる。
支持部材520には、対象物Wkを把持する力とモーメントを検出する検出部63(図2)が備えられている。検出部63は、例えば、圧力センサーである。検出部63は、検出した力とモーメントを示す負荷信号を制御部60に出力する。この構成により、指部41、42の開閉方向へのハンド40の位置や姿勢の制御誤差は、支持部材520の回転軸の方向への制御誤差よりも小さくなる。
なお、ロボット10は、指部41、42間の開き角、支持部材520の回転角、アーム20の関節部の回転角をそれぞれ検出するエンコーダー(図示せず)を備える。エンコーダーは、検出した開き角、回転角、等を示す検出信号を生成し、生成した検出信号を制御部60に出力する。
制御部60は、アーム20とハンド40のいずれか又は両者の動作を制御する。制御部60は、例えば、アーム20を動作させて対象物Wkの近傍にハンド40を移動させ、支持部材520に対象物Wkを把持させる。制御部60には、検出部63(図2)から負荷信号が入力され、エンコーダーから検出信号が入力され、撮像装置80から画像データが入力される。制御部60は、入力された負荷信号、検出信号、及び画像データを、アーム20及びハンド40の動作の制御に用いる。制御部60の構成については、後述する。
図示の例では、撮像装置80の光学軸が、水平面に平行な作業台Tbの表面に対して垂直(下方)に向くように設置される。撮像領域には、被写体として複数の対象物Wkが作業台Tb上に乱雑に積み重ねられている。なお、以下の説明では、作業台Tbの表面を作業平面と呼ぶ。
撮像した二次元画像は、上述の三次元点群を撮像装置80の光学軸に交差する平面に射影して形成された画像に相当する。つまり、二次元画像は、三次元点群と同一の撮像領域内の同一の被写体を表す画像であって、それぞれの撮像領域が対応付けられる。撮像装置80は、撮像した二次元画像を示す二次元画像データを制御部60に出力する。以下の説明では、二次元画像データと三次元点群データを、単に「画像データ」と総称する。
図2は、本実施形態に係るロボット10の構成を示す概略ブロック図である。
ロボット10は、動作機構12、制御部60、入力部61、記憶部62、及び検出部63を含んで構成される。
入力部61は、撮像装置80から入力された画像データを制御部60に出力する。入力部61は、例えば、入力インタフェースである。
記憶部62は、制御部60で行われる処理に用いるデータ、処理により生成されたデータを記憶する。記憶部62は、例えば、RAM(Random Access Memory)である。
制御部60は、画像データ取得部601、位置姿勢推定部(位置姿勢算出部)602、把持難易度算出部603、把持計画部604、方向確認部605、及び姿勢制御部606を含んで構成される。
画像データ取得部601は、入力された二次元画像データから、選択した注目領域内の二次元画像を示す二次元画像データを抽出する。また、画像データ取得部601は、入力された三次元点群データから、選択した注目領域に対応する3次元の領域内の三次元点群を示す三次元点群データを抽出する。
把持難易度算出部603は、算出した把持難易度が最も小さいセットの位置及び姿勢を選択する。把持難易度算出処理の例については、後述する。
上述したように、開閉方向z”へのハンド40の位置や姿勢の制御誤差は、開閉方向z”に直交する方向x”、y”への制御誤差よりも小さくなることがある。他方、3次元点群から定められた対象物Wkの位置及び姿勢では、作業平面に平行なx方向、y方向(x’方向が含まれる)の誤差が、z方向よりも小さくなることがある。そのため、累積された制御誤差が特定の方向に集中せずに平準化されるため、対象物Wkの安定した把持が可能になる。
姿勢制御部606は、ハンド40の指部41、42を開閉し、対象物Wkを把持する力を増減することによって、対象物Wkの把持姿勢を制御する。ハンド40の指部41、42の開閉や、把持する力の増減により対象物Wkの姿勢や位置を制御することを姿勢制御と呼ぶことがある。
次に、本実施形態に係るロボット制御処理について説明する。
図3は、本実施形態に係るロボット制御処理を示すフローチャートである。
(ステップS101)画像データ取得部601には、撮像装置80から入力された二次元画像データの撮像領域から所定の大きさの注目領域を定める、定めた注目領域内の二次元画像を示す二次元画像データを取得する。また、画像データ取得部601は、入力された三次元画像データから定めた注目領域に対応する三次元の領域内の三次元点群を示す三次元点群データを取得する。その後、ステップS102に進む。
(ステップS103)把持難易度算出部603は、画像データ取得部601で抽出された三次元点群データが示す対象物Wkの把持難易度を、位置姿勢推定部602で推定された位置、姿勢のセットのそれぞれについて算出する。把持難易度算出部603は、算出した把持難易度が最も小さいセットの位置及び姿勢を選択する。その後、ステップS104に進む。
(ステップS106)姿勢制御部606は、ハンド40に対象物Wkを把持させ、対象物Wkの頭部の方向をzの負方向に向ける。
姿勢制御部606は、ハンド40の指部41、42を開閉し、対象物Wkを把持する力を増減することによって、対象物Wkの把持姿勢を制御する。その後、図3に示す処理を終了する。
次に、撮像装置80で得られる二次元画像の一例について説明する。
図4は、二次元画像の一例を示す図である。
図4に示す二次元画像Im01は、所定の撮像領域内の被写体の画像である。この二次元画像は、乱雑に積み重ねられた複数の対象物Wkの表面を表す。二次元画像を示す二次元画像データは、画素毎の輝度値を示す。暗く表されている画素ほど輝度値が低く、明るく表されている画素ほど輝度値が高い。
図4に示す例では、対象物Wkは金属光沢を有するボルトである。金属光沢を有する物体では、強い反射光を発するため、輝度値が高くなる傾向がある。そのため、後述する位相シフト法で対象物Wkまでの距離を計測する場合、輝度値の空間変化の位相を検出するので、測定精度が低下することがある。
対象物Wkは、特開2010−175497号公報に記載のメタリック感指標が5以上の物体である。メタリック感指標とは、金属光沢の度合いを示す指標である。メタリック感指標が大きいほど金属光沢が多く、メタリック感指標が小さいほど金属光沢が少ない。メタリック感指標は、被写体から反射した光の明度L*、彩度C*をそれぞれ要素として含むベクトル(L*,C*)のL*−C*空間における発散(divergence)として与えられる。明度L*、彩度C*は、それぞれCIEL*a*b*色空間における明度L*、彩度C*である。
図5は、対象物の形状を近似するモデルの一例を示す図である。
対象物Wkは、少なくともその一部の形状が円柱に近似される円柱物体である。図5に示す例では、対象物Wkの形状は、その形状が円柱に近似される軸部Axと、軸部Axよりも半径が大きく長さが短い頭部Hdとからなる。本実施形態では、対象物Wkの大きさを表す特性長として、長さl及び半径rが用いられる。対象物Wkの中心軸とは、特に断らない限り軸部Axの中心軸を意味し、y’方向は、この中心軸の方向を意味する。x’,z’方向は、y’方向に直交する方向である。また、x’方向とz’方向は互いに直交する。なお、x’、y’、z’方向の座標値(x’、y’、z’)で表される座標系を対象物座標系と呼び、作業台Tbもしくは撮像装置80を基準とする座標系と区別する。
次に、位相シフト法について説明する。位相シフト法は、それぞれ位相が異なる正弦波縞パターンをプロジェクター(図示せず)から投影し、それぞれのパターンが投影された各画像の輝度値In(ξ,η)に基づいて、画素毎に撮像素子から被写体表面までの距離zを求める方法である。ここで、ξ,ηは、それぞれ投影素子上の水平方向の座標、垂直方向の座標を示す。正弦波縞パターンは、二次元画像を形成する各画素の輝度値が、水平方向に所定の周期で変化する正弦関数で表され、垂直方向に一定となるように分布する画像である。位相シフト法では、水平方向の位相がそれぞれ異なる正弦波縞パターンを最低3つ用いる。水平方向の位相が、n・π/2(nは、0から3までの整数)である4つの正弦波縞パターンをそれぞれ用いた場合、撮像装置80は、画素毎に位相φ(ξ,η)を、式(1)を用いて算出する。
位相シフト法については、次の文献に詳しく記載されている。(野坂 健一郎、荒木 秀和、中原 智治、位相シフト法インライン3次元外観検査システム、「パナソニック電工技報」、パナソニック電工株式会社、2009年9月、Vol.57、No.3、p.29〜34)
次に、位置姿勢推定処理について説明する。
図6は、本実施形態に係る位置姿勢推定処理を示すフローチャートである。
位置姿勢推定部602は、画像データ取得部601で抽出された三次元点群データについて、次のステップを実行することにより対象物の位置及び姿勢を推定する。
(ステップS201)位置姿勢推定部602は、三次元点群データが示す三次元点群から2つのサンプル点からなる複数の組のうち、2点間の線分の長さが所定の範囲内となる組を選択する。線分の長さの範囲は、対象物Wkの長さlに基づいて予め定めておく。その後、ステップS202に進む。
(ステップS202)位置姿勢推定部602は、選択した各組をなす2点間の線分から所定の距離内のサンプル点を三次元点群データからそれぞれ抽出する。線分からの所定の距離は、対象物Wkの軸部の半径rに基づいて予め定めておく。その後、ステップS203に進む。
(ステップS203)位置姿勢推定部602は、線分から抽出した各サンプル点iまでの距離diと、対象物Wkの半径rとの誤差errが予め定めた範囲にある中心軸を選択する。誤差errは、式(2)で与えられる。式(2)において、nsは、抽出したサンプル点の個数を示す。その後、ステップS204に進む。
(ステップS205)位置姿勢推定部602は、抽出したサンプル点の数の、選択した中心軸の方向の座標毎に抽出したサンプル点の数を計数し、サンプル点の数の中心軸方向の分布を求める。位置姿勢推定部602は、求めた分布に基づいて対象物Wkの領域を特定し、特定した領域のうちサンプル点の数が所定数より大きいか否かにより対象物Wkの頭部の領域と軸部の領域とを判別する。位置姿勢推定部602は、特定した軸部の領域の代表点(例えば、重心点)を対象物Wkの位置と定める。その後、位置姿勢推定処理を終了する。
次に、把持難易度算出処理について説明する。
図7は、本実施形態に係る把持難易度算出処理を示すフローチャートである。
把持難易度算出部603は、次のステップを実行することにより把持難易度を算出する。
(ステップS301)把持難易度算出部603は、位置姿勢推定部602が算出した姿勢を示す角度θに対応する第1評価指標値y1を算出する。角度θは、作業平面と対象物Wkの中心軸との間の角度である。第1評価指標値y1は、最適角度(例えば、0度)を中央値とする正規分布である。最適角度とは、ハンド40により対象物Wkを把持するために最適な角度θである。正規分布の中央値及び分散については、ハンド40の形状や対象物Wkの形状に応じて、予め定めておく。その後、ステップS302に進む。
次に、把持計画処理について図8、図9を用いて説明する。
図8は、本実施形態に係る把持計画処理を示すフローチャートである。
図9は、本実施形態に係る把持計画処理におけるハンド40と対象物Wkの位置関係の例を示す図である。
その後、把持計画部604は、把持目標点Qtが把持準備点P’に到達するようにハンド40を移動させる(図9(a))。把持目標点Qtとは、ハンド40に把持された対象物Wkの代表点(例えば、中心軸)の位置であり、ハンド40ならびに対象物Wkの形状、大きさによって定める。把持目標点Qtが把持準備点P’に到達するようにハンド40を移動させることは、ハンド40を把持準備点P’に移動させることを意味する。その後、ステップS402に進む。
把持計画部604は、ハンド40の基準線y”の方向を、作業平面に対する中心軸の方向y’の傾きと同じ方向に、zの負方向から傾き角θ’だけ傾いた方向に合わせる(図9(c))。その後、ステップS404に進む。
(ステップS405)把持計画部604は、ハンド40の指部41、42を閉じる前に対象物Wkを挟んだまま、ハンド40をx’−y’平面内で予め定めた角度φ’(例えば、2〜3°)回転させる(図9(e))。その後、ステップS406に進む。
(ステップS406)把持計画部604は、ハンド40の指部41、42を閉じ、対象物Wkを把持させ、ハンド40を把持準備点P’に移動させる。その後、把持計画処理を終了する。
次に、対象物Wkの方向の確認について説明する。
図10は、本実施形態に係る方向確認処理を説明するための図である。
図10(a)は、ハンド40の指部41、42と対象物Wkを表す二次元画像Im02を示す。対象物Wkは、指部41、42で把持され、頭部Hdが図面の下方に向けられている。x’方向、y’方向を、それぞれ図面の右方、上方に示す。
図10(b)は、二次元画像Im02を二値化した二次元画像Im03を示す。二次元画像Im03において、明るい部分が対象物Wkを表す明領域BWkである。
図10(d)は、二次元画像Im04に領域ry1、ry2を重ねて表示した二次元画像Im05を示す。領域ry1、ry2は、画素py1、py2から予め定めた距離内の領域を示す。方向確認部605は、領域ry1、ry2に含まれる明領域の面積をそれぞれ計数し、計数された面積が大きい方の領域に係る画素の方に頭部Hdが向けられていると判定する。図10(d)に示す例では、領域ry2内の明領域の面積の方が、領域ry1内の明領域の面積よりも大きいので、方向確認部605は、頭部Hdが画素py2の方向(y’の負方向)に向いていると判定する。
次に、姿勢制御の例について説明する。
図11は、本実施形態に係る姿勢制御におけるハンド40の指部41、42と対象物Wkの位置関係の例を示す図である。図11(a)〜(c)は、上段において指部41、42及び対象物Wkをx−y平面視した断面図を表す。この断面図は、指部41、42の断面と、対象物Wkの軸部Axの中心軸に垂直な断面を実線で示す。これらの断面は対象物Wkの頭部Hdに交差しないが、図11(a)〜(c)は、頭部Hdの外縁を破線で示す。図示の例では、いずれも、指部41、42の先端、基端は、y方向、yの負方向に向けられ、指部41、42の開閉方向は、x方向に向けられている。
また、図11(a)〜(c)のそれぞれは、下段において指部42及び対象物Wkの斜視図を表す。指部41は、指部42よりもxの負方向に配置されているため、下段には表れていない。なお、図示の例では、頭部Hdがzの負方向に向けられている。
その後、姿勢制御部606は、指部41、42が対象物Wkを把持する摩擦力を漸次に減少させ、指部41、42の間隔を大きくする。
次に、指部41、42の構成について説明する。
図12は、本実施形態に係るハンド40の構成を示す概略図である。
図12(a)は、ハンド40の構成を示す平面図である。
上述したように、ハンド40は、指部41、42及び支持部材520を備える。指部41、42の基端は、それぞれ支持部材520に支持され、指部41、42それぞれの長手方向が対面されている。指部41、42が対面した方向が、開閉方向に相当する。ハンド40は、次に述べるように対象物Wkについてケージング、セルフアライメント、及び摩擦把持を行うことができる形状及び大きさを有する精密把持ハンドである。なお、以下の説明では、上述とは異なり、指部41、42の開閉方向をx方向、基準線202の方向をy方向、x方向とy方向に直交する方向をz方向とする。
指部41は爪部101を有しており、指部42は爪部102を有している。爪部101、102は、基準線202で線対称の関係である。また、爪部101、102は、先端から後端(基端もしくは基部ともいう)に向かうに従って、互いに離れる方向に漸次傾斜する第1傾斜面(先端側の面ともいう)111、112を有し、互いに近接する方向に漸次傾斜する第2傾斜面(基端側の面もしくは基部側の面もいう)121、122を有している。また、爪部101、102は、例えば、アルミニウム等の金属(平板)を曲げたり、前記金属(直方体)を切削したりすることによって形成することができる。
爪部101において、爪部形状のパラメーターα、β、dが取り得る範囲は、0<d、0<α<π/2、0<β<π/2、である。
図13(a)に示すように、制御部60は、爪部101及び爪部102を、各々の頂点a1とa3とを結ぶ辺を延長して交わる点Qを中心として、互いの辺a1a3とを延長した線同士のなす角φを制御することで開閉する。
また、図13(b)に示すように、爪部101の開閉における3つのパラメーター(以下、開閉パラメーターという)θ、γ、l(エル)で表す。図13(b)において点Pは回転中心を表し、符号l(エル)は、点Pから爪部101の三角形a1a2a3の下端a1(点B;基端側の面の端部ともいう)までの距離を表す。符号γは爪部101、102が閉じている時のBPとx軸がなす角を表し、符号θは、爪部101、102が閉じている時のBPと爪部101が開いた状態の時のB’Pがなす角を表す。
パラメーターα、β、dが満足すべき条件は、摩擦把持の条件、ケージング条件、及びセルフアライメント条件である。
まず、摩擦把持の条件について説明する。爪部101及び爪部102が、対象物Wkを把持する条件は、爪部101、102と対象物Wkとが、少なくとも4点の接触点を有して接し、拘束していることである(摩擦把持の条件)。摩擦把持の条件は、対象物Wkの大きさに依存する。
図14は、本実施形態に係る爪部101、102が把持可能な物体を説明する図である。この図では、爪部101及び爪部102が把持する部品Mの形状は、xy平面から視たとき円形(例えば、円柱状)である。また、以下の説明において、爪部形状のパラメーターα、β、dを算出するため、前述した爪部101及び爪部102の先端の三角形の形状について説明する。なお、以下の説明では、爪部形状のパラメーターα、β、dが異なる把持部であっても、共通の符号101と102とを用いて、爪部101、102と称する。また、爪部101及び爪部102が把持する対象物Wkは、以下、大きさが異なっても共通の符号Mを用いて、部品Mと称する。
図14(a)に示すように、中心線201は、接点p1とp4を結ぶ線分と、接点p2とp3を結ぶ線分との間に位置している。このような状態の場合、爪部101及び爪部102は、4つの接触点により部品Mを囲むように把持できるため、部品Mを摩擦把持により安定して把持している。
図16(a)は、把持可能な場合を説明する図であり、図16(b)は、把持不可能な場合を説明する図である。なお、部品Mは、爪部101及び爪部102の材質より柔らかい樹脂などであってもよい。
図16(a)に示すように、部品Mは、爪部101の第2傾斜面121と接点p2で接触し、および爪部102の第2傾斜面122と接点p3で接触している。そして、部品Mは、爪部101の第1傾斜面111とは接していず、爪部101の先端の三角形a1a2a3の頂点a3(接点p3)で接触している。接点p1において、爪部101の三角形a1a2a3の辺a2a3は、部品Mの接線である。このため、爪部101の頂点a3は、部品Mに突き刺さらない。
すなわち、把持可能な最大の大きさの条件として、爪部101の頂点a3または頂点a1が、部品Mに突き刺さらない必要がある。
以下、爪部101及び爪部102の頂点a3と、爪部101及び爪部102の頂点a1とを爪先と称する。
図18は、本実施形態に係る爪部を閉じた時に把持可能な部品の大きさを説明する図である。図18(b)に示すように、爪部101及び爪部102を閉じた場合、爪部101及び爪部102の第1傾斜面111、112、第2傾斜面121、122のおのおのの面は、部品Mとそれぞれ接点p1〜p4と接している。この状態の部品Mは、爪部101及び爪部102によって把持可能な最小の大きさrmin1である。
また、図18(c)に示すように、部品Mの後端は、爪部101及び爪部102の第2傾斜面121と122において接点p2とp3に接している。そして、部品Mの先端と爪部101及び爪部102の接点p1とp4は、爪部101及び爪部102の先端a3である。また、線分a2a3は、部品Mの接線である。このような状態は、図17で説明したように、爪部101及び爪部102が部品Mに突き刺さらない状態であるため、把持可能な状態である。
次に、ケージングが可能な部品Mの大きさの条件(ケージング条件)について説明する。
図20は、本実施形態に係るケージング領域のパラメーターを説明する図である。図20(a)に示すように、符号rは、部品Mの半径を表す。部品Mの中心点oが自由に動ける空間Sを、x方向の長さをc2、y方向の長さをc1で表す。また、図20(b)に示すように、符号Hは、ケージング領域Sのy方向の正方向側の頂点を表し、符号Jは、y方向の負方向側の頂点を表す。また、符号Iは、ケージング領域Sの線分HJに対して負方向側のx方向の頂点を表し、符号Kは、線分HJに対して正方向側のx方向の頂点を表す。すなわち、y方向の長さc1は、頂点HとJとの間の距離であり、x方向の長さc2は、頂点IとKとの間の距離である。
まず、符号について定義する。図21(a)、(b)に示すように、爪部101及び爪部102の三角形a1a2a3において、符号l(エル)2は、頂点a3とa1とのy方向の距離を表す。また、図20で説明したy方向の長さc1を、ケージング領域の形状に応じて、符号c11、c12で表す。また、図20で説明したx方向の長さc2を、それぞれのケージング領域の形状に応じて、符号c21、c22、c23、c24で表す。また、符号l(エル)1は、三角形a1a2a3の頂点a1を符号Bで表し、点Bと頂点Jとのx方向の距離を表す。
図21(b)に示すケージング領域Sの頂点IとJの間の線分は、直線と曲線と有している。そして、ケージング領域Sの線分は、頂点HとIの間と、頂点HとKの間とは、各々、直線と曲線と有している。また、図21(b)に示すように、点Bと頂点Jとの距離はrである。このような状態のケージング領域Sのy方向の長さをc12とする。
図22は、本実施形態に係るケージング領域のx方向の距離がc21の場合を説明する図である。図23は、本実施形態に係るケージング領域のx方向の距離がc22の場合を説明する図である。図24は、本実施形態に係るケージング領域のx方向の距離がc23の場合を説明する図である。図25は、本実施形態に係るケージング領域のx方向の距離がc24の場合を説明する図である。
次に、セルフアライメントが可能な部品Mの大きさの条件(セルフアライメント条件)について説明する。
図27は、本実施形態に係るセルフアライメントの条件を説明する図である。図27(a)に示すように、部品Mは、爪部101及び爪部102の第2傾斜面121と122の接点p2とp3で接触している。この状態で、爪部101及び爪部102が互いに近づく方向に移動、すなわち閉じると、部品Mが、y方向の正方向に移動させられる。これにより、セルフアライメントが行われる(上方向のセルフアライメントともいう)。また、図27(a)において、符号φは、爪部101の線分a1a2と、頂点a1を始点としy方向に平行な線分401とのなす角を表す。
図29は、本実施形態に係る部品Mの半径rと頂点a2の関係を説明する図である。
この構成により、指部41、42は4点以上の接触点で物体を挟持することができるので、乱雑に積まれた金属光沢のある物体を安定して把持することができる。
この構成により、物体の撮像方向と指部の開閉方向が直交するため、撮像データによる物体の位置の撮像方向の誤差が他の方向よりも大きく、指部の開閉方向の誤差が他の方向よりも小さいので、誤差の累積が特定の方向に集中せず平準化される。また、物体の長手方向に直交する方向に指部が開閉するため、ハンドは、その物体を確実に把持することができる。
この構成により、ハンド40は、ハンドは、把持対象の物体とその物体が積み重ねられた平面に対して平行な成分を有しない方向にその物体の位置より予め定めた距離離れた点(例えば、把持準備点P’)を起点として、その物体に接近する。ハンドがその物体やその物体が積み重ねられた平面(例えば、作業平面)に接触する可能性を低減することができるので、その物体を確実に把持することができる。
この構成により、物体が積み重ねられた平面からの物体の傾きが大きい場合、その傾きに応じて指部の開閉方向が、物体の長手方向に直交する方向により近い方向に傾けられる。そのため、ハンドを物体の長手方向に直交する方向から接近させた場合でも、その物体を確実に把持することができる。
この構成により、把持された物体の姿勢が自律的に調整されるため、調整に係る人手による作業を省略又は軽減することができる。
この構成により、物体の姿勢を調整する際、ハンド40が物体を把持する力を減少させることにより、物体にかかる重力を活用できる。また、ハンド40が物体を把持する力を増加させることにより、一対の指部41、42が対向する面(例えば、第1傾斜面111、112、第2傾斜面121、122)の形状に応じて物体の姿勢を調整することができる。
なお、本発明の技術範囲は上述した実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲において種々の変更を加えることが可能である。
上述した実施形態では、主に対象物Wkの形状が円柱又は円柱に近似する形状である場合を例にしたが、これには限られない。対象物Wkの形状は、例えば、三角柱、四角柱などの角柱または角柱に近似する形状等、一辺の長さが他の辺よりの長い細長い形状で近似できる形状であればよい。
また、対象物Wkが、その一部の径が、他の一部の径よりも大きい部分(例えば、頭部Hd)を有していない場合、方向確認部605及び姿勢制御部606は省略されてもよい。方向確認部605を省略する場合には、撮像装置80は、二次元画像を撮像する機能を有していなくてもよく、画像データ取得部601は、二次元画像データを抽出する処理を省略してもよい。
位置姿勢推定部602が対象物の姿勢を算出する方式は、RANSAC法に限られない。対象物の姿勢を算出することができれば、いかなる方式(例えば、最小ノルム法)であってもよい。位置姿勢推定部602が算出する対象物の姿勢と位置のセットの数は1個であってもよい。その場合には、把持難易度算出部603が省略されてもよい。
把持計画部604は、対象物Wkを挟んだまま、ハンド40をx’−y’平面内で予め定めた角度φ’回転させる処理(ステップS405、図8)を省略してもよい。
また、制御部60は、撮像装置80、動作機構12、及び検出部63との間で各種のデータを送受信することができれば、ロボット10とは別体の制御装置として構成されてもよい。
また、ロボット10は、アーム20及びハンド40の組を1組備える単腕ロボットであるが、これには限られない。アーム20とハンド40の数は、それぞれ1個よりも多くてもよい。
図30は、本変形例に係るロボットシステム1aの構成を示す図である。
ロボットシステム1aは、ロボット10aを備える。
ロボット10aは、アーム20とハンド40との組を2組備える双腕ロボットである。制御部60は、2組のアーム20とハンド40の動作を独立に制御することができる。
ロボット10aは、格納部70aを備え、格納部70aの内部には制御部60が格納される。また、格納部70aの上面には、撮像装置80が設置されてもよい。また、格納部70aの底面には車輪が取り付けられ、外力が加えられることでロボットシステム1aの全体が移動できるように構成されてもよい。
10、10a ロボット
12 動作機構
40 ハンド
41、42 指部
50 基台
60 制御部
61 入力部
62 記憶部
63 検出部
70a 格納部
80 撮像装置
101、102 爪部
111、112 第1傾斜面
121、122 第2傾斜面
520 支持部材
601 画像データ取得部
602 位置姿勢推定部
603 把持難易度算出部
604 把持計画部
605 方向確認部
606 姿勢制御部
Claims (3)
- 円柱に近似可能な形状を有する物体を把持するハンドと、
前記ハンドを動作させる制御部と、を含み、
前記ハンドは、
前記物体を4点以上の接触点で把持可能な指部を備え、
前記制御部は、
前記物体を撮像する撮像部が接続され、
前記撮像部が前記物体を撮像して取得された三次元点群に基づいて前記物体の位置及び姿勢を算出する位置姿勢算出部と、
前記円柱の中心軸に沿った第1方向と、前記物体の撮像方向とに直交する第2方向に、前記指部の開閉方向を定める把持計画部と、
を含み、
前記把持計画部は、
前記物体が積み重ねられた平面と前記第1方向のなす角度が所定の角度の閾値以上のとき、前記平面に対する前記第1方向の傾きと同じ方向に、前記指部を前記平面に直交する方向から傾け、
前記第1方向に垂直、かつ、前記平面に対して平行な成分を有しない第3方向に前記物体の位置より予め定めた距離離れた点から、前記ハンドを前記物体に接近させる、
ロボット。 - 前記制御部は、
前記ハンドが前記物体を把持する力を変化させることにより前記物体の姿勢を調整する姿勢制御部と、
を備える請求項1に記載のロボット。 - 前記指部は、前記物体に関してケージング及びセルフアライメントが可能な形状及び大きさを有する請求項2に記載のロボット。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014061478A JP6364856B2 (ja) | 2014-03-25 | 2014-03-25 | ロボット |
CN201510116563.1A CN104942804A (zh) | 2014-03-25 | 2015-03-17 | 机械臂 |
US14/663,897 US9527209B2 (en) | 2014-03-25 | 2015-03-20 | Robot |
US15/345,964 US20170050316A1 (en) | 2014-03-25 | 2016-11-08 | Robot |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014061478A JP6364856B2 (ja) | 2014-03-25 | 2014-03-25 | ロボット |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015182184A JP2015182184A (ja) | 2015-10-22 |
JP6364856B2 true JP6364856B2 (ja) | 2018-08-01 |
Family
ID=54158138
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014061478A Expired - Fee Related JP6364856B2 (ja) | 2014-03-25 | 2014-03-25 | ロボット |
Country Status (3)
Country | Link |
---|---|
US (2) | US9527209B2 (ja) |
JP (1) | JP6364856B2 (ja) |
CN (1) | CN104942804A (ja) |
Families Citing this family (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9233470B1 (en) * | 2013-03-15 | 2016-01-12 | Industrial Perception, Inc. | Determining a virtual representation of an environment by projecting texture patterns |
JP6642968B2 (ja) * | 2014-03-20 | 2020-02-12 | キヤノン株式会社 | 情報処理装置、情報処理方法、プログラム |
US9669543B1 (en) * | 2015-12-11 | 2017-06-06 | Amazon Technologies, Inc. | Validation of robotic item grasping |
WO2017127643A1 (en) * | 2016-01-20 | 2017-07-27 | Soft Robotics, Inc. | Soft robotic grippers for cluttered grasping environments, high acceleration movements, food manipulation, and automated storage and retrieval systems |
KR102023149B1 (ko) * | 2016-03-03 | 2019-11-22 | 구글 엘엘씨 | 로봇 파지를 위한 심층 기계 학습 방법 및 장치 |
US10207402B2 (en) | 2016-03-03 | 2019-02-19 | Google Llc | Deep machine learning methods and apparatus for robotic grasping |
US11352843B2 (en) | 2016-05-12 | 2022-06-07 | Nov Canada Ulc | System and method for offline standbuilding |
JP2018144157A (ja) * | 2017-03-03 | 2018-09-20 | 株式会社キーエンス | ロボットシミュレーション装置、ロボットシミュレーション方法、ロボットシミュレーションプログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器 |
JP6438512B2 (ja) * | 2017-03-13 | 2018-12-12 | ファナック株式会社 | 機械学習により補正した計測データでワークの取り出しを行うロボットシステム、計測データ処理装置および計測データ処理方法 |
CN110461550B (zh) * | 2017-03-24 | 2022-11-15 | 三菱电机株式会社 | 机器人程序的生成装置及生成方法 |
US11581690B2 (en) | 2017-05-09 | 2023-02-14 | Sony Corporation | Robot apparatus for producing electronic apparatus |
JP6880457B2 (ja) * | 2017-11-14 | 2021-06-02 | オムロン株式会社 | 把持方法、把持システム及びプログラム |
JP6676030B2 (ja) * | 2017-11-20 | 2020-04-08 | 株式会社安川電機 | 把持システム、学習装置、把持方法、及び、モデルの製造方法 |
US11584016B2 (en) | 2018-04-24 | 2023-02-21 | Fanuc Corporation | Robot controller and system |
JP6587326B1 (ja) * | 2018-05-22 | 2019-10-09 | 日本金銭機械株式会社 | ロボットハンド |
US10890025B2 (en) | 2018-05-22 | 2021-01-12 | Japan Cash Machine Co., Ltd. | Banknote handling system for automated casino accounting |
US11613940B2 (en) | 2018-08-03 | 2023-03-28 | National Oilwell Varco, L.P. | Devices, systems, and methods for robotic pipe handling |
CN108890648B (zh) * | 2018-08-08 | 2021-07-02 | 苏州天准科技股份有限公司 | 一种多关节串联式机器人运动学模型的建立方法 |
CN113015604B (zh) * | 2018-12-11 | 2024-03-08 | 株式会社富士 | 机器人控制***及机器人控制方法 |
US10335947B1 (en) * | 2019-01-18 | 2019-07-02 | Mujin, Inc. | Robotic system with piece-loss management mechanism |
WO2020151386A1 (en) | 2019-01-25 | 2020-07-30 | National Oilwell Varco, L.P. | Pipe handling arm |
WO2020172407A1 (en) | 2019-02-22 | 2020-08-27 | National Oilwell Varco, L.P. | Dual activity top drive |
FR3093020A1 (fr) * | 2019-02-25 | 2020-08-28 | Valeo Systemes Thermiques | Procédé d’assemblage d’un dispositif de chauffage, ventilation et/ou climatisation pour véhicule automobile |
TWI790408B (zh) * | 2019-11-19 | 2023-01-21 | 財團法人工業技術研究院 | 抓取裝置及抓取方法 |
US11834914B2 (en) | 2020-02-10 | 2023-12-05 | National Oilwell Varco, L.P. | Quick coupling drill pipe connector |
US11274508B2 (en) | 2020-03-31 | 2022-03-15 | National Oilwell Varco, L.P. | Robotic pipe handling from outside a setback area |
US11365592B1 (en) * | 2021-02-02 | 2022-06-21 | National Oilwell Varco, L.P. | Robot end-effector orientation constraint for pipe tailing path |
CN113066233A (zh) * | 2021-04-02 | 2021-07-02 | 上海点拾科技有限公司 | 一种plc智能配药*** |
US11814911B2 (en) | 2021-07-02 | 2023-11-14 | National Oilwell Varco, L.P. | Passive tubular connection guide |
US11982139B2 (en) | 2021-11-03 | 2024-05-14 | National Oilwell Varco, L.P. | Passive spacer system |
CN114505878B (zh) * | 2022-02-10 | 2023-06-02 | 联宝(合肥)电子科技有限公司 | 一种夹具及其操作方法 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4810019A (en) * | 1987-02-05 | 1989-03-07 | Bruecher Eberhard | Mechanically operated collet chuck for gripping round objects |
JP4114796B2 (ja) * | 2003-07-14 | 2008-07-09 | 株式会社椿本チエイン | ワーク把持装置 |
JP4959520B2 (ja) | 2007-11-26 | 2012-06-27 | 三菱電機株式会社 | 位置姿勢認識装置及び方法、並びに部品ピッキングシステム |
JP2010175497A (ja) | 2009-02-02 | 2010-08-12 | Seiko Epson Corp | メタリック感評価装置およびメタリック感評価方法 |
JP5516249B2 (ja) | 2010-09-02 | 2014-06-11 | セイコーエプソン株式会社 | 印刷装置、印刷方法 |
JP5895337B2 (ja) * | 2010-09-15 | 2016-03-30 | セイコーエプソン株式会社 | ロボット |
JP2012130987A (ja) | 2010-12-21 | 2012-07-12 | Seiko Epson Corp | ロボット、ロボット用ハンド |
JP5533727B2 (ja) * | 2011-02-18 | 2014-06-25 | 株式会社安川電機 | ワークピッキングシステム |
JP5430796B2 (ja) * | 2011-04-14 | 2014-03-05 | 三菱電機株式会社 | ロボット制御装置 |
JP2013123769A (ja) * | 2011-12-14 | 2013-06-24 | Seiko Epson Corp | 把持装置及びロボット |
JP2013193130A (ja) | 2012-03-15 | 2013-09-30 | Seiko Epson Corp | ロボットハンド、ロボット装置及びロボットハンドの駆動方法 |
JP2013198957A (ja) | 2012-03-26 | 2013-10-03 | Seiko Epson Corp | 把持機構、把持装置、およびロボット装置 |
JP6035892B2 (ja) * | 2012-06-18 | 2016-11-30 | セイコーエプソン株式会社 | ロボットハンド及びロボット装置 |
JP2014006852A (ja) * | 2012-06-27 | 2014-01-16 | Seiko Epson Corp | 認識処理方法、認識処理装置、ロボットシステム及び認識処理プログラム |
-
2014
- 2014-03-25 JP JP2014061478A patent/JP6364856B2/ja not_active Expired - Fee Related
-
2015
- 2015-03-17 CN CN201510116563.1A patent/CN104942804A/zh active Pending
- 2015-03-20 US US14/663,897 patent/US9527209B2/en not_active Expired - Fee Related
-
2016
- 2016-11-08 US US15/345,964 patent/US20170050316A1/en not_active Abandoned
Also Published As
Publication number | Publication date |
---|---|
US20170050316A1 (en) | 2017-02-23 |
JP2015182184A (ja) | 2015-10-22 |
US9527209B2 (en) | 2016-12-27 |
CN104942804A (zh) | 2015-09-30 |
US20150273688A1 (en) | 2015-10-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6364856B2 (ja) | ロボット | |
US10562182B2 (en) | Robot, robot system, control device, and control method | |
US11046530B2 (en) | Article transfer apparatus, robot system, and article transfer method | |
US10894324B2 (en) | Information processing apparatus, measuring apparatus, system, interference determination method, and article manufacturing method | |
US9415511B2 (en) | Apparatus and method for picking up article randomly piled using robot | |
JP5458885B2 (ja) | 物体検出方法と物体検出装置およびロボットシステム | |
JP6744709B2 (ja) | 情報処理装置、情報処理方法 | |
JP5977544B2 (ja) | 情報処理装置、情報処理方法 | |
JP6271953B2 (ja) | 画像処理装置、画像処理方法 | |
JP5088278B2 (ja) | 物体検出方法と物体検出装置およびロボットシステム | |
US20120316820A1 (en) | Information processing apparatus and information processing method | |
US7880899B2 (en) | Three-dimensional measurement system, inspection method, three-dimensional measurement method and program | |
CN111683798A (zh) | 工件拾取装置以及工件拾取方法 | |
JP7481427B2 (ja) | 取り出しシステム及び方法 | |
JP6489243B2 (ja) | 物体認識装置、物体認識方法、物体認識プログラム、ロボットシステム及びロボット | |
JP6237122B2 (ja) | ロボット、画像処理方法及びロボットシステム | |
JP5370122B2 (ja) | 移動***置推定装置及び移動***置推定方法 | |
JP7454132B2 (ja) | ロボットシステムの制御装置、ロボットシステムの制御方法、コンピュータ制御プログラム、及びロボットシステム | |
JP2015079374A (ja) | 物体認識装置、物体認識方法、物体認識プログラム、ロボットシステム及びロボット | |
JP7180783B2 (ja) | コンピュータビジョンシステムのキャリブレーション方法及びこれに用いる基準立体物 | |
US20230030852A1 (en) | Control apparatus for robotic system, control method for robotic system, computer-readable storage medium storing a computer control program, and robotic system | |
Zhang et al. | Robotic de-palletizing using uncalibrated vision and 3D laser-assisted image analysis | |
EP4205917A1 (en) | Control device, robot, control method, and program | |
Liu et al. | Robotic grasping based on partial shape information | |
WO2023243051A1 (ja) | ワーク取り出しシステム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20161207 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20171005 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20171024 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171222 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180605 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180618 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6364856 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |