JP4835616B2 - 動作教示システム及び動作教示方法 - Google Patents

動作教示システム及び動作教示方法 Download PDF

Info

Publication number
JP4835616B2
JP4835616B2 JP2008058957A JP2008058957A JP4835616B2 JP 4835616 B2 JP4835616 B2 JP 4835616B2 JP 2008058957 A JP2008058957 A JP 2008058957A JP 2008058957 A JP2008058957 A JP 2008058957A JP 4835616 B2 JP4835616 B2 JP 4835616B2
Authority
JP
Japan
Prior art keywords
gripping
pattern
operator
teaching
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008058957A
Other languages
English (en)
Other versions
JP2009214212A (ja
Inventor
史倫 齋藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2008058957A priority Critical patent/JP4835616B2/ja
Priority to CN2009801084228A priority patent/CN101970184B/zh
Priority to PCT/JP2009/051741 priority patent/WO2009113339A1/ja
Priority to US12/921,291 priority patent/US8355816B2/en
Priority to KR1020107010947A priority patent/KR101193125B1/ko
Priority to EP09720016.6A priority patent/EP2263837B1/en
Publication of JP2009214212A publication Critical patent/JP2009214212A/ja
Application granted granted Critical
Publication of JP4835616B2 publication Critical patent/JP4835616B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1612Programme controls characterised by the hand, wrist, grip control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39484Locate, reach and grasp, visual guided grasping
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39543Recognize object and plan hand shapes in grasping movements

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Manipulator (AREA)
  • Numerical Control (AREA)

Description

本発明は、ワークの把持を行うロボットに対する動作教示を行うための動作教示システム及び動作教示方法に関する。
ロボットにワークの形状モデルを予め与えておき、作業空間中に存在するワークを自律的に認識させ、ワーク把持をロボットに自動的に実行させるための手法が研究開発されている(例えば特許文献4を参照)。しかしながら、このようなモデルベースの手法は、ワーク種別が限られた作業空間では実現可能であるが、例えば日常生活環境のような条件が複雑な実環境に適用することは、実質的に困難である。
一方、オペレータがロボットに対して動作を教示する技術が知られている(例えば、特許文献1〜3を参照)。特許文献1〜3は、オペレータがグラフィック表示機能を有する動作教示装置を使用してロボットに動作教示を行なう技術を開示している。
特許文献1に開示された発明は、本願の発明者によってなされたものである。当該発明は、2次元ディスプレイを有する動作教示装置を使用して、ロボットの3次元空間での動作を教示する動作教示装置に関する。当該動作教示装置は、形状及び作業空間内での3次元位置が未知であるワークの把持をロボットに行わせる際に適用可能なものである。当該動作教示装置を用いたロボットへの教示は以下のようにして行なわれる。
まず、ワークを含むロボットの作業空間が撮影された撮影画像を2次元ディスプレイに表示する。オペレータは、撮影画像が表示された2次元ディスプレイを見ながら、マウスやタッチパネル等の入力装置によって、CAD(Computer Aided Design)で使用されるパラメトリックモデリング手法等を駆使して、ディスプレイの表示面上に幾何要素を作図する。具体的には、ワークの形状をモデル化するために、オペレータは、モデルの位置、姿勢及び形状パラメータをワークの像と合致するように画面上で調整し、ワークのモデルの重心位置の座標系を基準として、ワークを把持しやすいように必要に応じて並進及び回転を加えた座標系を設定する。このようにして設定された座標系に、ロボットアーム先端に設けられたワーク把持用エンドエフェクタの座標系(以下、ツール座標系と呼ぶ)を適合させることにより、ロボットにワークの把持を行わせることが可能となる。なお、オペレータによって描画された点や幾何要素の3次元位置は、レーザレンジファインダ、ステレオカメラ等の距離計測装置によって計測される。
特許文献2は、ロボットアーム先端に設けられたエンドエフェクタ形状の形状モデルを記憶する記憶装置と、エンドエフェクタ形状を表示するディスプレイとを備える動作教示装置を開示している。当該動作教示装置は、(1)エンドエフェクタ形状が表示されたディスプレイ画面上で、オペレータによるエンドエフェクタ上の点の指定を受け付け、(2)指定された点の3次元位置を計算し、(3)オペレータによる、指定された点を中心とする姿勢変更の入力を受け付け、(4)指定された点の3次元位置、及び受け付けた姿勢変更を元に、エンドエフェクタの姿勢を調節する。つまり、特許文献2の動作教示装置は、位置及び形状が既知であるエンドエフェクタの姿勢変更をオペレータが入力する作業を、グラフィック表示により支援するものである。しかしながら、特許文献2の動作教示装置は、形状及び3次元位置が未知であるワークの操作をロボットに教示するものではない。
特許文献3は、グラフィックディプレイを用いて、形状及び3次元位置が既知であるワークの作業点をロボットに教示するための動作教示装置を開示している。例えば車のボディーをワークとする場合、当該動作教示装置は、ボディー上の溶接作業点の教示のために使用される。特許文献3の動作教示装置は、グラフィックディスプレイのほか、記憶装置を有する。記憶装置には、多面体近似されたワークの形状データが、ロボットとワークの共通座標系であるワールド座標系に基づいて格納される。当該動作教示装置は、記憶装置にアクセスし、グラフィックディスプレイにワーク形状を2次元表示し、表示画面上でワークの作業面及び作業点のオペレータによる指定を受け付ける。そして、当該動作教示装置は、グラフィックディプレイに、ロボット姿勢を重ねて表示し、オペレータによるロボット姿勢の修正を受け付けた後、ロボット姿勢を確定し、確定した姿勢をロボット座標系に変換してロボットに教示する。
特開2003−256025号公報 特開2005−111618号公報 特開平1−283603号公報 特開2004−333422号公報
上述したように、形状及び3次元位置が未知であるワークに対する操作をロボットに教示するための特許文献1に開示された動作教示装置においては、オペレータが2次元ディスプレイを見ながらCADで使用される3次元的な作図作業を行なうことによって、ロボットに対する教示が行われる。しかしながら、CADで使用される3次元的な作図作業を行なうためにはオペレータの熟練が必要であり、CADによる作図技術を有してない一般利用者にとって容易とは言い難い。
本発明は、上述した知見に基づいてなされたものであり、オペレータによる直感的で簡単な入力操作によって、形状及び3次元位置が未知であるワークの把持動作をロボットに教示することが可能な動作教示システム及び動作教示方法の提供を目的とする。
本発明の第1の態様は、ワークを把持するためのハンドを含むロボットアームを有するロボットに対して把持動作を教示するための動作教示システムである。当該動作教示システムは、撮像装置と、対象物までの距離を計測する距離計測装置と、表示装置と、オペレータによる入力操作を受け付ける入力装置と、複数の素形状モデルのそれぞれについて前記ハンドが適用可能な少なくとも1つの把持パターンが記述されたデータベースとを備える。さらに、当該動作教示システムは、撮影画像表示手段、認識領域指定手段、素形状モデル指定手段、フィッティング手段、及び把持パターン選択手段を備える。
前記撮影画像表示手段は、前記撮像装置によって取得された前記ワークを含む作業空間の撮影画像を前記表示装置に表示させる。
前記認識領域指定手段は、前記ハンドに把持させる前記ワーク中の部位を指定するための操作を、前記表示装置に表示された前記ワークの像上において前記部位を含む認識領域を前記入力装置を用いて2次元的に指定する操作として受け付ける。
前記素形状モデル指定手段は、前記部位に当てはめる素形状モデルを前記複数の素形状モデルの中から指定する操作を、前記入力装置を介して受け付ける。
前記フィッティング手段は、前記オペレータにより指定された素形状モデルを、前記距離計測装置を用いて取得された前記認識領域に相当する空間の3次元位置データにフィッティングさせる。
前記把持パターン選択手段は、前記オペレータにより指定された素形状モデル及び前記フィッティング手段によるフィッティング結果に基づいて前記データベースを検索することにより、前記ワークの把持に適用可能な少なくとも1つの把持パターンを選択する。
また、本発明の第2の態様は、ワークを把持するためのハンドを含むロボットアームを有するロボットに対して把持動作を教示するための動作教示方法であり、以下のステップ(a)〜(e)を含む。
前記ワークを含む作業空間の撮影画像を表示装置に表示させるステップ(a)、
前記ハンドに把持させる前記ワーク中の部位を指定するための操作を、前記表示装置に表示された前記ワークの像上において前記部位を含む認識領域を2次元的に指定する操作として受け付けるステップ(b)、
前記部位に当てはめる素形状モデルを複数の素形状モデルの中から指定する操作を受け付けるステップ(c)、
前記ステップ(c)にて指定された素形状モデルを、距離計測装置を用いて取得された前記認識領域に相当する空間の3次元位置データにフィッティングさせるステップ(d)、及び
前記複数の素形状モデルのそれぞれについて前記ハンドが適用可能な少なくとも1つの把持パターンが記述されたデータベースを、前記ステップ(c)にて指定された素形状モデル及び前記ステップ(d)おけるフィッティング結果に基づいて検索することにより、前記ワークの把持に適用可能な少なくとも1つの把持パターンを選択するステップ(e)。
上述した本発明の第1及び第2の態様によれば、オペレータは、表示装置上に表示された撮影画像において認識領域を2次元的に指定する操作と、認識領域に当てはめたい素形状モデルを選択する操作によって、直感的にワークの把持部位を特定することができる。また、本発明の第1及び第2の態様は、素形状モデルとこれに適用可能な把持パターンとを関連付けたデータベースを使用するため、適切な把持パターンの候補をオペレータに提示することができる。このため、オペレータは、ロボットハンド全体の位置及び姿勢並びにロボットハンドが有する指の配置等を逐一指定することなく、把持方法をロボットに教示することができる。
なお、上述した本発明の第1の態様にかかる動作教示システムは、把持パターン表示手段及び把持パターン決定手段をさらに備えてもよい。前記把持パターン表示手段は、前記把持パターン選択手段によって選択された前記少なくとも1つの把持パターンを前記表示装置に表示させる。また、前記把持パターン決定手段は、前記把持パターン表示手段によって生成される表示内容に基づいて前記ロボットに行わせる最終把持パターンを選択するための前記オペレータによる操作を受け付けると共に、前記最終把持パターンに残された自由度を調節する前記オペレータの操作を受け付ける。
加えて、前記把持パターン表示手段は、前記少なくとも1つの把持パターンを表す前記ハンドのモデル画像を前記撮影画像に重ねて表示してもよい。また、前記把持パターン決定手段は、前記オペレータによる前記自由度の調節操作を、前記表示装置の表示画面内における前記モデル画像のドラッグ操作により受け付け、前記ドラッグ操作後の前記モデル画像の前記表示画面内における位置及び姿勢に基づいて前記自由度の調整値を決定してもよい。このような構成により、オペレータは、簡単なドラッグ操作によって適切な把持パターンを決定し、ロボットに教示することができる。
また、上述した本発明の第1の態様において、前記把持パターン選択手段は、さらに、前記距離計測装置を用いて取得された前記認識領域の周辺の3次元位置データを用いて、前記少なくとも1つの把持パターンによる前記ロボットアームの軌道と前記ワーク周囲の障害物との干渉を判定し、当該判定結果に基づいて把持パターンの絞込みを行ってもよい。これにより、ワークの周囲の障害物との干渉を回避したより適切な把持方法を得ることができる。
本発明により、オペレータによる直感的で簡単な入力操作によって、形状及び3次元位置が未知であるワークの把持動作をロボットに教示することが可能な動作教示システム及び動作教示方法を提供できる。
以下では、本発明を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。各図面において、同一要素には同一の符号が付されており、説明の明確化のため、必要に応じて重複説明は省略される。
<発明の実施の形態1>
図1は、本実施の形態にかかる動作教示システムの全体構成を示すブロック図である。本実施の形態の動作教示システムは、ワーク90の把持動作を実行するロボット1、及びロボット1に対して把持動作の教示を行うための教示端末2を含む。以下、ロボット1及び教示端末2の構成について説明する。
図1に示すロボット1は、関節で互いに接続された複数のリンクにより構成された多関節のロボットアーム10を有する。ロボットアーム10の先端部分には、ワーク90を把持するためのハンド11が設けられている。
撮像装置12は、ロボット1及びワーク90が置かれた作業空間を撮影して撮影画像を取得する。なお、後述するように、撮像装置12により取得された撮影画像は、教示端末2の表示画面に出力され、オペレータに提示される。このため、例えば、撮像装置12は、可視光領域に感度を有するCCD(Charge Coupled Device)イメージセンサ又はCMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等の撮像素子を備えたカメラとすればよい。
距離計測装置13は、作業空間中の対象物までの距離を計測する。距離計測装置13の計測原理は特に限定されるものではなく、公知の様々な技術を適用可能である。例えば、距離計測装置13として、レーザレンジファインダ、光投影ステレオ距離計測装置、又はステレオカメラ等を使用すればよい。なお、距離計測装置13がステレオカメラである場合のように、距離計測装置13による撮像か可能な場合は、撮像装置12及び距離計測装置13は、兼用の1台の装置として構成してもよい。
通信部14は、撮像装置12により取得された撮影画像、その他の動作教示に関する情報を教示端末2側の通信部20との間で伝送する。通信部14の通信方式には、公知の無線通信方式又は有線通信方式を適用すればよい。また、通信部14と通信部20の間は、直接的に接続されている必要はなく、LAN(Local Area Network)、インターネット、携帯電話通信網などを介して接続されてもよい。
データベース15は、複数の素形状モデルと複数の把持パターンとを関連付けて記録したデータベースである。ここで、把持パターンとは、ハンド11が有する指の位置及び姿勢を含む動作パターンを記述したデータである。また、素形状モデルとは、例えば、円柱、四角柱、円筒等の3次元幾何要素のモデルである。後述するように、素形状モデルは、ワーク90の把持部位の形状候補として、教示端末2を使用するオペレータに提示される。例えば、ある1つの素形状モデルを指定してデータベース15を検索することによって、これに適用可能な少なくとも1つの把持パターンを知ることができる。逆に、ある1つの把持パターンを指定してデータベース15を検索することによって、当該把持パターンを適用可能な少なくとも1つの素形状モデルを知ることができる。データベース15のデータ構成例、動作パターン及び素形状モデルの具体例については後述する。
制御部16は、ロボットアーム10及びハンド11の動作制御のほか、教示端末2と協調してロボット1への把持動作の教示に関する制御、データ処理を実行する。具体的には、制御部16は、撮像装置12の撮影制御、距離計測装置13の計測制御、通信部14を用いたデータ送受信、データベース15へのアクセス、距離計測装置13により計測された3次元の点群データと素形状モデルとのフィッティング処理等を実行する。
制御部16は、1又は複数のCPU(Central Processing Unit)、CPUで実行される制御プログラム、演算データ等の一時記憶領域として使用されるRAM(Random Access Memory)、制御プログラム及び制御データ等を記憶するEEPROM(Electrically Erasable and Programmable Read Only Memory)等の不揮発性メモリ等を用いて構成すればよい。制御プログラムは、複数のプログラムモジュールの集合でもよいことは勿論である。
なお、後述する教示端末2を用いたロボット1への動作教示では、複数の座標系、具体的には、撮像装置12の撮影空間に関するカメラ座標系、撮像装置12による撮影画像の画像座標系、距離計測装置13の計測空間に関する計測空間座標系、ハンド11に設定されるツール座標系、及び作業空間に固定されたワールド座標系の相対関係が既知である必要がある。これらの座標系の間の相対関係を確定するためには、予めキャリブレーションを行なっておけばよい。
次に、図1に示した教示端末2の各構成要素について説明する。通信部20は、既に述べたように、ロボット1側の通信部14との間でデータ伝送を行なう。
表示装置21は、グラフィック表示可能なデバイスであり、後述する制御部23による制御のもとで、撮像装置12による撮影画像の表示、素形状モデルの表示、把持パターンを示すハンドモデルの表示などを行なう。表示装置21には、例えば、LCD(Liquid Crystal Display)又はCRT(Cathode Ray Tube)ディスプレイ等を使用すればよい。
入力装置22は、オペレータによる教示端末2に対する操作入力を受け付けるデバイスである。入力装置22は、オペレータの手及び足等の身体の一部による操作又はオペレータの音声等に応じて、表示装置21の画面上での入力位置や座標を指定することが可能なポインティグデバイスとすればよい。具体的には、入力装置22には、マウス、タッチパネル、音声入力デバイス、レーザポインタ等を使用すればよい。
制御部23は、ロボット1側の制御部16と協調してロボット1への把持動作の教示に関する制御、データ処理を実行する。具体的には、制御部23は、表示装置21の表示制御、入力装置22の操作内容の取得及び解析、通信部20を用いたデータ送受信等を実行する。制御部23もまた、制御部16と同様に、1又は複数のCPU(Central Processing Unit)、CPUで実行される制御プログラム、RAM、不揮発性メモリ等を用いて構成すればよい。
なお、教示端末2は、上述した各構成要素に動作電力を供給するバッテリを搭載し、オペレータが容易に携行可能な一体型の小型端末として構成するとよい。しかしながら、教示端末2の形態は、このような一体型のものに限られない。例えば、教示端末2は、各々が独立したデバイスである、通信端末、LCD、マウス及びPC(Personal Computer)等を用いて構成してもよい。
続いて、以下では、本実施の形態の動作教示システムによるロボット1への把持動作の教示手順について詳しく説明する。図2は、本実施の形態の動作教示システムによる動作教示手順を示すフローチャートである。図2では、ステップS101〜S105がロボット1側で行なわれる処理を示し、ステップS201〜S206が教示端末2側で行なわれる処理を示している。
ステップS101では、ロボット1が、撮像装置12を用いてワーク90を含む作業空間の撮影画像を取得する。取得された撮影画像は、教示端末2に転送される。なお、撮影画像を取得する際の撮像装置12の位置及び姿勢並びに画角などを教示端末2から遠隔操作可能としてもよい。ワーク90を含む作業空間の適切な撮影画像を得ることができ、適切な把持パターンをロボット1に教示することが容易となる。
ステップS201では、教示端末2が、表示装置21にステップS101にて取得された撮影画像を表示する。図3(a)は、ワーク90の像30が含まれた撮影画像の表示画面例である。なお、以下では、ワーク90が図3(a)に示すような取っ手付きのコップである場合を例にとって説明する。
ステップS202では、教示端末2が、表示装置21に表示された撮影画像内で「認識領域」とすべき範囲の指定を、オペレータから入力装置22を介して受け付ける。ここで、「認識領域」とは、ハンド11に把持させるワーク90中の部位を指定するためにオペレータが撮影画像内に設定する領域である。認識領域は、後述するステップS102にて、距離計測装置13による認識、つまり距離計測の対象領域として使用される。
表示画面上で指定された認識領域を含む表示装置21の表示画面例を図3(b)〜(d)に示す。図3(b)に表示された認識領域31は、コップの胴体部分を指定している。図3(c)に表示された認識領域32は、コップ開口の縁部分を指定している。図3(d)に表示された認識領域33は、取っ手部分を指定している。
なお、オペレータによる直感的な操作を可能とするために、教示端末2は、表示装置21に表示された撮影画像に重ねて表示されたポインタの操作によって、オペレータによる認識領域の指定を受け付けるとよい。例えば、図3(b)に示した認識領域31の指定を受け付けるためには、認識領域31の外周を示す閉曲線をポインタで描画する操作を受け付けるとよい。このような操作は、例えば、入力装置22がタッチパネルである場合、極めて直感的な操作となる。すなわち、タッチパネルを表示装置21の表示画面の真上に配置しておくことにより、オペレータは、表示されたワーク像30の上を指又はタッチペン等で直接的に触って認識領域を描画することができる。
ステップS203では、教示端末2が、認識領域に当てはめるべき素形状モデルの指定を入力装置22を介して受け付ける。すなわち、オペレータは、自らが指定した認識領域がどのような3次元幾何形状を有するかを入力装置22を用いて指定する。教示端末2は、ユーザに素形状モデルの選択を促すために、例えば図4に示すようなアイコンリスト40を表示装置21に出力するとよい。図4に示すアイコン41〜44は、それぞれ素形状モデルの一例を示している。アイコン41は四角柱モデル、アイコン42は平板モデル、アイコン43は円柱モデル、アイコン43は円錐台モデルである。各々の素形状モデルは、形及び大きさを規定するための形状パラメータ、位置及び姿勢を規定するための配置パラメータを有する。なお、素形状モデルの種類は、図4に示したものに限られないことはもちろんであり、超二次楕円体、L字状角柱、C字状円柱等の様々な形状を、ワーク90の種類等に応じて用意しておけばよい。
ステップS102では、ロボット1が、オペレータにより指定された認識領域を示すデータを教示端末2から受信する。そして、ロボット1は、距離計測装置13を用いて、認識領域に対応する作業空間の3次元位置を示す点群データ(以下、3次元位置データと呼ぶ)を取得する。図5は、図3(b)の認識領域31に対応する作業空間の3次元位置データ50の取得を示す概念図である。ステップS102で得られる3次元位置データは、ワーク90を含む作業空間のロボット1から見た奥行きを表す。
なお、ロボット1は、距離計測装置13の位置及び姿勢を制御することで、複数の視点から距離計測を行ってもよい。複数の視点からの計測によって得た3次元位置データをマージすることによって、ワーク90の奥行きを示す多くの点群を得ることができる。例えば、認識領域の中心点に対応する作業空間中の3次元位置を原点とする極座標を設定し、水平方向及び上下方向の2つの偏角方向に距離計測装置13の視点を移動させるとよい。視点の変更によって、オペレータにより設定された認識領域外の3次元位置データも取得されるが、距離計測装置13の初期位置における視点と認識領域のエッジとを結ぶ錐形状の空間内の3次元位置データのみを残し、これ以外のデータを削除するとよい。
ステップ103では、ロボット1が、オペレータにより指定された素形状モデルを示すデータを教示端末2から受信する。そして、ロボット1は、オペレータにより指定された素形状モデルをステップS102で得た3次元位置データにフィッティングする。より具体的に述べると、ロボット1は、計測により得られた認識領域内の3次元位置データに最も良く合致するように、指定された素形状モデルの形状パラメータ及び配置パラメータをフィッティングすればよい。ここでのフィッティング処理には、3次元画像処理の分野における公知の技術を用いればよい。図6は、ワーク90の像30に素形状モデル(具体的には円柱モデル)60を重ねて表示したものであり、ユーザが円柱モデルを選択した場合のフィッティング結果を示している。
ステップS104では、ロボット1が、フィッティングにより形状パラメータが決定された素形状モデルに適用することが可能な把持パターンを、データベース15を参照して選択する。ここで、素形状モデルの形状パラメータ、把持パターン、及びデータベース15のデータ構造の各具体例を説明する。
図7は、素形状モデルの1つである円筒モデル70を示している。円筒モデル70の形状パラメータは、直径D、円筒の長さL、及び壁の厚さTの3つである。なお、上述した円柱モデル60は、円筒モデル70のサブセットである。具体的には、円柱モデルは、円筒モデルにおいて壁の厚さTが未定義、あるいはT=D/2である場合に対応する。
図8及び9は、データベース15のデータ構造の具体例であり、円筒モデル70に適用可能な把持パターンに関するデータ内容を示している。ハンド11の種類が異なれば、実行可能な把持パターンが異なり、同じ素形状モデルに適用可能な把持パターンも異なる。データベース15は、各把持パターンが各素形状モデルのどのような形状パラメータ範囲で適用可能であるかを示す情報を、ハンド11の種類に対応させて記録しておくとよい。
図8及び9の例では、ハンド11のハンドタイプが「平面3関節2指ハンド」であり、素形状モデルが円筒モデルであるときに適用可能な把持パターンとして、4つの把持パターンが適用条件と共に記録されている。具体的には、4つの把持パターンは、「把持パターンA:側面はさみ把持」、「把持パターンB:端面はさみ把持」、「把持パターンC:握り込み把持」、及び「把持パターンD:縁面はさみ把持」である。これら各々の把持パターンの適用条件は、図8に示した円筒モデル70の形状パラメータD、L及びTにより記述されている。
なお、参考のために、図8及び9では、円筒モデル70とハンド11に対応するハンドモデル83とによって、把持パターンA〜Dを表す斜視図を示している。また、把持パターンA〜Dを表す図中の両方向矢印は、各把持パターンの調整可能な残された自由度を示している。例えば、「把持パターンC:握り込み把持」の場合、円筒モデル70の中心軸周りの回転自由度RFと、中心軸に沿った並進自由度TFの2つの自由度が調整可能である。本実施の形態では、把持パターンに残されたこれらの自由度は、後述するステップS206において、オペレータにより最終決定される。
図2戻って説明を続ける。ステップS204では、教示端末2が、フィッティング結果を示す素形状モデル60と、ステップS104にて選択された把持パターンを示すハンドモデル83を、ワーク90の像30を含む撮影画像に重ね合わせて表示する。このように重ね合わせ表示を行なうことによって、ワーク90と素形状モデル及び把持パターンとの適合度合いをオペレータが容易に把握することができる。
図10(a)及び(b)は、ステップS204における表示装置21の表示画面例を示している。図10(a)は、上述した「把持パターンC:握り込み把持」の表示例である。また、図10(b)は、上述した「把持パターンA:側面はさみ把持」の表示例である。図10(a)及び(b)のように複数の把持パターン候補が存在する場合には、表示装置21は、これら複数の候補を並べて表示してもよいし、オペレータの操作に応じて1つの候補ずつ切り替えて表示してもよい。
ステップS205では、教示端末2が、オペレータによる把持パターンの最終的な決定を受け付ける。ここで、決定される把持パターンを最終把持パターンと呼ぶこととする。
ステップS206では、教示端末2が、最終把持パターンに残された自由度の調整をオペレータに促す。教示端末2は、表示装置21の画面上にポインタを表示し、オペレータによるポインタ操作を受け付けるとよい。オペレータは、ポインタを操作して自由度の調節を行う。より具体的には、教示端末2は、画面表示されたハンドモデル83に対するドラッグ操作を受け付けるとよい。そして、教示端末2は、ドラッグ操作後のハンドモデル83と素形状モデル60又はワーク像30との相対位置及び相対姿勢に応じて、最終把持パターンに残された自由度の調整値を決定すればよい。これにより、オペレータは、簡単なドラッグ操作によって適切な把持パターンを決定することができる。
図11(a)〜(c)は、ステップS206でのオペレータによる自由度調整の具体例を示す図である。図11(a)は、表示画面上でのポインタ84の移動を示している。図11(b)は、ハンドモデル83のドラッグによるポインタ84の表示変化を示している。また、図11(c)は、ドラッグ操作によって並進自由度TFの調整がなされた状態を示している。
最後に、図2のステップS105では、ロボット1が、最終決定された把持パターンに基づいて、ワーク90の把持動作を実行する。
上述した発明の実施の形態1にかかる動作教示システムは、以下に述べるような効果を奏する。すなわち、本実施の形態の動作教示システムによって、オペレータは、撮像装置12による撮影画像が表示された表示画面上に認識領域を描画し、これに当てはめる素形状モデルを選択する操作によって、ワーク90の把持部位の形状を特定し、把持方法を決定できる。つまり、オペレータは、CADで使用されるパラメトリックモデリング手法のような熟練を要する詳細な入力作業を行なうことなく、簡単かつ直感的な操作によってワーク90の把持動作を教示することができる。
また、本実施の形態の動作教示システムは、素形状モデルと把持パターンを関連付けて予めデータベース15に記録しておくことにより、適切な把持パターンの候補をオペレータに提示することが容易となる。つまり、オペレータは、ハンド11の位置及び姿勢、各指の配置などを詳細に逐一指定する必要がない。
また、本実施の形態の動作教示システムは、ロボット1に把持させたい部位をオペレータが指定し、その部位のみを素形状モデルを適用してモデル化する。このため、対象物のモデル化が容易であり、複雑な認識技術がなくても多様な把持作業を実現することができる。
また、一般にモデルベースの把持計画を実行するためには、ワーク90の種類に応じて詳細なモデルを使用する必要がある。しかしながら、本実施の形態の動作教示システムは、限られた数の素形状モデルと把持パターンの組合せによって把持計画を行うため、データ量が少なくて済む。
また、教示端末2に対してオペレータがなすべき操作は限られていることから、表示装置21及び入力装置22は、複雑なインタフェースを必要としない。つまり、教示端末2は、小型の表示画面での操作に適している。このため、教示端末2として小型のポータブル端末、例えばスマートフォン、通信機能を有する小型ゲーム機などを使用することも容易となる。
<その他の実施の形態>
発明の実施の形態1では、図2に示したように、フィッティングによる把持パターンの選択後に、選択された把持パターンをオペレータに提示し、オペレータが最終把持パターンの決定と、最終把持パターンの自由度調整を行なうものとして説明した。このような手順は、ロボット1の動作を最適な把持動作に近づけるために有効である。しかしながら、図2のステップS204〜S206を行なわずに、選択した把持パターンの1つに従ってロボット1に自律的に把持動作を実行させてもよい。
また、発明の実施の形態1におけるロボット1と教示装置2との機能分担は一例である。例えば、素形状モデルと3次元位置データとのフィッティングは、教示端末2側で実行されてもよい。また、例えば、データベース15は、教示端末2側に設けてもよい。また、ロボット1及び教示装置2に加えて第3の装置が存在してもよい。例えば、撮像装置12、及び距離計測装置13は、ロボットアーム10及びハンド11を備えたロボット本体に直接搭載する必要はなく、ロボット本体と別の独立した装置として作業空間に配置されてもよい。
さらに、本発明は上述した実施の形態のみに限定されるものではなく、既に述べた本発明の要旨を逸脱しない範囲において種々の変更が可能であることは勿論である。
本発明の実施の形態1にかかる動作教示システムを示すブロック図である。 本発明の実施の形態1にかかる動作教示システムによる動作教示手順を示すフローチャートである。 (a)は表示装置に表示されるワークを含む撮影画像の一例を示す図であり、(b)〜(d)は表示画面上での認識領域の指定の例を示す図である。 素形状モデルを選択するためのアイコンリストの例を示す図である。 認識領域に関する3次元位置データの取得を説明するための概念図である。 3次元位置データへの素形状モデルのフィッティングを説明するための概念図である。 素形状モデルの一例である円筒モデル及びその形状パラメータを示す図である。 本発明の実施の形態1にかかる動作教示システムが有するデータベースの構成例を示す図である。 本発明の実施の形態1にかかる動作教示システムが有するデータベースの構成例を示す図である。 ワークを含む撮影画像に素形状モデル及び把持パターンを重ねて表示した表示装置の画面例を示す図である。 把持パターンの自由度を調節するための表示装置の画面例を示す図である。
符号の説明
1 ロボット
10 ロボットアーム
11 ハンド
12 撮像装置
13 距離計測装置
14 通信部
15 データベース
2 教示端末
20 通信部
21 表示装置
22 入力装置
23 制御部
30 ワーク像
31〜33 認識領域
40 アイコンリスト
41〜44 アイコン
50 3次元位置データ
90 ワーク
60 素形状モデル(円柱モデル)
70 円筒モデル
83 ハンドモデル
84 ポインタ
RF 回転自由度
TF 並進自由度

Claims (8)

  1. ワークを把持するためのハンドを含むロボットアームを有するロボットに対して把持動作を教示するための動作教示システムであって、
    撮像装置と、
    対象物までの距離を計測する距離計測装置と、
    表示装置と、
    オペレータによる入力操作を受け付ける入力装置と、
    複数の素形状モデルのそれぞれについて前記ハンドが適用可能な少なくとも1つの把持パターンが記述されたデータベースと、
    前記撮像装置によって取得された前記ワークを含む作業空間の撮影画像を前記表示装置に表示させる撮影画像表示手段と、
    前記ハンドに把持させる前記ワーク中の部位を指定するための操作を、前記表示装置に表示された前記ワークの像上において前記部位を含む認識領域を前記入力装置を用いて2次元的に指定する操作として受け付ける認識領域指定手段と、
    前記部位に当てはめる素形状モデルを前記複数の素形状モデルの中から指定する操作を、前記入力装置を介して受け付ける素形状モデル指定手段と、
    前記オペレータにより指定された素形状モデルを、前記距離計測装置を用いて取得された前記認識領域に相当する空間の3次元位置データにフィッティングさせるフィッティング手段と、
    前記オペレータにより指定された素形状モデル及び前記フィッティング手段によるフィティング結果に基づいて前記データベースを検索することにより、前記ワークの把持に適用可能な少なくとも1つの把持パターンを選択する把持パターン選択手段と、
    を備える動作教示システム。
  2. 前記把持パターン選択手段によって選択された前記少なくとも1つの把持パターンを前記表示装置に表示させる把持パターン表示手段と、
    前記把持パターン表示手段によって生成される表示内容に基づいて前記ロボットに行わせる最終把持パターンを選択するための前記オペレータによる操作を受け付けると共に、前記最終把持パターンに残された自由度を調節する前記オペレータの操作を受け付ける把持パターン決定手段と、
    をさらに備える請求項1に記載の動作教示システム。
  3. 前記把持パターン表示手段は、前記少なくとも1つの把持パターンを表す前記ハンドのモデル画像を前記撮影画像に重ねて表示し、
    前記把持パターン決定手段は、前記オペレータによる前記自由度の調節操作を、前記表示装置の表示画面内における前記モデル画像のドラッグ操作により受け付け、前記ドラッグ操作後の前記モデル画像の前記表示画面内における位置及び姿勢に基づいて前記自由度の調整値を決定する、請求項2に記載の動作教示システム。
  4. 前記把持パターン選択手段は、さらに、
    前記距離計測装置を用いて取得された前記認識領域の周辺の3次元位置データを用いて、前記少なくとも1つの把持パターンによる前記ロボットアームの軌道と前記ワーク周囲の障害物との干渉を判定し、当該判定結果に基づいて把持パターンの絞込みを行う、請求項1乃至3のいずれか1項に記載の動作教示システム。
  5. ワークを把持するためのハンドを含むロボットアームを有するロボットに対して把持動作を教示するための動作教示方法であって、
    前記ワークを含む作業空間の撮影画像を表示装置に表示させるステップ(a)と、
    前記ハンドに把持させる前記ワーク中の部位を指定するための操作を、前記表示装置に表示された前記ワークの像上において前記部位を含む認識領域を2次元的に指定する操作として受け付けるステップ(b)と、
    前記部位に当てはめる素形状モデルを複数の素形状モデルの中から指定する操作を受け付けるステップ(c)と、
    前記ステップ(c)にて指定された素形状モデルを、距離計測装置を用いて取得された前記認識領域に相当する空間の3次元位置データにフィッティングさせるステップ(d)と、
    前記複数の素形状モデルのそれぞれについて前記ハンドが適用可能な少なくとも1つの把持パターンが記述されたデータベースを、前記ステップ(c)にて指定された素形状モデル及び前記ステップ(d)におけるフィッティング結果に基づいて検索することにより、前記ワークの把持に適用可能な少なくとも1つの把持パターンを選択するステップ(e)と、
    を備える動作教示方法。
  6. 前記ステップ(e)にて選択された前記少なくとも1つの把持パターンを前記表示装置に表示させるステップ(f)と、
    前記ステップ(f)にて生成される表示内容に基づいて前記ロボットに行わせる最終把持パターンを選択するための前記オペレータによる操作を受け付けるステップ(g)と、
    前記最終把持パターンに残された自由度を調節する前記オペレータの操作を受け付けるステップ(h)と、
    をさらに備える請求項5に記載の動作教示方法。
  7. 前記ステップ(f)では、前記少なくとも1つの把持パターンを表す前記ハンドのモデル画像を前記撮影画像に重ねて表示し、
    前記ステップ(h)では、前記オペレータによる前記自由度の調節操作を、前記表示装置の表示画面内における前記モデル画像のドラッグ操作により受け付け、前記ドラッグ操作後の前記モデル画像の前記表示画面内における位置及び姿勢に基づいて前記自由度の調整値を決定する、請求項6に記載の動作教示方法。
  8. 前記ステップ(e)では、さらに、前記距離計測装置を用いて取得された前記認識領域の周辺の3次元位置データを用いて、前記少なくとも1つの把持パターンによる前記ロボットアームの軌道と前記ワーク周囲の障害物との干渉を判定し、当該判定結果に基づいて把持パターンの絞込みを行う、請求項5乃至7のいずれか1項に記載の動作教示方法。
JP2008058957A 2008-03-10 2008-03-10 動作教示システム及び動作教示方法 Expired - Fee Related JP4835616B2 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2008058957A JP4835616B2 (ja) 2008-03-10 2008-03-10 動作教示システム及び動作教示方法
CN2009801084228A CN101970184B (zh) 2008-03-10 2009-02-03 动作教导***以及动作教导方法
PCT/JP2009/051741 WO2009113339A1 (ja) 2008-03-10 2009-02-03 動作教示システム及び動作教示方法
US12/921,291 US8355816B2 (en) 2008-03-10 2009-02-03 Action teaching system and action teaching method
KR1020107010947A KR101193125B1 (ko) 2008-03-10 2009-02-03 동작 교시시스템 및 동작 교시방법
EP09720016.6A EP2263837B1 (en) 2008-03-10 2009-02-03 Operation teaching system and operation teaching method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008058957A JP4835616B2 (ja) 2008-03-10 2008-03-10 動作教示システム及び動作教示方法

Publications (2)

Publication Number Publication Date
JP2009214212A JP2009214212A (ja) 2009-09-24
JP4835616B2 true JP4835616B2 (ja) 2011-12-14

Family

ID=41065011

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008058957A Expired - Fee Related JP4835616B2 (ja) 2008-03-10 2008-03-10 動作教示システム及び動作教示方法

Country Status (6)

Country Link
US (1) US8355816B2 (ja)
EP (1) EP2263837B1 (ja)
JP (1) JP4835616B2 (ja)
KR (1) KR101193125B1 (ja)
CN (1) CN101970184B (ja)
WO (1) WO2009113339A1 (ja)

Families Citing this family (83)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100179689A1 (en) * 2009-01-09 2010-07-15 National Taiwan University Of Science And Technology Method of teaching robotic system
DE102010007458A1 (de) * 2010-02-10 2011-08-11 KUKA Laboratories GmbH, 86165 Verfahren für eine kollisionsfreie Bahnplanung eines Industrieroboters
JP2011251395A (ja) * 2010-06-04 2011-12-15 Takamaru Kogyo Kk ロボット教示システム
JP5560948B2 (ja) * 2010-06-23 2014-07-30 株式会社安川電機 ロボット装置
JP5685027B2 (ja) 2010-09-07 2015-03-18 キヤノン株式会社 情報処理装置、物体把持システム、ロボットシステム、情報処理方法、物体把持方法およびプログラム
KR101778030B1 (ko) * 2010-09-27 2017-09-26 삼성전자주식회사 로봇 및 그 제어방법
JP5659787B2 (ja) * 2010-12-28 2015-01-28 トヨタ自動車株式会社 操作環境モデル構築システム、および操作環境モデル構築方法
BE1019786A3 (nl) * 2011-01-31 2012-12-04 Robojob Bv Met Beperkte Aansprakelijkheid Werkwijze voor het manipuleren van een reeks achtereenvolgens aangeboden identieke werkstukken door middel van een robot, evenals een inrichting en een grijper daarbij toegepast.
JP2012206219A (ja) * 2011-03-30 2012-10-25 Seiko Epson Corp ロボット制御装置及びロボットシステム
JP5892360B2 (ja) * 2011-08-02 2016-03-23 ソニー株式会社 ロボット指示装置、ロボット指示方法、プログラム、及び通信システム
JP5892361B2 (ja) * 2011-08-02 2016-03-23 ソニー株式会社 制御装置、制御方法、プログラム、及びロボット制御システム
JP5852364B2 (ja) * 2011-08-26 2016-02-03 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、およびプログラム
KR101896473B1 (ko) 2012-01-04 2018-10-24 삼성전자주식회사 로봇 핸드의 제어 방법
JP2013184257A (ja) 2012-03-08 2013-09-19 Sony Corp ロボット装置及びロボット装置の制御方法、並びにコンピューター・プログラム
JP5642738B2 (ja) * 2012-07-26 2014-12-17 ファナック株式会社 バラ積みされた物品をロボットで取出す装置及び方法
US9095978B2 (en) * 2012-12-07 2015-08-04 GM Global Technology Operations LLC Planning a grasp approach, position, and pre-grasp pose for a robotic grasper based on object, grasper, and environmental constraint data
JP5582427B2 (ja) * 2012-12-18 2014-09-03 株式会社安川電機 教示データ作成装置、ロボットシステム、及び教示データ作成方法
US10578573B2 (en) * 2013-03-12 2020-03-03 Msa Technology, Llc Diagnostics for catalytic structures and combustible gas sensors including catalytic structures
US9238304B1 (en) * 2013-03-15 2016-01-19 Industrial Perception, Inc. Continuous updating of plan for robotic object manipulation based on received sensor data
JP5673717B2 (ja) * 2013-03-19 2015-02-18 株式会社安川電機 ロボットシステム及び被加工物の製造方法
JP5965859B2 (ja) * 2013-03-28 2016-08-10 株式会社神戸製鋼所 溶接線情報設定装置、プログラム、自動教示システム、および溶接線情報設定方法
JP5983506B2 (ja) * 2013-04-04 2016-08-31 トヨタ自動車株式会社 把持対象物の把持パターン検出方法およびロボット
GB201309156D0 (en) * 2013-05-21 2013-07-03 Univ Birmingham Grasp modelling
JP6361153B2 (ja) * 2014-02-05 2018-07-25 株式会社デンソーウェーブ ロボットの教示装置
JP6380828B2 (ja) * 2014-03-07 2018-08-29 セイコーエプソン株式会社 ロボット、ロボットシステム、制御装置、及び制御方法
JP6370064B2 (ja) * 2014-03-11 2018-08-08 株式会社スター精機 樹脂成形品取出し機におけるゲート切断位置データ設定方法及び樹脂成形品取出し機
JP6361213B2 (ja) * 2014-03-26 2018-07-25 セイコーエプソン株式会社 ロボット制御装置、ロボット、ロボットシステム、教示方法、及びプログラム
WO2015166574A1 (ja) * 2014-05-01 2015-11-05 本田技研工業株式会社 多関節ロボットのティーチングデータ作成装置及び作成方法
DE102014223167A1 (de) * 2014-11-13 2016-05-19 Kuka Roboter Gmbh Bestimmen von objektbezogenen Greifräumen mittels eines Roboters
US9492923B2 (en) 2014-12-16 2016-11-15 Amazon Technologies, Inc. Generating robotic grasping instructions for inventory items
JP6486678B2 (ja) * 2014-12-25 2019-03-20 株式会社キーエンス 画像処理装置、画像処理システム、画像処理方法及びコンピュータプログラム
JP6486679B2 (ja) * 2014-12-25 2019-03-20 株式会社キーエンス 画像処理装置、画像処理システム、画像処理方法及びコンピュータプログラム
US10089575B1 (en) 2015-05-27 2018-10-02 X Development Llc Determining grasping parameters for grasping of an object by a robot grasping end effector
JP6493013B2 (ja) * 2015-06-25 2019-04-03 富士通株式会社 指モデル検証プログラム、指モデル検証方法、および情報処理装置
CN107848117B (zh) * 2016-01-06 2021-01-15 株式会社日立制作所 机器人***以及控制方法
US20180345491A1 (en) * 2016-01-29 2018-12-06 Mitsubishi Electric Corporation Robot teaching device, and method for generating robot control program
US9914214B1 (en) * 2016-02-22 2018-03-13 X Development Llc Preshaping for underactuated fingers
CN107309871A (zh) * 2016-04-27 2017-11-03 广明光电股份有限公司 机器手臂的编程方法
JP2017196705A (ja) * 2016-04-28 2017-11-02 セイコーエプソン株式会社 ロボット、及びロボットシステム
US9687983B1 (en) * 2016-05-11 2017-06-27 X Development Llc Generating a grasp pose for grasping of an object by a grasping end effector of a robot
EP3485370A4 (en) 2016-07-18 2020-03-25 Lael Odhner ASSESSMENT OF ROBOTIC GRIPPING
JP2018034243A (ja) * 2016-08-31 2018-03-08 セイコーエプソン株式会社 ロボット、ロボット制御装置、及びロボットシステム
JP2018034242A (ja) * 2016-08-31 2018-03-08 セイコーエプソン株式会社 ロボット制御装置、ロボット、及びロボットシステム
JP6892286B2 (ja) * 2017-03-03 2021-06-23 株式会社キーエンス 画像処理装置、画像処理方法、及びコンピュータプログラム
EP3593960A4 (en) * 2017-03-06 2020-01-22 Fuji Corporation DATA STRUCTURE FOR GENERATING IMAGE PROCESSING DATA AND METHOD FOR GENERATING IMAGE PROCESSING DATA
DE112017007311B4 (de) 2017-03-24 2021-09-16 Mitsubishi Electric Corporation Vorrichtung und Verfahren zum Erzeugen eines Roboterprogramms
EP3612355A1 (de) * 2017-04-21 2020-02-26 Roboception GmbH Verfahren zur erstellung einer datenbank mit greiferposen, verfahren zum steuern eines roboters, computerlesbares speichermedium und handhabungssystem
JP6880982B2 (ja) * 2017-04-21 2021-06-02 セイコーエプソン株式会社 制御装置およびロボットシステム
JP6499716B2 (ja) * 2017-05-26 2019-04-10 ファナック株式会社 形状認識装置、形状認識方法及びプログラム
JP6457587B2 (ja) * 2017-06-07 2019-01-23 ファナック株式会社 ワークの動画に基づいて教示点を設定するロボットの教示装置
WO2019059364A1 (ja) * 2017-09-22 2019-03-28 三菱電機株式会社 遠隔制御マニピュレータシステムおよび制御装置
CN111164522B (zh) * 2017-09-30 2023-05-16 西门子股份公司 设计具有可重复使用技能的自主***
WO2019069361A1 (ja) 2017-10-03 2019-04-11 三菱電機株式会社 把持位置姿勢教示装置、把持位置姿勢教示方法及びロボットシステム
JP6969283B2 (ja) * 2017-10-25 2021-11-24 オムロン株式会社 制御システム
JP6880457B2 (ja) 2017-11-14 2021-06-02 オムロン株式会社 把持方法、把持システム及びプログラム
TWI734867B (zh) * 2017-11-20 2021-08-01 達明機器人股份有限公司 機器手臂作業軌跡的教導系統及方法
JP6737764B2 (ja) 2017-11-24 2020-08-12 ファナック株式会社 ロボットに対して教示操作を行う教示装置
JP6881268B2 (ja) * 2017-12-05 2021-06-02 トヨタ自動車株式会社 把持装置、把持判定方法および把持判定プログラム
JP6937260B2 (ja) * 2018-03-19 2021-09-22 株式会社東芝 把持制御装置、把持システム、およびプログラム
US10766149B2 (en) 2018-03-23 2020-09-08 Amazon Technologies, Inc. Optimization-based spring lattice deformation model for soft materials
CN108515290B (zh) * 2018-03-30 2019-12-03 宁波高新区神台德机械设备有限公司 工业机器人动作检测装置
US10967507B2 (en) * 2018-05-02 2021-04-06 X Development Llc Positioning a robot sensor for object classification
DE112018007727B4 (de) 2018-06-14 2022-10-06 Yamaha Hatsudoki Kabushiki Kaisha Robotersystem
US11833681B2 (en) 2018-08-24 2023-12-05 Nvidia Corporation Robotic control system
DE102019122790B4 (de) * 2018-08-24 2021-03-25 Nvidia Corp. Robotersteuerungssystem
JP6802225B2 (ja) 2018-08-31 2020-12-16 ファナック株式会社 情報処理装置および情報処理方法
JP6863945B2 (ja) * 2018-10-24 2021-04-21 ファナック株式会社 ロボットの制御方法
JP7204513B2 (ja) * 2019-02-13 2023-01-16 株式会社東芝 制御装置及びプログラム
WO2020188660A1 (ja) * 2019-03-15 2020-09-24 オムロン株式会社 把持位置姿勢登録装置、把持位置姿勢登録方法及びプログラム
US11312581B2 (en) * 2019-04-16 2022-04-26 Abb Schweiz Ag Object grasp system and method
US11648674B2 (en) * 2019-07-23 2023-05-16 Teradyne, Inc. System and method for robotic bin picking using advanced scanning techniques
KR20190104483A (ko) * 2019-08-21 2019-09-10 엘지전자 주식회사 로봇 시스템 및 그 제어 방법
JP7443014B2 (ja) * 2019-10-08 2024-03-05 大豊精機株式会社 ロボットアーム試験装置
JP7392409B2 (ja) * 2019-11-15 2023-12-06 オムロン株式会社 設定装置、設定方法およびプログラム
KR20210063975A (ko) * 2019-11-25 2021-06-02 엘지전자 주식회사 로봇 및 그 제어 방법
JP7342676B2 (ja) * 2019-12-13 2023-09-12 トヨタ自動車株式会社 遠隔操作システム及び遠隔操作方法
JP7276108B2 (ja) * 2019-12-13 2023-05-18 トヨタ自動車株式会社 遠隔操作システム及び遠隔操作方法
DE102020113277A1 (de) 2020-05-15 2021-11-18 Gerhard Schubert Gesellschaft mit beschränkter Haftung Verfahren zum Erzeugen eines Trainingsdatensatzes zum Trainieren eines Industrieroboters
DE102021201921A1 (de) 2021-03-01 2022-09-01 Robert Bosch Gesellschaft mit beschränkter Haftung Vorrichtung und verfahren zum steuern eines roboters zum aufnehmen eines objekts
WO2023022237A1 (ja) * 2021-08-19 2023-02-23 京セラ株式会社 ロボットの保持態様決定装置、保持態様決定方法、及びロボット制御システム
DE102021212860B4 (de) 2021-11-16 2024-05-08 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zum Aufnehmen eines Objekts mittels eines Roboters
DE102022206274A1 (de) 2022-06-22 2023-12-28 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zum Steuern eines Roboters zum Manipulieren, insbesondere Aufnehmen, eines Objekts
WO2024090154A1 (ja) * 2022-10-26 2024-05-02 住友重機械工業株式会社 ロボット教示装置

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4396903A (en) * 1981-05-29 1983-08-02 Westinghouse Electric Corp. Electro-optical system for correlating and integrating image data from frame-to-frame
JPH01283603A (ja) * 1988-05-11 1989-11-15 Fanuc Ltd ロボットオフラインティーチング方式
JP3300682B2 (ja) * 1999-04-08 2002-07-08 ファナック株式会社 画像処理機能を持つロボット装置
JP2002283259A (ja) * 2001-03-27 2002-10-03 Sony Corp ロボット装置のための動作教示装置及び動作教示方法、並びに記憶媒体
CA2354301A1 (en) * 2001-07-27 2003-01-27 Djamel Yahia Meddah Geometric hashing for model-based recognition of an object
JP2003094367A (ja) * 2001-09-21 2003-04-03 Ricoh Co Ltd 手先視覚付ロボットハンド
JP2003256025A (ja) * 2001-12-25 2003-09-10 National Institute Of Advanced Industrial & Technology ロボット動作教示方法及び装置
JP2004188533A (ja) 2002-12-10 2004-07-08 Toyota Motor Corp 対象物の取扱い推定方法および取扱い推定装置
JP3834297B2 (ja) 2003-05-12 2006-10-18 ファナック株式会社 画像処理装置
JP4167940B2 (ja) * 2003-05-29 2008-10-22 ファナック株式会社 ロボットシステム
JP3708097B2 (ja) * 2003-10-08 2005-10-19 ファナック株式会社 ロボットの手動送り装置
JP4745769B2 (ja) * 2005-09-13 2011-08-10 キヤノン株式会社 カメラ雲台装置
JP4715539B2 (ja) 2006-02-15 2011-07-06 トヨタ自動車株式会社 画像処理装置、その方法、および画像処理用プログラム
US7925068B2 (en) * 2007-02-01 2011-04-12 General Electric Company Method and apparatus for forming a guide image for an ultrasound image scanner
US7903883B2 (en) * 2007-03-30 2011-03-08 Microsoft Corporation Local bi-gram model for object recognition
US7844106B2 (en) * 2007-04-23 2010-11-30 Mitsubishi Electric Research Laboratories, Inc Method and system for determining poses of objects from range images using adaptive sampling of pose spaces

Also Published As

Publication number Publication date
KR20100084663A (ko) 2010-07-27
US8355816B2 (en) 2013-01-15
EP2263837A1 (en) 2010-12-22
US20110010009A1 (en) 2011-01-13
WO2009113339A1 (ja) 2009-09-17
JP2009214212A (ja) 2009-09-24
EP2263837B1 (en) 2013-06-19
CN101970184A (zh) 2011-02-09
CN101970184B (zh) 2012-07-11
KR101193125B1 (ko) 2012-10-19
EP2263837A4 (en) 2012-08-29

Similar Documents

Publication Publication Date Title
JP4835616B2 (ja) 動作教示システム及び動作教示方法
CN106457569B (zh) 机器人***及操作机器人***的方法
US9962839B2 (en) Robot apparatus, method for controlling the same, and computer program
US8406923B2 (en) Apparatus for determining pickup pose of robot arm with camera
JP4844453B2 (ja) ロボットの教示装置及び教示方法
JP6361213B2 (ja) ロボット制御装置、ロボット、ロボットシステム、教示方法、及びプログラム
US20190202058A1 (en) Method of programming an industrial robot
JP2020055075A (ja) 拡張現実と複合現実を用いたロボット制御装置及び表示装置
JP4608326B2 (ja) 指示動作認識装置及び指示動作認識プログラム
JP6399832B2 (ja) パターンマッチング方法及びパターンマッチング装置
US20210162600A1 (en) Method of programming an industrial robot
CN109648568B (zh) 机器人控制方法、***及存储介质
US10724963B2 (en) Device and method for calculating area to be out of inspection target of inspection system
WO2020190166A1 (ru) Способ и система захвата объекта с помощью роботизированного устройства
JP6897396B2 (ja) 制御装置、ロボットシステムおよび制御方法
JP7250489B2 (ja) 画像処理装置およびその制御方法、プログラム
JP2009269134A (ja) 視覚検査装置のシミュレーション装置
JPWO2019012803A1 (ja) 指定装置、及び、指定プログラム
JP4649554B1 (ja) ロボット制御装置
JP2018122376A (ja) 画像処理装置、ロボット制御装置、及びロボット
CN112767479A (zh) 位置信息检测方法、装置、***及计算机可读存储介质
JP7190552B1 (ja) ロボット教示システム
JP2022163836A (ja) ロボット画像の表示方法、コンピュータープログラム、及び、ロボット画像の表示システム
CN116802020A (zh) 用于监督式自主抓取的用户界面
JP5862382B2 (ja) 作業支援装置

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110830

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110912

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141007

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4835616

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141007

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees