JP2014097572A - 把持ロボットおよび把持方法 - Google Patents

把持ロボットおよび把持方法 Download PDF

Info

Publication number
JP2014097572A
JP2014097572A JP2014038169A JP2014038169A JP2014097572A JP 2014097572 A JP2014097572 A JP 2014097572A JP 2014038169 A JP2014038169 A JP 2014038169A JP 2014038169 A JP2014038169 A JP 2014038169A JP 2014097572 A JP2014097572 A JP 2014097572A
Authority
JP
Japan
Prior art keywords
gripping
unit
captured image
pair
section
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2014038169A
Other languages
English (en)
Inventor
Tatsuya Matsudo
達哉 松土
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2014038169A priority Critical patent/JP2014097572A/ja
Publication of JP2014097572A publication Critical patent/JP2014097572A/ja
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

【課題】少ない計算コストで、確実かつ完全に、対象物を把持する技術を提供する。
【解決手段】把持ロボットは、アーム部と前記アーム部に設けられた1対のハンド部と前記1対のハンド部のそれぞれに設けられた指部とを有し、台上の対象物を把持する把持部と、前記把持部に設けられ、前記対象物を撮像するカメラ部と、前記把持部および前記カメラ部を制御する制御部とを備え、前記制御部は、前記カメラ部によって撮像された撮像画像内における重力方向を特定し、前記撮像画像内における重力方向に基づいて前記撮像画像内において前記対象物と前記台との境界部を検出し、前記境界部の位置に基づいて前記台と前記対象物との間に前記1対のハンド部のそれぞれの指部を挿入するように前記把持部を制御する。
【選択図】図1

Description

本発明は、把持ロボットおよび把持方法に関するものである。
従来、ロボットによる対象物(ワーク)の把持方法は、ロボットの指先または手首などに力覚センサ、触覚センサなどのセンサ部を配置し、センサ部からの出力情報に基づいて、対象物を把持するという方法である(例えば、特許文献1参照)。
特開2010−5732号公報
しかしながら、従来の把持方法は、特許文献1にもあるように、種々のセンサ部からの出力情報に加え、対象物と指先との間の摩擦力、対象物の重量、ハンドの移動速度などを考慮した複雑な運動方程式を解く必要がある。つまり、一般に、従来の把持方法は、例えば、インピーダンス制御、位置制御、力制御などの複雑な制御を必要とするため、計算コスト(計算リソース、計算時間)が膨大であるという問題がある。
また、計算時間が長いために、把持制御に遅れが生じて対象物の把持が不確実になるなどした場合、対象物(特に重たい対象物)が落下してしまうというリスクもある。
また、従来の把持態様は、対象物の側面を把持する方法であるが、対象物が滑り落ちない程度の強い力で側面を把持する必要があるため、安全に対象物を把持できないという心配もある。例えば、アルミニウム製の筒状の対象物などのような滑り易く柔らかい対象物は、側面の把持によって、変形してしまう恐れやキズなどがついてしまう恐れがある。
本発明はこのような事情に鑑みてなされたものであって、少ない計算コストで、確実かつ完全に、対象物を把持する技術を提供することを目的とする。
上記問題を解決するために、本発明の一態様である把持ロボットは、アーム部と前記アーム部に設けられた1対のハンド部と前記1対のハンド部のそれぞれに設けられた指部とを有し、台上の対象物を把持する把持部と、前記把持部に設けられ、前記対象物を撮像するカメラ部と、前記把持部および前記カメラ部を制御する制御部とを備え、前記制御部は、前記カメラ部によって撮像された撮像画像内における重力方向を特定し、前記撮像画像内における重力方向に基づいて前記撮像画像内において前記対象物と前記台との境界部を検出し、前記境界部の位置に基づいて前記台と前記対象物との間に前記1対のハンド部のそれぞれの指部を挿入するように前記把持部を制御することを特徴とする。
上記構成によれば、複雑な運動方程式(対象物と指部との間の摩擦力、対象物の重量、ハンド部の移動速度などを考慮した運動方程式)を解く必要がないため、計算コストを削減できる。従って、少ない計算コストで対象物を把持することができる。更に、計算コストが少ないため、把持制御に遅れが生じる可能性も低く、対象物を確実に把持することができる。また、台と前記対象物との間に指部を挿入し、対象物を下から支えて把持する把持態様であるため、対象物を確実に把持することができる。従って、例えば、対象物が落下するリスクなどが低減する。更に、対象物を下から支えて把持する把持態様であって、対象物の側面を強い力で把持する把持態様でないため、安全に対象物を把持することができる。
つまり、上記構成によれば、力覚センサからの出力情報などを利用した複雑な計算を極力減らすとともに、対象物を下から支えて把持する把持態様としているため、少ない計算コストで、確実かつ完全に、対象物を把持することができる。
上記把持ロボットにおいて、前記制御部は、前記撮像画像の撮像時における前記把持部の制御情報に基づいて前記撮像画像内における重力方向を特定するようにしてもよい。
上記構成によれば、元々備える情報に基づいて、簡便に、重力方向を特定することができる。
上記把持ロボットは、前記把持部または前記カメラ部に重力の方向を測定または算出できるセンサ部を更に備え、前記制御部は、前記撮像画像の撮像時における前記センサ部からの出力情報に基づいて前記撮像画像内における重力方向を特定するようにしてもよい。
上記構成によれば、把持部またはカメラ部に重力の方向を測定または算出できるセンサ部として、例えば、ジャイロセンサ、磁気センサを用いても、重力方向を特定することができる。
上記把持ロボットにおいて、前記制御部は、前記境界部の位置に基づいて、前記台と前記対象物との間に前記1対のハンド部のそれぞれの指部を挿入するとともに、前記対象物の側面に前記1対のハンド部のそれぞれを押し当てるように前記把持部を制御するようにしてもよい。
上記構成によれば、より確実かつより完全に対象物を把持することができる。
上記問題を解決するために、本発明の他の態様である把持方法は、アーム部と前記アーム部に設けられた1対のハンド部と前記1対のハンド部のそれぞれに設けられた指部とを用いて、台上の対象物を把持する把持方法であって、前記対象物を撮像する手段と、前記撮像手段によって撮像された撮像画像内における重力方向を特定する手段と、前記撮像画像内における重力方向に基づいて前記撮像画像内において前記対象物と前記台との境界部を検出する手段と、前記境界部の位置に基づいて前記台と前記対象物との間に前記1対のハンド部のそれぞれの指部を挿入するように前記把持手段を制御する手段とを有することを特徴とする。
上記構成によれば、上記把持ロボットと同様、力覚センサからの出力情報などを利用した複雑な計算を極力減らすとともに、対象物を下から支えて把持する把持態様としているため、少ない計算コストで、確実かつ完全に、対象物を把持することができる。
本発明の実施形態に係る把持ロボットの概略斜視図である。 制御部の機能を示す機能ブロック図の一例である。 把持ロボットの把持動作を説明するための説明図である。 把持ロボットの把持動作を説明するための説明図である。 把持ロボットの動作の一例を示すフローチャートである。
以下、本発明の実施形態について図面を参照して詳細に説明する。図1は、本発明の実施形態に係る把持ロボット1の概略斜視図である。把持ロボット1は、図1に示すように、固定部10、アーム部20、ハンド部30、指部40およびカメラ部50を備える。アーム部20、ハンド部30および指部40は把持部を構成する。
固定部10は、例えば床、壁、天井、移動可能な台車の上などに固定される。固定部10は、内部に、制御部11(破線にて図示)を備える。制御部11は、把持部(アーム部20、ハンド部30、指部40)およびカメラ部50を制御する。制御部11の詳細は後述する。
アーム部20は、第1フレーム21、第2フレーム22、第3フレーム23、第4フレーム24および第5フレーム25から構成される。
第1フレーム21は、回転軸を介して、固定部10に接続する。第2フレーム22は、回転軸を介して、第1フレーム21および第3フレーム23に接続する。第3フレーム23は、回転軸を介して、第2フレーム22および第4フレーム24に接続する。第4フレーム24は、回転軸を介して、第3フレーム23および第5フレーム25に接続する。第5フレーム25は、回転軸を介して、第4フレーム24に接続する。アーム部20は、制御部11の制御によって、各フレーム21〜25が各回転軸を中心に複合的に回転し、動く。
アーム部20の第5フレーム25には、1対のハンド部30が設けられている。ハンド部30は、第1フレーム31、第2フレーム32、第3フレーム33および押し当て部34から構成される。第1フレーム31は、回転軸を介して、アーム部20の第5フレーム25に接続する。第2フレーム32は、回転軸を介して、第1フレーム31および第3フレーム33に接続する。第3フレーム33は、回転軸を介して、第2フレーム32に接続する。押し当て部34は、第3フレーム33の先端に接続する。ハンド部30は、制御部11の制御によって、各フレーム31〜33が各回転軸を中心に複合的に回転し、動く。
それぞれのハンド部30の押し当て部34には、指部40が設けられている。指部40は、第1フレーム41、第2フレーム42および第3フレーム43から構成される。第1フレーム41は、回転軸を介して、ハンド部30の押し当て部34に接続する。第2フレーム42は、回転軸を介して、第1フレーム41および第3フレーム43に接続する。第3フレーム43は、回転軸を介して、第2フレーム42に接続する。指部40は、制御部11の制御によって、各フレーム41〜43が各回転軸を中心に複合的に回転し、動く。なお、指部40は、直接的に、対象物を把持する部材である。
また、アーム部20の第5フレーム25には、カメラ部50が設けられている。カメラ部50は、制御部11の制御によって、対象物を撮像する。
続いて、制御部11について説明する。図2(a)は、制御部11の機能を示す機能ブロック図の一例である。図3および図4は、把持ロボット1の把持動作を説明するための説明図である。なお、図2(b)については後述する。
制御部11は、図2(a)に示すように、カメラ部制御部100、撮像画像取得部110、重力方向特定部120、境界部検出部130および把持部制御部140を有する。
カメラ部制御部100は、カメラ部50による撮像を制御する。撮像画像取得部110は、カメラ部50によって撮像された撮像画像を取得する。例えば、撮像画像取得部110は、図3(a)に示すように、台D上の対象物Wが撮像された撮像画像Pを取得する。
重力方向特定部120は、撮像画像取得部110によって取得された撮像画像内における重力方向を特定する。具体的には、重力方向特定部120は、撮像画像の撮像時における把持部制御部140の制御情報(把持部の位置および姿勢を規定している情報)に基づいて、撮像画像内における重力方向を特定する。より詳細には、重力方向特定部120は、第1フレーム21、第2フレーム22、第3フレーム23、第4フレーム24および第5フレーム25の制御情報を元に、同次変換行列を用いて、カメラ部50を設けている第5フレーム25の位置および姿勢、即ち、カメラ部50自身の位置および姿勢を求め、カメラ部50の位置および姿勢から、撮像画像内における重力方向を特定する。例えば、撮像画像取得部110は、図3(b)に示すように、撮像画像P内における重力方向Gを特定する。なお、説明の便宜上、図3(b)および図3(c)では、重力方向Pが真下になるように、撮像画像Pを回転させている。
境界部検出部130は、撮像画像取得部110によって特定された撮像画像内における重力方向に基づいて当該撮像画像内において対象物と台との境界部を検出する。例えば、境界部検出部130は、重力方向Gに基づいて、図3(c)に示すように、対象物Wと台Dとの境界部である破線部分Cを検出する。なお、図3(c)に示す各点線部分は、対象物Wと背景との境界部であるが、境界部検出部130は、重力方向Gから、対象物Wと台Dとの境界部としては検出しない。
把持部制御部140は、把持部(アーム部20、ハンド部30、指部40)を制御する。例えば、把持部制御部140は、対象物の撮像位置にカメラ部50を移動させるべく、把持部を移動させる。
また、把持部制御部140は、対象物を把持すべく、把持部を移動させる。具体的には、把持部制御部140は、境界部検出部130によって検出された境界部の位置に基づいて、台と対象物との間に1対のハンド部30のそれぞれの指部40を挿入するように把持部を制御する。より詳細には、把持部制御部140は、まず、図3(c)に示すように、対象物Wと台Dとの境界部である破線C上の点であって点A(図中で4角形にて示す点)の真下にある点B(図中で三角形にて示す点)を把持点として抽出する。点Aは、把持点Bを抽出するための基準点であって、予め登録したマークまたはパターン、または、画像処理により得られる特徴量から求められる点である。把持点Bを抽出した把持部制御部140は、把持点Bに指部40を挿入するように把持部を制御する。
これにより、把持ロボット1は、例えば、図4(a)に示すように、対象物Wを下から支える。図4(a)に示す例では、把持ロボット1は、対象物Wの底面を指部40の第2フレーム42および第3フレーム43で支える。なお、図4では、説明の便宜上、対象物の断面図を用いている。例えば、図4(a)(b)における面Sは、図3(c)の基準点Aおよび把持点Bを通る切断面(一点鎖線にて示す面)にて対象物Wを切断した断面である。また、図4(c)は、比較の為に図示した従来の把持態様である。従来の把持態様では、図4(c)に示すように、対象物Wが滑り落ちない程度の強い力で対象物Wの側面を把持する方法であるため、対象物Wが変形などする恐れがあったが、図4(a)に示す把持態様では、重量の負荷のほとんどが、底面を支える第2フレーム42および第3フレーム43にかかるため、側面からの力は対象物Wに接触する程度でよく、対象物Wが変形などする恐れがない。
また、把持部制御部140は、境界部検出部130によって検出された境界部の位置に基づいて、台と対象物との間に1対のハンド部30のそれぞれの指部40を挿入するとともに、対象物の側面に1対のハンド部30のそれぞれを押し当てるように把持部を制御してもよい。
これにより、把持ロボット1は、例えば、図4(b)に示すように、対象物Wを下から支えつつ、側面を軽く押さえつけて把持する。図4(b)に示す例では、把持ロボット1は、対象物Wの底面を指部40の第2フレーム42および第3フレーム43で支えつつ、対象物Wの側面をハンド部30の押し当て部34で支持している。なお、押し当て部34が支持する点は、例えば、図4(b)に示すように、側面上の基準点Aであってもよい。
続いて、フローチャートを用いて把持ロボット1の動作を説明する。図5は、把持ロボット1の動作の一例を示すフローチャートである。なお、把持ロボット1は、対象物の把持点を抽出するための、当該対象物の基準点に係る情報(例えば、登録マーク、テンプレート画像など)を保持しているものとする。
把持部制御部140は、対象物を撮像する撮像位置にカメラ部50を移動させる(ステップS10)。カメラ部制御部100は、カメラ部50に対象物を撮像させる。撮像画像取得部110は、カメラ部50によって撮像された撮像画像を取得する(ステップS12)。
把持部制御部140は、当該対象物の基準点に係る情報(例えば、登録マーク、テンプレート画像など)を読み出して、画像処理(例えば、パターンマッチング)によって、対象物の基準点の検出を試みる、即ち、基準点をサーチする(ステップS14)。
把持部制御部140によって基準点が検出されなかった場合(ステップS16:No)、対象物を他の撮像位置から撮像し、再度、基準点を検出する(ステップS10〜ステップS16)。
把持部制御部140によって基準点が検出された場合(ステップS16:Yes)、重力方向特定部120は、同次変換行列を用いて、カメラ部50の位置および姿勢を算出する(ステップS18)。カメラ部50の位置および姿勢を算出した重力方向特定部120は、撮像画像内における重力方向を特定する(ステップS20)。
境界部検出部130は、特定された撮像画像内における重力方向に基づいて当該撮像画像内において対象物と台との境界部を検出する(ステップS22)。把持部制御部140は、境界部上の点であって基準点の真下の点である把持点の抽出を試みる、即ち、把持点をサーチする(ステップS24)。
把持部制御部140によって把持点が抽出されなかった場合(ステップS26:No)、対象物を他の撮像位置から撮像し、再度、把持点を抽出する(ステップS10〜ステップS26)。
把持部制御部140によって把持点が抽出された場合(ステップS16:Yes)、把持部制御部140は、対象物の底面に指部を挿入し、側面にアーム部を添えるように把持部を移動し(ステップS28)、対象物を持ち上げるように把持部を制御する(ステップS30)。そして、本フローチャートは終了する。
以上、本発明の実施形態に係る把持ロボットによれば、複雑な運動方程式(対象物と指部との間の摩擦力、対象物の重量、ハンド部の移動速度などを考慮した運動方程式)を解く必要がないため、計算コストを削減できる。従って、少ない計算コストで対象物を把持することができる。更に、計算コストが少ないため、把持制御に遅れが生じる可能性も低く、対象物を確実に把持することができる。また、台と前記対象物との間に指部を挿入し、対象物を下から支えて把持する把持態様であるため、対象物を確実に把持することができる。従って、例えば、対象物が落下するリスクなどが低減する。更に、対象物を下から支えて把持する把持態様であって、対象物の側面を強い力で把持する把持態様でないため、安全に対象物を把持することができる。つまり、上記構成によれば、力覚センサからの出力情報などを利用した複雑な計算を極力減らすとともに、対象物を下から支えて把持する把持態様としているため、少ない計算コストで、確実かつ完全に、対象物を把持することができる。
上記実施形態においては、図4(a)に示すように対象物の底面を指部40で支える把持態様と、図4(b)に示すように対象物の底面を指部40で支えつつ、対象物の側面をハンド部30で押さえる把持態様について説明したが、把持態様はこれに限定されず他の把持態様であってもよい。例えば、対象物の底面をある指部で支えつつ、対象物の側面を他の指部で押さえる把持態様としてもよい。
また、上記実施形態においては、撮像画像内における重力方向を特定する手法として、撮像画像の撮像時における把持部の制御情報に基づいて重力方向を特定する手法を説明したが、重力方向を特定する手法はこれに限定されず他の手法であってもよい。例えば、重力の方向を測定または算出できるセンサ部からの出力情報に基づいて撮像画像内における重力方向を特定してもよい。
センサ部からの出力情報に基づいて撮像画像内における重力方向を特定する場合、把持ロボット1は、把持部またはカメラ部50に重力の方向を測定または算出できるセンサ部(例えば、ジャイロセンサ、磁気センサ)を更に備える。また、把持ロボット1の固定部10は、内部に、制御部11と異なる制御部12を備える。図2(b)は、制御部12の機能を示す機能ブロック図の一例である。
図2(b)において、重力方法特定部122は、撮像画像の撮像時におけるセンサ部(例えば、ジャイロセンサ、磁気センサ)からの出力情報に基づいて撮像画像内における重力方向を特定する。つまり、図5に示すフローチャートのステップS18およびステップS20に代えて、重力方向特定部122は、センサ部(例えば、ジャイロセンサ、磁気センサ)からの出力情報に基づいて撮像画像内における重力方向を特定する。なお、図2(b)において、図2(a)内の部材と同一符号を付した部材は、図2(a)内の各同一符号の部材と同一であるため、説明を省略する。
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。
例えば、アーム部20、ハンド部30、指部40のフレームの数は、図1に示す数に限られるものではない。また、カメラ部50は、アーム部20ではなく、ハンド部30、指部40に設けてもよい。
1…把持ロボット 10…固定部 11、12…制御部 20…アーム部 30…ハンド部 40…指部 50…カメラ部 100…カメラ部制御部 110…撮像画像取得部 120、122…重力方向特定部 130…境界部検出部 140…把持部制御部。

Claims (5)

  1. アーム部と前記アーム部に設けられた1対のハンド部と前記1対のハンド部のそれぞれに設けられた指部とを有し、台上の対象物を把持する把持部と、
    前記把持部に設けられ、前記対象物を撮像するカメラ部と、
    前記把持部および前記カメラ部を制御する制御部とを備え、
    前記制御部は、
    前記カメラ部によって撮像された撮像画像内における重力方向を特定し、
    前記撮像画像内における重力方向に基づいて前記撮像画像内において前記対象物と前記台との境界部を検出し、 前記境界部の位置に基づいて前記台と前記対象物との間に前記1対のハンド部のそれぞれの指部を挿入するように前記把持部を制御することを特徴とする把持ロボット。
  2. 前記制御部は、
    前記撮像画像の撮像時における前記把持部の制御情報に基づいて前記撮像画像内における重力方向を特定することを特徴とする請求項1に記載の把持ロボット。
  3. 前記把持ロボットは、
    前記把持部または前記カメラ部に重力の方向を測定または算出できるセンサ部を更に備え、
    前記制御部は、
    前記撮像画像の撮像時における前記センサ部からの出力情報に基づいて前記撮像画像内における重力方向を特定することを特徴とする請求項1に記載の把持ロボット。
  4. 前記制御部は、 前記境界部の位置に基づいて、前記台と前記対象物との間に前記1対のハンド部のそれぞれの指部を挿入するとともに、前記対象物の側面に前記1対のハンド部のそれぞれを押し当てるように前記把持部を制御することを特徴とする請求項1から請求項3の何れかに記載の把持ロボット。
  5. アーム部と前記アーム部に設けられた1対のハンド部と前記1対のハンド部のそれぞれに設けられた指部とを用いて、台上の対象物を把持する把持方法であって、
    前記対象物を撮像する手段と、
    前記撮像手段によって撮像された撮像画像内における重力方向を特定する手段と、
    前記撮像画像内における重力方向に基づいて前記撮像画像内において前記対象物と前記台との境界部を検出する手段と、 前記境界部の位置に基づいて前記台と前記対象物との間に前記1対のハンド部のそれぞれの指部を挿入するように前記把持手段を制御する手段とを有することを特徴とする把持方法。
JP2014038169A 2014-02-28 2014-02-28 把持ロボットおよび把持方法 Withdrawn JP2014097572A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014038169A JP2014097572A (ja) 2014-02-28 2014-02-28 把持ロボットおよび把持方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014038169A JP2014097572A (ja) 2014-02-28 2014-02-28 把持ロボットおよび把持方法

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2010104911A Division JP5494193B2 (ja) 2010-04-30 2010-04-30 把持ロボットおよび把持方法

Publications (1)

Publication Number Publication Date
JP2014097572A true JP2014097572A (ja) 2014-05-29

Family

ID=50940028

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014038169A Withdrawn JP2014097572A (ja) 2014-02-28 2014-02-28 把持ロボットおよび把持方法

Country Status (1)

Country Link
JP (1) JP2014097572A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3476552A4 (en) * 2016-06-27 2020-03-04 Kawasaki Jukogyo Kabushiki Kaisha WORKPIECE RETAINING MECHANISM
WO2020153299A1 (ja) * 2019-01-25 2020-07-30 株式会社ソニー・インタラクティブエンタテインメント ロボット制御システム
WO2022249410A1 (ja) * 2021-05-27 2022-12-01 ファナック株式会社 視覚センサにて撮像された画像に基づいて3次元の位置を算出する撮像装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0930649A (ja) * 1995-07-13 1997-02-04 Mitsubishi Electric Corp ピックアップ装置
JP2001225952A (ja) * 2000-02-10 2001-08-21 Murata Mach Ltd ピッキング装置
JP2009241247A (ja) * 2008-03-10 2009-10-22 Kyokko Denki Kk ステレオ画像型検出移動装置
JP2010036328A (ja) * 2008-08-07 2010-02-18 Toyota Motor Corp ロボットハンド
JP2010071743A (ja) * 2008-09-17 2010-04-02 Yaskawa Electric Corp 物体検出方法と物体検出装置およびロボットシステム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0930649A (ja) * 1995-07-13 1997-02-04 Mitsubishi Electric Corp ピックアップ装置
JP2001225952A (ja) * 2000-02-10 2001-08-21 Murata Mach Ltd ピッキング装置
JP2009241247A (ja) * 2008-03-10 2009-10-22 Kyokko Denki Kk ステレオ画像型検出移動装置
JP2010036328A (ja) * 2008-08-07 2010-02-18 Toyota Motor Corp ロボットハンド
JP2010071743A (ja) * 2008-09-17 2010-04-02 Yaskawa Electric Corp 物体検出方法と物体検出装置およびロボットシステム

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3476552A4 (en) * 2016-06-27 2020-03-04 Kawasaki Jukogyo Kabushiki Kaisha WORKPIECE RETAINING MECHANISM
WO2020153299A1 (ja) * 2019-01-25 2020-07-30 株式会社ソニー・インタラクティブエンタテインメント ロボット制御システム
JP2020116711A (ja) * 2019-01-25 2020-08-06 株式会社ソニー・インタラクティブエンタテインメント ロボット制御システム
JP7309371B2 (ja) 2019-01-25 2023-07-18 株式会社ソニー・インタラクティブエンタテインメント ロボット制御システム
WO2022249410A1 (ja) * 2021-05-27 2022-12-01 ファナック株式会社 視覚センサにて撮像された画像に基づいて3次元の位置を算出する撮像装置

Similar Documents

Publication Publication Date Title
JP6632106B1 (ja) 制御装置、移送装置、プログラム、及び、制御方法
JP2019063984A5 (ja) 情報処理装置及び情報処理方法
US10350768B2 (en) Control device, robot, and robot system
JP5588392B2 (ja) マニプレータ装置
JP2018161692A (ja) 情報処理装置、情報処理方法およびプログラム
JP6357785B2 (ja) ロボット、ロボットシステム、制御装置および制御方法
JP2019181622A (ja) ハンド制御装置およびハンド制御システム
JP2012206206A (ja) ロボットの制御方法、及びロボット
JP2013184279A5 (ja)
JP2007098501A (ja) ロボットシステム
JP6541397B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP6662836B2 (ja) 収容領域又は治具にワークを配置するワーク配置システム
CN111721391B (zh) 用机器人推定负荷的重量及重心位置的装置、方法及计算机可读记录介质
JP2013146813A (ja) ロボット装置および位置姿勢検出方法
JP2014097572A (ja) 把持ロボットおよび把持方法
JP2013132726A (ja) ロボットの制御方法、及びロボット
US20160306340A1 (en) Robot and control device
JP2022066611A (ja) 情報処理装置、情報処理方法、プログラム、及び荷降しシステム
JP2015160257A (ja) ロボット、ロボットシステム、制御装置および制御方法
JP6387599B2 (ja) ロボット、ロボットシステム、制御装置及び制御方法
US11141866B2 (en) Grasping apparatus, grasping determination method and grasping determination program
JP2010058243A (ja) ピッキング装置
CN111037553A (zh) 控制装置
JP5494193B2 (ja) 把持ロボットおよび把持方法
JP2017047479A5 (ja)

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140325

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140325

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20150108

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150127

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150129

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150327

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150818

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20151008