JP2008055584A - 物体把持を行うロボット及びロボットによる物体の把持方法 - Google Patents

物体把持を行うロボット及びロボットによる物体の把持方法 Download PDF

Info

Publication number
JP2008055584A
JP2008055584A JP2006238514A JP2006238514A JP2008055584A JP 2008055584 A JP2008055584 A JP 2008055584A JP 2006238514 A JP2006238514 A JP 2006238514A JP 2006238514 A JP2006238514 A JP 2006238514A JP 2008055584 A JP2008055584 A JP 2008055584A
Authority
JP
Japan
Prior art keywords
gripping
shape
robot
infrared
target object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006238514A
Other languages
English (en)
Inventor
Yusuke Nakano
雄介 中野
Murahito Hattori
祐人 服部
Noriaki Matsui
禮朗 松井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2006238514A priority Critical patent/JP2008055584A/ja
Publication of JP2008055584A publication Critical patent/JP2008055584A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Manipulator (AREA)

Abstract

【課題】ロボットによる物体把持動作の正確性を向上させる。
【解決手段】ロボット1は、物体50を把持する手部124を有する腕部12、物体50を撮像してステレオ画像を得るステレオカメラ101、物体50の赤外線反射スペクトルを計測するための赤外線光源125及び赤外線センサ126、ステレオ画像を用いて物体50の形状を推定する形状推定部111、赤外線反射スペクトルを用いて物体50の材質を推定する材質推定部112、並びに、物体50の形状及び材質に適応した腕部12の動作内容を決定する動作計画部115を備える。
【選択図】図2

Description

本発明は、物体把持を行うロボットに関する。
作業環境内に存在する物体を認識して把持動作を実行するロボットが従来から提案されている。例えば、特許文献1には、ステレオカメラを用いて作業環境の3次元データを取得し、取得した3次元データによって環境内に存在する把持対象物体の位置及び形状を認識し、これに対する把持動作を実行するロボットが開示されている。
特許文献2には、人の熱線を検知するための赤外線センサをロボットハンドの把持部に備え、赤外線センサの検知結果を用いてロボットハンドの把持部を人の体温に近い温度に制御するロボットが開示されている。
特開2004−1122号公報 特開2004−58188号公報
特許文献1に開示されているような物体把持を行う従来のロボットは、視覚センサによって得られたデータ、具体的には、ステレオカメラによって得られたステレオ画像データやレンジセンサによって得られた距離画像データに基づいて把持対象物体の形状を認識し、認識した把持対象物体の形状に適応した把持動作を実行する。しかしながら、形状が同一又は近似していても材質が互いに異なっている物体の間では、物体を把持する際の最適な把持位置や把持力の大きさが異なる場合がある。
本発明は上述した事情を考慮してなされたものであり、形状認識のみを行う場合に比べて把持対象物体をより正確に認識することにより、ロボットが実行する物体把持動作の正確性を向上させることを目的とする。
本発明の第1の態様にかかるロボットは、把持対象物体の把持動作を実行するロボットであって、前記把持対象物体を把持可能なエンドエフェクタを有する腕部と、前記把持対象物体の画像データを取得する視覚センサと、前記把持対象物体の材質を特定するための計測データを取得する計測データ取得部と、前記画像データに基づいて前記把持対象物体の形状を推定する形状推定部と、前記計測データに基づいて前記把持対象物体の材質を推定する材質推定部と、前記把持対象物体の形状及び材質に適応した前記腕部の動作内容を決定する動作計画部とを備える。このような構成により、把持対象物体の材質を物体把持動作を決定する際の判断要素とすることができる。つまり、把持対象物体を特定するための判断材料の増加によって把持対象物体の特定精度を向上させることができ、確実な物体把持動作をロボットに実行させることができる。
なお、上述した本発明の第1の態様にかかるロボットにおいて、前記画像データは、ステレオカメラによって得られるステレオ画像及びレンジセンサによって得られる距離画像のいずれかとすればよい。
上述した本発明の第1の態様にかかるロボットにおいて、前記計測データは赤外線反射スペクトルとすることができる。より具体的には、前記材質推定部が、前記計測データ取得部によって得られた赤外線反射スペクトルを基準物質の赤外線反射スペクトルと照合することにより、前記把持対象物体の材質を推定するよう構成してもよい。
上述した本発明の第1の態様にかかるロボットにおいて、前記計測データ取得部が、赤外線光源と、前記把持対象物体に対して前記赤外線光源から赤外線を照射して得られる赤外線反射スペクトルを計測する赤外線センサとを備えるよう構成してもよい。なお、前記赤外線光源及び前記赤外線センサを前記エンドエフェクタに設けることが望ましい。このような構成により、赤外線光源及び赤外線センサを把持対象物体の近傍に移動した状態で赤外線反射スペクトルを取得できるため、把持対象物体の赤外線反射スペクトルを正確に取得することができる。
上述した本発明の第1の態様にかかるロボットは、複数の物体の把持情報が登録されたデータベースと、前記形状推定部及び前記材質推定部によって推定された形状及び材質に基づいて前記データベースを検索することにより、推定された形状及び材質に対応する把持情報を取得する検索部とをさらに備えることが望ましく、前記動作計画部が、前記検索部によって取得した把持情報に基づいて前記腕部の動作内容を決定することが望ましい。このような構成により、把持動作の都度、把持対象物体の形状や材質をパラメータとして把持動作を演算処理によって算出する場合に比べて、把持動作の作成に要する処理負荷を削減できる。このため、把持対象物体に適した把持動作を高速に行うことができる。
さらに、前記把持対象物体に対する把持動作の実行結果に基づいて前記データベースに登録された前記把持情報を更新することが望ましい。このような構成により、過去の把持動作の経験を蓄積できるため、ロボットによる把持動作の最適化を行うことができる。
本発明の第2の態様にかかる方法は、ロボットによる物体の把持方法である。具体的には、視覚センサによる取得情報に基づいて把持対象物体の形状を推定し、前記把持対象物体の赤外線の反射率に基づいて前記把持対象物体の材質を推定し、推定した前記把持対象物体の形状及び材質に応じて、前記把持対象物体を把持するロボット動作を作成することを特徴とする。これにより、把持対象物体の材質をロボットによる物体把持動作を決定する際の判断要素とすることができる。つまり、把持対象物体を特定するための判断材料の増加によって把持対象物体の特定精度を向上させることができ、確実な物体把持動作をロボットに実行させることができる。
本発明により、物体把持動作の正確性を向上させたロボット及びロボットによる物体把持方法を提供することができる。
以下では、本発明を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。各図面において、同一要素には同一の符号が付されており、説明の明確化のため、必要に応じて重複説明は省略する。
発明の実施の形態1.
本実施の形態にかかるロボット1は、ステレオカメラ101によって取得したステレオ画像データを元に把持対象である物体50の位置及び形状を推定し、赤外線センサ126によって得た赤外線反射スペクトルから物体50の材質を推定し、推定した物体50の形状及び材質に適応した把持動作を実行するものである。
本実施の形態にかかるロボット1の外観を図1に示す。頭部10は、胴体部11に連結されている。また、胴体部11には、腕部12が連結されている。より詳細には、腕部12に含まれる上腕部121が胴体部11と肩関節機構(不図示)を介して連結され、上腕部121と前腕部123とが肘関節部122を介して連結され、前腕部123の先端に手部124が設けられている。ここで、手部124は、物体50を把持するエンドエフェクタである。また、胴体部11にはロボット1の移動機構である車輪131及び132が設けられている。
ロボット1の頭部10には、外界を撮影可能な視覚センサとしてのステレオカメラ101が設けられている。一方、手部124には、赤外線を照射する赤外線光源125と、赤外線反射スペクトルを取得するための赤外線センサ126が設けられている。具体的には、赤外線光源125から照射される赤外線を物体50に入射し、物体50の赤外線波長領域での分光反射率、つまり赤外線反射スペクトルを赤外線センサ126によって取得する。
続いて以下では、物体50の形状及び材質の推定結果を利用して物体50の把持動作を実行する処理について、図2及び図3を用いて詳細に説明する。図2のブロック図は、物体50の把持を実行する処理に関係するロボット1の主要部の構成を示している。
図2において、計測データ取得部110は、物体50の材質特定に使用するための計測データを取得する。本実施の形態では、物体50の材質を特定するための計測データとして赤外線反射スペクトルを利用するため、計測データ取得部110は、赤外線光源125及び赤外線センサ126を有している。
形状推定部111は、ステレオカメラ101によって撮影されたステレオ画像データを用いて物体50の三次元形状を算出する。具体的には、ステレオカメラ101によって撮影したステレオ画像データから対応点を検出し、対応点の3次元位置を復元する。ここで、ステレオ画像における対応点の探索は、複数の撮影画像に対する時空間微分の拘束式を用いた勾配法や相関法等の公知の手法を適用して行えばよい。
材質推定部112は、赤外線センサ126によって取得された赤外線反射スペクトルを、ROM(Read Only Memory)等の記憶部(不図示)に保持されている基準物質の赤外線反射スペクトルと照合することによって物体50の材質を判定する。例えば、金属、ABS及びポリカーボネート等のプラスチック、並びに木材といった基準物質の赤外線反射スペクトルを予め保持しておけばよい。
物体情報データベース113は、物体の形状及び材質に関する情報、並びに、物体を把持するための把持情報が関連付けて格納されたデータベースである。把持情報の具体例は、手部124による適切な把持位置や把持力に関する情報のほか、腕部12の移動方向及び移動速度等の情報である。例えば、物体50が上下2つに分離する物体が重ねられた集合物である場合は、下側の物体を把持位置とする把持情報を物体情報データベース113に登録するとよい。また、例えば、物体50の形状が球体であり、かつ物体50が滑り易い材質である場合は、物体50の重心位置、つまり球体の中心より下側を把持位置とする把持情報を登録するとよい。
検索部114は、形状推定部111において算出した物体50の形状と、材質推定部112において判定した物体50の材質を、物体情報データベース113の格納データと照合する。当該照合の結果、物体50に対応する物体を特定できた場合は、特定した物体の把持情報を物体情報データベース113から取得する。なお、検索部114は、物体50の形状だけでなく、ステレオカメラ101による撮影画像から得られる物体50のテクスチャを併せて照合することとしてもよい。この場合、物体のテクスチャ情報を物体情報データベース113に格納しておけばよい。
動作計画部115は、物体50の位置及び形状並びに物体50に対応する把持情報を元に、物体50を把持するための腕部12の動作を決定し、腕部12の動作情報を制御部116に出力する。
制御部116は、頭部10、腕部12、車輪132及び133の位置、角度、速度、角速度等を検出するためにロボット1が備えているエンコーダ(不図示)や関節角センサ(不図示)等の内界センサの計測情報を収集し、頭部10、腕部12、車輪132及び133を駆動するための制御信号を、これらを駆動する駆動部に対して出力する。さらに、制御部116は、動作計画部115によって決定された腕部12の移動経路に従って腕部12を動作させるための制御信号をアーム駆動部117に出力する。アーム駆動部117は、腕部12のアクチュエータを動作させるための駆動回路である。
次に、物体50の形状及び材質の認識から物体把持動作を実行するまでの一連の処理手順を、図3のフローチャートを用いて説明する。まずステップS101では、ステレオカメラ101によって物体50を撮像する。ステップS102では、形状推定部111が、ステレオカメラ101によって得たステレオ画像を用いて物体50の三次元位置及び形状を推定する。
ステップS103では、赤外線光源125によって物体50に赤外線を照射し、赤外線センサ126によって物体50の赤外線反射スペクトルを取得する。ステップS104では、材質推定部112が、物体50の赤外線反射スペクトルを基準物質の反射スペクトルと照合して物体50の材質を判定する。
ステップS105では、検索部114が、物体50の形状及び材質を物体情報データベース113の格納データと照合する。物体50の形状及び材質に対応する物体の情報が物体情報データベース113に登録されている場合は、対応する把持情報を取得する(ステップS106)。一方、物体50の形状及び材質に対応する物体の情報が物体情報データベース113に登録されていない場合は、物体50の形状及び材質を新たな物体の情報として物体情報データベース113に格納する(ステップS107)。
ステップS108では、物体50の位置及び形状並びに物体50に対応する把持情報を用いて、物体50に適した把持動作を実行する。なお、物体50に対応する記録が物体情報データベース113に存在しなかった場合は、物体50の形状及び材質から決定した把持動作を実行する。例えば、物体50の形状から物体50の重心位置を演算し、物体50の形状及び材質から物体50の質量を演算し、物体50の材質、重心及び質量に相応する把持位置及び把持力を決定すればよい。
ステップS109では、物体50に対する把持動作の実行結果をもとに物体情報データベース113を更新する。具体的には、物体50の把持に成功した把持位置及び把持力の情報を、把持情報として物体情報データベース113に格納する。
上述したように、本実施の形態にかかるロボット1は、赤外線光源125及び赤外線センサ126によって得られた赤外線反射スペクトルを用いて物体50の材質を特定し、特定した物体50の材質を用いて把持動作の内容を決定する。これにより、同じ形状を有する物体であっても、材質が異なれば異なる物体として認識することができ、材質に応じた把持動作、把持位置及び把持力などを採用した動作計画が可能となる。すなわち、把持対象物体を特定するための判断材料の増加によって把持対象物体の特定精度を向上させることができ、確実な物体把持動作をロボットに実行させることができる。
なお、ロボット1の動作環境が暗いためにステレオカメラ101の撮影画像による物体50のテクスチャの特定が困難である場合でも、赤外線反射スペクトルによる物体材質特定は可能である。したがって本発明は、テクスチャによる把持対象物体の特定が困難である場合に、把持対象物体の特定を詳細に実行するための補助手段としても有効である。
上述した発明の実施の形態1にかかるロボット1は、ステレオカメラ101によって得たステレオ画像をもとに物体50の形状を推定することとしたが、レンジセンサによって外界の距離画像を取得し、当該距離画像を用いて物体50の形状を推定してもよい。また、物体50の形状の特定に熱画像を使用してもよい。可視光による形状取得が困難な場合に有効である。
また、発明の実施の形態1にかかるロボット1は、赤外線光源125及び赤外線センサ126を手部124に固定することとしたが、これらをロボット1の他の部位に設けることも可能である。しかしながら、赤外線光源125及び赤外線センサ126を手部124の近傍に設ければ、赤外線光源125及び赤外線センサ126を物体50の近傍に配置した状態で赤外線反射スペクトルを取得することができる。このため、発明の実施の形態1の構成は、物体50の赤外線反射スペクトルを正確に取得できる点で有効である。
また、発明の実施の形態1にかかるロボット1は、物体50の形状及び材質を物体情報データベース113の格納情報と照合するものであるが、物体50の形状及び材質に応じた把持動作を物体情報データベース113と照合せずに決定してもよい。しかしながら、把持動作の都度、把持対象物体の形状や材質をパラメータとして把持動作を演算処理によって算出するのでは、動作作成に要する処理負荷が大きい。また、把持対象物体の落下など過去と同じ失敗動作を繰り返す可能性が高い。これに対して、発明の実施の形態1にかかるロボット1は、物体情報データベース113に登録された把持位置及び把持力等の把持情報を参照して腕部12の動作を決定するため、把持対象物体に適した把持動作を高速に行うことができる。また、物体情報データベース113に登録された把持情報を把持動作の実行結果によって更新することにより、過去の経験を蓄積し、把持動作の最適化を行うことができる。
なお、発明の実施の形態1の物体情報データベース113には、把持対象物体の材質に関する情報ではなく、材質を反映している計測データを登録してもよい。つまり、発明の実施の形態1であれば、赤外線反射スペクトルを登録すればよい。
さらに、本発明は上述した実施の形態のみに限定されるものではなく、既に述べた本発明の要旨を逸脱しない範囲において種々の変更が可能であることは勿論である。
発明の実施の形態1にかかるロボットの外観を示す図である。 発明の実施の形態1にかかるロボットの内部構成を示すブロック図である。 発明の実施の形態1にかかるロボットが行う物体把持動作を示すフローチャートである。
符号の説明
1 ロボット
10 頭部
11 胴体部
12 腕部
101 ステレオカメラ
110 計測データ取得部
111 形状推定部
112 材質推定部
113 物体情報データベース
114 検索部
115 動作計画部
116 制御部
117 アーム駆動部
121 上腕部
122 肘関節機構
123 前腕部
124 手部
125 赤外線光源
126 赤外線センサ
50 物体

Claims (9)

  1. 把持対象物体の把持動作を実行するロボットであって、
    前記把持対象物体を把持可能なエンドエフェクタを有する腕部と、
    前記把持対象物体の画像データを取得する視覚センサと、
    前記把持対象物体の材質を特定するための計測データを取得する計測データ取得部と、
    前記画像データに基づいて前記把持対象物体の形状を推定する形状推定部と、
    前記計測データに基づいて前記把持対象物体の材質を推定する材質推定部と、
    前記把持対象物体の形状及び材質に適応した前記腕部の動作内容を決定する動作計画部と、
    を備える物体把持ロボット。
  2. 前記画像データは、ステレオカメラによって得られるステレオ画像及びレンジセンサによって得られる距離画像のいずれかである請求項1に記載の物体把持ロボット。
  3. 前記計測データは赤外線反射スペクトルである請求項1に記載の物体把持ロボット。
  4. 前記材質推定部は、前記計測データ取得部によって得られた赤外線反射スペクトルを基準物質の赤外線反射スペクトルと照合することにより、前記把持対象物体の材質を特定する請求項3に記載の物体把持ロボット。
  5. 前記計測データ取得部は、
    赤外線光源と、
    前記把持対象物体に対して前記赤外線光源から赤外線を照射して得られる赤外線反射スペクトルを計測する赤外線センサとを備え、
    前記赤外線光源及び前記赤外線センサが前記エンドエフェクタに設けられている請求項3に記載の物体把持ロボット。
  6. 複数の物体の把持情報が登録されたデータベースと、
    前記形状推定部及び前記材質推定部によって推定された形状及び材質に基づいて前記データベースを検索することにより、推定された形状及び材質に対応する把持情報を取得する検索部と、
    をさらに備え、
    前記動作計画部は、前記検索部によって取得した把持情報に基づいて前記腕部の動作内容を決定する請求項1に記載の物体把持ロボット。
  7. 前記把持情報は、前記エンドエフェクタにより前記把持対象物体を把持する際の把持位置に関する情報及び把持力に関する情報の少なくとも一方を含む請求項6に記載の物体把持ロボット。
  8. 前記把持対象物体に対する把持動作の実行結果に基づいて前記把持情報を更新する請求項6又は7に記載の物体把持ロボット。
  9. ロボットによる物体の把持方法であって、
    視覚センサによる取得情報に基づいて把持対象物体の形状を推定し、
    前記把持対象物体の赤外線の反射率に基づいて前記把持対象物体の材質を推定し、
    推定した前記把持対象物体の形状及び材質に応じて、前記把持対象物体を把持するロボット動作を作成することを特徴とする方法。
JP2006238514A 2006-09-04 2006-09-04 物体把持を行うロボット及びロボットによる物体の把持方法 Pending JP2008055584A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006238514A JP2008055584A (ja) 2006-09-04 2006-09-04 物体把持を行うロボット及びロボットによる物体の把持方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006238514A JP2008055584A (ja) 2006-09-04 2006-09-04 物体把持を行うロボット及びロボットによる物体の把持方法

Publications (1)

Publication Number Publication Date
JP2008055584A true JP2008055584A (ja) 2008-03-13

Family

ID=39238921

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006238514A Pending JP2008055584A (ja) 2006-09-04 2006-09-04 物体把持を行うロボット及びロボットによる物体の把持方法

Country Status (1)

Country Link
JP (1) JP2008055584A (ja)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010172992A (ja) * 2009-01-28 2010-08-12 Toyota Motor Corp ロボット制御装置及び方法
JP2011033497A (ja) * 2009-08-03 2011-02-17 Honda Motor Co Ltd 環境認識システム、環境認識方法およびロボット
JP2011058858A (ja) * 2009-09-08 2011-03-24 Honda Motor Co Ltd 視覚装置
JP2012011531A (ja) * 2010-07-05 2012-01-19 Yaskawa Electric Corp ロボット装置およびロボット装置による把持方法
KR101709651B1 (ko) * 2015-09-25 2017-02-24 대한민국 파지 동작 지원 장치 및 그의 제어 방법
JP2018504333A (ja) * 2014-12-16 2018-02-15 アマゾン テクノロジーズ インコーポレイテッド 在庫システムにおけるロボットによるアイテム把持
WO2019038945A1 (ja) * 2017-08-23 2019-02-28 Kyoto Robotics株式会社 ピッキングシステム
CN110091331A (zh) * 2019-05-06 2019-08-06 广东工业大学 基于机械手的物体抓取方法、装置、设备以及存储介质
CN110355774A (zh) * 2018-04-10 2019-10-22 发那科株式会社 手控制装置及手控制***
WO2020008538A1 (ja) * 2018-07-03 2020-01-09 三菱電機株式会社 材質推定装置及びロボット
JP2020023050A (ja) * 2019-11-08 2020-02-13 株式会社Preferred Networks 触覚情報推定装置、触覚情報推定方法及びプログラム
WO2020075423A1 (ja) * 2018-10-10 2020-04-16 ソニー株式会社 ロボット制御装置、ロボット制御方法及びロボット制御プログラム
WO2020166134A1 (ja) * 2019-02-13 2020-08-20 日本金銭機械株式会社 ロボットハンド付きロボットアームの制御方法、制御装置および制御システム
US11590658B2 (en) 2018-01-16 2023-02-28 Preferred Networks, Inc. Tactile information estimation apparatus, tactile information estimation method, and program
KR20230082860A (ko) * 2021-12-02 2023-06-09 주식회사 씨랩 탄성 그리퍼를 구비한 수중드론 로봇암
CN116766212A (zh) * 2023-08-17 2023-09-19 深圳市心流科技有限公司 一种仿生手控制方法、装置、设备及存储介质

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01205993A (ja) * 1988-02-09 1989-08-18 Nec Corp ロボット
JPH0495852A (ja) * 1990-08-14 1992-03-27 Toshiba Corp 発塵物分析装置
JPH09257569A (ja) * 1996-03-18 1997-10-03 Sony Corp 赤外線による材質検出が容易な樹脂製筐体と赤外線による樹脂製筐体の材質検出方法と樹脂製筐体の材質検出・分解方法および材質検出・分解装置
JPH10249767A (ja) * 1997-03-13 1998-09-22 Mitsubishi Electric Corp 移動型物体把持装置及びその制御方法
JP2003094377A (ja) * 2001-09-25 2003-04-03 Ricoh Co Ltd 作業用ロボットのハンドと作業用ロボットと作業用ロボットの制御装置及び作業用ロボットの処理プログラムを記憶した外部記憶媒体
WO2006006624A1 (ja) * 2004-07-13 2006-01-19 Matsushita Electric Industrial Co., Ltd. 物品保持システム、ロボット及びロボット制御方法
JP2006102881A (ja) * 2004-10-06 2006-04-20 Nagasaki Prefecture 把持ロボット装置
JP2008049459A (ja) * 2006-08-28 2008-03-06 Toshiba Corp マニピュレータ制御システム、マニピュレータ制御方法およびプログラム

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01205993A (ja) * 1988-02-09 1989-08-18 Nec Corp ロボット
JPH0495852A (ja) * 1990-08-14 1992-03-27 Toshiba Corp 発塵物分析装置
JPH09257569A (ja) * 1996-03-18 1997-10-03 Sony Corp 赤外線による材質検出が容易な樹脂製筐体と赤外線による樹脂製筐体の材質検出方法と樹脂製筐体の材質検出・分解方法および材質検出・分解装置
JPH10249767A (ja) * 1997-03-13 1998-09-22 Mitsubishi Electric Corp 移動型物体把持装置及びその制御方法
JP2003094377A (ja) * 2001-09-25 2003-04-03 Ricoh Co Ltd 作業用ロボットのハンドと作業用ロボットと作業用ロボットの制御装置及び作業用ロボットの処理プログラムを記憶した外部記憶媒体
WO2006006624A1 (ja) * 2004-07-13 2006-01-19 Matsushita Electric Industrial Co., Ltd. 物品保持システム、ロボット及びロボット制御方法
JP2006102881A (ja) * 2004-10-06 2006-04-20 Nagasaki Prefecture 把持ロボット装置
JP2008049459A (ja) * 2006-08-28 2008-03-06 Toshiba Corp マニピュレータ制御システム、マニピュレータ制御方法およびプログラム

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010172992A (ja) * 2009-01-28 2010-08-12 Toyota Motor Corp ロボット制御装置及び方法
JP2011033497A (ja) * 2009-08-03 2011-02-17 Honda Motor Co Ltd 環境認識システム、環境認識方法およびロボット
JP2011058858A (ja) * 2009-09-08 2011-03-24 Honda Motor Co Ltd 視覚装置
JP2012011531A (ja) * 2010-07-05 2012-01-19 Yaskawa Electric Corp ロボット装置およびロボット装置による把持方法
JP2018504333A (ja) * 2014-12-16 2018-02-15 アマゾン テクノロジーズ インコーポレイテッド 在庫システムにおけるロボットによるアイテム把持
US10272566B2 (en) 2014-12-16 2019-04-30 Amazon Technologies, Inc. Robotic grasping of items in inventory system
KR101709651B1 (ko) * 2015-09-25 2017-02-24 대한민국 파지 동작 지원 장치 및 그의 제어 방법
WO2019038945A1 (ja) * 2017-08-23 2019-02-28 Kyoto Robotics株式会社 ピッキングシステム
JP2019038047A (ja) * 2017-08-23 2019-03-14 Kyoto Robotics株式会社 ピッキングシステム
US11590658B2 (en) 2018-01-16 2023-02-28 Preferred Networks, Inc. Tactile information estimation apparatus, tactile information estimation method, and program
JP2019181622A (ja) * 2018-04-10 2019-10-24 ファナック株式会社 ハンド制御装置およびハンド制御システム
CN110355774A (zh) * 2018-04-10 2019-10-22 发那科株式会社 手控制装置及手控制***
US11207788B2 (en) 2018-04-10 2021-12-28 Fanuc Corporation Hand control apparatus and hand control system
WO2020008538A1 (ja) * 2018-07-03 2020-01-09 三菱電機株式会社 材質推定装置及びロボット
WO2020075423A1 (ja) * 2018-10-10 2020-04-16 ソニー株式会社 ロボット制御装置、ロボット制御方法及びロボット制御プログラム
WO2020166134A1 (ja) * 2019-02-13 2020-08-20 日本金銭機械株式会社 ロボットハンド付きロボットアームの制御方法、制御装置および制御システム
JP2020131306A (ja) * 2019-02-13 2020-08-31 日本金銭機械株式会社 ロボットハンド付きロボットアームの制御方法、制御装置および制御システム
CN110091331A (zh) * 2019-05-06 2019-08-06 广东工业大学 基于机械手的物体抓取方法、装置、设备以及存储介质
JP2020023050A (ja) * 2019-11-08 2020-02-13 株式会社Preferred Networks 触覚情報推定装置、触覚情報推定方法及びプログラム
JP7249928B2 (ja) 2019-11-08 2023-03-31 株式会社Preferred Networks 触覚情報推定装置、触覚情報推定方法及びプログラム
KR20230082860A (ko) * 2021-12-02 2023-06-09 주식회사 씨랩 탄성 그리퍼를 구비한 수중드론 로봇암
KR102557033B1 (ko) * 2021-12-02 2023-07-19 주식회사 씨랩 탄성 그리퍼를 구비한 수중드론 로봇암
CN116766212A (zh) * 2023-08-17 2023-09-19 深圳市心流科技有限公司 一种仿生手控制方法、装置、设备及存储介质
CN116766212B (zh) * 2023-08-17 2023-12-19 深圳市心流科技有限公司 一种仿生手控制方法、装置、设备及存储介质

Similar Documents

Publication Publication Date Title
JP2008055584A (ja) 物体把持を行うロボット及びロボットによる物体の把持方法
US11752625B2 (en) Robot grip detection using non-contact sensors
US11975446B2 (en) Sensorized robotic gripping device
CN104057447B (zh) 机器人拾取***以及被加工物的制造方法
JP6005950B2 (ja) 手術支援装置及びその制御方法
CN101479082B (zh) 机器人装置和机器人装置的控制方法
US8855814B2 (en) Robot and control method thereof
JP2004157850A (ja) 運動検出装置
JP4578438B2 (ja) ロボット装置
JP2007319938A (ja) ロボット装置及び物体の三次元形状の取得方法
Rhee et al. Door opening control using the multi-fingered robotic hand for the indoor service robot
JPWO2019146201A1 (ja) 情報処理装置、情報処理方法及び情報処理システム
Ardón et al. Reaching and grasping of objects by humanoid robots through visual servoing
JP2008168372A (ja) ロボット装置及び形状認識方法
Zhang et al. Improving robustness of robotic grasping by fusing multi-sensor
JP2010058243A (ja) ピッキング装置
Berger et al. A multi-camera system for human detection and activity recognition
Hogan et al. Finger-sts: Combined proximity and tactile sensing for robotic manipulation
Schiebener et al. Discovery, segmentation and reactive grasping of unknown objects
JP5218209B2 (ja) 複数の物体間の相対移動を検出する方法
JP2021045810A (ja) モーション情報生成装置、エンドエフェクタ、ロボット及びロボットシステム
KR102559105B1 (ko) 로봇 손 시스템 및 로봇 손 제어 방법
JP2016078185A (ja) ロボット
JP2023105577A (ja) ロボット遠隔操作制御装置、ロボット遠隔操作制御方法、およびプログラム
Du et al. Human‐Manipulator Interface Using Particle Filter

Legal Events

Date Code Title Description
A621 Written request for application examination

Effective date: 20090317

Free format text: JAPANESE INTERMEDIATE CODE: A621

A977 Report on retrieval

Effective date: 20101008

Free format text: JAPANESE INTERMEDIATE CODE: A971007

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101019

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110104

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110426