JP2012125886A - 物体把持装置、物体把持装置の制御方法、およびプログラム - Google Patents

物体把持装置、物体把持装置の制御方法、およびプログラム Download PDF

Info

Publication number
JP2012125886A
JP2012125886A JP2010279868A JP2010279868A JP2012125886A JP 2012125886 A JP2012125886 A JP 2012125886A JP 2010279868 A JP2010279868 A JP 2010279868A JP 2010279868 A JP2010279868 A JP 2010279868A JP 2012125886 A JP2012125886 A JP 2012125886A
Authority
JP
Japan
Prior art keywords
gripping
workpiece
candidate
orientation
dimensional position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010279868A
Other languages
English (en)
Other versions
JP5767464B2 (ja
Inventor
Yuichiro Iio
裕一郎 飯尾
Hirosuke Mitarai
裕輔 御手洗
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2010279868A priority Critical patent/JP5767464B2/ja
Priority to US13/312,976 priority patent/US9302391B2/en
Publication of JP2012125886A publication Critical patent/JP2012125886A/ja
Application granted granted Critical
Publication of JP5767464B2 publication Critical patent/JP5767464B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0014Image feed-back for automatic industrial control, e.g. robot with camera
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40053Pick 3-D object from pile of objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Manipulator (AREA)

Abstract

【課題】ピッキング時の干渉によるワークの位置姿勢の変動の影響を低減することを目的とする。
【解決手段】複数のワークを含む領域の画像を撮像する撮像部と、複数のワークを含む領域の距離情報を取得する取得部と、画像と距離情報とに基づいて、複数のワークから複数の把持候補ワークの三次元位置姿勢を計測して三次元位置姿勢情報を生成する計測部と、計測部により計測された前記三次元位置姿勢情報に基づいて、把持候補ワークから把持対象ワークを選択する選択部と、把持対象ワークを把持する把持部と、把持部により把持対象ワークが把持されている間に、把持候補ワークの三次元位置姿勢を所定の時間間隔で計測して三次元位置姿勢情報を更新する更新部と、を備え、選択部は、把持部による把持が終了した場合、更新部により更新された把持候補ワークの前記三次元位置姿勢情報に基づいて、次の把持対象ワークを選択する。
【選択図】 図1

Description

発明は、ロボット等の産業機械によって、山積みされたワークのビンピッキングを行う物体把持装置、物体把持装置の制御方法、およびプログラムに関する。特に、トレイに不規則に山積みされたワークの三次元位置姿勢を計測してピッキングする物体把持装置、物体把持装置の制御方法、およびプログラムに関する。
産業用ロボットを用いてトレイに不規則に山積みされたワークをピッキングすることにより部品供給や組立工程の自動化を実現する装置に関しては、多くの研究報告が寄せられており、例えば特許文献1が挙げられる。特許文献1では、予め用意した三次元モデルを用いたパターンマッチングによりワークの位置姿勢を認識し、ロボットによるピッキングを行っている。特許文献1では、一度に1つのワークの三次元位置姿勢しか計測しないため、山積みされたワークのビンピッキング時には、トレイに積まれたワークの個数分だけ位置姿勢計測処理を繰り返す必要がある。そこで、ビンピッキング時の位置姿勢計測処理の回数を削減するために、一度の計測動作により複数のワークの三次元位置姿勢を取得し保持しておく手法が考えられている。非特許文献1では、複雑な形状のワークを山積みにした状態で複数ワークの三次元位置姿勢認識を行っている。
特許03377465号公報 特開2009−128201号公報
IHI技法 Vol.48 No.1 (2008-3) 佐藤宏介井口征士:液晶レンジファインダ−液晶シャッタによる高速距離画像計測システム−,信学論,J71-D,No.7,pp1249-1257.1988-7
しかし、複数のワークの三次元位置姿勢を一度に計測した場合、計測後のワークのピッキング時に起こり得るロボットアームやピッキング対象ワークと他のワークとの干渉により、計測したワークの位置姿勢が変動することがある。この場合、位置姿勢が変動したワークは再計測を行う必要があり処理に時間を要するという課題がある。
上記の課題に鑑み、本発明は、ピッキング時の干渉によるワークの位置姿勢の変動の影響を低減することを目的とする。
上記の目的を達成する本発明に係る物体把持装置は、
複数のワークを含む領域の画像を撮像する撮像手段と、
前記複数のワークを含む領域の距離情報を取得する取得手段と、
前記画像と前記距離情報とに基づいて、前記複数のワークから複数の把持候補ワークの三次元位置姿勢を計測して三次元位置姿勢情報を生成する計測手段と、
前記計測手段により計測された前記三次元位置姿勢情報に基づいて、前記把持候補ワークから把持対象ワークを選択する選択手段と、
前記把持対象ワークを把持する把持手段と、
前記把持手段により前記把持対象ワークが把持されている間に、前記把持候補ワークの三次元位置姿勢を所定の時間間隔で計測して三次元位置姿勢情報を更新する更新手段と、を備え、
前記選択手段は、前記把持手段による前記把持が終了した場合、前記更新手段により更新された前記把持候補ワークの前記三次元位置姿勢情報に基づいて、次の把持対象ワークを選択することを特徴とする。
本発明によれば、ピッキング時の干渉によるワークの位置姿勢の変動の影響を低減することができる。
第1実施形態に係る物体把持装置の構成例を示すブロック図。 第1実施形態に係る物体把持装置の構成例を示す模式図。 第1実施形態に係る物体把持装置の処理の流れを示すフローチャート。 第1実施形態に係る物体把持装置の処理の様子を示す模式図。 第2実施形態に係るピッキング対象ワーク選択アルゴリズムの処理の流れを示すフローチャート。 (a)候補ワーク402がピッキング候補として選択されたときの例を示す図、(b)候補ワーク402が選択されたときのステップS505乃至ステップS506の各処理の一例を示す。 第3実施形態に係るピッキング実行アルゴリズムの処理の流れを示すフローチャート。
本発明における山積みピッキングとは、不規則に配置された複数のワークを、物体把持装置として機能するロボットアームを用いて把持して所定の場所へ移動させる動作を指す。なお、ワークごとにロボットアームが把持するピッキングポイント(把持点)が予め1箇所以上定められているものとする。
(第1実施形態)
第1実施形態に係る物体把持装置は、複数のピッキング候補ワーク(把持候補ワーク)の位置姿勢を予め取得し、把持対象ワークをピッキング(把持)している間に他の複数のピッキング候補ワークの位置姿勢をトラッキングして更新するものである。
まず、図1を参照して、第1実施形態に係る物体把持装置1100の各処理部を説明し、図2を参照して、物体把持装置1100の構成例を説明する。なお、図2に示される構成例は、本発明に係る物体把持装置を実現する構成の一例を示すものであり、必ずしも図2に示される構成例に限定されない。
図1に示されるように、物体把持装置1100は、撮像部1101と、距離情報取得部1102と、三次元位置姿勢計測部1103と、ピッキング対象ワーク選択部1104と、トラッキング部1105と、ピッキング部1106とを備える。また、データベース1200は、ピッキングに必要な情報を保持するデータベースである。データベース1200には、ワークの三次元位置姿勢検出に必要なCADデータやピッキング部1106が対象ワークのどの部位をピッキングするかといった情報など、事前に用意されたデータが格納されている。
撮像部1101は、図2に示される山積みされた対象ワーク210の可視画像を撮像する。
距離情報取得部1102は、図2に示される山積みされた対象ワーク210の距離情報を取得する。図2は、撮像部1101、距離情報取得部1102の構成例を示している。つまり、撮像部1101は、図2におけるグローバルカメラ201により構成され、距離情報取得部1102はグローバルカメラ201とグローバルプロジェクタ202とにより構成されている。距離情報の算出手法については後述する。
三次元位置姿勢計測部1103は、撮像部1101により撮像された可視画像および距離情報取得部1102により取得された距離情報に基づいて、山積みされた対象ワーク210から複数のピッキング候補ワークを検出する。そして、検出した複数のピッキング候補ワークの三次元位置姿勢を計測して三次元位置姿勢情報を生成する。三次元位置姿勢の計測方法については後述する。
ピッキング対象ワーク選択部1104は、三次元位置姿勢計測部1103により計測された複数のピッキング候補ワークの中からピッキングするワークを選択する。
トラッキング部1105は、ピッキング部1106によりピッキング動作が行われている間に、ピッキング対象ワーク選択部1104により選択されたピッキング対象ワーク以外の候補ワークに対して、三次元位置姿勢計測部1103により計測された三次元位置姿勢情報に基づいて、その概略位置姿勢をトラッキングする。このトラッキング手法については後述する。
ピッキング部1106は、データベース1200から取得されるワークのピッキングポイント情報、三次元位置姿勢計測部1103により計測された三次元位置姿勢情報、あるいはトラッキング部1105によりトラッキングされたワークの概略位置姿勢情報に基づいて、例えば図2に示されるロボットアーム203を動作して、ピッキング対象ワーク選択部1104により選択されたワークをピッキングする。
次に、図3のフローチャートを参照して、第1実施形態に係る物体把持装置における処理の流れを説明する。
まず、ステップS301において、撮像部1101は、グローバルカメラ201により山積みされた対象ワーク210を撮像する。
ステップS302において、距離情報取得部1102は、山積みされた対象ワーク210全体に対して距離情報を取得する。距離情報の取得方法については限定しない。例えば、非特許文献2に記載されるように、二値縞パターンを時系列的に投影することにより測定空間を分割して、対象領域の距離情報を取得するアクティブステレオ方式による測定により、距離情報を取得することができる。図2に示される構成例では、グローバルプロジェクタ202が二値縞パターンを山積みされた対象ワーク210へ投影する。そして、グローバルカメラ201が、その二値縞パターンを投影された山積みされた対象ワーク210を撮像する。これにより、山積みされた対象ワーク210までの距離情報を画素ごとに保持する距離画像を取得することができる。図4(a)は、可視画像・距離情報取得の模式図を示す。グローバルカメラ201により山積みされた対象ワーク210を撮像して可視画像が取得される。また、上述のようにグローバルプロジェクタ202により二値縞パターンが投影された山積みされた対象ワーク210をグローバルカメラ201が撮像することにより距離情報が取得される。
ステップS303において、三次元位置姿勢計測部1103は、ステップS301で取得された可視画像を用いて山積みされた対象ワーク210から複数のピッキング候補ワークの概位置姿勢を検出する。そして、検出された概略位置姿勢情報およびステップS302で取得された距離情報を用いて、ピッキング候補ワークの三次元位置姿勢を計測する。ここでは、複数のピッキング候補ワークの三次元位置姿勢の検出が目的であり、任意の既存手法を用いて計測が可能である。例えば、特許文献2では、可視画像から抽出される直線状明領域情報を用いて対象ワークの概略位置姿勢を推定し、推定結果と距離情報とを用いて三次元位置姿勢推定を行う手法が提案されている。図4(b)は、候補ワークの検出および三次元位置姿勢計測の模式図を示す。図4(b)に示されるように、取得された可視画像から、斜線で示されたた6つの候補ワークを検出し、図の右部に示すように、検出された各候補ワークの三次元位置姿勢情報(位置:x,y,z,姿勢:rx,ry,rz)を計測する。6つの候補ワークとは、候補ワーク401、候補ワーク402、候補ワーク403、候補ワーク404、候補ワーク405、および候補ワーク406である。
ステップS304において、三次元位置姿勢計測部1103は、ステップS303で三次元位置姿勢が検出された候補ワークが1つ以上存在するか否かを判定する。候補ワークが1つ以上存在すると判定された場合(ステップS304;YES)、ステップS305へ進む。一方、候補ワークが1つも存在しないと判定された場合(ステップS304;NO)、処理を終了する。
ステップS305において、ピッキング対象ワーク選択部1104は、三次元位置姿勢計測部1103により計測された三次元位置姿勢情報と、三次元位置姿勢情報ごとに定められた選択条件とに基づいて、ステップS303で検出された候補ワークからピッキング対象ワークを1つ選択する。また、ここで選択されたたピッキング対象ワーク以外の候補ワークをトラッキング対象ワークとする。ピッキング対象ワーク選択部1104は、ステップS303で計測された候補ワークの三次元位置姿勢情報に基づいてピッキング対象ワークを選択する。本実施形態では、候補ワークのうち最も山の上にあるものからピッキングを行うものとする。これは、候補ワークの奥行き情報から容易に推定可能である。図4(c)は、ピッキング対象ワークの選択の様子を示す。各候補ワークの三次元位置姿勢情報のz座標の値を参照し、最も高い位置にある候補ワークをピッキング対象ワークとして選択する。図4(c)の場合、ピッキング対象ワーク選択部1104は、ステップS303で検出された6つの候補ワークのうち候補ワーク403をピッキング対象ワークに選択している。そして、他の候補ワーク401、候補ワーク402、候補ワーク404、候補ワーク405、および候補ワーク406をトラッキング対象ワークとして選択している。なお、ピッキング対象ワークの選択条件は自由に設定することが可能である。例えば、アームがピッキングしやすい対象ワークから順にピッキングを行うこともできる。具体的には、ステップS303で計測された三次元位置姿勢情報に基づいて、対象ワークの予め定められているピッキングポイントの位置およびその法線方向が所定の位置および向きであるものから選択するという選択条件であってもよい。また、山積みされたワークの中心位置に近いものから選択する、あるいは、ロボットアームの基準位置姿勢に近いものから選択するという選択基準であってもよい。
そして、ステップS306において、トラッキング部1105は、ステップS305で選択されたピッキング対象ワークの上部にロボットアームを移動させ、ピッキングの準備が整った後、トラッキング対象ワークのトラッキング処理を開始する。なお、トラッキングとは、ピッキング中の山積みされた対象ワーク210を含む領域の画像を時系列的に取得し、取得された画像からトラッキング対象ワークの三次元位置姿勢を推定して更新し続ける処理を指す。例えば、トラッキング対象ワークの三次元位置姿勢を所定の時間間隔で更新する処理である。本実施形態では、予めデータベース1200に登録されている対象ワークのCADモデルのエッジを画像上で対応づけ、その投影誤差を最小化することによりトラッキング処理を行い、その際に距離情報は用いない。
なお、ピッキング時に起こりうるアームとワークあるいはワーク同士の干渉は、ピッキング対象ワークの周囲にあるワークほど発生しやすい。そのため、ピッキング対象ワークの周辺にあるトラッキング対象ワークは位置姿勢変動が発生しやすいと考えられる。よって、計算コスト削減のために、トラッキング対象ワークのうちピッキング対象ワーク周辺のワークのみトラッキング処理を行ってもよい。周辺とは、例えば、ピッキング対象ワークから所定の範囲であってもよい。
また、ステップS307において、ピッキング部1106は、ステップS306でのトラッキング処理と並行して、ピッキング対象ワークのピッキング処理を制御する。ピッキング部1106は、ピッキング対象ワークの予め定められているピッキングポイントを把持し、所定の位置へピッキング対象ワークを移動させる。以降のピッキング対象ワークは、トラッキングに成功したワークの中から選択すればよい。
なお、トラッキングに失敗しトラッキング対象ワークを見失ったり、ステップS303で計測された候補ワークが1つしか存在しなかったりした場合など、何らかの原因でピッキング処理が完了した後にトラッキング対象ワークが存在しない場合がある。
そのため、ステップS308において、ピッキング対象ワーク選択部1104は、トラッキング対象ワークが存在するか否かを判定する。トラッキング対象ワークが存在すると判定された場合(ステップS308;YES)、ステップS305へ戻り、次のピッキング対象ワークを選択する。一方、トラッキング対象ワークが存在しないと判定された場合(ステップS308;NO)、ステップS301へ戻り、山積みされた候補ワークの可視画像および距離情報の取得処理から再度実行する。
トラッキングによる三次元位置姿勢推定には距離情報を用いない。そのため、ピッキング中にトラッキング対象ワークの初期位置姿勢が変動した場合、ステップS303での三次元位置姿勢計測処理の精度と比較して、トラッキングによる三次元位置姿勢推定処理の精度は劣化することが想定される。そこで、距離情報を用いて位置姿勢計測した候補ワークと、トラッキングにより推定された候補ワークとが混在する場合、ステップS305のピッキング対象ワーク選択処理においては距離情報を用いて計測した候補ワークを優先的にピッキングしてもよい。例えば、候補ワークのうち最も山の上にあるものからピッキングを行うときには、距離情報を用いて計測された候補ワークのうち最も山の上にあるものをピッキングするという選択条件が考えられる。そして、距離情報を用いて計測した候補ワークが存在しないときには、トラッキング処理により推定された候補ワークをピッキングするという選択条件が考えられる。
あるいは、ピッキング処理が終了した後に、再度精密な三次元位置姿勢計測を行う方法もある。ステップS308でトラッキング対象ワークが存在すると判定され且つステップS303で計測された三次元位置姿勢からの変動がある場合、そのトラッキング対象ワークおよびその周辺のみの距離情報を再度取得し、三次元位置姿勢の計測を行う。周辺とは、トラッキング対象ワークを含む所定の範囲であってもよい。この場合も、トラッキング処理による位置姿勢情報を利用することにより、山積みされた対象ワーク210全体から三次元位置姿勢計測を行う場合と比較して高速な計測が可能となる。
このようにして、ピッキング候補ワークが全てなくなるまで処理を繰り返し、山積みされたワークのピッキングを行う。
本実施形態によれば、候補ワークの検出時に複数の候補ワークの位置姿勢を取得し、ワーク同士あるいはワークとロボットアームとの干渉の有無によらずに、複数の候補ワークの位置姿勢情報を保持する。これにより、候補ワークの位置姿勢計測にかかる時間を削減し、山積みされた候補ワーク全体をピッキングするのに要するタクトタイムを短縮することができる。
(第2実施形態)
次に、本発明の第2実施形態について説明する。第1実施形態では、複数の候補ワークを検出し、ピッキング対象ワーク以外の候補ワークをトラッキングすることにより、複数の候補ワークの位置姿勢情報を保持した。これにより、ピッキング動作ごとに三次元位置姿勢計測を行うのに要する計算時間を低減した。しかし、ピッキング動作を行う際に、ロボットアームがグローバルカメラと、トラッキング対象ワークとの間にあり、トラッキング対象ワークが遮蔽された状態でトラッキング対象ワークの三次元位置姿勢が変動すると、トラッキング対象ワークの位置姿勢をトラッキングできなくなる場合がある。
本実施形態では、ピッキング処理中にトラッキング対象ワークがロボットアームによって遮蔽されることによりトラッキング処理が失敗するケースを低減するようにピッキング対象ワークを選択する。これによりトラッキング失敗により候補ワークを見失うケースの発生を抑制することを目的とする。
物体把持装置の構成については、第1実施形態と同様であるため、説明を省略する。本実施形態では、トラッキング失敗率が低下するようなピッキング対象ワークの選択を行うため、図3のステップS305で説明したピッキング対象ワークおよびトラッキング対象ワークの選択アルゴリズムについて、図5を参照して説明する。
まず、事前に必要なデータを取得する。
ステップS501において、ピッキング対象ワーク選択部1104は、三次元位置姿勢計測部1103で計測された複数の候補ワークの三次元位置姿勢情報を取得する。
ステップS502において、ピッキング対象ワーク選択部1104は、データベース1200に予め用意された候補ワークのピッキングポイント情報、グローバルカメラの三次元位置姿勢情報、ロボットアームのCADデータ、ワークのCADデータを取得する。CADデータとは、ロボットアームまたはワークの三次元形状情報である。
そして、検出された候補ワークの数Nだけ、ステップS503乃至ステップS507の各処理を繰り返し実行する。
ステップS503において、ピッキング対象ワーク選択部1104は、ピッキングの候補ワークとして任意のワークP(i)(i=1〜N)を選択する。
ステップS504において、ピッキング対象ワーク選択部1104は、候補ワークの把持位置情報およびワークP(i)の三次元位置姿勢情報に基づいて、P(i)をピッキングする時のロボットアームの三次元位置姿勢を算出する。図6(a)は、候補ワーク402がピッキング候補として選択されたときの例を示す。ピッキング対象ワーク選択部1104は、候補ワーク402の位置姿勢情報と、ワークの把持位置情報と、ロボットアームのCADデータとから、候補ワーク402をピッキングするときのロボットアームの三次元位置姿勢を算出する。
ステップS505において、ピッキング対象ワーク選択部1104は、グローバルカメラから取得される画像に基づいて、その画像領域においてピッキング時にロボットアームによって遮蔽される領域を求め、その遮蔽領域に含まれる候補ワークを検出する。具体的には、ピッキング対象ワーク選択部1104は、ステップS504で算出されたロボットアームの三次元位置姿勢情報と、ロボットアームのCADデータと、グローバルカメラの三次元位置姿勢情報とから、グローバルカメラに対して、ロボットアームが山積みされたワーク領域のどの部分を遮蔽するかを求める。さらに、ピッキング対象ワーク選択部1104は、三次元位置姿勢計測部1103により計測された複数の候補ワークの三次元位置姿勢情報を用いて、遮蔽領域に含まれる候補ワークを検出する。
ステップS506において、ピッキング対象ワーク選択部1104は、グローバルカメラから取得される画像に基づいて、ステップS505で検出された候補ワーク上で遮蔽領域が占める割合を求める。そして、候補ワークの二次元画像上での表面積に対して遮蔽領域の占める割合(遮蔽率)を算出し、ワークiをピッキングするときのワークi以外の全ての候補ワークにおける遮蔽率の総和をS(i)とする。図6(b)は、候補ワーク402が選択されたときのステップS505乃至ステップS506の各処理の一例を示す。まず、ステップS505では、グローバルカメラと、ロボットアームと、候補ワークとのそれぞれの三次元位置姿勢情報からそれぞれの位置関係を算出し、グローバルカメラから観察した時に遮蔽される候補ワークを検出する。図6(b)では、候補ワーク402をピッキングする時には、ロボットアーム203により、候補ワーク403および候補ワーク404の一部が遮蔽されることがわかる。次に、ステップS506でS(候補ワーク402)を求める。S(候補ワーク402)は、候補ワーク401と、候補ワーク403と、候補ワーク404と、候補ワーク405と、候補ワーク406との遮蔽率の総和から求められる。図6(b)では、候補ワーク401と、候補ワーク405と、候補ワーク406とはロボットアーム203によって遮蔽されていないので遮蔽率は0となる。一方、候補ワーク403および候補ワーク404の遮蔽率は、ロボットアーム、ワークのCADデータおよび三次元位置姿勢情報から算出することができる。例えば候補ワーク403の遮蔽率を20%、候補ワーク404の遮蔽率を40%とすると、S(候補ワーク402)=0+0.2+0.4+0+0=0.6となる。
このようにしてN個の候補ワークについてS(i)を算出し、ステップS507において、ピッキング対象ワーク選択部1104は、S(i)の値が最も小さい候補ワークP(i)をピッキング対象ワークとして選択する。S(i)の値が等しい候補ワークが複数存在する場合、第1実施形態と同様に最も山の上にあるワークを選択するものとする。
本実施形態によれば、ピッキング時にロボットアームに遮蔽されることによってグローバルカメラから観察できなくなるトラッキング対象ワークを減らすことができる。また、トラッキングに失敗するワーク数を削減することで三次元位置姿勢計測処理の実行回数を低減することができる。
(第3実施形態)
次に、本発明の第3実施形態について説明する。山積みされたワークをピッキングする際、ロボットアームがピッキング対象ワークを把持する前にロボットアームとの干渉などの要因によりピッキング対象ワーク自体が動いてしまうケースが考えられる。このようなケースではピッキングに失敗する可能性が非常に高くなる。本実施形態では、トラッキング対象ワークだけではなく、ピッキング対象ワークに対しても、ピッキング処理の直前までトラッキング処理を行い、位置姿勢情報を更新する。これにより、ピッキング中にピッキング対象ワークの位置姿勢が変動した場合でも、正しく再ピッキング処理に移行できるようにし、ピッキングの失敗を防ぐようにする。
まず、図3のフローチャートを参照して、本実施形態に係る物体把持装置の処理の流れを説明する。本実施形態では、図3のフローチャートのうち、ステップS305およびステップS306の処理フローが異なるため、これらを特に詳細に説明する。
ステップS301乃至ステップS304の各処理は第1実施形態と同様である。
ステップS305では、ピッキング対象ワーク選択部1104が、ステップS303で検出された候補ワークの中からピッキング対象ワークとトラッキング対象ワークとを選択する。ピッキング対象ワークに対してトラッキングを行う場合、グローバルカメラの視野にピッキング対象ワークが含まれる必要がある。そのためピッキング対象ワークはグローバルカメラから観察した時にロボットアームにより遮蔽されない状況が望ましい。そこで、本実施形態におけるピッキング対象ワークは、第2実施形態と同様に、ロボットアームによる遮蔽率を基準に選択される。処理の流れは第2実施形態で説明した通りである。ただし、第2実施形態では、遮蔽率の総和値S(i)を、ピッキング対象ワークiを除くN?1個のワークの遮蔽率に基づいて算出した。これに対して、本実施形態では、ピッキング対象ワークiを含むN個のワークの遮蔽率に基づいて遮蔽率の総和値を算出する。また、ピッキング対象ワークiが遮蔽されにくいようにワークiの遮蔽率に対して重み付けを施してもよい。
次に、ステップS306において、トラッキング部1105は、トラッキング対象ワークおよびピッキング対象ワークのトラッキングを開始する。このとき、ステップS305で選択されたピッキング対象ワークによってはピッキング対象ワークがロボットアームに遮蔽されておりトラッキングが不可能な場合もある。この場合は、ステップS306では、トラッキング対象ワークのトラッキングのみを実行し、物体把持装置は第1実施形態と同様に動作する。
ステップS307において、ピッキング部1106は、ピッキング対象ワークのピッキングを行う。ステップS306でピッキング対象ワークのトラッキングが成功している場合の処理の流れを、図7のフローチャートを参照して説明する。
まずステップS701において、ピッキング部1106は、ピッキング対象ワークに対してピッキング処理を開始する。
そしてステップS702において、ピッキング部1106は、ピッキング対象ワークの位置姿勢がピッキング完了前に変動したか否かを判定する。ピッキング対象ワークの位置姿勢がピッキング完了前に変動したと判定された場合(ステップS702;YES)、ステップS703へ進む。一方、ピッキング対象ワークの位置姿勢がピッキング完了前に変動していないと判定された場合(ステップS702;NO)、すなわち、ピッキング中に変動が起こらなかった場合、ステップS706へ進む。
ステップS703において、ピッキング部1106は、位置姿勢変動が生じたピッキング対象ワークのトラッキングに成功したか否かを判定する。ピッキング対象ワークのトラッキングに成功したと判定された場合は(ステップS703;YES)、ステップS704へ進む。一方、ピッキング対象ワークのトラッキングに失敗したと判定された場合は(ステップS703;NO)、ステップS705へ進む。
ステップS704において、ピッキング部1106は、トラッキングによって取得された位置姿勢情報をピッキング対象ワークの位置姿勢情報として更新し、再度ステップS701へ戻る。
ステップS705において、ピッキング部1106は、ピッキング対象ワークの位置姿勢情報が失われピッキングを行うことが不可能であるため、現在のピッキング対象ワークを候補ワークから削除して、ピッキング処理を終了する。
ステップS706において、ピッキング部1106は、ピッキング対象ワークを把持し、所定の位置へと移動させてピッキング処理を終了する。
ステップS308の処理は、第1実施形態と同様であるため説明を省略する。
本実施形態によれば、ピッキング対象ワークのトラッキングを行うことにより、ピッキング時に起こるピッキング対象ワークの位置姿勢変動によるピッキングの失敗事例の発生を抑制する効果がある。
(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。

Claims (8)

  1. 複数のワークを含む領域の画像を撮像する撮像手段と、
    前記複数のワークを含む領域の距離情報を取得する取得手段と、
    前記画像と前記距離情報とに基づいて、前記複数のワークから複数の把持候補ワークの三次元位置姿勢を計測して三次元位置姿勢情報を生成する計測手段と、
    前記計測手段により計測された前記三次元位置姿勢情報に基づいて、前記把持候補ワークから把持対象ワークを選択する選択手段と、
    前記把持対象ワークを把持する把持手段と、
    前記把持手段により前記把持対象ワークが把持されている間に、前記把持候補ワークの三次元位置姿勢を所定の時間間隔で計測して三次元位置姿勢情報を更新する更新手段と、を備え、
    前記選択手段は、前記把持手段による前記把持が終了した場合、前記更新手段により更新された前記把持候補ワークの前記三次元位置姿勢情報に基づいて、次の把持対象ワークを選択することを特徴とする物体把持装置。
  2. 前記更新手段は、前記把持対象ワークの三次元位置姿勢をさらに計測して三次元位置姿勢情報を更新し、
    前記把持手段は、前記把持対象ワークを把持する前に、当該把持対象ワークの三次元位置姿勢が変動したと前記更新手段により判定された場合、前記更新手段により更新された前記把持対象ワークの三次元位置姿勢情報に基づいて、前記把持対象ワークを把持することを特徴とする請求項1に記載の物体把持装置。
  3. 前記把持手段による前記把持が終了した場合であって、前記計測手段により計測された前記把持候補ワークの三次元位置姿勢が変動していないと前記更新手段により判定された場合、
    前記選択手段は、前記計測手段により計測された前記三次元位置姿勢情報に基づいて次の把持対象ワークを選択することを特徴とする請求項1または2に記載の物体把持装置。
  4. 前記把持手段による前記把持が終了した場合であって、前記計測手段により計測された前記把持候補ワークの三次元位置姿勢が変動したと前記更新手段により判定された場合、
    前記撮像手段は、前記更新手段により更新された前記把持候補ワークの前記三次元位置姿勢情報に基づいて、当該把持候補ワークを含む所定の範囲の画像を改めて撮像し、
    前記取得手段は、前記所定の範囲の距離情報を改めて取得し、
    前記計測手段は、前記画像と前記距離情報とに基づいて前記把持候補ワークの三次元位置姿勢を改めて計測して三次元位置姿勢情報を生成し、
    前記選択手段は、前記改めて計測された三次元位置姿勢情報に基づいて、次の把持対象ワークを選択することを特徴とする請求項1乃至3の何れか1項に記載の物体把持装置。
  5. 前記把持手段の三次元形状情報を記憶する記憶手段と、
    前記把持手段により前記把持候補ワークが遮蔽されていない場合の前記把持候補ワークの面積に対して、前記把持手段により前記把持候補ワークが遮蔽されている面積が占める割合を示す遮蔽率を、前記記憶手段に記憶された前記三次元形状情報に基づいて算出する算出手段と、をさらに備え、
    前記選択手段は、前記計測手段により計測された三次元位置姿勢情報に基づいて、前記遮蔽率が小さい順に、前記把持候補ワークから前記把持対象ワークを選択することを特徴とする請求項1乃至4の何れか1項に記載の物体把持装置。
  6. 前記更新手段は、前記把持対象ワークから所定の範囲に存在する把持候補ワークの三次元位置姿勢を更新することを特徴とする請求項1乃至5の何れか1項に記載の物体把持装置。
  7. 撮像手段と、取得手段と、計測手段と、選択手段と、把持手段と、更新手段と、を備える物体把持装置の制御方法であって、
    前記撮像手段が、複数のワークを含む領域の画像を撮像する撮像工程と、
    前記取得手段が、前記複数のワークを含む領域の距離情報を取得する取得工程と、
    前記計測手段が、前記画像と前記距離情報とに基づいて、前記複数のワークから複数の把持候補ワークの三次元位置姿勢を計測して三次元位置姿勢情報を生成する計測工程と、
    前記選択手段が、前記計測工程により計測された前記三次元位置姿勢情報に基づいて、前記把持候補ワークから把持対象ワークを選択する選択工程と、
    前記把持手段が、前記把持対象ワークを把持する把持工程と、
    前記更新手段が、前記把持工程により前記把持対象ワークが把持されている間に、前記把持候補ワークの三次元位置姿勢を所定の時間間隔で計測して三次元位置姿勢情報を更新する更新工程と、を備え、
    前記選択工程では、前記把持工程による前記把持が終了した場合、前記更新工程により更新された前記把持候補ワークの前記三次元位置姿勢情報に基づいて、次の把持対象ワークを選択することを特徴とする物体把持装置の制御方法。
  8. 請求項7に記載の物体把持装置の制御方法の各工程をコンピュータに実行させるためのプログラム。
JP2010279868A 2010-12-15 2010-12-15 情報処理装置、情報処理装置の制御方法、およびプログラム Active JP5767464B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2010279868A JP5767464B2 (ja) 2010-12-15 2010-12-15 情報処理装置、情報処理装置の制御方法、およびプログラム
US13/312,976 US9302391B2 (en) 2010-12-15 2011-12-06 Object gripping apparatus, method of controlling the same and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010279868A JP5767464B2 (ja) 2010-12-15 2010-12-15 情報処理装置、情報処理装置の制御方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP2012125886A true JP2012125886A (ja) 2012-07-05
JP5767464B2 JP5767464B2 (ja) 2015-08-19

Family

ID=46235420

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010279868A Active JP5767464B2 (ja) 2010-12-15 2010-12-15 情報処理装置、情報処理装置の制御方法、およびプログラム

Country Status (2)

Country Link
US (1) US9302391B2 (ja)
JP (1) JP5767464B2 (ja)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014024142A (ja) * 2012-07-26 2014-02-06 Fanuc Ltd バラ積みされた物品をロボットで取出す装置及び方法
JP2014180723A (ja) * 2013-03-19 2014-09-29 Yaskawa Electric Corp ロボットシステム及び被加工物の製造方法
JP2014180704A (ja) * 2013-03-18 2014-09-29 Yaskawa Electric Corp ロボットピッキングシステム及び被加工物の製造方法
JP2015009314A (ja) * 2013-06-28 2015-01-19 キヤノン株式会社 干渉判定装置、干渉判定方法、コンピュータプログラム
JP2015145055A (ja) * 2014-02-04 2015-08-13 セイコーエプソン株式会社 ロボット、ロボットシステム、制御装置および制御方法
JP2016181183A (ja) * 2015-03-24 2016-10-13 キヤノン株式会社 情報処理装置、情報処理方法、プログラム
JP2016186469A (ja) * 2015-03-27 2016-10-27 キヤノン株式会社 情報処理装置、情報処理方法、プログラム
US9576363B2 (en) 2014-03-12 2017-02-21 Electronics And Telecommunications Research Institute Object picking system, object detecting device, object detecting method
JP2017100216A (ja) * 2015-11-30 2017-06-08 キヤノン株式会社 情報処理装置、情報処理方法
US10040199B2 (en) 2015-08-25 2018-08-07 Canon Kabushiki Kaisha Apparatus and method for determining work to be picked
JP2018126862A (ja) * 2018-05-14 2018-08-16 キヤノン株式会社 干渉判定装置、干渉判定方法、コンピュータプログラム
JP2019215180A (ja) * 2018-06-11 2019-12-19 オムロン株式会社 計測システムおよび計測方法
JP2020049651A (ja) * 2019-12-11 2020-04-02 キヤノン株式会社 干渉判定装置、干渉判定方法、コンピュータプログラム
WO2023063006A1 (ja) * 2021-10-13 2023-04-20 株式会社日立製作所 物体認識装置、物体認識方法
JP7325666B1 (ja) * 2022-04-14 2023-08-14 三菱電機株式会社 ロボット制御装置およびピッキングシステム

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5812599B2 (ja) * 2010-02-25 2015-11-17 キヤノン株式会社 情報処理方法及びその装置
DE112012002677B4 (de) * 2011-06-29 2018-12-06 Mitsubishi Electric Corp. Zuführvorrichtung für Bauelemente
JP5469216B2 (ja) * 2012-07-31 2014-04-16 ファナック株式会社 バラ積みされた物品をロボットで取出す装置
JP6273084B2 (ja) * 2012-09-20 2018-01-31 株式会社安川電機 ロボットシステムおよびワークの搬送方法
JP6370038B2 (ja) * 2013-02-07 2018-08-08 キヤノン株式会社 位置姿勢計測装置及び方法
JP5929854B2 (ja) * 2013-07-31 2016-06-08 株式会社安川電機 ロボットシステムおよび被加工物の製造方法
JP5778311B1 (ja) * 2014-05-08 2015-09-16 東芝機械株式会社 ピッキング装置およびピッキング方法
US20150331415A1 (en) * 2014-05-16 2015-11-19 Microsoft Corporation Robotic task demonstration interface
US9981380B2 (en) * 2014-07-01 2018-05-29 Seiko Epson Corporation Teaching apparatus and robot system
US9597801B2 (en) * 2014-10-21 2017-03-21 Centurylink Intellectual Property Llc Automated data center
JP6632208B2 (ja) * 2015-03-24 2020-01-22 キヤノン株式会社 情報処理装置、情報処理方法、プログラム
US9836069B1 (en) * 2015-03-31 2017-12-05 Google Inc. Devices and methods for protecting unattended children in the home
US10335951B2 (en) * 2015-07-29 2019-07-02 Canon Kabushiki Kaisha Information processing apparatus, information processing method, robot control apparatus, and robot system
JP6522488B2 (ja) * 2015-07-31 2019-05-29 ファナック株式会社 ワークの取り出し動作を学習する機械学習装置、ロボットシステムおよび機械学習方法
JP6240689B2 (ja) 2015-07-31 2017-11-29 ファナック株式会社 人の行動パターンを学習する機械学習装置、ロボット制御装置、ロボットシステム、および機械学習方法
DE102016009030B4 (de) 2015-07-31 2019-05-09 Fanuc Corporation Vorrichtung für maschinelles Lernen, Robotersystem und maschinelles Lernsystem zum Lernen eines Werkstückaufnahmevorgangs
JP2018034242A (ja) * 2016-08-31 2018-03-08 セイコーエプソン株式会社 ロボット制御装置、ロボット、及びロボットシステム
JP6438512B2 (ja) * 2017-03-13 2018-12-12 ファナック株式会社 機械学習により補正した計測データでワークの取り出しを行うロボットシステム、計測データ処理装置および計測データ処理方法
JP2018161700A (ja) * 2017-03-24 2018-10-18 キヤノン株式会社 情報処理装置、システム、情報処理方法、製造方法
JP2018176334A (ja) * 2017-04-10 2018-11-15 キヤノン株式会社 情報処理装置、計測装置、システム、干渉判定方法および物品の製造方法
US10933533B2 (en) * 2017-06-23 2021-03-02 Kindred Systems Inc. Systems, devices, articles, and methods for stow verification
JP6695843B2 (ja) 2017-09-25 2020-05-20 ファナック株式会社 装置、及びロボットシステム
US10888013B2 (en) 2017-10-04 2021-01-05 Google Llc Managing a data center
JP6879238B2 (ja) * 2018-03-13 2021-06-02 オムロン株式会社 ワークピッキング装置及びワークピッキング方法
JP6687657B2 (ja) * 2018-03-20 2020-04-28 ファナック株式会社 センサ及びロボットを用いた物品取り出し装置、及び物品取り出し方法
JP7233858B2 (ja) * 2018-06-13 2023-03-07 オムロン株式会社 ロボット制御装置、ロボット制御方法、及びロボット制御プログラム
CN112053398B (zh) * 2020-08-11 2021-08-27 浙江大华技术股份有限公司 物体抓取方法、装置、计算设备和存储介质
JP2022045772A (ja) 2020-09-09 2022-03-22 オムロン株式会社 ロボットシステム及びピッキング方法
CN113744333B (zh) * 2021-08-20 2024-02-13 北京航空航天大学 一种物体抓取位置获取方法及装置
JP2023041200A (ja) * 2021-09-13 2023-03-24 トヨタ自動車株式会社 ワーク保持装置、ワーク保持方法、プログラム、及び制御装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01183395A (ja) * 1988-01-09 1989-07-21 Toyoda Mach Works Ltd 視覚装置を備えたロボット
JP2010120141A (ja) * 2008-11-21 2010-06-03 Ihi Corp バラ積みピッキング装置とその制御方法

Family Cites Families (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4402053A (en) * 1980-09-25 1983-08-30 Board Of Regents For Education For The State Of Rhode Island Estimating workpiece pose using the feature points method
FR2499736B1 (fr) * 1981-02-12 1987-03-06 Renault Dispositif et procede de localisation d'objets tridimensionnels en vrac pour la commande d'un terminal de prehension
US4412293A (en) * 1981-03-30 1983-10-25 Kelley Robert B Robot system which acquires cylindrical workpieces from bins
US4985846A (en) * 1989-05-11 1991-01-15 Fallon Patrick J Acoustical/optical bin picking system
JPH11300670A (ja) * 1998-04-21 1999-11-02 Fanuc Ltd 物品ピックアップ装置
JP3377465B2 (ja) 1999-04-08 2003-02-17 ファナック株式会社 画像処理装置
JP3300682B2 (ja) * 1999-04-08 2002-07-08 ファナック株式会社 画像処理機能を持つロボット装置
JP3703411B2 (ja) * 2001-07-19 2005-10-05 ファナック株式会社 ワーク取り出し装置
JP3768174B2 (ja) * 2002-07-24 2006-04-19 ファナック株式会社 ワーク取出し装置
JP4004899B2 (ja) * 2002-09-02 2007-11-07 ファナック株式会社 物品の位置姿勢検出装置及び物品取出し装置
DE50303239D1 (de) * 2002-09-23 2006-06-08 Tropf Hermann Erfassen und greifen von gegenst nden
JP3859571B2 (ja) * 2002-10-17 2006-12-20 ファナック株式会社 3次元視覚センサ
JP2004160567A (ja) * 2002-11-11 2004-06-10 Fanuc Ltd 物品取出し装置
JP3805302B2 (ja) * 2002-12-13 2006-08-02 ファナック株式会社 ワーク取出し装置
JP3805310B2 (ja) * 2003-01-30 2006-08-02 ファナック株式会社 ワーク取出し装置
JP3834307B2 (ja) * 2003-09-29 2006-10-18 ファナック株式会社 ロボットシステム
JP3930490B2 (ja) * 2004-04-23 2007-06-13 ファナック株式会社 物品取出し装置
JP4789511B2 (ja) 2004-06-04 2011-10-12 キヤノン株式会社 状況モニタリング装置及び状況モニタリングシステム
JP4794846B2 (ja) 2004-10-27 2011-10-19 キヤノン株式会社 推定装置、及び推定方法
SE529377C2 (sv) * 2005-10-18 2007-07-24 Morphic Technologies Ab Publ Metod och arrangemang för att lokalisera och plocka upp föremål från en bärare
JP4087874B2 (ja) * 2006-02-01 2008-05-21 ファナック株式会社 ワーク取り出し装置
JP4199264B2 (ja) * 2006-05-29 2008-12-17 ファナック株式会社 ワーク取り出し装置及び方法
US7313464B1 (en) * 2006-09-05 2007-12-25 Adept Technology Inc. Bin-picking system for randomly positioned objects
JP4226623B2 (ja) * 2006-09-29 2009-02-18 ファナック株式会社 ワーク取り出し装置
JP4309439B2 (ja) * 2007-03-30 2009-08-05 ファナック株式会社 対象物取出装置
US7983487B2 (en) * 2007-11-07 2011-07-19 Mitsubishi Electric Research Laboratories, Inc. Method and system for locating and picking objects using active illumination
JP4959520B2 (ja) 2007-11-26 2012-06-27 三菱電機株式会社 位置姿勢認識装置及び方法、並びに部品ピッキングシステム
DE102007060653A1 (de) * 2007-12-15 2009-06-18 Abb Ag Positionsermittlung eines Objektes
JP5058838B2 (ja) 2008-02-01 2012-10-24 キヤノン株式会社 情報処理装置および方法
JP4565023B2 (ja) * 2008-07-04 2010-10-20 ファナック株式会社 物品取り出し装置
JP5265296B2 (ja) * 2008-10-10 2013-08-14 本田技研工業株式会社 ワーク取り出し方法
EP2470333A2 (en) * 2009-08-27 2012-07-04 ABB Research Ltd. Robotic picking of parts from a parts holding bin
JP5402697B2 (ja) * 2009-10-26 2014-01-29 株式会社安川電機 ロボット装置及びワーク取り出しシステム並びにワーク取り出し方法
US8472698B2 (en) * 2009-11-24 2013-06-25 Mitsubishi Electric Research Laboratories, Inc. System and method for determining poses of objects
JP5382621B2 (ja) * 2010-06-03 2014-01-08 株式会社安川電機 移載装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01183395A (ja) * 1988-01-09 1989-07-21 Toyoda Mach Works Ltd 視覚装置を備えたロボット
JP2010120141A (ja) * 2008-11-21 2010-06-03 Ihi Corp バラ積みピッキング装置とその制御方法

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9079310B2 (en) 2012-07-26 2015-07-14 Fanuc Corporation Apparatus and method of taking out bulk stored articles by robot
JP2014024142A (ja) * 2012-07-26 2014-02-06 Fanuc Ltd バラ積みされた物品をロボットで取出す装置及び方法
JP2014180704A (ja) * 2013-03-18 2014-09-29 Yaskawa Electric Corp ロボットピッキングシステム及び被加工物の製造方法
US9149932B2 (en) 2013-03-18 2015-10-06 Kabushiki Kaisha Yaskawa Denki Robot picking system, control device, and method of manufacturing a workpiece
JP2014180723A (ja) * 2013-03-19 2014-09-29 Yaskawa Electric Corp ロボットシステム及び被加工物の製造方法
JP2015009314A (ja) * 2013-06-28 2015-01-19 キヤノン株式会社 干渉判定装置、干渉判定方法、コンピュータプログラム
JP2015145055A (ja) * 2014-02-04 2015-08-13 セイコーエプソン株式会社 ロボット、ロボットシステム、制御装置および制御方法
US9576363B2 (en) 2014-03-12 2017-02-21 Electronics And Telecommunications Research Institute Object picking system, object detecting device, object detecting method
US10532459B2 (en) 2015-03-24 2020-01-14 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and storage medium for grasping an object
JP2016181183A (ja) * 2015-03-24 2016-10-13 キヤノン株式会社 情報処理装置、情報処理方法、プログラム
JP2016186469A (ja) * 2015-03-27 2016-10-27 キヤノン株式会社 情報処理装置、情報処理方法、プログラム
US10040199B2 (en) 2015-08-25 2018-08-07 Canon Kabushiki Kaisha Apparatus and method for determining work to be picked
JP2017100216A (ja) * 2015-11-30 2017-06-08 キヤノン株式会社 情報処理装置、情報処理方法
JP2018126862A (ja) * 2018-05-14 2018-08-16 キヤノン株式会社 干渉判定装置、干渉判定方法、コンピュータプログラム
JP2019215180A (ja) * 2018-06-11 2019-12-19 オムロン株式会社 計測システムおよび計測方法
JP7119606B2 (ja) 2018-06-11 2022-08-17 オムロン株式会社 計測システムおよび計測方法
JP2020049651A (ja) * 2019-12-11 2020-04-02 キヤノン株式会社 干渉判定装置、干渉判定方法、コンピュータプログラム
JP7066671B2 (ja) 2019-12-11 2022-05-13 キヤノン株式会社 干渉判定装置、干渉判定方法、プログラム及びシステム
WO2023063006A1 (ja) * 2021-10-13 2023-04-20 株式会社日立製作所 物体認識装置、物体認識方法
JP7325666B1 (ja) * 2022-04-14 2023-08-14 三菱電機株式会社 ロボット制御装置およびピッキングシステム
WO2023199478A1 (ja) * 2022-04-14 2023-10-19 三菱電機株式会社 ロボット制御装置およびピッキングシステム

Also Published As

Publication number Publication date
US20120158180A1 (en) 2012-06-21
US9302391B2 (en) 2016-04-05
JP5767464B2 (ja) 2015-08-19

Similar Documents

Publication Publication Date Title
JP5767464B2 (ja) 情報処理装置、情報処理装置の制御方法、およびプログラム
US11049280B2 (en) System and method for tying together machine vision coordinate spaces in a guided assembly environment
JP6937995B2 (ja) 物体認識処理装置及び方法、並びに、物体ピッキング装置及び方法
CN111683798B (zh) 工件拾取装置以及工件拾取方法
JP2017042859A (ja) ピッキングシステム、並びに、そのための処理装置、方法及びプログラム
US9727053B2 (en) Information processing apparatus, control method for information processing apparatus, and recording medium
JP6271953B2 (ja) 画像処理装置、画像処理方法
CN110539299B (zh) 机器手作业方法、控制器以及机器手***
JP2004090183A (ja) 物品の位置姿勢検出装置及び物品取出し装置
JP2010071743A (ja) 物体検出方法と物体検出装置およびロボットシステム
CN111483750A (zh) 机器人***的控制方法以及控制装置
JP2014137644A (ja) 認識プログラム評価装置および認識プログラム評価方法
JP2018136896A (ja) 情報処理装置、システム、情報処理方法、および物品の製造方法
CN111470244B (zh) 机器人***的控制方法以及控制装置
JP7299442B1 (ja) 制御装置、3次元位置計測システム、及びプログラム
EP4382260A1 (en) Robot control device, robot control system, and robot control method
US20230011093A1 (en) Adjustment support system and adjustment support method
US20240246237A1 (en) Robot control device, robot control system, and robot control method
JP2013010160A (ja) ロボット制御システム、ロボットシステム及びマーカー処理方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131211

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140911

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140919

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141113

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150522

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150619

R151 Written notification of patent or utility model registration

Ref document number: 5767464

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151