JP2014087913A - 物品取出装置及び物品取出方法 - Google Patents

物品取出装置及び物品取出方法 Download PDF

Info

Publication number
JP2014087913A
JP2014087913A JP2012240501A JP2012240501A JP2014087913A JP 2014087913 A JP2014087913 A JP 2014087913A JP 2012240501 A JP2012240501 A JP 2012240501A JP 2012240501 A JP2012240501 A JP 2012240501A JP 2014087913 A JP2014087913 A JP 2014087913A
Authority
JP
Japan
Prior art keywords
article
target
visual sensor
robot
target article
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012240501A
Other languages
English (en)
Other versions
JP5642759B2 (ja
Inventor
Kazukuni Ban
一訓 伴
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Priority to JP2012240501A priority Critical patent/JP5642759B2/ja
Priority to DE102013018222.0A priority patent/DE102013018222B4/de
Priority to US14/067,168 priority patent/US9604363B2/en
Priority to CN201310530229.1A priority patent/CN103786153B/zh
Publication of JP2014087913A publication Critical patent/JP2014087913A/ja
Application granted granted Critical
Publication of JP5642759B2 publication Critical patent/JP5642759B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0093Programme-controlled manipulators co-operating with conveyor means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65GTRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
    • B65G47/00Article or material-handling devices associated with conveyors; Methods employing such devices
    • B65G47/74Feeding, transfer, or discharging devices of particular kinds or types
    • B65G47/90Devices for picking-up and depositing articles or materials
    • B65G47/905Control arrangements
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39508Reorientation of object, orient, regrasp object
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40053Pick 3-D object from pile of objects
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40607Fixed camera to observe workspace, object, workpiece, global

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Manipulator (AREA)

Abstract

【課題】物品の取出工程の自動化を可能にする実用的な物品取出装置及び物品取出方法を提供する。
【解決手段】容器内において不規則に積重ねられた複数の物品から1つの対象物品をロボットの保持部によって取出すとともに、取出された対象物品を所定の姿勢で目標位置に載置する物品取出装置が提供される。物品取出装置は、第1の視覚センサによって取得される容器内の物品の高さ分布に関する情報に基づいて、対象物品の概略位置に関する情報を取得する概略位置取得部を備えている。また、物品取出装置は、第2の視覚センサによって取得される保持部に対する対象物品の相対的位置姿勢に関する情報に基づいて、対象物品を目標位置に対して所定の相対的位置姿勢関係になるようにロボットを制御する載置動作制御部を備えている。また、このような物品取出装置を用いた物品取出方法が提供される。
【選択図】図1

Description

本発明は、容器内において不規則に積重ねられた複数の物品から物品をロボットによって取出すための物品取出装置及び物品取出方法に関する。
容器内において不規則に積重ねられた複数の物品から物品を順次取出す取出工程の自動化に関して、種々の手法が学術界及び産業界から提案されている。近年、コンピュータの処理能力の向上及び画像処理技術の進歩に伴って、より実用性の高い手法が出現している。例えば特許文献1は、取出されるべき物品の3次元位置及び姿勢を計測する前に、不規則に積重ねられた複数の物品の概略的な高さ分布を計測して取出されるべき物品を決定することを開示している。
特開2004−188562号公報 特許第4174342号公報
物品の取出工程の自動化を可能にする実用的な物品取出装置及び物品取出方法が望まれている。
本願に係る1番目の発明によれば、容器内において不規則に積重ねられた複数の物品から1つの対象物品をロボットによって取出すとともに、取出された前記対象物品を所定の姿勢で目標位置に載置する物品取出装置であって、前記ロボットは、前記対象物品を解放可能に保持する保持部を備えており、当該物品取出装置は、前記容器内における前記複数の物品の高さ分布に関する情報を取得する第1の視覚センサと、前記第1の視覚センサによって取得される前記高さ分布に関する情報に基づいて、前記容器内において周囲の物品よりも高所にある対象物品の概略位置に関する情報を取得する概略位置取得部と、前記概略位置取得部によって取得される前記対象物品の前記概略位置に関する情報に基づいて、前記対象物品が前記保持部によって保持され得るように前記ロボットを制御する取出動作制御部と、前記保持部によって保持されている状態の前記対象物品を計測し、前記保持部に対する前記対象物品の相対的位置姿勢に関する情報を取得する第2の視覚センサと、前記第2の視覚センサによって取得される前記対象物品の前記相対的位置姿勢に基づいて、前記保持部によって保持されている状態の前記対象物品を前記目標位置に対して所定の相対的位置姿勢関係になるように前記ロボットを制御する載置動作制御部と、を備える、物品取出装置が提供される。
本願に係る2番目の発明によれば、1番目の発明において、前記第2の視覚センサが2次元カメラである、物品取出装置が提供される。
本願に係る3番目の発明によれば、1番目の発明において、前記第2の視覚センサが3次元視覚センサである、物品取出装置が提供される。
本願に係る4番目の発明によれば、1番目から3番目のいずれかの発明において、前記対象物品を保持していない状態における前記保持部に対応していて前記第2の視覚センサによって取得される第1の情報を記憶する保持部情報記憶部と、前記第1の情報及び前記第2の視覚センサによって取得される前記対象物品を保持している状態における前記保持部に対応する第2の情報に基づいて、前記対象物品の前記相対的位置姿勢を計算する相対的位置姿勢計算部と、をさらに備える、物品取出装置が提供される。
本願に係る5番目の発明によれば、容器内において不規則に積重ねられた複数の物品から1つの対象物品をロボットによって取出すとともに、取出された前記対象物品を所定の姿勢で目標位置に載置する物品取出方法であって、前記ロボットは、前記対象物品を解放可能に保持する保持部を備えており、当該物品取出方法は、第1の視覚センサによって、前記容器内における前記複数の物品の高さ分布に関する情報を取得し、前記第1の視覚センサによって取得される前記高さ分布に関する情報に基づいて、前記容器内において周囲の物品よりも高所にある対象物品の概略位置に関する情報を取得し、前記対象物品の前記概略位置に関する情報に基づいて、前記対象物品が前記保持部によって保持され得るように前記ロボットを制御し、第2の視覚センサによって、前記保持部によって保持されている状態の前記対象物品を計測し、前記保持部に対する前記対象物品の相対的位置姿勢に関する情報を取得し、前記第2の視覚センサによって取得される前記対象物品の前記相対的位置姿勢に基づいて、前記保持部によって保持されている状態の前記対象物品を前記目標位置に対して所定の相対的位置姿勢関係になるように前記ロボットを制御することを含む、物品取出方法が提供される。
本願に係る6番目の発明によれば、5番目の発明において、前記第2の視覚センサが2次元カメラである、物品取出方法が提供される。
本願に係る7番目の発明によれば、5番目の発明において、前記第2の視覚センサが3次元視覚センサである、物品取出方法が提供される。
本願に係る8番目の発明によれば、5番目から7番目のいずれかの発明において、前記保持部に対する前記対象物品の前記相対的位置姿勢に関する情報を取得する際に、前記第2の視覚センサによって予め取得され、記憶されていた前記対象物品を保持していない状態における前記保持部に対応する第1の情報を読出し、前記第1の情報と、前記第2の視覚センサによって取得される前記対象物品を保持している状態における前記保持部に対応する第2の情報と、に基づいて、前記対象物品の前記相対的位置姿勢を計算することをさらに含む、物品取出方法が提供される。
すなわち、上記構成を有する物品取出装置及び物品取出方法によれば、対象物品がロボットによって保持された状態において、ロボットの保持部に対する対象物品の相対的位置姿勢が第2の視覚センサによって計測される。したがって、対象物品がロボットによって保持される前に対象物品の位置姿勢を正確に計測する必要がない。また、正確な3次元位置姿勢の計測は、ロボットによって保持された状態の1つの対象物品のみを対象として実行される。それにより、多数の対象物品を一度に3次元位置姿勢を計測する場合に比べて計測処理が容易になり、計測精度が安定する。その結果、対象物品の所定位置への載置工程の精度が向上する。さらに膨大な量の3次元情報の処理を実行する必要もなく、計算に要する時間が短縮されるので、処理効率が向上する。
本発明の実施形態に係るロボットシステムを概略的に示す側面図である。 本発明の実施形態に係るロボットシステムを概略的に示す側面図である。 本発明の実施形態に係るロボットシステムを概略的に示す側面図である。 ワークが収容された容器を拡大して示す拡大図である。 ワークが収容された容器を拡大して示す拡大図である。 エンドエフェクタによって保持された状態の対象ワークの例を示す部分拡大図である。 エンドエフェクタによって保持された状態の対象ワークの例を示す部分拡大図である。 第2の視覚センサによって取得される画像の例を示す図である。 別の実施形態において、エンドエフェクタを用いて対象ワークを保持する際の過程を示す図である。 ロボットシステムの処理部の機能ブロックを示す図である。 相対的位置姿勢取得部の機能ブロックを示す図である。 ロボットシステムによって対象ワークを取出す工程を示すフローチャートである。
以下、添付図面を参照して本発明の実施形態を説明する。図示される実施形態の各構成要素は、より良い理解のためにその縮尺が実用的な形態から変更されている場合がある。また、同一又は対応する構成要素には同一の参照符号が複数の図面において使用される。
図1〜図3を参照して、本発明の一実施形態に係る物品取出装置の例であるロボットシステム10の構成及び作用について説明する。図1〜図3はロボットシステム10を概略的に示す側面図である。ロボットシステム10は、容器12内において不規則に積重ねられた複数のワーク14から1つの対象ワーク14aをロボット16によって取出す(図2参照)とともに、取出された対象ワーク14aを所定の姿勢でコンベア18の目標位置に載置する(図3参照)ために使用される。本明細書において、「対象ワーク14a(対象物品)」の用語は、言及される取出工程において容器12から取出される対象として選択されるワーク(物品)を意味し、容器12内に収容されたままの状態の他のワーク14と区別するために便宜上使用される。
容器12は、底壁と、底壁の周囲から概ね鉛直方向上方に延在する周壁と、を有していて、複数のワーク14を収容する収容空間を形成している。ワーク14は、ロボットシステム10によって取出される物品の例であり、例えば図示されるように側面視において半円弧状の形状を有する半円筒形の部材である。容器12の上部には、例えば平面視において円形又は矩形の開口が形成されており、それによりロボット16が容器12の上方から容器12内のワーク14に対してアクセス可能になっている。
ロボット16は、ライン24を介して接続されるロボット制御装置20によって制御される複数の関節軸を有する公知のロボットである。ロボット16は、ワーク14を解放可能に保持する保持手段としてエンドエフェクタ22を備えている。エンドエフェクタ22は、例えば図示されるように内部において発生される負圧を利用して対象ワーク14aを吸着して保持する吸着パッド式グリッパである。或いは、エンドエフェクタ22は、電磁石などの磁力発生手段を利用する磁気式グリッパ、流体圧力を利用する流体圧式グリッパ、又は電気機械的手段を介して開閉動作する指(爪)を有する多指ハンドでもよい。すなわち、エンドエフェクタ22は、ロボットシステム10によって取出されるべきワーク14などの物品の形状に応じて種々の公知のタイプの形態を有し得る。ロボット16のエンドエフェクタ22は、ロボット制御装置20から送出される駆動信号に応答して対象ワーク14aを保持し、又は解放する。
容器12の上方には、支持スタンド26に固定された第1の視覚センサ28が設けられている。図1において第1の視覚センサ28から下方に向かって描かれた破線30は、第1の視覚センサ28の計測範囲を表している。本発明との関係において必須の要件ではないものの、第1の視覚センサ28の計測範囲は、図示されるようにワーク14が収容される容器12の収容空間の全体を含んでいる。第1の視覚センサ28は、ライン32を介してセンサ制御装置34に接続されていて、計測処理に関連する信号、例えば計測開始指令及び計測結果をセンサ制御装置34との間で送受信可能になっている。
第1の視覚センサ28は、センサ制御装置34の計測開始指令に応答して容器12内における複数のワーク14の高さ分布に関する情報を取得する3次元視覚センサである。高さ分布は、例えば所定の空間分解能に従って取得される3次元点集合として取得される。3次元点集合は、例えばロボット16を制御する基準として用いられる作業座標系において(X,Y,Z)として表される3次元の位置データ群である。第1の視覚センサ28は、「レンジファインダ」と一般的に称される任意のタイプの3次元視覚センサであり得る。
3次元視覚センサは、例えば2次元画像データを取得可能な複数の2次元カメラを備えていて、ステレオ視の概念に基づいて、それらの2次元画像データに基づいてセンサヘッドから対象物までの距離を計測する。或いは、第1の視覚センサ28は、スリット状のレーザ光によってスリットの伸びる方向に対して直交する方向に延在する表面上を走査するとともにセンサヘッド側に取付けられたカメラでレーザ光の反射光を受光するタイプの3次元視覚センサでもよい。また、第1の視覚センサ28は、2次元アレイを形成するように配列された複数の赤外線LEDを使用するTime of Flightのタイプの3次元視覚センサであってもよい。この場合、赤外線LEDから赤外線が発射されてから対象物において反射されてセンサヘッド側に戻ってくるまでに必要な時間の差異に基づいて、対象物(この場合はワーク14)までの距離が計測される。
第1の視覚センサ28によって計測された結果は、ライン32を介してセンサ制御装置34に送られる。センサ制御装置34は、第1の視覚センサ28からの画像情報を処理する画像処理装置(図示せず)をさらに備えていてもよい。画像処理装置は、センサ制御装置34に内蔵されていてもよいし、センサ制御装置34から独立して設けられていてもよい。センサ制御装置34にはライン42を介して第2の視覚センサ38がさらに接続されている。センサ制御装置34及びセンサ制御装置34と協働する画像処理装置は特定のタイプの制御装置に限られず、公知である種々のタイプのものであり得る。第1の視覚センサ28によって取得されるワーク14の高さ分布に関する情報は、ライン36を介してセンサ制御装置34に接続されるロボット制御装置20に送られ、より詳細に後述するようにロボット16の動作制御に使用される。なお、図示される実施形態において、ロボット制御装置20及びセンサ制御装置34は互いに別個の装置であるものの、センサ制御装置34がロボット制御装置20に内蔵されていてもよい。
第2の視覚センサ38は、図示されるように容器12から離間した位置に設置されている。図2において、第2の視覚センサ38から上方に向かって描かれた破線40は、第2の視覚センサ38の計測範囲を表している。第2の視覚センサ38は、ロボット16のエンドエフェクタ22によって保持されている状態の対象ワーク14aを計測し、エンドエフェクタ22に対する対象ワーク14aの相対的位置姿勢に関する情報を取得するために使用される。図2に示されるように、第2の視覚センサ38を使用して対象ワーク14aを計測する際には、対象ワーク14aが第2の視覚センサ38の計測範囲内に含まれるようにロボット16の位置及び姿勢が制御される。ここで、第2の視覚センサ38による計測を実行する際のロボット16のエンドエフェクタ22の位置及び姿勢は予め定められる既知の情報、或いは計測処理を実行する瞬間にロボット制御装置20の内部で取得される情報である。それにより、適切な座標変換を行うことによって、第2の視覚センサ38によって取得される位置姿勢情報から、ロボット16のエンドエフェクタ22に対する対象ワーク14aの相対的位置姿勢が計算される。座標変換を利用した対象ワーク14aの相対的位置姿勢の計算は例えば特許文献2に記載されている。なお、第2の視覚センサ38は、対象ワーク14aを容器12内のワーク14から独立して個別に計測できる位置に設置されていればよく、図示された位置関係に限定されない。
コンベア18は、容器12から取出された対象ワーク14aを任意の次の工程のために順次搬送するようになっている。対象ワーク14aは、図3に示されるようにコンベア18に対して所定の姿勢を有するように(例えば対象ワーク14aの凸部が鉛直方向上方を向くように)ロボット16によってコンベア18に載置される。
図10は、ロボットシステム10におけるロボット制御装置20及びセンサ制御装置34の作用を説明するためのロボットシステム10の処理部50の機能ブロックを示す図である。図示されるように、ロボット制御装置20は、概略位置取得部52と、取出動作制御部54と、載置動作制御部56と、を備えている。センサ制御装置34は、高さ分布取得部60と、相対的位置姿勢取得部62と、を備えている。高さ分布取得部60は、第1の視覚センサ28による計測結果に基づいて、容器12内におけるワーク14の高さ分布を取得する。また、相対的位置姿勢取得部62は、第2の視覚センサ38による計測結果に基づいて、対象ワーク14aが保持されている状態におけるエンドエフェクタ22に対する対象ワーク14aの相対的位置姿勢を取得する。
ロボット制御装置20の概略位置取得部52は、高さ分布取得部60によって取得されるワーク14の高さ分布に基づいて、容器12内において周囲のワーク14よりも高所にある対象ワーク14aの概略位置に関する情報を取得する。図4は、多数のワーク14が収容された容器12を拡大して示す拡大図である。ロボットシステム10において、ワーク14の高さ分布に基づいて、局所的に高所に位置する対象ワーク14aの部位における3次元位置情報が対象ワーク14aの概略位置として決定される。図4においてワーク14に付与されたマーク「x」は、対象ワーク14aの概略位置を表している。
図5は、図4と同様の拡大図である。図5に示される実施形態において、対象ワーク14aの概略位置は、局所的に高所に位置する部位ではなく、所定の面積Sにわたって延在する概ね平面状の平面部の所定の位置(例えば平面部の重心位置)に従って決定される。例えば所定の下限値S1及び上限値S2に対して、S1<S<S2を満足する面積Sを有する平面部が対象となる。図5においてワーク14に付与されたマーク「x」は、この場合の対象ワーク14aの概略位置を表している。
図4及び図5を参照して説明した対象ワーク14aの概略位置の決定方法は単なる例示にすぎず、これら特定の態様に限定されない。すなわち、概略位置取得部52によって取得される対象ワーク14aの概略位置としては、対象ワーク14aがエンドエフェクタ22によって保持され得る程度の位置が特定されれば十分であるので、他の決定方法に従って対象ワーク14aの概略位置が決定されてもよい。
取出動作制御部54は、概略位置取得部52によって取得される対象ワーク14aの概略位置に基づいて、対象ワーク14aがエンドエフェクタ22によって保持され得るようにロボット16を制御する駆動信号を作成する。図4又は図5に関連して説明した対象ワーク14aの概略位置が利用される場合においては、エンドエフェクタ22がマーク「x」の位置に対して位置決めされるようにロボット16の位置及び姿勢が制御される。
載置動作制御部56は、相対的位置姿勢取得部62によって取得される対象ワーク14aの相対的位置姿勢に基づいて、エンドエフェクタ22によって保持された状態の対象ワーク14aをコンベア18上の目標位置に載置するようにロボット16を制御する制御信号を作成する。さらに、ロボット16は、対象ワーク14aが目標位置に対して所定の相対的位置関係になるように、すなわち対象ワーク14aが所定の姿勢でコンベア18に載置されるように制御される。図3は、対象ワーク14aをコンベア18に載置する際のロボット16の位置及び姿勢の例を表している。
図6及び図7は、エンドエフェクタ22によって保持された状態の対象ワーク14aの例を示す部分拡大図である。図6の(a)は、対象ワーク14aが円弧の一方の端部付近において保持された場合を示している。この場合、対象ワーク14aが時計回りの方向に約90度の角度だけ回転されるようにロボット16の姿勢を変更すれば、対象ワーク14aは、図3に示されるようなコンベア18に対する所定の姿勢が得られる。図6の(b)は、対象ワーク14aの凸部が概ね鉛直方向上方に向けられた状態でエンドエフェクタ22によって保持されている。すなわち、対象ワーク14aは、コンベア18に対する所定の姿勢を概ね有している。したがって、この場合は、対象ワーク14aの姿勢を維持したままコンベア18まで移動させればよい。
図6の(c)は、対象ワーク14aがコンベア18に対する所定の姿勢から180度回転した状態でエンドエフェクタ22によって保持された場合を示している。この場合は、単純にロボット16の姿勢を変更するだけでは対象ワーク14aを適切な姿勢でコンベア18に載置するのは困難である。したがって、例えば図7に示されるようにエンドエフェクタ22を挿入可能な開口46が形成されたテーブル44が使用される。そして、図7の(a)〜(c)に示されるように、対象ワーク14aをテーブル44に一旦載置し、対象ワーク14aの反対側から対象ワーク14aを保持し直せばよい。
ここで、図8及び図11を参照して、相対的位置姿勢取得部62によって対象ワーク14aの相対的位置姿勢を取得する処理の例について説明する。図8は、第2の視覚センサ38によって取得される画像の例を示す図である。図11は、一実施形態における相対的位置姿勢取得部62の機能ブロックを示す図である。相対的位置姿勢取得部62は、図11に示されるように保持部情報記憶部64と、計測情報比較部66と、相対的位置姿勢計算部68と、をさらに備えている。
保持部情報記憶部64は、対象ワーク14aを保持していない状態におけるエンドエフェクタ22(保持部)の計測情報、例えば画像情報を記憶する。図8の(b)は、対象ワーク14aが保持されていない状態のエンドエフェクタ22の画像を示している。保持部情報記憶部64は、例えば図8の(b)に示される画像情報を予め記憶しておくために用いられる。それに対し、図8の(a)は、対象ワーク14aを保持している状態におけるエンドエフェクタ22の画像を示しており、例えば図2に示される状態において第2の視覚センサ38によって取得される画像である。したがって、(a)にはエンドエフェクタ22及び対象ワーク14aの両方が捕捉されている。図8の(a)及び(b)の状態において、エンドエフェクタ22は互いに同一の位置において同一の姿勢を有するように位置決めされる。
計測情報比較部66は、図8の(a)の画像と(b)の画像とを比較し、両方の画像に共通して存在する画像を(a)の画像から除去することによって、図8の(c)に示されるような対象ワーク14aのみを示す画像を取得する。相対的位置姿勢計算部68は、計測情報比較部66によって取得された対象ワーク14aの画像に基づいて、エンドエフェクタ22に対する対象ワーク14aの相対的位置姿勢を計算する。このようにして、相対的位置姿勢取得部62は、第2の視覚センサ38による計測結果に基づいて、対象ワーク14aの相対的位置姿勢を取得する。
続いて、図12を参照して、前述した実施形態に係るロボットシステム10を使用して対象ワーク14aを取出す取出方法について説明する。図12は、ロボットシステム10によって対象ワーク14aを取出す工程を示すフローチャートである。
ロボット制御装置20が始動指令を受けると、センサ制御装置34を介して計測開始信号が第1の視覚センサ28に送出される。始動指令は、例えば使用者が図示されない操作部を操作することによって作成される。第1の視覚センサ28は、センサ制御装置34からの計測開始信号に応答して、センサヘッドとワーク14との間の距離に応じて定まるワーク14の高さ分布に関する情報を取得する。ワーク14の高さ分布に関する情報は、センサ制御装置34の高さ分布取得部60に入力され、容器12内におけるワーク14の高さ分布が計算される(ステップS101)。なお、この時点においてロボット16及びそのエンドエフェクタ22は、第1の視覚センサ28によるワーク14の計測を妨げないように、破線30によって示される計測範囲に進入しないように容器12から離間した位置に退避している。なお、第1の視覚センサ28によって計測されるデータと、ロボット16の作業座標系とを関連付けるためのキャリブレーションは予め完了されているものとする。
続いて、ステップS101で得られた高さ分布に基づいて、センサ制御装置34によって平面部が検出される(ステップS102)とともに、平面部の個数nがカウントされる。平面部は、図5に関連して前述したように概ね水平方向に所定の面積Sにわたって延在するワーク14の一部である。そして、少なくとも1つの平面部が検出された場合は、次のステップS104に進み、平面部が検出されなかった場合は、取出されるべき対象ワーク14aが存在しないと見做して、取出工程を終了する(ステップS103)。ステップS103において、少なくとも1つの平面部が検出された場合、検出されたワーク14の平面部の位置、例えば重心位置が高い順番に並ぶように対象ワーク14aの順列が各平面部に関連付けられる(ステップS104)。
そして、ステップS105において、容器12から対象ワーク14aを順次取出すために、平面部のi番目の順列を意味する「i」に1の値が代入される。続いて、ロボット16のエンドエフェクタ22がi番目の対象ワーク14aを保持できるようなロボット16の位置及び姿勢が計算される(ステップS106)。対象ワーク14aを保持する際のロボット16の位置及び姿勢は、概略位置取得部52によって取得される対象ワーク14aの概略位置に基づいて決定される。そして、ロボット16が、ロボット制御装置20の取出動作制御部54によって送出される制御信号に従って移動し、ステップS106において計算されたロボット位置に位置決めされる。ロボット16が所定位置に到達したら、エンドエフェクタ22が駆動され、対象ワーク14aが保持される(ステップS107)。
対象ワーク14aがエンドエフェクタ22によって保持されたら、ロボット16を移動させて対象ワーク14aを容器12の外部に搬出する。ロボット16は、図2に示されるように、第2の視覚センサ38が対象ワーク14aを計測可能になる位置まで移動させられる。そして、対象ワーク14aを保持したままの状態のエンドエフェクタ22を第2の視覚センサ38によって計測する(ステップS108)。なお、第2の視覚センサ38によって計測されるデータと、ロボット16の作業座標系とを関連付けるためのキャリブレーションは予め完了されているものとする。
続いて、相対的位置姿勢取得部62が作動され、エンドエフェクタ22に対する対象ワーク14aの相対的位置姿勢が計算される(ステップS109)。対象ワーク14aの相対的位置姿勢を計算するために、図11に関連して前述した保持部情報記憶部64、計測情報比較部66及び相対的位置姿勢計算部68が作動される。そして、対象ワーク14aの相対的位置姿勢に基づいて、対象ワーク14aをコンベア18の所定位置に所定の姿勢で載置するためのロボット16の位置及び姿勢が計算される(ステップS110)。続いて、載置動作制御部56が作動され、ステップS110において計算されたロボット16の所定位置までロボット16を移動させる。ロボット16を所定の位置姿勢まで移動させたら、エンドエフェクタ22が解放され、対象ワーク14aがコンベア18に載置される(ステップS111)。
以上のステップS106〜S111までの工程により、1つの対象ワーク14aが容器12から取出され、目標位置に載置される。次に取出されるべき対象ワーク14aを選択するため、「i」に(i+1)の値が入力される(ステップS112)。続いて「i」の値がステップ102において検出された平面部の個数nを超えたか否かが判定される(ステップS113)。「i」がn以下である場合、ステップ102において検出された平面部を有するn個の対象ワーク14aのうち、(n−(i−1))個の対象ワーク14aが容器12内に残存していることになる。そこで、ステップS106に戻って残りの対象ワーク14aの取出工程が継続される。このようにして、ステップS106〜ステップS111までの工程は、ステップ102において検出された平面部を有するn個の対象ワーク14aの取出工程が完了するまで繰返される。
一方、「i」がnよりも大きいと判定された場合、すなわちステップS102において検出された平面部を有する対象ワーク14aがすべて容器12から取出されたと判定された場合は、処理フローはステップS101に戻り、ワーク14の高さ分布を取得する処理が再度実行される。
前述した実施形態によれば、対象ワーク14aがロボット16によって保持された状態において、ロボット16のエンドエフェクタ22に対する対象ワーク14aの相対的位置姿勢が第2の視覚センサ38によって計測される。したがって、対象ワーク14aが保持される前に行われる第1の視覚センサ28による計測処理では、対象ワーク14aの位置及び姿勢を正確に計測する必要がない。換言すると、エンドエフェクタ22によって保持可能になる程度の対象ワーク14aの概略位置が分かればよい。それにより、第1の視覚センサ28によるワーク14の計測処理は短時間で完了できる。また、正確な3次元位置及び姿勢の計測は、ロボット16によって保持された状態の1つの対象ワーク14aのみを対象として第2の視覚センサ38によって実行される。その場合、一部のワーク14が他のワーク14の背後に隠れたりすることがないので、多数のワーク14を一度に3次元計測する場合に比べて、計測処理を高精度に実行できる。その結果、対象ワーク14aの所定位置への載置工程の精度が向上する。さらに膨大な量の3次元情報の処理を実行する必要もなく、計算に要する時間が短縮されるので、処理効率が向上する。したがって、本実施形態によれば、従来技術よりも実用的なワーク14の取出装置及び取出方法が提供される。
容器内において不規則に積重ねられた多数の物品の位置及び姿勢を正確に計測するのには高度の技術及び高性能の計算機が必要であるが、本実施形態によればそれらのいずれも不要である。通常、対象物品をロボットによって保持する場合、ロボットは、対象物品の予め定められた部位を保持する。そのため、対象物品の位置及び姿勢が正確に計測される必要がある。それに対し、本実施形態においては、図6に例示されるように、対象ワーク14aを保持する際の対象ワーク14aとロボット16のエンドエフェクタ22との位置関係は特に限定されない。したがって、容器12内における複数のワーク14を計測する際の計測精度が比較的低くても許容される。
また、視覚センサは、物品の形状に対応する検出モデルを予め設定しておくのが一般的である。そのため、取出されるべき物品の種類毎に検出モデルを変更するとともに各種設定の微調整が必要になる。それに対し、物品の高さ分布に基づいて対象物品の概略位置を決定する本実施形態によれば、物品の形状の違いが計測精度に与える影響は小さく、追加の調整をすることなく種々の物品に適用できる。
上記実施形態において、第2の視覚センサ38が3次元視覚センサである例を説明したものの、このような特定の形態には限定されない。代替的な実施形態において、第2の視覚センサ38は2次元カメラであってもよい。この実施形態において、例えば対象ワーク14a’は図9に示されるように概ね平板の形状を有している。また、エンドエフェクタ22’は、蛇腹部70を有する吸着パッド式グリッパである。図9は、このようなエンドエフェクタ22’を用いて対象ワーク14a’を保持する際の過程を示している。図9の(a)のように、対象ワーク14a’は、前述した実施形態と同様に、図示省略される容器12内において不規則に積重ねられており、エンドエフェクタ22’に対して種々の位置姿勢関係を有している。ところが、図9の(b)に示されるように蛇腹部70を有するエンドエフェクタ22’は、対象ワーク14a’の姿勢に追従して変形可能である。そして、図9の(c)に示されるように、対象ワーク14a’を引き上げると、対象ワーク14a’の表面がエンドエフェクタ22’に対して垂直方向を向くようになる。そして、このことは対象ワーク14a’が容器12内においていかなる姿勢を有していても同様である。
したがって、このような形態を有するエンドエフェクタ22’及び対象ワーク14a’が採用される場合、エンドエフェクタ22’の軸線に対して直角に延びる平面内(例えば水平面内)における位置姿勢関係が分かれば、エンドエフェクタ22’に対する対象ワーク14’の相対的位置姿勢が分かることになる。すなわち、このような実施形態において、第2の視覚センサ38は3次元視覚センサである必要はなく、2次元視覚センサ、例えば2次元カメラであってもよい。
以上、本発明の種々の実施形態を説明したが、本明細書において明示的又は暗示的に開示される複数の実施形態の特徴を任意に組合せることによっても本発明を実施できることは当業者に自明である。
10 ロボットシステム(物品取出装置)
12 容器
14 ワーク(物品)
14a 対象ワーク(対象物品)
16 ロボット
18 コンベア(目標位置)
20 ロボット制御装置
22 エンドエフェクタ(保持部)
28 第1の視覚センサ
34 センサ制御装置
38 第2の視覚センサ
50 処理部
52 概略位置取得部
54 取出動作制御部
56 載置動作制御部
60 高さ分布取得部
62 相対的位置姿勢取得部
64 保持部情報記憶部
66 計測情報比較部
68 相対的位置姿勢計算部

Claims (8)

  1. 容器内において不規則に積重ねられた複数の物品から1つの対象物品をロボットによって取出すとともに、取出された前記対象物品を所定の姿勢で目標位置に載置する物品取出装置であって、
    前記ロボットは、前記対象物品を解放可能に保持する保持部を備えており、
    当該物品取出装置は、
    前記容器内における前記複数の物品の高さ分布に関する情報を取得する第1の視覚センサと、
    前記第1の視覚センサによって取得される前記高さ分布に関する情報に基づいて、前記容器内において周囲の物品よりも高所にある対象物品の概略位置に関する情報を取得する概略位置取得部と、
    前記概略位置取得部によって取得される前記対象物品の前記概略位置に関する情報に基づいて、前記対象物品が前記保持部によって保持され得るように前記ロボットを制御する取出動作制御部と、
    前記保持部によって保持されている状態の前記対象物品を計測し、前記保持部に対する前記対象物品の相対的位置姿勢に関する情報を取得する第2の視覚センサと、
    前記第2の視覚センサによって取得される前記対象物品の前記相対的位置姿勢に基づいて、前記保持部によって保持されている状態の前記対象物品を前記目標位置に対して所定の相対的位置姿勢関係になるように前記ロボットを制御する載置動作制御部と、
    を備える、物品取出装置。
  2. 前記第2の視覚センサが2次元カメラである、請求項1に記載の物品取出装置。
  3. 前記第2の視覚センサが3次元視覚センサである、請求項1に記載の物品取出装置。
  4. 前記対象物品を保持していない状態における前記保持部に対応していて前記第2の視覚センサによって取得される第1の情報を記憶する保持部情報記憶部と、
    前記第1の情報及び前記第2の視覚センサによって取得される前記対象物品を保持している状態における前記保持部に対応する第2の情報に基づいて、前記対象物品の前記相対的位置姿勢を計算する相対的位置姿勢計算部と、
    をさらに備える、請求項1から3のいずれか1項に記載の物品取出装置。
  5. 容器内において不規則に積重ねられた複数の物品から1つの対象物品をロボットによって取出すとともに、取出された前記対象物品を所定の姿勢で目標位置に載置する物品取出方法であって、
    前記ロボットは、前記対象物品を解放可能に保持する保持部を備えており、
    当該物品取出方法は、
    第1の視覚センサによって、前記容器内における前記複数の物品の高さ分布に関する情報を取得し、
    前記第1の視覚センサによって取得される前記高さ分布に関する情報に基づいて、前記容器内において周囲の物品よりも高所にある対象物品の概略位置に関する情報を取得し、
    前記対象物品の前記概略位置に関する情報に基づいて、前記対象物品が前記保持部によって保持され得るように前記ロボットを制御し、
    第2の視覚センサによって、前記保持部によって保持されている状態の前記対象物品を計測し、前記保持部に対する前記対象物品の相対的位置姿勢に関する情報を取得し、
    前記第2の視覚センサによって取得される前記対象物品の前記相対的位置姿勢に基づいて、前記保持部によって保持されている状態の前記対象物品を前記目標位置に対して所定の相対的位置姿勢関係になるように前記ロボットを制御する
    ことを含む、物品取出方法。
  6. 前記第2の視覚センサが2次元カメラである、請求項5に記載の物品取出方法。
  7. 前記第2の視覚センサが3次元視覚センサである、請求項5に記載の物品取出方法。
  8. 前記保持部に対する前記対象物品の前記相対的位置姿勢に関する情報を取得する際に、
    前記第2の視覚センサによって予め取得され、記憶されていた前記対象物品を保持していない状態における前記保持部に対応する第1の情報を読出し、
    前記第1の情報と、前記第2の視覚センサによって取得される前記対象物品を保持している状態における前記保持部に対応する第2の情報と、に基づいて、前記対象物品の前記相対的位置姿勢を計算する
    ことをさらに含む、請求項5から7のいずれか1項に記載の物品取出方法。
JP2012240501A 2012-10-31 2012-10-31 物品取出装置及び物品取出方法 Active JP5642759B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2012240501A JP5642759B2 (ja) 2012-10-31 2012-10-31 物品取出装置及び物品取出方法
DE102013018222.0A DE102013018222B4 (de) 2012-10-31 2013-10-30 Objektaufnahmevorrichtung und Verfahren zum Aufnehmen eines Objekts
US14/067,168 US9604363B2 (en) 2012-10-31 2013-10-30 Object pickup device and method for picking up object
CN201310530229.1A CN103786153B (zh) 2012-10-31 2013-10-31 物品取出装置及物品取出方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012240501A JP5642759B2 (ja) 2012-10-31 2012-10-31 物品取出装置及び物品取出方法

Publications (2)

Publication Number Publication Date
JP2014087913A true JP2014087913A (ja) 2014-05-15
JP5642759B2 JP5642759B2 (ja) 2014-12-17

Family

ID=50479807

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012240501A Active JP5642759B2 (ja) 2012-10-31 2012-10-31 物品取出装置及び物品取出方法

Country Status (4)

Country Link
US (1) US9604363B2 (ja)
JP (1) JP5642759B2 (ja)
CN (1) CN103786153B (ja)
DE (1) DE102013018222B4 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016005637A1 (de) 2015-05-13 2016-11-17 Fanuc Corporation System zum Aufnehmen von Gegenständen und Verfahren zum Aufnehmen von gestapelten Gegenständen
JP2017052094A (ja) * 2016-12-22 2017-03-16 ファナック株式会社 バラ積みされた物品を取り出すための物品取出システム、および方法
WO2019053888A1 (ja) * 2017-09-15 2019-03-21 株式会社Fuji 部品供給システム
CN109910000A (zh) * 2017-12-13 2019-06-21 康耐视公司 基于视觉的操纵***的校准以及操作
US10434652B2 (en) 2017-05-19 2019-10-08 Fanuc Corporation Workpiece picking system
WO2020009148A1 (ja) * 2018-07-03 2020-01-09 コマツ産機株式会社 ワーク搬送システムおよびワーク搬送方法
US11752621B2 (en) 2019-07-31 2023-09-12 Fanuc Corporation Article transport system having plurality of movable parts

Families Citing this family (60)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013002099A1 (ja) * 2011-06-29 2013-01-03 三菱電機株式会社 部品供給装置
JP5778311B1 (ja) * 2014-05-08 2015-09-16 東芝機械株式会社 ピッキング装置およびピッキング方法
US9272417B2 (en) * 2014-07-16 2016-03-01 Google Inc. Real-time determination of object metrics for trajectory planning
US11059185B2 (en) 2014-10-03 2021-07-13 Frito-Lay North America, Inc. Apparatus and method for transferring a pattern from a universal surface to an ultimate package
US9346170B2 (en) 2014-10-03 2016-05-24 Frito-Lay North America, Inc. Apparatus and method for universal, flexible pillow bag pattern creation
US9346169B2 (en) 2014-10-03 2016-05-24 Frito-Lay North America, Inc. Apparatus and method for universal, flexible pillow bag pattern creation
US9802720B2 (en) 2014-10-03 2017-10-31 Frito-Lay North America, Inc. Apparatus and method for maintaining a pattern of non-rigid objects in a desired position and orientation
WO2016054561A1 (en) * 2014-10-03 2016-04-07 Frito-Lay North America, Inc. Apparatus and method for pattern creation
JP6140204B2 (ja) 2015-02-06 2017-05-31 ファナック株式会社 3次元センサを備えた搬送ロボットシステム
EP3261809B1 (en) * 2015-02-25 2022-09-21 Dematic Corp. Automated order fulfillment system and method
CN104786226A (zh) * 2015-03-26 2015-07-22 华南理工大学 抓取在线工件的机器人位姿及运动轨迹定位***与方法
EP4219093A1 (en) 2015-08-26 2023-08-02 Berkshire Grey Operating Company, Inc. Systems and methods for providing contact detection in an articulated arm
US11370128B2 (en) 2015-09-01 2022-06-28 Berkshire Grey Operating Company, Inc. Systems and methods for providing dynamic robotic control systems
EP4137280A1 (en) 2015-09-01 2023-02-22 Berkshire Grey Operating Company, Inc. Systems and methods for providing dynamic robotic control systems
CN108290297B (zh) 2015-09-08 2021-12-03 伯克希尔格雷股份有限公司 用于在自动***中提供高流量真空采集的***和方法
US10265872B2 (en) 2015-09-09 2019-04-23 Berkshire Grey, Inc. Systems and methods for providing dynamic communicative lighting in a robotic environment
ES2952517T3 (es) 2015-09-11 2023-10-31 Berkshire Grey Operating Company Inc Sistemas robóticos y métodos para identificar y procesar diversos objetos
WO2017083574A1 (en) * 2015-11-13 2017-05-18 Berkshire Grey Inc. Sortation systems and methods for providing sortation of a variety of obejcts
US9937532B2 (en) 2015-12-18 2018-04-10 Berkshire Grey Inc. Perception systems and methods for identifying and processing a variety of objects
CN108472814B (zh) 2016-01-08 2021-07-16 伯克希尔格雷股份有限公司 用于获取并移动物体的***和方法
CA3117170C (en) 2016-02-08 2023-08-29 Berkshire Grey, Inc. Systems and methods for providing processing of a variety of objects employing motion planning
EP3458385A1 (de) 2016-05-17 2019-03-27 Liebherr-Verzahntechnik GmbH Kommissioniersystem
WO2017198281A1 (de) * 2016-05-17 2017-11-23 Liebherr-Verzahntechnik Gmbh Kommissionierzelle
DE102016007313B4 (de) * 2016-06-10 2020-06-18 rbc-Fördertechnik GmbH Vorrichtung und Verfahren zum Ausrichten und/oder Vereinzeln von Objekten
JP6831651B2 (ja) * 2016-07-04 2021-02-17 川崎重工業株式会社 ワークの袋詰め装置
JP2018034242A (ja) * 2016-08-31 2018-03-08 セイコーエプソン株式会社 ロボット制御装置、ロボット、及びロボットシステム
JP6614075B2 (ja) 2016-09-07 2019-12-04 株式会社ダイフク 物品積載設備
JP6800223B2 (ja) 2016-10-28 2020-12-16 ベックマン コールター, インコーポレイテッド 物質調製評価システム
WO2018087546A1 (en) * 2016-11-08 2018-05-17 Dogtooth Technologies Limited A robotic fruit picking system
EP3551560A1 (en) 2016-12-09 2019-10-16 Berkshire Grey Inc. Systems and methods for processing objects provided in vehicles
JP7047249B2 (ja) * 2017-01-10 2022-04-05 オムロン株式会社 画像処理システム、画像処理装置、ワークのピックアップ方法、および、ワークのピックアッププログラム
JP6470321B2 (ja) * 2017-01-11 2019-02-13 ファナック株式会社 物品搬送装置
EP3569368A4 (en) * 2017-01-12 2020-01-22 Fuji Corporation WORKING MACHINE AND RECORDING POSITION SELECTION PROCEDURE
JP6453922B2 (ja) * 2017-02-06 2019-01-16 ファナック株式会社 ワークの取り出し動作を改善するワーク取り出し装置およびワーク取り出し方法
EP3366433B1 (en) * 2017-02-09 2022-03-09 Canon Kabushiki Kaisha Method of controlling robot, method of teaching robot, and robot system
US10639787B2 (en) 2017-03-06 2020-05-05 Berkshire Grey, Inc. Systems and methods for efficiently moving a variety of objects
JP6418359B1 (ja) 2017-03-24 2018-11-07 三菱電機株式会社 ロボットプログラムの生成装置及び生成方法
JP6526100B2 (ja) * 2017-04-28 2019-06-05 ファナック株式会社 物品取出システム
EP4299260A3 (en) 2017-08-02 2024-04-10 Berkshire Grey Operating Company, Inc. Systems and methods for acquiring and moving objects having complex outer surfaces
JP6676030B2 (ja) * 2017-11-20 2020-04-08 株式会社安川電機 把持システム、学習装置、把持方法、及び、モデルの製造方法
JP6662836B2 (ja) * 2017-11-24 2020-03-11 ファナック株式会社 収容領域又は治具にワークを配置するワーク配置システム
US11383936B1 (en) * 2017-12-06 2022-07-12 Alliance Manufacturing, Inc. Automatic height adjusting manifold
WO2019148428A1 (en) 2018-02-01 2019-08-08 Abb Schweiz Ag Vision-based operation for robot
CN109641706B (zh) * 2018-02-02 2021-04-30 深圳蓝胖子机器智能有限公司 拣货方法、***及其应用的获持与放置***、机器人
GB2572199A (en) * 2018-03-22 2019-09-25 Elior Group Ware identification and handling apparatus
DE102018204508A1 (de) * 2018-03-23 2019-09-26 Kuka Deutschland Gmbh Verfahren und System zum Betreiben eines Roboters
CN110893999A (zh) * 2018-09-12 2020-03-20 泰科电子(上海)有限公司 图像采集***和图像采集方法
CA3117600A1 (en) 2018-10-25 2020-04-30 Berkshire Grey, Inc. Systems and methods for learning to extrapolate optimal object routing and handling parameters
JP7134071B2 (ja) * 2018-11-14 2022-09-09 株式会社ダイフク 物品搬送設備
JP7134073B2 (ja) * 2018-11-14 2022-09-09 株式会社ダイフク 物品積載設備
JP7107249B2 (ja) * 2019-02-26 2022-07-27 株式会社ダイフク 物品移載装置
DE102019106068B3 (de) 2019-03-11 2020-06-10 Hiwin Technologies Corp. System zur beseitigung von überlagerungen zufällig angeordneter werkstücke
US20220241982A1 (en) * 2019-09-18 2022-08-04 Fuji Corporation Work robot and work system
MX2022006131A (es) * 2019-12-05 2022-06-17 Magna Int Inc Metodo y configuracion para robotica sin vallas.
WO2022020159A1 (en) 2020-07-22 2022-01-27 Berkshire Grey, Inc. Systems and methods for object processing using a passively collapsing vacuum gripper
US20220024705A1 (en) 2020-07-22 2022-01-27 Berkshire Grey, Inc. Systems and methods for object processing using a vacuum gripper that provides object retention by evacuation
DE102020212768B4 (de) 2020-10-09 2022-05-05 Ifc Intelligent Feeding Components Gmbh Schüttgut-Zuführsystem
US11633857B2 (en) * 2020-10-27 2023-04-25 Solomon Technology Corporation Method for picking up an object from a bin
US20220134384A1 (en) * 2020-11-05 2022-05-05 Beumer Corporation System and method for separating and singulating postal articles
CN118055897A (zh) 2021-10-06 2024-05-17 伯克希尔格雷营业股份有限公司 利用转移***对提供在升高车辆中的物体的动态处理和用于接收物体的方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3805302B2 (ja) * 2002-12-13 2006-08-02 ファナック株式会社 ワーク取出し装置
JP2011183537A (ja) * 2010-03-11 2011-09-22 Yaskawa Electric Corp ロボットシステム及びロボット装置並びにワーク取り出し方法
JP2012101320A (ja) * 2010-11-10 2012-05-31 Canon Inc 画像生成装置、画像生成方法、およびプログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6721444B1 (en) * 1999-03-19 2004-04-13 Matsushita Electric Works, Ltd. 3-dimensional object recognition method and bin-picking system using the method
JP2003148914A (ja) * 2001-11-08 2003-05-21 Fanuc Ltd 位置検出装置及び位置検出を利用した取出し装置
JP2004118562A (ja) 2002-09-26 2004-04-15 Fuji Photo Film Co Ltd 摂取カロリー計算支援方法および装置並びにプログラム
JP4174342B2 (ja) 2003-02-19 2008-10-29 ファナック株式会社 ワーク搬送装置
JP4565023B2 (ja) 2008-07-04 2010-10-20 ファナック株式会社 物品取り出し装置
DE102008052436A1 (de) 2008-10-21 2010-04-22 Daimler Ag Verfahren und Vorrichtung zum Vereinzeln von Bauteilen aus einem Behältnis

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3805302B2 (ja) * 2002-12-13 2006-08-02 ファナック株式会社 ワーク取出し装置
JP2011183537A (ja) * 2010-03-11 2011-09-22 Yaskawa Electric Corp ロボットシステム及びロボット装置並びにワーク取り出し方法
JP2012101320A (ja) * 2010-11-10 2012-05-31 Canon Inc 画像生成装置、画像生成方法、およびプログラム

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9868215B2 (en) 2015-05-13 2018-01-16 Fanuc Corporation Object pick-up system and method for picking up stacked objects
DE102016005637B4 (de) 2015-05-13 2019-02-14 Fanuc Corporation System zum Aufnehmen von Gegenständen und Verfahren zum Aufnehmen von gestapelten Gegenständen
DE102016005637A1 (de) 2015-05-13 2016-11-17 Fanuc Corporation System zum Aufnehmen von Gegenständen und Verfahren zum Aufnehmen von gestapelten Gegenständen
JP2017052094A (ja) * 2016-12-22 2017-03-16 ファナック株式会社 バラ積みされた物品を取り出すための物品取出システム、および方法
US10434652B2 (en) 2017-05-19 2019-10-08 Fanuc Corporation Workpiece picking system
JPWO2019053888A1 (ja) * 2017-09-15 2019-12-19 株式会社Fuji 部品供給システム
WO2019053888A1 (ja) * 2017-09-15 2019-03-21 株式会社Fuji 部品供給システム
US11647621B2 (en) 2017-09-15 2023-05-09 Fuji Corporation Feeding system for components in a scattered state
JP2019115974A (ja) * 2017-12-13 2019-07-18 コグネックス・コーポレイション ビジョンベース操作システムのキャリブレーション及びオペレーション
CN109910000A (zh) * 2017-12-13 2019-06-21 康耐视公司 基于视觉的操纵***的校准以及操作
US11072074B2 (en) 2017-12-13 2021-07-27 Cognex Corporation Calibration and operation of vision-based manipulation systems
JP7027299B2 (ja) 2017-12-13 2022-03-01 コグネックス・コーポレイション ビジョンベース操作システムのキャリブレーション及びオペレーション
CN109910000B (zh) * 2017-12-13 2022-06-14 康耐视公司 基于视觉的操纵***的校准以及操作
WO2020009148A1 (ja) * 2018-07-03 2020-01-09 コマツ産機株式会社 ワーク搬送システムおよびワーク搬送方法
US10576526B2 (en) 2018-07-03 2020-03-03 Komatsu Industries Corporation Workpiece conveying system, and workpiece conveying method
US11752621B2 (en) 2019-07-31 2023-09-12 Fanuc Corporation Article transport system having plurality of movable parts

Also Published As

Publication number Publication date
CN103786153B (zh) 2015-10-14
JP5642759B2 (ja) 2014-12-17
CN103786153A (zh) 2014-05-14
US9604363B2 (en) 2017-03-28
DE102013018222B4 (de) 2019-01-03
US20140121836A1 (en) 2014-05-01
DE102013018222A1 (de) 2014-04-30

Similar Documents

Publication Publication Date Title
JP5642759B2 (ja) 物品取出装置及び物品取出方法
JP5282717B2 (ja) ロボットシステム
JP4565023B2 (ja) 物品取り出し装置
US11524410B2 (en) Robotic alignment method for workpiece measuring systems
EP3173194B1 (en) Manipulator system, image capturing system, transfer method of object, and carrier medium
JP5469216B2 (ja) バラ積みされた物品をロボットで取出す装置
JP2014161965A (ja) 物品取り出し装置
JP2018176334A (ja) 情報処理装置、計測装置、システム、干渉判定方法および物品の製造方法
EP2636493A2 (en) Information processing apparatus and information processing method
JP6703812B2 (ja) 3次元物体検査装置
JP2015089590A (ja) バラ積みされた物品をロボットで取出す装置及び方法
CN110621447B (zh) 机器人传送器校准方法、机器人***以及控制***
CN112123342B (zh) 一种机器人***以及测控方法
US10179380B2 (en) Temporary placement device able to adjust orientation of workpiece
CN109835706B (zh) 工件配置***
WO2018145025A1 (en) Calibration article for a 3d vision robotic system
KR20110095700A (ko) 작업대상물 픽업을 위한 산업용 로봇 제어방법
JP6450788B2 (ja) ワーク取出システム
JP5458807B2 (ja) 対象物把持領域抽出装置および対象物把持領域抽出装置を用いたロボットシステム
JP2016078180A (ja) 異常原因推定装置、ピッキング装置及びピッキング装置における異常原因推定方法
JP2020013548A (ja) 画像処理装置、画像処理方法、システム、物品の製造方法
WO2023187006A1 (en) Controlling a robotic manipulator for packing an object
CN106276285A (zh) 组料垛位自动检测方法
JP2017007026A (ja) 位置補正システム
CN105489532A (zh) 硅片承载装置中硅片的安全放置方法

Legal Events

Date Code Title Description
A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20140306

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20140509

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140513

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141007

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141029

R150 Certificate of patent or registration of utility model

Ref document number: 5642759

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150