JP2019509559A - センサ誘導式ロボットを用いたボックスの位置特定、分離、およびピッキング - Google Patents

センサ誘導式ロボットを用いたボックスの位置特定、分離、およびピッキング Download PDF

Info

Publication number
JP2019509559A
JP2019509559A JP2018544077A JP2018544077A JP2019509559A JP 2019509559 A JP2019509559 A JP 2019509559A JP 2018544077 A JP2018544077 A JP 2018544077A JP 2018544077 A JP2018544077 A JP 2018544077A JP 2019509559 A JP2019509559 A JP 2019509559A
Authority
JP
Japan
Prior art keywords
box
representation
loading pallet
robot arm
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018544077A
Other languages
English (en)
Other versions
JP6805465B2 (ja
Inventor
チッタ、サチン
ハーシュバーガー、デイヴィッド
パウエルズ、カール
Original Assignee
キネマ システムズ インコーポレイテッド
キネマ システムズ インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by キネマ システムズ インコーポレイテッド, キネマ システムズ インコーポレイテッド filed Critical キネマ システムズ インコーポレイテッド
Publication of JP2019509559A publication Critical patent/JP2019509559A/ja
Application granted granted Critical
Publication of JP6805465B2 publication Critical patent/JP6805465B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1687Assembly, peg and hole, palletising, straight line, weaving pattern movement
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65GTRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
    • B65G61/00Use of pick-up or transfer devices or of manipulators for stacking or de-stacking articles not otherwise provided for
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40006Placing, palletize, un palletize, paper roll placing, box stacking
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40607Fixed camera to observe workspace, object, workpiece, global

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)
  • De-Stacking Of Articles (AREA)
  • Image Analysis (AREA)
  • Multimedia (AREA)

Abstract

ロボットピッキングシステムが、コンピュータビジョンおよび/または1つもしくは複数の「予備的ピッキング」を用いてパレットのボックスのサイズおよび位置を決定することで、ボックスの位置を特定し、ボックスを非構造パレットから取り出すことを可能とする技法が記載されている。

Description

本願は2016年2月26日に出願されたLocating, Separating, and Picking Boxes With a Sensor−Guided Robotの米国仮特許出願第62/300,403号(代理人整理番号KNMAP001P)、および2017年1月30日に出願されたLocating, Separating, and Picking Boxes With a Sensor−Guided Robotの米国特許出願第15/419,862(代理人整理番号KNMAP001)に基づく優先権を主張するものであり、両出願の開示全体が、全ての目的において参照により本明細書へ組み込まれる。
工業環境、製造環境、物流環境および商用環境では、取り出される(すなわち、パレットまたは保持容器から動かされる)べき物体の大部分をボックスのような物体が構成する。ボックスのような物体は、通常、少なくとも1つのほぼ平らな取り出し面により特徴付けられる。従来のロボットによるボックスのピッキングでは、構造化パレットに均一に配置された、既知のサイズ、数およびタイプのボックスしか処理することができない。機械的固定具を用いて、幾つかの現行システムは、パレットのボックスを事前に配置して、ロボットが予めプログラムされた既知の位置からボックスを取り出すことができるようにする。ボックスのサイズ、ボックスの数、またはボックスの位置がこの既知の構造から少しでもずれると、システムの故障につながる。コンピュータビジョンに基づく幾つかのシステムでは、境界にだけ滑らかな縁を有するボックスに依存したものであり、広告、印刷された文字、印刷されたロゴ、絵、色、または任意の他の表面模様を有するボックスは処理することができない。係るボックスは、その表側に視覚上の縁、すなわち、ボックスの実際の物理的境界に相当しない縁を有する。コンピュータビジョンに基づく現行のシステムでは、2つの異なるボックス間の物理的な縁と、ボックスの表側にある他の視覚上の縁とを区別することができないので、これらのシステムは、ボックスのサイズおよび位置を誤測することになる。システムがボックスのサイズおよび位置を誤測したにもかかわらずボックスを取り出して動かすと、ボックスがロボットの把持からすり抜けることもあるし、ロボットが、ボックスを1つだけ取り出すべきところで2つまたはそれより多くのボックスを取り出すこともある。
様々な環境でロボットによるボックスのピッキングを制御するためのセンサベース技法に関する方法、装置、システムおよびコンピュータプログラム製品が記載されている。
ある特定の種類の実装によると、荷積みパレットの第1画像が取り込まれる。荷積みパレットは、そこに積み重ねられた複数のボックスを有する。第1画像を用いて、荷積みパレットの表面の第1表現が生成される。ロボットアームを用いて、荷積みパレットの表面のコーナーにある第1ボックスがプログラム可能な量動かされる。ロボットアームにより動かされた第1ボックスを含む、荷積みパレットの第2画像が取り込まれる。第2画像を用いて、荷積みパレットの表面の第2表現が生成される。第1ボックスは、ロボットアームを用いて元に戻される。荷積みパレットの表面の第1表現および第2表現は処理されて、第1ボックスの表面の表現を生成する。ロボットアームは、第1ボックスの表面の表現を用いて、第1ボックスに対して位置決めされる。第1ボックスは、ロボットアームを用いて荷積みパレットから動かされる。
ある特定の実装によると、荷積みパレットの表面の第1表現および第2表現を処理することは、荷積みパレットの表面の第1表現と第2表現との差異を決定することと、この差異を用いて第1ボックスの表面のサイズおよび位置を決定することとを含む。
ある特定の実装によると、第2画像は、第1ボックスの表面の一部を不明瞭にするロボットアームの表現を含む。荷積みパレットの表面の第1表現および第2表現を処理して第1ボックスの表面の表現を生成することは、荷積みパレットの表面の第1表現および第2表現の両方からのデータを用いて、第1ボックスの表面の表現を生成することを含む。
ある特定の実装によると、荷積みパレットのボックスの最小限のボックスサイズを表す入力が受信される。第1ボックスの表面の表現を用いてロボットアームを第1ボックスに対して位置決めすることは、最小限のボックスサイズを用いることを含む。
ある特定の実装によると、荷積みパレットのボックスの最大限のボックスサイズを表す入力が受信される。ロボットアームを用いて荷積みパレットから第1ボックスを動かすことは、(1)少なくとも、最大限のボックスサイズと関連付けられる高さだけ、荷積みパレットの上面の上方に第1ボックスを持ち上げること、または(2)少なくとも、最大限のボックスサイズと関連付けられる距離だけ、荷積みパレットの側面から第1ボックスを遠ざけることを含む。
ある特定の実装によると、ロボットアームを用いて荷積みパレットから第1ボックスを動かすことは、荷積みパレットのボックスの数、サイズ、向きおよび位置を先験的に認識することなく達成される。
ある特定の実装によると、第1画像および第2画像は、カメラを用いて取り込まれる。ロボットアームにより対応する複数の位置に保持された基準点の複数の画像を用いて、カメラの位置が決定される。
ある特定の実装によると、空のパレットの基準点の画像を用いて、荷積みパレットの位置が決定される。
ある特定の実装によると、ボックスの総数よりも少ない数のボックスに対して、取り込むことと、生成することと、持ち上げることと、取り込むことと、生成することと、離すことと、処理することとを行いながらも、ボックスの全てが荷積みパレットから降ろされる。
ある特定の実装によると、第1ボックスを動かすことは、(1)ロボットアームを用いて、第1ボックスを荷積みパレットに対してプログラム可能な量持ち上げること、(2)ロボットアームを用いて、第1ボックスを荷積みパレットに対して横方向に動かすこと、および(3)ロボットアームを用いて、第1ボックスを荷積みパレットの表面に対して傾けることのうち1つを含む。
ある特定の実装によると、第1ボックスの表面の表現が記憶される。画像取込デバイスを用いて、荷積みパレットの第3画像が取り込まれる。第3画像は第1ボックスを含まない。第3画像を用いて、荷積みパレットの表面の第3表現が生成される。荷積みパレットの表面の第3表現と第1ボックスの表面の記憶された表現とを比較することにより、第1ボックスに対応する第1ボックスタイプの1つまたは複数のインスタンスが特定される。このことは、第1ボックスタイプのインスタンスの各々の位置および向きを決定することを含む。対応する位置および向きを用いて、第1ボックスタイプのインスタンスの各々が取り出される。
ある特定の実装によると、第1ボックスの表面の表現が記憶される。画像取込デバイスを用いて、異なる積荷パレットの画像が取り込まれる。この画像を用いて、異なる積荷パレットの表面の表現が生成される。異なる積荷パレットの表面の表現と第1ボックスの表面の記憶された表現とを比較することにより、第1ボックスに対応する第1ボックスタイプの1つまたは複数のインスタンスが特定される。このことは、第1ボックスタイプのインスタンスの各々の位置および向きを決定することを含む。ロボットアームとインスタンスの各々の対応する位置および向きとを用いて、第1ボックスタイプの各インスタンスが取り出される。
本明細書の残りの部分および図面を参照することにより、様々な実装の本質および利点の更なる理解が実現され得る。
本明細書の記載通りに実装されたパレットピッキングシステムの図である。 パレットのボックスの積み重ねの上部を表したものである。 特定の実装の動作を示すフローチャートである。 荷積みパレットの画像を表したものである。 本明細書の記載通りに実装されたパレットピッキングシステムの図である。 荷積みパレットの画像を表したものである。 本明細書の記載通りに実装されたパレットピッキングシステムの図である。 荷積みパレットの画像を表したものである。 荷積みパレットの画像を表したものである。 ボックスの上部を表したものである。 本明細書の記載通りに実装されたパレットピッキングシステムの図である。 パレットのボックスの積み重ねの上部を表したものである。 パレットのボックスの積み重ねの上部を表したものである。 ボックスの上部を表したものである。 特定の実装の動作を示すフローチャートである。 パレットのボックスの積み重ねの上部を表したものである。 モデルデータベースへの入力を示している。 モデルデータベースの使用を示している。
ここで、特定の実装を詳しく参照することにする。添付図面にはこれらの実装例が示されている。これらの例は例示目的で記載されており、本開示の範囲を限定することを意図するものではないことに留意されたい。むしろ、記載の実装の代替形態、修正形態および均等物が本開示の範囲内に含まれる。加えて、記載の実装の十分な理解を促すために特定の詳細が提供されてよい。これらの詳細のうち幾つかまたは全てがなくても、本開示の範囲内にある幾つかの実装が実施されてよい。更には、分かりやすくするために、周知の特徴は詳しく記載されていないかも知れない。
本明細書には、ボックスのサイズおよび位置を決定するためにコンピュータビジョンだけを用いて、または、コンピュータビジョンと組み合わされた1回または複数回の「予備的ピッキング」を用いてボックスの位置を特定し、ボックスを非構造パレットから取り出すことができるロボットピッキングシステムの実装が記載されている。様々な実装によると、システムは、コンピュータビジョンと1つまたは複数の視覚センサ(例えば、1つまたは複数のカメラ)からの画像(コンピュータビジョンおよび画像はどちらも2Dおよび/または3D)とを用いてパレットのボックスの最上層の最も外側にあるコーナーを決定する。次にシステムは、ロボットおよび付属グリッパを用いて予備的ピッキングを行い、ロボットおよび付属グリッパは、最も外側にあるボックスをそのコーナーから少しだけ持ち上げて、最上層からボックスを分離する。システムは、再びコンピュータビジョンを用いてパレットおよびボックスの新しい画像を撮り、2つの画像間の差異を算出して、取り出されたボックスのサイズと最上層におけるそのボックスの位置とを決定する。システムはボックスを降ろし、算出されたサイズおよび位置を用いてボックスの中心部を再び持ち上げ、タスクを完了する。
幾つかの実装によると、システムは、ボックスの取り出された面の外見を、その外見のボックスを初めて取り出した時に学習し、次にその後のピッキングにおいて、パレット内で一致した外見を有する他のボックスを特定しようと試みる。これにより、システムは、自らが学習した外見を有するボックスについては予備的ピッキングを省略し、代わりに、既に学習されたボックスの外見からボックスのサイズおよびボックス中心部の位置を決定することが可能となる。
本明細書の記載通りに実装されるシステムにより、ロボットは、グリッパがボックスの把持面の物理的中心部またはその近くを中心とした状態で各ボックスを正確に取り出すことが可能となり、ボックス面が長方形である幾つかの場合には、グリッパがその面の長軸と位置合わせされた状態で各ボックスを正確に取り出すことが可能となる。
ここで図1を参照すると、2つのボックス12および14を含む例示的なボックスパレット20が示されている。ボックスの上面16および18は、パレット20の最上層において互いに同じレベルにある。視覚センサ(例えば、カメラ)26がパレット20を上方から観察できるよう置かれている。作業空間には付属グリッパ30を有するロボット28も存在する。ロボット制御システム31と通信しているコンピューティングデバイス29により、本明細書に記載されているロボットの自動制御が可能となる。コンピューティングデバイス29はユーザインタフェースも提供しており、このユーザインタフェースにより、人間のオペレータがシステムとインタラクトすることができる。理解されるように、コンピューティングデバイス29は、様々なコンピューティングデバイスの何れであってもよく、かつ、制御システム31と直接接続されてもよいし、仲介デバイスおよび/またはネットワークを介して制御システム31と通信してもよい。
本明細書における特定のコンピューティングパラダイムおよびソフトウェアツールへの何れの言及にかかわらず、様々な実装の基となっているコンピュータプログラム命令は、多種多様なプログラミング言語、ソフトウェアツールおよびデータフォーマットの何れにも対応してよく、任意のタイプの非一時的コンピュータ可読記憶媒体またはメモリデバイスに記憶されてよく、かつ、例えば、クライアント/サーバモデル、ピアツーピアモデルを含む様々なコンピューティングモデルに従って独立型のコンピューティングデバイスで実行されてもよいし、様々な機能が様々な位置で実行または利用され得る分散コンピューティングモデルに従って実行されてもよいことに更に留意されたい。当業者であれば知っている適切な代替形態が利用されてもよい。
特定の実装によると、ロボット28は、Yaskawa MotomanのMH80ロボットまたはMH5Fロボットであってよい。しかしながら、特定のロボットへの何れの言及にかかわらず、本明細書に記載されている技法は、移動型ベースに搭載された、1つまたは複数のロボットアームを含む1つまたは複数のアームを有する任意のロボット、様々な数の自由度を有する直列連鎖ロボット、および並列連鎖ロボットに適用され得ることに留意されたい。
特定の視覚センサの配置への何れの言及にかかわらず、システムは、複数のセンサ配置態様に適用され得ることに留意されたい。この配置態様は、センサが固定プラットフォームに搭載されている場合、または、センサがグリッパもしくはロボットアームの他の部分に搭載されている場合、または、センサが移動プラットフォーム(移動型ロボット)に搭載されている場合を含んでおり、移動プラットフォームには、ロボットアームも搭載されている。当業者にとっては他の変形形態も明白であろう。
特定のグリッパへの何れの言及にかかわらず、システムは、これらに限定されるわけではないが、真空グリッパ、静電グリッパ、2本指の平行あごグリッパ、複数の指を有するロボットハンドなどを含む様々なタイプのグリッパを有するロボットに適用され得ることに留意されたい。
特定のパレットの幾何学的形状への何れの言及にかかわらず、システムは、これらに限定されるわけではないが、パレット、大型ボックス、3面ケージ、輸送用容器、ビン、またはトラック、バン、平らな荷台の後部などを含む、任意のタイプの開放型容器または開放型平面から取り出すことにも適用され得ることに留意されたい。
図2はパレット20の上面図を示している。四角32は、ボックス14の表面の印刷された縁に相当する。縁34は、ボックス12の上面の中央の継ぎ目に相当する。縁36は、ボックス12およびボックス14の縁に相当する実際の物理的境界に相当する。後ほど記載されるように、特定のボックスの数、サイズ、向きおよび位置の先験的に認識していなくとも、ロボットは、ボックス12および14を別々に取り出すことができ、両方のボックスが同時に持ち上げられるのを避けることができる。
ひとたびロボットの電源が入って、その制御システムが正常に起動すると、人間のオペレータが(例えば、コンピューティングデバイス29を介して)システム較正を誘導する。ここで、システムは、自らがボックスを取り出すことになるパレットの位置と、取り出されたボックスが送られるべき位置(この例ではコンベア(不図示))とを学習する。グリッパに較正基準点が置かれ、ロボットアームは、カメラにより取り込まれる約20種類の異なるポーズを取るよう動き回され、空間におけるカメラの位置をシステムが決定できるようにする。すなわち、空間におけるロボットアームの位置をシステムが認識しているので、カメラの位置は、様々な既知の位置にある基準点の異なる視点により決定され得る。
パレットの中心部に別の基準点が置かれ、パレットの位置が決定され得るよう画像が撮られる。パレットの大きさ(長さ、幅、高さ)は、オペレータにより指定され、次に基準点の位置と結び付けられる。次に、仮想パレットのレンダリングがスクリーン上で実際のパレットの画像に重ね合わされてオペレータに示され、それらがどの程度揃っているかが分かる。
通常の状況ではコンベアの関連部分がカメラの視野に入っていないかも知れないので、ボックスが送られるべき位置においてグリッパがコンベアに触れようとするまでは、オペレータがロボットアームを手動で駆動することにより、コンベアの位置が決定されてよい。
次に、空のパレットが荷積みパレットと交換され、荷下ろし過程が始まってよい。パレットのボックスの各ピッキングはサイクルと呼ばれる。各サイクルの初めに、システムは、カメラ前方の境界点と荷積みパレットの大きさの境界点とにより画定される凸空間内にロボットアームがあるかどうかを確認する。凸空間内にある場合は、アームが既知の好適な位置にどかされることで、画像の取り込みが可能となる。アームがどかされた状態にあると決定されると、カメラ画像(深さおよびRGB)および既知のパレット位置から3D点群が生成される。その後の処理では、荷積みパレットの大きさ以外の視覚情報が無視される。
図1および図2、図3のフローチャート、並びに図4の例示的な画像を参照すると、システムはまず、パレット20の(3Dおよび2D)画像38を撮り、コンピュータビジョンを用いて図2に示されているパレット20の最上面に相当する3D点群クラスタを包含する凹包から最も外側にあるコーナー(40、42、44、46)を決定する。(隣り合うボックスの島に相当する)複数のクラスタの場合は、最も外側にあるコーナーが、クラスタごとに算出されるコーナーから決定される。ある特定の実装によると、3D点群の点がパレットに対するz軸でソートされ、最も高い点が選択されることにより、パレット積荷の最上面の表現を含む点群のスライスが生成される。この情報は2次元に投影される。理解されるように、このスライスは、既に取り出された1つまたは複数のボックスを表す幾つかの長方形状および幾つかの空きスペースを含むことがある。次に、スライスの最も外側にあるコーナーが(例えば、空間の中心からの距離でコーナーをソートすることにより)特定される。
次に、システムは、ロボット28を用いて最も近いコーナー40までグリッパ30を動かすことを選択し、グリッパ30は、ボックス14とは重なり合わずにボックス12とだけ重なり合うよう算出されて、ボックス12と重なり合う。システムは、可能な限り小さな既知のサイズのボックスを用いてボックスをコーナーエリアで把持するのに必要とされる最小限の重複部分を算出する。ある特定の実装によると、ロボットアームのグリッパのコーナーは、グリッパのサイズと(例えば、オペレータにより指定された)最も小さな既知のボックスサイズとを考慮して、これらのコーナーのうち1つの上に位置決めされ、グリッパが一度に1つより多くのボックスを把持しないようにする。これに際して長方形グリッパの向きも考慮され、その向きは、隣り合うボックスにグリッパが最も干渉しない向きが好ましい。グリッパを所定の位置へ動かすには、経路計画、すなわちロボットアームの一連の関節角度動作の計算が必要であり、ロボットアームは、グリッパを、その現在の既知の位置から所望の位置まで何にもぶつけることなく適切に動かす。
図3のフローチャート並びに図5のロボットおよびパレットの斜視図に示されるように、グリッパ30を用いて、システムは、ボックス12を垂直上方へ少しだけ持ち上げる。係る動作は、たとえグリッパ30がボックス12の中心部を持ち上げていなくても、ボックス12の移動距離がほんのわずかなので可能となる。この動作は「予備的ピッキング」と呼ばれる。
図3のフローチャートおよび図6の例示的な3D画像を参照すると、システムは次に、センサ26を用いてパレットの新しい画像50を撮る。図6を参照すると、新しい画像50は、ロボットおよびグリッパ並びに持ち上げられたボックスに対応する画素を含んでおり、ロボットおよびグリッパ並びに持ち上げられたボックスの全てがカメラ26の視野内にある。動かされたボックスをその新しい位置に含んでいる新しい画像から別の3D点群が生成される。ボックスが持ち上げられたおおよその量だけ前のスライスよりも上にあるこの新しい3D点群からスライスが取得される。
図7を参照すると、システムは、取り出されたボックスの上面を中心とする短い縦型の関心領域52の画像50を調べる。図8を参照すると、画像38と画像50との差異54は、ロボット28、グリッパ30、およびシステムが持ち上げたボックス12に相当する。
図9を参照すると、システムは、最初の画像38の平面を差異54に対応する画素へはめ合わせる。この平面は、図1のボックス12の上面16に相当する。システムは、図10に示されているこの平面を用いて、ボックス12の上面のサイズを算出する。すなわち、持ち上げられている物体がボックスだと認識していることを考慮して、新しいスライスが2Dに投影され、2D境界が特定され、その境界に最適な長方形がはめ合わされる。
図3のフローチャートおよび図10の取り出されたボックスの上面図を参照すると、システムは、この差異54を用いてボックス12の中心部56も決定する。理解されるように、ボックスの一部は、グリッパおよびロボットアームで見えなくなっている。しかし、見えなくなっているボックスのコーナーは、前の処理工程で既に表されている。故に、予備的ピッキングで生成されている長方形は、スライスのこの領域も含む。
図3のフローチャートを参照すると、ここでシステムはボックスをパレットに戻し、次にボックスがグリッパにより最もしっかりと固定される向きを用いて(例えば、図11に示されているように、ボックスの長い方の縁に沿ってグリッパ30を方向付けながら)ボックス12の中心部56を取り出すよう、付属グリッパ30を有するロボット28を再配置する。次にアームは(例えば、オペレータにより指定される)最大限のボックスの高さに若干の余裕を持たせた分だけ(最近生成された点群から決定される)パレット積荷の最上面の上方にボックスを持ち上げる。
把持されたボックスをコンベアまで動かすための経路計画は次に、パレット積荷が単にパレット積荷の最も高い既知のコーナーの高さとパレット自体の高さとにより画定された長方形のボックスとして表され得る環境の3Dモデルを用いて計算される。このようにして、システムは、これまでサイズの分からなかったボックスのピッキングを正常に完了した。
幾つかの実装と関連付けられる利点は、複数の視覚上の縁を全面に有し得る物理的ボックスを、複数の物理的ボックスと混同することなく分離して取り出す能力である。例えば、図2を参照すると、ボックス14および12の上面18および16にそれぞれある四角32および縁34は、システムがボックス12の外縁を正確に認識する妨げとはならない。
予備的ピッキングでは、取り出されたボックスが上記のようにその上面で把持されて垂直方向に持ち上げられなくてよいことに留意されたい。すなわち、本開示により可能となる、想定される実装では、ボックスの他の表面を把持することおよび/または把持されたボックスを他の方向へ動かすことにより、予備的ピッキングが実行されてよい。例えば、ボックスの側面が把持されてよく、ボックスが荷積みパレットの外側に引き出されてよい。同様に、システムは、積み重ねの他のボックスに対して水平ではなく、傾いているボックスを取り出すこともできる。より一般的には、本明細書に記載されているボックスの関連表面の認識が可能となる任意のやり方で、荷積みパレットのボックスを把持して動かすことにより、予備的ピッキングが達成されてよい。
図12は、異なるボックスパレット、すなわちパレット58の上面図を示している。パレット58は、例示的なデザインまたはテキストが表側に印刷されたボックスを有する。コーナーのボックス60は、上記のこの積み重ねにおいて取り出される第1ボックスとなる例示的なボックスである。図13は、ボックス60が取り出された後のパレット58の上面図を示している。図14は、ボックス60の取り出し前後におけるパレット58の上面図の差異62を示している。差異62は、ボックス60のシステムの図を表している。差異62は、ボックス60の、フィーチャーベースの外観モデルを算出するために使用される。
すなわち、幾つかの実装によると、予備的ピッキングで学習されたボックスの境界は、最初の画像のボックスを特定して、同じタイプのボックスをその後に認識できるようモデルを生成するために、最初の画像のデータ点と併せて使用される。このモデルは、ボックス上部の複数の表現を含んでおり、スケール、回転、および視野角に対して不変となるやり方で、認識をし易くすることができる。これは、例えば、スケール不変特徴変換(SIFT:Scale Invariant Feature Transform)アルゴリズム、高速化ロバスト特徴(SURF:Speeded Up Robust Features)アルゴリズム、KAZEアルゴリズム、AKAZEアルゴリズム、ORBアルゴリズムなどの多種多様な特徴抽出ツールおよび特徴記述ツールを用いて行われてよく、関連する認識技法(例えば、OpenCVライブラリにおけるものなど)が使用されてよい。これらの表現は次に、パレットの他の同様のボックスを特定し、結果としてボックスごとに予備的ピッキングを実行せざるを得ない状態を避けるために使用されてよい。
パレットの上面の2D表現の生成と併せて、既知のボックスの記憶されたモデルは、予備的ピッキングを用いることなく取り出され得る既知のタイプのボックスがあるかどうかを決定するために使用される。幾つかの実装によると、この物体認識は、ボックスがパレットから動かされるたびに行われてよい。このことは、取り出すたびにボックスがずれるかも知れない可能性が大きい場合に好都合であり得る。代替的に、認識されたタイプのボックスのうち1つより多くが、または、それら全てでさえ、物体認識工程をやり直すことなくパレットから動かされてよい。加えて、システムは、自らが認識しないボックスの境界に出くわすたびに、新しいモデルをデータベースに加える。このことは、既に記憶されたモデルにボックスが相当するとしても当てはまる。同じボックスタイプのために複数のモデルを生成すると、不都合であるどころか、より効率的でロバストなシステム動作が実現し得る。理解されるように、記憶されたモデルは、同じパレットのボックスだけでなく、その後のパレットのボックスについてもその後のピッキングをサポートするために、今後も潜在的に無期限に使用されてよい。
図15のフローチャートおよび図17の図表を参照すると、ボックス60を表す外観モデル64は、図16の網掛けボックスで表されるボックス60と同様の、パレット58の他のボックスを検出するために使用される。ここで、これらのボックスは、予備的ピッキングを必要とすることなくロボットにより直接取り出されてよい。図17に示されるように、外観モデル64並びにボックス60の算出されたサイズおよび中心部は、(他のボックスタイプを表すモデルと共に)モデルのデータベース72に加えられる。図18に示されるように、データベース72のモデルは、新しいパレットにおけるボックスの位置および中心部を決定するために使用され、これにより、ロボットは予備的ピッキングを必要とすることなく認識されたボックスを持ち上げることが可能となる。
当業者であれば、本明細書に記載されている実装の形態および詳細の変更が、本開示の範囲から逸脱することなく行われ得ることを理解するであろう。加えて、様々な実装を参照して様々な利点、態様および対象が記載されているが、本開示の範囲は、係る利点、態様および対象への言及により限定されるべきではない。むしろ、本開示の範囲は、添付の特許請求の範囲を参照して決定されるべきである。

Claims (25)

  1. 荷積みパレットの第1画像を取り込む段階であって、前記荷積みパレットは、そこに積み重ねられた複数のボックスを有する、取り込む段階と、
    前記第1画像を用いて、前記荷積みパレットの表面の第1表現を生成する段階と、
    ロボットアームを用いて、前記荷積みパレットの前記表面のコーナーにある第1ボックスをプログラム可能な量動かす段階と
    前記ロボットアームにより動かされた前記第1ボックスを含む、前記荷積みパレットの第2画像を取り込む段階と、
    前記第2画像を用いて、前記荷積みパレットの前記表面の第2表現を生成する段階と、
    前記ロボットアームを用いて前記第1ボックスを元に戻す段階と、
    前記荷積みパレットの前記表面の前記第1表現および前記第2表現を処理して、前記第1ボックスの表面の表現を生成する段階と、
    前記第1ボックスの前記表面の前記表現を用いて、前記ロボットアームを前記第1ボックスに対して位置決めする段階と、
    前記ロボットアームを用いて、前記荷積みパレットから前記第1ボックスを動かす段階と
    を備える、コンピュータ実装方法。
  2. 前記荷積みパレットの前記表面の前記第1表現および前記第2表現を処理する段階は、前記荷積みパレットの前記表面の前記第1表現と前記第2表現との差異を決定する段階と、前記差異を用いて前記第1ボックスの前記表面のサイズおよび位置を決定する段階とを含む、請求項1に記載のコンピュータ実装方法。
  3. 前記第2画像は、前記第1ボックスの前記表面の一部を不明瞭にする前記ロボットアームの表現を含んでおり、前記荷積みパレットの前記表面の前記第1表現および前記第2表現を処理して、前記第1ボックスの前記表面の表現を生成する段階は、前記荷積みパレットの前記表面の前記第1表現および前記第2表現の両方からのデータを用いて、前記第1ボックスの前記表面の前記表現を生成する段階を含む、請求項1または2に記載のコンピュータ実装方法。
  4. 前記荷積みパレットの前記ボックスの最小限のボックスサイズを表す入力を受信する段階を更に備え、前記第1ボックスの前記表面の前記表現を用いて前記ロボットアームを前記第1ボックスに対して位置決めする段階は、前記最小限のボックスサイズを用いる段階を含む、請求項1から3の何れか一項に記載のコンピュータ実装方法。
  5. 前記荷積みパレットの前記ボックスの最大限のボックスサイズを表す入力を受信する段階を更に備え、前記ロボットアームを用いて前記荷積みパレットから前記第1ボックスを動かす段階は、(1)少なくとも、前記最大限のボックスサイズと関連付けられる高さだけ、前記荷積みパレットの上面の上方に前記第1ボックスを持ち上げる段階、または(2)少なくとも、前記最大限のボックスサイズと関連付けられる距離だけ、前記荷積みパレットの側面から前記第1ボックスを遠ざける段階を含む、請求項1から4の何れか一項に記載のコンピュータ実装方法。
  6. 前記ロボットアームを用いて前記荷積みパレットから前記第1ボックスを動かす段階は、前記荷積みパレットの前記ボックスの数、サイズ、向きおよび位置を先験的に認識することなく達成される、請求項1から3の何れか一項に記載のコンピュータ実装方法。
  7. 前記第1画像および前記第2画像は、カメラを用いて取り込まれ、前記コンピュータ実装方法は、前記ロボットアームにより対応する複数の位置に保持された基準点の複数の画像を用いて、前記カメラの位置を決定する段階を更に備える、請求項1から6の何れか一項に記載のコンピュータ実装方法。
  8. 空のパレットの基準点の画像を用いて、前記荷積みパレットの位置を決定する段階を更に備える、請求項1から7の何れか一項に記載のコンピュータ実装方法。
  9. 前記ボックスの総数よりも少ない数のボックスに対して、前記取り込む段階と、生成する段階と、持ち上げる段階と、取り込む段階と、生成する段階と、離す段階と、処理する段階とを行いながらも、前記ボックスの全てを前記荷積みパレットから降ろす段階を更に備える、請求項1から8の何れか一項に記載のコンピュータ実装方法。
  10. 前記第1ボックスを動かす段階は、(1)前記ロボットアームを用いて、前記第1ボックスを前記荷積みパレットに対して前記プログラム可能な量持ち上げる段階、(2)前記ロボットアームを用いて、前記第1ボックスを前記荷積みパレットに対して横方向に動かす段階、および(3)前記ロボットアームを用いて、前記第1ボックスを前記荷積みパレットの前記表面に対して傾ける段階のうち1つを含む、請求項1から9の何れか一項に記載のコンピュータ実装方法。
  11. 前記第1ボックスの前記表面の前記表現を記憶する段階と、
    画像取込デバイスを用いて前記荷積みパレットの第3画像を取り込む段階であって、前記第3画像は、前記第1ボックスを含まない、取り込む段階と、
    前記第3画像を用いて、前記荷積みパレットの前記表面の第3表現を生成する段階と、
    前記荷積みパレットの前記表面の前記第3表現と前記第1ボックスの前記表面の記憶された前記表現とを比較することにより、前記第1ボックスに対応する第1ボックスタイプの1つまたは複数のインスタンスを特定する段階であって、前記第1ボックスタイプの前記1つまたは複数のインスタンスの各々の位置および向きを決定する段階を含む、特定する段階と、
    対応する前記位置および前記向きを用いて、前記第1ボックスタイプの前記1つまたは複数のインスタンスの各々を取り出す段階と
    を更に備える、請求項1から10の何れか一項に記載のコンピュータ実装方法。
  12. 前記第1ボックスの前記表面の前記表現を記憶する段階と、
    画像取込デバイスを用いて異なる積荷パレットの画像を取り込む段階と、
    前記画像を用いて前記異なる積荷パレットの表面の表現を生成する段階と、
    前記異なる積荷パレットの前記表面の前記表現と前記第1ボックスの前記表面の記憶された前記表現とを比較することにより、前記第1ボックスに対応する第1ボックスタイプの1つまたは複数のインスタンスを特定する段階であって、前記第1ボックスタイプの前記1つまたは複数のインスタンスの各々の位置および向きを決定する段階を含む、特定する段階と、
    前記ロボットアームと前記1つまたは複数のインスタンスの各々の対応する前記位置および前記向きとを用いて、前記第1ボックスタイプの各インスタンスを取り出す段階と
    を更に備える、請求項1から11の何れか一項に記載のコンピュータ実装方法。
  13. コンピューティングデバイス、ロボットアーム、ロボット制御システムおよび画像取込デバイスを備えるシステムであって、前記コンピューティングデバイスは、
    前記画像取込デバイスを用いて荷積みパレットの第1画像を取り込むことであって、前記荷積みパレットは、そこに積み重ねられた複数のボックスを有する、取り込むことと、
    前記第1画像を用いて、前記荷積みパレットの表面の第1表現を生成することと、
    前記ロボット制御システムを介して、前記ロボットアームにより前記荷積みパレットの前記表面のコーナーにある第1ボックスをプログラム可能な量動かすことと、
    前記画像取込デバイスを用いて前記荷積みパレットの第2画像を取り込むことであって、前記第2画像は、前記ロボットアームにより動かされる前記第1ボックスを含む、取り込むことと、
    前記第2画像を用いて前記荷積みパレットの前記表面の第2表現を生成することと、
    前記ロボット制御システムを介して、前記ロボットアームにより前記第1ボックスを元に戻すことと、
    前記荷積みパレットの前記表面の前記第1表現および前記第2表現を処理して、前記第1ボックスの上面の表現を生成することと、
    前記第1ボックスの前記表面の前記表現を用いて、前記ロボット制御システムを介して、前記ロボットアームを前記第1ボックスに対して位置決めすることと、
    前記ロボット制御システムを介して、前記ロボットアームにより前記荷積みパレットから前記第1ボックスを動かすことと
    を行うよう構成される、システム。
  14. 前記コンピューティングデバイスは、前記荷積みパレットの前記表面の前記第1表現と前記第2表現との差異を決定すること、および、前記差異を用いて前記第1ボックスの前記表面のサイズおよび位置を決定することにより、前記荷積みパレットの前記表面の前記第1表現および前記第2表現を処理するよう構成される、請求項13に記載のシステム。
  15. 前記第2画像は、前記第1ボックスの前記表面の一部を不明瞭にする前記ロボットアームの表現を含んでおり、前記コンピューティングデバイスは、前記荷積みパレットの前記表面の前記第1表現および前記第2表現の両方からのデータを用いて前記第1ボックスの前記表面の表現を生成することにより、前記荷積みパレットの前記表面の前記第1表現および前記第2表現を処理して前記第1ボックスの前記表面の前記表現を生成するよう構成される、請求項13または14に記載のシステム。
  16. 前記コンピューティングデバイスは更に、前記荷積みパレットの前記ボックスの最小限のボックスサイズを表す入力を受信するよう構成され、前記コンピューティングデバイスは、前記最小限のボックスサイズを用いることにより、前記第1ボックスの前記表面の前記表現を用いて、前記ロボットアームを前記第1ボックスに対して位置決めするよう構成される、請求項13から15の何れか一項に記載のシステム。
  17. 前記コンピューティングデバイスは更に、前記荷積みパレットの前記ボックスの最大限のボックスサイズを表す入力を受信するよう構成され、前記コンピューティングデバイスは、前記ロボットアームを用いて(1)少なくとも、前記最大限のボックスサイズと関連付けられる高さだけ、前記荷積みパレットの上面の上方に前記第1ボックスを持ち上げること、または(2)少なくとも、前記最大限のボックスサイズと関連付けられる距離だけ、前記荷積みパレットの側面から前記第1ボックスを遠ざけることにより、前記荷積みパレットから前記第1ボックスを動かすよう構成される、請求項13から16の何れか一項に記載のシステム。
  18. 前記コンピューティングデバイスは、前記荷積みパレットの前記ボックスの数、サイズ、向きおよび位置を先験的に認識することなく、前記ロボットアームを用いて前記荷積みパレットから前記第1ボックスを動かすよう構成される、請求項13から15の何れか一項に記載のシステム。
  19. 前記コンピューティングデバイスは更に、前記ロボットアームにより対応する複数の位置に保持された基準点の複数の画像を用いて、前記画像取込デバイスの位置を決定するよう構成される、請求項13から18の何れか一項に記載のシステム。
  20. 前記コンピューティングデバイスは更に、空のパレットの基準点の画像を用いて、前記荷積みパレットの位置を決定するよう構成される、請求項13から19の何れか一項に記載のシステム。
  21. 前記コンピューティングデバイスは更に、前記ボックスの総数よりも少ない数のボックスに対して、前記取り込むことと、生成することと、持ち上げることと、取り込むことと、生成することと、離すことと、処理することとを行いながらも、前記ロボットアームを用いて前記ボックスの全てを前記荷積みパレットから降ろすよう構成される、請求項13から20の何れか一項に記載のシステム。
  22. 前記コンピューティングデバイスは更に(1)前記ロボットアームを用いて、前記第1ボックスを前記荷積みパレットに対して前記プログラム可能な量持ち上げること、(2)前記ロボットアームを用いて、前記第1ボックスを前記荷積みパレットに対して横方向に動かすこと、および(3)前記ロボットアームを用いて、前記第1ボックスを前記荷積みパレットの前記表面に対して傾けることのうち1つにより前記第1ボックスを動かすよう構成される、請求項13から21の何れか一項に記載のシステム。
  23. 前記コンピューティングデバイスは更に、
    前記第1ボックスの前記表面の前記表現を記憶することと、
    前記画像取込デバイスを用いて前記荷積みパレットの第3画像を取り込むことであって、前記第3画像は、前記第1ボックスを含まない、取り込むことと、
    前記第3画像を用いて、前記荷積みパレットの前記表面の第3表現を生成することと、
    前記荷積みパレットの前記表面の前記第3表現と前記第1ボックスの前記表面の記憶された前記表現とを比較することにより、前記第1ボックスに対応する第1ボックスタイプの1つまたは複数のインスタンスを特定することであって、前記第1ボックスタイプの前記1つまたは複数のインスタンスの各々の位置および向きを決定することを含む、特定することと、
    前記ロボットアームと前記1つまたは複数のインスタンスの各々の対応する前記位置および前記向きとを用いて、前記第1ボックスタイプの各インスタンスを取り出すことと
    を行うよう構成される、請求項13から22の何れか一項に記載のシステム。
  24. 前記コンピューティングデバイスは更に、
    前記第1ボックスの前記表面の前記表現を記憶することと、
    前記画像取込デバイスを用いて異なる積荷パレットの画像を取り込むことと、
    前記画像を用いて前記異なる積荷パレットの表面の表現を生成することと、
    前記異なる積荷パレットの前記表面の前記表現と前記第1ボックスの前記表面の記憶された前記表現とを比較することにより、前記第1ボックスに対応する第1ボックスタイプの1つまたは複数のインスタンスを特定することであって、前記第1ボックスタイプの前記1つまたは複数のインスタンスの各々の位置および向きを決定することを含む、特定することと、
    前記ロボットアームと前記1つまたは複数のインスタンスの各々の対応する前記位置および前記向きとを用いて、前記第1ボックスタイプの各インスタンスを取り出すことと
    を行うよう構成される、請求項13から23の何れか一項に記載のシステム。
  25. 1つまたは複数のコンピューティングデバイスに、
    荷積みパレットの第1画像を取り込む手順であって、前記荷積みパレットは、そこに積み重ねられた複数のボックスを有する、取り込む手順と、
    前記第1画像を用いて前記荷積みパレットの表面の第1表現を生成する手順と、
    ロボットアームを用いて、前記荷積みパレットの前記表面のコーナーにある第1ボックスをプログラム可能な量動かす手順と、
    前記ロボットアームにより動かされた前記第1ボックスを含む、前記荷積みパレットの第2画像を取り込む手順と、
    前記第2画像を用いて前記荷積みパレットの前記表面の第2表現を生成する手順と、
    前記ロボットアームを用いて前記第1ボックスを元に戻す手順と、
    前記荷積みパレットの前記表面の前記第1表現および前記第2表現を処理して、前記第1ボックスの表面の表現を生成する手順と、
    前記第1ボックスの前記表面の前記表現を用いて、前記ロボットアームを前記第1ボックスに対して位置決めする手順と、
    前記ロボットアームを用いて前記荷積みパレットから前記第1ボックスを動かす手順と
    を実行させるためのコンピュータプログラム。
JP2018544077A 2016-02-26 2017-02-06 センサ誘導式ロボットを用いたボックスの位置特定、分離、およびピッキング Active JP6805465B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201662300403P 2016-02-26 2016-02-26
US62/300,403 2016-02-26
US15/419,862 2017-01-30
US15/419,862 US10124489B2 (en) 2016-02-26 2017-01-30 Locating, separating, and picking boxes with a sensor-guided robot
PCT/US2017/016686 WO2017146895A1 (en) 2016-02-26 2017-02-06 Locating, separating, and picking boxes with a sensor-guided robot

Publications (2)

Publication Number Publication Date
JP2019509559A true JP2019509559A (ja) 2019-04-04
JP6805465B2 JP6805465B2 (ja) 2020-12-23

Family

ID=59678845

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018544077A Active JP6805465B2 (ja) 2016-02-26 2017-02-06 センサ誘導式ロボットを用いたボックスの位置特定、分離、およびピッキング

Country Status (3)

Country Link
US (1) US10124489B2 (ja)
JP (1) JP6805465B2 (ja)
WO (1) WO2017146895A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021503374A (ja) * 2018-10-30 2021-02-12 株式会社Mujin 自動物体検出機構を備えたロボットシステム、および、その動作方法
KR20210064041A (ko) * 2019-11-25 2021-06-02 재단법인대구경북과학기술원 로봇 시스템 및 그 보정 방법
US11034025B2 (en) 2018-10-30 2021-06-15 Mujin, Inc. Automated package registration systems, devices, and methods
WO2022113975A1 (ja) 2020-11-24 2022-06-02 川崎重工業株式会社 ロボット及び物品寸法取得方法
JP7126667B1 (ja) 2021-07-21 2022-08-29 株式会社Mujin 深さベースの処理メカニズムを伴うロボットシステム及びロボットシステムを操作するための方法

Families Citing this family (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10926725B2 (en) 2018-10-10 2021-02-23 Stocked Robotics, Inc. Non-destructive kit mounting system for driverless industrial vehicles
US10346987B1 (en) * 2017-12-29 2019-07-09 Datalogic Usa, Inc. Locating objects on surfaces
JP7000213B2 (ja) * 2018-03-19 2022-01-19 株式会社東芝 保持装置、搬送システム、コントローラ、および保持方法
WO2019208162A1 (ja) * 2018-04-26 2019-10-31 パナソニック株式会社 アクチュエータ装置、アクチュエータ装置による対象物取出方法、及び、対象物取出システム
US10824142B2 (en) 2018-05-01 2020-11-03 Dexterity, Inc. Autonomous robot with on demand teleoperation
US10500735B1 (en) 2018-07-13 2019-12-10 Dexterity, Inc. Robotic toolset and gripper
EP3938151B1 (en) 2018-08-13 2023-11-08 Boston Dynamics, Inc. Manipulating boxes using a zoned gripper
JP6833777B2 (ja) * 2018-09-10 2021-02-24 株式会社東芝 物体ハンドリング装置及びプログラム
US11731792B2 (en) 2018-09-26 2023-08-22 Dexterity, Inc. Kitting machine
CN110405810B (zh) * 2018-10-30 2021-05-04 牧今科技 自动包裹配准***、装置和方法
JP6595691B1 (ja) * 2018-11-29 2019-10-23 株式会社東芝 荷降ろし装置、荷降ろし方法及びプログラム
JP7261597B2 (ja) * 2019-02-01 2023-04-20 Kyoto Robotics株式会社 移載対象ワーク記憶システム
US10549928B1 (en) * 2019-02-22 2020-02-04 Dexterity, Inc. Robotic multi-item type palletizing and depalletizing
US11741566B2 (en) 2019-02-22 2023-08-29 Dexterity, Inc. Multicamera image processing
EP3927505A4 (en) * 2019-02-22 2022-11-30 Dexterity, Inc. ROBOTIC HANDLING OF SOFT PRODUCTS IN NON-RIGID PACKAGING
JP7258611B2 (ja) * 2019-03-15 2023-04-17 株式会社東芝 制御装置、プログラム及び制御方法
US10618172B1 (en) 2019-05-31 2020-04-14 Mujin, Inc. Robotic system with error detection and dynamic packing mechanism
US10647528B1 (en) 2019-05-31 2020-05-12 Mujin, Inc. Robotic system for palletizing packages using real-time placement simulation
US10696493B1 (en) 2019-05-31 2020-06-30 Mujin, Inc. Robotic system with packing mechanism
US11077554B2 (en) 2019-05-31 2021-08-03 Mujin, Inc. Controller and control method for robotic system
US10696494B1 (en) 2019-05-31 2020-06-30 Mujin, Inc. Robotic system for processing packages arriving out of sequence
US10679379B1 (en) 2019-05-31 2020-06-09 Mujin, Inc. Robotic system with dynamic packing mechanism
US10565737B1 (en) 2019-07-09 2020-02-18 Mujin, Inc. Method and system for performing automatic camera calibration for a scanning system
US20210016454A1 (en) * 2019-07-16 2021-01-21 Kindred Systems Inc. Control of modular end-of-arm tooling for robotic manipulators
CN112405570A (zh) * 2019-08-21 2021-02-26 牧今科技 用于夹持和保持物体的机器人多夹持器组件和方法
US11345029B2 (en) 2019-08-21 2022-05-31 Mujin, Inc. Robotic multi-gripper assemblies and methods for gripping and holding objects
US20210114826A1 (en) * 2019-10-16 2021-04-22 Symbotic Canada, Ulc Vision-assisted robotized depalletizer
IT202000011065A1 (it) * 2020-05-14 2021-11-14 Sistema e metodo di svuotamento di un cesto
CN113666036A (zh) * 2020-05-14 2021-11-19 泰科电子(上海)有限公司 自动拆垛***
CN112070759B (zh) * 2020-09-16 2023-10-24 浙江光珀智能科技有限公司 一种叉车托盘检测与定位方法及***
KR20220040118A (ko) * 2020-09-23 2022-03-30 현대자동차주식회사 라이다를 이용한 팔레트 적재 장치 및 그 방법
WO2022265931A1 (en) * 2021-06-16 2022-12-22 Dexterity, Inc. Simulated box placement for algorithm evaluation and refinement
CN113511503B (zh) * 2021-06-17 2022-09-23 北京控制工程研究所 一种自主智能的地外探测不确定物体采集与归集装箱方法
CN115246547B (zh) * 2021-10-21 2023-09-12 梅卡曼德(北京)机器人科技有限公司 垛型续码方法、装置、计算设备及计算机存储介质
WO2023104759A1 (en) 2021-12-07 2023-06-15 Compagnie Generale Des Etablissements Michelin Process and system for controlling a gripping device used in cycles for sorting tires arranged in unknown arrangements
CN114044363A (zh) * 2021-12-28 2022-02-15 赤壁市万皇智能设备有限公司 一种基于视觉定位的玻璃片自动收料设备
CN114408597B (zh) * 2022-02-17 2023-08-01 湖南视比特机器人有限公司 基于3d视觉引导的货车装卸方法、***及装卸车机器人
GB2624698A (en) * 2022-11-28 2024-05-29 Ocado Innovation Ltd Methods and control systems for controlling a robotic manipulator
KR102628664B1 (ko) * 2023-06-21 2024-01-24 주식회사 애자일소다 혼합된 크기의 상자 배치 강화학습 장치 및 방법
KR102641856B1 (ko) * 2023-06-21 2024-02-29 주식회사 애자일소다 팔레타이징 시스템 및 이의 제어방법

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0788791A (ja) * 1993-09-20 1995-04-04 Mitsubishi Electric Corp ロボット装置およびその周辺装置
JPH11333770A (ja) * 1998-03-20 1999-12-07 Kobe Steel Ltd 積荷位置姿勢認識装置
JP3063487B2 (ja) * 1993-09-27 2000-07-12 村田機械株式会社 パレタイズパターン認識装置
JP2003172605A (ja) * 2001-12-10 2003-06-20 Daifuku Co Ltd 物品位置認識装置

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2687030B2 (ja) 1990-02-09 1997-12-08 株式会社ダイフク ロボット使用の自動移載装置
US5908283A (en) * 1996-11-26 1999-06-01 United Parcel Service Of Americia, Inc. Method and apparatus for palletizing packages of random size and weight
JP4302160B2 (ja) * 2007-09-12 2009-07-22 ファナック株式会社 ロボットによるパレタイジング作業のためのロボットプログラミング装置
DE102009011300B4 (de) * 2009-03-02 2022-08-11 Kuka Roboter Gmbh Beladung von Lademitteln mit Paketen mittels Manipulator
RU2448029C1 (ru) 2010-09-22 2012-04-20 Игорь Вадимович Барсук Устройство выгрузки штучных грузов из контейнера
US9315344B1 (en) * 2012-07-20 2016-04-19 Amazon Technologies, Inc. Container stacking configurations
US9333649B1 (en) * 2013-03-15 2016-05-10 Industrial Perception, Inc. Object pickup strategies for a robotic device
US10343857B2 (en) 2014-01-22 2019-07-09 Symbiotic Canada ULC. Vision-assisted robotized depalletizer
US9486921B1 (en) * 2015-03-26 2016-11-08 Google Inc. Methods and systems for distributing remote assistance to facilitate robotic object manipulation
US9802317B1 (en) * 2015-04-24 2017-10-31 X Development Llc Methods and systems for remote perception assistance to facilitate robotic object manipulation
US9682481B2 (en) * 2015-10-26 2017-06-20 X Development Llc Communication of information regarding a robot using an optical identifier

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0788791A (ja) * 1993-09-20 1995-04-04 Mitsubishi Electric Corp ロボット装置およびその周辺装置
JP3063487B2 (ja) * 1993-09-27 2000-07-12 村田機械株式会社 パレタイズパターン認識装置
JPH11333770A (ja) * 1998-03-20 1999-12-07 Kobe Steel Ltd 積荷位置姿勢認識装置
JP2003172605A (ja) * 2001-12-10 2003-06-20 Daifuku Co Ltd 物品位置認識装置

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11780101B2 (en) 2018-10-30 2023-10-10 Mujin, Inc. Automated package registration systems, devices, and methods
US11636605B2 (en) 2018-10-30 2023-04-25 Mujin, Inc. Robotic system with automated package registration mechanism and minimum viable region detection
US11961042B2 (en) 2018-10-30 2024-04-16 Mujin, Inc. Robotic system with automated package registration mechanism and auto-detection pipeline
US11034025B2 (en) 2018-10-30 2021-06-15 Mujin, Inc. Automated package registration systems, devices, and methods
US11062457B2 (en) 2018-10-30 2021-07-13 Mujin, Inc. Robotic system with automated package registration mechanism and minimum viable region detection
US11176674B2 (en) 2018-10-30 2021-11-16 Mujin, Inc. Robotic system with automated object detection mechanism and methods of operating the same
US11189033B2 (en) 2018-10-30 2021-11-30 Mujin, Inc. Robotic system with automated package registration mechanism and auto-detection pipeline
US11797926B2 (en) 2018-10-30 2023-10-24 Mujin, Inc. Robotic system with automated object detection mechanism and methods of operating the same
US12002007B2 (en) 2018-10-30 2024-06-04 Mujin, Inc. Robotic system with automated package scan and registration mechanism and methods of operating the same
JP2021503374A (ja) * 2018-10-30 2021-02-12 株式会社Mujin 自動物体検出機構を備えたロボットシステム、および、その動作方法
US11288810B2 (en) 2018-10-30 2022-03-29 Mujin, Inc. Robotic system with automated package registration mechanism and methods of operating the same
US11501445B2 (en) 2018-10-30 2022-11-15 Mujin, Inc. Robotic system with automated package scan and registration mechanism and methods of operating the same
JP2021505980A (ja) * 2018-10-30 2021-02-18 株式会社Mujin 自動パッケージ登録機構および最小実行可能領域検出を備えたロボットシステム
KR20210064041A (ko) * 2019-11-25 2021-06-02 재단법인대구경북과학기술원 로봇 시스템 및 그 보정 방법
KR102400965B1 (ko) * 2019-11-25 2022-05-25 재단법인대구경북과학기술원 로봇 시스템 및 그 보정 방법
KR20230118117A (ko) 2020-11-24 2023-08-10 카와사키 주코교 카부시키가이샤 로봇 및 물품 치수 취득 방법
JP7466435B2 (ja) 2020-11-24 2024-04-12 川崎重工業株式会社 ロボット及び物品寸法取得方法
WO2022113975A1 (ja) 2020-11-24 2022-06-02 川崎重工業株式会社 ロボット及び物品寸法取得方法
JP2023016699A (ja) * 2021-07-21 2023-02-02 株式会社Mujin 深さベースの処理メカニズムを伴うロボットシステム及びロボットシステムを操作するための方法
JP7126667B1 (ja) 2021-07-21 2022-08-29 株式会社Mujin 深さベースの処理メカニズムを伴うロボットシステム及びロボットシステムを操作するための方法

Also Published As

Publication number Publication date
WO2017146895A1 (en) 2017-08-31
US20170246744A1 (en) 2017-08-31
US10124489B2 (en) 2018-11-13
JP6805465B2 (ja) 2020-12-23

Similar Documents

Publication Publication Date Title
JP6805465B2 (ja) センサ誘導式ロボットを用いたボックスの位置特定、分離、およびピッキング
US9707682B1 (en) Methods and systems for recognizing machine-readable information on three-dimensional objects
US11103998B2 (en) Method and computing system for performing motion planning based on image information generated by a camera
KR20210087065A (ko) 자동 패키지 등록 시스템, 장치 및 방법
CN113351522B (zh) 物品分拣方法、装置及***
JP2010247959A (ja) 箱状ワーク認識装置および方法
JP7175487B1 (ja) 画像ベースのサイジングメカニズムを備えたロボットシステム及びロボットシステムを操作するための方法
WO2023092519A1 (zh) 抓取控制方法、装置、电子设备和存储介质
JP2024015358A (ja) 物体取り扱いを伴うロボットシステムのためのシステム及び方法
Xu et al. A vision-guided robot manipulator for surgical instrument singulation in a cluttered environment
JP7398763B2 (ja) 重なり処理機構を備えたロボットシステム及びその操作方法
CN113219900B (zh) 基于相机生成的图像信息执行运动规划的方法和计算***
CN116175540B (zh) 基于位置及朝向的抓取控制方法、装置、设备和介质
WO2023073780A1 (ja) 学習データの生成装置および学習データの生成方法、並びに学習データを使用する機械学習装置および機械学習方法
CN116551672A (zh) 用于具有物体处置能力的机器人***的***和方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190821

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201006

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201019

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201104

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201112

R150 Certificate of patent or registration of utility model

Ref document number: 6805465

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250