JP2021088011A - ピッキングシステム、ピッキング方法、及びプログラム - Google Patents

ピッキングシステム、ピッキング方法、及びプログラム Download PDF

Info

Publication number
JP2021088011A
JP2021088011A JP2019218349A JP2019218349A JP2021088011A JP 2021088011 A JP2021088011 A JP 2021088011A JP 2019218349 A JP2019218349 A JP 2019218349A JP 2019218349 A JP2019218349 A JP 2019218349A JP 2021088011 A JP2021088011 A JP 2021088011A
Authority
JP
Japan
Prior art keywords
work
picking
image
analysis unit
picking system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019218349A
Other languages
English (en)
Other versions
JP6924448B2 (ja
Inventor
佐藤 大輔
Daisuke Sato
大輔 佐藤
浩紀 八登
Hiroki YATO
浩紀 八登
武 坂本
Takeshi Sakamoto
武 坂本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Arithmer Inc
Original Assignee
Arithmer Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Arithmer Inc filed Critical Arithmer Inc
Priority to JP2019218349A priority Critical patent/JP6924448B2/ja
Priority to PCT/JP2020/043700 priority patent/WO2021111929A1/ja
Publication of JP2021088011A publication Critical patent/JP2021088011A/ja
Priority to JP2021107914A priority patent/JP2021151699A/ja
Application granted granted Critical
Publication of JP6924448B2 publication Critical patent/JP6924448B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)

Abstract

【課題】フレキシブルで不定形なワークを安定にピック及びプレイスするピッキングシステムを提供する。【解決手段】ピッキングシステム100は、ワークを撮影して画像及び深度マップを得る撮像部151、画像に基づいてワークを特定し、深度マップのうちの特定したワークに対応するワーク部分に基づいてワークの位置及び向きを決定する解析部152、及びワークの位置及び向きに基づいてロボットアーム120を駆動制御する制御部154を備える。解析部152により、画像認識によりワークを特定し、深度マップのうちの特定したワークに対応する部分に基づいてワークの位置及び向きを決定し、制御部154によりロボットアーム120を制御して、ワークの向きに合わせてその位置に駆動することで、不定形なワークであっても、これをロボットアーム120により安定にピッキングすることが可能となる。【選択図】図1C

Description

本発明は、ワークをピッキングするピッキングシステム、ピッキング方法、及びプログラムに関する。
製造工場、食品工場等の工場における作業を自動化するために、産業用ロボットが導入されている。主要な産業用ロボットの1つに、ワークをピックし(掴み)、これを目的の場所に搬送してプレイスする(置く)ロボットがある。ここで、特許文献1には、3Dレーザ計測技術によりワークの3次元データを有する点群データを生成し、これを用いてワークの位置情報及び法線情報を算出し、これらの情報に基づいてロボットを制御する物体認識システムが開示されている。測定データを用いたモデルマッチングに基づく物体認識に代えて、3Dレーザ計測技術により得られるワークの3次元データに基づく物体認識を採用することで、非定型なワークの認識を可能としている。
特許文献1 特開2011−167815号公報
しかしながら、上記の物体認識システムでは、ワークがフレキシブルである場合に任意の形状を取り得るため、また任意の方向を向き得るため、複数のワークが重なっている場合などには特にそれらのなかから目的のワークを識別し、安定にピックするためのワークの位置情報及び法線情報を算出することが困難であると予想される。
本発明の第1の態様においては、ワークをピッキングするピッキングシステムであって、ワークを撮影して画像及び深度マップを得る撮像部と、画像に基づいてワークを特定し、深度マップのうちの特定したワークに対応するワーク部分に基づいてワークの位置及び向きを決定する解析部と、ワークの位置及び向きに基づいてロボットアームを駆動制御する制御部と、を備えるピッキングシステムが提供される。
本発明の第2の態様においては、ワークをピッキングするピッキング方法であって、撮像部により、ワークを撮影して画像及び深度マップを得る段階と、解析部により、画像に基づいてワークを特定し、深度マップのうちの特定したワークに対応するワーク部分に基づいてワークの位置及び向きを決定する段階と、制御部により、ワークの位置及び向きに基づいてロボットアームを駆動制御する段階と、を備えるピッキング方法が提供される。
本発明の第3の態様においては、第2の態様のピッキング方法をコンピュータに実行させるプログラムが提供される。
なお、上記の発明の概要は、本発明の特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。
本実施形態に係るロボットの構成を示す。 ロボットハンドの構成を示す。 本実施形態に係るピッキングシステムの機能構成を示す。 ワーク分離装置の構成を示す。 ピッキングシステムにおけるロボット及びコンテナの配置を示す。 コンテナの区画内に収容されたワークを示す。 画像認識によるコンテナ内のワークの識別結果を示す。 ピッキングシステムにより得られた画像及び深度マップの一例を示す。 画像から特定されたワーク及びこれをマスクにして切り出された深度マップ内のワーク部分の一例を示す。 深度マップ内のワーク部分を再構成して得られる点群データの一例を示す。 点群データからワークの向きを決定するために取得したデータ点の一例を示す。 3つのデータ点を用いて決定したワークの向きの一例を示す。 点群データから決定したワーク表面上の吸着点の一例を示す。 ロボットハンドによるワークの吸着の一例を示す。 本実施形態に係るピッキング方法のフローを示す。 本実施形態に係るコンピュータの構成の一例を示す。
以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。
図1A、図1B、及び図1Cに、それぞれ、本実施形態に係るロボット101の構成、ロボット101のロボットハンド130の詳細構成、及び本実施形態に係るピッキングシステム100の機能構成を示す。ピッキングシステム100は、ワーク90をピックし(ピッキングするともいう)、これを搬送して目的の場所にプレイスする(プレーシングするともいう)システムであり、ロボット101、制御装置150、及びワーク分離装置200を備える。なお、本実施形態で扱うワーク90は、例えば液状物、粉状物、或いは粒状物を収容したフレキシブルで不定形な袋状容器である。ワーク90は、収容物を保護するため積み重ねることができずコンテナの区画内に立てて並べられ、フレキシブルであることから表面が任意の方向を向き得るものであり、立てられた際に収容物が容器下側に集中するために容器上側をピックすることで収容物が保護される。
ロボット101は、ワーク90をピック及びプレイスする装置であり、本体110、ロボットアーム120、及びロボットハンド130を含む。
本体110は、台座又は床面(不図示)上でロボットアーム120を支持する部分であり、ベース111、駆動装置140、及び通信装置(不図示)を含む。ベース111は、本体110を回動可能に支持する。これにより、本体110は、ベース111の上面上で図面上下方向に平行な中心軸に対して回転して向きを変える。駆動装置140は、例えば電動モータを採用することができ、これによりロボットアーム120の各部を駆動する。通信装置は、例えば無線通信装置を採用することができ、これにより制御装置150から送信される制御信号を受信して、駆動装置140、固定部材134内の駆動装置、吸着パッド135等に送信する。
ロボットアーム120は、ロボットハンド130を駆動する部分であり、第1〜第3アーム121〜123を含む。第1アーム121は、本体110の上端に支持されて図面左右方向に回動する。第2アーム122は、第1アーム121の先端に支持されて図面左右方向に回動する。第3アーム123は、その先端にロボットハンド130を支持して、第2アーム122の先端に回転可能に支持される。
ロボットハンド130は、ワーク90を把持する部分であり、基部131、シャフト132、撮像装置133、固定部材134、及び吸着パッド135を有する。
基部131は、ロボットハンド130の各部を支持する部分であり、第3アーム123の先端に支持される。
シャフト132は、撮像装置133及び吸着パッド135を支持する軸状部材であり、その上端が基部131に支持される。
撮像装置133は、例えばステレオカメラを採用することができる。撮像装置133は、支持部材133aを介してシャフト132に下向きに固定され、これによりワーク90を撮像してその画像及び深度マップを得ることができる。画像は一例としてRGB画像とする。深度マップは、撮像装置133の位置を基準とする奥行き方向の距離に関するマップである。
固定部材134は、シャフト132の下端に固定され、支持部材135aを水平方向に向けて支持する。固定部材134は、電動モータ等の駆動装置(不図示)を有し、これにより支持部材135aが回転される。
吸着パッド135は、コンプレッサ(不図示)に接続され、空気を吸引することでワーク90を吸着保持する。これにより、不定形なワーク90をピッキングすることが可能となる。吸着パッド135は、一例として、支持部材135aの両端に各1つ固定され、固定部材134内の駆動装置により支持部材135aを回転することにより、上下方向の傾きを変えることができる。なお、吸着パッド135の数は、2つに限らず、ワーク90の大きさ及び重さに応じて1つ又は3つ以上の任意の数であってよい。
なお、吸着パッド135は、気圧センサ等を含み、これによりコンプレッサにより空気を吸引している際の内部気圧を測定する。吸着パッド135によりワーク90の表面を吸引してそれを把持した場合に低い内部気圧、ワーク90の吸引に失敗した場合に高い内部気圧が測定されることで、2つの吸着パッド135のそれぞれについてワーク90の把持に成功したか失敗したかを検知することができる。その結果は制御部154に送信される。
制御装置150は、ロボット101を制御する装置であり、任意のコンピュータ装置により実装される。制御装置150は、処理装置(CPU及び/又はGPU)及び通信装置を有する。処理装置(不図示)は、制御プログラムを実行することにより、制御装置150にロボット101の制御機能を発現させる。なお、制御プログラムは、例えば、ROM(不図示)に記憶され、それを処理装置が読み出してRAMに展開することで起動される。通信装置(不図示)は、例えばロボット101と無線通信する装置である。通信装置により制御信号をロボット101に送信することで、ロボット101が制御される。制御装置150は、撮像部151、解析部152、学習部153、制御部154を発現する。
撮像部151は、撮像装置133を用いてワーク90を撮影する。これによりワーク90の画像及び(奥行き方向に関する)深度マップを得ることができる。
解析部152は、画像に基づいてワーク90を特定し、深度マップのうちの特定したワーク90に対応するワーク部分に基づいてワーク90の位置及び向きを決定する。ワーク90の位置及び向きを決定する方法については後述する。ここで、解析部152は、学習部153による機械学習により画像に基づいてワークを特定してよい。
学習部153は、ワーク90を特定済みの正解画像を用いて、解析部152に採用される機械学習モデルを生成する。機械学習モデルとして、例えば深層学習を採用することができる。学習用画像として、例えば100枚のワーク90の画像を用いてよい。正解画像として、それらの学習用画像の中から例えば数枚の画像を任意の画像処理ソフトウェアを用いてポリゴン処理することにより、ワーク90が特定された画像を用いてよい。具体的には、画像処理ソフトを用いて、画像に写っているワークに対し、それを囲うように頂点を手動で作成し、それを元にポリゴンを作成する。なお、ポリゴン処理のための画像処理ソフトとしては、例えば、VGG Image Annotator (VIA)を用いることができる。これにより、解析部152が、不定形で変形し得るワーク90の画像認識を高速処理することが可能になる。なお、コンテナの内壁及び仕切りも特定するよう機械学習してもよい。
制御部154は、解析部152により決定されたワーク90の位置及び向きに基づいてロボットアーム120を駆動制御する。制御部154は、制御信号をロボット101に送信することで、ロボット101の駆動装置140により本体110の向きを変えるとともにロボットアーム120を前後に延ばし、固定部材134内の駆動装置により吸着パッド135を上下方向に傾け、吸着パッド135をオンオフしてワーク90をピック及びプレイスする。
なお、制御部154は、複数の吸着パッド135のうちワーク90に吸着した吸着パッド135の数に応じてロボットアーム120の駆動速度を決定する。ワーク90に吸着した吸着パッド135の数が多い場合、例えば2つの吸着パッド135の両方がワーク90に吸着した場合にロボットアーム120の駆動速度を高く、少ない場合、例えば2つの吸着パッド135の一方のみがワーク90に吸着した場合に低くすることで、ワークを安定に高速で搬送することができる。
図2に、ワーク分離装置200の構成を示す。なお、ワーク分離装置200は、コンテナ70に対してセットされている。コンテナ70は、一例として、仕切り79により長手方向(図面斜め方向)に3及び短手方向(図面左右方向)に4、計12の区画に区画化され、それらのうちの区画S内にワーク90、区画S内にワーク91が表面を短手方向に向けて収容されている。ワーク分離装置200は、ワーク90の少なくとも上部を一方向に寄せて他のワークから分離する装置であり、一組の支持具駆動装置210及び棒状部材220を含む。
一組の支持具駆動装置210は、棒状部材220をコンテナの短手方向に駆動する装置であり、それぞれコンテナ70の長手方向の一側及び他側に配置される。各支持具駆動装置210は、本体211、テーブル212、及び支持具213を含む。
本体211は、その上面上にテーブル212を支持し、その底部に固定されたガイドロックを通るボールねじを電動モータ(いずれも不図示)により回転することでテーブル212を一軸方向に駆動する。
テーブル212は、本体211上に支持具213を支持して一軸方向に移動する部材である。
支持具213は、テーブル212上に立設し、棒状部材220の一端を支持する部材である。支持具213は、上方に延び、コンテナ70の内側に向かって屈曲し、コンテナ70の内壁にそって下方に延びる形状を有し、その先端に棒状部材220の一端を固定する。支持具213の先端は棒状部材220を支持して駆動装置(不図示)により上下動する。
棒状部材220は、一組の支持具駆動装置210のそれぞれの支持具213に両端が固定されて、コンテナ70内で仕切り79の上方に支持される。棒状部材220は、金属、プラスチック等の素材から形成されてよいし、これに代えてワイヤであってもよい。
ワーク分離装置200は、支持具213により棒状部材220を上げ、本体211により支持具213を図面左右方向に駆動し、棒状部材220を下げてワーク90,91の間に配し、本体211により支持具213を図面左方に駆動することで、ワーク90の少なくとも上部を図面左方に寄せて他のワーク91から分離する。これにより、ワーク90,91の間にスペースを設けて、ワーク90或いはワーク91の表面を撮像することができるようになるとともに、ロボットハンド130の吸着パッド135を挿入するスペースを確保することができる。
なお、ワーク分離装置200は、棒状部材220を動かして、ワーク90の少なくとも上部を左方に寄せるだけでなく、ワーク91の少なくとも上部を右方に寄せるものでもよい。これにより、ワーク90の上部とワーク91の上部とがさらに遠ざかるので、ワーク90の撮像の際に、ワーク91が映り込む可能性を低減できる。
図3に、本実施形態に係るピッキングシステム100におけるロボット101、コンテナ70,80、及びQRコード(登録商標)リーダ60の配置を示す。上面視において、ロボット101の左にコンテナ70、上にコンテナ80、左上にQRコード(登録商標)リーダ60が配置されている。
コンテナ70は、並べ替え対象のワークを収容するコンテナであり、その内部は仕切り79により一例として12の区画71に分割されている。ワークは12の区画71に雑然と収容されているとする。なお、コンテナ70にワーク分離装置200が設置されている。
コンテナ80は、プレイス用コンテナであり、その内部は仕切り89により一例として12の区画に分割されている。ワークは、それぞれ、12の区画81のうちの定められた区画に収容される。
QRコード(登録商標)リーダ60は、QRコード(登録商標)を読み取る装置である。各ワークの表面には、その収容物、収容量等が記録したQRコード(登録商標)が貼付されている。QRコード(登録商標)リーダ60により各ワークのQRコード(登録商標)を読み取り、その記録より収容すべきコンテナ80の区画81が決定される。
解析部152によるワークの識別について説明する。
図4Aに、コンテナ70内に収容されたワーク91〜97を示す。なお、コンテナ70の内壁は省略されている。コンテナ70の区画71内には、3つのワーク91,95,96が、図面右方を向いて、互いに上部を重ねつつコンテナ70の左内壁又は仕切り(不図示)に寄りかけて収容されている。ここで、ワーク91が最も上に、その下にワーク95,96が重なっている。区画72,73内には、各1つのワーク92,93が、図面下方を向いて、上部をコンテナ70の上内壁又は仕切り(不図示)に寄りかけて収容されている。区画74内には、2つのワーク94,97が、図面左方を向いて、互いに上部を重ねつつコンテナ70の右内壁又は仕切り(不図示)に寄りかけて収容されている。ここで、ワーク94が上に、その下にワーク97が重なっている。一例としてこれらのワーク91〜97の収容状態が、撮像部151により上方から撮像され、その結果として画像及び深度マップが得られる。
図4Bに、画像認識によるコンテナ70内のワーク91〜97の識別結果を示す。解析部152は、ワーク91〜97の画像を画像認識することで個々のワーク91〜97を識別する。具体的に、解析部152は、ワークを特定済みの正解画像から生成された機械学習モデルを用いて、画像に基づいてワーク91〜97を特定する。特定する方法として、例えばセマンティック・セグメンテーション、本例では特にインスタンス・セグメンテーションを採用することができる。インスタンス・セグメンテーションでは、画像の各ピクセルをオブジェクトクラスに割り当て、各オブジェクトの形状を捉えることで、個々のワークが識別される。要するに、解析部152は、画像におけるワーク91〜97の占めるピクセルを認識することでワーク91〜97を特定する。
本例では、区画71内のワーク91〜93のうち、その表面91aのほぼ全体を認識することができるワーク91が特定されている。また、区画72,73内で表面92a,93aのほぼ全体を認識することができるワーク92,93が特定されている。また、区画74内のワーク94,97のうち、その表面94aのほぼ全体を認識することができるワーク94が特定されている。インスタンス・セグメンテーションにより、コンテナ70の上方から表面のほぼ全体を認識することができるワークを最も上に重ねられたワークとして特定することができる。なお、表面の一部のみ認識することができるワーク95〜97は、下に重ねられたワークとして特定され、吸着パッド135により吸着保持することのできる十分広い表面上の領域を上方に露出していないため、ピック対象のワークから除外される。
また、解析部152は、セマンティック・セグメンテーションではなく、オブジェクト輪郭検出(Object Contour Detection)によりワークを識別するものでもよい。
また、解析部は、機械学習ではなくルールベースによる画像認識の方法によりワークを識別するものであってもよい。
なお、深度マップからでは通常、重なったワークを識別することができない。上述のように、画像の境界認識により個々のワークを識別し、それらの中から目的のワークを特定し、その結果に基づいて深度マップから目的のワークに対応するワーク部分を特定することができる。
解析部152によるワークの位置及び向きの算出について説明する。
図5Aに、ピッキングシステム100において撮像部151によりコンテナ70内のワークの画像(左図)及び深度マップ(右図)の一例を示す。画像は、RGB画像であってよい。本例では、コンテナ70の仕切り79により区画された1つの区画71に1つのワーク91、その他の周囲の区画にも各1のワークが収容されている。解析部152は、画像に対して上述の画像認識を適用してコンテナ70内のワーク91及びその他のワークを仕切り79等から識別する。解析部152は、識別したワークの中からピック対象のワーク91を特定する。
図5Bに、画像から特定されたワーク91(左図)及び深度マップ内のワーク部分91D(右図)の一例を示す。解析部152は、画像の中から特定したワーク91を抽出し、これをマスクとして使用して深度マップから対応するワーク部分91Dを切り出す。
図5Cに、深度マップ内のワーク部分91Dを再構成して得られる点群データ91Pの一例を示す。解析部152は、撮像装置133の位置に基づいて深度マップを3次元点群に、すなわち撮像装置133を基準とする奥行き方向の位置情報を3次元空間内の位置情報に変換する。これにより、深度マップから、空間基準のワークの3次元位置情報が得られる。
解析部152は、適宜、点群データ91Pをダウンサンプリングしてよい。サンプリングレートは例えば10分の1であってよい。点群データ91Pのデータ量を減らすことで、ワーク91の位置及び向きの解析を高速化することができる。さらに、解析部152は、点群データ91Pに対してスタティスティックアウトライヤ処理(統計的外れ値処理)をしてよい。点群データ91Pから外れ値を除去することで、ワーク91の位置及び向きを正確に決定することが可能となる。なお、再構成前の深度マップに対してダウンサンプリング及びアウトライヤを除去する処理を施してもよい。
図5Dに、点群データ91Pからワーク91の向きを決定するために取得したデータ点P1〜P3の一例を示す。まず、解析部152は、ワーク部分91Dから再構成された点群データ91Pのすべて又はほとんどを内側に含む矩形区域Sを決定する。次いで、解析部152は、矩形区域Sを上下に3つ、左右3つ、計9つの区域S〜Sに分割する。ここで、上下方向に等間隔に分割してもよいし、左右方向に等間隔に分割してもよい。ただし、少なくとも中央の区域Sの上下方向及び左右方向の幅をそれぞれ最小幅より大きく定めることとする。次いで、解析部152は、9つの区域S〜Sから互いに隣接しない3つの区域を選択する。一例として、逆三角配置における区域S,S,Sを選択する。或いは、三角配置における区域S,S,S、左向き三角配置における区域S,S,S、右向き三角配置における区域S,S,Sを選択してもよい。次いで、解析部152は、3つの区域S,S,Sからそれぞれ1つのデータ点P1〜P3を取得する。データ点P1〜P3は、各区域内のデータ点からランダムに選択してよいし、各区域について予め定められた点から最近接のデータ点を選択してもよい。
図5Eに、3つのデータ点P1〜P3を用いて決定したワーク91の向きの一例を示す。解析部152は、選択した3つのデータ点P1〜P3を用いて、3つのデータ点P1〜P3により規定される三角区域Tの法線ベクトルVnを算出する。法線ベクトルVnより、ワーク91の表面の向きが定められる。
このように、ワーク91の向き、すなわち法線ベクトルVnを算出するための3つのデータ点P1〜P3を、ワーク部分91Dを9分割した区域S〜Sのうちの互いに隣接しない3つの区域から取得してデータ点P1〜P3を離間させることで、フレキシブルなワーク91の場合に局所的な凹凸が影響することなく、ワーク91の表面の全体的な向きを決定することが可能となる。
なお、解析部152は、法線ベクトルを算出するためのデータ点P1〜P3を取得できなかった場合に3つの区域を変更してもよい。斯かる場合、決定点を取得できなかった区域のみを別の区域に変更してよい。ただし、3つの区域は互いに隣接しないものとする。或いは、逆三角配置における区域S,S,Sを、三角配置における区域S,S,S、左向き三角配置における区域S,S,S、右向き三角配置における区域S,S,Sのいずれかに変更してもよい。これにより、例えば不定形なワーク91に対して深度マップが部分的に得られず、決定点を取得できない場合にあっても、区域を変更して決定点を取得することで、ワークの表面の全体的な向きを決定することが可能となる。
また、解析部152は、矩形区域Sを略均等に9分割するものでもよい。矩形区域Sを略均等に9分割することで、所定値以上の大きさの三角区域Tを得ることができ、ロバスト性の高い法線ベクトルを算出することができる。
なお、上記説明では、解析部152が矩形区域Sを計9つの区域S〜Sに分割するとしたが、矩形区域Sの分割数は9つに限定されるものではない。解析部152は、ワーク部分91Dを7以上の区画に分割するものではあればよい。
図5Fに、点群データ91Pから決定したワーク表面上の吸着点(すなわち、位置決定点)Paの一例を示す。解析部152は、ワーク91の向きに基づいてワーク91の表面に沿った方向(三角区域Tの平面内の方向を定義する単位長さのベクトルの鉛直下向き成分が略最大となる方向)を決定し、その方向に基づいてワーク部分91D内の吸着点Pa(この位置をワーク91の位置と呼ぶ)を決定する。より詳細には、吸着パッド135のサイズに応じて、収容物が集中してないワーク91の上側に吸着点Paを決定するよう、法線ベクトルVnから接線ベクトルVtを定め、矩形区域Sの上端中央から接線ベクトルVtに沿って下方に距離dの位置を吸着点Paと定める。ここで、距離dは、吸着パッド135のサイズより大きく、例えば3cmと定めることとする。
図6に、ロボットハンド130(吸着パッド135)によるワーク91の吸着の一例を示す。制御部154は、解析部152からワーク91の位置及び向きの算出結果を受信し、ロボットアーム120を制御して吸着パッド135の向きをワーク91の向き(すなわち、法線ベクトルVnの方向)に合わせ、吸着パッド135をワーク91の表面上の吸着点Paに向けて駆動する。吸着パッド135の向きをワーク91の向きに合わせることで、ワーク表面を吸着して安定にピッキングすることが可能となる。
図7に、本実施形態に係るピッキング方法のフローを示す。
ステップS102にて、制御部154は、ロボットハンド130をコンテナ70の上方に移動する。或いは、コンテナ70内の複数の区画71のうちの1つの区画71の上方に移動してもよい。
ステップS104にて、撮像部151は、コンテナ70内のワークを撮影して画像及び深度マップを得る。
ステップS106にて、制御部154は、画像を解析してワーク90が見えるか否か、つまり画像内にワーク90が含まれているか否か判断する。ワーク90が見える場合、次のステップに進む。見えない場合、フローを終了する。或いは、ステップS102に戻り、制御部154は、ロボットハンド130を、コンテナ70内の複数の区画71のうちの次の区画71の上方に移動してもよい。
なお、ワーク90は認識できるが、例えば他のワーク91と重なっているために吸着パッド135により吸着保持することのできる十分広い表面上の領域を上方に露出していないと判断される場合には、制御部154は、ワーク分離装置200により、ワーク90の少なくとも上部を一方向に寄せて他のワーク91から分離してもよい。それにより、他のワーク91との間にスペースを設けて、ワーク90の表面を撮像することができるようになるとともに、ロボットハンド130の吸着パッド135を挿入するスペースを確保することができる。ワーク分離後、ステップS104に戻る。
ステップS108にて、解析部152は、画像に基づいてワーク90を特定し、深度マップのうちの特定したワーク90に対応するワーク部分91Dに基づいてワーク90の位置及び向きを算出する。詳細は先述のとおりである。
解析部152は、図4A及び図4Bを用いて説明したように、ワーク91〜97の画像を画像認識(特に、境界認識)することで個々のワーク91〜97を識別する。次いで、解析部152は、図5Aの画像(左図)において識別したワークの中からピック対象のワーク91を特定する。次いで、解析部152は、図5Bの画像(左図)の中から特定したワーク91を抽出し、これをマスクとして使用して深度マップ(右図)から対応するワーク部分91Dを切り出す。次いで、解析部152は、図5Cに示すように、撮像装置133の位置に基づいて深度マップ(のワーク部分91D)を3次元点群に変換する。ここで、解析部152は、適宜、点群データ91Pをダウンサンプリングしてよい。さらに、解析部152は、点群データ91Pに対してスタティスティックアウトライヤ処理(統計的外れ値処理)をしてよい。なお、再構成前の深度マップに対してダウンサンプリング及びアウトライヤ処理を施してもよい。
次いで、解析部152は、図5Dに示すように、ワーク部分91Dから再構成された点群データ91Pのすべて又はほとんどを内側に含む矩形区域Sを決定し、矩形区域Sを上下に3つ、左右3つ、計9つの区域S〜Sに分割し、それらのなかから互いに隣接しない3つの区域、例えば3つの区域S,S,Sからそれぞれ1つのデータ点P1〜P3を取得する。次いで、解析部152は、図5Eに示すように、選択した3つのデータ点P1〜P3を用いて、3つのデータ点P1〜P3により規定される三角区域Tの法線ベクトルVnを算出する。法線ベクトルVnより、ワーク91の表面の向きが定められる。なお、解析部152は、法線ベクトルVnを算出するためのデータ点P1〜P3を取得できなかった場合に3つの区域を変更してもよい。次いで、解析部152は、図5Fに示すように、ワーク91の向きに基づいてワーク91の表面に沿った方向(三角区域Tの平面内の方向を定義する単位長さのベクトルの鉛直下向き成分が略最大となる方向)を決定し、その方向に基づいてワーク部分91D内の吸着点Pa(この位置をワーク91の位置と呼ぶ)を決定する。
ステップS110にて、制御部154は、ステップS108にて算出したワーク91の位置に基づいてロボットハンド130を目的のワーク91の上方に移動する。
ステップS112にて、制御部154は、吸着パッド135をオンする。
ステップS114にて、制御部154は、図6に示すように、ステップS108にて算出したワーク91の位置及び向きに基づいてロボットアーム120を制御して、吸着パッド135の向きをワーク91の向き(すなわち、法線ベクトルVnの方向)に合わせ、吸着パッド135をワーク91の表面上の吸着点Paに向けて駆動する。吸着パッド135の向きをワーク91の向きに合わせることで、ワーク表面を吸着して安定にピッキングする。
ステップS116にて、制御部154は、吸着パッド135によりワーク91の吸着に成功したか否か判断する。成功した場合、ステップS118に進む。失敗した場合、ステップS104に戻る。なお、複数回失敗した場合、フローを終了してもよい。
ステップS118にて、制御部154は、複数の吸着パッド135のうちワーク91に吸着した吸着パッド135の数を判断する。2つの吸着パッド135の両方がワーク91に吸着した場合、ステップS120に進み、制御部154はロボットアーム120の駆動速度を高くしてワーク91を高速に搬送し、2つの吸着パッド135の一方のみがワーク90に吸着した場合、ステップS122に進み、ロボットアーム120の駆動速度を低くしてワーク91を安定に搬送する。ワーク91がフレキシブルであるため一方の吸着パッド135による吸着に失敗した場合であってもワーク91を安定に搬送することが可能となる。
ステップS124にて、制御部154は、ワーク91をQRコード(登録商標)リーダ60に搬送し、これを用いてワーク表面に貼付されたQRコード(登録商標)を読み取る。制御部154は、QRコード(登録商標)による記録より収容すべきコンテナ80の区画81を決定する。
ステップS126にて、制御部154は、ワーク91を目的の区画81に搬送する。
ステップS128にて、制御部154は、吸着パッド135をオフしてワーク91を区画81内にプレイスする。
制御部154は、ステップS102に戻り、上記のステップを繰り返す。制御部154は、コンテナ70内のすべてのワークをコンテナ80に搬送し、ステップS106においてコンテナ70内にワークが確認できなくなることで、フローを終了する。
なお、上記のピッキング方法のフローに先立って、学習部153により、ワークを特定済みの正解画像を用いて機械学習モデルを生成する。ただし、解析部152は、機械学習ではなくルールベースによる画像認識の方法により画像に基づいてワークを特定するものでもよい。
以上説明したように、本実施形態に係るピッキングシステム100は、ワークを撮影して画像及び深度マップを得る撮像部151、画像に基づいてワークを特定し、深度マップのうちの特定したワークに対応するワーク部分に基づいてワークの位置及び向きを決定する解析部152、及びワークの位置及び向きに基づいてロボットアーム120を駆動制御する制御部154を備える。解析部152により、画像認識によりワークを特定し、深度マップのうちの特定したワークに対応する部分に基づいてワークの位置及び向きを決定し、制御部154によりロボットアーム120を制御して、ワークの向きに合わせてその位置に駆動することで、不定形なワークであっても、これをロボットアーム120により安定にピッキングすることが可能となる。
なお、本実施形態に係るピッキングシステム100において、ワークを保持するロボットハンド130に吸着パッド135を使用したが、これに限らずワークの上部を挟持する構成のハンドを使用してもよい。
また、本実施形態に係るピッキングシステム100では、制御装置150が学習部153を具備する構成としたが、制御装置150の構成はこれに限定されるものではない。制御装置150は解析部152がワークを特定できるものであればよく、予め学習済みの機械学習モデルを記憶しておくものでもよい。この場合、制御装置150は学習部153を具備しない構成となる。また、学習部153が別の装置として存在し、ネットワークを介して接続されている構成でも良い。
本発明の様々な実施形態は、フローチャートおよびブロック図を参照して記載されてよく、ここにおいてブロックは、(1)操作が実行されるプロセスの段階または(2)操作を実行する役割を持つ装置のセクションを表わしてよい。特定の段階およびセクションが、専用回路、コンピュータ可読媒体上に格納されるコンピュータ可読命令と共に供給されるプログラマブル回路、および/またはコンピュータ可読媒体上に格納されるコンピュータ可読命令と共に供給されるプロセッサによって実装されてよい。専用回路は、デジタルおよび/またはアナログハードウェア回路を含んでよく、集積回路(IC)および/またはディスクリート回路を含んでよい。プログラマブル回路は、論理AND、論理OR、論理XOR、論理NAND、論理NOR、および他の論理操作、フリップフロップ、レジスタ、フィールドプログラマブルゲートアレイ(FPGA)、プログラマブルロジックアレイ(PLA)等のようなメモリ要素等を含む、再構成可能なハードウェア回路を含んでよい。
コンピュータ可読媒体は、適切なデバイスによって実行される命令を格納可能な任意の有形なデバイスを含んでよく、その結果、そこに格納される命令を有するコンピュータ可読媒体は、フローチャートまたはブロック図で指定された操作を実行するための手段を作成すべく実行され得る命令を含む、製品を備えることになる。コンピュータ可読媒体の例としては、電子記憶媒体、磁気記憶媒体、光記憶媒体、電磁記憶媒体、半導体記憶媒体等が含まれてよい。コンピュータ可読媒体のより具体的な例としては、フロッピー(登録商標)ディスク、ディスケット、ハードディスク、ランダムアクセスメモリ(RAM)、リードオンリメモリ(ROM)、消去可能プログラマブルリードオンリメモリ(EPROMまたはフラッシュメモリ)、電気的消去可能プログラマブルリードオンリメモリ(EEPROM)、静的ランダムアクセスメモリ(SRAM)、コンパクトディスクリードオンリメモリ(CD−ROM)、デジタル多用途ディスク(DVD)、ブルーレイ(RTM)ディスク、メモリスティック、集積回路カード等が含まれてよい。
コンピュータ可読命令は、アセンブラ命令、命令セットアーキテクチャ(ISA)命令、マシン命令、マシン依存命令、マイクロコード、ファームウェア命令、状態設定データ、またはSmalltalk、JAVA(登録商標)、C++等のようなオブジェクト指向プログラミング言語、および「C」プログラミング言語または同様のプログラミング言語のような従来の手続型プログラミング言語を含む、1または複数のプログラミング言語の任意の組み合わせで記述されたソースコードまたはオブジェクトコードのいずれかを含んでよい。
コンピュータ可読命令は、汎用コンピュータ、特殊目的のコンピュータ、若しくは他のプログラム可能なデータ処理装置のプロセッサまたはプログラマブル回路に対し、ローカルにまたはローカルエリアネットワーク(LAN)、インターネット等のようなワイドエリアネットワーク(WAN)を介して提供され、フローチャートまたはブロック図で指定された操作を実行するための手段を作成すべく、コンピュータ可読命令を実行してよい。プロセッサの例としては、コンピュータプロセッサ、処理ユニット、マイクロプロセッサ、デジタル信号プロセッサ、コントローラ、マイクロコントローラ等を含む。
図8は、本発明の複数の態様が全体的または部分的に具現化されてよいコンピュータ2200の例を示す。コンピュータ2200にインストールされたプログラムは、コンピュータ2200に、本発明の実施形態に係る装置に関連付けられる操作または当該装置の1または複数のセクションとして機能させることができ、または当該操作または当該1または複数のセクションを実行させることができ、および/またはコンピュータ2200に、本発明の実施形態に係るプロセスまたは当該プロセスの段階を実行させることができる。そのようなプログラムは、コンピュータ2200に、本明細書に記載のフローチャートおよびブロック図のブロックのうちのいくつかまたはすべてに関連付けられた特定の操作を実行させるべく、CPU2212によって実行されてよい。
本実施形態によるコンピュータ2200は、CPU2212、RAM2214、グラフィックコントローラ2216、およびディスプレイデバイス2218を含み、それらはホストコントローラ2210によって相互に接続されている。コンピュータ2200はまた、通信インタフェース2222、ハードディスクドライブ2224、DVD−ROMドライブ2226、およびICカードドライブのような入/出力ユニットを含み、それらは入/出力コントローラ2220を介してホストコントローラ2210に接続されている。コンピュータはまた、ROM2230およびキーボード2242のようなレガシの入/出力ユニットを含み、それらは入/出力チップ2240を介して入/出力コントローラ2220に接続されている。
CPU2212は、ROM2230およびRAM2214内に格納されたプログラムに従い動作し、それにより各ユニットを制御する。グラフィックコントローラ2216は、RAM2214内に提供されるフレームバッファ等またはそれ自体の中にCPU2212によって生成されたイメージデータを取得し、イメージデータがディスプレイデバイス2218上に表示されるようにする。
通信インタフェース2222は、ネットワークを介して他の電子デバイスと通信する。ハードディスクドライブ2224は、コンピュータ2200内のCPU2212によって使用されるプログラムおよびデータを格納する。DVD−ROMドライブ2226は、プログラムまたはデータをDVD−ROM2201から読み取り、ハードディスクドライブ2224にRAM2214を介してプログラムまたはデータを提供する。ICカードドライブは、プログラムおよびデータをICカードから読み取り、および/またはプログラムおよびデータをICカードに書き込む。
ROM2230はその中に、アクティブ化時にコンピュータ2200によって実行されるブートプログラム等、および/またはコンピュータ2200のハードウェアに依存するプログラムを格納する。入/出力チップ2240はまた、様々な入/出力ユニットをパラレルポート、シリアルポート、キーボードポート、マウスポート等を介して、入/出力コントローラ2220に接続してよい。
プログラムが、DVD−ROM2201またはICカードのようなコンピュータ可読媒体によって提供される。プログラムは、コンピュータ可読媒体から読み取られ、コンピュータ可読媒体の例でもあるハードディスクドライブ2224、RAM2214、またはROM2230にインストールされ、CPU2212によって実行される。これらのプログラム内に記述される情報処理は、コンピュータ2200に読み取られ、プログラムと、上記様々なタイプのハードウェアリソースとの間の連携をもたらす。装置または方法が、コンピュータ2200の使用に従い情報の操作または処理を実現することによって構成されてよい。
例えば、通信がコンピュータ2200および外部デバイス間で実行される場合、CPU2212は、RAM2214にロードされた通信プログラムを実行し、通信プログラムに記述された処理に基づいて、通信インタフェース2222に対し、通信処理を命令してよい。通信インタフェース2222は、CPU2212の制御下、RAM2214、ハードディスクドライブ2224、DVD−ROM2201、またはICカードのような記録媒体内に提供される送信バッファ処理領域に格納された送信データを読み取り、読み取られた送信データをネットワークに送信し、またはネットワークから受信された受信データを記録媒体上に提供される受信バッファ処理領域等に書き込む。
また、CPU2212は、ハードディスクドライブ2224、DVD−ROMドライブ2226(DVD−ROM2201)、ICカード等のような外部記録媒体に格納されたファイルまたはデータベースの全部または必要な部分がRAM2214に読み取られるようにし、RAM2214上のデータに対し様々なタイプの処理を実行してよい。CPU2212は次に、処理されたデータを外部記録媒体にライトバックする。
様々なタイプのプログラム、データ、テーブル、およびデータベースのような様々なタイプの情報が記録媒体に格納され、情報処理を受けてよい。CPU2212は、RAM2214から読み取られたデータに対し、本開示の随所に記載され、プログラムの命令シーケンスによって指定される様々なタイプの操作、情報処理、条件判断、条件分岐、無条件分岐、情報の検索/置換等を含む、様々なタイプの処理を実行してよく、結果をRAM2214に対しライトバックする。また、CPU2212は、記録媒体内のファイル、データベース等における情報を検索してよい。例えば、各々が第2の属性の属性値に関連付けられた第1の属性の属性値を有する複数のエントリが記録媒体内に格納される場合、CPU2212は、第1の属性の属性値が指定される、条件に一致するエントリを当該複数のエントリの中から検索し、当該エントリ内に格納された第2の属性の属性値を読み取り、それにより予め定められた条件を満たす第1の属性に関連付けられた第2の属性の属性値を取得してよい。
上で説明したプログラムまたはソフトウェアモジュールは、コンピュータ2200上またはコンピュータ2200近傍のコンピュータ可読媒体に格納されてよい。また、専用通信ネットワークまたはインターネットに接続されたサーバーシステム内に提供されるハードディスクまたはRAMのような記録媒体が、コンピュータ可読媒体として使用可能であり、それによりプログラムを、ネットワークを介してコンピュータ2200に提供する。
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。
特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。
60…QRコード(登録商標)リーダ、70,80…コンテナ、71〜74…区画、79…仕切り、80…コンテナ、81…区画、89…仕切り、90〜97…ワーク、91a〜94a…表面、91D…ワーク部分、91P…点群データ、100…ピッキングシステム、101…ロボット、110…本体、111…ベース、120…ロボットアーム、130…ロボットハンド、131…基部、132…シャフト、133…撮像装置、133a…支持部材、134…固定部材、135…吸着パッド、135a…支持部材、140…駆動装置、150…制御装置、151…撮像部、152…解析部、153…学習部、154…制御部、200…ワーク分離装置、210…支持具駆動装置、211…本体、212…テーブル、213…支持具、220…棒状部材、2200…コンピュータ、2201…DVD−ROM、2210…ホストコントローラ、2214…RAM、2216…グラフィックコントローラ、2218…ディスプレイデバイス、2220…入/出力コントローラ、2222…通信インタフェース、2224…ハードディスクドライブ、2226…DVD−ROMドライブ、2240…入/出力チップ、2242…キーボード、P1〜P3…データ点、Pa…吸着点(位置決定点)、S…矩形区域、S〜S…区域、S,S…区画、T…三角区域、Vn…法線ベクトル、Vt…接線ベクトル。

Claims (15)

  1. ワークをピッキングするピッキングシステムであって、
    ワークを撮影して画像及び深度マップを得る撮像部と、
    前記画像に基づいて前記ワークを特定し、前記深度マップのうちの前記特定したワークに対応するワーク部分に基づいて前記ワークの位置及び向きを決定する解析部と、
    前記ワークの位置及び向きに基づいてロボットアームを駆動制御する制御部と、
    を備えるピッキングシステム。
  2. 前記解析部は、前記ワーク部分を7以上の区画に分割し、互いに隣接しない3つの区画を選択し、前記3つの区画からそれぞれ取得される3つの点を用いて前記ワークの表面の法線ベクトルを算出する、請求項1に記載のピッキングシステム。
  3. 前記解析部は、前記ワークの表面の法線ベクトルを算出するための点を取得できなかった場合に前記3つの区画を変更する、請求項2に記載のピッキングシステム。
  4. 前記解析部は、前記撮像部の撮像装置の位置に基づいて前記深度マップを3次元点群に再構成する、請求項1から3のいずれか一項に記載のピッキングシステム。
  5. 前記ワークが袋状容器である、請求項1から4のいずれか一項に記載のピッキングシステム。
  6. 前記解析部は、前記ワークの表面に沿った方向を決定し、該方向に基づいて前記ワーク部分内の位置決定点を決定し、該位置決定点の位置から前記ワークの位置を決定する、請求項1から5のいずれか一項に記載のピッキングシステム。
  7. 前記解析部は、ワークを特定済みの正解画像から生成された機械学習モデルを用いて、前記画像に基づいて前記ワークを特定する、請求項1から6のいずれか一項に記載のピッキングシステム。
  8. 前記ロボットアームは少なくとも1つの吸着パッドを有する、請求項1から7のいずれか一項に記載のピッキングシステム。
  9. 前記制御部は、前記ロボットアームを駆動制御する際に、前記吸着パッドの向きを前記ワークの向きに合わせる、請求項8に記載のピッキングシステム。
  10. 前記ロボットアームは複数の吸着パッドを有し、
    前記制御部は、前記複数の吸着パッドのうち前記ワークに吸着した吸着パッドの数に応じて前記ロボットアームの駆動速度を決定する、請求項8又は9に記載のピッキングシステム。
  11. 前記ワークの少なくとも上部を一方向に寄せて他のワークから分離するワーク分離装置をさらに備える、請求項1から10のいずれか一項に記載のピッキングシステム。
  12. ワークをピッキングするピッキング方法であって、
    撮像部により、ワークを撮影して画像及び深度マップを得る段階と、
    解析部により、前記画像に基づいて前記ワークを特定し、前記深度マップのうちの前記特定したワークに対応するワーク部分に基づいて前記ワークの位置及び向きを決定する段階と、
    制御部により、前記ワークの位置及び向きに基づいてロボットアームを駆動制御する段階と、
    を備えるピッキング方法。
  13. 前記決定する段階では、前記解析部により、前記ワーク部分を上下左右に9分割し、互いに隣接しない3つの区域を選択し、前記3つの区域からそれぞれ取得される3つの点を用いて前記ワークの表面の法線ベクトルを算出する、請求項12に記載のピッキング方法。
  14. 前記ワークが袋状容器である、
    請求項12又は13に記載のピッキング方法。
  15. 請求項12から14のいずれか一項に記載のピッキング方法をコンピュータに実行させるプログラム。
JP2019218349A 2019-12-02 2019-12-02 ピッキングシステム、ピッキング方法、及びプログラム Active JP6924448B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019218349A JP6924448B2 (ja) 2019-12-02 2019-12-02 ピッキングシステム、ピッキング方法、及びプログラム
PCT/JP2020/043700 WO2021111929A1 (ja) 2019-12-02 2020-11-24 ピッキングシステム、ピッキング方法、及びプログラム
JP2021107914A JP2021151699A (ja) 2019-12-02 2021-06-29 ピッキングシステム、ピッキング方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019218349A JP6924448B2 (ja) 2019-12-02 2019-12-02 ピッキングシステム、ピッキング方法、及びプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021107914A Division JP2021151699A (ja) 2019-12-02 2021-06-29 ピッキングシステム、ピッキング方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2021088011A true JP2021088011A (ja) 2021-06-10
JP6924448B2 JP6924448B2 (ja) 2021-08-25

Family

ID=76218927

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019218349A Active JP6924448B2 (ja) 2019-12-02 2019-12-02 ピッキングシステム、ピッキング方法、及びプログラム
JP2021107914A Pending JP2021151699A (ja) 2019-12-02 2021-06-29 ピッキングシステム、ピッキング方法、及びプログラム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2021107914A Pending JP2021151699A (ja) 2019-12-02 2021-06-29 ピッキングシステム、ピッキング方法、及びプログラム

Country Status (2)

Country Link
JP (2) JP6924448B2 (ja)
WO (1) WO2021111929A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023131162A (ja) * 2022-03-08 2023-09-21 株式会社Mujin 物体取り扱いを伴うロボットシステムのためのシステム及び方法
WO2024004746A1 (ja) * 2022-07-01 2024-01-04 ソニーセミコンダクタソリューションズ株式会社 システム及びプログラム

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008272886A (ja) * 2007-04-27 2008-11-13 Nissan Motor Co Ltd 把持候補位置選出装置、把持候補位置選出方法、把持経路生成装置、および把持経路生成方法
JP2010247959A (ja) * 2009-04-16 2010-11-04 Ihi Corp 箱状ワーク認識装置および方法
JP2011167815A (ja) * 2010-02-19 2011-09-01 Ihi Corp 物体認識ロボットシステム
JP2017030135A (ja) * 2015-07-31 2017-02-09 ファナック株式会社 ワークの取り出し動作を学習する機械学習装置、ロボットシステムおよび機械学習方法
JP2017042859A (ja) * 2015-08-25 2017-03-02 キヤノン株式会社 ピッキングシステム、並びに、そのための処理装置、方法及びプログラム
JP2018134698A (ja) * 2017-02-21 2018-08-30 ファナック株式会社 ワーク取出システム
JP2019181573A (ja) * 2018-04-02 2019-10-24 Kyoto Robotics株式会社 ピッキング装置及びその方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008272886A (ja) * 2007-04-27 2008-11-13 Nissan Motor Co Ltd 把持候補位置選出装置、把持候補位置選出方法、把持経路生成装置、および把持経路生成方法
JP2010247959A (ja) * 2009-04-16 2010-11-04 Ihi Corp 箱状ワーク認識装置および方法
JP2011167815A (ja) * 2010-02-19 2011-09-01 Ihi Corp 物体認識ロボットシステム
JP2017030135A (ja) * 2015-07-31 2017-02-09 ファナック株式会社 ワークの取り出し動作を学習する機械学習装置、ロボットシステムおよび機械学習方法
JP2017042859A (ja) * 2015-08-25 2017-03-02 キヤノン株式会社 ピッキングシステム、並びに、そのための処理装置、方法及びプログラム
JP2018134698A (ja) * 2017-02-21 2018-08-30 ファナック株式会社 ワーク取出システム
JP2019181573A (ja) * 2018-04-02 2019-10-24 Kyoto Robotics株式会社 ピッキング装置及びその方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023131162A (ja) * 2022-03-08 2023-09-21 株式会社Mujin 物体取り扱いを伴うロボットシステムのためのシステム及び方法
JP7408107B2 (ja) 2022-03-08 2024-01-05 株式会社Mujin 物体取り扱いを伴うロボットシステムのためのシステム及び方法
WO2024004746A1 (ja) * 2022-07-01 2024-01-04 ソニーセミコンダクタソリューションズ株式会社 システム及びプログラム

Also Published As

Publication number Publication date
JP2021151699A (ja) 2021-09-30
WO2021111929A1 (ja) 2021-06-10
JP6924448B2 (ja) 2021-08-25

Similar Documents

Publication Publication Date Title
WO2021111929A1 (ja) ピッキングシステム、ピッキング方法、及びプログラム
JP6605711B2 (ja) 計測システム及び計測方法
US20180231973A1 (en) System and Methods for a Virtual Reality Showroom with Autonomous Storage and Retrieval
US10102629B1 (en) Defining and/or applying a planar model for object detection and/or pose estimation
EP3685306A1 (en) Three-dimensional bounding box from two-dimensional image and point cloud data
US11928594B2 (en) Systems and methods for creating training data
US10649446B2 (en) Techniques for conveyance device control
US10078333B1 (en) Efficient mapping of robot environment
JP2020197978A (ja) 物体検出装置、物体把持システム、物体検出方法及び物体検出プログラム
US10105847B1 (en) Detecting and responding to geometric changes to robots
EP3617936B1 (en) Transport system, control method and program
JP2021146452A (ja) ハンドリング装置、制御装置、および制御プログラム
US11631191B2 (en) Location discovery
CN114454168A (zh) 一种动态视觉机械臂抓取方法、***及电子设备
US20220128347A1 (en) System and method to measure object dimension using stereo vision
KR102303521B1 (ko) 적재물 다중 하역 매니퓰레이터의 진동 감쇠 방법
US20200071094A1 (en) Article picking system
JP2024082203A (ja) ロボットの制御システム、情報管理プログラム、情報処理プログラム
WO2024150788A1 (ja) 物品の搬送方法、および、物品の搬送装置
WO2024122516A1 (ja) ロボットの制御システム、ロボットハンド、ロボットの制御プログラム、情報管理プログラム、及び情報処理プログラム
US20240066723A1 (en) Automatic bin detection for robotic applications
US12051252B2 (en) Location discovery
JP2024099199A (ja) 物品の搬送方法、および、物品の搬送装置
EP3866061B1 (en) Article distinguishing system
US20230375697A1 (en) System and Method for Support Structure Detection

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200817

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200818

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20201112

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210115

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210406

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210629

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20210629

C876 Explanation why request for accelerated appeal examination is justified

Free format text: JAPANESE INTERMEDIATE CODE: C876

Effective date: 20210629

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20210707

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20210713

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210715

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210720

R150 Certificate of patent or registration of utility model

Ref document number: 6924448

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350