JP5869583B2 - ロボットシステムにおける対象物体画像のフィルタ方法 - Google Patents

ロボットシステムにおける対象物体画像のフィルタ方法 Download PDF

Info

Publication number
JP5869583B2
JP5869583B2 JP2013534351A JP2013534351A JP5869583B2 JP 5869583 B2 JP5869583 B2 JP 5869583B2 JP 2013534351 A JP2013534351 A JP 2013534351A JP 2013534351 A JP2013534351 A JP 2013534351A JP 5869583 B2 JP5869583 B2 JP 5869583B2
Authority
JP
Japan
Prior art keywords
image
gripper
source images
robot arm
variance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013534351A
Other languages
English (en)
Other versions
JP2013541775A (ja
Inventor
ハッリ ヴァルポラ
ハッリ ヴァルポラ
Original Assignee
ゼンロボティクス オイ
ゼンロボティクス オイ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ゼンロボティクス オイ, ゼンロボティクス オイ filed Critical ゼンロボティクス オイ
Publication of JP2013541775A publication Critical patent/JP2013541775A/ja
Application granted granted Critical
Publication of JP5869583B2 publication Critical patent/JP5869583B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/174Segmentation; Edge detection involving the use of two or more images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1669Programme controls characterised by programming, planning systems for manipulators characterised by special application, e.g. multi-arm co-operation, assembly, grasping
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39107Pick up article, object, measure, test it during motion path, place it
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39543Recognize object and plan hand shapes in grasping movements
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40053Pick 3-D object from pile of objects
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40609Camera to monitor end effector as well as object to be handled
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40613Camera, laser scanner on end effector, hand eye manipulator, local

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Image Analysis (AREA)
  • Manipulator (AREA)
  • Image Processing (AREA)

Description

本発明は、ロボットアーム及びグリッパにより物理的な物体を操作するために用いられる方法及びシステムに関する。特に、本発明は、ロボットシステムにおける対象物体画像のフィルタ方法に関する。
ロボットシステムは、製造部品、機械部品及びリサイクルされる物質のような各種の物理的物体のソート及び分類に用いられる。ソート及び分類は、物理的物体が十分に高い確率で認識されることを要求する。リサイクル及びごみ管理のような用途において、ソートした物体のグループの純度が高い、つまり、最終的にソートした物体のグループの中に誤ったタイプの物体が可能な限り少ないことが重要である。
ロボットシステムにおいて、移動される又は操作される物理的物体の認識は、2つの段階を含む。第1の段階では、ロボットアームに接続されたグリッパ、爪、クランプ又は他の同様な装置を用いて把持される対象物体は、複数の物体の中から認識される。第2の段階では、対象物体の把持に成功し、対象物体は、より近くで検査される。検査は、通常、カメラ又は赤外線センサを含む複数のセンサを用いて行われる。カメラは、ロボットアーム又はグリッパに接続される。検査は、認識プロセスに干渉する物体を含まない空白又は他のクリーンな背景に対して行われる。対象物体が把持される環境において、通常、物体の一部又は全部を覆う他の物体が存在し、それにより、その背景環境における対象物の認識及び分類を困難にしている。このような環境は、非構造化領域と呼ばれる。
一般的に、物体認識の課題は、デジタルカメラ画像のような知覚データにおける物体をサーチするパターン認識アルゴリズムを用いて通常処理される。このようなアルゴリズムは、盛んに研究されている分野である。平坦でない背景に対して物体を認識可能な多くのアルゴリズムが存在するが、パターン認識アルゴリズムは、一般的に、背景が均一で予め決まっているときに最も良好に機能する。事前に、予め決まったタイプの物体は、クリアな動作領域からサーチされ、認識された物体として動作領域から選択される。一連のアクションは、既知のタイプの選択された物体で行われうる。一連のアクションは、物体のタイプに基づいて選択され、例えば、異なるビンがある中に異なる種類の物体を設置する。
対象物体が、干渉する物体が存在せずにセンサにより検査されるように、ロボットアームを用いて対象物体を均一な背景に移動することが可能である。しかし、このアプローチの課題は、ソート動作の対象となる可能性のある各物体が、物体が検査背景に対して視認される別々の位置へ移動することが必須であることである。これは、多くの時間を必要とし、ロボットアームが頻繁に移動されるという理由により多くのエネルギーを消費する。したがって、対象物体を特定の検査位置へ移動するステップを回避可能であることが有益である。
本発明は、ロボットアームに取り付けられたグリッパにより物体を把持するステップと、前記物体が前記ロボットアームにより移動される間に、イメージセンサにより前記物体を含む領域の少なくとも2つのソース画像をキャプチャするステップと、前記少なくとも2つのソース画像の平均画像を演算するステップと、前記少なくとも2つのソース画像の分散画像を演算するステップと、前記分散画像からフィルタリング画像を形成するステップと、ビットマスクとして前記フィルタリング画像を用いて前記平均画像をマスキングすることにより結果画像を取得するステップと、を含む方法に関する。
本発明は、また、物体を把持するグリッパ及びロボットアームを制御する手段と、前記物体が前記ロボットアームにより移動される間に、イメージセンサにより前記物体を含む領域の少なくとも2つのソース画像を取得する手段と、前記少なくとも2つのソース画像の平均画像を演算する手段と、前記少なくとも2つのソース画像の分散画像を演算する手段と、前記分散画像からフィルタリング画像を形成する手段と、ビットマスクとして前記フィルタリング画像を用いて前記平均画像をマスキングすることにより結果画像を取得する手段と、を備える装置に関する。
本発明は、また、コンピュータ読み取り可能な媒体に統合されるコンピュータプログラムであって、前記コンピュータプログラムは、物体を把持するグリッパ及びロボットアームを制御するステップと、前記物体が前記ロボットアームにより移動される間に、イメージセンサにより前記物体を含む領域の少なくとも2つのソース画像を取得するステップと、前記少なくとも2つのソース画像の平均画像を演算するステップと、前記少なくとも2つのソース画像の分散画像を演算するステップと、前記分散画像からフィルタリング画像を形成するステップと、ビットマスクとして前記フィルタリング画像を用いて前記平均画像をマスキングすることにより結果画像を取得するステップと、を含む方法を実行するためのプロセッサを制御するコードを含む、コンピュータプログラムに関する。
本発明は、また、物体を把持するグリッパ及びロボットアームを制御するステップと、イメージセンサにより前記物体を含む領域の少なくとも2つのソース画像を取得するステップと、前記少なくとも2つのソース画像の平均画像を演算するステップと、前記少なくとも2つのソース画像の分散画像を演算するステップと、前記分散画像からフィルタリング画像を形成するステップと、ビットマスクとして前記フィルタリング画像を用いて前記平均画像をマスキングすることにより結果画像を取得するステップと、を含むコンピュータプログラム製品。
本発明は、また、メモリと、物体を把持するグリッパ及びロボットアームを制御し、イメージセンサにより前記物体を含む領域の少なくとも2つのソース画像を取得し、前記少なくとも2つのソース画像の平均画像を演算し、前記少なくとも2つのソース画像の分散画像を演算し、前記分散画像からフィルタリング画像を形成し、ビットマスクとして前記フィルタリング画像を用いて前記平均画像をマスキングすることにより結果画像を取得するように構成される少なくとも1つのプロセッサを備える装置に関する。
本発明は、また、ロボットアームに取り付けられるグリッパにより物体を把持するステップと、イメージセンサにより前記物体を含む領域の少なくとも2つのソース画像を取得するステップと、前記少なくとも2つのソース画像をキャプチャしている間の前記グリッパの移動を記録するステップと、記録された前記グリッパの移動に基づく前記少なくとも2つのソース画像間のモーションに対する少なくとも1つの第1のモーションベクトルを求めるステップと、前記少なくとも2つのソース画像の少なくとも1つを複数の画像領域に分割するステップと、前記少なくとも2つのソース画像の画像データの比較に基づく少なくとも1つの第2のモーションベクトルを求めるステップであって、前記少なくとも1つの第2のモーションベクトルは画像データのモーションを示す、ステップと、物体分類用の少なくとも1つの画像領域を得るために、前記少なくとも1つの第2のモーションベクトルを前記少なくとも1つのモーションベクトルとマッチングするステップと、を含む方法に関する。
本発明は、また、ロボットアームに取り付けられるグリッパにより物体を把持する手段と、イメージセンサにより前記物体を含む領域の少なくとも2つのソース画像を取得する手段と、前記少なくとも2つのソース画像をキャプチャしている間の前記グリッパの移動を記録する手段と、記録された前記グリッパの移動に基づく前記少なくとも2つのソース画像間のモーションに対する少なくとも1つの第1のモーションベクトルを求める手段と、前記少なくとも2つのソース画像の少なくとも1つを複数の画像領域に分割する手段と、前記少なくとも2つのソース画像の画像データの比較に基づく少なくとも1つの第2のモーションベクトルを求める手段であって、前記少なくとも1つの第2のモーションベクトルは画像データのモーションを示す、手段と、物体分類用の少なくとも1つの画像領域を得るために、前記少なくとも1つの第2のモーションベクトルを前記少なくとも1つのモーションベクトルとマッチングする手段と、を備える装置に関する。
本発明は、また、コンピュータ読み取り可能な媒体に統合されるコンピュータプログラム製品又はコンピュータプログラムに関する。コンピュータプログラム又はコンピュータプログラム製品は、グリッパにより物体を把持するステップと、イメージセンサにより前記物体を含む領域の少なくとも2つのソース画像を取得するステップと、前記少なくとも2つのソース画像をキャプチャしている間の前記グリッパの移動を記録するステップと、記録された前記グリッパの移動に基づく前記少なくとも2つのソース画像間のモーションに対する少なくとも1つの第1のモーションベクトルを求めるステップと、前記少なくとも2つのソース画像の少なくとも1つを複数の画像領域に分割するステップと、前記少なくとも2つのソース画像の画像データの比較に基づく少なくとも1つの第2のモーションベクトルを求めるステップであって、前記少なくとも1つの第2のモーションベクトルは画像データのモーションを示す、ステップと、物体分類用の少なくとも1つの画像領域を得るために、前記少なくとも1つの第2のモーションベクトルを前記少なくとも1つのモーションベクトルとマッチングするステップと、を含む方法を実行するためのプロセッサを制御するコードを含む。
本発明は、また、ロボットアームに取り付けられた又は別々に搭載されたグリッパにより物体を把持するステップと、前記物体を含む領域の複数のソース画像をイメージセンサを用いてキャプチャするステップと、前記複数の画像をキャプチャしている時間に前記グリッパの記録されたモーションとの対応に基づく前記複数のソース画像から移動する画像要素を選択するステップと、選択された前記移動する画像要素の情報を用いて結果画像を生成するステップと、把持された前記物体を分類するために前記結果画像を用いるステップと、を含む方法、前記方法を実行するように構成される装置、又は前記方法を含むコンピュータプログラムに関する。本発明の一実施形態では、前記移動する画像要素を選択するステップは、前記少なくとも2つのソース画像の平均画像を演算し、前記少なくとも2つのソース画像の分散画像を演算し、前記分散画像からフィルタリング画像を形成することを含んでもよい。本発明の一実施形態では、前記結果画像を生成するステップは、ビットマスクとして前記フィルタリング画像を用いて前記平均画像をマスキングすることにより結果画像を取得することを含んでもよい。本発明の一実施形態では、前記移動する画像要素を選択するステップは、記録された前記グリッパの移動に基づく前記少なくとも2つのソース画像間のモーションに対する少なくとも1つの第1のモーションベクトルを求めるステップと、前記少なくとも2つのソース画像の少なくとも1つを複数の画像領域に分割するステップと、前記少なくとも2つのソース画像の画像データの比較に基づく少なくとも1つの第2のモーションベクトルを求めるステップであって、前記少なくとも1つの第2のモーションベクトルは画像データのモーションを示す、ステップと、前記少なくとも1つの第2のモーションベクトルを前記少なくとも1つのモーションベクトルとマッチングするステップと、を含んでもよい。
本発明の一実施形態では、前記イメージセンサは、前記グリッパと共に移動するように構成され、例えば、前記イメージセンサは、前記グリッパ又は前記ロボットアームに取り付けられてもよい。
本発明の一実施形態では、前記イメージセンサは、前記物体が移動する間に前記物体を含む領域の少なくとも2つのソース画像を取得することができる位置に位置づけられている。
本発明の一実施形態では、前記装置は、前記少なくとも2つのソース画像における前記グリッパの画像を認識するように構成される。前記装置は、第1のソース画像と第2のソース画像とのグリッパの画像の少なくとも一つの変位を演算し、前記変位に基づいて前記平均画像を演算するステップ及び前記分散画像を演算するステップに対する前記第1のソース画像と前記第2のソース画像との相互の変位を求める。前記変位は、前記第1のソース画像及び前記第2のソース画像における把持された前記物体の前記画像を正確に重畳するために前記第2のソース画像をスクロールするために用いられてもよい。把持された前記物体の実際の画像は、除去されてもよい。スクロールは、ロジカルのみであってもよく、かつ前記平均画像及び前記分散画像の演算における変位デルタ値としてのみ用いられてもよい。
本発明の一実施形態では、前記装置は、前記少なくとも2つのソース画像の相互の変位を求め、その移動は、前記変位に基づく前記平均画像を演算するステップ及び前記分散画像を演算するステップのいずれかに対して、前記グリッパの記録された移動に対応する。
本発明の一実施形態では、前記装置は、前記少なくとも2つのソース画像における少なくとも1つの移動領域を求め、その移動は、前記グリッパの記録された移動に対応し、前記装置は、前記少なくとも2つのソース画像から少なくとも1つの移動領域をフィルタリングする。前記フィルタリングは、前記領域のピクセルを0又は1のような予め設定された値に設定することを含んでもよい。前記移動領域は、ブロック、輪郭又は形状を含んでもよく、単一のピクセルであってもよい。
本発明の一実施形態では、前記少なくとも2つのソース画像のうち、連続する2つのソース画像間での前記グリッパの移動に対応する少なくとも1つの移動ベクトルは、前記ロボットアーム用に記録された移動情報から取得されてもよい。本発明の一実施形態では、前記移動ベクトルは、前記ロボットアームの座標及び前記画像の座標における移動間でのマッピング機能において変換されるように取得されてもよい。前記移動ベクトルは、前記連続する2つのソース画像を比較することにより取得されるブロック又はピクセル移動情報と共に用いられてもよい。前記グリッパの既知のモーションに対応するモーションベクトルによるこれらのブロック又はピクセルは、前記少なくとも2つのソース画像からフィルタされてもよい。このように、前記少なくとも2つのソース画像から移動する背景と共に除去することができ、前記平均画像及び前記分散画像の演算ステップにおける前記グリッパにより移動する物体のみに制限できる。移動ブロックの一例は、Motion Picture Experts Group (MPEG)マクロブロックである。
本発明の一実施形態では、前記グリッパの少なくとも1つの視覚特性(visual feature)は、前記装置の物体認識エンティティによる前記少なくとも2つのソース画像における前記グリッパを認識するために用いられる。前記少なくとも2つのソース画像内の前記グリッパ画像の少なくとも一部の移動は、前記グリッパの前記モーションの大きさ及び方向を示す前記グリッパ用のモーションベクトルを取得するために用いられる。前記グリッパの前記モーションベクトルは、また、グリッパにより保持されるということにより、把持される物体、つまりグリッパ物体の少なくとも一部に対するモーションベクトルである。なお、長い物体の場合には、物体は、パーツがグリッパに直接接触する状態を維持することに関して震え、フラッター又は遅れたパーツ(shiver, flutter or lag behind)を有していてもよい。モーションベクトルは、2つのソース画像間でのグリッパのモーションベクトルの逆ベクトルに対応する互いに関連する少なくとも2つのソース画像をスクロールするために用いられてもよい。少なくとも2つのソース画像の平均画像を演算するステップ、少なくとも2つのソース画像の分散画像を演算するステップ、分散画像からフィルタリング画像を形成するステップ及びビットマスクとしてフィルタリング画像を用いて平均画像をマスキングすることにより結果画像を取得するステップのいずれかを含むさらなる工程は、その後、モーションベクトルの逆ベクトルに比例してスクロールしている少なくとも2つのソース画像に対して行われてもよい。
本発明の一実施形態では、前記装置のアームコントローラエンティティは、前記物体の把持の成功を検出する。前記装置は、前記グリッパ及び前記ロボットアームに接続される。検出に応じて、前記アームコントローラエンティティは、これを前記装置のカメラコントロールエンティティに示し、当該カメラコントロールエンティティは、前記イメージセンサを制御して、前記少なくとも2つのソース画像をキャプチャする。前記カメラコントロールエンティティは、前記イメージセンサから前記装置へのキャプチャされた前記少なくとも2つのソース画像を取得する。
本発明の一実施形態では、前記装置の物体認識エンティティは、前記グリッパ及び前記ロボットアームの少なくとも1つの視覚特性を含む前記結果画像から少なくとも一つの画像領域を除去する。
本発明の一実施形態では、前記物体認識エンティティは、前記結果画像の少なくとも1つの視覚特性に基づく前記結果画像内の前記物体を分類し、前記アームコントローラエンティティに前記ロボットアームが前記分類に対応する位置へ前記物体を移動するようにさせることを指示する。
本発明の一実施形態では、前記分散画像を演算するステップは、前記少なくとも2つのソース画像における各ピクセルの分散を演算し、前記分散画像における前記各ピクセルの値として演算された分散を設定することを含む。
本発明の一実施形態では、分散画像によるとは、各ピクセルに対して、前記少なくとも2つのソース画像にわたるピクセルの値の分散に比例する値を有する画像を意味する。前記少なくとも2つのソース画像にわたるピクセルの値の分散を測定する一つの方法は、統計的に分散を演算することである。
本発明の一実施形態では、前記フィルタリング画像を形成するステップは、予め設定された閾値よりも小さい値を有する前記分散画像における前記各ピクセルに対する前記フィルタリング画像において、各ピクセルに1を設定することを含む。
本発明の一実施形態では、前記結果画像を取得するステップは、前記フィルタリング画像の前記各ピクセルの前記値が1である場合にのみ、前記平均画像からの前記結果画像に対する各ピクセルを選択することを含む。前記フィルタリング画像は、前記平均画像からのピクセルの選択を可能にするように用いられる2次元ビットマスクとして理解されてもよい。
本発明の一実施形態では、前記少なくとも2つの画像は、把持された物体の認識を干渉する可能性のある他の物体を含む背景に対して撮られる。前記物体の前記背景は、非構造化領域、すなわち、環境又は通常の三次元空間であってもよく、これは、例えば背景色又は形状のような一又はいくつかのその特性に予め設定されるものではなく、対象となる前記物体に加えて、未知の特性の他の物体を含みうる。例えば、ごみの山は、非構造化領域、つまり、ロボットの動作空間を構成しうる。非構造化領域は、また、時間と共に変化しうる。例えば、ごみの一部がごみの山から除去されると、ごみの一部は、シャッフル、移動又は崩壊しうる。また、新たなごみがごみの山に追加されうる。
本発明の一実施形態では、前記イメージセンサは、カメラ、赤外線カメラ及びレーザースキャナーの少なくとも1つである。
本発明の一実施形態では、前記平均画像を演算するステップ、前記分散画像を演算するステップ及び前記フィルタリング画像を形成するステップは、ピクセルカラーチャネルごとに別々に行われる。本発明の一実施形態では、前記少なくとも2つのソース画像は、グレースケールに変換され、前記平均画像を演算するステップ、前記分散画像を演算するステップ及び前記フィルタリング画像を形成するステップは、グレースケールに対して行われる。
本発明の一実施形態では、前記イメージセンサは、前記グリッパに取り付けられる又は前記グリッパの一部を形成する。前記カメラもまた、前記ロボットアームの端部に直接又はシャフトを介して取り付けられてもよい。
本発明の一実施形態では、本発明は、制御ユニットにより制御され、非構造化領域に存在する物体に到達しうるように実装されたロボットアームを含む。
本発明の一実施形態では、本システムは、前記ロボットアームに取り付けられ、前記制御ユニットにより制御されるグリッパをさらに含む。前記グリッパは、例えば、手又は爪に類似する手法で物体を包み込むことにより物体を把持する装置でありうる。
本発明の一実施形態では、前記システムは、前記非構造化領域についての知覚データを生成するために用いられうる少なくとも1つのセンサ装置をさらに含みうる。このようなセンサ装置の1つとしては、例えば、前記非構造化領域を視るために方向付けられたデジタルカメラでありうる。
本発明の一実施形態では、例えば、前記グリッパが移動し、かつ物体に衝突したとき又は物体が把持されたときに、前記グリッパは、前記グリッパが前記非構造化領域における物体に接触したかどうかを測定するために用いられうるセンサを含む。
本発明の一実施形態では、把持動作の成功は、センサからのデータを用いて求められる。前記把持が成功しなかった場合、前記ロボットアームは、その後、別の試みのために異なる位置へ移動される。
本発明の一実施形態では、前記システムは、前記装置で動く学習システムを用いることによりさらに向上する。
本発明の一実施形態では、前記コンピュータプログラムは、コンピュータ読み取り可能な媒体に記憶される。前記コンピュータ読み取り可能な媒体は、リムーバブルメモリカード、リムーバブルメモリモジュール、磁気ディスク、光ディスク、ホログラフィックメモリ又は磁気テープであってもよい。リムーバブルメモリモジュールは、例えば、USBメモリスティック、PCMCIAカード又はスマートメモリカードであってもよい。
上述された本発明の実施形態は、互いに組み合わせて用いられてもよい。いくつかの実施形態は、共に組み合わせられることにより本発明の別の実施形態を形成してもよい。本発明に関する方法、システム、装置、コンピュータプログラム又はコンピュータプログラム製品は、上述された発明の少なくとも1つの実施形態を含む。
本発明の利益は、ロボットの動作スペースから物体の選択の質を向上させることに関する。本発明は、また、例えば、対象物体の形状又は質感を認識するために用いられるさらなる対象物体認識方法を単純化するために用いられてもよい。本発明は、また、空白の背景への画像の移動を避けることによりロボットアームの要求する移動を低減し、それにより、ロボットアームの電力消費の低減をもたらしてもよい。
添付の図面は、本発明のさらなる理解を提供し、この明細書の一部を構成し、本発明の実施形態を図示し、明細書と共に本発明の概念の説明を補助する。
図1は、本発明の一実施形態における対象物体画像のフィルタリングを行うロボットシステムを示すブロック図である。 図2Aは、ロボットシステムにおける対象物体画像のフィルタリングを示すブロック図である。 図2Bは、本発明の一実施形態のロボットシステムのようなロボットシステムにおけるグリッパ又はロボットアームのモーションベクトルに基づく対象物体画像のスクローリングを示すブロック図である。 図3は、本発明の一実施形態のロボットシステムにおける対象物体画像のフィルタリング方法を示すフローチャートである。 図4は、本発明の一実施形態のロボットシステムにおける物体認識方法に基づく物体移動のための方法を示すフローチャートである。
本発明の実施形態の詳細が添付の図面で示される例と共に示される。
図1は、本発明の一実施形態における対象物体画像のフィルタリングを行うロボットシステムを示すブロック図である。図1では、ロボットシステム100は、ロボット110、例えば、ロボットアーム116を含む産業用ロボットを備える。ロボットアーム116は、グリッパ112に接続され、クランプ又は爪であってもよい。ロボットアーム116は、動作領域102内のグリッパ112を移動可能である。ロボットアーム116は、例えば、ロボットアームの回転、上昇及び把持の制御を可能にするサーボモータのような多数のモータを含んでもよい。ロボットアーム116及びグリッパ112の各種の移動は、アクチュエータによりもたらされる。実施例により、アクチュエータは、電気、空気圧又は油圧若しくはこれらの組み合わせでありうる。アクチュエータは、ロボット110の各種要素を移動又は回転してもよい。一連の電気的なドライバは、データ処理信号、すなわち、装置120からのロボットアーム116のアクチュエータを制御する適切な電圧及び電力レベルへの指示を変換するために用いられてもよい。装置120からの制御信号に応答して、アクチュエータは、動作領域112内の特定の位置においてグリッパ112を位置づけること、グリッパ112を下降又は上昇すること、及びグリッパ112を開閉することを含む各種の機械的な機能を実行するが、これに限定されない。ロボット110は、各種のセンサを含んでもよい。実施例により、センサは、ロボットアーム116及びグリッパ112の位置を示すと共に、グリッパ112の開閉状態を示す各種の位置センサ(図示せず)を含む。グリッパの開閉状態は、単純なyes/noビットに限定されない。本発明の一実施形態では、そのフィンガーのそれぞれに対するマルチビット開閉状態を示してもよく、グリッパにおける物体の大きさ及び/又は形状を示すものが取得されてもよい。位置センサに加えて、一連のセンサは、歪みセンサ又はフォースフィードバックセンサとしても知られている歪センサを含んでもよく、歪センサは、ロボットアーム116及びグリッパ112の各種要素により受けられる歪みを示す。図示した例に限定されない実装例では、歪センサは、抵抗に加えられる圧縮力に応じて抵抗値が変化する可変抵抗を含む。抵抗の変化は抵抗の絶対値に比べて小さいため、可変抵抗は、通常、ホイートストーンブリッジ構成で測定される。
グリッパ112又はロボットアーム116に対して接続されるカメラ114が存在し、カメラ114は、その視野において、少なくとも部分的にグリッパ112により把持される物体を有することを対象とする。図1では、カメラは、グリッパ112の内側となるように図示される。カメラは、また、ロボットアーム116に接続される別のシャフトに配置され、グリッパ112により把持される物体がカメラ114の視野内に良好となるように位置づけられてもよい。カメラは、また、ロボットアーム116とは独立した離れた位置に配置されてもよい。ロボット110は、非構造化領域102、つまりロボット110の動作領域に含まれる物体をソートする。領域102は、物体103、104及び105のような多数の物体を含む。図1では、ロボット110が対象物105の把持動作を行い、グリッパ112で対象物105をつかんでおくことがわかる。
ロボット110は、データ処理装置120、つまり装置に接続される。装置120の内部機能は、ボックス140により示される。装置120は、少なくとも1つのプロセッサ142と、ランダムアクセスメモリ(RAM)148と、ハードディスク146と、を備える。一又はそれ以上のプロセッサ142は、ソフトウェアエンティティ150、152、154及び156を実行することによりロボットアームを制御する。装置120は、また、少なくともカメラ周辺機器インターフェース145と、ロボット110を制御するためのロボットインターフェース144とを備える。周辺機器インターフェース145は、例えばユニバーサルシリアルバス(USB)のようなバスであってもよい。装置120は端末130も接続され、端末130は少なくともディスプレイ及びキーボードを含む。端末130は、装置120にローカルエリアネットワークを用いて接続されたラップトップであってもよい。
ロボット110のような外部装置と通信するために、装置120は、ロボットインターフェース144のような外部送受信回路を含む又は使用し、外部送受信回路は、送信回路及び受信回路を含み、内部又は外部アンテナ(図示せず)を含んでもよい。装置120は、物質界と通信するためのいくつかの異なるインターフェース技術を使用してもよく、本実施例ではロボット110、グリッパ112及びカメラ114を含む。ワイヤレスローカルエリアネットワーク(WLAN)及び赤外線、ラジオ又はブルートゥースのような近距離ワイヤレスインターフェースは、このような無線送受信回路の実施例であるが、これに限定されるものではない。このようなワイヤレス通信技術に替えて又は加えて、データ処理装置は、USB、パラレル又はシリアルインターフェース、又は他の産業上標準的なインターフェース又は専用のインターフェースのような有線接続を使用してもよい。
さらに、装置120のメモリ140は、プログラム又は通常少なくとも1つのプロセッサ142により実行されるソフトウェアエンティティのコレクションを含む。アームコントローラエンティティ150は、ロボットアーム116及びグリッパ112の回転、上昇及び把持を制御するために、ロボットインターフェースを通じて指示を発する。コントローラエンティティ150は、また、ロボットアーム116及びグリッパ112の測定された回転、上昇及び把持にふさわしいセンサデータを受信してもよい。アームコントローラは、インターフェース144を通じて装置120に受信されたフィードバックに基づいて発せられた新たな指示によりアームを作動してもよい。アームコントローラ150は、明確に定義されたハイレベル動作を行うロボット110への命令を発するように構成される。ハイレベル動作の一例は、特定の位置へロボットアームを移動することである。アームコントローラ150は、ハイレベル動作を、例えばロボット110のアクチュエータへの電気的なドライバを通じて出力信号の適切なシーケンスを出力する等の一連のローレベル動作に変換する各種のソフトウェアドライバ、ルーチン又はダイナミックリンクライブラリを使用してもよい。カメラコントローラエンティティ152は、インターフェース145を用いてカメラ114と通信する。カメラコントローラエンティティは、カメラ114にカメラコントローラエンティティ152により指示された時間に開始する予め設定された時間に複数の写真を撮らせる。一般的に、カメラコントローラエンティティ152は、任意の時間で写真を撮るためにカメラ114へ命令を発してもよい。カメラコントローラエンティティ152は、インターフェース145を通じてカメラ114により撮られた画像を取得し、メモリ140に画像を記憶する。物体抽出エンティティ154は、予め設定された数のソース画像(図示せず)から対象物体を抽出するように構成される。本発明の一実施形態では、物体抽出エンティティ154は、平均画像160及び分散画像162を演算するためにソース画像を用いる。本発明の一実施形態では、物体抽出エンティティ154は、分散画像152からマスク画像(図示せず)を演算し、マスク画像により構成される2次元ビットマップにより平均画像160をマスキングすることにより結果画像164を形成するために用いられる。結果画像164に見えるようなソース画像からフィルタされた対象物体は、さらに物体認識部156に提供され、形状、色、質感、複数の離散コサイン変換(DCT)係数、複数のウェーブレット変換係数、MPEGマクロブロック及び輪郭のような対象物体の各種視覚特性に基づいて対象物体でのさらなる分析を行ってもよい。物体認識部は、また、グリッパ112の画像の視覚特性での情報を含んでもよく、さらなる解析のためにより良い結果画像を生成するために、結果画像で見えるグリッパ112の部分を除去する情報を用いてもよい。グリッパ112の画像の視覚特性は、形状、色、質感、複数の離散コサイン変換(DCT)係数、複数のウェーブレット変換係数、MPEGマクロブロック及び輪郭の少なくとも1つを含んでもよい。対象物体認識の結果に基づいて、物体認識部156は、対象物体を分類し、アームコントローラ150を通じてロボット110に対象物体を、例えばターゲットビンに対応する特定の位置へ移動するように指示する。
物体抽出エンティティ154により行われたフィルタリングは、例示的な実施形態で以下に説明される。本発明の一実施形態では、カメラ114から見れば、対象物体105は、把持する環境102の背景に対して閲覧される。しかし、ロボットアーム116の移動が既知であると、予め設定された動作であるため又はロボット制御システムが正確に測定するためのいずれかにより、カメラセンサビューの背景は異なる手法で移動する間に、カメラ画像におけるグリッパ112の移動及び対象物体105の移動が知られる。対象物体112は、その後、ロボットアームの既知の移動に対応する手法で変化するそれらの領域のみの画像データから選択することにより、カメラ画像からより正確に認識されうる。この実装の1つの簡易な例は、グリッパ112に取り付けられるカメラ114を有する。このような構成では、グリッパにより移動する物体は、カメラ画像において固定しているように見えるが、背景は、移動しているように見える。カメラ画像データからの物体の認識は、“オンライン”で実装されうる。新たなカメラ画像は、時間経過に従ってカメラから受信される。使用されるカメラのタイプに応じて、新たなカメラ画像は、カメラからの新たな画像データを要求する物体認識システムの結果から構成されてもよく又はカメラは、カメラ内と同じレートで新たな画像を構成してもよく、物体認識システムは、その後、以前に要求されたものと同一画像であってもよい最後の画像を要求する又は新たな画像が取得されたときに、カメラからの指示を受信してもよい。新たな画像が受信されると、連続する新たな画像及び以前に受信した画像におけるピクセル値の平均及び分散が計算され、2つの画像、平均画像及び分散画像を形成すると考えられうる。使用される以前に受信した画像の数は、身近なアプリケーションに最も適したパラメータとして設定されてもよい。十分な数のカメラ画像が受信され、この手法で処理されたとき、マスク画像は、ピクセル値を、分散画像における対応するピクセルが予め設定された閾値よりも小さいそれらの画像において1に設定し、そうでない場合に0に設定することにより演算される。その後、平均画像は、物体認識を行うために用いられ、特徴画像を得て、いくつかの視覚特性を有するとみなされる平均画像におけるそれらのピクセルを含み、物体認識システムは認識するように設定される。例えば、物体認識システムが赤い物体を認識するように設定された場合、特徴画像は、物体認識システムにより“赤”であるとみなされる平均画像からのそれらのピクセルを含む。一旦特徴画像が算出されると、最終画像は、マスク画像により特徴画像をマスキングすることにより算出される。これは、特徴画像から、マスク画像における対応するピクセルが1のピクセル値を有するためのそれらのピクセルのみを選択することにより実現される。把持された物体に対応する画像の部分は、よって、最終画像から容易に認識される。把持された物体に対応するカメラ画像データの一部が認識されると、データは、物体が移動される間に、把持された物体のタイプを求めるために物体認識システムにより使用されうる。この新たなタイプの情報は、その後、物体で行われる動作を選択するために、以前に求められたタイプ情報と組み合わせて用いられうる。
少なくとも1つのプロセッサが本発明に関する機能エンティティを実行するとき、メモリは、コントローラエンティティ150、カメラコントローラエンティティ152、物体抽出エンティティ154及び物体認識エンティティ156のようなエンティティを含む。図1に示される装置120内の機能エンティティは、様々な手法で実装されてもよい。機能エンティティは、ネットワークノードのネイティブオペレーティングシステム下で実行される処理として実装されてもよい。エンティティは、別のプロセス又はスレッドとして実装されてもよく、又は多数の異なるエンティティが一のプロセス又はスレッドにより実装されるようになっていていてもよい。プロセス又はスレッドは、多数のルーチン、つまり、例えばプロシージャー及びファンクションを含むプログラムブロックのインスタンスであってもよい。機能エンティティは、別々のコンピュータプログラムとして、又はエンティティを実装するいくつかのルーチン又はファンクションを含む単一のコンピュータプログラムとして実装されてもよい。プログラムブロックは、例えば、メモリ回路、メモリカード、磁気又は光学ディスクのような少なくとも一つのコンピュータ可読媒体に記憶される。いくつかの機能エンティティは、別の機能エンティティとリンクされたプログラムモジュールとして実装されてもよい。図1の機能エンティティは、また、例えば、メッセージバス又はネットワークノード内の内部ネットワークを通じて別々のメモリに記憶され、別々のプロセッサにより実行されてもよい。このようなメッセージバスの一例としては、ペリフェラル コンポーネント インターコネクト(PCI)バスがある。
本発明の一実施形態では、ソフトウェアエンティティ150−156は、例えば、サブルーチン、プロセス、スレッド、メソッド、オブジェクト、モジュール及びプログラムコードシーケンスのような別々のソフトウェアエンティティとして実装されてもよい。これらは、また、単に、特定の別々のサブルーチン、プロセス、スレッド、メソッド、オブジェクト、モジュール及びプログラムコードシーケンスにグループ分けされていない、装置120のソフトウェア内のロジカルな機能であってもよい。これらの機能は、装置120のソフトウェアを通じて展開されてもよい。いくつかの機能は、装置120のオペレーションシステムで実行されてもよい。
図示した例に限定されない実施例では、非構造化領域102は、コンベヤーベルト又はロボットの動作領域を横断するコンベヤーベルトの一部である。装置120は、対象となる物体の大きさ、形状及び/又は色のような、非構造化領域102内の物体103、104及び105の事前情報がわずか又は全く無い。本発明のいくつかの実施形態では、装置120は、対象となる物体のいくつかの事前情報を有していてもよく、又は装置120は、学習によって得た物体の情報を有していてもよいが、対象となる物体の背景(別の物体)、位置及び向きは、通常、事前には知られていない。すなわち、物体103、104及び105は、非構造化領域102内のランダムな位置及び方向であってもよく、物体は、互いに重なっていてもよい。
図1について前述した本発明の実施形態は、互いに組み合わせて用いられてもよい。いくつかの実施形態は、本発明のさらに別の実施形態を形成するために共に組み合わされてもよい。
図2Aは、図1に示すロボットシステム100のようなロボットシステムにおいて、本発明の一実施形態の対象物体画像のフィルタリングを示すブロック図である。図2の開始点は、ロボットアーム116に接続されたグリッパ112が図1に示す物体105のような物体の把持を成功した時点である。その結果、ロボットアーム116は、与えられた方向への物体105の移動を開始する。アームの移動中に、カメラ114は、一連の5つの画像を撮る、つまり、カメラ画像250、252、254、256及び258をこの順序で撮る。物体105の把持の成功及びロボットアーム116の移動の開始は、一連のカメラ画像の撮影を開始するためのトリガーとして機能してもよい。画像は、例えば、100ミリ秒から5秒であってもよい所定の時間間隔で撮られる。例えば、時間間隔は、0.5秒であってもよい。カメラ114は、物体105がその視野に適合するように位置づけられる。物体105は、カメラ画像250においてボックス280として視認可能である。グリッパ112の2つのフィンガーは、カメラ画像250において四角形282及び284として視認可能である。カメラ画像250では、物体285のような背景物も視認可能である。ロボットアームの移動は、カメラ画像250−258における変化として視認可能であり、矢印286により図示される。方向は、物体285のような背景物に対して下向きである。速度は、1ピクセル/画像であり、合計で、カメラ画像250、252、254、256及び258からなる画像シーケンスにおける4つのピクセルの移動となる。なお、図2に示されるカメラ画像は、実際のカメラ画像と比べて非常に簡素である。カメラ画像は、本発明の方法のハイライトで示される。
ラベル付けされた矢印201に示すように、装置120は、例えば、物体抽出エンティティ154を用いて、カメラ画像250、252、254、256及び258から平均画像260を演算する。平均画像における座標x,yでの与えられたピクセル値pに対する式は、
Figure 0005869583
を用いて演算され、ここでiはカメラ画像のインデックスであり、nはカメラ画像の数である。図2の場合には、n=5と想定される。数nは、任意の整数値、例えば3<n<20であってもよい。図2におけるグレーのスケールは、演算されたピクセル値を示す。
ラベル付けされた矢印202に示すように、装置120は、例えば、物体抽出エンティティ154を用いて、カメラ画像250、252、254、256及び258から分散画像262を演算する。分散画像における座標x,yでの与えられたピクセル値pに対する式は、
Figure 0005869583
を用いて演算され、ここでiはカメラ画像のインデックスであり、nはカメラ画像の数である。図2におけるグレーのスケールは、演算されたピクセル値を示す。
本発明の一実施形態では、別々の平均画像及び別々の分散画像は、各色チャネル、つまり、例えばR、G及びBチャネルに対して形成される。本発明の一実施形態では、カメラ画像は、グレースケール画像に変換され、単一の平均画像及び分散画像のみが形成される。
その結果、物体抽出エンティティ154は、矢印203により示されるようにマスク画像264として演算される。マスク画像264は、与えられたピクセルの値が所定の閾値を下回る場合には、与えられたピクセルP(x,y)でのピクセル値を1に設定することにより得られる。そうでない場合には、与えられたピクセルでの値は0に設定される。
その結果、矢印204A及び204Bに示すように、物体抽出エンティティ154は、平均画像264からマスク画像264の位置x,yで値0を有するそれらのピクセルP(x,y)を除去するためにマスク画像264を用いる。除去されたピクセルP(x,y)は、結果画像266において0に設定される。結果画像266における他の各ピクセルは、平均画像260から得られた各ピクセルの値に設定される。マスク処理から得られた結果は、結果画像266として記憶される。最後に、物体認識エンティティ156は、結果画像266にさらなる処理を行ってもよい。例えば、物体認識エンティティ156は、グリッパの既知のテクスチャに基づいて、グリッパ112のフィンガーに適した視覚特性を除去してもよい。
図2Bは、本発明の一実施形態において、図1に示すロボットシステム100のようなロボットシステムにおけるグリッパ又はロボットアームのモーションベクトルに基づく対象物体画像のスクローリングを示すブロック図である。
図2Bでは、ロボットアーム及びグリッパから、グリッパ112のようなグリッパにより行われる物体231のカメラ画像291、292、293及び294を少なくとも含む経時的な一連のカメラ画像をキャプチャする位置へ別途搭載されるカメラが存在する。参照番号291−294の数字の順序は、カメラ画像291−294のキャプチャの取り得る順序を示す。カメラ画像291−294のキャプチャの後、色、テクスチャ、ディスクリートコサイン変換(DCT)係数、ウェーブレット変換係数、MPEGマクロブロック及び輪郭の少なくとも1つを含む少なくとも1つの視覚特性での予め設定された情報は、カメラ画像291−294におけるグリッパ112のようなグリッパの画像230を、例えば装置120における物体抽出エンティティ154により認識するために用いられる。カメラ画像291−294内のグリッパ画像230の移動は、グリッパ画像230に対するモーションベクトル221、222及び223を取得するために用いられる。本発明の一実施形態において、グリッパ画像230のモーションベクトル221、222及び223は、把持された物体231に対するモーションベクトルでもあり、つまり、把持された物体231の少なくとも一部である。なお、長い物体の場合には、物体は、震え、フラッター又は遅れたパーツを有してもよい。モーションベクトル221、222及び223は、各逆モーションベクトル224、225及び226を取得するために用いられる。グリッパ画像230は、カメラ画像291−294からフィルタリングされてもよく、それにより、把持された物体231の画像のみが維持される。フィルタリングは、視覚特性情報と一致する領域を除去する物体抽出エンティティ154により用いられ、メモリ140に記憶される視覚特性情報を用いてもよい。逆モーションベクトル224、225及び226は、カメラ画像292、293及び294をスクロールし、スクロールされた各カメラ画像296、297及び298を得るために用いられる。スクロールされたカメラ画像295−298のシーケンスにおいて、物体232のような他の物体は、移動しているように見える一方で、把持された物体231が固定されているように見える。なお、本発明の一実施形態では、スクロールされたカメラ画像295−298は、実際にメモリ140に形成されないが、逆モーションベクトル224−226は、例えば、異なるカメラ画像からピクセル値を読み取るときに、画像変位情報として平均画像を演算するステップ及び分散画像を演算するステップにおいて用いられてもよい。本発明の一実施形態では、カメラ画像295−298の領域の共通部分に対応する領域のみが維持されてもよい。本発明の一実施形態では、カメラ画像295−298は、スクロールにより生じる新たな画像領域に対する0値ピクセルのような単一の値のピクセルにより補正されてもよい。画像は、代わりに巻かれてもよい。したがって、グリッパ又はロボットアームに搭載されたカメラの場合と等しい結果が後続の計算で得られてもよい。よって、平均画像を演算するステップ、分散画像を演算するステップ及びフィルタリングマスクを形成するステップは、図2Aに関して示すように引き続いて生じる。
図2A及び2Bについて前述された本発明の実施形態は、互いに組み合わせて用いられてもよい。いくつかの実施形態は、本発明のさらなる実施形態を形成するために共に組み合わされてもよい。
図3は、本発明の一実施形態のロボットシステムにおける対象物体画像のフィルタリング方法を示すフローチャートである。この方法は、図1に示すような、ロボットシステムで適用されてもよい。
ステップ300では、物理的な対象物体は、ロボットアームに取り付けられたグリッパを用いて把持される。
ステップ302では、グリッパにおける物理的な物体は、グリッパ又はロボットアームのいずれかにより移動される。
ステップ304では、複数の画像は、例えば、グリッパのロボットアームに接続されるカメラを用いてキャプチャされる。カメラは、また、ロボットアーム及びグリッパからの一定距離内に配置されてもよい。画像は、物体が移動される間にキャプチャされる。対象物体は、ロボットアームによる後のハンドリングによる又は分類において無視される複数の他の物体を含む背景にわたって移動されてもよい。ロボットアームの移動は、複数のソートするビン又はラックような対象物体に対する取り得る目的へ向かう初期移動を含んでもよい。背景は、非構造化領域であってもよい。画像の数は、例えば、4、5、10又は1より大きい任意の自然数であってもよい。
ステップ306では、平均画像は、複数の画像から演算される。平均画像は、例えば、
Figure 0005869583
を用いて演算されてもよく、ここでiはカメラ画像のインデックスであり、nはカメラ画像の数であり、x,yはピクセルの座標である。
ステップ308では、分散画像は、複数の画像から演算される。分散画像は、例えば、
Figure 0005869583
を用いて演算されてもよく、ここでiはカメラ画像のインデックスであり、nはカメラ画像の数であり、x,yはピクセルの座標である。
ステップ310では、フィルタリングしたマスク画像は、平均画像から形成される。
本発明の一実施形態では、フィルタリングしたマスク画像は、ピクセルの値が予め設定された閾値を下回る場合に、フィルタリングしたマスク画像において与えられたピクセルP(x,y)でのピクセル値を1に設定することにより取得される。そうでない場合には、ピクセル値は0に設定される。
ステップ312では、対象物体を含むフィルタされた画像は、フィルタリングマスクを用いて平均画像をマスキングすることにより取得される。
本発明の一実施形態では、マスク画像は、平均画像からマスク画像におけるx,yで値0を有するピクセルP(x,y)を除去するために用いられる。これらのピクセルP(x,y)は0に設定される。マスキング処理から得られた結果は、結果画像、つまり、フィルタリングされた画像として記憶される。すなわち、フィルタリングマスクは、ビットマスクの対応するピクセルの値が1である場合に、平均画像からピクセル値を返す処理における平均画像と共に用いられる二次元ビットマスクである。これは、以下の式で定式化されてもよく、
Figure 0005869583
ここでマスク(x,y)はマスク画像におけるピクセルを示し、結果(x,y)は結果画像におけるピクセルを示し、avg(x,y)は平均画像におけるピクセルを示す。符号“:=”は割り当てた処理の値を示す。
本発明の一実施形態では、ステップ314では、グリッパ又はロボットアームのテクスチャを有する画像領域は、フィルタリングされた画像から除去され、それにより、例えば対象物体の形状の良好な認識を促進する。その後、本方法は終了する。
本発明の一実施形態では、カメラから受信される入力データは、ピクセルの2次元アレイからなるデジタル画像であり、各ピクセルは、赤、緑及び青の色成分の数値、すなわち以下ではそれぞれR−、G−、B−値と指定される数値を有する。データにおけるピクセルの数は、カメラの解像度に対応する。
本発明の一実施形態では、演算量を低減するために、カメラから受信される画像データは、分析に適するように求められた解像度にダウンサンプルされる。
本発明の一実施形態では、得られたダウンサンプルされた画像は、その後、光の条件の変化を考慮するために正規化される。正規化は、ダウンサンプルされた画像において各ピクセルに対して別々に行われうる。
本発明の一実施形態では、前記装置は、少なくとも2つのソース画像におけるグリッパの画像を認識するように構成される。前記装置は、第1のソース画像と第2のソース画像との間のグリッパの画像に対する少なくとも1つの変位を演算し、変位に基づいて、平均画像を演算するステップ及び分散画像を演算するステップのいずれかのために、第1のソース画像と第2のソース画像との相互の変位を求める。変位は、第1及び第2のソース画像における把持された物体の画像を正確に重ね合わせるために第2のソース画像をスクロールするために用いられてもよい。把持された物体の実際の画像は、除去されてもよい。スクロールは、ロジカルのみであってもよく、変位インデックスとしてのみ用いられてもよく、又は平均画像及び分散画像の演算における値として用いられてもよい。
図3について前述した本発明の実施形態は、互いに組み合わされて用いられてもよい。いくつかの実施形態は、本発明のさらなる実施形態を形成するために共に組み合わされてもよい。本発明が関連する方法、装置、コンピュータプログラム又はコンピュータプログラム製品は、前述した本発明の実施形態の少なくとも1つを含む。
図4は、本発明の一実施形態のロボットシステムにおける物体認識方法に基づく物体移動のための方法を示すフローチャートである。使用される物体移動は、認識される物体を保持するグリッパ又はロボットアームの既知のモーションを用いて決定される。
ステップ400では、認識される物体は、ロボットアームに取り付けられたグリッパを用いて把持される。
ステップ402では、認識される物体は、グリッパ及びロボットアームのいずれかにより移動される。
ステップ404では、複数の画像は、例えば、グリッパ及びロボットアームに接続されたカメラを用いてキャプチャされる。カメラは、固定されてもよく、ロボットから離れたグリッパの移動を視認してもよい。画像は、物体が移動している間にキャプチャされる。認識される物体は、ロボットアームによる後のハンドリングによる又は分類において無視される複数の他の物体を含む背景に対して移動されてもよい。ロボットアームの移動は、複数のソートするビン又はラックのような対象物体に対する取り得る目的へ向かう初期移動を含んでもよい。背景は、非構造化領域であってもよい。画像の数は、例えば、4、5、10又は1より大きい任意の自然数であってもよい。
ステップ406では、グリッパの移動は、複数の画像のキャプチャ時に記録される。このステップは、通常ステップ404と並行して行われる。移動は、例えば、ロボットアームから得られるセンサデータを用いて記録される。センサデータは、実世界座標におけるグリッパ位置の変化に対応してもよい。グリッパ位置の変化は、実世界座標から画像座標へのマッピング関数(mapping function)に変換されてもよく、例えば、複数の画像のようなカメラによりキャプチャされた画像内のグリッパの移動を示してもよい。マッピング関数は、機械学習を用いて構築されてもよい。
ステップ408では、複数の画像間でのモーションに対する少なくとも1つの第1のモーションベクトルは、記録されたグリッパ移動に基づいて求められる。少なくとも1つの第1のモーションベクトルは、例えば、後続のキャプチャされた画像間のピクセルにおける画像座標のグリッパの移動を示す。
ステップ410では、複数の画像における少なくとも1つの画像は、複数、例えば少なくとも4つの領域に分割される。この領域は、ピクセル、ピクセルのブロック又は変化する形状の領域であってもよい。
ステップ412では、少なくとも1つの第2のモーションベクトルは、複数の画像内の後続の画像の比較に基づいて少なくとも1つの領域に対して求められる。比較は、第1の画像から後の第2の画像の領域の視覚特性のサーチを含んでもよい。
ステップ414では、少なくとも1つの第2のモーションベクトルは、少なくとも1つの第1のモーションベクトルとマッチングされる。比較は、方向及び長さ、つまり大きさに関するものであってもよい。比較が、ベクトルの方向及び長さがエラー許容範囲内に一致する、又はベクトルがエラー許容範囲内の逆ベクトルであることを明らかにする場合、少なくとも1つの第1のモーションベクトルに対応するモーションベクトルによる少なくとも1つの領域は選択される。エラー許容範囲は、ベクトルの方向及び長さに関するエラー許容範囲を含む。
本発明の一実施形態では、選択された領域は、さらなる処理から除去される、又はさらなる処理のために選択される。さらなる処理のための領域は、さらなる物体認識ステップによる。
本発明の一実施形態では、選択された領域は、複数の画像から除去される。その結果、平均画像を演算するステップ、分散画像を演算するステップ、及びフィルタリング画像を形成するステップは、それぞれ参照番号306、308及び310で示される図3におけるこれらのステップに関連して説明された手法に従ってもよい。除去は、ピクセル値を、0又は1のような予め設定された値に設定することを含む。
本発明の一実施形態では、複数の画像のうちの1つの画像からの少なくとも1つの選択された領域は、結果画像を直接取得するために用いられる。結果画像は、認識される物体の分類に用いられてもよい。結果画像からのグリッパの視覚特性の除去のような分類の前にさらなる認識ステップが存在してもよい。
図4について前述された本発明の実施形態は、互いに組み合わせて用いられてもよい。いくつかの実施形態は、本発明のさらなる実施形態を形成するために共に組み合わされてもよい。
本発明の例示的な実施形態は、任意の適切なサーバ、ワークステーション、PC、ラップトップコンピュータ、PDA、インターネット家電、ハンドヘルド装置、携帯電話、無線装置、他の装置等の例示的な実施形態のプロセスを実行可能な任意の適切なデバイスを含み得、例えば、インターネットアクセス、任意の適切な形式(例えば、音声、モデム等)での電話、無線通信媒体、一又はそれ以上の無線通信ネットワーク、携帯通話ネットワーク、3G通信ネットワーク、4G通信ネットワーク、公衆交換電話網(Public Switched Telephone Network (PSTNs))、パケットデータネットワーク(PDNs)、インターネット、イントラネット、それらの組み合わせ等を含む一又はそれ以上のインターフェース機構を通じて通信可能である。
ハードウェア分野の当業者には理解できるように、例示的な実施形態は、例示的なプロセスのためのものであり、例示的な実施形態を実装するために特定のハードウェアの多くのバリエーションが可能であることがわかる。例えば、例示的な実施形態の一又はそれ以上の構成要素の機能性は、一又はそれ以上のハードウェアデバイスにより実装されうる。
例示的な実施形態は、本明細書で説明された各種のプロセスに関する情報を記憶しうる。この情報は、ハードディスク、光ディスク、磁気−光ディスク、RAM等のような一又はそれ以上のメモリに記憶されうる。一又はそれ以上のデータベースは、本発明の例示的な実施形態を実装するために用いられる情報を記憶しうる。データベースは、本明細書に挙げた一又はそれ以上のメモリ又はストレージに含まれるデータ構造(例えば、レコード、テーブル、アレイ、フィールド、グラフ、ツリー、リスト等)を用いて構成されうる。例示的な実施形態について説明されたプロセスは、一又はそれ以上のデータベースにおける例示的な実施形態のデバイス及びサブシステムのプロセスにより収集及び/又は生成されたデータを記憶するために適切なデータ構造を含みうる。
電気分野の当業者には理解できるように、例示的な実施形態の全部又は一部は、特定用途集積回路の作成により、又は従来のコンポーネント回路の適切なネットワークを相互接続することにより実装されてもよい。
上述したように、例示的な実施形態の構成要素は、本発明の教示に係り、データ構造、テーブル、レコード、及び/又は本明細書に記載された他のデータを保持するためのコンピュータで読み取り可能な媒体又はメモリを含みうる。コンピュータで読み取り可能な媒体は、実行のためのプロセッサへの命令の提供を共有する任意の媒体を含みうる。このような媒体は、多くの形態をとり得、不揮発性媒体、揮発性媒体、伝送媒体等を含むが、これに限定されない。不揮発性媒体は、例えば、光又は磁気ディスク、磁気−光ディスク等を含みうる。揮発性媒体は、ダイナミックメモリ等を含みうる。伝送媒体は、同軸ケーブル、銅線、光ファイバー等を含みうる。伝送媒体は、また、無線周波数(RF)通信、赤外線(IR)データ通信等の間に生成される音響、光、電磁波等の形態をとりうる。コンピュータで読み取り可能な媒体の一般的な形態は、フロッピーディスク(登録商標)、フレキシブルディスク、ハードディスク、磁気テープ、任意の他の磁気媒体、CD−ROM,CDRW,DVD,任意の他の適切な光学媒体、パンチカード、ペーパーテープ、光学マークシート、穴のパターンを有する任意の他の適切な物理媒体、任意の他の光学的に識別可能な印、RAM、PROM、EPROM、FLASH−EPROM、任意の他の適切なメモリチップ又はカートリッジ、搬送波又はコンピュータが読み取ることができる任意の他の適切な媒体を含みうる。
本発明は、多くの例示的な実施形態及び実装に関して説明してきたが、本発明はこれに限定されず、予期される特許請求の範囲内に含まれる各種の変更及び均等物が含まれる。
当業者には本発明の基本概念が各種の手法で実装されてもよいことが自明である。よって、本発明及びその実施形態は、上述した実施例に限定されず、特許請求の範囲内で変更されてもよい。

Claims (17)

  1. ロボットアームに取り付けられたグリッパにより物体を把持するステップと、
    前記物体が前記ロボットアームにより移動される間に、イメージセンサにより前記物体を含む領域の少なくとも2つのソース画像をキャプチャするステップと、
    前記少なくとも2つのソース画像の平均画像を演算するステップと、
    前記少なくとも2つのソース画像の分散画像を演算するステップと、
    前記分散画像からフィルタリング画像を形成するステップと、
    ビットマスクとして前記フィルタリング画像を用いて前記平均画像をマスキングすることにより結果画像を取得するステップと、を含む方法。
  2. 前記グリッパ及び前記ロボットアームに接続される装置における前記物体の把持の成功を検出するステップと、
    前記検出に応じて、前記装置により、前記少なくとも2つのソース画像をキャプチャすることを前記イメージセンサに指示するステップと、
    前記装置への少なくとも2つのキャプチャされたソース画像を取得するステップと、をさらに含む請求項1に記載の方法。
  3. 前記少なくとも2つのソース画像における前記グリッパの画像を認識するステップと、
    第1のソース画像と第2のソース画像との前記グリッパの画像に対する少なくとも1つの変位を演算するステップと、
    前記変位に基づいて前記平均画像を演算するステップ及び前記分散画像を演算するステップのいずれかに対して前記第1のソース画像及び前記第2のソース画像の相互の位置を求めるステップと、をさらに含む請求項1に記載の方法。
  4. 変位に基づいて前記平均画像を演算するステップ及び前記分散画像を演算するステップのいずれかに対して、少なくとも2つのソース画像の相互の位置を求めるステップであって、その移動は、前記グリッパの記録された移動に対応する、ステップをさらに含む請求項1に記載の方法。
  5. 前記グリッパ及び前記ロボットアームの少なくとも一方の視覚テクスチャを含む前記結果画像から少なくとも1つの画像領域を除去するステップをさらに含む請求項1に記載の方法。
  6. 前記結果画像における少なくとも1つの視覚特性に基づいて前記結果画像の前記物体を分類するステップと、
    分類に対応する位置へ前記物体を移動するステップと、をさらに含む請求項1に記載の方法。
  7. 前記分散画像を演算するステップは、前記少なくとも2つのソース画像における各ピクセルの分散を演算し、前記分散画像における前記各ピクセルの値として演算された分散を設定することを含む請求項1に記載の方法。
  8. 前記フィルタリング画像を形成するステップは、予め設定された閾値よりも小さい値を有する前記分散画像における各ピクセルに対する前記フィルタリング画像において、各ピクセルに1を設定することを含む請求項1に記載の方法。
  9. 前記結果画像を取得するステップは、前記フィルタリング画像の各ピクセルの値が1である場合にのみ、前記平均画像からの前記結果画像に対する各ピクセルを選択することを含む請求項1に記載の方法。
  10. 前記少なくとも2つの画像は、対象となる物体に加えて、未知の特性の物体を含む背景に対して撮られる請求項1に記載の方法。
  11. 前記イメージセンサは、カメラ、赤外線カメラ及びレーザースキャナーの少なくとも1つである請求項1に記載の方法。
  12. 前記平均画像を演算するステップ、前記分散画像を演算するステップ及び前記フィルタリング画像を形成するステップは、ピクセルカラーチャネルごとに別々に行われる請求項1に記載の方法。
  13. 前記イメージセンサは、前記グリッパに取り付けられ、前記グリッパと共に移動するように構成される請求項1に記載の方法。
  14. 物体を把持するグリッパ及びロボットアームを制御し、前記物体が前記ロボットアームにより移動される間に、イメージセンサにより前記物体を含む領域の少なくとも2つのソース画像を取得し、前記少なくとも2つのソース画像の平均画像を演算し、前記少なくとも2つのソース画像の分散画像を演算し、前記分散画像からフィルタリング画像を形成し、ビットマスクとして前記フィルタリング画像を用いて前記平均画像をマスキングすることにより結果画像を取得するように構成される少なくとも1つのプロセッサを備える装置。
  15. 物体を把持するグリッパ及びロボットアームを制御する手段と、
    前記物体が前記ロボットアームにより移動される間に、イメージセンサにより前記物体を含む領域の少なくとも2つのソース画像を取得する手段と、
    前記少なくとも2つのソース画像の平均画像を演算する手段と、
    前記少なくとも2つのソース画像の分散画像を演算する手段と、
    前記分散画像からフィルタリング画像を形成する手段と、
    ビットマスクとして前記フィルタリング画像を用いて前記平均画像をマスキングすることにより結果画像を取得する手段と、を備える装置。
  16. コンピュータ読み取り可能な媒体に統合されるコンピュータプログラムであって、前記コンピュータプログラムは、
    物体を把持するグリッパ及びロボットアームを制御するステップと、
    前記物体が前記ロボットアームにより移動される間に、イメージセンサにより前記物体を含む領域の少なくとも2つのソース画像を取得するステップと、
    前記少なくとも2つのソース画像の平均画像を演算するステップと、
    前記少なくとも2つのソース画像の分散画像を演算するステップと、前記分散画像からフィルタリング画像を形成するステップと、
    ビットマスクとして前記フィルタリング画像を用いて前記平均画像をマスキングすることにより結果画像を取得するステップと、
    を含む方法を実行するためのプロセッサを制御するコードを含む、コンピュータプログラム。
  17. 前記コンピュータ読み取り可能な媒体は、リムーバブルメモリカード、ホログラフィックメモリ、磁気ディスク又は光ディスクである請求項16に記載のコンピュータプログラム。
JP2013534351A 2010-10-21 2011-10-12 ロボットシステムにおける対象物体画像のフィルタ方法 Expired - Fee Related JP5869583B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
FI20106090A FI20106090A0 (fi) 2010-10-21 2010-10-21 Menetelmä kohdeobjektin kuvien suodattamiseksi robottijärjestelmässä
FI20106090 2010-10-21
PCT/FI2011/050884 WO2012052614A1 (en) 2010-10-21 2011-10-12 Method for the filtering of target object images in a robot system

Publications (2)

Publication Number Publication Date
JP2013541775A JP2013541775A (ja) 2013-11-14
JP5869583B2 true JP5869583B2 (ja) 2016-02-24

Family

ID=43064248

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013534351A Expired - Fee Related JP5869583B2 (ja) 2010-10-21 2011-10-12 ロボットシステムにおける対象物体画像のフィルタ方法

Country Status (9)

Country Link
US (1) US20130266205A1 (ja)
EP (1) EP2629939B1 (ja)
JP (1) JP5869583B2 (ja)
CN (1) CN103347661B (ja)
DK (1) DK2629939T5 (ja)
ES (1) ES2730952T3 (ja)
FI (1) FI20106090A0 (ja)
RU (1) RU2592650C2 (ja)
WO (2) WO2012052615A1 (ja)

Families Citing this family (54)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FI20115326A0 (fi) * 2011-04-05 2011-04-05 Zenrobotics Oy Menetelmä sensorin mittausten mitätöimiseksi poimintatoiminnon jälkeen robottijärjestelmässä
US9542613B2 (en) * 2013-03-15 2017-01-10 Orcam Technologies Ltd. Systems and methods for processing images
NL2011066C2 (en) * 2013-06-28 2015-01-05 Ig Specials B V Apparatus and method for sorting plant material.
JP6322959B2 (ja) * 2013-11-05 2018-05-16 セイコーエプソン株式会社 ロボット、ロボットシステム、及びロボット制御装置
CN104646302A (zh) * 2013-11-24 2015-05-27 邢玉明 一种用并联机械手分拣非生物生活垃圾的方法
CN105792996B (zh) * 2013-11-28 2017-07-25 三菱电机株式会社 机器人***以及机器人***的控制方法
CN103691681A (zh) * 2013-12-29 2014-04-02 卓朝旦 透明药丸自动分拣装置
JP5850958B2 (ja) * 2014-01-24 2016-02-03 ファナック株式会社 ワークを撮像するためのロボットプログラムを作成するロボットプログラミング装置
US9259844B2 (en) 2014-02-12 2016-02-16 General Electric Company Vision-guided electromagnetic robotic system
KR102081139B1 (ko) * 2014-03-12 2020-02-25 한국전자통신연구원 물체 피킹 시스템, 물체 검출 장치 및 그 방법
JP5778311B1 (ja) * 2014-05-08 2015-09-16 東芝機械株式会社 ピッキング装置およびピッキング方法
CN105083977B (zh) 2014-05-14 2018-04-10 泰科电子(上海)有限公司 自动配料设备
CN104020699A (zh) * 2014-05-30 2014-09-03 哈尔滨工程大学 一种移动式视觉识别物料分拣智能机器人控制装置
JP6372198B2 (ja) * 2014-07-01 2018-08-15 セイコーエプソン株式会社 ロボットシステム及び処理装置
FR3032366B1 (fr) 2015-02-10 2017-02-03 Veolia Environnement-VE Procede de tri selectif
FR3032365B1 (fr) * 2015-02-10 2017-02-03 Veolia Environnement-VE Procedure de tri selectif
US9844881B2 (en) * 2015-06-22 2017-12-19 GM Global Technology Operations LLC Robotic device including machine vision
JP6415412B2 (ja) * 2015-09-28 2018-10-31 キヤノン株式会社 計測装置および計測方法
DE102015220517A1 (de) 2015-10-21 2017-04-27 Kuka Systems Gmbh MRK-System und Verfahren zum Steueren eines MRK-Systems
CN105563464B (zh) * 2015-12-29 2017-10-31 北京灏核鑫京科技有限公司 电子设备夹持机器人
DE102016102656B4 (de) 2016-02-16 2024-03-28 Schuler Pressen Gmbh Vorrichtung und Verfahren zur Verarbeitung von metallischen Ausgangsteilen und zum Sortieren von metallischen Abfallteilen
CN105690393A (zh) * 2016-04-19 2016-06-22 惠州先进制造产业技术研究中心有限公司 一种基于机器视觉的四轴并联机器人分拣***及其分拣方法
US10245724B2 (en) * 2016-06-09 2019-04-02 Shmuel Ur Innovation Ltd. System, method and product for utilizing prediction models of an environment
JP2018034242A (ja) * 2016-08-31 2018-03-08 セイコーエプソン株式会社 ロボット制御装置、ロボット、及びロボットシステム
JP7071054B2 (ja) 2017-01-20 2022-05-18 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム
DE112017007025T5 (de) * 2017-02-09 2019-10-24 Mitsubishi Electric Corporation Positionssteuerungseinrichtung und positionssteuerungsverfahren
EP3600795A1 (en) 2017-03-30 2020-02-05 Soft Robotics, Inc. User-assisted robotic control systems
CN110461552B (zh) * 2017-04-03 2023-05-23 索尼公司 机械手装置、用于电子设备的生产装置和生产方法
CN106863286A (zh) * 2017-04-12 2017-06-20 浙江硕和机器人科技有限公司 一种用于控制数字ccd相机图像采集的速度反馈性机械手
US11361463B2 (en) * 2017-09-28 2022-06-14 Optim Corporation Position estimation system and method, and non-transitory storage medium
CN108280894A (zh) * 2017-12-08 2018-07-13 浙江国自机器人技术有限公司 用于电力设备的不停车巡检方法
US10792809B2 (en) * 2017-12-12 2020-10-06 X Development Llc Robot grip detection using non-contact sensors
JP7005388B2 (ja) * 2018-03-01 2022-01-21 株式会社東芝 情報処理装置及び仕分システム
US10657419B2 (en) * 2018-03-28 2020-05-19 The Boeing Company Machine vision and robotic installation systems and methods
SE543177C2 (en) 2018-04-22 2020-10-20 Zenrobotics Oy Waste sorting gantry robot comprising an integrated chute and maintenance door
SE543130C2 (en) 2018-04-22 2020-10-13 Zenrobotics Oy A waste sorting robot gripper
SE544741C2 (en) 2018-05-11 2022-11-01 Genie Ind Bv Waste Sorting Gantry Robot and associated method
EP3784449A1 (en) * 2018-05-30 2021-03-03 Sony Corporation Control apparatus, control method, robot apparatus and program
JP6740288B2 (ja) * 2018-07-13 2020-08-12 ファナック株式会社 物体検査装置、物体検査システム、及び検査位置を調整する方法
JP7163116B2 (ja) * 2018-09-14 2022-10-31 株式会社東芝 情報処理装置及びピッキングシステム
US11007642B2 (en) * 2018-10-23 2021-05-18 X Development Llc Machine learning methods and apparatus for automated robotic placement of secured object in appropriate location
CN109648558B (zh) * 2018-12-26 2020-08-18 清华大学 机器人曲面运动定位方法及其运动定位***
CN109579852A (zh) * 2019-01-22 2019-04-05 杭州蓝芯科技有限公司 基于深度相机的机器人自主定位方法及装置
CN109704234A (zh) * 2019-02-25 2019-05-03 齐鲁工业大学 一种医疗垃圾桶识别判断抓取***及方法
DE102019126903B3 (de) * 2019-10-07 2020-09-24 Fachhochschule Bielefeld Verfahren und Robotersystem zur Eingabe eines Arbeitsbereichs
DE102020125649A1 (de) * 2020-10-01 2022-04-07 Wenzel Metrology Gmbh Verfahren zum Bestimmen der Geometrie eines Objektes sowie optische Messvorrichtung
SE544457C2 (en) * 2020-10-28 2022-06-07 Zenrobotics Oy Waste sorting robot and method for cleaning a waste sorting robot
SE2030325A1 (en) * 2020-10-28 2021-12-21 Zenrobotics Oy Waste sorting robot and method for detecting faults
CN113680695A (zh) * 2021-08-24 2021-11-23 武昌工学院 基于机器人的机器视觉垃圾分拣***
SE2130289A1 (en) 2021-10-26 2023-04-27 Mp Zenrobotics Oy Waste Sorting Robot
SE2130349A1 (en) 2021-12-09 2023-06-10 Mp Zenrobotics Oy Waste sorting robot and external cleaning apparatus
US20230191608A1 (en) * 2021-12-22 2023-06-22 AMP Robotics Corporation Using machine learning to recognize variant objects
WO2023121903A1 (en) * 2021-12-22 2023-06-29 AMP Robotics Corporation Cloud and facility-based machine learning for sorting facilities
US11806882B1 (en) * 2022-06-14 2023-11-07 Plus One Robotics, Inc. Robotic picking system and method of use

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SU1615757A1 (ru) * 1988-06-20 1990-12-23 Мгту Им.Н.Э.Баумана Способ фильтрации шумов бинарных изображений объектов
JPH1196361A (ja) * 1996-08-29 1999-04-09 Sanyo Electric Co Ltd 物体抽出装置、物体抽出方法、物体抽出プログラムを記録した媒体および物体検出プログラムを記録した媒体
CN100348383C (zh) * 2002-12-12 2007-11-14 松下电器产业株式会社 机器人控制装置
US7251363B2 (en) * 2003-07-29 2007-07-31 Ventana Medical Systems, Inc. Method and system for creating an image mask
JP2006007390A (ja) * 2004-06-29 2006-01-12 Sharp Corp 撮像装置、撮像方法、撮像プログラム、撮像プログラムを記録したコンピュータ読取可能な記録媒体
CN100446544C (zh) * 2005-08-26 2008-12-24 电子科技大学 一种视频对象外边界提取方法
EP1927038A2 (en) * 2005-09-23 2008-06-04 Braintech Canada, Inc. System and method of visual tracking
SE529377C2 (sv) * 2005-10-18 2007-07-24 Morphic Technologies Ab Publ Metod och arrangemang för att lokalisera och plocka upp föremål från en bärare
JP4852355B2 (ja) * 2006-06-26 2012-01-11 パナソニック株式会社 放置物検出装置及び放置物検出方法
JP4877810B2 (ja) * 2007-04-02 2012-02-15 株式会社国際電気通信基礎技術研究所 物体の視覚的表現を学習するための学習システム及びコンピュータプログラム
US20080310677A1 (en) * 2007-06-18 2008-12-18 Weismuller Thomas P Object detection system and method incorporating background clutter removal
TWI353778B (en) * 2007-12-21 2011-12-01 Ind Tech Res Inst Moving object detection apparatus and method
CN101592524B (zh) * 2009-07-07 2011-02-02 中国科学技术大学 基于类间方差的modis森林火灾火点检测方法
US9008841B2 (en) * 2009-08-27 2015-04-14 Abb Research Ltd. Robotic picking of parts from a parts holding bin
US8941726B2 (en) * 2009-12-10 2015-01-27 Mitsubishi Electric Research Laboratories, Inc. Method and system for segmenting moving objects from images using foreground extraction

Also Published As

Publication number Publication date
EP2629939B1 (en) 2019-03-13
US20130266205A1 (en) 2013-10-10
RU2013123021A (ru) 2014-11-27
WO2012052614A1 (en) 2012-04-26
CN103347661B (zh) 2016-01-13
EP2629939A4 (en) 2018-04-04
ES2730952T3 (es) 2019-11-13
JP2013541775A (ja) 2013-11-14
CN103347661A (zh) 2013-10-09
RU2592650C2 (ru) 2016-07-27
WO2012052615A1 (en) 2012-04-26
EP2629939A1 (en) 2013-08-28
FI20106090A0 (fi) 2010-10-21
DK2629939T5 (da) 2019-06-24
DK2629939T3 (da) 2019-06-11

Similar Documents

Publication Publication Date Title
JP5869583B2 (ja) ロボットシステムにおける対象物体画像のフィルタ方法
CN108044627B (zh) 抓取位置的检测方法、装置及机械臂
JP5806301B2 (ja) ロボットシステムにおける物理的な物体の選択のための方法
EP2658691B1 (en) Method, computer program and apparatus for determining a gripping location
KR101913336B1 (ko) 이동 장치 및 그 제어 방법
EP1477934A2 (en) Image processing apparatus
EP2188728B1 (en) Methods and systems for data processing and their applications
EP3700835A1 (en) Systems and methods for detecting waste receptacles using convolutional neural networks
CN111590611B (zh) 一种基于多模态主动感知的物品分类回收方法
CN108212807B (zh) 一种机器人分拣物品的方法、装置及机械臂
CN110640741A (zh) 一种规则形状工件匹配的抓取工业机器人
CN113222982A (zh) 基于改进的yolo网络的晶圆表面缺陷检测方法及***
CN108555902B (zh) 一种机器人分拣物品的方法、装置及机器人
Lin et al. Robot vision to recognize both object and rotation for robot pick-and-place operation
Wang et al. GraspFusionNet: a two-stage multi-parameter grasp detection network based on RGB–XYZ fusion in dense clutter
Ogas et al. A robotic grasping method using convnets
Han et al. Toward fully automated metal recycling using computer vision and non-prehensile manipulation
Lin et al. Inference of 6-DOF robot grasps using point cloud data
Takacs et al. Control of Robotic Arm with Visual System
CN116724224A (zh) 加工面判定装置、加工面判定程序、加工面判定方法、加工***、推论装置及机器学习装置
Hasan et al. Model-free, vision-based object identification and contact force estimation with a hyper-adaptive robotic gripper
Palzkill et al. Object pose detection in industrial environment
Li et al. Design of Intelligent Grabbing System Based on ROS
JP2002074362A (ja) 物体識別計測装置、物体識別計測方法及びコンピュータ読取可能な記録媒体
CN117644513A (zh) 一种机械臂控制方法、***、设备和介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140819

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150521

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150526

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150605

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151208

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160107

R150 Certificate of patent or registration of utility model

Ref document number: 5869583

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees