JP2017102529A - ワーク位置姿勢算出装置およびハンドリングシステム - Google Patents

ワーク位置姿勢算出装置およびハンドリングシステム Download PDF

Info

Publication number
JP2017102529A
JP2017102529A JP2015232991A JP2015232991A JP2017102529A JP 2017102529 A JP2017102529 A JP 2017102529A JP 2015232991 A JP2015232991 A JP 2015232991A JP 2015232991 A JP2015232991 A JP 2015232991A JP 2017102529 A JP2017102529 A JP 2017102529A
Authority
JP
Japan
Prior art keywords
workpiece
orientation
orientation calculation
data
measurement data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015232991A
Other languages
English (en)
Other versions
JP6348097B2 (ja
Inventor
安藤 俊之
Toshiyuki Ando
俊之 安藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Priority to JP2015232991A priority Critical patent/JP6348097B2/ja
Priority to CN201610941984.2A priority patent/CN106808472B/zh
Priority to DE102016122678.5A priority patent/DE102016122678B4/de
Priority to US15/363,205 priority patent/US10286557B2/en
Publication of JP2017102529A publication Critical patent/JP2017102529A/ja
Application granted granted Critical
Publication of JP6348097B2 publication Critical patent/JP6348097B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40053Pick 3-D object from pile of objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Manipulator (AREA)
  • Image Analysis (AREA)

Abstract

【課題】3次元マッチングを利用してワークの位置および姿勢を効率的に算出できるワーク位置姿勢算出装置を提供する。【解決手段】ワーク位置姿勢算出装置6は、3次元計測器4によって取得されるワーク5の3次元位置情報を含む計測データ60と、ワーク5の3次元モデル5Aとを照合して、ワーク5の位置および姿勢を算出するワーク位置姿勢算出部64を備えている。また、ワーク位置姿勢算出装置6は、算出されたワーク5の位置および姿勢に基づいて、ワーク位置姿勢算出部64による以降の算出において使用されるべき計測データ60の一部を除外する計測データ除外部65をさらに備えている。【選択図】図2

Description

本発明は、ワークの位置および姿勢を算出するワーク位置姿勢算出装置、およびワーク位置姿勢算出装置を備えるハンドリングシステムに関する。
対象物の3次元位置情報と対象物モデルとを照合して対象物の実際の位置を特定する3次元マッチングが公知である。3次元マッチングは、6自由度のパラメータを使用して計算する必要があるので、計算機にかかる負荷が大きい。3次元マッチングを高速化するために、探索範囲を制限する技術が公知である(特許文献1および特許文献2参照)。
特開2012−218119号公報 特開2012−125878号公報
3次元マッチングを利用して対象物の位置および姿勢を効率的に算出するための技術が求められている。
本願の1番目の発明によれば、ワーク(5)の位置および姿勢を算出するワーク位置姿勢算出装置(6)であって、3次元空間に配置された少なくとも1つのワーク(5)を計測し、前記少なくとも1つのワーク(5)の3次元位置情報を含む計測データ(60)を取得する3次元計測器(4)と、前記ワーク(5)の3次元モデル(5A)を記憶する3次元モデル記憶部(61)と、前記ワーク(5)の位置および姿勢を算出する際に使用される少なくとも1つの位置姿勢算出データ(63)を作成する位置姿勢算出データ作成部(62)と、各々の前記位置姿勢算出データ(63)を用いて、前記計測データ(60)と前記3次元モデル(5A)とを照合して、前記ワーク(5)の位置および姿勢を算出するワーク位置姿勢算出部(64)と、前記ワーク位置姿勢算出部(64)によって算出された前記ワーク(5)の位置および姿勢に基づいて、前記ワーク位置姿勢算出部(64)による以降の算出において使用されるべき前記計測データ(60)の一部を除外する計測データ除外部(65)と、を備える、ワーク位置姿勢算出装置(6)が提供される。
本願の2番目の発明によれば、1番目の発明に係るワーク位置姿勢算出装置(6)において、前記位置姿勢算出データ(63)が優先度を含んでおり、前記ワーク位置姿勢算出部(64)が、高い優先度を有する位置姿勢算出データ(63)を順次使用して、前記計測データ(60)と前記3次元モデル(5A)とを照合して、前記ワーク(5)の位置および姿勢を算出するように構成される。
本願の3番目の発明によれば、1番目または2番目の発明に係るワーク位置姿勢算出装置(6)において、前記位置姿勢算出データ(63)が、前記計測データ(60)と前記3次元モデル(5A)とを照合する際に探索されるべき姿勢範囲を含む。
本願の4番目の発明によれば、1番目から3番目のいずれかの発明に係るワーク位置姿勢算出装置(6)において、前記位置姿勢算出データ(63)が、前記計測データ(60)と前記3次元モデル(5A)とを照合する際に探索されるべき位置範囲を含む。
本願の5番目の発明によれば、1番目から4番目のいずれかの発明に係るワーク位置姿勢算出装置(6)において、前記位置姿勢算出データ(63)が、前記計測データ除外部(65)によって除外されるべきでない前記計測データ(60)に関する情報をさらに含む。
本願の6番目の発明によれば、1番目から5番目のいずれかの発明に係るワーク位置姿勢算出装置(6)において、前記ワーク位置姿勢算出部(64)が、前記ワーク(5)の位置および姿勢を算出するとともに、算出結果の信用度を表すスコアを計算するように構成されており、前記位置姿勢算出データ(63)が、前記ワーク位置姿勢算出部(64)によって算出されたワーク(5)の位置姿勢に基づいて前記計測データ(60)の一部を除外するか否かを判定する際に使用されるスコア閾値を含んでおり、前記計測データ除外部(65)が、前記スコアが前記スコア閾値を上回った場合に、前記計測データの一部を除外するように構成される。
本願の7番目の発明によれば、1番目から6番目のいずれかの発明に係るワーク位置姿勢算出装置(6)において、前記計測データ除外部(65)が、前記ワーク位置姿勢算出部(64)によって算出された前記ワーク(5)の位置および姿勢を用いて前記3次元モデル(5A)を座標変換するとともに、座標変換された前記3次元モデルの近傍に存在する計測データ(60)を除外するように構成される。
本願の8番目の発明によれば、1番目から7番目のいずれかの発明に係るワーク位置姿勢算出装置(6)において、前記位置姿勢算出データ作成部(62)が、手動入力に応答して前記位置姿勢算出データ(63)を作成するように構成される。
本願の9番目の発明によれば、1番目から8番目のいずれかの発明に係るワーク位置姿勢算出装置(6)において、前記位置姿勢算出データ(63)が、物理シミュレーションを利用して推定される前記ワーク(5)の位置および姿勢の発生確率を含む。
本願の10番目の発明によれば、1番目から9番目のいずれかの発明に係るワーク位置姿勢算出装置(6)において、前記位置姿勢算出データ(63)が、統計データに基づいて推定される前記ワーク(5)の位置および姿勢の発生確率を含む。
本願の11番目の発明によれば、1番目から10番目のいずれかの発明に係るワーク位置姿勢算出装置(6)において、前記位置姿勢算出データ作成部(62)が、前回の前記ワーク位置姿勢算出部(64)による算出結果に基づいて、追加の位置姿勢算出データ(63)を作成するように構成される。
本願の12番目の発明によれば、ロボット(2)によってワーク(5)をハンドリングするハンドリングシステム(10)であって、ワーク(5)をハンドリング可能なロボット(2)と、1番目から11番目の発明のいずれかに係るワーク位置姿勢算出装置(6)と、を備えており、前記ワーク位置姿勢算出装置(6)によって算出された前記ワーク(5)の位置および姿勢に基づいて、前記ロボット(2)が前記ワーク(5)をハンドリングするように構成される、ハンドリングシステム(10)が提供される。
本願の13番目の発明によれば、ワーク(5)をハンドリング可能なロボット(2)と、11番目の発明に係るワーク位置姿勢算出装置(6)と、を備えるハンドリングシステム(10)であって、前記ワーク位置姿勢算出装置(6)によって算出された前記ワーク(5)の位置および姿勢に基づいて、前記ロボット(2)が前記ワーク(5)をハンドリングするように構成されており、前記位置姿勢算出データ作成部(62)が、前記ワーク位置姿勢算出部(64)によって算出された前記ワーク(5)の位置および姿勢のうち、前記ロボット(2)によってハンドリングされた前記ワーク(5)以外の少なくとも1つの前記ワーク(5)の位置および姿勢に基づいて、追加の前記位置姿勢算出データを作成するように構成される、ハンドリングシステム(10)が提供される。
これら並びに他の本発明の目的、特徴および利点は、添付図面に示される本発明の例示的な実施形態に係る詳細な説明を参照することによって、より明らかになるであろう。
本発明に係るワーク位置姿勢算出装置によれば、位置姿勢算出装置によって算出されたワークの位置および姿勢に基づいて、3次元マッチングに利用する計測データの一部を除外する。それにより、3次元マッチングを実行する際の探索範囲が限定され、ワークの位置および姿勢を効率的に算出できるようになる。
一実施形態に係るハンドリングシステムの構成例を示す図である。 図1の実施形態に係るハンドリングシステムにおいて実行されるハンドリング処理を説明するフローチャートである。 ワーク位置姿勢算出装置の機能ブロック図である。 位置姿勢が異なる2つのワークを示す図である。 ワークの3次元モデルおよびそれに基づいて除外される計測データを示す図である。 ワークの積載例を示す図である。 ワークの位置姿勢の信用度について説明するための図である。 ワークの位置姿勢の発生確率を変更する処理を説明するための図である。 ワークの位置姿勢の発生確率を変更する処理を説明するための図である。 ワークの位置姿勢の発生確率を変更する処理を説明するための図である。 ワークの位置姿勢の発生確率を変更する処理を説明するための図である。 ワークの位置姿勢の発生確率を変更する処理を説明するための図である。 位置姿勢算出データの追加について説明するための図である。
以下、添付図面を参照して本発明の実施形態を説明する。図示される実施形態の構成要素は、本発明の理解を助けるために縮尺が適宜変更されている。同一または対応する構成要素には、同一の参照符号が使用される。
図1は、一実施形態に係るハンドリングシステムの構成例を示している。ハンドリングシステム10は、ロボット2、ロボット制御装置3、3次元計測器4、およびワーク位置姿勢算出装置6を備えている。
ロボット2は、モータによって駆動される複数の関節を有しており、例えば、図示されるような6軸垂直多関節ロボットである。ロボット2は、機構部の寸法および構造に応じて定まる動作範囲内において、アームの先端を任意の姿勢で任意の位置に位置決めできるように構成される。ロボット2は、通信ケーブルなどの通信手段を介してロボット制御装置3に接続されている。ロボット2の各関節に設けられたモータは、ロボット制御装置3によって制御される。
ロボット2は、アーム先端の手首にグリッパ21を備えている。グリッパ21は、ロボット制御装置3によって制御され、ワーク5を解放可能に把持するために開閉動作する。
ロボット制御装置3は、CPU、ROM、RAM、不揮発性メモリおよび入出力インタフェースなどを備えたデジタルコンピュータである。
3次元計測器4は、バラ積みされたワーク5の上方において、架台41に固定されている。3次元計測器4は、バラ積みされたワーク5が視野に含まれるように、ワーク5に対して所定の位置関係に設置されている。
3次元計測器4は、ワーク5の表面を検出して、ワーク5の表面上に位置する複数の点の3次元位置情報(以下、「計測データ」と称することがある。)を取得する。3次元計測器4は、通信ケーブルなどの通信手段を介してワーク位置姿勢算出装置6に接続されている。別の実施形態において、3次元計測器4は、ロボット2の手首に設けられていてもよい。
3次元計測器4は、任意のタイプの非接触方式の検出器である。3次元計測器4は、例えば、2つのカメラを利用するステレオ方式の検出器であってもよいし、レーザスリット光で対象物の表面を走査するタイプの検出器であってもよいし、プロジェクタなどを用いてパターン光を対象物に投影するタイプの検出器であってもよいし、或いは対象物の表面で反射して投光器に戻るまでの飛行時間を計算するよう構成された検出器であってもよい。
ワーク位置姿勢算出装置6は、3次元計測器4から複数のワーク5の計測データを取得して、それらワーク5の位置および姿勢を算出する(以下、「位置および姿勢」を「位置姿勢」と称することがある。)。ワーク位置姿勢算出装置6は、CPU、ROM、RAM、不揮発性メモリおよび入出力インタフェースなどを備えたデジタルコンピュータである。
ワーク位置姿勢算出装置6は、通信ケーブルなどの通信手段を介してロボット制御装置3に接続されていて、互いにデータおよび信号の送受信が可能である。図1では、ワーク位置姿勢算出装置6およびロボット制御装置3が別個に示されているものの、ロボット制御装置3が、ワーク位置姿勢算出装置6の機能を有していてもよい。
ハンドリングシステム10は、ワーク位置姿勢算出装置6によって検出されるワーク5の位置姿勢に基づいて、ロボット2を制御して、ワーク5をハンドリングする。
ワーク位置姿勢算出装置6は、ワーク5の計測データと、ワーク5の3次元モデルとを照合すること(以下、「3次元マッチング」と称することがある。)によって、ワーク5の位置姿勢を算出する。図3を参照すれば、ワーク位置姿勢算出装置6は、3次元モデル記憶部61、位置姿勢算出データ作成部62、ワーク位置姿勢算出部64、および計測データ除外部65を備えている。
3次元モデル記憶部61は、ワーク5の3次元モデルを記憶する。ワーク5の3次元モデルは、ワーク5のCADデータなどに基づいて予め作成される。
位置姿勢算出データ作成部62は、ワーク5の位置姿勢を算出する際に使用される位置姿勢算出データ63を作成する。位置姿勢算出データ63は、ワーク5の位置姿勢を算出するのに必要なパラメータの組合せである。例えば、位置姿勢算出データ63は、3次元マッチングを実行する際に探索されるべき位置範囲および姿勢範囲などを含んでいる。
例えば、ワーク5の位置が既知である場合、ワーク5の姿勢のみを求める必要があるので、姿勢範囲のみが位置姿勢算出データに含まれることになる。逆に、ワーク5の姿勢が既知である場合、位置姿勢算出データには、探索されるべき位置範囲のみが含まれる。
図1に示されるように、ワーク5がバラ積みされている場合、位置姿勢算出データとして、位置範囲および姿勢範囲について、それぞれ3自由度、合計6自由度の範囲が必要である。
一実施形態において、位置姿勢算出データ63は、位置範囲および姿勢範囲の少なくとも一方を複数種類含んでいる。位置姿勢および姿勢範囲は、ワーク5が配置される可能性がある位置範囲およびワーク5がとりうる可能性がある姿勢範囲を網羅するように作成される。各々の位置範囲および姿勢範囲は、後述するように、それらの位置姿勢が発生する確率と関連付けられる。
図4は、位置姿勢が異なる2つのワーク50,51を示している。一方のワーク50の長手方向は水平方向を向いており、他方のワーク51の長手方向は鉛直方向に向いている。このような場合、ワーク50のような姿勢の発生確率は、ワーク51よりも高い。したがって、ワーク50に対応する姿勢範囲およびワーク51に対応する姿勢範囲は、異なる位置姿勢算出データ63を構成する。
位置姿勢算出データ63は、優先度と関連付けられて記憶される。具体的には、発生確率が高い位置範囲および姿勢範囲を含む位置姿勢算出データ63は、優先度が高くなるように、優先度が各々の位置姿勢算出データ63に関連付けられる。
位置姿勢算出データ63は、ワーク5の形状または過去のワーク5の積載状態に基づいて、ユーザによって手動で作成されてもよい。或いは、物理シミュレーションを利用して、ワーク5の積載状態を仮想空間で再現し、その結果として得られる統計データからワーク5の特定の積層状態の発生確率を求めてもよい。
ワーク位置姿勢算出部64は、位置姿勢算出データ63を用いて、3次元計測器4によって取得された計測データ60と、3次元モデル記憶部61に記憶されていたワーク5の3次元モデルとを照合して、ワーク5の位置姿勢を算出する。ワーク5の位置姿勢を算出するための3次元マッチングは、位置姿勢算出データ63に含まれる探索範囲に従って実行される。
一実施形態において、ワーク位置姿勢算出部64は、次のような方法でワーク5の位置姿勢を算出するように構成されてもよい。先ず、位置姿勢算出データ63に含まれる位置範囲および姿勢範囲の少なくともいずれか一方に従って、ワーク5の3次元モデルを構成する3次元点を座標変換し、それら3次元点と、計測データ60の3次元点との間の差分を計算する。差分が予め定められる閾値以下である場合は、計測データの3次元点と3次元モデルの3次元点とは一致しているとみなす。
ワーク位置姿勢算出部64は、前述した3次元マッチングを、3次元モデルのすべての3次元点について実行し、3次元点の一致数が予め定められる閾値以上である場合、3次元モデルの位置姿勢をワーク5の位置姿勢として出力する。
別の実施形態において、ワーク位置姿勢算出部64は、3次元モデルの特徴量を利用して、ワーク5の位置姿勢を算出するように構成されてもよい。3次元モデルのPPF(Point Pair Feature)特徴量またはSHOT(Signature of Histogram of Orientation)特徴量などが利用され得る。その場合、予め求めておいた3次元モデルのそれら特徴量を、計測データの3次元特徴量と照合することによって、ワーク5の位置姿勢が算出される。
計測データ除外部65は、ワーク位置姿勢算出部64によって算出されたワーク5の位置姿勢に基づいて、それ以降のワーク5の位置姿勢の算出において使用される計測データ60の一部を除外する。
計測データ除外部65は、ワーク位置姿勢算出部64によって算出されたワーク5の位置姿勢に3次元モデルを座標変換して配置し、3次元モデルの近傍に存在する計測データを除外する。
図5は、ワーク5の3次元モデルとそれに基づいて除外される計測データを示している。図5の矢印は、ワーク位置姿勢算出部64によって算出されたワーク5の位置姿勢を表している。3次元モデル5Aは、算出された位置姿勢のワーク5の位置姿勢に一致するように配置されている。3次元モデル5Aの周囲の破線5Bは、計測データ60を除外すべき範囲を表している。図5の場合、3次元点P1は、破線5Bで囲まれた範囲内に位置しているので、計測データ60から除外される。他方、別の3次元点P2は、破線5Bで囲まれた範囲外に位置しているので、計測データ60から除外されない。
しかしながら、算出されたワーク5の位置姿勢によっては、計測データ60を除外すべきではない場合がある。すなわち、計測データ60が不適切に除外された場合、次の工程でワーク5の位置姿勢を算出しようとする際に、実際には存在するワーク5を認識できなくなる虞がある。そこで、計測データ60が除外されない範囲を指定できるようにしてもよい。計測データ60を除外すべきでない範囲は、位置姿勢算出データ63に含まれていてもよい。
図6は、ワーク5の積載状態の例を示している。この場合、1つのワーク52の位置姿勢が誤認識されている。そのため、誤認識されたワーク52の近傍にある計測データを除外すれば、ワーク53が認識されなくなってしまう。
そこで、破線5Cで示される範囲を予め指定しておき、その範囲に含まれるワーク5の位置姿勢が算出された場合には、計測データ60を除外しないようにすればよい。
一実施形態において、ワーク位置姿勢算出部64によって算出されたワーク5の位置姿勢について信用度を表すスコアを計算し、スコアが低い場合(信用度が低い場合)には、計測データ60を除外しないようにしてもよい。
図7は、信用度を表すスコアが高い場合と、スコアが低い場合とを対比して示している。高いスコアに対応する位置姿勢におけるワーク55近傍の計測データ60を除外しても、他のワークの位置姿勢の算出には影響がないと推定できる。
他方、低いスコアに対応する位置姿勢におけるワーク56の近傍の計測データ60を除外すれば、他のワーク57,57を認識できない虞がある。そこで、或るワーク5の位置姿勢に対して低いスコアが付与されている場合、そのワーク5の近傍の計測データ60を除外しないようにする。計測データ60を除外するか否かを判定する際にスコアと比較されるべき閾値は、位置姿勢算出データ63に含まれていてもよい。
図2は、本実施形態に係るハンドリングシステム10において実行されるハンドリング処理を説明するフローチャートである。図2の処理は、例えばオペレータによるスイッチ操作に応答して開始される。ステップS101では、3次元計測器4によって、バラ積みされたワーク5の計測データ60を取得する。計測データ60は、ワーク5の表面の複数の点の3次元位置を含んでいる。
ステップS102では、位置姿勢算出データ作成部62によって、位置姿勢算出データ63を優先度が高い順番に取得する。
ステップS103では、ワーク位置姿勢算出部64によって、位置姿勢算出データ63に基づいて、計測データ60とワーク5の3次元モデルとを照合して、ワーク5の位置姿勢を算出する。
ステップS104では、計測データ除外部65によって、ステップS103で算出されたワーク5の位置姿勢に基づいて、計測データ60の一部を除外する。
ステップS105では、すべての位置姿勢算出データ63を利用してワーク5の位置姿勢を算出する工程が実行されたか否かを判定する。未使用の位置姿勢算出データ63が残っている場合は、ステップS102に戻る。
他方、すべての位置姿勢算出データ63が使用されたと判定された場合、ステップS106に進む。ステップS106では、ワーク5が認識されたか否かを判定する。ワーク5が認識されていない場合は、すべてのワーク5がハンドリングされたものと推定できるので、ハンドリング処理を終了する。他方、少なくとも1つのワーク5が認識されている場合、ステップS107に進む。
ステップS107では、ステップS103で求められたワーク5の位置姿勢に従って、ロボット2およびグリッパ21を制御してワーク5をハンドリングする。すなわち、ロボット2は、グリッパ21がワーク5を保持可能な位置姿勢に位置決めし、次いでグリッパを21動作させてワーク5を保持する。
別の実施形態において、ワーク5の位置姿勢に対して、グリッパ21が所定の相対的位置関係になるようにロボット2を制御してもよい。この場合、基準となり得る任意の位置姿勢におけるワーク5と、当該ワーク5を保持可能なロボット2の位置姿勢との相対的位置関係を予め求めておき、ロボット制御装置3に記憶しておく。そして、ステップS107を実行する際には、グリッパ21がワーク5に対して予め定められる相対的位置関係を満足するように、ロボット2が制御される。
次いで、ステップS108において、次回実行されるワーク5の位置姿勢算出工程のために、位置姿勢算出データ63を変更し、更新する。
一実施形態において、ワーク5の位置姿勢の算出結果の統計データに基づいて、或る位置姿勢におけるワーク5の発生確率を推定するとともに、すでに記憶されている位置姿勢算出データ63に含まれる優先度、位置範囲および姿勢範囲を更新する。
図8A〜図8Cを参照して、任意の位置姿勢におけるワーク5の発生確率を変更する方法について説明する。図8A〜図8Cの横軸は、ワーク5の位置姿勢をそれぞれ表しており、縦軸は、それに対応する発生確率を表している。
図8Aは、位置姿勢算出データ63を変更する前の状態を表しており、ワーク5の発生確率は、いずれの位置姿勢においても一定である。図8Bは、位置姿勢Xにおけるワーク5および位置姿勢Yにおけるワーク5の発生確率が比較的高い場合を示している。ここで、位置姿勢Yにおけるワーク5が新たに算出された場合、位置姿勢Yの発生確率を増大させる(図8C参照)。そして、発生確率が高い位置姿勢ほど、探索範囲の優先度が高くなるように優先度を更新する。
一実施形態において、図8Bおよび図8Cに示されるように、或る位置姿勢から所定の範囲に含まれる姿勢範囲の発生確率をすべて一定値だけ増大するように発生確率を変更してもよい。別の実施形態において、図8Dおよび図8Eに示されるように、算出された位置姿勢を中心に重み付けするように発生確率を変更してもよい。
また別の実施形態において、ステップS108では、ワーク5の位置姿勢の算出結果に基づいて、複数の位置姿勢算出データ63を新たに追加してもよい。位置姿勢算出データ63を追加する態様について、図9を参照して説明する。
ステップS103において、ワーク58,59,59の位置姿勢がそれぞれ算出されるとともに、ステップS107において、ワーク58がロボット2によってハンドリングされたものとする。この場合、ワーク58がハンドリングされた結果として、残りのワーク59,59の位置姿勢が大きく変化する可能性は低いと考えられる。
そこで、ワーク59,59の、すでに算出された位置姿勢の近傍を探索範囲とするように位置範囲および姿勢範囲を定めた位置姿勢算出データ63を新たに作成し、ワーク位置姿勢算出装置6に記憶する。
このとき、新たに作成された位置姿勢算出データ63の優先度は、それまでに記憶されていた位置姿勢算出データ63の優先度よりも高くなるように優先度を設定する。
前述したハンドリングシステム10によれば、次のような効果を奏することができる。
(1)位置姿勢算出データ63をそれらの優先度とともに記憶しておき、優先度が高い方から順番に位置姿勢算出データ63を使用し、ワーク5の位置姿勢を算出する。結果的に、発生確率が高い位置姿勢におけるワーク5を優先的に探索するようになるので、ワーク5の位置姿勢を算出するのに要する時間が短縮される。
(2)発生確率が低い位置姿勢に対応する位置範囲および姿勢範囲も位置姿勢算出データ63として記憶される。それにより、実際にはワーク5が存在するにもかかわらず、ワーク5が認識されなくなることを防止できる。
(3)いったんワーク5の位置姿勢が算出されれば、当該ワーク5の表面に位置する3次元点を計測データから除外する。それにより、次回以降の位置姿勢算出工程において、誤った位置姿勢が算出されるのを防止できる。また、ワーク5の位置姿勢を算出するのに要する時間を短縮できる。
(4)ワーク位置姿勢算出部64によって算出されたワーク5の位置姿勢に基づいて3次元点が計測データから除外されなくなるように、オペレータが範囲を指定できる。それにより、誤認識が起こりやすいワーク5の位置姿勢によって必要な計測データ60が除外されないようになり、ワーク5の位置姿勢算出機能の信頼性を向上できる。
(5)ワーク位置姿勢算出部64によって算出されたワーク5の位置姿勢が正確でない場合、計測データ60が誤って除外されてしまい、実際には存在するワーク5を検出できなくなることがある。しかしながら、前述した実施形態に係るハンドリングシステム10によれば、算出されたワーク5の位置姿勢の信用度を表すスコアが計算されるので、信用度の高い位置姿勢の場合のみ計測データ60を除外することができる。したがって、計測データ60が誤って除外されるのを防止でき、実際には存在するワーク5が検出不能になることを防止できる。
(6)物理シミュレーションまたは統計データを利用する実施形態によれば、発生確率が高いワーク5の位置姿勢に対応した位置範囲および姿勢範囲をより正確に求められるようになる。信頼性の高い位置範囲および姿勢範囲に探索範囲を限定することで、ワーク5の位置姿勢を算出するのに要する時間が短縮される。
(7)ワーク位置姿勢算出部64によって算出されたワーク5の位置姿勢に基づいて、以前から記憶されている位置姿勢算出データ63よりも高い優先度を有する位置姿勢算出データ63を新たに作成する。それにより、ワーク5の位置姿勢が算出されたものの、ロボット2によってハンドリングされなかったワーク5の位置姿勢を算出する際の位置範囲および姿勢範囲を制限でき、所要時間を短縮できる。
バラ積みされたワークをハンドリングする実施形態について説明したものの、本発明に係るロボットハンドリングシステムは、段状に積載されたワークをハンドリングするために使用されてもよい。その場合、幾つかのワークが所定の位置から移動している場合であっても、本発明に係るロボットハンドリングシステムにおいては、任意の位置姿勢におけるワークを検出できるので、ワークのハンドリングが可能である。
以上、本発明の種々の実施形態について説明したが、当業者であれば、他の実施形態によっても本発明の意図する作用効果を実現できることを認識するであろう。特に、本発明の範囲を逸脱することなく、前述した実施形態の構成要素を削除または置換することができるし、或いは公知の手段をさらに付加することができる。また、本明細書において明示的または暗示的に開示される複数の実施形態の特徴を任意に組合せることによっても本発明を実施できることは当業者に自明である。
10 ハンドリングシステム
2 ロボット
21 グリッパ
3 ロボット制御装置
4 3次元計測器
41 架台
5 ワーク
5A 3次元モデル
6 ワーク位置姿勢算出装置
61 3次元モデル記憶部
62 位置姿勢算出データ作成部
64 ワーク位置姿勢算出部
65 計測データ除外部

Claims (13)

  1. ワーク(5)の位置および姿勢を算出するワーク位置姿勢算出装置(6)であって、
    3次元空間に配置された少なくとも1つのワーク(5)を計測し、前記少なくとも1つのワーク(5)の3次元位置情報を含む計測データ(60)を取得する3次元計測器(4)と、
    前記ワーク(5)の3次元モデル(5A)を記憶する3次元モデル記憶部(61)と、
    前記ワーク(5)の位置および姿勢を算出する際に使用される少なくとも1つの位置姿勢算出データ(63)を作成する位置姿勢算出データ作成部(62)と、
    各々の前記位置姿勢算出データ(63)を用いて、前記計測データ(60)と前記3次元モデル(5A)とを照合して、前記ワーク(5)の位置および姿勢を算出するワーク位置姿勢算出部(64)と、
    前記ワーク位置姿勢算出部(64)によって算出された前記ワーク(5)の位置および姿勢に基づいて、前記ワーク位置姿勢算出部(64)による以降の算出において使用されるべき前記計測データ(60)の一部を除外する計測データ除外部(65)と、
    を備える、ワーク位置姿勢算出装置(6)。
  2. 前記位置姿勢算出データ(63)が優先度を含んでおり、
    前記ワーク位置姿勢算出部(64)が、高い優先度を有する位置姿勢算出データ(63)を順次使用して、前記計測データ(60)と前記3次元モデル(5A)とを照合して、前記ワーク(5)の位置および姿勢を算出するように構成される、請求項1に記載のワーク位置姿勢算出装置(6)。
  3. 前記位置姿勢算出データ(63)が、前記計測データ(60)と前記3次元モデル(5A)とを照合する際に探索されるべき姿勢範囲を含む、請求項1または2に記載のワーク位置姿勢算出装置(6)。
  4. 前記位置姿勢算出データ(63)が、前記計測データ(60)と前記3次元モデル(5A)とを照合する際に探索されるべき位置範囲を含む、請求項1から3のいずれか1項に記載のワーク位置姿勢算出装置(6)。
  5. 前記位置姿勢算出データ(63)が、前記計測データ除外部(65)によって除外されるべきでない前記計測データ(60)に関する情報をさらに含む、請求項1から4のいずれか1項に記載のワーク位置姿勢算出装置(6)。
  6. 前記ワーク位置姿勢算出部(64)が、前記ワーク(5)の位置および姿勢を算出するとともに、算出結果の信用度を表すスコアを計算するように構成されており、
    前記位置姿勢算出データ(63)が、前記ワーク位置姿勢算出部(64)によって算出されたワーク(5)の位置姿勢に基づいて前記計測データ(60)の一部を除外するか否かを判定する際に使用されるスコア閾値を含んでおり、
    前記計測データ除外部(65)が、前記スコアが前記スコア閾値を上回った場合に、前記計測データの一部を除外するように構成される、請求項1から5のいずれか1項に記載のワーク位置姿勢算出装置(6)。
  7. 前記計測データ除外部(65)が、前記ワーク位置姿勢算出部(64)によって算出された前記ワーク(5)の位置および姿勢を用いて前記3次元モデル(5A)を座標変換するとともに、座標変換された前記3次元モデルの近傍に存在する計測データ(60)を除外するように構成される、請求項1から6のいずれか1項に記載のワーク位置姿勢算出装置(6)。
  8. 前記位置姿勢算出データ作成部(62)が、手動入力に応答して前記位置姿勢算出データ(63)を作成するように構成される、請求項1から7のいずれか1項に記載のワーク位置姿勢算出装置(6)。
  9. 前記位置姿勢算出データ(63)が、物理シミュレーションを利用して推定される前記ワーク(5)の位置および姿勢の発生確率を含む、請求項1から8のいずれか1項に記載のワーク位置姿勢算出装置(6)。
  10. 前記位置姿勢算出データ(63)が、統計データに基づいて推定される前記ワーク(5)の位置および姿勢の発生確率を含む、請求項1から9のいずれか1項に記載のワーク位置姿勢算出装置(6)。
  11. 前記位置姿勢算出データ作成部(62)が、前回の前記ワーク位置姿勢算出部(64)による算出結果に基づいて、追加の位置姿勢算出データ(63)を作成するように構成される、請求項1から10のいずれか1項に記載のワーク位置姿勢算出装置(6)。
  12. ロボット(2)によってワーク(5)をハンドリングするハンドリングシステム(10)であって、
    ワーク(5)をハンドリング可能なロボット(2)と、
    請求項1から11のいずれか1項に記載のワーク位置姿勢算出装置(6)と、を備えており、
    前記ワーク位置姿勢算出装置(6)によって算出された前記ワーク(5)の位置および姿勢に基づいて、前記ロボット(2)が前記ワーク(5)をハンドリングするように構成される、ハンドリングシステム(10)。
  13. ワーク(5)をハンドリング可能なロボット(2)と、
    請求項11に記載のワーク位置姿勢算出装置(6)と、を備えるハンドリングシステム(10)であって、
    前記ワーク位置姿勢算出装置(6)によって算出された前記ワーク(5)の位置および姿勢に基づいて、前記ロボット(2)が前記ワーク(5)をハンドリングするように構成されており、
    前記位置姿勢算出データ作成部(62)が、前記ワーク位置姿勢算出部(64)によって算出された前記ワーク(5)の位置および姿勢のうち、前記ロボット(2)によってハンドリングされた前記ワーク(5)以外の少なくとも1つの前記ワーク(5)の位置および姿勢に基づいて、追加の前記位置姿勢算出データを作成するように構成される、ハンドリングシステム(10)。
JP2015232991A 2015-11-30 2015-11-30 ワーク位置姿勢算出装置およびハンドリングシステム Active JP6348097B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2015232991A JP6348097B2 (ja) 2015-11-30 2015-11-30 ワーク位置姿勢算出装置およびハンドリングシステム
CN201610941984.2A CN106808472B (zh) 2015-11-30 2016-10-31 工件位置姿势计算装置以及搬运***
DE102016122678.5A DE102016122678B4 (de) 2015-11-30 2016-11-24 Werkstückpositions-/-Stellungsberechnungssystem und Handhabungssystem
US15/363,205 US10286557B2 (en) 2015-11-30 2016-11-29 Workpiece position/posture calculation system and handling system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015232991A JP6348097B2 (ja) 2015-11-30 2015-11-30 ワーク位置姿勢算出装置およびハンドリングシステム

Publications (2)

Publication Number Publication Date
JP2017102529A true JP2017102529A (ja) 2017-06-08
JP6348097B2 JP6348097B2 (ja) 2018-06-27

Family

ID=58692975

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015232991A Active JP6348097B2 (ja) 2015-11-30 2015-11-30 ワーク位置姿勢算出装置およびハンドリングシステム

Country Status (4)

Country Link
US (1) US10286557B2 (ja)
JP (1) JP6348097B2 (ja)
CN (1) CN106808472B (ja)
DE (1) DE102016122678B4 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020157875A1 (ja) * 2019-01-30 2020-08-06 株式会社Fuji 作業座標作成装置
US11436754B2 (en) 2019-07-22 2022-09-06 Fanuc Corporation Position posture identification device, position posture identification method and position posture identification program

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6860843B2 (ja) * 2017-02-20 2021-04-21 株式会社安川電機 ロボットシステム、ロボット制御装置、及びロボット制御方法
JP6846950B2 (ja) * 2017-03-03 2021-03-24 株式会社キーエンス ロボットシミュレーション装置、ロボットシミュレーション方法、ロボットシミュレーションプログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器
WO2019028075A1 (en) * 2017-08-01 2019-02-07 Enova Technology, Inc. INTELLIGENT ROBOTS
JP2019058993A (ja) * 2017-09-27 2019-04-18 セイコーエプソン株式会社 ロボットシステム
JP6662836B2 (ja) * 2017-11-24 2020-03-11 ファナック株式会社 収容領域又は治具にワークを配置するワーク配置システム
KR102565444B1 (ko) * 2017-12-21 2023-08-08 삼성전자주식회사 객체를 식별하기 위한 장치 및 방법
CN108398084A (zh) * 2018-02-01 2018-08-14 深圳前海优容科技有限公司 一种电池极片检测设备、***、叠片机及方法
US11040452B2 (en) * 2018-05-29 2021-06-22 Abb Schweiz Ag Depth sensing robotic hand-eye camera using structured light
US10576526B2 (en) * 2018-07-03 2020-03-03 Komatsu Industries Corporation Workpiece conveying system, and workpiece conveying method
CN115717868B (zh) * 2022-10-08 2023-11-07 北京航天计量测试技术研究所 一种实时在线的三维自动化扫描测量***

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012026895A (ja) * 2010-07-23 2012-02-09 Canon Inc 位置姿勢計測装置、位置姿勢計測方法、およびプログラム
JP2012033119A (ja) * 2010-08-03 2012-02-16 Hitachi Ltd 3次元環境生成システム
JP2012125878A (ja) * 2010-12-15 2012-07-05 Canon Inc 情報処理装置、情報処理方法及びプログラム
JP2012220271A (ja) * 2011-04-06 2012-11-12 Canon Inc 姿勢認識装置、姿勢認識方法、プログラム及び記録媒体
JP2013257182A (ja) * 2012-06-11 2013-12-26 Canon Inc 画像処理装置及び画像処理方法
JP2015009314A (ja) * 2013-06-28 2015-01-19 キヤノン株式会社 干渉判定装置、干渉判定方法、コンピュータプログラム

Family Cites Families (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE2823584C2 (de) * 1978-05-30 1983-01-27 Pfaff Industriemaschinen Gmbh, 6750 Kaiserslautern Greifvorrichtung für Industrieroboter
US4921293A (en) * 1982-04-02 1990-05-01 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Multi-fingered robotic hand
US5108140A (en) * 1988-04-18 1992-04-28 Odetics, Inc. Reconfigurable end effector
US5501498A (en) * 1988-08-31 1996-03-26 The Trustees Of The University Of Pennsylvania Methods and apparatus for mechanically intelligent grasping
US4957320A (en) * 1988-08-31 1990-09-18 Trustees Of The University Of Pennsylvania Methods and apparatus for mechanically intelligent grasping
US4980626A (en) * 1989-08-10 1990-12-25 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Method and apparatus for positioning a robotic end effector
US5172951A (en) * 1990-08-06 1992-12-22 University Of Utah Research Foundation Robotic grasping apparatus
WO1997009153A1 (en) * 1995-09-08 1997-03-13 Ross-Hime Designs, Inc. Robotic manipulator
US5762390A (en) * 1996-07-16 1998-06-09 Universite Laval Underactuated mechanical finger with return actuation
WO2000057129A1 (fr) * 1999-03-19 2000-09-28 Matsushita Electric Works, Ltd. Procede de reconnaissance d'objet tridimensionnel et systeme de collecte de broches a l'aide de ce procede
DE60112830T2 (de) * 2000-04-04 2006-06-14 Honda Motor Co Ltd Roboterhand mit mehreren Fingern
JP3996015B2 (ja) * 2002-08-09 2007-10-24 本田技研工業株式会社 姿勢認識装置及び自律ロボット
US6817641B1 (en) * 2002-08-30 2004-11-16 Lawrence J. Singleton, Jr. Robotic arm and hand
CA2500005C (en) * 2002-09-26 2011-12-06 Barrett Technology, Inc. Intelligent, self-contained robotic hand
JP3805302B2 (ja) * 2002-12-13 2006-08-02 ファナック株式会社 ワーク取出し装置
WO2005015466A1 (ja) * 2003-08-07 2005-02-17 Matsushita Electric Industrial Co., Ltd. 生活支援システム及びその制御用プログラム
JP4313125B2 (ja) * 2003-09-12 2009-08-12 本田技研工業株式会社 ロボットハンド
JP4592276B2 (ja) * 2003-10-24 2010-12-01 ソニー株式会社 ロボット装置のためのモーション編集装置及びモーション編集方法、並びにコンピュータ・プログラム
JP3733364B2 (ja) * 2003-11-18 2006-01-11 ファナック株式会社 教示位置修正方法
JP5122134B2 (ja) * 2004-03-31 2013-01-16 独立行政法人科学技術振興機構 ロボットハンド
WO2005099417A2 (en) * 2004-04-12 2005-10-27 Strider Labs, Inc. System and method for computing grasps for a robotic hand with a palm
US7921741B2 (en) * 2004-12-15 2011-04-12 Motorola Mobility, Inc. Electromagnetic testing model of human hand
JP2007015037A (ja) * 2005-07-05 2007-01-25 Sony Corp ロボットのモーション編集装置及びモーション編集方法、コンピュータ・プログラム、並びにロボット装置
SE529377C2 (sv) * 2005-10-18 2007-07-24 Morphic Technologies Ab Publ Metod och arrangemang för att lokalisera och plocka upp föremål från en bärare
JP4908020B2 (ja) * 2006-03-02 2012-04-04 本田技研工業株式会社 ハンド制御システム
US7650263B2 (en) * 2006-09-26 2010-01-19 Strider Labs, Inc. Method for fast computation of optimal contact forces
US8231158B2 (en) * 2006-11-03 2012-07-31 President And Fellows Of Harvard College Robust compliant adaptive grasper and method of manufacturing same
JP4890199B2 (ja) * 2006-11-09 2012-03-07 本田技研工業株式会社 ロボットハンドおよびロボット
JP2009066685A (ja) * 2007-09-11 2009-04-02 Sony Corp ロボット装置及びロボット装置の制御方法
US20090306825A1 (en) * 2008-04-21 2009-12-10 Ying Li Manipulation system and method
KR100997140B1 (ko) * 2008-07-16 2010-11-30 삼성전자주식회사 인간형 로봇
KR101549818B1 (ko) * 2008-12-02 2015-09-07 삼성전자 주식회사 로봇 핸드 및 그 제어방법
US8346393B2 (en) * 2008-12-18 2013-01-01 Samsung Electronics Co., Ltd. Control apparatus of multi-finger hand and grasping method using the same
US20100179689A1 (en) * 2009-01-09 2010-07-15 National Taiwan University Of Science And Technology Method of teaching robotic system
US8364314B2 (en) * 2009-04-30 2013-01-29 GM Global Technology Operations LLC Method and apparatus for automatic control of a humanoid robot
JP5335551B2 (ja) * 2009-05-14 2013-11-06 本田技研工業株式会社 ロボットハンドならびにその制御システム、制御方法および制御プログラム
US8504198B2 (en) * 2009-05-14 2013-08-06 Honda Motor Co., Ltd. Robot hand and control system, control method and control program for the same
EP2255930A1 (de) 2009-05-27 2010-12-01 Leica Geosystems AG Verfahren und System zum hochpräzisen Positionieren mindestens eines Objekts in eine Endlage im Raum
US8280837B2 (en) * 2009-05-28 2012-10-02 GM Global Technology Operations LLC Contact state estimation for multi-finger robot hands using particle filters
US8511964B2 (en) * 2009-09-22 2013-08-20 GM Global Technology Operations LLC Humanoid robot
DE102009058607A1 (de) * 2009-12-17 2011-06-22 KUKA Laboratories GmbH, 86165 Verfahren und Vorrichtung zum Steuern eines Manipulators
JP5618569B2 (ja) * 2010-02-25 2014-11-05 キヤノン株式会社 位置姿勢推定装置及びその方法
JP5624394B2 (ja) * 2010-07-16 2014-11-12 キヤノン株式会社 位置姿勢計測装置、その計測処理方法及びプログラム
JP5685027B2 (ja) * 2010-09-07 2015-03-18 キヤノン株式会社 情報処理装置、物体把持システム、ロボットシステム、情報処理方法、物体把持方法およびプログラム
JP5835926B2 (ja) * 2011-04-11 2015-12-24 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、およびプログラム
US9053571B2 (en) * 2011-06-06 2015-06-09 Microsoft Corporation Generating computer models of 3D objects
JP2013101045A (ja) * 2011-11-08 2013-05-23 Fanuc Ltd 物品の3次元位置姿勢の認識装置及び認識方法
JP6000579B2 (ja) * 2012-03-09 2016-09-28 キヤノン株式会社 情報処理装置、情報処理方法
US9233470B1 (en) * 2013-03-15 2016-01-12 Industrial Perception, Inc. Determining a virtual representation of an environment by projecting texture patterns
JP6573354B2 (ja) * 2014-11-28 2019-09-11 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
US9849591B2 (en) * 2015-10-02 2017-12-26 X Development Llc Localization of a robot in an environment using detected edges of a camera image from a camera of the robot and detected edges derived from a three-dimensional model of the environment

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012026895A (ja) * 2010-07-23 2012-02-09 Canon Inc 位置姿勢計測装置、位置姿勢計測方法、およびプログラム
JP2012033119A (ja) * 2010-08-03 2012-02-16 Hitachi Ltd 3次元環境生成システム
JP2012125878A (ja) * 2010-12-15 2012-07-05 Canon Inc 情報処理装置、情報処理方法及びプログラム
JP2012220271A (ja) * 2011-04-06 2012-11-12 Canon Inc 姿勢認識装置、姿勢認識方法、プログラム及び記録媒体
JP2013257182A (ja) * 2012-06-11 2013-12-26 Canon Inc 画像処理装置及び画像処理方法
JP2015009314A (ja) * 2013-06-28 2015-01-19 キヤノン株式会社 干渉判定装置、干渉判定方法、コンピュータプログラム

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020157875A1 (ja) * 2019-01-30 2020-08-06 株式会社Fuji 作業座標作成装置
JPWO2020157875A1 (ja) * 2019-01-30 2021-10-14 株式会社Fuji 作業座標作成装置
JP7112528B2 (ja) 2019-01-30 2022-08-03 株式会社Fuji 作業座標作成装置
US11436754B2 (en) 2019-07-22 2022-09-06 Fanuc Corporation Position posture identification device, position posture identification method and position posture identification program

Also Published As

Publication number Publication date
US20170151672A1 (en) 2017-06-01
DE102016122678B4 (de) 2021-03-04
DE102016122678A1 (de) 2017-06-01
JP6348097B2 (ja) 2018-06-27
US10286557B2 (en) 2019-05-14
CN106808472A (zh) 2017-06-09
CN106808472B (zh) 2019-05-31

Similar Documents

Publication Publication Date Title
JP6348097B2 (ja) ワーク位置姿勢算出装置およびハンドリングシステム
US11498214B2 (en) Teaching device, teaching method, and robot system
JP6937995B2 (ja) 物体認識処理装置及び方法、並びに、物体ピッキング装置及び方法
US10894324B2 (en) Information processing apparatus, measuring apparatus, system, interference determination method, and article manufacturing method
US10065311B1 (en) Singularity handling for robot jogging
JP5850962B2 (ja) ビジュアルフィードバックを利用したロボットシステム
US10496762B2 (en) Model generating device, position and orientation calculating device, and handling robot device
JP5778311B1 (ja) ピッキング装置およびピッキング方法
JP5850004B2 (ja) ロボット制御装置及びロボット制御方法
JP6879238B2 (ja) ワークピッキング装置及びワークピッキング方法
US20150127162A1 (en) Apparatus and method for picking up article randomly piled using robot
US11185984B2 (en) Method and apparatus for controlling robot
JP2017101946A (ja) 複数の物品の位置姿勢計測装置及び該位置姿勢計測装置を含むロボットシステム
JP7495688B2 (ja) ロボットシステムの制御方法及び制御装置
US10406688B2 (en) Offline programming apparatus and method having workpiece position detection program generation function using contact sensor
US20130054030A1 (en) Object gripping apparatus, object gripping method, and object gripping program
CN110539299B (zh) 机器手作业方法、控制器以及机器手***
CN113905856A (zh) 信息处理方法、信息处理***及程序
JP5983506B2 (ja) 把持対象物の把持パターン検出方法およびロボット
WO2023013740A1 (ja) ロボット制御装置、ロボット制御システム、及びロボット制御方法
CN111470244B (zh) 机器人***的控制方法以及控制装置
EP4382260A1 (en) Robot control device, robot control system, and robot control method
JP7299442B1 (ja) 制御装置、3次元位置計測システム、及びプログラム
JP7415856B2 (ja) 物体認識装置、物体認識方法及びプログラム
US20230264352A1 (en) Robot device for detecting interference of constituent member of robot

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170922

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171010

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171206

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180508

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180530

R150 Certificate of patent or registration of utility model

Ref document number: 6348097

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150