JP2016186469A - 情報処理装置、情報処理方法、プログラム - Google Patents

情報処理装置、情報処理方法、プログラム Download PDF

Info

Publication number
JP2016186469A
JP2016186469A JP2015067067A JP2015067067A JP2016186469A JP 2016186469 A JP2016186469 A JP 2016186469A JP 2015067067 A JP2015067067 A JP 2015067067A JP 2015067067 A JP2015067067 A JP 2015067067A JP 2016186469 A JP2016186469 A JP 2016186469A
Authority
JP
Japan
Prior art keywords
image
pattern
area
information processing
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015067067A
Other languages
English (en)
Other versions
JP6548422B2 (ja
Inventor
匡貴 中島
Masataka Nakajima
匡貴 中島
裕人 吉井
Hiroto Yoshii
裕人 吉井
博志 吉川
Hiroshi Yoshikawa
博志 吉川
内山 晋二
Shinji Uchiyama
晋二 内山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015067067A priority Critical patent/JP6548422B2/ja
Priority to US15/077,609 priority patent/US10477160B2/en
Publication of JP2016186469A publication Critical patent/JP2016186469A/ja
Application granted granted Critical
Publication of JP6548422B2 publication Critical patent/JP6548422B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/001Industrial image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/145Illumination specially adapted for pattern recognition, e.g. using gratings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/37Measurements
    • G05B2219/37555Camera detects orientation, position workpiece, points of workpiece
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40053Pick 3-D object from pile of objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/06Recognition of objects for industrial automation
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/46Sensing device
    • Y10S901/47Optical

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Optics & Photonics (AREA)
  • Quality & Reliability (AREA)
  • Artificial Intelligence (AREA)
  • Signal Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Manipulator (AREA)

Abstract

【課題】ワークの位置・姿勢の高さ方向の変化も検出する情報処理装置を提供する。【解決手段】明部の領域と暗部の領域とを含む複数のパターンを、複数の対象物体が配置された空間に順次投影し、複数のパターンを順次投影している間に撮像された複数の画像のうちの第1の画像における、第1のパターンの明部の領域と暗部の領域の境界位置に対応する第1の位置を検出し、保持手段9が保持可能な物体を決定し、決定された物体を保持手段に保持させ、保持手段による保持の後に、第1のパターンを投影手段に投影させ、保持手段による保持の後に第1のパターンが投影された状態で画像を取得し、第1のパターンの明部の領域と暗部の領域の境界位置に対応する第2の位置を検出し、第1の位置と前記第2の位置とを比較することにより、空間の中で、対象物体の配置の状態が変化した変化領域を検出する情報処理装置7。【選択図】図1

Description

本発明は、ロボットにより部品を取り出すバラ積み部品ピッキング装置とその制御方法に関する。
バラ積み部品ピッキング装置とは、乱雑に重なり合って置かれたバラ積み部品等から個別に部品(以下ワーク)の位置・姿勢を認識し、ロボットにより1つずつワークを取出す装置をいう。以下、ワークを取り出すことを単に「ピッキング」と称する。
バラ積み部品ピッキング装置は主に3次元形状計測装置とピッキングロボットからなる。3次元形状計測装置により得られた距離情報を基に、把持可能なワークの位置・姿勢を認識し、その位置・姿勢をピッキングロボットに通知する。ピッキングロボットは通知されたワークの位置・姿勢情報に基づき、ワークのピッキングを行い、バラ積み部品の中からワークをピッキングする。このようなバラ積みピッキング装置においては、バラ積み部品の3次元形状計測、ワーク位置・姿勢認識と通知、ワークのピッキングという一連のサイクルを短時間で行うことが要求される。
バラ積み部品ピッキング装置において、3次元形状計測器の他にバラ積みワークのシーンの状態を撮影するカメラを有し、ピッキング後にバラ積み部品の3次元形状計測を再度行う前にカメラにてバラ積み部品の状態を撮影した2次元画像を取得し、前回のピッキング後に撮影したバラ積みワークのシーンの2次元画像と比較を行い、ワークの位置・姿勢の変化が許容範囲内のワークの有無を判断し、変化が許容範囲内のワークがあれば3次元形状計測を実行せずにピッキングを行うことにより、より短時間でのピッキングサイクルを実現している。
特開2010−120141号公報
しかし、特許文献1に開示される方法では、ワークの位置・姿勢の変化を2次元画像のみ使用していることから、高さ方向の変化を検出できないという課題がある。
本発明は、上記課題に鑑みてなされたものであり、ワークの位置・姿勢の高さ方向の変化も検出することを目的とする。
本発明に係る情報処理方法は、例えば、投影手段に、明部の領域と暗部の領域とを含む複数のパターンを、複数の対象物体が配置された空間に順次投影させる第1の投影制御工程と、前記複数のパターンを順次投影している際に、撮像手段に前記空間を順次撮像させることにより、複数の画像を取得する第1の画像取得工程と、前記第1の画像取得工程において取得された前記複数の画像のうち、前記複数のパターンのうちの第1のパターンが投影された複数の前記対象物体を撮影して取得された第1の画像における、前記第1のパターンの明部の領域と暗部の領域の境界位置に対応する第1の位置を検出する第1の検出工程と、前記取得された複数の画像に基づいて、前記複数の対象物体のうち、保持手段が保持可能な物体を決定する決定工程と、前記決定された物体を前記保持手段に保持させるように、前記保持手段を制御する制御工程と、前記保持手段による保持の後に、前記第1のパターンを前記投影手段に投影させる第2の投影制御工程と、前記保持手段による保持の後に前記第1のパターンが投影された状態で、前記空間を撮像した画像を取得する第2の画像取得工程と、前記第2の画像において、前記第1のパターンの明部の領域と暗部の領域の境界位置に対応する第2の位置を検出する第2の検出工程と、前記第1の位置と前記第2の位置とを比較することにより、前記空間の中で、対象物体の配置の状態が変化した変化領域を検出する変化領域検出工程とを備える。
また、別の側面の本発明に係る情報処理方法は、例えば、投影手段に、明部の領域と暗部の領域とを含む複数のパターンを、複数の対象物体が配置された空間に順次投影させる第1の投影制御工程と、前記複数のパターンを順次投影している際に、撮像手段に前記空間を順次撮像させることにより、複数の画像を取得する第1の画像取得工程と、前記第1の画像取得手段により取得された複数の画像に基づいて、前記複数の対象物体のうち、保持手段が保持可能な物体を決定する決定工程と、前記決定された物体を前記保持手段に保持させるように、前記保持手段を制御する制御工程と、前記保持手段による保持の後に、前記第1のパターンを前記投影手段に投影させる第2の投影制御工程と、前記第1のパターンが投影された状態で複数の対象物体を撮像した画像を取得する第2の画像取得工程と、前記第1の画像取得手段で取得された複数の画像のうち、前記第1のパターンに対応する画像以外の画像と、前記第2の画像とに基づいて、前記空間の中で、対象物体の配置の状態が変化した変化領域を検出する変化領域検出工程とを備える。
本発明によれば、ワークの位置・姿勢の高さ方向の変化も検出することが可能となる。
本発明の形状計測装置を示した図である。 本発明の制御方法を示した図である。 4ビットの空間符号化パターンを示す図である。 4ビットのグレイコードと空間符号の値を示す図である。 第1の実施形態における第二の距離データの算出方法を示す図である。 画像輝度波形の計測線位置について示す図である。 第1の実施形態における変化検出方法を示す図である。 S103において算出された計測線位置情報の例を示す図である。 S108において算出された計測線位置情報の例を示す図である。 変化領域の情報を基にピッキング可能なワーク有無を判定する処理の例を示す図である。 変化領域の情報を基にピッキング可能なワーク有無を判定する処理の例を示す図である。 マルチスリット光投影法における計測線位置を示す図である。 マルチスリット光投影法における投影パターン光の一例を示す図である。 第2の実施形態における第二の距離データの算出方法を示す図である。 第2の実施形態における変化検出方法を示す図である。 第3の実施形態における第二の距離データの算出方法を示す図である。 第3の実施形態における変化検出方法を示す図である。 S103とS108で使用する画像データの違いを説明する図である。 本発明の情報処理装置のハードウェア構成の例を示す図である。
(第1の実施形態)
本発明の情報処理装置の第1の実施形態について説明する。図1は本発明の情報処理装置7を用いたシステムの例である。
本発明の情報処理装置は、前回のサイクルでのピッキング時に取得された距離データを用いて、距離データの取得にかかる時間を短縮する。具体的には、前回のサイクルで、複数のパターンを投影して第2の距離データを取得し、記憶しておく。そして、今回のサイクルでは、前回よりも少ない数のパターンを投影することにより第三の距離データを取得し、第二の距離データと第三の距離データとを比較することにより変化領域を精度よく検出する。第1の実施形態では、距離データとして、パターンの明暗の境界位置が記録されたデータを用いる。
第1の実施形態の情報処理装置7は、投影部11と撮像部12と、ワーク(対象物体)をピッキングする際の動作を制御するロボット制御部8とに接続される。
投影部11は、光束を射出する光源1と、被検物に投影する格子のパターンを生成し、パターンを変調することが可能なパターン生成部2と、複数のワークが無秩序に山積みされて配置された空間にパターン光を照射する投影レンズ3a、3bとを備える。
光源1は、光束を射出する光源であり、例えばLED等が使用される。光源1は、パターン生成部2を照明する。
パターン生成部2は、明部と暗部とが周期的に並ぶ格子のパターンを生成する。例えばパターン生成部2は、遮光部と非遮光部が規則的に並んだマスクパターンを用いても良いが、液晶素子、デジタルミラーデバイス(DMD)などを用いることにより、モノクロパターン、正弦波状パターンなど任意のパターンを生成可能である。パターン生成部2を透過した格子パターンを有する光束は投影レンズ3a、3bへ入射される。投影レンズ3bにより射出された光束は、被検物4に照射され、パターン生成部2のパターンが投影される。
撮像部12は、ワーク4より反射されたパターン光を集光する集光レンズ5a、5bと、ワーク4から拡散・反射された光束の強度を取得する撮像素子6とからなる。ワーク4にて反射及び拡散されたパターン光束は、結像レンズ5a、5bに入射し、撮像素子6上にワーク4に照射されたパターン光の像を結像する。結像されたパターン光の像の光強度をCCDやCMOSセンサなどの撮像素子6によって検出する。
ロボット制御部8は、制御解析部7からワークの位置・姿勢情報を受信し、位置姿勢が認識されたワークをピッキングするようにロボット9を制御する。
ロボット9は、ロボット制御部8からの制御情報に基づいて、ワークのピッキングを行う。
情報処理装置7は、以下の構成を備える。
投影制御部7aは、光源1の発光やパターン生成部2にて投影するパターンを変更しながら投影部11による投影を制御する。
撮影制御部7bは、撮像素子の露光時間等の変更や画像撮影を行い、撮像部12による撮像を制御する。
記憶部7cは、撮影した画像や距離演算の結果を記憶する。
距離算出部7dは、記憶した画像からワークまでの距離を算出する。
ワーク認識部7eは、計測された第一の距離データと、記憶部7cに予め保存されたワーク4の形状データから、ワーク認識を行う。具体的には、ワーク認識部7eは、ロボット9がピッキング可能なワークの位置・姿勢を算出し、位置・姿勢情報を記憶部7cに保存すると共に、通信部7fからロボット制御部8に送信する。
通信部7fは、認識したワークの位置・姿勢情報をロボット制御部8に送信する。
情報処理装置7を構成する各機能部は、CPU1910が、ROM1920に格納されたプログラムをRAM1930に展開し、後述する各フローチャートに従った処理を実行することで実現されている。また例えば、CPU1910を用いたソフトウェア処理の代替としてハードウェアを構成する場合には、ここで説明する各機能部の処理に対応させた演算部や回路を構成すればよい。
ロボット制御部8は、受信した把持可能なワークの位置・姿勢情報を基にワーク4を把持可能なハンドを有するロボット9をバラ積みされたワーク4をピッキングするように操作する。
ロボット9は、ワーク4を把持(保持)可能なロボットハンドを備えており、ロボット制御部8で制御されバラ積みされたワーク4をピッキングする。本実施形態においてロボット9は多関節ロボットであるが、これに限定されずワーク4をピッキングし、別の場所に移動させられる限りどのような形態のロボットであってもよい。なお、ロボットハンドとしては、ワーク形状に応じて把持に適したものを利用すればよい。たとえば二指や三指の開閉ハンドを用いても、吸着式のハンドを用いてもよい。
図2を参照して、第1の実施形態の処理フローチャートを説明する。
本実施形態は、バラ積みされた複数のワークを順次ロボットによりピッキングする例について説明する。S101〜S106は、1周期のピッキングのサイクルを示し(すなわち、あるワークをピックするまでのプロセスである)、S107〜S109はその次の周期のピッキングのサイクル(すなわち、次のワークをピッキングするプロセスである)を示す。
まずS101にて、投影部1は、第一の距離データ取得用のパターン光をバラ積みワーク上に投影する。そして投影部1によりパターン光が投影されている間に、撮像部2は、ワークがバラ積みされたシーンの撮影を行うことで、第一の距離データ取得に必要なパターン光強度画像を取得する。すなわち、パターン光強度画像とは、あるパターンが投影された状態のワークを撮像した画像である。この時、例えば空間符号化パターン投影法で第一の距離データを取得する場合、投影するパターンは図3(a)〜(j)に示すような複数のパターンを順次投影する。そして、撮像部2は、パターンが投影されるごとに順次撮像する(画像取得)。この例では4ビットの空間符号化パターン投影法のグレイコードパターンであるため、プロジェクタからの出射光を2(=16)分割することができる。ビット数を増加させると投影枚数は増加するが、出射光の分割数を増加させることができる。例えば10ビットの場合には、210(=1024)分割することが可能となり、シーンをより細かく分割でき、詳細な形状を計測することができる。本実施形態では、上記のように複数のパターンを順に投影するため、取得されるパターン光強度画像も複数である。
次にS102において、距離算出部7dは、S101にて取得した複数のパターン光強度画像から第一の距離データを算出する。第一の距離データを取得する方法として空間符号化パターン投影法を用いた場合の説明を行う。
空間符号化パターン投影法では各ビットに対応するパターン光強度画像の輝度情報から明暗判定を行い、撮影範囲の所定の領域毎に空間符号を付与する。例えば1ビット目の画像において明暗判定を行うには、図3(b)のポジティブパターンに対するパターン光強度画像と図3(g)のネガティブパターン画像に対するパターン光強度画像で、対応する同一画素において、画像輝度値の比較を行う。そして、ポジティブパターンに対するパターン光強度画像の輝度が明るい場合を1、ポジティブパターンに対するパターン光強度画像の輝度が暗い場合を0と判定することで符号を付与する。これを各ビットのパターン光強度画像に対して行い、4ビットまで行ったとすると図4に示すように空間符号を付与することができる。そして付与した空間符号と、投影部11と撮像部12との間の幾何関係からワークの形状を算出する。
次にS103にて、距離算出部7dは、S101で取得したパターン光強度画像から第二の距離データの算出を行う。本実施形態における第二の距離データは、図3(e)(j)の4ビットパターンのポジティブパターンとネガティブパターンのみに対するパターン光強度画像から得られる。
第二の距離データの算出方法を図5に示す。まずS103−1にて、S101にて投影したパターン光における最も高精細なパターン光(4ビットパターンのポジティブパターンとネガティブパターン)に対するパターン光強度画像から計測線位置を算出する。ここで計測線位置とは、パターン光強度画像における、パターンの明部領域と暗部領域との境界位置のことをいう。
例えば、S101の第一の距離データ取得用のパターン投影と撮影において、図3(a)〜(j)の4ビットパターンを用いた場合、図3(e)の4ビットポジティブパターンと図3(j)の4ビットネガティブパターンに対するパターン光強度画像から、計測線位置として画像輝度波形の交点位置を算出する。画像輝度波形の交点位置について図6に示す。投影した最下位ビット画像において、ポジティブパターンの画素Xnの輝度値をP、画素Xn+1の輝度をP、ネガティブパターンの画素Xnの輝度値をN、画素Xn+1の輝度をNとすると、画像輝度波形の交点位置Xn’は、PとPを結んだ直線とNとNを結んだ直線の交点であり、以下の式で表わすことができる。
Figure 2016186469
ポジティブパターンとネガティブパターンの画像輝度波形の交点位置Xn’を算出することにより、ワークの高さによる投影パターンのずれ量を1画素以下の精度で検出する事ができ、精度良くワークの形状を計測する事が出来る。画像全体の明パターンと暗パターンの境界部において、この画像輝度波形の交点位置を算出することで、撮影領域全体における計測線位置を計測する。
なお、本実施形態では、第1の距離データとは別に第2の距離データを取得するように説明をしたが、第2の距離データは、第1の距離データを算出する際に得ても良い。すなわち、第2の距離データは、ステップS102において、4ビットのパターン光強度画像に対して符号を割り当てる際に得てもよい。
そして、距離算出部7dは、S103−1で画像全体にわたって算出した、計測線位置データを記憶部7cに記憶させる。
次にS104にて、ワーク認識部7eは、S102で算出したバラ積みワークの第一の距離データと、予め記憶部に保存されたCADデータ等のワークの形状データを用いて、マッチング処理等を行いバラ積みされた複数のワークの位置・姿勢を算出する(複数決定)。
次にS105にて、ワーク認識部7eは、S104にて認識した複数のワークの位置・姿勢情報とS102にて算出したバラ積みワークの第一の距離データと、予め記憶部に保存されたロボットハンドの形状データを用いて、ロボットがピッキング可能なワークの有無を判定する。
具体的には、位置・姿勢を認識したワーク(以下ピッキング候補ワーク)のデータ領域、周辺の形状データ、ロボットハンドの形状データから、ピッキング候補ワークをピッキングする際のロボットハンドが周辺のワークや設置物と干渉があるかを判定する。干渉がなければ、そのピッキング候補ワークは、ピッキング可能なワークと判定する。そして、ピッキング候補ワークの中からロボットがピッキング可能なワークの位置・姿勢を抽出する。そして、ロボットがピッキング可能なワークが存在した場合、ワーク認識部7eは、そのワークの位置姿勢データを、通信部7fに送出する。そして、通信部7fは、ロボット制御部8にピッキング可能なワークの位置・姿勢のうち1つを送信し、S105に進む。複数のワークがピッキング可能と判定された場合には、もっとも周辺とのワークや設置物との距離が起こりにくいワークを選べばよい。ロボットがピッキング可能なワークが存在しなかった場合はS101に戻る。この時、バラ積みワークをかき回す等のバラ積み状態を変化させる動作を行っても良い。
次にS106にて、ロボット制御部8は、S105にて通信部7fから送信された、ロボットがピッキング可能なワークの位置・姿勢情報を基にロボットを制御し、ワークのピッキングを行う。
次にS107にて、投影部11は、第三の距離データ取得の為のパターン画像をワークがバラ積みされたシーンに投影し、撮像部12は、撮影を行う。S101で投影するパターン光の中で最も高精細なパターン光を投影することにより第三の距離データを取得する。例えばS101で図3(a)〜(j)のパターンを投影していた場合、図3(e)の4ビットポジティブパターンと図3(j)の4ビットネガティブパターンのみをバラ積みワークに投影しパターン光強度画像の撮影を行う。S101の第一の距離データ取得用パターン投影・撮影では、10枚のパターン画像を投影・撮影するのに対し、本工程では図3(e)の4ビットポジティブパターンと図3(j)の4ビットネガティブパターンの2枚のみ投影・撮影するだけで良く、S101と比較して1/5の時間でパターン投影・撮影を完了することができる。
次にS108にて、距離算出部7dは、S107にて取得した第三の距離データ取得用のパターン光強度画像から、S103と同様に、つまりS103と同様の処理を行って第三の距離データを算出する。すなわち、計測線位置を求める。
次にS109にて、ワーク認識部7eは、S103で算出した第二の距離データとS108にて算出した第三の距離データから、バラ積みワーク内におけるS106のピッキング前後の変化を検出する。本実施形態にピッキング前後におけるバラ積みワーク内の変化の検出方法を図7に示す。第二の距離データに対して、始点から1データずつ計測線位置データの有無を判定し、計測線位置データが存在する場合、第二の距離データと第三の距離データ内の交点位置の比較を行い、変化領域を検出する。まずS109−1にて、S103にて算出した第二の距離データの各画素において、計測線位置データがあるかどうかを判定する。例えば図8に示すように、第二の距離データの位置(X0,Y0)において計測線位置データが存在しない場合、S109−6に進み、位置(X0,Y0)には変化領域がないと判定する。次のデータに移動し、位置(X1,Y0)において画像輝度波形の交点位置情報が存在する場合、S109−2に進む。
次にS109−2にて、距離算出部7dは、S106にて算出された第三の距離データにおいて位置(X1,Y0)から最近傍の計測線位置データを探索する。探索は例えば第二の距離データにおいて計測線が存在する位置(X1,Y0)を始点に左右交互に1画素ずつ探索し、最近傍の計測線位置を決定する。図9に示すように第三の距離データの位置(X1,Y0)を始点としてラスタスキャンを行う。図9においては位置(X2,Y0)の交点位置情報が最近傍の計測線位置データとなる。
次にS109−3にて、距離算出部7dは、第二の距離データの位置(X1,Y0)における計測線位置データと、第三の距離データの位置(X1,Y0)の最近傍の計測線位置データの差分を算出する。図8の位置(X1,Y0)における計測線位置データP1と、それに対応する図9の位置(X2,Y0)における計測線位置データP2との差分値Δを算出する。
次にS109−4にて、距離算出部7dは、S109−3にて算出した計測線位置の差分値Δが予め設定された閾値未満かどうかを判定する。計測線位置の差分値Δが閾値より大きい場合、S109−5に進み第二の距離データ内の位置((X1,Y0))はピッキング前後で変化したとして判定される。一方、計測線位置データの差分値が閾値未満だった場合、S109−6に進み第二の距離データ内の位置((X1,Y0))はピッキング前後で変化がなかったとして判定される。以上のS109−1からS109−6までを第二の距離データ内の全てのデータに対して行うことにより、バラ積みワーク領域におけるS106のピッキング前後の変化領域を検出することができる。なお本工程における閾値はワークのピッキングによって発生する距離の変化のみを変化とみなすように設定することが望ましい。つまり撮像素子のノイズ等で発生する画像輝度値の変化による計測線位置の変化等は、変化として検出せず、ワークがピッキングされたことにより発生する計測線位置の変化を変化として検出するように設定する。例えばバラ積みされているワークの外接直方体の各辺の最小値以上で且つ第二の距離データにおいて撮像素子のノイズ等で発生する計測線位置誤差よりも大きな値を閾値に設定する。
そして再度S105に戻り、ワーク認識部7eは、S105で抽出されたピッキング可能なワークの位置・姿勢と、S109にて算出されたピッキング前後の変化領域の情報を基にピッキング可能(保持可能)なワーク有無を判定する。図10に示すように、ピッキング前後で変化がない領域にピッキング可能なワークが存在しない場合、S101に戻り各工程を繰り返す。この時バラ積みワークの状態を変化させる等の動作を行ってからS101に戻っても良い。
一方、図11に示すようにピッキング前後で変化がない領域にピッキング可能なワークが存在していた場合、S101に戻らず、ピッキング前のS105で抽出されたピッキング可能なワークの位置・姿勢情報をロボット制御部に送信し、再度ピッキングを行う。例えば図11(c)において、太線で表示されているワークのいずれか一方のワークの位置・姿勢をロボット制御部8に送信する。これにより、S107、S108に対して長い処理時間を要するS101、S102の回数を減らすことができ、ピッキングサイクルの短時間化が可能となる。また本発明では、特許文献1の方法に対して、高さ情報の変化を検出している為、バラ積み内においてワークが撮影面内の同じ位置に同じ姿勢で、高さ方向に積まれているような場合でも、ピッキングミスをすることがなくなり、ピッキングサイクルを短時間化することが可能となる。
また本実施形態では、第三距離データ取得において第一の距離データを算出する為に投影するパターン光の中で最も高精細なパターン光のポジティブ・ネガティブの2枚のパターン光強度画像を取得したが、ポジティブ・ネガティブのどちらか一方のパターン光強度画像だけでもよい。例えば第三の距離データ取得の為に、最も高精細なポジティブパターン光強度画像のみ取得した場合、第三の距離データは新たに投影したポジティブパターン光強度画像と第二の距離データを算出する為に用いたネガティブパターン光強度画像から算出してもよい。また逆にネガティブパターン光強度画像を取得した場合、第二の距離データを算出する為に用いたポジティブパターン光強度画像を用いて第三の距離データを算出してもよい。これにより投影するパターン光の枚数をさらに削減した上で、同様の効果を得ることが可能となる。さらに本発明を適用できる計測方法は、この方法に限られない。例えば、図12に示すように画像輝度値のピーク位置が計測線位置に相当するようなマルチスリット光投影法にも利用できる。マルチスリット光投影法では第一の距離データの取得に図13の(a)〜(g)のパターン画像を投影する。図13(g)のパターンが計測線を計算するためのパターン画像であり、図13(a)〜図13(f)までのパターンは図13(g)の各計測線が何本目の計測線であるかを特定するのに使用される空間符号化パターン画像である。図13(a)〜図13(f)は4ビットの空間符号化パターン画像であるため、16本の計測線を特定することができる。
ピッキング後の変化領域を検出するときには、S107にて計測線位置を算出するのに必要な図13(g)のみを投影する。そして、第一の距離データ計測時の計測線位置と、変化領域検出時の計測線位置とを用いて、計測線位置の位置ずれ量を算出する。この位置ずれ量が大きい箇所を変化領域として検出することにより本発明を実施することができる。
(第2の実施形態)
本実施形態では、変化領域の検出のために空間符号の値を用いる。第一の距離データ取得時と、変化領域の検出時とで、それぞれ空間符号の値を計算し、比較を行う。空間符号の値を求めるためには、通常全てのビットのパターン光画像が必要となるので、普通に撮影をすると、第一の距離データを取得するためのパターンの数だけ投影・撮影する必要があるため撮影時間を短縮することはできない。そこで、本実施形態では、変化領域検出時に特定のビットの画像のみを撮影する。そして、特定のビットの画像以外は第一の距離データ取得時の画像を用いて空間符号の値を算出する。これにより、撮影時間の短縮と変化領域の検出を可能とする。
本実施形態の装置構成は第1の実施形態の装置構成を示した図1と同様である。
本実施形態の制御方法は、第1の実施形態の制御方法を示した図2と同様である。S103の第二の距離データ計算処理と、S106の第二の距離データ取得用パターン投影・撮像、S107の第二の距離データ計算処理、S108の変化領域検出処理の4つが異なる。
以下、第2の実施形態の処理方法について詳細に説明する。
S101とS102は第1の実施形態と同様の内容であるため、説明を割愛する。
S103にて、S101で取得したパターン光強度画像から第二の距離データの算出を行う。S103で算出した第二の距離データを、第二の距離データ’と称する。
本実施形態では、第二の距離データ’として、各カメラ画像座標に対応する空間符号の値を2次元マップ化した空間符号マップを用いる。すなわち、S103では、空間符号の算出処理を行う。その処理方法について図14を用いて説明する。
S103−1’では、制御変数iを1に設定し、S103−2’に進む。
S103−2’では、iビット目の2値化判定処理を行う。iビット目の各画素で、ポジティブ画像とネガティブ画像の画像輝度値の大小判定を行う。ポジティブ画像の画像輝度値が、ネガティブ画像の画像輝度値以上の場合、その画素を「1」とする。逆に、ポジティブ画像の画像輝度値がネガティブ画像の画像輝度値未満の場合、その画素を「0」とする。iビット目の画像の全画素で2値化判定処理が終了すると、S103−3’に進む。
S103−3’では、制御変数iがNに未満であるかの判定を行う。Nは空間符号化のビット数である。図3の投影パターンを用いるので、Nは4である。判定が「yes」の場合、S103−4’に進む。S103−4’では、制御変数iに1を加算する。判定が「no」の場合、1〜4ビットの全てのビットで、2値化判定が終了したことになるので、S103−5’に進む。
S103−5’では、4ビットのグレイコード生成処理を行う。図4で示したように各画素で、1ビットから4ビットまでの2値のコードを結合させることで、各画素のグレイコードが生成される。
S103−6’では、4ビットのグレイコードを4ビットの空間符号値に変換処理する。
S103−7’では、S103−6’で画像全体に渡って、空間符号値を算出した結果を空間符号マップとして記憶部7cに保存する。
以上が、S103の処理フローの説明である。
S104、S105、S105は第1の実施形態と同様の内容であるため、説明を割愛するが、ワーク認識部7eが行うワーク認識処理により、ピッキング可能なワークが認識され、そのワークがロボットによりピッキングされる。
S107では、第二の距離データ取得のためのパターン光画像をワークに投影し、撮影を行う。本実施形態では、パターンの細かさが2番目に細かいパターンである図3(d)の3ビットポジティブパターン光画像、図3(i)の3ビットネガティブパターン光画像の2種類を投影する。本実施形態では、パターンの細かさが2番目に細かいパターンを用いる例を説明するが、用いることができるパターンはこれに限られるものではない。検出したい変化領域の大きさと検出感度に応じて、他の細かさのパターンを用いてもよい。
S108では、S106で取得したパターン光強度画像と、S101で取得したパターン光強度画像から第二の距離データの算出を行う。S108で算出した第二の距離データを、第三の距離データ’と称する。
S108の第二の距離データ計算処理の内容は、図14で説明したS103と同一であり、パターン光強度画像を用いて空間符号値の算出を行う。ただし、計算に用いるパターン光強度画像の取得のタイミングが一部異なる。
図18に示すように、S103では、全パターン光強度画像がピッキング前のS101のときに撮影されたものである。S108では、3ビットの画像以外はピッキング前のS101のときに撮影された画像を用いるが、3ビットの画像はピッキング後のS107のときに撮影された画像を用いる。このように特定のビットの画像のみ、撮影されるタイミングが異なる場合、S101で撮影されたバラ積みワークの状態と、S107で撮影されたバラ積みワークの状態とに変化がある場合、変化がある領域だけ、算出される空間符号の値に差が生じる。この空間符号値の差をS109では変化領域を検出する手掛かりとして利用する。
S109では、S103で生成した第二の距離データ’と、S108で生成した第三の距離データ’から、ピッキング前後のバラ積みワークの変化を検出する。本実施形態における変化の検出方法について図15に示す。
S109−1’では、S103にて算出した第二の距離データ’(空間符号マップ)の位置(x,y)における空間符号の値Dbを取得する。
S109−2’では、S108にて算出した第三の距離データ’(空間符号マップ)の位置(x,y)における空間符号の値Dcを取得する。
S109−3’では、S109−1’で取得したDbと、S109−2’で取得したDcとの差分の絶対値を計算し、それを位置(x,y)における差分値とする。
S109−4’では、差分値が閾値よりも大きいかの判定を行う。差分値が閾値よりも大きい場合、S109−5’に進む。S109−5’では、位置(x,y)を変化領域とする。差分値が閾値よりも小さい場合、S109−6’に進む。S109−6’では、位置(x,y)を非変化領域とする。なお本工程における閾値は、検出したい変化領域の大きさと検出感度により決定した、S107で投影したパターン光が変化することにより発生する空間符号の変化以上に設定することが望ましい。例えばS107で投影したパターン光が変化することにより発生する空間符号の変化以上で且つ第二の距離データにおいて撮像素子のノイズ等で発生する空間符号の誤差よりも大きな値に設定する。
S109−1’〜S109−6’までの工程を空間符号マップの全画素に対して実施することで、画像の全範囲の変化の有無が判定できる。
S109における変化領域の検出が終了すると、S105に戻り、ピッキング可能なワークの有無の判定を行う。詳細は第1の実施形態において、図10、図11を用いて説明したので割愛する。
以上のように、本実施形態によれば、第1の実施形態に対して、撮影枚数が1枚増加するが、全画素で変化量を検出できるため、より精度良く変化を検出することができる。
(第3の実施形態)
本実施形態では、変化領域の検出のための第二の距離データとして、周期性を有する投影パターン光の位相の情報を用いる。第一の距離データ取得時と、変化領域の検出時とで、それぞれ位相の情報を計算し、比較する。位相の情報を求めるためには、少なくとも3枚のパターン投影を必要とする。3枚というパターン画像数は、第1の実施形態と第2の実施形態に比べると1枚多いが、第一の距離データの計測に必要となるパターン光画像数と比較すると少ない。そのため、第一の距離データを毎回取得するのに比べると撮影時間を短縮できるため、タクトタイム短縮も実現できる。本実施形態の場合、パターンの明部と暗部の境界位置を求める第1の実施形態に対して、撮影枚数が1枚増加するが、全画素で変化量を検出できるのでその点は有意性がある。
本実施形態の装置構成は第1の実施形態の装置構成を示した図1と同様である。
本実施形態の制御方法は、第1の実施形態の制御方法を示した図2と同様である。S103の第二の距離データ計算処理と、S106の第二の距離データ取得用パターン投影・撮像、S107の第二の距離データ計算処理、S108の変化領域検出処理の4つが異なる。
制御方法について、順に説明する。
S101とS102は第1の実施形態と同様の内容であるため、説明を割愛する。
S103にて、S101で取得したパターン光強度画像から第二の距離データの算出を行う。第二の距離データの算出に用いるのは、図3(e)の4ビットポジティブパターン画像、図4(j)の4ビットネガティブパターン画像、図3(a)の全点灯パターン画像の3種類である。工程S103で算出した第二の距離データを、第二の距離データ’’と称する。
本実施形態では、第二の距離データとして、周期性を有する投影パターン光の位相の情報を用いる。すなわち、S103では、位相情報の算出処理を行う。その算出処理について図16を用いて説明する。
S103−1’’では、4ビットのポジティブパターン画像とネガティブパターン画像の差分画像を生成する。
続いて、S103−2’’では、S103−1’’で生成した差分画像を全点灯パターン画像で正規化する。具体的には、差分画像の画像輝度値を全点灯画像の画像輝度値で割り算する。差分画像の時点では、計測対象物の反射率の大小によって、波形の振幅が増減する。これを計測対象物の反射率を表わす全点灯画像の画像輝度値で割り算することで、対象物の反射率の寄与分が削除され、波形の位相の情報のみが抽出される。
S103−3’’では、S103−2’で生成した正規化画像を位相情報として、記憶部に保存する。
以上が、S103の算出処理の説明である。
S104、S105、S105は第1の実施形態と同様の内容であるため、説明を割愛するが、ワーク認識処理により、ピッキング可能なワークが認識され、そのワークがロボットによりピッキングされる。
S107では、第二の距離データ取得のためのパターン画像をワークに投影し、撮影を行う。本実施形態では、103で使用した画像と同一種類の3種類のパターン画像を投影撮像する。
S108では、S107で取得したパターン光強度画像から第二の距離データの算出を行う。S108で算出した第二の距離データを、第三の距離データ’’と称する。S108の第二の距離データ計算処理の内容は、図14で説明したS103と同一であり、パターン光強度画像を用いて位相情報の算出を行う。
S109では、S103で生成した第二の距離データ’’と、S108で生成した第三の距離データ’’から、ピッキング前後のバラ積みワークの変化を検出する。位相情報は、対象物の高さが変化するとそれに応じて変化する。すなわち、ピッキング前後でバラ積み状態が変化し、高さが変化した場合には、位相情報が変化する。位相情報を同一画素で差分演算することで、高さの変化、すなわち、ワークのバラ積み状態の変化を検出できる。本実施形態における変化の検出方法について図17に示す。
S109−1’’では、S103にて算出した第二の距離データ’’(位相情報)の位置(x、y)における位相の値Pbを取得する。
S109−2’’では、S108にて算出した第三の距離データ’’(位相情報)の位置(x、y)における位相の値Pcを取得する。
S109−3’’では、S109−1’’で取得したPbと、S109−2’’で取得したPcとの差分の絶対値を計算し、それを位置(x,y)における差分値とする。
S109−4’’では、差分値が閾値よりも大きいかの判定を行う。差分値が閾値よりも大きい場合、S109−5’’に進む。S109−5’’では、位置(x,y)を変化領域とする。差分値が閾値よりも小さい場合、S109−6’’に進む。S109−6’’では、位置(x,y)を非変化領域とする。なお本工程における閾値はワークのピッキングによって発生する位相の変化のみを変化とみなすように設定することが望ましい。つまり撮像素子のノイズ等で発生する画像輝度値の変化による位相の変化等は、変化として検出せず、ワークがピッキングされたことにより発生する位相の変化を変化として検出するように設定する。例えばバラ積みされているワークの外接直方体の各辺の最小値における位相変化量以上で且つ第二の距離データにおいて撮像素子のノイズ等で発生する位相誤差よりも大きな値を閾値に設定する。
S109−1’’〜S109−6’’までの工程を位相情報の全画素に対して実施することで、画像の全範囲の変化の有無が判定できる。
S109における変化領域の検出が終了すると、S105に戻り、ピッキング可能なワークの有無の判定を行う。詳細は第1の実施形態において、図10、図11を用いて説明したので、割愛する。
以上のように、本実施形態によれば、第1の実施形態に対して、撮影枚数が1枚増加するが、全画素で変化量を検出できるため、より精度良く変化を検出することができる。
(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。
即ち、上述した各実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行する処理である。
このプログラム及び当該プログラムを記憶したコンピュータ読み取り可能な記憶媒体は、本発明に含まれる。

Claims (14)

  1. 投影手段に、明部の領域と暗部の領域とを含む複数のパターンを、複数の対象物体が配置された空間に順次投影させる第1の投影制御工程と、
    前記複数のパターンを順次投影している際に、撮像手段に前記空間を順次撮像させることにより、複数の画像を取得する第1の画像取得工程と、
    前記第1の画像取得工程において取得された前記複数の画像のうち、前記複数のパターンのうちの第1のパターンが投影された複数の前記対象物体を撮影して取得された第1の画像における、前記第1のパターンの明部の領域と暗部の領域の境界位置に対応する第1の位置を検出する第1の検出工程と、
    前記取得された複数の画像に基づいて、前記複数の対象物体のうち、保持手段が保持可能な物体を決定する決定工程と、
    前記決定された物体を前記保持手段に保持させるように、前記保持手段を制御する制御工程と、
    前記保持手段による保持の後に、前記第1のパターンを前記投影手段に投影させる第2の投影制御工程と、
    前記保持手段による保持の後に前記第1のパターンが投影された状態で、前記空間を撮像した画像を取得する第2の画像取得工程と、
    前記第2の画像において、前記第1のパターンの明部の領域と暗部の領域の境界位置に対応する第2の位置を検出する第2の検出工程と、
    前記第1の位置と前記第2の位置とを比較することにより、前記空間の中で、対象物体の配置の状態が変化した変化領域を検出する変化領域検出工程とを備えることを特徴とする情報処理方法。
  2. 前記変化領域検出工程では、前記第1の位置と前記第2の位置との差分値が閾値よりも大きい場合に、前記第2の画像における前記第2の位置を含む領域を、前記変化領域として検出することを特徴とする請求項1に記載の情報処理方法。
  3. 投影手段に、明部の領域と暗部の領域とを含む複数のパターンを、複数の対象物体が配置された空間に順次投影させる第1の投影制御工程と、
    前記複数のパターンを順次投影している際に、撮像手段に前記空間を順次撮像させることにより、複数の画像を取得する第1の画像取得工程と、
    前記第1の画像取得手段により取得された複数の画像に基づいて、前記複数の対象物体のうち、保持手段が保持可能な物体を決定する決定工程と、
    前記決定された物体を前記保持手段に保持させるように、前記保持手段を制御する制御工程と、
    前記保持手段による保持の後に、前記第1のパターンを前記投影手段に投影させる第2の投影制御工程と、
    前記第1のパターンが投影された状態で複数の対象物体を撮像した画像を取得する第2の画像取得工程と、
    前記第1の画像取得手段で取得された複数の画像のうち、前記第1のパターンに対応する画像以外の画像と、前記第2の画像とに基づいて、前記空間の中で、対象物体の配置の状態が変化した変化領域を検出する変化領域検出工程とを備えることを特徴とする情報処理方法。
  4. 前記決定工程では、前記複数の画像に基づいて第1の空間符号値を決定し、該決定された第1の空間符号値に基づいて前記保持可能な物体を決定し、
    前記変化領域検出工程では、前記第1の画像取得手段で取得された複数の画像のうち、前記第1のパターンに対応する画像以外の画像と、前記第2の画像とに基づいて第2の空間符号値を生成し、前記第1の空間符号値と前記第2の空間符号値とに基づいて、前記変化領域を検出することを特徴とする請求項3に記載の情報処理方法。
  5. 前記変化領域検出工程では、前記第1の空間符号値と前記第2の空間符号値とを所定の領域毎に比較し、前記第1の空間符号値と前記第2の空間符号値との差分値が閾値よりも大きい領域を、前記変化領域として検出することを特徴とする請求項4に記載の情報処理方法。
  6. 前記決定工程では、前記複数の画像に基づいて第1の位相情報を決定し、該決定された第1の位相情報に基づいて前記保持可能な物体を決定し、
    前記変化領域検出工程では、前記第1の画像取得手段で取得された複数の画像のうち、前記第1のパターンに対応する画像以外の画像と、前記第2の画像とに基づいて第2の位相情報を生成し、前記第1の位相情報と前記第2の位相情報とに基づいて、前記変化領域を検出することを特徴とする請求項3に記載の情報処理方法。
  7. 前記変化領域検出工程では、前記第1の位相情報と前記第2の位相情報とを所定の領域毎に比較し、前記第1の位相情報と前記第2の位相情報との差分値が閾値よりも大きい領域を、前記変化領域として検出することを特徴とする請求項6に記載の情報処理方法。
  8. 前記第1のパターンは、前記複数のパターンのうち、もっとも明部の領域と暗部の領域の幅の少なくともいずれか一方が最も小さい幅をもつパターンであることを特徴とする請求項1乃至7のいずれか1項に記載の情報処理方法。
  9. 前記決定工程では、前記取得された複数の画像に基づいて、前記複数の対象物体のうち、保持手段が保持可能な物体を複数決定し、
    前記制御工程では、前記決定された複数の保持可能な物体のうちのひとつを前記保持手段に保持させ、
    更に、前記保持手段に保持された物体を除いた、前記複数の保持可能な物体のうち、前記検出された変化領域に属していない物体を、前記保持手段に保持させる第2の制御工程を備えることを特徴とする請求項1乃至8のいずれか1項に記載の情報処理方法。
  10. 前記複数の保持可能な物体のうち、前記検出された変化領域に属していない物体がない場合には、再度、前記第1の投影制御工程、前記第1の画像取得工程の処理を行うことを特徴とする請求項9に記載の情報処理方法。
  11. 前記複数の物体は、無秩序に配置されていることを特徴とする請求項1乃至10のいずれか1項に記載の情報処理方法。
  12. 投影手段に、明部の領域と暗部の領域とを含む複数のパターンを、複数の対象物体が配置された空間に順次投影させる第1の投影制御手段と、
    前記複数のパターンを順次投影している際に、撮像手段に前記空間を順次撮像させることにより、複数の画像を取得する第1の画像取得手段と、
    前記第1の画像取得手段により取得された前記複数の画像のうち、前記複数のパターンのうちの第1のパターンが投影された複数の前記対象物体を撮影して取得された第1の画像における、前記第1のパターンの明部の領域と暗部の領域の境界位置に対応する第1の位置を検出する第1の検出手段と、
    前記取得された複数の画像に基づいて、前記複数の対象物体のうち、保持手段が保持可能な物体を決定する決定手段と、
    前記決定された物体を前記保持手段に保持させるように、前記保持手段を制御する制御手段と、
    前記保持手段による保持の後に、前記第1のパターンを前記投影手段に投影させる第2の投影制御手段と、
    前記保持手段による保持の後に前記第1のパターンが投影された状態で、前記空間を撮像した画像を取得する第2の画像取得手段と、
    前記第2の画像において、前記第1のパターンの明部の領域と暗部の領域の境界位置に対応する第2の位置を検出する第2の検出手段と、
    前記第1の位置と前記第2の位置とを比較することにより、前記空間の中で、対象物体の配置の状態が変化した変化領域を検出する変化領域検出手段とを備えることを特徴とする情報処理装置。
  13. 投影手段に、明部の領域と暗部の領域とを含む複数のパターンを、複数の対象物体が配置された空間に順次投影させる投影制御手段と、
    前記複数のパターンを順次投影している際に、撮像手段に前記空間を順次撮像させることにより、複数の画像を取得する第1の画像取得手段と、
    前記第1の画像取得手段により取得された複数の画像に基づいて、前記複数の対象物体のうち、保持手段が保持可能な物体を決定する決定手段と、
    前記決定された物体を前記保持手段に保持させるように、前記保持手段を制御する制御手段と、
    前記保持手段による保持の後に、前記第1のパターンを前記投影手段に投影させる投影制御手段と、
    前記第1のパターンが投影された状態で複数の対象物体を撮像した画像を取得する第2の画像取得手段と、
    前記第1の画像取得手段で取得された複数の画像のうち、前記第1のパターンに対応する画像以外の画像と、前記第2の画像とに基づいて、前記空間の中で、対象物体の配置の状態が変化した変化領域を検出する変化領域検出手段とを備えることを特徴とする情報処理装置。
  14. コンピュータを、請求項1乃至11のいずれか1項に記載の情報処理方法の各工程として機能させるためのプログラム。
JP2015067067A 2015-03-27 2015-03-27 情報処理装置、情報処理方法、プログラム Active JP6548422B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015067067A JP6548422B2 (ja) 2015-03-27 2015-03-27 情報処理装置、情報処理方法、プログラム
US15/077,609 US10477160B2 (en) 2015-03-27 2016-03-22 Information processing apparatus, and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015067067A JP6548422B2 (ja) 2015-03-27 2015-03-27 情報処理装置、情報処理方法、プログラム

Publications (2)

Publication Number Publication Date
JP2016186469A true JP2016186469A (ja) 2016-10-27
JP6548422B2 JP6548422B2 (ja) 2019-07-24

Family

ID=56974762

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015067067A Active JP6548422B2 (ja) 2015-03-27 2015-03-27 情報処理装置、情報処理方法、プログラム

Country Status (2)

Country Link
US (1) US10477160B2 (ja)
JP (1) JP6548422B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018163242A1 (ja) * 2017-03-06 2018-09-13 株式会社Fuji 画像処理データ作成用のデータ構造および画像処理データ作成方法
JP2019198950A (ja) * 2018-05-18 2019-11-21 ファナック株式会社 バラ積みされたワークを取り出すロボットシステムおよびロボットシステムの制御方法
JP2019209459A (ja) * 2018-06-08 2019-12-12 ファナック株式会社 ロボットシステムおよびロボットシステムの制御方法
WO2023238215A1 (ja) * 2022-06-07 2023-12-14 川崎重工業株式会社 ロボットシステム、ピッキング方法およびコンピュータプログラム

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10245724B2 (en) * 2016-06-09 2019-04-02 Shmuel Ur Innovation Ltd. System, method and product for utilizing prediction models of an environment
JP2018034242A (ja) * 2016-08-31 2018-03-08 セイコーエプソン株式会社 ロボット制御装置、ロボット、及びロボットシステム
JP6438512B2 (ja) * 2017-03-13 2018-12-12 ファナック株式会社 機械学習により補正した計測データでワークの取り出しを行うロボットシステム、計測データ処理装置および計測データ処理方法
CN108068115B (zh) * 2017-12-30 2021-01-12 福建铂格智能科技股份公司 一种基于视觉反馈的并联机器人位置闭环校准算法
JP6823008B2 (ja) * 2018-05-18 2021-01-27 ファナック株式会社 バラ積みされたワークを取り出すロボットシステムおよびロボットシステムの制御方法
JP7057214B2 (ja) * 2018-05-18 2022-04-19 トヨタ自動車株式会社 把持装置、タグが付された容器、対象物把持プログラムおよび対象物把持方法
JP6904327B2 (ja) * 2018-11-30 2021-07-14 オムロン株式会社 制御装置、制御方法、及び制御プログラム
US11433545B2 (en) 2019-02-17 2022-09-06 Samsung Electronics Co., Ltd. Robotic vision
JP7007324B2 (ja) * 2019-04-25 2022-01-24 ファナック株式会社 画像処理装置、画像処理方法、及びロボットシステム
WO2021045350A1 (en) * 2019-09-03 2021-03-11 Samsung Electronics Co., Ltd. Robotic vision
DE102022130461B3 (de) * 2022-11-17 2024-01-25 Aumann AG Verfahren und Vorrichtung zum roboterbasierten Vereinzeln von Objekten aus einem Aufnahmebehälter

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090033655A1 (en) * 2007-08-02 2009-02-05 Boca Remus F System and method of three-dimensional pose estimation
JP2012125886A (ja) * 2010-12-15 2012-07-05 Canon Inc 物体把持装置、物体把持装置の制御方法、およびプログラム
JP2014202567A (ja) * 2013-04-03 2014-10-27 キヤノン株式会社 位置姿勢計測装置、位置姿勢計測装置の制御方法、およびプログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060280358A1 (en) * 2003-06-30 2006-12-14 Akio Ishikawa Pattern comparison inspection method and pattern comparison inspection device
JP5201411B2 (ja) 2008-11-21 2013-06-05 株式会社Ihi バラ積みピッキング装置とその制御方法
CN102472613B (zh) * 2009-07-29 2014-07-09 佳能株式会社 测量设备和测量方法
JP5576726B2 (ja) * 2010-06-29 2014-08-20 キヤノン株式会社 三次元計測装置、三次元計測方法、及びプログラム
US9007602B2 (en) * 2010-10-12 2015-04-14 Canon Kabushiki Kaisha Three-dimensional measurement apparatus, three-dimensional measurement method, and computer-readable medium storing control program
JP5854815B2 (ja) * 2011-12-20 2016-02-09 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、およびプログラム
JP6238521B2 (ja) * 2012-12-19 2017-11-29 キヤノン株式会社 3次元計測装置およびその制御方法
JP6104662B2 (ja) * 2013-03-25 2017-03-29 株式会社東芝 計測装置、方法及びプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090033655A1 (en) * 2007-08-02 2009-02-05 Boca Remus F System and method of three-dimensional pose estimation
JP2012125886A (ja) * 2010-12-15 2012-07-05 Canon Inc 物体把持装置、物体把持装置の制御方法、およびプログラム
JP2014202567A (ja) * 2013-04-03 2014-10-27 キヤノン株式会社 位置姿勢計測装置、位置姿勢計測装置の制御方法、およびプログラム

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018163242A1 (ja) * 2017-03-06 2018-09-13 株式会社Fuji 画像処理データ作成用のデータ構造および画像処理データ作成方法
JPWO2018163242A1 (ja) * 2017-03-06 2019-11-21 株式会社Fuji 画像処理データ作成用のデータ構造および画像処理データ作成方法
JP2019198950A (ja) * 2018-05-18 2019-11-21 ファナック株式会社 バラ積みされたワークを取り出すロボットシステムおよびロボットシステムの制御方法
US11027433B2 (en) 2018-05-18 2021-06-08 Fanuc Corporation Robot system and control method of robot system for taking out workpieces loaded in bulk
JP2019209459A (ja) * 2018-06-08 2019-12-12 ファナック株式会社 ロボットシステムおよびロボットシステムの制御方法
WO2023238215A1 (ja) * 2022-06-07 2023-12-14 川崎重工業株式会社 ロボットシステム、ピッキング方法およびコンピュータプログラム

Also Published As

Publication number Publication date
US20160279809A1 (en) 2016-09-29
US10477160B2 (en) 2019-11-12
JP6548422B2 (ja) 2019-07-24

Similar Documents

Publication Publication Date Title
JP6548422B2 (ja) 情報処理装置、情報処理方法、プログラム
KR101461068B1 (ko) 삼차원 계측장치, 삼차원 계측방법 및 기억매체
US20130127998A1 (en) Measurement apparatus, information processing apparatus, information processing method, and storage medium
US11667036B2 (en) Workpiece picking device and workpiece picking method
US20150276383A1 (en) Information processing apparatus, method for controlling information processing apparatus, gripping system, and storage medium
JP6420572B2 (ja) 計測装置およびその方法
JP6061616B2 (ja) 測定装置及びその制御方法、プログラム
JP2012215394A (ja) 三次元計測装置および三次元計測方法
US8761440B2 (en) Range image generation apparatus, position and orientation measurement apparatus, range image processing apparatus, method of controlling range image generation apparatus, and storage medium
JP2007206797A (ja) 画像処理方法および画像処理装置
CN107077729B (zh) 用于识别相机图像中的投影结构图案的结构元素的方法和设备
TWI672937B (zh) 三維影像處理之裝置及方法
RU2627914C1 (ru) Устройство вычисления собственной позиции и способ вычисления собственной позиции
JP2016091053A (ja) 情報処理装置および容器形状の推定方法、ワークピッキングシステム、プログラム
JP2016180708A (ja) 距離計測装置、距離計測方法、およびプログラム
US8970674B2 (en) Three-dimensional measurement apparatus, three-dimensional measurement method and storage medium
JP2016161351A (ja) 計測装置
TWI634515B (zh) 三維影像處理之裝置及方法
JP5482032B2 (ja) 距離計測装置および距離計測方法
US11226198B2 (en) Three-dimensional scanning system
US20180130230A1 (en) Recognition apparatus, determination method, and article manufacturing method
JP7424800B2 (ja) 制御装置、その制御方法、及び制御システム
JP5968370B2 (ja) 三次元計測装置、三次元計測方法、及びプログラム
EP3062516B1 (en) Parallax image generation system, picking system, parallax image generation method, and computer-readable recording medium
JP7164451B2 (ja) 三次元計測装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181023

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181024

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190329

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190528

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190625

R151 Written notification of patent or utility model registration

Ref document number: 6548422

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151