JP2015147256A - ロボット、ロボットシステム、制御装置、及び制御方法 - Google Patents

ロボット、ロボットシステム、制御装置、及び制御方法 Download PDF

Info

Publication number
JP2015147256A
JP2015147256A JP2014019827A JP2014019827A JP2015147256A JP 2015147256 A JP2015147256 A JP 2015147256A JP 2014019827 A JP2014019827 A JP 2014019827A JP 2014019827 A JP2014019827 A JP 2014019827A JP 2015147256 A JP2015147256 A JP 2015147256A
Authority
JP
Japan
Prior art keywords
region
image
robot
central axis
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014019827A
Other languages
English (en)
Inventor
智紀 原田
Tomonori Harada
智紀 原田
橋本 浩一
Koichi Hashimoto
浩一 橋本
翔悟 荒井
Shogo Arai
翔悟 荒井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2014019827A priority Critical patent/JP2015147256A/ja
Priority to US14/612,701 priority patent/US9764467B2/en
Priority to CN201510055571.XA priority patent/CN104816306A/zh
Publication of JP2015147256A publication Critical patent/JP2015147256A/ja
Priority to US15/680,625 priority patent/US10562182B2/en
Pending legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1612Programme controls characterised by the hand, wrist, grip control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39543Recognize object and plan hand shapes in grasping movements
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40053Pick 3-D object from pile of objects
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/46Sensing device
    • Y10S901/47Optical

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Manipulator (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

【課題】対象物の位置や姿勢の推定において、処理時間を低減し、検出精度を向上させる。
【解決手段】ハンドと、前記ハンドを動作させる制御部と、を含み、前記制御部は、撮像部が撮像した撮像画像を構成する画像の一部に対して三次元点群情報を生成し、前記ハンドに前記画像の一部に含まれる物体を把持させる。
【選択図】図2

Description

本発明は、ロボット、ロボットシステム、制御装置、及び制御方法に関する。
ロボットが行う作業には、乱雑に積まれた対象物を一つ一つ取り出し、他の物体に組み付けを行う動作がある。このような動作には、例えば、ピンピッキングがあり、産業上重要なものと考えられている。対象物を取り出す際、乱雑に積まれた対象物をロボットアームに治具や専用の装置を用いて把持させ、一定の位置や姿勢をとるように整列し直すことがある。しかし、対象物の形状・大きさによって個々に異なる専用の治具や専用の装置を取り付ける必要があるため、経済的、時間的なコストが増大してしまう。
このような問題を解消又は軽減するために、プロジェクターやレーザー光発生器等の光源を用いて対象物に光線を照射し、対象物からの反射光を処理することで対象物の三次元情報を取得することが試みられてきた。取得した三次元情報は、対象物の位置や姿勢を求める処理に用いられるが汎用的ではない。また、その処理に費やされる時間が多い。
そこで、カメラのように、より汎用的な機器を用いて対象物の奥行情報を含む三次元情報を取得し、取得した三次元情報を用いて対象物の位置及び姿勢を取得することが試みられている。三次元情報は、例えば、対象物の形状を示す三次元点群から形成される画像データである。位置や姿勢を求める際に、所定の対象物のテンプレートと三次元点群とのマッチングを行うことがある。しかし三次元点群のマッチングは、二次元画像のマッチングと比較して、演算すべき次元数が増加する。つまり、マッチングの対象が二次元から三次元に増加することに応じて、対象物の位置や姿勢を求める際の次元数が三次元から6次元に増加する。同種の計算手法を用いる場合、計算量や計算時間が対象物の次元数に応じて指数関数的に増加する。そのために、三次元点群に対する位置や姿勢の推定に、依然として膨大な計算量や計算時間を要することがある。
この問題を解決するため、位置や姿勢の推定において、対象物が有する形状の特徴を用いる方法が提案されている。例えば、特許文献1には、同一形状の部品が乱雑に山積みされた部品群に対してピンピッキングを可能とする位置姿勢認識装置等を備えたピンピッキングシステムについて記載されている。当該ピンピッキングシステムでは、撮像画像における明領域が単独でかつ直線上に延在する直線状明領域を撮像画像から抽出する。より具体的には、閾値を用いて撮像画像から明領域を抽出し、抽出されたそれぞれの明領域から、明領域が交差することなく単独で直線状に延在する直線状明領域を抽出する。
特開2009−128201号公報
しかしながら、工場等の作業現場で用いられる対象物の形状は個々に異なる。例えば、ネジ、ボルト等のように、その表面を平面が占める領域が少ない物体が数多く存在する。そのような物体は、プラスチックフィルムからなる袋に詰められて運搬、納入されることがあり、作業空間内において整列されていることは稀である。従って、そのような物体のいずれかを対象物としてロボットに操作させる際には、その位置と姿勢を個々に特定することが要求される。
これに対して、ばら積みされた物体群の三次元点群情報から、一つの物体と考えられる領域に属する点群を分離し、分離した点群が示す物体の形状から、その位置及び姿勢を示す位置姿勢情報を取得することも考えられる。一つの物体と考えられる領域を定める際、ばら積みされた物体群の三次元点群情報の全体を用いると、その領域を定めるための処理量や処理時間が多くなる。また、一つの物体と考えられる領域を誤判定すると、誤判定した領域に属する点群から物体の位置、姿勢が特定され、本来存在しない物体の位置、姿勢が特定されることがある。
そこで、本発明は、上記問題に鑑みてなされたものであり、対象物の位置や姿勢の推定において処理時間を低減し、検出精度を向上させることができるロボット、ロボットシステム、制御装置、及び制御方法を提供することを課題とする。
本発明の一態様は、ハンドと、前記ハンドを動作させる制御部と、を含み、前記制御部は、撮像部が撮像した撮像画像を構成する画像の一部に対して三次元点群情報を生成し、前記ハンドに前記画像の一部に含まれる物体を把持させる、ロボットである。
撮像画像全体に対して三次元点群処理を行うと演算処理が増えるが、上記構成により一部画像に対して三次元点群処理を行うことで演算処理を削減でき作業を高速に行うことができるようになる。
本発明の一態様は、上記のロボットであって、前記制御部は、前記撮像画像から前記物体を表す第1の領域と前記第1の領域を含み、所定の形状を有する第2の領域を定め、前記第1の領域に対応する第1の三次元点群情報と、前記第2の領域に対応する第2の三次元点群情報と、を前記撮像画像から生成し、前記第1の三次元点群情報に含まれる2点からなる複数の組のうち、2点間の線分の長さが所定の長さの範囲内となる組を選択し、選択した組をなす2点間の線分から予め定めた範囲内の点を前記第2の三次元点群情報から抽出し、前記第2の三次元点群情報から抽出した各点までの距離と所定の閾値との差が予め定めた範囲内にある中心軸を選択する。
この構成によれば、撮像画像に基づいて第1の領域に対応する第1の三次元点群情報と第2の領域に対応する第2の三次元点群情報が処理対象として定められるので処理量を低減することができる。また、長さが所定の範囲内である2点を結ぶ中心軸からの半径が所定の範囲内にある点から形成される対象物の画像を表す点が特定される。そのため、曲面を有する対象物として、形状が曲面を有する対象物の位置及び姿勢を推定することができる。また、本中心軸の推定に用いられる2点の組が選択される第1の三次元点群情報に係る第1の領域よりも広範な第2の領域に係る第2の三次元点群情報の点に基づいて中心軸が選択されるため、対象物の位置及び姿勢を推定する際に要する処理量を低減し、精度を損なわずに処理を高速化することができる。
本発明の一態様は、上記のロボットにおいて、前記制御部は、前記撮像画像から輝度が予め定めた閾値よりも大きい領域を検出し、検出した領域の形状を示す指標値が所定の範囲内である領域を前記第1の領域として決定する。
この構成によれば、被写体が明瞭に表されている領域が第1の領域として選択されるため、選択された第1の領域に表される物体を確実に把握することができる。
本発明の一態様は、上記のロボットにおいて、前記第2の領域の形状は矩形であって、前記制御部は、前記撮像画像から前記第2の領域の長手方向の長さよりも長い第3の領域を定め、前記第3の領域に対応する第3の三次元点群情報を前記撮像画像から抽出し、前記第3の三次元点群情報に含まれる点の前記中心軸の方向への分布に基づいて前記物体の前記中心軸の方向の長さを算出する。
この構成によれば、中心軸の方向の第3の三次元点群情報の点の分布を第2の三次元点群情報よりも広範に取得することができる。そのため、異なる長さの物体が混在するために、より長い物体が特定される場合でも、その物体を示す点が欠落せずにその中心軸の方向への長さを求めることができ、異なる長さの物体をそれぞれ識別することができる。
本発明の一態様は、撮像部が複数の物体を撮像した撮像画像を受け付ける画像受付部と、ロボットを動作させる処理部と、を含み、前記処理部は、前記撮像画像を構成する画像の一部に対して三次元点群情報を生成し、前記ロボットに、前記画像の一部に含まれる物体を把持させる、制御装置である。
撮像画像全体に対して三次元点群処理を行うと演算処理が増えるが、上記構成により一部画像に対して三次元点群処理を行うことで演算処理を削減でき作業を高速に行うことができるようになる。
本発明の一態様は、複数の物体を撮像する撮像部と、ロボットと、前記ロボットを動作させる制御部と、を含み、前記制御部は、前記撮像部が撮像した撮像画像を構成する画像の一部に対して三次元点群情報を生成し、前記画像の一部に含まれる物体を前記ロボットに把持させる、ロボットシステムである。
撮像画像全体に対して三次元点群処理を行うと演算処理が増えるが、上記構成により一部画像に対して三次元点群処理を行うことで演算処理を削減でき作業を高速に行うことができるようになる。
本発明の一態様は、複数の物体を撮像することと、前記複数の物体を撮像した撮像画像を構成する画像の一部に対して、三次元点群情報を生成することと、生成した前記三次元点群情報を用いて、ロボットに前記画像の一部に含まれる物体を把持させることと、を含む制御方法である。
撮像画像全体に対して三次元点群処理を行うと演算処理が増えるが、上記構成により一部画像に対して三次元点群処理を行うことで演算処理を削減でき作業を高速に行うことができるようになる。
本発明の実施形態に係るロボットシステムの概略斜視図である。 本実施形態に係る制御部の構成を示す概略ブロック図である。 二次元画像の一例を示す図である。 対象物の形状を近似するモデルの一例を示す図である。 注目領域設定部が注目領域を定める処理を示すフローチャートである。 二値化画像の一例を示す図である。 膨張・収縮処理の一例を示す図である。 選別された明領域の一例を示す図である。 注目領域設定部で生成された生成されたヒストグラムの一例である。 注目領域の例を示す図である。 選択された点対の例を示す図である。 線分に属するサンプル点の例を示す図である。 選択された中心軸の一例を示す断面図である。 中心軸とサンプル点の一例を示す斜視図である。 空間データ生成部で生成されたヒストグラムの一例である。 本実施形態に係るロボット制御を示すフローチャートである。 本実施形態の変形例に係るロボットシステムの構成を示す図である。
以下、本発明の実施形態について、図面を参照して詳細に説明する。
図1は、本実施形態に係るロボットシステム1の概略斜視図である。
図1に示すように、ロボットシステム1は、撮像装置10、制御装置20及びロボット30を備える。なお、図1における部品や構造等の縮尺は、図を明瞭なものとするために実際のものとは異なっていることがある。
撮像装置10は、被写体の三次元の形状を撮像し、撮像した三次元の形状を示す三次元画像データを生成する。生成された三次元画像データは、例えば、その三次元の形状を所定の解像度でサンプリングした複数のサンプル点毎の位置情報で形成されるデータである。各サンプル点は、被写体の表面をサンプリングした三次元のユークリッド空間内の直交座標(X,Y,Z)を示す。つまり、生成された画像データは、複数のサンプル点データを含む点群データである。サンプル点データは、被写体の表面をサンプリングしたサンプル点毎の位置を示すデータである。また、個々のサンプル点データには、その点での明るさを示す輝度値が含まれていてもよい。サンプル点は、二次元の画像データにおける画素に相当し、複数のサンプル点で張られる面で被写体の表面が表される。画像データが示す画像は点群画像とも呼ばれる。
なお、図1に示す例では、X方向は左方、Y方向は奥行方向、Z方向は下方である。
撮像装置10は、例えば、形状検査用三次元センサーである。撮像装置10は、被写体として、例えば、ロボット30による操作対象となる物体(以下、対象物という)Wkが積み重ねられた領域を光学的に観察できる位置に設置されている。対象物Wkは、後述するように、その表面に曲面を有する円柱物体である。作業机Tbの表面は、水平面に対して平行であり複数個の対象物Wkが乱雑に積み重ねられている。
撮像装置10は、その光学軸が、例えば、水平面に対して垂直(下方)に向くように設置されている。撮像装置10は、撮像領域Irに含まれる複数の対象物Wkを表す1フレームの三次元の画像を撮像する。撮像領域Irは、撮像装置10がその領域内に置かれた被写体の画像を撮像することができる予め定めた大きさを有する三次元の領域である。従って、撮像により得られた三次元の画像(三次元画像)は、複数の対象物Wkの三次元形状を示す画像であり、複数のサンプル点で形成されるサンプル点データで表される。サンプル点は、その輝度が高いほど高密度で分布する。
撮像装置10は、撮像により得られた三次元画像を示すサンプル点データを三次元画像データとして制御装置20に出力する。
撮像装置10は、さらに撮像領域Irに含まれる複数の対象物Wkを表す1フレームの二次元の画像(二次元画像)を撮像する。二次元画像は、上述の三次元画像を撮像装置10の光学軸に交差する平面に射影して形成された画像に相当する。つまり、二次元画像は、三次元画像と同一の撮像領域Ir内の同一の被写体を表し、それぞれの撮像領域が対応付けられる。撮像装置10は、撮像した二次元画像を示す二次元画像データを制御装置20に出力する。以下の説明では、二次元画像データと三次元画像データを、単に「画像データ」と総称する。
制御装置20は、撮像装置10から入力された画像データに基づいてロボット30の動作を制御する。制御装置20は、画像データ取得部(画像受付部)21、及び制御部(処理部)22を含んで構成される。
画像データ取得部21には、撮像装置10から画像データが入力され、入力された画像データを制御部22に出力する。画像データ取得部21は、例えば、データ入力インタフェースである。
制御部22は、入力された三次元画像データのうち三次元の撮像画像の一部である一部画像を示す点群データ(点群情報)を生成し、生成した点群データが示す一部画像に示された1つの対象物Wkをロボット30に把持させる。ここで、制御部22は、入力された二次元画像データが示す1つの対象物Wkの一部の形状を示す領域を注目領域として定める。制御部22は、定めた注目領域内の三次元の画像を示す点群データに基づいて1つの対象物Wkの位置及び配置されている方向(姿勢)を算出する。対象物Wkの位置及び方向を算出する際、制御部22は、例えば、対象物Wkの形状を円柱とみなし、RANSAC(Random Sample Consensus)法を応用して円柱の中心軸の方向と長さを算出する。ここで、制御部22は、算出した中心軸の中点の座標、方向をそれぞれ対象物Wkの位置、姿勢と定める。以下の説明では、位置、姿勢、又は位置ならびに姿勢を空間状態と総称することがある。また、制御部22は、対象物Wkの長さを定めてもよい。
制御部22は、算出した対象物Wkの空間状態に基づいてロボット30の動作を制御する。対象物Wkの長さを定めた場合には、さらにその長さに基づいてロボット30の動作を制御してもよい。
制御部22は、例えば、ロボット30のハンド部30c(後述)を算出した位置に近づけ、算出した姿勢に交差する方向に挟み込むことで対象物Wkを把持させる。制御部22には、ハンド部30cで検出された力を示す負荷信号がロボット30から入力され、入力された負荷信号に基づいてハンド部30cの動作を制御する制御信号をロボット30に出力する。制御部22の構成については、後述する。
ロボット30は、例えば、6軸の垂直多関節ロボットであり、支持台30a、アーム部30b、及びハンド部30cを含んで構成される。ロボット30は、支持台30aとアーム部30bとハンド部30cとの連係した動作によって6軸の自由度を有し、ハンド部30cが把持する対象物Wkの位置および姿勢を自在に変更することができる。また、ロボット30は、制御部22が行う制御によって、アーム部30bとハンド部30cのいずれか又はそれらの組み合わせを動作させる。ハンド部30cは、2個の先端部を備え、2個の先端部は各々の長手方向が互いに向かい合うように配置される。
ロボット30の自由度は6軸に限られず、7軸以上、又は5軸以下であってもよい。また、支持台30aは、壁や天井等、床面に対して固定された場所に設置されてもよい。
ロボット30は、ハンド部30cに加わる力とモーメントを、予め定めた時間間隔(例えば、1ms)で検出する力センサー(図示せず)を備え、検出した力及びモーメントを示す負荷信号を制御装置20に出力する。ロボット30は、エンコーダー(図示せず)を備える。エンコーダーは、ロボット30の各関節の角度を検出し、検出した各関節の角度を制御装置20に出力する。
次に、本実施形態に係る制御部22の構成について説明する。
図2は、本実施形態に係る制御部22の構成を示す概略ブロック図である。
制御部22は、注目領域設定部222、第1中心軸推定部224、点群抽出部225、第2中心軸推定部226、中心軸選択部227、空間データ生成部228、及び制御信号生成部229を含んで構成される。
注目領域設定部222には、画像データ取得部21から画像データが入力される。注目領域設定部222は、入力された二次元画像データが示す二次元画像から、対象物を示す注目領域をNi(Niは、2又は2よりも大きい整数、例えば、3)個定める。注目領域とは、第1中心軸推定部224、点群抽出部225、第2中心軸推定部226、中心軸選択部227、空間データ生成部228で一度に処理の対象とする二次元の領域である。即ち、注目領域に対応する三次元の領域は、撮像領域の一部である一部画像に相当する。以下では、主にNiが3である場合を例にとって説明する。
3個の注目領域は、それぞれ同一の対象物を示す領域を含み、それぞれ領域1、2、3と呼ぶ。領域2は、領域1を含む領域(例えば、領域1に外接)であって、予め定めた形状(例えば、矩形)を有する領域である。領域3は、領域2を含む領域(例えば、領域2よりも長手方向の長さが予め定めた長さだけ長い領域)であって、予め定めた形状(例えば、矩形)を有する領域である。注目領域設定部222は、二次元の領域である領域1、2、3にそれぞれ対応する三次元の領域に含まれる座標を示すサンプル点を画像データから抽出して点群データ(三次元点群情報)1、2、3を生成する。注目領域設定部222は、生成した点群データ1を第1中心軸推定部224に出力し、点群データ2を点群抽出部225に出力し、点群データ3を空間データ生成部に出力する。なお、二次元の領域である領域1、2、3に対応する注目領域の一部である三次元の領域を、それぞれ一部領域1、2、3と呼ぶ。従って、一部領域1、2、3は、それぞれ領域1、2、3に射影される領域である。言い換えれば、点群データ(三次元点群情報)は、一部領域1、2、3に分布したサンプル点の集合を示し、それぞれのサンプル点の集合が主に1つの対象物の形状の少なくとも一部を示す又はその可能性があるデータである。
上述したように、注目領域設定部222は、点群データ1、2、3を生成する際に、三次元画像データの解析を行わずに、対応する二次元画像データから選択した領域1、2、3を選択するので、処理量を著しく低減することができる。
注目領域設定部222が注目領域を定める処理については、後述する。
第1中心軸推定部224は、注目領域設定部222から入力された点群データ1が示すサンプル点のうちの2点からなる組(点対、point pair)のうち所定の条件を満足する組を選択する。第1中心軸推定部224は、選択した組を形成する2点間の線分を中心軸の候補(中心軸候補)と定める。
ここで、第1中心軸推定部224は、点群データ1が示すサンプル点から2点を抽出し、抽出した2点間の距離Lが、長さlから予め定めた範囲内、例えば、0.8lから1.0lまでの間である点対を、Ne(Neは、予め定めた個数)個選択する。これにより、対象物の表面上の一点と底面上の一点とからなる点対が抽出され、それ以外の点対が除外される。
Neは、例えば、対象物がとりうるサンプル点の総数Mから選択された任意の2点が、一部領域1内に含まれない確率が、予め定めた有意水準p(例えば、0.05)よりも低くなる点対の数のうちの最小値である。Neは、式(1)で与えられる。
式(1)において、Nは、一部領域1内に存在しうるサンプル点の最大数である。つまり、Nは、撮像装置10で取得される画像データに含まれるサンプル点の空間分解能に依存する。このように、Neを定めておくことで、対象物を確実に検出し、かつ、処理量を低減することができる。
第1中心軸推定部224は、選択した点対のそれぞれを形成する2点間の直線を示す一次関数の係数(軸方程式)を算出する。算出した係数は、その直線の傾きとX、Y、Z軸の切片を示す。
第1中心軸推定部224は、算出した係数から導かれるX−Y平面に対する傾きθzが予め定めた傾きの範囲内の点対を選択し、その範囲外の点対を除外する。予め定めた傾きの範囲は、例えば、傾きの閾値θmaxよりも小さい傾きである。θmaxは、例えば、ハンド部30cを構成するジグ等の部材の形状や配置のもとで対象物を把持することができる傾きθzの最大値である。これにより、ハンド部30cが対象物を把持することができない対象物の画像が処理対象から排除される。また、θzが大きくなるほど、直線の方向が撮像装置10の光学軸の方向に近似するため、この直線の周りの曲面を表すサンプル点の数が少なくなる。これは、この曲面をX−Y平面に射影したときの面積が小さくなるためである。このような曲面が処理対象から除外されるので、無用な処理を防止することができる。
第1中心軸推定部224は、選択した点対を示す選択点対情報を点群抽出部225に出力する。
点群抽出部225には、第1中心軸推定部224から選択点対情報が入力され、注目領域設定部222から点群データ2が入力される。
点群抽出部225は、点群データ2が示すサンプル点から選択点対情報が示す点対のそれぞれを形成する2点を結ぶ線分から所定距離内のサンプル点を線分に属する点として抽出し、それ以外のサンプル点を除外する。所定距離ρは、例えば、対象物の半径rよりも大きい値であって、隣接する対象物との平均的な距離よりも小さい値、例えば、2rである。これにより、1個の対象物の表面を表すサンプル点が一部領域1よりも広範な一部領域2から確実に取得され、その他の対象物の表面を表すサンプル点が極力除外される。そして、点群抽出部225は、抽出したサンプル点の数Ncを計数する(投票)。
点群抽出部225は、抽出したサンプル点の数Ncが、所定の個数の範囲内にある点対を選択し、所定の個数の範囲外の点対を排除する。所定の個数の範囲とは、例えば、式(2)に示す範囲である。
式(2)において、Rは、撮像装置10の信頼性に応じた設定値を示す。Rが大きいほど信頼性が高いことを示し、Rが小さいほど信頼性が低いことを示す。Rは、例えば、0.7から0.95までの実数である。なお、Rの最大値、最小値は、それぞれ1、0である。Nmaxは、一部領域2において対象物がとりうるサンプル点数の最大値である。対象物の形状が円柱である場合には、中心軸が撮像装置10の光学軸の方向と垂直であって、対象物の全体が撮像領域Irに含まれ、かつ撮像装置10からの距離が最も短くなるように配置されたとき、撮影された画像データを形成するサンプル点数が最大となる。θmaxは、上述した傾きの閾値である。これにより、その側面が撮像装置10に対して十分に露出されている対象物を表すサンプル点を所定距離ρ内に含む線分が選択される。この選択された線分により、その線分で結ばれる2点からなる点対が特定される。
点群抽出部225は、抽出したサンプル点を示す抽出点群情報を選択した点対毎に第2中心軸推定部226に出力する。
第2中心軸推定部226は、点群抽出部225から入力された抽出点群情報が示すサンプル点で張られる表面(曲面)の中心軸候補を点対毎に推定する。第2中心軸推定部226は、中心軸候補を推定する際、例えば、逐次二次計画法(SQP:Sequential Quadratic Programming method)を用いることができる。第2中心軸推定部226は、推定した中心軸候補の係数からなる中心軸情報を生成し、生成した中心軸情報と抽出点群情報とを点対毎に対応付けて中心軸選択部227に出力する。
中心軸選択部227は、第2中心軸推定部226から中心軸情報と抽出点群情報が点対毎に入力される。中心軸選択部227は、中心軸候補の係数から導かれるXY平面に対する傾きθzが予め定めた傾きの範囲内の中心軸を選択し、その範囲外の中心軸を除外する。予め定めた傾きの範囲は、第1中心軸推定部224で点対を選択した傾きの範囲、つまり、傾きの閾値θmaxよりも小さい傾きである。
中心軸選択部227は、選択した中心軸のそれぞれについて対応する抽出点群情報が示すサンプル点に基づいて、例えば、式(3)を用いて推定誤差errを算出し、算出した推定誤差errが予め定めた誤差よりも小さい中心軸を選択する。選択された中心軸が複数個ある場合には、中心軸選択部227は、推定誤差errが最も小さい中心軸を選択する。
式(3)において、nは、中心軸に属するサンプル点の数、つまり、中心軸から所定距離ρ内に含まれるサンプル点の数を示す。iは、各サンプル点を区別するインデックスである。|…|は、…の絶対値である。dは、サンプル点iと中心軸との間の距離を示す。即ち、推定誤差errは、各サンプル点における中心軸からの距離dと半径rとの間の誤差における絶対値の平均を示す。
中心軸選択部227は、選択した中心軸に係る中心軸情報を空間データ生成部228に出力する。
空間データ生成部228には、中心軸選択部227から中心軸情報が入力され、注目領域設定部222から点群データ3が入力される。空間データ生成部228は、点群データ3が示すサンプル点と中心軸情報に基づいて対象物の位置、姿勢を算出する。
ここで、空間データ生成部228は、中心軸情報が示す中心軸の定数に基づいて中心軸の方向を、対象物の姿勢として特定する。また、空間データ生成部228は、点群データ3が示すサンプル点の座標の代表点、例えば重心点を対象物の位置として算出する。但し、サンプル点の分布は、一面に偏っていることがあるので、それらの重心点が対象物の位置を代表するとは限らない。そこで、空間データ生成部228は、算出した重心点を通る中心軸に垂直な面と、その中心軸との交点を対象物の位置として算出してもよい。
また、空間データ生成部228は、対象物の長さを算出してもよい。ここで、空間データ生成部228は、例えば、中心軸情報が示す中心軸の定数から中心軸の方向を特定し、点群データ3が示すサンプル点の特定した中心軸の方向の座標(中心軸座標)に対する分布を求める。その分布は、中心軸座標を所定の幅で区分した区間毎のサンプル点の個数からなるヒストグラムとして示される。
そして、空間データ生成部228は、サンプル点の個数が予め定めた第1の閾値よりも多い区間が空間的に連続する領域を対象物の領域として特定し、対象物の領域の長さを対象物の長さとして算出する。第1の閾値は、0よりも有意に大きい微小な値である。点群データ3が示すサンプル点の中心軸座標に対する分布を用いて長さを特定することで、長さが異なる対象物が撮像領域Irに混在する場合でも所定の長さを有する対象物を特定することができる。なお、空間データ生成部228は、対象物の領域の重心点、又は、その重心点を通る中心軸に垂直な面と、その中心軸との交点を対象物の位置として算出してもよい。
また、対象物に、その形状が円柱に近似できない部分や、その部分があると対象物全体として円柱として近似できなくなる部分(非円柱領域、例えば、ボルトの頭部)を含む場合には、空間データ生成部228は、非円柱領域の位置を算出してもよい。具体的には、空間データ生成部228は、サンプル点の個数が予め定めた第2の個数の閾値よりも大きい区間からなる領域を非円柱領域として特定し、特定した非円柱領域の重心点をその領域の位置として算出する。第2の個数の閾値は、例えば、半径rの円周上に分布可能なサンプル点の個数よりも大きい値である。これにより、その表面が半径rよりも大きい領域が非円柱領域として特定される。なお、空間データ生成部228は、非円柱領域の中心軸座標と対象物の中心軸座標とを比較して、対象物の方向の正負を区別してもよい。
なお、算出された対象物の位置及び姿勢が、撮像装置10を基準とするカメラ座標系に基づく座標値及び方位角で示されている場合には、空間データ生成部228は、算出した座標値及び方位角を、ロボット30を基準とするロボット座標系に基づく座標値及び方位角に変換してもよい。そのために、空間データ生成部228には、カメラ座標系からロボット座標系に変換する変換式を予め設定しておく。
空間データ生成部228は、算出した対象物の位置、姿勢、及び長さを示す空間データを生成する。空間データ生成部228は、生成した空間データを制御信号生成部229に出力する。
制御信号生成部229は、ロボット30から入力された負荷信号と空間データ生成部228から入力された空間データに基づいて、ロボット30の動作を制御するための制御信号を生成する。制御信号生成部229は、生成した制御信号をロボット30に出力する。これにより、ロボット30の動作が制御される。
制御信号生成部229は、例えば、ロボット30のハンド部30cを作業開始位置に移動させ、ハンド部30cが備える2つの先端部が互いに向かい合う方向を作業開始方向に回転させるための制御信号を生成及び出力する。作業開始位置は、例えば、入力された空間データが示す位置から予め定めた間隔だけ離れた位置である。作業開始方向は、例えば、空間データが示す姿勢と同一の方向である。また、制御信号生成部229は、ロボット30から入力された負荷信号が示す各関節の角度に基づいてハンド部30cの位置と方向を算出する。制御信号生成部229は、例えば、算出した位置と目標位置との間の距離、及び算出した方向と目標方向との差分が、それぞれ時間経過に伴って減少するようにロボット30の各構成の動作を制御するための制御信号を生成及び出力してもよい。所定の作業開始前においては、目標位置、目標方向として、予め定めた作業開始位置、作業開始方向がそれぞれ用いられてもよい。所定の作業中においては、目標位置、目標方向として、例えば、空間データが示す位置、姿勢がそれぞれ用いられてもよい。
また、制御信号生成部229は、入力された負荷情報が示す力に基づいて2つの先端部の位置及び方向を制御するための制御信号を生成及び出力してもよい。例えば、2個の先端部が互いに離間しているとき、制御信号生成部229は、ロボット30に対して2個の先端部間の距離を互いに狭めて対象物を把持させる。ここで、制御信号生成部229は、先端部で検知された力が予め定めた目標値となるように、先端部が対象物を挟む力を制御する。対象物が把持されているとき、制御信号生成部229は、先端部に対して対象物を挟む力を解除させ、2個の先端部間の距離を互いに広げるように制御することで対象物を解放させることができる。
(二次元画像の一例)
次に、撮像装置10で得られる二次元画像の一例について説明する。
図3は、二次元画像の一例を示す図である。
図3に示す二次元画像は、所定の撮像領域Ir内の被写体の画像である。この二次元画像は、複数の乱雑に積み重ねられた対象物の表面を表し、複数の画素で形成される。二次元画像を示す二次元画像データは、画素毎の輝度値を示す。図3において、濃く表されている画素ほど輝度値が低く、薄く表されている画素ほど輝度値が高い。
(対象物の形状のモデル)
次に、対象物の形状を近似するモデルについて説明する。
図4は、対象物の形状を近似するモデルの一例を示す図である。
対象物Wkは、少なくともその一部の形状が円柱に近似される円柱物体である。これにより、対象物Wkの特性長として長さl、半径r、又はその両者が用いられうる。図4に示す対象物Wkは、半径rに比べて長さlが格段に大きい細長の形状を有するため、主に長さlが特性長として用いられる。長さl、半径rは、上述した制御部22において既知のパラメータとして予め設定させておいてもよい。
また、対象物Wkは、半径がrよりも大きい頭部を有する。頭部は、長さl、半径rの円柱の形状を近似することができない非円柱領域に相当する。
(注目領域を定める処理)
次に、注目領域設定部222が注目領域を定める処理について説明する。
図5は、注目領域設定部222が注目領域を定める処理を示すフローチャートである。
(ステップS101)注目領域設定部222は、画像データ取得部21から入力された二次元画像データについて二値化処理を行って二値化データを生成する。ここで、注目領域設定部222は、画素毎に信号値を1又は0と定め、画素毎の信号値を示す二値化データを生成する。上述したように、注目領域設定部222は、輝度値が所定の輝度値の閾値を超える画素について信号値を1と定め、輝度値が所定の輝度値の閾値以下の画素について信号値を0と定める。
以下の説明では、信号値が1である画素が空間的に連続して形成される領域を明領域、信号値が0である画素が空間的に連続して形成される領域を暗領域と呼ぶ。つまり、明領域は、対象物の形状の全部又は一部が表されている領域である。撮像領域Irに複数の対象物が含まれる場合、1個の二値化データには複数の明領域が表される。その後、ステップS102に進む。
(ステップS102)注目領域設定部222は、生成した二値化データについて膨張処理(expansion)と収縮処理(contraction)とを行う。膨張処理と収縮処理とを併せて膨張・収縮処理と呼ぶ。膨張処理とは、暗領域のうち明領域との境界にある画素の信号値を1と定めることによって1画素ずつ明領域を膨張する処理である。収縮処理とは、明領域のうち暗領域との境界にある画素の信号値を0と定めることによって1画素ずつ明領域を収縮する処理である。これにより、対象物の輝度の差異に基づいてサンプル点の密度の差異により二値化データに現れた明領域と暗領域の境界の凸凹が平滑化される。注目領域設定部222は、収縮処理を膨張処理よりも先に行ってもよいし、後に行ってもよい。また、注目領域設定部222は、膨張・収縮処理を予め定めた回数(例えば、3回)繰り返してもよい。これにより、明領域と暗領域の境界の平滑化の度合いを高くすることができる。その後、ステップS103に進む。
(ステップS103)注目領域設定部222は、膨張・収縮処理を行った二値化データが示す明領域のそれぞれを特定する(ラべリング)。その後、ステップS104に進む。
(ステップS104)注目領域設定部222は、特定した明領域のそれぞれについてその大きさの指標値(例えば、面積、長さ)や、その形状を示す指標値(例えば、楕円偏心率)を算出する。注目領域設定部222は、算出した大きさの指標値や形状の指標値に基づいて、その明領域を領域1の候補として選択するか否かを判定する(選別)。
長さは、例えば、注目する明領域を形成する画素から任意に選択された2つの画素間の距離のうち最も大きい距離である。楕円偏心率は、注目する明領域に内接又は外接する楕円の焦点間距離の長軸に対する比である。楕円偏心率は、離心率と呼ばれることもある。
注目領域設定部222は、例えば、算出した大きさの指標値が、対象物の大きさの指標値を基準とした所定の範囲内である場合、その明領域を領域1の候補として選択し、算出した大きさの指標値がその所定の範囲外である場合、その明領域を領域1の候補から棄却する。
大きさの指標値が面積である場合には、所定の範囲は、例えば、その対象物を軸方向に垂直な方向に射影した領域の面積Sの0.6−1.0倍である。大きさの指標値が長さである場合には、所定の範囲は、例えば、長さlの0.8−1.0倍である。注目領域設定部222は、例えば、算出した形状の指標値が、対象物の形状の指標値を基準とした所定の範囲内である場合、その明領域を領域1の候補として選択し、算出した大きさの指標値がその所定の範囲外である場合、その明領域を領域1の候補から棄却する。
形状の指標値が楕円偏心率である場合には、所定の範囲は、例えば、その対象物の軸方向に射影した領域の楕円偏心率eの0.8−1.2倍である。対象物の形状のうち、非円柱領域が存在する場合であっても、その部分が含まれた領域に基づいて形状の指標値が算出されてもよい。これにより、その対象物の形状全体の領域(例えば、ボルトの頭部を含んだ領域)に近似した注目領域が選択される。
なお、注目領域設定部222は、面積、大きさ、楕円偏心率を算出する場合には、面積、大きさ、楕円偏心率の順序で算出し、算出直後にその明領域を領域1の候補として選択するか否かを判定してもよい。この順序で処理量が少なくなるため、二次元データ全体の処理量を減らすことができる。その後、ステップS105に進む。
(ステップS105)対象物が非円柱領域を含む場合には、注目領域設定部222は、選択された明領域のそれぞれから非円柱領域に対応する領域を削除する(非円柱領域削除)。ここで、注目領域設定部222は、選択された明領域(二次元)について、例えば、RANSAC法、最小二乗法等、その他の回帰分析法を用いて、この明領域に最も近似する直線を算出する。注目領域設定部222は、この明領域を形成する画素数を、算出した直線の方向の座標毎に計数する。計数された画素数の、その方向に対する分布によりヒストグラムが形成される。そして、注目領域設定部222は、計数した画素数が予め定めた画素数の閾値よりも多い領域を非円柱領域として明領域から削除する。このステップで削除される非円柱領域は、注目する対象物の円柱に近似される部分(例えば、ボルトの軸部分)以外の領域である。つまり、削除される非円柱領域は、注目する対象物の一部(例えば、ボルトの頭部)に限られず、他の対象物の一部が含まれることがある。その後、ステップS106に進む。
(ステップS106)注目領域設定部222は、非円柱領域が削除された明領域を領域1と定める。ここで、注目領域設定部222は、非円柱領域が削除された明領域のうちその領域の面積が最も大きいものからNs(Nsは、1又は1よりも大きい予め定めた整数)番目に大きい領域を、それぞれ領域1と定めてもよい。その後、ステップS107に進む。
(ステップS107)注目領域設定部222は、領域1に外接する所定の形状の領域を領域2と定める。その後、ステップS108に進む。
(ステップS108)注目領域設定部222は、所定の形状の領域であって、領域2を含み、領域2よりも長手方向の長さが予め定めた長さだけ長い領域を領域3として定める。領域3の長さを領域2よりも長く定めるのは、長さが異なる対象物を識別することと、非円柱領域(例えば、ボルトの頭部)を含む対象物の全体を検出するためである。予め定めた長さは、例えば、長さlの0.4〜1.0倍であればよい。又は、領域3の長手方向の長さは、長さlの1.0〜1.4倍であればよい。その後、図5に示す処理を終了する。
(二値化画像の一例)
次に、二次元画像を二値化して得られる二値化画像の一例について説明する。
図6は、二値化画像の一例を示す図である。
図6に示す二値化画像は、注目領域設定部222が注目領域を定める際に、図3に示す二次元画像の二次元画像データについて二値化処理を行って生成された二値化データが示す画像である。図6に示す例では、信号値が1である領域が明るく示され、信号値が0である領域が暗く示されている。明るく示された部分が対象物を示す。
なお、二次元画像を撮像する際、対象物を示す領域の輝度が、対象物の検出に要する輝度値の閾値を上回るように光源(例えば、液晶プロジェクター)から白色光を撮像領域Irに照射してもよい。
次に、注目領域設定部222が行う膨張・収縮処理(図5、ステップS102)の一例について説明する。
図7は、膨張・収縮処理の一例を示す図である。
図7(A)は、元の二値化画像の一部を拡大した図である。図7(B)は、図7(A)に示す二値化画像に対して膨張処理を行って得られる二値化画像である。図7(C)は、図7(B)に示す二値化画像に対して収縮処理を行って得られる二値化画像である。
図7(A)−(C)のそれぞれにおいて、四角形のそれぞれは画素を示す。黒塗りの四角形、白抜きの四角形は、それぞれ信号値が1である画素、信号値が0である画素を示す。黒塗りの四角形が空間的に連続した領域が暗領域を示し、白塗りの四角形が空間的に連続した領域が明領域を示す。
図7(B)のうち、横縞で塗りつぶされた四角形は、膨張処理により新たに信号値が1と定められた画素を示す。これらの画素が新たに暗領域から明領域に加えられる。これにより、図7(A)において信号値が0である画素のうち孤立したものや、明領域に突出したものが除去される。
図7(C)のうち、網掛けの四角形は、収縮処理により新たに信号値が0と定められた画素を示す。これらの画素が新たに明領域から暗領域に加えられる。図7(A)において信号値が0である画素のうち孤立したものや、暗領域に突出した画素の信号値は1に戻らないので、明領域と暗領域の間の境界が平滑化される。
次に、注目領域設定部222が行う非円柱領域除去(図5、ステップS105)の一例について説明する。
図8は、選別された明領域の一例を示す図である。
図8に示す明領域は、注目領域設定部222が選別した(図5、ステップS104)明領域の一例である。直線A1は、注目領域設定部222がこの明領域について算出した直線であり、この明領域の長手方向に最も近似する直線である。直線A2は、直線A1に直交する直線である。
図9は、注目領域設定部222で生成されたヒストグラムの一例である。
図9において縦軸、横軸は、それぞれ度数、直線A1方向の座標を示す。度数は、注目領域設定部222が計数した図8の明領域を形成する画素の数(画素数)を示す。nthは、例えば、対象物がボルトである場合において軸部以外の部位である非円柱領域(頭部、他の対象物の一部、等)であるか否かを判別する際の画素数の閾値である。この例では、注目領域設定部222は、画素数が閾値nthよりも多い区間B内の直線A1方向の座標値を有する領域を非円柱領域として判定し、判定した非円柱領域を明領域から削除する。なお、注目領域設定部222は、直線A1方向の座標毎に画素数を計数する代わりに、直線A2方向に明領域を横断する長さを検出してもよい。
(注目領域の例)
図10は、注目領域の例を示す図である。
図10に示す領域1は、図8に示す明領域から非円柱領域が除去された領域である。領域1は、対象物が二次元平面に射影された矩形の領域であり、その長手方向が特定される。このことは、領域1に対応する点群データ1には円柱物体の中心軸を推定するためのサンプル点が含まれることを示す。
領域2は、領域1に外接する領域であり、領域2に対応する点群データ2には点群データ1よりもより広い三次元領域に分布したサンプル点が含まれる。点群データ1、2ともに含まれるサンプル点は円柱物体の表面の全領域を必ずしも示すものではないが、点群データ2が示すより広い領域に分布したサンプル点が最終的に中心軸を定める際に用いられることで、中心軸の推定精度を向上させることができる。ここで、点群データ2は、上述したように点群抽出部225でサンプル点の個数を計数(投票)する際や、第2中心軸推定部226で中心軸の候補を定める際に用いられる。
領域3は、領域2よりも長手方向の長さが長い領域であり、領域3に対応する点群データ3には点群データ2よりも推定した中心軸方向に広い三次元領域に分布したサンプル点が含まれる。これにより、点群データ3が示すサンプル点の中心軸座標に対する分布を用いて長さを特定することができ、長さが異なる対象物が撮像領域Irに混在する場合でも所定の長さを有する対象物を特定することができる。
(点対の例)
次に、第1中心軸推定部224で選択された点対の例について説明する。
図11は、選択された点対の例を示す図である。
図11(A)、(B)は、XY平面上、XZ平面上にそれぞれ射影された注目領域におけるサンプル点の分布の一例を示す。それぞれの黒丸は、サンプル点を示す。P11、P12は、選択された点対を形成する2個のサンプル点の組の一例であり、E1は、P11、P12間を結ぶ線分である。上述したように、P11、P12間の距離Lは、対象物の長さlから予め定めた範囲にある。
図11(B)に示された一点破線は、Z座標が一定であるXY平面を示す。傾きθzは、P11、P12間の線分E1とXY平面とのなす角度である。傾きθzは、予め定めた傾きの閾値θmaxよりも小さい値である。即ち、第1中心軸推定部224は、対象物の表面の1点と底面の1点から形成される点対として、この2点間の距離Lが長さlに近似し、点群データ1から確実に検出され、かつ制御対象となりうる方向を有するものを選択する。
(線分に属するサンプル点の例)
次に、点群抽出部225で抽出された線分に属するサンプル点の例について説明する。
図12は、線分に属するサンプル点の例を示す図である。
図12(A)、(B)は、XY平面上、XZ平面上にそれぞれ射影されたサンプル点の分布の他の例を示す。黒丸のそれぞれは、サンプル点を示す。P21、P22は、点対を形成する2個のサンプル点の組の他の例であり、E2は、P21、P22間を結ぶ線分である。線分E2に属するサンプル点は、線分E2から距離ρの範囲内に含まれるサンプル点である。点群抽出部225は、点群データ2からこれらのサンプル点を選択し、選択したサンプル点の個数Nが所定の個数の範囲内となる点対及びそのサンプル点を採用する。
(選択された中心軸の一例)
次に、中心軸選択部227で選択された中心軸の一例について説明する。
図13は、選択された中心軸の一例を示す断面図である。
この例では、中心軸E3と中心軸E3の算出に用いられる選択されたサンプル点の分布がXZ平面に射影されている。各点は、サンプル点を示す。選択されたサンプル点の多くは、中心軸E3からZの負方向に所定距離だけ偏って分布しているが、その分布が延びている方向は中心軸E3の方向にほぼ平行している。この偏った分布は、対象物の表面のうち撮像装置10に対向する部分を表し、その他の部分が表れていないために生じる。
(サンプル点の分布の一例)
次に、空間データ生成部228が対象物の位置、姿勢、等を算出する際に用いられる点群データ3が示すサンプル点の分布の一例について説明する。
図14は、中心軸とサンプル点の一例を示す斜視図である。
各点は、領域3に対応する点群データ3が示すサンプル点を示す。そのうち、濃く表された点は、中心軸E3の算出に用いられた選択されたサンプル点を示す。1個の対象物の表面の形状を表し、上述した中心軸E3を中心に湾曲した面上に分布している。中心軸から面まで距離は、半径rに近似している。点群データ3は、中心軸E3の方向に選択されたサンプル点よりも広い領域に分布する可能性があるが、このことによって軸方向の長さが異なる物体を判別する手がかりが与えられる。
図15は、空間データ生成部228で生成されたヒストグラムの一例である。
図15において、縦軸、横軸は、それぞれ度数、中心軸E3の方向の座標を示す。度数は、中心軸E3の方向の座標に対する図14のサンプル点の個数を示す。
n1,n2は、それぞれ上述した第1の閾値、第2の閾値を示す。B1,B2は、それぞれ度数が第1の閾値、第2の閾値を超える区間である。従って、空間データ生成部228は、区間B1の中心軸E3の方向への長さを対象物の長さと定めることができ、区間B2の範囲内の中心軸座標を有するサンプル点が分布する領域を非円柱領域と特定することができる。そして、空間データ生成部228は、特定した非円柱領域の重心点の位置を算出する。
図15に示すヒストグラムは、点群データ3が示すサンプル点に基づいて生成される点で、二次元の明領域から生成されるヒストグラム(図9)とは異なる。そのため、図15に示すヒストグラムの方がデータとしての信頼性が、図9に示すヒストグラムよりも高い。また、図15に示すヒストグラムの用途は、注目する対象物の非円柱領域(例えば、ボルトの頭部)を検出することであるのに対し、図9に示すヒストグラムの用途が注目する対象物から円柱に近似できる領域(例えば、ボルトの軸部)を抽出し、それ以外の領域を削除する点で異なる。
(制御フロー)
次に、本実施形態に係るロボット制御について説明する。
図16は、本実施形態に係るロボット制御を示すフローチャートである。
(ステップS201)画像データ取得部21には、撮像装置10で撮像された三次元の撮像画像を示す三次元画像データと、二次元画像を示す二次元画像データが入力される。画像データ取得部21は、三次元画像データと二次元画像データを取得することで、撮像領域Irの全体を示す三次元の撮像画像(全体画像)と二次元画像が受け付けられる。その後、ステップS202に進む。
(ステップS202)注目領域設定部222は、画像データ取得部21が取得した二次元画像データが示す二次元画像から注目領域として、例えば、領域1、2、3を決定する。注目領域設定部222は、決定した領域1、2、3に対応する三次元の一部領域1、2、3内に分布するサンプル点を示す点群データ1、2、3を生成する。その後、ステップS203に進む。
(ステップS203)第1中心軸推定部224は、点群データ1が示すサンプル点から中心軸を推定する。ここで、第1中心軸推定部224は、点群データ1のサンプル点から2点を抽出し、抽出した2点間の距離Lが、長さlから予め定めた範囲内である点対を、Ne個選択し、選択した点対のそれぞれを形成する2点間の直線を示す定数を算出する。第1中心軸推定部224は、算出した定数から導かれるX−Y平面に対する傾きθzが予め定めた傾きの範囲内の点対を選択し、選択した点対を示す選択点対情報を生成する。その後、ステップS204に進む。
(ステップS204)点群抽出部225は、点群データ2が示すサンプル点から選択点対情報が示す点対のそれぞれを形成する2点を結ぶ線分(中心軸)から所定距離ρ内のサンプル点を線分に属する点として抽出し、抽出したサンプル点の数Ncを計数する(投票)。点群抽出部225は、抽出したサンプル点の数Ncが、所定の個数の範囲内にある点対を選択し、選択した点対毎に抽出したサンプル点を示す抽出点群情報を生成する。その後、ステップS205に進む。
(ステップS205)第2中心軸推定部226は、点群データ2に基づいて生成された抽出点群情報が示すサンプル点で張られる表面の中心軸の候補を点対毎に推定(再推定)する。第2中心軸推定部226は、推定した中心軸候補の定数からなる中心軸情報を生成する。その後、ステップS206に進む。
(ステップS206)中心軸選択部227は、中心軸情報が示す中心軸候補の定数で示されるXY平面に対する傾きθzが予め定めた傾きの範囲内の中心軸を選択する。中心軸選択部227は、選択した中心軸のそれぞれについて対応する抽出点群情報が示すサンプル点に基づいて、推定誤差errを算出し、算出した推定誤差errが最も小さい中心軸を選択する。中心軸選択部227は、選択した中心軸に係る中心軸情報を生成する。その後、ステップS207に進む。
(ステップS207)空間データ生成部228は、点群データ3が示すサンプル点と中心軸情報に基づいて対象物の位置、姿勢、及び長さを算出(推定)する。空間データ生成部228は、算出した位置、姿勢及び長さを示す空間データを生成する。その後、ステップS208に進む。
(ステップS208)制御信号生成部229は、ロボット30から入力された負荷信号と 空間データが示す位置、姿勢、長さのいずれか又はこれらの任意の組に基づいてロボット30の動作を制御するための制御信号を生成し、生成した制御信号をロボット30に出力する。これにより、制御信号生成部229は、ロボット30の動作を制御する。その動作は、例えば、対象物を把持する動作である。その後、図16に示す処理を終了する。
なお、対象物の長さを区別する必要がない場合(例えば、撮像領域Irに配置された全ての対象物の長さが同一である場合)には、注目領域設定部222は、領域3を定めることや、点群データ3を生成、出力することを省略してもよい。その場合には、注目領域設定部222が定める注目領域の数Niは、2となる。点群データ3の出力を省略する場合には、注目領域設定部222は、点群データ3に代えて点群データ2を空間データ生成部228に出力する。空間データ生成部228は、点群データ3に代えて点群データ2を用いて対象物の位置、姿勢、等を算出する。
また、第1中心軸推定部224で選択される点対の数は、通例、1個よりも多い。選択される点対の数が1個よりも多い場合には、点対毎にステップS104、S105の処理が繰り返されてもよいし、並列して実行されてもよい。
以上、説明したように、本実施形態は、ハンド(例えば、ハンド部30c)と前記ハンドを動作させる制御部(例えば、制御部22)とを含み、撮像部が複数の物体(例えば、対象物)を撮像した撮像画像(例えば、二次元画像)のうち一部画像(例えば、注目領域)に対して三次元点群情報(例えば、点群データ1、2、3)を生成し、前記ハンドに前記一部画像に撮像された一の物体を把持させる。
これにより、撮像画像が示す複数の物体から一の物体を特定し、特定した物体をハンドに把持させることで、撮像領域内に分布した一の物体に係る作業を効率化することができる。つまり、本実施形態では撮像した撮像画像全体に対して三次元点群情報を生成するのではなく、二次元の撮像画像を画像処理することによってその一部に対応する三次元点群情報を生成する領域を特定し、当該領域に対して対象物の空間状態を検出する処理を行う。従来のように撮像画像において所定の変位量毎に注目領域(一部画像)を順次に設定し、設定した注目領域毎に処理を行う場合よりも、処理量が格段に減るので処理速度が向上する。
本実施形態は、撮像画像から一の物体を表す第1の領域(例えば、領域1)と第1の領域を含み、所定の形状を有する第2の領域(例えば、領域2)を定め、第1の領域(例えば、領域1)に対応する第1の三次元点群情報(例えば、点群データ1)と、第2の領域(例えば、領域2)に対応する第2の三次元点群情報(例えば、点群データ2)とを前記撮像画像から生成する。また、本実施形態は、前記第1の三次元点群情報に含まれる2点からなる複数の組のうち、2点間の線分の長さが所定の長さの範囲内となる組を選択し、選択した組をなす2点間の線分から予め定めた範囲内の点を前記第2の三次元点群情報から抽出する。また、本実施形態は、前記第2の三次元点群情報から抽出した各点までの距離と所定の閾値(例えば、対象物の半径r)との差(例えば、誤差)が予め定めた範囲内にある中心軸を選択する。
この構成によれば、撮像画像に基づいて第1の領域に対応する第1の三次元点群情報と第2の領域に対応する第2の三次元点群情報が処理対象として定められるので処理量を低減することができる。また、長さが所定の範囲内である2点を結ぶ中心軸からの半径が所定の範囲内にある点から形成される対象物の画像を表す点が特定される。そのため、曲面を有する対象物として、形状が円柱もしくは円柱に近似する対象物(例えば、ネジ、ボルト、等)の位置及び姿勢を推定することができる。また、本中心軸の推定に用いられる2点の組が選択される第1の三次元点群情報に係る第1の領域よりも広範な第2の領域に係る第2の三次元点群情報の点に基づいて中心軸が選択されるため、対象物の位置及び姿勢を推定する際に要する処理量を低減し、精度を損なわずに処理を高速化することができる。
また、本実施形態では、推定した位置及び姿勢の空間データに基づいて対象物を把持可能なハンド(例えば、ハンド部30c)を備えたロボット(例えば、ロボット30)の動作を制御することができる。これにより、ロボット30は、より汎用的な撮像部で撮像された撮像画像に基づいて対象物を把持する動作を実行することができるので、特殊なジグ等の部材を用いることなく乱雑に積まれた対象物の取り扱いが可能となる。
(変形例)
なお、本発明の技術範囲は上述した実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲において種々の変更を加えることが可能である。
上述した実施形態では、主に対象物の形状が円柱又は円柱に近似する形状である場合を例にしたが、これには限られない。対象物の形状は、例えば、三角柱、四角柱などの角柱または角柱に近似する形状等、三次元形状を有する物体であれば良い。
また、注目領域設定部222は、図5に示す処理のうち、少なくともステップS101〜S104、及びステップS106を実行すればよい。対象物の形状、大きさ又は種類によっては、注目領域設定部222は、ステップS105、S107、S108の一部又は全部を省略してもよい。例えば、対象物の形状が幾何学的に単純な円柱、角柱である場合のように、径が一定である場合には、ボルトの頭部のように径の変化を考慮する必要がないため、注目領域設定部222は、ステップS105を省略してもよい。また、径が一定である対象物は、二次元画像において幅がほぼ一定な領域として表れるので、その位置や姿勢による形状の変化が比較的少ない。そこで、注目領域設定部222は、ステップS104において楕円偏心率の算出や、楕円偏心率に基づく明領域の選別を省略してもよい。
また、対象物が、ボルトの頭部のように径が一定でなく変則的な部位を有し、その部位が角柱や円柱のように幾何学的に単純な形状に近似できない形状を有し、さらに、その形状が位置、姿勢の推定に影響を与える場合がある。そのような場合には、注目領域設定部222は、図5のステップS105に代えて、形状特有の処理を行い、その部位を表す可能性がある領域を、ステップS104で選択された明領域から削除してもよい。そのような部位には、例えば、対象物がコネクタである場合にはピン、爪が該当し、対象物がペットボトルである場合には蓋、口部、口部の周縁、が該当する。形状特有の処理は、その対象となる部位毎に異なる。例えば、対象物がコネクタ、ペットボトル、ボルトの場合には、注目領域設定部222は、明領域からテンプレートとなる形状で近似可能な領域と、それ以外の領域とを識別する。これにより、コネクタの爪、ペットボトルの蓋、ボルトの頭部を表す可能性がある領域が識別される。テンプレートとなる形状は、角柱、円柱、平板のように幾何学的に単純な形状を二次元画像に射影してなる形状、例えば、矩形である。そして、注目領域設定部222は、明領域から識別したそれ以外の領域を削除し、テンプレートとなる形状で近似可能な領域を残してもよい。
また、対象物の形状が、角柱のように平面を有する形状である場合には、注目領域設定部222は、図5のステップS107を省略してもよい。また、上述したように対象物の長さを区別する必要がない場合には、注目領域設定部222は、ステップS108を省略してもよい。ステップS107、S108が省略されたことにより、領域2、3が定められなかった場合には、制御部22は、図16のステップS203〜S208において、領域2、3にそれぞれ対応する点群データ2、3に代えて、点群データ1を用いてもよい。
また、上述した実施形態では、対象物の長さ(高さ)や半径を、予め制御部22に設定しておくことを前提に説明したが、これには限られない。制御装置20は、ユーザからの操作に応じて長さ及び半径を入力可能な入力部(図示せず)を備えてもよいし、通信回線を介して長さ及び半径を受信可能な通信部(図示せず)を備えてもよい。
上述した実施形態では、第2中心軸推定部226が、逐次二次推定法を用いて中心軸候補を推定する場合を例にとって説明したが、これには限られない。第2中心軸推定部226は、その他の手法として、ニュートン法などの非線形計画法や、最小二乗法などの回帰分析法を用いることができる。
撮像装置10は、各フレームの画像データを、個々に制御装置20に出力してもよいし、予め定めた時間間隔で逐次に制御装置20に出力してもよい。撮像装置10は、制御装置20と一体に構成されていてもよい。
上述した実施形態では、制御装置20とロボット30とは別個に構成されている場合を例にとって説明したが、これには限られない。制御装置20は、ロボット30と一体に構成されてもよい。
上述した実施形態に係るロボット30は、アーム部30bとハンド部30cとの組を1組備える単腕ロボットであるが、これには限られない。ロボット30が備えるアーム部30bとハンド部30cの数は、それぞれ1個よりも多くてもよい。
図17は、本変形例に係るロボットシステム2の構成を示す図である。
ロボットシステム2は、ロボットシステム1(図1)においてロボット30に代えてロボット230を備える。
ロボット230は、アーム部30bとハンド部30cとの組を2組備える双腕ロボットである。ロボット230は、格納部230dを備え、格納部230dの内部には、制御装置20が格納され、格納部230dの上面には、撮像装置10が設置されている。これにより、撮像装置10、制御装置20及びロボット230が一体に構成されている。
また、格納部230dの底面には、車輪が取り付けられている。これにより、外力が加えられることでロボットシステム2の全体が移動できるように構成されている。
また、制御装置20の一部、例えば、画像データ取得部21、注目領域設定部222、第1中心軸推定部224、点群抽出部225、第2中心軸推定部226、中心軸選択部227、空間データ生成部228及び制御信号生成部229の各処理を実行するためのプログラムをコンピューター読み取り可能な記録媒体に記録して、当該記録媒体に記録されたプログラムをコンピューターシステムに読み込ませ、実行することにより、制御装置に係る上述した種々の処理を行ってもよい。
なお、ここでいう「コンピューターシステム」とは、上述した処理を行うCPU(Central Processing Unit)、GPU(Graphics Processing Unit)、等のハードウェアの他、OS(Operating System)や周辺機器等のハードウェアを含むものであってもよい。また、「コンピューターシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。また、「コンピューター読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM(Read Only Memory)、フラッシュメモリー等の書き込み可能な不揮発性メモリー、CD(Compact Disc)−ROM等の可搬媒体、コンピューターシステムに内蔵されるハードディスク等の記憶装置のことをいう。
さらに「コンピューター読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピューターシステム内部の揮発性メモリー(例えば、DRAM:Dynamic Random Access Memory)のように、一定時間プログラムを保持しているものも含むものとする。また、上記プログラムは、このプログラムを記憶装置等に格納したコンピューターシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピューターシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであってもよい。さらに、前述した機能をコンピューターシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。
以上、本発明の実施形態について図面を参照して詳述したが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。
1、2 ロボットシステム
10 撮像装置
20 制御装置
21 画像データ取得部(画像受付部)
22 制御部(処理部)
222 注目領域設定部
224 第1中心軸推定部
225 点群抽出部
226 第2中心軸推定部
227 中心軸選択部
228 空間データ生成部
229 制御信号生成部
30、230 ロボット
30a 支持台
30b アーム部
30c ハンド部
230d 格納部

Claims (7)

  1. ハンドと、
    前記ハンドを動作させる制御部と、を含み、
    前記制御部は、
    撮像部が撮像した撮像画像を構成する画像の一部に対して三次元点群情報を生成し、前記ハンドに前記画像の一部に含まれる物体を把持させる、
    ロボット。
  2. 前記制御部は、
    前記撮像画像から前記物体を表す第1の領域と前記第1の領域を含み、所定の形状を有する第2の領域を定め、
    前記第1の領域に対応する第1の三次元点群情報と、
    前記第2の領域に対応する第2の三次元点群情報と、を前記撮像画像から生成し、
    前記第1の三次元点群情報に含まれる2点からなる複数の組のうち、2点間の線分の長さが所定の長さの範囲内となる組を選択し、
    選択した組をなす2点間の線分から予め定めた範囲内の点を前記第2の三次元点群情報から抽出し、
    前記第2の三次元点群情報から抽出した各点までの距離と所定の閾値との差が予め定めた範囲内にある中心軸を選択する、
    請求項1に記載のロボット。
  3. 前記制御部は、
    前記撮像画像から輝度が予め定めた閾値よりも大きい領域を検出し、検出した領域の形状を示す指標値が所定の範囲内である領域を前記第1の領域として決定する、
    請求項2に記載のロボット。
  4. 前記第2の領域の形状は矩形であって、
    前記制御部は、
    前記撮像画像から前記第2の領域の長手方向の長さよりも長い第3の領域を定め、
    前記第3の領域に対応する第3の三次元点群情報を前記撮像画像から抽出し、
    前記第3の三次元点群情報に含まれる点の前記中心軸の方向への分布に基づいて前記物体の前記中心軸の方向の長さを算出する、
    請求項2又は請求項3に記載のロボット。
  5. 撮像部が複数の物体を撮像した撮像画像を受け付ける画像受付部と、
    ロボットを動作させる処理部と、を含み、
    前記処理部は、
    前記撮像画像を構成する画像の一部に対して三次元点群情報を生成し、前記ロボットに、前記画像の一部に含まれる物体を把持させる、
    制御装置。
  6. 複数の物体を撮像する撮像部と、
    ロボットと、
    前記ロボットを動作させる制御部と、を含み、
    前記制御部は、
    前記撮像部が撮像した撮像画像を構成する画像の一部に対して三次元点群情報を生成し、前記画像の一部に含まれる物体を前記ロボットに把持させる、
    ロボットシステム。
  7. 複数の物体を撮像することと、
    前記複数の物体を撮像した撮像画像を構成する画像の一部に対して、三次元点群情報を生成することと、
    生成した前記三次元点群情報を用いて、ロボットに前記画像の一部に含まれる物体を把持させることと、
    を含む制御方法。
JP2014019827A 2014-02-04 2014-02-04 ロボット、ロボットシステム、制御装置、及び制御方法 Pending JP2015147256A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2014019827A JP2015147256A (ja) 2014-02-04 2014-02-04 ロボット、ロボットシステム、制御装置、及び制御方法
US14/612,701 US9764467B2 (en) 2014-02-04 2015-02-03 Robot, robot system, control device, and control method
CN201510055571.XA CN104816306A (zh) 2014-02-04 2015-02-03 机器人、机器人***、控制装置、以及控制方法
US15/680,625 US10562182B2 (en) 2014-02-04 2017-08-18 Robot, robot system, control device, and control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014019827A JP2015147256A (ja) 2014-02-04 2014-02-04 ロボット、ロボットシステム、制御装置、及び制御方法

Publications (1)

Publication Number Publication Date
JP2015147256A true JP2015147256A (ja) 2015-08-20

Family

ID=53726906

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014019827A Pending JP2015147256A (ja) 2014-02-04 2014-02-04 ロボット、ロボットシステム、制御装置、及び制御方法

Country Status (3)

Country Link
US (2) US9764467B2 (ja)
JP (1) JP2015147256A (ja)
CN (1) CN104816306A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105479461A (zh) * 2016-01-26 2016-04-13 先驱智能机械(深圳)有限公司 控制方法、控制装置及机械手***
CN108326848A (zh) * 2017-01-20 2018-07-27 精工爱普生株式会社 机器人
JP2020059066A (ja) * 2018-10-05 2020-04-16 株式会社Fuji ピッキング装置
JP2021105862A (ja) * 2019-12-26 2021-07-26 ファナック株式会社 三次元データを補間する三次元データ生成装置及びロボットシステム
DE112021008069T5 (de) 2021-09-15 2024-05-23 Yamaha Hatsudoki Kabushiki Kaisha Bildverarbeitungsvorrichtung, Komponentengreifsystem, Bildverarbeitungsverfahren und Komponentengreifverfahren

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9102055B1 (en) * 2013-03-15 2015-08-11 Industrial Perception, Inc. Detection and reconstruction of an environment to facilitate robotic interaction with the environment
CN105313127A (zh) * 2014-06-02 2016-02-10 精工爱普生株式会社 机器人、机器人的控制方法以及机器人的控制装置
DE102015204867A1 (de) * 2015-03-18 2016-09-22 Kuka Roboter Gmbh Robotersystem und Verfahren zum Betrieb eines teleoperativen Prozesses
EP3136290A1 (en) * 2015-08-28 2017-03-01 Thomson Licensing Method and device for determining the shape of an object represented in an image, corresponding computer program product and computer readable medium
CN105674991A (zh) * 2016-03-29 2016-06-15 深圳市华讯方舟科技有限公司 一种机器人定位方法和装置
CN105690393A (zh) * 2016-04-19 2016-06-22 惠州先进制造产业技术研究中心有限公司 一种基于机器视觉的四轴并联机器人分拣***及其分拣方法
US10245724B2 (en) * 2016-06-09 2019-04-02 Shmuel Ur Innovation Ltd. System, method and product for utilizing prediction models of an environment
JP2017222001A (ja) * 2016-06-15 2017-12-21 セイコーエプソン株式会社 ロボット、制御装置およびロボットシステム
JP2018034242A (ja) * 2016-08-31 2018-03-08 セイコーエプソン株式会社 ロボット制御装置、ロボット、及びロボットシステム
JP2018126799A (ja) * 2017-02-06 2018-08-16 セイコーエプソン株式会社 制御装置、ロボットおよびロボットシステム
JP6450788B2 (ja) * 2017-02-21 2019-01-09 ファナック株式会社 ワーク取出システム
JP6418359B1 (ja) * 2017-03-24 2018-11-07 三菱電機株式会社 ロボットプログラムの生成装置及び生成方法
US11143697B2 (en) * 2017-04-28 2021-10-12 Advantest Corporation Automated handling of different form factor devices under test in test cell
EP3412414A3 (en) * 2017-06-06 2018-12-26 Seiko Epson Corporation Control apparatus of robot system and robot system
EP3465267A4 (en) * 2017-08-25 2019-05-22 Beijing Didi Infinity Technology and Development Co., Ltd. METHODS AND SYSTEMS FOR DETECTING ENVIRONMENTAL INFORMATION OF A VEHICLE
JP2019066235A (ja) * 2017-09-29 2019-04-25 セイコーエプソン株式会社 エンコーダー、プリンターおよびロボット
JP6879238B2 (ja) * 2018-03-13 2021-06-02 オムロン株式会社 ワークピッキング装置及びワークピッキング方法
US10657419B2 (en) * 2018-03-28 2020-05-19 The Boeing Company Machine vision and robotic installation systems and methods
US11040452B2 (en) * 2018-05-29 2021-06-22 Abb Schweiz Ag Depth sensing robotic hand-eye camera using structured light
TWI796357B (zh) * 2018-09-04 2023-03-21 日商愛德萬測試股份有限公司 測試室中的不同形狀因子待測設備的自動化搬運
JP7097799B2 (ja) 2018-11-21 2022-07-08 Thk株式会社 画像情報処理装置、把持システム、および画像情報処理方法
WO2020175425A1 (ja) * 2019-02-25 2020-09-03 国立大学法人 東京大学 ロボットシステム、ロボットの制御装置、およびロボットの制御プログラム
CN109848951A (zh) * 2019-03-12 2019-06-07 易思维(天津)科技有限公司 大型工件的自动加工设备及方法
CN112116804B (zh) * 2019-06-19 2023-03-07 北京地平线机器人技术研发有限公司 一种车辆状态量信息确定方法及装置
CN110608872A (zh) * 2019-09-30 2019-12-24 云谷(固安)科技有限公司 光学检测设备及检测方法
TWI738124B (zh) * 2019-11-22 2021-09-01 香港商女媧創造股份有限公司 具有可移動機構的非平面內投影的機器人系統
CN111113416A (zh) * 2019-12-19 2020-05-08 郑州宇恒环保技术有限公司 基于机器视觉的轴承在线检测***
CN111906765B (zh) * 2020-07-31 2022-07-12 平安科技(深圳)有限公司 应用于路径规划的空间采样方法、装置、设备及介质
CN112836681B (zh) * 2021-03-03 2024-01-26 上海高仙自动化科技发展有限公司 一种障碍物标记方法、装置及可读非暂时性存储介质
IT202100016460A1 (it) * 2021-06-23 2022-12-23 Stevanato Group Spa Apparato per il confezionamento di contenitori di dispositivi per uso farmaceutico

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001005978A (ja) * 1999-06-18 2001-01-12 Sony Corp 物体抽出装置、物体抽出方法、およびプログラム提供媒体
WO2007083039A2 (fr) * 2006-01-23 2007-07-26 Grosbois Jerome Procede et systeme permettant la prehension automatisee de piece(s)
JP2008006519A (ja) * 2006-06-27 2008-01-17 Toyota Motor Corp ロボット装置及びロボット装置の制御方法
US20090033655A1 (en) * 2007-08-02 2009-02-05 Boca Remus F System and method of three-dimensional pose estimation
JP2009128201A (ja) * 2007-11-26 2009-06-11 Mitsubishi Electric Corp 位置姿勢認識装置
JP2010247959A (ja) * 2009-04-16 2010-11-04 Ihi Corp 箱状ワーク認識装置および方法
JP2011167815A (ja) * 2010-02-19 2011-09-01 Ihi Corp 物体認識ロボットシステム
JP2012026974A (ja) * 2010-07-27 2012-02-09 3D Media Co Ltd 3次元物体認識装置及び3次元物体認識方法
US20130238125A1 (en) * 2012-03-09 2013-09-12 Canon Kabushiki Kaisha Information processing apparatus and information processing method

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2919284B2 (ja) * 1994-02-23 1999-07-12 松下電工株式会社 物体認識方法
US6995762B1 (en) * 2001-09-13 2006-02-07 Symbol Technologies, Inc. Measurement of dimensions of solid objects from two-dimensional image(s)
JP3930490B2 (ja) * 2004-04-23 2007-06-13 ファナック株式会社 物品取出し装置
SE529377C2 (sv) * 2005-10-18 2007-07-24 Morphic Technologies Ab Publ Metod och arrangemang för att lokalisera och plocka upp föremål från en bärare
US9089966B2 (en) * 2010-11-17 2015-07-28 Mitsubishi Electric Corporation Workpiece pick-up apparatus
JP5892360B2 (ja) * 2011-08-02 2016-03-23 ソニー株式会社 ロボット指示装置、ロボット指示方法、プログラム、及び通信システム
JP5494597B2 (ja) * 2011-09-16 2014-05-14 株式会社安川電機 ロボットシステム
JP2013101045A (ja) * 2011-11-08 2013-05-23 Fanuc Ltd 物品の3次元位置姿勢の認識装置及び認識方法
JP6000579B2 (ja) * 2012-03-09 2016-09-28 キヤノン株式会社 情報処理装置、情報処理方法
JP5977544B2 (ja) * 2012-03-09 2016-08-24 キヤノン株式会社 情報処理装置、情報処理方法
JP6092530B2 (ja) * 2012-06-18 2017-03-08 キヤノン株式会社 画像処理装置、画像処理方法
CN104540648B (zh) * 2012-08-02 2018-10-12 株式会社富士 具备多关节型机器人的作业机及电子元件安装机
JP6021533B2 (ja) * 2012-09-03 2016-11-09 キヤノン株式会社 情報処理システム、装置、方法及びプログラム
JP5786896B2 (ja) * 2013-06-07 2015-09-30 株式会社安川電機 ワーク検出装置、ロボットシステム、被加工物の製造方法及びワーク検出方法

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001005978A (ja) * 1999-06-18 2001-01-12 Sony Corp 物体抽出装置、物体抽出方法、およびプログラム提供媒体
WO2007083039A2 (fr) * 2006-01-23 2007-07-26 Grosbois Jerome Procede et systeme permettant la prehension automatisee de piece(s)
JP2009523623A (ja) * 2006-01-23 2009-06-25 ジェローム グロボア, ワーク自動把持の方法と装置
JP2008006519A (ja) * 2006-06-27 2008-01-17 Toyota Motor Corp ロボット装置及びロボット装置の制御方法
US20090208094A1 (en) * 2006-06-27 2009-08-20 Hirohito Hattori Robot apparatus and method of controlling same
US20090033655A1 (en) * 2007-08-02 2009-02-05 Boca Remus F System and method of three-dimensional pose estimation
JP2009128201A (ja) * 2007-11-26 2009-06-11 Mitsubishi Electric Corp 位置姿勢認識装置
JP2010247959A (ja) * 2009-04-16 2010-11-04 Ihi Corp 箱状ワーク認識装置および方法
JP2011167815A (ja) * 2010-02-19 2011-09-01 Ihi Corp 物体認識ロボットシステム
JP2012026974A (ja) * 2010-07-27 2012-02-09 3D Media Co Ltd 3次元物体認識装置及び3次元物体認識方法
US20130238125A1 (en) * 2012-03-09 2013-09-12 Canon Kabushiki Kaisha Information processing apparatus and information processing method
JP2013184278A (ja) * 2012-03-09 2013-09-19 Canon Inc 情報処理装置、情報処理方法

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105479461A (zh) * 2016-01-26 2016-04-13 先驱智能机械(深圳)有限公司 控制方法、控制装置及机械手***
CN108326848A (zh) * 2017-01-20 2018-07-27 精工爱普生株式会社 机器人
CN108326848B (zh) * 2017-01-20 2022-07-12 精工爱普生株式会社 机器人
JP2020059066A (ja) * 2018-10-05 2020-04-16 株式会社Fuji ピッキング装置
JP7173816B2 (ja) 2018-10-05 2022-11-16 株式会社Fuji ピッキング装置
JP2021105862A (ja) * 2019-12-26 2021-07-26 ファナック株式会社 三次元データを補間する三次元データ生成装置及びロボットシステム
JP7405607B2 (ja) 2019-12-26 2023-12-26 ファナック株式会社 三次元データを補間する三次元データ生成装置及びロボットシステム
DE112021008069T5 (de) 2021-09-15 2024-05-23 Yamaha Hatsudoki Kabushiki Kaisha Bildverarbeitungsvorrichtung, Komponentengreifsystem, Bildverarbeitungsverfahren und Komponentengreifverfahren

Also Published As

Publication number Publication date
CN104816306A (zh) 2015-08-05
US20150217451A1 (en) 2015-08-06
US20170341230A1 (en) 2017-11-30
US9764467B2 (en) 2017-09-19
US10562182B2 (en) 2020-02-18

Similar Documents

Publication Publication Date Title
JP2015147256A (ja) ロボット、ロボットシステム、制御装置、及び制御方法
JP5458885B2 (ja) 物体検出方法と物体検出装置およびロボットシステム
JP5618569B2 (ja) 位置姿勢推定装置及びその方法
JP6415026B2 (ja) 干渉判定装置、干渉判定方法、コンピュータプログラム
US9044858B2 (en) Target object gripping apparatus, method for controlling the same and storage medium
JP5612916B2 (ja) 位置姿勢計測装置、その処理方法、プログラム、ロボットシステム
US9118823B2 (en) Image generation apparatus, image generation method and storage medium for generating a target image based on a difference between a grip-state image and a non-grip-state image
US9576363B2 (en) Object picking system, object detecting device, object detecting method
CN107077735A (zh) 三维对象识别
JP6489243B2 (ja) 物体認識装置、物体認識方法、物体認識プログラム、ロボットシステム及びロボット
JP5093591B2 (ja) 三次元位置姿勢計測方法および装置
JP2018036770A (ja) 位置姿勢推定装置、位置姿勢推定方法、及び位置姿勢推定プログラム
JP6237122B2 (ja) ロボット、画像処理方法及びロボットシステム
Fang et al. GraspNet: a large-scale clustered and densely annotated dataset for object grasping
JP2015079374A (ja) 物体認識装置、物体認識方法、物体認識プログラム、ロボットシステム及びロボット
JP6124566B2 (ja) 画像認識方法および画像認識装置
JP5960642B2 (ja) 3次元情報取得方法及び3次元情報取得装置
JP3516668B2 (ja) 3次元形状認識方法、装置およびプログラム
CN111742349B (zh) 信息处理装置、信息处理方法以及信息处理存储介质
JP6512852B2 (ja) 情報処理装置、情報処理方法
JP2020051762A (ja) 三次元形状検査装置、三次元形状検査方法、三次元形状検査プログラム、コンピュータ
JP5757157B2 (ja) 検出対象物について頭部分の位置および軸部分の方向を算出する方法、装置およびプログラム
WO2023140266A1 (ja) ピッキング装置及び画像生成プログラム
Mishra et al. Development and evaluation of a Kinect based Bin-Picking system
CN117367308A (zh) 三维全场应变测量方法及其在机械设备中的应用

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161207

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171006

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171024

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171220

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180605