JP2013145525A - 物品取り出し判定装置、物品取り出し判定システム、物品取り出しシステム、物品取り出し判定プログラムおよび物品取り出し判定方法 - Google Patents
物品取り出し判定装置、物品取り出し判定システム、物品取り出しシステム、物品取り出し判定プログラムおよび物品取り出し判定方法 Download PDFInfo
- Publication number
- JP2013145525A JP2013145525A JP2012006407A JP2012006407A JP2013145525A JP 2013145525 A JP2013145525 A JP 2013145525A JP 2012006407 A JP2012006407 A JP 2012006407A JP 2012006407 A JP2012006407 A JP 2012006407A JP 2013145525 A JP2013145525 A JP 2013145525A
- Authority
- JP
- Japan
- Prior art keywords
- articles
- article
- image
- recognition target
- range
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Analysis (AREA)
- Manipulator (AREA)
- Image Processing (AREA)
Abstract
【課題】 複数の物品から認識された1つ以上の物品のそれぞれについて、当該1つ以上の物品の認識結果に基づいて、衝突することなく取り出すことが可能か否かを判定する。
【解決手段】 多面体形状をした複数の物品からなる物品群を撮像するステレオカメラによって撮像された第1および第2の撮像画像に基づいて複数の物品の3次元画像を生成し、3次元画像に基づいて物品群に含まれる1つ以上の物品を認識して位置・姿勢情報を算出する認識処理部と、位置・姿勢情報に基づいて、1つ以上の物品の形状を第1の撮像画像上に射影した射影画像を生成する射影変換部と、1つ以上の物品が第1の撮像画像において占める範囲を認識対象範囲として特定する範囲特定部と、射影画像および認識対象範囲に基づいて、1つ以上の物品のそれぞれについて、物品群に含まれる他の物品に衝突することなく取り出すことが可能か否かを判定する判定部と、を有する。
【選択図】 図1
【解決手段】 多面体形状をした複数の物品からなる物品群を撮像するステレオカメラによって撮像された第1および第2の撮像画像に基づいて複数の物品の3次元画像を生成し、3次元画像に基づいて物品群に含まれる1つ以上の物品を認識して位置・姿勢情報を算出する認識処理部と、位置・姿勢情報に基づいて、1つ以上の物品の形状を第1の撮像画像上に射影した射影画像を生成する射影変換部と、1つ以上の物品が第1の撮像画像において占める範囲を認識対象範囲として特定する範囲特定部と、射影画像および認識対象範囲に基づいて、1つ以上の物品のそれぞれについて、物品群に含まれる他の物品に衝突することなく取り出すことが可能か否かを判定する判定部と、を有する。
【選択図】 図1
Description
本発明は、物品取り出し判定装置、物品取り出し判定システム、物品取り出しシステム、物品取り出し判定プログラム、および物品取り出し判定方法に関する。
近年、工場の製造ラインなどにおいて、物品(ワーク)を把持するために、人間の腕に近い構造をしたマニピュレータや(垂直)多関節ロボットが用いられている。これらのマニピュレータやロボットを用いることによって、種々の作業を作業者に代わって行うことができる。
例えば、特許文献1では、カメラによって撮像されたワークの画像から位置および姿勢を求めて、当該ワークをロボットにより取り出すワーク取り出し装置が開示されている。また、例えば、特許文献2では、3次元物体の認識方法として、カメラによって撮像された2次元画像における輪郭などの特徴から3次元物体を認識し、位置および姿勢を求める方法が開示されている。
このようにして、カメラによって撮像された画像からワークを認識し、得られた位置・姿勢情報に基づいて、ワークを取り出すことができる。
例えば、特許文献1では、カメラによって撮像されたワークの画像から位置および姿勢を求めて、当該ワークをロボットにより取り出すワーク取り出し装置が開示されている。また、例えば、特許文献2では、3次元物体の認識方法として、カメラによって撮像された2次元画像における輪郭などの特徴から3次元物体を認識し、位置および姿勢を求める方法が開示されている。
このようにして、カメラによって撮像された画像からワークを認識し、得られた位置・姿勢情報に基づいて、ワークを取り出すことができる。
しかしながら、例えば複数のワークがトレイに山積みまたはバラ積みされ、各ワークが乱雑に重なり合ってランダムな姿勢をとっている場合などには、すべてのワークを認識して位置・姿勢情報を求めることができない場合もある。この場合、認識された各ワークについて、他のワークに衝突することなく取り出すことが可能か否かを判定することは困難である。
例えば特許文献1のワーク取り出し装置では、円柱形状部分を有するワークのみを認識対象としており、重なり合った2個のワークの上下関係を判断するためには、当該2個の位置・姿勢情報が必要となる。したがって、円柱形状部分を有しないワークを認識することはできず、また、認識することができなかったワークだけでなく、当該ワークと重なり合ったワークについても取り出しの可否を判定することはできない。
そのため、従来のワーク取り出し装置では、ワーク同士の衝突を回避するため、マニピュレータやロボットに衝突検知機能を設けるなどの対策がとられていた。
例えば特許文献1のワーク取り出し装置では、円柱形状部分を有するワークのみを認識対象としており、重なり合った2個のワークの上下関係を判断するためには、当該2個の位置・姿勢情報が必要となる。したがって、円柱形状部分を有しないワークを認識することはできず、また、認識することができなかったワークだけでなく、当該ワークと重なり合ったワークについても取り出しの可否を判定することはできない。
そのため、従来のワーク取り出し装置では、ワーク同士の衝突を回避するため、マニピュレータやロボットに衝突検知機能を設けるなどの対策がとられていた。
前述した課題を解決する主たる本発明は、多面体形状をした複数の物品からなる物品群を撮像するステレオカメラによって撮像された第1および第2の撮像画像に基づいて前記複数の物品の3次元画像を生成し、前記3次元画像に基づいて前記物品群に含まれる1つ以上の物品を認識して位置・姿勢情報を算出する認識処理部と、前記位置・姿勢情報に基づいて、前記1つ以上の物品の形状を前記第1の撮像画像上に射影した射影画像を生成する射影変換部と、前記1つ以上の物品が前記第1の撮像画像において占める範囲を認識対象範囲として特定する範囲特定部と、前記射影画像および前記認識対象範囲に基づいて、前記1つ以上の物品のそれぞれについて、前記物品群に含まれる他の物品に衝突することなく取り出すことが可能か否かを判定する判定部と、を有し、前記判定部は、前記1つ以上の物品のそれぞれについて、前記射影画像が前記認識対象範囲と所定の許容範囲内で一致している場合には、取り出し可能と判定し、前記射影画像が前記認識対象範囲から前記所定の許容範囲を超えてはみ出している場合には、取り出し不可と判定することを特徴とする物品取り出し判定装置である。
本発明の他の特徴については、添付図面及び本明細書の記載により明らかとなる。
本発明によれば、複数の物品から認識された1つ以上の物品のそれぞれについて、当該1つ以上の物品の認識結果に基づいて、衝突することなく取り出すことが可能か否かを判定することができる。
本明細書および添付図面の記載により、少なくとも以下の事項が明らかとなる。
===物品取り出し判定装置および物品取り出しシステムの構成===
以下、図1および図2を参照して、本発明の一実施形態における物品取り出し判定装置および物品取り出し(判定)システムの構成について説明する。
以下、図1および図2を参照して、本発明の一実施形態における物品取り出し判定装置および物品取り出し(判定)システムの構成について説明する。
図2は、本実施形態における物品取り出しシステム全体の構成を示している。図2に示されている物品取り出しシステムは、ステレオカメラ4、マニピュレータ5、およびコンピュータ100を含んで構成され、一例として、頂点間を結ぶ直線で囲まれた平面によって構成される多面体(例えば直方体)形状をした6つのワークWn(1≦n≦6)を取り出し対象とする。また、ステレオカメラ4は、ワーク群を収納するトレイ9が据え置かれる作業台などの上方に配置されている。
ステレオカメラ4は、ワーク群に対する相対位置が異なるカメラC1およびC2を備え、カメラC1およびC2によってそれぞれ撮像された撮像画像IM1およびIM2(第1および第2の撮像画像)は、コンピュータ100に入力されている。さらに、コンピュータ100から出力される制御信号CNTは、マニピュレータ5に入力されている。
例えばPCなどのコンピュータ100は、キーボード101などの入力装置、ディスプレイ102などの出力装置、および認識情報データベース103を格納する記憶装置を備えている。そして、コンピュータ100は、撮像画像IM1およびIM2に基づいて各ワークWnについての取り出しの可否を判定し、判定結果J[Wn]をディスプレイ102に表示させるとともに、キーボード101からの入力などに応じてマニピュレータ5を制御する。すなわち、コンピュータ100は、図1に示す物品取り出し判定装置1および制御装置2の機能を実現する。
図1に示されている物品取り出し判定装置1は、認識処理部11、射影変換部12、範囲特定部13、および判定部14を含んで構成されている。また、制御装置2には、キーボード101などから入力信号INが入力され、制御装置2からは、マニピュレータ5を制御するための制御信号CNTが出力されている。
認識処理部11には、撮像画像IM1およびIM2が入力され、認識処理部11は、認識情報データベース103を参照して、ワークWnの位置・姿勢情報T[Wn]を出力している。また、射影変換部12には、位置・姿勢情報T[Wn]が入力され、射影変換部12からは、ワークWnの射影画像P[Wn]が出力されている。さらに、範囲特定部13には、撮像画像IM1および位置・姿勢情報T[Wn]が入力され、範囲特定部13からは、ワークWnの認識対象範囲Q[Wn]が出力されている。そして、判定部14には、射影画像P[Wn]および認識対象範囲Q[Wn]が入力され、判定部14からは、ワークWnについての取り出し可否の判定結果J[Wn]が出力されている。
===物品取り出し判定装置の動作===
以下、図3ないし図18を適宜参照して、本実施形態における物品取り出し判定装置の動作について説明する。なお、以下の説明においては、一例として、ワークW1ないしW6が図2のように配置されているものとし、一方のカメラ(例えばC1)によって撮像された当該ワーク群の撮像画像(例えばIM1)を図3に示す。
以下、図3ないし図18を適宜参照して、本実施形態における物品取り出し判定装置の動作について説明する。なお、以下の説明においては、一例として、ワークW1ないしW6が図2のように配置されているものとし、一方のカメラ(例えばC1)によって撮像された当該ワーク群の撮像画像(例えばIM1)を図3に示す。
前述したように、物品取り出し判定装置1の機能は、コンピュータ100によって実現することができる。例えば、認識情報データベース103を格納する記憶装置を備えるコンピュータに物品取り出し判定プログラムを実行させることによって、認識処理部11、射影変換部12、範囲特定部13、および判定部14に相当する機能を実現することができる。図4、図7、および図16は、それぞれ射影変換部12、範囲特定部13、および判定部14に相当する機能をコンピュータに実現させるためのプログラムの動作を示している。
認識処理部11は、ステレオカメラ4によって撮像された一対の撮像画像IM1およびIM2に基づいて公知の位置・姿勢認識処理を行い、各ワークWnの位置・姿勢情報T[Wn]を算出する。具体的には、例えば、一対の撮像画像からそれぞれワークWnを含む一対の領域画像を生成し、領域画像間の視差に基づいて3次元画像を生成し、3次元画像を認識情報データベース103に格納されている3次元モデル(3D−CADデータなど)と照合して位置・姿勢情報T[Wn]を算出する。
ここで、位置・姿勢情報T[Wn]は、4行4列の同次変換行列を用いて、
と表すことができる。なお、同次変換行列において、P(3×1)は、位置(平行移動)を示す3行1列の行列であり、
と表すことができる。一方、R(3×3)は、姿勢(各座標軸を中心とする回転)を示す3行3列の行列であり、x軸回りにθx、y軸回りにθy、z軸回りにθzだけ回転させた場合には、
と表されるRx、Ry、およびRzの積として表すことができる。
と表すことができる。なお、同次変換行列において、P(3×1)は、位置(平行移動)を示す3行1列の行列であり、
と表すことができる。一方、R(3×3)は、姿勢(各座標軸を中心とする回転)を示す3行3列の行列であり、x軸回りにθx、y軸回りにθy、z軸回りにθzだけ回転させた場合には、
と表されるRx、Ry、およびRzの積として表すことができる。
射影変換部12は、認識処理部11の認識結果に基づいて、認識された各ワークWnの射影画像P[Wn]を生成する。ここで、ワークWnに対する射影変換部12に相当する機能(射影変換処理)をコンピュータに実現させるためのプログラムの動作を図4に示す。
射影変換処理が開始されると(S11)、ワークWnの3次元画像と照合された3次元モデルの点群データ(データ数I)に対して、S12ないしS14の処理が行われる(ループ処理1)。
ループ処理1においては、まず、ワークWnの位置・姿勢情報T[Wn]に基づいて、3次元モデルの点群データを座標変換する(S12)。次に、座標変換した点群データを撮像画像IM1の座標に射影変換して(S13)、撮像画像IM1上にプロットする(S14)。なお、S13の処理には、例えばOpenCVの射影変換関数を用いることができる。
そして、S12ないしS14のループ処理1を3次元モデルの各点群データに対して行うことによって、撮像画像IM1上にプロットされたワークWnの射影画像P[Wn]を生成することができ、射影変換処理を終了する(S15)。さらに、当該射影変換処理は、認識処理部11の位置・姿勢認識処理によって認識された各ワークに対して行われる。ここで、一例として、射影変換処理によって生成されたワークW1の射影画像P[W1]およびワークW2の射影画像P[W2]をそれぞれ図5および図6に示す。
範囲特定部13は、認識処理部11の認識結果に基づいて、認識された各ワークWnが撮像画像IM1において占める範囲(撮像画像IM1にワークWnが写っている範囲)を認識対象範囲Q[Wn]として特定する。ここで、ワークWnに対する範囲特定部13に相当する機能(範囲特定処理)をコンピュータに実現させるためのプログラムの動作を図7に示す。
範囲特定処理が開始されると(S21)、まず、撮像画像IM1からエッジを抽出してエッジ画像を生成し、当該エッジ画像から角度線分情報を取得する(S22)。ここで、角度線分情報は、それぞれ2つの線分とその交点とで構成される情報である。具体的には、例えば、エッジ画像からすべての線分を抽出し、任意の2つの線分の交点を検索することによって、エッジ画像に含まれるすべての角度線分情報を取得することができる。ここで、一例として、ワークW1およびW2の角度線分情報をそれぞれ図8および図9に示す。
角度線分情報の取得においては、3つ以上の線分が1点で交わり(1点を共有し)、同一の交点を共有する複数の角度線分情報を生じる場合がある。この場合において、ある1つの角度線分情報が有する角度が、残りの角度線分情報が有する角度の総和と等しい場合には、当該1つの角度線分情報は抽出しなくても構わない。なお、角度線分情報が有する角度とは、当該角度線分情報が有する2つの線分に挟まれた挟角(夾角)であって、180度より小さい劣角を指すものとする。
例えば図10に示すように、ワークW1の角度線分情報の取得においては、角度線分情報Axも抽出され得る。しかしながら、線分L1およびL2の挟角を90°とし、線分L2およびL3の挟角を45°とすると、線分L3およびL1の挟角は135°(=90°+45°)であるため、線分L3およびL1を有する角度線分情報Axは抽出しなくても構わない。また、同様に、角度線分情報AyおよびAzは抽出しなくても構わない。さらに、例えば図11に示すように、ワークW2の角度線分情報の取得においては、角度線分情報BxないしBzは抽出しなくても構わない。以下の説明においては、取得されたワークW1およびW2の角度線分情報には、これらの角度線分情報AxないしAz、およびBxないしBzが含まれないものとする。
次に、ワークWnの角度線分情報(情報数J)に対して、S23ないしS27の処理が行われる(ループ処理2)。
ループ処理2においては、まず、1つの角度線分情報を基点として選択し(S23)、当該選択された角度線分情報の一方の線分の方向を検索する(S24)。そして、当該一方の線分と同一方向の線分を含む隣接する角度線分情報がある場合(S25:YES)には、当該隣接する角度線分情報を次の角度線分情報として選択する(S26)。
次に、基点の角度線分情報に到達していない場合、すなわち、次の角度線分情報が基点の角度線分情報と一致していない場合(S27:NO)には、再びS24の処理を行う。なお、この場合には、S24において、現在選択されている角度線分情報の2つの線分の方向うち、前回検索された方向とは別の方向を検索する。
以上のように、基点の角度線分情報から開始して、隣接する角度線分情報を順次選択しながら追跡し、基点の角度線分情報に到達した場合(S27:YES)には、当該追跡を終了し、別の角度線分情報を基点とした追跡を行う。なお、S25において、隣接する角度線分情報が検索されない場合(S25:NO)には、追跡を中止し、別の角度線分情報を基点とした追跡を行う。
ここで、一例として、図8に示したワークW1の角度線分情報をそれぞれA1ないしA12とし、これらの角度線分情報をそれぞれ基点として、隣接する角度線分情報を基点の角度線分情報まで順次追跡した結果を図12に示す。図12に示すように、ワークW1の角度線分情報は、A1を基点とした場合には、A1、A2、A3、A4、A1の順に追跡され、A5を基点とした場合には、A5、A6、A7、A8、A5の順に追跡され、A9を基点とした場合には、A9、A10、A11、A12、A9の順に追跡される。なお、それ以外の場合の追跡結果は、角度線分情報A1、A5、およびA9を基点とした場合の追跡結果の何れかと重なるため、追跡を省略してもよい。
また、一例として、図9に示したワークW2の角度線分情報をそれぞれB1ないしB17とし、これらの角度線分情報をそれぞれ基点として、隣接する角度線分情報を基点の角度線分情報まで順次追跡した結果を図13に示す。図13に示すように、ワークW2の角度線分情報は、B1を基点とした場合には、B1、B2、B3、B4、B5、B6、B7、B8、B9、B1の順に追跡され、B10を基点とした場合には、B10、B11、B12、B13、B10の順に追跡され、B14を基点とした場合には、B14、B15、B16、B17、B14の順に追跡される。なお、それ以外の場合の追跡結果は、角度線分情報B1、B10、およびB14を基点とした場合の追跡結果の何れかと重なるため、追跡を省略してもよい。
そして、S22ないしS27のループ処理2をワークWnの各角度線分情報に対して行うことによって、各角度線分情報を基点として追跡した軌跡(の集合)をワークWnの認識対象範囲Q[Wn]として特定することができ、範囲特定処理を終了する(S28)。さらに、当該範囲特定処理は、認識処理部11の位置・姿勢認識処理によって認識された各ワークに対して行われる。ここで、一例として、範囲特定処理によって特定されたワークW1の認識対象範囲Q[W1]およびワークW2の認識対象範囲Q[W2]をそれぞれ図14および図15に示す。
判定部14は、射影画像P[Wn]および認識対象範囲Q[Wn]に基づいて、各ワークWnについて、他のワークに衝突することなく取り出すことが可能か否かを判定し、判定結果J[Wn]を出力する。具体的には、例えば、射影画像P[Wn]が認識対象範囲Q[Wn]と所定の許容範囲内で一致している場合には、ワークWnを取り出し可能と判定する。一方、射影画像P[Wn]が認識対象範囲Q[Wn]から許容範囲を超えてはみ出している場合には、ワークWnを取り出し不可と判定する。ここで、ワークWnに対する判定部14に相当する機能(判定処理)をコンピュータに実現させるためのプログラムの動作を図16に示す。
判定処理が開始されると(S31)、まず、射影画像P[Wn]および認識対象範囲Q[Wn]の輪郭を抽出し、これらの輪郭を追跡して、それぞれ所定の間隔で輪郭座標(点列の集合)P’[Wn]および輪郭座標(点列の集合)Q’[Wn]を取得する(S32)。ここで、一例として、ワークW1の射影画像の輪郭座標P’[W1]および認識対象範囲の輪郭座標Q’[W1]を図17に示し、ワークW2の射影画像の輪郭座標P’[W2]および認識対象範囲の輪郭座標Q’[W2]を図18に示す。
次に、ワークWnの認識対象範囲の輪郭座標Q’[Wn](座標数K)に対して、S33およびS34の処理が行われる(ループ処理3)。なお、ループ処理3において、輪郭座標Q’[Wn]に含まれるK個の点列の座標のそれぞれを輪郭座標Qk’[Wn](1≦k≦K)と表すこととする。
ループ処理3においては、輪郭座標Qk’[Wn]が輪郭座標P’[Wn]と一致せず、内側にある場合(S33:YES)には、不一致数Mをインクリメントする(S34)。輪郭座標Qk’[Wn]が輪郭座標P’[Wn]と一致し、内側にない場合(S33:NO)には、不一致数Mをインクリメントしない。
そして、S33およびS34のループ処理3をワークWnの認識対象範囲の各輪郭座標Qk’[Wn]に対して行うことによって、K個の輪郭座標Q’[Wn]のうち、輪郭座標P’[Wn]と一致しなかった座標数をカウントした不一致数Mが得られる。
次に、射影画像P[Wn]と認識対象範囲Q[Wn]との不一致率を示すM/Kが所定の閾値Mth以下(例えば5%以下)の場合(S35:YES)には、射影画像P[Wn]が認識対象範囲Q[Wn]と許容範囲内で一致しており、ワークWnを取り出し可能と判定し(S36)、判定処理を終了する(S38)。例えば図17に示したように、重なり合ったワークW1およびW2のうち、上側のワークW1については、輪郭座標Qk’[W1]が輪郭座標P’[W1]と略一致しており、不一致数Mがほとんどインクリメントされないため、取り出し可能と判定される。
一方、不一致率M/Kが閾値Mthより高い場合(S35:NO)には、射影画像P[Wn]が認識対象範囲Q[Wn]から許容範囲を超えてはみ出しており、ワークWnを取り出し不可と判定し(S37)、判定処理を終了する(S38)。例えば図18に示したように、重なり合ったワークW1およびW2のうち、下側のワークW2については、輪郭座標Qk’[W2]の一部(図13において角度線分情報B5からB9までの区間)が輪郭座標P’[W2]と一致せず、内側にある。ここで、不一致率M/Kが閾値Mthより高いので、取り出し不可と判定される。
さらに、当該判定処理は、認識処理部11の位置・姿勢認識処理によって認識された各ワークに対して行われる。
このようにして、物品取り出し判定装置1は、ワークWnの射影画像P[Wn]を生成するとともに、認識対象範囲Q[Wn]を特定し、両者を照合することによって、認識した各ワークWnについての取り出しの可否を判定する。当該判定方法では、1つのワークについての取り出しの可否を判定するためには、当該1つのワークが認識されていればよい。
例えば、認識処理部11がワークW1のみを認識することができ、他のワークを認識することができなかった場合であっても、図17に示した輪郭座標P’[W1]およびQ’[W1]を取得することができるため、ワークW1について取り出し可能と判定することができる。また、例えば、認識処理部11がワークW2のみを認識することができ、他のワークを認識することができなかった場合であっても、図18に示した輪郭座標P’[W2]およびQ’[W2]を取得することができるため、ワークW2について取り出し不可と判定することができる。
また、物品取り出し判定装置1は、各ワークWnについての取り出し可否の判定結果J[Wn]をディスプレイ102に表示させる。判定結果J[Wn]の表示方法としては、例えば、撮像画像IM1と、射影画像P[Wn]および/または認識対象範囲Q[Wn]とをディスプレイ102に表示させたうえで、取り出し可能と判定されたワークに所定のマークを付けたり、所定の色で表示したりすることができる。そして、作業者は、ディスプレイ102の表示を確認しながら、キーボード101などを用いてマニピュレータ5に対する操作指示(入力信号IN)を制御装置2に入力し、マニピュレータ5でワークを把持して取り出すことができる。
なお、物品取り出しシステムは、マニピュレータに代えて多関節ロボットを備えてもよく、例えば図19に示すように、判定結果J[Wn]をロボット制御装置3に入力し、ロボット制御装置3から多関節ロボット5を制御するための制御信号CNTを出力する構成としてもよい。
===取り出し可否の他の判定方法===
上記実施形態では、K個の輪郭座標Q’[Wn]のうち、輪郭座標P’[Wn]と一致せず、内側にある座標数をカウントした不一致数Mに基づいて、各ワークWnについての取り出しの可否を判定しているが、これに限定されるものではない。例えば、図16のループ処理3において、画像の精度を考慮して、輪郭座標Qk’[Wn]が輪郭座標P’[Wn]と完全に一致していなくても、所定の許容幅で一致していると判定するようにしてもよい。
上記実施形態では、K個の輪郭座標Q’[Wn]のうち、輪郭座標P’[Wn]と一致せず、内側にある座標数をカウントした不一致数Mに基づいて、各ワークWnについての取り出しの可否を判定しているが、これに限定されるものではない。例えば、図16のループ処理3において、画像の精度を考慮して、輪郭座標Qk’[Wn]が輪郭座標P’[Wn]と完全に一致していなくても、所定の許容幅で一致していると判定するようにしてもよい。
また、例えば図20に示すように、輪郭座標P’[Wn]およびQ’[Wn]の面積比率に基づいて取り出し可否を判定することもできる。図20において、判定処理が開始されると(S41)、まず、図16におけるS32の処理と同様に、射影画像P[Wn]および認識対象範囲Q[Wn]の輪郭を抽出し、ワークWnの輪郭座標P’[Wn]およびQ’[Wn]を取得する(S42)。
次に、輪郭座標P’[Wn]およびQ’[Wn]が描く図形(抽出した輪郭の図形)に対して、それぞれの面積Sp[Wn]およびSq[Wn]を算出する(S43)。そして、輪郭座標P’[Wn]およびQ’[Wn]の面積比率Sp[Wn]/Sq[Wn]が所定の閾値Sth以下(例えば105%以下)の場合(S43:YES)には、射影画像P[Wn]が認識対象範囲Q[Wn]と許容範囲内で一致しており、ワークWnを取り出し可能と判定し(S44)、判定処理を終了する(S46)。例えば図17に示したように、ワークW1については、輪郭座標P’[W1]およびQ’[W1]の面積が略一致しており、面積比率Sp[W1]/Sq[W1]が略100%であるため、取り出し可能と判定される。
一方、面積比率Sp[Wn]/Sq[Wn]が閾値Sthより高い場合(S43:NO)には、射影画像P[Wn]が認識対象範囲Q[Wn]から許容範囲を超えてはみ出しており、ワークWnを取り出し不可と判定し(S45)、判定処理を終了する(S46)。例えば図18に示したように、ワークW2については、図13における角度線分情報B5からB9までの区間の分だけ、輪郭座標Qk’[W2]の面積Sq[W2]が輪郭座標P’[W2]の面積Sp[W2]より小さく、面積比率Sp[W2]/Sq[W2]が大きくなるため、取り出し不可と判定される。
前述したように、物品取り出し判定装置1において、ステレオカメラ4によって撮像された一対の撮像画像IM1およびIM2に基づいて多面体形状をした各ワーク(物品)Wnの位置・姿勢認識処理を行い、認識結果に基づいて、認識された各ワークWnの射影画像P[Wn]を生成するとともに、認識された各ワークWnが撮像画像IM1において占める範囲を認識対象範囲Q[Wn]として特定することによって、各ワークWnについて、射影画像P[Wn]が認識対象範囲Q[Wn]と所定の許容範囲内で一致している場合には、他のワークに衝突することなくワークWnを取り出し可能と判定し、射影画像P[Wn]が認識対象範囲Q[Wn]から許容範囲を超えてはみ出している場合には、ワークWnを取り出し不可と判定することができる。したがって、各ワークWnについて、他のワークを認識することができなかった場合であっても、当該ワークWn認識結果に基づいて取り出しの可否を判定することができる。
また、撮像画像IM1からエッジを抽出してエッジ画像を生成し、当該エッジ画像から角度線分情報を取得し、ワークWnの角度線分情報について、各角度線分情報を基点として選択して、現在選択されている角度線分情報の一方の線分と同一方向の線分を含む隣接する角度線分情報を順次選択しながら、基点の角度線分情報まで追跡することによって、各角度線分情報を基点として追跡した軌跡をワークWnの認識対象範囲Q[Wn]として特定することができる。
また、射影画像P[Wn]および認識対象範囲Q[Wn]の輪郭を抽出して、それぞれ輪郭座標P’[Wn]および輪郭座標Q’[Wn]を取得し、K個の輪郭座標Q’[Wn]のうち、輪郭座標P’[Wn]と一致せず、内側にある座標数を不一致数Mとしてカウントすることによって、射影画像P[Wn]と認識対象範囲Q[Wn]との不一致率M/Kが所定の閾値Mth以下の場合には、ワークWnを取り出し可能と判定し、不一致率M/Kが閾値Mthより高い場合には、ワークWnを取り出し不可と判定することができる。さらに、輪郭座標P’[Wn]およびQ’[Wn]の面積比率Sp[Wn]/Sq[Wn]に基づいて取り出し可否を判定することもできる。
また、位置・姿勢認識処理においては、一対の撮像画像IM1およびIM2から生成した3次元画像を3D−CADデータなどの3次元モデルと照合して、各ワークWnの位置・姿勢情報T[Wn]を算出することによって、ワークWnの位置・姿勢情報T[Wn]に基づいて、ワークWnの3次元画像と照合された3次元モデルの点群データを撮像画像IM1の座標に射影変換して、ワークWnの射影画像P[Wn]を生成することができる。
また、図1に示した物品取り出し(判定)システムにおいて、各ワークWnについての取り出し可否の判定結果J[Wn]をディスプレイ102に表示させることによって、作業者は、取り出し可能なワークを容易に認識することができる。したがって、作業者は、ディスプレイ102の表示を確認しながら、マニピュレータ5を操作してワークを取り出すことができる。
また、図19に示した物品取り出しシステムにおいて、各ワークWnについての取り出し可否の判定結果J[Wn]をロボット制御装置3に入力し、ロボット制御装置3から多関節ロボット5を制御するための制御信号CNTを出力することによって、多関節ロボット5を制御して取り出し可能なワークを取り出すことができる。
また、物品取り出し判定装置1の機能をコンピュータに実現させるためのプログラムにおいて、ステレオカメラ4によって撮像された一対の撮像画像IM1およびIM2に基づいて多面体形状をした各ワークWnの位置・姿勢認識処理を行い、認識結果に基づいて、認識された各ワークWnの射影画像P[Wn]を生成するとともに、認識された各ワークWnが撮像画像IM1において占める範囲を認識対象範囲Q[Wn]として特定することによって、各ワークWnについて、射影画像P[Wn]が認識対象範囲Q[Wn]と所定の許容範囲内で一致している場合には、他のワークに衝突することなくワークWnを取り出し可能と判定し、射影画像P[Wn]が認識対象範囲Q[Wn]から許容範囲を超えてはみ出している場合には、ワークWnを取り出し不可と判定することができ、他のワークを認識することができなかった場合であっても、当該ワークWn認識結果に基づいて取り出しの可否を判定することができる。
また、ステレオカメラ4によって撮像された一対の撮像画像IM1およびIM2に基づいて多面体形状をした各ワークWnの3次元画像を生成し、当該3次元画像に基づいて位置・姿勢認識処理を行い、認識結果に基づいて、認識された各ワークWnの射影画像P[Wn]を生成するとともに、認識された各ワークWnが撮像画像IM1において占める範囲を認識対象範囲Q[Wn]として特定することによって、各ワークWnについて、射影画像P[Wn]が認識対象範囲Q[Wn]と所定の許容範囲内で一致している場合には、他のワークに衝突することなくワークWnを取り出し可能と判定し、射影画像P[Wn]が認識対象範囲Q[Wn]から許容範囲を超えてはみ出している場合には、ワークWnを取り出し不可と判定することができ、他のワークを認識することができなかった場合であっても、当該ワークWn認識結果に基づいて取り出しの可否を判定することができる。
なお、上記実施形態は、本発明の理解を容易にするためのものであり、本発明を限定して解釈するためのものではない。本発明は、その趣旨を逸脱することなく、変更、改良され得るとともに、本発明にはその等価物も含まれる。
1 物品取り出し判定装置
2 制御装置
3 ロボット制御装置
4 ステレオカメラ
5 マニピュレータ(多関節ロボット)
9 トレイ
11 認識処理部
12 射影変換部
13 範囲特定部
14 判定部
100 コンピュータ
101 キーボード(入力装置)
102 ディスプレイ(出力装置)
103 認識情報データベース(記憶装置)
C1、C2 カメラ
W1〜W6 ワーク
2 制御装置
3 ロボット制御装置
4 ステレオカメラ
5 マニピュレータ(多関節ロボット)
9 トレイ
11 認識処理部
12 射影変換部
13 範囲特定部
14 判定部
100 コンピュータ
101 キーボード(入力装置)
102 ディスプレイ(出力装置)
103 認識情報データベース(記憶装置)
C1、C2 カメラ
W1〜W6 ワーク
Claims (9)
- 多面体形状をした複数の物品からなる物品群を撮像するステレオカメラによって撮像された第1および第2の撮像画像に基づいて前記複数の物品の3次元画像を生成し、前記3次元画像に基づいて前記物品群に含まれる1つ以上の物品を認識して位置・姿勢情報を算出する認識処理部と、
前記位置・姿勢情報に基づいて、前記1つ以上の物品の形状を前記第1の撮像画像上に射影した射影画像を生成する射影変換部と、
前記1つ以上の物品が前記第1の撮像画像において占める範囲を認識対象範囲として特定する範囲特定部と、
前記射影画像および前記認識対象範囲に基づいて、前記1つ以上の物品のそれぞれについて、前記物品群に含まれる他の物品に衝突することなく取り出すことが可能か否かを判定する判定部と、
を有し、
前記判定部は、前記1つ以上の物品のそれぞれについて、
前記射影画像が前記認識対象範囲と所定の許容範囲内で一致している場合には、取り出し可能と判定し、
前記射影画像が前記認識対象範囲から前記所定の許容範囲を超えてはみ出している場合には、取り出し不可と判定することを特徴とする物品取り出し判定装置。 - 前記範囲特定部は、
前記第1の撮像画像からエッジを抽出してエッジ画像を生成し、
前記エッジ画像に含まれる線分を抽出して、それぞれ2つの線分と前記2つの線分が交わる交点とで構成される複数の角度線分情報を取得し、
前記複数の角度線分情報のうち前記1つ以上の物品に含まれる角度線分情報について、それぞれの角度線分情報を基点の角度線分情報として選択して、現在選択されている角度線分情報の前記2つの線分のうち一方の線分と同一方向の線分を含む隣接する角度線分情報を順次選択しながら、前記基点の角度線分情報まで追跡した軌跡を前記認識対象範囲として特定することを特徴とする請求項1に記載の物品取り出し判定装置。 - 前記判定部は、前記1つ以上の物品のそれぞれについて、
前記射影画像および前記認識対象範囲の輪郭を抽出し、
前記認識対象範囲の輪郭の座標のうち、前記射影画像の輪郭の内側にある座標数をカウントしたカウント値に基づいて、前記射影画像と前記認識対象範囲とが一致しない割合を不一致率として求め、
前記不一致率が所定の閾値以下の場合には、取り出し可能と判定し、
前記不一致率が前記所定の閾値より高い場合には、取り出し不可と判定することを特徴とする請求項1または請求項2に記載の物品取り出し判定装置。 - 前記判定部は、前記1つ以上の物品のそれぞれについて、
前記射影画像および前記認識対象範囲の輪郭を抽出し、当該抽出したそれぞれの輪郭の図形の面積比率を求め、
前記面積比率が所定の閾値以下の場合には、取り出し可能と判定し、
前記面積比率が前記所定の閾値より高い場合には、取り出し不可と判定することを特徴とする請求項1または請求項2に記載の物品取り出し判定装置。 - 前記認識処理部は、前記3次元画像を、前記1つ以上の物品の形状を表す3次元モデルと照合して前記位置・姿勢情報を算出し、
前記射影変換部は、前記位置・姿勢情報に基づいて、前記3次元モデルの点群データを前記第1の撮像画像の座標に射影変換して前記射影画像を生成することを特徴とする請求項1ないし請求項4の何れかに記載の物品取り出し判定装置。 - 請求項1ないし請求項5の何れかに記載の物品取り出し判定装置と、
前記物品群を撮像して前記第1および第2の撮像画像を出力する前記ステレオカメラと、
前記判定部の判定結果を出力する出力装置と、
を備える物品取り出し判定システム。 - 請求項1ないし請求項5の何れかに記載の物品取り出し判定装置と、
前記物品群を撮像して前記第1および第2の撮像画像を出力する前記ステレオカメラと、
前記判定部の判定結果に基づいて、前記1つ以上の物品のうち、取り出し可能と判定された物品を取り出すようにロボットを制御するロボット制御装置と、
前記ロボット制御装置の制御によって前記取り出し可能と判定された物品を取り出す前記ロボットと、
を備える物品取り出しシステム。 - コンピュータに、
多面体形状をした複数の物品からなる物品群を撮像するステレオカメラによって撮像された第1および第2の撮像画像に基づいて前記複数の物品の3次元画像を生成し、前記3次元画像に基づいて前記物品群に含まれる1つ以上の物品を認識して位置・姿勢情報を算出する位置・姿勢認識処理と、
前記位置・姿勢情報に基づいて、前記1つ以上の物品の形状を前記第1の撮像画像上に射影した射影画像を生成する射影変換処理と、
前記1つ以上の物品が前記第1の撮像画像において占める範囲を認識対象範囲として特定する範囲特定処理と、
前記1つ以上の物品のそれぞれについて、前記射影画像が前記認識対象範囲と所定の許容範囲内で一致している場合には、前記物品群に含まれる他の物品に衝突することなく取り出し可能と判定し、前記射影画像が前記認識対象範囲から前記所定の許容範囲を超えてはみ出している場合には、取り出し不可と判定する判定処理と、
を実行させることを特徴とする物品取り出し判定プログラム。 - 多面体形状をした複数の物品からなる物品群を撮像するステレオカメラによって撮像された第1および第2の撮像画像に基づいて前記複数の物品の3次元画像を生成し、
前記3次元画像に基づいて前記物品群に含まれる1つ以上の物品を認識して位置・姿勢情報を算出し、
前記位置・姿勢情報に基づいて、前記1つ以上の物品の形状を前記第1の撮像画像上に射影した射影画像を生成し、
前記1つ以上の物品が前記第1の撮像画像において占める範囲を認識対象範囲として特定し、
前記1つ以上の物品のそれぞれについて、
前記射影画像が前記認識対象範囲と所定の許容範囲内で一致している場合には、前記物品群に含まれる他の物品に衝突することなく取り出し可能と判定し、
前記射影画像が前記認識対象範囲から前記所定の許容範囲を超えてはみ出している場合には、取り出し不可と判定することを特徴とする物品取り出し判定方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012006407A JP2013145525A (ja) | 2012-01-16 | 2012-01-16 | 物品取り出し判定装置、物品取り出し判定システム、物品取り出しシステム、物品取り出し判定プログラムおよび物品取り出し判定方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012006407A JP2013145525A (ja) | 2012-01-16 | 2012-01-16 | 物品取り出し判定装置、物品取り出し判定システム、物品取り出しシステム、物品取り出し判定プログラムおよび物品取り出し判定方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013145525A true JP2013145525A (ja) | 2013-07-25 |
Family
ID=49041272
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012006407A Pending JP2013145525A (ja) | 2012-01-16 | 2012-01-16 | 物品取り出し判定装置、物品取り出し判定システム、物品取り出しシステム、物品取り出し判定プログラムおよび物品取り出し判定方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2013145525A (ja) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016120529A (ja) * | 2014-12-24 | 2016-07-07 | セイコーエプソン株式会社 | ロボット、ロボットシステム、制御装置、及び制御方法 |
JP2016136437A (ja) * | 2013-12-16 | 2016-07-28 | 株式会社寺岡精工 | 商品販売データ処理装置 |
CN108108655A (zh) * | 2016-11-25 | 2018-06-01 | 东芝泰格有限公司 | 物品识别装置及控制方法、终端设备 |
WO2019208292A1 (ja) * | 2018-04-27 | 2019-10-31 | 株式会社ダイフク | ピッキング設備(picking facility) |
WO2020026381A1 (ja) | 2018-08-01 | 2020-02-06 | 楽天株式会社 | 警告装置、警告方法、プログラム、ならびに、非一時的なコンピュータ読取可能な情報記録媒体 |
WO2020054724A1 (ja) * | 2018-09-10 | 2020-03-19 | 株式会社 東芝 | ピッキングシステム、情報処理装置及びコンピュータ可読記憶媒体 |
US10614340B1 (en) | 2019-09-23 | 2020-04-07 | Mujin, Inc. | Method and computing system for object identification |
JP2021051797A (ja) * | 2018-10-30 | 2021-04-01 | 株式会社Mujin | 自動パッケージ登録機構および自動検出パイプラインを備えたロボットシステム |
-
2012
- 2012-01-16 JP JP2012006407A patent/JP2013145525A/ja active Pending
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016136437A (ja) * | 2013-12-16 | 2016-07-28 | 株式会社寺岡精工 | 商品販売データ処理装置 |
JP2016120529A (ja) * | 2014-12-24 | 2016-07-07 | セイコーエプソン株式会社 | ロボット、ロボットシステム、制御装置、及び制御方法 |
CN108108655A (zh) * | 2016-11-25 | 2018-06-01 | 东芝泰格有限公司 | 物品识别装置及控制方法、终端设备 |
WO2019208292A1 (ja) * | 2018-04-27 | 2019-10-31 | 株式会社ダイフク | ピッキング設備(picking facility) |
JP2019189438A (ja) * | 2018-04-27 | 2019-10-31 | 株式会社ダイフク | ピッキング設備 |
US11205076B2 (en) | 2018-08-01 | 2021-12-21 | Rakuten Group, Inc. | Apparatus for alerting based on detecting objects approaching each other in images, alerting method, program, and non-transitory computer-readable information recording medium |
WO2020026381A1 (ja) | 2018-08-01 | 2020-02-06 | 楽天株式会社 | 警告装置、警告方法、プログラム、ならびに、非一時的なコンピュータ読取可能な情報記録媒体 |
WO2020054724A1 (ja) * | 2018-09-10 | 2020-03-19 | 株式会社 東芝 | ピッキングシステム、情報処理装置及びコンピュータ可読記憶媒体 |
US12002007B2 (en) | 2018-10-30 | 2024-06-04 | Mujin, Inc. | Robotic system with automated package scan and registration mechanism and methods of operating the same |
US11961042B2 (en) | 2018-10-30 | 2024-04-16 | Mujin, Inc. | Robotic system with automated package registration mechanism and auto-detection pipeline |
JP2021051797A (ja) * | 2018-10-30 | 2021-04-01 | 株式会社Mujin | 自動パッケージ登録機構および自動検出パイプラインを備えたロボットシステム |
JP2021051712A (ja) * | 2019-09-23 | 2021-04-01 | 株式会社Mujin | 物体識別のための方法および計算システム |
US11763459B2 (en) | 2019-09-23 | 2023-09-19 | Mujin, Inc. | Method and computing system for object identification |
JP7433609B2 (ja) | 2019-09-23 | 2024-02-20 | 株式会社Mujin | 物体識別のための方法および計算システム |
JP2021051721A (ja) * | 2019-09-23 | 2021-04-01 | 株式会社Mujin | 物体識別のための方法および計算システム |
US10614340B1 (en) | 2019-09-23 | 2020-04-07 | Mujin, Inc. | Method and computing system for object identification |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2013145525A (ja) | 物品取り出し判定装置、物品取り出し判定システム、物品取り出しシステム、物品取り出し判定プログラムおよび物品取り出し判定方法 | |
JP5835926B2 (ja) | 情報処理装置、情報処理装置の制御方法、およびプログラム | |
Song et al. | CAD-based pose estimation design for random bin picking using a RGB-D camera | |
EP3222393B1 (en) | Automated guidance system and method for a coordinated movement machine | |
JP4004899B2 (ja) | 物品の位置姿勢検出装置及び物品取出し装置 | |
CN104936748B (zh) | 徒手机器人路径教导 | |
JP2012254518A (ja) | ロボット制御システム、ロボットシステム及びプログラム | |
US20210023718A1 (en) | Three-dimensional data generation device and robot control system | |
CN110603122B (zh) | 用于交互式学习应用的自动个性化反馈 | |
US11833697B2 (en) | Method of programming an industrial robot | |
WO2019013204A1 (ja) | 情報を提示する情報処理装置、情報処理方法及びプログラム | |
TWI649171B (zh) | 機器人程式之產生裝置及產生方法 | |
JP5879704B2 (ja) | ロボット制御装置、物品取り出しシステム、プログラムおよびロボットの制御方法 | |
CN111598946A (zh) | 一种物***姿测量方法、装置及存储介质 | |
JP2018153874A (ja) | 提示装置、提示方法およびプログラム、ならびに作業システム | |
JP2020163502A (ja) | 物体検出方法、物体検出装置およびロボットシステム | |
Gradmann et al. | Augmented reality robot operation interface with *** tango | |
D'Avella et al. | Multimodal grasp planner for hybrid grippers in cluttered scenes | |
CN112338922B (zh) | 一种五轴机械臂抓取放置方法及相关装置 | |
JP2021070122A (ja) | 学習データ生成方法 | |
JP7454132B2 (ja) | ロボットシステムの制御装置、ロボットシステムの制御方法、コンピュータ制御プログラム、及びロボットシステム | |
JP2017042897A (ja) | ロボットシステム、ロボット、及びロボット制御装置 | |
JP7200713B2 (ja) | 機械学習用教師データ作成支援方法、及び機械学習用教師データ作成支援プログラム | |
JPWO2019069361A1 (ja) | 把持位置姿勢教示装置、把持位置姿勢教示方法及びロボットシステム | |
JP2020091126A (ja) | 計測装置、システム、表示方法及びプログラム |