JP5469216B2 - バラ積みされた物品をロボットで取出す装置 - Google Patents

バラ積みされた物品をロボットで取出す装置 Download PDF

Info

Publication number
JP5469216B2
JP5469216B2 JP2012170009A JP2012170009A JP5469216B2 JP 5469216 B2 JP5469216 B2 JP 5469216B2 JP 2012170009 A JP2012170009 A JP 2012170009A JP 2012170009 A JP2012170009 A JP 2012170009A JP 5469216 B2 JP5469216 B2 JP 5469216B2
Authority
JP
Japan
Prior art keywords
container
image
orientation
search area
actual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012170009A
Other languages
English (en)
Other versions
JP2014028415A (ja
Inventor
俊之 安藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
FANUC Corp
Original Assignee
FANUC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by FANUC Corp filed Critical FANUC Corp
Priority to JP2012170009A priority Critical patent/JP5469216B2/ja
Priority to US13/947,805 priority patent/US8874270B2/en
Priority to DE102013012224.4A priority patent/DE102013012224B4/de
Priority to CN201310326121.0A priority patent/CN103568024B/zh
Publication of JP2014028415A publication Critical patent/JP2014028415A/ja
Application granted granted Critical
Publication of JP5469216B2 publication Critical patent/JP5469216B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40053Pick 3-D object from pile of objects
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/46Sensing device
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/46Sensing device
    • Y10S901/47Optical

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

本発明は、コンテナ内にバラ積みされた物品の位置を認識して、認識された物品をロボットで取出す物品取出装置に関する。
従来より、コンテナ内にバラ積みされた物品をカメラで撮像し、そのカメラ画像を画像処理して、物品の位置を認識するようにした装置が知られている(例えば特許文献1参照)。この特許文献1記載の装置では、コンテナ全体が視野内に収まるようにコンテナの真上にカメラを配置し、このカメラからの画像を用いて物品を検出し、ロボットのマニピュレータで取出すべき物品を選定する。選定された物品の取出しは、マニピュレータの手先部に設けられた三次元視覚センサを用いて行う。
特開2007−313624号公報
しかしながら、カメラ画像はコンテナの開口端面や内壁を含むため、カメラ画像から物品を認識するようにしたのでは、これら開口端面や内壁と物品との区別が困難な場合がある。
本発明による物品取出装置は、平面状の開口端面と該開口端面に連設され、収容空間を形成する内壁部とを有するコンテナの収容空間にバラ積みされた複数の物品の表面位置を測定する三次元測定機と、コンテナの開口端面を含む領域を撮像するカメラと、コンテナ内から物品を取出し可能なハンドを有するロボットと、カメラにより撮像されたコンテナの画像を取得する画像取得手段と、画像取得手段により取得された画像に基づき、収納空間に対応する画像上の領域である画像上検索領域を設定する画像上検索領域設定手段と、コンテナの開口端面を含む平面である基準平面を設定する基準平面設定手段と、予め記憶されたカメラのキャリブレーションデータに基づき、画像上検索領域に対応した基準平面上の領域である検索領域を算出する検索領域算出手段と、三次元測定機で測定された複数の三次元点を基準平面上に投影する投影手段と、投影手段によって投影された複数の三次元点が、検索領域内に含まれるか否かを判定する判定手段と、三次元測定機によって測定された複数の三次元点のうち、判定手段により検索領域内に含まれると判定された三次元点を用いて、コンテナ内の物品の位置を認識する位置認識手段と、位置認識手段により認識された物品の位置に基づいて、物品を取出すようにロボットを制御するロボット制御手段と、を備えることを特徴とする。
本発明によれば、カメラからの画像により、コンテナの開口端面を含む平面上に検索領域を設定し、三次元測定機により測定された物品表面の三次元点のうち、検索領域内に含まれる点に基づき物品の位置を認識するようにした。これによりコンテナの開口端面や内壁を誤って物品と認識することを防止することができ、ロボットのハンドを用いて精度よく物品の取出しを行うことができる。
本発明の一実施形態に係る物品取出装置の概略構成を示す図である。 図1の制御装置で実行される処理の一例を示すフローチャートであり、とくに、(a)は、物品取出作業の前段階の処理の一例を示し、(b)は、物品取出作業時の処理の一例を示す。 図2(a)の処理で得られる画像上検索領域の一例を模式的に示した図である。 図1の三次元測定機で取得した三次元点集合を模式的に表した図である。 図2(b)の処理を説明する図である。 図2(b)の処理を説明する別の図である。 本実施形態の効果を説明する図である。
図1は、本発明の実施形態に係る物品取出装置10の概略構成を示す図である。物品取出装置10は、三次元測定機11と、カメラ12と、ロボット13と、カメラ12と三次元測定機11とロボット13とに接続して三次元測定機11とカメラ12とロボット13をそれぞれ制御する制御装置14とを有する。ロボット13は、ロボットアーム13aの先端部に取り付けられたハンド15を有する。三次元測定機11とカメラ12は架台16に取り付けられている。なお、以下では、図示のように互いに直交するX軸、Y軸、Z軸を定義する。X軸とY軸とを含むXY平面は水平面であり、Z軸は鉛直上方を向いている。
ロボット13の側方には、上面が開放されたボックス形状のコンテナ17が配置されている。コンテナ17は、底面に対して平行な平面状の開口端面17a(上面)と、開口端面17aに連設され、収容空間17cを形成する内壁部17bとを有し、床面から開口端面17aまで所定高さZcを有する。コンテナ17の形状は、開口端面17aを含む平面に垂直な方向に沿って開口端面17aを含む平面上にコンテナ17の底面及び内壁部17bを投影して得られる領域が開口端面17aの内側の縁(コンテナの内壁部17bと開口端面が交差する部位)で囲まれる閉領域と一致するような形状である。コンテナ17内の収納空間17cには、複数の物品20がバラ積みされて収納されている。物品20は、ハンド15により保持することができ、ロボット13の動作によりコンテナ17から物品20が取出される。コンテナ17の中央部上方には、三次元測定機11とカメラ12が設置されている。
三次元測定機11は、制御装置14からの指令により、コンテナ17の上方からコンテナ17内にバラ積みされた物品20の表面位置を測定して三次元点の集合(三次元点集合)を取得する。三次元測定機11の測定領域の位置や大きさは、三次元測定機11を設置する位置に応じて変更することができる。三次元測定機11の測定領域は、コンテナ17内の物品20を全て含むように設定される。測定領域が大き過ぎると測定分解能の低下を招くので、物品20の存在可能領域、すなわち収納空間17Cの全体を含む程度に設定することが好ましい。三次元測定機11と制御装置14とは通信ケーブル等の通信手段によって互いに接続されており、互いに通信することができる。
三次元測定機11は、種々の非接触方式のものを利用することができる。例えば、カメラ2台のステレオ方式、レーザスリット光を走査する方式、レーザスポット光を走査する方式、プロジェクタ等の装置を用いてパターン光を物品に投影する方式、光が投光機から出射されてから物品表面で反射し受光器に入射するまでの飛行時間を利用する方式などが挙げられる。
三次元測定機11は、取得した三次元情報を距離画像又は三次元マップの形式で表す。距離画像とは、三次元情報を画像形式で表現したものであり、画像の各画素の明るさや色により、その画素に対応した位置のZ方向の高さ又は三次元測定機11からの距離を表すようにしたものである。一方、三次元マップとは、測定された三次元座標値(x,y,z)の集合として三次元情報を表現したものである。本実施形態では、距離画像における各画素や三次元マップにおける三次元座標値を有する点を、三次元点と称し、複数の三次元点からなる集合を、三次元点集合と称する。三次元点集合は、三次元測定器11で測定した三次元点全体の集合であり、三次元測定機11により取得できる。
カメラ12は、CCDセンサやCMOSセンサ等の撮像素子(光電変換素子)を有するデジタルビデオカメラあるいはデジタルスチルカメラであり、制御装置14からの指令により、コンテナ17の上方から開口端面17aを含む領域を撮像する。カメラ12の撮像領域の位置や大きさは、カメラ12を設置する位置に応じて変更することができる。カメラ12の撮像領域は、コンテナ17を全て含むように設定される。撮像領域が大き過ぎると撮像分解能の低下を招くので、コンテナ17の存在可能領域、すなわち開口端面17aの全体を含む程度に設定することが好ましい。カメラ12と制御装置14とは通信ケーブル等の通信手段によって互いに接続されており、互いに通信することができる。
なお、三次元測定機11がカメラを有し、かつ、そのカメラの撮像領域がコンテナ17の存在可能領域を含む程度に設定されていれば、そのカメラをカメラ12として用いることができる。これにより部品点数が少なくなり、三次元測定機11とカメラ12の全体の設置スペースを低減できる。
制御装置14は、それぞれCPU,ROM,RAM,その他の周辺回路などを有する演算処理装置を含んで構成される。図2(a),(b)は、それぞれ制御装置14で実行される処理の一例を示すフローチャートである、以下、物品取出装置10による動作を、図2(a),(b)のフローチャート及び関連する図面を参照しつつ説明する。なお、図2(a),(b)の処理を実行する前に、三次元測定機11とカメラ12は、共通の座標系(XYZ座標系)を基準としてキャリブレーションされている。
図2(a)は、コンテナ17を基準となる位置および姿勢(以下、位置姿勢と呼ぶ)にセットした状態、すなわち基準状態で実行される処理の一例である。基準状態では、コンテナ17が水平な床の上に設置される。図2(a)の処理は、バラ積み取出しシステムの構築時に一度だけ実行される処理であり、コンテナ17の入れ替えなどによりコンテナ17の位置姿勢が変化した場合であっても再度実行する必要はない。なお、使用するコンテナ17のサイズが変更された場合には、検索領域を変更する必要があるため、その場合には図2(a)の処理が再度実行される。
図2(a)に示すように、まず、ステップSR1で、コンテナ17が基準状態にセットされた状態でカメラ12に制御信号を出力し、カメラ12でコンテナ17を含む領域を撮像するとともに、この撮像された画像を基準コンテナ画像として読み込む。すなわち、基準コンテナ画像を取得する。
ステップSR2では、基準コンテナ画像上でのコンテナ17の開口端面17aの位置姿勢である画像上基準コンテナ位置姿勢を検出する。より具体的には、ステップSR1の基準コンテナ画像からコンテナ17の開口端面17aを表す領域である画像上開口端面領域IG(図3)を特定する。画像上基準コンテナ位置姿勢(画像上開口端面領域IG)を特定するためには、例えばパターンマッチングなどの方法を用いることができる。パターンマッチングの方法は周知であり、詳細な説明は省略する。
ステップSR3では、基準状態においてコンテナ17の開口端面17aを含む平面を基準平面として設定する。基準状態では、コンテナ17が水平な床の上(XY平面上)に設置されているので、基準平面も水平である。すなわち、空間上において、基準平面は高さZcが一定の水平面となる。基準平面の設定には、高さZcが必要であるが、高さZcは予め測定した値を用いてもよいし、三次元測定機11で測定してもよい。
ステップSR4では、基準状態において基準平面と所定の角度で交わる方向を投影方向として設定または算出する。本実施形態では、基準平面と垂直な方向を投影方向として設定する。したがって、投影方向はZ軸と平行である。
ステップSR5では、画像上基準コンテナ位置姿勢と基準平面とカメラ12のキャリブレーションデータとを用いて、画像上基準コンテナ位置姿勢に対応した実空間上でのコンテナ17の位置姿勢である基準コンテナ位置姿勢Crを算出する。すなわち、キャリブレーションデータに基づき、画像上基準コンテナ位置姿勢を表す画像上開口端面領域IG(図3)に対応した開口端面17aが、基準平面上でいかなる位置姿勢となるかを算出する。なお、画像上で検出したコンテナの位置姿勢と基準平面とカメラ12のキャリブレーションデータとから実空間上でのコンテナ17の位置姿勢Crを算出する方法は周知であり、詳細な説明を省略する。算出した基準コンテナ位置姿勢Crは、次式(I)のような同次変換行列で表すことができる。
Figure 0005469216
上式(I)で、Cr.x、Cr.yはコンテナの位置、Cr.r11〜Cr.r22はコンテナの姿勢を表す。制御装置14は、この基準コンテナ位置姿勢Crをメモリに記憶する。
ステップSR6では、基準コンテナ画像上でコンテナ17の内壁17bよりも内側、つまり画像上開口端面領域IGの内側の領域を画像上検索領域として設定する。画像上検索領域は、画像上の複数の点Vri(i=1,2,3,・・・)を頂点とし、頂点Vriを順番に結んで囲まれる領域で表す。Vriは次式(II)で表すことができる。なお、Vrivtは画像上の垂直方向の画像位置、Vrihzは画像上の水平方向の画像位置を表している。
Figure 0005469216
図3は、画像上検索領域ARの一例を示す図であり、基準コンテナ画像18を模式的に表している。図3において、物品20が存在するのはコンテナ17の内壁17bより内側なので、例えば画像上開口端面領域IGのコーナーの4点から所定量s1,s2だけ内側に移動した4つの頂点Vr1〜Vr4を画像上検索領域ARを表現する頂点として設定する。画像上開口端面領域IGより所定量s1,s2内側に頂点Vr1〜Vr4を設定するのは、コンテナ17の内壁17bの凸凹や三次元測定機11の測定誤差により、コンテナ17の内壁上の三次元点をコンテナ17の内壁17bよりも内側にある物品20上の三次元点と誤って認識することを防ぐためである。所定量s1,s2は、例えば内壁17bの深さが画像上いかなる長さで表されるかを考慮して設定すればよく、コンテナ17の内壁17bの近傍の物品20が検索領域の外側に出ない程度にするとよい。
ステップSR7では、画像上の4つの点Vri(i=1,2,3,4)と基準平面とカメラ12のキャリブレーションデータとを用いて、実空間において高さZcである基準平面上の点4つの点Wri(i=1,2,3,4)を、検索領域を表す点として算出し、記憶する。すなわち、カメラ12のキャリブレーションデータに基づき、画像上検索領域ARに対応した基準平面上の領域である検索領域を算出する。Wriは次式(III)で表すことができる。なお、Wrixは実空間上のX座標、Wriyは実空間上のY座標を表している。
Figure 0005469216
なお、本実施形態において、検索領域は、4つの点Wriを直線で結ぶことによって得られるが、点Wriの数は4点に限らず、3点以上であれば検索領域を設定できる。以上で、コンテナ17を基準状態に設置して行う、物品取出作業の前段階の処理を終了する。
図2(b)は、物品取出作業時の処理の一例を示すフローチャートである。この処理は、図2(a)の処理が行われた後、物品取出作業を行う際に実行される。
ステップSE1では、物品取出作業時においてコンテナ17を含む領域をカメラ12で撮像し、実状態における画像(実コンテナ画像)を取得する。実状態におけるコンテナ17の位置は、基準状態におけるコンテナ17の位置とは異なる場合が多いが、実状態においてもコンテナ17は、基準状態におけるのと同一の水平な床の上に設置される。したがって、基準状態におけるコンテナ17の開口端面17aを含む基準平面は、物品取出作業時(実状態)においても、コンテナ17の開口端面17aを含む基準平面となる。
ステップSE2では、ステップSE1で取得した実コンテナ画像上でのコンテナの開口端面17aの位置姿勢である画像上コンテナ位置姿勢(画像上実コンテナ位置姿勢と呼ぶ場合もある)を検出する。すなわち、ステップSR2と同様、パターンマッチング等によりカメラ画像から画像上開口端面領域を特定する。
ステップSE3では、画像上コンテナ位置姿勢と基準平面とキャリブレーションデータとから、画像上コンテナ位置姿勢に対応した実空間上でのコンテナ17の位置姿勢であるコンテナ位置姿勢(実コンテナ位置姿勢と呼ぶ場合もある)Ceを算出する。すなわち、キャリブレーションデータに基づき、画像上コンテナ位置姿勢を表す画像上開口端面領域に対応した開口端面17aが、基準平面上でいかなる位置姿勢となるかを算出する。実空間上でのコンテナ17の位置姿勢の算出方法は、ステップSR5と同じ方法を用いればよい。算出したコンテナ位置姿勢Ceは次式(IV)で表すことができる。
Figure 0005469216
ステップSE4では、ステップSR5で算出した基準コンテナ位置姿勢CrとステップSE3で算出したコンテナ位置姿勢Ceとからコンテナ位置姿勢変化量Cofsを算出する。コンテナ位置姿勢変化量Cofsは次式(V)で算出できる。なお、inv()は逆行列を表す。
Figure 0005469216
ステップSE5では、ステップSR7で記憶した検索領域Wriに、ステップSE4で算出したコンテナ位置姿勢変化量Cofsを乗じ、これを変換検索領域Weiとする。変換検索領域Weiは次式(VI)で表すことができる。
Figure 0005469216
ステップSE6では、三次元測定機11に制御信号を出力し、三次元測定機11で三次元点の測定を行わせ、三次元点集合を取得する。
ステップSE7では、三次元点集合に属する三次元点を投影方向に沿って基準平面上へ投影したときに変換検索領域内に含まれるか否かを判定し、変換検索領域内に含まれると判定された三次元点を集めた集合を領域内三次元点集合として求める。領域内三次元点集合を求める方法について、図4、図5及び図6を用いて説明する。
図4は、変換検索領域30と三次元点集合31とを模式的に示す図である。図4に示すように、三次元点集合31には、投影方向(Z軸方向)に沿って基準平面上へ投影したときに変換検索領域30内に含まれるような三次元点と領域30外に出てしまうような三次元点の両方が含まれている。そのうち領域30内に含まれるような三次元点を集めた集合である領域内三次元点集合を求めるには、先ず、高さZcである基準平面に三次元点集合31を投影した投影三次元点集合32を求める。
次に、投影三次元点集合32の各点(以後、投影三次元点と呼ぶ)が変換検索領域30内にあるか否かを判定する。図5は、この判定方法を説明するための図である。図5には、変換検索領域30内の投影三次元点32Aと変換検索領域30外の投影三次元点32Bとが示されている。投影三次元点32A,32Bをそれぞれ始点としてX軸の正方向に伸びる半直線を設定し、半直線と変換検索領域30の各辺とが交差する回数を求める。投影三次元点32Aのように、変換検索領域30内に投影三次元点がある場合には、交差回数は奇数となり、投影三次元点32Bのように、変換検索領域30外に投影三次元点がある場合には、交差回数は0又は偶数となる。したがって、交差回数が奇数か否かを判定することにより、投影三次元点が変換検索領域30内にあるか否かを判定することができる。この処理を投影三次元点集合32に含まれる全ての点で行い、変換検索領域30内と判定された投影三次元点を全て集めることにより、図6に示すように変換検索領域30内の投影三次元点の集合である領域内投影三次元点集合33を求めることができる。次に、領域内投影三次元点集合33に含まれる各投影三次元点に対応する投影前の三次元点を集める。これが、図6に示す領域内三次元点集合34であり、物品20の位置の認識は領域内三次元点集合34を用いて行う。
ステップSE8では、領域内三次元点集合34から1以上の物品20の位置を認識する。すなわち、物品位置を認識する。物品位置を認識する方法としては、三次元モデルパターンを使ったマッチングなどの種々の方法があるが、この点についての詳細な説明は省略する。
ステップSE9では、認識された物品位置に基づいてロボット13を移動させ、ロボット13に搭載したハンド15で物品20を保持し、取出す。複数の物品位置が認識されたならば、各物品位置に基づいて複数の物品20を取出すことも可能である。以上のステップSE1〜SE9を繰り返し行うことで、コンテナ17内の物品20の取出作業を行う。
図7は、本実施形態の効果を説明する図である。図7では、コンテナ17の内壁17b上の三次元点40Aとコンテナ17の開口端面17a上の三次元点40Bとが三次元測定機11により測定されたとする(ステップSE6)。高さZcである基準平面上には、上記処理(ステップSE5)により算出された変換検索領域30が示されている。ここで、コンテナ17の内壁上の三次元点40Aの投影三次元点41Aと開口端面上の三次元点40Bの投影三次元点41Bとは、共に基準平面上で変換検索領域30の領域外に位置する。したがって、三次元点40Aと40Bは共に領域内三次元点集合34には含まれず(ステップSE7)、物品20の位置を認識するために用いられない。よって、コンテナ17の開口端面17aや内壁17bの三次元点が領域内三次元点集合34には含まれず、それらの位置を物品20の位置として誤認識することを防ぐことができる。
本実施形態によれば、以下のような作用効果を奏することができる。
(1)カメラ12での撮像により、コンテナ17の開口端面17aを含む基準コンテナ画像を取得し(ステップSR1)、この基準コンテナ画像に基づき、コンテナ17の収納空間17cに対応する画像上検索領域AR(図3)を設定し(ステップSR6)、コンテナ17の開口端面17aを含む基準平面を設定し(ステップSR3)、予め記憶されたカメラ12のキャリブレーションデータに基づき、画像上検索領域に対応した基準平面上の検索領域を算出するようにした(ステップSR7)。さらに、検索領域を変換検索領域に変換し(ステップSE5)、三次元測定機11で測定された複数の三次元点を基準平面上に投影して、変換検索領域内に含まれる三次元点を領域内三次元点集合として取出し(ステップSE6,ステップSE7)、領域内三次元点集合を用いてコンテナ内の物品の位置を認識し(ステップSE8)、認識された物品の位置に基づいて、ロボット13を制御して物品を取出すようにした(ステップSE9)。したがって、ロボット13により物品を取出す際に、コンテナ17の開口端面17aや内壁17bの三次元点の位置が物品20の位置として誤認識されることを防ぐことができる。
(2)取得された基準コンテナ画像からコンテナ17の開口端面17aを表す領域である画像上開口端面領域IGを特定し、画像上開口端面領域IGの所定量S1,S2内側に、画像上検索領域ARを設定するようにしたので、画像上検索領域から内壁17bの凹凸等を除外することができ、内壁17bの凹凸等の影響を受けずに物品を精度よく認識することができる。
(3)基準コンテナ画像から画像上基準コンテナ位置姿勢を特定するとともに(ステップSR2)、カメラ12のキャリブレーションデータに基づいて、画像上基準コンテナ位置姿勢に対応した実空間上の基準コンテナ位置姿勢を算出し(ステップSR5)、さらに物品取出作業時のコンテナ17の画像から画像上コンテナ位置姿勢を特定するとともに(ステップSE2)、カメラ12のキャリブレーションデータに基づいて、画像上コンテナ位置姿勢に対応した実空間上のコンテナ位置姿勢を算出し(ステップSE3)、基準コンテナ位置姿勢とコンテナ位置姿勢との差異に基づき、検索領域を変換検索領域に変換するようにした(ステップSE5)。これにより、コンテナの位置姿勢が基準となる位置姿勢から変化した場合でも、精度よく物品20の位置を認識することができる。
(4)また、基準平面から設定した角度で交わる方向を投影方向として設定するようにした(ステップSR4)。これにより、基準平面に対してコンテナ内壁17bがなす平面が垂直でない場合に、投影方向をコンテナ内壁17bがなす平面の法線ベクトルと直交しかつ基準平面の法線ベクトルとの内積が最も大きくなる方向に設定することで、内壁17bの三次元点の位置が物品20の位置として誤認識されることを防ぐことができる。
なお、上記実施形態では、物品取出作業時に、予め定めた実空間上の検索領域を変換検索領域に変換するようにしたが、コンテナの位置姿勢の変化量が小さい場合(例えば位置姿勢の変化量が0の場合)には、変換検索領域の代わりに検索領域を用いて領域内三次元点集合を取得するようにしてもよい。上記実施形態では、画像上検索領域を四角形によって構成したが、他の多角形により構成することもできる。
上記実施の形態における制御装置14は、機能的構成として、カメラ12により撮像されたコンテナ17の画像を取得する画像取得部すなわち画像取得手段(ステップSR1,ステップSE1)と、この取得された画像に基づいて画像上検索領域を設定する画像上検索領域設定部すなわち画像上検索領域設定手段(ステップSR6)と、コンテナ17の基準平面を設定する基準平面設定部すなわち基準平面設定手段(ステップSR3)と、予め記憶されたカメラ12のキャリブレーションデータに基づき、検索領域を算出する検索領域算出部すなわち検索領域算出手段(ステップSR7)と、三次元測定機11で測定された複数の三次元点を基準平面上に投影する投影部すなわち投影手段(ステップSE7)と、投影された複数の三次元点が、検索領域内に含まれるか否かを判定する判定部すなわち判定手段(ステップSE7)と、三次元測定機11によって測定された複数の三次元点のうち、検索領域内に含まれると判定された三次元点を用いてコンテナ内の物品の位置を認識する位置認識部すなわち位置認識手段(ステップSE8)と、認識された物品20の位置に基づいて、物品20を取出すようにロボット13を制御するロボット制御部すなわちロボット制御手段(ステップSE9)とを有する。
さらに、制御装置14は、基準コンテナ画像から画像上基準コンテナ位置姿勢を特定する基準位置姿勢特定部すなわち基準位置姿勢特定手段(ステップSR2)と、実コンテナ画像から画像上実コンテナ位置姿勢を特定する実位置姿勢特定部すなわち実位置姿勢特定手段(ステップSE2)と、カメラ12のキャリブレーションデータに基づき、基準コンテナ位置姿勢を算出する基準位置姿勢算出部すなわち基準位置姿勢算出手段(ステップSR5)と、カメラ12のキャリブレーションデータに基づき、実コンテナ位置姿勢を算出する実位置姿勢算出部すなわち実位置姿勢算出手段(ステップSE3)と、算出された基準コンテナ位置姿勢と実コンテナ位置姿勢との差異に基づき、検索領域を変換検索領域に変換する領域変換部すなわち領域変換手段(ステップSE5)と、投影部による三次元点の投影方向を設定する投影方向設定部すなわち投影方向設定手段(ステップSR4)とを備える。
10 物品取出装置
11 三次元測定機
12 カメラ
13 ロボット
14 制御装置
15 ハンド
17 コンテナ
17a 開口端面
17b 内壁
18 基準コンテナ画像
20 物品
30 変換検索領域
31 三次元点集合
32 投影三次元点集合
32A,32B 投影三次元点
33 領域内投影三次元点集合
34 領域内三次元点集合
AR 画像上検索領域
IG 画像上開口端面領域

Claims (7)

  1. 平面状の開口端面と該開口端面に連設され、収容空間を形成する内壁部とを有するコンテナの前記収容空間にバラ積みされた複数の物品の表面位置を測定する三次元測定機と、
    前記コンテナの前記開口端面を含む領域を撮像するカメラと、
    前記コンテナ内から物品を取出し可能なハンドを有するロボットと、
    前記カメラにより撮像された前記コンテナの画像を取得する画像取得手段と、
    前記画像取得手段により取得された画像に基づき、前記収納空間に対応する画像上の領域である画像上検索領域を設定する画像上検索領域設定手段と、
    前記コンテナの前記開口端面を含む平面である基準平面を設定する基準平面設定手段と、
    予め記憶された前記カメラのキャリブレーションデータに基づき、前記画像上検索領域に対応した前記基準平面上の領域である検索領域を算出する検索領域算出手段と、
    前記三次元測定機で測定された複数の三次元点を前記基準平面上に投影する投影手段と、
    前記投影手段によって投影された複数の三次元点が、前記検索領域内に含まれるか否かを判定する判定手段と、
    前記三次元測定機によって測定された複数の三次元点のうち、前記判定手段により前記検索領域内に含まれると判定された三次元点を用いて、前記コンテナ内の物品の位置を認識する位置認識手段と、
    前記位置認識手段により認識された物品の位置に基づいて、前記物品を取出すように前記ロボットを制御するロボット制御手段と、を備えることを特徴とする物品取出装置。
  2. 請求項1に記載の物品取出装置において、
    前記画像上検索領域設定手段は、基準の位置姿勢に前記コンテナが設置された基準状態における前記コンテナの画像として前記画像取得手段により取得された基準コンテナ画像から前記コンテナの前記開口端面を表す領域である画像上開口端面領域を特定し、該画像上開口端面領域の所定量内側に前記画像上検索領域を設定することを特徴とする物品取出装置。
  3. 請求項に記載の物品取出装置において、
    前記画像取得手段は、前記基準コンテナ画像を取得するとともに、前記基準状態から前記コンテナの位置姿勢が変化した実状態における前記コンテナの画像である実コンテナ画像を取得し、
    前記画像上検索領域設定手段は、前記基準コンテナ画像に基づいて前記画像上検索領域を設定し、
    前記基準コンテナ画像から画像上の前記コンテナの位置姿勢を表す画像上基準コンテナ位置姿勢を特定する基準位置姿勢特定手段と、
    前記実コンテナ画像から画像上の前記コンテナの位置姿勢を表す画像上実コンテナ位置姿勢を特定する実位置姿勢特定手段と、
    前記カメラのキャリブレーションデータに基づき、前記画像上基準コンテナ位置姿勢に対応した実空間上の前記コンテナの位置姿勢である基準コンテナ位置姿勢を算出する基準位置姿勢算出手段と、
    前記カメラのキャリブレーションデータに基づき、前記画像上実コンテナ位置姿勢に対応した実空間上の前記コンテナの位置姿勢である実コンテナ位置姿勢を算出する実位置姿勢算出手段と、
    前記基準位置姿勢算出手段により算出された基準コンテナ位置姿勢と前記実位置姿勢算出手段により算出された前記実コンテナ位置姿勢との差異に基づき、前記検索領域算出手段により算出された前記検索領域を変換検索領域に変換する領域変換手段とをさらに備え、
    前記判定手段は、前記投影手段によって投影された複数の三次元点が、前記領域変換手段によって変換された前記変換検索領域内に含まれるか否かを判定することを特徴とする物品取出装置。
  4. 請求項1に記載の物品取出装置において、
    前記画像取得手段は、基準の位置姿勢に前記コンテナが設置された基準状態における前記コンテナの画像である基準コンテナ画像を取得するとともに、前記基準状態から前記コンテナの位置姿勢が変化した実状態における前記コンテナの画像である実コンテナ画像を取得し、
    前記画像上検索領域設定手段は、前記基準コンテナ画像に基づいて前記画像上検索領域を設定し、
    前記基準コンテナ画像から画像上の前記コンテナの位置姿勢を表す画像上基準コンテナ位置姿勢を特定する基準位置姿勢特定手段と、
    前記実コンテナ画像から画像上の前記コンテナの位置姿勢を表す画像上実コンテナ位置姿勢を特定する実位置姿勢特定手段と、
    前記カメラのキャリブレーションデータに基づき、前記画像上基準コンテナ位置姿勢に対応した実空間上の前記コンテナの位置姿勢である基準コンテナ位置姿勢を算出する基準位置姿勢算出手段と、
    前記カメラのキャリブレーションデータに基づき、前記画像上実コンテナ位置姿勢に対応した実空間上の前記コンテナの位置姿勢である実コンテナ位置姿勢を算出する実位置姿勢算出手段と、
    前記基準位置姿勢算出手段により算出された基準コンテナ位置姿勢と前記実位置姿勢算出手段により算出された前記実コンテナ位置姿勢との差異に基づき、前記検索領域算出手段により算出された前記検索領域を変換検索領域に変換する領域変換手段とをさらに備え、
    前記判定手段は、前記投影手段によって投影された複数の三次元点が、前記領域変換手段によって変換された前記変換検索領域内に含まれるか否かを判定することを特徴とする物品取出装置。
  5. 請求項1〜4のいずれか1項に記載の物品取出装置において、
    前記投影手段による前記三次元点の投影方向を設定する投影方向設定手段をさらに備えることを特徴とする物品取出装置。
  6. 請求項1〜5のいずれか1項に記載の物品取出装置において、
    前記画像上検索領域設定手段により設定される前記画像上検索領域は、多角形であることを特徴とする物品取出装置。
  7. 請求項1〜6のいずれか1項に記載の物品取出装置において、
    前記三次元測定機は、前記カメラを有することを特徴とする物品取出装置。
JP2012170009A 2012-07-31 2012-07-31 バラ積みされた物品をロボットで取出す装置 Active JP5469216B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2012170009A JP5469216B2 (ja) 2012-07-31 2012-07-31 バラ積みされた物品をロボットで取出す装置
US13/947,805 US8874270B2 (en) 2012-07-31 2013-07-22 Apparatus for taking out bulk stored articles by robot
DE102013012224.4A DE102013012224B4 (de) 2012-07-31 2013-07-23 Vorrichtung zum Entnehmen von lose gespeicherten Gegenständen durch einen Roboter
CN201310326121.0A CN103568024B (zh) 2012-07-31 2013-07-30 利用机械手取出散装物品的装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012170009A JP5469216B2 (ja) 2012-07-31 2012-07-31 バラ積みされた物品をロボットで取出す装置

Publications (2)

Publication Number Publication Date
JP2014028415A JP2014028415A (ja) 2014-02-13
JP5469216B2 true JP5469216B2 (ja) 2014-04-16

Family

ID=49944085

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012170009A Active JP5469216B2 (ja) 2012-07-31 2012-07-31 バラ積みされた物品をロボットで取出す装置

Country Status (4)

Country Link
US (1) US8874270B2 (ja)
JP (1) JP5469216B2 (ja)
CN (1) CN103568024B (ja)
DE (1) DE102013012224B4 (ja)

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014088640A2 (en) 2012-06-12 2014-06-12 Snap-On Incorporated Tool training for automated tool control systems
JP5929854B2 (ja) * 2013-07-31 2016-06-08 株式会社安川電機 ロボットシステムおよび被加工物の製造方法
JP5778311B1 (ja) * 2014-05-08 2015-09-16 東芝機械株式会社 ピッキング装置およびピッキング方法
JP5829306B2 (ja) * 2014-05-12 2015-12-09 ファナック株式会社 レンジセンサの配置位置評価装置
CN107530881B (zh) * 2015-01-29 2021-05-25 Abb瑞士股份有限公司 机器人***和用于操作机器人的方法
US11370128B2 (en) 2015-09-01 2022-06-28 Berkshire Grey Operating Company, Inc. Systems and methods for providing dynamic robotic control systems
CN114559428B (zh) 2015-09-01 2023-10-27 伯克希尔格雷营业股份有限公司 用于提供动态机器人控制***的***和方法
EP3347175B1 (en) 2015-09-09 2022-03-02 Berkshire Grey, Inc. Systems and methods for providing dynamic communicative lighting in a robotic environment
US10007827B2 (en) 2015-09-11 2018-06-26 Berkshire Grey, Inc. Systems and methods for identifying and processing a variety of objects
CA3004711C (en) 2015-11-13 2022-01-11 Berkshire Grey, Inc. Sortation systems and methods for providing sortation of a variety of objects
US9937532B2 (en) 2015-12-18 2018-04-10 Berkshire Grey Inc. Perception systems and methods for identifying and processing a variety of objects
CA3169689C (en) 2016-01-08 2024-04-02 Berkshire Grey Operating Company, Inc. Systems and methods for acquiring and moving objects
CA3014049C (en) 2016-02-08 2021-06-22 Thomas Wagner Systems and methods for providing processing of a variety of objects employing motion planning
CA3139255C (en) 2016-12-09 2023-07-25 Thomas Wagner Systems and methods for processing objects provided in vehicles
JP6889574B2 (ja) * 2017-03-03 2021-06-18 株式会社キーエンス ロボット設定装置、ロボット設定方法、ロボット設定プログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器
US11179856B2 (en) 2017-03-30 2021-11-23 Soft Robotics, Inc. User-assisted robotic control systems
JP6993426B2 (ja) * 2017-11-28 2022-01-13 株式会社Fuji 部品移載装置
JP7161857B2 (ja) * 2018-03-14 2022-10-27 オムロン株式会社 情報処理装置、情報処理方法、及びプログラム
CN112672860B (zh) * 2018-09-10 2024-04-09 发纳科美国公司 用于ar和数字孪生的机器人校准
DE112019000125B4 (de) 2018-10-30 2021-07-01 Mujin, Inc. Systeme, vorrichtungen und verfahren zur automatisierten verpackungsregistrierung
US10369701B1 (en) 2018-10-30 2019-08-06 Mujin, Inc. Automated package registration systems, devices, and methods
CN110127436A (zh) * 2019-06-04 2019-08-16 青岛大学 一种棉条自动输送***
JP7031091B2 (ja) * 2020-02-17 2022-03-08 株式会社三井E&Sマシナリー 供給装置およびその制御方法
US11130237B1 (en) * 2020-03-05 2021-09-28 Mujin, Inc. Method and computing system for performing container detection and object detection
WO2022020157A1 (en) 2020-07-22 2022-01-27 Berkshire Grey, Inc. Systems and methods for object processing using a passively folding vacuum gripper
CA3189612A1 (en) 2020-07-22 2022-01-27 Berkshire Grey Operating Company, Inc. Systems and methods for object processing using a vacuum gripper that provides object retention by evacuation
CN118055897A (zh) 2021-10-06 2024-05-17 伯克希尔格雷营业股份有限公司 利用转移***对提供在升高车辆中的物体的动态处理和用于接收物体的方法

Family Cites Families (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4305130A (en) * 1979-05-29 1981-12-08 University Of Rhode Island Apparatus and method to enable a robot with vision to acquire, orient and transport workpieces
US4402053A (en) * 1980-09-25 1983-08-30 Board Of Regents For Education For The State Of Rhode Island Estimating workpiece pose using the feature points method
US4412293A (en) * 1981-03-30 1983-10-25 Kelley Robert B Robot system which acquires cylindrical workpieces from bins
JP2730754B2 (ja) * 1989-03-29 1998-03-25 豊田工機株式会社 視覚装置付ロボット
US4985846A (en) * 1989-05-11 1991-01-15 Fallon Patrick J Acoustical/optical bin picking system
JPH03202290A (ja) * 1989-12-27 1991-09-04 Toyota Motor Corp ばら積み物体の取出装置
JP3202290B2 (ja) * 1991-12-28 2001-08-27 ティーディーケイ株式会社 インダクタンス素子
US6363173B1 (en) * 1997-12-19 2002-03-26 Carnegie Mellon University Incremental recognition of a three dimensional object
CN1162681C (zh) * 1999-03-19 2004-08-18 松下电工株式会社 三维物体识别方法及使用该方法的零件抓取***
JP3300682B2 (ja) * 1999-04-08 2002-07-08 ファナック株式会社 画像処理機能を持つロボット装置
AU2003239171A1 (en) * 2002-01-31 2003-09-02 Braintech Canada, Inc. Method and apparatus for single camera 3d vision guided robotics
US6826452B1 (en) * 2002-03-29 2004-11-30 The Penn State Research Foundation Cable array robot for material handling
US6898484B2 (en) * 2002-05-01 2005-05-24 Dorothy Lemelson Robotic manufacturing and assembly with relative radio positioning using radio based location determination
JP2004160567A (ja) * 2002-11-11 2004-06-10 Fanuc Ltd 物品取出し装置
JP3805302B2 (ja) * 2002-12-13 2006-08-02 ファナック株式会社 ワーク取出し装置
JP3805310B2 (ja) * 2003-01-30 2006-08-02 ファナック株式会社 ワーク取出し装置
WO2004106009A1 (ja) * 2003-06-02 2004-12-09 Matsushita Electric Industrial Co., Ltd. 物品操作システムおよび方法、並びに物品管理システムおよび方法
JP3834307B2 (ja) * 2003-09-29 2006-10-18 ファナック株式会社 ロボットシステム
CN1285449C (zh) * 2003-09-29 2006-11-22 上海大学 多边形对象多指抓取规划方法与装置
JP3930490B2 (ja) * 2004-04-23 2007-06-13 ファナック株式会社 物品取出し装置
JP2009500042A (ja) * 2005-07-07 2009-01-08 インジーニアス・ターゲティング・ラボラトリー・インコーポレーテッド ターゲットの運動行動の3dのモニタリング及び分析のためのシステム
JP4087874B2 (ja) * 2006-02-01 2008-05-21 ファナック株式会社 ワーク取り出し装置
JP4153528B2 (ja) * 2006-03-10 2008-09-24 ファナック株式会社 ロボットシミュレーションのための装置、プログラム、記録媒体及び方法
JP4199264B2 (ja) 2006-05-29 2008-12-17 ファナック株式会社 ワーク取り出し装置及び方法
JP4238256B2 (ja) * 2006-06-06 2009-03-18 ファナック株式会社 ロボットシミュレーション装置
US7313464B1 (en) * 2006-09-05 2007-12-25 Adept Technology Inc. Bin-picking system for randomly positioned objects
US20080181485A1 (en) * 2006-12-15 2008-07-31 Beis Jeffrey S System and method of identifying objects
US7957583B2 (en) * 2007-08-02 2011-06-07 Roboticvisiontech Llc System and method of three-dimensional pose estimation
CN101396829A (zh) * 2007-09-29 2009-04-01 株式会社Ihi 机器人装置的控制方法以及机器人装置
JP4565023B2 (ja) * 2008-07-04 2010-10-20 ファナック株式会社 物品取り出し装置
CN101637908B (zh) * 2008-07-29 2010-11-03 上海发那科机器人有限公司 一种用于机器人搬运作业的视觉定位方法
US8559699B2 (en) * 2008-10-10 2013-10-15 Roboticvisiontech Llc Methods and apparatus to facilitate operations in image based systems
WO2010080121A1 (en) * 2008-12-18 2010-07-15 The Regents Of The University Of California, Santa Cruz Training-free generic object detection in 2-d and 3-d using locally adaptive regression kernels
US8442304B2 (en) * 2008-12-29 2013-05-14 Cognex Corporation System and method for three-dimensional alignment of objects using machine vision
JP5714232B2 (ja) * 2009-03-12 2015-05-07 オムロン株式会社 キャリブレーション装置および3次元計測のためのパラメータの精度の確認支援方法
JP5282717B2 (ja) * 2009-10-19 2013-09-04 株式会社安川電機 ロボットシステム
JP5382621B2 (ja) * 2010-06-03 2014-01-08 株式会社安川電機 移載装置
JP5505138B2 (ja) * 2010-07-05 2014-05-28 株式会社安川電機 ロボット装置およびロボット装置による把持方法
JP4938115B2 (ja) * 2010-07-27 2012-05-23 ファナック株式会社 ワーク取出し装置およびワーク取出し方法
JP5685027B2 (ja) * 2010-09-07 2015-03-18 キヤノン株式会社 情報処理装置、物体把持システム、ロボットシステム、情報処理方法、物体把持方法およびプログラム
JP5767464B2 (ja) * 2010-12-15 2015-08-19 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、およびプログラム
JP5787642B2 (ja) * 2011-06-28 2015-09-30 キヤノン株式会社 対象物保持装置、対象物保持装置の制御方法、およびプログラム
US9437005B2 (en) * 2011-07-08 2016-09-06 Canon Kabushiki Kaisha Information processing apparatus and information processing method
US8930009B2 (en) * 2011-10-20 2015-01-06 Kabushiki Kaisha Yaskawa Denki Robot system and processed object manufacturing method
JP2013101045A (ja) * 2011-11-08 2013-05-23 Fanuc Ltd 物品の3次元位置姿勢の認識装置及び認識方法
US8843236B2 (en) * 2012-03-15 2014-09-23 GM Global Technology Operations LLC Method and system for training a robot using human-assisted task demonstration

Also Published As

Publication number Publication date
DE102013012224B4 (de) 2015-02-05
CN103568024B (zh) 2015-06-03
CN103568024A (zh) 2014-02-12
US8874270B2 (en) 2014-10-28
JP2014028415A (ja) 2014-02-13
US20140039679A1 (en) 2014-02-06
DE102013012224A1 (de) 2014-02-06

Similar Documents

Publication Publication Date Title
JP5469216B2 (ja) バラ積みされた物品をロボットで取出す装置
US20200096317A1 (en) Three-dimensional measurement apparatus, processing method, and non-transitory computer-readable storage medium
JP5624394B2 (ja) 位置姿勢計測装置、その計測処理方法及びプログラム
JP6465789B2 (ja) デプスカメラの内部パラメータを算出するプログラム、装置及び方法
JP5743499B2 (ja) 画像生成装置、画像生成方法、およびプログラム
EP2636493B1 (en) Information processing apparatus and information processing method
JP6427972B2 (ja) ロボット、ロボットシステム及び制御装置
JP6324025B2 (ja) 情報処理装置、情報処理方法
JP6703812B2 (ja) 3次元物体検査装置
US11654571B2 (en) Three-dimensional data generation device and robot control system
JP2013101045A (ja) 物品の3次元位置姿勢の認識装置及び認識方法
JP2018144144A (ja) 画像処理装置、画像処理方法、及びコンピュータプログラム
JP2018091656A (ja) 情報処理装置、計測装置、システム、算出方法、プログラムおよび物品の製造方法
JP2020180914A (ja) 対象物の位置姿勢を検出する装置、方法およびプログラム
JP5858773B2 (ja) 3次元計測方法、3次元計測プログラム及びロボット装置
JP7353757B2 (ja) アーチファクトを測定するための方法
JP6180158B2 (ja) 位置姿勢計測装置、位置姿勢計測装置の制御方法、およびプログラム
JP5698815B2 (ja) 情報処理装置、情報処理装置の制御方法及びプログラム
JP2010210511A (ja) 対象物の3次元位置・姿勢認識装置及びその方法
JP6040264B2 (ja) 情報処理装置、情報処理装置の制御方法、およびプログラム
JP2021024052A (ja) 画像処理装置、画像処理方法およびプログラム
KR101438514B1 (ko) 다중 영상을 이용한 원자로 내부 로봇 위치 측정 시스템 및 위치 측정방법
JP6545033B2 (ja) 三次元温度分布表示装置

Legal Events

Date Code Title Description
A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20131121

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20131224

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140130

R150 Certificate of patent or registration of utility model

Ref document number: 5469216

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150