JP2002018754A - ロボット装置及びその制御方法 - Google Patents
ロボット装置及びその制御方法Info
- Publication number
- JP2002018754A JP2002018754A JP2000208915A JP2000208915A JP2002018754A JP 2002018754 A JP2002018754 A JP 2002018754A JP 2000208915 A JP2000208915 A JP 2000208915A JP 2000208915 A JP2000208915 A JP 2000208915A JP 2002018754 A JP2002018754 A JP 2002018754A
- Authority
- JP
- Japan
- Prior art keywords
- gripping mechanism
- gripping
- coordinates
- robot
- hand position
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Numerical Control (AREA)
- Manipulator (AREA)
Abstract
手間を省き、対象物に容易に所定の作業を行わせる。 【解決手段】 教示作業において、ロボットコントロー
ラ5は、対象物11を把持した状態のグリッパ3の位置
(Pd)を記憶し、さらに、対象物11をリリースした
後の任意の位置(Ps)を記憶する。把持作業において
は、ロボットコントローラ5は、搬送されている対象物
11に対してグリッパ3を追従させ、位置Ps,Pdに基
づいてグリッパ3を対象物11に持っていき、対象物1
1を把持する。
Description
その制御方法に係り、特に、運動中の物体を把持するロ
ボット装置及びその制御方法に関する。
ば物体の把持)を行う場合、対象物の位置、姿勢などの
情報をセンサにより取得して、そのセンサ情報をもとに
作業する例が数多く実用化されている。このような装置
構成としては、大別して、一般的に次の2つの方式があ
る。
されているように、コンベア上を搬送される対象物を固
定されたカメラで撮像し、得られた画像から対象物の位
置、姿勢を検出してその情報をロボットに送信するもの
がある。このロボットは、対象物の位置情報から把持な
どの作業を行っている。
サを取り付け、前述のようにカメラからの画像から対象
の位置姿勢を検出して、その情報に基づいて移動する対
象物に追従して把持などの作業を行うものもある。
ロボットと別に設置したカメラを用いて対象物の把持な
どの作業を実現する場合、ロボットとカメラの設置位置
を予め正確に求めておく作業が必要になる。また、カメ
ラの焦点距離やレンズひずみ係数などを予め算出してお
くカメラキャリブレーションを行う必要がある。
における例では、一般的にカメラの光軸がコンベア平面
に垂直に、さらに画面中のx軸あるいはy軸がコンベア
の搬送方向に平行になるように設置しておく必要があ
る。また、対象物がベルトコンベアなどで動いているた
め、カメラからの画像により検出した対象物の位置姿勢
情報に加えてコンベアの速度情報などを別の手段(例え
ばコンベアのエンコーダ)により検出し、両者の情報に
基づいてロボットへの指令値を生成する必要がある。さ
らに、カメラとロボットの設置位置情報、対象物の位置
情報、コンベアの速度情報からロボットが対象物を把持
する際の軌道を生成しなければならない。したがって、
教示作業、軌道生成のための処理手順が非常に煩雑にな
るなどの問題がある。
ットの手先にカメラを設置した後者の例についても同じ
ことがいえる。つまり、カメラからの画像から検出した
対象物の位置姿勢情報に基づいてロボットの手先に取り
付けたグリッパなどで対象物を把持する場合、カメラか
ら得られた対象物の位置姿勢情報をロボットの基準座標
系からみた位置姿勢情報に変換する必要があり、ロボッ
ト手先とカメラとの位置関係を予め精密に求めておく、
いわゆるハンドアイキャリブレーションが必要となる。
特に、ロボット手先にカメラなどのセンサを設置した場
合、作業中の誤作動などによりロボット手先とカメラ位
置関係が変化することが頻繁にあり、その場合はキャリ
ブレーション作業を再度行う必要がある。また、前者の
例と同様に対象物が動いている場合、ロボット基準座標
からみた対象物の位置姿勢情報は刻々と変化するため、
把持を行うための軌道生成が非常に複雑となる。
も、構成装置(コンベアの設置状況や搬送速度、あるい
はカメラとロボットの設置位置関係)や把持すべき対象
物の形状が変わらなくても、使用するロボット及びセン
サが変わる毎に、前述の高精度なキャリブレーション、
煩雑な教示作業を行う必要があった。
に提案されたものであり、煩雑な教授作業やキャリブレ
ーションを行う手間を省き、対象物に容易に所定の作業
を行わせることができるロボット装置及びその制御方法
を提供することを目的とする。
対象物を把持する把持機構を有し、前記把持機構が移動
可能に構成された把持手段と、前記把持手段の把持機構
と共に移動可能に固定され、対象物を撮像する撮像手段
と、前記撮像手段が撮像した対象物の画像から1以上の
特徴量の座標を抽出する特徴量抽出手段と、前記把持機
構に前記対象物を把持させたときの把持機構の位置を第
1の手先位置として記憶し、前記対象物を開放させて前
記撮像手段が対象物を撮像することができる範囲内にお
いて前記把持機構を移動させたときの前記把持機構の位
置を第2の手先位置として記憶し、前記第2の手先位置
において前記撮像手段が撮像して前記特徴量抽出手段が
抽出した前記対象物の各特徴量の座標を記憶する記憶手
段と、前記第2の手先位置から前記1の手先位置まで移
動するための移動行列を算出する算出手段と、前記特徴
量抽出手段によって抽出される運動中の対象物の各特徴
量の座標が、前記記憶手段に記憶されている各特徴量の
座標に一致するように前記把持手段を移動させること
で、前記運動中の対象物に前記把持機構を追従させる制
御をする追従制御手段と、前記把持機構が運動中の対象
物に追従している際に、前記算出手段が算出した移動行
列に基づいて前記把持機構を前記運動中の対象物に近付
け、前記対象物を把持させるように前記把持手段を制御
する把持制御手段と、を備えたものである。
ット装置に対して相対的に運動する対象物を把持するも
のである。したがって、前記ロボット装置が固定され前
記対象物が運動する場合に限らず、前記ロボット装置が
運動し前記対象物が固定されている場合や、前記ロボッ
ト装置と前記対象物がそれぞれ異なる速度で運動してい
る場合も適用することができる。さらに、前記対象物
は、前記ロボット装置に対して相対的に等速直線運動、
等速円運動、等加速度直線運動していてもよいが、相対
的に静止していてもよい。
次の2つのことを行う必要がある。第1に、把持機構を
第1の手先位置に移動させ、ここで対象物を把持させ
る。第2に、把持機構から対象物をリリースさせ、撮像
手段が対象物を撮像することができる範囲内において把
持機構を第2の手先位置まで移動させる。このような教
示作業を行い、第1及び第2の手先位置を記憶手段に記
憶させる。さらに、第2の手先位置において、撮像手段
が撮像した画像から抽出される1以上の特徴量の座標も
記憶手段に記憶させる。撮像手段は、把持機構のセンサ
となるものであり、把持手段と共に移動するように固定
されている。また、第2の手先位置から第1の手先位置
まで移動するための移動行列が算出される。
の対象物を把持する把持作業を行うことができる。把持
機構は、運動中の対象物の各特徴量の座標が、前記記憶
手段に記憶されている各特徴量の座標に一致するように
移動される。すなわち、把持機構が運動中の対象物を追
従するように、いわゆるビジュアルサーボが行われる。
このときの対象物と把持機構の相対的な位置関係は、教
示作業時の対象物と把持機構の相対的な位置関係と同じ
である。前記把持機構が運動中の対象物に追従すると、
前記算出手段が算出した第1の移動行列に基づいて前記
把持機構を前記運動中の対象物に近付け、そして前記対
象物を把持させる。
運動中の対象物に把持機構が完全に追従していることが
望ましい。しかし、運動中の対象物に所定距離を隔てな
がら把持機構が追従することがある。このような場合
は、請求項2に記載されるような再教示作業が行われる
のが好ましい。具体的には、前記記憶手段は、前記追従
制御手段によって前記把持機構が前記運動中の対象物に
対して所定距離を隔てながら追従している際に、前記特
徴量抽出手段が抽出した前記対象物の各特徴量の座標を
新たに記憶し、前記追従制御手段が新たに記憶された各
特徴量の座標を用いて、前記第2の手先位置から前記把
持機構を対象物に完全に追従させたときの前記把持機構
の位置を新たな第2の手先位置として記憶すればよい。
れた把持機構で対象物を把持するロボット装置の制御方
法であり、前記把持機構に前記対象物を把持させたとき
の把持機構の位置を第1の手先位置として記憶し、前記
対象物を開放させて、対象物を撮像することができる範
囲内において前記把持機構を移動させたときの前記把持
機構の位置を第2の手先位置として記憶し、前記第2の
手先位置において前記対象物を撮像し、前記撮像した対
象物の画像から1以上の特徴量の座標を抽出し、前記抽
出した各特徴量の座標を記憶し、前記第2の手先位置か
ら前記1の手先位置まで移動するための移動行列を算出
し、前記把持機構と共に移動可能に固定された状態で、
運動中の対象物を撮像し、前記撮像した運動中の対象物
の画像から1以上の特徴量の座標を抽出し、前記抽出さ
れた運動中の対象物の各特徴量の座標が、前記記憶され
ている各特徴量の座標に一致するように前記把持機構を
移動させることで、前記運動中の対象物に前記把持機構
を追従させ、前記把持機構が運動中の対象物に追従して
いる際に、前記算出した移動行列に基づいて前記把持機
構を前記運動中の対象物に近付け、前記把持機構に前記
対象物を把持させるものである。
ト装置を制御するための方法であり、オペレータは、教
示作業として上述した2つのことを行うだけでよい。す
なわち、オペレータが2つの簡単な教示作業を行うだけ
で、運動している対象物に把持機構を追従させて、その
対象物を把持することができる。
運動中の対象物に把持機構が完全に追従していることが
望ましい。しかし、運動中の対象物に所定距離を隔てな
がら把持機構が追従することがある。このような場合
は、請求項4に記載されるような再教示作業が行われる
のが好ましい。具体的には、前記運動中の対象物に前記
把持機構を追従させ、前記把持機構が前記運動中の対象
物に対して所定距離を隔てながら追従している際に、前
記把持機構と共に移動可能に固定された状態で、運動中
の対象物を撮像し、前記撮像した運動中の対象物の画像
から1以上の特徴量の座標を抽出し、前記抽出した前記
対象物の各特徴量の座標を新たに記憶し、前記新たに記
憶された各特徴量の座標を用いて、前記第2の手先位置
から対象物に前記把持機構が完全に追従するように前記
把持機構を移動させ、完全に追従した際に、前記把持機
構の位置を新たな第2の手先位置として記憶すればよ
い。
て図面を参照しながら詳細に説明する。
本実施の形態に係るロボット装置は、固定された状態
で、コンベア10で搬送されている対象物11を把持す
るものである。なお、本発明は、このような実施の形態
に限定されるものではなく、対象物11がロボット装置
に対して相対的に運動していれば適用することができ
る。すなわち、ロボット装置が運動し対象物11が静止
している場合や、ロボット装置と対象物11が異なる速
度で運動している場合であってもよい。さらに、第2及
び第3の実施の形態でも同様である。
CDカメラ1と、CCDカメラ1が撮像した画像から特
徴量を抽出するセンサコントローラ2と、対象物11を
把持するグリッパ3と、グリッパ3を3次元方向に移動
させるロボットアーム4と、座標変換や軌道生成等を行
い、図示しないサーボ回路、アンプなどを有し、グリッ
パ3やロボットアーム4の動作を制御するロボットコン
トローラ5とを備えている。
端であるグリッパ3の近傍に固着されている。ロボット
コントローラ5は、センサコントローラ2で得られた画
像特徴量Fiに基づいて、誤差ベクトルE(t)や速度
指令値ベクトルV(t)を算出し、これらの値に従って
ロボットアーム4の移動や、グリッパ3による対象物1
1の把持を制御する。なお、コンベア10は、対象物1
1を一定の速度で搬送する。
れている対象物11を実際に把持する前に、対象物11
を把持するための教示作業が行われる。
ット装置に対象物11を把持させてロボット手先位置P
を教示する。なお、グリッパ3などの把持機構及び対象
物11の形状によって、把持すべき位置が制限される場
合がある。また、後の処理(例えば、対象物11に他の
部品を組み付けたり、部品箱に投入すること)のため
に、把持すべき位置を予め規定しておくこともある。
すように、7角柱状に形成され、7つの側面111〜1
17を備えている。対象物11の上面118には、図示
しない部品を取り付けるための6つの組み付け穴(例え
ばねじ穴)が形成されている。なお、対象物11の下面
119には、このような組み付け穴は形成されていな
い。対象物11の把持される部分は、把持されたときの
安定性を考慮して、7つの側面のうち相対する側面11
1,115、または側面113,116であることが好
ましい。なお、本実施の形態では上記の形状の対象物1
1を用いたが、本発明はこの形状に限定されるものでは
なく、対象物11は他の形状であってもよい。そして、
教示作業は、具体的には図3に示すステップST1から
ステップST6の処理に従って行われる。
図示しないティーチングペンダントなどを用いてグリッ
パ3が対象物11の側面111,115または側面11
3,116を把持するようにして、ステップST2に移
行する。
ローラ5は、図4に示すようにグリッパ3が対象物11
を把持した状態で、ロボット基準座標系におけるグリッ
パ3の位置、すなわちロボット手先位置Pdを記憶し
て、ステップST3に移行する。ここにいう「位置」
は、姿勢を含む6自由度のパラメータで表される。以下
同様に、姿勢を含む6自由度のパラメータを「位置」と
いう。
ローラ5は、グリッパ3が把持した対象物11をリリー
スさせ、そして、任意の位置にグリッパ3を移動させ、
ステップST4に移行する。
ラ1の視野範囲内であることを要する。すなわち、CC
Dカメラ1で撮像した画像から対象物11の特徴量が抽
出されるような位置である。具体的には、対象物11が
CCDカメラ1の視野内に収まっていない位置や、CC
Dカメラ1が対象物11を真横から撮像する位置などで
はなく、抽出すべき特徴量が好適に画像から得られるよ
うな位置である。
ローラ5は、図5に示すように現在のロボット基準座標
系でのグリッパ3の位置、すなわちロボット手先位置P
sを記憶し、ステップST5に移行する。
換するための位置姿勢変換行列をP Oとすると、以下の
式が成り立つ。
POを算出し、これを記憶する。なお、ロボットコント
ローラ5は、後述する把持作業の際に、位置姿勢変換行
列POを算出してもよい。
は、ロボット手先位置Psにおいて対象物11を撮像
し、この画像をセンサコントローラ2に供給する。セン
サコントローラ2は、CCDカメラ1からの画像に基づ
いて画像特徴量を抽出して、ステップST6に移行す
る。ここで、CCDカメラ1は、例えば図6に示すよう
な対象物11の画像を得る。
ーラ2は、対象物11の上面118に加工されている6
つの組み付け穴を画像特徴量Fi(i=1〜6)として
抽出し、各画像特徴量Fiの中心位置の座標値(Xi,Y
i)記憶して、教示作業の処理を終了する。
測方法としては、二値化画像処理やエッジ処理などの公
知の手法を用いればよい。また、ここでは組み付け穴の
中心位置を画像特徴量Fiとしたが、線分端点、コー
ナ、二値化画像の孤立領域の面積重心など、他の画像特
徴量を用いてもよい。さらに、教示時は、オペレータが
画像特徴量Fiをマウスやキーボード等の図示しない入
力手段により人為的に定義してもよい。
終了すると、その作業の際に記憶した画像特徴量Fiの
座標や、ロボット手先位置Pd,Psを用いて、搬送中の
対象物11を把持する。この把持作業では、図7に示す
ステップST11からステップST18までの処理が実
行される。
1は、図8に示すように、対象物11の搬送領域、すな
わちコンベア10上を撮像し、ステップST12に移行
する。
ローラ2は、対象物11を検出したかを判定する。対象
物11を検出し、その画像から特徴量を抽出するために
は、対象物11全体がCCDカメラ1の視野の範囲内に
入ることが必要である。ここでは、対象物11の検出の
ために画像の輝度が用いられる。例えば、対象物11が
コンベア10の上流にあってCCDカメラ1の視野範囲
内にないときは、CCDカメラ1で得られる画像の輝度
はほとんど変化しない。一方、対象物11がコンベアに
より搬送されCCDカメラ1の視野範囲内に入ると、そ
の輝度は変化する。そこで、センサコントローラ2は、
画像中の適当な位置に図示しないウィンドウを設け、そ
のウィンドウ内の輝度が所定の閾値以上の場合は対象物
11が視野範囲内にあると判定し、輝度が所定の閾値未
満の場合はその視野の範囲内にないと判定する。そし
て、センサコントローラ2が対象物11を検出したとき
はステップST13に移行し、検出しなかったときはス
テップST11に戻る。
ローラ2は、CCDカメラ1が撮像した画像から時刻T
における画像特徴量fi(t)(i=1,2・・・)を抽
出して、ステップST14に移行する。ここで、図9
は、把持作業の実行時において撮像した画像を示す図で
ある。把持作業時には、時刻tに撮像された画像から画
像特徴量fi(t)を抽出する必要がある。しかし、何
らかの原因で本来抽出すべきでない例えば画像特徴量f
3(t)が抽出されることがある。そこで、特徴量f1
(t)〜f7(t)が、図6に示すF1〜F6のいずれ
に対応しているのかを求める対応点探索を行う必要があ
る。
され、例えば”ロボットビジョン”(谷内田正彦著、昭
晃堂、1990)に記載されている動的計画法や最大派
閥法など、いわゆる照合法により行うことができる。な
お、一旦、f1〜f7の中からF1〜F6に対応するも
のが得られれば、次の画像特徴量は容易に求めることが
できる。
プST16までの繰り返し処理のサイクルタイムをΔt
とすると、時刻tの次の時刻(t+Δt)における画像
特徴量fi(t+Δt)は先の画像中での画像特徴量fi
(t)の近傍から抽出すればよい。これにより、特徴量
抽出の安定性が増し、かつ、計算処理の負担を軽減する
ことができる。
ローラ2は、時刻tにおける誤差ベクトルE(t)が十
分小さいか、具体的には||E(t)||<εの判定基
準を満たすかを判定し、十分小さいときはステップST
17に移行し、十分小さくないときはステップST15
に移行する。
ら抽出された画像特徴量fi(t)と上述したステップ
ST6で記憶された画像特徴量Fiとに基づいて、誤差
ベクトルE(t)を求める。
oach to Visual Servoing in Robotics,IEEE Trans.Rob
otics and Automation,8(3),313-326,1992や、文献F.Be
nsalhaら、Real Time Visual Tracking using the Gene
ralized Likelihood Ratio Test,Int.Conf.Automation,
Robotics and Computer Vision,1379-1383,1994に記載
されている手法に基づいて、誤差ベクトルE(t)と、
後述する速度指令値ベクトルV(t)とを算出する。
よび時刻tで撮像した画像から得られた画像特徴量fi
(t)=(Xi(t),Yi(t))を用いて、特徴量偏
差ベクトルe(t)を以下の式(1)で求める。
(t))は、画素値で表される(Xi,Yi)および(X
i(t),Yi(t))を、それぞれカメラ座標系での値
に変換したものである。また、Nは画像特徴量の個数を
表す。
誤差ベクトルE(t)は、式(2)で表される。
から求められる画像ヤコビアンLTの疑似逆行列であ
る。
(t)||<εの判定基準を満たしたときに、運動する
対象物11に追従したと判定する。εは、オペレータに
よって予め与えられるスカラー量である。あるいは、 E=(E1 E2 E3 E4 E5 E6 )T と表せば、式(3)に示す判定基準を用いてもよい。
トローラ5は、速度指令値ベクトルV(t)を算出し、
ステップST16に移行する。なお、速度指令値ベクト
ルVは、ロボット手先位置Pの並進速度(tx,ty,t
z)および回転速度(ωx,ω y,ωz)を含んだものであ
り、 V=(tx ty tz ωx ωy ωz)T と表される。そして、時刻(t+Δt)における速度指
令値ベクトルV(t+Δt)は、式(4)から求められ
る。
右辺の最右項は、対象物11の運動速度の推定値であ
り、式(5)から求められる。
して、誤差ベクトルE(t)及び速度指令値ベクトルV
(t)を算出する。
トローラ5は、算出された速度指令値ベクトルV(t)
に基づいて、軌道生成、関節角速度・角加速度を生成
し、これらに従ってロボットアーム4を制御し、ステッ
プST13に戻る。
いと判定したときのステップST17において、ロボッ
トコントローラ5は、グリッパ3が対象物11に追従し
たと判定して、対象物11に対してアプローチを開始す
る。なお、以下の説明では、図7に示すフローチャート
の処理を行うことによってグリッパ3を対象物に追従さ
せることをビジュアルサーボという。
を時刻t1とすると、例えば図10に示すように、速度
指令値ベクトルはVactual(t1)、ロボット手先位置
の位置ベクトルはP(t1)となる。
は対象物11に追従しているため、そのときの速度指令
値ベクトルVactual(t1)は対象物11の速度ベクト
ルに等しい。したがって、ロボットコントローラ5は、
手先位置P(t1)からPO分だけ移動するための速度パ
ターンに、上述した速度指令値ベクトルV
actual(t 1)を重畳させた速度パターンを生成する。
なお、POは、教示作業で示した位置姿勢変換行列であ
る。また、PO分だけ移動するための速度パターンは、
例えば台形速度パターンなど従来の手法により算出する
ことができる。
相対移動するのに時間TOを要するとして、以下の式に
従ってPaを算出する。
づいてロボットアーム4を制御する。これにより、図1
1に示すように、手先位置P(t1)から対象物11を
把持すべき位置Paにロボット手先(グリッパ3)を移
動させることができる。このようなアプローチが終了す
ると、ステップST18に移行する。
トローラ5は、対象物11をグリッパ3で把持して、処
理を終了する。
時におけるロボット手先位置Ps,Pdを記憶し、ビジュ
アルサーボによって搬送中の対象物11に追従し、そし
てロボット手先位置Ps,Pdを用いて対象物11の把持
作業を行うことができる。これにより、ロボット装置
は、搬送中の対象物11の姿勢位置に拘束されることな
く、また、コンベア10を止めることなく、搬送中の対
象物11を容易に把持することができる。
置、CCDカメラ1、グリッパ3及び対象物11相互間
の位置関係を予め求めておく作業が不要なので、例えば
CCDカメラ1の設置条件が変化した場合であっても、
上述したような単純な教示作業のみで、搬送中の対象物
11を把持することができる。さらに、同じ作業を異な
るロボット装置、CCDカメラ1、グリッパ3で実現し
ようとした場合や、把持すべき対象物11が異なる場合
であっても、同様に、単純な教示作業のみでよい。
業、プログラミングにおける負荷を大幅に軽減すること
ができる。さらに、CCDカメラ1、グリッパ3及び対
象物11に変更が生じても、柔軟に対応することができ
る。
装置は、コンベア10によって搬送されている対象物1
1を把持することを例に挙げて説明したが、静止してい
る対象物11を把持する場合も同様にすることができ
る。なお、教示作業は、上述した説明と同様である。
4において、誤差ベクトルE(t)が十分に小さくなっ
たときは、速度指令値ベクトルV(t)はゼロになり、
同様に、実際のロボット手先位置の速度V
actual(t1)もゼロになる。
ロボットコントローラ5は、現在のロボット手先位置P
(t1)と、教示時における位置の変化分POのみを用い
て対象物11を把持することができる。すなわち、把持
すべき位置Paは、以下の式により求められる。
づいてロボットアーム4を制御し、グリッパ3により静
止している対象物11の把持を行うことができる。
2の実施の形態について説明する。なお、第1の実施の
形態と同じ部位には同じ符号を付し、また、重複する説
明についてはその記載を省略する。
ロボット手先位置Pとの相対的な位置関係が、教示作業
時のそれらの相対的な位置関係とほぼ同じになる完全追
従状態について説明した。これに対して、第2の実施の
形態では、完全追従状態でない場合にロボット装置が対
象物を把持することについて説明する。
定に保った状態と定義する。例えば、対象物が速度V0
で運動している場合では、ロボット手先位置Pが速度V
0で運動している状態である。次に、追従状態として、
「完全追従状態」と「不完全追従状態」の2つを定義す
る。
Pと対象物との相対的な位置関係が一定値POのままで
一定時間継続している状態、すなわち教示作業時のそれ
らの相対的な位置関係と同じになっている状態をいう。
「不完全追従状態」とは、ロボット手先位置Pと対象物
との相対的な位置関係が一定値P’0(≠PO)のままで
一定時間継続している状態、すなわちロボット手先位置
Pと対象物との間で相対的な位置の変化はないが、教示
作業時の相対的な位置関係と異なる状態をいう。これら
の2つの状態について、画像誤差、ロボット手先位置
P、ロボット手先位置Pの速度、ロボット手先位置Pの
加速度の状態を表1に示す。
Pと対象物の相対的な位置関係はP Oであり、しかも、
ロボット手先位置Pは対象物と同じ速度で移動する。こ
のため接近動作は、追従運動Vを維持しつつ、接近移動
POの移動を行うことで、把持作業を行うことができ
る。
手先位置Pは対象物と同じ速度で移動している。ただ
し、ロボット手先位置Pと対象物との相対的な位置関係
P’0は、教示作業時の位置関係POとは異なる。例えば
図12(A)に示すように、追従開始時の対象物11の
初期画像は、目標画像に一致していない。なお、このと
きは、早く追従状態になるようにするため、ロボット手
先位置Psの速度は、図13に示すように、大きくなっ
ている。図12(B)に示すように、追従状態の対象物
11の画像は、目標画像に対して所定のずれを維持した
状態になっている。このときのロボット手先位置Psの
速度は、図13に示すように、Vactual(t1)になっ
ている。
とができれば、図12(C)に示すように、「完全追従
状態」と全く同一の効果を得ることができる。なお、
「不完全追従状態」における位置関係P’0は、対象物
の運動速度の変化やビジュアルサーボのゲインの変更等
で変化する可能があり、その度に再教示が必要である。
本実施の形態では、「不完全追従状態」にも対応するこ
とができるように、再教示作業が行われる。
は、最初に、ビジュアルサーボを用いて、対象物の追従
が行われる。そして、ロボットコントローラ5は、この
とき対象物の画像特徴量F’iを抽出して、各画像特徴
量F’iの座標を記憶する。なお、画像特徴量F’iの抽
出処理は、図3に示すステップST6の処理と同様であ
る。
テップST3までの処理が行われ、グリッパ3は任意の
位置(ロボット手先位置Ps)に移動させられる。ロボ
ットコントローラ5は、さらに、画像特徴量Fi’を用
いてビジュアルサーボを行い、追従状態に到達したグリ
ッパ3の位置をロボット手先位置P’sとする。そし
て、ロボットコントローラ5は、追従状態における位置
姿勢変換行列P’O(=P’S -1Pd)を算出し、この位
置姿勢変換行列P’Oを記憶する。
に、図7に示すステップST11からステップST18
までの処理を行う。このとき、第1の実施の形態で求め
た画像特徴量Fi及び位置姿勢変換POに代えて、画像特
徴量F’i及び位置姿勢変換業列P’Oを用いればよい。
ボット装置によれば、ロボット手先位置Pが対象物11
に完全に追従していなくても、複雑な調整をすることな
く上述した簡単な教示作業を行うだけで、対象物11を
把持することができるようになる。
の形態では、一例として静止運動、等速直線運動の場合
を示したが、本発明を用いれば等加速度直線運動あるい
は等速円運動まで拡大することができる。そして、この
把持作業でも、第1の実施の形態と同様に、図7に示す
ステップST11からステップST17までの処理が行
われる。
ボットコントローラ5は、誤差ベクトルE(t)が十分
に小さくなった時刻t1において、ロボット手先位置P
は対象物11に対して相対的にPOあるいはP’Oの位置
に制御されたと判定し、この時刻t1でのV
actual(t1)と、手先加速度accactual(t1)から
生成される速度成分Vestimate(t)と、POあるいは
P’Oより生成される速度指令値とを重ね合わせた速度
指令値を生成し、時刻t1でのロボット手先位置P
(t1)から対象物11に接近し、グリッパ3により対
象物11の把持を行う。
14に示すように、追従状態になったときのロボット手
先位置PsからPO分だけグリッパ3を移動するように制
御する。なお、ロボットコントローラ5は、このときP
O分相対移動するのに時間T’Oを要するとして、以下の
式に従ってPaを算出する。
把持する場合を例に挙げて説明したが、本発明はこれに
限定されるものではない。例えば、対象物11に部品の
取り付け等を行う場合であっても同様にして適用するこ
とができる。
方法によれば、オペレータは、教示作業として、次の2
つのことを行うだけでよい。第1に、把持機構を第1の
手先位置に移動させ、ここで対象物を把持させる。第2
に、把持機構から対象物をリリースさせ、撮像範囲内に
おいて把持機構を第2の手先位置まで移動させる。この
とき記憶される第1及び第2の手先位置や、第2の手先
位置における対象物の特徴量の座標は、対象物を追従し
てこれを把持するために用いられる。すなわち、オペレ
ータは簡単な教示作業を行うだけで、ロボット装置に運
動中の対象物を把持させることができる。
の構成を示す図である。
斜視図である。
すフローチャートである。
ボット手先位置Pdを示す概略的な構成を示す図であ
る。
のロボット手先位置Psを示す概略的な構成を示す図で
ある。
ある。
すフローチャートである。
コンベア上を撮像していることを説明するための図であ
る。
ある。
及び速度指令値ベクトルVactual(t1)を説明するた
めの図である。
ある。
て初期状態、追従状態、再教示時の対象物の画像を示す
図である。
(t)を説明する図である。
置が搬送中の対象物を把持した状態を説明する図であ
る。
Claims (4)
- 【請求項1】 相対的に運動する対象物を把持するロボ
ット装置において、 前記対象物を把持する把持機構を有し、前記把持機構が
移動可能に構成された把持手段と、 前記把持手段の把持機構と共に移動可能に固定され、対
象物を撮像する撮像手段と、 前記撮像手段が撮像した対象物の画像から1以上の特徴
量の座標を抽出する特徴量抽出手段と、 前記把持機構に前記対象物を把持させたときの把持機構
の位置を第1の手先位置として記憶し、前記対象物を開
放させて前記撮像手段が対象物を撮像することができる
範囲内において前記把持機構を移動させたときの前記把
持機構の位置を第2の手先位置として記憶し、前記第2
の手先位置において前記撮像手段が撮像して前記特徴量
抽出手段が抽出した前記対象物の各特徴量の座標を記憶
する記憶手段と、 前記第2の手先位置から前記1の手先位置まで移動する
ための移動行列を算出する算出手段と、 前記特徴量抽出手段によって抽出される運動中の対象物
の各特徴量の座標が、前記記憶手段に記憶されている各
特徴量の座標に一致するように前記把持手段を移動させ
ることで、前記運動中の対象物に前記把持機構を追従さ
せる制御をする追従制御手段と、 前記把持機構が運動中の対象物に追従している際に、前
記算出手段が算出した移動行列に基づいて前記把持機構
を前記運動中の対象物に近付け、前記対象物を把持させ
るように前記把持手段を制御する把持制御手段と、 を備えたロボット装置。 - 【請求項2】 前記記憶手段は、 前記追従制御手段によって前記把持機構が前記運動中の
対象物に対して所定距離を隔てながら追従している際
に、前記特徴量抽出手段が抽出した前記対象物の各特徴
量の座標を新たに記憶し、 前記追従制御手段が新たに記憶された各特徴量の座標を
用いて、前記第2の手先位置から前記把持機構を対象物
に完全に追従させたときの前記把持機構の位置を新たな
第2の手先位置として記憶する請求項1記載のロボット
装置。 - 【請求項3】 移動可能に構成された把持機構で相対的
に運動する対象物を把持するロボット装置の制御方法に
おいて、 前記把持機構に前記対象物を把持させたときの把持機構
の位置を第1の手先位置として記憶し、 前記対象物を開放させて、対象物を撮像することができ
る範囲内において前記把持機構を移動させたときの前記
把持機構の位置を第2の手先位置として記憶し、 前記第2の手先位置において前記対象物を撮像し、 前記撮像した対象物の画像から1以上の特徴量の座標を
抽出し、 前記抽出した各特徴量の座標を記憶し、 前記第2の手先位置から前記1の手先位置まで移動する
ための移動行列を算出し、 前記把持機構と共に移動可能に固定された状態で、運動
中の対象物を撮像し、 前記撮像した運動中の対象物の画像から1以上の特徴量
の座標を抽出し、 前記抽出された運動中の対象物の各特徴量の座標が、前
記記憶されている各特徴量の座標に一致するように前記
把持機構を移動させることで、前記運動中の対象物に前
記把持機構を追従させ、 前記把持機構が運動中の対象物に追従している際に、前
記算出した移動行列に基づいて前記把持機構を前記運動
中の対象物に近付け、前記把持機構に前記対象物を把持
させるロボット装置の制御方法。 - 【請求項4】 前記運動中の対象物に前記把持機構を追
従させ、 前記把持機構が前記運動中の対象物に対して所定距離を
隔てながら追従している際に、前記把持機構と共に移動
可能に固定された状態で、運動中の対象物を撮像し、 前記撮像した運動中の対象物の画像から1以上の特徴量
の座標を抽出し、 前記抽出した前記対象物の各特徴量の座標を新たに記憶
し、 前記新たに記憶された各特徴量の座標を用いて、前記第
2の手先位置から対象物に前記把持機構が完全に追従す
るように前記把持機構を移動させ、 完全に追従した際に、前記把持機構の位置を新たな第2
の手先位置として記憶する請求項3記載のロボット装置
の制御方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000208915A JP4265088B2 (ja) | 2000-07-10 | 2000-07-10 | ロボット装置及びその制御方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000208915A JP4265088B2 (ja) | 2000-07-10 | 2000-07-10 | ロボット装置及びその制御方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2002018754A true JP2002018754A (ja) | 2002-01-22 |
JP4265088B2 JP4265088B2 (ja) | 2009-05-20 |
Family
ID=18705412
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000208915A Expired - Fee Related JP4265088B2 (ja) | 2000-07-10 | 2000-07-10 | ロボット装置及びその制御方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4265088B2 (ja) |
Cited By (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6261095A (ja) * | 1985-09-11 | 1987-03-17 | カシオ計算機株式会社 | 波形エディット装置 |
WO2004007150A1 (ja) * | 2002-07-17 | 2004-01-22 | Kabushiki Kaisha Yaskawa Denki | 搬送用ロボットシステムおよび搬送用ロボットの制御方法 |
JP2005537939A (ja) * | 2002-09-13 | 2005-12-15 | ダイムラークライスラー・アクチェンゲゼルシャフト | 加工品に接続領域を作る方法及び装置 |
GB2415944A (en) * | 2004-07-03 | 2006-01-11 | Koorosh Khodabandehloo | Apparatus fro moving products using camera and flat gripper |
WO2010064353A1 (ja) * | 2008-12-05 | 2010-06-10 | 本田技研工業株式会社 | ロボットアームの制御方法 |
JP2011143494A (ja) * | 2010-01-13 | 2011-07-28 | Ihi Corp | ロボット制御装置及び方法 |
US8095237B2 (en) | 2002-01-31 | 2012-01-10 | Roboticvisiontech Llc | Method and apparatus for single image 3D vision guided robotics |
US8437535B2 (en) | 2006-09-19 | 2013-05-07 | Roboticvisiontech Llc | System and method of determining object pose |
JP2013158851A (ja) * | 2012-02-01 | 2013-08-19 | Seiko Epson Corp | ヤコビ行列情報生成装置、ヤコビ行列情報生成方法、ヤコビ行列情報生成プログラム、ロボット制御装置、ロボット制御方法、ロボット制御プログラムおよびロボットシステム |
US8559699B2 (en) | 2008-10-10 | 2013-10-15 | Roboticvisiontech Llc | Methods and apparatus to facilitate operations in image based systems |
JP2014140942A (ja) * | 2013-01-25 | 2014-08-07 | Seiko Epson Corp | ロボット制御システム、ロボット、ロボット制御方法及びプログラム |
JP2015089598A (ja) * | 2013-11-06 | 2015-05-11 | セイコーエプソン株式会社 | 教示装置、ロボット、ロボットシステム、方法、及びプログラム |
JP2015100868A (ja) * | 2013-11-22 | 2015-06-04 | セイコーエプソン株式会社 | ロボットシステム |
JP2015214014A (ja) * | 2014-05-09 | 2015-12-03 | ザ・ボーイング・カンパニーTheBoeing Company | フルサイズの部品基準組立のための経路反復可能な加工 |
CN105645010A (zh) * | 2014-12-02 | 2016-06-08 | 发那科株式会社 | 物品转运装置和物品转运方法 |
CN106938463A (zh) * | 2017-05-02 | 2017-07-11 | 上海贝特威自动化科技有限公司 | 一种大型板料定位抓取的方法 |
CN107363837A (zh) * | 2017-09-08 | 2017-11-21 | 桂林加宏汽车修理有限公司 | 一种机械手控制***及控制机械手捕获物体的方法 |
JP2018027580A (ja) * | 2016-08-17 | 2018-02-22 | ファナック株式会社 | ロボット制御装置 |
CN109305532A (zh) * | 2017-07-26 | 2019-02-05 | 发那科株式会社 | 物品输送***以及输送***控制装置 |
US10556345B2 (en) | 2014-02-28 | 2020-02-11 | Sony Corporation | Robot arm apparatus and calibration method |
CN110801239A (zh) * | 2019-11-20 | 2020-02-18 | 上海交通大学 | 一种上肢多关节等速训练测试装置 |
CN111300490A (zh) * | 2018-12-12 | 2020-06-19 | 成都蒸汽巨人机器人科技有限公司 | 一种基于深度视觉传感器的机器人轨迹生成***及方法 |
DE102019122790B4 (de) * | 2018-08-24 | 2021-03-25 | Nvidia Corp. | Robotersteuerungssystem |
CN113716323A (zh) * | 2021-08-17 | 2021-11-30 | 成都新气象科技实业股份有限公司 | 一种容器智能搬运方法 |
US11407115B2 (en) | 2018-02-08 | 2022-08-09 | Fanuc Corporation | Work robot system |
US11613021B2 (en) | 2017-06-13 | 2023-03-28 | Kawasaki Jukogyo Kabushiki Kaisha | Operation system |
US11679502B2 (en) | 2019-09-26 | 2023-06-20 | Fanuc Corporation | Robot control system |
US11833681B2 (en) | 2018-08-24 | 2023-12-05 | Nvidia Corporation | Robotic control system |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012153629A1 (ja) | 2011-05-12 | 2012-11-15 | 株式会社Ihi | 運動予測制御装置と方法 |
JP5850962B2 (ja) | 2014-02-13 | 2016-02-03 | ファナック株式会社 | ビジュアルフィードバックを利用したロボットシステム |
CN104354167B (zh) * | 2014-08-29 | 2016-04-06 | 广东正业科技股份有限公司 | 一种机器人手眼标定方法及装置 |
-
2000
- 2000-07-10 JP JP2000208915A patent/JP4265088B2/ja not_active Expired - Fee Related
Cited By (40)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6261095A (ja) * | 1985-09-11 | 1987-03-17 | カシオ計算機株式会社 | 波形エディット装置 |
US8095237B2 (en) | 2002-01-31 | 2012-01-10 | Roboticvisiontech Llc | Method and apparatus for single image 3D vision guided robotics |
WO2004007150A1 (ja) * | 2002-07-17 | 2004-01-22 | Kabushiki Kaisha Yaskawa Denki | 搬送用ロボットシステムおよび搬送用ロボットの制御方法 |
KR100787704B1 (ko) * | 2002-07-17 | 2007-12-21 | 가부시키가이샤 야스카와덴키 | 반송용 로봇 티칭 장치 및 반송용 로봇의 티칭 방법 |
US7805219B2 (en) | 2002-07-17 | 2010-09-28 | Kabushiki Kaisha Yaskawa Denki | Carrier robot system and control method for carrier robot |
JP2005537939A (ja) * | 2002-09-13 | 2005-12-15 | ダイムラークライスラー・アクチェンゲゼルシャフト | 加工品に接続領域を作る方法及び装置 |
JP2006514588A (ja) * | 2002-09-13 | 2006-05-11 | ダイムラークライスラー・アクチェンゲゼルシャフト | 移動する加工品、特に車体を加工する方法及び装置 |
GB2415944A (en) * | 2004-07-03 | 2006-01-11 | Koorosh Khodabandehloo | Apparatus fro moving products using camera and flat gripper |
US8437535B2 (en) | 2006-09-19 | 2013-05-07 | Roboticvisiontech Llc | System and method of determining object pose |
US8559699B2 (en) | 2008-10-10 | 2013-10-15 | Roboticvisiontech Llc | Methods and apparatus to facilitate operations in image based systems |
US20110301758A1 (en) * | 2008-12-05 | 2011-12-08 | Honda Motor Co., Ltd. | Method of controlling robot arm |
CN102300680A (zh) * | 2008-12-05 | 2011-12-28 | 本田技研工业株式会社 | 机器人手臂的控制方法 |
JP2010131711A (ja) * | 2008-12-05 | 2010-06-17 | Honda Motor Co Ltd | ロボットアームの制御方法 |
WO2010064353A1 (ja) * | 2008-12-05 | 2010-06-10 | 本田技研工業株式会社 | ロボットアームの制御方法 |
JP2011143494A (ja) * | 2010-01-13 | 2011-07-28 | Ihi Corp | ロボット制御装置及び方法 |
JP2013158851A (ja) * | 2012-02-01 | 2013-08-19 | Seiko Epson Corp | ヤコビ行列情報生成装置、ヤコビ行列情報生成方法、ヤコビ行列情報生成プログラム、ロボット制御装置、ロボット制御方法、ロボット制御プログラムおよびロボットシステム |
JP2014140942A (ja) * | 2013-01-25 | 2014-08-07 | Seiko Epson Corp | ロボット制御システム、ロボット、ロボット制御方法及びプログラム |
JP2015089598A (ja) * | 2013-11-06 | 2015-05-11 | セイコーエプソン株式会社 | 教示装置、ロボット、ロボットシステム、方法、及びプログラム |
JP2015100868A (ja) * | 2013-11-22 | 2015-06-04 | セイコーエプソン株式会社 | ロボットシステム |
US10556345B2 (en) | 2014-02-28 | 2020-02-11 | Sony Corporation | Robot arm apparatus and calibration method |
JP2015214014A (ja) * | 2014-05-09 | 2015-12-03 | ザ・ボーイング・カンパニーTheBoeing Company | フルサイズの部品基準組立のための経路反復可能な加工 |
US10928799B2 (en) | 2014-05-09 | 2021-02-23 | The Boeing Company | Path repeatable machining for full sized determinant assembly |
US10691097B2 (en) | 2014-05-09 | 2020-06-23 | The Boeing Company | Path repeatable machining for full sized determinant assembly |
CN105645010A (zh) * | 2014-12-02 | 2016-06-08 | 发那科株式会社 | 物品转运装置和物品转运方法 |
JP2016107349A (ja) * | 2014-12-02 | 2016-06-20 | ファナック株式会社 | ロボットを用いて物品を移送する物品移送装置及び物品移送方法 |
JP2018027580A (ja) * | 2016-08-17 | 2018-02-22 | ファナック株式会社 | ロボット制御装置 |
US10507583B2 (en) | 2016-08-17 | 2019-12-17 | Fanuc Corporation | Robot control device |
CN106938463A (zh) * | 2017-05-02 | 2017-07-11 | 上海贝特威自动化科技有限公司 | 一种大型板料定位抓取的方法 |
US11613021B2 (en) | 2017-06-13 | 2023-03-28 | Kawasaki Jukogyo Kabushiki Kaisha | Operation system |
CN109305532B (zh) * | 2017-07-26 | 2020-04-10 | 发那科株式会社 | 物品输送***以及输送***控制装置 |
CN109305532A (zh) * | 2017-07-26 | 2019-02-05 | 发那科株式会社 | 物品输送***以及输送***控制装置 |
CN107363837A (zh) * | 2017-09-08 | 2017-11-21 | 桂林加宏汽车修理有限公司 | 一种机械手控制***及控制机械手捕获物体的方法 |
US11407115B2 (en) | 2018-02-08 | 2022-08-09 | Fanuc Corporation | Work robot system |
US11904483B2 (en) | 2018-02-08 | 2024-02-20 | Fanuc Corporation | Work robot system |
DE102019122790B4 (de) * | 2018-08-24 | 2021-03-25 | Nvidia Corp. | Robotersteuerungssystem |
US11833681B2 (en) | 2018-08-24 | 2023-12-05 | Nvidia Corporation | Robotic control system |
CN111300490A (zh) * | 2018-12-12 | 2020-06-19 | 成都蒸汽巨人机器人科技有限公司 | 一种基于深度视觉传感器的机器人轨迹生成***及方法 |
US11679502B2 (en) | 2019-09-26 | 2023-06-20 | Fanuc Corporation | Robot control system |
CN110801239A (zh) * | 2019-11-20 | 2020-02-18 | 上海交通大学 | 一种上肢多关节等速训练测试装置 |
CN113716323A (zh) * | 2021-08-17 | 2021-11-30 | 成都新气象科技实业股份有限公司 | 一种容器智能搬运方法 |
Also Published As
Publication number | Publication date |
---|---|
JP4265088B2 (ja) | 2009-05-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2002018754A (ja) | ロボット装置及びその制御方法 | |
CN108674922B (zh) | 一种用于机器人的传送带同步跟踪方法、装置及*** | |
US10456917B2 (en) | Robot system including a plurality of robots, robot controller and robot control method | |
CN111905983B (zh) | 基于视觉跟随的点胶轨迹修正方法、装置、***及介质 | |
JP6538751B2 (ja) | プログラミング装置及びロボット制御方法 | |
Li et al. | Integrating vision, haptics and proprioception into a feedback controller for in-hand manipulation of unknown objects | |
CN115070781B (zh) | 一种物体抓取方法及双机械臂协作*** | |
JP6322949B2 (ja) | ロボット制御装置、ロボットシステム、ロボット、ロボット制御方法及びロボット制御プログラム | |
Roveda et al. | Human-robot cooperative interaction control for the installation of heavy and bulky components | |
JP2015071207A (ja) | ロボットハンドおよびその制御方法 | |
JP2678002B2 (ja) | 視覚付きロボットの座標系較正方法 | |
JP6939729B2 (ja) | 制御システム、制御方法およびプログラム | |
Luo et al. | Robotic conveyor tracking with dynamic object fetching for industrial automation | |
Tongloy et al. | An image-based visual servo control system based on an eye-in-hand monocular camera for autonomous robotic grasping | |
JP4329257B2 (ja) | ロボット装置 | |
Shaw et al. | Automatic classification of moving objects on an unknown speed production line with an eye-in-hand robot manipulator | |
CN112123329A (zh) | 一种机器人3d视觉手眼标定方法 | |
US20230120598A1 (en) | Robot program generation method from human demonstration | |
US20230381969A1 (en) | Calibration Method And Robot System | |
CN115556102B (zh) | 一种基于视觉识别的机器人分拣规划方法及规划设备 | |
CN116100562B (zh) | 多机器人协同上下料的视觉引导方法及*** | |
WO2023203747A1 (ja) | ロボット教示方法および装置 | |
Hu et al. | A compliant robotic assembly system based on multiple sensors | |
Chen et al. | Vision-Based High-Precision Assembly with Force Feedback | |
CN113510701B (zh) | 机器人的控制方法、机器人及计算机可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070601 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20090116 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090127 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090209 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120227 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120227 Year of fee payment: 3 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313532 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130227 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130227 Year of fee payment: 4 |
|
LAPS | Cancellation because of no payment of annual fees |