JP3732494B2 - シミュレーション装置 - Google Patents

シミュレーション装置 Download PDF

Info

Publication number
JP3732494B2
JP3732494B2 JP2003372518A JP2003372518A JP3732494B2 JP 3732494 B2 JP3732494 B2 JP 3732494B2 JP 2003372518 A JP2003372518 A JP 2003372518A JP 2003372518 A JP2003372518 A JP 2003372518A JP 3732494 B2 JP3732494 B2 JP 3732494B2
Authority
JP
Japan
Prior art keywords
robot
screen
imaging
simulation
command
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2003372518A
Other languages
English (en)
Other versions
JP2005135278A (ja
Inventor
淳 渡邉
嘉治 長塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Priority to JP2003372518A priority Critical patent/JP3732494B2/ja
Priority to EP04025427A priority patent/EP1527850B1/en
Priority to US10/972,675 priority patent/US7447615B2/en
Publication of JP2005135278A publication Critical patent/JP2005135278A/ja
Application granted granted Critical
Publication of JP3732494B2 publication Critical patent/JP3732494B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/406Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by monitoring or safety
    • G05B19/4069Simulating machining process on screen
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1671Programme controls characterised by programming, planning systems for manipulators characterised by simulation, either to verify existing program or to create and verify new program, CAD/CAM oriented, graphic oriented programming systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/32Operator till task planning
    • G05B2219/32351Visual, graphical animation of process
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39031Use of model for robot and for measuring device
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40003Move end effector so that image center is shifted to desired position
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40121Trajectory planning in virtual space
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40131Virtual reality control, programming of manipulator
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40314Simulation of program locally before remote operation
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40323Modeling robot environment for sensor based robot system
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Manufacturing & Machinery (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Numerical Control (AREA)
  • Manipulator (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本発明は、撮像手段を有する視覚センサとロボットを含むロボットシステムのためのシミュレーション装置に関し、特に、ロボット移動と視覚センサによる検出を含むような動作プログラムをオフラインで作成したり、オフラインで作成済みあるいは作成過程にあるプログラムの評価や修正、編集等を行なう際に有用なシミュレーション装置に関する。
ロボット、ワーク、周辺機器等の3次元モデルを画面上で配置・表示し、指定されたロボット移動指令等に従ってロボットの動作シミュレーションを行うシミュレーション装置は公知であり、ロボットの動作プログラムをオフラインで作成したり、オフラインで作成されたプログラムの評価や修正、編集等を行なう際に用いられている。ところが、従来のシミュレーション装置では、視覚センサを使うロボットシステムについて、実機が配置されていない場所(例えば事務所)で、オフラインプログラムの作成、修正、編集等を行なおうとする場合、視覚センサに関連するシミュレーションが殆どできなかった。
例えば、視覚センサが画像取得に用いる撮像手段(例えばディジタルCCDカメラ;以下、同様)が持つ視野の3次元形状(視体積)を画面上で把握できなかった。また、撮像手段でどのような画像が取得できるのかが分からず、不便であった。特に、ロボットに撮像手段を搭載した場合、ロボットの位置・姿勢に応じてどのような画像が得られるのか分からないことは大きな問題であった。
そのため、視覚センサに関連する事項については、現場で実際に撮像装置(実機)をロボット(実機)に搭載し、同ロボットの位置・姿勢を変えながら視覚センサを動作させて画像をとり、画像の写り方を確認していた。
そして、実際に、ロボットに搭載した撮像手段が対象物(ワーク等)の検出に関する基準点(通常は、撮像手段で見たい対象物上の適当な位置に定める)を見るためのロボットの位置・姿勢を決めるに際しても、現場でロボットを動かし、取得された画像を見ながら、試行錯誤による作業を行っていた。更に、ロボットの動作プログラムのどこに視覚センサ検出指令を入れたらいいかを考えるのも試行錯誤を要していた。
以上のように、視覚センサを含むロボットシステムについて、シミュレーション装置を用いて、動作プログラムのオフライン作成、オフラインで作成されたプログラムの評価や修正、編集等を行なう際には、種々の不便さが生じ、作業効率の低下を招いていた。そして、これら不便さや作業効率の低下を解消する技術の開示が公知文献には見当らない。
そこで、本発明の目的は、視覚センサを含むロボットシステムについて、動作プログラムのオフライン作成、オフラインで作成されたプログラムの評価や修正、編集等を行なう際に生じていた種々の不便さと作業効率の低下を緩和乃至解消することができるシミュレーション装置を提供することにある。
本発明は、上記課題を解決するために、先ず、少なくともロボット、ワーク及び視覚センサ装置の撮像手段の3次元モデルを画面に配置して同時に表示し、前記ロボットの動作シミュレーションを行うシミュレーション装置に、前記撮像手段の視野を3次元形状で画面上に表示する手段を具備させることを提案する。これにより、撮像手段の視野の3次元形状(視体積)が画面上で容易に確認できるようになる。ここで、前記視野の3次元形状は、典型的には四角錐となる。
また、前記撮像手段が前記視野で捉える画像を画面上に表示する手段を具備させることもできる。これにより、現場での確認作業なしでどのような画像が得られるか分かるようになる。上記いずれにおいても、前記撮像手段は前記ロボットに搭載されていることが典型的であるが、ロボットの外部に撮像手段を配置するケースに適用可能なことは言うまでもない。ロボットに搭載のケースでは、シミュレーション装置の画面に、ロボットとともにそこに搭載された撮像手段のモデル画像が表示され、ロボット外に配置のケースでは、シミュレーション装置の画面に、ロボットとともに外部に配置された撮像手段のモデル画像が表示される。本発明は更に、シミュレーション装置に、前記ワークに関連した第1の基準点を画面上で指定する手段と、前記視野に関連して予め定められた第2の基準点が、前記第1の基準点と一致するように、画面上のロボットを動作させる手段を具備させることを提案する。この提案によれば、視覚センサの撮像手段の視野の3次元形状を画面上に表示するシミュレーション装置を使い、対象物の検出に関する基準点(第1の基準点)の定義、該第1の基準点を見るためのロボットの位置・姿勢の検討が容易に行えるようになる。
また、シミュレーション装置に、前記撮像手段に撮像を行なわせる撮像指令と、前記ロボットを経路移動させる移動指令と、前記撮像指令と前記移動指令に関連する補正指令とを含むロボット動作プログラムに従って、ロボット動作を含むシミュレーションを行う手段と、前記移動指令が指定する移動経路に関する補正量を記憶する手段と、前記シミュレーション中に前記補正指令により、前記記億した補正量を読み出し、画面上の前記移動経路を補正する手段とを具備させることを提案する。この提案により、視覚センサによる検出結果を利用してロボットの移動経路を補正する命令内容を含む動作プログラムについて、想定される適当な補正量を与えてロボットを画面上で移動させ、動作プログラムの評価や修正に役立てることができる。ここで、上記のように、画面上のロボットの移動経路を補正するケースでは、前記補正量に従って、画面上のワーク及び周辺機器の少なくとも一方の配置位置を補正することもできる。
なお、前記撮像指令に従って、前記視野の表示に関する表示状態の切換を行なう手段を具備させることもできる。前記表示状態の切換は、例えば前記撮像指令に従った表示/非表示の切換としても良い。このようにすれば、シミュレーションに際して、オペレータは、撮像手段の視野の3次元形状とともに撮像指令が出されるタイミング(動作プログラム上でどこか)を視覚的に確認することができ、非常に便利である。
本発明によれば、視覚センサを含むロボットシステムについて、動作プログラムのオフライン作成、オフラインで作成されたプログラムの評価や修正、編集等を行なう際に生じていた種々の不便さと作業効率の低下を緩和乃至解消することができる。具体的には、次のような利点が生じる。
(1)シミュレーション装置の基本機能に、撮像手段の視野の3次元形状(視体積)の画面表示機能が加わり、視覚センサに関連する諸事項の検討のための基本条件が満たされる。
(2)視覚センサの撮像手段の視野の3次元形状を画面上に表示するシミュレーション装置を使い、対象物の検出に関する基準点(第1の基準点)の定義、該第1の基準点を見るためのロボットの位置・姿勢の検討が容易に行えるようになる。
(3)視覚センサによる検出結果を利用してロボットの移動経路を補正する命令内容を含む動作プログラムについて、想定される適当な補正量(視覚センサの検出結果に基づく経路補正に対応することが想定される補正量)を与えてロボットを画面上で移動させ、動作プログラムの評価や修正に役立てることができるようになる。
(4)撮像指令に従って、前記視野の表示に関する表示状態の切換を行なうことで、シミュレーションに際して、オペレータは、撮像手段の視野の3次元形状とともに撮像指令が出されるタイミング(動作プログラム上でどこか)を視覚的に確認することができるようになり、非常に便利である。
以下、図面を参照して本発明の実施形態について説明する。先ず図1は、本実施形態に係るシミュレーション装置の概略構成をブロック図で示したものである。同図に記した通り、シミュレーションは、CPUと、このCPUのバスラインに接続されたメモリ(ROM、RAM、不揮発性メモリ)、グラフィック制御回路、キーボード/マウス(ニュアル入力装置)及び通信インターフェイスと、グラフィック制御回路に接続されたディスプレイ(例えば液晶表示装置、CRT等)からなる。また、図示を省略したが、必要に応じて、プリンタ、パーソナルコンピュータ等の外部機器との間でデータの授受を行なうための入出力力装置等が装備される。
メモリには、以下に説明する表示やシミュレーションの対象とされるロボットの3次元形状データ(寸法データを含む;以下、同様)、同ロボットが撮像装置を搭載した状態における3次元形状データ、ワークの3次元形状データの他、必要に応じて、周辺物体(例えばワークの治具、工作機械など)の3次元形状データ等が格納されている。
また、グラフィック制御回路を動作させて、それら3次元モデルで定義された諸物体をシミュレーションを行なう3次元空間(以下、「シミュレーション空間」という)内で表示させるためのプログラム、諸設定値等が格納されている。ここで、シミュレーション空間内での諸物体(3次元モデル)の配置位置/姿勢は、ワークセルのデータで定義される。ワークセルは、シミュレーション対象とされるロボットシステムの配置単位で、シミュレーション対象とされるロボットシステムに含まれる物体(ロボット、ワーク、周辺機器等の3次元モデル)を指定し、それら指定された各物体の初期位置/姿勢を指定するデータを含む。ワークセルの定義内容の変更は、例えばキーボード/マウスを操作して随時可能である。
本実施形態に関してここまで説明した上記の構成及び機能は一般的に周知のものである。本実施形態に係るシミュレーション装置には、これら構成及び機能に加えて、以下に説明する手順と処理内容で、グラフィックジョグ(詳細後述)によるロボット姿勢の検討、視覚センサを考慮に入れたシミュレーション及びそれらに関連する表示動作を行なわせるためのソフトウェアが装備されている。
本実施形態では、先ず「準備1」として、撮像装置の視野設定、ツール座標系の設定、検出基準点の設定等を行なう。図2はこの準備1の流れを記したフローチャートで、各ステップの要点は次の通りである。なお、以下の説明においては、特にことわりの無い限り、「ロボット」、「ワーク」、「撮像装置」等の呼称は、それぞれ各物体の3次元モデルのことを指すものとする。
ステップS1;シミュレーション装置上で、ワークセルを定義する。例えば、撮像装置を搭載したロボット、ワーク等を仮配置したワークセルの雛形を外部のCAD装置(図示省略)で予め用意しておき、これを通信通信インターフェイスを介して一旦シミュレーション装置に取り込む。そして、画面上で必要な修正、追加、削除等を行なって、本実施形態でシミュレーション対象とするワークセルを定める。勿論、他の方法、例えば既存の類似したワークセルのデータを他の電子データ記憶媒体(パーソナルコンピュータのハードディスク、フレクシブル磁気ディスク等)から取り込んで良いし、シミュレーション装置上で新たに作成しても良い。
図3は、これらいずれかの方法で定めらたワークセルに従って配置(初期配置)を示す。なお、ディスプレイは、「画面1」と「画面2」を1画面上に同時に並べて表示できるものとする。ここで、「画面2」は後述する「撮像装置による取得画像の表示」のための専用画面であり、図3のような表示を含む一般的な表示には「画面1」で行なわれる。図3の表示画面(画面1)においては、符号1、2、3は順にロボット、視覚センサの撮像装置(同ロボットに搭載)、ワークを示している。
また、符号21は、撮像装置2に定義されているカメラ中心点を表わし、符号Aはカメラ中心点を通る光軸(視野中心線)の方向を破線矢印で表わしている。なお、このステップS1完了以後は、随時撮像装置2から見える画像を画面2に表示することが可能になる。画面2による表示の詳細について後述する。
ステップS2;撮像装置2の視野の3次元形状(視体積)を定義する。そのために、例えばキーボードから、視体積の高さh0 、幅d、長さlのデータを入力する。ここで、h0 は実際に使用することを考えている撮像装置(実機)の最適の撮像距離とし、d、lにはその機種の仕様書のデータあるいはそこから簡単な幾何学計算で得られるデータを採用する。即ち、通常、仕様書には視野の3次元形状を特定するに必要十分なデータはなんらかの形で記載されているので、それを利用すれば良い。
高さh0 、幅d、長さlのデータを入力すると、画面1に図4に示したような視体積を表わす視体積モデル30の表示がなされる。図4において、視野モデルにおけるカメラ(撮像装置)2のカメラ中心点22は、四角錐形状の視体積の頂点に対応する点で、符号Bはカメラ中心点22を通る視野中心線の方向を表わしている。この視野中心線B上で、カメラ中心点22からh0 だけ下った点を「注視点」と定義する。注視点の位置は、カメラ中心点22と視野中心線Bが決まれば、一意的に決まり、且つ、随時簡単に計算できる。
ステップS3;ワークセル中の撮像装置(図3の画面中の撮像装置2)に、ステップS2で定義された視体積モデル30を合体(付属)させる。この合体(付属)は、図3で符号21で示したカメラ中心点(カメラモデルのカメラ中心点)21に視野モデルのカメラ中心点22を一致させ、且つ、図3で符号Aで示した視野中心線Aに視野モデルの視野中心線Bを一致させるように行なう。視野中心線B周りの視体積の姿勢については、図4に示した視野モデルにおける撮像装置2の姿勢と整合するように設定される。
これらのための計算は、シミュレーション装置内部で行なわれる。そして、合体結果を織り込んだ画像が「画像1」に図5(a)に示した如く表示される(但し、符号24が表わす検出基準点は、次のステップS4で表示される)。
このように、撮像装置の視野が3次元形状で表示されることにより、視覚センサで検出可能な範囲が直感的に把握できるようになる。また、同図に例示されているように、ワーク3と視野の位置/姿勢関係も容易に把握できる。
ステップS4;ロボットのツール座標系を定義する。本実施形態では、図5(b)に示したように、上述した注視点23にツール座標系の原点(ツール先端点)が一致するようにツール座標系を定義する。ツール座標系のZ軸(Ztl)の方向は、視野中心線Aの方向と一致させるものとし、ツール座標系のX軸(Xtl)及びY軸(Ytl)の方向は、例えば視野の幅dの方向及び長さ方向にそれぞれ一致するように、設定される。これらのための計算は、シミュレーション装置内部で行なわれる。このようにして定義されたツール座標系(ツール先端点を原点とする座標系)は、後述する「グラフィックジョグ」で活用される。
ステップS5;ワーク3に関する検出基準点を設定する。この検出基準点は、後述する「グラフィックジョグ」で利用される点で、一般には、撮像対象としてのワーク3を代表する点で、例えば実際の作業(実機を用いた作業)において最も重要な撮像箇所に対応する点を指定する。指定は、図5(c)に示したような座標系(以下、「検出基準座標系」という)を定義する形で行なう。そのために、先ず図5(a)に示した画面(但し、検出基準点24は未表示)上で、例えばマウスを用いて先ず座標系の原点24をポイント指定する。
検出基準座標系のX軸(Xdt)及びY軸(Ytl)の方向は、X軸(Xdt)及びY軸(Ytl)の方向はシミュレーション空間に定義されている座標系のX軸、Y軸の方向と一致させるものとする。検出基準座標系が設定されると、図5(a)の画面中にその原点(検出基準点)24が表示される。なお、設定されたツール座標系や検出基準座標系の表示に際しては、図5(b)、(c)に示したような座標系をグラフィックで表示しても良い。また、場合によっては、1つのワークに対して2個以上の検出基準座標系(検出基準点)を設定しても良い。更に、ワークが複数の場合、ワーク毎に1個以上の検出基準座標系を設定するケースもあり得る。
以上のステップS1〜ステップS5で、「準備1」が完了する。但し、定義したワークセル中に撮像装置を搭載したロボットが複数存在する場合には、必要に応じて、各ロボット毎に上記と同様の準備を行なう。その際に、アプリケーション(ロボットシステムが行なう作業内容)に応じて、複数のロボットで兼用できるデータ(例えば視体積のデータ)は適宜共用する。
次に、本実施形態では準備1に引続き「グラフィックジョグ」を利用して、撮像に関連したロボット姿勢の検討を行なう。図6はグラフィックジョグに関連する手順を記したフローチャートで、各ステップの要点は次の通りである。
ステップT1;グラフィックジョグを行なうロボットを指定する。図3に示したように、ロボット(撮像装置搭載)が単一(ロボット1)の場合はそれを指定する。定義したワークセル中に複数のロボットが存在する場合には、それらの中から1つをディスプレイ画面上でマウス等を使って指定する。
ステップT2;グラフィックジョグの移動目標とする検出基準点を指定する。図3に示したように、検出基準点が単一(検出基準点23)の場合はそれを指定する。定義したワークセル中に複数の検出基準点が存在する場合には、それらの中から1つをディスプレイ画面上でマウス等を使って指定する。
ステップT3;グラフィックジョグの処理を実行する。これは画面1上で、ロボットのシミュレーション空間内での移動を行なうもので、その目標点は、ステップS2で指定された検出基準点とする。ここでは、前述したステップS4で設定されたツール先端点23を検出基準点24に一致させるような移動をロボット1に行なわせる。換言すれば、ロボット1のツール座標系(図5(b)参照)を検出基準座標系(図5(c)参照)に一致させるような移動をロボット1に行なわせる。
このロボット移動の様子は、画面1でアニメーション形式で表示される。その際、撮像装置2もロボット1と一体で移動し、前述のステップS3で撮像装置2に取り付けられた視体積モデル30も同一の動きをする。図7における画面1は、このグラフィックジョグの移動が完了する少し前における表示画像を表わしている。図示されているように、ツール先端点(即ち、撮像装置2の注視点)23は検出基準点24の近傍まで到達しているが、一致には至っていない。グラフィックジョグの移動が完了した状態では、ツール先端点23が検出基準点24に一致する。
なお、前述したように、ツール先端点23及び検出基準点24は、それぞれツール座標系及び検出基準座標系(図5(b)、(c)参照)の原点であり、グラフィックジョグ完了時には、両座標系の姿勢も一致する。即ち、Xtl軸とXdt軸、Ytl軸とYdt軸、Ztl軸とZdt軸がそれぞれ同方向を向く。図7では図示を省略したが、この座標系の姿勢一致の様子を重ねて表示しても良い。
以上説明したグラフィックジョグは、ロボットの姿勢検討を行なう上で有用である。例えば、撮像装置2の注視点に設定したツール先端点23を検出基準点24に一致させた時のロボット姿勢に無理がないか、あるいは周辺物体との干渉可能性はどうかをチェックすることで、ワークセルが定めているロボットの配置位置/姿勢の適否が評価できる。もしも、ロボットの配置位置/姿勢に問題(例えばワークとロボットが離れ過ぎ、あるいは、ロボットベースの向きが不適など)があれば、ワークセルにおけるロボットの配置位置/姿勢を修正したり、ワークの位置/姿勢や撮像装置の取付位置/姿勢を変える形で、ワークセルを修正する。この修正は、グラフィックジョグで模されている検出基準点24へのロボット1の検出姿勢が適正なものとなるまで行なわれる。そのために、必要に応じて、上記した「準備1」と「グラフィックジョグ」の処理を繰り返して行なう。
ここで、画面2による「撮像装置2から見える画像の表示」について説明しておく。既述の通り、前記ステップS1の完了以後は、撮像装置2から見える画像を画面2に表示することが可能になっている。即ち、ステップS1完了時には、シミュレーション空間内でカメラ中心点21(乃至22)を頂点とする視体積モデル30の位置/姿勢とロボット1の位置/姿勢の関係は確定しており、また、ワーク3等の位置/姿勢もワークセルのデータで既知となっている。従って、ロボット1の位置/姿勢を与えれば、視体積モデル30に対応して視野に捉えられる物体の3次元位置データから、撮像装置2から見える画像を計算で求めることができる。この計算は、例えば撮像装置2にピンホールカメラのモデルを適用した写像計算とすることができる。なお、撮像装置のこの種の写像のシミュレーションを行なうソフトウェア自体は周知であるから、詳細説明は省略する。
どの時点で、画面2の表示を行なわせるかは任意であるが、ここでは、グラフィックジョグの実行時に表示を行なうものとすれば、例えば図7中の画面2に示したような表示画面が得られることになる(図3、図5では画面2は非表示を例示)。図7中の画面2では、画面1に表示した画面に対応して、ツール先端点(即ち、撮像装置2の注視点)23が検出基準点24の近傍にある状態が表示されている。グラフィックジョグの移動が完了した状態では、当然、ツール先端点23が検出基準点24に一致した状態が表示される。
次に、ロボット移動指令とともに、同ロボット移動指令に関連して視覚センサを利用した移動経路補正を行なうための指令を含むようなロボット動作プログラムに従ったシミュレーションについて説明する。本実施形態では、上記準備1と、グラフィックジョグによるワークセルの修正、あるいは、修正不要であればワークセルが適正であることの確認が完了した状態で、先ず図8のフローチャートに示した手順に従って「準備2」を行なう。各ステップの要点は次の通りである。
ステップU1;上述の過程を経て用意されたワークセルの配置を画面1に表示させる。ここで、画面1に表示される画像は、例えば図5に示したようなもので、表示画像には、ロボット1、撮像装置2、ワーク3及び視体積モデル30の画像が含まれている。前述したグラフィックジョグを利用してワークセルが修正されていれば、修正後の配置が表示される。
ステップU2;動作シミュレーションを行なうプログラムを指定する。指定は、例えばプログラム一覧を画面1中に分割表示させて、その中から1つをマウスで指定する。ここでは、視覚センサを考慮したシミュレーションを行なうので、ロボット移動指令とともに、同ロボット移動指令に関連して視覚センサを利用した移動経路補正を行なうための指令(以下、「視覚センサ準拠補正指令」という)を含むようなロボット動作プログラムの1つを指定する。
ステップU3;視覚センサ準拠補正指令に対応するロボット移動経路の補正量を設定する(以下、単に「補正量設定」という)。ここでは、一例として、図9に示したように、教示点Q1(X1,Y1,Z1;P1,W1,R1 )から教示点Q2(X2,Y2,Z2;P2,W2,R2 )への直線移動について、教示点Q2の位置をQ2’(X2+ΔX2,Y2+ΔY2,Z2+ΔZ2;P2+ΔP2,W2+ΔW2,R2+ΔR2 )に変更する補正量ΔQ2(ΔX2,ΔY2,ΔZ2;ΔP2,ΔW2,ΔR2 )を設定する。このQ1→Q2(補正後はQ1→Q2’)の経路移動は、次に説明するシミュレーションのフローチャート(図10参照)中のステップV6でのイエス出力〜ステップV10で用いられる。
このようにして準備2が完了したら、図10のフローチャートに記した手順で「動作プログラムシミュレーション」を実行する。各ステップの要点は次の通りである。なお、ここでは、このシミュレーション実行中はディスプレイの画面2は非表示を維持するものとする。
ステップV1;図11に例示したように、画面1に視体積モデル30を非表示とした画像を表示させる。
ステップV2;指定されている動作プログラムの行数Nを読み込む。
ステップV3;動作プログラムを起動する。
ステップV4;行数指標IをI=1に初期設定する。
ステップV5;動作プログラムのI行目を読み込む。
ステップV6;視覚センサ準拠補正指令(ロボット移動経路補正のための視覚センサの検出指令で撮像指令を含む)であるか否か判断する。イエスであればステップV7へ進み、ノーであればステップV10へ進む。
ステップV7;画面1の表示を、図12に例示したような視体積モデル30を表示した画像に切り替える。これにより、オペレータは視覚センサ準拠補正指令が出力されたことを視覚的に把握できる。
ステップV8;設定されている補正量を読みだして、ロボットの移動位置を補正する。ここでは、当該行で指定されている移動位置が前述した教示点Q2であるとし、その位置をQ2’に変更する。即ち、補正量ΔQ2(ΔX2,ΔY2,ΔZ2;ΔP2,ΔW2,ΔR2 )を読み出して、Q2(X2,Y2,Z2;P2,W2,R2 )をQ2’(X2+ΔX2,Y2+ΔY2,Z2+ΔZ2;P2+ΔP2,W2+ΔW2,R2+ΔR2 )に変更する。なお、ここで、画面1におけるワーク3の表示位置/姿勢を図13に示したように、対応する補正量ΔQ2だけ変更することもできる。また、ワーク治具など別の周辺物体があれば、その表示位置/姿勢を併せて変更することもできる。
ステップV9;画面1における視体積モデル30を非表示に戻す。
ステップV10;ロボット1をシミュレーション空間内で移動させる。こここでは、Q1(X1,Y1,Z1;P1,W1,R1 )からQ2’(X2+ΔX2,Y2+ΔY2,Z2+ΔZ2;P2+ΔP2,W2+ΔW2,R2+ΔR2 )へロボット1が移動する。その様子は、画面1にアニメーション形式で表示される。但し、ステップV6から直接ステップV10へ進んだ場合(視覚センサ準拠補正指令なし)の場合は、通常の態様で、その行の命令を実行する。
ステップV11;最終行であるか否か判断する。イエスであれば処理を終了する。ノーであればステップV12へ進む。
ステップV12;行指標Iを1アップして、ステップV5へ戻る。
本発明の実施形態に係るシミュレーション装置の概略構成をブロック図で示したものである。 本発明の実施形態で行なわれる準備1の流れを記したフローチャートである。 本発明の実施形態で定義されたワークセルにおける配置を表示画面(画面1)で示したものである。 撮像装置の視野積の3次元形状(視体積)の設定について説明する図である。 撮像装置の視体積をワークセル中に組み入れた後に行なわれるツール先端点及び検出基準点の設定について説明する図で、(a)はディスプレイの表示画像を表わし、(b)、(c)はそれぞれツール座標系と検出基準座標系を示している。 本発明の実施形態で行なわれるグラフィックジョグの流れを記したフローチャートである。 グラフィックジョグ完了の少し前のディスプレイの表示画像を表わしている。 本発明の実施形態で行なわれる準備2の流れを記したフローチャートである。 補正量の設定について説明する図である。 本発明の実施形態で行なわれる動作プログラムのシミュレーションの処理の流れを記したフローチャートである。 動作プログラムのシミュレーションの過程で、撮像指令が出されていない時のディスプレイの表示画像を表わしている。 動作プログラムのシミュレーションの過程で、撮像指令が出されている時のディスプレイの表示画像を表わしている。 補正量の設定に対応したワークの位置/姿勢の変更について説明する図である。
符号の説明
1 ロボット(3次元モデル)
2 撮像装置(カメラ;3次元モデル)
3 ワーク(3次元モデル)
3a 補正量対応移動前のワーク(3次元モデル)
3b 補正量対応移動後のワーク(3次元モデル)
21 カメラ中心点(カメラモデル)
22 カメラ中心点(視体積モデル)
23 注視点(ツール座標原点;第1の基準点)
24 検出基準点(第2の基準点)
30 視体積モデル

Claims (9)

  1. 少なくともロボット、ワーク及び視覚センサ装置の撮像手段の3次元モデルを画面に配置して同時に表示し、前記ロボットの動作シミュレーションを行うシミュレーション装置において、
    前記撮像手段の視野を3次元形状で画面上に表示する手段を備えることを特徴とするシミュレーション装置。
  2. 前記視野の3次元形状が四角錐であることを特徴とする、請求項1のシミュレーション装置。
  3. 前記撮像手段が前記視野で捉える画像を画面上に表示する手段を有することを特徴とする、請求項1又は請求項2に記載のシミュレーション装置。
  4. 前記撮像手段は前記ロボットに搭載されていることを特徴とする、請求項1〜請求項3の内のいずれか1項に記載のシミュレーション装置。
  5. 前記ワークに関連した第1の基準点を画面上で指定する手段と、
    前記視野に関連して予め定められた第2の基準点が、前記第1の基準点と一致するように、画面上のロボットを動作させる手段を備えることを特徴とする、請求項4に記載のシミュレーション装置。
  6. 前記撮像手段に撮像を行なわせる撮像指令と、前記ロボットを経路移動させる移動指令と、前記撮像指令と前記移動指令に関連する補正指令とを含むロボット動作プログラムに従って、ロボット動作を含むシミュレーションを行う手段と、
    前記移動指令が指定する移動経路に関する補正量を記憶する手段と、
    前記シミュレーション中に前記補正指令により、前記記億した補正量を読み出し、画面上の前記移動経路を補正する手段とを備えることを特徴とする、請求項1〜請求項5の内のいずれか1項に記載のシミュレーション装置。
  7. 前記撮像指令に従って、前記視野の表示に関する表示状態の切換を行なう手段を備えることを特徴とする、請求項6に記載のシミュレーション装置。
  8. 前記表示状態の切換が、前記撮像指令に従った、前記視野の表示/非表示の切換であることを特徴とする、請求項7に記載のシミュレーション装置。
  9. 前記補正量に従って、画面上のワーク及び周辺機器の少なくとも一方の配置位置を補正することを特徴とする、請求項6〜請求項8の内のいずれか1項に記載されたシミュレーション装置。
JP2003372518A 2003-10-31 2003-10-31 シミュレーション装置 Expired - Lifetime JP3732494B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2003372518A JP3732494B2 (ja) 2003-10-31 2003-10-31 シミュレーション装置
EP04025427A EP1527850B1 (en) 2003-10-31 2004-10-26 Simulation apparatus
US10/972,675 US7447615B2 (en) 2003-10-31 2004-10-26 Simulation apparatus for robot operation having function of visualizing visual field by image capturing unit

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003372518A JP3732494B2 (ja) 2003-10-31 2003-10-31 シミュレーション装置

Publications (2)

Publication Number Publication Date
JP2005135278A JP2005135278A (ja) 2005-05-26
JP3732494B2 true JP3732494B2 (ja) 2006-01-05

Family

ID=34420237

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003372518A Expired - Lifetime JP3732494B2 (ja) 2003-10-31 2003-10-31 シミュレーション装置

Country Status (3)

Country Link
US (1) US7447615B2 (ja)
EP (1) EP1527850B1 (ja)
JP (1) JP3732494B2 (ja)

Families Citing this family (49)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8944070B2 (en) 1999-04-07 2015-02-03 Intuitive Surgical Operations, Inc. Non-force reflecting method for providing tool force information to a user of a telesurgical system
US9789608B2 (en) * 2006-06-29 2017-10-17 Intuitive Surgical Operations, Inc. Synthetic representation of a surgical robot
JP3946753B2 (ja) * 2005-07-25 2007-07-18 ファナック株式会社 ロボットプログラム評価・修正方法及びロボットプログラム評価・修正装置
DE102005048136B4 (de) * 2005-10-06 2010-01-21 Kuka Roboter Gmbh Verfahren zum Bestimmen eines virtuellen Tool-Center-Points
JP4153528B2 (ja) * 2006-03-10 2008-09-24 ファナック株式会社 ロボットシミュレーションのための装置、プログラム、記録媒体及び方法
DE102006022483A1 (de) * 2006-05-13 2007-11-29 Kuka Roboter Gmbh Verfahren und Vorrichtung zum Anzeigen einer Roboterbahn zur Unterstützung einer Ortsänderung eines Stützpunktes
JP4238256B2 (ja) 2006-06-06 2009-03-18 ファナック株式会社 ロボットシミュレーション装置
JP2007334678A (ja) * 2006-06-15 2007-12-27 Fanuc Ltd ロボットシミュレーション装置
US9718190B2 (en) 2006-06-29 2017-08-01 Intuitive Surgical Operations, Inc. Tool position and identification indicator displayed in a boundary area of a computer display screen
US10008017B2 (en) 2006-06-29 2018-06-26 Intuitive Surgical Operations, Inc. Rendering tool information as graphic overlays on displayed images of tools
US20090192523A1 (en) 2006-06-29 2009-07-30 Intuitive Surgical, Inc. Synthetic representation of a surgical instrument
US10258425B2 (en) 2008-06-27 2019-04-16 Intuitive Surgical Operations, Inc. Medical robotic system providing an auxiliary view of articulatable instruments extending out of a distal end of an entry guide
JP2008021092A (ja) 2006-07-12 2008-01-31 Fanuc Ltd ロボットシステムのシミュレーション装置
KR100738052B1 (ko) * 2006-12-26 2007-07-12 주식회사 이디 지능형 로봇 제어 시뮬레이션 시스템
JP4298757B2 (ja) * 2007-02-05 2009-07-22 ファナック株式会社 ロボット機構のキャリブレーション装置及び方法
JP2008296330A (ja) * 2007-05-31 2008-12-11 Fanuc Ltd ロボットシミュレーション装置
US8620473B2 (en) 2007-06-13 2013-12-31 Intuitive Surgical Operations, Inc. Medical robotic system with coupled control modes
US9469034B2 (en) 2007-06-13 2016-10-18 Intuitive Surgical Operations, Inc. Method and system for switching modes of a robotic system
US9084623B2 (en) 2009-08-15 2015-07-21 Intuitive Surgical Operations, Inc. Controller assisted reconfiguration of an articulated instrument during movement into and out of an entry guide
US9089256B2 (en) 2008-06-27 2015-07-28 Intuitive Surgical Operations, Inc. Medical robotic system providing an auxiliary view including range of motion limitations for articulatable instruments extending out of a distal end of an entry guide
JP5038795B2 (ja) * 2007-07-02 2012-10-03 株式会社日立製作所 作業指示装置、作業指示方法、作業指示プログラム及び作業指示記憶媒体
DE102007055205A1 (de) * 2007-11-19 2009-05-20 Kuka Roboter Gmbh Verfahren zum Ermitteln eines Aufstellortes und zum Aufstellen einer Erfassungsvorrichtung eines Navigationssystems
JP4347386B2 (ja) * 2008-01-23 2009-10-21 ファナック株式会社 加工用ロボットプラグラムの作成装置
EP2090408B1 (en) * 2008-02-13 2009-12-16 Abb As System and a method for visualization of process errors
JP5722527B2 (ja) * 2009-03-19 2015-05-20 株式会社デンソーウェーブ 視覚検査装置の評価システム
DE102009034244A1 (de) * 2009-07-22 2011-01-27 Kuka Roboter Gmbh Verfahren und Vorrichtung zur Vermessung eines Bauteils
US9492927B2 (en) 2009-08-15 2016-11-15 Intuitive Surgical Operations, Inc. Application of force feedback on an input device to urge its operator to command an articulated instrument to a preferred pose
US8918211B2 (en) 2010-02-12 2014-12-23 Intuitive Surgical Operations, Inc. Medical robotic system providing sensory feedback indicating a difference between a commanded state and a preferred pose of an articulated instrument
US8321055B2 (en) * 2009-11-03 2012-11-27 Jadak, Llc System and method for multiple view machine vision target location
US20120290130A1 (en) * 2011-05-10 2012-11-15 Agile Planet, Inc. Method to Model and Program a Robotic Workcell
JP5838873B2 (ja) * 2012-03-15 2016-01-06 オムロン株式会社 シミュレーション装置、シミュレーション方法、および、シミュレーションプログラム
EP2685403A3 (en) * 2012-07-09 2017-03-01 Technion Research & Development Foundation Limited Natural machine interface system
JP5670416B2 (ja) * 2012-12-28 2015-02-18 ファナック株式会社 ロボットシステム表示装置
US10507066B2 (en) 2013-02-15 2019-12-17 Intuitive Surgical Operations, Inc. Providing information of tools by filtering image areas adjacent to or on displayed images of the tools
JP2014186588A (ja) * 2013-03-25 2014-10-02 Seiko Epson Corp シミュレーション装置、プログラム及び画像生成方法
JP6171457B2 (ja) * 2013-03-25 2017-08-02 セイコーエプソン株式会社 ロボット制御装置、ロボットシステム、ロボット、ロボット制御方法及びロボット制御プログラム
US9782896B2 (en) * 2013-11-28 2017-10-10 Mitsubishi Electric Corporation Robot system and control method for robot system
JP5850958B2 (ja) * 2014-01-24 2016-02-03 ファナック株式会社 ワークを撮像するためのロボットプログラムを作成するロボットプログラミング装置
JP5877857B2 (ja) * 2014-03-10 2016-03-08 ファナック株式会社 ワークの取出工程をシミュレーションするロボットシミュレーション装置
US9283678B2 (en) * 2014-07-16 2016-03-15 Google Inc. Virtual safety cages for robotic devices
DE102014226899A1 (de) * 2014-12-23 2016-06-23 Siemens Healthcare Gmbh Verfahren zum Betreiben eines medizinisch-robotischen Geräts und ein medizinisch-robotisches Gerät
WO2017198299A1 (en) * 2016-05-19 2017-11-23 Abb Schweiz Ag Method of simulating a robotic system
JP6392817B2 (ja) * 2016-08-04 2018-09-19 ファナック株式会社 シミュレーション装置
DE112016007339T5 (de) * 2016-10-14 2019-07-04 Mitsubishi Electric Corporation Simulationsvorrichtung
JP6450727B2 (ja) * 2016-10-28 2019-01-09 ファナック株式会社 ロボットが行う物品整列作業のシミュレーションのための装置、方法、プログラム及び記録媒体
JP2019093529A (ja) * 2017-11-27 2019-06-20 アズビル株式会社 ポインタ装置
US10676022B2 (en) 2017-12-27 2020-06-09 X Development Llc Visually indicating vehicle caution regions
JP6898374B2 (ja) * 2019-03-25 2021-07-07 ファナック株式会社 ロボット装置の動作を調整する動作調整装置およびロボット装置の動作を調整する動作調整方法
CN117279749A (zh) * 2021-07-28 2023-12-22 发那科株式会社 模拟装置

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4754415A (en) * 1984-10-12 1988-06-28 Diffracto Ltd. Robotic alignment and part simulation
US4831549A (en) * 1987-07-28 1989-05-16 Brigham Young University Device and method for correction of robot inaccuracy
US5729471A (en) * 1995-03-31 1998-03-17 The Regents Of The University Of California Machine dynamic selection of one video camera/image of a scene from multiple video cameras/images of the scene in accordance with a particular perspective on the scene, an object in the scene, or an event in the scene
US5943476A (en) * 1996-06-13 1999-08-24 August Design, Inc. Method and apparatus for remotely sensing orientation and position of objects
US6122003A (en) * 1997-08-22 2000-09-19 Flashpoint Technology, Inc. Method and apparatus for changing operating modes of an image capture device
US6249285B1 (en) * 1998-04-06 2001-06-19 Synapix, Inc. Computer assisted mark-up and parameterization for scene analysis
US6161051A (en) * 1998-05-08 2000-12-12 Rockwell Technologies, Llc System, method and article of manufacture for utilizing external models for enterprise wide control
US7092860B1 (en) * 1999-02-03 2006-08-15 Mitutoyo Corporation Hardware simulation systems and methods for vision inspection systems
JP2003150219A (ja) * 2001-11-12 2003-05-23 Fanuc Ltd 作業機械のシミュレーション装置

Also Published As

Publication number Publication date
EP1527850B1 (en) 2012-08-15
EP1527850A3 (en) 2009-12-30
US7447615B2 (en) 2008-11-04
US20050096892A1 (en) 2005-05-05
JP2005135278A (ja) 2005-05-26
EP1527850A2 (en) 2005-05-04

Similar Documents

Publication Publication Date Title
JP3732494B2 (ja) シミュレーション装置
JP6497953B2 (ja) オフライン教示装置、オフライン教示方法及びロボットシステム
JP3537362B2 (ja) ロボットシステム用グラフィック表示装置
JP4347386B2 (ja) 加工用ロボットプラグラムの作成装置
JP4171488B2 (ja) オフラインプログラミング装置
JP4763074B2 (ja) ロボットのツール先端点の位置の計測装置および計測方法
JP5670416B2 (ja) ロボットシステム表示装置
US7945349B2 (en) Method and a system for facilitating calibration of an off-line programmed robot cell
EP1936458B1 (en) Device, method, program and recording medium for robot offline programming
JP5742862B2 (ja) ロボット装置及び被加工物の製造方法
JP4137909B2 (ja) ロボットプログラム補正装置
JP5113666B2 (ja) ロボット教示システム及びロボットの動作のシミュレーション結果の表示方法
US20070293986A1 (en) Robot simulation apparatus
EP1847359A2 (en) Robot simulation apparatus
CN104802186A (zh) 制作用于拍摄工件的机器人程序的机器人程序设计装置
US20180036883A1 (en) Simulation apparatus, robot control apparatus and robot
JP2021059012A (ja) 情報処理装置、情報処理方法及びロボットシステム
JP2009190113A (ja) ロボットシミュレーション装置
JP6825026B2 (ja) 情報処理装置、情報処理方法及びロボットシステム
JP5291482B2 (ja) ロボット教示プログラム修正装置
JP6799614B2 (ja) 情報処理装置及び情報作成方法
WO2022181500A1 (ja) 視覚センサの出力から得られる3次元位置情報を用いるシミュレーション装置
US20220226982A1 (en) Method Of Creating Control Program For Robot, System Executing Processing Of Creating Control Program For Robot, And Non-Transitory Computer-Readable Storage Medium
CN118103155A (zh) 作业辅助装置和作业辅助方法
CN116917087A (zh) 程序生成装置和机器人控制装置

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20051006

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20051012

R150 Certificate of patent or registration of utility model

Ref document number: 3732494

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081021

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091021

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091021

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101021

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111021

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111021

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121021

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131021

Year of fee payment: 8