JP3977369B2 - ロボットプログラム生成装置及び解析装置 - Google Patents

ロボットプログラム生成装置及び解析装置 Download PDF

Info

Publication number
JP3977369B2
JP3977369B2 JP2004289822A JP2004289822A JP3977369B2 JP 3977369 B2 JP3977369 B2 JP 3977369B2 JP 2004289822 A JP2004289822 A JP 2004289822A JP 2004289822 A JP2004289822 A JP 2004289822A JP 3977369 B2 JP3977369 B2 JP 3977369B2
Authority
JP
Japan
Prior art keywords
measurement
workpiece
robot
robot program
analysis
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004289822A
Other languages
English (en)
Other versions
JP2006106927A (ja
Inventor
淳 渡邉
一訓 伴
一郎 管野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
FANUC Corp
Original Assignee
FANUC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by FANUC Corp filed Critical FANUC Corp
Priority to JP2004289822A priority Critical patent/JP3977369B2/ja
Priority to US11/239,672 priority patent/US7684897B2/en
Priority to EP05021498.0A priority patent/EP1642692B1/en
Priority to CNB2005101082512A priority patent/CN100415459C/zh
Publication of JP2006106927A publication Critical patent/JP2006106927A/ja
Application granted granted Critical
Publication of JP3977369B2 publication Critical patent/JP3977369B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1671Programme controls characterised by programming, planning systems for manipulators characterised by simulation, either to verify existing program or to create and verify new program, CAD/CAM oriented, graphic oriented programming systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/35Nc in input of data, input till input file format
    • G05B2219/35346VMMC: virtual machining measuring cell simulate machining process with modeled errors, error prediction
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/37Measurements
    • G05B2219/37205Compare measured, vision data with computer model, cad data
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/37Measurements
    • G05B2219/37208Vision, visual inspection of workpiece

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Numerical Control (AREA)
  • Manipulator (AREA)

Description

本発明は、ロボットプログラムの生成及び解析を行なう装置に関し、更に詳しく言えば、ロボットと視覚センサを使用する生産システムについて、その効率的な立ち上げ、あるいは、立ち上げ後の管理維持に有用なロボットプログラム生成装置及びロボットプログラム解析装置に関する。
ロボットと、固定されたカメラ、あるいは、ロボットに搭載されたカメラを視覚センサの撮像手段として利用し、整列されていない多数の部品を順次取出し、次工程へ搬送するといったプロセスを含む生産システムは、これまでにも諸条件をうまく設定した条件下で一部既に実用化されている。このように整列されていない多数の部品を取り扱うロボット−視覚センサシステムは、最近特に試験段階から普及段階に入ろうとしており、様々なアプリケーションヘの適用の拡大が見られるようになってきた。例えば下記特許文献1に開示されているように、従来実現が困難であったようなシステムも、現実に稼動し始めている。
特開2003−34430号公報
しかしながら、前記のような視覚センサを使用したアプリケーションでは、その作業の目的と、ワークの大きさや形状を考慮しながら、視覚センサによる計測箇所や計測方法を選ぶ必要があり、その負担が大きかった。例えば、長さ2mのワークの両端をロボットハンドで把持する作業を行なうために、視野角度で表わした計測精度が0.5度である視覚センサを使用するケースを想定してみる。この場合、ワークの片方の端の計測のみを行なってワークの両端を掴もうとすると、0.5度の精度では、もう片方の端での掴み誤差は、17mm以上(2000mm×2×π×0.5/360)にもなる。従って、このような計測箇所乃至計測方法の選択は、誤差を吸収できるようなハンド機構を使用していない限り不適当であり、ワークの他端の計測も行なって計測誤差を軽減する必要となる。
また、計測箇所とした特徴部分の形状の個体差が大きく検出精度が保障できないような場合は、その箇所は計測箇所から外し、他の計測箇所を定める必要がある。
このように、計測箇所あるいは計測方法を適正に定めるには、ワークの大きさ、形状、それらのばらつき、視覚センサの精度、ハンド機構の特性等、多くの条件を考慮しなければならず、これまでは現場でシステムを立ち上げる際に試行錯誤の繰り返しを要しているのが実態である。また、ユーザがこれら考慮が必要な条件と計測箇所あるいは計測方法の関係を正確に理解せずにシステムを立ち上げた場合、最初は運良くうまくいったとしてもその後トラブル(例えば1日に1度位システムが停止するなど)が発生し、そのトラブルの原因の特定が困難であるといったことが起る。このような問題が、ユーザに負担をかけ、視覚センサ−ロボットシステムの導入促進を阻む要因となっている。
本発明は、従来技術のこのような問題を解決できるロボットシプログラム生成装置あるいは解析装置を提供することを目的としている。即ち、本発明は、例えばロボットシミュレータのようなロボットの教示プログラムの生成や解析を行える装置に、視覚センサを使用する際のノウハウを盛り込み、ワーク寸法、計測位置や計測条件、補正方法等について提案と判定を行えるようにすることで、ユーザの教示負担を軽減しようとするものである。
本発明は、先ず、ロボットと、ワークに対して2次元計測または3次元計測を行う視覚センサとを含むシステムにおける前記ロボットの動作プログラムを生成する、ロボットプログラム生成装置によって上記課題を解決する。請求項1に係るロボットプログラム生成装置には、ワークのモデルを表示するモデル表示手段と、前記モデル表示手段により表示されたワークのモデル上で、前記視覚センサによる計測箇所を指定する計測箇所指定手段と、前記計測箇所指定手段によって指定された計測箇所に対する計測方法を2次元計測と3次元計測のいずれとするかを指定する計測方法指定手段と、前記ワークに関する少なくとも1つの事項の情報を数値又は種別で指定するワーク情報指定手段と、前記計測箇所指定手段によって指定される計測箇所の良否、及び前記計測方法指定手段によって指定される計測方法の良否を、前記数値又は種別に関連付けて判別するための、予め定められたルールを記憶するルール記憶手段と、前記ワーク情報指定手段によって指定された前記ワークに関する少なくとも1つの事項と前記ルール記憶手段に記憶されたルールとに基づいて、前記計測箇所指定手段によって指定された計測箇所の良否、及び前記計測方法指定手段によって指定された計測方法の良否を判定する判定手段と、該判定手段により良と判定された計測箇所の計測を、前記判定手段により良と判定された計測方法によって実行する計測命令を含むロボットプログラムを生成する手段が設けられる。
また、請求項2に係るロボットプログラム生成装置には、予め撮像したワークの画像を表示するワーク画像表示手段と、該ワーク画像表示手段により表示された画像上で、前記視覚センサによる計測箇所を指定する計測箇所指定手段と、該計測箇所指定手段によって指定された計測箇所に対する計測方法を2次元計測と3次元計測のいずれとするかを指定する計測方法指定手段と、前記ワークに関する少なくとも1つの事項の情報を数値又は種別で指定するワーク情報指定手段と、前記計測箇所指定手段によって指定される計測箇所の良否、及び前記計測方法指定手段によって指定される計測方法の良否を、前記数値又は種別に関連付けて判別するための、予め定められたルールを記憶するルール記憶手段と、前記ワーク情報指定手段によって指定された前記ワークに関する少なくとも1つの事項と前記ルール記憶手段に記憶されたルールとに基づいて、前記計測箇所指定手段によって指定された計測箇所の良否、及び前記計測方法指定手段によって指定された計測方法の良否を判定する判定手段と、該判定手段により良と判定された計測箇所の計測を、前記判定手段により良と判定された計測方法によって実行する計測命令を含むロボットプログラムを生成する手段が設けられる。
これら発明において、少なくとも1つの事項は、ワークの寸法、ワークの材質、ワークの把持方法、ワークの積載状態の内、少なくとも1つを含むものとすることができる(請求項3)。また、ロボットプログラム生成装置として、ロボットプログラムのシミュレーションを実する機能を備えているロボットシミュレータを用いたることができる(請求項4)。
次に、本発明は、ロボットと、ワークに対して2次元計測または3次元計測を行う視覚センサとを含むシステムにおける前記ロボットの動作プログラムを解析する、ロボットプログラム解析装置によって上記課題を解決する。
講求項5に係るロボットプログラム解析装置には、前記視覚センサによるワークに対する計測実行命令を含むロボットプログラムを入力し、解析する解析手段と、ワークのモデルを表示するモデル表示手段と、該モデル表示手段によって表示されたモデル上で、前記解析手段による前記ロボットプログラムの解析結果に基づいて、前記視覚センサによる計測箇所を求め、前記モデルとともに表示する計測箇所表示手段と、前記解析手段による前記ロボットプログラムの解析結果に基づいて、前記計測箇所に対する計測方法が2次元計測と3次元計測のいずれとされているかを求めて表示する計測方法表示手段と、前記ワークに関する少なくとも1つの事項の情報を数値又は種別で指定するワーク情報指定手段と、前記解析手段による前記ロボットプログラムの解析結果に基づいて求められる前記計測箇所及び前記計測方法のそれぞれの良否を、前記数値又は種別に関連付けて判別するための、予め定められたルールを記憶するルール記憶手段と、前記ワーク情報指定手段によって指定された前記ワークに関する少なくとも1つの事項と前記ルール記憶手段に記憶されたルールとに基づいて、前記解析手段による前記ロボットプログラムの解析結果に基づいて求められた前記計測箇所及び前記計測方法のそれぞれの良否を判定する判定手段が設けられる。
また、本発明は、予め撮像したワークの画像を表示する手段と、前記ワークの画像上で、ロボットと、ワークに対して2次元計測または3次元計測を行う視覚センサとを含むシステムにおけるロボットの動作プログラムを解析するロボットプログラム解析装置によって上記課題を解決する。
請求項6に係るロボットプログラム解析装置には、前記視覚センサによるワークに対する計測実行命令を含むロボットプログラムを入力し、解析する解析手段と、予め撮像したワークの画像を表示する画像表示手段と、該画像表示手段によって表示された画像上で、前記解析手段による前記ロボットプログラムの解析結果に基づいて、前記視覚センサによる計測箇所を求め、前記モデルとともに表示する計測箇所表示手段と、前記解析手段による前記ロボットプログラムの解析結果に基づいて、前記計測箇所に対する計測方法が2次元計測と3次元計測のいずれとされているかを表示する計測方法表示手段と、前記ワークに関する少なくとも1つの事項の情報を数値又は種別で指定するワーク情報指定手段と、前記解析手段による前記ロボットプログラムの解析結果に基づいて求められる前記計測箇所及び前記計測方法のそれぞれの良否を、前記数値又は種別に関連付けて判別するための、予め定められたルールを記憶するルール記憶手段と、前記ワーク情報指定手段によって指定された前記ワークに関する少なくとも1つの事項と前記ルール記憶手段に記憶されたルールとに基づいて、前記解析手段による前記ロボットプログラムの解析結果に基づいて求められた前記計測箇所及び前記計測方法のそれぞれの良否を判定する判定手段が設けられる。
これらロボットプログラム解析装置について、前記少なくとも1つの事項は、ワークの寸法、ワークの材質、ワークの把持方法、ワークの積載状態の内、少なくとも1つを含むものとすることができる(請求項7)。
また、ロボットプログラムのシミュレーションを実行する機能を備えているロボットシミュレータをロボットプログラム解析装置として採用することができる(請求項8)。
本発明の作用の大略を記せば、次のようになる。
本発明に従ったロボットプログラム生成装置(請求項1〜請求項4)は、ワークのモデル図、あるいは、ワークを撮像した画像を表示し、その上で、ワークの計測方法や計測箇所を指定し、更にワークに関する情報を指定することにより、ワークの計測方法や計測箇所が適切かを判断する。更に、それらが適切であれば、計測する命令を含んだロボットプログラムを生成する。
また、本発明に従ったロボットプログラム解析装置(請求項5〜請求項8)は、ロボットプログラムを読み込んで解析し、ワークのモデル図、あるいは、ワークを撮像した画像を表示し、その上に、ワークの計測方法や計測箇所を表示する。更にワークに関する情報を指定することにより、ワークの計測方法や計測位置が適切かを判断する。
本発明に従ったロボットプログラム生成装置によれば、ユーザが現場で試行錯誤で行っていた計測箇所や計測方法の妥当性の判断を、事前に行うことができる。また、本発明に従ったロボットプログラム解析装置によれば、システム構築後にも、その妥当性の検証を行うことができ、稼動中のシステムのトラブルの原因の特定が行いやすくなる。
更に、上記のそれぞれの効果で、視覚センサを使用したシステムにおけるユーザの負担を軽減し、システムの導入を促進する効果が期待できる。
図1は、本発明の一実施形態の全体構成の概略を表わしている。同図において、符号1はワーク等の物品(図示省略)のハンドリングを行なうロボットで、その手首先端付近にビデオカメラ2及びハンド6が装着されている。ビデオカメラ2は、視覚センサのセンサヘッドとして機能するもので、その撮像動作等の制御及び撮像画像の処理はパーソナルコンピュータ(以下、単に「コンピュータ」と言う)3によって行なわれる。ロボット1は、ロボットコントローラ4に接続され、ロボットコントローラ4とコンュータ3は、ネットワーク回線5で接続されている。
コンュータ3は、オンラインでは視覚センサのコントローラとして機能する一方、オフラインでは、ロボットプログラム生成装置とロボットプログラム解析装置として兼用されるロボットシミュレータとして機能する。また、コンピュータ3には周知の態様でモニタ(例えば液晶表示装置)とマニュアル操作部(キーボード、マスス等)が付設されており、オンライン、オフラインにおいては撮像された画面あるいはそれを処理した画像の表示等に使用されるとともに、オフラインにおいては、オフラインプログラミングのために使用されるワークモデル、ロボットモデル等画像、予めビデオカメラ2で撮像された画面の表示、あるいは、それら画像を表示した画面上で各種画面入力等に使用される。
なお、ここでは視覚センサはビデオカメラ2をセンサヘッドとするタイプのものであるが、必要に応じて、他種の視覚センサ、例えばスリット光のような参照光を投光し、対象物の3次元位置や姿勢を認識できる3次元視覚センサで置き換えても良い。
図2は、ロボットシミュレータとして使用されるコンピュータ3をロボットプログラム生成装置及びロボットプログラム解析装置として機能させて、本発明を実施する際の処理の概要を記したフローチャートである。なお、100番台の処理ステップ番号はロボットプログラム解析装置としての機能に対応し、200番台のステップ番号はロボットプログラム生成装置として機能に対応している。また、説明の都合上、200番台のステップ番号を付した処理(ロボットプログラム生成装置としての機能)から説明する。
先ず、ロボットシミュレータ(ここではコンピュータ3;以下、同じ)のモニタ画面上にワークのモデルの表示を行う(201)。周知のように、このような表示モデルは例えばCADなどの設計データをモデル化したものが利用できる。また、モデルの代わりにビデオカメラ2で同モデルに対応するワークを撮像したものを取り込み、マニタ画面表示しても良い(以下、表示されるものが「画像」である場合も含めて「モデル」で代表させる)。
次に、表示されているモデル上で、計測する箇所を指定する(202)。この指定は操作者がマウス等を用いて行う。但し、指定に際しては、操作者が任意に選ぶ方式の他、設計モデル上で、銑利な段差がある、穴がある、など特徴のコントラストが明確になると判断される箇所をロボットシミュレータで自動的に選定し、提示されたものから、操作者が選択する方式としても良い。また、撮像した画像を使用している場合は、実際の画像中で、コントラストが明確な箇所を点滅強調等で提示させ、その中から操作者が選択しても良い。
次に、前記の計測箇所に対する計測方法を指定する(203)。通常は、ビデオカメラ2による2次元計測、または、3次元視覚センサによる3次元計測のいずれかを選択する。この指定は操作者がキーボード等を用いて行う。なお、これら(202)、(203)の処理を必要に応じて繰り返して行ない、複数の点を計測するようにして良い。
次に、ワークに関する情報(以下、「ワーク情報」と略称)を指定する(204)。典型的なワーク情報としては、ワークの寸法、ワークの材質、ワークの把持方法及びワークの積載状態などを数値や種別で指定したものが考えられる(具体例については後述する)。
次に、計測箇所と計測方法の良否判定を行う(205)。この判定に使用されるルールには、例えば計測箇所についていえば、安定的に視覚センサで検出できるコントラストが得られそうな箇所であるかというものがある。また、例えば材質が薄い板金であれば、ワークの端の方は板金が曲がりやすいので、計測箇所としては不適当、というようなルールも考えられる。計測方法についていえば、端がワークの積載状態が安定しているならば、2次元計測でも良いが、積載状態が不安定であれば、3次元計測を指定しなければならない。また、大寸法ワーク(例えば最大径1m以上)であれば、少なくとも2箇所、それも50cm以上離れて2箇所を計測する必要がある、というルールも考えられる。また、把持方法の誤差吸収度合いが大きい場合は、前記の1mを超える大きなワークでも、1箇所の計測で構わない、というルールになることも考えられる。これらのルールを総合して、良、または、不良を判定する。
良と判断した場合は、計測以外のロボットの動作をロボットシミュレータの機能を用いてオフラインで生成し、更に、上記で設定した計測箇所に対する計測プログラムを加えて、ロボットプログラムを生成する(207)。その後、処理を終了する(208)。
一方、不良と判断した場合は、操作者に対し、現在の設定が不適当である旨を警告し(206)、処理を続行するか、やり直すかを指示する。操作者が「処理続行」を指示すれば、(207)へ処理を移す。「処理やり直し」を指示すれば、(201)へ処理を移し、はじめからやり直すようにする。なお、良否判定についてのより具体的な例については後述する。
続いて、100番台のステップ番号を付した処理(ロボットプログラム解析装置としての機能)について説明する。
最初に、ロボットシミュレータにロボットプログラムをロードする(101)。このロボットプログラムは、例えば上記の処理を経て作成されたプログラム、あるいは、実際のシステムで使用してみたがシステムにトラブルが発生したようなプログラムである。
次に、ロードされたプログラムから、ロボットシミュレータは、ワークのどの箇所を、どの計測方法で計測したかを解析する(102)。次に、モニタ画面上にワークをモデル化したものを表示し、解析した計測位置、計測箇所を、表示したモデル上に表示する(103)。表示するモデルは、(201)同様、例えばCADなどの設計データをモデル化したものが考えられる。モデルの代わりにビデオカメラで撮像したものを表示しても良い。モデルと解析した位置をうまく重ねるには、例えば、このプログラムをロボットシミュレータで作成したときの画面を、別途記憶しておけば良い。
次に、ワークに関する情報を指定する(104)。この情報については、既に説明した通りで、ワークの寸法、材質、把持方法、積載状態といったものを予めコード化で登録しておき、それらの組み合わせで操作者が指定する。
次に、解析した計測箇所と計測方法について、その良否判定を行う(105)。この判定については、上述した(205)と同じルールを用い、良または不良を判定する。良と判断した場合は、そのまま処理を終了する(107)。不良と判断した場合は、操作者に対し、現在のプログラムが不適当である旨を警告し(106)、プログラムを修正するか、修正しないかを指示する、操作者が「修正しない」を指示すれば、そのまま終了する(107)。「修正する」を指示すれば、(201)へ処理を移し、プログラムの生成と同じプロセスを使って、プログラムを修正する。
以上述べたように、本発明では、プログラム生成(修正の場合を含む)、プログラム解析のいずれにおいても、計測箇所/計測方法について良否判定を行なっている。そこで、以下の記述でではこの良否判定についてより具体的に述べる。
[計測誤差に関する診断]
ここでのチェック項目は、積載状態に適した計測方法が選択されているか、と、見積もられている計測誤差と、設定された許容誤差に対して、適切な箇所が計測箇所となっているかであるとする。ワークモデル(または画像;以下、同じ)の具体例としては図3に示したものを考える。図3において、画面表示されるワークモデル全体は符号Wで示されており、符号Mで示す測定箇所(ここではビデオカメラ2による撮像部位)は、上記ステップ202で指定した点あるいはステップ103における「解析した測定箇所」に相当する。点M0は測定箇所Mを代表する点(例えば画像重心)である。
また、ワーク情報については、図4の右半部に示したようなものとする。即ち、ワーク情報の指定は、ワークの寸法、ワークの材質、ワークの把持方法、ワークの積載について数値あるいは種別特定によって行なわれる。ワークの寸法については、図4の左半部に一般化して示したように、ワークモデルに接する長方形を画像処理で求め、表示倍率を考慮に入れて縦横サイズを求め、その数値を採用する。なお、ここで記入されている数値62mm、112mmは単なる例示である。
ワークの材質については、例えば薄い板金のように撓みやすい材質であるか、鋳物のように撓み難い材質であるかの種別を指定する。ここでは一例として、前者が指定されている。
ワークの把持方法については、視覚センサによる位置検出について許容できる位置誤差(例えば図3における点M0 の検出位置の誤差)の限界、あるいは許容できる傾き誤差(例えば図3におけるワークWの傾きの検出誤差)の限界があればその数値を操作者が入力する。なお、数値は、ハンド機構の性能等によって決まり、十分大きな誤差吸収能力でワークの位置決めが可能であればここに例示されているように「ハンド位置決め」の種別を指定する。
ワークの積載状態については、ワークの置かれ方の不規則さの程度によって、「ずれは誤差以内」(個々のワークがほぼ位置決めされている)、「ずれは許容誤差以内」(個々のワークがほぼ位置決めされている)、「許容誤差以上の2次元的なずれがある」(高さ位置はほぼ一定しているが、平面上での位置は不確定)、「許容誤差以上の3次元的なずれがある」(いわゆるバラ積み状態)の3種の種別を指定する。ここでは一例として、「許容誤差以上の3次元的なずれがある」が指定されている。
図5は、計測誤差に関する診断を行なうための処理の概略を記したフローチャートである。先ず、準備として計測箇所が何点指定されているかを読み取り、続いて、ワーク情報に含まれている積載状態の設定内容に応じて次以降の処理を分別する(301)。積載状態の設定状態が「許容誤差内のずれ」であれば(302)、そのまま終了する(319)。
積載状態の設定が「許容誤差以上の2次元的なずれ」であれば(303)、予め見積もられている計測の精度とワークの寸法から把持誤差を計算する(305)。ここでは、位置誤差のみ考慮すれば良い。計算方法の例は、[別項1]で後述する。把持誤差を、把持方法の設定の中で設定した許容誤差と比較する(306)。許容誤差より把持誤差が大きくなければそのまま終了する(319)。そうでなければ、ステップ307へ進み、2点目の計測箇所がなければ、エラーフラグ2を立ててから(318)、処理を終了する(319)。
2点目の計測箇所があれば、1点目、2点目の計測箇所(代表点)の位置と、計測の精度とワークの寸法から、両端を掴む際の最大の把持誤差を計算する(308)。計算方法の例は、[別項1]で後述する。把持誤差を、把持方法の設定の中で設定した許容誤差と比較する(309)。許容誤差より把持誤差が大きくなければそのまま終了する(319)。そうでなければ、エラーフラグ2を立ててから(318)、処理を終了する(319)。
積載状態の設定が「許容誤差以上の3次元的なずれ」(304)であれば、1点目の計測箇所の計測方法が3D計測(3次元計測)であるかどうかをチェックし(310))、3D計測でない計測、つまり、2D計測であれば、エラーフラグ1を立てて(311)、予め見積もられている計測の精度とワークの寸法から、両端を掴む際の最大の把持誤差を計算する(312)。1点目の計測が3D計測であればエラーフラグ1を立てずにステップ312へ進み、同様に把持誤差を計算する。ここでは、位置誤差と傾き誤差のいずれも診断する必要がある。計算方法の例は、別項2で述べる。
把持誤差を、把持方法の設定の中でしている許容誤差と比較し(313)、把持誤差が許容誤差より大きくない場合には、そのまま処理を終了する(319)。
把持誤差が許容誤差より大きい場合、2点目以降の計測箇所の有無をチェックする(314)。2点目以降の計測箇所がなければ、エラーフラグ2を立てて(318)、処理を終了する(319)。把持誤差が許容誤差より大きく、且つ、2点目以降の計測箇所がある場合は、それらが3D計測かどうかチェックする(315)。いずれかが3D計測でなければ、エラーフラグ2を立てて(318)、処理を終了する(319)。すべて3D計測なら、それらの点について、予め見積もられている計測の精度とワークの寸法から、両端を掴む際の最大の把持誤差を計算する(316)。
そして、把持誤差を、把持方法の設定の中でしている許容誤差と比較し(317)、把持誤差が許容誤差より大きくない場合には、そのまま処理を終了する(319)。把持誤差が許容誤差より大きい場合、エラーフラグ2を立てて(318)、処理を終了する(319)。
以上により、計測誤差に関する診断が終了する。エラーフラグ1、2のいずれも立っていなければ診断結果は「良」ということになり、そうでなければ診断結果は「否」ということになる。
[把持ずれに関する診断]
把持した後にワークとハンドがずれて、正しく掴めたにも関わらず次工程に搬送したときにはトラブルが発生する可能性が高まる。そこで、図6のフローチャートに示した手順でその診断を行う。即ち、把持方法の「ハンドに位置決め機構あり」が設定されているかどうかを判断し(401)、設定されていれば、そのまま処理を終了する(403)。設定されていなければ、エラーフラグ3を設定してから(402)、処理を終了する(403)。
[ワークのたわみの影響に関する診断]
例えば薄い板金のような素材でたわみやすいワークは、周辺部がたわみやすく、そのたわみが毎回の計測で予測できない誤差を生むことがある。そこでは、図7のフローチャートに示した手順でそうしたたわみの影響が出る可能性に関して診断を行う。
即ち、ワークの素材の設定で「たわみやすい」が選択されているかどうかを判断する(501)。選択されていなければ、処理を終了する(505)。「たわみやすい」が選択されている場合は、ワークの大きさが一定値より大きいかどうかを判断する(502)。判断方法としては、縦横それぞれを一定値(予め設定した上限値)と比較しても良いし、縦×横をその上限値と比較しても良い。超えていなければ処理を終了する(505)。
超えていたら、全ての計測箇所について、周辺部から近いかどうかチェックする(503)。例えば、全ての計測箇所について、縁のラインとの距離が一定値(予め設定した下限値)未満であるか否か判断する。一定値以上であれば(即ち、周辺部から遠ければ)、この計測箇所はたわみの影響を受け難いとして、処理を終了する(505)。一定値以下あれば(即ち、周辺部に近ければ)、この計測箇所はたわみの影響を受けやすいとして、エラーフラグ4を立て(504)、処理を終了する(505)。
次に、上記の診断の全て含めた診断全体のフローの概略を図8のフローチャートを用いて説明する。
最初に全エラーフラグをクリアする(601)。次に予め見積もられている計測の精度のデータをロードする(602)。続いて、前述した計測誤差に関する診断(603)、把持ずれに関する診断(604)、計測箇所(たわみの影響)に関する診断(605)を行う。これらの診断の内容については、既に説明済みなので繰り返さない。
全ての診断が終わったら、その結果を表示する。即ち、エラーフラグ1〜4が立っているかいないか順次チェックし(606、608、610、612)、エラーフラグが立っていれば、それに対応したメッセージをモニタ画面に表示して(607、609、611、613)、処理を終了する。
即ち、エラーフラグ1が立っていれば、本来3D計測でなければいけない箇所が2D計測であったことを意味しているので、その箇所が点Aであったとして、例えば「点Aの計測は3D計測ではありません」といったメッセージを表示する。
また、エラーフラグ2が立っていれば、現在の計測箇所では、許容精度を満たしていないことを意味しているので、例えば「計測箇所をもっと離してください。」といったメッセージを表示する。
エラーフラグ3が立っている場合には、ワークを掴んだとしてもその後の工程に置く前にずれてしまう可能性があることを意味しているので、例えば「置く前に再度視覚センサを使って補正しなおすか、ハンドに位置決め機構を設けてください」といったメッセージを表示する。
そして、エラーフラグ54が立っている時には、計測している箇所が、たわみの影響で毎回予測不能な誤差を生む可能性があることを意味しているので、例えば「計測箇所をもっと周辺部から離してください」といったメッセージを表示する。
最後に、前述のステップ305、312等(図5参照)における最大把持誤差の計算方法について[別項1]、[別項2]を設けて説明する。
[別項1]
図9に示したように、ワーク寸法の設定で、縦、横の値のうち大きい方をaとする。見積もられている計測誤差は、位置の誤差Ep,回転(傾き)の誤差Erから成るものとする。計測誤差によって生じる把持誤差は、実際には、計測箇所と把持箇所に依存するが、ここでは問題を単純化し、計測箇所がワークの片側であったとして、ハンドでワークの反対側の端を掴むことを仮定した場合にどれくらいの誤差になるかを見積もるとする。この仮定の下で求めた誤差は、ほとんどの場合、実質的な把持誤差より大きいものであり誤差許容量の比較をするための値と使用するのは問題ない。なお、ここでは2次元だけの誤差に言及しているので、傾きの誤差は無関係である。
(1)計測箇所が1箇所だけの場合
計測に誤差がない場合の把持位置をP(ベクトル;以下、同様)、誤差を含んだ場合をP’(ベクトル;以下、同様)として、回転誤差Erはごく小さい量であることを考慮すれば、
|P−P’|=|Ep|+a|Er|
が求める値となる。なお、記号||は絶対値を表わす。
(2)計測箇所が複数箇所のとき
複数箇所のうち、その間の距離が最も大きい組を選び、その距離をDとする。上記(1)の場合と同様に、計測に誤差がない場合の把持位置をP、誤差を含んだ場合をP’とすれば、ここではEpのみ関係し、
|P−P’|=|Ep|(2a/D−1)又は|P−P’|=|Ep|
のうちの大きい方が求める値となる。
[別項2]
図10に示す如く、ワークの寸法の設定で、縦、横の値のうち大きい方をaとする。見積もられている計測誤差は、位置の誤差Ep,傾きの誤差Ei,回転の誤差Erから成るものとする。別項1で述べたと同様に、計測誤差によって生じる把持誤差は、実際には、計測箇所と把持箇所に依存するが、ここでは問題を単純化し、計測箇所がワークの片側であったとして、ワークの反対側の端を掴む場合にどれくらいの誤差になるかを見積もるとする。この誤差は、ほとんどの場合で、実質的な把持誤差より大きいものであり誤差許容量の比較をするための値と使用するのは問題ない。
傾きの誤差は、例え位置が正確でも、ワークの面に垂直に把持しないとうまく掴めない場合に関係する。傾きの誤差は上記の定義から|Ei|である。
(1)計測箇所が1箇所だけのとき
計測に誤差がない場合の把持位置をP、誤差を含んだ場合をP’として、傾き誤差Ei,回転誤差Erはごく小さい量であることを考慮すれば、
|P−P’|=|Ep|+a{(Er)2+(Ei)21/2
が求める値となる。
(2)計測箇所が複数箇所のとき
複数箇所のうち、その間の距離が最も大きい組を選び、その距離をDとする。計測に誤差がない場合の把持位置をP、誤差を含んだ場合をP’とすれば、ここではEp のみが求める最大把持誤差に関係し、
|P−P’|=|Ep|(2a/D−1)又は|P−P’|=|Ep| のうちの大きい方が求める値となる。
本発明に従った実施形態の全体構成の概略を表わした図である。 実施形態で実行される処理の概略を記したフローチャートである。 実施形態において、画面表示されるワークモデル(又はワーク画像)と測定箇所の例を示した図である。 実施形態において、ワーク情報の指定例について説明する図である。 実施形態において、計測誤差に関する診断を行なうための処理の概略を記したフローチャートである。 実施形態における把持ずれに関する診断を行なうための処理の概略を記したフローチャートである。 実施形態において、ワークのたわみの影響に関する診断を行なうための処理の概略を記したフローチャートである。 実施形態における診断全体のフローの概略を記したフローチャートである。 [別項1]において、最大把持誤差の計算方法について説明する図である。 [別項2]において、最大把持誤差の計算方法について説明する図である。
符号の説明
1 ロボット
2 ビデオカメラ
3 コンピュータ(パーソナルコンピュータ;ロボットシミュレータ)
4 ロボットコントローラ
5 ネットワーク回線
6 ハンド
M 計測箇所
M0 計測箇所の代表点

Claims (8)

  1. ロボットと、ワークに対して2次元計測または3次元計測を行う視覚センサとを含むシステムにおける前記ロボットの動作プログラムを生成する、ロボットプログラム生成装置であって、
    ワークのモデルを表示するモデル表示手段と、
    前記モデル表示手段により表示されたワークのモデル上で、前記視覚センサによる計測箇所を指定する計測箇所指定手段と、
    前記計測箇所指定手段によって指定された計測箇所に対する計測方法を2次元計測と3次元計測のいずれとするかを指定する計測方法指定手段と、
    前記ワークに関する少なくとも1つの事項の情報を数値又は種別で指定するワーク情報指定手段と、
    前記計測箇所指定手段によって指定される計測箇所の良否、及び前記計測方法指定手段によって指定される計測方法の良否を、前記数値又は種別に関連付けて判別するための、予め定められたルールを記憶するルール記憶手段と、
    前記ワーク情報指定手段によって指定された前記ワークに関する少なくとも1つの事項と前記ルール記憶手段に記憶されたルールとに基づいて、前記計測箇所指定手段によって指定された計測箇所の良否、及び前記計測方法指定手段によって指定された計測方法の良否を判定する判定手段と、
    該判定手段により良と判定された計測箇所の計測を、前記判定手段により良と判定された計測方法によって実行する計測命令を含むロボットプログラムを生成する手段とを有することを特徴とする、ロボットプログラム生成装置。
  2. ロボットと、ワークに対して2次元計測または3次元計測を行う視覚センサとを含むシステムにおける前記ロボットの動作プログラムを生成する、ロボットプログラム生成装置であって、
    予め撮像したワークの画像を表示するワーク画像表示手段と、
    該ワーク画像表示手段により表示された画像上で、前記視覚センサによる計測箇所を指定する計測箇所指定手段と、
    該計測箇所指定手段によって指定された計測箇所に対する計測方法を2次元計測と3次元計測のいずれとするかを指定する計測方法指定手段と、
    前記ワークに関する少なくとも1つの事項の情報を数値又は種別で指定するワーク情報指定手段と、
    前記計測箇所指定手段によって指定される計測箇所の良否、及び前記計測方法指定手段によって指定される計測方法の良否を、前記数値又は種別に関連付けて判別するための、予め定められたルールを記憶するルール記憶手段と、
    前記ワーク情報指定手段によって指定された前記ワークに関する少なくとも1つの事項と前記ルール記憶手段に記憶されたルールとに基づいて、前記計測箇所指定手段によって指定された計測箇所の良否、及び前記計測方法指定手段によって指定された計測方法の良否を判定する判定手段と、
    該判定手段により良と判定された計測箇所の計測を、前記判定手段により良と判定された計測方法によって実行する計測命令を含むロボットプログラムを生成する手段とを、有することを特徴とする、ロボットプログラム生成装置。
  3. 前記少なくとも1つの事項は、ワークの寸法、ワークの材質、ワークの把持方法、ワークの積載状態の内、少なくとも1つを含むものである、請求項1または請求項2に記載のロボットプログラム生成装置。
  4. ロボットプログラムのシミュレーションを実行する機能を備えているロボットシミュレータである、請求項1乃至請求項3の内、いずれか1項に記載のロボットプログラム生成装置。
  5. ロボットと、ワークに対して2次元計測または3次元計測を行う視覚センサとを含むシステムにおける前記ロボットの動作プログラムを解析するロボットプログラム解析装置であって、
    前記視覚センサによるワークに対する計測実行命令を含むロボットプログラムを入力し、解析する解析手段と、
    ワークのモデルを表示するモデル表示手段と、
    該モデル表示手段によって表示されたモデル上で、前記解析手段による前記ロボットプログラムの解析結果に基づいて、前記視覚センサによる計測箇所を求め、前記モデルとともに表示する計測箇所表示手段と、
    前記解析手段による前記ロボットプログラムの解析結果に基づいて、前記計測箇所に対する計測方法が2次元計測と3次元計測のいずれとされているかを求めて表示する計測方法表示手段と、
    前記ワークに関する少なくとも1つの事項の情報を数値又は種別で指定するワーク情報指定手段と、
    前記解析手段による前記ロボットプログラムの解析結果に基づいて求められる前記計測箇所及び前記計測方法のそれぞれの良否を、前記数値又は種別に関連付けて判別するための、予め定められたルールを記憶するルール記憶手段と、
    前記ワーク情報指定手段によって指定された前記ワークに関する少なくとも1つの事項と前記ルール記憶手段に記憶されたルールとに基づいて、前記解析手段による前記ロボットプログラムの解析結果に基づいて求められた前記計測箇所及び前記計測方法のそれぞれの良否を判定する判定手段とを有することを特徴とする、ロボットプログラム解析装置。
  6. 予め撮像したワークの画像を表示する手段と、
    前記ワークの画像上で、
    ロボットと、ワークに対して2次元計測または3次元計測を行う視覚センサとを含むシステムにおけるロボットの動作プログラムを解析するロボットプログラム解析装置であって、
    前記視覚センサによるワークに対する計測実行命令を含むロボットプログラムを入力し、解析する解析手段と、
    予め撮像したワークの画像を表示する画像表示手段と、
    該画像表示手段によって表示された画像上で、前記解析手段による前記ロボットプログラムの解析結果に基づいて、前記視覚センサによる計測箇所を求め、前記モデルとともに表示する計測箇所表示手段と、
    前記解析手段による前記ロボットプログラムの解析結果に基づいて、前記計測箇所に対する計測方法が2次元計測と3次元計測のいずれとされているかを表示する計測方法表示手段と、
    前記ワークに関する少なくとも1つの事項の情報を数値又は種別で指定するワーク情報指定手段と、
    前記解析手段による前記ロボットプログラムの解析結果に基づいて求められる前記計測箇所及び前記計測方法のそれぞれの良否を、前記数値又は種別に関連付けて判別するための、予め定められたルールを記憶するルール記憶手段と、
    前記ワーク情報指定手段によって指定された前記ワークに関する少なくとも1つの事項と前記ルール記憶手段に記憶されたルールとに基づいて、前記解析手段による前記ロボットプログラムの解析結果に基づいて求められた前記計測箇所及び前記計測方法のそれぞれの良否を判定する判定手段とを有することを特徴とする、ロボットプログラム解析装置。
  7. 前記少なくとも1つの事項は、ワークの寸法、ワークの材質、ワークの把持方法、ワークの積載状態の内、少なくとも1つを含むものである、請求項5または請求項6に記載のロボットプログラム解析装置。
  8. ロボットプログラムのシミュレーションを実行する機能を備えているロボットシミュレータである、請求項5乃至請求項7の内、いずれか1項に記載のロボットプログラム解析装置。
JP2004289822A 2004-10-01 2004-10-01 ロボットプログラム生成装置及び解析装置 Expired - Fee Related JP3977369B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2004289822A JP3977369B2 (ja) 2004-10-01 2004-10-01 ロボットプログラム生成装置及び解析装置
US11/239,672 US7684897B2 (en) 2004-10-01 2005-09-30 Robot program generating device and robot program analyzing device
EP05021498.0A EP1642692B1 (en) 2004-10-01 2005-09-30 Robot program generating device and robot program analyzing device
CNB2005101082512A CN100415459C (zh) 2004-10-01 2005-10-08 机器人程序生成装置以及解析装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004289822A JP3977369B2 (ja) 2004-10-01 2004-10-01 ロボットプログラム生成装置及び解析装置

Publications (2)

Publication Number Publication Date
JP2006106927A JP2006106927A (ja) 2006-04-20
JP3977369B2 true JP3977369B2 (ja) 2007-09-19

Family

ID=35431176

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004289822A Expired - Fee Related JP3977369B2 (ja) 2004-10-01 2004-10-01 ロボットプログラム生成装置及び解析装置

Country Status (4)

Country Link
US (1) US7684897B2 (ja)
EP (1) EP1642692B1 (ja)
JP (1) JP3977369B2 (ja)
CN (1) CN100415459C (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3930482B2 (ja) * 2004-01-19 2007-06-13 ファナック株式会社 3次元視覚センサ
JP5333344B2 (ja) * 2009-06-19 2013-11-06 株式会社安川電機 形状検出装置及びロボットシステム
CN103358307A (zh) * 2012-04-09 2013-10-23 长毅技研股份有限公司 机械手臂操控动作重现方法
JP5616478B1 (ja) * 2013-04-18 2014-10-29 ファナック株式会社 ワークを搬送するロボットを備えるロボットシステム
US9555549B2 (en) * 2013-10-31 2017-01-31 Seiko Epson Corporation Control device, robot, robot system, and control method
JP2015226963A (ja) * 2014-06-02 2015-12-17 セイコーエプソン株式会社 ロボット、ロボットシステム、制御装置、及び制御方法
JP6459227B2 (ja) 2014-06-02 2019-01-30 セイコーエプソン株式会社 ロボットシステム
JP7124509B2 (ja) * 2018-07-19 2022-08-24 オムロン株式会社 シミュレーション装置、シミュレーションプログラムおよびシミュレーション方法

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4620436A (en) * 1984-10-09 1986-11-04 Hitachi, Ltd. Method and apparatus for calibrating transformation matrix of force sensor
GB2174216B (en) * 1985-03-19 1988-10-26 Mitutoyo Mfg Co Ltd Method of operating a coordinate measuring instrument
JP2710850B2 (ja) * 1989-03-27 1998-02-10 キヤノン株式会社 ワーク把持装置、ワーク及びその収納ケース
KR920002268A (ko) * 1990-07-17 1992-02-28 유끼노리 가까즈 인텔리젠트가공장치
CN1118297A (zh) * 1994-09-06 1996-03-13 叶洪源 自动定位焊接机器人***
US5552992A (en) * 1994-11-01 1996-09-03 Larry J. Winget Method and system for reproduction of an article from a physical model
JPH08221132A (ja) * 1995-02-10 1996-08-30 Fanuc Ltd サーボパラメータの自動調整方法及び自動調整装置
DE19637554B4 (de) * 1995-09-19 2004-01-08 Deutsches Zentrum für Luft- und Raumfahrt e.V. Verfahren und Vorrichtung zum Meßfehlerausgleich bei Meßrobotern
JP3079186B2 (ja) * 1995-09-28 2000-08-21 株式会社小松製作所 構造物計測システム
SE509505C2 (sv) * 1996-02-20 1999-02-01 Neos Robotics Ab Positioneringsmetod och positioneringsanordning f ör ett produktionssystem
AU8573198A (en) * 1997-07-21 1999-02-10 Kristin Ann Farry Method of evolving classifier programs for signal processing and control
JP3047890B2 (ja) * 1998-05-27 2000-06-05 松下電器産業株式会社 溶接ロボット
JPH11347985A (ja) * 1998-06-10 1999-12-21 Honda Motor Co Ltd 視覚センサ付ロボットシステムのトラブル診断方法
DE10013137B4 (de) * 2000-03-17 2005-11-24 Edelmann, Peter, Dr. Verfahren zur bildgesteuerten Prüfung und Bearbeitung von Produkten
SE0001312D0 (sv) * 2000-04-10 2000-04-10 Abb Ab Industrirobot
US6825856B1 (en) * 2000-07-26 2004-11-30 Agilent Technologies, Inc. Method and apparatus for extracting measurement information and setting specifications using three dimensional visualization
JP3703411B2 (ja) * 2001-07-19 2005-10-05 ファナック株式会社 ワーク取り出し装置
US7236963B1 (en) * 2002-03-25 2007-06-26 John E. LaMuth Inductive inference affective language analyzer simulating transitional artificial intelligence
JP3805302B2 (ja) * 2002-12-13 2006-08-02 ファナック株式会社 ワーク取出し装置
SE524818C2 (sv) * 2003-02-13 2004-10-05 Abb Ab En metod och ett system för att programmera en industrirobot att förflytta sig relativt definierade positioner på ett objekt
JP3708083B2 (ja) * 2003-02-28 2005-10-19 ファナック株式会社 ロボット教示装置
US6836702B1 (en) * 2003-06-11 2004-12-28 Abb Ab Method for fine tuning of a robot program

Also Published As

Publication number Publication date
JP2006106927A (ja) 2006-04-20
EP1642692B1 (en) 2019-06-19
US20060074526A1 (en) 2006-04-06
CN1754666A (zh) 2006-04-05
US7684897B2 (en) 2010-03-23
CN100415459C (zh) 2008-09-03
EP1642692A2 (en) 2006-04-05
EP1642692A3 (en) 2011-09-28

Similar Documents

Publication Publication Date Title
JP6396516B2 (ja) 視覚センサのキャリブレーション装置、方法及びプログラム
US20070071310A1 (en) Robot simulation device
JP2008021092A (ja) ロボットシステムのシミュレーション装置
US20090187276A1 (en) Generating device of processing robot program
JP5665333B2 (ja) 情報処理装置および情報処理装置の制御方法
JP2017039168A (ja) 溶接作業順序立てのための拡張現実インタフェース
US20110316977A1 (en) Method of cnc profile cutting program manipulation
KR20140034816A (ko) 휴대형 광학 측정 검사 시스템
JP5586445B2 (ja) ロボット制御設定支援装置
US20060212171A1 (en) Off-line teaching device
JP2007160486A (ja) オフラインプログラミング装置
CN100415459C (zh) 机器人程序生成装置以及解析装置
JP2014126494A (ja) 検査支援装置、検査支援方法、ロボットシステム、制御装置、ロボット、及び、プログラム
CN105277175B (zh) 图像测量设备及显示测量结果的方法
JP6970592B2 (ja) 検査装置、検査システム、プログラムを記憶した記憶媒体
JP3853658B2 (ja) 画像測定装置及び画像測定用プログラム
JP2020123042A (ja) 情報処理装置、情報処理方法及びシステム
JP3765061B2 (ja) 多次元形状の座標計測機用オフライン・ティーチング・システム
JP3853638B2 (ja) 画像測定装置、画像測定方法及び画像測定用プログラム
JP5175916B2 (ja) 部品検索システム
JP3922942B2 (ja) 画像測定装置、画像測定方法及び画像測定用プログラム
US20230405730A1 (en) Inspection system for welded portion
JP7204580B2 (ja) 較正検出装置、方法及びプログラム
WO2021065029A1 (ja) 画像測定方法及び画像測定システム
JP2010026882A (ja) ナレッジ取得支援装置

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070423

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070529

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070620

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100629

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100629

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110629

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees