JP2018111165A - 視覚センサのキャリブレーション装置、方法及びプログラム - Google Patents
視覚センサのキャリブレーション装置、方法及びプログラム Download PDFInfo
- Publication number
- JP2018111165A JP2018111165A JP2017003664A JP2017003664A JP2018111165A JP 2018111165 A JP2018111165 A JP 2018111165A JP 2017003664 A JP2017003664 A JP 2017003664A JP 2017003664 A JP2017003664 A JP 2017003664A JP 2018111165 A JP2018111165 A JP 2018111165A
- Authority
- JP
- Japan
- Prior art keywords
- camera
- parameter
- target mark
- image data
- robot
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/021—Optical sensing devices
- B25J19/023—Optical sensing devices including video camera means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/04—Viewing devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
- B25J9/163—Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
- B25J9/1653—Programme controls characterised by the control loop parameters identification, estimation, stiffness, accuracy, error analysis
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1671—Programme controls characterised by programming, planning systems for manipulators characterised by simulation, either to verify existing program or to create and verify new program, CAD/CAM oriented, graphic oriented programming systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
- G06T7/85—Stereo camera calibration
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
- B25J9/1692—Calibration of manipulator
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30204—Marker
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Manipulator (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Analysis (AREA)
Abstract
Description
それに対して、方法Bでキャリブレーションをする場合には、方法Aと比べて、より広い視野をキャリブレーションしたり、より狭い視野をキャリブレーションしたりすることが可能となり、キャリブレーションの自由度をより向上させることができるというメリットがある。
なお、3次元的な計測をする際には、例えば、特許文献3に記載されているように、視覚センサとしてステレオカメラを使うことがある。ステレオカメラには対象物のテクスチャを使って対応点のマッチングを行うパッシブステレオ方式や対象物に投影したパターンを使って対応点のマッチングを行うアクティブステレオ方式がある。いずれの場合でも、ステレオカメラを構成する2つ以上のカメラをキャリブレーションすることが必要となる。
しかしながら、キャリブレーション時に複数のカメラ毎にモデルパターンを作成するとともに、検出するためのパラメータの設定を行うことは、オペレータの操作性に大きな影響を与え、余計な時間を要し、効率を落としてしまう。このため、複数のカメラをキャリブレーションするときにおいても、キャリブレーション時に行うパラメータ設定をカメラ毎に重複して行わずに済むことが望まれる。
本実施形態では、キャリブレーション装置として、視覚センサ制御装置を例示する。
図1は、視覚センサのキャリブレーションに関し、特に複数のカメラを備えるステレオカメラを使用したキャリブレーションを実施するためのロボットシステム1000の全体の構成図である。
図1に示すように、ロボットシステム1000は、2台のカメラ(第1のカメラ21及び第2のカメラ22)を備えるステレオカメラ2と、ステレオカメラ2により撮像される画像データを画像処理して3次元計測を行う視覚センサ制御装置1と、先端部にターゲットマーク5が取り付けられたアーム41を有するロボット4と、ロボット4を制御するロボット制御装置3と、を備える。ステレオカメラを構成するカメラは2台に限らず、2台以上であればよい。また、ステレオカメラを構成するそれぞれのカメラは単一のカメラとしても使用できることは言うまでもない。
なお、第1のカメラ21及び第2のカメラ22をそれぞれ傾けて配置することで、第1のカメラ21及び第2のカメラ22を平行に配置する場合に比較して、第1のカメラ21による撮像領域と第2のカメラ22による撮像領域との重なり領域を大きくとることが可能となる。すなわち、ステレオカメラ2による3次元計測の可能な領域を、第1のカメラ21及び第2のカメラ22を平行に配置する場合に比較して、大きくとることができる。
逆に、第1のカメラ21及び第2のカメラ22をそれぞれ傾けて配置することで、第1のカメラ21及び第2のカメラ22を平行に配置する場合に比較して、第1のカメラ21により撮像される対象物(ターゲットマーク5)と第2のカメラ22により撮像される対象物(ターゲットマーク5)の画像上の歪みの差が大きくなる。
なお、第1のカメラ21及び第2のカメラ22の視野範囲、レンズ等を同じ構成にすることが望ましい。そうすることで、ターゲットマーク5の見え方が同じようになることが期待できる。
ターゲットマーク5として、例えば、紙やシールに印刷したものをロボット4のアームの先端に貼り付けるようにしてもよい。
アーム41の先端部分に取り付けられたターゲットマーク5について、ターゲットマーク5の3次元位置を計測する点が予め指定され、ロボット4の手先座標系における3次元での位置及び姿勢が予め求められているものとする。
図4にターゲットマーク5の3次元位置を計測する点Pの一例を示す。図4に示すように、ターゲットマーク5の3次元位置を計測する点Pを明示的に指定しない場合には、ターゲットマーク5の中心点を計測するようにしてもよい。
ロボット制御装置3は、全体を統括制御するためのCPU(図示せず)を備え、外部機器インタフェース(図示せず)を介して、視覚センサ制御装置1が接続され、視覚センサ制御装置1にターゲットマーク5のロボット座標系における座標位置を送信したり、視覚センサ制御装置1における画像処理(例えば、ターゲットマーク5の検出処理等)によって得られた画像処理結果等を受信する。
キャリブレーション範囲は、例えば、当該空間内の平面上に矩形で指定することができる。キャリブレーション範囲を矩形で指定する場合には、当該矩形の4隅のロボット座標系での座標位置を計測すればよい。また、アーム41の先端部分に取り付けられたターゲットマーク5が移動する空間上に障害物等が存在する場合には、当該障害物を避けるように、複数の線分により構成される閉じた図形によりキャリブレーション範囲を指定してもよい。
視覚センサ制御装置1は、図7に示すように、全体を統括制御するためのCPU(中央演算処理装置)10を備えている。CPU10にはバス11を介して、複数のフレームメモリ12、ROM(読み出し専用メモリ)13、RAM(ランダムアクセスメモリ)14、不揮発性RAM15が接続されている。また、バス11には、カメラインタフェース16を介してステレオカメラ2(第1のカメラ21及び第2のカメラ22)が接続されると共に、モニタインタフェース17を介してモニタ19が接続されている。さらに、CPU10には、バス11を介して外部機器インタフェース18が接続されている。
不揮発性RAM15は、磁気記憶装置、フラッシュメモリ、MRAM、FRAM(登録商標)、EEPROM、又はバッテリでバックアップされるSRAM若しくはDRAM等であり、視覚センサ制御装置1の電源がオフされても記憶状態が保持される不揮発性メモリとして構成される。不揮発性RAM15には、プログラム実行時に必要な設定などが記憶される。
フレームメモリ12には画像データが格納される。
不揮発性RAM15は、基準情報記憶部151と、検出結果記憶部152と、を備える。
基準情報記憶部151は、対象物(ターゲットマーク5)を表す基準情報(「モデルパターン」又は「テンプレート」ともいう)を記憶する。基準情報としては、例えば対象物(ターゲットマーク5)のエッジ点からなる集合(「エッジ点群」ともいう)を採用してもよい。エッジ点とは、画像上での輝度変化が大きな点である。
例えば、対象物(ターゲットマーク5)に公知のSobelフィルタをかけてエッジ画像へ変換し、エッジ画像中から予め定められた閾値以上の強度を有する画素(エッジ点)を抽出し、エッジ点群とすることができる。このように、検出すべき対象物(ターゲットマーク5)を含む画像から抽出したエッジ点群をモデルパターンとして基準情報記憶部221に記憶しておく。
なお、モデルパターンはエッジ点に限定されない。例えば、公知のSIFTのような特徴点を使用してもよい。また、対象物(ターゲットマーク5)の輪郭線に合うように線分、矩形、円などの幾何図形を配置することでモデルパターンを生成してもよい。その場合、輪郭線を構成する幾何図形上に適当な間隔で特徴点を設ければよい。または、モデルパターンは、ターゲットマーク5を撮像した画像からモデルパターン指定領域の箇所を切り抜いたテンプレート画像でもよい。
また、前述したように、アーム41の先端に取り付けられたターゲットマーク5の3次元位置を計測する点Pが予め指定され、ロボット4の手先座標系における3次元での位置及び姿勢を予め求められているものとする。
このように生成されたモデルパターンを基準情報記憶部151に予め記憶することを、「モデルパターンを教示する」ともいう。
モデルパターンの教示については後述する。
図8は、視覚センサ制御装置1におけるCPU10の機能構成を示すブロック図である。
CPU10は、撮像制御部100と、モデルパターン生成部101と、第1パラメータ設定部102と、第1検出部103と、第2パラメータ設定部104と、第2検出部105と、キャリブレーション部106と、を備える。
これらの各機能部は、ROM13に格納されたシステムプログラムをCPU10が実行することにより実現される。
撮像制御部100は、ロボット4によりキャリブレーションする範囲内を移動させられるロボット4のアーム41の先端に取り付けられたターゲットマーク5を第1のカメラ及び第2のカメラにより撮像する。特に、キャリブレーション時にはターゲットマーク5を複数の移動先の位置で撮像する。ここで複数の移動先の個数としては、キャリブレーションができるだけの最小個数より大きな個数(例えば、20以上)とすることが望ましい。そうすることで、キャリブレーションの精度を高めることが可能となる。
モデルパターン生成部101は、例えば第1のカメラ21により、モデルパターンを生成する。
図9にモデルパターンの一例を示す。また、図10にモデルパターンを生成するフローチャートを示す。モデルパターン生成部101は、図9に示すようなモデルパターンを生成する。図10を参照しながら、モデルパターン生成部101の機能を説明する。
また、モデルパターン生成部101は、オペレータにより指示された点を、ターゲットマーク5の3次元位置を計測する点Pとして設定し、基準情報記憶部151に記憶する。なお、モデルパターン生成部101は、例えば、モデルパターンの中心点を、ターゲットマーク5の3次元位置を計測する点Pとして設定してもよい。
なお、前述したように、モデルパターンはエッジ点に限定されない。例えば、公知のSIFTのような特徴点を使用してもよい。また、対象物(ターゲットマーク5)の輪郭線に合うように線分、矩形、円などの幾何図形を配置することでモデルパターンを生成してもよい。その場合、輪郭線を構成する幾何図形上に適当な間隔で特徴点を設ければよい。または、モデルパターンは、ターゲットマーク5を撮像した画像からモデルパターン指定領域の箇所を切り抜いたテンプレート画像でもよい。
以上のように、モデルパターンは、一方のカメラ(第1のカメラ21)により撮像される画像を使って生成される。第2のカメラ22に対するモデルパターンとしては、第1のカメラにより撮像される画像を使って生成されたモデルパターンを流用する。
このような状況においても、第1のカメラ21により撮像される画像データから、キャリブレーションする範囲内におけるターゲットマーク5の移動先に関わらず、モデルパターンを検出することができるように、第1パラメータ設定部102は、第1のカメラ21により撮像される画像データからターゲットマーク5のモデルパターンを検出するための第1パラメータを設定する。
より具体的には、第1パラメータ設定部102により設定される第1パラメータは、検出アルゴリズムに依存するものであり、例えば、モデルに対するサイズ、回転、歪み、検出する位置の範囲、角度の範囲等の所定の範囲を有するように構成したり、単一の数値やオンオフ値で構成したりすることができる。なお、第1パラメータは、ここで例示したものに限らない。
そうすることで、ターゲットマーク5の移動先に関わらず、モデルパターンを検出することができるように、後述の第1検出部103は、撮像データから、単一の数値やオンオフ値又は所定の範囲内のパラメータの値でモデルパターンと一致するものを検出できるように構成する。そうすることで、適切なパラメータの値を適用することにより、撮像データからモデルパターンを検出することができる。
第1パラメータは、第1のカメラ21により撮像される画像データに適用されるパラメータとしてもよい。この場合、第1検出部103は、第1のカメラ21により撮像される画像データに第1パラメータを適用した画像データから、ターゲットマーク5のモデルパターンを検出するように構成される。例えば、画像データにガウシアンフィルタを掛けて平滑化した画像データからモデルパターンを検出できる。
また、第1パラメータは、ターゲットマーク5のモデルパターンに適用されるパラメータとしてもよい。この場合、第1検出部103は、第1のカメラ21により撮像される画像データから、第1パラメータを適用したモデルパターンによりターゲットマーク5を検出するように構成される。
例えば、第1パラメータの値を単一の数値で構成した場合には、単一の変換行列を選択し、第1パラメータの値を所定の範囲を有するように構成した場合には、所定の範囲の変換行列を選択可能とするようにすることができる。具体的には、所定の範囲を有するように第1パラメータを構成したときには、例えば、射影変換行列の場合、1つの射影変換行列に基づいて、当該射影変換行列のそれぞれの要素との偏差が所定の閾値以下になるような射影変換行列をパラメータの範囲に含むように構成してもよいし、回転の場合には、1つの回転角度に基づいて、回転角度の範囲を設定してもよい。また、相似変換についても同様に、1つの相似比に基づいて、相似比の範囲を設定してもよい。
こうすることで、例えば、ターゲットマーク5の移動先が異なることによるターゲットマーク5のアピアランスの相違にロバストな検出を可能とすることができる。
なお、露光時間についても、例えば、第1のカメラ21とターゲットマーク5の置かれる平面との角度、照明との関係等により、パラメータの値を設定することが望ましい。
第1検出部103は、第1のカメラ21により撮像される画像データからターゲットマーク5を検出し、検出されたターゲットマーク5の第1のカメラ21の画像座標系における座標位置を計測する。
具体的には、第1検出部103は、単一の数値、オンオフ値又は第1パラメータの所定の範囲からパラメータを選択する。なお、パラメータを所定の範囲から選択する際には、例えば、パラメータ範囲の値のなかで中心となる値を最初に選択してもよい。その後、例えば、中心の値から、プラスマイナスの方にそれぞれ、ずらしながら、次のパラメータを選択するようにしてもよい。
具体的には、第1検出部103は、第1のカメラ21によって撮像される画像データから、教示されたモデルパターンの特徴点を抽出したのと同じ方法で特徴点を抽出し、特徴点と当該パラメータを適用したモデルパターンの特徴点との間で公知のマッチングを行うことで、ターゲットマーク5を検出する。
第1検出部103は、検出されたターゲットマーク5の第1のカメラ21の画像座標系における座標位置を計測する。
次に、第1のカメラ21により生成されたターゲットマーク5のモデルパターンを使用して、第2のカメラ22により撮像される画像データから当該モデルパターンを検出するための第2パラメータを設定する第2パラメータ設定部104について説明する。
第2パラメータ設定部104は、第2のカメラ22による撮像される画像データからターゲットマーク5のモデルパターンを検出するための第2パラメータを第1パラメータ設定部102により設定された第1パラメータに基づいて設定する。
より具体的には、第2パラメータ設定部104は、第2パラメータの値を初期設定する際に第1パラメータをそのまま使用する。
または、第2パラメータの値を初期設定する際に、例えば、第2パラメータを所定の範囲とする場合には、第2パラメータ設定部104は、第1パラメータの範囲と同一の範囲を設定したり、第2パラメータの範囲が、第1パラメータ設定部102により設定される第1パラメータの所定の範囲を含む広い範囲として設定することができる。このような場合には、後述する第2検出部105により、ある第2パラメータの値を適用することで、第2のカメラ22により撮像される画像データからターゲットマーク5のモデルパターンを検出することができた場合、第2パラメータ設定部104は、当該第2パラメータを中心として、第1パラメータの所定の範囲における中心値からの偏差に基づいて、第2パラメータの値の範囲を設定し直すことができる。
例えば、第1のカメラ21に対して第1パラメータにより、サイズの範囲を0.9から1.1に設定していた場合、中心値は1.0であって、第1パラメータの所定の範囲における中心値からの偏差は0.1となる。
他方、第2のカメラ22の対象物(ターゲットマーク5)について、第2のカメラ22において第2パラメータにおけるサイズを0.95とすることで対象物(ターゲットマーク5)を最初に検出することができた場合、第2パラメータの中心値を0.95とし、第1パラメータの偏差を第2パラメータに指定する。すなわち、第2パラメータの値の範囲は、中心値を0.95とする範囲[0.85〜1.05]に設定する。
このように、第2パラメータの値の範囲を初期設定時の範囲を見直すことが可能となり、第2のカメラ22の撮像データからのモデルパターンの検出をより効率的に実施することが可能となる。
第2検出部105は、第2のカメラ22により撮像される画像データからターゲットマークのモデルパターンを検出し、検出されたターゲットマーク5の第2のカメラ22の画像座標系における座標位置を計測する。
なお、第2検出部105の検出処理については、前述した第1検出部103の検出処理の説明において、第1のカメラ21、第1パラメータ設定部102及び第1パラメータをそれぞれ、第2のカメラ22、第2パラメータ設定部104、及び第2パラメータに読み替えることで説明できるため、省略する。
キャリブレーション部106は、ロボット制御装置3により移動させられた、ロボット4のアーム41の先端に取り付けられたターゲットマーク5の複数の移動先における、第1のカメラ21により撮像される画像データ中のターゲットマーク5の第1のカメラ21の画像座標系における座標位置と、第2のカメラ22により撮像される画像データ中のターゲットマーク5の第2のカメラ22の画像座標系における座標位置と、第1のカメラ21又は第2のカメラ22により撮像される時のターゲットマーク5のロボット座標系における座標位置と、を検出結果記憶部152に記憶する。
キャリブレーション部106は、検出結果記憶部152に記憶された、ターゲットマーク5の第1のカメラ21の画像座標系における座標位置と、ターゲットマーク5の第2のカメラ22の画像座標系における座標位置と、第1のカメラ21及び第2のカメラ22により撮像される時のターゲットマーク5のロボット座標系における座標位置と、に基づいて第1のカメラ21及び第2のカメラ22のキャリブレーションを行う。第1のカメラ21と第2のカメラ22は個別にキャリブレーションできることは言うまでもない。
これにより、ステレオカメラ2のような複数のカメラをキャリブレーションする際に、例えば、第1のカメラ21に対してのみ、第1パラメータを設定し、第2のカメラ22に対しては、第2パラメータ設定部104により、第1パラメータに基づいて第2パラメータが設定されるため、複数のカメラ毎にモデルパターンの作成及びターゲットマークを検出するためのパラメータ設定を行わずに済むことができ、効率が向上する。
これにより、種々のターゲットマーク5を検出することができる。
これにより、種々のターゲットマーク5を検出することができる。
これにより、種々のターゲットマーク5を検出することができる。
これにより、第2のカメラ22により撮像される画像データからロボット4に取り付けられたターゲットマーク5を検出する処理を効率化することができる。
これにより、第2のカメラ22により撮像される画像データからロボット4に取り付けられたターゲットマーク5を検出する処理を効率化することができる。
また、第1パラメータ及び第2パラメータは、それぞれ第1のカメラ21による撮像される画像データ及び第1のカメラ21による撮像される画像データに適用されるパラメータとすることができる。
これにより、種々のターゲットマーク5を検出することができる。
これにより、視覚センサ制御装置1と同様の効果を奏する。
これにより、視覚センサ制御装置1と同様の効果を奏する。
本実施形態においては、キャリブレーション装置として、視覚センサ制御装置1を適用したが、これに限定されない。視覚センサ制御装置1とロボット制御装置3とを一体とする制御装置として、キャリブレーション装置としてもよい。また、キャリブレーション装置として、情報処理装置(コンピュータ)全般を指すことができる。キャリブレーション装置には、例えば、サーバ、PC、各種制御装置などを適用してもよい。
1 視覚センサ制御装置
10 CPU
100 撮像制御部
101 モデルパターン生成部
102 第1パラメータ設定部
103 第1検出部
104 第2パラメータ設定部
105 第2検出部
106 キャリブレーション部
11 バス
12 フレームメモリ
13 ROM
14 RAM
15 不揮発性RAM
151 基準情報記憶部
152 検出結果記憶部
16 カメラインタフェース
17 モニタインタフェース
18 外部機器インタフェース
19 モニタ
2 ステレオカメラ
21 第1のカメラ
22 第2のカメラ
3 ロボット制御装置
4 ロボット
41 アーム
5 ターゲットマーク
Claims (10)
- ステレオカメラの備える第1のカメラの画像座標系における位置情報と前記ステレオカメラの備える第2のカメラの画像座標系における位置情報の少なくとも一方と、ロボットのロボット座標系における位置情報と、を対応づけるキャリブレーション装置であって、
ロボットに取り付けられたターゲットマークのモデルパターンを生成するモデルパターン生成部と、
前記モデルパターンに基づいて、前記第1のカメラにより撮像される画像データから前記ターゲットマークを検出するための第1パラメータを設定する第1パラメータ設定部と、
前記モデルパターンに基づいて、前記第2のカメラにより撮像される画像データから前記ターゲットマークを検出するための第2パラメータを前記第1パラメータ設定部により設定された前記第1パラメータに基づいて設定する第2パラメータ設定部と、
前記ロボットにより移動させられる前記ロボットに取り付けられたターゲットマークを、複数の移動先で前記第1のカメラ及び前記第2のカメラにより撮像する撮像制御部と、
前記第1パラメータの値を用いて、前記第1のカメラにより撮像される画像データから前記ターゲットマークを検出し、検出された前記ターゲットマークの前記第1のカメラの画像座標系における座標位置を計測する第1検出部と、
前記第2パラメータの値を用いて、前記第2のカメラにより撮像される画像データから前記ターゲットマークを検出し、検出された前記ターゲットマークの前記第2のカメラの画像座標系での座標位置を計測する第2検出部と、
前記第1検出部により計測された前記ターゲットマークの前記第1のカメラの画像座標系における座標位置と、前記第2検出部により計測された前記ターゲットマークの前記第2のカメラの画像座標系における座標位置と、前記第1のカメラ及び前記第2のカメラにより撮像される時の前記ターゲットマークの前記ロボット座標系における座標位置と、に基づいて前記第1のカメラ及び前記第2のカメラのキャリブレーションを行うキャリブレーション部と、
を備えるキャリブレーション装置。 - 前記ターゲットマークは、前記ロボットのアーム先端に取り付けられ、前記ロボットの手先座標系における3次元での位置及び姿勢が予め求められた請求項1に記載のキャリブレーション装置。
- 前記第1パラメータ及び前記第2パラメータは、単一の数値、オンオフ値、又は範囲を有するパラメータを含む、請求項1又は請求項2に記載のキャリブレーション装置。
- 前記第2パラメータ設定部により初期設定される前記第2パラメータは、前記第1パラメータ設定部により設定される前記第1パラメータで前記第1のカメラにより撮像される画像データから検出できる前記ターゲットマークは全て、前記第2のカメラにより撮像される画像から検出できるように設定される、請求項1乃至請求項3の何れか1項に記載のキャリブレーション装置。
- 前記第2パラメータ設定部は、前記第1パラメータが所定の範囲を有する場合には、第2パラメータの範囲として、前記第2のカメラにより撮像される画像データから前記ターゲットマークを検出することができたときに用いた前記第2パラメータの値を中心として、前記第1パラメータにおける中心値からの偏差の大きさの範囲に設定する、請求項4に記載のキャリブレーション装置。
- 前記第1パラメータ及び前記第2パラメータは、それぞれ、前記ターゲットマークのモデルパターン、サイズ、及び変形に関するパラメータを含む、請求項1乃至請求項5の何れか1項に記載のキャリブレーション装置。
- 前記第1パラメータ及び前記第2パラメータは、それぞれ前記ターゲットマークのモデルパターンに適用されるパラメータであって、
前記第1検出部は、
前記第1のカメラにより撮像される画像データから、前記第1パラメータを適用したモデルパターンによりターゲットマークを検出し、
前記第2検出部は、
前記第2のカメラにより撮像される画像データから、前記第2パラメータを適用したモデルパターンによりターゲットマークを検出する、請求項4乃至請求項6の何れか1項に記載のキャリブレーション装置。 - 前記第1パラメータ及び前記第2パラメータは、それぞれ前記第1のカメラにより撮像される画像データ及び前記第2のカメラにより撮像される画像データに適用されるパラメータであって、
前記第1検出部は、
前記第1のカメラによる撮像される画像データに前記第1パラメータを適用した画像データから、前記ターゲットマークを検出し、
前記第2検出部は、
前記第2のカメラによる撮像される画像データに前記第2パラメータを適用した画像データから、前記ターゲットマークを検出する、請求項1乃至請求項6の何れか1項に記載のキャリブレーション装置。 - ステレオカメラの備える第1のカメラの画像座標系における位置情報と、前記ステレオカメラの備える第2のカメラの画像座標系における位置情報と、ロボットのロボット座標系における位置情報と、を対応づけるキャリブレーション装置によるキャリブレーション方法であって、
前記キャリブレーション装置により、
ロボットに取り付けられたターゲットマークのモデルパターンを生成するモデルパターン生成ステップと、
前記モデルパターンに基づいて、前記第1のカメラにより撮像される画像データから前記ターゲットマークを検出するための第1パラメータを設定する第1パラメータ設定ステップと、
前記モデルパターンに基づいて、前記第2のカメラにより撮像される画像データから前記ターゲットマークを検出するための第2パラメータを前記第1パラメータ設定ステップにより設定された前記第1パラメータに基づいて設定する第2パラメータ設定ステップと、
前記ロボットにより移動させられる前記ロボットに取り付けられたターゲットマークを、複数の移動先で前記第1のカメラ及び前記第2のカメラにより撮像する撮像制御ステップと、
前記第1パラメータの値を用いて、前記第1のカメラにより撮像される画像データから前記ターゲットマークを検出し、検出された前記ターゲットマークの前記第1のカメラの画像座標系における座標位置を計測する第1検出ステップと、
前記第2パラメータの値を用いて、前記第2のカメラにより撮像される画像データから前記ターゲットマークを検出し、検出された前記ターゲットマークの前記第2のカメラの画像座標系における座標位置を計測する第2検出ステップと、
前記第1検出ステップにより計測された前記ターゲットマークの前記第1のカメラの画像座標系における座標位置と、前記第2検出ステップにより計測された前記ターゲットマークの前記第2のカメラの画像座標系における座標位置と、前記第1のカメラ及び前記第2のカメラにより撮像される時の前記ターゲットマークの前記ロボット座標系における座標位置と、に基づいて前記第1のカメラ及び前記第2のカメラのキャリブレーションを行うキャリブレーションステップと、
を備えるキャリブレーション方法。 - ロボットに取り付けられたターゲットマークのモデルパターンを生成するモデルパターン生成ステップと、
前記モデルパターンに基づいて、第1のカメラにより撮像される画像データから前記ターゲットマークを検出するための第1パラメータを設定する第1パラメータ設定ステップと、
前記モデルパターンに基づいて、第2のカメラにより撮像される画像データから前記ターゲットマークを検出するための第2パラメータを前記第1パラメータ設定ステップにより設定された前記第1パラメータに基づいて設定する第2パラメータ設定ステップと、
前記ロボットにより移動させられる前記ロボットに取り付けられたターゲットマークを、複数の移動先で前記第1のカメラ及び前記第2のカメラにより撮像する撮像制御ステップと、
前記第1パラメータの値を用いて、前記第1のカメラにより撮像される画像データから前記ターゲットマークを検出し、検出された前記ターゲットマークの前記第1のカメラの画像座標系における座標位置を計測する第1検出ステップと、
前記第2パラメータの値を用いて、前記第2のカメラにより撮像される画像データから前記ターゲットマークを検出し、検出された前記ターゲットマークの前記第2のカメラの画像座標系における座標位置を計測する第2検出ステップと、
前記第1検出ステップにより計測された前記ターゲットマークの前記第1のカメラの画像座標系における座標位置と、前記第2検出ステップにより計測された前記ターゲットマークの前記第2のカメラの画像座標系における座標位置と、前記第1のカメラ及び前記第2のカメラにより撮像される時の前記ターゲットマークのロボット座標系における座標位置と、に基づいて前記第1のカメラ及び前記第2のカメラのキャリブレーションを行うキャリブレーションステップと、をコンピュータに実行させるためのプログラム。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017003664A JP6527178B2 (ja) | 2017-01-12 | 2017-01-12 | 視覚センサのキャリブレーション装置、方法及びプログラム |
US15/861,851 US10434654B2 (en) | 2017-01-12 | 2018-01-04 | Calibration device, calibration method, and computer readable medium for visual sensor |
DE102018200155.3A DE102018200155B4 (de) | 2017-01-12 | 2018-01-08 | Kalibrationsvorrichtung, Kalibrationsverfahren und Programm für einen visuellen Sensor |
CN201810023848.4A CN108297096B (zh) | 2017-01-12 | 2018-01-10 | 校准装置、校准方法以及计算机能够读取的介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017003664A JP6527178B2 (ja) | 2017-01-12 | 2017-01-12 | 視覚センサのキャリブレーション装置、方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018111165A true JP2018111165A (ja) | 2018-07-19 |
JP6527178B2 JP6527178B2 (ja) | 2019-06-05 |
Family
ID=62782207
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017003664A Active JP6527178B2 (ja) | 2017-01-12 | 2017-01-12 | 視覚センサのキャリブレーション装置、方法及びプログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US10434654B2 (ja) |
JP (1) | JP6527178B2 (ja) |
CN (1) | CN108297096B (ja) |
DE (1) | DE102018200155B4 (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20200091298A (ko) * | 2019-01-22 | 2020-07-30 | 삼성전자주식회사 | 핸드 아이 캘리브레이션 방법 및 시스템 |
WO2020235541A1 (ja) * | 2019-05-20 | 2020-11-26 | 国立大学法人東京大学 | 画像インタフェース装置、画像操作装置、操作対象物操作装置、操作対象物操作システム、操作対象物提示方法および操作対象物提示プログラム |
CN112710662A (zh) * | 2020-12-25 | 2021-04-27 | 深圳中科飞测科技股份有限公司 | 生成方法及装置、生成***和存储介质 |
Families Citing this family (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6812095B2 (ja) * | 2015-10-22 | 2021-01-13 | キヤノン株式会社 | 制御方法、プログラム、記録媒体、ロボット装置、及び物品の製造方法 |
WO2018181248A1 (ja) | 2017-03-31 | 2018-10-04 | パナソニックIpマネジメント株式会社 | 撮像システムおよび校正方法 |
EP3606038B1 (en) * | 2017-03-31 | 2021-12-08 | Panasonic Intellectual Property Management Co., Ltd. | Imaging system and correction method |
JP6886620B2 (ja) * | 2017-08-09 | 2021-06-16 | オムロン株式会社 | キャリブレーション方法、キャリブレーションシステム及びプログラム |
JP7062911B2 (ja) * | 2017-10-11 | 2022-05-09 | セイコーエプソン株式会社 | ロボットシステム |
WO2019225681A1 (ja) * | 2018-05-23 | 2019-11-28 | パナソニックIpマネジメント株式会社 | 校正装置および校正方法 |
US20210215811A1 (en) * | 2018-07-06 | 2021-07-15 | Brain Corporation | Systems, methods and apparatuses for calibrating sensors mounted on a device |
WO2020024909A1 (zh) * | 2018-08-02 | 2020-02-06 | 广东虚拟现实科技有限公司 | 定位跟踪方法、终端设备及计算机可读取存储介质 |
US11065768B2 (en) * | 2018-11-01 | 2021-07-20 | TE Connectivity Services Gmbh | Automatic calibration for camera-robot system with tool offsets |
JP6863954B2 (ja) | 2018-11-14 | 2021-04-21 | ファナック株式会社 | カメラ校正装置及びカメラ校正方法 |
TWI677413B (zh) | 2018-11-20 | 2019-11-21 | 財團法人工業技術研究院 | 用於機械手臂系統之校正方法及裝置 |
CN109615662A (zh) * | 2018-12-04 | 2019-04-12 | 中冶赛迪工程技术股份有限公司 | 一种坐标系标定方法、***、计算机可读存储介质及设备 |
TWI672206B (zh) * | 2018-12-19 | 2019-09-21 | 財團法人工業技術研究院 | 機械手臂非接觸式工具中心點校正裝置及其方法以及具有校正功能的機械手臂系統 |
CN109262659B (zh) * | 2018-12-20 | 2019-04-02 | 中国铁建重工集团有限公司 | 一种机械臂关节传感器的零位校准方法和设备 |
CN113302027B (zh) * | 2019-01-30 | 2023-12-22 | 株式会社富士 | 作业坐标生成装置 |
DE102019107964B3 (de) | 2019-03-28 | 2020-08-06 | Franka Emika Gmbh | Projektionseinrichtung für einen Robotermanipulator |
JP7007324B2 (ja) * | 2019-04-25 | 2022-01-24 | ファナック株式会社 | 画像処理装置、画像処理方法、及びロボットシステム |
EP3738725B1 (en) | 2019-05-15 | 2022-02-16 | Omron Corporation | Measurement system, measurement device, measurement method, and measurement program |
CN110378898B (zh) * | 2019-07-26 | 2021-07-16 | 金瓜子科技发展(北京)有限公司 | 一种信标定位的方法、装置、存储介质及设备 |
WO2021096320A1 (ko) * | 2019-11-15 | 2021-05-20 | 주식회사 씨메스 | 3차원 스캐너를 이용한 로봇의 위치 보정 방법 및 장치 |
WO2021145236A1 (ja) * | 2020-01-14 | 2021-07-22 | 京セラ株式会社 | 画像処理装置、撮像装置、情報処理装置、検出装置、路側機、画像処理方法、及び較正方法 |
CN111546328B (zh) * | 2020-04-02 | 2022-06-24 | 天津大学 | 基于三维视觉测量的手眼标定方法 |
CN112720470B (zh) * | 2020-12-18 | 2022-05-13 | 南京中科煜宸激光技术有限公司 | 用于增材加工的机械臂tcp手动快速标定装置及方法 |
WO2023102647A1 (en) * | 2021-12-06 | 2023-06-15 | University Of Manitoba | Method for automated 3d part localization and adjustment of robot end-effectors |
CN114734444B (zh) * | 2022-04-27 | 2023-06-27 | 博众精工科技股份有限公司 | 一种目标定位方法、装置、电子设备及存储介质 |
DE102022003666A1 (de) | 2022-10-05 | 2023-01-26 | Mercedes-Benz Group AG | Verfahren und Vorrichtung zur Kalibrierung von Werkzeugen eines Roboters in einem Produktionsprozess |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2690603B2 (ja) * | 1990-05-30 | 1997-12-10 | ファナック株式会社 | 視覚センサのキャリブレーション方法 |
JP2010172986A (ja) * | 2009-01-28 | 2010-08-12 | Fuji Electric Holdings Co Ltd | ロボットビジョンシステムおよび自動キャリブレーション方法 |
JP2015174191A (ja) * | 2014-03-17 | 2015-10-05 | 株式会社安川電機 | ロボットシステム、ロボットシステムのキャリブレーション方法およびロボットシステムの位置補正方法 |
Family Cites Families (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5951475A (en) * | 1997-09-25 | 1999-09-14 | International Business Machines Corporation | Methods and apparatus for registering CT-scan data to multiple fluoroscopic images |
JP4501239B2 (ja) | 2000-07-13 | 2010-07-14 | ソニー株式会社 | カメラ・キャリブレーション装置及び方法、並びに、記憶媒体 |
JP2002172575A (ja) | 2000-12-07 | 2002-06-18 | Fanuc Ltd | 教示装置 |
DE10345743A1 (de) * | 2003-10-01 | 2005-05-04 | Kuka Roboter Gmbh | Verfahren und Vorrichtung zum Bestimmen von Position und Orientierung einer Bildempfangseinrichtung |
US7693325B2 (en) * | 2004-01-14 | 2010-04-06 | Hexagon Metrology, Inc. | Transprojection of geometry data |
DE102004024378B4 (de) | 2004-05-17 | 2009-05-20 | Kuka Roboter Gmbh | Verfahren zur robotergestützten Vermessung von Objekten |
DE102004026814A1 (de) | 2004-06-02 | 2005-12-29 | Kuka Roboter Gmbh | Verfahren und Vorrichtung zum Verbessern der Positioniergenauigkeit eines Handhabungsgeräts |
JP4267005B2 (ja) * | 2006-07-03 | 2009-05-27 | ファナック株式会社 | 計測装置及びキャリブレーション方法 |
WO2009059323A1 (en) * | 2007-11-01 | 2009-05-07 | Rimrock Automation, Inc. Dba Wolf Robotics | A method and system for finding a tool center point for a robot using an external camera |
EP2075096A1 (de) | 2007-12-27 | 2009-07-01 | Leica Geosystems AG | Verfahren und System zum hochpräzisen Positionieren mindestens eines Objekts in eine Endlage im Raum |
US8229595B2 (en) * | 2008-06-19 | 2012-07-24 | Seelinger Michael J | Method and system for providing autonomous control of a platform |
US8265376B2 (en) * | 2008-07-21 | 2012-09-11 | Cognitens Ltd. | Method and system for providing a digital model of an object |
US8422777B2 (en) * | 2008-10-14 | 2013-04-16 | Joshua Victor Aller | Target and method of detecting, identifying, and determining 3-D pose of the target |
US9734419B1 (en) * | 2008-12-30 | 2017-08-15 | Cognex Corporation | System and method for validating camera calibration in a vision system |
JP5245938B2 (ja) * | 2009-03-12 | 2013-07-24 | オムロン株式会社 | 3次元認識結果の表示方法および3次元視覚センサ |
US9179106B2 (en) * | 2009-12-28 | 2015-11-03 | Canon Kabushiki Kaisha | Measurement system, image correction method, and computer program |
WO2011134083A1 (en) * | 2010-04-28 | 2011-11-03 | Ryerson University | System and methods for intraoperative guidance feedback |
US9245375B2 (en) * | 2010-09-16 | 2016-01-26 | Siemens Medical Solutions Usa, Inc. | Active lighting for stereo reconstruction of edges |
US9188973B2 (en) * | 2011-07-08 | 2015-11-17 | Restoration Robotics, Inc. | Calibration and transformation of a camera system's coordinate system |
JP5806606B2 (ja) * | 2011-12-01 | 2015-11-10 | キヤノン株式会社 | 情報処理装置、情報処理方法 |
US9258550B1 (en) * | 2012-04-08 | 2016-02-09 | Sr2 Group, Llc | System and method for adaptively conformed imaging of work pieces having disparate configuration |
JP5928114B2 (ja) * | 2012-04-12 | 2016-06-01 | セイコーエプソン株式会社 | ロボットシステム、ロボットシステムのキャリブレーション方法、ロボット |
JP6021533B2 (ja) * | 2012-09-03 | 2016-11-09 | キヤノン株式会社 | 情報処理システム、装置、方法及びプログラム |
US9043146B2 (en) * | 2013-06-19 | 2015-05-26 | The Boeing Company | Systems and methods for tracking location of movable target object |
JP6335460B2 (ja) | 2013-09-26 | 2018-05-30 | キヤノン株式会社 | ロボットシステムの制御装置及び指令値生成方法、並びにロボットシステムの制御方法 |
JP6511715B2 (ja) * | 2013-10-31 | 2019-05-15 | セイコーエプソン株式会社 | ロボット制御装置、ロボットシステム、及びロボット |
WO2015143067A1 (en) * | 2014-03-19 | 2015-09-24 | Intuitive Surgical Operations, Inc. | Medical devices, systems, and methods using eye gaze tracking |
WO2015151098A2 (en) * | 2014-04-02 | 2015-10-08 | M.S.T. Medical Surgery Technologies Ltd. | An articulated structured light based-laparoscope |
WO2015161297A1 (en) * | 2014-04-17 | 2015-10-22 | The Johns Hopkins University | Robot assisted ultrasound system |
DE102015104582A1 (de) * | 2015-03-26 | 2016-09-29 | Pi4_Robotics Gmbh | Verfahren zum Kalibrieren eines Roboters an einem Arbeitsbereich und System zum Durchführen des Verfahrens |
US11070793B2 (en) * | 2015-07-31 | 2021-07-20 | Cognex Corporation | Machine vision system calibration |
-
2017
- 2017-01-12 JP JP2017003664A patent/JP6527178B2/ja active Active
-
2018
- 2018-01-04 US US15/861,851 patent/US10434654B2/en active Active
- 2018-01-08 DE DE102018200155.3A patent/DE102018200155B4/de active Active
- 2018-01-10 CN CN201810023848.4A patent/CN108297096B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2690603B2 (ja) * | 1990-05-30 | 1997-12-10 | ファナック株式会社 | 視覚センサのキャリブレーション方法 |
JP2010172986A (ja) * | 2009-01-28 | 2010-08-12 | Fuji Electric Holdings Co Ltd | ロボットビジョンシステムおよび自動キャリブレーション方法 |
JP2015174191A (ja) * | 2014-03-17 | 2015-10-05 | 株式会社安川電機 | ロボットシステム、ロボットシステムのキャリブレーション方法およびロボットシステムの位置補正方法 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20200091298A (ko) * | 2019-01-22 | 2020-07-30 | 삼성전자주식회사 | 핸드 아이 캘리브레이션 방법 및 시스템 |
KR102577448B1 (ko) * | 2019-01-22 | 2023-09-12 | 삼성전자 주식회사 | 핸드 아이 캘리브레이션 방법 및 시스템 |
WO2020235541A1 (ja) * | 2019-05-20 | 2020-11-26 | 国立大学法人東京大学 | 画像インタフェース装置、画像操作装置、操作対象物操作装置、操作対象物操作システム、操作対象物提示方法および操作対象物提示プログラム |
CN112710662A (zh) * | 2020-12-25 | 2021-04-27 | 深圳中科飞测科技股份有限公司 | 生成方法及装置、生成***和存储介质 |
Also Published As
Publication number | Publication date |
---|---|
US20180194007A1 (en) | 2018-07-12 |
DE102018200155A1 (de) | 2018-08-16 |
CN108297096B (zh) | 2020-02-07 |
JP6527178B2 (ja) | 2019-06-05 |
CN108297096A (zh) | 2018-07-20 |
US10434654B2 (en) | 2019-10-08 |
DE102018200155B4 (de) | 2020-08-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6527178B2 (ja) | 視覚センサのキャリブレーション装置、方法及びプログラム | |
JP6396516B2 (ja) | 視覚センサのキャリブレーション装置、方法及びプログラム | |
JP5949242B2 (ja) | ロボットシステム、ロボット、ロボット制御装置、ロボット制御方法、およびロボット制御プログラム | |
US9616569B2 (en) | Method for calibrating an articulated end effector employing a remote digital camera | |
JP5928114B2 (ja) | ロボットシステム、ロボットシステムのキャリブレーション方法、ロボット | |
JP5815761B2 (ja) | 視覚センサのデータ作成システム及び検出シミュレーションシステム | |
CN101733755A (zh) | 机械手***、机械手控制装置以及机械手控制方法 | |
JP2019089188A (ja) | 作動システムおよびプログラム | |
US11590657B2 (en) | Image processing device, control method thereof, and program storage medium | |
JP2020047049A (ja) | 画像処理装置及び画像処理方法 | |
JP6885856B2 (ja) | ロボットシステムおよびキャリブレーション方法 | |
CN111152243B (zh) | 控制*** | |
JP6410411B2 (ja) | パターンマッチング装置及びパターンマッチング方法 | |
JP2001148025A (ja) | 位置検出装置及びその方法、平面姿勢検出装置及びその方法 | |
US11989928B2 (en) | Image processing system | |
JP7112528B2 (ja) | 作業座標作成装置 | |
CN112643718B (zh) | 图像处理设备及其控制方法和存储其控制程序的存储介质 | |
JP6841297B2 (ja) | ビジュアルサーボシステム | |
JPWO2018096669A1 (ja) | レーザ加工装置、レーザ加工方法、及びレーザ加工プログラム | |
CN112184819A (zh) | 机器人的引导方法、装置、计算机设备和存储介质 | |
WO2019176450A1 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JP2012236266A (ja) | ロボット制御システム、ロボットシステム及びプログラム | |
JP2019036072A (ja) | 画像処理方法、画像処理装置、および製造方法 | |
US20230281857A1 (en) | Detection device and detection method | |
JP2023010174A (ja) | ロボットビジョンシステム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20180425 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180706 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180807 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181204 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190111 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190409 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190509 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6527178 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |