JP2022028672A - ロボットモーション用のビジョンシステムの自動ハンドアイ校正のためのシステム及び方法 - Google Patents

ロボットモーション用のビジョンシステムの自動ハンドアイ校正のためのシステム及び方法 Download PDF

Info

Publication number
JP2022028672A
JP2022028672A JP2021172736A JP2021172736A JP2022028672A JP 2022028672 A JP2022028672 A JP 2022028672A JP 2021172736 A JP2021172736 A JP 2021172736A JP 2021172736 A JP2021172736 A JP 2021172736A JP 2022028672 A JP2022028672 A JP 2022028672A
Authority
JP
Japan
Prior art keywords
calibration
motion
robot
camera
vision system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021172736A
Other languages
English (en)
Other versions
JP2022028672A5 (ja
Inventor
ドリクスラー ベルンハルト
Drixler Bernhard
インチュァン フー
Yingchuan Hu
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Cognex Corp
Original Assignee
Cognex Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Cognex Corp filed Critical Cognex Corp
Publication of JP2022028672A publication Critical patent/JP2022028672A/ja
Publication of JP2022028672A5 publication Critical patent/JP2022028672A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1692Calibration of manipulator
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/02Programme-controlled manipulators characterised by movement of the arms, e.g. cartesian coordinate type
    • B25J9/04Programme-controlled manipulators characterised by movement of the arms, e.g. cartesian coordinate type by rotating at least one arm, excluding the head movement itself, e.g. cylindrical coordinate type or polar coordinate type
    • B25J9/046Revolute coordinate type
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39057Hand eye calibration, eye, camera on hand, end effector

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Fuzzy Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Manipulator (AREA)

Abstract

【課題】ハンドアイ校正のモーションパラメータを自動的に決定し、人間の介入を最小限にして校正手順を実施するシステムと方法を提供する。【解決手段】事前校正中にハンドアイ校正のモーションパラメータと空間位置を自動的に計算し、それによって校正パターンが連続的に内部に留まることができて、ビジョンシステムカメラの全視野FOVをカバーし、全自動ハンドアイ校正プロセスを提供する。このシステムと方法は有利には、ロボットベースのハンドアイ校正環境で動作し、校正ターゲットとFOVとの間のカンチレバー効果を補償できる。ハンドアイ校正は、ロボット座標空間からカメラ座標空間への変換を計算する。これにより一般的にロボットを手動で一連の空間位置を経て移動させ、それらの位置でカメラが画像を取得し、各位置で校正特徴をオブジェクト上に置いてロボットとカメラとの関係を確定する必要がなくなる。【選択図】図5

Description

本出願は、マシンビジョンシステムに関し、より具体的にはそのようなシステムをロボットマニピュレータと組み合わせて校正するためのシステム及び方法に関する。
マシンビジョンシステム(本明細書では「ビジョンシステム」とも呼ばれる)では、1以上のカメラを使用して撮像されたシーン内のオブジェクト又は表面でビジョンシステムプロセスを実行する。これらのプロセスは、検査、シンボル体系のデコード、位置合わせ、及びその他の様々な自動化されたタスク、例えば1以上の自由度及び/又は寸法に関してオブジェクトを操作するために使用されるロボットアーム又はモーションステージの運動の制御などを含むことができる。より具体的には、ビジョンシステムを使用して、撮像されたシーン内で操作されている平坦なワークピースを検査することができる。シーンは通常1以上のビジョンシステムカメラによって撮像され、これらのビジョンシステムカメラは関連するビジョンシステムプロセスを操作して結果、例えば部品の位置合わせを生成する内部又は外部ビジョンシステムプロセッサを含むことができる。一般に、1以上のカメラが十分な精度と信頼性をもってビジョンタスクを実行できるようにするためにカメラを校正することが望ましい。カメラ校正するために校正オブジェクトを使用することができる。
校正オブジェクト(平面的な「プレート」の形態で構成されることが多い)は、その表面に特徴的な(しばしばモザイク模様の)パターンが見えるようにした平らな物体として設けることができる。この特徴的なパターンは、一般に慎重かつ精密に設計されているので、使用者はカメラで取得したプレートの画像中に見える各々の特徴を容易に識別できる。幾つかの例示的なパターンには、ドットグリッド、ライングリッド、十字、又は場合によってハニカムパターン、三角形のチェッカーボードなどを含むが、これらに限定されない。通常、各々の可視の特徴の特性はプレートの設計から、例えば設計内で暗黙的に定義された基準位置及び/又は座標系に対する位置及び/又は向きとして知られている。
校正オブジェクトはビジョンシステムに関して望ましい校正パラメータを得るために様々な方法で使用される。非限定的な例として、校正オブジェクトは、ロボットのマニピュレータ(又はエンドエフェクタ)に関して取り付けることができる。ロボットは、ビジョンシステムの座標空間に対してロボットの座標空間にとって望ましい校正パラメータを生成するために、校正オブジェクトを複数の別々の場所に移動させる。しかしながらマニピュレータのモーションは、いわゆるカンチレバー効果により校正オブジェクトの前部又は一部をビジョンシステムの視野外に置くことがある。このことは、校正プロセスの速度、精度及び/又は堅牢性を制限することにつながる。
本発明は従来技術の欠点を、ハンドアイ校正のモーションパラメータを自動的に決定し、人間の介入を最小限にして校正手順を実施するシステムと方法を提供することによって克服する。より具体的には、このシステムと方法は、事前校正中にハンドアイ校正のモーションパラメータと空間位置を自動的に計算し、それによって校正パターンは連続的に(常に)内部に留まる/維持されることができて、ビジョンシステムカメラの全視野FOVをカバーし、全自動ハンドアイ校正プロセスを提供する。このシステムと方法は、有利にはロボットベースのハンドアイ校正環境で動作し、校正ターゲットとFOVとの間のカンチレバー効果を補償できる。ハンドアイ校正は、ロボット座標空間からカメラ座標空間への変換を計算する。これにより一般的に(使用者が)ロボットを手動で一連の空間位置を経て移動させ、それらの位置でカメラが画像を取得し、各位置で校正特徴をオブジェクト上に置いてロボットとカメラとの関係を確定する必要がなくなる。
例示的な実施形態では、ロボットマニピュレータと連動して動作するビジョンシステムのハンドアイ校正を実行するためのシステムと方法が提供され、校正オブジェクトとビジョンシステムの視野(FOV)との間に相対運動が存在する。事前校正プロセスは、FOV内で3点校正を実行して、ロボットマニピュレータの座標空間からビジョンシステムカメラの取得した画像の座標空間への粗い変換を計算する。この粗い変換に基づいて、ハンドアイ校正を実行するために許容できる複数の位置でそれぞれ校正オブジェクト上の特徴の空間点を計算する。次に、ハンドアイ校正モジュールは空間点を使用してハンドアイ校正を実行する。例示的に、粗い変換は、ロボットマニピュレータによるモーションの反復セットと、校正オブジェクトの特徴を視野内に維持し、かつ、空間点の間に最小分離距離を設けるために、空間点の間のロボットモーションのステップサイズを調整することに基づいて計算される。空間点は、一部任意選択の使用者による入力に基づいて選択できる。一般に、ロボットマニピュレータは、校正オブジェクトとFOVとの間にカンチレバー効果を生じさせ、事前校正プロセスはこのカンチレバー効果を補償するように構成されることが想定されている。したがって事前校正プロセスは、校正オブジェクトがFOV内に留まるように空間位置を計算する。一例では、ビジョンシステムカメラは、ロボットマニピュレータに関して取り付けられていて、ロボットマニピュレータと連動して移動する。別の例では、校正オブジェクトは、ロボットマニピュレータに関して取り付けられていて、ロボットマニピュレータと連動して移動する。例示的に、ロボットマニピュレータは、多軸ロボットとモーションステージのいずれか1つを含む。ハンドアイ校正は、それぞれのモーションステップサイズを定義するモーションステップのシーケンスで実行でき、このモーションステップサイズは、(a)ビジョンシステムカメラの取得した画像ピクセルのサイズと、(b)現在のモーションステップまで取得した校正オブジェクトの画像の少なくとも1つから決定されたビジョンシステムカメラのFOVのサイズのうちの少なくとも1つに基づく。粗い変換は、(a)3段階モーションプロセスと、(b)校正オブジェクトの特徴を視野内に維持し、かつ、空間点の間に最小分離距離を設けるために、空間点の間のロボットモーションのステップサイズを調整することを伴う、ロボットマニピュレータによるモーションの反復セットのうちの少なくとも1つに基づいて計算される。
以下の発明の説明は、添付図面を参照している。
実施形態による、校正プレートを撮像するように向けられたエンドエフェクタにビジョンシステムカメラを取り付けたロボットマニピュレータアセンブリの図である。
別の例示的な実施形態による、ロボットのエンドエフェクタによって操作される校正プレートを撮像するために、ビジョンシステムカメラを遠隔に取り付けたロボットマニピュレータアセンブリの図である。
ビジョンシステムのカメラの視野(FOV)とロボットマニピュレータとの間の相対運動のために校正ターゲットに及ぼすカンチレバー効果を示す上面図であり、カンチレバーを補償するために本明細書のシステムと方法によって実行される調整を含む。
本明細書の事前校正プロセスに従って、特徴位置間の並進及び回転を提供するモーションステップのシーケンスを伴う、関連付けられた校正特徴(例えば十字線)を有する例示的な校正オブジェクトの上面図である。
校正モーションステップ中に校正ターゲットを連続的に視野内に維持する粗い空間位置を提供する事前校正手順を含む、カンチレバー効果の存在下でハンドアイ校正を実行する手順を示すフロー図である。
図5の事前校正プロセスにおいてステップサイズの調整を実行するためのより詳細な手順のフロー図である。
I.システムの概要
A.ロボットに取り付けたカメラと固定校正オブジェクト
図1は、固定されたベース111上に、ビジョンシステムカメラアセンブリ120を担持するように適合されたエンドエフェクタ112を有する多軸(例えば6軸)ロボットアーム110が図示されているロボットマニピュレータ構成100を示す。カメラ120は作業空間の周囲で操作され、その光軸OAと視野を校正オブジェクト/プレート130と位置合わせして向けることができる。オブジェクト130は、任意の適当な校正パターン及び関連する基準マーク、例えば十字線132を規定することができる。カメラは、複数の軸に沿った全範囲のモーションを経験できるように、エンドエフェクタ112に取り付けることができる。エンドエフェクタ112は、関心のあるオブジェクト(例えば位置合わせ又はピックアンドプレースを受ける部品)を移動させるためのマニピュレータ(グリッパ、吸引カップなど)も含むことができる。このようにしてビジョンシステムカメラアセンブリ120は、エンドエフェクタマニピュレータと連携して移動し、エンドエフェクタが作業空間の周囲を移動するときにそのモーションを案内する(及びオブジェクトと位置合わせする)ことができる。
カメラアセンブリ120は、画像センサS及び関連する固定した又は可変の光学系Oを含む。カメラアセンブリ120は、適当なデータリンク(有線及び/又は無線)を介してビジョンシステムプロセス(プロセッサ)140と相互接続されている。プロセス(プロセッサ)140は、(全体的又は部分的に)カメラアセンブリハウジング120の一部として、及び/又はPC、ラップトップ、サーバー、タブレット若しくはスマートフォンなど別個のコンピューティングデバイス150の内部で様々な方法でインスタンス化することができる。このコンピューティングデバイス150は、本明細書で説明されるように、ビジョンシステムのセットアップ及び/又は校正において使用者を支援するために使用することもできる。例としてコンピューティングデバイス150は、ディスプレイ及び/又はタッチスクリーン152、キーボード機能154、及び(例えば)マウス156を含む。
一般に、プロセス(プロセッサ)140は、カメラアセンブリセンサSから画像データ141を受信し、焦点情報、トリガなどのカメラ制御データ142を送信する。この画像データはビジョンシステムツール144によって処理される。ビジョンシステムツール144は既成又は特注のエッジファインダ、カリパ、コントラストツール、ブロブアナライザなどを含むことができる。これらのツールとプロセスは、マサチューセッツ州ナティックのコグネックスコーポレーションなどのベンダーから市販されている。プロセス(プロセッサ)140は、以下に説明するハンドアイ校正及びその他の校正技術に基づいてビジョンシステムの校正を受け持つ校正プロセス(プロセッサ)/モジュール144(全セットアップ構成の一部であり得る)も含む。ビジョンシステムプロセス(プロセッサ)140はまたロボット制御148のためのインターフェースも含む。このプロセス(プロセッサ)/モジュール148は、ロボット110に関する運動制御データ及び/又はフィードバック(例えばエンコーダパルス)149を送信/受信する。プロセス(プロセッサ)140は、より一般的に(例えば)ハンドアイ校正技術を用いて取得された校正パラメータを使用してカメラ座標空間170をロボットの運動座標空間172に変換する。ロボット座標空間170は直交軸X、Y及びZと相対回転θXR、θYR、θZRによって画定することができ、画像/カメラ座標空間172は直交軸X、Y及びZと相対回転θXI、θYI及びθZIによって画定することができることに留意されたい。このシステムと方法に従って適当な変換が生成されて座標空間170、172をマッピングする。このようにして、測定された校正パラメータに基づいて、ビジョンシステムによって追跡されるモーションがロボット内部のモーションパラメータに変換される。
校正プレートなどの剛体のハンドアイ校正を含む特定の校正原理を理解するための別の背景として、モーションは1対のポーズ、即ちモーション直前の開始ポーズと、モーション直後の終了ポーズによって特徴付けることができる。本明細書において「ポーズ」とは、基礎となる座標系においてある特定の瞬間における物体の状態を表わすための一連の数値、即ち当該物体の仮想特徴付けとして定義される。例えば2次元(2D)では、剛体は3つの数値、即ちXにおける並進、Yにおける並進、及び回転θによって特徴付けられる。3次元(3D)では、Z(高さ)における並進が、それぞれX軸、Y軸及びZ軸を中心とする追加の回転(例えばθ、θ、θ)と共に追加される(例えば図1の座標軸170の座標172参照)。校正プレートの関連におけるポーズは、カメラと校正プレートの間に相対運動がある場合に、校正プレートがどのようにカメラに提示されるかを表す。典型的に、標準的な校正、いわゆる「ハンドアイ校正」においては校正オブジェクト/プレートが、多数の異なるポーズでカメラに提示され、各カメラはそれぞれのポーズで校正プレートの画像を取得する。マシンビジョンのハンドアイ校正では、通常プレートは複数の所定のポーズに移動し、それらのポーズでカメラがプレートのそれぞれの画像を取得する。このようなハンドアイ校正の目標は、「運動座標系」においてカメラと校正プレートの剛体ポーズを決定することである。運動座標系は様々な方法で定義できる。ポーズ(校正オブジェクト/プレート及び/又はカメラが空間内のどこに存在するかを指定する)の数は、適当な座標系で解釈されるべきである。単一の統一された座標系が選択されたら、ポーズとモーションはそのグローバル座標系で記述/解釈される。この選択された座標系は、「運動座標系」と呼ばれることが多い。通常「モーション」は、ロボットアームなどの物理的運動やガントリーなどのモーションステージをレンダリングできる物理的デバイスによって提供される。オブジェクト/プレートは1以上の静止カメラに対して相対的に移動できるか、又はカメラが静止オブジェクト/プレートに対して相対的に移動できることに留意されたい。このようなモーションレンダリングデバイスのコントローラーは、デバイスに任意のモーションをレンダリングするように命令するために数値(即ちポーズ)を使用し、それらの値が当該デバイスの固有座標系で解釈される。任意の運動座標系を選択してモーションレンダリングシステムとカメラに関連する共通のグローバル座標系を提供できるが、モーションレンダリングデバイスの固有座標系を全体的モーション座標系として選択することがしばしば望ましいことに留意されたい。
したがってハンドアイ校正は、システムをモーションのレンダリング(校正プレートの移動又はカメラの移動)によって単一の運動座標系に校正し、当該モーションの前後の画像を取得してそのようなモーションが動くオブジェクトに及ぼす影響を決定する。別の背景として、これはカメラの外的ポーズを運動座標系で決定することを含まない(「ことがない」)典型的な内的及び外的カメラの校正とは異なる。このような場合、カメラは通常すべて、カメラの視野内の特定の位置にあるプレートの取得した画像を使用して、校正プレート自体の座標系に対して校正される。マシンビジョン校正ソフトウェアは、各カメラで取得したプレートの画像から各カメラの相対位置を推定する。この校正は「カメラをプレートに合わせて校正する」と言われるが、ハンドアイ校正は「カメラを運動座標系に合わせて校正する」と言われる。
したがって、ビジョンシステムがハンドアイ校正を採用している場合、そのソフトウェアは画像で観察されたモーション効果を命令されたモーション(命令されたモーションのデータは知られている)と相関させることによってポーズを解像する。校正のもう1つの結果は、カメラの画像内の各ピクセル位置と運動座標系における物理位置の間のマッピングであり、それにより画像空間内の位置を見つけた後で運動座標系における位置を変換でき、モーションレンダリングデバイスに命令してその上で動作させることができる。
再び図1の構成100を一般的に参照すると、ハンドアイ校正手順の間、校正オブジェクトが移動して到達する空間位置を使用者が決定(及び入力)することは普通である。この方策は時間がかかり、システム全体とそれに関連する視野を理解する必要があり、それにより校正手順に予期しないエラーを招く可能性がある。例えば幾つかのシステムは、ツールの先端をロボットのエンドエフェクタ112に取り付けて、校正オブジェクト130の刻印されたパターンと実際に接触させるために、使用者がロボットを動かしてエンドエフェクタ112を誘導する必要がある。代替として、一部のシステムは各運動軸(自由度)に沿った運動範囲とステップサイズの設定が必要であり、それにより校正オブジェクトのパターンがカメラの視野(FOV)の外に出るか、視野の非常に小さい部分しかカバーしないことがある。これは一部は、ロボットのエンドエフェクタ112及び/又はオブジェクト130の位置が、ロボットとオブジェクトが互いに対して回転するときのモーションに基づく異なる速度でビジョンシステムカメラ120の光軸OAからずれる、いわゆる「カンチレバー」(片持ち梁)効果の結果であり得る。この限られたデータセットの結果として、校正に失敗したり、ビジョンシステムの適用要件を満たさない校正になったりする可能性がある。慎重な手動操作と試験を通して満足できるハンドアイ校正を得ることが可能であるが、使用者(人間)の手順への介入を減らす又は排除することが望ましい。
B.遠隔に取り付けたカメラとロボットに取り付けた校正オブジェクト
図2を参照すると、ビジョン誘導ロボット装置200の別の実施形態は、多軸ロボットアームアセンブリ210を含むことができる。これは上述のロボットアセンブリ110とは異なるか、又は類似してよい。代替として、他のモーションデバイス、例えばモーションステージを本明細書に記載する任意の構成で使用することができる。この例示的な構成におけるエフェクタ212は校正オブジェクト/プレート230を担持して、(例えば)遠隔に固定して取り付けたビジョンシステムの視野FOV1に関して移動させる。カメラアセンブリはセンサS1と、関連する光軸OA1を画定する光学系O1を含んでいる。両構成100及び200において、カメラは一般に、校正オブジェクトによって画定される平面に対して垂直である。しかしながら、校正オブジェクトが、高さを含む3D特徴を定義でき、カメラアセンブリ120、220が、シーン及び/又は3Dセンサ、例えば飛行時間センサ、超音波センサ又はLIDARセンサに関して異なる向きで複数の個々のカメラを含んでよいことが明確に想定されている。上述のように、カメラアセンブリはビジョンシステムプロセス(プロセッサ)及び関連するコンピューティングデバイスと相互接続されて、運動制御データをロボット210に提供する。これらの構成の各々において、ロボットは異なる位置に移動して、校正オブジェクトのパターンの画像を様々なポーズで取得することができ、次にそれを使用して(例えば)ハンドアイ校正技術を用いて校正パラメータを計算する。
II.校正手順
上記の各構成において、校正オブジェクトの特徴をビジョンシステムカメラアセンブリの視野内に維持することは難しい場合がある。したがって例示的なシステムと方法は、ロボット/モーションデバイスのモーションパラメータを自動的に決定し、空間的位置を計算し、そして校正オブジェクトの特徴パターンをカメラの視野内に維持し、それによってカメラが校正オブジェクトの特徴の一部を除外する視野を画定する可能性がある、いわゆるカンチレバー効果を補償するハンドアイ校正法を提供する。
図3を参照すると、図示されたシーン300は、固定した又はロボットの取り付けた(動く)カメラアセンブリの視野FOV2に関して様々に配置された校正オブジェクト310及び310Aを示す。カンチレバーは、関連する延長部316、316A及び316Bで表されている。ロボット又はカメラが動くと、回転が延長部(カンチレバー)によって誇張されて、視野FOV2から超え出る。したがって、オブジェクト310Aに関して示されているように、校正手順の一部又は全部の間にロボットのステップモーションに起因して特徴の一部又は全部が視野FOV2の外部に移動した(矢印318)。その結果、適切な校正が損なわれ、又は得られない。逆に、本明細書のシステムと方法の教示に従い、オブジェクト(又はその必要な校正特徴-十字マーク312、312Aによって表される少なくとも1つの校正特徴)を完全に又は実質的に視野内に維持することは、適切な校正が行われ得ることを保証する。視野FOV2内で、カメラ及び/又はオブジェクトは取得されたフレーム間の運動(例えば、x-y並進及び回転)(矢印320))を経て、手順に必要な校正測定を達成する。
図4を参照すると、再びシーン4000にカメラの視野FOV3が示されている。校正特徴(十字410、410A及び410B)は、異なる軸(例えば図示のXとY及び回転θZI)に沿って若しくは周りに示されており、特徴410A及び410Bは見やすくするためにそれぞれ単体で示されている。これらの特徴410、410A及び410Bを校正位置と共に使用して、本システムと方法によるハンドアイ校正の結果を計算する。
要約すると、本システムと方法は、事前校正プロセスが視野内で3点校正を実行し、ロボット座標空間から画像座標空間への粗い変換を計算するように動作する。事前校正プロセスは自動的に視野に適合して、3点校正に使用する空間点を検索する。事前校正プロセスはまた、ロボット座標空間からカメラ座標空間への粗い変換と、カメラの視野のサイズに基づき、ハンドアイ校正のための空間位置を計算する。事前校正プロセスはロボットカンチレバーを補償することができ、校正ターゲットを連続的にカメラの視野内に維持する空間位置を計算する。次にハンドアイ校正プロセスは、事前校正結果から一連の位置に移動して画像を取得し、校正パターンを特定し、ロボット座標系からカメラ座標系への変換を計算する。
さらに図5の手順500を参照すると、事前校正プロセスはロボット又はエンドエフェクタに取り付けたカメラを(相対的に)動かして、校正パターンがカメラの視野の中心領域に来るように動作する(ステップ510)。次にステップ520で、システムは3点校正に使用する空間点を検索する。このステップで、事前に定義された小さいステップサイズ(モーション増分)が視野全体のサイズ及び/又は視野内の特徴の間隔に基づいて確定される。手順500は(決定ステップ530を介して)校正における空間点の有用性を決定する。次に手順500は自動的にステップサイズ(モーション増分)をビジョンシステムからのフィードバックに基づいて調整する(ステップ540)。
図6に調整ステップ540はさらに詳細に示されている。現在のステップサイズが確定され(ステップ610)、モーションの条件、即ち現在のステップサイズが大きすぎるか又は小さすぎるかが決定される。大きすぎるステップサイズが発生するのは、ロボットによるステップモーションが校正オブジェクトの特徴の一部又は全部をカメラの視野から外に移動させるときである。小さすぎるステップサイズが発生するのは、モーションが正確な校正の目的のために特徴を解像するには不十分なときである。これは各ステップで特徴間に画像内の所定の最小ピクセル距離を達成し損ねたことが原因である場合がある。大きすぎるステップが発生するのは、特徴の一部又は全部で特徴間の間隔が最大ピクセル距離を超える(又は校正オブジェクトの1つのエッジの少なくとも一部がステップ間で視野から出る)場合である。非限定的な例として、大きすぎるステップの乗数は1/2(半分)、小さすぎるステップの乗数は2(2倍)であり得る。他の乗数も明確に想定されており、基礎となる画像特性に基づいて固定又は可変であり得る。例えばステップが明らかに大きすぎる又は小さすぎる場合は、より大きい/より小さい乗数を使用できる。乗数が生成され(ステップ620)、新しいステップサイズを計算するために適用される(ステップ630)。次に、この新しいステップサイズがロボットに送信されて、そのモーションがマッピングされた座標空間に従って制御される(ステップ640)。手順500において調節ステップ/プロセス540は、モーションステップ間の点の満足できる(読み取り可能な)間隔が達成されるまで継続し、それから決定ステップ530はステップ560に分岐する。
手順500のステップ550で、3点校正が適当な(調整された)ステップサイズで識別された特徴点を使用して実行される。各ステップで識別された特徴に基づき、ロボット座標空間からカメラ画像座標系への粗い変換が計算される。次に、手順500はステップ560でこの粗い変換に基づいて校正位置を計算する。上記の手順ステップからの粗い変換を用いて、一連の変換/校正位置がカメラの視野内の運動空間を介して均等にサンプリングされる。これらの位置は使用者又は他のデータソースから、例えばセットアップ及び校正プロセスを実行するユーザーインターフェイスを使用して、任意選択の入力によってカスタマイズ可能である。一連の回転位置はまた任意選択でロボットのカンチレバーを補償し、角度範囲を指定することによって計算され、回転の中心が校正ターゲットから離れていて大きい角度が必要とされる場合でも校正パターンを視野内に維持する。これは回転と共に追加の並進を適用することによって実現できる(例えば図3の矢印320)。
ステップ560で位置が計算されると、次にロボットはこれらの計算された位置に移動され、オブジェクトの取得された画像内に各位置の校正特徴が識別される。これらの特徴は良好な校正結果を識別するために、図4の図に例示されているように、十分に並進/回転させなければならない。ビジョンシステムはこれらの特徴位置を使用して、本明細書に一般的に記載した技術に従いハンドアイ校正を実行する(ステップ570)。
上記のシステムと方法は、単一のビジョンシステムカメラと組み合わせて示されているが、本明細書の原理は、ステレオカメラ複数のカメラ及び/又は個別の画像センサに適用できることが明確に想定されていることに留意されたい。
III.結論
校正オブジェクトに対して移動するロボットを用いてハンドアイ校正を実行するための上記のシステムと方法が、片持ち式のロボットアームの回転が存在する場合などでロボットのモーションステップが大きすぎるか小さすぎる状況に対して、信頼性が高く計算効率的な解決を提供することは明らかであろう。特に本システムと方法は、ステップサイズを自動的に検索して、事前校正でオブジェクトスケール及び/又はモーションリミットがおおよそ計算される3点校正の明確な計算を提供する。より具体的には、本明細書のシステムと方法は、自動的にモーションパラメータを決定し、空間位置を計算して、校正パターンを連続的にカメラの視野内に維持する。より一般的には、本システムと方法は、望ましくは視野のジオメトリ及び校正特徴(例えば十字線)の相対的サイズに基づいてハンドアイ校正中のロボット(又は他のモーションデバイス)の運動範囲を決定する。したがって校正特徴が大きいほど、運動範囲は小さくなるので、特徴が常に/連続的に(即ち校正プロセスによって行われるモーションステップのシーケンス全体を通して)完全に視野内に留まることを保証する。
以上は本発明の例示的な実施形態を詳細に説明したものである。本発明の精神と範囲を逸脱することなく種々の改変及び追加を行うことができる。上述した種々の実施形態の各々の特徴は、関連する新しい実施形態において多数の特徴の組み合わせを提供するために適切である限り、別の記載された実施形態の特徴と組み合わされてよい。さらに、上に本発明の装置と方法の多数の別個の実施形態を記したが、ここに記載されたものは本発明の原理の応用を例示したものにすぎない。例えば3点ハンドアイ校正手順が採用されているが、(2次元又は3次元において)3点以上採用して校正結果を達成することができる。また、本明細書で使用される「プロセス」及び/又は「プロセッサ」という言葉は広く電子ハードウェア及び/又はソフトウェアをベースとする多様な機能及びコンポーネント(或いは機能的「モジュール」又は「エレメント」と呼ぶことがある)を含むものと解釈すべきである。さらに、表示されたプロセス又はプロセッサは他のプロセス及び/又はプロセッサと組み合わせ、又は種々のサブプロセス又はサブプロセッサに分割されてよい。そのようなサブプロセス及び/又はサブプロセッサは、本明細書に記載された実施形態に従って多様に組み合わせることができる。同様に、本明細書中の何らかの機能、プロセス及び/又はプロセッサは、プログラム命令の非一時的コンピュータ可読媒体からなる電子ハードウェア、ソフトウェア、或いはハードウェアとソフトウェアの組み合わせを用いて実施できることが明確に想定されている。さらに、本明細書で使用される様々な方向及び/又は向きを表わす用語、例えば、「垂直」、「水平」、「上」、「下」、「底部」、「頂部」、「側部」、「前部」、「後部」、「左」、「右」、及びこれに類するものは、相対的な表現法として用いられているにすぎず、重力の作用方向など固定した座標系を基準とした絶対的な向きを表わすものではない。加えて、何らかの測定、値又は特徴に関して「実質的に」又は「近似的に」という言葉が用いられている場合、それらは所期の結果を達成するための通常の操作範囲内にある量を指しているが、システムに許容された誤差の範囲内の固有の不正確さや誤りに起因するある程度のばらつきを含む(例えば1~2パーセント)。したがってこの説明は例示の方法によるものとしてのみ受け取られるべきであり、それ以外に本発明の範囲を限定することを意味するものではない。
以下に特許請求の範囲を記載する。

Claims (19)

  1. 校正オブジェクトとビジョンシステムカメラの視野(FOV)との間の相対運動を提供するロボットマニピュレータと連動して動作するビジョンシステムのハンドアイ校正を実行するシステムであって、
    上記システムは事前校正プロセスと、空間点を使用してハンドアイ校正を実行するハンドアイ校正モジュールとを有し、
    前記事前校正プロセスは、FOV内で3点校正を実行して、ロボットマニピュレータの座標空間からビジョンシステムカメラの取得した画像の座標空間への粗い変換を計算し、さらにこの粗い変換に基づいてハンドアイ校正を実行するために許容できる複数の位置でそれぞれ校正オブジェクト上の特徴の前記空間点を計算する、
    上記システム、
  2. 前記粗い変換は、ロボットマニピュレータによるモーションの反復セットと、校正オブジェクトの特徴を視野内に維持すること、かつ、空間点の間に最小分離距離を設けるために、空間点の間のロボットモーションのステップサイズを調整すること、に基づいて計算される、請求項1に記載のシステム。
  3. 前記空間点は、任意選択の使用者による入力に部分的に基づいて選択される、請求項2に記載のシステム。
  4. 前記ロボットマニピュレータは、校正オブジェクトとFOVとの間にカンチレバー効果を引き起こす、請求項2に記載のシステム。
  5. 前記事前校正プロセスは、前記カンチレバー効果を補償するように構成されていて、校正オブジェクトがFOV内に留まるように前記空間位置を計算する、請求項4に記載のシステム。
  6. 前記ビジョンシステムカメラは、ロボットマニピュレータに関して取り付けられていて、ロボットマニピュレータと連動して移動する、請求項4に記載のシステム。
  7. 前記ロボットマニピュレータは、多軸ロボットとモーションステージのいずれか1つを含む、請求項6に記載のシステム。
  8. 前記校正オブジェクトは、ロボットマニピュレータに関して取り付けられていて、ロボットマニピュレータと連動して移動する、請求項4に記載のシステム。
  9. 前記ロボットマニピュレータは、多軸ロボットとモーションステージのいずれか1つを含む、請求項8に記載のシステム。
  10. ハンドアイ校正は、それぞれのモーションステップサイズを定義するモーションステップのシーケンスで実行され、前記モーションステップサイズは(a)ビジョンシステムカメラの取得した画像ピクセルのサイズと、(b)現在のモーションステップまで取得した校正オブジェクトの画像の少なくとも1つから決定されたビジョンシステムカメラのFOVのサイズのうちと、のうちの少なくとも1つに基づく、請求項1に記載のシステム。
  11. 前記粗い変換は、(a)3段階モーションプロセスと、(b)校正オブジェクトの特徴を視野内に維持し、かつ、空間点の間に最小分離距離を設けるために、空間点の間のロボットモーションのステップサイズを調整することを伴う、ロボットマニピュレータによるモーションの反復セットと、のうちの少なくとも1つに基づいて計算される、請求項10に記載のシステム。
  12. ビジョンシステムカメラに関するロボットマニピュレータのハンドアイ校正の方法であって、
    校正ターゲットとビジョンシステムカメラの視野(FOV)との間の相対運動を提供して、ロボットマニピュレータの座標空間とビジョンシステムの座標空間との間の粗い変換を生成する事前校正プロセスを実行するステップと、
    事前校正プロセスの結果から複数の位置に移動して、各位置で画像を取得するステップと、
    画像内に校正オブジェクトの特徴を特定するステップと、
    ロボットの座標空間からビジョンシステムカメラの座標空間へのハンドアイ校正変換を計算するステップと、
    を含む上記方法。
  13. 前記粗い変換は、ロボットマニピュレータによるモーションの反復セットと、校正オブジェクトの特徴を視野内に維持し、かつ、空間点の間に最小分離距離を設けるために、空間点の間のロボットモーションのステップサイズを調整することに基づいて生成される、請求項12に記載の方法。
  14. 前記空間点は、任意選択の使用者による入力に部分的に基づいて選択されることをさらに含む、請求項13に記載の方法。
  15. 前記ロボットマニピュレータは、校正オブジェクトと前記FOVとの間にカンチレバー効果を引き起こす、請求項13に記載の方法。
  16. 事前校正プロセスは、カンチレバー効果を補償するように構成されていて、校正オブジェクトがFOV内に留まるように空間位置を計算する、請求項15に記載の方法。
  17. (a)ビジョンシステムカメラをロボットマニピュレータに関して位置決めして、ロボットマニピュレータと連動して移動させること、又は(b)校正オブジェクトをロボットマニピュレータに関して位置決めして、ロボットマニピュレータと連動して移動させること、をさらに含む、請求項14に記載の方法。
  18. ハンドアイ校正の変換を計算するステップは、それぞれのモーションステップサイズを定義するモーションステップのシーケンスを実行することを含み、前記モーションステップサイズは(a)ビジョンシステムカメラの取得した画像ピクセルのサイズと、(b)現在のモーションステップまで取得した校正オブジェクトの画像の少なくとも1つから決定されたビジョンシステムカメラのFOVのサイズと、のうちの少なくとも1つに基づく、請求項12に記載の方法。
  19. 前記粗い変換を(a)3段階モーションプロセスと、(b)校正オブジェクトの特徴を視野内に維持し、かつ、空間点の間に最小分離距離を設けるために、空間点の間のロボットモーションのステップサイズを調整することを伴う、ロボットマニピュレータによるモーションの反復セットと、のうちの少なくとも1つに基づいて生成する、請求項18に記載の方法。

JP2021172736A 2019-01-28 2021-10-21 ロボットモーション用のビジョンシステムの自動ハンドアイ校正のためのシステム及び方法 Pending JP2022028672A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US16/258,740 US11911914B2 (en) 2019-01-28 2019-01-28 System and method for automatic hand-eye calibration of vision system for robot motion
US16/258,740 2019-01-28
JP2020011262A JP6966582B2 (ja) 2019-01-28 2020-01-27 ロボットモーション用のビジョンシステムの自動ハンドアイ校正のためのシステム及び方法

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2020011262A Division JP6966582B2 (ja) 2019-01-28 2020-01-27 ロボットモーション用のビジョンシステムの自動ハンドアイ校正のためのシステム及び方法

Publications (2)

Publication Number Publication Date
JP2022028672A true JP2022028672A (ja) 2022-02-16
JP2022028672A5 JP2022028672A5 (ja) 2023-11-01

Family

ID=71732031

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020011262A Active JP6966582B2 (ja) 2019-01-28 2020-01-27 ロボットモーション用のビジョンシステムの自動ハンドアイ校正のためのシステム及び方法
JP2021172736A Pending JP2022028672A (ja) 2019-01-28 2021-10-21 ロボットモーション用のビジョンシステムの自動ハンドアイ校正のためのシステム及び方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2020011262A Active JP6966582B2 (ja) 2019-01-28 2020-01-27 ロボットモーション用のビジョンシステムの自動ハンドアイ校正のためのシステム及び方法

Country Status (4)

Country Link
US (1) US11911914B2 (ja)
JP (2) JP6966582B2 (ja)
KR (3) KR102458415B1 (ja)
CN (2) CN111482959B (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024048491A1 (ja) * 2022-08-30 2024-03-07 川崎重工業株式会社 ロボットシステム、および、ロボットシステムの制御方法

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7458741B2 (ja) * 2019-10-21 2024-04-01 キヤノン株式会社 ロボット制御装置及びその制御方法及びプログラム
US11529742B2 (en) * 2019-10-21 2022-12-20 Silicon Laboratories Inc. Control of low-cost robotics and method therefor
US11878432B2 (en) 2019-10-21 2024-01-23 Silicon Laboratories Inc. Low-cost robotics for placement of integrated circuit and method therefor
CN112001967A (zh) * 2020-08-14 2020-11-27 苏州华兴源创科技股份有限公司 相机指导机械手搬运物体的方法和装置
CN112045682B (zh) * 2020-09-02 2022-01-25 亿嘉和科技股份有限公司 一种固态面阵激光安装的标定方法
CN112223285B (zh) * 2020-09-30 2022-02-01 南京航空航天大学 一种基于组合测量的机器人手眼标定方法
CN112621743B (zh) * 2020-11-19 2022-11-25 深圳众为兴技术股份有限公司 机器人及其相机固定于末端的手眼标定方法及存储介质
CN112847350B (zh) * 2020-12-30 2022-03-25 杭州思锐迪科技有限公司 手眼标定方法、***、计算机设备和存储介质
CN113070876A (zh) * 2021-03-19 2021-07-06 深圳群宾精密工业有限公司 一种基于3d视觉的机械手点胶路径引导纠偏方法
CN113256708B (zh) * 2021-04-07 2022-09-20 深圳群宾精密工业有限公司 一种理论3d空间与实际机器人空间的标定方法
CN113240728A (zh) * 2021-04-08 2021-08-10 福建(泉州)哈工大工程技术研究院 一种基于深度学习的手眼标定方法
CN113211431B (zh) * 2021-04-16 2022-07-01 中铁第一勘察设计院集团有限公司 基于二维码修正机器人***的位姿估计方法
CN113208731B (zh) * 2021-04-23 2023-02-10 上海大学 基于双目视觉***的手术穿刺机器人手眼标定方法
CN113400298B (zh) * 2021-05-10 2022-04-08 埃夫特智能装备股份有限公司 一种无公共视野的多相机定位大工件及工业机器人位置补偿方法
CN113263501A (zh) * 2021-05-28 2021-08-17 湖南三一石油科技有限公司 一种二层台机械手控制方法、装置和存储介质
EP4101604A1 (en) * 2021-06-09 2022-12-14 Ebots, Inc. System and method for improving accuracy of 3d eye-to-hand coordination of a robotic system
CN113172636B (zh) * 2021-06-29 2021-11-02 深圳市越疆科技有限公司 一种自动手眼标定方法、装置及存储介质
CN113744341A (zh) * 2021-07-21 2021-12-03 北京旷视科技有限公司 机器人***的相机位姿标定方法、装置和电子设备
CN113733082A (zh) * 2021-08-16 2021-12-03 太仓攻壳科技有限公司 基于直线位移传感器的工业机器人运动学参数的标定方法
CN115892802A (zh) * 2021-08-26 2023-04-04 深圳市海柔创新科技有限公司 传感器装置的补偿参数生成方法及设备
CN113733088B (zh) * 2021-09-07 2024-05-14 河南大学 一种基于双目视觉的机械臂运动学自标定方法
CN114406985B (zh) * 2021-10-18 2024-04-12 苏州迪凯尔医疗科技有限公司 一种目标追踪的机械臂方法、***、设备及存储介质
CN114770461B (zh) * 2022-04-14 2023-12-01 深圳技术大学 一种基于单目视觉的移动机器人及其自动抓取方法
CN114700989A (zh) * 2022-04-24 2022-07-05 安吉八塔机器人有限公司 一种平面相机自动调平装置及其控制方法
CN114799803A (zh) * 2022-05-25 2022-07-29 天津大学 一种九轴串联式宏微结合装配机器人***
CN115284296A (zh) * 2022-08-31 2022-11-04 深圳前海瑞集科技有限公司 手眼标定方法、机器人及机器人作业方法
KR102592603B1 (ko) 2023-02-22 2023-10-23 주식회사 시스템알앤디 비전 검사 장비의 모니터링 방법
CN116038720B (zh) * 2023-04-03 2023-08-11 广东工业大学 一种基于点云配准的手眼标定方法、装置及设备

Family Cites Families (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5083073A (en) 1990-09-20 1992-01-21 Mazada Motor Manufacturing U.S.A. Corp. Method and apparatus for calibrating a vision guided robot
DE69224937T2 (de) * 1991-07-01 1998-10-22 Gen Electric Polycarbonat-Polysiloxan-Blockcopolymere
JP3483007B2 (ja) * 1994-04-28 2004-01-06 出光石油化学株式会社 変性ポリオルガノシロキサン及びその製造方法
JPH08118272A (ja) 1994-10-20 1996-05-14 Toyota Motor Corp ロボットのキャリブレーション方法
JPH08210816A (ja) 1995-02-03 1996-08-20 Fanuc Ltd ロボット−視覚センサシステムにおいてセンサ座標系とロボット先端部の関係を定める座標系結合方法
JP3831834B2 (ja) * 1997-11-06 2006-10-11 株式会社カネカ 硬化剤、該硬化剤を用いた硬化性組成物及び発泡性樹脂組成物、及び該発泡性樹脂組成物を用いた発泡体とその製造方法
CA2369845A1 (en) 2002-01-31 2003-07-31 Braintech, Inc. Method and apparatus for single camera 3d vision guided robotics
JP2005515910A (ja) 2002-01-31 2005-06-02 ブレインテック カナダ インコーポレイテッド シングルカメラ3dビジョンガイドロボティクスの方法および装置
DE10242710A1 (de) 2002-09-13 2004-04-08 Daimlerchrysler Ag Verfahren zum Herstellen eines Verbindungsbereiches auf einem Werkstück
JP2005247195A (ja) 2004-03-05 2005-09-15 Toyota Auto Body Co Ltd 車両用シート
DE102004024378B4 (de) * 2004-05-17 2009-05-20 Kuka Roboter Gmbh Verfahren zur robotergestützten Vermessung von Objekten
JP2007292113A (ja) 2006-04-21 2007-11-08 Ntn Corp 回転センサ付軸受
JP5083194B2 (ja) 2008-12-18 2012-11-28 株式会社デンソーウェーブ ロボットのキャリブレーション方法及びロボットの制御装置
EP2255930A1 (de) 2009-05-27 2010-12-01 Leica Geosystems AG Verfahren und System zum hochpräzisen Positionieren mindestens eines Objekts in eine Endlage im Raum
JP4763074B2 (ja) 2009-08-03 2011-08-31 ファナック株式会社 ロボットのツール先端点の位置の計測装置および計測方法
US11699247B2 (en) 2009-12-24 2023-07-11 Cognex Corporation System and method for runtime determination of camera miscalibration
US9393694B2 (en) 2010-05-14 2016-07-19 Cognex Corporation System and method for robust calibration between a machine vision system and a robot
JP5739892B2 (ja) 2010-08-26 2015-06-24 出光興産株式会社 ポリカーボネート系樹脂組成物
JP5371927B2 (ja) 2010-10-27 2013-12-18 三菱電機株式会社 座標系校正方法及びロボットシステム
CN102909728B (zh) * 2011-08-05 2015-11-25 鸿富锦精密工业(深圳)有限公司 机器人工具中心点的视觉校正方法
JP5561260B2 (ja) 2011-09-15 2014-07-30 株式会社安川電機 ロボットシステム及び撮像方法
EP2722136A1 (en) 2012-10-19 2014-04-23 inos Automationssoftware GmbH Method for in-line calibration of an industrial robot, calibration system for performing such a method and industrial robot comprising such a calibration system
US10953609B1 (en) * 2013-03-22 2021-03-23 Markforged, Inc. Scanning print bed and part height in 3D printing
ES2522921B2 (es) * 2013-05-17 2015-07-30 Loxin 2002, S.L. Cabezal y procedimiento de mecanizado automático con visión
JP6468741B2 (ja) 2013-07-22 2019-02-13 キヤノン株式会社 ロボットシステム及びロボットシステムの校正方法
US10112303B2 (en) 2013-10-25 2018-10-30 Aleksandar Vakanski Image-based trajectory robot programming planning approach
CN104827480A (zh) * 2014-02-11 2015-08-12 泰科电子(上海)有限公司 机器人***的自动标定方法
JP5850962B2 (ja) 2014-02-13 2016-02-03 ファナック株式会社 ビジュアルフィードバックを利用したロボットシステム
JP6164123B2 (ja) 2014-03-14 2017-07-19 信越化学工業株式会社 硬化性組成物、メソゲン基含有硬化物及びその製造方法
US9549781B2 (en) 2014-05-30 2017-01-24 The Johns Hopkins University Multi-force sensing surgical instrument and method of use for robotic surgical systems
JP6415190B2 (ja) 2014-09-03 2018-10-31 キヤノン株式会社 ロボット装置、ロボット制御プログラム、記録媒体、およびロボット装置の制御方法
KR101841684B1 (ko) 2015-10-15 2018-03-26 주식회사 삼양사 투명성 및 난연성이 향상된 폴리실록산-폴리카보네이트 공중합체 및 그 제조방법
CN106767393B (zh) 2015-11-20 2020-01-03 沈阳新松机器人自动化股份有限公司 机器人的手眼标定装置与方法
KR102073254B1 (ko) 2016-01-07 2020-02-04 주식회사 엘지화학 난연성 폴리카보네이트계 수지 조성물 및 이의 성형품
KR102314092B1 (ko) 2016-01-21 2021-10-19 현대중공업지주 주식회사 로봇의 캘리브레이션 장치 및 그 방법
JP6524971B2 (ja) * 2016-06-14 2019-06-05 株式会社デンソー 荷重変動検出装置
US10076842B2 (en) 2016-09-28 2018-09-18 Cognex Corporation Simultaneous kinematic and hand-eye calibration
KR102576842B1 (ko) 2017-01-04 2023-09-12 삼성전자주식회사 핸드-아이 캘리브레이션을 수행하는 로봇 및 전자 장치
DE102017107593B4 (de) 2017-04-07 2023-04-27 Deutsches Zentrum für Luft- und Raumfahrt e.V. Verfahren zum Bestimmen unbekannter Transformationen
KR102178647B1 (ko) 2017-12-26 2020-11-13 주식회사 엘지화학 폴리카보네이트계 수지 조성물 및 이의 성형품

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024048491A1 (ja) * 2022-08-30 2024-03-07 川崎重工業株式会社 ロボットシステム、および、ロボットシステムの制御方法

Also Published As

Publication number Publication date
CN111482959B (zh) 2023-08-22
CN117047757A (zh) 2023-11-14
KR20220098699A (ko) 2022-07-12
JP2020116734A (ja) 2020-08-06
KR102532072B1 (ko) 2023-05-11
US11911914B2 (en) 2024-02-27
KR20230070188A (ko) 2023-05-22
CN111482959A (zh) 2020-08-04
KR20200093464A (ko) 2020-08-05
JP6966582B2 (ja) 2021-11-17
KR102458415B1 (ko) 2022-10-25
US20200238525A1 (en) 2020-07-30

Similar Documents

Publication Publication Date Title
JP6966582B2 (ja) ロボットモーション用のビジョンシステムの自動ハンドアイ校正のためのシステム及び方法
TWI672206B (zh) 機械手臂非接觸式工具中心點校正裝置及其方法以及具有校正功能的機械手臂系統
US9519736B2 (en) Data generation device for vision sensor and detection simulation system
JP6505729B2 (ja) 視覚センサを用いるロボットシステムのための自動較正方法
JP6770605B2 (ja) 対象物の仮想組立により組立システムをトレーニングするためのビジョンシステム
KR102280663B1 (ko) 비전 가이드 로봇 암 교정 방법
JP7027299B2 (ja) ビジョンベース操作システムのキャリブレーション及びオペレーション
US20110320039A1 (en) Robot calibration system and calibrating method thereof
US9884425B2 (en) Robot, robot control device, and robotic system
JP2016185572A (ja) ロボット、ロボット制御装置およびロボットシステム
JPWO2018043525A1 (ja) ロボットシステム、ロボットシステム制御装置、およびロボットシステム制御方法
TWI699264B (zh) 視覺導引機器手臂校正方法
JP6869159B2 (ja) ロボットシステム
JP2019069493A (ja) ロボットシステム
EP4101604A1 (en) System and method for improving accuracy of 3d eye-to-hand coordination of a robotic system
US20190030722A1 (en) Control device, robot system, and control method
JP2019063955A (ja) ロボットシステム、動作制御方法及び動作制御プログラム
US20220395981A1 (en) System and method for improving accuracy of 3d eye-to-hand coordination of a robotic system
JP2019077026A (ja) 制御装置、ロボットシステム、制御装置の動作方法及びプログラム
JP6912529B2 (ja) 視覚誘導ロボットアームの補正方法
US20230123629A1 (en) 3d computer-vision system with variable spatial resolution
WO2023013740A1 (ja) ロボット制御装置、ロボット制御システム、及びロボット制御方法
WO2023102647A1 (en) Method for automated 3d part localization and adjustment of robot end-effectors
CN115397634A (zh) 取得机器人的控制坐标系中的视觉传感器的位置的装置、机器人***、方法以及计算机程序
CN114643577A (zh) 一种通用型机器人视觉自动标定装置和方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230201

A917 Reason for reinstatement of right to file examination request

Free format text: JAPANESE INTERMEDIATE CODE: A917

Effective date: 20230202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231021

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231227

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20240323

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240626