JPH08377B2 - ロボット不正確度修正方法 - Google Patents

ロボット不正確度修正方法

Info

Publication number
JPH08377B2
JPH08377B2 JP63189531A JP18953188A JPH08377B2 JP H08377 B2 JPH08377 B2 JP H08377B2 JP 63189531 A JP63189531 A JP 63189531A JP 18953188 A JP18953188 A JP 18953188A JP H08377 B2 JPH08377 B2 JP H08377B2
Authority
JP
Japan
Prior art keywords
robot
data
target
calibration
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP63189531A
Other languages
English (en)
Other versions
JPH01159186A (ja
Inventor
ウォルター・エドワード・レッド
ブラディ・リューベン・デイヴィース
ザグアン・ワン
エドガー・ラッセル・ターナー
Original Assignee
ウォルター・エドワード・レッド
ブラディ・リューベン・デイヴィース
ザグアン・ワン
エドガー・ラッセル・ターナー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ウォルター・エドワード・レッド, ブラディ・リューベン・デイヴィース, ザグアン・ワン, エドガー・ラッセル・ターナー filed Critical ウォルター・エドワード・レッド
Publication of JPH01159186A publication Critical patent/JPH01159186A/ja
Publication of JPH08377B2 publication Critical patent/JPH08377B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/418Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM]
    • G05B19/41815Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM] characterised by the cooperation between machine tools, manipulators and conveyor or other workpiece supply system, workcell
    • G05B19/4182Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM] characterised by the cooperation between machine tools, manipulators and conveyor or other workpiece supply system, workcell manipulators and conveyor only
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1692Calibration of manipulator
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/37Measurements
    • G05B2219/37525Mean, average values, statistical derived values
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/37Measurements
    • G05B2219/37619Characteristics of machine, deviation of movement, gauge
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39057Hand eye calibration, eye, camera on hand, end effector
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/45Nc applications
    • G05B2219/45083Manipulators, robot
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/49Nc machine tool, till multiple
    • G05B2219/49195Slide, guideway, robot arm deviation
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • General Engineering & Computer Science (AREA)
  • Manufacturing & Machinery (AREA)
  • Quality & Reliability (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Numerical Control (AREA)
  • Manipulator (AREA)

Description

【発明の詳細な説明】 (産業上の利用分野) 本発明はロボットタスクのオフラインプログラミング
を可能にする装置及び方法に関する。より詳しくは、本
発明は行われるロボットタスクに関して高度の正確度及
び融通性をもってオフラインプログラミングを可能にす
るロボット不正確度をマッピングし且つ吸収する方法に
関する。
(従来の技術) ロボット機構は組立ライン構成でそれぞれのタスクを
行う製造生産内で益々使用されている。ロボットのかか
る使用は自動車生産ラインからコンピュータ産業内のマ
イクロチップの製造まで及んでいる。現在、ロボット工
学の増大した市場膨張を制限する主な要因は非常に制限
された許容範囲内で行うための在来のロボットシステム
の無能力である。固有のロボット不正確度はこの障害の
重大な一因であり且つ長年にわたって研究の対象であっ
た。
ロボットの不正確度はロボットの作業量内で位置及び
/又は配向によって規制される指令姿勢へ移動するため
のロボットの無能力を示す。例えば、ロボット制御プロ
グラムは、ロボット構造及びロボットが配向される知覚
基準フレームの機械的仕様に基づいて空間中の特定点ま
でロボット腕を移動させることを指示することができ
る。しかしながら、製造及び配置に最善の注意を払って
も、指令された移動の実際の性能はロボット腕を所望の
配置及び/又は配向で正確に配置しない。ロボット不正
確度として知られるこの状態は完全な又は理想的なロボ
ットモデルに従うようにそれぞれのロボット構成部品の
それぞれを製造し且つ組立てるための我々の無能力の結
果である。それよりも、部品長さ、応力下のコンプライ
アンス、不完全な歯車整合の僅かな偏差、及び多くの他
の構造的な制限が理想的な数学的モデルと一致しないロ
ボットタスク性能の一因となる。従って、ロボット不正
確度の存在はタスク配向作業隔室内でのロボット移動を
予めプログラミングすることに関する主な障害を提起し
ている。簡単に述べれば、ロボットの正確な位置又は移
動を予測することの不能力はロボット移動の正確な経路
をプログラムする能力を制限する。従って、産業界はオ
フラインプログラミングを提供する多くの利点にもかか
わらずロボットタスク性能のプログラミングの別の形式
に頼らねばならなかった。
ロボットをプログラミングするための主な別の方法の
2つは感知システム及びテーチペンダント(teach pend
ant)方法の使用を含む。テーチペンダントプログラミ
ング方法は繰返しタスクの性能に関する現代のロボット
工学で応用される有力なプロセスである。この方法は、
ロボットを一連の必要な中間構成又はジョイント状態を
通して導き且つ次に該ジョイント状態をロボットコンピ
ュータ記憶装置に記憶することによって行われる。ロボ
ットは記憶されたデータに基づいてこれら構成又はジョ
イント状態を再現し得るので、ロボットタスクは通例の
許容範囲限界内で行われ得る。最終結果はロボットが命
じられた移動経路に沿って行われる正確なタスクを「教
えられる」ことである。ロボットの制御ドライバはテー
チペンダント方法によってプログラムされた一連のジョ
イント状態及び移動を簡単に再現する。
多数の重大な制限がこの形式のロボットタスクプログ
ラミングに関して存在する。例えば、1つのロボットに
教えられたプログラムは同じモデルの他のロボットへ転
送し得る。事実、各別個のロボットはジョイント不整
合、ジョイントコンプライアンス、歯車列誤差、標準公
差偏差等によるはっきりした構造上及び製造上の偏差を
もつ。加えて、複雑な移動経路は、プログラムするのに
非常にのろく且つ作動中に通常不充分である多くの中間
ジョイント姿勢を必要とすることがある。更に、動的な
又は密集した作業空間でのロボット移動経路は教えるの
に非常に困難であることがある。加えて、作業空間ハー
ドウエアとの不注意な衝突の確率が大きく増大される。
実際的見地から、テーチペンダントは組立ライン動作
でのロボットタスク性能の融通性を厳しく制限する。例
えば、タスク性能の許容し得ない偏差又は変化は1つだ
けのロボット素子の修正を必要とするとしても組立ライ
ン全体を停止することを必要とする。ロボットが多くの
組立ラインタスクを行う場合には、テーチペンダント方
法による必要な再プログラミングのための無効生産時間
は非常にコストがかかることがある。このようなテーチ
ペンダントプログラミングは、プログラミングに従って
ロボットを移動させる試みが配向の同時損失を伴う基準
の変化されたフレームをもたらすので実際の作業隔室中
で実施されねばならない。これらのテーチペンダント制
限は多大な人員の時間を消費し且つ多くの製造ライン内
でのロボットタスク性能の利用を厳格に束縛することは
当業者に知られている。
ロボットプログラミングの第2の方法はロボット末端
奏効体を目標物又は他の機構と適当な相互作用するよう
に移動させるセンサシステムを使用することに依存す
る。この方法は典型的には作業隔室中での目標物の部品
が同じ配向又は位置で送出されない時又は該部品が動的
に変化する或る物理的特性を有する時に使用される。こ
の場合、実際の移動を繰返すためのロボットの能力は新
規の配向又は位置をもつ部品に適合する融通性を提供し
ない。従って、カメラや画像システムのような感知装置
がロボットの遠位リンクに結合されることができ且つロ
ボットを検知した目標位置へ向けるサーボシステムに応
じて移動させるようにプログラムされることができる。
あいにく、センサ案内システムは非常に高価であり且つ
特別の取付具、実質的なコンピュータ支援及び高価なプ
ログラミング労作を必要とする。それ故、経済的制限は
ロボット工学でのセンサ駆動システムに対する非常に制
限された商業的応用をもつ。
加えて、これら2つの方法のいくつかのハイブリッド
アプローチが利用されている。例えば、若干のタスクで
は、多くの大域的移動がテーチペンダント方法によって
教えられるが、局在領域内での移動はセンサシステムに
よって行われる。他のタスクでは、センサシステムは一
部送出中の小さな偏差を認識するために使用されること
ができ、テーチペンダント方法は逸れた経路を維持する
ように適用される。この方法はロボットを部品の剛体姿
勢の変化に適合させるが、部品が小さな変化を受けると
き又はタスクが緊密なロボット−部品相互作用許容範囲
を要求しないときにだけ有効である。
要約すると、ロボット繰返し性及びロボット不正確度
はロボットのプログラミングに対する臨界的制限を課す
る位置決め因子を構成する。オンラインテーチペンダン
ト方式はロボット繰返し性を利用してロボット不正確度
問題を克服するが、その融通性で厳しく制限され且つ高
価なツーリング及び人員時間の前進投入を必要とする。
センサ基礎システムはフィードバックを使用して繰返し
性及び正確度の制限を克服するが複雑であり且つプロセ
スを遅くし且つ繰返し性を低下する傾向のある有意な計
算動力を必要とする。
これらの制限は部品送出、作業隔室作動環境及び変化
する処理能力要求の偏差を含む作業隔室中に変化を吸収
し得るより融通性あるロボット応用を実現する努力につ
いての一層の研究及び開発を促進してきた。若干の試み
がロボット移動を処理するための基礎として作用する基
準フレームを築くためになされているが、かかる基準フ
レームは局在作業領域に反対する大域的技術に頼ってい
る。大域的方法はロボットの全体の作業量にわたるロボ
ット不正確度を決定することを求め且つロボット誤りの
運動学的及び動的ハードウエアを予測し又は測定するモ
デル化方法を使用する。例えば、上記誤りは不適当な配
向、ジョイント配置の誤り、伝達システム誤り、負荷下
のロボットコンプライアンス、エンコーダセンサ読取り
誤り等を含む。一旦これらの誤りが決定されると、方法
は数学的修正モデルが理想的なロボットモデルからの偏
差を修正するために作成され得ることを示唆する。
前記大域的技術は、それらが空間中の特定の点を正確
に確定しようと企て且つ次にその点へのロボット経路を
同じにしようと企てるので、ロボット不正確度の測定に
ついて好結果を得るとは判明していない。かかるステッ
プは正確なロボット基礎基準フレームがロボットシャシ
ーに対して配置されていることの知識を要求する。この
概念は、それがロボットの実際の物理的位置ではなく想
像であるので管理するのに困難である。加えて、大域的
環境での与えられた点を確定する複雑さは管理不能にす
る。プログラミングの複雑さ、広範囲の記憶装置記憶要
求及び実験的複雑さは大域的な方法をロボット特性の変
化及びロボット不正確度を吸収する基礎にする全ての試
みを失敗させている。
ロボット正確度を改善するための他の関連したアプロ
ーチは運動学的誤りをソフトウエアで補償する試みをも
ってロボットの運動学的パラメータを確定することを含
んでいる。Hayati,S.の「ロボット腕幾何学的リンクパ
ラメータ評価」、決定及び制御の第22回IEEE会議の会
報、1477〜1483頁、1983年12月。他の研究者はジョイン
ト軸不整合がロボット位置決め正確度に大きく影響する
ことを示しており且つ軸位置及び配向の誤差を識別する
方法を開発している。Mooring,B.W.の「6軸ロボットの
運動学的パラメータを識別するための改良された方
法」、テキサス・エイ・アンド・エム・ユニバーシテ
ィ。これらのシミュレーション方法は測定誤差を完全に
つかまえていない。他の刊行された文献は改良され且つ
関連した較正方法を提供するのが依然として許容し得る
正確度データを達成するに必要な測定誤差を克服してい
ない。Whitney,D.E.,C.A.Lozinski及びJ.M.Rourkeの
「工業的ロボット較正方法及び結果」、ASMEの工学での
コンピュータ会議の会報、92〜100頁、ネバタ、ラスベ
ガス、1984年8月。最終に、ロボット制御器により2次
非線形運動効果を補償する数学的モデルを確定する試み
がなされているが、これは絶対空間に関係しており且つ
位置決め正確度を予測するためのマニプレータ動的効果
をつかまえていない。更に重要なことは、これらの技術
の全てが大域的方法を利用してロボット正確度を確定す
ることを試みていることである。
(発明が解決しようとする課題) ロボット不正確度を補償する方法を提供することは本
発明の目的である。
ロボットタスクのオフラインプログラミングを可能に
する方法を記述することは本発明の別の目的である。
本発明の更に別の目的は目標物に関してプログラム可
能なロボットの配向及び/又は位置正確度を改善する方
法を提供することである。
本発明の更に別の目的はロボット移動制御システムの
部分としてロボットの遠位リンクに取付けられた末端制
御フレームの位置を較正する方法を提供することであ
る。
本発明の更に別の目的は処理の正確度を改善し且つロ
ボットタスクの部分として処理するために目標物の機構
をマッピングする方法を提供することである。
(課題を解決するための手段及び作用) これらの及び他の目的は次の配向ステップによって特
徴とされる方法で実現される。最初に、ロボットは目標
物に関して配置され、末端奏効体は目標領域を含む移動
範囲を有する。複数個の基準位置が識別され且つこれら
位置に関する識別データがデータ処理ユニットに生じ且
つ記憶される。ロボット末端奏効体は次に較正位置と称
せられる基準位置近くへ移動される。ここで、ロボット
に結合されたセンサは較正位置又は機構の存在を検知す
る。この位置は同じ較正位置に関係する初めに記憶され
た情報データと比較される。位置差に基づく剛体誤差修
正はデータ処理ユニット内で発展され且つ記憶される。
末端奏効体は次に第2基準位置に関するロボットの適正
な配置をより正確に予測するために剛体修正を適用する
ことによって修正される初めに記憶された識別データに
基づいて第2基準位置へ移動される。ロボット末端制御
フレームの不正確度マッピング及び較正を含む他の関連
したステップは開示される。
本発明の他の目的及び特徴は添付図面と関連した以下
の詳細な説明から当業者に明らかになろう。
(実施例) 本発明者は相対的な基準フレームが大域的基準フレー
ムに対抗して利用されるロボットタスクのオフラインプ
ログラミングが作成され得ることを発見した。特に、こ
こに開示される発明方法は、ロボット移動を大域的基準
フレームに関係づけようとするのではなく、局部的な機
構又は基準フレームと相対的な基準で比較される空間的
な関係及び配向に基づいている。この方法は、ロボット
が操作し又は使用する目標部品の幾何形状が或る許容し
得る公差内で区別されることを採る。更に、発明の重要
な観点は、好結果のオフラインプログラミングが大域的
基準フレームに対抗する相対的情報に基づく方法論で可
能となる前提によって特徴づけられる。該前提は大抵の
ロボットが満足し得る公差内で繰返すことができること
及びロボットが操作する目標部品が事前に満足し得る公
差に製作されていることに頼る。この前提の故に、ロボ
ットの繰返し性がロボットタスクの所望の公差よりも小
さくなければならないことは当業者に明らかであろう。
また、ロボットが操作する部品の幾何形状仕様が必要と
されるロボット作業隔室に接近され且つ通過され得るこ
とは必要である。
概して、本方法は目標部品上の既知の機構を見又は触
針するための視覚システム及び接触プローブのようなセ
ンサの使用を組入れる。センサシステム及び作業隔室レ
イアウトはこれらの機構がロボットの手動制御によって
又はオフライン計画された経路を使用することによって
接近され得るように設計される。この選択はセンサシス
テムの能力及び作業隔室の初めの幾何形状レイアウトの
正確度のような因子に依存してなされる。
開示した方法を実行する際に、部品が許容し得る公差
内で作業隔室へ繰返し様式で送出されること及び部品の
幾何形状が該公差内にあることは一般的に仮定される。
これらの条件が満足される場合に、該方法論は目標部品
上に配置された既知の幾何形状の機構に接近するセンサ
システムの使用を含む。実際の幾何形状及びセンサ測定
の幾何形状の間の差は部品に対して測定されたロボット
不正確度である。この不正確度が選択された機構におい
て知られると、ロボットはロボット不正確度の内挿及び
外挿された予測を用いて他の部品相互作用点へより正確
に移動するように指令され得る。この予測されたロボッ
ト不正確度に基づいて、誤差修正アルゴリズムが適用さ
れてオフライン計画された経路を逸らせ且つ有効なロボ
ット正確度を絶対値の指令と同等又はそれ以上に改善す
る。
簡単な情況では、一般的方法は目標部品上又は目標位
置での第1基準機構の識別を含む。この機構はロボット
に対する剛体姿勢修正をするために利用される。他の基
準機構又は位置は概ね第1基準機構に対して決定される
が、他のそれぞれに対しても決定され得る。機構の相対
的幾何形状は次に大域的移動ではなく相対的基準で起こ
るロボット不正確度を決定するために利用される。この
方法は、ロボット不正確度を大域的に決定する必要はな
く局在領域で決定するだけであることで従来技術により
優る主要な利点を提供する。典型的には、これらの領域
はロボットが目標部品との相互作用を実際に行っている
空間量である。更に、不正確度測定は大域的位置決めを
必要とし得る独立の測定装置によってなされる必要がな
い。
製造への応用に関連して、これは、繰返し送出され且
つ公差内にある部品が部品に対するロボット不正確度に
ついて最初にマップされ又は測定され得るという重要な
利点を提供する。マッピング後、センサシステムはオフ
にされることができ且つロボットタスクは繰返し行われ
ることができる。臨時のマッピングは部品及びロボット
が所望の公差内で作動していることを確かめるために実
行され得る。この方式では、方法は統計的プロセス制御
のために使用され得る。
ここに開示されるオフラインプログラミング技術は、
作業隔室及びロボットツール幾何形状がロボット構成に
対するロボット基礎フレームに対して知られていること
を採る。一般に、この情報は製造者によって供給され又
は別途決定されることができる。大域的オフライン技術
は、ロボットがジョイント不整合、ジョイントコンプラ
イアンス、歯車列誤差等のために空間中の大域的位置へ
正確に移動することを指令され得ないので失敗である。
ロボットフレームから分離した目標部品は視覚システム
のようなセンサによって配置される。該部品は相対的ジ
ョイント変換を用いて視覚カメラフレーム(基準フレー
ムとも称する)に対して配置される。これらの部品がロ
ボット基礎フレームに配置されると、逆運動解法がロボ
ットツール又は末端奏効体を所望の作動点へ移動させる
ロボットジョイント値を決定する。
較正技術は、基礎フレーム、中間リンク、遠位リンク
(遠位リンクフレームを含む)及び末端奏効体と関連し
た末端制御フレームを含むロボットの種々の要素に関し
て適用される。この較正技術の目的はロボット構成部品
に沿う正確な相対的位置及び配向の測定を確立するにあ
る。明らかに、この相対的位置及び配向の測定が知られ
ると、1つのロボット構成部品の特定の位置配向の決定
が基礎フレームから末端制御フレームを通しての全ての
他のロボット構成部品の特定の位置及び配向の決定を可
能にする。
本発明はロボット較正の2つのレベル、即ちオフライ
ン較正及びオンライン較正を開示する。オフライン較正
技術はロボット遠位リンク又はロボット腕の最後のリン
クに取付けられる末端奏効体の末端制御フレーム(TC
F)を正確に配置するために使用される。ロボットテー
チ末端読出しは末端奏効体TCF配置を決定するために使
用される。オンライン較正は、作業空間中での部品に対
するロボットTCFを配置し且つそれによりロボットの作
業空間の局在領域中でのロボット不正確度を補償するた
めに使用される。これらの較正方法は局在基準機構を利
用するので、ロボット不正確度は組立に要求される所望
の公差より小さい。加えて、較正データの統計的平均化
はロボット位置誤差のいくつかを補償するために利用さ
れる。
マニプレータ及びロボットタスクのシミュレーション
(SMART)は較正タスク及び作業タスクの両方のオフラ
イン計画のシミュレーションソフトウエアで開発されて
いる。較正経路は、一体化され、ロボット制御器へ下負
荷され且つ実行される時に、部品配置について識別され
る所望の較正機構に近いカメラのような視覚システムを
ロボットが移動させる一組のロボット構成である。作業
経路は、一体化され、ロボット制御器へ下負荷され且つ
実行される時に、ロボットがロボットツールを所望の作
動点へ移動させる一組のロボット構成、速度設定、つか
み/置き指令等である。
ロボット不正確度及び作業隔室幾何形状不確実性の故
に、コンピュータシミュレーションによって計画された
オフライン経路は誤差を償うために修正されねばならな
い。これらの誤差は視覚システム又は他の感知手段によ
って測定される。予測される作業経路を動揺し又は調節
する予め計画された経路内の適当な制御点を使用し且つ
同様なカルテシアン経路形状を維持する準拠した経路偏
差アルゴリズムは展開される。かかる手順はより詳細に
後述される。
開示される較正方法の最初はロボットの遠位リンクに
取付けられた末端奏効体及びセンサに関係するTCF位置
の較正に関係する。これらの関係は第1図を参照すると
より良く理解されよう。この図は基礎基準フレーム11、
中間リンク12、13及び14を有するロボット10を示す。遠
位リンク15はロボット腕の最終リンク及び遠位フレーム
16を備える。カメラ、グリッパ又はツールのような末端
奏効体17は遠位リンク16に結合されている。末端制御フ
レーム(TCF)18は末端奏効体と関連し且つその基準フ
レームを提供する。これらのフレームは、マニプレータ
大域的フレーム(XYZ)、末端奏効体又は視覚TCFフレ
ーム(XYZ)及びロボット末端フレーム又は遠位フレ
ーム(XYZ)として図式的に識別される。
TCF位置を較正する目的はこのフレーム18を遠位フレー
ム16に関して確定することである。マニプレータフレー
ム11に関する遠位フレームの相対的位置が知られるの
で、この較正技術は3つの基準フレームの全てを一緒に
結びつける。ロボットのコンピュータデータ処理及び記
憶ユニットは1つの要素の位置を与えられるとこれら要
素のどの相対的位置をも即座に計算することができる。
方法は指示手段19が遠位フレーム16のZ軸線と平行に
整合されるように細長い指針のような指示手段19をロボ
ット遠位リンク15に取付けることによって実施される。
第1基準点は作動距離内でロボットから離れた空間に選
ばれる。第1図でこの基準点は品目20として表示され且
つ較正板21上の腐食マークを備えることができる。ロボ
ットは次に第1姿勢へ移動され、そこで指示手段の指示
端は第1基準点に配置される。この第1姿勢を表すロボ
ット位置決めデータは後の再現及び比較のためにロボッ
トコンピュータに記憶される。カメラのような末端奏効
体17は遠位リンクに結合され且つ基準点(図示せず)を
含む。
ロボットは次に第2姿勢へ移動され、そこで末端奏効
体基準点は第1基準点に配置される。品目20は大きな矩
形として図示されているが、基準点は指針19と一致して
作られ得る単一の点である。この最後のステップの第2
ロボット姿勢のロボット位置決めデータは後の再現及び
比較のためにコンピュータ手段に記憶される。
TCF位置の較正の次のステップは差の検知のために第
1及び第2姿勢を表す記憶された位置決めデータを比較
することを含む。これらの差はロボットコンピュータ内
で処理されてTCFのオフセット位置をロボット遠位フレ
ームに関して確定する。このステップは第2(b)図及
び第2(c)図の構成を合併することによって導かれ得
る次の式を用いて行われる。ステップのこの順序から、
X及びYについて解かれ得る一連の式を生成することが
可能であり、TCF原点位置はロボット遠位リンクフレー
ムに次のように対応付ける。
X=(X2−X1)S2−(Y2−Y1)C2 式(1) Y=(X2−X1)C2+(Y2−Y1)S2 式(2) 式中、Si=Sin θ、Ci=Cos θ、及びX1,Y1,X2,Y
2及びθはロボットテーチ末端読出し値である。
視覚検査、ロボットエンコーダ及びデコーダ誤差、歯
車バックラッシ、制御器誤差等のような源からのロボッ
ト不正確度のため、同じ較正手順が多数の無作為に選ば
れた作業空間位置22(その他は図示せず)について行わ
れる。統計的平均が次に最良のTCF変換マトリックスを
決定するために使用される。かかる手順は次の方法ステ
ップ内に組入れられる。追加の基準点22が選ばれ且つロ
ボットは第1姿勢位置へ移動され、そこで指示端19は追
加の基準点に配置される。第1ロボット姿勢を表すロボ
ット位置決めデータは後の再現及び比較のためにコンピ
ュータに記憶される。ロボットは次に第2姿勢へ移動さ
れ、そこで末端奏効体基準点は追加の基準点22に配置さ
れる。位置決めデータは再び記憶され且つデータの比較
は末端制御フレームのオフセット位置を確定する信号の
適当な処理でなされる。基準とされる統計的平均は最良
のTCF変換マトリックスを見つけるために処理され得る
差の値の実質的な統計的基礎を発展させるように上記手
順を繰返すことによって導かれる。
TCF位置が確定されると、TCF配向の較正が必要とな
る。この情報は組立又はロボット使用が位置及び配向の
両方の決定を必要とする時に要求される。この配向は末
端奏効体の作動距離内でロボットから離れた空間中の第
2基準点を選ぶことによって決定される。ロボットは次
に第1姿勢へ移動され、そこで指示手段19の指示端はこ
の第2基準点22に配置される。この第2基準点での第ロ
ボット姿勢を表す位置決めデータはコンピュータ記憶装
置に記憶される。ロボットコンピュータは次に第1及び
第2基準点の記憶された位置決めデータを処理して第1
及び第2基準点を結ぶ線の配向ベクトルを識別する。こ
の線及びベクトルはTCFに関して確定された配向を有す
る。この配向データは後の再現及び処理のためにコンピ
ュータ手段に記憶される。
ロボットは次に第3姿勢へ移動され、それによりTCF
に対するベクトルの配向は確定され得る。この第3姿勢
情報も記憶され且つコンピュータは計算されたデータを
処理して末端遠位フレームに関するTCFの相対的な配向
を確定する。これらのステップは次のように第3図に関
して詳しく説明される。
前述の較正方法で見出されたTCF位置座標を用いて、
2つの任意点が点p及びqに選ばれる。これは末端奏効
体TCFの中心が任意に選ばれた点pになるような位置へ
ロボットを移動することによって行われる。この現在の
ロボット位置は次にロボットテーチ端子から読まれる。
ロボット大域的座標のqの位置は簡単に識別され得る。
ロボット大域的フレームの配向ベクトルpq=p−qは上
記ステップ1で得られた情報を用いてαで表示される。
この角度は次の式で表示される。式中Xp、Xq、Yp、Yq
ロボット大域的フレームのp及びqの位置座標である。
α=arctan(Yq−Yp,Xq−Xq−Xp) 式(3) ロボット腕は次に末端奏効体に対するベクトルpqの配
向(第3図に示すように角度ガンマ)が得られるような
位置へ移動される。再び、現在のロボット位置がロボッ
トテーチ端子から読まれる。視覚カメラ及び奏効体につ
いて、角度ガンマは次の式(4)から決定され得る。
γ=arctan(Yqv−Ypv,Xqv−Xpv) 式(4) 式中、Xpv,Ypvは視覚スクリーン座標でのpの位置で
あり、且つXqv,Yqvは視覚スクリーン座標でのqの位置
である。この順序から、一組の式が生成されることがで
き、且つTCF配向βが次式で決定され得る。
β=arctan〔(Cos(α−θ−γ), Sin((α−θ−γ)〕 式(5) 軸対称でない他の末端奏効体について、末端奏効体の
TCF空間X軸はγが零になるようにベクトルpqと整合さ
れる。上述したTCF配向較正手順はロボット遠位リンク
に取付けられるどの末端奏効体についても使用され得
る。最良のTCF配向の統計的平均化は前述した手順を用
いて行われ得る。
オンラインロボット較正は実行時間で行われる。視覚
カメラ、較正されたTCF幾何形状情報及び予め処理され
たデータベースからの加工品幾何形状情報を用いること
によって、オンライン較正は作業空間での加工品の相対
的位置を決定する。これは本書の他の部分で詳細に述べ
られる剛体及びロボット位置誤差の修正を許す。
開発された相対的アプローチは第1図に示す較正機構
及び視覚システムを用いて部品及びロボット末端奏効体
の間の相対的幾何形状情報を捕らえる。第1図に示す相
対的フレームを用いて、ロボット大域的フレームに関す
る構成部品姿勢は次の変換式によって表される。
Tc mcTe mTv eTf vTc f 式(6) 式中、 Tc m=構成部品フレームからロボット大域的フレームへ
の変換。c Tc m=視覚カメラが較正機構を備える時のロボット末端
フレームからロボット大域的フレームへの変換。
Tv e=オンラインロボット較正で決定される視覚カメラ
フレームからロボット末端フレームへの変換。
Tf v=像分析〔6〕で決定される較正機構フレームから
視覚カメラフレームへの変換。
Tc f=構成部品フレームから較正機構フレームへの且つ
予め処理された加工品幾何形状データベースから決定さ
れる変換。
遠位フレームに関していま確定したTCF位置及び配向
によって、コンピュータに関するどんな目標物又は部品
の相対的位置及び/又は配向をも確立することが可能で
ある。これは、大域的基準フレームに関してコンピュー
タ位置を確定する努力をするのと反対に基準フレームを
相対的基準で確定することによって達成される。実際的
感覚から、大抵の製造作業は基準の局部フレーム又は部
品データに関して指定されるので、部品及びコンピュー
タ位置の間の相対的基準フレームの使用は好ましい。本
方法の利用は、より複雑な大域的基準フレームではな
く、ロボット姿勢を基準とし且つロボット不正確度を部
品データに関して特徴づけることができる。
本発明は運動学的モデル及び推計学的モデル並びに他
の分析形式に適用され得る方法論の記述を含む。一般的
な手順は次のステップによって表される。
ロボットは目標物又は位置に関して位置決めされ且つ
複数個の分離した基準位置又は機構が識別される。典型
的には、これらの機構は目標物上に配置され且つ特定の
幾何形状及び空間データによって特徴づけられる。次の
ステップはこれらの幾何形状並びに目標に対する分離し
た基準位置の空間データを確定するデータを識別するこ
とである。この識別データはロボットのコンピュータシ
ステムのようなデータ処理ユニット内の各それぞれの基
準位置に記憶される。この情報はこの基準位置近くの位
置へ後で偏位する時にロボットによって比較動作中に利
用される。
ロボット末端奏効体は次に基準位置の1つの近くの第
1位置へ移動される。例えば、第4図で、ロボット末端
奏効体は較正位置又は較正機構として確定される初期基
準位置41へ移動される。この位置で、末端奏効体は較正
機構の存在を検知する。この検知された較正位置はその
位置に関する初めに記憶された情報データと比較され
る。剛体誤差修正は前の比較ステップで検知された位置
差に基づいて進められる。この修正はこの較正位置に対
するロボットの後の移動に関して使用される。剛体誤差
修正データは次に後の使用のためにロボットコンピュー
タ内に記憶される。
末端奏効体42は次に第2基準位置43へ移動される。こ
の移動はそれがこの基準位置に関する初めに記憶された
識別データでロボットコンピュータ中に負荷されたので
この基準位置43に関する識別データに基づいて行われ
る。しかしながら、ほかに、第2位置への末端奏効体の
移動は前のステップから確定された剛体修正の適用によ
って展開される修正因子を含む。これは第2基準位置近
くのロボットの適当な配置をより正確に予測する。従っ
て、本発明は第1較正機構41に関して剛体修正を確定し
且つこの修正を以後の移動に関して適用し、それにより
第2位置の初めに記憶された識別データを修正する。
この方法はこの位置の予測値に関して検知された新し
い基準位置を比較するために追加の基準位置を測定する
ことによって統計的平均化を適用するために更に広げら
れ得る。予測された位置及びロボットの実際の位置の間
の差はより大きな正確度をもって以後の基準位置に末端
奏効体を配置するに必要な修正量を確定するために検知
され且つ処理される。この確定された修正は後の処理の
ためにコンピュータ内に記憶される。これは第4図の品
目44及び45のような各追加の基準に関して移動、検知、
記憶及び処理を繰返すことによって行われる。
この手順は第5図に示すようにロボット末端奏効体53
に近接して取付けられた視覚カメラ51及び接触プローブ
52に対して適用されている。視覚カメラ51及び接触セン
サ52に関連して、基準機構62を含む較正板又はテーブル
61がロボット位置を測定するテンプレートとして作用す
る。例えば、機構63は指針52を配置する第1機構である
較正機構として識別され得る。62のような残りの機構は
運動学的モデルの決定を改善するために統計的平均を作
るのを援助し得る追加の基準点を提供する。この場合、
基準機構の位置は較正テーブルデータ(構造に予め決定
されている)を参照され且つロボット姿勢は較正テーブ
ルデータに関して測定される。
この方法論をロボットの運動学的モデルの測定に適用
することは、Mooring,B.W.の「ロボット位置決め正確度
に及ぼすジョイント軸不整合の影響」、工学でのコンピ
ュータに関するASME会議の会報、イリノイ州シカゴ、19
83年〔1〕、及びTang,G.の「6軸産業ロボットの較正
及び正確度分析」、テキサス・エイ・アンド・エム・ユ
ニバーシティの機械工学の博士論文部門、1986年〔2〕
によって記載された手順の僅かな修正である。これらの
手順を用いて、ロボットマニプレータの運動学的モデル
は測定された姿勢データから計算され得る。計算された
運動学的モデルはロボットを構成する各ジョイント軸の
位置及び配向を決定することによって定式化される。こ
の運動学的定式化は、位置ベクトルp及び配向ベクトル
uが各ジョイントを確定するSuh,C.及びRadcliffe,C.W.
の運動学及び機構設計、ニューヨーク、John Wiley &
Sons、1978年〔3〕に記載されている一般化されたねじ
変位マトリクックスに基づいている。実際のジョイント
モデルパラメータが決定されると、較正された運動学的
モデルが展開される。このモデルは第6図に示すように
姿勢測定中に参照される部品データに関して確定され
る。
ロボット運動学的モデルが正確に知られ且つ各ロボッ
トジョイント値が特定されると、ロボット姿勢は正確に
予測され得る。特定された姿勢でロボットを正確に配置
するに必要なジョイント値を計算する逆運動学的モデル
は展開され得る。逆運動学的定式化はデナビット−ハー
テンベルグパラメータ又はロボット運動学の有効な定式
化に基づくことができる。大抵のロボット制御器はその
ような逆運動学的変換を利用し且つ多くのロボットモデ
ルは文献で刊行されている。本発明者は予測器−修正器
及び逆ヤコブ定式化に基づくアルゴリズムを開発した。
簡単な予測器−修正器方法はロボット位置を予測する
ためにロボットの較正された運動学的モデルを利用す
る。ロボット姿勢ジョイント値は名目逆運動学モデルを
用いて評価される。その結果の姿勢は較正されたモデル
を用いて予測される。目標姿勢及び予測された姿勢の間
の差は姿勢不正確度である。目標位置は次に姿勢不正確
度を処置するために修正される。プロセスは予測された
ロボット不正確度が充分に減少されるまで繰返される。
逆ヤコブ方法はロボット位置を予測するために較正され
た運動学的モデル及び逆運動学的変換を再び用いること
によって逆ヤコブを予測器−修正器繰返し計画に組入れ
る。数学的定式化は較正された運動学的モデル定式化と
同様である。各ジョイント値に関するロボット位置の偏
導関数は決定され且つ微分ジョイント修正はΔqについ
ての次の線形行列式を解くことによって評価される。
(δT/δqi)Δq=ΔT 式(7) 式中δT/δqiはi番目のジョイント値qiに関するロボ
ット姿勢の遍導関数を示し、Δqは微分ジョイント値を
示し且つΔTは較正されたジョイントモデルパラメータ
によって予測されるロボット位置及び目標ロボット姿勢
の間の差である。このようにして、運動学的に修正され
たジョイント値は式(7)の連続的繰返しによって得ら
れる。
また、僅かに解なる逆ヤコブ定式化は運動学的補償の
ために展開された。この定式化はPaul,R.のロボットマ
ニプレータ、数学、プログラミング及び制御、マサチュ
セッツ州ボストン、M.I.T.プレス、1982年〔5〕に含ま
れている。両方の逆ヤコブ定式化は次の近似式に基づい
た。
(δT/δqi≒(δT/δqi 式(8) 式中(δT/δqiは較正されたロボットモテルから
のジョイント値qiに関するロボット位置の変化を示し、
且つ(δT/δqiは理想又は名目ロボットモデルから
のジョイント値qiに関するロボット位置の変化を示す。
典型的なロボット構成の予測器−修正器及び逆ヤコブ方
法の収斂は第7図に示される。第7図に縦軸に示すrms
位置決め誤差は連続繰返しでシミュレートされたロボッ
トの平均二乗根位置誤差を示す。
推計学的モデル化はロボット不正確度を更に減少する
追加の不正確度補償可能性を提供する。この研究で用い
た推計学的モデル化の方法は応答表面方法論(RSM)に
基づく。RSMはロボット不正確度の内包的統計的モデル
を発展するに必要なロボット姿勢を計画するために使用
される。6自由度のロボットマニプレータに適用し得る
設計空間は2又は3レベル、6因子空間である。設計空
間中のレベルの数は統計的モデルのオーダーを決定する
(線形モデルについては2レベル及び二次モデルについ
ては3レベル)。因子の数はロボットジョイントの数を
反映する。因子はロボット不正確度の線形又は二次モデ
ルの独立変数を表す。
統計的補償モデルを展開することは前述したように別
の一組の目標部品相対的測定値を必要とする。統計的補
償姿勢がロボット制御器又はコンピュータへ送られる前
に、それらは前述したように運動学的補償を用いて修正
される。ロボットは次に修正された姿勢へ移動され且つ
残りの不正確度が測定される。この残りの不正確度は運
動学的補償アルゴリズム(予測器−修正器又は逆ヤコ
ブ)を再び適用することによって微分ジョイント値へ変
換される。残りの微分ジョイント摂動は次のような統計
的補償式から決定される。
qi=a+bi1q1+ci1q1 2+bi2q2 +ci2q2 2+…+bi6q6+ci6q6 2 式(9) 式中a、b及びcは回帰分析から得られる二次モデル
係数を示し、qはジョイント値を示し、且つqiは微分ジ
ョイント摂動を示す。モデル係数の最初の下付添字は
(i番目)補償されたジョイントを示し、且つ第2の係
数下付添字はジョイントを示す。同様に、ジョイント値
下付添字はジョイントを示す。
この方法論を利用する典型的な補償プロセスは次の通
りである。較正姿勢がシミュレータ上にオンライン計画
される。ロボットは移動し且つそれ自身を較正された運
動学的モデルによって要求される較正姿勢に配置し、且
つ不正確度が次に測定される。ロボットは移動し且つそ
れ自身を統計的モデル(RSMによって決定されるよう
に)によって要求される較正姿勢に配置し、且つ不正確
度が測定される。所望のタスクが次に部品データに対し
てオフライン計画される。オフライン計画されたタスク
は運動学的モデル及び統計的モデルの較正姿勢に関して
展開されるモデルを用いて修正される。補償されたタス
ク情報は次にロボット制御器へ送られる。較正姿勢を計
画する初期ステップはまれに繰返されることだけを必要
とする。統計的モデル較正姿勢の測定は定期的に繰返さ
れ且つ残りの手順はオフラインシミュレータ上に計画さ
れた各ロボット位置に対して繰返される。
前に示したように、本方法論に従うオフラインプログ
ラミングは、大抵のロボットが許容公差で繰返され得る
こと、及びロボットが作動する部品が満足すべき公差に
前以て製造されていることに頼る相対的な情報に準拠す
る。加工される部品が所定の公差をもつロボット作業隔
室に達することを保証することによって、ロボットを部
品上の基準較正機構へ移動させように指令し、それによ
り剛体不正確度情報を捕らえるオフラインプログラミン
グを使用することは可能である。基準機構(第4図の品
目41及び第6図の品目63)の確立によって、ロボットは
その部品上の他の所定の機構へ移動するように指令され
得る。部品機構間の相対的幾何形状を知ることによっ
て、手順はロボットが作動する部品に対するロボットの
不正確度を確定するように実行され得る。局所化された
領域でのロボットの不正確度を修正してオフラインプロ
グラミング方法を実際に適用し得る修正ルーチンが次に
実行される。
これはロボットの局所化された不正確度のマッピング
を可能にする。このマッピングは、部品が所定の公差内
で繰返し配置されるならば、作業空間へ入る各部品につ
いて必要ではない。部品が上記した繰返し性で作業空間
へ入るならば、センサ装置は組立作業中オフに切換えら
れ、それによりオフラインプログラムのソフトウエア修
正を利用してロボット不正確度を補償することによって
組立プロセスを速めることができる。
目標物に関するロボット不正確度をマッピングする一
般的な方法を次に述べる。最初に、基準点として作用す
る複数個の識別機構を含む目標物が識別される。コンピ
ュータ感知手段によって各機構の個々の認識を可能にす
る充分なだけ詳細に目標上の機構の幾何形状及び空間関
係を確定する機構データベースが創られる。機構データ
ベース情報は次に後の再現及び比較のためにロボットコ
ンピュータ内に記憶される。目標物はロボットの遠位リ
ンクの作動到達範囲内に置かれ、且つ目標物の記憶され
た機構を検知する可能出力を含む感知手段は遠位リンク
に取付けられる。この検知は通常(i)機構に関する感
知手段によって作られた感知データと(ii)記憶された
機構データベース情報との比較に準拠される。
運動学的及び推計学的モデル化の前述方法によるよう
に、感知手段は遠位リンクに関して較正されて感知手段
の末端制御フレームに関する遠位フレームの相対的位置
決めを正確に確定する。この較正された末端制御フレー
ム位置は後の再現及び比較のためにコンピュータ内に記
憶される。記憶された機構データベース情報を較正され
た末端制御フレーム位置と相関するルーチン又はプログ
ラムが準備される。このルーチンは目標物上にマップさ
れるそれぞれの機構の予測された位置へ感知手段を逐次
移動させ駆動指令をロボットへ与える。
次のステップはロボットでルーチンを作動することで
あり、それにより目標物上の記憶された基準機構の1つ
である較正された機構へ感知手段を移動させる。例え
ば、これは第4図で品目41であり又は第6図で品目63で
ある。予測された位置に対する感知手段の実際の位置の
相対的姿勢誤差は確定され且つ剛体修正データを提供す
る。このデータは後の再現及び比較のためにコンピュー
タ内に記憶される。例えば、記憶された剛体修正データ
は追加の又は後の機構の新規の予測された位置を確定す
るために準備されたルーチン又はプログラムと相関さ
れ、それに対して感知手段は次に新規の予測された位置
へ移動され且つ新規の予測された位置に対する実際の位
置の相対的姿勢誤差は確定される。この誤差データはコ
ンピュータ内に記憶される。各残りの機構に関してこれ
らのステップを繰返すことによって、目標物のマップは
ロボット不正確度の統計的ベースを提供するように作ら
れる。
この一般的な手順は+0.0127mm(+0.0005インチ)の
交差まで加工された較正された板に対して適用された。
較正板の寸法は第8図に図式形態で示される。
TCFが決定されると、逆運動学的ルーチンが部品機構
近くのカメラフレームを正しく配置するために実行され
得る。オートマチックス(Automatix)AV−3視覚シス
テムが第8図に例示する板に対して較正された。Xピク
セルに対するYピクセルの相対的ピクセル寸法は視覚シ
ステムカメラフレーム内の較正板上に2つのドットを配
置することによって決定された。ピクセル座標中のこれ
らのそれぞれの位置は次にXピクセル距離に対するYピ
クセルの日を得るために多数の試験を統計的に平均化す
ることによって決定された。実世界座標でのピクセル間
の距離も必要とされた。同じ2つのドットを使用するこ
とによって及びドットを分離する物理的距離を知ること
によって、統計的平均は試験から得られた。
視覚システムの座標フレームの原点はXピクセル192.
0及びYピクセル127.5に配置された。視覚システムを使
用したので、視覚システムによって捕らえられた機構
を、ロボット遠位リンクに取付けられたカメラのTCFフ
レームに関係づける座標フレームが決定された。このフ
レームを決定するために使用した方法はTCFについての
本明細書の初めの部分に開示された較正方法であった。
この変換は較正板座標フレーム及びカメラTCFの座標フ
レームでの視覚システム座標フレームを得ることを含ん
だ。即ち、式(10) Tf v=Tc v・Tf c 式(10) 式中、 Tf v=較正機構フレームから視覚システムフレームへの
変換。
Tc v=カメラTCFフレームから視覚システム座標フレーム
の変換。
Tf c=較正機構フレームからカメラTCFフレームへの変
換。
「相対的」位置決め方法の利用は、ロボット不正確度
の理解がロボットが作動する局所化された部品領域でだ
け必要とされるので、従来技術よりも大きな改善を示
す。ロボットが作業ステーション間でスイープ移動して
いる時、ロボット不正確度は重大ではない。しかしなが
ら、大きな正確度が実際の組立中又はつかみ又は置き移
動のようなロボットタスクの他の形で所望されるので、
ロボットの不正確度はこの小さな領域内で確定される必
要がある。これらの手順は+0.0254mm(+0.001イン
チ)まで繰返し可能であるセイコーRT−3000で首尾よく
実演された。
第8図の較正板を使用して、居所化された領域でのロ
ボット不正確度伝播は最初にカメラを基準較正機構81上
へ移動することによって決定された。この機構から、ロ
ボットの全ての以後の移動の部分剛体誤差修正を許す必
要な情報が捕らえられた。剛体誤差修正は、同じ並進運
動及び配向修正を、部品に対するロボットの不正確度マ
ッピングで使用される全ての機構へ適用する。剛体誤差
変換が決定されると、ロボットは次の機構82へ移動する
ように視覚システムソフトウエア中で指令された。デー
タベースに接近することによって、8つの機構81〜88の
全てが視覚システムによってマップされた。第9図はロ
ボット不正確度の決定で得られたテストデータを表に示
す。第10図に示すように、ロボット誤差は基準較正機構
81からの距離に比例して(近直線的に)増加する。
局所化された位置不正確度は距離の近一次関数であ
り、次の一次方程式がロボット不正確度を補償するため
に得られた。
Ex=A1x+B1y 式(11) Ey=A2x+B2y 式(12) 定数を求めるために、作業空間領域での2つの独立点
からの不正確度情報を捕らえることが必要であった。こ
れは最初にカメラを基準較正機構へ移動して剛体誤差修
正を決定することによって行われ、且つ次にカメラをi
及びjで示す2つの他の機構へ移動してそこから式(1
1)及び(12)を解くために必要な全ての情報を得た。
目標物iでの誤差方程式は次の通りである。
Exi=A1xi+B1yi 式(13) Eyi=A2xi+B2yi 式(14) 式中、xi及びyiはロボットのカルテシアン移動であり
且つExi及びEyiは目標物iにおいて視覚システムによっ
て捕らえられた位置誤差である。同様に、同じ情報が目
標物jにおいて捕らえられた。次のクラマーズ(Kramer
s)規則が定数A1,B1,A2及びB2を解くために適用され
た。この実験で、機構2及び6はそれぞれ目標物i及び
jを表した。
次に、データベース情報はロボットが全ての機構へ移
動するように指令された時に各機構の位置の予測された
位置的誤差を修正するように修正された。第11図はロボ
ットが不正確度を修正した後の誤差を表に示す。第9図
及び第11図を比較すると、最大ロボット不正確度0.4368
8mm(0.172インチ)が基準機構から359.2068mm(14.142
インチ)の距離において0.0635mm(0.0025インチ)に改
善された。これはカメラの解像度に近く且つ現実的達成
し得ない。公差積重ねの統計的分析はこれらの技術が0.
127mm(0.005インチ)より大きい位置的正確度を要求し
ないプロセスに適用され得ることを示した。
ロボット配向補償は大きな困難を提供する。ロボット
の配向不正確度は基準較正機構からの距離の関数ではな
い。この配向不正確度は歯車バックラッシ、ジョイント
コンプライアンス、視覚システムアルゴリズム限界等の
ような源に影響され得る。実験は、好結果のオフライン
プログラミングが大域的基準フレームと対抗する相対的
情報に基づく方法論で可能とされる前提と同様な配向修
正の一次方程式に従う配向不正確度を示した。この前提
は大抵のロボットが満足し得る公差内で繰返し得ること
及びロボットが作動する目標部品が予め満足すべき公差
をもって製造されていることに頼る。この前提の故に、
ロボットの繰返し性がロボットタスクの所望の公差より
小さくなければならないことは当業者に明らかであろ
う。また、ロボットが作動する部品の幾何形状仕様が必
要とされるロボット作業隔室へ接近し且つ通過し得るこ
とは必要である。
第12図を参照すると、流れ図が典型的な製造プロセス
内での本発明の実行を示す情報流れ及びデータベース構
造を例示する。この流れ図は大域的ではなく相対的な基
準フレームに基づいてTCFに関する較正ステップを誤差
修正の他のフレームと一体にする。第12図及び第13図は
較正状態から誤差決定及びマッピング段階を経る本方法
論の全体を例示する。特に第12図を参照すると、目標と
された部品の幾何形状機構は一般に設計工学によって特
定され且つソフトウエア準備のロボットタスク計画段階
で入手され得る。変換ソフトウエアは適当な変換が機構
の幾何形状記述をロボット制御器へ負荷させるために利
用され得る。本書の初めの方で述べたオフライン較正規
則は部品設計に統合されることができ、それにより充分
な基準機構がロボット機構取得システムによる使用のた
めに部品上に識別され又は配置され得る。例えば、視覚
又はカメラシステムは動的較正段階中に目標部品をマッ
ピングするために有効であると説明してきた。ロボット
システムが作動する部品がそれらがロボット作業隔室へ
入る前にそれらの上に処理された較正基準機構を持たね
ばならないことは前述したことから明らかである。これ
らの機構は、機構取得サブシステムによって又は部品上
に永久的に配置され又は一時的に取付けられたテンプレ
ート26上に配置される簡単に加えられる機構によって用
意に処理され得る常駐幾何形状であり得る。部品が一致
した様式で送出されるならば、機構の出入りは定期的に
行われることを必要とするだけであることに注目された
い。これら手順の全体は第11図の初めの箱110で表示さ
れる。
計画プロセスは較正タスク及び実際のプロセスタスク
の両方でオフライン展開され得る。これらのタスクはつ
かみ又は置き、速度設定、センサ読み等を特定する充分
な情報をもって一組のロボット構成としてファイルされ
る。この計画は較正タスクファイルに記憶される較正移
動とプロセスタスクファイルに記憶されるプロセス移動
の両方を含む。プロセスのこのアスペクトは箱111で表
示される。
経路/タスクファイルは最小直列RS232通信として使
用するファイル伝達ソフトウエアによってロボット作業
隔室制御器へ下負荷され得る。これらのインタフェース
は第12図に品目112として表示される。品目113は経路フ
ァイル構成をロボットタスクマクロに変換するためにソ
フトウエアを維持する作業隔室制御器を示す。このソフ
トウエアは大抵のロボットに適用し得る一般的なアルゴ
リズム及びロボット特性である装置ドライバ型アルゴリ
ズムの両方を有する。較正時に、ソフトウエアはカメラ
のようなセンサシステムによって観察される時にロボッ
ト不正確度を修正するように作動される。この最も簡単
な形では、ソフトウエアは較正位相中に観察される位置
及び配向誤差のマトリックス上に作動する内挿アルゴリ
ズムからなる。より複雑なソフトウエアはロボット不正
確度によってひずむ目標物幾何形状をマップするひずみ
変換を展開する。これらの変換を用いて、ロボットは知
覚される部品幾何形状上を作動する。
修正された変換を用いて、ソフトウエアは予め処理さ
れた経路を修正するように作動される。これはロボット
構成が制御点を用いて相互作用状態の近くで修正される
ことを必要とする。これらの制御点は臨界組立相互作用
点近くの経路形状を維持し且つロボット位置決め不正確
度のための表面機構ひずみを修正する。シミュレーショ
ン使用者は中間構成が経路を局部的に修正した後でさえ
衝突を避けるように作業空間障害物から充分に離される
ことを保証する。従って、これら手順は第12図の箱113
に関係するのみならず、箱111にも関係する。
制御点の使用は第7図に例示される。較正オフライン
経路計画中に、使用者は一般化された変位マトリックス
の一般化された組の一組を大域的座標に入れて視覚シス
テムTCFのための一組の所望の較正姿勢を記述する。第
7図は較正経路セグメント1、2、3及び4を例示し、
それらはカルテシアン空間中の経路を形成するように連
結されている。作業経路シミュレーション計画中に、グ
リッパTCFはロボット末端奏効体TCFとして使用され且つ
使用者は変位マトリックスを入れてグリッパが作用する
構成部品に対してグリッパTCFの一組の所望の姿勢を記
述する。第14図はカルテシアン空間中の連結された作業
経路セグメント及び臨界経路節点を例示する。較正及び
作業経路を計画した後、計画された経路セグメントは経
路セグメント一体及び経路偏位で後で使用するためにフ
ァイルされる。経路ファイルは経路構成、つかみ−置き
作動フラッグ及びロボット速度設定に関係する他の情報
の数及び順序を含む。この段階で、経路ファイルが存在
するが、それらは最終経路の正確な形を表示し得ない。
正確な形を決定するために、予め計画されたタスクを統
合し且つそれらを視覚システム又はロボットで使用され
る制御言語のような作業隔室制御器で使用される制御言
語に変換する統合手順が適用される。使用者が経路セグ
メントを前タスクファイルから加え又は削除することに
よって又は経路セグメントの順序を変えることによって
予め計画された経路セグメントファイルを組合わせるこ
とは開発されている。加えて、使用者は統合プロセス中
に指令をロボット制御言語に入れることができる。
コンピュータシミュレーションによって計画されたオ
フライン経路は、視覚システム又は他のセンサによって
測定された較正誤差を処置し且つ幾何形状モデル化不確
実性を処置するために修正されねばならない。オフライ
ン経路を修正し得る種々の方法があるが、例示のため
に、臨界経路セグメントのカルテシアン経路形状及び経
路適合は、コンピュータ末端奏効体末端制御フレームの
一致した相対的カルテシアン運動を維持しながら経路を
偏位させることによって維持される。
経路適合を維持するために全体の組立タスク経路を偏
位させることは実際的ではない。つかみ及び置き位置の
ような臨界点に近い経路セグメントはこれら制御点を特
定することによって適合された経路セグメント偏位のた
めの候補である。第1点は較性誤差が部品とのコンピュ
ータ末端奏効体相互作用の有効性に影響する臨界点であ
る制御姿勢点(CPP)である。第2点は臨界点(CPP)が
後ろにある点である制御点次位(CPN)である。CPP及び
CPNの間の偏位した経路セグメントのカルテシアン形状
はシミュレーションによって計画されたカルテシアン経
路の形状に一致しなければならない。さいごに、制御点
最後(CPL)は臨界点(CPP)が前にあった点である。経
路偏位後の経路適合はCPP及びCPLの間に維持されねばな
らない。
カルテシアン作業空間では、経路適合を維持するため
に経路セグメントを修正するタスクは較正中に検知され
る並進及び回転誤差の正確に同じ量だけ制御点間の末端
奏効体TCFの各オフライン計画された姿勢を偏位させる
ように記述されることができる。換言すれば、シミュレ
ートされた経路セグメント上の各節点のための末端奏効
体TCFの変位マトリックスは、一致した偏位した経路セ
グメントを得る新規の変位マトリックスを得るために同
じ誤差修正変換マトリックスによって事後乗算される。
これは第15図に例示され、そこで姿勢1、2、3及び4
は点b、c、d及びeへソフトウエアによって偏位され
ている。この偏位方法は修正された計画された姿勢の経
路内に入る作業隔室内の末端奏効体及び障害物の間の衝
突を避けるための新規なアプローチを示す。
ここに開発され例示した実際的なオフラインプログラ
ミング技術は次のステップに従ってマイクロエレクトロ
ニクス組立タスクに適用した。異なる寸法のマイクロエ
レクトロニクスチップは部品フィーダからロボット末端
奏効体によってつかまれた。偏位経路計画は偏位経路中
の作業空間衝突を回避するために開発された。マイクロ
エレクトロニクスチップは指示されたIC盤位置に挿入さ
れた。これらのタクスは首尾よく行われ且つ開発された
オフラインプログラミング技術は剛体誤差修正に使用し
て作業空間の小さい領域内でロボット位置正確度を+0.
1mmまで改善することを示した。
上述の実施例の説明及び特定の参照は例示のためのも
のであることは当業者に明らかであろう。ここに説明し
た基本的な概念及び方法は特許請求の範囲に記載された
発明の規定に関して制御するものと解釈されるべきでな
い。
【図面の簡単な説明】
第1図は較正板又は田野目標部品に関して処理を行うロ
ボットを図式的に示す図であり、第2a図、第2b図及び第
2c図は末端制御フレームの位置較正ステップを示す図で
あり、第3図はここに開示される較正手順内のTCF配向
の決定を図式的に例示する図であり、第4図はカルテシ
アン空間中の較正経路セグメントを図式的に例示する図
であり、第5図は末端制御及びセンサ構成部品を有する
ロボットを示す図であり、第6図は較正テーブルに関し
てロボット構成を例示する図であり、第7図は位置誤差
収斂を示すグラフであり、第8図は本発明と共に使用す
る例示的な較正テーブルを示す図であり、第9図はロボ
ット不正確度に関して行った実験に基づくデータ概要を
示し、第10図はロボット不正確度測定値のプロットを示
すグラフであり、第11図は誤差修正又は配向に関するデ
ータを示し、第12図は本発明の統合されたステップを要
約する図式的流れ図であり、第13図は本発明により統合
された較正手順を例示する図式的流れ図であり、第14図
はプログラミング方法での制御点の使用を例示する図式
的図であり、第15図はロボット腕及び障害物の間の意図
しない接触を回避するための偏位された経路の使用を例
示する図式的図である。 10……ロボット、 11……基礎基準フレーム、 12、13、14……中間フレーム、 15、16……遠位フレーム、 17、42、53……末端奏効体、 18……末端制御フレーム(TCF)、 19……指示手段、 21、61……較正板、 22……作業空間位置、 26……テンプレート、 41、43……基準位置、 51……視覚カメラ、 52……接触プローブ、 63、81、82、83、84、85、86、87、88……機構。
───────────────────────────────────────────────────── フロントページの続き (71)出願人 999999999 エドガー・ラッセル・ターナー アメリカ合衆国ワシントン州98133,シア トル,ストーン・コート・ノース 16721 (72)発明者 ウォルター・エドワード・レッド アメリカ合衆国ユタ州84601,プローヴォ, ビーワイユー,クライド・ビルディング (番地なし) (72)発明者 ブラディ・リューベン・デイヴィース アメリカ合州国ユタ州84058,オーレム, イースト 600 サウス 56 (72)発明者 ザグアン・ワン アメリカ合衆国ユタ州84601,プローヴォ, ノース 850 イースト 866 (72)発明者 エドガー・ラッセル・ターナー アメリカ合衆国ワシントン州98133,シア トル,ストーン・コート・ノース 16721 (56)参考文献 特開 昭61−240304(JP,A) 特開 昭61−296409(JP,A)

Claims (9)

    【特許請求の範囲】
  1. 【請求項1】目標に対するプログラム可能なロボットの
    配向及び/又は位置正確度を改善する方法であって、該
    方法が、 イ)ロボットを目標に対して位置決めし、前記ロボット
    が末端作動末端奏効体を有し、前記ロボットが目標に対
    して種々の異なる位置の間を移動することができ、 ロ)ロボットから外部の複数個の分離した基準位置を識
    別し、 ハ)目標に対する分離した基準位置の幾何形状及び空間
    的データを確定する識別データを作り、 ニ)基準位置近くの位置への後の偏位の際にロボットに
    よる再現及び比較のためにデータ処理ユニット内に各そ
    れぞれの基準位置の識別データを記憶し、 ホ)較正位置である基準位置の1つの近くの第1位置へ
    のロボット末端奏効体を移動し、そこでロボットに結合
    されたセンサが較正位置の存在を検知し、 ヘ)検知された較正位置をその位置に関する初めに記憶
    された情報データと比較し、 ト)前の比較ステップで検知された位置差に基づいて剛
    体誤差修正を展開し、該修正を較正位置に対するロボッ
    トの後の移動に対して使用し、 チ)剛体誤差修正をデータ処理ユニット内に記憶し、 リ)第2基準位置に関する初めに記憶された識別データ
    を利用し且つ較正位置に対して展開された剛体修正を適
    用して末端奏効体を第2基準位置へ移動し、第2基準位
    置近くのロボットの適当な配置をより正確に予測する、 ステップを具備する方法。
  2. 【請求項2】ヌ)第2基準位置を検知し、 ル)ロボットがステップ「リ」で移動された予測された
    第2位置に対して検知された第2基準位置を比較し、 ヲ)ステップ「ヌ」で検知された第2基準位置の予測さ
    れた位置及び実際の位置の間の差を検知し、 ワ)末端奏効体を以後の基準位置に適当に配置するに要
    する修正量を確定するために検知された差を処理し、 カ)確定された修正をデータ処理ユニット内に記憶す
    る、 ステップを包含する特許請求の範囲第1項記載の方法。
  3. 【請求項3】以後の基準位置の予測された位置及び実際
    の位置の間の位置偏差をより正確に定量し且つ平均化す
    る統計的ベースを確定するために追加の基準位置に対す
    る特許請求の範囲第2項記載の移動、検知、記憶及び処
    理ステップを繰返す追加のステップを包含する方法。
  4. 【請求項4】ステップ「ロ」が目標物上に位置決めされ
    るロボットから外部の複数個の分離した基準機構を識別
    するステップを包含する特許請求の範囲第1項記載の方
    法。
  5. 【請求項5】基準位置としての各基準機構の実際の検知
    の際の後の再現及び比較のために、目標物上の各基準機
    構の幾何形状構成及び配向並びに機構間のそれらの分離
    及び配向に関する識別データをデータ処理ユニット内に
    定量し且つ記憶する初期ステップを包含する特許請求の
    範囲第3項記載の方法。
  6. 【請求項6】以後の基準位置に対するロボット位置の正
    確な予測を可能にする分析モデルのパラメータを確定す
    るために追加の基準位置に対する特許請求の範囲第2項
    記載の移動、検知、記憶及び処理ステップを繰り返す追
    加のステップを包含する方法。
  7. 【請求項7】プログラム可能なロボットのロボット不正
    確度をマッピングする方法であって、該方法が、 イ)マッピングのための基準点として使用し得る複数個
    の識別機構を上に有する目標物を準備し、 ロ)各機構の個々の認識を可能にする充分なだけ詳細に
    目標物上の機構の幾何形状及び空間的関係を確定する機
    構データベースを創り、 ハ)機構データベースを後の再現及び比較のためにコン
    ピュータに記憶し、 ニ)目標物をロボットの遠位リンクの作動到達範囲内に
    記憶し、 ホ)機構データベース中のデータとの感知データの比較
    に基づいて記憶された機構を検知し得る感知手段を遠位
    リンクに取付け、 ヘ)感知手段の末端制御フレームに対する遠位フレーム
    の相対的位置決めを正確に確定するために感知手段を遠
    位リンクに対して較正し、 ト)較正された末端制御フレームを後の再現及び比較の
    ためにコンピュータ内に記憶し、 チ)記憶されたデータベースを較正された末端制御フレ
    ーム位置と相関し且つそれぞれの機構の予測された位置
    へ感知手段を逐次移動させる駆動指令をコンピュータへ
    与えるルーチンを準備し、 リ)目標物上の記憶された機構の1つを構成する較正す
    る機構へ感知手段を移動させるためにルーチンを作動
    し、 ヌ)剛体修正データを提供するために予測された位置に
    対する感知手段の実際の位置相対的姿勢誤差を確定し、 ル)剛体修正データを後の再現及び比較のためにコンピ
    ュータ内に記憶し、 ヲ)感知手段が移動される次の機構の新規の予測された
    位置を確定するために記憶された剛体修正データを準備
    されたルーチンと相関し、 ワ)感知手段を次の機構の新規の予測された位置へ移動
    し、 カ)新規の予測された位置に対する感知手段の実際の位
    置の相対的姿勢誤差を確定し、 ヨ)ステップ「カ」の誤差データを後の再現及び比較の
    ためにコンピュータ内に記憶し、 タ)測定された誤差データに基づいて目標物のマップを
    創るために各以後の機構に対してステップ「ヲ」から
    「タ」までを繰返し、 レ)ロボット不正確度を表す式を確定するためにマップ
    誤差データを処理する、ステップを具備する方法。
  8. 【請求項8】目標物上で行われる作動に対するプログラ
    ム可能なロボット配向及び/又は位置の正確度を改善す
    る方法であって、該方法が、 イ)取付られた感知手段を目標物上の所望の機構の近似
    位置へ移動させる駆動指令をロボットに与えるルーチン
    を準備し、 ロ)ロボットに対する感知手段の相対的位置を確定する
    感知基準フレームを較正し、 ハ)ロボット感知手段が機構を検知し且つ機構位置に関
    する感知データを発生するようにルーチンを作動し、 ニ)機構の位置を感知基準フレームに関連させる変換マ
    トリックスを展開し、 ホ)ステップ「ニ」のマトリックス、感知基準フレーム
    位置及び機構の幾何形状に基づいてロボットの感知フレ
    ーム姿勢を決定し、 ヘ)感知フレーム姿勢に対応するロボットの一組のジョ
    イント座標を決定し、 ト)ロボットの移動限界の領域を表す作動経路に沿う制
    御点を識別し、 チ)ロボットの自由移動の経路適合を維持するためにル
    ーチン及び制御点との作動の確定された経路を修正し、
    且つ リ)移動を行なうために修正されたルーチンを作動す
    る、 ステップを具備する方法。
  9. 【請求項9】目標に対するプログラム可能なロボットの
    配向及び/又は位置の正確度を改善する方法であって、
    該方法が、 イ)それらの相対的位置及び配向を確定するためにロボ
    ット遠位フレームを有するロボット遠位リンクに結合さ
    れたロボット末端奏効体の末端制御フレームの位置を較
    正し、 ロ)ロボットから外部の複数個の分離した基準位置を識
    別し、 ハ)目標に対する分離した基準位置の幾何形状及び空間
    的データを確定する識別データを創り、 ニ)基準位置近くの位置への後の偏位の際にロボットに
    よる再現及び比較のために各それぞれの基準位置の識別
    データをデータ処理ユニット内に記憶し、 ホ)較正位置である基準位置の1つの近くの第1位置へ
    ロボット末端奏効体を移動し、そこでロボットに結合さ
    れたセンサが較正位置の存在を検知し、 ヘ)検知された較正位置をその位置に関する初めに記憶
    された情報データと比較し、 ト)前の比較ステップで検知された位置差に基づいて剛
    体誤差修正を創り、該修正を較正位置に対するロボット
    の後の移動に対して使用し、 チ)剛体誤差修正をデータ処理ユニット内に記憶し、 リ)第2基準位置に関する初めに記憶された識別データ
    を利用し且つ較正位置に対して創られた剛体修正を適正
    して末端奏効体を第2基準位置へ移動して第2基準位置
    近くのロボットの適当な配置をより正確に予測する、 ステップを具備する方法。
JP63189531A 1987-07-28 1988-07-28 ロボット不正確度修正方法 Expired - Lifetime JPH08377B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US07/079,168 US4831549A (en) 1987-07-28 1987-07-28 Device and method for correction of robot inaccuracy
US79168 1998-05-15

Publications (2)

Publication Number Publication Date
JPH01159186A JPH01159186A (ja) 1989-06-22
JPH08377B2 true JPH08377B2 (ja) 1996-01-10

Family

ID=22148859

Family Applications (1)

Application Number Title Priority Date Filing Date
JP63189531A Expired - Lifetime JPH08377B2 (ja) 1987-07-28 1988-07-28 ロボット不正確度修正方法

Country Status (6)

Country Link
US (1) US4831549A (ja)
EP (1) EP0301527A3 (ja)
JP (1) JPH08377B2 (ja)
KR (1) KR890001700A (ja)
CN (1) CN1024955C (ja)
CA (1) CA1331795C (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004111657A1 (ja) * 2003-06-10 2004-12-23 Toyo Boseki Kabushiki Kaisha 実験シミュレーション装置及び実験シミュレーションプログラム
US8963552B2 (en) 2012-04-26 2015-02-24 3M Innovative Properties Company Electrostatic discharge event detector

Families Citing this family (203)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2535366B2 (ja) * 1988-01-09 1996-09-18 ファナック株式会社 産業用ロボットの動作能力確認方法と装置
US4891767A (en) * 1988-06-02 1990-01-02 Combustion Engineering, Inc. Machine vision system for position sensing
DE3826195A1 (de) * 1988-08-02 1990-02-15 Hommelwerke Gmbh Vorschubgeraet zur linearen bewegung eines laengenmesstasters sowie verfahren zur abtastung der gestalt einer oberflaeche eines werkstuecks
US4972311A (en) * 1988-08-15 1990-11-20 Kulicke And Soffa Industries Inc. X-Y table error mapping apparatus and method
JP2512099B2 (ja) * 1988-08-24 1996-07-03 松下電器産業株式会社 ロボットの動作教示方法および制御装置
US5161101A (en) * 1989-04-28 1992-11-03 Nissan Motor Co., Ltd. Method of forming automatic machine operation program
JP2694669B2 (ja) * 1989-06-09 1997-12-24 株式会社日立製作所 ロボットの動作制御方法
US5307282A (en) * 1989-09-22 1994-04-26 Hewlett-Packard Company Method of computer-aided prediction of collisions between objects including fabrication tools and parts to be fabricated
JP2646776B2 (ja) * 1989-12-28 1997-08-27 日立工機株式会社 視覚補正位置決め装置
US5303384A (en) * 1990-01-02 1994-04-12 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration High level language-based robotic control system
JP2796160B2 (ja) * 1990-02-21 1998-09-10 株式会社日立製作所 産業用ロボットの教示装置
JPH03251378A (ja) * 1990-02-28 1991-11-08 Fanuc Ltd ロボットのキャリブレーション方式
JP2690603B2 (ja) * 1990-05-30 1997-12-10 ファナック株式会社 視覚センサのキャリブレーション方法
US5105368A (en) * 1990-08-01 1992-04-14 At&T Bell Laboratories Method for improving robot accuracy
US5625577A (en) * 1990-12-25 1997-04-29 Shukyohojin, Kongo Zen Sohonzan Shorinji Computer-implemented motion analysis method using dynamics
FR2676384B1 (fr) * 1991-05-17 1995-04-28 Commissariat Energie Atomique Procede d'initialisation de la position d'un bras de robot au debut d'un cycle de focntionnement.
JP2700965B2 (ja) * 1991-07-04 1998-01-21 ファナック株式会社 自動キャリブレーション方式
US5239855A (en) * 1991-07-12 1993-08-31 Hewlett-Packard Company Positional calibration of robotic arm joints relative to the gravity vector
US5345540A (en) * 1991-07-12 1994-09-06 Hewlett-Packard Company Methods for automatically programming spatial information in robotic systems
US5297238A (en) * 1991-08-30 1994-03-22 Cimetrix Incorporated Robot end-effector terminal control frame (TCF) calibration method and device
FR2680886B1 (fr) * 1991-08-30 1995-01-06 Realisa Electroniques Et Procede de determination de la situation de l'organe terminal d'un robot et agencement pour la mise en óoeuvre du procede.
FR2683758A1 (fr) * 1991-11-18 1993-05-21 Peugeot Procede de calage d'un robot par rapport a une ligne de production et dispositif pour la mise en óoeuvre d'un tel procede.
FR2684912B1 (fr) * 1991-12-11 1995-12-29 Snecma Procede de determination d'une trajectoire de robot.
US5535306A (en) * 1993-01-28 1996-07-09 Applied Materials Inc. Self-calibration system for robot mechanisms
US5399229A (en) * 1993-05-13 1995-03-21 Texas Instruments Incorporated System and method for monitoring and evaluating semiconductor wafer fabrication
FR2706345B1 (fr) * 1993-06-11 1995-09-22 Bertin & Cie Procédé et dispositif de repérage dans l'espace d'un objet mobile tel qu'un capteur ou un outil porté par un robot.
JP3665353B2 (ja) * 1993-09-14 2005-06-29 ファナック株式会社 ロボットの教示位置データの3次元位置補正量取得方法及びロボットシステム
US5969973A (en) * 1994-11-09 1999-10-19 Amada Company, Ltd. Intelligent system for generating and executing a sheet metal bending plan
JP4221061B2 (ja) 1994-11-09 2009-02-12 株式会社アマダ 板金曲げ計画の作成・実行用知能システム
US5835684A (en) * 1994-11-09 1998-11-10 Amada Company, Ltd. Method for planning/controlling robot motion
EP0738200B1 (en) * 1994-11-09 2003-02-12 Amada Company Limited Shear force sensing system
US5761940A (en) * 1994-11-09 1998-06-09 Amada Company, Ltd. Methods and apparatuses for backgaging and sensor-based control of bending operations
GB9424707D0 (en) * 1994-12-07 1995-02-01 Robot Simulations Ltd Control of industrial robots
JP2863731B2 (ja) * 1996-05-14 1999-03-03 株式会社テンリュウテクニックス 電子部品装着装置およびその方法
US6025852A (en) * 1996-05-24 2000-02-15 Zhao; Jianmin Manipulation of graphic structures
JPH09319425A (ja) * 1996-05-29 1997-12-12 Kobe Steel Ltd 部品の組立方法及び組立装置
US5878151A (en) * 1996-10-31 1999-03-02 Combustion Engineering, Inc. Moving object tracking
US5960125A (en) * 1996-11-21 1999-09-28 Cognex Corporation Nonfeedback-based machine vision method for determining a calibration relationship between a camera and a moveable object
WO1998024011A1 (fr) * 1996-11-26 1998-06-04 Fanuc Ltd Dispositif de commande de robot ayant une fonction de simulation de route des operations
US6044308A (en) * 1997-06-13 2000-03-28 Huissoon; Jan Paul Method and device for robot tool frame calibration
FR2770317B1 (fr) * 1997-10-24 2000-12-08 Commissariat Energie Atomique Procede d'etalonnage de la position et de l'orientation d'origine d'une ou plusieurs cameras mobiles et son application a la mesure de position tridimentionnelle d'objets fixes
GB9803364D0 (en) * 1998-02-18 1998-04-15 Armstrong Healthcare Ltd Improvements in or relating to a method of an apparatus for registering a robot
US6070109A (en) * 1998-03-10 2000-05-30 Fanuc Robotics North America, Inc. Robot calibration system
DE19854011A1 (de) * 1998-11-12 2000-05-25 Knoll Alois Einrichtung und Verfahren zum Vermessen von Mechanismen und ihrer Stellung
FI107182B (fi) * 1998-12-09 2001-06-15 Tamrock Oy Menetelmä asemointivirheiden korjaamiseksi kallionporauksessa ja kallionporauslaitteisto
SE9804450D0 (sv) * 1998-12-17 1998-12-17 Robotkonsult Ab Metod och anordningar för automatisk in-line kalibrering av robot, verktyg och cell
US8944070B2 (en) 1999-04-07 2015-02-03 Intuitive Surgical Operations, Inc. Non-force reflecting method for providing tool force information to a user of a telesurgical system
US20020143507A1 (en) * 2000-07-26 2002-10-03 Hwei-Min Lu 3-D kinematics and tolerance variation analysis
US20020069045A1 (en) * 2000-09-29 2002-06-06 Walacavage J. G. Method of logical modeling of operator interaction with programmable logic controller logical verification system
US7149677B2 (en) * 2000-10-30 2006-12-12 Translation Technologies, Inc. Geometric model comparator and method
WO2002049410A2 (en) * 2000-12-15 2002-06-20 Cyberoptics Corporation Board align image acquisition device with improved interface
JP4278386B2 (ja) * 2000-12-15 2009-06-10 サイバーオプティクス コーポレーション 改良された照明器を有するカメラ
US6442451B1 (en) * 2000-12-28 2002-08-27 Robotic Workspace Technologies, Inc. Versatile robot control system
US6430474B1 (en) * 2001-04-03 2002-08-06 Xerox Corporation Tooling adapter for allowing selected manipulation of a workpiece
US20020193972A1 (en) * 2001-06-14 2002-12-19 Ntn Corporation Workshop facility design and operation support system enabling verification of the entire workshop to be performed easily
US6895299B2 (en) * 2001-10-16 2005-05-17 Brigham Young University Systems and methods for representing complex n-curves for direct control of tool motion
DE10207228A1 (de) * 2002-02-21 2003-09-04 Bosch Gmbh Robert Verfahren zur Kalibrierung eines Sensors und Schaltungsanordnung zum Betreiben eines Sensors
DE10209141A1 (de) * 2002-03-01 2003-09-18 Siemens Ag Verfahren zur Kalibrierung von parallelkinematisch in einem Bewegungsraum bewegten Maschineneinheiten in Werkzeugmaschinen und Handhabungsgeräten
KR100485348B1 (ko) * 2002-07-09 2005-04-27 삼성전자주식회사 로봇의 캘리브레이션 방법
JP3865703B2 (ja) * 2002-10-25 2007-01-10 ファナック株式会社 物品搬送システム及び搬送方法
DE10302592A1 (de) * 2003-01-22 2004-07-29 Claas Fertigungstechnik Gmbh Verfahren und Vorrichtung zum Betreiben eines Arbeitsroboters
SE524818C2 (sv) * 2003-02-13 2004-10-05 Abb Ab En metod och ett system för att programmera en industrirobot att förflytta sig relativt definierade positioner på ett objekt
US7698016B2 (en) * 2003-02-18 2010-04-13 Tti Acquisition Corporation Feature-based translation system and method
DE502004001930D1 (de) * 2003-04-23 2006-12-21 Vmt Bildverarbeitungssysteme G Verfahren zur Einmessung des Koordinatensystems einer Kamera eines Roboters gegenüber dem Koordinatensystem des Roboters oder umgekehrt
US7145300B2 (en) * 2003-05-05 2006-12-05 International Rectifier Corporation Multi-axis AC servo control system and method
US6836702B1 (en) * 2003-06-11 2004-12-28 Abb Ab Method for fine tuning of a robot program
JP3732494B2 (ja) * 2003-10-31 2006-01-05 ファナック株式会社 シミュレーション装置
JP4735795B2 (ja) * 2003-12-26 2011-07-27 独立行政法人 宇宙航空研究開発機構 冗長マニピュレータの制御方法
DE102004010312B8 (de) * 2004-03-03 2009-07-30 Advintec Gmbh Verfahren zum Einmessen eines Arbeitspunktes
JP2006154924A (ja) * 2004-11-25 2006-06-15 Denso Wave Inc 自動化設備システム
US7467614B2 (en) 2004-12-29 2008-12-23 Honeywell International Inc. Pedal position and/or pedal change rate for use in control of an engine
US10555775B2 (en) 2005-05-16 2020-02-11 Intuitive Surgical Operations, Inc. Methods and system for performing 3-D tool tracking by fusion of sensor and/or camera derived data during minimally invasive robotic surgery
US8108072B2 (en) * 2007-09-30 2012-01-31 Intuitive Surgical Operations, Inc. Methods and systems for robotic instrument tool tracking with adaptive fusion of kinematics information and image information
US8073528B2 (en) 2007-09-30 2011-12-06 Intuitive Surgical Operations, Inc. Tool tracking systems, methods and computer products for image guided surgery
US9789608B2 (en) * 2006-06-29 2017-10-17 Intuitive Surgical Operations, Inc. Synthetic representation of a surgical robot
CN100398274C (zh) * 2005-07-25 2008-07-02 廊坊智通机器人***有限公司 基于平板测量的机器人工具中心点三分量校准法
US7389773B2 (en) 2005-08-18 2008-06-24 Honeywell International Inc. Emissions sensors for fuel control in engines
US7355364B2 (en) * 2005-09-29 2008-04-08 Honda Motor Co., Ltd. Motor and controller inversion: commanding torque to position-controlled robots
JP4171488B2 (ja) * 2005-12-16 2008-10-22 ファナック株式会社 オフラインプログラミング装置
US8467904B2 (en) * 2005-12-22 2013-06-18 Honda Motor Co., Ltd. Reconstruction, retargetting, tracking, and estimation of pose of articulated systems
DE102006016196A1 (de) * 2006-04-06 2007-10-18 Kuka Roboter Gmbh Verfahren und Vorrichtung zum Ermitteln der Übersetzung von Antrieben zur Übertragung einer Anpresskraft
US8924021B2 (en) * 2006-04-27 2014-12-30 Honda Motor Co., Ltd. Control of robots from human motion descriptors
CN104688349B (zh) * 2006-06-13 2017-05-10 直观外科手术操作公司 微创手术***
JP2007334678A (ja) * 2006-06-15 2007-12-27 Fanuc Ltd ロボットシミュレーション装置
US10258425B2 (en) * 2008-06-27 2019-04-16 Intuitive Surgical Operations, Inc. Medical robotic system providing an auxiliary view of articulatable instruments extending out of a distal end of an entry guide
US20090192523A1 (en) 2006-06-29 2009-07-30 Intuitive Surgical, Inc. Synthetic representation of a surgical instrument
US10008017B2 (en) 2006-06-29 2018-06-26 Intuitive Surgical Operations, Inc. Rendering tool information as graphic overlays on displayed images of tools
US9718190B2 (en) 2006-06-29 2017-08-01 Intuitive Surgical Operations, Inc. Tool position and identification indicator displayed in a boundary area of a computer display screen
JP2008100292A (ja) * 2006-10-17 2008-05-01 Toshiba Mach Co Ltd ロボットシステム
DE102006049957A1 (de) * 2006-10-19 2008-04-24 Abb Ag System und Verfahren zur Kalibrierung einer Handhabungsvorrichtung
EP2148629B1 (en) * 2007-04-16 2012-06-06 NeuroArm Surgical, Ltd. Frame mapping and force feedback methods, devices and systems
US8903546B2 (en) 2009-08-15 2014-12-02 Intuitive Surgical Operations, Inc. Smooth control of an articulated instrument across areas with different work space conditions
US9089256B2 (en) * 2008-06-27 2015-07-28 Intuitive Surgical Operations, Inc. Medical robotic system providing an auxiliary view including range of motion limitations for articulatable instruments extending out of a distal end of an entry guide
US9138129B2 (en) 2007-06-13 2015-09-22 Intuitive Surgical Operations, Inc. Method and system for moving a plurality of articulated instruments in tandem back towards an entry guide
US9469034B2 (en) 2007-06-13 2016-10-18 Intuitive Surgical Operations, Inc. Method and system for switching modes of a robotic system
US8620473B2 (en) * 2007-06-13 2013-12-31 Intuitive Surgical Operations, Inc. Medical robotic system with coupled control modes
US9084623B2 (en) * 2009-08-15 2015-07-21 Intuitive Surgical Operations, Inc. Controller assisted reconfiguration of an articulated instrument during movement into and out of an entry guide
FR2918477A1 (fr) * 2007-07-04 2009-01-09 Aldebaran Robotics Soc Par Act Procede d'edition de mouvements d'un robot
US8170287B2 (en) * 2007-10-26 2012-05-01 Honda Motor Co., Ltd. Real-time self collision and obstacle avoidance
US8396595B2 (en) * 2007-11-01 2013-03-12 Honda Motor Co., Ltd. Real-time self collision and obstacle avoidance using weighting matrix
DE102008003440A1 (de) * 2008-01-07 2009-07-09 Kuka Roboter Gmbh Verfahren zur Fehlererkennung in einem Steuerungssystem eines medizinischen Behandlungs- und/oder Diagnosegeräts
ATE452005T1 (de) * 2008-02-13 2010-01-15 Abb As System und verfahren zur visualisierung von verfahrensfehlern
US8204925B2 (en) * 2008-05-22 2012-06-19 National Instruments Corporation Controlling or analyzing a process by solving a system of linear equations in real-time
US8864652B2 (en) * 2008-06-27 2014-10-21 Intuitive Surgical Operations, Inc. Medical robotic system providing computer generated auxiliary views of a camera instrument for controlling the positioning and orienting of its tip
US8060290B2 (en) 2008-07-17 2011-11-15 Honeywell International Inc. Configurable automotive controller
US8180487B1 (en) 2008-09-30 2012-05-15 Western Digital Technologies, Inc. Calibrated vision based robotic system
WO2010060459A1 (en) * 2008-11-25 2010-06-03 Abb Technology Ab A method and an apparatus for calibration of an industrial robot system
US8135208B1 (en) 2009-01-15 2012-03-13 Western Digital Technologies, Inc. Calibrated vision based robotic system utilizing upward and downward looking cameras
US8457791B2 (en) * 2009-03-10 2013-06-04 GM Global Technology Operations LLC Method for dynamically controlling a robotic arm
US8918211B2 (en) 2010-02-12 2014-12-23 Intuitive Surgical Operations, Inc. Medical robotic system providing sensory feedback indicating a difference between a commanded state and a preferred pose of an articulated instrument
US9492927B2 (en) 2009-08-15 2016-11-15 Intuitive Surgical Operations, Inc. Application of force feedback on an input device to urge its operator to command an articulated instrument to a preferred pose
US8386080B2 (en) * 2009-09-15 2013-02-26 Harris Corporation Robotic apparatus implementing collision avoidance scheme and associated methods
US8620461B2 (en) 2009-09-24 2013-12-31 Honeywell International, Inc. Method and system for updating tuning parameters of a controller
JP5439665B2 (ja) * 2010-02-22 2014-03-12 シンフォニアテクノロジー株式会社 搬送装置
US9393694B2 (en) * 2010-05-14 2016-07-19 Cognex Corporation System and method for robust calibration between a machine vision system and a robot
US8504175B2 (en) 2010-06-02 2013-08-06 Honeywell International Inc. Using model predictive control to optimize variable trajectories and system control
DE102010052503B4 (de) * 2010-11-26 2012-06-21 Wenzel Scantec Gmbh Verfahren zur Steuerung eines Koordinatenmessgeräts sowie Koordinatenmessgerät
TWI408037B (zh) * 2010-12-03 2013-09-11 Ind Tech Res Inst 機械手臂的定位方法及校正方法
DE102011079764B3 (de) * 2011-07-25 2012-11-15 Johannes Gottlieb Verfahren und Anordnung zur Kalibrierung einer Kinematik sowie ein entsprechendes Computerprogramm und ein entsprechendes computerlesbares Speichermedium
US9677493B2 (en) 2011-09-19 2017-06-13 Honeywell Spol, S.R.O. Coordinated engine and emissions control system
US9650934B2 (en) 2011-11-04 2017-05-16 Honeywell spol.s.r.o. Engine and aftertreatment optimization system
US20130111905A1 (en) 2011-11-04 2013-05-09 Honeywell Spol. S.R.O. Integrated optimization and control of an engine and aftertreatment system
JP5977544B2 (ja) 2012-03-09 2016-08-24 キヤノン株式会社 情報処理装置、情報処理方法
JP6000579B2 (ja) * 2012-03-09 2016-09-28 キヤノン株式会社 情報処理装置、情報処理方法
JP5975685B2 (ja) 2012-03-09 2016-08-23 キヤノン株式会社 情報処理装置、情報処理方法
CN103376080B (zh) * 2012-04-27 2016-09-07 上海西门子燃气轮机部件有限公司 一种用于校准机器人工作单元的方法
CN104321167B (zh) 2012-06-26 2016-09-14 Abb技术有限公司 调节动态机器人模型的参数
JP2014024162A (ja) * 2012-07-27 2014-02-06 Seiko Epson Corp ロボットシステム、ロボット制御装置、ロボット制御方法及びロボット制御プログラム
CN102806560B (zh) * 2012-08-24 2014-08-06 电子科技大学 一种可自动消除机器人运动累积误差的方法
CN102896631A (zh) * 2012-10-09 2013-01-30 温州大学 实时/在线方位调整装置和方法
JP6108860B2 (ja) * 2013-02-14 2017-04-05 キヤノン株式会社 ロボットシステム及びロボットシステムの制御方法
US10507066B2 (en) 2013-02-15 2019-12-17 Intuitive Surgical Operations, Inc. Providing information of tools by filtering image areas adjacent to or on displayed images of the tools
JP5678979B2 (ja) * 2013-03-15 2015-03-04 株式会社安川電機 ロボットシステム、校正方法及び被加工物の製造方法
US9333649B1 (en) 2013-03-15 2016-05-10 Industrial Perception, Inc. Object pickup strategies for a robotic device
JP2014180720A (ja) * 2013-03-19 2014-09-29 Yaskawa Electric Corp ロボットシステム及びキャリブレーション方法
JP6335460B2 (ja) 2013-09-26 2018-05-30 キヤノン株式会社 ロボットシステムの制御装置及び指令値生成方法、並びにロボットシステムの制御方法
WO2015079740A1 (ja) * 2013-11-28 2015-06-04 三菱電機株式会社 ロボットシステムおよびロボットシステムの制御方法
US9778650B2 (en) * 2013-12-11 2017-10-03 Honda Motor Co., Ltd. Apparatus, system and method for kitting and automation assembly
CN103743318B (zh) * 2013-12-30 2017-08-25 深圳市华星光电技术有限公司 探针膜厚测量机坐标补正方法及装置
FI20145372A (fi) * 2014-04-22 2015-10-23 Lappeenrannan Teknillinen Yliopisto Menetelmä ja järjestelmä robotin kalibrointiin soveltuvan datan tuottamiseksi
CN105091807B (zh) * 2014-04-30 2017-12-01 鸿富锦精密工业(深圳)有限公司 机器人工具坐标系的校正方法
US9327406B1 (en) 2014-08-19 2016-05-03 Google Inc. Object segmentation based on detected object-specific visual cues
CN104290102B (zh) * 2014-10-16 2016-06-08 苏州镭络视觉技术有限公司 一种快速定位补偿方法
EP3051367B1 (en) 2015-01-28 2020-11-25 Honeywell spol s.r.o. An approach and system for handling constraints for measured disturbances with uncertain preview
EP3056706A1 (en) 2015-02-16 2016-08-17 Honeywell International Inc. An approach for aftertreatment system modeling and model identification
US9857786B2 (en) * 2015-03-31 2018-01-02 Recognition Robotics, Inc. System and method for aligning a coordinated movement machine reference frame with a measurement system reference frame
US9836069B1 (en) * 2015-03-31 2017-12-05 Google Inc. Devices and methods for protecting unattended children in the home
EP3091212A1 (en) 2015-05-06 2016-11-09 Honeywell International Inc. An identification approach for internal combustion engine mean value models
GB201509341D0 (en) * 2015-05-29 2015-07-15 Cambridge Medical Robotics Ltd Characterising robot environments
US9505128B1 (en) 2015-06-24 2016-11-29 Boris Kesil Method of teaching robotic station for processing objects
EP3125052B1 (en) 2015-07-31 2020-09-02 Garrett Transportation I Inc. Quadratic program solver for mpc using variable ordering
US10272779B2 (en) 2015-08-05 2019-04-30 Garrett Transportation I Inc. System and approach for dynamic vehicle speed optimization
FI20155745A (fi) * 2015-10-20 2017-04-21 Lappeenrannan Teknillinen Yliopisto Menetelmä ja järjestelmä robotin kalibrointiin soveltuvan datan tuottamiseksi
JP6812095B2 (ja) * 2015-10-22 2021-01-13 キヤノン株式会社 制御方法、プログラム、記録媒体、ロボット装置、及び物品の製造方法
CN106956258B (zh) * 2016-01-08 2020-06-30 上银科技股份有限公司 使用机械手臂进行阵列取放的路径规划方法和补偿器
US10415492B2 (en) 2016-01-29 2019-09-17 Garrett Transportation I Inc. Engine system with inferential sensor
US9633686B1 (en) 2016-02-17 2017-04-25 International Business Machines Corporation Disc storage cassettes
US10124750B2 (en) 2016-04-26 2018-11-13 Honeywell International Inc. Vehicle security module system
US10036338B2 (en) 2016-04-26 2018-07-31 Honeywell International Inc. Condition-based powertrain control system
CN106142082B (zh) * 2016-06-23 2018-07-10 苏州穿山甲机器人股份有限公司 机器人调整路径偏移的定位导航方法
CN106420350B (zh) * 2016-10-31 2019-01-11 成都杰仕德科技有限公司 一种用于自动配药***的位置补偿装置和方法
JP6661028B2 (ja) * 2016-11-17 2020-03-11 株式会社Fuji 作業位置補正方法
WO2018101918A1 (en) 2016-11-29 2018-06-07 Honeywell International Inc. An inferential flow sensor
JP6512456B2 (ja) * 2016-12-27 2019-05-15 トヨタ自動車株式会社 水平多関節型ロボット用の校正治具および校正方法
JP6834765B2 (ja) 2017-05-16 2021-02-24 株式会社リコー インクジェットプリンタ、及び三次元プリント方法
JP7220353B2 (ja) * 2017-08-08 2023-02-10 パナソニックIpマネジメント株式会社 コントローラの情報送信方法及びエンコーダの異常検出方法
US11226390B2 (en) * 2017-08-28 2022-01-18 Teradyne, Inc. Calibration process for an automated test system
TWI645274B (zh) * 2017-09-12 2018-12-21 國立臺灣科技大學 工件加工方法及其加工系統
US11057213B2 (en) 2017-10-13 2021-07-06 Garrett Transportation I, Inc. Authentication system for electronic control unit on a bus
CN108127668B (zh) * 2017-12-19 2020-05-08 合肥欣奕华智能机器有限公司 一种机器人的示教方法、机器人的示教装置及机器人***
CN108297064B (zh) * 2018-04-27 2020-09-25 江苏卓燃工程咨询有限公司 一种盒体取放机械手
CN110456729B (zh) * 2018-05-07 2021-09-28 苏州睿牛机器人技术有限公司 一种轨迹跟踪控制方法及轨迹跟踪***
US11084169B2 (en) 2018-05-23 2021-08-10 General Electric Company System and method for controlling a robotic arm
US11865730B2 (en) 2018-06-05 2024-01-09 Hitachi, Ltd. Camera position/attitude calibration device, camera position/attitude calibration method, and robot
CN108817740B (zh) * 2018-06-11 2020-06-19 华南理工大学 一种基于结构光视觉的大转折焊缝轨迹离线校准方法
US10589423B2 (en) * 2018-06-18 2020-03-17 Shambhu Nath Roy Robot vision super visor for hybrid homing, positioning and workspace UFO detection enabling industrial robot use for consumer applications
JP6904927B2 (ja) * 2018-07-30 2021-07-21 ファナック株式会社 ロボットシステムおよびキャリブレーション方法
EP3605249A1 (de) 2018-08-02 2020-02-05 Siemens Aktiengesellschaft Verfahren zur synchronisierung, verfahren zum betreiben einer industriellen anlage, vorrichtung, computerprogrammprodukt und computerlesbares medium
US11002529B2 (en) * 2018-08-16 2021-05-11 Mitutoyo Corporation Robot system with supplementary metrology position determination system
US11745354B2 (en) 2018-08-16 2023-09-05 Mitutoyo Corporation Supplementary metrology position coordinates determination system including an alignment sensor for use with a robot
US10529371B1 (en) 2018-10-29 2020-01-07 International Business Machines Corporation Actuator tip calibration for robotic optical storage system
US10600441B1 (en) 2018-12-07 2020-03-24 International Business Machines Corporation Disc gripper for storage discs
DE102018133472B3 (de) * 2018-12-21 2020-03-12 Franka Emika Gmbh Bewegungsüberwachung eines Robotermanipulators
JP7000361B2 (ja) * 2019-01-24 2022-01-19 ファナック株式会社 追随ロボットおよび作業ロボットシステム
US10870204B2 (en) 2019-01-25 2020-12-22 Mujin, Inc. Robotic system control method and controller
US10456915B1 (en) * 2019-01-25 2019-10-29 Mujin, Inc. Robotic system with enhanced scanning mechanism
CN113597362B (zh) * 2019-03-25 2024-05-24 Abb瑞士股份有限公司 用于确定机器人坐标系与可移动装置坐标系之间的关系的方法和控制装置
CN112233208B (zh) * 2019-06-28 2023-07-25 百度在线网络技术(北京)有限公司 机器人状态处理方法、装置、计算设备和存储介质
CN112109073B (zh) * 2019-08-30 2022-10-04 上汽通用五菱汽车股份有限公司 一种机器人离线程序的修正装置及方法
JP7120512B2 (ja) * 2019-11-22 2022-08-17 Smc株式会社 軌跡制御装置
US11584004B2 (en) 2019-12-17 2023-02-21 X Development Llc Autonomous object learning by robots triggered by remote operators
CN111070209B (zh) * 2019-12-27 2022-04-15 深圳市越疆科技有限公司 轴精度测量方法及装置、工业机器人
TWI754888B (zh) * 2020-01-21 2022-02-11 財團法人工業技術研究院 校準方法及校準系統
WO2021147037A1 (en) * 2020-01-22 2021-07-29 Abb Schweiz Ag Method and electronic device, system and computer readable medium for calibration
JP7323057B2 (ja) * 2020-03-31 2023-08-08 日本電気株式会社 制御装置、制御方法、および、制御プログラム
CA3117643A1 (en) * 2020-05-12 2021-11-12 Soremartec S.A. Operating device
US20220009102A1 (en) * 2020-07-10 2022-01-13 Divergent Technologies, Inc. Robotic assembly cell
CN113220023B (zh) * 2021-04-28 2022-10-14 中国科学院重庆绿色智能技术研究院 一种高精度无人机实时路径规划方法
US12030184B2 (en) * 2021-06-09 2024-07-09 eBots Inc. System and method for error correction and compensation for 3D eye-to-hand coordination
CN113547519B (zh) * 2021-06-25 2022-12-13 北京精密机电控制设备研究所 一种基于变维缩放的机械臂逆运动学求解方法
WO2023035228A1 (en) * 2021-09-10 2023-03-16 Abb Schweiz Ag Method and apparatus for tool management in robot system
CN117123520A (zh) * 2023-02-06 2023-11-28 荣耀终端有限公司 实现对目标工件擦胶的方法及擦胶设备
CN116673966B (zh) * 2023-08-02 2023-10-03 北京迁移科技有限公司 用于机器人的关节角度生成方法及机器人***

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4362977A (en) * 1980-06-30 1982-12-07 International Business Machines Corporation Method and apparatus for calibrating a robot to compensate for inaccuracy of the robot
US4481592A (en) * 1982-03-05 1984-11-06 Texas Instruments Incorporated Calibration system for a programmable manipulator
JPS58177289A (ja) * 1982-04-12 1983-10-17 株式会社三協精機製作所 工業用ロボツトの動作制御装置
DE3244307A1 (de) * 1982-11-30 1984-05-30 Siemens AG, 1000 Berlin und 8000 München Robotersteuerung
US4670849A (en) * 1983-03-31 1987-06-02 Hitachi, Ltd. Position error correcting method and apparatus for industrial robot
JPS59189415A (ja) * 1983-04-13 1984-10-27 Hitachi Ltd 工業用ロボツトの動作教示方法および装置
US4562391A (en) * 1983-06-08 1985-12-31 Inoue-Japax Research Incorporated Robotic positioning system
US4590578A (en) * 1983-07-11 1986-05-20 United Technologies Corporation Off-line programmable robot
SE8304100L (sv) * 1983-07-22 1985-01-23 Ibm Svenska Ab System for automatisk kalibrering av rymdkoordinaterna hos en robotgripper i sex frihetsgrader
SE8400287D0 (sv) * 1984-01-20 1984-01-20 Grundstenen 17356 Ab Anordning/metod for kalibrering av monteringsmaskiner mm
JPS61240304A (ja) * 1985-04-17 1986-10-25 Hitachi Ltd 産業用ロボツトのエンド・エフエクタ取付け誤差演算装置
JPS61296409A (ja) * 1985-06-25 1986-12-27 Fanuc Ltd ロボツト制御方式

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004111657A1 (ja) * 2003-06-10 2004-12-23 Toyo Boseki Kabushiki Kaisha 実験シミュレーション装置及び実験シミュレーションプログラム
US8963552B2 (en) 2012-04-26 2015-02-24 3M Innovative Properties Company Electrostatic discharge event detector

Also Published As

Publication number Publication date
CN1024955C (zh) 1994-06-08
JPH01159186A (ja) 1989-06-22
EP0301527A2 (en) 1989-02-01
US4831549A (en) 1989-05-16
KR890001700A (ko) 1989-03-28
EP0301527A3 (en) 1989-04-12
CN1033590A (zh) 1989-07-05
CA1331795C (en) 1994-08-30

Similar Documents

Publication Publication Date Title
JPH08377B2 (ja) ロボット不正確度修正方法
CN109571546B (zh) 机器人工具中心点校正***及其方法
US5297238A (en) Robot end-effector terminal control frame (TCF) calibration method and device
US9517563B2 (en) Robot system using visual feedback
JP3665353B2 (ja) ロボットの教示位置データの3次元位置補正量取得方法及びロボットシステム
EP2381325B1 (en) Method for robot offline programming
CN109153125A (zh) 用于定向工业机器人的方法和工业机器人
CN113001535A (zh) 机器人工件坐标系自动校正***与方法
US5333242A (en) Method of setting a second robots coordinate system based on a first robots coordinate system
Mustafa et al. A geometrical approach for online error compensation of industrial manipulators
Lippiello et al. A position-based visual impedance control for robot manipulators
JPH0445841B2 (ja)
Mishani et al. Real-time non-visual shape estimation and robotic dual-arm manipulation control of an elastic wire
US20060136094A1 (en) Robot controller and robot control method
Lange et al. Learning accurate path control of industrial robots with joint elasticity
Fateh et al. On the transforming of control space by manipulator Jacobian
JPH0588721A (ja) 関節型ロボツトの制御装置
Fernandez et al. Multi-surface admittance control approach applied on robotic assembly of large-scale parts in aerospace manufacturing
JP2518699B2 (ja) ロボット制御装置
Red et al. Calibration control of robot vertical assembly
JPH07129231A (ja) 非接触点教示装置
Lu et al. Robot calibration using relative measurements
WO2023053374A1 (ja) 制御装置及びロボットシステム
US20220001532A1 (en) Learning software assisted object joining
Bay Autonomous parameter identification by optimal learning control