JP4387476B2 - Bin picking position data calibration device - Google Patents

Bin picking position data calibration device Download PDF

Info

Publication number
JP4387476B2
JP4387476B2 JP19696598A JP19696598A JP4387476B2 JP 4387476 B2 JP4387476 B2 JP 4387476B2 JP 19696598 A JP19696598 A JP 19696598A JP 19696598 A JP19696598 A JP 19696598A JP 4387476 B2 JP4387476 B2 JP 4387476B2
Authority
JP
Japan
Prior art keywords
vision system
data
coordinate
coordinate transformation
calibration
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP19696598A
Other languages
Japanese (ja)
Other versions
JP2000024973A (en
Inventor
伸行 藤原
寿和 恩田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Meidensha Corp
Original Assignee
Meidensha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Meidensha Corp filed Critical Meidensha Corp
Priority to JP19696598A priority Critical patent/JP4387476B2/en
Publication of JP2000024973A publication Critical patent/JP2000024973A/en
Application granted granted Critical
Publication of JP4387476B2 publication Critical patent/JP4387476B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Manipulator (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、ンピッキングシステムに必要な各装置の位置関係及び部品検出に必要な位置データを較正するビンピッキング位置データ較正装置を提供するものである。
【0002】
【背景技術】
ビンピッキングシステムは対象部品の位置姿勢を画像計測装置で検出し、その情報を元にロボットアームで対象部品をハンドリングするシステムである。
また、画像計測装置としては、入力画像から得られる対象物体の輪郭、凹凸、模様等の特徴を直線、円弧等で近似したデータであるとともにステレオ計測等で得た三次元位置データを有する特徴データと、対象物体のモデルの三次元位置データを有する特徴データとのマッチングをとることで対象物体の三次元位置姿勢を得るものがある。
【0003】
対象部品の位置検出方法としてモデルベーストマッチング法があり、部品のモデル作製方法としても種々の提案がある。
ハンドリングの際必要な、ロボットアーム装置と画像計測装置との相対関係を求める方法として従来より様々な提案がある。
【0004】
【発明が解決しようとする課題】
ビンピッキングシステムを正しく動作させるためには、対象部品の位置検出やハンドリングデータを計算するために必要な各装置の位置関係が既知であり、またその位置関係が正しく保たれていなければならない。
【0005】
しかしながら、カメラの故障や寿命、事故によるカメラの破損等でカメラを交換する場合は、カメラの位置やそれに伴う画像計測装置の座標系が変わるため、今までのデータを全て新しく作り直す必要がある。
またカメラ取付部の経年変化によりカメラの位置姿勢にズレが生じた場合、対象部品の検出位置姿勢が実体の位置姿勢と異なるため、システムの動作に不具合が生じる。
【0006】
【課題を解決するための手段】
本発明の請求項1に係るビンピッキング位置データ較正装置は、カメラ等の画像計測装置の視野内に存在するベルトコンベア或いは作業台等の位置が変化しない背景物体を基に基準物体モデルを作製し、前記画像計測装置を寿命又は破損等で交換する前の今までの座標系を旧ビジョン系(ΣV)とし、前記画像計測装置を交換した後の新たな座標系を新ビジョン系(ΣV')として設定するビジョン系設定部(1)と、前記ビジョン系設定部(1)により設定された前記新ビジョン系(ΣV'において前記旧ビジョン系(Σ V )で作製された前記基準物体モデルを用いて前記背景物体に対するモデルマッチングを行うことにより、前記新ビジョン系(ΣV')を基にする前記背景物体の位置姿勢を示す座標変換データ(TV'O)を求める背景物体モデルマッチング部(2)と、前記背景物体モデルマッチング部(2)により求められた前記座標変換データの逆変換(TV'O -1)を前記旧ビジョン系(ΣV)から新ビジョン系(ΣV')への座標変換データ(TVV')とする較正座標変換データ計算部(3)と、前記較正座標変換データ計算部(3)により求められた前記座標変換データ(TVV')、その逆変換(TVV' -1)、ロボットアーム装置の座標系であるロボット系(ΣR)から前記旧ビジョン系(ΣV)への座標変換(TRV)及び前記旧ビジョン系(ΣV)からロボットアーム装置でハンドリングされる対象物体の座標系であるハンド系(ΣH)への座標変換(TVH)に基づいて、前記ロボット系(ΣR)から前記新ビジョン系(ΣV')への座標変換(TRV')及び前記新ビジョン系(ΣV')から前記ハンド系(ΣH)への座標変換(TV'H)をそれぞれ求める装置位置関係データ較正部(4)と、前記較正座標変換データ計算部(3)により求められた前記座標変換データ(TVV')の逆変換(TVV' -1)に基づき、前記旧ビジョン系(ΣV)を基準にした部品モデルデータの点(pV)を前記新ビジョン系(ΣV')を基準にした部品モデルデータの点(pV')へ変換する部品モデルデータ較正部(5)とを備えることを特徴とする。
そのため、基準物体モデルを設定するための特別な装置を用意する必要がなく、簡素なシステムを構成でき、装置のコストを小さくすることができるメリットがある。
【0007】
本発明の請求項2に係るビンピッキング位置データ較正装置は、カメラ等の画像計測装置の視野内に固定した識別の容易なマーク物体を基に基準物体モデルを作製し、前記画像計測装置を寿命又は破損等で交換する前の今までの座標系を旧ビジョン系(ΣV)とし、前記画像計測装置を交換した後の新たな座標系を新ビジョン系(ΣV')として設定するビジョン系設定部(1)と、前記ビジョン系設定部(1)により設定された前記新ビジョン系(ΣV'において前記旧ビジョン系(Σ V )で作製された前記基準物体モデルを用いて前記マーク物体に対するモデルマッチングを行うことにより、前記新ビジョン系(ΣV')を基にする前記マーク物体の位置姿勢を示す座標変換データ(TV'O)を求める固定マークモデルマッチング部(6)と、前記固定マークモデルマッチング部(6)により求められた前記座標変換データの逆変換(TV'O -1)を前記旧ビジョン系(ΣV)から新ビジョン系(ΣV')への座標変換データ(TVV')とする較正座標変換データ計算部(3)と、
前記較正座標変換データ計算部により求められた前記座標変換データ(TVV')、その逆変換(TVV' -1)、ロボットアーム装置の座標系であるロボット系(ΣR)から前記旧ビジョン系(ΣV)への座標変換(TRV)及び前記旧ビジョン系(ΣV)からロボットアーム装置でハンドリングされる対象物体の座標系であるハンド系(ΣH)への座標変換(TVH)に基づいて、前記ロボット系(ΣR)から前記新ビジョン系(ΣV')への座標変換(TRV')及び前記新ビジョン系(ΣV')から前記ハンド系(ΣH)への座標変換(TV'H)をそれぞれ求める装置位置関係データ較正部(4)と、前記較正座標変換データ計算部により求められた前記座標変換データ(TVV')の逆変換(TVV' -1)に基づき、前記旧ビジョン系(ΣV)を基準にした部品モデルデータの点(pV)を前記新ビジョン系(ΣV')を基準にした部品モデルデータの点(pV')へ変換する部品モデルデータ較正部(5)とを備えることを特徴とする。
そのため、高精度な較正座標変換データを得ることができ、システムの信頼性を向上できる。
またマークがカメラ視野内に固定されているため、頻繁な定期位置データ較正を容易に行うことができるメリットがある。
【0008】
本発明の請求項3に係るビンピッキング位置データ較正装置は、位置データ較正作業時に、用意しておいたジグによってマーク物体をカメラ等の画像計測装置の視野内に位置精度良く取り付け、前記マーク物体を基に基準物体モデルを作製し、前記画像計測装置を寿命又は破損等で交換する前の今までの座標系を旧ビジョン系(ΣV)とし、前記画像計測装置を交換した後の新たな座標系を新ビジョン系(ΣV')として設定するビジョン系設定部(1)と、前記ビジョン系設定部(1)により設定された前記新ビジョン系(ΣV'において前記旧ビジョン系(Σ V )で作製された前記基準物体モデルを用いて前記マーク物体に対するモデルマッチングを行うことにより、前記新ビジョン系(ΣV')を基にする前記マーク物体の位置姿勢を示す座標変換データ(TV'O)を求める取付マークモデルマッチング部(7)と、前記取付マークモデルマッチング部(7)により求められた前記座標変換データの逆変換(TV'O -1)を前記旧ビジョン系(ΣV)から新ビジョン系(ΣV')への座標変換データ(TVV')とする較正座標変換データ計算部(3)と、前記較正座標変換データ計算部(3)により求められた前記座標変換データ(TVV')、その逆変換(TVV' -1)、ロボットアーム装置の座標系であるロボット系(ΣR)から前記旧ビジョン系(ΣV)への座標変換(TRV)及び前記旧ビジョン系(ΣV)からロボットアーム装置でハンドリングされる対象物体の座標系であるハンド系(ΣH)への座標変換(TVH)に基づいて、前記ロボット系(ΣR)から前記新ビジョン系(ΣV')への座標変換(TRV')及び前記新ビジョン系(ΣV')から前記ハンド系(ΣH)への座標変換(TV'H)をそれぞれ求める装置位置関係データ較正部(4)と、前記較正座標変換データ計算部(3)により求められた前記座標変換データ(TVV')の逆変換(TVV' -1)に基づき、前記旧ビジョン系(ΣV)を基準にした部品モデルデータの点(pV)を前記新ビジョン系(ΣV')を基準にした部品モデルデータの点(pV')へ変換する部品モデルデータ較正部(5)とを備えることを特徴とする。
そのため、高精度な較正座標変換データを得ることができ、システムの信頼性を向上できるメリットがある。
【0009】
本発明の請求項4に係るビンピッキング位置データ較正装置は、ロボットアームにマーク物体を取り付けると共に前記マーク物体を基に基準物体モデルを作製し、画像計測装置を寿命又は破損等で交換する前の今までの座標系を旧ビジョン系(ΣV)とし、前記画像計測装置を交換した後の新たな座標系を新ビジョン系(ΣV')として設定するビジョン系設定部(1)と、前記ビジョン系設定部(1)により設定された前記新ビジョン系(ΣV'において前記旧ビジョン系(Σ V )で作製された前記基準物体モデルを用いて前記マーク物体に対するモデルマッチングを行うことにより、前記新ビジョン系(ΣV')を基にする前記マーク物体の位置姿勢を示す座標変換データ(TV'O)を求めるロボット取付マーク物体モデルマッチング部(8)と、前記ロボット取付マーク物体モデルマッチング部(8)により求められた前記座標変換データの逆変換(TV'O -1)を前記旧ビジョン系(ΣV)から新ビジョン系(ΣV')への座標変換データ(TVV')とする較正座標変換データ計算部(3)と、前記較正座標変換データ計算部(3)により求められた前記座標変換データ(TVV')、その逆変換(TVV' -1)、ロボットアーム装置の座標系であるロボット系(ΣR)から前記旧ビジョン系(ΣV)への座標変換(TRV)及び前記旧ビジョン系(ΣV)からロボットアーム装置でハンドリングされる対象物体の座標系であるハンド系(ΣH)への座標変換(TVH)に基づいて、前記ロボット系(ΣR)から前記新ビジョン系(ΣV')への座標変換(TRV')及び前記新ビジョン系(ΣV')から前記ハンド系(ΣH)への座標変換(TV'H)をそれぞれ求める装置位置関係データ較正部(4)と、前記較正座標変換データ計算部(3)により求められた前記座標変換データ(TVV')の逆変換(TVV' -1)に基づき、前記旧ビジョン系(ΣV)を基準にした部品モデルデータの点(pV)を前記新ビジョン系(ΣV')を基準にした部品モデルデータの点(pV')へ変換する部品モデルデータ較正部(5)とを備えることを特徴とする。
そのため、カメラ視野内にマーク物体を位置精度良く設置して、高精度な較正座標変換データを得ることができ、システムの信頼性を向上できるメリットがある。
【0010】
本発明の請求項5に係るビンピッキング位置データ較正装置は、基準物体モデルを設定するための基準部品を作業者側で適切に用意すると共に前記基準部品を基に基準物体モデルを作製し、画像計測装置を寿命又は破損等で交換する前の今までの座標系を旧ビジョン系(ΣV)とし、前記画像計測装置を交換した後の新たな座標系を新ビジョン系(ΣV')として設定するビジョン系設定部(1)と、前記ビジョン系設定部(1)により設定された前記新ビジョン系(ΣV'において前記旧ビジョン系(Σ V )で作製された前記基準物体モデルを用いて前記基準部品に対するモデルマッチングを行うことにより、前記新ビジョン系(ΣV')を基にする前記基準部品の位置姿勢を示す座標変換データ(TV'O)を求める基準部品モデルマッチング部(9)と、前記基準部品モデルマッチング部(9)により求められた前記座標変換データの逆変換(TV'O -1)を前記旧ビジョン系(ΣV)から新ビジョン系(ΣV')への座標変換データ(TVV')とする較正座標変換データ計算部(3)と、前記較正座標変換データ計算部(3)により求められた前記座標変換データ(TVV')、その逆変換(TVV' -1)、ロボットアーム装置の座標系であるロボット系(ΣR)から前記旧ビジョン系(ΣV)への座標変換(TRV)及び前記旧ビジョン系(ΣV)からロボットアーム装置でハンドリングされる対象物体の座標系であるハンド系(ΣH)への座標変換(TVH)に基づいて、前記ロボット系(ΣR)から前記新ビジョン系(ΣV')への座標変換(TRV')及び前記新ビジョン系(ΣV')から前記ハンド系(ΣH)への座標変換(TV'H)をそれぞれ求める装置位置関係データ較正部(4)と、前記較正座標変換データ計算部(3)により求められた前記座標変換データ(TVV')の逆変換(TVV' -1)に基づき、前記旧ビジョン系(ΣV)を基準にした部品モデルデータの点(pV)を前記新ビジョン系(ΣV')を基準にした部品モデルデータの点(pV')へ変換する部品モデルデータ較正部(5)とを備えることを特徴とする。
そのため、基準物体モデルを設定するための特別な装置を用意する必要がなく、システムのコストを小さくすることができる。
また、基準部品にマーク物体と同様に識別の容易な部品を選び、位置精度良く動作するロボットアームによって基準部品を位置精度良く設置することで、高精度な較正座標変換データを得ることができ、システムの信頼性を向上できるメリットがある。
【0011】
【発明の実施の形態】
(1)基本的な考え方
本発明の目的はピンピッキングシステムに必要な各装置の位置関係及び部品検出に必要な位置データを較正することである。
カメラの位置姿勢が変化した場合、それに伴い画像計測装置の新しい座標系を設定する必要がある。
【0012】
この時画像計測装置の今までの座標系と新しく設定した座標系の位置関係が検出できれば、その位置関係データを用いて各装置の位置関係データや部品検出に必要な部品データを新しく設定した画像計測装置の座標系を基にしたデータヘ変換することができる。
そこで、本発明では部品モデル作製位置に設置した物体について、今までの座標系で作った部品モデルを使用して新しい座標系においてモデルマッチングを行うことで、画像計測装置の今までの座標系と新しく設定した座標系の位置関係を求める。
【0013】
(2)各装置の座標系と相対関係
図1の様に各座標系を設定する。
ここで各座標系は次のものである。
ΣV:旧ビジョン系(画像計測装置の今までの座標系)
ΣV':新ビジョン系(画像計測装置の新しく設定した座標系)
ΣR:ロボット系(ロボットアーム装置の座標系)
ΣH:ハンド系(ハンドの対象物体ハンドリング時の座標系)
【0014】
各装置間の位置関係はその装置の座標系から別の装置の座標系への座標変換データとして求められる。
RV:ロボット系ΣRから旧ビジョン系ΣVへの座標変換
VH:旧ビジョン系ΣVからハンド系ΣHへの座標変換
RV':ロボット系ΣRから新ビジョン系ΣV'への座標変換
V'H:新ビジョン系ΣV'からハンド系ΣHへの座標変換
VV':旧ビジョン系ΣVから新ビジョン系ΣV'への座標変換
【0015】
(3)較正座標変換データの計算
データ較正に必要な、変換データは旧ビジョン系ΣVから新ビジョン系ΣV'への座標変換データTVV'である。これをモデルマッチングによって求める。
旧ビジョン系ΣVにおいて基準物体の部品モデルを作っておき、基準物体をモデル作製位置に設置して、新ビジョン系ΣV'において同一のモデルを用いてモデルマッチングを行うと、新ビジョン系ΣV'を基にする基準物体の位置姿勢TV'Oを検出できる。
【0016】
この時基準物体は旧ビジョン系ΣVにおいて全く動かない位置姿勢にあるため、先ほど新ビジョン系ΣV'において検出した基準物体の位置姿勢TV'Oは、新ビジョン系ΣV'から旧ビジョン系ΣVへの座標変換TV'Vを示す。
よって、データ較正に必要な座標変換データは旧ビジョン系ΣVから新ビジョン系ΣV'への座標変換データTVV'として次のように求められる。
VV'=TV'O -1 …(1)
【0017】
(4)装置位置関係の較正
ロボット系ΣRと新ビジョン系ΣV'の位置関係は較正座標変換データと今までの位置関係より次のように計算できる。
RV'=TRVVV' …(2)
新ビジョン系ΣV'とハンド系ΣHの位置関係は較正座標変換データと今までの位置関係より次のように計算できる。
V'H=TVV' -1VH …(3)
【0018】
(5)部品モデルデータの較正
部品の三次元形状モデルは三次元的な直線特徴や曲線特徴で構成され、それらの三次元データはビジョン系を基にした特徴上の点の三次元位置データである。
そこで部品の三次元形状モデルの較正は、モデルを構成する点位置データの旧ビジョン系ΣV から新ビジョン系ΣV'への座標変換で行うことができる。
旧ビジョン系ΣVを基準にした点pVは新ビジョン系ΣV'を基準にした点pV'へ次のように変換される。
【0019】
V'=TVV' -1V …(4)
こうして変換した三次元形状モデルの点を再構成することで、部品の三次元形状モデルの較正を行うことができる。
新ビジョン系ΣV'を基にした三次元形状モデルが計算されれば、カメラの新しい位置姿勢においての見え方モデルであるイメージ上の二次元形状モデルは、三次元形状モデルのカメラのイメージ平面への透視変換によって較正することができる。
【0020】
(6)基準物体モデルの設定
(6.1)背景物体による基準物体モデルの設定
カメラの視野内にベルトコンベアや作業台といった位置が変化しない物体が存在する場合は図2のように背景物体を基準物体とし、基準物体モデルを設定することができる。
【0021】
(6.2)固定マーク物体による基準物体モデルの設定
カメラ視野内に位置が変化しない固定マーク物体を設置できる場合は、図3のように固定マーク物体を基準物体とし、基準物体モデルを設定することができる。
【0022】
(6.3)取付マーク物体による基準物体モデルの設定
装置に常時取り付けてはいないが、較正作業の際何らかのジグによって取付マークを設置できる場合は、図4のように取付マーク物体を基準物体とし、基準物体モデルを設定することができる。
【0023】
(6.4)ロボットアームに取り付けたマーク物体による基準物体モデルの設定ロボットアームにマーク物体を取り付けることができる場合は、図5のようにそのマーク物体を基準物体とし、基準物体モデルを設定することができる。
【0024】
(6.5)基準部品による基準物体モデルの設定
較正作業用に基準部品として選んだ部品を、ロボットアーム等を用いて同一の位置に設置できる場合は、図6のようにその基準部品を基準物体とし、基準物体モデルを設定することができる。
【0025】
(7)位置データ較正方法
(7.1)背景物体による位置データ較正方法
カメラの位置姿勢が変化した場合、図7に示すフローチャートに従い、次の手順でビンピッキングシステムの位置データを較正する。
▲1▼画像計測装置の新ビジョン系の設定を行う。
▲2▼背景物体モデルによりモデルマッチングを行う。
▲3▼マッチング結果より較正座標変換データTVV'を計算する。
▲4▼較正座標変換データと今までの装置位置関係データを用いて装置位置関係データを較正する。
▲5▼較正座標変換データと今までの部品モデルデータを用いて部品モデルデータを較正する。
【0026】
(7.2)固定マーク物体による位置データ較正方法
カメラの位置姿勢が変化した場合、図8に示すフローチャートに従い、次の手順でビンピッキングシステムの位置データを較正する。
▲1▼画像計測装置の新ビジョン系の設定を行う。
▲2▼固定マーク物体モデルによりモデルマッチングを行う。
▲3▼マッチング結果より較正座標変換データTVV'を計算する。
▲4▼較正座標変換データと今までの装置位置関係データを用いて装置位置関係データを較正する。
▲5▼較正座標変換データと今までの部品モデルデータを用いて部品モデルデータを較正する。
【0027】
(7.3)取付マーク物体による位置データ較正方法
カメラの位置姿勢が変化した場合、図9に示すフローチャートに従い、次の手順でビンピッキングシステムの位置データを較正する。
▲1▼画像計測装置の新ビジョン系の設定を行う。
▲2▼取付マーク物体モデルによりモデルマッチングを行う。
▲3▼マッチング結果より較正座標変換データTVV'を計算する。
▲4▼較正座標変換データと今までの装置位置関係データを用いて装置位置関係データを較正する。
▲5▼較正座標変換データと今までの部品モデルデータを用いて部品モデルデータを較正する。
【0028】
(7.4)ロボットアームに取り付けたマーク物体による位置データ較正方法
カメラの位置姿勢が変化した場合、図10に示すフローチャートに従い、次の手順でビンピッキングシステムの位置データを較正する。
▲1▼画像計測装置の新ビジョン系の設定を行う。
▲2▼ロボットアームに取り付けたマーク物体モデルによりモデルマッチングを行う。
▲3▼マッチング結果より較正座標変換データTVV'を計算する。
▲4▼較正座標変換データと今までの装置位置関係データを用いて装置位置関係データを較正する。
▲5▼較正座標変換データと今までの部品モデルデータを用いて部品モデルデータを較正する。
【0029】
(7.5)基準部品による位置データ較正方法
カメラの位置姿勢が変化した場合、図11に示すフローチャートに従い、次の手順でビンピッキングシステムの位置データを較正する。
▲1▼画像計測装置の新ビジョン系の設定を行う。
▲2▼基準部品モデルによりモデルマッチングを行う。
▲3▼マッチング結果より較正座標変換データTVV'を計算する。
▲4▼較正座標変換データと今までの装置位置関係データを用いて装置位置関係データを較正する。
▲5▼較正座標変換データと今までの部品モデルデータを用いて部品モデルデータを較正する。
【0030】
【実施例】
〔実施例1〕
本発明の第1の実施例に係る背景物体による位置データ較正装置を図12に示す。本実施例は、請求項1に係るものである。
この装置は、画像計測装置の新ビジョン系の設定を行うビジョン系設定部1と、背景物体モデルによりモデルマッチングを行う背景物体モデルマッチング部2と、マッチング結果より較正座標変換データを計算する較正座標変換データ計算部3と、較正座標変換データと今までの装置位置関係データを用いて装置位置関係データを較正する装置位置関係データ構成部4と、較正座標変換データと今までの部品モデルデータを用いて部品モデルデータを較正する部品モデルデータ較正部5とを備え、ビンピッキングシステムに必要な位置データを較正する。
【0031】
〔実施例2〕
本発明の第2の実施例に係る固定マーク物体による位置データ較正装置を図13に示す。本実施例は、請求項2に係るものである。
この装置は、実施例1の背景物体モデルマッチング部2に代えて、固定マーク物体モデルによりモデルマッチングを行う固定マークモデルマッチング部6を設け、ビンピッキングシステムに必要な位置データを較正する。
【0032】
〔実施例3〕
本発明の第3の実施例に係る取付マーク物体による位置データ較正装置を図14に示す。本実施例は、請求項3に係るものである。
この装置は、実施例1の背景物体モデルマッチング部2に代えて、取付マーク物体モデルによりモデルマッチングを行う取付マークモデルマッチング部7を設け、ビンピッキングシステムに必要な位置データを較正する。
【0033】
〔実施例4〕
本発明の第4の実施例に係るロボットアームに取り付けたマーク物体による位置データ較正装置を図15に示す。本実施例は、請求項4に係るものである。
この装置は、実施例1の背景物体モデルマッチング部2に代えて、ロボットアームに取り付けたマーク物体モデルによりモデルマッチングを行うロボット取付マーク物体モデルマッチング部8を設け、ビンピッキングシステムに必要な位置データを較正する。
【0034】
〔実施例5〕
本発明の第5の実施例に係る基準部品による位置データ較正装置を図16に示す。本実施例は、請求項5に係るものである。
この装置は、実施例1の背景物体モデルマッチング部2に代えて、基準部品モデルによりモデルマッチングを行う基準部品モデルマッチング部9を設けて、ビンピッキングシステムに必要な位置データを較正する。
【0035】
【発明の効果】
以上、実施例に基づいて具体的に説明したように、本発明によれば、カメラの故障や寿命、事故によるカメラの破損等でカメラを交換する場合でも、ビンピッキングシステムに必要な位置データを較正できるため、以下の効果を奏する。
(1)今までのデータを全て新しく作り直す必要がない。
(2)カメラ交換に伴う作業による作業時間を大幅に短縮できる。
(3)大量の部品モデルデータを扱い易く、多品種を扱う工程に容易に対応できる。
(4)過去に作った大量の部品モデルデータのデータベースを効率よく扱うことができる。
(5)カメラ交換に伴う作業コストを小さくすることができる。
(6)カメラ交換に伴う作業者の負担を軽減できる。
(7)カメラ交換作業を容易に行うことができる。
(8)定期的に位置データ較正を行うことにより、カメラ取付部の経年変化によってカメラの位置姿勢に多少のズレが生じた場合でも、システムを正常に動作させ続けることができる。
(9)定期的に位置データ較正を行うことによって、システムの信頼性が向上する。
【図面の簡単な説明】
【図1】位置データ較正に用いる座標系を示す説明図である。
【図2】背景物体による基準物体モデルを示す説明図である。
【図3】固定マーク物体による基準物体モデルを示す説明図である。
【図4】取付マーク物体による基準物体モデルを示す説明図である。
【図5】ロボットアームに取り付けたマーク物体による基準物体モデルを示す説明図である。
【図6】基準部品による基準物体モデルを示す説明図である。
【図7】背景物体による位置データ較正方法を示すフローチャートである。
【図8】固定マーク物体による位置データ較正方法を示すフローチャートである。
【図9】取付マーク物体による位置データ較正方法を示すフローチャートである。
【図10】ロボットアームに取り付けたマーク物体による位置データ較正方法を示すフローチャートである。
【図11】基準部品による位置データ較正方法を示すフローチャートである。
【図12】背景物体による位置データ較正装置を示す構成図である。
【図13】固定マーク物体による位置データ較正装置を示す構成図である。
【図14】取付マーク物体による位置データ較正方法装置を示す構成図である。
【図15】ロボットアームに取り付けたマーク物体による位置データ較正装置を示す構成図である。
【図16】基準部品による位置データ較正装置を示す構成図である。
【符号の説明】
1 ビジョン系設定部
2 背景物体モデルマッチング部
3 較正座標変換データ計算部
4 装置位置関係データ構成部
5 部品モデルデータ較正部
6 固定マークモデルマッチング部
7 取付マークモデルマッチング部
8 ロボット取付マーク物体モデルマッチング部
9 基準部品モデルマッチング部
[0001]
BACKGROUND OF THE INVENTION
  The present inventionBiCalibrate the positional data necessary for component detection and component detection necessary for the picking systemBin picking position data calibration deviceIs to provide.
[0002]
[Background]
The bin picking system is a system in which the position and orientation of a target part is detected by an image measuring device, and the target part is handled by a robot arm based on the information.
In addition, as an image measuring device, feature data having three-dimensional position data obtained by stereo measurement or the like as well as data that approximates features such as contours, unevenness, and patterns of a target object obtained from an input image with straight lines, arcs, etc. And obtaining the three-dimensional position and orientation of the target object by matching with the feature data having the three-dimensional position data of the model of the target object.
[0003]
There is a model-based matching method as a method for detecting the position of a target component, and various proposals are also made as a method for producing a model of a component.
Conventionally, various proposals have been made as a method for obtaining a relative relationship between a robot arm device and an image measuring device, which is necessary for handling.
[0004]
[Problems to be solved by the invention]
In order for the bin picking system to operate correctly, the positional relationship of each device necessary for detecting the position of the target component and calculating the handling data must be known and the positional relationship must be maintained correctly.
[0005]
However, when a camera is replaced due to a camera failure, a life span, or a camera damage due to an accident, the position of the camera and the coordinate system of the image measuring apparatus associated therewith change, so that all of the existing data needs to be recreated.
In addition, when the camera position and orientation are deviated due to the secular change of the camera mounting portion, the detected position and orientation of the target component is different from the actual position and orientation, resulting in a malfunction of the system operation.
[0006]
[Means for Solving the Problems]
  A bin picking position data calibration apparatus according to claim 1 of the present invention is a reference object model based on a background object that does not change the position of a belt conveyor or a workbench that exists in the field of view of an image measuring apparatus such as a camera.MakeThe old coordinate system (ΣV) And the new coordinate system (ΣV ') Set as the vision system setting unit (1) and the new vision system (Σ set by the vision system setting unit (1))V ')In the previous vision system (Σ V )Using the reference object modelAgainst the background objectBy performing model matching, the new vision system (ΣV ') Based onBackground objectCoordinate transformation data (TV'O) For obtaining a background object model matching unit (2) and inverse transformation (T of the coordinate transformation data obtained by the background object model matching unit (2)V'O -1) For the old vision system (ΣV) To new vision system (ΣV 'Coordinate conversion data (T)VV 'Calibration coordinate conversion data calculation unit (3) and the coordinate conversion data (T) obtained by the calibration coordinate conversion data calculation unit (3)VV ') And its inverse transform (TVV ' -1), The robot system (ΣR) To the old vision system (ΣVCoordinate conversion to TRV) And the previous vision system (ΣV) From the coordinate system of the target object handled by the robot arm device (ΣHCoordinate conversion to TVH) Based on the robot system (ΣR) To the new vision system (ΣV 'Coordinate conversion to TRV ') And the new vision system (ΣV ') To the hand system (ΣHCoordinate conversion to TV'H) For calculating the position of the apparatus relative to each other (4) and the coordinate conversion data (T) determined by the calibration coordinate conversion data calculation section (3).VV ') Inverse transform (TVV ' -1) Based on the old vision system (ΣV) Point of part model data (p)V) The new vision system (ΣV ') Point of part model data (p)V 'And a part model data calibrating unit (5) for converting to (5).
  Therefore, it is not necessary to prepare a special device for setting the reference object model, and there is an advantage that a simple system can be configured and the cost of the device can be reduced.
[0007]
  A bin picking position data calibration apparatus according to claim 2 of the present invention is a reference object model based on a mark object that is fixed in the field of view of an image measurement device such as a camera and is easily identified.MakeThe old coordinate system (ΣV) And the new coordinate system (ΣV ') Set as the vision system setting unit (1) and the new vision system (Σ set by the vision system setting unit (1))V ')In the previous vision system (Σ V )Using the reference object modelAgainst the marked objectBy performing model matching, the new vision system (ΣV ') Based onMark objectCoordinate transformation data (TV'O) To obtain a fixed mark model matching unit (6) and inverse transformation (T) of the coordinate transformation data obtained by the fixed mark model matching unit (6)V'O -1) For the old vision system (ΣV) To new vision system (ΣV 'Coordinate conversion data (T)VV 'Calibration coordinate conversion data calculation unit (3)
The coordinate conversion data (TVV ') And its inverse transform (TVV ' -1), The robot system (ΣR) To the old vision system (ΣVCoordinate conversion to TRV) And the previous vision system (ΣV) From the coordinate system of the target object handled by the robot arm device (ΣHCoordinate conversion to TVH) Based on the robot system (ΣR) To the new vision system (ΣV 'Coordinate conversion to TRV ') And the new vision system (ΣV ') To the hand system (ΣHCoordinate conversion to TV'H) For calculating the position of the apparatus relative to each other (4) and the coordinate conversion data (TVV ') Inverse transform (TVV ' -1) Based on the old vision system (ΣV) Point of part model data (p)V) The new vision system (ΣV ') Point of part model data (p)V 'And a part model data calibrating unit (5) for converting to (5).
  Therefore, highly accurate calibration coordinate conversion data can be obtained, and the reliability of the system can be improved.
  Further, since the mark is fixed in the camera field of view, there is an advantage that frequent periodic position data calibration can be easily performed.
[0008]
  The bin picking position data calibration device according to claim 3 of the present invention attaches a mark object with high accuracy to the field of view of an image measurement device such as a camera by a prepared jig during position data calibration work.Create a reference object model based on the marked object,The previous coordinate system before the replacement of the image measuring device due to its life or damage is the old vision system (ΣV) And the new coordinate system (ΣV ') Set as the vision system setting unit (1) and the new vision system (Σ set by the vision system setting unit (1))V ')In the previous vision system (Σ V ) For the mark object using the reference object model created inBy performing model matching, the new vision system (ΣV ') Based on coordinate conversion data (TV'O) For obtaining the attachment mark model matching unit (7) and the inverse transformation (T) of the coordinate transformation data obtained by the attachment mark model matching unit (7).V'O -1) For the old vision system (ΣV) To new vision system (ΣV 'Coordinate conversion data (T)VV 'Calibration coordinate conversion data calculation unit (3) and the coordinate conversion data (T) obtained by the calibration coordinate conversion data calculation unit (3)VV ') And its inverse transform (TVV ' -1), The robot system (ΣR) To the old vision system (ΣVCoordinate conversion to TRV) And the previous vision system (ΣV) From the coordinate system of the target object handled by the robot arm device (ΣHCoordinate conversion to TVH) Based on the robot system (ΣR) To the new vision system (ΣV 'Coordinate conversion to TRV ') And the new vision system (ΣV ') To the hand system (ΣHCoordinate conversion to TV'H) For calculating the position of the apparatus relative to each other (4) and the coordinate conversion data (T) determined by the calibration coordinate conversion data calculation section (3).VV ') Inverse transform (TVV ' -1) Based on the old vision system (ΣV) Point of part model data (p)V) The new vision system (ΣV ') Point of part model data (p)V 'And a part model data calibrating unit (5) for converting to (5).
  Therefore, there is an advantage that highly accurate calibration coordinate conversion data can be obtained and the reliability of the system can be improved.
[0009]
  A bin picking position data calibration apparatus according to claim 4 of the present invention attaches a mark object to a robot arm.A reference object model is created based on the marked object., The previous coordinate system (ΣV) And the new coordinate system (ΣV ') Set as the vision system setting unit (1) and the new vision system (Σ set by the vision system setting unit (1))V ')In the previous vision system (Σ V ) For the mark object using the reference object model created inBy performing model matching, the new vision system (ΣV ') Based on coordinate conversion data (TV'O) For obtaining the robot mounting mark object model matching unit (8) and the inverse transformation (T) of the coordinate transformation data obtained by the robot mounting mark object model matching unit (8).V'O -1) For the old vision system (ΣV) To new vision system (ΣV 'Coordinate conversion data (T)VV 'Calibration coordinate conversion data calculation unit (3) and the coordinate conversion data (T) obtained by the calibration coordinate conversion data calculation unit (3)VV ') And its inverse transform (TVV ' -1), The robot system (ΣR) To the old vision system (ΣVCoordinate conversion to TRV) And the previous vision system (ΣV) From the coordinate system of the target object handled by the robot arm device (ΣHCoordinate conversion to TVH) Based on the robot system (ΣR) To the new vision system (ΣV 'Coordinate conversion to TRV ') And the new vision system (ΣV ') To the hand system (ΣHCoordinate conversion to TV'H) For calculating the position of the apparatus relative to each other (4) and the coordinate conversion data (T) determined by the calibration coordinate conversion data calculation section (3).VV ') Inverse transform (TVV ' -1) Based on the old vision system (ΣV) Point of part model data (p)V) The new vision system (ΣV ') Point of part model data (p)V 'And a part model data calibrating unit (5) for converting to (5).
  Therefore, there is a merit that the mark object can be placed in the camera field of view with high positional accuracy to obtain highly accurate calibration coordinate conversion data, and the reliability of the system can be improved.
[0010]
  The bin picking position data calibration apparatus according to claim 5 of the present invention appropriately prepares a reference part for setting a reference object model on the operator side.A reference object model is created based on the reference parts., The previous coordinate system (ΣV) And the new coordinate system (ΣV ') Set as the vision system setting unit (1) and the new vision system (Σ set by the vision system setting unit (1))V ')In the previous vision system (Σ V ) For the reference part using the reference object modelBy performing model matching, the new vision system (ΣV ') Based on the coordinate conversion data (TV'O) For obtaining a reference part model matching unit (9) and inverse transformation (T of the coordinate transformation data obtained by the reference part model matching unit (9)V'O -1) For the old vision system (ΣV) To new vision system (ΣV 'Coordinate conversion data (T)VV 'Calibration coordinate conversion data calculation unit (3) and the coordinate conversion data (T) obtained by the calibration coordinate conversion data calculation unit (3)VV ') And its inverse transform (TVV ' -1), The robot system (ΣR) To the old vision system (ΣVCoordinate conversion to TRV) And the previous vision system (ΣV) From the coordinate system of the target object handled by the robot arm device (ΣHCoordinate conversion to TVH) Based on the robot system (ΣR) To the new vision system (ΣV 'Coordinate conversion to TRV ') And the new vision system (ΣV ') To the hand system (ΣHCoordinate conversion to TV'H) For calculating the position of the apparatus relative to each other (4) and the coordinate conversion data (T) determined by the calibration coordinate conversion data calculation section (3).VV ') Inverse transform (TVV ' -1) Based on the old vision system (ΣV) Point of part model data (p)V) The new vision system (ΣV ') Point of part model data (p)V 'And a part model data calibrating unit (5) for converting to (5).
  Therefore, it is not necessary to prepare a special device for setting the reference object model, and the cost of the system can be reduced.
  In addition, by selecting a part that is easy to identify as the reference part as the reference part and installing the reference part with a positional accuracy by a robot arm that operates with a high positional accuracy, it is possible to obtain highly accurate calibration coordinate conversion data, There is an advantage that the reliability of the system can be improved.
[0011]
DETAILED DESCRIPTION OF THE INVENTION
(1) Basic concept
The object of the present invention is to calibrate the positional relationship of each device required for the pin picking system and the position data required for component detection.
When the position and orientation of the camera changes, it is necessary to set a new coordinate system of the image measuring apparatus accordingly.
[0012]
At this time, if the positional relationship between the existing coordinate system of the image measuring device and the newly set coordinate system can be detected, the positional relationship data of the device and newly set component data necessary for component detection are used. It can be converted into data based on the coordinate system of the measuring device.
Therefore, in the present invention, for the object installed at the part model production position, model matching is performed in the new coordinate system using the part model created in the conventional coordinate system, so that Obtain the positional relationship of the newly set coordinate system.
[0013]
(2) Relative relationship with the coordinate system of each device
Each coordinate system is set as shown in FIG.
Here, each coordinate system is as follows.
ΣV: Old vision system (coordinate system of image measuring device so far)
ΣV ': New vision system (coordinate system newly set for image measuring device)
ΣR: Robot system (coordinate system of robot arm device)
ΣH: Hand system (coordinate system when handling the target object of the hand)
[0014]
The positional relationship between each device is obtained as coordinate conversion data from the coordinate system of the device to the coordinate system of another device.
TRV: Robot system ΣRFrom old vision system ΣVCoordinate transformation to
TVH: Old vision system ΣVFrom hand system ΣHCoordinate transformation to
TRV ': Robot system ΣRFrom new vision system ΣV 'Coordinate transformation to
TV'H: New vision system ΣV 'From hand system ΣHCoordinate transformation to
TVV ': Old vision system ΣVFrom new vision system ΣV 'Coordinate transformation to
[0015]
(3) Calculation of calibration coordinate conversion data
Conversion data required for data calibration is the old vision system ΣVFrom new vision system ΣV 'Coordinate conversion data TVV 'It is. This is obtained by model matching.
Old vision system ΣVCreate a part model of the reference object in, install the reference object at the model production position, and create a new vision system ΣV 'If the model matching is performed using the same model, the new vision system ΣV 'Position and orientation T of the reference object based onV'OCan be detected.
[0016]
At this time, the reference object is the old vision system ΣVThe new vision system ΣV 'Position and orientation T of the reference object detected inV'OIs the new vision system ΣV 'From old vision system ΣVCoordinate transformation toV'VIndicates.
Therefore, the coordinate transformation data required for data calibration is the old vision system ΣVFrom new vision system ΣV 'Coordinate conversion data TVV 'As follows.
TVV '= TV'O -1    ... (1)
[0017]
(4) Calibration of equipment position relation
Robot system ΣRAnd new vision system ΣV 'Can be calculated from the calibration coordinate conversion data and the previous positional relationship as follows.
TRV '= TRVTVV '  ... (2)
New vision system ΣV 'And hand system ΣHCan be calculated from the calibration coordinate conversion data and the previous positional relationship as follows.
TV'H= TVV ' -1TVH  ... (3)
[0018]
(5) Calibration of part model data
The three-dimensional shape model of the part is composed of three-dimensional linear features and curved features, and these three-dimensional data are the three-dimensional position data of the points on the features based on the vision system.
Therefore, the calibration of the three-dimensional shape model of the part is based on the old vision system Σ of the point position data constituting the model.VFrom new vision system ΣV 'This can be done by converting the coordinates.
Old vision system ΣVPoint p relative toVIs the new vision system ΣV 'Point p relative toV 'Is converted to:
[0019]
pV '= TVV ' -1pV  (4)
By reconstructing the points of the three-dimensional shape model thus converted, the three-dimensional shape model of the part can be calibrated.
New vision system ΣV 'If a 3D shape model based on is calculated, the 2D shape model on the image, which is the appearance model at the new position and orientation of the camera, is calibrated by perspective transformation of the 3D shape model to the camera image plane can do.
[0020]
(6) Setting of reference object model
(6.1) Setting of reference object model by background object
When there is an object whose position does not change in the field of view of the camera, a background object can be set as a reference object as shown in FIG. 2, and a reference object model can be set.
[0021]
(6.2) Setting of reference object model by fixed mark object
When a fixed mark object whose position does not change can be set in the camera field of view, the fixed object can be set as a reference object as shown in FIG. 3, and a reference object model can be set.
[0022]
(6.3) Setting of reference object model by mounting mark object
Although not always attached to the apparatus, when the attachment mark can be set by some jig during the calibration operation, the reference object model can be set with the attachment mark object as the reference object as shown in FIG.
[0023]
(6.4) Setting of reference object model by mark object attached to robot arm When mark object can be attached to robot arm, the mark object is set as a reference object and a reference object model is set as shown in FIG. be able to.
[0024]
(6.5) Setting reference object model with reference parts
When the part selected as the reference part for the calibration work can be installed at the same position using a robot arm or the like, the reference part model can be set with the reference part as the reference object as shown in FIG.
[0025]
(7) Position data calibration method
(7.1) Position data calibration method using a background object
When the position and orientation of the camera change, the position data of the bin picking system is calibrated according to the following procedure according to the flowchart shown in FIG.
(1) Set a new vision system for the image measuring device.
(2) Model matching is performed using the background object model.
(3) Calibration coordinate conversion data T from matching resultsVV 'Calculate
{Circle around (4)} The apparatus positional relationship data is calibrated using the calibration coordinate conversion data and the previous apparatus positional relationship data.
(5) The part model data is calibrated using the calibration coordinate conversion data and the part model data so far.
[0026]
(7.2) Method for calibrating position data with fixed mark object
When the position and orientation of the camera change, the position data of the bin picking system is calibrated by the following procedure according to the flowchart shown in FIG.
(1) Set a new vision system for the image measuring device.
(2) Model matching is performed using a fixed mark object model.
(3) Calibration coordinate conversion data T from matching resultsVV 'Calculate
{Circle around (4)} The apparatus positional relationship data is calibrated using the calibration coordinate conversion data and the previous apparatus positional relationship data.
(5) The part model data is calibrated using the calibration coordinate conversion data and the part model data so far.
[0027]
(7.3) Method for calibrating position data by mounting mark object
When the position and orientation of the camera changes, the position data of the bin picking system is calibrated according to the following procedure according to the flowchart shown in FIG.
(1) Set a new vision system for the image measuring device.
(2) Model matching is performed using the mounting mark object model.
(3) Calibration coordinate conversion data T from matching resultsVV 'Calculate
{Circle around (4)} The apparatus positional relationship data is calibrated using the calibration coordinate conversion data and the previous apparatus positional relationship data.
(5) The part model data is calibrated using the calibration coordinate conversion data and the part model data so far.
[0028]
(7.4) Position data calibration method using a mark object attached to a robot arm
When the position and orientation of the camera change, the position data of the bin picking system is calibrated according to the following procedure according to the flowchart shown in FIG.
(1) Set a new vision system for the image measuring device.
(2) Model matching is performed using a mark object model attached to the robot arm.
(3) Calibration coordinate conversion data T from matching resultsVV 'Calculate
{Circle around (4)} The apparatus positional relationship data is calibrated using the calibration coordinate conversion data and the previous apparatus positional relationship data.
(5) The part model data is calibrated using the calibration coordinate conversion data and the part model data so far.
[0029]
(7.5) Position data calibration method using reference parts
When the position and orientation of the camera change, the position data of the bin picking system is calibrated by the following procedure according to the flowchart shown in FIG.
(1) Set a new vision system for the image measuring device.
(2) Model matching is performed using a reference part model.
(3) Calibration coordinate conversion data T from matching resultsVV 'Calculate
{Circle around (4)} The apparatus positional relationship data is calibrated using the calibration coordinate conversion data and the previous apparatus positional relationship data.
(5) The part model data is calibrated using the calibration coordinate conversion data and the part model data so far.
[0030]
【Example】
[Example 1]
FIG. 12 shows a position data calibration apparatus using a background object according to the first embodiment of the present invention. The present embodiment relates to claim 1.
This apparatus includes a vision system setting unit 1 for setting a new vision system of an image measuring device, a background object model matching unit 2 for performing model matching using a background object model, and calibration coordinates for calculating calibration coordinate conversion data from the matching result. The conversion data calculation unit 3, the device position relationship data configuration unit 4 that calibrates the device position relationship data using the calibration coordinate conversion data and the previous device position relationship data, the calibration coordinate conversion data, and the previous part model data And a part model data calibration unit 5 for calibrating the part model data to calibrate position data necessary for the bin picking system.
[0031]
[Example 2]
FIG. 13 shows a position data calibration apparatus using a fixed mark object according to the second embodiment of the present invention. The present embodiment relates to claim 2.
In this apparatus, instead of the background object model matching unit 2 of the first embodiment, a fixed mark model matching unit 6 that performs model matching using a fixed mark object model is provided to calibrate position data necessary for the bin picking system.
[0032]
Example 3
FIG. 14 shows a position data calibration apparatus using an attachment mark object according to a third embodiment of the present invention. The present embodiment relates to claim 3.
In this apparatus, instead of the background object model matching unit 2 of the first embodiment, an attachment mark model matching unit 7 that performs model matching using an attachment mark object model is provided to calibrate position data necessary for the bin picking system.
[0033]
Example 4
FIG. 15 shows a position data calibration apparatus using a mark object attached to a robot arm according to a fourth embodiment of the present invention. The present embodiment relates to claim 4.
This apparatus is provided with a robot mounting mark object model matching unit 8 for performing model matching using a mark object model attached to a robot arm in place of the background object model matching unit 2 of the first embodiment, and position data necessary for the bin picking system. Calibrate
[0034]
Example 5
FIG. 16 shows a position data calibration apparatus using reference parts according to the fifth embodiment of the present invention. The present embodiment relates to claim 5.
In this apparatus, instead of the background object model matching unit 2 of the first embodiment, a reference part model matching unit 9 that performs model matching using a reference part model is provided to calibrate position data necessary for the bin picking system.
[0035]
【The invention's effect】
As described above in detail based on the embodiments, according to the present invention, the position data necessary for the bin picking system can be obtained even when the camera is replaced due to a camera failure, a life span, a camera damage due to an accident, or the like. Since it can be calibrated, it has the following effects.
(1) It is not necessary to recreate all the data so far.
(2) The working time due to work associated with camera replacement can be greatly reduced.
(3) It is easy to handle a large amount of part model data, and can easily cope with a process that handles a variety of products.
(4) A database of a large amount of part model data created in the past can be handled efficiently.
(5) The work cost associated with camera replacement can be reduced.
(6) It is possible to reduce the burden on the operator due to camera replacement.
(7) Camera replacement work can be easily performed.
(8) By periodically calibrating the position data, the system can continue to operate normally even if there is a slight shift in the position and orientation of the camera due to aging of the camera mounting portion.
(9) Periodic position data calibration improves system reliability.
[Brief description of the drawings]
FIG. 1 is an explanatory diagram showing a coordinate system used for position data calibration.
FIG. 2 is an explanatory diagram showing a reference object model based on a background object.
FIG. 3 is an explanatory diagram showing a reference object model using a fixed mark object.
FIG. 4 is an explanatory diagram showing a reference object model based on an attachment mark object.
FIG. 5 is an explanatory diagram showing a reference object model based on a mark object attached to a robot arm.
FIG. 6 is an explanatory diagram showing a reference object model based on reference parts.
FIG. 7 is a flowchart showing a position data calibration method using a background object.
FIG. 8 is a flowchart showing a position data calibration method using a fixed mark object.
FIG. 9 is a flowchart illustrating a position data calibration method using an attachment mark object.
FIG. 10 is a flowchart illustrating a position data calibration method using a mark object attached to a robot arm.
FIG. 11 is a flowchart showing a position data calibration method using a reference part.
FIG. 12 is a configuration diagram showing a position data calibration apparatus using a background object.
FIG. 13 is a block diagram showing a position data calibration apparatus using a fixed mark object.
FIG. 14 is a configuration diagram showing an apparatus for calibrating position data using an attachment mark object.
FIG. 15 is a block diagram showing a position data calibration device using a mark object attached to a robot arm.
FIG. 16 is a block diagram showing a position data calibration apparatus using reference parts.
[Explanation of symbols]
1 Vision system setting section
2 Background object model matching section
3 Calibration coordinate conversion data calculation part
4 Device position data structure
5 Parts model data calibration unit
6 Fixed mark model matching section
7 Installation mark model matching section
8 Robot mounting mark object model matching section
9 Reference part model matching section

Claims (5)

カメラ等の画像計測装置の視野内に存在するベルトコンベア或いは作業台等の位置が変化しない背景物体を基に基準物体モデルを作製し、前記画像計測装置を寿命又は破損等で交換する前の今までの座標系を旧ビジョン系(ΣV)とし、前記画像計測装置を交換した後の新たな座標系を新ビジョン系(ΣV')として設定するビジョン系設定部(1)と、
前記ビジョン系設定部(1)により設定された前記新ビジョン系(ΣV'において前記旧ビジョン系(Σ V )で作製された前記基準物体モデルを用いて前記背景物体に対するモデルマッチングを行うことにより、前記新ビジョン系(ΣV')を基にする前記背景物体の位置姿勢を示す座標変換データ(TV'O)を求める背景物体モデルマッチング部(2)と、
前記背景物体モデルマッチング部(2)により求められた前記座標変換データの逆変換(TV'O -1)を前記旧ビジョン系(ΣV)から新ビジョン系(ΣV')への座標変換データ(TVV')とする較正座標変換データ計算部(3)と、
前記較正座標変換データ計算部(3)により求められた前記座標変換データ(TVV')、その逆変換(TVV' -1)、ロボットアーム装置の座標系であるロボット系(ΣR)から前記旧ビジョン系(ΣV)への座標変換(TRV)及び前記旧ビジョン系(ΣV)からロボットアーム装置でハンドリングされる対象物体の座標系であるハンド系(ΣH)への座標変換(TVH)に基づいて、前記ロボット系(ΣR)から前記新ビジョン系(ΣV')への座標変換(TRV')及び前記新ビジョン系(ΣV')から前記ハンド系(ΣH)への座標変換(TV'H)をそれぞれ求める装置位置関係データ較正部(4)と、
前記較正座標変換データ計算部(3)により求められた前記座標変換データ(TVV')の逆変換(TVV' -1)に基づき、前記旧ビジョン系(ΣV)を基準にした部品モデルデータの点(pV)を前記新ビジョン系(ΣV')を基準にした部品モデルデータの点(pV')へ変換する部品モデルデータ較正部(5)と
を備えることを特徴とするビンピッキング位置データ較正装置。
A reference object model is created based on a background object that does not change the position of a belt conveyor or workbench that exists in the field of view of an image measurement device such as a camera, and the image measurement device is replaced before its life or damage. A vision system setting unit (1) that sets the previous coordinate system as the old vision system (Σ V ) and sets the new coordinate system after the replacement of the image measuring device as the new vision system (Σ V ′ );
Model matching is performed on the background object using the reference object model created in the old vision system (Σ V ) in the new vision system (Σ V ′ ) set by the vision system setting unit (1). A background object model matching unit (2) for obtaining coordinate transformation data (T V′O ) indicating the position and orientation of the background object based on the new vision system (Σ V ′ ),
The coordinate transformation from the old vision system (Σ V ) to the new vision system (Σ V ′ ) is performed on the inverse transformation (T V′O −1 ) of the coordinate transformation data obtained by the background object model matching unit (2). Calibration coordinate conversion data calculation unit (3) as data (T VV ′ ),
From the coordinate transformation data (T VV ′ ) obtained by the calibration coordinate transformation data calculation unit (3), its inverse transformation (T VV ′ −1 ), and the robot system (Σ R ) which is the coordinate system of the robot arm device. Coordinate transformation (T RV ) to the old vision system (Σ V ) and coordinate transformation from the old vision system (Σ V ) to the hand system (Σ H ) that is the coordinate system of the target object handled by the robot arm device Based on (T VH ), coordinate transformation (T RV ′ ) from the robot system (Σ R ) to the new vision system (Σ V ′ ) and from the new vision system (Σ V ′ ) to the hand system (Σ H ) The apparatus positional relationship data calibration unit (4) for obtaining the coordinate transformation (T V′H ) to H ),
A part model based on the old vision system (Σ V ) based on the inverse transformation (T VV ′ −1 ) of the coordinate transformation data (T VV ′ ) obtained by the calibration coordinate transformation data calculation unit (3). characterized in that it comprises part model data calibration unit for converting point data (p V) wherein the 'point of the part model data relative to the (p V new vision system (sigma V)') and (5) Bin picking position data calibration device.
カメラ等の画像計測装置の視野内に固定した識別の容易なマーク物体を基に基準物体モデルを作製し、前記画像計測装置を寿命又は破損等で交換する前の今までの座標系を旧ビジョン系(ΣV)とし、前記画像計測装置を交換した後の新たな座標系を新ビジョン系(ΣV')として設定するビジョン系設定部(1)と、
前記ビジョン系設定部(1)により設定された前記新ビジョン系(ΣV'において前記旧ビジョン系(Σ V )で作製された前記基準物体モデルを用いて前記マーク物体に対するモデルマッチングを行うことにより、前記新ビジョン系(ΣV')を基にする前記マーク物体の位置姿勢を示す座標変換データ(TV'O)を求める固定マークモデルマッチング部(6)と、
前記固定マークモデルマッチング部(6)により求められた前記座標変換データの逆変換(TV'O -1)を前記旧ビジョン系(ΣV)から新ビジョン系(ΣV')への座標変換データ(TVV')とする較正座標変換データ計算部(3)と、
前記較正座標変換データ計算部により求められた前記座標変換データ(TVV')、その逆変換(TVV' -1)、ロボットアーム装置の座標系であるロボット系(ΣR)から前記旧ビジョン系(ΣV)への座標変換(TRV)及び前記旧ビジョン系(ΣV)からロボットアーム装置でハンドリングされる対象物体の座標系であるハンド系(ΣH)への座標変換(TVH)に基づいて、前記ロボット系(ΣR)から前記新ビジョン系(ΣV')への座標変換(TRV')及び前記新ビジョン系(ΣV')から前記ハンド系(ΣH)への座標変換(TV'H)をそれぞれ求める装置位置関係データ較正部(4)と、
前記較正座標変換データ計算部により求められた前記座標変換データ(TVV')の逆変換(TVV' -1)に基づき、前記旧ビジョン系(ΣV)を基準にした部品モデルデータの点(pV)を前記新ビジョン系(ΣV')を基準にした部品モデルデータの点(pV')へ変換する部品モデルデータ較正部(5)と
を備えることを特徴とするビンピッキング位置データ較正装置。
A reference object model is created based on an easily-identified marked object fixed in the field of view of an image measurement device such as a camera, and the previous coordinate system before the image measurement device is replaced due to its life or damage, etc. system and (sigma V), the vision system setting unit sets a new coordinate system after replacing the image measuring device as a new vision system (sigma V ') and (1),
Model matching is performed on the mark object using the reference object model created in the old vision system (Σ V ) in the new vision system (Σ V ′ ) set by the vision system setting unit (1). A fixed mark model matching unit (6) for obtaining coordinate transformation data (T V′O ) indicating the position and orientation of the mark object based on the new vision system (Σ V ′ ),
The coordinate transformation from the old vision system (Σ V ) to the new vision system (Σ V ′ ) is performed on the inverse transformation (T V′O −1 ) of the coordinate transformation data obtained by the fixed mark model matching unit (6). Calibration coordinate conversion data calculation unit (3) as data (T VV ′ ),
From the coordinate transformation data (T VV ′ ) obtained by the calibration coordinate transformation data calculation unit, its inverse transformation (T VV ′ −1 ), and the robot system (Σ R ) which is the coordinate system of the robot arm device, the old vision system (sigma V) coordinate transformation to (T RV) and the coordinate transformation from the old vision system (sigma V) hand system is a coordinate system of the object to be handled by the robotic arm device to (Σ H) (T VH ) Based on the coordinate transformation (T RV ′ ) from the robot system (Σ R ) to the new vision system (Σ V ′ ) and from the new vision system (Σ V ′ ) to the hand system (Σ H ). An apparatus positional relationship data calibration unit (4) for obtaining the coordinate transformation (T V′H ) of
The point of the part model data based on the old vision system (Σ V ) based on the inverse transformation (T VV ′ −1 ) of the coordinate transformation data (T VV ′ ) obtained by the calibration coordinate transformation data calculation unit. (p V) of the new vision system (sigma V ') bin picking position, characterized in that it comprises part model data calibration unit for converting to the point of the part model data on the basis (p V a') and (5) Data calibration device.
位置データ較正作業時に、用意しておいたジグによってマーク物体をカメラ等の画像計測装置の視野内に位置精度良く取り付け、前記マーク物体を基に基準物体モデルを作製し、前記画像計測装置を寿命又は破損等で交換する前の今までの座標系を旧ビジョン系(ΣV)とし、前記画像計測装置を交換した後の新たな座標系を新ビジョン系(ΣV')として設定するビジョン系設定部(1)と、
前記ビジョン系設定部(1)により設定された前記新ビジョン系(ΣV'において前記旧ビジョン系(Σ V )で作製された前記基準物体モデルを用いて前記マーク物体に対するモデルマッチングを行うことにより、前記新ビジョン系(ΣV')を基にする前記マーク物体の位置姿勢を示す座標変換データ(TV'O)を求める取付マークモデルマッチング部(7)と、
前記取付マークモデルマッチング部(7)により求められた前記座標変換データの逆変換(TV'O -1)を前記旧ビジョン系(ΣV)から新ビジョン系(ΣV')への座標変換データ(TVV')とする較正座標変換データ計算部(3)と、
前記較正座標変換データ計算部(3)により求められた前記座標変換データ(TVV')、その逆変換(TVV' -1)、ロボットアーム装置の座標系であるロボット系(ΣR)から前記旧ビジョン系(ΣV)への座標変換(TRV)及び前記旧ビジョン系(ΣV)からロボットアーム装置でハンドリングされる対象物体の座標系であるハンド系(ΣH)への座標変換(TVH)に基づいて、前記ロボット系(ΣR)から前記新ビジョン系(ΣV')への座標変換(TRV')及び前記新ビジョン系(ΣV')から前記ハンド系(ΣH)への座標変換(TV'H)をそれぞれ求める装置位置関係データ較正部(4)と、
前記較正座標変換データ計算部(3)により求められた前記座標変換データ(TVV')の逆変換(TVV' -1)に基づき、前記旧ビジョン系(ΣV)を基準にした部品モデルデータの点(pV)を前記新ビジョン系(ΣV')を基準にした部品モデルデータの点(pV')へ変換する部品モデルデータ較正部(5)と
を備えることを特徴とするビンピッキング位置データ較正装置。
At the time of position data calibration work, a marked object is attached with high accuracy to the field of view of an image measuring device such as a camera by using a prepared jig , a reference object model is created based on the marked object, and the image measuring device has a lifetime. Or a vision system in which the previous coordinate system before replacement due to breakage or the like is set as the old vision system (Σ V ), and the new coordinate system after replacement of the image measuring device is set as the new vision system (Σ V ′ ). A setting unit (1);
Model matching is performed on the mark object using the reference object model created in the old vision system (Σ V ) in the new vision system (Σ V ′ ) set by the vision system setting unit (1). An attachment mark model matching unit (7) for obtaining coordinate transformation data (T V′O ) indicating the position and orientation of the mark object based on the new vision system (Σ V ′ ),
The coordinate transformation from the old vision system (Σ V ) to the new vision system (Σ V ′ ) is performed on the inverse transformation (T V′O −1 ) of the coordinate transformation data obtained by the mounting mark model matching unit (7). Calibration coordinate conversion data calculation unit (3) as data (T VV ′ ),
From the coordinate transformation data (T VV ′ ) obtained by the calibration coordinate transformation data calculation unit (3), its inverse transformation (T VV ′ −1 ), and the robot system (Σ R ) which is the coordinate system of the robot arm device. Coordinate transformation (T RV ) to the old vision system (Σ V ) and coordinate transformation from the old vision system (Σ V ) to the hand system (Σ H ) that is the coordinate system of the target object handled by the robot arm device Based on (T VH ), coordinate transformation (T RV ′ ) from the robot system (Σ R ) to the new vision system (Σ V ′ ) and from the new vision system (Σ V ′ ) to the hand system (Σ H ), the apparatus positional relationship data calibration unit (4) for obtaining the coordinate transformation (T V′H ) to
A part model based on the old vision system (Σ V ) based on the inverse transformation (T VV ′ −1 ) of the coordinate transformation data (T VV ′ ) obtained by the calibration coordinate transformation data calculation unit (3). characterized in that it comprises part model data calibration unit for converting point data (p V) wherein the 'point of the part model data relative to the (p V new vision system (sigma V)') and (5) Bin picking position data calibration device.
ロボットアームにマーク物体を取り付けると共に前記マーク物体を基に基準物体モデルを作製し、画像計測装置を寿命又は破損等で交換する前の今までの座標系を旧ビジョン系(ΣV)とし、前記画像計測装置を交換した後の新たな座標系を新ビジョン系(ΣV')として設定するビジョン系設定部(1)と、
前記ビジョン系設定部(1)により設定された前記新ビジョン系(ΣV'において前記旧ビジョン系(Σ V )で作製された前記基準物体モデルを用いて前記マーク物体に対するモデルマッチングを行うことにより、前記新ビジョン系(ΣV')を基にする前記マーク物体の位置姿勢を示す座標変換データ(TV'O)を求めるロボット取付マーク物体モデルマッチング部(8)と、
前記ロボット取付マーク物体モデルマッチング部(8)により求められた前記座標変換データの逆変換(TV'O -1)を前記旧ビジョン系(ΣV)から新ビジョン系(ΣV')への座標変換データ(TVV')とする較正座標変換データ計算部(3)と、
前記較正座標変換データ計算部(3)により求められた前記座標変換データ(TVV')、その逆変換(TVV' -1)、ロボットアーム装置の座標系であるロボット系(ΣR)から前記旧ビジョン系(ΣV)への座標変換(TRV)及び前記旧ビジョン系(ΣV)からロボットアーム装置でハンドリングされる対象物体の座標系であるハンド系(ΣH)への座標変換(TVH)に基づいて、前記ロボット系(ΣR)から前記新ビジョン系(ΣV')への座標変換(TRV')及び前記新ビジョン系(ΣV')から前記ハンド系(ΣH)への座標変換(TV'H)をそれぞれ求める装置位置関係データ較正部(4)と、
前記較正座標変換データ計算部(3)により求められた前記座標変換データ(TVV')の逆変換(TVV' -1)に基づき、前記旧ビジョン系(ΣV)を基準にした部品モデルデータの点(pV)を前記新ビジョン系(ΣV')を基準にした部品モデルデータの点(pV')へ変換する部品モデルデータ較正部(5)と
を備えることを特徴とするビンピッキング位置データ較正装置。
Attach the mark object to the robot arm and create a reference object model based on the mark object. The previous coordinate system before replacing the image measuring device due to its service life or damage is the old vision system (Σ V ). A vision system setting unit (1) for setting a new coordinate system after replacing the image measuring device as a new vision system (Σ V ′ );
Model matching is performed on the mark object using the reference object model created in the old vision system (Σ V ) in the new vision system (Σ V ′ ) set by the vision system setting unit (1). A robot-attached mark object model matching unit (8) for obtaining coordinate transformation data (T V′O ) indicating the position and orientation of the mark object based on the new vision system (Σ V ′ ),
The inverse transformation (T V′O −1 ) of the coordinate transformation data obtained by the robot mounting mark object model matching unit (8) is changed from the old vision system (Σ V ) to the new vision system (Σ V ′ ). Calibration coordinate conversion data calculation unit (3) as coordinate conversion data (T VV ′ ),
From the coordinate transformation data (T VV ′ ) obtained by the calibration coordinate transformation data calculation unit (3), its inverse transformation (T VV ′ −1 ), and the robot system (Σ R ) which is the coordinate system of the robot arm device. Coordinate transformation (T RV ) to the old vision system (Σ V ) and coordinate transformation from the old vision system (Σ V ) to the hand system (Σ H ) that is the coordinate system of the target object handled by the robot arm device Based on (T VH ), coordinate transformation (T RV ′ ) from the robot system (Σ R ) to the new vision system (Σ V ′ ) and from the new vision system (Σ V ′ ) to the hand system (Σ H ), the apparatus positional relationship data calibration unit (4) for obtaining the coordinate transformation (T V′H ) to
A part model based on the old vision system (Σ V ) based on the inverse transformation (T VV ′ −1 ) of the coordinate transformation data (T VV ′ ) obtained by the calibration coordinate transformation data calculation unit (3). characterized in that it comprises part model data calibration unit for converting point data (p V) wherein the 'point of the part model data relative to the (p V new vision system (sigma V)') and (5) Bin picking position data calibration device.
基準物体モデルを設定するための基準部品を作業者側で適切に用意すると共に前記基準部品を基に基準物体モデルを作製し、画像計測装置を寿命又は破損等で交換する前の今までの座標系を旧ビジョン系(ΣV)とし、前記画像計測装置を交換した後の新たな座標系を新ビジョン系(ΣV')として設定するビジョン系設定部(1)と、
前記ビジョン系設定部(1)により設定された前記新ビジョン系(ΣV'において前記旧ビジョン系(Σ V )で作製された前記基準物体モデルを用いて前記基準部品に対するモデルマッチングを行うことにより、前記新ビジョン系(ΣV')を基にする前記基準部品の位置姿勢を示す座標変換データ(TV'O)を求める基準部品モデルマッチング部(9)と、
前記基準部品モデルマッチング部(9)により求められた前記座標変換データの逆変換(TV'O -1)を前記旧ビジョン系(ΣV)から新ビジョン系(ΣV')への座標変換データ(TVV')とする較正座標変換データ計算部(3)と、
前記較正座標変換データ計算部(3)により求められた前記座標変換データ(TVV')、その逆変換(TVV' -1)、ロボットアーム装置の座標系であるロボット系(ΣR)から前記旧ビジョン系(ΣV)への座標変換(TRV)及び前記旧ビジョン系(ΣV)からロボットアーム装置でハンドリングされる対象物体の座標系であるハンド系(ΣH)への座標変換(TVH)に基づいて、前記ロボット系(ΣR)から前記新ビジョン系(ΣV')への座標変換(TRV')及び前記新ビジョン系(ΣV')から前記ハンド系(ΣH)への座標変換(TV'H)をそれぞれ求める装置位置関係データ較正部(4)と、
前記較正座標変換データ計算部(3)により求められた前記座標変換データ(TVV')の逆変換(TVV' -1)に基づき、前記旧ビジョン系(ΣV)を基準にした部品モデルデータの点(pV)を前記新ビジョン系(ΣV')を基準にした部品モデルデータの点(pV')へ変換する部品モデルデータ較正部(5)と
を備えることを特徴とするビンピッキング位置データ較正装置。
Prepare the reference parts for setting the reference object model appropriately on the operator side, create the reference object model based on the reference parts, and the coordinates before replacing the image measuring device due to its life or damage A vision system setting unit (1) for setting the system as the old vision system (Σ V ) and setting the new coordinate system after the replacement of the image measuring device as the new vision system (Σ V ′ );
Model matching is performed on the reference part using the reference object model created in the old vision system (Σ V ) in the new vision system (Σ V ′ ) set by the vision system setting unit (1). A reference part model matching unit (9) for obtaining coordinate transformation data (T V′O ) indicating the position and orientation of the reference part based on the new vision system (Σ V ′ ),
The coordinate transformation from the old vision system (Σ V ) to the new vision system (Σ V ′ ) is performed on the inverse transformation (T V′O −1 ) of the coordinate transformation data obtained by the reference part model matching unit (9). Calibration coordinate conversion data calculation unit (3) as data (T VV ′ ),
From the coordinate transformation data (T VV ′ ) obtained by the calibration coordinate transformation data calculation unit (3), its inverse transformation (T VV ′ −1 ), and the robot system (Σ R ) which is the coordinate system of the robot arm device. Coordinate transformation (T RV ) to the old vision system (Σ V ) and coordinate transformation from the old vision system (Σ V ) to the hand system (Σ H ) that is the coordinate system of the target object handled by the robot arm device Based on (T VH ), coordinate transformation (T RV ′ ) from the robot system (Σ R ) to the new vision system (Σ V ′ ) and from the new vision system (Σ V ′ ) to the hand system (Σ H ), the apparatus positional relationship data calibration unit (4) for obtaining the coordinate transformation (T V′H ) to
A part model based on the old vision system (Σ V ) based on the inverse transformation (T VV ′ −1 ) of the coordinate transformation data (T VV ′ ) obtained by the calibration coordinate transformation data calculation unit (3). characterized in that it comprises part model data calibration unit for converting point data (p V) wherein the 'point of the part model data relative to the (p V new vision system (sigma V)') and (5) Bin picking position data calibration device.
JP19696598A 1998-07-13 1998-07-13 Bin picking position data calibration device Expired - Lifetime JP4387476B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP19696598A JP4387476B2 (en) 1998-07-13 1998-07-13 Bin picking position data calibration device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP19696598A JP4387476B2 (en) 1998-07-13 1998-07-13 Bin picking position data calibration device

Publications (2)

Publication Number Publication Date
JP2000024973A JP2000024973A (en) 2000-01-25
JP4387476B2 true JP4387476B2 (en) 2009-12-16

Family

ID=16366603

Family Applications (1)

Application Number Title Priority Date Filing Date
JP19696598A Expired - Lifetime JP4387476B2 (en) 1998-07-13 1998-07-13 Bin picking position data calibration device

Country Status (1)

Country Link
JP (1) JP4387476B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108942929A (en) * 2018-07-10 2018-12-07 广州供电局有限公司 The method and device of mechanical arm positioning crawl based on binocular stereo vision

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4413291B2 (en) * 1998-08-18 2010-02-10 株式会社明電舎 Bin picking device with position data calibration function
EP1472052A2 (en) 2002-01-31 2004-11-03 Braintech Canada, Inc. Method and apparatus for single camera 3d vision guided robotics
JP4015051B2 (en) 2002-04-22 2007-11-28 松下電器産業株式会社 Camera correction device
US8437535B2 (en) 2006-09-19 2013-05-07 Roboticvisiontech Llc System and method of determining object pose
US7957583B2 (en) 2007-08-02 2011-06-07 Roboticvisiontech Llc System and method of three-dimensional pose estimation
US8559699B2 (en) 2008-10-10 2013-10-15 Roboticvisiontech Llc Methods and apparatus to facilitate operations in image based systems
US10290118B2 (en) * 2015-08-06 2019-05-14 Cognex Corporation System and method for tying together machine vision coordinate spaces in a guided assembly environment
CN115026841B (en) * 2022-08-11 2022-11-11 艾斯特国际安全技术(深圳)有限公司 Calibration method of manipulator, terminal device and computer storage medium

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108942929A (en) * 2018-07-10 2018-12-07 广州供电局有限公司 The method and device of mechanical arm positioning crawl based on binocular stereo vision

Also Published As

Publication number Publication date
JP2000024973A (en) 2000-01-25

Similar Documents

Publication Publication Date Title
CA2318626C (en) Calibration and compensation of robot-based gauging system
EP1607194B1 (en) Robot system comprising a plurality of robots provided with means for calibrating their relative position
CN107042527B (en) Industrial robot calibration device and method based on three-dimensional force sensor
JP4387476B2 (en) Bin picking position data calibration device
JP2018012152A (en) Device and method for calibrating origin position of robot
JP2001515236A (en) Method for calibrating a robot inspection system
US20070009149A1 (en) Method and device for the contactless optical determination of the 3D position of an object
US7117115B2 (en) Three-dimensional machine with simultaneous measurements
CN110757504A (en) Positioning error compensation method of high-precision movable robot
JP6466661B2 (en) Robot teaching point conversion method, apparatus, and robot cell
JP3402021B2 (en) Method for detecting relative position and orientation of robot device
US11554494B2 (en) Device for acquiring a position and orientation of an end effector of a robot
JPH0445311B2 (en)
JP4096415B2 (en) Position data calibration device
WO2002097362A1 (en) Photogrammetry targets
CN114012719A (en) Zero calibration method and system for six-axis robot
JPH058185A (en) Automatic operation error measuring method of robot body
JP4413291B2 (en) Bin picking device with position data calibration function
KR100301231B1 (en) The automatic compensation method for robot working path
JPH08118272A (en) Calibration of robot
WO2021172271A1 (en) Robot system
JP4125074B2 (en) Three-dimensional shape measurement method
JP2996165B2 (en) Shape measuring method and shape measuring device using the same
JPH0774964B2 (en) Robot positioning error correction method
KR100214675B1 (en) Calibration apparatus and the method of calibratoriginal position and orientation for industrial robot

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040823

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20061019

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070109

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070403

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070606

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20070612

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20070713

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090803

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091001

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121009

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131009

Year of fee payment: 4

EXPY Cancellation because of completion of term