JP2005201861A - 3次元視覚センサ - Google Patents

3次元視覚センサ Download PDF

Info

Publication number
JP2005201861A
JP2005201861A JP2004010786A JP2004010786A JP2005201861A JP 2005201861 A JP2005201861 A JP 2005201861A JP 2004010786 A JP2004010786 A JP 2004010786A JP 2004010786 A JP2004010786 A JP 2004010786A JP 2005201861 A JP2005201861 A JP 2005201861A
Authority
JP
Japan
Prior art keywords
coordinate system
dimensional
light
plane
reference light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004010786A
Other languages
English (en)
Other versions
JP3930482B2 (ja
Inventor
Kazukuni Ban
一訓 伴
Ichiro Kanno
一郎 管野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Priority to JP2004010786A priority Critical patent/JP3930482B2/ja
Priority to DE602005000598T priority patent/DE602005000598T2/de
Priority to EP05000816A priority patent/EP1555507B1/en
Priority to US11/037,330 priority patent/US7202957B2/en
Publication of JP2005201861A publication Critical patent/JP2005201861A/ja
Application granted granted Critical
Publication of JP3930482B2 publication Critical patent/JP3930482B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/37Measurements
    • G05B2219/37048Split beam, stripe projection on object, lines detected with cameras
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/37Measurements
    • G05B2219/37555Camera detects orientation, position workpiece, points of workpiece

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Theoretical Computer Science (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Manipulator (AREA)

Abstract

【課題】 スリット(又は疑似スリット)光を対象物表面上に照射し、特定の箇所の3次元位置を計測する3次元視覚センサの計測精度と信頼性の向上。
【解決手段】 ワーク13上の求める点11を含む2次元的な特徴部15の2次元画像を取得し、N個(N≧2)の点を定める。スリット光を投光器1で投光し、投光箇所19の画像を取得し、M個(M≧2)の点を定める。N個の点とカメラ2内の1点とを結ぶ各直線と、スリット光平面の交点の3次元位置をセンサ座標系上で求め、参照座標系(スリット平面上or同平面に平行)上のデータに座標変換する。同様に、M個の点の3次元位置を参照座標系上のデータに座標変換する。最小自乗法等でM個、N個の点が各々定める直線(or曲線)を求め、両者の交点を求め逆変換でセンサ座標系上でのデータに戻す。特徴部検出にテンプレートマッチングの手法を用いても良い。
【選択図】 図2

Description

本発明は3次元視覚センサに関し、更に詳しく言えば、スポット光又はスリット光を対象物表面上に照射し、対象物の特定の箇所の3次元位置を計測する3次元視覚センサに関する。本発明に係る3次元視覚センサは、例えばロボットと組み合わせて、各種アプリケーションに用いられる。
平面状に走査されるスポット光(以下、「疑似スリット光」とも言う)やスリット光を使用して、計測対象物のいくつかの端点を求めることで、計測対象物の3次元位置を求める手法は以前より知られており、例えば下記(i)、(ii)の例がある。
(i)ある平面の板金に空いた穴に2本以上のスリット光を投光し、3点以上の端点を見つけることで、その穴の3次元的な位置や面の方向を求める。この手法は、例えば下記特許文献1に開示されている。
(ii)走査したスポット光(疑似スリット光)やスリット光を使用して、その画像上での形状をテンプレートとして、テンプレートマッチングを適用することで、走査したスポット光やスリット光を特定し、それらに含まれている検出箇所の3次元位置を得るこの手法については、例えば下記特許文献2に開示がなされている。
なお、スポット光又はスリット光を対象物表面上に照射し、対象物の特定の箇所の3次元位置を計測する3次元視覚センサのキャリブレーションについては、種々の手法が周知となっており、例えば下記特許文献3に開示がある。
特開平6−258024号公報 特開平10−105717号公報 特開平10−063317号公報
上記(i)の手法では、結局、計測精度は穴とスリット光または走査スポット光で形成される疑似スリット光との交差する部分がいかに正確に検出できるかにかかっている。ところが、穴とスリット光が交差する部分というのは、実はスリット光がもっとも特定しにくい部分であり、細かい工夫を試みることで若干の改善が見られることはあっても、本質的な解決が難しい。また、対象物の表面状態や色によっては、前記交差する部分がかすれて見えなくなったり、逆にハレーションを起こしたりして、判別不能になるケースも往々にして見られる。
また、上記(ii)の手法では、画像上でテンプレートマッチングを行なっているが、対象物の色や表面状態によってはスリットが太くなったり、かすれたりして、スリット光の中心は正確であっても、テンプレートのモデルとは形状が異なる画像が形成されることが多く、結果的に安定した検出が難しい。更に、画像面の端に近い部分では、レンズの歪の影響を受けやすく、それを避けるために焦点距離の長いレンズを採用すれば視野が狭くなり、僅かな対象のずれでスリット光が見えなくなる、といった問題も生じる。
そこで本発明の目的は上記従来技術の問題点を解決することにある。即ち、本発明は、スポット光又はスリット光を対象物表面上に照射し、対象物の特定の箇所の3次元位置を計測する3次元視覚センサを改良し、従来技術では正確な3次元位置の計測が難しかったようなケースにおいても、平面状の参照光上にある特徴点の3次元位置を正確に求めることができるようにすることを企図するものである。
本発明は、平面状に投光する参照光(スリット光またはスポット光走査で形成される疑似スリット光)を使用した3次元視覚センサにおいて、ロボットの座標系やセンサ固有の座標系で求めた複数の点の3次元位置を、参照光の平面に関連した座標系上に投影し、投影した座標系上で特徴点を求め、求めた特徴点の位置を、ロボットの座標系やセンサ固有の座標系に変換することで上記課題を解決するものである。
より具体的に言えば、請求項1に記載された発明は、スポット光又はスリット光を参照光として被計測対象物表面上に照射した状況を撮像手段で撮像し、取得した画像上の前記参照光入射位置と前記参照光の照射方向とに基づき前記被計測対象物表面上に前記参照光が入射された3次元位置を検出する手段を備えた3次元視覚センサに適用されるものであり、次のような特徴を有している。
即ち、前記スポット光を走査した際に作られる平面又はスリット光を含む平面である参照光平面と前記被計測対象物表面との交線上に、該交線の形状を特定するのに必要な複数点の3次元位置を検出し、3つの座標軸の内の2つの座標軸が張る平面が前記参照光平面と一致または平行関係になるように設定された3次元直交座標系上で前記交線を求める手段と、第2撮像手段により前記被計測対象物を撮像して取得した画像から、前記被計測対象物に関する特徴線の画像平面上での位置を検出する手段と、該画像平面上の前記特徴線を投影変換により前記参照光平面に投影し、投影された投影特徴線を前記3次元直交座標系上で求める手段と、前記交線と前記投影特徴線との交点を前記3次元直交座標系上での座標値で求める手段と、該求めた交点の座標値をロボットに設定されている座標系と前記3次元視覚センサに設定されている座標系のうち、少なくとも1つの座標系上の3次元座標値に変換する手段とが設けられる。ここで、請求項2に記したように、前記第1撮像手段を前記第2撮像手段に兼用することができる。
また、請求項3に記載された発明は、テンプレートマッチングを用いるもので、スポット光又はスリット光を参照光として被計測対象物表面上に照射した状況を撮像手段で撮像し、取得した画像上の前記参照光入射位置と前記参照光の照射方向とに基づき前記被計測対象物表面上に前記参照光が入射された3次元位置を検出する手段を備えた3次元視覚センサに適用される。
そして、前記スポット光を走査した際に作られる平面又はスリット光を含む平面である参照光平面と前記被計測対象物表面との交線上に、該交線の形状を特定するのに必要な複数点の3次元位置を検出し、3つの座標軸の内の2つの座標軸が張る平面が前記参照光平面と一致または平行関係になるように設定された3次元直交座標系上で前記交線を求める手段と、予め用意された交線の形状パターンのテンプレートと前記3次元直交座標系で求めた交線とのマッチングを行なうことにより前記交線上の検出個所を特定し、該検出個所を前記3次元直交座標系上の座標値で求める手段と、該求めた交点の座標値をロボットに設定された座標系と前記3次元視覚センサに設定された座標系のうち、少なくとも1つの座標系の3次元座標値に変換する手段とが設けられる。
本発明に係る3次元視覚センサにおいては、面状に投光される参照光が当たっているワーク等の対象物上の各点について、ロボットの座標系やセンサの座標系での3次元位置を求める。次に、3次元位置を求めた座標系から、参照光の平面に関連する座標系への座標変換を行い、その座標変換に従って、3次元位置を変換する。変換後の位置情報を使って、変換後の座標系での求めるべき特徴点の位置をもとめる。その際に周知のテンプレートマッチングの手法を利用しても良い。その位置をさらにもとの座標系に変換する。これにより、平面状の参照光上にある特徴点の3次元位置が求められる。
従来技術では正確な3次元位置の計測が難しかったようなケースにおいても、平面状の参照光上にある特徴点の3次元位置を正確に求めることができるようになり、3次元視覚センサの計測精度と信頼性が向上する。
以下、図面を参照して本発明の実施形態について説明する。先ず図1は、本発明の一つの実施形態で採用される全体構成を示した図である。3次元視覚センサのセンサヘッド部は、スリット光または疑似スリット光を参照光として投光する投光器1と、投光された参照光を受光するビデオカメラ2からなっている。ビデオカメラ2は、参照光の反射光を検出する受光器としてだけではなく、計測対象の2次元的な特徴量を求めるためにも使用される。既述の通り、ここで言う「疑似スリット光」とは、平面状に走査されるスポット光によって形成される疑似的なスリット光のことである。そして、スリット光が乗っている平面、あるいは、スポット光走査に際してスポット光投射ビームが乗っている平面が「参照光平面」である。なお、以下の説明では、特にことわりのない限り、「スリット光」を「疑似スリット光」を包含する表現として用いる。
符号6は、ロボットコントローラ5に接続されて同ロボットコントローラ5により周知の方式で制御されるロボットである。図示されているように、3次元視覚センサ(センサヘッド部;以下、同様)は、ロボット6の先端(フェイスプレート)に取り付けられている。ロボットコントローラ5は視覚センサの画像処理/制御部を兼ねており、投光器1、ビデオカメラ2に接続され、投光器1の投光動作、ビデオカメラ2の撮像動作の制御、画像の取り込み、画像処理の外、後述する諸処理がこのロボットコントローラ5内で行なわれる。
ロボット6は固有の座標系(以下、「ロボット座標系」という)7を持っており、ロボット6のフェースプレートには、同フェースプレートに固定された座標系(以下、「フェイスプレート座標系」という)3が設定されている。フェイスプレート座標系3は、ロボット座標系に関連付けられており、そのデータ(行列データ)は、ロボットコントローラ5内のメモリに記憶されている。また、3次元視覚センサについて周知のキャリブレーションが完了しており、それによって得られた諸データ(キャリブレーションデータ)はロボットコントローラ5内のメモリに記憶されている。
キャリブレーションデータには、投光器1の投光するスリット光が空間上どこに平面(参照光面)を構成しているかを計算するためのデータ、ビデオカメラ2の光軸はどの方向を向いているかを計算するためのデータ等が含まれている。また、同時に視覚センサ自身の固有の座標系(以下、「センサ座標系」という)4が設定されており、フェイスプレート座標系3とセンサ座標系4は変換行列[Sf ]で関連付けるようになっており、この変換行列[Sf ]のデータもロボットコントローラ5内のメモリに合わせて記憶されている。なお、キャリブレーションの具体的なやり方、データの内容等については周知であり、変換行列[Sf ]の求め方については前出の特許文献3に記されている。
図2は、図1に示したシステムにおいて、ロボットコントローラ5から指令を送り、計測対象(ここでは直方体ワーク)13に投光器1からスリット光(前述した通り、走査スポット光で形成される疑似スリット光である場合を含む;以下、同様)12を照射し、ワーク13の一辺15との交点11の3次元位置を求めるアプリケーション例を示している。以下、本実施形態において、この交点11の3次元位置が正確に求める手法を説明する。
スリット光12がワーク13に当たると、その光のあたった箇所19は、当然、他所よりも明るくなる。スリット光12は平面状であるから、理想的には、投光箇所19は一定の線幅を持つ明瞭な輝線(疑似スリット光の場合は点列を連ねた疑似輝線;以下、同様。)となる筈である。しかし、前述したように、実際のケースではワーク13の表面状態、色等により、投光箇所19の一部、特に交点11の近傍で線幅の乱れ、明暗の不明瞭さ等が現れることがあり得る。
つまり、投光箇所19の全体が不明瞭な極端なケースでない限り、多くの点についてはそれぞれの3次元位置をセンサ座標系上での3次元位置を求めることはできるのであるが、交点11の近傍で線幅の乱れや明暗の不明瞭さ等が現れた場合には、正確な交点11の位置を確定することができず、それが従来技術の欠点となっていた訳である。
本実施形態では、投光箇所19を構成する各点のセンサ座標系上での3次元位置を一旦、スリット光12の面上にX−Y平面を設定した参照座標系上での3次元位置に座標変換する。この座標変換を表わす変換行列を[T]とする。変換行列を[T]のデータは、投光箇所19を形成するスリット光の乗る平面のデータとセンサ座標系の設定データから定めることができる。なお、参照座標系のX軸あるいはY軸の方向については決め方に自由度が残るが、例えばセンサ座標系のX軸(またはY軸)を参照平面上に射影したものの方向を参照座標系のX軸(またはY軸)とすることにすれば良い。
今、投光箇所19上の各点Pn のセンサ座標系上での3次元位置を(xn,yn,zn )とし、参照座標系上での3次元位置を(Xn,Yn,Zn )とすれば、各点Pn の射影が参照平面(スリット光12の面)上にあることから、Zn =0となる筈である。従って、この参照座標系上での3次元位置(Xn,Yn,0)を事実上2次元情報として処理することができる。なお、ここでは、スリット光12の面上にX−Y平面を一致するように参照座標系を設定したが、各座標系の2軸が張る平面、例えばX−Y平面とスリット光12の面とが平行になるように参照座標系を設定しても良い。その場合は、スリット光12の面は、参照座標系では各点についてZn =Z0 (但し、Z0 は定数)となり、(Xn,Yn,0)に代えて、(Xn,Yn,Z0 )となるが、Zn の値は一定のままであり、これらの点を2次元情報として処理できることに変わりはない。
ところで、求める交点11は、スリット光12がワーク13に当たっている箇所19上の点であるとともに、ワーク13の一辺15上の点でもある。そして、ワーク13の一辺15は、ビデオカメラ2による通常の撮像機能(2次元画像取得機能)と視覚センサの画像処理機能により、線分(線像)として捉えることができる。その様子が、図2において、画像平面16上の線分(線像)17で示されている。線分17とビデオカメラ2内の1点(通常はレンズ中心、キャリブレーションでその位置が求められている)を含む平面18上に、ワーク13の一辺15は含まれている。
そこで、この平面18とスリット光12の面(ここでは、参照座標系上でZ=0で表わされる)との交線を考える。図3は、図2中の参照座標系のX−Y平面における、スリット光12がワーク13に当たっている投光箇所19と、ワーク13の一辺15との関係を示している。ここでは、ワークが直方体であるため、スリット光12がワーク13に当たっている箇所19も、ワーク13の一辺15も直線として投影される。従って、直線同士の交点を求めれば良い。実際上の手法としては、、投光箇所19に対応する直線、及び、辺15に対応する直線を表わす方程式を最小自乗法など公知の方法で求め、その交点(Xq,Yq,0)を計算すれば良い。こここで、(Xq,Yq,0)は参照座標系上での座標値である。
また、仮にワークの面が曲面であったり、ワークの一辺が曲線であった場合には、直線ではなく曲線として投影されるが、例えば多項式曲線やスプライン曲線に最小自乗法で近似する、といった公知の手法を用いて関数化し、それらの交点を求めることで、同様に扱うことができる。こうして求めた交点の位置(参照座標系上での値)に、前述した変換(行列[T]で表わされる)の逆変換(行列[T]の逆行列 Inv[T]で表わされる)を施せば、元のセンサ座標系での3次元位置を求めることができる。また、センサ座標系での3次元位置は、前記の変換行列[Sf ]を用いてロボット座標系上でのデータに変換することもできる。図4は、以上の過程をフローチャートにまとめたもので、各ステップの要点は下記の通りである。
ステップS1;ロボットコントローラ5からビデオカメラ2に通常の撮像を行なう指令を送り、ワーク(一般には被測定対象物;以下、同様。)13上の求める点を含む直線などの2次元的な特徴部を収めた2次元画像を取得する。
ステップS2;ロボットコントローラ5内での画像処理により、2次元的な特徴を画像平面上で抽出する。
ステップS3;抽出した画像平面上の特徴(例えば一辺)の中からN個(NはN≧2で、例えば数10程度に予め設定)の点を適当なルールで定める。例えば、特徴に対応する画素から等間隔で選ぶ。
ステップS4;ロボットコントローラ5から投光器1に投光指令を送るとともに、ビデオカメラ2にスリット光撮像を行なう指令を送り、投光箇所19を含む画像を取得する。
ステップS5;ロボットコントローラ5内での画像処理により、投光箇所19を画像平面上で抽出する。
ステップS6;ステップS4で抽出した投光箇所19の像の中からM個(MはM≧2で、例えば数10程度に予め設定)の点を適当なルールで定める。例えば、投光箇所に対応する画素から等間隔で選ぶ。
ステップS7;ステップS3で選んだ各点(N個)とビデオカメラ2内の1点(例えばレンズ中心)とを結ぶ各直線(N本)と、ステップS4で投光したスリット光の面(スリット平面)との交点(計N個)の3次元位置をセンサ座標系上で求める。
ステップS8;ステップS6で選んだ各点(M個)の3次元位置(センサ座標系上)を、参照座標系(スリット平面上あるいは同平面に平行に設定)上のデータに、座標変換の行列[T]を用いて変換する。
ステップS9;ステップS7で求めた各点(N個)の3次元位置(センサ座標系上)を、参照座標系(スリット平面上あるいは同平面に平行に設定)上の出に、座標変換の行列[T]を用いて変換する。
ステップS10;ステップS8で得た結果に基づき、最小自乗法のような公知の近似手法で、M個の点が参照平面上で表現する曲線(場合によっては直線)を定める。
ステップS11;ステップS9で得た結果に基づき、最小自乗法のような公知の近似手法で、N個の点が参照平面上で表現する曲線(場合によっては直線)を定める。
ステップS12;ステップS10及びステップS11で求めた曲線(または直線)の交点位置を参照座標系上で求める。
ステップS13;ステップS12で求めた交点位置に[T]の逆行列 Inv[T]で表わされる逆変換を施し、センサ座標系上での交点位置を求める。
ステップS14;ステップS13で求めた交点位置に行列[Sf ]で表わされる変換を施し、フェイスプレート座標系上での交点位置を求める。もし、必要であれば、これを更にロボット座標系上のデータに変換する。
以上の手順により、交点11(図2参照)の正確な3次元位置を知ることができる。この手順のポイントは、ステップS5で抽出する投光箇所19の画像(画素)、あるいは、ステップS6で選択する点に、交点11自体(対応する画素)が含まれていなくても構わないことである。つまり、投光箇所19の画像は、全体としてステップS10で曲線(または直線)が正確に決定できれば、交点11の3次元位置の精度は低下しない。このような利点は、従来技術では得られないものである。
次に、図5に示したような別のアプリケーションへの適用例について説明する。このアプリケーションは、段になったワーク23の凸部の1点21の3次元位置を求める例である。先ず、被計測対象物を代表する適当なワークを用意し、同ワークについて上記した例と同様に、スリット光12がワーク23に当たっている投光箇所22については、投光箇所22の任意の諸点について、センサ座標系4での3次元位置を求めることができる。これを上記した例と同じく座標変換(行列[T])によって、参照座標系での3次元位置に変換する。
これにより、参照座標系のX−Y平面で、各点のX、Yの値をプロットし、必要に応じて連結し、画像化する。その例を図6に示した。ここでは、プロット・連結した各点が境界としてわかりやすくするため、その左右で明度差を設けている。この図で、求める特徴点を含む形状を、前もってモデル画像24としてロボットコントローラ5に登録(教示)する。このモデル画像24は、以後の計測時に、特徴部(ここでは凸部)の検出にテンプレートとして利用される。即ち、以降は、毎回、個々の被計測ワークの入力画像を使って同様の対応画像を作成し、その画像の中から、正規化相関など公知のモデルマッチング技術を適用して同じ形状のものを認識し、特徴点21を検出(認識乃至特定)する。
そして検出された特徴点21の3次元位置(参照座標系上)に逆変換( Inv[T])を施して、元のセンサ座標系4上での特徴点21の3次元位置とすることができる。
図7、図8は、このような過程を「教示(モデル登録)」と「計測」に分けてフローチャートにまとめたもので、各ステップの要点は下記の通りである。
[教示(モデル登録)](図7参照)
ステップQ1;ロボットコントローラ5から投光器1に投光指令を送り、教示用のワークの凸部の点21をスリット光が通るようにスリット光を投光するとともに、ビデオカメラ2にスリット光撮像を行なう指令を送り、投光箇所22を含む画像を取得する。
ステップQ2;ロボットコントローラ5内での画像処理により、投光箇所22を画像平面上で抽出する。
ステップQ3;ステップQ2で抽出した投光箇所22の像を表現する適当な個数(例えば100個程度)の点列を定める。
ステップQ4;ステップQ3で定めた点列の3次元位置(センサ座標系上)を、参照座標系(スリット平面上あるいは同平面に平行に設定)上のデータに、座標変換の行列[T]を用いて変換する。
ステップQ5;ステップQ4で得られた点列に基づいて2次元画像を作成する。必要であれば、点列の連結、連結された線で2分された領域について明暗付け等の処理を行なう。
ステップQ6;ステップQ5で作成された2次元画像をモデル画像としてロボットコントローラ5のメモリに記憶して処理を終了する。
[計測](図8参照)
ステップR1;ロボットコントローラ5から投光器1に投光指令を送り、被計測のワークの凸部の点21をスリット光が通るようにスリット光を投光するとともに、ビデオカメラ2にスリット光撮像を行なう指令を送り、投光箇所22を含む画像を取得する。
ステップR2;ロボットコントローラ5内での画像処理により、投光箇所22を画像平面上で抽出する。
ステップR3;ステップR2で抽出した投光箇所22の像を表現する適当な個数(例えば100個程度)の点列を定める。
ステップR4;ステップR3で定めた点列の3次元位置(センサ座標系上)を、参照座標系(スリット平面上あるいは同平面に平行に設定)上のデータに、座標変換の行列[T]を用いて変換する。
ステップR5;ステップR4で得られた点列に基づいて2次元画像を作成する。必要であれば、点列の連結、連結された線で2分された領域について明暗付け等、モデル画像作成で行なったと同等の処理を行なう。
ステップR6;教示されているモデル画像をテンプレートとして用い、ステップR5で作成された2次元画像とのパターンマッチングを行なって、特徴部(点21を持つ凸部)を認識する。
ステップR7;点21を特定し、その参照座標系上の3次元位置に逆変換( Inv[T])を施して、センサ座標系上での3次元位置を求める。
ステップR8;ステップR7で求めた位置に行列[Sf ]で表わされる変換を施し、フェイスプレート座標系上での交点位置を求める。もし、必要であれば、これを更にロボット座標系上のデータに変換する。
以上の手順により、凸部上の点21(図5参照)の正確な3次元位置を知ることができる。この手順のポイントは、ステップQ2、R2で抽出する投光箇所22の画像(画素)も点21自体(対応する画素)が含まれていなくても構わないことである。つまり、全体としてステップQ5、R5で作成される2次元画像が正確に決定できれば、点21の3次元位置の精度は低下しない。このような利点は、従来技術では得られないものである。
本発明の一つの実施形態で採用される全体構成を示した図である。 実施形態におけるアプリケーション例を示した図である。 図2中の参照座標系のX−Y平面における、スリット光12がワーク13に当たっている投光箇所19と、ワーク13の一辺15との関係を示す図である。 図2に示したアプリケーション例について、実施形態で実行される手順の概略を示したフローチャートである。 実施形態における別のアプリケーション例を示した図である。 図5に示したアプリケーション例について説明する概念図である。 図5に示したアプリケーション例について、実施形態で実行される教示(モデル登録)の手順の概略を示したフローチャートである。 図5に示したアプリケーション例について、実施形態で実行される計測の手順の概略を示したフローチャートである。
符号の説明
1 投光器
2 ビデオカメラ
3 フェイスプレート座標系
4 センサ座標系
5 ロボットコントローラ
6 ロボット
7 ロボット座標系
11 スリット光とワークの一辺15との交点
12 スリット光
13、23 ワーク
15 ワークの一辺
16 画像平面
17 線分
18 線分17とビデオカメラ2内の1点を含む平面
19、22 投光箇所
20 参照座標系
21 凸部の1点
24 モデル画像

Claims (3)

  1. スポット光又はスリット光を参照光として被計測対象物表面上に照射した状況を第1撮像手段で撮像し、取得した画像上の前記参照光入射位置と前記参照光の照射方向とに基づき前記被計測対象物表面上に前記参照光が入射された3次元位置を検出する手段を備えた3次元視覚センサにおいて、
    前記スポット光を走査した際に作られる平面又はスリット光を含む平面である参照光平面と前記被計測対象物表面との交線上に、該交線の形状を特定するのに必要な複数点の3次元位置を検出し、3つの座標軸の内の2つの座標軸が張る平面が前記参照光平面と一致または平行関係になるように設定された3次元直交座標系上で前記交線を求める手段と、
    第2撮像手段により前記被計測対象物を撮像して取得した画像から、前記被計測対象物に関する特徴線の画像平面上での位置を検出する手段と、
    該画像平面上の前記特徴線を投影変換により前記参照光平面に投影し、投影された投影特徴線を前記3次元直交座標系上で求める手段と、
    前記交線と前記投影特徴線との交点を前記3次元直交座標系上での座標値で求める手段と、
    該求めた交点の座標値をロボットに設定されている座標系と前記3次元視覚センサに設定されている座標系のうち、少なくとも1つの座標系上の3次元座標値に変換する手段と、
    を備えたことを特徴とする3次元視覚センサ。
  2. 前記第1撮像手段が前記第2撮像手段を兼ねる、請求項1に記載の3次元視覚センサ。
  3. スポット光又はスリット光を参照光として被計測対象物表面上に照射した状況を撮像手段で撮像し、取得した画像上の前記参照光入射位置と前記参照光の照射方向とに基づき前記被計測対象物表面上に前記参照光が入射された3次元位置を検出する手段を備えた3次元視覚センサにおいて、
    前記スポット光を走査した際に作られる平面又はスリット光を含む平面である参照光平面と前記被計測対象物表面との交線上に、該交線の形状を特定するのに必要な複数点の3次元位置を検出し、3つの座標軸の内の2つの座標軸が張る平面が前記参照光平面と一致または平行関係になるように設定された3次元直交座標系上で前記交線を求める手段と、
    予め用意された交線の形状パターンのテンプレートと前記3次元直交座標系で求めた交線とのマッチングを行なうことにより前記交線上の検出個所を特定し、該検出個所を前記3次元直交座標系上の座標値で求める手段と、
    該求めた交点の座標値をロボットに設定された座標系と前記3次元視覚センサに設定された座標系のうち、少なくとも1つの座標系の3次元座標値に変換する手段と、
    を備えたことを特徴とする3次元視覚センサ。
JP2004010786A 2004-01-19 2004-01-19 3次元視覚センサ Expired - Lifetime JP3930482B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2004010786A JP3930482B2 (ja) 2004-01-19 2004-01-19 3次元視覚センサ
DE602005000598T DE602005000598T2 (de) 2004-01-19 2005-01-17 Dreidimensionaler optischer Sensor
EP05000816A EP1555507B1 (en) 2004-01-19 2005-01-17 Three-dimensional visual sensor
US11/037,330 US7202957B2 (en) 2004-01-19 2005-01-19 Three-dimensional visual sensor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004010786A JP3930482B2 (ja) 2004-01-19 2004-01-19 3次元視覚センサ

Publications (2)

Publication Number Publication Date
JP2005201861A true JP2005201861A (ja) 2005-07-28
JP3930482B2 JP3930482B2 (ja) 2007-06-13

Family

ID=34616942

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004010786A Expired - Lifetime JP3930482B2 (ja) 2004-01-19 2004-01-19 3次元視覚センサ

Country Status (4)

Country Link
US (1) US7202957B2 (ja)
EP (1) EP1555507B1 (ja)
JP (1) JP3930482B2 (ja)
DE (1) DE602005000598T2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011502673A (ja) * 2007-11-19 2011-01-27 クーカ・ロボター・ゲゼルシャフト・ミット・ベシュレンクテル・ハフツング ロボット、医療ワークステーションおよび、対象物の表面に画像を投影する方法
CN103105186A (zh) * 2011-11-14 2013-05-15 鸿富锦精密工业(深圳)有限公司 自动更换测针***及方法
CN112665530A (zh) * 2021-01-05 2021-04-16 银昌龄 投影线对应的光平面识别装置、三维测量***及方法

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060271332A1 (en) * 2005-05-18 2006-11-30 Perceptron, Inc. Method for calibrating a non-contact sensor using a robot
US8031175B2 (en) * 2008-04-21 2011-10-04 Panasonic Corporation Touch sensitive remote control system that detects hand size characteristics of user and adapts mapping to screen display
US9393694B2 (en) 2010-05-14 2016-07-19 Cognex Corporation System and method for robust calibration between a machine vision system and a robot
US8134717B2 (en) * 2010-05-21 2012-03-13 LTS Scale Company Dimensional detection system and associated method
CN102494611B (zh) * 2011-12-05 2013-12-18 中国人民解放军国防科学技术大学 一种物体体积快速测量方法
JP6160148B2 (ja) * 2013-03-19 2017-07-12 富士通株式会社 生体情報入力装置、生体情報入力プログラム、生体情報入力方法
CN103307976B (zh) * 2013-04-16 2015-09-16 杭州先临三维科技股份有限公司 粮仓中粮食存储量的监测方法
US9267784B2 (en) 2013-07-15 2016-02-23 Faro Technologies, Inc. Laser line probe having improved high dynamic range
TWI489082B (zh) * 2013-12-24 2015-06-21 Univ Nat Taiwan Science Tech 用於校正雷射量測裝置的方法及其系統
US9531967B2 (en) 2013-12-31 2016-12-27 Faro Technologies, Inc. Dynamic range of a line scanner having a photosensitive array that provides variable exposure
US9658061B2 (en) 2013-12-31 2017-05-23 Faro Technologies, Inc. Line scanner that uses a color image sensor to improve dynamic range
JP5829306B2 (ja) * 2014-05-12 2015-12-09 ファナック株式会社 レンジセンサの配置位置評価装置
US9656390B2 (en) 2014-11-10 2017-05-23 Faro Technologies, Inc. Human-centric robot with noncontact measurement device
CN105739365B (zh) * 2014-12-10 2018-10-12 联想(北京)有限公司 信息处理方法及电子设备
CN104501740B (zh) * 2014-12-18 2017-05-10 杭州鼎热科技有限公司 一种基于标记点轨迹跟踪的手持激光三维扫描方法及设备
CN104881875A (zh) * 2015-06-09 2015-09-02 河海大学常州校区 基于先验知识的医学断层图像闭合骨骼轮廓重建方法
CN106482665B (zh) * 2016-09-21 2018-05-08 大连理工大学 一种组合点群高精度三维信息视觉测量方法
CN106546184B (zh) * 2016-09-30 2019-02-26 长春理工大学 大型复杂曲面三维形貌机器人柔性测量***
CN109764807B (zh) * 2019-01-14 2021-03-05 广东原点智能技术有限公司 发动机缸***置标定的2d视觉检测方法及检测***
CN110060304B (zh) * 2019-03-31 2022-09-30 南京航空航天大学 一种生物体三维信息采集方法
CN110296680B (zh) * 2019-06-11 2020-11-24 清华大学 机器人抓取货品的姿态测量方法和***
CN111906759B (zh) * 2020-05-19 2022-04-08 宁波大学 一种3d运动机构智能移动方法
CN111750804B (zh) * 2020-06-19 2022-10-11 浙江华睿科技股份有限公司 一种物体测量的方法及设备
CN113945152B (zh) * 2021-10-18 2023-09-08 易思维(杭州)科技有限公司 利用立体块恢复单线结构光三维传感器测量功能的方法
CN114083536B (zh) * 2021-11-24 2023-09-08 易思维(杭州)科技有限公司 一种利用立体块恢复单线结构光传感器手眼关系的方法

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5129010A (en) * 1989-12-15 1992-07-07 Kabushiki Kaisha Toyoto Chuo Kenkyusho System for measuring shapes and dimensions of gaps and flushnesses on three dimensional surfaces of objects
JP2767340B2 (ja) * 1991-12-26 1998-06-18 ファナック株式会社 物体の3次元位置・姿勢計測方式
JPH06258024A (ja) 1993-03-09 1994-09-16 Honda Motor Co Ltd 孔計測における画像処理方法
US6049385A (en) * 1996-06-05 2000-04-11 Minolta Co., Ltd. Three dimensional measurement system and pickup apparatus
JPH1063317A (ja) 1996-08-13 1998-03-06 Fanuc Ltd ロボット−視覚センサシステムにおける座標系結合方法
JPH10105717A (ja) * 1996-09-30 1998-04-24 Honda Motor Co Ltd パターンマッチング用テンプレートの作成方法
JP2002022423A (ja) * 2000-07-12 2002-01-23 Minolta Co Ltd 3次元入力装置
JP2002172575A (ja) * 2000-12-07 2002-06-18 Fanuc Ltd 教示装置
US6798527B2 (en) * 2001-04-27 2004-09-28 Minolta Co., Ltd. Three-dimensional shape-measuring system
JP2003150219A (ja) * 2001-11-12 2003-05-23 Fanuc Ltd 作業機械のシミュレーション装置
JP3859571B2 (ja) * 2002-10-17 2006-12-20 ファナック株式会社 3次元視覚センサ
JP3859574B2 (ja) * 2002-10-23 2006-12-20 ファナック株式会社 3次元視覚センサ
JP3892838B2 (ja) * 2003-10-16 2007-03-14 ファナック株式会社 3次元測定装置
US7084989B2 (en) * 2004-04-19 2006-08-01 Sick Ivp Aktiebolag Measuring apparatus and method in a distribution system
JP3946716B2 (ja) * 2004-07-28 2007-07-18 ファナック株式会社 ロボットシステムにおける3次元視覚センサの再校正方法及び装置
JP3977369B2 (ja) * 2004-10-01 2007-09-19 ファナック株式会社 ロボットプログラム生成装置及び解析装置

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011502673A (ja) * 2007-11-19 2011-01-27 クーカ・ロボター・ゲゼルシャフト・ミット・ベシュレンクテル・ハフツング ロボット、医療ワークステーションおよび、対象物の表面に画像を投影する方法
CN103105186A (zh) * 2011-11-14 2013-05-15 鸿富锦精密工业(深圳)有限公司 自动更换测针***及方法
CN112665530A (zh) * 2021-01-05 2021-04-16 银昌龄 投影线对应的光平面识别装置、三维测量***及方法
CN112665530B (zh) * 2021-01-05 2022-09-23 银昌龄 投影线对应的光平面识别装置、三维测量***及方法

Also Published As

Publication number Publication date
DE602005000598T2 (de) 2007-10-31
JP3930482B2 (ja) 2007-06-13
EP1555507A1 (en) 2005-07-20
DE602005000598D1 (de) 2007-04-12
US7202957B2 (en) 2007-04-10
EP1555507B1 (en) 2007-02-28
US20050162420A1 (en) 2005-07-28

Similar Documents

Publication Publication Date Title
JP3930482B2 (ja) 3次元視覚センサ
CN108297096B (zh) 校准装置、校准方法以及计算机能够读取的介质
JP4885584B2 (ja) レンジファインダ校正方法及び装置
CN103649674B (zh) 测量设备以及信息处理设备
JP3951984B2 (ja) 画像投影方法、及び画像投影装置
JP2007206797A (ja) 画像処理方法および画像処理装置
JP6519265B2 (ja) 画像処理方法
JP2003130621A (ja) 3次元形状計測方法およびその装置
KR20190124452A (ko) 용접비드 비전 검사 장치 및 용접 불량 검사방법
JP7191309B2 (ja) カメラを用いるレーザープロジェクションマーキングの自動ガイド・位置決め及びリアルタイム補正方法
JP2011089826A (ja) ねじ穴または穴の内部表面欠陥検査装置
JP2019063954A (ja) ロボットシステム、キャリブレーション方法及びキャリブレーションプログラム
JP2009250844A (ja) 三次元形状計測方法および三次元形状計測装置
JP2010060556A (ja) 曲面部材計測システム及び方法
US20180051983A1 (en) Measurement system and method for configuring the measurement system
US20170309035A1 (en) Measurement apparatus, measurement method, and article manufacturing method and system
JP2016161351A (ja) 計測装置
WO2020012707A1 (ja) 3次元測定装置及び方法
KR20130075712A (ko) 레이저비전 센서 및 그 보정방법
JP7007324B2 (ja) 画像処理装置、画像処理方法、及びロボットシステム
JP6061631B2 (ja) 計測装置、情報処理装置、計測方法、情報処理方法、および、プログラム
JP2020129187A (ja) 外形認識装置、外形認識システム及び外形認識方法
Hata et al. 3D vision sensor with multiple CCD cameras
US20230333028A1 (en) Method and system for inspecting a surface with artifical intelligence assist
JPH1177308A (ja) 溶接線検出方法およびその装置並びに溶接装置

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060908

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061031

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061222

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070308

R150 Certificate of patent or registration of utility model

Ref document number: 3930482

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100316

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110316

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120316

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130316

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130316

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140316

Year of fee payment: 7

EXPY Cancellation because of completion of term