JP2012013593A - Calibration method for three-dimensional shape measuring machine, and three-dimensional shape measuring machine - Google Patents

Calibration method for three-dimensional shape measuring machine, and three-dimensional shape measuring machine Download PDF

Info

Publication number
JP2012013593A
JP2012013593A JP2010151633A JP2010151633A JP2012013593A JP 2012013593 A JP2012013593 A JP 2012013593A JP 2010151633 A JP2010151633 A JP 2010151633A JP 2010151633 A JP2010151633 A JP 2010151633A JP 2012013593 A JP2012013593 A JP 2012013593A
Authority
JP
Japan
Prior art keywords
line light
image
shape measuring
dimensional
measuring machine
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010151633A
Other languages
Japanese (ja)
Inventor
Koichi Kudo
浩一 工藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2010151633A priority Critical patent/JP2012013593A/en
Publication of JP2012013593A publication Critical patent/JP2012013593A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a calibration method for a three-dimensional shape measuring machine for correcting distortion of a line light illumination system with high accuracy, and the three-dimensional shape measuring machine having been calibrated by the calibration method.SOLUTION: A three-dimensional shape measuring machine 1 has the line light projection device 16 as an illumination part for projecting line light on an object 17 to be detected, and a measurement camera 11 which is an imaging part for acquiring an image of the line light projected on the object 17 to be detected, and calculates three-dimensional coordinates of the object 17 to be detected from the image. A calibration method of a three-dimensional shape measuring machine 1 corrects a distortion of a line light projection device 16 included in the three-dimensional coordinates. The calibration method includes the steps of arranging a diffusion surface 21a substantially perpendicularly to an optical axis of the line light projection device 16; irradiating the diffusion surface 21a with the line light by a line light projection device-16 part and acquiring the image of the line light by the measurement camera 11; and calculating correction data for correcting the three-dimensional coordinates from the acquired image.

Description

本発明は、3次元形状測定機の校正方法及びこの校正方法により校正された3次元形状測定機に関する。   The present invention relates to a calibration method for a three-dimensional shape measuring machine and a three-dimensional shape measuring machine calibrated by the calibration method.

従来技術で構成する光切断方式の3次元形状測定機において、その要求される測定精度が数100μm程度である場合には、光切断線を理想的な曲がりのないトレース面として扱うことで十分その目的を達成することができた。   In the optical cutting type three-dimensional shape measuring machine configured in the prior art, when the required measurement accuracy is about several hundreds of micrometers, it is sufficient to treat the optical cutting line as an ideal non-bending trace surface. The goal was achieved.

特開2007−292619号公報JP 2007-292619 A

しかしながら、より高精度な3次元形状測定機を構成するためには、そのライン光照明系の投影レンズの収差、点光源の特性、或いは照明光軸の曲がりその他によって複雑な曲面を描き、これらが被検物に照射され光切断線を構成した場合に誤差を生じ、正確な空間座標の測定を行うには不十分であった。   However, in order to construct a more accurate three-dimensional shape measuring machine, a complicated curved surface is drawn by the aberration of the projection lens of the line light illumination system, the characteristics of the point light source, or the bending of the illumination optical axis, etc. When a light cutting line is formed by irradiating the test object, an error occurs, which is insufficient to accurately measure the spatial coordinates.

本発明はこのような課題に鑑みてなされたものであり、ライン光照明系の歪みが高精度に校正するための3次元形状測定機の校正方法、及び、この校正方法により校正された3次元形状測定機を提供することを目的とする。   The present invention has been made in view of such problems, and a calibration method of a three-dimensional shape measuring machine for calibrating distortion of a line light illumination system with high accuracy, and a three-dimensional calibrated by this calibration method. An object is to provide a shape measuring machine.

前記課題を解決するために、本発明に係る3次元形状測定機の校正方法は、被検物にライン光を投影する照明部と、この照明部の光軸と異なる方向から被検物上に投影されたライン光の像を取得する撮像部と、を有し、ライン光の像から被検物の3次元座標を算出する3次元形状測定機において、3次元座標に含まれる照明部の歪みを校正するものであって、照明部の光軸に対して略垂直に拡散性を有する面を配置するステップと、照明部により拡散性を有する面にライン光を照射して撮像部でライン光の像を取得するステップと、取得した像から3次元座標を校正する補正データを算出するステップと、を有する。   In order to solve the above-described problem, a calibration method for a three-dimensional shape measuring machine according to the present invention includes an illumination unit that projects line light onto a test object, and a direction different from the optical axis of the illumination unit on the test object. An imaging unit that acquires an image of the projected line light, and a distortion of the illumination unit included in the three-dimensional coordinate in the three-dimensional shape measuring machine that calculates the three-dimensional coordinates of the test object from the line light image The step of disposing a surface having diffusivity substantially perpendicular to the optical axis of the illumination unit and irradiating the surface having diffusibility by the illumination unit and irradiating the line light at the imaging unit And obtaining correction data for calibrating three-dimensional coordinates from the obtained image.

このような3次元形状測定機の校正方法において、拡散性を有する面を配置するステップは、配置された拡散性を有する面の設置姿勢を測定し、また、補正データを算出するステップは、設置姿勢を用いて補正データを算出することが好ましい。   In such a calibration method of the three-dimensional shape measuring machine, the step of arranging the diffusive surface measures the installation posture of the arranged diffusive surface, and calculates the correction data includes the step of installing It is preferable to calculate correction data using the attitude.

また、このような3次元形状測定機の校正方法において、ライン光の像を取得するステップは、ライン光を照射した状態で、拡散性を有する面を光軸に沿って移動させて、所定のピッチ毎に撮像部により像を取得し、補正データを算出するステップは、複数の像からライン光の3次元トレース面を作成し、この3次元トレース面から補正データを算出するように構成されることが好ましい。   Further, in such a calibration method of the three-dimensional shape measuring machine, the step of acquiring the line light image is performed by moving a diffusive surface along the optical axis in a state where the line light is irradiated, The step of acquiring an image by the imaging unit for each pitch and calculating the correction data is configured to generate a three-dimensional trace surface of the line light from the plurality of images and calculate the correction data from the three-dimensional trace surface. It is preferable.

また、このような3次元形状測定機の校正方法は、3次元トレース面を補間処理した結果から、撮像部が有する撮像素子の画素中心と歪みが校正がされた3次元座標とを対応付ける補正テーブルを生成するステップをさらに有することが好ましい。   Further, such a calibration method of the three-dimensional shape measuring machine is a correction table that associates the pixel center of the image pickup element of the image pickup unit with the three-dimensional coordinates with the corrected distortion from the result of interpolation processing of the three-dimensional trace surface. Preferably, the method further includes the step of generating

また、本発明に係る3次元形状測定機は、被検物にライン光を照射する照明部と、この照明部に対する相対位置が固定され、被検物上に投影されたライン光の像を取得する撮像素子を有する撮像部と、上述の3次元形状測定機の校正方法により生成された補正テーブルを有し、像を検出した撮像素子の画素中心からライン光が照射された被検物の3次元座標を算出する制御装置と、を有する。   In addition, the three-dimensional shape measuring instrument according to the present invention acquires an illumination unit that irradiates a test object with line light, and an image of the line light that is projected onto the test object with a relative position fixed to the illumination unit. 3 of the test object having the imaging unit having the imaging device and the correction table generated by the above-described calibration method of the three-dimensional shape measuring machine and irradiated with line light from the pixel center of the imaging device that detected the image. And a control device for calculating dimensional coordinates.

本発明に係る3次元形状測定機の校正方法を以上のようにすると、ライン光照明系(照明部)の歪みを高精度に校正することができ、これにより被検物の3次元座標を高精度かつ高速に測定することができる3次元形状測定機を提供することができる。   When the calibration method of the three-dimensional shape measuring machine according to the present invention is as described above, the distortion of the line light illumination system (illumination unit) can be calibrated with high accuracy, thereby increasing the three-dimensional coordinates of the test object. It is possible to provide a three-dimensional shape measuring machine capable of measuring with high accuracy and high speed.

3次元形状測定機の構成を示す説明図である。It is explanatory drawing which shows the structure of a three-dimensional shape measuring machine. 3次元形状測定のための構成を示す説明図である。It is explanatory drawing which shows the structure for three-dimensional shape measurement. 基準格子による撮像系の補正方法を説明するための説明図であり、(a)は照明系及び撮像系と基準格子との関係を示し、(b)は基準格子を示す。It is explanatory drawing for demonstrating the correction method of the imaging system by a reference | standard grating | lattice, (a) shows the relationship between an illumination system and an imaging system, and a reference | standard grating | lattice, (b) shows a reference | standard grating | lattice. 拡散版を移動し測定カメラ指定ピッチ分の画像を取得するときの構成を示す説明図である。It is explanatory drawing which shows a structure when moving a diffusion plate and acquiring the image for a measurement camera designated pitch. 照明系補正データの作成手順を示すフローチャートである。It is a flowchart which shows the preparation procedure of illumination system correction data. 撮像面とライン光の像との関係を示す説明図である。It is explanatory drawing which shows the relationship between an imaging surface and the image of line light. 補正テーブル作成処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of a correction table creation process. 撮像系スクリーン座標と基準格子面との関係を示す説明図である。It is explanatory drawing which shows the relationship between an imaging system screen coordinate and a reference | standard grid surface. ライン光トレース面を説明するための説明図である。It is explanatory drawing for demonstrating a line optical trace surface. 補正テーブルを説明するための説明図であって、(a)はスクリーン座標から3次元座標を求めるためのデータ処理を示し、(b)はピークが或る位置と、そのピークを挟む2つの画素との関係を示す説明図。It is explanatory drawing for demonstrating a correction table, Comprising: (a) shows the data processing for calculating | requiring a three-dimensional coordinate from a screen coordinate, (b) is a pixel with a certain position and two pixels which pinch | interpose the peak. Explanatory drawing which shows the relationship.

以下、本発明の好ましい実施形態について図面を参照して説明する。まず、図1及び図2を用いて、光切断方式の3次元形状測定機の撮像系にCCD等の撮像素子を有する測定カメラを使用して計測を行う場合の装置構成例について説明する。この3次元形状測定機1は、例えば、ステージ上に載置された被検物17の形状を測定する形状測定部2と、この形状測定部2から出力される角度情報及び測定情報に基づいて被検物17に関する形状情報を算出する制御装置7と、算出された形状情報を、例えば、3次元画像にして出力するための表示装置8と、を有して構成される。なお、被検物17は、ステージ上に載置されていなくても測定可能である。   Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings. First, an example of an apparatus configuration in a case where measurement is performed using a measurement camera having an imaging element such as a CCD in an imaging system of a light-cutting three-dimensional shape measuring machine will be described with reference to FIGS. The three-dimensional shape measuring machine 1 is based on, for example, a shape measuring unit 2 that measures the shape of a test object 17 placed on a stage, and angle information and measurement information output from the shape measuring unit 2. A control device 7 that calculates shape information related to the test object 17 and a display device 8 that outputs the calculated shape information as a three-dimensional image, for example, are configured. Note that the test object 17 can be measured even if it is not placed on the stage.

形状測定部2は、複数のアーム部3aを複数の関節部(接続部)3bで接続した多関節構造の移動機構部3と、この移動機構部3の先端部(最も先端側に位置するアーム部3aの先端部)に対して取付部4を介して着脱可能に構成されたプローブ5と、移動機構部3の基端部(最も基端側に位置するアーム部3aの基端部)が取り付けられた基台6と、を有して構成される。なお、関節部3bは、アーム部3a同士を繋ぎ、一方のアーム部3aに対して他方のアーム部3aを回転させる(揺動させる)ものや、基台6に対して基端側のアーム部3aを接地面に垂直方向の軸を中心に回転させるもの、若しくは、取付部4に取り付けられたプローブ5を、先端側のアーム部3aに対して揺動させたり、回転させたりするものがある。また、関節部3bの回転軸の各々には、基台6や基端側に位置するアーム部3aに対して、この関節部3bに接続された先端側に位置するアーム部3a若しくはプローブ5のなす角度を検出するためにその回転軸の回転量を計測するエンコーダ(角度情報検出部)が取り付けられており、これらのエンコーダによる計測値(以下、「角度情報」と呼ぶ)は、制御装置7に出力される。   The shape measuring unit 2 includes a multi-joint structure moving mechanism unit 3 in which a plurality of arm units 3a are connected by a plurality of joint units (connecting units) 3b, and a distal end portion of the moving mechanism unit 3 (an arm positioned closest to the distal end side). A probe 5 configured to be detachable with respect to the distal end portion of the portion 3a via the attachment portion 4, and a proximal end portion of the moving mechanism portion 3 (a proximal end portion of the arm portion 3a positioned closest to the proximal end side). And an attached base 6. The joint portion 3b connects the arm portions 3a to each other and rotates (swings) the other arm portion 3a with respect to one arm portion 3a, or an arm portion on the proximal end side with respect to the base 6. There is one that rotates 3a around an axis perpendicular to the ground surface, or one that swings or rotates the probe 5 attached to the attachment portion 4 with respect to the arm portion 3a on the distal end side. . Further, each of the rotation shafts of the joint portion 3b has an arm portion 3a or a probe 5 located on the distal end side connected to the joint portion 3b with respect to the base 6 or the arm portion 3a located on the proximal end side. In order to detect the angle formed, encoders (angle information detection units) that measure the amount of rotation of the rotary shaft are attached, and measured values (hereinafter referred to as “angle information”) by these encoders are controlled by the control device 7. Is output.

一方、プローブ5には、図3に示すように、レーザーダイオード等の光源、及び、この光源から放射された光をシリンドリカルレンズ等のトーリックレンズ光学系によりライン光としてステージ上の被検物17に照射するライン光形成光学系(照明系)を有するライン光投影装置(照明部)16と、被検物17に投射されたライン光による光切断線18の像を結像する撮像光学系、及び、この像を検出する撮像素子(CCD)を有する測定カメラ(撮像部)11と、が設けられている。   On the other hand, as shown in FIG. 3, the probe 5 has a light source such as a laser diode and light emitted from the light source as line light by a toric lens optical system such as a cylindrical lens. A line light projection device (illumination unit) 16 having a line light forming optical system (illumination system) to irradiate, an imaging optical system that forms an image of the light section line 18 by the line light projected on the test object 17, and A measurement camera (imaging unit) 11 having an image sensor (CCD) for detecting this image is provided.

ここで、アーム部3aの長さ等の情報は既知であるため、制御装置7は、エンコーダから出力された角度情報に基づいて、基台6や基端側に位置するアーム部3aに対する、先端側に接続されたアーム部3a若しくはプローブ5の角度を算出することにより、プローブ5の空間上の3次元座標(空間座標)を求めることができる。また同様に、プローブ5におけるライン光投影装置16や測定カメラ1の位置(座標)も既知であるため、制御装置7は、三角測量の原理に基づいて測定カメラ11で取得された測定情報(光切断線18の像)を処理することにより、測定カメラ11で撮像できる範囲内にある被検物17の形状(光切断線18が投影されている被検物17の形状)を演算して求めることができる。なお、制御装置7は、画像入力装置12,画像メモリ13、画像処理装置14及び画像記憶装置15を有しており、測定カメラ11で撮像された画像は、画像入力装置12を介してデジタル画像化され、画像メモリ13に格納される。また、測定カメラ11のCCD画素位置と光切断線位置との対応を精密に求めるため、画素間補間処理を画像処理装置14にて行い、画素間隔以下(サブピクセル)での値を算出する。また、この3次元形状測定機1は、補正データ取得のために連続的に取得した画像を格納する画像記憶装置15を備えている。   Here, since the information such as the length of the arm portion 3a is known, the control device 7 uses the angle information output from the encoder to control the distal end with respect to the base 6 and the arm portion 3a located on the proximal end side. By calculating the angle of the arm portion 3a or the probe 5 connected to the side, the three-dimensional coordinates (spatial coordinates) in the space of the probe 5 can be obtained. Similarly, since the positions (coordinates) of the line light projection device 16 and the measurement camera 1 in the probe 5 are also known, the control device 7 uses the measurement information (light) acquired by the measurement camera 11 based on the principle of triangulation. By processing the image of the cutting line 18), the shape of the test object 17 (the shape of the test object 17 onto which the optical cutting line 18 is projected) within the range that can be imaged by the measurement camera 11 is calculated and obtained. be able to. The control device 7 includes an image input device 12, an image memory 13, an image processing device 14, and an image storage device 15, and an image captured by the measurement camera 11 is a digital image via the image input device 12. And stored in the image memory 13. In addition, in order to accurately obtain the correspondence between the CCD pixel position of the measurement camera 11 and the light cutting line position, inter-pixel interpolation processing is performed by the image processing device 14, and a value within a pixel interval (sub-pixel) is calculated. In addition, the three-dimensional shape measuring machine 1 includes an image storage device 15 that stores continuously acquired images for acquiring correction data.

それでは、このような構成の3次元形状測定機1において、照明系の補正を行うための方法について説明する。   Now, a method for correcting the illumination system in the three-dimensional shape measuring machine 1 having such a configuration will be described.

(撮像補正データ)
照明系補正データの作成に先立ち、撮像系の歪みを補正するための撮像系補正データが取得済みであり、撮像系の補正機能が有効になっている必要がある。そのため、本実施形態では、光切断プローブ5の照明系に関する補正方式について記述されたものであり、撮像系側の補正については、補正データが取得済みで撮像系の補正が有効に機能していることを前提として説明を行う。撮像系側の補正が実施済みである定義は、例えば、図3に示すように、物体面である光切断面19に基準格子20を設置し、この像を測定カメラ11で撮像した画素位置と、基準格子20の姿勢であるクロス点を含む面内の3次元座標が補正式、あるいは補正データにより結びついていることとである。ここでは簡略化して、基準物体面座標をWとし、スクリーン座標(CCD画素位置)をSとし、論理座標変換行列をTとし、論理物体面と実際に撮像した物体との誤差を反映した行列をEとすると、次式(1)の関係がある。なお、ここでは、物体面座標として、ライン光投影装置16の照明光軸方向をZ軸とし、このZ軸に垂直な面内で、ライン光が延びる方向をY軸とし、このY軸に直交する方向をX軸とする。同様にスクリーン座標として、測定カメラ11の撮像光軸に直交する面内で、互いに直交し、かつ、上記X軸及びY軸に対応する方向をそれぞれx軸及びy軸とする(スクリーン座標は2次元であるため、z軸方向の値は0である)。
(Imaging correction data)
Prior to the creation of the illumination system correction data, the imaging system correction data for correcting the distortion of the imaging system has already been acquired, and the imaging system correction function must be enabled. For this reason, in the present embodiment, the correction method related to the illumination system of the light cutting probe 5 is described. For correction on the imaging system side, correction data has already been acquired and the correction of the imaging system functions effectively. This will be explained on the premise of this. The definition that the correction on the imaging system side has been performed is, for example, as shown in FIG. 3 in which a reference grating 20 is installed on a light cutting surface 19 that is an object plane, and the pixel position at which this image is captured by the measurement camera 11 The three-dimensional coordinates in the plane including the cross point which is the posture of the reference grid 20 are connected by a correction formula or correction data. Here, for simplification, the reference object plane coordinate is W, the screen coordinate (CCD pixel position) is S, the logical coordinate transformation matrix is T, and a matrix reflecting the error between the logical object plane and the actually imaged object is shown. If E, then there is a relationship of the following formula (1). Here, as the object plane coordinates, the illumination optical axis direction of the line light projection device 16 is the Z axis, and the direction in which the line light extends in the plane perpendicular to the Z axis is the Y axis, and is orthogonal to the Y axis. The direction to do is the X axis. Similarly, the screen coordinates are orthogonal to each other in the plane orthogonal to the imaging optical axis of the measurement camera 11, and the directions corresponding to the X axis and the Y axis are the x axis and the y axis, respectively (the screen coordinates are 2). Since it is a dimension, the value in the z-axis direction is 0).

Figure 2012013593
Figure 2012013593

以降の説明では、スクリーン座標から基準格子面への変換を、撮像補正関数Fを用いて、次式(2)として定義する。   In the following description, the conversion from the screen coordinates to the reference lattice plane is defined as the following expression (2) using the imaging correction function F.

Figure 2012013593
Figure 2012013593

(照明系補正データ取得時の構成)
図4に示すように、プローブ校正を行うためのベースユニット23上に、校正対象となる光切断プローブ5を固定する。このプローブ5内には、上述のように、ライン光を照射するためのライン光投影装置16、及び、ライン光の投影により形成される光切断線を撮像計測するための測定カメラ11が備えられている。また、ベースユニット23上には、ライン光の照明光軸方向に精密に移動可能な精密移動ステージ22が設置されている。さらに、精密移動ステージ22上には、校正用の基準面として平面度が保証された拡散性を有する面である反射拡散面21aを持つブロック21が載置されている。
(Configuration when obtaining illumination correction data)
As shown in FIG. 4, the light cutting probe 5 to be calibrated is fixed on a base unit 23 for performing probe calibration. In the probe 5, as described above, the line light projection device 16 for irradiating the line light and the measurement camera 11 for imaging and measuring the light section line formed by the projection of the line light are provided. ing. Further, on the base unit 23, a precision moving stage 22 that can be moved precisely in the direction of the illumination optical axis of the line light is installed. Further, on the precision moving stage 22, a block 21 having a reflection diffusion surface 21a, which is a surface having a diffusibility with guaranteed flatness, is placed as a reference surface for calibration.

(補正データ作成手順)
それでは、図5を用いて照明系補正データの作成手順について説明する。なお、ステップS100に示す撮像系の補正データについては、上述のように予め取得されているものとする。
(Correction data creation procedure)
Now, a procedure for creating illumination system correction data will be described with reference to FIG. Note that the correction data of the imaging system shown in step S100 is acquired in advance as described above.

まず最初に、照明光軸と略垂直に配置されたブロック21の拡散面21aにライン光を投影するのに先立ち、拡散面21aの傾き(X軸回転、Y軸回転)を、コリメータ等の計測機器により精密に測定する(ステップS110)。そして、図6に示すように、拡散面21aで反射されたライン光像(光切断線の像)25が計測カメラ11の撮像素子の撮像面24の中心に位置するように、精密移動ステージ22を移動し、Z軸の原点とする(S120)。なお、この図6の場合、ライン光像25が延びる方向をy軸とし、このライン光像25のうち、y軸方向略中間部の像が撮像面24の中心に位置するようにしている。この状態で、精密移動ステージ22をZ軸原点から計測カメラ11の視野相当分の距離(例えば、Z軸の原点を中心に±10mm)を所定のステップ(例えば10μm)で移動させ、そのステップ毎に撮像した画像を画像データとして画像記憶装置15に記憶する(ステップS130)。   First, prior to projecting line light onto the diffusing surface 21a of the block 21 arranged substantially perpendicular to the illumination optical axis, the inclination (X-axis rotation, Y-axis rotation) of the diffusing surface 21a is measured by a collimator or the like. Precisely measure with the instrument (step S110). Then, as shown in FIG. 6, the precision moving stage 22 so that the line light image (image of the light cutting line) 25 reflected by the diffusing surface 21 a is positioned at the center of the image pickup surface 24 of the image pickup device of the measurement camera 11. To be the origin of the Z-axis (S120). In the case of FIG. 6, the direction in which the line light image 25 extends is the y-axis, and the image in the middle portion of the line light image 25 in the y-axis direction is positioned at the center of the imaging surface 24. In this state, the precision moving stage 22 is moved from the Z-axis origin by a distance corresponding to the visual field of the measurement camera 11 (for example, ± 10 mm centered on the Z-axis origin) in a predetermined step (for example, 10 μm). The captured image is stored in the image storage device 15 as image data (step S130).

最後に、上記操作により取得された枚数分の画像から、図7に示す手順により補正テーブルの作成を行う(ステップS140)。まず、図6に示すように、画像(撮像面24)内の中心部26において、ライン光の走査線毎に精密なピーク位置28を、スクリーン座標(図6に示すx、y方向)として求めて行く(ステップS141)。精密なピーク位置の算出方法としては、例えば、画素毎のサンプリングデータ27を含む走査線方向のデータ列を多項式近似、スプライン補間、あるいはテンプレート相関処理等の一般的な手法により精密に求める。   Finally, a correction table is created from the number of images acquired by the above operation according to the procedure shown in FIG. 7 (step S140). First, as shown in FIG. 6, in the central portion 26 in the image (imaging surface 24), a precise peak position 28 for each scanning line of line light is obtained as screen coordinates (x and y directions shown in FIG. 6). (Step S141). As a precise peak position calculation method, for example, a data string in the scanning line direction including the sampling data 27 for each pixel is precisely obtained by a general method such as polynomial approximation, spline interpolation, or template correlation processing.

上述の撮像系補正データについて説明した撮像系データの取得済みの定義のとおり、撮像系スクリーン座標と、図8に示す基準格子面29との関係は、既に補正式、或いは補正データにより結びついている関係にあるので、スクリーン座標を元に基準格子面29上の3次元座標を算出することが可能である。そこで、撮像系レンズ中心30と、算出された基準格子面29上の3次元座標を結ぶベクトルを算出する(ステップS142)。ここで、撮像系レンズ中心から基準面座標へのベクトルVは、撮像系レンズ中心の座標をPとすると、次式(3)で表される。   As described above for the imaging system correction data, the relationship between the imaging system screen coordinates and the reference lattice plane 29 shown in FIG. 8 has already been linked by a correction formula or correction data. Since there is a relationship, it is possible to calculate the three-dimensional coordinates on the reference lattice plane 29 based on the screen coordinates. Therefore, a vector connecting the imaging system lens center 30 and the calculated three-dimensional coordinates on the reference lattice plane 29 is calculated (step S142). Here, the vector V from the imaging system lens center to the reference plane coordinates is expressed by the following equation (3), where P is the coordinate of the imaging system lens center.

Figure 2012013593
Figure 2012013593

次に、ステップS110で行った拡散面21aの傾き測定で得られたX軸周りの回転31及びY軸周りの回転32から、論理拡散面33を定義する(ステップS143)。具体的には、X軸周りの回転31からX軸回転行列RXを生成し、また、Y軸周りの回転32からY軸回転行列RYを生成して、論理拡散面33の面ベクトルNを次式(4)で定義する(ステップS143)。 Next, the logical diffusion surface 33 is defined from the rotation 31 about the X axis and the rotation 32 about the Y axis obtained by measuring the inclination of the diffusion surface 21a performed in step S110 (step S143). Specifically, an X-axis rotation matrix R X is generated from the rotation 31 around the X axis, and a Y-axis rotation matrix R Y is generated from the rotation 32 around the Y axis, so that the surface vector N of the logic diffusion surface 33 Is defined by the following equation (4) (step S143).

Figure 2012013593
Figure 2012013593

なお、論理拡散面33の中心座標Hは、次式(5)に示すように、精密移動ステージ22のZ軸原点から、そのn番目の画像取得時のオフセットZnで決まる。   The center coordinate H of the logical diffusion surface 33 is determined by the offset Zn at the time of obtaining the nth image from the Z-axis origin of the precision movement stage 22 as shown in the following equation (5).

Figure 2012013593
Figure 2012013593

また、以上のようにして求められた撮像系レンズ中心から基準面座標へのベクトルV、論理拡散面33の面ベクトルN及びこの論理拡散面33の中心座標Hを用いて、拡散面21a上のライン光座標を算出する(ステップS144)。具体的には、上記レンズ中心30から基準格子面29へのベクトルVと、論理拡散面33との交点を算出する。この交点は、拡散面21a上でライン光が当たっている3次元座標を示している。撮像系レンズ中心Pから延びるベクトルVが、精密移動ステージ22の原点からのオフセットZnで決まる拡散面中心座標Hを含む面Nと交差する点Mは、次式(6)で定義される。   Further, the vector V from the imaging system lens center to the reference plane coordinates, the surface vector N of the logical diffusion plane 33, and the central coordinates H of the logical diffusion plane 33 obtained as described above are used on the diffusion plane 21a. The line light coordinates are calculated (step S144). Specifically, the intersection of the vector V from the lens center 30 to the reference lattice plane 29 and the logical diffusion plane 33 is calculated. This intersection point indicates the three-dimensional coordinates where the line light hits on the diffusion surface 21a. A point M at which the vector V extending from the imaging system lens center P intersects the surface N including the diffusion surface center coordinate H determined by the offset Zn from the origin of the precision moving stage 22 is defined by the following equation (6).

Figure 2012013593
Figure 2012013593

そして、上述のステップS141〜S144までの操作を画像枚数×検出されたスクリーン座標分繰り返すことにより、ライン光トレース面34が形成されることになる(ステップS145)。このライン光トレース面34は、実際には3次元座標が集まった点群データである。   The line light tracing surface 34 is formed by repeating the above-described operations from step S141 to S144 for the number of images × detected screen coordinates (step S145). The line light trace surface 34 is actually point cloud data in which three-dimensional coordinates are gathered.

最後に、画素毎補正データを作成する(ステップS146)。上記処理により実際に拡散面21aに照射されたライン光の位置が求められたら、実際の補正データ参照時に処理が行いやすい形に整理する目的で、計測カメラ11の各画素中心のスクリーン座標に対応したライン光トレース面34の3次元座標を求める。計測カメラ11のスクリーン座標は、1024×1024画素の場合、左上を原点に右がX+,下がY+と定義する。例えば、画像の一番上の走査線を表すスクリーン座標Y=1,X=1〜1024の1024画素に対応したライン光トレース面34の3次元座標は、図9に示す補間ライン35に対応して作成される。ライン光が検出されたスクリーン座標Sが、撮像系補正関数Fにより変換された基準格子面座標Wは式(1),(2)より、次式(7)で定義される。   Finally, pixel-by-pixel correction data is created (step S146). When the position of the line light actually irradiated on the diffusing surface 21a is obtained by the above processing, it corresponds to the screen coordinates of the center of each pixel of the measuring camera 11 for the purpose of organizing it into a form that can be easily processed when referring to the actual correction data. The three-dimensional coordinates of the line light tracing surface 34 are obtained. When the screen coordinates of the measurement camera 11 are 1024 × 1024 pixels, the upper left is defined as the origin, the right is defined as X +, and the lower is defined as Y +. For example, the three-dimensional coordinates of the line light trace surface 34 corresponding to 1024 pixels of screen coordinates Y = 1, X = 1 to 1024 representing the top scanning line of the image correspond to the interpolation line 35 shown in FIG. Created. The reference lattice plane coordinate W obtained by converting the screen coordinate S where the line light is detected by the imaging system correction function F is defined by the following equation (7) from the equations (1) and (2).

Figure 2012013593
Figure 2012013593

この基準格子面座標Wによって決まるZ座標値Wzをインデックスにして、拡散面21a上の交点Mの各座標軸の値を独立した関数によって補間する為に、スプライン補間テーブルUx,Uy,Uzを作成する。具体的には、次式(8)のように定義される。なお、この式(8)において、交点MのX座標値をMxとし、Y座標値をMyとし、Z座標値をMzとする。   Spline interpolation tables Ux, Uy, Uz are created in order to interpolate the value of each coordinate axis of the intersection point M on the diffusion surface 21a by an independent function using the Z coordinate value Wz determined by the reference lattice plane coordinate W as an index. . Specifically, it is defined as the following equation (8). In this equation (8), the X coordinate value of the intersection M is Mx, the Y coordinate value is My, and the Z coordinate value is Mz.

Figure 2012013593
Figure 2012013593

なお、本実施形態では、補間関数はベーススプラインを使用しているが、その他、3次元スプライン、多項式近次等での一般的な補間でも可能である。   In this embodiment, a base spline is used as the interpolation function. However, other general interpolations such as a three-dimensional spline and polynomial approximation are also possible.

そして、計測カメラ11の各画素中心スクリーン座標S′ij(i,j=1〜1024)に上記補間テーブルを適用した3次元座標W′ij(i,j=1〜1024)は、次式(9)で表される。 A three-dimensional coordinate W′ij (i, j = 1 to 1024) obtained by applying the interpolation table to each pixel center screen coordinate S ′ ij (i, j = 1 to 1024) of the measurement camera 11 is expressed by the following formula ( 9).

Figure 2012013593
Figure 2012013593

また、スプライン補間関数により求められた画素中心毎の論理拡散面上の3次元座標M′は次式(10)で表される。なお、W′zは、W′のZ座標値である。   Further, the three-dimensional coordinate M ′ on the logical diffusion surface for each pixel center obtained by the spline interpolation function is expressed by the following equation (10). W′z is the Z coordinate value of W ′.

Figure 2012013593
Figure 2012013593

算出された画素中心毎の3次元座標M′は、X,Y,Z軸毎に図10(a)で示されるような画素中心40に対する空間座標44が直接参照可能な画面分1024×1024のテーブル41,42,43として保存され、測定処理時に補正データテーブルとして使用される。   The calculated three-dimensional coordinates M ′ for each pixel center are 1024 × 1024 screen portions that can directly refer to the spatial coordinates 44 with respect to the pixel center 40 as shown in FIG. 10A for each of the X, Y, and Z axes. Tables 41, 42, and 43 are stored and used as correction data tables during measurement processing.

(補正データ参照)
以上のようにして作成されたX,Y,Z軸毎の補正データテーブル41,42,43は、測定実行時にライン光が捉えられたスクリーン座標を元に参照され、3次元座標が算出される。今、図10(b)の2つの画素(スクリーン座標S1とS2)の間の位置Sにライン光のピーク位置が検出された場合、補正データテーブル41,42,43からS1,S2に対応した3次元座標M1,M2が参照される。これら2つの画素が、X軸方向に並んでいる場合、そのスクリーンX座標をそれぞれSx,S1x,S2xとすると、対応した3次元座標Mは、次式(11)の内装補間式により算出される。
(Refer to correction data)
The correction data tables 41, 42, and 43 for each of the X, Y, and Z axes created as described above are referred to based on the screen coordinates at which the line light is captured at the time of measurement, and three-dimensional coordinates are calculated. . Now, when the peak position of the line light is detected at the position S between the two pixels (screen coordinates S1 and S2) in FIG. 10B, the correction data tables 41, 42, 43 correspond to S1, S2. Reference is made to the three-dimensional coordinates M1 and M2. When these two pixels are arranged in the X-axis direction, assuming that the screen X coordinates are Sx, S1x, and S2x, the corresponding three-dimensional coordinates M are calculated by the internal interpolation equation of the following equation (11). .

Figure 2012013593
Figure 2012013593

以上のような手法によると、ライン光により形成された光切断面を忠実に測定、記録し、効率良く補正データ化することで、撮像系の歪みを精密に補正し、正確な空間座標を捉えることが可能となり、精度の高い3次元形状測定機1を構成することが可能となる。また、計測カメラ11の画素に対応した1対1の補正データテーブル41,42,43を生成することにより、測定実行時に行う複雑な座標変換、補正演算を実施する必要がなくなり、3次元形状測定処理の速度を向上することが可能となる。   According to the above method, the optical section formed by line light is faithfully measured and recorded, and efficiently converted into correction data, thereby accurately correcting distortion of the imaging system and capturing accurate spatial coordinates. Therefore, it is possible to configure the three-dimensional shape measuring instrument 1 with high accuracy. In addition, by generating the one-to-one correction data tables 41, 42, and 43 corresponding to the pixels of the measurement camera 11, it is not necessary to perform complicated coordinate conversion and correction calculations that are performed at the time of measurement execution. The processing speed can be improved.

1 3次元形状測定機 7 制御装置 11 測定カメラ(撮像部)
16 ライン光投影装置(照明部) 17 被検物
21 ブロック 21a 拡散面
DESCRIPTION OF SYMBOLS 1 3D shape measuring machine 7 Control apparatus 11 Measurement camera (imaging part)
16 line light projector (illumination unit) 17 test object 21 block 21a diffusing surface

Claims (5)

被検物にライン光を投影する照明部と、前記照明部の光軸と異なる方向から前記被検物上に投影された前記ライン光の像を取得する撮像部と、を有し、前記像から前記被検物の3次元座標を算出する3次元形状測定機において、前記3次元座標に含まれる前記照明部の歪みを校正する3次元形状測定機の校正方法であって、
前記照明部の前記光軸に対して略垂直に拡散性を有する面を配置するステップと、
前記照明部により前記拡散性を有する面に前記ライン光を照射して前記撮像部で前記ライン光の像を取得するステップと、
取得した前記像から前記3次元座標を校正する補正データを算出するステップと、を有することを特徴とする3次元形状測定機の校正方法。
An illuminating unit that projects line light onto the test object; and an imaging unit that acquires an image of the line light projected on the test object from a direction different from the optical axis of the illuminating unit, and the image In the three-dimensional shape measuring machine for calculating the three-dimensional coordinates of the test object from the three-dimensional shape measuring machine for calibrating the distortion of the illumination unit included in the three-dimensional coordinates,
Disposing a surface having diffusivity substantially perpendicular to the optical axis of the illumination unit;
Irradiating the diffusing surface with the line light by the illuminating unit and acquiring an image of the line light with the imaging unit;
And a step of calculating correction data for calibrating the three-dimensional coordinates from the acquired image.
前記拡散性を有する面を配置するステップは、配置された前記拡散性を有する面の設置姿勢を測定し、
前記補正データを算出するステップは、前記設置姿勢を用いて前記補正データを算出するように構成されたことを特徴とする請求項1に記載の3次元形状測定機の校正方法。
The step of disposing the diffusive surface measures an installation posture of the diffusible surface disposed,
The method for calibrating a three-dimensional shape measuring machine according to claim 1, wherein the step of calculating the correction data is configured to calculate the correction data using the installation posture.
前記ライン光の像を取得するステップは、前記ライン光を照射した状態で、前記拡散性を有する面を前記光軸に沿って移動させて、所定のピッチ毎に前記撮像部により前記像を取得し、
前記補正データを算出するステップは、複数の前記像から前記ライン光の3次元トレース面を作成し、前記3次元トレース面から前記補正データを算出するように構成されたことを特徴とする請求項1または2に記載の3次元形状測定機の校正方法。
The step of acquiring the image of the line light includes acquiring the image by the imaging unit at a predetermined pitch by moving the diffusive surface along the optical axis in a state where the line light is irradiated. And
The step of calculating the correction data is configured to create a three-dimensional trace surface of the line light from a plurality of the images and calculate the correction data from the three-dimensional trace surface. 3. A method for calibrating a three-dimensional shape measuring machine according to 1 or 2.
前記3次元トレース面を補間処理した結果から、前記撮像部が有する撮像素子の画素中心と前記歪みが校正がされた前記3次元座標とを対応付ける補正テーブルを生成するステップをさらに有することを特徴とする請求項3に記載の3次元形状測定機の校正方法。   The method further comprises the step of generating a correction table that associates the pixel center of the image pickup element of the image pickup unit with the three-dimensional coordinates in which the distortion has been calibrated from the result of interpolation processing of the three-dimensional trace surface. The method for calibrating a three-dimensional shape measuring machine according to claim 3. 被検物にライン光を投影する照明部と、
前記照明部に対する相対位置が固定され、前記被検物上に投影された前記ライン光の像を取得する撮像素子を有する撮像部と、
請求項4に記載の3次元形状測定機の校正方法により生成された補正テーブルを有し、前記像を検出した前記撮像素子の画素中心から前記ライン光が照射された前記被検物の3次元座標を算出する制御装置と、を有する3次元形状測定機。
An illumination unit that projects line light onto the test object;
An imaging unit having an imaging element in which a relative position with respect to the illumination unit is fixed and acquiring an image of the line light projected on the test object;
5. A three-dimensional object having a correction table generated by the calibration method for a three-dimensional shape measuring instrument according to claim 4 and irradiated with the line light from a pixel center of the image sensor that detects the image. And a control device for calculating coordinates.
JP2010151633A 2010-07-02 2010-07-02 Calibration method for three-dimensional shape measuring machine, and three-dimensional shape measuring machine Pending JP2012013593A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010151633A JP2012013593A (en) 2010-07-02 2010-07-02 Calibration method for three-dimensional shape measuring machine, and three-dimensional shape measuring machine

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010151633A JP2012013593A (en) 2010-07-02 2010-07-02 Calibration method for three-dimensional shape measuring machine, and three-dimensional shape measuring machine

Publications (1)

Publication Number Publication Date
JP2012013593A true JP2012013593A (en) 2012-01-19

Family

ID=45600200

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010151633A Pending JP2012013593A (en) 2010-07-02 2010-07-02 Calibration method for three-dimensional shape measuring machine, and three-dimensional shape measuring machine

Country Status (1)

Country Link
JP (1) JP2012013593A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012251893A (en) * 2011-06-03 2012-12-20 Seiko Epson Corp Shape measuring device, control method of shape measuring device, and program
JP2015227890A (en) * 2015-08-11 2015-12-17 セイコーエプソン株式会社 Shape measuring device, control method of shape measuring device, and program
JP7353644B2 (en) 2020-01-08 2023-10-02 株式会社Xtia Calibration method for optical scanner device, optical scanner device and optical three-dimensional shape measuring device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012251893A (en) * 2011-06-03 2012-12-20 Seiko Epson Corp Shape measuring device, control method of shape measuring device, and program
JP2015227890A (en) * 2015-08-11 2015-12-17 セイコーエプソン株式会社 Shape measuring device, control method of shape measuring device, and program
JP7353644B2 (en) 2020-01-08 2023-10-02 株式会社Xtia Calibration method for optical scanner device, optical scanner device and optical three-dimensional shape measuring device

Similar Documents

Publication Publication Date Title
CN109115126B (en) Method for calibrating a triangulation sensor, control and processing unit and storage medium
EP2132523B1 (en) Method and device for exact measurement of objects
JP5140761B2 (en) Method for calibrating a measurement system, computer program, electronic control unit, and measurement system
JP5689681B2 (en) Non-contact probe
JP6025386B2 (en) Image measuring apparatus, image measuring method, and image measuring program
JP3837431B2 (en) Pipe inner surface shape measuring device
JP2017528727A (en) Augmented reality camera used in combination with a 3D meter to generate a 3D image from a 2D camera image
JP2016516196A (en) Structured optical scanner correction tracked in 6 degrees of freedom
JP2009053147A (en) Three-dimensional measuring method and three-dimensional measuring device
US7869060B2 (en) Jig for measuring an object shape and method for measuring a three-dimensional shape
US10670390B2 (en) System and method for verifying projection accuracy
WO2018168757A1 (en) Image processing device, system, image processing method, article manufacturing method, and program
CN111141767A (en) X-ray CT apparatus for measurement and CT reconstruction method using the same
JP2008014882A (en) Three-dimensional measuring device
JP2004085565A (en) Method and apparatus for calibrating laser three-dimensional digitization sensor
JP2018522240A (en) Method for measuring artifacts
US20230194247A1 (en) Shape measuring apparatus and shape measuring method
JP2012013592A (en) Calibration method for three-dimensional shape measuring machine, and three-dimensional shape measuring machine
JP2012013593A (en) Calibration method for three-dimensional shape measuring machine, and three-dimensional shape measuring machine
JP2013148375A (en) Calibration method, calibrator and program for use in three-dimensional shape measuring apparatus, and three-dimensional shape measuring apparatus
JP6921036B2 (en) A laser calibrator, a method for calibrating the laser, and an image input device including the laser calibrator.
JP4284765B2 (en) Robot hand position measuring device
JP2000039310A (en) Method and device for measuring shape
JP4835857B2 (en) Calibration method for shape measuring apparatus and shaft for calibration
JP2014190800A (en) Three-dimensional measuring method and three-dimensional measuring system