JP2016038292A - Measuring device and manufacturing method - Google Patents

Measuring device and manufacturing method Download PDF

Info

Publication number
JP2016038292A
JP2016038292A JP2014161755A JP2014161755A JP2016038292A JP 2016038292 A JP2016038292 A JP 2016038292A JP 2014161755 A JP2014161755 A JP 2014161755A JP 2014161755 A JP2014161755 A JP 2014161755A JP 2016038292 A JP2016038292 A JP 2016038292A
Authority
JP
Japan
Prior art keywords
test object
illumination
edge
image
optical system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014161755A
Other languages
Japanese (ja)
Inventor
卓典 植村
Takanori Uemura
卓典 植村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014161755A priority Critical patent/JP2016038292A/en
Publication of JP2016038292A publication Critical patent/JP2016038292A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a measuring device capable of determining the position of an edge of a specimen highly accurately by reflection illumination, and to provide a manufacturing method.SOLUTION: Information of a temporary position of an edge of a specimen is acquired, and an illumination area is set on a surface on one side of the temporary position by using the temporary position as a boundary. Then, an image of the specimen is acquired in an illumination state for illuminating a surface of the specimen in the defocused state from a focal position in an imaging optical system, and the position of the edge of the specimen is determined from the acquired image.SELECTED DRAWING: Figure 5

Description

本発明は、被検物を計測する計測装置及び製造方法に関する。   The present invention relates to a measuring apparatus and a manufacturing method for measuring a test object.

被検物を測定して、被検物の寸法、公差や角度などの形状情報を算出する計測装置のひとつに画像測定機がある。画像測定機は、被検物を照明する照明装置と、照明された被検物からの光を結像させる結像光学系と被検物の画像を取得する取得部を有する。画像測定機は被検物を撮像して被検物の画像を取得し、画像の強度分布のデータから被検物のエッジを検出し、検出した複数のエッジの間の距離を算出することによって、被検物の寸法を計測する。   An image measuring machine is one of measuring apparatuses that measure a test object and calculate shape information such as dimensions, tolerances, and angles of the test object. The image measuring machine includes an illuminating device that illuminates the test object, an imaging optical system that forms an image of light from the illuminated test object, and an acquisition unit that acquires an image of the test object. The image measuring machine captures the test object, acquires an image of the test object, detects the edge of the test object from the intensity distribution data of the image, and calculates the distance between the detected edges Measure the dimensions of the specimen.

照明装置による照明方式として、結像光学系や取得部に対して、被検物を後方から照明する透過照明や、被検物を前方から照明する反射照明がある。反射照明には、被検物を被検面に対して垂直方向から照明する同軸落射照明や、被検物を取り囲むリング状の光を被検物に斜入射させるリング照明などの方式がある。   Illumination methods using an illuminating device include transmission illumination for illuminating a test object from the rear and reflection illumination for illuminating the test object from the front with respect to the imaging optical system and acquisition unit. As the reflected illumination, there are methods such as coaxial epi-illumination that illuminates the test object from a direction perpendicular to the test surface, and ring illumination that causes the ring-shaped light surrounding the test object to be incident obliquely on the test object.

このような照明方式の中で、反射照明では透過照明よりも高精度にエッジの位置を測定できないという問題がある。この理由の一つは、反射照明の場合、被検物の表面の加工痕や粗さによって、被検物の画像の強度に大きなバラつきが発生し、画像処理によるエッジ位置の算出誤差が大きくなるからである。被検物内の凸部や非貫通穴など、透過照明で照明することができない部分を測定する場合は反射照明を使用せざるを得ず、反射照明により高精度に測定することができないことは問題である。   Among such illumination methods, there is a problem that the position of the edge cannot be measured with higher accuracy than with the transmission illumination in the reflection illumination. One reason for this is that, in the case of reflected illumination, the intensity of the image of the test object varies greatly due to the processing marks and roughness of the surface of the test object, and the edge position calculation error due to image processing increases. Because. When measuring parts that cannot be illuminated with transmitted illumination, such as protrusions and non-through holes in the test object, reflected illumination must be used, and it is impossible to measure with high accuracy using reflected illumination. It is a problem.

この問題を解決するための技術が特許文献1又は2に開示されている。特許文献1の画像測定機では、被検物のエッジと交差するようにストライプ状に被検物を照明して、焦点位置にある表面では狭い幅で照明し、デフォーカスした位置にある表面では広い幅で照明している。特許文献2では、透過照明と反射照明で測定したエッジ位置を比較して補正係数を決定し、反射照明で測定したエッジ位置を補正する技術が開示されている。   A technique for solving this problem is disclosed in Patent Document 1 or 2. In the image measuring machine of Patent Document 1, the test object is illuminated in a stripe shape so as to intersect with the edge of the test object, the surface at the focal position is illuminated with a narrow width, and the surface at the defocused position is illuminated. The lighting is wide. Japanese Patent Application Laid-Open No. 2004-228620 discloses a technique for determining a correction coefficient by comparing edge positions measured with transmitted illumination and reflected illumination, and correcting the edge position measured with reflected illumination.

特開2012−132910号公報JP 2012-132910 A 特開2012−198208号公報JP 2012-198208 A

反射照明でエッジ位置を精度よく測定できない理由として、被検物のエッジ以外の領域(表面)で散乱された光のうち、エッジにおける面取りや角R(アール)の部分で反射される光の影響があることが分かった。このような光が結像光学系に取り込まれると、取得部により取得された画像においてエッジ近傍の光強度分布が変化し、画像処理によって算出されるエッジ位置がシフトしてしまう。   The reason why the edge position cannot be measured accurately with reflected illumination is the influence of the light reflected by the chamfered edge and the corner R (R) of the scattered light in the region (surface) other than the edge of the test object. I found out that When such light is taken into the imaging optical system, the light intensity distribution near the edge changes in the image acquired by the acquisition unit, and the edge position calculated by image processing shifts.

特許文献1に記載の画像測定機では、焦点位置にある表面とデフォーカスした位置にある表面を同時に照明している。そのため、デフォーカスした位置にある表面で散乱された光のうちエッジにおける面取りや角Rの部分で反射される光の影響がある。特許文献2に記載の反射照明でも同様の問題が生じうる。   In the image measuring machine described in Patent Document 1, the surface at the focal position and the surface at the defocused position are illuminated simultaneously. Therefore, there is an influence of chamfering at the edge or light reflected at the corner R among the light scattered on the surface at the defocused position. The same problem can occur in the reflective illumination described in Patent Document 2.

また、特許文献2に記載の技術では、被検物の性質(素材や色など)や、被検物の状態(表面粗さや加工痕、被検物の厚みなど)によって、補正係数を変える必要があるため、補正係数の調整作業が大きな負担である。   In the technique described in Patent Document 2, it is necessary to change the correction coefficient depending on the property (material, color, etc.) of the specimen and the state of the specimen (surface roughness, processing trace, thickness of the specimen, etc.). Therefore, adjustment of the correction coefficient is a heavy burden.

そこで、本発明は、反射照明により高精度に被検物のエッジの位置を求めることを目的とする。   Accordingly, an object of the present invention is to obtain the position of the edge of a test object with high accuracy by reflected illumination.

上記課題を解決する本発明の一側面としての被検物を計測する計測装置は、前記被検物を照明する光を出射する照明光領域が変更可能な照明部と、前記照明部により照明された前記被検物で反射された光を結像させる結像光学系と、前記結像光学系により結像された前記被検物の画像を取得する取得部と、演算部とを有し、前記演算部は、前記被検物のエッジの仮位置の情報を取得し、前記照明部の照明光領域において前記仮位置に対応する位置を前記照明光領域の境界として、前記仮位置に対応する位置の片側の一部分に前記照明光領域を設定して、前記結像光学系の焦点位置からデフォーカスした前記被検物の面を照明する照明状態において、前記取得部が前記被検物の画像を取得し、前記演算部は、前記照明状態において前記取得部が取得した前記被検物の画像から前記被検物のエッジの位置を求めることを特徴とする。   A measuring apparatus for measuring a test object according to an aspect of the present invention that solves the above-described problems is illuminated by the illumination unit that can change an illumination light region that emits light that illuminates the test object, and the illumination unit. An imaging optical system that forms an image of the light reflected by the test object, an acquisition unit that acquires an image of the test object imaged by the imaging optical system, and a calculation unit; The calculation unit acquires information on a temporary position of the edge of the test object, and corresponds to the temporary position with a position corresponding to the temporary position in the illumination light region of the illumination unit as a boundary of the illumination light region. In the illumination state in which the illumination light region is set in a part of one side of the position and the surface of the test object defocused from the focal position of the imaging optical system is illuminated, the acquisition unit images the test object The calculation unit is configured so that the acquisition unit is in the lighting state. Obtained was said from the image of the object and obtains the position of an edge of the object.

本発明によれば、反射照明により高精度に被検物のエッジの位置を求めることができる。   According to the present invention, the position of the edge of the test object can be obtained with high accuracy by reflected illumination.

計測装置の概略図を示す図である。It is a figure which shows the schematic of a measuring device. 第1実施形態における計測フローを示す図である。It is a figure which shows the measurement flow in 1st Embodiment. 第1の照明状態と第1の画像を説明するための図である。It is a figure for demonstrating a 1st illumination state and a 1st image. エッジ位置の誤差が発生する原因を説明するための図である。It is a figure for demonstrating the cause which the error of an edge position generate | occur | produces. 第2の照明状態と第2の画像を説明するための図である。It is a figure for demonstrating a 2nd illumination state and a 2nd image. エッジ位置の誤差が低減される理由を説明するための図である。It is a figure for demonstrating the reason that the error of an edge position is reduced. 照明領域の幅とエッジ位置のずれ量の関係を表す図である。It is a figure showing the relationship between the width | variety of an illumination area, and the deviation | shift amount of an edge position. 第2実施形態における計測フローを示す図である。It is a figure which shows the measurement flow in 2nd Embodiment.

(第1実施形態)
図1に、画像測定機10の概略図を示す。画像測定機10は、被検物101を照明する照明装置110、被検物101の画像を取得するための受光部120、演算部131、制御部132、ステージ制御部133、ステージ134を有する。
(First embodiment)
FIG. 1 shows a schematic diagram of an image measuring machine 10. The image measuring machine 10 includes an illumination device 110 that illuminates the test object 101, a light receiving unit 120 for acquiring an image of the test object 101, a calculation unit 131, a control unit 132, a stage control unit 133, and a stage 134.

照明装置110(照明部)は、光源111、空間光変調器112、レンズ113を有する。光源111は、例えばLEDやランプ、蛍光灯である。空間光変調器112は、例えば、透過型液晶パネル、反射型液晶パネル(LCOS)、又はDMD(デジタル・マイクロミラー・デバイス)であり、光源111からの光の空間的な光強度分布、つまり、被検物を照明する光を出射する照明光領域を変更することができる。空間光変調器112は制御部132によって動作が制御される。空間光変調器112によって空間的に光強度が調整された光はレンズ113によってコリメートされ、受光部120のハーフミラー123に入射する。照明装置110から導入された光はハーフミラー123によって反射され、第1のレンズ群122aによって集光されて被検物101を照明する。レンズ113と第1のレンズ群122aにより結像光学系が構成され、その結像光学系により照明光領域からの光が焦点位置に結像される。結像光学系の焦点面には照明光領域と同様の照明領域が形成され、被検物101は照明光領域から出射した光で照明される。受光部120は、被検物101によって反射または散乱された光を受光する光検出器121(画像取得部)と、被検物101の像を光検出器121に結像するための結像光学系122を有する。光検出器121には例えば、CCDやCMOSを用いることができる。結像光学系122は、第1のレンズ群122aと第2のレンズ群122bから成り、第1のレンズ群122aと第2のレンズ群122bの間にはハーフミラー123が配置されている。図1では、第1のレンズ群122aと第2のレンズ群122bを簡略的に1つのレンズで示している。なお、第1のレンズ群122aと第2のレンズ群122bは、全てがレンズであるものに限らず、部分的に、あるいは全ての光学素子がミラーから構成されていても良い。   The illumination device 110 (illumination unit) includes a light source 111, a spatial light modulator 112, and a lens 113. The light source 111 is, for example, an LED, a lamp, or a fluorescent lamp. The spatial light modulator 112 is, for example, a transmissive liquid crystal panel, a reflective liquid crystal panel (LCOS), or a DMD (digital micromirror device), and the spatial light intensity distribution of light from the light source 111, that is, It is possible to change the illumination light region that emits light that illuminates the test object. The operation of the spatial light modulator 112 is controlled by the control unit 132. The light whose light intensity is spatially adjusted by the spatial light modulator 112 is collimated by the lens 113 and enters the half mirror 123 of the light receiving unit 120. The light introduced from the illumination device 110 is reflected by the half mirror 123 and is condensed by the first lens group 122a to illuminate the test object 101. An imaging optical system is configured by the lens 113 and the first lens group 122a, and light from the illumination light region is imaged at the focal position by the imaging optical system. An illumination area similar to the illumination light area is formed on the focal plane of the imaging optical system, and the test object 101 is illuminated with light emitted from the illumination light area. The light receiving unit 120 includes a photodetector 121 (image acquisition unit) that receives light reflected or scattered by the test object 101, and imaging optics for forming an image of the test object 101 on the photodetector 121. It has a system 122. For example, a CCD or CMOS can be used for the photodetector 121. The imaging optical system 122 includes a first lens group 122a and a second lens group 122b, and a half mirror 123 is disposed between the first lens group 122a and the second lens group 122b. In FIG. 1, the first lens group 122a and the second lens group 122b are simply shown as one lens. It should be noted that the first lens group 122a and the second lens group 122b are not limited to being all lenses, and some or all of the optical elements may be composed of mirrors.

被検物101によって反射された光は、結像光学系122に取り込まれ、ハーフミラー123を透過して、被検物101の像が光検出器121に結像される。空間光変調器112の照明光領域から出射された光はレンズ113と第1のレンズ群122aからなる結像光学系の焦点面に結像し、その焦点面にある被検面で反射した光は光検出器121の受光面上に結像する。したがって、空間光変調器112の照明光領域(画素)の位置と光検出器121の受光面上の画素の位置との対応関係は予め定められている。   The light reflected by the test object 101 is taken into the imaging optical system 122, passes through the half mirror 123, and an image of the test object 101 is formed on the photodetector 121. The light emitted from the illumination light region of the spatial light modulator 112 forms an image on the focal plane of the imaging optical system including the lens 113 and the first lens group 122a, and is reflected by the test surface on the focal plane. Forms an image on the light receiving surface of the photodetector 121. Therefore, the correspondence between the position of the illumination light region (pixel) of the spatial light modulator 112 and the position of the pixel on the light receiving surface of the photodetector 121 is determined in advance.

被検物101はステージ134上に載置される。ステージ134は、ステージ制御部133の指令に基づいて制御され、アクチュエータによって3軸方向に駆動可能である。ステージ134が結像光学系122の光軸124に平行な方向に移動することにより、被検物101の表面を結像光学系122の焦点位置に合わせられるようになっている。また、ステージ134が結像光学系122の光軸124に垂直な方向に移動することにより、結像光学系122の視野よりも大きな被検物を移動させながら、被検物の複数の箇所を測定することができる。   The test object 101 is placed on the stage 134. The stage 134 is controlled based on a command from the stage control unit 133 and can be driven in three axial directions by an actuator. By moving the stage 134 in a direction parallel to the optical axis 124 of the imaging optical system 122, the surface of the test object 101 can be adjusted to the focal position of the imaging optical system 122. Further, the stage 134 moves in a direction perpendicular to the optical axis 124 of the imaging optical system 122, thereby moving a test object larger than the field of view of the imaging optical system 122 while moving a plurality of locations on the test object. Can be measured.

光検出器121によって撮像された被検物101の画像のデータは、演算部131に転送される。演算部131は被検物の画像から画像処理によって被検物の面のエッジ(端、縁、輪郭)を検出し、エッジの位置を算出する。そして、演算部131はエッジの位置から寸法、幾何公差、角度、直交度や真円度などの被検物の形状情報を算出する。演算部131は液晶モニタやブラウン管などの表示手段を備えており、ユーザーが結果を確認できるように算出した形状情報を表示する。また、演算部131はさらにハードディスクやSSDなどの記憶手段を備えており、算出した形状情報の記憶・読み出しができるようになっている。   Data of the image of the test object 101 captured by the photodetector 121 is transferred to the calculation unit 131. The computing unit 131 detects edges (edges, edges, contours) of the surface of the test object by image processing from the image of the test object, and calculates the position of the edge. Then, the calculation unit 131 calculates shape information of the test object such as dimensions, geometrical tolerance, angle, orthogonality, and roundness from the edge position. The calculation unit 131 includes display means such as a liquid crystal monitor and a cathode ray tube, and displays the shape information calculated so that the user can confirm the result. The calculation unit 131 further includes storage means such as a hard disk or an SSD, and can store and read out the calculated shape information.

被検物101として、ここでは図1に示されるような角R101eを有する凸部を有する凸型形状の部品を測定する場合について説明する。ただし、このような単純な形状の部品の測定に限定されるものではなく、より複雑な形状の部品の測定にも適用することができる。被検物101は異なる高さの表面101a(第1面)と表面101b(第2面)を有しており、ここでは側面101cと側面101dの間、つまり、表面101aと角R101eを含む幅の寸法を測定する場合について詳細に説明する。被検物101の下側から照明しても、被検物自体で光が遮られて表面101aの部分は照明されないので、表面101aを透過照明により測定できない。そのため、被検物101を、上方、つまり、結像光学系の側から照明して測定する必要がある。   Here, a description will be given of the case where a convex shaped part having a convex part having an angle R101e as shown in FIG. However, it is not limited to the measurement of such a simple shaped part, but can be applied to the measurement of a more complicated shaped part. The test object 101 has a surface 101a (first surface) and a surface 101b (second surface) having different heights, and here, the width between the side surface 101c and the side surface 101d, that is, the width including the surface 101a and the corner R101e. The case of measuring the dimensions will be described in detail. Even if illumination is performed from the lower side of the test object 101, light is blocked by the test object itself, and the surface 101a portion is not illuminated. Therefore, the surface 101a cannot be measured by transmitted illumination. Therefore, it is necessary to measure the object 101 by illuminating it from above, that is, from the imaging optical system side.

図2乃至図7を用いて、第1実施形態において、被検物101の形状情報が測定されるプロセスについて説明する。図2は第1実施形態における測定のフローを示した図である。測定を開始するとまず、被検物を第1の照明状態で照明するように制御部132によって空間光変調器112を制御する(S101)。具体的には、図3(a)に示されるように、空間光変調器112を構成する画素112aが全て光を透過する状態になるように空間光変調器112を制御する。そして、その状態の空間光変調器112により、被検物の表面101aおよび101bおよび角R101eのすべての領域を照明する。この照明状態を第1の照明状態とする。   A process of measuring shape information of the test object 101 in the first embodiment will be described with reference to FIGS. FIG. 2 is a diagram showing a measurement flow in the first embodiment. When the measurement is started, first, the spatial light modulator 112 is controlled by the control unit 132 so as to illuminate the test object in the first illumination state (S101). Specifically, as shown in FIG. 3A, the spatial light modulator 112 is controlled so that all the pixels 112a constituting the spatial light modulator 112 are in a state of transmitting light. Then, the spatial light modulator 112 in that state illuminates all the areas of the surfaces 101a and 101b and the corner R101e of the test object. This illumination state is defined as a first illumination state.

次に、ステージ制御部133によってステージ134が上下に駆動制御され、測定機のオートフォーカス機能によって被検物101の表面へのピント合わせが行われる(S102)。側面101cと側面101dの間の幅の寸法を測定する場合、図3(b)に示されるように受光部120の結像光学系のフォーカス面(焦点位置)125と被検物の表面101aが一致するようにピントが合わせられる。   Next, the stage 134 is driven up and down by the stage controller 133, and the surface of the test object 101 is focused by the autofocus function of the measuring machine (S102). When measuring the width dimension between the side surface 101c and the side surface 101d, as shown in FIG. 3B, the focus surface (focal position) 125 of the imaging optical system of the light receiving unit 120 and the surface 101a of the test object are Focus is adjusted to match.

次に、照明装置110により第1の照明状態で照明された被検物やステージ134で反射された光を結像光学系122で光検出器121の受光面に結像させて、光検出器121によって第1の画像140を取得する(S103)。図3(c)は第1の照明状態で取得した第1の画像140を表す図である。図3(c)で示される領域141は被検物101に対応する画像領域である。領域142はステージ134に対応する画像領域である。領域141aは被検物の表面101aおよび角R101eに対応する画像領域であり、領域141bは被検物の表面101bに対応する画像領域である。   Next, the test object illuminated in the first illumination state by the illumination device 110 and the light reflected by the stage 134 are imaged on the light receiving surface of the photodetector 121 by the imaging optical system 122, and the photodetector The first image 140 is acquired by 121 (S103). FIG. 3C is a diagram illustrating the first image 140 acquired in the first illumination state. An area 141 shown in FIG. 3C is an image area corresponding to the test object 101. An area 142 is an image area corresponding to the stage 134. The area 141a is an image area corresponding to the surface 101a and the corner R101e of the test object, and the area 141b is an image area corresponding to the surface 101b of the test object.

図3(d)は、図3(c)で示される破線Aにおける画像の断面強度プロファイルである。範囲143aのプロファイルは被検物の表面101aおよび角R101eで反射された光の強度分布に対応し、範囲143bのプロファイルは被検物の表面101bで反射された光の強度分布に対応する。範囲143aでは、強度の変動(バラつき)が大きい。これは被検物の表面101aの粗さや加工痕などのテクスチャの影響により、表面上の場所によって反射される光の強度が大きく変わるためである。被検物の表面101bについても同様に、テクスチャの影響により場所によって、反射される光の強度が変動する。しかし、表面101bに対応する断面強度プロファイルの範囲143bでは、強度の変動は比較的小さい。これは、表面101bは表面101aに比べて、結像光学系のフォーカス面125に対して遠い位置にあるので、ピントが外れることにより画像がぼやけてテクスチャの影響が平滑化されるためである。   FIG. 3D is a cross-sectional intensity profile of the image taken along the broken line A shown in FIG. The profile in the range 143a corresponds to the intensity distribution of light reflected from the surface 101a and the angle R101e of the test object, and the profile in the range 143b corresponds to the intensity distribution of light reflected from the surface 101b of the test object. In the range 143a, the intensity fluctuation (variation) is large. This is because the intensity of the reflected light varies greatly depending on the location on the surface due to the influence of the texture such as the roughness of the surface 101a of the test object and the processing marks. Similarly, on the surface 101b of the test object, the intensity of the reflected light varies depending on the location due to the influence of the texture. However, in the range 143b of the cross-sectional intensity profile corresponding to the surface 101b, the intensity variation is relatively small. This is because the surface 101b is located farther from the focus surface 125 of the imaging optical system than the surface 101a, so that the image is blurred and the influence of the texture is smoothed by being out of focus.

図3(d)に示される破線の近傍は、被検物101のエッジ、つまり、側面101cと側面101dに対応する位置を表している。このエッジに対応する位置では、画像の強度が小さくなる。これは、角R101eにおける反射や散乱や側面101c、101dによって形成される影によって、結像光学系122に取り込まれる光の強度が小さくなるためである。エッジに対応する位置の画像強度は、角R101eの大きさ、又は、エッジにおける段差、つまり、表面101aと表面101bの高さの差に依存する。   The vicinity of the broken line shown in FIG. 3D represents the edge of the test object 101, that is, the position corresponding to the side surface 101c and the side surface 101d. At the position corresponding to this edge, the intensity of the image is reduced. This is because the intensity of light taken into the imaging optical system 122 is reduced by reflection and scattering at the angle R101e and shadows formed by the side surfaces 101c and 101d. The image intensity at the position corresponding to the edge depends on the size of the corner R101e or the step at the edge, that is, the height difference between the surface 101a and the surface 101b.

光検出器121によって取得された画像は演算部131に転送され、演算部131は画像処理によって少なくともひとつのエッジを検出し、エッジの位置を算出する(S104)。エッジ検出にはキャニー法などの、サブピクセル精度が得られるアルゴリズムが用いられる。例えば、ガウシアンフィルターなどによって画像を平滑化した後に、微分演算を行なうことによって、エッジ位置が算出される。図3(d)に示される破線は検出したエッジの位置143c、143dを表す。後述するように、ここで算出されたエッジの位置には誤差があるため、仮の位置とする。   The image acquired by the light detector 121 is transferred to the calculation unit 131, and the calculation unit 131 detects at least one edge by image processing and calculates the position of the edge (S104). For edge detection, an algorithm that can obtain subpixel accuracy, such as the Canny method, is used. For example, the edge position is calculated by performing differentiation after smoothing the image with a Gaussian filter or the like. The broken lines shown in FIG. 3D represent the detected edge positions 143c and 143d. As will be described later, since there is an error in the position of the edge calculated here, it is set as a temporary position.

エッジ位置の算出精度は、エッジに対応する位置におけるコントラストとエッジ周辺の画像のノイズ(強度のバラつき)に依存する。第1の照明状態では表面101aと表面101bおよび角R101eのすべての領域が照明されるため、エッジに対応する位置で高い画像のコントラストが得られない。さらに、領域141aでは画像の強度バラつきが大きいため、第1の画像からは、高い精度でエッジ位置を算出することができない。   The calculation accuracy of the edge position depends on the contrast at the position corresponding to the edge and noise (intensity variation) of the image around the edge. In the first illumination state, all areas of the surface 101a, the surface 101b, and the corner R101e are illuminated, so that a high image contrast cannot be obtained at a position corresponding to the edge. Furthermore, since the intensity variation of the image is large in the region 141a, the edge position cannot be calculated with high accuracy from the first image.

このように高い精度でエッジ位置を算出することができない原因として、被検物の角Rや面取り部分で反射される光の影響がある。図4を用いて、この影響について説明する。被検物101は、照明光160によって、表面101aと表面101bおよび角R101e上の照明領域161が照明されている。表面101bの粗さが大きい場合、照明光160は表面101bによって反射され、広い角度範囲に散乱光162が発生する。一部の散乱光162aは、角R101eに向かい、角R101eによって反射されて、結像光学系122の取込角165の内部に偏向される光線163が生成される。角R101eで反射された光線163が結像光学系122に取り込まれると、光検出器121によって取得された画像において、エッジに対応する位置の部分の光強度が大きくなってしまう。その結果、第1の画像では、画像処理によって検出されるエッジ位置が真の位置からずれてしまい、高精度に測定することができなくなる。   The reason why the edge position cannot be calculated with such high accuracy is the influence of the light reflected at the corner R of the test object or the chamfered portion. This effect will be described with reference to FIG. The object 101 is illuminated by the illumination light 160 in the illumination areas 161 on the surfaces 101a and 101b and the corner R101e. When the roughness of the surface 101b is large, the illumination light 160 is reflected by the surface 101b, and scattered light 162 is generated in a wide angle range. A part of the scattered light 162a is directed to the angle R101e and is reflected by the angle R101e to generate a light beam 163 that is deflected inside the capture angle 165 of the imaging optical system 122. When the light beam 163 reflected by the angle R101e is taken into the imaging optical system 122, the light intensity at the position corresponding to the edge in the image acquired by the photodetector 121 becomes large. As a result, in the first image, the edge position detected by the image processing is shifted from the true position, so that it cannot be measured with high accuracy.

そこで、本実施形態ではS105〜S108を行う。   Therefore, S105 to S108 are performed in the present embodiment.

まず、演算部131は、算出したエッジの仮の位置を境界として分割される2つの領域のうち、どちらにピントが合っているのか、フォーカスの判定を行う(S105)。図3(d)の画像の断面強度プロファイルから、図3(c)の領域141aはピントが合っており、領域141b乃至領域142はピントが外れていることが分かる。そのため、エッジの仮位置143cの右側にある領域141aにピントが合っていて、エッジの仮位置143cの左側にある領域141bにピントが合っていないと判定する。また、エッジの仮位置143dの左側にある領域141aにピントが合っていて、エッジの仮位置143dの右側にある領域141bにピントが合っていないと判定する。なお、S102におけるオートフォーカスにより表面101a(領域141a)にピントが合っているという情報がメモリに記憶されているなど、その情報が予め存在すれば、このフォーカス判定を行う必要はない。   First, the calculation unit 131 determines a focus on which of two regions divided using the calculated temporary position of the edge as a boundary (S105). From the cross-sectional intensity profile of the image in FIG. 3D, it can be seen that the region 141a in FIG. 3C is in focus and the regions 141b to 142 are out of focus. Therefore, it is determined that the area 141a on the right side of the temporary edge position 143c is in focus and the area 141b on the left side of the edge temporary position 143c is not in focus. Further, it is determined that the region 141a on the left side of the temporary edge position 143d is in focus and the region 141b on the right side of the temporary edge position 143d is not in focus. It should be noted that if information such as information indicating that the surface 101a (area 141a) is in focus is stored in the memory by autofocusing in S102, this focus determination need not be performed.

次に、第1の照明状態とは異なる第2の照明状態で被検物を照明するように制御部132によって空間光変調器112を制御する(S106)。図5(a)に示すように、被検物の側面101cおよび101dの近傍の領域に対応する画素112b、112cが光を透過する状態、その領域以外に対応する画素が光を透過しない状態に設定する。光を透過する画素112b、112cが照明光領域である。照明光領域は、被検物101のエッジの仮位置に対応する位置を照明光領域の境界として仮位置に対応する位置の片側(デフォーカス側)の一部分に設定される。このように照明光領域を設定することにより、エッジの仮位置に対応する位置を境界として一方の側にある領域と他方の側にある領域のうちフォーカス面125から遠い領域の被検物のエッジ近傍の一部分が局所的に照明される照明領域が形成される。フォーカス面125から遠い領域かどうかは、S105の判定に基づいて決定される。例えば、画素112bは、被検物101のエッジの仮位置143cの左側にある領域141bにある面の一部分を結像光学系の焦点位置からデフォーカスした状態で局所的に照明する。また、画素112cは、被検物101のエッジの仮位置143dの右側にある領域141bにある面の一部分を結像光学系の焦点位置からデフォーカスした状態で局所的に照明する。この照明状態を第2の照明状態とする。この照明状態では、照明装置110は、図5(b)に示すようにエッジの仮位置を境界として仮位置の片側にある面の一部分を照明するように、照明領域を設定する。   Next, the spatial light modulator 112 is controlled by the control unit 132 so as to illuminate the test object in a second illumination state different from the first illumination state (S106). As shown in FIG. 5A, the pixels 112b and 112c corresponding to the regions in the vicinity of the side surfaces 101c and 101d of the test object transmit light, and the pixels corresponding to other regions do not transmit light. Set. The pixels 112b and 112c that transmit light are illumination light regions. The illumination light area is set to a part of one side (defocus side) of the position corresponding to the temporary position with the position corresponding to the temporary position of the edge of the test object 101 as the boundary of the illumination light area. By setting the illumination light area in this way, the edge of the object in the area far from the focus plane 125 out of the area on one side and the area on the other side with the position corresponding to the temporary position of the edge as a boundary. An illumination area is formed in which a portion of the neighborhood is locally illuminated. Whether the region is far from the focus surface 125 is determined based on the determination in S105. For example, the pixel 112b locally illuminates a part of the surface in the region 141b on the left side of the temporary position 143c of the edge of the test object 101 in a state where it is defocused from the focal position of the imaging optical system. In addition, the pixel 112c locally illuminates a part of the surface in the region 141b on the right side of the temporary position 143d of the edge of the test object 101 in a state where it is defocused from the focal position of the imaging optical system. This illumination state is defined as a second illumination state. In this illumination state, the illumination device 110 sets an illumination area so as to illuminate a part of the surface on one side of the temporary position with the temporary position of the edge as a boundary, as shown in FIG.

次に、照明装置110により第2の照明状態で照明された被検物101で反射された光を結像光学系122で光検出器121の受光面に結像させて、光検出器121によって第2の画像150を取得する(S107)。   Next, the light reflected by the test object 101 illuminated in the second illumination state by the illumination device 110 is imaged on the light receiving surface of the photodetector 121 by the imaging optical system 122, and the photodetector 121 The second image 150 is acquired (S107).

図5(c)は第2の照明状態で取得した第2の画像150を表す図である。領域151は被検物101に対応する画像領域である。領域151aは、照明装置110によって照明されていない領域であり、画像は暗くなる。一方、被検物の側面101cおよび101dの近傍に対応する画像領域151b、151cは、照明装置110によって局所的に照明されているため、明るい画像が得られる。   FIG. 5C illustrates the second image 150 acquired in the second illumination state. An area 151 is an image area corresponding to the test object 101. The area 151a is an area that is not illuminated by the illumination device 110, and the image becomes dark. On the other hand, since the image regions 151b and 151c corresponding to the vicinity of the side surfaces 101c and 101d of the test object are locally illuminated by the illumination device 110, a bright image is obtained.

図5(d)は、図5(c)で示される破線Bにおける画像の断面強度プロファイルである。範囲153aは、被検物の表面101aに対応し、被検物の表面101aからの光の強度分布である。範囲153b、153cは領域151b、151cに対応し、表面101bのうち局所的に照明された領域から光の強度分布である。範囲153dは被検物の表面101bのうち照明されなかった領域からの光の強度分布である。   FIG. 5D is a cross-sectional intensity profile of the image taken along the broken line B shown in FIG. A range 153a corresponds to the surface 101a of the test object and is an intensity distribution of light from the surface 101a of the test object. The ranges 153b and 153c correspond to the regions 151b and 151c, and are light intensity distributions from the locally illuminated regions of the surface 101b. A range 153d is an intensity distribution of light from an unilluminated region of the surface 101b of the test object.

範囲153aでは、強度はほぼゼロである。これは照明装置110によって被検物の表面101aが照明されていないためである。一方、範囲153bでは、強度は大きな値となる。これは、被検物の表面101bのエッジ近傍の領域が照明装置110によって局所的に照明されているためである。範囲153cは、範囲153aと同様に照明装置110によって照明されないため、強度がほぼゼロとなる。   In the range 153a, the intensity is almost zero. This is because the surface 101a of the test object is not illuminated by the illumination device 110. On the other hand, in the range 153b, the intensity is a large value. This is because the area near the edge of the surface 101b of the test object is locally illuminated by the illumination device 110. Like the range 153a, the range 153c is not illuminated by the illumination device 110, and thus the intensity is almost zero.

光検出器121によって取得された第2の画像は演算部131に転送され、演算部131は画像処理によって少なくともひとつのエッジを検出し、エッジの位置を算出する(S108)。エッジ位置の算出精度は、エッジのコントラストとエッジ周辺の画像のノイズ(強度のバラつき)に依存する。領域151aではほぼ強度がゼロである一方、領域151bでは強度が大きな値となっているため、第2の画像では非常に高いエッジのコントラストが得られる。このため、第2の画像から算出されたエッジ位置は、第1の画像から算出されたエッジ位置に比べて、誤差が小さい。エッジの位置を算出する方法として、例えば、画像の強度分布について微分演算を行って、微分値のピーク位置をエッジ位置として算出する方法がある。図5(d)に、そのような方法で算出されたエッジの位置153c、153dを示す。   The second image acquired by the photodetector 121 is transferred to the calculation unit 131, and the calculation unit 131 detects at least one edge by image processing and calculates the position of the edge (S108). The calculation accuracy of the edge position depends on the contrast of the edge and the noise (intensity variation) of the image around the edge. In the area 151a, the intensity is almost zero, while in the area 151b, the intensity is a large value. Therefore, a very high edge contrast is obtained in the second image. For this reason, the edge position calculated from the second image has a smaller error than the edge position calculated from the first image. As a method of calculating the edge position, for example, there is a method of performing a differential operation on the intensity distribution of the image and calculating the peak position of the differential value as the edge position. FIG. 5D shows edge positions 153c and 153d calculated by such a method.

また、エッジ近傍を局所的に照明することによって、角Rや面取り部で反射される光の影響を小さくすることができる。この効果について、図6を用いて説明する。第1の照明状態を表す図4とは異なり、第2の照明状態では、被検物の側面101cおよび101dの近傍のみを照明する。被検物101は、照明光領域からの照明光170によって、表面101bのエッジ近傍の照明領域171が照明されている。照明領域171は表面101bの全体面積に比べて小さい。表面101bの粗さが大きい場合、照明光170は表面101bによって散乱され、広い角度範囲に散乱光172が発生する。一部の散乱光は角R101eに向かうが、照明領域171が小さいため、角R101eによって反射されて結像光学系122取込角165の内部に取り込まれる光は第1の照明状態と比較して少ない。このため、表面101b全体の広い領域を照明して得られる第1の画像と比較して、第2の画像では、画像処理によって算出されるエッジ位置の真の位置からのずれが小さく、高精度にエッジの位置を求めることができる。   Further, by locally illuminating the vicinity of the edge, it is possible to reduce the influence of light reflected at the corner R or the chamfered portion. This effect will be described with reference to FIG. Unlike FIG. 4 showing the first illumination state, in the second illumination state, only the vicinity of the side surfaces 101c and 101d of the test object is illuminated. In the test object 101, the illumination area 171 near the edge of the surface 101b is illuminated by illumination light 170 from the illumination light area. The illumination area 171 is smaller than the entire area of the surface 101b. When the roughness of the surface 101b is large, the illumination light 170 is scattered by the surface 101b, and scattered light 172 is generated in a wide angle range. Although some of the scattered light is directed to the corner R101e, the illumination area 171 is small, so that the light reflected by the corner R101e and captured inside the imaging optical system 122 capture angle 165 is compared with the first illumination state. Few. Therefore, compared with the first image obtained by illuminating a wide area of the entire surface 101b, the second image has a small deviation from the true position of the edge position calculated by image processing, and high accuracy. The position of the edge can be obtained.

次に、第2の照明状態において局所的に照明される照明領域171の幅について説明する。図7に、被検物のエッジにおける段差hと照明領域171の幅dとの比に対するエッジ位置のずれ量をシミュレーションした結果を示す。計算は、エッジにおける角Rの曲率半径を0.2mmとして行った。段差hの大きさが一定の場合、照明領域171の幅dが大きくなるとともに、エッジ位置のずれ量が大きくなることが分かる。エッジ位置のずれ量は、被検物の表面粗さによって異なり、破線は散乱角が5°、一点鎖線は散乱角が10°、点線は散乱角が15°の結果を表す。被検物の表面が粗く、散乱角が大きいほど、エッジ位置のずれ量も大きくなる。図7から、表面粗さが大きな場合(例えば、散乱角15°)でもエッジ位置のずれ量を0.5μm以下にしたい場合、d/hを0.25以下にする必要があることが分かる。つまり、被検物のエッジにおける段差hが10mmの場合、照明領域171の幅dを2.5mm以下にする必要がある。これらの結果を元に検討したところ、照明領域171の幅d(mm)は、d<2500×h×r×Δxという条件に設定することが好ましいことが分かった。ここで、h(mm)はエッジにおける段差、r(mm)は角Rまたは面取りの大きさ、Δx(mm)はエッジ位置の許容誤差を表す。角Rの大きさは曲率半径、面取りの大きさはC面の大きさによって定義される。この式に、角Rの曲率半径rが0.2mm、段差hが10mm、エッジ位置の許容誤差Δxが0.5μmという条件を代入すると、d<2.5mmが得られる。   Next, the width of the illumination area 171 that is locally illuminated in the second illumination state will be described. FIG. 7 shows a result of simulating the shift amount of the edge position with respect to the ratio between the step h at the edge of the test object and the width d of the illumination area 171. The calculation was performed with the radius of curvature of the corner R at the edge being 0.2 mm. It can be seen that when the size of the step h is constant, the width d of the illumination region 171 increases and the amount of deviation of the edge position increases. The shift amount of the edge position varies depending on the surface roughness of the test object. The broken line represents the scattering angle of 5 °, the alternate long and short dash line represents the scattering angle of 10 °, and the dotted line represents the scattering angle of 15 °. As the surface of the test object is rougher and the scattering angle is larger, the deviation amount of the edge position is larger. FIG. 7 shows that even when the surface roughness is large (for example, the scattering angle is 15 °), d / h needs to be set to 0.25 or less in order to make the shift amount of the edge position 0.5 μm or less. That is, when the level difference h at the edge of the test object is 10 mm, the width d of the illumination region 171 needs to be 2.5 mm or less. As a result of examination based on these results, it was found that the width d (mm) of the illumination region 171 is preferably set to a condition of d <2500 × h × r × Δx. Here, h (mm) represents the step at the edge, r (mm) represents the angle R or chamfer size, and Δx (mm) represents the tolerance of the edge position. The size of the corner R is defined by the radius of curvature, and the size of the chamfer is defined by the size of the C surface. If the condition that the radius of curvature r of the corner R is 0.2 mm, the level difference h is 10 mm, and the allowable error Δx of the edge position is 0.5 μm, d <2.5 mm is obtained.

次に、演算部131は、算出したエッジ位置の情報を用いて、被検物101の形状情報を算出する(S109)。具体的には、領域151aと領域151bの境界に対応する複数のエッジ位置の間の距離を算出し、被検物101の側面101cと側面101dの間の寸法とする。   Next, the calculation unit 131 calculates the shape information of the test object 101 using the calculated edge position information (S109). Specifically, the distance between a plurality of edge positions corresponding to the boundary between the region 151a and the region 151b is calculated and set as the dimension between the side surface 101c and the side surface 101d of the test object 101.

次に、被検物101の別の場所の寸法や形状を測定するか判断する(S110)。これは、演算部131のディスプレイ上に表示して対話形式でユーザーが選択できるようにしてもよいし、予め作成したティーチングプログラムから判断しても良い。被検物101の別の場所を測定する場合は、再びS101に戻り第1の照明状態に設定した後、被検物101の別の場所でオートフォーカスを行う。別の場所で測定を行わない場合は、測定を終了する。   Next, it is determined whether to measure the size and shape of another location of the test object 101 (S110). This may be displayed on the display of the calculation unit 131 so that the user can select it interactively, or may be determined from a teaching program created in advance. When measuring another location of the test object 101, the process returns to S101 again to set the first illumination state, and then autofocus is performed at another location of the test object 101. If the measurement is not performed at another location, the measurement is terminated.

本実施形態では、被検物101の側面101cと側面101dの間の寸法のみを測定する場合について説明したが、本発明はこのような測定対象に限定されるものではなく、より多くの寸法を測定したり、より複雑な被検物を測定したりする場合に適用できる。例えば、被検物の複数の場所について寸法を測定する場合は、それぞれの測定したいエッジの近傍を逐次的に局所的に照明することにより、迷光の影響を最小限に抑えて高精度にエッジ位置を測定することができる。また、被検物の測定すべき場所の複数が同一のフォーカス平面上にある場合は、複数の測定したいエッジの近傍を同一の焦点位置で同時に局所的に照明しても良い。この場合、エッジ周辺が局所的に照明されるので迷光の発生は最小限に抑えられるとともに、照明の切り替えおよび画像の取得に要する時間を短縮することができる。また、被検物のエッジの形状にも限定されない。例えば、被検物のエッジは直線的であっても、円弧状であっても、自由形状の曲線であっても良い。   In the present embodiment, the case where only the dimension between the side surface 101c and the side surface 101d of the test object 101 is measured has been described. However, the present invention is not limited to such a measurement target, and more dimensions are possible. It can be applied when measuring or measuring more complex specimens. For example, when measuring the dimensions of multiple locations on the test object, the edge position is highly accurate with minimal effects of stray light by locally illuminating the vicinity of each edge to be measured sequentially and locally. Can be measured. Further, when a plurality of locations to be measured of the test object are on the same focus plane, the vicinity of the plurality of edges to be measured may be locally illuminated simultaneously at the same focal position. In this case, since the periphery of the edge is locally illuminated, the generation of stray light can be minimized, and the time required for switching illumination and acquiring an image can be shortened. Further, the shape of the edge of the test object is not limited. For example, the edge of the test object may be a straight line, an arc shape, or a free-form curve.

以上のように、本実施形態によれば、面取りや角Rがある被検物についても、反射照明により高精度にエッジの位置を求めることができる。   As described above, according to the present embodiment, the position of the edge can be obtained with high accuracy by reflected illumination even for a test object having a chamfer or a corner R.

(第2実施形態)
第2実施形態は第1実施形態と比較して、被検物101の形状を測定するフローが異なる。第2実施形態は、測定前に被検物101の寸法や幾何公差などの形状情報が既知であり、同じ形状の異なる部品(同じ型番の部品)を繰り返し測定する場合に用いられる。図8は第2実施形態における測定のフローを示した図である。
(Second Embodiment)
The second embodiment is different from the first embodiment in the flow for measuring the shape of the test object 101. The second embodiment is used when shape information such as dimensions and geometric tolerances of the test object 101 is known before measurement, and different parts (parts having the same model number) having the same shape are repeatedly measured. FIG. 8 is a diagram showing a measurement flow in the second embodiment.

第2実施形態の測定では、まず、画像測定機10と被検物101の位置合わせを行って、ステージ134上における被検物101の位置や角度を演算部131が取得する(S201)。位置合わせには公知の技術が用いられる。例えば、被検物101を治具によって保持し、治具を画像測定機10のステージ134上にある不図示の突き当て部に突き当てることによって、画像測定機10と被検物101の位置合わせが行われる。あるいは、不図示の透過照明によって被検物101を下側から照明して画像を取得し、被検物の輪郭を算出することにより、画像測定機10と被検物101の相対的な位置と角度の情報が取得される。透過照明を用いて画像を取得する場合は、輪郭部のコントラストが高くなるようにオートフォーカスなどにより予めピントを合わせておくことが好ましい。あるいは、被検物101を照明装置110によって上方から照明して画像を取得し、既知の形状情報とのパターンマッチングにより画像測定機10と被検物101の相対的な位置と角度を算出しても良い。   In the measurement of the second embodiment, first, the image measuring machine 10 and the test object 101 are aligned, and the calculation unit 131 acquires the position and angle of the test object 101 on the stage 134 (S201). A known technique is used for alignment. For example, the test object 101 is held by a jig, and the jig is brought into contact with a not-shown abutting portion on the stage 134 of the image measuring machine 10 to thereby align the image measuring machine 10 and the test object 101. Is done. Alternatively, the relative position between the image measuring machine 10 and the test object 101 is obtained by illuminating the test object 101 from below with transmitted illumination (not shown) to obtain an image and calculating the contour of the test object. Angle information is acquired. When an image is acquired using transmitted illumination, it is preferable to focus in advance by autofocus or the like so that the contrast of the contour portion becomes high. Alternatively, the object 101 is illuminated from above with the illumination device 110 to obtain an image, and the relative position and angle between the image measuring machine 10 and the object 101 are calculated by pattern matching with known shape information. Also good.

次に、演算部131は、ハードディスクやSSDなどの記憶手段に記憶された被検物101の形状情報を読み出す(S202)。記憶手段に記憶された被検物101の形状情報は、CADデータなどの設計データや、計測装置で予め低精度に計測された形状などである。読み出された形状情報には、被検物のエッジ位置の情報が含まれる。   Next, the calculation unit 131 reads shape information of the test object 101 stored in a storage unit such as a hard disk or an SSD (S202). The shape information of the test object 101 stored in the storage means is design data such as CAD data, or a shape measured in advance with low accuracy by a measuring device. The read shape information includes information on the edge position of the test object.

次に、演算部131は、S201で取得した被検物101の位置や角度の情報、および、S202で読み出した被検物の形状情報を参照して、画像測定機10の視野内における被検物101のエッジの仮位置を算出する(S203)。   Next, the calculation unit 131 refers to the information on the position and angle of the test object 101 acquired in S201 and the shape information of the test object read out in S202, and performs a test within the field of view of the image measuring machine 10. The temporary position of the edge of the object 101 is calculated (S203).

次に、ステージ制御部133によってステージ134が上下に駆動制御され、公知のオートフォーカス技術によって測定するエッジ周辺の表面にピント合わせが行われる(S204)。   Next, the stage 134 is driven up and down by the stage controller 133, and focusing is performed on the surface around the edge measured by a known autofocus technique (S204).

次に、演算部131は、測定するエッジを境界として一方の側にある領域と他方の側にある領域のうち、どちらにピントが合っているのか、フォーカスの判定を行う(S205)。次に、制御部132によって照明装置110が局所的照明状態になるように制御される(S206)。第1実施形態と同様に、第2の照明状態となるように制御される。具体的には、図4(a)に示されるように、空間光変調器112を構成する画素112aのうち、被検物の表面101aに対応する領域にある画素が、光を透過しない状態に設定される。これによって、被検物101のエッジを境界として分割される2つの領域のうち、結像光学系122のフォーカス面125から遠い領域について、エッジ境界と近接する領域が局所的に照明される。つまり、図5(b)に示すように、照明装置110はエッジの仮位置を境界として仮位置の片側にある面の一部分を照明する。   Next, the calculation unit 131 determines the focus on which one of the region on one side and the region on the other side is in focus with the edge to be measured as a boundary (S205). Next, the illumination device 110 is controlled by the control unit 132 so as to be in a local illumination state (S206). Similar to the first embodiment, the second illumination state is controlled. Specifically, as shown in FIG. 4A, among the pixels 112a constituting the spatial light modulator 112, the pixels in the region corresponding to the surface 101a of the test object are in a state that does not transmit light. Is set. As a result, of the two regions that are divided with the edge of the test object 101 as the boundary, the region that is close to the edge boundary is locally illuminated in the region far from the focus surface 125 of the imaging optical system 122. That is, as shown in FIG. 5B, the illumination device 110 illuminates a part of the surface on one side of the temporary position with the temporary position of the edge as a boundary.

次に、局所的照明状態で、光検出器121によって画像が取得される(S207)。表面101bは表面101aに比べて、受光部120のフォーカス面125に対して遠い位置にあるので、ピントが外れることにより画像がぼやけてテクスチャの影響が平滑化される。   Next, an image is acquired by the photodetector 121 in the local illumination state (S207). Since the surface 101b is farther from the focus surface 125 of the light receiving unit 120 than the surface 101a, the image is blurred and the influence of the texture is smoothed by being out of focus.

光検出器121によって取得された画像は演算部131に転送され、演算部131は、画像処理によってエッジの位置を算出する(S208)。エッジ位置の算出精度は、第1実施形態と同様に、ピントが合った領域の画像はほぼ強度がゼロである一方、ピントが外れた領域の画像は強度が大きな値となっているため、非常に高いエッジのコントラストが得られる。さらに、角Rからの迷光の影響が小さいため、エッジの位置を高精度に算出することができる。   The image acquired by the photodetector 121 is transferred to the calculation unit 131, and the calculation unit 131 calculates the position of the edge by image processing (S208). As with the first embodiment, the edge position calculation accuracy is very high because the image in the focused area has almost zero intensity, while the image in the out-of-focus area has a high intensity value. High edge contrast can be obtained. Further, since the influence of stray light from the corner R is small, the edge position can be calculated with high accuracy.

次に、演算部131が、算出したエッジ位置の情報を用いて、被検物101の形状情報を算出する(S209)。次に、被検物101の別の場所の寸法や形状を測定するか判断する(S210)。被検物101の別の部分を測定する場合は、再びS203に戻り測定する別の場所のエッジの仮位置を算出した後、オートフォーカスを行う。別の場所で測定を行わない場合は、測定を終了する。   Next, the calculation unit 131 calculates the shape information of the test object 101 using the calculated edge position information (S209). Next, it is determined whether to measure the size and shape of another location of the test object 101 (S210). When measuring another part of the test object 101, the process returns to S203 again to calculate the temporary position of the edge of another place to be measured, and then performs autofocus. If the measurement is not performed at another location, the measurement is terminated.

以上のように、第2実施形態によれば、面取りや角Rがある被検物についても、反射照明により高精度にエッジの位置を求めることができる。   As described above, according to the second embodiment, the position of the edge can be obtained with high accuracy by reflected illumination even for a test object having a chamfer or a corner R.

高さが異なる複数の場所を焦点位置に合わせて複数回測定する場合、第1実施形態の測定フローでは各場所で第1の照明状態での画像と第2の照明状態での画像を取得する必要がある。一方、第2実施形態の測定フローでは既知の被検物の形状情報を利用することにより、各場所で局所的照明状態のみの画像を取得すれば良い。したがって、形状が複雑で、高さが異なる多数の場所で測定が必要な被検物について繰り返し測定を行う場合は、第2実施形態の測定フローが好適である。   When a plurality of places having different heights are measured a plurality of times in accordance with the focal position, in the measurement flow of the first embodiment, an image in the first illumination state and an image in the second illumination state are acquired at each place. There is a need. On the other hand, in the measurement flow of the second embodiment, it is only necessary to acquire an image of only the local illumination state at each location by using known shape information of the test object. Therefore, the measurement flow of the second embodiment is suitable when the measurement is repeatedly performed on the specimens that need to be measured at a large number of places having complicated shapes and different heights.

<物品の製造方法の実施形態>
本実施形態における物品の製造方法は、例えば、ギアなどの金属部品や光学素子等の物品を製造するために用いられる。本実施形態の物品の製造方法は、上記の計測装置を用いて、上記物品である被検物の寸法などの形状を計測する工程と、かかる工程における計測結果に基づいて被検物を加工する工程とを含む。例えば、被検物の形状を計測装置を用いて計測し、その計測結果に基づいて、被検物の形状が設計値など所望の形状になるように当該被検物を加工する。上記計測装置により高精度に被検物の形状を計測できるため、本実施形態の物品の製造方法は、従来の方法に比べて、少なくとも物品の加工精度の点で有利である。また、上記計測装置により高精度に計測された被検物の形状情報を用いて製造装置が物品を製造することもできる。
<Embodiment of Method for Manufacturing Article>
The method for manufacturing an article in the present embodiment is used, for example, to manufacture an article such as a metal part such as a gear or an optical element. The method for manufacturing an article according to this embodiment uses the above-described measurement device to measure a shape such as a dimension of the specimen that is the article, and to process the specimen based on the measurement result in the process. Process. For example, the shape of the test object is measured using a measuring device, and the test object is processed based on the measurement result so that the shape of the test object becomes a desired shape such as a design value. Since the shape of the test object can be measured with high accuracy by the measuring device, the article manufacturing method of the present embodiment is advantageous in at least the processing accuracy of the article as compared with the conventional method. In addition, the manufacturing apparatus can manufacture an article using the shape information of the test object measured with high accuracy by the measuring apparatus.

以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形および変更が可能である。例えば、ステージやステージ制御部を画像測定機とは別の装置として構成してもよい。オートフォーカスは、ステージ上下移動だけに限らず、結像光学系と光検出器とを一体的に上下動することにより行っても、結像光学系の焦点距離を変えることにより行ってもよい。   As mentioned above, although preferable embodiment of this invention was described, this invention is not limited to these embodiment, A various deformation | transformation and change are possible within the range of the summary. For example, the stage and the stage control unit may be configured as an apparatus different from the image measuring machine. The auto focus is not limited to the vertical movement of the stage, but may be performed by moving the imaging optical system and the photodetector up and down integrally or by changing the focal length of the imaging optical system.

Claims (10)

被検物を計測する計測装置であって、
前記被検物を照明する光を出射する照明光領域が変更可能な照明部と、
前記照明部により照明された前記被検物で反射された光を結像させる結像光学系と、
前記結像光学系により結像された前記被検物の画像を取得する取得部と、
演算部とを有し、
前記演算部は、前記被検物のエッジの仮位置の情報を取得し、
前記照明部の照明光領域において前記仮位置に対応する位置を前記照明光領域の境界として、前記仮位置に対応する位置の片側の一部分に前記照明光領域を設定して、前記結像光学系の焦点位置からデフォーカスした前記被検物の面を照明する照明状態において、前記取得部が前記被検物の画像を取得し、
前記演算部は、前記照明状態において前記取得部が取得した前記被検物の画像から前記被検物のエッジの位置を求めることを特徴とする計測装置。
A measuring device for measuring a test object,
An illumination unit capable of changing an illumination light region that emits light that illuminates the test object; and
An imaging optical system that forms an image of light reflected by the test object illuminated by the illumination unit;
An acquisition unit for acquiring an image of the test object imaged by the imaging optical system;
An arithmetic unit,
The calculation unit obtains information on a temporary position of the edge of the test object,
In the illumination light area of the illumination unit, the illumination optical area is set in a part of one side of the position corresponding to the temporary position, with the position corresponding to the temporary position as a boundary of the illumination light area, and the imaging optical system In the illumination state that illuminates the surface of the test object defocused from the focal position, the acquisition unit acquires the image of the test object,
The measuring device is characterized in that the position of the edge of the test object is obtained from the image of the test object acquired by the acquisition unit in the illumination state.
前記照明部は、前記仮位置の一方の側にある被検物の面と他方の側にある被検物の面のうち前記結像光学系の焦点位置から遠い面の一部分を照明するように前記照明光領域を設定することを特徴とする請求項1に記載の計測装置。   The illumination unit illuminates a part of a surface far from the focal position of the imaging optical system among the surface of the object on one side of the temporary position and the surface of the object on the other side. The measurement apparatus according to claim 1, wherein the illumination light region is set. 前記演算部は、前記取得部が取得した前記被検物の画像から、前記被検物のエッジの仮位置を求めることを特徴とする請求項1又は2に記載の計測装置。   The measuring apparatus according to claim 1, wherein the calculation unit obtains a temporary position of an edge of the test object from an image of the test object acquired by the acquisition unit. 前記被検物は高さが異なる第1面と第2面を有し、
前記演算部は、前記被検物の第1面を前記結像光学系の焦点位置に合わせた状態で前記第1面と前記第2面を照明して前記取得部が取得した前記被検物の画像から、前記被検物のエッジの仮位置を求め、
前記照明状態において、前記被検物の第1面を前記結像光学系の焦点位置に合わせた状態で前記第2面の一部分を該設定された照明光領域で照明する、ことを特徴とする請求項3に記載の計測装置。
The test object has a first surface and a second surface having different heights,
The said operation part illuminates the said 1st surface and the said 2nd surface in the state which match | combined the 1st surface of the said test object with the focus position of the said imaging optical system, and the said test object which the said acquisition part acquired From the image of, obtain the temporary position of the edge of the test object,
In the illumination state, a part of the second surface is illuminated with the set illumination light region in a state where the first surface of the test object is aligned with the focal position of the imaging optical system. The measuring device according to claim 3.
前記演算部は、被検物の位置の情報と、前記被検物の既知の形状情報と、から被検物のエッジの仮位置を求めることを特徴とする請求項1又は2に記載の計測装置。   The measurement according to claim 1, wherein the calculation unit obtains a temporary position of an edge of the test object from information on the position of the test object and known shape information of the test object. apparatus. 前記照明部は、前記照明光領域の幅を、被検物のエッジにおける段差、被検物のエッジにおける角の曲率半径又は面取りの大きさ、及び、算出されるエッジの位置の許容誤差に基づいて設定することを特徴とする請求項1乃至5の何れか1項に記載の計測装置。   The illumination unit determines the width of the illumination light region based on a step at the edge of the test object, a radius of curvature or a chamfer size of the corner of the test object edge, and a tolerance of the calculated edge position. The measuring device according to claim 1, wherein the measuring device is set. 前記照明部は、前記照明光領域からの光で前記被検物の面上に形成される照明領域の幅をd(mm)、被検物のエッジにおける段差をh(mm)、被検物のエッジにおける角の曲率半径又は面取りの大きさをr(mm)、算出されるエッジの位置の許容誤差をΔx(mm)とすると、d<2500×h×r×Δxを満たすように前記照明領域の幅を設定することを特徴とする請求項6に記載の計測装置。   The illumination unit has a width of an illumination area formed on the surface of the test object by light from the illumination light area d (mm), a step at the edge of the test object h (mm), and the test object If the radius of curvature or chamfer size of the corner of the edge is r (mm), and the tolerance of the calculated edge position is Δx (mm), the illumination is set so as to satisfy d <2500 × h × r × Δx. The measurement apparatus according to claim 6, wherein a width of the region is set. 前記演算部は、被検物の複数のエッジの位置を求め、複数のエッジの間の距離から被検物の形状情報を算出することを特徴とする請求項1乃至7の何れか1項に記載の計測装置。   The said calculating part calculates | requires the position of the some edge of a test object, and calculates the shape information of a test object from the distance between some edges, The any one of Claim 1 thru | or 7 characterized by the above-mentioned. The measuring device described. 請求項1乃至8の何れか1項に記載の計測装置を用いて物品の形状を計測する計測工程と、
前記計測工程による計測結果を用いて前記物品を加工する工程とを有することを特徴とする物品の製造方法。
A measuring step of measuring the shape of the article using the measuring device according to claim 1;
And a step of processing the article using a measurement result obtained by the measurement step.
被検物を計測する計測方法であって、
前記被検物のエッジの仮位置の情報を取得する工程と、
前記被検物を照明する光を出射する照明部の照明光領域において前記仮位置に対応する位置を前記照明光領域の境界として、前記仮位置に対応する位置の片側の一部分に前記照明光領域を設定して、結像光学系の焦点位置からデフォーカスした前記被検物の面を照明する照明状態において、前記被検物を照明する工程と、
前記照明状態において該照明された前記被検物で反射された光を前記結像光学系により結像させる工程と、
前記照明状態において該結像された前記被検物の画像を取得する工程と、
前記照明状態において該取得した前記被検物の画像から前記被検物のエッジの位置を求める工程と、を備えることを特徴とする計測方法。
A measuring method for measuring a test object,
Obtaining information on the temporary position of the edge of the test object;
In the illumination light area of the illumination unit that emits light that illuminates the test object, the position corresponding to the temporary position is set as a boundary of the illumination light area, and the illumination light area is partially located on one side of the position corresponding to the temporary position. Illuminating the test object in an illumination state in which the surface of the test object defocused from the focal position of the imaging optical system is set;
Imaging the light reflected by the illuminated object in the illumination state by the imaging optical system;
Obtaining the image of the test object imaged in the illumination state;
Obtaining a position of an edge of the test object from the acquired image of the test object in the illumination state.
JP2014161755A 2014-08-07 2014-08-07 Measuring device and manufacturing method Pending JP2016038292A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014161755A JP2016038292A (en) 2014-08-07 2014-08-07 Measuring device and manufacturing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014161755A JP2016038292A (en) 2014-08-07 2014-08-07 Measuring device and manufacturing method

Publications (1)

Publication Number Publication Date
JP2016038292A true JP2016038292A (en) 2016-03-22

Family

ID=55529475

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014161755A Pending JP2016038292A (en) 2014-08-07 2014-08-07 Measuring device and manufacturing method

Country Status (1)

Country Link
JP (1) JP2016038292A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110470219A (en) * 2019-08-16 2019-11-19 福建农林大学 The out-of-focus image distance measuring method and device retained based on edge spectrum

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110470219A (en) * 2019-08-16 2019-11-19 福建农林大学 The out-of-focus image distance measuring method and device retained based on edge spectrum

Similar Documents

Publication Publication Date Title
JP6604769B2 (en) How to measure a high accuracy height map of a test surface
KR101073212B1 (en) Laser scanning microscope device and surface profile measuring method thereof
US20150015701A1 (en) Triangulation scanner having motorized elements
JPH0363507A (en) Solid shape detecting method
TWI723129B (en) Method and system for optical three-dimensional topography measurement
WO2012057284A1 (en) Three-dimensional shape measurement device, three-dimensional shape measurement method, manufacturing method of structure, and structure manufacturing system
US10731971B1 (en) Method of measuring 3D profile
JP2007040801A (en) Three-dimensional coordinate measuring system and method
US20220316870A1 (en) Method and apparatus for determining a contour of a frame groove
JP2023176026A (en) Method for determining scan range
KR101826127B1 (en) optical apparatus for inspecting pattern image of semiconductor wafer
JP2015169624A (en) Measurement device, measurement method, and manufacturing method of article
US20170069110A1 (en) Shape measuring method
JP2011021970A (en) Three-dimensional shape measuring device and three-dimensional shape measuring method
JP2016038292A (en) Measuring device and manufacturing method
US20190041198A1 (en) Sample shape measuring method and sample shape measuring apparatus
JP6086274B2 (en) Dimension measuring device
JP4788968B2 (en) Focal plane tilt type confocal surface shape measuring device
JP2018009977A (en) Pattern irradiation device, imaging system, and handling system
US11055836B2 (en) Optical contrast enhancement for defect inspection
JP2010139419A (en) Shape measuring instrument
KR102030685B1 (en) Method for determining focus height using prediction of warpage for measuring printed circuit board
JP2008191036A (en) Three-dimensional shape measuring apparatus and three-dimensional shape measurement method
KR102400937B1 (en) Shape measuring appratus
JP2008170209A (en) Shape measuring method