JP2016211933A - Surface shape measurement device, surface shape measurement method, processing device, and optical element processed by the same - Google Patents

Surface shape measurement device, surface shape measurement method, processing device, and optical element processed by the same Download PDF

Info

Publication number
JP2016211933A
JP2016211933A JP2015094874A JP2015094874A JP2016211933A JP 2016211933 A JP2016211933 A JP 2016211933A JP 2015094874 A JP2015094874 A JP 2015094874A JP 2015094874 A JP2015094874 A JP 2015094874A JP 2016211933 A JP2016211933 A JP 2016211933A
Authority
JP
Japan
Prior art keywords
light
surface shape
test object
test
receiving sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015094874A
Other languages
Japanese (ja)
Inventor
由美子 大嵜
Yumiko Osaki
由美子 大嵜
裕範 古河
Hironori Furukawa
裕範 古河
優一 鷹家
Yuichi Takaya
優一 鷹家
義紀 前田
Yoshinori Maeda
義紀 前田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015094874A priority Critical patent/JP2016211933A/en
Publication of JP2016211933A publication Critical patent/JP2016211933A/en
Pending legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Testing Of Optical Devices Or Fibers (AREA)
  • Constituent Portions Of Griding Lathes, Driving, Sensing And Control (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a surface shape measurement device capable of accurately measuring the shape of a surface to be inspected by efficiently removing unnecessary light.SOLUTION: The surface shape measurement device includes: a light receiving sensor 8; an optical system including a light deflection member 4 that guides the light coming from a light source 1 to specimens 10 and 11 and guides the reflected light coming from the specimens to the light receiving sensor; a light shielding member 12 capable of being inserted into or removed from a light path between the light deflection member and a specimen; and calculating means 9 for calculating the surface shape of the specimen, on the basis of the measurement information output from the light receiving sensor in the removed state of the light shielding member and the unnecessary light information output from the light receiving sensor in the inserted state of the light shielding member.SELECTED DRAWING: Figure 1

Description

本発明は、光学素子の面形状計測技術に関する。   The present invention relates to a surface shape measurement technique for an optical element.

レンズの面形状を非接触で高速に計測する方法として、光学系を介して被検面に球面波の光を照射し、被検面における反射光を受光部のシャック・ハルトマンセンサを用いて計測する方法が非特許文献1にて提案されている。   As a method to measure the surface shape of the lens at high speed without contact, the surface to be measured is irradiated with spherical wave light via an optical system, and the reflected light on the surface to be measured is measured using the Shack-Hartmann sensor of the light receiving unit. Non-Patent Document 1 proposes a method for performing this.

この方法は特許文献1に開示されたようなヌルレンズを用いた干渉計と比較して、多様な設計値の被検面形状が計測可能である。また、特許文献2に開示されたような計測時にサンプルを駆動するスティッチング干渉計や特許文献3に開示されたような走査干渉計で用いられる、高精度に駆動するステージや距離計測装置や複雑な解析プログラムが不要となる。   Compared with an interferometer using a null lens as disclosed in Patent Document 1, this method can measure various test surface shapes with various design values. Further, a stage, a distance measuring device, and a complicated driving device used in a stitching interferometer for driving a sample at the time of measurement as disclosed in Patent Document 2 and a scanning interferometer as disclosed in Patent Document 3 are used. A simple analysis program becomes unnecessary.

特開平09−329427号公報JP 09-329427 A 特開2004−125768号公報JP 2004-125768 A 特許第03971747号公報Japanese Patent No. 0371747

Jahannes Pfund et al.“NonNull testing of rotationally symmetric aspheres:a systematic error assessment,”App.Opt.40(2001)p.439Jahnnes Pfund et al. “NonNull testing of rotationally asymmetry: a systematic error assessment,” App. Opt. 40 (2001) p. 439

シャック・ハルトマンセンサにより面形状を計測する場合、被検面からの反射光だけでなく他の光学部品からの余計な反射光もセンサに導かれるため、良好なスポット画像が得られないことがある。特に、光路を分割するためのビームスプリッターやレンズの中心部分の反射によって明るいゴースト像(不要光)がセンサに導かれると、その影響でスポット位置が誤検出され、正確な計測ができない。   When measuring the surface shape with the Shack-Hartmann sensor, not only the reflected light from the surface to be measured but also the extra reflected light from other optical components is guided to the sensor, so a good spot image may not be obtained. . In particular, if a bright ghost image (unnecessary light) is guided to the sensor by a beam splitter for dividing the optical path or reflection at the center of the lens, the spot position is erroneously detected due to the influence, and accurate measurement cannot be performed.

また、温度条件の違い、経時変化などで生じる光学系の誤差を校正するために計測光学系を変化させれば、そのたびに不要光であるゴースト像が変化する。   Further, if the measurement optical system is changed in order to calibrate an optical system error caused by a difference in temperature conditions, a change with time, a ghost image that is unnecessary light changes each time.

本発明は、不要光を効率的に除去し、被検面の形状を高精度に計測する面形状計測装置、面形状計測方法、及び加工装置、並びにそれによって加工された光学素子を提供する。   The present invention provides a surface shape measuring device, a surface shape measuring method, a processing device, and an optical element processed thereby, which efficiently remove unnecessary light and measure the shape of a test surface with high accuracy.

本発明の一側面としての面形状計測装置は、受光センサと、光源からの光を被検物に導き、被検物からの反射光を受光センサに導く光偏向部材を含む光学系と、光偏向部材と被検物の間の光路に対して、挿入および退避が可能な遮光部材と、遮光部材を退避した状態において受光センサから出力される計測情報、および遮光部材を挿入した状態において受光センサから出力される不要光情報に基づいて、被検物の面形状を演算する演算手段と、を有することを特徴とする。   A surface shape measuring apparatus according to one aspect of the present invention includes a light receiving sensor, an optical system including a light deflection member that guides light from a light source to a test object, and guides reflected light from the test object to the light receiving sensor, and a light. A light shielding member that can be inserted and retracted with respect to the optical path between the deflection member and the test object, measurement information output from the light receiving sensor when the light shielding member is retracted, and a light receiving sensor when the light shielding member is inserted And calculating means for calculating the surface shape of the test object based on the unnecessary light information output from.

本発明の別側面としての面形状計測方法は、光偏向部材と被検物との間の光路に対して、遮光部材の挿入および退避を行う駆動ステップと、遮光部材を退避した状態および遮光部材を挿入した状態で、光偏向部材から導かれる光を受光センサによって検出する検出ステップと、遮光部材を退避した状態における検出ステップの結果、および遮光部材を挿入した状態における検出ステップの結果に基づいて、被検物の面形状を演算するステップと、を有することを特徴とする。   The surface shape measuring method as another aspect of the present invention includes a driving step for inserting and retracting the light shielding member with respect to the optical path between the light deflection member and the test object, a state in which the light shielding member is retracted, and the light shielding member. Based on the result of the detection step in which the light guided from the light deflecting member is detected by the light receiving sensor, the detection step in the state in which the light shielding member is retracted, and the result of the detection step in the state in which the light shielding member is inserted And a step of calculating a surface shape of the test object.

本発明によれば、不要光を効率的に除去(削減)し、被検面の形状を高精度に計測することができる。   According to the present invention, unnecessary light can be efficiently removed (reduced), and the shape of the test surface can be measured with high accuracy.

実施例1である凸面の非球面形状の計測装置の構成を示す概略図。FIG. 3 is a schematic diagram illustrating a configuration of a convex aspherical shape measuring apparatus according to the first embodiment. 実施例1および実施例2での計測方法の概略を示すフローチャート。6 is a flowchart illustrating an outline of a measurement method according to the first embodiment and the second embodiment. 実施例1および実施例2での前処理フローを示すフローチャート。9 is a flowchart showing a preprocessing flow in the first embodiment and the second embodiment. 実施例1および実施例2での倍率分布校正フローを示すフローチャート。9 is a flowchart showing a magnification distribution calibration flow in the first embodiment and the second embodiment. 実施例1での形状計測フローを示すフローチャート。3 is a flowchart showing a shape measurement flow in the first embodiment. 実施例1および実施例2での解析フローを示すフローチャート。6 is a flowchart showing an analysis flow in the first embodiment and the second embodiment. 実施例1および実施例2での光線の位置および角度を説明する図。The figure explaining the position and angle of the light beam in Example 1 and Example 2. FIG. 実施例1である凹面の非球面形状の計測装置の構成を示す概略図。FIG. 3 is a schematic diagram illustrating a configuration of a concave aspherical measuring apparatus according to the first embodiment. 実施例2である非球面形状計測装置の構成を示す概略図。Schematic which shows the structure of the aspherical surface shape measuring apparatus which is Example 2. FIG. 実施例2での形状計測フローを示すフローチャート。9 is a flowchart showing a shape measurement flow in the second embodiment. 実施例3である光学素子加工装置の構成を示す概略図。Schematic which shows the structure of the optical element processing apparatus which is Example 3. FIG. 実施例1および2での不要光除去を説明する図。FIG. 6 is a diagram for explaining unnecessary light removal in the first and second embodiments.

以下、本発明の実施例ついて図面を参照しながら説明する。   Embodiments of the present invention will be described below with reference to the drawings.

図1は、本発明の実施例1である非球面形状計測装置100(以下、単に計測装置という)の構成を示す。この計測装置100は、基準レンズ10の情報を用いて、被検レンズ11の形状を計測する。以下の説明では、図1中に示したxyz直交座標系を用いる。   FIG. 1 shows a configuration of an aspherical shape measuring apparatus 100 (hereinafter simply referred to as a measuring apparatus) that is Embodiment 1 of the present invention. The measuring apparatus 100 measures the shape of the lens 11 to be tested using information on the reference lens 10. In the following description, the xyz orthogonal coordinate system shown in FIG. 1 is used.

図1において、1は光源、2は集光レンズ、3はピンホール、4はビームスプリッター(光偏向部材)、5は投光レンズ、6はステージの駆動装置、7は結像レンズ、8は受光センサ、9は制御部、10は基準レンズ、11は被検レンズである。基準レンズ10の一方の面は既知の形状を有する基準非球面10a(以下、単に基準面という)である。被検レンズ11の一方の面は被検非球面11a(以下、単に被検面という)である。本実施例では、基準面10aおよび被検面11aは凸面形状である。   In FIG. 1, 1 is a light source, 2 is a condenser lens, 3 is a pinhole, 4 is a beam splitter (light deflecting member), 5 is a light projection lens, 6 is a stage driving device, 7 is an imaging lens, and 8 is an imaging lens. A light receiving sensor, 9 is a control unit, 10 is a reference lens, and 11 is a test lens. One surface of the reference lens 10 is a reference aspherical surface 10a (hereinafter simply referred to as a reference surface) having a known shape. One surface of the test lens 11 is a test aspherical surface 11a (hereinafter simply referred to as a test surface). In the present embodiment, the reference surface 10a and the test surface 11a are convex.

12は遮光板(遮光部材)であり、13は遮光板12を駆動する遮光板駆動機構である。また、14は結像レンズ7の駆動装置であり、15は受光センサ8の駆動装置である。   Reference numeral 12 denotes a light shielding plate (light shielding member), and 13 denotes a light shielding plate driving mechanism for driving the light shielding plate 12. Reference numeral 14 denotes a driving device for the imaging lens 7, and reference numeral 15 denotes a driving device for the light receiving sensor 8.

光源1からの光は、集光レンズ2とピンホール3を透過し、ビームスプリッター4で反射され、投光レンズ5を透過することで収束光となり、基準面10aあるいは被検面11aを照射される。基準面10aあるいは被検面11aで反射した光は、投光レンズ5、ビームスプリッター4、結像レンズ7を透過し、受光センサ8で検出される。基準レンズ10と被検レンズ11は、例えば、駆動装置6によってX,Y,Z,θx,θy,θzを制御できるステージ(不図示)上に配置される。ビームスプリッター4は、ハーフミラーでもよい。   The light from the light source 1 passes through the condensing lens 2 and the pinhole 3, is reflected by the beam splitter 4, and passes through the light projection lens 5 to become convergent light, which is irradiated on the reference surface 10a or the test surface 11a. The The light reflected by the reference surface 10 a or the test surface 11 a passes through the light projection lens 5, the beam splitter 4, and the imaging lens 7 and is detected by the light receiving sensor 8. For example, the reference lens 10 and the test lens 11 are arranged on a stage (not shown) that can control X, Y, Z, θx, θy, and θz by the driving device 6. The beam splitter 4 may be a half mirror.

光源1には、例えば一定のバンド幅を持ったレーザーダイオードや発光ダイオードなどが用いられる。投光レンズ5は、基準面10a又は被検面11aに収束光を照射する。基準面10a及び被検面11aは、それぞれの近軸付近の曲率中心と収束光の球面波の曲率中心がほぼ等しくなるように構成すると好ましい。   As the light source 1, for example, a laser diode or a light emitting diode having a certain bandwidth is used. The light projection lens 5 irradiates the reference surface 10a or the test surface 11a with convergent light. The reference surface 10a and the test surface 11a are preferably configured such that the center of curvature near each paraxial axis and the center of curvature of the spherical wave of the convergent light are substantially equal.

結像レンズ7は、基準面10a及び被検面11aからの反射光を受光センサ8の受光面8aに導く。この投光レンズ5と結像レンズ7の設計条件は、計測したい被検レンズ11(被検物)の情報、たとえば有効径や曲率半径、非球面量などと、受光センサ8の情報、たとえばセンササイズ、センサの構成、入射許容角度などから決定する。   The imaging lens 7 guides the reflected light from the reference surface 10 a and the test surface 11 a to the light receiving surface 8 a of the light receiving sensor 8. The design conditions of the light projecting lens 5 and the imaging lens 7 are information on the lens 11 (test object) to be measured, for example, effective diameter, radius of curvature, aspheric amount, etc., and information on the light receiving sensor 8, such as sensor. Determine from size, sensor configuration, allowable angle of incidence, etc.

計測装置100は、駆動装置14および駆動装置15によって、結像レンズ7および受光センサ8を光軸方向に移動させることで計測範囲を調節する。投光レンズ5を移動することで計測範囲を調整してもよい。被検面を移動することで計測範囲を調整してもよい。あるいは、それら複数を組み合わせて移動することで計測範囲を調整してもよい。   The measuring device 100 adjusts the measurement range by moving the imaging lens 7 and the light receiving sensor 8 in the optical axis direction by the driving device 14 and the driving device 15. The measurement range may be adjusted by moving the projection lens 5. The measurement range may be adjusted by moving the test surface. Alternatively, the measurement range may be adjusted by moving a combination of these.

なお、1組のレンズで計測できる形状の範囲は限られている。そのため、投光レンズ5と結像レンズ7の少なくとも一つを交換したり、あるいは投光レンズ、結像レンズの一部分のみを交換、追加したり、その組み合わせによって、計測できる非球面形状の範囲を広げてもよい。   Note that the range of shapes that can be measured with one set of lenses is limited. Therefore, by replacing at least one of the projection lens 5 and the imaging lens 7, or by exchanging and adding only a part of the projection lens and the imaging lens, or combinations thereof, the range of the aspheric shape that can be measured is obtained. You can spread it.

本実施例では、受光センサ8にシャック・ハルトマンセンサを用いる。シャック・ハルトマンセンサは、多数の微小集光レンズを格子状に配列したマイクロレンズアレイと受光面で構成され、各マイクロレンズが受光面に入射光の集光スポットを形成するものである。この構成により、受光面8aにおける光線の角度分布φを求める。具体的には、あらかじめ平面波を入射した際に集光スポット位置(スポット像)を計測しておき、集光スポット位置の基準を求めておく。次に被検面を配置し、被検面からの反射光の波面に対応した集光スポット位置(波面計測情報)を計測することで、平面波での基準集光スポット位置からの変化量Δpが得られる。受光面8aでの光線角度分布φは、このΔpとマイクロレンズアレイの焦点距離fから次の数式1で求めることができる。   In this embodiment, a Shack-Hartmann sensor is used as the light receiving sensor 8. The Shack-Hartmann sensor includes a microlens array in which a large number of minute condensing lenses are arranged in a grid and a light receiving surface, and each microlens forms a condensing spot of incident light on the light receiving surface. With this configuration, the angular distribution φ of the light beam on the light receiving surface 8a is obtained. Specifically, when a plane wave is incident in advance, a condensing spot position (spot image) is measured in advance to obtain a reference for the condensing spot position. Next, by arranging the test surface and measuring the condensing spot position (wavefront measurement information) corresponding to the wavefront of the reflected light from the test surface, the amount of change Δp from the reference condensing spot position in the plane wave is can get. The ray angle distribution φ on the light receiving surface 8a can be obtained by the following formula 1 from this Δp and the focal length f of the microlens array.

受光センサ8には、シャック・ハルトマンセンサ以外であっても波面や角度分布を計測できるものであればよい。例えば、回折格子とCCDセンサを組み合わせ、シアリング干渉計や、Talbot干渉計を構成してもよい。他にもハルトマンプレートとCCDセンサを用いたハルトマン法を用いてもよい。   The light receiving sensor 8 may be anything other than a Shack-Hartmann sensor as long as it can measure the wavefront and angular distribution. For example, a shearing interferometer or a Talbot interferometer may be configured by combining a diffraction grating and a CCD sensor. Alternatively, the Hartmann method using a Hartmann plate and a CCD sensor may be used.

また、被検面からの反射光の波面が受光面8aより大きい場合は、反射波面の一部分だけを計測し、受光センサ8を移動させて複数回計測を繰り返し、つなぎ合わせることで全体の波面や角度分布を計測してもよい。   When the wavefront of the reflected light from the test surface is larger than the light receiving surface 8a, only a part of the reflected wavefront is measured, the light receiving sensor 8 is moved, the measurement is repeated a plurality of times, and the entire wavefront or An angular distribution may be measured.

制御部9は計測装置100を制御するものであり、受光センサ8での計測結果に基づいて、被検面11aの形状を求める演算処理や、駆動装置6,14,15等への指示を行う。   The control unit 9 controls the measuring device 100, and performs arithmetic processing for obtaining the shape of the test surface 11 a based on the measurement result of the light receiving sensor 8 and gives instructions to the driving devices 6, 14, 15, and the like. .

図2は、本実施例で行われる計測シーケンスを示すフローチャートである。計測シーケンスは、前処理フローA、倍率分布校正フローB、形状計測フローC、解析フローDの4つからなり、最終的に被検面の形状を求める。以下、上記4つのフローについて、図3から図6のフローチャートを用いて詳細に説明する。   FIG. 2 is a flowchart showing a measurement sequence performed in this embodiment. The measurement sequence includes four processes, a preprocessing flow A, a magnification distribution calibration flow B, a shape measurement flow C, and an analysis flow D, and finally obtains the shape of the test surface. Hereinafter, the above four flows will be described in detail with reference to the flowcharts of FIGS.

図3は、被検面の形状を求めるための前処理フローAを示すフローチャートである。基準レンズ10と被検レンズ11は同じ設計値をもとに作成されたレンズであり、その差は数ミクロン程度しかなく、ほぼ類似した形状をしている。   FIG. 3 is a flowchart showing a preprocessing flow A for determining the shape of the surface to be examined. The reference lens 10 and the test lens 11 are lenses produced based on the same design value, and the difference between them is only a few microns, and they have almost similar shapes.

ステップA−1では、計測装置100とは別の高精度な計測装置、例えば触針式計測装置で基準面10aの形状を予め計測する。   In Step A-1, the shape of the reference surface 10a is measured in advance with a high-precision measurement device different from the measurement device 100, for example, a stylus measurement device.

ステップA−2では、制御部9が、計測装置100の光学系の情報と、ステップA−1の計測によって得られた基準面10aの計測結果あるいは基準面10aの設計データをもとに、受光面8a上の波面W0を、例えば光線追跡ソフトウエアなどを使って演算する。予め光学系の収差情報や、光学系の組み立て誤差、光学系の詳細誤差などが分かっているのであれば、これらを考慮して光線トレースを演算することで、受光面8aでの波面をより高精度に見積もることができる。波面は、たとえば直交関数であるZernike係数を用いて表現する。   In step A-2, the control unit 9 receives light based on the information on the optical system of the measuring device 100 and the measurement result of the reference surface 10a obtained by the measurement in step A-1 or the design data of the reference surface 10a. The wavefront W0 on the surface 8a is calculated using, for example, ray tracing software. If the aberration information of the optical system, the assembly error of the optical system, the detailed error of the optical system, etc. are known in advance, the wavefront at the light receiving surface 8a is made higher by calculating the ray trace in consideration of these. The accuracy can be estimated. The wavefront is expressed using, for example, a Zernike coefficient that is an orthogonal function.

ステップA−3では、制御部9は、基準面10aを微小量だけ光軸を中心に傾けた際に受光面8a上の波面W1を、例えば光線追跡ソフトウエアなどを使って演算する。ここでも、ステップA−2と同様に、計測装置の光学系の情報と、ステップA−1の計測によって得られた基準面10aの計測結果あるいは基準面10aの設計データを用いる。そして、ステップA−2において得られた基準面10aの波面W0(以下、演算波面W0という)の情報と、基準面10aを駆動した後の波面W1の情報から、駆動前後の波面差を算出する。   In step A-3, the control unit 9 calculates the wavefront W1 on the light receiving surface 8a when the reference surface 10a is tilted about the optical axis by a minute amount using, for example, ray tracing software. Here, as in step A-2, the information on the optical system of the measuring device and the measurement result of the reference surface 10a obtained by the measurement in step A-1 or the design data of the reference surface 10a are used. Then, the wavefront difference before and after driving is calculated from the information on the wavefront W0 (hereinafter referred to as the calculation wavefront W0) of the reference surface 10a obtained in step A-2 and the information on the wavefront W1 after driving the reference surface 10a. .

被検レンズ11に照射される光は、被検面11aに対して垂直に入射しないため、被検レンズ11に対する入射角と異なる角度で反射される。この反射光は、受光面8aで略平行光にならず、被検面11aからの反射光の波面は平面波面から大きくずれた波面として検出される。また、その反射光の波面の平面波面からのずれ量は、計測した非球面形状によって変化する。そのため、受光面8aで被検面11aからの反射光の波面を計測しても、そのまま被検面11aの形状を得ることはできない。被検面11aからの反射波面から被検面11aの形状を算出するためには、被検面11aでの反射の位置と角度の2つの情報が必要になる。   Since the light irradiated to the test lens 11 does not enter the test surface 11a perpendicularly, it is reflected at an angle different from the incident angle with respect to the test lens 11. The reflected light does not become substantially parallel light on the light receiving surface 8a, and the wavefront of the reflected light from the surface 11a to be detected is detected as a wavefront greatly deviated from the plane wavefront. Also, the amount of deviation of the wavefront of the reflected light from the plane wavefront varies depending on the measured aspheric shape. Therefore, even if the wavefront of the reflected light from the test surface 11a is measured by the light receiving surface 8a, the shape of the test surface 11a cannot be obtained as it is. In order to calculate the shape of the test surface 11a from the reflected wavefront from the test surface 11a, two pieces of information on the reflection position and angle on the test surface 11a are required.

図7は、ある光束の、受光面8aと受光面8aの共役面における光線の関係を示している。基準面10a、被検面11aは、計測時に受光面8aの共役面(以下、センサ共役面とする)に近くなるよう配置される。   FIG. 7 shows the relationship between a light beam on a light receiving surface 8a and a conjugate surface of the light receiving surface 8a of a certain light beam. The reference surface 10a and the test surface 11a are arranged so as to be close to a conjugate surface (hereinafter referred to as a sensor conjugate surface) of the light receiving surface 8a at the time of measurement.

位置の情報は、受光面8aとセンサ共役面との横座標の関係を意味する。図7は、光軸からrの位置で受光した光束が、センサ共役面で光軸からRの位置で反射することを示している。位置倍率分布αは、受光面8aとセンサ共役面(被検面11a)の横座標の比とし、数式2のように表すことができる。この位置倍率は、一定ではなく、例えば光軸からの距離に対応した分布を持つ。   The position information means the abscissa relationship between the light receiving surface 8a and the sensor conjugate surface. FIG. 7 shows that the light beam received at the position r from the optical axis is reflected at the position R from the optical axis by the sensor conjugate plane. The position magnification distribution α is a ratio of the abscissa of the light receiving surface 8a and the sensor conjugate surface (test surface 11a), and can be expressed as Equation 2. This position magnification is not constant and has a distribution corresponding to the distance from the optical axis, for example.

角度の情報は、受光面8aとセンサ共役面との光線角度の関係を意味する。図7は、基準面10aを微小角度だけ傾けたときのセンサ共役面における光線角度変化がΔVであり、受光面8aにおける光線角度変化はΔvであることを示している。角度倍率分布βは、この光線角度変化の比とし、数式3のように表すことができる。この角度倍率は、一定ではなく、例えば光軸からの距離に対応した分布を持つ。   The angle information means the relationship of the light beam angle between the light receiving surface 8a and the sensor conjugate surface. FIG. 7 shows that the light ray angle change on the sensor conjugate surface when the reference surface 10a is tilted by a minute angle is ΔV, and the light beam angle change on the light receiving surface 8a is Δv. The angle magnification distribution β is a ratio of the light beam angle change and can be expressed as Equation 3. This angular magnification is not constant and has a distribution corresponding to the distance from the optical axis, for example.

制御部9は、位置倍率分布αと角度倍率分布βを、光学系の設計データと基準面10aの設計データをもとに光線追跡ソフトウエアなどを使って演算する。予め光学系の収差情報や、光学系の組み立て誤差、光学系の面形状や透過波面などが分かっているのであれば、これらを考慮して光線トレースを演算することで、より高精度に位置倍率分布αと角度倍率分布βを演算できる。   The control unit 9 calculates the position magnification distribution α and the angle magnification distribution β using ray tracing software or the like based on the design data of the optical system and the design data of the reference surface 10a. If the aberration information of the optical system, the assembly error of the optical system, the surface shape of the optical system, the transmitted wavefront, etc. are known in advance, the position magnification can be calculated with higher accuracy by calculating the ray trace in consideration of these. Distribution α and angular magnification distribution β can be calculated.

ステップA−4では、位置変化による波面敏感度を算出する。具体的には、制御部9の指示により、駆動装置6,14,15が基準レンズ10、結像レンズ7、受光面8aの位置を光軸(z)方向にそれぞれ変化させ、ステップA−2と同様に受光面8a上での波面を演算する。次に、制御部9は、位置を変化させる前後の波面の差から、基準レンズ10、結像レンズ7、受光センサ8のそれぞれ光軸方向の位置が変化したときの敏感度を演算し、不図示のメモリに格納する。このとき、波面の評価領域の中心位置および半径は一定とする。   In step A-4, the wavefront sensitivity due to the position change is calculated. Specifically, in response to an instruction from the control unit 9, the driving devices 6, 14, and 15 change the positions of the reference lens 10, the imaging lens 7, and the light receiving surface 8a in the optical axis (z) direction, respectively, step A-2 Similarly, the wavefront on the light receiving surface 8a is calculated. Next, the control unit 9 calculates the sensitivity when the positions of the reference lens 10, the imaging lens 7, and the light receiving sensor 8 change in the optical axis direction from the difference between the wave fronts before and after changing the position. Store in the illustrated memory. At this time, the center position and radius of the wavefront evaluation region are constant.

図4は、被検面の形状を算出するために必要な倍率分布を計測装置100によって校正する倍率分布校正フローBのフローチャートである。   FIG. 4 is a flowchart of a magnification distribution calibration flow B for calibrating the magnification distribution necessary for calculating the shape of the test surface by the measuring apparatus 100.

計測装置100の光学系のパラメータが設計通りであれば、ステップA−4で求めた位置倍率分布αと角度倍率分布βで被検面11aの形状を精度よく求めることができる。しかし、実際には、色々な誤差要因があるため設計通りにはならない。誤差要因には、例えば、レンズ加工誤差(曲率半径の誤差、研磨残渣、ホモジニティ、厚み誤差など)やレンズ組み立て誤差(光軸方向の配置誤差、収差など)やレンズと被検面・受光面のアライメント誤差、温度変化などの環境要因、経時変化などがある。できるだけ設計値の状態に近づけるため、倍率分布校正フローBによって光学系を校正する。   If the parameters of the optical system of the measuring apparatus 100 are as designed, the shape of the test surface 11a can be obtained with high accuracy from the position magnification distribution α and the angle magnification distribution β obtained in step A-4. However, in reality, there are various error factors, so it is not as designed. Error factors include, for example, lens processing error (curvature radius error, polishing residue, homogeneity, thickness error, etc.), lens assembly error (optical axis direction placement error, aberration, etc.), lens and test surface / light receiving surface There are environmental factors such as alignment errors, temperature changes, and changes over time. The optical system is calibrated by the magnification distribution calibration flow B in order to bring it closer to the design value as much as possible.

ここで、不要光が含まれた状態で受光面8aへの入射光を計測すると、計測したスポット強度分布(集光スポット位置)には不要光によるものも含まれているため、計測光のスポット強度分布を正確に求めることができず、計測光の波面を正確に算出できない。ここで、不要光とは、被検物以外の光学部品からの余計な反射光である。   Here, when incident light on the light receiving surface 8a is measured in a state where unnecessary light is included, the measured spot intensity distribution (condensed spot position) also includes unnecessary light, so the spot of the measurement light The intensity distribution cannot be obtained accurately, and the wavefront of the measurement light cannot be calculated accurately. Here, the unnecessary light is extra reflected light from optical components other than the test object.

本実施例では、遮光板12を用いて、不要光のみの情報を取得する工程を設ける。   In the present embodiment, a step of acquiring information on only unnecessary light using the light shielding plate 12 is provided.

ステップB−1では、制御部9からの指示により、遮光板駆動機構13が遮光板12を光路に挿入する。   In Step B-1, the light shielding plate driving mechanism 13 inserts the light shielding plate 12 into the optical path according to an instruction from the control unit 9.

ステップB−2では、遮光板12を光路に挿入した状態で、制御部9が受光センサ8を用いて不要光のスポット像の位置(不要光情報)を計測する。遮光板12を用いることで被検物(基準面10aや被検面11a)からの反射光を除くことができ、結果としてゴースト像などの不要光情報だけを計測することができる。不要光情報とは、各レンズの中心部からの反射光や、光路を分割するビームスプリッターの表裏面における反射光などの、計測には不要な光で形成された像のことである。   In Step B-2, the control unit 9 measures the position of the spot image of unnecessary light (unnecessary light information) using the light receiving sensor 8 with the light shielding plate 12 inserted in the optical path. By using the light shielding plate 12, reflected light from the test object (reference surface 10a or test surface 11a) can be removed, and as a result, only unnecessary light information such as a ghost image can be measured. The unnecessary light information is an image formed of light unnecessary for measurement, such as reflected light from the center of each lens and reflected light on the front and back surfaces of the beam splitter that divides the optical path.

不要光計測が終了した後、ステップB−3において、制御部9からの指示により遮光板駆動機構13が遮光板12を光路から退避させる。   After the unnecessary light measurement is completed, in step B-3, the light shielding plate driving mechanism 13 retracts the light shielding plate 12 from the optical path in accordance with an instruction from the control unit 9.

ステップB−4では、基準レンズ10を計測装置のステージ6に設置する。   In Step B-4, the reference lens 10 is installed on the stage 6 of the measuring device.

ステップB−5では、制御部9が、受光センサ8を用いて基準面10aで反射した光束によって形成されるスポット像を計測し、その強度分布から不要光情報を除去(削減)することで、波面(以下、計測波面Wという)を計測する。   In Step B-5, the control unit 9 measures the spot image formed by the light beam reflected by the reference surface 10a using the light receiving sensor 8, and removes (reduces) unnecessary light information from the intensity distribution. A wavefront (hereinafter referred to as a measurement wavefront W) is measured.

不要光計測とその除去に関して、図12を用いて更に詳細に説明する。   The unnecessary light measurement and its removal will be described in more detail with reference to FIG.

図12における画像30は、ステップB−5の計測で得られるスポット像を示している。このように、ステップB−5の計測時に受光センサ8から得られる像は、計測すべき被検物(基準面10a,被検面11a)からの反射光によって形成される像と、不要光によって形成されるゴースト像(不要光情報)とが重なった像になる。   An image 30 in FIG. 12 shows a spot image obtained by the measurement in Step B-5. As described above, the image obtained from the light receiving sensor 8 at the time of measurement in Step B-5 is based on the image formed by the reflected light from the object to be measured (reference surface 10a, test surface 11a) and unnecessary light. The formed ghost image (unnecessary light information) overlaps with the image.

図12における画像31は、ステップB−1の遮光板12を挿入した計測で得られるゴースト像(不要光情報)である。遮光板12によって計測すべき被検物(基準面10a,被検面11a)からの反射光を除去するため、ステップB−5と同様の不要光情報だけが計測できる。   An image 31 in FIG. 12 is a ghost image (unnecessary light information) obtained by measurement with the light shielding plate 12 inserted in Step B-1. Since the reflected light from the test object (reference surface 10a, test surface 11a) to be measured by the light shielding plate 12 is removed, only unnecessary light information similar to that in Step B-5 can be measured.

そして、画像30(被検物反射光+不要光)から画像31(不要光)を強度分布として単純に減算することで得られた画像32(両画像の差分)を用いて、波面を求める。ここで単純な強度分布の減算により計測画像を補正できるのは、コヒーレンス長の短い光源(例えば1mm以下のコヒーレンス光)を使用したシステムだからである。このように、本実施例によれば、不要光を強度分布の減算で簡易に除去することができ、高精度な計測を行うことが可能になる。   Then, a wavefront is obtained using an image 32 (difference between both images) obtained by simply subtracting the image 31 (unnecessary light) from the image 30 (test object reflected light + unnecessary light) as an intensity distribution. Here, the reason why the measurement image can be corrected by simple subtraction of the intensity distribution is that the system uses a light source having a short coherence length (for example, coherence light of 1 mm or less). Thus, according to the present embodiment, unnecessary light can be easily removed by subtraction of the intensity distribution, and highly accurate measurement can be performed.

本実施例では、基準レンズ10または被検レンズ11と投光レンズ5の間に遮光板12を挿入するが、遮光板12の挿入位置はこの位置に限られない。ビームスプリッターやビームスプリッター4付近で発生する不要光の影響が最も懸念されるため、遮光板12はビームスプリッターあるいはBS4から被検物の間に配置することが好ましい。特に、不要光をできるだけ多く除去するためには、遮光板12は被検物(基準レンズ10,被検レンズ11)の直前に挿入し、被検物からの反射光のみを除去することがより好ましい。   In this embodiment, the light shielding plate 12 is inserted between the reference lens 10 or the test lens 11 and the light projecting lens 5, but the insertion position of the light shielding plate 12 is not limited to this position. Since the influence of unnecessary light generated near the beam splitter or the beam splitter 4 is most concerned, the light shielding plate 12 is preferably disposed between the beam splitter or the BS 4 and the test object. In particular, in order to remove as much unnecessary light as possible, the light-shielding plate 12 is inserted immediately before the test object (reference lens 10, test lens 11) to remove only the reflected light from the test object. preferable.

また、基準面10aと被検面11aの計測に加えて不要光計測時も、受光センサ8の計測条件を等しくするとよい。例えば、自動で露光時間が変化するようなモードで撮影するのではなく、基準面10a、被検面11a、不要光情報をすべて等しい露光時間で計測する、又はシャッターなどを用いて受光センサ8における受光時間を等しくする。   In addition to measuring the reference surface 10a and the test surface 11a, the measurement conditions of the light receiving sensor 8 may be equalized when measuring unnecessary light. For example, instead of shooting in a mode in which the exposure time automatically changes, the reference surface 10a, the test surface 11a, and unnecessary light information are all measured with the same exposure time, or in the light receiving sensor 8 using a shutter or the like. Make the light reception time equal.

ステップB−6では、制御部9は、ステップB−5における計測波面Wと、ステップA−2における演算波面W0との差を計算し、その差分が十分に小さいかを判定する。このとき駆動装置6は、制御部9からの指示により、基準面10aの光軸に垂直な面(xy面)内の位置及び傾きを、計測波面Wと演算波面W0とのチルト成分及びコマ成分の差が十分小さくなるように調整する。基準面10aの光軸(z)方向の位置に関しては、駆動装置6は、制御部9からの指示により、計測波面Wと演算波面W0の球面成分、Zernike関数ではZ4、Z9、Z16、Z25・・・の差が小さくなるように調整する。このとき、ビームスプリッター4、投光レンズ5、結像レンズ7などの光学系に誤差があると、基準面10aの光軸方向の位置調整だけでは波面の球面成分の差は十分小さくならない。計測波面Wが演算波面W0と一致すると、基準面10aはセンサ共役面位置に配置されたこととなり、装置の位置倍率分布αおよび角度倍率分布βもステップA−3で演算した倍率分布と一致する。   In step B-6, the control unit 9 calculates the difference between the measured wavefront W in step B-5 and the calculated wavefront W0 in step A-2, and determines whether the difference is sufficiently small. At this time, in response to an instruction from the control unit 9, the driving device 6 determines the position and inclination in the plane (xy plane) perpendicular to the optical axis of the reference plane 10 a, the tilt component and the coma component between the measurement wavefront W and the calculation wavefront W0. The difference is adjusted so that it is sufficiently small. With respect to the position of the reference surface 10a in the optical axis (z) direction, the drive device 6 is instructed by the control unit 9 to provide spherical components of the measurement wavefront W and the calculation wavefront W0, and Z4, Z9, Z16, Z25.・ Adjust so that the difference is small. At this time, if there is an error in the optical system such as the beam splitter 4, the light projecting lens 5, and the imaging lens 7, the difference in the spherical component of the wavefront is not sufficiently reduced only by adjusting the position of the reference surface 10 a in the optical axis direction. When the measurement wavefront W coincides with the calculation wavefront W0, the reference plane 10a is disposed at the sensor conjugate plane position, and the position magnification distribution α and the angle magnification distribution β of the apparatus also coincide with the magnification distribution calculated in step A-3. .

なお、倍率分布校正フローBは、装置の組立初期にアライメントを行う場合、環境変動(空気圧、湿度、温度などの変化)に起因する光学系の誤差により設計からのずれが大きくなった場合、又は計測対象(被検面の設計形状)を変更した場合に行うと効果的である。   Note that the magnification distribution calibration flow B is used when alignment is performed at the initial stage of assembly of the apparatus, when a deviation from the design becomes large due to an error in the optical system due to environmental fluctuations (changes in air pressure, humidity, temperature, etc.), or This is effective when the measurement target (design shape of the test surface) is changed.

制御部9は、ステップB−5の計測波面Wと演算波面W0との差が十分に小さければ校正を終了してステップB−9に進み、差が大きければステップB−7に進む。   If the difference between the measured wavefront W and the calculated wavefront W0 in step B-5 is sufficiently small, the control unit 9 ends the calibration and proceeds to step B-9. If the difference is large, the control unit 9 proceeds to step B-7.

ステップB−7では、制御部9は、ステップA−4で演算した基準レンズ10、結像レンズ7、受光センサ8の光軸(z)方向の敏感度から、ステップB−5の計測波面Wと演算波面W0との差のうち球面成分の差が最小になるように、それぞれの駆動量を演算する。ここでは基準レンズ10、結像レンズ7、受光センサ8の3つを駆動する場合について言及したが、このような構成に限らず、駆動する軸が2つ以上あればよい。   In Step B-7, the control unit 9 determines the measurement wavefront W in Step B-5 from the sensitivity in the optical axis (z) direction of the reference lens 10, the imaging lens 7, and the light receiving sensor 8 calculated in Step A-4. Each of the driving amounts is calculated so that the difference between the spherical components in the difference between the calculation wavefront W0 and the calculation wavefront W0 is minimized. Although the case where the reference lens 10, the imaging lens 7, and the light receiving sensor 8 are driven is described here, the present invention is not limited to such a configuration, and two or more axes may be driven.

ステップB−8では、ステップB−7で求められた各軸の駆動量をもとに、駆動装置6,14,15が、基準レンズ10、結像レンズ7、受光センサ8をそれぞれ光軸方向に駆動する。駆動した後、制御部9は、処理をステップB−5に戻して受光センサ8により波面を計測し、計測波面Wと演算波面W0との差が十分小さくなるまでステップB−5からステップB−8を繰り返し行う。   In Step B-8, based on the driving amount of each axis obtained in Step B-7, the driving devices 6, 14, and 15 move the reference lens 10, the imaging lens 7, and the light receiving sensor 8 in the optical axis direction. To drive. After driving, the control unit 9 returns the process to step B-5, measures the wavefront by the light receiving sensor 8, and proceeds from step B-5 to step B- until the difference between the measured wavefront W and the calculated wavefront W0 becomes sufficiently small. Repeat step 8.

倍率校正が終了した後、ステップB−9ではステップB−1と同様に、制御部9からの指示により遮光板駆動機構13が遮光板12を光路に挿入する。   After the magnification calibration is completed, in step B-9, as in step B-1, the light shielding plate driving mechanism 13 inserts the light shielding plate 12 into the optical path according to an instruction from the control unit 9.

ステップB−10では、ステップB−2と同様に遮光板12を光路に挿入した状態で、制御部9が受光センサ8を用いて不要光情報を計測する。   In Step B-10, the controller 9 measures unnecessary light information using the light receiving sensor 8 in a state where the light shielding plate 12 is inserted in the optical path as in Step B-2.

不要光計測が終了した後、ステップB−11ではステップB−3と同様に、制御部9からの指示により遮光板駆動機構13が遮光板12を光路から退避させる。   After the unnecessary light measurement is completed, in step B-11, as in step B-3, the light shielding plate driving mechanism 13 retracts the light shielding plate 12 from the optical path in accordance with an instruction from the control unit 9.

図4に示す校正では光学系を光軸方向に駆動するため、校正を行うたびに光学系の光軸方向の配置が変化する。また異なる被検面が設置されると、校正位置もそれに対応して変化する。校正によって光学系の配置が変われば、不要光の発生状態も変わる。従って、校正により光学系の少なくとも一部を駆動するごとにステップB−10の不要光計測を行い不要項情報を計測情報から除去することで、校正状態に合せて最適な不要光情報を除去して高精度な波面計測を実現することができる。   In the calibration shown in FIG. 4, since the optical system is driven in the optical axis direction, the arrangement of the optical system in the optical axis direction changes every time calibration is performed. If different test surfaces are installed, the calibration position changes correspondingly. If the arrangement of the optical system changes due to calibration, the generation state of unnecessary light also changes. Therefore, every time at least a part of the optical system is driven by calibration, unnecessary light measurement in step B-10 is performed and unnecessary item information is removed from the measurement information, so that optimum unnecessary light information according to the calibration state is removed. Highly accurate wavefront measurement.

これ以降のすべての波面の計測において、計測毎に、制御部9が受光センサ8を用いて計測したスポット像の強度分布からステップB−10で取得した不要光情報を減算することで、不要光情報を除去したデータを用いて波面を計測する。ただし、校正によって光学系の少なくとも一部が駆動しても不要光情報の変化が小さい場合は、(B−9)〜(B−11)のステップを省略してもよい。その場合は、計測毎に、ステップB−2で取得した不要光情報を除去することで、波面を計測する。装置が安定している場合には校正前後での不要光変化も小さいため、光学系を校正することが必要となった場合にのみ不要光情報を計測することとしてもよい。除去に用いられる不要光情報は、計測した際に不図示のメモリに格納し、必要に応じて該メモリから読み出しを行うようにしてもよい。   In all subsequent wavefront measurements, unnecessary light information is obtained by subtracting the unnecessary light information acquired in step B-10 from the intensity distribution of the spot image measured by the control unit 9 using the light receiving sensor 8 for each measurement. The wavefront is measured using the data from which information is removed. However, if the change in unnecessary light information is small even when at least a part of the optical system is driven by calibration, steps (B-9) to (B-11) may be omitted. In that case, the wavefront is measured by removing the unnecessary light information acquired in step B-2 for each measurement. When the apparatus is stable, the change in unnecessary light before and after calibration is small, so that unnecessary light information may be measured only when it is necessary to calibrate the optical system. Unnecessary light information used for removal may be stored in a memory (not shown) when measured, and read out from the memory as necessary.

次に、形状計測フローCを図5を用いて説明する。   Next, the shape measurement flow C will be described with reference to FIG.

ステップC−1では、基準レンズ10をステージ6に設置する。   In Step C-1, the reference lens 10 is installed on the stage 6.

ステップC−2では、ステップB−6と同様に制御部9からの指示に応じて、駆動装置6が、計測波面Wと演算波面W0との差が閾値以下になるようにステージのチルトとシフトの調整することで基準面10aのアライメントを行う。   In step C-2, as in step B-6, in response to an instruction from the control unit 9, the driving device 6 tilts and shifts the stage so that the difference between the measured wavefront W and the calculated wavefront W0 is equal to or less than a threshold value. The reference plane 10a is aligned by adjusting.

ステップC−3では、制御部9は、基準面10aのアライメントが終了したら受光センサ8を用いて基準レンズ10からの反射光の波面(波面計測情報)を計測する。具体的には、本実施例では受光センサ8にシャック・ハルトマンセンサを用いるため、この受光センサ8によってスポット像を検出し、検出されたスポット像から不要光情報を除去する。そして、除去した後のデータから光線角度分布を前述の数式1によって求め、この光線角度分布を積分処理することによって波面を計測する。計測された基準面10aの波面は、不図示のメモリに格納しておく。   In step C-3, the controller 9 measures the wavefront (wavefront measurement information) of the reflected light from the reference lens 10 using the light receiving sensor 8 when the alignment of the reference surface 10a is completed. Specifically, since a Shack-Hartmann sensor is used as the light receiving sensor 8 in this embodiment, a spot image is detected by the light receiving sensor 8 and unnecessary light information is removed from the detected spot image. Then, the ray angle distribution is obtained from the data after the removal by the above-described formula 1, and the wavefront is measured by integrating the ray angle distribution. The measured wavefront of the reference surface 10a is stored in a memory (not shown).

ステップC−4では、基準レンズ10をステージから取り外し、ステージに被検レンズ11を配置する。基準面10aと被検面11aとの位置は、できるだけ一致させる必要がある。そのため、基準レンズ10をステージから退避させる前に基準面10aの光軸方向の位置を予め計測しておき、被検面11aを同じ位置に配置する。本実施例においては、光軸方向の位置は、測長機や変位センサなど別のセンサを用いて測る。   In Step C-4, the reference lens 10 is removed from the stage, and the test lens 11 is placed on the stage. The positions of the reference surface 10a and the test surface 11a need to be matched as much as possible. Therefore, before the reference lens 10 is retracted from the stage, the position of the reference surface 10a in the optical axis direction is measured in advance, and the test surface 11a is arranged at the same position. In the present embodiment, the position in the optical axis direction is measured using another sensor such as a length measuring machine or a displacement sensor.

ステップC−5では、ステップC−2と同様に制御部9からの指示に応じて、駆動装置6が、被検面11aのチルトとシフトのアライメントを行う。   In step C-5, the driving device 6 performs tilt and shift alignment of the test surface 11a in accordance with an instruction from the control unit 9 as in step C-2.

アライメント終了後に、ステップC−6において、制御部9が受光センサ8によって被検面11aの波面(波面計測情報)を計測する。計測された被検面11aの波面も、ステップC−3と同様に不図示のメモリに格納する。   After completion of the alignment, in step C-6, the control unit 9 measures the wavefront (wavefront measurement information) of the test surface 11a by the light receiving sensor 8. The measured wavefront of the test surface 11a is also stored in a memory (not shown) as in step C-3.

次に、解析フローDに関して、図6を用いて説明する。   Next, the analysis flow D will be described with reference to FIG.

ステップD−1では、制御部9は、形状計測フローCにより計測された基準面10aと被検面11aの波面から反射光の受光面8aにおける光線角度分布(面傾斜データ)V10・V11を算出する。 In Step D-1, the control unit 9 transmits the ray angle distribution (surface inclination data) V 10 · V 11 on the light receiving surface 8a of the reflected light from the wavefronts of the reference surface 10a and the test surface 11a measured by the shape measurement flow C. Is calculated.

ステップD−2では、制御部9は、ステップD−1により基準面10aと被検面11aに関して算出された光線角度分布V10・V11に対し、数式4を用いてセンサ共役面上の光線角度分布v10・v11を算出する。数式4での角度倍率分布βには、倍率校正フローBにより校正された倍率分布を用いる。また、数式4での主光線の角度分布ηとは、基準面10aでの反射光のうち検出面で光軸と平行になる光束が基準面10aに入射する際の光線角度を意味する。この主光線の角度分布ηは、前処理フローAと同じように、計測装置の光学系の情報や基準面10aの設計データから光線追跡ソフトウエアなどを使って計算で求める。 In Step D-2, the control unit 9, to ray angle distribution V 10 · V 11 calculated with respect to the reference surface 10a and the test surface 11a in step D-1, light rays on the sensor conjugate surface using Equation 4 to calculate the angular distribution v 10 · v 11. For the angular magnification distribution β in Equation 4, the magnification distribution calibrated by the magnification calibration flow B is used. In addition, the angle distribution η of the chief ray in Expression 4 means a ray angle when a light beam parallel to the optical axis on the detection surface out of the reflected light on the reference surface 10a is incident on the reference surface 10a. Similar to the pre-processing flow A, the chief ray angular distribution η is obtained by calculation using ray tracing software or the like from information on the optical system of the measuring apparatus and design data of the reference surface 10a.

次に、受光面8aの光線座標分布Rに対し、センサ共役面での光線座標分布rを数式5および数式6によって求める。受光面8aの光線座標分布Rとは、センサとしてシャック・ハルトマンセンサを用いる場合に、マイクロレンズアレイの個々の中心位置をCCDの座標(x、y)を用いて表したものである。   Next, with respect to the light beam coordinate distribution R of the light receiving surface 8a, a light beam coordinate distribution r on the sensor conjugate surface is obtained by Expressions 5 and 6. The light ray coordinate distribution R of the light receiving surface 8a represents each center position of the microlens array using CCD coordinates (x, y) when a Shack-Hartmann sensor is used as a sensor.

センサ共役面は、光学系の構成で決まる。しかし、計測装置100は1つの光学系で複数の基準面10aを計測するシステムであるため、センサ共役面と基準面10aは完全には一致しない。そこでステップD−3では、制御部9は、ステップD−2によって求められたセンサ共役面上の光線角度分布v10・v11と光線座標分布rに対して、基準面10aにおける対応点を光線追跡演算によって求める。すなわち、制御部9は、数式7によって、基準面10aの光線角度分布v10と被検面11aの光線角度分布v11との面傾斜(スロープ)の差分Δsを算出する。 The sensor conjugate surface is determined by the configuration of the optical system. However, since the measuring apparatus 100 is a system that measures a plurality of reference surfaces 10a with one optical system, the sensor conjugate surface and the reference surface 10a do not completely coincide. Therefore, in Step D-3, the control unit 9, to the step D-2 by ray angles on the sensor conjugate surface obtained distribution v 10 · v 11 and the light coordinate distribution r, light corresponding points in the reference plane 10a Obtained by tracking calculation. That is, the control unit 9, according to Equation 7, the ray angle distribution v 10 of the reference surface 10a calculates the difference Δs of the surface inclination of the ray angle distribution v 11 of the test surface 11a (slope).

面傾斜の差分Δsは、基準面10aと被検面11aとの面形状の差の微分値になっている。そのため、面形状差を求めるためには、Δsを積分する必要がある。積分手法には、基底関数の微分関数を用いたフィッティングや面傾斜の差分を随時加算していく手法など種々の方法がある。   The difference Δs in the surface inclination is a differential value of the difference in surface shape between the reference surface 10a and the test surface 11a. Therefore, Δs needs to be integrated in order to obtain the surface shape difference. There are various integration methods such as fitting using a differential function of a basis function and a method of adding a difference in surface inclination as needed.

ステップD−4では、制御部9は、Δsを積分して基準面10aと被検面11aとの面形状の差を求め、この値にステップA−1で予め計測しておいた基準面10aの情報を加算することで、最終的に被検面11aの形状を求める。   In step D-4, the control unit 9 integrates Δs to obtain a difference in surface shape between the reference surface 10a and the test surface 11a, and the reference surface 10a previously measured in step A-1 is set to this value. Is finally added to obtain the shape of the test surface 11a.

以上のように、光学系の校正を行った後に、遮光板12を光路に挿入した状態で不要光を計測し、基準面10aおよび被検面11aの情報から計測された不要光を除去することによって、簡単に不要光を除去することができ、高精度に形状を算出することができる。不要光計測は、上記フローに限定されず、必要に応じて種々のタイミングで行ってもよい。   As described above, after the optical system is calibrated, unnecessary light is measured in a state where the light shielding plate 12 is inserted in the optical path, and unnecessary light measured from the information on the reference surface 10a and the test surface 11a is removed. Therefore, unnecessary light can be easily removed, and the shape can be calculated with high accuracy. The unnecessary light measurement is not limited to the above flow, and may be performed at various timings as necessary.

校正が終了して光学系が変化しない状態であるなら、ステップC−5における不要光の計測は基準面10aを計測する前でも、被検面11aを計測した後でも良い。また、光学系が安定していて毎回校正が必要ない場合は、不要光も変化しないため、波面を計測するたびに不要光の計測を行う必要はない。さらに光学系が安定しており、校正だけでなく、基準面の計測も必要ない場合には、不要光、基準面の計測を行わずに、被検面のみの計測でもよい。または不要光と被検面のみの計測でもよい。   If calibration is completed and the optical system does not change, unnecessary light may be measured in step C-5 before measuring the reference surface 10a or after measuring the test surface 11a. Further, when the optical system is stable and calibration is not required every time, unnecessary light does not change, and therefore it is not necessary to measure unnecessary light every time the wavefront is measured. Further, when the optical system is stable and not only calibration but also measurement of the reference surface is not required, measurement of only the test surface may be performed without measuring unnecessary light and the reference surface. Alternatively, it is possible to measure only unnecessary light and the test surface.

上述のフローを用いて計測した被検面11aの形状と設計形状との差分を計算し、修正加工量とその位置関係(横座標)を求め、実施例4で述べる加工機により修正加工を行うことで、設計値に近い所望の形状のレンズを作成することができる。1回の加工で所望の形状が得られなかった場合には、計測と修正加工を複数回繰り返すこととしてもよい。   The difference between the shape of the test surface 11a measured using the above-described flow and the design shape is calculated, the correction processing amount and the positional relationship (abscissa) are obtained, and the correction processing is performed by the processing machine described in the fourth embodiment. Thus, a lens having a desired shape close to the design value can be created. When a desired shape is not obtained by one processing, the measurement and correction processing may be repeated a plurality of times.

なお、本実施例では、被検物を被検レンズ11として説明をしてきたが、レンズ以外でもよく、レンズと同等の形状のミラーなどの光学素子や、金型などでもよい。   In this embodiment, the test object has been described as the test lens 11. However, the test object may be other than the lens, or may be an optical element such as a mirror having the same shape as the lens, a mold, or the like.

また、本実施例では、受光センサ8における基準面10aや被検面11aの計測情報から不要光情報を減算により除去(削減)することとしたが、計測した不要光情報を用いた、その他の方法により計測情報を補正するものであってもよい。   In the present embodiment, unnecessary light information is removed (reduced) by subtraction from the measurement information of the reference surface 10a and the test surface 11a in the light receiving sensor 8, but other information using the measured unnecessary light information is used. The measurement information may be corrected by a method.

不要光情報を除去としているが、完全に除去できなくても問題ない。この場合、除去できなかった不要光は誤差として計測情報に残るが、必要な計測誤差の範囲になるよう、処理前より低減することを目的としている。計測時間や計測精度など、必要な計測条件が実現できるよう、その目標に合せて不要光計測の頻度を決めればよい。   Although unnecessary light information is removed, there is no problem even if it cannot be completely removed. In this case, the unnecessary light that could not be removed remains in the measurement information as an error, but the purpose is to reduce it from before the processing so that it falls within the necessary measurement error range. What is necessary is just to determine the frequency of unnecessary light measurement according to the target so that necessary measurement conditions, such as measurement time and measurement accuracy, can be realized.

また、本実施例では、A−3において、α:位置倍率分布およびβ:角度倍率分布を算出し、この倍率分布を用いて計測した光線座標分布と光線角度分布から、基準面や被検面における検出面の共役面上の光線座標分布と光線角度分布を算出した。しかし、算出方法はこれに限らない。例えば、光学トレースソフトなどを用いて光線追跡を行うことで、同様の処理が実現できる。本発明は、計測情報を得るための不要光を軽減するための手法を提案したもので、この光線座標分布と光線角度分布の算出方法は、その他の方法を用いても可能である。   In the present embodiment, in A-3, α: position magnification distribution and β: angle magnification distribution are calculated, and the reference plane and the test surface are calculated from the light beam coordinate distribution and the light beam angle distribution measured using the magnification distribution. The light beam coordinate distribution and the light beam angle distribution on the conjugate plane of the detection surface in FIG. However, the calculation method is not limited to this. For example, the same processing can be realized by performing ray tracing using optical tracing software or the like. The present invention proposes a technique for reducing unnecessary light for obtaining measurement information, and other methods can be used for calculating the light beam coordinate distribution and the light beam angle distribution.

また、本実施例では、計測装置100が凸面の非球面である被検面11aを有する被検レンズ11を計測することしたが、図8に示すような凹面の非球面である被検面11’aを有する被検レンズ11’を計測するもので当ててもよい。この場合も、同様のフローを適用することができる。また、この場合、凸面の基準面10aを有する基準レンズ10の代わりに、既知の凹面の非球面である基準面10’aを有する基準レンズ10’を用いる。   Further, in this embodiment, the measuring device 100 measures the test lens 11 having the test surface 11a which is a convex aspherical surface, but the test surface 11 which is a concave aspherical surface as shown in FIG. You may apply with what measures the to-be-tested lens 11 which has 'a'. In this case, the same flow can be applied. In this case, instead of the reference lens 10 having the convex reference surface 10a, a reference lens 10 'having a known concave aspheric reference surface 10'a is used.

また、本発明を適用できる面形状計測技術は、本実施例で説明したものに限らず、光学系を介して被検面に光を導き、該光学系を介して被検面からの反射光を受光センサによって検出するものであればよい。   Further, the surface shape measurement technique to which the present invention can be applied is not limited to that described in the present embodiment, and the light is guided to the test surface through the optical system, and the reflected light from the test surface through the optical system. Can be detected by the light receiving sensor.

また、制御部9における演算は、本実施例で説明したように計測装置100の内部で行ってもよいし、計測データを外部のコンピュータに出力して該外部コンピュータで演算を行うこととしてもよい。外部コンピュータでの演算は、本実施例に示した演算の一部だけであってもよい。   The calculation in the control unit 9 may be performed inside the measurement apparatus 100 as described in the present embodiment, or measurement data may be output to an external computer and the calculation may be performed by the external computer. . The calculation in the external computer may be only a part of the calculation shown in this embodiment.

実施例1では、光学系を校正した後に、遮光板12を挿入して不要光を計測する場合を示した。   In the first embodiment, after the optical system is calibrated, the light shielding plate 12 is inserted to measure unnecessary light.

実施例2では、光学系を校正した後、基準面10aを計測するステップと被検面11aを計測するステップとの間に、サンプル位置の計測と不要光の計測を同時に行う場合を示す。環境変動などによってドリフトがある場合には、基準面10aと被検面11aの間で不要光を除去することで高精度計測が見込まれる。実施例1と重複する構成については、説明を省略する。   In the second embodiment, after the optical system is calibrated, a sample position measurement and an unnecessary light measurement are simultaneously performed between the step of measuring the reference surface 10a and the step of measuring the surface 11a to be measured. When there is a drift due to environmental fluctuations or the like, high-accuracy measurement is expected by removing unnecessary light between the reference surface 10a and the test surface 11a. The description of the same components as those in the first embodiment is omitted.

図9は、本実施例における計測装置101の構成を示している。計測装置101は、遮光板12にレンズ位置計測センサ16(以下、距離センサという)を設置しており、それ以外の構成は実施例1の計測装置100と同じである。   FIG. 9 shows the configuration of the measuring apparatus 101 in this embodiment. The measurement apparatus 101 is provided with a lens position measurement sensor 16 (hereinafter referred to as a distance sensor) on the light shielding plate 12, and other configurations are the same as those of the measurement apparatus 100 of the first embodiment.

本実施例では、実施例1における倍率校正後の不要情報取得のためのステップB−9,ステップB−10,ステップB−11を行わずに、以下のステップを計測フローCにて行う。   In this embodiment, the following steps are performed in the measurement flow C without performing Step B-9, Step B-10, and Step B-11 for acquiring unnecessary information after magnification calibration in Embodiment 1.

計測装置100と同様に、本実施例の計測装置101もまた基準面10aと被検面11aを計測し、両者の差分情報から形状を算出する。基準面10aと被検面11aの位置ずれは、計測誤差に大きな影響を及ぼすため、基準面10aと被検面11aは同じ位置に配置する必要がある。そのため、高精度計測を行うには、基準面10aまでの距離を実際に計測しておき、被検面11aに交換した後に被検面11aまでの距離を計測しながら被検面11aの位置が基準面10aと等しくなるようにステージを駆動する必要がある。   Similar to the measuring apparatus 100, the measuring apparatus 101 of the present embodiment also measures the reference surface 10a and the test surface 11a, and calculates the shape from the difference information between the two. Since the positional deviation between the reference surface 10a and the test surface 11a has a great influence on the measurement error, the reference surface 10a and the test surface 11a need to be arranged at the same position. Therefore, in order to perform high-accuracy measurement, the distance to the reference surface 10a is actually measured, and the position of the test surface 11a is measured while measuring the distance to the test surface 11a after replacement with the test surface 11a. It is necessary to drive the stage so as to be equal to the reference surface 10a.

このような構成において、環境変動などに起因したドリフトがある場合には、基準面10aと被検面11aの間で不要光を計測するステップを追加し、基準面10aと被検面11aの計測情報から、不要光情報を除去することで、より高精度な計測を実現できる。   In such a configuration, when there is a drift due to environmental fluctuations or the like, a step of measuring unnecessary light between the reference surface 10a and the test surface 11a is added to measure the reference surface 10a and the test surface 11a. By removing unnecessary light information from the information, more accurate measurement can be realized.

以下に、本実施例における形状計測フローCについて図10を用いて説明する。図10に示した本実施例の形状計測フローCは、C2−4、C2−5、C2−7が実施例1のものと異なり、その他のステップは実施例1と同じである。   The shape measurement flow C in the present embodiment will be described below with reference to FIG. The shape measurement flow C of this embodiment shown in FIG. 10 is different from that of the first embodiment in C2-4, C2-5, and C2-7, and the other steps are the same as those in the first embodiment.

ステップC2−4では、制御部9の指示により、遮光板駆動機構13が遮光板12と遮光板12の被検物側に設けた距離センサ16を光路に挿入する。   In Step C2-4, the light shielding plate driving mechanism 13 inserts the light shielding plate 12 and the distance sensor 16 provided on the object side of the light shielding plate 12 into the optical path according to an instruction from the control unit 9.

ステップC2−5では、制御部9が、受光センサ8を用いてゴースト像の計測(不要光計測)を行い、その不要光情報の計測中に又はその前後において距離センサ16を用いて基準面10aまでの距離の計測や光軸(z軸)方向の位置調整を行う。   In Step C2-5, the control unit 9 measures a ghost image (unnecessary light measurement) using the light receiving sensor 8, and uses the distance sensor 16 during or before the measurement of the unnecessary light information, and the reference plane 10a. Distance measurement and position adjustment in the optical axis (z-axis) direction.

ステップC2−6では、基準面10aをステージから取り外し、ステージに被検面11aを配置する。ステップC2−5での距離センサ16による計測結果を用いて、被検面11aの位置がステップC−3において計測を行った際の基準面10aの位置と同じになるように、駆動装置6がステージを駆動する。   In Step C2-6, the reference surface 10a is removed from the stage, and the test surface 11a is placed on the stage. Using the measurement result by the distance sensor 16 in step C2-5, the drive device 6 is operated so that the position of the test surface 11a is the same as the position of the reference surface 10a when the measurement is performed in step C-3. Drive the stage.

不要光計測と被検面の設置が終了した後に、ステップC2−7において、制御部9の指示により、遮光板駆動機構13が遮光板12と距離センサ16を光路から退避させる。   After the unnecessary light measurement and the installation of the test surface are completed, the light shielding plate drive mechanism 13 retracts the light shielding plate 12 and the distance sensor 16 from the optical path in accordance with an instruction from the control unit 9 in Step C2-7.

本実施例では、遮光板駆動機構13により、一体化された遮光板12と距離センサ16を駆動することとしたが、遮光板12と距離センサ16をそれぞれ別の駆動手段によって同時期に駆動させることとしてもよい。   In this embodiment, the light shielding plate driving mechanism 13 drives the integrated light shielding plate 12 and the distance sensor 16, but the light shielding plate 12 and the distance sensor 16 are driven simultaneously by different driving means. It is good as well.

実施例2によれば、基準面10aおよび被検面11aの計測と、不要光情報の計測との時間差が小さくなり、実施例1の場合よりも環境変動が生じても高精度の計測を実現できる。さらには、遮光板12と距離センサ16を併用することで、不要光情報の計測と、計測面までの距離計測を平行してい行うことができ、より簡単な計測フローを実現できる。   According to the second embodiment, the time difference between the measurement of the reference surface 10a and the test surface 11a and the measurement of unnecessary light information is reduced, and higher-precision measurement is realized even if environmental fluctuations occur than in the first embodiment. it can. Furthermore, by using the light shielding plate 12 and the distance sensor 16 together, measurement of unnecessary light information and measurement of the distance to the measurement surface can be performed in parallel, and a simpler measurement flow can be realized.

本実施例では、受光センサ8における基準面10aや被検面11aの計測情報から不要光情報を減算により除去することとしたが、計測した不要光情報を用いた、その他の方法により計測情報を補正するものであってもよい。   In this embodiment, the unnecessary light information is removed by subtraction from the measurement information of the reference surface 10a and the test surface 11a in the light receiving sensor 8, but the measurement information is obtained by other methods using the measured unnecessary light information. You may correct | amend.

また、制御部9における演算は、本実施例で説明したように計測装置101の内部で行ってもよいし、計測データを外部のコンピュータに出力して該外部コンピュータで演算を行うこととしてもよい。外部コンピュータでの演算は、本実施例に示した演算の一部だけであってもよい。   The calculation in the control unit 9 may be performed inside the measurement apparatus 101 as described in the present embodiment, or may be performed by outputting measurement data to an external computer and performing the calculation on the external computer. . The calculation in the external computer may be only a part of the calculation shown in this embodiment.

図11には、本発明の実施例3として、実施例1にて説明した計測装置100を用いた光学素子加工装置200の構成を示している。実施例1にて説明した計測装置100に代えて、実施例2で説明した計測装置101を用いてもよい。   FIG. 11 shows a configuration of an optical element processing apparatus 200 using the measuring apparatus 100 described in the first embodiment as the third embodiment of the present invention. Instead of the measurement apparatus 100 described in the first embodiment, the measurement apparatus 101 described in the second embodiment may be used.

20は被検レンズ11の加工前の材料であり、201は該材料20に対して切削、研磨等の加工を行って光学素子としての被検レンズ11を製造する加工部である。   Reference numeral 20 denotes a material before processing of the test lens 11, and 201 denotes a processing unit that manufactures the test lens 11 as an optical element by processing the material 20 such as cutting and polishing.

加工部201で加工された被検レンズ11の被検面11aの面形状は、計測部としての計測装置100において、実施例1にて説明した計測方法を用いて計測される。そして、実施例1でも説明したように、計測装置100は、被検面11aを目標の面形状に仕上げるために、被検面11aの面形状の計測データと目標データとの差に基づいて被検面11aに対する修正加工量を計算し、これを加工部201に出力する。これにより、加工部201による被検面11aに対する修正加工が行われ、目標の面形状に至った被検面11aを有する被検レンズ11が完成する。   The surface shape of the test surface 11a of the test lens 11 processed by the processing unit 201 is measured using the measurement method described in the first embodiment in the measurement apparatus 100 as the measurement unit. As described in the first embodiment, the measuring device 100 is configured to finish the test surface 11a to the target surface shape based on the difference between the measurement data of the surface shape of the test surface 11a and the target data. The amount of correction processing for the inspection surface 11a is calculated and output to the processing unit 201. Thereby, the correction process is performed on the test surface 11a by the processing unit 201, and the test lens 11 having the test surface 11a reaching the target surface shape is completed.

また、既に修正加工された被検面11aの形状を計測装置100により計測し、得られた修正加工量に基づいて再び加工部201が修正加工するという動作を繰り返し行うようにしてもよい。   Further, the shape of the test surface 11a that has already been subjected to the correction processing may be measured by the measuring apparatus 100, and the operation in which the processing unit 201 performs correction processing again based on the obtained correction processing amount may be repeatedly performed.

以上説明した各実施例は代表的な例にすぎず、本発明の実施に際しては、各実施例に対して種々の変形や変更が可能である。   Each embodiment described above is only a representative example, and various modifications and changes can be made to each embodiment in carrying out the present invention.

被検面の形状を高速かつ高精度に計測することが可能な計測方法および計測装置を提供することができる。   It is possible to provide a measuring method and a measuring apparatus capable of measuring the shape of the test surface at high speed and with high accuracy.

1 光源
4 ビームスプリッター
8 センサ
9 制御部
10 基準レンズ
10a 基準面
11 被検レンズ
11a 被検面
12 遮光板
13 遮光板駆動機構
DESCRIPTION OF SYMBOLS 1 Light source 4 Beam splitter 8 Sensor 9 Control part 10 Reference lens 10a Reference surface 11 Test lens 11a Test surface 12 Light-shielding plate 13 Light-shielding plate drive mechanism

Claims (13)

光源からの光を被検物に照射し、該被検物からの反射光を検出することで前記被検物の面形状を計測する面形状計測装置であって、
受光センサと、
前記光源からの光を前記被検物に導き、前記被検物からの反射光を前記受光センサに導く光偏向部材を含む光学系と、
前記光偏向部材と前記被検物の間の光路に対して、挿入および退避が可能な遮光部材と、
前記遮光部材を退避した状態において前記受光センサから出力される計測情報、および前記遮光部材を挿入した状態において前記受光センサから出力される不要光情報に基づいて、前記被検物の面形状を演算する演算手段と、
を有することを特徴とする面形状計測装置。
A surface shape measuring device that measures the surface shape of the test object by irradiating the test object with light from a light source and detecting reflected light from the test object,
A light receiving sensor;
An optical system including a light deflection member that guides light from the light source to the test object and guides reflected light from the test object to the light receiving sensor;
A light shielding member that can be inserted into and retracted from the optical path between the light deflection member and the test object;
The surface shape of the test object is calculated based on the measurement information output from the light receiving sensor when the light shielding member is retracted and unnecessary light information output from the light receiving sensor when the light shielding member is inserted. Computing means for
A surface shape measuring device characterized by comprising:
前記光偏向部材は、前記遮光部材を退避した状態において、前記被検物として既知の形状を有する基準面からの反射光と、前記被検物として非球面形状を有する被検面からの反射光を前記受光センサに導き、
前記演算手段は、前記基準面および前記被検面の各々の前記計測情報、ならびに前記不要光情報に基づいて、前記被検面の形状を演算することを特徴とする請求項1に記載の面形状計測装置。
The light deflecting member reflects light from a reference surface having a known shape as the test object and reflected light from a test surface having an aspherical shape as the test object in a state where the light shielding member is retracted. To the light receiving sensor,
2. The surface according to claim 1, wherein the calculation unit calculates a shape of the test surface based on the measurement information of each of the reference surface and the test surface and the unnecessary light information. Shape measuring device.
前記演算手段は、前記計測情報から前記不要光情報を減算することによって、前記計測情報を補正し、補正された前記計測情報に基づいて前記被検物の面形状を演算することを特徴とする請求項1又は2に記載の面形状計測装置。   The calculation means corrects the measurement information by subtracting the unnecessary light information from the measurement information, and calculates a surface shape of the test object based on the corrected measurement information. The surface shape measuring apparatus according to claim 1 or 2. 前記演算手段は、前記不要光情報によって補正された前記計測情報を用いて、前記被検物からの反射光の前記受光センサの受光面における波面を演算することを特徴とする請求項3に記載の面形状計測装置。   The said calculating means calculates the wave front in the light-receiving surface of the said light-receiving sensor of the reflected light from the said test | inspection using the said measurement information corrected by the said unnecessary light information. Surface shape measuring device. 前記演算手段は、前記受光センサの受光面に対する共役面上の光線座標分布および光線角度分布を演算し、
演算された前記光線座標分布および前記光線角度分布と、前記不要光情報と、前記計測情報と、を用いて前記被検物の面形状を算出することを特徴とする請求項1から4のうちいずれか1項に記載の面形状計測装置。
The calculation means calculates a light beam coordinate distribution and a light beam angle distribution on a conjugate plane with respect to a light receiving surface of the light receiving sensor,
The surface shape of the test object is calculated using the calculated light beam coordinate distribution and the light beam angle distribution, the unnecessary light information, and the measurement information. The surface shape measuring apparatus of any one of Claims.
前記被検物、前記受光センサ、前記光学系の光学素子のうち少なくとも2つ、および前記遮光部材を駆動する駆動機構と、
前記駆動機構によって、前記光学系の校正を行い、該校正が終了した後に前記遮光部材を前記光路に挿入させる制御手段と、
を有することを特徴とする請求項1から5のうちいずれか1項に記載の面形状計測装置。
At least two of the test object, the light receiving sensor, the optical elements of the optical system, and a driving mechanism for driving the light shielding member;
Control means for calibrating the optical system by the drive mechanism and inserting the light shielding member into the optical path after the calibration is completed.
The surface shape measuring device according to claim 1, wherein
前記遮光部材は、前記被検物の位置を計測する距離センサを備えることを特徴とする請求項1から6のうちいずれか1項に記載の面形状計測装置。   The surface shape measuring apparatus according to claim 1, wherein the light shielding member includes a distance sensor that measures a position of the test object. コヒーレンス長が1mm以下のコヒーレンス光の光源を更に有し、
前記光源からの光を、前記光偏向部材と前記光学系を介して前記被検物に照射することを特徴とする請求項1から7のうちいずれか1項に記載の面形状計測装置。
A light source of coherence light having a coherence length of 1 mm or less;
8. The surface shape measuring apparatus according to claim 1, wherein light from the light source is applied to the test object via the light deflection member and the optical system. 9.
前記受光センサは、該受光センサの受光面に入射光を集光する複数のマイクロレンズを有し、
前記計測情報および前記不要光情報は、前記複数のマイクロレンズによる集光スポット位置であることを特徴とする請求項1から8のうちいずれか1項に記載の面形状計測装置。
The light receiving sensor has a plurality of microlenses that collect incident light on a light receiving surface of the light receiving sensor;
9. The surface shape measuring apparatus according to claim 1, wherein the measurement information and the unnecessary light information are condensing spot positions by the plurality of microlenses.
前記不要光情報は、前記被検物からの反射光を除いた、前記光学系からの反射光に関する情報であることを特徴とする請求項1から9のうちいずれか1項に記載の面形状計測装置。   The surface shape according to any one of claims 1 to 9, wherein the unnecessary light information is information related to reflected light from the optical system excluding reflected light from the test object. Measuring device. 請求項1から10のうちいずれか1項に記載の面形状計測装置と、
前記面形状計測装置によって計測した前記被検物の面形状に基づいて、該面形状の加工を行う加工部と、を有することを特徴とする加工装置。
The surface shape measuring apparatus according to any one of claims 1 to 10,
And a processing unit that processes the surface shape based on the surface shape of the test object measured by the surface shape measuring device.
請求項11に記載の加工装置によって、加工された被検面を有することを特徴とする光学素子。   An optical element having a test surface processed by the processing apparatus according to claim 11. 光源からの光を光偏向部材を介して被検物に照射し、該被検物からの反射光を前記光偏向部材を介して受光センサに導き、該受光センサの出力を用いて前記被検物の面形状を計測する面形状計測方法であって、
前記光偏向部材と前記被検物との間の光路に対して、遮光部材の挿入および退避を行う駆動ステップと、
前記遮光部材を退避した状態および前記遮光部材を挿入した状態で、前記光偏向部材から導かれる光を前記受光センサによって検出する検出ステップと、
前記遮光部材を退避した状態における前記検出ステップの結果、および前記遮光部材を挿入した状態における前記検出ステップの結果に基づいて、前記被検物の面形状を演算するステップと、
を有することを特徴とする面形状計測方法。

Light from a light source is irradiated onto a test object via a light deflecting member, reflected light from the test object is guided to a light receiving sensor via the light deflecting member, and the test object is output using an output of the light receiving sensor. A surface shape measuring method for measuring the surface shape of an object,
A driving step of inserting and retracting a light shielding member with respect to the optical path between the light deflection member and the test object;
A detection step of detecting light guided from the light deflection member by the light receiving sensor in a state in which the light shielding member is retracted and the light shielding member is inserted;
Based on the result of the detection step in the state in which the light shielding member is retracted and the result of the detection step in a state in which the light shielding member is inserted, calculating the surface shape of the test object;
A surface shape measuring method characterized by comprising:

JP2015094874A 2015-05-07 2015-05-07 Surface shape measurement device, surface shape measurement method, processing device, and optical element processed by the same Pending JP2016211933A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015094874A JP2016211933A (en) 2015-05-07 2015-05-07 Surface shape measurement device, surface shape measurement method, processing device, and optical element processed by the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015094874A JP2016211933A (en) 2015-05-07 2015-05-07 Surface shape measurement device, surface shape measurement method, processing device, and optical element processed by the same

Publications (1)

Publication Number Publication Date
JP2016211933A true JP2016211933A (en) 2016-12-15

Family

ID=57550119

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015094874A Pending JP2016211933A (en) 2015-05-07 2015-05-07 Surface shape measurement device, surface shape measurement method, processing device, and optical element processed by the same

Country Status (1)

Country Link
JP (1) JP2016211933A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017090327A (en) * 2015-11-13 2017-05-25 三菱電機株式会社 Wavefront sensor and wavefront processing method
JP2020186964A (en) * 2019-05-13 2020-11-19 応用電機株式会社 Pupil lens measurement apparatus and measurement method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017090327A (en) * 2015-11-13 2017-05-25 三菱電機株式会社 Wavefront sensor and wavefront processing method
JP2020186964A (en) * 2019-05-13 2020-11-19 応用電機株式会社 Pupil lens measurement apparatus and measurement method
JP7260120B2 (en) 2019-05-13 2023-04-18 応用電機株式会社 Pupil lens measuring device and measuring method

Similar Documents

Publication Publication Date Title
KR100972571B1 (en) Aspheric lens surface-misalignment measuring method and apparatus
JP4917088B2 (en) High resolution precision measurement method for non-spherical surfaces
JP6000577B2 (en) Aspherical surface measuring method, aspherical surface measuring device, optical element processing apparatus, and optical element manufacturing method
US7831105B2 (en) Method for determining the image quality of an optical imaging system
JP5896792B2 (en) Aspherical surface measuring method, aspherical surface measuring device, and optical element processing device
JP5971965B2 (en) Surface shape measuring method, surface shape measuring apparatus, program, and optical element manufacturing method
US7511816B2 (en) Methods and systems for determining drift in a position of a light beam with respect to a chuck
US20040041978A1 (en) Method and system for sensing and analyzing a wavefront of an optically transmissive system
CN101986097B (en) Method for removing defocusing error and tilt error in spherical surface form interference detection at high accuracy
US8027037B2 (en) Method for evaluating microstructures on a workpiece based on the orientation of a grating on the workpiece
JP4340625B2 (en) Optical inspection method and apparatus
JP2008215833A (en) Apparatus and method for measuring optical characteristics
JP2016211933A (en) Surface shape measurement device, surface shape measurement method, processing device, and optical element processed by the same
KR101826127B1 (en) optical apparatus for inspecting pattern image of semiconductor wafer
KR20110065365A (en) Method and apparatus for measuring aspherical body
JP2005201703A (en) Interference measuring method and system
JP6685741B2 (en) Shape measuring method, shape measuring device, program, recording medium, and optical element manufacturing method
JP7293078B2 (en) Analysis device, analysis method, interference measurement system, and program
JP2016024059A (en) Surface shape measurement method and surface shape measurement device and optical element using surface shape measurement method and surface shape measurement device
JP2002048673A (en) Physical quantity measuring method of optical element or optical system
JPH1172312A (en) Surface shape measuring apparatus
TWI596325B (en) Method or system for dertermining information about an object or a transparent optical element and method of forming an optical assembly
JP2017072447A (en) Position calculation method, shape measurement method, shape measurement apparatus, program, recording medium, and method of manufacturing component
JP5095539B2 (en) Aberration measurement error correction method
JP2016142691A (en) Shape measurement method and shape measurement device