WO2023079741A1 - 光学測定方法および光学測定システム - Google Patents

光学測定方法および光学測定システム Download PDF

Info

Publication number
WO2023079741A1
WO2023079741A1 PCT/JP2021/040987 JP2021040987W WO2023079741A1 WO 2023079741 A1 WO2023079741 A1 WO 2023079741A1 JP 2021040987 W JP2021040987 W JP 2021040987W WO 2023079741 A1 WO2023079741 A1 WO 2023079741A1
Authority
WO
WIPO (PCT)
Prior art keywords
light
hologram
wave distribution
light wave
distribution
Prior art date
Application number
PCT/JP2021/040987
Other languages
English (en)
French (fr)
Inventor
健作 下田
Original Assignee
大塚電子株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 大塚電子株式会社 filed Critical 大塚電子株式会社
Priority to KR1020237021417A priority Critical patent/KR20240086598A/ko
Priority to CN202180104033.9A priority patent/CN118235026A/zh
Priority to KR1020227028187A priority patent/KR102552799B1/ko
Priority to JP2022521142A priority patent/JP7157505B1/ja
Priority to PCT/JP2021/040987 priority patent/WO2023079741A1/ja
Priority to TW111130966A priority patent/TW202336416A/zh
Priority to JP2022157416A priority patent/JP2023070071A/ja
Publication of WO2023079741A1 publication Critical patent/WO2023079741A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B9/00Measuring instruments characterised by the use of optical techniques
    • G01B9/02Interferometers
    • G01B9/02041Interferometers characterised by particular imaging or detection techniques
    • G01B9/02047Interferometers characterised by particular imaging or detection techniques using digital holographic imaging, e.g. lensless phase imaging without hologram in the reference path
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/2441Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures using interferometry
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2504Calibration devices
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B9/00Measuring instruments characterised by the use of optical techniques
    • G01B9/02Interferometers
    • G01B9/02034Interferometers characterised by particularly shaped beams or wavefronts
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B9/00Measuring instruments characterised by the use of optical techniques
    • G01B9/02Interferometers
    • G01B9/02055Reduction or prevention of errors; Testing; Calibration
    • G01B9/0207Error reduction by correction of the measurement signal based on independently determined error sources, e.g. using a reference interferometer
    • G01B9/02072Error reduction by correction of the measurement signal based on independently determined error sources, e.g. using a reference interferometer by calibration or testing of interferometer
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B9/00Measuring instruments characterised by the use of optical techniques
    • G01B9/02Interferometers
    • G01B9/021Interferometers using holographic techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J9/00Measuring optical phase difference; Determining degree of coherence; Measuring optical wavelength
    • G01J9/02Measuring optical phase difference; Determining degree of coherence; Measuring optical wavelength by interferometric methods
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N21/41Refractivity; Phase-affecting properties, e.g. optical path length
    • G01N21/45Refractivity; Phase-affecting properties, e.g. optical path length using interferometric methods; using Schlieren methods
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03HHOLOGRAPHIC PROCESSES OR APPARATUS
    • G03H1/00Holographic processes or apparatus using light, infrared or ultraviolet waves for obtaining holograms or for obtaining an image from them; Details peculiar thereto
    • G03H1/04Processes or apparatus for producing holograms
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03HHOLOGRAPHIC PROCESSES OR APPARATUS
    • G03H1/00Holographic processes or apparatus using light, infrared or ultraviolet waves for obtaining holograms or for obtaining an image from them; Details peculiar thereto
    • G03H1/04Processes or apparatus for producing holograms
    • G03H1/0402Recording geometries or arrangements
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03HHOLOGRAPHIC PROCESSES OR APPARATUS
    • G03H1/00Holographic processes or apparatus using light, infrared or ultraviolet waves for obtaining holograms or for obtaining an image from them; Details peculiar thereto
    • G03H1/04Processes or apparatus for producing holograms
    • G03H1/0486Improving or monitoring the quality of the record, e.g. by compensating distortions, aberrations
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03HHOLOGRAPHIC PROCESSES OR APPARATUS
    • G03H1/00Holographic processes or apparatus using light, infrared or ultraviolet waves for obtaining holograms or for obtaining an image from them; Details peculiar thereto
    • G03H1/04Processes or apparatus for producing holograms
    • G03H1/08Synthesising holograms, i.e. holograms synthesized from objects or objects from holograms

Definitions

  • the present invention relates to an optical measurement method and an optical measurement system using digital holography.
  • Digital holography has been proposed and put into practical use as a method of measuring the shape of samples with higher accuracy.
  • Digital holography is a technology that acquires the shape of the wavefront of the object light and measures the shape of the sample, etc. is.
  • the following prior art exists.
  • Patent Document 1 discloses a method for reconstructing a holographic image.
  • Patent Document 2 discloses a practical digital holography method that performs both reflective and transmissive modes.
  • Patent Document 3 discloses a method for creating a complex amplitude in-line hologram.
  • Patent Document 4 discloses a high-resolution image reproduction hologram creation method for reproducing an image with enhanced resolution from a complex amplitude in-line hologram of a minute object obtained using in-line spherical wave light. disclose.
  • Patent Document 5 discloses a holographic imaging device and the like whose performance is improved in consideration of the influence of the refractive index of a cube-shaped beam combiner that constitutes an optical system. More specifically, for a spherical wave emitted from the focal point of the in-line spherical wave reference beam, light propagation calculation including propagation inside the beam combiner is performed by taking into consideration the refractive index of the beam combiner. A method is disclosed for generating an in-line reference beam hologram representing light waves in the plane of the hologram.
  • Patent Document 1 The method disclosed in US Pat. No. 6,411,406 (Patent Document 1) has a problem that accurate object light cannot be obtained due to superposition of conjugate images.
  • Patent Document 2 uses an imaging optical system, so aberration occurs in the imaging optical system, and the three-dimensional distribution cannot be accurately recorded. There is a problem.
  • Patent Document 3 has a problem that the recorded object light data may be distorted because the determination of the reference light is not perfect.
  • Patent Document 4 International Publication No. 2012/005315 (Patent Document 4) and International Publication No. 2020/045584 (Patent Document 5) require the inline spherical wave light to be accurately adjusted to the inline axis, which requires time and effort for adjustment. There is a problem.
  • the present invention provides a technique that can measure samples with higher accuracy while reducing the effort required for adjustment.
  • An optical measurement method includes the step of configuring an optical system for recording a hologram generated by modulating object light obtained by illuminating a sample with illumination light with reference light coherent with the illumination light. and placing a calibration unit including an optical system that produces a known light wave distribution on the optical path of the illumination light in the absence of a sample; recording one hologram; and calculating information on the light wave distribution of the reference light based on the information indicating the arrangement position of the calibration unit, the known light wave distribution, and the first hologram.
  • the calibration unit may be configured so that the generated light wave distribution can be spatially moved.
  • the optical measurement method includes moving the generated light wave distribution to a plurality of positions different from the position where the first hologram was recorded, and recording a plurality of second holograms respectively generated at the plurality of positions; a step of calculating a wavefront aberration from the spectrum calculated from the distribution and the spectrum calculated from the light wave distribution corresponding to the plurality of second holograms; and information indicating the arrangement position of the calibration unit so as to minimize the wavefront aberration. and adjusting the .
  • the optical measurement method applies spatial frequency filtering to each of the plurality of second holograms, and based on the filtering result and the information of the light wave distribution of the reference light, a plurality of object beams respectively corresponding to the plurality of second holograms. calculating a hologram; and calculating a respective plurality of lightwave distributions corresponding to the plurality of second holograms by respectively modifying the plurality of object beam holograms based on the known lightwave distributions.
  • the step of calculating the wavefront aberration includes: calculating a phase difference distribution spectrum, which is a phase difference distribution between the spectrum calculated from the known light wave distribution and the spectrum calculated from the light wave distribution corresponding to the second hologram; and calculating the root mean square of the average value of the entire phase difference distribution spectrum as an error.
  • the optical measurement method includes the steps of recording a third hologram generated by modulating an object beam obtained by illuminating a sample with illumination light with a reference beam, applying spatial frequency filtering to the third hologram, and filtering calculating an object beam hologram based on the results and information of the lightwave distribution of the reference beam.
  • the information of the lightwave distribution of the reference light may include a complex conjugate of the lightwave distribution of the reference light.
  • An optical measurement method constitutes an optical system for recording a hologram generated by modulating object light obtained by illuminating a sample with illumination light with reference light coherent with the illumination light. obtaining information on the light wave distribution of the reference light in the optical system; and recording a hologram generated by modulating the object light obtained by illuminating the sample with the illumination light with the reference light coherent with the illumination light. and applying spatial frequency filtering to the hologram, and calculating an object beam hologram based on the filtering result and the information of the light wave distribution of the reference beam.
  • Information on the light wave distribution of the reference light is obtained by a hologram recorded when a calibration unit including an optical system that generates a known light wave distribution is placed on the optical path of the illumination light in the absence of a sample, and a calibration unit. It may be calculated in advance based on the information indicating the arrangement position of the unit and the known light wave distribution.
  • An optical measurement system includes a light source that generates coherent light, a beam splitter that generates illumination light and reference light from the coherent light from the light source, and an object obtained by illuminating a sample with the illumination light.
  • the processing device applies spatial frequency filtering to the hologram recorded by the image sensor, and calculates an object beam hologram based on the filtering result and the information of the light wave distribution of the reference beam.
  • Information on the light wave distribution of the reference light is obtained by a hologram recorded when a calibration unit including an optical system that generates a known light wave distribution is placed on the optical path of the illumination light in the absence of a sample, and a calibration unit. It may be calculated in advance based on the information indicating the arrangement position of the unit and the known light wave distribution.
  • the sample can be measured with higher accuracy while reducing the labor for adjustment.
  • FIG. 1 is a schematic diagram showing a configuration example (for measurement processing) of an optical measurement system according to the present embodiment
  • FIG. 1 is a schematic diagram showing a configuration example (calibration processing) of an optical measurement system according to the present embodiment
  • FIG. 3 is a schematic diagram showing a configuration example of a profile generator of the optical measurement system according to the present embodiment
  • FIG. 2 is a schematic diagram showing a hardware configuration example of a processing device included in the optical measurement system according to the present embodiment
  • 4 is a flow chart showing the procedure of measurement processing executed in the optical measurement system according to the present embodiment
  • 4 is a flow chart showing the procedure of calibration processing executed in the optical measurement system according to the present embodiment
  • 9 is a flowchart showing another processing procedure of calibration processing executed in the optical measurement system according to the present embodiment
  • FIG. 10 is a diagram showing a measurement example in the initial stage of calibration processing of the optical measurement system according to the present embodiment
  • FIG. 10 is a diagram showing a measurement example after calibration processing of the optical measurement system according to the present embodiment
  • FIG. 4 is a diagram showing an example of sample measurement by the optical measurement system according to the present embodiment
  • FIG. 5 is a schematic diagram showing a configuration example of an optical measurement system according to Modification 1 of the present embodiment
  • FIG. 9 is a schematic diagram showing a configuration example of an optical measurement system according to Modification 2 of the present embodiment
  • FIG. 11 is a schematic diagram showing a configuration example of an optical measurement system according to Modification 3 of the present embodiment
  • FIG. 11 is a schematic diagram showing a configuration example of an optical measurement system according to Modification 4 of the present embodiment
  • the optical measurement system according to this embodiment utilizes digital holography using a divergent light source, such as a point light source, as a reference light.
  • the optical metrology system according to this embodiment employs a lensless digital holography configuration in which there is no lens between the sample and the image sensor.
  • FIG. 1 is a schematic diagram showing a configuration example (for measurement processing) of an optical measurement system 1 according to this embodiment.
  • the light wave distribution showing the shape of the sample is recorded. More specifically, the optical system shown in FIG. 1 modulates the object light O obtained by illuminating the sample S with the illumination light Q with the off-axis reference light R to generate the hologram IOR . It corresponds to an optical system for recording.
  • an optical measurement system 1 includes a light source 10, a beam expander BE, beam splitters BS1, BS2, mirrors M1, M2, a field mask A1, condenser lenses L1, L2, an image and a sensor D.
  • the light source 10 is composed of a laser or the like and generates coherent light.
  • the beam expander BE expands the cross-sectional diameter of light from the light source 10 to a predetermined size.
  • the beam splitter BS1 splits the light expanded by the beam expander BE into two.
  • One light split by the beam splitter BS1 (light on the reflection side of the beam splitter BS1) corresponds to the illumination light Q
  • the other light (light on the transmission side of the beam splitter BS1) is the off-axis reference light R. corresponds to Therefore, the illumination light Q and the reference light R are coherent with each other.
  • beam splitter BS1 generates illumination light Q and reference light R from coherent light from light source 10 .
  • the illumination light Q passes through the field mask A1 after being reflected by the mirror M1 and having its propagation direction changed.
  • the field mask A1 limits the range in which the illumination light Q illuminates the sample S to a predetermined range.
  • a field mask A1 having an opening SP1 corresponding to a predetermined range formed in a light shielding member may be used.
  • the illumination light Q passes through the area corresponding to the aperture SP1.
  • the image of the aperture SP1 of the field mask A1 passes through the condenser lens L1 and forms an image on the sample S. That is, of the light illuminating the field mask A1, only the light corresponding to the aperture SP1 passes through the field mask A1. Thereby, the range in which the illumination light Q that has passed through the field mask A1 illuminates the sample S can be limited.
  • the range for illuminating the sample S is determined so as to avoid overlap in the Fourier space (spatial frequency domain) between the component containing the information of the object light O and the light intensity component and the conjugate light component.
  • the illumination range of the illumination light Q By limiting the illumination range of the illumination light Q in this manner, noise due to overlap between components can be suppressed, and more accurate measurement can be achieved.
  • the field mask A1 may be omitted.
  • the object light O is generated by the illumination light Q passing through the sample S.
  • the object light O is incident on the image sensor D through the half mirror HM2 of the beam splitter BS2.
  • the reference light R is condensed by the condensing lens L2 after being reflected by the mirror M2 and having its propagation direction changed.
  • a condensing point FP1 by the condensing lens L2 corresponds to the position of the point light source. That is, the off-axis-arranged reference light R can be regarded as light emitted from a point light source.
  • the reference light R is incident on the image sensor D after being reflected by the half mirror HM2.
  • the object light O obtained by illuminating the sample S with the illumination light Q is modulated with the off-axis reference light R.
  • FIG. A hologram IOR produced by the modulation is recorded by the image sensor D.
  • the processing device 100 uses the hologram IOR recorded by the image sensor D and the calibration information 114 including the complex conjugate R * of the light wave distribution of the reference light R obtained by calibration to reconstruct the image of the sample S. information.
  • FIG. 1 shows a configuration example employing a cubic beam splitter BS2, but the beam splitter BS2 may have a relatively high refractive index for the purpose of increasing the numerical aperture or securing the working distance. , the cubic shape may be transformed into any other shape.
  • the beam splitter for recording the hologram IOR may have any shape as long as the interface between different media can be regarded as a plane.
  • a plate-shaped beam splitter may be employed instead of a cube-shaped beam splitter.
  • the beam splitter BS2 may be tilted with respect to the optical wavefront of the object light. Such an inclination can suppress stray light.
  • a configuration example in which the sample S and the image sensor D are arranged to face each other with the beam splitter BS2 interposed therebetween is shown, and a configuration example in which the condenser lens L2 and the image sensor D are arranged to face each other with the beam splitter BS2 interposed therebetween. may be adopted.
  • FIG. 2 is a schematic diagram showing a configuration example (calibration processing) of the optical measurement system 1 according to the present embodiment.
  • the optical measurement system 1 shown in FIG. 2 has a calibration unit 20 instead of the sample S, field mask A1 and condenser lens L1 in the configuration shown in FIG. Note that the configuration (mirror M2 and condensing lens L2) related to the reference light R remains as shown in FIG.
  • a calibration hologram IPiR is recorded by using the configuration example shown in FIG.
  • the calibration hologram I PiR is a set of holograms generated by translating a known light wave distribution P(x, y, z) to multiple positions and modulating them with off-axis reference beams R, respectively. is.
  • known lightwave distribution means a lightwave distribution that can be determined with the accuracy required for required measurement performance. Therefore, the light wave distribution of the light used to generate the calibration hologram IPiR only needs to be approximated with the necessary precision, and does not have to be completely described without any errors. However, it is assumed that the light wave distribution itself does not change with translation.
  • the in-line spherical wave light does not need to be precisely aligned with the in-line axis, unlike the arrangements disclosed in US Pat. Image reconstruction processing using the calibration hologram IPiR will be described later.
  • the calibration unit 20 includes a profile generator 30 and a field-limiting mask FA.
  • the profile generator 30 is an optical system that generates a known light wave distribution.
  • the calibration unit 20 including an optical system (profile generator 30) that generates a known light wave distribution is arranged on the optical path of the illumination light Q in the absence of the sample S.
  • the profile generator 30 may be configured so that the generated light wave distribution can be spatially moved. More specifically, the profile generation unit 30 may have a function of translating (shifting) the light wave distribution in the x-axis direction, the y-axis direction, and the z-axis direction.
  • the illumination light Q split by the beam splitter BS1 is reflected by the mirror M1 to change the propagation direction, and then enters the profile generator 30, thereby generating a spatially movable known light wave distribution P. be.
  • the field-of-view limiting mask FA has an aperture SP2 corresponding to the field of view recordable by the image sensor D. Note that the position of the field-limiting mask FA is fixed.
  • the light wave distribution P generated by the profile generator 30 can be translated in the x-axis direction, the y-axis direction, and the z-axis direction, respectively. It is designed not to block P. In other words, the light wave distribution P is translated within a range that allows it to pass through the aperture SP2 of the field limiting mask FA. However, the field limiting mask FA may be omitted.
  • FIG. 3 is a schematic diagram showing a configuration example of the profile generator 30 of the optical measurement system 1 according to this embodiment.
  • the optical systems shown in FIGS. 3A to 3D generate a known light wave distribution P when illumination light Q, which is a plane wave, is incident.
  • a profile generation unit 30A shown in FIG. 3A is an optical system using a pinhole, and includes a light shielding plate 31 that can be translated along three axes.
  • a pinhole 32 is provided within the illumination range of the illumination light Q of the light shielding plate 31 .
  • the beam diameter of the illumination light Q is set to a size that can sufficiently illuminate the range including the pinhole 32 .
  • a profile generation unit 30B shown in FIG. 3B is an optical system using a pinhole and a condenser lens, and includes a light shielding plate 33 and a light shielding plate 34 that can move in parallel along three axes.
  • the light shielding plate 33 and the light shielding plate 34 are connected to each other and move in parallel together.
  • a condenser lens 35 is provided within the illumination range of the illumination light Q of the light shielding plate 33
  • a pinhole 36 is provided within the illumination range of the illumination light Q that has passed through the light shielding plate 34 .
  • a beam diameter of the illumination light Q is set to a size that allows a sufficient amount of light to pass through the condenser lens 35 and the pinhole 36 .
  • a profile generation unit 30C shown in FIG. 3(C) is an optical system that does not use a pinhole and uses a condenser lens with known aberration.
  • the profile generator 30C includes a light shielding plate 31 that can be translated along three axes.
  • a condensing lens 37 is provided within the illumination range of the illumination light Q of the light shielding plate 31 .
  • the beam diameter of the illumination light Q is set to a size that can sufficiently illuminate the range including the condenser lens 37 .
  • a profile generator 30D shown in FIG. 3(D) is an optical system that does not use a pinhole and uses an objective lens with known aberration.
  • the profile generator 30D includes a light shielding plate 31 that can be translated along three axes.
  • An objective lens 38 is provided within the illumination range of the illumination light Q of the light shielding plate 31 .
  • the beam diameter of the illumination light Q is set to a size that can sufficiently illuminate the range including the objective lens 38 .
  • any optical system capable of generating a known light wave distribution can be employed without being limited to the configuration examples shown in FIGS. 3(A) to 3(D).
  • the light-receiving surface of the image sensor D will be referred to as the "recording surface”
  • the intersection of the recording surface and the central optical axis of the beam splitter BS2 will be referred to as the "origin”.
  • the optical axis direction be the z-axis
  • two axes orthogonal to the z-axis be the x-axis and the y-axis, respectively. That is, the optical axis is perpendicular to the recording surface of the image sensor D, and the x-axis and the y-axis are parallel to the recording surface of the image sensor D.
  • sample surface a surface of interest which is a predetermined distance away from the recording surface.
  • the light wave distributions of the object light O and the reference light R recorded by the image sensor D can be expressed by general formulas such as the following formulas (1) and (2).
  • the object light O and the off-axis reference light R are mutually coherent light having an angular frequency ⁇ .
  • the coordinates (x, y) may be omitted as appropriate in the following equations.
  • the hologram IOR recorded by the image sensor D in one imaging is expressed by the following formula (3) as the light intensity of the combined light of the light expressed by the formula (1) and the light expressed by the formula (2). is calculated as
  • the object beam hologram U is obtained by the following (5) It is calculated as shown in the formula.
  • the object light hologram U shown in equation (5) corresponds to the light wave distribution of the object light O on the recording surface of the image sensor D with the time term (- ⁇ t) removed. Therefore, by using a diffraction calculation that does not use approximation such as plane wave expansion, accurate image reproduction without aberration can be performed.
  • the sampling number of the complex amplitude hologram J OR ( number of pixels) may be increased.
  • the increased complex amplitude hologram JOR may be divided into lattices, and the divided lattices may be overlapped to reduce the complex amplitude hologram JOR hologram.
  • the size of the grating is preferably larger than the size of the image reproduced from the hologram.
  • a complex amplitude distribution obtained by increasing the number of samplings and superimposing is assumed to be a reconstruction object beam hologram U ⁇ .
  • the object light hologram U is treated as it is as the reproduction object light hologram U ⁇ .
  • the object light hologram U ⁇ for reconstruction is a hologram having information that allows the state of the sample surface to be reconstructed.
  • a light wave distribution on an arbitrary sample surface can be reproduced by performing a diffraction calculation based on plane wave expansion for the object beam hologram for reproduction U ⁇ .
  • a complex amplitude distribution U d is defined as a light wave distribution (on a sample plane separated by a distance d from the recording plane) obtained by propagating the object light hologram U ⁇ for reconstruction by plane wave expansion by a distance d .
  • the distribution U d can be generalized as shown in Equation (6) below. However, k zm in the formula is calculated according to formula (7).
  • T m,m+1 (k x , ky ) the transmission coefficient when incident from the medium m to the medium m+1 is expressed as T m,m+1 (k x , ky ).
  • T M,M+1 (k x , ky ) is always considered to be 1.
  • the coordinate system is rotated so that the optical wavefront matches the interface.
  • the interface between the media need not be parallel to the recording surface.
  • a new spatial frequency vector (u′, v′, w′) is obtained by rotating the spatial frequency vector ⁇ using a matrix A that defines the rotation transformation to the new coordinate system.
  • the coordinates u' and coordinates v' of the calculated spatial frequency vector correspond to the coordinates of the spatial frequency spectrum after rotational transformation.
  • the spatial frequency spectrum of the wavefront after the boundary can be calculated by performing the above-described rotational transform operation on all the data of the wavefront before the boundary.
  • the light wave distribution on the surface after rotational transformation can be calculated.
  • the light wave distribution obtained as a result of the diffraction calculation is the complex amplitude distribution Ud of the object light. Therefore, the complex amplitude distribution Ud can be visualized by arbitrary arithmetic processing. For example, an image corresponding to the bright field of an optical microscope can be obtained by extracting an amplitude component from the complex amplitude distribution Ud and imaging it.
  • the calibration process information on the light wave distribution of the reference light R is determined.
  • the information of the lightwave distribution of the reference light R includes the complex conjugate R * of the lightwave distribution of the reference light R.
  • the profile generator 30 in one or more of the x-axis direction, y-axis direction, and z-axis direction (that is, , by arranging the optical unit that generates the light wave distribution P at arbitrary offset coordinates), the light wave distribution P i can be generated.
  • the calibration hologram IPiR recorded by the image sensor D can be expressed as the following equation (12).
  • the complex amplitude hologram J PiR is calculated as in equation (13) below.
  • the complex conjugate R * of the light wave distribution of the reference light R can be calculated from the light wave distribution P 0 corresponding to one offset coordinate (x p0 , y p0 , z p0 ). It is not necessary for the profile generator 30 to have a function of translating the known light wave distribution P to a plurality of positions.
  • the following parameter fitting is used to determine the complex conjugate R * of the lightwave distribution of the reference light R.
  • the initial values to be set are determined in consideration of the optical positional relationship of the calibration unit 20 .
  • An object beam hologram U i for an arbitrary number i can be expressed by the following equation (15) using the complex conjugate R * of the light wave distribution of the reference beam R shown in equation (14).
  • the light wave distribution P i fix.
  • the lightwave distribution after modification is called a modified lightwave distribution P i '.
  • the adjustment in the x-axis direction and the y-axis direction is realized by shifting (offset) the target pixel group of the image sensor D corresponding to the object light hologram U i (x, y).
  • Correction in the z-axis direction (focus position) is realized by diffraction calculation based on plane wave expansion shown in Equation (6). That is, the correction in the z-axis direction is realized by changing the distance at which the image is reproduced when the object light hologram Ui recorded by the image sensor D is subjected to diffraction calculation.
  • arg( ) is a function for calculating the argument (phase) of a complex number.
  • phase difference distribution spectrum W i (u, v) it is preferable to perform a process for making the phase continuous for a portion where phase discontinuity (gap) occurs due to phase periodicity.
  • the wavefront aberration W i_err can be calculated as shown in Equation (20) below.
  • the wavefront aberration W i_err is calculated by taking the average value W ave of the entire phase difference distribution spectrum W i as the true value and taking the root mean square of the true value as the error.
  • the average value W ave is the average value of the phase difference distribution spectrum W i (u, v)
  • S W is the area of the range over which the phase difference distribution spectrum W i (u, v) is integrated.
  • the integration range is a portion of the phase difference distribution spectrum W i (u, v) in which valid data exists, and is common to the calculation of the wavefront aberration W i_err and the average value Wave .
  • the narrowly-defined “wavefront aberration” means a value obtained by multiplying the above wavefront aberration Wi_err by ⁇ /2 ⁇ ( ⁇ : wavelength). Therefore, W i_err ⁇ /2 ⁇ may be referred to as wavefront aberration.
  • ⁇ /2 ⁇ is a coefficient with a fixed value, the following processing will be described with the coefficient ⁇ /2 ⁇ omitted.
  • the wavefront aberration in a narrow sense is used for evaluation.
  • the wavefront aberration W i_err When the light wave distribution is reproduced based on the correct complex conjugate R * of the light wave distribution of the reference light R, the wavefront aberration W i_err is zero. On the other hand, if there is an error in the complex conjugate R * of the optical wave distribution of the reference light R, the wavefront phase is distorted and the wavefront aberration W i_err does not become zero.
  • the reliability of parameter fitting can be improved as the number of generated light wave distributions P i increases. Moreover, it is preferable to set the light wave distribution P i evenly over the entire visual field range recordable by the image sensor D.
  • FIG. 4 is a schematic diagram showing a hardware configuration example of the processing device 100 included in the optical measurement system 1 according to this embodiment.
  • processing device 100 includes, as main hardware elements, processor 102, main memory 104, input unit 106, display unit 108, storage 110, interface 120, and network interface 122. , and the media drive 124 .
  • the processor 102 is typically an arithmetic processing unit such as a CPU (Central Processing Unit) or GPU (Graphics Processing Unit), and reads one or more programs stored in the storage 110 to the main memory 104 for execution. do.
  • the main memory 104 is a volatile memory such as DRAM (Dynamic Random Access Memory) or SRAM (Static Random Access Memory), and functions as a working memory for the processor 102 to execute programs.
  • the input unit 106 includes a keyboard, mouse, etc., and receives operations from the user.
  • the display unit 108 outputs results of program execution by the processor 102 to the user.
  • the storage 110 consists of a non-volatile memory such as a hard disk or flash memory, and stores various programs and data. More specifically, the storage 110 holds an operating system 111 (OS), a measurement program 112, a calibration program 113, calibration information 114, hologram data 115, and measurement results 116.
  • OS operating system
  • measurement program 112 a measurement program
  • calibration program 113 a calibration program 113
  • calibration information 114 hologram data 115
  • measurement results 116 measurement results
  • the operating system 111 provides an environment in which the processor 102 executes programs.
  • Measurement program 112 is executed by processor 102 to implement measurement processing and the like according to the present embodiment.
  • Calibration program 113 is executed by processor 102 to implement calibration processing and the like according to the present embodiment.
  • the calibration information 114 is parameters determined by the calibration process and referenced in the measurement process.
  • the hologram data 115 corresponds to image data output from the image sensor D.
  • FIG. Measurement results 116 include measurement results obtained by executing measurement program 112 .
  • the storage 110 stores information (calibration information 114) on the light wave distribution of the reference light R in the optical system shown in FIGS.
  • the interface 120 mediates data transmission between the processing device 100 and the image sensor D.
  • Network interface 122 mediates data transmission between processing device 100 and an external server device.
  • the media drive 124 reads necessary data from a recording medium 126 (such as an optical disc) that stores programs to be executed by the processor 102 and stores it in the storage 110 .
  • a recording medium 126 such as an optical disc
  • the measurement program 112 and/or the calibration program 113 and the like executed in the processing device 100 may be installed via the recording medium 126 or the like, or may be downloaded from the server device via the network interface 122 or the like. .
  • the measurement program 112 and/or the calibration program 113 may call necessary modules out of the program modules provided as part of the operating system 111 in a predetermined sequence at predetermined timings to execute processing. .
  • the technical scope of the present invention also includes the measurement program 112 and/or the calibration program 113 that do not include the module.
  • the measurement program 112 and/or the calibration program 113 may be provided as part of another program.
  • processor 102 of the processing device 100 executing the program can be implemented in a hardwired logic circuit (for example, FPGA (Field-Programmable Gate Array), ASIC (Application Specific Integrated Circuit), etc.).
  • a hardwired logic circuit for example, FPGA (Field-Programmable Gate Array), ASIC (Application Specific Integrated Circuit), etc.
  • FIG. 4 shows a configuration example of the processing apparatus 100 capable of executing both the measurement process and the calibration process, but it may be possible to execute only one of the measurement process and the calibration process.
  • a calibration process is performed before the optical measurement system 1 is shipped from the factory, and the complex conjugate R * of the lightwave distribution of the reference light R is determined in advance. Therefore, there is no need to perform calibration processing after factory shipment, and only measurement processing may be performed.
  • a processing device capable of executing calibration processing and a processing device capable of executing measurement processing may be prepared.
  • FIG. 5 is a flow chart showing the procedure of measurement processing executed in optical measurement system 1 according to the present embodiment.
  • the complex conjugate R * which is information on the light wave distribution of the reference light R in the optical system shown in FIGS. 1 and 2, is obtained in advance by some method.
  • the steps executed by the processing device 100 shown in FIG. 5 are typically implemented by the processor 102 of the processing device 100 executing the measurement program 112 .
  • the optical system shown in FIG. 1 is constructed and the sample S is placed (step S100). Then, by generating coherent light from the light source 10, the processing device 100 records the hologram IOR with the image sensor D (step S102). In this way, the process of recording the hologram I OR (third hologram) generated by modulating the object light O obtained by illuminating the sample S with the illumination light Q with the reference light R is performed.
  • the processing device 100 calculates the complex amplitude hologram J OR by applying spatial frequency filtering to the recorded hologram I OR (step S104) (see equation (4) above). Subsequently, the processing device 100 calculates the object beam hologram U by dividing the calculated complex amplitude hologram J OR by the complex conjugate R * of the light wave distribution of the reference beam R (step S106) ((5) formula). Thus, spatial frequency filtering is applied to the hologram I OR (third hologram), and based on the filtering result and the complex conjugate R * of the light wave distribution of the reference light R (information on the light wave distribution of the reference light R), A process of calculating the object beam hologram U is executed.
  • the processing device 100 may calculate the reconstruction object beam hologram U ⁇ by increasing the number of sampling points and superimposing the object beam hologram U.
  • the object beam hologram U is treated as it is as the object beam hologram U ⁇ for reproduction.
  • the processing device 100 calculates the complex amplitude distribution Ud by performing diffraction calculations on the calculated reconstruction object beam hologram U ⁇ up to the sample surface (step S108) (see the above-described formulas (6) and (7)). . Then, the processing device 100 generates a measurement result using information of part or all of the calculated complex amplitude distribution Ud (step S110). For example, an image corresponding to the bright field of an optical microscope is generated by extracting an amplitude component from the complex amplitude distribution Ud and imaging it.
  • steps S102 to S110 shown in FIG. 5 is performed for each sample S.
  • the hologram IOR corresponding to each of the plurality of samples S may be recorded in advance, and the process of generating the measurement result after the fact may be executed.
  • FIG. 6 is a flow chart showing the procedure of calibration processing executed in optical measurement system 1 according to the present embodiment.
  • the calibration processing shown in FIG. 6 is a processing procedure when a known light wave distribution P and correct offset coordinates are obtained.
  • the steps executed by the processing device 100 shown in FIG. 6 are typically implemented by the processor 102 of the processing device 100 executing the calibration program 113 .
  • the optical system shown in FIG. 2 is configured and calibration unit 20 is arranged (step S200).
  • the offset coordinates (x p0 , y p0 , z p0 ) of the calibration unit 20 are set accurately (step S202).
  • an optical system for recording a hologram generated by modulating the object light O obtained by illuminating the sample S with the illumination light Q with the reference light R optical measurement system 1 shown in FIGS. 1 and 2).
  • the calibration unit 20 including an optical system (profile generator 30) that generates a known light wave distribution P on the optical path of the illumination light Q in the absence of the sample S. executed.
  • the processing device 100 records the calibration hologram IP0R with the image sensor D (step S204). In this way, the process of recording the calibration hologram I P0R (first hologram) generated while the calibration unit 20 is generating the light wave distribution P 0 is performed.
  • the processing device 100 uses the known light wave distribution P and the offset coordinates (x p0 , y p0 , z p0 ) to calculate the light wave distribution P 0 (step S206) (see the above equation (11)), and calculated Using the light wave distribution P0 and the recorded calibration hologram I P0R , the complex conjugate R * of the light wave distribution of the reference light R is calculated (step S208) (see formula (14) above). In this way, based on the information (offset coordinates) indicating the arrangement position of the calibration unit 20, the known light wave distribution P, and the calibration hologram I P0R (first hologram), information on the light wave distribution of the reference light R is obtained. A process for calculating the complex conjugate R * is executed.
  • the processing device 100 outputs the calibration information 114 including the calculated complex conjugate R * of the lightwave distribution of the reference light R (step S210). With this, the calibration process ends.
  • FIG. 7 is a flowchart showing another processing procedure of calibration processing executed in optical measurement system 1 according to the present embodiment.
  • the calibration processing shown in FIG. 7 is a processing procedure when correct offset coordinates cannot be obtained.
  • the steps executed by the processing device 100 shown in FIG. 7 are typically implemented by the processor 102 of the processing device 100 executing the calibration program 113 .
  • the optical system shown in FIG. 2 is configured and the calibration unit 20 is arranged (step S250).
  • an optical system for recording a hologram generated by modulating the object light O obtained by illuminating the sample S with the illumination light Q with the reference light R (optical measurement system 1 shown in FIGS. 1 and 2).
  • the calibration unit 20 including an optical system (profile generator 30) that generates a known light wave distribution P on the optical path of the illumination light Q in the absence of the sample S. executed.
  • a process of recording N calibration holograms I- PiR by sequentially translating the profile generator 30 is executed. More specifically, the calibration unit 20 is set to the offset coordinates (x pi , y pi , z pi ) corresponding to the number i (step S252). Then, by generating coherent light from the light source 10, the processing device 100 records the calibration hologram IPiR with the image sensor D (step S254). The processing of steps S252 and S254 is repeated for numbers i from 0 to N-1.
  • the process of recording the calibration hologram I P0R (first hologram) generated while the calibration unit 20 is generating the light wave distribution P 0 is performed. Further, the light wave distribution generated by the calibration unit 20 is measured at a plurality of positions (offset coordinates ( x pi , y pi , z pi : i>0))) and recording a plurality of calibration holograms I PiR (a plurality of second holograms) respectively occurring at a plurality of positions.
  • the processing device 100 uses the known light wave distribution P and the initial values of the offset coordinates (x p0 , y p0 , z p0 ) to calculate the light wave distribution P 0 (step S258) (formula (11) above ), using the calculated light wave distribution P0 and the recorded calibration hologram IP0R , the complex conjugate R * of the light wave distribution of the reference light R is provisionally calculated (step S260) (equation (14) above reference).
  • the light wave of the reference light R A process of calculating a complex conjugate R * , which is distribution information, is executed.
  • processing for correcting the light wave distribution is performed. More specifically, the processing device 100 calculates the complex amplitude hologram J PiR by applying spatial frequency filtering to the recorded calibration hologram I PiR (step S262) (see equation (4) above). Subsequently, the processing device 100 calculates the object beam hologram U i by dividing the calculated complex amplitude hologram J PiR by the current complex conjugate R * (step S264) (equations (6) and (7 ) formula).
  • spatial frequency filtering is applied to each of the plurality of calibration holograms I PiR (the plurality of second holograms), and based on the filtering result and the complex conjugate R * (information on the lightwave distribution of the reference light R), , a process of calculating a plurality of object beam holograms U i respectively corresponding to a plurality of calibration holograms I PiR .
  • the processing device 100 determines the light wave distribution P i from the calculated object light hologram U i (step S266). Then, the processing device 100 corrects the object beam hologram U i so that it matches the known light wave distribution P, thereby calculating the corrected light wave distribution P i ′ (step S268) (formula (18) and ( 19) See formula). In this way, the processing device 100 corrects the plurality of object beam holograms U i based on the known light wave distribution P, thereby obtaining a plurality of corrected light wave distributions P i ′ corresponding to the plurality of calibration holograms I PiR . are calculated respectively.
  • the processing device 100 calculates the spectra calculated from the known light wave distribution P and the corrected light wave distributions P i ' corresponding to the plurality of calibration holograms I PiR (the plurality of second holograms). Calculate the wavefront aberration.
  • the processing device 100 uses the calculated phase difference distribution spectrum W i (u, v) to calculate the wavefront aberration W i_err (step S274). As shown in the above equation (20), the processing device 100 calculates the root mean square of the average value Wave of the entire phase difference distribution spectrum Wi as an error in the process of calculating the wavefront aberration Wi_err .
  • steps S262 to S274 is repeated from number i to N-1. Subsequently, the processing device 100 adjusts the values of the offset coordinates (x p0 , y p0 , z p0 ) (information indicating the arrangement position) of the calibration unit 20 so as to minimize the wavefront aberration W i_err .
  • Convergence conditions may include, for example, that the sum of wavefront aberrations Wi_err is less than or equal to a predetermined value.
  • processing device 100 changes the value of offset coordinates (x p0 , y p0 , z p0 ) (step S280), Repeat the following process.
  • processing device 100 If the sum of wavefront aberrations W i_err does not satisfy the convergence condition (YES in step S278), processing device 100 outputs calibration information 114 including the current complex conjugate R * (step S282). Then, the calibration process ends.
  • an optical system shown in FIG. 2 was constructed.
  • the wavelength of the light source 10 was set to 532 nm, and an optical system having a recording numerical aperture NA of 0.5 was constructed.
  • NA a recording numerical aperture
  • the light wave distribution P i is obtained by translating the known light wave distribution P in the visual field range of the image sensor D in the x-axis direction, the y-axis direction, and the z-axis direction.
  • a point light source was used as the known light wave distribution P.
  • FIG. 8 is a diagram showing a measurement example in the initial stage of calibration processing of optical measurement system 1 according to the present embodiment.
  • FIG. 8A shows the amplitude distribution near the focal point of the object beam hologram U1 reconstructed using the initial values of the offset coordinates.
  • FIG. 8B shows the distribution of the wavefront aberration W1_err calculated using the amplitude distribution near the focal point of the object beam hologram U1 .
  • the wavefront aberration W1_err when using the initial values of the offset coordinates was 2.924 ⁇ .
  • the complex conjugate R * of the lightwave distribution of the reference light R is also incorrect.
  • the condensed points spots of the Airy disk
  • FIG. 8B a large wavefront aberration occurs in the object beam hologram U1 .
  • FIG. 9 is a diagram showing an example of measurement after calibration processing of optical measurement system 1 according to the present embodiment.
  • FIG. 9A shows the amplitude distribution near the focal point of the object beam hologram U1 reproduced using the adjusted offset coordinates.
  • FIG. 9B shows the distribution of the wavefront aberration W1_err calculated using the amplitude distribution near the focal point of the object beam hologram U1 .
  • the wavefront aberration W1_err when using the initial values of the offset coordinates was 0.023 ⁇ .
  • FIG. 9A by accurately determining the complex conjugate R * of the light wave distribution of the reference light R, a condensing point (Airy disk spot) is formed in the object beam hologram U1 .
  • FIG. 9B no obvious wavefront aberration is observed.
  • FIG. 10 is a diagram showing an example of sample measurement by optical measurement system 1 according to the present embodiment.
  • FIG. 10 shows a reconstructed image of a sample (USAF 1951 resolution test target) reconstructed from the hologram IOR recorded using the optical measurement system 1 shown in FIG.
  • FIGS. 10A1 and 10A2 show reconstructed images using the initial values of the offset coordinates.
  • FIG. 10(A1) shows an overall image of the resolution test target
  • FIG. 10(A2) shows a partially enlarged view of the resolution test target.
  • FIGS. 10(B1) and 10(B2) show reconstructed images using the adjusted offset coordinates.
  • FIG. 10(B1) shows an overall image of the resolution test target
  • FIG. 10(B2) shows a partially enlarged view of the resolution test target.
  • FIGS. 1 and 2 illustrate the configuration example of the optical measurement system 1 that employs a transmissive optical system
  • the configuration is not limited to this configuration example, and the following various modifications are possible.
  • FIG. 11 is a schematic diagram showing a configuration example of an optical measurement system 1A according to Modification 1 of the present embodiment.
  • FIG. 11A shows a configuration example for measurement processing
  • FIG. 11B shows a configuration example for calibration processing.
  • a mirror M3 is arranged instead of the half mirror HM2.
  • the mirror M3 is arranged outside the range irradiated by the object light O from the sample S.
  • the reference light R is reflected by the mirror M4, changed in its propagation direction, and guided to the mirror M3.
  • the reference light R is further reflected by the mirror M3 and guided to the light receiving surface of the image sensor D.
  • FIG. That is, on the light-receiving surface of the image sensor D, the object light O obtained by illuminating the sample S with the illumination light Q is modulated with the reference light R.
  • mirror M3 may be employed instead of the half mirror HM2.
  • Mirror M3 may be a plane mirror, a convex mirror, or a concave mirror.
  • the profile generator 30 including the calibration unit 20 is arranged to replace the field mask A1 and the condenser lens L1, which are the illumination optical system.
  • the calibration process is the same as the process described above.
  • FIG. 12 is a schematic diagram showing a configuration example of an optical measurement system 1B according to modification 2 of the present embodiment.
  • FIG. 12A shows a configuration example for measurement processing
  • FIG. 12B shows a configuration example for calibration processing.
  • FIG. 12A shows a configuration example in which the coupling optical system (field mask A1 and condenser lens L1) corresponding to the illumination optical system is omitted.
  • any optical system for illuminating the sample S with the illumination light Q may be used.
  • the illumination light Q may be incident obliquely, or diffuse illumination may be employed as the illumination light Q.
  • the profile generator 30 including the calibration unit 20 is arranged on the optical path of the illumination light Q after removing the sample S. Since the illumination optical system is omitted, it is not necessary to remove the illumination optical system when arranging the calibration unit 20 .
  • the calibration process is the same as the process described above.
  • FIG. 13 is a schematic diagram showing a configuration example of an optical measurement system 1C according to Modification 3 of the present embodiment.
  • FIG. 13A shows a configuration example for measurement processing
  • FIG. 13B shows a configuration example for calibration processing.
  • illumination light Q split by beam splitter BS1 is reflected by mirrors M1 and M5, respectively, and after the propagation directions are changed, It passes through L3, field mask A1, and condensing lens L4, and is guided to half mirror HM2. Further, the illumination light Q illuminates the sample S after being reflected by the half mirror HM2. Object light O obtained by illuminating the sample S with the illumination light Q (that is, light reflected by the sample S) enters the image sensor D through the half mirror HM2.
  • the reference light R is condensed by the condensing lens L2 after being reflected by the mirror M2 and having its propagation direction changed.
  • a condensing point FP1 by the condensing lens L2 corresponds to the position of the point light source.
  • the reference light R is incident on the image sensor D after being reflected by the half mirror HM2.
  • calibration processing in the optical measurement system 1C is performed using a transmissive optical system as in FIGS. 2 and 12(B). More specifically, the profile generator 30 including the calibration unit 20 is arranged on the optical path of the illumination light Q after removing the sample S.
  • the calibration process is the same as the process described above.
  • FIG. 14 is a schematic diagram showing a configuration example of an optical measurement system 1D according to Modification 4 of the present embodiment.
  • FIG. 14A shows a configuration example for measurement processing
  • FIG. 14B shows a configuration example for calibration processing.
  • illumination light Q split by beam splitter BS1 irradiates sample S after being reflected by mirror M6 to change its propagation direction.
  • Scattered light generated by illuminating the sample S with the illumination light Q enters the image sensor D as the object light O.
  • the scattered light generated by the sample S can be measured in the optical measurement system 1D.
  • a field-limiting mask FA may be arranged as required. Noise can be suppressed by arranging the field-limiting mask FA.
  • calibration processing in the optical measurement system 1D is performed using a transmissive optical system, as in FIGS. 2 and 12(B). More specifically, the profile generator 30 including the calibration unit 20 is arranged on the optical path of the illumination light Q after removing the sample S.
  • the calibration process is the same as the process described above.
  • a polarization hologram can be recorded.
  • the optical measurement system according to this embodiment employs a lensless digital holography configuration in which there is no imaging optics such as a lens between the sample and the image sensor. Therefore, an error such as aberration does not occur in the object light obtained by illuminating the sample with the illumination light.
  • the optical measurement system acquires in advance the information of the light wave distribution of the reference light (for example, the complex conjugate R * of the light wave distribution of the reference light R) by calibration processing.
  • the optical measurement system calculates the object light hologram based on the hologram generated by modulating the object light obtained by illuminating the sample with the illumination light with the reference light and the information on the light wave distribution of the reference light.
  • the shape (light wave amplitude and phase) at any position on the sample, etc. can be calculated or measured a posteriori.
  • the optical measurement system can calculate information on the light wave distribution of the reference light by illuminating a known light wave distribution from a known arrangement position (coordinates) instead of the object light. Therefore, it is not necessary to accurately adjust the in-line spherical wave light to the in-line axis, and the adjustment does not require time and effort.
  • the optical measurement system can calculate information on the light wave distribution of the reference light by parameter fitting by illuminating the known light wave distribution from a plurality of arrangement positions (coordinates) instead of the object light. Therefore, it is not necessary to accurately adjust the in-line spherical wave light to the in-line axis, and the adjustment does not require time and effort. In addition, accurate information on the lightwave distribution of the reference light can be calculated without accurately knowing the arrangement position for illuminating the known lightwave distribution.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Engineering & Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Biochemistry (AREA)
  • General Health & Medical Sciences (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Analytical Chemistry (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Holo Graphy (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)

Abstract

光学測定方法は、照明光でサンプルを照明して得られる物体光を照明光とコヒーレントな参照光で変調して生成されるホログラムを記録するための光学系を構成するステップと、サンプルが存在しない状態で、照明光の光学経路上に、既知の光波分布を発生する光学系を含む校正ユニットを配置するステップと、校正ユニットが光波分布を発生している状態で生じる第1のホログラムを記録するステップと、校正ユニットの配置位置を示す情報と、既知の光波分布と、第1のホログラムとに基づいて、参照光の光波分布の情報を算出するステップとを含む。

Description

光学測定方法および光学測定システム
 本発明は、デジタルホログラフィを利用する光学測定方法および光学測定システムに関する。
 サンプルの形状をより高い精度で測定する方法として、デジタルホログラフィが提案および実用化されている。デジタルホログラフィは、参照光とサンプルに光を照明して生じる物体光とを重ね合わせて生じる干渉縞を観測することで、物体光の波面の形状を取得して、サンプルの形状などを測定する技術である。典型的には、以下のような先行技術が存在する。
 米国特許第6411406号明細書(特許文献1)は、ホログラフィック画像を再構成する方法などを開示する。
 国際公開第2013/047709号(特許文献2)は、反射モードと透過モードの双方を行う実用的なデジタルホログラフィ方法を開示する。
 国際公開第2011/089820号(特許文献3)は、複素振幅インラインホログラムの作成方法などを開示する。
 国際公開第2012/005315号(特許文献4)は、インライン球面波光を用いて求められた微小被写体の複素振幅インラインホログラムから分解能を高めた画像を再生するための高分解能画像再生用ホログラム作成方法などを開示する。
 国際公開第2020/045584号(特許文献5)は、光学系を構成するキューブ型のビーム結合器が有する屈折率の影響が考慮され性能が向上されたホログラフィック撮像装置などを開示する。より具体的には、インライン球面波参照光の集光点から放たれる球面波について、ビーム結合器の屈折率を考慮してビーム結合器の内部の伝播を含む光伝播計算を行うことにより、ホログラム面における光波を表すインライン参照光ホログラムを生成する方法が開示されている。
米国特許第6411406号明細書 国際公開第2013/047709号 国際公開第2011/089820号 国際公開第2012/005315号 国際公開第2020/045584号
 米国特許第6411406号明細書(特許文献1)に開示される方法は、共役像の重畳により正確な物体光が得られないという課題が存在する。
 国際公開第2013/047709号(特許文献2)に開示される方法は、結像光学系を用いた構成であるため、結像光学系において収差が発生して、三次元分布を正確に記録できないという課題が存在する。
 国際公開第2011/089820号(特許文献3)は、参照光の決定が完全ではないため、記録される物体光データに歪みが生じ得るという課題が存在する。
 国際公開第2012/005315号(特許文献4)、および、国際公開第2020/045584号(特許文献5)は、インライン球面波光をインラインの軸に正確に調整する必要があり、調整に手間を要するという課題が存在する。
 本発明は、調整の手間を削減しつつ、より高精度にサンプルを測定できる技術を提供する。
 本発明のある局面に従う光学測定方法は、照明光でサンプルを照明して得られる物体光を照明光とコヒーレントな参照光で変調して生成されるホログラムを記録するための光学系を構成するステップと、サンプルが存在しない状態で、照明光の光学経路上に、既知の光波分布を発生する光学系を含む校正ユニットを配置するステップと、校正ユニットが光波分布を発生している状態で生じる第1のホログラムを記録するステップと、校正ユニットの配置位置を示す情報と、既知の光波分布と、第1のホログラムとに基づいて、参照光の光波分布の情報を算出するステップとを含む。
 校正ユニットは、発生する光波分布を空間的に移動できるように構成されていてもよい。光学測定方法は、発生する光波分布を第1のホログラムを記録した位置とは異なる複数の位置に移動させるとともに、複数の位置においてそれぞれ生じる複数の第2のホログラムを記録するステップと、既知の光波分布から算出されるスペクトルと複数の第2のホログラムに対応する光波分布から算出されるスペクトルとから波面収差を算出するステップと、波面収差を最小化するように、校正ユニットの配置位置を示す情報を調整するステップとをさらに含んでいてもよい。
 光学測定方法は、複数の第2のホログラムの各々に空間周波数フィルタリングを適用し、フィルタリング結果と参照光の光波分布の情報とに基づいて、複数の第2のホログラムにそれぞれ対応する複数の物体光ホログラムを算出するテップと、既知の光波分布に基づいて、複数の物体光ホログラムをそれぞれ修正することで、複数の第2のホログラムに対応する複数の光波分布をそれぞれ算出するステップとをさらに含んでいてもよい。
 波面収差を算出するステップは、既知の光波分布から算出されるスペクトルと第2のホログラムに対応する光波分布から算出されるスペクトルとの位相差分布である位相差分布スペクトルを算出するステップと、位相差分布スペクトル全体の平均値に対する二乗平均平方根を誤差として算出するステップとを含んでいてもよい。
 光学測定方法は、照明光でサンプルを照明して得られる物体光を参照光で変調して生成される第3のホログラムを記録するステップと、第3のホログラムに空間周波数フィルタリングを適用し、フィルタリング結果と参照光の光波分布の情報とに基づいて、物体光ホログラムを算出するステップとをさらに含んでいてもよい。
 参照光の光波分布の情報は、参照光の光波分布の複素共役を含んでいてもよい。
 本発明の別の局面に従う光学測定方法は、照明光でサンプルを照明して得られる物体光を照明光とコヒーレントな参照光で変調して生成されるホログラムを記録するための光学系を構成するステップと、光学系における参照光の光波分布の情報を取得するステップと、照明光でサンプルを照明して得られる物体光を照明光とコヒーレントな参照光で変調して生成されるホログラムを記録するステップと、ホログラムに空間周波数フィルタリングを適用し、フィルタリング結果と参照光の光波分布の情報とに基づいて、物体光ホログラムを算出するステップとを含む。
 参照光の光波分布の情報は、サンプルが存在しない状態で、照明光の光学経路上に、既知の光波分布を発生する光学系を含む校正ユニットが配置されたときに記録されるホログラムと、校正ユニットの配置位置を示す情報と、既知の光波分布とに基づいて予め算出されてもよい。
 本発明のさらに別の局面に従う光学測定システムは、コヒーレント光を発生する光源と、光源からのコヒーレント光から照明光および参照光を生成するビームスプリッタと、照明光でサンプルを照明して得られる物体光を照明光とコヒーレントな参照光で変調して生成されるホログラムをイメージセンサで記録するための光学系と、光学系における参照光の光波分布の情報を格納する格納部を有する処理装置とを含む。処理装置は、イメージセンサで記録されたホログラムに空間周波数フィルタリングを適用し、フィルタリング結果と参照光の光波分布の情報とに基づいて、物体光ホログラムを算出する。
 参照光の光波分布の情報は、サンプルが存在しない状態で、照明光の光学経路上に、既知の光波分布を発生する光学系を含む校正ユニットが配置されたときに記録されるホログラムと、校正ユニットの配置位置を示す情報と、既知の光波分布とに基づいて予め算出されてもよい。
 本発明のある実施の形態によれば、調整の手間を削減しつつ、より高精度にサンプルを測定できる。
本実施の形態に従う光学測定システムの構成例(測定処理用)を示す模式図である。 本実施の形態に従う光学測定システムの構成例(校正処理)を示す模式図である。 本実施の形態に従う光学測定システムのプロファイル生成部の構成例を示す模式図である。 本実施の形態に従う光学測定システムに含まれる処理装置のハードウェア構成例を示す模式図である。 本実施の形態に従う光学測定システムにおいて実行される測定処理の処理手順を示すフローチャートである。 本実施の形態に従う光学測定システムにおいて実行される校正処理の処理手順を示すフローチャートである。 本実施の形態に従う光学測定システムにおいて実行される校正処理の別の処理手順を示すフローチャートである。 本実施の形態に従う光学測定システムの校正処理の初期段階における測定例を示す図である。 本実施の形態に従う光学測定システムの校正処理の処理後における測定例を示す図である。 本実施の形態に従う光学測定システムによるサンプルの測定例を示す図である。 本実施の形態の変形例1に従う光学測定システムの構成例を示す模式図である。 本実施の形態の変形例2に従う光学測定システムの構成例を示す模式図である。 本実施の形態の変形例3に従う光学測定システムの構成例を示す模式図である。 本実施の形態の変形例4に従う光学測定システムの構成例を示す模式図である。
 本発明の実施の形態について、図面を参照しながら詳細に説明する。なお、図中の同一または相当部分については、同一符号を付してその説明は繰り返さない。
 <A.光学測定システムの構成例>
 本実施の形態に従う光学測定システムは、点光源のような発散光を参照光として使用するデジタルホログラフィを利用する。本実施の形態に従う光学測定システムは、サンプルとイメージセンサとの間にレンズが存在しない、レンズレスディジタルホログラフィの構成を採用する。
 図1は、本実施の形態に従う光学測定システム1の構成例(測定処理用)を示す模式図である。図1に示す構成例を用いることで、サンプルの形状を示す光波分布を記録する。より具体的には、図1に示す光学系は、照明光QでサンプルSを照明して得られる物体光Oを、オフアクシス配置された参照光Rで変調して生成されるホログラムIORを記録するための光学系に相当する。
 図1を参照して、光学測定システム1は、光源10と、ビームエキスパンダBEと、ビームスプリッタBS1,BS2と、ミラーM1,M2と、視野マスクA1と、集光レンズL1,L2と、イメージセンサDとを含む。
 光源10は、レーザなどで構成され、コヒーレント光を発生する。
 ビームエキスパンダBEは、光源10からの光の断面径を所定サイズに拡大する。
 ビームスプリッタBS1は、ビームエキスパンダBEにより拡大された光を2つに分岐する。ビームスプリッタBS1により分岐される一方の光(ビームスプリッタBS1の反射側の光)が照明光Qに相当し、他方の光(ビームスプリッタBS1の透過側の光)がオフアクシス配置された参照光Rに相当する。そのため、照明光Qと参照光Rとは互いにコヒーレントである。このように、ビームスプリッタBS1は、光源10からのコヒーレント光から照明光Qおよび参照光Rを生成する。
 照明光Qは、ミラーM1で反射されて伝搬方向を変えられた後に、視野マスクA1を通過する。
 視野マスクA1は、照明光QでサンプルSを照明する範囲を所定範囲に制限する。制限部の一例として、遮光部材に所定範囲に対応する開口SP1が形成されている視野マスクA1を用いてもよい。照明光Qは、開口SP1に対応する領域を通過する。
 視野マスクA1の開口SP1の像は、集光レンズL1を通過して、サンプルSに結像する。すなわち、視野マスクA1を照明する光のうち、開口SP1に対応する部分の光のみが視野マスクA1を通過することになる。これにより、視野マスクA1を通過した照明光QがサンプルSを照明する範囲を制限できる。
 サンプルSを照明する範囲は、物体光Oの情報を含む成分と、光強度成分および共役光成分との間で、フーリエ空間(空間周波数領域)における重複を回避できるように決定される。このような照明光Qの照明範囲を制限によって、成分間の重複によるノイズを抑制でき、より高精度な測定を実現できる。但し、視野マスクA1を省略してもよい。
 照明光QがサンプルSを透過することで物体光Oが生成される。物体光Oは、ビームスプリッタBS2のハーフミラーHM2を透過して、イメージセンサDに入射する。
 一方、参照光Rは、ミラーM2で反射されて伝搬方向を変えられた後に、集光レンズL2によって集光される。集光レンズL2による集光点FP1が点光源の位置に相当する。すなわち、オフアクシス配置された参照光Rは、点光源から照射された光とみなすことができる。最終的に、参照光Rは、ハーフミラーHM2で反射されてイメージセンサDに入射する。
 このように、ハーフミラーHM2において、照明光QでサンプルSを照明して得られる物体光Oがオフアクシス配置された参照光Rで変調される。変調によって生じたホログラムIORがイメージセンサDで記録される。
 処理装置100は、イメージセンサDで記録されるホログラムIORと、校正によって得られた参照光Rの光波分布の複素共役Rを含む校正情報114とを用いて、サンプルSの像再生に必要な情報を算出する。
 図1には、キューブ型のビームスプリッタBS2を採用する構成例を示すが、開口数を高める目的や作動距離を確保する目的で、ビームスプリッタBS2の屈折率を相対的に高くしてもよいし、立方体の形状を他の任意の形状に変形してもよい。
 ホログラムIORを記録するためのビームスプリッタは、異なる媒質同士が接する面である境界面が平面とみなせる限り、どのような形状を採用してもよい。例えば、キューブ型ではなく、板状のビームスプリッタを採用してもよい。
 また、物体光の光波面に対してビームスプリッタBS2を傾斜させてもよい。このような傾斜によって、迷光を抑制できる。また、ビームスプリッタBS2を挟んで、サンプルSとイメージセンサDとが対向配置された構成例を示すが、ビームスプリッタBS2を挟んで、集光レンズL2とイメージセンサDとが対向配置された構成例を採用してもよい。
 図2は、本実施の形態に従う光学測定システム1の構成例(校正処理)を示す模式図である。図2に示す光学測定システム1は、図1に示す構成において、サンプルS、視野マスクA1および集光レンズL1に代えて、校正ユニット20を配置したものである。なお、参照光Rに関する構成(ミラーM2および集光レンズL2)は、図1のまま維持される。
 図2に示す構成例を用いることで、校正用ホログラムIPiRを記録する。校正用ホログラムIPiRは、既知の光波分布P(x,y,z)を複数の位置に平行移動させたものを、オフアクシス配置された参照光Rでそれぞれ変調して生成されるホログラムの集合である。
 本明細書において、「既知の光波分布」とは、要求される測定性能に必要な精度で特定可能な光波分布を意味する。そのため、校正用ホログラムIPiRの生成に用いられる光の光波分布は、必要な精度で近似表現できればよく、一切の誤差なく完全に記述できなくてもよい。但し、光波分布自体は、平行移動に伴って変化しないものとする。
 校正用ホログラムIPiRを記録することで、上述の特許文献4および特許文献5に開示される構成とは異なり、インライン球面波光をインラインの軸に正確に調整する必要がない。校正用ホログラムIPiRを用いた像再生の処理については後述する。
 校正ユニット20は、プロファイル生成部30と視野制限マスクFAとを含む。
 プロファイル生成部30は、既知の光波分布を発生する光学系である。このように、サンプルSが存在しない状態で、照明光Qの光学経路上に、既知の光波分布を発生する光学系(プロファイル生成部30)を含む校正ユニット20が配置される。
 プロファイル生成部30は、発生する光波分布を空間的に移動できるように構成されていてもよい。より具体的には、プロファイル生成部30は、光波分布をx軸方向、y軸方向、z軸方向にそれぞれ平行移動(シフト)できる機能を有していてもよい。ビームスプリッタBS1により分岐される照明光Qが、ミラーM1で反射されて伝搬方向を変えられた後に、プロファイル生成部30に入射することで、空間的に移動可能な既知の光波分布Pが生成される。
 視野制限マスクFAは、イメージセンサDで記録可能な視野範囲に対応する開口SP2を有している。なお、視野制限マスクFAの位置は、固定されている。プロファイル生成部30が生成する光波分布Pは、x軸方向、y軸方向、z軸方向にそれぞれ平行移動可能であるが、視野制限マスクFAの開口SP2は、プロファイル生成部30が生成する光波分布Pを遮らないように設計される。すなわち、光波分布Pは、視野制限マスクFAの開口SP2を通過できる範囲で平行移動することになる。但し、視野制限マスクFAを省略してもよい。
 <B.プロファイル生成部30の構成例>
 次に、校正ユニット20のプロファイル生成部30の構成例について説明する。上述したように、プロファイル生成部30は、既知の光波分布を生成できれば、どのような光学系を採用してもよい。プロファイル生成部30の典型的ないくつかの構成例について説明する。
 図3は、本実施の形態に従う光学測定システム1のプロファイル生成部30の構成例を示す模式図である。図3(A)~図3(D)に示す光学系は、いずれも平面波である照明光Qが入射すると、既知の光波分布Pを生成する。
 図3(A)に示すプロファイル生成部30Aは、ピンホールを用いる光学系であり、3軸にそれぞれ平行移動可能な遮光板31を含む。遮光板31の照明光Qの照明範囲内にピンホール32が設けられている。照明光Qのビーム径は、ピンホール32を含む範囲を十分照明できるような大きさに設定される。
 図3(B)に示すプロファイル生成部30Bは、ピンホールおよび集光レンズを用いる光学系であり、3軸にそれぞれ平行移動可能な遮光板33および遮光板34を含む。遮光板33および遮光板34は、互いに連結されており、一体となって平行移動する。遮光板33の照明光Qの照明範囲内に集光レンズ35が設けられており、遮光板34を通過した照明光Qの照明範囲内にピンホール36が設けられている。照明光Qのビーム径は、集光レンズ35およびピンホール36を十分な光量が通過できるような大きさに設定される。
 図3(C)に示すプロファイル生成部30Cは、ピンホールを使用せず、収差が既知の集光レンズを使用する光学系である。プロファイル生成部30Cは、3軸にそれぞれ平行移動可能な遮光板31を含む。遮光板31の照明光Qの照明範囲内に集光レンズ37が設けられている。照明光Qのビーム径は、集光レンズ37を含む範囲を十分照明できるような大きさに設定される。
 図3(D)に示すプロファイル生成部30Dは、ピンホールを使用せず、収差が既知の対物レンズを使用する光学系である。プロファイル生成部30Dは、3軸にそれぞれ平行移動可能な遮光板31を含む。遮光板31の照明光Qの照明範囲内に対物レンズ38が設けられている。照明光Qのビーム径は、対物レンズ38を含む範囲を十分照明できるような大きさに設定される。
 なお、図3(A)~図3(D)に示される構成例に限られず、既知の光波分布を生成できる任意の光学系を採用できる。
 <C.測定処理>
 次に、光学測定システム1によるサンプルSの測定処理について説明する。以下の説明においては、イメージセンサDの受光面を「記録面」とし、記録面とビームスプリッタBS2の中心光軸との交点を「原点」とする。光軸方向をz軸とし、z軸に直交する2つの軸をそれぞれx軸およびy軸とする。すなわち、光軸は、イメージセンサDの記録面に対して垂直となり、x軸およびy軸は、イメージセンサDの記録面に対して平行となる。
 また、記録面から所定距離だけ離れた注目している面を「サンプル面」と称す。
 図1に示す光学系において、イメージセンサDで記録される物体光Oおよび参照光Rの光波分布は、以下の(1)および(2)式のような一般式で表現できる。
Figure JPOXMLDOC01-appb-M000001
 なお、物体光Oおよびオフアクシス配置された参照光Rは、角周波数ωをもつ、互いにコヒーレントな光である。説明の便宜上、以下の式においては、座標(x,y)を適宜省略することがある。
 イメージセンサDが1回の撮像で記録するホログラムIORは、(1)式で表現される光と(2)式で表現される光との合成光の光強度として、以下の(3)式のように算出される。
Figure JPOXMLDOC01-appb-M000002
 (3)式に空間周波数フィルタリングを適用することで、複素振幅ホログラムJORは、以下の(4)式のように算出される。
Figure JPOXMLDOC01-appb-M000003
 複素振幅ホログラムJORを校正処理により得られる参照光Rの光波分布の複素共役R(=Rexp(-iφ))で除算することで、物体光ホログラムUは、以下の(5)式のように算出される。
Figure JPOXMLDOC01-appb-M000004
 (5)式に示す物体光ホログラムUは、イメージセンサDの記録面における物体光Oの光波分布から時間項(-ωt)を除いたものに相当する。そのため、平面波展開といった近似を用いない回折計算を用いることで、収差のない正確な像再生を行うことができる。
 なお、物体光ホログラムUが標本化定理を満たさない周波数成分を含む場合には、参照光Rの光波分布の複素共役Rで除算する前に、補間処理により複素振幅ホログラムJORのサンプリング数(画素数)を増加させてもよい。サンプリング数を増加させた後に、増加させた複素振幅ホログラムJORを格子状に分割し、分割した格子同士を重ね合わせることで複素振幅ホログラムJORホログラムを縮小してもよい。なお、格子のサイズは、ホログラムから再生される像のサイズよりも大きくすることが好ましい。このようなサンプリング数の増加および重ね合わせを行うことで、演算量の増加を抑制できる。
 また、フーリエ変換の性質を利用して、フーリエスペクトル上でサンプリング点数の増加と重ね合わせに相当する処理を実現してもよい。
 サンプリング数の増加および重ね合わせによって得られた複素振幅分布を再生用物体光ホログラムUΣとする。但し、サンプリング数の増加および重ね合わせが必要ない場合には、物体光ホログラムUをそのまま再生用物体光ホログラムUΣとして扱う。
 再生用物体光ホログラムUΣは、サンプル面の状態を再生可能な情報をもつホログラムである。
 次に、媒質内の回折計算と傾斜面の像再生について説明する。
 再生用物体光ホログラムUΣについて平面波展開による回折計算を行うことで、任意のサンプル面における光波分布を再生できる。平面波展開によって再生用物体光ホログラムUΣを距離dだけ伝搬させた(記録面から距離dだけ離れたサンプル面における)光波分布を複素振幅分布Uとする。
 イメージセンサDの記録面から再生される距離dまでに含まれるM個の媒質(m=1,2,・・・,M)の距離をd、屈折率をnとすれば、複素振幅分布Uは、以下の(6)式のように一般化できる。但し、式中のkzmは(7)式に従って算出される。
Figure JPOXMLDOC01-appb-M000005
 なお、複数の媒質が存在する場合には、媒質間の境界面は記録面に対して平行であるとする。また、媒質mから媒質m+1に入射するときの透過係数をTm,m+1(k,k)と表現する。但し、TM,M+1(k,k)については常に1であるとみなす。
 例えば、空気中のみを距離dだけ伝搬させる場合には、M=1で、d=d,n=1となる。
 なお、媒質mから媒質m+1に入射するときの透過係数が波数k,kに依存せずにほぼ一様とみなせる場合には、Tm,m+1≡1として計算を簡略化してもよい。
 さらに、媒質間の境界面が光波面と一致していない場合には、光波面が境界面と一致するように座標系を回転変換する。この場合には、媒質間の境界面は記録面に対して平行でなくてもよい。回転変換の操作は、空間周波数スペクトル上で行うことができる。以下の(8)式および(9)式に従って、屈折率nの媒質における光波面をフーリエ変換することで、空間周波数スペクトルの座標(u,v)における空間周波数ベクトルν=(u,v,w)を算出する。
Figure JPOXMLDOC01-appb-M000006
 以下の(10)式に従って、新たな座標系への回転変換を定義する行列Aを用いて空間周波数ベクトルνを回転変換することで、新たな空間周波数ベクトル(u’,v’,w’)を算出する。
Figure JPOXMLDOC01-appb-M000007
 算出された空間周波数ベクトルの座標u’および座標v’は、回転変換後の空間周波数スペクトルの座標に相当する。境界面前の波面の全データについて、上述したような回転変換の操作を行うことで、境界面後の波面の空間周波数スペクトルを算出できる。
 さらに、傾斜面の像を再生するために用いることもできる。回転変換後の波面の空間周波数スペクトルを逆フーリエ変換することで、回転変換後の面における光波分布を算出できる。
 回折計算の結果として得られる光波分布が物体光の複素振幅分布Uとなる。そのため、複素振幅分布Uは、任意の演算処理によって視覚化できる。例えば、複素振幅分布Uから振幅成分を抽出して画像化することで、光学顕微鏡の明視野に相当する像が得られる。
 <D.校正処理>
 次に、図2に示す構成例を用いた校正処理について説明する。校正処理においては、参照光Rの光波分布の情報が決定される。参照光Rの光波分布の情報は、参照光Rの光波分布の複素共役Rを含む。
 図2に示す構成例において、校正ユニット20が生成する既知の光波分布Pを任意のオフセット座標(xpi,ypi,zpi)(i=0~N-1)に平行移動することで、光波分布P(i=0~N-1)を生成する。例えば、図3(A)~図3(D)に示すように、プロファイル生成部30をx軸方向、y軸方向、z軸方向のうち1または複数の方向に任意に移動させることで(すなわち、光波分布Pを生成する光学ユニットを任意のオフセット座標に配置することで)、光波分布Pを生成できる。
 光波分布Pは、既知の光波分布Pを各軸方向に沿って平行移動させたものである。そのため、イメージセンサDの記録面(z=0)における光波分布Pは、イメージセンサDの記録面(z=0)における光波分布P(既知である)と、オフセット座標(xpi,ypi,zpi)とを用いて、以下の(11)式のように表現できる。
Figure JPOXMLDOC01-appb-M000008
 イメージセンサDが記録する校正用ホログラムIPiRは、以下の(12)式のように表現できる。(12)式の第3項をフィルタリングすることで、複素振幅ホログラムJPiRは、以下の(13)式のように算出される。
Figure JPOXMLDOC01-appb-M000009
 オフセット座標(xpi,ypi,zpi)が既知であれば、参照光Rの光波分布の複素共役R(=Rexp(-iφ))は、以下の(14)式のように算出される。
Figure JPOXMLDOC01-appb-M000010
 この場合には、1つのオフセット座標(xp0,yp0,zp0)に対応する光波分布Pから参照光Rの光波分布の複素共役Rを算出できる。プロファイル生成部30が既知の光波分布Pを複数の位置に平行移動させる機能を有しておく必要はない。
 一方で、オフセット座標が不明、または、必要な精度のオフセット座標が得られない場合には、以下のようなパラメータフィッティングを用いて、参照光Rの光波分布の複素共役Rを決定する。
 より具体的には、番号i=0の光波分布Pに対応するオフセット座標(xp0,yp0,zp0)として、適切な初期値を設定する。設定される初期値は、校正ユニット20の光学的な位置関係を考慮して決定される。任意の番号iについての物体光ホログラムUは、(14)式に示される参照光Rの光波分布の複素共役Rを用いて、以下の(15)式のように表現できる。
Figure JPOXMLDOC01-appb-M000011
 このとき、すべての番号i(i=0~N-1)について、以下の(16)式の関係が成立しなければならない。
Figure JPOXMLDOC01-appb-M000012
 番号i=0において、(16)式の関係が成立することは明らかである。番号i≠0において、(14)式に示される参照光Rの光波分布の複素共役Rが正しく算出されていれば、(16)式は(17)式のように変形できるので、(16)式の関係は成立することになる。
Figure JPOXMLDOC01-appb-M000013
 つまり、すべての番号i(i=0~N-1)について、(16)式の関係が成立しない場合には、参照光Rの光波分布の複素共役Rが正しく算出されていないことを意味する。参照光Rの光波分布の複素共役Rが正しく算出されない理由は、オフセット座標(xp0,yp0,zp0)が正しくないからであり、オフセット座標(xp0,yp0,zp0)を正しい値に調整する必要がある。
 オフセット座標(xp0,yp0,zp0)の調整に先立って、校正用ホログラムIPiRから算出される光波分布を修正することが好ましい。
 より具体的には、番号i=1~N-1の各々について、物体光ホログラムUから再生される像の光波分布が記録面における既知の光波分布Pと一致するように、光波分布Pを修正する。修正後の光波分布を修正光波分布P’と称す。
 (11)式および(15)~(17)式から、以下の(18)式に示す関係が成立する。但し、参照光Rの光波分布の複素共役Rが正しく算出されていないと想定している。この状態において、以下の(19)式に示すように、既知の光波分布Pと一致するように、物体光ホログラムUをx軸、y軸、z軸にそれぞれ修正することで、修正光波分布P’を決定する。
Figure JPOXMLDOC01-appb-M000014
 x軸方向およびy軸方向の調整は、物体光ホログラムU(x,y)に対応するイメージセンサDの対象画素群をずらす(オフセットを与える)ことで実現される。z軸方向(フォーカス位置)の修正は、(6)式に示す平面波展開による回折計算により実現される。すなわち、z軸方向の修正は、イメージセンサDで記録される物体光ホログラムUを回折計算する際に、像再生される距離を変化させることで実現される。
 なお、光波分布P(i=1~N-1)がハーフミラーなどの媒質を透過する場合には、上述した媒質内の回折計算と傾斜面の像再生の処理と同様の処理を適用することが好ましい。
 このようにして、番号i=1~N-1について、光波分布を修正した修正光波分布P’を算出する。
 最終的に、参照光Rの光波分布の複素共役Rを決定する処理が実行される。具体的には、すべての番号i(i=0~N-1)について、既知の光波分布Pおよび修正光波分布P’をそれぞれフーリエ変換して、スペクトルF[P]およびスペクトルF[P’]を算出する。そして、スペクトルF[P]とスペクトルF[P’]との位相差分布を示す位相差分布スペクトルW(u,v)(=arg(F[P’]/F[P]))を算出する。ここで、arg()は、複素数の偏角(位相)を算出する関数である。
 なお、位相差分布スペクトルW(u,v)のうち、位相周期性の影響で位相の不連続(ギャップ)が生じている部分については、位相を連続させるための処理を行うことが好ましい。
 位相差分布スペクトルW(u,v)を用いて、以下の(20)式に示すように、波面収差Wi_errを算出できる。波面収差Wi_errは、位相差分布スペクトルW全体の平均値Waveを真値とし、真値に対する二乗平均平方根を誤差として算出したものである。
Figure JPOXMLDOC01-appb-M000015
 ここで、平均値Waveは、位相差分布スペクトルW(u,v)の平均値であり、Sは、位相差分布スペクトルW(u,v)を積分する範囲の面積である。積分範囲は、位相差分布スペクトルW(u,v)のうち、有効なデータが存在する部分であり、波面収差Wi_errおよび平均値Waveの算出において共通である。
 なお、狭義の「波面収差」は、上述の波面収差Wi_errにλ/2π(λ:波長)を乗じた値を意味する。そのため、Wi_err×λ/2πを波面収差と称してもよい。但し、λ/2πは固定値の係数であるため、以下の処理については、係数であるλ/2πを省略した形で説明する。但し、後述の図8および図9に示す測定例においては、狭義の波面収差を用いて評価を行っている。
 正しい参照光Rの光波分布の複素共役Rに基づいて光波分布が再生されている場合には、波面収差Wi_errは0となる。一方、参照光Rの光波分布の複素共役Rに誤差がある場合には、波面位相に歪みが生じるので波面収差Wi_errは0にならない。
 そのため、すべての番号i(i=0~N-1)についての波面収差Wi_err(絶対値)の総和(=ΣWi_err)を最小化するように、オフセット座標(xp0,yp0,zp0)を調整する。パラメータフィッティングの手法には、一般的な最適化アルゴリズムを用いることができる。
 なお、生成する光波分布Pの数は多いほど、パラメータフィッティングの信頼性を向上できる。また、光波分布Pは、イメージセンサDで記録可能な視野範囲の全域にわたって偏りなく設定することが好ましい。
 <E.処理装置100>
 次に、光学測定システム1に含まれる処理装置100のハードウェア構成例について説明する。
 図4は、本実施の形態に従う光学測定システム1に含まれる処理装置100のハードウェア構成例を示す模式図である。図4を参照して、処理装置100は、主要なハードウェア要素として、プロセッサ102と、主メモリ104と、入力部106と、表示部108と、ストレージ110と、インターフェイス120と、ネットワークインターフェイス122と、メディアドライブ124とを含む。
 プロセッサ102は、典型的には、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)などの演算処理部であり、ストレージ110に格納されている1または複数のプログラムを主メモリ104に読み出して実行する。主メモリ104は、DRAM(Dynamic Random Access Memory)またはSRAM(Static Random Access Memory)といった揮発性メモリであり、プロセッサ102がプログラムを実行するためのワーキングメモリとして機能する。
 入力部106は、キーボードやマウスなどを含み、ユーザからの操作を受け付ける。表示部108は、プロセッサ102によるプログラムの実行結果などをユーザへ出力する。
 ストレージ110は、ハードディスクやフラッシュメモリなどの不揮発性メモリからなり、各種プログラムやデータを格納する。より具体的には、ストレージ110は、オペレーティングシステム111(OS:Operating System)と、測定プログラム112と、校正プログラム113と、校正情報114と、ホログラムデータ115と、測定結果116とを保持する。
 オペレーティングシステム111は、プロセッサ102がプログラムを実行する環境を提供する。測定プログラム112は、プロセッサ102によって実行されることで、本実施の形態に従う測定処理などを実現する。校正プログラム113は、プロセッサ102によって実行されることで、本実施の形態に従う校正処理などを実現する。校正情報114は、校正処理によって決定されるパラメータであり、測定処理において参照される。ホログラムデータ115は、イメージセンサDから出力されるイメージデータに相当する。測定結果116は、測定プログラム112の実行によって得られる測定結果を含む。
 このように、ストレージ110は、図1および図2に示す光学系における参照光Rの光波分布の情報(校正情報114)を格納する。
 インターフェイス120は、処理装置100とイメージセンサDとの間でのデータ伝送を仲介する。ネットワークインターフェイス122は、処理装置100と外部のサーバ装置との間でのデータ伝送を仲介する。
 メディアドライブ124は、プロセッサ102で実行されるプログラムなどを格納した記録媒体126(例えば、光学ディスクなど)から必要なデータを読出して、ストレージ110に格納する。なお、処理装置100において実行される測定プログラム112および/または校正プログラム113などは、記録媒体126などを介してインストールされてもよいし、ネットワークインターフェイス122などを介してサーバ装置からダウンロードされてもよい。
 測定プログラム112および/または校正プログラム113は、オペレーティングシステム111の一部として提供されるプログラムモジュールのうち、必要なモジュールを所定の配列で所定のタイミングで呼び出して処理を実行させるものであってもよい。そのような場合、当該モジュールを含まない測定プログラム112および/または校正プログラム113についても本発明の技術的範囲に含まれる。測定プログラム112および/または校正プログラム113は、他のプログラムの一部に組み込まれて提供されるものであってもよい。
 なお、処理装置100のプロセッサ102がプログラムを実行することで提供される機能の全部または一部をハードワイヤードロジック回路(例えば、FPGA(Field-Programmable Gate Array)やASIC(Application Specific Integrated Circuit)など)によって実現してもよい。
 説明の便宜上、図4には、測定処理および校正処理の両方を実行可能な処理装置100の構成例を示すが、測定処理および校正処理の一方のみを実行可能にしてもよい。例えば、光学測定システム1の工場出荷前に校正処理が実行されて、参照光Rの光波分布の複素共役Rが予め決定される。そのため、工場出荷後には校正処理が実行される必要はなく、測定処理のみが実行されることもある。このような場合には、校正処理を実行可能な処理装置と、測定処理を実行可能な処理装置をそれぞれ用意してもよい。
 <F.処理手順>
 次に、光学測定システム1において実行される測定処理および校正処理について説明する。
 (f1:測定処理)
 図5は、本実施の形態に従う光学測定システム1において実行される測定処理の処理手順を示すフローチャートである。図5に示す測定処理においては、図1および図2に示す光学系における参照光Rの光波分布の情報である複素共役Rが何らかの方法で予め取得されている。図5に示す処理装置100が実行するステップは、典型的には、処理装置100のプロセッサ102が測定プログラム112を実行することで実現される。
 図5を参照して、図1に示す光学系を構成するとともに、サンプルSを配置する(ステップS100)。そして、光源10からコヒーレント光を発生させて、処理装置100は、イメージセンサDでホログラムIORを記録する(ステップS102)。このように、照明光QでサンプルSを照明して得られる物体光Oを参照光Rで変調して生成されるホログラムIOR(第3のホログラム)を記録する処理が実行される。
 処理装置100は、記録したホログラムIORに空間周波数フィルタリングを適用することで、複素振幅ホログラムJORを算出する(ステップS104)(上述の(4)式参照)。続いて、処理装置100は、算出した複素振幅ホログラムJORを参照光Rの光波分布の複素共役Rで除算することで、物体光ホログラムUを算出する(ステップS106)(上述の(5)式参照)。このように、ホログラムIOR(第3のホログラム)に空間周波数フィルタリングを適用し、フィルタリング結果と参照光Rの光波分布の複素共役R(参照光Rの光波分布の情報)とに基づいて、物体光ホログラムUを算出する処理が実行される。
 なお、処理装置100は、物体光ホログラムUに対して、サンプリング点数の増加と重ね合わせの処理を行うことで、再生用物体光ホログラムUΣを算出してもよい。サンプリング点数の増加と重ね合わせの処理を省略する場合には、物体光ホログラムUをそのまま再生用物体光ホログラムUΣとして扱う。
 処理装置100は、算出した再生用物体光ホログラムUΣをサンプル面まで回折計算することで、複素振幅分布Uを算出する(ステップS108)(上述の(6)式および(7)式参照)。そして、処理装置100は、算出した複素振幅分布Uの一部または全部の情報を用いて測定結果を生成する(ステップS110)。例えば、複素振幅分布Uから振幅成分を抽出して画像化することで、光学顕微鏡の明視野に相当する像が生成される。
 図5に示されるステップS102~S110の処理は、サンプルS毎に実行される。なお、複数のサンプルSにそれぞれ対応するホログラムIORを先に記録しておき、事後的に測定結果を生成する処理を実行してもよい。
 (f2:校正処理)
 図6は、本実施の形態に従う光学測定システム1において実行される校正処理の処理手順を示すフローチャートである。図6に示す校正処理は、既知の光波分布Pおよび正しいオフセット座標が得られる場合の処理手順である。図6に示す処理装置100が実行するステップは、典型的には、処理装置100のプロセッサ102が校正プログラム113を実行することで実現される。
 図6を参照して、図2に示す光学系を構成するとともに、校正ユニット20を配置する(ステップS200)。このとき、校正ユニット20のオフセット座標(xp0,yp0,zp0)は正確に設定される(ステップS202)。このように、照明光QでサンプルSを照明して得られる物体光Oを参照光Rで変調して生成されるホログラムを記録するための光学系(図1および図2に示す光学測定システム1)を構成する処理と、サンプルSが存在しない状態で、照明光Qの光学経路上に、既知の光波分布Pを発生する光学系(プロファイル生成部30)を含む校正ユニット20を配置する処理が実行される。
 そして、光源10からコヒーレント光を発生させて、処理装置100は、イメージセンサDで校正用ホログラムIP0Rを記録する(ステップS204)。このように、校正ユニット20が光波分布Pを発生している状態で生じる校正用ホログラムIP0R(第1のホログラム)を記録する処理が実行される。
 処理装置100は、既知の光波分布Pおよびオフセット座標(xp0,yp0,zp0)を用いて、光波分布Pを算出し(ステップS206)(上述の(11)式参照)、算出した光波分布Pおよび記録された校正用ホログラムIP0Rを用いて、参照光Rの光波分布の複素共役Rを算出する(ステップS208)(上述の(14)式参照)。このように、校正ユニット20の配置位置を示す情報(オフセット座標)と、既知の光波分布Pと、校正用ホログラムIP0R(第1のホログラム)とに基づいて、参照光Rの光波分布の情報である複素共役Rを算出する処理が実行される。
 そして、処理装置100は、算出した参照光Rの光波分布の複素共役Rを含む校正情報114を出力する(ステップS210)。以上で、校正処理は終了する。
 図7は、本実施の形態に従う光学測定システム1において実行される校正処理の別の処理手順を示すフローチャートである。図7に示す校正処理は、正しいオフセット座標が得られない場合の処理手順である。図7に示す処理装置100が実行するステップは、典型的には、処理装置100のプロセッサ102が校正プログラム113を実行することで実現される。
 図7を参照して、図2に示す光学系を構成するとともに、校正ユニット20を配置する(ステップS250)。このように、照明光QでサンプルSを照明して得られる物体光Oを参照光Rで変調して生成されるホログラムを記録するための光学系(図1および図2に示す光学測定システム1)を構成する処理と、サンプルSが存在しない状態で、照明光Qの光学経路上に、既知の光波分布Pを発生する光学系(プロファイル生成部30)を含む校正ユニット20を配置する処理が実行される。
 続いて、プロファイル生成部30を順次平行移動させて、N個の校正用ホログラムIPiRを記録する処理が実行される。より具体的には、校正ユニット20を番号iに対応するオフセット座標(xpi,ypi,zpi)に設定する(ステップS252)。そして、光源10からコヒーレント光を発生させて、処理装置100は、イメージセンサDで校正用ホログラムIPiRを記録する(ステップS254)。ステップS252およびS254の処理は、番号iが0からN-1まで繰り返される。
 このように、校正ユニット20が光波分布Pを発生している状態で生じる校正用ホログラムIP0R(第1のホログラム)を記録する処理が実行される。また、校正ユニット20が発生する光波分布を校正用ホログラムIP0R(第1のホログラム)を記録した位置(オフセット座標(xp0,yp0,zp0))とは異なる複数の位置(オフセット座標(xpi,ypi,zpi:i>0))に移動させるとともに、複数の位置においてそれぞれ生じる複数の校正用ホログラムIPiR(複数の第2のホログラム)を記録する処理が実行される。
 続いて、参照光Rの光波分布の複素共役Rを暫定的に算出する処理が実行される。より具体的には、番号i=0の光波分布Pに対応するオフセット座標(xp0,yp0,zp0)として、適切な初期値を設定する(ステップS256)。そして、処理装置100は、既知の光波分布Pおよびオフセット座標(xp0,yp0,zp0)の初期値を用いて、光波分布Pを算出し(ステップS258)(上述の(11)式参照)、算出した光波分布Pおよび記録された校正用ホログラムIP0Rを用いて、参照光Rの光波分布の複素共役Rを暫定的に算出する(ステップS260)(上述の(14)式参照)。
 このように、校正ユニット20の配置位置を示す情報(オフセット座標の初期値)と、既知の光波分布Pと、校正用ホログラムIP0R(第1のホログラム)とに基づいて、参照光Rの光波分布の情報である複素共役Rを算出する処理が実行される。
 続いて、光波分布を修正する処理が実行される。より具体的には、処理装置100は、記録した校正用ホログラムIPiRに空間周波数フィルタリングを適用することで、複素振幅ホログラムJPiRを算出する(ステップS262)(上述の(4)式参照)。続いて、処理装置100は、算出した複素振幅ホログラムJPiRを現在の複素共役Rで除算することで、物体光ホログラムUを算出する(ステップS264)(上述の(6)式および(7)式参照)。このように、複数の校正用ホログラムIPiR(複数の第2のホログラム)の各々に空間周波数フィルタリングを適用し、フィルタリング結果と複素共役R(参照光Rの光波分布の情報)とに基づいて、複数の校正用ホログラムIPiRにそれぞれ対応する複数の物体光ホログラムUを算出する処理が実行される。
 続いて、処理装置100は、算出した物体光ホログラムUから光波分布Pを決定する(ステップS266)。そして、処理装置100は、既知の光波分布Pと一致するように物体光ホログラムUを修正することで、修正光波分布P’を算出する(ステップS268)(上述の(18)式および(19)式参照)。このように、処理装置100は、既知の光波分布Pに基づいて、複数の物体光ホログラムUをそれぞれ修正することで、複数の校正用ホログラムIPiRに対応する複数の修正光波分布P’をそれぞれ算出する。
 続いて、処理装置100は、既知の光波分布Pから算出されるスペクトルと複数の校正用ホログラムIPiR(複数の第2のホログラム)に対応する修正光波分布P’から算出されるスペクトルとから波面収差を算出する。
 より具体的には、処理装置100は、既知の光波分布Pおよび修正光波分布P’をそれぞれフーリエ変換して、スペクトルF[P]およびスペクトルF[P’]を算出する(ステップS270)。そして、処理装置100は、スペクトルF[P]とスペクトルF[P’]との位相差分布を示す位相差分布スペクトルW(u,v)(=arg(F[P’]/F[P]))を算出する(ステップS272)。このように、処理装置100は、既知の光波分布Pから算出されるスペクトルF[P]と校正用ホログラムIPiR(第2のホログラム)に対応する修正光波分布P’から算出されるスペクトルF[P’]との位相差分布である位相差分布スペクトルW(u,v)を算出する。
 最終的に、処理装置100は、算出した位相差分布スペクトルW(u,v)を用いて、波面収差Wi_errを算出する(ステップS274)。上述の(20)式に示すように、処理装置100は、波面収差Wi_errの算出処理において、位相差分布スペクトルW全体の平均値Waveに対する二乗平均平方根を誤差として算出する。
 ステップS262~S274の処理は、番号iが1からN-1まで繰り返される。
 続いて、処理装置100は、波面収差Wi_errを最小化するように、校正ユニット20のオフセット座標(xp0,yp0,zp0)の値(配置位置を示す情報)を調整する。
 より具体的には、処理装置100は、ステップS274において算出された波面収差Wi_errの総和(=ΣWi_err)を算出し(ステップS276)、算出した波面収差Wi_errの総和が収束条件を満たしているか否かを判断する(ステップS278)。収束条件は、例えば、波面収差Wi_errの総和が予め定められた値以下であることを含んでいてもよい。
 波面収差Wi_errの総和が収束条件を満たしていなければ(ステップS278においてNO)、処理装置100は、オフセット座標(xp0,yp0,zp0)の値を変更し(ステップS280)、ステップS260以下の処理を繰り返す。
 波面収差Wi_errの総和が収束条件を満たしていなければ(ステップS278においてYES)、処理装置100は、現在の複素共役Rを含む校正情報114を出力する(ステップS282)。そして、校正処理は終了する。
 <G.測定例>
 次に、本実施の形態に従う光学測定システムによる測定例を示す。以下の測定例は、校正ユニット20を用いて参照光Rの光波分布の複素共役Rを決定することによる高精度化を説明するためのものである。
 まず、図2に示す光学系を構成した。光源10の波長は532nmとし、記録開口数NA=0.5の光学系を構成した。そして、校正ユニット20が生成する光波分布P(i=0~N-1)を記録した。図8および図9に示す測定例においては、光波分布Pを11地点(N=11;i=0~10)で記録した。
 上述したように、光波分布Pは、イメージセンサDの視野範囲内において、既知の光波分布Pをx軸方向、y軸方向、z軸方向にそれぞれ平行移動させたものである。既知の光波分布Pとしては、点光源を使用した。
 光波分布Pに対応するオフセット座標(xp0,yp0,zp0)として、校正ユニット20の光学的な位置関係を考慮して決定された初期値を設定し、設定された初期値を用いて参照光Rの光波分布の複素共役Rを算出した。
 図8は、本実施の形態に従う光学測定システム1の校正処理の初期段階における測定例を示す図である。図8(A)には、オフセット座標の初期値を用いて再生された物体光ホログラムUの集光点付近の振幅分布を示す。図8(B)には、物体光ホログラムUの集光点付近の振幅分布を用いて算出された波面収差W1_errの分布を示す。オフセット座標の初期値を用いた場合の波面収差W1_errは、2.924λであった。
 オフセット座標の初期値は、校正ユニット20の光学的な位置関係を正しく反映したものではないので、参照光Rの光波分布の複素共役Rも不正確である。その結果、図8(A)に示すように、集光点(エアリーディスクのスポット)もスポット状にはならず、ばらついている。また、図8(B)に示すように、物体光ホログラムUには大きな波面収差が生じている。
 次に、上述の手順に従って、波面収差の総和を最小化するように、オフセット座標(xp0,yp0,zp0)を調整した結果を示す。調整されたオフセット座標(xp0,yp0,zp0)を用いて参照光Rの光波分布の複素共役Rを算出した。
 図9は、本実施の形態に従う光学測定システム1の校正処理の処理後における測定例を示す図である。図9(A)には、調整後のオフセット座標を用いて再生された物体光ホログラムUの集光点付近の振幅分布を示す。図9(B)には、物体光ホログラムUの集光点付近の振幅分布を用いて算出された波面収差W1_errの分布を示す。オフセット座標の初期値を用いた場合の波面収差W1_errは、0.023λであった。図9(A)に示すように、参照光Rの光波分布の複素共役Rを正確に決定することで、物体光ホログラムUには集光点(エアリーディスクのスポット)が形成されており、図9(B)に示すように、明らかな波面収差は見られない。
 一般的に、波面収差が0.07λ以下の状態は回折限界とみなされており、波面収差W1_errが0.023λであるので、十分な結像性能を有しているといえる。また、番号i=2~10の場合についても波面収差を算出すると、すべての再生像について、波面収差Wi_errは0.07λ以下となり、視野内全域にわたって回折限界の結像性能を有している。
 図10は、本実施の形態に従う光学測定システム1によるサンプルの測定例を示す図である。図10には、図1に示す光学測定システム1を用いて記録したホログラムIORから再生されたサンプル(USAF 1951分解能テストターゲット)の再生像を示す。
 図10(A1)および図10(A2)には、オフセット座標の初期値を用いた再生像を示す。図10(A1)には、分解能テストターゲットの全体像を示し、図10(A2)には、分解能テストターゲットの部分拡大図を示す。
 図10(A1)および図10(A2)に示す再生像においては、大きな歪が生じているとともに、分解能テストターゲットのグループ9にあるパターン線は十分に分解できていない。
 図10(B1)および図10(B2)には、調整後のオフセット座標を用いた再生像を示す。図10(B1)には、分解能テストターゲットの全体像を示し、図10(B2)には、分解能テストターゲットの部分拡大図を示す。
 図10(B1)に示す再生像においては、大きな歪は生じていない。また、図10(B2)において矩形枠線で示したテストターゲットの9-6パターンの線(幅0.548μm)が3本の線として分解できており、光学系から決まる理論分解能0.532μmと同程度の性能が得られていることが分かる。
 このように、上述したような校正処理により参照光Rの光波分布の複素共役Rを正確に決定することで、高精度にサンプルを測定できることが分かる。
 <H.変形例>
 図1および図2には、透過型の光学系を採用した光学測定システム1の構成例を例示したが、この構成例に限定されず、以下のような各種の変形が可能である。
 (h1:変形例1)
 本実施の形態の変形例1として、参照光をサンプルに近傍して配置した構成例について説明する。
 図11は、本実施の形態の変形例1に従う光学測定システム1Aの構成例を示す模式図である。図11(A)には測定処理用の構成例を示し、図11(B)には校正処理用の構成例を示す。
 図11(A)を参照して、光学測定システム1Aにおいては、ハーフミラーHM2に代えて、ミラーM3が配置されている。ミラーM3は、サンプルSから物体光Oから照射される範囲外に配置されている。参照光Rは、ミラーM4で反射されて伝搬方向を変えられてミラーM3へ導かれる。参照光Rは、ミラーM3でさらに反射されて、イメージセンサDの受光面へ導かれる。すなわち、イメージセンサDの受光面において、照明光QでサンプルSを照明して得られる物体光Oが参照光Rで変調される。
 このように、作動距離を確保する必要がない場合には、ハーフミラーHM2に代えて、ミラーM3を採用してもよい。ミラーM3は、平面鏡、凸面鏡、凹面鏡のいずれであってもよい。
 図11(B)を参照して、光学測定システム1Aにおいて、校正ユニット20を含むプロファイル生成部30は、照明光学系である視野マスクA1および集光レンズL1を置き換える形で配置される。校正処理については、上述した処理と同様である。
 (h2:変形例2)
 本実施の形態の変形例2として、照明光学系を省略した構成例について説明する。
 図12は、本実施の形態の変形例2に従う光学測定システム1Bの構成例を示す模式図である。図12(A)には測定処理用の構成例を示し、図12(B)には校正処理用の構成例を示す。
 図12(A)を参照して、光学測定システム1Bにおいては、サンプルSの近傍に視野制限マスクFAが配置されている。このような視野制限マスクFAを用いることで、照明光学系を簡略化あるいは省略できる。図12(A)には、照明光学系に相当する結合光学系(視野マスクA1および集光レンズL1)を省略した構成例を示す。
 さらに、照明光Qと参照光Rとの間で干渉性を維持できる限りにおいて、照明光QでサンプルSを照明する光学系はどのようなものであってもよい。例えば、照明光Qを斜めに入射させてもよいし、照明光Qとして拡散照明を採用してもよい。
 図12(B)を参照して、光学測定システム1Bにおいて、校正ユニット20を含むプロファイル生成部30は、サンプルSを取り除いた上で、照明光Qの光路上に配置される。なお、照明光学系が省略されているので、校正ユニット20を配置する際に、照明光学系を取り除く必要はない。校正処理については、上述した処理と同様である。
 (h3:変形例3)
 本実施の形態の変形例3として、反射型光学系を採用した構成例について説明する。
 図13は、本実施の形態の変形例3に従う光学測定システム1Cの構成例を示す模式図である。図13(A)には測定処理用の構成例を示し、図13(B)には校正処理用の構成例を示す。
 図13(A)を参照して、光学測定システム1Cにおいては、ビームスプリッタBS1で分岐された照明光Qは、ミラーM1およびミラーM5でそれぞれ反射されて伝搬方向を変えられた後に、集光レンズL3、視野マスクA1、集光レンズL4を通過して、ハーフミラーHM2へ導かれる。さらに、照明光Qは、ハーフミラーHM2で反射されてサンプルSを照明する。照明光QでサンプルSを照明して得られる物体光O(すなわち、サンプルSで反射された光)は、ハーフミラーHM2を透過して、イメージセンサDに入射する。
 一方、参照光Rは、ミラーM2で反射されて伝搬方向を変えられた後に、集光レンズL2によって集光される。集光レンズL2による集光点FP1が点光源の位置に相当する。最終的に、参照光Rは、ハーフミラーHM2で反射されてイメージセンサDに入射する。
 図13(B)を参照して、光学測定システム1Cにおける校正処理は、図2および図12(B)と同様に、透過型の光学系を用いて行われる。より具体的には、校正ユニット20を含むプロファイル生成部30は、サンプルSを取り除いた上で、照明光Qの光路上に配置される。校正処理については、上述した処理と同様である。
 (h4:変形例4)
 本実施の形態の変形例4として、サンプルSからの散乱光の測定に適した構成例について説明する。
 図14は、本実施の形態の変形例4に従う光学測定システム1Dの構成例を示す模式図である。図14(A)には測定処理用の構成例を示し、図14(B)には校正処理用の構成例を示す。
 図14(A)を参照して、光学測定システム1Dにおいては、ビームスプリッタBS1で分岐された照明光Qは、ミラーM6で反射されて伝搬方向を変えられた後に、サンプルSを照射する。照明光QでサンプルSを照明することで生じる散乱光が、物体光OとしてイメージセンサDに入射する。
 光学測定システム1Dにおいては、サンプルSで生じる散乱光を測定できる。なお、サンプルSの近傍には、必要に応じて視野制限マスクFAを配置してもよい。視野制限マスクFAを配置することで、ノイズを抑制できる。
 図14(B)を参照して、光学測定システム1Dにおける校正処理は、図2および図12(B)と同様に、透過型の光学系を用いて行われる。より具体的には、校正ユニット20を含むプロファイル生成部30は、サンプルSを取り除いた上で、照明光Qの光路上に配置される。校正処理については、上述した処理と同様である。
 (h5:変形例5)
 上述の説明においては、特定の波長帯域のコヒーレント光を発生する光源10を用いる構成について主として説明したが、複数の波長帯域のコヒーレント光を発生する光源10を用いてもよい。例えば、赤色(R)、緑色(G)、青色(B)のそれぞれに対応する波長帯域のコヒーレント光を発生させるとともに、それぞれの色に受光感度をもつイメージセンサDを採用することで、各色のホログラムを記録できる。
 また、イメージセンサDとして偏光イメージセンサを採用することで、偏光ホログラムを記録できる。
 <I.利点>
 本実施の形態に従う光学測定システムは、サンプルとイメージセンサとの間にレンズなどの結像光学系が存在しない、レンズレスディジタルホログラフィの構成を採用する。そのため、照明光でサンプルを照明して得られる物体光に収差などの誤差が生じない。
 本実施の形態に従う光学測定システムは、校正処理によって参照光の光波分布の情報(例えば、参照光Rの光波分布の複素共役R)を予め取得する。光学測定システムは、照明光でサンプルを照明して得られる物体光を参照光で変調して生成されるホログラムと、参照光の光波分布の情報とに基づいて、物体光ホログラムを算出することで、サンプルの任意の位置の形状(光波振幅および位相)などを事後的に算出あるいは測定できる。
 本実施の形態に従う光学測定システムは、物体光に代えて、既知の光波分布を既知の配置位置(座標)から照明することで、参照光の光波分布の情報を算出できる。そのため、インライン球面波光をインラインの軸に正確に調整する必要がなく、調整に手間を要することもない。
 本実施の形態に従う光学測定システムは、物体光に代えて、既知の光波分布を複数の配置位置(座標)から照明することで、パラメータフィッティングにより参照光の光波分布の情報を算出できる。そのため、インライン球面波光をインラインの軸に正確に調整する必要がなく、調整に手間を要することもない。加えて、既知の光波分布を照明する配置位置を正確に知らなくても、正確な参照光の光波分布の情報を算出できる。
 今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した説明ではなく、請求の範囲によって示され、請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
 1,1A,1B,1C,1D 光学測定システム、10 光源、20 校正ユニット、30,30A,30B,30C,30D プロファイル生成部、31,33,34 遮光板、32,36 ピンホール、35,37,L1,L2,L3,L4 集光レンズ、38 対物レンズ、100 処理装置、102 プロセッサ、104 主メモリ、106 入力部、108 表示部、110 ストレージ、111 オペレーティングシステム、112 測定プログラム、113 校正プログラム、114 校正情報、115 ホログラムデータ、116 測定結果、120 インターフェイス、122 ネットワークインターフェイス、124 メディアドライブ、126 記録媒体、A1 視野マスク、BE ビームエキスパンダ、BS1,BS2 ビームスプリッタ、D イメージセンサ、FA 視野制限マスク、FP1 集光点、M1,M2,M3,M4,M5,M6 ミラー、O 物体光、Q 照明光、R 参照光、S サンプル、SP1,SP2 開口。

Claims (10)

  1.  照明光でサンプルを照明して得られる物体光を前記照明光とコヒーレントな参照光で変調して生成されるホログラムを記録するための光学系を構成するステップと、
     前記サンプルが存在しない状態で、前記照明光の光学経路上に、既知の光波分布を発生する光学系を含む校正ユニットを配置するステップと、
     前記校正ユニットが光波分布を発生している状態で生じる第1のホログラムを記録するステップと、
     前記校正ユニットの配置位置を示す情報と、前記既知の光波分布と、前記第1のホログラムとに基づいて、前記参照光の光波分布の情報を算出するステップとを備える、光学測定方法。
  2.  前記校正ユニットは、発生する光波分布を空間的に移動できるように構成されており、
     前記光学測定方法は、
      発生する光波分布を前記第1のホログラムを記録した位置とは異なる複数の位置に移動させるとともに、前記複数の位置においてそれぞれ生じる複数の第2のホログラムを記録するステップと、
      既知の光波分布から算出されるスペクトルと前記複数の第2のホログラムに対応する光波分布から算出されるスペクトルとから波面収差を算出するステップと、
      前記波面収差を最小化するように、前記校正ユニットの配置位置を示す情報を調整するステップとをさらに備える、請求項1に記載の光学測定方法。
  3.  前記複数の第2のホログラムの各々に空間周波数フィルタリングを適用し、フィルタリング結果と前記参照光の光波分布の情報とに基づいて、前記複数の第2のホログラムにそれぞれ対応する複数の物体光ホログラムを算出するテップと、
     前記既知の光波分布に基づいて、前記複数の物体光ホログラムをそれぞれ修正することで、前記複数の第2のホログラムに対応する複数の光波分布をそれぞれ算出するステップとをさらに備える、請求項2に記載の光学測定方法。
  4.  前記波面収差を算出するステップは、
      前記既知の光波分布から算出されるスペクトルと前記第2のホログラムに対応する光波分布から算出されるスペクトルとの位相差分布である位相差分布スペクトルを算出するステップと、
      前記位相差分布スペクトル全体の平均値に対する二乗平均平方根を誤差として算出するステップとを含む、請求項2または3に記載の光学測定方法。
  5.  前記照明光で前記サンプルを照明して得られる前記物体光を前記参照光で変調して生成される第3のホログラムを記録するステップと、
     前記第3のホログラムに空間周波数フィルタリングを適用し、フィルタリング結果と前記参照光の光波分布の情報とに基づいて、物体光ホログラムを算出するステップとをさらに備える、請求項1~4のいずれか1項に記載の光学測定方法。
  6.  前記参照光の光波分布の情報は、前記参照光の光波分布の複素共役を含む、請求項1~5のいずれか1項に記載の光学測定方法。
  7.  照明光でサンプルを照明して得られる物体光を前記照明光とコヒーレントな参照光で変調して生成されるホログラムを記録するための光学系を構成するステップと、
     前記光学系における前記参照光の光波分布の情報を取得するステップと、
     照明光でサンプルを照明して得られる物体光を前記照明光とコヒーレントな参照光で変調して生成されるホログラムを記録するステップと、
     前記ホログラムに空間周波数フィルタリングを適用し、フィルタリング結果と前記参照光の光波分布の情報とに基づいて、物体光ホログラムを算出するステップとを備える、光学測定方法。
  8.  前記参照光の光波分布の情報は、前記サンプルが存在しない状態で、前記照明光の光学経路上に、既知の光波分布を発生する光学系を含む校正ユニットが配置されたときに記録されるホログラムと、前記校正ユニットの配置位置を示す情報と、前記既知の光波分布とに基づいて予め算出される、請求項7に記載の光学測定方法。
  9.  コヒーレント光を発生する光源と、
     前記光源からのコヒーレント光から照明光および参照光を生成するビームスプリッタと、
     照明光でサンプルを照明して得られる物体光を前記照明光とコヒーレントな参照光で変調して生成されるホログラムをイメージセンサで記録するための光学系と、
     前記光学系における前記参照光の光波分布の情報を格納する格納部を有する処理装置とを備え、
     前記処理装置は、前記イメージセンサで記録されたホログラムに空間周波数フィルタリングを適用し、フィルタリング結果と前記参照光の光波分布の情報とに基づいて、物体光ホログラムを算出する、光学測定システム。
  10.  前記参照光の光波分布の情報は、前記サンプルが存在しない状態で、前記照明光の光学経路上に、既知の光波分布を発生する光学系を含む校正ユニットが配置されたときに記録されるホログラムと、前記校正ユニットの配置位置を示す情報と、前記既知の光波分布とに基づいて予め算出される、請求項9に記載の光学測定システム。
PCT/JP2021/040987 2021-11-08 2021-11-08 光学測定方法および光学測定システム WO2023079741A1 (ja)

Priority Applications (7)

Application Number Priority Date Filing Date Title
KR1020237021417A KR20240086598A (ko) 2021-11-08 2021-11-08 광학 측정 방법 및 광학 측정 시스템
CN202180104033.9A CN118235026A (zh) 2021-11-08 2021-11-08 光学测定方法和光学测定***
KR1020227028187A KR102552799B1 (ko) 2021-11-08 2021-11-08 광학 측정 방법 및 광학 측정 시스템
JP2022521142A JP7157505B1 (ja) 2021-11-08 2021-11-08 光学測定方法および光学測定システム
PCT/JP2021/040987 WO2023079741A1 (ja) 2021-11-08 2021-11-08 光学測定方法および光学測定システム
TW111130966A TW202336416A (zh) 2021-11-08 2022-08-17 光學量測方法及光學量測系統
JP2022157416A JP2023070071A (ja) 2021-11-08 2022-09-30 光学測定方法および光学測定システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/040987 WO2023079741A1 (ja) 2021-11-08 2021-11-08 光学測定方法および光学測定システム

Publications (1)

Publication Number Publication Date
WO2023079741A1 true WO2023079741A1 (ja) 2023-05-11

Family

ID=83690997

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/040987 WO2023079741A1 (ja) 2021-11-08 2021-11-08 光学測定方法および光学測定システム

Country Status (5)

Country Link
JP (2) JP7157505B1 (ja)
KR (2) KR20240086598A (ja)
CN (1) CN118235026A (ja)
TW (1) TW202336416A (ja)
WO (1) WO2023079741A1 (ja)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6411406B1 (en) 2001-03-12 2002-06-25 Dalhousie University Holographic microscope and method of hologram reconstruction
WO2011089820A1 (ja) 2010-01-22 2011-07-28 兵庫県 複素振幅インラインホログラムの生成方法および該方法を用いる画像記録装置
WO2012005315A1 (ja) 2010-07-07 2012-01-12 兵庫県 ホログラフィック顕微鏡、微小被写体のホログラム画像記録方法、高分解能画像再生用ホログラム作成方法、および画像再生方法
WO2013047709A1 (ja) 2011-09-30 2013-04-04 ウシオ電機株式会社 デジタルホログラフィ方法及びデジタルホログラフィ装置
JP2013221770A (ja) * 2012-04-13 2013-10-28 Nikon Corp 干渉縞解析方法、干渉縞解析装置、投影露光装置、及びデバイスの製造方法
WO2014054776A1 (ja) * 2012-10-05 2014-04-10 公立大学法人兵庫県立大学 ホログラフィック断層顕微鏡、ホログラフィック断層画像生成方法、およびホログラフィック断層画像用のデータ取得方法
JP2019012270A (ja) * 2018-07-30 2019-01-24 浜松ホトニクス株式会社 顕微鏡装置及び画像取得方法
WO2019044336A1 (ja) * 2017-08-30 2019-03-07 公立大学法人兵庫県立大学 ホログラフィック撮像装置および同装置に用いるデータ処理方法
WO2020045584A1 (ja) 2018-08-29 2020-03-05 公立大学法人兵庫県立大学 ホログラフィック撮像装置およびホログラフィック撮像方法
CN111751012A (zh) * 2020-06-03 2020-10-09 中国科学院西安光学精密机械研究所 动态高分辨光学波前相位测量装置及测量方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003098040A (ja) * 2001-09-25 2003-04-03 Ricoh Co Ltd 光学系評価装置および方法

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6411406B1 (en) 2001-03-12 2002-06-25 Dalhousie University Holographic microscope and method of hologram reconstruction
WO2011089820A1 (ja) 2010-01-22 2011-07-28 兵庫県 複素振幅インラインホログラムの生成方法および該方法を用いる画像記録装置
WO2012005315A1 (ja) 2010-07-07 2012-01-12 兵庫県 ホログラフィック顕微鏡、微小被写体のホログラム画像記録方法、高分解能画像再生用ホログラム作成方法、および画像再生方法
WO2013047709A1 (ja) 2011-09-30 2013-04-04 ウシオ電機株式会社 デジタルホログラフィ方法及びデジタルホログラフィ装置
JP2013221770A (ja) * 2012-04-13 2013-10-28 Nikon Corp 干渉縞解析方法、干渉縞解析装置、投影露光装置、及びデバイスの製造方法
WO2014054776A1 (ja) * 2012-10-05 2014-04-10 公立大学法人兵庫県立大学 ホログラフィック断層顕微鏡、ホログラフィック断層画像生成方法、およびホログラフィック断層画像用のデータ取得方法
WO2019044336A1 (ja) * 2017-08-30 2019-03-07 公立大学法人兵庫県立大学 ホログラフィック撮像装置および同装置に用いるデータ処理方法
JP2019012270A (ja) * 2018-07-30 2019-01-24 浜松ホトニクス株式会社 顕微鏡装置及び画像取得方法
WO2020045584A1 (ja) 2018-08-29 2020-03-05 公立大学法人兵庫県立大学 ホログラフィック撮像装置およびホログラフィック撮像方法
CN111751012A (zh) * 2020-06-03 2020-10-09 中国科学院西安光学精密机械研究所 动态高分辨光学波前相位测量装置及测量方法

Also Published As

Publication number Publication date
JP7157505B1 (ja) 2022-10-20
KR20240086598A (ko) 2024-06-18
KR102552799B1 (ko) 2023-07-06
CN118235026A (zh) 2024-06-21
JP2023070071A (ja) 2023-05-18
KR20230067574A (ko) 2023-05-16
TW202336416A (zh) 2023-09-16
JPWO2023079741A1 (ja) 2023-05-11

Similar Documents

Publication Publication Date Title
JP7161777B2 (ja) ホログラフィック撮像装置および同装置に用いるデータ処理方法
JP5351976B2 (ja) 二重グレーチング横方向シアリング波面センサ
WO2015064088A1 (ja) ホログラフィック顕微鏡および高分解能ホログラム画像用のデータ処理方法
US20190187612A1 (en) Ellipsometry Device and Ellipsometry Method
CN106054570B (zh) 强度传输方程实现单幅数字全息图较大相位重建方法
JP2005539256A (ja) 複合画像間の差異を検出するためのシステムおよび方法
Bühl et al. Digital synthesis of multiple off-axis holograms with overlapping Fourier spectra
US10378963B2 (en) Optical system phase acquisition method and optical system evaluation method
Schober et al. Tilted Wave Fizeau Interferometer for flexible and robust asphere and freeform testing
US10365164B2 (en) Optical system phase acquisition method and optical system evaluation method
JP7157505B1 (ja) 光学測定方法および光学測定システム
KR20190072020A (ko) 결함 검출 방법 및 장치
WO2022138716A1 (ja) 光学測定システムおよび光学測定方法
Aguilar et al. Displacement measurement with multi-level spiral phase filtering in speckle interferometry
KR102222859B1 (ko) 개선된 홀로그래픽 복원 장치 및 방법
KR101868882B1 (ko) 반사광을 이용한 홀로그램 영상 획득 장치 및 이를 구비하는 물체의 입체 형상 복원 장치
JP2018004621A (ja) 光学系の位相取得方法および光学系の評価方法
JP5096397B2 (ja) ホログラム記録再生方法およびホログラム記録再生装置
Eriksson Development of a Software Tool for Mid-Spatial Frequency Analysis
WO2023042339A1 (ja) 光学測定システムおよび光学測定方法
EP4404004A1 (en) Optical measurement system and optical measurement method
JP2018021891A (ja) 光学系の位相取得方法および光学系の評価方法
KR102600341B1 (ko) 표면 프로파일 측정 장치 및 방법
Shtanko et al. Compensation of aberrations of off-axis parabolic mirrors by means of digital holography
JP2017198575A (ja) 光学素子特性測定装置

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 2022521142

Country of ref document: JP

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21963334

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2021963334

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2021963334

Country of ref document: EP

Effective date: 20240610