WO2022014136A1 - パターン検査装置及びパターン検査方法 - Google Patents

パターン検査装置及びパターン検査方法 Download PDF

Info

Publication number
WO2022014136A1
WO2022014136A1 PCT/JP2021/018379 JP2021018379W WO2022014136A1 WO 2022014136 A1 WO2022014136 A1 WO 2022014136A1 JP 2021018379 W JP2021018379 W JP 2021018379W WO 2022014136 A1 WO2022014136 A1 WO 2022014136A1
Authority
WO
WIPO (PCT)
Prior art keywords
actual image
contour
image
distortion
positions
Prior art date
Application number
PCT/JP2021/018379
Other languages
English (en)
French (fr)
Inventor
真児 杉原
Original Assignee
株式会社ニューフレアテクノロジー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ニューフレアテクノロジー filed Critical 株式会社ニューフレアテクノロジー
Priority to US18/004,683 priority Critical patent/US20230251207A1/en
Priority to KR1020227043076A priority patent/KR20230009453A/ko
Publication of WO2022014136A1 publication Critical patent/WO2022014136A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/95Investigating the presence of flaws or contamination characterised by the material or shape of the object to be examined
    • G01N21/956Inspecting patterns on the surface of objects
    • G01N21/95607Inspecting patterns on the surface of objects using a comparative method
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/95Investigating the presence of flaws or contamination characterised by the material or shape of the object to be examined
    • G01N21/956Inspecting patterns on the surface of objects
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/16Measuring arrangements characterised by the use of optical techniques for measuring the deformation in a solid, e.g. optical strain gauge
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B15/00Measuring arrangements characterised by the use of electromagnetic waves or particle radiation, e.g. by the use of microwaves, X-rays, gamma rays or electrons
    • G01B15/04Measuring arrangements characterised by the use of electromagnetic waves or particle radiation, e.g. by the use of microwaves, X-rays, gamma rays or electrons for measuring contours or curvatures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B15/00Measuring arrangements characterised by the use of electromagnetic waves or particle radiation, e.g. by the use of microwaves, X-rays, gamma rays or electrons
    • G01B15/06Measuring arrangements characterised by the use of electromagnetic waves or particle radiation, e.g. by the use of microwaves, X-rays, gamma rays or electrons for measuring the deformation in a solid
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/95Investigating the presence of flaws or contamination characterised by the material or shape of the object to be examined
    • G01N21/9501Semiconductor wafers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N23/00Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00
    • G01N23/22Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by measuring secondary emission from the material
    • G01N23/225Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by measuring secondary emission from the material using electron or ion
    • G01N23/2251Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by measuring secondary emission from the material using electron or ion using incident electron beams, e.g. scanning electron microscopy [SEM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/0006Industrial image inspection using a design-rule based approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/001Industrial image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L22/00Testing or measuring during manufacture or treatment; Reliability measurements, i.e. testing of parts without further processing to modify the parts as such; Structural arrangements therefor
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L22/00Testing or measuring during manufacture or treatment; Reliability measurements, i.e. testing of parts without further processing to modify the parts as such; Structural arrangements therefor
    • H01L22/10Measuring as part of the manufacturing process
    • H01L22/12Measuring as part of the manufacturing process for structural parameters, e.g. thickness, line width, refractive index, temperature, warp, bond strength, defects, optical inspection, electrical measurement of structural dimensions, metallurgic measurement of diffusions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B2210/00Aspects not specifically covered by any group under G01B, e.g. of wheel alignment, caliper-like sensors
    • G01B2210/56Measuring geometric parameters of semiconductor structures, e.g. profile, critical dimensions or trench depth
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • G01N2021/8854Grading and classifying of flaws
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • G01N2021/8887Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges based on image processing techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N2223/00Investigating materials by wave or particle radiation
    • G01N2223/40Imaging
    • G01N2223/401Imaging image processing
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N2223/00Investigating materials by wave or particle radiation
    • G01N2223/60Specific applications or type of materials
    • G01N2223/611Specific applications or type of materials patterned objects; electronic devices
    • G01N2223/6116Specific applications or type of materials patterned objects; electronic devices semiconductor wafer
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N2223/00Investigating materials by wave or particle radiation
    • G01N2223/60Specific applications or type of materials
    • G01N2223/646Specific applications or type of materials flaws, defects
    • G01N2223/6462Specific applications or type of materials flaws, defects microdefects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10056Microscopic image
    • G06T2207/10061Microscopic image from scanning electron microscope
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30148Semiconductor; IC; Wafer

Definitions

  • JP2020-119715 application number
  • JP2020-119715 application number
  • One aspect of the present invention relates to a pattern inspection device and a pattern inspection method.
  • a pattern inspection device that inspects using a secondary electron image of a pattern emitted by irradiating a substrate with a multi-beam of an electron beam
  • an inspection device that inspects using an optical image of a pattern obtained by irradiating a substrate with ultraviolet rays. , And how to do this.
  • the circuit line width required for semiconductor devices has become narrower and narrower. Further, improvement of the yield is indispensable for manufacturing LSI, which requires a large manufacturing cost.
  • the patterns constituting the LSI are approaching the order of 10 nanometers or less, and the dimensions that must be detected as pattern defects are extremely small. Therefore, it is necessary to improve the accuracy of the pattern inspection device for inspecting the defects of the ultrafine pattern transferred on the semiconductor wafer.
  • one of the major factors that reduce the yield is a pattern defect of a mask used when exposing and transferring an ultrafine pattern on a semiconductor wafer by photolithography technology. Therefore, it is necessary to improve the accuracy of the pattern inspection device for inspecting defects of the transfer mask used in LSI manufacturing.
  • a defect inspection method inspection is performed by comparing a measurement image of a pattern formed on a substrate such as a semiconductor wafer or a lithography mask with a design data or a measurement image of the same pattern on the substrate.
  • the method is known.
  • a pattern inspection method "die to die (die-die) inspection” in which measurement image data obtained by imaging the same pattern in different places on the same substrate are compared, or a design image based on pattern-designed design data.
  • die-to-database (die-database) inspection” that generates data (reference image) and compares it with the measurement image that is the measurement data obtained by imaging the pattern.
  • the captured image is sent to the comparison circuit as measurement data.
  • the comparison circuit after the images are aligned with each other, the measurement data and the reference data are compared according to an appropriate algorithm, and if they do not match, it is determined that there is a pattern defect.
  • the pattern inspection device described above includes a device that irradiates a substrate to be inspected with a laser beam to capture the transmitted image or a reflected image, and scans the substrate to be inspected with a primary electron beam.
  • Development of an inspection device that acquires a pattern image by detecting the secondary electrons emitted from the substrate to be inspected with the irradiation of the secondary electron beam is also in progress.
  • it is considered to extract the contour line of the pattern in the image and use the distance from the contour line of the reference image as a determination index instead of comparing the pixel values.
  • the misalignment between the contour lines includes not only the misalignment due to the defect but also the misalignment due to the distortion of the image itself.
  • the height between the contour line of the image to be inspected and the reference contour line is to be corrected in order to correct the deviation due to the distortion of the measured image itself. It is necessary to perform accurate alignment.
  • the alignment process between contour lines is complicated, and in order to perform highly accurate alignment. Has a problem that the processing time is long.
  • the following method is disclosed as a method for extracting the contour position on the contour line performed at the stage before the alignment is performed.
  • Edge candidates are obtained using a Sobel filter or the like, and the second derivative value of the density value is obtained for each pixel in the inspection area by the edge candidate and the adjacent pixel group. Further, among the two sets of adjacent pixel groups adjacent to the edge candidate, the adjacent pixel group having many combinations having different signs of the second derivative values is selected as the second edge candidate.
  • a method is disclosed in which the edge coordinates of the edge to be detected are obtained in subpixel units by using the second derivative value of the edge candidate and the second derivative value of the second edge candidate (for example, Patent Document 1). reference).
  • One aspect of the present invention provides an apparatus and a method capable of inspecting in consideration of the positional deviation caused by the distortion of the measured image.
  • the pattern inspection device of one aspect of the present invention is An image acquisition mechanism that acquires an image to be inspected on a substrate on which a graphic pattern is formed, Distortion of the image to be inspected by using multiple actual contour positions on the actual contour line of the graphic pattern in the image to be inspected and multiple reference contour positions on the reference contour line for comparison with the actual contour line.
  • a strain coefficient calculation circuit that calculates the strain coefficient by weighting the resulting multiple actual image contour positions in a predetermined direction
  • a distortion vector estimation circuit that estimates the distortion vector using the distortion coefficient for each actual image contour position of multiple actual image contour positions
  • a comparison circuit that compares the actual image contour line and the reference contour line using the distortion vector for each actual image contour position, It is characterized by being equipped with.
  • the pattern inspection apparatus of another aspect of the present invention is An image acquisition mechanism that acquires an image to be inspected on a substrate on which a graphic pattern is formed, A plurality of actual image contour positions on the actual image contour line of the graphic pattern in the inspected image and a plurality of reference contour positions for comparison with the plurality of actual image contour positions are used to obtain a plurality of actual image contour positions.
  • An average shift vector calculation circuit that calculates an average shift vector weighted in a predetermined direction of the actual image contour line for alignment by parallel shift with a plurality of reference contour positions.
  • a comparison circuit that compares the actual contour line and the reference contour line using the mean shift vector, It is characterized by being equipped with.
  • the pattern inspection method of one aspect of the present invention is Acquire the inspected image of the substrate on which the graphic pattern is formed, Distortion of the image to be inspected by using multiple actual contour positions on the actual contour line of the graphic pattern in the image to be inspected and multiple reference contour positions on the reference contour line for comparison with the actual contour line.
  • the strain coefficient is calculated by weighting the resulting multiple actual image contour positions in a predetermined direction.
  • the distortion vector is estimated using the distortion coefficient for each actual contour position of multiple actual image contour positions. Using the distortion vector for each actual image contour position, compare the actual image contour line with the reference contour line and output the result. It is characterized by that.
  • the pattern inspection method of another aspect of the present invention is Acquire the inspected image of the substrate on which the graphic pattern is formed, A plurality of actual image contour positions on the actual image contour line of the graphic pattern in the inspected image and a plurality of reference contour positions for comparison with the plurality of actual image contour positions are used to obtain a plurality of actual image contour positions. , Calculates a mean shift vector weighted in a predetermined direction of the actual image contour line for alignment by parallel shift with multiple reference contour positions. Using the mean shift vector, the actual image contour line and the reference contour line are compared, and the result is output. It is characterized by that.
  • FIG. It is a block diagram which shows an example of the structure of the pattern inspection apparatus in Embodiment 1.
  • FIG. It is a conceptual diagram which shows the structure of the molded aperture array substrate in Embodiment 1.
  • FIG. It is a figure which shows an example of the plurality of chip regions formed on the semiconductor substrate in Embodiment 1.
  • FIG. It is a figure for demonstrating the scan operation of the multi-beam in Embodiment 1.
  • FIG. It is a flowchart which shows the main part process of the inspection method in Embodiment 1.
  • FIG. It is a block diagram which shows an example of the structure in the comparison circuit in Embodiment 1.
  • FIG. It is a figure which shows an example of the actual image contour position in Embodiment 1.
  • FIG. It is a figure for demonstrating an example of the method of extracting the reference contour position in Embodiment 1.
  • FIG. It is a figure which shows an example of the individual shift vector in Embodiment 1.
  • FIG. It is a figure for demonstrating the method of calculating the weighted average shift vector in Embodiment 1.
  • FIG. It is a figure for demonstrating the defect position deviation vector in consideration of the mean shift vector in Embodiment 1.
  • FIG. It is a figure for demonstrating the two-dimensional strain model in Embodiment 1.
  • FIG. It is a figure for demonstrating the defect position deviation vector in consideration of the strain vector in Embodiment 1.
  • the electron beam inspection device will be described as an example of the pattern inspection device.
  • it may be an inspection device that irradiates the substrate to be inspected with ultraviolet rays and acquires an image to be inspected by using the light transmitted or reflected through the substrate to be inspected.
  • an inspection device for acquiring an image by using a multi-beam of a plurality of electron beams will be described, but the present invention is not limited to this. It may be an inspection device that acquires an image by using a single beam with one electron beam.
  • FIG. 1 is a configuration diagram showing an example of the configuration of the pattern inspection device according to the first embodiment.
  • the inspection device 100 for inspecting a pattern formed on a substrate is an example of a multi-electron beam inspection device.
  • the inspection device 100 includes an image acquisition mechanism 150 (secondary electron image acquisition mechanism) and a control system circuit 160.
  • the image acquisition mechanism 150 includes an electron beam column 102 (electron lens barrel) and an examination room 103.
  • an electron gun 201 In the electron beam column 102, an electron gun 201, an electromagnetic lens 202, a molded aperture array substrate 203, an electromagnetic lens 205, a batch blanking deflector 212, a limiting aperture substrate 213, an electromagnetic lens 206, an electromagnetic lens 207 (objective lens), A main deflector 208, a sub-deflector 209, an E ⁇ B separator 214 (beam separator), a deflector 218, an electromagnetic lens 224, an electromagnetic lens 226, and a multi-detector 222 are arranged.
  • an electron gun 201 In the electron beam column 102, an electron gun 201, an electromagnetic lens 202, a molded aperture array substrate 203, an electromagnetic lens 205, a batch blanking deflector 212, a limiting aperture substrate 213, an electromagnetic lens 206, an electromagnetic lens 207 (objective lens), A main deflector 208, a sub-deflector 209, an E ⁇ B separator 214 (beam separator),
  • an electron gun 201 an electromagnetic lens 202, a molded aperture array substrate 203, an electromagnetic lens 205, a batch blanking deflector 212, a limiting aperture substrate 213, an electromagnetic lens 206, an electromagnetic lens 207 (objective lens), and a main deflection.
  • the device 208 and the sub-deflector 209 constitute a primary electron optical system that irradiates the substrate 101 with a multi-primary electron beam.
  • the E ⁇ B separator 214, the deflector 218, the electromagnetic lens 224, and the electromagnetic lens 226 constitute a secondary electron optical system that irradiates the multi-detector 222 with a multi-secondary electron beam.
  • a stage 105 that can move in the XY direction at least is arranged in the inspection room 103.
  • a substrate 101 (sample) to be inspected is arranged on the stage 105.
  • the substrate 101 includes a mask substrate for exposure and a semiconductor substrate such as a silicon wafer.
  • a semiconductor substrate such as a silicon wafer.
  • a plurality of chip patterns are formed on the semiconductor substrate.
  • a chip pattern is formed on the exposure mask substrate.
  • the chip pattern is composed of a plurality of graphic patterns.
  • the substrate 101 is a semiconductor substrate, for example, with the pattern forming surface facing upward. Further, on the stage 105, a mirror 216 that reflects the laser beam for laser length measurement emitted from the laser length measuring system 122 arranged outside the examination room 103 is arranged. The multi-detector 222 is connected to the detection circuit 106 outside the electron beam column 102.
  • the control computer 110 that controls the entire inspection device 100 uses the position circuit 107, the comparison circuit 108, the reference contour position extraction circuit 112, the stage control circuit 114, the lens control circuit 124, and the memory control computer 110 via the bus 120. It is connected to a ranking control circuit 126, a deflection control circuit 128, a storage device 109 such as a magnetic disk device, a monitor 117, and a memory 118. Further, the deflection control circuit 128 is connected to a DAC (digital-to-analog conversion) amplifier 144, 146, 148. The DAC amplifier 146 is connected to the main deflector 208, and the DAC amplifier 144 is connected to the sub-deflector 209. The DAC amplifier 148 is connected to the deflector 218.
  • DAC digital-to-analog conversion
  • the detection circuit 106 is connected to the chip pattern memory 123.
  • the chip pattern memory 123 is connected to the comparison circuit 108.
  • the stage 105 is driven by the drive mechanism 142 under the control of the stage control circuit 114.
  • a drive system such as a three-axis (XY ⁇ ) motor that drives in the X direction, the Y direction, and the ⁇ direction in the stage coordinate system is configured, and the stage 105 can move in the XY ⁇ direction. It has become.
  • X motors, Y motors, and ⁇ motors (not shown), for example, stepping motors can be used.
  • the stage 105 can be moved in the horizontal direction and the rotational direction by the motor of each axis of XY ⁇ .
  • the moving position of the stage 105 is measured by the laser length measuring system 122 and supplied to the position circuit 107.
  • the laser length measuring system 122 measures the position of the stage 105 by the principle of the laser interferometry method by receiving the reflected light from the mirror 216.
  • the X direction, the Y direction, and the ⁇ direction are set with respect to the plane orthogonal to the optical axis (electron orbit center axis) of the multi-first-order electron beam.
  • the electromagnetic lens 202, the electromagnetic lens 205, the electromagnetic lens 206, the electromagnetic lens 207 (objective lens), the electromagnetic lens 224, the electromagnetic lens 226, and the E ⁇ B separator 214 are controlled by the lens control circuit 124.
  • the batch blanking deflector 212 is composed of electrodes having two or more poles, and is controlled by the blanking control circuit 126 via a DAC amplifier (not shown) for each electrode.
  • the sub-deflector 209 is composed of electrodes having four or more poles, and each electrode is controlled by the deflection control circuit 128 via the DAC amplifier 144.
  • the main deflector 208 is composed of electrodes having four or more poles, and each electrode is controlled by a deflection control circuit 128 via a DAC amplifier 146.
  • the deflector 218 is composed of electrodes having four or more poles, and each electrode is controlled by a deflection control circuit 128 via a DAC amplifier 148.
  • a high-voltage power supply circuit (not shown) is connected to the electron gun 201, and another extraction electrode is applied along with the application of an acceleration voltage from the high-voltage power supply circuit between the filament (cathode) and the extraction electrode (anode) in the electron gun 201 (not shown).
  • a voltage of (Wenert) and heating the cathode at a predetermined temperature a group of electrons emitted from the cathode is accelerated and emitted as an electron beam 200.
  • FIG. 1 describes a configuration necessary for explaining the first embodiment.
  • the inspection device 100 may usually have other configurations required.
  • FIG. 2 is a conceptual diagram showing the configuration of the molded aperture array substrate according to the first embodiment.
  • the molded aperture array substrate 203 has a two-dimensional horizontal (x direction) m 1 row ⁇ vertical (y direction) n 1 step (m 1 and n 1 are integers of 2 or more on one side and the other on the other side.
  • Holes (openings) 22 are formed at a predetermined arrangement pitch in the x and y directions.
  • a case where a hole (opening) 22 of 23 ⁇ 23 is formed is shown.
  • each hole 22 is formed by a rectangle having the same size and shape. Alternatively, it may ideally be a circle having the same outer diameter.
  • the electron beam 200 emitted from the electron gun 201 is refracted by the electromagnetic lens 202 to illuminate the entire molded aperture array substrate 203.
  • a plurality of holes 22 are formed in the molded aperture array substrate 203, and the electron beam 200 illuminates a region including all the plurality of holes 22.
  • Each part of the electron beam 200 irradiated to the positions of the plurality of holes 22 passes through the plurality of holes 22 of the molded aperture array substrate 203, respectively, thereby forming the multi-primary electron beam 20.
  • the formed multi-primary electron beam 20 is refracted by the electromagnetic lens 205 and the electromagnetic lens 206, respectively, and the crossover position (each beam) of each beam of the multi-primary electron beam 20 is repeated while repeating the intermediate image and the crossover. It passes through the E ⁇ B separator 214 arranged at the intermediate image position) and proceeds to the electromagnetic lens 207 (objective lens). Then, the electromagnetic lens 207 focuses (focuses) the multi-primary electron beam 20 on the substrate 101.
  • the multi-primary electron beam 20 focused (focused) on the surface of the substrate 101 (sample) by the objective lens 207 is collectively deflected by the main deflector 208 and the sub-deflector 209, and the substrate of each beam.
  • Each irradiation position on 101 is irradiated.
  • the entire multi-primary electron beam 20 is collectively deflected by the batch blanking deflector 212, the position is displaced from the hole in the center of the limiting aperture substrate 213, and the entire multi-primary electron beam 20 is shielded by the limiting aperture substrate 213.
  • the multi-primary electron beam 20 not deflected by the batch blanking deflector 212 passes through the central hole of the limiting aperture substrate 213 as shown in FIG. By turning ON / OFF of the batch blanking deflector 212, blanking control is performed, and ON / OFF of the beam is collectively controlled.
  • the limiting aperture substrate 213 shields the multi-primary electron beam 20 deflected so that the beam is turned off by the batch blanking deflector 212. Then, the multi-primary electron beam 20 for inspection (for image acquisition) is formed by the beam group that has passed through the restricted aperture substrate 213 formed from the time when the beam is turned on to the time when the beam is turned off.
  • the multi-primary electron beam 20 When the multi-primary electron beam 20 is irradiated to a desired position of the substrate 101, it corresponds to each beam of the multi-primary electron beam 20 from the substrate 101 due to the irradiation of the multi-primary electron beam 20. , A bundle of secondary electrons including backscattered electrons (multi-secondary electron beam 300) is emitted.
  • the multi-secondary electron beam 300 emitted from the substrate 101 passes through the electromagnetic lens 207 and proceeds to the E ⁇ B separator 214.
  • the E ⁇ B separator 214 has a plurality of magnetic poles having two or more poles using a coil, and a plurality of electrodes having two or more poles.
  • it has a 4-pole magnetic pole (electromagnetic deflection coil) that is 90 ° out of phase and a 4-pole electrode (electrostatic deflection electrode) that is also 90 ° out of phase.
  • a directional magnetic field is generated by the plurality of magnetic poles.
  • a potential V having a sign opposite to that of two electrodes facing each other, a directional electric field is generated by the plurality of electrodes.
  • the E ⁇ B separator 214 generates an electric field and a magnetic field in a direction orthogonal to each other on a plane orthogonal to the direction in which the central beam of the multi-primary electron beam 20 travels (the central axis of the electron orbit).
  • the electric field exerts a force in the same direction regardless of the traveling direction of the electron.
  • the magnetic field exerts a force according to Fleming's left-hand rule. Therefore, the direction of the force acting on the electron can be changed depending on the intrusion direction of the electron.
  • the multi-secondary electron beam 300 which is bent diagonally upward and separated from the multi-primary electron beam 20, is further bent by the deflector 218 and projected onto the multi-detector 222 while being refracted by the electromagnetic lenses 224 and 226.
  • the multi-detector 222 detects the projected multi-secondary electron beam 300. Backscattered electrons and secondary electrons may be projected onto the multi-detector 222, or the backscattered electrons may be diverged on the way and the remaining secondary electrons may be projected.
  • the multi-detector 222 has a two-dimensional sensor.
  • each secondary electron of the multi-secondary electron beam 300 collides with the corresponding region of the two-dimensional sensor to generate electrons, and secondary electron image data is generated for each pixel.
  • a detection sensor is arranged for each primary electron beam of the multi-primary electron beam 20. Then, the corresponding secondary electron beam emitted by the irradiation of each primary electron beam is detected. Therefore, each detection sensor of the plurality of detection sensors of the multi-detector 222 detects the intensity signal of the secondary electron beam for the image caused by the irradiation of the primary electron beam in charge of each. The intensity signal detected by the multi-detector 222 is output to the detection circuit 106.
  • FIG. 3 is a diagram showing an example of a plurality of chip regions formed on the semiconductor substrate in the first embodiment.
  • the substrate 101 is a semiconductor substrate (wafer)
  • a plurality of chips (wafer dies) 332 are formed in a two-dimensional array in the inspection region 330 of the semiconductor substrate (wafer).
  • a mask pattern for one chip formed on an exposure mask substrate is transferred to each chip 332 by being reduced to, for example, 1/4 by an exposure device (stepper, scanner, etc.) (not shown).
  • the region of each chip 332 is divided into a plurality of stripe regions 32 with a predetermined width, for example, in the y direction.
  • the scanning operation by the image acquisition mechanism 150 is performed, for example, for each stripe region 32.
  • each stripe region 32 is divided into a plurality of rectangular regions 33 in the longitudinal direction.
  • the movement of the beam to the rectangular region 33 of interest is performed by batch deflection of the entire multi-primary electron beam 20 by the main deflector 208.
  • FIG. 4 is a diagram for explaining a multi-beam scanning operation in the first embodiment.
  • the irradiation region 34 that can be irradiated by one irradiation of the multi-primary electron beam 20 is (the x-direction obtained by multiplying the x-direction beam-to-beam pitch of the multi-primary electron beam 20 on the substrate 101 surface by the number of beams in the x-direction. Size) ⁇ (size in the y direction obtained by multiplying the pitch between beams of the multi-primary electron beam 20 in the y direction on the surface of the substrate 101 by the number of beams in the y direction).
  • each stripe region 32 is set to the same size as the y-direction size of the irradiation region 34 or to be narrowed by the scan margin.
  • the irradiation area 34 has the same size as the rectangular area 33 is shown. However, it is not limited to this.
  • the irradiation area 34 may be smaller than the rectangular area 33. Or it may be large.
  • each beam of the multi-primary electron beam 20 is irradiated in the sub-irradiation region 29 surrounded by the inter-beam pitch in the x-direction and the inter-beam pitch in the y direction in which the own beam is located, and the sub-irradiation region 29 is irradiated.
  • Scan inside Scan operation.
  • Each of the primary electron beams 10 constituting the multi-primary electron beam 20 is in charge of any of the sub-irradiation regions 29 different from each other. Then, at each shot, each primary electron beam 10 irradiates the same position in the responsible sub-irradiation region 29.
  • the movement of the primary electron beam 10 in the sub-irradiation region 29 is performed by batch deflection of the entire multi-primary electron beam 20 by the sub-deflector 209. This operation is repeated to sequentially irradiate the inside of one sub-irradiation region 29 with one primary electron beam 10. Then, when the scan of one sub-irradiation region 29 is completed, the irradiation position is moved to the adjacent rectangular region 33 in the same stripe region 32 by the collective deflection of the entire multi-primary electron beam 20 by the main deflector 208. This operation is repeated to irradiate the inside of the stripe region 32 in order.
  • the irradiation position is moved to the next stripe region 32 by the movement of the stage 105 and / or the collective deflection of the entire multi-primary electron beam 20 by the main deflector 208.
  • the secondary electron image for each sub-irradiation region 29 is acquired by the irradiation of each primary electron beam 10.
  • each sub-irradiation region 29 is divided into a plurality of rectangular frame regions 30, and a secondary electron image (inspected image) of 30 units of the frame region is used for inspection.
  • one sub-irradiation region 29 is divided into, for example, four frame regions 30.
  • the number to be divided is not limited to four. It may be divided into other numbers.
  • a plurality of chips 332 arranged in the x direction are grouped into the same group, and each group is divided into a plurality of stripe regions 32 with a predetermined width in the y direction, for example.
  • the movement between the stripe regions 32 is not limited to each chip 332, and may be performed for each group.
  • the main deflector 208 collectively deflects the irradiation position of the multi-primary electron beam 20 so as to follow the movement of the stage 105. Tracking operation is performed by. Therefore, the emission position of the multi-secondary electron beam 300 changes momentarily with respect to the orbital central axis of the multi-primary electron beam 20. Similarly, when scanning in the sub-irradiation region 29, the emission position of each secondary electron beam changes momentarily in the sub-irradiation region 29. The deflector 218 collectively deflects the multi-secondary electron beam 300 so that each secondary electron beam whose emission position has changed is irradiated into the corresponding detection region of the multi-detector 222.
  • FIG. 5 is a flowchart showing a main process of the inspection method according to the first embodiment.
  • the inspection method according to the first embodiment includes a scanning step (S102), a frame image creating step (S104), an actual image contour position extraction step (S106), and a reference contour position extraction step (S108).
  • the average shift vector calculation step (S110), the alignment step (S112), the strain coefficient calculation step (S120), the strain vector estimation step (S122), the defect position shift vector calculation step (S142), and the comparison step ( A series of steps called S144) is carried out.
  • the configuration may omit the mean shift vector calculation step (S110).
  • the strain coefficient calculation step (S120) and the strain vector estimation step (S122) may be omitted.
  • the image acquisition mechanism 150 acquires an image of the substrate 101 on which the graphic pattern is formed.
  • the substrate 101 on which a plurality of graphic patterns are formed is irradiated with the multi-primary electron beam 20, and the multi-secondary electron beam 300 emitted from the substrate 101 due to the irradiation of the multi-primary electron beam 20 is generated.
  • a secondary electronic image of the substrate 101 is acquired.
  • backscattered electrons and secondary electrons may be projected onto the multi-detector 222, and the backscattered electrons are diverged in the middle and the remaining secondary electrons (multi-secondary electron beam 300) are projected. May be done.
  • the multi-secondary electron beam 300 emitted from the substrate 101 due to the irradiation of the multi-primary electron beam 20 is detected by the multi-detector 222.
  • the secondary electron detection data (measured image data: secondary electron image data: inspected image data) for each pixel in each sub-irradiation region 29 detected by the multi-detector 222 is output to the detection circuit 106 in the order of measurement.
  • analog detection data is converted into digital data by an A / D converter (not shown) and stored in the chip pattern memory 123. Then, the obtained measurement image data is transferred to the comparison circuit 108 together with the information indicating each position from the position circuit 107.
  • FIG. 6 is a block diagram showing an example of the configuration in the comparison circuit according to the first embodiment.
  • storage devices 50, 51, 52, 53, 56, 57 such as a magnetic disk device, a frame image creation unit 54, an actual image contour position extraction unit 58, and individual units are included.
  • a shift vector calculation unit 60, a weighted average shift vector calculation unit 62, a strain coefficient calculation unit 66, a strain vector estimation unit 68, a defect position shift vector calculation unit 82, and a comparison processing unit 84 are arranged.
  • Each "-unit" such as the comparison processing unit 84 includes a processing circuit, and the processing circuit includes an electric circuit, a computer, a processor, a circuit board, a quantum circuit, a semiconductor device, and the like. Further, a common processing circuit (same processing circuit) may be used for each "-part". Alternatively, different processing circuits (separate processing circuits) may be used.
  • Frame image creation unit 54 actual image contour position extraction unit 58, individual shift vector calculation unit 60, weighted average shift vector calculation unit 62, strain coefficient calculation unit 66, strain vector estimation unit 68, defect position shift vector calculation unit 82,
  • the input data required in the comparison processing unit 84 or the calculated result is stored in a memory (not shown) or a memory 118 each time.
  • the measured image data (scanned image) transferred into the comparison circuit 108 is stored in the storage device 50.
  • the frame image creation unit 54 further divides the image data of the sub-irradiation region 29 acquired by the scanning operation of each primary electron beam 10 into each frame region 30 of the plurality of frame regions 30.
  • the frame image 31 of is created. It is preferable that the frame regions 30 are configured so that the margin regions overlap each other so that the image is not omitted.
  • the created frame image 31 is stored in the storage device 56.
  • the actual image contour position extraction unit 58 extracts a plurality of contour positions (actual image contour positions) of each graphic pattern in the frame image 31 for each frame image 31.
  • FIG. 7 is a diagram showing an example of the actual image contour position in the first embodiment.
  • the method of extracting the contour position may be a conventional method. For example, a differential filter process that differentiates each pixel in the x and y directions is performed using a differential filter such as a Sobel filter, and first-order differential values in the x and y directions are synthesized. Then, the peak position of the profile using the first derivative value after synthesis is extracted as the contour position on the contour line (actual image contour line).
  • the contour position is extracted one point for each of the plurality of contour pixels through which the actual image contour line passes is shown.
  • the contour position is extracted in sub-pixel units within each contour pixel. In the example of FIG.
  • the contour position is shown by the coordinates (x, y) in the pixel. Further, the angle ⁇ in the normal direction at each contour position of the contour line to be approximated by fitting a plurality of contour positions with a predetermined function is shown. The angle ⁇ in the normal direction is defined as a clockwise angle with respect to the x-axis.
  • the obtained information (actual image contour line data) of each actual image contour position is stored in the storage device 57.
  • the reference contour position extraction circuit 112 extracts a plurality of reference contour positions for comparison with a plurality of actual image contour positions.
  • the reference contour position may be extracted from the design data, or first, a reference image is created from the design data, and the reference image is used to refer to the frame image 31 which is a measurement image in the same manner as in the case of the frame image 31.
  • the contour position may be extracted.
  • a plurality of reference contour positions may be extracted by other conventional methods.
  • FIG. 8 is a diagram for explaining an example of a method for extracting a reference contour position in the first embodiment.
  • the reference contour position extraction circuit 112 reads out the design pattern data (design data) which is the source of the pattern formed on the substrate 101 from the storage device 109.
  • the reference contour position extraction circuit 112 sets a pixel size grid for the design data. In the quadrangle corresponding to the pixel, the midpoint of the straight line portion is set as the reference contour position. If there are corners of the graphic pattern, the corner vertices are used as the reference contour position. If there are multiple corners, the midpoint of the corner vertices is set as the reference contour position.
  • the contour position of the graphic pattern as the design pattern in the frame area 30 can be accurately extracted.
  • the obtained information on each reference contour position (reference contour line data) is output to the comparison circuit 108.
  • the comparison circuit 108 the reference contour line data is stored in the storage device 52.
  • the process proceeds to the strain coefficient calculation step (S120). If the mean shift vector calculation step (S110) is not omitted, the process proceeds to the mean shift vector calculation step (S110).
  • the weighted average shift vector calculation unit 62 uses a plurality of actual image contour positions and a plurality of reference contour positions on the actual image contour line of the graphic pattern in the frame image 31.
  • the average shift vector Dave weighted in the normal direction of the actual image contour line for aligning between the plurality of actual image contour positions and the plurality of reference contour positions by parallel shift is calculated. Specifically, it operates as follows.
  • FIG. 9 is a diagram showing an example of the individual shift vector in the first embodiment.
  • the individual shift vector in the first embodiment is a normal vector of the relative vector between the actual image contour position of interest and the reference contour position corresponding to the outline of the actual image of interest. It is a component projected in the direction.
  • the individual shift vector calculation unit 60 calculates an individual shift vector for each actual image contour position of a plurality of actual image contour positions. As the reference contour position corresponding to the attention actual image contour position, the reference contour position closest to the attention actual image contour position is used.
  • FIG. 10 is a diagram for explaining a method of calculating a weighted average shift vector in the first embodiment.
  • the weighted average shift vector calculation unit 62 uses the x-direction component Dx i , the y-direction component Dy i, and the normal direction angle A i of the individual shift vector D i of the actual image contour position i to form a frame image. For each 31, the average shift vector Dave weighted in the normal direction is calculated.
  • the actual image contour position i indicates the i-th actual image contour position in the same frame image 31. There is no information in the tangential shift vector component of the actual contour line orthogonal to the normal direction, but the shift amount (vector amount) is zero.
  • the calculation is performed by weighting in the normal direction.
  • FIG. 10 an equation for obtaining the x-direction component Dxave and the y-direction component Dave of the mean shift vector Dave is shown.
  • the x-direction component Dxave of the mean shift vector Dave can be obtained by dividing the sum of the x-direction components Dx i of the individual shift vector D i by the sum of the absolute values of cosA i.
  • the y-direction component Dyave of the mean shift vector Dave can be obtained by dividing the sum of the y-direction components Dy i of the individual shift vector D i by the sum of the absolute values of sinA i.
  • the information of the mean shift vector Dave is stored in the storage device 51.
  • the defect position deviation vector calculation unit 82 calculates an average shift vector Dave between each actual image contour position of a plurality of actual image contour positions and the corresponding reference contour position. Calculate the defect position shift vector in consideration.
  • FIG. 11 is a diagram for explaining a defect position shift vector in consideration of the mean shift vector in the first embodiment.
  • the misalignment between the contour lines includes the misalignment due to the distortion of the image itself in addition to the misalignment due to the defect. Therefore, in order to accurately inspect the presence or absence of defects between the contour lines, the actual contour line and the reference contour of the frame image 31 are corrected in order to correct the deviation caused by the distortion of the frame image 31 itself which is the measurement image. It is necessary to perform highly accurate alignment with the line.
  • the misalignment vector (relative vector) between the actual image contour position and the reference contour position before alignment includes the distortion of the image. In the example of FIG.
  • a common mean shift vector Dave is used in the same frame image 31 as the position shift component of the distortion component. Therefore, instead of performing the alignment process for correcting the distortion of the image separately, the defect position shift vector calculation unit 82 uses the position shift vector (relative vector) between the actual image contour position and the reference contour position before the alignment. The defect position shift vector (after the average shift) is calculated by subtracting the average shift vector Dave from. Thereby, the same effect as the alignment can be obtained.
  • the comparison processing unit 84 compares the actual image contour line with the reference contour line using the mean shift vector Dave. Specifically, the comparison processing unit 84 determines the magnitude of the defect position shift vector in consideration of the mean shift vector Dave between each actual image contour position of the plurality of actual image contour positions and the corresponding reference contour position. When (distance) exceeds the judgment threshold value, it is judged as a defect.
  • the comparison result is output to the storage device 109, the monitor 117, or the memory 118.
  • the distortion of the image may have a correction residual that cannot be corrected by the parallel shift. Therefore, next, a configuration capable of performing distortion correction with higher accuracy than parallel shift will be described.
  • the process proceeds to the strain coefficient calculation step (S120).
  • the mean shift vector calculation step (S110), the strain coefficient calculation step (S120), and the strain vector estimation step (S122) are not omitted will be described. In such a case, the process proceeds to the strain coefficient calculation step (S120) after the mean shift vector calculation step (S110).
  • the strain coefficient calculation unit 66 performs a plurality of actual image contour positions on the actual image contour line of the graphic pattern in the frame image 31 and a reference contour line for comparison with the actual image contour line. Using a plurality of reference contour positions, the distortion coefficient is calculated by weighting the normal image contour positions due to the distortion of the frame image 31 in the normal direction. The strain coefficient calculation unit 66 calculates the strain coefficient using a two-dimensional strain model.
  • FIG. 12 is a diagram for explaining a two-dimensional strain model according to the first embodiment.
  • a two-dimensional strain model using a strain equation for fitting the individual shift vector Di with a polynomial is shown. Furthermore, performs weighting in consideration of the weight coefficient W i in the normal direction.
  • a third-order polynomial is used. Therefore, in the two-dimensional strain model of FIG. 12, the weight coefficient W, the equation matrix Z, the strain coefficient C which is the coefficient of the cubic polynomial, and the individual shift vector D are used, and the two-dimensional strain shown by the following equation (1) is used.
  • WZC WD
  • the strain coefficient calculation unit 66 obtains a strain coefficient C such that the equation (1) reduces the overall error with respect to each actual image contour position i in the frame image 31. Specifically, it is obtained as follows. Equation (1) is defined separately for the x-direction component and the y-direction component.
  • the equation for the distortion of the x-direction component is defined by the following equation (2-1) using the coordinates (x i , y i) in the frame region 30 of the actual image contour position i.
  • the equation for the distortion of the y-direction component is defined by the following equation (2-2) using the coordinates (x i , y i) in the frame region 30 of the actual image contour position i.
  • the strain coefficient Cx of the x-direction component is each coefficient C 00 , C 01 , C 02 , ..., C 09 of the cubic polynomial.
  • the strain coefficient Cy in the y direction is each coefficient C 10 , C 11 , C 12 , ..., C 19 of the same cubic polynomial.
  • the elements of each row of the equation matrix Z are each term (1, x i , y i , x i 2 , x i y i , y i 2 , x i 3 , etc.) when each coefficient of the cubic polynomial is 1. x i 2 y i , x i y i 2 , y i 3 ).
  • the weighting coefficient Wx i (x i , y i ) of each actual image contour position i of the x direction component is calculated by the following equation (x i, y i) using the angle A (x i , y i ) in the normal direction and the power of the weight n. It is defined in 3-1).
  • the weighting factor Wy i (x i , y i ) of each actual image contour position i of the y-direction component is as follows using the angle A (x i , y i ) in the normal direction and the power of the weight n. It is defined by the equation (3-2) of.
  • Equation (1) is divided into an x-direction component and a y-direction component, and each is defined by a matrix as shown in FIG.
  • the strain coefficient Cx of the x-direction component and the strain coefficient Cy in the y-direction are calculated. Since the number of actual image contour positions i is usually larger than the number of strain coefficients C 00 , C 01 , C 02 , ..., C 09 (9) of the x-direction component, the error is calculated so as to be as small as possible. do it.
  • the strain coefficients C 10 , C 11 , C 12 , ..., C 19 of the y-direction component may be calculated in the same manner.
  • Dx i (x i , y i ) and Dy i (x i) shown in FIG. , y i), a i ( x i, as y i), may shift calculated distortion factor to correct each individual shift vector D i in mean shift vector Dave.
  • the shift vector can be obtained and corrected by a means other than the mean shift vector calculation process. For example, a general alignment method may be applied to two inspection images in a die-die inspection to obtain a shift vector.
  • the distortion vector estimator 68 for each actual image contour position of a plurality of actual image contour position, frame coordinates using the distortion coefficient C (x i, y i) a distortion vector at presume.
  • the equation (2-1) using the obtained strain coefficients C 00 , C 01 , C 02 , ..., C 09 of the x-direction component and the strain coefficient C of the obtained y-direction component
  • the strain amount Dx i in the x direction obtained by calculating the equation (2-2) using 10 , C 11 , C 12 , ..., C 19 with respect to the in-frame coordinates (x i , y i).
  • the strain vector Dh i is estimated by synthesizing the strain amount Dy i in the y direction.
  • the defect position deviation vector calculation unit 82 obtains a distortion vector Dh i between each actual image contour position of a plurality of actual image contour positions and a corresponding reference contour position. Calculate the defect position shift vector in consideration.
  • FIG. 13 is a diagram for explaining a defect position shift vector in consideration of the strain vector in the first embodiment.
  • the misalignment between the contour lines includes the misalignment due to the distortion of the image itself in addition to the misalignment due to the defect. Therefore, in order to accurately inspect the presence or absence of defects between the contour lines, the actual contour line and the reference contour of the frame image 31 are corrected in order to correct the deviation caused by the distortion of the frame image 31 itself which is the measurement image. It is necessary to perform highly accurate alignment with the line.
  • the misalignment vector (relative vector) between the actual image contour position and the reference contour position before alignment includes the distortion of the image.
  • an individual strain vector Dh i is used as the position shift component of the strain component.
  • the defect position shift vector calculation unit 82 uses the position shift vector (relative vector) between the actual image contour position and the reference contour position before the alignment.
  • the defect position shift vector (after distortion correction) is calculated by subtracting the individual strain vector Dh i from.
  • the defect position deviation vector calculation unit 82 uses the actual image contour before alignment.
  • a defect misalignment vector is calculated by subtracting the average shift vector Dave in addition to the individual strain vector Dh i from the misalignment vector (relative vector) between the position and the reference contour position.
  • the comparison processing unit 84 (comparing unit), using a separate distortion vector D i for each actual image contour position is compared with the reference contour and actual image contour. Specifically, the comparison processing unit 84 determines the defect position deviation vector in consideration of the individual distortion vector Dh i between each actual image contour position of the plurality of actual image contour positions and the corresponding reference contour position. When the size (distance) exceeds the judgment threshold value, it is judged as a defect. In other words, the comparison processing unit 84, for each actual image outline position, if the size of the defect position displacement vector to the reference contour position corresponding the position after correction by the individual distortion vector D i exceeds the determination threshold Judged as a defect. The comparison result is output to the storage device 109, the monitor 117, or the memory 118.
  • FIG. 14 is a diagram showing an example of the measurement result of the misalignment amount of the image to which the distortion is added in the first embodiment and the misalignment amount in which the distortion is estimated without weighting in the normal direction.
  • FIG. 14 shows the measurement result of the amount of misalignment (additional distortion) when distortion is applied in the frame image 31 of 512 ⁇ 512 pixels (measurement points are 9 ⁇ 9 points in the frame). Further, the result (estimated strain) of estimating the strain vector by obtaining the strain coefficient without weighting the amount of misalignment at each position in the normal direction is shown. As shown in FIG. 14, it can be seen that an error remains between the added strain and the estimated strain when the weighting in the normal direction is not performed.
  • FIG. 15 is a diagram showing an example of the measurement result of the position shift amount of the image to which the strain is added in the first embodiment and the position shift amount obtained by performing the strain estimation by weighting in the normal direction.
  • the reference image created based on the design data or the reference contour position (or reference contour line) obtained from the design data is compared with the frame image which is the measurement image (die database inspection).
  • the frame image which is the measurement image die database inspection.
  • the reference contour position may be obtained by extracting a plurality of contour positions in the frame image 31 of the die 2 by the same method as in the case of extracting a plurality of contour positions in the frame image 31 of the die 1. Then, the distance between the two may be calculated.
  • the inspection can be performed in consideration of the positional deviation caused by the distortion of the measured image. Further, by weighting in the normal direction, the contribution of the tangential component having poor reliability can be reduced. In addition, the accuracy of strain coefficient calculation can be improved without performing processing with a large amount of calculation. Therefore, the defect detection sensitivity can be improved within an appropriate inspection time.
  • the series of "-circuits” includes a processing circuit, and the processing circuit includes an electric circuit, a computer, a processor, a circuit board, a quantum circuit, a semiconductor device, and the like. Further, a common processing circuit (same processing circuit) may be used for each "-circuit". Alternatively, different processing circuits (separate processing circuits) may be used.
  • the program for executing the processor or the like may be recorded on a recording medium such as a magnetic disk device or a flash memory.
  • the position circuit 107, the comparison circuit 108, the reference contour position extraction circuit 112, the stage control circuit 114, the lens control circuit 124, the blanking control circuit 126, and the deflection control circuit 128 are composed of at least one of the above-mentioned processing circuits. May be.
  • FIG. 1 shows a case where a multi-primary electron beam 20 is formed by a molded aperture array substrate 203 from a single beam emitted from an electron gun 201 as one irradiation source, but the present invention is limited to this. is not it.
  • a mode may be used in which the multi-primary electron beam 20 is formed by irradiating each of the primary electron beams from a plurality of irradiation sources.
  • an inspection device that inspects using a secondary electron image of a pattern emitted by irradiating a substrate with a multi-beam of an electron beam, and an inspection device that inspects using an optical image of a pattern obtained by irradiating a substrate with ultraviolet rays. , And such methods are available.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Quality & Reliability (AREA)
  • Manufacturing & Machinery (AREA)
  • Electromagnetism (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Power Engineering (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computer Hardware Design (AREA)
  • Signal Processing (AREA)
  • Testing Or Measuring Of Semiconductors Or The Like (AREA)
  • Analysing Materials By The Use Of Radiation (AREA)
  • Holo Graphy (AREA)
  • Eye Examination Apparatus (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • Image Analysis (AREA)

Abstract

本発明の一態様のパターン検査装置は、図形パターンが形成された基板の被検査画像を取得する画像取得機構と、被検査画像内の図形パターンの実画輪郭線上の複数の実画輪郭位置と、実画輪郭線と比較するための参照輪郭線上の複数の参照輪郭位置とを用いて、被検査画像の歪に起因する複数の実画輪郭位置の所定の方向に重み付けして歪係数を算出する歪係数算出回路と、複数の実画輪郭位置の実画輪郭位置毎に、歪係数を用いて歪ベクトルを推定する歪ベクトル推定回路と、実画輪郭位置毎の歪ベクトルを用いて、実画輪郭線と参照輪郭線とを比較する比較回路と、を備えたことを特徴とする。

Description

パターン検査装置及びパターン検査方法
 本出願は、2020年7月13日に日本国に出願されたJP2020-119715(出願番号)を基礎出願とする優先権を主張する出願である。JP2020-119715に記載された内容は、本出願にインコーポレートされる。
 本発明の一態様は、パターン検査装置及びパターン検査方法に関する。例えば、電子線によるマルチビームで基板を照射して放出されるパターンの2次電子画像を用いて検査する検査装置、紫外線で基板を照射して得られるパターンの光学画像を用いて検査する検査装置、およびかかる方法に関する。
 近年、大規模集積回路(LSI)の高集積化及び大容量化に伴い、半導体素子に要求される回路線幅はますます狭くなってきている。そして、多大な製造コストのかかるLSIの製造にとって、歩留まりの向上は欠かせない。しかし、LSIを構成するパターンは、10ナノメータ以下のオーダーを迎えつつあり、パターン欠陥として検出しなければならない寸法も極めて小さいものとなっている。よって、半導体ウェハ上に転写された超微細パターンの欠陥を検査するパターン検査装置の高精度化が必要とされている。その他、歩留まりを低下させる大きな要因の一つとして、半導体ウェハ上に超微細パターンをフォトリソグラフィ技術で露光、転写する際に使用されるマスクのパターン欠陥があげられる。そのため、LSI製造に使用される転写用マスクの欠陥を検査するパターン検査装置の高精度化が必要とされている。
 欠陥検査手法としては、半導体ウェハやリソグラフィマスク等の基板上に形成されているパターンを撮像した測定画像と、設計データ、あるいは基板上の同一パターンを撮像した測定画像と比較することにより検査を行う方法が知られている。例えば、パターン検査方法として、同一基板上の異なる場所の同一パターンを撮像した測定画像データ同士を比較する「die to die(ダイ-ダイ)検査」や、パターン設計された設計データをベースに設計画像データ(参照画像)を生成して、これとパターンを撮像した測定データとなる測定画像とを比較する「die to database(ダイ-データベース)検査」がある。撮像された画像は測定データとして比較回路へ送られる。比較回路では、画像同士の位置合わせの後、測定データと参照データとを適切なアルゴリズムに従って比較し、一致しない場合には、パターン欠陥有りと判定する。
 上述したパターン検査装置には、レーザ光を検査対象基板に照射して、この透過像或いは反射像を撮像する装置の他、検査対象基板上を1次電子ビームで走査(スキャン)して、1次電子ビームの照射に伴い検査対象基板から放出される2次電子を検出して、パターン像を取得する検査装置の開発も進んでいる。これらのパターン検査装置では、画素値同士の比較ではなく、画像内のパターンの輪郭線を抽出して、参照画像の輪郭線との距離を判定指標に用いることが検討されている。ここで、輪郭線同士のずれには、欠陥による位置ずれの他に、画像自体の歪に起因する位置ずれが含まれる。よって、輪郭線同士の欠陥の有無を正確に検査するためには、測定画像自体の歪に起因するずれ分を補正するために、被検査画像の輪郭線と参照輪郭線との間での高精度な位置合わせを行う必要がある。しかしながら、各画素の輝度値のずれを最小二乗法により最小化する従来の画像同士の位置合わせ処理と比べて、輪郭線同士の位置合わせ処理は複雑になり、精度の高い位置合わせを行うためには処理時間が長くかかってしまうといった問題があった。
 ここで、位置合わせを行う前の段階で行う輪郭線上の輪郭位置を抽出する手法として以下の手法が開示されている。ソーベルフィルタ等を使ってエッジ候補を求め、エッジ候補と隣接画素群による検査領域内の各画素に対して濃度値の2次微分値を求める。さらに、エッジ候補に隣接する2組の隣接画素群のうち、2次微分値の符号が異なる組み合わせが多い隣接画素群を第2のエッジ候補として選択する。そして、エッジ候補の2次微分値と第2のエッジ候補の2次微分値とを用いて、検出対象エッジのエッジ座標をサブピクセル単位で求めるといった手法が開示されている(例えば、特許文献1参照)。
特開2011-48592号公報
 本発明の一態様は、測定画像の歪に起因する位置ずれを考慮した検査が可能な装置及び方法を提供する。
 本発明の一態様のパターン検査装置は、
 図形パターンが形成された基板の被検査画像を取得する画像取得機構と、
 被検査画像内の図形パターンの実画輪郭線上の複数の実画輪郭位置と、実画輪郭線と比較するための参照輪郭線上の複数の参照輪郭位置とを用いて、被検査画像の歪に起因する複数の実画輪郭位置の所定の方向に重み付けして歪係数を算出する歪係数算出回路と、
 複数の実画輪郭位置の実画輪郭位置毎に、歪係数を用いて歪ベクトルを推定する歪ベクトル推定回路と、
 実画輪郭位置毎の歪ベクトルを用いて、実画輪郭線と参照輪郭線とを比較する比較回路と、
 を備えたことを特徴とする。
 本発明の他の態様のパターン検査装置は、
 図形パターンが形成された基板の被検査画像を取得する画像取得機構と、
 被検査画像内の図形パターンの実画輪郭線上の複数の実画輪郭位置と、複数の実画輪郭位置と比較するための複数の参照輪郭位置と、を用いて、複数の実画輪郭位置と、複数の参照輪郭位置との間で平行シフトによる位置合わせを行うための実画輪郭線の所定の方向に重み付けされた平均シフトベクトルを算出する平均シフトベクトル算出回路と、
 平均シフトベクトルを用いて、実画輪郭線と参照輪郭線とを比較する比較回路と、
 を備えたことを特徴とする。
 本発明の一態様のパターン検査方法は、
 図形パターンが形成された基板の被検査画像を取得し、
 被検査画像内の図形パターンの実画輪郭線上の複数の実画輪郭位置と、実画輪郭線と比較するための参照輪郭線上の複数の参照輪郭位置とを用いて、被検査画像の歪に起因する複数の実画輪郭位置の所定の方向に重み付けして歪係数を算出し、
 複数の実画輪郭位置の実画輪郭位置毎に、歪係数を用いて歪ベクトルを推定し、
 実画輪郭位置毎の歪ベクトルを用いて、実画輪郭線と参照輪郭線とを比較し、結果を出力する、
 ことを特徴とする。
 本発明の他の態様のパターン検査方法は、
 図形パターンが形成された基板の被検査画像を取得し、
 被検査画像内の図形パターンの実画輪郭線上の複数の実画輪郭位置と、複数の実画輪郭位置と比較するための複数の参照輪郭位置と、を用いて、複数の実画輪郭位置と、複数の参照輪郭位置との間で平行シフトによる位置合わせを行うための実画輪郭線の所定の方向に重み付けされた平均シフトベクトルを算出し、
 平均シフトベクトルを用いて、実画輪郭線と参照輪郭線とを比較し、結果を出力する、
 ことを特徴とする。
 本発明の一態様によれば、測定画像の歪に起因する位置ずれを考慮した検査ができる。
実施の形態1におけるパターン検査装置の構成の一例を示す構成図である。 実施の形態1における成形アパーチャアレイ基板の構成を示す概念図である。 実施の形態1における半導体基板に形成される複数のチップ領域の一例を示す図である。 実施の形態1におけるマルチビームのスキャン動作を説明するための図である。 実施の形態1における検査方法の要部工程を示すフローチャート図である。 実施の形態1における比較回路内の構成の一例を示すブロック図である。 実施の形態1における実画輪郭位置の一例を示す図である。 実施の形態1における参照輪郭位置を抽出する手法の一例を説明するための図である。 実施の形態1における個別シフトベクトルの一例を示す図である。 実施の形態1における重み付き平均シフトベクトルを算出する手法を説明するための図である。 実施の形態1における平均シフトベクトルを考慮した欠陥位置ずれベクトルを説明するための図である。 実施の形態1における2次元歪モデルを説明するための図である。 実施の形態1における歪ベクトルを考慮した欠陥位置ずれベクトルを説明するための図である。 実施の形態1における歪を付加した画像の位置ずれ量の測定結果と法線方向への重み付けを行わずに歪推定を行った位置ずれ量との一例を示す図である。 実施の形態1における歪を付加した画像の位置ずれ量の測定結果と法線方向への重み付けを行った歪推定を行った位置ずれ量との一例を示す図である。
[実施の形態1.]
 以下、実施の形態では、パターン検査装置の一例として、電子ビーム検査装置について説明する。但し、これに限るものではない。例えば、紫外線を被検査基板に照射して、被検査基板を透過或いは反射した光を用いて被検査画像を取得する検査装置であっても構わない。また、実施の形態では、複数の電子ビームによるマルチビームを用いて画像を取得する検査装置について説明するが、これに限るものではない。1本の電子ビームによるシングルビームを用いて画像を取得する検査装置であっても構わない。
 図1は、実施の形態1におけるパターン検査装置の構成の一例を示す構成図である。図1において、基板に形成されたパターンを検査する検査装置100は、マルチ電子ビーム検査装置の一例である。検査装置100は、画像取得機構150(2次電子画像取得機構)、及び制御系回路160を備えている。画像取得機構150は、電子ビームカラム102(電子鏡筒)及び検査室103を備えている。電子ビームカラム102内には、電子銃201、電磁レンズ202、成形アパーチャアレイ基板203、電磁レンズ205、一括ブランキング偏向器212、制限アパーチャ基板213、電磁レンズ206、電磁レンズ207(対物レンズ)、主偏向器208、副偏向器209、E×B分離器214(ビームセパレーター)、偏向器218、電磁レンズ224、電磁レンズ226、及びマルチ検出器222が配置されている。図1の例において、電子銃201、電磁レンズ202、成形アパーチャアレイ基板203、電磁レンズ205、一括ブランキング偏向器212、制限アパーチャ基板213、電磁レンズ206、電磁レンズ207(対物レンズ)、主偏向器208、及び副偏向器209は、マルチ1次電子ビームを基板101に照射する1次電子光学系を構成する。E×B分離器214、偏向器218、電磁レンズ224、及び電磁レンズ226は、マルチ2次電子ビームをマルチ検出器222に照射する2次電子光学系を構成する。
 検査室103内には、なくともXY方向に移動可能なステージ105が配置される。ステージ105上には、検査対象となる基板101(試料)が配置される。基板101には、露光用マスク基板、及びシリコンウェハ等の半導体基板が含まれる。基板101が半導体基板である場合、半導体基板には複数のチップパターン(ウェハダイ)が形成されている。基板101が露光用マスク基板である場合、露光用マスク基板には、チップパターンが形成されている。チップパターンは、複数の図形パターンによって構成される。かかる露光用マスク基板に形成されたチップパターンが半導体基板上に複数回露光転写されることで、半導体基板には複数のチップパターン(ウェハダイ)が形成されることになる。以下、基板101が半導体基板である場合を主として説明する。基板101は、例えば、パターン形成面を上側に向けてステージ105に配置される。また、ステージ105上には、検査室103の外部に配置されたレーザ測長システム122から照射されるレーザ測長用のレーザ光を反射するミラー216が配置されている。マルチ検出器222は、電子ビームカラム102の外部で検出回路106に接続される。
 制御系回路160では、検査装置100全体を制御する制御計算機110が、バス120を介して、位置回路107、比較回路108、参照輪郭位置抽出回路112、ステージ制御回路114、レンズ制御回路124、ブランキング制御回路126、偏向制御回路128、磁気ディスク装置等の記憶装置109、モニタ117、及びメモリ118に接続されている。また、偏向制御回路128は、DAC(デジタルアナログ変換)アンプ144,146,148に接続される。DACアンプ146は、主偏向器208に接続され、DACアンプ144は、副偏向器209に接続される。DACアンプ148は、偏向器218に接続される。
 また、検出回路106は、チップパターンメモリ123に接続される。チップパターンメモリ123は、比較回路108に接続されている。また、ステージ105は、ステージ制御回路114の制御の下に駆動機構142により駆動される。駆動機構142では、例えば、ステージ座標系におけるX方向、Y方向、θ方向に駆動する3軸(X-Y-θ)モータの様な駆動系が構成され、XYθ方向にステージ105が移動可能となっている。これらの、図示しないXモータ、Yモータ、θモータは、例えばステッピングモータを用いることができる。ステージ105は、XYθ各軸のモータによって水平方向及び回転方向に移動可能である。そして、ステージ105の移動位置はレーザ測長システム122により測定され、位置回路107に供給される。レーザ測長システム122は、ミラー216からの反射光を受光することによって、レーザ干渉法の原理でステージ105の位置を測長する。ステージ座標系は、例えば、マルチ1次電子ビームの光軸(電子軌道中心軸)に直交する面に対して、X方向、Y方向、θ方向が設定される。
 電磁レンズ202、電磁レンズ205、電磁レンズ206、電磁レンズ207(対物レンズ)、電磁レンズ224、電磁レンズ226、及びE×B分離器214は、レンズ制御回路124により制御される。また、一括ブランキング偏向器212は、2極以上の電極により構成され、電極毎に図示しないDACアンプを介してブランキング制御回路126により制御される。副偏向器209は、4極以上の電極により構成され、電極毎にDACアンプ144を介して偏向制御回路128により制御される。主偏向器208は、4極以上の電極により構成され、電極毎にDACアンプ146を介して偏向制御回路128により制御される。偏向器218は、4極以上の電極により構成され、電極毎にDACアンプ148を介して偏向制御回路128により制御される。
 電子銃201には、図示しない高圧電源回路が接続され、電子銃201内の図示しないフィラメント(カソード)と引出電極(アノード)間への高圧電源回路からの加速電圧の印加と共に、別の引出電極(ウェネルト)の電圧の印加と所定の温度のカソードの加熱によって、カソードから放出された電子群が加速させられ、電子ビーム200となって放出される。
 ここで、図1では、実施の形態1を説明する上で必要な構成を記載している。検査装置100にとって、通常、必要なその他の構成を備えていても構わない。
 図2は、実施の形態1における成形アパーチャアレイ基板の構成を示す概念図である。図2において、成形アパーチャアレイ基板203には、2次元状の横(x方向)m列×縦(y方向)n段(m,nは、一方が2以上の整数、他方が1以上の整数)の穴(開口部)22がx,y方向に所定の配列ピッチで形成されている。図2の例では、23×23の穴(開口部)22が形成されている場合を示している。各穴22は、理想的には共に同じ寸法形状の矩形で形成される。或いは、理想的には同じ外径の円形であっても構わない。これらの複数の穴22を電子ビーム200の一部がそれぞれ通過することで、m×n本(=N本)のマルチ1次電子ビーム20が形成されることになる。
 次に、検査装置100における画像取得機構150の動作について説明する。
 電子銃201(放出源)から放出された電子ビーム200は、電磁レンズ202によって屈折させられ、成形アパーチャアレイ基板203全体を照明する。成形アパーチャアレイ基板203には、図2に示すように、複数の穴22(開口部)が形成され、電子ビーム200は、すべての複数の穴22が含まれる領域を照明する。複数の穴22の位置に照射された電子ビーム200の各一部が、かかる成形アパーチャアレイ基板203の複数の穴22をそれぞれ通過することによって、マルチ1次電子ビーム20が形成される。
 形成されたマルチ1次電子ビーム20は、電磁レンズ205、及び電磁レンズ206によってそれぞれ屈折させられ、中間像およびクロスオーバーを繰り返しながら、マルチ1次電子ビーム20の各ビームのクロスオーバー位置(各ビームの中間像位置)に配置されたE×B分離器214を通過して電磁レンズ207(対物レンズ)に進む。そして、電磁レンズ207は、マルチ1次電子ビーム20を基板101にフォーカス(合焦)する。対物レンズ207により基板101(試料)面上に焦点が合わされた(合焦された)マルチ1次電子ビーム20は、主偏向器208及び副偏向器209によって一括して偏向され、各ビームの基板101上のそれぞれの照射位置に照射される。なお、一括ブランキング偏向器212によって、マルチ1次電子ビーム20全体が一括して偏向された場合には、制限アパーチャ基板213の中心の穴から位置がはずれ、制限アパーチャ基板213によって遮蔽される。一方、一括ブランキング偏向器212によって偏向されなかったマルチ1次電子ビーム20は、図1に示すように制限アパーチャ基板213の中心の穴を通過する。かかる一括ブランキング偏向器212のON/OFFによって、ブランキング制御が行われ、ビームのON/OFFが一括制御される。このように、制限アパーチャ基板213は、一括ブランキング偏向器212によってビームOFFの状態になるように偏向されたマルチ1次電子ビーム20を遮蔽する。そして、ビームONになってからビームOFFになるまでに形成された、制限アパーチャ基板213を通過したビーム群により、検査用(画像取得用)のマルチ1次電子ビーム20が形成される。
 基板101の所望する位置にマルチ1次電子ビーム20が照射されると、かかるマルチ1次電子ビーム20が照射されたことに起因して基板101からマルチ1次電子ビーム20の各ビームに対応する、反射電子を含む2次電子の束(マルチ2次電子ビーム300)が放出される。
 基板101から放出されたマルチ2次電子ビーム300は、電磁レンズ207を通って、E×B分離器214に進む。
 E×B分離器214は、コイルを用いた2極以上の複数の磁極と、2極以上の複数の電極とを有する。例えば、90°ずつ位相をずらした4極の磁極(電磁偏向コイル)と、同じく90°ずつ位相をずらした4極の電極(静電偏向電極)とを有する。そして、例えば対向する2極の磁極をN極とS極とに設定することで、かかる複数の磁極によって指向性の磁界を発生させる。同様に、例えば対向する2極の電極に符号が逆の電位Vを印加することで、かかる複数の電極によって指向性の電界を発生させる。具体的には、E×B分離器214はマルチ1次電子ビーム20の中心ビームが進む方向(電子軌道中心軸)に直交する面上において電界と磁界を直交する方向に発生させる。電界は電子の進行方向に関わりなく同じ方向に力を及ぼす。これに対して、磁界はフレミング左手の法則に従って力を及ぼす。そのため電子の侵入方向によって電子に作用する力の向きを変化させることができる。E×B分離器214に上側から侵入してくるマルチ1次電子ビーム20には、電界による力と磁界による力が打ち消し合い、マルチ1次電子ビーム20は下方に直進する。これに対して、E×B分離器214に下側から侵入してくるマルチ2次電子ビーム300には、電界による力と磁界による力がどちらも同じ方向に働き、マルチ2次電子ビーム300は斜め上方に曲げられ、マルチ1次電子ビーム20から分離する。
 斜め上方に曲げられ、マルチ1次電子ビーム20から分離したマルチ2次電子ビーム300は、偏向器218によって、さらに曲げられ、電磁レンズ224,226によって、屈折させられながらマルチ検出器222に投影される。マルチ検出器222は、投影されたマルチ2次電子ビーム300を検出する。マルチ検出器222には、反射電子及び2次電子が投影されても良いし、反射電子は途中で発散してしまい残った2次電子が投影されても良い。マルチ検出器222は、2次元センサを有する。そして、マルチ2次電子ビーム300の各2次電子が2次元センサのそれぞれ対応する領域に衝突して、電子を発生し、2次電子画像データを画素毎に生成する。言い換えれば、マルチ検出器222には、マルチ1次電子ビーム20の1次電子ビーム毎に、検出センサが配置される。そして、各1次電子ビームの照射によって放出された対応する2次電子ビームを検出する。よって、マルチ検出器222の複数の検出センサの各検出センサは、それぞれ担当する1次電子ビームの照射に起因する画像用の2次電子ビームの強度信号を検出することになる。マルチ検出器222にて検出された強度信号は、検出回路106に出力される。
 図3は、実施の形態1における半導体基板に形成される複数のチップ領域の一例を示す図である。図3において、基板101が半導体基板(ウェハ)である場合、半導体基板(ウェハ)の検査領域330には、複数のチップ(ウェハダイ)332が2次元のアレイ状に形成されている。各チップ332には、露光用マスク基板に形成された1チップ分のマスクパターンが図示しない露光装置(ステッパ、スキャナ等)によって例えば1/4に縮小されて転写されている。各チップ332の領域は、例えばy方向に向かって所定の幅で複数のストライプ領域32に分割される。画像取得機構150によるスキャン動作は、例えば、ストライプ領域32毎に実施される。例えば、-x方向にステージ105を移動させながら、相対的にx方向にストライプ領域32のスキャン動作を進めていく。各ストライプ領域32は、長手方向に向かって複数の矩形領域33に分割される。対象となる矩形領域33へのビームの移動は、主偏向器208によるマルチ1次電子ビーム20全体での一括偏向によって行われる。
 図4は、実施の形態1におけるマルチビームのスキャン動作を説明するための図である。図4の例では、5×5列のマルチ1次電子ビーム20の場合を示している。1回のマルチ1次電子ビーム20の照射で照射可能な照射領域34は、(基板101面上におけるマルチ1次電子ビーム20のx方向のビーム間ピッチにx方向のビーム数を乗じたx方向サイズ)×(基板101面上におけるマルチ1次電子ビーム20のy方向のビーム間ピッチにy方向のビーム数を乗じたy方向サイズ)で定義される。各ストライプ領域32の幅は、照射領域34のy方向サイズと同様、或いはスキャンマージン分狭くしたサイズに設定すると好適である。図3及び図4の例では、照射領域34が矩形領域33と同じサイズの場合を示している。但し、これに限るものではない。照射領域34が矩形領域33よりも小さくても良い。或いは大きくても構わない。そして、マルチ1次電子ビーム20の各ビームは、自身のビームが位置するx方向のビーム間ピッチとy方向のビーム間ピッチとで囲まれるサブ照射領域29内に照射され、当該サブ照射領域29内を走査(スキャン動作)する。マルチ1次電子ビーム20を構成する各1次電子ビーム10は、互いに異なるいずれかのサブ照射領域29を担当することになる。そして、各ショット時に、各1次電子ビーム10は、担当サブ照射領域29内の同じ位置を照射することになる。サブ照射領域29内の1次電子ビーム10の移動は、副偏向器209によるマルチ1次電子ビーム20全体での一括偏向によって行われる。かかる動作を繰り返し、1つの1次電子ビーム10で1つのサブ照射領域29内を順に照射していく。そして、1つのサブ照射領域29のスキャンが終了したら、主偏向器208によるマルチ1次電子ビーム20全体での一括偏向によって照射位置が同じストライプ領域32内の隣接する矩形領域33へと移動する。かかる動作を繰り返し、ストライプ領域32内を順に照射していく。1つのストライプ領域32のスキャンが終了したら、ステージ105の移動或いは/及び主偏向器208によるマルチ1次電子ビーム20全体での一括偏向によって照射位置が次のストライプ領域32へと移動する。以上のように各1次電子ビーム10の照射によってサブ照射領域29毎の2次電子画像が取得される。これらのサブ照射領域29毎の2次電子画像を組み合わせることで、矩形領域33の2次電子画像、ストライプ領域32の2次電子画像、或いはチップ332の2次電子画像が構成される。
 なお、図4に示すように、各サブ照射領域29が矩形の複数のフレーム領域30に分割され、フレーム領域30単位の2次電子画像(被検査画像)が検査に使用される。図4の例では、1つのサブ照射領域29が、例えば4つのフレーム領域30に分割される場合を示している。但し、分割される数は4つに限るものではない。その他の数に分割されても構わない。
 なお、例えばx方向に並ぶ複数のチップ332を同じグループとして、グループ毎に例えばy方向に向かって所定の幅で複数のストライプ領域32に分割されるようにしても好適である。そして、ストライプ領域32間の移動は、チップ332毎に限るものではなく、グループ毎に行っても好適である。
 ここで、ステージ105が連続移動しながらマルチ1次電子ビーム20を基板101に照射する場合、マルチ1次電子ビーム20の照射位置がステージ105の移動に追従するように主偏向器208によって一括偏向によるトラッキング動作が行われる。そのため、マルチ2次電子ビーム300の放出位置がマルチ1次電子ビーム20の軌道中心軸に対して刻々と変化する。同様に、サブ照射領域29内をスキャンする場合に、各2次電子ビームの放出位置は、サブ照射領域29内で刻々と変化する。このように放出位置が変化した各2次電子ビームをマルチ検出器222の対応する検出領域内に照射させるように、偏向器218は、マルチ2次電子ビーム300を一括偏向する。
 図5は、実施の形態1における検査方法の要部工程を示すフローチャート図である。図5において、実施の形態1における検査方法は、スキャン工程(S102)と、フレーム画像作成工程(S104)と、実画輪郭位置抽出工程(S106)と、参照輪郭位置抽出工程(S108)と、平均シフトベクトル算出工程(S110)と、位置合わせ工程(S112)と、歪係数算出工程(S120)と、歪ベクトル推定工程(S122)と、欠陥位置ずれベクトル算出工程(S142)と、比較工程(S144)と、いう一連の工程を実施する。平均シフトベクトル算出工程(S110)を省略する構成であっても構わない。或いは、平均シフトベクトル算出工程(S110)を省略する代わりに、歪係数算出工程(S120)と歪ベクトル推定工程(S122)を省略する構成であっても構わない。
 スキャン工程(S102)として、画像取得機構150は、図形パターンが形成された基板101の画像を取得する。ここでは、複数の図形パターンが形成された基板101にマルチ1次電子ビーム20を照射して、マルチ1次電子ビーム20の照射に起因して基板101から放出されるマルチ2次電子ビーム300を検出することにより、基板101の2次電子画像を取得する。上述したように、マルチ検出器222には、反射電子及び2次電子が投影されても良いし、反射電子は途中で発散してしまい残った2次電子(マルチ2次電子ビーム300)が投影されても良い。
 上述したように、マルチ1次電子ビーム20の照射に起因して基板101から放出されるマルチ2次電子ビーム300は、マルチ検出器222で検出される。マルチ検出器222によって検出された各サブ照射領域29内の画素毎の2次電子の検出データ(測定画像データ:2次電子画像データ:被検査画像データ)は、測定順に検出回路106に出力される。検出回路106内では、図示しないA/D変換器によって、アナログの検出データがデジタルデータに変換され、チップパターンメモリ123に格納される。そして、得られた測定画像データは、位置回路107からの各位置を示す情報と共に、比較回路108に転送される。
 図6は、実施の形態1における比較回路内の構成の一例を示すブロック図である。図6において、実施の形態1における比較回路108内には、磁気ディスク装置等の記憶装置50,51,52,53,56,57、フレーム画像作成部54、実画輪郭位置抽出部58、個別シフトベクトル算出部60、重み付き平均シフトベクトル算出部62、歪係数算出部66、歪ベクトル推定部68、欠陥位置ずれベクトル算出部82、及び比較処理部84が配置される。フレーム画像作成部54、実画輪郭位置抽出部58、個別シフトベクトル算出部60、重み付き平均シフトベクトル算出部62、歪係数算出部66、歪ベクトル推定部68、欠陥位置ずれベクトル算出部82、及び比較処理部84といった各「~部」は、処理回路を含み、その処理回路には、電気回路、コンピュータ、プロセッサ、回路基板、量子回路、或いは、半導体装置等が含まれる。また、各「~部」は、共通する処理回路(同じ処理回路)を用いてもよい。或いは、異なる処理回路(別々の処理回路)を用いても良い。フレーム画像作成部54、実画輪郭位置抽出部58、個別シフトベクトル算出部60、重み付き平均シフトベクトル算出部62、歪係数算出部66、歪ベクトル推定部68、欠陥位置ずれベクトル算出部82、及び比較処理部84内に必要な入力データ或いは演算された結果はその都度図示しないメモリ、或いはメモリ118に記憶される。
 比較回路108内に転送された測定画像データ(スキャン画像)は、記憶装置50に格納される。
 フレーム画像作成工程(S104)として、フレーム画像作成部54は、各1次電子ビーム10のスキャン動作によって取得されたサブ照射領域29の画像データをさらに分割した複数のフレーム領域30のフレーム領域30毎のフレーム画像31を作成する。なお、各フレーム領域30は、画像の抜けが無いように、互いにマージン領域が重なり合うように構成されると好適である。作成されたフレーム画像31は、記憶装置56に格納される。
 実画輪郭位置抽出工程(S106)として、実画輪郭位置抽出部58は、フレーム画像31毎に、当該フレーム画像31内の各図形パターンの複数の輪郭位置(実画輪郭位置)を抽出する。
 図7は、実施の形態1における実画輪郭位置の一例を示す図である。輪郭位置の抽出の仕方は、従来の手法で構わない。例えば、ソーベルフィルタ等の微分フィルタを用いてx,y方向に各画素を微分する微分フィルタ処理を行い、x,y方向の1次微分値を合成する。そして合成後の1次微分値を用いたプロファイルのピーク位置を輪郭線(実画輪郭線)上の輪郭位置として抽出する。図7の例では、実画輪郭線が通る複数の輪郭画素について、それぞれ1点ずつ輪郭位置を抽出した場合を示している。輪郭位置は、各輪郭画素内においてサブ画素単位で抽出される。図7の例では、画素内の座標(x,y)で輪郭位置を示している。また、複数の輪郭位置を所定の関数でフィッティングして近似する輪郭線の各輪郭位置での法線方向の角度θを示している。法線方向の角度θは、x軸に対する右回りの角度で定義される。得られた各実画輪郭位置の情報(実画輪郭線データ)は、記憶装置57に格納される。
 参照輪郭位置抽出工程(S108)として、参照輪郭位置抽出回路112は、複数の実画輪郭位置と比較するための複数の参照輪郭位置を抽出する。参照輪郭位置の抽出は、設計データから抽出しても良いし、或いは、まず、設計データから参照画像を作成し、参照画像を用いて測定画像であるフレーム画像31の場合と同様の手法で参照輪郭位置を抽出しても構わない。或いは、その他の従来の手法で複数の参照輪郭位置を抽出するようにしても良い。
 図8は、実施の形態1における参照輪郭位置を抽出する手法の一例を説明するための図である。図8の例では、設計データから参照輪郭位置を抽出する手法の一例を示す。図8において、参照輪郭位置抽出回路112は、記憶装置109から基板101に形成されたパターンの元になる設計パターンデータ(設計データ)を読み出す。参照輪郭位置抽出回路112は、設計データに対して、画素サイズのグリッドを設定する。画素に相当する四角形の中で、直線部の中点を参照輪郭位置とする。図形パターンの角部(コーナー)が存在する場合は、コーナー頂点を参照輪郭位置とする。コーナーが複数存在する場合は、コーナー頂点の中間点を参照輪郭位置にする。以上により、フレーム領域30内の設計パターンとしての図形パターンの輪郭位置を精度よく抽出できる。得られた各参照輪郭位置の情報(参照輪郭線データ)は、比較回路108に出力される。比較回路108では、参照輪郭線データが記憶装置52に格納される。
 平均シフトベクトル算出工程(S110)を省略する場合、歪係数算出工程(S120)に進む。平均シフトベクトル算出工程(S110)を省略しない場合、平均シフトベクトル算出工程(S110)に進む。
 平均シフトベクトル算出工程(S110)として、重み付き平均シフトベクトル算出部62は、フレーム画像31内の図形パターンの実画輪郭線上の複数の実画輪郭位置と複数の参照輪郭位置とを用いて、複数の実画輪郭位置と複数の参照輪郭位置との間で平行シフトによる位置合わせを行うための実画輪郭線の法線方向に重み付けされた平均シフトベクトルDaveを算出する。具体的には、以下のように動作する。
 図9は、実施の形態1における個別シフトベクトルの一例を示す図である。実施の形態1における個別シフトベクトルは、図9に示すように、注目する実画輪郭位置と、注目実画輪郭位置に対応する参照輪郭位置との相対ベクトルを注目実画輪郭位置での法線方向へ射影した成分とする。個別シフトベクトル算出部60は、複数の実画輪郭位置の実画輪郭位置毎に個別シフトベクトルを算出する。注目実画輪郭位置に対応する参照輪郭位置として、注目実画輪郭位置から最も近い参照輪郭位置を用いる。
 図10は、実施の形態1における重み付き平均シフトベクトルを算出する手法を説明するための図である。図10において、重み付き平均シフトベクトル算出部62は、実画輪郭位置iの個別シフトベクトルDのx方向成分Dxとy方向成分Dyと法線方向角度Aを用いて、フレーム画像31毎に、法線方向に重み付けされた平均シフトベクトルDaveを算出する。実画輪郭位置iは、同じフレーム画像31内のi番目の実画輪郭位置を示す。法線方向に直交する実画輪郭線の接線方向のシフトベクトル成分には情報が無いが、シフト量(ベクトル量)はゼロになる。真のシフト量がゼロの場合と区別するため(平均計算に誤差が生じないように)、法線方向に重み付けして計算する。図10では、平均シフトベクトルDaveのx方向成分Dxaveとy方向成分Dyaveを求める式が示されている。平均シフトベクトルDaveのx方向成分Dxaveは、個別シフトベクトルDのx方向成分Dxの合計をcosAの絶対値の合計で割ることで得ることができる。平均シフトベクトルDaveのy方向成分Dyaveは、個別シフトベクトルDのy方向成分Dyの合計をsinAの絶対値の合計で割ることで得ることができる。平均シフトベクトルDaveの情報は記憶装置51に格納される。
 歪係数算出工程(S120)と歪ベクトル推定工程(S122)とを省略する場合、位置ずれベクトル算出工程(S142)に進む。
 欠陥位置ずれベクトル算出工程(S142)として、欠陥位置ずれベクトル算出部82は、複数の実画輪郭位置の各実画輪郭位置と、それぞれ対応する参照輪郭位置との間での平均シフトベクトルDaveを考慮した欠陥位置ずれベクトルを算出する。
 図11は、実施の形態1における平均シフトベクトルを考慮した欠陥位置ずれベクトルを説明するための図である。上述したように、輪郭線同士のずれには、欠陥による位置ずれの他に、画像自体の歪に起因する位置ずれが含まれる。よって、輪郭線同士の欠陥の有無を正確に検査するためには、測定画像であるフレーム画像31自体の歪に起因するずれ分を補正するために、フレーム画像31の実画輪郭線と参照輪郭線との間での高精度な位置合わせを行う必要がある。位置合わせ前の実画輪郭位置と参照輪郭位置との間の位置ずれベクトル(相対ベクトル)には、画像の歪分が含まれている。図11の例では、歪分の位置ずれ成分として、同じフレーム画像31内で共通の平均シフトベクトルDaveを用いる。そこで、画像の歪分を補正する位置合わせ処理を別に行う代わりに、欠陥位置ずれベクトル算出部82は、位置合わせ前の実画輪郭位置と参照輪郭位置との間の位置ずれベクトル(相対ベクトル)から平均シフトベクトルDaveを差し引いた欠陥位置ずれベクトル(平均シフト後)を算出する。これにより、位置合わせと同じ効果を得ることができる。
 比較工程(S144)として、比較処理部84(比較部)は、平均シフトベクトルDaveを用いて、実画輪郭線と参照輪郭線とを比較する。具体的には、比較処理部84は、複数の実画輪郭位置の各実画輪郭位置と、それぞれ対応する参照輪郭位置との間での平均シフトベクトルDaveを考慮した欠陥位置ずれベクトルの大きさ(距離)が判定閾値を超えた場合に欠陥と判定する。比較結果は、記憶装置109、モニタ117、若しくはメモリ118に出力される。
 以上のように、平均シフトベクトルDaveを使った平行シフトによる歪補正を行うことで、位置ずれ量から歪に起因した位置ずれ分を除いた欠陥に起因する位置ずれ成分の検査ができる。また、法線方向に重み付けを行うことで信頼性に乏しい接線方向成分の寄与を低減できる。
 なお、画像の歪には、平行シフトでは補正しきれない補正残差が残ってしまう場合がある。そこで、次に、平行シフトよりも高精度な歪補正を行うことが可能な構成について説明する。
 具体的には、平均シフトベクトル算出工程(S110)を省略する場合について説明する。かかる場合には、実画輪郭位置と参照輪郭位置とを抽出した後、歪係数算出工程(S120)に進む。或いは、平均シフトベクトル算出工程(S110)と歪係数算出工程(S120)と歪ベクトル推定工程(S122)とを省略しない場合について説明する。かかる場合には、平均シフトベクトル算出工程(S110)の後に歪係数算出工程(S120)に進む。
 歪係数算出工程(S120)として、歪係数算出部66は、フレーム画像31内の図形パターンの実画輪郭線上の複数の実画輪郭位置と、実画輪郭線と比較するための参照輪郭線上の複数の参照輪郭位置とを用いて、フレーム画像31の歪に起因する複数の実画輪郭位置の法線方向に重み付けして歪係数を算出する。歪係数算出部66は、2次元歪モデルを用いて、歪係数を算出する。
 図12は、実施の形態1における2次元歪モデルを説明するための図である。図12の例では、個別シフトベクトルDを多項式でフィッティングする歪の式を用いた2次元歪モデルを示している。さらに、法線方向への重み係数Wを考慮した重み付けを行う。図12の2次元歪モデルでは、3次多項式を用いる。そのため、図12の2次元歪モデルでは、重み係数Wと方程式行列Zと3次多項式の係数である歪係数Cと個別シフトベクトルDとを用いて、次の式(1)で示す2次元歪モデルの方程式を用いる。
(1) WZC=WD
 歪係数算出部66は、式(1)がフレーム画像31内の各実画輪郭位置iに対して全体の誤差が小さくなるような歪係数Cを求める。具体的には以下のようにして求める。式(1)をx方向成分とy方向成分とに分けて定義する。x方向成分の歪の式は、実画輪郭位置iのフレーム領域30内座標(x,y)を用いて、次の式(2-1)で定義される。y方向成分の歪の式は、実画輪郭位置iのフレーム領域30内座標(x,y)を用いて、次の式(2-2)で定義される。
(2-1) Dx(x,y
      =C00+C01+C02+C03 +C04
      +C05 +C06 +C07 +C08
      +C09
(2-2) Dy(x,y
      =C10+C11+C12+C13 +C14
      +C15 +C16 +C17 +C18
      +C19
 ここでは、歪みを3次多項式で表しているが、実際の歪の複雑度に合わせて、2次以下の式や、4次以上の式で表すことができる。
 よって、x方向成分の歪係数Cxは、3次多項式の各係数C00,C01,C02,・・・,C09である。y方向の歪係数Cyは、同じ3次多項式の各係数C10,C11,C12,・・・,C19である。また、方程式行列Zの各行の要素は3次多項式の各係数を1とした場合の各項(1,x,y,x ,x,y ,x ,x ,x ,y )となる。
 x方向成分の各実画輪郭位置iの重み係数Wx(x,y)は、法線方向の角度A(x,y)と重みの累乗数nを用いて次の式(3-1)で定義される。同様に、y方向成分の各実画輪郭位置iの重み係数Wy(x,y)は、法線方向の角度A(x,y)と重みの累乗数nを用いて次の式(3-2)で定義される。
(3-1) Wx(x,y)=cos(A(x,y))
(3-2) Wy(x,y)=sin(A(x,y))
 ここでは、重みを累乗することにより先鋭化を行っているが、ロジスティック関数やアークタンジェント関数などの一般的な関数を用いることによって重みの先鋭化を行うことができる。
 式(1)をx方向成分とy方向成分とに分けて、図12に示すように、それぞれ行列で定義する。かかる行列の式を解くことで、x方向成分の歪係数Cxとy方向の歪係数Cyとを算出する。実画輪郭位置iの数は、x方向成分の歪係数C00,C01,C02,・・・,C09の数(9つ)よりも通常多いので、誤差ができるだけ小さくなるように算出すればよい。y方向成分の歪係数C10,C11,C12,・・・,C19についても同様に算出すればよい。ここで、式(1)に最小二乗法を適用して、式(4)に示すような演算を行い、係数Cを求めると好適である。
 (4) C=((WZ)(WZ))-1(WZ)WD
 (M-1は行列Mの逆行列、Mは行列Mの転置行列を表す)
 ここで、歪係数を算出する際、平均シフトベクトル算出工程(S110)を省略する場合、図12で示すDx(x,y),Dy(x,y),A(x,y)として、図10で説明した実画輪郭位置iの個別シフトベクトルDのx方向成分Dxとy方向成分Dyと法線方向角度Aiを用いればよい。平均シフトベクトル算出工程(S110)を省略せずに、平均シフトベクトル算出工程(S110)の後に歪係数を算出する場合、図12で示すDx(x,y),Dy(x,y),A(x,y)として、平均シフトベクトルDaveで各個別シフトベクトルDを補正して歪係数を算出ずればよい。
 ここでは、平均シフトベクトル算出工程とは他の手段でシフトベクトルを求め、補正することも出来る。例えば、ダイ-ダイ検査における2つの検査画像に対して一般的なアライメント方法を適用して、シフトベクトルを求めても良い。
 歪ベクトル推定工程(S122)として、歪ベクトル推定部68は、複数の実画輪郭位置の実画輪郭位置毎に、歪係数Cを用いてフレーム内座標(x,y)における歪ベクトルを推定する。具体的には、得られたx方向成分の歪係数C00,C01,C02,・・・,C09を用いた式(2-1)と、得られたy方向成分の歪係数C10,C11,C12,・・・,C19を用いた式(2-2)をフレーム内座標(x,y)に対して計算して得られるx方向の歪量Dxとy方向の歪量Dyとを合成し、歪ベクトルDhを推定する。
 欠陥位置ずれベクトル算出工程(S142)として、欠陥位置ずれベクトル算出部82は、複数の実画輪郭位置の各実画輪郭位置と、それぞれ対応する参照輪郭位置との間での歪ベクトルDhを考慮した欠陥位置ずれベクトルを算出する。
 図13は、実施の形態1における歪ベクトルを考慮した欠陥位置ずれベクトルを説明するための図である。上述したように、輪郭線同士のずれには、欠陥による位置ずれの他に、画像自体の歪に起因する位置ずれが含まれる。よって、輪郭線同士の欠陥の有無を正確に検査するためには、測定画像であるフレーム画像31自体の歪に起因するずれ分を補正するために、フレーム画像31の実画輪郭線と参照輪郭線との間での高精度な位置合わせを行う必要がある。位置合わせ前の実画輪郭位置と参照輪郭位置との間の位置ずれベクトル(相対ベクトル)には、画像の歪分が含まれている。図13の例では、歪分の位置ずれ成分として、個別の歪ベクトルDhを用いる。そこで、画像の歪分を補正する位置合わせ処理を別に行う代わりに、欠陥位置ずれベクトル算出部82は、位置合わせ前の実画輪郭位置と参照輪郭位置との間の位置ずれベクトル(相対ベクトル)から個別の歪ベクトルDhを差し引いた欠陥位置ずれベクトル(歪補正後)を算出する。これにより、位置合わせと同じ効果を得ることができる。
 ここで、平均シフトベクトル算出工程(S110)を省略せずに、平均シフトベクトル算出工程(S110)の後に歪係数を算出する場合、欠陥位置ずれベクトル算出部82は、位置合わせ前の実画輪郭位置と参照輪郭位置との間の位置ずれベクトル(相対ベクトル)から個別の歪ベクトルDhの他にさらに平均シフトベクトルDaveを差し引いた欠陥位置ずれベクトル(歪補正後)を算出する。
 比較工程(S144)として、比較処理部84(比較部)は、実画輪郭位置毎の個別の歪ベクトルDを用いて、実画輪郭線と参照輪郭線とを比較する。具体的には、比較処理部84は、複数の実画輪郭位置の各実画輪郭位置と、それぞれ対応する参照輪郭位置との間での個別の歪ベクトルDhを考慮した欠陥位置ずれベクトルの大きさ(距離)が判定閾値を超えた場合に欠陥と判定する。言い換えれば、比較処理部84は、実画輪郭位置毎に、個別の歪ベクトルDによる補正後の位置から対応する参照輪郭位置への欠陥位置ずれベクトルの大きさが判定閾値を超えた場合に欠陥と判定する。比較結果は、記憶装置109、モニタ117、若しくはメモリ118に出力される。
 以上により、平行シフトでは補正しきれない回転誤差、倍率誤差、直交誤差、あるいはより高次の歪についても補正できる。これにより位置ずれ量からさらに精度良く歪に起因した位置ずれ分を除いた欠陥に起因する位置ずれ成分の検査ができる。また、法線方向に重み付けを行うことで信頼性に乏しい接線方向成分の寄与を低減できる。
 図14は、実施の形態1における歪を付加した画像の位置ずれ量の測定結果と法線方向への重み付けを行わずに歪推定を行った位置ずれ量との一例を示す図である。図14では、512×512画素のフレーム画像31内に歪を付加した場合の位置ずれ量(付加歪)の測定結果を示す(測定点はフレーム内の9×9点)。また、かかる各位置での位置ずれ量を法線方向への重み付けを行わずに歪係数を求め、歪ベクトルを推定した結果(推定歪)を示す。図14に示すように、法線方向への重み付けを行わない場合、付加歪と推定歪との間に誤差が残ることがわかる。
 図15は、実施の形態1における歪を付加した画像の位置ずれ量の測定結果と法線方向への重み付けを行った歪推定を行った位置ずれ量との一例を示す図である。図15では、512×512画素のフレーム画像31内に歪を付加した場合の位置ずれ量(付加歪)の測定結果を示す(測定点はフレーム内の9×9点)。また、かかる各位置での位置ずれ量を法線方向への重み付けとして、式(3-1)と式(3-2)の重み係数の重みの累乗数nをn=3にした場合の歪係数を求め、歪ベクトルを推定した結果(推定歪)を示す。図15に示すように、法線方向への重み付けを行った場合、付加歪と推定歪との間に誤差が低減できる。
 上述した例では、設計データに基づいて作成された参照画像或いは設計データから得られた参照輪郭位置(或いは参照輪郭線)と測定画像であるフレーム画像との間で比較する場合(ダイ-データベース検査)を説明したが、これに限るものではない。例えば、同じパターンが形成された複数のダイの一方のフレーム画像と他方のフレーム画像との間で比較する場合(ダイ-ダイ検査)であっても構わない。ダイ-ダイ検査の場合、参照輪郭位置は、ダイ1のフレーム画像31内の複数の輪郭位置を抽出した場合と同じ手法でダイ2のフレーム画像31内の複数の輪郭位置を抽出すればよい。そして、両者間の距離を算出すればよい。
 以上のように、実施の形態1によれば、測定画像の歪に起因する位置ずれを考慮した検査ができる。また、法線方向に重み付けを行うことで信頼性に乏しい接線方向成分の寄与を低減できる。また、計算量の大きい処理を行うことなく、歪係数算出の精度を高めることができる。よって、適度な検査時間の中での欠陥検出感度を向上できる。
 以上の説明において、一連の「~回路」は、処理回路を含み、その処理回路には、電気回路、コンピュータ、プロセッサ、回路基板、量子回路、或いは、半導体装置等が含まれる。また、各「~回路」は、共通する処理回路(同じ処理回路)を用いてもよい。或いは、異なる処理回路(別々の処理回路)を用いても良い。プロセッサ等を実行させるプログラムは、磁気ディスク装置、フラッシュメモリ等の記録媒体に記録されればよい。例えば、位置回路107、比較回路108、参照輪郭位置抽出回路112、ステージ制御回路114、レンズ制御回路124、ブランキング制御回路126、及び偏向制御回路128は、上述した少なくとも1つの処理回路で構成されても良い。
 以上、具体例を参照しながら実施の形態について説明した。しかし、本発明は、これらの具体例に限定されるものではない。図1の例では、1つの照射源となる電子銃201から照射された1本のビームから成形アパーチャアレイ基板203によりマルチ1次電子ビーム20を形成する場合を示しているが、これに限るものではない。複数の照射源からそれぞれ1次電子ビームを照射することによってマルチ1次電子ビーム20を形成する態様であっても構わない。
 また、装置構成や制御手法等、本発明の説明に直接必要しない部分等については記載を省略したが、必要とされる装置構成や制御手法を適宜選択して用いることができる。
 その他、本発明の要素を具備し、当業者が適宜設計変更しうる全てのアライメント方法、歪み補正方法、パターン検査方法、及びパターン検査装置は、本発明の範囲に包含される。
 パターン検査装置及びパターン検査方法に関する。例えば、電子線によるマルチビームで基板を照射して放出されるパターンの2次電子画像を用いて検査する検査装置、紫外線で基板を照射して得られるパターンの光学画像を用いて検査する検査装置、およびかかる方法に利用できる。
10 1次電子ビーム
20 マルチ1次電子ビーム
22 穴
29 サブ照射領域
30 フレーム領域
31 フレーム画像
32 ストライプ領域
33 矩形領域
34 照射領域
50,51,52,53,56,57 記憶装置
54 フレーム画像作成部
58 実画輪郭位置抽出部
60 個別シフトベクトル算出部
62 重み付き平均シフトベクトル算出部
66 歪係数算出部
68 歪ベクトル推定部
82 欠陥位置ずれベクトル算出部
84 比較処理部
100 検査装置
101 基板
102 電子ビームカラム
103 検査室
105 ステージ
106 検出回路
107 位置回路
108 比較回路
109 記憶装置
110 制御計算機
112 参照輪郭位置抽出回路
114 ステージ制御回路
117 モニタ
118 メモリ
120 バス
122 レーザ測長システム
123 チップパターンメモリ
124 レンズ制御回路
126 ブランキング制御回路
128 偏向制御回路
142 駆動機構
144,146,148 DACアンプ
150 画像取得機構
160 制御系回路
201 電子銃
202 電磁レンズ
203 成形アパーチャアレイ基板
205,206,207,224,226 電磁レンズ
208 主偏向器
209 副偏向器
212 一括ブランキング偏向器
213 制限アパーチャ基板
214 ビームセパレーター
216 ミラー
218 偏向器
222 マルチ検出器
300 マルチ2次電子ビーム
330 検査領域
332 チップ

 

Claims (10)

  1.  図形パターンが形成された基板の被検査画像を取得する画像取得機構と、
     前記被検査画像内の前記図形パターンの実画輪郭線上の複数の実画輪郭位置と、前記実画輪郭線と比較するための参照輪郭線上の複数の参照輪郭位置とを用いて、前記被検査画像の歪に起因する前記複数の実画輪郭位置の所定の方向に重み付けして歪係数を算出する歪係数算出回路と、
     前記複数の実画輪郭位置の実画輪郭位置毎に、前記歪係数を用いて歪ベクトルを推定する歪ベクトル推定回路と、
     前記実画輪郭位置毎の前記歪ベクトルを用いて、前記実画輪郭線と前記参照輪郭線とを比較する比較回路と、
     を備えたことを特徴とするパターン検査装置。
  2.  前記歪係数算出回路は、2次元歪モデルを用いて、前記歪係数を算出することを特徴とする請求項1記載のパターン検査装置。
  3.  前記比較回路は、実画輪郭位置毎に、前記歪ベクトルによる補正後の位置から対応する参照輪郭位置への位置ずれベクトルの大きさが判定閾値を超えた場合に欠陥と判定することを特徴とする請求項1記載のパターン検査装置。
  4.  図形パターンが形成された基板の被検査画像を取得する画像取得機構と、
     前記被検査画像内の前記図形パターンの実画輪郭線上の複数の実画輪郭位置と、前記複数の実画輪郭位置と比較するための複数の参照輪郭位置と、を用いて、前記複数の実画輪郭位置と、前記複数の参照輪郭位置との間で平行シフトによる位置合わせを行うための前記実画輪郭線の所定の方向に重み付けされた平均シフトベクトルを算出する平均シフトベクトル算出回路と、
     前記平均シフトベクトルを用いて、前記実画輪郭線と前記参照輪郭線とを比較する比較回路と、
     を備えたことを特徴とするパターン検査装置。
  5.  前記比較回路は、前記複数の実画輪郭位置の各実画輪郭位置と、それぞれ対応する参照輪郭位置との間での前記平均シフトベクトルを考慮した欠陥位置ずれベクトルの大きさが判定閾値を超えた場合に欠陥と判定することを特徴とする請求項4記載のパターン検査装置。
  6.  図形パターンが形成された基板の被検査画像を取得し、
     前記被検査画像内の前記図形パターンの実画輪郭線上の複数の実画輪郭位置と、前記実画輪郭線と比較するための参照輪郭線上の複数の参照輪郭位置とを用いて、前記被検査画像の歪に起因する前記複数の実画輪郭位置の所定の方向に重み付けして歪係数を算出し、
     前記複数の実画輪郭位置の実画輪郭位置毎に、前記歪係数を用いて歪ベクトルを推定し、
     前記実画輪郭位置毎の前記歪ベクトルを用いて、前記実画輪郭線と前記参照輪郭線とを比較し、結果を出力する、
     ことを特徴とするパターン検査方法。
  7.  2次元歪モデルを用いて、前記歪係数を算出することを特徴とする請求項6記載のパターン検査方法。
  8.  前記実画輪郭位置毎に、前記歪ベクトルによる補正後の位置から対応する参照輪郭位置への位置ずれベクトルの大きさが判定閾値を超えた場合に欠陥と判定することを特徴とする請求項6記載のパターン検査方法。
  9.  図形パターンが形成された基板の被検査画像を取得し、
     前記被検査画像内の前記図形パターンの実画輪郭線上の複数の実画輪郭位置と、前記複数の実画輪郭位置と比較するための複数の参照輪郭位置と、を用いて、前記複数の実画輪郭位置と、前記複数の参照輪郭位置との間で平行シフトによる位置合わせを行うための前記実画輪郭線の所定の方向に重み付けされた平均シフトベクトルを算出し、
     前記平均シフトベクトルを用いて、前記実画輪郭線と前記参照輪郭線とを比較し、結果を出力する、
     ことを特徴とするパターン検査方法。
  10.  前記実画輪郭線と前記参照輪郭線とを比較する際に、前記複数の実画輪郭位置の各実画輪郭位置と、それぞれ対応する参照輪郭位置との間での前記平均シフトベクトルを考慮した欠陥位置ずれベクトルの大きさが判定閾値を超えた場合に欠陥と判定することを特徴とする請求項9記載のパターン検査方法。
     
PCT/JP2021/018379 2020-07-13 2021-05-14 パターン検査装置及びパターン検査方法 WO2022014136A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US18/004,683 US20230251207A1 (en) 2020-07-13 2021-05-14 Pattern inspection apparatus and pattern inspection method
KR1020227043076A KR20230009453A (ko) 2020-07-13 2021-05-14 패턴 검사 장치 및 패턴 검사 방법

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020119715A JP2022016780A (ja) 2020-07-13 2020-07-13 パターン検査装置及びパターン検査方法
JP2020-119715 2020-07-13

Publications (1)

Publication Number Publication Date
WO2022014136A1 true WO2022014136A1 (ja) 2022-01-20

Family

ID=79554618

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/018379 WO2022014136A1 (ja) 2020-07-13 2021-05-14 パターン検査装置及びパターン検査方法

Country Status (5)

Country Link
US (1) US20230251207A1 (ja)
JP (1) JP2022016780A (ja)
KR (1) KR20230009453A (ja)
TW (1) TWI773329B (ja)
WO (1) WO2022014136A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116863253B (zh) * 2023-09-05 2023-11-17 光谷技术有限公司 基于大数据分析的运维风险预警方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006014292A (ja) * 2004-05-28 2006-01-12 Toshiba Corp 画像データの補正方法、リソグラフィシミュレーション方法、プログラム及びマスク
JP2007149055A (ja) * 2005-05-19 2007-06-14 Nano Geometry Kenkyusho:Kk パターン検査装置および方法
WO2011148975A1 (ja) * 2010-05-27 2011-12-01 株式会社日立ハイテクノロジーズ 画像処理装置、荷電粒子線装置、荷電粒子線装置調整用試料、およびその製造方法
JP2013190418A (ja) * 2012-03-12 2013-09-26 Advantest Corp パターン検査装置及びパターン検査方法
JP2013246162A (ja) * 2012-05-30 2013-12-09 Hitachi High-Technologies Corp 欠陥検査方法および欠陥検査装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6868175B1 (en) * 1999-08-26 2005-03-15 Nanogeometry Research Pattern inspection apparatus, pattern inspection method, and recording medium
JP5320216B2 (ja) 2009-08-26 2013-10-23 パナソニック株式会社 画像処理装置、画像処理システムおよび画像処理方法
JP2011247957A (ja) * 2010-05-24 2011-12-08 Toshiba Corp パターン検査方法および半導体装置の製造方法
JP6546509B2 (ja) * 2015-10-28 2019-07-17 株式会社ニューフレアテクノロジー パターン検査方法及びパターン検査装置
JP6759053B2 (ja) * 2016-10-26 2020-09-23 株式会社ニューフレアテクノロジー 偏光イメージ取得装置、パターン検査装置、偏光イメージ取得方法、及びパターン検査方法
JP2019020292A (ja) * 2017-07-19 2019-02-07 株式会社ニューフレアテクノロジー パターン検査装置及びパターン検査方法
JP7030566B2 (ja) * 2018-03-06 2022-03-07 株式会社ニューフレアテクノロジー パターン検査方法及びパターン検査装置
US11301748B2 (en) * 2018-11-13 2022-04-12 International Business Machines Corporation Automatic feature extraction from aerial images for test pattern sampling and pattern coverage inspection for lithography

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006014292A (ja) * 2004-05-28 2006-01-12 Toshiba Corp 画像データの補正方法、リソグラフィシミュレーション方法、プログラム及びマスク
JP2007149055A (ja) * 2005-05-19 2007-06-14 Nano Geometry Kenkyusho:Kk パターン検査装置および方法
WO2011148975A1 (ja) * 2010-05-27 2011-12-01 株式会社日立ハイテクノロジーズ 画像処理装置、荷電粒子線装置、荷電粒子線装置調整用試料、およびその製造方法
JP2013190418A (ja) * 2012-03-12 2013-09-26 Advantest Corp パターン検査装置及びパターン検査方法
JP2013246162A (ja) * 2012-05-30 2013-12-09 Hitachi High-Technologies Corp 欠陥検査方法および欠陥検査装置

Also Published As

Publication number Publication date
KR20230009453A (ko) 2023-01-17
TWI773329B (zh) 2022-08-01
TW202217998A (zh) 2022-05-01
US20230251207A1 (en) 2023-08-10
JP2022016780A (ja) 2022-01-25

Similar Documents

Publication Publication Date Title
JP7352447B2 (ja) パターン検査装置及びパターン検査方法
JP2020144010A (ja) マルチ電子ビーム検査装置及びマルチ電子ビーム検査方法
TWI814344B (zh) 多二次電子束的對準方法、多二次電子束的對準裝置以及電子束檢查裝置
KR102586444B1 (ko) 패턴 검사 장치 및 패턴의 윤곽 위치 취득 방법
WO2022014136A1 (ja) パターン検査装置及びパターン検査方法
US20230145411A1 (en) Pattern inspection apparatus, and method for acquiring alignment amount between outlines
JP7386619B2 (ja) 電子ビーム検査方法及び電子ビーム検査装置
JP6966319B2 (ja) マルチビーム画像取得装置及びマルチビーム画像取得方法
US20220336183A1 (en) Multiple electron beam image acquisition method, multiple electron beam image acquisition apparatus, and multiple electron beam inspection apparatus
WO2021235076A1 (ja) パターン検査装置及びパターン検査方法
WO2021181953A1 (ja) 画像内のホールパターンの探索方法、パターン検査方法、パターン検査装置、及び画像内のホールパターンの探索装置
WO2021250997A1 (ja) マルチ電子ビーム画像取得装置及びマルチ電子ビーム画像取得方法
WO2021140866A1 (ja) パターン検査装置及びパターン検査方法
JP2021044461A (ja) アライメントマーク位置の検出方法及びアライメントマーク位置の検出装置
WO2021205729A1 (ja) マルチ電子ビーム検査装置及びマルチ電子ビーム検査方法
WO2021205728A1 (ja) マルチ電子ビーム検査装置及びマルチ電子ビーム検査方法
WO2022102266A1 (ja) 画像補正装置、パターン検査装置、及び画像補正方法
JP2022077421A (ja) 電子ビーム検査装置及び電子ビーム検査方法
JP2022126438A (ja) 線分画像作成方法及び線分画像作成装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21842911

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 20227043076

Country of ref document: KR

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21842911

Country of ref document: EP

Kind code of ref document: A1