WO2020111258A1 - 仮想測定装置、仮想測定方法及び仮想測定プログラム - Google Patents

仮想測定装置、仮想測定方法及び仮想測定プログラム Download PDF

Info

Publication number
WO2020111258A1
WO2020111258A1 PCT/JP2019/046869 JP2019046869W WO2020111258A1 WO 2020111258 A1 WO2020111258 A1 WO 2020111258A1 JP 2019046869 W JP2019046869 W JP 2019046869W WO 2020111258 A1 WO2020111258 A1 WO 2020111258A1
Authority
WO
WIPO (PCT)
Prior art keywords
processing
unit
series data
time
data
Prior art date
Application number
PCT/JP2019/046869
Other languages
English (en)
French (fr)
Inventor
拓郎 筒井
Original Assignee
東京エレクトロン株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 東京エレクトロン株式会社 filed Critical 東京エレクトロン株式会社
Priority to KR1020217019299A priority Critical patent/KR20210096155A/ko
Priority to US17/294,509 priority patent/US20220011747A1/en
Priority to JP2020557874A priority patent/JP7118170B2/ja
Priority to CN201980076426.6A priority patent/CN113169036A/zh
Publication of WO2020111258A1 publication Critical patent/WO2020111258A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B23/00Testing or monitoring of control systems or parts thereof
    • G05B23/02Electric testing or monitoring
    • G05B23/0205Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults
    • G05B23/0218Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults characterised by the fault detection method dealing with either existing or incipient faults
    • G05B23/0221Preprocessing measurements, e.g. data collection rate adjustment; Standardization of measurements; Time series or signal analysis, e.g. frequency analysis or wavelets; Trustworthiness of measurements; Indexes therefor; Measurements using easily measured parameters to estimate parameters difficult to measure; Virtual sensor creation; De-noising; Sensor fusion; Unconventional preprocessing inherently present in specific fault detection methods like PCA-based methods
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/06Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness for measuring thickness ; e.g. of sheet material
    • G01B11/0616Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness for measuring thickness ; e.g. of sheet material of coating
    • G01B11/0658Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness for measuring thickness ; e.g. of sheet material of coating with measurement of emissivity or reradiation
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/418Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM]
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B23/00Testing or monitoring of control systems or parts thereof
    • G05B23/02Electric testing or monitoring
    • G05B23/0205Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults
    • G05B23/0218Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults characterised by the fault detection method dealing with either existing or incipient faults
    • G05B23/0243Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults characterised by the fault detection method dealing with either existing or incipient faults model based detection method, e.g. first-principles knowledge model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L21/00Processes or apparatus adapted for the manufacture or treatment of semiconductor or solid state devices or of parts thereof
    • H01L21/02Manufacture or treatment of semiconductor devices or of parts thereof
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L21/00Processes or apparatus adapted for the manufacture or treatment of semiconductor or solid state devices or of parts thereof
    • H01L21/67Apparatus specially adapted for handling semiconductor or electric solid state devices during manufacture or treatment thereof; Apparatus specially adapted for handling wafers during manufacture or treatment of semiconductor or electric solid state devices or components ; Apparatus not specifically provided for elsewhere
    • H01L21/67005Apparatus not specifically provided for elsewhere
    • H01L21/67242Apparatus for monitoring, sorting or marking
    • H01L21/67276Production flow monitoring, e.g. for increasing throughput
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/06Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness for measuring thickness ; e.g. of sheet material
    • G01B11/0616Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness for measuring thickness ; e.g. of sheet material of coating
    • G01B11/0625Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness for measuring thickness ; e.g. of sheet material of coating with measurement of absorption or reflection
    • G01B11/0633Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness for measuring thickness ; e.g. of sheet material of coating with measurement of absorption or reflection using one or more discrete wavelengths
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/4155Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by programme execution, i.e. part programme or machine function execution, e.g. selection of a programme
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/418Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM]
    • G05B19/4183Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM] characterised by data acquisition, e.g. workpiece identification
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/45Nc applications
    • G05B2219/45031Manufacturing semiconductor wafers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models

Definitions

  • the present disclosure relates to a virtual measurement device, a virtual measurement method, and a virtual measurement program.
  • Virtual measurement technology is the result of measuring data (data set of multiple types of time series data, hereinafter referred to as time series data group) measured during processing of an object (eg, wafer) in various manufacturing processes. Is a technology to estimate the inspection data.
  • the present disclosure provides a virtual measurement device, a virtual measurement method, and a virtual measurement program capable of executing highly accurate virtual measurement processing.
  • the virtual measurement device has the following configuration, for example. That is, In a predetermined processing unit of the manufacturing process, an acquisition unit that acquires a time series data group measured along with the processing of the object, The synthesis result of each output data output by processing the acquired time series data group using a plurality of network units is a result of processing the object in the predetermined processing unit of the manufacturing process. And a learning unit that machine-learns the plurality of network units so as to approach the inspection data.
  • FIG. 1 is a diagram showing an example of the overall configuration of a system including a semiconductor manufacturing process and a virtual measuring device.
  • FIG. 2 is a first diagram showing an example of a predetermined processing unit of the semiconductor manufacturing process.
  • FIG. 3 is a second diagram showing an example of a predetermined processing unit of the semiconductor manufacturing process.
  • FIG. 4 is a diagram showing an example of the acquired time series data group.
  • FIG. 5 is a diagram illustrating an example of the hardware configuration of the virtual measurement device.
  • FIG. 6 is a diagram illustrating an example of the functional configuration of the learning unit.
  • FIG. 7 is a first diagram showing a specific example of the processing of the branching unit.
  • FIG. 8 is a second diagram showing a specific example of the processing of the branching unit.
  • FIG. 1 is a diagram showing an example of the overall configuration of a system including a semiconductor manufacturing process and a virtual measuring device.
  • FIG. 2 is a first diagram showing an example of a predetermined processing unit of the semiconductor manufacturing process
  • FIG. 9 is a third diagram showing a specific example of the processing of the branching unit.
  • FIG. 10 is a diagram showing a specific example of the process of the normalization unit included in each network unit.
  • FIG. 11 is a fourth diagram showing a specific example of the processing of the branching unit.
  • FIG. 12 is a diagram illustrating an example of the functional configuration of the inference unit.
  • FIG. 13 is a flowchart showing the flow of virtual measurement processing by the virtual measurement device.
  • FIG. 14 is a diagram showing an example of the overall configuration of a system including a semiconductor manufacturing process in which the time-series data acquisition device is an emission spectroscopic analysis device and a virtual measurement device.
  • FIG. 15 is a diagram showing an example of the acquired OES data.
  • FIG. 10 is a diagram showing a specific example of the process of the normalization unit included in each network unit.
  • FIG. 11 is a fourth diagram showing a specific example of the processing of the branching unit.
  • FIG. 12 is a diagram
  • FIG. 16 is a diagram showing a specific example of the process of the normalization unit included in each network unit to which OES data is input.
  • FIG. 17 is a diagram showing a specific example of the processing of each normalization unit.
  • FIG. 18 is a diagram showing a specific example of the processing of the pooling unit.
  • FIG. 19 is a diagram showing another specific example of the process of the pooling unit included in the final layer of the fifth network unit.
  • FIG. 20 is a diagram showing another specific example of the process of the pooling unit included in the final layer of the sixth network unit.
  • FIG. 21 is a first diagram for explaining the accuracy of the inference result by the inference unit.
  • FIG. 22 is a second diagram for explaining the accuracy of the inference result by the inference unit.
  • FIG. 1 is a diagram showing an example of the overall configuration of a system 100 including a semiconductor manufacturing process and a virtual measuring device.
  • the system 100 includes a semiconductor manufacturing process, time-series data acquisition devices 140_1 to 140_n, an inspection data acquisition device 150, and a virtual measurement device 160.
  • an object (unprocessed wafer 110) is processed in a predetermined processing unit 120, and a resultant (processed wafer 130) is generated.
  • the processing unit 120 here is an abstract concept, and details will be described later.
  • the unprocessed wafer 110 refers to a wafer (substrate) that has not been processed in the processing unit 120
  • the processed wafer 130 refers to a wafer (substrate) that has been processed in the processing unit 120.
  • Each of the time-series data acquisition devices 140_1 to 140_n measures and acquires time-series data according to the processing of the unprocessed wafer 110 in the processing unit 120. It is assumed that the time-series data acquisition devices 140_1 to 140_n perform measurement on different types of measurement items. The number of measurement items measured by each of the time series data acquisition devices 140_1 to 140_n may be one or more.
  • the time-series data measured during the processing of the unprocessed wafer 110 includes the time-series data measured during the processing of the unprocessed wafer 110, as well as the pre-processing and post-processing performed before and after the processing of the unprocessed wafer 110. The time series data measured at the time of is also included. These processes may include a pre-process and a post-process performed without a wafer (substrate).
  • the time series data group acquired by the time series data acquisition devices 140_1 to 140_n is stored as learning data (input data) in the learning data storage unit 163 of the virtual measurement device 160.
  • the inspection data acquisition device 150 inspects a predetermined inspection item (for example, ER (Etch Rate)) of the processed wafer 130 processed in the processing unit 120 and acquires inspection data.
  • the inspection data acquired by the inspection data acquisition device 150 is stored in the learning data storage unit 163 of the virtual measurement device 160 as learning data (correct answer data).
  • a virtual measurement program is installed in the virtual measurement device 160, and the virtual measurement device 160 functions as a learning unit 161 and an inference unit 162 by executing the program.
  • the learning unit 161 performs machine learning using the time-series data group acquired by the time-series data acquisition devices 140_1 to 140_n and the inspection data acquired by the inspection data acquisition device 150. Specifically, the plurality of network units included in the learning unit 161 are used to process the plurality of network units so that the synthesis result of each output data output by processing the time series data group approaches the inspection data. learn.
  • the inference unit 162 inputs the time-series data group acquired along with the processing of a new unprocessed wafer in the processing unit 120 to a plurality of machine-learned network units. As a result, the inference unit 162 infers the inspection data of the processed wafer based on the time-series data acquired by the new processing of the unprocessed wafer, and outputs the inspection data as virtual measurement data.
  • the time series data group measured along with the processing of the target object is configured to be processed by using the plurality of network units. It becomes possible to perform multifaceted analysis. As a result, it becomes possible to generate a model (inference unit 162) that achieves high inference accuracy as compared with the configuration in which one network unit is used for processing.
  • FIG. 2 is a first diagram showing an example of a predetermined processing unit of the semiconductor manufacturing process.
  • a semiconductor manufacturing apparatus 200 which is an example of a substrate processing apparatus, has a plurality of chambers (an example of a plurality of processing spaces. In the example of FIG. 2, “chamber A” to “chamber C”). The wafer is processed in each chamber.
  • 2a shows the case where a plurality of chambers are defined as the processing unit 120.
  • the unprocessed wafer 110 refers to a wafer that has not been processed in the chamber A
  • the processed wafer 130 refers to a wafer that has been processed in the chamber C.
  • the time series data group measured with the processing of the unprocessed wafer 110 includes: A time series data group measured along with the processing in the chamber A (first processing space), A time series data group measured along with the processing in the chamber B (second processing space), A time series data group measured along with the processing in the chamber C (third processing space), Is included.
  • 2b shows the case where one chamber (“chamber B” in the example of 2b) is defined as the processing unit 120.
  • the unprocessed wafer 110 refers to a wafer before being processed in the chamber B (wafer after being processed in the chamber A)
  • the processed wafer 130 is a wafer after being processed in the chamber B ( Wafer before being processed in chamber C).
  • the time series data group measured with the processing of the unprocessed wafer 110 includes the time series data group measured with the processing of the unprocessed wafer 110 in the chamber B.
  • FIG. 3 is a second diagram showing an example of a predetermined processing unit of the semiconductor manufacturing process. Similar to FIG. 2, the semiconductor manufacturing apparatus 200 has a plurality of chambers, and a wafer is processed in each chamber.
  • 3a shows a case where the processing content in the chamber B except for pre-processing and post-processing (referred to as “wafer processing”) is defined as a processing unit 120.
  • the unprocessed wafer 110 refers to a wafer before the wafer processing is performed (wafer after the preprocessing is performed), and the processed wafer 130 is a wafer after the wafer processing is performed (after the processing). Wafer before processing).
  • the time series data group measured along with the processing of the unprocessed wafer 110 includes the time series data group measured along with the wafer processing of the unprocessed wafer 110 in the chamber B. ..
  • the wafer processing is the processing unit 120 when the pre-processing, the wafer processing (main processing), and the post-processing are performed in the same chamber (chamber B) is shown.
  • each process is performed in a different chamber, such as the case where the pre-treatment is performed in the chamber A, the wafer process is performed in the chamber B, and the post-treatment is performed in the chamber C, for example, each chamber is different.
  • Each of the processes may be the processing unit 120.
  • 3b shows the case where the processing of one recipe (“recipe III” in the example of 3b) included in the wafer processing is defined as the processing unit 120 among the processing contents in the chamber B.
  • the unprocessed wafer 110 refers to a wafer before the process of the recipe III is performed (a wafer after the process of the recipe II is performed), and the processed wafer 130 is a process of the recipe III is performed. Wafer (wafer before processing of recipe IV (not shown)).
  • the time-series data group measured with the processing of the unprocessed wafer 110 is the time-series data group measured with the wafer processing of the unprocessed wafer 110 by the recipe III in the chamber B. Is included.
  • FIG. 4 is a diagram showing an example of the acquired time series data group. Note that in the example of FIG. 4, the time series data acquisition devices 140_1 to 140_n each measure one-dimensional data for simplification of description, but one time series data acquisition device measures two-dimensional data ( A plurality of types of one-dimensional data sets) may be measured.
  • 4a represents a time series data group when the processing unit 120 is defined by any of 2b, 3a, and 3b.
  • the time-series data acquisition devices 140_1 to 140_n each acquire the time-series data measured during the processing in the chamber B. Further, the time-series data acquisition devices 140_1 to 140_n mutually acquire time-series data measured in the same time zone as a time-series data group.
  • 4b represents a time series data group when the processing unit 120 is defined by 2a.
  • the time-series data acquisition devices 140_1 to 140_3 acquire the time-series data group 1 measured along with the processing of the wafer in the chamber A, for example.
  • the time-series data acquisition device 140_n-2 acquires the time-series data group 2 measured along with the processing of the wafer in the chamber B, for example.
  • the time-series data acquisition devices 140_n-1 to 140_n acquire the time-series data group 3 measured along with the processing of the wafer in the chamber C, for example.
  • time-series data acquisition devices 140_1 to 140_n have shown a case where time-series data of the same time range measured in the chamber B during the processing of the unprocessed wafer is acquired as a time-series data group.
  • the time-series data acquisition devices 140_1 to 140_n may acquire, as a time-series data group, time-series data of different time ranges measured in the chamber B during the processing of the unprocessed wafer.
  • the time series data acquisition devices 140_1 to 140_n may acquire, as the time series data group 1, a plurality of time series data measured during execution of the preprocessing. Further, the time-series data acquisition devices 140_1 to 140_n may acquire a plurality of time-series data measured during the wafer processing as the time-series data group 2. Furthermore, the time-series data acquisition devices 140_1 to 140_n may acquire a plurality of time-series data measured during the post-processing as the time-series data group 3.
  • the time series data acquisition devices 140_1 to 140_n may acquire a plurality of time series data measured during execution of the recipe I as the time series data group 1. Further, the time-series data acquisition devices 140_1 to 140_n may acquire a plurality of time-series data measured during execution of the recipe II as the time-series data group 2. Furthermore, the time-series data acquisition devices 140_1 to 140_n may acquire a plurality of time-series data measured during execution of the recipe III as the time-series data group 3.
  • FIG. 5 is a diagram illustrating an example of the hardware configuration of the virtual measurement device.
  • the virtual measurement device 160 has a CPU (Central Processing Unit) 501, a ROM (Read Only Memory) 502, and a RAM (Random Access Memory) 503.
  • the virtual measurement device 160 also has a GPU (Graphics Processing Unit) 504.
  • a processor processing circuit, processing circuit, processing circuitry
  • memories such as the ROM 502 and the RAM 503 form a so-called computer.
  • the virtual measurement device 160 has an auxiliary storage device 505, a display device 506, an operation device 507, an I/F (Interface) device 508, and a drive device 509.
  • the hardware of the virtual measurement device 160 is connected to each other via the bus 510.
  • the CPU 501 is a computing device that executes various programs (for example, a virtual measurement program) installed in the auxiliary storage device 505.
  • the ROM 502 is a non-volatile memory and functions as a main storage device.
  • the ROM 502 stores various programs and data necessary for the CPU 501 to execute the various programs installed in the auxiliary storage device 505.
  • the ROM 502 stores a boot program such as BIOS (Basic Input/Output System) and EFI (Extensible Firmware Interface).
  • RAM 503 is a volatile memory such as DRAM (Dynamic Random Access Memory) and SRAM (Static Random Access Memory), and functions as a main storage device.
  • the RAM 503 provides a work area that is expanded when the various programs installed in the auxiliary storage device 505 are executed by the CPU 501.
  • the GPU 504 is an arithmetic device for image processing, and when the virtual measurement program is executed by the CPU 501, various image data (in this embodiment, a time series data group) performs high-speed arithmetic processing by parallel processing.
  • the GPU 504 is equipped with an internal memory (GPU memory) and temporarily holds information necessary for parallel processing of various image data.
  • the auxiliary storage device 505 stores various programs, various data used when the various programs are executed by the CPU 501, and the like.
  • the display device 506 is a display device that displays the internal state of the virtual measurement device 160.
  • the operation device 507 is an input device used by the administrator of the virtual measurement device 160 to input various instructions to the virtual measurement device 160.
  • the I/F device 508 is a connection device for connecting to a network (not shown) and performing communication.
  • the drive device 509 is a device for setting the recording medium 520.
  • the recording medium 520 mentioned here includes a medium such as a CD-ROM, a flexible disk, a magneto-optical disk, or the like for recording information optically, electrically, or magnetically. Further, the recording medium 520 may include a semiconductor memory such as a ROM or a flash memory for electrically recording information.
  • the various programs installed in the auxiliary storage device 505 are installed, for example, by setting the distributed recording medium 520 in the drive device 509 and reading the various programs recorded in the recording medium 520 by the drive device 509. To be done.
  • the various programs installed in the auxiliary storage device 505 may be installed by being downloaded via a network.
  • FIG. 6 is a diagram illustrating an example of the functional configuration of the learning unit.
  • the learning unit 161 includes a branching unit 610, a first network unit 620_1 to an Mth network unit 620_M, a connecting unit 630, and a comparing unit 640.
  • the branch unit 610 is an example of an acquisition unit, and reads a time series data group from the learning data storage unit 163. Further, the branching unit 610 processes the read time series data group so that the read time series data group is processed using a plurality of network units from the first network unit 620_1 to the Mth network unit 620_M. ..
  • the first network unit 620_1 to the Mth network unit 620_M are configured based on a convolutional neural network (CNN) and have a plurality of layers.
  • CNN convolutional neural network
  • the first network unit 620_1 includes a first layer 620_11 to an Nth layer 620_1N.
  • the second network unit 620_2 includes a first layer 620_21 to an Nth layer 620_2N.
  • the M-th network unit 620_M has the same configuration, and includes the first layer 620_M1 to the N-th layer 620_MN.
  • each of the first layer 620_11 to the Nth layer 620_1N of the first network unit 620_1 various processes such as normalization process, convolution process, activation process, and pooling process are performed. Further, similar various processes are performed in each layer of the second network unit 620_2 to the Mth network unit 620_M.
  • connection unit 630 synthesizes each output data from the output data output from the Nth layer 620_1N of the first network unit 620_1 to the output data output from the Nth layer 620_MN of the Mth network unit 620_M, The combined result is output to the comparison unit 640.
  • the comparison unit 640 compares the synthesis result output from the connection unit 630 with the inspection data (correct answer data) read from the learning data storage unit 163 to calculate an error.
  • the learning unit 161 performs machine learning on the first network unit 620_1 to the Mth network unit 620_M and the connection unit 630 so that the error calculated by the comparison unit 640 satisfies a predetermined condition.
  • the model parameters of the first to Nth layers of the first network unit 620_1 to the Mth network unit 620_M and the model parameters of the connection unit 630 are optimized.
  • FIG. 7 is a first diagram showing a specific example of the processing of the branching unit.
  • the branching unit 610 processes the time-series data group measured by the time-series data acquisition devices 140_1 to 140_n according to the first criterion, so that the time-series data group 1 (first time data A series data group) is generated and input to the first network unit 620_1.
  • the branching unit 610 processes the time-series data group measured by the time-series data acquisition devices 140_1 to 140_n according to the second criterion, so that the time-series data group 2 (second time-series data group) is processed. ) Is generated and input to the second network unit 620_2.
  • time-series data groups are generated by processing the time-series data groups according to two types of criteria.
  • processing the series data group three or more types of time series data groups may be generated.
  • FIG. 8 is a second diagram showing a specific example of the processing of the branching unit.
  • the branching unit 610 divides the time-series data groups measured by the time-series data acquisition devices 140_1 to 140_n into groups according to the data type, so that the time-series data group 1 (first time series data Data group) and time series data group 2 (second time series data group) are generated.
  • the branching unit 610 also inputs the generated time series data group 1 to the third network unit 620_3 and inputs the generated time series data group 2 to the fourth network unit 620_4.
  • the time-series data group is divided into a plurality of groups according to the data type, and the processing unit 120 is multi-facetedly analyzed by machine learning after being configured to be processed by using different network units. Is possible. As a result, it becomes possible to generate a model (inference unit 162) that realizes high inference accuracy, as compared with the case where the time series data group is input to one network unit and machine learning is performed.
  • the time-series data group is divided into groups according to the difference in the data type based on the difference between the time-series data acquisition devices 140_1 to 140_n.
  • the series data group may be divided into groups. For example, when the time-series data group is a time-series data group measured by processing with a plurality of recipes, the time-series data group may be grouped according to the time range of each recipe.
  • FIG. 9 is a third diagram showing a specific example of the processing of the branching unit.
  • the branching unit 610 inputs the time series data group acquired by the time series data acquisition devices 140_1 to 140_n to both the fifth network unit 620_5 and the sixth network unit 620_6. Then, the fifth network unit 620_5 and the sixth network unit 620_6 perform different processing (normalization processing) on the same time series data group.
  • FIG. 10 is a diagram showing a specific example of the process of the normalization unit included in each network unit.
  • each layer of the fifth network unit 620_5 includes a normalization unit, a convolution unit, an activation function unit, and a pooling unit.
  • the first layer 620_51 includes a normalization unit 1001, a convolution unit 1002, an activation function unit 1003, and a pooling unit 1004. It is shown that.
  • the normalization unit 1001 performs a first normalization process on the time series data group input by the branch unit 610 to generate a normalized time series data group 1 (first time series data group). To do.
  • the first layer 620_61 includes a normalization unit 1011, a convolution unit 1012, an activation function unit 1013, and a pooling unit 1014. It indicates that and are included.
  • the normalization unit 1011 performs a second normalization process on the time series data group input by the branching unit 610 to generate a normalized time series data group 2 (second time series data group). To do.
  • the processing unit 120 is multifaceted by performing the machine learning after the configuration of processing the time-series data group by using the plurality of network units each including the normalization unit that performs the normalization process by the different method. It is possible to analyze. As a result, it is possible to generate a model (inference unit 162) that realizes high inference accuracy, as compared with the case where the normalization process of 1 is executed using the network unit of 1 for the time series data group. Becomes
  • FIG. 11 is a fourth diagram showing a specific example of the processing of the branching unit.
  • the branching unit 610 includes a time-series data group 1 (first time-series data group 1 measured according to the process in the chamber A among the time-series data group measured by the time-series data acquisition devices 140_1 to 140_n). Group) to the seventh network unit 620_7.
  • the branching unit 610 outputs the time series data group 2 (second time series data group) measured during the processing in the chamber B among the time series data group measured by the time series data acquisition devices 140_1 to 140_n. Input to the eighth network unit 620_8.
  • machine learning is performed with the configuration in which the respective time-series data groups measured by the processing in the different chambers (the first processing space and the second processing space) are processed using different network units.
  • the processing unit 120 it becomes possible to analyze the processing unit 120 in multiple directions.
  • FIG. 12 is a diagram illustrating an example of the functional configuration of the inference unit.
  • the inference unit 162 includes a branching unit 1210, a first network unit 1220_1 to an Mth network unit 1220_M, and a connecting unit 1230.
  • the branching unit 1210 acquires a time series data group newly measured by the time series data acquisition devices 140_1 to 140_N. In addition, the branching unit 1210 controls the acquired time series data group to be processed using the first network unit 1220_1 to the Mth network unit 1220_M.
  • the first network unit 1220_1 to the Mth network unit 1220_M are subjected to machine learning by the learning unit 161, and the model parameters of the respective layers of the first network unit 620_1 to the Mth network unit 620_M are optimized. It is formed.
  • the connecting unit 1230 is formed by the connecting unit 630 in which machine learning is performed by the learning unit 161 and model parameters are optimized.
  • the connection unit 1230 synthesizes each output data from the output data output from the Nth layer 1220_1N of the first network unit 1220_1 to the output data output from the Nth layer 1220_MN of the Mth network unit 1220_M, Outputs virtual measurement data.
  • FIG. 13 is a flowchart showing the flow of virtual measurement processing by the virtual measurement device.
  • step S1301 the learning unit 161 acquires a time series data group and inspection data as learning data.
  • step S1302 the learning unit 161 performs machine learning by using the time-series data group as input data and the inspection data as correct answer data among the acquired learning data.
  • step S1303 the learning unit 161 determines whether to continue machine learning. When further learning data is acquired and machine learning is continued (Yes in step S1303), the process returns to step S1301. On the other hand, if the machine learning is to be ended (No in step S1303), the process advances to step S1304.
  • step S1304 the inference unit 162 reflects the model parameters optimized by machine learning to generate the first network unit 1220_1 to the Mth network unit 1220_M.
  • step S1305 the inference unit 162 inputs the time-series data group measured along with the processing of a new unprocessed wafer and infers virtual measurement data.
  • step S1306 the inference unit 162 outputs the inferred virtual measurement data.
  • the virtual measurement device is -Acquire a time series data group measured along with the processing of the object in a predetermined processing unit of the manufacturing process.
  • the acquired time series data group Generating a first time series data group and a second time series data group by processing according to the first and second criteria, or -Group according to data type or time range, Combines each output data output by processing using multiple network units, or -The acquired time-series data groups are input to a plurality of network units that perform normalization by different methods, and the output data that are output by processing using the plurality of network units are combined.
  • Machine learning is performed on a plurality of network units so that the synthesis result obtained by synthesizing the output data approaches the inspection data of the result after processing the object in a predetermined processing unit of the manufacturing process.
  • the time-series data acquisition device is an emission spectroscopy analyzer
  • the time-series data group is OES (Optical Emission Spectroscopy) data (a data set in which the time-series data of emission intensity is included in the number corresponding to the type of wavelength)
  • OES Optical Emission Spectroscopy
  • FIG. 14 is a diagram showing an example of the overall configuration of a system including a semiconductor manufacturing process in which the time-series data acquisition device is an emission spectroscopic analysis device and a virtual measurement device.
  • the emission spectroscopy analyzer 1401 outputs OES data, which is a time series data group, in accordance with the processing of the unprocessed wafer 110 in the processing unit 120 by the emission spectroscopy analysis technique.
  • OES data is a time series data group
  • Part of the OES data output from the emission spectroscopic analyzer 1401 is stored in the learning data storage unit 163 of the virtual measuring device 160 as learning data (input data) when performing machine learning.
  • FIG. 15 is a diagram showing an example of the acquired OES data.
  • a graph 1510 is a graph showing the characteristics of OES data, which is a time series data group acquired by the emission spectroscopy analyzer 1401, and the horizontal axis represents each unprocessed wafer 110 processed in the processing unit 120.
  • the OES data measured by the emission spectroscopic analyzer 1401 may have a different time length for each processed wafer.
  • the data size of the OES data 1520 in the vertical direction depends on the range of wavelengths measured by the emission spectroscopic analyzer 1401.
  • the vertical data size of the OES data 1520 is, for example, the number of wavelengths “N ⁇ included in the predetermined wavelength range. "It becomes.
  • the data size of the OES data 1520 in the horizontal direction depends on the time length when measured by the emission spectroscopic analyzer 1401. In the example of FIG. 15, the data size of the OES data 1520 in the horizontal direction is “LT”.
  • the OES data 1520 is a time-series data group in which one-dimensional time-series data having a predetermined time length for each wavelength is collected for a predetermined number of wavelengths.
  • the resize is performed in mini-batch units so that the data size becomes the same as the OES data of other wafer identification numbers. Processing shall be performed.
  • FIG. 16 is a diagram showing a specific example of the process of the normalization unit included in each network unit to which OES data is input.
  • the first layer 620_51 includes a normalization unit 1001.
  • the normalization unit 1001 generates the normalized data (normalized OES data 1610) by normalizing the OES data 1520 by the first method (maximum emission intensity).
  • the first layer 620_61 has a normalization unit 1011. Further, the normalization unit 1011 generates the normalized data (normalized OES data 1620) by normalizing the OES data 1520 by the second method (the maximum emission intensity for each wavelength).
  • FIG. 17 is a diagram showing a specific example of processing of each normalization unit.
  • the data size is the number of wavelengths (N ⁇ ) ⁇ time length (LT) based on the resized OES data 1520, and the normalization of one channel is performed.
  • LT time length
  • the normalization unit 1001 calculates the average and standard deviation of the emission intensities from the emission intensities for a predetermined time length for all wavelengths, and performs the normalization process using the calculated values. Generate normalized OES data 1610. According to the first method, the absolute value of the emission intensity disappears, but the relative emission intensity between wavelengths can be left.
  • the normalization unit 1011 uses the second method based on the resized OES data 1520 so that the data size is the number of wavelengths (1) ⁇ the time length (LT) and the number of N ⁇ channels.
  • the normalization unit 1011 calculates the average and standard deviation of the emission intensity from the emission intensity for a predetermined time length within each wavelength, and uses the calculated values for each wavelength. Is normalized to generate normalized OES data 1620. According to the second method, it is possible to leave the relative light emission intensity within a predetermined time length within the same wavelength.
  • the virtual measurement device 160 processes the same time series data group using different network units for different normalization processes.
  • the virtual measurement device 160 processes the same time series data group using different network units for different normalization processes.
  • FIG. 18 is a diagram showing a specific example of the processing of the pooling unit.
  • the OES data having the different data size for each wafer is subjected to the resize processing in the mini-batch unit in the branching unit 610 to have the same data size, and then the fifth network unit 620_5 and the sixth network unit 620_5. It is input to the network unit 620_6.
  • the OES data input to the fifth network unit 620_5 and the sixth network unit 620_6 will have different data sizes if the mini-batch is different.
  • the pooling units 1004 and 1014 included in the final layers (Nth layer 620_5N, Nth layer 620_6N) of the fifth network unit 620_5 and the sixth network unit 620_6 output fixed-length data between mini-batches. Pooling process as follows.
  • FIG. 18 is a diagram showing a specific example of the processing of the pooling unit. As shown in FIG. 18, the pooling units 1004 and 1014 perform GAP (Global Average Pooling) processing on the feature data output from the activation function units 1003 and 1013.
  • GAP Global Average Pooling
  • feature data 1911_1 to 1911_m are feature data input to the pooling unit 1004 of the Nth layer 620_5N of the fifth network unit 620_5, and are feature data generated based on the OES data belonging to the mini-batch 1. Is shown. Characteristic data 1911_1 to 1911_m each represent characteristic data for one channel.
  • the feature data 1912_1 to 1912_m are feature data input to the pooling unit 1004 of the Nth layer 620_5N of the fifth network unit 620_5, and are feature data generated based on the OES data belonging to the mini-batch 2. ing.
  • the characteristic data 1912_1 to 1912_m each represent characteristic data for one channel.
  • the feature data 1911_1 to 1911_m and the feature data 1912_1 to 1912_m belong to different mini batches, and therefore have different data sizes.
  • the feature data 1931_1 to 1931_m are the feature data input to the pooling unit 1014 of the Nth layer 620_6N of the sixth network unit 620_6, and are the feature data generated based on the OES data belonging to the mini-batch 1. Shows.
  • the feature data 1931_1 to 1931_m each include feature data for N ⁇ channels.
  • the characteristic data 1932_1 to 1932_m are characteristic data input to the pooling unit 1014 of the Nth layer 620_6N of the sixth network unit 620_6, and are characteristic data generated based on the OES data belonging to the mini-batch 2. ing.
  • the feature data 1932_1 to 1932_m each include feature data for N ⁇ channels.
  • the feature data 1931_1 to 1931_m and the feature data 1932_1 to 1932_m belong to different mini batches, and therefore have different data sizes.
  • the pooling units 1004 and 1014 output fixed-length output data by calculating an average value for each feature amount value included in the input feature data on a channel-by-channel basis.
  • the data output from the pooling units 1004 and 1014 can have the same data size between mini-batches.
  • the pooling unit 1004 of the Nth layer 620_5N of the fifth network unit 620_5 calculates the average value Avg1-1-1 of the feature data 1911_1 and outputs the output data 1921_1.
  • the pooling unit 1004 of the Nth layer 620_5N of the fifth network unit 620_5 calculates the average value Avg1-2-1 of the feature data 1912_1 and outputs the output data 1922_1.
  • the pooling unit 1004 can output the fixed-length output data 1921_1 and the output data 1922_1 for the feature data 1911_1 and the feature data 1912_1 having different data sizes, for example.
  • the pooling unit 1014 of the Nth layer 620_6N of the sixth network unit 620_6 calculates the average value Avg2-1-1-1 to Avg2-1-1-N ⁇ for each channel for the feature data 1931_1 and outputs it.
  • the data 1941_1 is output.
  • the pooling unit 1014 of the Nth layer 620_6N of the sixth network unit 620_6 calculates the average values Avg2-2-1-1 to Avg2-1-2-1-N ⁇ for each channel for the feature data 1932_1 and outputs the average value.
  • the data 1942_1 is output.
  • the pooling unit 1014 can output the fixed-length output data 1941_1 and the output data 1942_1 for the feature data 1931_1 and the feature data 1932_1 having different data sizes, for example.
  • FIG. 19 is a diagram showing another specific example of the process of the pooling unit included in the final layer of the fifth network unit, and is a diagram for explaining the SPP process.
  • the pooling unit 1004 calculates the average value of the input feature data without dividing it, and divides it into 4 and 16 areas to calculate the average value of each area. Output fixed length output data according to the number.
  • the pooling unit 1004 of the Nth layer 620_5N of the fifth network unit 620_5 calculates the average value Avg1-1-1/1 of the feature data 1911_1 without dividing the feature data 1911_1. Further, in the pooling unit 1004 of the Nth layer 620_5N of the fifth network unit 620_5, the feature data 1911_1 is divided into four, and the average values Avg1-1-1/4 to Avg1-1-1-4/ for each region. Calculate 4. Further, the pooling unit 1004 of the Nth layer 620_5N of the fifth network unit 620_5 divides the feature data 1911_1 into 16 parts, and averages Avg1-1-1-1/16 to Avg1-1-1/16/ for each region. Calculate 16.
  • the pooling unit 1004 of the Nth layer 620_5N of the fifth network unit 620_5 calculates the average value Avg1-2-1-1-1 of the feature data 1912_1 without dividing the feature data 1912_1. Further, in the pooling unit 1004 of the Nth layer 620_5N of the fifth network unit 620_5, the feature data 1912_1 is divided into four, and the average values Avg1-2-1/1/4 to Avg1-2-1-4/ for each area are divided. Calculate 4. Further, the pooling unit 1004 of the Nth layer 620_5N of the fifth network unit 620_5 divides the feature data 1912_1 into 16 parts, and averages Avg1-2-1/1/16 to Avg1-2-1/16/ for each region. Calculate 16.
  • the pooling unit 1004 can output the fixed-length output data 2010_1 and the output data 2011_1 for the characteristic data 1911_1 and the characteristic data 1912_1 having different data sizes, for example.
  • FIG. 20 is a diagram showing another specific example of the process of the pooling unit included in the final layer of the sixth network unit, and is a diagram for explaining the SPP process.
  • the pooling unit 1014 calculates the average value of each channel of the input feature data without dividing it, and also divides it into 4 and 16 divisions to calculate the average value of each region. Then, output data of fixed length according to the number of divisions.
  • the pooling unit 1014 of the Nth layer 620_6N of the sixth network unit 620_6 does not divide the channel 1 of the characteristic data 1931_1, and the average value Avg2-1-1-1-1/ of the channel 1 of the characteristic data 1931_1. Calculate 1. Further, in the pooling unit 1014 of the Nth layer 620_6N of the sixth network unit 620_6, the channel 1 of the characteristic data 1931_1 is divided into four, and the average values Avg2-1-1-1-1/4 to Avg2-1 for each area are divided. -1-1-4/4 is calculated.
  • the channel 1 of the characteristic data 1931_1 is divided into 16 and the average values Avg2-1-1-1-1/16 to Avg2-1 for each region. -1-1-16/16 is calculated.
  • the pooling unit 1014 of the Nth layer 620_6N of the sixth network unit 620_6 generates the output data 2100_1 by performing these processes for N ⁇ channels.
  • the pooling unit 1014 of the Nth layer 620_6N of the sixth network unit 620_6 does not divide the channel 1 of the characteristic data 1932_1, but the average value Avg2-2-1-1-1-1 of the channel 1 of the characteristic data 1932_1. Calculate /1. Further, in the pooling unit 1014 of the Nth layer 620_6N of the sixth network unit 620_6, the channel 1 of the characteristic data 1932_1 is divided into four, and the average values Avg2-2-1-1-1/4 to Avg2-2 for each region. -1-1-4/4 is calculated.
  • the channel 1 of the characteristic data 1932_1 is divided into 16 parts, and the average values Avg2-2-1-1-1/16 to Avg2-2 for each area are divided. -1-1-16/16 is calculated.
  • the pooling unit 1014 of the Nth layer 620_6N of the sixth network unit 620_6 performs the above processing for N ⁇ channels to generate output data 2101_1.
  • the pooling unit 1014 can output the fixed-length output data 2100_1 and the output data 2101_1 for the feature data 1931_1 and the feature data 1932_1 having different data sizes, for example.
  • FIG. 21 is a first diagram for explaining the accuracy of the inference result by the inference unit.
  • one chamber is defined as the processing unit 120
  • virtual measurement data and inspection data are compared in each chamber (here, four chambers from chamber A to chamber D). It is shown that.
  • the inspection data is explained here as the ER value.
  • the horizontal axis represents the value of virtual measurement data
  • the vertical axis represents the value of inspection data. That is, the points plotted in the graphs shown in FIG. 21 indicate that the closer the slope is to the straight line with “1”, the closer the value of the virtual measurement data is to the value of the inspection data. On the other hand, the plotted points indicate that the greater the distance from the straight line having the slope “1”, the larger the difference between the value of the virtual measurement data and the value of the inspection data.
  • 21a is An ER value obtained by processing the unprocessed wafer 110 in the chamber A, which is a processing unit, and inspecting the processed wafer 130; Virtual measurement data inferred based on OES data measured along with the processing of the unprocessed wafer 110 in the chamber A which is a processing unit It is a plot of the relationship.
  • 21b is An ER value obtained by processing the unprocessed wafer 110 in the processing unit chamber B and inspecting the processed wafer 130; Virtual measurement data inferred based on the OES data measured along with the processing of the unprocessed wafer 110 in the chamber B of the processing unit, It is a plot of the relationship.
  • 21c is An ER value obtained by processing the unprocessed wafer 110 in the processing unit chamber C and inspecting the processed wafer 130; -Virtual measurement data inferred based on OES data measured along with the processing of the unprocessed wafer 110 in the chamber C of the processing unit, It is a plot of the relationship.
  • 21d is An ER value obtained by processing the unprocessed wafer 110 in the chamber D of the processing unit and inspecting the processed wafer 130; -Virtual measurement data inferred based on OES data measured along with the processing of the unprocessed wafer 110 in the chamber D of the processing unit, It is a plot of the relationship.
  • the inference unit 162 can be applied to any chamber and has an advantage that it is not necessary to generate a different model for each chamber as in the conventional case.
  • 21a to 21d are examples showing that they can be applied to any chamber, but the inference unit 162 can be applied not only to different chambers but also before and after maintenance of the same chamber. That is, the inference unit 162 has an advantage that the model management cost can be reduced because it is not necessary to maintain the model with the maintenance of the chamber as in the conventional case.
  • FIG. 22 is a second diagram for explaining the accuracy of the inference result by the inference unit.
  • reference numeral 2310 is an evaluation value that evaluates the error between the virtual measurement data and the inspection data when the inference is performed using the inference unit having the network unit configured by the general convolutional neural network.
  • reference numeral 2320 is an evaluation value obtained by evaluating the error between the virtual measurement data and the inspection data when the inference is performed by using the inference unit 162.
  • the square of the correlation coefficient (coefficient of determination) and the MAPE (Mean Absolute Percentage Error) are used as the evaluation values.
  • the evaluation values for all plots of chambers A to D, which are processing units, and the evaluation values for plots of chambers A to D, which are processing units, are calculated.
  • all the evaluation values of the inference unit 162 are better than those of the inference unit having a network unit configured by a general convolutional neural network. That is, according to the inference unit 162, it is possible to execute virtual measurement processing with higher accuracy than ever.
  • the virtual measurement device is Acquire OES data, which is a time series data group measured by an emission spectroscopic analyzer, in accordance with the processing of an object in a predetermined processing unit of the manufacturing process. Further, the acquired OES data is normalized by different methods, and each output data processed by using different network units is combined. Machine learning of different network parts is performed so that the synthesis result obtained by synthesizing each output data approaches the inspection data (ER value) of the result after processing the object in a predetermined processing unit of the manufacturing process. To do.
  • OES data can be processed using different network units and then machine-learned, which enables multi-faceted analysis of predetermined processing units in the manufacturing process.
  • the virtual measurement device -Resize the OES data input to different network units to generate OES data with the same data size in mini-batch units.
  • -By performing GAP processing or SPP processing in the final layer of the network unit output data of fixed length with the same data size between mini-batches.
  • the normalization processing performed by the normalization unit 1001 Normalization processing performed using the average and standard deviation of the emission intensity calculated from the emission intensity for a predetermined time length for all wavelengths, A normalization process performed using the average and standard deviation of the emission intensity calculated from the emission intensity for a predetermined time length within each wavelength, was illustrated.
  • the normalizing unit 1001 may be performed using the maximum value of the emission intensity and the standard deviation, or other statistical values. You may perform a normalization process using. Further, it may be configured such that which statistical value is used to perform the normalization process can be selected.
  • time series data group is OES data
  • time series data group used in the second embodiment is not limited to OES data, and a time series data group in which OES data and time series data other than OES data are combined may be used.
  • the same time series data group is input to different network units, but the time series data group input to different network units is the same time series data group.
  • different time series data groups may be used. It may also be a time-series data group that partially overlaps each other. This is because the same effect can be expected when the time series data having the same tendency is included in each time series data group.
  • the GAP process or the SPP process is performed in the final layer of the network unit, but these processes are performed in the final layer of the network unit described in the first embodiment. It may be configured as follows.
  • the feature data is divided into three division methods (no division, 4 divisions, 16 divisions). Is not limited to three ways. Also, the number of divisions is not limited to 0, 4, and 16.
  • the machine learning algorithms of the first network unit 620_1 to the Mth network unit 620_M of the learning unit 161 have been described based on the convolutional neural network.
  • the machine learning algorithms of the first network unit 620_1 to the Mth network unit 620_M of the learning unit 161 are not limited to the convolutional neural network, and may be configured based on other machine learning algorithms.
  • the virtual measurement device 160 has been described as functioning as the learning unit 161 and the inference unit 162.
  • the device functioning as the learning unit 161 and the device functioning as the inference unit 162 do not have to be integrated, and may be configured as separate bodies. That is, the virtual measurement device 160 may function as the learning unit 161 that does not have the inference unit 162, or may function as the inference unit 162 that does not have the learning unit 161.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Automation & Control Theory (AREA)
  • Manufacturing & Machinery (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Power Engineering (AREA)
  • Quality & Reliability (AREA)
  • Testing Or Measuring Of Semiconductors Or The Like (AREA)
  • General Factory Administration (AREA)
  • Human Computer Interaction (AREA)

Abstract

高精度な仮想測定処理を実行可能な仮想測定装置、仮想測定方法及び仮想測定プログラムを提供する。仮想測定装置は、製造プロセスの所定の処理単位において、対象物の処理に伴い測定された時系列データ群を取得する取得部と、取得した前記時系列データ群を複数のネットワーク部を用いて処理することで出力された各出力データの合成結果が、前記製造プロセスの前記所定の処理単位において前記対象物を処理した際の結果物の検査データに近づくよう、前記複数のネットワーク部を機械学習する学習部とを有する。

Description

仮想測定装置、仮想測定方法及び仮想測定プログラム
 本開示は、仮想測定装置、仮想測定方法及び仮想測定プログラムに関する。
 従来より、各種製造プロセス(例えば、半導体製造プロセス)の分野では、仮想測定技術(VM:Virtual Metrology)の活用が進められている。仮想測定技術とは、各種製造プロセスで対象物(例えば、ウェハ)の処理中に測定された測定データ(複数種類の時系列データのデータセット、以下、時系列データ群と称す)から、結果物の検査データを推測する技術である。
 当該技術を用いて全ての対象物について高精度な仮想測定処理を実行できれば、結果物の仮想的な全数検査を実現することができる。
特開2009-282960号公報 特開2010-267242号公報
 本開示は、高精度な仮想測定処理を実行可能な仮想測定装置、仮想測定方法及び仮想測定プログラムを提供する。
 本開示の一態様による仮想測定装置は、例えば、以下のような構成を有する。即ち、
 製造プロセスの所定の処理単位において、対象物の処理に伴い測定された時系列データ群を取得する取得部と、
 取得した前記時系列データ群を複数のネットワーク部を用いて処理することで出力された各出力データの合成結果が、前記製造プロセスの前記所定の処理単位において前記対象物を処理した際の結果物の検査データに近づくよう、前記複数のネットワーク部を機械学習する学習部とを有する。
 本開示によれば、高精度な仮想測定処理を実行可能な仮想測定装置、仮想測定方法及び仮想測定プログラムを提供することができる。
図1は、半導体製造プロセスと仮想測定装置とを含むシステムの全体構成の一例を示す図である。 図2は、半導体製造プロセスの所定の処理単位の一例を示す第1の図である。 図3は、半導体製造プロセスの所定の処理単位の一例を示す第2の図である。 図4は、取得される時系列データ群の一例を示す図である。 図5は、仮想測定装置のハードウェア構成の一例を示す図である。 図6は、学習部の機能構成の一例を示す図である。 図7は、分岐部の処理の具体例を示す第1の図である。 図8は、分岐部の処理の具体例を示す第2の図である。 図9は、分岐部の処理の具体例を示す第3の図である。 図10は、各ネットワーク部に含まれる正規化部の処理の具体例を示す図である。 図11は、分岐部の処理の具体例を示す第4の図である。 図12は、推論部の機能構成の一例を示す図である。 図13は、仮想測定装置による仮想測定処理の流れを示すフローチャートである。 図14は、時系列データ取得装置が発光分光分析装置である半導体製造プロセスと仮想測定装置とを含むシステムの全体構成の一例を示す図である。 図15は、取得されるOESデータの一例を示す図である。 図16は、OESデータが入力される各ネットワーク部に含まれる正規化部の処理の具体例を示す図である。 図17は、各正規化部の処理の具体例を示す図である。 図18は、プーリング部の処理の具体例を示す図である。 図19は、第5のネットワーク部の最終層に含まれるプーリング部の処理の他の具体例を示す図である。 図20は、第6のネットワーク部の最終層に含まれるプーリング部の処理の他の具体例を示す図である。 図21は、推論部による推論結果の精度を説明するための第1の図である。 図22は、推論部による推論結果の精度を説明するための第2の図である。
 以下、各実施形態について添付の図面を参照しながら説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複した説明を省略する。
 [第1の実施形態]
 <半導体製造プロセスと仮想測定装置とを含むシステムの全体構成>
 はじめに、製造プロセス(ここでは、半導体製造プロセス)と仮想測定装置とを含むシステムの全体構成について説明する。図1は、半導体製造プロセスと仮想測定装置とを含むシステム100の全体構成の一例を示す図である。図1に示すように、システム100は、半導体製造プロセスと、時系列データ取得装置140_1~140_nと、検査データ取得装置150と、仮想測定装置160とを有する。
 半導体製造プロセスでは、所定の処理単位120において、対象物(処理前ウェハ110)を処理し、結果物(処理後ウェハ130)を生成する。なお、ここでいう処理単位120とは、抽象的な概念であり、詳細は後述する。また、処理前ウェハ110とは、処理単位120において処理される前のウェハ(基板)を指し、処理後ウェハ130とは、処理単位120において処理された後のウェハ(基板)を指す。
 時系列データ取得装置140_1~140_nは、それぞれ、処理単位120における処理前ウェハ110の処理に伴い、時系列データを測定し、取得する。時系列データ取得装置140_1~140_nは、互いに異なる種類の測定項目について測定を行うものとする。なお、時系列データ取得装置140_1~140_nそれぞれが測定する測定項目の数は1つであっても、複数であってもよい。また、処理前ウェハ110の処理に伴い測定した時系列データには、処理前ウェハ110の処理中に測定した時系列データのほか、処理前ウェハ110の処理の前後に行われる前処理、後処理の際に測定した時系列データも含まれる。これらの処理にはウェハ(基板)が無い状態で行われる前処理、後処理が含まれていてもよい。
 時系列データ取得装置140_1~140_nにより取得された時系列データ群は、学習用データ(入力データ)として、仮想測定装置160の学習用データ格納部163に格納される。
 検査データ取得装置150は、処理単位120において処理された処理後ウェハ130の所定の検査項目(例えば、ER(Etch Rate))を検査し、検査データを取得する。検査データ取得装置150により取得された検査データは、学習用データ(正解データ)として、仮想測定装置160の学習用データ格納部163に格納される。
 仮想測定装置160には、仮想測定プログラムがインストールされており、当該プログラムが実行されることで、仮想測定装置160は、学習部161及び推論部162として機能する。
 学習部161は、時系列データ取得装置140_1~140_nにて取得された時系列データ群と、検査データ取得装置150にて取得された検査データとを用いて機械学習を行う。具体的には、学習部161が有する複数のネットワーク部を用いて時系列データ群を処理することで出力された各出力データの合成結果が、検査データに近づくよう、当該複数のネットワーク部を機械学習する。
 推論部162は、機械学習された複数のネットワーク部に、処理単位120における新たな処理前ウェハの処理に伴い取得した時系列データ群を入力する。これにより、推論部162は、新たな処理前ウェハの処理に伴い取得された時系列データに基づき、処理後ウェハの検査データを推論し、仮想測定データとして出力する。
 このように、半導体製造プロセスの所定の処理単位120において、対象物の処理に伴い測定された時系列データ群を、複数のネットワーク部を用いて処理する構成とすることで、所定の処理単位を多面的に解析することが可能となる。この結果、1のネットワーク部を用いて処理する構成と比較して、高い推論精度を実現するモデル(推論部162)を生成することが可能となる。
 <半導体製造プロセスの所定の処理単位>
 次に、半導体製造プロセスの所定の処理単位120について説明する。図2は、半導体製造プロセスの所定の処理単位の一例を示す第1の図である。図2に示すように、基板処理装置の一例である半導体製造装置200は、複数のチャンバ(複数の処理空間の一例。図2の例では、“チャンバA”~“チャンバC”)を有しており、各チャンバにおいて、ウェハが処理される。
 このうち、2aは、複数のチャンバを処理単位120と定義した場合を示している。この場合、処理前ウェハ110とは、チャンバAにおいて処理される前のウェハを指し、処理後ウェハ130とは、チャンバCにおいて処理された後のウェハを指す。
 また、2aの処理単位120において、処理前ウェハ110の処理に伴い測定される時系列データ群には、
・チャンバA(第1の処理空間)における処理に伴い測定される時系列データ群と、
・チャンバB(第2の処理空間)における処理に伴い測定される時系列データ群と、
・チャンバC(第3の処理空間)における処理に伴い測定される時系列データ群と、
が含まれる。
 一方、2bは、1のチャンバ(2bの例では、“チャンバB”)を処理単位120と定義した場合を示している。この場合、処理前ウェハ110とは、チャンバBにおいて処理される前のウェハ(チャンバAにおいて処理された後のウェハ)を指し、処理後ウェハ130とは、チャンバBにおいて処理された後のウェハ(チャンバCにおいて処理される前のウェハ)を指す。
 また、2bの処理単位120において、処理前ウェハ110の処理に伴い測定される時系列データ群には、チャンバBにおいて、処理前ウェハ110の処理に伴い測定される時系列データ群が含まれる。
 図3は、半導体製造プロセスの所定の処理単位の一例を示す第2の図である。図2と同様、半導体製造装置200は、複数のチャンバを有しており、各チャンバにおいて、ウェハが処理される。
 このうち、3aは、チャンバBにおける処理内容のうち、前処理と後処理とを除いた処理(“ウェハ処理”と称す)を処理単位120と定義した場合を示している。この場合、処理前ウェハ110とは、ウェハ処理が行われる前のウェハ(前処理が行われた後のウェハ)を指し、処理後ウェハ130とは、ウェハ処理が行われた後のウェハ(後処理が行われる前のウェハ)を指す。
 また、3aの処理単位120において、処理前ウェハ110の処理に伴い測定される時系列データ群には、チャンバBにおいて、処理前ウェハ110のウェハ処理に伴い測定される時系列データ群が含まれる。
 なお、3aの例では、同一チャンバ内(チャンバB内)において、前処理、ウェハ処理(本処理)、後処理が行われる場合の、ウェハ処理を処理単位120とした場合について示した。しかしながら、例えば、チャンバA内において前処理が、チャンバB内においてウェハ処理が、チャンバC内において後処理が行われる場合のように、異なるチャンバで各処理が行われる場合にあっては、チャンバごとの各処理を処理単位120としてもよい。
 一方、3bは、チャンバBにおける処理内容のうち、ウェハ処理に含まれる1のレシピ(3bの例では“レシピIII”)の処理を処理単位120と定義した場合を示している。この場合、処理前ウェハ110とは、レシピIIIの処理が行われる前のウェハ(レシピIIの処理が行われた後のウェハ)を指し、処理後ウェハ130とは、レシピIIIの処理が行われた後のウェハ(レシピIV(不図示)の処理が行われる前のウェハ)を指す。
 また、3aの処理単位120において、処理前ウェハ110の処理に伴い測定される時系列データ群には、チャンバBにおいて、レシピIIIによる処理前ウェハ110のウェハ処理に伴い測定される時系列データ群が含まれる。
 <時系列データ群の具体例>
 次に、時系列データ取得装置140_1~140_nにおいて取得される時系列データ群の具体例について説明する。図4は、取得される時系列データ群の一例を示す図である。なお、図4の例では、説明の簡略化のため、時系列データ取得装置140_1~140_nがそれぞれ1次元のデータを測定するものとしているが、1の時系列データ取得装置が2次元のデータ(複数種類の1次元データのデータセット)を測定してもよい。
 このうち、4aは、処理単位120が、2b、3a、3bのいずれかで定義された場合の時系列データ群を表している。この場合、時系列データ取得装置140_1~140_nは、それぞれ、チャンバBにおける処理に伴い測定した時系列データを取得する。また、時系列データ取得装置140_1~140_nは、互いに、同一時間帯に測定した時系列データを、時系列データ群として取得する。
 一方、4bは、処理単位120が、2aで定義された場合の時系列データ群を表している。この場合、時系列データ取得装置140_1~140_3は、例えば、チャンバAにおけるウェハの処理に伴い測定した時系列データ群1を取得する。また、時系列データ取得装置140_n-2は、例えば、チャンバBにおける当該ウェハの処理に伴い測定した時系列データ群2を取得する。また、時系列データ取得装置140_n-1~140_nは、例えば、チャンバCにおける当該ウェハの処理に伴い測定した時系列データ群3を取得する。
 なお、4aにおいて、時系列データ取得装置140_1~140_nは、チャンバBにおいて処理前ウェハの処理に伴い測定した、同一の時間範囲の時系列データを、時系列データ群として取得する場合について示した。しかしながら、時系列データ取得装置140_1~140_nは、チャンバBにおいて処理前ウェハの処理に伴い測定した、異なる時間範囲の時系列データを時系列データ群として取得してもよい。
 具体的には、時系列データ取得装置140_1~140_nは、前処理を実行中に測定した複数の時系列データを、時系列データ群1として取得してもよい。また、時系列データ取得装置140_1~140_nは、ウェハ処理を実行中に測定した複数の時系列データを、時系列データ群2として取得してもよい。更に、時系列データ取得装置140_1~140_nは、後処理を実行中に測定した複数の時系列データを、時系列データ群3として取得してもよい。
 同様に、時系列データ取得装置140_1~140_nは、レシピIを実行中に測定した複数の時系列データを、時系列データ群1として取得してもよい。また、時系列データ取得装置140_1~140_nは、レシピIIを実行中に測定した複数の時系列データを、時系列データ群2として取得してもよい。更に、時系列データ取得装置140_1~140_nは、レシピIIIを実行中に測定した複数の時系列データを、時系列データ群3として取得してもよい。
 <仮想測定装置のハードウェア構成>
 次に、仮想測定装置160のハードウェア構成について説明する。図5は、仮想測定装置のハードウェア構成の一例を示す図である。図5に示すように、仮想測定装置160は、CPU(Central Processing Unit)501、ROM(Read Only Memory)502、RAM(Random Access Memory)503を有する。また、仮想測定装置160は、GPU(Graphics Processing Unit)504を有する。なお、CPU501、GPU504などのプロセッサ(処理回路、Processing Circuit、Processing Circuitry)と、ROM502、RAM503などのメモリは、いわゆるコンピュータを形成する。
 更に、仮想測定装置160は、補助記憶装置505、表示装置506、操作装置507、I/F(Interface)装置508、ドライブ装置509を有する。なお、仮想測定装置160の各ハードウェアは、バス510を介して相互に接続される。
 CPU501は、補助記憶装置505にインストールされた各種プログラム(例えば、仮想測定プログラム等)を実行する演算デバイスである。
 ROM502は、不揮発性メモリであり、主記憶装置として機能する。ROM502は、補助記憶装置505にインストールされた各種プログラムをCPU501が実行するために必要な各種プログラム、データ等を格納する。具体的には、ROM502はBIOS(Basic Input/Output System)やEFI(Extensible Firmware Interface)等のブートプログラム等を格納する。
 RAM503は、DRAM(Dynamic Random Access Memory)やSRAM(Static Random Access Memory)等の揮発性メモリであり、主記憶装置として機能する。RAM503は、補助記憶装置505にインストールされた各種プログラムがCPU501によって実行される際に展開される、作業領域を提供する。
 GPU504は、画像処理用の演算デバイスであり、CPU501により仮想測定プログラムが実行される際に、各種画像データ(本実施形態では、時系列データ群)について、並列処理による高速演算を行う。なお、GPU504は、内部メモリ(GPUメモリ)を搭載しており、各種画像データについて並列処理を行う際に必要な情報を一時的に保持する。
 補助記憶装置505は、各種プログラムや、各種プログラムがCPU501によって実行される際に用いられる各種データ等を格納する。
 表示装置506は、仮想測定装置160の内部状態を表示する表示デバイスである。操作装置507は、仮想測定装置160の管理者が仮想測定装置160に対して各種指示を入力する際に用いる入力デバイスである。I/F装置508は、不図示のネットワークと接続し、通信を行うための接続デバイスである。
 ドライブ装置509は記録媒体520をセットするためのデバイスである。ここでいう記録媒体520には、CD-ROM、フレキシブルディスク、光磁気ディスク等のように情報を光学的、電気的あるいは磁気的に記録する媒体が含まれる。また、記録媒体520には、ROM、フラッシュメモリ等のように情報を電気的に記録する半導体メモリ等が含まれていてもよい。
 なお、補助記憶装置505にインストールされる各種プログラムは、例えば、配布された記録媒体520がドライブ装置509にセットされ、該記録媒体520に記録された各種プログラムがドライブ装置509により読み出されることでインストールされる。あるいは、補助記憶装置505にインストールされる各種プログラムは、ネットワークを介してダウンロードされることで、インストールされてもよい。
 <学習部の機能構成>
 次に、学習部161の機能構成について説明する。図6は、学習部の機能構成の一例を示す図である。学習部161は、分岐部610と、第1のネットワーク部620_1~第Mのネットワーク部620_Mと、連結部630と、比較部640とを有する。
 分岐部610は取得部の一例であり、学習用データ格納部163より時系列データ群を読み出す。また、分岐部610は、読み出した時系列データ群が、第1のネットワーク部620_1から第Mのネットワーク部620_Mまでの複数のネットワーク部を用いて処理されるよう、当該時系列データ群を処理する。
 第1のネットワーク部620_1~第Mのネットワーク部620_Mは、畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)をベースに構成されており、複数の層を有する。
 具体的には、第1のネットワーク部620_1は、第1層620_11~第N層620_1Nを有する。同様に、第2のネットワーク部620_2は、第1層620_21~第N層620_2Nを有する。以下、同様の構成を有しており、第Mのネットワーク部620_Mは、第1層620_M1~第N層620_MNを有する。
 第1のネットワーク部620_1の第1層620_11~第N層620_1Nの各層では、正規化処理や、畳み込み処理、活性化処理、プーリング処理等の各種処理が行われる。また、第2のネットワーク部620_2~第Mのネットワーク部620_Mの各層でも同様の各種処理が行われる。
 連結部630は、第1のネットワーク部620_1の第N層620_1Nから出力された出力データから、第Mのネットワーク部620_Mの第N層620_MNから出力された出力データまでの各出力データを合成し、合成結果を比較部640に出力する。
 比較部640は、連結部630より出力された合成結果と、学習用データ格納部163より読み出した検査データ(正解データ)とを比較し、誤差を算出する。学習部161では、比較部640により算出された誤差が所定の条件を満たすように、第1のネットワーク部620_1~第Mのネットワーク部620_M及び連結部630を機械学習を行う。
 これにより、第1のネットワーク部620_1~第Mのネットワーク部620_Mの第1層~第N層それぞれのモデルパラメータ及び連結部630のモデルパラメータが最適化される。
 <学習部の各部の処理の詳細>
 次に、学習部161の各部の処理の詳細について、具体例を挙げて説明する。
 (1)分岐部の処理の詳細1
 はじめに、分岐部610の処理の詳細について説明する。図7は、分岐部の処理の具体例を示す第1の図である。図7の場合、分岐部610は、時系列データ取得装置140_1~140_nにより測定された時系列データ群を、第1の基準に応じて加工することで、時系列データ群1(第1の時系列データ群)を生成し、第1のネットワーク部620_1に入力する。
 また、分岐部610は、時系列データ取得装置140_1~140_nにより測定された時系列データ群を、第2の基準に応じて加工することで、時系列データ群2(第2の時系列データ群)を生成し、第2のネットワーク部620_2に入力する。
 このように、時系列データ群を、異なる基準に応じて加工し、それぞれ異なるネットワーク部に分けて処理する構成としたうえで機械学習することで、処理単位120を多面的に解析することが可能となる。この結果、時系列データ群を1のネットワーク部を用いて処理する構成とした場合と比較して、高い推論精度を実現するモデル(推論部162)を生成することが可能となる。
 なお、図7の例では、2種類の基準に応じて時系列データ群を加工することで、2種類の時系列データ群を生成する場合について示したが、3種類以上の基準に応じて時系列データ群を加工することで、3種類以上の時系列データ群を生成してもよい。
 (2)分岐部による処理の詳細2
 次に、分岐部610の他の処理の詳細について説明する。図8は、分岐部の処理の具体例を示す第2の図である。図8の場合、分岐部610は、時系列データ取得装置140_1~140_nにより測定された時系列データ群を、データ種類に応じてグループ分けすることで、時系列データ群1(第1の時系列データ群)と時系列データ群2(第2の時系列データ群)を生成する。また、分岐部610は、生成した時系列データ群1を第3のネットワーク部620_3に入力し、生成した時系列データ群2を第4のネットワーク部620_4に入力する。
 このように、時系列データ群を、データ種類に応じて複数のグループに分け、異なるネットワーク部を用いて処理する構成としたうえで機械学習することで、処理単位120を多面的に解析することが可能となる。この結果、時系列データ群を1のネットワーク部に入力して機械学習する場合と比較して、高い推論精度を実現するモデル(推論部162)を生成することが可能となる。
 なお、図8の例では、時系列データ取得装置140_1~140_nの違いに基づくデータ種類の違いに応じて、時系列データ群をグループ分けしたが、データが取得された時間範囲に応じて、時系列データ群をグループ分けしてもよい。例えば、時系列データ群が複数のレシピによる処理に伴い測定された時系列データ群であった場合には、レシピごとの時間範囲に応じて、時系列データ群をグループ分けしてもよい。
 (3)分岐部による処理の詳細3
 次に、分岐部610による他の処理の詳細について説明する。図9は、分岐部の処理の具体例を示す第3の図である。図9の場合、分岐部610は、時系列データ取得装置140_1~140_nにより取得された時系列データ群を、第5のネットワーク部620_5と第6のネットワーク部620_6の両方に入力する。そして、第5のネットワーク部620_5と第6のネットワーク部620_6とで、同じ時系列データ群に対して、異なる処理(正規化処理)を施す。
 図10は、各ネットワーク部に含まれる正規化部の処理の具体例を示す図である。図10に示すように、第5のネットワーク部620_5の各層には、正規化部と、畳み込み部と、活性化関数部と、プーリング部とが含まれる。
 図10の例は、第5のネットワーク部620_5に含まれる各層のうち、第1層620_51に、正規化部1001と、畳み込み部1002と、活性化関数部1003と、プーリング部1004とが含まれることを示している。
 このうち、正規化部1001では、分岐部610により入力された時系列データ群に対して第1の正規化処理を行い、正規化時系列データ群1(第1の時系列データ群)を生成する。
 同様に、図10の例は、第6のネットワーク部620_6に含まれる各層のうち、第1層620_61には、正規化部1011と、畳み込み部1012と、活性化関数部1013と、プーリング部1014とが含まれることを示している。
 このうち、正規化部1011では、分岐部610により入力された時系列データ群に対して第2の正規化処理を行い、正規化時系列データ群2(第2の時系列データ群)を生成する。
 このように、異なる手法で正規化処理を行う正規化部をそれぞれに含む複数のネットワーク部を用いて時系列データ群を処理する構成としたうえで機械学習することで、処理単位120を多面的に解析することが可能となる。この結果、時系列データ群を1のネットワーク部を用いて1の正規化処理を実行する構成とした場合と比較して、高い推論精度を実現するモデル(推論部162)を生成することが可能となる。
 (4)分岐部による処理の詳細4
 次に、分岐部610による他の処理の詳細について説明する。図11は、分岐部の処理の具体例を示す第4の図である。図11の場合、分岐部610は、時系列データ取得装置140_1~140_nにより測定された時系列データ群のうち、チャンバAにおける処理に伴い測定された時系列データ群1(第1の時系列データ群)を第7のネットワーク部620_7に入力する。
 また、分岐部610は、時系列データ取得装置140_1~140_nにより測定された時系列データ群のうち、チャンバBにおける処理に伴い測定された時系列データ群2(第2の時系列データ群)を第8のネットワーク部620_8に入力する。
 このように、異なるチャンバ(第1の処理空間、第2の処理空間)における処理に伴い測定された、それぞれの時系列データ群を、異なるネットワーク部を用いて処理する構成としたうえで機械学習することで、処理単位120を多面的に解析することが可能となる。この結果、それぞれの時系列データ群を1のネットワーク部を用いて処理する構成とした場合と比較して、高い推論精度を実現するモデル(推論部162)を生成することが可能となる。
 <推論部の機能構成>
 次に、推論部162の機能構成について説明する。図12は、推論部の機能構成の一例を示す図である。図12に示すように、推論部162は、分岐部1210と、第1のネットワーク部1220_1から第Mのネットワーク部1220_Mと、連結部1230とを有する。
 分岐部1210は、時系列データ取得装置140_1~140_Nにより新たに測定された時系列データ群を取得する。また、分岐部1210は、取得した時系列データ群が、第1のネットワーク部1220_1~第Mのネットワーク部1220_Mを用いて処理されるよう制御する。
 第1のネットワーク部1220_1~第Mのネットワーク部1220_Mは、学習部161により機械学習が行われ、第1のネットワーク部620_1~第Mのネットワーク部620_Mの各層のモデルパラメータが最適化されることで形成される。
 連結部1230は、学習部161により機械学習が行われ、モデルパラメータが最適化された連結部630により形成される。連結部1230は、第1のネットワーク部1220_1の第N層1220_1Nから出力された出力データから、第Mのネットワーク部1220_Mの第N層1220_MNから出力された出力データまでの各出力データを合成し、仮想測定データを出力する。
 <仮想測定処理の流れ>
 次に、仮想測定装置160による仮想測定処理全体の流れについて説明する。図13は、仮想測定装置による仮想測定処理の流れを示すフローチャートである。
 ステップS1301において、学習部161は、学習用データとして時系列データ群及び検査データを取得する。
 ステップS1302において、学習部161は、取得した学習用データのうち、時系列データ群を入力データ、検査データを正解データとして機械学習を行う。
 ステップS1303において、学習部161は、機械学習を継続するか否かを判定する。更なる学習用データを取得して機械学習を継続する場合には(ステップS1303においてYesの場合には)、ステップS1301に戻る。一方、機械学習を終了する場合には(ステップS1303においてNoの場合には)、ステップS1304に進む。
 ステップS1304において、推論部162は、機械学習により最適化されたモデルパラメータを反映することで、第1のネットワーク部1220_1~第Mのネットワーク部1220_Mを生成する。
 ステップS1305において、推論部162は、新たな処理前ウェハの処理に伴い測定された時系列データ群を入力し、仮想測定データを推論する。
 ステップS1306において、推論部162は、推論した仮想測定データを出力する。
 <まとめ>
 以上の説明から明らかなように、第1の実施形態に係る仮想測定装置は、
・製造プロセスの所定の処理単位において、対象物の処理に伴い測定された時系列データ群を取得する。
・取得した時系列データ群を、
  ・第1及び第2の基準に応じて処理することで、第1の時系列データ群と第2の時系列データ群とを生成し、あるいは、
  ・データ種類または時間範囲に応じてグループ分けし、
複数のネットワーク部を用いて処理することで出力された各出力データを合成する、あるいは、
・取得した時系列データ群を、異なる手法で正規化を行う複数のネットワーク部にそれぞれ入力し、複数のネットワーク部を用いて処理することで出力された各出力データを合成する。
・各出力データを合成することで得た合成結果が、製造プロセスの所定の処理単位において、対象物を処理した後の結果物の検査データに近づくよう、複数のネットワーク部を機械学習する。
・新たな対象物について取得した時系列データ群を、機械学習された複数のネットワーク部を用いて処理し、該複数のネットワーク部より出力された各出力データの合成結果を、新たな対象物を処理した際の結果物の検査データとして推論する。
 このように、時系列データ群を、複数のネットワーク部を用いて処理する構成としたうえで機械学習することで、製造プロセスの所定の処理単位を多面的に解析することが可能となる。この結果、時系列データ群を1のネットワーク部を用いて処理する構成とした場合と比較して、高い推論精度を実現するモデルを生成することが可能となる。また、当該モデルを用いて推論を行うことで、高精度な仮想測定処理を実行することができる。
 つまり、第1の実施形態によれば、高精度な仮想測定処理を実行可能な仮想測定装置を提供することができる。
 [第2の実施形態]
 上記第1の実施形態では、取得した時系列データ群を複数のネットワーク部を用いて処理する構成として、4通りの構成について示した。このうち、第2の実施形態では、異なる手法で正規化処理を行う正規化部をそれぞれに含む複数のネットワーク部を用いて時系列データ群を処理する構成について、
・時系列データ取得装置が発光分光分析装置であり、
・時系列データ群がOES(Optical Emission Spectroscopy)データ(発光強度の時系列データが波長の種類に応じた数だけ含まれるデータセット)である、
場合について、更なる詳細を説明する。なお、以下では、上記第1の実施形態と相違する点を中心に説明を行う。
 <半導体製造プロセスと仮想測定装置とを含むシステムの全体構成>
 はじめに、時系列データ取得装置が発光分光分析装置である半導体製造プロセスと仮想測定装置とを含むシステムの全体構成について説明する。図14は、時系列データ取得装置が発光分光分析装置である半導体製造プロセスと仮想測定装置とを含むシステムの全体構成の一例を示す図である。
 図14に示すシステム1400において、発光分光分析装置1401は、発光分光分析技術により、処理単位120における処理前ウェハ110の処理に伴い、時系列データ群であるOESデータを出力する。発光分光分析装置1401より出力されたOESデータは、その一部が、機械学習を行う際の学習用データ(入力データ)として、仮想測定装置160の学習用データ格納部163に格納される。
 <時系列データ群の具体例>
 次に、発光分光分析装置1401において取得される時系列データ群であるOESデータの具体例について説明する。図15は、取得されるOESデータの一例を示す図である。
 図15において、グラフ1510は、発光分光分析装置1401において取得される時系列データ群であるOESデータの特性を表したグラフであり、横軸は、処理単位120において処理された各処理前ウェハ110を識別するためのウェハ識別番号を示している。また、縦軸は、各処理前ウェハ110の処理に伴い発光分光分析装置1401において測定されたOESデータの時間長を示している。
 グラフ1510に示すように、発光分光分析装置1401において測定されるOESデータは、処理されるウェハごとに時間長が異なる場合がある。
 図15の例において、例えば、OESデータ1520は、ウェハ識別番号=“770”の処理前ウェハの処理に伴い測定されたOESデータを示している。OESデータ1520の縦方向のデータサイズは、発光分光分析装置1401において測定される波長の範囲に依存する。第2の実施形態において、発光分光分析装置1401は、所定の波長範囲の発光強度を測定するため、OESデータ1520の縦方向のデータサイズは、例えば、所定の波長範囲に含まれる波長数“Nλ”となる。
 一方、OESデータ1520の横方向のデータサイズは、発光分光分析装置1401において測定された際の時間長に依存する。図15の例では、OESデータ1520の横方向のデータサイズは、“LT”である。
 このように、OESデータ1520は、それぞれの波長が、所定の時間長を有する1次元の時系列データが、所定の波長数分集まった時系列データ群であるということができる。
 なお、分岐部610では、OESデータ1520を第5のネットワーク部620_5及び第6のネットワーク部620_6に入力する際、他のウェハ識別番号のOESデータとデータサイズが同じになるよう、ミニバッチ単位でリサイズ処理を行うものとする。
 <正規化部の処理の具体例>
 次に、分岐部610によりOESデータ1520がそれぞれ入力される第5のネットワーク部620_5及び第6のネットワーク部620_6の、正規化部の処理の具体例について説明する。
 図16は、OESデータが入力される各ネットワーク部に含まれる正規化部の処理の具体例を示す図である。図16に示すように、第5のネットワーク部620_5に含まれる各層のうち、第1層620_51は、正規化部1001を有する。また、正規化部1001は、OESデータ1520を、第1の手法(最大の発光強度)で正規化することで、正規化データ(正規化OESデータ1610)を生成する。
 また、図16に示すように、第6のネットワーク部620_6に含まれる各層のうち、第1層620_61は、正規化部1011を有する。また、正規化部1011は、OESデータ1520を、第2の手法(波長ごとに最大の発光強度)で正規化することで、正規化データ(正規化OESデータ1620)を生成する。
 図17は、各正規化部の処理の具体例を示す図である。17aに示すように、正規化部1001では、リサイズ処理されたOESデータ1520に基づいて、第1の手法により、データサイズが波長数(Nλ)×時間長(LT)で、1チャネルの正規化OESデータ1610を生成する。
 具体的には、正規化部1001では、波長全体に対する所定の時間長分の発光強度の中から、発光強度の平均と標準偏差とを算出し、算出した値を用いて正規化処理を行い、正規化OESデータ1610を生成する。第1の手法によれば、発光強度の絶対値は消えるが、波長間の相対的な発光強度を残すことができる。
 一方、17bに示すように、正規化部1011では、リサイズ処理されたOESデータ1520に基づいて、第2の手法により、データサイズが波長数(1)×時間長(LT)で、Nλチャネル分の正規化OESデータ1620を生成する。
 具体的には、正規化部1011では、それぞれの波長内での所定の時間長分の発光強度の中から、発光強度の平均と標準偏差とを算出し、算出した値を用いて、波長ごとに正規化処理を行い、正規化OESデータ1620を生成する。第2の手法によれば、同じ波長内での所定の時間長における相対的な発光強度を残すことができる。
 このように、何を基準として発光強度の変化を見るのかによって(つまり、解析のやり方によって)、同じ時系列データ群であっても、見える情報は変わってくる。第2の実施形態に係る仮想測定装置160では、異なる正規化処理に対し、それぞれ異なるネットワーク部を用いて同じ時系列データ群を処理する。このように複数の正規化処理を組み合わせることで、処理単位120における時系列データ群を多面的に解析することが可能となる。この結果、OESデータ1520を1のネットワーク部を用いて1の正規化処理を実行する構成とした場合と比較して、高い推論精度を実現するモデル(推論部162)を生成することが可能となる。
 <プーリング部の処理の具体例>
 次に、第5のネットワーク部620_5及び第6のネットワーク部620_6の最終層に含まれるプーリング部の処理の具体例について説明する。図18は、プーリング部の処理の具体例を示す図である。
 上述したとおり、ウェハごとに異なるデータサイズのOESデータは、分岐部610にて、ミニバッチ単位でリサイズ処理が行われることで、同じデータサイズにされた後に、第5のネットワーク部620_5及び第6のネットワーク部620_6に入力される。
 換言すると、第5のネットワーク部620_5及び第6のネットワーク部620_6に入力されるOESデータは、ミニバッチが異なれば、データサイズが異なることになる。
 そこで、第5のネットワーク部620_5及び第6のネットワーク部620_6の最終層(第N層620_5N、第N層620_6N)に含まれるプーリング部1004、1014では、ミニバッチ間で固定長のデータが出力されるようにプーリング処理を行う。
 図18は、プーリング部の処理の具体例を示す図である。図18に示すように、プーリング部1004、1014では、活性化関数部1003、1013より出力された特徴データに対して、GAP(Global Average Pooling)処理を行う。
 図18において、特徴データ1911_1~1911_mは、第5のネットワーク部620_5の第N層620_5Nのプーリング部1004に入力される特徴データであって、ミニバッチ1に属するOESデータに基づいて生成された特徴データを示している。特徴データ1911_1~1911_mは、それぞれ、1チャネル分の特徴データを示している。
 また、特徴データ1912_1~1912_mは、第5のネットワーク部620_5の第N層620_5Nのプーリング部1004に入力される特徴データであって、ミニバッチ2に属するOESデータに基づいて生成された特徴データを示している。特徴データ1912_1~1912_mは、それぞれ、1チャネル分の特徴データを示している。
 図18から明らかなように、特徴データ1911_1~1911_mと特徴データ1912_1~1912_mとは、異なるミニバッチに属するため、データサイズが異なる。
 同様に、特徴データ1931_1~1931_mは、第6のネットワーク部620_6の第N層620_6Nのプーリング部1014に入力される特徴データであって、ミニバッチ1に属するOESデータに基づいて生成された特徴データを示している。なお、特徴データ1931_1~1931_mには、それぞれ、Nλチャネル分の特徴データが含まれる。
 また、特徴データ1932_1~1932_mは、第6のネットワーク部620_6の第N層620_6Nのプーリング部1014に入力される特徴データであって、ミニバッチ2に属するOESデータに基づいて生成された特徴データを示している。なお、特徴データ1932_1~1932_mには、それぞれ、Nλチャネル分の特徴データが含まれる。
 図18から明らかなように、特徴データ1931_1~1931_mと特徴データ1932_1~1932_mとは、異なるミニバッチに属するため、データサイズが異なる。
 ここで、プーリング部1004、1014では、入力された特徴データに含まれる各特徴量の値について、チャネル単位で平均値を算出することで、固定長の出力データを出力する。これにより、プーリング部1004、1014より出力されるデータは、ミニバッチ間でデータサイズを同じにすることができる。
 例えば、第5のネットワーク部620_5の第N層620_5Nのプーリング部1004では、特徴データ1911_1の平均値Avg1-1-1を算出し、出力データ1921_1を出力する。同様に、第5のネットワーク部620_5の第N層620_5Nのプーリング部1004では、特徴データ1912_1の平均値Avg1-2-1を算出し、出力データ1922_1を出力する。
 これにより、プーリング部1004では、例えば、データサイズの異なる特徴データ1911_1と特徴データ1912_1に対して、固定長の出力データ1921_1及び出力データ1922_1を出力することができる。
 同様に、第6のネットワーク部620_6の第N層620_6Nのプーリング部1014では、特徴データ1931_1について、チャネルごとに平均値Avg2-1-1-1~Avg2-1-1-Nλを算出し、出力データ1941_1を出力する。同様に、第6のネットワーク部620_6の第N層620_6Nのプーリング部1014では、特徴データ1932_1について、チャネルごとに平均値Avg2-2-1-1~Avg2-2-1-Nλを算出し、出力データ1942_1を出力する。
 これにより、プーリング部1014では、例えば、データサイズの異なる特徴データ1931_1と特徴データ1932_1に対して、固定長の出力データ1941_1及び出力データ1942_1を出力することができる。
 <プーリング部の処理の他の具体例>
 次に、第5のネットワーク部620_5及び第6のネットワーク部620_6の最終層に含まれるプーリング部の処理の他の具体例について説明する。図19は、第5のネットワーク部の最終層に含まれるプーリング部の処理の他の具体例を示す図であり、SPP処理を説明するための図である。
 図19に示すように、プーリング部1004では、入力された特徴データを、分割せずに平均値を算出するとともに、4分割及び16分割にして、各領域の平均値を算出することで、分割数に応じた固定長の出力データを出力する。
 例えば、第5のネットワーク部620_5の第N層620_5Nのプーリング部1004では、特徴データ1911_1を分割することなく、特徴データ1911_1の平均値Avg1-1-1-1/1を算出する。また、第5のネットワーク部620_5の第N層620_5Nのプーリング部1004では、特徴データ1911_1を4分割し、各領域について平均値Avg1-1-1-1/4~Avg1-1-1-4/4を算出する。更に、第5のネットワーク部620_5の第N層620_5Nのプーリング部1004では、特徴データ1911_1を16分割し、各領域について平均値Avg1-1-1-1/16~Avg1-1-1-16/16を算出する。
 また、第5のネットワーク部620_5の第N層620_5Nのプーリング部1004では、特徴データ1912_1を分割することなく、特徴データ1912_1の平均値Avg1-2-1-1/1を算出する。また、第5のネットワーク部620_5の第N層620_5Nのプーリング部1004では、特徴データ1912_1を4分割し、各領域について平均値Avg1-2-1-1/4~Avg1-2-1-4/4を算出する。更に、第5のネットワーク部620_5の第N層620_5Nのプーリング部1004では、特徴データ1912_1を16分割し、各領域について平均値Avg1-2-1-1/16~Avg1-2-1-16/16を算出する。
 これにより、プーリング部1004では、例えば、データサイズの異なる特徴データ1911_1と特徴データ1912_1に対して、固定長の出力データ2010_1及び出力データ2011_1を出力することができる。
 次に、第6のネットワーク部620_6の第N層620_6Nに含まれるプーリング部1014の詳細について説明する。図20は、第6のネットワーク部の最終層に含まれるプーリング部の処理の他の具体例を示す図であり、SPP処理を説明するための図である。
 図20に示すように、プーリング部1014では、入力された特徴データの各チャネルを、分割せずに平均値を算出するとともに、4分割及び16分割にして、各領域の平均値を算出することで、分割数に応じた固定長の出力データを出力する。
 例えば、第6のネットワーク部620_6の第N層620_6Nのプーリング部1014では、特徴データ1931_1のチャネル1を分割することなく、特徴データ1931_1のチャネル1の平均値Avg2-1-1-1-1/1を算出する。また、第6のネットワーク部620_6の第N層620_6Nのプーリング部1014では、特徴データ1931_1のチャネル1を4分割し、各領域について平均値Avg2-1-1-1-1/4~Avg2-1-1-1-4/4を算出する。更に、第6のネットワーク部620_6の第N層620_6Nのプーリング部1014では、特徴データ1931_1のチャネル1を16分割し、各領域について平均値Avg2-1-1-1-1/16~Avg2-1-1-1-16/16を算出する。
 第6のネットワーク部620_6の第N層620_6Nのプーリング部1014では、これらの処理をNλチャネル分について行うことで、出力データ2100_1を生成する。
 同様に、第6のネットワーク部620_6の第N層620_6Nのプーリング部1014では、特徴データ1932_1のチャネル1を分割することなく、特徴データ1932_1のチャネル1の平均値Avg2-2-1-1-1/1を算出する。また、第6のネットワーク部620_6の第N層620_6Nのプーリング部1014では、特徴データ1932_1のチャネル1を4分割し、各領域について平均値Avg2-2-1-1-1/4~Avg2-2-1-1-4/4を算出する。更に、第6のネットワーク部620_6の第N層620_6Nのプーリング部1014では、特徴データ1932_1のチャネル1を16分割し、各領域について平均値Avg2-2-1-1-1/16~Avg2-2-1-1-16/16を算出する。
 第6のネットワーク部620_6の第N層620_6Nのプーリング部1014では、これらの処理をNλチャネル分について行うことで、出力データ2101_1を生成する。
 これにより、プーリング部1014では、例えば、データサイズの異なる特徴データ1931_1と特徴データ1932_1に対して、固定長の出力データ2100_1及び出力データ2101_1を出力することができる。
 <仮想測定データの評価>
 次に、推論部162より出力される仮想測定データ(推論結果)の精度について説明する。図21は、推論部による推論結果の精度を説明するための第1の図である。なお、図21の例は、1のチャンバを処理単位120と定義した場合において、各チャンバ(ここでは、チャンバA~チャンバDまでの4つのチャンバ)において、仮想測定データと検査データとを対比したことを示している。
 なお、検査データは、ここでは、ER値であるとして説明する。また、図21に示す各グラフにおいて、横軸は、仮想測定データの値を、縦軸は、検査データの値をそれぞれ示している。つまり、図21に示す各グラフにおいてプロットされた点は、傾きが“1”の直線に近いほど、仮想測定データの値と検査データの値とが一致していることを表している。一方、プロットされた点は、傾きが“1”の直線から離れているほど、仮想測定データの値と検査データの値との差が大きいことを表している。
 このうち、21aは、
・処理単位であるチャンバAにおいて、処理前ウェハ110が処理され、処理後ウェハ130を検査することで取得されたER値と、
・処理単位であるチャンバAにおいて、処理前ウェハ110の処理に伴い測定されたOESデータに基づいて推論された仮想測定データと、
の関係をプロットしたものである。
 また、21bは、
・処理単位のチャンバBにおいて、処理前ウェハ110が処理され、処理後ウェハ130を検査することで取得されたER値と、
・処理単位のチャンバBにおいて、処理前ウェハ110の処理に伴い測定されたOESデータに基づいて推論された仮想測定データと、
の関係をプロットしたものである。
 また、21cは、
・処理単位のチャンバCにおいて、処理前ウェハ110が処理され、処理後ウェハ130を検査することで取得されたER値と、
・処理単位のチャンバCにおいて、処理前ウェハ110の処理に伴い測定されたOESデータに基づいて推論された仮想測定データと、
の関係をプロットしたものである。
 また、21dは、
・処理単位のチャンバDにおいて、処理前ウェハ110が処理され、処理後ウェハ130を検査することで取得されたER値と、
・処理単位のチャンバDにおいて、処理前ウェハ110の処理に伴い測定されたOESデータに基づいて推論され仮想測定データと、
の関係をプロットしたものである。
 21a~21dに示すように、いずれのプロットも、概ね傾きが1の直線に近い位置にあり、チャンバによらず、良好な結果が得られているということができる。つまり、推論部162は、いずれのチャンバにも適用することができ、従来のように、チャンバごとに異なるモデルを生成する必要がないという利点を有する。
 なお、21a~21dは、いずれのチャンバにも適用できることを示した例であるが、推論部162は、異なるチャンバのみならず、同一チャンバのメンテナンス前後にも適用することができる。つまり、推論部162は、従来のように、チャンバのメンテナンスに伴って、モデルをメンテナンスする必要がないため、モデルの管理コストを低減できるという利点を有する。
 図22は、推論部による推論結果の精度を説明するための第2の図である。図22において、符号2310は、一般的な畳み込みニューラルネットワークにより構成されたネットワーク部を有する推論部を用いて推論した場合の仮想測定データと検査データとの誤差を評価した評価値である。また、符号2320は、推論部162を用いて推論した場合の仮想測定データと検査データとの誤差を評価した評価値である。
 なお、図22の例では、評価値として、相関係数の2乗(決定係数)と、MAPE(Mean Absolute Percentage Error:平均絶対パーセント誤差)とを用いている。また、図22の例では、処理単位であるチャンバA~Dすべてのプロットについての評価値と、処理単位であるチャンバA~Dそれぞれのプロットについての評価値とを算出している。
 図22に示すように、一般的な畳み込みニューラルネットワークにより構成されたネットワーク部を有する推論部よりも、推論部162の方が、いずれの評価値も良好な結果となっている。つまり、推論部162によれば、従来よりも高精度な仮想測定処理を実行することができる。
 <まとめ>
 以上の説明から明らかなように、第2の実施形態に係る仮想測定装置は、
・製造プロセスの所定の処理単位における対象物の処理に伴い、発光分光分析装置にて測定された時系列データ群であるOESデータを取得する。また、取得したOESデータを、異なる手法で正規化し、それぞれ異なるネットワーク部を用いて処理した各出力データを合成する。
・各出力データを合成することで得た合成結果が、製造プロセスの所定の処理単位において、対象物を処理した後の結果物の検査データ(ER値)に近づくよう、異なるネットワーク部を機械学習する。
 このように、OESデータを、異なるネットワーク部を用いて処理する構成としたうえで機械学習することで、製造プロセスの所定の処理単位を多面的に解析することができる。この結果、OESデータを1のネットワーク部を用いて処理する構成とした場合と比較して、高い推論精度を実現するモデルを生成することが可能となる。
 つまり、第2の実施形態によれば、高精度な仮想測定処理を実行可能な仮想測定装置を提供することができる。
 また、第2の実施形態に係る仮想測定装置は、
・異なるネットワーク部に入力するOESデータに対してリサイズ処理を行い、ミニバッチ単位でデータサイズが同じOESデータを生成する。
・ネットワーク部の最終層において、GAP処理またはSPP処理を行うことで、ミニバッチ間で同じデータサイズにして、固定長の出力データを出力する。
 これにより、第2の実施形態によれば、可変長のOESデータが入力された場合でも、機械学習アルゴリズムにより推論部を生成することが可能となる。
 [その他の実施形態]
 上記第2の実施形態では、正規化部1001が行う正規化処理として、
・波長全体に対する所定の時間長分の発光強度の中から算出した、発光強度の平均と標準偏差とを用いて行う正規化処理、
・それぞれの波長内での所定の時間長分の発光強度の中から算出した、発光強度の平均と標準偏差とを用いて行う正規化処理、
を例示した。しかしながら、正規化部1001が正規化処理を行う際に用いる統計値は様々であり、例えば、発光強度の最大値と標準偏差とを用いて正規化処理を行ってもよいし、その他の統計値を用いて正規化処理を行ってもよい。また、いずれの統計値を用いて正規化処理を行うかは選択できるように構成されていてもよい。
 また、上記第2の実施形態では、時系列データ群がOESデータである場合について説明した。しかしながら、上記第2の実施形態で用いる時系列データ群は、OESデータに限定されず、OESデータとOESデータ以外の時系列データとを組み合わせた時系列データ群を用いてもよい。
 また、上記第2の実施形態では、異なるネットワーク部それぞれに、同じ時系列データ群を入力するものとして説明したが、異なるネットワーク部それぞれに入力する時系列データ群は、同じ時系列データ群であっても、異なる時系列データ群であってもよい。また、一部が互いに重複した時系列データ群であってもよい。同じ傾向の時系列データがそれぞれの時系列データ群に含まれている場合、同様の効果が見込まれるからである。
 また、上記第2の実施形態では、ネットワーク部の最終層においてGAP処理またはSPP処理を行うものとして説明したが、これらの処理は、第1の実施形態において説明したネットワーク部の最終層において行われるように構成してもよい。
 また、上記第2の実施形態では、プーリング部1014がSPP処理を行う際、特徴データを、3通りの分割方法(分割なし、4分割、16分割)で分割するものとして説明したが、分割方法は3通りに限定されない。また、分割数も、0、4、16に限定されない。
 また、上記第1及び第2の実施形態では、学習部161の第1のネットワーク部620_1~第Mのネットワーク部620_Mの機械学習アルゴリズムを、畳み込みニューラルネットワークをベースに構成するものとして説明した。しかしながら、学習部161の第1のネットワーク部620_1~第Mのネットワーク部620_Mの機械学習アルゴリズムは、畳み込みニューラルネットワークに限定されず、他の機械学習アルゴリズムをベースに構成してもよい。
 また、上記第2の実施形態では、検査データとして、ER値を用いる場合について説明したが、CD(Critical Dimension)値等を用いてもよい。
 また、上記第1及び第2の実施形態では、仮想測定装置160が学習部161及び推論部162として機能するものとして説明した。しかしながら、学習部161として機能する装置と、推論部162として機能する装置とは一体である必要はなく、別体により構成してもよい。つまり、仮想測定装置160は、推論部162を有していない学習部161として機能させてもよいし、学習部161を有していない推論部162として機能させてもよい。
 なお、上記実施形態に挙げた構成等に、その他の要素との組み合わせ等、ここで示した構成に本発明が限定されるものではない。これらの点に関しては、本発明の趣旨を逸脱しない範囲で変更することが可能であり、その応用形態に応じて適切に定めることができる。
 本出願は、2018年11月30日に出願された日本国特許出願第2018-225676号に基づきその優先権を主張するものであり、同日本国特許出願の全内容を参照することにより本願に援用する。
100             :システム
110             :処理前ウェハ
120             :処理単位
130             :処理後ウェハ
140_1~140_n     :時系列データ取得装置
150             :検査データ取得装置
160             :仮想測定装置
161             :学習部
162             :推論部
200             :半導体製造装置
610             :分岐部
620_1           :第1のネットワーク部
620_11~620_1N   :第1層~第N層
620_2           :第2のネットワーク部
620_21~620_2N   :第1層~第N層
620_M           :第Mのネットワーク部
620_M1~620_MN   :第1層~第N層
630             :連結部
640             :比較部
1001、1011       :正規化部
1004、1014       :プーリング部
1210            :分岐部
1220_1          :第1のネットワーク部
1220_11~1220_1N :第1層~第N層
1220_2          :第2のネットワーク部
1220_21~1220_2N :第1層~第N層
1220_M          :第Mのネットワーク部
1220_M1~1220_MN :第1層~第N層
1240            :連結部
1250            :比較部
1401            :発光分光分析装置
1520            :OESデータ
1610、1620       :正規化OESデータ

Claims (18)

  1.  製造プロセスの所定の処理単位において、対象物の処理に伴い測定された時系列データ群を取得する取得部と、
     取得した前記時系列データ群を複数のネットワーク部を用いて処理することで出力された各出力データの合成結果が、前記製造プロセスの前記所定の処理単位において前記対象物を処理した際の結果物の検査データに近づくよう、前記複数のネットワーク部を機械学習する学習部と
     を有する仮想測定装置。
  2.  新たな対象物について取得した時系列データ群を、機械学習された前記複数のネットワーク部を用いて処理することで出力された各出力データの合成結果を、前記新たな対象物を処理した際の結果物の検査データとして推論する推論部を更に有する請求項1に記載の仮想測定装置。
  3.  製造プロセスの所定の処理単位において、対象物の処理に伴い測定された時系列データ群を取得する取得部と、
     取得した前記時系列データ群を複数のネットワーク部を用いて処理し、該複数のネットワーク部より出力された各出力データの合成結果を、前記対象物を処理した際の結果物の検査データとして推論する推論部と、を有し、
     前記複数のネットワーク部は、予め取得された時系列データ群を処理することで出力した各出力データの合成結果が、製造プロセスの所定の処理単位において対象物を処理した際の結果物の検査データに近づくように機械学習されている、仮想測定装置。
  4.  前記学習部は、
     取得した前記時系列データ群を第1の基準及び第2の基準に応じてそれぞれ処理することで、第1の時系列データ群と第2の時系列データ群とを生成し、生成した前記第1の時系列データ群及び前記第2の時系列データ群を異なるネットワーク部を用いて処理することで出力された各出力データの合成結果が、前記製造プロセスの前記所定の処理単位において前記対象物を処理した際の結果物の検査データに近づくよう、前記異なるネットワーク部を機械学習する、請求項1に記載の仮想測定装置。
  5.  新たな対象物について取得した時系列データ群を前記第1の基準及び前記第2の基準に応じてそれぞれ処理することで、第1の時系列データ群と第2の時系列データ群とを生成し、機械学習された前記異なるネットワーク部を用いて処理することで出力された各出力データの合成結果を、前記新たな対象物を処理した際の結果物の検査データとして推論する推論部を更に有する請求項4に記載の仮想測定装置。
  6.  前記学習部は、
     取得した前記時系列データ群をデータ種類または時間範囲に応じてグループ分けし、各グループを異なるネットワーク部を用いて処理することで出力された各出力データの合成結果が、前記製造プロセスの前記所定の処理単位において前記対象物を処理した際の結果物の検査データに近づくよう、前記異なるネットワーク部を機械学習する、請求項1に記載の仮想測定装置。
  7.  新たな対象物について取得した時系列データ群を前記データ種類または前記時間範囲に応じてグループ分けし、各グループを、機械学習された前記異なるネットワーク部を用いて処理することで出力された各出力データの合成結果を、前記新たな対象物を処理した際の結果物の検査データとして推論する推論部を更に有する請求項6に記載の仮想測定装置。
  8.  前記学習部は、
     取得した前記時系列データ群を、異なる手法で正規化を行う正規化部をそれぞれに含む異なるネットワーク部に入力し、該異なるネットワーク部を用いて処理することで出力された各出力データの合成結果が、前記製造プロセスにおいて前記対象物を処理した際の結果物の検査データに近づくよう、前記異なるネットワーク部を機械学習する、請求項1に記載の仮想測定装置。
  9.  新たな対象物について取得した時系列データ群を、機械学習された前記異なるネットワーク部にそれぞれ入力し、機械学習された前記異なるネットワーク部を用いて処理することで出力された各出力データの合成結果を、前記新たな対象物を処理した際の結果物の検査データとして推論する推論部を更に有する請求項8に記載の仮想測定装置。
  10.  前記学習部は、
     前記所定の処理単位内の第1の処理空間における前記対象物の処理に伴い測定された第1の時系列データ群と、第2の処理空間における前記対象物の処理に伴い測定された第2の時系列データ群とを、異なるネットワーク部を用いて処理することで出力された各出力データの合成結果が、前記製造プロセスの所定の処理単位において前記対象物を処理した際の結果物の検査データに近づくよう、前記異なるネットワーク部を機械学習する、請求項1に記載の仮想測定装置。
  11.  新たな対象物について、前記所定の処理単位内の前記第1の処理空間における処理に伴い測定された第1の時系列データ群と、前記第2の処理空間における処理に伴い測定された第2の時系列データ群とを、機械学習された前記異なるネットワーク部を用いて処理することで出力された各出力データの合成結果を、前記新たな対象物を処理した際の結果物の検査データとして推論する推論部を更に有する請求項10に記載の仮想測定装置。
  12.  前記時系列データ群は、基板処理装置における処理に伴い測定されたデータである、請求項1に記載の仮想測定装置。
  13.  前記時系列データ群は、基板処理装置における処理に伴い発光分光分析装置により測定されたデータであって、各時間に測定された各波長の発光強度を示すデータである、請求項8に記載の仮想測定装置。
  14.  前記異なるネットワーク部のうち、第1のネットワーク部に含まれる前記正規化部は、前記時系列データ群に基づき、各波長の所定の時間長分の発光強度を示す1チャネルのデータを生成し、生成した1チャネルのデータについて正規化を行う、請求項13に記載の仮想測定装置。
  15.  前記異なるネットワーク部のうち、第2のネットワーク部に含まれる前記正規化部は、前記時系列データ群に基づき、1つの波長の所定の時間長分の発光強度を示すデータを、波長の数に応じたチャネルだけ生成し、生成した各チャネルのデータについて正規化を行う、請求項13に記載の仮想測定装置。
  16.  前記異なるネットワーク部の各層のうち、最終層に含まれるプーリング部は、GAP処理またはSPP処理を行う、請求項8に記載の仮想測定装置。
  17.  製造プロセスの所定の処理単位において、対象物の処理に伴い測定された時系列データ群を取得する取得工程と、
     取得した前記時系列データ群を複数のネットワーク部を用いて処理することで出力された各出力データの合成結果が、前記製造プロセスの前記所定の処理単位において前記対象物を処理した際の結果物の検査データに近づくよう、前記複数のネットワーク部を機械学習する学習工程と
     を有する仮想測定方法。
  18.  製造プロセスの所定の処理単位において、対象物の処理に伴い測定された時系列データ群を取得する取得工程と、
     取得した前記時系列データ群を複数のネットワーク部を用いて処理することで出力された各出力データの合成結果が、前記製造プロセスの前記所定の処理単位において前記対象物を処理した際の結果物の検査データに近づくよう、前記複数のネットワーク部を機械学習する学習工程と
     をコンピュータに実行させるための仮想測定プログラム。
PCT/JP2019/046869 2018-11-30 2019-11-29 仮想測定装置、仮想測定方法及び仮想測定プログラム WO2020111258A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020217019299A KR20210096155A (ko) 2018-11-30 2019-11-29 가상 측정 장치, 가상 측정 방법 및 가상 측정 프로그램
US17/294,509 US20220011747A1 (en) 2018-11-30 2019-11-29 Virtual metrology apparatus, virtual metrology method, and virtual metrology program
JP2020557874A JP7118170B2 (ja) 2018-11-30 2019-11-29 仮想測定装置、仮想測定方法及び仮想測定プログラム
CN201980076426.6A CN113169036A (zh) 2018-11-30 2019-11-29 虚拟测定装置、虚拟测定方法及虚拟测定程序

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-225676 2018-11-30
JP2018225676 2018-11-30

Publications (1)

Publication Number Publication Date
WO2020111258A1 true WO2020111258A1 (ja) 2020-06-04

Family

ID=70853036

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/046869 WO2020111258A1 (ja) 2018-11-30 2019-11-29 仮想測定装置、仮想測定方法及び仮想測定プログラム

Country Status (6)

Country Link
US (1) US20220011747A1 (ja)
JP (1) JP7118170B2 (ja)
KR (1) KR20210096155A (ja)
CN (1) CN113169036A (ja)
TW (1) TWI829807B (ja)
WO (1) WO2020111258A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220028725A (ko) * 2020-08-31 2022-03-08 (주)브릭 시계열 데이터의 특징값을 기반으로 예측값 및 시계열 구간별 특징 중요도 산출을 수행하는 가상 계측 방법 및 그를 위한 장치
KR20220028727A (ko) * 2020-08-31 2022-03-08 (주)브릭 열화에 따른 시계열 데이터를 이용한 실시간 이상 감지 방법 및 그를 위한 장치
KR20220028724A (ko) * 2020-08-31 2022-03-08 (주)브릭 시계열 데이터의 특징값을 기반으로 예측값 및 특징 중요도 산출을 수행하는 가상 계측 방법 및 그를 위한 장치
KR20220028726A (ko) * 2020-08-31 2022-03-08 (주)브릭 열화에 따른 패턴 학습을 이용한 이상 감지 방법 및 그를 위한 장치
WO2022264599A1 (ja) * 2021-06-17 2022-12-22 東京エレクトロン株式会社 基板処理装置、データ処理方法及びデータ処理プログラム

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7412150B2 (ja) * 2019-11-29 2024-01-12 東京エレクトロン株式会社 予測装置、予測方法及び予測プログラム
JP7452990B2 (ja) * 2019-11-29 2024-03-19 東京エレクトロン株式会社 異常検知装置、異常検知方法及び異常検知プログラム
JP7481956B2 (ja) * 2020-08-26 2024-05-13 株式会社東芝 推論装置、方法、プログラムおよび学習装置
WO2022233562A1 (en) * 2021-05-06 2022-11-10 Asml Netherlands B.V. Causal convolution network for process control

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010119894A1 (ja) * 2009-04-14 2010-10-21 シャープ株式会社 出来映え予測装置、出来映え予測方法、出来映え予測プログラム、及び、プログラム記録媒体
JP2012004181A (ja) * 2010-06-14 2012-01-05 Sharp Corp 特性予測装置、特性予測方法、特性予測プログラムおよびプログラム記録媒体
JP2014507801A (ja) * 2011-01-19 2014-03-27 東京エレクトロン株式会社 ツール操作パラメータ及び材料測定と分光情報を関連付けることによるツール性能の改良
WO2018101722A2 (ko) * 2016-11-30 2018-06-07 에스케이 주식회사 머신 러닝 기반 반도체 제조 수율 예측 시스템 및 방법

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0886628A (ja) * 1994-09-16 1996-04-02 Rohm Co Ltd 神経回路網による半導体チップリード半田外観検査法
US7062411B2 (en) * 2003-06-11 2006-06-13 Scientific Systems Research Limited Method for process control of semiconductor manufacturing equipment
US20040267397A1 (en) * 2003-06-27 2004-12-30 Srinivas Doddi Optical metrology of structures formed on semiconductor wafer using machine learning systems
DE10339924B4 (de) * 2003-08-29 2011-05-05 Infineon Technologies Ag ESD-Testanordnung und Verfahren
TWI267012B (en) * 2004-06-03 2006-11-21 Univ Nat Cheng Kung Quality prognostics system and method for manufacturing processes
JP5157359B2 (ja) * 2006-10-10 2013-03-06 オムロン株式会社 時系列データ解析装置、時系列データ解析システム、時系列データ解析装置の制御方法、プログラム、および記録媒体
WO2009034967A1 (ja) * 2007-09-11 2009-03-19 Tokyo Electron Limited 情報処理装置、情報処理方法、及びプログラム
TWI349867B (en) 2008-05-20 2011-10-01 Univ Nat Cheng Kung Server and system and method for automatic virtual metrology
US8041451B2 (en) * 2009-04-21 2011-10-18 Taiwan Semiconductor Manufacturing Company, Ltd. Method for bin-based control
US8437870B2 (en) * 2009-06-05 2013-05-07 Taiwan Semiconductor Manufacturing Company, Ltd. System and method for implementing a virtual metrology advanced process control platform
CN101976045B (zh) * 2010-08-25 2012-05-23 江苏大学 用于tft-lcd蚀刻制程的面板品质虚拟量测方法与***
CN101963802B (zh) * 2010-08-25 2012-08-15 江苏大学 批次制程的虚拟量测方法与***
JP5933985B2 (ja) * 2012-02-15 2016-06-15 株式会社日立ハイテクノロジーズ レシピ実行時間演算装置および半導体検査装置
JP6015282B2 (ja) * 2012-09-21 2016-10-26 オムロン株式会社 シミュレーション装置、シミュレーション方法、およびシミュレーションプログラム
US10242142B2 (en) * 2013-03-14 2019-03-26 Coventor, Inc. Predictive 3-D virtual fabrication system and method
US9183624B2 (en) * 2013-06-19 2015-11-10 Kla-Tencor Corp. Detecting defects on a wafer with run time use of design data
CN103617329A (zh) * 2013-12-12 2014-03-05 西安工业大学 一种基于人工神经网络和虚拟装配的装配时间评价方法
US20150332167A1 (en) * 2014-05-13 2015-11-19 Tokyo Electron Limited System and method for modeling and/or analyzing manufacturing processes
JP6751871B2 (ja) * 2014-11-25 2020-09-09 ピーディーエフ ソリューションズ,インコーポレイテッド 半導体製造プロセスのための改善されたプロセス制御技術
JP6559433B2 (ja) * 2015-02-17 2019-08-14 Hoya株式会社 フォトマスクの製造方法、描画装置、フォトマスクの検査方法、フォトマスクの検査装置、及び表示装置の製造方法
JP6625914B2 (ja) * 2016-03-17 2019-12-25 ファナック株式会社 機械学習装置、レーザ加工システムおよび機械学習方法
JP2018105659A (ja) * 2016-12-23 2018-07-05 国立研究開発法人理化学研究所 識別装置、識別システム、学習装置、学習方法、識別プログラム、学習プログラム、記録媒体、及び集積回路
US11237119B2 (en) * 2017-01-10 2022-02-01 Kla-Tencor Corporation Diagnostic methods for the classifiers and the defects captured by optical tools
JP6964857B2 (ja) * 2017-03-28 2021-11-10 国立大学法人神戸大学 画像認識装置、画像認識方法、コンピュータプログラム、及び製品監視システム
JP6860406B2 (ja) * 2017-04-05 2021-04-14 株式会社荏原製作所 半導体製造装置、半導体製造装置の故障予知方法、および半導体製造装置の故障予知プログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010119894A1 (ja) * 2009-04-14 2010-10-21 シャープ株式会社 出来映え予測装置、出来映え予測方法、出来映え予測プログラム、及び、プログラム記録媒体
JP2012004181A (ja) * 2010-06-14 2012-01-05 Sharp Corp 特性予測装置、特性予測方法、特性予測プログラムおよびプログラム記録媒体
JP2014507801A (ja) * 2011-01-19 2014-03-27 東京エレクトロン株式会社 ツール操作パラメータ及び材料測定と分光情報を関連付けることによるツール性能の改良
WO2018101722A2 (ko) * 2016-11-30 2018-06-07 에스케이 주식회사 머신 러닝 기반 반도체 제조 수율 예측 시스템 및 방법

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220028725A (ko) * 2020-08-31 2022-03-08 (주)브릭 시계열 데이터의 특징값을 기반으로 예측값 및 시계열 구간별 특징 중요도 산출을 수행하는 가상 계측 방법 및 그를 위한 장치
KR20220028727A (ko) * 2020-08-31 2022-03-08 (주)브릭 열화에 따른 시계열 데이터를 이용한 실시간 이상 감지 방법 및 그를 위한 장치
KR20220028724A (ko) * 2020-08-31 2022-03-08 (주)브릭 시계열 데이터의 특징값을 기반으로 예측값 및 특징 중요도 산출을 수행하는 가상 계측 방법 및 그를 위한 장치
KR20220028726A (ko) * 2020-08-31 2022-03-08 (주)브릭 열화에 따른 패턴 학습을 이용한 이상 감지 방법 및 그를 위한 장치
KR102486463B1 (ko) 2020-08-31 2023-01-09 (주)브릭 열화에 따른 시계열 데이터를 이용한 실시간 이상 감지 방법 및 그를 위한 장치
KR102486460B1 (ko) * 2020-08-31 2023-01-09 (주)브릭 시계열 데이터의 특징값을 기반으로 예측값 및 특징 중요도 산출을 수행하는 가상 계측 방법 및 그를 위한 장치
KR102486461B1 (ko) * 2020-08-31 2023-01-09 (주)브릭 시계열 데이터의 특징값을 기반으로 예측값 및 시계열 구간별 특징 중요도 산출을 수행하는 가상 계측 방법 및 그를 위한 장치
KR102486462B1 (ko) * 2020-08-31 2023-01-09 (주)브릭 열화에 따른 패턴 학습을 이용한 이상 감지 방법 및 그를 위한 장치
WO2022264599A1 (ja) * 2021-06-17 2022-12-22 東京エレクトロン株式会社 基板処理装置、データ処理方法及びデータ処理プログラム

Also Published As

Publication number Publication date
KR20210096155A (ko) 2021-08-04
TWI829807B (zh) 2024-01-21
CN113169036A (zh) 2021-07-23
JP7118170B2 (ja) 2022-08-15
US20220011747A1 (en) 2022-01-13
TW202038034A (zh) 2020-10-16
JPWO2020111258A1 (ja) 2021-11-11

Similar Documents

Publication Publication Date Title
WO2020111258A1 (ja) 仮想測定装置、仮想測定方法及び仮想測定プログラム
JP7412150B2 (ja) 予測装置、予測方法及び予測プログラム
KR102179988B1 (ko) 오버레이 오차, 근본 원인 분석 및 공정 제어의 피드 포워드 및 피드백 정정을 위한 통계적 오버레이 오차 예측
US7774153B1 (en) Computer-implemented methods, carrier media, and systems for stabilizing output acquired by an inspection system
TWI503763B (zh) 半導體處理控制方法和電腦可讀取紀錄媒體
US20170132352A1 (en) Wafer point by point analysis and data presentation
US20210157824A1 (en) Preprocessing for a Classification Algorithm
JP2024072841A (ja) 異常検知装置、異常検知方法及び異常検知プログラム
US7299154B1 (en) Method and apparatus for fast disturbance detection and classification
JP7224492B2 (ja) 推論装置、推論方法及び推論プログラム
US20230054159A1 (en) Method and device for predicting defects
JP4600803B2 (ja) 埋め込まれたリング発振器を備えた非破壊光波測定構造、およびこの構造を使用した方法
CN113255927A (zh) 逻辑回归模型训练方法、装置、计算机设备和存储介质
US8874252B2 (en) Comprehensive analysis of queue times in microelectronic manufacturing
US11469122B2 (en) Semiconductor process analysis device, semiconductor process analysis method, and storage medium
US11449979B2 (en) Measuring a pattern
US20240210925A1 (en) Method and apparatus with operational control dependent on multiple processes
US20240201638A1 (en) Method and device with process data analysis
US10678226B1 (en) Adaptive numerical aperture control method and system
TW201905476A (zh) 基於妨害地圖之寬帶電漿檢查

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19890057

Country of ref document: EP

Kind code of ref document: A1

DPE1 Request for preliminary examination filed after expiration of 19th month from priority date (pct application filed from 20040101)
ENP Entry into the national phase

Ref document number: 2020557874

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 20217019299

Country of ref document: KR

Kind code of ref document: A

122 Ep: pct application non-entry in european phase

Ref document number: 19890057

Country of ref document: EP

Kind code of ref document: A1