KR20230046279A - 딥 러닝을 사용한 3d 구조물 검사 또는 계측 - Google Patents

딥 러닝을 사용한 3d 구조물 검사 또는 계측 Download PDF

Info

Publication number
KR20230046279A
KR20230046279A KR1020227045445A KR20227045445A KR20230046279A KR 20230046279 A KR20230046279 A KR 20230046279A KR 1020227045445 A KR1020227045445 A KR 1020227045445A KR 20227045445 A KR20227045445 A KR 20227045445A KR 20230046279 A KR20230046279 A KR 20230046279A
Authority
KR
South Korea
Prior art keywords
specimen
image
height
dimensional structures
images
Prior art date
Application number
KR1020227045445A
Other languages
English (en)
Other versions
KR102685758B1 (ko
Inventor
스코트 에이 영
크리스 바스카
레나 니콜라이데스
Original Assignee
케이엘에이 코포레이션
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 케이엘에이 코포레이션 filed Critical 케이엘에이 코포레이션
Publication of KR20230046279A publication Critical patent/KR20230046279A/ko
Application granted granted Critical
Publication of KR102685758B1 publication Critical patent/KR102685758B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/06Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness for measuring thickness ; e.g. of sheet material
    • G01B11/0608Height gauges
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/95Investigating the presence of flaws or contamination characterised by the material or shape of the object to be examined
    • G01N21/9501Semiconductor wafers
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03FPHOTOMECHANICAL PRODUCTION OF TEXTURED OR PATTERNED SURFACES, e.g. FOR PRINTING, FOR PROCESSING OF SEMICONDUCTOR DEVICES; MATERIALS THEREFOR; ORIGINALS THEREFOR; APPARATUS SPECIALLY ADAPTED THEREFOR
    • G03F7/00Photomechanical, e.g. photolithographic, production of textured or patterned surfaces, e.g. printing surfaces; Materials therefor, e.g. comprising photoresists; Apparatus specially adapted therefor
    • G03F7/70Microphotolithographic exposure; Apparatus therefor
    • G03F7/70483Information management; Active and passive control; Testing; Wafer monitoring, e.g. pattern monitoring
    • G03F7/70491Information management, e.g. software; Active and passive control, e.g. details of controlling exposure processes or exposure tool monitoring processes
    • G03F7/705Modelling or simulating from physical phenomena up to complete wafer processes or whole workflow in wafer productions
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03FPHOTOMECHANICAL PRODUCTION OF TEXTURED OR PATTERNED SURFACES, e.g. FOR PRINTING, FOR PROCESSING OF SEMICONDUCTOR DEVICES; MATERIALS THEREFOR; ORIGINALS THEREFOR; APPARATUS SPECIALLY ADAPTED THEREFOR
    • G03F7/00Photomechanical, e.g. photolithographic, production of textured or patterned surfaces, e.g. printing surfaces; Materials therefor, e.g. comprising photoresists; Apparatus specially adapted therefor
    • G03F7/70Microphotolithographic exposure; Apparatus therefor
    • G03F7/70483Information management; Active and passive control; Testing; Wafer monitoring, e.g. pattern monitoring
    • G03F7/70491Information management, e.g. software; Active and passive control, e.g. details of controlling exposure processes or exposure tool monitoring processes
    • G03F7/70508Data handling in all parts of the microlithographic apparatus, e.g. handling pattern data for addressable masks or data transfer to or from different components within the exposure apparatus
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03FPHOTOMECHANICAL PRODUCTION OF TEXTURED OR PATTERNED SURFACES, e.g. FOR PRINTING, FOR PROCESSING OF SEMICONDUCTOR DEVICES; MATERIALS THEREFOR; ORIGINALS THEREFOR; APPARATUS SPECIALLY ADAPTED THEREFOR
    • G03F7/00Photomechanical, e.g. photolithographic, production of textured or patterned surfaces, e.g. printing surfaces; Materials therefor, e.g. comprising photoresists; Apparatus specially adapted therefor
    • G03F7/70Microphotolithographic exposure; Apparatus therefor
    • G03F7/70483Information management; Active and passive control; Testing; Wafer monitoring, e.g. pattern monitoring
    • G03F7/70605Workpiece metrology
    • G03F7/70616Monitoring the printed patterns
    • G03F7/7065Defects, e.g. optical inspection of patterned layer for defects
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03FPHOTOMECHANICAL PRODUCTION OF TEXTURED OR PATTERNED SURFACES, e.g. FOR PRINTING, FOR PROCESSING OF SEMICONDUCTOR DEVICES; MATERIALS THEREFOR; ORIGINALS THEREFOR; APPARATUS SPECIALLY ADAPTED THEREFOR
    • G03F7/00Photomechanical, e.g. photolithographic, production of textured or patterned surfaces, e.g. printing surfaces; Materials therefor, e.g. comprising photoresists; Apparatus specially adapted therefor
    • G03F7/70Microphotolithographic exposure; Apparatus therefor
    • G03F7/70483Information management; Active and passive control; Testing; Wafer monitoring, e.g. pattern monitoring
    • G03F7/70605Workpiece metrology
    • G03F7/70653Metrology techniques
    • G03F7/70666Aerial image, i.e. measuring the image of the patterned exposure light at the image plane of the projection system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/529Depth or shape recovery from texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/586Depth or shape recovery from multiple images from multiple light sources, e.g. photometric stereo
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B2210/00Aspects not specifically covered by any group under G01B, e.g. of wheel alignment, caliper-like sensors
    • G01B2210/56Measuring geometric parameters of semiconductor structures, e.g. profile, critical dimensions or trench depth
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8806Specially adapted optical and illumination features
    • G01N2021/8822Dark field detection
    • G01N2021/8825Separate detection of dark field and bright field
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • G01N2021/8854Grading and classifying of flaws
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • G01N2021/8887Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges based on image processing techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10056Microscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10148Varying focus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10152Varying illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30141Printed circuit board [PCB]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30148Semiconductor; IC; Wafer

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Data Mining & Analysis (AREA)
  • Quality & Reliability (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Signal Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Testing Or Measuring Of Semiconductors Or The Like (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

표본에 대한 정보를 결정하기 위한 방법 및 시스템이 제공된다. 특정 실시예는 딥 러닝 인공 지능을 사용한 범프 높이 3D 검사 및 계측에 관한 것이다. 예를 들어, 일 실시예는 이미징 서브시스템에 의해 생성된 표본의 하나 이상의 이미지에 기초하여, 표본 상에 형성된 하나 이상의 3D 구조물의 높이를 예측하도록 구성된 딥 러닝(DL) 모델을 포함한다. 하나 이상의 컴퓨터 시스템은, 예측 높이에 기초하여, 표본에 대한 정보를 결정하도록 구성된다. 정보를 결정하는 것은, 예를 들어, 예측 높이에 기초하여 3D 구조물 중 어느 것이 결함이 있는지를 결정하는 것을 포함할 수 있다. 다른 예에서, 표본에 대해 결정된 정보는 하나 이상의 3D 구조물에 대한 평균 높이 메트릭을 포함할 수 있다.

Description

딥 러닝을 사용한 3D 구조물 검사 또는 계측
본 발명은 일반적으로 표본에 대한 정보를 결정하도록 구성된 방법 및 시스템에 관한 것이다. 특정 실시예는 딥 러닝(DL) 인공 지능(AI)을 사용한 범프 높이 3차원(3D) 검사 및/또는 계측을 위한 방법 및 시스템에 관한 것이다.
다음의 설명 및 예시는 본 섹션에 포함되어 있기 때문에 종래 기술로 인정되지 않는다.
로직 및 메모리 장치와 같은 반도체 장치를 제조하는 것은 일반적으로 반도체 장치의 다양한 피처 및 다중 레벨을 형성하기 위해 다수의 반도체 제조 공정을 이용하여 반도체 웨이퍼와 같은 기판을 처리하는 것을 포함한다. 예를 들어, 리소그래피(lithography)는 레티클(reticle)로부터 반도체 웨이퍼 상에 배열된 레지스트로 패턴을 전사하는 것을 포함하는 반도체 제조 공정이다. 반도체 제조 공정의 추가 예는 화학 기계적 연마(CMP: Chemical-Mechanical Polishing), 에칭, 퇴적 및 이온 주입을 포함하지만, 이것들로 한정되는 것은 아니다. 다수의 반도체 장치는 단일 반도체 웨이퍼 상에서 배열체로 제조되고 나서 개별 반도체 장치로 분리될 수 있다.
검사 공정은 반도체 제조 공정 동안 다양한 단계에서 웨이퍼의 결함을 검출하여 제조 공정에서의 더 높은 수율을 촉진함으로써 수익을 증대하는데 사용된다. 검사는 IC와 같은 반도체 장치를 제조하는데 있어 항상 중요한 부분이었다. 그러나, 반도체 장치의 크기가 축소됨에 따라 더 작은 결함으로도 장치가 고장이 날 수 있기 때문에, 가용 반도체 장치를 성공적으로 제조하기 위해서는 검사가 더욱 중요해지고 있다.
결함 검토에는 일반적으로 검사 공정에서 검출된 결함을 재검출하는 단계 및 고배율 광학 시스템 또는 주사 전자 현미경(SEM)을 사용하여 고해상도에서 결함에 대한 추가 정보를 생성하는 단계가 포함된다. 따라서 결함 검토는 검사를 통해 결함이 검출된 웨이퍼의 개별 위치에서 수행된다. 결함 검토에 의해 생성된 결함에 대한 고해상도 데이터는 프로파일, 거칠기, 더욱 정확한 크기 정보 등과 같은 결함의 속성을 결정하는데 더 적합하다.
계측 공정은 반도체 제조 공정의 다양한 단계에서 해당 공정을 모니터링하고 제어하는데 사용된다. 계측 공정은 웨이퍼에서 결함이 검출되는 검사 공정과는 달리, 현재 사용되는 검사 도구(inspection tool)를 사용하여 결정될 수 없는 웨이퍼의 하나 이상의 특성을 측정하는데 계측 공정이 사용된다는 점에서 검사 공정과는 상이하다. 예를 들어, 공정의 성능이 하나 이상의 특성 중에서 결정될 수 있도록, 공정 동안에 웨이퍼 상에 형성된 피처의 치수(예컨대, 선 폭, 두께 등)와 같은 웨이퍼의 하나 이상의 특성을 측정하기 위해 계측 공정이 사용된다. 또한, 웨이퍼의 하나 이상의 특성이 허용 가능하지 않은 경우(예컨대, 특성(들)에 대해 사전 결정된 범위를 벗어난 경우), 웨이퍼의 하나 이상의 특성의 측정값이, 공정에 의해 제조된 추가 웨이퍼가 허용 가능한 특성(들)을 갖도록, 공정의 하나 이상의 파라미터를 변경시키는데 사용될 수 있다.
계측 공정은, 검사에 의해 검출된 결함이 결함 검토에서 재고되는 결함 검토 공정과는 달리, 결함이 검출되지 않은 위치에서 수행될 수 있다는 점에서 결함 검토 공정과도 상이하다. 즉, 결함 검토와 달리, 웨이퍼 상에서 수행되는 계측 공정의 위치는 웨이퍼 상에서 수행되는 검사 공정의 결과와는 독립적일 수 있다. 특히, 계측 공정이 수행되는 위치는 검사 결과와는 독립적으로 선택될 수 있다. 또한, 계측이 수행되는 웨이퍼 상의 위치가 검사 결과와는 독립적으로 선택될 수 있기 때문에, 웨이퍼에 대한 검사 결과가 생성되고 사용 가능할 때까지 결함 검토가 수행될 웨이퍼 상의 위치가 결정될 수 없는 결함 검토와는 달리, 계측 공정이 수행되는 위치는 검사 공정이 웨이퍼 상에서 수행되기 전에 결정될 수 있다.
회로 집적의 대규모화와 반도체 장치의 크기 감소로 인해, 레티클과 제조된 장치는 임계 치수(CD), 높이, 필름 두께 및 조성 등과 같은 피처 변화에 점점 더 민감해졌다. 특정 예에서, 3차원(3D) 검사 및 계측은, TSV(실리콘 관통 비아) 및 범프 구조, 또는 입자 형상(크기 및 높이)을 평가하는 것과 같이, 반도체 산업에서 종종 사용된다. 높이 변동은, 보정되지 않으면, 전기적 타이밍 오류로 인해, 최종 장치가 원하는 성능을 충족하지 못하는 원인이 될 수 있다. 더 나쁜 점은 이것이 최종 장치로 하여금 오작동을 일으키게 하고 수율에 악영향을 미칠 수 있다.
3D 구조물의 높이를 측정하는 것 및 높이에 기초하여 해당 구조물의 결함 여부를 결정하는 것은 다른 구조물 측정 및 결함 검출과는 다른 문제를 나타낼 수 있다. 예를 들어, 웨이퍼 및 다른 반도체 기술 관련 표본의 검사 및 측정을 위해 설계된 많은 시스템 및 방법은 상이한 초점 오프셋에서 표본을 촬상하고 나서, 초점 오프셋이 최상의 초점에 있는 것으로 보이는 구조물의 이미지를 생성하는 것에 기초하여, 해당 구조물의 높이를 결정함으로써 높이를 측정하고 높이 관련 결함을 검출하는데 사용될 수 있다. 특히, 상이한 초점 설정에서 생성된 여러 이미지 중 하나의 이미지가 구조물에 포커싱된 것처럼 보일 경우, 이는 일반적으로 촬상되고 있는 구조물의 표면이 하나의 이미지를 생성하는데 사용되는 초점 설정에 대응하는 초점 평면의 위치와 일치한다는 것을 의미한다. 그런 다음 해당 초점 설정에 기초하여 해당 표면의 높이가 결정될 수 있다.
따라서, 3D 구조물의 높이 측정 및/또는 높이에 기초한 결함 검출에 사용되는 시스템 및 방법에는 몇 가지 명백한 단점이 있을 수 있다. 특히, 이와 같은 일부 시스템 및 방법에서는, 표본의 이미지가 상이한 초점 오프셋에서 동시에 생성될 수 있으며, 이는 확실히 가능하지만, 이와 같은 시스템의 하드웨어는 오늘날 사용되는 대부분의 검사 및 계측 도구와 달리 상대적으로 복잡한 경향이 있다. 따라서, 높이를 측정하거나 높이 관련 결함을 결정하는 것은 비교적 고가인 도구와 이와 같은 측정 및 검사에 특정적인 도구(즉, 검사 및 계측에 더욱 일반적으로 이용 가능한 도구와는 다름)를 필요로 할 수 있다. 이와 같은 복잡하고 고가인 도구 하드웨어를 피하기 위한 한 가지 방법은 각각 다른 초점 설정에서 표본을 다중 스캔하는 것이다. 그러나, 이와 같은 방법은 단 한 번이 아닌 다중 스캔을 수행하는데 드는 비용과 시간이 분명히 증가하는 것을 포함하는 자체적인 단점이 있을 것이다.
상이한 초점 오프셋에서 단 한 번의 스캔 또는 다중 스캔으로 이미지가 생성되는지 여부에 관계없이, 이와 같은 시스템 및 방법은 또한 촬상하는데 사용되는 초점 오프셋 중 하나에 대응하는 초점 평면 위치 중 하나가 측정 또는 검사 중인 구조물의 높이와 일치할 확률에 의존한다는 단점이 있다. 대부분의 이와 같은 시스템 및 방법은 실용성을 위해 분명히 한정된 수의 초점 오프셋을 사용할 것이므로, 초점 평면이 측정 또는 검사 중인 높이에 해당하는지 여부는 측정이 얼마나 정확한지와 검사가 얼마나 민감한지에 영향을 미칠 수 있다. 이와 같은 방법에 사용되는 초점 오프셋의 신중한 선택은 정확도 및/또는 감도를 최대화하는데 도움이 될 수 있지만, 초점 오프셋 선택으로 인한 측정 및 검사 오류의 가능성을 완전히 제거할 수는 없다.
따라서, 전술한 단점 중 하나 이상을 갖지 않는 표본에 형성된 3D 구조물에 대한 정보를 결정하기 위한 시스템 및 방법을 개발하는 것이 유리할 수 있다.
다양한 실시예에 대한 다음의 상세한 설명은 첨부된 청구항들의 주제를 어떤 식으로든 한정하는 것으로 해석되어서는 안 된다.
일 실시예는 표본에 대한 정보를 결정하도록 구성된 시스템에 관한 것이다. 본 시스템은 표본의 이미지를 생성하도록 구성된 이미징 서브시스템을 포함한다. 하나 이상의 3차원(3D) 구조물이 표본 상에 형성된다. 시스템은 또한 하나 이상의 컴퓨터 시스템 및 하나 이상의 컴퓨터 시스템에 의해 실행되는 하나 이상의 컴포넌트를 포함한다. 하나 이상의 컴포넌트는 이미지 중의 하나 이상에 기초하여 하나 이상의 3D 구조물의 높이를 예측하도록 구성된 딥 러닝(DL) 모델을 포함한다. 하나 이상의 컴퓨터 시스템은 하나 이상의 3D 구조물의 예측 높이에 기초하여 표본에 대한 정보를 결정하도록 구성된다. 시스템은 본 명세서에 설명된 바와 같이 또한 구성될 수 있다.
다른 실시예는 표본의 정보를 결정하기 위한 컴퓨터 구현 방법에 관한 것이다. 본 방법은 이미징 서브시스템에 의해 표본의 이미지를 생성하는 단계를 포함한다. 하나 이상의 3D 구조물이 표본 상에 형성된다. 본 방법은, 하나 이상의 컴퓨터 시스템에 의해 실행되는 하나 이상의 컴포넌트에 포함된 DL 모델에 이미지 중의 하나 이상을 입력함으로써, 그 이미지 중의 하나 이상에 기초하여 하나 이상의 3D 구조물의 높이를 예측하는 단계를 더 포함한다. 또한, 본 방법은 하나 이상의 3D 구조물의 예측 높이에 기초하여 표본에 대한 정보를 결정하는 단계를 포함한다. 결정 단계는 하나 이상의 컴퓨터 시스템에 의해 수행된다.
전술한 방법의 각 단계는 본 명세서에 기술된 바와 같이 추가로 수행될 수 있다. 더욱이, 전술한 방법의 실시예는 본 명세서에 기술된 임의의 다른 방법(들)의 임의의 다른 단계(들)를 포함할 수 있다. 아울러, 전술한 방법은 본 명세서에 기술된 임의의 시스템에 의해 수행될 수 있다.
또 다른 실시예는 표본에 대한 정보를 결정하기 위한 컴퓨터 구현 방법을 수행하기 위해 하나 이상의 컴퓨터 시스템에서 실행 가능한 프로그램 명령어를 저장한 비일시적 컴퓨터 판독 가능 매체에 관한 것이다. 컴퓨터 구현 방법은 전술한 방법의 단계를 포함할 수 있다. 컴퓨터 판독 가능 매체는 본 명세서에 기술된 바와 같이 또한 구성될 수 있다. 컴퓨터 구현 방법의 단계는 본 명세서에 추가로 기술된 바와 같이 수행될 수 있다. 또한, 프로그램 명령어를 실행할 수 있는 컴퓨터 구현 방법은 본 명세서에 기술된 임의의 다른 방법(들)의 임의의 다른 단계(들)를 포함할 수 있다.
본 발명의 추가적인 이점은 바람직한 실시예에 대한 다음의 상세한 설명 및 첨부 도면을 참조하여 당업자에게 명백해질 것이다.
도 1 및 도 1a는 본 명세서에 기술된 바와 같이 구성된 시스템의 실시예의 측면도를 나타내는 개략도이다.
도 2는 범프 예의 단면도 및 해당 설계가 시간에 따라 어떻게 변하는지를 나타내는 개략도이다.
도 3은 본 명세서에 기술된 실시예에 의해 범프에 대해 결정될 수 있는 다양한 높이 및 정보를 갖는 범프 예의 단면도를 나타내는 개략도이다.
도 4는 본 명세서에 기술된 이미징 서브시스템 실시예에 의해 스캐닝되고 있는 표본 상의 범프 예의 단면도 및 이미징 서브시스템에 의해 생성된 이미지의 평면도를 나타내는 개략도이다.
도 5는 표본에 대한 정보를 결정하기 위한 방법의 일 실시예를 나타내는 흐름도이다.
도 6은, 하나 이상의 컴퓨터 시스템으로 하여금, 본 명세서에 기술된 컴퓨터 구현 방법을 수행하게 하기 위한 프로그램 명령어를 저장한 비일시적 컴퓨터 판독 가능 매체의 일 실시예를 나타내는 블록도이다.
본 발명은 다양한 수정 및 대안적인 형태에 영향을 받기 쉽지만, 그 특정 실시예들은 도면에 예시로서 도시되어 있으며, 본 명세서에 상세하게 설명되어 있다. 도면은 축척이 맞지 않을 수 있다. 그러나, 도면 및 그에 대한 상세한 설명은 본 발명을 개시된 특정 형태로 한정하려는 것이 아니라, 그 반대로 첨부된 청구범위에 정의된 본 발명의 사상 및 범주 내에 속하는 모든 변형, 등가물 및 대안을 포괄하려는 것임을 이해해야 한다.
이제 도면으로 돌아가서, 도면들은 축척대로 도시되지 않았음에 유의한다. 특히, 도면의 일부 요소의 축척은 그 요소의 특성을 강조하기 위해 크기가 크게 과장되었다. 또한, 도면이 동일한 축척으로 도시되지 않는다는 점에 유의한다. 유사하게 구성될 수 있는 둘 이상의 도면에 도시된 요소는 동일한 참조 번호를 사용하여 표시되었다. 본 명세서에서 달리 언급되지 않는 한, 기술되고 도시된 임의의 요소는 상업적으로 이용 가능한 임의의 적합한 요소를 포함할 수 있다.
일반적으로, 본 명세서에 설명된 실시예는 표본에 대한 정보를 결정하기 위한 방법 및 시스템에 관한 것이다. 본 명세서에 설명된 일부 실시예는 범프 높이 3차원(3D) 검사 및 딥 러닝(DL) 인공 지능(AI)을 사용하는 계측을 위해 구성된다.
표본에 대한 정보를 결정하도록 구성된 시스템의 일 실시예가 도 1에 도시된다. 시스템은 하나 이상의 컴퓨터 시스템(예컨대, 컴퓨터 서브시스템(46) 및 컴퓨터 시스템(들)(102)) 및 하나 이상의 컴퓨터 시스템에 의해 실행되는 하나 이상의 컴포넌트(100)를 포함한다. 시스템은 또한 표본의 이미지를 생성하도록 구성된 이미징 서브시스템(10)을 포함한다. 일 실시예에서, 이미징 서브시스템은 광 기반 서브시스템으로 구성된다. 예를 들어, 도 1의 실시예에서, 이미징 서브시스템은, 표본으로부터 광을 검출하여 표본에 대한 이미지를 생성하는 동안, 표본의 물리적 버전 전체에 걸쳐 광을 스캐닝하거나 해당 물리적 버전으로 광을 지향시키도록 구성된다. 이미징 서브시스템은 본 명세서에서 추가로 기술되는 바와 같이 다중 모드로 스캐닝(또는 지향) 및 검출을 수행하도록 구성될 수도 있다.
도 1에 도시된 시스템의 실시예에서, 이미징 서브시스템(10)은 광을 표본(14)으로 지향시키도록 구성된 조명 서브시스템을 포함한다. 조명 서브시스템은 적어도 하나의 광원을 포함한다. 도 1에 도시된 바와 같이, 조명 서브시스템은 광원(16) 및/또는 광원(34)을 포함한다. 조명 서브시스템은 하나 이상의 경사각 및/또는 하나 이상의 수직 각도를 포함할 수 있는 하나 이상의 입사각으로 표본에 광을 지향시키도록 구성될 수 있다. 예를 들어, 도 1에 도시된 바와 같이, 광원(16)으로부터의 광은 광학 요소(18)를 통과한 다음, 렌즈(20)를 통해 경사 입사각으로 표본(14)에 지향된다. 경사 입사각은, 예를 들어, 표본의 특성에 따라 변할 수 있는 임의의 적합한 경사 입사각을 포함할 수 있다. 광원(34)으로부터의 광은 광학 요소(36), 빔 스플리터(38, 26) 및 렌즈(24)를 통해 수직(또는 실질적 수직) 입사각으로 표본(14)에 지향될 수 있다. 광원(34)으로부터의 광이 표본에 지향되는 각도가 정확히 수직이 아닌 경우, 실질적 수직 입사각은, 예컨대 표본의 특성에 기초하여 전술한 바와 같이 선택될 수 있다.
이미징 서브시스템은 상이한 시간에 상이한 입사각으로 표본을 향해 광을 지향시키도록 구성될 수 있다. 예를 들어, 이미징 서브시스템은 광원 중 하나에서 표본으로 광을 지향시킨 다음, 다른 광원으로부터의 광을 표본에 지향시키도록 구성될 수 있다. 이미징 서브시스템은 또한 동시에 둘 이상의 입사각으로 표본을 향해 광을 지향시키도록 구성될 수 있다. 예를 들어, 조명 서브시스템은 둘 이상의 조명 채널을 포함할 수 있고, 조명 채널 중 하나는, 도 1에 도시된 바와 같이, 광원(16), 광학 요소(18) 및 렌즈(20)를 포함할 수 있고, 조명 채널 중 다른 하나는 광원(34), 광학 요소(36) 및 렌즈(24)를 포함할 수 있다. 복수의 조명 채널로부터의 광이 동시에 표본을 향해 지향되는 경우, 상이한 입사각으로 표본을 향해 지향되는 광의 하나 이상의 특성(예컨대, 파장, 편광 등)은, 상이한 입사각에서의 표본의 조명에 기인하는 광이 서로 분리되어 검출기(들)에서 개별적으로 검출되도록, 상이할 수 있다.
동일 조명 채널은 상이한 시간에 특성이 상이한 표본으로 광을 지향시키도록 구성될 수도 있다. 예를 들어, 일부 경우에, 광학 요소(18, 36)는 스펙트럼 필터로서 구성될 수 있고, 스펙트럼 필터의 속성은, 상이한 파장의 광이 상이한 시간에 표본을 향해 지향될 수 있도록, (예컨대, 스펙트럼 필터를 교환함으로써) 상이한 방식으로 다양하게 변경될 수 있다. 조명 서브시스템은 특성이 상이하거나 동일한 광을 상이하거나 동일한 입사각으로, 순차적으로 또는 동시에, 표본을 향해 지향시키기 위해 당업계에 공지된 임의의 다른 적합한 구성을 가질 수 있다.
일 실시예에서, 광원(16, 34)은 광대역 플라즈마(BBP) 광원을 각각 포함할 수 있다. 이러한 방식으로, 광원에 의해 생성되고 표본을 향해 지향된 광은 광대역 광을 포함할 수 있다. 그러나, 광원은 당업계에 공지된 임의의 적합한 파장(들)에서 광을 생성하도록 구성된, 당업계에 공지된 임의의 적합한 레이저, 아크 램프, 다색 발광 다이오드(LED) 등과 같은 임의의 다른 적합한 광원을 포함할 수 있다. 레이저 또는 다른 광원은 단색 또는 거의 단색인 광을 생성하도록 구성될 수 있다. 이러한 방식으로, 레이저 또는 다른 광원은 협대역 레이저 또는 광원일 수 있다. 광원은 복수의 이산 파장 또는 파장 대역에서 광을 생성하는 다색 광원을 포함할 수도 있다. 광원(16, 34)은 하나 이상의 상이한 발광 특성(예컨대, 상이한 파장을 방출하는 레이저)을 가질 수 있는 동일한 유형의 광원일 수 있거나, 상이한 유형의 광원(예컨대, 하나의 광원은 BBP 광원일 수 있고, 다른 광원은 레이저일 수 있음)일 수 있다.
광학 요소(18)로부터의 광은 렌즈(20)에 의해 표본(14) 상에 포커싱될 수 있고, 광학 요소(36)로부터의 광은 렌즈(24)에 의해 표본(14) 상에 포커싱될 수 있다. 렌즈(20, 24)가 단일 굴절 광학 요소로서 도 1에 도시되어 있지만, 실제로 렌즈(20, 24)는 각각의 광학 요소로부터의 광을 조합하여 표본에 포커싱하는 다수의 굴절 및/또는 반사 광학 요소를 각각 포함할 수 있다. 도 1에 도시되고 본 명세서에 기술된 조명 서브시스템은 임의의 다른 적합한 광학 요소(도시하지 않음)를 포함할 수 있다. 이와 같은 광학 요소의 예는 편광 컴포넌트(들), 스펙트럼 필터(들), 공간 필터(들), 반사 광학 요소(들), 아포다이저(들), 빔 스플리터(들), 개구(들) 등을 포함하지만, 이들로 한정되지 않고, 당업계에 공지된 임의의 적합한 광학 요소를 포함할 수 있다. 또한, 이미징 서브시스템은 촬상에 사용되는 조명의 유형에 기초하여 조명 서브시스템의 요소 중 하나 이상을 변경하도록 구성될 수 있다.
이미징 서브시스템은 또한 광이 표본 위에서 스캐닝되도록 구성된 스캐닝 서브시스템을 포함할 수 있다. 예를 들어, 이미징 서브시스템은 표본(14)이 촬상 동안 배치되는 스테이지(22)를 포함할 수 있다. 스캐닝 서브시스템은 광이 표본 위에서 스캐닝될 수 있게 표본을 이동시키도록 구성될 수 있는 임의의 적합한 기계식 및/또는 로봇식 조립체(스테이지(22)를 포함함)를 포함할 수 있다. 추가적으로 또는 대안적으로, 이미징 서브시스템은 이미징 서브시스템의 하나 이상의 광학 요소가 표본 위에서 광의 일부를 스캐닝하도록 구성될 수 있다. 광은 사행 유사 경로(serpentine-like path) 또는 나선형 경로(spiral path)와 같은 임의의 적합한 방식으로 표본 위에서 스캐닝될 수 있다.
이미징 서브시스템은 하나 이상의 검출 채널을 더 포함한다. 일반적으로, 각각의 검출 채널은 대응하는 조명 서브시스템에 의한 표본의 조명으로 인해 표본으로부터의 광을 검출하고, 검출된 광에 응답하는 출력을 생성하도록 구성된 검출기를 포함한다. 예를 들어, 도 1에 도시된 이미징 서브시스템은 2개의 검출 채널을 포함하는데, 그 중 하나는 렌즈(24), 빔스플리터(26), 렌즈(28), 요소(30) 및 검출기(32)에 의해 형성되고, 다른 하나는 렌즈(24), 빔스플리터(38), 렌즈(40), 요소(42) 및 검출기(44)에 의해 형성된다. 2개의 검출 채널은 상이하거나 동일한 수집 각도에서 광을 수집하고 검출하도록 구성될 수 있다. 일부 예에서, 검출기(32)를 포함하는 검출 채널은 광원(16)으로부터의 광을 사용한 조명으로 인해 표본으로부터 산란된 광을 검출하도록 구성되고, 검출기(44)를 포함하는 검출 채널은 광원(34)으로부터의 광을 사용한 조명으로 인해 표본으로부터 정반사된 광을 검출하도록 구성된다. 따라서, 검출기(32)를 포함하는 검출 채널은 암시야(DF(dark field)) 채널로 구성될 수 있고, 검출기(44)를 포함하는 검출 채널은 명시야(BF(bright field)) 채널로 구성될 수 있다.
도 1은 2개의 검출 채널을 포함하는 이미징 서브시스템의 실시예를 도시하지만, 이미징 서브시스템은 다른 개수의 검출 채널(예컨대, 단 하나의 검출 채널 또는 2개 이상의 검출 채널)을 포함할 수 있다. 이와 같은 일 예에서, 이미징 서브시스템은 하나 이상의 DF 채널 및/또는 하나 이상의 BF 채널을 포함할 수 있다. 따라서, 본 명세서에 기술된 이미징 서브시스템은 DF만, BF만 또는 DF 및 BF 이미징 모두에 대해 (동시 또는 순차) 구성될 수 있다.
렌즈(28, 40)가 단일 굴절 광학 요소로서 도 1에 도시되어 있지만, 각각의 렌즈는 하나 이상의 굴절 광학 요소(들) 및/또는 하나 이상의 반사 광학 요소(들)를 포함할 수 있다. 빔 스플리터(26, 38)는 당업계에 공지된 임의의 적합한 구성을 가질 수 있다. 도 1에 도시된 바와 같이, 렌즈(24)는 광원(34)으로부터의 광을 표본을 향해 지향시키고, 광원(16)으로부터의 광을 사용한 조명으로 인해 표본으로부터 산란된 광, 및 광원(34)으로부터의 광을 사용한 조명으로 인해 표본으로부터 정반사된 광을 수집하도록 구성될 수 있다. 따라서, 검출 채널은 공통 렌즈를 공유할 수 있다. 그러나, 검출 채널은 임의의 공통 요소를 공유하지 않을 수 있거나, 둘 이상의 공통 요소(도시하지 않음; 예컨대, 공통 스펙트럼 필터와 같은 것)를 공유할 수 있다. 요소(30, 42)는 개구, 공간 필터, 분석기, 다른 편광 요소나 필터, 스펙트럼 필터 등과 같은 당업계에 공지된 임의의 하나 이상의 적합한 요소를 각각 포함할 수 있다. 또한, 각각의 검출기로 향하는 광 경로에 위치한 하나의 요소만이 도시되어 있지만, 둘 이상의 이와 같은 요소가 각 검출 채널에 사용될 수도 있다(예컨대, 스펙트럼 필터와 공간 필터의 조합).
하나 이상의 검출 채널은 광증배관(PMT: photo-multiplier tube), 전하 결합 소자(CCD: charge coupled device) 및 시간 지연 통합(TDI: time delay integration) 카메라와 같은 당업계에 공지된 임의의 적합한 검출기를 포함할 수 있다. 검출기는 또한 비촬상 검출기 또는 촬상 검출기를 포함할 수 있다. 검출기가 비촬상 검출기인 경우, 각각의 검출기는 강도(intensity)와 같은 산란광의 특정 특성을 검출하도록 구성될 수 있지만, 이러한 특성을 촬상 평면 내의 위치 함수로서 검출하도록 구성되지 않을 수도 있다. 이와 같이, 이미징 서브시스템의 각각의 검출 채널에 포함된 검출기 각각에 의해 생성되는 출력은 신호나 데이터일 수 있지만, 이미지 신호나 이미지 데이터는 아니다. 이와 같은 경우, 컴퓨터 서브시스템(46)과 같은 컴퓨터 서브시스템은 검출기의 비촬상 출력으로부터 표본 이미지를 생성하도록 구성될 수 있다. 그러나, 다른 경우에, 검출기는 이미지 신호 또는 이미지 데이터를 생성하도록 구성된 이미징 검출기로 구성될 수 있다. 따라서, 이미징 서브시스템은 다양한 방식으로 이미지를 생성하도록 구성될 수 있다.
도 1은 본 명세서에 기술된 시스템 실시예들에 포함될 수 있는 이미징 서브시스템의 구성을 일반적으로 나타내기 위해 본 명세서에 제공된다. 명백하게, 본 명세서에 기술된 이미징 서브시스템 구성은, 상업용 이미징 시스템을 설계할 때, 일반적으로 수행되는 이미징 서브시스템의 성능을 최적화하기 위해 변경될 수 있다. 또한, 본 명세서에 기술된 시스템은 미국 캘리포니아 밀피타스에 소재한 KLA사로부터 상업적으로 이용 가능한 Altair 시리즈 도구와 같은 기존 시스템을 사용하여 구현될 수 있다(예컨대, 본 명세서에 기술된 추가 기능을 기존 시스템에 추가함으로써). 이와 같은 일부 시스템의 경우, 본 명세서에 기술된 실시예는 (예컨대, 시스템의 다른 기능에 추가하여) 시스템의 선택적 기능으로서 제공될 수 있다. 대안적으로, 본 명세서에 기술된 이미징 서브시스템은 완전히 새로운 이미징 서브시스템을 제공하도록 "처음부터(from scratch)" 설계될 수 있다. 이미징 서브시스템은 2010년 8월 24일자로 Mehanian 등에게 허여된 미국 특허 제7,782,452호 및 2009년 3월 5일자로 공개된 Mehanian 등에 의한 미국 특허 출원 공개 제2009/0059215호에 기술된 바와 같이 또한 구성될 수 있고, 이들 문헌은 본 명세서에 전문이 참조로 통합된다. 본 명세서에 기술된 실시예는 이들 참조 문헌에 기술된 바와 같이 또한 구성될 수 있다.
컴퓨터 서브시스템(46)은 컴퓨터 서브시스템이 표본을 스캐닝하는 동안 검출기에 의해 생성된 출력을 수신할 수 있도록 임의의 적합한 방식(예컨대, "유선" 및/또는 "무선" 전송 매체를 포함할 수 있는 하나 이상의 전송 매체를 통함)으로 이미징 서브시스템의 검출기에 커플링될 수 있다. 컴퓨터 서브시스템(46)은 검출기의 출력을 사용하여 본 명세서에서 추가로 기술되는 다수의 기능을 수행하도록 구성될 수 있다.
도 1에 도시된 컴퓨터 서브시스템(및 본 명세서에 기술된 다른 컴퓨터 서브시스템)은 본 명세서에서 컴퓨터 시스템(들)이라고도 지칭될 수 있다. 본 명세서에 기술된 각각의 컴퓨터 서브시스템(들) 또는 시스템(들)은 개인용 컴퓨터 시스템, 이미지 컴퓨터, 메인프레임 컴퓨터 시스템, 워크스테이션, 네트워크 기기, 인터넷 기기 또는 기타 장치를 포함하는 다양한 형태를 취할 수 있다. 일반적으로, "컴퓨터 시스템"이라는 용어는 메모리 매체로부터 명령어를 실행하는 하나 이상의 프로세서를 갖는 임의의 장치를 포함하도록 광범위하게 정의될 수 있다. 또한, 컴퓨터 서브시스템(들) 또는 시스템(들)은 병렬 프로세서와 같은 당업계에 공지된 임의의 적합한 프로세서를 포함할 수 있다. 아울러, 컴퓨터 서브시스템(들) 또는 시스템(들)은 독립형, 또는 네트워크 도구로서 고속 프로세싱과 소프트웨어를 사용하는 컴퓨터 플랫폼을 포함할 수 있다.
시스템이 둘 이상의 컴퓨터 서브시스템을 포함하면, 이미지, 데이터, 정보, 명령어 등을 컴퓨터 서브시스템간에 송신할 수 있도록 상이한 컴퓨터 서브시스템이 서로 커플링될 수 있다. 예를 들어, 컴퓨터 서브시스템(46)은, 도 1의 점선으로 도시된 바와 같이, 당업계에 공지된 임의의 적합한 유선 및/또는 무선 전송 매체를 포함할 수 있는 임의의 적합한 전송 매체에 의해 컴퓨터 시스템(들)(102)에 커플링될 수 있다. 이러한 컴퓨터 서브시스템 중 둘 이상은 공유 컴퓨터 판독 가능 저장 매체(도시되지 않음)에 효과적으로 커플링될 수도 있다.
이미징 서브시스템이 광학 또는 광 기반 이미징 서브시스템인 것으로 상기에 설명되었지만, 일부 실시예에서, 이미징 서브시스템은 전자빔 서브시스템으로 구성된다. 도 1a에 도시된 그와 같은 일 실시예에서, 이미징 서브시스템은 컴퓨터 서브시스템(124)에 커플링된 전자 컬럼(electron col ㎛n)(122)을 포함한다. 또한, 도 1a에 도시된 바와 같이, 전자 컬럼은 하나 이상의 요소(130)에 의해 표본(128)에 포커싱되는 전자를 생성하도록 구성된 전자빔 소스(126)를 포함한다. 전자빔 소스는, 예를 들어, 캐소드 소스 또는 에미터 팁을 포함할 수 있고, 하나 이상의 요소(130)는, 예를 들어, 건 렌즈(gun lens), 애노드, 빔 제한 개구, 게이트 밸브, 빔 전류 선택 개구, 대물 렌즈 및 스캐닝 서브시스템을 포함할 수 있으며, 이들 모두는 당업계에 공지된 임의의 적합한 요소를 포함할 수 있다.
표본으로부터 복귀된 전자(예컨대, 2차 전자)는 하나 이상의 요소(132)에 의해 검출기(134)에 포커싱될 수 있다. 하나 이상의 요소(132)는, 예를 들어, 스캐닝 서브시스템일 수 있고, 이는 요소(들)(130)에 포함된 스캐닝 서브시스템과 동일할 수 있다.
전자 컬럼은 당업계에 공지된 임의의 다른 적합한 요소를 포함할 수 있다. 또한, 전자 컬럼은, 2014년 4월 4일자로 Jiang 등에게 허여된 미국 특허 제8,664,594호, 2014년 4월 8일자로 Kojima 등에게 허여된 미국 특허 제8,692,204호, 2014년 4월 15일자로 Gubbens 등에게 허여된 미국 특허 제8,698,093호 및 2014년 5월 6일자로 MacDonald 등에게 허여된 미국특허 제8,716,662호에 기술된 바와 같이, 또한 구성될 수 있고, 이들 문헌은 본 명세서에 전문이 참조로 통합된다.
전자 컬럼은 전자가 경사 입사각으로 표본을 향해 지향되고 또 다른 경사 각도로 표본으로부터 산란되도록 구성되는 것으로 도 1a에 도시되어 있지만, 전자빔은 임의의 적합한 각도로 표본을 향해 지향되고 표본으로부터 산란될 수 있다. 또한, 전자빔 서브시스템은, 본 명세서에서 추가로 설명되는 바와 같이, (예컨대, 상이한 조명 각도, 수집 각도(collection angle) 등으로) 표본의 이미지를 생성하기 위해 다중 모드를 사용하도록 구성될 수 있다. 전자빔 서브시스템의 다중 모드는 이미징 서브시스템의 임의의 이미지 생성 파라미터에서 상이할 수 있다.
컴퓨터 서브시스템(124)은, 전술한 바와 같이, 검출기(134)에 커플링될 수 있다. 검출기는 표본의 표면으로부터 복귀된 전자를 검출하여 표본의 전자빔 이미지를 형성할 수 있다. 전자빔 이미지는 임의의 적합한 전자빔 이미지를 포함할 수 있다. 컴퓨터 서브시스템(124)은 검출기(134)에 의해 생성된 출력을 사용하여 표본에 대해 본 명세서에서 추가로 기술된 하나 이상의 기능을 수행하도록 구성될 수 있다. 컴퓨터 서브시스템(124)은 본 명세서에 설명된 임의의 추가 단계(들)를 수행하도록 구성될 수 있다. 도 1a에 도시된 이미징 서브시스템을 포함하는 시스템은 본 명세서에 기술된 바와 같이 또한 구성될 수 있다.
도 1a는 본 명세서에 기술된 실시예들에 포함될 수 있는 전자빔 서브시스템의 구성을 일반적으로 나타내기 위해 본 명세서에 제공된다. 전술한 광학 서브시스템과 마찬가지로, 본 명세서에 기술된 전자빔 서브시스템 구성은, 상업용 이미징 시스템을 설계할 때 통상적으로 수행되는 것처럼 이미징 서브시스템의 성능을 최적화하기 위해 변경될 수 있다. 또한, 본 명세서에 설명된 시스템은 (예컨대, 본 명세서에 설명된 기능을 기존 시스템에 추가함으로써) 기존 시스템을 사용하여 구현될 수도 있다. 일부 이와 같은 시스템의 경우, 본 명세서에 기술된 실시예는 (예컨대, 시스템의 다른 기능에 추가하여) 시스템의 선택적 기능으로도 제공될 수 있다. 대안적으로, 본 명세서에 기술된 시스템은 완전히 새로운 시스템을 제공하도록 "처음부터(from scratch)" 설계될 수 있다.
이미징 서브시스템이 광학 또는 전자빔 서브시스템인 것으로 상기에 기술되었지만, 이미징 서브시스템은 이온빔 서브시스템일 수 있다. 이와 같은 이미징 서브시스템은 전자빔 소스가 당업계에 공지된 임의의 적합한 이온 빔 소스로 대체될 수 있다는 것을 제외하고는 도 1a에 도시된 바와 같이 구성될 수 있다. 또한, 이미징 서브시스템은 상업적으로 이용 가능한 포커싱된 이온 빔(FIB: Focused Ion Beam) 시스템, 헬륨 이온 현미경(HIM: Helium Ion Microscopy) 시스템 및 2차 이온 질량 분석(SIMS: Secondary Ion Mass Spectroscopy) 시스템에 포함된 것과 같은 임의의 다른 적합한 이온 빔 서브시스템일 수 있다.
본 명세서에 기술된 이미징 서브시스템은 다중 모드를 사용한 표본의 출력, 예컨대, 이미지를 생성하도록 구성될 수 있다. 일반적으로, "모드"는 표본의 이미지를 생성하는데 사용되는 이미징 서브시스템의 파라미터 값(또는 표본의 이미지를 생성하는데 사용되는 출력)에 의해 정의된다. 따라서, 모드는 이미징 서브시스템의 파라미터 중 적어도 하나에 대한 값이 다를 수 있다(출력이 생성되는 표본 상의 위치는 제외함). 예를 들어, 광학 서브시스템에서, 다른 모드는 조명용의 다른 파장의 광을 사용할 수 있다. 모드는, 본 명세서에 추가로 기술되는 바와 같이, (예컨대, 상이한 모드에 대해 다른 광원, 다른 스펙트럼 필터 등을 사용함으로써) 조명 파장(들)에서 상이할 수 있다. 다른 예에서, 상이한 모드는 광학 서브시스템의 상이한 조명 채널을 사용할 수 있다. 예를 들어, 상기에 언급한 바와 같이, 광학 서브시스템은 둘 이상의 조명 채널을 포함할 수 있다. 이와 같이, 상이한 조명 채널이 상이한 모드에 대해 사용될 수 있다. 모드는 부가적으로 또는 대안적으로 광학 서브시스템의 하나 이상의 수집/검출 파라미터에서 상이할 수 있다. 모드는 이미징 서브시스템의 임의의 하나 이상의 변경 가능한 파라미터(예컨대, 조명 편광(들), 각도(들), 파장(들) 등, 검출 편광(들), 각도(들), 파장(들), 등)에서 상이할 수 있다. 예컨대, 동시에 표본을 스캔하기 위해 다중 모드를 사용하는 능력에 따라, 이미징 서브시스템은 동일한 스캔 또는 상이한 스캔에서 상이한 모드로 표본을 스캐닝하도록 구성될 수 있다.
유사한 방식으로, 전자빔 서브시스템에 의해 생성된 출력은 전자빔 서브시스템의 파라미터의 2개 이상의 상이한 값으로 전자빔 서브시스템에 의해 생성된 출력, 예컨대, 이미지를 포함할 수 있다. 전자빔 서브시스템의 다중 모드는 표본에 대한 출력 및/또는 이미지를 생성하는데 사용되는 전자빔 서브시스템의 파라미터 값에 의해 정의될 수 있다. 따라서, 모드는 전자빔 서브시스템의 전자빔 파라미터 중 적어도 하나에 대한 값이 다를 수 있다. 예를 들어, 상이한 모드는 조명에 대해 상이한 입사각을 사용할 수 있다.
본 명세서에 기술되고 도 1 및 도 1a에 도시된 서브시스템들은 이들이 사용될 애플리케이션에 따라 상이한 이미징 능력을 제공하기 위해 하나 이상의 파라미터가 변경될 수 있다. 일 실시예에서, 이미징 서브시스템은 검사 서브시스템으로서 구성된다. 다른 실시예에서, 이미징 서브시스템은 계측 서브시스템으로서 구성된다. 예를 들어, 도 1에 도시된 이미징 서브시스템은, 검사가 아닌 계측에 사용되는 경우, 더 높은 해상도를 갖도록 구성될 수 있다. 다시 말해, 도 1 및 도 1a에 도시된 이미징 서브시스템의 실시예는 상이한 애플리케이션에 대해 다소 적합한 상이한 이미징 능력을 갖는 이미징 서브시스템을 생성하기 위해 당업자에게 명백할 다수의 방식으로 조정될 수 있는 이미징 서브시스템에 대한 일부 일반적이고 다양한 구성을 설명한다.
이미징 서브시스템이 검사 서브시스템으로서 구성되는 일부 실시예에서, 검사 서브시스템은 매크로 검사를 위해 구성된다. 이러한 방식으로, 본 명세서에 설명된 시스템은 매크로 검사 도구로 지칭될 수 있다. 매크로 검사 도구는 RDL 및 포스트 다이스 애플리케이션(post-dice application)과 같이 상대적으로 잡음이 많은 BEOL 레이어의 검사에 특히 적합하다. 매크로 검사 도구는 반드시 회절이 제한되는 것은 아니고, 약 200 nm 내지 약 2.0 마이크론 이상의 공간 분해능(spatial resolution)을 갖는 시스템으로서 본 명세서에서 정의된다. 이와 같은 공간 분해능은 이와 같은 시스템이 감지할 수 있는 최소 결함이 약 200 nm보다 큰 치수를 갖는 것을 의미하며, 이는 오늘날 시장에 출시된 최첨단 검사 도구가 감지할 수 있는 최소 결함보다 훨씬 크기 때문에 "매크로" 검사자로 지정된다. 이와 같은 시스템은 오늘날 시장에 출시된 가장 진보적인 검사 도구에 비해 더 긴 파장의 광(예컨대, 약 500 nm 내지 약 700 nm)을 이용하는 경향이 있다. 이들 시스템은 관심 결함(DOI: defect of interest)의 크기가 상대적으로 크고 100 wph(wafer per hour) 이상의 처리량(여기서, 웨이퍼 처리량은 시간당 검사되는 300 mm 웨이퍼의 수를 의미함)이 필요한 경우에도 사용될 수 있다.
상기에 언급한 바와 같이, 이미징 서브시스템은 표본의 물리적 버전에 대한 에너지(예컨대, 광, 전자 등)를 스캐닝하도록 구성되어 표본의 물리적 버전에 대한 출력을 생성한다. 이러한 방식으로, 이미징 서브시스템은 "가상" 서브시스템이 아닌 "실제" 서브시스템으로 구성될 수 있다. 그러나, 저장 매체(도시하지 않음) 및 도 1에 도시된 컴퓨터 시스템(들)(102)은 "가상" 시스템으로 구성될 수 있다. 특히, 저장 매체 및 컴퓨터 서브시스템(들)은 2012년 2월 28일자로 Bhaskar 등에게 허여된 미국 특허 제8,126,255호 및 2015년 12월 29일자로 Duffy 등에게 허여된 미국 특허 제9,222,895호에 기술된 바와 같이 "가상" 검사 시스템으로 구성될 수 있고, 이들 문헌 모두는 본 명세서에 전문이 참조로 통합된다. 본 명세서에 기술된 실시예는 이들 특허에 기술된 바와 같이 또한 구성될 수 있다.
일부 실시예에서, 표본은 웨이퍼이다. 웨이퍼는 반도체 분야에 알려진 임의의 웨이퍼를 포함할 수 있다. 일부 실시예가 웨이퍼에 대해 본 명세서에서 설명될 수 있지만, 실시예는 이들이 사용될 수 있는 표본으로 한정되는 것은 아니다. 예를 들어, 본 명세서에 기술된 실시예는 레티클, 평면 패널, 개인용 컴퓨터(PC) 보드 및 기타 반도체 표본과 같은 표본에 사용될 수 있다.
본 명세서에 기술된 실시예에서, 하나 이상의 3D 구조물이 표본 상에 형성된다. 이와 같은 일 실시예에서, 하나 이상의 3D 구조물은 웨이퍼 상에 형성된 하나 이상의 범프이다. 일부 실시예가 "범프"와 관련하여 본 명세서에 기술될 수 있지만, 본 명세서에 기술된 실시예는 그 높이가 사용자의 관심을 끄는 구조물 및/또는 그 높이가 결함 있는 구조물을 렌더링할 수 있는 구조물이 형성된 표본에 대한 정보를 결정하는데 유용할 수 있다. 하나 이상의 3D 구조물은 또한 3D 구조물의 하나 이상의 예시를 포함할 수 있으며, 각 예시는 (표본 상에 형성될 때, 다소 다른 특성을 가질 수 있음에도) 동일한 설계를 갖는다. 예를 들어, 각각의 3D 구조물(들)은 범프를 포함할 수 있으며, 모두 동일하게 설계되어 있지만, 상이한 설계 또는 상이한 패턴을 갖는 표본의 서로 다른 영역에 형성되는 경우에는 서로 다른 컨텍스트 정보를 가질 수 있다. 이러한 방식으로, 본 명세서에 기술된 실시예에 의해 높이가 예측되는 모든 3D 구조물(들)은 3D 구조물 자체에 대해 동일한 설계 특성을 갖는 동일한 유형의 구조물일 수 있다.
그러나, 본 명세서에서 기술된 실시예에 의해 높이가 예측되는 모든 3차원 구조물은 동일한 유형이 아닐 수 있다. 예를 들어, 일부 표본은 범프 및 트레이스와 같이 설계된 특성과 다른 여러 유형의 3D 구조물을 가질 수 있으며, 본 명세서에 설명된 실시예는 사용자에게 관심을 끄는 3D 구조물의 일부 또는 전부의 높이를 예측하는데 사용될 수 있다. 이와 같은 일부 예에서, 개별적으로 훈련된 상이한 DL 모델은 (각각의 DL 모델이 3D 구조물 유형 중 하나에 대한 표본 이미지와 예측된 구조물 높이 사이의 정확한 변환을 학습하도록) 상이한 유형의 3D 구조물에 대한 높이를 예측하기 위해 사용될 수 있다. 또한, 컴퓨터 시스템(들)은 상이한 3D 구조물 유형에 대한 상이한 정보를 개별적으로 결정할 수 있는데, 예컨대, 범프 높이 예측을 위해 훈련된 DL 모델의 출력에만 기초하여 결함 범프를 결정하고 트레이스 높이를 예측하기 위해 훈련된 DL 모델의 출력에만 기초하여 결함 트레이스를 개별적으로 결정할 수 있다. 그럼에도 불구하고, 상이한 유형의 3D 구조물에 대한 정보를 결정할 때, 이러한 결정 단계의 각각은 본 명세서에서 추가로 설명되는 바와 같이 수행될 수 있고, 동일한 표본 이미지는 각 구조 유형에 대한 DL 모델에 입력될 수 있다.
도 2는 범프의 몇몇 예와 시간의 경과에 따라 범프가 어떻게 변할 것으로 예상되는지를 도시한다. 특히, 도 2는 업계 범프 로드맵에 따른 진행을 나타내는 화살표(214)와 함께 가정된 웨이퍼(200) 상에 형성된 상이한 범프를 도시한다. 이러한 방식으로, 도 2가 시간(년)에 따라 변화하는 범프에 대한 업계 기술을 보여주기 때문에, 도 2에 도시된 범프 기술의 한 유형만이 단일 웨이퍼 설계에 사용될 것이다. 일반적으로, 이 도면에 도시된 범프에서 볼 수 있는 바와 같이, 범프 크기 및 피치는 모두 시간이 지남에 따라 작아진다. 업계 범프 로드맵의 초기 시점에 보이는 범프(202)는 크기가 100 ㎛이고 피치가 150 ㎛ 내지 200 ㎛인 표준 C4형 범프(standard C4 type bump)이다. 다음 시점에 보이는 범프(204)는 크기가 50 ㎛이고 피치가 100 ㎛인 미세 피치 C4형 범프(fine pitch C4 type bump)이다. 범프(206)는 크기가 20 ㎛ 내지 30 ㎛이고 피치가 30 ㎛ 내지 60 ㎛인 마이크로 C4형 범프(micro C4 type bump)이다. 범프(208)는 크기가 15 ㎛ 내지 20 ㎛이고 피치가 20 ㎛ 내지 40 ㎛인 구리(Cu) 필러형 범프(Cu pillar type bump)이다. 범프(210)는 크기가 10 ㎛이고 피치가 20 ㎛인 플랫 CU형 범프(flat CU type bump)이다. 범프(212)는 크기가 5 ㎛이고 피치가 10 ㎛인 범프리스형 범프(bump-less type bump)이다. 본 명세서에 기술된 실시예는 높이를 예측하고, 도 2에 도시된 임의의 범프에 대한 정보를 결정하는데 사용될 수 있다.
일 실시예에서, 3D 구조물(들)은 웨이퍼 상에 형성된 3D NAND 구조물(들)을 포함한다. 3D NAND(여기서, NAND는 반도체 장치에서 논리 게이트의 한 유형인 Not-AND의 약자)는 복수 레이어의 메모리 셀의 수직 스택을 포함하는 유형의 비휘발성 플래시 메모리이다. 예를 들어, 3D NAND 구조물은 일반적으로 웨이퍼 상에 형성된 전도층과 절연층이 교대로 형성되고, 실리콘 상에 형성된 실리콘 질화물 및 채널(들)과 같은 재료로 형성된 전하 트랩(charge trap)과 같은 하나 이상의 높은 종횡비(HAR: high aspect ratio) 구조물에 의해 분리된 실리콘 비트 셀 게이트(silicon bit cell gate)를 포함한다. 메모리 셀의 수직 스태킹은 3D NAND 구조물에 3D 품질을 제공한다.
본 명세서에 기술된 3D 구조물(들)은 또한 당업계에 공지된 임의의 다른 HAR 구조물을 포함할 수 있다. 본 명세서에서 사용되는 바와 같이, "HAR 구조물"이라는 용어는 종횡비가 10:1을 초과하고, 차세대 장치에서 100:1만큼 높을 수 있는 것을 특징으로 하는 임의의 구조물을 지칭한다. HAR 구조물은 종종 HAR에 대한 에칭 공정를 용이하게 하기 위해 하드 마스크 레이어를 포함한다(예컨대, 2012년 8월 7일자로 Liu에게 허여된 미국 특허 제8,237,213호를 참조하고, 이 문헌은 본 명세서에 전문이 참조로 통합됨). 수직 NAND 또는 테라비트 셀 어레이 트랜지스터(TCAT: terabit cell array transistor) 구조물에 더하여, 본 명세서에 기술된 실시예는 높이가 관심 대상인 다른 HAR 구조물에 사용될 수 있다.
전술한 3D 구조물 외에도, 일반적으로 본 명세서에 기술된 실시예는, 종횡비 또는 다른 물리적 특성에 관계없이, 표본 상에 임의의 구조물의 높이를 예측하는데 사용될 수 있다. 예를 들어, 본 명세서에 기술된 실시예는, 비록 그 구조물이 사실상 3D가 아닌 경우에도, 트레이스, 패드 등과 같은 구조물의 높이를 예측하는데 유용할 수 있다. 일반적으로, 필요한 것은 표본 이미지를 구조물 높이로 변환하는 방법을 학습한, 적절하게 훈련된 DL 모델이다.
전술한 바와 같이, 시스템은 하나 이상의 컴퓨터 시스템(예컨대, 도 1에 도시된 컴퓨터 서브시스템(46) 및/또는 컴퓨터 시스템(들)(102)) 및 해당 하나 이상의 컴퓨터 시스템에 의해 실행되는 하나 이상의 컴포넌트(예컨대, 컴포넌트(들)(100))를 포함한다. 하나 이상의 컴포넌트는, 이미지 중의 하나 이상에 기초하여, 하나 이상의 3D 구조물의 높이를 예측하도록 구성된 DL 모델(104)을 포함한다. 본 명세서에 기술된 실시예의 일부, 특히, 유용한 구현예에서, 단일 검사 초점에서 검사하는 동안, 이미징 서브시스템은 검사 이미지(BF 및 DF)를 수집할 수 있고, 하나 이상의 컴퓨터 시스템은, 본 명세서에서 추가로 설명되는 바와 같이, 검사 이미지로부터 범프를 잘라낼 수 있으며, 사전 훈련된 DL 모델은 이들 잘라낸 범프 이미지를 사용하여 범프 높이를 예측할 수 있다.
도 4는 본 명세서에 기술된 이미지가 범프 높이를 예측하기 위해 DL 모델에 의해 사용될 수 있는 일반적인 이유를 나타낸다. 특히, 본 명세서에 기술된 것과 같은 이미징 서브시스템은, 광이 스캔 방향(406)으로 표본 전체에 걸쳐 스캐닝될 때, 광(402)을 표본(404)에 포커싱하도록 구성된, 본 명세서에 추가로 기술된 렌즈와 같은 광학 요소(400)를 포함할 수 있다. 도 4에 도시된 바와 같이, 상이한 높이를 갖는 2개의 상이한 범프(408, 410)가 표본 상에 형성될 수 있고, 광이 표본 전체에 걸쳐 스캐닝될 때, 이미징 서브시스템에 의해 촬상될 수 있다. 따라서, 이와 같은 스캐닝은 범프(408)의 이미지(414) 및 범프(410)의 이미지(416)를 포함하는 이미지(412)를 생성할 수 있다.
도 4에서 볼 수 있는 바와 같이, 높이가 다른 범프는 서로 다른 범프 이미지를 생성할 것이다. 특히, 범프 상단 디포커스(bump top defocus)는 범프 높이에 따라 달라진다. 예를 들어, 범프(408)는 그 높이가 허용 가능함을 의미하는 공칭 범프일 수 있는 반면, 범프(410)는 그 높이가 허용 가능한 것보다 작다는 것을 의미하는 짧은 범프일 수 있다. 이와 같이, 범프(408)는 결함이 없지만, 범프(410)는 결함이 있다. 이들 높이 차이는 범프 상단의 이미지의 초점 모양에 차이를 생성한다. 특히, 공칭 범프 상단 이미지(414)는 초점이 더 맞지 않을 수 있는 반면, 짧은 범프 상단 이미지(416)는 초점이 더 맞을 수 있다.
따라서, 높이가 다른 범프와 이러한 범프의 알려진(또는 시뮬레이팅된) 높이에 대해 생성된 이미지를 포함하는 훈련 세트로 DL 모델을 훈련함으로써, DL 모델은 입력 이미지를 범프 높이로 변환하는 방법을 학습할 수 있다. DL 모델의 출력은 높이의 지상 실측값(ground truth measurement)이 아니기 때문에, 본 명세서에서 "예측된" 높이로 지칭된다. 즉, 범프의 높이는 알려진(또는 시뮬레이션된) 다른 높이를 갖는 범프에 대해 생성된 훈련 범프 이미지 간의 학습된 관계를 통해 예측된다.
일반적으로 말하면, "딥 러닝"(DL)(구조적 심층 학습(deep structured learning), 계층적 학습(hierarchical learning) 또는 기계적 심층 학습(deep machine learning)이라고도 함)은 데이터에서 높은 수준의 추상화를 모델링하려는 일련의 알고리즘에 기초하는 머신 러닝(ML)의 한 분야이다. 단순한 경우로, 입력 신호를 수신하는 뉴런과 출력 신호를 전송하는 뉴런의 두 세트가 있을 수 있다. 입력 레이어가 입력을 수신하면, 수정된 버전의 입력을 다음 레이어로 전달한다. DL 기반 모델에서는, 일반적으로 입력과 출력 사이에 많은 레이어가 존재하므로(그리고 그 레이어들은 뉴런으로 구성되지 않았지만, 그런 식으로 생각하는데 도움이 될 수 있음), 알고리즘이 다중 선형 및 비선형 변환으로 구성된, 다중 처리 레이어를 사용할 수 있다.
DL은 데이터의 학습 표현을 기반으로 하는 광범위한 ML 방법 계열의 일부이다. 관찰(예컨대, 이미지)은 픽셀당 강도 값의 벡터와 같은 다양한 방식으로 표현되거나, 가장자리 집합, 특정 형상의 영역 등과 같은 보다 추상적인 방식으로 표현될 수 있다. 일부 표현은 학습 작업을 단순화하는데 다른 표현보다 더 좋다. DL의 약속 중 하나는 수동 피처를 비감독 또는 반감독 피처 학습(unsupervised or semi-supervised feature learning) 및 계층적 피처 추출을 위한 효율적인 알고리즘으로 대체하는 것이다. 특히, 본 명세서에서 추가로 설명되는 바와 같이, DL 모델은, 적합한 훈련 데이터 세트에 기초하여, (그 파라미터가 학습될 수 있다는 점에서) 학습될 수 있다.
일 실시예에서, DL 모델은 CNN(convolutional neural network)으로 구성된다. CNN은 일반적으로 로컬 피처를 추출하기 위해 컨볼루션 및 풀링 레이어(pooling layer)의 스택을 포함한다. 컨볼루션 레이어(들)는 당업계에 공지된 임의의 적합한 구성을 가질 수 있고, 일반적으로 하나 이상의 필터를 사용하여 입력 이미지에 컨볼루션 함수를 적용함으로써, 이미지 전반에 걸쳐 위치의 함수(즉, 피처 맵)로서 이미지에 대한 피처를 결정하도록 구성된다. 하나 이상의 풀링 레이어는 또한 당업계에 공지된 임의의 적합한 구성(예컨대, 최대 풀링 레이어)을 가질 수 있고, 일반적으로 가장 중요한 피처를 유지하면서 하나 이상의 컨볼루션 레이어에 의해 생성된 피처 맵의 차원을 감소시키도록 구성된다. DL 모델은 당업계에 공지된 임의의 적합한 CNN 구성이나 아키텍처를 가질 수 있다.
다른 실시예에서, DL 모델은 컨볼루션 레이어와 완전 연결 레이어의 조합을 포함한다. 컨볼루션 레이어는 전술한 바와 같이 구성될 수 있다. "완전 연결 레이어"는 일반적으로 각 노드가 이전 레이어의 각 노드에 연결된 레이어로 정의될 수 있다. 완전 연결 레이어는 컨볼루션 레이어에 의해 추출된 피처에 기초하여 분류를 실행한다. 예를 들어, 컨볼루션 레이어(들)은 피처 맵을 생성하여 이미지(들)에 대한 피처를 결정하도록 구성될 수 있으며, 여기에는 본 명세서에서 추가로 설명된 이미지(들) 및 입력 중 어느 하나가 포함될 수 있다. 완전 연결 레이어(들)는 피처 선택 및 높이 예측을 위해 구성된다. 즉, 완전 연결 레이어(들)는 피처 맵에서 피처를 선택한 다음 하나 이상의 3D 구조물의 높이를 예측한다. 선택된 피처는 피처 맵의 모든 피처(적절한 경우) 또는 피처 맵의 일부 피처만이 포함될 수 있다. 이와 같은 DL 네트워크(컨볼루션 레이어(들) 및 완전 연결 레이어(들)를 포함함)는 높이 예측을 출력하며, 이는 각각의 높이 예측과 관련된 신뢰도를 갖는 3D 구조물 당 높이 예측을 포함할 수 있다.
추가 실시예에서, DL 모델은 AlexNet으로서 구성된다. 일반적으로 AlexNet에는 이미지를 분류하기 위해 구성되고 훈련된, 복수 개의 완전 연결 레이어(예컨대, 3개)가 뒤따르는 복수 개의 컨볼루션 레이어(예컨대, 5)가 조합되어 포함된다. AlexNets으로 구성된 신경망의 예시는 NIPS 2012의 Krizhevsky 등에 의한, "ImageNet Classification with Deep Convolutional Neural Networks"에 설명되어 있으며, 이 문헌은 본 명세서에 전문이 참조로 통합된다. 본 명세서에 기술된 DL 모델은 이러한 참조에서 기술된 바와 같이 또한 구성될 수 있다.
DL 모델로서 사용될 수 있는 AlexNet의 하나의 단순화된 버전에서, AlexNet에 대한 입력은 입력 이미지를 포함할 수 있고, 이는 이미징 서브시스템에 의해 생성된 이미지 내에 위치하고 분리된 임의의 범프 후보에 대해 약 32 픽셀 × 32 픽셀의 크기를 갖는 패치 이미지와 같이 본 명세서에 설명된 임의의 이미지를 포함할 수 있다. 이미지는 풀링 레이어(들), 컨볼루션 레이어(들) 및 풀링 레이어(들)에 이어 컨볼루션 레이어(들)에 입력된다. 이들 층은 본 명세서에 추가로 기술되는 바와 같이 구성될 수 있다. 최종 풀링 레이어(들)의 출력은 완전 연결 레이어(들)에 입력되며, 이는, 예를 들어, 상이한 2 세트의 완전 연결 레이어(들)를 포함할 수 있다. 완전 연결 레이어(들)은 본 명세서에 추가로 기술되는 바와 같이 구성될 수 있다. 최종 완전 연결 레이어는 본 명세서에 기술된 임의의 출력을 포함하는 출력을 생성할 수 있다. 예를 들어, 본 명세서에 추가로 기술되는 바와 같이, 출력은 이미지가 DL 모델에 입력되는 범프의 각각에 대한 높이 메트릭을 포함할 수 있다.
다른 실시예에서, DL 모델은 GoogleNet으로서 구성된다. GoogleNet은 이미지를 분류하도록 구성되고 훈련되는 본 명세서에 추가로 설명된 레이어와 같은 컨볼루션, 풀링 및 완전 연결 레이어를 포함할 수 있다. GoogleNet 아키텍처는 상대적으로 많은 수의 레이어를 포함할 수 있지만(특히, 본 명세서에 기술된 일부 다른 네트워크와 비교할 때), 일부 레이어는 병렬로 작동될 수 있으며 상호 병렬로 기능하는 레이어 그룹들은 일반적으로 인셉션 모듈이라고 지칭된다. 다른 레이어는 순차적으로 작동될 수 있다. 따라서, GoogleNet은 모든 레이어가 순차적 구조로 배열되지 않는다는 점에서 본 명세서에 기술된 다른 네트워크와 상이하다. GoogleNets으로 구성된 신경망의 예시는 CVPR 2015의 Szegedy 등에 의한 "Going Deeper with Convolutions"에 기술되어 있으며, 이 문헌은 본 명세서에 전문이 참조로 통합된다. 본 명세서에 기술된 DL 모델은 이러한 참조에서 기술된 바와 같이 또한 구성될 수 있다.
추가 실시예에서, DL 모델은 VGG 네트워크로서 구성된다. VGG 네트워크는 아키텍처의 다른 파라미터를 픽스(fix)하면서, 컨볼루션 레이어의 수를 증가시킴으로써 만들어졌다. 깊이를 증가시키기 위해 컨볼루션 레이어를 추가하는 것은 모든 레이어에서 실질적으로 작은 컨볼루션 필터를 사용함으로써 가능하게 된다. 본 명세서에 기술된 다른 네트워크와 마찬가지로, VGG 네트워크는 이미지를 분류하도록 만들어지고 훈련되었다. VGG 네트워크는 또한 완전 연결 레이어가 뒤따르는 컨볼루션 레이어를 포함한다. VGG로 구성된 신경망의 예는 ICLR 2015의 Simonyan 등에 의한 "Very Deep Convolutional Networks for Large-Scale Image Recognition"에 기술되어 있으며, 이 문헌은 본 명세서에 전문이 참조로 통합된다. 본 명세서에 기술된 DL 모델은 이러한 참조에서 기술된 바와 같이 또한 구성될 수 있다.
일부 실시예에서, DL 모델은 심층 잔차 네트워크(deep residual network)로서 구성된다. 본 명세서에 기술된 일부 다른 네트워크와 마찬가지로, 심층 잔차 네트워크는 이미지 분류를 위해 조합하여 구성되고 훈련되는 완전 연결 레이어가 뒤따르는 컨볼루션 레이어를 포함할 수 있다. 심층 잔차 네트워크에서, 레이어는 참조되지 않은 함수를 학습하는 대신 레이어 입력을 참조하여 잔차 함수를 학습하도록 구성된다. 특히, 몇 개의 적층된 레이어 각각이 원하는 기본 매핑에 바로 적합하기를 바라는 대신, 이들 레이어는 명시적으로 잔류 매핑에 적합하도록 허용되며, 이는 숏컷 연결이 있는 피드포워드 신경망에 의해 실현된다. 숏컷 연결은 하나 이상의 레이어를 건너뛰는 연결이다. 심층 잔차 네트워크는 컨볼루션 레이어를 포함하는 일반 신경망 구조를 취하고 숏컷 연결을 삽입함으로써 생성될 수 있으며, 이로써 일반 신경망을 취하여 이를 잔차 학습 상대로 전환시킨다. 심층 잔차 네트워크의 예시는 NIPS 2015의 He 등에 의한 "Deep Residual Learning for Image Recognition"에 기술되어 있으며, 이 문헌은 본 명세서에 전문이 참조로 통합된다. 본 명세서에 기술된 DL 모델은 이러한 참조에서 기술된 바와 또한 구성될 수 있다.
본 명세서에 설명된 DL 모델은 하나 이상의 컴퓨터 시스템 및/또는 컴퓨터 시스템(들)에 의해 실행되는 컴포넌트(들) 중 하나에 의해 훈련되거나 훈련되지 않을 수 있다. 예를 들어, 다른 방법 또는 시스템은 DL 모델을 훈련할 수 있으며, 컴퓨터 시스템(들)에 의해 실행되는 컴포넌트(들)로서 사용하기 위해 저장될 수 있다. DL 모델은 런타임 이전에 언제든지 훈련되거나 구축될 수도 있다. 이와 같은 일 예에서, DL 모델은 검사 레시피 훈련이나 설정 중에 구축될 수 있다. 본 명세서에 기술된 DL 모델은 훈련 모델의 설정 및/또는 배포 후에 언제든지 업데이트, 재훈련 또는 수정(revise)될 수도 있다.
다른 실시예에서, 컴퓨터 시스템(들)은 이미징 서브시스템에 의해 생성된 표본 또는 상이한 표본 상의 3D 구조물의 훈련 이미지 및 그 훈련 이미지 내의 3D 구조물에 대해 대응하는 높이 정보를 포함하는 훈련 세트를 생성하도록 구성된다. 훈련 세트는 본 명세서에서 추가로 기술되는 다양한 방식으로 생성될 수 있다. 그러면, 컴퓨터 시스템(들)은 DL 모델을 훈련시키기 위해 훈련 세트를 사용할 수 있거나 훈련 세트는 DL 모델을 훈련시키기 위해 다른 방법 또는 시스템에 의해 사용될 수 있다.
본 명세서에 기술된 임의의 실시예에서, 훈련 세트를 생성하는 것은 훈련 세트가 DL 모델을 훈련하는데 사용될 수 있도록 임의의 적합한 방식 및 임의의 적합한 포맷으로 훈련 이미지 및 대응하는 높이 정보를 저장하는 것을 포함할 수 있다. 컴퓨터 시스템(들)은 본 명세서에 설명된 임의의 컴퓨터 판독 가능 저장 매체에 훈련 세트에 대한 정보를 저장할 수 있다. 훈련 세트는 훈련 및 검증을 위해 서브세트로 분할되는 것, 시간이 지남에 따라 또는 공정이 변경될 때 업데이트, 수정 또는 대체되는 것을 포함하는 당업계에 공지된 임의의 적합한 방식으로 컴퓨터 시스템(들)에 의해 사용될 수 있다.
그런 다음, DL 모델은 대응하는 높이 정보를 구비하는 표본 패치 이미지를 포함하는 훈련 세트에 기초하여 훈련될 수 있다. 표본 이미지는 훈련 입력이고 대응하는 높이 정보는 훈련 출력이다. 훈련은 DL 모델에 훈련 입력을 입력하는 것 및 DL 모델에 의해 생성된 출력이 훈련 출력과 일치(또는 실질적으로 일치)할 때까지 DL 모델의 하나 이상의 파라미터를 변경하는 것을 포함할 수 있다. 훈련은 DL 모델의 임의의 하나 이상의 훈련 가능한 파라미터를 변경하는 것을 포함할 수 있다. 예를 들어, 훈련되는 DL 모델의 하나 이상의 파라미터는 훈련 가능한 가중치를 갖는 DL 모델의 임의의 레이어에 대한 하나 이상의 가중치를 포함할 수 있다. 이와 같은 일 예에서, 가중치는 컨볼루션 레이어에 대한 가중치를 포함할 수 있지만, 풀링 레이어에 대한 가중치는 포함하지 않을 수 있다.
일 실시예에서, 하나 이상의 컴퓨터 시스템은 2개 이상의 초점 오프셋을 갖는 표본 또는 상이한 표본의 이미징 서브시스템에 의해 생성된 이미지로 DL 모델을 훈련하도록 구성된다. 이미지가 상이한 표본의 것이면, 상이한 표본은 그 표본과 동일한 유형(즉, 동일한 설계 및 제조 공정을 갖는 동일한 재료로 형성됨)인 것이 바람직하다. 이러한 방식으로, 훈련을 위해, 실시예는 다양한 초점 오프셋에서 웨이퍼 이미지를 수집할 수 있다. 이와 같은 일 예에서, 이미징 서브시스템은 웨이퍼 표면 주위에 -30 ㎛ 내지 +30 ㎛의 z 초점 슬라이스에서 이미지를 생성할 수 있고, 이들 이미지는, 본 명세서에 기술된 바와 같이, DL 모델을 훈련하는데 사용될 수 있다. 이와 같은 다른 예에서, 이미징 서브시스템은 웨이퍼 표면 위에서 0 ㎛ 내지 80 ㎛의 z 초점 슬라이스에서 이미지를 생성할 수 있고, 이들 이미지는, 본 명세서에 설명된 바와 같이, DL 모델을 훈련하는데 사용될 수 있다. 일반적으로, 더 많은 훈련 데이터(예컨대, 더 많은 초점 슬라이스 및 더 많은 범프)가 생성되고 훈련에 사용될수록, 훈련된 DL 모델에 의해 예측된 높이의 정확도가 향상된다.
각각의 생성된 이미지에서, 컴퓨터 시스템(들)은 2D 범프 이미지 패치를 찾아 잘라낼 수 있으며, 이는 본 명세서에 설명된 임의의 적합한 방식으로 수행될 수 있다. 예를 들어, 상이한 z 초점 오프셋에서 상대적으로 큰 프레임 이미지가 주어지면, 컴퓨터 시스템(들)은 프레임에서 범프당 하나의 패치를 크롭할 수 있다. 그러면, 컴퓨터 시스템(들)은 범프 높이 지상 실측 데이터로서 초점 오프셋을 갖는 이들 이미지 패치로 DL 모델을 훈련할 수 있다. 이 훈련은 본 명세서에서 추가로 기술되는 바와 같이 수행될 수 있다.
그러나, 컴퓨터 시스템(들)은 범프 높이 지상 실측 데이터로서 다른 소스로부터의 이미지 패치로 DL 모델을 훈련할 수 있다. 예를 들어, 상이한 높이의 범프를 시뮬레이팅하기 위해 다양한 초점 오프셋에서 구동되는 이미징 서브시스템에서 전체 이미지를 캡처하는 것은, 다양한 알려진 범프 높이를 가진 표본을 훈련에 사용할 수 없는 경우, 유용할 수 있다. 컴퓨터 시스템(들)은 다양한 초점 오프셋에서 캡처된 이미지를 가져와서 크롭하고 범프 상단을 제외한 모든 것을 마스킹하며, 다양한 높이의 범프인 것처럼 DL 모델을 훈련시킬 수 있다.
그러나, 다른 실시예에서, 하나 이상의 컴퓨터 시스템은 3D 구조물의 특성 중 다수의 알려진 값으로 그 위에 형성된 3D 구조물을 갖는 상이한 표본의 이미징 서브시스템에 의해 생성된 이미지로 DL 모델을 훈련하도록 구성된다. 즉, 상이하게 프로그래밍된 높이를 갖는 범프가 형성된 웨이퍼를 이용할 수 있다면, 웨이퍼는 단일 초점값으로 이미징 서브시스템에 의해 촬상될 수 있다. 웨이퍼 이미지 내의 범프는, 본 명세서에 기술된 바와 같이, 위치 결정(locating)되고 분리(isolating)될 수 있다. 웨이퍼의 설계에 대한 정보에 기초하여, 상이한 범프들의 알려진 프로그래밍된 높이가 그들의 범프 이미지에 할당될 수 있다. 이러한 방식으로, 위치 결정되고 분리된 범프 이미지는 훈련 입력일 수 있고 알려진 범프 높이는 훈련 출력일 수 있다. 따라서, 알려진 사전 결정된 범프 높이와 범프 이미지는 DL 훈련을 위한 지상 실측 정보로 사용될 수 있다. 이러한 훈련은 본 명세서에 추가로 기술되는 바와 같이 수행될 수도 있다.
지상 실측 훈련 데이터가 지상 실측 범프 높이 측정값의 임의의 다른 소스로부터 유래할 수도 있다. 예를 들어, 지상 실측, 범프 높이 측정 도구를 사용할 수 있는 경우, 웨이퍼(들) 상의 범프가 상대적으로 다양한 범프 높이를 갖는 한, 해당 지상 실측, 범프 높이 측정 도구를 사용하여 웨이퍼(들) 상의 범프 높이를 측정할 수 있다. 그런 다음, 웨이퍼(들)는 다른 웨이퍼 상의 범프 높이 예측을 위한 이미지를 생성하는데 사용될 이미징 서브시스템에 의해 촬상될 수 있다. 범프 이미지 위치 결정 및 분리는 본 명세서에 추가로 설명되는 바와 같이 해당 이미지에 대해 수행될 수 있다. 표본에서 범프 이미지가 생성된 위치에 기초하여, 그에 해당하는 지상 실측 범프 높이는 지상 실측 측정 데이터와 그것이 측정된 웨이퍼 상의 위치로부터 결정될 수 있다. 이러한 방식으로, 이미징 서브시스템 범프 이미지 및 대응하는 지상 실측, 범프 높이 측정 데이터는 훈련 데이터 쌍으로 상관될 수 있고, DL 모델 훈련을 위해 본 명세서에 기술된 바와 같이 사용될 수 있다.
일 실시예에서, 높이를 예측하는데 사용되는 이미지 중의 하나 이상은 표본의 단일 패스(single pass)에서 이미징 서브시스템에 의해 수집된다. 다른 실시예에서, 높이를 예측하기 위해 사용되는 이미지 중의 하나 이상은 단일 초점값에서 이미징 서브시스템에 의해 수집된다. 예를 들어, 결함 범프 발견 및/또는 범프 높이 메트릭 결정과 같은 표본에 대한 정보를 결정하는데 사용되는 이미지는 단일 웨이퍼 이미지 수집 패스에서 생성된 이미지를 포함할 수 있다. 또한, 기존의 결함 검사 패스를 본 명세서에 기술된 실시예에 대한 이미지의 소스로서 사용하는 것이 가능할 수 있다. 즉, 본 명세서에 기술된 실시예는 DL 모델의 적합한 훈련에 의해 현재 검사 레시피를 사용하여 DL 모델에 입력되는 이미지를 생성할 수 있다.
따라서, 본 명세서에 기술된 실시예의 한 가지 장점은 실질적으로 정확한 범프 높이 예측을 위해 다중 초점 오프셋(및 그에 따라 가능하게는 다중 패스)에서 생성된 이미지를 필요로 하는 것과 같은 기존 방법들보다 훨씬 빠르다는 점이다. 본 명세서에 기술된 실시예의 또 다른 장점은 KLA사에서 시판되는 Altair 검사 도구와 같은 도구의 기존 이미징 및 기계적 하드웨어를 사용할 수 있다는 점이다. 예를 들어, 단일 검사 초점에서 검사 실행 동안, 이미징 서브시스템은 검사 이미지(BF 및 DF)를 수집할 수 있고, 하나 이상의 컴퓨터 시스템은, 본 명세서에서 추가로 설명되는 바와 같이, 범프를 잘라낼 수 있고, 사전 훈련된 DL 모델은 이들 잘라낸 범프 이미지를 사용하여 범프 높이를 예측할 수 있다. 본 명세서에 기술된 실시예는 도구의 기존 결함 검사 알고리즘에 사용된 것과 동일한 대물렌즈 및 초점 오프셋 이미지를 사용하여 모든 범프 높이를 얻을 수 있으므로, 본 명세서에 기술된 실시예는 사용자 웨이퍼 검사 도구 시간을 절약할 수 있다. 이 도구는 결함 검사를 위해 일반 웨이퍼 이미지를 캡처한 다음 동일 이미지를 범프 높이 측정에 사용할 수 있다. 이 기능은 종종 고유한 광학 세트를 사용하여 별도의 이미지 캡처가 필요할 수 있는 이전 방법에 비해 시간을 상당히 절약할 수 있다.
일 실시예에서, 이미지는 표본의 BF 이미지 또는 표본의 DF 이미지를 포함한다. 다른 실시예에서, 이미지는 표본의 BF 이미지 및 표본의 DF 이미지를 포함한다. 이러한 방식으로, 훈련 및 런타임을 위해 캡처된 이미지에는 BF 및 DF 이미징 모드를 모두 사용하거나 해당 모드 중 하나만 사용하여 캡처된 이미지가 포함될 수 있다. 일반적으로, 본 명세서에 기술된 실시예에 대해서는 BF 및 DF 이미지(또는 다른 다중 모드 이미지)를 모두 사용하는 것이 바람직할 수 있지만, BF 이미지만 또는 DF 이미지(또는 다른 단일 모드 이미지)만 사용하여 BF 및 DF 이미지(또는 다른 다중 모드 이미지)를 모두 사용할 때보다 좋지 않은 성능(예컨대, 정확도가 다소 낮을 수 있음)으로 사용될 수도 있다. 유사한 방식으로, 더 작거나 더 큰 광학 배율이 또한 더 낮거나 더 높은 정확도 및 속도로 본 명세서에 기술된 실시예에 의해 사용될 수 있다. 다중 모드 및 단일 모드 이미지는 본 명세서에 추가로 기술되는 이미징 서브시스템에 의해 생성될 수 있다.
일 실시예에서, 하나 이상의 컴퓨터 시스템은 하나 이상의 3D 구조물에 대응하는 이미지의 부분을 위치 결정 및 분리하도록 구성되며, DL 모델에 입력되는 이미지는 하나 이상의 3D 구조물에 대응하는 이미지의 분리된 부분만을 포함한다. 예를 들어, 이미징 서브시스템에 의해 생성된 표본의 각 이미지에서, 컴퓨터 시스템(들)은 2D 범프 이미지 패치를 위치 결정하여 잘라낼 수 있다. 이와 같은 일 예에서, 런타임 동안 단일 초점 오프셋에서 또는 훈련 동안 상이한 z 초점 오프셋에서 상대적으로 큰 프레임 이미지가 주어진 경우, 컴퓨터 시스템(들)은 프레임으로부터 패치를 범프당 1 패치로 크롭할 수 있다.
이 위치 결정 및 분리 단계는 선택 사항일 수 있지만, 범프 높이 예측의 정확도를 높일 수 있다. 예를 들어, 본 명세서에 기술된 표본에 대해 본 명세서에 기술된 이미징 서브시스템에 의해 생성된 이미지는 일반적으로 다수의 구조물 및 구조물 주변 영역을 포함할 것이며, 이는 이미징 서브시스템 구성, 속도 대 배율과 같은 최적의 작동 파라미터 등과 같은 것들과 관련된 여러 가지 이유로 다른 패턴화된 구조물을 포함하거나 포함하지 않을 수 있다. 즉, 본 명세서에 기술된 이미징 서브시스템은 일반적으로 본 명세서에 기술된 것과 같은 표본의 단일 구조에 대해서만 이미지를 생성하도록 구성되는 것은 아니다. 대신, 비교적 짧은 시간 내에 표본의 상대적으로 넓은 영역에 대한 이미지를 생성하도록 유리하게 설계된다. 본 명세서에 기술된 DL 모델이 표본 상의 다른 구조물의 이미지, 이미지 데이터, 신호 또는 범프 주변 영역으로부터의 노이즈 등을 포함하는 범프 이미지를 사용하여 범프 높이를 예측하도록 훈련될 수 있더라도, 입력 이미지에 범프의 이미지만 포함되는 경우, 예측 정확도는 일반적으로 더 높을 것이다. 따라서, 위치 결정 및 분리 단계는 선택적이며, 어떤 면에서는 사소한 것으로 간주될 수 있지만, 본 명세서에 기술된 실시예에 장점을 제공할 수 있다. 또한, 본 명세서에서 추가로 기술되는 바와 같이, 위치 결정 및 분리 단계는 상이한 방식으로 수행될 수 있고, 예를 들어, 본 명세서에서 기술되는 이미징 서브시스템에 의해 생성된 이미지의 복잡성으로 인해 사소하지 않을 수도 있다.
다른 실시예에서, 하나 이상의 컴퓨터 시스템은 각각 하나 이상의 3D 구조물에 대응하는 이미지 중의 하나 이상의 부분을 위치 결정하여 분리하고, 분리된 하나 이상의 부분에 기초하여, 개별적인 하나 이상의 3D 구조물에 대한 개별적인 하나 이상의 크롭 패치 이미지(cropped patch image)를 각각 생성하도록 구성된다. 예를 들어, 전술한 바와 같이, DL 모델에 대한 각각의 이미지 입력이 표본 상의 단일 범프의 이미지만을 포함하도록 이미징 서브시스템에 의해 생성된 표본 이미지를 수정하는 것이 유리할 수 있다. 이러한 방식으로, 입력 이미지는 범프 단위로 생성될 수 있다. 표본 이미지가 둘 이상의 모드로 생성된 이미지(예컨대, DF 및 BF 이미지 모두)를 포함하는 경우, 입력 이미지는 범프 및 모드 단위로 생성될 수 있다. 이러한 방식으로, 높이가 예측되고 있는 표본 상의 각 범프에 대해, 표본 이미지를 생성하는데 사용되는 모드 각각에 대해 입력 이미지가 생성될 수 있고, 해당 범프에 대해 생성된 각각의 입력 이미지는 크롭된 범프 이미지만을 포함할 수 있다. 위치 결정 및 분리 단계는 본 명세서에 기술된 바와 같이 수행될 수 있다. 개별적인 하나 이상의 크롭 패치 이미지를 생성하는 것은 본 명세서에 추가로 기재되는 바와 같이, 예컨대, 마스크를 사용하여 수행될 수 있다.
추가 실시예에서, 하나 이상의 컴퓨터 시스템은 템플릿 매칭(template matching)에 의해 하나 이상의 3D 구조물에 대응하는 이미지의 부분을 위치 결정 및 분리하도록 구성된다. 도 5는 템플릿을 사용하여 이미지에서 범프를 식별 및 분리하는 것을 포함하는 본 명세서에 기술된 실시예에 의해 수행될 수 있는 단계의 한 흐름도를 도시한다. 특히, 이미징 서브시스템(도 5에 도시되지 않음)은 표본(도 5에 도시되지 않음)에 대한 DF 이미지(500) 및 BF 이미지(502) 모두를 생성하도록 구성될 수 있다. 도 5에 도시된 이미지는 표본 상의 동일한 영역에 대응하고, 따라서 둘 다 이미지 내의 동일한 패턴에서 범프(504)를 포함한다. 도 5에 도시된 "이미지"는 본 명세서에 기술된 이미징 서브시스템에 의해 생성될 수 있는 임의의 실제 이미지를 나타내기 위한 것은 아니다. 특히, BF 및 DF 이미지는 일반적으로, 도 5에 도시된 바와 같이, 기본적으로 동일하게 나타나는 것이 아니라 서로 매우 다르게 보일 것이다. 또한, 모든 범프가 도 5에 도시된 이미지와 동일한 치수를 갖는 완벽한 원으로 나타나지는 않을 것이다. 대신, 이들 "이미지"는 본 명세서에 기술된 실시예가 입력 이미지를 예측된 범프 높이로 어떻게 변환시킬 수 있는 지를 설명하기 위해 도 5에만 포함된다. 본 명세서에 기술된 다른 실시예에서와 같이, DL 모델이 범프 높이의 런타임 예측을 위해 사용될 때, 이미지(500, 502)는 유리하게는 다중 초점 설정에서 생성된 이미지가 아니라, 범프 높이 검사 및 계측을 위한 공칭 초점 이미지만을 포함해야 한다.
개별적인 범프는 템플릿(506)을 사용하여 두 이미지 모두에서 발견될 수 있다. 특히, 템플릿(506)은 이미지와 비교되어 템플릿과 일치하는 이미지 부분을 찾아낼 수 있다. 따라서, 템플릿이 예측되는 범프 이미지에 기초하여 결정되는 특성을 가질 때, 템플릿은 더 큰 이미지(500, 502) 내에서 범프 이미지의 위치를 식별하는데 사용될 수 있다. 일단 이미지의 일부가 범프 이미지를 포함하는 것으로 식별되면, 마스크(508)는 그 이미지 부분에서 가능한 한 많은 비범프 관련 이미지 데이터 또는 신호를 제거하여 범프 관련 이미지 데이터 또는 신호만을 남기도록 이미지의 해당 부분에 적용될 수 있다. 따라서, 템플릿과 마스크를 적용함으로써, 이미지(500, 502)에서 발견되는 어느 하나의 범프 이미지 부분에 대해, 각각 분리된 범프 패치 이미지(510, 512)가 생성될 수 있다. 따라서, 각각의 분리된 범프 패치 이미지는 단일 범프 및 단일 모드를 위한 것이다.
그런 다음, 이들 이미지는 하나 이상의 컴퓨터 시스템에 의해 당업계에 공지된 임의의 적합한 방식으로 DL 모델(514)에 입력될 수 있다. DL 모델(514)은, 범프 당 선형 출력을 생성하는 다층 CNN과 같이, 본 명세서에 기술된 임의의 AI DL 모델을 포함할 수 있다. 즉, DL 모델은 각 범프에 대한 회귀 출력 또는 수치를 생성할 수 있다. DL 모델의 출력(518)은 범프 높이 목록과 같은 3D 구조물 당 예측 높이를 포함할 수 있다. 그러면, 하나 이상의 컴퓨터 시스템은 3D 구조물 당 예측 높이를 사용하여 표본 정보 출력(520)을 생성할 수 있고, 여기에는 본 명세서에 기술된 임의의 방식으로 결정된 본 명세서에 기술된 표본 정보가 포함될 수 있다.
하나 이상의 컴퓨터 시스템에 의해 DL 모델에 입력되는 이미지 외에도, DL 모델은 추가 스캐닝 출력(516)과 같은 입력을 위한 하나 이상의 추가 채널을 가질 수 있으며, 이는 표본을 스캐닝하는 동안 이미징 서브시스템 및/또는 이미징 서브시스템의 출력에 기초하여 컴퓨터 시스템(들)에 의해 생성될 수 있다. 이와 같은 추가적인 스캐닝 출력은 도구 원격 측정 자동 초점 데이터, 스테이지 위치, 온도 등을 포함할 수 있지만, 이것으로 한정되는 것은 아니다. 컴퓨터 시스템(들)은 이와 같은 데이터를 임의의 적합한 방식으로 DL 모델에 입력할 수 있다. DL 모델은 본 명세서에 기술된 다른 훈련이 수행되는 것과 동일한 방식으로 범프 높이 예측을 위해 해당 추가 정보 채널을 사용하도록 훈련될 수 있다.
추가 실시예에서, 하나 이상의 컴퓨터 시스템은 표본에 대한 설계 정보에 기초하여 하나 이상의 3D 구조물에 대응하는 이미지의 부분을 위치 결정 및 분리하도록 구성된다. 예를 들어, 표본에 대한 설계 정보가 본 명세서에 기술된 실시예에 의해 사용 가능하다면, 일부 유형의 이미지 대 설계 정렬 방법 또는 시스템을 사용하여 표본의 생성된 이미지에서 3D 구조물의 위치를 식별하는 것이 비교적 간단할 수 있다. 일반적으로, 대부분의 이미지 대 설계 정렬에는 표본 상의 고유한 구조물의 표본 이미지를 해당 설계 정보에 정렬시킨 다음 해당 정렬 단계의 결과를 사용하여, 예컨대, 좌표 변환을 통해 추가 표본 이미지를 설계 정보에 정렬시키는 것이 포함된다. 유용한 이미지 대 설계 정렬 방법의 일부 예는 2010년 3월 9일자로 Kulkarni 등에게 허여된 미국 특허 제7,676,077호, 2011년 10월 18일자로 Kulkarni 등에게 허여된 미국 특허 제8,041,103호, 2017년 11월 28일자로 Bhattacharyya 등에게 허여된 미국 특허 제9,830,421호, 2018년 11월 13일자로 Duffy 등에게 허여된 미국 특허 제10,127,653호 및 2020년 8월 4일자로 Ha 등에게 허여된 미국 특허 제10,733,744호, 2021년 4월 1일자로 공개된 Brauer 등에 의한 미국 특허 출원 공개 제2021/0097704호, 및 2021년 5월 5일자로 제출된 Brauer 등에 의해 공동 양도된 미국 특허 출원 일련 번호 제17/308,878호, 및 2021년 5월 28일자로 출원된 제17/334,179호에서 찾을 수 있고, 이들 문헌 모두는 본 명세서에 전문이 참조로 통합된다. 본 명세서에 기술된 실시예는 이들 참조 문서에 기술된 바와 같이 또한 구성될 수 있다.
다른 실시예에서, 하나 이상의 컴퓨터 시스템은, YOLO 네트워크에 이미지를 입력함으로써 하나 이상의 3D 구조물에 대응하는 이미지의 부분을 위치 결정 및 분리하도록 구성되며, YOLO 네트워크는 위치 결정을 위해 구성되고, 하나 이상의 컴퓨터 시스템에 의해 실행되는 하나 이상의 컴포넌트에 포함된다. 이러한 실시예에서, YOLO DL 네트워크는 본 명세서에 기술된 DL 모델에 더하여 사용될 수 있다. YOLO 네트워크는 처음부터 범프를 찾도록 훈련될 수 있으며, 전술한 템플릿 매칭 접근법보다 훨씬 더 안정적으로 수행할 수 있다.
일반적으로, YOLO 네트워크는 큰 이미지를 더 작은 영역으로 분할하고, 각 영역에 대한 바운딩 박스(bounding box) 및 (클래스) 확률을 예측하는 단일 CNN을 포함할 수 있다. 바운딩 박스는 예측된 가능성에 의해 가중치가 부여될 수 있다. YOLO 네트워크는, 본 명세서에 기술된 바와 같이(예컨대, YOLO 네트워크에 입력되는 훈련 이미지 및 훈련 출력으로서의 바운딩 박스 및 이들의 관련 클래스를 가짐), 훈련될 수 있고, YOLO 네트워크는 당업계에 공지된 임의의 적합한 구성을 가질 수 있다. 이와 같은 실시예에서, 범프는 YOLO 네트워크를 사용하여 발견될 수 있고, 하나 이상의 컴퓨터 시스템은 범프 상단을 크롭하고 범프 상단 높이를 예측하기 위해 AlexNet과 같은 본 명세서에 기술된 DL 모델 중 하나를 사용할 수 있다.
YOLO 네트워크는, 측정될 수 있는 대부분의 "관심 대상"을 찾도록 훈련될 수 있기 때문에, 본 명세서에 기술된 실시예에 대해 특히 흥미롭다. 이러한 능력은, 범프 대 딥 비아와 같이 실질적으로 상이한 물리적 특성을 갖는 3D 구조물의 높이, 극적으로 상이한 형상을 갖는 구조물, 유사한 형상을 갖는다고 하여도 이들의 이미지에 실질적인 차이를 야기할 수 있는 상이한 재료로 이루어질 수 있는 구조물 등을 측정하는데 사용될 수 있기 때문에, 본 명세서에 기술된 실시예에 대해 특히 유용할 수 있다. YOLO 네트워크는 이미지에서 여러 바운딩 박스를 동시에 예측할 수 있다는 추가 이점이 있다. YOLO 네트워크는 이미지 내의 복수의 바운딩 박스를 동시에 예측할 수 있다는 추가 이점을 갖고, 이는 이미징 서브시스템에 의해 생성된 이미지가 일반적으로 복수의 범프에 대한 이미지를 포함하기 때문에 유용하며, 다른 객체 검출 방법에 비해 매우 빠르며, 또한, 훈련하는 동안 전체 이미지를 보기 때문에, 객체 이미지에 대한 컨텍스트 정보를 인코딩할 수 있다. YOLO 네트워크에 대한 자세한 내용은 2016년 12월 25일자, arXiv:1613.08242, 9페이지의 Redmon 등에 의한 "YOLO9000: Better, Faster, Stronger"에서 찾을 수 있고, 이 문헌은 본 명세서에 전문이 참조로 통합된다. 본 명세서에 기술된 실시예는 해당 참조 문서에 기술된 바와 같이 또한 구성될 수 있다.
YOLO 네트워크가 전술한 객체 검출에 특히 유리할 수 있지만, 본 명세서에 기술된 실시예는 이미지에서 범프를 찾기 위해 객체 검출에 적합한 당업계에 공지된 임의의 다른 DL 모델을 사용하도록 구성될 수 있다. 예를 들어, YOLO 네트워크는 객체 발견 DL 네트워크의 단지 하나의 가능한 실시예이고, 임의의 다른 적합한 DL 네트워크는 YOLO 네트워크와 기능적으로 유사한 영역 기반 컨볼루션 신경망(R-CNN: region based convolutional neural networks)과 같은 객체 검출에 사용될 수 있다. 이러한 방식으로, 다른 실시예에서, 하나 이상의 컴퓨터 시스템은, 추가적인 DL 모델에 이미지를 입력함으로써 하나 이상의 3D 구조물에 대응하는 이미지의 부분을 위치 결정 및 분리하도록 구성되며, 추가적인 DL 모델은 위치 결정을 위해 구성되고, 하나 이상의 컴퓨터 시스템에 의해 실행되는 하나 이상의 컴포넌트에 포함된다. 추가 DL 모델은 높이 정보를 예측하는 DL 모델과 완전히 별개일 수 있다. 2개의 DL 모델은 또한 상이한 유형의 DL 모델과 같은 상이한 구성을 가질 수 있고/있거나 동일한 유형의 DL 모델일 수 있지만 상이하게 훈련될 수 있는데, 즉, 하나는 객체 검출을 위해 훈련되고 다른 하나는 높이 예측을 위해 훈련된다. 이와 같은 훈련 각각은 본 명세서에 기술된 바와 같이 수행될 수 있다.
YOLO 네트워크 또는 기능적으로 유사한 네트워크는 객체 검출뿐만 아니라, 높이 예측을 위해서도 본 명세서에 기술된 실시예에서 사용될 수도 있다. 예를 들어, 일 실시예에서, DL 모델은 YOLO 네트워크로서 구성되고, YOLO 네트워크는 하나 이상의 3D 구조물에 대응하는 이미지의 부분을 위치 결정 및 분리하도록 구성된다. 이러한 방식으로, YOLO 네트워크는 객체 검출 및 객체 높이 예측 모두에 사용될 수 있다. 범프 발견 및 범프 또는 다른 3D 객체의 높이 예측 둘 다를 위해 YOLO 네트워크 또는 다른 단일 DL 모델을 훈련시키면, 단일 네트워크에서 기능을 결합하는 것이 상이한 기능에 대해 별도의 네트워크를 갖는 것보다 종종 더 컴퓨터 효율적이기 때문에, 본 명세서에 기술된 실시예에 장점을 제공할 수 있다. 그러나, YOLO 네트워크는 높이 예측을 위해 구성될 수 있으며, 다른 DL 모델은 객체 검출을 위해 사용되도록 구성될 수 있다. 객체 검출 및 높이 예측 모두를 위해 구성된 YOLO 네트워크는 본 명세서에 추가로 기술되는 바와 같이 훈련될 수 있다.
하나 이상의 컴퓨터 시스템은 또한 하나 이상의 3D 구조물의 예측 높이에 기초하여 표본에 대한 정보를 결정하도록 구성된다. 일반적으로, 예측 높이에 기초하여 컴퓨터 시스템(들)에 의해 결정되는 정보는 본 명세서에 기술된 것과 같은 임의의 검사 유사 정보 및/또는 계측 유사 정보일 수 있다. 또한, 하나 이상의 3D 구조물의 예측 높이에 기초하여 표본에 대해 결정되는 정보는 본 명세서에 기술된 여러 유형의 정보의 조합일 수 있다(예컨대, 결함이 있는 3D 구조물(들)의 식별 및 평균 높이 또는 범프 높이의 맵과 같은 높이 메트릭의 양쪽 모두).
일 실시예에서, 정보를 결정하는 것은 하나 이상의 3D 구조물 중 어느 것이 결함이 있는지를 결정하는 것을 포함한다. 이러한 방식으로, 컴퓨터 시스템(들)은 짧은 범프를 포함하여 결함이 있는 범프를 찾을 수 있다. 검사를 위한 이와 같은 일 실시예에서, 하나 이상의 컴퓨터 시스템은 임계값 이상의 범프 높이 오류를 플래그할 수 있다. 하나의 예시적인 예에서, 도 3은 표본(300) 상에 형성된 기둥형 범프 예(302, 304, 306)를 도시한다. 이미징 서브시스템에 의해 표본에 대해 생성된 이미지는 DL 모델에 입력될 수 있으며(본 명세서에 기술된 전처리를 사용함), DL 모델은 각 범프에 대한 예측 높이를 출력한다. 이들 예측 높이는 설계되거나 원하는 범프 높이일 수 있는 공칭 범프 높이(308)와 비교될 수 있다. 예측 높이 중 어느 것이 공칭 범프 높이 미만인 경우, 하나 이상의 컴퓨터 시스템은 이와 같은 예측 높이를 갖는 범프를 결함 또는 결함 후보로 지정할 수 있다. 예를 들어, 도 3에 도시된 바와 같이, 범프(302, 304)는 공칭 범프 높이(308)를 갖는 반면, 범프(306)는 짧은 범프 높이(310)로 결함이 있으므로 컴퓨터 시스템(들)에 의해 결함이 있는 짧은 범프로 지정될 수 있다.
임의의 결함 검출 알고리즘 또는 방법과 마찬가지로, 컴퓨터 시스템(들)은 각각의 범프에 대해 예측 높이를 범프에 허용되지 않는 공칭 또는 설계된 범프 높이 미만(및 가능하게는 위)의 범프 높이 범위에 대응할 수 있는 임계값(또는 임계값들)과 비교할 수 있다. 범프의 예상 높이가 허용 가능한 것보다 낮거나 높으면, 이와 같은 비교를 통해 컴퓨터 시스템(들)에 의해 검출될 수 있다. 어떤 범프가 결함이 있는지를 결정하기 위해 다른 알고리즘 및 방법도 사용될 수 있다(예컨대, 공칭 범프 높이와 예측 범프 높이 간의 차이를 범프 높이의 허용 가능한 변동에 해당하는 임계값과 비교하는 것, 표본의 다른 범프와 비교하여 예측 높이를 초과하는 범프를 찾는 것 등).
다른 실시예에서, 정보는 하나 이상의 3D 구조물에 대한 평균 높이 메트릭을 포함한다. 이러한 방식으로, 컴퓨터 시스템(들)은 웨이퍼 영역에 걸쳐 평균 범프 높이와 같은 실질적으로 정확한 범프 높이 메트릭을 생성할 수 있다. 계측을 위한 이와 같은 일 실시예에서, 하나 이상의 컴퓨터 시스템은 정확한 측정을 위해 영역에서 여러 범프 높이를 평균화할 수 있다. 도 3에 도시된 이와 같은 일 예에서, 컴퓨터 시스템(들)은 범프(302, 304, 306)에 대한 예측 높이를 사용하여 수평 점선(312)으로 표시된 영역 평균 높이를 결정할 수 있다.
이와 같은 평균 높이 메트릭을 결정하는데 사용되는 예측 범프 높이의 수는 도 3에 도시된 것과 분명히 다를 수 있으며 3개 초과의 수개의 범프를 포함할 수 있다. 평균 높이 메트릭은 표본 상의 모든 범프보다 적고 표본 상의 국부 영역의 범프만으로 결정되는 국부적인 높이 메트릭, 또는 표본 상의 모든(또는 적어도 대부분의) 범프 또는 표본 상의 모든 범프보다 적지만 표본의 전체 영역에 걸쳐 결정되는 전체 높이 메트릭일 수 있다. 다이 또는 표본에 대해 이와 같은 복수의 메트릭이 결정될 수도 있다.
하나 이상의 컴퓨터 시스템은 표본에 대한 결과를 생성하도록 구성될 수 있으며, 여기에는 결함이 있는 것으로 결정된 임의의 3D 구조물에 대한 정보, 임의의 높이 메트릭 정보, 표본 전체에 걸친 범프 높이 맵, 개별 3D 구조물의 예상 높이 등과 같은 본 명세서에 기술된 임의의 정보가 포함될 수 있다. 결함 3D 구조물에 대한 결과에는 결함 3D 구조물의 위치, 검출 스코어, 등급 라벨이나 ID 등과 같은 결함 3D 구조물 분류에 대한 정보 또는 당업계에 공지된 임의의 이와 같은 적합한 정보가 포함될 수 있지만, 이들로 한정되는 것은 아니다. 표본에 대한 결과는 임의의 적합한 방식으로 컴퓨터 시스템(들)에 의해 생성될 수 있다.
본 명세서에 기술된 모든 실시예는 실시예의 하나 이상의 단계의 결과를 컴퓨터 판독 가능 저장 매체에 저장하도록 구성될 수 있다. 그 결과는 본 명세서에 기술된 임의의 결과를 포함할 수 있고, 당업계에 공지된 임의의 방식으로 저장될 수 있다. 표본에 대한 결과는 표준 파일 유형과 같은 임의의 적합한 형태나 포맷을 가질 수 있다. 저장 매체는 본 명세서에 기술된 임의의 저장 매체 또는 당업계에 공지된 임의의 다른 적합한 저장 매체를 포함할 수 있다. 결과가 저장된 후, 그 결과는 본 명세서에 기술된 임의의 방법이나 시스템 실시예에 의해 저장 매체에서 액세스되어 사용되고, 사용자에게 표시하기 위해 포맷되고, 다른 소프트웨어 모듈, 방법 또는 시스템 등에 의해 사용되어, 표본 또는 동일 유형의 다른 표본에 대해 하나 이상의 기능을 수행할 수 있다.
이와 같은 기능에는 피드백 또는 피드포워드 방식 등으로 표본에 수행되었거나 수행될 제조 공정 또는 단계와 같은 공정을 변경하는 것이 포함되지만, 이것으로 한정되는 것은 아니다. 예를 들어, 컴퓨터 시스템(들)은 결함이 있는 3D 구조에 기초하여 표본에 수행된 공정 및/또는 표본에 수행될 공정에 대한 하나 이상의 변경을 결정하도록 구성될 수 있다. 공정에 대한 변경은 공정의 하나 이상의 파라미터에 대한 임의의 적합한 변경을 포함할 수 있다. 컴퓨터 시스템(들)은 바람직하게는 수정된 공정이 수행되는 다른 표본 상에서 결함 있는 3D 구조물이 감소되거나 방지될 수 있고, 표본 상에서 수행되는 다른 공정에서 결함 있는 3D 구조물이 그 표본 상에서 수정되거나 제거될 수 있으며, 표본 상에서 수행되는 다른 공정에서 결함 있는 3D 구조물이 보상될 수 있는 등과 같은 이러한 변경을 결정한다. 컴퓨터 시스템(들)은 당업계에 공지된 임의의 적합한 방식으로 이와 같은 변경을 결정할 수 있다.
그런 다음, 이러한 변경은 컴퓨터 시스템(들)과 반도체 제조 시스템의 양쪽 모두에 액세스할 수 있는 반도체 제조 시스템(도시하지 않음) 또는 저장 매체(도시하지 않음)로 전송될 수 있다. 반도체 제조 시스템은 본 명세서에 기술된 시스템 실시예의 일부일 수도 있고 아닐 수도 있다. 예를 들어, 본 명세서에 기술된 이미징 서브시스템 및/또는 컴퓨터 시스템(들)은, 예컨대, 하우징, 전원 공급 장치, 표본 처리 장치 또는 메커니즘 등과 같은 하나 이상의 일반 요소를 통해 반도체 제조 시스템에 커플링될 수 있다. 반도체 제조 시스템은 리소그래피 장비, 식각 장비, CMP(chemical-mechanical polishing) 장비, 퇴적 장비 등과 같이 당업계에 공지된 임의의 반도체 장비를 포함할 수 있다.
전술한 각 시스템에 대한 각각의 실시예는 하나의 단일 실시예로 함께 조합될 수 있다.
또 다른 실시예는 표본에 대한 정보를 결정하기 위한 컴퓨터 구현 방법에 관한 것이다. 본 방법은 이미징 서브시스템에 의해 표본의 이미지를 생성하는 단계를 포함한다. 하나 이상의 3D 구조물이 표본 상에 형성된다. 본 방법은, 하나 이상의 컴퓨터 시스템에 의해 실행되는 하나 이상의 컴포넌트에 포함된 DL 모델에 이미지 중의 하나 이상을 입력함으로써, 이미지 중의 하나 이상에 기초하여 하나 이상의 3D 구조물의 높이를 예측하는 단계를 더 포함한다. 또한, 본 방법은 하나 이상의 3D 구조물의 예측 높이에 기초하여 표본에 대한 정보를 결정하는 단계를 포함한다. 결정 단계는 하나 이상의 컴퓨터 시스템에 의해 수행된다.
방법의 각 단계는 본 명세서에 추가로 설명된 바와 같이 수행될 수 있다. 방법은 본 명세서에 기술된 시스템, 컴퓨터 시스템(들) 및/또는 이미징 서브시스템에 의해 수행될 수 있는 임의의 다른 단계(들)를 포함할 수도 있다. 하나 이상의 컴퓨터 시스템, 하나 이상의 컴포넌트, DL 모델 및 이미징 서브시스템은 본 명세서에 기술된 임의의 실시예, 예컨대, 컴퓨터 시스템(들)(102), 컴포넌트(들)(100), DL 모델(104) 및 이미징 서브시스템(10)에 따라 구성될 수 있다. 또한, 전술한 방법은 본 명세서에 설명된 임의의 시스템 실시예에 의해 수행될 수 있다.
추가 실시예는 표본에 대한 정보를 결정하기 위한 컴퓨터 구현 방법을 수행하기 위해 하나 이상의 컴퓨터 시스템에서 실행 가능한 프로그램 명령어를 저장한 비일시적 컴퓨터 판독 가능 매체에 관한 것이다. 이와 같은 하나의 실시예가 도 6에 도시된다. 특히, 도 6에 도시된 바와 같이, 비일시적 컴퓨터 판독 가능 매체(600)는 컴퓨터 시스템(들)(604)에서 실행 가능한 프로그램 명령어(602)를 포함한다. 컴퓨터 구현 방법은 본 명세서에 설명된 임의의 방법(들)의 임의의 단계(들)를 포함할 수 있다.
본 명세서에 설명된 것과 같은 방법을 구현하는 프로그램 명령어(602)는 컴퓨터 판독 가능 매체(600)에 저장될 수 있다. 컴퓨터 판독 가능 매체는 자기 디스크나 광디스크, 자기 테이프 또는 당업계에 공지된 임의의 다른 적합한 비일시적 컴퓨터 판독 가능 매체와 같은 저장 매체일 수 있다.
프로그램 명령어는, 특히, 절차 기반 기술(procedure-based technique), 컴포넌트 기반 기술(component-based technique) 및/또는 객체 지향 기술(object-oriented technique)을 포함하는 임의의 다양한 방식으로 구현될 수 있다. 예를 들어, 프로그램 명령어는, 원하는 대로, ActiveX 컨트롤, C++ 오브젝트, JavaBeans, Microsoft Foundation Classes("MFC"), SSE(Streaming SIMD Extension) 또는 기타 기술이나 방법론을 사용하여 구현될 수 있다.
컴퓨터 시스템(들)(604)은 본 명세서에서 설명된 실시예들 중 임의의 것에 따라 구성될 수 있다.
또한, 본 발명의 다양한 양태의 수정 및 대체 실시예는 이러한 상세한 설명을 고려하여 당업자에게 명백할 것이다. 예를 들어, 표본에 대한 정보를 결정하기 위한 방법 및 시스템이 제공된다. 따라서, 이러한 상세한 설명은 단지 예시적인 것으로 해석되어야 하며, 본 발명을 수행하는 일반적인 방식을 당업자에게 가르치는 것을 목적으로 한다. 본 명세서에 도시되고 기술된 본 발명의 형태는 현재 바람직한 실시예로서 취해지는 것으로 이해되어야 한다. 요소 및 재료는 본 명세서에 예시 및 기술된 것으로 대체될 수 있고, 부품들 및 공정들이 역전될 수 있으며, 본 발명의 특정 피처는, 본 발명의 이러한 상세한 설명의 장점을 얻은 후, 당업자에게 명백한 바와 같이, 독립적으로 사용될 수 있다. 이하의 청구항에 기재된 바와 같이, 본 명세서에 기술된 요소는 본 발명의 사상 및 범주를 벗어나지 않고 변경될 수 있다.

Claims (27)

  1. 표본에 대한 정보를 결정하도록 구성된 시스템으로서,
    표본의 이미지를 생성하도록 구성된 이미징 서브시스템 ― 하나 이상의 3차원 구조물이 상기 표본 상에 형성됨 ―;
    하나 이상의 컴퓨터 시스템; 및
    상기 하나 이상의 컴퓨터 시스템에 의해 실행되는 하나 이상의 컴포넌트
    를 포함하고,
    상기 하나 이상의 컴포넌트는, 상기 이미지 중의 하나 이상에 기초하여, 상기 하나 이상의 3차원 구조물의 높이를 예측하도록 구성된 딥 러닝 모델을 포함하고,
    상기 하나 이상의 컴퓨터 시스템은, 상기 하나 이상의 3차원 구조물의 예측 높이에 기초하여, 상기 표본에 대한 정보를 결정하도록 구성되는 것인,
    시스템.
  2. 제 1 항에 있어서,
    상기 하나 이상의 3차원 구조물은, 웨이퍼 상에 형성된 하나 이상의 범프인 것인, 시스템.
  3. 제 1 항에 있어서,
    상기 정보를 결정하는 것은, 상기 하나 이상의 3차원 구조물 중 어느 것이 결함이 있는지를 결정하는 것을 포함하는 것인, 시스템.
  4. 제 1 항에 있어서,
    상기 정보는, 상기 하나 이상의 3차원 구조물에 대한 평균 높이 메트릭을 포함하는 것인, 시스템.
  5. 제 1 항에 있어서,
    높이 예측에 사용되는 상기 이미지 중의 하나 이상은, 상기 표본의 단일 패스(single pass)에서 상기 이미징 서브시스템에 의해 수집되는 것인, 시스템.
  6. 제 1 항에 있어서,
    높이 예측에 사용되는 상기 이미지 중의 하나 이상은, 단일 초점값에서 상기 이미징 서브시스템에 의해 수집되는 것인, 시스템.
  7. 제 1 항에 있어서,
    상기 이미지는, 상기 표본의 명시야 이미지 또는 상기 표본의 암시야 이미지를 포함하는 것인, 시스템.
  8. 제 1 항에 있어서,
    상기 이미지는, 상기 표본의 명시야 이미지 및 상기 표본의 암시야 이미지를 포함하는 것인, 시스템.
  9. 제 1 항에 있어서,
    상기 하나 이상의 컴퓨터 시스템은 또한, 2개 이상의 초점 오프셋을 갖는 상기 표본 또는 상이한 표본의 상기 이미징 서브시스템에 의해 생성된 상기 이미지로 상기 딥 러닝 모델을 훈련하도록 구성되는 것인, 시스템.
  10. 제 1 항에 있어서,
    상기 하나 이상의 컴퓨터 시스템은 또한, 상기 3차원 구조물을 갖는 상이한 표본의 상기 이미징 서브시스템에 의해 생성된 이미지로 상기 딥 러닝 모델을 훈련하도록 구성되며, 상기 3차원 구조물은, 상기 3차원 구조물의 다수의 알려진 특성값으로 상기 표본 상에 형성되는 것인, 시스템.
  11. 제 1 항에 있어서,
    상기 하나 이상의 컴퓨터 시스템은 또한, 상기 하나 이상의 3차원 구조물에 대응하는 상기 이미지의 부분을 위치 결정(locating) 및 분리(isolating)하도록 구성되고, 상기 딥 러닝 모델에 입력되는 상기 이미지는, 상기 하나 이상의 3차원 구조물에 대응하는 상기 이미지의 상기 분리된 부분만을 포함하는 것인, 시스템.
  12. 제 1 항에 있어서,
    상기 하나 이상의 컴퓨터 시스템은 또한, 상기 하나 이상의 3차원 구조물에 대응하는 상기 이미지 중의 하나 이상의 부분을, 각각, 위치 결정 및 분리하고, 상기 분리된 하나 이상의 부분에 기초하여 개별적인 하나 이상의 3차원 구조물에 대한 개별적인 하나 이상의 크롭 패치 이미지(cropped patch image)를, 각각, 생성하도록 구성되는 것인, 시스템.
  13. 제 1 항에 있어서,
    상기 하나 이상의 컴퓨터 시스템은 또한, 템플릿 매칭(template matching)에 의해 상기 하나 이상의 3차원 구조물에 대응하는 상기 이미지의 부분을 위치 결정 및 분리하도록 구성되는 것인, 시스템.
  14. 제 1 항에 있어서,
    상기 하나 이상의 컴퓨터 시스템은 또한, 상기 표본에 대한 설계 정보에 기초하여, 상기 하나 이상의 3차원 구조물에 대응하는 상기 이미지의 부분을 위치 결정 및 분리하도록 구성되는 것인, 시스템.
  15. 제 1 항에 있어서,
    상기 하나 이상의 컴퓨터 시스템은 또한, YOLO 네트워크에 상기 이미지를 입력함으로써, 상기 하나 이상의 3차원 구조물에 대응하는 상기 이미지의 부분을 위치 결정 및 분리하도록 구성되며, 상기 YOLO 네트워크는 위치 결정을 위해 구성되고, 상기 하나 이상의 컴퓨터 시스템에 의해 실행되는 상기 하나 이상의 컴포넌트 내에 포함되는 것인, 시스템.
  16. 제 1 항에 있어서,
    상기 하나 이상의 컴퓨터 시스템은 또한, 추가적인 딥 러닝 모델에 상기 이미지를 입력함으로써, 상기 하나 이상의 3차원 구조물에 대응하는 상기 이미지의 부분을 위치 결정 및 분리하도록 구성되며, 상기 추가적인 딥 러닝 모델은 위치 결정을 위해 구성되고, 상기 하나 이상의 컴퓨터 시스템에 의해 실행되는 상기 하나 이상의 컴포넌트 내에 포함되는 것인, 시스템.
  17. 제 1 항에 있어서,
    상기 딥 러닝 모델은 또한 컨볼루션 신경망으로서 구성되는 것인, 시스템.
  18. 제 1 항에 있어서,
    상기 딥 러닝 모델은 컨볼루션 레이어와 완전 연결 레이어의 조합을 포함하는 것인, 시스템.
  19. 제 1 항에 있어서,
    상기 딥 러닝 모델은 또한 AlexNet으로서 구성되는 것인, 시스템.
  20. 제 1 항에 있어서,
    상기 딥 러닝 모델은 또한 YOLO 네트워크로서 구성되고, 상기 YOLO 네트워크는 또한 상기 하나 이상의 3차원 구조물에 대응하는 상기 이미지의 부분을 위치 결정 및 분리하도록 구성되는 것인, 시스템.
  21. 제 1 항에 있어서,
    상기 이미징 서브시스템은 또한 검사 서브시스템으로서 구성되는 것인, 시스템.
  22. 제 1 항에 있어서,
    상기 이미징 서브시스템은 또한 계측 서브시스템으로서 구성되는 것인, 시스템.
  23. 제 1 항에 있어서,
    상기 이미징 서브시스템은 또한 광 기반 서브시스템으로서 구성되는 것인, 시스템.
  24. 제 1 항에 있어서,
    상기 이미징 서브시스템은 또한 전자빔 서브시스템으로서 구성되는 것인, 시스템.
  25. 제 1 항에 있어서,
    상기 표본은 웨이퍼인 것인, 시스템.
  26. 비일시적 컴퓨터 판독 가능 매체로서,
    표본에 대한 정보를 결정하기 위한 컴퓨터 구현 방법을 수행하기 위해 하나 이상의 컴퓨터 시스템에서 실행 가능한 프로그램 명령어를 저장하며,
    상기 컴퓨터 구현 방법은:
    이미징 서브시스템에 의해 표본의 이미지를 생성하는 단계 ― 하나 이상의 3차원 구조물이 상기 표본 상에 형성됨 ―;
    상기 하나 이상의 컴퓨터 시스템에 의해 실행되는 하나 이상의 컴포넌트에 포함된 딥 러닝 모델에 상기 이미지 중의 하나 이상을 입력함으로써, 상기 이미지 중의 하나 이상에 기초하여, 상기 하나 이상의 3차원 구조물의 높이를 예측하는 단계; 및
    상기 하나 이상의 3차원 구조물의 예측 높이에 기초하여, 상기 표본에 대한 정보를 결정하는 단계
    를 포함하는 것인, 비일시적 컴퓨터 판독 가능 매체.
  27. 표본에 대한 정보를 결정하기 위한 컴퓨터 구현 방법으로서,
    이미징 서브시스템에 의해 표본의 이미지를 생성하는 단계 ― 하나 이상의 3차원 구조물이 상기 표본 상에 형성됨 ―;
    하나 이상의 컴퓨터 시스템에 의해 실행되는 하나 이상의 컴포넌트에 포함된 딥 러닝 모델에 상기 이미지 중의 하나 이상을 입력함으로써, 상기 이미지 중의 하나 이상에 기초하여, 상기 하나 이상의 3차원 구조물의 높이를 예측하는 단계; 및
    상기 하나 이상의 3차원 구조물의 예측 높이에 기초하여, 상기 표본에 대한 정보를 결정하는 단계
    를 포함하고, 상기 결정 단계는 상기 하나 이상의 컴퓨터 시스템에 의해 수행됨되는 것인, 컴퓨터 구현 방법.
KR1020227045445A 2020-08-07 2021-08-06 딥 러닝을 사용한 3d 구조물 검사 또는 계측 KR102685758B1 (ko)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US202063062446P 2020-08-07 2020-08-07
US63/062,446 2020-08-07
US17/393,979 2021-08-04
US17/393,979 US11644756B2 (en) 2020-08-07 2021-08-04 3D structure inspection or metrology using deep learning
PCT/US2021/044859 WO2022032046A1 (en) 2020-08-07 2021-08-06 3d structure inspection or metrology using deep learning

Publications (2)

Publication Number Publication Date
KR20230046279A true KR20230046279A (ko) 2023-04-05
KR102685758B1 KR102685758B1 (ko) 2024-07-17

Family

ID=

Also Published As

Publication number Publication date
IL299069A (en) 2023-02-01
IL299069B1 (en) 2024-04-01
US20220043357A1 (en) 2022-02-10
US11644756B2 (en) 2023-05-09
EP4153939A1 (en) 2023-03-29
JP2023536564A (ja) 2023-08-28
WO2022032046A1 (en) 2022-02-10
TW202225677A (zh) 2022-07-01
EP4153939A4 (en) 2024-07-17
CN115917246A (zh) 2023-04-04

Similar Documents

Publication Publication Date Title
CN113302728B (zh) 利用自动产生缺陷特征检验半导体结构的方法及***
KR102438824B1 (ko) 3차원 반도체 구조체들의 검사를 위한 결함 발견 및 레시피 최적화
KR102235581B1 (ko) 이미지 합성을 위한 컨볼루션 신경망 기반의 모드 선택 및 결함 분류
KR102412022B1 (ko) 큰 오프셋 다이-다이 검사를 위한 다단계 이미지 정렬 방법
CN106537125B (zh) 具有多种模式的虚拟检验***
US11644756B2 (en) 3D structure inspection or metrology using deep learning
KR102295266B1 (ko) 내장 타겟을 사용한 설계에 대한 검사의 정렬
KR20200037869A (ko) 웨이퍼 상에서 검출되는 결함에서 주목하는 결함 및 방해물의 식별
KR102310680B1 (ko) 설계에 대한 검사의 서브-픽셀 정렬
TW202201154A (zh) 用於模擬樣本影像之生成對抗網路(GANs)
US20160321800A1 (en) Intra-Die Defect Detection
CN115699279B (zh) 针对含样品内及样品间变异的样品使用无监督学习及适应性数据库产生方法的图像对准设置
KR20240082266A (ko) 반도체 기반 애플리케이션을 위한 비지도형 또는 자기 지도형 딥 러닝
US10151706B1 (en) Inspection for specimens with extensive die to die process variation
KR102685758B1 (ko) 딥 러닝을 사용한 3d 구조물 검사 또는 계측
TW202141210A (zh) 使用檢測工具以判定用於樣本之類計量(metrology-like)之資訊
TWI844777B (zh) 針對具有樣品內及樣品間變異之樣品使用無監督學習及適應性資料庫產生方法之影像對準設定
KR20240034691A (ko) 고속 및 퍼지 패턴 그룹화
CN117561539A (zh) 用于基于半导体应用的无监督或自我监督的深度学习
CN117980729A (zh) 多模式光学检验

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant