KR20210082247A - 기계 학습 모델 예측 내의 불확실성을 감소시키기 위한 방법. - Google Patents

기계 학습 모델 예측 내의 불확실성을 감소시키기 위한 방법. Download PDF

Info

Publication number
KR20210082247A
KR20210082247A KR1020217016534A KR20217016534A KR20210082247A KR 20210082247 A KR20210082247 A KR 20210082247A KR 1020217016534 A KR1020217016534 A KR 1020217016534A KR 20217016534 A KR20217016534 A KR 20217016534A KR 20210082247 A KR20210082247 A KR 20210082247A
Authority
KR
South Korea
Prior art keywords
distributions
uncertainty
model
machine learning
parameterized model
Prior art date
Application number
KR1020217016534A
Other languages
English (en)
Inventor
스코트 앤더슨 미들브룩스
마르쿠스 제라르두스 마르티누스 마리아 반 크라이
맥심 피사렌코
Original Assignee
에이에스엠엘 네델란즈 비.브이.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from EP18209496.1A external-priority patent/EP3660744A1/en
Application filed by 에이에스엠엘 네델란즈 비.브이. filed Critical 에이에스엠엘 네델란즈 비.브이.
Publication of KR20210082247A publication Critical patent/KR20210082247A/ko

Links

Images

Classifications

    • G06N3/0472
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03FPHOTOMECHANICAL PRODUCTION OF TEXTURED OR PATTERNED SURFACES, e.g. FOR PRINTING, FOR PROCESSING OF SEMICONDUCTOR DEVICES; MATERIALS THEREFOR; ORIGINALS THEREFOR; APPARATUS SPECIALLY ADAPTED THEREFOR
    • G03F7/00Photomechanical, e.g. photolithographic, production of textured or patterned surfaces, e.g. printing surfaces; Materials therefor, e.g. comprising photoresists; Apparatus specially adapted therefor
    • G03F7/70Microphotolithographic exposure; Apparatus therefor
    • G03F7/70483Information management; Active and passive control; Testing; Wafer monitoring, e.g. pattern monitoring
    • G03F7/70491Information management, e.g. software; Active and passive control, e.g. details of controlling exposure processes or exposure tool monitoring processes
    • G03F7/705Modelling or simulating from physical phenomena up to complete wafer processes or whole workflow in wafer productions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03FPHOTOMECHANICAL PRODUCTION OF TEXTURED OR PATTERNED SURFACES, e.g. FOR PRINTING, FOR PROCESSING OF SEMICONDUCTOR DEVICES; MATERIALS THEREFOR; ORIGINALS THEREFOR; APPARATUS SPECIALLY ADAPTED THEREFOR
    • G03F1/00Originals for photomechanical production of textured or patterned surfaces, e.g., masks, photo-masks, reticles; Mask blanks or pellicles therefor; Containers specially adapted therefor; Preparation thereof
    • G03F1/36Masks having proximity correction features; Preparation thereof, e.g. optical proximity correction [OPC] design processes
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03FPHOTOMECHANICAL PRODUCTION OF TEXTURED OR PATTERNED SURFACES, e.g. FOR PRINTING, FOR PROCESSING OF SEMICONDUCTOR DEVICES; MATERIALS THEREFOR; ORIGINALS THEREFOR; APPARATUS SPECIALLY ADAPTED THEREFOR
    • G03F7/00Photomechanical, e.g. photolithographic, production of textured or patterned surfaces, e.g. printing surfaces; Materials therefor, e.g. comprising photoresists; Apparatus specially adapted therefor
    • G03F7/70Microphotolithographic exposure; Apparatus therefor
    • G03F7/70425Imaging strategies, e.g. for increasing throughput or resolution, printing product fields larger than the image field or compensating lithography- or non-lithography errors, e.g. proximity correction, mix-and-match, stitching or double patterning
    • G03F7/70433Layout for increasing efficiency or for compensating imaging errors, e.g. layout of exposure fields for reducing focus errors; Use of mask features for increasing efficiency or for compensating imaging errors
    • G03F7/70441Optical proximity correction [OPC]
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03FPHOTOMECHANICAL PRODUCTION OF TEXTURED OR PATTERNED SURFACES, e.g. FOR PRINTING, FOR PROCESSING OF SEMICONDUCTOR DEVICES; MATERIALS THEREFOR; ORIGINALS THEREFOR; APPARATUS SPECIALLY ADAPTED THEREFOR
    • G03F7/00Photomechanical, e.g. photolithographic, production of textured or patterned surfaces, e.g. printing surfaces; Materials therefor, e.g. comprising photoresists; Apparatus specially adapted therefor
    • G03F7/70Microphotolithographic exposure; Apparatus therefor
    • G03F7/70483Information management; Active and passive control; Testing; Wafer monitoring, e.g. pattern monitoring
    • G03F7/70491Information management, e.g. software; Active and passive control, e.g. details of controlling exposure processes or exposure tool monitoring processes
    • G03F7/70508Data handling in all parts of the microlithographic apparatus, e.g. handling pattern data for addressable masks or data transfer to or from different components within the exposure apparatus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/30Circuit design
    • G06F30/34Circuit design for reconfigurable circuits, e.g. field programmable gate arrays [FPGA] or programmable logic devices [PLD]
    • G06F30/347Physical level, e.g. placement or routing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • G06N3/0454
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Probability & Statistics with Applications (AREA)
  • Computer Hardware Design (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Geometry (AREA)
  • Exposure And Positioning Against Photoresist Photosensitive Materials (AREA)
  • Preparing Plates And Mask In Photomechanical Process (AREA)

Abstract

매개변수화된 (예를 들어, 기계 학습) 모델 예측 내의 불확실성을 정량화하는 방법이 본 명세서에서 설명된다. 이 방법은 매개변수화된 모델이 주어진 입력에 대해 매개변수화된 모델로부터 다중 사후 분포를 예측하도록 하는 것을 포함한다. 다중 사후 분포는 분포들 중 분포를 포함한다. 본 방법은 분포들 중 분포로부터 샘플링함으로써, 주어진 입력에 대한 예측된 다중 사후 분포의 변동성을 결정하는 것; 및 매개변수화된 모델 예측 내의 불확실성을 정량화하기 위해 예측된 다중 사후 분포 내의 결정된 변동성을 이용하는 것을 포함한다. 매개변수화된 모델은 인코더-디코더 아키텍처를 포함한다. 본 방법은 반도체 제조 공정의 일부로서 웨이퍼 기하학적 구조, 오버레이 및/또는 기타 정보를 예측하기 위하여 매개변수화된 모델의 불확실성을 감소시키기 위해 매개변수화된 모델을 조정하도록 예측된

Description

기계 학습 모델 예측 내의 불확실성을 감소시키기 위한 방법.
관련 출원에 대한 상호 참조
본 출원은 2018년 11월 30일에 출원된 EP 출원 18209496.1 및 2019년 6월 26일에 출원된 EP 출원 19182658.5의 우선권을 주장하며, 이들의 내용은 본 명세서에서 전체적으로 인용 참조된다.
본 명세서 내의 설명은 전반적으로 마스크 제조 및 패터닝 공정에 관한 것이다. 프로세스에 관한 것이다. 보다 구체적으로, 본 설명은 매개변수화된 (예를 들어, 기계 학습) 모델 예측 내의 불확실성을 결정 및/또는 감소시키기 위한 장치 및 방법에 관한 것이다.
리소그래피 투영 장치는, 예를 들어 집적 회로(IC)의 제조 시에 사용될 수 있다. 이러한 경우, 패터닝 디바이스(예를 들어, 마스크)는 IC의 개별 층에 대응하는 회로 패턴("디자인 레이아웃")을 포함하거나 제공할 수 있으며, 패터닝 디바이스 상의 패턴을 통해 타겟 부분을 조사하는 것과 같은 방법에 의하여, 이 패턴은 방사선 감응 재료("레지스트")의 층으로 코팅된 기판(예를 들어, 실리콘 웨이퍼) 상의 (예를 들어, 하나 이상의 다이를 포함하는) 타겟 부분 상으로 전사될 수 있다. 일반적으로, 단일 기판은 복수의 인접한 타겟 부분을 포함하며, 패턴은 리소그래피 투영 장치에 의하여 한번에 하나의 타겟 부분씩 연속적으로 타겟 부분으로 전사된다. 한 유형의 리소그래피 투영 장치에서, 전체 패터닝 디바이스 상의 패턴은 한 번의 작동으로 하나의 타겟 부분 상으로 전사된다. 이러한 장치는 통상적으로 스테퍼(stepper)로 지칭된다. 통상적으로 스텝-앤드-스캔(step-and-scan) 장치로 지칭되는 대안적인 장치에서, 투영 빔은 주어진 기준 방향("스캐닝" 방향)으로 패터닝 디바이스에 걸쳐 스캐닝하는 한편, 동시에 이 기준 방향과 평행하게 또는 역-평행하게(anti-parallel) 기판이 이동된다. 패터닝 디바이스 상의 패턴의 상이한 부분들이 점진적으로 한 타겟 부분으로 전사된다. 일반적으로, 리소그래피 투영 장치가 저감비(reduction ratio)(M)(예를 들어, 4)를 갖고 있을 것이기 때문에, 기판이 이동되는 속도(F)는 투영 빔이 패터닝 디바이스를 스캐닝하는 속도의 1/M 배일 것이다. 본 명세서에 설명된 바와 같은 리소그래피 디바이스에 관한 더 많은 정보는, 예를 들어 본 명세서에서 인용 참조되는 US6,046,792로부터 얻어질 수 있다.
패턴을 패터닝 디바이스로부터 기판으로 전사하기 전에, 기판은 프라이밍(priming), 레지스트 코팅, 및 소프트 베이크와 같은 다양한 절차를 거칠 수 있다. 노광 후, 기판은 노광 후 베이크(PEB), 현상, 하드 베이크, 및 전사된 패턴의 측정/검사와 같은 다른 절차("노광 후 절차")를 거칠 수 있다. 이 일련의 절차는 디바이스, 예를 들면 IC의 개별 층을 만들기 위한 기초로 이용된다. 기판은 그 후 에칭, 이온 주입(도핑), 금속화, 산화, 화학-기계적 연마 등과 같은 다양한 공정을 거칠 수 있으며, 이 모두는 디바이스의 개별 층을 마무리하도록 의도된 것이다. 디바이스에 여러 층이 필요한 경우, 그러면 전체 절차 또는 그 변형이 각 층에 대해 반복된다. 최종적으로, 기판 상의 각 타겟 부분에 디바이스가 존재할 것이다. 이 디바이스들은 그후 다이싱(dicing) 또는 소잉(sawing)과 같은 기술에 의하여 서로 분리되며, 그 곳에서 개별 디바이스들은 캐리어에 장착될 수 있거나, 핀에 연결될 수 있다.
따라서, 반도체 디바이스와 같은 디바이스를 제조하는 것은 전형적으로 디바이스의 다양한 피처(features) 및 복수의 층을 형성하기 위해 다수의 제조 공정을 사용하여 기판(예를 들어, 반도체 웨이퍼)을 처리하는 것을 포함한다. 이러한 층 및 피처는 전형적으로, 예를 들어 적층, 리소그래피, 에칭, 화학 기계적 연마, 및 이온 주입을 사용하여 제조되고 처리된다. 복수의 디바이스가 기판 상의 복수의 다이 상에서 제조되며, 그후 개별 디바이스들로 분리될 수 있다. 이 디바이스 제조 공정은 패터닝 공정으로 간주될 수 있다. 패터닝 공정은 패터닝 디바이스 상의 패턴을 기판으로 전사하기 위해 리소그래피 장치 내의 패터닝 디바이스를 이용하는 광학 및/또는 나노임프린트 리소그래피와 같은 패터닝 단계를 포함하며, 또한 전형적으로, 하지만 선택적으로, 현상 장치에 의한 레지스트 현상, 베이크 툴을 사용한 기판의 베이킹, 에칭 장치를 사용한 패턴의 에칭 등과 같은 하나 이상의 관련 패턴 처리 단계를 포함한다. 하나 이상이 계측 공정이 전형적으로 패터닝 공정에 포함된다.
언급된 바와 같이, 리소그래피는 IC와 같은 디바이스의 제조에 있어서 중심적인 단계이며, 여기서 기판 상에 형성되는 패턴은 마이크로프로세서, 메모리 칩 등과 같은 디바이스의 기능 요소(functional element)를 규정한다. 유사한 리소그래피 기술이 또한 플랫 패널 디스플레이, 마이크로 전자 기계 시스템(MEMS) 및 다른 디바이스의 형성에 사용된다.
반도체 제조 공정이 계속 발전함에 따라, 통상적으로 "무어의 법칙"으로 지칭되는 추세에 따라 디바이스 당, 트랜지스터와 같은 기능 요소의 양은 수십 년 동안 꾸준히 증가하고 있는 한편, 기능 요소의 치수는 지속적으로 감소되고 있다. 현재의 기술 상태에서, 심자외선 조명 소스로부터의 조명을 사용하여 디자인 레이아웃을 기판에 투영하여, 100㎚ 훨씬 미만의, 즉 조명 소스(예를 들면, 193㎚의 조명 소스)로부터의 방사선의 파장의 절반 미만의 치수를 갖는 개별 기능 요소를 생성하는 리소그래피 투영 장치를 사용하여 디바이스의 층이 제조된다.
리소그래피 투영 장치의 고전적인 분해능 한계보다 더 작은 치수를 갖는 피처가 인쇄되는 이 공정은 분해능 공식
Figure pct00001
에 따라 통상적으로 저(low)-k1 리소그래피로 알려져 있으며, 여기서 λ는 사용되는 방사선의 파장(현재 대부분의 경우 248㎚ 또는 193㎚)이며, NA는 리소그래피 투영 장치 내의 투영 광학계의 개구수(numerical aperture)이고, CD는 "임계 치수"-일반적으로는 인쇄되는 가장 작은 피처 크기-이며, k1은 실험적 분해능 계수이다. 일반적으로, k1이 작을수록 특정의 전기적 기능 및 성능을 달성하기 위하여 설계자에 의해 계획된 형상 및 치수와 유사한 패턴을 기판 상에 재현하기가 더 어려워진다. 이러한 어려움을 극복하기 위해, 정교한 미세-조정 단계가 리소그래피 투영 장치, 디자인 레이아웃, 또는 패터닝 디바이스에 적용된다. 이는, 예를 들어, NA 및 광 간섭성 세팅(optical coherence settings)의 최적화, 맞춤형 조명 스킴(schemes), 위상 쉬프팅 패터닝 디바이스의 사용, 디자인 레이아웃에서의 광학 근접 보정(OPC; "광학 및 공정 보정"으로도 지칭됨), 또는 일반적으로 "분해능 향상 기법"(RET)으로 규정되는 다른 방법을 포함하지만, 이에 제한되지 않는다. 본 명세서에서 사용되는 바와 같이 용어 "투영 광학계"는, 예를 들어 굴절 광학계, 반사 광학계, 개구 및 반사 굴절 광학계를 포함하는 다양한 유형의 광학 시스템을 포함하는 것으로 폭넓게 해석되어야 한다. 용어 "투영 광학계"는 집합적으로 또는 단독으로, 방사선의 투영 빔을 지향, 성형, 또는 제어하기 위해 이 디자인 유형들 중 임의의 것에 따라 작동하는 구성 요소를 또한 포함할 수 있다. 용어 "투영 광학계"는 광학 구성 요소가 리소그래피 투영 장치의 광학 경로 상의 어디에 위치하는지에 상관없이 리소그래피 투영 장치 내의 임의의 광학 구성 요소를 포함할 수 있다. 투영 광학계는 방사선이 패터닝 디바이스를 통과하기 전에 소스로부터의 방사선을 성형, 조정, 및/또는 투영하기 위한 광학 구성 요소, 및/또는 방사선이 패터닝 디바이스를 통과한 후에 방사선을 성형, 조정, 및/또는 투영하기 위한 광학 구성 요소를 포함할 수 있다. 투영 광학계는 일반적으로 소스와 패터닝 디바이스는 배제한다.
실시예에 따르면, 포토리소그래피 장치를 조정하기 위한 방법에 제공된다. 본 방법은 기계 학습 모델이 주어진 입력에 대해 기계 학습 모델로부터 다중 사후 분포를 예측하도록 하는 것을 포함한다. 다중 사후 분포는 분포들 중 분포를 포함한다. 본 방법은 분포들 중 분포로부터 샘플링함으로써 주어진 입력에 대해 예측된 다중 사후 분포의 변동성을 결정하는 것을 포함한다. 본 방법은 예측된 다중 사후 분포 내의 결정된 변동성을 이용하여 기계 학습 모델 예측 내의 불확실성을 정량화하는 것을 포함한다. 본 방법은 기계 학습 모델 예측 내의 불확실성을 감소시키기 위해 기계 학습 모델의 하나 이상의 매개변수를 조정하는 것을 포함한다. 본 방법은 주어진 입력에 기초한 조정된 기계 학습 모델로부터의 예측에 기초하여 하나 이상의 포토리소그래피 공정 매개변수를 결정하는 것; 및 하나 이상의 결정된 포토리소그래피 공정 매개변수에 기초하여 포토리소그래피 장치를 조정하는 것을 포함한다.
실시예에서, 기계 학습 모델의 하나 이상의 매개변수는 기계 학습 모델의 하나 이상의 매개변수의 하나 이상의 가중치를 포함한다.
실시예에서, 조정된 기계 학습 모델로부터의 예측은 예측된 오버레이 또는 예측된 웨이퍼 기하학적 구조 중 하나 이상을 포함한다.
실시예에서, 하나 이상의 결정된 포토리소그래피 공정 매개변수는 마스크 디자인, 퓨필 형상, 선량 또는 초점 중 하나 이상을 포함한다.
실시예에서, 하나 이상의 결정된 포토리소그래피 공정 매개변수는 마스크 디자인을 포함하며, 마스크 디자인에 기초하여 포토리소그래피 장치를 조정하는 것은 마스크 디자인을 제1 마스크 디자인에서 제2 마스크 디자인으로 변경하는 것을 포함한다.
실시예에서, 하나 이상의 결정된 포토리소그래피 공정 매개변수는 퓨필(pupil) 형상을 포함하며, 퓨필 형상에 기초하여 포토리소그래피 장치를 조정하는 것은 퓨필 형상을 제1 퓨필 형상에서 제2 퓨필 형상으로 변경하는 것을 포함한다.
실시예에서, 하나 이상의 결정된 포토리소그래피 공정 매개변수는 선량(dose)을 포함하며, 선량에 기초하여 포토리소그래피 장치를 조정하는 것은 선량을 제1 선량에서 제2 선량으로 변경하는 것을 포함한다.
실시예에서, 하나 이상의 결정된 포토리소그래피 공정 매개변수는 초점(focus)을 포함하며, 초점에 기초하여 포토리소그래피 장치를 조정하는 것은 초점을 제1 초점에서 제2 초점으로 변경하는 것을 포함한다.
실시예에서, 기계 학습 모델이 다중 사후 분포를 예측하게 하는 것은 기계 학습 모델이 매개변수 드롭아웃(dropout)을 사용하여 분포들 중 분포를 생성하게 하는 것을 포함한다.
실시예에서, 기계 학습 모델이 주어진 입력에 대해 기계 학습 모델로부터 다중 사후 분포를 예측하도록 하는 것은 기계 학습 모델이 제1 사후 분포(pθ(z|x))에 대응하는 제1 다중 사후 분포 세트와 제2 사후 분포(pφ(y|z))에 대응하는 제2 다중 사후 분포 세트를 예측하도록 하는 것을 포함하며; 분포들 중 분포로부터 샘플링함으로써, 주어진 입력에 대한 예측된 다중 사후 분포 내의 변동성을 결정하는 것은 제1 및 제2 세트에 대한 분포들 중 분포로부터 샘플링함으로써, 주어진 입력에 대한 제1 및 제2 예측된 다중 사후 분포 세트의 변동성을 결정하는 것을 포함하고; 그리고 기계 학습 모델 예측 내의 불확실성을 정량화하기 위해 예측된 다중 사후 분포 내의 결정된 변동성을 이용하는 것은 기계 학습 모델 예측 내의 불확실성을 정량화하기 위해 제1 및 제2 예측된 다중 사후 분포 세트 내의 결정된 변동성을 이용하는 것을 포함한다.
실시예에서, 주어진 입력은 이미지, 클립, 인코딩된 이미지, 인코딩된 클립, 또는 기계 학습 모델의 이전 계층으로부터의 데이터 중 하나 이상을 포함한다.
실시예에서, 본 방법은 기계 학습 모델을 더 서술적으로 하거나 더 다양한 트레이닝 데이터를 포함시킴으로써 기계 학습 모델의 불확실성을 감소시키기 위하여 기계 학습 모델을 조정하기 위해 예측된 다중 사후 분포 내의 결정된 변동성 및/또는 정량화된 불확실성을 이용하는 것을 더 포함한다.
실시예에서, 샘플링은 분포들 중 분포로부터 분포들을 무작위로 선택하는 것을 포함하며, 여기서 샘플링은 가우시안(gaussian) 또는 비-가우시안(non-gaussian)이다.
실시예에서, 실시예에서, 변동성을 결정하는 것은 평균, 모멘트, 편포도, 표준 편차, 분산, 첨도 또는 공분산 중 하나 이상을 포함하는 하나 이상의 통계 품질 지표(statistical operations)로 변동성을 정량화하는 것을 포함한다.
실시예에서, 기계 학습 모델의 불확실성은 기계 학습 모델의 하나 이상의 매개변수의 가중치의 불확실성 및 기계 학습 모델과 연관된 잠재 공간의 크기와 표현과 관련된다.
실시예에서, 기계 학습 모델의 불확실성을 감소시키기 위해 기계 학습 모델을 조정하는 것은 트레이닝 세트 크기를 증가시키는 것 및/또는 기계 학습 모델과 연관된 잠재 공간의 차원수를 추가하는 것을 포함한다.
실시예에서, 트레이닝 세트 크기를 증가시키는 것 및/또는 잠재 공간의 차원수를 추가하는 것은 기계 학습 모델을 트레이닝하기 위한 입력으로서 이전 트레이닝 자료에 관하여 더 다양한 이미지, 더 다양한 데이터 및 부가적인 클립을 사용하는 것; 및 벡터를 인코딩하기 위한 더 많은 치수 및 기계 학습 모델 내의 더 많은 인코딩 계층을 사용하는 것을 포함한다.
실시예에서, 기계 학습 모델의 불확실성을 감소시키기 위하여 기계 학습 모델을 조정하기 위해 예측된 다중 사후 분포 내의 결정된 변동성을 이용하는 것은 기계 학습 모델과 연관된 잠재 공간에 부가적인 차원수를 추가하는 것을 포함한다.
실시예에서, 기계 학습 모델의 불확실성을 감소시키기 위하여 기계 학습 모델의 하나 이상의 매개변수를 조정하기 위해 예측된 다중 사후 분포 내의 결정된 변동성을 이용하는 것은 기계 학습 모델을 부가적이고 더 다양한 트레이닝 샘플로 트레이닝하는 것을 포함한다.
또 다른 실시예에 따르면, 매개변수화된 모델 예측에서 불확실성을 정량화하는 방법이 제공된다. 본 방법은 매개변수화된 모델이 주어진 입력에 대해 매개변수화된 모델로부터 다중 사후 분포를 예측하도록 하는 것을 포함한다. 다중 사후 분포는 분포들 중 분포를 포함한다. 본 방법은 분포들 중 분포로부터 샘플링함으로써, 주어진 입력에 대한 예측된 다중 사후 분포의 변동성을 결정하는 것; 및 매개변수화된 모델 예측 내의 불확실성을 정량화하기 위하여 예측된 다중 사후 분포 내의 결정된 변동성을 이용하는 것을 포함한다.
실시예에서, 매개변수화된 모델은 기계 학습 모델이다.
실시예에서, 매개변수화된 모델이 다중 사후 분포를 예측하도록 하는 것은 매개변수화된 모델이 매개변수 드롭아웃을 이용하여 분포들의 분포를 생성하도록 하는 것을 포함한다.
실시예에서, 매개변수화된 모델이 주어진 입력에 대해 매개변수화된 모델로부터 다중 사후 분포를 예측하도록 하는 것은 매개변수화된 모델이 제1 사후 분포(pθ(z|x))에 대응하는 제1 다중 사후 분포 세트와 제2 사후 분포(pφ(y|z))에 대응하는 제2 다중 사후 분포 세트를 예측하도록 하는 것을 포함하며; 분포들 중 분포로부터 샘플링함으로써, 주어진 입력에 대한 예측된 다중 사후 분포 내의 변동성을 결정하는 것은 제1 및 제2 세트에 대한 분포들 중 분포로부터 샘플링함으로써, 주어진 입력에 대한 제1 및 제2 예측된 다중 사후 분포 세트의 변동성을 결정하는 것을 포함하고; 그리고 매개변수화된 모델 예측 내의 불확실성을 정량화하기 위하여 예측된 다중 사후 분포 내의 결정된 변동성을 이용하는 것은 매개변수화된 모델 예측 내의 불확실성을 정량화하기 위해 제1 및 제2 예측된 다중 사후 분포 세트 내의 결정된 변동성을 이용하는 것을 포함한다.
실시예에서, 주어진 입력은 이미지, 클립, 인코딩된 이미지, 인코딩된 클립, 또는 매개변수화된 모델의 이전 계층으로부터의 데이터 중 하나 이상을 포함한다.
실시예에서, 본 방법은 매개변수화된 모델을 더 서술적으로 하거나 더 다양한 트레이닝 데이터를 포함시킴으로써 매개변수화된 모델의 불확실성을 감소시키기 위하여 매개변수화된 모델을 조정하기 위해 예측된 다중 사후 분포 내의 결정된 변동성 및/또는 정량화된 불확실성을 이용하는 것을 더 포함한다.
실시예에서, 매개변수화된 모델은 인코더-디코더 아키텍처를 포함한다.
실시예에서, 인코더-디코더 아키텍처는 변분 인코더-디코더 아키텍처를 포함하며, 본 방법은 출력 공간에서 실현을 생성하는 확률적 잠재 공간으로 변분 인코더-디코더 아키텍처를 트레이닝시키는 것을 더 포함한다.
실시예에서, 잠재 공간은 저차원 인코딩을 포함한다.
실시예에서, 본 방법은 주어진 입력에 대해 인코더-디코더 아키텍처의 인코더부를 이용하여 잠재 변수의 조건부 확률을 결정하는 것을 더 포함한다.
실시예에서, 본 방법은 인코더-디코더 아키텍처의 디코더부를 이용하여 조건부 확률을 결정하는 것을 더 포함한다.
본 방법은 인코더-디코더 아키텍처의 인코더부를 이용하여, 결정된 잠재 변수의 조건부 확률로부터 샘플링하는 것 및, 각 샘플에 대해 인코더-디코더 아키텍처의 디코더부를 이용하여 출력을 예측하는 것을 더 포함한다.
실시예에서, 샘플링은 분포들 중 분포로부터 분포를 무작위로 선택하는 것을 포함하며, 여기서 샘플링은 가우시안 또는 비-가우시안이다.
실시예에서, 변동성을 결정하는 것은 평균, 모멘트, 편포도, 표준 편차, 분산, 첨도 또는 공분산 중 하나 이상을 포함하는 하나 이상의 통계 품질 지표로 변동성을 정량화하는 것을 포함한다.
실시예에서, 매개변수화된 모델의 불확실성은 매개변수화된 모델의 매개변수의 가중치의 불확실성 및 잠재 공간의 크기와 표현과 관련이 있다.
실시예에서, 매개변수화된 모델의 불확실성은 매개변수화된 모델의 매개변수의 가중치의 불확실성 및 잠재 공간의 크기와 표현(descriptiveness)과 관련되어 가중치의 불확실성은 출력의 불확실성으로 나타나 증가된 출력 분산을 야기한다.
실시예에서, 매개변수화된 모델의 불확실성을 감소시키기 위하여 매개변수화된 모델을 조정하기 위해 예측된 다중 사후 분포 내의 결정된 변동성을 이용하는 것은 트레이닝 세트 크기를 증가시키는 것 및/또는 잠재 공간의 차원수를 추가하는 것을 포함한다.
실시예에서, 트레이닝 세트 크기를 증가시키는 것 및/또는 잠재 공간의 차원수(dimensionality)를 추가하는 것은 매개변수화된 모델을 트레이닝하기 위한 입력으로서 이전 트레이닝 자료에 관하여 더 다양한 이미지, 더 다양한 데이터 및 추가 클립을 이용하는 것; 및 벡터를 인코딩하기 위한 더 많은 치수, 및 매개변수화된 모델 내의 더 많은 인코딩 계층을 이용하는 것을 포함한다
실시예에서, 매개변수화된 모델의 불확실성을 감소시키기 위하여 매개변수화된 모델을 조정하기 위해 예측된 다중 사후 분포 내의 결정된 변동성을 이용하는 것은 부가적인 차원수를 잠재 공간에 추가하는 것을 포함한다.
실시예에서, 매개변수화된 모델의 불확실성을 감소시키기 위하여 매개변수화된 모델을 조정하기 위해 예측된 다중 사후 분포 내의 결정된 변동성을 이용하는 것은 부가적이고 더 다양한 트레이닝 샘플로 매개변수화된 모델을 트레이닝하는 것을 한다.
실시예에서, 부가적이고 더 다양한 트레이닝 샘플은 이전 트레이닝 자료에 관하여 더 다양한 이미지, 더 다양한 데이터 및 부가적인 클립을 포함한다.
실시예에서, 본 방법은 반도체 제조 공정의 일부로서 웨이퍼 기하학적 구조를 예측하기 위하여 매개변수화된 모델의 불확실성을 감소시키기 위해 매개변수화된 모델을 조정하도록 예측된 다중 사후 분포 내의 결정된 변동성을 이용하는 것을 더 포함한다.
실시예에서, 반도체 제조 공정의 일부로서 웨이퍼 기하학적 구조를 예측하기 위하여 매개변수화된 모델의 불확실성을 감소시키기 위해 매개변수화된 모델을 조정하도록 예측된 다중 사후 분포 내의 결정된 변동성을 이용하는 것은 매개변수화된 모델을 트레이닝하기 위한 입력으로서 이전 트레이닝 자료에 관하여 더 다양한 이미지, 더 다양한 데이터 및 부가적인 클립을 이용하는 것; 및 벡터를 인코딩하기 위한 더 많은 치수, 매개변수화된 모델 내의 더 많은 인코딩 계층, 더 다양한 이미지, 더 다양한 데이터, 부가적인 클립, 더 많은 치수, 및 결정된 변동성에 기초하여 결정된 더 많은 인코딩 계층을 이용하는 것을 포함한다.
실시예에서, 본 방법은 반도체 제조 공정의 일부로서 예측된 오버레이를 생성하기 위하여 매개변수화된 모델의 불확실성을 감소시키기 위해 매개변수화된 모델을 조정하도록 예측된 다중 사후 분포 내의 결정된 변동성을 이용하는 것을 더 포함한다.
실시예에서, 반도체 제조 공정의 일부로서 예측된 오버레이를 생성하기 위하여 매개변수화된 모델의 불확실성을 감소시키기 위해 매개변수화된 모델을 조정하도록 예측된 다중 사후 분포 내의 결정된 변동성을 이용하는 것은 매개변수화된 모델을 트레이닝하기 위한 입력으로서 이전 트레이닝 자료에 관하여 더 다양한 이미지, 더 다양한 데이터 및 부가적인 클립을 이용하는 것; 및 벡터를 인코딩하기 위한 더 많은 치수, 매개변수화된 모델 내의 더 많은 인코딩 계층, 더 다양한 이미지, 더 다양한 데이터, 부가적인 클립, 더 많은 치수, 및 결정된 변동성에 기초하여 결정된 더 많은 인코딩 계층을 이용하는 것을 포함한다.
또 다른 실시예에 따르면, 명령어가 기록된 비일시적 컴퓨터 판독 가능한 매체를 포함하는 컴퓨터 프로그램 제품이 제공되며, 명령어는 컴퓨터에 의하여 실행될 때 위에서 설명된 방법들 중 임의의 방법을 구현한다.
명세서에 포함되고 그의 일부를 구성하는 첨부 도면은 하나 이상의 실시예를 예시하고, 설명과 함께 이 실시예를 설명한다. 본 발명의 실시예는 이제, 대응하는 참조 기호가 대응하는 부분을 나타내는 첨부된 개략적인 도면을 참조하여 예로서만 설명될 것이다.
도 1은 실시예에 따른 리소그래피 시스템의 다양한 서브시스템의 블록도를 보여주고 있다.
도 2는 실시예에 따른 리소그래피 투영 장치 내에서의 리소그래피를 시뮬레이션하기 위한 예시적인 흐름도를 도시하고 있다.
도 3은 실시예에 따른, 기계 학습 모델 예측 내의 불확실성을 감소시키기 위한 본 방법의 동작의 개요를 예시하고 있다.
도 4는 실시예에 따른 컨볼루션 인코더-디코더를 도시하고 있다.
도 5는 실시예에 따른 신경망 내의 인코더-디코더 아키텍처를 도시하고 있다.
도 6a는 실시예에 따른, 잠재 공간 내의 샘플링을 갖는, 도 5의 변분 인코더-디코더 아키텍처 버전을 도시하고 있다.
도 6b는 도 4에서 보여지는 인코더 디코더 아키텍처의 또 다른 도면을 도시하고 있다.
도 6c는 예시적인 예상 분포(p(z|x)) 및 P(z|x)에 대한 분포들 중 분포로부터의 샘플링된 분포들의 변동성을 도시하고 있다.
도 7은 실시예에 따른, 기계 학습 모델에 대한 입력으로 사용되는 마스크 이미지, 마스크 이미지를 기반으로 예측된 기계 학습 모델로부터의 예측된 출력의 평균, 예측된 출력의 분산을 도시하는 이미지, 마스크 이미지를 이용하여 생성된 실제 마스크의 주사 전자 현미경(SEM) 이미지, 및 사후 분포를 도시하는 잠재 공간을 도시하고 있다.
도 8은 실시예에 따른, 기계 학습 모델에 대한 입력으로 사용되는 제2 마스크 이미지, 제2 마스크 이미지를 기반으로 예측된 기계 학습 모델로부터의 예측된 출력의 제2 평균, 예측된 출력의 분산을 도시하는 제2 이미지, 제2 마스크 이미지를 이용하여 생성된 실제 마스크의 제2 SEM 이미지, 및 제2 사후 분포를 도시하는 제2 잠재 공간을 도시하고 있다.
도 9는 실시예에 따른, 기계 학습 모델에 대한 입력으로 사용되는 제3 마스크 이미지, 제3 마스크 이미지를 기반으로 예측된 기계 학습 모델로부터의 예측된 출력의 제3 평균, 예측된 출력의 분산을 도시하는 제3 이미지, 제3 마스크 이미지를 이용하여 생성된 실제 마스크의 제3 SEM 이미지, 및 제3 사후 분포를 도시하는 제3 잠재 공간을 도시하고 있다.
도 10은 실시예에 따른 예시적인 컴퓨터 시스템의 블록도이다.
도 11은 실시예에 따른 리소그래피 투영 장치의 개략도이다.
도 12는 실시예에 따른 또 다른 리소그래피 투영 장치의 개략도이다.
도 13은 실시예에 따른, 도 12 내의 장치의 보다 상세한 도면이다.
도 14는 실시예에 따른, 도 12 및 도 13의 장치의 소스 컬렉터 모듈(SO)의 보다 상세한 도면이다.
기계 학습 모델로는 기계 학습 모델에 의한 예측의 확실성이 명확하지 않다. 즉, 입력을 고려해 볼 때, 이전 기계 학습 모델이 정확하고 일관된 출력을 생성하는지 여부가 명확하지 않다. 정확하고 일관된 출력을 생성하는 기계 학습 모델은 집적 회로 제조 공정에서 중요하다. 비제한적인 예로서, 마스크 레이아웃 디자인으로부터 마스크 레이아웃을 생성할 때, 기계 학습 모델의 예측에 대한 불확실성은 제안된 마스크 레이아웃 내의 불확실성을 생성할 수 있다. 예를 들어, 이 불확실성은 웨이퍼의 궁극적인 기능에 대한 의문을 초래할 수 있다. 기계 학습 모델이 이용되어 공정 내의 개별 동작을 모델링하거나 개별 동작에 관한 예측이 이루어질 때마다 집적 회로 제조 공정에 더 많은 불확실성이 도입될 수 있다. 그러나 지금까지는 모델로부터의 출력 내의 변동성(또는 불확실성)을 결정하는 방법이 없었다.
종래 기술의 매개변수화된 (예를 들어, 기계 학습) 모델의 이러한 단점과 기타 단점을 해결하기 위하여, 본 방법(들) 및 시스템(들)은 인코더-디코더 아키텍처를 사용하는 모델을 포함한다. 이 아키텍처의 중간(예를 들어, 중간 계층)에서, 본 모델은 입력(예를 들어, 이미지, 텐서 및/또는 기타 입력)의 정보를 모델로 캡슐화하는 저차원 인코딩(예를 들어, 잠재 공간)을 공식화한다. 변분 추론 기술을 사용하여, 인코더는 입력(들)을 조건으로 하여, 잠재 벡터에 대한 사후 확률 분포를 결정한다. 일부 실시예에서, 모델은 주어진 입력에 대해 (예를 들어, 매개변수 드롭아웃(dropout) 방법을 사용하여) 분포들 중 분포를 생성하도록 구성된다. 모델은 주어진 입력을 조건으로 하여, 분포들 중 이 분포로부터 샘플링한다. 모델은 샘플링된 분포에 걸쳐 변동을 결정할 수 있다. 샘플링 후, 모델은 샘플을 출력 공간으로 디코딩한다. 출력의 변동성 및/또는 샘플링된 분포의 변동성은 모델의 불확실성을 규정하며, 모델의 불확실성은 모델 매개변수(가중치)의 불확실성뿐만 아니라 잠재 공간이 얼마나 간결(작고 서술적(descriptive))인지를 포함한다.
본 명세서에서 IC의 제조에 있어서 특정 참조가 이루어질 수 있지만, 본 명세서의 설명은 많은 다른 가능한 적용을 갖는다는 점이 명확하게 이해되어야 한다. 예를 들어, 이는 집적 광학 시스템, 자기 도메인 메모리용 안내 및 검출 패턴, 액정 디스플레이 패널, 박막 자기 헤드 등의 제조에 채택될 수 있다. 이 대안적인 적용에서, 당업자는 이러한 대안적인 적용이라는 맥락에서, 본 명세서 내의 용어 "레티클", "웨이퍼" 또는 "다이"의 임의의 사용은 보다 일반적인 용어 "마스크", "기판" 및 "타겟 부분"과 각각 교환 가능한 것으로 간주되어야 한다는 것을 인식할 것이다. 또한, 본 명세서에서 설명된 방법은 언어 처리 시스템, 자율 주행 자동차, 의료 영상 및 진단, 시맨틱 분할(semantic segmentation), 잡음 제거, 칩 디자인, 전자 설계 자동화 등과 같은 다양한 분야에서 다른 많은 가능한 응용을 가질 수 있다는 점이 유의되어야 한다. 본 방법은 기계 학습 모델 예측에서 불확실성을 정량화하는 것이 유리한 임의의 분야에 적용될 수 있다.
본 문헌에서, 용어 "방사선" 및 "빔"은 (예를 들어, 365, 248, 193, 157 또는 126㎚의 파장을 갖는) 자외선 및 EUV(예를 들어 약 5 내지 100㎚ 범위의 파장을 갖는, 극자외 방사선)를 포함하는 모든 유형의 전자기 방사선을 포함시키기 위하여 사용된다.
패터닝 디바이스는 하나 이상의 디자인 레이아웃을 포함하거나 형성할 수 있다. 디자인 레이아웃은 CAD(컴퓨터 이용 설계) 프로그램을 이용하여 생성될 수 있다. 이 공정은 흔히 EDA(전자 설계 자동화)로 지칭된다. 대부분의 CAD 프로그램은 기능적인 디자인 레이아웃/패터닝 디바이스를 생성하기 위하여 한 세트의 사전 결정된 디자인 규칙을 따른다. 이 규칙은 처리 및 디자인 제한을 기반으로 설정된다. 예를 들어, 디자인 규칙은 디바이스들 또는 라인들이 바람직하지 않은 방식으로 서로 상호 작용하지 않는다는 것을 보장하기 위해, (게이트, 커패시터 등과 같은) 디바이스들 또는 상호 연결 라인들 사이의 간격 공차(space tolerance)를 규정한다. 디자인 규칙 제한들 중 하나 이상은 "임계 치수"(CD)로 지칭될 수 있다. 디바이스의 임계 치수는 라인 또는 홀의 최소 폭, 또는 2개의 라인 또는 2개의 홀 간의 가장 작은 간격으로 규정될 수 있다. 따라서, CD는 디자인된 디바이스의 전체 크기 및 밀도를 규제한다. 디바이스 제조의 목표들 중 하나는 원래 디자인 의도를 (패터닝 디바이스를 통해) 기판 상에 충실하게 재현(reproduce)하는 것이다
본 명세서에서 사용되는 바와 같이, 용어 "마스크" 또는 "패터닝 디바이스"는 용어는 기판의 타겟 부분에 생성될 패턴에 대응하여 입사하는 방사선 빔에 패터닝된 횡단면을 부여하기 위해 사용될 수 있는 일반적인 패터닝 디바이스를 지칭하는 것으로 폭넓게 해석될 수 있다. 용어 "광 밸브(light valve)" 또한 이 맥락에서 사용될 수 있다. 전형적인 마스크(투과형 또는 반사형; 바이너리(binary), 위상-시프팅, 하이브리드(hybrid) 등) 이외에, 다른 이러한 패터닝 디바이스의 예는 프로그램 가능한 미러 어레이를 포함한다. 이러한 디바이스의 예는 점탄성 제어 층과 반사 표면을 가진 매트릭스-어드레스 가능한(matrix-addressable) 표면이다. 이러한 장치 뒤에 있는 기본 원리는 (예를 들어) 반사 표면의 어드레스 영역이 입사 방사선을 회절 방사선으로 반사하는 반면, 어드레스되지 않은(unaddressed) 영역은 입사 방사선을 비회절 방사선으로 반사한다는 것이다. 적절한 필터를 사용하여, 상기 비회절 방사선은 반사 빔에서 필터링되어 뒤에 회절 방사선만을 남길 수 있다; 이러한 방식으로 빔은 매트릭스-어드레스 가능한 어드레싱 패턴(addressing pattern)에 따라 패터닝된다. 필요한 매트릭스 어드레싱은 적절한 전자 수단을 사용하여 수행될 수 있다. 다른 이러한 패터닝 디바이스의 예는 또한 프로그램 가능한 LCD 어레이를 포함한다. 이러한 구성의 예는 미국 특허 제5,229,872호에 제공되며, 이는 본 명세서에서 인용 참조된다.
간략한 도입부로서, 도 1은 예시적인 리소그래피 투영 장치(10A)를 도시하고 있다. 주요 구성 요소는 심자외선(DUV) 엑시머 레이저 소스 또는 극자외선(EUV) 소스를 포함한 다른 유형의 소스일 수 있는 방사선 소스(12A)(위에서 논의된 바와 같이, 리소그래피 투영 장치 자체가 방사선 소스를 가질 필요가 없다); 예를 들어 (시그마로서 표시된) 부분 간섭성(partial coherence)을 규정하고 소스(12A)로부터의 방사선을 성형하는 광학계(14A, 16Aa 및 16Ab)를 포함할 수 있는 조명 광학계; 패터닝 디바이스(18A); 및 패터닝 디바이스 패턴의 이미지를 기판 평면(22A)으로 투영하는 투과 광학계(16Ac)이다. 투영 광학계의 퓨필 평면에서의 조정 가능한 필터 또는 어퍼처(aperture)(20A)가 기판 평면(22A) 상에 부딪히는 빔 각도의 범위를 제한할 수 있고, 이때 가능한 최대 각도는 투영 광학계의 개구수(numerical aperture) NA=n sin(Θmax)를 규정하며, 여기서 n은 투영 광학계의 최종 요소와 기판 사이의 매질의 굴절률이며, Θmax는 기판 평면(22A) 상에 여전히 부딪힐 수 있는 투영 광학계로부터 나가는 빔의 최대 각도이다.
리소그래피 투영 장치에서, 소스는 패터닝 디바이스에 조명(즉, 방사선)을 제공하며, 투영 광학계는 패터닝 디바이스를 통해 기판 상으로 조명을 지향시키고 성형시킨다. 투영 광학계는 구성 요소(14A, 16Aa, 16Ab 및 16Ac) 중 적어도 일부를 포함할 수 있다. 에어리얼 이미지(AI)는 기판 레벨에서의 방사선 세기 분포이다. 레지스트 모델은 에어리얼 이미지로부터 레지스트 이미지를 계산하기 위하여 사용될 수 있으며, 그 예는 미국 특허 출원 공개 번호 US2009-0157630에서 찾을 수 있으며, 그 내용은 그 전체가 여기에 인용 참조된다. 레지스트 모델은 레지스트 층의 특성(예를 들어, 노광, 노광 후 베이크(PEB) 및 현상 중에 발생하는 화학 공정의 효과)에만 관련된다. 리소그래피 투영 장치의 광학 특성(예를 들어, 조명, 패터닝 디바이스 및 투영 광학계의 특성)은 에어리얼 이미지에 영향을 주며, 광학 모델에서 규정될 수 있다. 리소그래피 투영 장치에 사용되는 패터닝 디바이스는 변경될 수 있기 때문에, 적어도 소스 및 투영 광학계를 포함하는 리소그래피 투영 장치의 나머지의 광학 특성으로부터 패터닝 디바이스의 광학 특성을 분리하는 것이 바람직하다. 디자인 레이아웃을 다양한 리소그래피 이미지(예를 들어, 에어리얼 이미지, 레지스트 이미지 등)로 변환시키고 이 기술과 모델을 사용하여 OPC를 적용하고, (예를 들어, 공정 윈도우 면에서의) 성능을 평가하기 위하여 사용되는 기술 및 모델의 세부 사항이 미국 특허 출원 공개 번호 US2008-0301620, 2007-0050749, 2007-0031745, 2008-0309897, 2010-0162197 및 2010-0180251에 설명되어 있으며, 이들 각각의 개시 내용은 그 전체가 본 명세서에서 인용 참조된다.
어떻게 패터닝 공정이 기판에 원하는 패턴을 생성하는지를 계산적으로 결정할 수 있는 것이 보통 바람직하다. 따라서, 공정의 하나 이상의 부분을 시뮬레이션하기 위해 시뮬레이션이 제공될 수 있다. 예를 들어, 패터닝 디바이스 패턴을 기판의 레지스트 층으로 전사하는 리소그래피 공정은 물론 레지스트의 현상 후 그 레지스트 층 내의 생성된 패턴을 시뮬레이션할 수 있는 것이 바람직하다.
리소그래피 투영 장치에서 리소그래피를 시뮬레이션하기 위한 예시적인 흐름도가 도 2에 도시되어 있다. 조명 모델(31)은 (방사선 세기 분포 및/또는 위상 분포를 포함하는) 조명의 광학 특성을 나타낸다. 투영 광학계 모델(32)은 투영 광학계의 (투영 광학계에 의해 야기되는 방사선 세기 분포 및/또는 위상 분포에 대한 변화를 포함하는) 광학 특성을 나타낸다. 디자인 레이아웃 모델(35)은 디자인 레이아웃의 (주어진 디자인 레이아웃에 의해 야기된 방사선 세기 분포 및/또는 위상 분포에 대한 변화를 포함하는 광학 특성)을 나타내며, 이 디자인 레이아웃은 패터닝 디바이스 상의 또는 패터닝 디바이스에 의하여 형성된 피처의 배열의 표현이다. 에어리얼 이미지(36)는 조명 모델(31), 투영 광학계 모델(32) 및 디자인 레이아웃 모델(35)을 사용하여 시뮬레이션될 수 있다. 레지스트 이미지(38)는 레지스트 모델(37)을 사용하여 에어리얼 이미지(36)로부터 시뮬레이션될 수 있다. 리소그래피의 시뮬레이션은, 예를 들어 레지스트 이미지 내에서 윤곽 및/또는 CD를 예측할 수 있다.
보다 구체적으로, 조명 모델(31)은 NA-시그마(σ) 설정뿐만 아니라 임의의 특정 조명 형상(예를 들어, 환형, 사중극자, 쌍극자 등과 같은 축외 조명)을 포함하지만 이에 제한되지 않는 조명의 광학적 특성을 나타낼 수 있다. 투영 광학계 모델(32)은, 예를 들어 수차, 왜곡, 굴절률, 물리적 크기 또는 치수 등을 포함하는, 투영 광학계의 광학 특성을 나타낼 수 있다. 디자인 레이아웃 모델(35)은 또한, 예를 들어 그 전체가 인용 참조되는 미국 특허 제7,587,704호 설명된 바와 같이, 물리적 패터닝 디바이스의 하나 이상의 물리적 특성을 나타낼 수 있다. 리소그래피 투영 장치와 연관된 광학 특성(예를 들어, 조명, 패터닝 디바이스 및 투영 광학계의 특성)은 에어리얼 이미지에 영향을 준다. 리소그래피 투영 장치에 사용되는 패터닝 디바이스는 변경될 수 있기 때문에, 적어도 조명 및 투영 광학계를 포함하는 리소그래피 투영 장치의 나머지의 광학 특성으로부터 패터닝 디바이스의 광학 특성을 분리하는 것이 바람직하다(이런 이유로 디자인 레이아웃 모델(35)).
레지스트 모델(37)은 에어리얼 이미지로부터 레지스트 이미지를 계산하기 위해 사용될 수 있으며, 그 예는 그 전체가 본 명세서에 인용 참조되는 미국 특허 제8,200,468호에서 찾을 수 있다. 레지스트 모델은 전형적으로 레지스트 층의 특성(예를 들어, 노광, 노광 후 베이킹 및/또는 현상 중에 발생하는 화학 공정의 영향)과 관련된다.
시뮬레이션의 목적은, 예를 들어 에지 배치, 에어리얼 이미지 세기 기울기 및/또는 CD를 정확히 예측하려는 것이며, 이는 그 후 의도된 디자인과 비교될 수 있다. 의도된 디자인은 OPC 전(pre-OPC) 디자인 레이아웃으로 규정되며 일반적으로, GDSII, OASIS와 같은 표준화된 디지털 파일 포맷 또는 다른 파일 포맷으로 제공될 수 있다.
디자인 레이아웃으로부터, "클립(clip)"으로 지칭되는 하나 이상의 부분이 식별될 수 있다. 실시예에서, 디자인 레이아웃의 복잡한 패턴을 나타내는 클립 세트가 추출된다(임의의 수의 클립이 사용될 수 있지만, 전형적으로, 약 50 내지 1000개의 클립). 당업자에 의해 인식될 바와 같이, 이 패턴 또는 클립은 디자인의 작은 부분(예를 들어, 회로, 셀 등)을 나타내며, 특히 클립은 특별한 주의 및/또는 검증이 필요한 작은 부분을 나타낸다. 즉, 클립은 디자인 레이아웃의 일부일 수 있거나, (고객에 의하여 제공된 클립을 포함하는) 경험에 의하여, 시행착오에 의하여, 또는 풀-칩(full-chip) 시뮬레이션을 실행함으로써 중요한 피처가 식별되는 디자인 레이아웃의 일부와 유사하거나 유사한 거동을 가질 수 있다. 클립은 흔히 하나 이상의 테스트 패턴 또는 게이지 패턴을 포함한다. 특정 이미지 최적화가 필요한 디자인 레이아웃의 공지된 중요 피처 영역을 기반으로 초기의 더 큰 클립 세트가 고객에 의하여 선험적으로 제공될 수 있다. 대안적으로, 또 다른 실시예에서, 초기의 더 큰 클립 세트는 중요한 피처 영역을 식별하는 일부 종류의 자동화된 (예를 들어, 머신 비전) 또는 수동 알고리즘을 사용함으로써 전체 디자인 레이아웃으로부터 추출될 수 있다.
예를 들어, 시뮬레이션 및 모델링은 (예를 들어, 광학 근접 보정을 수행하는) 패터닝 장치 패턴의 하나 이상의 피처, (예를 들어, 형상 변경과 같은, 조명의 공간/각도 세기 분포의 이상의 특징을 변경시키는) 조명의 하나 이상의 피처 및/또는 투영 광학계의 하나 이상의 피처(예를 들어, 개구수 등)를 구성하기 위해 사용될 수 있다. 이러한 구성은 일반적으로 마스크 최적화, 소스 최적화 및 투영 최적화로 각각 지칭될 수 있다. 이러한 최적화는 자체적으로 수행될 수 있거나, 다른 조합으로 조합될 수 있다. 하나의 이러한 예는 소스-마스크 최적화(SMO)이며, 이는 조명의 하나 이상의 피처와 함께 패터닝 디바이스 패턴의 하나 이상의 피처의 구성을 포함한다. 최적화 기술은 하나 이상의 클립에 중점을 둘 수 있다. 최적화는 (이미지 등을 포함하는) 다양한 매개변수의 값을 예측하기 위해 본 명세서에서 설명된 기계 학습 모델을 사용할 수 있다.
일부 실시예에서, 시스템의 최적화 공정은 비용 함수로 표현될 수 있다. 최적화 공정은 비용 함수를 최소화하는 시스템의 매개변수 세트(디자인 변수, 공정 변수 등)를 찾는 것을 포함할 수 있다. 비용 함수는 최적화의 목표에 따라 임의의 적절한 형식을 가질 수 있다. 예를 들어, 비용 함수는 이 특성의 의도된 값(예를 들어, 이상적인 값)에 대하여 시스템의 특정 특성(평가 포인트)의 편차의 가중된 평균제곱근(RMS)일 수 있다 비용 함수는 또한 이 편차 중 최대값(즉, 최악의 편차)일 수도 있다. 용어 "평가 포인트"는 시스템 또는 제조 방법의 임의의 특성을 포함하도록 넓게 해석되어야 한다. 시스템의 설계 및/또는 공정 변수는 한정된 범위에 제한될 수 있으며 및/또는 시스템 및/또는 방법의 구현의 실용성으로 인하여 상호 의존적일 수 있다. 리소그래피 투영 장치의 경우에, 이 제약은 흔히 조정 가능한 범위, 및/또는 패터닝 디바이스 제조성(manufacturability) 디자인 규칙과 같은 하드웨어의 물리적 성질 및 특성과 연관된다. 평가 포인트는 기판 상의 레지스트 상의 물리적 포인트뿐만 아니라 예를 들어 선량 및 초점과 같은 비-물리적 특성을 포함할 수 있다.
일부 실시예에서, 조명 모델(31), 투영 광학계 모델(32), 디자인 레이아웃 모델(35), 레지스트 모델(37), SMO 모델, 및/또는 집적 회로 제조 공정과 연관된 및/또는 이에 포함된 다른 모델은 본 명세서에서 설명된 방법의 작동을 수행하는 경험적 모델일 수 있다. 경험적 모델은 다양한 입력(예를 들어, 마스크 또는 웨이퍼 이미지의 하나 이상의 특성, 디자인 레이아웃의 하나 이상의 특성, 패터닝 장치의 하나 이상의 특성, 파장과 같은, 리소그래피 공정에 사용되는 조명의 하나 이상의 특성 등) 간의 상관 관계를 기반으로 출력을 예측할 수 있다.
예로서, 경험적 모델은 기계 학습 모델 및/또는 임의의 다른 매개변수화된 모델일 수 있다. 일부 실시예에서, (예를 들어) 기계 학습 모델은 수학적 방정식, 알고리즘, 플롯(plot), 차트, 네트워크(예를 들어, 신경망), 및/또는 기타 도구 및 기계 학습 모델 구성 요소일 수 있으며 및/또는 이를 포함할 수 있다. 예를 들어, 기계 학습 모델은 입력 계층, 출력 계층, 및 하나 이상의 중간 또는 은닉 계층을 갖는 하나 이상의 신경망일 수 있으며 및/또는 이를 포함할 수 있다. 일부 실시예에서, 하나 이상의 신경망은 심층 신경망(예를 들어, 입력 계층과 출력 계층 사이에 하나 이상의 중간 또는 은닉 계층을 갖는 신경망)일 수 있으며 및/또는 이를 포함할 수 있다.
예로써, 하나 이상의 신경망은 큰 신경 단위 집합(또는 인공 뉴런)을 기반으로 할 수 있다. 하나 이상의 신경망은 (예를 들어, 축색 돌기에 의해 연결된 생물학적 뉴런들의 큰 클러스터를 통해) 생물학적 뇌가 작동하는 방식을 대략적으로 모방할 수 있다. 신경망의 각 신경 단위는 신경망의 많은 다른 신경 단위와 연결될 수 있다. 이러한 연결은 연결된 신경 단위의 활성화 상태에 미치는 그들의 영향을 강제하거나 억제할 수 있다. 일부 실시예에서, 각 개별 신경 단위는 그들의 모든 입력 값을 함께 조합하는 합산 함수를 가질 수 있다. 일부 실시예에서, 각 연결부(또는 신경 유닛 자체)는 신호가 다른 신경 유닛으로 전파되도록 허용되기 전에 임계값을 초과해야만 하도록 한계값 함수를 가질 수 있다. 이 신경망 시스템은 명확하게 프로그램되기보다는 자율 학습적이고 트레이닝받을 수 있으며, 기존의 컴퓨터 프로그램과 비교하여 문제 해결의 특정 영역에서 훨씬 더 잘 수행할 수 있다. 일부 실시예에서, 하나 이상의 신경망은 다중 계층(예를 들어, 신호 경로가 전면 계층에서 후면 계층으로 가로지르는 경우)을 포함할 수 있다. 일부 실시예에서, 역전파 기술은 신경망에 의해 이용될 수 있으며, 여기서 순방향 자극은 "전면" 신경 단위에 대한 가중치를 재설정하는 데 사용된다. 일부 실시예에서, 하나 이상의 신경망에 대한 자극 및 억제는 더 자유롭게 유동적일 수 있으면서, 연결부들은 더 무질서하고 복잡한 방식으로 상호 작용한다. 일부 실시예에서, 하나 이상의 신경망의 중간 계층은 하나 이상의 컨볼루션(convolutional) 계층, 하나 이상의 재귀(recurrent) 계층, 및/또는 다른 계층을 포함한다.
하나 이상의 신경망은 트레이닝 데이터 세트를 사용하여 트레이닝될 수 있다(즉, 그의 매개변수가 결정된다). 트레이닝 데이터는 트레이닝 샘플 세트를 포함할 수 있다. 각 샘플은 입력 객체(전형적으로, 피처 벡터로 불릴 수 있는 벡터)와 원하는 출력 값(또한, 감시 신호(supervisory signal)로도 불림)을 포함하는 쌍일 수 있다. 트레이닝 알고리즘은 트레이닝 데이터를 기반으로 신경망의 매개변수(예를 들어, 하나 이상의 계층의 가중치)를 조정함으로써 트레이닝 데이터를 분석하고 신경망의 거동을 조정한다. 예를 들어,
Figure pct00002
형태의 N 개의 트레이닝 샘플 세트를 고려해볼 때, xi는 i 번째 예의 피처 벡터이며, yi는 감시 신호이고, 트레이닝 알고리즘은 신경망 g:X→Y를 찾으며, 여기서 X는 입력 공간이고 Y는 출력 공간이다. 피처 벡터는 일부 객체(예를 들어, 위의 예에서와 같은 웨이퍼 디자인, 클립 등)를 나타내는 수치상 피처(numerical features)의 n-차원 벡터이다. 이 벡터와 관련된 벡터 공간은 흔히 피처 공간(feature)으로 불린다. 트레이닝 후에, 신경망은 새로운 샘플을 사용하여 예측을 수행하기 위해 사용될 수 있다.
위에서 설명된 바와 같이, 본 방법(들) 및 시스템(들)은 인코더-디코더 아키텍처를 사용하는 매개변수화된 모델(예를 들어, 신경망과 같은 기계 학습 모델)을 포함한다. 모델(예를 들어, 신경망)의 중간(예를 들어 중간 계층)에서, 본 모델은 모델에 대한 입력(예를 들어, 이미지, 텐서 및/또는 다른 입력)의 정보를 캡슐화하는 저 차원 인코딩(예를 들어, 잠재 공간)을 공식화한다. 변분 추론 기술을 사용하여, 인코더는 입력(들)을 조건으로 하여 잠재 벡터의 사후 확률 분포를 결정한다. 일부 실시예에서, 모델은 주어진 입력에 대해 (예를 들어, 매개변수 드롭아웃 방법을 사용하여) 분포들 중 분포를 생성하도록 구성된다. 본 모델은 입력을 조건으로 하여, 사후 확률의 분포들 중 이 분포로부터 샘플링한다. 일부 실시예에서, 샘플링은 분포들 중 분포로부터 분포를 무작위로 선택하는 것을 포함한다. 샘플링은, 예를 들어 가우시안 또는 비-가우시안일 수 있다. 샘플링 후, 모델은 샘플을 출력 공간으로 디코딩한다. 출력의 변동성 및/또는 샘플링된 분포의 변동성은 모델의 불확실성을 규정하며, 모델의 불확실성은 모델 매개변수(예를 들어, 매개변수 가중치 및/또는 기타 모델 매개변수)의 불확실성뿐만 아니라 잠재 공간이 얼마나 간결(작고 서술적(descriptive))인지를 포함한다. 일부 실시예에서, 변동성을 결정하는 것은 평균, 모멘트, 편포도(skewness), 표준 편차, 분산, 첨도(kurtosis), 공분산 및/또는 변동성을 정량화하기 위한 임의의 다른 방법 중 하나 이상을 포함하는 하나 이상의 통계 품질 지표로 변동성을 정량화하는 것을 포함할 수 있다. 일부 실시예에서, 모델의 불확실성은 모델의 매개변수의 가중치의 불확실성 및 잠재 공간의 크기와 표현(descriptiveness)과 관련되어 가중치의 불확실성은 출력의 불확실성으로 나타나 증가된 출력 분산을 야기한다.
(입력을 조건으로 하여) 매개변수화된 모델의 출력 변동성의 정량화는 무엇보다도 모델이 얼마나 예측적인지를 결정하는 데 사용될 수 있다. 매개변수화된 모델의 출력 변동성에 대한 이 정량화는 모델을 더 서술적으로 만들기 위하여 모델을 조정(예를 들어, 업데이트 및 개선)하기 위해 사용될 수 있다. 이 조정은, 예를 들어 잠재 공간에 더 많은 차원수를 추가하는 것, 더 다양한 트레이닝 데이터를 추가하는 것, 및 기타 동작이 포함할 수 있다. 매개변수화된 모델의 출력 변동성의 정량화는 또한 매개변수화된 모델의 예측의 전반적인 품질을 향상시키기 위해 요구되는 트레이닝 데이터의 유형을 안내하기 위해 사용될 수도 있다. 기계 학습 모델 및/또는 신경망이 본 명세서 전반에 걸쳐 언급되고 있지만, 기계 학습 모델 및/또는 신경망은 매개변수화된 모델의 한 예이며 본 명세서에서 설명된 동작이 임의의 매개변수화된 모델에 적용될 수 있다는 점이 주목되어야 한다.
도 3은 기계 학습 모델 예측에서 불확실성을 결정하기 위한, 또는 결정하고 감소시키기 위한 본 방법의 동작의 개요를 도시하고 있다. 동작 40에서, 기계 학습 모델의 인코더-디코더 아키텍처가 트레이닝된다. 동작 42에서, 기계 학습 모델은 주어진 입력(예를 들어, 아래에 설명된 바와 같이 x 및/또는 z)에 대해 기계 학습 모델로부터의 다중 출력을 예측하도록 야기된다. 주어진 입력은, 예를 들어 이미지, 클립, 인코딩된 이미지, 인코딩된 클립, 벡터, 기계 학습 모델의 이전 계층으로부터의 데이터 및/또는 인코딩될 수 있는 임의의 다른 데이터 및/객체를 포함할 수 있다.
일부 실시예에서, 동작 42는 입력(들)을 조건으로 하여, 잠재 벡터 및/또는 모델 출력에 대한 사후 확률 분포를 결정하기 위해 변분 추론 기술을 사용하는 기계 학습 모델을 포함한다. 일부 실시예에서, 기계 학습 모델은 주어진 입력에 대해, (예를 들어, 매개변수 드롭아웃 방법을 이용하여) 분포들 중 분포를 생성하도록 구성된다. 분포들 중 분포는, 예를 들어 (예를 들어, 아래에 설명된 pθ(z|x)에 대한) 분포들 중 제1 사후 분포, (예를 들어, 아래에 설명된 pφ(y|z)에 대한) 분포들 중 제2 사후 분포 및/또는 다른 분포들 중 분포를 포함할 수 있다. 기계 학습 모델은 주어진 입력을 조건으로 하여, 분포들 중 분포로부터 샘플링한다. 샘플링 후, 기계 학습 모델은 샘플을 출력 공간으로 디코딩할 수 있다.
동작 44에서, 주어진 입력에 대해, 예측된 다중 출력 실현 및/또는 다중 사후 분포의 변동성이 결정된다. 동작 46에서, 예측된 다중 출력 실현 및/또는 다중 사후 분포의 결정된 변동성은 기계 학습 모델의 불확실성을 감소시키기 위하여 기계 학습 모델을 조정하기 위해 사용된다. 일부 실시예에서, 동작 46은 선택적이다. 일부 실시예에서, 동작 46은 보정 조치와 함께 또는 보정 조치 없이 결정된 변동성을 리포팅하는 것(예를 들어, 기계 학습 모델의 불확실성을 감소시키기 위해 기계 학습 모델을 조정하는 것에 더하여 및/또는 대신에 결정된 변동성을 리포팅하는 것)을 포함한다. 예를 들어, 동작 46은 결정된 변동성의 표시를 출력하는 것을 포함할 수 있다. 표시는 전자 표시(예를 들어, 하나 이상의 신호), 시각적 표시(예를 들어, 디스플레이를 위한 하나 이상의 그래픽), 숫자 표시(예를 들어, 하나 이상의 숫자) 및/또는 다른 표시일 수 있다.
동작(40)은 잠재 공간으로부터의 샘플링으로 인코더-디코더 아키텍처를 트레이닝하는 것을 포함하며, 잠재 공간은 출력 공간으로 디코딩된다. 일부 실시예에서, 잠재 공간(latent space)은 저차원 인코딩을 포함한다. 비제한적인 예로서, 도 4는 컨볼루션 인코더-디코더(50)를 예시하고 있다. 인코더-디코더(50)는 인코딩 부분(52)(인코더) 및 디코딩 부분(54)(디코더)을 갖고 있다. 도 4에서 보여지는 예에서, 인코더-디코더(50)는 예를 들어 도 4에서 보여지는 바와 같은 웨이퍼의 예측 이미지(56)를 출력할 수 있다. 이미지(들)(56)는 분할 이미지(58)에 의해 예시된 평균(57), 모델 불확실성 이미지(60)에 의해 도시된 분산(variance)(59) 및/또는 다른 특성을 가질 수 있다.
또 다른 비제한적인 예로서, 도 5는 신경망(62) 내의 인코더-디코더 아키텍처(61)를 도시하고 있다. 인코더-디코더 아키텍처(61)는 인코딩 부분(52)과 디코딩 부분(54)을 포함하고 있다. 도 5에서, x는 인코더 입력(예를 들어, 입력 이미지 및/또는 입력 이미지의 추출된 피처)을 나타내고 있으며, x'는 디코더 출력(예를 들어, 예측된 출력 이미지 및/또는 출력 이미지의 예측된 피처)을 나타낸다. 일부 실시예에서, x'는 예를 들어 (전체 모델의 최종 출력과 비교하여) 신경망의 중간 계층으로부터의 출력, 및/또는 다른 출력을 나타낼 수 있다. 일부 실시예에서, 변수 y는 예를 들어 신경망으로부터의 전체 출력을 나타낼 수 있다. 도 5에서, z는 잠재 공간(64) 및/또는 저차원 인코딩(벡터)을 나타낸다. 일부 실시예에서, z는 잠재 변수이거나 잠재 변수와 관련된다. 출력(x')(및/또는 일부 경우에서는 y)은 보다 낮은 차원수의 랜덤 벡터(random vector)(z∈Z)(가능하게는 매우 복잡한) 함수로서 모델링되며, 이 벡터의 성분은 관찰되지 않은 (잠재) 변수이다.
일부 실시예에서, 저차원 인코딩(z)은 입력(예를 들어, 이미지)의 하나 이상의 피처를 나타내고 있다 입력의 하나 이상의 피처는 입력의 핵심 또는 중요한 피처로 간주될 수 있다. 피처는 입력의 핵심 또는 중요한 피처로 간주될 수 있으며, 이 피처가 원하는 출력의 다른 피처보다 상대적으로 더 예측적이고 및/또는 다른 특성을 갖고 있기 때문이다. 저차원 인코딩으로 표현된 하나 이상의 피처(치수)는 (예를 들어, 본 기계 학습 모델의 생성시 프로그래머에 의하여) 미리 결정될 수 있으며, 신경망의 이전 계측에 의하여 결정될 수 있고, 본 명세서에서 설명된 시스템과 연관된 사용자 인터페이스를 통하여 사용자에 의하여 조정될 수 있으며 및/또는 다른 방법에 의하여 결정될 수 있다. 일부 실시예에서, 저차원 인코딩에 의해 표현되는 피처(치수)의 양은 미리 결정될 수 있고 (예를 들어, 현재 기계 학습 모델의 생성시 프로그래머에 의해), 조정된 신경망의 이전 계층으로부터의 출력에 기초하여 결정될 수 있다. 본 명세서에서 설명된 시스템과 관련된 사용자 인터페이스를 통해 사용자에 의해 및/또는 다른 방법에 의해 결정된다.
도 6a는 잠재 공간(64) 내에 샘플링(63)을 갖는 도 5의 인코더-디코더 아키텍처(61)를 도시하고 있다(예를 들어, 도 6a는 도 5의 더 상세한 버전으로 여겨질 수 있다). 도 6a에서 보여지는 바와 같이,
Figure pct00003
용어 p(z|x)는 입력 x를 고려해볼 때, 잠재 변수(z)의 조건부 확률이다. 용어 qθ(z|x)는 인코더의 계층의 가중치이거나 이를 설명한다. 용어 p(z|x)는 x를 고려해 볼 때 z의 이론적 확률 분포이거나 이를 설명한다.
Figure pct00004
위의 수학식은 잠복 변수 z의 선험적 분포(apriori distribution)이거나 이를 설명하고 있으며, 여기서 N은 정규(예를 들어, 가우시안) 분포를 나타내고 있으며, m은 분포의 평균이고, σ는 공분산(covariance)이며, I는 단위 행렬이다. 도 6a에서 보여지는 바와 같이, μ 및 σ2는 확률을 규정하는 매개변수이다. 이들은, 주어진 입력을 조건으로, 모델이 학습을 시도할 진정한 확률에 대한 프록시 일뿐이다. 일부 실시예에서, 이 프록시는 태스크(task)에 대해 훨씬 더 서술적일 수 있다. 이는 표준 PDF, 예를 들어 또는 학습될 수 있는 일부 자유 형식 PDF일 수 있다.
도 3으로 돌아가면, 일부 실시예에서, 동작 42는 주어진 입력(x)에 대해, 인코더-디코더 아키텍처(예를 들어, 도 5에서 보여지는 61)의 인코더(예를 들어, 도 4에서 보여지는 52)를 사용하여 잠재 변수의 조건부 확률(p(z|x))을 결정하거나 그렇지 않으면 학습하는 것을 포함한다. 일부 실시예에서, 동작 42는 인코더-디코더 아키텍처의 인코더(예를 들어, 도 5에서 보여지는 54)를 사용하여 조건부 확률(p(x'|z))(및/또는 p(y|x))을 결정하거나 그렇지 않으면 학습하는 것을 포함한다. 일부 실시예에서, 동작 42는 다음 방정식에 따라 트레이닝 세트(D)에서 x'i를 생성할 가능성을 최대화함으로써 (아래의 수학식 3에서 보여지는) φ를 학습하는 것을 포함한다:
Figure pct00005
일부 실시예에서, 조건부 확률(p(z|x))은 변분 추론 기술을 사용하여 인코더에 의해 결정된다. 일부 실시예에서, 변분 추론 기술은 분포(qθ(z|x))의 매개변수적 집단 내의 p(z|x)에 대한 근사치를 식별하는 것, 여기서 θ는 다음 방정식에 따른 집단의 매개변수이다: 및
Figure pct00006
max ELBO(θ)를 대체하는 것을 포함하며, 여기서 ELBO는 하한값의 근거를 나타내며, 다음과 같이 주어진다.
Figure pct00007
여기서 KL은 Kullback-Leibler 발산으로서 2개의 확률 분포 사이의 거리 측정값으로 사용되며, Q는 인코딩의 매개변수를 나타내고, θ는 디코딩 매개변수를 나타낸다. 조건부 확률(qθ(z|x))(인코더부) 및(pψ(x'|z) 또는 pψ(y|z))(디코더부))는 트레이닝에 의하여 획득된다.
일부 실시예에서, 동작 42는 조건부 확률(p(z|x))로부터 샘플링하는 것 및 각 샘플에 대해, 위에서 설명된 수학식에 기초하여 인코더-디코더 아키텍처의 디코더를 사용하여, 예측된 다중 출력 실현의 출력을 예측하는 것을 포함한다. 부가적으로: Eqθ(z|x) [f(z)] 은 f(z)의 기대치를 나타내며, 여기서 z는 q(zlx)로부터 샘플링된다.
일부 실시예에서, 동작 44는 각 샘플에 대한 예측된 출력에 기초하여 주어진 입력(예를 들어, x)에 대한 예측된 다중 출력 실현의 변동성을 결정하는 것을 포함한다. 입력(예를 들어, x)을 고려해 볼 때, 기계 학습 모델은 사후 분포(qθ(z|x) 및 pφ(x'*qθ(z|x))를 결정한다. 따라서, 동작 44는 사후 분포(qθ(z|x))를 결정하는 것을 포함한다. 잠재 공간의 원점까지의 이 사후 분포의 거리는 기계 학습 모델의 예측의 불확실성에 반비례한다(예를 들어, 분포가 잠재 공간의 원점에 가까울수록 모델은 더 불확실하다). 일부 실시예에서, 동작 44는 또한 또 다른 사후 분포(pφ(x'*qθ(z|x))를 결정하는 것을 포함한다. 이 사후 분포의 분산은 기계 학습 모델의 예측의 불확실성과 직접 관계가 있다. (예를 들어, 제2 사후 분포의 더 많은 분산은 더 많은 불확실성을 의미한다.) 동작 44는 이 사후 분포들 중 하나 또는 둘 모두를 결정하는 것 및 이 사후 분포들 중 하나 또는 둘 모두에 기초하여 변동성을 결정하는 것을 포함할 수 있다.
도 6b는 도 4에서 보여지는 인코더-디코더 아키텍처(50)의 다른 도면을 도시하고 있다. 위에서 설명된 바와 같이, 기계 학습 모델은 주어진 입력에 대한 사후 분포(pθ(z|x)) 및/ 또는 주어진 입력에 대한 pφ(y|z)를 학습할 수 있다. 일부 실시예에서, 동작 42는 모델이 주어진 입력에 대한 다중 사후 분포(pθ(z|x)), 주어진 입력에 대한 다중 사후 분포(pφ(y|z) 및/또는 또 다른 사후 분포를 예측하게 하는 것을 포함한다. 예를 들어, pθ(z|x) 및/또는 pφ(y|z)의 각각에 대한 다중 사후 분포는 분포들 중 분포를 포함할 수 있다. 일부 실시예에서, 모델은 예를 들어, 매개변수 드롭아웃 및/또는 다른 기술을 사용하여 (예를 들어, pθ(z|x) 및/또는 pφ(y|z) 각각에 대해) 다중 사후 분포를 생성하도록 구성된다.
일부 실시예에서, 동작 44는 분포들 중 분포로부터 샘플링함으로써 주어진 입력에 대해 예측된 다중 사후 분포의 변동성을 결정하는 것 및 예측된 다중 사후 분포 내의 결정된 변동성을 이용하여, 매개변수화된 모델 예측 내의 불확실성을 정량화하는 것을 포함한다. 예를 들어, 기계 학습 모델이 주어진 입력에 대해 매개변수화된 모델로부터 다중 사후 분포를 예측하도록 하는 것은 매개변수화된 모델이 제1 사후 분포(pθ(z|x))에 대응하는 제1 다중 사후 분포 세트와 제2 사후 분포(pφ(y|z))에 대응하는 제2 다중 사후 분포 세트를 예측하도록 하는 것을 포함할 수 있다. 주어진 입력에 대한 예측된 다중 사후 분포의 변동성을 결정하는 것은 제1 및 제2 세트에 대한 분포들 중 분포로부터 샘플링함으로써 (예를 들어, pθ(z|x)에 대한 분포로부터 샘플링하고 pφ(y|z)에 대한 분포로부터 샘플링함으로써) 주어진 입력에 대한 제1 및 제2 예측된 다중 사후 분포 세트의 변동성을 결정하는 것을 포함할 수 있다. 일부 실시예에서, 샘플링은 분포들 중 분포로부터 분포를 무작위로 선택하는 것을 포함한다. 샘플링은 예를 들어 가우시안 또는 비-가우시안일 수 있다.
일부 실시예에서, 동작 44는 샘플링된 분포의 변동성을 결정하는 것을 포함한다. 예를 들어, 도 6c는 예시적인 예상 분포(p(z|x))(600) 및 p(z|x)(600)에 대한 분포들 중 분포로부터의 샘플링된 분포의 변동성(602)을 도시하고 있다. 변동성(602)은, 예를 들어 기계 학습 모델의 불확실성으로 인해 초래될 수 있다. 일부 실시예에서, 매개변수화된 모델 예측 내의 불확실성을 정량화하기 위해 예측된 다중 사후 분포 내의 결정된 변동성을 이용하는 것은 제1 및 제2 예측된 다중 사후 분포 세트(예를 들어, 도 6c에서 보여지는 p(z|x)(600)에 대한 분포들 중 분포 및 p(y|z)에 대한 분포들 중 유사한 분포) 내의 결정된 변동성을 이용하여 기계 학습 모델 예측 내의 불확실성을 정량화하는 것을 포함한다
일부 실시예에서, 변동성을 결정하는 것은 평균, 모멘트, 편포도, 표준 편차, 분산, 첨도, 공분산, 범위 및/또는 변동성을 정량화하기 위한 임의의 다른 방법 중 하나 이상을 포함하는 하나 이상의 통계 품질 지표로 샘플링된 분포 세트 내의 변동성을 정량화하는 것을 포함할 수 있다. 예를 들어, 샘플링된 사후 분포 세트의 변동성을 결정하는 것은 주어진 입력(x0)에 대한 (예를 들어, 도 6C에서 보여지는 p(z|x)(600)에 대한, 또는 p(y|z)를 위한 분포들 중 유사한 분포에 대한) 개연성있는 출력의 범위(604)를 결정하는 것을 포함할 수 있다 또 다른 예로서, KL 거리는 상이한 분포들이 얼마나 멀리 떨어져 있는지를 정량화하기 위하여 사용될 수 있다.
일부 실시예에서, 위에서 설명된 바와 같이, 기계 학습 모델 예측의 불확실성은 기계 학습 모델의 매개변수의 가중치의 불확실성 및 잠재 공간의 크기와 표현과 관련된다. 가중치의 불확실성은 출력의 불확실성으로 나타날 수 있어, 증가된 출력 분산을 야기한다. 예를 들어, (예를 들어, 본 명세서에서 설명된 바와 같이) 잠재 공간이 저차원인 경우, 광범위한 관측 세트에 걸쳐 일반화할 수 없을 것이다. 반면에 큰 차원의 잠재 공간은 모델을 트레이닝하기 위해 더 많은 데이터를 필요로 할 것이다.
비제한적인 예로써, 도 7은 기계 학습 모델에 대한 입력(예를 들어, x)으로 사용되는 마스크 이미지(70), 마스크 이미지(70)를 기반으로 예측된 기계 학습 모델로부터의 예측된 출력(이미지)의 평균(72)(이미지), 예측된 출력 내의 분산을 도시하는 이미지(74), 마스크 이미지를 사용하여 생성된 실제 웨이퍼 패턴의 주사 전자 현미경(SEM) 이미지(78), 및 사후 분포(예를 들어, p(y|z)-분포들 중 분포로부터의 한 예시적인 분포)를 도시하는 잠재 공간(80)을 도시하고 있다. 잠재 공간(80)은 잠재 벡터(z)가 7개의 치수(81 내지 87)를 갖고 있었다는 것을 도시하고 있다. 치수(81 내지 87)는 잠재 공간(80)의 중심(79) 주위에 분포되어 있다. 잠재 공간(80) 내에서의 치수(81 내지 87)의 분포는 상대적으로 더 확실한 모델(더 적은 분산)을 보여주고 있다. 상대적으로 더 확실한 모델의 이 증거는 평균 이미지(72)와 SEM 이미지(78)가 유사하게 보인다는 점 그리고 분산 이미지(74)에 임의의 짙은 색상이 없거나 SEM 이미지(78)에서 보여지는 구조체의 영역에 해당하지 않는 위치에 임의의 짙은 색상이 없다는 점에 의해 확증된다.
일부 실시예에서 (예를 들어, 본 명세서에서 설명된 바와 같이), 잠재 공간(80)에서 보여지는 사후 분포는 동일한 입력을 사용하여 생성된 다른 사후 분포와 (예를 들어, 통계적으로 또는 달리) 비교될 수 있다. 본 방법은 이 사후 분포들의 비교에 기초하여 모델의 확실성의 표시를 결정하는 것을 포함할 수 있다. 예를 들어, 비교된 사후 분포들 간의 차이가 클수록 모델은 덜 확실하다.
대조적인 비제한적인 예로서, 도 8은 도 7에서 보여지는 출력과 비교하여 기계 학습 모델 출력의 더 큰 변동(및 더 많은 불확실성)을 도시하고 있다. 도 8은 기계 학습 모델에 대한 입력(예를 들어, x)으로서 사용되는 마스크 이미지(88), 마스크 이미지(88)를 기반으로 예측된 기계 학습 모델로부터의 예측된 출력들의 평균(89), 예측된 출력의 분산을 도시하는 이미지(90), 마스크 이미지를 사용하여 생성된 실제 마스크의 SEM 이미지(91), 및 사후 분포를 도시하는 잠재 공간(92)을 도시하고 있다. 잠재 공간(92)은 잠재 벡터(z)가 다시 여러 개의 치수(93)를 가졌다는 것을 도시하고 있다. 잠재 공간(92) 내의 치수(93)의 분포는 이제 상대적으로 더 불확실한 모델을 도시하고 있다. 잠재 공간(92) 내에서의 치수(93)의 분포는 (더 좁은) 원점에서 더 집중되어 출력에서 더 큰 불확실성으로 이어진다(예를 들어, 본 명세서에서 설명된 바와 같이, 본 방법은 제1 사후 분포(pθ(z|x))를 결정하는 것으로 포함하며, 여기서 잠재 공간의 원점에 대한 제1 사후 분포의 거리는 기계 학습 모델의 불확실성에 반비례한다). 상대적으로 불확실한 모델의 이러한 증거는 평균 이미지(89)와 SEM 이미지(91)가 매우 다르게 보인다는 점 그리고 SEM 이미지(91)에서 대응하는 구조체가 보이지 않는 위치에서 분산 이미지(90)에 많은 짙은 색상이 있다는 점에 의하여 확증된다.
다시 여기서, 잠재 공간(92) 내에서 보여지는 사후 분포는 동일한 입력을 사용하여 생성된 다른 사후 분포와 (예를 들어, 통계적으로 또는 달리) 비교될 수 있다. 본 방법은 이 사후 분포들의 비교에 기초하여 모델의 확실성의 표시를 결정하는 것을 포함할 수 있다.
제3의 비제한적인 예로서, 도 9는 기계 학습 모델에 대한 입력(예를 들어, x)으로서 사용되는 마스크 이미지(94), 마스크 이미지(94)를 기반으로 예측된 기계 학습 모델로부터의 예측된 출력들의 평균(95), 예측된 출력의 분산을 도시하는 이미지(96), 마스크 이미지(94)를 사용하여 생성된 실제 마스크의 SEM 이미지(97), 및 잠재 벡터(z)의 여러 개의 치수(99)를 도시하는 잠재 공간(98)을 도시하고 있다. 이미지(94 내지 97) 및 잠재 공간(98) 내에서의 치수(99)의 분포는 이제 도 7에서 보여지는 것보다 더 많지만, 도 8에 도시된 것보다 적은 변동을 갖는 모델을 도시하고 있다. 예를 들어, 평균 이미지(95)는 SEM 이미지(97)와 유사해 보이지만, 분산 이미지(96)는 SEM 이미지(97)에서 대응하는 구조체가 보이지 않는 영역(A)에서 더 강렬한 색상을 보여주고 있다. 일부 실시예에서, 잠재 공간(98) 내에서 보여지는 사후 분포는 모델의 불확실성을 결정하기 위해 동일한 입력을 사용하여 생성된 다른 사후 분포와 비교될 수 있다.
도 3으로 돌아가서, 일부 실시예에서, 동작 46은 기계 학습 모델의 불확실성을 조정하기 위해, 예측된 다중 출력 실현 및/또는 다중 사후 분포 내의 결정된 변동성을 이용하는 것이 주어진 입력을 기초로 조정된 기계 학습 모델로부터의 예측을 기초로 하나 이상의 포토리소그래피 공정 매개변수를 결정하는 것; 및 하나 이상의 결정된 포토리소그래피 공정 매개변수에 기초하여 포토리소그래피 장치를 조정하는 것을 포함하도록 구성된다. 일부 실시예에서, 조정된 기계 학습 모델로부터의 예측은 예측된 오버레이, 예측된 웨이퍼 기하학적 구조 및/또는 다른 예측 중 하나 이상을 포함한다. 일부 실시예에서, 하나 이상의 결정된 포토리소그래피 공정 매개변수는 마스크 디자인, 퓨필 형상, 선량, 초점 및/또는 기타 공정 매개변수 중 하나 이상을 포함한다.
일부 실시예에서, 하나 이상의 결정된 포토리소그래피 공정 매개변수는 마스크 디자인을 포함하며, 마스크 디자인에 기초하여 포토리소그래피 장치를 조정하는 것은 마스크 디자인을 제1 마스크 디자인에서 제2 마스크 디자인으로 변경하는 것을 포함한다. 일부 실시예에서, 하나 이상의 결정된 포토리소그래피 공정 매개변수는 퓨필 형상을 포함하며, 퓨필 형상에 기초하여 포토리소그래피 장치를 조정하는 것은 퓨필 형상을 제1 퓨필 형상에서 제2 퓨필 형상으로 변경하는 것을 포함한다. 일부 실시예에서, 하나 이상의 결정된 포토리소그래피 공정 매개변수는 선량을 포함하며, 선량에 기초하여 포토리소그래피 장치를 조정하는 것은 선량을 제1 선량에서 제2 선량으로 변경하는 것을 포함한다. 일부 실시예에서, 하나 이상의 결정된 포토리소그래피 공정 매개변수는 초점을 포함하며, 초점에 기초하여 포토리소그래피 장치를 조정하는 것은 초점을 제1 초점에서 제2 초점으로 변경하는 것을 포함한다.
일부 실시예에서, 동작 46은 기계 학습 모델의 불확실성을 감소시키기 위하여 기계 학습 모델을 조정하기 위해, 예측된 다중 출력 실현 및/또는 다중 사후 분포 내의 결정된 변동성을 이용하는 것이 트레이닝 세트 크기를 증가시키는 것 및/또는 잠재 공간의 차원수를 추가하는 것을 포함하도록 구성된다. 일부 실시예에서, 트레이닝 세트 크기를 증가시키는 것 및/또는 잠재 공간의 차원수(dimensionality)를 추가하는 것은 기계 학습 모델을 트레이닝하기 위한 입력으로서 이전 트레이닝 자료에 관하여 더 다양한 이미지, 더 다양한 데이터 및 추가 클립을 이용하는 것; 및 벡터를 인코딩하기 위한 더 많은 치수, 및 기계 학습 모델 내의 더 많은 인코딩 계층, 및/또는 다른 트레이닝 세트 및/또는 차원수 증가 동작을 이용하는 것을 포함한다. 일부 구현에서, 부가적이고 더 다양한 트레이닝 샘플은 이전 트레이닝 자료에 관하여 더 다양한 이미지, 더 다양한 데이터 및 부가적인 클립을 포함한다.
일부 실시예에서, 동작 46은 기계 학습 모델의 불확실성을 감소시키기 위하여 기계 학습 모델을 조정하기 위해, 예측된 다중 출력 실현 및/또는 다중 사후 분포 내의 결정된 변동성을 이용하는 것이 잠재 공간에 부가적인 차원수를 추가하는 것 및/또는 기계 학습 모델에 더 많은 계층을 추가하는 것을 포함하도록 구성된다. 일부 실시예에서, 동작 46은 기계 학습 모델의 불확실성을 감소시키기 위하여 기계 학습 모델을 조정하기 위해, 예측된 다중 출력 실현 및/또는 다중 사후 분포 내의 결정된 변동성을 이용하는 것이 모델을 트레이닝하기 위해 사용되는 잠재 공간 및/또는 이전 트레이닝 데이터로부터의 이전 샘플링에 관하여 잠재 공간으로부터의 부가적이고 더 다양한 샘플링으로 기계 학습 모델을 트레이닝하는 것을 포함하도록 구성된다.
비제한적인 예로서, 일부 실시예에서, 동작 46은 반도체 제조 공정에서 마스크 기하학적 구조를 예측하기 위하여 기계 학습 모델의 불확실성을 감소시키기 위해 기계 학습 모델을 조정하도록, 예측된 다중 출력 실현 및/또는 다중 사후 분포 내의 결정된 변동성을 이용하는 것을 포함한다. 도 7 내지 도 9를 다시 살펴보면, 기계 학습 모델로부터의 출력(예를 들어, 예측된 평균 이미지)의 변동성(예를 들어, 변동성 이미지 내에서 보여지는 바와 같이)이 도 8에서 보여지는 바와 같이 높은 경우 및/또는 분포 변동에 대한 분포가 상대적으로 높은 경우, 트레이닝 세트 크기는 증가될 수 있으며 및/또는 위에서 설명된 바와 같이 잠재 공간의 차원수는 증가될 수 있다. 그러나 도 7에서 보여지는 바와 같이 기계 학습 모델로부터의 출력의 변동성이 낮거나 분포 변동에 대한 분포가 상대적으로 낮으면, 조정이 거의 또는 전혀 필요하지 않을 수 있다.
일부 실시예에서, 본 방법은 모델을 조정하지 않고 모델 내의 가능한 결함을 식별하기 위해 사용될 수 있으며, 예를 들어 특정 클립(또는 이미지, 데이터 또는 임의의 다른 입력)에 대한 불확실성을 재결정하기 위해 상이한(예를 들어, 물리적) 모델을 사용할 수 있다. 이 예에서, 불확실성은, 예를 들어 주어진 공정의 물리학(예를 들어, 레지스트 화학적 성질, 다양한 패턴 형상의 효과, 재료 등)을 더 잘 연구하기 위해 사용될 수 있다.
집적 회로 제조 공정 및/또는 다른 공정의 여러 상이한 양태와 관련된 다른 예가 고려된다. 예를 들어, 일부 실시예에서, 동작 46은 반도체 제조 공정의 일부로서 웨이퍼 기하학적 구조를 예측하기 위하여 기계 학습 모델의 불확실성을 감소시키기 위해 기계 학습 모델을 조정하도록, 예측된 다중 출력 실현 및/또는 다중 사후 분포 내의 결정된 변동성을 이용하는 것을 포함한다. 이 예를 계속 진행하면, 반도체 제조 공정의 일부로서 웨이퍼 기하학적 구조를 예측하기 위하여 매개변수화된 모델의 불확실성을 감소시키기 위해 기계 학습 모델을 조정하도록 결정된 변동성을 이용하는 것은 기계 학습 모델을 트레이닝하기 위한 입력으로서 이전 트레이닝 자료에 관하여 더 다양한 이미지, 더 다양한 데이터 및 부가적인 클립을 이용하는 것; 및 벡터를 인코딩하기 위한 더 많은 치수, 기계 학습 모델 내의 더 많은 인코딩 계층, 더 다양한 이미지, 더 다양한 데이터, 부가적인 클립, 더 많은 치수, 및 결정된 변동성에 기초하여 결정된 더 많은 인코딩 계층을 이용하는 것을 포함한다.
일부 실시예에서, 동작 46은 반도체 제조 공정의 일부로서 예측된 오버레이를 생성하기 위하여 기계 학습 모델의 불확실성을 감소시키기 위해 기계 학습 모델을 조정하도록, 예측된 다중 출력 실현 및/또는 다중 사후 분포 내의 결정된 변동성을 이용하는 것을 포함한다. 이 예를 계속 진행하면, 반도체 제조 공정의 일부로서 예측된 오버레이를 생성하기 위하여 기계 학습 모델의 불확실성을 감소시키기 위해 기계 학습 모델을 조정하도록 결정된 변동성을 이용하는 것은 기계 학습 모델을 트레이닝하기 위한 입력으로서 이전 트레이닝 자료에 관하여 더 다양한 이미지, 더 다양한 데이터 및 부가적인 클립을 이용하는 것; 및 예를 들어, 벡터를 인코딩하기 위한 더 많은 치수, 매개변수화된 모델 내의 더 많은 인코딩 계층, 더 다양한 이미지, 더 다양한 데이터, 부가적인 클립, 더 많은 치수 및 결정된 변동성을 기반으로 결정된 더 많은 인코딩 계층을 사용하는 것을 포함한다.
도 10은 본 명세서에 개시된 방법, 흐름 또는 장치를 구현하는 것을 도울 수 있는 컴퓨터 시스템(100)을 도시하는 블록도이다. 컴퓨터 시스템(100)은 정보를 전달하기 위한 버스(102) 또는 다른 통신 메커니즘, 및 정보를 처리하기 위하여 버스(102)와 연결된 프로세서(104)(또는 다중 프로세서(104 및 105))를 포함하고 있다. 컴퓨터 시스템(100)은 또한 프로세서(104)에 의해 실행될 정보 및 명령어를 저장하기 위하여 버스(102)에 연결된, 랜덤 억세스 메모리(RAM) 또는 다른 동적 저장 디바이스와 같은, 주 메모리(106)를 포함하고 있다. 주 메모리(106)는 또한 프로세서(104)에 의해 실행될 명령어의 실행 중에 임시 변수 또는 다른 중간 정보(intermediate information)를 저장하기 위해 사용될 수 있다. 컴퓨터 시스템(100)은 프로세서(104)에 대한 정적 정보 및 명령어를 저장하기 위한, 버스(102)에 연결된 읽기 전용 메모리(ROM)(108) 또는 다른 정적 저장 디바이스를 더 포함하고 있다. 정보 및 명령어들을 저장하기 위하여, 자기 디스크 또는 광학 디스크와 같은 저장 디바이스(110)가 제공되고 버스(102)에 연결되어 있다.
컴퓨터 시스템(100)은 버스(102)를 통하여, 컴퓨터 사용자에게 정보를 디스플레이하는 음극선관(cathode ray tube) 또는 플랫 패널 또는 터치 패널 디스플레이와 같은 디스플레이(112)에 연결될 수 있다. 영숫자 및 다른 키를 포함하는 입력 디바이스(104)는 정보 및 명령 선택을 프로세서(104)로 전달하기 위해 버스(102)에 연결되어 있다. 또 다른 유형의 사용자 입력 디바이스는 방향 정보 및 명령 선택을 프로세서(104)로 전달하고 디스플레이(112) 상에서의 커서 움직임을 제어하기 위한, 마우스, 트랙볼(trackball) 또는 커서 방향 키와 같은 커서 제어부(cursor control)(116)이다. 이 입력 디바이스는 전형적으로 디바이스로 하여금 평면에서의 위치를 특정하게 하는 2개의 축, 제1 축(예를 들어, x) 및 제2 축(예를 들어, y)에서 2 자유도를 갖는다. 터치 패널(스크린) 디스플레이가 또한 입력 디바이스로서 사용될 수 있다.
일 실시예에 따르면, 주 메모리(106)에 포함된 하나 이상의 명령어의 하나 이상의 시퀀스를 실행하는 프로세서(104)에 응답하여 본 명세서에 설명된 하나 이상의 방법의 부분들이 컴퓨터 시스템(100)에 의해 수행될 수 있다. 이러한 명령어는 저장 디바이스(110)와 같은 또 다른 컴퓨터-판독 가능한 매체로부터 주 메모리(106)로 읽힐 수 있다. 주 메모리(106) 내에 포함된 명령어의 시퀀스들의 실행은 프로세서(104)가 본 명세서에 설명된 공정 단계를 수행하게 한다. 다중 처리 배열체(multi-processing arrangement)의 하나 이상의 프로세서가 또한 이용되어 주 메모리(106) 내에 포함된 명령어의 시퀀스를 실행할 수 있다. 대안적인 실시예에서, 하드웨어에 내장된 회로(hard-wired circuitry)가 소프트웨어 명령어 대신에 또는 그와 조합하여 사용될 수 있다. 따라서, 본 명세서 내의 설명은 하드웨어 회로와 소프트웨어의 임의의 특정 조합에 제한되지 않는다
본 명세서에서 사용된 바와 같은 용어 "컴퓨터-판독 가능한 매체"는 실행을 위하여 프로세서(104)에 명령어를 제공하는데 관여하는 임의의 매체를 지칭한다. 이러한 매체는 비휘발성 매체, 휘발성 매체 및 전송 매체를 포함하는 다수의 형태를 취할 수 있으나, 이에 제한되지는 않는다. 비휘발성 매체는, 예를 들어 저장 디바이스(110)와 같은 광학 또는 자기 디스크를 포함한다. 휘발성 매체는 주 메모리(106)와 같은 동적 메모리를 포함한다. 전송 매체는 버스(102)를 포함하는 와이어를 포함하는 동축 케이블, 구리 와이어 및 광섬유를 포함한다. 전송 매체는 또한 무선 주파수(RF) 및 적외선(IR) 데이터 통신 중에 생성되는 파장과 같이 음파(acoustic wave) 또는 광파의 형태를 취할 수도 있다. 컴퓨터-판독 가능한 매체의 보편적인 형태는, 예를 들어 플로피 디스크, 플렉시블 디스크, 하드 디스크, 자기 테이프, 임의의 다른 자기 매체, CD-ROM, DVD, 임의의 다른 광학 매체, 펀치 카드, 종이 테이프, 홀(hole)의 패턴을 갖는 임의의 다른 물리적 매체, RAM, PROM, 및 EPROM, FLASH-EPROM, 임의의 다른 메모리 칩 또는 카트리지, 이후 설명되는 바와 같은 반송파, 또는 컴퓨터가 판독할 수 있는 임의의 다른 매체를 포함한다.
다양한 형태의 컴퓨터 판독 가능한 매체는 실행을 위해 하나 이상의 명령어의 하나 이상의 시퀀스를 프로세서(104)로 전달하는 데 관련될 수 있다. 예를 들어, 명령어는 초기에 원격 컴퓨터의 자기 디스크 상에 저장될 수 있다(bear). 원격 컴퓨터는 그 동적 메모리로 명령어를 로딩할 수 있으며, 모뎀을 이용하여 전화선을 통해 명령어를 보낼 수 있다. 컴퓨터 시스템(100)에 로컬인 모뎀이 전화선 상의 데이터를 수신할 수 있으며, 이 데이터를 적외선 신호로 전환하기 위해 적외선 송신기를 사용할 수 있다. 버스(102)에 연결된 적외선 검출기는 적외선 신호로 전달된 데이터를 수신할 수 있으며, 이 데이터를 버스(102)에 위치시킬 수 있다. 버스(102)는, 프로세서(104)가 명령어를 회수하고 실행하는 주 메모리(106)로 데이터를 전달한다. 주 메모리(106)에 의해 수신된 명령어는 프로세서(104)에 의한 실행 전 또는 후에 저장 디바이스(110)에 선택적으로 저장될 수 있다.
컴퓨터 시스템(100)은 또한 버스(102)에 연결된 통신 인터페이스(118)를 포함할 수 있다. 통신 인터페이스(118)는 로컬 네트워크(122)에 연결되는 네트워크 링크(120)에 연결하여 양방향(two-way) 데이터 통신을 제공한다. 예를 들어, 통신 인터페이스(118)는 대응하는 유형의 전화선에 데이터 통신 연결을 제공하기 위한 종합 정보 통신망(integrated services digital network)(ISDN) 카드 또는 모뎀일 수 있다. 또 다른 예로서, 통신 인터페이스(118)는 호환성 LAN에 데이터 통신 연결을 제공하는 근거리 통신망(LAN) 카드일 수 있다. 무선 링크 또한 구현될 수도 있다. 임의의 이러한 구현에서, 통신 인터페이스(118)는 다양한 형태의 정보를 나타내는 디지털 데이터 스트림을 운반하는 전기적, 전자기적 또는 광학 신호를 송신하고 수신한다.
네트워크 링크(120)는 전형적으로 하나 이상의 네트워크를 통해 다른 데이터 디바이스에 데이터 통신을 제공한다. 예를 들어, 네트워크 링크(120)는 로컬 네트워크(122)를 통해 호스트 컴퓨터(124)로의 또는 인터넷 서비스 제공자(ISP)(126)에 의해 작동되는 데이터 장비로의 연결을 제공할 수 있다. ISP(126)는 결과적으로 이제 통상적으로 "인터넷"(128)으로 지칭되는 월드와이드 패킷 데이터 통신 네트워크를 통해 데이터 통신 서비스를 제공한다. 로컬 네트워크(122) 및 인터넷(128) 모두는 디지털 데이터 스트림을 전달하는 전기적, 전자기적 또는 광학적 신호들을 이용한다. 컴퓨터 시스템(100)으로 그리고 그로부터 디지털 데이터를 전달하는, 다양한 네트워크를 통한 신호 및 통신 인터페이스(118)를 통한 네트워크 링크(120) 상의 신호는 정보를 전달하는 반송파의 예시적인 형태이다.
컴퓨터 시스템(100)은 네트워크(들), 네트워크 링크(120) 및 통신 인터페이스(118)를 통해 프로그램 코드를 포함하는 메시지를 송신하고 데이터를 수신할 수 있다. 인터넷 예에서, 서버(130)는 인터넷(128), ISP(126), 로컬 네트워크(122) 및 통신 인터페이스(118)를 통해 어플리케이션 프로그램에 대한 요청된 코드를 전송할 수 있다. 예를 들어, 하나의 이러한 다운로드된 어플리케이션은 본 명세서에 설명된 바와 같은 방법의 모두 또는 일부를 제공할 수 있다. 수신됨에 따라 수신된 코드는 프로세서(104)에 의해 실행될 수 있으며, 및/또는 추후 실행을 위하여 저장 디바이스(100) 또는 다른 비휘발성 저장부에 저장될 수 있다. 이 방식으로, 컴퓨터 시스템(100)은 반송파의 형태로 어플리케이션 코드를 획득할 수 있다.
도 11은 본 명세서에 설명된 기술과 함께 이용될 수 있는 예시적인 리소그래피 투영 장치를 개략적으로 도시하고 있다. 본 장치는:
- 방사선의 빔(B)을 조정하기 위한 조명 시스템(IL)-이 특정 경우, 조명 시스템은 또한 방사선 소스(SO)를 포함한다-;
- 패터닝 디바이스(MA)(예를 들어, 레티클)를 유지시키기 위해 패터닝 디바이스 홀더를 구비하며, 아이템(PS)에 대하여 패터닝 디바이스를 정확히 위치시키기 위해 제1 포지셔너에 연결되어 있는 제1 대상물 테이블(예를 들어, 패터닝 디바이스 테이블)(MT);
- 기판(W)(예를 들어, 레지스트-코팅된 실리콘 웨이퍼)을 유지시키기 위해 기판 홀더를 구비하며, 아이템(PS)에 대하여 기판을 정확히 위치시키기 위해 제2 포지셔너에 연결되어 있는 제2 대상물 테이블(기판 테이블)(WT); 및
- 패터닝 디바이스(MA)의 조사된 부분을 기판(W) 상의 (예를 들어, 하나 이상의 다이를 포함하는) 타겟 부분(C) 상으로 이미지화하는 투영 시스템("렌즈")(PS)(예를 들어, 굴절, 반사(catoptric) 또는 반사-굴절(catadioptric) 광학 시스템)을 포함하고 있다.
본 명세서에 도시된 바와 같이, 본 장치는 투과형이다(즉, 투과 패터닝 디바이스를 갖고 있다). 그러나, 일반적으로, 본 장치는 예를 들어 (반사 패터닝 디바이스를 갖는) 반사형일 수 있다. 본 장치는 전형적인 마스크에 대하여 상이한 종류의 패터닝 디바이스를 이용할 수 있다; 예는 프로그램 가능한 미러 어레이 또는 CCD 매트릭스를 포함한다.
소스(SO)(예를 들어, 수은 램프 또는 엑시머 레이저, LPP(레이저 생성 플라즈마) EUV 소스)는 방사선의 빔을 생성한다. 이 빔은 곧바로 또는, 예를 들어 빔 익스팬더(beam expander)(Ex)와 같은 조정 수단을 가로지른 후 조명 시스템(일루미네이터)(IL)으로 공급된다. 일루미네이터(IL)는 빔 내의 세기 분포의 외측 및/또는 내측 반경 방향 범위(통상적으로, 외측-σ 및 내측-σ로 각각 지칭됨)를 설정하는 조정 수단(AD)을 포함할 수 있다. 또한, 이는 일반적으로 집속기(integrator)(IN) 및 집광기(condenser)(CO)와 같은 다양한 다른 구성 요소를 포함할 것이다. 이 방식으로, 패터닝 디바이스(MA)에 충돌하는 빔(B)은 그 횡단면에 원하는 균일성 및 세기 분포를 갖는다.
도 10과 관련하여, 소스(SO)는 (흔히 소스(SO)가, 예를 들어 수은 램프인 경우와 같이) 리소그래피 투영 장치의 하우징 내에 있을 수 있지만, 이는 또한 리소그래피 투영 장치로부터 멀리 떨어져 있을 수도 있으며, 그것이 생성하는 방사선 빔은 (예를 들어, 적절한 지향 미러의 도움으로) 장치 내로 유도된다는 점이 주목되어야 한다; 이 후자의 시나리오는 흔히 소스(SO)가 (예를 들어, KrF, ArF 또는 F2 레이징(lasing)를 기반으로 하는) 엑시머 레이저인 경우이다.
빔(PB)은 그후 패터닝 디바이스 테이블(MT) 상에 유지되어 있는 패터닝 디바이스(MA)를 통과(intercept)한다. 패터닝 디바이스(MA)를 가로지르면, 빔(B)은 렌즈(PL)를 통과하며, 렌즈는 빔(B)을 기판(W)의 타겟 부분(C) 상으로 집속한다. 제2 위치 결정 수단(및 간섭계 측정 수단(IF))의 도움으로, 기판 테이블(WT)은, 예를 들어 빔(PB)의 경로 내에 상이한 타겟 부분(C)들을 위치시키기 위하여 정확하게 이동될 수 있다. 유사하게, 제1 위치 결정 수단은, 예를 들어 패터닝 디바이스 라이브러리로부터의 패터닝 디바이스(MA)의 기계적인 탐색 후에 또는 스캔 동안, 빔(B)의 경로에 대해 패터닝 디바이스(MA)를 정확히 위치시키기 위해 사용될 수 있다. 일반적으로, 대상물 테이블(MT, WT)의 이동은 장-스트로크 모듈(개략적인 위치 결정) 및 단-스트로크 모듈(미세한 위치 결정)의 도움으로 실현될 것이며, 이 모듈들은 도 11에 명확히 도시되지는 않는다. 하지만, (스텝-앤드-스캔 툴(step-and-scan tool)과는 대조적으로) 스테퍼의 경우, 패터닝 디바이스 테이블(MT)은 단지 단-스트로크 액추에이터에 연결될 수 있거나 고정될 수 있다.
도시된 툴은 2개의 상이한 모드로 사용될 수 있다:
- 스텝 모드에서, 패터닝 디바이스 테이블(MT)은 기본적으로 정지 상태로 유지되며, 전체 패터닝 디바이스 이미지는 한 번에 (즉, 단일 "플래시(flash)"로) 타겟 부분(C) 상으로 투영된다. 상이한 타겟 부분(C)이 빔(PB)에 의해 조사될 수 있도록 기판 테이블(WT)이 그후 x 및/또는 y 방향으로 시프트된다.
- 스캔 모드에서는, 주어진 타겟 부분(C)이 단일 "플래시"로 노광되지 않는다는 것을 제외하고는 기본적으로 동일한 시나리오가 적용된다. 대신에, 패터닝 디바이스 테이블(MT)은 v의 속도로 주어진 방향(소위 "스캔 방향", 예를 들어 y 방향)으로 이동 가능하며, 따라서 투영 빔(B)이 패터닝 디바이스 이미지에 걸쳐 스캐닝하도록 유도된다; 동시에, 기판 테이블(WT)은 속도 V=Mv로 동일 방향 또는 반대 방향으로 동시에 이동되며, 여기서 M은 렌즈(PL)의 배율(전형적으로, M=1/4 또는 1/5)이다. 이 방식으로, 분해능을 손상시키지 않고도 비교적 넓은 타겟 부분(C)이 노광될 수 있다.
도 12는 본 명세서에서 설명된 기술과 함께 이용될 수 있는 또 다른 예시적인 리소그래피 투영 장치(1000)를 개략적으로 도시하고 있다.
리소그래피 투영 장치(1000)는:
- 소스 컬렉터 모듈(SO);
- 방사선 빔(B)을 조절하도록 구성된 조명 시스템(일루미네이터)(IL);
- 패터닝 디바이스(예를 들어, 마스크 또는 레티클)(MA)를 지지하도록 구성되며 패터닝 디바이스를 정확하게 위치시키도록 구성된 제1 포지셔너(PM)에 연결되어 있는 지지 구조체(예를 들어, 패터닝 디바이스 테이블)(MT);
- 기판(예를 들어, 레지스트 코팅된 웨이퍼)(W)를 유지하도록 구성되며 기판을 정확하게 위치시키도록 구성된 제2 포지셔너(PW)에 연결되어 있는 기판 테이블(예를 들어, 웨이퍼 테이블)(WT); 및
- 패터닝 디바이스(MA)에 의해 방사선 빔(B)에 부여된 패턴을 기판(W)의 (예를 들어, 하나 이상의 다이를 포함하는) 타겟 부분(C) 상으로 투영하도록 구성된 투영 시스템(예를 들어, 반사 투영 시스템)(PS)을 포함한다.
도 12에 도시된 바와 같이, 본 장치(1000)는 (예를 들어, 반사형 패터닝 디바이스를 사용하는) 반사 유형이다. 대부분의 재료는 EUV 파장 범위 내에서 흡수성이기 때문에 패터닝 디바이스는 예를 들어 몰리브덴과 실리콘의 다중 스택을 포함하는 다층 리플렉터를 가질 수 있다는 것이 주목되어야 한다. 일 예에서, 다중 스택 리플렉터는 각 층의 두께가 1/4 파장인 40개의 층 쌍의 몰리브덴 및 실리콘을 갖는다. X-선 리소그래피로 심지어 더 작은 파장이 생성될 수 있다. 대부분의 재료는 EUV와 x-선 파장에서 흡수성이기 때문에, 패터닝 디바이스 토포그래피 상의 얇은 조각의 패터닝된 흡수 재료(예를 들어, 다층 리플렉터의 최상부 상의 TaN 흡수제)는 피처가 인쇄되는 (포지티브 레지스트) 또는 인쇄되지 않는 위치를 규정한다(네거티브 레지스트).
일루미네이터(IL)는 소스 컬렉터 모듈(SO)로부터 극자외선 방사선 빔을 받아들인다. EUV 방사선을 생성하는 방법은 EUV 범위 내의 하나 이상의 방출선으로, 물질을 적어도 하나의 원소, 예를 들어 크세논, 리튬 또는 주석을 갖는 플라즈마 상태로 전환시키는 것을 포함하지만, 이에 제한되지는 않는다. 한 이러한 방법에서, 흔히 레이저 생성 플라즈마("LPP")로 불리는 플라즈마는 라인 방출 요소를 갖는 재료의 액적, 스트림 또는 클러스터와 같은 연료를 레이저 빔으로 조사함으로써 생성될 수 있다. 소스 컬렉터 모듈(SO)은 연료를 여기시키는 레이저 빔을 제공하기 위하여, 도 12에서는 보이지 않는, 레이저를 포함하는 EUV 방사선 시스템의 일부일 수 있다. 결과적인 플라즈마는 출력 방사선, 예를 들어 EUV 방사선을 방출하며, EUV 방사선은 소스 컬렉터 모듈에 배치된 방사선 컬렉터를 사용하여 수집된다. 레이저 및 소스 컬렉터 모듈은, 예를 들어 CO2 레이저가 연료 여기를 위한 레이저 빔을 제공하는 데 사용되는 경우 별도의 개체(entity)일 수 있다.
이러한 경우에, 레이저는 리소그래피 장치의 일부를 형성하는 것으로 고려되지 않으며, 방사선 빔은 예를 들어 적절한 지향 미러 및/또는 빔 익스팬더를 포함하는 빔 전달 시스템의 도움으로 레이저에서 소스 컬렉터 모듈로 나아간다. 다른 경우에, 예를 들어 소스가, 흔히 PPD 소스로 불리는 방전 생성 플라즈마 EUV 발생기일 때, 소스는 소스 컬렉터 모듈의 필수 부분일 수 있다. 실시예에서, DUV 레이저 소스가 사용될 수 있다.
일루미네이터(IL)는 방사선 빔의 각도 세기 분포를 조정하기 위한 조정기를 포함할 수 있다. 일반적으로, 일루미네이터의 퓨필 평면 내의 세기 분포의 적어도 외측 및/또는 내측 반경 방향 범위(외측-σ 및 내측-σ로 각각 지칭됨)가 조정될 수 있다. 또한, 일루미네이터(IL)는 패싯 필드 및 퓨필 미러 디바이스와 같은 다양한 다른 구성 요소를 포함할 수 있다. 일루미네이터는 횡단면에 원하는 균일도와 세기 분포를 갖도록 방사선 빔을 조절하는데 사용될 수 있다.
방사선 빔(B)은 지지 구조체(예를 들어, 패터닝 디바이스 테이블)(MT) 상에 유지되어 있는 패터닝 디바이스(예를 들어, 마스크)(MA) 상에 입사되며, 패터닝 디바이스에 의해 패터닝된다. 패터닝 디바이스(예를 들어, 마스크)(MA)로부터 반사된 후, 방사선 빔(B)은 투영 시스템(PS)을 통과하며, 투영 시스템은 기판(W)의 타겟 부분(C) 상으로 빔을 집속한다. 제2 포지서셔너(PW)와 위치 센서(PS2)(예를 들어, 간섭계 디바이스, 선형 인코더, 또는 용량성 센서)의 도움으로, 기판 테이블(WT)은, 예를 들어 방사선 빔(B)의 경로 내에 상이한 타겟 부분(C)들을 위치시키기 위하여 정확하게 이동될 수 있다. 이와 유사하게, 제1 포지셔너(PM) 그리고 또 다른 위치 센서(PS1)는 방사선 빔(B)의 경로에 대해 패터닝 디바이스(예를 들어, 마스크)(MA)를 정확히 위치시키는 데 사용될 수 있다. 패터닝 디바이스(예를 들어, 마스크)(MA) 및 기판(W)은 패터닝 디바이스 정렬 마크(M1, M2) 및 기판 정렬 마크(P1, P2)을 이용하여 정렬될 수 있다.
도시된 장치(1000)는 하기 모드들 중 적어도 하나의 모드에서 사용될 수 있다:
스텝 모드에서, 지지 구조체(예를 들어, 패터닝 디바이스 테이블)(MT)와 기판 테이블(WT)은 기본적으로 정지 상태로 유지되는 한편, 방사선 빔에 부여되는 전체 패턴은 한 번에 타겟 부분(C) 상으로 투영된다(즉, 단일 정적 노광). 기판 테이블(WT)은 그후 상이한 타겟 부분(C)이 노광될 수 있도록 X 및/또는 Y 방향으로 시프트된다.
스캔 모드에서, 지지 구조체(예를 들어, 패터닝 디바이스 테이블)(MT)와 기판 테이블(WT)은 방사선 빔에 부여된 패턴이 타겟 부분(C) 상으로 투영되는 동안에 동시에 스캐닝된다(즉, 단일 동적 노광). 지지 구조체(예를 들어, 패터닝 디바이스 테이블)(MT)에 대한 기판 테이블(WT)의 속도 및 방향은 투영 시스템(PS)의 확대(축소) 및 이미지 반전 특성에 의하여 결정될 수 있다.
또 다른 모드에서, 지지 구조체(예를 들어, 패터닝 디바이스 테이블)(MT)는 기본적으로 정지된 상태로 유지되어 프로그램 가능한 패터닝 디바이스를 유지하여, 방사선 빔에 부여된 패턴이 타겟 부분(C) 상으로 투영되는 동안 기판 테이블(WT)은 이동되거나 스캐닝된다. 이 모드에서는, 일반적으로 펄스화된 방사선 소스가 사용되며, 프로그램 가능한 패터닝 디바이스는 기판 테이블(WT)의 각 이동 후 또는 스캔 동안의 연속적인 방사선 펄스들 간에 필요에 따라 업데이트된다. 이 작동 모드는 위에서 언급된 바와 같은 유형의 프로그램 가능한 미러 어레이와 같은 프로그램 가능한 패터닝 디바이스를 이용하는 마스크없는 리소그래피에 용이하게 적용될 수 있다.
도 13은 소스 컬렉터 모듈(SO), 조명 시스템(IL), 및 투영 시스템(PS)을 포함하여 본 장치(1000)를 더 상세히 보여주고 있다. 소스 컬렉터 모듈(SO)은 진공 환경이 소스 컬렉터 모듈(SO)의 외함 구조체(enclosing structure)(220) 내에서 유지될 수 있도록 구성되고 배치된다. EUV 방사선 방출 플라즈마(210)가 방전 생성 플라즈마 소스에 의해 형성될 수 있다. EUV 방사선은 전자기 스펙트럼의 EUV 범위 내의 방사선을 방출하도록 초고온 플라즈마(210)가 생성되는 가스 또는 증기, 예를 들어 Xe 가스, Li 증기 또는 Sn 증기에 의해 생성될 수 있다. 초고온 플라즈마(210)는, 예를 들어 적어도 부분적으로 이온화된 플라즈마를 야기하는 전기적 방전에 의해 생성된다. 방사선의 효율적인 발생을 위하여, Xe, Li, Sn 증기 또는 임의의 다른 적절한 가스 또는 증기의, 예를 들어 10Pa의 분압(partial pressure)이 필요할 수 있다. 실시예에서, 여기된 주석(Sn)의 플라즈마가 제공되어 EUV 방사선을 생성한다.
고온 플라즈마(210)에 의해 방출된 방사선은, 소스 챔버(211)의 개구 내에 또는 그 뒤에 위치되는 선택적인 가스 베리어(barrier) 또는 오염물 트랩(230)(일부 경우에, 오염물 베리어 또는 포일 트랩(foil trap)으로도 지칭됨)을 통하여 소스 챔버(211)로부터 컬렉터 챔버(212) 내로 나아간다. 오염물 트랩(230)은 채널 구조체를 포함할 수 있다. 오염물 트랩(230)은 또한 가스 베리어, 또는 가스 베리어와 채널 구조체의 조합을 포함할 수 있다. 본 명세서에서 더 나타나는 오염물 트랩 또는 오염물 베리어(230)는 적어도 당업계에 알려진 바와 같은 채널 구조체를 포함한다.
컬렉터 챔버(212)는 소위 그레이징 입사 컬렉터(grazing incidence collector)일 수 있는 방사선 컬렉터(CO)를 포함할 수 있다. 방사선 컬렉터(CO)는 방사선 컬렉터 상류측(251) 및 방사선 컬렉터 하류측(252)을 갖고 있다. 컬렉터(CO)를 가로지르는 방사선은 격자 스펙트럼 필터(240)에서 반사되어 점선(O')으로 나타낸 광학 축을 따라 가상 소스 포인트(virtual source point)(IF)에서 집속될 수 있다. 가상 소스 포인트(IF)는 통상적으로 중간 초점으로 지칭되며, 소스 컬렉터 모듈은 중간 초점(IF)이 외함 구조체(220) 내의 개구(221)에, 또는 그 부근에 위치되도록 배열되어 있다. 가상 소스 포인트(IF)는 방사선 방출 플라즈마(210)의 이미지이다.
그후, 방사선은 조명 시스템(IL)을 가로지르며, 조명 시스템은 패터닝 디바이스(MA)에서의 방사선 세기의 원하는 균일성뿐만 아니라, 패터닝 디바이스(MA)에서의 방사선 빔(21)의 원하는 각도 분포를 제공하도록 배열된 패싯 필드 미러 디바이스(22)와 패싯 퓨필 미러 디바이스(24)를 포함할 수 있다. 지지 구조체(MT)에 의해 유지되어 있는 패터닝 디바이스(MA)에서의 방사선 빔(21)의 반사 시, 패터닝된 빔(10)이 형성되며, 패터닝된 빔(10)은 투영 시스템(PS)에 의하여 반사 요소(28, 30)를 통해, 기판 테이블(WT)에 의해 유지되어 있는 기판(W) 상으로 이미지화된다.
일반적으로, 보여진 것보다 더 많은 요소가 조명 광학계 유닛(IL) 및 투영 시스템(PS) 내에 존재할 수 있다. 격자 스펙트럼 필터(240)는 리소그래피 장치의 유형에 따라 선택적으로 존재할 수 있다. 또한, 도면에서 보여지는 것보다 더 많은 미러가 존재할 수 있으며, 예를 들어 도 13에서 보여진 것보다 1 내지 6개의 추가 반사 요소가 투영 시스템(PS) 내에 존재할 수 있다.
도 14에서 보여지는 바와 같이, 컬렉터 광학계(CO)가 단지 컬렉터(또는 컬렉터 미러)의 예로서, 그레이징 입사 리플렉터(253, 254 및 255)를 갖는 네스티드 컬렉터(nested collector)로서 도시되어 있다. 그레이징 입사 리플렉터(253, 254 및 255)는 광학 축(O) 주위에 축 대칭으로 배치되어 있으며, 이 유형의 컬렉터 광학계(CO)는 흔히 DPP 소스라고 불리는 방전 생성 플라즈마 소스와 조합하여 사용될 수 있다.
대안적으로, 소스 컬렉터 모듈(SO)은 도 14에서 보여지는 바와 같은 LPP 방사선 시스템의 일부일 수 있다. 레이저(LA)가 크세논(Xe), 주석(Sn) 또는 리튬(Li)과 같은 연료에 레이저 에너지를 축적(deposit)하도록 배열되어, 수십 eV의 전자 온도를 갖는 고이온화 플라즈마(210)를 생성한다. 이 이온의 탈-여기(de-excitation) 및 재조합 동안 발생되는 고에너지 방사선(energetic radiation)은 플라즈마로부터 방출되고, 근수직 입사 컬렉터 광학계(CO)에 의해 수집되며, 외함 구조체(220)의 개구(221) 상으로 집속된다.
실시예는 다음의 조항을 사용하여 더 설명될 수 있다:
1. 기계 학습 모델 예측 내의 불확실성을 정량화하는 방법으로서, 본 방법은:
기계 학습 모델이 주어진 입력에 대해 기계 학습 모델로부터 다중 출력 실현을 예측하도록 하는 것;
주어진 입력에 대한 예측된 다중 출력 실현의 변동성을 결정하는 것; 및
상기 예측된 다중 출력 실현 내의 결정된 변동성을 이용하여, 기계 학습 모델로부터 예측된 다중 출력 실현 내의 불확실성을 정량화하는 것을 포함한다.
2. 조항 1의 방법에서, 기계 학습 모델이 다중 출력 실현을 예측하도록 하는 것은 주어진 입력을 조건으로 하여, 조건부 확률로부터 샘플링하는 것을 포함한다.
3. 조항 1 또는 2의 방법에서, 주어진 입력은 이미지, 클립, 인코딩된 이미지, 인코딩된 클립, 또는 기계 학습 모델의 이전 계층으로부터의 데이터 중 하나 이상을 포함한다.
4. 조항 1 내지 3 중 어느 한 조항의 방법은 기계 학습 모델을 더 서술적으로 하거나 더 다양한 트레이닝 데이터를 포함시킴으로써 기계 학습 모델의 불확실성을 감소시키기 위하여 기계 학습 모델을 조정하기 위해 예측된 다중 출력 실현 내의 결정된 변동성 및/또는 정량화된 불확실성을 이용하는 것을 더 포함한다.
5. 조항 1 내지 4 중 어느 한 조항의 방법에서, 기계 학습 모델은 인코더-디코더 아키텍처를 포함한다.
6. 조항 5의 방법에서, 인코더-디코더 아키텍처는 변분 인코더-디코더 아키텍처를 포함하며, 본 방법은 출력 공간에서 실현을 생성하는 확률적 잠재 공간으로 변분 인코더-엔코더 아키텍처를 트레이닝하는 것을 더 포함한다.
7. 조항 6의 방법에서, 잠재 공간은 저차원 인코딩을 포함한다.
8. 조항 7의 방법은 주어진 입력에 대해 인코더-디코더 아키텍처의 인코더부를 이용하여 잠재 변수의 조건부 확률을 결정하는 것을 더 포함한다.
9. 조항 8의 방법은 인코더-디코더 아키텍처의 디코더부를 이용하여 조건부 확률을 결정하는 것을 더 포함한다.
10. 조항 9의 방법은 인코더-디코더 아키텍처의 인코더부를 이용하여, 결정된 잠재 변수의 조건부 확률로부터 샘플링하는 것 및, 각 샘플에 대해 인코더-디코더 아키텍처의 디코더부를 이용하여 출력을 예측하는 것을 더 포함한다.
11. 조항 10의 방법에서, 샘플링은 주어진 조건부 확률 분포로부터 번호를 무작위로 선택하는 것을 포함하며, 여기서 샘플링은 가우시안 또는 비-가우시안이다.
12. 조항 10의 방법은 잠복 공간 내의 각 샘플에 대한 예측된 출력에 기초하여 주어진 입력에 대한 예측된 다중 출력 실현의 변동성을 결정하는 것을 더 포함한다.
13. 조항 12의 방법에서, 변동성을 결정하는 것은 평균, 모멘트, 편포도, 표준 편차, 분산, 첨도 또는 공분산 중 하나 이상을 포함하는 하나 이상의 통계 품질 지표로 변동성을 정량화하는 것을 포함한다.
14. 조항 8 내지 13 중 어느 한 조항의 방법에서, 인코더-디코더 아키텍처의 인코더부를 이용하여 결정된 잠재 변수의 조건부 확률은 변분 추론 기술을 사용하여 인코더부에 의해 결정된다.
13. 조항 14의 방법에서, 변분 추론 기술은 분포의 매개변수적 집단 내의 인코더-디코더 아키텍처의 인코더부를 이용하여 잠재 변수의 조건부 확률에 대한 근사치를 식별하는 것을 포함한다.
16. 조항 15의 방법에서, 분포의 매개변수적 집단은 매개변수화된 분포를 포함하며, 집단은 분포의 유형 또는 형상, 또는 분포들의 조합을 나타낸다.
17. 조항 1 내지 16 중 어느 한 조항의 방법은 제1 사후 분포를 결정하는 것을 더 포함하며, 잠재 공간의 원점까지의 제1 사후 분포의 거리는 기계 학습 모델의 불확실성에 반비례한다.
18. 조항 1 내지 17 중 어느 한 조항의 방법은 제2 사후 분포를 결정하는 것을 더 포함하며, 제2 사후 분포의 분산은 기계 학습 모델의 불확실성과 직접 관련이 있다.
19. 조항 18의 방법에서, 제2 사후 분포를 결정하는 것은 잠재 공간을 직접 샘플링하는 것을 포함한다.
20. 조항 18의 방법에서, 제2 사후 분포는 학습된다.
21. 조항 1 내지 20 중 어느 한 조항의 방법에서, 기계 학습 모델의 불확실성은 기계 학습 모델의 매개변수의 가중치의 불확실성 및 잠재 공간의 크기와 표현과 관련된다.
22. 조항 21의 방법에서, 기계 학습 모델의 불확실성은 기계 학습 모델의 매개변수의 가중치의 불확실성 및 잠재 공간의 크기와 표현과 관련되어, 가중치의 불확실성은 출력의 불확실성으로 나타나 증가된 출력 분산을 야기한다.
23. 조항 2 내지 22 중 어느 한 조항의 방법에서, 기계 학습 모델의 불확실성을 감소시키기 위하여 기계 학습 모델을 조정하기 위해 예측된 다중 출력 실현 내의 결정된 변동성을 이용하는 것은 트레이닝 세트 크기를 증가시키는 것 및/또는 잠재 공간의 차원수를 추가하는 것을 포함한다.
24. 조항 23의 방법에서, 트레이닝 세트 크기를 증가시키는 것 및/또는 잠재 공간의 차원수(dimensionality)를 추가하는 것은 기계 학습 모델을 트레이닝하기 위한 입력으로서 이전 트레이닝 자료에 관하여 더 다양한 이미지, 더 다양한 데이터 및 추가 클립을 이용하는 것; 및 벡터를 인코딩하기 위한 더 많은 치수, 및 기계 학습 모델 내의 더 많은 인코딩 계층을 이용하는 것을 포함한다
25. 조항 2 내지 24 중 어느 한 조항의 방법에서, 기계 학습 모델의 불확실성을 감소시키기 위하여 기계 학습 모델을 조정하기 위해 예측된 다중 출력 실현 내의 결정된 변동성을 이용하는 것은 부가적인 차원수를 잠재 공간에 추가하는 것을 포함한다.
26. 조항 2 내지 25 중 어느 한 조항의 방법에서, 기계 학습 모델의 불확실성을 감소시키기 위하여 기계 학습 모델을 조정하기 위해 예측된 다중 출력 실현 내의 결정된 변동성을 이용하는 것은 부가적이고 더 다양한 트레이닝 샘플로 기계 학습 모델을 트레이닝하는 것을 포함한다.
27. 조항 26의 방법에서, 부가적이고 더 다양한 트레이닝 샘플은 이전 트레이닝 자료에 관하여 더 다양한 이미지, 더 다양한 데이터 및 부가적인 클립을 포함한다.
28. 조항 2 내지 27 중 어느 한 조항의 방법은 반도체 제조 공정의 일부로서 웨이퍼 기하학적 구조를 예측하기 위하여 기계 학습 모델의 불확실성을 감소시키기 위해 기계 학습 모델을 조정하도록 예측된 다중 출력 실현 내의 결정된 변동성을 이용하는 것을 더 포함한다.
29. 조항 28의 방법에서, 반도체 제조 공정의 일부로서 웨이퍼 기하학적 구조를 예측하기 위하여 기계 학습 모델의 불확실성을 감소시키기 위해 기계 학습 모델을 조정하도록 예측된 다중 출력 실현 내의 결정된 변동성을 이용하는 것은 기계 학습 모델을 트레이닝하기 위한 입력으로서 이전 트레이닝 자료에 관하여 더 다양한 이미지, 더 다양한 데이터 및 부가적인 클립을 이용하는 것; 및 벡터를 인코딩하기 위한 더 많은 치수, 기계 학습 모델 내의 더 많은 인코딩 계층, 더 다양한 이미지, 더 다양한 데이터, 부가적인 클립, 더 많은 치수, 및 결정된 변동성에 기초하여 결정된 더 많은 인코딩 계층을 이용하는 것을 포함한다.
30. 조항 2 내지 29 중 어느 한 조항의 방법은 반도체 제조 공정의 일부로서 예측된 오버레이를 생성하기 위하여 기계 학습 모델의 불확실성을 감소시키기 위해 기계 학습 모델을 조정하도록 예측된 다중 출력 실현 내의 결정된 변동성을 이용하는 것을 더 포함한다.
31. 조항 30의 방법에서, 반도체 제조 공정의 일부로서 예측된 오버레이를 생성하기 위하여 기계 학습 모델의 불확실성을 감소시키기 위해 기계 학습 모델을 조정하도록 예측된 다중 출력 실현 내의 결정된 변동성을 이용하는 것은 기계 학습 모델을 트레이닝하기 위한 입력으로서 이전 트레이닝 자료에 관하여 더 다양한 이미지, 더 다양한 데이터 및 부가적인 클립을 이용하는 것; 및 벡터를 인코딩하기 위한 더 많은 치수, 기계 학습 모델 내의 더 많은 인코딩 계층, 더 다양한 이미지, 더 다양한 데이터, 부가적인 클립, 더 많은 치수, 및 결정된 변동성에 기초하여 결정된 더 많은 인코딩 계층을 이용하는 것을 포함한다.
32. 매개변수화된 모델 예측 내의 불확실성을 정량화하는 방법으로서, 본 방법은:
매개변수화된 모델이 주어진 입력에 대해 매개변수화된 모델로부터 다중 출력 실현을 예측하도록 하는 것;
주어진 입력에 대해 예측된 다중 출력 실현의 변동성을 결정하는 것; 및
예측된 다중 출력 실현 내의 결정된 변동성을 사용하여 매개변수화된 모델로부터 예측된 다중 출력 실현 내의 불확실성을 정량화하는 것을 포함한다.
33. 조항 32의 방법에서, 매개변수화된 모델은 기계 학습 모델이다.
34. 컴퓨터 프로그램 제품은 명령어가 기록된 비일시적 컴퓨터 판독 가능한 매체를 포함하며, 명령어는 컴퓨터에 의하여 실행될 때 조항 1 내지 33 중 어느 한 조항의 방법을 구현한다.
35. 포토리소그래피 장치를 구성하는 방법으로서, 본 방법은:
기계 학습 모델이 주어진 입력에 대해 기계 학습 모델로부터 다중 사후 분포를 예측하도록 하는 것 -다중 사후 분포는 분포들 중 분포를 포함함-;
분포들 중 분포로부터 샘플링하여 주어진 입력에 대해 예측된 다중 사후 분포의 변동성을 결정하는 것;
예측된 다중 사후 분포 내의 결정된 변동성을 이용하여 기계 학습 모델 예측 내의 불확실성을 정량화하는 것;
기계 학습 모델 예측 내의 불확실성을 감소시키기 위하여 기계 학습 모델의 하나 이상의 매개변수를 조정하는 것; 및
주어진 입력에 대한 조정된 기계 학습 모델로부터의 예측을 기반으로, 포토리소그래피 장치를 조정하기 위하여 하나 이상의 포토리소그래피 공정 매개변수를 결정하는 것을 포함한다.
36. 조항 35의 방법은 하나 이상의 결정된 포토리소그래피 공정 매개변수에 기초하여 포토리소그래피 장치를 조정하는 것을 더 포함한다.
38. 조항 36의 방법에서, 기계 학습 모델의 하나 이상의 매개 변수는 기계 학습 모델의 하나 이상의 매개 변수의 하나 이상의 가중치를 포함한다.
38. 조항 35 내지 37 중 어느 한 조항의 방법에서, 조정된 기계 학습 모델로부터의 예측은 예측된 오버레이 또는 예측된 웨이퍼 기하학적 구조 중 하나 이상을 포함한다.
39. 조항 35 내지 38 중 어느 한 조항의 방법에서, 하나 이상의 결정된 포토리소그래피 공정 매개변수는 마스크 디자인, 퓨필 형상, 선량 또는 초점 중 하나 이상을 포함한다.
40. 조항 39의 방법에서, 하나 이상의 결정된 포토리소그래피 공정 매개변수는 마스크 디자인을 포함하며, 마스크 디자인을 기반으로 포토리소그래피 장치를 조정하는 것은 마스크 디자인을 제1 마스크 디자인으로부터 제2 마스크 디자인으로 변경하는 것을 포함한다.
41. 조항 39의 방법에서, 하나 이상의 결정된 포토리소그래피 공정 매개변수는 퓨필 형상을 포함하며, 퓨필 형상을 기반으로 포토리소그래피 장치를 조정하는 것은 퓨필 형상을 제1 퓨필 형상으로부터 제2 퓨필 형상으로 변경하는 것을 포함한다.
42. 조항 39의 방법에서, 하나 이상의 결정된 포토리소그래피 공정 매개변수는 선량을 포함하며, 선량을 기반으로 포토리소그래피 장치를 조정하는 것은 선량을 제1 선량으로부터 제2 선량으로 변경하는 것을 포함한다.
43. 조항 39의 방법에서, 하나 이상의 결정된 포토리소그래피 공정 매개변수는 초점을 포함하며, 초점을 기반으로 포토리소그래피 장치를 조정하는 것은 초점을 제1 초점으로부터 제2 초점으로 변경하는 것을 포함한다.
44. 조항 35 내지 43 중 어느 한 조항의 방법에서, 기계 학습 모델이 다중 사후 분포를 예측하도록 하는 것은 기계 학습 모델이 매개변수 드롭아웃을 이용하여 분포들 중 분포를 생성하도록 하는 것을 포함한다.
45. 조항 35 내지 44 중 어느 한 조항의 방법에서,
기계 학습 모델이 주어진 입력에 대해 기계 학습 모델로부터 다중 사후 분포를 예측하도록 하는 것은 기계 학습 모델이 제1 사후 분포(PΘ(z|x))에 대응하는 제1 다중 사후 분포 세트 및 제2 사후 분포(Pφ(y|z))에 대응하는 제2 다중 사후 분포 세트를 예측하도록 하는 것을 포함하며;
분포들 중 분포로부터 샘플링함으로써, 주어진 입력에 대한 예측된 다중 사후 분포의 변동성을 결정하는 것은 제1 및 제2 세트에 대한 분포들 중 분포로부터 샘플링함으로써, 주어진 입력에 대한 제1 및 제2 예측된 다중 사후 분포 세트의 변동성을 결정하는 것을 포함하며; 그리고
예측된 다중 사후 분포 내의 결정된 변동성을 이용하여 기계 학습 모델 예측 내의 불확실성을 정량화하는 것은 제1 및 제2 예측된 다중 사후 분포 세트 내의 결정된 변동성을 이용하여 기계 학습 모델 예측 내의 불확실성을 정량화하는 것을 포함한다.
46. 조항 35 내지 45 중 어느 한 조항의 방법에서, 주어진 입력은 이미지, 클립, 인코딩된 이미지, 인코딩된 클립, 또는 기계 학습 모델의 이전 계층으로부터의 데이터 중 하나 이상을 포함한다.
47. 조항 35 내지 46 중 어느 한 조항의 방법은 기계 학습 모델을 더 서술적으로 하거나 더 다양한 트레이닝 데이터를 포함시킴으로써 기계 학습 모델의 불확실성을 감소시키기 위하여 기계 학습 모델을 조정하기 위해 예측된 다중 사후 분포 내의 결정된 변동성 및/또는 정량화된 불확실성을 이용하는 것을 더 포함한다.
48. 조항 35 내지 47 중 어느 한 조항의 방법에서, 샘플링은 분포들 중 분포로부터 분포를 무작위로 선택하는 것을 포함하며, 샘플링은 가우시안 또는 비-가우시안이다.
49. 조항 35 내지 48 중 어느 한 조항의 방법에서, 변동성을 결정하는 것은 평균, 모멘트, 편포도, 표준 편차, 분산, 첨도 또는 공분산 중 하나 이상을 포함하는 하나 이상의 통계 품질 지표로 변동성을 정량화하는 것을 포함한다.
50. 조항 35 내지 49 중 어느 한 조항의 방법에서, 기계 학습 모델의 불확실성은 기계 학습 모델의 하나 이상의 매개변수의 가중치의 불확실성, 및 기계 학습 모델과 연관된 잠재 공간의 크기와 표현과 관련된다.
51. 조항 35 내지 50 중 어느 한 조항의 방법에서, 기계 학습 모델의 불확실성을 감소시키기 위해 기계 학습 모델을 조정하는 것은 트레이닝 세트 크기를 증가시키는 것 및/또는 기계 학습 모델과 연관된 잠재 공간의 차원수를 추가하는 것을 포함한다
52. 조항 51의 방법에서, 트레이닝 세트 크기를 증가시키는 것 및/또는 잠재 공간의 차원수를 추가하는 것은 기계 학습 모델을 트레이닝하기 위한 입력으로서 이전 트레이닝 자료에 관하여 더 다양한 이미지, 더 다양한 데이터 및 부가적인 클립을 사용하는 것; 및 벡터를 인코딩하기 위한 더 많은 치수 및 기계 학습 모델 내의 더 많은 인코딩 계층을 사용하는 것을 포함한다.
53. 조항 35 내지 52 중 어느 한 조항의 방법에서, 기계 학습 모델의 불확실성을 감소시키기 위하여 기계 학습 모델을 조정하기 위해 예측된 다중 사후 분포 내의 결정된 변동성을 이용하는 것은 기계 학습 모델과 연관된 잠재 공간에 부가적인 차원수를 추가하는 것을 포함한다.
54. 조항 35 내지 53 중 어느 한 조항의 방법에서, 기계 학습 모델의 불확실성을 감소시키기 위하여 기계 학습 모델의 하나 이상의 매개변수를 조정하기 위해 예측된 다중 사후 분포 내의 결정된 변동성을 이용하는 것은 기계 학습 모델을 부가적이고 더 다양한 트레이닝 샘플로 트레이닝하는 것을 포함한다.
55. 매개변수화된 모델 예측 내의 불확실성을 정량화하는 방법으로서, 본 방법은:
매개변수화된 모델이 주어진 입력에 대해 매개변수화된 모델로부터 다중 사후 분포를 예측하도록 하는 것-다중 사후 분포는 분포들 중 분포를 포함함-;
분포들 중 분포로부터 샘플링함으로써, 주어진 입력에 대한 예측된 다중 사후 분포의 변동성을 결정하는 것; 및
예측된 다중 사후 분포 내의 결정된 변동성을 이용하여 매개변수화된 모델 예측 내의 불확실성을 정량화하는 것을 포함한다.
56. 조항 55의 방법에서, 매개변수화된 모델은 기계 학습 모델이다.
57. 조항 55 또는 56의 방법에서, 매개변수화된 모델이 다중 사후 분포를 예측하도록 하는 것은 매개변수화된 모델이 매개변수 드롭아웃을 이용하여 분포들 중 분포를 생성하도록 하는 것을 포함한다.
58. 조항 55 내지 57 중 어느 한 조항의 방법에서,
매개변수화된 모델이 주어진 입력에 대해 매개변수화된 모델로부터 다중 사후 분포를 예측하도록 하는 것은 매개변수화된 모델이 제1 사후 분포(PΘ(z|x))에 대응하는 제1 다중 사후 분포 세트 및 제2 사후 분포(Pφ(y|z))에 대응하는 제2 다중 사후 분포 세트를 예측하도록 하는 것을 포함하며;
분포들 중 분포로부터 샘플링함으로써, 주어진 입력에 대한 예측된 다중 사후 분포의 변동성을 결정하는 것은 제1 및 제2 세트에 대한 분포들 중 분포로부터 샘플링함으로써, 주어진 입력에 대한 제1 및 제2 예측된 다중 사후 분포 세트의 변동성을 결정하는 것을 포함하며; 그리고
예측된 다중 사후 분포 내의 결정된 변동성을 이용하여 매개변수화된 모델 예측 내의 불확실성을 정량화하는 것은 제1 및 제2 예측된 다중 사후 분포 세트 내의 결정된 변동성을 이용하여 매개변수화된 모델 예측 내의 불확실성을 정량화하는 것을 포함한다.
59. 조항 55 내지 58 중 어느 한 조항의 방법에서, 주어진 입력은 이미지, 클립(clip), 인코딩된 이미지, 인코딩된 클립 또는 매개변수화된 모델의 선행 계층으로부터의 데이터 중 하나 이상을 포함한다.
60. 조항 55 내지 59 중 어느 한 조항의 방법은 매개변수화된 모델을 더 서술적으로 하거나 더 다양한 트레이닝 데이터를 포함시킴으로써 매개변수화된 모델의 불확실성을 감소시키기 위하여 매개변수화된 모델을 조정하기 위해 예측된 다중 사후 분포 내의 결정된 변동성 및/또는 정량화된 불확실성을 이용하는 것을 더 포함한다.
61. 조항 55 내지 60 중 어느 한 조항의 방법에서, 매개변수화된 모델은 인코더-디코더 아키텍처를 포함한다.
62. 조항 61의 방법에서, 인코더-디코더 아키텍처는 변분 인코더-디코더 아키텍처를 포함하며, 본 방법은 출력 공간에서 실현을 생성하는 확률적 잠재 공간으로 변분 인코더-엔코더 아키텍처를 트레이닝하는 것을 더 포함한다.
63. 조항 62의 방법에서, 잠재 공간은 저차원 인코딩을 포함한다.
64. 조항 63의 방법은 에서, 주어진 입력에 대해 인코더-디코더 아키텍처의 인코더부를 이용하여 잠재 변수의 조건부 확률을 결정하는 것을 더 포함한다.
65. 조항 64의 방법은 인코더-디코더 아키텍처의 디코더부를 이용하여 조건부 확률을 결정하는 것을 더 포함한다.
66. 조항 65의 방법은 인코더-디코더 아키텍처의 인코더부를 이용하여 결정된 잠재 변수의 조건부 확률로부터 샘플링하는 것과, 각 샘플에 대해, 인코더-디코더 아키텍처의 디코더부를 이용하여 출력을 예측하는 것을 더 포함한다.
67. 조항 55의 방법에서, 샘플링은 분포들 중 분포로부터 분포를 무작위로 선택하는 것을 포함하며, 샘플링은 가우시안 또는 비-가우시안이다.
68. 조항 67의 방법에서, 변동성을 결정하는 것은 평균, 모멘트, 편포도, 표준 편차, 분산, 첨도 또는 공분산 중 하나 이상을 포함하는 하나 이상의 통계 품질 지표로 변동성을 정량화하는 것을 포함한다.
69. 조항 62 내지 68 중 어느 한 조항의 방법에서, 매개변수화된 모델의 불확실성은 매개변수화된 모델의 매개변수의 가중치의 불확실성 및 잠재 공간의 크기와 표현과 관련이 있다.
70. 조항 69의 방법에서, 매개변수화된 모델의 불확실성은 매개변수화된 모델의 매개변수의 가중치의 불확실성 및 잠재 공간의 크기와 표현과 관련되어 가중치의 불확실성은 출력의 불확실성으로 나타나 증가된 출력 분산을 야기한다.
71. 조항 60 내지 70 중 어느 한 조항의 방법에서, 매개변수화된 모델의 불확실성을 감소시키기 위하여 매개변수화된 모델을 조정하기 위해 예측된 다중 사후 분포 내의 결정된 변동성을 이용하는 것은 트레이닝 세트 크기를 증가시키고 및/또는 잠재 공간의 차원수를 추가하는 것을 포함한다.
72. 조항 71의 방법에서, 트레이닝 세트 크기를 증가시키는 것 및/또는 잠재 공간의 차원수를 추가하는 것은 매개변수화된 모델을 트레이닝하기 위한 입력으로서 이전 트레이닝 자료에 관하여 더 다양한 이미지, 더 다양한 데이터 및 부가적인 클립을 사용하는 것; 및 벡터를 인코딩하기 위한 더 많은 치수 및 매개변수화된 모델 내의 더 많은 인코딩 계층을 사용하는 것을 포함한다.
73. 조항 62 내지 72 중 어느 한 조항의 방법에서, 매개변수화된 모델의 불확실성을 감소시키기 위하여 매개변수화된 모델을 조정하기 위해 예측된 다중 사후 분포 내의 결정된 변동성을 이용하는 것은 잠재 공간에 부가적인 차원수를 추가하는 것을 포함한다.
74. 조항 60 내지 73 중 어느 한 조항의 방법에서, 매개변수화된 모델의 불확실성을 감소시키기 위하여 매개변수화된 모델을 조정하기 위해 예측된 다중 사후 분포 내의 결정된 변동성을 이용하는 것은 매개변수화된 모델을 부가적이고 더 다양한 트레이닝 샘플로 트레이닝하는 것을 포함한다.
75. 조항 74의 방법에서, 부가적이고 더 다양한 트레이닝 샘플은 이전 트레이닝 자료에 관하여 더 다양한 이미지, 더 다양한 데이터 및 부가적인 클립을 포함한다.
76. 조항 60 내지 75 중 어느 한 조항의 방법은 반도체 제조 공정의 일부로서 웨이퍼 기하학적 구조를 예측하기 위하여 매개변수화된 모델의 불확실성을 감소시키기 위해 매개변수화된 모델을 조정하도록 예측된 다중 사후 분포 내의 결정된 변동성을 이용하는 것을 더 포함한다.
77. 조항 76의 방법에서, 반도체 제조 공정의 일부로서 웨이퍼 기하학적 구조를 예측하기 위하여 매개변수화된 모델의 불확실성을 감소시키기 위해 매개변수화된 모델을 조정하도록 예측된 다중 사후 분포 내의 결정된 변동성을 이용하는 것은 매개변수화된 모델을 트레이닝하기 위한 입력으로서 이전 트레이닝 자료에 관하여 더 다양한 이미지, 더 다양한 데이터 및 부가적인 클립을 이용하는 것; 및 벡터를 인코딩하기 위한 더 많은 치수, 매개변수화된 모델 내의 더 많은 인코딩 계층, 더 다양한 이미지, 더 다양한 데이터, 부가적인 클립, 더 많은 치수 및 결정된 변동성을 기반으로 결정된 더 많은 인코딩 계층을 사용하는 것을 포함한다.
78. 조항 60 내지 77 중 어느 한 조항의 방법은 반도체 제조 공정의 일부로서 예측된 오버레이를 생성하기 위하여 매개변수화된 모델의 불확실성을 감소시키기 위해 매개변수화된 모델을 조정하도록 예측된 다중 사후 분포 내의 결정된 변동성을 이용하는 것을 더 포함한다.
79. 조항 78의 방법에서, 반도체 제조 공정의 일부로서 예측된 오버레이를 생성하기 위하여 매개변수화된 모델의 불확실성을 감소시키기 위해 매개변수화된 모델을 조정하도록 예측된 다중 사후 분포 내의 결정된 변동성을 이용하는 것은 매개변수화된 모델을 트레이닝하기 위한 입력으로서 이전 트레이닝 자료에 관하여 더 다양한 이미지, 더 다양한 데이터 및 부가적인 클립을 이용하는 것; 및 벡터를 인코딩하기 위한 더 많은 치수, 매개변수화된 모델 내의 더 많은 인코딩 계층, 더 다양한 이미지, 더 다양한 데이터, 부가적인 클립, 더 많은 치수 및 결정된 변동성을 기반으로 결정된 더 많은 인코딩 계층을 사용하는 것을 포함한다.
80. 컴퓨터 프로그램 제품은 명령어가 기록된 비일시적 컴퓨터 판독 가능한 매체를 포함하며, 명령어는 컴퓨터에 의하여 실행될 때 조항 35 내지 79 중 어느 한 조항의 방법을 구현한다.
본 명세서에 개시된 개념은 서브 파장 특징을 이미징하기 위하여 임의의 일반적인 이미징 시스템을 시뮬레이션하거나 수학적으로 모델링할 수 있으며, 점점 더 짧은 파장을 생성할 수 있는 새로운 이미징 기술에 특히 유용할 수 있다. 이미 사용되고 있는 새로운 기술은 EUV(극자외선), ArF 레이저를 이용하여 193㎚ 파장을 생성할 수 있는 DUV 리소그래피, 및 불소 레이저를 사용하여 157㎚ 파장까지도 사용할 수 있다. 또한, EUV 리소그래피는 20 내지 5㎚ 범위 내에서 광자를 생성하기 위하여 싱크로트론을 사용함으로써 또는 고에너지 전자로 물질(고체 또는 플라즈마)을 타격함으로써 상기 범위의 파장을 생성할 수 있다.
본 명세서에 개시된 개념은 실리콘 웨이퍼와 같은 기판 상의 이미징을 위하여 사용될 수 있지만, 개시된 개념은 임의의 유형의 리소그래피 이미징 시스템, 예를 들어 실리콘 웨이퍼 이외의 기판 상의 이미징을 위하여 사용되는 시스템과 함께 사용될 수 있다는 점이 이해될 것이다. 또한, 개시된 요소들의 조합 및 서브-조합은 별도의 실시예를 포함할 수 있다. 예를 들어, 기계 학습 모델의 변동성을 결정하는 것은 모델에 의해 만들어진 개별 예측의 변동성 및/또는 모델에 의해 생성된 샘플링된 사후 분포의 세트의 변동성을 결정하는 것을 포함할 수 있다. 이 특징들은 별도의 실시예를 포함할 수 있으며 및/또는 이 특징들은 동일한 실시예에서 함께 사용될 수 있다.
위의 설명은 제한이 아닌, 예시를 위한 것이다. 따라서, 아래에 제시된 청구범위의 범위를 벗어남이 없이 설명된 바와 같이 변형이 이루어질 수 있다는 것이 당 업자에게 명백할 것이다.

Claims (15)

  1. 매개변수화된 모델 예측 내의 불확실성을 정량화하는 방법에 있어서,
    매개변수화된 모델이 주어진 입력에 대해 상기 매개변수화된 모델로부터 다중 사후 분포를 예측하도록 하는 것 - 상기 다중 사후 분포는 분포들 중 분포를 포함함 - ;
    분포들 중 상기 분포로부터 샘플링함으로써, 주어진 입력에 대한 상기 예측된 다중 사후 분포의 변동성을 결정하는 것; 및
    상기 예측된 다중 사후 분포 내의 상기 결정된 변동성을 이용하여 상기 매개변수화된 모델 예측 내의 불확실성을 정량화하는 것을 포함하는 방법.
  2. 제1항에 있어서,
    상기 매개변수화된 모델은 기계 학습 모델인 방법.
  3. 제1항에 있어서,
    상기 매개변수화된 모델이 상기 다중 사후 분포를 예측하도록 하는 것은 상기 매개변수화된 모델이 매개변수 드롭아웃을 이용하여 분포들 중 분포를 생성하도록 하는 것을 포함하는 방법.
  4. 제1항에 있어서,
    상기 매개변수화된 모델이 주어진 입력에 대해 상기 매개변수화된 모델로부터 상기 다중 사후 분포를 예측하도록 하는 것은 상기 매개변수화된 모델이 제1 사후 분포(PΘ(z|x))에 대응하는 제1 다중 사후 분포 세트 및 제2 사후 분포(Pφ(y|z))에 대응하는 제2 다중 사후 분포 세트를 예측하도록 하는 것을 포함하며;
    분포들 중 상기 분포로부터 샘플링함으로써 상기 주어진 입력에 대한 상기 예측된 다중 사후 분포의 변동성을 결정하는 것은 상기 제1 및 제2 세트에 대한 분포들 중 분포로부터 샘플링함으로써 상기 주어진 입력에 대한 상기 제1 및 제2 세트의 예측된 다중 사후 분포의 상기 변동성을 결정하는 것을 포함하고; 및
    상기 예측된 다중 사후 분포 내의 상기 결정된 변동성을 이용하여 상기 매개변수화된 모델 예측 내의 상기 불확실성을 정량화하는 것은 상기 제1 및 제2 세트의 예측된 다중 사후 분포 내의 상기 결정된 변동성을 이용하여 상기 매개변수화된 모델 예측 내의 상기 불확실성을 정량화하는 것을 포함하는 방법.
  5. 제1항에 있어서,
    상기 주어진 입력은 이미지, 클립(clip), 인코딩된 이미지, 인코딩된 클립 또는 상기 매개변수화된 모델의 선행 계층으로부터의 데이터 중 하나 이상을 포함하는 방법.
  6. 제1항에 있어서,
    상기 매개변수화된 모델을 더 서술적으로 하거나 더 다양한 트레이닝 데이터를 포함시킴으로써 상기 매개변수화된 모델의 상기 불확실성을 감소시키기 위하여 상기 매개변수화된 모델을 조정하기 위해 상기 예측된 다중 사후 분포 내의 상기 결정된 변동성 및/또는 상기 정량화된 불확실성을 이용하는 것을 더 포함하는 방법.
  7. 제1항에 있어서,
    상기 매개변수화돤 모델은 인코더-디코더 아키텍처를 포함하는 방법.
  8. 제7항에 있어서,
    상기 인코더-디코더 아키텍처는 변분 인코더-디코더 아키텍처를 포함하며, 상기 방법은 출력 공간에서 실현을 생성하는 확률적 잠재 공간으로 상기 변분 인코더-엔코더 아키텍처를 트레이닝하는 것을 더 포함하는 방법.
  9. 제8항에 있어서,
    상기 잠재 공간은 저차원 인코딩을 포함하는 방법.
  10. 제9항에 있어서,
    상기 주어진 입력에 대해 상기 인코더-디코더 아키텍처의 인코더부를 이용하여 잠재 변수의 조건부 확률을 결정하는 것을 더 포함하는 방법.
  11. 제10항에 있어서,
    상기 인코더-디코더 아키텍처의 디코더부를 이용하여 조건부 확률을 결정하는 것을 더 포함하는 방법.
  12. 제1항에 있어서,
    샘플링은 분포들 중 분포로부터 분포를 무작위로 선택하는 것을 포함하며, 상기 샘플링은 가우시안 또는 비-가우시안인 방법.
  13. 제8항에 있어서,
    상기 매개변수화된 모델의 상기 불확실성은 상기 매개변수화된 모델의 매개변수의 가중치의 불확실성 및 상기 잠재 공간의 크기와 표현(descriptiveness)에 관한 것인 방법.
  14. 제8항에 있어서,
    상기 매개변수화된 모델의 불확실성을 감소시키기 위하여 상기 매개변수화된 모델을 조정하기 위해 상기 예측된 다중 사후 분포 내의 상기 결정된 변동성을 이용하는 것은:
    트레이닝 세트 크기를 증가시키는 것 및/또는 상기 잠재 공간의 차원수를 추가하는 것;
    상기 잠재 공간에 부가적인 차원수를 추가하는 것; 또는
    부가적인 그리고 더 다양한 트레이닝 샘플로 상기 매개변수화된 모델을 트레이닝하는 것을 포함하는 방법.
  15. 기록된 명령어를 갖는 비-일시적 컴퓨터 독출 가능한 매체를 포함하며, 상기 명령어는 컴퓨터에 의하여 실행될 때 제1항의 방법을 수행하는 컴퓨터 프로그램 제품.
KR1020217016534A 2018-11-30 2019-11-19 기계 학습 모델 예측 내의 불확실성을 감소시키기 위한 방법. KR20210082247A (ko)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
EP18209496.1 2018-11-30
EP18209496.1A EP3660744A1 (en) 2018-11-30 2018-11-30 Method for decreasing uncertainty in machine learning model predictions
EP19182658.5 2019-06-26
EP19182658 2019-06-26
PCT/EP2019/081774 WO2020109074A1 (en) 2018-11-30 2019-11-19 Method for decreasing uncertainty in machine learning model predictions

Publications (1)

Publication Number Publication Date
KR20210082247A true KR20210082247A (ko) 2021-07-02

Family

ID=68621292

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020217016534A KR20210082247A (ko) 2018-11-30 2019-11-19 기계 학습 모델 예측 내의 불확실성을 감소시키기 위한 방법.

Country Status (6)

Country Link
US (1) US20210286270A1 (ko)
JP (1) JP7209835B2 (ko)
KR (1) KR20210082247A (ko)
CN (1) CN113168556A (ko)
TW (1) TWI757663B (ko)
WO (1) WO2020109074A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102616364B1 (ko) * 2023-05-30 2023-12-21 국방과학연구소 신경망을 이용한 동역학 학습 모델의 불확실성 완화 시스템 및 방법

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8977255B2 (en) 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
US8676904B2 (en) 2008-10-02 2014-03-18 Apple Inc. Electronic devices with voice command and contextual data processing capabilities
KR102516577B1 (ko) 2013-02-07 2023-04-03 애플 인크. 디지털 어시스턴트를 위한 음성 트리거
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
US10460227B2 (en) 2015-05-15 2019-10-29 Apple Inc. Virtual assistant in a communication session
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
DK201770427A1 (en) 2017-05-12 2018-12-20 Apple Inc. LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT
US10928918B2 (en) 2018-05-07 2021-02-23 Apple Inc. Raise to speak
DK180639B1 (en) 2018-06-01 2021-11-04 Apple Inc DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT
US11462215B2 (en) 2018-09-28 2022-10-04 Apple Inc. Multi-modal inputs for voice commands
US11348573B2 (en) 2019-03-18 2022-05-31 Apple Inc. Multimodality in digital assistant systems
WO2020207632A1 (en) * 2019-04-10 2020-10-15 Asml Netherlands B.V. A method and system for determining overlay
US11496600B2 (en) * 2019-05-31 2022-11-08 Apple Inc. Remote execution of machine-learned models
US11227599B2 (en) 2019-06-01 2022-01-18 Apple Inc. Methods and user interfaces for voice-based control of electronic devices
EP4144087A1 (en) 2020-04-29 2023-03-08 Deep Render Ltd Image compression and decoding, video compression and decoding: methods and systems
US11490273B2 (en) * 2020-04-30 2022-11-01 ANDRO Computational Solutions, LLC Transceiver with machine learning for generation of communication parameters and cognitive resource allocation
US11061543B1 (en) 2020-05-11 2021-07-13 Apple Inc. Providing relevant data items based on context
US11967058B2 (en) 2020-06-24 2024-04-23 Kla Corporation Semiconductor overlay measurements using machine learning
US11490204B2 (en) 2020-07-20 2022-11-01 Apple Inc. Multi-device audio adjustment coordination
US11438683B2 (en) 2020-07-21 2022-09-06 Apple Inc. User identification using headphones
US20220229371A1 (en) * 2021-01-15 2022-07-21 Taiwan Semiconductor Manufacturing Co., Ltd. System and method for monitoring and controlling extreme ultraviolet photolithography processes
WO2022185380A1 (ja) * 2021-03-01 2022-09-09 株式会社日立ハイテク 実験ポイント推薦装置、実験ポイント推薦方法及び半導体装置製造システム
JP2022141065A (ja) * 2021-03-15 2022-09-29 オムロン株式会社 検査システム、検査管理装置、検査プログラム作成方法、及びプログラム
US11599794B1 (en) * 2021-10-20 2023-03-07 Moffett International Co., Limited System and method for training sample generator with few-shot learning
US20230153727A1 (en) * 2021-11-12 2023-05-18 Mckinsey & Company, Inc. Systems and methods for identifying uncertainty in a risk model
US11966869B2 (en) * 2021-11-12 2024-04-23 Mckinsey & Company, Inc. Systems and methods for simulating qualitative assumptions

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5229872A (en) 1992-01-21 1993-07-20 Hughes Aircraft Company Exposure device including an electrically aligned electronic mask for micropatterning
WO1997033205A1 (en) 1996-03-06 1997-09-12 Philips Electronics N.V. Differential interferometer system and lithographic step-and-scan apparatus provided with such a system
JP4806020B2 (ja) 2005-08-08 2011-11-02 エーエスエムエル ネザーランズ ビー.ブイ. リソグラフィプロセスのフォーカス露光モデルを作成するための方法、公称条件で使用するためのリソグラフィプロセスの単一のモデルを作成するための方法、およびコンピュータ読取可能媒体
US7695876B2 (en) 2005-08-31 2010-04-13 Brion Technologies, Inc. Method for identifying and using process window signature patterns for lithography process control
US7587704B2 (en) 2005-09-09 2009-09-08 Brion Technologies, Inc. System and method for mask verification using an individual mask error model
US7694267B1 (en) 2006-02-03 2010-04-06 Brion Technologies, Inc. Method for process window optimized optical proximity correction
US7882480B2 (en) 2007-06-04 2011-02-01 Asml Netherlands B.V. System and method for model-based sub-resolution assist feature generation
US7707538B2 (en) 2007-06-15 2010-04-27 Brion Technologies, Inc. Multivariable solver for optical proximity correction
US20090157630A1 (en) 2007-10-26 2009-06-18 Max Yuan Method of extracting data and recommending and generating visual displays
NL1036189A1 (nl) 2007-12-05 2009-06-08 Brion Tech Inc Methods and System for Lithography Process Window Simulation.
NL2003699A (en) 2008-12-18 2010-06-21 Brion Tech Inc Method and system for lithography process-window-maximixing optical proximity correction.
US10776712B2 (en) * 2015-12-02 2020-09-15 Preferred Networks, Inc. Generative machine learning systems for drug design
EP3336608A1 (en) * 2016-12-16 2018-06-20 ASML Netherlands B.V. Method and apparatus for image analysis
JP6704341B2 (ja) * 2016-12-27 2020-06-03 株式会社デンソーアイティーラボラトリ 情報推定装置及び情報推定方法
US20180341876A1 (en) * 2017-05-25 2018-11-29 Hitachi, Ltd. Deep learning network architecture optimization for uncertainty estimation in regression

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102616364B1 (ko) * 2023-05-30 2023-12-21 국방과학연구소 신경망을 이용한 동역학 학습 모델의 불확실성 완화 시스템 및 방법

Also Published As

Publication number Publication date
WO2020109074A1 (en) 2020-06-04
JP7209835B2 (ja) 2023-01-20
CN113168556A (zh) 2021-07-23
JP2022510591A (ja) 2022-01-27
TW202036387A (zh) 2020-10-01
TWI757663B (zh) 2022-03-11
US20210286270A1 (en) 2021-09-16

Similar Documents

Publication Publication Date Title
TWI757663B (zh) 降低於機器學習模型預測中之不確定性之方法
KR102304331B1 (ko) 기계 학습에 의해 공정 모델들을 결정하는 방법들
CN114096917B (zh) 用于减小模型预测不确定性的模型校准的预测数据选择
KR20210010897A (ko) 기계 학습 기반 역 광 근접 보정 및 공정 모델 캘리브레이션
TWI757855B (zh) 用於在參數化模型預測中提高確定性的方法
CN113678064B (zh) 用于在设施位置之间调整预测模型的***和方法
EP3789923A1 (en) Method for increasing certainty in parameterized model predictions
CN116057466A (zh) 用于选择信息模式以训练机器学习模型的设备和方法
KR102323989B1 (ko) 패터닝 디바이스 상의 유한한 두께들의 구조체들에 의한 방사선의 산란을 결정하는 방법들
EP3742229A1 (en) Systems and methods for adjusting prediction models between facility locations
EP3531206A1 (en) Systems and methods for improving resist model predictions
TW202307722A (zh) 蝕刻系統、模型、及製造程序
EP3660744A1 (en) Method for decreasing uncertainty in machine learning model predictions
CN118265950A (en) Simulation model stability determining method
CN118235087A (zh) 基于蚀刻偏差方向确定蚀刻效果
KR20230010686A (ko) 수차 영향 시스템, 모델, 및 제조 프로세스
CN118235094A (zh) 生成用于训练机器学习模型以保持物理趋势的增强数据

Legal Events

Date Code Title Description
E902 Notification of reason for refusal