JP2022027473A - 半導体試料の検査に使用可能な訓練データの生成 - Google Patents

半導体試料の検査に使用可能な訓練データの生成 Download PDF

Info

Publication number
JP2022027473A
JP2022027473A JP2021095076A JP2021095076A JP2022027473A JP 2022027473 A JP2022027473 A JP 2022027473A JP 2021095076 A JP2021095076 A JP 2021095076A JP 2021095076 A JP2021095076 A JP 2021095076A JP 2022027473 A JP2022027473 A JP 2022027473A
Authority
JP
Japan
Prior art keywords
feature
training
pixel
training image
label
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021095076A
Other languages
English (en)
Other versions
JP2022027473A5 (ja
Inventor
ステイマン マタン
Steiman Matan
エルカヤム シャロム
Elkayam Shalom
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Applied Materials Israel Ltd
Original Assignee
Applied Materials Israel Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Applied Materials Israel Ltd filed Critical Applied Materials Israel Ltd
Publication of JP2022027473A publication Critical patent/JP2022027473A/ja
Publication of JP2022027473A5 publication Critical patent/JP2022027473A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/0008Industrial image inspection checking presence/absence
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/95Investigating the presence of flaws or contamination characterised by the material or shape of the object to be examined
    • G01N21/9501Semiconductor wafers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01RMEASURING ELECTRIC VARIABLES; MEASURING MAGNETIC VARIABLES
    • G01R31/00Arrangements for testing electric properties; Arrangements for locating electric faults; Arrangements for electrical testing characterised by what is being tested not provided for elsewhere
    • G01R31/26Testing of individual semiconductor devices
    • G01R31/2601Apparatus or methods therefor
    • G01R31/2603Apparatus or methods therefor for curve tracing of semiconductor characteristics, e.g. on oscilloscope
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/18Complex mathematical operations for evaluating statistical data, e.g. average values, frequency distributions, probability functions, regression analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • G06N5/022Knowledge engineering; Knowledge acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10056Microscopic image
    • G06T2207/10061Microscopic image from scanning electron microscope
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30148Semiconductor; IC; Wafer

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Medical Informatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Quality & Reliability (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Databases & Information Systems (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Algebra (AREA)
  • Operations Research (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

【課題】半導体試料の検査に使用可能なディープニューラルネットワークを訓練するための訓練データを生成するシステムおよび方法を提供すること。【解決手段】本方法は、第1の訓練画像、および各セグメントにおいて選択されたピクセル群にそれぞれ関連付けられた第1のラベルを取得するステップと、第1の訓練画像を特徴付ける特徴のセットを抽出するステップと、第1のラベル、ピクセル群の値、およびピクセル群に対応する特徴のセットのそれぞれの特徴値を使用して機械学習(ML)モデルを訓練するステップと、訓練されたMLモデルを使用して第1の訓練画像を処理して第1のセグメンテーションマップを取得するステップと、基準が満たされると、第1の訓練画像および第1のセグメンテーションマップをDNN訓練データに含め、基準が満たされないと、第2の特徴の抽出、訓練、および処理を繰り返すことを決定するステップと、を含む。【選択図】図2A

Description

本開示の主題は、一般に、半導体試料の検査の分野に関し、より詳細には、試料の検査に使用可能な訓練データの生成に関する。
製造されたデバイスの超大規模集積化に関連付けられた高密度および高性能に対する現在の要求は、サブミクロンの特徴、トランジスタと回路速度の向上、および信頼性の改善を必要としている。半導体プロセスが進歩するにつれて、線幅などのパターン寸法および他のタイプの限界寸法が継続的に縮小されている。このような要求は、高精度かつ均一性を有するデバイス特徴の形成を必要としており、これには、デバイスがまだ半導体ウエハの形態である間にデバイスを自動検査することを含む製造プロセスの注意深いモニタリングが必要である。
非限定的な例として、ランタイム検査は、2段階手順、例えば、試料の検査とそれに続く潜在的な欠陥のサンプリングされた位置のレビューを用いることができる。検査は、一般に、光または電子をウエハに向け、ウエハからの光または電子を検出することによって、試料について特定の出力(例えば、画像、信号など)を生成することを含む。第1段階中に、試料の表面が高速かつ比較的低解像度で検査される。欠陥検出は、典型的には、欠陥検出アルゴリズムを検査出力に適用することによって実行される。欠陥マップは、欠陥の可能性が高い試料上の疑わしい位置を示すために生成される。ほとんどの場合、検査の目的は、ウエハ上のニューサンスおよびノイズの検出を抑制しながら、高い感度を提供して注目する欠陥を検出することである。第2段階中に、疑わしい位置の少なくとも一部が比較的高い解像度でより徹底的に分析される。両方の段階を同じ検査ツールで実施することができる場合もあれば、これらの2つの段階を異なる検査ツールで実施する場合もある。
検査プロセスは、複数の検査ステップを含むことができる。製造プロセス中に、例えば特定の層の製造または処理の後などに、検査ステップを複数回実行することができる。追加的または代替的に、各検査ステップは、例えば、異なるウエハ位置に対してまたは異なる検査設定で同じウエハ位置に対して複数回繰り返すことができる。
検査プロセスは、半導体製造中の様々なステップで使用されて、試料上の欠陥を検出および分類するとともに計測関連の動作を実行する。検査の有効性は、例えば、欠陥検出、自動欠陥分類(ADC)、自動欠陥レビュー(ADR)、画像セグメンテーション、自動計測関連の動作などのプロセスの自動化によって高めることができる。
本開示の主題の特定の態様によると、半導体試料の検査に使用可能なディープニューラルネットワークを訓練するための訓練データ(DNN訓練データ)を生成するコンピュータ化されたシステムが提供され、本システムは、半導体試料の少なくとも一部を表す第1の訓練画像、および第1の訓練画像からユーザによって識別された1つまたは複数のセグメントのそれぞれにおいて選択されたピクセル群にそれぞれ関連付けられた第1のラベルを取得することと、第1の訓練画像を特徴付ける特徴のセットを抽出することであって、各特徴が第1の訓練画像内のピクセルに対応する特徴値を有し、特徴のセットが、第1の訓練画像内の1つまたは複数のセグメント間のコンテキスト関係の情報を与える第1の特徴、および各セグメント内のピクセル群の統計的尺度に対する、第1の訓練画像内のピクセル分布の情報を与える第2の特徴を含む、抽出することと、第1のラベル、第1のラベルに関連付けられた各セグメントにおいて選択されたピクセル群の値、および各セグメント内のピクセル群に対応する特徴のセットの各特徴の特徴値を使用して機械学習(ML)モデルを訓練することであって、MLモデルが画像セグメンテーションのために訓練される、訓練することと、訓練されたMLモデルを使用して第1の訓練画像を処理して、第1の訓練画像内のそれぞれのピクセルに関連付けられた予測ラベルの情報を与える第1のセグメンテーションマップを取得することであって、各予測ラベルが、それぞれのピクセルが属するセグメントを示す、取得することと、基準が満たされると、第1の訓練画像および第1のセグメンテーションマップを含む第1の訓練サンプルをDNN訓練データに含め、基準が満たされないと、第2の特徴の抽出、訓練、および処理を繰り返すことを決定することと、を行うように構成されたプロセッサおよびメモリ回路(PMC)を備える。
上記の特徴に加えて、本開示の主題のこの態様による本システムは、以下に列挙される特徴(i)~(xi)のうちの1つまたは複数を、技術的に可能な任意の所望の組合せまたは順列で含むことができる。
(i)訓練データは、ランタイム画像に基づいて、自動セグメンテーション、自動計測、自動欠陥検出、自動欠陥レビュー、および自動欠陥分類を含む群から選択された少なくとも1つの検査プロセスのためのディープニューラルネットワーク(DNN)を訓練するために使用可能とすることができる。
(ii)基準は、第1のセグメンテーションマップに対するユーザフィードバックに基づいており、PMCは、第1のセグメンテーションマップに対する否定的なユーザフィードバックを受信すると、セグメントのうちの少なくとも1つにおいて追加のピクセル群に関連付けられた追加の第1のラベルを取得することであって、第1のラベルおよび追加の第1のラベルが集約されたラベルデータを構成する、取得することと、肯定的なユーザフィードバックを受信するまで、集約されたラベルデータに基づいて、第2の特徴の抽出、訓練、および処理を繰り返すことと、を行うように構成されている。
(iii)PMCは、第1のセグメンテーションマップに対する肯定的なユーザフィードバックを受信すると、第1の訓練サンプルを訓練データに含めるように構成されている。
(iv)PMCは、第2の訓練画像と、第2の訓練画像からユーザによって識別された1つまたは複数のセグメントのそれぞれにおいて選択されたピクセル群にそれぞれ関連付けられた第2のラベルであって、集約されたラベルデータに追加される第2のラベルと、を取得し、第2の訓練画像を特徴付け、第1の特徴および第2の特徴を含む特徴のセットを抽出し、集約されたラベルデータ、集約されたラベルデータに関連付けられたピクセルの値、および集約されたラベルデータに関連付けられたピクセルに対応する特徴のセットの各特徴の特徴値を使用してMLモデルを訓練し、第2の訓練画像に基づいて処理および決定を実行するようにさらに構成されている。
(v)1つまたは複数のセグメントのうちの少なくとも1つは、第1の訓練画像内に提示された1つまたは複数の構造要素に対応する。
(vi)第1の特徴は、フィルタのセットを用いて第1の訓練画像を処理し、それぞれが第1の訓練画像のそれぞれのピクセルに対応する特徴応答値を含む特徴応答のセットを生じさせることであって、各ピクセルがその特徴応答値のセットを含むベクトルに対応する、生じさせることと、第1の訓練画像内のピクセルに対応する特徴ベクトルを複数のクラスタにクラスタ化することと、各ピクセルに対して、その特徴ベクトルが属するクラスタに従って特徴値を割り当て、第1の訓練画像のピクセルに対応する特徴値を含む特徴マップを生じさせることであって、特徴マップがそれぞれの特徴値に対応する複数のチャネルに分離可能である、生じさせることと、サンプリングフィルタを使用して特徴マップの各チャネルをサンプリングし、複数のサンプリングされたチャネルを有する特徴マップを生じさせることと、によって抽出されたテクスチャ特徴を含む。
(vii)第1の特徴は、第1の訓練画像のピクセル値を複数のクラスタにクラスタ化することと、各ピクセルに対して、ピクセル値が属するクラスタに従って特徴値を割り当て、それぞれの特徴値に対応する複数のチャネルに分離可能な特徴マップを生じさせることと、サンプリングフィルタを使用して特徴マップの各チャネルをサンプリングし、複数のサンプリングされたチャネルを有する特徴マップを生じさせることと、によって抽出された強度特徴をさらに含む。
(viii)フィルタのセットは、微分フィルタ、ガボールフィルタ、およびラプラシアンフィルタのうちの1つまたは複数を含む。
(ix)第2の特徴は、各セグメント内のピクセル群について統計的尺度を計算し、第1の訓練画像内の各ピクセルについて、対応する特徴値を、ピクセルの値と各セグメントの統計的尺度との間の距離として計算し、それぞれが、ピクセル値とそれぞれのセグメントの統計的尺度との間の距離に対応する特徴値を含む、1つまたは複数の特徴マップを生じさせることによって抽出される。
(x)訓練画像は、異なる視点からキャプチャされた複数のチャネルを含み、特徴のセットは、複数のチャネルから抽出される。
(xi)PMCは、DNN訓練データを使用してDNNを訓練し、画像の検証セットを使用して訓練されたDNNを検証するようにさらに構成されている。
本開示の主題の他の態様によると、試料の検査に使用可能なディープニューラルネットワークを訓練するための訓練データ(DNN訓練データ)を生成するための方法が提供され、本方法は、プロセッサおよびメモリ回路(PMC)によって実行され、半導体試料の少なくとも一部を表す第1の訓練画像、および第1の訓練画像からユーザによって識別された1つまたは複数のセグメントのそれぞれにおいて選択されたピクセル群にそれぞれ関連付けられた第1のラベルを取得するステップと、第1の訓練画像を特徴付ける特徴のセットを抽出するステップであって、各特徴が第1の訓練画像内のピクセルに対応する特徴値を有し、特徴のセットが、第1の訓練画像内の1つまたは複数のセグメント間のコンテキスト関係の情報を与える第1の特徴、および各セグメント内のピクセル群の統計的尺度に対する、第1の訓練画像内のピクセル分布の情報を与える第2の特徴を含む、ステップと、第1のラベル、第1のラベルに関連付けられた各セグメントにおいて選択されたピクセル群の値、および各セグメント内のピクセル群に対応する特徴のセットの各特徴の特徴値を使用して機械学習(ML)モデルを訓練するステップであって、MLモデルが画像セグメンテーションのために訓練される、ステップと、訓練されたMLモデルを使用して第1の訓練画像を処理して、第1の訓練画像内のそれぞれのピクセルに関連付けられた予測ラベルの情報を与える第1のセグメンテーションマップを取得するステップであって、各予測ラベルが、それぞれのピクセルが属するセグメントを示す、ステップと、基準が満たされると、第1の訓練画像および第1のセグメンテーションマップを含む第1の訓練サンプルをDNN訓練データに含め、基準が満たされないと、第2の特徴の抽出、訓練、および処理を繰り返すことを決定するステップと、を含む。
本開示の主題のこの態様は、本システムに関して上で列挙された特徴(i)~(xi)のうちの1つまたは複数を、必要な変更を加えて、技術的に可能な任意の所望の組合せまたは順列で含むことができる。
本開示の主題の他の態様によると、コンピュータによって実行されると、コンピュータに、試料の検査に使用可能なディープニューラルネットワークを訓練するための訓練データ(DNN訓練データ)を生成するための方法を実行させる命令を含む非一時的なコンピュータ可読媒体が提供され、本方法は、半導体試料の少なくとも一部を表す第1の訓練画像、および第1の訓練画像からユーザによって識別された1つまたは複数のセグメントのそれぞれにおいて選択されたピクセル群にそれぞれ関連付けられた第1のラベルを取得するステップと、第1の訓練画像を特徴付ける特徴のセットを抽出するステップであって、各特徴が第1の訓練画像内のピクセルに対応する特徴値を有し、特徴のセットが、第1の訓練画像内の1つまたは複数のセグメント間のコンテキスト関係の情報を与える第1の特徴、および各セグメント内のピクセル群の統計的尺度に対する、第1の訓練画像内のピクセル分布の情報を与える第2の特徴を含む、ステップと、第1のラベル、第1のラベルに関連付けられた各セグメントにおいて選択されたピクセル群の値、および各セグメント内のピクセル群に対応する特徴のセットの各特徴の特徴値を使用して機械学習(ML)モデルを訓練するステップであって、MLモデルが画像セグメンテーションのために訓練される、ステップと、訓練されたMLモデルを使用して第1の訓練画像を処理して、第1の訓練画像内のそれぞれのピクセルに関連付けられた予測ラベルの情報を与える第1のセグメンテーションマップを取得するステップであって、各予測ラベルが、それぞれのピクセルが属するセグメントを示す、ステップと、基準が満たされると、第1の訓練画像および第1のセグメンテーションマップを含む第1の訓練サンプルをDNN訓練データに含め、基準が満たされないと、第2の特徴の抽出、訓練、および処理を繰り返すことを決定するステップと、を含む。
本開示の主題のこの態様は、本システムに関して上で列挙された特徴(i)~(xi)のうちの1つまたは複数を、必要な変更を加えて、技術的に可能な任意の所望の組合せまたは順列で含むことができる。
本開示を理解し、本開示が実際にどのように実行され得るかを理解するために、ここで添付の図面を参照して、非限定的な例としてのみ実施形態を説明する。
本開示の主題の特定の実施形態による、検査システムの一般化されたブロック図である。 本開示の主題の特定の実施形態による、半導体試料の検査に使用可能なDNNを訓練するための訓練データを生成する一般化された流れ図である。 本開示の主題の特定の実施形態による、第1のセグメンテーションマップに対する否定的なユーザフィードバックを受信したときのDNN訓練データの生成の継続プロセスの一般化された流れ図である。 本開示の主題の特定の実施形態による、第1の訓練画像からテクスチャ特徴を抽出する一般化された流れ図である。 本開示の主題の特定の実施形態による、第1の訓練画像から統計的特徴を抽出する一般化された流れ図である。 本開示の主題の特定の実施形態による、DNNを訓練するための、生成されたDNN訓練データを使用する一般化された流れ図である。 本開示の主題の特定の実施形態による訓練画像の一例の図である。 本開示の主題の特定の実施形態による訓練画像に対する部分的なユーザ注釈の一例の図である。 本開示の主題の特定の実施形態によるテクスチャ特徴の一例および強度特徴の一例の図である。 本開示の主題の特定の実施形態による否定的なユーザフィードバックを伴うセグメンテーションマップの一例の図である。 本開示の主題の特定の実施形態によるユーザによって提供される追加の第1のラベルの一例の図である。 本開示の主題の特定の実施形態による肯定的なユーザフィードバックを伴う更新されたセグメンテーションマップの一例の図である。
以下の詳細な説明では、本開示の完全な理解を提供するために数多くの具体的な詳細が記載される。しかしながら、本開示の主題がこれらの具体的な詳細なしに実行され得ることを当業者は理解するであろう。他の事例では、本開示の主題を不明瞭にしないように、よく知られている方法、手順、構成要素、および回路は、詳細に説明されていない。
特に明記しない限り、以下の議論から明らかなように、本明細書全体を通して、「生成する」、「訓練する」、「取得する」、「抽出する」、「処理する」、「決定する」、「繰り返す」、「含む」、「受け取る」、「クラスタ化する」、「割り当てる」、「サンプリングする」、「計算する」、「使用する」、「検証する」などの用語を利用する議論は、データを操作および/または他のデータに変換するコンピュータの動作ならびに/あるいはプロセスを指し、前記データは、電子量などの物理量として表され、および/または前記データは、物理的対象を表すことが理解される。「コンピュータ」という用語は、非限定的な例として、本出願で開示される検査システム、訓練データ生成システム、およびそれらのそれぞれの一部を含む、データ処理能力を有するあらゆる種類のハードウェアベースの電子デバイスを包含するように広範に解釈されるべきである。
本明細書で使用される「検査」という用語は、あらゆる種類の計測関連の動作、ならびに製造中の試料における欠陥の検出および/または分類に関連する動作を包含するように広範に解釈されるべきである。検査は、検査される試料の製造中または製造後に非破壊検査ツールを使用することによって行われる。非限定的な例として、検査プロセスは、同じまたは異なる検査ツールを使用して、試料もしくはその一部に関して行われる(単一もしくは複数スキャンにおける)ランタイムスキャン、サンプリング、レビュー、測定、分類、および/または他の動作を含むことができる。同様に、検査は、検査される試料の製造前に行うことができ、例えば、検査方策を生成することおよび/または他のセットアップ動作を含むことができる。特に明記しない限り、本明細書で使用される「検査」という用語またはその派生語は、検査領域の解像度またはサイズに関して限定されないことに留意されたい。様々な非破壊検査ツールには、非限定的な例として、走査型電子顕微鏡、原子間力顕微鏡、光学検査ツールなどが含まれる。
本明細書で使用される「非一時的メモリ」および「非一時的ストレージ媒体」という用語は、本開示の主題に適したあらゆる揮発性または不揮発性コンピュータメモリを包含するように広範に解釈されるべきである。
本明細書で使用される「試料」という用語は、半導体集積回路、磁気ヘッド、フラットパネルディスプレイ、および他の半導体製造物品の製造に使用される、あらゆる種類のウエハ、マスク、および他の構造体、それらの組合せならびに/または一部を包含するように広範に解釈されるべきである。
本明細書で使用される「欠陥」という用語は、試料上または試料内に形成されたあらゆる種類の異常または望ましくない特徴を包含するように広範に解釈されるべきである。
本明細書で使用される「設計データ」という用語は、試料の階層的な物理設計(レイアウト)を示すあらゆるデータを包含するように広範に解釈されるべきである。設計データは、それぞれの設計者が提供することができ、および/または物理設計から(例えば、複雑なシミュレーション、単純な幾何学的演算、およびブール演算などを介して)導出することができる。設計データは、非限定的な例として、GDSIIフォーマット、OASISフォーマットなどのように異なるフォーマットで提供することができる。設計データは、ベクトルフォーマット、グレースケール強度画像フォーマットなどで表示することができる。
特に明記しない限り、別個の実施形態の文脈で説明される本開示の主題の特定の特徴は、単一の実施形態において組み合わせて提供することもできることが理解される。逆に、単一の実施形態の文脈で説明される本開示の主題の様々な特徴は、別個に、または任意の適切なサブコンビネーションで提供することもできる。以下の詳細な説明では、本方法および装置の完全な理解を提供するために、数多くの具体的な詳細が記載される。
これを念頭に置いて、本開示の主題の特定の実施形態による検査システムの機能ブロック図を示す図1に注目する。
図1に示す検査システム100は、試料製造プロセスの一部として、半導体試料(例えば、ウエハおよび/またはその一部)の検査に使用することができる。図示する検査システム100は、試料製造中に得られた画像(以降、製造プロセス(FP)画像と呼ぶ)を使用して、計測関連および/または欠陥関連情報を自動的に決定することができるコンピュータベースのシステム101を備える。本開示の主題の特定の実施形態によると、システム101は、半導体試料の検査に使用可能なディープニューラルネットワーク(DNN)を訓練するための訓練データを生成するように構成することができる。したがって、システム101は、本開示では、訓練システムまたは訓練データ生成システムとも呼ばれる。システム101は、1つまたは複数の検査ツール120に動作可能に接続することができる。検査ツール120は、FP画像をキャプチャするように、および/またはキャプチャされたFP画像をレビューするように、および/またはキャプチャされた画像に関連する測定を可能にするもしくは提供するように構成されている。
例として、FP画像は、製造プロセス中にキャプチャされた試料(例えば、ウエハまたはその一部)の画像、様々な前処理段階によって得られたキャプチャされた画像の派生物(例えば、走査型電子顕微鏡(SEM)または光学検査システムによってキャプチャされたウエハもしくはフォトマスクの一部の画像、ADCによって分類される欠陥を大まかに中心とするSEM画像、欠陥がADRによって位置特定されるより大きな領域のSEM画像、同じマスク位置に対応する異なる検査モダリティの登録画像、セグメント化された画像、高さマップ画像など)、およびコンピュータによって生成された設計データベースの画像から選択することができる。場合によっては、画像は、画像データ(例えば、キャプチャされた画像、処理された画像など)および関連付けられた数値データ(例えば、メタデータ、手作りの属性など)を含むことができることに留意されたい。画像データは、試料の注目する層および/または1つもしくは複数の他の層に関連するデータを含むことができることにさらに留意されたい。
本明細書で使用される「検査ツール」という用語は、非限定的な例として、試料もしくはその一部に関して提供される撮像、スキャン(単一または複数のスキャンにおける)、サンプリング、レビュー、測定、分類、および/または他のプロセスを含む、検査関連プロセスで使用することができるあらゆるツールを包含するように広範に解釈されるべきである。1つまたは複数の検査ツール120は、1つもしくは複数の検査ツールおよび/または1つもしくは複数のレビューツールを含むことができる。場合によっては、検査ツール120のうちの少なくとも1つは、試料(例えば、ウエハ全体、ダイ全体、またはその一部)をスキャンして、潜在的な欠陥を検出するための検査画像を(典型的には、比較的高速および/または低解像度で)キャプチャするように構成された検査ツールとすることができる。場合によっては、検査ツール120のうちの少なくとも1つは、潜在的な欠陥が本当に欠陥であるかどうかを確認するために検査ツールによって検出された欠陥のうちの少なくとも一部のレビュー画像をキャプチャするように構成されたレビューツールとすることができる。このようなレビューツールは、通常、ダイの断片を一度に1つずつ(典型的には、比較的低速および/または高解像度で)検査するように構成されている。検査ツールおよびレビューツールは、同じ場所または異なる場所に配置された異なるツール、あるいは2つの異なるモードで動作する単一のツールとすることができる。場合によっては、少なくとも1つの検査ツールは、計測能力を有し、FP画像に対して計測測定を実行するように構成することができる。
本開示の範囲を何ら限定することなく、検査ツール120は、光学撮像機、電子ビーム検査機などの様々なタイプの検査機として実装することができることにも留意されたい。場合によっては、同じ検査ツールが低解像度の画像データおよび高解像度の画像データを提供することができる。
システム101は、ハードウェアベースのI/Oインターフェース126に動作可能に接続されたプロセッサおよびメモリ回路(PMC)102を含む。PMC102は、図2Aおよび図2Bを参照してさらに詳述されるように、システムを動作させるために必要な処理を提供するように構成されており、プロセッサ(別個に図示せず)およびメモリ(別個に図示せず)を備える。PMC102のプロセッサは、PMCに含まれる非一時的なコンピュータ可読メモリに実装されたコンピュータ可読命令に従って、いくつかの機能モジュールを実行するように構成することができる。このような機能モジュールは、以降、PMCに含まれるものとして言及される。
特定の実施形態によると、PMC102に含まれる機能モジュールは、特徴抽出器104、訓練モジュール106、および機械学習モデル108を含むことができる。PMC102は、I/Oインターフェース126を介して、半導体試料の少なくとも一部を表す第1の訓練画像、および第1の訓練画像からユーザによって識別された1つまたは複数のセグメントのそれぞれにおいて選択されたピクセル群にそれぞれ関連付けられた第1のラベルを取得するように構成することができる。特徴抽出器104は、第1の訓練画像を特徴付ける特徴のセットを抽出するように構成することができる。セット内の各特徴は、第1の訓練画像内のピクセルに対応する特徴値を有する。特徴のセットは、第1の訓練画像内の1つまたは複数のセグメント間のコンテキスト関係の情報を与える第1の特徴、および各セグメント内のピクセル群の統計的尺度に対する、第1の訓練画像内のピクセル分布の情報を与える第2の特徴を含む。訓練モジュール106は、第1のラベル、第1のラベルに関連付けられた各セグメントにおいて選択されたピクセル群の値、および各セグメントにおいて選択されたピクセル群に対応する特徴のセットの各特徴の特徴値を使用して機械学習モデル108を訓練するように構成することができる。訓練された機械学習モデル108を使用して、第1の訓練画像を処理して、第1の訓練画像内のそれぞれのピクセルに関連付けられた予測ラベルの情報を与える第1のセグメンテーションマップを取得することができ、各予測ラベルは、それぞれのピクセルが属するセグメントを示す。訓練モジュール106は、基準が満たされると、第1の訓練画像および第1のセグメンテーションマップを含む第1の訓練サンプルを訓練データ(すなわち、ディープニューラルネットワーク(DNN)を訓練するための訓練データ、本明細書ではDNN訓練データとも呼ばれる)に含め、基準が満たされないと、第2の特徴の抽出、訓練、および処理を繰り返すことを決定するようにさらに構成することができる。訓練データ生成プロセスの詳細については、図2Aおよび図2Bを参照して以下に説明される。
特定の実施形態では、訓練システム101によって生成されたようなDNN訓練データを使用して、半導体試料を検査するために使用可能なDNN110を訓練することができる。場合によっては、DNNは、システム101のPMC102に含まれてもよく、あるいは図1に示すように、システム101に動作可能に接続されてもよい。DNN110は、製造入力データに基づいてアプリケーション関連データを出力するために、ディープニューラルネットワークを用いたデータ処理を可能にするように構成することができる。一実施形態では、特定のアプリケーションは、画像セグメンテーションとすることができ、アプリケーション関連出力は、入力FP画像に対応するセグメンテーションマップとすることができる。システム101、PMC102、およびそれらの内部の機能モジュールの動作は、図2Aおよび図2Bを参照してさらに詳述される。
DNN110は、それぞれのDNNアーキテクチャに従って編成された層を含む教師ありまたは教師なしDNNモデルを含むことができる。非限定的な例として、DNNの層は、畳み込みニューラルネットワーク(CNN)アーキテクチャ、リカレントニューラルネットワークアーキテクチャ、リカーシブニューラルネットワークアーキテクチャ、敵対的生成ネットワーク(GAN)アーキテクチャなどに従って編成することができる。任意で、層の少なくとも一部を複数のDNNサブネットワークに編成することができる。DNNの各層は、当技術分野では、典型的には、次元、ニューロン、またはノードと呼ばれる複数の基本的な計算要素(CE)を含むことができる。
一般に、所与の層の計算要素は、先行層および/または後続層のCEと接続することができる。先行層のCEと後続層のCEとの間の各接続は、重み付け値に関連付けられている。所与のCEは、それぞれの接続を介して先行層のCEから入力を受信することができ、所与の各接続は、所与の接続の入力に適用することができる重み付け値に関連付けられている。重み付け値は、接続の相対的な強度、したがって、所与のCEの出力に対するそれぞれの入力の相対的な影響を決定することができる。所与のCEは、活性化値(例えば、入力の加重和)を計算し、計算された活性化に活性化関数を適用することによって出力をさらに導出するように構成することができる。活性化関数は、例えば、恒等関数、決定論的関数(例えば、線形、シグモイド、しきい値など)、確率関数、または他の適切な関数とすることができる。所与のCEからの出力は、それぞれの接続を介して後続層のCEに伝達することができる。同様に、上記したように、CEの出力における各接続は、後続層のCEの入力として受信される前に、CEの出力に適用することができる重み付け値に関連付けられ得る。重み付け値に加えて、接続およびCEに関連付けられたしきい値(制限関数を含む)が存在することができる。
ディープニューラルネットワークの重み付け値および/またはしきい値は、訓練前に最初に選択することができ、訓練中にさらに反復的に調整または修正され、訓練されたDNNにおいて最適な重み付け値および/またはしきい値のセットを達成することができる。各反復の後、DNNモジュールによって生成された実際の出力と、それぞれのデータの訓練セットに関連付けられた目標出力との差を決定することができる。この差は、誤差値と呼ばれることがある。訓練は、誤差値を示す損失/コスト関数が所定の値未満である場合、または反復間の性能の限定された変化が達成された場合に、完了したと判断することができる。
ディープニューラルネットワークの重み/しきい値を調整するために使用されるDNN入力データのセットは、以降、DNN訓練データと呼ばれる。前述したように、システム101は、DNNを訓練するために使用可能なそのようなDNN訓練データを生成するように構成されている。
本開示の主題の教示は、上述したようなDNNの特定のアーキテクチャによって拘束されないことに留意されたい。
一部の実施形態では、DNNは、FP画像に対して画像セグメンテーションを実行するように構成されたセグメンテーションDNNとすることができる。場合によっては、DNN110に加えて、検査システム100は、例えば、欠陥検出モジュール、および/または自動欠陥レビューモジュール(ADR)、および/または自動欠陥分類モジュール(ADC)、および/または計測関連モジュール、および/または半導体試料の検査に使用可能な他の検査モジュールなどの、1つまたは複数の検査モジュールを備えることができる。1つまたは複数の検査モジュールは、スタンドアロンコンピュータとして実装することができ、またはそれらの機能(もしくは少なくともその一部)を検査ツール120と統合することができる。場合によっては、DNN110を1つまたは複数の検査モジュールに含めることができる。任意で、DNN110は、検査モジュール間で共有することができ、あるいは1つまたは複数の検査モジュールのそれぞれは、それ自体のDNN110を備えることができる。
特定の実施形態によると、システム101は、ストレージユニット122を備えることができる。ストレージユニット122は、システム101を動作させるのに必要な任意のデータ、例えば、システム101の入力および出力に関連するデータ、ならびにシステム101によって生成された中間処理結果を記憶するように構成することができる。例として、ストレージユニット122は、検査ツール120によって生成された画像および/またはその派生物を記憶するように構成することができる。したがって、1つまたは複数の画像は、ストレージユニット122から取り出され、さらなる処理のためにPMC102に提供され得る。
一部の実施形態では、システム101は、システム101に関連するユーザ指定の入力を可能にするように構成されたコンピュータベースのグラフィカルユーザインターフェース(GUI)124を任意で備えることができる。例えば、ユーザは、試料の画像データを含む、試料の視覚的表現を(例えば、GUI124の一部を形成するディスプレイによって)提示され得る。ユーザは、GUIを介して、特定の動作パラメータを定義するオプションを提供される場合がある。例えば、ユーザは、画像に手動で注釈を付けることによってラベルデータを提供することができる。ユーザは、例えば、セグメンテーションマップなどの操作結果をGUI上で見ることもできる。
図2Aおよび図2Bを参照してさらに詳述するように、システム101は、I/Oインターフェース126を介してFP入力データを受信するように構成されている。FP入力データは、検査ツール120によって生成されたデータ(および/またはその派生物および/またはそれに関連付けられたメタデータ)ならびに/あるいは1つまたは複数のデータ保管場所に記憶されたデータを含むことができる。場合によっては、FP入力データは、画像データ(例えば、キャプチャされた画像、キャプチャされた画像から派生した画像、シミュレートされた画像、合成画像など)および関連付けられた数値データ(例えば、メタデータ、手作りの属性など)を含むことができることに留意されたい。画像データは、試料の注目する層および/または1つもしくは複数の他の層に関連するデータを含むことができることにさらに留意されたい。本開示の一部の実施形態では、訓練目的のために、FP入力データは、DNNを訓練するために使用可能な訓練データを生成する目的で1つまたは複数の訓練画像を含むことができる。
システム101は、受信したFP入力データを処理し、I/Oインターフェース126を介して、結果(もしくはその一部)をストレージユニット122、および/またはDNN110、および/またはGUI124(結果をレンダリングするための)に送信するようにさらに構成されている。
当業者は、本開示の主題の教示が図1に示されているシステムによって拘束されず、等価なおよび/または修正された機能性を別のやり方で統合もしくは分割することができ、ソフトウェアと、ファームウェアおよび/またはハードウェアとの任意の適切な組合せで実装することができることを容易に理解するであろう。
図1に示す検査システムは、分散コンピューティング環境で実施することができ、その場合、図1に示す前述の機能モジュールをいくつかのローカルおよび/またはリモート装置に分散させることができ、通信ネットワークを介してリンクさせることができることに留意されたい。他の実施形態では、検査ツール120、ストレージユニット122、および/またはGUI124のうちの少なくとも一部は、検査システム100の外部にあり、I/Oインターフェース126を介してシステム101とデータ通信して動作することができることにさらに留意されたい。システム101は、検査ツールと連携して使用されるスタンドアロンコンピュータとして実装することができる。代替として、システム101のそれぞれの機能は、少なくとも部分的に、1つまたは複数の検査ツール120と統合され、それによって、検査関連プロセスにおける検査ツール120の機能性を容易にし、強化することができる。
例示のみを目的として、半導体試料の検査に使用可能なDNNを訓練するためのDNN訓練データを生成するために、以下の説明が提供される。当業者は、本開示の主題の教示が、様々なタイプの機械学習モデル、および例えば、セグメンテーション、欠陥検出、ADR、ADC、自動ナビゲーションモジュール、計測関連モジュールなどの様々な検査に適用可能であることを容易に理解するであろう。
図2Aを参照すると、本開示の主題の特定の実施形態による、半導体試料の検査に使用可能なDNNを訓練するための訓練データを生成する一般化された流れ図が示されている。
特定の実施形態によると、DNNを訓練するために使用される訓練データ(DNN訓練データとも呼ばれる)は、それぞれが、それぞれの訓練画像と、それに関連付けられた対応するグラウンドトゥルースデータと、を含む複数の訓練サンプルを含むことができる。グラウンドトゥルースデータは、アプリケーション固有の情報を示すラベルデータを含むことができる。例として、画像セグメンテーションのアプリケーションについては、各訓練サンプルは、半導体試料の訓練画像と、訓練画像内の1つまたは複数のセグメントを示すラベルデータと、を含むことができる。
訓練画像は、半導体試料の製造プロセスにおいて得られた半導体試料の「実世界」画像(例えば、上述したようなFP画像)とすることができる。非限定的な例として、画像は、潜在的な欠陥を検出するために1つまたは複数の検査ツールを使用して(典型的には、比較的高速および/または比較的低解像度で)試料を検査することによって得られる検査画像とすることができる。このような検査ツールは、例えば、光学検査システム、低解像度SEMなどとすることができる。代替として、画像は、検査ツールによって検出された潜在的な欠陥が実際に欠陥であるかどうかを確認するために、1つまたは複数のレビューツールを使用して(典型的には、比較的低速および/または比較的高解像度で)潜在的な欠陥位置のサブセットにおいて試料を検査することによって得られるレビュー画像とすることができる。このようなレビューツールは、例えば、走査型電子顕微鏡(SEM)などとすることができる。
グラウンドトゥルースデータは、様々な仕方で取得することができる。例として、グラウンドトゥルースデータは、人間の注釈によって生成されるか、合成的に生成されるか(例えば、CADベースの画像)、機械学習の注釈によって生成されるか(例えば、特徴抽出および分析に基づくラベル)、または上記の組合せなどによって生成することができる。
特定の実施形態によると、DNNは、半導体試料画像(例えば、FP画像)に対する画像セグメンテーションの特定のアプリケーションのために訓練される。本明細書で使用される「セグメンテーション」という用語は、画像を意味のある部分/セグメント(例えば、背景および前景、ノイズの多い領域およびノイズのない領域、構造要素、欠陥および非欠陥など)に分割しながら、そのようなセグメントを示すピクセルごとまたは領域ごとの値を提供する任意のプロセスを指すことができる。本開示の主題に従って生成されたようなDNN訓練データは、FP画像のセグメンテーションに使用可能なDNNを訓練するために使用される。
例として、訓練画像は、SEM画像またはその派生物とすることができ、ラベルデータは、SEM画像に対応するセグメンテーションマップ(セグメンテーションマスクとも呼ばれる)とすることができる。セグメンテーションマップは、訓練画像内の対応するピクセルに関連付けられた予測ラベルの情報を与える。各予測ラベルは、それぞれのピクセルが属する画像内のセグメントを示す。
セグメンテーションマップは、従来、訓練画像全体に手動で注釈を付けるユーザによって生成されていた。手動の注釈付けプロセスは、画像のサイズおよび解像度を考慮すると非常に時間がかかり、注釈付けされた結果は、時として不正確でエラーを起こしやすい。これは、ラベルデータの品質が訓練プロセスおよび訓練されたDNNの性能に直接影響するため、ユーザには望ましくない。したがって、本開示は、図2Aおよび図2Bを参照して以下に説明するように、DNNを訓練するために使用可能な正確なラベルデータを自動的に生成するより効率的な仕方を提案する。
特定の実施形態によると、半導体試料の少なくとも一部を表す第1の訓練画像を、(例えば、I/Oインターフェース126を介してPMC102によって)第1の訓練画像からユーザによって識別された1つまたは複数のセグメントのそれぞれにおいて選択されたピクセル群にそれぞれ関連付けられた第1のラベルとともに取得することができる(202)。場合によっては、1つまたは複数のセグメントのうちの少なくとも1つは、第1の訓練画像内に提示された1つまたは複数の構造要素に対応する。
ここで図5に目を向けると、本開示の主題の特定の実施形態による訓練画像の一例が示されている。訓練画像502は、SEMレビューツールによってキャプチャされた、ウエハのダイの一部を表すSEM画像として例示されている。図示するように、画像には複数の構造要素504(ウエハ上のコンタクト要素を表す多角形として示す)が提示されている。本明細書で使用される構造要素とは、幾何学的形状または輪郭を有する幾何学的構造を有し、場合によっては他のオブジェクトと組み合わされた画像データ上の任意の元のオブジェクトを指すことができる。構造要素は、例えば、多角形の形態で提示すことができる。
一部の実施形態では、訓練画像は、異なる視点からキャプチャされた複数のチャネルを含むことができる。例えば、図5の例では、502は、検査ツールの上部検出器によって垂直方向から撮影された画像の1つのチャネルを表すことができ、506は、検査ツールの側面検出器によって側面方向から撮影された画像の別のチャネルを表すことができる。場合によっては、異なる角度からの2つ以上の側面検出器が存在することができ、それに応じて、訓練画像は、複数の側面チャネル画像506を含むことができる。場合によっては、複数の側面チャネル画像を1つの合成された側面チャネル画像に合成することができる。
画像全体の完全な注釈付けのユーザの手間を省くために、訓練画像に関連付けられた部分的なラベルデータをユーザによって提供することができる。例として、ユーザは、セグメンテーションマップにおいて識別しようとユーザが思う1つまたは複数のセグメントを決定し、セグメントのそれぞれからピクセル群を選択し、ピクセル群が属するセグメントを示すようにピクセル群に注釈を付けることができる。図6は、本開示の主題の特定の実施形態による訓練画像に対する部分的なユーザ注釈の一例を示す。
訓練画像602が図6に例示されている。訓練画像602は、図5内の訓練画像502および506と同じウエハの部位をキャプチャしたものであり、同じ設計パターンを共有する複数の構造要素を含む。このような構造要素は、等価な構造要素とも呼ばれる。例として、ユーザは、構造要素が1つのセグメントに属することができ、背景が別のセグメントに属することができると決定することができる。したがって、ユーザは、いずれかのセグメントから数ピクセルを選択し、それらに、それぞれのセグメントを示すようにマークすることができる。例として、図6内の丸で囲まれた領域604に示すように(604の拡大図を右側に示す)、構造要素内部のピクセル群606は、それらが構造要素を表す1つのセグメントに属することを示す特定のグレーレベル値でユーザによってマークされ、背景内のもう一方のピクセル群608は、それらが背景領域を表すもう一方のセグメントに属することを示す別のグレーレベル値でユーザによってマークされている。ブロック206に関して以下に説明するように、各セグメントにおいて選択されたピクセルに対するユーザ注釈は、機械学習モデルを訓練するための部分的なラベルデータとして使用することができる。
ユーザは、セグメンテーションマップに含めたいとユーザが望む、訓練画像内の異なるタイプのセグメンテーションを決定することができることに留意されたい。例として、場合によっては、訓練画像は、等価な構造要素の2つ以上のファミリを含むことができる。ユーザは、等価な構造要素の各ファミリがそれぞれのセグメントに属していると決定することができ、あるいは、ユーザは、すべての構造要素が1つのセグメントに属しているが、背景は別のセグメントに属していると決定することができる。別の例として、ユーザは、画像内のグレーレベルの分散に従ってセグメントを決定してもよい。例えば、特定の構造プロファイルに起因して1つの構造要素内部にグレーレベルのコントラストがある場合があり、ユーザは、各構造要素内部にグレーレベルの分離に対応する2つのセグメントがあると決定してもよい。本開示は、訓練画像に対するセグメンテーションの特定の仕方およびセグメントの数によって限定されない。
図2Aの説明を続けると、第1の訓練画像を特徴付ける特徴のセットを(例えば、特徴抽出器104によって)抽出することができる(204)。各特徴は、第1の訓練画像内のピクセルに対応する特徴値を有する。特徴のセットは、第1の訓練画像におけるコンテキスト情報または表現を示す第1の特徴を含むことができる。例えば、第1の特徴は、第1の訓練画像内の1つまたは複数のセグメント間のコンテキスト関係/関連の情報を与えることができる。特徴のセットは、各セグメント内のピクセル群の統計的尺度に対する、第1の訓練画像内のピクセル分布の情報を与える第2の特徴をさらに含むことができる。
第1の特徴は、本明細書ではコンテキスト特徴とも呼ばれる。コンテキスト特徴という用語は、例えば、ピクセル、構造要素、もしくはセグメントなどの、画像内の特定のアイテム/要素のコンテキスト(例えば、ことによると異なる範囲を有する周囲の領域)、および/または画像内のそのような要素もしくはセグメント間のグローバルなコンテキスト関係を表すように広義に解釈されるべきである。コンテキスト関係は、要素またはセグメント間の相対的なテクスチャ、空間レイアウト、強度などに関して反映させることができる。例えば、構造要素内部のピクセルは、それらの周囲のピクセル(周囲にあるが、依然として構造要素内部にある)と同様のテクスチャを共有するのに対して、構造要素外のピクセルのテクスチャは、構造要素内部のピクセルとはかなり異なり、これは、構造要素内部のピクセルおよび構造要素外のピクセルが異なるセグメントに属し得ることを示す。一部の実施形態では、第1の特徴は、テクスチャ特徴を含むことができる。場合によっては、第1の特徴は、強度特徴をさらに含むことができる。
テクスチャ特徴は、画像の知覚されたテクスチャを表すために使用することができる。例えば、そのような特徴は、画像内の異なる要素またはセグメントを特徴付ける構造またはパターンの空間的配置を表すことができる。ここで図3Aに目を向けると、本開示の主題の特定の実施形態による、第1の訓練画像からテクスチャ特徴を抽出する一般化された流れ図が示されている。
第1の訓練画像は、フィルタのセット(フィルタバンクとも呼ばれる)を用いて処理され(302)、フィルタのセットに対応する特徴応答のセットを生じさせることができる。各特徴応答は、第1の訓練画像のそれぞれのピクセルに対応する特徴応答値を含む。各ピクセルは、特徴応答値のセットを含む特徴ベクトルに対応する。画像内のピクセルに対応する特徴ベクトルは、複数のクラスタにクラスタ化することができる(304)。各ピクセルに対して、その特徴ベクトルが属するクラスタに従って特徴値を割り当て(306)、第1の訓練画像のピクセルに対応する特徴値を含む特徴マップを生じさせることができる。特徴マップは、それぞれの特徴値に対応する複数のチャネルに分離可能である。特徴マップの各チャネルは、サンプリングフィルタを使用してサンプリングされ(308)、複数のサンプリングされたチャネルを有する特徴マップを生じさせることができる。
一部の実施形態では、テクスチャ特徴は、テキストン特徴として実装することができる。テキストンという用語は、一般に、画像内の基本的な微細構造を指す。テキストンは、オブジェクト/要素の様々な外観の範囲についてコンパクトな表現を提供することができ、テクスチャならびに汎用オブジェクトクラスを分類するのに効果的である場合がある。
例として、第1の訓練画像を、フィルタのセット、例えば、多次元フィルタバンクを用いて畳み込み、訓練画像内のすべてのピクセルに対して多次元の特徴応答を生じさせることができる。フィルタのセットは、半導体画像を表す特徴を抽出するように選択することができる。例えば、フィルタのセットは、例えば微分フィルタ、ガボールフィルタ、ラプラシアンフィルタなどの様々なフィルタファミリを含むことができる。微分フィルタは、画像内に存在するピクセルの輝度情報の変化率についての定量的尺度を提供することができる。画像との畳み込みにより、微分フィルタは、カーネルの選択に応じて、様々な方向およびスケールの微分を生成することができる。輝度変化率に関して得られた情報は、コントラストを強調し、エッジおよび境界を検出し、特徴の配向を測定するために使用することができる。ガボールフィルタは、注目する点または領域の周りの局所領域において、画像内に特定の方向にいくらかでも特定の周波数成分があるかどうかを分析する線形フィルタである。ガボールフィルタの周波数および配向の表現は、人間の視覚系のものと似ている。第1の訓練画像からテクスチャを表す特徴を抽出するために、周波数および配向が異なるガボールフィルタのセットを使用することができる。ラプラシアンフィルタは、Laplacian of Gaussian(LoG)フィルタとも呼ばれる。これは、画像の2次空間微分の尺度である。画像のラプラシアンは、強度が急激に変化する領域を強調表示し、エッジ検出に使用することができる。例えば、画像の強度が一定の領域(すなわち、強度勾配がゼロの領域)では、LoG応答は、ゼロである。しかしながら、強度が変化する近傍では、LoG応答は、より暗い側では正であり、より明るい側では負である。
本開示の一部の実施形態では、フィルタの3つのファミリを組み合わせて使用することができ、組み合わされたフィルタセットが、通常は、信号対雑音比(SNR)およびコントラスト対雑音比(CNR)が低いノイズの多い画像である半導体画像において、構造のテクスチャおよびレイアウトを表す特徴を抽出する際により信頼できることが本開示によって証明される。しかしながら、これは決して本開示を何ら限定するものではない。上記に加えて、または上記の代わりに、他のファミリ/タイプのフィルタまたは同様の機能を有するフィルタを使用することができる。特に、上述したような各ファミリにおける特定のフィルタは、例示目的で示されていることに留意されたい。上記に加えて、または上記の代わりに、ファミリ内の他の適切なフィルタを使用することができる。本開示は、特定のタイプのフィルタおよび各ファミリで使用されるフィルタの数によって限定されない。
例として、訓練画像がM*Nの次元にあり、フィルタのセットがF個のフィルタ、すなわちF次元のフィルタバンクを含むと仮定すると、多次元特徴応答は、例えば、M*N*Fの次元を有する特徴行列の形態で生成される。すなわち、訓練画像内の各ピクセルについて、そのピクセルに対応する特徴ベクトルを形成するF個の特徴応答がある。多次元特徴応答、すなわち、M*N*Fの特徴行列は、M*N個のピクセルに対応するM*N個の特徴ベクトルを含むものと見なすことができる。
訓練画像内のすべてのピクセルに対する多次元特徴応答が取得されると、多次元特徴応答に対してクラスタリング(例えば、教師なしクラスタリング)を実行することができる。例として、M*N個の特徴ベクトルに対してユークリッド距離K平均法クラスタリングアルゴリズムを実行して、特徴ベクトルの複数のクラスタ(例えば、K個のクラスタ)を生じさせることができる。訓練画像内の各ピクセルは、K個のクラスタのうちの1つにクラスタ化され、クラスタ番号に対応する特徴値が割り当てられ、第1の訓練画像のピクセルに対応する特徴値を含む特徴マップ(例えば、テキストンマップ)を生じさせる。テキストンマップTは、特徴値を含み、ここで、各ピクセルiについて対応する特徴値がTi∈{1,...,K}である。特徴マップ(例えば、テキストンマップ)は、それぞれの特徴値(例えば、各テキストンに対して1つ)に対応するK個のチャネルに分離することができ、ここで、各チャネルについて、各テキストンに対して1つのビンを有するヒストグラムと同様に、別個のチャネルマップ(例えば、積分マップ)を導出することができる。分離されたチャネルマップは、M*N*Kの次元にある。
サンプリングは、例えば、サンプリングフィルタを使用することによって、各チャネルに対して実行することができる。例えば、K個のチャネルマップをサンプリングフィルタでそれぞれ畳み込み、サンプリングされたチャネルマップを生じさせることができる。例として、サンプリングフィルタは、平均化、ガウス、または他の種類のサンプリング方法を使用して実装することができる。チャネルマップとの畳み込みが行われると、各ピクセルのコンテキスト状況(例えば、各ピクセルの周囲の領域)を、サンプリングされたチャネルマップにおいて結果として得られる畳み込み値に効果的に反映し、それによって、サンプリングされたマップに感度を追加することができる。K個のサンプリングされたチャネルマップ(例えば、M*N*K次元での特徴行列の形態で)は、第1の訓練画像に対応するテクスチャ特徴として使用することができる。
特定の実施形態によると、第1の特徴は、テクスチャ特徴に加えて、強度特徴をさらに含むことができる。強度特徴は、画像内の様々な要素またはセグメントを特徴付けるピクセル強度の空間的配置を表すことができる。一部の実施形態では、強度特徴は、テキストン特徴として実装することもできる。例として、上述したようなクラスタ化を第1の訓練画像のピクセル値に対して実行することができる。同様に、訓練画像内の各ピクセルは、複数のクラスタのうちの1つにクラスタ化され、ピクセル値が属するクラスタに対応する特徴値が割り当てられ、複数のチャネルに分離することができる特徴マップを生じさせることができる。サンプリングは、例えば、サンプリングフィルタを使用することによって、各チャネルに対して実行することができ、サンプリングされたチャネルマップを第1の訓練画像に対応する強度特徴として使用することができる。
ここで図7に目を向けると、本開示の主題の特定の実施形態による、テクスチャ特徴の一例および強度特徴の一例が示されている。図示するように、特徴マップ702は、第1の訓練画像502から抽出されたテクスチャ特徴であり、特徴マップ704は、同じ画像から抽出された強度特徴である。
第1の特徴に加えて、特徴のセットは、各セグメント内のピクセル群の統計的尺度に対する、第1の訓練画像内のピクセル分布の情報を与える第2の特徴をさらに含むことができる。第2の特徴は、統計的特徴とも呼ばれる。本明細書で言及される統計的特徴は、ピクセルの統計的有意性に応じた定量的尺度を表すことができ、定量的尺度は、ピクセルが特定のセグメントに属する可能性を示す。図3Bを参照すると、本開示の主題の特定の実施形態による、第1の訓練画像から統計的特徴を抽出する一般化された流れ図が示されている。
各セグメントにおいて選択されたピクセル群について、統計的尺度を計算することができる(312)。例として、統計的尺度は、各セグメント内のピクセル群の値に基づいて計算された平均値とすることができる。別の例として、統計的尺度は、平均値と、平均値に対するピクセル群の値のばらつきまたは分散の量の尺度となる標準偏差(STD)と、に基づいて計算することができる。第1の訓練画像内の各ピクセルについて、対応する特徴値は、ピクセルの値と各セグメントの統計的尺度との間の距離として計算され(314)、それぞれが、ピクセル値とそれぞれのセグメントの統計的尺度との間の距離に対応する特徴値を含む、1つまたは複数の特徴マップを生じさせることができる。例えば、図6の例では、統計的尺度は、構造要素を表すセグメント内のピクセル群606と、背景領域を表す他のセグメント内のピクセル群608と、についてそれぞれ計算することができる。第1の訓練画像に対して2つの特徴マップを生成することができ、第1の特徴マップは、画像602内の各ピクセル値と606について計算された統計的尺度との間の距離値を含み、第2の特徴マップは、画像602内の各ピクセル値と608について計算された統計的尺度との間の距離値を含む。したがって、このようにして生成された特徴マップは、(ユーザによってマークされたピクセル群に基づいて)各セグメントについて計算された統計的尺度に対するものとして、画像内のピクセル値の分布/分散を示し、これは、ピクセルが特定のセグメントに属する可能性がどの程度かを示す。
図2Aの説明を続けると、ブロック202を参照して説明したように第1の訓練画像および第1のラベルを取得し、ブロック204を参照して説明したように特徴のセットを取得すると、機械学習(ML)モデルは、第1のラベル、第1のラベルに関連付けられた各セグメントにおいて選択されたピクセル群の値、および各セグメント内のピクセル群に対応する特徴のセットの各特徴の特徴値を使用して(例えば、訓練モジュール106によって)訓練することができる(206)。MLモデルは、画像セグメンテーションのために訓練される。
一部の実施形態では、MLモデルは、分類器として実装することができる。本明細書で言及される「分類器」、「分類器モデル」、または「分類モデル」という用語は、データの訓練セットに基づいて、新しいインスタンスがカテゴリ/クラスのセットのうちのどれに属するかを識別することができるあらゆる学習モデルを包含するように広義に解釈されるべきである。例として、本開示では、分類器は、ピクセル候補を、ユーザによって定義されたようなセグメントクラスのセットに分類するように訓練することができる。例えば、図6の例では、分類器は、2つのセグメント(例えば、一方のセグメントを表すピクセル群606に対するユーザ注釈およびもう一方のセグメントを表すピクセル群608に対するユーザ注釈)を示す第1のラベルと、第1の訓練画像内のピクセル群606およびピクセル群608のピクセル値と、ピクセル群606およびピクセル群608に対応する(特徴のセットの各特徴における)特徴値と、を含む訓練セットに基づいて訓練される。例えば、特徴のセットが、702に例示されるようなテクスチャ特徴、704に例示されるような強度特徴、および図3Bを参照して上述したような統計的特徴を含むと仮定すると、選択されたピクセル群606および608に対応する3つの特徴のそれぞれにおける特徴値(これらは特徴マップまたは特徴行列の形態である)が訓練セットの一部として使用される。
訓練された分類器は、画像セグメンテーションのために、すなわち、画像内の各ピクセルに、そのピクセルが属するセグメントを示す予測ラベルを提供するために使用することができる。分類器は、例えば、線形分類器、サポートベクタマシン(SVM)、ニューラルネットワーク、決定木などの様々なタイプの機械学習モデルとして実装することができ、本開示は、それらで実装された特定のモデルによって限定されないことに留意されたい。
第1の訓練画像は、訓練されたMLモデルを使用して処理され(208)、第1の訓練画像内のそれぞれのピクセルに関連付けられた予測ラベルの情報を与える第1のセグメンテーションマップを取得することができる。各予測ラベルは、それぞれのピクセルが属するセグメントを示す。特定の実施形態によると、訓練されたMLモデル(例えば、分類器)を使用して、第1の訓練画像内の少なくとも残りのピクセル(例えば、各セグメントにおいて選択され、分類器の訓練に使用されたピクセル群を除く)を処理することができる。分類器の出力は、訓練画像と同じサイズのセグメンテーションマップ(セグメンテーションマスクとも呼ばれる)であり、画像内の対応するピクセルについての予測ラベルを含む。
基準が満たされると、第1の訓練画像および第1のセグメンテーションマップを含む第1の訓練サンプルをDNN訓練データに含め、基準が満たされないと、第2の特徴の抽出、訓練、および処理を繰り返すことが(例えば、訓練モジュール106によって)決定される(210)。言い換えると、第1の訓練サンプルをDNN訓練データに含めるか、処理を繰り返すかは、上述したように基準に基づいて決定することができる。一部の実施形態では、基準は、例えば、ユーザによる、第1のセグメンテーションマップに対するフィードバックに関連することができる。例として、基準は、ユーザのフィードバックに基づくことができる。例えば、基準は、第1のセグメンテーションマップに対する肯定的なユーザフィードバックとすることができ、例えば、第1のセグメンテーションマップは、満足のいく品質を有する。したがって、第1のセグメンテーションマップに対して肯定的なユーザフィードバックを受信すると、第1の訓練サンプルをDNN訓練データに含めることができる。
一方、第1のセグメンテーションマップに対して否定的なユーザフィードバックを受信した場合、例えば、第1のセグメンテーションマップの品質が満足いくものでない場合、これは、現在訓練されているようなMLモデルが、ユーザが期待したほどにはうまく第1の訓練画像をセグメント化することを学習していないことを意味し、したがって、図2Aを参照して上述した操作の少なくとも一部を繰り返す必要がある。図8は、本開示の主題の特定の実施形態による、否定的なユーザフィードバックを伴うセグメンテーションマップの一例を示す。
セグメンテーションマップ800は、図5および図6に例示されるような訓練画像に対応して生成されている。本例では、セグメンテーションマップは、2つのセグメントを表すバイナリマップとして例示され、第1のセグメントは、画像内の構造要素(コンタクト要素を表す白丸として示す)に対応し、第2のセグメントは、背景領域(黒色の領域として示す)に対応する。図示するように、画像の境界に沿った周辺背景領域である領域802については、黒色でマークされるべきであったが、誤って白色でマークされている。したがって、領域802は、構造要素の第1のセグメントに属するものとして誤って予測されている。領域804について、同様のエラーが発生しており、ここで、2つの構造要素間の背景領域が第1のセグメントに属するものと誤って予測されている(図では、互いに接続する2つの要素として示されており、したがって、その間の背景領域が欠落している)。このようなセグメンテーションマップは、ユーザのレビューによると、誤ってセグメント化された領域のために満足のいくものではない。したがって、分類器は、満足のいく品質を有する出力セグメンテーションマップを生成するまで再訓練される必要がある。場合によっては、セグメンテーションマップの満足のいく品質は、品質条件に従って決定され得ることに留意されたい。例えば、品質条件は、正しいセグメンテーションを有するピクセルのパーセンテージの範囲またはしきい値とすることができる。
ここで図2Bに目を向けると、本開示の主題の特定の実施形態による、第1のセグメンテーションマップに対して否定的なユーザフィードバックを受信したときのDNN訓練データの生成の継続プロセスの一般化された流れ図が示されている。
具体的には、セグメントのうちの少なくとも1つにおいて追加のピクセル群に関連付けられた追加の第1のラベルを、ユーザから取得することができる(212)。このような場合、追加の第1のラベルは、ユーザによって以前に提供されたような第1のラベルとともに、ラベルデータの一部として追加することができる。第1のラベルおよび追加の第1のラベルは、集約されたラベルデータを構成する。図9Aを参照すると、本開示の主題の特定の実施形態による、ユーザによって提供された追加の第1のラベルの一例が示されている。
図9A内の第1の訓練画像602に示すように、元の第1のラベル(丸で囲まれた領域604に示すような)に加えて、追加のピクセル群(丸で囲まれた領域902および904に示す)が、これらのピクセルが属する予想されるセグメントを示すラベルでユーザによってマークされている。例えば、ユーザは、特に、第1のセグメンテーションマップにおいて誤ったセグメンテーションがあった領域(例えば、領域802および804内)をマークすることができる。ユーザは、追加のピクセルを、1つのセグメントでマークするか、または両方のセグメントでマークするかを選択することができる。例えば、902では、ユーザは、構造要素と背景の両方でピクセルをマークしたが、904では、ユーザは、背景でのみピクセルをマークした。したがって、追加のマーキングの後、集約されたラベルデータには、領域604、902、および904内のピクセル群に対してマークされたラベルが含まれている。
集約されたラベルデータを取得すると、基準が満たされるまで、例えば、肯定的なユーザフィードバックを受信するまで、第2の特徴の抽出、訓練、および処理を、集約されたラベルデータに基づいて繰り返すことができる。具体的には、ラベルデータが更新されているため、ラベルに関連付けられた各セグメント内のピクセル群に基づいて計算された第2の特徴、すなわち統計的特徴も、集約されたラベルデータに基づいて更新されるべきである(214)。例えば、第2の特徴は、ピクセル群および追加のピクセル群のピクセル値に基づいて計算された統計的尺度を使用して再抽出することができる。
分類器は、集約されたラベル、集約されたラベルデータに関連付けられたピクセルの値、および集約されたラベルデータに関連付けられたピクセルに対応する特徴のセットの各特徴の特徴値を使用して再訓練することができる(216)。第1の訓練画像は、再訓練された分類器を使用して再度処理(218)されて、更新された第1のセグメンテーションマップを取得することができる。次いで、更新された第1のセグメンテーションマップに対するユーザフィードバックに基づいて、上記のプロセス(ブロック212~218を参照する操作)を繰り返すか、または更新された第1のセグメンテーションマップおよび第1の訓練画像を第1の訓練サンプルとしてDNN訓練データに含めるかどうかを決定することができる(220)。
図9Bを参照すると、本開示の主題の特定の実施形態による、肯定的なユーザフィードバックを伴う更新されたセグメンテーションマップの一例が示されている。
セグメンテーションマップ900は、図9Aに示すような追加の第1のラベルを取得すると、図2Bを参照して説明した操作に従って生成される。これは、図8に示すような第1のセグメンテーションマップ800の更新されたセグメンテーションマップである。図示するように、更新されたセグメンテーションマップ900は、セグメンテーションマップ800とは対照的に、2つのセグメントの満足のいくセグメンテーション結果を提供している。以前の誤ってセグメント化された領域802および804におけるセグメンテーションは、ユーザによって提供された追加の第1のラベルおよび分類器の再訓練によって修正されている。更新されたセグメンテーションマップは、対応する訓練画像とともに、訓練サンプルとしてDNN訓練データに含められる。
特定の実施形態によると、図2Aおよび図2Bに示すようなプロセスは、1つまたは複数の訓練画像に対して繰り返すことができ、したがって、訓練画像とともに、DNN訓練データに含めることができる1つまたは複数のセグメンテーションマップを生成することができる。例として、第2の訓練画像は、第2の訓練画像からユーザによって識別された1つまたは複数のセグメントのそれぞれにおいて選択されたピクセル群にそれぞれ関連付けられた第2のラベルとともに取得することができる。第2のラベルは、集約されたラベルデータに追加される。第1の特徴および第2の特徴を含む、第2の訓練画像を特徴付ける特徴のセットを抽出することができる。機械学習モデルは、集約されたラベルデータ、集約されたラベルデータに関連付けられたピクセルの値、および集約されたラベルデータに関連付けられたピクセルに対応する特徴のセットの各特徴の特徴値を使用して訓練することができる。ブロック208および210を参照して上述したような処理および決定は、第2の訓練画像に基づいて実行することができる。
ここで図4に目を向けると、本開示の主題の特定の実施形態による、DNNを訓練するための、生成されたDNN訓練データを使用する一般化された流れ図が示されている。
特定の実施形態によると、DNNは、半導体試料画像(例えば、FP画像)に対する画像セグメンテーションの特定のアプリケーションのために訓練される。例として、そのようなセグメンテーションは、試料に対して測定を実行するための計測ツールによって使用することができる。別の例として、そのようなセグメンテーションは、属性を構築する際の(例えば、欠陥が主パターン上にあるか、背景上にあるか、またはその両方にあるかどうかを定義するための)ADC、各セグメントにセグメント固有の検出しきい値を適用するためのADRなどにも使用可能とすることができる。
本プロセスは、DNNのセグメンテーション固有の訓練のセットアップ段階410と、訓練されたDNNを画像セグメンテーションに使用するランタイム段階420と、を含む。
セットアップ410の間に、図2Aおよび図2Bの説明に従って生成されたようなDNN訓練データを取得することができる(412)。DNN訓練データは、1つまたは複数の訓練サンプルを含み、各サンプルは、訓練画像および対応するセグメンテーションマップを含む。DNN訓練データを使用してDNNを訓練し(414)、それによって、セグメンテーション関連の訓練パラメータによって特徴付けられた訓練されたDNNを取得することができる。一部の実施形態では、訓練プロセスは、周期的であってもよく、DNNが十分に訓練されるまで数回繰り返すことができる。例として、DNNは、セグメンテーションの精度に関連するコスト関数(例えば、正しいセグメンテーションラベルマップ対予測されたラベルマップ)を使用して訓練することができる。訓練されたDNNは、画像の検証セットを使用して検証することができる(416)。画像の検証セットは、訓練画像セットとは異なる画像セットとすることができ、検証目的のために選択されたFP画像を含むことができる。ユーザは、検証中にDNNが到達した結果に対するフィードバックを提供することができる。
ランタイム420中に、PMCは、訓練されたDNNを使用して、セグメント化される1つまたは複数のキャプチャされたFP画像を含む1つまたは複数のランタイム画像を処理して(422)、各画像に対するセグメンテーションマップを提供する(424)。1つまたは複数のFP画像は、同じまたは異なる検査モダリティによって取得することができる。得られたセグメンテーションマップは、画像上の異なるセグメントを示すピクセルごとまたは領域ごとのセグメンテーションラベルの情報を与えることができる。例として、ある層の多角形は、あるセグメンテーションラベルを有することができ、別の層の多角形は、異なるセグメンテーションラベルを有することができ、一方、背景は、別のセグメンテーションラベルを有することができる。
本明細書に記載されるような訓練データ生成プロセスの特定の実施形態の利点の中には、時間がかかりエラーを起こしやすい訓練画像全体に対する従来の手動注釈と比較して、DNNを訓練するために使用可能な正確なグラウンドトゥルースデータを生成する自動手段を提供することがある。このようなプロセスの自動化は、少なくとも、セグメンテーションに適した意味のある特徴を抽出し、ユーザの部分的な注釈およびフィードバックに基づいてMLモデルをインタラクティブに訓練することによって可能になる。
本明細書に記載されるような訓練データ生成プロセスの特定の実施形態のさらなる利点の中には、訓練画像を特徴付けるコンテキスト特徴と統計的特徴との両方を抽出および使用することによって、本開示が、テクスチャ、レイアウト、コンテキスト、および統計的有意性などに関して、半導体画像の信頼できる表現をうまく提供し、したがって、代表的な特徴を使用してMLモデルを訓練し、効率的なやり方でセグメンテーションマップを生成することができ、満足のいく結果を得ることができるということがある。
例示された例は、本明細書では例示目的で記載されており、本開示を限定するものと決して見なされるべきではないことに留意されたい。上記に加えて、または上記の代わりに、他の適切な例を使用することができる。
本開示は、その適用において、本明細書に含まれる、または図面に示される説明に記載された詳細に限定されないことを理解されたい。
本開示によるシステムは、少なくとも部分的に、適切にプログラムされたコンピュータ上に実装され得ることも理解されるであろう。同様に、本開示は、本開示の方法を実行するためのコンピュータによって読み取り可能なコンピュータプログラムを企図している。本開示は、本開示の方法を実行するためのコンピュータによって実行可能な命令のプログラムを明白に具現化する非一時的なコンピュータ可読メモリをさらに企図している。
本開示は、他の実施形態が可能であり、様々な仕方で実施および実行することができる。したがって、本明細書で用いられる語句および術語は、説明を目的としたものであり、限定的なものと見なされるべきでないことを理解されたい。そのため、当業者は、本開示の基礎となる概念が、本開示の主題のいくつかの目的を実行するための他の構造、方法、およびシステムを設計するための基礎として容易に利用され得ることを理解するであろう。
当業者は、添付の特許請求の範囲において、および添付の特許請求の範囲によって定義される本開示の範囲から逸脱することなく、前述したような様々な修正および変更を本開示の実施形態に適用することができることを容易に理解するであろう。

Claims (20)

  1. 半導体試料の検査に使用可能なディープニューラルネットワークを訓練するための訓練データ(DNN訓練データ)を生成するコンピュータ化されたシステムであって、
    前記半導体試料の少なくとも一部を表す第1の訓練画像、および前記第1の訓練画像からユーザによって識別された1つまたは複数のセグメントのそれぞれにおいて選択されたピクセル群にそれぞれ関連付けられた第1のラベルを取得することと、
    前記第1の訓練画像を特徴付ける特徴のセットを抽出することであって、各特徴が前記第1の訓練画像内のピクセルに対応する特徴値を有し、特徴の前記セットが、前記第1の訓練画像内の前記1つまたは複数のセグメント間のコンテキスト関係の情報を与える第1の特徴、および各セグメント内の前記ピクセル群の統計的尺度に対する、前記第1の訓練画像内のピクセル分布の情報を与える第2の特徴を含む、抽出することと、
    前記第1のラベル、前記第1のラベルに関連付けられた各セグメントにおいて選択された前記ピクセル群の値、および各セグメント内の前記ピクセル群に対応する特徴の前記セットの各特徴の前記特徴値を使用して機械学習(ML)モデルを訓練することであって、前記MLモデルが画像セグメンテーションのために訓練される、訓練することと、
    前記訓練されたMLモデルを使用して前記第1の訓練画像を処理して、前記第1の訓練画像内のそれぞれのピクセルに関連付けられた予測ラベルの情報を与える第1のセグメンテーションマップを取得することであって、各予測ラベルが、それぞれのピクセルが属するセグメントを示す、取得することと、
    基準が満たされると、前記第1の訓練画像および前記第1のセグメンテーションマップを含む第1の訓練サンプルを前記DNN訓練データに含め、前記基準が満たされないと、前記第2の特徴の前記抽出、前記訓練、および前記処理を繰り返すことを決定することと、
    を行うように構成されたプロセッサおよびメモリ回路(PMC)を備える、
    コンピュータ化されたシステム。
  2. 前記訓練データが、ランタイム画像に基づいて、自動セグメンテーション、自動計測、自動欠陥検出、自動欠陥レビュー、および自動欠陥分類を含む群から選択された少なくとも1つの検査プロセスのためのディープニューラルネットワーク(DNN)を訓練するために使用可能である、
    請求項1に記載のコンピュータ化されたシステム。
  3. 前記基準が、前記第1のセグメンテーションマップに対するユーザフィードバックに基づいており、前記PMCが、前記第1のセグメンテーションマップに対する否定的なユーザフィードバックを受信すると、前記セグメントのうちの少なくとも1つにおいて追加のピクセル群に関連付けられた追加の第1のラベルを取得することであって、前記第1のラベルおよび前記追加の第1のラベルが集約されたラベルデータを構成する、取得することと、肯定的なユーザフィードバックを受信するまで、前記集約されたラベルデータに基づいて、前記第2の特徴の前記抽出、前記訓練、および前記処理を繰り返すことと、を行うように構成されている、
    請求項1に記載のコンピュータ化されたシステム。
  4. 前記PMCが、前記第1のセグメンテーションマップに対する肯定的なユーザフィードバックを受信すると、前記第1の訓練サンプルを前記訓練データに含めるように構成されている、
    請求項3に記載のコンピュータ化されたシステム。
  5. 前記PMCが、第2の訓練画像と、前記第2の訓練画像からユーザによって識別された1つまたは複数のセグメントのそれぞれにおいて選択されたピクセル群にそれぞれ関連付けられた第2のラベルであって、前記集約されたラベルデータに追加される第2のラベルと、を取得し、前記第2の訓練画像を特徴付け、前記第1の特徴および前記第2の特徴を含む特徴のセットを抽出し、前記集約されたラベルデータ、前記集約されたラベルデータに関連付けられたピクセルの値、および前記集約されたラベルデータに関連付けられた前記ピクセルに対応する特徴の前記セットの各特徴の前記特徴値を使用して前記MLモデルを訓練し、前記第2の訓練画像に基づいて前記処理および決定を実行するようにさらに構成されている、
    請求項4に記載のコンピュータ化されたシステム。
  6. 前記1つまたは複数のセグメントのうちの少なくとも1つが、前記第1の訓練画像内に提示された1つまたは複数の構造要素に対応する、
    請求項1に記載のコンピュータ化されたシステム。
  7. 前記第1の特徴が、
    フィルタのセットを用いて前記第1の訓練画像を処理し、それぞれが前記第1の訓練画像のそれぞれのピクセルに対応する特徴応答値を含む特徴応答のセットを生じさせることであって、各ピクセルがその特徴応答値のセットを含む特徴ベクトルに対応する、生じさせることと、
    前記第1の訓練画像内の前記ピクセルに対応する前記特徴ベクトルを複数のクラスタにクラスタ化することと、
    各ピクセルに対して、その前記特徴ベクトルが属する前記クラスタに従って特徴値を割り当て、前記第1の訓練画像のピクセルに対応する特徴値を含む特徴マップを生じさせることであって、前記特徴マップがそれぞれの特徴値に対応する複数のチャネルに分離可能である、生じさせることと、
    サンプリングフィルタを使用して前記特徴マップの各チャネルをサンプリングし、複数のサンプリングされたチャネルを有する特徴マップを生じさせることと、
    によって抽出されたテクスチャ特徴を含む、
    請求項1に記載のコンピュータ化されたシステム。
  8. 前記第1の特徴が、前記第1の訓練画像のピクセル値を複数のクラスタにクラスタ化することと、各ピクセルに対して、前記ピクセル値が属する前記クラスタに従って特徴値を割り当て、それぞれの特徴値に対応する複数のチャネルに分離可能な特徴マップを生じさせることと、サンプリングフィルタを使用して前記特徴マップの各チャネルをサンプリングし、複数のサンプリングされたチャネルを有する特徴マップを生じさせることと、によって抽出された強度特徴をさらに含む、
    請求項7に記載のコンピュータ化されたシステム。
  9. 前記フィルタのセットが、微分フィルタ、ガボールフィルタ、およびラプラシアンフィルタのうちの1つまたは複数を含む、
    請求項7に記載のコンピュータ化されたシステム。
  10. 前記第2の特徴が、各セグメント内の前記ピクセル群について統計的尺度を計算し、前記第1の訓練画像内の各ピクセルについて、対応する特徴値を、前記ピクセルの値と各セグメントの前記統計的尺度との間の距離として計算し、それぞれが、ピクセル値とそれぞれのセグメントの前記統計的尺度との間の距離に対応する特徴値を含む、1つまたは複数の特徴マップを生じさせることによって抽出される、
    請求項1に記載のコンピュータ化されたシステム。
  11. 前記訓練画像が、異なる視点からキャプチャされた複数のチャネルを含み、特徴の前記セットが、前記複数のチャネルから抽出される、
    請求項1に記載のコンピュータ化されたシステム。
  12. 前記PMCが、前記DNN訓練データを使用して前記DNNを訓練し、画像の検証セットを使用して前記訓練されたDNNを検証するようにさらに構成されている、
    請求項1に記載のコンピュータ化されたシステム。
  13. 試料の検査に使用可能なディープニューラルネットワークを訓練するための訓練データ(DNN訓練データ)を生成するためのコンピュータ化された方法であって、前記方法は、プロセッサおよびメモリ回路(PMC)によって実行され、
    前記半導体試料の少なくとも一部を表す第1の訓練画像、および前記第1の訓練画像からユーザによって識別された1つまたは複数のセグメントのそれぞれにおいて選択されたピクセル群にそれぞれ関連付けられた第1のラベルを取得するステップと、
    前記第1の訓練画像を特徴付ける特徴のセットを抽出するステップであって、各特徴が前記第1の訓練画像内のピクセルに対応する特徴値を有し、特徴の前記セットが、前記第1の訓練画像内の前記1つまたは複数のセグメント間のコンテキスト関係の情報を与える第1の特徴、および各セグメント内の前記ピクセル群の統計的尺度に対する、前記第1の訓練画像内のピクセル分布の情報を与える第2の特徴を含む、ステップと、
    前記第1のラベル、前記第1のラベルに関連付けられた各セグメントにおいて選択された前記ピクセル群の値、および各セグメント内の前記ピクセル群に対応する特徴の前記セットの各特徴の前記特徴値を使用して機械学習(ML)モデルを訓練するステップであって、前記MLモデルが画像セグメンテーションのために訓練される、ステップと、
    前記訓練されたMLモデルを使用して前記第1の訓練画像を処理して、前記第1の訓練画像内のそれぞれのピクセルに関連付けられた予測ラベルの情報を与える第1のセグメンテーションマップを取得するステップであって、各予測ラベルが、それぞれのピクセルが属するセグメントを示す、ステップと、
    基準が満たされると、前記第1の訓練画像および前記第1のセグメンテーションマップを含む第1の訓練サンプルを前記DNN訓練データに含め、前記基準が満たされないと、前記第2の特徴の前記抽出、前記訓練、および前記処理を繰り返すことを決定するステップと、
    を含む
    コンピュータ化された方法。
  14. 前記基準が、前記第1のセグメンテーションマップに対するユーザフィードバックに基づいており、前記方法が、前記第1のセグメンテーションマップに対する否定的なユーザフィードバックを受信すると、前記セグメントのうちの少なくとも1つにおいて追加のピクセル群に関連付けられた追加の第1のラベルを取得するステップであって、前記第1のラベルおよび前記追加の第1のラベルが集約されたラベルデータを構成する、ステップと、肯定的なユーザフィードバックを受信するまで、前記集約されたラベルデータに基づいて、前記第2の特徴の前記抽出、前記訓練、および前記処理を繰り返すステップと、をさらに含む、
    請求項13に記載のコンピュータ化された方法。
  15. 前記第1のセグメンテーションマップに対する肯定的なユーザフィードバックを受信すると、前記第1の訓練サンプルを前記訓練データに含めるステップを、さらに含む、
    請求項14に記載のコンピュータ化された方法。
  16. 前記第1の特徴が、
    フィルタのセットを用いて前記第1の訓練画像を処理し、それぞれが前記第1の訓練画像のそれぞれのピクセルに対応する特徴応答値を含む特徴応答のセットを生じさせることであって、各ピクセルがその特徴応答値のセットを含む特徴ベクトルに対応する、生じさせることと、
    前記第1の訓練画像内の前記ピクセルに対応する前記特徴ベクトルを複数のクラスタにクラスタ化することと、
    各ピクセルに対して、その前記特徴ベクトルが属する前記クラスタに従って特徴値を割り当て、前記第1の訓練画像のピクセルに対応する特徴値を含む特徴マップを生じさせることであって、前記特徴マップがそれぞれの特徴値に対応する複数のチャネルに分離可能である、生じさせることと、
    サンプリングフィルタを使用して前記特徴マップの各チャネルをサンプリングし、複数のサンプリングされたチャネルを有する特徴マップを生じさせることと、
    によって抽出されたテクスチャ特徴を含む、
    請求項13に記載のコンピュータ化された方法。
  17. 前記第1の特徴が、前記第1の訓練画像のピクセル値を複数のクラスタにクラスタ化することと、各ピクセルに対して、前記ピクセル値が属する前記クラスタに従って特徴値を割り当て、それぞれの特徴値に対応する複数のチャネルに分離可能な特徴マップを生じさせることと、サンプリングフィルタを使用して前記特徴マップの各チャネルをサンプリングし、複数のサンプリングされたチャネルを有する特徴マップを生じさせることと、によって抽出された強度特徴をさらに含む、
    請求項16に記載のコンピュータ化された方法。
  18. 前記第2の特徴が、各セグメント内の前記ピクセル群について統計的尺度を計算し、前記第1の訓練画像内の各ピクセルについて、対応する特徴値を、前記ピクセルの値と各セグメントの前記統計的尺度との間の距離として計算し、それぞれが、ピクセル値とそれぞれのセグメントの前記統計的尺度との間の距離に対応する特徴値を含む、1つまたは複数の特徴マップを生じさせることによって抽出される、
    請求項13に記載のコンピュータ化された方法。
  19. 前記DNN訓練データを使用して前記DNNを訓練するステップと、画像の検証セットを使用して前記訓練されたDNNを検証するステップと、をさらに含む、
    請求項13に記載のコンピュータ化された方法。
  20. コンピュータによって実行されると、前記コンピュータに、試料の検査に使用可能なディープニューラルネットワークを訓練するための訓練データ(DNN訓練データ)を生成する方法を実行させる命令のプログラムを明白に具現化する非一時的なコンピュータ可読ストレージ媒体であって、前記方法が、
    前記半導体試料の少なくとも一部を表す第1の訓練画像、および前記第1の訓練画像からユーザによって識別された1つまたは複数のセグメントのそれぞれにおいて選択されたピクセル群にそれぞれ関連付けられた第1のラベルを取得するステップと、
    前記第1の訓練画像を特徴付ける特徴のセットを抽出するステップであって、各特徴が前記第1の訓練画像内のピクセルに対応する特徴値を有し、特徴の前記セットが、前記第1の訓練画像内の前記1つまたは複数のセグメント間のコンテキスト関係の情報を与える第1の特徴、および各セグメント内の前記ピクセル群の統計的尺度に対する、前記第1の訓練画像内のピクセル分布の情報を与える第2の特徴を含む、ステップと、
    前記第1のラベル、前記第1のラベルに関連付けられた各セグメントにおいて選択された前記ピクセル群の値、および各セグメント内の前記ピクセル群に対応する特徴の前記セットの各特徴の前記特徴値を使用して機械学習(ML)モデルを訓練するステップであって、前記MLモデルが画像セグメンテーションのために訓練される、ステップと、
    前記訓練されたMLモデルを使用して前記第1の訓練画像を処理して、前記第1の訓練画像内のそれぞれのピクセルに関連付けられた予測ラベルの情報を与える第1のセグメンテーションマップを取得するステップであって、各予測ラベルが、それぞれのピクセルが属するセグメントを示す、ステップと、
    基準が満たされると、前記第1の訓練画像および前記第1のセグメンテーションマップを含む第1の訓練サンプルを前記DNN訓練データに含め、前記基準が満たされないと、前記第2の特徴の前記抽出、前記訓練、および前記処理を繰り返すことを決定するステップと、
    を含む、
    非一時的なコンピュータ可読ストレージ媒体。
JP2021095076A 2020-07-29 2021-06-07 半導体試料の検査に使用可能な訓練データの生成 Pending JP2022027473A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/942,677 US11449977B2 (en) 2020-07-29 2020-07-29 Generating training data usable for examination of a semiconductor specimen
US16/942,677 2020-07-29

Publications (2)

Publication Number Publication Date
JP2022027473A true JP2022027473A (ja) 2022-02-10
JP2022027473A5 JP2022027473A5 (ja) 2024-06-12

Family

ID=80003167

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021095076A Pending JP2022027473A (ja) 2020-07-29 2021-06-07 半導体試料の検査に使用可能な訓練データの生成

Country Status (5)

Country Link
US (2) US11449977B2 (ja)
JP (1) JP2022027473A (ja)
KR (1) KR20220014805A (ja)
CN (2) CN114092387B (ja)
TW (1) TW202221536A (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11501105B2 (en) * 2018-03-02 2022-11-15 Zoox, Inc. Automatic creation and updating of maps
US11630958B2 (en) * 2021-06-02 2023-04-18 Microsoft Technology Licensing, Llc Determining topic labels for communication transcripts based on a trained generative summarization model
EP4227900A4 (en) * 2021-12-03 2024-01-24 Contemporary Amperex Technology Co., Limited DEFECT DETECTION METHOD AND SYSTEM
TWI836708B (zh) * 2022-11-08 2024-03-21 環球晶圓股份有限公司 訊號處理的方法及異音檢測系統
US20240177286A1 (en) * 2022-11-29 2024-05-30 Applied Materials, Inc. Modeling for indexing and semiconductor defect image retrieval
CN117274879A (zh) * 2023-10-10 2023-12-22 扬州大自然网络信息有限公司 一种工业网络安全智能防御***及其方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11205119B2 (en) * 2015-12-22 2021-12-21 Applied Materials Israel Ltd. Method of deep learning-based examination of a semiconductor specimen and system thereof
US10922566B2 (en) * 2017-05-09 2021-02-16 Affectiva, Inc. Cognitive state evaluation for vehicle navigation
US11199506B2 (en) * 2018-02-21 2021-12-14 Applied Materials Israel Ltd. Generating a training set usable for examination of a semiconductor specimen

Also Published As

Publication number Publication date
CN114092387B (zh) 2024-04-05
US11915406B2 (en) 2024-02-27
US11449977B2 (en) 2022-09-20
KR20220014805A (ko) 2022-02-07
US20220383488A1 (en) 2022-12-01
CN118196555A (zh) 2024-06-14
US20220036538A1 (en) 2022-02-03
CN114092387A (zh) 2022-02-25
TW202221536A (zh) 2022-06-01

Similar Documents

Publication Publication Date Title
US11199506B2 (en) Generating a training set usable for examination of a semiconductor specimen
CN110945528B (zh) 产生可用于检查半导体样品的训练集的方法及其***
US20220067523A1 (en) Method of deep learining-based examination of a semiconductor specimen and system thereof
JP2022027473A (ja) 半導体試料の検査に使用可能な訓練データの生成
US12007335B2 (en) Automatic optimization of an examination recipe
US20220222806A1 (en) Machine learning-based classification of defects in a semiconductor specimen
JP2022013667A (ja) 半導体試料の画像のセグメンテーション
KR20230140394A (ko) 반도체 시편의 기계 학습 기반 검사 및 그의 훈련

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240604

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240604

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20240604

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240613