JP4516253B2 - Defect classification device - Google Patents

Defect classification device Download PDF

Info

Publication number
JP4516253B2
JP4516253B2 JP2001370218A JP2001370218A JP4516253B2 JP 4516253 B2 JP4516253 B2 JP 4516253B2 JP 2001370218 A JP2001370218 A JP 2001370218A JP 2001370218 A JP2001370218 A JP 2001370218A JP 4516253 B2 JP4516253 B2 JP 4516253B2
Authority
JP
Japan
Prior art keywords
defect
area
region
image
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001370218A
Other languages
Japanese (ja)
Other versions
JP2003168114A (en
Inventor
大和 神田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2001370218A priority Critical patent/JP4516253B2/en
Publication of JP2003168114A publication Critical patent/JP2003168114A/en
Application granted granted Critical
Publication of JP4516253B2 publication Critical patent/JP4516253B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • Liquid Crystal (AREA)
  • Testing Or Measuring Of Semiconductors Or The Like (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は欠陥分類装置に関し、特に、画像に基づき検出した欠陥種の種類を判別するものであり、特に半導体ウェハや液晶パネル等の製造ラインで行われる外観検査における欠陥分類装置に関する。
【0002】
【従来の技術】
半導体ウェハや液晶パネル等の製造では、成膜、レジスト塗布、露光、現像、エッチング、レジスト剥離といった工程を複数回繰り返すことで、多層の配線パターンを形成していく。
【0003】
最終的に数百工程にもなる製造工程を経て完成する製品の歩留まりを向上するためには、欠陥の早期発見や製造工程の最適化が必須項目である。
【0004】
このため従来から、実際のパターンが形成されるエッチング工程前に、対象物の外観検査を行い、欠陥の検出、不良品の選別を行うと共に、欠陥の種類を判別して、その情報を製造工程にフィードバックする取り組みがなされている。
【0005】
ここでの外観検査には、主にミクロ検査とマクロ検査の2種類がある。
【0006】
ミクロ検査は5μm程度の分解能により、微小な欠陥やパターン異常などを検出するものであり、マクロ検査は100μm程度の分解能により、レジストの塗付ムラや露光不良、キズ、塵埃の付着といった比較的大きな欠陥を検出する検査である。
【0007】
マクロ検査は、ミクロ検査で局所的に見てもわからない欠陥を検出できたり、低分解能ゆえ高スループットであるなどの利点がある。
【0008】
欠陥分類装置に関しては、特開平8-21803号公報に記載の“欠陥種別判定装置及びプロセス管理システム”に、各欠陥情報(=特徴量)の入力パターンに対し、その欠陥種を出力するよう学習させたニューラルネットワークを構築し、これにより欠陥を分類する装置の構成が示されている。
【0009】
また、前記先行技術における学習時の教示用データの与え方に関する問題を指摘し、改善を図った特開平11-344450号公報に記載の“教示用データ作成方法並びに欠陥分類方法およびその装置”には、画像特徴量による多次元空間での各欠陥の分布を教示用データに基づいて既定し、統計的な判別分析により欠陥を分類する装置の構成が示されている。
【0010】
更に、特開平8-94536号公報に記載の“欠陥種別判定装置及びプロセス管理システム”には、検出欠陥に対する複数の評価項目(特徴量)の実測値を段階的に分けてコード化し、そのコード列に基づき予め設定された欠陥名称を参照することで欠陥を分類する装置の構成(いわゆる分類木的手法)が示されている。
【0011】
【発明が解決しようとする課題】
しかしながら、特開平8-21803号公報や特開平11-344450号公報のようにニューラルネットワークや統計手法を用いた欠陥分類装置では、予め欠陥サンプルを多数登録する必要があり、非常に多くの時間を要するという問題がある。
【0012】
また通常は、品種、工程が変わるごとに登録が必要となるため、少量多品種の製品では十分な欠陥サンプルを用意できないという問題もある。
【0013】
一方、特開平8-94536号公報に記載の装置では、人の経験や知識より各コード列に対応する欠陥を設定することができ、上記のような問題は生じないが、コードの切り替わり付近での曖昧な処理ができない、つまり、切り替わり位置の微妙な差で、全く異なる結果に分類される対象が生じたり、同じコード列ながら切り替わり付近の値を持つ対象と明らかに切り替わりから離れた値を持つ対象とに同じ結果しか与えられない、などの問題が生じる。
【0014】
更に、これまでの欠陥分類装置に用いられる特徴量には、検出された欠陥領域を単体として捉えて処理するものが多く、ミクロ検査のように人間に認識される欠陥と検出領域が1対1で対応する場合には問題ないが、マクロ検査のように、人間に認識される欠陥と検出領域が1対1で対応しない(図5(A)のようにパターンによる欠陥の分断や画像の量子化レベルにより、一つの欠陥が分割されて検出される)場合には、正確な分類が難しいなどの問題がある。
【0015】
これまで上記のような問題を解決して、有効的に欠陥分類を行う装置は明確にされていない。
【0016】
本発明はこのような課題に着目してなされたものであり、その目的とするところは、主に半導体ウェハ及び液晶パネルのマクロ検査におけるレジストの塗付ムラや露光不良、キズ、塵埃の付着などの欠陥に関して、欠陥データの登録を必要とせず、より人間の判断に近い分類を可能にする欠陥分類装置を提供することにある。
【0017】
【課題を解決するための手段】
上記の目的を達成するために、第1の発明は、被検体の検査画像を基に比較により検出された欠陥画素を2値化した欠陥検出画像を得て、検出された欠陥部の種類を判別する欠陥分類装置において、検出領域単体および連結領域での前記欠陥部の特徴量の抽出を行う領域単体特徴抽出手段と、前記欠陥部の複数域の配置形状に基づく特徴量を抽出する領域配置特徴抽出手段と、各前記欠陥部の領域の形状により適応的な構造要素を用いた膨張処理により、重なり合った少なくとも2つ以上の前記欠陥部の領域を連結する領域連結手段と、からなる特徴抽出手段と、この特徴抽出手段により抽出された前記欠陥部の特徴量に基づき、欠陥種を判別する推論判別手段と、この推論判別手段により判別された欠陥種が確定した前記欠陥部の領域を前記欠陥検出画像から除外する確定領域除外手段と、を具備し、前記特徴抽出手段は、前記確定領域除外手段によって全ての前記欠陥部の領域が除外された場合には抽出処理を終了し、且つ、前記欠陥検出画像に前記欠陥部の領域が残った場合には、前記確定領域除外手段によって、欠陥種が確定した前記欠陥部の領域が除外された後、前記欠陥部の領域が残った欠陥検出画像を基に再度抽出処理を行う。
【0018】
また、第2の発明は、第1の発明に係る欠陥分類装置において、前記領域連結手段は、各前記欠陥部の領域の最大最小フェレ径比(≧1)及び主軸角を算出する手段と、算出した最大最小フェレ径比の値を基に膨張処理に用いられる構造要素の形状を円形あるいは細線形から選択する手段と、細線形の構造要素が選択された前記欠陥部の領域の主軸角に対しその細線形の方向を合わせる手段と、各前記欠陥部の領域ごとに決定された構造要素を用いて欠陥領域画像において膨張処理を行い、重なり合う領域を連結する手段とを含む。
【0019】
また、第3の発明は、第1または第2の発明に係る欠陥分類装置において、前記推論判別手段は、特徴量の値と予め設定した分類ルールに基づくファジィ推論を行う手段を含む。
【0020】
また、第4の発明は、第1から第3のいずれか1つの発明に係る欠陥分類装置において、 前記欠陥は、半導体ウェハや液晶パネル等の製造工程で生じる露光不良、塗付ムラ、キズ、塵、埃等である
【0021】
また、第5の発明は、第の発明に係る欠陥分類装置において、前記特徴抽出手段は、露光工程での露光区画情報を用いて特徴量を抽出する手段を含む
【0022】
また、第6の発明は、第5の発明に係る欠陥分類装置において、前記露光区画情報を用いて特徴量を抽出する手段は、露光区画形状を示すテンプレート画像を作成する手段と、前記テンプレート画像を検出した前記欠陥部の領域の画像の露光区画位置に合わせて走査し、各露光区画位置での両画像の相関値を算出する手段と、前記相関値が算出された露光区画内の検出欠陥に対し前記相関値を特徴量として付加する手段とを含む
【0023】
また、第7の発明は、第5の発明に係る欠陥分類装置において、前記露光区画情報を用いて特徴量を抽出する手段は、検出した前記欠陥部の領域の画素を垂直あるいは水平方向に積算する手段と、積算値の外形曲線をフーリエ変換し各周波数における振幅値を算出する手段と、露光区画周期に相当する周波数の振幅値と他の周期に相当する周波数の平均振幅値の比を算出する手段と、前記積算に用いられた検出欠陥に対し前記比の値を特徴量として付加する手段とを含む
【0024】
また、第8の発明は、第5の発明に係る欠陥分類装置において、前記露光区画情報を用いて特徴量を抽出する手段は、検出した前記欠陥部の領域の画像における任意の露光区画よりテンプレート画像を作成する手段と、前記テンプレート画像を前記任意の露光区画の上下あるいは左右に位置する露光区画に合わせて相関値を算出し、その平均を算出する手段と、前記任意の露光区画内の検出欠陥に対し前記平均値を特徴量として付加する手段とを含む。
【0025】
また、第9の発明は、第4の発明に係る欠陥分類装置において、前記特徴抽出手段は、塗付工程でのウェハ回転中心に対する極座標を用いて特徴量を抽出する手段を含む
【0026】
また、第10の発明は、第9の発明に係る欠陥分類装置において、前記特徴抽出手段は、検出した前記欠陥部の領域を塗付工程でのウェハ回転中心に対する極座標系に変換した極座標画像を作成する手段と、前記極座標画像において直線成分を検出する手段と、前記直線成分を構成する前記欠陥部の領域に対し前記直線成分の長さを特徴量として付加する手段とを含む
【0027】
また、第11の発明は、第1から第10のいずれか1つの発明において、検出された前記欠陥部の領域の画像を示す表示手段と、この表示手段において欠陥種が確定した前記欠陥部の領域を、その確定した順に明示する手段とを備え、これによって欠陥種が確定した経過をユーザーに示す。
【0030】
【発明の実施の形態】
以下に、図面を参照して本発明の実施の形態を詳細に説明する。本発明の実施の形態を説明するに先立って、分類対象となる欠陥の種類を説明する。図1(A)〜(H)は、マクロ検査における主な欠陥例(対象:半導体ウェハ)を示す図である。
【0031】
レジスト塗付工程では、例えばコーター装置を用いてウェハ中央部に塗付素材(液状)を滴下し、そこを中心にウェハを回転させることで、ウェハ全面へのレジスト塗布を行う。同工程で発生する欠陥には以下のようなものがある。
【0032】
塗付ムラ1(図1(A)):滴下がうまく行かず、飛び散ってしまったり、塗付素材の粘性が適切でなく回転時にスムーズに伸びない場合などは、回転中心に対し放射状にムラが生じる。
【0033】
塗付ムラ2(図1(B)):ウェハ上に異物が付着すると、その部分から外側にかけて塗付素材がスムーズに流れなくなり、彗星形状にムラが生じる。
【0034】
塗付ムラ3(図1(C)):図1(B)と同様に異物が付着した際、塗付素材の粘性具合、塗付時の回転速度によっては、螺旋状にムラが生じる。
【0035】
露光工程では、レジスト塗付後のウェハにパターンを形成するため、所定の露光区画単位で転写を行う。代表的な装置にステッパがある。同工程で発生する欠陥には以下のようなものがある。
【0036】
露光不良1(図1(D)):露光区画単位でフォーカスがずれることにより、その区画が他の区画と異なる表面状態となる(パターンがだれる)。
【0037】
露光不良2(図1(E)):露光機が傾き、露光区画内で部分的にフォーカスがずれたままステップを続けることにより、ステップ単位の周期で通常と異なる表面状態が生じる。
【0038】
露光不良3(図1(F)):露光されるレジスト膜の裏側に異物が混入することにより、部分的にレジスト膜が盛り上がり、その部分でフォーカスがずれることにより、他と異なる表面状態となる。
【0039】
上記の各工程に代表される欠陥の他にも以下の欠陥がある。
【0040】
キズ(図1(G))
塵、埃の付着(図1(H))
画像を用いた外観検査では、特開平8-21803号公報に示されるように被検体の外観を干渉、回折像等により画像化し、基準となる良品ウェハ画像との比較を行ったり、同一パターンとなる区画単位で比較を行うことで、通常と異なる部分(欠陥部)の検出を行う。
【0041】
以下に、本発明の実施の形態を詳細に説明する。図2は、本実施の形態に係る欠陥分類装置の構成を示す図である。本実施の形態の欠陥分類装置は、分類に必要な諸条件を設定する条件設定手段101と、検出された領域単体の形状や輝度に関する特徴を得る領域単体特徴抽出手段103と、検出された領域を所定の方法で連結する領域連結手段104と、検出された領域の配置形状による特徴を得る領域配置特徴抽出手段105と、前記領域単体特徴抽出手段103、領域配置特徴抽出手段105の各特徴抽出手段で得られた特徴量と、条件設定手段101により設定された分類ルールに基づき各欠陥種の可能性を推論し、欠陥の判別を行う推論判別手段106と、判別により欠陥種が確定した領域を除外する確定領域除外手段107と、前記各々の処理に利用するメモリ108から構成される。領域単体特徴抽出手段103と領域配置特徴抽出手段105と領域連結手段104とは特徴抽出手段102を構成する。
【0042】
なお、本発明の欠陥分類装置は、先に述べた良品ウェハ画像との比較や同一パターン区画での比較により検出された欠陥画素を明、他を暗とした2値画像(以後、欠陥検出画像と記す)と、この欠陥検出に用いた被検体の外観(多値)画像(以後、検査画像と記す)を得て、各検出領域毎にその欠陥種が何であるかを判定した結果を出力する構成である。
【0043】
以下に、上記した構成の作用を図2、図3のフローチャートを参照して説明する。欠陥分類装置は、欠陥検出画像と検査画像を取得(ステップS1)した後、領域単体特徴抽出手段103において検出領域単体での特徴量の抽出を行う(ステップS2)。次に領域配置特徴抽出手段105において、複数領域の配置形状による特徴量を抽出し、この特徴量を、配置形状を構成する各検出領域に付加する(ステップS3)。その後、領域単体特徴抽出手段103で得た情報と欠陥検出画像を基に、領域連結手段104において、各検出領域の形状に適応的な構造要素を用いて膨張処理を行い、領域を連結した画像(以後、連結領域画像と記す)を作成する(ステップS4)。
【0044】
連結領域画像は、再度、領域単体特徴抽出手段103に送られ、ここで、連結領域の特徴量を抽出し、この特徴量を、連結領域を構成する各検出領域に付加する(ステップS5)。ステップS2,S3,S5により得られた特徴量と条件設定手段101により設定された分類ルールに基づき、推論判別手段106では、各欠陥種の可能性値を推論し、欠陥種の判別を行う(ステップS6)。ステップS6の結果を基に、確定領域除外手段107では、欠陥種が確定した領域を欠陥検出画像より除外する(ステップS7)。ステップS7の結果、全ての領域が除外された場合には、全ての検出領域の欠陥種が確定しているので、処理は終了する。
【0045】
欠陥検出画像に領域が残った場合には、この画像を基に再度ステップS3〜S7のステップを繰り返す。
【0046】
画像が異なるため、配置形状による特徴量や連結領域の特徴量が異なる。つまり確定した領域を除くことで、より正確な特徴量を抽出し、これに基づき推論、判別を行える。
【0047】
続いて上記した各手段での処理の詳細を説明する。条件設定手段101では、分類に必要な諸条件を入力する。入力内容については後述の各手段での処理に沿って説明する。
【0048】
図4は、領域単体特徴抽出手段103での処理の詳細を説明するためのフローチャートである。領域単体特徴抽出手段103では、以下の手順に従って、各検出領域の特徴量を得る。
【0049】
1. 欠陥検出画像内の検出された複数の領域をラベリングする(図4のステップS10、図5(B))。
【0050】
2.検出領域の位置特徴(重心位置、外接矩形位置)を算出する(図4のステップS11、図6(A))。
【0051】
3. 検出領域の形状特徴(面積、円径度、最大最小フェレ径比(≧1)、主軸角)を算出する(図4のステップS12、図6(A))。
【0052】
4. 検出領域の輝度特徴(平均、分散)を算出する(図4のステップS13、図6(A))。
【0053】
5. 検出領域ごとの特徴量リストを作成する(図4のステップS14、図6(B))。
【0054】
なお、上記 1,2,3,4で示される一連の処理は、粒子解析(またはブロブ解析)と呼ばれる一般的な画像処理手法である。
【0055】
図7は、領域連結手段104での処理の詳細を説明するためのフローチャートである。また、図8、図9は、領域連結の説明図である。
【0056】
領域連結手段104では、領域単体特徴抽出手段103で得た特徴を利用し、以下の手順に従って、各検出領域を連結した連結領域画像を作成する。
【0057】
1. 各領域の最大最小フェレ径比を基に、その領域に対する膨張処理用の構造要素を選択する。最大最小フェレ径比が、ある閾値(試行した結果の固定値でも、条件設定手段101で設定した値でも良い)以上かどうかを判断し(図7のステップS20)、YESならば方向性をもつ領域と見做し、細線形の構造要素(図8(A))を選択する(図7のステップS21)。
【0058】
また、ステップS20での判断がNO、すなわち、閾値より小さければ円径の構造要素(図8(B))を選択する(図7のステップS23)。なお、円径度を利用して上記の選択を行ってもよい。
【0059】
2. 細線形の構造要素を選択した場合には、更にその領域の主軸方向に細線形の方向をあわせる(図7のステップS22)。図8(C)に細線形構造要素の方向例を示す。構造要素のサイズが小さい場合には方向が制限されるが、サイズを大きくすることで方向の細分化は可能である。なお、輪郭方向のヒストグラム分布より領域の方向を推定し、これと同方向になるようにしても良い。
【0060】
3. 選択された構造要素を用いて膨張処理(図7のステップS24)を行い、連結領域画像を作成する。ここでの膨張処理は、モフォロジー処理と呼ばれる一般的な画像処理手法の一つであり、膨張の結果、重なり合った領域は連結されることになる。膨張の処理回数は撮像系、被検体の諸条件、各構造要素のサイズに基づき条件設定手段101で設定する。
【0061】
図7のステップS25で全ての検出領域に対して判定がなされたと判断された場合には処理を終了する。
【0062】
図8(D)に図5(A)の検出領域に対し、本例の膨張処理を行った結果を示す。
【0063】
上記手順により、検出領域形状に適応的な構造要素で膨張処理を行うことで、方向性をもつ領域は長手方向に、その他は放射方向に膨張、連結することができる。また、膨張後の領域形状を基に構造要素を再決定して、収縮処理を行えば、より良好な領域連結も可能となる。
【0064】
全ての検出領域に同一の構造要素(円形)を用いる一般的な膨張、あるいは膨張収縮処理では、検出領域の方向性が考慮されないため、図8(E)、図9(A)、(B)に示すように、キズとその近傍にある塵を良好な状態で連結することができず、以後の特徴抽出を正確に行うことができない。
【0065】
領域連結手段104で作成された連結領域画像は、再度、領域単体特徴抽出手段103に送られ、以下の手順で処理される。基本的な処理フローは図4と同様である。
【0066】
1. 連結後の各領域(連結領域と記す)をラベリングする(図10(A))。
【0067】
2. 連結領域の位置特徴(重心位置、外接矩形位置)を算出する。
【0068】
3. 連結領域の形状特徴(面積、円径度、最大最小フェレ径比(≧1)、主軸角)を算出する。
【0069】
4. 算出した特徴を、それぞれの構成パーツとなる検出領域に付加して、検出領域ごとの特徴量リストを作成する(図10(B))。
【0070】
上記した1,2,3の一連の処理は粒子解析による。
【0071】
領域配置特徴抽出手段105では、連結前の欠陥検出画像を基に領域の配置特徴を得る。以下に代表的な配置特徴を挙げ、その算出方法を示す。
【0072】
1) 検出領域による露光区画形状の構成具合を示す特徴量(露光不良1の判断に用いる)。
【0073】
<算出方法>
1. 露光区画形状の部分を明、その周辺を暗としたテンプレートを作成する(図11(A))。
【0074】
2. 欠陥検出画像(欠陥画素が明、その他が暗の2値画像)内の露光区画位置とテンプレート内の露光区画形状が完全に重なるように配置し、テンプレート範囲内で両画像の差分絶対値の総和を算出する(図11(B))。
【0075】
両画像の差分絶対値の総和Rは、
【数1】

Figure 0004516253
により求めることができる。ここで、I(a、b)は欠陥検出画像の座標(a、b)での画素値(1または0)である。また、T(a、b)はテンプレートの座標(a、b)での画素値(1または0)である。
【0076】
3.2で算出した値を1)の特徴量として、対象の露光区画内の検出領域に付加する。
【0077】
4. テンプレートを走査し(図12(A))、欠陥検出画像内の全ての露光区画位置で2及び3の処理を行う。
【0078】
なお、計算量を減らすために図12(B)に示すようなテンプレートを用いても良い。
【0079】
2) 水平、垂直方向の露光区画単位の周期性具合を示す特徴量(露光不良2の判断に用いる)。
【0080】
<算出方法1>
1. 欠陥検出画像内の検出画素(明画素)を垂直方向に積算する(図13(A))。
【0081】
2. 積算結果により得た曲線をフーリエ変換する(図13(B))。
【0082】
3. 露光区画周期に相当するパワースペクトル値Xと他の周期に相当するパワースペクトル値a(露光区画周期以外の部分で平均的に算出する)の比を算出する(図13(B))。
【0083】
4.3で算出した値を2)の特徴量(水平方向の周期具合)として、画像内の各検出領域に付加する。
【0084】
なお、局所的な特徴量を得るために、図14に示すような短冊領域を複数設定して、各々の短冊領域内の検出画素を積算して処理を行っても良い。その場合は算出した特徴量は短冊領域内の各検出領域に付加する。
【0085】
本実施の形態では垂直方向の積算を示したが、水平方向に積算することで、垂直方向の周期具合を示す特徴量とすることができる。
【0086】
<算出方法2>
1. 対象露光区画での検出領域画像よりテンプレート52を作成する(図15(A))。
【0087】
2. 1でのテンプレートを対象露光区画の左隣の露光区画(図15(B))に完全に重なるように配置し、テンプレート範囲内で両画像の差分絶対値の総和を算出する。
【0088】
3. 1でのテンプレートを対象露光区画の右隣の露光区画(図15(B))に完全に重なるように配置し、テンプレート範囲内で両画像の差分絶対値の総和を算出する。
【0089】
4.2及び3で求めた値の平均値を2)の特徴量(水平方向の周期具合)として、対象露光区画内の各検出領域に付加する。
【0090】
5. テンプレートを走査し(図12(A))、欠陥検出画像内の全ての露光区画位置で1〜4の処理を行う。
【0091】
なお、対象の露光区画が端に位置し、左あるいは右隣の露光区画が存在しない場合には、片側のみの値を用いる。
【0092】
また、 本実施形態では水平方向の左右隣との差分を示したが、垂直方向の上下隣との差分を行うことで、垂直方向の周期具合を示す特徴量とすることができる。
【0093】
3) 画像全体での(塗付時の回転中心に対する)放射方向成分の総量を示す特徴量(塗付ムラ1の判断に用いる)。
【0094】
<算出方法>
1. 検出領域のエッジを抽出する(図16(A)。
【0095】
2. 抽出されたエッジ部分の画素を、塗付時の回転中心に対する極座標系画像(横軸:角度θ、縦軸:中心からの距離r)へ変換する(図16(B))。極座標系画像での縦方向線分は、原画像での放射方向線分に相当する。縦方向線分検出用のオペレータ(テンプレート)等を用いて縦方向線分の検出を行う(図17(A))。
【0096】
3.検出された縦方向線分の総長さ(総面積)を3)の特徴量として、画像内の各検出領域に付加する。
【0097】
なお、極座標系画像において縦方向の細線構造要素で連結処理を行うことは、原画像における放射方向連結を行うことに相当する。さらに外周側からの輪郭追跡等を併用することで図17(B)に示すような縦線分の検出も可能である。
【0098】
4) 各検出領域での(塗付時の回転中心に対する)放射方向成分の量を示す特徴量(塗付ムラ2の判断に用いる)。
【0099】
<算出方法>
1.3)特徴量算出の1〜3の処理を行う。
【0100】
2.検出された縦方向線分の長さを4)の特徴量として、対応する各検出領域に付加する。
【0101】
なお、極座標系画像において縦方向の細線構造要素で連結処理を行い(原画像での放射方向連結に相当)、その後、縦方向線分の長さ測定を行うことで得た特徴量を、連結領域の構成パーツとなる各領域に付加しても良い。
【0102】
5) 各検出領域における(塗付時の回転中心に対する)螺旋成分の割合を示す特徴量(塗付ムラ3の判断に用いる)。
【0103】
<算出方法>
1.3)特徴量算出の1及び2の処理を行う。なお原画像での螺旋成分は極座標系画像での斜方向線分に相当する。
【0104】
2. 斜方向線分検出用のオペレータ等を用いて斜方向線分の検出を行う。
【0105】
3.検出された斜方向線分の長さを5)の特徴量として、対応する各検出領域に付加する。
【0106】
なお、3)、4)、5)の特徴量算出における線分検出にはハフ変換を利用してもよい。
【0107】
推論判別手段106では、103、105の各特徴抽出手段で得られた特徴量と条件設定手段101により設定された分類ルールに基づき、各欠陥種の可能性を推論する。
【0108】
推論のプロセスを示す前に、分類ルールについて説明する。これまでの経験や知識より“小さくて細長い領域はキズである可能性が高い”とか、“小さければ細長くなくてもキズの可能性がある”等が言える場合、“大きさ”を表す指標に面積を、細長さ”を表す指標に最大最小フェレ径比(細長いものほど値は大きい)を用いると以下のようにルール化できる。
【0109】
▲1▼ :IF 面積=小さい AND 最大最小フェレ径比=大きい THEN キズの可能性=高い
▲2▼ :IF 面積=小さい AND 最大最小フェレ径比=小さい THEN キズの可能性=中程度
▲3▼ :IF 面積=大きい AND 最大最小フェレ径比=大きい THEN キズの可能性=中程度
▲4▼ :IF 面積=大きい AND 最大最小フェレ径比=小さい THEN キズの可能性=低い
次に、ルールで用いられる “小さい”、“大きい”、“高い”、“低い”という表現に対して、各特長軸での数値が、どの程度合致するかの度合いを0〜1の値(適合度)で示した変化線(メンバーシップ関数)を設定する(図18(A)〜図18(C))。
【0110】
上記の設定に基づき、ある検出領域(面積=x、最大最小フェレ径比=y)のキズの可能性を推論するプロセスを図19,図20に示す。これはファジィ推論における直接法として一般的な推論方法である((参考)ラッセル社:応用をめざす人のためのファジィ理論入門:田中一男著)。
【0111】
図20では、図19においてそれぞれのルール▲1▼〜▲4▼で得た集合を合成(論理和)して中間的な解(重心Z)を得る。結果的には、4つのルールに対しそれぞれのルールの観点で考えた場合のキズの可能性を求め、補完的な判定結果を得ることに相当する。
【0112】
本例では、キズに対して4つのルールしか示さなかったが、更に多くのルールを設定することで精度の向上が図れる。
【0113】
また、同様に他の欠陥に対する知識を基に複数のルール(&メンバシップ関数)を設定し、それらのルールを処理することで、全ての欠陥種に対する可能性の値が算出できる。
【0114】
各欠陥種の可能性値が推論された後は以下の処理によって、欠陥種の確定を行う。
【0115】
1. 判定対象の検出領域における各欠陥種の可能性値を高い順に並べる。
【0116】
2. “最も高い欠陥種の可能性値−2番目に高い欠陥種の可能性値>閾値“の場合に、対象の検出領域の欠陥種が確定したと判定する。
【0117】
3. 1.及び2.の処理を欠陥検出画像内の全ての検出領域に対して行う。
【0118】
なお、2.での閾値は、試行した結果の固定値でも、条件設定手段101で設定した値でも良い。また、前述の繰り返し処理(図3,ステップS3〜S8)の回数が多くなるにつれ低くなるように設定しても良い。
【0119】
確定領域除外手段107では、欠陥検出画像において欠陥種が確定した検出領域内の画素を明から暗に変更することで、欠陥種が確定した領域の除外を行う。
【0120】
【発明の効果】
本発明によれば、欠陥種が確定した領域を除外した画像を基に配置形状による特徴を抽出することで、より正確な特徴が得られ、分類精度が向上する。
【0121】
また、欠陥種が確定した領域を除外した画像を基に膨張(連結)処理を行って得た領域の特徴を抽出することで、より正確な特徴が得られ、分類精度が向上する。
【0122】
また、知識に基づく分類ルールにより欠陥分類を行うため、教示用のサンプルが必要ない。
【0123】
また、欠陥種を示す特徴が顕著な領域とそうでない領域を欠陥種の可能性の差として示せる。
【0124】
また、検出領域単体の特徴量だけでなく、配置による特徴量を用いることで、分類精度を向上できる。
【0125】
また、検出領域に適応的な構造要素による連結を行うことで、正確な連結領域特徴が得られ、分類精度が向上する。
【図面の簡単な説明】
【図1】マクロ検査における主な欠陥例を示す図である。
【図2】本実施の形態に係る欠陥分類装置の構成を示す図である。
【図3】欠陥分類処理の詳細を説明するためのフローチャートである。
【図4】領域単体特徴抽出手段103での処理の詳細を説明するためのフローチャートである。
【図5】領域単体特徴抽出の説明図(その1)である。
【図6】領域単体特徴抽出の説明図(その2)である。
【図7】領域連結手段104での処理の詳細を説明するためのフローチャートである。
【図8】領域連結の説明図(その1)である。
【図9】領域連結の説明図(その2)である。
【図10】連結領域単体特徴抽出の説明図である。
【図11】露光区画形状の構成具合を示す特徴量の説明図であり、(A)は露光区画形状の部分を明、その周辺を暗としたテンプレートを示し、(B)は欠陥検出画像の露光区画部分を示している。
【図12】露光区画形状の構成具合を示す特徴量の説明図であり、(A)はテンプレートの走査例を示し、(B)は計算量削減のためのテンプレート例を示している。
【図13】露光区画サイズの周期性具合を示す特徴量の説明図(その1)であり、(A)は検出画素の垂直方向への積算を示し、(B)は積算曲線のフーリエ変換と露光区画サイズの周期性を示す特徴量を示している。
【図14】露光区画サイズの周期性具合を示す特徴量の説明図(その1)であり、短冊領域での垂直方向への積算を示している。
【図15】露光区画サイズの周期性具合を示す特徴量の説明図(その2)であり、(A)は対象露光区画の検出結果画像に基づくテンプレートの作成を示し、(B)は対象露光区画の水平方向の左右隣の露光区画を示している。
【図16】画像全体での放射方向成分の量を示す特徴量の説明図であり、(A)は検出領域のエッジ抽出を示し、(B)は塗布時の回転中心に対する極座標変換を示している。
【図17】画像全体での放射方向成分の量を示す特徴量の説明図であり、(A)は極座標画像での縦方向線分1を示し、(B)は極座標画像での縦方向線分検出2を示している。
【図18】ファジィ推論による欠陥の可能性の算出の説明図であり、キズ判定ルールでの表現に対するメンバシップ関数を示している。
【図19】ファジィ推論による欠陥の可能性の算出の説明図であり、推論プロセス(その1)を示している。
【図20】ファジィ推論による欠陥の可能性の算出の説明図であり、推論プロセス(その2)を示している。
【符号の説明】
101 条件設定手段
102 特徴抽出手段
103 領域単体特徴抽出手段
104 領域連結手段
105 領域配置特徴抽出手段
106 推論判別手段
107 確定領域除外手段
108 メモリ[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a defect classification apparatus, and more particularly to a type of defect type detected based on an image, and more particularly to a defect classification apparatus in an appearance inspection performed on a production line such as a semiconductor wafer or a liquid crystal panel.
[0002]
[Prior art]
In the manufacture of semiconductor wafers, liquid crystal panels, and the like, a multilayer wiring pattern is formed by repeating a process such as film formation, resist coating, exposure, development, etching, and resist peeling a plurality of times.
[0003]
In order to improve the yield of products that are finally completed through several hundred manufacturing steps, early detection of defects and optimization of the manufacturing steps are essential items.
[0004]
For this reason, conventionally, before the etching process in which the actual pattern is formed, the appearance of the object is inspected, the defect is detected, the defective product is selected, the type of the defect is determined, and the information is provided in the manufacturing process. Efforts are being made to provide feedback.
[0005]
There are mainly two types of appearance inspections here: micro inspection and macro inspection.
[0006]
The micro inspection detects minute defects and pattern abnormalities with a resolution of about 5 μm, and the macro inspection has a resolution of about 100 μm with relatively large resist coating unevenness, poor exposure, scratches, and dust adhesion. This is an inspection for detecting defects.
[0007]
Macro inspection has advantages such as the ability to detect defects that cannot be seen locally by micro inspection, and high throughput due to low resolution.
[0008]
Regarding the defect classification device, learning to output the defect type to the input pattern of each defect information (= feature amount) to the “defect type determination device and process management system” described in Japanese Patent Application Laid-Open No. Hei 8-21803. A configuration of an apparatus for constructing a neural network and classifying defects by this is shown.
[0009]
Further, in the above-mentioned prior art, the problem relating to how to provide teaching data at the time of learning is pointed out, and the “teaching data creation method and defect classification method and apparatus” described in JP-A-11-344450 has been improved. Shows a configuration of an apparatus that classifies defects by statistical discriminant analysis by predetermining the distribution of each defect in a multidimensional space based on image feature values based on teaching data.
[0010]
Furthermore, in the “defect type determination apparatus and process management system” described in Japanese Patent Application Laid-Open No. 8-94536, the measured values of a plurality of evaluation items (features) for detected defects are coded in stages, and the code A configuration (a so-called classification tree method) of an apparatus for classifying defects by referring to defect names set in advance based on columns is shown.
[0011]
[Problems to be solved by the invention]
However, a defect classification apparatus using a neural network or a statistical method as in JP-A-8-21803 and JP-A-11-344450 needs to register a large number of defect samples in advance, and it takes a lot of time. There is a problem that it takes.
[0012]
In addition, since registration is usually required every time the product type and process changes, there is also a problem that a sufficient number of defective samples cannot be prepared with a small amount of many product types.
[0013]
On the other hand, in the apparatus described in Japanese Patent Laid-Open No. 8-94536, defects corresponding to each code string can be set based on human experience and knowledge, and the above problems do not occur. Cannot be processed vaguely, that is, there is a subject that is classified as a completely different result due to a subtle difference in the switching position, or a value that is clearly separated from a target that has a value in the vicinity of switching while having the same code string Problems such as only giving the same result to the subject arise.
[0014]
Furthermore, many of the feature quantities used in the conventional defect classification apparatuses are processed by treating the detected defect area as a single unit, and there is a one-to-one correspondence between the defect and the detection area recognized by humans as in micro inspection. However, as in macro inspection, defects recognized by humans do not correspond to detection areas on a one-to-one basis (as shown in FIG. 5A, defect division by pattern or image quantum). If one defect is divided and detected depending on the level of conversion), there is a problem that accurate classification is difficult.
[0015]
Until now, an apparatus for solving the above problems and effectively classifying defects has not been clarified.
[0016]
The present invention has been made paying attention to such problems, and the object of the present invention is mainly non-uniformity of application of resist, exposure failure, scratches, dust adhesion, etc. in macro inspection of semiconductor wafers and liquid crystal panels. It is an object of the present invention to provide a defect classification apparatus that does not require registration of defect data and enables classification closer to human judgment.
[0017]
[Means for Solving the Problems]
  In order to achieve the above object, the first invention obtains a defect detection image obtained by binarizing a defective pixel detected by comparison based on an inspection image of a subject, and determines a type of the detected defective portion. In the defect classification device to identify,Area single feature extraction means for extracting feature quantities of the defective portions in the detection region single and connected regions;MultipleTerritoryExtract feature values based on area shapeRegion placement feature extractionMeans,A region connecting means for connecting at least two overlapping defect regions by an expansion process using structural elements that are more adaptive to the shape of each defect region;And a defect type is determined based on the feature amount of the defect portion extracted by the feature extraction unit.inferenceThe discrimination means and thisinferenceA defined area excluding unit that excludes the area of the defect portion in which the defect type determined by the determining unit is determined from the defect detection image, and the feature extracting unit includes all the defects by the determined area excluding unit. If the region of the part is excluded, the extraction process is terminated, and if the region of the defective part remains in the defect detection image,The defect region remains after the defect region whose defect type has been determined is excluded by the defined region exclusion means.The extraction process is performed again based on the defect detection image.
[0018]
  Moreover, 2nd invention is the defect classification device based on 1st invention,The area connecting means is a means for calculating a maximum / minimum ferret diameter ratio (≧ 1) and a principal axis angle of each defect area, and a structural element used for expansion processing based on the calculated maximum / minimum ferret diameter ratio. Means for selecting the shape of the shape from circular or fine line, means for aligning the direction of the fine line with the principal axis angle of the defect part region where the fine linear structural element is selected, and for each defect part region Means for performing expansion processing on the defect area image using the determined structural element, and connecting overlapping areas.
[0019]
  In addition, the third invention,1st or 2ndIn the defect classification apparatus according to the invention ofThe inference determination means includes means for performing fuzzy inference based on a feature value and a preset classification rule.
[0020]
  The fourth invention is the defect classification apparatus according to any one of the first to third inventions,The defects are exposure defects, uneven coating, scratches, dust, dust, etc. that occur in the manufacturing process of semiconductor wafers and liquid crystal panels..
[0021]
  In addition, the fifth invention is the4In the defect classification apparatus according to the invention ofThe feature extraction means includes means for extracting a feature amount using exposure section information in an exposure process..
[0022]
  In addition, the sixth invention,5thIn the defect classification apparatus according to the invention,The means for extracting the feature amount using the exposure section information scans in accordance with the means for creating a template image indicating the exposure section shape, and the exposure section position of the image of the defect area where the template image is detected. And means for calculating a correlation value between both images at each exposure section position, and means for adding the correlation value as a feature amount to the detected defect in the exposure section where the correlation value is calculated..
[0023]
  In addition, the seventh invention,5thIn the defect classification apparatus according to the invention,The means for extracting the feature amount using the exposure section information includes means for integrating the pixels in the detected defect area in the vertical or horizontal direction, and Fourier transforming the outline curve of the integrated value to obtain an amplitude value at each frequency. Means for calculating, means for calculating the ratio of the amplitude value of the frequency corresponding to the exposure section period and the average amplitude value of the frequency corresponding to the other period, and the value of the ratio for the detected defect used in the integration. Including means for adding as a feature quantity.
[0024]
  Further, the eighth invention is5thIn the defect classification apparatus according to the invention,The means for extracting the feature amount using the exposure section information includes means for creating a template image from an arbitrary exposure section in the detected image of the defective portion area, and the template image above and below the arbitrary exposure section or Means for calculating a correlation value in accordance with the exposure sections located on the left and right, and calculating an average thereof; and means for adding the average value as a feature amount to the detected defect in the arbitrary exposure section.
[0025]
  In addition, the ninth invention,4thIn the defect classification apparatus according to the invention,The feature extraction means includes means for extracting a feature value using polar coordinates with respect to the wafer rotation center in the coating process..
[0026]
  The tenth aspect of the invention is9thIn the defect classification apparatus according to the invention,The feature extraction means includes means for creating a polar coordinate image obtained by converting the detected area of the defective portion into a polar coordinate system with respect to a wafer rotation center in a coating process, means for detecting a linear component in the polar coordinate image, and the straight line Means for adding the length of the linear component as a feature amount to the region of the defective portion constituting the component..
[0027]
  The eleventh inventionAny one of the first to tenthIn the invention,Display means for displaying an image of the detected area of the defect portion, and means for clearly indicating the areas of the defect portion in which the defect type is determined in the display means in the order of determination, thereby determining the defect type Show progress to user.
[0030]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments of the present invention will be described below in detail with reference to the drawings. Prior to describing the embodiment of the present invention, the types of defects to be classified will be described. FIGS. 1A to 1H are diagrams illustrating main defect examples (target: semiconductor wafer) in macro inspection.
[0031]
In the resist coating process, for example, a coating material (liquid) is dropped onto the center of the wafer using a coater apparatus, and the wafer is rotated around the wafer to perform resist coating on the entire surface of the wafer. The following defects are generated in the same process.
[0032]
Uneven coating 1 (Fig. 1 (A)): If dripping does not go well and scatters, or if the viscosity of the coated material is not appropriate and does not stretch smoothly during rotation, unevenness is uneven radially from the center of rotation. Arise.
[0033]
Coating unevenness 2 (FIG. 1B): When a foreign substance adheres to the wafer, the coating material does not flow smoothly from that portion to the outside, and the comet shape is uneven.
[0034]
Uneven coating 3 (FIG. 1C): When foreign matter adheres as in FIG. 1B, unevenness occurs spirally depending on the viscosity of the coating material and the rotation speed during coating.
[0035]
In the exposure step, transfer is performed in units of predetermined exposure sections in order to form a pattern on the resist-coated wafer. A typical device is a stepper. The following defects are generated in the same process.
[0036]
Exposure defect 1 (FIG. 1D): When the focus shifts in units of exposure sections, the section becomes a surface state different from the other sections (pattern is blurred).
[0037]
Exposure defect 2 (FIG. 1 (E)): The exposure machine is tilted, and the step is continued while the focus is partially deviated in the exposure section. As a result, a surface condition different from normal is generated in a step unit cycle.
[0038]
Exposure defect 3 (FIG. 1 (F)): A foreign material enters the back side of the resist film to be exposed, so that the resist film partially rises and the focus shifts at that part, resulting in a different surface state from the others. .
[0039]
In addition to the defects represented by the above steps, there are the following defects.
[0040]
Scratches (Fig. 1 (G))
Dust and dust adhesion (Fig. 1 (H))
In an appearance inspection using an image, as shown in Japanese Patent Laid-Open No. 8-21803, the appearance of a subject is imaged by interference, diffraction images, etc., and compared with a reference non-defective wafer image, By comparing in units of sections, a portion (defect portion) that is different from normal is detected.
[0041]
Hereinafter, embodiments of the present invention will be described in detail. FIG. 2 is a diagram showing a configuration of the defect classification apparatus according to the present embodiment. The defect classification apparatus according to the present embodiment includes a condition setting unit 101 that sets various conditions necessary for classification, a region unit feature extraction unit 103 that obtains features related to the shape and luminance of a detected region unit, and a detected region Each of the feature extraction units 104, 104, 105, 105, 105, 105, 105, 105, and 105, is a feature that extracts features of the detected regions from each other. Inferior discriminating means 106 that infers the possibility of each defect type based on the feature amount obtained by the means and the classification rule set by the condition setting means 101 and discriminates the defect, and the region in which the defect type is determined by the discrimination The fixed area excluding means 107 and the memory 108 used for each processing are included. The region single feature extraction unit 103, the region arrangement feature extraction unit 105, and the region connection unit 104 constitute a feature extraction unit 102.
[0042]
The defect classification apparatus of the present invention is a binary image (hereinafter referred to as a defect detection image) in which defective pixels detected by comparison with the above-mentioned non-defective wafer image or comparison in the same pattern section are bright and others are dark. And obtain the appearance (multi-value) image (hereinafter referred to as inspection image) of the object used for defect detection, and output the result of determining the defect type for each detection area It is the structure to do.
[0043]
The operation of the above configuration will be described below with reference to the flowcharts of FIGS. After acquiring the defect detection image and the inspection image (step S1), the defect classification device extracts the feature amount of the detection region alone in the region single feature extraction unit 103 (step S2). Next, the region arrangement feature extraction unit 105 extracts feature amounts based on the arrangement shape of a plurality of regions, and adds this feature amount to each detection region constituting the arrangement shape (step S3). Thereafter, based on the information obtained by the region single feature extraction unit 103 and the defect detection image, the region connection unit 104 performs an expansion process using a structural element suitable for the shape of each detection region, and images obtained by connecting the regions. (Hereinafter referred to as a connected region image) is created (step S4).
[0044]
The connected region image is sent again to the region single feature extracting unit 103, where the feature amount of the connected region is extracted, and this feature amount is added to each detection region constituting the connected region (step S5). Based on the feature values obtained in steps S2, S3, and S5 and the classification rule set by the condition setting unit 101, the inference determination unit 106 infers the possibility value of each defect type and determines the defect type ( Step S6). On the basis of the result of step S6, the confirmed region exclusion unit 107 excludes the region where the defect type is confirmed from the defect detection image (step S7). If all the regions are excluded as a result of step S7, the defect types of all the detection regions are determined, and the process ends.
[0045]
If an area remains in the defect detection image, steps S3 to S7 are repeated again based on this image.
[0046]
Since the images are different, the feature amount according to the arrangement shape and the feature amount of the connected region are different. That is, by removing the determined region, a more accurate feature amount can be extracted, and inference and discrimination can be performed based on this.
[0047]
Next, details of the processing in each of the above-described means will be described. The condition setting means 101 inputs various conditions necessary for classification. The input contents will be described along with the processing in each means described later.
[0048]
FIG. 4 is a flowchart for explaining details of processing in the region single feature extracting unit 103. The region single feature extraction unit 103 obtains the feature amount of each detection region according to the following procedure.
[0049]
1. A plurality of detected areas in the defect detection image are labeled (step S10 in FIG. 4, FIG. 5B).
[0050]
2. The position characteristics (center of gravity position, circumscribed rectangle position) of the detection area are calculated (step S11 in FIG. 4, FIG. 6 (A)).
[0051]
3. The shape characteristics (area, circularity, maximum / minimum ferret diameter ratio (≧ 1), main shaft angle) of the detection region are calculated (step S12 in FIG. 4, FIG. 6A).
[0052]
4). Luminance characteristics (average and variance) of the detection area are calculated (step S13 in FIG. 4, FIG. 6A).
[0053]
5. A feature quantity list for each detection area is created (step S14 in FIG. 4, FIG. 6B).
[0054]
The series of processes indicated by the above 1, 2, 3, and 4 is a general image processing technique called particle analysis (or blob analysis).
[0055]
FIG. 7 is a flowchart for explaining details of the processing in the area connecting means 104. 8 and 9 are explanatory diagrams of region connection.
[0056]
The area connecting means 104 uses the features obtained by the area single feature extracting means 103 and creates a connected area image in which the detection areas are connected according to the following procedure.
[0057]
1. Based on the maximum / minimum ferret diameter ratio of each region, a structural element for expansion processing for that region is selected. It is determined whether the maximum / minimum ferret diameter ratio is equal to or greater than a certain threshold value (either a fixed value as a result of trial or a value set by the condition setting means 101) (step S20 in FIG. 7). Considering the region, a fine linear structural element (FIG. 8A) is selected (step S21 in FIG. 7).
[0058]
If the determination in step S20 is NO, that is, if it is smaller than the threshold value, a structural element having a circular diameter (FIG. 8B) is selected (step S23 in FIG. 7). Note that the above selection may be performed using the circularity.
[0059]
2. When a fine linear structural element is selected, the fine linear direction is further aligned with the principal axis direction of the region (step S22 in FIG. 7). FIG. 8C shows an example of the direction of the fine linear structural element. The direction is limited when the size of the structural element is small, but the direction can be subdivided by increasing the size. Note that the direction of the region may be estimated from the histogram distribution in the contour direction, and the direction may be the same.
[0060]
3. Expansion processing (step S24 in FIG. 7) is performed using the selected structural element to create a connected region image. The expansion processing here is one of general image processing methods called morphology processing, and overlapping regions are connected as a result of expansion. The number of expansion processes is set by the condition setting means 101 based on the imaging system, various conditions of the subject, and the size of each structural element.
[0061]
If it is determined in step S25 in FIG. 7 that all the detection areas have been determined, the process ends.
[0062]
FIG. 8D shows the result of performing the expansion processing of this example on the detection region of FIG.
[0063]
By performing the expansion process with the structural element suitable for the shape of the detection region by the above procedure, the directional region can be expanded and connected in the longitudinal direction and the others in the radial direction. Further, if the structural elements are redetermined on the basis of the region shape after expansion and the contraction process is performed, better region connection is possible.
[0064]
In general expansion or expansion / contraction processing using the same structural element (circular shape) for all detection regions, the directionality of the detection region is not taken into consideration, and therefore FIGS. 8E, 9A, and 9B are used. As shown in FIG. 4, the scratch and the dust in the vicinity thereof cannot be connected in a good state, and subsequent feature extraction cannot be performed accurately.
[0065]
The connected area image created by the area connecting means 104 is sent again to the area single feature extracting means 103 and processed in the following procedure. The basic processing flow is the same as in FIG.
[0066]
1. Each region after connection (referred to as a connection region) is labeled (FIG. 10A).
[0067]
2. The position characteristics (center of gravity position, circumscribed rectangle position) of the connected area are calculated.
[0068]
3. The shape characteristics (area, circularity, maximum / minimum ferret diameter ratio (≧ 1), spindle angle) of the connected region are calculated.
[0069]
4). The calculated features are added to the detection regions that are the respective component parts, and a feature amount list for each detection region is created (FIG. 10B).
[0070]
The series of processes 1, 2, and 3 described above is based on particle analysis.
[0071]
The area arrangement feature extraction unit 105 obtains area arrangement characteristics based on the defect detection image before connection. The typical arrangement features are listed below, and the calculation method is shown.
[0072]
1) A feature value indicating the degree of composition of the exposure section shape based on the detection area (used to determine exposure failure 1).
[0073]
<Calculation method>
1. A template is created in which the portion of the exposure section shape is bright and the periphery thereof is dark (FIG. 11A).
[0074]
2. Arranged so that the exposure section position in the defect detection image (binary image in which defective pixels are bright and the others are dark) and the exposure section shape in the template completely overlap, and the sum of absolute differences between both images within the template range Is calculated (FIG. 11B).
[0075]
The sum R of the absolute differences between both images is
[Expression 1]
Figure 0004516253
It can ask for. Here, I (a, b) is a pixel value (1 or 0) at the coordinates (a, b) of the defect detection image. T (a, b) is a pixel value (1 or 0) at the coordinates (a, b) of the template.
[0076]
The value calculated in 3.21)Is added to the detection area in the target exposure section.
[0077]
4). The template is scanned (FIG. 12A), and the processes 2 and 3 are performed at all exposure division positions in the defect detection image.
[0078]
Note that a template as shown in FIG. 12B may be used to reduce the amount of calculation.
[0079]
2) A feature amount indicating the periodicity of exposure block units in the horizontal and vertical directions (used to determine exposure failure 2).
[0080]
<Calculation method 1>
1. The detection pixels (bright pixels) in the defect detection image are integrated in the vertical direction (FIG. 13A).
[0081]
2. The curve obtained from the integration result is Fourier transformed (FIG. 13B).
[0082]
3. A ratio between the power spectrum value X corresponding to the exposure section period and the power spectrum value a corresponding to another period (averaged in a portion other than the exposure section period) is calculated (FIG. 13B).
[0083]
The value calculated in 4.32)Is added to each detection region in the image as a feature amount (periodicity in the horizontal direction).
[0084]
In order to obtain a local feature amount, a plurality of strip regions as shown in FIG. 14 may be set, and the detection pixels in each strip region may be integrated to perform processing. In this case, the calculated feature amount is added to each detection area in the strip area.
[0085]
In the present embodiment, the integration in the vertical direction is shown. However, by integrating in the horizontal direction, it is possible to obtain a feature amount that indicates the period in the vertical direction.
[0086]
<Calculation method 2>
1. A template 52 is created from the detection area image in the target exposure section (FIG. 15A).
[0087]
2. The template at 1 is arranged so as to completely overlap the exposure section adjacent to the left of the target exposure section (FIG. 15B), and the sum of absolute differences between both images is calculated within the template range.
[0088]
3. The template at 1 is arranged so as to completely overlap the exposure section on the right side of the target exposure section (FIG. 15B), and the sum of absolute differences between both images is calculated within the template range.
[0089]
The average of the values obtained in 4.2 and 3 is2)Is added to each detection area in the target exposure section as a feature quantity (periodicity in the horizontal direction).
[0090]
5. The template is scanned (FIG. 12A), and processes 1 to 4 are performed at all exposure division positions in the defect detection image.
[0091]
When the target exposure section is located at the end and there is no left or right adjacent exposure section, the value of only one side is used.
[0092]
Further, in the present embodiment, the difference between the right and left neighbors in the horizontal direction is shown, but by performing the difference between the vertical neighbors in the vertical direction, it is possible to obtain a feature quantity indicating the vertical period.
[0093]
3) A feature amount indicating the total amount of the radial component (relative to the rotation center at the time of application) in the entire image (used for determining application unevenness 1).
[0094]
<Calculation method>
1. The edge of the detection area is extracted (FIG. 16A).
[0095]
2. The extracted pixel of the edge portion is converted into a polar coordinate system image (horizontal axis: angle θ, vertical axis: distance r from the center) with respect to the rotation center at the time of application (FIG. 16B). The vertical line segment in the polar coordinate system image corresponds to the radial line segment in the original image. The vertical line segment is detected using an operator (template) for detecting the vertical line segment (FIG. 17A).
[0096]
3. The total length (total area) of the detected vertical line segments3)Is added to each detection area in the image.
[0097]
Note that performing connection processing with vertical thin line structure elements in a polar coordinate system image corresponds to performing radial direction connection in an original image. Furthermore, the vertical line segment as shown in FIG. 17B can also be detected by using contour tracking from the outer peripheral side together.
[0098]
4) A feature amount indicating the amount of the radial component (relative to the rotation center at the time of application) in each detection region (used for determining application unevenness 2).
[0099]
<Calculation method>
1.3)Processes 1 to 3 of feature amount calculation are performed.
[0100]
2. The length of the detected vertical line segment4)Is added to each corresponding detection area.
[0101]
In the polar coordinate system image, connection processing is performed with vertical thin line structure elements (corresponding to radial direction connection in the original image), and then the feature quantity obtained by measuring the length of the vertical line segment is connected. You may add to each area | region used as the structure component of an area | region.
[0102]
5) A feature amount indicating the ratio of the spiral component (with respect to the rotation center at the time of application) in each detection region (used for determining application unevenness 3).
[0103]
<Calculation method>
1.3)Processes 1 and 2 for calculating the feature amount are performed. Note that the spiral component in the original image corresponds to a diagonal line segment in the polar coordinate system image.
[0104]
2. The diagonal line segment is detected using an operator for detecting the diagonal line segment.
[0105]
3. The length of the detected diagonal line segment5)Is added to each corresponding detection area.
[0106]
In addition,3) 4) 5)Hough transform may be used for line segment detection in the feature amount calculation.
[0107]
The inference determination unit 106 infers the possibility of each defect type based on the feature amounts obtained by the feature extraction units 103 and 105 and the classification rule set by the condition setting unit 101.
[0108]
Before showing the inference process, the classification rules are explained. If it can be said that “small and narrow areas are likely to be flawed” or “small and may be flawed even if it is small”, it can be used as an indicator of “size”. The area can be ruled as follows by using the maximum / minimum ferret diameter ratio (the longer the value is, the larger the value is) as an index representing the slenderness.
[0109]
(1): IF area = small AND Maximum and minimum ferret diameter ratio = large THEN Scratch possibility = high
(2): IF area = small AND Maximum and minimum ferret diameter ratio = small THEN Possibility of scratch = moderate
(3): IF area = large AND maximum and minimum ferret diameter ratio = large THEN Scratch possibility = moderate
(4): IF area = large AND maximum and minimum ferret diameter ratio = small THEN Possibility of scratch = low
Next, for the expressions “small”, “large”, “high”, and “low” used in the rules, the degree to which the numerical values on each feature axis match is a value from 0 to 1 ( A change line (membership function) indicated by (degree of fitness) is set (FIGS. 18A to 18C).
[0110]
A process for inferring the possibility of a flaw in a certain detection region (area = x, maximum / minimum ferret diameter ratio = y) based on the above settings is shown in FIGS. This is a general reasoning method as a direct method in fuzzy reasoning ((Reference) Russell: Introduction to fuzzy theory for those who want to apply: Written by Kazuo Tanaka).
[0111]
In FIG. 20, the set obtained by the respective rules (1) to (4) in FIG. 19 is synthesized (ored) to obtain an intermediate solution (center of gravity Z). As a result, it corresponds to obtaining a complementary determination result by obtaining the possibility of scratches when considering the four rules from the viewpoint of each rule.
[0112]
In this example, only four rules are shown for scratches, but accuracy can be improved by setting more rules.
[0113]
Similarly, by setting a plurality of rules (& membership function) based on knowledge about other defects and processing those rules, the possibility values for all defect types can be calculated.
[0114]
After the possibility value of each defect type is inferred, the defect type is determined by the following processing.
[0115]
1. The probability values of the defect types in the detection area to be determined are arranged in descending order.
[0116]
2. When “the probability value of the highest defect type−the possibility value of the second highest defect type> threshold value”, it is determined that the defect type of the target detection region has been determined.
[0117]
3. 1. And 2. This process is performed for all the detection areas in the defect detection image.
[0118]
In addition, 2. The threshold value at may be a fixed value as a result of the trial or a value set by the condition setting means 101. Further, it may be set so as to decrease as the number of the above-described repetitive processing (FIG. 3, steps S3 to S8) increases.
[0119]
The confirmed area exclusion means 107 excludes the area where the defect type is determined by changing the pixels in the detection area where the defect type is determined in the defect detection image from bright to dark.
[0120]
【The invention's effect】
According to the present invention, by extracting a feature based on an arrangement shape based on an image excluding a region where a defect type has been determined, a more accurate feature can be obtained and classification accuracy can be improved.
[0121]
Further, by extracting the features of the region obtained by performing the expansion (concatenation) processing based on the image excluding the region where the defect type is determined, more accurate features can be obtained and the classification accuracy can be improved.
[0122]
Moreover, since the defect classification is performed according to the classification rule based on knowledge, a teaching sample is not required.
[0123]
In addition, it is possible to indicate a region where the feature indicating the defect type is remarkable and a region where the feature is not so as a difference in possibility of the defect type.
[0124]
Further, the classification accuracy can be improved by using not only the feature amount of the detection area alone but also the feature amount by arrangement.
[0125]
In addition, by performing connection using adaptive structural elements to the detection region, accurate connection region characteristics can be obtained, and classification accuracy can be improved.
[Brief description of the drawings]
FIG. 1 is a diagram showing an example of main defects in a macro inspection.
FIG. 2 is a diagram showing a configuration of a defect classification apparatus according to the present embodiment.
FIG. 3 is a flowchart for explaining details of defect classification processing;
FIG. 4 is a flowchart for explaining details of processing in a region single feature extracting unit 103;
FIG. 5 is an explanatory diagram (part 1) of region simplex feature extraction;
FIG. 6 is an explanatory diagram (part 2) of region simplex feature extraction;
FIG. 7 is a flowchart for explaining details of processing in a region connecting unit 104;
FIG. 8 is an explanatory diagram (part 1) of region connection;
FIG. 9 is an explanatory diagram (part 2) of region connection;
FIG. 10 is an explanatory diagram of connected area single body feature extraction;
FIGS. 11A and 11B are explanatory diagrams of feature amounts showing the configuration of the exposure section shape, in which FIG. 11A shows a template in which a portion of the exposure section shape is bright and its periphery is dark, and FIG. 11B is a defect detection image; The exposure section is shown.
FIGS. 12A and 12B are explanatory diagrams of feature amounts showing the configuration of the exposure section shape, in which FIG. 12A shows a template scanning example, and FIG. 12B shows a template example for reducing the amount of calculation;
FIGS. 13A and 13B are explanatory diagrams (part 1) of the feature amount indicating the periodicity of the exposure section size, where FIG. 13A shows the integration of the detection pixels in the vertical direction, and FIG. 13B shows the Fourier transform of the integration curve; A feature amount indicating the periodicity of the exposure section size is shown.
FIG. 14 is an explanatory diagram (No. 1) of a feature amount indicating the periodicity of the exposure section size, and shows the integration in the vertical direction in the strip region.
FIGS. 15A and 15B are explanatory diagrams (part 2) of the feature amount indicating the periodicity of the exposure section size, in which FIG. 15A shows the creation of a template based on the detection result image of the target exposure section, and FIG. The left and right exposure sections in the horizontal direction of the section are shown.
FIGS. 16A and 16B are explanatory diagrams of feature amounts indicating the amount of the radial component in the entire image, where FIG. 16A illustrates edge extraction of a detection region, and FIG. 16B illustrates polar coordinate conversion with respect to the rotation center at the time of application; Yes.
FIGS. 17A and 17B are explanatory diagrams of a feature amount indicating the amount of the radial direction component in the entire image, where FIG. 17A illustrates a vertical line segment 1 in a polar coordinate image, and FIG. 17B illustrates a vertical line in a polar coordinate image; Minute detection 2 is shown.
FIG. 18 is an explanatory diagram of calculation of the possibility of a defect by fuzzy inference, and shows a membership function for expression in a scratch determination rule.
FIG. 19 is an explanatory diagram of calculation of a possibility of a defect by fuzzy inference, and shows an inference process (part 1).
FIG. 20 is an explanatory diagram of calculation of a possibility of a defect by fuzzy inference, and shows an inference process (part 2).
[Explanation of symbols]
101 Condition setting means
102 Feature extraction means
103 Region single feature extraction means
104 Area connection means
105 Area arrangement feature extraction means
106 Reasoning discrimination means
107 Fixed area exclusion means
108 memory

Claims (11)

被検体の検査画像を基に比較により検出された欠陥画素を2値化した欠陥検出画像を得て、検出された欠陥部の種類を判別する欠陥分類装置において、
検出領域単体および連結領域での前記欠陥部の特徴量の抽出を行う領域単体特徴抽出手段と、前記欠陥部の複数域の配置形状に基づく特徴量を抽出する領域配置特徴抽出手段と、各前記欠陥部の領域の形状により適応的な構造要素を用いた膨張処理により、重なり合った少なくとも2つ以上の前記欠陥部の領域を連結する領域連結手段と、からなる特徴抽出手段と、
この特徴抽出手段により抽出された前記欠陥部の特徴量に基づき、欠陥種を判別する推論判別手段と、
この推論判別手段により判別された欠陥種が確定した前記欠陥部の領域を前記欠陥検出画像から除外する確定領域除外手段と、を具備し、
前記特徴抽出手段は、前記確定領域除外手段によって全ての前記欠陥部の領域が除外された場合には抽出処理を終了し、且つ、前記欠陥検出画像に前記欠陥部の領域が残った場合には、前記確定領域除外手段によって、欠陥種が確定した前記欠陥部の領域が除外された後、前記欠陥部の領域が残った欠陥検出画像を基に再度抽出処理を行うことを特徴とする欠陥分類装置。
In a defect classification apparatus that obtains a defect detection image obtained by binarizing defective pixels detected by comparison based on an inspection image of a subject, and discriminates the type of detected defect portion,
A region alone feature extraction means for performing feature extraction of the defective portion at the detection region itself and the coupling region, and the region located feature extracting means for extracting a feature based on the arrangement shape of the plurality area of the defect, the by the expansion process using the adaptive structural elements by the shape of the area of the defect portion, and the area connecting means for connecting at least two or more regions of the defect portion overlap, a feature extraction unit Ru Tona,
An inference discriminating unit for discriminating a defect type based on the feature amount of the defect portion extracted by the feature extracting unit;
A confirmed area exclusion means for excluding the area of the defect portion in which the defect type determined by the inference determination means is determined, from the defect detection image,
The feature extraction means ends the extraction process when all the defect area is excluded by the fixed area exclusion means, and when the defect area remains in the defect detection image. The defect classification is characterized in that, after the defect region whose defect type has been determined is excluded by the defined region exclusion unit, the extraction process is performed again based on the defect detection image in which the defect region remains. apparatus.
前記領域連結手段は、各前記欠陥部の領域の最大最小フェレ径比(≧1)及び主軸角を算出する手段と、算出した最大最小フェレ径比の値を基に膨張処理に用いられる構造要素の形状を円形あるいは細線形から選択する手段と、細線形の構造要素が選択された前記欠陥部の領域の主軸角に対しその細線形の方向を合わせる手段と、各前記欠陥部の領域ごとに決定された構造要素を用いて欠陥領域画像において膨張処理を行い、重なり合う領域を連結する手段とを含むことを特徴とする請求項記載の欠陥分類装置。The area connecting means is a means for calculating a maximum / minimum ferret diameter ratio (≧ 1) and a principal axis angle of each defect area, and a structural element used for expansion processing based on the calculated maximum / minimum ferret diameter ratio. Means for selecting the shape of the shape from circular or fine line, means for aligning the direction of the fine line with the principal axis angle of the defect part region where the fine linear structural element is selected, and for each defect part region performs expansion processing in the defect area image using the determined structural elements, defect classification apparatus according to claim 1, characterized in that it comprises means for connecting the overlapping area. 前記推論判別手段は、特徴量の値と予め設定した分類ルールに基づくファジィ推論を行う手段を含むことを特徴とする請求項1または2に記載の欠陥分類装置。The inference determining means, defect classification apparatus according to claim 1 or 2, characterized in that it comprises a means for performing a fuzzy inference based on the classification rules set in advance as the value of the feature. 前記欠陥は、半導体ウェハや液晶パネル等の製造工程で生じる露光不良、塗付ムラ、キズ、塵、埃等であることを特徴とする請求項1からのいずれか1つに記載の欠陥分類装置。The defect classification according to any one of claims 1 to 3 , wherein the defect is an exposure failure, coating unevenness, scratches, dust, dust, or the like generated in a manufacturing process of a semiconductor wafer, a liquid crystal panel, or the like. apparatus. 前記特徴抽出手段は、露光工程での露光区画情報を用いて特徴量を抽出する手段を含むことを特徴とする請求項記載の欠陥分類装置。5. The defect classification apparatus according to claim 4 , wherein the feature extraction means includes means for extracting a feature amount using exposure section information in an exposure process. 前記露光区画情報を用いて特徴量を抽出する手段は、露光区画形状を示すテンプレート画像を作成する手段と、前記テンプレート画像を検出した前記欠陥部の領域の画像の露光区画位置に合わせて走査し、各露光区画位置での両画像の相関値を算出する手段と、前記相関値が算出された露光区画内の検出欠陥に対し前記相関値を特徴量として付加する手段とを含むことを特徴とする請求項記載の欠陥分類装置。The means for extracting the feature amount using the exposure section information scans in accordance with the means for creating a template image indicating the exposure section shape, and the exposure section position of the image of the defect area where the template image is detected. And means for calculating a correlation value of both images at each exposure section position, and means for adding the correlation value as a feature amount to the detected defect in the exposure section where the correlation value is calculated. The defect classification device according to claim 5 . 前記露光区画情報を用いて特徴量を抽出する手段は、検出した前記欠陥部の領域の画素を垂直あるいは水平方向に積算する手段と、積算値の外形曲線をフーリエ変換し各周波数における振幅値を算出する手段と、露光区画周期に相当する周波数の振幅値と他の周期に相当する周波数の平均振幅値の比を算出する手段と、前記積算に用いられた検出欠陥に対し前記比の値を特徴量として付加する手段とを含むことを特徴とする請求項記載の欠陥分類装置。The means for extracting the feature amount using the exposure section information includes means for integrating the pixels in the detected defect area in the vertical or horizontal direction, and Fourier transforming the outline curve of the integrated value to obtain an amplitude value at each frequency. Means for calculating, means for calculating the ratio of the amplitude value of the frequency corresponding to the exposure section period and the average amplitude value of the frequency corresponding to the other period, and the value of the ratio for the detected defect used in the integration. 6. The defect classification apparatus according to claim 5 , further comprising means for adding as a feature amount. 前記露光区画情報を用いて特徴量を抽出する手段は、検出した前記欠陥部の領域の画像における任意の露光区画よりテンプレート画像を作成する手段と、前記テンプレート画像を前記任意の露光区画の上下あるいは左右に位置する露光区画に合わせて相関値を算出し、その平均を算出する手段と、前記任意の露光区画内の検出欠陥に対し前記平均値を特徴量として付加する手段とを含むことを特徴とする請求項記載の欠陥分類装置。The means for extracting the feature amount using the exposure section information includes means for creating a template image from an arbitrary exposure section in the detected image of the defective portion area, and the template image above and below the arbitrary exposure section or A means for calculating a correlation value in accordance with the exposure sections located on the left and right sides, and calculating an average thereof; and means for adding the average value as a feature amount to the detected defect in the arbitrary exposure section. The defect classification apparatus according to claim 5 . 前記特徴抽出手段は、塗付工程でのウェハ回転中心に対する極座標を用いて特徴量を抽出する手段を含むことを特徴とする請求項記載の欠陥分類装置。5. The defect classification apparatus according to claim 4 , wherein the feature extraction means includes means for extracting a feature amount using polar coordinates with respect to the wafer rotation center in the coating process. 前記特徴抽出手段は、検出した前記欠陥部の領域を塗付工程でのウェハ回転中心に対する極座標系に変換した極座標画像を作成する手段と、前記極座標画像において直線成分を検出する手段と、前記直線成分を構成する前記欠陥部の領域に対し前記直線成分の長さを特徴量として付加する手段とを含むことを特徴とする請求項記載の欠陥分類装置。The feature extraction means includes means for creating a polar coordinate image obtained by converting the detected area of the defective portion into a polar coordinate system with respect to a wafer rotation center in a coating process, means for detecting a linear component in the polar coordinate image, and the straight line The defect classification apparatus according to claim 9 , further comprising means for adding the length of the linear component as a feature amount to the region of the defect portion constituting the component. 検出された前記欠陥部の領域の画像を示す表示手段と、この表示手段において欠陥種が確定した前記欠陥部の領域を、その確定した順に明示する手段とを備え、これによって欠陥種が確定した経過をユーザーに示すことを特徴とする請求項1から10のいずれか1つに記載の欠陥分類装置。Display means for displaying an image of the detected area of the defect portion, and means for clearly indicating the areas of the defect portion in which the defect type is determined in the display means in the order of determination, thereby determining the defect type The defect classification apparatus according to any one of claims 1 to 10 , wherein the progress is shown to a user.
JP2001370218A 2001-12-04 2001-12-04 Defect classification device Expired - Fee Related JP4516253B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001370218A JP4516253B2 (en) 2001-12-04 2001-12-04 Defect classification device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001370218A JP4516253B2 (en) 2001-12-04 2001-12-04 Defect classification device

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2008167743A Division JP2008281580A (en) 2008-06-26 2008-06-26 Defect classification system

Publications (2)

Publication Number Publication Date
JP2003168114A JP2003168114A (en) 2003-06-13
JP4516253B2 true JP4516253B2 (en) 2010-08-04

Family

ID=19179475

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001370218A Expired - Fee Related JP4516253B2 (en) 2001-12-04 2001-12-04 Defect classification device

Country Status (1)

Country Link
JP (1) JP4516253B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014167430A (en) * 2013-02-28 2014-09-11 Shin Nippon Koki Co Ltd Defect inspection system, defect inspection program, and defect inspection method
US10955742B2 (en) 2018-06-15 2021-03-23 Samsung Electronics Co., Ltd. Method for manufacturing a semiconductor device

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4418272B2 (en) * 2004-03-24 2010-02-17 オリンパス株式会社 Defect classification dictionary teaching device
JP4176041B2 (en) * 2004-04-14 2008-11-05 オリンパス株式会社 Classification apparatus and classification method
JP4652717B2 (en) * 2004-04-26 2011-03-16 株式会社ミツトヨ Image processing apparatus and method, and program
JP2006024852A (en) * 2004-07-09 2006-01-26 Komatsu Ltd Command value adjustment method of laser apparatus and exposure information storage device
US7583852B2 (en) * 2004-10-26 2009-09-01 Mitutoyo Corporation Method of filtering an image for high precision machine vision metrology
JP2006173027A (en) * 2004-12-20 2006-06-29 Hitachi High-Technologies Corp Scanning transmission electron microscope, aberration measuring method, and aberration correction method
CN101427127A (en) 2006-04-26 2009-05-06 夏普株式会社 Color filter inspecting method, color filter manufacturing method, and color filter inspecting device
JP4160991B2 (en) * 2006-11-29 2008-10-08 シャープ株式会社 Linear defect detection apparatus and semiconductor substrate manufacturing apparatus, linear defect detection method and semiconductor substrate manufacturing method, computer connected to the detection apparatus or ...
JP2008139027A (en) * 2006-11-29 2008-06-19 Sharp Corp Inspection device, inspection method, image inspection system, manufacturing method of color filter and inspection program
JP2008209134A (en) * 2007-02-23 2008-09-11 Sharp Corp Device and method for detecting defect, and program for functioning computer as detector
JP5156452B2 (en) * 2008-03-27 2013-03-06 東京エレクトロン株式会社 Defect classification method, program, computer storage medium, and defect classification apparatus
JP5085573B2 (en) * 2009-01-13 2012-11-28 新日本製鐵株式会社 Defect inspection method and defect inspection apparatus
US9031810B2 (en) * 2011-01-11 2015-05-12 Haiguang Chen Methods and systems of object based metrology for advanced wafer surface nanotopography
JP5794629B2 (en) * 2011-06-30 2015-10-14 国立研究開発法人産業技術総合研究所 Surface inspection apparatus, surface inspection method, surface inspection program, and computer-readable recording medium
JP6596188B2 (en) * 2015-04-02 2019-10-23 マークテック株式会社 Flaw detector and flaw detection method using flaw detector
JP6697302B2 (en) * 2016-03-25 2020-05-20 マークテック株式会社 Flaw detection device and defect detection method using flaw detection device
JP7087397B2 (en) * 2018-01-17 2022-06-21 東京エレクトロン株式会社 Substrate defect inspection equipment, substrate defect inspection method and storage medium
JP2023129993A (en) * 2022-03-07 2023-09-20 オムロン株式会社 Visual inspection system, visual inspection method, and program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014167430A (en) * 2013-02-28 2014-09-11 Shin Nippon Koki Co Ltd Defect inspection system, defect inspection program, and defect inspection method
US10955742B2 (en) 2018-06-15 2021-03-23 Samsung Electronics Co., Ltd. Method for manufacturing a semiconductor device
US11686998B2 (en) 2018-06-15 2023-06-27 Samsung Electronics Co., Ltd. Method for manufacturing a semiconductor device

Also Published As

Publication number Publication date
JP2003168114A (en) 2003-06-13

Similar Documents

Publication Publication Date Title
JP4516253B2 (en) Defect classification device
JP3524853B2 (en) Pattern inspection apparatus, pattern inspection method, and recording medium
JP4787673B2 (en) Pattern inspection apparatus and method
TW490591B (en) Pattern inspection apparatus, pattern inspection method, and recording medium
US20050146714A1 (en) Pattern inspection apparatus and method
JP2008281580A (en) Defect classification system
JP4771714B2 (en) Pattern inspection apparatus and method
Mathavan et al. Use of a self-organizing map for crack detection in highly textured pavement images
CN115345885A (en) Method for detecting appearance quality of metal fitness equipment
JPH1145919A (en) Manufacture of semiconductor substrate
CN103543394A (en) Discharge ultraviolet imaging quantization parameter extraction method of high-voltage electric equipment
JPH11344450A (en) Instruction data forming method and defect classifying method and apparatus thereof
JP4094148B2 (en) Stage position and abnormal part partial image automatic recognition method
CN114723758B (en) Production quality detection method for full-automatic connection of MiniLED thin plate
JP2019011972A (en) Pattern edge detection method
CN115619708A (en) Method for judging fault based on image recognition of oil quality change of main shaft bearing lubricating oil
CN116205876A (en) Unsupervised notebook appearance defect detection method based on multi-scale standardized flow
JP2010268009A (en) Device and method for inspecting pattern
US7020323B2 (en) Pattern defect inspection apparatus and method
CN114399505A (en) Detection method and detection device in industrial detection
JP2005309535A (en) Automatic image classification method
JP4597509B2 (en) Pattern inspection apparatus and pattern inspection method
JP4710191B2 (en) Photomask pattern shape automatic measurement method and apparatus, program therefor, photomask manufacturing method and semiconductor device manufacturing method
JP2008058090A (en) Pattern evaluation method and program
CN116485832A (en) Method for accurately detecting edges of non-uniform fluid impurities for recycling waste silicon wafers

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041201

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070717

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070731

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071001

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080527

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100125

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20100125

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100401

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100514

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130521

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140521

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees