JP2004281904A - Position measuring apparatus, exposure apparatus, and manufacturing method of device - Google Patents

Position measuring apparatus, exposure apparatus, and manufacturing method of device Download PDF

Info

Publication number
JP2004281904A
JP2004281904A JP2003073987A JP2003073987A JP2004281904A JP 2004281904 A JP2004281904 A JP 2004281904A JP 2003073987 A JP2003073987 A JP 2003073987A JP 2003073987 A JP2003073987 A JP 2003073987A JP 2004281904 A JP2004281904 A JP 2004281904A
Authority
JP
Japan
Prior art keywords
mark
image signal
unit
light
wafer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2003073987A
Other languages
Japanese (ja)
Inventor
Shinichi Nakajima
伸一 中島
Tadashi Nagayama
匡 長山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2003073987A priority Critical patent/JP2004281904A/en
Publication of JP2004281904A publication Critical patent/JP2004281904A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a position measuring apparatus whereby the positional information of a mark can be measured with a high accuracy even though phase shifts are generated in the image signal obtained by photographing the mark of a measuring object due to the optical characteristic of an optical system or the electric characteristic of an electric system. <P>SOLUTION: A transfer function showing the phase shift of the image of a sensing optical system OS for imaging the light emitted from the surface of a wafer W on the light receiving surface of a photographing element 50 is represented by f(X). Also, the transfer function showing the generated phase shift of an electric signal in an electric route ES wherethrough an image signal VS2 outputted from the photographing element 50 is transferred to an A/D converter 72 is represented by g(x). The transfer functions f(x), g(x) are determined previously. By operating the image signal outputted from the A/D converter 72 by using functions (filters) showing the reverse characteristics of the transfer functions f(x), g(x), the phase shifts generated in the sensing optical system OS and the electric route ES are so corrected as to calculate the positional information of a mark AM based on the image signal obtained after the correction. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、ウェハ若しくはガラスプレート又はマスク若しくはレチクル等の物体に形成されたマークの位置情報を計測する位置計測装置及び方法、当該位置計測装置及び方法によって得られたマークの位置情報を用いて物体の位置合わせ(アライメント)を行い、マスク若しくはレチクルに形成されたパターンをウェハ若しくはガラスプレート上に転写する露光装置、並びに当該露光装置を用いてデバイスを製造するデバイス製造方法に関する。
【0002】
【従来の技術】
半導体素子、液晶表示素子、その他のデバイスの製造においては、露光装置を用いてマスクやレチクル(以下、これらを総称する場合はマスクという)に形成された微細なパターンの像をフォトレジスト等の感光剤が塗布された半導体ウェハ又はガラスプレート等の基板上に投影露光することが繰り返し行われる。露光装置は、マスク及び基板に形成されたマークの位置情報を計測し、これらの計測結果からマスクと基板との相対的な位置ずれ量を算出し、この位置ずれ量を補正することで投影されるパターン像と既に基板上に形成されているパターンとの位置合わせを精確に行っている。近年においては、パターンの微細化の要求が高まっており、重ね合わせ精度の向上が益々厳しくなっている。重ね合わせ精度を向上させるためには、まずマスク及び基板に形成されたマークの計測精度を高める必要がある。
【0003】
マスクに形成されたマークの位置情報を計測するアライメントセンサは、基板を露光する際に用いる露光光をマークに照射して位置情報を計測するものが一般的である。このアライメントセンサとしては、例えばVRA(Visual Reticle Alignment)方式を用いたものがある。VRA方式は、基板がステージ上に搬送される前に、露光光をマスク上に形成されたマークに照射して得られる光学像をCCD(Charge Coupled Device)等の撮像素子で画像信号に変換し、この画像信号に対して画像処理を施してマークの位置情報を検出するものである。
【0004】
また、基板に形成されたマークの位置情報を計測するアライメントセンサは、デバイスの製造過程において測定対象である基板の表面状態(荒れ程度)が変化するため、単一種類のアライメントセンサによって基板の位置情報を正確に検出することは困難なことが多いため、一般的には異なる方式のアライメントセンサが複数設けられる。これらの主なものとしては、LSA(Laser Step Alignment)方式、FIA(Field Image Alignment)方式、LIA(Laser Interferometric Alignment)方式のものがある。
【0005】
これらの方式のアライメントセンサを概説すると以下の通りである。つまり、LSA方式のアライメントセンサは、レーザ光を基板に形成されたマークに照射し、回折・散乱された光を利用してそのマークの位置情報を計測するものであり、従来から種々の半導体素子を製造する際に幅広く使用されている。FIA方式のアライメントセンサは、ハロゲンランプ等の波長帯域幅の広い光源を用いてマークを照明し、その結果得られたマークの像を撮像素子で画像信号に変換した後、画像処理して位置計測を行うものであり、アルミニウム層や基板表面に形成された非対称なマークの計測に効果的である。LIA方式のアライメントセンサは、基板表面に形成された回折格子状のマークに、僅かに波長が異なるレーザ光を2方向から照射し、その結果生ずる2つの回折光を干渉させ、この干渉光の位相からマークの位置情報を検出するものである。このLIA方式の基板位置情報検出装置は、低段差のマークや基板表面の荒れが大きい基板に用いると効果的である。
【0006】
また、以上の各方式のアライメントセンサは、投影光学系を介してマークの位置情報を計測するか否かによりTTL(スルー・ザ・レンズ)方式とオフ・アクシス方式とに分類される。以上説明した各方式のアライメントセンサの詳細については、例えば以下の特許文献1及び特許文献2を参照されたい。
【0007】
【特許文献1】
特開平10−289871号公報
【特許文献2】
特開平5−217835号公報
【0008】
【発明が解決しようとする課題】
ところで、上述した各種アライメントセンサのうち、マークの像の画像信号を得て画像処理を施すことによりマークの位置情報を計測するVRA方式及びFIA方式のアライメントセンサにおいては、アライメントセンサが備える光学系の残存収差が原因でマークの像が歪む。この歪みはマークで反射された光がアライメントセンサの光学系を通過する際に、光学系の残存収差によりマークの像の空間周波数成分の位相が成分毎にずれた(ウェハ又は基板の表面方向にシフトした)結果であると解釈することができる。
【0009】
また、マークの像を撮像素子で変換した直後の画像信号はアナログ信号であり、このアナログ信号が増幅器で増幅された後、A/D変換器(アナログ・ディジタル変換器)で標本化及び量子化されることでディジタル信号に変換される。このため、撮像素子から出力された画像信号は、電気ケーブルを介してアナログ信号としてA/D変換器まで転送されることになるが、増幅器を含む電気伝送路の電気的特性によって、画像信号の周波数に依存した位相ずれが発生する。この位相ずれは時間的なものであるが、画像信号はマスク又は基板の面内の一方向に走査して得られるものであるため、走査方向における位相ずれと等価なものである。
【0010】
上記の光学系で生ずる位相ずれ及び電気伝送路で生ずる位相ずれは、何れもマスク又は基板の面内におけるマークの位置ずれを引き起こし、マークの位置計測精度に悪影響を与える。位置計測精度を向上させるためには、これらの位相ずれが生じないようにアライメントセンサの光学系及び電気系を設計することが理想であるが現状では困難である。
【0011】
本発明は上記事情に鑑みてなされたものであり、計測対象としてのマークを撮像して得られる画像信号が光学系の光学特性又は電気系の電気特性により位相ずれが生じたものであったとしても高い精度でマークの位置情報を計測することができる位置計測装置、露光装置、及びデバイス製造方法を提供することを目的とする。
【0012】
【課題を解決するための手段】
上記課題を解決するために、本発明の第1の観点による位置計測装置は、物体(R、W、10)上に形成されたマーク(RM、AM)の、所定の計測方向(X、Y)における位置情報を演算する演算部(76)を備えた位置計測装置(6A、6B、16)であって、前記マークを含む被照射領域に対して検知光(EL1、DL)を照射する照射系(20A、20B、41〜46)と、前記検知光の照射により前記被照射領域から得られるマーク光を、該マーク光に応じた画像信号を出力する光電変換手段(25、50)へ導き、且つ該光電変換手段から出力された前記画像信号(VS1、VS2)を前記演算部へ導く検出系(21A、23、24、45、46、48、49、71、ES、OS)と、前記検出系において、前記マーク光及び前記画像信号の位相特性に対して作用する位相特性情報を記憶する記憶部(75)と、前記位相特性情報を用いて前記画像信号を加工処理する処理部(74)とを有することを特徴としている。
この発明によれば、被照射領域から得られるマーク光を光電変換手段へ導くとともに、光電変換手段から出力された画像信号を演算部へ導く検出系においてマーク光及び画像信号の位相特性に対して作用する位相特性情報を予め記憶しておき、この位相特性情報を用いて検出系を介して得られた画像信号を加工処理している。かかる加工処理を行うことにより、演算部へ導かれた画像信号が位相ずれを生じたものであっても位相ずれが補正される。この位相ずれが補正された画像信号を用いてマークの位置情報を求ることで、高い精度でマークの位置情報を計測することができる。
上記課題を解決するために、本発明の第2の観点による位置計測装置は、物体(R、W、10)上に形成されたマーク(RM、AM)の、所定の計測方向(X、Y)における位置情報を演算する演算部(76)を備えた位置計測装置(6A、6B、16)であって、前記マークを含む被照射領域に対して検知光(EL1、DL)を照射する照射系(20A、20B、41〜46)と、前記検知光の照射により前記被照射領域から得られるマーク光を、該マーク光に応じた画像信号を出力する光電変換手段(25、50)へ導く検出光学系(21A、23、24、45、46、48、49、OS)と、前記検出光学系が前記マーク光の位相特性に対して作用する光学特性情報を記憶する記憶部(75)と、前記光学特性情報を用いて前記画像信号を加工処理する処理部(74)とを有することを特徴としている。
この発明によれば、被照射領域から得られるマーク光を光電変換手段へ導く検出光学系においてマーク光の位相特性に対して作用する光学特性情報を予め記憶しておき、この光学特性情報を用いて検出光学系を介して得られた画像信号を加工処理している。かかる加工処理を行うことにより、光電変換手段から出力される画像信号が位相ずれを生じたものであっても位相ずれが補正される。この位相ずれが補正された画像信号を用いてマークの位置情報を求ることで、高い精度でマークの位置情報を計測することができる。
上記課題を解決するために、本発明の第3の観点による位置計測装置は、物体(R、W、10)上に形成されたマーク(RM、AM)の、所定の計測方向(X、Y)における位置情報を演算する演算部(76)を備えた位置計測装置(6A、6B、16)であって、前記マークを含む被照射領域に対して検知光(EL1、DL)を照射する照射系(20A、20B、41〜46)と、前記検知光の照射により前記被照射領域から得られるマーク光を受光し、該マーク光に応じた画像信号を出力する光電変換手段(25、50)と、前記画像信号が前記光電変換手段から前記演算部まで伝達される電気経路(71、ES)上において、前記画像信号の位相特性に対して作用する電気特性情報を記憶する記憶部(75)と、前記電気特性情報を用いて前記画像信号を加工処理する処理部(74)とを有することを特徴としている。
この発明によれば、被照射領域から得られるマーク光を光電変換手段で光電変換して得られる画像信号が光電変換手段から演算部まで伝達される電気経路において電気経路の位相特性に対して作用する電気特性情報を予め記憶しておき、この電気特性情報を用いて電気経路を介した画像信号を加工処理している。かかる加工処理を行うことにより、演算部に導かれた画像信号が位相ずれを生じたものであっても位相ずれが補正される。この位相ずれが補正された画像信号を用いてマークの位置情報を求ることで、高い精度でマークの位置情報を計測することができる。
上記課題を解決するために、本発明の第4の観点による位置計測装置は、物体(R、W、10)上に形成されたマーク(RM、AM)の、所定の計測方向(X、Y)における位置情報を演算する演算部(85、87)を備えた位置計測装置(6A、6B、16)であって、前記マークを含む被照射領域に対して検知光(EL1、DL)を照射する照射系(20A、20B、41〜46)と、前記検知光の照射により前記被照射領域から得られるマーク光を、該マーク光に応じた画像信号を出力する光電変換手段(25、50)へ導き、且つ該光電変換手段から出力された前記画像信号を前記演算部へ導く検出系(21A、23、24、45、46、48、49、81)と、前記検出系において、前記マーク光及び/又は前記画像信号の位相特性に対して作用する位相特性情報を記憶する記憶部(86)と、前記画像信号を加工して複数の加工信号を生成する処理部(83a〜83n)とを有し、前記演算部は更に、前記複数の加工信号毎に前記位置情報を算出する第1演算部(88)と、前記位相特性情報を用いて前記第1演算部の算出結果を補正演算する第2演算部(85、89)とを含むことを特徴としている。
この発明によれば、被照射領域から得られるマーク光を光電変換手段へ導くとともに、光電変換手段から出力された画像信号を演算部へ導く検出系においてマーク光及び/又は画像信号の位相特性に対して作用する位相特性情報を予め記憶しておき、検出系を介して得られた画像信号を加工して複数の加工信号を生成してこれらの加工信号各々から位置情報を算出し、位相特性情報を用いて算出した位置情報を補正演算している。かかる補正演算を行うことにより、演算部へ導かれた画像信号が位相ずれを生じたものであっても位相ずれが補正される。この位相ずれが補正された画像信号を用いてマークの位置情報を求ることで、高い精度でマークの位置情報を計測することができる。
本発明の露光装置は、所定パターンを基板(W)上に転写する露光装置であって、前記基板上に形成されたマーク(AM、Mxi,Myi)を、上記の何れかの位置計測装置を用いて計測し、その計測結果に基づいて前記基板の位置決めを行う位置決め部(9、13)と、前記位置決めされた前記基板上に前記所定パターンを転写する露光部(PL)と、前記位置決め部及び前記露光部を制御する制御部(15)とを有することを特徴としている。
本発明のデバイス製造方法は、上記の露光装置を用いて、デバイスパターンを前記基板上に転写する露光工程(S26)と、前記デバイスパターンが転写された前記基板を現像する現像工程(S27)とを含むことを特徴としている。
【0013】
【発明の実施の形態】
以下、図面を参照して本発明の一実施形態による位置計測装置、露光装置、及びデバイス製造方法について詳細に説明する。図1は、本発明の一実施形態による位置計測装置を備える本発明の一実施形態による露光装置の概略構成を示す図である。尚、以下の説明においては、図1中に示したXYZ直交座標系を設定し、このXYZ直交座標系を参照しつつ各部材の位置関係について説明する。XYZ直交座標系は、X軸及びZ軸が紙面に対して平行となるよう設定され、Y軸が紙面に対して垂直となる方向に設定されている。図中のXYZ座標系は、実際にはXY平面が水平面に平行な面に設定され、Z軸が鉛直上方向に設定される。また、本実施形態においては、ステップ・アンド・リピート方式の縮小投影型露光装置を例に挙げて説明する。
【0014】
図1において、1は照明光学系の一部をなすコンデンサレンズである。照明光学系は例えば超高圧水銀ランプ又はエキシマレーザ等の光源(図示省略)が設けられており、この光源から射出された露光光ELはコンデンサレンズ1を介してマスクとしてのレチクルRに形成されたパターン領域PAを均一な照度分布で照射する。露光光ELとしては、例えばg線(436nm)やi線(365nm)、又はKrFエキシマレーザ(248nm)、ArFエキシマレーザ(193nm)、若しくはFエキシマレーザ(157nm)から射出される光が用いられる。
【0015】
レチクルRは、モータ2によって投影光学系PLの光軸AXの方向に微動可能で、且つその光軸AXに垂直な面内で2次元移動及び微小回転可能なレチクルステージ3上に吸着保持されている。尚、レチクルRは不図示のレチクル交換器により適宜交換されて使用される。レチクルステージ3の端部にはレーザ干渉計4からのレーザビームを反射する移動鏡5が固定されており、レチクルステージ3の2次元的な位置はレーザ干渉計4によって、例えば1nm程度の分解能で常時検出されている。レチクルRの上方にはレチクル・アライメントセンサ6A,6Bが配置されている。
【0016】
レチクル・アライメントセンサ6A,6Bは、レチクルRの外周付近に形成された位置検出用のレチクルマークRMと投影光学系PLを介して後述するウェハステージ9上に形成された基準部材10又はウェハステージ9上に載置されたウェハWに形成されたマークとを同時に観察し、レチクルRとウェハステージ9との相対的な位置関係又はレチクルRとウェハWとのX方向又はY方向(所定の計測方向)における相対的な位置関係を直接的に計測(観察)する。
【0017】
レチクル・アライメントセンサ6A,6Bの計測結果は後述する主制御系15へ出力され、画像処理、演算処理、フィルタリング処理等の処理が施されてレチクルRとウェハステージ9又はウェハWとの相対的な位置ずれ量が求められる。そして、この位置ずれ量に応じて主制御系15がモータ2を駆動してレチクルステージ3を微動させることで、レチクルRに形成されたパターン領域PAの中心点が光軸AXと一致するように位置決めされる。このレチクル・アライメントセンサ6A,6Bは、TTL(スルー・ザ・レンズ)方式のアライメントセンサの一種であるTTR(スルー・ザ・レチクル)方式のアライメントセンサであって、レチクルマークRM等の画像信号から位置情報を計測するVRA方式のアライメントセンサであり、その詳細については後述する。尚、レチクル・アライメントセンサ6A,6Bは、本発明の一実施形態による位置計測装置の一部をなすものである。
【0018】
上記レチクルRのパターン領域PAを透過した露光光ELは、例えば両側(片側でも良い。)テレセントリックな投影光学系PLに入射して基板としてのウェハW上の各ショット領域に投影される。ここで、投影光学系PLは、露光光ELの波長に関して最良に収差補正されており、その波長のもとでレチクルRとウェハWとは互いに光学的に共役になっている。また、照明光ELは、ケラー照明であり、投影光学系PLの瞳(図示省略)の中心に光源像として結像されている。尚、投影光学系PLは複数のレンズ等の光学素子を有し、その光学素子の硝材としては露光光ELの波長に応じて石英、蛍石等の光学材料から選択され、その投影倍率は、例えば1/4又は1/5に設定されている。このため、露光光ELによりレチクルR上の照明領域が照明されると、そのレチクルRのパターン面に形成されたパターンの像が投影光学系PLによってウェハW上に縮小投影され、表面にフォトレジスト等の感光剤が塗布されたウェハW上の一つのショット領域にレチクルRの回路パターンの縮小像が転写される。
【0019】
ウェハWはウェハホルダ8を介してウェハステージ9上に吸着保持されている。ウェハホルダ8上には、レチクルRの位置計測及びベースライン計測等で使用する基準部材10が設けられている。ここで、ベースラインとは、例えばレチクルRのパターン領域PAに形成されたパターンの投影光学系PLによる投影像の中心位置と後述するウェハ・アライメントセンサ16の計測視野中心との距離をいう。基準部材10には基準マークとして、例えば光透過性の5組のL字状パターンから成るスリットパターンと、光反射性のクロムで形成された2組の基準パターン(デューティ比は1:1)とが設けられている。
【0020】
一方の組の基準パターンは、例えばY方向に配列された7個のドットマークをX軸方向に3列配列してなる回折格子マークと、3本の直線パターンをX軸方向に配列してなる回折格子マークと、Y方向に延びた12本のバーマークとを、X軸方向に配列したものである。他方の組の基準パターンは、例えばその一方の組の基準パターンを90°回転したものである。
【0021】
ウェハステージ9は、投影光学系PLの光軸AXに垂直な面内でウェハWを2次元的に位置決めするXYステージ、投影光学系PLの光軸AXに平行な方向(Z方向)にウェハWを位置決めするZステージ、ウェハWを微小回転させるステージ、及びZ軸に対する角度を変化させてXY平面に対するウェハWの傾きを調整するステージ等より構成されている。ウェハステージ9の上面の一端にはL字型の移動鏡11が取り付けられ、移動鏡11の鏡面に対向した位置にレーザ干渉計12が配置されている。
【0022】
図1では簡略化して図示しているが、移動鏡11はX軸に垂直な反射面を有する平面鏡及びY軸に垂直な反射面を有する平面鏡より構成されている。また、レーザ干渉計12は、X軸に沿って移動鏡11にレーザビームを照射する2個のX軸用のレーザ干渉計及びY軸に沿って移動鏡11にレーザビームを照射するY軸用のレーザ干渉計より構成され、X軸用の1個のレーザ干渉計及びY軸用の1個のレーザ干渉計により、ウェハステージ9のX座標及びY座標が計測される。また、X軸用の2個のレーザ干渉計の計測値の差により、ウェハステージ9のXY平面内における回転角が計測される。
【0023】
ウェハステージ9の2次元的な座標は、レーザ干渉計12によって例えば1nm程度の分解能で常時検出されており、X軸方向及びY軸方向の座標によりウェハステージ9のステージ座標系(静止座標系)(X,Y)が定められる。即ち、レーザ干渉計12により計測されるウェハステージ9の座標値が、ステージ座標系(X,Y)上の座標値である。レーザ干渉計12により計測されたX座標、Y座標、及び回転角を示す位置計測信号PDSは主制御系15に出力される。
【0024】
主制御系15は、供給された位置計測信号PDSをモニタしつつ、ウェハステージ9の位置を制御する制御信号をモータ13へ出力する。このような閉ループの制御系により、例えばウェハステージ9はウェハW上の1つのショット領域に対するレチクルRのパターンの転写露光が終了すると、次のショット位置までステッピングされる。また、主制御系15は図示しない照明光学系に設けられる光源から露光光ELを射出するか否か、露光光ELを射出する場合の露光光ELの強度等の制御を行う。尚、主制御系15の構成についての詳細な説明は後述する。
【0025】
また、本実施形態の露光装置は、投影光学系PLの結像特性を調整するための結像特性補正部14が設けられている。この結像特性補正部14は、投影光学系PLを構成する一部のレンズエレメント、特にレチクルRに近い複数のレンズエレメントの各々を、ピエゾ素子等の圧電素子を用いて独立に駆動(光軸AXに対して平行な方向の移動又は傾斜)することで、投影光学系PLの結像特性、例えば投影倍率やディストーションを補正するものである。
【0026】
また、本実施形態の露光装置は、オフ・アクシス方式のウェハ・アライメントセンサ16を投影光学系PLの側方に備える。このウェハ・アライメントセンサは16、本発明の位置計測装置の一部をなすものであり、ウェハWに形成されたマークのX方向及びY方向(所定の計測方向)における位置情報を計測するために用いられる。ウェハ・アライメントセンサ16の計測結果を上述したベースラインの計測結果で補正することにより、ステージ座標系(X,Y)におけるマークの位置情報を得ることができる。尚、ウェハ・アライメントセンサ16の詳細については後述する。
【0027】
更に、本実施形態の露光装置は、投影光学系PLの側面にウェハWのZ軸方向の位置及びXY平面に対する傾斜量を計測するための斜入射方式の多点のメインフォーカスセンサ17が設置されている。このメインフォーカスセンサ17は、ウェハW上においてレチクルRの像が投影される露光領域内の予め設定された複数の計測点にスリット像を投影する照射光学系18と、それらスリット像からの反射光を受光してそれらスリット像を再結像し、これら再結像されたスリット像の横ずれ量に対応する複数のフォーカス信号を生成する集光光学系19とから構成され、それら複数のフォーカス信号が主制御系15に供給されている。そして、主制御系15が集光光学系19から出力されるフォーカス信号に基づいて常に投影光学系PLの最良結像面にウェハWの表面が位置するようにモータ13を介してウェハステージ9を制御する。尚、上記ウェハステージ9及びモータ13は本発明にいう位置決め部に相当し、照明光学系及び投影光学系PLは本発明にいう露光部に相当し、主制御系15は本発明にいう制御部に相当する。
【0028】
以上、本発明の露光装置の全体構成について概説したが、次に本発明の位置計測装置の一部をなすレチクル・アライメントセンサ6A,6B及びウェハ・アライメントセンサ16の詳細について順に説明する。図2は、レチクル・アライメントセンサ6Aの構成例を示す構成図である。尚、レチクル・アライメントセンサ6A,6Bは同様の構成であるため、以下では主にレチクル・アライメントセンサ6Aについて詳細に説明する。
【0029】
レチクル・アライメントセンサ6Aは、プリズム20A、ハーフミラー21A、及び観察光学系22Aを含んで構成される。レチクル・アライメントセンサ6Aはケースにより一体化され、不図示の駆動装置によって図1中の符号A,A′を付した方向に移動自在に構成されている。レチクルRのアライメントを行なう際には、主制御系15は不図示の駆動装置を介してレチクル・アライメントセンサ6Aを符号Aを付した方向に駆動して図1に示した位置に位置決めし、レチクルアライメントが終了すると、露光の際に邪魔にならないように、符号A′を付した方向に駆動して所定の退避位置に退避させる。
【0030】
レチクル・アライメントセンサ6Bは、同様に、プリズム20B、ハーフミラー21B、及び不図示の観察光学系を含んでケースにより一体化され、不図示の駆動装置によって図1中の符号B,B′を付した方向に移動自在に構成されている。そして、このレチクル・アライメントセンサ6Bも、同様に主制御系15により、後述するレチクルアライメントを行なう際に、図1に示される位置に位置決めされ、レチクルアライメントが終了すると、所定の退避位置に退避されるように構成されている。尚、上記プリズム20A,20Bは、本発明の照射系の一部に相当するものである。
【0031】
図2に示すように、プリズム20Aは、露光光ELをレチクルR上のレチクルマークRM上に導くためのものである。レチクルマークRMはパターン領域PAの外側に設けられており、この部分は通常は照明する必要の無い部分であるため、照明光学系の負荷、照度の無駄を無くすため、通常照明領域より露光光ELの一部の光束(以下、この光束を便宜上、露光光EL1という)を導くようにしたものである。尚、この露光光EL1は本発明にいう検知光に相当するものである。
【0032】
露光光EL1の光路上にハーフミラー21Aが配置されており、プリズム20Aにより導かれた露光光EL1はハーフミラー21Aを介してレチクルマークRM1を照明するとともに、レチクルR及び投影光学系PLを介して、例えば基準部材10に形成された基準マークを照明する。尚、露光光EL1が照明されるレチクルR上の領域及び露光光EL1が照明される基準部材10又はウェハW上の領域は本発明にいう被照射領域に相当する。
【0033】
ここで、レチクルアライメントを行う際には、レチクルR上の被照射領域及びウェハW又は基準部材10上の被照射領域を照明する露光光EL1を、部分的なインコヒーレント照明光に設定する。このためには、プリズム20Aを含む照明光学系の照明σを0.8以上に設定する。これは、観察光学系22Aを線形光学系とみなして、レチクルマークRMからの反射光及び基準部材10等からの反射光の位相情報を得るためである。
【0034】
レチクルマークRMからの反射光及び基準部材10からの反射光は、ハーフミラー21Aでそれぞれ反射されて観察光学系22Aに入射する。観察光学系22Aは、結像光学系23、ハーフミラー24、CCDセンサ25、焦点位置検出用の光として露光光源から分岐された露光光を導く光ファイバ26、スリット板27、ハーフミラー28、瞳遮光板30、及びCCDセンサ31を含んで構成されている。これらの部材のうち、結像光学系23、ハーフミラー24、及び受光部としてのCCDセンサ25により、レチクルマークRM及び基準部材10に形成された基準マーク等の像を検出するための検出光学系が構成されている。
【0035】
つまり、前述したように、ハーフミラー21Aでそれぞれ反射されたレチクルマークRM、基準部材10からの反射光は、露光波長の光のみを透過させ、その他の波長の光を反射させるダイクロイックミラー24を透過して結像光学系23の最良結像面(焦点位置)にそれぞれ結像される。この場合、レチクルRのパターン形成面と基準部材10の上面とは光学的に共役関係となるよう設定されている。
【0036】
このため、レチクルRのパターン形成面とCCDセンサ25の受光面とが光学的に共役であれば、CCDセンサ25の受光面にレチクルマークRM及び基準部材10に形成された基準マークの像が最良の結像状態でそれぞれ結像し、CCDセンサ25からはレチクルマークRM及び基準部材10に形成された基準マークの画像信号VS1が出力される。従って、主制御系15がCCDセンサ25から出力される画像信号VS1に対して画像処理、演算処理、フィルタリング処理等の処理を行えば、レチクルマークRMと基準部材10に形成された基準マークとの相対位置を求めることができる。尚、本実施形態では、上記結像光学系23として、焦点距離を可変とできる光学系、即ち所謂内焦式の光学系が用いられている。また、上記ハーフミラー21A、結像光学系23、及びダイクロイックミラー24は本発明にいう検出光学系に相当し、CCDセンサ25は本発明にいう検出系の一部又は光電変換手段に相当する、
【0037】
また、観察光学系22Aを構成する部材のうち、焦点位置検出用の光源26、スリット板27、ハーフミラー28、波長選択フィルタ29、瞳遮光板30、及びCCDセンサ31によって、結像光学系23の焦点ずれを検出する焦点位置検出系が構成されている。上記焦点位置検出用の光源26は、例えばLED(Light Emitting Diode)であり、この光源26から射出される焦点位置検出用の検出光ILの波長は露光光ELとは異なる波長である。
【0038】
スリット板27には、所定形状の開口(スリット)が形成されている。光源26から射出された検出光ILがスリット板27を照明すると、スリット板27のスリットを透過した検出光ILは、ハーフミラー28、ダイクロイックミラー24で順次反射され、結像光学系23を通過した後、ハーフミラー21AによりレチクルRのパターン面を落射照明する。これにより、レチクルRのパターン形成面にスリット板27のスリット像が結像される。
【0039】
このスリット像の反射光は検出光ILと同じ光路を逆向きに戻り、ダイクロイックミラー24で反射された後、ハーフミラー28を透過し、露光光ELの波長域の光を透過させない波長選択フィルタ29を更に透過して瞳遮光板30に至る。この瞳遮光板30は、例えば焦点位置検出系の瞳面に配置され、瞳面の図2における左半分を遮光する半円状のものである。この瞳遮光板30を通過したスリット像の反射光は強制的に傾斜させられた後、CCDセンサ31上にスリット像を再結像する。
【0040】
以上のように、CCDセンサ31の受光面には、その光軸が傾斜した光束が入射するため、例えばレチクルRの厚さ変化等の要因により結像光学系23の焦点位置がずれて、レチクルRのパターン形成面とCCDセンサ25の受光面との共役関係が維持できなくなると、CCDセンサ31上におけるスリット像の結像位置がずれる。従って、CCDセンサ31からの合焦用信号FS1に基づいて主制御系15が結像光学系23の焦点ずれを測定し、結像光学系23内部の不図示のレンズ群を駆動することで結像光学系23の焦点をレチクルパターン面とCCDセンサ25の受光面とに合わせることができることができるようになっている。
【0041】
この場合、主制御系15は、CCDセンサ31上でのスリット像の結像位置が常に一定になるように、結像光学系23内部のレンズ群を駆動することにより、常にCCDセンサ25に焦点位置を一致させる。CCDセンサ25上でのスリット像結像位置の目標値は、CCDセンサ25から出力される画像信号が最もシャープ(例えば、コントラストが最大となる)状態において、CCDセンサ31で検出されるスリット像結像位置を予め求めて設定しておく。
【0042】
次に、ウェハ・アライメントセンサ16について詳細に説明する。図3は、ウェハ・アライメントセンサ16の構成例を示す構成図である。尚、図3に示すウェハ・アライメントセンサ16は、FIA(Field Image Alignment)方式のアライメントセンサである。ウェハ・アライメントセンサ16は、所定の広帯域波長の光束を検知ビームDLとして射出する光源41を備える。この光源41はウェハWに形成されたマークAMの観察用及び合焦用(焦点合わせ)に共用される。尚、検知ビームDLは本発明にいう検知光に相当する。
【0043】
光源41の光路上にはコンデンサレンズ42、視野絞り43、照明リレーレンズ44、及びビームスプリッタ45が順に配置されている。視野絞り43は、図3中に示すように、主開口K1及び副開口K2,K3を有する。主開口K1は略正方形状に形成され、視野絞り43の中央部に配置されており、その中心がコンデンサレンズ42及び照明リレーレンズ44の光軸とほぼ一致するように光路中に挿入されている。
【0044】
副開口K2,K3は細長い矩形スリット状に形成され、その長手方向の辺が主開口K1の対向する2つの辺に対して所定の角度(例えば5°)傾いた状態で主開口K1の近傍位置に配置されている。そして、主開口K1の辺と直交し、且つ副開口K2,K3の長手方向と略直交する方向(傾いていない状態で直交する方向)が、後述するフォーカスの計測方向となる。以下の説明中では、副開口K2,K3の略長手方向を非計測方向と呼ぶ。また、フォーカスの計測方向は、種々の方向に設定することが可能であるが、本実施形態ではウェハWの表面のパターンの基準線の方向(X方向又はY方向)に合わせているものとする。
【0045】
照明リレーレンズ44を介した光源41からの検知ビームDLがビームスプリッタ45において反射される方向、図3ではビームスプリッタ45から下方に進む光路上には、第1対物レンズ46が配置されている。この光路の先にはウェハWを載置するためのウェハステージ9が配置されることになる。
【0046】
ウェハWの表面が基準面F1に一致するように位置決めされた状態では、ウェハWの表面は、視野絞り43と光学的に共役の関係となる。ウェハW上には位置検出用のマークAMが形成されており、このマークAMが図3に示すようにウェハ・アライメントセンサ16の計測視野内に配置されると、マークAMは検知ビームDLにより落射照明される。尚、ウェハステージ9上において検知ビームDLが落射照明される領域は、本発明にいう被照射領域に相当する。
【0047】
ここで、ウェハW上の被照射領域を照明す検知ビームDLを、部分的なインコヒーレント照明光に設定する。このためには、ウェハ・アライメントセンサ16の照明σを0.8以上に設定する。これは、ウェハ・アライメントセンサ16を線形光学系とみなして、ウェハW等からの反射光の位相情報を得るためである。
【0048】
また、第1対物レンズ46の光軸に沿って、ビームスプリッタ45の反射面を透過する方向、図では上方向への光路上には、第2対物レンズ48、ビームスプリッタ49、遮光板51、第1リレーレンズ52、及び瞳分割用反射型プリズム53が順に配置されている。遮光板51は基準面F1と光学的に共役な面F2に配置されており、ウェハWの表面で反射され、第1対物レズ46、ビームスプリッタ45、第2対物レンズ48、及びビームスプリッタ49を順に通過した光の一部を遮光する。尚、遮光板51の詳細については後述する。
【0049】
瞳分割用反射型プリズム53は、第1リレーレンズ52を介して入射する光束を複数の光束に分割(本実施形態では2本の光束に分割)する光束分割部材であって、光源41と共役な位置又はその近傍に配置される。ここで、瞳分割用反射型プリズム53は、2面が180度に近い鈍角で山型に形成されたプリズムの、その2面を反射面に仕上げた光学部材である。本実施形態では、この2面の交線(山の稜線)が第1リレーレンズ52の光軸と交差し、その光軸をほぼ90度折り曲げるように傾けて配置されている。
【0050】
第1リレーレンズ52を介して瞳分割用反射型プリズム53に入射した検知ビームDLは、ここで図中右方へ分割反射される。この右方への光路上には、瞳分割用反射型プリズム53に続いて第2リレーレンズ54、円柱光学系である円柱レンズ(シリンドリカルレンズ)55、及びAF(オートフォーカス)センサ56が順次配置される。ここで円柱光学系とは、前後の面が、互いに平行な母線を有する円柱面であるレンズである。前後の面の一方が平面であってもよい。この場合、具体的には円柱面の母線と直角の方向には屈折力があるが母線方向の屈折力はゼロである。本実施形態では、円柱レンズ55はその母線がフォーカスの計測方向にほぼ一致するように配置される。また、本明細書では、直交する2方向で屈折力が異なるレンズ、トーリックレンズを含む概念とする。
【0051】
AFセンサ56は、面F2と光学的に共役又はその近傍の位置である第1撮像面V1に配置され、第1撮像面V1上に結像される像の位置関係を検出して合焦用信号FS2を出力する。また、第1対物レンズ46、ビームスプリッタ45、及び第2対物レンズ48を順に介した光束がビームスプリッタ49によって反射される方向、図3中では左方向の光路上には基準面F1と光学的に設定された第2撮像面V2にCCD撮像素子等の撮像素子50の受光面が配置される。撮像素子50は第2撮像面V2上に結像される像を画像信号VS2に変換して出力する。上記AFセンサ56からの合焦用信号FS2及び撮像素子50からの画像信号VS2は主制御系15に出力される。
【0052】
尚、上記光源41、コンデンサレンズ42、視野絞り43、照明リレーレンズ44、ビームスプリッタ45、及び第1対物レンズ46は本発明にいう照射系に相当し、第1対物レンズ46、ビームスプリッタ45、第2対物レンズ48、及びビームスプリッタ49は本発明にいう検出系の一部又は検出光学系に相当し、撮像素子50は本発明にいう光電変換手段に相当する。
【0053】
次に、以上の構成におけるウェハ・アライメントセンサ16の動作について簡単に説明する。光源41から検知ビームDLが射出されるとコンデンサレンズ42によって集光され、主開口K1及び副開口K2,K3を有する視野絞り43を均一に照明する。視野絞り43の主開口K1及び副開口K2,K3を通過した光束は、照明リレーレンズ44によってコリメートされ、ビームスプリッタ45で反射される。
【0054】
この反射された光束は、第1対物レンズ46によって集光され、ウェハステージ9上に載置されたウェハWの表面に垂直に照射される。ウェハWの表面が基準面F1に配置されているときには、ウェハWの表面と視野絞り43とは光学的に共役の関係となるため、主開口K1及び副開口K2,K3の像は照明リレーレンズ44及び第1対物レンズ46を介してウェハWの表面に結像される。
【0055】
ここで、ウェハWの表面に結像された主開口K1の像からの反射光束をL1、副開口K2の像からの光束をL2、副開口K3の像からの光束をL3とする。これらの光束L1〜L3は第1対物レンズ46によってコリメートされ、ビームスプリッタ45を透過し、第2対物レンズ48によって再び集光され、ビームスプリッタ49によって透過及び反射分岐される。
【0056】
反射分岐された光束のうち、光束L1は集束されて撮像素子50の受光面にマークAMの像が結像される。撮像素子50は受光面に結像したマークAMの像を光電変換して画像信号VS2を出力する。一方、ビームスプリッタ49において透過分岐された光束L1〜L3は、第1対物レンズ46及び第2対物レンズ48の結像作用によって、ウェハW表面と共役又はその近傍の面F2の位置に設けられた遮光板51にK1〜K3の像を再結像する。即ち、遮光板51上には、第1対物レンズ46及び第2対物レンズ48によってウェハWの表面上に形成された主開口K1及び副開口K2,K3の中間像が形成される。
【0057】
図3中に光軸方向から見た遮光板51の構成例を示す。遮光板51には光軸に対して対称な位置に2個のスリット状の光束通過部K12,K13が副開口K2,K3に対応するように設けられており、ウェハ表面において結像反射された光束L1〜L3のうち光束L1は遮光され、光束L2,L3のみがK12及びK13をそれぞれ介して通過できるように構成されている。また、遮光板51の他の構成例も図3中に示してある。即ち、光束L1が遮光板51に入射する(図中斜線で示す)範囲のみが遮光され、その周囲の部分全ての領域K14が光束通過部として構成されていてもよい。
【0058】
遮光板51を通過した光束L2,L3は第1リレーレンズ52によってコリメートされた後、瞳分割用反射型プリズム53上に光源41の像を結像する。更に、光束L2,L3は瞳分割用反射型プリズム53によってそれぞれ2つの光束に分割されるとともに、図中右方へ反射されて第2リレーレンズ54により再び集光される。そして、円柱レンズ55を介して、AFセンサ56上に光束L2及びL3による副開口K2,K3のスリット像をそれぞれ2分割して結像する。
【0059】
AFセンサ56の受光面上における2分割光束の結像位置はウェハWの表面のZ方向の位置に応じて変化する。このため、予めウェハWが基準面F1に配置されている状態において検出される2分割光束の結像位置の距離を基準距離として主制御系15に設定しておき、主制御系15において基準距離とAFセンサ56で検出された2分割光束の結像位置の距離との大小関係を比較することで、ウェハWの表面がウェハ・アライメントセンサ16の焦点位置に配置されているか否か(合焦しているか否か)を判断する。
【0060】
合焦していない場合には基準距離と算出した距離との大小関係からウェハWのずれ方向を求めて、ずれ方向と反対方向にウェハステージ9を駆動する。ウェハステージ9をZ方向に駆動している最中においてもAFセンサ56による上述した検出及び各種処理を行い、2分割光束の結像位置間の距離と基準距離とが等しくなったときにウェハステージ9の駆動を停止する。ウェハWがウェハ・アライメントセンサ16の焦点位置に配置されている状態で撮像素子50から出力される画像信号VS2を主制御系15で画像処理、演算処理、フィルタリング処理等の処理を行うことにより、ウェハ・アライメントセンサ16の計測視野内に配置されているマークAMの位置情報が計測される。
【0061】
以上、レチクル・アライメントセンサ6A,6B及びウェハ・アライメントセンサ16の構成及び動作について説明したが、次に主制御系15について詳細に説明する。図4は、主制御系15の内部構成を示すブロック図である。尚、図4においては、図1〜図3中に示した部材と同一の部材には同一の符号を付してある。図4に示すように、主制御系15は、フォーカス検出ユニット60、画像処理ユニット61、フォーカス検出ユニット62、FIA演算ユニット63、アライメントデータ記憶部64、EGA演算ユニット65、記憶部66、ショットマップデータ部67、システムコントローラ68、ウェハステージコントローラ69、及びレチクルステージコントローラ70から構成されている。
【0062】
画像処理ユニット61は、レチクル・アライメントセンサ6A,6Bから出力される画像信号VS1に対して、画像処理、演算処理、フィルタリング処理等の処理を行い、レチクルマークRMと基準部材10に形成された基準マークとの相対位置を求め、その処理結果をシステムコントローラ68へ出力する。また、FIA演算ユニット63は、ウェハ・アライメントセンサ16から出力される画像信号VS2に対して、画像処理、演算処理、フィルタリング処理等の処理を行い、ウェハWに形成されたマークAMの位置情報を求めてアライメントデータ記憶部64へ出力する。尚、上記画像処理ユニット61及びFIA演算ユニット63で行われる画像処理等の具体例としては、マークの輪郭を求める処理、得られた輪郭からマークをなすマーク要素各々のエッジ位置を検出する処理、検出したエッジ位置からマーク中心を求める処理等がある。
【0063】
フォーカス検出ユニット60は、レチクル・アライメントセンサ6A,6Bから出力される合焦用信号FS1を用いて、図2に示すレチクル・アライメントセンサ6A,6Bが備える結像光学系23の焦点ずれを検出する。また、フォーカス検出ユニット62は、ウェハ・アライメントセンサ16から出力される合焦用信号FS2を用いて、ウェハ・アライメントセンサ16の焦点位置からのウェハWの表面のずれ量を検出する。フォーカス検出ユニット60,62の算出結果は、システムコントローラ68へ出力される。
【0064】
アライメントデータ記憶部64はFIA演算ユニット63から出力されたマークAMの位置情報を記憶する。EGA演算ユニット65は、ウェハW上に予め設定された代表的な数個(3〜9個)のショット領域の各々に付随して形成されたマークAMの、ウェハ・アライメントセンサ16により計測された位置情報と、その設計上の位置情報とに基づいてEGA(エンハンスト・グローバル・アライメント)演算を行い、ウェハW上に設定された全てのショット領域の配列の規則性を統計的な手法で決定する。
【0065】
記憶部66は、EGA演算ユニット65がEGA演算を行っている最中に得られる各種変換パラメータ及び残留誤差成分(例えば、設計値と計測値との残差の単純な自乗和)を一時的に記憶する。ショットマップデータ部67は、上述したウェハW上に設定された複数のショット領域の設計上の位置情報及びショット領域に付随して設けられたマークAMの位置情報を含むショットマップデータを予め記憶している。
【0066】
システムコントローラ68は、EGA演算ユニット65の演算結果に基づいて、ウェハステージコントローラ69を介してレーザ干渉計12の計測値をモニタしつつ、モータ13を介して図1に示したウェハステージ9を駆動して、ウェハW上の各ショット領域の位置決め及び各ショット領域に対する露光制御を行う。また、システムコントローラ68は、レチクルステージコントローラ70を介してレーザ干渉計4の計測値をモニタしつつ、モータ2を介して図1に示したレチクルステージ3を駆動して、レチクルRの位置調整を行う。
【0067】
更に、システムコントローラ68は、レチクル・アライメントセンサ6A,6Bの焦点位置と図2に示すCCDセンサ25の受光面とが一致していない場合には、フォーカス検出ユニット60の検出結果に応じてレチクル・アライメントセンサ6A,6Bに設けられた結像光学系23が備えるレンズ群を駆動し、結像光学系23の焦点位置を可変させる。また更に、ウェハ・アライメントセンサ16の焦点位置にウェハWの表面が配置されていない場合には、フォーカス検出ユニット62の検出結果に応じてモータ13を介して図1に示したウェハステージ9を駆動して、ウェハWをZ方向に移動させる。
【0068】
次に、主制御系15に設けられるFIA演算ユニット63及び画像処理ユニット61の構成について説明する。図5は、FIA演算ユニット63の内部構成を示すブロック図である。図5に示すように、FIA演算ユニット63は、画像信号増幅部71、A/D変換部72、画像信号記憶部73、位相補正部74、位相特性情報記憶部75、及び位置情報算出部76を含んで構成される。
【0069】
画像信号増幅部71は、ウェハ・アライメントセンサ16から出力される画像信号VS2を所定の増幅率で増幅する。ここで、画像信号増幅部71の増幅率は、画像信号VS2の全体的なレベル及びS/N比(信号対雑音比)等を考慮して適宜決定される。尚、画像信号増幅部71は、設定した増幅率を示す増幅率情報を位相補正部74へ出力する。A/D変換部72は、アナログ信号である画像信号VS2の標本化及び量子化を行い、画像信号VS2をディジタル信号に変換する。画像信号記憶部73は、ディジタル化された画像信号VS2を一時的に記憶する。
【0070】
位相補正部74は、画像信号記憶部73に一時的に記憶されている画像信号を読み出し、位相特性情報記憶部75に記憶された位相特性情報に基づいて画像信号の位相ずれを補正する。このとき、位相補正部74は画像信号増幅部71から出力される増幅率情報又は位置情報算出部76から出力される像高情報に応じた位相特性情報を位相特性情報記憶部75から選択的に読み出す。
【0071】
位置情報算出部76は、位相補正部74から出力される画像信号に対し、マークの輪郭を求める処理、得られた輪郭からマークをなすマーク要素各々のエッジ位置を検出する処理、検出したエッジ位置からマーク中心を求める処理等の処理を行って、マークAMの位置情報を求める。また、位置情報算出部76はウェハ・アライメントセンサ16の計測視野内におけるマークAMの位置を示す情報を像高情報として位相補正部74に出力する。尚、上記画像信号増幅部71、位相特性情報記憶部75、位相補正部74、及び位置情報算出部76は、本発明にいう電気経路の一部、記憶部、処理部、演算部にそれぞれ相当する。
【0072】
ここで、位相特性情報について説明する。図6は、位相特性情報を決める伝達関数を説明するための図である。図6に示すように、ウェハWの表面で反射された光が撮像素子50に至るまでの光学系を検出光学系OSとし、撮像素子50から出力された画像信号VS2がA/D変換部72に至るまでを電気経路ESとする。尚、電気経路ESには画像信号増幅部71が含まれる。また、検出光学系OSの伝達関数をf(x)とし、電気経路ESの伝達関数をg(x)とする。これらの伝達関数f(x),g(x)は複素関数で表され、一般的にはX軸の座標を示す変数xとY軸の座標を示す変数yとの関数であるが、ここでは簡単のためX軸方向のみについて考え、変数xの関数としてある。
【0073】
伝達関数f(x)は、いわばウェハWの表面からの光がどのように撮像素子50の受光面に結像するかを示す関数である。従って、ウェハW表面における光強度及び初期位相を設定して伝達関数f(x)で演算すると、撮像素子50の受光面に結像する光の振幅分布及び位相(複素振幅)を求めることができる。例えば、図6中に示すように、マークAMを含む領域において反射される光の光強度分布を示すデータw0と初期位相とを与えれば、撮像素子50の受光面に受光されるマーク像の複素振幅分布を求めることができる。尚、複素振幅分布を二乗すれば強度分布となる。
【0074】
同様に、伝達関数g(x)は、いわば撮像素子50から出力された画像信号が画像信号増幅部71を介してどのようにA/D変換部72に伝達されるかを示す関数である。よって、撮像素子50から出力される画像信号(例えば、図6に示す画像信号w1)及び初期位相を設定して伝達関数g(x)で演算すると、A/D変換部72に入力される画像信号(例えば、図6に示す画像信号w2)を求めることができる。尚、画像信号w1,w2は時系列的に出力されるが、撮像素子50はウェハW上を一定速度で走査して画像信号w1を得ており、時間とX座標は1対1に対応するため、伝達関数g(x)は変数xの関数として表しても良い点に注意されたい。
【0075】
尚、伝達関数f(x),g(x)は、検出光学系OS及び電気経路ESをそれぞれ線形システムとみなすことができる場合に用いられるものである。検出光学系OSは、厳密には完全なインコヒーレント照明により照明されている場合に線形システムと考えられるものであるが、完全なインコヒーレント照明を実現するのは困難である。このため、本実施形態においては照明σを0.8以上に設定し、部分的なインコヒーレント照明とすることで、伝達関数f(x)を線形システムとみなしている。
【0076】
ウェハWの表面からの光は検出光学系OSを通過する際に周波数成分毎に異なる位相ずれが生じ、この位相ずれが生じた周波数成分を重ね合わせて得られるマーク像を撮像素子50で撮像すると、図6に示す形状変化及び位置シフトが生じた画像信号w1が得られる。この各周波数成分毎の位相ずれを示す情報が位相特性情報の1つである光学特性情報であり、伝達関数f(x)から求めることができる。同様に、電気経路ESにおける各周波数成分毎の位相ずれを示す情報が位相特性情報の1つである電気特性情報である。これら光学特性情報及び電気特性情報は、図5に示す位相特性情報記憶部75に記憶されている。
【0077】
尚、検出光学系OSの伝達関数f(x)は、像高(ウェハ・アライメントセンサ16の計測視野中心からの距離)によって変化する。つまり、ウェハ・アライメントセンサ16の計測視野中心にマークAMが配置されている場合と、計測視野の端部にマークAMが配置されている場合とによって、残存収差が異なり、各周波数成分の位相ずれも異なることがある。このため、像高毎に伝達関数f(x)を求め、像高毎の光学特性情報を位相特性情報記憶部75に記憶しておく。同様に、電気経路ESの伝達関数g(x)は、画像信号増幅部71の増幅率によって変化するため、増幅率毎に伝達関数g(x)を求め、増幅率毎の電気特性情報を位相特性情報記憶部75に記憶しておく。
【0078】
図7は、位相特性情報を用いて位相ずれを補正する原理を説明するための図である。尚、ここでは検出光学系OSで生ずる位相ずれを補正する場合を例に挙げて説明する。図7に示す通り、マークAMを含む領域において反射される光の光強度分布を示すデータw0を伝達関数f(x)で演算すると、位相ずれが生じた画像信号w1(撮像素子50の受光面に結像したマーク像に対応)が得られる。
【0079】
線形システムの特性上、伝達関数f(x)からその逆の特性を有する伝達関数f−1(x)が求められ、形状変化等が生じた画像信号w1(撮像素子50の受光面に結像しているマーク像)を伝達関数f−1(x)で演算すると、位相ずれが生じていない元のデータw0が得られる。この原理を用いて、位相補正部74は画像信号VS2の位相ずれを補正している。
【0080】
以上、画像信号VS2の位相ずれを補正する原理について説明したが、次に、位相補正部74が行う具体的な位相ずれの補正方法について説明する。位相補正部74が位相ずれを補正するときには、まず補正フィルタの窓の大きさを決定する。この補正フィルタの窓の大きさは、計測対象であるマークAMが繰り返しパターンである場合には、この繰り返しパターンの周期よりも充分大きくなるように設定することが望ましい。このとき、補正フィルタの窓の大きさが繰り返しパターンの周期の整数倍となるように設定すると、位相と成分の次数との対応関係が明確となるため、より望ましい、
【0081】
上記の補正フィルタは、設定した窓の大きさを整数で除算した周期を有する余弦関数(cos関数)の重ね合わせで表現する。ここで、設定した窓の大きさの1/kの周期を有する成分の次数をkとし、これをk次成分とする。検出光学系OSにおけるk次成分の位相遅れをΦとすると、補正フィルタf(x)は以下の(1)式で表される。
【数1】

Figure 2004281904
【0082】
位相補正部74は、位相特性情報記憶部75から光学特性情報、電気特性情報、又は光学特性情報と電気特性情報とを合わせた位相特性情報を読み出して、各成分毎に上記(1)式に示された補正フィルタの位相遅れΦを設定して、補正フィルタを生成する。そして、画像信号VS2に対して補正フィルタf(x)を畳み込み演算することで、画像信号VS2の位相ずれを補正する。
【0083】
尚、実際には上記(1)式に示した補正フィルタのみを用いる訳ではなく、窓による不連続性を緩和するための窓関数がかけられたものを用いる。また、上記(1)式中のA,Aは0次成分及びk次成分の振幅である。この各成分の振幅を調整可能に構成して各成分毎のゲインを調整することで、周波数ゲイン調整フィルタを兼ねる事も可能である。
【0084】
ここで、移動特性情報記憶部75に記憶される位相特性情報1つである光学特性情報は、例えば波面計測装置を用いてウェハ・アライメントセンサ16における(電場振幅の)波面計測を行い、これを大σを有する光学系の電場強度の位相特性に換算して求める。また、位相特性情報の1つである電気特性情報は、電気経路ESに対して位相が既知の試験信号を入力し、その試験信号の位相遅れを計測して求める。
【0085】
更に、上記光学特性情報と電気特性情報とを合わせた位相特性情報を求める場合には、ウェハ・アライメントセンサ16の残存収差によって、像が影響を受けるマークを観察してその像から求める。例えば、光学解像限界以下の点像(二次元で収差を補正する場合)又は光学解像限界以下の線像(一次元で収差を補正する場合)をウェハ・アライメントセンサ16で観察し、得られる画像信号をスペクトル解析(フーリエ変換)して求める。これらの計測は、ウェハWに形成されたマークを観察する前に予め行い、得られた位相特性情報を図5に示す位相特性情報記憶部75に記憶させておく。
【0086】
以上、FIA演算ユニット63の構成について説明したが、画像処理ユニット61も図5に示す画像信号増幅部71〜位置情報算出部75と同様の構成を有しし、レチクル・アライメントセンサ6A,6Bが備えるCCDセンサ25から出力される画像信号VS1の位相ずれを補正した後で、レチクルマークRM及び基準部材10に形成された基準マークの輪郭を求める処理、得られた輪郭からレチクルマークAM及び基準マークをなすマーク要素各々のエッジ位置を検出する処理、検出したエッジ位置からレチクルマークRMと基準マークとのずれ量を算出する処理を行う。
【0087】
次に、上記構成におけるウェハ・アライメントセンサ16のマークAMの位置情報を計測する際の動作について説明する。露光装置内にウェハWが搬入されてウェハステージ9上に吸着保持されると、主制御系15がモータ13を駆動してウェハステージ9をXY面内で移動させ、ウェハWに形成されたマークAMの1つをウェハ・アライメントセンサ16の計測視野内に配置し、検知ビームDLを配置したマークAMに照射する。この照射によってウェハWの表面で反射又は回折された光は、図3に示す第1対物レンズ46及び第2対物レンズ48等を介して撮像素子50及びAFセンサ56で受光される。
【0088】
AFセンサ56は2分割光束の結像位置間の距離を検出して合焦用信号FS2を出力する。この合焦用信号FS2は主制御系15のフォーカス検出ユニット62において予め設定されている基準距離と比較され、これらが異なる場合に主制御系15はモータ13を介してウェハステージ9をZ方向に移動させる。ウェハステージ9を移動させた後、フォーカス検出ユニット62で再度合焦用信号FS2と基準距離との比較を行い、異なる場合は同様にウェハステージ9を移動させる。以上の動作を繰り返して合焦用信号FS2と基準距離とが一致し、ウェハ・アライメントセンサ16の焦点位置にウェハWの表面が配置された状態になると、FIA演算ユニット63は、ウェハ・アライメントセンサ16から出力される画像信号VS2を取り込む。
【0089】
FIA演算ユニット63に取り込まれた画像信号VS2は、まず図5に示す画像信号増幅部71において所定の増幅率で増幅される。このとき画像信号増幅部71で設定された増幅率は増幅率情報として位相補正部74へ出力される。増幅された画像信号はA/D変換部72へ出力され、標本化及び量子化が行われてディジタル化された後、画像信号記憶部73に一時的に記憶される。
【0090】
次に、位相補正部74は、画像信号増幅部71から出力された増幅率情報に応じた電気特性情報を位相特性情報記憶部75から読み出し、読み出した電気特性情報を前述した(1)式に示した補正フィルタに適用して画像信号記憶部73に一時的に記憶された画像信号の位相ずれを補正する。このようにして、電気経路ESにおいて生じた位相ずれが補正される。この位相ずれが補正された画像信号は、画像信号記憶部73へ出力されて一時的に記憶されるとともに、位置情報算出部76へ出力される。
【0091】
電気経路ESにおいて生じた位相ずれが補正された画像信号が位置情報算出部76へ入力されると、位置情報算出部76は入力された画像信号に対してマークAMの輪郭を求める処理、得られた輪郭からマークをなすマーク要素各々のエッジ位置を検出する処理、検出したエッジ位置からマーク中心を求める処理等の処理を行う。そして、ウェハ・アライメントセンサ16の計測視野内におけるマークAMの位置を示す情報を求め、この情報を像高情報として位相補正部74に出力する。
【0092】
位置情報算出部76から像高情報が出力されると、位相補正部74は位相特性情報記憶部75から像高情報に応じた光学特性情報を読み出すとともに、先に画像信号記憶部73に記憶した画像信号(電気経路ESにおいて生じた位相ずれを補正した画像信号)を読み出す。そして、読み出した光学特性情報を前述した(1)式に示した補正フィルタに適用して、読み出した画像信号の位相ずれを補正する。このようにして、検出光学系OSにおいて生じた位相ずれが補正される。この位相ずれが補正された画像信号は位置情報算出部76へ出力される。
【0093】
電気経路ESにおいて生じた位相ずれが補正された画像信号が位置情報算出部76へ入力されると、位置情報算出部76は入力された画像信号に対してマークAMの輪郭を求める処理、得られた輪郭からマークをなすマーク要素各々のエッジ位置を検出する処理、検出したエッジ位置からマーク中心を求める処理等を行って、マークAMの位置情報を求める。この位置情報は図4に示すアライメントデータ記憶部64へ出力されて一時的に記憶される。このようにして、検出光学系OS及び電気経路ESにおいて生じた位相ずれが補正された画像信号からマークAMの位置情報が求められる。尚、レチクル・アライメントセンサ6A,6BにおけるレチクルマークRMと基準マークとの位置ずれの計測時にも同様の動作が行われる。
【0094】
次に、ウェハW上の各ショット領域の位置決めを行って、各ショット領域にレチクルRに形成されたパターンの像を投影露光する際の動作について説明する。まず、ウェハW上のショット領域の配列及びアライメントマークとしてのマークの形状等について説明する。図8は、ウェハW上のショット領域の配列及びマークの形状を説明するための図である。図8において、ウェハW上にはウェハW上に設定された座標系(X,Y)に沿って規則的にショット領域ES1,ES2,……,ESNが形成され、各ショット領域ESiにはそれまでの工程によりそれぞれデバイスパターンが形成されている。
【0095】
また、各ショット領域ESiはX方向及びY方向に所定幅のストリートラインで区切られており、各ショット領域ESiに近接するX方向に伸びたストリートラインの中央部にマークAMとしてのX軸方向のマークMxiが形成され、各ショット領域ESiに近接するY方向に伸びたストリートラインの中央部にY方向のマークMyiが形成されている。マークMxi,MyiはそれぞれX方向及びY方向に所定ピッチで3本の直線パターンを並べたものであり、これらのパターンはウェハWの下部に凹部又は凸部のパターンとして形成したものである。
【0096】
ウェハWへの露光を行う際には、それらショット領域ESiの内から例えば斜線を施して示す9個のショット領域が選択される。このように選択されたショット領域をサンプルショットSA1〜SA9と称する。各サンプルショットSAiにはそれぞれマークMxi,Myiが近接して形成されている。本例ではこれらマークMxi,Myiの位置を計測することにより、各サンプルショットSA1〜SA9のステージ座標系(X,Y)上での位置情報を計測する。この位置情報の計測時においては、前述した処理が行われて、検出光学系OS及び電気経路ESにおいて生じた位相ずれが補正された画像信号から各サンプルショットSA1〜SA9のステージ座標系(X,Y)が求められる。これにより、マークMxi,Myiの位置情報が極めて高い精度で計測される。この計測結果は、図4に示す主制御系15のアライメントデータ記憶部64に記憶される。
【0097】
各サンプルショットSA1〜SA9のステージ座標系(X,Y)上での位置情報が計測されると、これらの位置情報とショットマップデータ部67に記憶されているショットマップデータを用いてEGA演算ユニット65においてEGA演算が行われ、ウェハW上に設定された全てのショット領域の配列の規則性が決定される。システムコントローラ68は決定されたショット領域の配列を用いて、露光すべきショット領域が投影光学系PLの投影領域(レチクルRに形成されたパターンが投影される領域)に配置されるように、ウェハステージ9を移動させて位置決めする。ウェハWの位置決めが完了すると露光光ELがレチクルRに照射され、そのショット領域が露光される。以後同様に、決定されたショット領域の配列を用いてウェハステージ9がステップ移動により位置決めされて、順次ショット領域が露光される。
【0098】
本実施形態においては、検出光学系OS及び電気経路ESにおいて生じた位相ずれが補正された画像信号から各サンプルショットSA1〜SA9のステージ座標系(X,Y)を求めているため、高い精度で計測が行われる。この高精度の計測結果を用いて上述したEGA演算が行われ、決定されるショット領域の配列の規則性も高い精度のものとなる。この結果、露光時においてウェハWの各ショット領域を投影光学系PLの投影領域に精確に位置決めすることができ、重ね合わせ精度を向上を図ることができる。
【0099】
次に、本発明の他の実施形態による位置計測装置について説明する。以下に説明する本発明の他の実施形態による位置計測装置は、上述した本発明の一実施形態による位置計測装置が備えるFIA演算ユニット63及び画像処理ユニット61とは異なる構成のFIA演算ユニット及び画像処理ユニットを備えている。尚、以下の説明では、FIA演算ユニットについて詳細に説明し、画像処理ユニットについては説明を省略する。
【0100】
図9は、本発明の他の実施形態による位置計測装置が備えるFIA演算ユニット80の内部構成を示す図である。図9に示す通り、FIA演算ユニット80は、画像信号増幅部81、A/D変換部82、帯域フィルタ部83a〜83n、画像信号記憶部84、位相補正部85、位相特性情報記憶部86、及び位置情報演算部87を含んで構成される。
【0101】
画像信号増幅部81は、図5に示す画像信号増幅部71と同様に、ウェハ・アライメントセンサ16から出力される画像信号VS2を所定の増幅率で増幅する。画像信号増幅部81の増幅率は画像信号VS2の全体的なレベル及びS/N比(信号対雑音比)等を考慮して適宜決定され、この増幅率を示す増幅率情報は位相補正部85へ出力される。A/D変換部82は、図5に示すA/D変換部72と同様に、アナログ信号である画像信号VS2の標本化及び量子化を行い、画像信号VS2をディジタル信号に変換する。
【0102】
帯域フィルタ部83a〜83nはディジタル化された画像信号から所定の帯域の周波数成分を抽出する。ここで、帯域フィルタ部83a〜83nの各々には異なる帯域が設定されており、各々が異なる帯域の周波数成分を抽出する。尚、図9では帯域フィルタ部を3つ備える構成を例に挙げて図示しているが、帯域フィルタ部の数は任意に設定することができる。
【0103】
画像信号記憶部84は、帯域フィルタ部83a〜83nで抽出された周波数成分からなる画像信号をそれぞれ一時的に記憶する。位相補正部85は、画像信号記憶部84に一時的に記憶されている周波数成分毎の画像信号をそれぞれ読み出し、位相特性情報記憶部86に記憶された位相特性情報に基づいて周波数成分毎の画像信号各々の位相ずれを補正する。このとき、位相補正部85は画像信号増幅部81から出力される増幅率情報及び位置情報演算部87から出力される像高情報に応じた位相特性情報であって、周波数成分毎の位相特性情報を位相特性情報記憶部86から選択的に読み出す。
【0104】
位置情報演算部87は、位置情報算出部88及び位置情報補正部89を含んで構成され、マークAMの位置情報を求める。位置情報算出部88は、A/D変換部82から出力される画像信号に対してマークの輪郭を求める処理、得られた輪郭からマークをなすマーク要素各々のエッジ位置を検出する処理、検出したエッジ位置からマーク中心を求める処理等の処理を行って、マークAMの位置情報を求める。
【0105】
また、位置情報算出部76はA/D変換部82から出力される画像信号に基づいてマーク中心を求めた際に、ウェハ・アライメントセンサ16の計測視野内におけるマークAMの位置を示す情報を像高情報として位相補正部85に出力する。更に、位置情報算出部88は、位相補正部85から出力される位相ずれが補正された周波数成分毎の画像信号各々に対しても同様の処理を行って、周波数成分毎の画像信号に基づいたマークAMの位置情報を求める。以下、周波数成分毎の画像信号に基づいたマークAMの位置情報を補正用位置情報という。
【0106】
位置情報補正部89は、A/D変換部82から出力された全ての周波数成分を含む画像信号から求めたマークAMの位置情報を補正用位置情報を用いて補正する。つまり、A/D変換部82から出力された全ての周波数成分を含む画像信号は、検出光学系OS及び電気経路ESにおいて生ずる位相ずれの影響を受けたものであり、この画像信号に基づいて求められた位置情報は誤差を含んでいると考えられる。
【0107】
そこで、位置情報補正部89は、位相ずれが補正された周波数成分毎の画像信号から得られた補正用位置情報を用いて位置情報を補正することにより、計測精度を高めている。位置情報補正部89で行われる処理は、例えば補正用位置情報各々のばらつきの平均値を求め、これらの値で位置情報を補正する処理が挙げられる。これ以外に、補正用位置情報の分散や標準偏差を求めて統計的な演算により補正するようにしても良い。
【0108】
尚、上記帯域フィルタ部83a〜83nは本発明にいう処理部に相当し、位相特性情報記憶部86は本発明にいう記憶部に相当し、位相補正部85及び位置情報演算部87は本発明にいう演算部に相当する。また、位置情報算出部88は本発明にいう第1演算部に相当し、位相補正部85及び位置情報補正部89は本発明にいう第2演算部に相当する。
【0109】
次に、FIA演算ユニット80の動作について説明する。ウェハ・アライメントセンサ16から出力された画像信号VS2がFIA演算ユニット80に入力されると、まず画像信号増幅部81において所定の増幅率で増幅される。このとき画像信号増幅部81で設定された増幅率は増幅率情報として位相補正部85へ出力される。
【0110】
増幅された画像信号はA/D変換部82へ出力され、標本化及び量子化が行われてディジタル化された後、位置情報算出部88及び帯域フィルタ部83a〜83nの各々に入力される。位置情報算出部88は入力された画像信号に対してマークの輪郭を求める処理、得られた輪郭からマークをなすマーク要素各々のエッジ位置を検出する処理、検出したエッジ位置からマーク中心を求める処理等の処理を行って、マークAMの位置情報を求める。求められた位置情報は位置情報補正部89へ出力されて一時的に記憶される。また、位置情報算出部88はマーク中心を求める際に、ウェハ・アライメントセンサ16の計測視野内におけるマークAMの位置を示す情報を求めて像高情報として位相補正部85に出力する。
【0111】
また、A/D変換部82から帯域フィルタ部83a〜83nへ出力された画像信号は、帯域フィルタ部83a〜83nにおいて各々に設定された帯域の周波数成分のみを含む画像信号が抽出されて画像信号記憶部84に一時的に記憶される。次に、位相補正部85は画像信号記憶部84から抽出された画像信号を順次読み出すとともに、位相特性情報記憶部86から各帯域毎(又は成分毎)の光学特性情報及び電気特性情報を順次読み出す。画像信号並びに各帯域毎(又は成分毎)の光学特性情報及び電気特性情報を読み出す度に、位相補正部85は読み出した光学特性情報及び電気特性情報を前述の(1)式に示した補正フィルタに適用して、読み出した画像信号の位相ずれを補正する。
【0112】
補正された画像信号は、位置情報算出部88へ順次出力されて各帯域毎の画像信号から補正用位置情報が算出される。算出された位置情報補正部89へ順次出力される。全ての帯域の画像信号に対する位相ずれの補正と補正位置情報の算出とが完了すると、位置情報補正部89は補正位置情報を用いてA/D変換部82から出力された全周波数成分を含む画像信号から求められた位置情報を補正し、補正された位置情報はアライメントデータ記憶部64へ出力されて一時的に記憶される。このようにして、検出光学系OS及び電気経路ESにおいて生じた位相ずれが補正された画像信号からマークAMの位置情報が求められる。尚、レチクル・アライメントセンサ6A,6BにおけるレチクルマークRMと基準マークとの位置ずれの計測時にも同様の動作が行われる。
【0113】
以上、本発明の実施形態による位置計測装置及び露光装置について説明したが、本発明は上記実施形態に制限されず、本発明の範囲内で自由に変更が可能である。例えば、上記実施形態では、検出光学系OSにおいて生ずる位相ずれと電気経路ESにおいて生ずる位相ずれをともに補正するようにしていたが、検出光学系OSにおいて生ずる位相ずれのみを補正するようにしても良いし、電気経路ESにおいて生ずる位相ずれのみを補正するようにしても良い。
【0114】
また、上述した他の実施形態では、帯域フィルタ部83a〜83nで抽出された画像信号を一時的に画像信号記憶部84に記憶し、順次位相補正部85で位相ずれを補正するとともに、位置情報算出部88で補正位置情報を求めるようにした。しかしながら、FIA演算ユニット80で要する処理時間を短縮するために、位相補正部85及び位置情報算出部88を帯域フィルタ部83a〜83n各々に対応して並列して設け、並列処理を行うようにしても良い。
【0115】
また、上記の実施形態においては、ウェハWに形成されたマークの位置情報を求める場合を例に挙げて説明したが、本発明はこれに限られる訳ではなく、レチクルRに形成されたマークの位置情報を求める場合、その他の物体に形成されたマークの位置情報を求める場合について適用可能である。更に、図4、図5、及び図9に示した各ブロックは、電子回路によりハードウェア的に構成されていても良く、ソフトウェア的に構成されていても良い。各ブロックをソフトウェア的に構成する場合には、各ブロックの機能を規定するプログラムをCPU(中央処理装置)が実行することにより、各ブロックが実現される。また、図4に示す各ブロックをハードウェア的又はソフトウェア的に構成する場合には、図示した全てのブロックが1つにまとまって構成されていなくとも良く、分散されて構成されていても良い。例えば、フォーカス検出ユニット60,62は、主制御系15とは別個に設けられていても良い
【0116】
また、上記実施形態においては、レチクル・アライメントセンサ6A,6BがVRA方式のアライメントセンサであり、ウェハ・アライメントセンサ16がFIA方式のアライメントセンサである場合を例に挙げて説明したが、レチクル・アライメントセンサ6A,6B及びウェハ・アライメントセンサ16は、更にLSA方式及びLIA方式のアライメントセンサを備えた構成であっても良い。また、本発明は、レチクルRを介さずに投影光学系PLのみを介して基準部材10の基準パターンを観察するTTL方式のアライメントセンサにも適用することができる。
【0117】
更に、上記実施形態で説明したレチクル・アライメントセンサ6A,6Bは露光光ELの一部の露光光EL1をレチクルマークRMに照射するとともに、投影光学系PLを介して基準部材10の上面に照射して、レチクルマークRM及び基準パターンを観察するようにしていた。しかしながら、光ファイバー(不図示)等を用いて基準部材10の下方に露光光ELの一部を導き、基準部材10に形成されたスリットパターンを下方(ウェハステージ9の内部)から照明するように構成しても良い。
【0118】
また、本発明の露光装置は、図1に示したステップ・アンド・リピート方式の縮小投影型露光装置に限定されず、例えばステップ・アンド・スキャン方式の露光装置、ミラープロジェクション方式、プロキシミティ方式、コンタクト方式等の露光装置に適用することが可能である。
【0119】
更に、半導体素子、液晶表示素子の製造に用いられる露光装置だけでなく、プラズマディスプレイ、薄膜磁気ヘッド、及び撮像素子(CCDなど)の製造にも用いられる露光装置、及びレチクル、又はマスクを製造するために、ガラス基板、又はシリコンウェハなどに回路パターンを転写する露光装置にも本発明を適用できる。即ち本発明は、露光装置の露光方式や用途等に関係なく適用可能である。
【0120】
尚、前述した本発明の一実施形態による露光装置(図1)は、ウェハWを精度よく高速に位置制御することができ、スループットを向上しつつ高い露光精度で露光が可能となるように、照明光学系、モータ2、レチクルステージ3、レーザ干渉計4、移動鏡5、レチクル・アライメントセンサ6A,6Bを含むマスクアライメント系、ウェハホルダ8、ウェハステージ9、基準部材10、移動鏡11、レーザ干渉計12、及びモータ13を含むウェハアライメント系、投影光学系PL等の図1に示された各要素が電気的、機械的、又は光学的に連結して組み上げられた後、総合調整(電気調整、動作確認等)をすることにより製造される。尚、露光装置の製造は、温度及びクリーン度等が管理されたクリーンルームで行うことが望ましい。
【0121】
次に、本発明の一実施形態による露光装置を用いたマイクロデバイスの製造方法の実施形態について簡単に説明する。図10は、マイクロデバイス(ICやLSI等の半導体チップ、液晶パネル、CCD、薄膜磁気ヘッド、マイクロマシン等)の製造例のフローチャートを示す図である。図10に示すように、まず、ステップS10(設計ステップ)において、マイクロデバイスの機能・性能設計(例えば、半導体デバイスの回路設計等)を行い、その機能を実現するためのパターン設計を行う。引き続き、ステップS11(マスク製作ステップ)において、設計した回路パターンを形成したマスク(レチクル)を製作する。一方、ステップS12(ウェハ製造ステップ)において、シリコン等の材料を用いてウェハを製造する。
【0122】
次に、ステップS13(ウェハ処理ステップ)において、ステップS10〜ステップS12で用意したマスクとウェハを使用して、後述するように、リソグラフィ技術等によってウェハ上に実際の回路等を形成する。次いで、ステップS14(デバイス組立ステップ)において、ステップS13で処理されたウェハを用いてデバイス組立を行う。このステップS14には、ダイシング工程、ボンティング工程、及びパッケージング工程(チップ封入)等の工程が必要に応じて含まれる。最後に、ステップS15(検査ステップ)において、ステップS14で作製されたマイクロデバイスの動作確認テスト、耐久性テスト等の検査を行う。こうした工程を経た後にマイクロデバイスが完成し、これが出荷される。
【0123】
図11は、半導体デバイスの場合における、図10のステップS13の詳細なフローの一例を示す図である。図11において、ステップS21(酸化ステップ)においてはウェハの表面を酸化させる。ステップS22(CVDステップ)においてはウェハ表面に絶縁膜を形成する。ステップS23(電極形成ステップ)においてはウェハ上に電極を蒸着によって形成する。ステップS24(イオン打込みステップ)においてはウェハにイオンを打ち込む。以上のステップS21〜ステップS24のそれぞれは、ウェハ処理の各段階の前処理工程を構成しており、各段階において必要な処理に応じて選択されて実行される。
【0124】
ウェハプロセスの各段階において、上述の前処理工程が終了すると、以下のようにして後処理工程が実行される。この後処理工程では、まず、ステップS25(レジスト形成ステップ)において、ウェハに感光剤を塗布する。引き続き、ステップS26(露光ステップ)において、上で説明したリソグラフィシステム(露光装置)及び露光方法によってマスクの回路パターンをウェハに転写する。次に、ステップS27(現像ステップ)においては露光されたウェハを現像し、ステップS28(エッチングステップ)において、レジストが残存している部分以外の部分の露出部材をエッチングにより取り去る。そして、ステップS29(レジスト除去ステップ)において、エッチングが済んで不要となったレジストを取り除く。これらの前処理工程と後処理工程とを繰り返し行うことによって、ウェハ上に多重に回路パターンが形成される。
【0125】
【発明の効果】
以上説明したように、本発明によれば、被照射領域から得られるマーク光を光電変換手段へ導くとともに、光電変換手段から出力された画像信号を演算部へ導く検出系においてマーク光及び画像信号の位相特性に対して作用する位相特性情報を予め記憶しておき、この位相特性情報を用いて検出系を介して得られた画像信号を加工処理している。かかる加工処理を行うことにより、演算部へ導かれた画像信号が位相ずれを生じたものであっても位相ずれが補正されるという効果がある。この位相ずれが補正された画像信号を用いてマークの位置情報を求ることで、高い精度でマークの位置情報を計測することができるという効果がある。
また、本発明によれば、被照射領域から得られるマーク光を光電変換手段へ導く検出光学系においてマーク光の位相特性に対して作用する光学特性情報を予め記憶しておき、この光学特性情報を用いて検出光学系を介して得られた画像信号を加工処理している。かかる加工処理を行うことにより、光電変換手段から出力される画像信号が位相ずれを生じたものであっても位相ずれが補正されるという効果がある。この位相ずれが補正された画像信号を用いてマークの位置情報を求ることで、高い精度でマークの位置情報を計測することができるという効果がある。
また、本発明によれば、被照射領域から得られるマーク光を光電変換手段で光電変換して得られる画像信号が光電変換手段から演算部まで伝達される電気経路において電気経路の位相特性に対して作用する電気特性情報を予め記憶しておき、この電気特性情報を用いて電気経路を介した画像信号を加工処理している。かかる加工処理を行うことにより、演算部に導かれた画像信号が位相ずれを生じたものであっても位相ずれが補正されるという効果がある。この位相ずれが補正された画像信号を用いてマークの位置情報を求ることで、高い精度でマークの位置情報を計測することができるという効果がある。
更に、本発明によれば、被照射領域から得られるマーク光を光電変換手段へ導くとともに、光電変換手段から出力された画像信号を演算部へ導く検出系においてマーク光及び/又は画像信号の位相特性に対して作用する位相特性情報を予め記憶しておき、検出系を介して得られた画像信号を加工して複数の加工信号を生成してこれらの加工信号各々から位置情報を算出し、位相特性情報を用いて算出した位置情報を補正演算している。かかる補正演算を行うことにより、演算部へ導かれた画像信号が位相ずれを生じたものであっても位相ずれが補正されるという効果がある。この位相ずれが補正された画像信号を用いてマークの位置情報を求ることで、高い精度でマークの位置情報を計測することができるという効果がある。
【図面の簡単な説明】
【図1】本発明の一実施形態による位置計測装置を備える本発明の一実施形態による露光装置の概略構成を示す図である。
【図2】レチクル・アライメントセンサ6Aの構成例を示す構成図である。
【図3】ウェハ・アライメントセンサ16の構成例を示す構成図である。
【図4】主制御系15の内部構成を示すブロック図である。
【図5】FIA演算ユニット63の内部構成を示すブロック図である。
【図6】位相特性情報を決める伝達関数を説明するための図である。
【図7】位相特性情報を用いて位相ずれを補正する原理を説明するための図である。
【図8】ウェハW上のショット領域の配列及びマークの形状を説明するための図である。
【図9】本発明の他の実施形態による位置計測装置が備えるFIA演算ユニット80の内部構成を示す図である。
【図10】マイクロデバイスの製造工程の一例を示すフローチャートである。
【図11】半導体デバイスの場合における、図10のステップS13の詳細なフローの一例を示す図である。
【符号の説明】
6A,6B レチクル・アライメントセンサ
9 ウェハステージ(位置決め部)
10 基準部材(物体)
13 モータ(位置決め部)
15 主制御系(制御部)
16 ウェハ・アライメントセンサ
20A,20B プリズム(照射系)
21A ハーフミラー(検出系、検出光学系)
23 結像光学系(検出系、検出光学系)
24 ダイクロイックミラー(検出系、検出光学系)
25 CCDセンサ(光電変換手段)
41 光源(照射系)
42 コンデンサレンズ(照射系)
43 視野絞り(照射系)
44 照明リレーレンズ(照射系)
45 ビームスプリッタ(照射系、検出系、検出光学系)
46 第1対物レンズ(照射系、検出系、検出光学系)
48 第2対物レンズ(検出系、検出光学系)
49 ビームスプリッタ(検出系、検出光学系)
50 撮像素子(光電変換手段)
71 画像信号増幅部(検出系、電気経路)
74 位相補正部(処理部)
75 位相特性情報記憶部(記憶部)
76 位置情報算出部(演算部)
81 画像信号増幅部(検出系)
83a〜83n 帯域フィルタ部(処理部)
85 位相補正部(演算部、第2演算部)
86 位相特性情報記憶部(記憶部)
87 位置情報演算部(演算部)
88 位置情報算出部(第1演算部)
89 位置情報補正部(第2演算部)
AM マーク
DL 検知ビーム(検知光)
EL1 露光光(検知光)
ES 電気経路(検出系)
Mxi,Myi マーク
OS 検出光学系(検出系)
PL 投影光学系(露光部)
R レチクル(物体)
RM レチクルマーク(マーク)
VS1,VS2 画像信号
W ウェハ(物体、基板)[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a position measuring device and method for measuring position information of a mark formed on an object such as a wafer or a glass plate or a mask or a reticle, and an object using the position information of a mark obtained by the position measuring device and the method. And an exposure apparatus for transferring a pattern formed on a mask or a reticle onto a wafer or a glass plate, and a device manufacturing method for manufacturing a device using the exposure apparatus.
[0002]
[Prior art]
In the manufacture of semiconductor elements, liquid crystal display elements, and other devices, an image of a fine pattern formed on a mask or reticle (hereinafter, collectively referred to as a mask) using an exposure apparatus is exposed to light, such as a photoresist. Projection exposure on a substrate such as a semiconductor wafer or a glass plate coated with an agent is repeatedly performed. The exposure apparatus measures the positional information of the marks formed on the mask and the substrate, calculates the relative positional deviation between the mask and the substrate from the measurement results, and corrects the positional deviation to project the image. The alignment between the pattern image and the pattern already formed on the substrate is accurately performed. In recent years, there has been an increasing demand for finer patterns, and the improvement in overlay accuracy has become increasingly severe. In order to improve the overlay accuracy, it is first necessary to increase the measurement accuracy of the marks formed on the mask and the substrate.
[0003]
An alignment sensor that measures position information of a mark formed on a mask generally measures the position information by irradiating the mark with exposure light used when exposing a substrate. As this alignment sensor, for example, there is a sensor using a VRA (Visual Reticle Alignment) method. In the VRA method, an optical image obtained by irradiating exposure light on a mark formed on a mask before a substrate is conveyed on a stage is converted into an image signal by an image pickup device such as a CCD (Charge Coupled Device). The image signal is subjected to image processing to detect mark position information.
[0004]
An alignment sensor that measures position information of a mark formed on a substrate changes the surface state (roughness) of the substrate to be measured in a device manufacturing process. Since it is often difficult to accurately detect information, a plurality of alignment sensors of different types are generally provided. The main ones are an LSA (Laser Step Alignment) system, a FIA (Field Image Alignment) system, and an LIA (Laser Interferometric Alignment) system.
[0005]
The outline of these types of alignment sensors is as follows. That is, the LSA type alignment sensor irradiates a mark formed on a substrate with a laser beam, and measures the position information of the mark by using diffracted and scattered light. Is widely used in the production of An FIA type alignment sensor illuminates a mark using a light source having a wide wavelength band such as a halogen lamp, converts the resulting mark image into an image signal by an image sensor, and performs image processing to measure the position. This is effective for measuring asymmetric marks formed on the aluminum layer or the substrate surface. The LIA type alignment sensor irradiates laser beams having slightly different wavelengths from two directions to a diffraction grating mark formed on the substrate surface, and causes the resulting two diffracted lights to interfere with each other. To detect the position information of the mark. This LIA type substrate position information detecting device is effective when used for a low step mark or a substrate having a large surface roughness.
[0006]
Further, the alignment sensors of the above-described methods are classified into a TTL (through-the-lens) method and an off-axis method depending on whether or not the position information of the mark is measured via the projection optical system. For details of the alignment sensors of each type described above, refer to, for example, Patent Documents 1 and 2 below.
[0007]
[Patent Document 1]
JP-A-10-289871
[Patent Document 2]
JP-A-5-217835
[0008]
[Problems to be solved by the invention]
By the way, among the various alignment sensors described above, in the VRA type and FIA type alignment sensors for measuring the position information of the mark by obtaining the image signal of the mark image and performing the image processing, the optical system of the alignment sensor is provided. The mark image is distorted due to the residual aberration. This distortion is caused by the fact that when light reflected by the mark passes through the optical system of the alignment sensor, the phase of the spatial frequency component of the mark image is shifted for each component due to the residual aberration of the optical system (toward the surface of the wafer or substrate). (Shifted) result.
[0009]
The image signal immediately after the mark image is converted by the image pickup device is an analog signal. After the analog signal is amplified by an amplifier, the image signal is sampled and quantized by an A / D converter (analog / digital converter). Is converted into a digital signal. For this reason, the image signal output from the image sensor is transferred as an analog signal to the A / D converter via an electric cable. However, the image signal is output due to the electrical characteristics of the electric transmission path including the amplifier. A phase shift occurs depending on the frequency. Although this phase shift is temporal, since the image signal is obtained by scanning in one direction in the plane of the mask or the substrate, it is equivalent to a phase shift in the scanning direction.
[0010]
Any of the above-described phase shifts caused by the optical system and the phase shifts caused by the electric transmission path cause a position shift of the mark in the plane of the mask or the substrate, and adversely affect the position measurement accuracy of the mark. In order to improve the position measurement accuracy, it is ideal to design the optical system and the electric system of the alignment sensor so that these phase shifts do not occur, but it is difficult at present.
[0011]
The present invention has been made in view of the above circumstances, and it is assumed that an image signal obtained by imaging a mark as a measurement target has a phase shift caused by an optical characteristic of an optical system or an electric characteristic of an electric system. It is another object of the present invention to provide a position measuring apparatus, an exposure apparatus, and a device manufacturing method capable of measuring mark position information with high accuracy.
[0012]
[Means for Solving the Problems]
In order to solve the above problem, a position measuring device according to a first aspect of the present invention provides a mark (RM, AM) formed on an object (R, W, 10) in a predetermined measurement direction (X, Y). ) Is a position measuring device (6A, 6B, 16) provided with a calculation unit (76) for calculating position information, and irradiates a region to be irradiated including the mark with detection light (EL1, DL). The system (20A, 20B, 41-46) and the mark light obtained from the irradiated area by irradiation of the detection light are guided to photoelectric conversion means (25, 50) for outputting an image signal corresponding to the mark light. And a detection system (21A, 23, 24, 45, 46, 48, 49, 71, ES, OS) for guiding the image signals (VS1, VS2) output from the photoelectric conversion means to the arithmetic unit. In the detection system, the mark light and the front A storage unit (75) for storing phase characteristic information acting on a phase characteristic of an image signal, and a processing unit (74) for processing the image signal using the phase characteristic information. .
According to the present invention, the mark light obtained from the irradiated area is guided to the photoelectric conversion means, and the image signal output from the photoelectric conversion means is guided to the calculation unit. Working phase characteristic information is stored in advance, and an image signal obtained via a detection system is processed using the phase characteristic information. By performing such processing, the phase shift is corrected even if the image signal guided to the arithmetic unit has a phase shift. By obtaining the position information of the mark using the image signal in which the phase shift has been corrected, the position information of the mark can be measured with high accuracy.
In order to solve the above-mentioned problems, a position measuring device according to a second aspect of the present invention provides a position measuring device for a mark (RM, AM) formed on an object (R, W, 10) in a predetermined measuring direction (X, Y). ) Is a position measuring device (6A, 6B, 16) provided with a calculation unit (76) for calculating position information, and irradiates a region to be irradiated including the mark with detection light (EL1, DL). The system (20A, 20B, 41 to 46) and the mark light obtained from the irradiated area by irradiation of the detection light are guided to photoelectric conversion means (25, 50) for outputting an image signal corresponding to the mark light. A detection optical system (21A, 23, 24, 45, 46, 48, 49, OS); and a storage unit (75) for storing optical characteristic information that the detection optical system acts on the phase characteristic of the mark light. And the image signal using the optical property information. It is characterized by having a processing unit for processing (74).
According to the present invention, in the detection optical system that guides mark light obtained from the irradiated area to the photoelectric conversion unit, optical characteristic information that acts on the phase characteristic of the mark light is stored in advance, and this optical characteristic information is used. Image signals obtained through the detection optical system. By performing such a processing, the phase shift is corrected even if the image signal output from the photoelectric conversion unit has a phase shift. By obtaining the position information of the mark using the image signal in which the phase shift has been corrected, the position information of the mark can be measured with high accuracy.
In order to solve the above-mentioned problem, a position measuring device according to a third aspect of the present invention includes a mark (RM, AM) formed on an object (R, W, 10) in a predetermined measurement direction (X, Y). ) Is a position measuring device (6A, 6B, 16) provided with a calculation unit (76) for calculating position information, and irradiates a region to be irradiated including the mark with detection light (EL1, DL). A system (20A, 20B, 41-46) and a photoelectric conversion means (25, 50) for receiving mark light obtained from the irradiated area by irradiation of the detection light and outputting an image signal corresponding to the mark light A storage unit (75) for storing, on an electric path (71, ES) through which the image signal is transmitted from the photoelectric conversion unit to the arithmetic unit, electric characteristic information acting on a phase characteristic of the image signal; Using the electrical characteristic information It is characterized by having a processing unit and (74) for processing the image signal Te.
According to the present invention, an image signal obtained by photoelectrically converting the mark light obtained from the irradiated area by the photoelectric conversion means acts on the phase characteristic of the electric path in the electric path transmitted from the photoelectric conversion means to the arithmetic unit. Electrical characteristic information to be processed is stored in advance, and an image signal via an electrical path is processed using the electrical characteristic information. By performing such processing, the phase shift is corrected even if the image signal guided to the arithmetic unit has a phase shift. By obtaining the position information of the mark using the image signal in which the phase shift has been corrected, the position information of the mark can be measured with high accuracy.
In order to solve the above-mentioned problem, a position measuring device according to a fourth aspect of the present invention provides a position measuring device for a mark (RM, AM) formed on an object (R, W, 10) in a predetermined measuring direction (X, Y). ) Is a position measuring device (6A, 6B, 16) provided with a calculation unit (85, 87) for calculating position information, and irradiates the irradiated area including the mark with detection light (EL1, DL). (20A, 20B, 41-46), and photoelectric conversion means (25, 50) for outputting mark signals obtained from the irradiated area by irradiating the detection light with image signals corresponding to the mark lights A detection system (21A, 23, 24, 45, 46, 48, 49, 81) that guides the image signal output from the photoelectric conversion unit to the calculation unit; And / or the phase characteristic of the image signal A storage unit (86) for storing phase characteristic information acting on the image signal; and a processing unit (83a to 83n) for processing the image signal to generate a plurality of processed signals. A first calculator for calculating the position information for each of the plurality of processing signals; and a second calculator for correcting the calculation result of the first calculator using the phase characteristic information. And is characterized by including.
According to the present invention, the mark light obtained from the irradiated area is guided to the photoelectric conversion unit, and the phase characteristic of the mark light and / or the image signal is adjusted in the detection system that guides the image signal output from the photoelectric conversion unit to the calculation unit. The phase characteristic information acting on the signal is stored in advance, the image signal obtained through the detection system is processed to generate a plurality of processed signals, position information is calculated from each of the processed signals, and the phase characteristic is calculated. The position information calculated using the information is corrected and calculated. By performing such a correction operation, the phase shift is corrected even if the image signal guided to the calculation unit has a phase shift. By obtaining the position information of the mark using the image signal in which the phase shift has been corrected, the position information of the mark can be measured with high accuracy.
An exposure apparatus according to the present invention is an exposure apparatus that transfers a predetermined pattern onto a substrate (W), and the mark (AM, Mxi, Myi) formed on the substrate is transferred to any of the above position measurement devices. A positioning unit (9, 13) for measuring the position of the substrate based on the measurement result, an exposure unit (PL) for transferring the predetermined pattern onto the positioned substrate, and the positioning unit. And a control unit (15) for controlling the exposure unit.
The device manufacturing method of the present invention includes an exposure step (S26) of transferring a device pattern onto the substrate using the above-described exposure apparatus, and a developing step (S27) of developing the substrate onto which the device pattern has been transferred. It is characterized by including.
[0013]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, a position measuring apparatus, an exposure apparatus, and a device manufacturing method according to an embodiment of the present invention will be described in detail with reference to the drawings. FIG. 1 is a diagram showing a schematic configuration of an exposure apparatus according to an embodiment of the present invention including a position measuring device according to an embodiment of the present invention. In the following description, the XYZ rectangular coordinate system shown in FIG. 1 is set, and the positional relationship of each member will be described with reference to the XYZ rectangular coordinate system. In the XYZ orthogonal coordinate system, the X axis and the Z axis are set to be parallel to the paper surface, and the Y axis is set to a direction perpendicular to the paper surface. In the XYZ coordinate system in the figure, the XY plane is actually set to a plane parallel to the horizontal plane, and the Z axis is set vertically upward. In the present embodiment, a step-and-repeat type reduction projection exposure apparatus will be described as an example.
[0014]
In FIG. 1, reference numeral 1 denotes a condenser lens forming a part of an illumination optical system. The illumination optical system is provided with a light source (not shown) such as an ultra-high pressure mercury lamp or an excimer laser. Exposure light EL emitted from this light source is formed on a reticle R as a mask via a condenser lens 1. The pattern area PA is irradiated with a uniform illuminance distribution. As the exposure light EL, for example, g-line (436 nm) or i-line (365 nm), KrF excimer laser (248 nm), ArF excimer laser (193 nm), or F 2 Light emitted from an excimer laser (157 nm) is used.
[0015]
The reticle R can be finely moved by the motor 2 in the direction of the optical axis AX of the projection optical system PL, and is attracted and held on a reticle stage 3 that can be two-dimensionally moved and minutely rotated in a plane perpendicular to the optical axis AX. I have. The reticle R is used after being appropriately replaced by a reticle exchanger (not shown). A moving mirror 5 for reflecting the laser beam from the laser interferometer 4 is fixed to an end of the reticle stage 3. The two-dimensional position of the reticle stage 3 is determined by the laser interferometer 4 with a resolution of, for example, about 1 nm. Always detected. Reticle alignment sensors 6A and 6B are arranged above reticle R.
[0016]
The reticle alignment sensors 6A and 6B include a reference member 10 or a wafer stage 9 formed on a wafer stage 9 to be described later via a reticle mark RM for position detection formed near the outer periphery of the reticle R and the projection optical system PL. The marks formed on the wafer W mounted thereon are simultaneously observed, and the relative positional relationship between the reticle R and the wafer stage 9 or the X direction or the Y direction between the reticle R and the wafer W (predetermined measurement direction) ) Is directly measured (observed).
[0017]
The measurement results of the reticle alignment sensors 6A and 6B are output to a main control system 15, which will be described later, and are subjected to processing such as image processing, arithmetic processing, filtering processing, and the like. The displacement amount is obtained. Then, the main control system 15 drives the motor 2 in accordance with the amount of displacement to finely move the reticle stage 3 so that the center point of the pattern area PA formed on the reticle R coincides with the optical axis AX. Positioned. The reticle alignment sensors 6A and 6B are TTR (through-the-reticle) type alignment sensors, which are a kind of TTL (through-the-lens) type alignment sensors, and are used to detect an image signal such as a reticle mark RM. This is a VRA type alignment sensor for measuring position information, the details of which will be described later. The reticle alignment sensors 6A and 6B are a part of the position measuring device according to the embodiment of the present invention.
[0018]
The exposure light EL transmitted through the pattern area PA of the reticle R is incident on, for example, both sides (or one side) of a telecentric projection optical system PL and is projected on each shot area on a wafer W as a substrate. Here, the projection optical system PL has the aberration corrected best with respect to the wavelength of the exposure light EL, and the reticle R and the wafer W are optically conjugate to each other under the wavelength. The illumination light EL is Keller illumination, and is formed as a light source image at the center of a pupil (not shown) of the projection optical system PL. The projection optical system PL has an optical element such as a plurality of lenses, and the glass material of the optical element is selected from optical materials such as quartz and fluorite according to the wavelength of the exposure light EL. For example, it is set to 1/4 or 1/5. Therefore, when the illumination area on the reticle R is illuminated by the exposure light EL, the image of the pattern formed on the pattern surface of the reticle R is reduced and projected onto the wafer W by the projection optical system PL, and the photoresist is formed on the surface. The reduced image of the circuit pattern of the reticle R is transferred to one shot area on the wafer W to which a photosensitive agent such as is applied.
[0019]
The wafer W is held by suction on a wafer stage 9 via a wafer holder 8. On the wafer holder 8, a reference member 10 used for position measurement of the reticle R, baseline measurement, and the like is provided. Here, the base line refers to, for example, a distance between a center position of a projection image of a pattern formed in the pattern area PA of the reticle R by the projection optical system PL and a center of a measurement visual field of a wafer alignment sensor 16 described later. The reference member 10 includes, as reference marks, a slit pattern composed of, for example, five sets of light-transmitting L-shaped patterns and two sets of reference patterns (duty ratio: 1: 1) formed of light-reflective chrome. Is provided.
[0020]
One set of reference patterns is, for example, a diffraction grating mark in which seven dot marks arranged in the Y direction are arranged in three rows in the X-axis direction, and three linear patterns are arranged in the X-axis direction. A diffraction grating mark and twelve bar marks extending in the Y direction are arranged in the X axis direction. The other set of reference patterns is, for example, the one set of reference patterns rotated by 90 °.
[0021]
The wafer stage 9 includes an XY stage for two-dimensionally positioning the wafer W in a plane perpendicular to the optical axis AX of the projection optical system PL, and a wafer W in a direction (Z direction) parallel to the optical axis AX of the projection optical system PL. , A stage for minutely rotating the wafer W, a stage for adjusting the inclination of the wafer W with respect to the XY plane by changing the angle with respect to the Z axis, and the like. An L-shaped movable mirror 11 is attached to one end of the upper surface of the wafer stage 9, and a laser interferometer 12 is disposed at a position facing the mirror surface of the movable mirror 11.
[0022]
Although shown in a simplified manner in FIG. 1, the movable mirror 11 includes a plane mirror having a reflection surface perpendicular to the X axis and a plane mirror having a reflection surface perpendicular to the Y axis. The laser interferometer 12 has two X-axis laser interferometers that irradiate the movable mirror 11 with a laser beam along the X-axis and a Y-axis laser that irradiates the movable mirror 11 with a laser beam along the Y-axis. The X coordinate and the Y coordinate of the wafer stage 9 are measured by one laser interferometer for the X axis and one laser interferometer for the Y axis. The rotation angle of the wafer stage 9 in the XY plane is measured based on the difference between the measurement values of the two X-axis laser interferometers.
[0023]
The two-dimensional coordinates of the wafer stage 9 are always detected by the laser interferometer 12 with a resolution of, for example, about 1 nm, and the stage coordinate system (static coordinate system) of the wafer stage 9 is determined by the coordinates in the X-axis direction and the Y-axis direction. (X, Y) is determined. That is, the coordinate value of the wafer stage 9 measured by the laser interferometer 12 is a coordinate value on the stage coordinate system (X, Y). The position measurement signal PDS indicating the X coordinate, the Y coordinate, and the rotation angle measured by the laser interferometer 12 is output to the main control system 15.
[0024]
The main control system 15 outputs a control signal for controlling the position of the wafer stage 9 to the motor 13 while monitoring the supplied position measurement signal PDS. With such a closed loop control system, for example, when the transfer exposure of the pattern of the reticle R to one shot area on the wafer W is completed, the wafer stage 9 is stepped to the next shot position. Further, the main control system 15 controls whether or not to emit the exposure light EL from a light source provided in an illumination optical system (not shown), and controls the intensity of the exposure light EL when the exposure light EL is emitted. The detailed description of the configuration of the main control system 15 will be described later.
[0025]
Further, the exposure apparatus of the present embodiment is provided with an imaging characteristic correction unit 14 for adjusting the imaging characteristic of the projection optical system PL. The imaging characteristic correction unit 14 independently drives a part of lens elements constituting the projection optical system PL, in particular, a plurality of lens elements close to the reticle R using a piezoelectric element such as a piezo element (optical axis). By moving or tilting in a direction parallel to AX, the imaging characteristics of the projection optical system PL, for example, the projection magnification and distortion are corrected.
[0026]
Further, the exposure apparatus of the present embodiment includes an off-axis type wafer alignment sensor 16 on the side of the projection optical system PL. This wafer alignment sensor 16 forms a part of the position measuring device of the present invention, and is used to measure position information of the mark formed on the wafer W in the X direction and the Y direction (predetermined measurement direction). Used. By correcting the measurement result of the wafer alignment sensor 16 with the above-described measurement result of the baseline, the position information of the mark in the stage coordinate system (X, Y) can be obtained. The details of the wafer alignment sensor 16 will be described later.
[0027]
Further, in the exposure apparatus of the present embodiment, a multi-point oblique incidence type main focus sensor 17 for measuring the position of the wafer W in the Z-axis direction and the amount of tilt with respect to the XY plane is provided on the side surface of the projection optical system PL. ing. The main focus sensor 17 includes an irradiation optical system 18 that projects a slit image at a plurality of preset measurement points in an exposure area where an image of the reticle R is projected on the wafer W, and reflected light from the slit image. And a focusing optical system 19 that re-images the slit images and generates a plurality of focus signals corresponding to the lateral shift amounts of the re-formed slit images. It is supplied to the main control system 15. Then, the main control system 15 controls the wafer stage 9 via the motor 13 based on the focus signal output from the condensing optical system 19 so that the surface of the wafer W is always positioned on the best image forming plane of the projection optical system PL. Control. The wafer stage 9 and the motor 13 correspond to a positioning unit according to the present invention, the illumination optical system and the projection optical system PL correspond to an exposure unit according to the present invention, and the main control system 15 corresponds to a control unit according to the present invention. Is equivalent to
[0028]
The overall configuration of the exposure apparatus of the present invention has been outlined above. Next, details of the reticle alignment sensors 6A and 6B and the wafer alignment sensor 16 which form part of the position measuring apparatus of the present invention will be described in order. FIG. 2 is a configuration diagram showing a configuration example of the reticle alignment sensor 6A. Since reticle alignment sensors 6A and 6B have the same configuration, reticle alignment sensor 6A will be mainly described in detail below.
[0029]
The reticle alignment sensor 6A includes a prism 20A, a half mirror 21A, and an observation optical system 22A. The reticle alignment sensor 6A is integrated by a case, and is configured to be movable in directions indicated by reference numerals A and A 'in FIG. 1 by a driving device (not shown). When performing alignment of the reticle R, the main control system 15 drives the reticle alignment sensor 6A via a driving device (not shown) in the direction indicated by the symbol A to position the reticle alignment sensor 6A at the position shown in FIG. When the alignment is completed, the lens is driven in the direction indicated by the reference numeral A 'and retracted to a predetermined retracted position so as not to disturb the exposure.
[0030]
The reticle alignment sensor 6B is similarly integrated by a case including a prism 20B, a half mirror 21B, and an observation optical system (not shown), and is denoted by reference numerals B and B 'in FIG. 1 by a driving device (not shown). It is configured to be movable in the direction set. The reticle alignment sensor 6B is similarly positioned by the main control system 15 at the position shown in FIG. 1 when performing reticle alignment described later, and is retracted to a predetermined retracted position when the reticle alignment is completed. It is configured to: Incidentally, the prisms 20A and 20B correspond to a part of the irradiation system of the present invention.
[0031]
As shown in FIG. 2, the prism 20A is for guiding the exposure light EL onto the reticle mark RM on the reticle R. The reticle mark RM is provided outside the pattern area PA, and since this part is normally a part that does not need to be illuminated, in order to eliminate the load on the illumination optical system and the waste of illuminance, the exposure light EL is shifted from the normal illumination area. (Hereinafter, for convenience, this light beam is referred to as exposure light EL1). The exposure light EL1 corresponds to the detection light according to the present invention.
[0032]
A half mirror 21A is arranged on the optical path of the exposure light EL1, and the exposure light EL1 guided by the prism 20A illuminates the reticle mark RM1 via the half mirror 21A, and also via the reticle R and the projection optical system PL. For example, a reference mark formed on the reference member 10 is illuminated. The area on the reticle R where the exposure light EL1 is illuminated and the area on the reference member 10 or the wafer W where the exposure light EL1 is illuminated correspond to the irradiation area in the present invention.
[0033]
Here, when performing the reticle alignment, the exposure light EL1 that illuminates the irradiated area on the reticle R and the irradiated area on the wafer W or the reference member 10 is set as partial incoherent illumination light. For this purpose, the illumination σ of the illumination optical system including the prism 20A is set to 0.8 or more. This is because the observation optical system 22A is regarded as a linear optical system and phase information of the reflected light from the reticle mark RM and the reflected light from the reference member 10 and the like is obtained.
[0034]
The reflected light from the reticle mark RM and the reflected light from the reference member 10 are respectively reflected by the half mirror 21A and enter the observation optical system 22A. The observation optical system 22A includes an imaging optical system 23, a half mirror 24, a CCD sensor 25, an optical fiber 26 for guiding exposure light branched from an exposure light source as light for focus position detection, a slit plate 27, a half mirror 28, and a pupil. It is configured to include a light shielding plate 30 and a CCD sensor 31. Among these members, a detection optical system for detecting images such as the reticle mark RM and the reference mark formed on the reference member 10 by the imaging optical system 23, the half mirror 24, and the CCD sensor 25 as a light receiving unit. Is configured.
[0035]
That is, as described above, the reticle mark RM and the reflected light from the reference member 10 reflected by the half mirror 21A pass through the dichroic mirror 24 that transmits only light of the exposure wavelength and reflects light of other wavelengths. Then, images are formed on the best image forming plane (focal position) of the image forming optical system 23, respectively. In this case, the pattern formation surface of the reticle R and the upper surface of the reference member 10 are set to have an optically conjugate relationship.
[0036]
For this reason, if the pattern forming surface of the reticle R and the light receiving surface of the CCD sensor 25 are optically conjugate, the images of the reticle mark RM and the reference mark formed on the reference member 10 on the light receiving surface of the CCD sensor 25 are best. , And the CCD sensor 25 outputs the reticle mark RM and the image signal VS1 of the reference mark formed on the reference member 10. Therefore, if the main control system 15 performs processing such as image processing, arithmetic processing, and filtering on the image signal VS1 output from the CCD sensor 25, the reticle mark RM and the reference mark formed on the reference member 10 can be compared. The relative position can be determined. In the present embodiment, an optical system capable of changing the focal length, that is, a so-called in-focus optical system is used as the imaging optical system 23. Further, the half mirror 21A, the imaging optical system 23, and the dichroic mirror 24 correspond to a detection optical system according to the present invention, and the CCD sensor 25 corresponds to a part of the detection system or photoelectric conversion means according to the present invention.
[0037]
Further, among the members constituting the observation optical system 22A, the imaging optical system 23 is formed by the light source 26 for detecting the focal position, the slit plate 27, the half mirror 28, the wavelength selection filter 29, the pupil light shielding plate 30, and the CCD sensor 31. A focus position detection system that detects the defocus of the image is configured. The light source 26 for detecting the focal position is, for example, an LED (Light Emitting Diode), and the wavelength of the detection light IL for detecting the focal position emitted from the light source 26 is different from the wavelength of the exposure light EL.
[0038]
The slit plate 27 has an opening (slit) having a predetermined shape. When the detection light IL emitted from the light source 26 illuminates the slit plate 27, the detection light IL transmitted through the slit of the slit plate 27 is sequentially reflected by the half mirror 28 and the dichroic mirror 24, and passes through the imaging optical system 23. Thereafter, the pattern surface of the reticle R is illuminated with incident light by the half mirror 21A. Thus, a slit image of the slit plate 27 is formed on the pattern forming surface of the reticle R.
[0039]
The reflected light of this slit image returns in the opposite optical path along the same optical path as the detection light IL, is reflected by the dichroic mirror 24, passes through the half mirror 28, and does not transmit light in the wavelength range of the exposure light EL 29. And further reaches the pupil light shielding plate 30. The pupil light-shielding plate 30 is arranged, for example, on the pupil plane of the focal position detection system, and has a semicircular shape that shields the left half of the pupil plane in FIG. The reflected light of the slit image passing through the pupil light shielding plate 30 is forcibly inclined, and then re-formed on the CCD sensor 31.
[0040]
As described above, since the light beam whose optical axis is inclined is incident on the light receiving surface of the CCD sensor 31, the focal position of the imaging optical system 23 is shifted due to factors such as a change in the thickness of the reticle R and the reticle. If the conjugate relationship between the R pattern formation surface and the light receiving surface of the CCD sensor 25 cannot be maintained, the image forming position of the slit image on the CCD sensor 31 shifts. Accordingly, the main control system 15 measures the defocus of the imaging optical system 23 based on the focusing signal FS1 from the CCD sensor 31, and drives a lens group (not shown) inside the imaging optical system 23 to form an image. The focus of the image optical system 23 can be adjusted to the reticle pattern surface and the light receiving surface of the CCD sensor 25.
[0041]
In this case, the main control system 15 always focuses on the CCD sensor 25 by driving the lens group inside the imaging optical system 23 so that the imaging position of the slit image on the CCD sensor 31 is always constant. Match the position. The target value of the slit image forming position on the CCD sensor 25 is the slit image forming position detected by the CCD sensor 31 when the image signal output from the CCD sensor 25 is the sharpest (for example, when the contrast is maximum). The image position is determined and set in advance.
[0042]
Next, the wafer alignment sensor 16 will be described in detail. FIG. 3 is a configuration diagram illustrating a configuration example of the wafer alignment sensor 16. Note that the wafer alignment sensor 16 shown in FIG. 3 is an alignment sensor of a FIA (Field Image Alignment) system. The wafer alignment sensor 16 includes a light source 41 that emits a light beam having a predetermined broadband wavelength as a detection beam DL. The light source 41 is used for both observation and focusing (focusing) of the mark AM formed on the wafer W. Note that the detection beam DL corresponds to the detection light according to the present invention.
[0043]
On the optical path of the light source 41, a condenser lens 42, a field stop 43, an illumination relay lens 44, and a beam splitter 45 are sequentially arranged. The field stop 43 has a main aperture K1 and sub apertures K2, K3, as shown in FIG. The main opening K1 is formed in a substantially square shape, is disposed at the center of the field stop 43, and is inserted into the optical path so that the center thereof substantially coincides with the optical axes of the condenser lens 42 and the illumination relay lens 44. .
[0044]
The sub-openings K2 and K3 are formed in an elongated rectangular slit shape, and the positions in the vicinity of the main opening K1 are such that the sides in the longitudinal direction are inclined at a predetermined angle (for example, 5 °) with respect to the two opposite sides of the main opening K1. Are located in The direction orthogonal to the side of the main opening K1 and substantially orthogonal to the longitudinal direction of the sub-openings K2 and K3 (the direction orthogonal to the non-tilted state) is the focus measurement direction described later. In the following description, a substantially longitudinal direction of the sub-openings K2 and K3 is referred to as a non-measurement direction. The focus measurement direction can be set in various directions, but in this embodiment, it is assumed that the focus measurement direction is set to the direction of the reference line (X direction or Y direction) of the pattern on the surface of the wafer W. .
[0045]
A first objective lens 46 is disposed in a direction in which the detection beam DL from the light source 41 via the illumination relay lens 44 is reflected by the beam splitter 45, that is, on an optical path traveling downward from the beam splitter 45 in FIG. A wafer stage 9 for mounting the wafer W is disposed at the end of the optical path.
[0046]
When the surface of the wafer W is positioned so as to coincide with the reference plane F1, the surface of the wafer W has an optically conjugate relationship with the field stop 43. A mark AM for position detection is formed on the wafer W. When the mark AM is arranged within the measurement field of view of the wafer alignment sensor 16 as shown in FIG. 3, the mark AM is reflected by the detection beam DL. Be illuminated. The area on the wafer stage 9 where the detection beam DL is illuminated by epi-illumination corresponds to the irradiated area according to the present invention.
[0047]
Here, the detection beam DL that illuminates the region to be irradiated on the wafer W is set as partial incoherent illumination light. For this purpose, the illumination σ of the wafer alignment sensor 16 is set to 0.8 or more. This is because the wafer alignment sensor 16 is regarded as a linear optical system and phase information of the reflected light from the wafer W or the like is obtained.
[0048]
In addition, along the optical axis of the first objective lens 46, the second objective lens 48, the beam splitter 49, the light shielding plate 51, A first relay lens 52 and a pupil-dividing reflective prism 53 are sequentially arranged. The light-shielding plate 51 is disposed on a plane F2 optically conjugate with the reference plane F1, is reflected on the surface of the wafer W, and passes through the first objective lens 46, the beam splitter 45, the second objective lens 48, and the beam splitter 49. Part of the light that has passed in order is blocked. The details of the light shielding plate 51 will be described later.
[0049]
The pupil-dividing reflective prism 53 is a light beam splitting member that splits a light beam incident via the first relay lens 52 into a plurality of light beams (divides into two light beams in the present embodiment), and is conjugate with the light source 41. At or near the desired position. Here, the pupil-dividing reflective prism 53 is an optical member in which two surfaces are formed into a mountain shape at an obtuse angle close to 180 degrees and the two surfaces are finished as reflective surfaces. In the present embodiment, the line of intersection of these two surfaces (ridge line of the mountain) intersects with the optical axis of the first relay lens 52, and is arranged so as to bend the optical axis by approximately 90 degrees.
[0050]
The detection beam DL that has entered the pupil-dividing reflective prism 53 via the first relay lens 52 is divided and reflected rightward in the drawing. On the optical path to the right, a second relay lens 54, a cylindrical lens (cylindrical lens) 55, which is a cylindrical optical system, and an AF (autofocus) sensor 56 are sequentially arranged following the pupil dividing reflective prism 53. Is done. Here, the cylindrical optical system is a lens whose front and rear surfaces are cylindrical surfaces having generatrix parallel to each other. One of the front and rear surfaces may be flat. In this case, specifically, there is a refractive power in a direction perpendicular to the generatrix on the cylindrical surface, but the refractive power in the generatrix direction is zero. In the present embodiment, the cylindrical lens 55 is arranged so that its generatrix substantially coincides with the focus measurement direction. In this specification, the concept includes a lens and a toric lens having different refractive powers in two orthogonal directions.
[0051]
The AF sensor 56 is disposed on the first imaging plane V1 which is a position optically conjugate with or near the plane F2, and detects the positional relationship of an image formed on the first imaging plane V1 for focusing. The signal FS2 is output. In addition, the reference plane F1 and the optical path on the optical path in the direction in which the light flux passing through the first objective lens 46, the beam splitter 45, and the second objective lens 48 are reflected by the beam splitter 49 in the left direction in FIG. The light receiving surface of the image pickup device 50 such as a CCD image pickup device is arranged on the second image pickup surface V2 set to. The imaging element 50 converts an image formed on the second imaging surface V2 into an image signal VS2 and outputs the image signal VS2. The focusing signal FS2 from the AF sensor 56 and the image signal VS2 from the image sensor 50 are output to the main control system 15.
[0052]
The light source 41, the condenser lens 42, the field stop 43, the illumination relay lens 44, the beam splitter 45, and the first objective lens 46 correspond to an irradiation system according to the present invention, and the first objective lens 46, the beam splitter 45, The second objective lens 48 and the beam splitter 49 correspond to a part of a detection system or a detection optical system according to the present invention, and the imaging device 50 corresponds to a photoelectric conversion unit according to the present invention.
[0053]
Next, the operation of the wafer alignment sensor 16 in the above configuration will be briefly described. When the detection beam DL is emitted from the light source 41, it is condensed by the condenser lens 42 and uniformly illuminates the field stop 43 having the main opening K1 and the sub-openings K2, K3. The light beam that has passed through the main opening K1 and the sub-openings K2 and K3 of the field stop 43 is collimated by the illumination relay lens 44 and reflected by the beam splitter 45.
[0054]
The reflected light flux is condensed by the first objective lens 46, and is vertically irradiated on the surface of the wafer W mounted on the wafer stage 9. When the surface of the wafer W is disposed on the reference plane F1, the surface of the wafer W and the field stop 43 have an optically conjugate relationship. An image is formed on the surface of the wafer W via the first objective lens 44 and 44.
[0055]
Here, the reflected light beam from the image of the main opening K1 formed on the surface of the wafer W is L1, the light beam from the image of the sub-opening K2 is L2, and the light beam from the image of the sub-opening K3 is L3. These light beams L1 to L3 are collimated by the first objective lens 46, pass through the beam splitter 45, are collected again by the second objective lens 48, and are transmitted and reflected and branched by the beam splitter 49.
[0056]
Among the reflected and branched light beams, the light beam L1 is focused and an image of the mark AM is formed on the light receiving surface of the image sensor 50. The imaging element 50 photoelectrically converts the image of the mark AM formed on the light receiving surface and outputs an image signal VS2. On the other hand, the light beams L1 to L3 transmitted and branched by the beam splitter 49 are provided at the position of the surface F2 conjugate with or near the surface of the wafer W by the image forming action of the first objective lens 46 and the second objective lens 48. The images of K1 to K3 are re-imaged on the light shielding plate 51. That is, an intermediate image of the main opening K1 and the sub-openings K2 and K3 formed on the surface of the wafer W by the first objective lens 46 and the second objective lens 48 is formed on the light shielding plate 51.
[0057]
FIG. 3 shows a configuration example of the light shielding plate 51 viewed from the optical axis direction. The light shielding plate 51 is provided with two slit-shaped light beam passage portions K12 and K13 at positions symmetrical with respect to the optical axis so as to correspond to the sub-openings K2 and K3, and is image-reflected on the wafer surface. The light beam L1 of the light beams L1 to L3 is shielded, and only the light beams L2 and L3 can pass through K12 and K13, respectively. Further, another configuration example of the light shielding plate 51 is also shown in FIG. That is, only a range where the light beam L1 is incident on the light shielding plate 51 (shown by oblique lines in the figure) is shielded, and the entire region K14 around the light beam L1 may be configured as a light beam passing portion.
[0058]
The light beams L2 and L3 that have passed through the light shielding plate 51 are collimated by the first relay lens 52, and then form an image of the light source 41 on the pupil-dividing reflective prism 53. Further, the light beams L2 and L3 are each split into two light beams by the pupil splitting reflection prism 53, and are reflected rightward in the drawing and collected again by the second relay lens 54. Then, the slit images of the sub-openings K2 and K3 by the light beams L2 and L3 are divided into two and formed on the AF sensor 56 via the cylindrical lens 55.
[0059]
The imaging position of the two-divided light beam on the light receiving surface of the AF sensor 56 changes according to the position of the surface of the wafer W in the Z direction. For this reason, the distance between the image forming positions of the two divided luminous fluxes detected in a state where the wafer W is arranged on the reference plane F1 is set in the main control system 15 as a reference distance, and the main control system 15 sets the reference distance. Is compared with the distance between the image forming positions of the two divided light beams detected by the AF sensor 56 to determine whether or not the surface of the wafer W is located at the focal position of the wafer alignment sensor 16 (in-focus state). Judge whether or not it is done).
[0060]
If out of focus, the shift direction of the wafer W is obtained from the magnitude relationship between the reference distance and the calculated distance, and the wafer stage 9 is driven in a direction opposite to the shift direction. While the wafer stage 9 is being driven in the Z direction, the above-described detection and various processes are performed by the AF sensor 56. When the distance between the image forming positions of the two divided light beams and the reference distance become equal, the wafer stage 9 is moved. 9 is stopped. The image signal VS2 output from the image sensor 50 in a state where the wafer W is arranged at the focal position of the wafer alignment sensor 16 is subjected to processing such as image processing, arithmetic processing, and filtering processing by the main control system 15, Position information of the mark AM arranged in the measurement field of view of the wafer alignment sensor 16 is measured.
[0061]
The configuration and operation of the reticle alignment sensors 6A and 6B and the wafer alignment sensor 16 have been described above. Next, the main control system 15 will be described in detail. FIG. 4 is a block diagram illustrating an internal configuration of the main control system 15. In FIG. 4, the same members as those shown in FIGS. 1 to 3 are denoted by the same reference numerals. As shown in FIG. 4, the main control system 15 includes a focus detection unit 60, an image processing unit 61, a focus detection unit 62, an FIA operation unit 63, an alignment data storage unit 64, an EGA operation unit 65, a storage unit 66, and a shot map. It comprises a data section 67, a system controller 68, a wafer stage controller 69, and a reticle stage controller 70.
[0062]
The image processing unit 61 performs processing such as image processing, arithmetic processing, filtering processing, and the like on the image signal VS1 output from the reticle alignment sensors 6A and 6B, and performs a reticle mark RM and a reference formed on the reference member 10. The position relative to the mark is obtained, and the processing result is output to the system controller 68. Further, the FIA operation unit 63 performs processing such as image processing, operation processing, and filtering processing on the image signal VS2 output from the wafer alignment sensor 16, and outputs position information of the mark AM formed on the wafer W. The calculated value is output to the alignment data storage unit 64. Note that specific examples of the image processing and the like performed by the image processing unit 61 and the FIA operation unit 63 include a process of obtaining a contour of a mark, a process of detecting an edge position of each mark element forming a mark from the obtained contour, There is a process of obtaining the mark center from the detected edge position.
[0063]
The focus detection unit 60 detects the defocus of the imaging optical system 23 provided in the reticle alignment sensors 6A and 6B shown in FIG. 2 using the focusing signal FS1 output from the reticle alignment sensors 6A and 6B. . Further, the focus detection unit 62 detects the amount of deviation of the surface of the wafer W from the focal position of the wafer alignment sensor 16 using the focusing signal FS2 output from the wafer alignment sensor 16. The calculation results of the focus detection units 60 and 62 are output to the system controller 68.
[0064]
The alignment data storage unit 64 stores the position information of the mark AM output from the FIA operation unit 63. The EGA operation unit 65 measures the mark AM formed in each of several typical (three to nine) shot areas preset on the wafer W by the wafer alignment sensor 16. An EGA (Enhanced Global Alignment) operation is performed based on the position information and the design position information, and the regularity of the arrangement of all the shot regions set on the wafer W is determined by a statistical method. .
[0065]
The storage unit 66 temporarily stores various conversion parameters and residual error components (for example, a simple sum of squares of a residual between a design value and a measured value) obtained while the EGA operation unit 65 is performing the EGA operation. Remember. The shot map data unit 67 stores in advance shot map data including design position information of a plurality of shot areas set on the wafer W and position information of marks AM provided in association with the shot areas. ing.
[0066]
The system controller 68 drives the wafer stage 9 shown in FIG. 1 via the motor 13 while monitoring the measurement value of the laser interferometer 12 via the wafer stage controller 69 based on the calculation result of the EGA calculation unit 65. Then, positioning of each shot area on the wafer W and exposure control for each shot area are performed. Further, the system controller 68 drives the reticle stage 3 shown in FIG. 1 via the motor 2 while monitoring the measurement value of the laser interferometer 4 via the reticle stage controller 70 to adjust the position of the reticle R. Do.
[0067]
Further, when the focal positions of the reticle alignment sensors 6A and 6B do not coincide with the light receiving surface of the CCD sensor 25 shown in FIG. The lens group of the imaging optical system 23 provided in the alignment sensors 6A and 6B is driven to change the focal position of the imaging optical system 23. Further, when the surface of the wafer W is not arranged at the focal position of the wafer alignment sensor 16, the wafer stage 9 shown in FIG. 1 is driven via the motor 13 according to the detection result of the focus detection unit 62. Then, the wafer W is moved in the Z direction.
[0068]
Next, the configuration of the FIA operation unit 63 and the image processing unit 61 provided in the main control system 15 will be described. FIG. 5 is a block diagram showing the internal configuration of the FIA operation unit 63. As shown in FIG. 5, the FIA operation unit 63 includes an image signal amplification unit 71, an A / D conversion unit 72, an image signal storage unit 73, a phase correction unit 74, a phase characteristic information storage unit 75, and a position information calculation unit 76. It is comprised including.
[0069]
The image signal amplifier 71 amplifies the image signal VS2 output from the wafer alignment sensor 16 at a predetermined amplification factor. Here, the amplification factor of the image signal amplifier 71 is appropriately determined in consideration of the overall level of the image signal VS2, the S / N ratio (signal-to-noise ratio), and the like. Note that the image signal amplifying unit 71 outputs amplification factor information indicating the set amplification factor to the phase correction unit 74. The A / D converter 72 samples and quantizes the image signal VS2, which is an analog signal, and converts the image signal VS2 into a digital signal. The image signal storage unit 73 temporarily stores the digitized image signal VS2.
[0070]
The phase correction unit 74 reads the image signal temporarily stored in the image signal storage unit 73 and corrects a phase shift of the image signal based on the phase characteristic information stored in the phase characteristic information storage unit 75. At this time, the phase correction unit 74 selectively outputs the phase characteristic information corresponding to the amplification factor information output from the image signal amplification unit 71 or the image height information output from the position information calculation unit 76 from the phase characteristic information storage unit 75. read out.
[0071]
The position information calculation unit 76 performs a process of obtaining a contour of a mark on the image signal output from the phase correction unit 74, a process of detecting an edge position of each mark element forming a mark from the obtained contour, and a process of detecting the detected edge position. Then, processing such as processing for obtaining a mark center is performed to obtain position information of the mark AM. Further, the position information calculation unit 76 outputs information indicating the position of the mark AM within the measurement field of view of the wafer alignment sensor 16 to the phase correction unit 74 as image height information. The image signal amplifying unit 71, the phase characteristic information storage unit 75, the phase correction unit 74, and the position information calculation unit 76 correspond to a part of the electric path, a storage unit, a processing unit, and a calculation unit, respectively, according to the present invention. I do.
[0072]
Here, the phase characteristic information will be described. FIG. 6 is a diagram for explaining a transfer function that determines phase characteristic information. As shown in FIG. 6, an optical system until the light reflected on the surface of the wafer W reaches the image sensor 50 is defined as a detection optical system OS, and the image signal VS2 output from the image sensor 50 is converted to an A / D converter 72. Up to the electric path ES. The electric path ES includes the image signal amplifier 71. The transfer function of the detection optical system OS is f (x), and the transfer function of the electric path ES is g (x). These transfer functions f (x) and g (x) are represented by complex functions, and are generally a function of a variable x indicating the coordinates of the X axis and a variable y indicating the coordinates of the Y axis. For simplicity, only the X-axis direction is considered, and is set as a function of the variable x.
[0073]
The transfer function f (x) is a function indicating how light from the surface of the wafer W forms an image on the light receiving surface of the image sensor 50, so to speak. Therefore, when the light intensity and the initial phase on the surface of the wafer W are set and calculated by the transfer function f (x), the amplitude distribution and the phase (complex amplitude) of the light imaged on the light receiving surface of the image sensor 50 can be obtained. . For example, as shown in FIG. 6, if data w0 indicating the light intensity distribution of the light reflected in the area including the mark AM and the initial phase are given, the complex of the mark image received on the light receiving surface of the image sensor 50 is obtained. An amplitude distribution can be obtained. The square distribution of the complex amplitude distribution results in an intensity distribution.
[0074]
Similarly, the transfer function g (x) is a function indicating how an image signal output from the image sensor 50 is transmitted to the A / D converter 72 via the image signal amplifier 71. Therefore, when the image signal (for example, the image signal w1 shown in FIG. 6) output from the image sensor 50 and the initial phase are set and calculated by the transfer function g (x), the image input to the A / D conversion unit 72 is obtained. A signal (for example, an image signal w2 shown in FIG. 6) can be obtained. Although the image signals w1 and w2 are output in a time series, the image sensor 50 scans the wafer W at a constant speed to obtain the image signal w1, and the time and the X coordinate correspond to one to one. Therefore, it should be noted that the transfer function g (x) may be represented as a function of the variable x.
[0075]
The transfer functions f (x) and g (x) are used when the detection optical system OS and the electric path ES can be regarded as linear systems. The detection optics OS is strictly considered as a linear system when illuminated by perfect incoherent illumination, but it is difficult to achieve perfect incoherent illumination. For this reason, in the present embodiment, the transfer function f (x) is regarded as a linear system by setting the illumination σ to be 0.8 or more and performing partial incoherent illumination.
[0076]
When light from the surface of the wafer W passes through the detection optical system OS, a different phase shift occurs for each frequency component. When a mark image obtained by superimposing the frequency components having the phase shift is obtained by the imaging device 50, The image signal w1 in which the shape change and the position shift shown in FIG. 6 have occurred is obtained. The information indicating the phase shift for each frequency component is optical characteristic information, which is one of the phase characteristic information, and can be obtained from the transfer function f (x). Similarly, information indicating a phase shift for each frequency component in the electric path ES is electric characteristic information which is one of the phase characteristic information. These optical property information and electrical property information are stored in the phase property information storage unit 75 shown in FIG.
[0077]
Note that the transfer function f (x) of the detection optical system OS changes according to the image height (the distance from the center of the measurement visual field of the wafer alignment sensor 16). That is, the residual aberration differs depending on the case where the mark AM is arranged at the center of the measurement visual field of the wafer alignment sensor 16 and the case where the mark AM is arranged at the end of the measurement visual field. May also be different. Therefore, the transfer function f (x) is obtained for each image height, and the optical characteristic information for each image height is stored in the phase characteristic information storage unit 75. Similarly, since the transfer function g (x) of the electric path ES changes depending on the amplification factor of the image signal amplifying unit 71, the transfer function g (x) is obtained for each amplification factor, and the electrical characteristic information for each amplification factor is converted into the phase. It is stored in the characteristic information storage unit 75.
[0078]
FIG. 7 is a diagram for explaining the principle of correcting a phase shift using phase characteristic information. Here, a case where the phase shift generated in the detection optical system OS is corrected will be described as an example. As shown in FIG. 7, when the data w0 indicating the light intensity distribution of the light reflected in the area including the mark AM is calculated using the transfer function f (x), the image signal w1 having a phase shift (the light receiving surface of the image sensor 50) is obtained. (Corresponding to the mark image formed on the image).
[0079]
Due to the characteristics of the linear system, the transfer function f (x) has a transfer function f -1 (X) is obtained, and an image signal w1 (a mark image formed on the light receiving surface of the image sensor 50) in which a shape change or the like has occurred is transferred to a transfer function f -1 By performing the calculation in (x), the original data w0 having no phase shift is obtained. Using this principle, the phase corrector 74 corrects the phase shift of the image signal VS2.
[0080]
The principle of correcting the phase shift of the image signal VS2 has been described above. Next, a specific method of correcting the phase shift performed by the phase corrector 74 will be described. When the phase correction unit 74 corrects the phase shift, first, the size of the window of the correction filter is determined. When the mark AM to be measured has a repetitive pattern, the size of the window of the correction filter is desirably set to be sufficiently larger than the period of the repetitive pattern. At this time, if the size of the window of the correction filter is set to be an integral multiple of the period of the repetitive pattern, the correspondence between the phase and the order of the component becomes clear, which is more preferable.
[0081]
The above-mentioned correction filter is expressed by superposition of a cosine function (cos function) having a period obtained by dividing the set window size by an integer. Here, the order of a component having a period of 1 / k of the size of the set window is k, and this is the k-th component. The phase delay of the k-order component in the detection optical system OS is Φ k Then, the correction filter f C (X) is represented by the following equation (1).
(Equation 1)
Figure 2004281904
[0082]
The phase correction unit 74 reads the optical characteristic information, the electric characteristic information, or the phase characteristic information obtained by combining the optical characteristic information and the electric characteristic information from the phase characteristic information storage unit 75, and calculates the above-mentioned equation (1) for each component. Phase delay Φ of the indicated correction filter k Is set to generate a correction filter. Then, a correction filter f is applied to the image signal VS2. C By performing a convolution operation on (x), the phase shift of the image signal VS2 is corrected.
[0083]
Note that actually, not only the correction filter shown in the above equation (1) is used, but a filter to which a window function for reducing discontinuity due to a window is applied is used. Also, A in the above formula (1) 0 , A k Is the amplitude of the 0th order component and the kth order component. By configuring the amplitude of each component to be adjustable and adjusting the gain for each component, it is also possible to double as a frequency gain adjustment filter.
[0084]
Here, the optical characteristic information, which is one piece of phase characteristic information stored in the movement characteristic information storage unit 75, is obtained by performing a wavefront measurement (of the electric field amplitude) in the wafer alignment sensor 16 using, for example, a wavefront measurement device. It is determined by converting the electric field strength of an optical system having a large σ into a phase characteristic. The electrical characteristic information, which is one of the phase characteristic information, is obtained by inputting a test signal having a known phase to the electric path ES and measuring the phase delay of the test signal.
[0085]
Further, when obtaining the phase characteristic information combining the optical characteristic information and the electric characteristic information, a mark whose image is affected by the residual aberration of the wafer alignment sensor 16 is observed and obtained from the image. For example, a point image below the optical resolution limit (when correcting aberrations in two dimensions) or a line image below the optical resolution limit (when correcting aberrations in one dimension) is observed by the wafer alignment sensor 16 and obtained. The obtained image signal is obtained by spectral analysis (Fourier transform). These measurements are performed in advance before observing the mark formed on the wafer W, and the obtained phase characteristic information is stored in the phase characteristic information storage unit 75 shown in FIG.
[0086]
Although the configuration of the FIA operation unit 63 has been described above, the image processing unit 61 also has the same configuration as the image signal amplifying unit 71 to the position information calculating unit 75 shown in FIG. 5, and the reticle alignment sensors 6A and 6B After correcting the phase shift of the image signal VS1 output from the CCD sensor 25 provided, the processing for obtaining the contours of the reticle mark RM and the reference mark formed on the reference member 10 is performed, and the reticle mark AM and the reference mark are obtained from the obtained contour. And a process of calculating the amount of deviation between the reticle mark RM and the reference mark from the detected edge position.
[0087]
Next, an operation when measuring the position information of the mark AM of the wafer alignment sensor 16 in the above configuration will be described. When the wafer W is loaded into the exposure apparatus and held on the wafer stage 9 by suction, the main control system 15 drives the motor 13 to move the wafer stage 9 in the XY plane, and the mark formed on the wafer W is formed. One of the AMs is arranged in the measurement field of view of the wafer alignment sensor 16 and the detection beam DL is irradiated on the arranged mark AM. The light reflected or diffracted on the surface of the wafer W by this irradiation is received by the image sensor 50 and the AF sensor 56 via the first objective lens 46 and the second objective lens 48 shown in FIG.
[0088]
The AF sensor 56 detects the distance between the image forming positions of the two divided light beams and outputs a focusing signal FS2. This focusing signal FS2 is compared with a preset reference distance in the focus detection unit 62 of the main control system 15, and if these are different, the main control system 15 moves the wafer stage 9 via the motor 13 in the Z direction. Move. After moving the wafer stage 9, the focus detection unit 62 compares the focusing signal FS2 again with the reference distance, and if different, moves the wafer stage 9 similarly. By repeating the above operation, the focusing signal FS2 matches the reference distance, and when the surface of the wafer W is placed at the focal position of the wafer alignment sensor 16, the FIA operation unit 63 sets the wafer alignment sensor The image signal VS2 output from the memory 16 is taken in.
[0089]
The image signal VS2 captured by the FIA operation unit 63 is first amplified at a predetermined amplification factor in the image signal amplifier 71 shown in FIG. At this time, the gain set by the image signal amplifier 71 is output to the phase corrector 74 as gain information. The amplified image signal is output to the A / D converter 72, sampled and quantized, digitized, and temporarily stored in the image signal storage 73.
[0090]
Next, the phase correction unit 74 reads electrical characteristic information corresponding to the amplification factor information output from the image signal amplifying unit 71 from the phase characteristic information storage unit 75, and converts the read electrical characteristic information into the above-described equation (1). The phase shift of the image signal temporarily stored in the image signal storage unit 73 is corrected by applying the correction filter shown. In this way, the phase shift occurring in the electric path ES is corrected. The image signal whose phase shift has been corrected is output to the image signal storage unit 73 and temporarily stored, and is also output to the position information calculation unit 76.
[0091]
When the image signal in which the phase shift generated in the electric path ES is corrected is input to the position information calculation unit 76, the position information calculation unit 76 obtains the contour of the mark AM from the input image signal. Processing such as processing for detecting the edge position of each mark element forming a mark from the contour thus obtained, processing for obtaining the mark center from the detected edge position, and the like are performed. Then, information indicating the position of the mark AM within the measurement field of view of the wafer alignment sensor 16 is obtained, and this information is output to the phase correction unit 74 as image height information.
[0092]
When the image height information is output from the position information calculation unit 76, the phase correction unit 74 reads out the optical characteristic information corresponding to the image height information from the phase characteristic information storage unit 75 and stores the optical characteristic information in the image signal storage unit 73 first. An image signal (an image signal in which a phase shift generated in the electric path ES is corrected) is read. Then, the read optical characteristic information is applied to the correction filter shown in the above equation (1) to correct the phase shift of the read image signal. Thus, the phase shift generated in the detection optical system OS is corrected. The image signal whose phase shift has been corrected is output to the position information calculation unit 76.
[0093]
When the image signal in which the phase shift generated in the electric path ES is corrected is input to the position information calculation unit 76, the position information calculation unit 76 obtains the contour of the mark AM from the input image signal. The position information of the mark AM is obtained by performing processing of detecting the edge position of each mark element forming the mark from the contour thus obtained, processing of obtaining the mark center from the detected edge position, and the like. This position information is output to alignment data storage section 64 shown in FIG. 4 and is temporarily stored. In this manner, the position information of the mark AM is obtained from the image signal in which the phase shift generated in the detection optical system OS and the electric path ES is corrected. The same operation is performed when the reticle alignment sensors 6A and 6B measure the displacement between the reticle mark RM and the reference mark.
[0094]
Next, an operation of positioning each shot area on the wafer W and projecting and exposing an image of a pattern formed on the reticle R to each shot area will be described. First, the arrangement of shot areas on the wafer W, the shape of marks as alignment marks, and the like will be described. FIG. 8 is a diagram for explaining the arrangement of the shot areas on the wafer W and the shapes of the marks. 8, shot areas ES1, ES2,..., ESN are regularly formed on a wafer W along a coordinate system (X, Y) set on the wafer W, and each shot area ESi has The device pattern is formed by the above steps.
[0095]
Further, each shot area ESi is divided by a street line having a predetermined width in the X direction and the Y direction, and a central portion of the street line extending in the X direction adjacent to each shot area ESi has a mark AM in the X axis direction. A mark Mxi is formed, and a mark Myi in the Y direction is formed at the center of a street line extending in the Y direction near each shot area ESi. The marks Mxi and Myi are three linear patterns arranged at predetermined pitches in the X direction and the Y direction, respectively. These patterns are formed as concave or convex patterns on the lower part of the wafer W.
[0096]
When exposing the wafer W, for example, nine shot areas indicated by hatching are selected from the shot areas ESi. The shot areas selected in this manner are referred to as sample shots SA1 to SA9. Marks Mxi and Myi are formed close to each sample shot SAi. In this example, the position of these sample shots SA1 to SA9 on the stage coordinate system (X, Y) is measured by measuring the positions of these marks Mxi and Myi. At the time of measuring the position information, the above-described processing is performed, and the stage coordinate system (X, X, X) of each sample shot SA1 to SA9 is obtained from the image signal in which the phase shift generated in the detection optical system OS and the electric path ES is corrected. Y) is required. Thus, the position information of the marks Mxi and Myi is measured with extremely high accuracy. This measurement result is stored in the alignment data storage unit 64 of the main control system 15 shown in FIG.
[0097]
When the position information of each of the sample shots SA1 to SA9 on the stage coordinate system (X, Y) is measured, the EGA operation unit uses the position information and the shot map data stored in the shot map data section 67. At 65, an EGA operation is performed, and the regularity of the arrangement of all the shot areas set on the wafer W is determined. The system controller 68 uses the determined arrangement of the shot areas so that the shot areas to be exposed are arranged in the projection area of the projection optical system PL (the area where the pattern formed on the reticle R is projected). The stage 9 is moved and positioned. When the positioning of the wafer W is completed, the exposure light EL is applied to the reticle R, and the shot area is exposed. Thereafter, similarly, the wafer stage 9 is positioned by the step movement using the determined arrangement of the shot areas, and the shot areas are sequentially exposed.
[0098]
In the present embodiment, the stage coordinate system (X, Y) of each of the sample shots SA1 to SA9 is obtained from the image signal in which the phase shift generated in the detection optical system OS and the electric path ES has been corrected. Measurement is performed. The above-described EGA calculation is performed using the high-precision measurement result, and the regularity of the determined arrangement of the shot areas is also high. As a result, at the time of exposure, each shot area of the wafer W can be accurately positioned with respect to the projection area of the projection optical system PL, and overlay accuracy can be improved.
[0099]
Next, a position measuring device according to another embodiment of the present invention will be described. A position measuring device according to another embodiment of the present invention described below includes an FIA calculating unit and an image having a different configuration from the FIA calculating unit 63 and the image processing unit 61 included in the above-described position measuring device according to one embodiment of the present invention. It has a processing unit. In the following description, the FIA operation unit will be described in detail, and the description of the image processing unit will be omitted.
[0100]
FIG. 9 is a diagram showing the internal configuration of the FIA operation unit 80 provided in the position measuring device according to another embodiment of the present invention. As shown in FIG. 9, the FIA operation unit 80 includes an image signal amplifier 81, an A / D converter 82, bandpass filters 83a to 83n, an image signal storage 84, a phase corrector 85, a phase characteristic information storage 86, And a position information calculation unit 87.
[0101]
The image signal amplifying section 81 amplifies the image signal VS2 output from the wafer alignment sensor 16 at a predetermined amplification rate, similarly to the image signal amplifying section 71 shown in FIG. The gain of the image signal amplifying unit 81 is appropriately determined in consideration of the overall level of the image signal VS2, the S / N ratio (signal-to-noise ratio), and the like. Output to The A / D converter 82 samples and quantizes the image signal VS2, which is an analog signal, and converts the image signal VS2 into a digital signal, similarly to the A / D converter 72 shown in FIG.
[0102]
The band filter units 83a to 83n extract frequency components of a predetermined band from the digitized image signal. Here, different bands are set in each of the band filter units 83a to 83n, and each band extracts a frequency component in a different band. Although FIG. 9 shows an example in which three band filter units are provided, the number of band filter units can be arbitrarily set.
[0103]
The image signal storage unit 84 temporarily stores the image signals composed of the frequency components extracted by the band filter units 83a to 83n. The phase correction unit 85 reads out the image signal for each frequency component temporarily stored in the image signal storage unit 84, and reads the image signal for each frequency component based on the phase characteristic information stored in the phase characteristic information storage unit 86. The phase shift of each signal is corrected. At this time, the phase correction unit 85 is phase characteristic information corresponding to the amplification factor information output from the image signal amplification unit 81 and the image height information output from the position information calculation unit 87, and includes phase characteristic information for each frequency component. Is selectively read from the phase characteristic information storage unit 86.
[0104]
The position information calculation section 87 includes a position information calculation section 88 and a position information correction section 89, and obtains position information of the mark AM. The position information calculation unit 88 determines the outline of the mark from the image signal output from the A / D conversion unit 82, detects the edge position of each mark element forming the mark from the obtained outline, and detects the position. Processing such as processing for obtaining the mark center from the edge position is performed to obtain the position information of the mark AM.
[0105]
Further, when the position information calculation unit 76 obtains the mark center based on the image signal output from the A / D conversion unit 82, the position information calculation unit 76 converts the information indicating the position of the mark AM within the measurement field of view of the wafer alignment sensor 16 into an image. It is output to the phase correction unit 85 as high information. Further, the position information calculation unit 88 performs similar processing on each of the image signals for each frequency component whose phase shift has been corrected output from the phase correction unit 85, based on the image signal for each frequency component. The position information of the mark AM is obtained. Hereinafter, the position information of the mark AM based on the image signal for each frequency component is referred to as correction position information.
[0106]
The position information correction unit 89 corrects the position information of the mark AM obtained from the image signal including all the frequency components output from the A / D conversion unit 82 using the correction position information. That is, the image signal including all the frequency components output from the A / D converter 82 is affected by the phase shift generated in the detection optical system OS and the electric path ES, and is obtained based on the image signal. It is considered that the obtained position information includes an error.
[0107]
Therefore, the position information correction unit 89 increases the measurement accuracy by correcting the position information using the correction position information obtained from the image signal for each frequency component whose phase shift has been corrected. The process performed by the position information correction unit 89 includes, for example, a process of obtaining an average value of the variation of the correction position information and correcting the position information with these values. Alternatively, the variance and the standard deviation of the correction position information may be obtained and the correction may be performed by a statistical calculation.
[0108]
The band filter units 83a to 83n correspond to the processing unit according to the present invention, the phase characteristic information storage unit 86 corresponds to the storage unit according to the present invention, and the phase correction unit 85 and the position information calculating unit 87 correspond to the present invention. Corresponds to the calculation unit. Further, the position information calculation unit 88 corresponds to a first calculation unit according to the present invention, and the phase correction unit 85 and the position information correction unit 89 correspond to a second calculation unit according to the present invention.
[0109]
Next, the operation of the FIA operation unit 80 will be described. When the image signal VS2 output from the wafer alignment sensor 16 is input to the FIA operation unit 80, first, the image signal VS2 is amplified at a predetermined amplification rate in the image signal amplifier 81. At this time, the gain set by the image signal amplifier 81 is output to the phase corrector 85 as gain information.
[0110]
The amplified image signal is output to the A / D converter 82, where it is sampled and quantized and digitized, and then input to the position information calculator 88 and the bandpass filters 83a to 83n. The position information calculation unit 88 obtains a contour of a mark from the input image signal, detects an edge position of each mark element forming a mark from the obtained outline, and obtains a mark center from the detected edge position. And the like, to obtain the position information of the mark AM. The obtained position information is output to the position information correction unit 89 and is temporarily stored. Further, when obtaining the mark center, the position information calculation unit 88 obtains information indicating the position of the mark AM within the measurement field of view of the wafer alignment sensor 16 and outputs it to the phase correction unit 85 as image height information.
[0111]
The image signals output from the A / D converter 82 to the bandpass filters 83a to 83n are extracted from the image signals containing only the frequency components of the bands set in the bandpass filters 83a to 83n. It is temporarily stored in the storage unit 84. Next, the phase correction unit 85 sequentially reads out the image signals extracted from the image signal storage unit 84, and sequentially reads out the optical characteristic information and the electric characteristic information for each band (or each component) from the phase characteristic information storage unit 86. . Every time the image signal and the optical property information and the electrical property information for each band (or for each component) are read, the phase correction unit 85 converts the read optical property information and the electrical property information into the correction filter shown in the above-described equation (1). To correct the phase shift of the read image signal.
[0112]
The corrected image signals are sequentially output to the position information calculation unit 88, and correction position information is calculated from the image signals for each band. The calculated position information is sequentially output to the position information correction unit 89. When the correction of the phase shift and the calculation of the correction position information for the image signals of all the bands are completed, the position information correction unit 89 uses the correction position information to output the image including all the frequency components output from the A / D conversion unit 82. The position information obtained from the signal is corrected, and the corrected position information is output to the alignment data storage unit 64 and temporarily stored. In this manner, the position information of the mark AM is obtained from the image signal in which the phase shift generated in the detection optical system OS and the electric path ES is corrected. The same operation is performed when the reticle alignment sensors 6A and 6B measure the displacement between the reticle mark RM and the reference mark.
[0113]
As described above, the position measuring device and the exposure device according to the embodiment of the present invention have been described. However, the present invention is not limited to the above embodiment, and can be freely changed within the scope of the present invention. For example, in the above embodiment, both the phase shift generated in the detection optical system OS and the phase shift generated in the electric path ES are corrected, but only the phase shift generated in the detection optical system OS may be corrected. Alternatively, only the phase shift occurring in the electric path ES may be corrected.
[0114]
In the above-described other embodiment, the image signals extracted by the bandpass filter units 83a to 83n are temporarily stored in the image signal storage unit 84, and the phase shift is corrected by the phase corrector 85, and the position information is corrected. The calculation unit 88 calculates the corrected position information. However, in order to shorten the processing time required by the FIA operation unit 80, the phase correction unit 85 and the position information calculation unit 88 are provided in parallel corresponding to each of the bandpass filter units 83a to 83n, and the parallel processing is performed. Is also good.
[0115]
Further, in the above embodiment, the case where the position information of the mark formed on the wafer W is obtained has been described as an example. However, the present invention is not limited to this. When the position information is obtained, the present invention can be applied to a case where the position information of a mark formed on another object is obtained. Further, each block shown in FIGS. 4, 5, and 9 may be configured as hardware by an electronic circuit, or may be configured as software. When each block is configured by software, each block is realized by a CPU (Central Processing Unit) executing a program that defines the function of each block. In the case where each block shown in FIG. 4 is configured by hardware or software, all the illustrated blocks do not need to be configured as one, and may be configured to be distributed. For example, the focus detection units 60 and 62 may be provided separately from the main control system 15.
[0116]
Further, in the above-described embodiment, a case has been described as an example where reticle alignment sensors 6A and 6B are VRA type alignment sensors and wafer alignment sensor 16 is an FIA type alignment sensor. The sensors 6A and 6B and the wafer alignment sensor 16 may further include an LSA type and LIA type alignment sensor. The present invention can also be applied to a TTL type alignment sensor that observes the reference pattern of the reference member 10 only via the projection optical system PL without using the reticle R.
[0117]
Further, the reticle alignment sensors 6A and 6B described in the above embodiment irradiate the reticle mark RM with the exposure light EL1 as a part of the exposure light EL and irradiate the upper surface of the reference member 10 via the projection optical system PL. Thus, the reticle mark RM and the reference pattern are observed. However, a part of the exposure light EL is guided below the reference member 10 using an optical fiber (not shown) or the like, and the slit pattern formed on the reference member 10 is illuminated from below (the inside of the wafer stage 9). You may.
[0118]
Further, the exposure apparatus of the present invention is not limited to the step-and-repeat type reduction projection type exposure apparatus shown in FIG. 1, and includes, for example, a step-and-scan type exposure apparatus, a mirror projection method, a proximity method, The present invention can be applied to a contact type exposure apparatus or the like.
[0119]
Further, not only an exposure apparatus used for manufacturing a semiconductor element and a liquid crystal display element, but also an exposure apparatus used for manufacturing a plasma display, a thin-film magnetic head, and an imaging element (such as a CCD), and a reticle or a mask are manufactured. Therefore, the present invention can also be applied to an exposure apparatus that transfers a circuit pattern onto a glass substrate, a silicon wafer, or the like. That is, the present invention is applicable irrespective of the exposure method and application of the exposure apparatus.
[0120]
The exposure apparatus (FIG. 1) according to the above-described embodiment of the present invention can control the position of the wafer W accurately and at high speed, and can perform exposure with high exposure accuracy while improving throughput. Illumination optical system, motor 2, reticle stage 3, laser interferometer 4, moving mirror 5, mask alignment system including reticle alignment sensors 6A and 6B, wafer holder 8, wafer stage 9, reference member 10, moving mirror 11, laser interference After the components shown in FIG. 1, such as a wafer alignment system including the motor 12 and the motor 13, and the projection optical system PL, are assembled by being connected electrically, mechanically, or optically, comprehensive adjustment (electric adjustment) , Operation confirmation, etc.). It is desirable that the manufacture of the exposure apparatus be performed in a clean room in which temperature, cleanliness, and the like are controlled.
[0121]
Next, an embodiment of a method for manufacturing a micro device using an exposure apparatus according to an embodiment of the present invention will be briefly described. FIG. 10 is a diagram showing a flowchart of a manufacturing example of a micro device (a semiconductor chip such as an IC or LSI, a liquid crystal panel, a CCD, a thin-film magnetic head, a micromachine, etc.). As shown in FIG. 10, first, in step S10 (design step), a function / performance design (for example, a circuit design of a semiconductor device) of a micro device is performed, and a pattern design for realizing the function is performed. Subsequently, in step S11 (mask manufacturing step), a mask (reticle) on which the designed circuit pattern is formed is manufactured. On the other hand, in step S12 (wafer manufacturing step), a wafer is manufactured using a material such as silicon.
[0122]
Next, in step S13 (wafer processing step), using the mask and the wafer prepared in steps S10 to S12, an actual circuit or the like is formed on the wafer by a lithography technique or the like, as described later. Next, in step S14 (device assembling step), device assembly is performed using the wafer processed in step S13. Step S14 includes, as necessary, processes such as a dicing process, a bonding process, and a packaging process (chip encapsulation). Finally, in step S15 (inspection step), inspections such as an operation confirmation test and a durability test of the microdevice manufactured in step S14 are performed. After these steps, the microdevice is completed and shipped.
[0123]
FIG. 11 is a diagram showing an example of a detailed flow of step S13 in FIG. 10 in the case of a semiconductor device. In FIG. 11, in step S21 (oxidation step), the surface of the wafer is oxidized. In step S22 (CVD step), an insulating film is formed on the wafer surface. In step S23 (electrode forming step), electrodes are formed on the wafer by vapor deposition. In step S24 (ion implantation step), ions are implanted into the wafer. Each of the above-described steps S21 to S24 constitutes a pre-processing step in each stage of wafer processing, and is selected and executed according to a necessary process in each stage.
[0124]
In each stage of the wafer process, when the above-mentioned pre-processing step is completed, the post-processing step is executed as follows. In this post-processing step, first, in step S25 (resist forming step), a photosensitive agent is applied to the wafer. Subsequently, in step S26 (exposure step), the circuit pattern of the mask is transferred onto the wafer by the lithography system (exposure apparatus) and the exposure method described above. Next, in step S27 (development step), the exposed wafer is developed, and in step S28 (etching step), the exposed members other than the portion where the resist remains are removed by etching. Then, in step S29 (resist removing step), unnecessary resist after etching is removed. By repeatedly performing these pre-processing steps and post-processing steps, multiple circuit patterns are formed on the wafer.
[0125]
【The invention's effect】
As described above, according to the present invention, a mark light and an image signal are detected in a detection system that guides mark light obtained from an irradiated area to a photoelectric conversion unit and guides an image signal output from the photoelectric conversion unit to a calculation unit. Is stored in advance, and the image signal obtained through the detection system is processed using the phase characteristic information. By performing such processing, there is an effect that the phase shift is corrected even if the image signal guided to the arithmetic unit has a phase shift. Determining the position information of the mark using the image signal in which the phase shift has been corrected has the effect that the position information of the mark can be measured with high accuracy.
Further, according to the present invention, in a detection optical system for guiding mark light obtained from an irradiated area to photoelectric conversion means, optical characteristic information acting on the phase characteristic of the mark light is stored in advance, and this optical characteristic information is stored. Is used to process the image signal obtained via the detection optical system. By performing such processing, there is an effect that even if the image signal output from the photoelectric conversion unit has a phase shift, the phase shift is corrected. Determining the position information of the mark using the image signal in which the phase shift has been corrected has the effect that the position information of the mark can be measured with high accuracy.
Further, according to the present invention, the phase characteristic of the electric path in the electric path where the image signal obtained by photoelectrically converting the mark light obtained from the irradiated area by the photoelectric conversion means is transmitted from the photoelectric conversion means to the arithmetic unit is calculated. The electrical characteristic information that acts on the image signal is stored in advance, and the image signal via the electrical path is processed using the electrical characteristic information. By performing such processing, there is an effect that the phase shift is corrected even if the image signal guided to the arithmetic unit has a phase shift. Determining the position information of the mark using the image signal in which the phase shift has been corrected has the effect that the position information of the mark can be measured with high accuracy.
Furthermore, according to the present invention, the mark light obtained from the irradiated area is guided to the photoelectric conversion means, and the phase of the mark light and / or the image signal is detected in the detection system for guiding the image signal output from the photoelectric conversion means to the calculation unit. The phase characteristic information acting on the characteristic is stored in advance, the image signal obtained via the detection system is processed to generate a plurality of processed signals, and position information is calculated from each of the processed signals, The position information calculated using the phase characteristic information is corrected and calculated. By performing such a correction operation, there is an effect that the phase shift is corrected even if the image signal guided to the calculation unit has a phase shift. Determining the position information of the mark using the image signal in which the phase shift has been corrected has the effect that the position information of the mark can be measured with high accuracy.
[Brief description of the drawings]
FIG. 1 is a diagram showing a schematic configuration of an exposure apparatus according to an embodiment of the present invention including a position measuring device according to an embodiment of the present invention.
FIG. 2 is a configuration diagram showing a configuration example of a reticle alignment sensor 6A.
FIG. 3 is a configuration diagram illustrating a configuration example of a wafer alignment sensor 16;
FIG. 4 is a block diagram showing an internal configuration of a main control system 15;
FIG. 5 is a block diagram showing an internal configuration of the FIA operation unit 63.
FIG. 6 is a diagram for explaining a transfer function that determines phase characteristic information.
FIG. 7 is a diagram for explaining the principle of correcting a phase shift using phase characteristic information.
FIG. 8 is a diagram for explaining an arrangement of shot areas on a wafer W and a shape of a mark.
FIG. 9 is a diagram showing an internal configuration of an FIA operation unit 80 provided in a position measuring device according to another embodiment of the present invention.
FIG. 10 is a flowchart illustrating an example of a micro device manufacturing process.
FIG. 11 is a diagram showing an example of a detailed flow of step S13 in FIG. 10 in the case of a semiconductor device.
[Explanation of symbols]
6A, 6B Reticle alignment sensor
9 Wafer stage (positioning unit)
10 Reference member (object)
13 Motor (positioning unit)
15 Main control system (control unit)
16 Wafer alignment sensor
20A, 20B prism (irradiation system)
21A Half mirror (detection system, detection optical system)
23 Imaging optical system (detection system, detection optical system)
24 dichroic mirror (detection system, detection optical system)
25 CCD sensor (photoelectric conversion means)
41 Light source (irradiation system)
42 Condenser lens (irradiation system)
43 Field stop (irradiation system)
44 Lighting relay lens (irradiation system)
45 beam splitter (irradiation system, detection system, detection optical system)
46 1st objective lens (irradiation system, detection system, detection optical system)
48 Second objective lens (detection system, detection optical system)
49 Beam splitter (detection system, detection optical system)
50 imaging device (photoelectric conversion means)
71 Image signal amplifier (detection system, electric path)
74 phase correction unit (processing unit)
75 Phase characteristic information storage unit (storage unit)
76 Position information calculation unit (calculation unit)
81 Image signal amplifier (detection system)
83a to 83n band filter unit (processing unit)
85 phase correction unit (calculation unit, second calculation unit)
86 Phase characteristic information storage unit (storage unit)
87 Position information calculation unit (calculation unit)
88 Position information calculation unit (first calculation unit)
89 position information correction unit (second operation unit)
AM mark
DL detection beam (detection light)
EL1 Exposure light (detection light)
ES electrical path (detection system)
Mxi, Myi mark
OS detection optical system (detection system)
PL projection optical system (exposure unit)
R reticle (object)
RM reticle mark (mark)
VS1, VS2 image signal
W Wafer (object, substrate)

Claims (11)

物体上に形成されたマークの、所定の計測方向における位置情報を演算する演算部を備えた位置計測装置であって、
前記マークを含む被照射領域に対して検知光を照射する照射系と、
前記検知光の照射により前記被照射領域から得られるマーク光を、該マーク光に応じた画像信号を出力する光電変換手段へ導き、且つ該光電変換手段から出力された前記画像信号を前記演算部へ導く検出系と、
前記検出系において、前記マーク光及び前記画像信号の位相特性に対して作用する位相特性情報を記憶する記憶部と、
前記位相特性情報を用いて前記画像信号を加工処理する処理部とを有することを特徴とする位置計測装置。
A position measurement device including a calculation unit that calculates position information of a mark formed on an object in a predetermined measurement direction,
An irradiation system that irradiates a detection light to an irradiation area including the mark,
The mark light obtained from the irradiated area by the irradiation of the detection light is guided to a photoelectric conversion unit that outputs an image signal corresponding to the mark light, and the image signal output from the photoelectric conversion unit is calculated by the arithmetic unit. A detection system that leads to
In the detection system, a storage unit that stores phase characteristic information that acts on the phase characteristics of the mark light and the image signal,
A processing unit for processing the image signal using the phase characteristic information.
前記記憶部は、前記マーク光が前記光電変換手段へ導かれるまでに通過する光学系において前記マーク光に対して作用する光学特性情報と、前記光電変換手段から前記演算部までの電気経路上において前記画像信号に作用する電気特性情報とを総合した情報を、前記位相特性情報として記憶することを特徴とする請求項1記載の位置計測装置。The storage unit stores optical characteristic information that acts on the mark light in an optical system through which the mark light passes before being guided to the photoelectric conversion unit, and on an electric path from the photoelectric conversion unit to the arithmetic unit. 2. The position measuring apparatus according to claim 1, wherein information obtained by integrating electric characteristic information acting on the image signal is stored as the phase characteristic information. 物体上に形成されたマークの、所定の計測方向における位置情報を演算する演算部を備えた位置計測装置であって、
前記マークを含む被照射領域に対して検知光を照射する照射系と、
前記検知光の照射により前記被照射領域から得られるマーク光を、該マーク光に応じた画像信号を出力する光電変換手段へ導く検出光学系と、
前記検出光学系が前記マーク光の位相特性に対して作用する光学特性情報を記憶する記憶部と、
前記光学特性情報を用いて前記画像信号を加工処理する処理部とを有することを特徴とする位置計測装置。
A position measurement device including a calculation unit that calculates position information of a mark formed on an object in a predetermined measurement direction,
An irradiation system that irradiates a detection light to an irradiation area including the mark,
A detection optical system that guides mark light obtained from the irradiated area by irradiation of the detection light to a photoelectric conversion unit that outputs an image signal corresponding to the mark light;
A storage unit that stores optical property information in which the detection optical system acts on the phase property of the mark light,
A processing unit for processing the image signal using the optical property information.
前記記憶部は、前記検出光学系における像高に応じた前記光学特性情報を記憶しており、
前記処理部は、前記像高に応じた光学特性情報の中から、前記マークに応じた光学特性情報を選択的に使用することを特徴とする請求項3記載の位置計測装置。
The storage unit stores the optical characteristic information according to the image height in the detection optical system,
The position measuring apparatus according to claim 3, wherein the processing unit selectively uses optical characteristic information corresponding to the mark from optical characteristic information corresponding to the image height.
前記照射系は、前記被照射領域を、部分的なインコヒーレント照明光で照明することを特徴とする請求項1から請求項4の何れか一項に記載の位置計測装置。The position measuring apparatus according to any one of claims 1 to 4, wherein the irradiation system illuminates the irradiation area with partial incoherent illumination light. 物体上に形成されたマークの、所定の計測方向における位置情報を演算する演算部を備えた位置計測装置であって、
前記マークを含む被照射領域に対して検知光を照射する照射系と、
前記検知光の照射により前記被照射領域から得られるマーク光を受光し、該マーク光に応じた画像信号を出力する光電変換手段と、
前記画像信号が前記光電変換手段から前記演算部まで伝達される電気経路上において、前記画像信号の位相特性に対して作用する電気特性情報を記憶する記憶部と、
前記電気特性情報を用いて前記画像信号を加工処理する処理部とを有することを特徴とする位置計測装置。
A position measurement device including a calculation unit that calculates position information of a mark formed on an object in a predetermined measurement direction,
An irradiation system that irradiates a detection light to an irradiation area including the mark,
Photoelectric conversion means for receiving mark light obtained from the irradiated area by irradiation of the detection light, and outputting an image signal corresponding to the mark light;
A storage unit that stores electrical characteristic information that acts on a phase characteristic of the image signal on an electrical path where the image signal is transmitted from the photoelectric conversion unit to the arithmetic unit;
A processing unit for processing the image signal using the electrical characteristic information.
前記電気経路上に設けられ、前記画像信号を増幅する増幅部を有し、
前記記憶部は、前記増幅部の増幅率に応じた電気特性情報を記憶しており、
前記処理部は、前記増幅部に設定された増幅率に応じて、前記電気特性情報を選択的に使用することを特徴とする請求項6記載の位置計測装置。
An amplifier is provided on the electric path and amplifies the image signal,
The storage unit stores electrical characteristic information according to an amplification factor of the amplification unit,
7. The position measuring device according to claim 6, wherein the processing unit selectively uses the electrical characteristic information according to an amplification factor set in the amplification unit.
前記演算部は、前記処理部により加工処理された前記画像信号を用いて、前記位置情報を算出することを特徴とする請求項1から請求項7の何れか一項に記載の位置計測装置。The position measurement device according to claim 1, wherein the calculation unit calculates the position information using the image signal processed by the processing unit. 物体上に形成されたマークの、所定の計測方向における位置情報を演算する演算部を備えた位置計測装置であって、
前記マークを含む被照射領域に対して検知光を照射する照射系と、
前記検知光の照射により前記被照射領域から得られるマーク光を、該マーク光に応じた画像信号を出力する光電変換手段へ導き、且つ該光電変換手段から出力された前記画像信号を前記演算部へ導く検出系と、
前記検出系において、前記マーク光及び/又は前記画像信号の位相特性に対して作用する位相特性情報を記憶する記憶部と、
前記画像信号を加工して複数の加工信号を生成する処理部とを有し、
前記演算部は更に、
前記複数の加工信号毎に前記位置情報を算出する第1演算部と、
前記位相特性情報を用いて前記第1演算部の算出結果を補正演算する第2演算部とを含むことを特徴とする位置計測装置。
A position measurement device including a calculation unit that calculates position information of a mark formed on an object in a predetermined measurement direction,
An irradiation system that irradiates a detection light to an irradiation area including the mark,
The mark light obtained from the irradiated area by the irradiation of the detection light is guided to a photoelectric conversion unit that outputs an image signal corresponding to the mark light, and the image signal output from the photoelectric conversion unit is calculated by the arithmetic unit. A detection system that leads to
A storage unit that stores phase characteristic information that acts on the phase characteristic of the mark light and / or the image signal in the detection system;
A processing unit for processing the image signal to generate a plurality of processing signals,
The arithmetic unit further includes:
A first calculation unit that calculates the position information for each of the plurality of processing signals;
A second calculation unit that corrects the calculation result of the first calculation unit using the phase characteristic information.
所定パターンを基板上に転写する露光装置であって、
前記基板上に形成されたマークを、請求項1から請求項9の何れか一項に記載の位置計測装置を用いて計測し、その計測結果に基づいて前記基板の位置決めを行う位置決め部と、
前記位置決めされた前記基板上に前記所定パターンを転写する露光部と、
前記位置決め部及び前記露光部を制御する制御部とを有することを特徴とする露光装置。
An exposure apparatus for transferring a predetermined pattern onto a substrate,
A mark formed on the substrate, a position measurement unit that measures the position using the position measurement device according to any one of claims 1 to 9, and positions the substrate based on the measurement result.
An exposure unit that transfers the predetermined pattern onto the positioned substrate,
An exposure apparatus comprising: the positioning unit; and a control unit that controls the exposure unit.
請求項10記載の露光装置を用いて、デバイスパターンを前記基板上に転写する露光工程と、
前記デバイスパターンが転写された前記基板を現像する現像工程とを含むことを特徴とするデバイス製造方法。
Using the exposure apparatus according to claim 10, an exposure step of transferring a device pattern onto the substrate,
A developing step of developing the substrate to which the device pattern has been transferred.
JP2003073987A 2003-03-18 2003-03-18 Position measuring apparatus, exposure apparatus, and manufacturing method of device Withdrawn JP2004281904A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003073987A JP2004281904A (en) 2003-03-18 2003-03-18 Position measuring apparatus, exposure apparatus, and manufacturing method of device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003073987A JP2004281904A (en) 2003-03-18 2003-03-18 Position measuring apparatus, exposure apparatus, and manufacturing method of device

Publications (1)

Publication Number Publication Date
JP2004281904A true JP2004281904A (en) 2004-10-07

Family

ID=33289746

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003073987A Withdrawn JP2004281904A (en) 2003-03-18 2003-03-18 Position measuring apparatus, exposure apparatus, and manufacturing method of device

Country Status (1)

Country Link
JP (1) JP2004281904A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008139026A (en) * 2006-11-29 2008-06-19 Canon Inc Measurement device, measurement method, exposure system and device manufacturing method
JP2011507429A (en) * 2007-12-18 2011-03-03 アイイーイー インターナショナル エレクトロニクス アンド エンジニアリング エス.エイ. Record 3D video of a scene
US8089612B2 (en) 2008-03-27 2012-01-03 Canon Kabushiki Kaisha Position detection apparatus, position detection method, exposure apparatus, and device fabrication method
JP2012049171A (en) * 2010-08-24 2012-03-08 Canon Inc Mark position measurement method and mark position calculation method
KR20210016439A (en) * 2018-07-04 2021-02-15 에이에스엠엘 네델란즈 비.브이. Sensor device and method for lithographic measurements

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008139026A (en) * 2006-11-29 2008-06-19 Canon Inc Measurement device, measurement method, exposure system and device manufacturing method
JP2011507429A (en) * 2007-12-18 2011-03-03 アイイーイー インターナショナル エレクトロニクス アンド エンジニアリング エス.エイ. Record 3D video of a scene
US8089612B2 (en) 2008-03-27 2012-01-03 Canon Kabushiki Kaisha Position detection apparatus, position detection method, exposure apparatus, and device fabrication method
JP2012049171A (en) * 2010-08-24 2012-03-08 Canon Inc Mark position measurement method and mark position calculation method
US8976337B2 (en) 2010-08-24 2015-03-10 Canon Kabushiki Kaisha Method of measuring mark position and measuring apparatus
KR20210016439A (en) * 2018-07-04 2021-02-15 에이에스엠엘 네델란즈 비.브이. Sensor device and method for lithographic measurements
JP2021528685A (en) * 2018-07-04 2021-10-21 エーエスエムエル ネザーランズ ビー.ブイ. Sensor devices and methods for lithographic measurements
US11300892B2 (en) 2018-07-04 2022-04-12 Asml Netherlands B.V. Sensor apparatus and method for lithographic measurements
JP7110407B2 (en) 2018-07-04 2022-08-01 エーエスエムエル ネザーランズ ビー.ブイ. Sensor apparatus and method for lithographic metrology
KR102539367B1 (en) 2018-07-04 2023-06-01 에이에스엠엘 네델란즈 비.브이. Sensor device and method for lithography measurement

Similar Documents

Publication Publication Date Title
JP5385652B2 (en) Position detection apparatus, exposure apparatus, position detection method, exposure method, and device manufacturing method
US6538740B1 (en) Adjusting method for position detecting apparatus
US20060250597A1 (en) Positional information measuring method and device, and exposure method and apparatus
JP5203675B2 (en) Position detector, position detection method, exposure apparatus, and device manufacturing method
JP5219534B2 (en) Exposure apparatus and device manufacturing method
US7656503B2 (en) Exposure apparatus and image plane detecting method
JP2002198303A (en) Aligner, optical characteristic measuring method and method for manufacturing device
KR100819240B1 (en) Measuring apparatus of effective light source distribution of illumination optical system of exposure apparatus and exposure apparatus having the same
JP2018139010A (en) Mobile device and exposure device
JP2003151884A (en) Focusing method, position-measuring method, exposure method, and device-manufacturing method
JP2005166785A (en) Device and method for detecting position and aligner
US6023321A (en) Projection exposure apparatus and method
WO2001065591A1 (en) Position measuring apparatus and aligner
JP2003142377A (en) Projection aligner and method of measuring aberration
JP2005337912A (en) Position measuring apparatus, exposure apparatus, and device manufacturing method
JP2002231616A (en) Instrument and method for measuring position aligner and method of exposure, and method of manufacturing device
JP2002170754A (en) Exposure system, method of detecting optical characteristic, and exposure method
JP2004281904A (en) Position measuring apparatus, exposure apparatus, and manufacturing method of device
JP2004134474A (en) Method for inspecting position detector, position detector, aligner, and aligning method
JP2006053056A (en) Position measuring method, position measuring instrument, aligner, and device manufacturing method
JP4311713B2 (en) Exposure equipment
JP3531227B2 (en) Exposure method and exposure apparatus
JP2006030021A (en) Position detection apparatus and position detection method
JP2005175383A (en) Aligner, method of alignment and device manufacturing method
JP2004128149A (en) Aberration measuring method, exposure method and aligner

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20060606