JP3688185B2 - Focus detection device and autofocus microscope - Google Patents

Focus detection device and autofocus microscope Download PDF

Info

Publication number
JP3688185B2
JP3688185B2 JP2000134973A JP2000134973A JP3688185B2 JP 3688185 B2 JP3688185 B2 JP 3688185B2 JP 2000134973 A JP2000134973 A JP 2000134973A JP 2000134973 A JP2000134973 A JP 2000134973A JP 3688185 B2 JP3688185 B2 JP 3688185B2
Authority
JP
Japan
Prior art keywords
sample
imaging
dimensional
image
focus detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2000134973A
Other languages
Japanese (ja)
Other versions
JP2001318302A (en
Inventor
一郎 河村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokyo Seimitsu Co Ltd
Original Assignee
Tokyo Seimitsu Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokyo Seimitsu Co Ltd filed Critical Tokyo Seimitsu Co Ltd
Priority to JP2000134973A priority Critical patent/JP3688185B2/en
Publication of JP2001318302A publication Critical patent/JP2001318302A/en
Application granted granted Critical
Publication of JP3688185B2 publication Critical patent/JP3688185B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、ウエハなどの平板の表面位置(表面に垂直な方向の変位)を検出する焦点検出装置及びそれを使用した自動焦点顕微鏡に関し、特に表面に回路パターンが形成された半導体ウエハなどの微細な凹凸のある表面でも高精度表面位置の検出が可能である焦点検出装置及びそれを使用した自動焦点顕微鏡に関する。光学顕微鏡などの光学機器における焦点検出装置及びそれを使用した自動焦点装置(オートフォーカス機構:AF機構)は、従来から種々の方式が提案されている。例えば、CDプレイヤーなどの光学式記録再生装置や顕微鏡の自動焦点装置におけるAF機構としては、非点収差法やナイフエッジ法が使用されている。本発明は、コンフォーカル(共焦点)顕微鏡の原理を使用した焦点検出装置に関する。
【0002】
【従来の技術】
図1は、コンフォーカル顕微鏡の原理を使用した焦点検出装置を説明する図である。図1の(A)に示すように、光源11がアパーチャ板12のピンホール13を照明することにより、ピンホール13が点光源になる。ピンホール13から放射された光は、実線で示すように、コリメータレンズ14、ハーフミラー15及び投影レンズ(対物レンズ)16で構成される光学系により試料100の表面に収束され、ピンホール13の像が試料100の表面上に点像として形成される。この点像は、焦点のあった状態ではピンホール13の大きさに光学系の投影倍率を乗じた大きさで、中心部の光強度は大きくなるが、破線で示すように試料100の表面が焦点位置からずれると点像はぼけて大きくなり、中心部の光強度は低下する。
【0003】
試料100の表面が粗面の場合には、試料100の表面上の点像が2次光源となり、試料表面100上に新たな点光源が形成されることになるが、ここでは試料100の表面上の点像の大きさは表面の粗さに比べて十分に小さいとして、表面上又は表面に対称な位置に点光源が形成されるとして説明を行う。点像を形成する光は試料100の表面で反射されて、投影レンズ16、ハーフミラー15及び収束レンズ17で構成される光学系により、アパーチャ板18のピンホール19の部分に収束され、点像を形成する。焦点のあった状態では実線で示すように、試料100の表面で反射された光はピンホール19の部分に収束され、大部分の光がピンホール19を通過して受光素子20に入射するので、受光素子20は大きな検出信号を出力する。試料100の表面が焦点位置からずれると、試料100の表面で反射された光はアパーチャ板18からずれた位置に収束される。破線で示すように、試料100が光学系から離れる方向にずれると、試料100の表面で反射された光はアパーチャ板18の前で収束された後広がった状態でアパーチャ板18に入射する。試料100が光学系に近づく方向にずれると、試料100の表面で反射された光はアパーチャ板18の後ろ収束されるので、収束する前にアパーチャ板18に入射する。
【0004】
いずれにしろ、ピンホール19の部分には収束されないので、ピンホール19を通過して受光素子20に入射する光の量は減少し、受光素子20の検出信号は低下する。ピンホール19を通過する光量は、試料100の表面の焦点位置からのずれに応じて低下し、図1の(B)に示すように変化する。従って、あらかじめ図1の(B)に示す特性を測定して記憶しておけば、受光素子20の検出信号から焦点位置からのずれ量が検出できる。なお、図1及び図2では、光源側のピンホールからの光をコリメータレンズと投影レンズを介して試料表面に投影し、反射した光を投影レンズと収束レンズで受光側のピンホールに収束する構成例を示したが、コリメータレンズと収束レンズを使用しない構成も使用されている。
【0005】
しかし、図1の(B)に示す信号では、正負の方向、すなわち試料100の表面が光学系に近づいたのか離れたのか判定できない上、点像が形成される試料100の表面状態により反射される光の量が変動するという問題がある。そこで、図2の(A)に示すように、収束レンズ17の後ろにハーフミラー21を設けて収束される光束を2つに分割し、一方の光束に対してはピンホール23を有するアパーチャ板22を焦点位置より前側に設け、他方の光束に対してはピンホール26を有するアパーチャ板25を焦点位置より後側に設ける。ピンホール23を通過した光を検出する受光素子24の検出信号Fとピンホール26を通過した光を検出する受光素子27の検出信号Rは、試料100の表面位置の変化に対して図2の(B)のように変化する。従って、2つの検出信号FとRがそれぞれ最大値になる間では、2つの検出信号FとRの比R/Fは、図2の(C)のように単純に増加する。従って、比R/Fから焦点位置に対してどちらの方向にどれだけずれているかが分かる。また、試料の同じ部分で反射された光の比を求めるので、試料の表面の反射状態の影響を受け難くくなる。
【0006】
上記のようなコンフォーカル顕微鏡の原理を使用した各種の焦点検出装置は、特開平4−350818号公報、特開平5−232370号公報、特開平6−51206号公報、特開平7−174962号公報、特開平8−43717号公報、特開平8−178623号公報、特開平8−220418号公報、及び特開平9−325277公報などに開示されているので、ここではこれ以上の詳しい説明は省略する。
【0007】
【発明が解決しようとする課題】
半導体製造工程では、半導体ウエハの表面に各種の回路パターンを何層にも形成して半導体チップが作られる。途中の工程や最終工程で、形成したパターンの欠陥などを調べてその情報をフィードバックすることにより品質管理することが行われており、このために光学顕微鏡が広く使用されている。このような光学顕微鏡では、操作者が肉眼で光学像を見る場合もあるが、TVカメラやラインセンサで光学像を画像信号に変換し、画像信号を処理して欠陥などの有無を判定するのが一般的である。特に高集積度の半導体ウエハでは高分解能の画像信号を生成する必要があり、高集積度のラインセンサで走査することにより高分解能の画像信号を得ている。走査は通常ステージに載置した試料を一定速度で移動することにより行う。
【0008】
図1及び図2に示した焦点検出装置及び上記の公知例に開示されている焦点検出装置では、小さなピンホールの像を試料の表面に投影しているが、投影している点像は1個である。更に、特開平7−174962号公報に開示されている自動焦点調節装置では、光源側のピンホールの形状を楕円形又は長方形とし、受光素子としてラインセンサを使用することにより結像位置がずれても正確且つ迅速に合焦する構成を開示しているが、試料表面に投影される点像は楕円形又は長方形であるが1個である。図3は、試料として半導体ウエハを使用した場合の点像が投影される様子を示し、参照番号101は試料100の表面上に収束される光束を示す。試料が半導体ウエハの場合には、図示のように表面に点像と同程度の大きさの凹凸があり、点像が形成される位置で焦点の状態が大きく変化する。そのため、試料を微少量移動しただけで点像の収束状態、すなわち検出信号が大きく変化することになり、安定した焦点位置の検出が難しく、それに応じて良好な焦点合わせ制御を行うのが難しいという問題があった。
【0009】
また、図2の(A)に示した構成では、2つのピンホール23と26が試料面の同一の点に対応するように精密に配置する必要があり、ずれると収束された点像の異なる部分の光強度を検出することになり、検出誤差を生じる。そのため高精度の位置決めが必要であり、装置の組立が複雑であるという問題があった。上記の特開平7−174962号公報に開示されている自動焦点調節装置ではずれの影響が低減されるが、2つ又は4つのラインセンサを使用しており、同様にラインセンサの位置を2つずつ合わせる必要があり、装置の組立が複雑であった。
【0010】
本発明は、このような問題を解決するためのものであり、表面に凹凸のある試料であっても、試料表面の位置を高精度且つ容易に検出可能で、組立も容易な焦点検出装置及びそれを使用した自動焦点顕微鏡の実現を目的とする。
【0011】
【課題を解決するための手段】
上記目的を実現するため、本発明の焦点検出装置は、点光源の代わりに点光源を一方向に配列した一次元光源を、ピンホールの代わりに一次元光源の各点光源に対応して配列されたアパーチャを有する一次元アパーチャを使用し、一次元光源と一次元アパーチャを結像平面から傾けて配置する。すなわち、一次元光源の中央の点光源と一次元アパーチャの中央のアパーチャは、試料表面が焦点位置にある時に結像関係になり、一次元光源の両側の点光源と一次元アパーチャの両側のアパーチャは、試料表面が焦点位置からずれた時にそれぞれ結像関係になる。一次元光源と一次元アパーチャのいずれか又は両方を傾ける。
【0012】
すなわち、本発明の焦点検出装置は、点光源を一方向に配列した一次元光源と、一次元光源の像を試料面上に投影すると共に試料面上に投影された一次元光源の像を結像面に投影する焦点検出光学系と、結像面に投影された一次元光源の各点光源に対応して配列されたアパーチャを有し、結像面に対して傾いて配置された一次元アパーチャと、一次元アパーチャの各アパーチャを通過した光を検出する一次元光検出器と、一次元光検出器の出力を処理して試料面の焦点検出光学系の光軸方向の位置を検出する信号処理装置とを備えることを特徴とする。
【0013】
本発明の焦点検出装置によれば、点光源の代わりに一次元光源を、ピンホールの代わりに一次元アパーチャを使用するので、一次元光検出器の出力する検出信号を処理すれば試料上の複数の位置についての焦点位置が連続的に求まる。更に、一次元光源と一次元アパーチャは結像面から傾けて配置され、両側の点光源とアパーチャは試料表面が焦点位置からずれた時にそれぞれ結像関係になる。これにより、試料表面がその間にある時には、いずれかの点光源とアパーチャの組みが結像関係にあり、その出力が大きくなる。従って、一次元光検出器の出力が最大になる位置を検出すれば、焦点位置が判明する。
【0014】
具体的には、信号処理装置における演算は、例えば、あらかじめ焦点があった状態での強度信号群の波形をテンプレートとして記憶しておき、その時点の強度信号群の波形との相関を演算し、もっとも相関度が高くなるシフト量を演算する。また、一次元光検出器が出力する各アパーチャを通過した光の強度信号の包絡線を演算し、包絡線の最大強度位置から試料面の焦点検出光学系の光軸方向の位置を検出することも可能である。更に、強度信号群の低周波数成分のみを抽出するローパスフィルタ処理を行い、最大強度位置を求めてもよい。ローパスフィルタ処理は、デジタル処理で行っても、アナログ処理で行うこともできる。
【0015】
一次元光源の各点光源を、配列方向に垂直な方向に延びた複数のスリットを離して配置したスリット群とすれば、一次元光源と一次元光検出器の位置合わせが非常に容易になる。
一次元光源の各点光源を非常に密に配列した状態、すなわち一次元光源を直線のスリットとし、スリットを背面から照明することも可能である。
【0016】
一次元光検出器として一次元イメージセンサを使用することも可能である。一次元イメージセンサは、微細な受光領域を有する受光素子を直線状に配置したものであり、各受光素子の受光領域がアパーチャとして働く。
一次元光検出器として二次元イメージセンサを使用することも可能であり、この場合には二次元イメージセンサの各受光セルの受光領域が一次元アパーチャの各アパーチャとして働く。二次元イメージセンサを使用することにより、一次元光源とイメージセンサの位置合わせが不用になる。
【0017】
二次元イメージセンサ上に投影される一次元光源の像は、焦点位置に対応する部分で幅が狭く中心強度が大きくなり、そこから両方向に焦点位置から離れるに従って広がり中心強度が低下する。一次元光源の位置と光学系の関係が固定であれば、二次元イメージセンサ上に投影される一次元光源の像の最大強度になるラインも固定である。従って、二次元イメージセンサのこのライン位置の信号のみを処理すればよい。このライン位置をあらかじめ検出して記憶していない場合には、二次元イメージセンサの出力からこのライン位置を求め、そのライン位置の出力を処理する。
【0018】
上記のような焦点検出装置を自動焦点顕微鏡のオートフォーカス機構に使用すれば、表面に凹凸のある半導体ウエハであっても、試料表面の位置を高精度且つ容易に検出可能になり、焦点調整が適切に行える。
すなわち、本発明の自動焦点顕微鏡は、試料を保持するステージと、照明装置と、ハーフミラーと、照明装置からの照明光をハーフミラーを介して試料面上に照射すると共に試料面の像をハーフミラーを介して投影面に投影する撮像光学系と、撮像面が投影面に位置するように配置された撮像装置と、撮像光学系の試料面に対する光軸方向の位置を検出して試料面の像が投影面に結像するように、ステージと撮像光学系の光軸方向の相対位置を調整するオートフォーカス機構とを備える自動焦点顕微鏡であって、オートフォーカス機構は、上記の焦点検出装置を備え、焦点検出装置の検出した試料面の焦点検出光学系の光軸方向の位置に応じてステージと撮像光学系の光軸方向の相対位置を調整することを特徴とする。
【0019】
撮像光学系とオートフォーカス機構の焦点検出光学系の光学的な結合は、前述の公知例と同様に、第2のハーフミラーを更に設けて行えばよい。また、オートフォーカス機構において、一次元光源の像を試料面上に投影する光路と、試料面上に投影された一次元光源の像を結像面に結像する光路とを分離する第3のハーフミラーを設ける。これにより、一次元光源の像を試料面上の撮像範囲内に投影することが可能になる。この場合、一次元光源の像が撮像装置の画像信号に影響しないように、撮像装置は一次元光源から放射される光に対して感度を有しないことが望ましい。
【0020】
また、上記の第2のハーフミラーをを設けずに焦点検出光学系と撮像光学系を共通とし、一次元光源は試料面上の撮像装置の撮像範囲外に投影することも可能である。この場合、一次元光源は、撮像のための照明装置がピンホール列、スリット列又は直線状のスリットを背面から照明して実現する。これにより、焦点検出光学系と撮像光学系が同じ波長特性を有することになる。
【0021】
【発明の実施の形態】
図4は、本発明の第1実施例の焦点検出装置の構成を示す図である。本実施例は、図1の例とは異なりコリメータレンズと収束レンズを使用しない構成である。照明装置31は直線状に配置された複数のピンホール33を有する第1のアパーチャ板32を照明する。これにより、複数のピンホール33の部分から光が放射され、点光源を一方向に配列した一次元光源が形成される。なお、図示しているピンホール33は9個であるが、実際には多数のピンホールが配列されているものとする。第1のアパーチャ板32は、光軸に対して垂直に配置される。各ピンホール33からの光は、ハーフミラ15で反射されて対物レンズ16に入射し、試料100の表面に投影される。表面で反射された光は、対物レンズ16により収束され、ハーフミラ15を通過して、複数のピンホール35を有する第2のアパーチャ板34のところに結像される。複数のピンホール33の像は、複数のピンホール35と対応する位置にそれぞれ結像されるが、第2のアパーチャ板34は光軸に対してθ傾いて配置される。ここで、試料100の表面が焦点位置にある時には、複数のピンホール33の列の中央のピンホールの像が、複数のピンホール35の列の中央のピンホールの部分に結像するように配置されるが、複数のピンホール35の列の一方の側のピンホールは、試料100の表面が対物レンズに近づいた時に複数のピンホール33の列の対応するピンホールの像が結像される位置に配置され、複数のピンホール35の列の他方の側のピンホールは、試料100の表面が対物レンズから離れた時に複数のピンホール33の列の対応するピンホールの像が結像される位置に配置される。複数のピンホール35の列の後ろには、各ピンホールを通過した光をそれぞれ受光するように複数の受光素子36が配置される。各受光素子36の検出信号は信号処理回路37に送られて処理される。
【0022】
図5は、試料100の表面の像と第2のアパーチャ板34の表面の位置関係に応じた複数の受光素子36の出力例を示す図である。図5の(A)に示すように、試料面に2つの高さの異なる平面部分があり、第2のアパーチャ板34の表面は、投影される平面に対して図示のように傾いており、第2のアパーチャ板34の表面は、Pの位置で一方の平面に一致し、Qの位置で他方の平面に一致する。従って、図5の(B)に示すように、複数の受光素子36の出力は、PとQに対応する位置でそれぞれ出力が大きくなる分布を生じる。試料面が光軸方向に移動すると、この分布の中心はP’とQ’の位置に移動する。
【0023】
図5の(C)に示すように、試料100の表面に小さな周期的な凹凸があるとする。凹凸の段差は、図5の(A)の2つの平面の段差と同じであるとする。この場合には、第2のアパーチャ板34の表面は、Pの位置で試料面の凹の部分と高さが一致し、Qの位置で試料面の凸の部分と高さが一致する。従って、PとQの位置に対応する受光素子の出力が大きくなる。しかし、Pの隣りの試料面が凸になる部分とQの隣りの試料面が凹になる部分では、焦点が合っていないので対応する受光素子の出力が小さくなる。このように、複数の受光素子36の出力は凹凸のピッチで激しく変化するが、信号の全体の変化を捕らえればなめらかに変化する。信号の全体の変化を捕らえるには、例えば、その包絡線をとればよく、包絡線をとれば図5の(B)に示す分布になる。
【0024】
従って、信号処理回路37が各受光素子36の検出信号からその強度の包絡線を演算し、その中心位置を求めれば、試料100の表面位置を算出できる。このように、本発明によれば、たとえ試料の表面に細かな凹凸があっても、焦点位置を正確に求めることが可能になる。
図6は、本発明の第2実施例の自動焦点顕微鏡の構成を示す図である。図示のように、この実施例もコリメータレンズと収束レンズを使用しない。この実施例の自動焦点顕微鏡では、試料100はXYZの3軸方向に移動可能で且つ載物面が回転可能なステージ102上に配置される。ステージ制御装置95は、ステージ102のXY平面内の移動及びZ軸方向の移動(焦点調整)を行う。照明装置83、ハーフミラー82、対物レンズ81、及び撮像装置87で構成される部分は従来と同様の光学顕微鏡である。図6において、参照番号84は撮像面の照明側の共役面上の撮像範囲に相当する領域である。この領域が試料100の表面の参照番号90で示す位置に投影される。第2実施例では、領域84の外にスリット列92を有するアパーチャ板91を配置する。アパーチャ板91は照明装置83によって照明され、スリット列92の像が試料面の参照番号97で示す領域に投影され、その像が撮像装置87の横に投影される。この像を撮像面に対してθ傾けた一次元イメージセンサ93で捕らえる。後述するように、一次元イメージセンサ93の各受光素子は所定の小さな受光領域を有するので、図4のピンホール35及び各ピンホールを通過した光を電気信号に変換する受光素子36と同じように作用する。一次元イメージセンサ93は、所定の周期で各受光素子の出力を連続して出力する。この連続した出力をチャンネル出力と呼ぶ。一次元イメージセンサ93のチャンネル出力は、信号処理装置94に送られて処理され、焦点状態が検出される。
【0025】
図7は、第2実施例のスリット列92を示す図である。図示のように、一方の方向に延びた複数のスリット92Aが離して配列される。焦点状態からずれると各スリットの像はぼけ、そのぼけ具合を一次元イメージセンサ93で検出するので、焦点状態の検出精度を高くするには焦点状態からずれが所定の範囲内の時には各スリットの像が相互に影響しないことが必要である。一次元イメージセンサ93は、このようなスリット列92の像を検出するので、各スリット92Aの長さ分だけ位置がずれても同じような出力が得られる。従って、スリット列92と一次元イメージセンサ93の位置合わせの許容範囲が、各スリット92Aの長さ分だけあることになり、位置合わせが非常に容易になる。
【0026】
次に、第2実施例の信号処理装置94における一次元イメージセンサ93のチャンネル出力の処理について説明する。第1実施例では、各受光素子の出力の包絡線を演算してその中心位置を求めた。第2実施例でも同様に包絡線を演算して焦点状態を検出することが可能であるが、ここでは焦点を合わせた状態における基準チャンネル出力をあらかじめ検出してテンプレートデータとして記憶しておき、その時点のチャンネル出力をこのテンプレートデータと比較して中心位置の差を演算する。図8は、この演算処理を説明する図である。
【0027】
図8の(A)に示すように、焦点を合わせた状態で一次元イメージセンサ93のチャンネル出力をテンプレートデータとして記憶する。このような記憶を行うためには、チャンネル出力をA/D変換した上で、メモリに記憶する。次に、焦点状態がずれたために、チャンネル出力が図8の(B)に示すようにシフトしたとする。ここで、図8の(C)に示すような式に基づいて、相関値C(x)を演算すると、相関値C(x)は図8の(D)に示すように変化する。そこで、相関値C(x)が最大になるxmaxを求めれば、それが焦点位置のずれに相当する。
【0028】
なお、信号処理装置94におけるチャンネル出力の処理は各種の変形例が可能である。図9は、変形例を説明する図であり、図9の(A)に示すように、一次元イメージセンサ93のチャンネル出力の高周波成分を除去するローパスフィルタ98を設け、その出力を信号処理回路94に入力する。チャンネル出力は、図9の(B)に示すように、スリット列92の各スリット92に対応する部分では高く、その間の部分では小さくなるという具合に、各スリット92の配列ピッチに対応した周期で変化する。ローパスフィルタ98でフィルタリングして高周波成分を除去すると、チャンネル出力は滑らかに変化する信号になる。この信号のピークが焦点位置に対応する。
【0029】
第2実施例では、撮像系と焦点検出系で同じ光を利用するので、使用する光の波長が異なることによる検出誤差は発生しない。しかし、焦点位置を検出するのは撮像範囲外になる。例えば、光学像を電気的な画像信号に変換して出力する顕微鏡では、高分解能の画像信号を得るため、一次元イメージセンサを使用して、ステージ上の試料を一次元イメージセンサの伸びる方向に垂直な方向に移動させて二次元の画像信号を生成するのが一般的である。この場合には、撮像範囲の幅が狭いので、焦点検出のためのスリットを撮像範囲外の試料面の光軸に近い位置に投影することが可能である。
【0030】
図10は、本発明の第3実施例の自動焦点顕微鏡の構成を示す図である。図示のように、この実施例ではコリメータレンズと収束レンズを使用する。この実施例の自動焦点顕微鏡では、試料100はXYZの3軸方向に移動可能で且つ載物面が回転可能なステージ102上に配置される。光源41からの照明光は、コリメータレンズ42及びハーフミラー43などを通して対物レンズ44に入り、試料100の表面の撮像範囲を一様に照明する。試料面で反射された光は、対物レンズ44、ハーフミラー43と45、折り返しミラー46及び投影レンズ47を通して撮像装置48の撮像面に投影され、撮像面に試料面の像が形成される。撮像装置48は、試料面の像を電気信号に変換して画像信号として出力する。
【0031】
参照番号51から57は、焦点検出装置を構成する部分であり、焦点検出装置の検出信号に応じてステージ102をZ軸(光軸)方向に移動し、常に良好な画像信号が得られるように調整するオートフォーカス機構が構成される。焦点検出装置の照明装置51は、図11に示すような直線状のスリット58を有するアパーチャ板52を照明する。これにより一方向に直線的に伸びる一次元光源が形成される。なお、アパーチャ板52は光軸に対して垂直に設けられているとする。スリット58から放射された光は、コリメータレンズ53、ハーフミラー54、ハーフミラー45と43、及び対物レンズ44を介して試料100の表面上に収束され、試料100の表面上にスリット58の像が投影される。なお、撮像装置48は、スリット58から放射され試料100の表面上に投影される光の波長に対しては感度を持たないものとし、ハーフミラー45はスリット58から放射される光の波長は透過するが、他の波長は反射するような特性を有する。このような特性を有するハーフミラーは、例えば多層コーティングにより実現される。
【0032】
試料100の表面上に投影されたスリット58からの光は、対物レンズ44、ハーフミラー43と45と54、及び投影レンズ55を介して、図11に示すように一次元イメージセンサ56の部分に収束され、この部分にスリット58の像59を形成する。上記のように、アパーチャ板52は光軸に対して垂直に設けられているので、形成されるスリット58の像59は、光軸に対して垂直である。図11に示すように、一次元イメージセンサ56は、配列した受光素子62の列61がスリット58の像59に一致するようにした上で光軸に対して受光面をθ傾けて配置される。
【0033】
スリット58は点光源を連続して配置したものと見なすことが可能であり、一次元イメージセンサ56の各受光素子62は図12の(B)に示すようにそれぞれ所定の小さな受光領域を有する。(ここでは正方形の受光領域とした。)この受光領域がピンホールと同じように作用し、焦点が合っている時には受光素子の出力は大きくなるが、焦点がずれている時には受光素子の出力が低下するので、図5(B)と(C)に示したような出力が得られる。一次元イメージセンサ56の出力は信号処理装置57に送られ、第1実施例又は第2実施例と同様に、チャンネル出力の中心位置が演算される。
【0034】
図13は、本発明の第4実施例の自動焦点顕微鏡の焦点検出装置を構成する部分の構成を示す図であり、他の部分は第3実施例と同じである。第4実施例の焦点検出装置では、スリット72を有するアパーチャ板71が光軸に対して傾いて配置される。なお、スリット72の照明装置は図示を省略してある。更に、第2実施例の一次元イメージセンサ56の代わりに二次元イメージセンサ73が、撮像面が光軸に垂直になるように配置される。アパーチャ板71が光軸に対して傾いて配置されているので、図13に示すように、スリット72の像74は光軸に対して傾いて形成される。
【0035】
図14の(A)は、二次元イメージセンサ73の撮像面上に投影されるスリット72の像74を示す斜視図であり、図14の(B)は上面図であり、図14の(C)は二次元イメージセンサ73の出力信号Siを示す図である。図14の(A)及び(B)に示すように、スリットの像74は光軸に対して傾いており、いずれかの部分が二次元イメージセンサ73の撮像面に一致する。ここでは、中心部が一致するとする。従って、スリットの像74は、中心部77ではスリットの幅になり光強度は大きいが、両端に進むに従って撮像面からずれて幅が徐々に大きくなり、光強度は徐々に低下する。
【0036】
ここで、図14の(B)に示すように、二次元イメージセンサ73の撮像面の位置をXY直交座標で表した時に、像74の中心部77を通るY軸方向のライン75上の出力は、図14の(C)で参照番号78で示すように変化する。試料面のZ軸方向の位置がずれて、スリットの像74の二次元イメージセンサ73の撮像面に一致する値が変化すると、二次元イメージセンサ73のライン75上の出力は、参照番号79で示すように移動する。従って、光強度のもっとも高くなる位置の移動量を検出すれば、試料面の位置ずれが検出できる。信号処理装置は、二次元イメージセンサの出力を処理してこの処理を行う。
【0037】
なお、図14は試料面が平面である場合であり、試料面に凹凸があればそれに応じて二次元イメージセンサ73の出力も変化するので、試料面に凹凸がある時には他の実施例と同様に、二次元イメージセンサ73の出力の包絡線や相関値を演算し、それから中心位置を算出する。
スリット72の位置と光学系と二次元イメージセンサ73の関係が固定であれば、二次元イメージセンサ上に投影されるスリットの像73の中心部77は常にライン75上に位置する。そこで、あらかじめこのライン75の位置(Y座標)を検出して記憶しておき、装置の動作時には二次元イメージセンサ73のこのライン位置の信号のみを読み出して処理する。これにより、通常のように二次元イメージセンサ73のX座標を変化させて全撮像面の画像信号を読み出す場合に比べて、ライン75上の画像信号を読み出すサイクルを大幅に短くできる。
【0038】
第1及び第2実施例のように受光素子を直線状に配列した一次元イメージセンサを使用する場合には、一次元イメージセンサの位置をスリットの像に合わせた上で傾ける必要があり、位置合わせ作業が必要であった。これに対して、第3実施例では、二次元イメージセンサ73を配置した上で、スリットの像を投影し、二次元イメージセンサ73の全面の画像信号から中心位置を求めて記憶すればよいので、位置合わせ作業が不用である。
【0039】
また、ライン75の位置が変化する可能性がある場合には、処理装置が二次元イメージセンサの出力から、ライン75の位置を検出し、そのラインの出力を処理して中心位置の移動量を検出する。ライン75の位置の検出は、例えば、ライン毎の信号強度の和を算出し、それが最大になるラインを判定することにより行う。なお、すべてのラインについて演算する場合には演算時間が長くなるので、例えば、最初のみ全ラインについて調べて中心位置を含むライン算出し、次からは前のラインのX軸方向の数ラインについてのみ画像信号を読み出して処理する。
【0040】
第3及び第4実施例では、撮像装置は焦点検出のために試料面に照射されるスリットの像を形成する光に対して感度を有さないようにし、試料面の撮像範囲のほぼ中心にスリットの像を投影するようにして、撮像範囲のほぼ中心の焦点を検出する。
図15は、本発明の第5実施例の自動焦点顕微鏡の構成を示す図である。照明装置83、ハーフミラー82、対物レンズ81、及び撮像装置87で構成される部分は従来と同様の光学顕微鏡である。なお、ステージは図示を省略してある。図15において、参照番号84は撮像面の照明側の共役面上の撮像範囲に相当する領域である。この領域が試料100の表面の参照番号90で示す位置に投影される。第5実施例では、領域84の外にスリット86を有するアパーチャ板85を配置する。アパーチャ板85は照明装置83によって照明され、スリット86の像が試料面の参照番号91で示す領域に投影され、その像が撮像装置87の横に投影される。
【0041】
撮像装置87は、実際には撮像面の周囲にもある領域を占めており、その部分に一次元イメージセンサを配置することはできない。そこで、図示のように、領域91が投影される光路の途中に折り返しミラー88を配置して、領域91が投影される位置を撮像面とは異なる所に移動させ、その部分に一次元イメージセンサ89を光軸に対してθ傾けて配置する。後は他の実施例と同じである。
【0042】
第3及び第4実施例では、撮像系と焦点検出系で使用する光の波長が異なるために検出誤差が生じるという問題がある。第5実施例では、第2実施例と同様に撮像系と焦点検出系で同じ光を利用するので、使用する光の波長が異なることによる検出誤差は発生しない。しかし、焦点位置を検出するのは撮像範囲外になる。
【0043】
【発明の効果】
以上説明したように、本発明によれば、表面に凹凸のある試料であっても、試料表面の位置を高精度且つ容易に検出可能で、組立も容易な焦点検出装置及びそれを使用した自動焦点顕微鏡が実現できる。
【図面の簡単な説明】
【図1】コンフォーカル顕微鏡の原理を使用した焦点検出装置を説明する図である。
【図2】コンフォーカル顕微鏡の原理を使用した焦点検出装置の別の例を説明する図である。
【図3】半導体ウエハなど凹凸のある表面に焦点検出のためのビームを照射した状態を説明する図である。
【図4】本発明の第1実施例の焦点検出装置の構成を示す図である。
【図5】第1実施例における、焦点状態に応じた受光素子の出力信号の変化を示す図である。
【図6】本発明の第2実施例の自動焦点顕微鏡の構成を示す図である。
【図7】第2実施例における焦点検出のためのスリット列を示す図である。
【図8】第2実施例における一次元イメージセンサの信号処理を説明する図である。
【図9】一次元イメージセンサの信号処理の他の例を説明する図である。
【図10】本発明の第3実施例の自動焦点顕微鏡の構成を示す図である。
【図11】第3実施例における一次元光源側のアパーチャと一次元イメージセンサの位置関係を示す図である。
【図12】第3実施例における一次元イメージセンサを示す図である。
【図13】本発明の第4実施例の自動焦点顕微鏡における一次元光源側のアパーチャと一次元イメージセンサの位置関係を示す図である。
【図14】第4実施例における二次元イメージセンサ上に投影されたスリット像をセンサ出力を示す図である。
【図15】本発明の第5実施例の自動焦点顕微鏡の構成を示す図である。
【符号の説明】
15…ハーフミラー
16…対物レンズ
31…照明装置
32…第1のアパーチャ板
33…ピンホールアレイ
34…第2のアパーチャ板
35…ピンホールアレイ
36…受光素子
37…信号処理装置
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a focus detection device that detects the surface position (displacement in a direction perpendicular to the surface) of a flat plate such as a wafer and an autofocus microscope using the focus detection device, and more particularly to a fine wafer such as a semiconductor wafer having a circuit pattern formed on the surface. The present invention relates to a focus detection apparatus capable of detecting a highly accurate surface position even on a rough surface and an autofocus microscope using the same. Conventionally, various methods have been proposed for a focus detection device in an optical instrument such as an optical microscope and an automatic focus device (autofocus mechanism: AF mechanism) using the same. For example, an astigmatism method or a knife edge method is used as an AF mechanism in an optical recording / reproducing apparatus such as a CD player or an automatic focusing apparatus of a microscope. The present invention relates to a focus detection apparatus using the principle of a confocal microscope.
[0002]
[Prior art]
FIG. 1 is a diagram for explaining a focus detection apparatus using the principle of a confocal microscope. As shown in FIG. 1A, when the light source 11 illuminates the pinhole 13 of the aperture plate 12, the pinhole 13 becomes a point light source. The light radiated from the pinhole 13 is converged on the surface of the sample 100 by the optical system composed of the collimator lens 14, the half mirror 15 and the projection lens (objective lens) 16 as indicated by the solid line. An image is formed as a point image on the surface of the sample 100. This point image is a size obtained by multiplying the size of the pinhole 13 by the projection magnification of the optical system in the focused state, and the light intensity at the center increases. When deviating from the focal position, the point image becomes blurred and large, and the light intensity at the center portion decreases.
[0003]
When the surface of the sample 100 is rough, a point image on the surface of the sample 100 becomes a secondary light source, and a new point light source is formed on the sample surface 100. Here, the surface of the sample 100 In the following description, it is assumed that the size of the upper point image is sufficiently smaller than the roughness of the surface, and that the point light source is formed on the surface or at a position symmetrical to the surface. The light forming the point image is reflected by the surface of the sample 100 and is converged on the pinhole 19 portion of the aperture plate 18 by the optical system composed of the projection lens 16, the half mirror 15 and the converging lens 17. Form. In the focused state, as shown by the solid line, the light reflected by the surface of the sample 100 is converged on the pinhole 19 and most of the light passes through the pinhole 19 and enters the light receiving element 20. The light receiving element 20 outputs a large detection signal. When the surface of the sample 100 deviates from the focal position, the light reflected by the surface of the sample 100 is converged to a position deviated from the aperture plate 18. As indicated by the broken line, when the sample 100 is displaced in the direction away from the optical system, the light reflected by the surface of the sample 100 is incident on the aperture plate 18 in a state of being spread after being converged in front of the aperture plate 18. When the sample 100 is displaced in a direction approaching the optical system, the light reflected by the surface of the sample 100 is converged behind the aperture plate 18 and is incident on the aperture plate 18 before converging.
[0004]
In any case, since the light does not converge on the pinhole 19, the amount of light that passes through the pinhole 19 and enters the light receiving element 20 decreases, and the detection signal of the light receiving element 20 decreases. The amount of light passing through the pinhole 19 decreases in accordance with the deviation of the surface of the sample 100 from the focal position, and changes as shown in FIG. Therefore, if the characteristics shown in FIG. 1B are measured and stored in advance, the amount of deviation from the focal position can be detected from the detection signal of the light receiving element 20. In FIGS. 1 and 2, light from the pinhole on the light source side is projected onto the sample surface via the collimator lens and the projection lens, and the reflected light is converged on the pinhole on the light receiving side by the projection lens and the convergence lens. Although a configuration example has been shown, a configuration in which a collimator lens and a converging lens are not used is also used.
[0005]
However, the signal shown in FIG. 1B cannot be determined in the positive or negative direction, that is, whether the surface of the sample 100 is close to or away from the optical system, and is reflected by the surface state of the sample 100 where a point image is formed. There is a problem that the amount of light to be fluctuated. Therefore, as shown in FIG. 2A, a half mirror 21 is provided behind the converging lens 17 to divide the converged light beam into two, and an aperture plate having a pinhole 23 for one of the light beams. 22 is provided in front of the focal position, and an aperture plate 25 having a pinhole 26 is provided in the rear of the focal position for the other light flux. The detection signal F of the light receiving element 24 that detects the light that has passed through the pinhole 23 and the detection signal R of the light receiving element 27 that detects the light that has passed through the pinhole 26 are shown in FIG. It changes as shown in (B). Therefore, while the two detection signals F and R reach their maximum values, the ratio R / F of the two detection signals F and R simply increases as shown in FIG. Therefore, it can be seen from the ratio R / F how much the direction is deviated with respect to the focal position. Further, since the ratio of the light reflected by the same part of the sample is obtained, it becomes difficult to be influenced by the reflection state of the surface of the sample.
[0006]
Various focus detection apparatuses using the principle of the confocal microscope as described above are disclosed in JP-A-4-350818, JP-A-5-232370, JP-A-6-51206, and JP-A-7-174962. JP-A-8-43717, JP-A-8-178623, JP-A-8-220418, JP-A-9-325277, etc. .
[0007]
[Problems to be solved by the invention]
In the semiconductor manufacturing process, various circuit patterns are formed in multiple layers on the surface of a semiconductor wafer to produce a semiconductor chip. In an intermediate process or a final process, quality control is performed by examining defects of a formed pattern and feeding back the information, and an optical microscope is widely used for this purpose. In such an optical microscope, an operator may view an optical image with the naked eye, but the optical image is converted into an image signal by a TV camera or a line sensor, and the image signal is processed to determine the presence or absence of a defect or the like. Is common. In particular, a highly integrated semiconductor wafer needs to generate a high resolution image signal, and a high resolution image signal is obtained by scanning with a highly integrated line sensor. Scanning is usually performed by moving a sample placed on a stage at a constant speed.
[0008]
In the focus detection apparatus shown in FIGS. 1 and 2 and the focus detection apparatus disclosed in the above-described known example, an image of a small pinhole is projected on the surface of the sample, but the projected point image is 1. It is a piece. Further, in the automatic focusing apparatus disclosed in Japanese Patent Application Laid-Open No. 7-174962, the image forming position is shifted by using a pin sensor on the light source side as an ellipse or a rectangle and using a line sensor as a light receiving element. However, the point image projected on the sample surface is elliptical or rectangular, but is one. FIG. 3 shows how a point image is projected when a semiconductor wafer is used as a sample, and reference numeral 101 indicates a light beam converged on the surface of the sample 100. When the sample is a semiconductor wafer, as shown in the figure, the surface has irregularities of the same size as the point image, and the focus state changes greatly at the position where the point image is formed. For this reason, the state of convergence of the point image, that is, the detection signal changes greatly only by moving the sample by a small amount, so that it is difficult to detect a stable focus position, and it is difficult to perform good focus control accordingly. There was a problem.
[0009]
In addition, in the configuration shown in FIG. 2A, it is necessary to precisely arrange the two pinholes 23 and 26 so as to correspond to the same point on the sample surface. The light intensity of the part is detected, and a detection error occurs. Therefore, there is a problem that high-precision positioning is required and the assembly of the apparatus is complicated. Although the influence of the shift is reduced in the automatic focus adjustment device disclosed in the above-mentioned Japanese Patent Application Laid-Open No. 7-174963, two or four line sensors are used, and two line sensor positions are similarly provided. It was necessary to match each other, and the assembly of the device was complicated.
[0010]
The present invention is for solving such a problem, and a focus detection device capable of easily detecting the position of the sample surface with high accuracy and easy assembly even for a sample having an uneven surface. The purpose is to realize an autofocus microscope using it.
[0011]
[Means for Solving the Problems]
To achieve the above object, the focus detection apparatus of the present invention arranges a one-dimensional light source in which point light sources are arranged in one direction instead of a point light source, corresponding to each point light source of the one-dimensional light source instead of a pinhole. A one-dimensional aperture having a defined aperture is used, and the one-dimensional light source and the one-dimensional aperture are inclined with respect to the imaging plane. That is, the central point light source of the one-dimensional light source and the central aperture of the one-dimensional aperture are in an imaging relationship when the sample surface is at the focal position, and the point light sources on both sides of the one-dimensional light source and the apertures on both sides of the one-dimensional aperture. Are in an imaging relationship when the sample surface is deviated from the focal position. Tilt one or both of the one-dimensional light source and the one-dimensional aperture.
[0012]
That is, the focus detection apparatus of the present invention combines a one-dimensional light source in which point light sources are arranged in one direction and an image of the one-dimensional light source projected on the sample surface and the image of the one-dimensional light source projected on the sample surface. One-dimensionally arranged with a focus detection optical system for projecting onto the image plane and an aperture arranged corresponding to each point light source of the one-dimensional light source projected onto the image plane, and inclined with respect to the image plane An aperture, a one-dimensional photodetector that detects light that has passed through each aperture of the one-dimensional aperture, and an output from the one-dimensional photodetector to detect the position of the focus detection optical system on the sample surface in the optical axis direction And a signal processing device.
[0013]
According to the focus detection apparatus of the present invention, since a one-dimensional light source is used instead of a point light source and a one-dimensional aperture is used instead of a pinhole, if a detection signal output from the one-dimensional photodetector is processed, The focal positions for a plurality of positions are obtained continuously. Further, the one-dimensional light source and the one-dimensional aperture are arranged to be inclined from the imaging plane, and the point light sources and the apertures on both sides are in an imaging relationship when the sample surface is displaced from the focal position. As a result, when the sample surface is between them, any set of point light sources and apertures is in an imaging relationship, and the output is increased. Therefore, if the position where the output of the one-dimensional photodetector is maximized is detected, the focal position is determined.
[0014]
Specifically, the calculation in the signal processing device stores, for example, a waveform of the intensity signal group in a state in which the focus is previously obtained as a template, calculates a correlation with the waveform of the intensity signal group at that time, The amount of shift with the highest degree of correlation is calculated. In addition, the envelope of the intensity signal of the light that has passed through each aperture output from the one-dimensional photodetector is calculated, and the position of the focus detection optical system on the sample surface in the optical axis direction is detected from the maximum intensity position of the envelope. Is also possible. Further, the maximum intensity position may be obtained by performing low-pass filter processing for extracting only the low frequency component of the intensity signal group. The low-pass filter processing can be performed by digital processing or analog processing.
[0015]
If each point light source of the one-dimensional light source is a slit group in which a plurality of slits extending in a direction perpendicular to the arrangement direction are separated, the alignment of the one-dimensional light source and the one-dimensional photodetector becomes very easy. .
It is also possible to illuminate the slits from the back side in a state where the point light sources of the one-dimensional light source are arranged very densely, that is, the one-dimensional light source is a straight slit.
[0016]
It is also possible to use a one-dimensional image sensor as the one-dimensional photodetector. The one-dimensional image sensor is configured by linearly arranging light receiving elements having fine light receiving areas, and the light receiving areas of the respective light receiving elements function as apertures.
It is also possible to use a two-dimensional image sensor as the one-dimensional photodetector, and in this case, the light receiving area of each light receiving cell of the two-dimensional image sensor serves as each aperture of the one-dimensional aperture. By using the two-dimensional image sensor, the alignment of the one-dimensional light source and the image sensor becomes unnecessary.
[0017]
The image of the one-dimensional light source projected on the two-dimensional image sensor has a narrow width and a large central intensity at a portion corresponding to the focal position, and then spreads in both directions from the focal position and decreases the central intensity. If the relationship between the position of the one-dimensional light source and the optical system is fixed, the line that becomes the maximum intensity of the image of the one-dimensional light source projected on the two-dimensional image sensor is also fixed. Therefore, only the signal of this line position of the two-dimensional image sensor needs to be processed. If this line position is not detected and stored in advance, the line position is obtained from the output of the two-dimensional image sensor, and the output of the line position is processed.
[0018]
If the focus detection device as described above is used for the autofocus mechanism of an autofocus microscope, the position of the sample surface can be detected with high precision and easily even on a semiconductor wafer with an uneven surface. It can be done properly.
That is, the autofocus microscope of the present invention irradiates a sample surface with a stage holding a sample, an illuminating device, a half mirror, and illumination light from the illuminating device via the half mirror, and half-images of the sample surface. An imaging optical system that projects onto a projection surface via a mirror, an imaging device that is arranged so that the imaging surface is positioned on the projection surface, and a position in the optical axis direction with respect to the sample surface of the imaging optical system to detect the sample surface An autofocus microscope comprising a stage and an autofocus mechanism that adjusts the relative position of the imaging optical system in the optical axis direction so that an image is formed on a projection plane. The autofocus mechanism includes the focus detection device described above. And the relative position of the stage and the imaging optical system in the optical axis direction is adjusted according to the position in the optical axis direction of the focus detection optical system on the sample surface detected by the focus detection device.
[0019]
The optical coupling between the imaging optical system and the focus detection optical system of the autofocus mechanism may be performed by further providing a second half mirror as in the above-described known example. In the autofocus mechanism, a third optical path for projecting the image of the one-dimensional light source onto the sample surface and an optical path for forming the image of the one-dimensional light source projected onto the sample surface on the imaging surface are separated. A half mirror is provided. This makes it possible to project an image of the one-dimensional light source within the imaging range on the sample surface. In this case, it is desirable that the imaging device has no sensitivity to the light emitted from the one-dimensional light source so that the image of the one-dimensional light source does not affect the image signal of the imaging device.
[0020]
In addition, the focus detection optical system and the imaging optical system can be made common without providing the second half mirror, and the one-dimensional light source can be projected outside the imaging range of the imaging device on the sample surface. In this case, the one-dimensional light source is realized by illuminating a pinhole row, a slit row or a linear slit from the back by an illumination device for imaging. As a result, the focus detection optical system and the imaging optical system have the same wavelength characteristics.
[0021]
DETAILED DESCRIPTION OF THE INVENTION
FIG. 4 is a diagram showing the configuration of the focus detection apparatus according to the first embodiment of the present invention. Unlike the example of FIG. 1, the present embodiment has a configuration in which a collimator lens and a converging lens are not used. The illumination device 31 illuminates a first aperture plate 32 having a plurality of pinholes 33 arranged in a straight line. Thus, light is emitted from the plurality of pinholes 33, and a one-dimensional light source in which point light sources are arranged in one direction is formed. Although the number of pinholes 33 shown in the figure is nine, it is assumed that a large number of pinholes are actually arranged. The first aperture plate 32 is disposed perpendicular to the optical axis. Light from each pinhole 33 is reflected by the half mirror 15, enters the objective lens 16, and is projected onto the surface of the sample 100. The light reflected from the surface is converged by the objective lens 16, passes through the half mirror 15, and forms an image on the second aperture plate 34 having a plurality of pinholes 35. The images of the plurality of pinholes 33 are formed at positions corresponding to the plurality of pinholes 35, respectively, but the second aperture plate 34 is disposed inclined by θ with respect to the optical axis. Here, when the surface of the sample 100 is at the focal position, an image of the pinhole at the center of the row of the plurality of pinholes 33 is formed on the portion of the pinhole at the center of the row of the pinholes 35. Although the pinholes on one side of the plurality of pinholes 35 are arranged, images of the corresponding pinholes in the plurality of pinholes 33 are formed when the surface of the sample 100 approaches the objective lens. The pinhole on the other side of the row of the plurality of pinholes 35 forms an image of the corresponding pinhole in the row of the plurality of pinholes 33 when the surface of the sample 100 is separated from the objective lens. It is arranged at the position. A plurality of light receiving elements 36 are arranged behind the row of the plurality of pinholes 35 so as to receive the light that has passed through each pinhole. The detection signal of each light receiving element 36 is sent to the signal processing circuit 37 for processing.
[0022]
FIG. 5 is a diagram illustrating an output example of the plurality of light receiving elements 36 corresponding to the positional relationship between the image of the surface of the sample 100 and the surface of the second aperture plate 34. As shown in FIG. 5A, the sample surface has two flat portions having different heights, and the surface of the second aperture plate 34 is inclined as shown in the drawing with respect to the projected plane. The surface of the second aperture plate 34 coincides with one plane at the position P and coincides with the other plane at the position Q. Therefore, as shown in FIG. 5B, the outputs of the plurality of light receiving elements 36 have a distribution in which the outputs increase at positions corresponding to P and Q, respectively. When the sample surface moves in the optical axis direction, the center of this distribution moves to the positions of P ′ and Q ′.
[0023]
As shown in FIG. 5C, it is assumed that the surface of the sample 100 has small periodic irregularities. It is assumed that the uneven step is the same as the step between the two planes in FIG. In this case, the surface of the second aperture plate 34 has the same height as the concave portion of the sample surface at the position P, and the same height as the convex portion of the sample surface at the position Q. Accordingly, the output of the light receiving element corresponding to the positions of P and Q is increased. However, the portion where the sample surface adjacent to P is convex and the portion where the sample surface adjacent to Q is concave are not focused, so the output of the corresponding light receiving element is small. As described above, the outputs of the plurality of light receiving elements 36 change drastically at the pitch of the projections and depressions, but change smoothly if the entire change in the signal is captured. In order to capture the entire change of the signal, for example, the envelope may be taken, and if the envelope is taken, the distribution shown in FIG.
[0024]
Therefore, if the signal processing circuit 37 calculates the envelope of the intensity from the detection signal of each light receiving element 36 and obtains the center position, the surface position of the sample 100 can be calculated. Thus, according to the present invention, it is possible to accurately determine the focal position even if there are fine irregularities on the surface of the sample.
FIG. 6 is a diagram showing a configuration of an autofocus microscope according to the second embodiment of the present invention. As shown, this embodiment also does not use a collimator lens and a converging lens. In the autofocus microscope of this embodiment, the sample 100 is arranged on a stage 102 that can move in the three-axis directions of XYZ and that can rotate the mounting surface. The stage controller 95 moves the stage 102 in the XY plane and moves in the Z-axis direction (focus adjustment). A portion constituted by the illumination device 83, the half mirror 82, the objective lens 81, and the imaging device 87 is an optical microscope similar to the conventional one. In FIG. 6, reference numeral 84 denotes an area corresponding to the imaging range on the conjugate plane on the illumination side of the imaging plane. This region is projected at a position indicated by reference numeral 90 on the surface of the sample 100. In the second embodiment, an aperture plate 91 having a slit row 92 is disposed outside the region 84. The aperture plate 91 is illuminated by the illuminating device 83, and the image of the slit row 92 is projected onto the area indicated by reference numeral 97 on the sample surface, and the image is projected to the side of the imaging device 87. This image is captured by a one-dimensional image sensor 93 inclined by θ with respect to the imaging surface. As will be described later, each light receiving element of the one-dimensional image sensor 93 has a predetermined small light receiving region, so that it is the same as the pin hole 35 in FIG. 4 and the light receiving element 36 that converts light passing through each pin hole into an electrical signal. Act on. The one-dimensional image sensor 93 continuously outputs the output of each light receiving element at a predetermined cycle. This continuous output is called a channel output. The channel output of the one-dimensional image sensor 93 is sent to the signal processing device 94 for processing, and the focus state is detected.
[0025]
FIG. 7 is a diagram showing the slit row 92 of the second embodiment. As illustrated, a plurality of slits 92A extending in one direction are arranged apart from each other. The image of each slit is blurred when deviated from the focus state, and the degree of blur is detected by the one-dimensional image sensor 93. Therefore, in order to increase the detection accuracy of the focus state, when the deviation from the focus state is within a predetermined range, It is necessary that the images do not affect each other. Since the one-dimensional image sensor 93 detects such an image of the slit array 92, a similar output can be obtained even if the position is shifted by the length of each slit 92A. Therefore, the allowable range of alignment between the slit row 92 and the one-dimensional image sensor 93 is equal to the length of each slit 92A, and alignment becomes very easy.
[0026]
Next, channel output processing of the one-dimensional image sensor 93 in the signal processing device 94 of the second embodiment will be described. In the first embodiment, the output envelope of each light receiving element is calculated to determine its center position. Similarly in the second embodiment, it is possible to detect the focus state by calculating the envelope, but here, the reference channel output in the focused state is detected in advance and stored as template data. The channel output at the time is compared with this template data to calculate the difference in the center position. FIG. 8 is a diagram for explaining this calculation process.
[0027]
As shown in FIG. 8A, the channel output of the one-dimensional image sensor 93 is stored as template data in a focused state. In order to perform such storage, the channel output is A / D converted and stored in the memory. Next, it is assumed that the channel output is shifted as shown in FIG. Here, when the correlation value C (x) is calculated based on the equation as shown in FIG. 8C, the correlation value C (x) changes as shown in FIG. 8D. Therefore, if xmax that maximizes the correlation value C (x) is obtained, this corresponds to the shift of the focal position.
[0028]
Various modifications can be made to the channel output processing in the signal processing device 94. FIG. 9 is a diagram for explaining a modified example. As shown in FIG. 9A, a low-pass filter 98 for removing a high-frequency component of the channel output of the one-dimensional image sensor 93 is provided, and the output is provided as a signal processing circuit. 94. As shown in FIG. 9B, the channel output is high at the portion corresponding to each slit 92 of the slit row 92 and is small at the portion in between, and at a cycle corresponding to the arrangement pitch of each slit 92. Change. When high-frequency components are removed by filtering with the low-pass filter 98, the channel output becomes a signal that changes smoothly. The peak of this signal corresponds to the focal position.
[0029]
In the second embodiment, since the same light is used in the imaging system and the focus detection system, a detection error due to a difference in the wavelength of the light used does not occur. However, the focus position is detected outside the imaging range. For example, in a microscope that converts an optical image into an electrical image signal and outputs it, in order to obtain a high-resolution image signal, a one-dimensional image sensor is used to move the sample on the stage in the direction in which the one-dimensional image sensor extends. Generally, a two-dimensional image signal is generated by moving in a vertical direction. In this case, since the width of the imaging range is narrow, the slit for focus detection can be projected to a position near the optical axis of the sample surface outside the imaging range.
[0030]
FIG. 10 is a diagram showing a configuration of an autofocus microscope according to the third embodiment of the present invention. As shown, this embodiment uses a collimator lens and a converging lens. In the autofocus microscope of this embodiment, the sample 100 is arranged on a stage 102 that can move in the three-axis directions of XYZ and that can rotate the mounting surface. The illumination light from the light source 41 enters the objective lens 44 through the collimator lens 42, the half mirror 43, and the like, and uniformly illuminates the imaging range of the surface of the sample 100. The light reflected by the sample surface is projected onto the imaging surface of the imaging device 48 through the objective lens 44, the half mirrors 43 and 45, the folding mirror 46, and the projection lens 47, and an image of the sample surface is formed on the imaging surface. The imaging device 48 converts the sample surface image into an electrical signal and outputs it as an image signal.
[0031]
Reference numerals 51 to 57 are parts constituting the focus detection device, and the stage 102 is moved in the Z-axis (optical axis) direction according to the detection signal of the focus detection device so that a good image signal can always be obtained. An autofocus mechanism for adjustment is configured. The illumination device 51 of the focus detection device illuminates an aperture plate 52 having a linear slit 58 as shown in FIG. Thereby, a one-dimensional light source extending linearly in one direction is formed. It is assumed that the aperture plate 52 is provided perpendicular to the optical axis. The light emitted from the slit 58 is converged on the surface of the sample 100 through the collimator lens 53, the half mirror 54, the half mirrors 45 and 43, and the objective lens 44, and an image of the slit 58 is formed on the surface of the sample 100. Projected. The imaging device 48 is not sensitive to the wavelength of light emitted from the slit 58 and projected onto the surface of the sample 100, and the half mirror 45 transmits the wavelength of light emitted from the slit 58. However, other wavelengths are reflected. The half mirror having such characteristics is realized by, for example, a multilayer coating.
[0032]
The light from the slit 58 projected onto the surface of the sample 100 passes through the objective lens 44, the half mirrors 43, 45 and 54, and the projection lens 55 to the one-dimensional image sensor 56 as shown in FIG. The converged light forms an image 59 of the slit 58 in this portion. As described above, since the aperture plate 52 is provided perpendicular to the optical axis, the formed image 59 of the slit 58 is perpendicular to the optical axis. As shown in FIG. 11, the one-dimensional image sensor 56 is arranged such that the array 61 of the light receiving elements 62 matches the image 59 of the slit 58 and the light receiving surface is inclined by θ with respect to the optical axis. .
[0033]
The slit 58 can be regarded as a continuous arrangement of point light sources, and each light receiving element 62 of the one-dimensional image sensor 56 has a predetermined small light receiving area as shown in FIG. (Here, it is a square light-receiving area.) This light-receiving area acts in the same way as a pinhole, and the output of the light-receiving element is large when it is in focus, but the output of the light-receiving element is high when it is out of focus. Since the voltage decreases, an output as shown in FIGS. 5B and 5C is obtained. The output of the one-dimensional image sensor 56 is sent to the signal processing device 57, and the center position of the channel output is calculated as in the first embodiment or the second embodiment.
[0034]
FIG. 13 is a diagram showing the configuration of the parts constituting the focus detection apparatus of the automatic focus microscope of the fourth embodiment of the present invention, and the other parts are the same as those of the third embodiment. In the focus detection apparatus of the fourth embodiment, an aperture plate 71 having a slit 72 is disposed to be inclined with respect to the optical axis. The illumination device for the slit 72 is not shown. Further, a two-dimensional image sensor 73 is arranged in place of the one-dimensional image sensor 56 of the second embodiment so that the imaging surface is perpendicular to the optical axis. Since the aperture plate 71 is arranged to be inclined with respect to the optical axis, the image 74 of the slit 72 is formed to be inclined with respect to the optical axis as shown in FIG.
[0035]
14A is a perspective view showing an image 74 of the slit 72 projected onto the imaging surface of the two-dimensional image sensor 73, FIG. 14B is a top view, and FIG. ) Is a diagram showing an output signal Si of the two-dimensional image sensor 73. As shown in FIGS. 14A and 14B, the slit image 74 is tilted with respect to the optical axis, and one of the portions coincides with the imaging surface of the two-dimensional image sensor 73. Here, it is assumed that the central portions coincide. Accordingly, the slit image 74 has a slit width at the central portion 77 and has a high light intensity. However, as it advances to both ends, the width of the slit image 74 gradually increases from the imaging surface, and the light intensity gradually decreases.
[0036]
Here, as shown in FIG. 14B, when the position of the imaging surface of the two-dimensional image sensor 73 is expressed in XY orthogonal coordinates, the output on the line 75 in the Y-axis direction passing through the center 77 of the image 74. Changes as indicated by reference numeral 78 in FIG. When the position of the sample surface in the Z-axis direction shifts and the value corresponding to the imaging surface of the two-dimensional image sensor 73 of the slit image 74 changes, the output on the line 75 of the two-dimensional image sensor 73 is represented by reference numeral 79. Move as shown. Therefore, if the amount of movement of the position where the light intensity is the highest is detected, the displacement of the sample surface can be detected. The signal processing apparatus performs this processing by processing the output of the two-dimensional image sensor.
[0037]
FIG. 14 shows a case where the sample surface is a flat surface. If the sample surface has irregularities, the output of the two-dimensional image sensor 73 changes accordingly. Therefore, when the sample surface has irregularities, it is the same as in the other embodiments. Then, the envelope of the output of the two-dimensional image sensor 73 and the correlation value are calculated, and the center position is calculated therefrom.
If the relationship between the position of the slit 72, the optical system, and the two-dimensional image sensor 73 is fixed, the central portion 77 of the slit image 73 projected on the two-dimensional image sensor is always located on the line 75. Therefore, the position (Y coordinate) of this line 75 is detected and stored in advance, and only the signal of this line position of the two-dimensional image sensor 73 is read and processed during the operation of the apparatus. As a result, the cycle of reading out the image signals on the line 75 can be significantly shortened as compared with the case of reading out the image signals of the entire imaging surface by changing the X coordinate of the two-dimensional image sensor 73 as usual.
[0038]
When using a one-dimensional image sensor in which light receiving elements are linearly arranged as in the first and second embodiments, it is necessary to incline the position of the one-dimensional image sensor in accordance with the slit image. Matching work was necessary. On the other hand, in the third embodiment, after the two-dimensional image sensor 73 is arranged, a slit image is projected, and the center position is obtained from the image signal of the entire surface of the two-dimensional image sensor 73 and stored. Alignment work is unnecessary.
[0039]
When the position of the line 75 may change, the processing device detects the position of the line 75 from the output of the two-dimensional image sensor, processes the output of the line, and calculates the movement amount of the center position. To detect. The position of the line 75 is detected by, for example, calculating the sum of signal intensities for each line and determining the line that maximizes the line intensity. In addition, since it takes a long time to calculate for all the lines, for example, only the first line is examined for all the lines to calculate the line including the center position, and the next is only for several lines in the X-axis direction of the previous line. Read and process the image signal.
[0040]
In the third and fourth embodiments, the imaging device is not sensitive to the light that forms the image of the slit that is irradiated onto the sample surface for focus detection, and is approximately at the center of the imaging range on the sample surface. The focus at the center of the imaging range is detected by projecting the slit image.
FIG. 15 is a diagram showing a configuration of an autofocus microscope according to a fifth embodiment of the present invention. A portion constituted by the illumination device 83, the half mirror 82, the objective lens 81, and the imaging device 87 is an optical microscope similar to the conventional one. The stage is not shown. In FIG. 15, reference numeral 84 is an area corresponding to the imaging range on the conjugate plane on the illumination side of the imaging plane. This region is projected at a position indicated by reference numeral 90 on the surface of the sample 100. In the fifth embodiment, an aperture plate 85 having a slit 86 is disposed outside the region 84. The aperture plate 85 is illuminated by the illuminating device 83, and the image of the slit 86 is projected onto a region indicated by reference numeral 91 on the sample surface, and the image is projected to the side of the imaging device 87.
[0041]
The imaging device 87 actually occupies a certain area around the imaging surface, and a one-dimensional image sensor cannot be arranged in that area. Therefore, as shown in the figure, a folding mirror 88 is arranged in the middle of the optical path on which the area 91 is projected, and the position on which the area 91 is projected is moved to a location different from the imaging surface, and a one-dimensional image sensor is provided at that portion. 89 is arranged with an inclination of θ with respect to the optical axis. The rest is the same as the other embodiments.
[0042]
In the third and fourth embodiments, there is a problem that a detection error occurs because the wavelengths of light used in the imaging system and the focus detection system are different. In the fifth embodiment, since the same light is used in the imaging system and the focus detection system as in the second embodiment, no detection error occurs due to the difference in the wavelength of the light used. However, the focus position is detected outside the imaging range.
[0043]
【The invention's effect】
As described above, according to the present invention, a focus detection device that can detect the position of the sample surface with high accuracy and easily even with a sample having an uneven surface, and an automatic using the focus detection device. A focusing microscope can be realized.
[Brief description of the drawings]
FIG. 1 is a diagram illustrating a focus detection apparatus using the principle of a confocal microscope.
FIG. 2 is a diagram for explaining another example of a focus detection apparatus using the principle of a confocal microscope.
FIG. 3 is a diagram illustrating a state in which a focus detection beam is irradiated on an uneven surface such as a semiconductor wafer.
FIG. 4 is a diagram illustrating a configuration of a focus detection apparatus according to a first embodiment of the present invention.
FIG. 5 is a diagram illustrating a change in an output signal of a light receiving element according to a focus state in the first embodiment.
FIG. 6 is a diagram showing a configuration of an autofocus microscope according to a second embodiment of the present invention.
FIG. 7 is a diagram showing slit rows for focus detection in the second embodiment.
FIG. 8 is a diagram for explaining signal processing of the one-dimensional image sensor in the second embodiment.
FIG. 9 is a diagram illustrating another example of signal processing of a one-dimensional image sensor.
FIG. 10 is a diagram showing a configuration of an autofocus microscope according to a third embodiment of the present invention.
FIG. 11 is a diagram showing a positional relationship between a one-dimensional light source side aperture and a one-dimensional image sensor in a third embodiment.
FIG. 12 is a diagram illustrating a one-dimensional image sensor according to a third embodiment.
FIG. 13 is a diagram showing a positional relationship between a one-dimensional light source side aperture and a one-dimensional image sensor in an autofocus microscope according to a fourth embodiment of the present invention.
FIG. 14 is a diagram showing a sensor output of a slit image projected on a two-dimensional image sensor in a fourth embodiment.
FIG. 15 is a diagram showing a configuration of an autofocus microscope according to a fifth embodiment of the present invention.
[Explanation of symbols]
15 ... Half mirror
16 ... Objective lens
31 ... Lighting device
32. First aperture plate
33 ... pinhole array
34 ... Second aperture plate
35 ... pinhole array
36. Light receiving element
37. Signal processing device

Claims (2)

直線状のスリットを配した一次元光源と、
前記スリットの像を試料面上に投影すると共に、前記試料面上に投影された前記スリットの像を結像面に投影する焦点検出光学系と、
前記スリットの像の伸びる方向に対応して、前記結像面に対して傾いて配置された一次元イメージセンサと
一次元イメージセンサの出力を処理して、前記試料面の前記焦点検出光学系の光軸方向の位置を検出する信号処理装置とを備えることを特徴とする焦点検出装置。
A one-dimensional light source with a linear slit ;
While projecting an image of the slit on the sample surface, and the focus detecting optical system for projecting the image plane an image of the slit projected onto the sample surface,
A one-dimensional image sensor arranged to be inclined with respect to the imaging plane , corresponding to the direction in which the image of the slit extends ;
A focus detection apparatus comprising: a signal processing apparatus that processes an output of the one-dimensional image sensor to detect a position of the sample detection surface in the optical axis direction of the focus detection optical system.
試料を保持するステージと、照明装置と、ハーフミラーと、
前記照明装置からの照明光を前記ハーフミラーを介して前記試料面上に照射すると共に前記試料面の像を前記ハーフミラーを介して投影面に投影する撮像光学系と、撮像面が前記投影面に位置するように配置された撮像装置と、前記撮像光学系の前記試料面に対する光軸方向の位置を検出して前記試料面の像が前記投影面に結像するように、前記ステージと前記撮像光学系の光軸方向の相対位置を調整するオートフォーカス機構とを備える自動焦点顕微鏡であって、
前記オートフォーカス機構は、請求項1に記載の焦点検出装置を備え、該焦点検出装置の検出した前記試料面の前記焦点検出光学系の光軸方向の位置に応じて前記ステージと前記撮像光学系の光軸方向の相対位置を調整することを特徴とする自動焦点顕微鏡。
A stage for holding a sample, an illumination device, a half mirror,
An imaging optical system that irradiates illumination light from the illumination device onto the sample surface via the half mirror and projects an image of the sample surface onto the projection surface via the half mirror, and an imaging surface that is the projection surface An imaging device arranged to be positioned at a position of the imaging optical system; and the stage and An autofocus microscope including an autofocus mechanism that adjusts a relative position in an optical axis direction of an imaging optical system,
The autofocus mechanism includes the focus detection device according to claim 1, and the stage and the imaging optical system according to the position of the sample surface detected by the focus detection device in the optical axis direction of the focus detection optical system. An autofocus microscope characterized by adjusting the relative position in the optical axis direction.
JP2000134973A 2000-05-08 2000-05-08 Focus detection device and autofocus microscope Expired - Fee Related JP3688185B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000134973A JP3688185B2 (en) 2000-05-08 2000-05-08 Focus detection device and autofocus microscope

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000134973A JP3688185B2 (en) 2000-05-08 2000-05-08 Focus detection device and autofocus microscope

Publications (2)

Publication Number Publication Date
JP2001318302A JP2001318302A (en) 2001-11-16
JP3688185B2 true JP3688185B2 (en) 2005-08-24

Family

ID=18643147

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000134973A Expired - Fee Related JP3688185B2 (en) 2000-05-08 2000-05-08 Focus detection device and autofocus microscope

Country Status (1)

Country Link
JP (1) JP3688185B2 (en)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE50108728D1 (en) * 2000-09-07 2006-04-06 Heidelberger Druckmasch Ag Parallel processing optical rangefinder
DE10127284A1 (en) * 2001-06-05 2002-12-12 Zeiss Carl Jena Gmbh Automatic focussing of a microscope using an analysis unit that compares measured values with stored design values and adjusts the microscope accordingly
US7813579B2 (en) 2004-05-24 2010-10-12 Hamamatsu Photonics K.K. Microscope system
US7297910B2 (en) * 2005-12-30 2007-11-20 General Electric Company System and method for utilizing an autofocus feature in an automated microscope
DE102007055530A1 (en) * 2007-11-21 2009-05-28 Carl Zeiss Ag laser beam machining
JP2010145468A (en) 2008-12-16 2010-07-01 Canon Inc Height detection device and toner height detection apparatus using the same
US8643835B2 (en) * 2010-07-09 2014-02-04 Kla-Tencor Corporation Active planar autofocus
JP6893842B2 (en) * 2017-07-18 2021-06-23 株式会社ニューフレアテクノロジー Pattern inspection method and pattern inspection equipment
DE102019117293B3 (en) * 2019-06-27 2020-11-05 Carl Zeiss Smt Gmbh Device for measuring masks for microlithography and autofocusing processes
CN113899699B (en) * 2021-11-08 2023-06-27 长春理工大学 Light-emitting and incidence common-aperture multipath space light-focusing system for cascade double-ring biosensor

Also Published As

Publication number Publication date
JP2001318302A (en) 2001-11-16

Similar Documents

Publication Publication Date Title
JP3555230B2 (en) Projection exposure equipment
KR100240371B1 (en) Surface position detecting method and apparatus and scanning exposure method and apparatus
KR100266729B1 (en) Surface position detecting method and scanning exposure method using the same
US6233043B1 (en) Position detection technique applied to proximity exposure
JP4613357B2 (en) Apparatus and method for adjusting optical misregistration measuring apparatus
CN101114134A (en) Alignment method and micro-device manufacturing method used for shadow cast scan photo-etching machine
US4952970A (en) Autofocusing system for a projecting exposure apparatus
JP2938187B2 (en) Pattern forming method and apparatus for performing the method
JP3688185B2 (en) Focus detection device and autofocus microscope
JP3685667B2 (en) Three-dimensional shape detection method and apparatus, and inspection method and apparatus
JP2023541838A (en) Exposure control in photolithographic direct exposure processes for circuit board or circuit manufacturing
US5936711A (en) Projection exposure method and projection exposure apparatus
JPH10318718A (en) Optical height detecting device
JP2005070225A (en) Surface image projector and the surface image projection method
JP3518826B2 (en) Surface position detecting method and apparatus, and exposure apparatus
JP3391470B2 (en) Projection exposure apparatus and projection exposure method
JP3003646B2 (en) Projection exposure equipment
JP3101582B2 (en) Position detecting apparatus and method using oblique optical axis optical system
JP3003694B2 (en) Projection exposure equipment
JP3376219B2 (en) Surface position detecting device and method
JPH0762604B2 (en) Alignment device
JP2004281904A (en) Position measuring apparatus, exposure apparatus, and manufacturing method of device
JPH0927449A (en) Position detection method applicable to proximity exposure
JPH11201719A (en) Position measuring device and laser beam machining device
JP7382904B2 (en) Device for measuring masks for microlithography and automatic focusing method

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040621

A131 Notification of reasons for refusal

Effective date: 20040629

Free format text: JAPANESE INTERMEDIATE CODE: A131

A521 Written amendment

Effective date: 20040729

Free format text: JAPANESE INTERMEDIATE CODE: A523

A131 Notification of reasons for refusal

Effective date: 20041214

Free format text: JAPANESE INTERMEDIATE CODE: A131

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050510

A61 First payment of annual fees (during grant procedure)

Effective date: 20050607

Free format text: JAPANESE INTERMEDIATE CODE: A61

R150 Certificate of patent (=grant) or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080617

Year of fee payment: 3

FPAY Renewal fee payment (prs date is renewal date of database)

Year of fee payment: 4

Free format text: PAYMENT UNTIL: 20090617

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100617

Year of fee payment: 5

FPAY Renewal fee payment (prs date is renewal date of database)

Year of fee payment: 5

Free format text: PAYMENT UNTIL: 20100617

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110617

Year of fee payment: 6

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110617

Year of fee payment: 6

FPAY Renewal fee payment (prs date is renewal date of database)

Year of fee payment: 7

Free format text: PAYMENT UNTIL: 20120617

LAPS Cancellation because of no payment of annual fees