DE19808707C2 - Auf nahe Belichtung angewendetes Positionsdetektionsverfahren - Google Patents
Auf nahe Belichtung angewendetes PositionsdetektionsverfahrenInfo
- Publication number
- DE19808707C2 DE19808707C2 DE19808707A DE19808707A DE19808707C2 DE 19808707 C2 DE19808707 C2 DE 19808707C2 DE 19808707 A DE19808707 A DE 19808707A DE 19808707 A DE19808707 A DE 19808707A DE 19808707 C2 DE19808707 C2 DE 19808707C2
- Authority
- DE
- Germany
- Prior art keywords
- mask
- light
- wafer
- image
- optical
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000001514 detection method Methods 0.000 title claims description 76
- 235000012431 wafers Nutrition 0.000 claims description 251
- 230000003287 optical effect Effects 0.000 claims description 157
- 238000009825 accumulation Methods 0.000 claims description 24
- 230000007246 mechanism Effects 0.000 claims description 17
- 230000004907 flux Effects 0.000 claims description 14
- 230000005540 biological transmission Effects 0.000 claims description 12
- 238000005286 illumination Methods 0.000 claims description 11
- 239000011159 matrix material Substances 0.000 claims description 11
- 230000015654 memory Effects 0.000 claims description 8
- 239000000758 substrate Substances 0.000 claims description 8
- 239000004065 semiconductor Substances 0.000 claims description 5
- 230000008859 change Effects 0.000 claims description 4
- 238000005520 cutting process Methods 0.000 claims description 3
- 230000007935 neutral effect Effects 0.000 claims description 3
- 241001465754 Metazoa Species 0.000 claims 1
- 230000035508 accumulation Effects 0.000 description 22
- 238000000034 method Methods 0.000 description 14
- 230000001360 synchronised effect Effects 0.000 description 13
- 230000006870 function Effects 0.000 description 12
- 238000009826 distribution Methods 0.000 description 10
- 238000012545 processing Methods 0.000 description 6
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 4
- 230000004075 alteration Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000006073 displacement reaction Methods 0.000 description 4
- 238000004519 manufacturing process Methods 0.000 description 4
- 229910052710 silicon Inorganic materials 0.000 description 4
- 239000010703 silicon Substances 0.000 description 4
- 239000000463 material Substances 0.000 description 3
- 238000000059 patterning Methods 0.000 description 3
- 238000005406 washing Methods 0.000 description 3
- 230000010354 integration Effects 0.000 description 2
- 239000012528 membrane Substances 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 229910021420 polycrystalline silicon Inorganic materials 0.000 description 2
- 229920005591 polysilicon Polymers 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000001228 spectrum Methods 0.000 description 2
- 108700028369 Alleles Proteins 0.000 description 1
- 206010012289 Dementia Diseases 0.000 description 1
- 101150087426 Gnal gene Proteins 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000005530 etching Methods 0.000 description 1
- 230000004313 glare Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03F—PHOTOMECHANICAL PRODUCTION OF TEXTURED OR PATTERNED SURFACES, e.g. FOR PRINTING, FOR PROCESSING OF SEMICONDUCTOR DEVICES; MATERIALS THEREFOR; ORIGINALS THEREFOR; APPARATUS SPECIALLY ADAPTED THEREFOR
- G03F9/00—Registration or positioning of originals, masks, frames, photographic sheets or textured or patterned surfaces, e.g. automatically
- G03F9/70—Registration or positioning of originals, masks, frames, photographic sheets or textured or patterned surfaces, e.g. automatically for microlithography
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Exposure And Positioning Against Photoresist Photosensitive Materials (AREA)
Description
Diese Anwendung basiert auf den japanischen Patentan
meldungen Nr. 9-46525, 9-46526 und 9-46527, die alle am
28. Februar 1997 angemeldet wurden, und auf Nr. 9-
253786, angemeldet am 18. September 1997. Der gesamte
Inhalt dieser Anmeldungen ist durch Referenz eingearbeitet.
Die vorliegende Erfindung bezieht sich auf ein Positions
detektionsverfahren, das von Kanten oder Scheiteln gestreu
tes Licht nutzt, und spezieller auf ein Positionsdetektions
verfahren, eine Positionsdetektorvorrichtung und eine Aus
richtungsmarke, die für einen verbesserten Durchsatz von
Nahbelichtung geeignet sind.
Eine senkrechte Detektionsmethode und eine geneigte
Detektionsmethode sind als Positionsausrichtung eines Wa
fers und einer Maske durch Nutzung eines Ausrichtungssy
stems, das aus einem Linsensystem und einem Bildverarbei
tungssystem besteht, bekannt. Die senkrechte Detektions
methode beobachtet Ausrichtungsmarken entlang einer
Richtung, die vertikal zur Maskenoberfläche steht, während
die geneigte Detektionsmethode Ausrichtungsmarken ent
lang einer Richtung beobachtet, die geneigt zur Masken
oberfläche ist.
Eine chromatische Bifokalmethode, die als Fokussie
rungsmethode für das senkrechte Detektionsverfahren be
nutzt wird, ist bekannt. Mit dieser chromatischen Bifokal
methode werden eine auf einer Maske befindlichen Masken
marke und eine auf einem Wafer befindliche Wafermarke
mit Licht unterschiedlicher Wellenlängen beobachtet und
auf dieselbe flache Ebene fokussiert, indem man die chro
matische Aberration des Linsensystems nutzt. Dieses Ver
fahren kann die optische Auflösung einer Linse prinzipiell
hochsetzen, so daß die absolute Genauigkeit der Positions
detektion gesteigert werden kann.
Da jedoch die Ausrichtungsmarken (die Maskenmarken
und die Wafermarken) entlang der senkrechten Richtung be
obachtet werden, befindet sich das optische System im Be
lichtungsgebiet. Wird in diesem Stadium eine Belichtung
vorgenommen, so schneidet das optische System das Be
strahlungslicht. Es ist deshalb erforderlich, das optische Sy
stem aus dem Belichtungsgebiet zurückzuziehen, wenn Be
lichtung vorgenommen wird. Die für das Zurückziehen des
optischen Systems aus dem Belichtungsgebiet erforderliche
Zeit verringert den Durchsatz. Weiterhin können die Aus
richtungsmarken während der Belichtung nicht beobachtet
werden, und deren Positionen können nicht detektiert wer
den. Dies kann eine geringe Ausrichtungsgenauigkeit wäh
rend der Belichtung verursachen.
Bei dem geneigten Detektionsverfahren ist die optische
Achse geneigt zur Maskenoberfläche angeordnet, so daß das
optische System an einer Position lokalisiert werden kann,
bei der es sich nicht mit dem Bestrahlungslicht schneidet. Es
ist deshalb unnötig, das optische System während der Be
lichtung zurückzuziehen, und die Ausrichtungsmarken kön
nen sogar während der Belichtung beobachtet werden. Es ist
möglich, eine falsche Positionsausrichtung während der Be
lichtung zu verhindern, ohne den Durchsatz zu verringern.
Mit diesem geneigten Detektionsverfahren werden je
doch die schräg beobachteten Wafer- und Maskenmarken
fokussiert, so daß die absolute Genauigkeit der Positionsde
tektion durch Bildverzerrungen vermindert wird. Da weiter
hin die optische Achse des Beleuchtungslichtes nicht mit
der optischen Achse des Beobachtungslichtes überein
stimmt, ist es möglich, beide Achsen koaxial anzuordnen.
Deshalb ist die Beleuchtungslichtachse einfach von einer
ideal optischen Achse zu verschieben. Wird die Beleuch
tungslichtachse von der ideal optischen Achse verschoben,
so werden die Bilder verzerrt und eine korrekte Positionsde
tektion wird schwierig.
Es ist ein Ziel der vorliegenden Erfindung, ein Positions
detektionsverfahren mit hoher Ausrichtungsgenauigkeit und
ohne Durchsatzverminderung zur Verfügung zu stellen, bei
dem die Positionsdetektion während der Belichtung möglich
ist.
Entsprechend eines Aspekts der vorliegenden Erfindung
umfaßt das Positionsdetektionsverfahren folgende Schritte:
Anordnung eines Wafers mit einer Belichtungsoberfläche
und einer Belichtungsmaske, mit einer zwischen die Belich
tungsoberfläche und die Belichtungsmaske eingefügter
Lücke, der Wafer mit einer Wafermarke auf der Belich
tungsoberfläche, die Wafermarke mit Kanten zur Streuung
einfallenden Lichtes, jede Kante mit einem gekrümmten
Teil, dessen senkrecht auf eine zur Belichtungsoberfläche
parallele Ebene projiziertes Bild eine gekrümmte Form hat,
die Belichtungsmaske mit einer Maskenmarke auf der Ober
fläche, die Maskenmarke mit Kanten zur Streuung einfallen
den Lichtes, jede Kante mit einem gekrümmten Teil, dessen
vertikal auf eine zur Oberfläche der Belichtungsmarke par
allele Ebene projiziertes Bild eine gekrümmte Form hat; und
Detektion der relativen Position des Wafers und der Belich
tungsmaske durch Anwendung von Beleuchtungslicht auf
die gekrümmten Teile der Kanten des Wafers und der Mas
kenmarken und durch Beobachtung des von den gekrümm
ten Teilen gestreuten Lichtes entlang einer zur Belichtungs
oberfläche geneigten Richtung.
Da das von den Kanten gestreute Licht schräg beobachtet
wird, kann das optische Beobachtungssystem so angeordnet
sein, daß es nicht in das Belichtungsgebiet eintritt. Es ist
nicht notwendig, das optische System während der Belich
tung zurückzuziehen und es ist möglich, das von Kanten ge
streute Licht selbst während der Belichtung zu beobachten.
Da die Kante ein gekrümmtes Teil besitzt, können durch die
Einflüsse der Toleranzen im Produktionsprozeß verursachte
Variationen in den Formen und Positionen der Kanten redu
ziert werden.
Entsprechend eines anderen Aspekts der vorliegenden Er
findung wird ein Halbleitersubstrat mit einer Belichtungs
oberfläche zur Verfügung gestellt, die mit einer Vielzahl von
Ausrichtungswafermarken entlang einer zur Einfallsebene
des einfallenden Lichtes senkrechten Richtung gebildet ist.
Jede Wafermarke besitzt eine Kante zur Streuung von ein
fallendem Licht. Außerdem wird ein Kantenbild senkrecht
auf die Belichtungsoberfläche projiziert, das zumindest ei
nen gekrümmten Teil besitzt.
Entsprechend eines anderen Aspekts der vorliegenden Er
findung wird eine Belichtungsmaske zur Verfügung gestellt,
die eine Vielzahl von Ausrichtungsmaskenmarken besitzt,
welche entlang einer zur Einfallsebene von einfallendem
Licht senkrechten Richtung angeordnet sind. Jede Masken
marke besitzt eine Kante zur Streuung von einfallendem
Licht. Außerdem entsteht ein Kantenbild, das senkrecht auf
die Oberfläche der Belichtungsmaske projiziert wird, und
welches mindestens einen gekrümmten Teil besitzt.
Da eine Kante einen gekrümmten Teil besitzt, kann eine
durch die Einflüsse der Toleranzen beim Herstellungsprozeß
verursachte Variation in den Formen und Positionen der
Kanten reduziert werden. Da eine Vielzahl von Kanten ent
lang einer zu einer Einfallsoberfläche senkrechten Richtung
angeordnet sind, kann eine Vielzahl von Bildern gleichzeitig
beobachtet werden. Eine relative Position kann leicht detek
tiert werden, indem man diese Bilder parallel zueinander be
wegt und die Bilder aufeinander überlagert.
Entsprechend einem anderen Aspekt der vorliegenden Er
findung wird ein Positionsdetektionsverfahren zur Verfü
gung gestellt, das aus folgenden Schritten besteht: Anord
nen eines Bauteils mit einer zu belichtenden Belichtungs
oberfläche und einer Belichtungsmaske, mit einer zwischen
die Belichtungsoberfläche und die Belichtungsmaske einge
führten Lücke, das Bauteil besitzt eine auf der Belichtungs
oberfläche befindliche Ausrichtungsmarke, die Ausrich
tungsmarke besitzt Kanten oder Scheitel zur Streuung von
einfallendem Licht, die Belichtungsmaske besitzt eine auf
seiner Oberfläche befindliche Maskenmarke, die Masken
marke besitzt Kanten oder Scheitel zur Streuung von einfal
lendem Licht; und Detektieren einer relativen Position des
Bauteiles und der Belichtungsmaske durch Beleuchtung der
Kanten oder Scheitel der Ausrichtungs- und Maskenmar
ken, durch Fokussieren des von den Ausrichtungs- und Mas
kenmarken gestreuten Lichtes auf eine Lichtempfänger
ebene, und durch Beobachten von Bildern auf der Lichtemp
fängerebene, wobei ein von den Ausrichtungs- und Masken
marken gestreuter Lichtstrom unterdrückt wird oder von so
wohl den Ausrichtungs- und Maskenmarken gestreute
Lichtströme unterschiedlich unterrückt werden, so daß eine
Lichtintensität eines Bildes, das durch den von der Ausrich
tungsmarke gestreuten Lichtstrom erzeugt und auf die
Lichtempfängerebene fokussiert wird, sich der Lichtintensi
tät eines Bildes annähert, das von einem an der Masken
marke gestreuten Lichtstrom erzeugt und auf die Lichtemp
fängerebene fokussiert wird.
Die Kanten und Scheitel der Ausrichtungs- und Masken
marken ermöglichen die Beobachtung des gestreuten Lich
tes, da ein Bild durch einen Streulichstrom in der Apertur ei
ner Objektivlinse des optischen Beobachtungssystems er
zeugt wird. Selbst wenn Beleuchtungslicht in einer Rich
tung ausgestrahlt wird, die nur das von den Kanten gestreute
Licht einfallen läßt, so kann kantengestreutes Licht beob
achtet werden, da normales Reflexionslicht von den Aus
richtungs- und Maskenmarken nicht auf das optische Beob
achtungssystem einfällt. Da das Streulicht geneigt beobach
tet wird, muß das optische System nicht in dem Belichtungs
gebiet angeordnet werden. Dementsprechend ist es nicht
notwendig, das optische Beobachtungssystem während der
Belichtung zurückzuziehen, und die Positionsdetektion ist
immer möglich, selbst während der Belichtung. Da die In
tensitäten des von den Ausrichtungs- und Maskenmarken
gestreuten Lichtes angenähert werden, können Bildsignale,
die zu Bildern auf einer Fokusebene gehören, mit einem ho
hen Signalrauschverhältnis gewonnen werden.
Entsprechend einem anderen Aspekt der vorliegenden Er
findung wird eine Positionsdetektorvorrichtung zur Verfü
gung gestellt bestehend aus: einem optischen Beleuch
tungssystem zur Beleuchtung eines Bauteils, das eine zu be
lichtende Belichtungsoberfläche besitzt, und zur Beleuch
tung einer Maske, die parallel zu dem Bauteil angeordnet
und durch eine Lücke von der Belichtungsoberfläche ent
fernt ist; und ein optisches Beobachtungssystem mit einer
zur Belichtungsoberfläche des Bauteils geneigten optischen
Achse, für die Fokussierung des vom Bauteil gestreuten
Lichtes und der Maske auf eine Lichtempfängerebene, das
optische Beobachtungssystem bestehend aus einem opti
schen Filter, der unmittelbar vor der Lichtempfängerebene
angeordnet ist und ein Transmissionsfaktor eines optischen
Filters, der sich in einem Gebiet, das einem Gebiet ent
spricht, wo das von dem Bauteil gestreute Licht fokussiert
wird, unterscheidet von einem Gebiet, das einem Gebiet ent
spricht, wo das in der Maske gestreute Licht fokussiert wird.
Durch geeignete Auswahl der Transmissionsfaktoren von
zwei Gebieten eines optischen Filters werden die Intensitä
ten von Bildern auf der Fokusebene, die durch von den Aus
richtungs- und Maskenmarken gestreutes Licht erzeugt wer
den, aneinander angenähert. Dementsprechend können
Bildsignale, die zu Bildern auf der Fokusebene gehören, mit
einem hohen Signalrauschverhältnis gewonnen werden.
Entsprechend einem anderen Aspekt der vorliegenden Er
findung wird eine Positionsdetektionsvorrichtung zur Verfü
gung gestellt, bestehend aus: einem optischen Beleuch
tungssystem zur Beleuchtung eines Wafers und einer
Maske, die an eine Lücke angrenzt und die sich um diese
Lücke vom Wafer entfernt befindet; ein erstes optisches Be
obachtungssystem mit einer zu einer Belichtungsoberfläche
des Wafers geneigten optischen Achse, für die Fokussierung
des vom Wafer und der Maske reflektierten und gestreuten
Lichtes auf eine erste Lichtempfängerebene; und ein zweites
optisches Beobachtungssystem zur Fokussierung des von ei
nem Teilreflexionsspiegels reflektierten Lichtes, der entlang
der optischen Achse des ersten optischen Beobachtungssy
stems angeordnet ist, auf eine zweite Lichtempfängerebene.
Das zweite optische Beobachtungssystem hat einen Vergrö
ßerungsfaktor, der sich von dem Vergrößerungsfaktor des
ersten optischen Beobachtungssystems unterscheidet.
Da das reflektierte oder gestreute Licht schräg beobachtet
wird, muß das optische System nicht im Belichtungsgebiet
angeordnet werden. Dementsprechend ist es nicht notwen
dig, das optische Beobachtungssystem während der Belich
tung zurückzuziehen, und die Positionsdetektion ist immer
möglich, selbst während der Beleuchtung. Es ist möglich,
eine grobe Positionsausrichtung durch die Nutzung eines
des ersten oder zweiten optischen Beobachtungssystems mit
einem niedrigeren Vergrößerungsfaktor vorzunehmen, und
eine Feinpositionsausrichtung durch die Nutzung des ande
ren optischen Systems mit einem höheren Vergrößerungs
faktor vorzunehmen.
Entsprechend eines anderen Aspekts der vorliegenden Er
findung wird ein Positionsdetektionsverfahren zur Verfü
gung gestellt, bestehend aus den Schritten: Anordnen eines
Wafers mit einer Belichtungsoberfläche und einer Maske,
mit einer zwischen die Belichtungsoberfläche und die Be
lichtungsmaske eingebrachte Lücke, der Wafer mit einer auf
der Belichtungsoberfläche befindlichen Wafermarke, die
Wafermarke mit Kanten oder Scheiteln zur Streuung einfal
lenden Lichtes, die Maske mit einer Maskenmarke mit Kan
ten oder Scheiteln zur Streuung einfallenden Lichtes; grobe
Detektion einer relativen Position des Wafers und der Maske
durch Beleuchten der Kanten oder Scheitel der Wafer- und
Maskenmarken und durch Beobachtung des von den Wafer-
und Maskenmarken gestreuten Lichtes mit einem ersten op
tischen Beobachtungssystems, das eine zur Belichtungs
oberfläche geneigte optische Beobachtungsachse besitzt;
Verschiebung des Wafers und/oder der Maske entsprechend
der Detektionsergebnisse, die bei der groben Bestimmung
der relativen Position zur groben Ausrichtung des Wafers
und der Maske gewonnen wurden; feine Detektion der rela
tiven Position des Wafers und der Maske durch Beobachten
des vom Wafer und der Maskenmarke gestreuten Lichtes
mit einem zweiten optischen Beobachtungssystem, das die
selbe optische Beobachtungsachse wie das erste optische
Beobachtungssystem besitzt, und das einen höheren Vergrö
ßerungsfaktor als das erste optische Beobachtungssystem
hat; und Bewegen des Wafers und/oder der Maske zur Fein
ausrichtung des Wafers und der Maske entsprechend der Detektionsergebnisse,
die bei der Feindetektion der relativen
Position gewonnen wurde.
Vor der Feinpositionsausrichtung wird eine grobe Positi
onsausrichtung durch Nutzung eines optischen Systems mit
niedrigerem Vergrößerungsfaktor vorgenommen. Dement
sprechend ist eine hohe Positionsausrichtungsgenauigkeit
nicht erforderlich, wenn der Wafer und die Maske erstmals
gehalten werden.
Entsprechend eines anderen Aspekts der vorliegenden Er
findung wird ein Positionsdetektionsverfahren zur Verfü
gung gestellt, bestehend aus den Schritten: Anordnen eines
ersten Bauteils mit einer Hauptoberfläche und eines zweiten
Bauteils, das an die Hauptoberfläche angrenzt und um eine
Lücke von der Hauptoberfläche entfernt ist, das erste Bauteil
mit einer auf der Hauptoberfläche befindlichen ersten Aus
richtungsmarke zur Streuung einfallenden Lichtes, und das
zweite Bauteil mit einer zweiten Ausrichtungsmarke zur
Streuung einfallenden Lichtes; Fokussieren des auf die er
sten und zweiten Marken auftreffenden und dort gestreuten
Lichtes auf eine Lichtempfängerebene über ein bündelndes
optisches System mit einer zur Hauptoberfläche geneigten
optischen Achse, wobei die lichtempfangenden Elemente
auf der Lichtempfängerebene in Matrixform angeordnet
sind und die Reihenrichtung der Lichtempfängerebene der
Richtung einer Schnittlinie zwischen der Hauptoberfläche
und einer zur optischen Achse des bündelnden optischen
Systems senkrecht stehenden virtuellen Ebene entspricht;
Ableiten eines ersten zweidimensionalen Teilbildes und ei
nes zweiten zweidimensionalen Teilbildes, welche ähnlich
zu einem Referenzmuster sind, von einem Bild, das durch
von der ersten Marke gestreuten Lichts erzeugt und auf die
Lichtempfängerfläche fokussiert wird, und von einem Bild,
das von an einer zweiten Marke gestreutem Licht erzeugt
wird und auf eine Lichtempfängerebene fokussieret wird;
Erzeugen eines synthetisierten ein-dimensionalen Bildsi
gnales durch Akkumulation in Spaltenrichtung von Bildsi
gnalen von Pixeln in einem ersten Gebiet, das das erste
zwei-dimensionale Teilbild einschließt, und in einem zwei
ten Gebiet, das das zweite zwei-dimensionale Teilbild ein
schließt; und Gewinnen einer relativen Position der ersten
und zweiten Marken entsprechend dem synthetisierten ein
dimensionalem Bildsignal.
Entsprechend eines anderen Aspektes der vorliegenden
Erfindung wird eine Positionsdetektionsvorrichtung zur
Verfügung gestellt, bestehend aus: Beleuchtungsbaugruppe
zur Beleuchtung eines ersten Bauteiles mit einer Hauptober
fläche mit einer ersten Ausrichtungsmarke zur Streuung ein
fallenden Lichtes und zur Beleuchtung eines zweiten Bau
teiles mit einer zweiten Ausrichtungsmarke zur Streuung
einfallenden Lichtes, das zweite Bauteil wird gehalten, wo
bei die Oberfläche mit der zweiten Marke zur Hauptoberflä
che zeigt; Bilddetektionsbaugruppe mit einer Lichtempfän
gerebene, auf der Pixel in Matrixform angeordnet sind, ge
nannte Bilddetektionsbaugruppe zur Erzeugung von zu den
Pixeln zugehörigen Bildsignalen entsprechend der Lichtin
tensität, die die Pixel empfangen; bündelndes optisches Sy
stem mit einer zur Oberfläche geneigten optischen Achse
zur Fokussierung von an den ersten und zweiten Marken ge
streuten Lichts auf die Lichtempfängerebene; Referenzmu
sterspeicherbaugruppe zur Speicherung eines Referenzmu
sters; und Steuerbaugruppe zur Ableitung eines ersten zwei-
dimensioanlen Teilbildes und eines zweiten zweidimensio
nalen Teilbildes, die jeweils ähnlich zu einem in der Refe
renzmusterspeicherbaugruppe gespeicherten Referenzmu
ster sind, von einem Bild, das durch von der ersten Marke
gestreuten Lichts erzeugt und auf die Lichtempfängerebene
fokussiert wird, und von einem Bild, das durch an der zwei
ten Marke gestreuten Lichts erzeugt und auf die Lichtemp
fängerebene fokussiert wird, ein synthetisiertes ein-dimen
sionales Bildsignal erzeugend durch die Akkumulation in
Spaltenrichtung von Bildsignalen der Pixel in einem ersten
Teilgebiet, das das erste zweidimensionale Teilbild ein
schließt, und in einem zweiten Teilgebiet, das das zweite
zwei-dimensionale Teilgebiet einschließt, und Gewinnen ei
ner relativen Position der ersten und zweiten Marken ent
sprechend dem synthetisierten ein-dimensionalen Bildsi
gnal. Da das gestreute Licht schräg beobachtet wird, ist es
nicht notwendig, das bündelnde optische System in den Ge
bieten, in denen die ersten und zweiten Marken gebildet
sind, anzuordnen. Dementsprechend können die Gebiete der
ersten und zweiten Marken ohne Zurückziehen des bündeln
den optischen Systems belichtet werden. Durch Akkumula
tion der Bildsignale in der Spaltenrichtung kann ein Signal
rauschverhältnis verbessert werden. Da die Akkumulation
nur für Teilgebiete vorgenommen wird, kann die Akkumula
tionsberechnungszeit verkürzt werden.
Entsprechend eines anderen Aspekts der vorliegenden Er
findung wird ein Positionsdetektionsverfahren zur Verfü
gung gestellt, bestehend aus den Schritten: Fokussieren
zweier Bilder auf eine Lichtempfängerebene mit in Matrix
form angeordneten lichtempfangenden Elementen zur Er
zeugung eines Bildsignals entsprechend dem einfallenden
Licht, Erzeugen der beiden Bilder an verschiedenen Positio
nen in der Spaltenrichtung der Lichtempfängerebene; in
Spaltenrichtung akkumulieren von Bildsignalen von Pixeln
in zwei Gebieten, von denen jedes teilweise mindestens ei
nen Teil jedes der beiden Bilder überlappt; und Gewinnen
einer relativen Position der beiden Bilder entsprechend ei
nem Bildsignal, das im Akkumulationsschritt akkumuliert
wurde.
Entsprechend eines anderen Aspektes der vorliegenden
Erfindung wird eine Positionsdetektionsvorrichtung zur
Verfügung gestellt, bestehend aus: einer Lichtempfänger
ebene mit in Matrixform angeordneten lichtempfangenden
Elementen zur Erzeugung eines Bildsignals entsprechend
dem einfallenden Licht; und Steuerbaugruppe zur Bestim
mung zweier Gebiete, von denen jedes mindestens einen
Teil jedes der beiden auf der lichtempfangenden Ebene ge
formten Bilder teilweise überlappt, Akkumulieren der Bild
signale der Pixel in den beiden Gebieten in der Spaltenrich
tung, und Gewinnen einer relativen Position der beiden Bil
der entsprechend dem durch Akkumulation gewonnenem
Bildsignal.
Die Akkumulation in der Spaltenrichtung verbessert das
Signalrauschverhältnis. Da die Akkumulation nur für Teil
gebiete vorgenommen wird, kann die Berechnungszeit für
die Akkumulation verkürzt werden.
Fig. 1A ist eine Querschnittsansicht einer Positionsdekti
onsvorrichtung, die von der ersten und zweiten Ausfüh
rungsform der Erfindung genutzt wird, und die ebenfalls
durch die in der Vergangenheit gemachten Vorschläge des
Erfinders genutzt wurden.
Fig. 1B ist eine Draufsicht der Wafer- und Maskenmar
ken. Fig. 1C ist ein Diagramm, das die Kantenbilder der in
Fig. 1B gezeigten Wafer- und Maskenmarken zeigt, die
durch an den Kanten gestreutes Licht gebildet werden, und
eine Lichtintensitätsverteilung auf der Bildebene. Fig. 1B ist
eine schematische Querschnittsansicht der Wafer- und Mas
kenoberflächen nahe an einer Objektebene;
Fig. 2A, 2C und 2E sind Perspektivansichten von Wafer
marken, und Fig. 2B und 2D zeigen auf der Fokusebene er
zeugte Bilder;
Fig. 3 ist eine Draufsicht, die Wafer- und Maskenmarken
mit Scheiteln zeigt, von denen Beleuchtungslicht gestreut
wird;
Fig. 4A und 4B sind Draufsichten und Perspektivansich
ten, die Kantenmuster zeigen, die auf einer Wafermarke ent
sprechend der ersten Ausführungsform der Erfindung beste
hen;
Fig. 5 ist ein Diagramm, das die Lichtintensitätsvertei
lung eines Bildes einer Kante der in Fig. 4A gezeigten Wa
fermarke darstellt, welches durch von dort gestreutes Licht
erzeugt wird;
Fig. 6A und 6B sind Draufsichten, die Beispiele des Lay
outs der Wafer- und Maskenmarken entsprechend der ersten
Ausführungsform der Erfindung zeigen;
Fig. 7A ist eine Draufsicht von Wafer- und Maskenmar
ken,
Fig. 7B ist eine Querschnittsansicht entlang der Punktli
nie B2-B2 in Fig. 7A; Fig. 7C ist eine Querschnittsansicht
entlang der Punktlinie C2-C2;
Fig. 8 ist eine Skizze von Bildern der in Fig. 7A darge
stellten Wafer- und Maskenmarken, die durch von den Mar
ken gestreutes Licht erzeugt werden;
Fig. 9A und 9B sind Graphen, die Bildsignale zeigen, die
die zweite Ausführungsform illustrieren, in welcher die Wa
fermarken aus verschiedenen Materialien bestehen;
Fig. 10A ist eine Querschnittsansicht, die eine Region
nahe der Fokusebene der Positionsdetektionsvorrichtung
entsprechend der zweiten Ausführungsform der Erfindung
zeigt; und Fig. 10B ist eine Vorderansicht eines in Fig. 10A
dargestellten optischen Filters;
Fig. 11 ist ein Diagramm, das die grundlegende Struktur
einer Positionsdetektionsvorrichtung zeigt, die durch die
dritte und vierte Ausführungsform der Erfindung benutzt
wird;
Fig. 12A ist eine schematische Entwurfsansicht, die eine
Lichtempfängerebene mit Bildern von Wafer- und Masken
marken zeigt, die durch an den Marken gestreutes Licht er
zeugt werden; und Fig. 12B ist ein Diagramm, das ein von
der vierten Ausführungsform benutztes Referenzmuster
zeigt;
Fig. 13 ist ein Graph, der ein-dimensionale synthetisierte
Bildsignale zeigt, die von der vierten Ausführungsform ge
wonnen werden;
Fig. 14 ist eine Querschnittsansicht entlang der in Fig. 7A
dargestellten Punktlinie C2-C2.
Vor der Beschreibung der Ausführungsformen dieser Er
findung sei bemerkt, daß die der japanische Patentanmel
dung Nr. 7-294485 (JP-A 139333) und der US-Patentanmel
dung Serial Nr. 08/650,170 entsprechenden deutschen An
meldungen zum Offenbarungsgehalt der vorliegenden An
meldung gemacht werden.
Fig. 1A ist eine schematische Querschnittsansicht einer
Positionsdetektionsvorrichtung, die durch die Ausführungs
formen der Erfindung genutzt wird und die ebenfalls in obi
gen '333 und '170 genutzt wurde. Die Positionsdetektions
vorrichtung besteht aus einer Wafer/Maskenhaltereinheit
10, einem optischen System 20 und einer Steuervorrichtung
(Controller) 30.
Die Wafer/Maskenhaltereinheit 10 umfaßt einen Wafer
halter 15, einen Maskenhalter 16 und einen Antriebsmecha
nismus 17. Für die Positionsausrichtung wird ein Wafer 11
auf der oberen Oberfläche des Waferhalters 15 und eine
Maske 12 auf der unteren Oberfläche des Maskenhalters 12
gehalten. Der Wafer 11 und die Maske 12 sind parallel aus
gerichtet, und eine voreingestellte Lücke befindet sich zwi
schen der Belichtungsoberfläche des Wafers 11 und der
Oberfläche (Maskenoberfläche) der Maske 12 auf der Wa
ferseite. Auf der Belichtungsoberfläche des Wafers 11 sind
Positionsausrichtungswafermarken 13 und auf der Masken
oberfläche der Maske 12 eine Positionsausrichtungsmasken
marke 14 ausgebildet.
Die Wafer- und Maskenmarken 13 und 14 haben Kanten
oder Scheitel, um einfallendes Licht zu streuen. Das Licht,
das auf diese Marken fällt, wird durch die Kanten oder
Scheitel gestreut und durch andere Gebiete regulär reflek
tiert. Reguläre Reflexion bedeutet, daß die meisten Kompo
nenten (Anteile) des einfallenden Lichts in dieselbe Rich
tung reflektiert werden.
Der Antriebsmechanismus 17 kann eine relative Bewe
gung des Waferhalters 15 und des Maskenhalters 16 erzeu
gen. Definiert man eine X-Achse als in die Richtung von
links nach rechts, wie in Fig. 1A gezeigt, zeigend, eine Y-
Achse als in die Richtung, die vertikal zum Zeichenblatt von
der Vorderseite zur Rückseite zeigt, zeigend und eine Z-
Achse als in die Richtung, die normal zur Belichtungsober
fläche zeigt, zeigend, so ist die relative Bewegung des Wa
fers 11 und der Maske 12 möglich in der X-Achsenrichtung,
Y-Achsenrichtung und Z-Achsenrichtung sowie in einer Ro
tationsrichtung Φz-Richtung) um die Z-Achse und in Rota
tionsrichtungen (Φx und Φy-Richtungen) um die X-Ach
senrichtung und Y-Achsenrichtung.
Das optische System 20 umfaßt einen Bilddetektor 21,
eine Linse 22, einen Halbspiegel 23 und eine Lichtquelle 24.
Die optische Achse 25 des optischen Systems 20 liegt paral
lel zur X-Z-Ebene und geneigt zur Belichtungsoberfläche.
Obwohl eine einzelne Linse in Fig. 1A gezeigt ist, können
bei Bedarf mehrere Linsen oder eine Relais-(Zwischen)-
Linse benutzt werden.
Das von der Lichtquelle 24 ausgesendete Beleuchtungs
licht wird vom Halbspiegel 23 reflektiert und bildet einen
Lichtstrom entlang der optischen Achse 25, welcher über
die Linse 22 geneigt auf die Belichtungsoberfläche einfällt.
Die Lichtquelle 24 ist am Fokus der Linse 22 auf der Bild
seite positioniert, so daß das von der Lichtquelle 24 ausge
sendete Beleuchtungslicht von der Linse 22 in einen paralle
len Lichtstrom (paralleles Strahlenbündel) kollimiert wird.
Die Intensität des Beleuchtungslichtes kann an der Licht
quelle eingestellt werden.
Von dem an den Kanten oder Scheiteln der Wafer- und
Maskenmarken 13 und 14 gestreuten Licht wird das auf die
Linse 22 einfallende Licht durch die Linse 22 konvergiert
und auf eine Lichtempfangsebene des Bilddetektors 21 fo
kusiert. Die Beleuchtung durch das optische System 20 ist
deshalb eine telezentrische Beleuchtung, bei der die selbe
optische Achse für sowohl die Beleuchtung als auch die Be
obachtung genutzt wird.
Der Bilddetektor 21 wandelt Bilder der Wafer- und Mas
kenmarken 13 und 14, die durch an den Kanten und Schei
teln gestreutes und auf die Lichtempfangsebene fokussiertes
Licht gebildet werden, photoelektrisch in Bildsignale um,
die als Input des Controllers 30 dienen.
Der Controller 30 verarbeitet den Bildsignalinput vom
Bilddetektor 21, um die relative Position der Wafer- und
Maskenmarken 13 und 14 zu detektieren. Der Controller 30
sendet ein Kontrollsignal zum Antriebsmechanismus 17, da
mit die Wafer- und Maskenmarken 13 und 14 eine vorbe
stimmte relative Position haben. Entsprechend diesem Kon
trollsignal wird der Waferhalter 15 oder Maskenhalter 16
bewegt.
Fig. 1B ist eine Draufsicht, die die relative Position der
Wafer- und Maskenmarken 13 und 14 zeigt. Eine Marke be
steht aus drei rechteckigen Mustern, die in der X-Achsen
richtung angeordnet sind, wobei jede Seite des rechteckigen
Musters parallel zur X- oder Y-Achse ist. Wie später beschrieben
wird, können drei oder mehr rechteckige Muster
angeordnet sein. Die Maskenmarke 14 ist zwischen einem
Paar von Wafermarken 13 angeordnet.
Die Wafer- und Maskenmarken 13 und 14 sind in Fig. 1A
als Querschnittsansichten entlang der Punktlinie A1-A1, die
in Fig. 1B gezeigt ist, dargestellt. Das auf die Wafer- und
Maskenmarken 13 und 14 einfallende Beleuchtungslicht
wird von der Kante jedes in Fig. 1B gezeigten rechteckigen
Musters gestreut und bildet entlang der optischen Achse ab.
Licht, welches auf andere Gebiete als die Kanten einfällt,
wird regulär reflektiert und fällt nicht auf die Linse 22 ein.
Der Bilddetektor 21 kann deshalb nur das von den Kanten
gestreute Licht empfangen.
Als nächstes werden die Charakteristiken eines Bildes,
das von an den Kanten gestreuten Licht gebildet wird, be
schrieben.
Eine Lichtintensitätsverteilung T(x, y) eines durch inko
härentes monochromatisches Licht erzeugten Bildes ist
durch die folgende Gleichung (1) gegeben:
I(x, y) = ∫∫O(x-x', y-y").PSF(x', y')dx'dy' (1)
wobei die Koordinaten (x, y) eine Position auf der Oberflä
che eines Beobachtungsobjekts, O(x, y) eine Intensitätsver
teilung des vom Beobachtungsobjekts reflektierten Lichtes,
PSF(x, y) eine (Punktverwaschungsfunktion) einer Linse re
präsentieren und das Integral über die gesamte Oberfläche
des Beobachtungsobjekts ausgeführt wird.
Betrachtet man eine Kante jedes Bild in Fig. 1B darge
stellten rechteckigen Musters, so kann diese Kante als in der
Y-Achse angeordnete lichtreflektierende feine Punkte ange
sehen werden. Es wird angenommen, daß die Intensitätsver
teilung des Lichtes, das von einem derartigen feinen Punkt
reflektiert wird, eine Dirac-Delta-Funktion δ ist. Es ist prak
tisch, die Intensitätsverteilung des von einem feinen Punkt
gestreuten Lichtes an eine Delta-Funktion zu approximie
ren. Nimmt man an, daß die Kante sich innerhalb des Berei
ches der Y-Achse ausdehnt, indem der Isoplanatismus der
Linse erfüllt ist, so kann O(x, y) durch δ(x) ersetzt werden.
Deshalb kann die Gleichung (1) durch die folgende Glei
chung (2) dargestellt werden:
I(x) = ∫∫δ(x - x').PSF(x', y')dx'dy'
= PSF(x, y)dy' (2)
wobei I(x) eine Linienverwaschungsfunktion einer Linse
darstellt, welche gegeben ist durch:
I(x) = LSF(x) (3)
wobei LSF(x) die Linienverwaschungsfunktion der Linse
darstellt.
Wenn das Beleuchtungslicht ein kontinuierliches Spek
trum hat, so kann I(x) gegeben sein durch:
I(x) = ∫LSFλ(x - Δxλ)dλ (4)
wobei λ die Lichtwellenlänge, LSFλ die Linienverwa
schungsfunktion bei der Wellenlänge λ, Δxλ eine durch
chromatische Linsenaberrationen bei der Wellenlänge λ ver
ursachte laterale Verschiebung eines Linienbildes ist, und
das Integral über den gesamten Wellenlängenbereich ausge
führt wird.
Aus Gleichung (4) kann gesehen werden, daß die Beob
achtung von an einer Kante gestreuten Lichts äquivalent zur
Beobachtung der Linienverwaschungsfunktion der Linse ist.
Ein stabiles Bild kann deshalb immer durch die Beobach
tung von an der Kante gestreutem Licht erhalten werden,
ohne daß man durch die ebene Intensitätsverteilung des vom
Beobachtungsobjekts reflektierten Lichtes beeinflußt wird.
Der linke Teil der Fig. 1C zeigt die Gestalt eines von ge
streutem Licht geformten Bildes, das sich auf der Lichtemp
fängerebene des in Fig. 1A dargestellten Bilddetektors 21
befand. Definiert man die x-Achse als in die Richtung (ent
sprechend zu der X-Achsenrichtung der Belichtungsoberflä
che) einer Schnittlinie zwischen der Einfallsebene ein
schließlich der optischen Achse für die Beobachtung und
der Lichtempfängerebene zeigend und die y-Achse als in die
Richtung (entsprechend zu der Y-Achse der Belichtungs
oberfläche) zeigend, die senkrecht zu der X-Achse der
Lichtempfängerebene zeigt, so hat ein von einer Kante ge
formtes Bild die Gestalt einer zur Y-Achse parallelen gera
den Linie. Das Bild jeder Marke hat deshalb eine Gestalt,
die von drei geraden Linien gebildet wird, welche parallel
zur y-Achse sind und in x-Achsenrichtung aneinander an
grenzen.
Zwischen einem Paar von Bildern 13A der Wafermarken
13, die von kantengestreutem Licht gebildet werden, er
scheint ein von kantengestreutem Licht erzeugtes Bild 14A
der Maskenmarke 14. Da die optische Achse für die Beob
achtung zur Belichtungsoberfläche geneigt ist, werden das
Bild 14A der Markenmarke und die Bilder 13A der Wafer
marken an verschiedenen Positionen entlang der x-Achsen
richtung empfangen.
Der rechte Teil der Fig. 1C zeigt eine Lichtintensitätsver
teilung der Wafermarkenbilder 13A und des Maskenmar
kenbildes 14A entlang der y-Achsenrichtung. Eine Entfer
nung in der y-Achsenrichtung zwischen einem Wafermar
kenbild 13A und dem Maskenmarkenbild 14A ist durch y1
repräsentiert, und eine Entfernung in der y-Achsenrichtung
zwischen dem anderen Wafermarkenbild 13A und dem
Maskenmarkenbild 14A ist durch y2 repräsentiert. Durch
Messen von y1 und y2 ist es möglich, die relative Position
der in Fig. 1B dargestellten Wafer- und Maskenmarken 13
und 14 in der y-Achsenrichtung zu detektieren, d. h. in der
zur Einfallsebene des Beleuchtungslichts senkrechten Rich
tung.
Soll zum Beispiel die Maskenmarke in der Mitte zwi
schen dem Paar der Wafermarken in der Y-Achsenrichtung
positioniert werden, so wird der Wafer oder die Marke rela
tiv zueinander bewegt, damit y1 und y2 den selben Wert ha
ben. Die Positionsausrichtung in der in Fig. 18 gezeigten Y-
Achsenrichtung ist deshalb auf diese Weise möglich. Die
Positionsausrichtung in der X-Achsenrichtung, Y-Achsen
richtung und Φz-Richtung kann durch den Einsatz von drei
Systemen (Anordnungen), die aus den in Fig. 1A und 1B ge
zeigten Ausrichtungsmarken und optischen Systemen beste
hen, erreicht werden. Obwohl die Beleuchtungs- und Beob
achtungsachsen in Fig. 1A koaxial angeordnet sind, müssen
diese nicht notwendigerweise koaxial sein. Es ist ausrei
chend, wenn nur gestreutes Licht auf eine Objektivlinse des
Beobachtungssystems einfällt und normales Reflexionslicht
nicht einfällt.
Als nächstes wird eine Methode zur Messung einer Lücke
zwischen der Belichtungsoberfläche und der Maskenober
fläche beschrieben. In einem Objektraum des optischen Sy
stems wird Licht, das von vielen Punkten auf einer flachen
und zur optischen Achse 25 senkrechten Ebene gestreut
wird, zur gleichen Zeit auf die Lichtempfängerebene des
Bilddetektors 21 fokusiert. Eine Ebene, die durch eine
Menge von Punkten im Objektraum definiert ist und welche
auf die Lichtempfangsebene fokussiert sind, wird eine "Ob
jektebene" genannt.
Von jeder Kante oder jedem Scheitel der Wafer- und Mas
kenmarken auf die Objektebene gestreutes Licht wird auf
die Lichtempfängerebene fokussiert, und von jeder Kante
und jedem Scheitel nicht auf die Objektebene gestreutes
Licht wird nicht einfokussiert und ist umso mehr defokus
siert, je weiter sich die Kante oder der Scheitel von der Ob
jektebene befindet. Deshalb wird das Streulichtbild einer
Kante oder eines Scheitels, das sich am nahesten an der Ob
jektebene befindet, am besten sichtbar, und das Bild einer
anderen Kante oder eines anderen Scheitels an einer Posi
tion weiter entfernt von der Kante oder dem Scheitel, die
oder der sich am nahesten an der Objektebene befindet, wird
undeutlicher.
Eine in Fig. 1C gezeigte Entfernung x1 ist eine Distanz in
der X-Achsenrichtung zwischen den Punkten im besten Fo
kussierzustand des Wafermarkenbildes 13A und Masken
markenbildes 14A. Die Entfernung x1 ist im allgemeinen
gleich groß zur Entfernung zwischen Punkten im besten Fo
kussierzustand der Wafer- und Maskenmarken, die vertikal
auf die Einfallsebene projiziert sind.
Fig. 1D ist eine schematische Querschnittsansicht der
Wafer- und Maskenoberflächen 11 und 12 auf der Einfalls
ebene nahe der Objektebene. Ein Punkt Q2 ist ein Punkt auf
einer Schnittlinie zwischen der Waferoberfläche 11 und der
Objektebene, und ein Punkt Q1 ist ein Punkt auf der Schnitt
linie der Maskenoberfläche 12 und der Objektebene. Die
Länge eines Liniensegments Q1-Q2 entspricht der in Fig.
1C dargestellten Entfernung x1.
Wenn die Länge L des Liniensegments Q1-Q2 mit
L(Q1, Q2) bezeichnet wird, dann ist die Lücke δ zwischen
der Belichtungsoberfläche 11 und der Maskenoberfläche 12
gegeben durch:
δ = L(Q1, Q2) × sin(α) (5)
wobei α ein Winkel der optischen Achse 25 relativ zur Nor
malenrichtung der Belichtungsoberfläche 11 ist. Die Lücke
δ kann durch Berechnung der Länge des Liniensegments Q1
-Q2 von der gemessenen Distanz x1 gewonnen werden.
Um eine präzise Lücke δ zu erhalten, ist es vorteilhaft, die
Entfernung x1 genau zu messen. Zu diesem Zweck ist die
Schärfentiefe vorzugshafterweise klein. Es ist ebenfalls vor
teilhaft, mehrere der in Fig. 1B dargestellten rechteckigen
Muster in der X-Achsenrichtung anzuordnen.
Ein Zielwert der Entfernung x1 ist im voraus im Control
ler 30 gespeichert, und der Antriebsmechanismus 17 wird
derart gesteuert, daß die gemessene Distanz x1 den Zielwert
annimmt. Auf diese Weise kann eine gewünschte Lücke
zwischen den Belichtungs- und Maskenoberflächen 11 und
12 eingestellt werden.
Fig. 2A ist eine Perspektivansicht, die ein Beispiel eines
rechteckigen Musters der Wafermarke zeigt. Das Beleuch
tungslicht fällt schräg entlang der geneigten optischen
Achse in der in Fig. 2A dargestellten X-Z-Ebene ein, und an
der in die Y-Achsenrichtung ausgedehnten Kante gestreutes
Licht wird beobachtet. Da das durch Streulicht erzeugte Bild
die durch Gleichung (4) gegebene Intensitätsverteilung hat,
kann in diesem Fall ein in einer Richtung ausgestrecktes
Bild, das sich entlang der Y-Achsenrichtung der Lichtemp
fängerfläche ausdehnt, wie in Fig. 2B gezeigt, erhalten wer
den. Dieses Bild hat die Linienverwaschungsfunktion einer
Linse.
Fig. 2C zeigt ein anderes Muster, das in der Y-Achsen
richtung kürzer ist als das rechteckige Muster in Fig. 2A.
Wenn die Länge einer Kante kürzer ist als die Linsenauflö
sung, so kann die Intensitätsverteilung O(x, y) des reflektier
ten Lichtes in Gleichung (1) möglicherweise durch δ(x, y)
ersetzt werden. Deshalb wird die Gleichung (1) verändert
zu:
I(x, Y) = ∫∫δ(x-x', y-y').PSF(x', y')dx'dy'
= PSF(x, y) (6)
wobei PSF(x, y) eine Punktverwaschungsfunktion einer
Linse ist.
Wenn das Beleuchtungslicht ein kontinuierliches Spek
trum hat, so ist I(x, y) gegeben durch:
I(x, y) = ∫PSFλ(x - Δxλ, y - Δyλ)dλ (7)
wobei λ die Lichtwellenlänge, PSFλ die Punktverwa
schungsfunktion bei der Wellenlänge λ, Δxλ eine durch
chromatische Linsenaberration bei der Wellenlängen λ ver
ursachte laterale Verschiebung des Punktbildes in X-Ach
senrichtung, Δyλ eine durch chromatische Linsenaberration
bei der Wellenlänge λ verursachte laterale Verschiebung ei
nes Punktbildes in Y-Richtung ist, und das Integral über den
gesamten Wellenlängenbereich ausgeführt wird.
Setzt man die Länge einer Kante gleich groß oder kürzer
als die Linsenauflösung, so ist es möglich, ein an die Punkt
verwaschungsfunktion einer Linse und in Fig. 2D darge
stelltes Punktbild zu erhalten.
Fig. 2E ist eine perspektivische Ansicht eines rechtecki
gen Musters, wobei Licht von einem Ort nahe des Scheitels,
an dem sich drei Ebenen schneiden, gestreut wird. Ein durch
Licht erzeugtes Bild, das von einem Ort nahe des in Fig. 2E
gezeigten Scheitels gestreut wird, kann vermutlich an die
durch die Gleichungen (6) und (7) gegebene Punktverwa
schungsfunktion approximiert werden. In dieser Beschrei
bung wird eine Mustereinheit, die eine Kante oder einen
Scheitel besitzt, von der bzw. dem Licht gestreut wird, als
Kantenmuster bezeichnet.
Fig. 3 zeigt ein Beispiel für das Layout von Masken- und
Wafermarken, die Scheitel haben, von welchem das Be
leuchtungslicht gestreut wird. Eine Maskenmarke 62 ist
zwischen Wafermarken 52A und 52B angeordnet. Jede der
Ausrichtungsmarken 52A, 52B und 62 wird gebildet durch
die Anordnung eines Kantenmusters mit quadratischer ebe
ner Form in drei Reihen in der X-Achsenrichtung mit einem
Zwischenraum P und in zwei Spalten in der Y-Richtung. Ein
Scheitel jedes Kantenmusters mit quadratischer ebener
Form zeigt in die positive X-Achsenrichtung, d. h. zum op
tischen Beobachtungssystem.
Durch das Nutzen des Layouts der in Fig. 3 gezeigten
Kantenmuster, die Scheitel haben und von denen Beleuch
tungslicht gestreut wird, und durch das Beobachten des von
den Scheiteln gestreuten Lichtes kann die Positionsausrich
tung eines Wafers und einer Maske auch durch die mit Fig.
1A bis 1C beschriebenen Methoden erreicht werden.
Als nächstes wird das Positionsdetektionsverfahren ent
sprechend der ersten Ausführungsform der Erfindung be
schrieben. Das geneigte optische Empfängersystem, das
durch die erste Ausführungsform genutzt wird, ist dasselbe,
wie das in Fig. 1A dargestellte System. Die Positionsaus
richtung durch Beobachtung von an einer linearen Kante ge
streuten Licht wurde mit Bezug auf die Fig. 1B und 2A be
schrieben, und die Positionsausrichtung durch Beobachtung
von an einem Scheitel gestreutem Licht wurde mit Bezug
auf die Fig. 2E und 3 beschrieben. In dieser Ausführungs
form wird Licht beobachtet, welches von einer Kante ge
streut wird, dessen vertikal projiziertes Bild auf die Belich
tungsoberfläche oder Maskenoberfläche eine gekrümmte Li
nie ist.
Fig. 4A ist eine Draufsicht einer Wafermarke, die ge
krümmte Kanten hat, und Fig. 4B ist eine Perspektivansicht
der Wafermarke. Diese Wafermarke wird durch die Muste
rung eines Ta4B-Filmes erzeugt, der auf eine SiC-Schicht
aufgebracht ist, welches sich wiederum auf einer Silicium
substratoberfläche befindet. Die Wafermarke besteht aus
drei Kantenmustern, die eine Mesa-Struktur von ungefähr
3 µm Länge und ungefähr 1 µm Breite haben. Die gegen
überliegenden Enden jedes Kantenmusters haben eine halb
kreisförmige Gestalt mit einem Krümmungsradius von un
gefähr 0,5 µm. Durch die Entfernung von Siliciumsubstrat
in einer Fensterregion mittels Atzen und Beibehaltung der
SiC-Schicht kann eine Röntgenstrahlmaske erzeugt werden.
Bei der Beobachtung von kantengestreutem Licht von der
in Fig. 4A gezeigten Wafermarke wird das Siliciumsubstrat
durch den in Fig. 1A dargestellten Waferhalter 15 derart ge
halten, daß die Längsrichtung des Kantenmusters, die Rich
tung der senkrecht zur Längsrichtung stehenden Ebene und
die Normalenrichtung des Substrats mit den in Fig. 1A dar
gestellten X-, Y- und Z-Achsen übereinstimmen. Das an der
gekrümmten Kante mit einem Krümmungsradius von unge
fähr 0,5 µm gestreute Licht wird dann beobachtet.
Fig. 5 zeigt die Meßergebnisse einer Lichtintensitätsver
teilung von Licht, das an einer gekrümmten Kante der in
Fig. 4A und 4B dargestellten Wafermarke gestreut wird, und
wie es mit dem geneigten optischen Empfängersystem, das
in Fig. 1A gezeigt ist, beobachtet wird. Die Ordinate stellt
die Lichtintensität dar, und die Abszisse repräsentiert die Y-
Achse auf der Siliciumsubstratoberfläche. Insbesondere ent
spricht die Abszissenrichtung der in Fig. 1C dargestellten Y
Achse, die Breitenrichtung entspricht der X-Achse. Der Ver
größerungsfaktor der Linse des optischen Beobachtungssy
stems war 100, die numerische Apertur (NA) der Objektiv
linse war 0,35, und das Beleuchtungslicht war weiß.
Wie in Fig. 5 gezeigt, hat das an einer gekrümmten Kante
gestreute Licht im allgemeinen eine punktähnliche Form
und nimmt allgemein eine maximale Lichtintensität an ei
nem Punkt an. Insbesondere kann ein Bild, das ähnlich zu
dem an einem Scheitel einer Wafermarke gestreutem Licht
ist, erhalten werden.
Die Position des Scheitels, wie zum Beispiel in Fig. 2E
gezeigt, ist empfindlich gegenüber den Einflüssen der Tole
ranzen beim Produktionsprozeß, wenn die Wafermarke aus
gebildet wird. Im Gegensatz dazu ist die Position der ge
krümmten Kante nicht empfindlich gegen die Einflüsse der
Toleranzen beim Produktionsprozeß, so daß eine stabile Po
sitionsausrichtung mit hoher Präzision erreicht werden
kann. In dem in den Fig. 4A und 4B gezeigten Beispiel hat
jede Kante der Wafermarke eine Halbkreisform. Diese Form
kann jede andere glatte Kurve sein, so lange wie ein Bild
von im allgemeinen punktähnlicher Form erhalten werden
kann. Bei der Ausbildung einer Wafermarke, die solch eine
glatte Kurve besitzt, muß die äußere Peripherie eines Kan
tenmusters der Wafermarke nicht notwendigerweise glatt
sein. Eine Photomaske zum Beispiel, die ein rechteckiges
Fenster besitzt, kann genutzt werden, und die äußere Peri
pherie des Widerstandsmusters wird durch Nutzung der Bre
chung von Bestrahlungslicht glatt gemacht.
Der Krümmungsradius jeder Kante der in den Fig. 4A
und 4B dargestellten Wafermarke war ungefähr 0,5 µm.
Dies war im allgemeinen gleich groß der Linsenauflösung.
Setzt man den Krümmungsradius jeder Kante im allgemei
nen gleich groß zur Auflösung oder kleiner als die Auflö
sung, so erhält ein Bild von kantengestreutem Licht fast eine
punktähnliche Form. Es ist deshalb vorteilhaft, den Krüm
mungsradius jeder Kante im allgemeinen gleich groß zur
Linsenauflösung oder kleiner als die Linsenauflösung zu set
zen, um eine Positionsausrichtung mit hoher Präzision zu er
reichen. Dies bedeutet nicht, daß eine Kante mit einem
Krümmungsradius größer als die Linsenauflösung nicht ge
nutzt werden kann. Es ist vorteilhaft, den Krümmungsra
dius, der für das Erreichen einer gewünschten Positionsaus
richtungsgenauigkeit geeignet ist, empirisch zu bestimmen,
indem man Kanten verschiedener Formen nutzt.
Die Fig. 6A und 6B zeigen Beispiele des Layouts von
Masken- und Wafermarken. In diesen beiden Beispielen
sind zwei Wafermarken 40A und 40B und zwei Wafermar
ken 42A und 42B in der Y-Achsenrichtung angeordnet, und
Maskenmarken 41 und 43 sind zwischen den Wafermarken
40A und 40B und zwischen Wafermarken 42A und 42B an
geordnet.
Jede der in Fig. 6A gezeigten Ausrichtungsmarken 40A,
40B und 41 ist zusammengesetzt aus Kantenmustern mit in
die X-Achsenrichtung ausgedehnter ebener Kreisform, die
in zwei Reihen in der X-Achsenrichtung und in zwei Spalten
in der Y-Achsenrichtung angeordnet sind.
Jede der in Fig. 6B dargestellten Ausrichtungsmarken
42A, 42B und 43 ist aus Kantenmustern mit ebener Kreis
form zusammengesetzt, die in drei Reihen in der X-Achsen
richtung und in zwei Spalten in der Y-Achsenrichtung zu
sammengesetzt sind.
Nutzt man das Layout der in den Fig. 6A und 6B gezeig
ten Kantenmuster mit glatten Kurven und beobachtet man
das von solchen Kanten gestreute Licht, so kann eine Positi
onsausrichtung eines Wafers und einer Maske auch durch
die mit den Fig. 1A bis 1C beschriebenen Methode erreicht
werden. Die in den Fig. 6A und 6B dargestellten Ausrich
tungsmarken sind so strukturiert, daß eine Ausrichtungs
marke mit einer anderen Ausrichtungsmarke überlagert wer
den kann, indem man die Marken nach der Positionsausrich
tung parallel zueinander verschiebt. Es ist deshalb einfach,
die Entfernung zwischen den Ausrichtungsmarken in der Y-
Achsenrichtung zu messen. Durch das Anordnen einer Viel
zahl von Kantenmustern in der X-Achsenrichtung mit einem
vorbestimmten Zwischenraum wird es einfach, irgendeine
Kante unter einer Vielzahl von Kantenmustern zu fokussie
ren und die relative Position stabil zu detektieren. Die rela
tive Position des Wafers und der Maske kann zum Beispiel
detektiert werden, indem man dieselben Ausrichtungsmar
ken und dieselbe Positionsdetektorvorrichtung nutzt, selbst
wenn sich die Lücke zwischen dem Wafer und der Maske
verändert. Weiterhin kann die relative Position detektiert
werden, während die Lücke sich ändert. Die Lücke zwi
schen einem Wafer und einer Maske kann durch die mit Fig.
2D beschriebene Methode detektiert werden.
Fig. 7A ist eine Draufsicht, die ein anderes Beispiel der
relativen Position von Wafermarken 13A und 13B und einer
Maskenmarke 14 zeigt. Jede der Wafermarken 13A und 13B
besteht aus in einer Matrixform angeordneten rechteckigen
Mustern, drei Muster in der Y-Achsenrichtung und vierzehn
Muster in der X-Achsenrichtung. Die Maskenmarke 14 be
steht aus ähnlichen in einer Matrixform angeordneten recht
eckigen Mustern, drei Muster in der Y-Achsenrichtung und
fünf Muster in der X-Achsenrichtung. In dem Stadium,
nachdem die Positionsausrichtung vollendet ist, ist eine re
lative Position erreicht, in welcher die Maskenmarke 14 im
allgemeinen in der Mitte zwischen den Wafermarken 13A
und 13B in der Y-Achsenrichtung positioniert ist.
Die längere Seite jedes recheckigen Musters der Wafer
marken 13A und 13B und der Maskenmarke 14 ist parallel
zur X-Achse, und die kürzere Seite ist parallel zur Y-Achse.
Die längere Seite jedes rechteckigen Musters ist 2 µm lang
und die kürzere Seite ist 1 µm lang. Der Zwischenraum zwi
schen rechteckigen Mustern jeder Marke beträgt 4 µm so
wohl in der X- als auch der Y-Achsenrichtung. Die Entfer
nung zwischen den Mittelpunkten der Wafermarken 13A
und 13B beträgt 56 µm.
Fig. 7B ist eine Querschnittsansicht entlang der in Fig.
7A dargestellten Punktlinie B2-B2. Beispielweise sind die
Wafermarken 13A und 13B durch die Musterung einer SiN-
Schicht, einer Polysiliciumschicht oder ähnlichem auf der
Belichtungsoberfläche gebildet, und die Maskenmarke 14
ist durch die Musterung einer Ta4B-Schicht auf der Maskenoberfläche
der Membran 12 gebildet, die aus SiC oder ähn
lichem besteht.
Fig. 7C ist eine Querschnittsansicht entlang der in Fig.
7A dargestellten Punktlinie C2-C2. Das entlang der opti
schen Achse 25 auf die Wafer- und Maskenmarken 13A,
13B und 14 einfallende Beleuchtungslicht wird von der kür
zeren Seitenkante jedes in Fig. 7C dargestellten rechtecki
gen Musters gestreut. Licht, das auf andere Gebiete als die
Kanten einfällt, wird regulär reflektiert und fällt nicht auf
die in Fig. 1A gezeigte Linse 22 ein. Der Bilddetektor 21
kann deshalb nur das von den Kanten gestreute Licht detek
tieren.
Das von den Punkten auf Objektebene 27 des in Fig. 1A
dargestellten optischen Systems gestreute Licht wird gleich
zeitig auf die Lichtempfängerebene des Bilddetektors 21 fo
kussiert.
In Fig. 7C wird das von jeder Kante der Wafermasken
marken 13A, 13B und 14 auf der Objektebene 27 gestreute
Licht auf die Lichtempfängerebene fokussiert, und Licht,
das von jeder nicht auf der Objektebene befindlichen Kante
gestreut ist, wird nicht einfokussiert und wird umso mehr
defokussiert, je weiter die Kante von der Objektebene ent
fernt ist. Deshalb wird das Bild des an einer Kante gestreu
ten Lichtes, die sich am nahesten an der Objektebene befin
det, am deutlichsten, und das Bild einer anderen Kante, die
sich weiter weg von der Kante, die sich am nahesten in der
Objektebene befindet, positioniert ist, wird undeutlicher.
Fig. 8 ist eine Skizze von Bildern auf der Lichtempfän
gerebene, die von kantengestreutem Licht erzeugt werden.
Eine in Fig. 8 dargestellte U-Achse entspricht der Richtung
einer Schnittlinie zwischen der in Fig. 7C gezeigten Objekt
ebene 27 und der X-Z Ebene, und eine V-Achse entspricht
der in Fig. 7C gezeigten Y-Achse. Die Bilder 40A und 40B,
die durch das von den Wafermarken 13A und 13B gestreute
Licht erzeugt werden, erscheinen getrennt entlang der V-
Achsenrichtung, und ein Bild 41, das durch an der Masken
marke 14 gestreute Licht erzeugt wird, erscheint zwischen
den Bildern 40A und 40B.
Da das an den Vorder- und Rückkanten jedes rechtecki
gen Musters gestreute Licht beobachtet wird, erscheinen
zwei punktähnliche Bilder für jedes rechteckige Muster. Bil
der, die durch das von den Kanten nahe der in Fig. 7C dar
gestellten Objektebene 27 gestreute Licht erzeugt werden,
sind deutlich, und Bilder, die durch das an den Kanten ge
streute Licht erzeugt werden, die sich weiter entfernt von
den Kanten nahe der Objektebene 28 befinden, werden un
deutlicher. Da die Beobachtungsachse 25 geneigt zur Be
lichtungsoberfläche ist, stimmt die Position der Bilder 40A
und 40B im besten Fokussierzustand, die durch von den Wa
fermarken gestreutes Licht erzeugt werden, in der U-Ach
senrichtung nicht überein mit der Position des Bildes 41 im
besten Fokussierzustand, das von an der Maskenmarke ge
streuten Licht erzeugt wird.
Bewegt man den in Fig. 1A gezeigten Waferhalter 15 und
Maskenhalter 16, um das Bild 41, das von an der Masken
marke gestreuten Licht erzeugt wird, in der Mitte zwischen
den Bildern 40A und 40B, die von an der Wafermarke ge
streuten Licht erzeugt werden, entlang der Y-Achsenrich
tung zu positionieren, so kann die Positionsausrichtung des
Wafers 11 und der Maske 12 durchgeführt werden.
Da die in Fig. 1A dargestellte Positionsdetektorvorrich
tung die Wafer- und Maskenmarken geneigt beobachtet, ist
es nicht notwendig, das optische System 20 während der Be
lichtung zurückzuziehen. Es ist auch immer möglich, die
Position zu detektieren, während der Wafer nach der Positi
onsausrichtung belichtet wird. Da die Beleuchtungs- und
Beobachtungsachsen koaxial zueinander sind, tritt keine
axiale Verschiebung auf, und das Bild kann immer stabil ge
wonnen werden.
Die zweite Ausführungsform der Erfindung wird als
nächstes beschrieben.
Die Fig. 9A und 9B zeigen Beispiele von Bildsignalen,
die durch die in Fig. 1A dargestellte Bilddetektorvorrich
tung 21 erhalten wurden. Die Abszisse entspricht der in Fig.
8 dargestellten V-Achse, und die Ordinate repräsentiert die
Lichtintensität. Die Bildsignale wurden durch Scannen in
der V-Achsenrichtung gewonnen, und nach jedem V-Ach
senscan durch Verschiebung der Scanposition uni eine vor
bestimmte Entfernung in der U-Achsenrichtung. Von diesen
Bildsignalen wurden die in Fig. 8 dargestellten Bildsignale
durch das Scannen der Bilder 40A und 40B an der Position
im besten Fokussierzustand und durch das Scannen des
Bildes 41 an der Position im besten Fokussierzustand gewon
nen.
Die in Fig. 9A dargestellten Bildsignale wurden mit Wa
fermarken aus Polysilicium gewonnen, und die in Fig. 9B
gezeigten Bildsignale wurden mit Wafermarken aus SiN ge
wonnen. Die Maskenmarken bestehen beide aus T4B.
Wie in den Fig. 9A und 9B gezeigt, erscheinen drei zur
Maskenmarke gehörige Peaks im allgemeinen im zentralen
Gebiet, und drei zu der Wafermarke gehörige Peaks erschei
nen auf beiden Seiten der Maskenmarkenpeaks.
Ein Beispiel eines Verfahrens zum Detektieren der relati
ven Position einer Maskenmarke und einer Wafermarke
durch Ausnutzung der in den Fig. 9A und 9B gezeigten Wel
lenformen wird kurz beschrieben. Während die Peakwellen
formen der Maskenmarke in die V-Achsenrichtung verscho
ben werden, werden Korrelationsfaktoren zwischen den Pe
akwellenformen der Maskenmarke und den Peakwellenfor
men der beiden Wafermarken berechnet. Die Entfernung
zwischen den Mitten der Wafer- und Maskenmarken ent
spricht der Verschiebung, bei welcher der größte Korrelati
onsfaktor berechnet wurde.
Bewegt man die Wafer- und Maskenhalter, um gleiche
Entfernungen von den Peakwellenformen der Maskenmarke
zu den Peakwellenformen der Wafermarke auf beiden Sei
ten der Maskenmarke zu erreichen, so kann eine Positions
ausrichtung des Wafers und der Maske in der in Fig. 1A ge
zeigten Y-Achsenrichtung erfolgen.
Um die Berechnungsgenauigkeit des Korrelationsfaktors
zu verbessern, ist es vorteilhaft, auf der Lichtempfänger
ebene angeordnete photoelektrische Umwandlerelemente
im nährungsweisen linearen Gebiet der Input/Output-Cha
rakteristiken der Elemente zu nutzen, und um Bildsignale
mit einem hohen Signal-Rauschverhältnis zu gewinnen. Aus
diesen Blickwinkeln ist es vorteilhaft, die Höhe der Wellen
formenpeaks sowohl der Masken- als auch der Wafermar
ken im allgemeinen anzugleichen. Von der Wafermarke ge
streutes Licht und von der Maskenmarke gestreutes Licht
haben im allgemeinen jedoch auf Grund von Materialunter
schieden der Membran 12 und Unterschieden zwischen den
Materialien der in Fig. 7C gezeigten Wafer- und Masken
marken oder aus anderen Gründen unterschiedliche Intensi
täten. Deshalb unterscheiden sich, wie in den Fig. 9A und
9B dargestellt, die Höhen der Peaks der Maskenmarke von
den Höhen der Peaks der Wafermarke.
Nutzt man die Methode der zweiten Ausführungsform der
Erfindung, so kann ein Höhenunterschied der Peaks zwi
schen den Masken- und Wafermarken reduziert werden. Die
Positionsdetektionsmethode und -vorrichtung entsprechend
der zweiten Ausführungsform wird mit Bezug auf die Fig.
10A und 10B beschrieben.
Fig. 10A ist eine Querschnittsansicht, die ein Gebiet nahe
der Lichtempfängerebene 21a der in Fig. 1A gezeigten Posi
tionsdetektorvorrichtung darstellt. Ein optischer Filter 26 ist
unmittelbar vor der Lichtempfängerebene 21a angeordnet,
die senkrecht zur optischen Achse 25 steht. Ein Bild, das
von an der Wafermarke 13 gestreutem Licht erzeugt wird,
wird in einem Gebiet 21b der Lichtempfängerebene 21a fo
kussiert, und ein Bild, das durch an der Maskenmarke 14 ge
streutem Licht erzeugt wird, wird in ein Gebiet 21c fokus
siert. Die Fokusgebiete können abhängig vom optischen Sy
stem vertauscht sein.
Ein Transmissionsfaktor des optischen Filters 26 ist un
terschiedlich in den Gebieten 26b und 26c, die den Gebieten
21b und 21c zugeordnet sind. Fig. 10B ist eine Vorderan
sicht des optischen Filters 26. Die Gebiete 26b und 26c, die
verschiedene Transmissionsfaktoren besitzen, sind in den
oberen und unteren Hälften einer kreisförmigen Glasplatte
definiert. Selbst wenn die Intensitäten des Lichtas, das von
den Wafer- und Maskenmarken gestreut und durch die Linse
22 transmittiert wird, unterschiedlich sind, können die In
tensitäten von zwei Streulichtströmen, die auf die Lichtemp
fängerebene 21a fokussiert sind, angenähert werden, indem
man die Transmissionsfaktoren der beiden Gebiete des opti
schen Filters 26 geeignet einstellt.
Da die Intensitäten des Lichtes, das von den Wafer- und
Maskenmarken gestreut wird und auf die Lichtempfänger
ebene 21a fokussiert wird, aneinander angenähert werden,
können die Höhen der Peaks der in den Fig. 9A und 9B dar
gestellten und zu den Masken und Wafermarken gehörenden
Bildsignale aneinander angenähert werden. Es ist deshalb
möglich, die Position genauer zu detektieren. Der optische
Filter 26 ist vorzugsweise ein Filter mit den Charakteristi
ken, daß die optischen Wege des von den Wafer- und Mas
kenmarken gestreute Lichtes nicht unterschiedlich werden.
Das geneigte optische Empfängersystem nutzt nicht die
Lichtbrechung. Es ist deshalb vorteilhaft, weißes Licht zu
nutzen, um den Einfluß von Lichtinterferenzen zu vermei
den. Deshalb ist der optische Filter 26 vorzugsweise ein
neutrales Dichtefilter mit einer geringen Wellenlängenab
hängigkeit des Transmissionsfaktors. Dieser neutrale Dich
tefilter ist auch bequem in dem Sinne, daß ein Transmissi
onsfaktor von jedem von einer Vielzahl von geteilten Gebie
ten eines Filters leicht verändert werden kann.
Es wird bevorzugt, daß das optische Filter 26 entlang der
optischen Achse an die Position gesetzt wird, wo der Licht
strom, der von der Wafermarke gestreut wird, vollständig
vom Lichtstrom, der von der Maskenmarke gestreut wird,
getrennt ist. Deshalb kann das optische Filter nicht nur un
mittelbar vor die Lichtempfängerfläche 21a, sondern an jede
Position gesetzt werden, so lange wie die beiden Streulicht
ströme vollständig voneinander getrennt sind.
In den Fig. 10A und 10B wird das von der Maskenmarke
gestreute Licht und das von der Wafermarke gestreute Licht
über die Gebiete des optischen Filters mit unterschiedlichen
Transmissionsfaktoren fokussiert. Der eine Streulichtstrom
kann durch das Filter unterdrückt werden, und der andere
Streulichtstrom kann fokussiert werden, ohne das Filter zu
passieren. In diesem Fall ist ein Filter nur in einem der Fig.
10A gezeigten Gebiete 21b und 21c angeordnet.
In der zweiten Ausführungsform erfolgt die Positionsde
tektion, in dem Korrelationsfaktoren von ein-dimensionaa
len Bildsignalen berechnet werden.
Die relative Position einer Maske und eines Wafers kann
berechnet werden, indem zwei-dimensionale Bildsignale
genutzt werden, die in Fig. 8 dargestellt sind. In diesem Fall
erfolgt ein Ähnlichkeitsvergleich zwischen den Masken-
und Wafermarkenbildern, indem die Bildsignale parallel zur
U-Achsenrichtung und V-Achsenrichtung verschoben wer
den. Mit diesem Mustervergleich der zwei-dimensionalen
Bildsignale kann eine Entfernung zwischen den Bildern in
den U- und V-Achsenrichtungen berechnet werden.
Als nächstes wird ein Verfahren zur Messung der Entfer
nung zwischen einem Wafer und einer Maske beschrieben.
In Fig. 8 entspricht eine Position u0, an der sich die durch
das von den Wafermarken gestreute Licht erzeugten Bilder
40A und 40B im besten Fokussierzustand in der U-Achsen
richtung befinden, einer in Fig. 7C dargestellten Schnittlinie
P0 zwischen der ebenfalls in Fig. 7C gezeigten Objektebene
27 und der Belichtungsoberfläche. Wie ebenfalls in der Fig.
8 zu sehen, entspricht eine Position u1, an der sich das durch
von der Maskenmarke gestreute Licht erzeugte Bild 41 im
besten Fokussierzustand in der U-Achsenrichtung befindet,
einer in Fig. 7C dargestellten Schnittlinie P1 zwischen der
ebenfalls in Fig. 7C gezeigten Objektebene 27 und der Mas
kenoberfläche. Beispielsweise kann eine Entfernung zwi
schen den Positionen u0 und u1 durch den Mustervergleich
der in Fig. 8 gezeigten zwei-dimensionalen Bilder gewon
nen werden.
Bezeichnet man die Länge des Liniensegments P0-P1 mit
L(P0, P1), so ist die Lücke δ zwischen dem Wafer 11 und der
Maske 12 gegeben durch:
δ = L(P0, P1) × sin(α) (8)
wobei α ein Winkel der optischen Achse 25 relativ zur Nor
malenrichtung der Belichtungsoberfläche ist. Die Lücke δ
kann deshalb aus der Länge des Liniensegments P0-P1 be
rechnet werden, in dem man die Entfernung L(u0, u1) zwi
schen den Positionen u0 und u1 in der in Fig. 8 gezeigten U-
Achsenrichtung mißt. Um die Lücke δ genauer zu berech
nen, ist es vorteilhaft, die Entfernung zwischen den Positio
nen u0 und u1 in der U-Achsenrichtung richtig zu messen.
Aus diesem Grund ist die Schärfentiefe der Linse vorzugs
weise klein.
Jedes beobachtete Bild kann mit einem Referenzbild ver
glichen werden, ohne daß ein Mustervergleich zwischen
zwei beobachteten Bildern erfolgt. In diesem Fall werden
die Referenzbildsignale unter der Annahme erzeugt, daß ein
Wafer und eine Maske so angeordnet sind, daß sie die ge
wünschte relative Position einnehmen, und die in einem
Speicher im voraus gesichert sind. Durch den Ahnlichkeits
vergleich der Muster zwischen einer beobachteten Wafer
marke und einer vorgespeicherten Referenzwafermarke
wird ein Verschiebungsmaß der beobachteten Wafermarke
bezüglich der Referenzmarke gewonnen. Ähnlich zur Wa
fermarke wird ein Verschiebungsmaß eines Maskenmusters
bezüglich einer Referenzposition gewonnen. Eine relative
Position zwischen dem Wafer und der Maske kann aus die
sen Verschiebungsmaßen erhalten werden.
Als nächstes wird eine dritte Ausführungsform der Erfin
dung beschrieben.
Fig. 11 ist eine schematische Querschnittsansicht einer
Positionsdetektorvorrichtung entsprechend der dritten Aus
führungsform der Erfindung. Die Positionsdetektorvorrich
tung dieser Ausführungsform besteht aus einer Wafer/Mas
kenhaltereinheit 110, einem optischen System 120 und ei
nem Controller 130.
Die Wafer/Maskenhaltereinheit 110 umfaßt einen Wafer
halter 115, einen Maskenhalter 116 und die Antriebsmecha
nismen 117 und 118. Zur Positionsausrichtung wird ein Wa
fer 11 auf der oberen Oberfläche des Waferhalters 115 gehal
ten, und eine Maske 12 wird auf der unteren Oberfläche des
Maskenhalters 116 gehalten. Der Wafer 11 und die Maske
12 sind parallel angeordnet, wobei sich eine vorgegebene
Lücke zwischen der Belichtungsoberfläche des Wafers 11
und der Oberfläche (Maskenoberfläche) der Maske 12 auf
der Waferseite befindet. Auf der Belichtungsoberfläche des
Wafers 11 befinden sich Positionsausrichtungswafermarken,
und auf der Maskenoberfläche der Maske 12 befindet sich
eine Positionsausrichtungsmaskenmarke.
Der Antriebsmechanismus 117 kann den Waferhalter 115
oder den Maskenhalter 116 bewegen, um die relative Posi
tion des Wafers 11 und der Maske 12 auf der Belichtungs
oberfläche zu verändern. Der Antriebsmechanismus 118
kann den Waferhalter 115 bewegen, um die Lücke zwischen
der Belichtungsoberfläche des Wafers 11 und der Masken
oberfläche der Maske 12 zu verändern. Definiert man eine
X-Achse als in die in Fig. 11 dargestellte Richtung von links
nach rechts zeigend, eine Y-Achse als in die Richtung verti
kal zum Zeichenblatt von der Vorder- zur Rückseite zeigend,
und eine Z-Achse als in die Normalenrichtung der Belich
tungsoberfläche zeigend, so stellt der Antriebsmechanismus
117 die relative Position des Wafers 11 und der Maske 12 in
die X-Achsen- und Y-Achsenrichtungen und in eine Rotati
onsrichtung (θz) um die Z-Achse ein, während der Antriebs
mechanismus 118 die relative Position des Wafers 11 und
der Maske 12 in der Z-Achsenrichtung und in die Rotations
richtungen (θx und θy Richtungen) um die X-Achsen- und
Y-Achsenrichtungen einstellt.
Das optische System 120 umfaßt die Bilddetektoren
121A und 121B, die Linsen 122 und 128, die Halbspiegel
123 und 126A, eine optische Faser 124 und einen Spiegel
126B. Die optische Achse 125 des optischen Systems 120
liegt parallel zu X-Z-Ebene und geneigt zur Belichtungs
oberfläche.
Das von der optischen Faser ausgestrahlte Beleuchtungs
licht wird vom Halbspiegel 123 reflektiert und bildet dabei
einen Lichtstrom entlang der optischen Achse 125, der über
die Linse 122 geneigt auf die Belichtungsoberfläche einfällt.
Das durch die Linse transmittierte Beleuchtungslicht wird
zu einem parallelen Lichtstrom verändert (paralles Strahlen
bündel).
Das Beleuchtungslicht wird von einem Streugebiet, wie
zum Beispiel einer Kante oder einem Scheitel der auf dem
Wafer 11 und der Maske 12 gebildeten Wafer- und Masken
marken, gestreut. Von diesem gestreuten Licht wird das auf
die Linse 122 einfallende Licht durch die Linse 122 gebün
delt, und ein Teil dieses Lichts transmittiert durch die Halb
spiegel 123 und 126A und wird auf die Lichtempfängerflä
che 129A des Bilddetektors 121A fokussiert. Ein Vergröße
rungsfaktor eines auf die Lichtempfängerebene 129A fokus
sierten Bildes ist zum Beispiel 20. Von dem gestreuten Licht
wird das durch den Halbspiegel 126A reflektierte Licht
durch den Spiegel 126B reflektiert, von einer Zwischenlinse
(Relaislinse) 128 gebündelt und auf die Lichtempfängerflä
che 129B des Bilddetektors 121B fokussiert. Ein Vergröße
rungsfaktor eines auf die Lichtempfängerebene 129B fokus
sierten Bildes ist zum Beispiel 80 bis 100. Die beiden Beob
achtungssysteme mit unterschiedlichen Vergrößerungsfak
toren sind auf die oben beschriebene Weise angeordnet.
Die Bilddetektoren 121A und 121B wandeln die Bilder,
die durch das von dem Wafer 11 und der Maske 12 gestreute
und auf die Lichtempfängerebenen 129A und 129B fokus
sierte Licht erzeugt werden, photoelektrisch in Bildsignale
um, die als Input des Controllers 130 dienen.
Der Controller 130 verarbeitet die von den Bilddetektoren
121A und 121B gelieferten Bildsignale durch den Bezug auf
Referenzmuster, die im Referenzmusterspeicher 131 gespei
chert sind, um die relative Position des Wafers 11 und der
Maske 12 in der Y-Achsenrichtung zu detektieren.
Die relativen Positionen des Wafers 11 und der Maske 12
in den X- und Y-Achsenrichtungen und in der θz-Richtung
kann durch Anordnen von zwei optischen Systemen mit ge
neigen optischen Achsen parallel zur X-Z-Ebene und eines
optischen Systems mit geneigter optischer Achse parallel
zur Y-Z-Ebene detektiert werden.
Damit der Wafer 11 und die Maske 12 eine vorbestimmte
relative Position einnehmen, werden Steuersignale an die
Antriebsmechanismen 117 und 118 gesendet. Entsprechend
dem Kontrollsignal bewegt der Antriebsmechanismus 117
den Waferhalter 115 parallel zur X-Y-Ebene, um ihn um die
Z-Achse rotieren zu lassen. Entsprechend dem Steuersignal
bewegt der Antriebsmechanismus 118 den Waferhalter 115
parallel zur Z-Achsenrichtung, um ihn leicht um die X- und
Y-Achsen rotieren zu lassen.
Die Positionsausrichtung des bzw. der in den Fig. 7A bis
7C gezeigten Wafers 11 und Maske 12 wird durch Nutzung
der in Fig. 11 dargestellten Positionsdetektorvorrichtung be
schrieben.
Das von den Punkten auf einer Objektebene des in Fig. 11
dargestellten optischen Systems 120 gestreute Licht wird
gleichzeitig auf die Lichtempfängerebene 129A und 129B
der Bilddetektoren 121A und 121B fokussiert.
Die Schärfentiefe d des bündelnden optischen Systems
120 ist gegeben durch:
d = λ/NA2 (9)
wobei NA die numerische Apertur der Objektlinse des bün
delnden optischen Systems 120 und λ die Wellenlänge des
Beleuchtungslichtes ist. Licht, das von den Kanten gestreut
wird, die innerhalb der Schärfentiefe d positioniert sind, und
zur Objektebene 27 zentriert ist, wird auf die Lichtempfän
gerebenen 129A und 129B der Bilddetektoren 121A und
121B fokussiert. Wie in Fig. 7A gezeigt, ist eine Vielzahl
von Kanten der Wafermarken 13A und 13B und der Mas
kenmarke 14 entlang der X-Achsenrichtung angeordnet, so
daß Licht, das von einigen dieser Streugebiete gestreut wird,
auf die Lichtempfängerebenen fokussiert wird. In Fig. 7C
wird das Licht, das von einer Kante außerhalb der Schärfen
tiefe d gestreut wird, nicht auf die Lichtempfängerebene ein
fokussiert, und die Bilder, die durch das Licht, das von den
weiter von der Objektebene 27 befindlichen Gebieten ge
streut wird, erzeugt werden, werden verschwommener.
Die relative Position des Wafers und der Maske kann ähn
lich zur zweiten Ausführungsform bestimmt werden, die mit
Bezug auf die Fig. 7A bis 9B beschrieben ist.
Eine Genauigkeit der Positionsausrichtung in der Y-Ach
senrichtung der in Fig. 11 dargestellten Positionsdetektor
vorrichtung wird umso schwerwiegender wie der Integrati
onsgrad der Halbleiterschaltkreise höher wird. Beispiels
weise ist im Falle eines dynamischen RAM mit einer Spei
cherkapazität von 16 G-Bits eine Positionsausrichtungsge
nauigkeit von ungefähr 12,5 nm erforderlich.
Um eine Positionsausrichtung durch Nutzung der in den
Fig. 9A oder 9B dargestellten Bildsignale zu erreichen, wird
ein Fehler in der relativen Position des Wafers und der
Maske bei der Bildsignaldetektion vorzugsweise innerhalb
eines bestimmten Bereiches angesetzt. Es ist jedoch schwie
rig, die Maske 12 durch den in Fig. 11 gezeigten Maskenhal
ter 116 mit einer Genauigkeit innerhalb dieses Fehlerberei
ches zu halten, während der Wafer 11 vom Waferhalter 115
gehalten wird. Es ist deshalb vorteilhaft, zuerst eine grobe
Ausrichtung vorzunehmen, um dann, nachdem der Wafer 11
und die Maske 12 gehalten werden, eine Genauigkeit inner
halb dieses Fehlerbereiches zu realisieren.
Eine solche grobe Ausrichtung kann leicht anhand der
Bildsignale von Bildern mit einem niedrigen Vergröße
rungsfaktor, die auf die Lichtempfängerebene 129A fokus
siert sind, vorgenommen werden. Nach Abschluß dieser
groben Ausrichtung wird eine Feinausrichtung mit höherer
Genauigkeit anhand der Bildsignale von Bildern mit einem
hohen Vergrößerungsfaktor, die auf die Lichtempfänger
ebene 129B fokussiert sind, vorgenommen. Da die grobe
Ausrichtung vor der feinen Ausrichtun 15946 00070 552 001000280000000200012000285911583500040 0002019808707 00004 15827g vorgenommen
wird, kann die Positionsausrichtungsgenauigkeit, die erforderlich
ist, wenn der Wafer und die Maske gehalten werden,
gesenkt werden.
Mit steigendem Integrationsgrad der Halbleiterbauele
mente muß die Lücke zwischen dem Wafer 11 und der
Maske 12 eine gewisse Genauigkeit besitzen. So ist diese
Lücke beispielsweise im Falle der Röntgenbelichtung von
0,1 µm Linienbreite ungefähr 10 bis 20 µm groß, und eine
Genauigkeit von +/-1 µm ist erforderlich. Die Lücke zwi
schen dem Wafer und der Maske wird anhand der Bildsi
gnale von Bildern mit einem niedrigen Vergrößerungsfaktor,
die auf die Lichtempfängeebene 129A fokussiert sind, de
tektiert.
Der Controller 130 ist mit zwei Bildsignalverarbeitungs
einheiten ausgestattet, eine für die Verarbeitung von Bildsi
gnalen, die mit dem optischen System für die Feinausrich
tung detektiert wurden, und die andere für die Verarbeitung
von Bildsignalen, die mit dem optischen System für die
Grobausrichtung detektiert wurden. Wenn die Lücke zwi
schen dem Wafer und der Maske durch Nutzung der mit dem
optischen System für die Feinausrichtung detektierten Bild
signale eingestellt wird, so muß wegen der Verarbeitungska
pazität des Controllers 130 auf eine Feinausrichtung mit ho
her Geschwindigkeit verzichtet werden. Auf die Feinaus
richtung mit hoher Geschwindigkeit muß nicht verzichtet
werden, wenn man die Lücke zwischen dem Wafer und der
Maske entsprechend den Bildsignalen, die mit dem opti
schen System für die Grobausrichtung detektiert wurden,
einstellt.
Als nächstes wird die vierte Ausführungsform der Erfin
dung beschrieben.
Fig. 12A ist eine Skizze von Bildern auf der Lichtemp
fängerebene 129A oder 129B, die durch das von den Kanten
der in Fig. 7A dargestellten Wafer- und Maskenmarken ge
streute Licht erzeugt werden, und von der in Fig. 11 darge
stellten Positionsdetektorvorrichtung beobachtet werden.
Diese Skizze ist ähnlich zu der in Fig. 8. Die Höhenrichtung
(Spaltenrichtung) in Fig. 12A entspricht der Richtung einer
Schnittlinie zwischen der in Fig. 7C gezeigten Objektebene
27 und der X-Z-Ebene, und die laterale Richtung (Reihen
richtung) entspricht der in Fig. 7C gezeigten Y-Achsenrich
tung, d. h. der Richtung einer Schnittlinie zwischen einer
senkrecht zur optischen Achse 125 stehenden virtuellen
Ebene und der Belichtungsoberfläche. Die photoelektri
schen Umwandlungselemente sind auf den Lichtempfänger
ebenen 129A und 129B in Matrixform angeordnet. Und je
des photoelektrische Element erzeugt an jedem Pixel ein
Bildsignal entsprechend der empfangenen Lichtmenge.
Die oberste Pixelreihe in Fig. 12A wird erste Reihe ge
nannt, und die n-te obere Pixelreihe wird n-te Reihe ge
nannt. Die am weitesten links stehende Pixelspalte in Fig.
12A wird erste Spalte genannt und die n-te linke Pixelreihe
wird n-te Spalte genannt. Die Bilddetektoren 129A und
129B der Ausführungsform haben jeweils Pixel in 498 Rei
hen und 768 Spalten.
Ein Verfahren zur Detektion der relativen Position der
Wafermarke 13A und 13B und der Maskenmarke 14 in
Übereinstimmung mit den Bildern 40A, 40B und 41, die auf
den Lichtempfängerebenen abgebildet sind, werden be
schrieben.
Die Maske und der Wafer werden durch den in Fig. 11
dargestellten Maskenhalter 116 und Waferhalter 115 gehal
ten, und die Höhe der Wafer wird eingestellt, um eine vorbe
stimmte Lücke zur Maske zu erhalten. In diesem Fall kann
die relative Position der Maske und des Wafers grob einge
stellt werden, und die relative Position in der Rotationsrich
tung um die Z-Achse kann grob eingestellt werden.
In der folgenden Beschreibung wird angenommen, daß
die Fig. 12A die Bilder mit einem geringen Vergrößerungs
faktor zeigt, die auf die Lichtempfängerebene 129A des
Bilddetektors 121A fokussiert sind. Der Controller 130 liest
ein Referenzmuster aus dem Referenzmusterspeicher 131.
Ein Beispiel für ein Referenzmuster ist in Fig. 12B ge
zeigt. Das Referenzmuster wird anhand der Bilder erzeugt,
die durch Licht, das von Kanten im Tiefenschärfebereich d
gestreut wird und zur in Fig. 7C gezeigten Objektebene 27
zentriert ist, gebildet werden.
Ein zum Referenzmuster ähnliches Bild wird von den Bil
dern auf der Lichtempfängerebene 129A abgeleitet. Die ab
geleiteten Bilder umfassen: Teilbilder 42A und 42B, die ei
nige Teile der Bilder 40A und 40B der Wafermarken 13A
und 13B beinhalten; und ein Teilbild 43, das einige Teile des
Bildes 41 der Maskenmarke 14 beinhaltet. Als nächstes wer
den die Koordinatenwerte der zwei-dimensionalen Teilbil
der 42A und 42B der Wafermarke und des zweidimensio
nalen Teilbildes 43 der Maskenmarke, die auf die Lichtemp
fängerebene fokussiert sind, berechnet. Entsprechend den
Koordinatenwerten kann die relative Position der Wafer
marken 13A und 13B und Maskenmarke 14 detektiert wer
den.
Entsprechend dieser Detektionsergebnisse wird der in
Fig. 11 gezeigte Antriebsmechanismus 117 angetrieben, um
die Wafer zu bewegen, so daß die Maskenmarke 14 in der
Mitte zwischen den Wafermarken 13A und 13B in der Y-
Achsenrichtung positioniert wird. Eine Grobausrichtung in
der Y-Achsenrichtung mit einer Genauigkeit von ungefähr
+/-0,5 µm kann auf die obige Weise erreicht werden.
Als nächstes wird eine Feinausrichtung mit höherer Ge
nauigkeit erreicht, indem man die mit dem Bilddetektor
121B detektierten Bilder mit einem hohen Vergrößerungs
faktor nutzt.
In der folgenden Beschreibung wird angenommen, daß
die Fig. 12A Bilder mit einem hohen Vergrößerungsfaktor
zeigt, die auf die Lichtempfängerebene 129B des Bilddetek
tors 121B fokussiert sind. Der Controller 130 liest ein Refe
renzmuster für den hohen Vergrößerungsfaktor aus den Re
ferenzmusterspeicher 131.
Ein Beispiel für ein Referenzmuster für einen hohen Ver
größerungsfaktor ist in Fig. 12B gezeigt. Ähnlich zur Gro
bausrichtung wird dieses Referenzmuster anhand von Bil
dern erzeugt, die durch Licht, das an Kanten im Tiefenschär
fenbereich d des Bilddetektors 121B mit hohem Vergöße
rungsfaktor gestreut wird, gebildet werden, und das zu der in
Fig. 7C dargestellten Objektebene 27 zentriert ist.
Ein zum Referenzmuster ähnliches Bild wird von den Bil
dern auf der Lichtempfängerebene 129B abgeleitet. Zweidi
mensionale Teilbilder 42A und 42B der Wafermarke, die
ähnlich zum Referenzmuster sind, werden von den Bildern
40A und 40b der Wafermarken 13A und 13B abgeleitet,
während ein zwei-dimensionales Teilbild 43 der Masken
marke, das ähnlich zum Referenzmuster ist, vom Bild 41 der
Maskenmarke 14 abgeleitet wird. Wenn die Bilder einen
kleinen Defokussierungsgrad haben und zum Referenzbild
ähnliche Bilder abgeleitet werden können, so können solche
Bilder, die durch an Kanten außerhalb der Tiefenschärfe d
gestreutem Licht erzeugt werden, zusätzlich zu den Bildern,
die durch an Kanten innerhalb der Tiefenschärfe d gestreu
tem Licht gebildet werden, zum Erzeugen des Referenzmu
sters genutzt werden.
Betrachtet wird nun der Fall, in dem sich die zweidimen
sionalen Teilbilder 42A und 42B der Wafermarke im Be
reich von der a-ten Reihe zu b-ten Reihe befinden, und das
zwei-dimensionale Teilbild 43 der Maskenmarke sich im
Bereich von der c-ten Reihe zur d-ten Reihe befindet. Es
wird nun angenommen, daß eine q-te Spalte des zweidi
mensionalen Teilbilds 42A der Wafermarke und das zwei
dimensionale Teilbild 43 der Maskenmarke überspannt, und
daß eine p-te Spalte das zwei-dimensionale Teilbild 42B der
Wafermarke und das zwei-dimensionale Teilbild 43 der
Maskenmarke überspannt.
Die Bildsignale der Pixel im Bereich von der ersten
Spalte zur p-ten Spalte und im Bereich von der (q + 1)-ten
Spalte zur letzten Spalte werden synchron von der a-ten
Reihe bis zur b-ten Reihe akkumuliert. Synchrone Akkumu
lation bedeutet, daß die Bildsignale von Pixeln in derselben
Spalte von einer Reihe zur anderen Reihe akkumuliert wer
den. Als nächstes werden die Bildsignale der Pixel im Be
reich von der (p + 1)-ten Spalte zur q-ten Spalte synchron von
der c-ten Reihe zur d-ten Reihe akkumuliert. Die von zwei
synchronen Akkumulationen gewonnenen Bildsignale wer
den synthetisiert, um ein einziges eindimensionales synthe
tisiertes Bildsignal zu gewinnen.
Fig. 13 zeigt ein Beispiel eines ein-dimensionalen synthe
tisierten Bildsignals. Die Abszisse in Fig. 13 stellt eine Pi
xelspaltennummer dar, und die Ordinate bezeichnet eine
Lichtintensität in einer relativen Skala. Drei scharfe Peaks,
die dem zwei-dimensionalen Teilbild 43 der Maskenmarke
entsprechen, erscheinen im zentralen Bereich des in Fig. 13
gezeigten Graphen, und drei scharfe Peaks, die jeden der
zwei-dimensionalen Teilbilder 42A und 42B der Wafer
marke entsprechen, erscheinen auf beiden Seiten der drei
scharfen Peaks im zentralen Bereich. An den Positionen, die
der p-ten Spalte und der q-ten Spalte entsprechen, sind Stu
fen ausgebildet. Diese treten auf, weil die Bildsignale der Pi
xel im Bereich von der a-ten Reihe zur b-ten Reihe synchron
im Bereich von der ersten Spalte zur b-ten Spalte und im Be
reich von der (q + 1)-ten Spalte zur letzten Spalte akkumu
liert werden, während die Bildsignale der Pixel im Bereich
von der c-ten Reihe zur d-ten Reihe synchron im Bereich
von der (p + 1) Spalte und der q-ten Spalte akkumuliert wer
den.
Ein Signal-Rauschverhältnis kann verbessert werden, in
dem man eine synchrone Akkumulation von Bildsignalen
einer Vielzahl von Reihen vornimmt. Als nächstes wird be
schrieben, bis zu welchem Grad das Signalrauschverhältnis
verbessert werden kann.
Fig. 14 ist eine Querschnittsansicht des Wafers und der
Maske in der Region nahe der Objektebene und ist ähnlich
zu Fig. 7C.
Wie in Fig. 14 gezeigt, ist ein Winkel der optischen Achse
125 des optischen Systems 120 relativ zur Belichtungsober
fläche mit α bezeichnet. Kantenbilder der Maskenmarke 14
können klar auf die Lichtempfängerebene 129B fokussiert
werden, wenn die Kanten innerhalb des Tiefenschärfenbe
reiches positioniert sind. Die Weite L eines Bildes dieses Fo
kusbereiches, das vertikal auf die Objektebene 27 fokussiert
wird, ist gegeben durch
L = d/tan(α) (10)
Wenn der hohe Vergrößerungsfaktor eines Bildes, das auf
die in Fig. 12A dargestellte Lichtempfängerebene 129B fo
kussiert ist, mit N bezeichnet wird, und der Pixelabstand in
der Spaltenrichtung auf der Lichtempfängerebene 129B mit
P bezeichnet wird, dann ist die Zahl (d - c + 1) von Reihen, die
einen deutlichen Bildteil 43 überspannen, gegeben durch:
d - c + 1 - L/(P/N) (11)
Die Gleichungen (9) und (10) werden in die Gleichung
(11) eingesetzt, so daß sich folgende Gleichung ergibt:
d - c + 1 = N × λ//NA2 × P × tan(α) (12)
Bei der Positionsausrichtung dieser Ausführungsform ist
N = 100, λ = 0,6 µm, NA = 0,35, P = 13 µm und α = 300.
Diese Werte werden in die Gleichung (12) eingesetzt, was
zu einer Reihenzahl (d - c + 1) von annähernd 65 führt. Die
synchrone Akkumulation von Bildsignalen von 65 Reihen
verbessert das Signalrauschverhältnis um ungefähr 651/2,
was nahezu das 8-fache ist.
Nutzt man die in Fig. 13 dargestellte Wellenform, so kann
die relative Position der Masken- und Wafermarken durch
eine Methode bestimmt werden, die ähnlich zu der mit den
Fig. 9A und 9B beschriebenen Methode ist. Die Entfernung
zwischen den Mitten kann durch Interpolationsberechnung
mit einer Genauigkeit von (P/N) µm oder weniger erreicht
werden. Mit dieser hochgenauen Positionsausrichtung ist
eine Genauigkeit von +/-2 bis 3 nm möglich.
Während in der vierten Ausführungsform die synchrone
Akkumulation für die Pixel im Bereich von der a-ten Reihe
zur b-ten Reihe der in Fig. 12A dargestellten Lichtempfän
gerebene 129B vorgenommen wird, werden die Pixel im
Bereich von der (p + 1)-ten Spalte zur q-ten Spalte nicht syn
chron akkumuliert. Während die Synchronakkumulation für
die Pixel im Bereich von der c-ten Reihe zur d-ten Reihe
vorgenommen wird, werden die Pixel im Bereich von der er
sten Spalte zur p-ten Spalte und im Bereich von der (q + 1)-
ten Spalte zur letzten Spalte nicht synchron akkumuliert. Es
ist ist deshalb nötig, die Zeit für die synchrone Akkumula
tion zu verkürzen.
Obwohl in der vierten Ausführungsform das Gebiet, das
der synchronen Akkumulation unterworfen wird, wie oben
bestimmt worden ist, können andere Teilgebiete der syn
chronen Akkumulation unterworfen werden. In solch einem
Fall werden die der synchronen Akkumulation unterworfe
nen Teilgebiete geteilt, so daß die zwei-dimensionalen Teil
bilder 42A und 42B der Wafermarke und das zweidimen
sionale Teilbild 43 der Maskenmarke zumindest Teile des
Akkumulationsgebietes überlappen. Durch die Teilung des
Akkumulationsgebietes auf die obige Weise kann die Be
rechnungszeit verkürzt werden und die Positionsausrichtung
mit einer hohen Genauigkeit vorgenommen werden, da das
Signalrauschverhältnis verbessert werden kann.
Ebenfalls werden in der vierten Ausführungsform zwei
Bilder der beiden Wafermarken und ein Bild von einer Mas
kenmarke auf die Lichtempfängerfläche fokussiert. Statt
dessen können zwei Bilder auf der Lichtempfängerfläche
abgebildet werden, um die relative Position der beiden Bil
der zu detektieren. In diesem Fall kann die relative Position
der beiden Bilder von den Bildsignalen detektiert werden,
die durch synchrone Akkumulation von Bildsignalen in der
Spaltenrichtung in den beiden Gebieten gewonnen wurden,
von denen jedes zumindest ein Teil von jedem der beiden
Bilder überlappt.
In den oben beschriebenen Ausführungsformen ist die
Positionsausrichtung eines Wafers und einer Maske be
schrieben worden. Die obigen Ausführungsformen sind
nicht nur auf die Positionsausrichtung eines Wafers und ei
ner Maske beschränkt, sondern sind auch anwendbar auf die
Positionsausrichtung eines ersten Bauteils, das eine Haupt
oberfläche besitzt, und eines zweiten Bauteils, das durch
eine gewisse Lücke entfernt von der Hauptoberfläche ange
ordnet ist.
Die vorliegende Erfindung ist in Verbindung mit den be
vorzugten Ausführungsformen beschrieben werden. Die Er
findung ist nicht nur auf die obigen Ausführungsformen be
schränkt. Es ist offensichtlich, daß verschiedene Modifika
tionen, Verbesserungen, Kombinationen und ähnliches
durch den Fachmann vorgenommen werden können.
Claims (31)
1. Ein Positionsdetektionsverfahren, bestehend aus
den Schritten: Anordnen eines Wafers mit einer Belich
tungsoberfläche und einer Belichtungsmaske, mit einer
zwischen die Belichtungsoberfläche und die Belich
tungsmaske eingeführten Lücke, der Wafer mit einer
auf der Belichtungsoberfläche gebildeten Wafermarke,
die Wafermarke mit Kanten zur Streuung von einfal
lendem Licht, jede Kante mit einem gekrümmten Teil,
dessen auf eine parallel zur Belichtungsoberfläche
senkrecht projiziertes Bild eine gekrümmte Form hat,
die Belichtungsmaske mit einer auf ihrer Oberfläche
befindlichen Maskenmarke, die Maskenmarke mit
Kanten zur Streuung einfallenden Lichtes, jede Kante
mit einem gekrümmten Teil, dessen senkrecht auf eine
Ebene parallel zur Oberfläche der Belichtungsmaske
projiziertes Bild eine gekrümmte Form hat; und Detek
tieren einer relativen Position des Wafers und der Be
lichtungsmaske durch Beleuchten der gekrümmten
Teile der Kanten des Wafers und der Maskenmarken
und durch Beobachten des von den gekrümmten Teilen
gestreuten Lichtes entlang einer zur Belichtungsober
fläche geneigten Richtung.
2. Ein Positionsdetektionsverfahren nach Anspruch 1,
wobei ein Krümmungsradius eines Bildes des ge
krümmten Teils jeder Kante der Wafer- und Masken
marken, das senkrecht auf die Belichtungsoberfläche
oder die Maskenoberfläche projiziert wird, gleich oder
kleiner als die Auflösung eines optischen Beobach
tungssystem ist.
3. Ein Positionsdetektionsverfahren nach Anspruch 1,
wobei im genannten Schritt zur Detektion der relativen
Position gestreutes Licht mit einem optischen System
beobachten wird, das eine zur Belichtungsoberfläche
optische Achse besitzt, und Beleuchtungslicht entlang
einer Richtung ausgestrahlt wird, so daß regulär von
den Wafer- und Maskenmarken reflektiertes Licht nicht
auf das optische System einfällt.
4. Ein Positionsdetektionsverfahren nach Anspruch 3,
wobei eine optische Achse des Beleuchtungslichtes
und die optische Beobachtungsachse gleich sind.
5. Ein Positionsdetektionsverfahren nach Anspruch 4,
wobei eine Vielzahl von Wafermarken entlang einer
zur Einfallsebene des Beleuchtungslichtes senkrechten
Richtung angeordnet ist, und eine Vielzahl von Mas
kenmarken entlang einer zu einer Einfallsebene des
Beleuchtungslichtes senkrechten Richtung angeordnet
ist, und in dessen genanntem Schritt zur Detektion der
relativen Position die Detektion der relativen Position
in einer zur Einfallsebene des Beleuchtungslichtes
senkrechten Richtung erfolgt.
6. Ein Positionsdetektionsverfahren nach Anspruch 5,
wobei die Kante der Wafermarke und die Kante der
Maskenmarke so angeordnet sind, daß eine der Kanten
parallel zur anderen der Kanten bewegt und nach Voll
endung der Positionsausrichtung überlagert werden
können, und der genannte Schritt zur Detektion der re
lativen Position einen Schritt zur Veränderung der rela
tiven Position des Wafers und der Belichtungsmarken
einschließt, so daß eine der Kanten parallel zur anderen
der Kanten bewegt und aufeinander überlagert werden
können.
7. Ein Halbleitersubstrat mit einer Belichtungsoberflä
che, die durch eine Vielzahl von Ausrichtungswafer
marken entlang einer zu einer Einfallsebene des einfal
lenden Lichtes senkrechten Richtung gebildet ist, jede
Wafermarke mit einer Kante zur Streuung einfallenden
Lichtes, und ein senkrecht auf die Belichtungsoberflä
che projiziertes Bild einer Kante mit mindestens einem
gekrümmten Teil.
8. Ein Halbleitersubstrat nach Anspruch 7, wobei eine
Vielzahl von Wafermarken entlang einer zur Einfalls
ebene des einfallendes Lichtes parallelen Richtung an
geordnet sind.
9. Eine Belichtungsmaske mit einer Vielzahl von Aus
richtungsmarken, die entlang einer senkrecht zur Ein
fallsebene des einfallenden Lichtes stehenden Rich
tung angeordnet sind, jede Maskenmarke mit einer
Kante zur Streuung des einfallenden Lichtes und ein
senkrecht auf die Oberfläche der Belichtungsmaske
projiziertes Kantenbild mit mindestens einem ge
krümmten Teil.
10. Eine Belichtungsmaske nach Anspruch 9, wobei
eine Vielzahl von Maskenmarken entlang einer zur
Einfallsebene des einfallenden Lichtes stehenden Rich
tung angeordnet ist.
11. Ein Positionsdetektionsverfahren, bestehend aus
den Schritten:
Anordnen eines Bauteils mit einer zu belichtenden Be lichtungsoberfläche und einer Belichtungsmaske, mit einer zwischen der Belichtungsoberfläche und der Be lichtungsmaske befindlichen Lücke, das Bauteil mit ei ner auf der Belichtungsoberfläche gebildeten Ausrich tungsmarke, die Ausrichtungsmarke mit Kanten oder Scheiteln zur Streuung einfallenden Lichtes, die Be lichtungsmaske mit einer auf ihrer Oberfläche gebilde ten Maskenmarke, die Maskenmarke mit Kanten oder Scheiteln zur Streuung einfallenden Lichtes, und
Detektieren der relativen Position des Bauteiles und der Belichtungsmaske durch Beleuchten der Kanten und Scheitel der Ausrichtungs- und Maskenmarken, durch Fokussieren des von den Ausrichtungs- und Maskenmarken gestreuten Lichtes auf eine Lichtemp fängerebene, und durch Beobachten von Bildern auf der Lichtempfängerebene, wobei ein von den Ausrich tungs- und Maskenmarken gestreuter Lichtstrom unter drückt wird oder von sowohl an Ausrichtungs- und Maskenmarken gestreute Lichtströme unterschiedlich unterdrückt werden, so daß eine Lichtintensität eines Bildes, das durch den an der Ausrichtungsmarke ge streuten Lichtstrom erzeugt wird und daß auf die Licht empfängerebene fokussiert wird, sich an eine Lichtin tensität eines Bildes annähert, daß durch den an der Maskenmarke gestreuten Lichtstroms erzeugt wird und auf die Lichtempfängerebene fokussiert wird
Anordnen eines Bauteils mit einer zu belichtenden Be lichtungsoberfläche und einer Belichtungsmaske, mit einer zwischen der Belichtungsoberfläche und der Be lichtungsmaske befindlichen Lücke, das Bauteil mit ei ner auf der Belichtungsoberfläche gebildeten Ausrich tungsmarke, die Ausrichtungsmarke mit Kanten oder Scheiteln zur Streuung einfallenden Lichtes, die Be lichtungsmaske mit einer auf ihrer Oberfläche gebilde ten Maskenmarke, die Maskenmarke mit Kanten oder Scheiteln zur Streuung einfallenden Lichtes, und
Detektieren der relativen Position des Bauteiles und der Belichtungsmaske durch Beleuchten der Kanten und Scheitel der Ausrichtungs- und Maskenmarken, durch Fokussieren des von den Ausrichtungs- und Maskenmarken gestreuten Lichtes auf eine Lichtemp fängerebene, und durch Beobachten von Bildern auf der Lichtempfängerebene, wobei ein von den Ausrich tungs- und Maskenmarken gestreuter Lichtstrom unter drückt wird oder von sowohl an Ausrichtungs- und Maskenmarken gestreute Lichtströme unterschiedlich unterdrückt werden, so daß eine Lichtintensität eines Bildes, das durch den an der Ausrichtungsmarke ge streuten Lichtstrom erzeugt wird und daß auf die Licht empfängerebene fokussiert wird, sich an eine Lichtin tensität eines Bildes annähert, daß durch den an der Maskenmarke gestreuten Lichtstroms erzeugt wird und auf die Lichtempfängerebene fokussiert wird
12. Ein Positionsdetektionsverfahren nach Anspruch
11, wobei im genannten Schritt zur Detektion der rela
tiven Position das von der Ausrichtungsmarke ge
streute Licht über einen ersten optischen Filter fokus
siert wird, und das von der Maskenmarke gestreute
Licht über einen zweiten optischen Filter fokussiert
wird, das einen Transmissionsfaktor besitzt, der vom
Transmissionsfaktor des ersten optischen Filters ver
schieden ist.
13. Ein Positionsdetektionsverfahren nach Anspruch
12, wobei der erste und zweite optische Filter in ver
schiedenen Gebieten eines optischen Filterbauteils de
finiert sind.
14. Ein Positionsdetektionsverfahren nach Anspruch
13, wobei das optische Filterbauteil unmittelbar vor der
Lichtempfängerebene angeordnet ist.
15. Ein Positionsdetektionsverfahren nach Anspruch
11, wobei im genannten Schritt zur Detektion der rela
tiven Position gestreutes Licht auf die Lichtempfänger
ebene fokussiert wird, indem ein optisches System benutzt
wird, das dieselbe optische Achse wie eine opti
sche Achse des Beleuchtungslichts besitzt.
16. Eine Positionsdetektionsvorrichtung bestehend
aus:
ein optisches Beleuchtungssystem für die Beleuchtung eines Bauteils mit einer zu belichtenden Belichtungs oberfläche und einer Maske, die parallel zur Belich tungsoberfläche des Bauteils und durch eine Lücke von der Belichtungsoberfläche entfernt angeordnet ist; und
ein optisches Beobachtungssystem mit einer zur Be lichtungsoberfläche des Bauteils geneigten optischen Achse, zur Fokussierung des vom Bauteil und der Maske gestreuten Lichtes auf die Lichtempfänger ebene, genanntes optisches Beobachtungssystem ein schließlich eines unmittelbar vor der Lichtempfänger ebene angeordneten optischen Filters, und ein Trans missionsfaktor des optischen Filters, der verschieden ist in einem Gebiet, das zu einem Gebiet gehört, wo das vom Bauteil gestreute Licht fokussiert wird, und in ei nem Gebiet, daß zu einem Gebiet gehört, wo das von der Maske gestreute Licht fokussiert wird.
ein optisches Beleuchtungssystem für die Beleuchtung eines Bauteils mit einer zu belichtenden Belichtungs oberfläche und einer Maske, die parallel zur Belich tungsoberfläche des Bauteils und durch eine Lücke von der Belichtungsoberfläche entfernt angeordnet ist; und
ein optisches Beobachtungssystem mit einer zur Be lichtungsoberfläche des Bauteils geneigten optischen Achse, zur Fokussierung des vom Bauteil und der Maske gestreuten Lichtes auf die Lichtempfänger ebene, genanntes optisches Beobachtungssystem ein schließlich eines unmittelbar vor der Lichtempfänger ebene angeordneten optischen Filters, und ein Trans missionsfaktor des optischen Filters, der verschieden ist in einem Gebiet, das zu einem Gebiet gehört, wo das vom Bauteil gestreute Licht fokussiert wird, und in ei nem Gebiet, daß zu einem Gebiet gehört, wo das von der Maske gestreute Licht fokussiert wird.
17. Eine Positionsdetektionsvorrichtung nach An
spruch 16, wobei das optische Filter ein neutrales Dich
tefilter ist, das zwei Gebiete mit unterschiedlichen
Transmissionsfaktoren definiert.
18. Eine Positionsdetektionsvorrichtung, bestehend
aus:
ein optisches Beleuchtungssystem zur Beleuchtung ei nes Wafers und einer Maske, die an den Wafer angrenzt und durch eine Lücke von ihm entfernt ist:
ein erstes optisches Beobachtungssystem mit einer zur Belichtungsoberfläche des Wafers geneigten optischen Beobachtungsachse, für die Fokussierung des vom Wa fer und der Maske reflektierten und gestreuten Lichtes auf eine erste Lichtempfängerebene; und
ein zweites optisches Beobachtungssystem zur Fokus sierung des von einem Teilreflexionsspiegels reflektier ten Lichtes, der entlang der optischen Achse des ge nannten ersten optischen Beobachtungssystems ange ordnet ist, auf eine zweite Lichtempfängerebene, das genannte zweite optische Beobachtungssystem mit ei nem Vergrößerungsfaktor verschieden vom Vergröße rungsfaktor des genannten ersten optischen Beobach tungssystems.
ein optisches Beleuchtungssystem zur Beleuchtung ei nes Wafers und einer Maske, die an den Wafer angrenzt und durch eine Lücke von ihm entfernt ist:
ein erstes optisches Beobachtungssystem mit einer zur Belichtungsoberfläche des Wafers geneigten optischen Beobachtungsachse, für die Fokussierung des vom Wa fer und der Maske reflektierten und gestreuten Lichtes auf eine erste Lichtempfängerebene; und
ein zweites optisches Beobachtungssystem zur Fokus sierung des von einem Teilreflexionsspiegels reflektier ten Lichtes, der entlang der optischen Achse des ge nannten ersten optischen Beobachtungssystems ange ordnet ist, auf eine zweite Lichtempfängerebene, das genannte zweite optische Beobachtungssystem mit ei nem Vergrößerungsfaktor verschieden vom Vergröße rungsfaktor des genannten ersten optischen Beobach tungssystems.
19. Eine Positionsdetektionsvorrichtung nach An
spruch 18, weiter bestehend aus:
ein Waferhalter für das Halten der Wafer;
ein Maskenhalter zum Halten der Maske, so daß die Maske an die Belichtungsoberfläche des Wafers an grenzt und von der Belichtungsoberfläche des Wafers, der durch genannten Waferhalter gehalten wird, durch eine Lücke entfernt ist; und
ein Bewegungsmechanismus zur Veränderung der rela tiven Position des Wafers und der Maske durch das Be wegen des genannten Waferhalters und/oder des ge nannten Maskenhalters.
ein Waferhalter für das Halten der Wafer;
ein Maskenhalter zum Halten der Maske, so daß die Maske an die Belichtungsoberfläche des Wafers an grenzt und von der Belichtungsoberfläche des Wafers, der durch genannten Waferhalter gehalten wird, durch eine Lücke entfernt ist; und
ein Bewegungsmechanismus zur Veränderung der rela tiven Position des Wafers und der Maske durch das Be wegen des genannten Waferhalters und/oder des ge nannten Maskenhalters.
20. Eine Positionsdetektionsvorrichtung nach An
spruch 19, weiter bestehend aus: Steuerbaugruppe zur
Veränderung der relativen Position des Wafers und der
Maske durch Antreiben des genannten Bewegungsme
chanismus entsprechend der Bildinformationen von
Bildern auf der ersten und zweiten Lichtempfänger
ebene, wobei die Bildinformationen vom genannten er
sten und zweiten optischen Beobachtungssystem stam
men.
21. Eine Positionsdetektionsvorrichtung nach An
spruch 20, wobei die genannte Steuerbaugruppen die
relative Position des Wafers und der Maske entlang ei
ner Richtung einer Schnittlinie zwischen einer senk
recht zur optischen Beobachtungsachse stehenden vir
tuellen Ebene und der Belichtungsoberfläche entspre
chende Bildinformationen eines Bildes detektiert, das
vom genannten ersten und zweiten optischen Beobach
tungssystem mit einem höheren Vergrößerungsfaktor
gewonnen wird, und die die Lücke zwischen der Be
lichtungsoberfläche und der Maske entsprechend den
Bildinformationen eines Bildes detektiert, das vom ge
nannten ersten oder zweiten optischen Beobachtungs
system mit einem niedrigeren Vergrößerungsfaktor ge
wonnen wird.
22. Eine Positionsdetektionsvorrichtung entsprechend
Anspruch 20, wobei die genannte Steuerbaugruppe die
relative Position des Wafers und der Maske entlang ei
ner Richtung einer Schnittlinie zwischen einer senk
recht zur optischen Beobachtungsachse stehenden vir
tuellen Ebene und der Belichtungsoberfläche entspre
chend der Bildinformationen eines Bildes grob detek
tiert, das vom genannten ersten oder zweiten optischen
Beobachtungssystem mit einem geringeren Vergröße
rungsfaktor gewonnen wird, und daß den genannten
Bewegungsmechanismus entsprechend der Detekti
onsergebnisse zu Ausrichtung der Wafers und der
Maske entlang der betrachteten Richtung antreibt, und
danach die relative Position des Wafers und der Maske
entlang der Richtung der Schnittlinie zwischen der
senkrecht zur optischen Beobachtungsachse stehenden
virtuellen Ebene und der Belichtungsoberfläche ent
sprechend der Bildinformationen eines Bildes fein de
tektiert, das vom genannten ersten und zweiten opti
schen Beobachtungssystem mit einem höheren Vergrö
ßerungsfaktor gewonnen wird, und den genannten Be
wegungsmechanismus entsprechend der Detektionser
gebnisse zur Ausrichtung des Wafers und der Maske
entlang der betrachteten Richtung antreibt.
23. Ein Positionsdetektionsverfahren, bestehend aus
den Schritten:
Anordnen eines Wafers mit einer Belichtungsoberflä che und einer Maske, mit einer zwischen der Belich tungsoberfläche und der Belichtungsmaske befindli chen Lücke, der Wafer mit einer auf der Belichtungs oberfläche gebildeten Wafermarke, die Wafermarke mit Kanten oder Scheiteln zur Streuung einfallenden Lichtes, die Maske mit einer Maskenmarke mit Kanten oder Scheiteln zur Streuung einfallendes Lichtes;
grobes Detektieren einer relativen Position des Wafers und der Maske durch Beleuchtung der Kanten oder Scheiteln der Wafer- und Maskenmarken und durch Beobachten des von den Wafer- und Maskenmarken gestreuten Lichtes mit einem ersten optischen Beob achtungssystem, das eine zur Belichtungsoberfläche geneigte optische Beobachtungsachse besitzt;
Bewegen des Wafers und/oder der Maske entsprechend der Detektionsergebnisse, die im genannten Schritt zur groben Detektion der relativen Position gewonnen wurden, um den Wafer und die Maske grob auszurich ten;
feines Detektieren der relativen Position des Wafers und der Maske durch Beobachten des von den Wafer- und Maskenmarken gestreuten Lichtes mit einem zwei ten optischen Beobachtungssystem, das dieselbe opti sche Beobachtungsachse wie das erste optische Beob achtungssystem besitzt und einen höheren Vergröße rungsfaktor als das erste optische Beobachtungssystem hat; und
Bewegen des Wafers und/oder der Maske zur Feinaus richtung des Wafers und der Maske entsprechend der Detektionsergebnisse, die im genannten Schritt zur Feindetektion der relativen Position gewonnen wurde.
Anordnen eines Wafers mit einer Belichtungsoberflä che und einer Maske, mit einer zwischen der Belich tungsoberfläche und der Belichtungsmaske befindli chen Lücke, der Wafer mit einer auf der Belichtungs oberfläche gebildeten Wafermarke, die Wafermarke mit Kanten oder Scheiteln zur Streuung einfallenden Lichtes, die Maske mit einer Maskenmarke mit Kanten oder Scheiteln zur Streuung einfallendes Lichtes;
grobes Detektieren einer relativen Position des Wafers und der Maske durch Beleuchtung der Kanten oder Scheiteln der Wafer- und Maskenmarken und durch Beobachten des von den Wafer- und Maskenmarken gestreuten Lichtes mit einem ersten optischen Beob achtungssystem, das eine zur Belichtungsoberfläche geneigte optische Beobachtungsachse besitzt;
Bewegen des Wafers und/oder der Maske entsprechend der Detektionsergebnisse, die im genannten Schritt zur groben Detektion der relativen Position gewonnen wurden, um den Wafer und die Maske grob auszurich ten;
feines Detektieren der relativen Position des Wafers und der Maske durch Beobachten des von den Wafer- und Maskenmarken gestreuten Lichtes mit einem zwei ten optischen Beobachtungssystem, das dieselbe opti sche Beobachtungsachse wie das erste optische Beob achtungssystem besitzt und einen höheren Vergröße rungsfaktor als das erste optische Beobachtungssystem hat; und
Bewegen des Wafers und/oder der Maske zur Feinaus richtung des Wafers und der Maske entsprechend der Detektionsergebnisse, die im genannten Schritt zur Feindetektion der relativen Position gewonnen wurde.
24. Ein Positionsdetektionsverfahren, bestehend aus
den Schritten:
Anordnen eines ersten Bauteiles mit einer Hauptober fläche und eines zweiten an die Hauptoberfläche an grenzenden und von ihr um eine Lücke entfernten Bau teils, das erste Bauteil mit einer auf der Hauptoberflä che gebildeten ersten Ausrichtungsmarke zur Streuung einfallenden Lichtes, und das zweite Bauteil mit einer zweiten Ausrichtungsmarke zur Streuung einfallenden Lichtes;
Fokussieren des Lichtes zur Beleuchtung der ersten und zweiten Marken und des von dort gestreuten Lich tes auf eine Lichtempfängerebene über ein bündelndes optisches System mit einer zur Hauptoberfläche ge neigten optischen Achse, wobei lichtempfangende Ele mentes auf der Lichtempfängerebene in Matrixform angeordnet sind, und die Reihenrichtung der Lichtemp fängerebene einer Richtung einer Schnittlinie zwischen der Hauptoberfläche und einer senkrecht zur optischen Achse des bündelnden optischen Systems stehenden virtuellen Ebene entspricht;
Ableiten eines zu einem Referenzmuster ähnlichen er sten zwei-dimensionalen Teilbildes und ähnlichen zweiten zwei-dimensionalen Teilbildes von einem Bild, das durch von der ersten Marke gestreutes Licht erzeugt und auf die Lichtempfängerebene fokussiert wird, und von einem Bild, das durch von der zweiten Marke gestreutes Licht erzeugt und auf die Lichtemp fängerebene fokussiert wird;
Erzeugen eines synthetisierten ein-dimensionalen Bild signales durch Akkumulation in Spaltenrichtung von Bildsignalen von Pixeln in einem ersten Gebiet, das das erste zwei-dimensionale Teilbild einschließt, und in ei nem zweiten Gebiet, das das zweite zwei-dimensionale Teilgebiet einschließt; und Gewinnen einer relativen Position der ersten und zweiten Marken entsprechend des synthetisierten eindimensionalen Bildsignals.
Anordnen eines ersten Bauteiles mit einer Hauptober fläche und eines zweiten an die Hauptoberfläche an grenzenden und von ihr um eine Lücke entfernten Bau teils, das erste Bauteil mit einer auf der Hauptoberflä che gebildeten ersten Ausrichtungsmarke zur Streuung einfallenden Lichtes, und das zweite Bauteil mit einer zweiten Ausrichtungsmarke zur Streuung einfallenden Lichtes;
Fokussieren des Lichtes zur Beleuchtung der ersten und zweiten Marken und des von dort gestreuten Lich tes auf eine Lichtempfängerebene über ein bündelndes optisches System mit einer zur Hauptoberfläche ge neigten optischen Achse, wobei lichtempfangende Ele mentes auf der Lichtempfängerebene in Matrixform angeordnet sind, und die Reihenrichtung der Lichtemp fängerebene einer Richtung einer Schnittlinie zwischen der Hauptoberfläche und einer senkrecht zur optischen Achse des bündelnden optischen Systems stehenden virtuellen Ebene entspricht;
Ableiten eines zu einem Referenzmuster ähnlichen er sten zwei-dimensionalen Teilbildes und ähnlichen zweiten zwei-dimensionalen Teilbildes von einem Bild, das durch von der ersten Marke gestreutes Licht erzeugt und auf die Lichtempfängerebene fokussiert wird, und von einem Bild, das durch von der zweiten Marke gestreutes Licht erzeugt und auf die Lichtemp fängerebene fokussiert wird;
Erzeugen eines synthetisierten ein-dimensionalen Bild signales durch Akkumulation in Spaltenrichtung von Bildsignalen von Pixeln in einem ersten Gebiet, das das erste zwei-dimensionale Teilbild einschließt, und in ei nem zweiten Gebiet, das das zweite zwei-dimensionale Teilgebiet einschließt; und Gewinnen einer relativen Position der ersten und zweiten Marken entsprechend des synthetisierten eindimensionalen Bildsignals.
25. Ein Positionsdetektionsverfahren nach Anspruch
24, wobei das Referenzmuster entsprechend Bildern
erzeugt wird, die durch an Streuquellen der ersten oder
zweiten Marke gestreutes Licht im Tiefenschärfenbe
reich des bündelnden optischen Systems entstehen.
26. Ein Positionsdetektionsverfahren nach Anspruch
24, wobei:
jede der ersten und zweiten Marken eine Vielzahl von Streuquellen besitzt, die entlang einer zur Einfalls ebene des Beleuchtungslichtes parallelen geraden Li nie angeordnet sind; und
im genannten Fokussierungsschritt, das von minde stens einer der Streuquellen gestreutes Licht von jeder der ersten und zweiten Marken auf die Lichtempfän gerebene fokussiert wird.
jede der ersten und zweiten Marken eine Vielzahl von Streuquellen besitzt, die entlang einer zur Einfalls ebene des Beleuchtungslichtes parallelen geraden Li nie angeordnet sind; und
im genannten Fokussierungsschritt, das von minde stens einer der Streuquellen gestreutes Licht von jeder der ersten und zweiten Marken auf die Lichtempfän gerebene fokussiert wird.
27. Ein Positionsdetektionsverfahren nach Anspruch
24, wobei:
mindestens eine der ersten und zweiten Marken aus zwei Marken bestehen, die räumlich entlang einer Richtung angeordnet sind, die der Reihenrichtung der Lichtempfängerebene entspricht;
im genannten Schritt zur Ableitung des zweidimensio nalen Teilbildes zwei zwei-dimensionale Teilbilder der ersten oder zweiten Marken abgeleitest werden; und
im genannten Schritt zum Gewinnen des synthetisier ten ein-dimensionalen Bildsignales die Bildsignale der Pixel zwischen den beiden zwei-dimensionalen Teilbil dern der ersten oder zweiten Marken nicht akkumuliert werden.
mindestens eine der ersten und zweiten Marken aus zwei Marken bestehen, die räumlich entlang einer Richtung angeordnet sind, die der Reihenrichtung der Lichtempfängerebene entspricht;
im genannten Schritt zur Ableitung des zweidimensio nalen Teilbildes zwei zwei-dimensionale Teilbilder der ersten oder zweiten Marken abgeleitest werden; und
im genannten Schritt zum Gewinnen des synthetisier ten ein-dimensionalen Bildsignales die Bildsignale der Pixel zwischen den beiden zwei-dimensionalen Teilbil dern der ersten oder zweiten Marken nicht akkumuliert werden.
28. Eine Positionsdetektionsvorrichtung, bestehend
aus: Beleuchtungsbaugruppe zur Beleuchtung eines er
sten Bauteiles mit einer Hauptoberfläche, die mit einer
ersten Ausrichtungsmarke zur Streuung einfallendes
Lichtes gebildet ist und zur Beleuchtung eines zweiten
Bauteiles mit einer zweiten Ausrichtungsmarke zur
Streuung einfallenden Lichtes, wobei das zweite Bau
teil so gehalten wird, daß die mit der zweiten Marke ge
bildete Oberfläche zur Hauptoberfläche zeigt;
Bilddetektionsbaugruppe mit einer Lichtempfänger ebene, auf der Pixel in einer Matrixform angeordnet sind, genannte Bilddetektionsbaugruppe zur Erzeu gung von zu Pixeln gehörenden Bildsignalen entspre chend der Lichtintensität, die die Pixel empfangen;
bündelndes optisches System mit einer zur Hauptober fläche geneigten optischen Achse zur Fokussierung des von den ersten und zweiten Marken gestreuten Lichtes auf die Lichtempfängerebene;
Referenzmusterspeicherbaugruppe für die Speicherung eines Referenzmusters; und
Steuerbaugruppe zur Ableitung eines ersten zweidi mensionalen Teilbildes und eines zweiten zweidimen sionalen Teilbildes, die jeweils ähnlich zu einem in der genannten Referenzmusterspeicherbaugruppe gespei cherten Referenzmusters sind, von einem Bild, das durch an der ersten Marke gestreutes Licht erzeugt und auf die Lichtempfängerebene fokussiert wird, und von einem Bild, das durch an der zweiten Marke gestreutes Licht erzeugt und auf die Lichtempfängerebene fokus siert wird, zur Bildung eines synthetisierten eindimen sionalen Bildsignales durch Akkumulieren in der Spal tenrichtung der Bildsignale der Pixel in einem ersten Teilgebiet, das das erste zwei-dimensionale Teilbild einschließt, und in einem zweiten Teilgebiet, das das zweite zwei-dimensionale Teilgebiet einschließt, und Gewinnen einer relativen Position der ersten und zwei ten Marken entsprechend dem synthetisierten eindi mensionalen Bildsignal.
Bilddetektionsbaugruppe mit einer Lichtempfänger ebene, auf der Pixel in einer Matrixform angeordnet sind, genannte Bilddetektionsbaugruppe zur Erzeu gung von zu Pixeln gehörenden Bildsignalen entspre chend der Lichtintensität, die die Pixel empfangen;
bündelndes optisches System mit einer zur Hauptober fläche geneigten optischen Achse zur Fokussierung des von den ersten und zweiten Marken gestreuten Lichtes auf die Lichtempfängerebene;
Referenzmusterspeicherbaugruppe für die Speicherung eines Referenzmusters; und
Steuerbaugruppe zur Ableitung eines ersten zweidi mensionalen Teilbildes und eines zweiten zweidimen sionalen Teilbildes, die jeweils ähnlich zu einem in der genannten Referenzmusterspeicherbaugruppe gespei cherten Referenzmusters sind, von einem Bild, das durch an der ersten Marke gestreutes Licht erzeugt und auf die Lichtempfängerebene fokussiert wird, und von einem Bild, das durch an der zweiten Marke gestreutes Licht erzeugt und auf die Lichtempfängerebene fokus siert wird, zur Bildung eines synthetisierten eindimen sionalen Bildsignales durch Akkumulieren in der Spal tenrichtung der Bildsignale der Pixel in einem ersten Teilgebiet, das das erste zwei-dimensionale Teilbild einschließt, und in einem zweiten Teilgebiet, das das zweite zwei-dimensionale Teilgebiet einschließt, und Gewinnen einer relativen Position der ersten und zwei ten Marken entsprechend dem synthetisierten eindi mensionalen Bildsignal.
29. Eine Positionsdetektionsvorrichtung nach An
spruch 28, wobei, falls zwei Marken der ersten und/
oder zweiten Marken räumlich entlang einer Richtung
angeordnet sind, die einer Reihenrichtung der Licht
empfängerebene entspricht, genannte Steuerbaugruppe
zwei zwei-dimensionale Teilbilder der ersten oder
zweiten Marken ableitet und die Akkumulation durch
Ausschließen der Pixel zwischen den beiden zweidi
mensionalen Teilbildern der ersten oder zweiten Mar
ken vornimmt.
30. Ein Positionsdetektionsverfahren, bestehend aus
den Schritten:
Fokussieren zweier Bilder auf eine Lichtempfänger ebene mit in Matrixform angeordneten lichtempfan genden Elementen zur Erzeugung eines Bildsignals entsprechend dem einfallenden Licht, wobei die beiden Bilder an verschiedenen Positionen in der Spaltenrich tung der Lichtempfängerebene abgebildet sind;
Akkumulieren in der Spaltenrichtung von Bildsignalen von Pixeln in zwei Gebieten, von denen jedes minde stens einen Teil jedes der beiden Bilder teilweise über lappt; und
Gewinnen einer relativen Position der beiden Bilder entsprechend einem Bildsignal, das im genannten Ak kumulierungsschritt akkumuliert wird.
Fokussieren zweier Bilder auf eine Lichtempfänger ebene mit in Matrixform angeordneten lichtempfan genden Elementen zur Erzeugung eines Bildsignals entsprechend dem einfallenden Licht, wobei die beiden Bilder an verschiedenen Positionen in der Spaltenrich tung der Lichtempfängerebene abgebildet sind;
Akkumulieren in der Spaltenrichtung von Bildsignalen von Pixeln in zwei Gebieten, von denen jedes minde stens einen Teil jedes der beiden Bilder teilweise über lappt; und
Gewinnen einer relativen Position der beiden Bilder entsprechend einem Bildsignal, das im genannten Ak kumulierungsschritt akkumuliert wird.
31. Eine Positionsdetektionsvorrichtung, bestehend
aus:
einer Lichtempfängerebene mit in Matrixform ange ordneten Lichtempfängerelementen zur Erzeugung ei nes Bildsignales entsprechend dem einfallenden Licht; und
Steuerbaugruppe zur Bestimmung von zwei Gebieten, von denen jedes mindestens einen Teil jedes der auf der genannten Lichtempfängerebene befindlichen Bilder teilweise überlappt, wobei die Bildsignale der Pixel in den beiden Gebieten in Spaltenrichtung akkumuliert werden, und für das Gewinnen einer relativen Position der beiden Bilder entsprechend eines durch die Akku mulation gewonnenen Bildsignales.
einer Lichtempfängerebene mit in Matrixform ange ordneten Lichtempfängerelementen zur Erzeugung ei nes Bildsignales entsprechend dem einfallenden Licht; und
Steuerbaugruppe zur Bestimmung von zwei Gebieten, von denen jedes mindestens einen Teil jedes der auf der genannten Lichtempfängerebene befindlichen Bilder teilweise überlappt, wobei die Bildsignale der Pixel in den beiden Gebieten in Spaltenrichtung akkumuliert werden, und für das Gewinnen einer relativen Position der beiden Bilder entsprechend eines durch die Akku mulation gewonnenen Bildsignales.
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP09046527A JP3101582B2 (ja) | 1997-02-28 | 1997-02-28 | 斜光軸光学系を用いた位置検出装置及び方法 |
JP9046526A JPH10242036A (ja) | 1997-02-28 | 1997-02-28 | エッジ散乱光を用いた位置検出方法及び装置 |
JP04652597A JP3235782B2 (ja) | 1997-02-28 | 1997-02-28 | 位置検出方法及び半導体基板と露光マスク |
JP25378697A JP3265546B2 (ja) | 1997-09-18 | 1997-09-18 | 近接露光に適用される位置検出方法及び装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
DE19808707A1 DE19808707A1 (de) | 1998-09-03 |
DE19808707C2 true DE19808707C2 (de) | 2002-08-01 |
Family
ID=27461891
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE19808707A Expired - Fee Related DE19808707C2 (de) | 1997-02-28 | 1998-03-02 | Auf nahe Belichtung angewendetes Positionsdetektionsverfahren |
Country Status (3)
Country | Link |
---|---|
US (4) | US6049373A (de) |
DE (1) | DE19808707C2 (de) |
TW (1) | TW434716B (de) |
Families Citing this family (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6696220B2 (en) | 2000-10-12 | 2004-02-24 | Board Of Regents, The University Of Texas System | Template for room temperature, low pressure micro-and nano-imprint lithography |
EP2264522A3 (de) * | 2000-07-16 | 2011-12-14 | The Board of Regents of The University of Texas System | Verfahren zur Bildung einer Struktur auf einem Substrat |
EP2270592B1 (de) | 2000-07-17 | 2015-09-02 | Board of Regents, The University of Texas System | Verfahren zur Bildung einer Struktur auf einem Substrat |
JP2004505273A (ja) * | 2000-08-01 | 2004-02-19 | ボード・オブ・リージエンツ,ザ・ユニバーシテイ・オブ・テキサス・システム | 転写リソグラフィのための透明テンプレートと基板の間のギャップおよび配向を高精度でセンシングするための方法 |
US20050274219A1 (en) * | 2004-06-01 | 2005-12-15 | Molecular Imprints, Inc. | Method and system to control movement of a body for nano-scale manufacturing |
US20050064344A1 (en) * | 2003-09-18 | 2005-03-24 | University Of Texas System Board Of Regents | Imprint lithography templates having alignment marks |
JP4366031B2 (ja) * | 2001-09-17 | 2009-11-18 | キヤノン株式会社 | 位置検出装置及び方法並びに露光装置、デバイスの製造方法 |
US7019819B2 (en) * | 2002-11-13 | 2006-03-28 | Molecular Imprints, Inc. | Chucking system for modulating shapes of substrates |
US7027156B2 (en) * | 2002-08-01 | 2006-04-11 | Molecular Imprints, Inc. | Scatterometry alignment for imprint lithography |
US7070405B2 (en) * | 2002-08-01 | 2006-07-04 | Molecular Imprints, Inc. | Alignment systems for imprint lithography |
KR100479305B1 (ko) * | 2002-08-20 | 2005-03-25 | 삼성전자주식회사 | 얼라인 마크 패턴인식방법 |
TW200500811A (en) * | 2002-12-13 | 2005-01-01 | Molecular Imprints Inc | Magnification correction employing out-of-plane distortion of a substrate |
US7150622B2 (en) * | 2003-07-09 | 2006-12-19 | Molecular Imprints, Inc. | Systems for magnification and distortion correction for imprint lithography processes |
US7136150B2 (en) * | 2003-09-25 | 2006-11-14 | Molecular Imprints, Inc. | Imprint lithography template having opaque alignment marks |
US20050275311A1 (en) * | 2004-06-01 | 2005-12-15 | Molecular Imprints, Inc. | Compliant device for nano-scale manufacturing |
US20050270516A1 (en) * | 2004-06-03 | 2005-12-08 | Molecular Imprints, Inc. | System for magnification and distortion correction during nano-scale manufacturing |
JP4573873B2 (ja) * | 2004-06-03 | 2010-11-04 | ボード・オブ・リージエンツ,ザ・ユニバーシテイ・オブ・テキサス・システム | マイクロリソグラフィにおけるアラインメントとオーバーレイを改善するシステムおよび方法 |
US7768624B2 (en) * | 2004-06-03 | 2010-08-03 | Board Of Regents, The University Of Texas System | Method for obtaining force combinations for template deformation using nullspace and methods optimization techniques |
US7785526B2 (en) | 2004-07-20 | 2010-08-31 | Molecular Imprints, Inc. | Imprint alignment method, system, and template |
US7292326B2 (en) * | 2004-11-30 | 2007-11-06 | Molecular Imprints, Inc. | Interferometric analysis for the manufacture of nano-scale devices |
US7630067B2 (en) | 2004-11-30 | 2009-12-08 | Molecular Imprints, Inc. | Interferometric analysis method for the manufacture of nano-scale devices |
US20070231421A1 (en) * | 2006-04-03 | 2007-10-04 | Molecular Imprints, Inc. | Enhanced Multi Channel Alignment |
WO2006060758A2 (en) * | 2004-12-01 | 2006-06-08 | Molecular Imprints, Inc. | Methods of exposure for the purpose of thermal management for imprint lithography processes |
US20070228608A1 (en) * | 2006-04-03 | 2007-10-04 | Molecular Imprints, Inc. | Preserving Filled Features when Vacuum Wiping |
WO2007117524A2 (en) | 2006-04-03 | 2007-10-18 | Molecular Imprints, Inc. | Method of concurrently patterning a substrate having a plurality of fields and alignment marks |
JP5027468B2 (ja) * | 2006-09-15 | 2012-09-19 | 日本ミクロコーティング株式会社 | プローブクリーニング用又はプローブ加工用シート、及びプローブ加工方法 |
US8692393B2 (en) * | 2012-06-12 | 2014-04-08 | Macronix International Co., Ltd. | Alignment mark design for semiconductor device |
CN108941942B (zh) * | 2018-09-06 | 2023-09-22 | 广西中科蓝谷半导体科技有限公司 | 一种光刻机小工件卡具的使用方法 |
CN113804122B (zh) * | 2021-09-06 | 2023-05-26 | 中国科学院光电技术研究所 | 利用平移旋转绝对检测法测包含离焦像差的平面镜面型的方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19619280A1 (de) * | 1995-05-11 | 1996-11-14 | Sumitomo Heavy Industries | Positionsdetektierverfahren mit der Beobachtung oder Überwachung von Positionsdetektiermarkierungen |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4390279A (en) * | 1979-07-12 | 1983-06-28 | Nippon Kogaku K. K. | Alignment device in an IC projection exposure apparatus |
US5365342A (en) | 1984-10-18 | 1994-11-15 | Canon Kabushiki Kaisha | Alignment and exposure apparatus and method for manufacture of integrated circuits |
JPS6262519A (ja) | 1985-09-13 | 1987-03-19 | Canon Inc | 位置検出装置 |
US5734478A (en) * | 1988-10-12 | 1998-03-31 | Nikon Corporation | Projection exposure apparatus |
US5151750A (en) * | 1989-04-14 | 1992-09-29 | Nikon Corporation | Alignment apparatus |
JP2598702B2 (ja) | 1989-07-04 | 1997-04-09 | 日立電子エンジニアリング株式会社 | 基板露光装置の位置合わせ方式 |
JPH03111706A (ja) | 1989-09-27 | 1991-05-13 | Canon Inc | 光量調整装置 |
JPH03225815A (ja) | 1990-01-31 | 1991-10-04 | Canon Inc | 露光装置 |
GB2257280A (en) | 1991-06-26 | 1993-01-06 | Asahi Optical Co Ltd | Non-scanning bar code reading apparatus |
US5689339A (en) * | 1991-10-23 | 1997-11-18 | Nikon Corporation | Alignment apparatus |
JP3111706B2 (ja) | 1992-02-18 | 2000-11-27 | 株式会社日立製作所 | 粒子分析装置及び粒子分析方法 |
EP0651352A1 (de) * | 1993-10-27 | 1995-05-03 | Toshiba Engineering Corporation | Verfahren und Gerät zur Inspektion der Oberflächenunregelmässigkeit von Gegenständer |
JPH07261920A (ja) | 1994-03-17 | 1995-10-13 | Wacom Co Ltd | 光学式位置検出装置および光学式座標入力装置 |
JP3048895B2 (ja) | 1995-05-11 | 2000-06-05 | 住友重機械工業株式会社 | 近接露光に適用される位置検出方法 |
-
1998
- 1998-02-26 US US09/031,184 patent/US6049373A/en not_active Expired - Fee Related
- 1998-03-02 DE DE19808707A patent/DE19808707C2/de not_active Expired - Fee Related
- 1998-07-28 TW TW087112341A patent/TW434716B/zh not_active IP Right Cessation
-
2000
- 2000-01-10 US US09/480,778 patent/US6233043B1/en not_active Expired - Fee Related
- 2000-01-10 US US09/480,779 patent/US6295120B1/en not_active Expired - Fee Related
- 2000-01-10 US US09/480,777 patent/US6285439B1/en not_active Expired - Fee Related
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19619280A1 (de) * | 1995-05-11 | 1996-11-14 | Sumitomo Heavy Industries | Positionsdetektierverfahren mit der Beobachtung oder Überwachung von Positionsdetektiermarkierungen |
Also Published As
Publication number | Publication date |
---|---|
TW434716B (en) | 2001-05-16 |
US6295120B1 (en) | 2001-09-25 |
DE19808707A1 (de) | 1998-09-03 |
US6285439B1 (en) | 2001-09-04 |
US6233043B1 (en) | 2001-05-15 |
US6049373A (en) | 2000-04-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE19808707C2 (de) | Auf nahe Belichtung angewendetes Positionsdetektionsverfahren | |
EP1393116B1 (de) | Autofokussiereinrichtung für ein optisches gerät | |
EP1618426B1 (de) | Verfahren und anordnung zur bestimmung der fokusposition bei der abbildung einer probe | |
EP0871052B1 (de) | Konfokales Mikroskop mit einem motorischen Scanningtisch | |
EP0168643B1 (de) | Gerät zur Wafer-Inspektion | |
DE19619280C2 (de) | Positionsdetektierverfahren mit der Beobachtung oder Überwachung von Positionsdetektiermarkierungen | |
EP2326915B1 (de) | Verfahren und anordnung zur erfassung von konturdaten und/oder optischen eigenschaften eines dreidimensionalen semitransparenten objekts | |
DE1919991A1 (de) | Venfahren zur automatischen Ausrichtung von zwei aufeinander einzujustierenden Objekten | |
WO1997002466A1 (de) | Optischer abstandssensor | |
DE4131737A1 (de) | Autofokus-anordnung fuer ein stereomikroskop | |
DE3817337A1 (de) | System zur messung von oberflaechenprofilen | |
WO2014053573A1 (de) | Verfahren und vorrichtung zur beleuchtung und messung eines objektes | |
DE3337251A1 (de) | Optisches abtastverfahren zur dreidimensionalen vermessung von objekten | |
WO1996023240A1 (de) | Verfahren und vorrichtung zum aufnehmen eines objektes | |
DE102017107343A1 (de) | Verfahren und Vorrichtung zum Betreiben eines optischen Abstandssensors | |
EP0135673B1 (de) | Verfahren und Vorrichtung zur Festlegung einer Koordinate auf einer Oberfläche eines Festkörpers | |
DE3343181C2 (de) | ||
DE10056329B4 (de) | Optisches Abstandsmeßverfahren und Abstandssensor | |
DE10234756B3 (de) | Autofokusmodul für mikroskopbasierte Systeme | |
DE19754867B4 (de) | Spaltabtast-Projektionsbelichtungsgerät und Halbleitereinrichtung | |
DE19921374C2 (de) | Vorrichtung zur dreidimensionalen optischen Untersuchung eines Objektes mit Beleuchtung durch eine Lochplatte | |
DE102020202022A1 (de) | Verfahren zur Erfassung einer relativen Ausrichtung einer Oberfläche | |
DE102022108474B4 (de) | Verfahren und Messkamera zur Messung eines Oberflächenprofils eines Objekts | |
KR100463095B1 (ko) | 에지산란광을이용한위치검출방법및장치 | |
DE10362244B4 (de) | Verfahren zur Bestimmung der Fokusposition und der Verkippung der Fokusebene bei der Abbildung einer Probe |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8110 | Request for examination paragraph 44 | ||
D2 | Grant after examination | ||
8364 | No opposition during term of opposition | ||
8339 | Ceased/non-payment of the annual fee |