DE19808707C2 - Auf nahe Belichtung angewendetes Positionsdetektionsverfahren - Google Patents

Auf nahe Belichtung angewendetes Positionsdetektionsverfahren

Info

Publication number
DE19808707C2
DE19808707C2 DE19808707A DE19808707A DE19808707C2 DE 19808707 C2 DE19808707 C2 DE 19808707C2 DE 19808707 A DE19808707 A DE 19808707A DE 19808707 A DE19808707 A DE 19808707A DE 19808707 C2 DE19808707 C2 DE 19808707C2
Authority
DE
Germany
Prior art keywords
mask
light
wafer
image
optical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE19808707A
Other languages
English (en)
Other versions
DE19808707A1 (de
Inventor
Tsutomu Miyatake
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sumitomo Heavy Industries Ltd
Original Assignee
Sumitomo Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP09046527A external-priority patent/JP3101582B2/ja
Priority claimed from JP9046526A external-priority patent/JPH10242036A/ja
Priority claimed from JP04652597A external-priority patent/JP3235782B2/ja
Priority claimed from JP25378697A external-priority patent/JP3265546B2/ja
Application filed by Sumitomo Heavy Industries Ltd filed Critical Sumitomo Heavy Industries Ltd
Publication of DE19808707A1 publication Critical patent/DE19808707A1/de
Application granted granted Critical
Publication of DE19808707C2 publication Critical patent/DE19808707C2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03FPHOTOMECHANICAL PRODUCTION OF TEXTURED OR PATTERNED SURFACES, e.g. FOR PRINTING, FOR PROCESSING OF SEMICONDUCTOR DEVICES; MATERIALS THEREFOR; ORIGINALS THEREFOR; APPARATUS SPECIALLY ADAPTED THEREFOR
    • G03F9/00Registration or positioning of originals, masks, frames, photographic sheets or textured or patterned surfaces, e.g. automatically
    • G03F9/70Registration or positioning of originals, masks, frames, photographic sheets or textured or patterned surfaces, e.g. automatically for microlithography

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Exposure And Positioning Against Photoresist Photosensitive Materials (AREA)

Description

Diese Anwendung basiert auf den japanischen Patentan­ meldungen Nr. 9-46525, 9-46526 und 9-46527, die alle am 28. Februar 1997 angemeldet wurden, und auf Nr. 9- 253786, angemeldet am 18. September 1997. Der gesamte Inhalt dieser Anmeldungen ist durch Referenz eingearbeitet.
Hintergrund der Erfindung a) Gebiet der Erfindung
Die vorliegende Erfindung bezieht sich auf ein Positions­ detektionsverfahren, das von Kanten oder Scheiteln gestreu­ tes Licht nutzt, und spezieller auf ein Positionsdetektions­ verfahren, eine Positionsdetektorvorrichtung und eine Aus­ richtungsmarke, die für einen verbesserten Durchsatz von Nahbelichtung geeignet sind.
b) Beschreibung des Standes der Technik
Eine senkrechte Detektionsmethode und eine geneigte Detektionsmethode sind als Positionsausrichtung eines Wa­ fers und einer Maske durch Nutzung eines Ausrichtungssy­ stems, das aus einem Linsensystem und einem Bildverarbei­ tungssystem besteht, bekannt. Die senkrechte Detektions­ methode beobachtet Ausrichtungsmarken entlang einer Richtung, die vertikal zur Maskenoberfläche steht, während die geneigte Detektionsmethode Ausrichtungsmarken ent­ lang einer Richtung beobachtet, die geneigt zur Masken­ oberfläche ist.
Eine chromatische Bifokalmethode, die als Fokussie­ rungsmethode für das senkrechte Detektionsverfahren be­ nutzt wird, ist bekannt. Mit dieser chromatischen Bifokal­ methode werden eine auf einer Maske befindlichen Masken­ marke und eine auf einem Wafer befindliche Wafermarke mit Licht unterschiedlicher Wellenlängen beobachtet und auf dieselbe flache Ebene fokussiert, indem man die chro­ matische Aberration des Linsensystems nutzt. Dieses Ver­ fahren kann die optische Auflösung einer Linse prinzipiell hochsetzen, so daß die absolute Genauigkeit der Positions­ detektion gesteigert werden kann.
Da jedoch die Ausrichtungsmarken (die Maskenmarken und die Wafermarken) entlang der senkrechten Richtung be­ obachtet werden, befindet sich das optische System im Be­ lichtungsgebiet. Wird in diesem Stadium eine Belichtung vorgenommen, so schneidet das optische System das Be­ strahlungslicht. Es ist deshalb erforderlich, das optische Sy­ stem aus dem Belichtungsgebiet zurückzuziehen, wenn Be­ lichtung vorgenommen wird. Die für das Zurückziehen des optischen Systems aus dem Belichtungsgebiet erforderliche Zeit verringert den Durchsatz. Weiterhin können die Aus­ richtungsmarken während der Belichtung nicht beobachtet werden, und deren Positionen können nicht detektiert wer­ den. Dies kann eine geringe Ausrichtungsgenauigkeit wäh­ rend der Belichtung verursachen.
Bei dem geneigten Detektionsverfahren ist die optische Achse geneigt zur Maskenoberfläche angeordnet, so daß das optische System an einer Position lokalisiert werden kann, bei der es sich nicht mit dem Bestrahlungslicht schneidet. Es ist deshalb unnötig, das optische System während der Be­ lichtung zurückzuziehen, und die Ausrichtungsmarken kön­ nen sogar während der Belichtung beobachtet werden. Es ist möglich, eine falsche Positionsausrichtung während der Be­ lichtung zu verhindern, ohne den Durchsatz zu verringern.
Mit diesem geneigten Detektionsverfahren werden je­ doch die schräg beobachteten Wafer- und Maskenmarken fokussiert, so daß die absolute Genauigkeit der Positionsde­ tektion durch Bildverzerrungen vermindert wird. Da weiter­ hin die optische Achse des Beleuchtungslichtes nicht mit der optischen Achse des Beobachtungslichtes überein­ stimmt, ist es möglich, beide Achsen koaxial anzuordnen. Deshalb ist die Beleuchtungslichtachse einfach von einer ideal optischen Achse zu verschieben. Wird die Beleuch­ tungslichtachse von der ideal optischen Achse verschoben, so werden die Bilder verzerrt und eine korrekte Positionsde­ tektion wird schwierig.
Zusammenfassung der Erfindung
Es ist ein Ziel der vorliegenden Erfindung, ein Positions­ detektionsverfahren mit hoher Ausrichtungsgenauigkeit und ohne Durchsatzverminderung zur Verfügung zu stellen, bei dem die Positionsdetektion während der Belichtung möglich ist.
Entsprechend eines Aspekts der vorliegenden Erfindung umfaßt das Positionsdetektionsverfahren folgende Schritte: Anordnung eines Wafers mit einer Belichtungsoberfläche und einer Belichtungsmaske, mit einer zwischen die Belich­ tungsoberfläche und die Belichtungsmaske eingefügter Lücke, der Wafer mit einer Wafermarke auf der Belich­ tungsoberfläche, die Wafermarke mit Kanten zur Streuung einfallenden Lichtes, jede Kante mit einem gekrümmten Teil, dessen senkrecht auf eine zur Belichtungsoberfläche parallele Ebene projiziertes Bild eine gekrümmte Form hat, die Belichtungsmaske mit einer Maskenmarke auf der Ober­ fläche, die Maskenmarke mit Kanten zur Streuung einfallen­ den Lichtes, jede Kante mit einem gekrümmten Teil, dessen vertikal auf eine zur Oberfläche der Belichtungsmarke par­ allele Ebene projiziertes Bild eine gekrümmte Form hat; und Detektion der relativen Position des Wafers und der Belich­ tungsmaske durch Anwendung von Beleuchtungslicht auf die gekrümmten Teile der Kanten des Wafers und der Mas­ kenmarken und durch Beobachtung des von den gekrümm­ ten Teilen gestreuten Lichtes entlang einer zur Belichtungs­ oberfläche geneigten Richtung.
Da das von den Kanten gestreute Licht schräg beobachtet wird, kann das optische Beobachtungssystem so angeordnet sein, daß es nicht in das Belichtungsgebiet eintritt. Es ist nicht notwendig, das optische System während der Belich­ tung zurückzuziehen und es ist möglich, das von Kanten ge­ streute Licht selbst während der Belichtung zu beobachten. Da die Kante ein gekrümmtes Teil besitzt, können durch die Einflüsse der Toleranzen im Produktionsprozeß verursachte Variationen in den Formen und Positionen der Kanten redu­ ziert werden.
Entsprechend eines anderen Aspekts der vorliegenden Er­ findung wird ein Halbleitersubstrat mit einer Belichtungs­ oberfläche zur Verfügung gestellt, die mit einer Vielzahl von Ausrichtungswafermarken entlang einer zur Einfallsebene des einfallenden Lichtes senkrechten Richtung gebildet ist. Jede Wafermarke besitzt eine Kante zur Streuung von ein­ fallendem Licht. Außerdem wird ein Kantenbild senkrecht auf die Belichtungsoberfläche projiziert, das zumindest ei­ nen gekrümmten Teil besitzt.
Entsprechend eines anderen Aspekts der vorliegenden Er­ findung wird eine Belichtungsmaske zur Verfügung gestellt, die eine Vielzahl von Ausrichtungsmaskenmarken besitzt, welche entlang einer zur Einfallsebene von einfallendem Licht senkrechten Richtung angeordnet sind. Jede Masken­ marke besitzt eine Kante zur Streuung von einfallendem Licht. Außerdem entsteht ein Kantenbild, das senkrecht auf die Oberfläche der Belichtungsmaske projiziert wird, und welches mindestens einen gekrümmten Teil besitzt.
Da eine Kante einen gekrümmten Teil besitzt, kann eine durch die Einflüsse der Toleranzen beim Herstellungsprozeß verursachte Variation in den Formen und Positionen der Kanten reduziert werden. Da eine Vielzahl von Kanten ent­ lang einer zu einer Einfallsoberfläche senkrechten Richtung angeordnet sind, kann eine Vielzahl von Bildern gleichzeitig beobachtet werden. Eine relative Position kann leicht detek­ tiert werden, indem man diese Bilder parallel zueinander be­ wegt und die Bilder aufeinander überlagert.
Entsprechend einem anderen Aspekt der vorliegenden Er­ findung wird ein Positionsdetektionsverfahren zur Verfü­ gung gestellt, das aus folgenden Schritten besteht: Anord­ nen eines Bauteils mit einer zu belichtenden Belichtungs­ oberfläche und einer Belichtungsmaske, mit einer zwischen die Belichtungsoberfläche und die Belichtungsmaske einge­ führten Lücke, das Bauteil besitzt eine auf der Belichtungs­ oberfläche befindliche Ausrichtungsmarke, die Ausrich­ tungsmarke besitzt Kanten oder Scheitel zur Streuung von einfallendem Licht, die Belichtungsmaske besitzt eine auf seiner Oberfläche befindliche Maskenmarke, die Masken­ marke besitzt Kanten oder Scheitel zur Streuung von einfal­ lendem Licht; und Detektieren einer relativen Position des Bauteiles und der Belichtungsmaske durch Beleuchtung der Kanten oder Scheitel der Ausrichtungs- und Maskenmar­ ken, durch Fokussieren des von den Ausrichtungs- und Mas­ kenmarken gestreuten Lichtes auf eine Lichtempfänger­ ebene, und durch Beobachten von Bildern auf der Lichtemp­ fängerebene, wobei ein von den Ausrichtungs- und Masken­ marken gestreuter Lichtstrom unterdrückt wird oder von so­ wohl den Ausrichtungs- und Maskenmarken gestreute Lichtströme unterschiedlich unterrückt werden, so daß eine Lichtintensität eines Bildes, das durch den von der Ausrich­ tungsmarke gestreuten Lichtstrom erzeugt und auf die Lichtempfängerebene fokussiert wird, sich der Lichtintensi­ tät eines Bildes annähert, das von einem an der Masken­ marke gestreuten Lichtstrom erzeugt und auf die Lichtemp­ fängerebene fokussiert wird.
Die Kanten und Scheitel der Ausrichtungs- und Masken­ marken ermöglichen die Beobachtung des gestreuten Lich­ tes, da ein Bild durch einen Streulichstrom in der Apertur ei­ ner Objektivlinse des optischen Beobachtungssystems er­ zeugt wird. Selbst wenn Beleuchtungslicht in einer Rich­ tung ausgestrahlt wird, die nur das von den Kanten gestreute Licht einfallen läßt, so kann kantengestreutes Licht beob­ achtet werden, da normales Reflexionslicht von den Aus­ richtungs- und Maskenmarken nicht auf das optische Beob­ achtungssystem einfällt. Da das Streulicht geneigt beobach­ tet wird, muß das optische System nicht in dem Belichtungs­ gebiet angeordnet werden. Dementsprechend ist es nicht notwendig, das optische Beobachtungssystem während der Belichtung zurückzuziehen, und die Positionsdetektion ist immer möglich, selbst während der Belichtung. Da die In­ tensitäten des von den Ausrichtungs- und Maskenmarken gestreuten Lichtes angenähert werden, können Bildsignale, die zu Bildern auf einer Fokusebene gehören, mit einem ho­ hen Signalrauschverhältnis gewonnen werden.
Entsprechend einem anderen Aspekt der vorliegenden Er­ findung wird eine Positionsdetektorvorrichtung zur Verfü­ gung gestellt bestehend aus: einem optischen Beleuch­ tungssystem zur Beleuchtung eines Bauteils, das eine zu be­ lichtende Belichtungsoberfläche besitzt, und zur Beleuch­ tung einer Maske, die parallel zu dem Bauteil angeordnet und durch eine Lücke von der Belichtungsoberfläche ent­ fernt ist; und ein optisches Beobachtungssystem mit einer zur Belichtungsoberfläche des Bauteils geneigten optischen Achse, für die Fokussierung des vom Bauteil gestreuten Lichtes und der Maske auf eine Lichtempfängerebene, das optische Beobachtungssystem bestehend aus einem opti­ schen Filter, der unmittelbar vor der Lichtempfängerebene angeordnet ist und ein Transmissionsfaktor eines optischen Filters, der sich in einem Gebiet, das einem Gebiet ent­ spricht, wo das von dem Bauteil gestreute Licht fokussiert wird, unterscheidet von einem Gebiet, das einem Gebiet ent­ spricht, wo das in der Maske gestreute Licht fokussiert wird.
Durch geeignete Auswahl der Transmissionsfaktoren von zwei Gebieten eines optischen Filters werden die Intensitä­ ten von Bildern auf der Fokusebene, die durch von den Aus­ richtungs- und Maskenmarken gestreutes Licht erzeugt wer­ den, aneinander angenähert. Dementsprechend können Bildsignale, die zu Bildern auf der Fokusebene gehören, mit einem hohen Signalrauschverhältnis gewonnen werden.
Entsprechend einem anderen Aspekt der vorliegenden Er­ findung wird eine Positionsdetektionsvorrichtung zur Verfü­ gung gestellt, bestehend aus: einem optischen Beleuch­ tungssystem zur Beleuchtung eines Wafers und einer Maske, die an eine Lücke angrenzt und die sich um diese Lücke vom Wafer entfernt befindet; ein erstes optisches Be­ obachtungssystem mit einer zu einer Belichtungsoberfläche des Wafers geneigten optischen Achse, für die Fokussierung des vom Wafer und der Maske reflektierten und gestreuten Lichtes auf eine erste Lichtempfängerebene; und ein zweites optisches Beobachtungssystem zur Fokussierung des von ei­ nem Teilreflexionsspiegels reflektierten Lichtes, der entlang der optischen Achse des ersten optischen Beobachtungssy­ stems angeordnet ist, auf eine zweite Lichtempfängerebene. Das zweite optische Beobachtungssystem hat einen Vergrö­ ßerungsfaktor, der sich von dem Vergrößerungsfaktor des ersten optischen Beobachtungssystems unterscheidet.
Da das reflektierte oder gestreute Licht schräg beobachtet wird, muß das optische System nicht im Belichtungsgebiet angeordnet werden. Dementsprechend ist es nicht notwen­ dig, das optische Beobachtungssystem während der Belich­ tung zurückzuziehen, und die Positionsdetektion ist immer möglich, selbst während der Beleuchtung. Es ist möglich, eine grobe Positionsausrichtung durch die Nutzung eines des ersten oder zweiten optischen Beobachtungssystems mit einem niedrigeren Vergrößerungsfaktor vorzunehmen, und eine Feinpositionsausrichtung durch die Nutzung des ande­ ren optischen Systems mit einem höheren Vergrößerungs­ faktor vorzunehmen.
Entsprechend eines anderen Aspekts der vorliegenden Er­ findung wird ein Positionsdetektionsverfahren zur Verfü­ gung gestellt, bestehend aus den Schritten: Anordnen eines Wafers mit einer Belichtungsoberfläche und einer Maske, mit einer zwischen die Belichtungsoberfläche und die Be­ lichtungsmaske eingebrachte Lücke, der Wafer mit einer auf der Belichtungsoberfläche befindlichen Wafermarke, die Wafermarke mit Kanten oder Scheiteln zur Streuung einfal­ lenden Lichtes, die Maske mit einer Maskenmarke mit Kan­ ten oder Scheiteln zur Streuung einfallenden Lichtes; grobe Detektion einer relativen Position des Wafers und der Maske durch Beleuchten der Kanten oder Scheitel der Wafer- und Maskenmarken und durch Beobachtung des von den Wafer- und Maskenmarken gestreuten Lichtes mit einem ersten op­ tischen Beobachtungssystems, das eine zur Belichtungs­ oberfläche geneigte optische Beobachtungsachse besitzt; Verschiebung des Wafers und/oder der Maske entsprechend der Detektionsergebnisse, die bei der groben Bestimmung der relativen Position zur groben Ausrichtung des Wafers und der Maske gewonnen wurden; feine Detektion der rela­ tiven Position des Wafers und der Maske durch Beobachten des vom Wafer und der Maskenmarke gestreuten Lichtes mit einem zweiten optischen Beobachtungssystem, das die­ selbe optische Beobachtungsachse wie das erste optische Beobachtungssystem besitzt, und das einen höheren Vergrö­ ßerungsfaktor als das erste optische Beobachtungssystem hat; und Bewegen des Wafers und/oder der Maske zur Fein­ ausrichtung des Wafers und der Maske entsprechend der Detektionsergebnisse, die bei der Feindetektion der relativen Position gewonnen wurde.
Vor der Feinpositionsausrichtung wird eine grobe Positi­ onsausrichtung durch Nutzung eines optischen Systems mit niedrigerem Vergrößerungsfaktor vorgenommen. Dement­ sprechend ist eine hohe Positionsausrichtungsgenauigkeit nicht erforderlich, wenn der Wafer und die Maske erstmals gehalten werden.
Entsprechend eines anderen Aspekts der vorliegenden Er­ findung wird ein Positionsdetektionsverfahren zur Verfü­ gung gestellt, bestehend aus den Schritten: Anordnen eines ersten Bauteils mit einer Hauptoberfläche und eines zweiten Bauteils, das an die Hauptoberfläche angrenzt und um eine Lücke von der Hauptoberfläche entfernt ist, das erste Bauteil mit einer auf der Hauptoberfläche befindlichen ersten Aus­ richtungsmarke zur Streuung einfallenden Lichtes, und das zweite Bauteil mit einer zweiten Ausrichtungsmarke zur Streuung einfallenden Lichtes; Fokussieren des auf die er­ sten und zweiten Marken auftreffenden und dort gestreuten Lichtes auf eine Lichtempfängerebene über ein bündelndes optisches System mit einer zur Hauptoberfläche geneigten optischen Achse, wobei die lichtempfangenden Elemente auf der Lichtempfängerebene in Matrixform angeordnet sind und die Reihenrichtung der Lichtempfängerebene der Richtung einer Schnittlinie zwischen der Hauptoberfläche und einer zur optischen Achse des bündelnden optischen Systems senkrecht stehenden virtuellen Ebene entspricht; Ableiten eines ersten zweidimensionalen Teilbildes und ei­ nes zweiten zweidimensionalen Teilbildes, welche ähnlich zu einem Referenzmuster sind, von einem Bild, das durch von der ersten Marke gestreuten Lichts erzeugt und auf die Lichtempfängerfläche fokussiert wird, und von einem Bild, das von an einer zweiten Marke gestreutem Licht erzeugt wird und auf eine Lichtempfängerebene fokussieret wird; Erzeugen eines synthetisierten ein-dimensionalen Bildsi­ gnales durch Akkumulation in Spaltenrichtung von Bildsi­ gnalen von Pixeln in einem ersten Gebiet, das das erste zwei-dimensionale Teilbild einschließt, und in einem zwei­ ten Gebiet, das das zweite zwei-dimensionale Teilbild ein­ schließt; und Gewinnen einer relativen Position der ersten und zweiten Marken entsprechend dem synthetisierten ein­ dimensionalem Bildsignal.
Entsprechend eines anderen Aspektes der vorliegenden Erfindung wird eine Positionsdetektionsvorrichtung zur Verfügung gestellt, bestehend aus: Beleuchtungsbaugruppe zur Beleuchtung eines ersten Bauteiles mit einer Hauptober­ fläche mit einer ersten Ausrichtungsmarke zur Streuung ein­ fallenden Lichtes und zur Beleuchtung eines zweiten Bau­ teiles mit einer zweiten Ausrichtungsmarke zur Streuung einfallenden Lichtes, das zweite Bauteil wird gehalten, wo­ bei die Oberfläche mit der zweiten Marke zur Hauptoberflä­ che zeigt; Bilddetektionsbaugruppe mit einer Lichtempfän­ gerebene, auf der Pixel in Matrixform angeordnet sind, ge­ nannte Bilddetektionsbaugruppe zur Erzeugung von zu den Pixeln zugehörigen Bildsignalen entsprechend der Lichtin­ tensität, die die Pixel empfangen; bündelndes optisches Sy­ stem mit einer zur Oberfläche geneigten optischen Achse zur Fokussierung von an den ersten und zweiten Marken ge­ streuten Lichts auf die Lichtempfängerebene; Referenzmu­ sterspeicherbaugruppe zur Speicherung eines Referenzmu­ sters; und Steuerbaugruppe zur Ableitung eines ersten zwei- dimensioanlen Teilbildes und eines zweiten zweidimensio­ nalen Teilbildes, die jeweils ähnlich zu einem in der Refe­ renzmusterspeicherbaugruppe gespeicherten Referenzmu­ ster sind, von einem Bild, das durch von der ersten Marke gestreuten Lichts erzeugt und auf die Lichtempfängerebene fokussiert wird, und von einem Bild, das durch an der zwei­ ten Marke gestreuten Lichts erzeugt und auf die Lichtemp­ fängerebene fokussiert wird, ein synthetisiertes ein-dimen­ sionales Bildsignal erzeugend durch die Akkumulation in Spaltenrichtung von Bildsignalen der Pixel in einem ersten Teilgebiet, das das erste zweidimensionale Teilbild ein­ schließt, und in einem zweiten Teilgebiet, das das zweite zwei-dimensionale Teilgebiet einschließt, und Gewinnen ei­ ner relativen Position der ersten und zweiten Marken ent­ sprechend dem synthetisierten ein-dimensionalen Bildsi­ gnal. Da das gestreute Licht schräg beobachtet wird, ist es nicht notwendig, das bündelnde optische System in den Ge­ bieten, in denen die ersten und zweiten Marken gebildet sind, anzuordnen. Dementsprechend können die Gebiete der ersten und zweiten Marken ohne Zurückziehen des bündeln­ den optischen Systems belichtet werden. Durch Akkumula­ tion der Bildsignale in der Spaltenrichtung kann ein Signal­ rauschverhältnis verbessert werden. Da die Akkumulation nur für Teilgebiete vorgenommen wird, kann die Akkumula­ tionsberechnungszeit verkürzt werden.
Entsprechend eines anderen Aspekts der vorliegenden Er­ findung wird ein Positionsdetektionsverfahren zur Verfü­ gung gestellt, bestehend aus den Schritten: Fokussieren zweier Bilder auf eine Lichtempfängerebene mit in Matrix­ form angeordneten lichtempfangenden Elementen zur Er­ zeugung eines Bildsignals entsprechend dem einfallenden Licht, Erzeugen der beiden Bilder an verschiedenen Positio­ nen in der Spaltenrichtung der Lichtempfängerebene; in Spaltenrichtung akkumulieren von Bildsignalen von Pixeln in zwei Gebieten, von denen jedes teilweise mindestens ei­ nen Teil jedes der beiden Bilder überlappt; und Gewinnen einer relativen Position der beiden Bilder entsprechend ei­ nem Bildsignal, das im Akkumulationsschritt akkumuliert wurde.
Entsprechend eines anderen Aspektes der vorliegenden Erfindung wird eine Positionsdetektionsvorrichtung zur Verfügung gestellt, bestehend aus: einer Lichtempfänger­ ebene mit in Matrixform angeordneten lichtempfangenden Elementen zur Erzeugung eines Bildsignals entsprechend dem einfallenden Licht; und Steuerbaugruppe zur Bestim­ mung zweier Gebiete, von denen jedes mindestens einen Teil jedes der beiden auf der lichtempfangenden Ebene ge­ formten Bilder teilweise überlappt, Akkumulieren der Bild­ signale der Pixel in den beiden Gebieten in der Spaltenrich­ tung, und Gewinnen einer relativen Position der beiden Bil­ der entsprechend dem durch Akkumulation gewonnenem Bildsignal.
Die Akkumulation in der Spaltenrichtung verbessert das Signalrauschverhältnis. Da die Akkumulation nur für Teil­ gebiete vorgenommen wird, kann die Berechnungszeit für die Akkumulation verkürzt werden.
Kurze Beschreibung der Zeichnungen
Fig. 1A ist eine Querschnittsansicht einer Positionsdekti­ onsvorrichtung, die von der ersten und zweiten Ausfüh­ rungsform der Erfindung genutzt wird, und die ebenfalls durch die in der Vergangenheit gemachten Vorschläge des Erfinders genutzt wurden.
Fig. 1B ist eine Draufsicht der Wafer- und Maskenmar­ ken. Fig. 1C ist ein Diagramm, das die Kantenbilder der in Fig. 1B gezeigten Wafer- und Maskenmarken zeigt, die durch an den Kanten gestreutes Licht gebildet werden, und eine Lichtintensitätsverteilung auf der Bildebene. Fig. 1B ist eine schematische Querschnittsansicht der Wafer- und Mas­ kenoberflächen nahe an einer Objektebene;
Fig. 2A, 2C und 2E sind Perspektivansichten von Wafer­ marken, und Fig. 2B und 2D zeigen auf der Fokusebene er­ zeugte Bilder;
Fig. 3 ist eine Draufsicht, die Wafer- und Maskenmarken mit Scheiteln zeigt, von denen Beleuchtungslicht gestreut wird;
Fig. 4A und 4B sind Draufsichten und Perspektivansich­ ten, die Kantenmuster zeigen, die auf einer Wafermarke ent­ sprechend der ersten Ausführungsform der Erfindung beste­ hen;
Fig. 5 ist ein Diagramm, das die Lichtintensitätsvertei­ lung eines Bildes einer Kante der in Fig. 4A gezeigten Wa­ fermarke darstellt, welches durch von dort gestreutes Licht erzeugt wird;
Fig. 6A und 6B sind Draufsichten, die Beispiele des Lay­ outs der Wafer- und Maskenmarken entsprechend der ersten Ausführungsform der Erfindung zeigen;
Fig. 7A ist eine Draufsicht von Wafer- und Maskenmar­ ken,
Fig. 7B ist eine Querschnittsansicht entlang der Punktli­ nie B2-B2 in Fig. 7A; Fig. 7C ist eine Querschnittsansicht entlang der Punktlinie C2-C2;
Fig. 8 ist eine Skizze von Bildern der in Fig. 7A darge­ stellten Wafer- und Maskenmarken, die durch von den Mar­ ken gestreutes Licht erzeugt werden;
Fig. 9A und 9B sind Graphen, die Bildsignale zeigen, die die zweite Ausführungsform illustrieren, in welcher die Wa­ fermarken aus verschiedenen Materialien bestehen;
Fig. 10A ist eine Querschnittsansicht, die eine Region nahe der Fokusebene der Positionsdetektionsvorrichtung entsprechend der zweiten Ausführungsform der Erfindung zeigt; und Fig. 10B ist eine Vorderansicht eines in Fig. 10A dargestellten optischen Filters;
Fig. 11 ist ein Diagramm, das die grundlegende Struktur einer Positionsdetektionsvorrichtung zeigt, die durch die dritte und vierte Ausführungsform der Erfindung benutzt wird;
Fig. 12A ist eine schematische Entwurfsansicht, die eine Lichtempfängerebene mit Bildern von Wafer- und Masken­ marken zeigt, die durch an den Marken gestreutes Licht er­ zeugt werden; und Fig. 12B ist ein Diagramm, das ein von der vierten Ausführungsform benutztes Referenzmuster zeigt;
Fig. 13 ist ein Graph, der ein-dimensionale synthetisierte Bildsignale zeigt, die von der vierten Ausführungsform ge­ wonnen werden;
Fig. 14 ist eine Querschnittsansicht entlang der in Fig. 7A dargestellten Punktlinie C2-C2.
Beschreibung der bevorzugten Ausführungsformen
Vor der Beschreibung der Ausführungsformen dieser Er­ findung sei bemerkt, daß die der japanische Patentanmel­ dung Nr. 7-294485 (JP-A 139333) und der US-Patentanmel­ dung Serial Nr. 08/650,170 entsprechenden deutschen An­ meldungen zum Offenbarungsgehalt der vorliegenden An­ meldung gemacht werden.
Fig. 1A ist eine schematische Querschnittsansicht einer Positionsdetektionsvorrichtung, die durch die Ausführungs­ formen der Erfindung genutzt wird und die ebenfalls in obi­ gen '333 und '170 genutzt wurde. Die Positionsdetektions­ vorrichtung besteht aus einer Wafer/Maskenhaltereinheit 10, einem optischen System 20 und einer Steuervorrichtung (Controller) 30.
Die Wafer/Maskenhaltereinheit 10 umfaßt einen Wafer­ halter 15, einen Maskenhalter 16 und einen Antriebsmecha­ nismus 17. Für die Positionsausrichtung wird ein Wafer 11 auf der oberen Oberfläche des Waferhalters 15 und eine Maske 12 auf der unteren Oberfläche des Maskenhalters 12 gehalten. Der Wafer 11 und die Maske 12 sind parallel aus­ gerichtet, und eine voreingestellte Lücke befindet sich zwi­ schen der Belichtungsoberfläche des Wafers 11 und der Oberfläche (Maskenoberfläche) der Maske 12 auf der Wa­ ferseite. Auf der Belichtungsoberfläche des Wafers 11 sind Positionsausrichtungswafermarken 13 und auf der Masken­ oberfläche der Maske 12 eine Positionsausrichtungsmasken­ marke 14 ausgebildet.
Die Wafer- und Maskenmarken 13 und 14 haben Kanten oder Scheitel, um einfallendes Licht zu streuen. Das Licht, das auf diese Marken fällt, wird durch die Kanten oder Scheitel gestreut und durch andere Gebiete regulär reflek­ tiert. Reguläre Reflexion bedeutet, daß die meisten Kompo­ nenten (Anteile) des einfallenden Lichts in dieselbe Rich­ tung reflektiert werden.
Der Antriebsmechanismus 17 kann eine relative Bewe­ gung des Waferhalters 15 und des Maskenhalters 16 erzeu­ gen. Definiert man eine X-Achse als in die Richtung von links nach rechts, wie in Fig. 1A gezeigt, zeigend, eine Y- Achse als in die Richtung, die vertikal zum Zeichenblatt von der Vorderseite zur Rückseite zeigt, zeigend und eine Z- Achse als in die Richtung, die normal zur Belichtungsober­ fläche zeigt, zeigend, so ist die relative Bewegung des Wa­ fers 11 und der Maske 12 möglich in der X-Achsenrichtung, Y-Achsenrichtung und Z-Achsenrichtung sowie in einer Ro­ tationsrichtung Φz-Richtung) um die Z-Achse und in Rota­ tionsrichtungen (Φx und Φy-Richtungen) um die X-Ach­ senrichtung und Y-Achsenrichtung.
Das optische System 20 umfaßt einen Bilddetektor 21, eine Linse 22, einen Halbspiegel 23 und eine Lichtquelle 24. Die optische Achse 25 des optischen Systems 20 liegt paral­ lel zur X-Z-Ebene und geneigt zur Belichtungsoberfläche. Obwohl eine einzelne Linse in Fig. 1A gezeigt ist, können bei Bedarf mehrere Linsen oder eine Relais-(Zwischen)- Linse benutzt werden.
Das von der Lichtquelle 24 ausgesendete Beleuchtungs­ licht wird vom Halbspiegel 23 reflektiert und bildet einen Lichtstrom entlang der optischen Achse 25, welcher über die Linse 22 geneigt auf die Belichtungsoberfläche einfällt. Die Lichtquelle 24 ist am Fokus der Linse 22 auf der Bild­ seite positioniert, so daß das von der Lichtquelle 24 ausge­ sendete Beleuchtungslicht von der Linse 22 in einen paralle­ len Lichtstrom (paralleles Strahlenbündel) kollimiert wird. Die Intensität des Beleuchtungslichtes kann an der Licht­ quelle eingestellt werden.
Von dem an den Kanten oder Scheiteln der Wafer- und Maskenmarken 13 und 14 gestreuten Licht wird das auf die Linse 22 einfallende Licht durch die Linse 22 konvergiert und auf eine Lichtempfangsebene des Bilddetektors 21 fo­ kusiert. Die Beleuchtung durch das optische System 20 ist deshalb eine telezentrische Beleuchtung, bei der die selbe optische Achse für sowohl die Beleuchtung als auch die Be­ obachtung genutzt wird.
Der Bilddetektor 21 wandelt Bilder der Wafer- und Mas­ kenmarken 13 und 14, die durch an den Kanten und Schei­ teln gestreutes und auf die Lichtempfangsebene fokussiertes Licht gebildet werden, photoelektrisch in Bildsignale um, die als Input des Controllers 30 dienen.
Der Controller 30 verarbeitet den Bildsignalinput vom Bilddetektor 21, um die relative Position der Wafer- und Maskenmarken 13 und 14 zu detektieren. Der Controller 30 sendet ein Kontrollsignal zum Antriebsmechanismus 17, da­ mit die Wafer- und Maskenmarken 13 und 14 eine vorbe­ stimmte relative Position haben. Entsprechend diesem Kon­ trollsignal wird der Waferhalter 15 oder Maskenhalter 16 bewegt.
Fig. 1B ist eine Draufsicht, die die relative Position der Wafer- und Maskenmarken 13 und 14 zeigt. Eine Marke be­ steht aus drei rechteckigen Mustern, die in der X-Achsen­ richtung angeordnet sind, wobei jede Seite des rechteckigen Musters parallel zur X- oder Y-Achse ist. Wie später beschrieben wird, können drei oder mehr rechteckige Muster angeordnet sein. Die Maskenmarke 14 ist zwischen einem Paar von Wafermarken 13 angeordnet.
Die Wafer- und Maskenmarken 13 und 14 sind in Fig. 1A als Querschnittsansichten entlang der Punktlinie A1-A1, die in Fig. 1B gezeigt ist, dargestellt. Das auf die Wafer- und Maskenmarken 13 und 14 einfallende Beleuchtungslicht wird von der Kante jedes in Fig. 1B gezeigten rechteckigen Musters gestreut und bildet entlang der optischen Achse ab. Licht, welches auf andere Gebiete als die Kanten einfällt, wird regulär reflektiert und fällt nicht auf die Linse 22 ein. Der Bilddetektor 21 kann deshalb nur das von den Kanten gestreute Licht empfangen.
Als nächstes werden die Charakteristiken eines Bildes, das von an den Kanten gestreuten Licht gebildet wird, be­ schrieben.
Eine Lichtintensitätsverteilung T(x, y) eines durch inko­ härentes monochromatisches Licht erzeugten Bildes ist durch die folgende Gleichung (1) gegeben:
I(x, y) = ∫∫O(x-x', y-y").PSF(x', y')dx'dy' (1)
wobei die Koordinaten (x, y) eine Position auf der Oberflä­ che eines Beobachtungsobjekts, O(x, y) eine Intensitätsver­ teilung des vom Beobachtungsobjekts reflektierten Lichtes, PSF(x, y) eine (Punktverwaschungsfunktion) einer Linse re­ präsentieren und das Integral über die gesamte Oberfläche des Beobachtungsobjekts ausgeführt wird.
Betrachtet man eine Kante jedes Bild in Fig. 1B darge­ stellten rechteckigen Musters, so kann diese Kante als in der Y-Achse angeordnete lichtreflektierende feine Punkte ange­ sehen werden. Es wird angenommen, daß die Intensitätsver­ teilung des Lichtes, das von einem derartigen feinen Punkt reflektiert wird, eine Dirac-Delta-Funktion δ ist. Es ist prak­ tisch, die Intensitätsverteilung des von einem feinen Punkt gestreuten Lichtes an eine Delta-Funktion zu approximie­ ren. Nimmt man an, daß die Kante sich innerhalb des Berei­ ches der Y-Achse ausdehnt, indem der Isoplanatismus der Linse erfüllt ist, so kann O(x, y) durch δ(x) ersetzt werden. Deshalb kann die Gleichung (1) durch die folgende Glei­ chung (2) dargestellt werden:
I(x) = ∫∫δ(x - x').PSF(x', y')dx'dy' = PSF(x, y)dy' (2)
wobei I(x) eine Linienverwaschungsfunktion einer Linse darstellt, welche gegeben ist durch:
I(x) = LSF(x) (3)
wobei LSF(x) die Linienverwaschungsfunktion der Linse darstellt.
Wenn das Beleuchtungslicht ein kontinuierliches Spek­ trum hat, so kann I(x) gegeben sein durch:
I(x) = ∫LSFλ(x - Δxλ)dλ (4)
wobei λ die Lichtwellenlänge, LSFλ die Linienverwa­ schungsfunktion bei der Wellenlänge λ, Δxλ eine durch chromatische Linsenaberrationen bei der Wellenlänge λ ver­ ursachte laterale Verschiebung eines Linienbildes ist, und das Integral über den gesamten Wellenlängenbereich ausge­ führt wird.
Aus Gleichung (4) kann gesehen werden, daß die Beob­ achtung von an einer Kante gestreuten Lichts äquivalent zur Beobachtung der Linienverwaschungsfunktion der Linse ist. Ein stabiles Bild kann deshalb immer durch die Beobach­ tung von an der Kante gestreutem Licht erhalten werden, ohne daß man durch die ebene Intensitätsverteilung des vom Beobachtungsobjekts reflektierten Lichtes beeinflußt wird.
Der linke Teil der Fig. 1C zeigt die Gestalt eines von ge­ streutem Licht geformten Bildes, das sich auf der Lichtemp­ fängerebene des in Fig. 1A dargestellten Bilddetektors 21 befand. Definiert man die x-Achse als in die Richtung (ent­ sprechend zu der X-Achsenrichtung der Belichtungsoberflä­ che) einer Schnittlinie zwischen der Einfallsebene ein­ schließlich der optischen Achse für die Beobachtung und der Lichtempfängerebene zeigend und die y-Achse als in die Richtung (entsprechend zu der Y-Achse der Belichtungs­ oberfläche) zeigend, die senkrecht zu der X-Achse der Lichtempfängerebene zeigt, so hat ein von einer Kante ge­ formtes Bild die Gestalt einer zur Y-Achse parallelen gera­ den Linie. Das Bild jeder Marke hat deshalb eine Gestalt, die von drei geraden Linien gebildet wird, welche parallel zur y-Achse sind und in x-Achsenrichtung aneinander an­ grenzen.
Zwischen einem Paar von Bildern 13A der Wafermarken 13, die von kantengestreutem Licht gebildet werden, er­ scheint ein von kantengestreutem Licht erzeugtes Bild 14A der Maskenmarke 14. Da die optische Achse für die Beob­ achtung zur Belichtungsoberfläche geneigt ist, werden das Bild 14A der Markenmarke und die Bilder 13A der Wafer­ marken an verschiedenen Positionen entlang der x-Achsen­ richtung empfangen.
Der rechte Teil der Fig. 1C zeigt eine Lichtintensitätsver­ teilung der Wafermarkenbilder 13A und des Maskenmar­ kenbildes 14A entlang der y-Achsenrichtung. Eine Entfer­ nung in der y-Achsenrichtung zwischen einem Wafermar­ kenbild 13A und dem Maskenmarkenbild 14A ist durch y1 repräsentiert, und eine Entfernung in der y-Achsenrichtung zwischen dem anderen Wafermarkenbild 13A und dem Maskenmarkenbild 14A ist durch y2 repräsentiert. Durch Messen von y1 und y2 ist es möglich, die relative Position der in Fig. 1B dargestellten Wafer- und Maskenmarken 13 und 14 in der y-Achsenrichtung zu detektieren, d. h. in der zur Einfallsebene des Beleuchtungslichts senkrechten Rich­ tung.
Soll zum Beispiel die Maskenmarke in der Mitte zwi­ schen dem Paar der Wafermarken in der Y-Achsenrichtung positioniert werden, so wird der Wafer oder die Marke rela­ tiv zueinander bewegt, damit y1 und y2 den selben Wert ha­ ben. Die Positionsausrichtung in der in Fig. 18 gezeigten Y- Achsenrichtung ist deshalb auf diese Weise möglich. Die Positionsausrichtung in der X-Achsenrichtung, Y-Achsen­ richtung und Φz-Richtung kann durch den Einsatz von drei Systemen (Anordnungen), die aus den in Fig. 1A und 1B ge­ zeigten Ausrichtungsmarken und optischen Systemen beste­ hen, erreicht werden. Obwohl die Beleuchtungs- und Beob­ achtungsachsen in Fig. 1A koaxial angeordnet sind, müssen diese nicht notwendigerweise koaxial sein. Es ist ausrei­ chend, wenn nur gestreutes Licht auf eine Objektivlinse des Beobachtungssystems einfällt und normales Reflexionslicht nicht einfällt.
Als nächstes wird eine Methode zur Messung einer Lücke zwischen der Belichtungsoberfläche und der Maskenober­ fläche beschrieben. In einem Objektraum des optischen Sy­ stems wird Licht, das von vielen Punkten auf einer flachen und zur optischen Achse 25 senkrechten Ebene gestreut wird, zur gleichen Zeit auf die Lichtempfängerebene des Bilddetektors 21 fokusiert. Eine Ebene, die durch eine Menge von Punkten im Objektraum definiert ist und welche auf die Lichtempfangsebene fokussiert sind, wird eine "Ob­ jektebene" genannt.
Von jeder Kante oder jedem Scheitel der Wafer- und Mas­ kenmarken auf die Objektebene gestreutes Licht wird auf die Lichtempfängerebene fokussiert, und von jeder Kante und jedem Scheitel nicht auf die Objektebene gestreutes Licht wird nicht einfokussiert und ist umso mehr defokus­ siert, je weiter sich die Kante oder der Scheitel von der Ob­ jektebene befindet. Deshalb wird das Streulichtbild einer Kante oder eines Scheitels, das sich am nahesten an der Ob­ jektebene befindet, am besten sichtbar, und das Bild einer anderen Kante oder eines anderen Scheitels an einer Posi­ tion weiter entfernt von der Kante oder dem Scheitel, die oder der sich am nahesten an der Objektebene befindet, wird undeutlicher.
Eine in Fig. 1C gezeigte Entfernung x1 ist eine Distanz in der X-Achsenrichtung zwischen den Punkten im besten Fo­ kussierzustand des Wafermarkenbildes 13A und Masken­ markenbildes 14A. Die Entfernung x1 ist im allgemeinen gleich groß zur Entfernung zwischen Punkten im besten Fo­ kussierzustand der Wafer- und Maskenmarken, die vertikal auf die Einfallsebene projiziert sind.
Fig. 1D ist eine schematische Querschnittsansicht der Wafer- und Maskenoberflächen 11 und 12 auf der Einfalls­ ebene nahe der Objektebene. Ein Punkt Q2 ist ein Punkt auf einer Schnittlinie zwischen der Waferoberfläche 11 und der Objektebene, und ein Punkt Q1 ist ein Punkt auf der Schnitt­ linie der Maskenoberfläche 12 und der Objektebene. Die Länge eines Liniensegments Q1-Q2 entspricht der in Fig. 1C dargestellten Entfernung x1.
Wenn die Länge L des Liniensegments Q1-Q2 mit L(Q1, Q2) bezeichnet wird, dann ist die Lücke δ zwischen der Belichtungsoberfläche 11 und der Maskenoberfläche 12 gegeben durch:
δ = L(Q1, Q2) × sin(α) (5)
wobei α ein Winkel der optischen Achse 25 relativ zur Nor­ malenrichtung der Belichtungsoberfläche 11 ist. Die Lücke δ kann durch Berechnung der Länge des Liniensegments Q1 -Q2 von der gemessenen Distanz x1 gewonnen werden. Um eine präzise Lücke δ zu erhalten, ist es vorteilhaft, die Entfernung x1 genau zu messen. Zu diesem Zweck ist die Schärfentiefe vorzugshafterweise klein. Es ist ebenfalls vor­ teilhaft, mehrere der in Fig. 1B dargestellten rechteckigen Muster in der X-Achsenrichtung anzuordnen.
Ein Zielwert der Entfernung x1 ist im voraus im Control­ ler 30 gespeichert, und der Antriebsmechanismus 17 wird derart gesteuert, daß die gemessene Distanz x1 den Zielwert annimmt. Auf diese Weise kann eine gewünschte Lücke zwischen den Belichtungs- und Maskenoberflächen 11 und 12 eingestellt werden.
Fig. 2A ist eine Perspektivansicht, die ein Beispiel eines rechteckigen Musters der Wafermarke zeigt. Das Beleuch­ tungslicht fällt schräg entlang der geneigten optischen Achse in der in Fig. 2A dargestellten X-Z-Ebene ein, und an der in die Y-Achsenrichtung ausgedehnten Kante gestreutes Licht wird beobachtet. Da das durch Streulicht erzeugte Bild die durch Gleichung (4) gegebene Intensitätsverteilung hat, kann in diesem Fall ein in einer Richtung ausgestrecktes Bild, das sich entlang der Y-Achsenrichtung der Lichtemp­ fängerfläche ausdehnt, wie in Fig. 2B gezeigt, erhalten wer­ den. Dieses Bild hat die Linienverwaschungsfunktion einer Linse.
Fig. 2C zeigt ein anderes Muster, das in der Y-Achsen­ richtung kürzer ist als das rechteckige Muster in Fig. 2A. Wenn die Länge einer Kante kürzer ist als die Linsenauflö­ sung, so kann die Intensitätsverteilung O(x, y) des reflektier­ ten Lichtes in Gleichung (1) möglicherweise durch δ(x, y) ersetzt werden. Deshalb wird die Gleichung (1) verändert zu:
I(x, Y) = ∫∫δ(x-x', y-y').PSF(x', y')dx'dy' = PSF(x, y) (6)
wobei PSF(x, y) eine Punktverwaschungsfunktion einer Linse ist.
Wenn das Beleuchtungslicht ein kontinuierliches Spek­ trum hat, so ist I(x, y) gegeben durch:
I(x, y) = ∫PSFλ(x - Δxλ, y - Δyλ)dλ (7)
wobei λ die Lichtwellenlänge, PSFλ die Punktverwa­ schungsfunktion bei der Wellenlänge λ, Δxλ eine durch chromatische Linsenaberration bei der Wellenlängen λ ver­ ursachte laterale Verschiebung des Punktbildes in X-Ach­ senrichtung, Δyλ eine durch chromatische Linsenaberration bei der Wellenlänge λ verursachte laterale Verschiebung ei­ nes Punktbildes in Y-Richtung ist, und das Integral über den gesamten Wellenlängenbereich ausgeführt wird.
Setzt man die Länge einer Kante gleich groß oder kürzer als die Linsenauflösung, so ist es möglich, ein an die Punkt­ verwaschungsfunktion einer Linse und in Fig. 2D darge­ stelltes Punktbild zu erhalten.
Fig. 2E ist eine perspektivische Ansicht eines rechtecki­ gen Musters, wobei Licht von einem Ort nahe des Scheitels, an dem sich drei Ebenen schneiden, gestreut wird. Ein durch Licht erzeugtes Bild, das von einem Ort nahe des in Fig. 2E gezeigten Scheitels gestreut wird, kann vermutlich an die durch die Gleichungen (6) und (7) gegebene Punktverwa­ schungsfunktion approximiert werden. In dieser Beschrei­ bung wird eine Mustereinheit, die eine Kante oder einen Scheitel besitzt, von der bzw. dem Licht gestreut wird, als Kantenmuster bezeichnet.
Fig. 3 zeigt ein Beispiel für das Layout von Masken- und Wafermarken, die Scheitel haben, von welchem das Be­ leuchtungslicht gestreut wird. Eine Maskenmarke 62 ist zwischen Wafermarken 52A und 52B angeordnet. Jede der Ausrichtungsmarken 52A, 52B und 62 wird gebildet durch die Anordnung eines Kantenmusters mit quadratischer ebe­ ner Form in drei Reihen in der X-Achsenrichtung mit einem Zwischenraum P und in zwei Spalten in der Y-Richtung. Ein Scheitel jedes Kantenmusters mit quadratischer ebener Form zeigt in die positive X-Achsenrichtung, d. h. zum op­ tischen Beobachtungssystem.
Durch das Nutzen des Layouts der in Fig. 3 gezeigten Kantenmuster, die Scheitel haben und von denen Beleuch­ tungslicht gestreut wird, und durch das Beobachten des von den Scheiteln gestreuten Lichtes kann die Positionsausrich­ tung eines Wafers und einer Maske auch durch die mit Fig. 1A bis 1C beschriebenen Methoden erreicht werden.
Als nächstes wird das Positionsdetektionsverfahren ent­ sprechend der ersten Ausführungsform der Erfindung be­ schrieben. Das geneigte optische Empfängersystem, das durch die erste Ausführungsform genutzt wird, ist dasselbe, wie das in Fig. 1A dargestellte System. Die Positionsaus­ richtung durch Beobachtung von an einer linearen Kante ge­ streuten Licht wurde mit Bezug auf die Fig. 1B und 2A be­ schrieben, und die Positionsausrichtung durch Beobachtung von an einem Scheitel gestreutem Licht wurde mit Bezug auf die Fig. 2E und 3 beschrieben. In dieser Ausführungs­ form wird Licht beobachtet, welches von einer Kante ge­ streut wird, dessen vertikal projiziertes Bild auf die Belich­ tungsoberfläche oder Maskenoberfläche eine gekrümmte Li­ nie ist.
Fig. 4A ist eine Draufsicht einer Wafermarke, die ge­ krümmte Kanten hat, und Fig. 4B ist eine Perspektivansicht der Wafermarke. Diese Wafermarke wird durch die Muste­ rung eines Ta4B-Filmes erzeugt, der auf eine SiC-Schicht aufgebracht ist, welches sich wiederum auf einer Silicium­ substratoberfläche befindet. Die Wafermarke besteht aus drei Kantenmustern, die eine Mesa-Struktur von ungefähr 3 µm Länge und ungefähr 1 µm Breite haben. Die gegen­ überliegenden Enden jedes Kantenmusters haben eine halb­ kreisförmige Gestalt mit einem Krümmungsradius von un­ gefähr 0,5 µm. Durch die Entfernung von Siliciumsubstrat in einer Fensterregion mittels Atzen und Beibehaltung der SiC-Schicht kann eine Röntgenstrahlmaske erzeugt werden.
Bei der Beobachtung von kantengestreutem Licht von der in Fig. 4A gezeigten Wafermarke wird das Siliciumsubstrat durch den in Fig. 1A dargestellten Waferhalter 15 derart ge­ halten, daß die Längsrichtung des Kantenmusters, die Rich­ tung der senkrecht zur Längsrichtung stehenden Ebene und die Normalenrichtung des Substrats mit den in Fig. 1A dar­ gestellten X-, Y- und Z-Achsen übereinstimmen. Das an der gekrümmten Kante mit einem Krümmungsradius von unge­ fähr 0,5 µm gestreute Licht wird dann beobachtet.
Fig. 5 zeigt die Meßergebnisse einer Lichtintensitätsver­ teilung von Licht, das an einer gekrümmten Kante der in Fig. 4A und 4B dargestellten Wafermarke gestreut wird, und wie es mit dem geneigten optischen Empfängersystem, das in Fig. 1A gezeigt ist, beobachtet wird. Die Ordinate stellt die Lichtintensität dar, und die Abszisse repräsentiert die Y- Achse auf der Siliciumsubstratoberfläche. Insbesondere ent­ spricht die Abszissenrichtung der in Fig. 1C dargestellten Y Achse, die Breitenrichtung entspricht der X-Achse. Der Ver­ größerungsfaktor der Linse des optischen Beobachtungssy­ stems war 100, die numerische Apertur (NA) der Objektiv­ linse war 0,35, und das Beleuchtungslicht war weiß.
Wie in Fig. 5 gezeigt, hat das an einer gekrümmten Kante gestreute Licht im allgemeinen eine punktähnliche Form und nimmt allgemein eine maximale Lichtintensität an ei­ nem Punkt an. Insbesondere kann ein Bild, das ähnlich zu dem an einem Scheitel einer Wafermarke gestreutem Licht ist, erhalten werden.
Die Position des Scheitels, wie zum Beispiel in Fig. 2E gezeigt, ist empfindlich gegenüber den Einflüssen der Tole­ ranzen beim Produktionsprozeß, wenn die Wafermarke aus­ gebildet wird. Im Gegensatz dazu ist die Position der ge­ krümmten Kante nicht empfindlich gegen die Einflüsse der Toleranzen beim Produktionsprozeß, so daß eine stabile Po­ sitionsausrichtung mit hoher Präzision erreicht werden kann. In dem in den Fig. 4A und 4B gezeigten Beispiel hat jede Kante der Wafermarke eine Halbkreisform. Diese Form kann jede andere glatte Kurve sein, so lange wie ein Bild von im allgemeinen punktähnlicher Form erhalten werden kann. Bei der Ausbildung einer Wafermarke, die solch eine glatte Kurve besitzt, muß die äußere Peripherie eines Kan­ tenmusters der Wafermarke nicht notwendigerweise glatt sein. Eine Photomaske zum Beispiel, die ein rechteckiges Fenster besitzt, kann genutzt werden, und die äußere Peri­ pherie des Widerstandsmusters wird durch Nutzung der Bre­ chung von Bestrahlungslicht glatt gemacht.
Der Krümmungsradius jeder Kante der in den Fig. 4A und 4B dargestellten Wafermarke war ungefähr 0,5 µm. Dies war im allgemeinen gleich groß der Linsenauflösung. Setzt man den Krümmungsradius jeder Kante im allgemei­ nen gleich groß zur Auflösung oder kleiner als die Auflö­ sung, so erhält ein Bild von kantengestreutem Licht fast eine punktähnliche Form. Es ist deshalb vorteilhaft, den Krüm­ mungsradius jeder Kante im allgemeinen gleich groß zur Linsenauflösung oder kleiner als die Linsenauflösung zu set­ zen, um eine Positionsausrichtung mit hoher Präzision zu er­ reichen. Dies bedeutet nicht, daß eine Kante mit einem Krümmungsradius größer als die Linsenauflösung nicht ge­ nutzt werden kann. Es ist vorteilhaft, den Krümmungsra­ dius, der für das Erreichen einer gewünschten Positionsaus­ richtungsgenauigkeit geeignet ist, empirisch zu bestimmen, indem man Kanten verschiedener Formen nutzt.
Die Fig. 6A und 6B zeigen Beispiele des Layouts von Masken- und Wafermarken. In diesen beiden Beispielen sind zwei Wafermarken 40A und 40B und zwei Wafermar­ ken 42A und 42B in der Y-Achsenrichtung angeordnet, und Maskenmarken 41 und 43 sind zwischen den Wafermarken 40A und 40B und zwischen Wafermarken 42A und 42B an­ geordnet.
Jede der in Fig. 6A gezeigten Ausrichtungsmarken 40A, 40B und 41 ist zusammengesetzt aus Kantenmustern mit in die X-Achsenrichtung ausgedehnter ebener Kreisform, die in zwei Reihen in der X-Achsenrichtung und in zwei Spalten in der Y-Achsenrichtung angeordnet sind.
Jede der in Fig. 6B dargestellten Ausrichtungsmarken 42A, 42B und 43 ist aus Kantenmustern mit ebener Kreis­ form zusammengesetzt, die in drei Reihen in der X-Achsen­ richtung und in zwei Spalten in der Y-Achsenrichtung zu­ sammengesetzt sind.
Nutzt man das Layout der in den Fig. 6A und 6B gezeig­ ten Kantenmuster mit glatten Kurven und beobachtet man das von solchen Kanten gestreute Licht, so kann eine Positi­ onsausrichtung eines Wafers und einer Maske auch durch die mit den Fig. 1A bis 1C beschriebenen Methode erreicht werden. Die in den Fig. 6A und 6B dargestellten Ausrich­ tungsmarken sind so strukturiert, daß eine Ausrichtungs­ marke mit einer anderen Ausrichtungsmarke überlagert wer­ den kann, indem man die Marken nach der Positionsausrich­ tung parallel zueinander verschiebt. Es ist deshalb einfach, die Entfernung zwischen den Ausrichtungsmarken in der Y- Achsenrichtung zu messen. Durch das Anordnen einer Viel­ zahl von Kantenmustern in der X-Achsenrichtung mit einem vorbestimmten Zwischenraum wird es einfach, irgendeine Kante unter einer Vielzahl von Kantenmustern zu fokussie­ ren und die relative Position stabil zu detektieren. Die rela­ tive Position des Wafers und der Maske kann zum Beispiel detektiert werden, indem man dieselben Ausrichtungsmar­ ken und dieselbe Positionsdetektorvorrichtung nutzt, selbst wenn sich die Lücke zwischen dem Wafer und der Maske verändert. Weiterhin kann die relative Position detektiert werden, während die Lücke sich ändert. Die Lücke zwi­ schen einem Wafer und einer Maske kann durch die mit Fig. 2D beschriebene Methode detektiert werden.
Fig. 7A ist eine Draufsicht, die ein anderes Beispiel der relativen Position von Wafermarken 13A und 13B und einer Maskenmarke 14 zeigt. Jede der Wafermarken 13A und 13B besteht aus in einer Matrixform angeordneten rechteckigen Mustern, drei Muster in der Y-Achsenrichtung und vierzehn Muster in der X-Achsenrichtung. Die Maskenmarke 14 be­ steht aus ähnlichen in einer Matrixform angeordneten recht­ eckigen Mustern, drei Muster in der Y-Achsenrichtung und fünf Muster in der X-Achsenrichtung. In dem Stadium, nachdem die Positionsausrichtung vollendet ist, ist eine re­ lative Position erreicht, in welcher die Maskenmarke 14 im allgemeinen in der Mitte zwischen den Wafermarken 13A und 13B in der Y-Achsenrichtung positioniert ist.
Die längere Seite jedes recheckigen Musters der Wafer­ marken 13A und 13B und der Maskenmarke 14 ist parallel zur X-Achse, und die kürzere Seite ist parallel zur Y-Achse. Die längere Seite jedes rechteckigen Musters ist 2 µm lang und die kürzere Seite ist 1 µm lang. Der Zwischenraum zwi­ schen rechteckigen Mustern jeder Marke beträgt 4 µm so­ wohl in der X- als auch der Y-Achsenrichtung. Die Entfer­ nung zwischen den Mittelpunkten der Wafermarken 13A und 13B beträgt 56 µm.
Fig. 7B ist eine Querschnittsansicht entlang der in Fig. 7A dargestellten Punktlinie B2-B2. Beispielweise sind die Wafermarken 13A und 13B durch die Musterung einer SiN- Schicht, einer Polysiliciumschicht oder ähnlichem auf der Belichtungsoberfläche gebildet, und die Maskenmarke 14 ist durch die Musterung einer Ta4B-Schicht auf der Maskenoberfläche der Membran 12 gebildet, die aus SiC oder ähn­ lichem besteht.
Fig. 7C ist eine Querschnittsansicht entlang der in Fig. 7A dargestellten Punktlinie C2-C2. Das entlang der opti­ schen Achse 25 auf die Wafer- und Maskenmarken 13A, 13B und 14 einfallende Beleuchtungslicht wird von der kür­ zeren Seitenkante jedes in Fig. 7C dargestellten rechtecki­ gen Musters gestreut. Licht, das auf andere Gebiete als die Kanten einfällt, wird regulär reflektiert und fällt nicht auf die in Fig. 1A gezeigte Linse 22 ein. Der Bilddetektor 21 kann deshalb nur das von den Kanten gestreute Licht detek­ tieren.
Das von den Punkten auf Objektebene 27 des in Fig. 1A dargestellten optischen Systems gestreute Licht wird gleich­ zeitig auf die Lichtempfängerebene des Bilddetektors 21 fo­ kussiert.
In Fig. 7C wird das von jeder Kante der Wafermasken­ marken 13A, 13B und 14 auf der Objektebene 27 gestreute Licht auf die Lichtempfängerebene fokussiert, und Licht, das von jeder nicht auf der Objektebene befindlichen Kante gestreut ist, wird nicht einfokussiert und wird umso mehr defokussiert, je weiter die Kante von der Objektebene ent­ fernt ist. Deshalb wird das Bild des an einer Kante gestreu­ ten Lichtes, die sich am nahesten an der Objektebene befin­ det, am deutlichsten, und das Bild einer anderen Kante, die sich weiter weg von der Kante, die sich am nahesten in der Objektebene befindet, positioniert ist, wird undeutlicher.
Fig. 8 ist eine Skizze von Bildern auf der Lichtempfän­ gerebene, die von kantengestreutem Licht erzeugt werden. Eine in Fig. 8 dargestellte U-Achse entspricht der Richtung einer Schnittlinie zwischen der in Fig. 7C gezeigten Objekt­ ebene 27 und der X-Z Ebene, und eine V-Achse entspricht der in Fig. 7C gezeigten Y-Achse. Die Bilder 40A und 40B, die durch das von den Wafermarken 13A und 13B gestreute Licht erzeugt werden, erscheinen getrennt entlang der V- Achsenrichtung, und ein Bild 41, das durch an der Masken­ marke 14 gestreute Licht erzeugt wird, erscheint zwischen den Bildern 40A und 40B.
Da das an den Vorder- und Rückkanten jedes rechtecki­ gen Musters gestreute Licht beobachtet wird, erscheinen zwei punktähnliche Bilder für jedes rechteckige Muster. Bil­ der, die durch das von den Kanten nahe der in Fig. 7C dar­ gestellten Objektebene 27 gestreute Licht erzeugt werden, sind deutlich, und Bilder, die durch das an den Kanten ge­ streute Licht erzeugt werden, die sich weiter entfernt von den Kanten nahe der Objektebene 28 befinden, werden un­ deutlicher. Da die Beobachtungsachse 25 geneigt zur Be­ lichtungsoberfläche ist, stimmt die Position der Bilder 40A und 40B im besten Fokussierzustand, die durch von den Wa­ fermarken gestreutes Licht erzeugt werden, in der U-Ach­ senrichtung nicht überein mit der Position des Bildes 41 im besten Fokussierzustand, das von an der Maskenmarke ge­ streuten Licht erzeugt wird.
Bewegt man den in Fig. 1A gezeigten Waferhalter 15 und Maskenhalter 16, um das Bild 41, das von an der Masken­ marke gestreuten Licht erzeugt wird, in der Mitte zwischen den Bildern 40A und 40B, die von an der Wafermarke ge­ streuten Licht erzeugt werden, entlang der Y-Achsenrich­ tung zu positionieren, so kann die Positionsausrichtung des Wafers 11 und der Maske 12 durchgeführt werden.
Da die in Fig. 1A dargestellte Positionsdetektorvorrich­ tung die Wafer- und Maskenmarken geneigt beobachtet, ist es nicht notwendig, das optische System 20 während der Be­ lichtung zurückzuziehen. Es ist auch immer möglich, die Position zu detektieren, während der Wafer nach der Positi­ onsausrichtung belichtet wird. Da die Beleuchtungs- und Beobachtungsachsen koaxial zueinander sind, tritt keine axiale Verschiebung auf, und das Bild kann immer stabil ge­ wonnen werden.
Die zweite Ausführungsform der Erfindung wird als nächstes beschrieben.
Die Fig. 9A und 9B zeigen Beispiele von Bildsignalen, die durch die in Fig. 1A dargestellte Bilddetektorvorrich­ tung 21 erhalten wurden. Die Abszisse entspricht der in Fig. 8 dargestellten V-Achse, und die Ordinate repräsentiert die Lichtintensität. Die Bildsignale wurden durch Scannen in der V-Achsenrichtung gewonnen, und nach jedem V-Ach­ senscan durch Verschiebung der Scanposition uni eine vor­ bestimmte Entfernung in der U-Achsenrichtung. Von diesen Bildsignalen wurden die in Fig. 8 dargestellten Bildsignale durch das Scannen der Bilder 40A und 40B an der Position im besten Fokussierzustand und durch das Scannen des Bildes 41 an der Position im besten Fokussierzustand gewon­ nen.
Die in Fig. 9A dargestellten Bildsignale wurden mit Wa­ fermarken aus Polysilicium gewonnen, und die in Fig. 9B gezeigten Bildsignale wurden mit Wafermarken aus SiN ge­ wonnen. Die Maskenmarken bestehen beide aus T4B.
Wie in den Fig. 9A und 9B gezeigt, erscheinen drei zur Maskenmarke gehörige Peaks im allgemeinen im zentralen Gebiet, und drei zu der Wafermarke gehörige Peaks erschei­ nen auf beiden Seiten der Maskenmarkenpeaks.
Ein Beispiel eines Verfahrens zum Detektieren der relati­ ven Position einer Maskenmarke und einer Wafermarke durch Ausnutzung der in den Fig. 9A und 9B gezeigten Wel­ lenformen wird kurz beschrieben. Während die Peakwellen­ formen der Maskenmarke in die V-Achsenrichtung verscho­ ben werden, werden Korrelationsfaktoren zwischen den Pe­ akwellenformen der Maskenmarke und den Peakwellenfor­ men der beiden Wafermarken berechnet. Die Entfernung zwischen den Mitten der Wafer- und Maskenmarken ent­ spricht der Verschiebung, bei welcher der größte Korrelati­ onsfaktor berechnet wurde.
Bewegt man die Wafer- und Maskenhalter, um gleiche Entfernungen von den Peakwellenformen der Maskenmarke zu den Peakwellenformen der Wafermarke auf beiden Sei­ ten der Maskenmarke zu erreichen, so kann eine Positions­ ausrichtung des Wafers und der Maske in der in Fig. 1A ge­ zeigten Y-Achsenrichtung erfolgen.
Um die Berechnungsgenauigkeit des Korrelationsfaktors zu verbessern, ist es vorteilhaft, auf der Lichtempfänger­ ebene angeordnete photoelektrische Umwandlerelemente im nährungsweisen linearen Gebiet der Input/Output-Cha­ rakteristiken der Elemente zu nutzen, und um Bildsignale mit einem hohen Signal-Rauschverhältnis zu gewinnen. Aus diesen Blickwinkeln ist es vorteilhaft, die Höhe der Wellen­ formenpeaks sowohl der Masken- als auch der Wafermar­ ken im allgemeinen anzugleichen. Von der Wafermarke ge­ streutes Licht und von der Maskenmarke gestreutes Licht haben im allgemeinen jedoch auf Grund von Materialunter­ schieden der Membran 12 und Unterschieden zwischen den Materialien der in Fig. 7C gezeigten Wafer- und Masken­ marken oder aus anderen Gründen unterschiedliche Intensi­ täten. Deshalb unterscheiden sich, wie in den Fig. 9A und 9B dargestellt, die Höhen der Peaks der Maskenmarke von den Höhen der Peaks der Wafermarke.
Nutzt man die Methode der zweiten Ausführungsform der Erfindung, so kann ein Höhenunterschied der Peaks zwi­ schen den Masken- und Wafermarken reduziert werden. Die Positionsdetektionsmethode und -vorrichtung entsprechend der zweiten Ausführungsform wird mit Bezug auf die Fig. 10A und 10B beschrieben.
Fig. 10A ist eine Querschnittsansicht, die ein Gebiet nahe der Lichtempfängerebene 21a der in Fig. 1A gezeigten Posi­ tionsdetektorvorrichtung darstellt. Ein optischer Filter 26 ist unmittelbar vor der Lichtempfängerebene 21a angeordnet, die senkrecht zur optischen Achse 25 steht. Ein Bild, das von an der Wafermarke 13 gestreutem Licht erzeugt wird, wird in einem Gebiet 21b der Lichtempfängerebene 21a fo­ kussiert, und ein Bild, das durch an der Maskenmarke 14 ge­ streutem Licht erzeugt wird, wird in ein Gebiet 21c fokus­ siert. Die Fokusgebiete können abhängig vom optischen Sy­ stem vertauscht sein.
Ein Transmissionsfaktor des optischen Filters 26 ist un­ terschiedlich in den Gebieten 26b und 26c, die den Gebieten 21b und 21c zugeordnet sind. Fig. 10B ist eine Vorderan­ sicht des optischen Filters 26. Die Gebiete 26b und 26c, die verschiedene Transmissionsfaktoren besitzen, sind in den oberen und unteren Hälften einer kreisförmigen Glasplatte definiert. Selbst wenn die Intensitäten des Lichtas, das von den Wafer- und Maskenmarken gestreut und durch die Linse 22 transmittiert wird, unterschiedlich sind, können die In­ tensitäten von zwei Streulichtströmen, die auf die Lichtemp­ fängerebene 21a fokussiert sind, angenähert werden, indem man die Transmissionsfaktoren der beiden Gebiete des opti­ schen Filters 26 geeignet einstellt.
Da die Intensitäten des Lichtes, das von den Wafer- und Maskenmarken gestreut wird und auf die Lichtempfänger­ ebene 21a fokussiert wird, aneinander angenähert werden, können die Höhen der Peaks der in den Fig. 9A und 9B dar­ gestellten und zu den Masken und Wafermarken gehörenden Bildsignale aneinander angenähert werden. Es ist deshalb möglich, die Position genauer zu detektieren. Der optische Filter 26 ist vorzugsweise ein Filter mit den Charakteristi­ ken, daß die optischen Wege des von den Wafer- und Mas­ kenmarken gestreute Lichtes nicht unterschiedlich werden.
Das geneigte optische Empfängersystem nutzt nicht die Lichtbrechung. Es ist deshalb vorteilhaft, weißes Licht zu nutzen, um den Einfluß von Lichtinterferenzen zu vermei­ den. Deshalb ist der optische Filter 26 vorzugsweise ein neutrales Dichtefilter mit einer geringen Wellenlängenab­ hängigkeit des Transmissionsfaktors. Dieser neutrale Dich­ tefilter ist auch bequem in dem Sinne, daß ein Transmissi­ onsfaktor von jedem von einer Vielzahl von geteilten Gebie­ ten eines Filters leicht verändert werden kann.
Es wird bevorzugt, daß das optische Filter 26 entlang der optischen Achse an die Position gesetzt wird, wo der Licht­ strom, der von der Wafermarke gestreut wird, vollständig vom Lichtstrom, der von der Maskenmarke gestreut wird, getrennt ist. Deshalb kann das optische Filter nicht nur un­ mittelbar vor die Lichtempfängerfläche 21a, sondern an jede Position gesetzt werden, so lange wie die beiden Streulicht­ ströme vollständig voneinander getrennt sind.
In den Fig. 10A und 10B wird das von der Maskenmarke gestreute Licht und das von der Wafermarke gestreute Licht über die Gebiete des optischen Filters mit unterschiedlichen Transmissionsfaktoren fokussiert. Der eine Streulichtstrom kann durch das Filter unterdrückt werden, und der andere Streulichtstrom kann fokussiert werden, ohne das Filter zu passieren. In diesem Fall ist ein Filter nur in einem der Fig. 10A gezeigten Gebiete 21b und 21c angeordnet.
In der zweiten Ausführungsform erfolgt die Positionsde­ tektion, in dem Korrelationsfaktoren von ein-dimensionaa­ len Bildsignalen berechnet werden.
Die relative Position einer Maske und eines Wafers kann berechnet werden, indem zwei-dimensionale Bildsignale genutzt werden, die in Fig. 8 dargestellt sind. In diesem Fall erfolgt ein Ähnlichkeitsvergleich zwischen den Masken- und Wafermarkenbildern, indem die Bildsignale parallel zur U-Achsenrichtung und V-Achsenrichtung verschoben wer­ den. Mit diesem Mustervergleich der zwei-dimensionalen Bildsignale kann eine Entfernung zwischen den Bildern in den U- und V-Achsenrichtungen berechnet werden.
Als nächstes wird ein Verfahren zur Messung der Entfer­ nung zwischen einem Wafer und einer Maske beschrieben. In Fig. 8 entspricht eine Position u0, an der sich die durch das von den Wafermarken gestreute Licht erzeugten Bilder 40A und 40B im besten Fokussierzustand in der U-Achsen­ richtung befinden, einer in Fig. 7C dargestellten Schnittlinie P0 zwischen der ebenfalls in Fig. 7C gezeigten Objektebene 27 und der Belichtungsoberfläche. Wie ebenfalls in der Fig. 8 zu sehen, entspricht eine Position u1, an der sich das durch von der Maskenmarke gestreute Licht erzeugte Bild 41 im besten Fokussierzustand in der U-Achsenrichtung befindet, einer in Fig. 7C dargestellten Schnittlinie P1 zwischen der ebenfalls in Fig. 7C gezeigten Objektebene 27 und der Mas­ kenoberfläche. Beispielsweise kann eine Entfernung zwi­ schen den Positionen u0 und u1 durch den Mustervergleich der in Fig. 8 gezeigten zwei-dimensionalen Bilder gewon­ nen werden.
Bezeichnet man die Länge des Liniensegments P0-P1 mit L(P0, P1), so ist die Lücke δ zwischen dem Wafer 11 und der Maske 12 gegeben durch:
δ = L(P0, P1) × sin(α) (8)
wobei α ein Winkel der optischen Achse 25 relativ zur Nor­ malenrichtung der Belichtungsoberfläche ist. Die Lücke δ kann deshalb aus der Länge des Liniensegments P0-P1 be­ rechnet werden, in dem man die Entfernung L(u0, u1) zwi­ schen den Positionen u0 und u1 in der in Fig. 8 gezeigten U- Achsenrichtung mißt. Um die Lücke δ genauer zu berech­ nen, ist es vorteilhaft, die Entfernung zwischen den Positio­ nen u0 und u1 in der U-Achsenrichtung richtig zu messen. Aus diesem Grund ist die Schärfentiefe der Linse vorzugs­ weise klein.
Jedes beobachtete Bild kann mit einem Referenzbild ver­ glichen werden, ohne daß ein Mustervergleich zwischen zwei beobachteten Bildern erfolgt. In diesem Fall werden die Referenzbildsignale unter der Annahme erzeugt, daß ein Wafer und eine Maske so angeordnet sind, daß sie die ge­ wünschte relative Position einnehmen, und die in einem Speicher im voraus gesichert sind. Durch den Ahnlichkeits­ vergleich der Muster zwischen einer beobachteten Wafer­ marke und einer vorgespeicherten Referenzwafermarke wird ein Verschiebungsmaß der beobachteten Wafermarke bezüglich der Referenzmarke gewonnen. Ähnlich zur Wa­ fermarke wird ein Verschiebungsmaß eines Maskenmusters bezüglich einer Referenzposition gewonnen. Eine relative Position zwischen dem Wafer und der Maske kann aus die­ sen Verschiebungsmaßen erhalten werden.
Als nächstes wird eine dritte Ausführungsform der Erfin­ dung beschrieben.
Fig. 11 ist eine schematische Querschnittsansicht einer Positionsdetektorvorrichtung entsprechend der dritten Aus­ führungsform der Erfindung. Die Positionsdetektorvorrich­ tung dieser Ausführungsform besteht aus einer Wafer/Mas­ kenhaltereinheit 110, einem optischen System 120 und ei­ nem Controller 130.
Die Wafer/Maskenhaltereinheit 110 umfaßt einen Wafer­ halter 115, einen Maskenhalter 116 und die Antriebsmecha­ nismen 117 und 118. Zur Positionsausrichtung wird ein Wa­ fer 11 auf der oberen Oberfläche des Waferhalters 115 gehal­ ten, und eine Maske 12 wird auf der unteren Oberfläche des Maskenhalters 116 gehalten. Der Wafer 11 und die Maske 12 sind parallel angeordnet, wobei sich eine vorgegebene Lücke zwischen der Belichtungsoberfläche des Wafers 11 und der Oberfläche (Maskenoberfläche) der Maske 12 auf der Waferseite befindet. Auf der Belichtungsoberfläche des Wafers 11 befinden sich Positionsausrichtungswafermarken, und auf der Maskenoberfläche der Maske 12 befindet sich eine Positionsausrichtungsmaskenmarke.
Der Antriebsmechanismus 117 kann den Waferhalter 115 oder den Maskenhalter 116 bewegen, um die relative Posi­ tion des Wafers 11 und der Maske 12 auf der Belichtungs­ oberfläche zu verändern. Der Antriebsmechanismus 118 kann den Waferhalter 115 bewegen, um die Lücke zwischen der Belichtungsoberfläche des Wafers 11 und der Masken­ oberfläche der Maske 12 zu verändern. Definiert man eine X-Achse als in die in Fig. 11 dargestellte Richtung von links nach rechts zeigend, eine Y-Achse als in die Richtung verti­ kal zum Zeichenblatt von der Vorder- zur Rückseite zeigend, und eine Z-Achse als in die Normalenrichtung der Belich­ tungsoberfläche zeigend, so stellt der Antriebsmechanismus 117 die relative Position des Wafers 11 und der Maske 12 in die X-Achsen- und Y-Achsenrichtungen und in eine Rotati­ onsrichtung (θz) um die Z-Achse ein, während der Antriebs­ mechanismus 118 die relative Position des Wafers 11 und der Maske 12 in der Z-Achsenrichtung und in die Rotations­ richtungen (θx und θy Richtungen) um die X-Achsen- und Y-Achsenrichtungen einstellt.
Das optische System 120 umfaßt die Bilddetektoren 121A und 121B, die Linsen 122 und 128, die Halbspiegel 123 und 126A, eine optische Faser 124 und einen Spiegel 126B. Die optische Achse 125 des optischen Systems 120 liegt parallel zu X-Z-Ebene und geneigt zur Belichtungs­ oberfläche.
Das von der optischen Faser ausgestrahlte Beleuchtungs­ licht wird vom Halbspiegel 123 reflektiert und bildet dabei einen Lichtstrom entlang der optischen Achse 125, der über die Linse 122 geneigt auf die Belichtungsoberfläche einfällt. Das durch die Linse transmittierte Beleuchtungslicht wird zu einem parallelen Lichtstrom verändert (paralles Strahlen­ bündel).
Das Beleuchtungslicht wird von einem Streugebiet, wie zum Beispiel einer Kante oder einem Scheitel der auf dem Wafer 11 und der Maske 12 gebildeten Wafer- und Masken­ marken, gestreut. Von diesem gestreuten Licht wird das auf die Linse 122 einfallende Licht durch die Linse 122 gebün­ delt, und ein Teil dieses Lichts transmittiert durch die Halb­ spiegel 123 und 126A und wird auf die Lichtempfängerflä­ che 129A des Bilddetektors 121A fokussiert. Ein Vergröße­ rungsfaktor eines auf die Lichtempfängerebene 129A fokus­ sierten Bildes ist zum Beispiel 20. Von dem gestreuten Licht wird das durch den Halbspiegel 126A reflektierte Licht durch den Spiegel 126B reflektiert, von einer Zwischenlinse (Relaislinse) 128 gebündelt und auf die Lichtempfängerflä­ che 129B des Bilddetektors 121B fokussiert. Ein Vergröße­ rungsfaktor eines auf die Lichtempfängerebene 129B fokus­ sierten Bildes ist zum Beispiel 80 bis 100. Die beiden Beob­ achtungssysteme mit unterschiedlichen Vergrößerungsfak­ toren sind auf die oben beschriebene Weise angeordnet. Die Bilddetektoren 121A und 121B wandeln die Bilder, die durch das von dem Wafer 11 und der Maske 12 gestreute und auf die Lichtempfängerebenen 129A und 129B fokus­ sierte Licht erzeugt werden, photoelektrisch in Bildsignale um, die als Input des Controllers 130 dienen.
Der Controller 130 verarbeitet die von den Bilddetektoren 121A und 121B gelieferten Bildsignale durch den Bezug auf Referenzmuster, die im Referenzmusterspeicher 131 gespei­ chert sind, um die relative Position des Wafers 11 und der Maske 12 in der Y-Achsenrichtung zu detektieren.
Die relativen Positionen des Wafers 11 und der Maske 12 in den X- und Y-Achsenrichtungen und in der θz-Richtung kann durch Anordnen von zwei optischen Systemen mit ge­ neigen optischen Achsen parallel zur X-Z-Ebene und eines optischen Systems mit geneigter optischer Achse parallel zur Y-Z-Ebene detektiert werden.
Damit der Wafer 11 und die Maske 12 eine vorbestimmte relative Position einnehmen, werden Steuersignale an die Antriebsmechanismen 117 und 118 gesendet. Entsprechend dem Kontrollsignal bewegt der Antriebsmechanismus 117 den Waferhalter 115 parallel zur X-Y-Ebene, um ihn um die Z-Achse rotieren zu lassen. Entsprechend dem Steuersignal bewegt der Antriebsmechanismus 118 den Waferhalter 115 parallel zur Z-Achsenrichtung, um ihn leicht um die X- und Y-Achsen rotieren zu lassen.
Die Positionsausrichtung des bzw. der in den Fig. 7A bis 7C gezeigten Wafers 11 und Maske 12 wird durch Nutzung der in Fig. 11 dargestellten Positionsdetektorvorrichtung be­ schrieben.
Das von den Punkten auf einer Objektebene des in Fig. 11 dargestellten optischen Systems 120 gestreute Licht wird gleichzeitig auf die Lichtempfängerebene 129A und 129B der Bilddetektoren 121A und 121B fokussiert.
Die Schärfentiefe d des bündelnden optischen Systems 120 ist gegeben durch:
d = λ/NA2 (9)
wobei NA die numerische Apertur der Objektlinse des bün­ delnden optischen Systems 120 und λ die Wellenlänge des Beleuchtungslichtes ist. Licht, das von den Kanten gestreut wird, die innerhalb der Schärfentiefe d positioniert sind, und zur Objektebene 27 zentriert ist, wird auf die Lichtempfän­ gerebenen 129A und 129B der Bilddetektoren 121A und 121B fokussiert. Wie in Fig. 7A gezeigt, ist eine Vielzahl von Kanten der Wafermarken 13A und 13B und der Mas­ kenmarke 14 entlang der X-Achsenrichtung angeordnet, so daß Licht, das von einigen dieser Streugebiete gestreut wird, auf die Lichtempfängerebenen fokussiert wird. In Fig. 7C wird das Licht, das von einer Kante außerhalb der Schärfen­ tiefe d gestreut wird, nicht auf die Lichtempfängerebene ein­ fokussiert, und die Bilder, die durch das Licht, das von den weiter von der Objektebene 27 befindlichen Gebieten ge­ streut wird, erzeugt werden, werden verschwommener.
Die relative Position des Wafers und der Maske kann ähn­ lich zur zweiten Ausführungsform bestimmt werden, die mit Bezug auf die Fig. 7A bis 9B beschrieben ist.
Eine Genauigkeit der Positionsausrichtung in der Y-Ach­ senrichtung der in Fig. 11 dargestellten Positionsdetektor­ vorrichtung wird umso schwerwiegender wie der Integrati­ onsgrad der Halbleiterschaltkreise höher wird. Beispiels­ weise ist im Falle eines dynamischen RAM mit einer Spei­ cherkapazität von 16 G-Bits eine Positionsausrichtungsge­ nauigkeit von ungefähr 12,5 nm erforderlich.
Um eine Positionsausrichtung durch Nutzung der in den Fig. 9A oder 9B dargestellten Bildsignale zu erreichen, wird ein Fehler in der relativen Position des Wafers und der Maske bei der Bildsignaldetektion vorzugsweise innerhalb eines bestimmten Bereiches angesetzt. Es ist jedoch schwie­ rig, die Maske 12 durch den in Fig. 11 gezeigten Maskenhal­ ter 116 mit einer Genauigkeit innerhalb dieses Fehlerberei­ ches zu halten, während der Wafer 11 vom Waferhalter 115 gehalten wird. Es ist deshalb vorteilhaft, zuerst eine grobe Ausrichtung vorzunehmen, um dann, nachdem der Wafer 11 und die Maske 12 gehalten werden, eine Genauigkeit inner­ halb dieses Fehlerbereiches zu realisieren.
Eine solche grobe Ausrichtung kann leicht anhand der Bildsignale von Bildern mit einem niedrigen Vergröße­ rungsfaktor, die auf die Lichtempfängerebene 129A fokus­ siert sind, vorgenommen werden. Nach Abschluß dieser groben Ausrichtung wird eine Feinausrichtung mit höherer Genauigkeit anhand der Bildsignale von Bildern mit einem hohen Vergrößerungsfaktor, die auf die Lichtempfänger­ ebene 129B fokussiert sind, vorgenommen. Da die grobe Ausrichtung vor der feinen Ausrichtun 15946 00070 552 001000280000000200012000285911583500040 0002019808707 00004 15827g vorgenommen wird, kann die Positionsausrichtungsgenauigkeit, die erforderlich ist, wenn der Wafer und die Maske gehalten werden, gesenkt werden.
Mit steigendem Integrationsgrad der Halbleiterbauele­ mente muß die Lücke zwischen dem Wafer 11 und der Maske 12 eine gewisse Genauigkeit besitzen. So ist diese Lücke beispielsweise im Falle der Röntgenbelichtung von 0,1 µm Linienbreite ungefähr 10 bis 20 µm groß, und eine Genauigkeit von +/-1 µm ist erforderlich. Die Lücke zwi­ schen dem Wafer und der Maske wird anhand der Bildsi­ gnale von Bildern mit einem niedrigen Vergrößerungsfaktor, die auf die Lichtempfängeebene 129A fokussiert sind, de­ tektiert.
Der Controller 130 ist mit zwei Bildsignalverarbeitungs­ einheiten ausgestattet, eine für die Verarbeitung von Bildsi­ gnalen, die mit dem optischen System für die Feinausrich­ tung detektiert wurden, und die andere für die Verarbeitung von Bildsignalen, die mit dem optischen System für die Grobausrichtung detektiert wurden. Wenn die Lücke zwi­ schen dem Wafer und der Maske durch Nutzung der mit dem optischen System für die Feinausrichtung detektierten Bild­ signale eingestellt wird, so muß wegen der Verarbeitungska­ pazität des Controllers 130 auf eine Feinausrichtung mit ho­ her Geschwindigkeit verzichtet werden. Auf die Feinaus­ richtung mit hoher Geschwindigkeit muß nicht verzichtet werden, wenn man die Lücke zwischen dem Wafer und der Maske entsprechend den Bildsignalen, die mit dem opti­ schen System für die Grobausrichtung detektiert wurden, einstellt.
Als nächstes wird die vierte Ausführungsform der Erfin­ dung beschrieben.
Fig. 12A ist eine Skizze von Bildern auf der Lichtemp­ fängerebene 129A oder 129B, die durch das von den Kanten der in Fig. 7A dargestellten Wafer- und Maskenmarken ge­ streute Licht erzeugt werden, und von der in Fig. 11 darge­ stellten Positionsdetektorvorrichtung beobachtet werden. Diese Skizze ist ähnlich zu der in Fig. 8. Die Höhenrichtung (Spaltenrichtung) in Fig. 12A entspricht der Richtung einer Schnittlinie zwischen der in Fig. 7C gezeigten Objektebene 27 und der X-Z-Ebene, und die laterale Richtung (Reihen­ richtung) entspricht der in Fig. 7C gezeigten Y-Achsenrich­ tung, d. h. der Richtung einer Schnittlinie zwischen einer senkrecht zur optischen Achse 125 stehenden virtuellen Ebene und der Belichtungsoberfläche. Die photoelektri­ schen Umwandlungselemente sind auf den Lichtempfänger­ ebenen 129A und 129B in Matrixform angeordnet. Und je­ des photoelektrische Element erzeugt an jedem Pixel ein Bildsignal entsprechend der empfangenen Lichtmenge.
Die oberste Pixelreihe in Fig. 12A wird erste Reihe ge­ nannt, und die n-te obere Pixelreihe wird n-te Reihe ge­ nannt. Die am weitesten links stehende Pixelspalte in Fig. 12A wird erste Spalte genannt und die n-te linke Pixelreihe wird n-te Spalte genannt. Die Bilddetektoren 129A und 129B der Ausführungsform haben jeweils Pixel in 498 Rei­ hen und 768 Spalten.
Ein Verfahren zur Detektion der relativen Position der Wafermarke 13A und 13B und der Maskenmarke 14 in Übereinstimmung mit den Bildern 40A, 40B und 41, die auf den Lichtempfängerebenen abgebildet sind, werden be­ schrieben.
Die Maske und der Wafer werden durch den in Fig. 11 dargestellten Maskenhalter 116 und Waferhalter 115 gehal­ ten, und die Höhe der Wafer wird eingestellt, um eine vorbe­ stimmte Lücke zur Maske zu erhalten. In diesem Fall kann die relative Position der Maske und des Wafers grob einge­ stellt werden, und die relative Position in der Rotationsrich­ tung um die Z-Achse kann grob eingestellt werden.
In der folgenden Beschreibung wird angenommen, daß die Fig. 12A die Bilder mit einem geringen Vergrößerungs­ faktor zeigt, die auf die Lichtempfängerebene 129A des Bilddetektors 121A fokussiert sind. Der Controller 130 liest ein Referenzmuster aus dem Referenzmusterspeicher 131.
Ein Beispiel für ein Referenzmuster ist in Fig. 12B ge­ zeigt. Das Referenzmuster wird anhand der Bilder erzeugt, die durch Licht, das von Kanten im Tiefenschärfebereich d gestreut wird und zur in Fig. 7C gezeigten Objektebene 27 zentriert ist, gebildet werden.
Ein zum Referenzmuster ähnliches Bild wird von den Bil­ dern auf der Lichtempfängerebene 129A abgeleitet. Die ab­ geleiteten Bilder umfassen: Teilbilder 42A und 42B, die ei­ nige Teile der Bilder 40A und 40B der Wafermarken 13A und 13B beinhalten; und ein Teilbild 43, das einige Teile des Bildes 41 der Maskenmarke 14 beinhaltet. Als nächstes wer­ den die Koordinatenwerte der zwei-dimensionalen Teilbil­ der 42A und 42B der Wafermarke und des zweidimensio­ nalen Teilbildes 43 der Maskenmarke, die auf die Lichtemp­ fängerebene fokussiert sind, berechnet. Entsprechend den Koordinatenwerten kann die relative Position der Wafer­ marken 13A und 13B und Maskenmarke 14 detektiert wer­ den.
Entsprechend dieser Detektionsergebnisse wird der in Fig. 11 gezeigte Antriebsmechanismus 117 angetrieben, um die Wafer zu bewegen, so daß die Maskenmarke 14 in der Mitte zwischen den Wafermarken 13A und 13B in der Y- Achsenrichtung positioniert wird. Eine Grobausrichtung in der Y-Achsenrichtung mit einer Genauigkeit von ungefähr +/-0,5 µm kann auf die obige Weise erreicht werden.
Als nächstes wird eine Feinausrichtung mit höherer Ge­ nauigkeit erreicht, indem man die mit dem Bilddetektor 121B detektierten Bilder mit einem hohen Vergrößerungs­ faktor nutzt.
In der folgenden Beschreibung wird angenommen, daß die Fig. 12A Bilder mit einem hohen Vergrößerungsfaktor zeigt, die auf die Lichtempfängerebene 129B des Bilddetek­ tors 121B fokussiert sind. Der Controller 130 liest ein Refe­ renzmuster für den hohen Vergrößerungsfaktor aus den Re­ ferenzmusterspeicher 131.
Ein Beispiel für ein Referenzmuster für einen hohen Ver­ größerungsfaktor ist in Fig. 12B gezeigt. Ähnlich zur Gro­ bausrichtung wird dieses Referenzmuster anhand von Bil­ dern erzeugt, die durch Licht, das an Kanten im Tiefenschär­ fenbereich d des Bilddetektors 121B mit hohem Vergöße­ rungsfaktor gestreut wird, gebildet werden, und das zu der in Fig. 7C dargestellten Objektebene 27 zentriert ist.
Ein zum Referenzmuster ähnliches Bild wird von den Bil­ dern auf der Lichtempfängerebene 129B abgeleitet. Zweidi­ mensionale Teilbilder 42A und 42B der Wafermarke, die ähnlich zum Referenzmuster sind, werden von den Bildern 40A und 40b der Wafermarken 13A und 13B abgeleitet, während ein zwei-dimensionales Teilbild 43 der Masken­ marke, das ähnlich zum Referenzmuster ist, vom Bild 41 der Maskenmarke 14 abgeleitet wird. Wenn die Bilder einen kleinen Defokussierungsgrad haben und zum Referenzbild ähnliche Bilder abgeleitet werden können, so können solche Bilder, die durch an Kanten außerhalb der Tiefenschärfe d gestreutem Licht erzeugt werden, zusätzlich zu den Bildern, die durch an Kanten innerhalb der Tiefenschärfe d gestreu­ tem Licht gebildet werden, zum Erzeugen des Referenzmu­ sters genutzt werden.
Betrachtet wird nun der Fall, in dem sich die zweidimen­ sionalen Teilbilder 42A und 42B der Wafermarke im Be­ reich von der a-ten Reihe zu b-ten Reihe befinden, und das zwei-dimensionale Teilbild 43 der Maskenmarke sich im Bereich von der c-ten Reihe zur d-ten Reihe befindet. Es wird nun angenommen, daß eine q-te Spalte des zweidi­ mensionalen Teilbilds 42A der Wafermarke und das zwei­ dimensionale Teilbild 43 der Maskenmarke überspannt, und daß eine p-te Spalte das zwei-dimensionale Teilbild 42B der Wafermarke und das zwei-dimensionale Teilbild 43 der Maskenmarke überspannt.
Die Bildsignale der Pixel im Bereich von der ersten Spalte zur p-ten Spalte und im Bereich von der (q + 1)-ten Spalte zur letzten Spalte werden synchron von der a-ten Reihe bis zur b-ten Reihe akkumuliert. Synchrone Akkumu­ lation bedeutet, daß die Bildsignale von Pixeln in derselben Spalte von einer Reihe zur anderen Reihe akkumuliert wer­ den. Als nächstes werden die Bildsignale der Pixel im Be­ reich von der (p + 1)-ten Spalte zur q-ten Spalte synchron von der c-ten Reihe zur d-ten Reihe akkumuliert. Die von zwei synchronen Akkumulationen gewonnenen Bildsignale wer­ den synthetisiert, um ein einziges eindimensionales synthe­ tisiertes Bildsignal zu gewinnen.
Fig. 13 zeigt ein Beispiel eines ein-dimensionalen synthe­ tisierten Bildsignals. Die Abszisse in Fig. 13 stellt eine Pi­ xelspaltennummer dar, und die Ordinate bezeichnet eine Lichtintensität in einer relativen Skala. Drei scharfe Peaks, die dem zwei-dimensionalen Teilbild 43 der Maskenmarke entsprechen, erscheinen im zentralen Bereich des in Fig. 13 gezeigten Graphen, und drei scharfe Peaks, die jeden der zwei-dimensionalen Teilbilder 42A und 42B der Wafer­ marke entsprechen, erscheinen auf beiden Seiten der drei scharfen Peaks im zentralen Bereich. An den Positionen, die der p-ten Spalte und der q-ten Spalte entsprechen, sind Stu­ fen ausgebildet. Diese treten auf, weil die Bildsignale der Pi­ xel im Bereich von der a-ten Reihe zur b-ten Reihe synchron im Bereich von der ersten Spalte zur b-ten Spalte und im Be­ reich von der (q + 1)-ten Spalte zur letzten Spalte akkumu­ liert werden, während die Bildsignale der Pixel im Bereich von der c-ten Reihe zur d-ten Reihe synchron im Bereich von der (p + 1) Spalte und der q-ten Spalte akkumuliert wer­ den.
Ein Signal-Rauschverhältnis kann verbessert werden, in­ dem man eine synchrone Akkumulation von Bildsignalen einer Vielzahl von Reihen vornimmt. Als nächstes wird be­ schrieben, bis zu welchem Grad das Signalrauschverhältnis verbessert werden kann.
Fig. 14 ist eine Querschnittsansicht des Wafers und der Maske in der Region nahe der Objektebene und ist ähnlich zu Fig. 7C.
Wie in Fig. 14 gezeigt, ist ein Winkel der optischen Achse 125 des optischen Systems 120 relativ zur Belichtungsober­ fläche mit α bezeichnet. Kantenbilder der Maskenmarke 14 können klar auf die Lichtempfängerebene 129B fokussiert werden, wenn die Kanten innerhalb des Tiefenschärfenbe­ reiches positioniert sind. Die Weite L eines Bildes dieses Fo­ kusbereiches, das vertikal auf die Objektebene 27 fokussiert wird, ist gegeben durch
L = d/tan(α) (10)
Wenn der hohe Vergrößerungsfaktor eines Bildes, das auf die in Fig. 12A dargestellte Lichtempfängerebene 129B fo­ kussiert ist, mit N bezeichnet wird, und der Pixelabstand in der Spaltenrichtung auf der Lichtempfängerebene 129B mit P bezeichnet wird, dann ist die Zahl (d - c + 1) von Reihen, die einen deutlichen Bildteil 43 überspannen, gegeben durch:
d - c + 1 - L/(P/N) (11)
Die Gleichungen (9) und (10) werden in die Gleichung (11) eingesetzt, so daß sich folgende Gleichung ergibt:
d - c + 1 = N × λ//NA2 × P × tan(α) (12)
Bei der Positionsausrichtung dieser Ausführungsform ist N = 100, λ = 0,6 µm, NA = 0,35, P = 13 µm und α = 300. Diese Werte werden in die Gleichung (12) eingesetzt, was zu einer Reihenzahl (d - c + 1) von annähernd 65 führt. Die synchrone Akkumulation von Bildsignalen von 65 Reihen verbessert das Signalrauschverhältnis um ungefähr 651/2, was nahezu das 8-fache ist.
Nutzt man die in Fig. 13 dargestellte Wellenform, so kann die relative Position der Masken- und Wafermarken durch eine Methode bestimmt werden, die ähnlich zu der mit den Fig. 9A und 9B beschriebenen Methode ist. Die Entfernung zwischen den Mitten kann durch Interpolationsberechnung mit einer Genauigkeit von (P/N) µm oder weniger erreicht werden. Mit dieser hochgenauen Positionsausrichtung ist eine Genauigkeit von +/-2 bis 3 nm möglich.
Während in der vierten Ausführungsform die synchrone Akkumulation für die Pixel im Bereich von der a-ten Reihe zur b-ten Reihe der in Fig. 12A dargestellten Lichtempfän­ gerebene 129B vorgenommen wird, werden die Pixel im Bereich von der (p + 1)-ten Spalte zur q-ten Spalte nicht syn­ chron akkumuliert. Während die Synchronakkumulation für die Pixel im Bereich von der c-ten Reihe zur d-ten Reihe vorgenommen wird, werden die Pixel im Bereich von der er­ sten Spalte zur p-ten Spalte und im Bereich von der (q + 1)- ten Spalte zur letzten Spalte nicht synchron akkumuliert. Es ist ist deshalb nötig, die Zeit für die synchrone Akkumula­ tion zu verkürzen.
Obwohl in der vierten Ausführungsform das Gebiet, das der synchronen Akkumulation unterworfen wird, wie oben bestimmt worden ist, können andere Teilgebiete der syn­ chronen Akkumulation unterworfen werden. In solch einem Fall werden die der synchronen Akkumulation unterworfe­ nen Teilgebiete geteilt, so daß die zwei-dimensionalen Teil­ bilder 42A und 42B der Wafermarke und das zweidimen­ sionale Teilbild 43 der Maskenmarke zumindest Teile des Akkumulationsgebietes überlappen. Durch die Teilung des Akkumulationsgebietes auf die obige Weise kann die Be­ rechnungszeit verkürzt werden und die Positionsausrichtung mit einer hohen Genauigkeit vorgenommen werden, da das Signalrauschverhältnis verbessert werden kann.
Ebenfalls werden in der vierten Ausführungsform zwei Bilder der beiden Wafermarken und ein Bild von einer Mas­ kenmarke auf die Lichtempfängerfläche fokussiert. Statt dessen können zwei Bilder auf der Lichtempfängerfläche abgebildet werden, um die relative Position der beiden Bil­ der zu detektieren. In diesem Fall kann die relative Position der beiden Bilder von den Bildsignalen detektiert werden, die durch synchrone Akkumulation von Bildsignalen in der Spaltenrichtung in den beiden Gebieten gewonnen wurden, von denen jedes zumindest ein Teil von jedem der beiden Bilder überlappt.
In den oben beschriebenen Ausführungsformen ist die Positionsausrichtung eines Wafers und einer Maske be­ schrieben worden. Die obigen Ausführungsformen sind nicht nur auf die Positionsausrichtung eines Wafers und ei­ ner Maske beschränkt, sondern sind auch anwendbar auf die Positionsausrichtung eines ersten Bauteils, das eine Haupt­ oberfläche besitzt, und eines zweiten Bauteils, das durch eine gewisse Lücke entfernt von der Hauptoberfläche ange­ ordnet ist.
Die vorliegende Erfindung ist in Verbindung mit den be­ vorzugten Ausführungsformen beschrieben werden. Die Er­ findung ist nicht nur auf die obigen Ausführungsformen be­ schränkt. Es ist offensichtlich, daß verschiedene Modifika­ tionen, Verbesserungen, Kombinationen und ähnliches durch den Fachmann vorgenommen werden können.

Claims (31)

1. Ein Positionsdetektionsverfahren, bestehend aus den Schritten: Anordnen eines Wafers mit einer Belich­ tungsoberfläche und einer Belichtungsmaske, mit einer zwischen die Belichtungsoberfläche und die Belich­ tungsmaske eingeführten Lücke, der Wafer mit einer auf der Belichtungsoberfläche gebildeten Wafermarke, die Wafermarke mit Kanten zur Streuung von einfal­ lendem Licht, jede Kante mit einem gekrümmten Teil, dessen auf eine parallel zur Belichtungsoberfläche senkrecht projiziertes Bild eine gekrümmte Form hat, die Belichtungsmaske mit einer auf ihrer Oberfläche befindlichen Maskenmarke, die Maskenmarke mit Kanten zur Streuung einfallenden Lichtes, jede Kante mit einem gekrümmten Teil, dessen senkrecht auf eine Ebene parallel zur Oberfläche der Belichtungsmaske projiziertes Bild eine gekrümmte Form hat; und Detek­ tieren einer relativen Position des Wafers und der Be­ lichtungsmaske durch Beleuchten der gekrümmten Teile der Kanten des Wafers und der Maskenmarken und durch Beobachten des von den gekrümmten Teilen gestreuten Lichtes entlang einer zur Belichtungsober­ fläche geneigten Richtung.
2. Ein Positionsdetektionsverfahren nach Anspruch 1, wobei ein Krümmungsradius eines Bildes des ge­ krümmten Teils jeder Kante der Wafer- und Masken­ marken, das senkrecht auf die Belichtungsoberfläche oder die Maskenoberfläche projiziert wird, gleich oder kleiner als die Auflösung eines optischen Beobach­ tungssystem ist.
3. Ein Positionsdetektionsverfahren nach Anspruch 1, wobei im genannten Schritt zur Detektion der relativen Position gestreutes Licht mit einem optischen System beobachten wird, das eine zur Belichtungsoberfläche optische Achse besitzt, und Beleuchtungslicht entlang einer Richtung ausgestrahlt wird, so daß regulär von den Wafer- und Maskenmarken reflektiertes Licht nicht auf das optische System einfällt.
4. Ein Positionsdetektionsverfahren nach Anspruch 3, wobei eine optische Achse des Beleuchtungslichtes und die optische Beobachtungsachse gleich sind.
5. Ein Positionsdetektionsverfahren nach Anspruch 4, wobei eine Vielzahl von Wafermarken entlang einer zur Einfallsebene des Beleuchtungslichtes senkrechten Richtung angeordnet ist, und eine Vielzahl von Mas­ kenmarken entlang einer zu einer Einfallsebene des Beleuchtungslichtes senkrechten Richtung angeordnet ist, und in dessen genanntem Schritt zur Detektion der relativen Position die Detektion der relativen Position in einer zur Einfallsebene des Beleuchtungslichtes senkrechten Richtung erfolgt.
6. Ein Positionsdetektionsverfahren nach Anspruch 5, wobei die Kante der Wafermarke und die Kante der Maskenmarke so angeordnet sind, daß eine der Kanten parallel zur anderen der Kanten bewegt und nach Voll­ endung der Positionsausrichtung überlagert werden können, und der genannte Schritt zur Detektion der re­ lativen Position einen Schritt zur Veränderung der rela­ tiven Position des Wafers und der Belichtungsmarken einschließt, so daß eine der Kanten parallel zur anderen der Kanten bewegt und aufeinander überlagert werden können.
7. Ein Halbleitersubstrat mit einer Belichtungsoberflä­ che, die durch eine Vielzahl von Ausrichtungswafer­ marken entlang einer zu einer Einfallsebene des einfal­ lenden Lichtes senkrechten Richtung gebildet ist, jede Wafermarke mit einer Kante zur Streuung einfallenden Lichtes, und ein senkrecht auf die Belichtungsoberflä­ che projiziertes Bild einer Kante mit mindestens einem gekrümmten Teil.
8. Ein Halbleitersubstrat nach Anspruch 7, wobei eine Vielzahl von Wafermarken entlang einer zur Einfalls­ ebene des einfallendes Lichtes parallelen Richtung an­ geordnet sind.
9. Eine Belichtungsmaske mit einer Vielzahl von Aus­ richtungsmarken, die entlang einer senkrecht zur Ein­ fallsebene des einfallenden Lichtes stehenden Rich­ tung angeordnet sind, jede Maskenmarke mit einer Kante zur Streuung des einfallenden Lichtes und ein senkrecht auf die Oberfläche der Belichtungsmaske projiziertes Kantenbild mit mindestens einem ge­ krümmten Teil.
10. Eine Belichtungsmaske nach Anspruch 9, wobei eine Vielzahl von Maskenmarken entlang einer zur Einfallsebene des einfallenden Lichtes stehenden Rich­ tung angeordnet ist.
11. Ein Positionsdetektionsverfahren, bestehend aus den Schritten:
Anordnen eines Bauteils mit einer zu belichtenden Be­ lichtungsoberfläche und einer Belichtungsmaske, mit einer zwischen der Belichtungsoberfläche und der Be­ lichtungsmaske befindlichen Lücke, das Bauteil mit ei­ ner auf der Belichtungsoberfläche gebildeten Ausrich­ tungsmarke, die Ausrichtungsmarke mit Kanten oder Scheiteln zur Streuung einfallenden Lichtes, die Be­ lichtungsmaske mit einer auf ihrer Oberfläche gebilde­ ten Maskenmarke, die Maskenmarke mit Kanten oder Scheiteln zur Streuung einfallenden Lichtes, und
Detektieren der relativen Position des Bauteiles und der Belichtungsmaske durch Beleuchten der Kanten und Scheitel der Ausrichtungs- und Maskenmarken, durch Fokussieren des von den Ausrichtungs- und Maskenmarken gestreuten Lichtes auf eine Lichtemp­ fängerebene, und durch Beobachten von Bildern auf der Lichtempfängerebene, wobei ein von den Ausrich­ tungs- und Maskenmarken gestreuter Lichtstrom unter­ drückt wird oder von sowohl an Ausrichtungs- und Maskenmarken gestreute Lichtströme unterschiedlich unterdrückt werden, so daß eine Lichtintensität eines Bildes, das durch den an der Ausrichtungsmarke ge­ streuten Lichtstrom erzeugt wird und daß auf die Licht­ empfängerebene fokussiert wird, sich an eine Lichtin­ tensität eines Bildes annähert, daß durch den an der Maskenmarke gestreuten Lichtstroms erzeugt wird und auf die Lichtempfängerebene fokussiert wird
12. Ein Positionsdetektionsverfahren nach Anspruch 11, wobei im genannten Schritt zur Detektion der rela­ tiven Position das von der Ausrichtungsmarke ge­ streute Licht über einen ersten optischen Filter fokus­ siert wird, und das von der Maskenmarke gestreute Licht über einen zweiten optischen Filter fokussiert wird, das einen Transmissionsfaktor besitzt, der vom Transmissionsfaktor des ersten optischen Filters ver­ schieden ist.
13. Ein Positionsdetektionsverfahren nach Anspruch 12, wobei der erste und zweite optische Filter in ver­ schiedenen Gebieten eines optischen Filterbauteils de­ finiert sind.
14. Ein Positionsdetektionsverfahren nach Anspruch 13, wobei das optische Filterbauteil unmittelbar vor der Lichtempfängerebene angeordnet ist.
15. Ein Positionsdetektionsverfahren nach Anspruch 11, wobei im genannten Schritt zur Detektion der rela­ tiven Position gestreutes Licht auf die Lichtempfänger­ ebene fokussiert wird, indem ein optisches System benutzt wird, das dieselbe optische Achse wie eine opti­ sche Achse des Beleuchtungslichts besitzt.
16. Eine Positionsdetektionsvorrichtung bestehend aus:
ein optisches Beleuchtungssystem für die Beleuchtung eines Bauteils mit einer zu belichtenden Belichtungs­ oberfläche und einer Maske, die parallel zur Belich­ tungsoberfläche des Bauteils und durch eine Lücke von der Belichtungsoberfläche entfernt angeordnet ist; und
ein optisches Beobachtungssystem mit einer zur Be­ lichtungsoberfläche des Bauteils geneigten optischen Achse, zur Fokussierung des vom Bauteil und der Maske gestreuten Lichtes auf die Lichtempfänger­ ebene, genanntes optisches Beobachtungssystem ein­ schließlich eines unmittelbar vor der Lichtempfänger­ ebene angeordneten optischen Filters, und ein Trans­ missionsfaktor des optischen Filters, der verschieden ist in einem Gebiet, das zu einem Gebiet gehört, wo das vom Bauteil gestreute Licht fokussiert wird, und in ei­ nem Gebiet, daß zu einem Gebiet gehört, wo das von der Maske gestreute Licht fokussiert wird.
17. Eine Positionsdetektionsvorrichtung nach An­ spruch 16, wobei das optische Filter ein neutrales Dich­ tefilter ist, das zwei Gebiete mit unterschiedlichen Transmissionsfaktoren definiert.
18. Eine Positionsdetektionsvorrichtung, bestehend aus:
ein optisches Beleuchtungssystem zur Beleuchtung ei­ nes Wafers und einer Maske, die an den Wafer angrenzt und durch eine Lücke von ihm entfernt ist:
ein erstes optisches Beobachtungssystem mit einer zur Belichtungsoberfläche des Wafers geneigten optischen Beobachtungsachse, für die Fokussierung des vom Wa­ fer und der Maske reflektierten und gestreuten Lichtes auf eine erste Lichtempfängerebene; und
ein zweites optisches Beobachtungssystem zur Fokus­ sierung des von einem Teilreflexionsspiegels reflektier­ ten Lichtes, der entlang der optischen Achse des ge­ nannten ersten optischen Beobachtungssystems ange­ ordnet ist, auf eine zweite Lichtempfängerebene, das genannte zweite optische Beobachtungssystem mit ei­ nem Vergrößerungsfaktor verschieden vom Vergröße­ rungsfaktor des genannten ersten optischen Beobach­ tungssystems.
19. Eine Positionsdetektionsvorrichtung nach An­ spruch 18, weiter bestehend aus:
ein Waferhalter für das Halten der Wafer;
ein Maskenhalter zum Halten der Maske, so daß die Maske an die Belichtungsoberfläche des Wafers an­ grenzt und von der Belichtungsoberfläche des Wafers, der durch genannten Waferhalter gehalten wird, durch eine Lücke entfernt ist; und
ein Bewegungsmechanismus zur Veränderung der rela­ tiven Position des Wafers und der Maske durch das Be­ wegen des genannten Waferhalters und/oder des ge­ nannten Maskenhalters.
20. Eine Positionsdetektionsvorrichtung nach An­ spruch 19, weiter bestehend aus: Steuerbaugruppe zur Veränderung der relativen Position des Wafers und der Maske durch Antreiben des genannten Bewegungsme­ chanismus entsprechend der Bildinformationen von Bildern auf der ersten und zweiten Lichtempfänger­ ebene, wobei die Bildinformationen vom genannten er­ sten und zweiten optischen Beobachtungssystem stam­ men.
21. Eine Positionsdetektionsvorrichtung nach An­ spruch 20, wobei die genannte Steuerbaugruppen die relative Position des Wafers und der Maske entlang ei­ ner Richtung einer Schnittlinie zwischen einer senk­ recht zur optischen Beobachtungsachse stehenden vir­ tuellen Ebene und der Belichtungsoberfläche entspre­ chende Bildinformationen eines Bildes detektiert, das vom genannten ersten und zweiten optischen Beobach­ tungssystem mit einem höheren Vergrößerungsfaktor gewonnen wird, und die die Lücke zwischen der Be­ lichtungsoberfläche und der Maske entsprechend den Bildinformationen eines Bildes detektiert, das vom ge­ nannten ersten oder zweiten optischen Beobachtungs­ system mit einem niedrigeren Vergrößerungsfaktor ge­ wonnen wird.
22. Eine Positionsdetektionsvorrichtung entsprechend Anspruch 20, wobei die genannte Steuerbaugruppe die relative Position des Wafers und der Maske entlang ei­ ner Richtung einer Schnittlinie zwischen einer senk­ recht zur optischen Beobachtungsachse stehenden vir­ tuellen Ebene und der Belichtungsoberfläche entspre­ chend der Bildinformationen eines Bildes grob detek­ tiert, das vom genannten ersten oder zweiten optischen Beobachtungssystem mit einem geringeren Vergröße­ rungsfaktor gewonnen wird, und daß den genannten Bewegungsmechanismus entsprechend der Detekti­ onsergebnisse zu Ausrichtung der Wafers und der Maske entlang der betrachteten Richtung antreibt, und danach die relative Position des Wafers und der Maske entlang der Richtung der Schnittlinie zwischen der senkrecht zur optischen Beobachtungsachse stehenden virtuellen Ebene und der Belichtungsoberfläche ent­ sprechend der Bildinformationen eines Bildes fein de­ tektiert, das vom genannten ersten und zweiten opti­ schen Beobachtungssystem mit einem höheren Vergrö­ ßerungsfaktor gewonnen wird, und den genannten Be­ wegungsmechanismus entsprechend der Detektionser­ gebnisse zur Ausrichtung des Wafers und der Maske entlang der betrachteten Richtung antreibt.
23. Ein Positionsdetektionsverfahren, bestehend aus den Schritten:
Anordnen eines Wafers mit einer Belichtungsoberflä­ che und einer Maske, mit einer zwischen der Belich­ tungsoberfläche und der Belichtungsmaske befindli­ chen Lücke, der Wafer mit einer auf der Belichtungs­ oberfläche gebildeten Wafermarke, die Wafermarke mit Kanten oder Scheiteln zur Streuung einfallenden Lichtes, die Maske mit einer Maskenmarke mit Kanten oder Scheiteln zur Streuung einfallendes Lichtes;
grobes Detektieren einer relativen Position des Wafers und der Maske durch Beleuchtung der Kanten oder Scheiteln der Wafer- und Maskenmarken und durch Beobachten des von den Wafer- und Maskenmarken gestreuten Lichtes mit einem ersten optischen Beob­ achtungssystem, das eine zur Belichtungsoberfläche geneigte optische Beobachtungsachse besitzt;
Bewegen des Wafers und/oder der Maske entsprechend der Detektionsergebnisse, die im genannten Schritt zur groben Detektion der relativen Position gewonnen wurden, um den Wafer und die Maske grob auszurich­ ten;
feines Detektieren der relativen Position des Wafers und der Maske durch Beobachten des von den Wafer- und Maskenmarken gestreuten Lichtes mit einem zwei­ ten optischen Beobachtungssystem, das dieselbe opti­ sche Beobachtungsachse wie das erste optische Beob­ achtungssystem besitzt und einen höheren Vergröße­ rungsfaktor als das erste optische Beobachtungssystem hat; und
Bewegen des Wafers und/oder der Maske zur Feinaus­ richtung des Wafers und der Maske entsprechend der Detektionsergebnisse, die im genannten Schritt zur Feindetektion der relativen Position gewonnen wurde.
24. Ein Positionsdetektionsverfahren, bestehend aus den Schritten:
Anordnen eines ersten Bauteiles mit einer Hauptober­ fläche und eines zweiten an die Hauptoberfläche an­ grenzenden und von ihr um eine Lücke entfernten Bau­ teils, das erste Bauteil mit einer auf der Hauptoberflä­ che gebildeten ersten Ausrichtungsmarke zur Streuung einfallenden Lichtes, und das zweite Bauteil mit einer zweiten Ausrichtungsmarke zur Streuung einfallenden Lichtes;
Fokussieren des Lichtes zur Beleuchtung der ersten und zweiten Marken und des von dort gestreuten Lich­ tes auf eine Lichtempfängerebene über ein bündelndes optisches System mit einer zur Hauptoberfläche ge­ neigten optischen Achse, wobei lichtempfangende Ele­ mentes auf der Lichtempfängerebene in Matrixform angeordnet sind, und die Reihenrichtung der Lichtemp­ fängerebene einer Richtung einer Schnittlinie zwischen der Hauptoberfläche und einer senkrecht zur optischen Achse des bündelnden optischen Systems stehenden virtuellen Ebene entspricht;
Ableiten eines zu einem Referenzmuster ähnlichen er­ sten zwei-dimensionalen Teilbildes und ähnlichen zweiten zwei-dimensionalen Teilbildes von einem Bild, das durch von der ersten Marke gestreutes Licht erzeugt und auf die Lichtempfängerebene fokussiert wird, und von einem Bild, das durch von der zweiten Marke gestreutes Licht erzeugt und auf die Lichtemp­ fängerebene fokussiert wird;
Erzeugen eines synthetisierten ein-dimensionalen Bild­ signales durch Akkumulation in Spaltenrichtung von Bildsignalen von Pixeln in einem ersten Gebiet, das das erste zwei-dimensionale Teilbild einschließt, und in ei­ nem zweiten Gebiet, das das zweite zwei-dimensionale Teilgebiet einschließt; und Gewinnen einer relativen Position der ersten und zweiten Marken entsprechend des synthetisierten eindimensionalen Bildsignals.
25. Ein Positionsdetektionsverfahren nach Anspruch 24, wobei das Referenzmuster entsprechend Bildern erzeugt wird, die durch an Streuquellen der ersten oder zweiten Marke gestreutes Licht im Tiefenschärfenbe­ reich des bündelnden optischen Systems entstehen.
26. Ein Positionsdetektionsverfahren nach Anspruch 24, wobei:
jede der ersten und zweiten Marken eine Vielzahl von Streuquellen besitzt, die entlang einer zur Einfalls­ ebene des Beleuchtungslichtes parallelen geraden Li­ nie angeordnet sind; und
im genannten Fokussierungsschritt, das von minde­ stens einer der Streuquellen gestreutes Licht von jeder der ersten und zweiten Marken auf die Lichtempfän­ gerebene fokussiert wird.
27. Ein Positionsdetektionsverfahren nach Anspruch 24, wobei:
mindestens eine der ersten und zweiten Marken aus zwei Marken bestehen, die räumlich entlang einer Richtung angeordnet sind, die der Reihenrichtung der Lichtempfängerebene entspricht;
im genannten Schritt zur Ableitung des zweidimensio­ nalen Teilbildes zwei zwei-dimensionale Teilbilder der ersten oder zweiten Marken abgeleitest werden; und
im genannten Schritt zum Gewinnen des synthetisier­ ten ein-dimensionalen Bildsignales die Bildsignale der Pixel zwischen den beiden zwei-dimensionalen Teilbil­ dern der ersten oder zweiten Marken nicht akkumuliert werden.
28. Eine Positionsdetektionsvorrichtung, bestehend aus: Beleuchtungsbaugruppe zur Beleuchtung eines er­ sten Bauteiles mit einer Hauptoberfläche, die mit einer ersten Ausrichtungsmarke zur Streuung einfallendes Lichtes gebildet ist und zur Beleuchtung eines zweiten Bauteiles mit einer zweiten Ausrichtungsmarke zur Streuung einfallenden Lichtes, wobei das zweite Bau­ teil so gehalten wird, daß die mit der zweiten Marke ge­ bildete Oberfläche zur Hauptoberfläche zeigt;
Bilddetektionsbaugruppe mit einer Lichtempfänger­ ebene, auf der Pixel in einer Matrixform angeordnet sind, genannte Bilddetektionsbaugruppe zur Erzeu­ gung von zu Pixeln gehörenden Bildsignalen entspre­ chend der Lichtintensität, die die Pixel empfangen;
bündelndes optisches System mit einer zur Hauptober­ fläche geneigten optischen Achse zur Fokussierung des von den ersten und zweiten Marken gestreuten Lichtes auf die Lichtempfängerebene;
Referenzmusterspeicherbaugruppe für die Speicherung eines Referenzmusters; und
Steuerbaugruppe zur Ableitung eines ersten zweidi­ mensionalen Teilbildes und eines zweiten zweidimen­ sionalen Teilbildes, die jeweils ähnlich zu einem in der genannten Referenzmusterspeicherbaugruppe gespei­ cherten Referenzmusters sind, von einem Bild, das durch an der ersten Marke gestreutes Licht erzeugt und auf die Lichtempfängerebene fokussiert wird, und von einem Bild, das durch an der zweiten Marke gestreutes Licht erzeugt und auf die Lichtempfängerebene fokus­ siert wird, zur Bildung eines synthetisierten eindimen­ sionalen Bildsignales durch Akkumulieren in der Spal­ tenrichtung der Bildsignale der Pixel in einem ersten Teilgebiet, das das erste zwei-dimensionale Teilbild einschließt, und in einem zweiten Teilgebiet, das das zweite zwei-dimensionale Teilgebiet einschließt, und Gewinnen einer relativen Position der ersten und zwei­ ten Marken entsprechend dem synthetisierten eindi­ mensionalen Bildsignal.
29. Eine Positionsdetektionsvorrichtung nach An­ spruch 28, wobei, falls zwei Marken der ersten und/ oder zweiten Marken räumlich entlang einer Richtung angeordnet sind, die einer Reihenrichtung der Licht­ empfängerebene entspricht, genannte Steuerbaugruppe zwei zwei-dimensionale Teilbilder der ersten oder zweiten Marken ableitet und die Akkumulation durch Ausschließen der Pixel zwischen den beiden zweidi­ mensionalen Teilbildern der ersten oder zweiten Mar­ ken vornimmt.
30. Ein Positionsdetektionsverfahren, bestehend aus den Schritten:
Fokussieren zweier Bilder auf eine Lichtempfänger­ ebene mit in Matrixform angeordneten lichtempfan­ genden Elementen zur Erzeugung eines Bildsignals entsprechend dem einfallenden Licht, wobei die beiden Bilder an verschiedenen Positionen in der Spaltenrich­ tung der Lichtempfängerebene abgebildet sind;
Akkumulieren in der Spaltenrichtung von Bildsignalen von Pixeln in zwei Gebieten, von denen jedes minde­ stens einen Teil jedes der beiden Bilder teilweise über­ lappt; und
Gewinnen einer relativen Position der beiden Bilder entsprechend einem Bildsignal, das im genannten Ak­ kumulierungsschritt akkumuliert wird.
31. Eine Positionsdetektionsvorrichtung, bestehend aus:
einer Lichtempfängerebene mit in Matrixform ange­ ordneten Lichtempfängerelementen zur Erzeugung ei­ nes Bildsignales entsprechend dem einfallenden Licht; und
Steuerbaugruppe zur Bestimmung von zwei Gebieten, von denen jedes mindestens einen Teil jedes der auf der genannten Lichtempfängerebene befindlichen Bilder teilweise überlappt, wobei die Bildsignale der Pixel in den beiden Gebieten in Spaltenrichtung akkumuliert werden, und für das Gewinnen einer relativen Position der beiden Bilder entsprechend eines durch die Akku­ mulation gewonnenen Bildsignales.
DE19808707A 1997-02-28 1998-03-02 Auf nahe Belichtung angewendetes Positionsdetektionsverfahren Expired - Fee Related DE19808707C2 (de)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP09046527A JP3101582B2 (ja) 1997-02-28 1997-02-28 斜光軸光学系を用いた位置検出装置及び方法
JP9046526A JPH10242036A (ja) 1997-02-28 1997-02-28 エッジ散乱光を用いた位置検出方法及び装置
JP04652597A JP3235782B2 (ja) 1997-02-28 1997-02-28 位置検出方法及び半導体基板と露光マスク
JP25378697A JP3265546B2 (ja) 1997-09-18 1997-09-18 近接露光に適用される位置検出方法及び装置

Publications (2)

Publication Number Publication Date
DE19808707A1 DE19808707A1 (de) 1998-09-03
DE19808707C2 true DE19808707C2 (de) 2002-08-01

Family

ID=27461891

Family Applications (1)

Application Number Title Priority Date Filing Date
DE19808707A Expired - Fee Related DE19808707C2 (de) 1997-02-28 1998-03-02 Auf nahe Belichtung angewendetes Positionsdetektionsverfahren

Country Status (3)

Country Link
US (4) US6049373A (de)
DE (1) DE19808707C2 (de)
TW (1) TW434716B (de)

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6696220B2 (en) 2000-10-12 2004-02-24 Board Of Regents, The University Of Texas System Template for room temperature, low pressure micro-and nano-imprint lithography
EP2264522A3 (de) * 2000-07-16 2011-12-14 The Board of Regents of The University of Texas System Verfahren zur Bildung einer Struktur auf einem Substrat
EP2270592B1 (de) 2000-07-17 2015-09-02 Board of Regents, The University of Texas System Verfahren zur Bildung einer Struktur auf einem Substrat
JP2004505273A (ja) * 2000-08-01 2004-02-19 ボード・オブ・リージエンツ,ザ・ユニバーシテイ・オブ・テキサス・システム 転写リソグラフィのための透明テンプレートと基板の間のギャップおよび配向を高精度でセンシングするための方法
US20050274219A1 (en) * 2004-06-01 2005-12-15 Molecular Imprints, Inc. Method and system to control movement of a body for nano-scale manufacturing
US20050064344A1 (en) * 2003-09-18 2005-03-24 University Of Texas System Board Of Regents Imprint lithography templates having alignment marks
JP4366031B2 (ja) * 2001-09-17 2009-11-18 キヤノン株式会社 位置検出装置及び方法並びに露光装置、デバイスの製造方法
US7019819B2 (en) * 2002-11-13 2006-03-28 Molecular Imprints, Inc. Chucking system for modulating shapes of substrates
US7027156B2 (en) * 2002-08-01 2006-04-11 Molecular Imprints, Inc. Scatterometry alignment for imprint lithography
US7070405B2 (en) * 2002-08-01 2006-07-04 Molecular Imprints, Inc. Alignment systems for imprint lithography
KR100479305B1 (ko) * 2002-08-20 2005-03-25 삼성전자주식회사 얼라인 마크 패턴인식방법
TW200500811A (en) * 2002-12-13 2005-01-01 Molecular Imprints Inc Magnification correction employing out-of-plane distortion of a substrate
US7150622B2 (en) * 2003-07-09 2006-12-19 Molecular Imprints, Inc. Systems for magnification and distortion correction for imprint lithography processes
US7136150B2 (en) * 2003-09-25 2006-11-14 Molecular Imprints, Inc. Imprint lithography template having opaque alignment marks
US20050275311A1 (en) * 2004-06-01 2005-12-15 Molecular Imprints, Inc. Compliant device for nano-scale manufacturing
US20050270516A1 (en) * 2004-06-03 2005-12-08 Molecular Imprints, Inc. System for magnification and distortion correction during nano-scale manufacturing
JP4573873B2 (ja) * 2004-06-03 2010-11-04 ボード・オブ・リージエンツ,ザ・ユニバーシテイ・オブ・テキサス・システム マイクロリソグラフィにおけるアラインメントとオーバーレイを改善するシステムおよび方法
US7768624B2 (en) * 2004-06-03 2010-08-03 Board Of Regents, The University Of Texas System Method for obtaining force combinations for template deformation using nullspace and methods optimization techniques
US7785526B2 (en) 2004-07-20 2010-08-31 Molecular Imprints, Inc. Imprint alignment method, system, and template
US7292326B2 (en) * 2004-11-30 2007-11-06 Molecular Imprints, Inc. Interferometric analysis for the manufacture of nano-scale devices
US7630067B2 (en) 2004-11-30 2009-12-08 Molecular Imprints, Inc. Interferometric analysis method for the manufacture of nano-scale devices
US20070231421A1 (en) * 2006-04-03 2007-10-04 Molecular Imprints, Inc. Enhanced Multi Channel Alignment
WO2006060758A2 (en) * 2004-12-01 2006-06-08 Molecular Imprints, Inc. Methods of exposure for the purpose of thermal management for imprint lithography processes
US20070228608A1 (en) * 2006-04-03 2007-10-04 Molecular Imprints, Inc. Preserving Filled Features when Vacuum Wiping
WO2007117524A2 (en) 2006-04-03 2007-10-18 Molecular Imprints, Inc. Method of concurrently patterning a substrate having a plurality of fields and alignment marks
JP5027468B2 (ja) * 2006-09-15 2012-09-19 日本ミクロコーティング株式会社 プローブクリーニング用又はプローブ加工用シート、及びプローブ加工方法
US8692393B2 (en) * 2012-06-12 2014-04-08 Macronix International Co., Ltd. Alignment mark design for semiconductor device
CN108941942B (zh) * 2018-09-06 2023-09-22 广西中科蓝谷半导体科技有限公司 一种光刻机小工件卡具的使用方法
CN113804122B (zh) * 2021-09-06 2023-05-26 中国科学院光电技术研究所 利用平移旋转绝对检测法测包含离焦像差的平面镜面型的方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19619280A1 (de) * 1995-05-11 1996-11-14 Sumitomo Heavy Industries Positionsdetektierverfahren mit der Beobachtung oder Überwachung von Positionsdetektiermarkierungen

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4390279A (en) * 1979-07-12 1983-06-28 Nippon Kogaku K. K. Alignment device in an IC projection exposure apparatus
US5365342A (en) 1984-10-18 1994-11-15 Canon Kabushiki Kaisha Alignment and exposure apparatus and method for manufacture of integrated circuits
JPS6262519A (ja) 1985-09-13 1987-03-19 Canon Inc 位置検出装置
US5734478A (en) * 1988-10-12 1998-03-31 Nikon Corporation Projection exposure apparatus
US5151750A (en) * 1989-04-14 1992-09-29 Nikon Corporation Alignment apparatus
JP2598702B2 (ja) 1989-07-04 1997-04-09 日立電子エンジニアリング株式会社 基板露光装置の位置合わせ方式
JPH03111706A (ja) 1989-09-27 1991-05-13 Canon Inc 光量調整装置
JPH03225815A (ja) 1990-01-31 1991-10-04 Canon Inc 露光装置
GB2257280A (en) 1991-06-26 1993-01-06 Asahi Optical Co Ltd Non-scanning bar code reading apparatus
US5689339A (en) * 1991-10-23 1997-11-18 Nikon Corporation Alignment apparatus
JP3111706B2 (ja) 1992-02-18 2000-11-27 株式会社日立製作所 粒子分析装置及び粒子分析方法
EP0651352A1 (de) * 1993-10-27 1995-05-03 Toshiba Engineering Corporation Verfahren und Gerät zur Inspektion der Oberflächenunregelmässigkeit von Gegenständer
JPH07261920A (ja) 1994-03-17 1995-10-13 Wacom Co Ltd 光学式位置検出装置および光学式座標入力装置
JP3048895B2 (ja) 1995-05-11 2000-06-05 住友重機械工業株式会社 近接露光に適用される位置検出方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19619280A1 (de) * 1995-05-11 1996-11-14 Sumitomo Heavy Industries Positionsdetektierverfahren mit der Beobachtung oder Überwachung von Positionsdetektiermarkierungen

Also Published As

Publication number Publication date
TW434716B (en) 2001-05-16
US6295120B1 (en) 2001-09-25
DE19808707A1 (de) 1998-09-03
US6285439B1 (en) 2001-09-04
US6233043B1 (en) 2001-05-15
US6049373A (en) 2000-04-11

Similar Documents

Publication Publication Date Title
DE19808707C2 (de) Auf nahe Belichtung angewendetes Positionsdetektionsverfahren
EP1393116B1 (de) Autofokussiereinrichtung für ein optisches gerät
EP1618426B1 (de) Verfahren und anordnung zur bestimmung der fokusposition bei der abbildung einer probe
EP0871052B1 (de) Konfokales Mikroskop mit einem motorischen Scanningtisch
EP0168643B1 (de) Gerät zur Wafer-Inspektion
DE19619280C2 (de) Positionsdetektierverfahren mit der Beobachtung oder Überwachung von Positionsdetektiermarkierungen
EP2326915B1 (de) Verfahren und anordnung zur erfassung von konturdaten und/oder optischen eigenschaften eines dreidimensionalen semitransparenten objekts
DE1919991A1 (de) Venfahren zur automatischen Ausrichtung von zwei aufeinander einzujustierenden Objekten
WO1997002466A1 (de) Optischer abstandssensor
DE4131737A1 (de) Autofokus-anordnung fuer ein stereomikroskop
DE3817337A1 (de) System zur messung von oberflaechenprofilen
WO2014053573A1 (de) Verfahren und vorrichtung zur beleuchtung und messung eines objektes
DE3337251A1 (de) Optisches abtastverfahren zur dreidimensionalen vermessung von objekten
WO1996023240A1 (de) Verfahren und vorrichtung zum aufnehmen eines objektes
DE102017107343A1 (de) Verfahren und Vorrichtung zum Betreiben eines optischen Abstandssensors
EP0135673B1 (de) Verfahren und Vorrichtung zur Festlegung einer Koordinate auf einer Oberfläche eines Festkörpers
DE3343181C2 (de)
DE10056329B4 (de) Optisches Abstandsmeßverfahren und Abstandssensor
DE10234756B3 (de) Autofokusmodul für mikroskopbasierte Systeme
DE19754867B4 (de) Spaltabtast-Projektionsbelichtungsgerät und Halbleitereinrichtung
DE19921374C2 (de) Vorrichtung zur dreidimensionalen optischen Untersuchung eines Objektes mit Beleuchtung durch eine Lochplatte
DE102020202022A1 (de) Verfahren zur Erfassung einer relativen Ausrichtung einer Oberfläche
DE102022108474B4 (de) Verfahren und Messkamera zur Messung eines Oberflächenprofils eines Objekts
KR100463095B1 (ko) 에지산란광을이용한위치검출방법및장치
DE10362244B4 (de) Verfahren zur Bestimmung der Fokusposition und der Verkippung der Fokusebene bei der Abbildung einer Probe

Legal Events

Date Code Title Description
8110 Request for examination paragraph 44
D2 Grant after examination
8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee