JP2014507781A - Apparatus and method for real-time three-dimensional SEM imaging and viewing of semiconductor wafers - Google Patents

Apparatus and method for real-time three-dimensional SEM imaging and viewing of semiconductor wafers Download PDF

Info

Publication number
JP2014507781A
JP2014507781A JP2013557725A JP2013557725A JP2014507781A JP 2014507781 A JP2014507781 A JP 2014507781A JP 2013557725 A JP2013557725 A JP 2013557725A JP 2013557725 A JP2013557725 A JP 2013557725A JP 2014507781 A JP2014507781 A JP 2014507781A
Authority
JP
Japan
Prior art keywords
view
substrate surface
image data
axis
electron beam
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013557725A
Other languages
Japanese (ja)
Other versions
JP6013380B2 (en
Inventor
チエン−ヒューイ チェン
ポール ディー マクドナルド
ラジャスカー クッパ
拓二 多田
ゴードン アボット
チョー テー
ヘドン ヤン
ステファン ラン
マーク ネイル
ザイン サイディン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KLA Corp
Original Assignee
KLA Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KLA Corp filed Critical KLA Corp
Publication of JP2014507781A publication Critical patent/JP2014507781A/en
Application granted granted Critical
Publication of JP6013380B2 publication Critical patent/JP6013380B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B21/00Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant
    • G01B21/20Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant for measuring contours or curvatures, e.g. determining profile
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N23/00Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00
    • G01N23/22Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by measuring secondary emission from the material
    • G01N23/225Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by measuring secondary emission from the material using electron or ion
    • G01N23/2251Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by measuring secondary emission from the material using electron or ion using incident electron beams, e.g. scanning electron microscopy [SEM]
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N23/00Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00
    • G01N23/22Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by measuring secondary emission from the material
    • G01N23/225Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by measuring secondary emission from the material using electron or ion

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • General Health & Medical Sciences (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Analysing Materials By The Use Of Radiation (AREA)

Abstract

一実施形態は、基板表面のリアルタイム三次元電子ビーム画像化の方法に関連する。一次電子ビームを基板表面上に走査することで、基板表面から電子を出射させる。これらの出射電子を複数の少なくとも2つの軸外センサーを用いて同時検出して、複数の画像データフレームを生成する。各画像データフレームは、基板表面から異なるビュー角度で出射された電子に起因する。複数の画像データフレームを自動処理することで、基板表面の三次元表現を生成する。その後、三次元表現の複数のビューを表示する。他の実施形態、局面および特徴も開示される。
【選択図】図1
One embodiment relates to a method for real-time three-dimensional electron beam imaging of a substrate surface. Electrons are emitted from the substrate surface by scanning the substrate surface with the primary electron beam. These emitted electrons are simultaneously detected using a plurality of at least two off-axis sensors to generate a plurality of image data frames. Each image data frame is attributed to electrons emitted at different view angles from the substrate surface. A three-dimensional representation of the substrate surface is generated by automatically processing a plurality of image data frames. Thereafter, a plurality of views of the three-dimensional representation are displayed. Other embodiments, aspects and features are also disclosed.
[Selection] Figure 1

Description

本発明は、電子ビームの画像化および電子ビーム画像データの処理のための方法および装置に関する。   The present invention relates to a method and apparatus for electron beam imaging and processing of electron beam image data.

走査型電子顕微鏡(SEM)は、一種の電子顕微鏡である。SEMにおいて、試料が集束電子ビームによって走査されると、ビームが試料に衝突するのと共に、二次電子および/または後方散乱電子(SEおよび/またはBSE)が発生する。これらは、検出された後、典型的には試料表面の画像に変換される。この画像は典型的には、「垂直」ビュー(すなわち、半導体表面に対して垂直なビュー)として視認される。   A scanning electron microscope (SEM) is a kind of electron microscope. In a SEM, when a sample is scanned by a focused electron beam, secondary and / or backscattered electrons (SE and / or BSE) are generated as the beam strikes the sample. After they are detected, they are typically converted into an image of the sample surface. This image is typically viewed as a “vertical” view (ie, a view perpendicular to the semiconductor surface).

特開2008−282761号公報JP 2008-282761 A

しかし、近年、集積回路中の重要構造および欠陥の構造および形態はますます重要になっている。半導体表面の上方において垂直方向に構築されたデバイス構造の登場により、プロセスの実行様態を理解するためにこのような構造を視認する必要が発生し得る。半導体デバイス内の重要欠陥は、絶対的観点からますます微細化しており、根本的原因の分析において、さらなるコンテキスト的情報が必要となっている。   However, in recent years, the structure and form of critical structures and defects in integrated circuits have become increasingly important. With the advent of device structures built vertically above the semiconductor surface, it may be necessary to view such structures to understand how the process is performed. Critical defects in semiconductor devices are increasingly miniaturized from an absolute point of view, and more contextual information is needed in the analysis of the root cause.

一実施形態は、基板表面のリアルタイム三次元電子ビーム画像化の方法に関する。一次電子ビームを基板表面上に走査することにより、基板表面から電子を出射させる。出射電子は、複数の少なくとも2つの軸外センサーを用いて同時検出されて複数の画像データフレームが生成され、各画像データフレームは、異なるビュー角度において基板表面から出射された電子に起因する。これら複数の画像データフレームを自動処理することで、基板表面の三次元表現を生成する。その後、三次元表現の複数のビューが表示される。   One embodiment relates to a method for real-time three-dimensional electron beam imaging of a substrate surface. By scanning the surface of the substrate with the primary electron beam, electrons are emitted from the surface of the substrate. The emitted electrons are simultaneously detected using a plurality of at least two off-axis sensors to generate a plurality of image data frames, each image data frame resulting from electrons emitted from the substrate surface at different view angles. These multiple image data frames are automatically processed to generate a three-dimensional representation of the substrate surface. Thereafter, multiple views of the three-dimensional representation are displayed.

別の実施形態は、基板表面のリアルタイム三次元電子ビーム画像化のために構成された装置に関する。この装置は、一次電子ビームの生成源、走査偏向器と、検出システムと、画像データ処理システムとを少なくとも含む。走査検出器は、一次電子ビームを偏向させることにより、基板表面上に一次電子ビームを走査させて、基板表面から電子を出射させるように構成される。検出システムは、複数の少なくとも2つの軸外センサーを用いて出射電子を同時検出して、複数の画像データフレームを生成するように構成される。各画像データフレームは、基板表面から異なるビュー角度で出射された電子に起因する。画像データ処理システムは、複数の画像データフレームを自動処理して、基板表面の三次元表現の複数のビューを生成するように構成される。   Another embodiment relates to an apparatus configured for real-time three-dimensional electron beam imaging of a substrate surface. The apparatus includes at least a primary electron beam source, a scanning deflector, a detection system, and an image data processing system. The scanning detector is configured to emit electrons from the substrate surface by deflecting the primary electron beam to scan the surface of the substrate with the primary electron beam. The detection system is configured to simultaneously detect emitted electrons using a plurality of at least two off-axis sensors to generate a plurality of image data frames. Each image data frame is attributed to electrons emitted at different view angles from the substrate surface. The image data processing system is configured to automatically process a plurality of image data frames to generate a plurality of views of a three-dimensional representation of the substrate surface.

他の実施形態、局面および特徴も開示される。   Other embodiments, aspects and features are also disclosed.

本発明の実施形態による半導体ウェーハのリアルタイム三次元SEM画像化およびビューイングの方法のフローチャートである。3 is a flowchart of a method for real-time three-dimensional SEM imaging and viewing of a semiconductor wafer according to an embodiment of the present invention. 画像データを3つ以上のビュー角度から同時収集するように構成された電子ビーム装置の第1の実施形態の模式図である。1 is a schematic diagram of a first embodiment of an electron beam apparatus configured to simultaneously collect image data from three or more view angles. FIG. 本発明の実施形態による検出器のセグメント化の模式図である。FIG. 6 is a schematic diagram of detector segmentation according to an embodiment of the present invention. 画像データを3つ以上のビュー角度から同時収集するように構成された電子ビーム装置の第2の実施形態の模式図である。FIG. 6 is a schematic diagram of a second embodiment of an electron beam apparatus configured to simultaneously collect image data from three or more view angles. 画像データを3つ以上のビュー角度から同時収集するように構成された電子ビーム装置の第2の実施形態の模式図である。FIG. 6 is a schematic diagram of a second embodiment of an electron beam apparatus configured to simultaneously collect image data from three or more view angles. 画像データを3つ以上のビュー角度から同時収集するように構成された電子ビーム装置の第3の実施形態の模式図である。FIG. 6 is a schematic diagram of a third embodiment of an electron beam apparatus configured to simultaneously collect image data from three or more view angles. 画像データを3つ以上のビュー角度から同時収集するように構成された電子ビーム装置の第3の実施形態の模式図である。FIG. 6 is a schematic diagram of a third embodiment of an electron beam apparatus configured to simultaneously collect image data from three or more view angles. 対象領域の左眼および右眼立体ビューの一例を示す。An example of the left-eye and right-eye stereoscopic view of a target area is shown. 対象領域を示すビュー経路に沿って映像内ビューが移動する場合における、当該映像からの例示的キャプチャフレームを示す。FIG. 6 shows an exemplary capture frame from a video when the in-video view moves along a view path indicating the target area. FIG. 対象領域を示すビュー経路に沿って映像内ビューが移動する場合における、当該映像からの例示的キャプチャフレームを示す。FIG. 6 shows an exemplary capture frame from a video when the in-video view moves along a view path indicating the target area. FIG. 対象領域を示すビュー経路に沿って映像内ビューが移動する場合における、当該映像からの例示的キャプチャフレームを示す。FIG. 6 shows an exemplary capture frame from a video when the in-video view moves along a view path indicating the target area. FIG. 対象領域を示すビュー経路に沿って映像内ビューが移動する場合における、当該映像からの例示的キャプチャフレームを示す。FIG. 6 shows an exemplary capture frame from a video when the in-video view moves along a view path indicating the target area. FIG.

走査型電子顕微鏡(SEM)の画像化と、半導体ウェーハの重要位置の視認とは、一般的に「垂直」ビューから行われることが多い。しかし、このような垂直ビューからでは、サンプル表面の高精度トポロジー情報を把握することは困難である。   Scanning electron microscope (SEM) imaging and visual recognition of critical locations on a semiconductor wafer are often performed from a “vertical” view. However, it is difficult to grasp high-accuracy topology information on the sample surface from such a vertical view.

SEM画像を非垂直角度で得るための従来の技術の場合、SEMカラムまたはサンプルを手動チルトして、サンプル表面への入射ビーム角度を偏向することが必要であることが多い。別の従来の技術の場合、2つの異なる非垂直角度視点において2つの画像を順次得る必要がある。第2の画像を取得後、ユーザは、立体ビューイングデバイスを用いて、サンプル表面の三次元画像を把握することができる。   For conventional techniques for obtaining SEM images at non-vertical angles, it is often necessary to manually tilt the SEM column or sample to deflect the incident beam angle on the sample surface. In another prior art, it is necessary to obtain two images sequentially at two different non-vertical angle viewpoints. After acquiring the second image, the user can grasp a three-dimensional image of the sample surface using the stereoscopic viewing device.

しかし、これらの従来の技術の場合、(カラムまたはサンプルステージ)を機械的に移動させる必要があり、また、2つの画像を順次入手する必要もある。これらの要求に起因して、eビーム検査ツールのスループットに悪影響が出る。その上、画像取得時において用いられるチルト角度(単数または複数)に起因して、ビューイング角度が限定される。   However, in these conventional techniques, it is necessary to move the (column or sample stage) mechanically, and it is also necessary to obtain two images sequentially. Due to these requirements, the throughput of the e-beam inspection tool is adversely affected. In addition, the viewing angle is limited due to the tilt angle (s) used during image acquisition.

本明細書中に開示される装置および方法は、半導体製造プロセス時における重要構造および欠陥についてのリアルタイム三次元トポロジーおよびコンテキスト情報を提供する。その結果、単一パス視認が可能になり、また、高k誘電金属ゲートトランジスタおよび他の三次元構造中の欠陥の特徴着けをより完璧に行うことが可能になる。本明細書中に記載の技術を用いれば、半導体サンプルの多量の重要対象領域の三次元画像化を行うために必要な時間を1桁分節約することが可能になる。重要領域の高精度位置および画像化収集が可能になり、これにより、背景パターンおよび構成材料のコンテキストにおける対象構造のより深い理解が得られ、これにより絶対感度が向上する。   The apparatus and methods disclosed herein provide real-time three-dimensional topology and context information about critical structures and defects during the semiconductor manufacturing process. As a result, single pass viewing is possible and defects in high-k dielectric metal gate transistors and other three-dimensional structures can be more completely characterized. By using the technique described in the present specification, it is possible to save the time required for three-dimensional imaging of a large amount of important target region of a semiconductor sample by one digit. Allows high-precision location and imaging collection of critical areas, thereby providing a deeper understanding of the target structure in the context of background patterns and constituent materials, thereby improving absolute sensitivity.

図1は、本発明の実施形態による半導体ウェーハのリアルタイム三次元SEM画像化およびビューイングの方法100のフローチャートである。図示のように、方法100において、先ず標的基板を保持するステージを平行移動させて、標的基板上の対象領域をSEMカラムの入射ビーム下に配置する(102)。その後、対象領域を入射ビームによって走査している間、画像データを3つ以上のビュー角度から同時に収集する(104)。3つ以上のビュー角度から画像データを同時収集するように構成された装置の実施形態について、図2、図3、図4A、図4B、図5Aおよび図5Bに関連して以下に説明する。   FIG. 1 is a flowchart of a method 100 for real-time three-dimensional SEM imaging and viewing of a semiconductor wafer according to an embodiment of the present invention. As shown, in the method 100, the stage holding the target substrate is first translated to place the target region on the target substrate under the incident beam of the SEM column (102). Thereafter, while scanning the region of interest with the incident beam, image data is collected simultaneously from three or more view angles (104). Embodiments of an apparatus configured to simultaneously collect image data from more than two view angles are described below in connection with FIGS. 2, 3, 4A, 4B, 5A, and 5B.

図2および図3を参照して、これらの図は、3つ以上のビュー角度から画像データを同時収集するように構成された装置の第1の実施形態を示す。図2は、電子ビームカラムの断面図であり、図3は、カラムと共に用いられ得るセグメント化検出器の平面図である。   With reference to FIGS. 2 and 3, these figures illustrate a first embodiment of an apparatus configured to simultaneously collect image data from more than two view angles. FIG. 2 is a cross-sectional view of an electron beam column, and FIG. 3 is a plan view of a segmented detector that can be used with the column.

図2に示すように、源201から、電子の一次ビーム(すなわち、入射ビーム)202が生成される。一次ビーム202は、ウィーンフィルタ204を通過する。ウィーンフィルタ204は、相互に交差する電界および磁界を生成するように構成された光学素子である。走査偏向器206および集束電子レンズ207が利用される。走査偏向器206を用いて、ウェーハまたは他の基板サンプル210の表面上に電子ビームを走査させる。集束電子レンズ207を用いて、ウェーハまたは他の基板サンプル210の表面上のビームスポット内に一次ビーム202を集束させる。一実施形態によれば、集束レンズ207は、電界および/または磁界を生成することにより、動作し得る。   As shown in FIG. 2, a primary beam of electrons (ie, an incident beam) 202 is generated from a source 201. Primary beam 202 passes through Wien filter 204. The Wien filter 204 is an optical element configured to generate electric and magnetic fields that intersect each other. A scanning deflector 206 and a focusing electron lens 207 are used. A scanning deflector 206 is used to scan the surface of the wafer or other substrate sample 210 with an electron beam. A focusing electron lens 207 is used to focus the primary beam 202 into a beam spot on the surface of a wafer or other substrate sample 210. According to one embodiment, the focusing lens 207 may operate by generating an electric and / or magnetic field.

一次ビーム202の走査の結果、サンプル表面から電子が出射または放散される。これらの出射電子は、二次電子(SE)および/または後方散乱電子(BSE)を含み得る。その後、出射電子をウェーハまたは他のサンプル(ウェーハ/サンプル)210から抽出する。電磁場208を介して、最終(対物)レンズによる作用をこれらの出射電子に及ぼす。電磁場208は、一次ビーム光軸から比較的短距離の範囲内に出射電子を拘束し、これらの電子をカラム内に加速させる機能を果たす。このようにして、放散電子ビーム212が出射電子から形成される。ウィーンフィルタ204は、放散電子ビーム212を一次ビーム202の光軸から検出軸(装置の検出システムの光軸)へと偏向させる。その結果、放散電子ビーム212が一次ビーム202から分離される。   As a result of scanning the primary beam 202, electrons are emitted or dissipated from the sample surface. These outgoing electrons may include secondary electrons (SE) and / or backscattered electrons (BSE). Thereafter, the emitted electrons are extracted from the wafer or other sample (wafer / sample) 210. The action of the final (objective) lens is exerted on these emitted electrons via the electromagnetic field 208. The electromagnetic field 208 functions to constrain outgoing electrons within a relatively short distance from the primary beam optical axis and accelerate these electrons into the column. In this way, a dissipated electron beam 212 is formed from the emitted electrons. The Wien filter 204 deflects the dissipated electron beam 212 from the optical axis of the primary beam 202 to the detection axis (the optical axis of the device detection system). As a result, the dissipated electron beam 212 is separated from the primary beam 202.

本発明の一実施形態によれば、検出システムは、例えば、図3中にさらに詳細に図示されるセグメント化検出器300と、画像処理システム250とを含み得る。画像処理システム250は、プロセッサ252と、データ保存部(メモリを含む)254と、ユーザインターフェース256と、表示システム258とを含み得る。データ保存部254は、命令およびデータを保存するように構成され得、プロセッサ252は、命令実行およびデータ処理を行うように構成され得る。表示システム258は、基板表面のビューをユーザへ表示するように構成され得る。ユーザインターフェース256は、ユーザ入力(例えば、表示されているビュー角度の変更のためのユーザ入力)を受信するように構成され得る。   According to one embodiment of the present invention, the detection system may include, for example, a segmented detector 300 and an image processing system 250 illustrated in more detail in FIG. The image processing system 250 may include a processor 252, a data storage (including memory) 254, a user interface 256, and a display system 258. Data store 254 may be configured to store instructions and data, and processor 252 may be configured to perform instruction execution and data processing. Display system 258 may be configured to display a view of the substrate surface to the user. User interface 256 may be configured to receive user input (eg, user input for changing the viewing angle being displayed).

図3に示すように、セグメント化検出器300は、5個のセンサーまたは検出器セグメント302、304−1、304−2、304−3および304−4を含み得る。中央(軸上)セグメント302は、放散電子ビーム212の中心から画像データを検出するように構成され得る。中央セグメント302は、検出軸上に配置されている点において軸上にある。中央セグメント302からの画像データは、垂直ビュー(すなわち、ゼロ度の極角においてサンプル表面に対して垂直なビュー角度)からの画像データに対応し得る。4つの外側(軸外)セグメント(304−1、304−2、304−3および304−4)は、角度ビュー(すなわち、非ゼロ極角および異なる方位角度においてサンプル表面に対して非垂直であるビュー角度)からの画像データに対応し得る。換言すれば、4つの外側セグメント(304−1、304−2、304−3および304−4)はそれぞれ、異なる方位角度(例えば、およそ90度で間隔を空けられた方位角度)でありかつほぼ同じ極角で基板表面から出射された放散電子を検出する。外側セグメント(304−1、304−2、304−3および304−4)は、検出軸から外れている点において軸外である。別の実行様態において、異なるセグメント化を実行することができる。   As shown in FIG. 3, the segmented detector 300 may include five sensors or detector segments 302, 304-1, 304-2, 304-3, and 304-4. The central (on-axis) segment 302 can be configured to detect image data from the center of the dissipated electron beam 212. The central segment 302 is on axis in that it is located on the detection axis. Image data from the central segment 302 may correspond to image data from a vertical view (ie, a view angle perpendicular to the sample surface at a zero degree polar angle). The four outer (off-axis) segments (304-1, 304-2, 304-3 and 304-4) are non-perpendicular to the sample surface at an angular view (ie, non-zero polar angle and different azimuthal angles) Image data from the view angle). In other words, the four outer segments (304-1, 304-2, 304-3, and 304-4) are each at different azimuth angles (eg, azimuth angles spaced about 90 degrees apart) and approximately Dissipated electrons emitted from the substrate surface at the same polar angle are detected. The outer segments (304-1, 304-2, 304-3 and 304-4) are off-axis in that they are off the detection axis. In another implementation, different segmentations can be performed.

図4Aおよび図4Bを参照して、これらの図は、3つ以上のビュー角度から画像データを同時収集するように構成された第2の実施形態を示す。図4Aは、電子ビームカラム400の下部の断面図であり、図4Bは、カラムと共に用いることが可能なセグメント化検出器の平面図である。   Referring to FIGS. 4A and 4B, these figures illustrate a second embodiment configured to collect image data from more than two view angles simultaneously. FIG. 4A is a cross-sectional view of the bottom of the electron beam column 400, and FIG. 4B is a plan view of a segmented detector that can be used with the column.

図4Aに示すように、対物レンズ402は、標的基板404の表面上に入射eビーム401を集束させるように、構成される。入射eビーム401は、電子銃によって生成され得、図2に示すeビームカラムに関連して上述した様態と同様の様態で偏向器によって走査され得る。本実施形態において、複数の検出器セグメント(または複数の別個の検出器)は、レンズ下構成において構成される。   As shown in FIG. 4A, the objective lens 402 is configured to focus the incident e-beam 401 on the surface of the target substrate 404. Incident e-beam 401 may be generated by an electron gun and scanned by a deflector in a manner similar to that described above in connection with the e-beam column shown in FIG. In this embodiment, the multiple detector segments (or multiple separate detectors) are configured in a sub-lens configuration.

このレンズ下構成400において、軸外または「側部」センサーまたは検出器セグメント(408−1、408−2、408−3および408−4)は、電子ビームカラムの下部(標的基板の近隣)において、対物レンズ402の下側に配置される。特定の条件下において、より大きな極角(好適には45度以上)において垂直面に対して出射される電子(すなわち、表面により近い軌跡で出射される電子)は、選択的にレンズ下検出器に到達する。これらの検出器は、分離してもよいし、あるいは、共に接続してセグメント化検出器を形成してもよい。これらの電子は典型的には表面トポロジーに対する感度がより高いことが多いため、このような検出器によって形成される画像は、一次ビーム光軸およびサンプル/ウェーハ面に対する検出器の位置決めによって規定された方位図を備えた表面のトポグラフィーを示す。   In this sub-lens configuration 400, off-axis or “side” sensor or detector segments (408-1, 408-2, 408-3 and 408-4) are located below the electron beam column (near the target substrate). , Disposed below the objective lens 402. Under certain conditions, electrons emitted with respect to the vertical plane at a larger polar angle (preferably 45 degrees or more) (ie electrons emitted with a locus closer to the surface) are selectively detected under the lens. To reach. These detectors may be separated or connected together to form a segmented detector. Since these electrons are typically more sensitive to surface topology, the image formed by such a detector was defined by the primary beam optical axis and the detector positioning relative to the sample / wafer surface. Fig. 2 shows a topography of a surface with an orientation map.

図4Aの断面図において、2つの軸外検出器セグメント408−1および408−3が図示される。図4Bに示す平面図は、4つの軸外検出器セグメント(408−1、408−2、408−3および408−4)がカラムの電子光軸を包囲する様子を示す(カラムの電子光軸に沿って、入射eビーム401が移動する)。この実行様態において、各検出器セグメントは、標的表面から出射された放散電子406をほぼ90度の方位角度範囲内において検出し得る。よって、各検出器セグメントにより、(方位角度および同一極角においてほぼ90度で間隔を空けて配置された)異なるビュー角度が得られる。   In the cross-sectional view of FIG. 4A, two off-axis detector segments 408-1 and 408-3 are illustrated. The plan view shown in FIG. 4B shows how the four off-axis detector segments (408-1, 408-2, 408-3 and 408-4) surround the column's electron optical axis (the column's electron optical axis). The incident e-beam 401 moves along In this implementation, each detector segment can detect dissipated electrons 406 emitted from the target surface within an azimuth angle range of approximately 90 degrees. Thus, each detector segment provides a different view angle (spaced approximately 90 degrees apart at the azimuth angle and the same polar angle).

図5Aおよび図5Bを参照して、これらの図は、3つ以上のビュー角度から画像データを同時収集するように構成された装置の第3の実施形態を示す。図5Aは、電子ビームカラム500の下部の断面図であり、図5Bは、カラムと共に用いられ得るセグメント化検出器の平面図である。   Referring to FIGS. 5A and 5B, these figures illustrate a third embodiment of an apparatus configured to simultaneously collect image data from more than two view angles. FIG. 5A is a cross-sectional view of the bottom of the electron beam column 500, and FIG. 5B is a plan view of a segmented detector that can be used with the column.

図5Aに示すように、対物レンズ502は、入射eビーム501を標的基板504の表面上に集束させるように、構成される。入射eビーム501は、電子銃によって生成され得、図2に示すeビームカラムに関連して上述した様態と同様の様態で偏向器によって走査され得る。本実施形態において、複数の検出器セグメント(または複数の別個の検出器)は、レンズ後方構成において構成される。   As shown in FIG. 5A, the objective lens 502 is configured to focus the incident e-beam 501 onto the surface of the target substrate 504. Incident e-beam 501 can be generated by an electron gun and scanned by a deflector in a manner similar to that described above in connection with the e-beam column shown in FIG. In this embodiment, multiple detector segments (or multiple separate detectors) are configured in a lens rear configuration.

このレンズ後方構成500において、軸外または「側部」センサーまたは検出器セグメント(508−1、508−2、508−3および508−4)は、標的基板504から対物レンズ502の反対側側部上に配置される。換言すれば、対物レンズ502は、標的基板504と、「側部」検出器または検出器セグメント(508−1、508−2、508−3および508−4)との間に設けられる。この場合、対物レンズの磁界は、(垂直表面から45度を超える角度で出射された電子を含み得る)出射電子を拘束した後、これらの電子をレンズ後方検出器アレイ(508−1、508−2、508−3および508−4)へと方向付けるように、構成され得る。レンズ下構成400と同様に、標的基板504の表面についてのトポグラフィー情報を示すレンズ後方構成500からの検出信号を用いて画像を形成することができる。   In this lens rear configuration 500, off-axis or “side” sensor or detector segments (508-1, 508-2, 508-3 and 508-4) are on the opposite side of the objective lens 502 from the target substrate 504. Placed on top. In other words, the objective lens 502 is provided between the target substrate 504 and the “side” detectors or detector segments (508-1, 508-2, 508-3 and 508-4). In this case, the magnetic field of the objective lens constrains the emitted electrons (which may include electrons emitted at an angle of more than 45 degrees from the vertical surface), and then these electrons are moved into the lens back detector array (508-1, 508-). 2, 508-3 and 508-4). Similar to the under lens configuration 400, an image can be formed using the detection signal from the rear lens configuration 500 that indicates topographic information about the surface of the target substrate 504.

図5Aの断面図において、2つの検出器セグメント508−1および508−3が図示されている。図5B中に示す平面図は、4つの検出器セグメント(508−1、508−2、508−3および508−4)がカラムの軸を包囲する様子を示す(この軸に沿って、入射eビーム501が移動する)。この実行様態において、各検出器セグメントは、標的表面から出射された電子をおよそ90度の方位角度範囲内において検出することができる。よって、各検出器セグメントにより、(方位角度においておよそ90度で同一極角で間隔を空けて配置された)異なるビュー角度が得られる。   In the cross-sectional view of FIG. 5A, two detector segments 508-1 and 508-3 are shown. The plan view shown in FIG. 5B shows the four detector segments (508-1, 508-2, 508-3, and 508-4) surrounding the column axis (along this axis, the incident e The beam 501 moves). In this implementation, each detector segment can detect electrons emitted from the target surface within an azimuth angle range of approximately 90 degrees. Thus, each detector segment provides a different view angle (spaced at the same polar angle at approximately 90 degrees in azimuth).

上記した第2の実施形態400または第3の実施形態500双方において、より多数またはより少数の検出器セグメントを用いることができる。例えば、3つの均等に間隔を空けて配置された検出器セグメントが用いられる場合、各検出器セグメントにより、方位角度において120度で有効に間隔を空けて配置されたビュー角度が得られる。別の例として、5個の均等に間隔を空けて配置された検出器セグメントが用いられる場合、各検出器セグメントにより、方位角度において72度で有効に間隔を空けて配置されたビュー角度が得られる。別の例として、6個の均等間隔を空けて配置された検出器セグメントが用いられる場合、各検出器セグメントにより、方位角度において60度で有効に間隔を空けて配置されたビュー角度が得られる。また、これらの検出器セグメントまたは別個の検出器を離散して設けることにより、大幅に狭い方位角度範囲から放散電子を収集することができる。さらに、「側部」(非垂直ビュー)検出器に加えて、従来の検出器構成(例えば、図3中の中央検出器302)を設けることにより、垂直ビューから画像データを同時に得ることができる。   In both the second embodiment 400 or the third embodiment 500 described above, more or fewer detector segments can be used. For example, if three equally spaced detector segments are used, each detector segment provides a view angle that is effectively spaced at 120 degrees in azimuth. As another example, if five evenly spaced detector segments are used, each detector segment provides an effectively spaced view angle at 72 degrees in azimuth. It is done. As another example, if six equally spaced detector segments are used, each detector segment provides a view angle that is effectively spaced at 60 degrees in azimuth. . Also, by providing discrete detector segments or separate detectors, scattered electrons can be collected from a much narrower azimuth range. Furthermore, in addition to the “side” (non-vertical view) detector, a conventional detector configuration (eg, center detector 302 in FIG. 3) can be provided to simultaneously obtain image data from the vertical view. .

再度図1を参照して、電子ビーム画像データを3つ以上のビューイング角度から同時収集した後、画像データを自動処理(106)して、対象領域表面の三次元表現を生成する。一実施形態において、ランバートモデルに基づいて三次元表現を構築することができる。あるいは、立体視機能に基づいて三次元表現を構築してもよい。   Referring again to FIG. 1, after electron beam image data is collected simultaneously from three or more viewing angles, the image data is automatically processed (106) to generate a three-dimensional representation of the surface of the region of interest. In one embodiment, a three-dimensional representation can be constructed based on a Lambert model. Alternatively, a three-dimensional expression may be constructed based on the stereoscopic function.

自動処理106時において、半導体表面上に作製されている集積回路に関連する設計および材料データ108へアクセスすることができる。その後、三次元表現を設計データにアライメントさせることができる(109)。その後、設計データ中の層情報を用いて、三次元表現からの表面高さマップを修正することができる(110)。あるいは、関連分野の当業者であれば理解するように、標準サンプルからの画像データを用いて、三次元表現からの表面高さマップを較正することもできる(111)。   During automatic processing 106, design and material data 108 associated with an integrated circuit being fabricated on a semiconductor surface can be accessed. The three-dimensional representation can then be aligned with the design data (109). Thereafter, the layer information in the design data can be used to modify the surface height map from the three-dimensional representation (110). Alternatively, as will be appreciated by those skilled in the relevant art, image data from standard samples can be used to calibrate a surface height map from a three-dimensional representation (111).

一実施形態によれば、左眼立体ビューおよび右眼立体ビューに対応する画像を三次元表現を用いて生成することができる(112)。対象領域の左眼立体ビューおよび右眼立体ビューの例を図6に示す。任意選択的に、材料データに基づいたテクスチャマップを各立体ビュー上にアライメントおよびオーバーレイする(114)ことで、材料コントラストを示すことができる。その後、三次元(3D)立体ビューをユーザに表示することができる(116)。表示は、標的基板が未だ走査電子ビーム下にある状態でリアルタイムで行うことができる。一実行様態において、表示は、テクスチャ3D表現の立体視認のためのゴーグル型双眼鏡3D映像表示を含み得る。3D表現との相互作用を、ユーザインターフェースデバイスを介して行うことができる。ユーザ入力をユーザインターフェースデバイスを介して受信した後(118)、立体ビュー図をユーザ入力に基づいて調節することができる(120)b例えば、、チルト、回転およびズーム入力を用いて立体ビュー図を変更することができる。   According to one embodiment, images corresponding to the left and right eye stereoscopic views may be generated using a three-dimensional representation (112). An example of a left-eye stereoscopic view and a right-eye stereoscopic view of the target area is shown in FIG. Optionally, a texture map based on the material data can be aligned and overlaid on each stereo view (114) to indicate material contrast. A three-dimensional (3D) stereoscopic view can then be displayed to the user (116). The display can be performed in real time with the target substrate still under the scanning electron beam. In one implementation, the display may include a goggle-type binoculars 3D video display for stereoscopic viewing of the texture 3D representation. Interaction with the 3D representation can be performed via a user interface device. After receiving user input via the user interface device (118), the stereoscopic view can be adjusted based on the user input (120) b. For example, using the tilt, rotation, and zoom inputs, the stereoscopic view can be adjusted. Can be changed.

別の実施形態によれば、例示的な「空中飛行」ビュー経路を決定することができる(122)。ビュー経路は好適には、一定範囲の角度および距離から対象領域をビューする。その後、ビュー経路に基づいて、1組の一連のフレームを含む映像を生成する(124)。映像のフレームは、カメラが対象領域上を「飛行」していたかのような透視図を示す。換言すれば、対象領域の映像は角度として生成され(124)、かつ/または、ビューのチルトおよび/またはズームを円滑に変更することができる。任意選択的に、材料データに基づいたテクスチャマップを各フレーム上にアライメントおよびオーバーレイして、材料コントラストを示すことができる(114)。映像からの4つの例示的映像フレームキャプチャを図7A、図7B、図7Cおよび図7D中に示す。ここで、この映像は、図6と同じ対象領域のものであり、キャプチャフレームは、映像中において2秒間隔で空けて配置されることで、映像時におけるビュー角度の変化を示す。これらの例示的映像フレームをテクスチャマップ上にオーバーレイすることで、材料コントラストを示す。その後、この映像を映像ファイルフォーマット(例えば、AVIまたは類似のファイルフォーマット)中に出力する(126)。   According to another embodiment, an exemplary “air flight” view path may be determined (122). The view path preferably views the region of interest from a range of angles and distances. Thereafter, based on the view path, an image including a set of a series of frames is generated (124). The frame of the video shows a perspective view as if the camera was “flying” over the target area. In other words, the image of the region of interest is generated as an angle (124) and / or the tilt and / or zoom of the view can be changed smoothly. Optionally, a texture map based on the material data can be aligned and overlaid on each frame to indicate material contrast (114). Four exemplary video frame captures from the video are shown in FIGS. 7A, 7B, 7C, and 7D. Here, this video is in the same target area as that in FIG. 6, and the capture frames are arranged at intervals of 2 seconds in the video to show a change in view angle during the video. Overlaying these exemplary video frames on the texture map shows material contrast. The video is then output in a video file format (eg, AVI or similar file format) (126).

別の実施形態によれば、三次元表現の透視図の画像を生成することができる(128)。任意選択的に、材料データに基づいたテクスチャマップを画像上にアライメントおよびオーバーレイすることにより、材料コントラストを示すことができる(114)。その後、無線接続タブレットコンピュータまたは他のコンピュータディスプレイを介してこの透視図をユーザへ表示することができる(130)。この表示は、標的基板が未だ走査電子ビーム下にある状態で、リアルタイムで行うことができる。3D表現との相互作用は、例えばモーション感知制御を介して、タブレットコンピュータのモーション感知タッチスクリーン上において行うことができる。ユーザ入力は、モーション感知制御を介して受信することができ(132)、立体ビューの透視図をユーザ入力に基づいて調節することができる(134)。例えば、チルト入力、回転入力およびズーム入力を用いて、表示された透視図を変更することができる。   According to another embodiment, a perspective image of a three-dimensional representation can be generated (128). Optionally, material contrast can be indicated 114 by aligning and overlaying a texture map based on the material data on the image. This perspective can then be displayed to the user via a wirelessly connected tablet computer or other computer display (130). This display can be made in real time with the target substrate still under the scanning electron beam. The interaction with the 3D representation can be performed on the motion sensitive touch screen of the tablet computer, for example via motion sensitive control. User input can be received via motion sensing control (132) and a perspective view of the stereoscopic view can be adjusted based on the user input (134). For example, the displayed perspective view can be changed using tilt input, rotation input, and zoom input.

上記の記載において、本発明の実施形態の深い理解のために、多数の特定の詳細について記載した。しかし、上記の本発明の例示的実施形態の記載は、網羅的なものではなく、また、本発明を開示の形態のみに限定するものでもない。関連分野の当業者であれば、これらの特定の詳細のうち1つ以上無しにまたは他の方法、コンポーネントなど無しに本発明を実行することが可能であることを理解する。他の場合において、本発明の局面を曖昧にしないために、周知の構造または動作は図示または記載していない。本発明の特定の実施形態および例について例示目的のために記載しているが、関連分野の当業者であれば理解するように、多様な均等的な改変が本発明の範囲内において可能である。   In the above description, numerous specific details are set forth in order to provide a thorough understanding of embodiments of the present invention. However, the above description of exemplary embodiments of the invention is not exhaustive and is not intended to limit the invention to the precise form disclosed. Those skilled in the relevant arts will understand that the invention may be practiced without one or more of these specific details or without other methods, components, and the like. In other instances, well-known structures or operations are not shown or described to avoid obscuring aspects of the invention. While specific embodiments and examples of the invention have been described for purposes of illustration, various equivalent modifications are possible within the scope of the invention, as will be appreciated by those skilled in the relevant art. .

これらの改変は、上記の詳細な説明を鑑みれば本発明において可能である。以下の特許請求の範囲において用いられる用語は、明細書および特許請求の範囲中に開示される特定の実施形態に本発明を限定するものとして解釈されるべきではない。すなわち、本発明の範囲は、以下の特許請求の範囲によって決定されるべきである。以下の特許請求の範囲は、請求項解釈における均等論に基づいて解釈されるべきである。   These modifications are possible in the present invention in view of the above detailed description. The terms used in the following claims should not be construed to limit the invention to the specific embodiments disclosed in the specification and the claims. That is, the scope of the present invention should be determined by the following claims. The following claims should be construed based on the doctrine of equivalents in claim interpretation.

Claims (24)

基板表面のリアルタイム三次元電子ビーム画像化の方法であって、
前記基板表面上に一次電子ビームを走査して、前記基板表面から電子を出射させることと、
複数の少なくとも2つの軸外センサーを用いて出射電子を同時検出して、複数の画像データフレームを生成することであって、各画像データフレームは、基板表面から異なるビュー角度で出射された電子に起因することと、
前記複数の画像データフレームを自動処理して、前記基板表面の三次元表現を生成することと、
前記三次元表現の複数のビューを表示すること、
を含む、方法。
A method for real-time three-dimensional electron beam imaging of a substrate surface,
Scanning the substrate surface with a primary electron beam to emit electrons from the substrate surface;
Simultaneously detecting emitted electrons using a plurality of at least two off-axis sensors to generate a plurality of image data frames, each image data frame being transmitted to electrons emitted at different view angles from the substrate surface Cause and
Automatically processing the plurality of image data frames to generate a three-dimensional representation of the substrate surface;
Displaying a plurality of views of the three-dimensional representation;
Including a method.
前記軸外センサーは、軸外検出器セグメントを含む、請求項1に記載の方法。   The method of claim 1, wherein the off-axis sensor includes an off-axis detector segment. 前記軸外検出器セグメントは、軸上検出器セグメントを包囲する、請求項2に記載の方法。   The method of claim 2, wherein the off-axis detector segment surrounds an on-axis detector segment. 前記軸外センサーは、レンズ下構成において配置される、請求項1に記載の方法。   The method of claim 1, wherein the off-axis sensor is disposed in a sub-lens configuration. 前記軸外センサーは、レンズ後方構成において配置される、請求項1に記載の方法。   The method of claim 1, wherein the off-axis sensor is arranged in a lens rear configuration. 前記自動処理は、
前記三次元表現と、画像化されている前記基板表面と関連付けられた設計データとをアライメントさせること、
を含む、請求項1に記載の方法。
The automatic process is
Aligning the three-dimensional representation with design data associated with the substrate surface being imaged;
The method of claim 1 comprising:
前記自動処理は、
前記設計データ中の層情報を用いて前記三次元表現の表面高さマップを修正すること、
をさらに含む、請求項6に記載の方法。
The automatic process is
Modifying the surface height map of the three-dimensional representation using layer information in the design data;
The method of claim 6, further comprising:
表示すべき前記ビュー上に材料コントラストを示すテクスチャマップをオーバーレイすることであって、前記テクスチャマップは、画像化されている前記基板表面と関連付けられた材料データに基づくこと、
をさらに含む、請求項1に記載の方法。
Overlaying a texture map showing material contrast on the view to be displayed, the texture map being based on material data associated with the substrate surface being imaged;
The method of claim 1, further comprising:
表示すべき左立体ビューおよび右立体ビューを生成すること、
をさらに含む、請求項1に記載の方法。
Generating left and right stereoscopic views to be displayed;
The method of claim 1, further comprising:
上空飛行ビュー経路を決定することと、
前記上空飛行ビュー経路に基づいて、前記基板表面の映像を生成すること、
をさらに含む、請求項1に記載の方法。
Determining an aerial flight view path;
Generating an image of the substrate surface based on the aerial view view path;
The method of claim 1, further comprising:
前記ビューは、無線接続タブレットコンピュータ上に表示される、請求項1に記載の方法。   The method of claim 1, wherein the view is displayed on a wirelessly connected tablet computer. 表示中のビューを変更するためのユーザ入力を受信することと、
前記ユーザ入力に基づいてビューを調節すること、
をさらに含む、請求項1に記載の方法。
Receiving user input to change the view being displayed;
Adjusting a view based on the user input;
The method of claim 1, further comprising:
基板表面のリアルタイム三次元電子ビーム画像化のために構成された装置であって、
一次電子ビームの生成源と、
前記一次電子ビームを偏向させて前記基板表面上に前記一次電子ビームを走査して、前記基板表面から電子を出射させるように構成された走査偏向器と、
複数の少なくとも2つの軸外センサーを用いて出射電子を同時検出して複数の画像データフレームを生成するように構成された検出システムであって、各画像データフレームは、基板表面から異なるビュー角度で出射された電子に起因する、検出システムと、
前記複数の画像データフレームを自動処理して前記基板表面の三次元表現の複数のビューを生成するように構成された画像データ処理システムと、
を含む、装置。
An apparatus configured for real-time three-dimensional electron beam imaging of a substrate surface,
A source of primary electron beams;
A scanning deflector configured to deflect the primary electron beam, scan the primary electron beam on the substrate surface, and emit electrons from the substrate surface;
A detection system configured to simultaneously detect emitted electrons using a plurality of at least two off-axis sensors to generate a plurality of image data frames, each image data frame having a different view angle from a substrate surface. A detection system due to emitted electrons;
An image data processing system configured to automatically process the plurality of image data frames to generate a plurality of views of a three-dimensional representation of the substrate surface;
Including the device.
前記軸外センサーは、軸外検出器セグメントを含む、請求項13に記載の装置。   The apparatus of claim 13, wherein the off-axis sensor includes an off-axis detector segment. 前記軸外検出器セグメントは、軸上検出器セグメントを包囲する、請求項14に記載の装置。   The apparatus of claim 14, wherein the off-axis detector segment surrounds an on-axis detector segment. 前記軸外センサーは、レンズ下構成において配置される、請求項13に記載の装置。   The apparatus of claim 13, wherein the off-axis sensor is disposed in a sub-lens configuration. 前記軸外センサーは、レンズ後方構成において配置される、請求項13に記載の装置。   The apparatus of claim 13, wherein the off-axis sensor is disposed in a lens rear configuration. 前記画像データ処理システムによって行われる前記自動処理は、
前記三次元表現と、画像化されている前記基板表面と関連付けられた設計データとをアライメントさせること、
を含む、請求項13に記載の装置。
The automatic processing performed by the image data processing system is:
Aligning the three-dimensional representation with design data associated with the substrate surface being imaged;
14. The apparatus of claim 13, comprising:
前記画像データ処理システムによって行われる前記自動処理は、
前記設計データ中の層情報を用いて前記三次元表現の表面高さマップを修正すること、
をさらに含む、請求項18に記載の装置。
The automatic processing performed by the image data processing system is:
Modifying the surface height map of the three-dimensional representation using layer information in the design data;
The apparatus of claim 18, further comprising:
前記画像データ処理システムによって行われる複数のビューの生成は、材料コントラストを示すテクスチャマップを表示すべき前記ビュー上にオーバーレイすることを含み、前記テクスチャマップは、画像化されている前記基板表面と関連付けられた材料データに基づく、請求項13に記載の装置。   Generating a plurality of views performed by the image data processing system includes overlaying a texture map showing material contrast on the view to be displayed, the texture map associated with the substrate surface being imaged 14. The apparatus of claim 13, based on obtained material data. 前記画像データ処理システムによって行われる複数のビューの生成は、表示すべき左立体ビューおよび右立体ビューを生成することを含む、請求項13に記載の装置。   The apparatus of claim 13, wherein generating a plurality of views performed by the image data processing system includes generating a left stereoscopic view and a right stereoscopic view to be displayed. 前記画像データ処理システムによって行われる複数のビューの生成は、上空飛行ビュー経路を決定することと、前記上空飛行ビュー経路に基づいて前記基板表面の映像を生成することを含む、請求項13に記載の装置。   The plurality of views generated by the image data processing system includes determining an overhead flight view path and generating an image of the substrate surface based on the overhead flight view path. Equipment. 前記複数のビューを表示するように構成された無線接続タブレットコンピュータ
をさらに含む、請求項13に記載の装置。
The apparatus of claim 13, further comprising a wirelessly connected tablet computer configured to display the plurality of views.
前記画像データ処理システムは、表示されているビューを変更するためのユーザ入力を受信することと、前記ユーザ入力に基づいてビューを調節することとを行うようにさらに構成される、請求項13に記載の装置。   14. The image data processing system is further configured to receive user input to change a displayed view and adjust a view based on the user input. The device described.
JP2013557725A 2011-03-04 2012-02-13 Apparatus and method for real-time three-dimensional SEM imaging and viewing of semiconductor wafers Active JP6013380B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/041,017 2011-03-04
US13/041,017 US20120223227A1 (en) 2011-03-04 2011-03-04 Apparatus and methods for real-time three-dimensional sem imaging and viewing of semiconductor wafers
PCT/US2012/024857 WO2012121834A2 (en) 2011-03-04 2012-02-13 Apparatus and methods for real-time three-dimensional sem imaging and viewing of semiconductor wafers

Publications (2)

Publication Number Publication Date
JP2014507781A true JP2014507781A (en) 2014-03-27
JP6013380B2 JP6013380B2 (en) 2016-10-25

Family

ID=46752732

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013557725A Active JP6013380B2 (en) 2011-03-04 2012-02-13 Apparatus and method for real-time three-dimensional SEM imaging and viewing of semiconductor wafers

Country Status (5)

Country Link
US (1) US20120223227A1 (en)
JP (1) JP6013380B2 (en)
KR (1) KR101907231B1 (en)
TW (1) TW201241425A (en)
WO (1) WO2012121834A2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013161795A (en) * 2012-02-02 2013-08-19 Applied Materials Israel Ltd Three-dimensional mapping using scanning electron microscope images
WO2020136710A1 (en) * 2018-12-25 2020-07-02 株式会社日立ハイテク Charged particle beam device

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012234411A (en) * 2011-05-02 2012-11-29 Nintendo Co Ltd Image generation device, image generation system, image generation program and image generation method
US8502146B2 (en) * 2011-10-03 2013-08-06 Kla-Tencor Corporation Methods and apparatus for classification of defects using surface height attributes
KR102026936B1 (en) * 2013-03-26 2019-10-01 삼성디스플레이 주식회사 Inspection system using scanning electron microscope
KR102301793B1 (en) * 2014-12-18 2021-09-14 삼성전자주식회사 Image creating metohd and imaging system for performing the same
JP6962897B2 (en) 2018-11-05 2021-11-05 日本電子株式会社 Electron microscope and image processing method
US10898159B2 (en) * 2019-01-11 2021-01-26 General Electric Company X-ray imaging system use and calibration
KR20210027789A (en) 2019-09-03 2021-03-11 삼성전자주식회사 Scanning electron microscope apparatus and operation method thereof

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH087818A (en) * 1994-06-23 1996-01-12 Ryoden Semiconductor Syst Eng Kk Scanning electron microscope
JP2002031520A (en) * 2000-05-12 2002-01-31 Hitachi Ltd Calibration member for three-dimensional shape analyzer and method for three-dimensional shape analysis
JP2006049161A (en) * 2004-08-06 2006-02-16 Hitachi High-Technologies Corp Scanning electron microscope and three-dimensional image display method using the same
JP2006079868A (en) * 2004-09-08 2006-03-23 Casio Comput Co Ltd Electron microscope
JP2006172919A (en) * 2004-12-16 2006-06-29 Hitachi High-Technologies Corp Scanning electron microscope having three-dimensional shape analysis function
JP2008282761A (en) * 2007-05-14 2008-11-20 Hitachi High-Technologies Corp Scanning electron microscopy and three-dimensional shape measuring device using it

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2786207B2 (en) * 1988-08-26 1998-08-13 株式会社日立製作所 Surface shape calculation method for scanning microscope
US6353222B1 (en) * 1998-09-03 2002-03-05 Applied Materials, Inc. Determining defect depth and contour information in wafer structures using multiple SEM images
US6852974B2 (en) * 2001-03-06 2005-02-08 Topcon Corporation Electron beam device and method for stereoscopic measurements
US20060176295A1 (en) * 2003-05-30 2006-08-10 Lattice Technology, Inc. 3-Dimensional graphics data display device
US7151258B2 (en) * 2003-07-24 2006-12-19 Topcon Corporation Electron beam system and electron beam measuring and observing methods
JP4272121B2 (en) * 2004-06-23 2009-06-03 株式会社日立ハイテクノロジーズ Three-dimensional shape measuring method and apparatus using SEM
US7141791B2 (en) * 2004-09-07 2006-11-28 Kla-Tencor Technologies Corporation Apparatus and method for E-beam dark field imaging
WO2006087854A1 (en) * 2004-11-25 2006-08-24 Sharp Kabushiki Kaisha Information classifying device, information classifying method, information classifying program, information classifying system
US7545907B2 (en) * 2005-11-09 2009-06-09 Dexela Limited Methods and apparatus for obtaining low-dose imaging
US8041103B2 (en) * 2005-11-18 2011-10-18 Kla-Tencor Technologies Corp. Methods and systems for determining a position of inspection data in design data space
US7570796B2 (en) * 2005-11-18 2009-08-04 Kla-Tencor Technologies Corp. Methods and systems for utilizing design data in combination with inspection data
JP4728144B2 (en) * 2006-02-28 2011-07-20 株式会社日立ハイテクノロジーズ Circuit pattern inspection device
JP4887062B2 (en) * 2006-03-14 2012-02-29 株式会社日立ハイテクノロジーズ Sample size measuring method and sample size measuring device
US20070220108A1 (en) * 2006-03-15 2007-09-20 Whitaker Jerry M Mobile global virtual browser with heads-up display for browsing and interacting with the World Wide Web
US7872236B2 (en) * 2007-01-30 2011-01-18 Hermes Microvision, Inc. Charged particle detection devices
US7525090B1 (en) * 2007-03-16 2009-04-28 Kla-Tencor Technologies Corporation Dynamic centering for behind-the-lens dark field imaging
US7755043B1 (en) * 2007-03-21 2010-07-13 Kla-Tencor Technologies Corporation Bright-field/dark-field detector with integrated electron energy spectrometer
JP4659004B2 (en) * 2007-08-10 2011-03-30 株式会社日立ハイテクノロジーズ Circuit pattern inspection method and circuit pattern inspection system
JP5276860B2 (en) * 2008-03-13 2013-08-28 株式会社日立ハイテクノロジーズ Scanning electron microscope
JP5183318B2 (en) * 2008-06-26 2013-04-17 株式会社日立ハイテクノロジーズ Charged particle beam equipment
JP2011022727A (en) * 2009-07-14 2011-02-03 Sony Corp Image processing apparatus and method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH087818A (en) * 1994-06-23 1996-01-12 Ryoden Semiconductor Syst Eng Kk Scanning electron microscope
JP2002031520A (en) * 2000-05-12 2002-01-31 Hitachi Ltd Calibration member for three-dimensional shape analyzer and method for three-dimensional shape analysis
JP2006049161A (en) * 2004-08-06 2006-02-16 Hitachi High-Technologies Corp Scanning electron microscope and three-dimensional image display method using the same
JP2006079868A (en) * 2004-09-08 2006-03-23 Casio Comput Co Ltd Electron microscope
JP2006172919A (en) * 2004-12-16 2006-06-29 Hitachi High-Technologies Corp Scanning electron microscope having three-dimensional shape analysis function
JP2008282761A (en) * 2007-05-14 2008-11-20 Hitachi High-Technologies Corp Scanning electron microscopy and three-dimensional shape measuring device using it

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013161795A (en) * 2012-02-02 2013-08-19 Applied Materials Israel Ltd Three-dimensional mapping using scanning electron microscope images
WO2020136710A1 (en) * 2018-12-25 2020-07-02 株式会社日立ハイテク Charged particle beam device
JPWO2020136710A1 (en) * 2018-12-25 2021-11-04 株式会社日立ハイテク Charged particle beam device
JP7105321B2 (en) 2018-12-25 2022-07-22 株式会社日立ハイテク Charged particle beam device
US11961699B2 (en) 2018-12-25 2024-04-16 Hitachi High-Tech Corporation Charged particle beam device

Also Published As

Publication number Publication date
WO2012121834A3 (en) 2013-01-03
US20120223227A1 (en) 2012-09-06
WO2012121834A2 (en) 2012-09-13
KR20140010136A (en) 2014-01-23
KR101907231B1 (en) 2018-10-11
JP6013380B2 (en) 2016-10-25
TW201241425A (en) 2012-10-16

Similar Documents

Publication Publication Date Title
JP6013380B2 (en) Apparatus and method for real-time three-dimensional SEM imaging and viewing of semiconductor wafers
US7482586B2 (en) Methods for sample preparation and observation, charged particle apparatus
JP5059297B2 (en) Electron beam observation device
WO2016002341A1 (en) Pattern measurement method and pattern measurement device
EP2525386B1 (en) Charged-particle microscopy with occlusion detection
JP6188695B2 (en) Method and apparatus for classifying wrinkles using surface height attributes
JP3916464B2 (en) Method for sample inspection
TWI776085B (en) Method and apparatus for monitoring beam profile and power
JP4261743B2 (en) Charged particle beam equipment
JP5075393B2 (en) Scanning electron microscope
JP2014146526A (en) Electron beam device, and electron beam observation method
JPH07234268A (en) Method for measuring magnetic field and charged particle beam device using same
JP4750958B2 (en) Electron beam apparatus, data processing apparatus for electron beam apparatus, and stereo image creation method of electron beam apparatus
JP6522764B2 (en) Charged particle beam apparatus and alignment adjustment method of sample stage
JP4750959B2 (en) Data processing apparatus for electron beam apparatus, electron beam apparatus, and stereo measurement method for electron beam apparatus
JP4871350B2 (en) Pattern dimension measuring method and pattern dimension measuring apparatus
JP2010244740A (en) Review device and review method
JP2006172919A (en) Scanning electron microscope having three-dimensional shape analysis function
JP7413105B2 (en) Charged particle beam device
JP2011076960A (en) Device for recognition of thin-film sample position in electron microscope
JP2006190693A (en) Charged particle beam device
JP2005123018A (en) Image display method and image display device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150212

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160112

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160411

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160830

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160921

R150 Certificate of patent or registration of utility model

Ref document number: 6013380

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250