JP6724267B1 - 学習装置、推論装置、学習モデルの生成方法及び推論方法 - Google Patents

学習装置、推論装置、学習モデルの生成方法及び推論方法 Download PDF

Info

Publication number
JP6724267B1
JP6724267B1 JP2020503074A JP2020503074A JP6724267B1 JP 6724267 B1 JP6724267 B1 JP 6724267B1 JP 2020503074 A JP2020503074 A JP 2020503074A JP 2020503074 A JP2020503074 A JP 2020503074A JP 6724267 B1 JP6724267 B1 JP 6724267B1
Authority
JP
Japan
Prior art keywords
image data
learning
data
simulator
processed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020503074A
Other languages
English (en)
Other versions
JPWO2020049974A1 (ja
Inventor
孝祐 中郷
孝祐 中郷
大資 本木
大資 本木
正樹 渡部
正樹 渡部
智希 小松
智希 小松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Preferred Networks Inc
Original Assignee
Preferred Networks Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Preferred Networks Inc filed Critical Preferred Networks Inc
Application granted granted Critical
Publication of JP6724267B1 publication Critical patent/JP6724267B1/ja
Publication of JPWO2020049974A1 publication Critical patent/JPWO2020049974A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • CCHEMISTRY; METALLURGY
    • C23COATING METALLIC MATERIAL; COATING MATERIAL WITH METALLIC MATERIAL; CHEMICAL SURFACE TREATMENT; DIFFUSION TREATMENT OF METALLIC MATERIAL; COATING BY VACUUM EVAPORATION, BY SPUTTERING, BY ION IMPLANTATION OR BY CHEMICAL VAPOUR DEPOSITION, IN GENERAL; INHIBITING CORROSION OF METALLIC MATERIAL OR INCRUSTATION IN GENERAL
    • C23CCOATING METALLIC MATERIAL; COATING MATERIAL WITH METALLIC MATERIAL; SURFACE TREATMENT OF METALLIC MATERIAL BY DIFFUSION INTO THE SURFACE, BY CHEMICAL CONVERSION OR SUBSTITUTION; COATING BY VACUUM EVAPORATION, BY SPUTTERING, BY ION IMPLANTATION OR BY CHEMICAL VAPOUR DEPOSITION, IN GENERAL
    • C23C14/00Coating by vacuum evaporation, by sputtering or by ion implantation of the coating forming material
    • C23C14/22Coating by vacuum evaporation, by sputtering or by ion implantation of the coating forming material characterised by the process of coating
    • C23C14/54Controlling or regulating the coating process
    • CCHEMISTRY; METALLURGY
    • C23COATING METALLIC MATERIAL; COATING MATERIAL WITH METALLIC MATERIAL; CHEMICAL SURFACE TREATMENT; DIFFUSION TREATMENT OF METALLIC MATERIAL; COATING BY VACUUM EVAPORATION, BY SPUTTERING, BY ION IMPLANTATION OR BY CHEMICAL VAPOUR DEPOSITION, IN GENERAL; INHIBITING CORROSION OF METALLIC MATERIAL OR INCRUSTATION IN GENERAL
    • C23CCOATING METALLIC MATERIAL; COATING MATERIAL WITH METALLIC MATERIAL; SURFACE TREATMENT OF METALLIC MATERIAL BY DIFFUSION INTO THE SURFACE, BY CHEMICAL CONVERSION OR SUBSTITUTION; COATING BY VACUUM EVAPORATION, BY SPUTTERING, BY ION IMPLANTATION OR BY CHEMICAL VAPOUR DEPOSITION, IN GENERAL
    • C23C16/00Chemical coating by decomposition of gaseous compounds, without leaving reaction products of surface material in the coating, i.e. chemical vapour deposition [CVD] processes
    • C23C16/44Chemical coating by decomposition of gaseous compounds, without leaving reaction products of surface material in the coating, i.e. chemical vapour deposition [CVD] processes characterised by the method of coating
    • C23C16/52Controlling or regulating the coating process
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L21/00Processes or apparatus adapted for the manufacture or treatment of semiconductor or solid state devices or of parts thereof
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L21/00Processes or apparatus adapted for the manufacture or treatment of semiconductor or solid state devices or of parts thereof
    • H01L21/02Manufacture or treatment of semiconductor devices or of parts thereof
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L21/00Processes or apparatus adapted for the manufacture or treatment of semiconductor or solid state devices or of parts thereof
    • H01L21/02Manufacture or treatment of semiconductor devices or of parts thereof
    • H01L21/04Manufacture or treatment of semiconductor devices or of parts thereof the devices having potential barriers, e.g. a PN junction, depletion layer or carrier concentration layer
    • H01L21/18Manufacture or treatment of semiconductor devices or of parts thereof the devices having potential barriers, e.g. a PN junction, depletion layer or carrier concentration layer the devices having semiconductor bodies comprising elements of Group IV of the Periodic Table or AIIIBV compounds with or without impurities, e.g. doping materials
    • H01L21/30Treatment of semiconductor bodies using processes or apparatus not provided for in groups H01L21/20 - H01L21/26
    • H01L21/302Treatment of semiconductor bodies using processes or apparatus not provided for in groups H01L21/20 - H01L21/26 to change their surface-physical characteristics or shape, e.g. etching, polishing, cutting
    • H01L21/306Chemical or electrical treatment, e.g. electrolytic etching
    • H01L21/3065Plasma etching; Reactive-ion etching
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L21/00Processes or apparatus adapted for the manufacture or treatment of semiconductor or solid state devices or of parts thereof
    • H01L21/67Apparatus specially adapted for handling semiconductor or electric solid state devices during manufacture or treatment thereof; Apparatus specially adapted for handling wafers during manufacture or treatment of semiconductor or electric solid state devices or components ; Apparatus not specifically provided for elsewhere
    • H01L21/67005Apparatus not specifically provided for elsewhere
    • H01L21/67011Apparatus for manufacture or treatment
    • H01L21/67017Apparatus for fluid treatment
    • H01L21/67063Apparatus for fluid treatment for etching
    • H01L21/67069Apparatus for fluid treatment for etching for drying etching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30148Semiconductor; IC; Wafer

Landscapes

  • Engineering & Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Chemical Kinetics & Catalysis (AREA)
  • Materials Engineering (AREA)
  • Mechanical Engineering (AREA)
  • Metallurgy (AREA)
  • Organic Chemistry (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Manufacturing & Machinery (AREA)
  • Power Engineering (AREA)
  • Computer Hardware Design (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Chemical & Material Sciences (AREA)
  • Quality & Reliability (AREA)
  • Medical Informatics (AREA)
  • Plasma & Fusion (AREA)
  • Drying Of Semiconductors (AREA)
  • Image Analysis (AREA)

Abstract

製造プロセスのシミュレータを代替する学習済みモデルを提供する。学習装置は、少なくとも1つのメモリと、少なくとも1つのプロセッサと、を備え、前記少なくとも1つのプロセッサは、画像データに対するシミュレータのパラメータを取得することと、前記画像データと前記パラメータとを学習モデルに入力し、前記学習モデルの出力が、前記画像データに対する前記シミュレータの結果に近づくように、前記学習モデルを学習することとを実行するよう構成される。

Description

本発明は、学習装置、推論装置、学習モデルの生成方法及び推論方法に関する。
従来より、半導体製造メーカでは、各製造プロセス(例えば、ドライエッチング、デポジション等)の物理モデルを生成してシミュレーションを実行し、シミュレーション結果に基づき最適なレシピの探索や、プロセスパラメータの調整等を行っている。
ここで、物理モデルのような繰り返し試行を行うモデルの場合、シミュレーションを実行するのに一定程度の時間を要する。このため、最近では、物理モデルに基づくシミュレータの代替として、機械学習された学習済みモデルの適用が検討されている。
一方で、物理モデルに基づくシミュレータを代替するには、当該シミュレータにて実行されるシミュレーションを、学習済みモデルでも再現することが求められる。
本開示は、製造プロセスのシミュレータを代替する学習済みモデルを提供する。
本開示の一態様による学習装置は、例えば、以下のような構成を有する。即ち、
少なくとも1つのメモリと、
少なくとも1つのプロセッサと、を備え、
前記少なくとも1つのプロセッサは、
処理前画像データと前記処理前画像データに対するシミュレータのパラメータを取得することと、
前記処理前画像データと前記パラメータとを学習モデルに入力し、前記学習モデルの出力として得られる処理後画像データが、前記処理前画像データに対する前記シミュレータの結果として得られる処理後画像データに近づくように、前記学習モデルを学習することと
を実行するよう構成される。
図1は、シミュレーションシステムの全体構成の一例を示す図である。 図2は、シミュレーションシステムを構成する各装置のハードウェア構成の一例を示す図である。 図3は、学習用データの一例を示す図である。 図4は、第1の実施形態に係る学習装置の学習部の機能構成の一例を示す図である。 図5は、第1の実施形態に係る学習装置のデータ整形部の機能構成の一例を示す図である。 図6は、第1の実施形態に係る学習装置のデータ整形部による処理の具体例を示す図である。 図7は、第1の実施形態に係る学習装置のドライエッチング用学習モデルによる処理の具体例を示す図である。 図8は、シミュレーションシステムにおける学習処理の流れを示すフローチャートである。 図9は、推論装置の実行部の機能構成の一例を示す図である。 図10は、ドライエッチング用学習済みモデルのシミュレーション精度を示した図である。 図11は、デポジション用学習済みモデルのシミュレーション精度を示した図である。 図12は、第2の実施形態に係る学習装置のデータ整形部の機能構成の一例を示す図である。 図13は、第2の実施形態に係る学習装置のドライエッチング用学習モデルによる処理の具体例を示す図である。 図14は、第3の実施形態に係る学習装置の学習部の機能構成の一例を示す図である。 図15は、第4の実施形態に係る学習装置のデータ整形部の機能構成の一例を示す図である。
以下、各実施形態について添付の図面を参照しながら説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複した説明を省略する。
[第1の実施形態]
<シミュレーションシステムの全体構成>
はじめに、半導体製造プロセスのシミュレーションを行うシミュレーションシステムの全体構成について説明する。図1は、シミュレーションシステムの全体構成の一例を示す図である。図1に示すように、シミュレーションシステム100は、学習装置110、推論装置120、シミュレーション装置130を有する。
学習装置110には、データ整形プログラム及び学習プログラムがインストールされており、当該プログラムが実行されることで、学習装置110はデータ整形部111及び学習部112として機能する。
データ整形部111は加工部の一例である。データ整形部111は、シミュレーション装置130より送信され、学習用データ格納部113に格納された学習用データを読み出し、読み出した学習用データの一部を、学習部112が学習モデルに入力するのに適した所定の形式に加工する。
学習部112は、読み出された学習用データ(データ整形部111により加工された学習用データを含む)を用いて、学習モデルについて機械学習を行い、半導体製造プロセスの学習済みモデルを生成する。学習部112により生成された学習済みモデルは、推論装置120に提供される。
推論装置120には、データ整形プログラム及び実行プログラムがインストールされており、当該プログラムが実行されることで、推論装置120はデータ整形部121及び実行部122として機能する。
データ整形部121は加工部の一例であり、シミュレーション装置130より送信される、処理前画像データ及びパラメータデータ(詳細は後述)を取得する。また、データ整形部121は、取得したパラメータデータを、実行部122が学習済みモデルに入力するのに適した所定の形式に加工する。
実行部122は、処理前画像データと、データ整形部121において所定の形式に加工されたパラメータデータとを学習済みモデルに入力し、シミュレーションを実行することで、処理後画像データ(シミュレーション結果)を出力(推論)する。
シミュレーション装置130には、実行プログラムがインストールされており、当該プログラムが実行されることで、シミュレーション装置130は、実行部131として機能する。
実行部131は、半導体製造プロセスを物理法則等を用いて同定した物理モデルに、所定の処理条件を示すパラメータデータを設定してシミュレーションを実行するシミュレータ(いわゆる物理モデルに基づくシミュレータ)を有する。実行部131は、処理前画像データ格納部132より処理前画像データを読み出し、物理モデルに基づくシミュレータを用いてシミュレーションを実行することで、処理後画像データ(シミュレーション結果)を出力する。
実行部131により読み出される処理前画像データには、半導体製造プロセス(例えば、ドライエッチング、デポジション等)における処理対象(ウェハ)の処理前の形状を示す画像データが含まれる。なお、半導体製造プロセスにおける処理対象は複数のマテリアルから構成されており、処理前画像データの各画素は、例えば、各マテリアルの組成比(または含有比)に応じた画素値により表現されていてもよい。ただし、処理前画像データの表現形式はこれに限定されず、他の表現形式により表現されていてもよい。
実行部131がシミュレーションを実行することで出力する処理後画像データは、ドライエッチング用のシミュレータを用いた場合にあっては、ドライエッチング後の形状を示す画像データとなる。
また、実行部131がシミュレーションを実行することで出力する処理後画像データは、デポジション用のシミュレータを用いた場合にあっては、デポジション処理後の形状を示す画像データとなる。
なお、半導体製造プロセスにより処理された処理後の処理対象も複数のマテリアルから構成されており、処理後画像データの各画素は、例えば、各マテリアルの組成比(または含有比)に応じた画素値により表現される。ただし、処理後画像データの表現形式はこれに限定されず、処理前画像データと同様、他の表現形式により表現されてもよい。
実行部131は、シミュレーションを実行した際に用いた処理前画像データと、対応するパラメータデータと、処理後画像データとを含む学習用データを生成し、学習装置110に送信する。
更に、実行部131は、推論装置120のユーザが、学習済みモデルを検証するのに用いる、処理前画像データ、パラメータデータ、処理後画像データを、推論装置120に送信する。
推論装置120のユーザは、実行部122が学習済みモデルを用いてシミュレーションを実行することで出力された処理後画像データと、実行部131より送信された処理後画像データとを対比することで、学習済みモデルを検証する。
具体的には、推論装置120のユーザは、
・推論装置120において、処理前画像データ及びパラメータデータをデータ整形部121に入力してから、実行部122より処理後画像データが出力されるまでのシミュレーション時間と、
・シミュレーション装置130において、物理モデルに基づくシミュレータにパラメータデータを設定した状態で、処理前画像データを実行部131に入力してから、実行部131より処理後画像データが出力されるまでのシミュレーション時間と、
を対比する。これにより、推論装置120のユーザは、学習済みモデルのシミュレーション時間が、物理モデルに基づくシミュレータのシミュレーション時間よりも短縮されているか否かを検証することができる。
また、推論装置120のユーザは、
・推論装置120において、処理前画像データ及びパラメータデータをデータ整形部121に入力したことで実行部122より出力される処理後画像データと、
・シミュレーション装置130において、物理モデルに基づくシミュレータにパラメータデータを設定した状態で、処理前画像データを実行部131に入力したことで実行部131より出力される処理後画像データと、
を対比する。これにより、推論装置120のユーザは、物理モデルに基づくシミュレータに対する学習済みモデルのシミュレーション精度(物理モデルに基づくシミュレータを代替可能なシミュレーション精度を有しているか否か)を検証することができる。
なお、検証が完了すると、推論装置120には、任意の処理前画像データと、任意のパラメータデータとが入力され、様々なシミュレーションが実行されることになる。
<シミュレーションシステムを構成する各装置のハードウェア構成>
次に、シミュレーションシステム100を構成する各装置(学習装置110、推論装置120、シミュレーション装置130)のハードウェア構成について、図2を用いて説明する。図2は、シミュレーションシステムを構成する各装置のハードウェア構成の一例を示す図である。
なお、学習装置110と推論装置120のハードウェア構成は概ね同じであることから、ここでは、学習装置110のハードウェア構成について説明する。
(1)学習装置110のハードウェア構成
図2の2aは、学習装置110のハードウェア構成の一例を示す図である。図2の2aに示すように、学習装置110は、CPU(Central Processing Unit)201、ROM(Read Only Memory)202を有する。また、学習装置110は、RAM(Random Access Memory)203、GPU(Graphics Processing Unit)204を有する。なお、CPU201、GPU204などのプロセッサ(処理回路、Processing Circuit、Processing Circuitry)と、ROM202、RAM203などのメモリは、いわゆるコンピュータを形成する。
更に、学習装置110は、補助記憶装置205、操作装置206、表示装置207、I/F(Interface)装置208、ドライブ装置209を有する。なお、学習装置110の各ハードウェアは、バス210を介して相互に接続される。
CPU201は、補助記憶装置205にインストールされた各種プログラム(例えば、データ整形プログラム、学習プログラム等)を実行する演算デバイスである。
ROM202は、不揮発性メモリであり、主記憶装置として機能する。ROM202は、補助記憶装置205にインストールされた各種プログラムをCPU201が実行するために必要な各種プログラム、データ等を格納する。具体的には、ROM202はBIOS(Basic Input/Output System)やEFI(Extensible Firmware Interface)等のブートプログラム等を格納する。
RAM203は、DRAM(Dynamic Random Access Memory)やSRAM(Static Random Access Memory)等の揮発性メモリであり、主記憶装置として機能する。RAM203は、補助記憶装置205にインストールされた各種プログラムがCPU201によって実行される際に展開される、作業領域を提供する。
GPU204は、画像処理用の演算デバイスであり、CPU201により各種プログラムが実行される際に、各種画像データについて、並列処理による高速演算を実行する。
補助記憶装置205は、各種プログラムや、各種プログラムがCPU201によって実行される際にGPU204によって画像処理される各種画像データ等を記憶する記憶部である。例えば、学習用データ格納部113は、補助記憶装置205において実現される。
操作装置206は、学習装置110の管理者が学習装置110に対して各種指示を入力する際に用いる入力デバイスである。表示装置207は、学習装置110の内部情報を表示する表示デバイスである。
I/F装置208は、他の装置(例えば、シミュレーション装置130)と接続し、通信を行うための接続デバイスである。
ドライブ装置209は記録媒体220をセットするためのデバイスである。ここでいう記録媒体220には、CD−ROM、フレキシブルディスク、光磁気ディスク等のように情報を光学的、電気的あるいは磁気的に記録する媒体が含まれる。また、記録媒体220には、ROM、フラッシュメモリ等のように情報を電気的に記録する半導体メモリ等が含まれていてもよい。
なお、補助記憶装置205にインストールされる各種プログラムは、例えば、配布された記録媒体220がドライブ装置209にセットされ、該記録媒体220に記録された各種プログラムがドライブ装置209により読み出されることでインストールされる。あるいは、補助記憶装置205にインストールされる各種プログラムは、不図示のネットワークを介してダウンロードされることで、インストールされてもよい。
(2)シミュレーション装置130のハードウェア構成
図2の2bは、シミュレーション装置130のハードウェア構成の一例を示す図である。なお、図2の2bに示すように、シミュレーション装置130のハードウェア構成は、学習装置110のハードウェア構成と同じであるため、ここでは説明を省略する。
<学習用データの説明>
次に、シミュレーション装置130より送信され、学習用データ格納部113に格納される学習用データについて説明する。図3は、学習用データの一例を示す図である。図3に示すように、学習用データ300には、情報の項目として、“工程”、“シミュレーションID”、“処理前画像データ”、“パラメータデータ”、“処理後画像データ”が含まれる。
“工程”には、半導体製造プロセスを示す名称が格納される。図3の例は、“工程”として、「ドライエッチング」と、「デポジション」の2つの名称が格納された様子を示している。
“シミュレーションID”には、実行部131が各シミュレータを用いて実行する各シミュレーションを識別するための識別子が格納される。なお、第1の実施形態において、実行部131は、ドライエッチング用シミュレータ310と、デポジション用シミュレータ320とを有しており、当該各シミュレータを用いてシミュレーションを実行するものとする。
図3の例は、実行部131が、ドライエッチング用シミュレータ310を用いて実行するシミュレーションの“シミュレーションID”として、「S001」、「S002」が格納された様子を示している。また、図3の例は、実行部131が、デポジション用シミュレータ320を用いて実行するシミュレーションの“シミュレーションID”として、「S101」が格納された様子を示している。
“処理前画像データ”には、実行部131が各シミュレータを用いてシミュレーションを実行する際に入力する処理前画像データのファイル名が格納される。図3の例は、シミュレーションID=S001の場合、“ファイル名”が「形状データLD001」の処理前画像データをドライエッチング用シミュレータ310に入力してシミュレーションを実行することを示している。また、図3の例は、シミュレーションID=S002の場合、“ファイル名”が「形状データLD002」の処理前画像データをドライエッチング用シミュレータ310に入力してシミュレーションを実行することを示している。更に、図3の例は、シミュレーションID=S101の場合、“ファイル名”が「形状データLD101」の処理前画像データをデポジション用シミュレータ320に入力してシミュレーションを実行することを示している。
“パラメータデータ”には、実行部131がシミュレーションを実行する際に、各シミュレータに設定する、所定の処理条件を示す情報が格納される。図3の例は、ドライエッチング用シミュレータ310を用いてシミュレーションID=S001のシミュレーションを実行した際、実行部131が「パラメータ001_1」、「パラメータ001_2」、・・・等を設定したことを示している。
なお、「パラメータ001_1」、「パラメータ001_2」、・・・等とは、具体的には、下記のような値を指すものとする。
・マテリアルごとのけずれ率(etch ratio)、
・マテリアルごとのけずれ方向(lateral ratio)
・マテリアルごとのけずれ深さ(depth)
“処理後画像データ”には、実行部131が各シミュレータを用いてシミュレーションを実行したことで出力された処理後画像データのファイル名が格納される。図3の例は、シミュレーションID=S001の場合、ドライエッチング用シミュレータ310を用いてシミュレーションを実行したことで、“ファイル名”=「形状データLD001’」の処理後画像データが出力されたことを示している。
また、図3の例は、シミュレーションID=S002の場合、ドライエッチング用シミュレータ310を用いてシミュレーションを実行したことで、“ファイル名”=「形状データLD002’」の処理後画像データが出力されたことを示している。
更に、図3の例は、シミュレーションID=S101の場合、デポジション用シミュレータ320を用いてシミュレーションを実行したことで、“ファイル名”=「形状データLD101’」の処理後画像データが出力されたことを示している。
なお、実行部131は、各シミュレータを用いてシミュレーションを実行することで学習用データ300を生成し、学習装置110に送信する。これにより、学習装置110の学習用データ格納部113には、学習用データ300が格納される。
<学習装置の機能構成>
次に、学習装置110の各部(データ整形部111、学習部112)の機能構成の詳細について説明する。
(1)学習部の機能構成の詳細
はじめに、学習装置110の学習部112の機能構成の詳細について説明する。図4は、第1の実施形態に係る学習装置の学習部の機能構成の一例を示す図である。図4に示すように、学習装置110の学習部112は、ドライエッチング用学習モデル420、デポジション用学習モデル421、比較部430、変更部440を有する。
学習用データ格納部113に格納された学習用データ300の処理前画像データ及びパラメータデータは、データ整形部111により読み出され、対応する学習モデルに入力される。なお、本実施形態において、パラメータデータは、データ整形部111にて所定の形式に加工された上で、対応する学習モデルに入力されるが、予め所定の形式に加工されたものをデータ整形部111が読み出して、対応する学習モデルに入力してもよい。
ドライエッチング用学習モデル420には、処理前画像データと、データ整形部111により所定の形式に加工されたパラメータデータと(“工程”=「ドライエッチング」が対応付けられた処理前画像データ及びパラメータデータに限る)が入力される。処理前画像データと、所定の形式に加工されたパラメータデータとが入力されると、ドライエッチング用学習モデル420では出力結果を出力する。また、ドライエッチング用学習モデル420は、出力結果を比較部430に入力する。
同様に、デポジション用学習モデル421には、処理前画像データと、データ整形部111により所定の形式に加工されたパラメータデータと(“工程”=「デポジション」が対応付けられた処理前画像データ及びパラメータデータに限る)が入力される。処理前画像データと、所定の形式に加工されたパラメータデータとが入力されると、デポジション用学習モデル421では出力結果を出力する。また、デポジション用学習モデル421は、出力結果を比較部430に入力する。
比較部430は、ドライエッチング用学習モデル420より出力された出力結果と、学習用データ300の処理後画像データ(“工程”=「ドライエッチング」が対応付けられた処理後画像データ)とを比較し、差分情報を変更部440に通知する。
同様に、比較部430は、デポジション用学習モデル421より出力された出力結果と、学習用データ300の処理後画像データ(“工程”=「デポジション」が対応付けられた処理後画像データ)とを比較し、差分情報を変更部440に通知する。
変更部440は、比較部430より通知された差分情報に基づいて、ドライエッチング用学習モデル420またはデポジション用学習モデル421のモデルパラメータを更新する。なお、モデルパラメータの更新に用いる差分情報は、2乗誤差であっても絶対誤差であってもよい。
このように、学習部112では、処理前画像データと、所定の形式に加工されたパラメータデータとを学習モデルに入力し、学習モデルより出力される出力結果が、処理後画像データに近づくように、機械学習によりモデルパラメータを更新する。
(2)データ整形部の機能構成の詳細
次に、学習装置110のデータ整形部111の機能構成の詳細について説明する。図5は、第1の実施形態に係る学習装置のデータ整形部の機能構成の一例を示す図である。図5に示すように、データ整形部111は、形状データ取得部501、チャネル別データ生成部502、パラメータデータ取得部511、パラメータデータ展開部512、連結部520を有する。
形状データ取得部501は、学習用データ格納部113より学習用データ300の処理前画像データを読み出し、チャネル別データ生成部502に通知する。
チャネル別データ生成部502は生成部の一例である。チャネル別データ生成部502は、形状データ取得部501より通知された処理前画像データ(ここでは、各マテリアルの組成比(または含有比)に応じた画素値により表現されているものとする)を取得する。また、チャネル別データ生成部502は、取得した処理前画像データから、マテリアルの種類に応じた複数のチャネルの画像データを生成する。以下、マテリアルの種類に応じたチャネルの画像データを、チャネル別データと称す。例えば、チャネル別データ生成部502は、処理前画像データから、空気の層を含むチャネル別データと、4種類のマテリアルそれぞれの層を含む4つのチャネル別データとを生成する。
また、チャネル別データ生成部502は、生成した複数のチャネル別データを連結部520に通知する。なお、本実施形態では、チャネル別データ生成部502がチャネル別データを生成するものとしたが、チャネル別データは予め生成されていてもよい。この場合、チャネル別データ生成部502は、予め生成されたチャネル別データを読み出して、連結部520に通知する。
パラメータデータ取得部511は、学習用データ格納部113より学習用データ300のパラメータデータを読み出し、パラメータデータ展開部512に通知する。
パラメータデータ展開部512は、パラメータデータ取得部511より通知されたパラメータデータを、処理前画像データに応じた所定の形式(処理前画像データの縦サイズ及び横サイズに応じた2次元配列の形式)に加工する。
ここで、パラメータデータは、例えば、「パラメータ001_1」、「パラメータ001_2」、「パラメータ001_3」、・・・等の各パラメータの数値が1次元に配列されてなる。具体的には、パラメータデータは、N種類のパラメータの数値が1次元に配列されてなる。
このため、パラメータデータ展開部512では、パラメータデータに含まれるN種類のパラメータの数値を1種類ずつ抽出し、抽出した数値を、処理前画像データの縦サイズ及び横サイズに応じて、2次元に配列する。この結果、パラメータデータ展開部512では、2次元に配列されたN個のパラメータデータが生成されることになる。
また、パラメータデータ展開部512は、2次元に配列されたN個のパラメータデータを連結部520に通知する。
連結部520は、チャネル別データ生成部502より通知された、複数のチャネル別データに、パラメータデータ展開部512より通知された、2次元に配列されたN個のパラメータデータを新たなチャネルとして連結し、連結データを生成する。なお、本実施形態では、連結部520が連結データを生成するものとしたが、連結データは予め生成されていてもよい。この場合、連結部520は、予め生成された連結データを読み出して、学習モデルに入力する。
<学習装置の各部による処理の具体例>
次に、学習装置110の各部による処理のうち、上述したデータ整形部111による処理及び学習部112内のドライエッチング用学習モデル420による処理の具体例について説明する。
(1)データ整形部による処理の具体例
図6は、データ整形部による処理の具体例を示す図である。図6において、処理前画像データ600は、例えば、“ファイル名”=「形状データLD001」の処理前画像データである。
図6に示すように、処理前画像データ600には、空気の層、マテリアルAの層、マテリアルBの層、マテリアルCの層、マテリアルDの層が含まれる。この場合、チャネル別データ生成部502では、チャネル別データ601、602、603、604、605を生成する。
また、図6に示すように、パラメータデータ610は、例えば、各パラメータ(「パラメータ001_1」、「パラメータ001_2」、「パラメータ001_3」、・・・等)の数値が一次元に配列されてなる。
この場合、パラメータデータ展開部512は、処理前画像データ600の縦サイズ及び横サイズに応じて、パラメータ001_1を2次元に配列する(同じ値を縦及び横に配列する)。同様に、パラメータデータ展開部512は、処理前画像データ600の縦サイズ及び横サイズに応じて、パラメータ001_2を2次元に配列する。同様に、パラメータデータ展開部512は、処理前画像データ600の縦サイズ及び横サイズに応じて、パラメータ001_3を2次元に配列する。
2次元に配列されたパラメータデータ611、612、613等は、連結部520により、チャネル別データ601、602、603、604、605に新たなチャネルとして連結され、連結データ620が生成される。
(2)ドライエッチング用学習モデルによる処理の具体例
次に、学習部112内のドライエッチング用学習モデル420による処理の具体例について説明する。図7は、第1の実施形態に係る学習装置のドライエッチング用学習モデルによる処理の具体例を示す図である。図7に示すように、本実施形態では、ドライエッチング用学習モデル420として、U字型の畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)ベースの学習モデル(いわゆるUNET)を用いる。
UNETの場合、通常は、画像データを入力し、画像データを出力する。このため、学習部112の学習モデルとして当該UNETを用いることで、半導体製造プロセスの処理前後の画像データを入出力とすることができる。
一方で、UNETの場合、画像データの形式になっていないデータについては、画像データの形式に加工しておく必要がある。上記したデータ整形部111のパラメータデータ展開部512が、パラメータデータを2次元に配列するように構成されているのは、UNETに入力されるデータを、画像データの形式にするためである。パラメータデータの入力が可能となることで、UNETにおいても、物理モデルに基づくシミュレータにおいて実現されるシミュレーション内容を実現することができる。
図7の例は、UNETを用いたドライエッチング用学習モデル420に、連結データ620を入力し、複数のチャネル別データを含む出力結果700が出力された様子を示している。
なお、図7の例では、ドライエッチング用学習モデル420による処理の具体例について示したが、デポジション用学習モデル421による処理の具体例も同様である。
<シミュレーションシステムにおける学習処理の流れ>
次に、シミュレーションシステム100における学習処理の流れについて説明する。図8は、シミュレーションシステムにおける学習処理の流れを示すフローチャートである。
ステップS801において、シミュレーション装置130の実行部131は、シミュレーション装置130の管理者の指示に基づいて、ドライエッチング用シミュレータ310またはデポジション用シミュレータ320に、パラメータデータを設定する。
ステップS802において、シミュレーション装置130の実行部131は、処理前画像データ格納部132より処理前画像データを読み出す。また、実行部131は、ドライエッチング用シミュレータ310またはデポジション用シミュレータ320を用いてシミュレーションを実行する(処理後画像データを生成する)。
ステップS803において、シミュレーション装置130の実行部131は、学習用データを生成し、学習装置110に送信する。実行部131により生成される学習用データには、シミュレーション実行時に設定したパラメータデータ、シミュレーション実行時に入力した処理前画像データ、及び、シミュレーション実行時に生成した処理後画像データが含まれる。
ステップS804において、学習装置110のデータ整形部111は、学習用データに含まれる処理前画像データとパラメータデータとに基づき、連結データを生成する。
ステップS805において、学習装置110の学習部112は、連結データを入力、処理後画像データを出力として、学習モデルについて機械学習を行い、学習済みモデルを生成する。
ステップS806において、学習装置110の学習部112は生成した学習済みモデルを推論装置120に送信する。
<推論装置の機能構成>
次に、推論装置120の機能構成の詳細について説明する。なお、推論装置120の各部(データ整形部121、実行部122)のうち、データ整形部121の機能構成の詳細は、学習装置110のデータ整形部111の機能構成の詳細と同じである。そこで、データ整形部121の機能構成の詳細についての説明は、ここでは省略し、以下では、実行部122の機能構成の詳細について説明する。
図9は、推論装置の実行部の機能構成の一例を示す図である。図9に示すように、推論装置120の実行部122は、ドライエッチング用学習済みモデル920、デポジション用学習済みモデル921、出力部930を有する。
シミュレーション装置130より、例えば、学習用データ300として用いられていない処理前画像データがパラメータデータとともに推論装置120に送信されると、データ整形部121にでは連結データを生成し、実行部122の各学習済みモデルに入力する。図9の例は、学習用データ300として用いられていない処理前画像データとして、“ファイル名”=「形状データSD001」、「形状データSD002」、・・・等が推論装置120に送信された様子を示している。
なお、図9に示すとおり、当該処理前画像データ(例えば、“ファイル名”=「形状データSD001」、「形状データSD002」、・・・等)は、並行して、実行部131にも入力される。そして、実行部131では、各シミュレータを用いてシミュレーションを実行し、処理後画像データ(例えば、“ファイル名”=「形状データSD001’」、「形状データSD002’」、・・・等)を出力する。
ドライエッチング用学習済みモデル920は、データ整形部121にて生成された連結データが入力されると、シミュレーションを実行する。また、ドライエッチング用学習済みモデル920は、シミュレーションを実行したことで出力される出力結果を出力部930に通知する。
同様に、デポジション用学習済みモデル921は、データ整形部121にて生成された連結データが入力されると、シミュレーションを実行する。また、デポジション用学習済みモデル921は、シミュレーションを実行したことで出力される出力結果を出力部930に通知する。
出力部930は、ドライエッチング用学習済みモデル920より通知された出力結果から、処理後画像データ(例えば、“ファイル名”=「形状データSD001’’」)を生成し、シミュレーション結果として出力する。同様に、出力部930は、デポジション用学習済みモデル921より通知された出力結果から、処理後画像データ(例えば、“ファイル名”=「形状データSD101’’」)を生成し、シミュレーション結果として出力する。
ここで、推論装置120のユーザは、出力部930から処理後画像データが出力されるまでの時間と、実行部131から処理後画像データが出力されるまでの時間とを対比することにより、推論装置120のシミュレーション時間を検証することができる。また、推論装置120のユーザは、出力部930から出力された処理後画像データと、実行部131から出力された処理後画像データとを対比することにより、推論装置120のシミュレーション精度を検証することができる。
なお、第1の実施形態によれば、実行部122の各学習済みモデルによるシミュレーション時間は、実行部131の各シミュレータによるシミュレーション時間よりも短縮される。これは、各学習済みモデルによるシミュレーションの場合、各シミュレータによるシミュレーションのように、繰り返し試行を行う必要がなく、かつ、GPU204による並列処理により高速演算ができるからである。
また、第1の実施形態によれば、実行部122の各学習済みモデルは、実行部131の各シミュレータを代替可能なシミュレーション精度を実現することができる。これは、各学習済みモデルは、各シミュレータに入出力される処理前画像データ、処理後画像データを用いて機械学習されているからである。
図10は、ドライエッチング用学習済みモデルのシミュレーション精度を示した図である。このうち、図10の10aは、比較対象として、シミュレーション装置130のドライエッチング用シミュレータ310によりシミュレーションが実行された場合の、処理前画像データと処理後画像データとを示している。
一方、図10の10bは、推論装置120のドライエッチング用学習済みモデル920によりシミュレーションが実行された場合の、処理前画像データと処理後画像データとを示している。
図10の10aの処理後画像データと、図10の10bの処理後画像データとを対比すると、両者に差はない。したがって、ドライエッチング用学習済みモデル920は、ドライエッチング用シミュレータ310を代替可能なシミュレーション精度を有している、ということができる。
同様に、図11は、デポジション用学習済みモデルのシミュレーション精度を示した図である。このうち、図11の11aは、比較対象として、シミュレーション装置130のデポジション用シミュレータ320によりシミュレーションが実行された場合の、処理前画像データと処理後画像データとを示している。
一方、図11の11bは、推論装置120のデポジション用学習済みモデル921によりシミュレーションが実行された場合の、処理前画像データと処理後画像データとを示している。
図11の11aの処理後画像データと、図11の11bの処理後画像データとを対比すると、両者に差はない。したがって、デポジション用学習済みモデル921は、デポジション用シミュレータ320を代替可能なシミュレーション精度を有している、ということができる。
<まとめ>
以上の説明から明らかなように、第1の実施形態に係る学習装置は、
・物理モデルに基づくシミュレータに入力される処理前画像データと、物理モデルに基づくシミュレータに設定されたパラメータデータとを取得する。
・取得した処理前画像データの縦サイズ及び横サイズに応じて、取得したパラメータデータを2次元に配列することで画像データの形式に加工し、処理前画像データに、加工したパラメータデータを連結して連結データを生成する。
・生成した連結データをU字型の畳み込みニューラルネットワークベースの学習モデルに入力し、学習モデルより出力される出力結果が、物理モデルに基づくシミュレータより出力される処理後画像データに近づくように、機械学習を行う。
これにより、第1の実施形態に係る学習装置によれば、物理モデルに基づくシミュレータにおいて実現されるシミュレーション内容を実現する学習済みモデルを生成することができる。
また、第1の実施形態に係る学習装置によれば、物理モデルに基づくシミュレータよりも、シミュレーション時間を短縮することができる学習済みモデルを生成することができる。更に、第1の実施形態に係る学習装置によれば、物理モデルに基づくシミュレータを代替可能なシミュレーション精度を有する学習済みモデルを生成することができる。
なお、上記説明では、物理モデルに基づくシミュレータを対象としたが、物理モデルに基づかないシミュレータであっても、第1の実施形態に係る学習装置によれば、同様に、学習済みモデルを生成できることはいうまでもない。
また、第1の実施形態に係る推論装置は、
・処理前画像データと、対応するパラメータデータとを取得する。
・取得した処理前画像データの縦サイズ及び横サイズに応じて、取得したパラメータデータを2次元に配列することで画像データの形式に加工し、処理前画像データに、加工したパラメータデータを連結して連結データを生成する。
・生成した連結データを、学習装置にて生成された学習済みモデルに入力し、シミュレーションを実行する。
これにより、第1の実施形態に係る推論装置によれば、物理モデルに基づくシミュレータにおいて実現されるシミュレーション内容を実現することが可能になる。また、第1の実施形態に係る推論装置によれば、物理モデルに基づくシミュレータと比較して、シミュレーション時間を短縮することができるとともに、物理モデルに基づくシミュレータを代替可能なシミュレーション精度を実現することが可能になる。
なお、上記説明では、物理モデルに基づくシミュレータを対象としたが、物理モデルに基づかないシミュレータであっても、第1の実施形態に係る推論装置によれば、同様に、シミュレーション内容及びシミュレーション精度を実現できることはいうまでもない。
このように、第1の実施形態によれば、半導体製造プロセスのシミュレータを代替する学習済みモデルを提供することができる。
[第2の実施形態]
上記第1の実施形態では、処理前画像データの縦サイズ及び横サイズに応じて、パラメータデータを画像データの形式に加工し、処理前画像データと連結して学習モデル(または学習済みモデル)に入力するものとして説明した。
しかしながら、パラメータデータの加工方法及び加工したパラメータデータの学習モデル(または学習済みモデル)への入力方法は、これに限定されない。例えば、加工したパラメータデータは、学習モデル(または学習済みモデル)の各層に入力するように構成してもよい。また、パラメータデータは、学習モデル(または学習済みモデル)の各層に入力するにあたり、学習モデル(または学習済みモデル)の各層で畳み込み処理された画像データを変換する際に用いる所定の形式に加工するように構成してもよい。以下、第2の実施形態について、上記第1の実施形態との相違点を中心に説明する。
<データ整形部の機能構成>
はじめに、第2の実施形態に係る学習装置のデータ整形部の機能構成の詳細について説明する。図12は、第2の実施形態に係る学習装置のデータ整形部の機能構成の一例を示す図である。図5に示したデータ整形部111の機能構成との相違点は、図12に示すデータ整形部1200の場合、連結部1201と正規化部1202とを有している点である。
連結部1201は、チャネル別データ生成部502より通知された複数のチャネル別データを連結し、連結データを生成する。
正規化部1202は、パラメータデータ取得部511より通知されたパラメータデータを正規化し、正規化パラメータデータを生成する。
<学習モデルによる処理の具体例>
次に、ドライエッチング用学習モデルによる処理の具体例について説明する。図13は、第2の実施形態に係る学習装置のドライエッチング用学習モデルによる処理の具体例を示す図である。
図13に示すように、第2の実施形態に係る学習装置の場合、ドライエッチング用学習モデル1300には、データ整形部1200の連結部1201により生成された連結データ1310が入力される。
また、図13に示すように、第2の実施形態に係る学習装置の場合、ドライエッチング用学習モデル1300には、データ整形部1200の正規化部1202により生成された正規化パラメータデータが入力される。
なお、図13に示すように、ドライエッチング用学習モデル1300には、CNNベースの学習モデルであるUNETに加えて、全結合型の学習モデルであるニューラルネットワーク部1301が含まれる。
ニューラルネットワーク部1301は、正規化パラメータデータが入力されると、UNETの各層で畳み込み処理が行われる各画像データの各画素の値を変換する際に用いる所定の形式の値(例えば、1次式の係数γ、β)を出力する。つまり、ニューラルネットワーク部1301は、正規化パラメータデータを、所定の形式(例えば、1次式の係数の形式)に加工する機能を有する。
図13の例では、UNETが9層から構成されているため、ニューラルネットワーク部1301は、1次式の係数として、(γ,β)〜(γ,β)を出力する。なお、図13の例では、紙面の都合上、各層には、1次式の係数が1組ずつ入力されるものとしているが、各層には、チャネル別データごとに、1次式の係数が複数組ずつ入力されるものとする。
UNETの各層では、畳み込み処理が行われるチャネル別データごとの各画像データの各画素の値(ここでは“h”とする)を、例えば、1次式=h×γ+β(第1の層の場合には、h×γ+β)を用いて変換する。
ここで、1次式の係数(γ,β)〜(γ,β)は、例えば、UNETの各層において畳み込み処理が行われるチャネル別データごとの各画像データのうち、いずれの画像データが重要かを示す指標と捉えることができる。つまり、ニューラルネットワーク部1301では、正規化パラメータデータに基づいて、学習モデルの各層において処理される各画像データの、重要度を示す指標を算出する処理を行う。
上記のような構成のもと、ドライエッチング用学習モデル1300に、連結データ1310と正規化パラメータデータとが入力されると、複数のチャネル別データを含む出力結果700が出力される。なお、出力結果700は、比較部430にて処理後画像データと比較され、差分情報が算出される。第2の実施形態に係る学習装置の場合、変更部440は、差分情報に基づいて、ドライエッチング用学習モデル1300内の、UNETのモデルパラメータと、ニューラルネットワーク部1301のモデルパラメータとを更新する。
このように、第2の実施形態に係る学習装置によれば、ドライエッチング用学習モデル1300について機械学習を行う際、UNETの各層において、重要度が高い画像データを、正規化パラメータデータに基づいて抽出することが可能となる。
<まとめ>
以上の説明から明らかなように、第2の実施形態に係る学習装置は、
・物理モデルに基づくシミュレータに入力される処理前画像データと、物理モデルに基づくシミュレータに設定されたパラメータデータとを取得する。
・取得したパラメータデータを正規化し、学習モデルの各層で畳み込み処理される各画像データの各画素の値を変換する際に用いる1次式の係数の形式に加工する。
・学習部が機械学習を行う際、各層で畳み込み処理された画像データの各画素の値を、1次式を用いて変換する。
これにより、第2の実施形態に係る学習装置によれば、物理モデルに基づくシミュレータにおいて実現されるシミュレーション内容を実現する学習済みモデルを生成することができる。
また、第2の実施形態に係る学習装置によれば、物理モデルに基づくシミュレータよりも、シミュレーション時間を短縮することができる学習済みモデルを生成することができる。更に、第2の実施形態に係る学習装置によれば、物理モデルに基づくシミュレータを代替可能なシミュレーション精度を有する学習済みモデルを生成することができる。
なお、第2の実施形態では、学習装置について説明したが、推論装置においても、実行部がシミュレーションを実行する際に、同様の処理が行われるものとする。
このように、第2の実施形態によれば、半導体製造プロセスのシミュレーションにおいて、物理モデルに基づくシミュレータを代替する学習済みモデルを提供することができる。
[第3の実施形態]
上記第1及び第2の実施形態では、学習部が機械学習を行うにあたり、半導体製造プロセス固有の事象については特に言及しなかった。一方で、半導体製造プロセスには、固有の事象があり、学習部による機械学習に反映させることで(つまり、学習部による機械学習にドメイン知識を反映させることで)、シミュレーション精度を更に向上させることができる。以下、ドメイン知識を反映させた第3の実施形態について、上記第1及び第2の実施形態との相違点を中心に説明する。
<学習モデルの機能構成の詳細>
図14は、第3の実施形態に係る学習装置の学習部の機能構成の一例を示す図である。図4に示した学習部112の機能構成とは、学習モデル内の内部構成が異なる。なお、ここでは、ドライエッチング用学習モデル1410を用いて、学習モデル内の内部構成について説明するが、デポジション用学習モデルも同様の内部構成を有しているものとする。
図14に示すように、学習部1400のドライエッチング用学習モデル1410は、UNET1411に加えて、シグモイド関数部1412と、乗算部1413とを有する。
シグモイド関数部1412は処理部の一例であり、図14に示すように、UNET1411の出力である第1出力結果に、シグモイド関数1420を乗算することで、第2出力結果1421を出力する。
乗算部1413は、シグモイド関数部1412より第2出力結果1421を取得する。また、乗算部1413は、データ整形部111より処理前画像データを取得する。更に、乗算部1413は、取得した処理前画像データに、取得した第2出力結果1421を乗算することで、最終出力結果1422を比較部430に通知する。
このように、処理前画像データを乗算して最終出力結果1422を出力する構成とすることで、ドライエッチング用学習モデル1410を機械学習させた場合のUNET1411からは、第1出力結果として、削れ率を示す画像データが出力されることになる。
ここで削れ率とは、処理前画像データに含まれる各マテリアルの層が、処理後画像データにおいて、どの程度削られたかを示す変化率の値を指す。ドライエッチング用学習モデル1410を機械学習させることで、削れ率は、処理後画像データを処理前画像データで除算した値に近づくことになる。ただし、機械学習の過程でUNET1411から出力される第1出力結果は、任意の値をとる。
一方で、ドライエッチングの場合、形状の変化に関して、“処理の前後でマテリアルが増えることはない”という制約条件(ドメイン知識)がある。したがって、ドライエッチングの場合、削れ率は、0〜1の範囲に収まることになる。
ここで、シグモイド関数部1412は、任意の値を、0〜1の値に変換する関数であり、第1出力結果をシグモイド関数部1412で第2出力結果に変換することで、上記ドメイン知識を反映させることができる。
なお、図14には示していないが、デポジション用学習モデルにおいても、シグモイド関数部や乗算部等を配することで、同様の処理を行うことができる。具体的には、デポジション用学習モデルを機械学習させた場合のUNETからは、第1出力結果として、付着率を示す画像データが出力されることになる。
ここで付着率とは、処理前画像データに含まれる各マテリアルの層に対して、処理後画像データにおいて、どの程度薄膜が付着したかを示す変化率の値を指す。デポジション用学習モデルを機械学習させることで、付着率は、処理前画像データと処理後画像データとの差分を、処理前画像データで除算した値に近づくことになる。ただし、機械学習の過程でUNETから出力される第1出力結果は、任意の値をとる。
一方で、デポジションの場合、形状の変化に関して、“処理の前後でマテリアルが減ることはない”という制約条件(ドメイン知識)がある。したがって、デポジションの場合、付着率は、0〜1の範囲に収まることになる。
上述したとおり、シグモイド関数部は、任意の値を、0〜1の値に変換する関数であり、第1出力結果をシグモイド関数部で第2出力結果に変換することで、上記ドメイン知識を反映させることができる。
このように、第3の実施形態に係る学習装置110の学習部1400によれば、機械学習にドメイン知識を反映させることが可能となり、シミュレーション精度を更に向上させることができる。
[第4の実施形態]
上記第1乃至第3の実施形態では、データ整形部が、処理前画像データの縦サイズ及び横サイズに応じた縦サイズ及び横サイズの連結データを生成するものとして説明した。しかしながら、データ整形部が生成する連結データの縦サイズ及び横サイズは任意であり、処理前画像データを圧縮してから、連結データを生成するように構成してもよい。以下、第4の実施形態について、上記第1乃至第3の実施形態との相違点を中心に説明する。
<データ整形部の機能構成の詳細>
図15は、第4の実施形態に係る学習装置のデータ整形部の機能構成の一例を示す図である。このうち、図15の15aは、第1の実施形態に係る学習装置のデータ整形部111に、圧縮部1511を付加したデータ整形部1510を示している。
圧縮部1511は、形状データ取得部501において取得された処理前画像データを圧縮する。圧縮部1511では、例えば、隣接するn個(nは2以上の整数。例えば、縦方向2個×横方向2個の場合はn=4)の画素の画素値について平均値を算出し、算出した平均値を、当該n個の画素をまとめた1個の画素の画素値とする。これにより、圧縮部1511では、処理前画像データを1/n倍に圧縮することができる。
このように、圧縮部1511では、処理前画像データが各マテリアルの組成比(または含有比)を表した画像データであることに鑑みて、圧縮の前後で、マテリアルの組成比(または含有比)が極力維持されるように圧縮処理を行う。なお、圧縮部1511による圧縮処理の圧縮率は、整数倍に限定されず、圧縮部1511では、任意の圧縮率による圧縮処理が可能であるとする。
同様に、図15の15bは、第2の実施形態に係る学習装置のデータ整形部1200に、圧縮部1511を付加したデータ整形部1520を示している。
データ整形部1520が有する圧縮部1511は、データ整形部1510が有する圧縮部1511と同じ機能を有する。このため、ここでは、詳細な説明は省略する。
このように、データ整形部1510または1520に圧縮部1511を付加することで、学習部112、1400(あるいは、実行部122)に入力される連結データのサイズを縮小することができる。この結果、第4の実施形態によれば、学習部112、1400が機械学習を行う場合の学習時間、あるいは、実行部122がシミュレーションを実行する場合のシミュレーション時間を短縮することができる。
[その他の実施形態]
上記第1の実施形態では、学習部112に、ドライエッチング用学習モデル420と、デポジション用学習モデル421とをそれぞれ設け、異なる学習用データを用いて別々に機械学習を行うものとして説明した。
しかしながら、半導体製造プロセスにおいて、ドライエッチングとデポジションとが、同時に発生することもある。このような場合を想定して、学習部112に1の学習モデルを設け、ドライエッチングとデポジションとが同時に発生するケースを機械学習させるように構成してもよい。
この場合、学習部112では、当該1の学習モデルについて、ドライエッチング及びデポジションが発生する前の処理前画像データと、ドライエッチング及びデポジションが発生した後の処理後画像データとを含む学習用データを用いて機械学習を行う。
このように、シミュレーション装置130の実行部131の場合、ドライエッチング用シミュレータ310とデポジション用シミュレータ320の両方を設ける必要があったところ、学習装置110の学習部112では、学習モデルを統合することもできる。
また、上記第1の実施形態では、処理前画像データ及び処理後画像データが、2次元の画像データであるとして説明した。しかしながら、処理前画像データ及び処理後画像データは、2次元の画像データに限定されず、3次元の画像データ(いわゆるボクセルデータ)であってもよい。
なお、処理前画像データが2次元の画像データの場合、連結データは、(チャネル、縦サイズ、横サイズ)の配列となるが、処理前画像データが3次元の画像データの場合、連結データは、(チャネル、縦サイズ、横サイズ、奥行きサイズ)の配列となる。
また、上記第1の実施形態では、2次元の画像データをそのまま取り扱うものとして説明したが、2次元の画像データを変形して、あるいは、3次元の画像データを変形して取り扱うように構成してもよい。例えば、3次元の画像データを取得し、所定断面の2次元の画像データを生成して、処理前画像データとして入力してもよい。あるいは、連続する所定断面の2次元の画像データに基づいて、3次元の画像データを生成して、処理前画像データとして入力してもよい。
また、上記第1の実施形態において、チャネル別データ生成部502は、空気の層、各マテリアルの層ごとに、チャネル別データを生成するものとして説明した。しかしながら、チャネル別データの生成方法はこれに限定されず、特定の膜種ごとではなく、Oxide、Silicon、Organics、Nitrideといったように、より大きな分類に基づいて、チャネル別データを生成するようにしてもよい。
また、上記第1乃至第4の実施形態において、推論装置120は、処理前画像データ及びパラメータデータが入力された場合に、処理後画像データを出力して処理を終了するものとして説明した。しかしながら、推論装置120の構成はこれに限定されず、例えば、処理前画像データ及びパラメータデータが入力されることで出力される処理後画像データを、対応するパラメータデータとともに、再び、推論装置120に入力するように構成してもよい。これにより、推論装置120では、形状の変化を連続的に出力することができる。なお、推論装置120に処理後画像データを再び入力するにあたり、対応するパラメータデータは、任意に変更可能であるとする。
また、上記第1乃至第4の実施形態において、学習装置110と、推論装置120と、シミュレーション装置130とは別体として示したが、いずれか2台の装置を一体として構成してもよいし、すべての装置を一体として構成してもよい。
また、上記第1乃至第4の実施形態において、学習装置110は、1台のコンピュータで構成されるものとして説明したが、複数台のコンピュータで構成されていてもよい。同様に、上記第1乃至第4の実施形態において、推論装置120は、1台のコンピュータで構成されるものとして説明したが、複数台のコンピュータで構成されてもよい。
また、上記第1乃至第4の実施形態では、学習装置110、推論装置120、シミュレーション装置130を、半導体製造プロセスに適用するものとして説明したが、半導体製造プロセス以外の他のプロセスに適用してもよいことはいうまでもない。ここでいう、半導体製造プロセス以外の他のプロセスには、半導体製造プロセス以外の他の製造プロセス、非製造プロセスが含まれるものとする。
また、上記第1乃至第4の実施形態において、学習装置110、推論装置120は、汎用のコンピュータに各種プログラムを実行させることで実現したが、学習装置110、推論装置120の実現方法はこれに限定されない。
例えば、プロセッサ、メモリなどを実装しているIC(Integrated Circuit)などの専用の電子回路(すなわちハードウェア)により実現されてもよい。複数の構成要素が一つの電子回路で実現されてもよいし、一つの構成要素が複数の電子回路で実現されてもよいし、構成要素と電子回路が一対一で実現されてもよい。
なお、上記実施形態に挙げた構成等に、その他の要素との組み合わせ等、ここで示した構成に本発明が限定されるものではない。これらの点に関しては、本発明の趣旨を逸脱しない範囲で変更することが可能であり、その応用形態に応じて適切に定めることができる。
本出願は、2018年9月3日に出願された日本国特許出願第2018−164930号に基づきその優先権を主張するものであり、同日本国特許出願の全内容を参照することにより本願に援用する。
100 :シミュレーションシステム
110 :学習装置
111 :データ整形部
112 :学習部
120 :推論装置
121 :データ整形部
122 :実行部
130 :シミュレーション装置
131 :実行部
300 :学習用データ
310 :ドライエッチング用シミュレータ
320 :デポジション用シミュレータ
420 :ドライエッチング用学習モデル
421 :デポジション用学習モデル
430 :比較部
440 :変更部
501 :形状データ取得部
502 :チャネル別データ生成部
511 :パラメータデータ取得部
512 :パラメータデータ展開部
520 :連結部
600 :処理前画像データ
601〜605 :チャネル別データ
610 :パラメータデータ
611〜613 :2次元に配列されたパラメータデータ
620 :連結データ
700 :出力結果
920 :ドライエッチング用学習済みモデル
921 :デポジション用学習済みモデル
930 :出力部
1200 :データ整形部
1201 :連結部
1300 :ドライエッチング用学習モデル
1301 :ニューラルネットワーク部
1310 :連結データ
1400 :学習部
1510、1520 :データ整形部
1511 :圧縮部

Claims (19)

  1. 少なくとも1つのメモリと、
    少なくとも1つのプロセッサと、を備え、
    前記少なくとも1つのプロセッサは、
    処理前画像データと前記処理前画像データに対するシミュレータのパラメータを取得することと、
    前記処理前画像データと前記パラメータとを学習モデルに入力し、前記学習モデルの出力として得られる処理後画像データが、前記処理前画像データに対する前記シミュレータの結果として得られる処理後画像データに近づくように、前記学習モデルを学習することと
    を実行するよう構成される、
    学習装置。
  2. 前記少なくとも1つのプロセッサは、
    前記取得したパラメータを前記処理前画像データに応じた形式に加工すること、を更に実行するよう構成され、
    前記学習モデルに、前記加工されたパラメータを入力する、
    請求項1に記載の学習装置。
  3. 前記シミュレータが半導体製造プロセスに関するシミュレータである
    請求項1または請求項2に記載の学習装置。
  4. 前記処理前画像データは、前記半導体製造プロセスにおける処理対象のマテリアルに応じた複数のチャネルを有し、各チャネルは各マテリアルの組成比または含有比に応じた値を有する
    請求項3に記載の学習装置。
  5. 前記少なくとも1つのプロセッサは、
    前記取得したパラメータを、前記処理前画像データの縦サイズ及び横サイズに応じた2次元配列の形式に加工する、請求項2に記載の学習装置。
  6. 前記シミュレータは、物理モデルに基づくシミュレータである
    請求項1乃至5の何れか1項に記載の学習装置。
  7. 前記学習モデルは、前記取得したパラメータを、前記学習モデルの各層で畳み込み処理された前記処理前画像データを変換する際に用いる所定の形式に加工し、前記各層で畳み込み処理された前記処理前画像データを、前記加工されたパラメータを用いて変換する
    請求項1に記載の学習装置。
  8. 前記学習モデルは、前記処理前画像データに対する変化率を算出してから、前記学習モデルの出力として得られる処理後画像データを算出するよう構成されており、前記学習モデルは、前記処理前画像データに対する変化率を所定の範囲内に収めるための処理を行う、
    請求項1に記載の学習装置。
  9. 少なくとも1つのメモリと、
    少なくとも1つのプロセッサと、を備え、
    前記少なくとも1つのメモリは、
    第1の処理前画像データと前記第1の処理前画像データに対するシミュレータの第1のパラメータとが入力された場合の出力として得られる第1の処理後画像データが、前記第1の処理前画像データに対する前記第1のパラメータを用いた前記シミュレータの結果として得られる第1の処理後画像データに近づくように学習された学習済みモデルを記憶し、
    前記少なくとも1つのプロセッサは、
    第2の処理前画像データと前記シミュレータの第2のパラメータとを取得し、
    前記第2の処理前画像データと前記シミュレータの前記第2のパラメータとを前記学習済みモデルに入力し、前記第2の処理前画像データに対するシミュレーションを実行するよう構成される、
    推論装置。
  10. 前記少なくとも1つのプロセッサは、
    前記第2のパラメータを前記第2の処理前画像データに応じた形式に加工すること、を更に実行するよう構成され、
    前記学習済みモデルに、前記加工された第2のパラメータを入力する、
    請求項9に記載の推論装置。
  11. 前記シミュレータが半導体製造プロセスに関するシミュレータである
    請求項9または請求項10に記載の推論装置。
  12. 前記第2の処理前画像データは、前記半導体製造プロセスにおける処理対象のマテリアルに応じた複数のチャネルを有し、各チャネルは各マテリアルの組成比または含有比に応じた値を有する
    請求項11に記載の推論装置。
  13. 前記少なくとも1つのプロセッサは、
    前記第2のパラメータを、前記第2の処理前画像データの縦サイズ及び横サイズに応じた2次元配列の形式に加工する、請求項10に記載の推論装置。
  14. 前記シミュレータは、物理モデルに基づくシミュレータである
    請求項9乃至13の何れか1項に記載の推論装置。
  15. 前記学習済みモデルは、前記第2のパラメータを、前記学習済みモデルの各層で畳み込み処理された前記第2の処理前画像データを変換する際に用いる所定の形式に加工し、前記各層で畳み込み処理された前記第2の処理前画像データを、前記加工された第2のパラメータを用いて変換する
    請求項9に記載の推論装置。
  16. 前記学習済みモデルは、前記第2の処理前画像データに対する変化率を算出してから、前記学習済みモデルの出力として得られる第2の処理後画像データを算出するよう構成されており、前記学習済みモデルは、前記第2の処理前画像データに対する変化率を所定の範囲内に収めるための処理を行う、
    請求項9に記載の推論装置。
  17. 前記少なくとも1つのプロセッサは、
    前記第2の処理前画像データに対するシミュレーションを実行することにより得られた第3の処理後画像データと前記シミュレータの第3のパラメータとを前記学習済みモデルに入力し、前記第3の処理後画像データに対するシミュレーションを実行する、
    請求項9乃至16の何れか1項に記載の推論装置。
  18. 少なくとも1つのプロセッサが、
    処理前画像データと前記処理前画像データに対するシミュレータのパラメータを取得することと、
    前記処理前画像データと前記パラメータとを学習モデルに入力し、前記学習モデルの出力として得られる処理後画像データが、前記処理前画像データに対する前記シミュレータの結果として得られる処理後画像データに近づくように、前記学習モデルを学習することと
    を実行する学習モデルの生成方法。
  19. 少なくとも1つのメモリが、
    第1の処理前画像データと前記第1の処理前画像データに対するシミュレータの第1のパラメータとが入力された場合の出力として得られる第1の処理後画像データが、前記第1の処理前画像データに対する前記第1のパラメータを用いた前記シミュレータの結果として得られる第1の処理後画像データに近づくように学習された学習済みモデルを記憶し、
    少なくとも1つのプロセッサが、
    第2の処理前画像データと前記シミュレータの第2のパラメータとを取得し、
    前記第2の処理前画像データと前記シミュレータの前記第2のパラメータとを前記学習済みモデルに入力し、前記第2の処理前画像データに対するシミュレーションを実行する、
    推論方法。
JP2020503074A 2018-09-03 2019-08-15 学習装置、推論装置、学習モデルの生成方法及び推論方法 Active JP6724267B1 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018164930 2018-09-03
JP2018164930 2018-09-03
PCT/JP2019/032025 WO2020049974A1 (ja) 2018-09-03 2019-08-15 学習装置、推論装置、学習モデルの生成方法及び推論方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020108905A Division JP7291670B2 (ja) 2018-09-03 2020-06-24 推論方法、推論プログラム、モデル生成方法、モデル生成プログラム、推論装置及び学習装置

Publications (2)

Publication Number Publication Date
JP6724267B1 true JP6724267B1 (ja) 2020-07-15
JPWO2020049974A1 JPWO2020049974A1 (ja) 2020-09-10

Family

ID=69722906

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020503074A Active JP6724267B1 (ja) 2018-09-03 2019-08-15 学習装置、推論装置、学習モデルの生成方法及び推論方法
JP2020108905A Active JP7291670B2 (ja) 2018-09-03 2020-06-24 推論方法、推論プログラム、モデル生成方法、モデル生成プログラム、推論装置及び学習装置

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2020108905A Active JP7291670B2 (ja) 2018-09-03 2020-06-24 推論方法、推論プログラム、モデル生成方法、モデル生成プログラム、推論装置及び学習装置

Country Status (5)

Country Link
US (1) US12033311B2 (ja)
JP (2) JP6724267B1 (ja)
KR (1) KR102513707B1 (ja)
CN (1) CN112640037A (ja)
WO (1) WO2020049974A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW202243069A (zh) * 2020-12-28 2022-11-01 日商東京威力科創股份有限公司 參數導出裝置、參數導出方法及參數導出程式
JP2023045817A (ja) 2021-09-22 2023-04-03 株式会社Screenホールディングス 学習装置、情報処理装置、基板処理装置、基板処理システム、学習方法、レシピ決定方法及び学習プログラム
JP2023046032A (ja) * 2021-09-22 2023-04-03 キヤノン株式会社 解析方法
JP2023056708A (ja) * 2021-10-08 2023-04-20 東京エレクトロン株式会社 エッチング処理システム、エッチング品質予測方法及びエッチング品質予測プログラム
WO2024005047A1 (ja) * 2022-07-01 2024-01-04 東京エレクトロン株式会社 基板処理装置の制御方法及び基板処理システム
JP2024047495A (ja) * 2022-09-26 2024-04-05 株式会社Screenホールディングス 学習装置、情報処理装置、基板処理装置、基板処理システム、学習方法および処理条件決定方法

Citations (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06224126A (ja) * 1993-01-25 1994-08-12 Fuji Electric Co Ltd 半導体製造装置の膜質予測装置
JPH11330449A (ja) * 1998-05-20 1999-11-30 Toshiba Corp 半導体装置の製造方法、シミュレーション装置、シミュレーション方法、シミュレーションプログラムを記録した記録媒体、及びシミュレーション用データを記録した記録媒体
JP2004040004A (ja) * 2002-07-08 2004-02-05 Renesas Technology Corp 配線設計データを利用した化学的機械的研磨方法、加工物の製造方法、およびデザインルール決定方法
JP2004153229A (ja) * 2002-03-14 2004-05-27 Nikon Corp 加工形状の予測方法、加工条件の決定方法、加工量予測方法、加工形状予測システム、加工条件決定システム、加工システム、加工形状予測計算機プログラム、加工条件決定計算機プログラム、プログラム記録媒体、及び半導体デバイスの製造方法
JP2007507888A (ja) * 2003-09-30 2007-03-29 東京エレクトロン株式会社 半導体製造プロセスを制御するために第1の原理シミュレーションを用いたシステム及び方法。
JP2007227618A (ja) * 2006-02-23 2007-09-06 Hitachi High-Technologies Corp 半導体プロセスモニタ方法およびそのシステム
JP2010079896A (ja) * 2008-09-25 2010-04-08 Internatl Business Mach Corp <Ibm> 集積回路設計中の製造の影響の高速シミュレーションを行なうための装置、方法及びコンピュータ・プログラム
JP2011071296A (ja) * 2009-09-25 2011-04-07 Sharp Corp 特性予測装置、特性予測方法、特性予測プログラムおよびプログラム記録媒体
JP2013518449A (ja) * 2010-01-29 2013-05-20 東京エレクトロン株式会社 半導体製造ツールを自己学習及び自己改善するための方法及びシステム
JP2016071597A (ja) * 2014-09-30 2016-05-09 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
US20170194126A1 (en) * 2015-12-31 2017-07-06 Kla-Tencor Corporation Hybrid inspectors
JP2017182129A (ja) * 2016-03-28 2017-10-05 ソニー株式会社 情報処理装置。
JP2018049936A (ja) * 2016-09-21 2018-03-29 株式会社日立製作所 探索装置および探索方法
JP2019030648A (ja) * 2017-08-09 2019-02-28 学校法人東京女子医科大学 線量分布予測システム、線量分布予測方法及び線量分布予測プログラム
US20190257767A1 (en) * 2018-02-21 2019-08-22 Applied Materials Israel Ltd. Generating a training set usable for examination of a semiconductor specimen
JP2019219756A (ja) * 2018-06-15 2019-12-26 国立研究開発法人理化学研究所 制御装置、制御方法、プログラム、ならびに、情報記録媒体

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020085688A (ko) 2001-05-09 2002-11-16 학교법인 인하학원 반도체 식각 공정 모의 실험 해석기 및 해석 방법
US6819427B1 (en) * 2001-10-10 2004-11-16 Advanced Micro Devices, Inc. Apparatus of monitoring and optimizing the development of a photoresist material
KR20040080742A (ko) 2003-03-13 2004-09-20 원태영 식각 공정 시뮬레이션의 병렬 연산 구현 방법
JP2005202949A (ja) 2003-12-01 2005-07-28 Oscillated Recall Technology:Kk 大域的エッチングシミュレータ
US8722547B2 (en) * 2006-04-20 2014-05-13 Applied Materials, Inc. Etching high K dielectrics with high selectivity to oxide containing layers at elevated temperatures with BC13 based etch chemistries
US9245714B2 (en) * 2012-10-01 2016-01-26 Kla-Tencor Corporation System and method for compressed data transmission in a maskless lithography system
JP6173889B2 (ja) 2013-11-28 2017-08-02 ソニーセミコンダクタソリューションズ株式会社 シミュレーション方法、シミュレーションプログラム、加工制御システム、シミュレータ、プロセス設計方法およびマスク設計方法
US10056304B2 (en) * 2014-11-19 2018-08-21 Deca Technologies Inc Automated optical inspection of unit specific patterning
US9965901B2 (en) 2015-11-19 2018-05-08 KLA—Tencor Corp. Generating simulated images from design information
KR102160217B1 (ko) * 2015-12-22 2020-09-28 에이에스엠엘 네델란즈 비.브이. 프로세스-윈도우 특성화를 위한 장치 및 방법
KR102215873B1 (ko) * 2017-10-17 2021-02-16 가부시키가이샤 아루박 피처리체의 처리 장치
CN107909114B (zh) * 2017-11-30 2020-07-17 深圳地平线机器人科技有限公司 训练有监督机器学习的模型的方法和装置
CN107945175A (zh) * 2017-12-12 2018-04-20 百度在线网络技术(北京)有限公司 图像的评价方法、装置、服务器及存储介质
US10572697B2 (en) * 2018-04-06 2020-02-25 Lam Research Corporation Method of etch model calibration using optical scatterometry

Patent Citations (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06224126A (ja) * 1993-01-25 1994-08-12 Fuji Electric Co Ltd 半導体製造装置の膜質予測装置
JPH11330449A (ja) * 1998-05-20 1999-11-30 Toshiba Corp 半導体装置の製造方法、シミュレーション装置、シミュレーション方法、シミュレーションプログラムを記録した記録媒体、及びシミュレーション用データを記録した記録媒体
JP2004153229A (ja) * 2002-03-14 2004-05-27 Nikon Corp 加工形状の予測方法、加工条件の決定方法、加工量予測方法、加工形状予測システム、加工条件決定システム、加工システム、加工形状予測計算機プログラム、加工条件決定計算機プログラム、プログラム記録媒体、及び半導体デバイスの製造方法
JP2004040004A (ja) * 2002-07-08 2004-02-05 Renesas Technology Corp 配線設計データを利用した化学的機械的研磨方法、加工物の製造方法、およびデザインルール決定方法
JP2007507888A (ja) * 2003-09-30 2007-03-29 東京エレクトロン株式会社 半導体製造プロセスを制御するために第1の原理シミュレーションを用いたシステム及び方法。
JP2007227618A (ja) * 2006-02-23 2007-09-06 Hitachi High-Technologies Corp 半導体プロセスモニタ方法およびそのシステム
JP2010079896A (ja) * 2008-09-25 2010-04-08 Internatl Business Mach Corp <Ibm> 集積回路設計中の製造の影響の高速シミュレーションを行なうための装置、方法及びコンピュータ・プログラム
JP2011071296A (ja) * 2009-09-25 2011-04-07 Sharp Corp 特性予測装置、特性予測方法、特性予測プログラムおよびプログラム記録媒体
JP2013518449A (ja) * 2010-01-29 2013-05-20 東京エレクトロン株式会社 半導体製造ツールを自己学習及び自己改善するための方法及びシステム
JP2016071597A (ja) * 2014-09-30 2016-05-09 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
US20170194126A1 (en) * 2015-12-31 2017-07-06 Kla-Tencor Corporation Hybrid inspectors
JP2017182129A (ja) * 2016-03-28 2017-10-05 ソニー株式会社 情報処理装置。
JP2018049936A (ja) * 2016-09-21 2018-03-29 株式会社日立製作所 探索装置および探索方法
JP2019030648A (ja) * 2017-08-09 2019-02-28 学校法人東京女子医科大学 線量分布予測システム、線量分布予測方法及び線量分布予測プログラム
US20190257767A1 (en) * 2018-02-21 2019-08-22 Applied Materials Israel Ltd. Generating a training set usable for examination of a semiconductor specimen
JP2019219756A (ja) * 2018-06-15 2019-12-26 国立研究開発法人理化学研究所 制御装置、制御方法、プログラム、ならびに、情報記録媒体

Also Published As

Publication number Publication date
CN112640037A (zh) 2021-04-09
JP7291670B2 (ja) 2023-06-15
TW202024377A (zh) 2020-07-01
JP2020191096A (ja) 2020-11-26
US12033311B2 (en) 2024-07-09
KR102513707B1 (ko) 2023-03-23
KR20210036391A (ko) 2021-04-02
US20210183051A1 (en) 2021-06-17
JPWO2020049974A1 (ja) 2020-09-10
WO2020049974A1 (ja) 2020-03-12

Similar Documents

Publication Publication Date Title
JP6724267B1 (ja) 学習装置、推論装置、学習モデルの生成方法及び推論方法
JP7190495B2 (ja) 推論方法、推論装置、モデルの生成方法及び学習装置
WO2018171717A1 (zh) 面向神经网络处理器的自动化设计方法和***
US10102316B2 (en) Virtual reality authoring method
JP2018173843A (ja) 情報処理装置、情報処理方法、及びプログラム
CN109948680B (zh) 病历数据的分类方法及***
JP2015197702A (ja) 情報処理装置、情報処理方法
US20230136021A1 (en) Method and system for three-dimensional modeling
JP2017068608A (ja) 演算装置、方法及びプログラム
CN114418946A (zh) 一种医学图像分割方法、***、终端以及存储介质
Shi et al. Cranial implant design through multiaxial slice inpainting using deep learning
Li et al. A generative design method for structural topology optimization via transformable triangular mesh (TTM) algorithm
CN113158970B (zh) 一种基于快慢双流图卷积神经网络的动作识别方法与***
US20220405561A1 (en) Electronic device and controlling method of electronic device
TWI840403B (zh) 學習裝置、推論裝置、學習模型的生成方法及推論方法
CN116957018A (zh) 一种逐通道卷积的实现方法
CN115294361A (zh) 一种特征提取的方法及装置
JP7107797B2 (ja) 情報処理方法及び情報処理システム
Wu et al. SpeedER: A Supervised Encoder-Decoder Driven Engine for Effective Resistance Estimation of Power Delivery Networks
JP6633267B2 (ja) 次元削減装置、方法及びプログラム
US20240127440A1 (en) Manufacturing method of learning model, learning model, estimation method, image processing system, and program
US20240202910A1 (en) Method and apparatus with semiconductor image processing
JP2024086148A (ja) 構造解析プログラム、構造解析方法および情報処理装置
CN114170102A (zh) 图像修复方法及装置、计算机可存储介质
CN117892685A (zh) 一种用于eda验证的数据处理方法、装置和介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200121

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200121

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200325

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200414

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200422

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200609

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200624

R150 Certificate of patent or registration of utility model

Ref document number: 6724267

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250