JP7453552B2 - Defect evaluation method and program - Google Patents
Defect evaluation method and program Download PDFInfo
- Publication number
- JP7453552B2 JP7453552B2 JP2020202952A JP2020202952A JP7453552B2 JP 7453552 B2 JP7453552 B2 JP 7453552B2 JP 2020202952 A JP2020202952 A JP 2020202952A JP 2020202952 A JP2020202952 A JP 2020202952A JP 7453552 B2 JP7453552 B2 JP 7453552B2
- Authority
- JP
- Japan
- Prior art keywords
- defect
- area
- evaluation
- captured image
- pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000007547 defect Effects 0.000 title claims description 231
- 238000011156 evaluation Methods 0.000 title claims description 140
- 238000000034 method Methods 0.000 claims description 25
- 238000013528 artificial neural network Methods 0.000 claims description 22
- 238000001514 detection method Methods 0.000 claims description 21
- 238000007689 inspection Methods 0.000 claims description 17
- 238000003384 imaging method Methods 0.000 claims description 14
- 239000000523 sample Substances 0.000 claims description 9
- 238000012549 training Methods 0.000 claims description 6
- 239000000758 substrate Substances 0.000 claims description 3
- 239000000284 extract Substances 0.000 claims 1
- 230000002950 deficient Effects 0.000 description 8
- 238000013135 deep learning Methods 0.000 description 4
- 238000000605 extraction Methods 0.000 description 4
- 230000005484 gravity Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000005286 illumination Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Landscapes
- Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
Description
本発明は、欠陥評価方法及び欠陥評価方法を実行させるためのプログラムに関する。 The present invention relates to a defect evaluation method and a program for executing the defect evaluation method.
評価対象物を例えばCMOS( Complementary Metal OxideSemiconductor)カメラなどによって撮像し、得られた撮像画像を処理して評価対象物に発生している欠陥を評価することが行われている。 2. Description of the Related Art An evaluation target object is imaged using, for example, a CMOS (Complementary Metal Oxide Semiconductor) camera, and the obtained captured image is processed to evaluate defects occurring in the evaluation target object.
欠陥を評価する手法としては、ディープラーニングと呼ばれる手法を利用することが知られている(例えば、下記特許文献1参照)。 As a method for evaluating defects, it is known to use a method called deep learning (for example, see Patent Document 1 below).
特許文献1では、評価対象物を撮像して得られた撮像画像に基づいて欠陥の特徴量(欠陥の濃淡、色などの特徴、幾何学的特徴)を算出し、これら特徴量に基づいてディープラーニングの手法を用いて評価対象物に発生している欠陥を評価したり、撮像画像から抽出された欠陥の属性に基づいて、ルールベースシステムを用いて欠陥を評価することが記載されている。 In Patent Document 1, feature quantities of defects (features such as shading and color of the defect, geometric features) are calculated based on a captured image obtained by capturing an image of an evaluation target, and deep image processing is performed based on these feature quantities. It is described that a learning method is used to evaluate defects occurring in an object to be evaluated, and a rule-based system is used to evaluate defects based on attributes of defects extracted from captured images.
ディープラーニングによる欠陥評価では、教師データを用いた学習によって欠陥の濃淡や色などの特徴や幾何学的な特徴量を自動抽出し、これら特徴量が反映されたニューラルネットワークを用いて評価対象物の欠陥を評価する。 In defect evaluation using deep learning, features such as shading and color of defects and geometric features are automatically extracted by learning using training data, and a neural network that reflects these features is used to evaluate the evaluation target. Evaluate defects.
このようなディープラーニングによる欠陥評価では、教師データを用いた学習により複雑な形状の欠陥についても対応しやすいが、形状に規則性が無い欠陥の検出が困難であったり、教師データの選定やハイパーパラメータの調整が困難であったり、欠陥の評価基準が分からないため、評価結果の信頼性に乏しいという問題がある。 In defect evaluation using deep learning, it is easy to deal with defects with complex shapes by learning using training data, but it is difficult to detect defects with irregular shapes, and it is difficult to select training data and There is a problem that the reliability of the evaluation results is low because it is difficult to adjust the parameters and the evaluation criteria for defects are unknown.
ルールベースシステムによる欠陥評価では、評価基準の調整が可能であるが、想定した欠陥に対して個々に評価ルールを作成する必要があり、評価ルールの設定に手間がかかる。 In defect evaluation using a rule-based system, it is possible to adjust the evaluation criteria, but it is necessary to create evaluation rules for each assumed defect, which takes time and effort.
本発明は、上記の点に鑑みてなされたものであり、評価ルールの設定を簡略化しつつ、評価対象物の撮像画像に基づいて評価対象物の欠陥を適切に評価することができる欠陥評価方法及び欠陥評価方法を実行させるためのプログラムを提供することを目的とする。 The present invention has been made in view of the above points, and provides a defect evaluation method that can appropriately evaluate defects of an evaluation target based on a captured image of the evaluation target while simplifying the setting of evaluation rules. and a program for executing the defect evaluation method.
本発明にかかる欠陥評価方法は、評価対象物を撮像して得た撮像画像に基づいて、前記評価対象物に発生している欠陥を評価する欠陥評価方法において、前記撮像画像から前記評価対象物に発生している欠陥の評価を行う評価対象領域を抽出し、第1欠陥の形状を学習した第1のディープニューラルネットワークを用いて、前記評価対象領域から前記第1欠陥に対応する画素領域である第1欠陥領域を取得し、前記評価対象領域から前記第1欠陥領域を除外した評価実施領域を設定し、前記評価実施領域から第2欠陥に対応する画素領域である第2欠陥領域を取得し、取得した前記第2欠陥領域の属性に基づいて、ルールベースシステムを用いて前記評価対象物に発生している欠陥を評価する欠陥評価方法であって、前記評価対象物が、基板であり、前記第1欠陥が、前記基板のランドに形成されたプローブ痕であり、前記ランドに対応する画素領域を、前記評価対象領域として抽出する方法である。 A defect evaluation method according to the present invention is a defect evaluation method for evaluating defects occurring in an evaluation object based on a captured image obtained by capturing an image of the evaluation object. A first deep neural network that has learned the shape of the first defect is extracted from the evaluation target area and a pixel area corresponding to the first defect is extracted from the evaluation target area. A certain first defect area is acquired, an evaluation implementation area is set by excluding the first defect area from the evaluation target area , and a second defect area that is a pixel area corresponding to a second defect is acquired from the evaluation implementation area. and a defect evaluation method for evaluating defects occurring in the evaluation object using a rule-based system based on the acquired attributes of the second defect area , wherein the evaluation object is a board. In this method, the first defect is a probe mark formed on a land of the substrate, and a pixel area corresponding to the land is extracted as the evaluation target area.
本発明によれば、評価ルールの設定を簡略化しつつ、評価対象物の撮像画像に基づいて評価対象物の欠陥を適切に評価することができる。 According to the present invention, it is possible to appropriately evaluate defects of an evaluation target based on a captured image of the evaluation target while simplifying the setting of evaluation rules.
以下、本発明の一実施形態について図面を参照して説明する。 Hereinafter, one embodiment of the present invention will be described with reference to the drawings.
(1)評価装置10の構成
本実施形態は、図1に示すような評価装置10を用いて、評価対象物である図2に例示するプリント基板P上に設けられたランドLの表面に発生している欠陥を評価する場合について説明する。
(1) Configuration of the
プリント基板Pは、評価装置10による評価の前に、ランドLにプローブを接触させて導通試験が行われている。そのため、プリント基板PのランドLの表面には、プローブを接触させたときに発生したプローブ痕(以下、これを第1欠陥という)F1と、それ以外の欠陥、例えばランドLを構成する金属膜の形成過程で発生した表面欠陥(以下、プローブ痕以外の欠陥を纏めて第2欠陥という)F2が存在することがある。第1欠陥F1はランドLの導通に影響がほとんど無いが、第2欠陥F2はその種類やサイズによってはランドLの導通に影響が大きい場合もある。そこで、評価装置10は、第2欠陥F2に基づいてプリント基板PのランドLに発生している欠陥を評価する。
Before the printed circuit board P is evaluated by the
評価装置10は、プリント基板Pの画像を取得する撮像部11と、撮像部11を制御するとともに撮像部11が取得した撮像画像を用いてデータ処理を行う制御部20とを含んで構成されている。
The
撮像部11は、プリント基板Pを載置するステージ12を有する。ステージ12は、直交する2方向にプリント基板Pを水平移動可能なXステージ13とYステージ14と、プリント基板Pをステージ12上に保持する不図示の保持機構を備える。
The
また、撮像部11は、プリント基板Pの上方に配置されるCMOSセンサ等の画像センサを有するカメラ15と、プリント基板Pを照らす照明装置16とが設けられている。カメラ15は、制御部20に接続されており、撮像して得られたプリント基板Pの撮像画像データを制御部20へ出力する。
Further, the
制御部20は、プログラムを実行するCPUや、プログラムを格納したROM(Read Only Memory)や、プログラムを展開するRAM(Random Access Memory)などを備える。制御部20は、各種データを格納する記憶装置(記録媒体)26に接続され、必要に応じて、データを表示する表示部やデータを入力する入力部に接続されている。
The
制御部20は、CPUがランドLの表面に発生している欠陥を評価するためのプログラムを実行することによって、カメラ制御部21、領域抽出部22、第1欠陥決定部23、検出部24及び評価部25を仮想的に実現し、これにより、プリント基板PのランドLの表面に発生している第2欠陥F2を評価する。
The
(2)評価装置10の制御
次に、評価装置10において実行される欠陥の評価方法について、図3~図6を参照して説明する。
(2) Control of the
ステップS1において、ステージ12上にプリント基板Pが載置されると、カメラ制御部21は、撮像部11を構成する各部12,13,14,15,16を制御することで、プリント基板Pをカメラ15の下方に配置し、照明装置16でプリント基板Pを照明しながら、カメラ15でプリント基板Pを撮像して撮像画像を取得する。取得したプリント基板Pの撮像画像は記憶装置26に記憶される。なお、カメラ15は、ランドLだけでなくプリント基板Pの表面全体を撮像してもよい。
In step S1, when the printed circuit board P is placed on the
次いで、ステップS2において、領域抽出部22は、カメラ15が撮像したプリント基板Pの撮像画像について、事前に形状及び大きさが設定された認識パターンを用いてパターンマッチングによって、ランドLに対応する画素領域を抽出し、抽出した画素領域を評価対象領域R0として記憶装置26に記憶する(図4(a)参照)。このとき、抽出した評価対象領域R0の向きを一定に揃えておくことが好ましい。これにより、領域抽出部22において、所定位置及び所定の向きに位置決めされた画素領域が評価対象領域R0として得られる。
Next, in step S2, the
次いで、ステップS3において、第1欠陥決定部23は、第1のディープニューラルネットワークを使用して評価対象領域R0を解析することで、評価対象領域R0の中から第1欠陥F1の形状に対応する画素領域を取得する。第1のディープニューラルネットワークとしては、予めプリント基板Pを撮像して得た撮像画像に基づいて当該プリント基板PのランドLに発生している第1欠陥F1の形状を学習したニューラルネットワークを用いることができ、例えば畳み込みニューラルネットワークを用いることができる。
Next, in step S3, the first
なお、第1欠陥決定部23は、評価対象領域R0の中から第1欠陥F1の形状に対応する画素領域に加え、あるいは第1欠陥F1の形状に対応する画素領域に代えて、第1欠陥F1の重心位置に対応する画素領域を取得してもよい。
Note that the first
第1欠陥決定部23は、例えば、周期的に、評価装置10がプリント基板Pの評価を行っていない期間に、または、新たな教師データが追加されたときに、など所定の条件を満たした際に、第1のディープニューラルネットワークに第1欠陥F1の形状を再学習してもよい。その再学習において、前回の再学習のとき以降の欠陥評価に使用した撮像画像、つまり、前回の再学習のとき以降に上記ステップS1において取得した撮像画像や上記ステップS2において抽出した評価対象領域R0を教師データとして使用してもよい。
The first
第1欠陥F1のようなプローブ痕をランドLに発生させるプローブは、使用時間の経過と共にその形状が変化するため、ランドLに発生する第1欠陥F1の形状的特徴が、複数のプリント基板Pを検査している中で変化する。上記の再学習を行うことで、このような第1欠陥F1の形状的特徴の変化を考慮することができ、より正確に第1欠陥F1を検出することができるようになる。 Since the shape of the probe that generates probe marks such as the first defect F1 on the land L changes over time, the shape characteristics of the first defect F1 that occurs on the land L may be different from those of the plurality of printed circuit boards P. changes during inspection. By performing the above-mentioned relearning, such changes in the shape characteristics of the first defect F1 can be taken into consideration, and the first defect F1 can be detected more accurately.
また、第1のディープニューラルネットワークに第1欠陥F1の形状を学習させる際に、
教師データとなる撮像画像を所定の向きに位置決めしたデータを用いることが好ましい。
In addition, when making the first deep neural network learn the shape of the first defect F1,
It is preferable to use data obtained by positioning a captured image serving as teacher data in a predetermined direction.
そして、ステップS4において、第1欠陥決定部23は、取得した情報に基づいて第1欠陥領域R1を設定する。ここでは、第1欠陥決定部23は、取得した第1欠陥F1に対応する画素領域を所定画素数だけ外側へ拡張した領域を第1欠陥領域R1に設定し、これを記憶装置26に保存する(図4(b)参照)。
Then, in step S4, the first
次いで、ステップS5において、検出部24は、評価対象領域R0から第1欠陥領域R1を除外した領域を、欠陥の評価を行う評価実施領域R2に設定し、これを記憶装置26に保存する(図4(c)参照)。
Next, in step S5, the
そして、ステップS6において、検出部24は、評価実施領域R2について図5に示すような第2欠陥領域取得処理を実行して第2欠陥F2に対応する画素領域を取得し、取得した画素領域を第2欠陥領域R3として記憶装置26に記憶する。
Then, in step S6, the
第2欠陥領域取得処理では、まず、ステップS61において、検出部24が、あらかじめ第2欠陥F2の形状を学習した第2のディープニューラルネットワークを使用して評価実施領域R2を解析することで、評価実施領域R2の中から第2欠陥F2の重心位置に対応する画素領域を取得し、取得した画素領域を重心領域G2として記憶装置26に記憶する。なお、評価実施領域R2に複数の第2欠陥F2があれば、各第2欠陥F2について重心領域を取得して記憶装置26に記憶する。
In the second defect area acquisition process, first, in step S61, the
その後、検出部24は、重心領域に基づいて第2欠陥F2の形状に対応する画素領域を特定する。ここでは、検出部24は、重心領域G2を検査領域の開始点に設定した後、所定条件を満たすまで検査領域を漸次拡大する領域拡張法を実行して、第2欠陥F2の形状に対応する画素領域を取得し、これを第2欠陥領域R3として記憶装置26に保存する。
Thereafter, the
ここでは、領域拡張法の一例として、検査領域内から第2欠陥F2に対応する画素領域である第2欠陥候補領域を検出する第2欠陥候補領域検出ステップと、検出された第2欠陥候補領域を拡張したものを新たな検査領域とする検査領域更新ステップと、を所定条件を満たすまで順次繰り返し実行することで第2欠陥領域R3を取得する。 Here, as an example of the area expansion method, a second defect candidate area detection step of detecting a second defect candidate area which is a pixel area corresponding to the second defect F2 from within the inspection area, and a second defect candidate area detected The second defect area R3 is obtained by sequentially and repeatedly executing the step of updating the inspection area in which the expanded area is set as a new inspection area until a predetermined condition is satisfied.
具体的には、ステップS62において、検出部24は、第2欠陥F2の重心領域G2を含むように検査領域K0を設定する(図6(a)参照)。
Specifically, in step S62, the
そして、ステップS63において、検出部24は、検査領域K0に存在する第2欠陥F2に対応する画素領域である第2欠陥候補領域B0と、第2欠陥候補領域B0の画素数を検出する(図6(b)参照)。第2欠陥F2は、例えば、画素値(輝度)が所定値以下の画素を第2欠陥F2の画素とすることで検出することができる。
Then, in step S63, the
そして、ステップS64において、検出部24は、直近に検出した第2欠陥候補領域B0を所定画素数だけ外側へ拡張した領域を新たな検査領域K1を設定する(図6(c)参照)。
Then, in step S64, the
そして、ステップS65において、検出部24は、拡張した後の検査領域K1に存在する第2欠陥候補領域B1と第2欠陥候補領域B1の画素数を検出する(図6(d)参照)。
Then, in step S65, the
そして、ステップS66において、検出部24は、直近の第2欠陥候補領域B1と前回(つまり、拡張前)の第2欠陥候補領域B0との差分領域の大きさ、つまり、直近の第2欠陥候補領域B1の画素数と前回の第2欠陥候補領域B0の画素数との差ΔNを算出する。
Then, in step S66, the
そして、ステップS67において、検出部24は、算出した画素数の差ΔNが所定値以下であるか否か判断する。画素数の差ΔNが所定値より大きい場合(図5のステップS67のNo)、ステップS64へ戻る。
Then, in step S67, the
ステップS64へ戻ると、検出部24は、直近に検出した第2欠陥候補領域B1を所定画素数だけ外側へ拡張した領域を新たな検査領域K2を設定し(図6(e)参照)、ステップS65において、拡張した後の検査領域K2に存在する第2欠陥候補領域B2とその画素数を検出し(図6(f)参照)、ステップS66において、直近に検出した第2欠陥候補領域B2とその前回の第2欠陥候補領域B1との画素数の差ΔNを算出し、ステップS67において、算出した画素数の差ΔNが所定値以下であるか否か判断する。
Returning to step S64, the
以後、ステップS64における新たな検査領域の設定と(図6(g)参照)、ステップS65における拡張した後の検査領域に存在する第2欠陥候補領域B2とその画素数の検出と(図6(h)参照)、ステップS66における第2欠陥候補領域の画素数の差ΔNの算出とを、ステップS67において画素数の差ΔNが所定値以下になるまで繰り返し実行する。 Thereafter, setting a new inspection area in step S64 (see FIG. 6(g)), and detecting the second defect candidate area B2 existing in the expanded inspection area and its number of pixels in step S65 (see FIG. 6(g)). h)) and calculation of the difference ΔN in the number of pixels in the second defect candidate area in step S66 are repeatedly executed until the difference ΔN in the number of pixels becomes equal to or less than a predetermined value in step S67.
そして、ステップS67において画素数の差ΔNが所定値以下になるとステップS68へ進み、検出部24は、その時の第2欠陥候補領域を第2欠陥領域R3として記憶装置26に保存して、第2欠陥領域取得処理を終了し、ステップS7へ進む。
Then, in step S67, when the difference ΔN in the number of pixels becomes equal to or less than a predetermined value, the process proceeds to step S68, and the
なお、ここでは、ステップS61において評価実施領域R2に1の第2欠陥F2が検出された場合について説明するが、評価実施領域R2に複数の第2欠陥F2が検出された場合、各第2欠陥F2について上記のような領域拡張法を実行して第2欠陥領域R3を取得する。 Here, a case will be described in which one second defect F2 is detected in the evaluation implementation area R2 in step S61, but if a plurality of second defects F2 are detected in the evaluation implementation area R2, each second defect The region expansion method as described above is executed for F2 to obtain a second defective region R3.
また、上記したステップS67では、画素数の差ΔNが所定値以下であると、ステップS64~ステップS66の繰り返しを終了したが、画素数の差ΔNを直近の第2欠陥候補領域の画素数で除した値が所定値以下の場合や、画素数の差ΔNの変化量が所定値以下の場合に、ステップS64~ステップS66の繰り返しを終了してもよい。 In addition, in step S67 described above, when the difference ΔN in the number of pixels is less than the predetermined value, the repetition of steps S64 to S66 is terminated, but the difference ΔN in the number of pixels is determined by the number of pixels in the most recent second defect candidate area. If the divided value is less than or equal to a predetermined value, or if the amount of change in the difference ΔN in the number of pixels is less than or equal to a predetermined value, the repetition of steps S64 to S66 may be terminated.
また、本実施形態では、評価実施領域R2から第2欠陥領域R3を取得する第2欠陥領域取得処理として、ディープニューラルネットワークを使用して第2欠陥F2の重心領域G2を取得し、取得した重心領域G2を開始点とする領域拡張法を実行したが、このようなディープラーニングを用いた方法に加え、あるいはこのよう方法に代えて、輝度値が所定の閾値以下の画素の集合を第2欠陥領域R3として取得するなどルールベースシステムを用いて評価実施領域R2から第2欠陥領域R3を取得してもよい。 Furthermore, in the present embodiment, as a second defect area acquisition process that acquires the second defect area R3 from the evaluation implementation area R2, a deep neural network is used to acquire the gravity center area G2 of the second defect F2, and the acquired gravity center A region expansion method using region G2 as a starting point was performed, but in addition to or in place of such a method using deep learning, a set of pixels whose luminance values are below a predetermined threshold value is used as a second defect. The second defective region R3 may be acquired from the evaluation implementation region R2 using a rule-based system, such as by acquiring it as the region R3.
そして、検出部24が評価実施領域R2に存在する第2欠陥領域R3を取得すると、ステップS7において、評価部25は、第2欠陥領域R3の属性を予め作成したルールベースと照合するルールベースシステムを用いてランドLに存在する欠陥を評価する。評価部25は、例えば、第2欠陥領域の面積が所定値以下の場合にランドLに不良欠陥があると評価することができる。
Then, when the
なお、評価部25は、第2欠陥領域R3の面積以外にも、第2欠陥領域R3の形状、所定方向の長さ、最大長さ等の属性の1つまたは複数を組み合わせて予め作成したルールベースと照合してランドLに存在する欠陥を評価してもよい。
In addition to the area of the second defective region R3, the
(3)効果
以上のような本実施形態では、ディープニューラルネットワークを用いて評価対象物の評価に影響しない第1欠陥F1を抽出し、当該第1欠陥領域R1を除外して評価実施領域R2を設定する。そのため、正常な領域とコントラストが類似する欠陥等のルールベースシステムによって評価しにくい欠陥を取り除くことができ、ルールベースシステムの評価ルールの設定を簡略化することができる。また、評価対象物の欠陥の評価をルールベースシステムに基づいて行うことができるため、評価基準の調整が可能となり信頼性の高い評価結果を得ることができる。
(3) Effect In this embodiment as described above, a deep neural network is used to extract the first defect F1 that does not affect the evaluation of the evaluation target object, and the evaluation implementation area R2 is created by excluding the first defect region R1. Set. Therefore, it is possible to remove defects that are difficult to evaluate using the rule-based system, such as defects whose contrast is similar to that of normal areas, and it is possible to simplify the setting of evaluation rules for the rule-based system. Furthermore, since defects in the evaluation object can be evaluated based on a rule-based system, evaluation criteria can be adjusted and highly reliable evaluation results can be obtained.
本実施形態では、領域抽出部22によって撮像画像から抽出することで所定位置に位置決めされた評価対象領域R0からディープニューラルネットワークを用いて第1欠陥F1を取得するため、第1欠陥F1を第2欠陥F2と誤検出したり、第1欠陥F1を検出できなかったりすることがなく、これを精度良く取得することができる。
In this embodiment, in order to obtain the first defect F1 using a deep neural network from the evaluation target region R0, which is extracted from the captured image by the
本実施形態では、第1のディープニューラルネットワークにより評価対象領域R0から第1欠陥F1に対応する画素領域を決定し、決定した画素領域を所定量拡張した領域を第1欠陥領域とするため、簡便に第1欠陥領域R1を決定することができる。 In this embodiment, the pixel area corresponding to the first defect F1 is determined from the evaluation target area R0 by the first deep neural network, and the area obtained by expanding the determined pixel area by a predetermined amount is set as the first defect area. The first defect region R1 can be determined.
本実施形態では、第2のディープニューラルネットワークを用いて取得した第2欠陥F2の重心領域G2を開始点とする領域拡張法を用いて第2欠陥領域R3を取得するため、第2欠陥F2の検出漏れを抑えつつ、第2欠陥F2の形状を精度良く検出することができる。 In this embodiment, in order to obtain the second defect region R3 using the region expansion method starting from the centroid region G2 of the second defect F2 obtained using the second deep neural network, The shape of the second defect F2 can be detected with high accuracy while suppressing detection omissions.
以上、本発明の実施形態を説明したが、これらの実施形態は例として提示したものであり、発明の範囲を限定することを意図していない。これらの実施形態は、その他の様々な形態で実施されることが可能であり、発明の趣旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これらの実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。 Although the embodiments of the present invention have been described above, these embodiments are presented as examples and are not intended to limit the scope of the invention. These embodiments can be implemented in various other forms, and various omissions, substitutions, and changes can be made without departing from the spirit of the invention. These embodiments and their modifications are included within the scope and gist of the invention as well as within the scope of the invention described in the claims and its equivalents.
例えば、上記した実施形態では、第1のディープニューラルネットワークを使用して取得した第1欠陥F1に対応する画素領域を拡張して第1欠陥領域R1を取得したが、例えば、第1のディープニューラルネットワークを使用して取得した第1欠陥F1の重心位置に対応する画素領域を取得し、当該画素領域を開始点とする領域拡張法を実行することで第1欠陥領域R1を取得してもよい。 For example, in the embodiment described above, the pixel region corresponding to the first defect F1 obtained using the first deep neural network is expanded to obtain the first defect region R1. The first defect region R1 may be obtained by obtaining a pixel region corresponding to the centroid position of the first defect F1 obtained using a network, and executing a region expansion method using the pixel region as a starting point. .
10…欠陥評価装置、11…撮像部、12…ステージ、13…Xステージ、14…Yステージ、15…撮像カメラ、16…照明装置、20…制御部、21…カメラ制御部、22…領域抽出部、23…第1欠陥決定部、24…検出部、25…評価部、26…記憶装置、F1…第1欠陥、F2…第2欠陥、P…プリント基板、L…ランド、R0…評価対象領域、R1…第1欠陥領域、R2…評価実施領域、R3…第2欠陥領域
DESCRIPTION OF
Claims (9)
前記撮像画像から前記評価対象物に発生している欠陥の評価を行う評価対象領域を抽出し、第1欠陥の形状を学習した第1のディープニューラルネットワークを用いて、前記評価対象領域から前記第1欠陥に対応する画素領域である第1欠陥領域を取得し、
前記評価対象領域から前記第1欠陥領域を除外した評価実施領域を設定し、
前記評価実施領域から第2欠陥に対応する画素領域である第2欠陥領域を取得し、
取得した前記第2欠陥領域の属性に基づいて、ルールベースシステムを用いて前記評価対象物に発生している欠陥を評価する欠陥評価方法であって、
前記評価対象物が、基板であり、
前記第1欠陥が、前記基板のランドに形成されたプローブ痕であり、
前記ランドに対応する画素領域を、前記評価対象領域として抽出する欠陥評価方法。 In a defect evaluation method for evaluating defects occurring in the evaluation object based on a captured image obtained by imaging the evaluation object,
An evaluation target area for evaluating defects occurring in the evaluation target object is extracted from the captured image, and a first deep neural network that has learned the shape of the first defect is used to extract the evaluation target area from the evaluation target area . Obtaining a first defect area, which is a pixel area corresponding to one defect,
setting an evaluation implementation area excluding the first defect area from the evaluation target area ;
Obtaining a second defect area that is a pixel area corresponding to the second defect from the evaluation implementation area,
A defect evaluation method for evaluating defects occurring in the evaluation target object using a rule-based system based on the acquired attributes of the second defect area ,
The evaluation target is a substrate,
The first defect is a probe mark formed on a land of the substrate,
A defect evaluation method that extracts a pixel area corresponding to the land as the evaluation target area.
前記撮像画像から前記評価対象物に発生している欠陥の評価を行う評価対象領域を抽出し、第1欠陥の形状を学習した第1のディープニューラルネットワークを用いて、前記評価対象領域から前記第1欠陥に対応する画素領域である第1欠陥領域を取得し、
前記評価対象領域から前記第1欠陥領域を除外した評価実施領域を設定し、
前記評価実施領域から第2欠陥に対応する画素領域である第2欠陥領域を取得し、
取得した前記第2欠陥領域の属性に基づいて、ルールベースシステムを用いて前記評価対象物に発生している欠陥を評価する欠陥評価方法であって、
前記第1のディープニューラルネットワークにより前記撮像画像又は前記評価対象領域から前記第1欠陥に対応する画素領域を決定し、決定した画素領域を所定量拡張した領域を前記第1欠陥領域とする欠陥評価方法。 In a defect evaluation method for evaluating defects occurring in the evaluation object based on a captured image obtained by imaging the evaluation object,
An evaluation target area for evaluating defects occurring in the evaluation target object is extracted from the captured image, and a first deep neural network that has learned the shape of the first defect is used to extract the evaluation target area from the evaluation target area . Obtaining a first defect area, which is a pixel area corresponding to one defect,
setting an evaluation implementation area excluding the first defect area from the evaluation target area ;
Obtaining a second defect area that is a pixel area corresponding to the second defect from the evaluation implementation area,
A defect evaluation method for evaluating defects occurring in the evaluation target object using a rule-based system based on the acquired attributes of the second defect area ,
Defect evaluation in which a pixel area corresponding to the first defect is determined from the captured image or the evaluation target area by the first deep neural network, and an area obtained by expanding the determined pixel area by a predetermined amount is set as the first defect area. Method.
第1欠陥の形状を学習した第1のディープニューラルネットワークを用いて、前記撮像画像から前記第1欠陥に対応する画素領域である第1欠陥領域を取得し、
前記撮像画像から前記第1欠陥領域を除外した評価実施領域を設定し、
前記評価実施領域から第2欠陥に対応する画素領域である第2欠陥領域を取得し、
取得した前記第2欠陥領域の属性に基づいて、ルールベースシステムを用いて前記評価対象物に発生している欠陥を評価する欠陥評価方法であって、
前記第1欠陥の形状を学習した第1のディープニューラルネットワークを用いて、前記第1欠陥の重心位置に対応する画素領域である重心領域を取得し、前記重心領域を開始点とする領域拡張法を用いて前記第1欠陥領域を取得する欠陥評価方法。 In a defect evaluation method for evaluating defects occurring in the evaluation object based on a captured image obtained by imaging the evaluation object,
Obtaining a first defect area that is a pixel area corresponding to the first defect from the captured image using a first deep neural network that has learned the shape of the first defect;
setting an evaluation implementation area excluding the first defect area from the captured image;
Obtaining a second defect area that is a pixel area corresponding to the second defect from the evaluation implementation area,
A defect evaluation method for evaluating defects occurring in the evaluation target object using a rule-based system based on the acquired attributes of the second defect area ,
A region expansion method that uses a first deep neural network that has learned the shape of the first defect to obtain a centroid region that is a pixel region corresponding to the centroid position of the first defect, and uses the centroid region as a starting point. A defect evaluation method for obtaining the first defect area using.
第1欠陥の形状を学習した第1のディープニューラルネットワークを用いて、前記撮像画像から前記第1欠陥に対応する画素領域である第1欠陥領域を取得し、
前記撮像画像から前記第1欠陥領域を除外した評価実施領域を設定し、
前記評価実施領域から第2欠陥に対応する画素領域である第2欠陥領域を取得し、
取得した前記第2欠陥領域の属性に基づいて、ルールベースシステムを用いて前記評価対象物に発生している欠陥を評価する欠陥評価方法であって、
前記第2欠陥の形状を学習した第2のディープニューラルネットワークを用いて、前記第2欠陥の重心位置に対応する画素領域である重心領域を取得し、前記重心領域を開始点とする領域拡張法を用いて前記第2欠陥領域を取得する欠陥評価方法。 In a defect evaluation method for evaluating defects occurring in the evaluation object based on a captured image obtained by imaging the evaluation object,
Obtaining a first defect area that is a pixel area corresponding to the first defect from the captured image using a first deep neural network that has learned the shape of the first defect;
setting an evaluation implementation area excluding the first defect area from the captured image;
Obtaining a second defect area that is a pixel area corresponding to the second defect from the evaluation implementation area,
A defect evaluation method for evaluating defects occurring in the evaluation target object using a rule-based system based on the acquired attributes of the second defect area ,
A region expansion method that uses a second deep neural network that has learned the shape of the second defect to acquire a centroid region that is a pixel region corresponding to the centroid position of the second defect, and uses the centroid region as a starting point. A defect evaluation method for obtaining the second defect area using.
事前に形状及び大きさが設定された領域を、前記撮像画像における前記ランドの位置に対応させて、前記評価対象領域とする請求項1に記載の欠陥評価方法。 obtaining the position of the land from the captured image;
2. The defect evaluation method according to claim 1 , wherein an area whose shape and size are set in advance is set as the evaluation target area in correspondence with the position of the land in the captured image.
前記再学習において、前回の再学習のとき以降の欠陥評価に使用した撮像画像を教師データとして使用する請求項1又は5に記載の欠陥評価方法。 When a predetermined condition is met, causing the first deep neural network to relearn the shape of the first defect that is the probe mark,
6. The defect evaluation method according to claim 1, wherein, in the relearning, captured images used for defect evaluation after the previous relearning are used as training data.
検査領域内から前記第1欠陥または前記第2欠陥に対応する画素領域である欠陥候補領域を検出する欠陥候補領域検出ステップと、
検出された前記欠陥候補領域を拡張したものを新たな検査領域とする検査領域更新ステップと、を順次繰り返し実行し、
直近の前記欠陥候補領域検出ステップにおいて検出された前記欠陥候補領域と、その前回の前記欠陥候補領域検出ステップにおいて検出された前記欠陥候補領域との差分領域の大きさに基づいて、前記繰り返しを終了するか否かを判断する請求項3または4に記載の欠陥評価方法。 In the region expansion method,
a defect candidate area detection step of detecting a defect candidate area that is a pixel area corresponding to the first defect or the second defect from within the inspection area;
sequentially and repeatedly performing an inspection area updating step in which an expanded area of the detected defect candidate area is set as a new inspection area;
The repetition is terminated based on the size of the difference area between the defect candidate area detected in the most recent defect candidate area detection step and the defect candidate area detected in the previous defect candidate area detection step. 5. The defect evaluation method according to claim 3 or 4 , wherein it is determined whether or not.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020202952A JP7453552B2 (en) | 2020-12-07 | 2020-12-07 | Defect evaluation method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020202952A JP7453552B2 (en) | 2020-12-07 | 2020-12-07 | Defect evaluation method and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022090513A JP2022090513A (en) | 2022-06-17 |
JP7453552B2 true JP7453552B2 (en) | 2024-03-21 |
Family
ID=81990238
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020202952A Active JP7453552B2 (en) | 2020-12-07 | 2020-12-07 | Defect evaluation method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7453552B2 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003344309A (en) | 2002-05-30 | 2003-12-03 | Olympus Optical Co Ltd | Method of setting parameter for inspection equipment |
JP2012026982A (en) | 2010-07-27 | 2012-02-09 | Panasonic Electric Works Sunx Co Ltd | Inspection device |
JP2020098108A (en) | 2018-12-17 | 2020-06-25 | 株式会社大林組 | Surface defect inspection method |
WO2020158630A1 (en) | 2019-01-31 | 2020-08-06 | 株式会社カネカ | Detecting device, learner, computer program, detecting method, and method for generating learner |
-
2020
- 2020-12-07 JP JP2020202952A patent/JP7453552B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003344309A (en) | 2002-05-30 | 2003-12-03 | Olympus Optical Co Ltd | Method of setting parameter for inspection equipment |
JP2012026982A (en) | 2010-07-27 | 2012-02-09 | Panasonic Electric Works Sunx Co Ltd | Inspection device |
JP2020098108A (en) | 2018-12-17 | 2020-06-25 | 株式会社大林組 | Surface defect inspection method |
WO2020158630A1 (en) | 2019-01-31 | 2020-08-06 | 株式会社カネカ | Detecting device, learner, computer program, detecting method, and method for generating learner |
Also Published As
Publication number | Publication date |
---|---|
JP2022090513A (en) | 2022-06-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106803244B (en) | Defect identification method and system | |
JP6294529B1 (en) | Crack detection processing apparatus and crack detection processing program | |
US8355562B2 (en) | Pattern shape evaluation method | |
US6925203B1 (en) | Position detection apparatus and exposure apparatus | |
JP4842374B2 (en) | Image processing apparatus, image processing method, and image processing program | |
KR20120068128A (en) | Method of detecting defect in pattern and apparatus for performing the method | |
US9805443B2 (en) | Image processing method, image processing apparatus, program, storage medium, production apparatus, and method of producing assembly | |
US20080205769A1 (en) | Apparatus, method and program product for matching with a template | |
JP2010520622A (en) | Method for accurately identifying the edge of an inspection area for an array area formed on a wafer, and a method for binning detected defects in an array area formed on a wafer | |
KR101359280B1 (en) | Pattern matching method, recording medium having pattern matching program recorded thereon, electronic computer, and electronic device testing apparatus | |
CN115423755A (en) | Wafer micromachining structure defect detection method and device, equipment and medium thereof | |
JP2006222899A (en) | Image processing apparatus and image processing method | |
JP7453552B2 (en) | Defect evaluation method and program | |
JP4432575B2 (en) | Pattern image determination method | |
JP2010091401A (en) | Method for assisting data preparation for teacher, and method and device for classifying image | |
JP2005310805A (en) | Pattern searching method | |
JP4951591B2 (en) | Matching method corresponding to disappearance of pattern and inspection apparatus using the same | |
TW202011255A (en) | Contour extraction method, contour extraction device, and non-volatile recording medium | |
JP2007071791A (en) | Defect determination method | |
KR102542367B1 (en) | Method for automatically setting the optimal scan range in a focus variation-based 3D measuring machine | |
US20240005528A1 (en) | Information processing apparatus, learning apparatus, and tracking method | |
TWI845970B (en) | Inspection equipment and measuring equipment | |
CN117474916B (en) | Image detection method, electronic equipment and storage medium | |
JP7438470B2 (en) | Person detection device, person detection method, and person detection program | |
TWI767458B (en) | Pattern matching device, pattern determination system and non-transitory computer readable medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221207 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20230817 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230929 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231003 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231121 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231205 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240123 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240206 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240219 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7453552 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |