JP7453552B2 - Defect evaluation method and program - Google Patents

Defect evaluation method and program Download PDF

Info

Publication number
JP7453552B2
JP7453552B2 JP2020202952A JP2020202952A JP7453552B2 JP 7453552 B2 JP7453552 B2 JP 7453552B2 JP 2020202952 A JP2020202952 A JP 2020202952A JP 2020202952 A JP2020202952 A JP 2020202952A JP 7453552 B2 JP7453552 B2 JP 7453552B2
Authority
JP
Japan
Prior art keywords
defect
area
evaluation
captured image
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020202952A
Other languages
Japanese (ja)
Other versions
JP2022090513A (en
Inventor
啓順 北田
拓也 立澤
Original Assignee
ダイトロン株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ダイトロン株式会社 filed Critical ダイトロン株式会社
Priority to JP2020202952A priority Critical patent/JP7453552B2/en
Publication of JP2022090513A publication Critical patent/JP2022090513A/en
Application granted granted Critical
Publication of JP7453552B2 publication Critical patent/JP7453552B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)

Description

本発明は、欠陥評価方法及び欠陥評価方法を実行させるためのプログラムに関する。 The present invention relates to a defect evaluation method and a program for executing the defect evaluation method.

評価対象物を例えばCMOS( Complementary Metal OxideSemiconductor)カメラなどによって撮像し、得られた撮像画像を処理して評価対象物に発生している欠陥を評価することが行われている。 2. Description of the Related Art An evaluation target object is imaged using, for example, a CMOS (Complementary Metal Oxide Semiconductor) camera, and the obtained captured image is processed to evaluate defects occurring in the evaluation target object.

欠陥を評価する手法としては、ディープラーニングと呼ばれる手法を利用することが知られている(例えば、下記特許文献1参照)。 As a method for evaluating defects, it is known to use a method called deep learning (for example, see Patent Document 1 below).

特許文献1では、評価対象物を撮像して得られた撮像画像に基づいて欠陥の特徴量(欠陥の濃淡、色などの特徴、幾何学的特徴)を算出し、これら特徴量に基づいてディープラーニングの手法を用いて評価対象物に発生している欠陥を評価したり、撮像画像から抽出された欠陥の属性に基づいて、ルールベースシステムを用いて欠陥を評価することが記載されている。 In Patent Document 1, feature quantities of defects (features such as shading and color of the defect, geometric features) are calculated based on a captured image obtained by capturing an image of an evaluation target, and deep image processing is performed based on these feature quantities. It is described that a learning method is used to evaluate defects occurring in an object to be evaluated, and a rule-based system is used to evaluate defects based on attributes of defects extracted from captured images.

ディープラーニングによる欠陥評価では、教師データを用いた学習によって欠陥の濃淡や色などの特徴や幾何学的な特徴量を自動抽出し、これら特徴量が反映されたニューラルネットワークを用いて評価対象物の欠陥を評価する。 In defect evaluation using deep learning, features such as shading and color of defects and geometric features are automatically extracted by learning using training data, and a neural network that reflects these features is used to evaluate the evaluation target. Evaluate defects.

このようなディープラーニングによる欠陥評価では、教師データを用いた学習により複雑な形状の欠陥についても対応しやすいが、形状に規則性が無い欠陥の検出が困難であったり、教師データの選定やハイパーパラメータの調整が困難であったり、欠陥の評価基準が分からないため、評価結果の信頼性に乏しいという問題がある。 In defect evaluation using deep learning, it is easy to deal with defects with complex shapes by learning using training data, but it is difficult to detect defects with irregular shapes, and it is difficult to select training data and There is a problem that the reliability of the evaluation results is low because it is difficult to adjust the parameters and the evaluation criteria for defects are unknown.

ルールベースシステムによる欠陥評価では、評価基準の調整が可能であるが、想定した欠陥に対して個々に評価ルールを作成する必要があり、評価ルールの設定に手間がかかる。 In defect evaluation using a rule-based system, it is possible to adjust the evaluation criteria, but it is necessary to create evaluation rules for each assumed defect, which takes time and effort.

特開2020-504856号公報JP2020-504856A

本発明は、上記の点に鑑みてなされたものであり、評価ルールの設定を簡略化しつつ、評価対象物の撮像画像に基づいて評価対象物の欠陥を適切に評価することができる欠陥評価方法及び欠陥評価方法を実行させるためのプログラムを提供することを目的とする。 The present invention has been made in view of the above points, and provides a defect evaluation method that can appropriately evaluate defects of an evaluation target based on a captured image of the evaluation target while simplifying the setting of evaluation rules. and a program for executing the defect evaluation method.

本発明にかかる欠陥評価方法は、評価対象物を撮像して得た撮像画像に基づいて、前記評価対象物に発生している欠陥を評価する欠陥評価方法において、前記撮像画像から前記評価対象物に発生している欠陥の評価を行う評価対象領域を抽出し、第1欠陥の形状を学習した第1のディープニューラルネットワークを用いて、前記評価対象領域から前記第1欠陥に対応する画素領域である第1欠陥領域を取得し、前記評価対象領域から前記第1欠陥領域を除外した評価実施領域を設定し、前記評価実施領域から第2欠陥に対応する画素領域である第2欠陥領域を取得し、取得した前記第2欠陥領域の属性に基づいて、ルールベースシステムを用いて前記評価対象物に発生している欠陥を評価する欠陥評価方法であって、前記評価対象物が、基板であり、前記第1欠陥が、前記基板のランドに形成されたプローブ痕であり、前記ランドに対応する画素領域を、前記評価対象領域として抽出する方法である。 A defect evaluation method according to the present invention is a defect evaluation method for evaluating defects occurring in an evaluation object based on a captured image obtained by capturing an image of the evaluation object. A first deep neural network that has learned the shape of the first defect is extracted from the evaluation target area and a pixel area corresponding to the first defect is extracted from the evaluation target area. A certain first defect area is acquired, an evaluation implementation area is set by excluding the first defect area from the evaluation target area , and a second defect area that is a pixel area corresponding to a second defect is acquired from the evaluation implementation area. and a defect evaluation method for evaluating defects occurring in the evaluation object using a rule-based system based on the acquired attributes of the second defect area , wherein the evaluation object is a board. In this method, the first defect is a probe mark formed on a land of the substrate, and a pixel area corresponding to the land is extracted as the evaluation target area.

本発明によれば、評価ルールの設定を簡略化しつつ、評価対象物の撮像画像に基づいて評価対象物の欠陥を適切に評価することができる。 According to the present invention, it is possible to appropriately evaluate defects of an evaluation target based on a captured image of the evaluation target while simplifying the setting of evaluation rules.

本発明の一実施形態にかかる欠陥評価方法を実行する欠陥評価装置の構成を模式的に示す図A diagram schematically showing the configuration of a defect evaluation device that executes a defect evaluation method according to an embodiment of the present invention. プリント基板の平面図Top view of printed circuit board 図1の欠陥評価装置の制御を示すフロー図Flow diagram showing control of the defect evaluation device in Figure 1 (a)~(c)はランド上に設定する評価対象領域、第1欠陥領、評価実施領域を示す平面図(a) to (c) are plan views showing the evaluation target area, the first defect area, and the evaluation implementation area set on the land. 第2欠陥領域取得処理のフロー図Flow diagram of second defect area acquisition process (a)~(h)は第2欠陥領域取得処理を説明する第2欠陥の平面図(a) to (h) are plan views of the second defect illustrating the second defect area acquisition process.

以下、本発明の一実施形態について図面を参照して説明する。 Hereinafter, one embodiment of the present invention will be described with reference to the drawings.

(1)評価装置10の構成
本実施形態は、図1に示すような評価装置10を用いて、評価対象物である図2に例示するプリント基板P上に設けられたランドLの表面に発生している欠陥を評価する場合について説明する。
(1) Configuration of the evaluation device 10 This embodiment uses the evaluation device 10 as shown in FIG. This section explains how to evaluate defects that are currently being used.

プリント基板Pは、評価装置10による評価の前に、ランドLにプローブを接触させて導通試験が行われている。そのため、プリント基板PのランドLの表面には、プローブを接触させたときに発生したプローブ痕(以下、これを第1欠陥という)F1と、それ以外の欠陥、例えばランドLを構成する金属膜の形成過程で発生した表面欠陥(以下、プローブ痕以外の欠陥を纏めて第2欠陥という)F2が存在することがある。第1欠陥F1はランドLの導通に影響がほとんど無いが、第2欠陥F2はその種類やサイズによってはランドLの導通に影響が大きい場合もある。そこで、評価装置10は、第2欠陥F2に基づいてプリント基板PのランドLに発生している欠陥を評価する。 Before the printed circuit board P is evaluated by the evaluation device 10, a continuity test is performed by contacting the land L with a probe. Therefore, on the surface of the land L of the printed circuit board P, there is a probe mark (hereinafter referred to as the first defect) F1 generated when the probe is brought into contact, and other defects such as the metal film forming the land L. There may be surface defects F2 (hereinafter, defects other than probe marks collectively referred to as second defects) generated during the formation process of F2. The first defect F1 has little effect on the conduction of the land L, but the second defect F2 may have a large effect on the conduction of the land L depending on its type and size. Therefore, the evaluation device 10 evaluates the defect occurring in the land L of the printed circuit board P based on the second defect F2.

評価装置10は、プリント基板Pの画像を取得する撮像部11と、撮像部11を制御するとともに撮像部11が取得した撮像画像を用いてデータ処理を行う制御部20とを含んで構成されている。 The evaluation device 10 includes an imaging section 11 that acquires an image of the printed circuit board P, and a control section 20 that controls the imaging section 11 and performs data processing using the captured image acquired by the imaging section 11. There is.

撮像部11は、プリント基板Pを載置するステージ12を有する。ステージ12は、直交する2方向にプリント基板Pを水平移動可能なXステージ13とYステージ14と、プリント基板Pをステージ12上に保持する不図示の保持機構を備える。 The imaging unit 11 has a stage 12 on which a printed circuit board P is placed. The stage 12 includes an X stage 13 and a Y stage 14 that can horizontally move the printed circuit board P in two orthogonal directions, and a holding mechanism (not shown) that holds the printed circuit board P on the stage 12.

また、撮像部11は、プリント基板Pの上方に配置されるCMOSセンサ等の画像センサを有するカメラ15と、プリント基板Pを照らす照明装置16とが設けられている。カメラ15は、制御部20に接続されており、撮像して得られたプリント基板Pの撮像画像データを制御部20へ出力する。 Further, the imaging unit 11 is provided with a camera 15 having an image sensor such as a CMOS sensor arranged above the printed circuit board P, and a lighting device 16 that illuminates the printed circuit board P. The camera 15 is connected to the control section 20 and outputs captured image data of the printed circuit board P obtained by capturing the image to the control section 20.

制御部20は、プログラムを実行するCPUや、プログラムを格納したROM(Read Only Memory)や、プログラムを展開するRAM(Random Access Memory)などを備える。制御部20は、各種データを格納する記憶装置(記録媒体)26に接続され、必要に応じて、データを表示する表示部やデータを入力する入力部に接続されている。 The control unit 20 includes a CPU that executes a program, a ROM (Read Only Memory) that stores the program, a RAM (Random Access Memory) that expands the program, and the like. The control unit 20 is connected to a storage device (recording medium) 26 that stores various data, and is connected to a display unit that displays data and an input unit that inputs data, as necessary.

制御部20は、CPUがランドLの表面に発生している欠陥を評価するためのプログラムを実行することによって、カメラ制御部21、領域抽出部22、第1欠陥決定部23、検出部24及び評価部25を仮想的に実現し、これにより、プリント基板PのランドLの表面に発生している第2欠陥F2を評価する。 The control unit 20 has a camera control unit 21, an area extraction unit 22, a first defect determination unit 23, a detection unit 24, and a CPU by executing a program for evaluating defects occurring on the surface of the land L. The evaluation unit 25 is virtually realized, and thereby the second defect F2 occurring on the surface of the land L of the printed circuit board P is evaluated.

(2)評価装置10の制御
次に、評価装置10において実行される欠陥の評価方法について、図3~図6を参照して説明する。
(2) Control of the evaluation device 10 Next, a defect evaluation method executed in the evaluation device 10 will be described with reference to FIGS. 3 to 6.

ステップS1において、ステージ12上にプリント基板Pが載置されると、カメラ制御部21は、撮像部11を構成する各部12,13,14,15,16を制御することで、プリント基板Pをカメラ15の下方に配置し、照明装置16でプリント基板Pを照明しながら、カメラ15でプリント基板Pを撮像して撮像画像を取得する。取得したプリント基板Pの撮像画像は記憶装置26に記憶される。なお、カメラ15は、ランドLだけでなくプリント基板Pの表面全体を撮像してもよい。 In step S1, when the printed circuit board P is placed on the stage 12, the camera control section 21 controls the printed circuit board P by controlling each section 12, 13, 14, 15, and 16 that constitute the imaging section 11. The camera 15 is disposed below the camera 15, and while the illumination device 16 illuminates the printed circuit board P, the camera 15 images the printed circuit board P to obtain a captured image. The acquired captured image of the printed circuit board P is stored in the storage device 26. Note that the camera 15 may image not only the land L but also the entire surface of the printed circuit board P.

次いで、ステップS2において、領域抽出部22は、カメラ15が撮像したプリント基板Pの撮像画像について、事前に形状及び大きさが設定された認識パターンを用いてパターンマッチングによって、ランドLに対応する画素領域を抽出し、抽出した画素領域を評価対象領域R0として記憶装置26に記憶する(図4(a)参照)。このとき、抽出した評価対象領域R0の向きを一定に揃えておくことが好ましい。これにより、領域抽出部22において、所定位置及び所定の向きに位置決めされた画素領域が評価対象領域R0として得られる。 Next, in step S2, the area extraction unit 22 performs pattern matching on the image of the printed circuit board P captured by the camera 15 using a recognition pattern whose shape and size are set in advance to extract pixels corresponding to the land L. The region is extracted, and the extracted pixel region is stored in the storage device 26 as the evaluation target region R0 (see FIG. 4(a)). At this time, it is preferable to keep the orientations of the extracted evaluation target regions R0 constant. As a result, the region extraction unit 22 obtains a pixel region positioned at a predetermined position and in a predetermined direction as the evaluation target region R0.

次いで、ステップS3において、第1欠陥決定部23は、第1のディープニューラルネットワークを使用して評価対象領域R0を解析することで、評価対象領域R0の中から第1欠陥F1の形状に対応する画素領域を取得する。第1のディープニューラルネットワークとしては、予めプリント基板Pを撮像して得た撮像画像に基づいて当該プリント基板PのランドLに発生している第1欠陥F1の形状を学習したニューラルネットワークを用いることができ、例えば畳み込みニューラルネットワークを用いることができる。 Next, in step S3, the first defect determining unit 23 analyzes the evaluation target region R0 using the first deep neural network, thereby determining the shape of the first defect F1 from the evaluation target region R0. Get the pixel area. As the first deep neural network, a neural network that has learned the shape of the first defect F1 occurring in the land L of the printed circuit board P based on a captured image obtained by imaging the printed circuit board P in advance is used. For example, a convolutional neural network can be used.

なお、第1欠陥決定部23は、評価対象領域R0の中から第1欠陥F1の形状に対応する画素領域に加え、あるいは第1欠陥F1の形状に対応する画素領域に代えて、第1欠陥F1の重心位置に対応する画素領域を取得してもよい。 Note that the first defect determination unit 23 selects a first defect from the evaluation target region R0 in addition to a pixel region corresponding to the shape of the first defect F1, or instead of a pixel region corresponding to the shape of the first defect F1. A pixel area corresponding to the center of gravity position of F1 may be acquired.

第1欠陥決定部23は、例えば、周期的に、評価装置10がプリント基板Pの評価を行っていない期間に、または、新たな教師データが追加されたときに、など所定の条件を満たした際に、第1のディープニューラルネットワークに第1欠陥F1の形状を再学習してもよい。その再学習において、前回の再学習のとき以降の欠陥評価に使用した撮像画像、つまり、前回の再学習のとき以降に上記ステップS1において取得した撮像画像や上記ステップS2において抽出した評価対象領域R0を教師データとして使用してもよい。 The first defect determination unit 23 determines whether a predetermined condition is satisfied, for example, periodically, during a period when the evaluation device 10 is not evaluating the printed circuit board P, or when new training data is added. At this time, the shape of the first defect F1 may be re-learned in the first deep neural network. In the relearning, the captured images used for defect evaluation after the previous relearning, that is, the captured images acquired in step S1 above after the previous relearning, and the evaluation target region R0 extracted in step S2 above. may be used as training data.

第1欠陥F1のようなプローブ痕をランドLに発生させるプローブは、使用時間の経過と共にその形状が変化するため、ランドLに発生する第1欠陥F1の形状的特徴が、複数のプリント基板Pを検査している中で変化する。上記の再学習を行うことで、このような第1欠陥F1の形状的特徴の変化を考慮することができ、より正確に第1欠陥F1を検出することができるようになる。 Since the shape of the probe that generates probe marks such as the first defect F1 on the land L changes over time, the shape characteristics of the first defect F1 that occurs on the land L may be different from those of the plurality of printed circuit boards P. changes during inspection. By performing the above-mentioned relearning, such changes in the shape characteristics of the first defect F1 can be taken into consideration, and the first defect F1 can be detected more accurately.

また、第1のディープニューラルネットワークに第1欠陥F1の形状を学習させる際に、
教師データとなる撮像画像を所定の向きに位置決めしたデータを用いることが好ましい。
In addition, when making the first deep neural network learn the shape of the first defect F1,
It is preferable to use data obtained by positioning a captured image serving as teacher data in a predetermined direction.

そして、ステップS4において、第1欠陥決定部23は、取得した情報に基づいて第1欠陥領域R1を設定する。ここでは、第1欠陥決定部23は、取得した第1欠陥F1に対応する画素領域を所定画素数だけ外側へ拡張した領域を第1欠陥領域R1に設定し、これを記憶装置26に保存する(図4(b)参照)。 Then, in step S4, the first defect determination unit 23 sets the first defect region R1 based on the acquired information. Here, the first defect determining unit 23 sets a region obtained by expanding the pixel region corresponding to the acquired first defect F1 outward by a predetermined number of pixels as the first defect region R1, and stores this in the storage device 26. (See Figure 4(b)).

次いで、ステップS5において、検出部24は、評価対象領域R0から第1欠陥領域R1を除外した領域を、欠陥の評価を行う評価実施領域R2に設定し、これを記憶装置26に保存する(図4(c)参照)。 Next, in step S5, the detection unit 24 sets an area obtained by excluding the first defect area R1 from the evaluation target area R0 as an evaluation implementation area R2 in which defects are evaluated, and stores this in the storage device 26 (see FIG. 4(c)).

そして、ステップS6において、検出部24は、評価実施領域R2について図5に示すような第2欠陥領域取得処理を実行して第2欠陥F2に対応する画素領域を取得し、取得した画素領域を第2欠陥領域R3として記憶装置26に記憶する。 Then, in step S6, the detection unit 24 executes the second defect area acquisition process as shown in FIG. 5 for the evaluation implementation area R2 to acquire a pixel area corresponding to the second defect F2, and It is stored in the storage device 26 as a second defective region R3.

第2欠陥領域取得処理では、まず、ステップS61において、検出部24が、あらかじめ第2欠陥F2の形状を学習した第2のディープニューラルネットワークを使用して評価実施領域R2を解析することで、評価実施領域R2の中から第2欠陥F2の重心位置に対応する画素領域を取得し、取得した画素領域を重心領域G2として記憶装置26に記憶する。なお、評価実施領域R2に複数の第2欠陥F2があれば、各第2欠陥F2について重心領域を取得して記憶装置26に記憶する。 In the second defect area acquisition process, first, in step S61, the detection unit 24 analyzes the evaluation implementation area R2 using the second deep neural network that has learned the shape of the second defect F2 in advance. A pixel area corresponding to the centroid position of the second defect F2 is acquired from the implementation area R2, and the acquired pixel area is stored in the storage device 26 as the centroid area G2. Note that if there are a plurality of second defects F2 in the evaluation implementation area R2, the center of gravity area for each second defect F2 is acquired and stored in the storage device 26.

その後、検出部24は、重心領域に基づいて第2欠陥F2の形状に対応する画素領域を特定する。ここでは、検出部24は、重心領域G2を検査領域の開始点に設定した後、所定条件を満たすまで検査領域を漸次拡大する領域拡張法を実行して、第2欠陥F2の形状に対応する画素領域を取得し、これを第2欠陥領域R3として記憶装置26に保存する。 Thereafter, the detection unit 24 identifies a pixel area corresponding to the shape of the second defect F2 based on the centroid area. Here, after setting the centroid region G2 as the starting point of the inspection region, the detection unit 24 executes a region expansion method of gradually expanding the inspection region until a predetermined condition is satisfied, so as to correspond to the shape of the second defect F2. A pixel area is acquired and stored in the storage device 26 as a second defective area R3.

ここでは、領域拡張法の一例として、検査領域内から第2欠陥F2に対応する画素領域である第2欠陥候補領域を検出する第2欠陥候補領域検出ステップと、検出された第2欠陥候補領域を拡張したものを新たな検査領域とする検査領域更新ステップと、を所定条件を満たすまで順次繰り返し実行することで第2欠陥領域R3を取得する。 Here, as an example of the area expansion method, a second defect candidate area detection step of detecting a second defect candidate area which is a pixel area corresponding to the second defect F2 from within the inspection area, and a second defect candidate area detected The second defect area R3 is obtained by sequentially and repeatedly executing the step of updating the inspection area in which the expanded area is set as a new inspection area until a predetermined condition is satisfied.

具体的には、ステップS62において、検出部24は、第2欠陥F2の重心領域G2を含むように検査領域K0を設定する(図6(a)参照)。 Specifically, in step S62, the detection unit 24 sets the inspection area K0 to include the centroid area G2 of the second defect F2 (see FIG. 6(a)).

そして、ステップS63において、検出部24は、検査領域K0に存在する第2欠陥F2に対応する画素領域である第2欠陥候補領域B0と、第2欠陥候補領域B0の画素数を検出する(図6(b)参照)。第2欠陥F2は、例えば、画素値(輝度)が所定値以下の画素を第2欠陥F2の画素とすることで検出することができる。 Then, in step S63, the detection unit 24 detects the second defect candidate area B0, which is a pixel area corresponding to the second defect F2 existing in the inspection area K0, and the number of pixels in the second defect candidate area B0 (Fig. 6(b)). The second defect F2 can be detected, for example, by setting a pixel whose pixel value (brightness) is less than or equal to a predetermined value as a pixel of the second defect F2.

そして、ステップS64において、検出部24は、直近に検出した第2欠陥候補領域B0を所定画素数だけ外側へ拡張した領域を新たな検査領域K1を設定する(図6(c)参照)。 Then, in step S64, the detection unit 24 sets a new inspection area K1 as an area obtained by expanding the most recently detected second defect candidate area B0 outward by a predetermined number of pixels (see FIG. 6(c)).

そして、ステップS65において、検出部24は、拡張した後の検査領域K1に存在する第2欠陥候補領域B1と第2欠陥候補領域B1の画素数を検出する(図6(d)参照)。 Then, in step S65, the detection unit 24 detects the second defect candidate area B1 existing in the expanded inspection area K1 and the number of pixels in the second defect candidate area B1 (see FIG. 6(d)).

そして、ステップS66において、検出部24は、直近の第2欠陥候補領域B1と前回(つまり、拡張前)の第2欠陥候補領域B0との差分領域の大きさ、つまり、直近の第2欠陥候補領域B1の画素数と前回の第2欠陥候補領域B0の画素数との差ΔNを算出する。 Then, in step S66, the detection unit 24 detects the size of the difference area between the most recent second defect candidate area B1 and the previous (that is, before expansion) second defect candidate area B0, that is, the most recent second defect candidate area B1. The difference ΔN between the number of pixels in area B1 and the previous number of pixels in second defect candidate area B0 is calculated.

そして、ステップS67において、検出部24は、算出した画素数の差ΔNが所定値以下であるか否か判断する。画素数の差ΔNが所定値より大きい場合(図5のステップS67のNo)、ステップS64へ戻る。 Then, in step S67, the detection unit 24 determines whether the calculated difference ΔN in the number of pixels is less than or equal to a predetermined value. If the difference ΔN in the number of pixels is larger than the predetermined value (No in step S67 in FIG. 5), the process returns to step S64.

ステップS64へ戻ると、検出部24は、直近に検出した第2欠陥候補領域B1を所定画素数だけ外側へ拡張した領域を新たな検査領域K2を設定し(図6(e)参照)、ステップS65において、拡張した後の検査領域K2に存在する第2欠陥候補領域B2とその画素数を検出し(図6(f)参照)、ステップS66において、直近に検出した第2欠陥候補領域B2とその前回の第2欠陥候補領域B1との画素数の差ΔNを算出し、ステップS67において、算出した画素数の差ΔNが所定値以下であるか否か判断する。 Returning to step S64, the detection unit 24 sets a new inspection area K2 as an area obtained by expanding the most recently detected second defect candidate area B1 outward by a predetermined number of pixels (see FIG. 6(e)), and then steps In S65, the second defect candidate area B2 existing in the expanded inspection area K2 and its number of pixels are detected (see FIG. 6(f)), and in step S66, the most recently detected second defect candidate area B2 and its number of pixels are detected. The difference ΔN in the number of pixels from the previous second defect candidate area B1 is calculated, and in step S67, it is determined whether the calculated difference ΔN in the number of pixels is less than or equal to a predetermined value.

以後、ステップS64における新たな検査領域の設定と(図6(g)参照)、ステップS65における拡張した後の検査領域に存在する第2欠陥候補領域B2とその画素数の検出と(図6(h)参照)、ステップS66における第2欠陥候補領域の画素数の差ΔNの算出とを、ステップS67において画素数の差ΔNが所定値以下になるまで繰り返し実行する。 Thereafter, setting a new inspection area in step S64 (see FIG. 6(g)), and detecting the second defect candidate area B2 existing in the expanded inspection area and its number of pixels in step S65 (see FIG. 6(g)). h)) and calculation of the difference ΔN in the number of pixels in the second defect candidate area in step S66 are repeatedly executed until the difference ΔN in the number of pixels becomes equal to or less than a predetermined value in step S67.

そして、ステップS67において画素数の差ΔNが所定値以下になるとステップS68へ進み、検出部24は、その時の第2欠陥候補領域を第2欠陥領域R3として記憶装置26に保存して、第2欠陥領域取得処理を終了し、ステップS7へ進む。 Then, in step S67, when the difference ΔN in the number of pixels becomes equal to or less than a predetermined value, the process proceeds to step S68, and the detection unit 24 stores the second defect candidate region at that time as the second defect region R3 in the storage device 26, and The defective area acquisition process is ended and the process proceeds to step S7.

なお、ここでは、ステップS61において評価実施領域R2に1の第2欠陥F2が検出された場合について説明するが、評価実施領域R2に複数の第2欠陥F2が検出された場合、各第2欠陥F2について上記のような領域拡張法を実行して第2欠陥領域R3を取得する。 Here, a case will be described in which one second defect F2 is detected in the evaluation implementation area R2 in step S61, but if a plurality of second defects F2 are detected in the evaluation implementation area R2, each second defect The region expansion method as described above is executed for F2 to obtain a second defective region R3.

また、上記したステップS67では、画素数の差ΔNが所定値以下であると、ステップS64~ステップS66の繰り返しを終了したが、画素数の差ΔNを直近の第2欠陥候補領域の画素数で除した値が所定値以下の場合や、画素数の差ΔNの変化量が所定値以下の場合に、ステップS64~ステップS66の繰り返しを終了してもよい。 In addition, in step S67 described above, when the difference ΔN in the number of pixels is less than the predetermined value, the repetition of steps S64 to S66 is terminated, but the difference ΔN in the number of pixels is determined by the number of pixels in the most recent second defect candidate area. If the divided value is less than or equal to a predetermined value, or if the amount of change in the difference ΔN in the number of pixels is less than or equal to a predetermined value, the repetition of steps S64 to S66 may be terminated.

また、本実施形態では、評価実施領域R2から第2欠陥領域R3を取得する第2欠陥領域取得処理として、ディープニューラルネットワークを使用して第2欠陥F2の重心領域G2を取得し、取得した重心領域G2を開始点とする領域拡張法を実行したが、このようなディープラーニングを用いた方法に加え、あるいはこのよう方法に代えて、輝度値が所定の閾値以下の画素の集合を第2欠陥領域R3として取得するなどルールベースシステムを用いて評価実施領域R2から第2欠陥領域R3を取得してもよい。 Furthermore, in the present embodiment, as a second defect area acquisition process that acquires the second defect area R3 from the evaluation implementation area R2, a deep neural network is used to acquire the gravity center area G2 of the second defect F2, and the acquired gravity center A region expansion method using region G2 as a starting point was performed, but in addition to or in place of such a method using deep learning, a set of pixels whose luminance values are below a predetermined threshold value is used as a second defect. The second defective region R3 may be acquired from the evaluation implementation region R2 using a rule-based system, such as by acquiring it as the region R3.

そして、検出部24が評価実施領域R2に存在する第2欠陥領域R3を取得すると、ステップS7において、評価部25は、第2欠陥領域R3の属性を予め作成したルールベースと照合するルールベースシステムを用いてランドLに存在する欠陥を評価する。評価部25は、例えば、第2欠陥領域の面積が所定値以下の場合にランドLに不良欠陥があると評価することができる。 Then, when the detection unit 24 acquires the second defect area R3 existing in the evaluation implementation area R2, in step S7, the evaluation unit 25 uses a rule base system that compares the attributes of the second defect area R3 with a rule base created in advance. Defects existing in land L are evaluated using For example, the evaluation unit 25 can evaluate that the land L has a defective defect when the area of the second defect region is less than or equal to a predetermined value.

なお、評価部25は、第2欠陥領域R3の面積以外にも、第2欠陥領域R3の形状、所定方向の長さ、最大長さ等の属性の1つまたは複数を組み合わせて予め作成したルールベースと照合してランドLに存在する欠陥を評価してもよい。 In addition to the area of the second defective region R3, the evaluation unit 25 also uses a rule created in advance by combining one or more of the attributes of the second defective region R3, such as the shape, the length in a predetermined direction, and the maximum length. Defects existing in the land L may be evaluated by comparing it with the base.

(3)効果
以上のような本実施形態では、ディープニューラルネットワークを用いて評価対象物の評価に影響しない第1欠陥F1を抽出し、当該第1欠陥領域R1を除外して評価実施領域R2を設定する。そのため、正常な領域とコントラストが類似する欠陥等のルールベースシステムによって評価しにくい欠陥を取り除くことができ、ルールベースシステムの評価ルールの設定を簡略化することができる。また、評価対象物の欠陥の評価をルールベースシステムに基づいて行うことができるため、評価基準の調整が可能となり信頼性の高い評価結果を得ることができる。
(3) Effect In this embodiment as described above, a deep neural network is used to extract the first defect F1 that does not affect the evaluation of the evaluation target object, and the evaluation implementation area R2 is created by excluding the first defect region R1. Set. Therefore, it is possible to remove defects that are difficult to evaluate using the rule-based system, such as defects whose contrast is similar to that of normal areas, and it is possible to simplify the setting of evaluation rules for the rule-based system. Furthermore, since defects in the evaluation object can be evaluated based on a rule-based system, evaluation criteria can be adjusted and highly reliable evaluation results can be obtained.

本実施形態では、領域抽出部22によって撮像画像から抽出することで所定位置に位置決めされた評価対象領域R0からディープニューラルネットワークを用いて第1欠陥F1を取得するため、第1欠陥F1を第2欠陥F2と誤検出したり、第1欠陥F1を検出できなかったりすることがなく、これを精度良く取得することができる。 In this embodiment, in order to obtain the first defect F1 using a deep neural network from the evaluation target region R0, which is extracted from the captured image by the region extracting unit 22 and positioned at a predetermined position, the first defect F1 is This can be accurately acquired without erroneously detecting the defect F2 or failing to detect the first defect F1.

本実施形態では、第1のディープニューラルネットワークにより評価対象領域R0から第1欠陥F1に対応する画素領域を決定し、決定した画素領域を所定量拡張した領域を第1欠陥領域とするため、簡便に第1欠陥領域R1を決定することができる。 In this embodiment, the pixel area corresponding to the first defect F1 is determined from the evaluation target area R0 by the first deep neural network, and the area obtained by expanding the determined pixel area by a predetermined amount is set as the first defect area. The first defect region R1 can be determined.

本実施形態では、第2のディープニューラルネットワークを用いて取得した第2欠陥F2の重心領域G2を開始点とする領域拡張法を用いて第2欠陥領域R3を取得するため、第2欠陥F2の検出漏れを抑えつつ、第2欠陥F2の形状を精度良く検出することができる。 In this embodiment, in order to obtain the second defect region R3 using the region expansion method starting from the centroid region G2 of the second defect F2 obtained using the second deep neural network, The shape of the second defect F2 can be detected with high accuracy while suppressing detection omissions.

以上、本発明の実施形態を説明したが、これらの実施形態は例として提示したものであり、発明の範囲を限定することを意図していない。これらの実施形態は、その他の様々な形態で実施されることが可能であり、発明の趣旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これらの実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。 Although the embodiments of the present invention have been described above, these embodiments are presented as examples and are not intended to limit the scope of the invention. These embodiments can be implemented in various other forms, and various omissions, substitutions, and changes can be made without departing from the spirit of the invention. These embodiments and their modifications are included within the scope and gist of the invention as well as within the scope of the invention described in the claims and its equivalents.

例えば、上記した実施形態では、第1のディープニューラルネットワークを使用して取得した第1欠陥F1に対応する画素領域を拡張して第1欠陥領域R1を取得したが、例えば、第1のディープニューラルネットワークを使用して取得した第1欠陥F1の重心位置に対応する画素領域を取得し、当該画素領域を開始点とする領域拡張法を実行することで第1欠陥領域R1を取得してもよい。 For example, in the embodiment described above, the pixel region corresponding to the first defect F1 obtained using the first deep neural network is expanded to obtain the first defect region R1. The first defect region R1 may be obtained by obtaining a pixel region corresponding to the centroid position of the first defect F1 obtained using a network, and executing a region expansion method using the pixel region as a starting point. .

10…欠陥評価装置、11…撮像部、12…ステージ、13…Xステージ、14…Yステージ、15…撮像カメラ、16…照明装置、20…制御部、21…カメラ制御部、22…領域抽出部、23…第1欠陥決定部、24…検出部、25…評価部、26…記憶装置、F1…第1欠陥、F2…第2欠陥、P…プリント基板、L…ランド、R0…評価対象領域、R1…第1欠陥領域、R2…評価実施領域、R3…第2欠陥領域 DESCRIPTION OF SYMBOLS 10... Defect evaluation device, 11... Imaging part, 12... Stage, 13... X stage, 14... Y stage, 15... Imaging camera, 16... Illumination device, 20... Control part, 21... Camera control part, 22... Area extraction Part, 23...First defect determination unit, 24...Detection unit, 25...Evaluation unit, 26...Storage device, F1...First defect, F2...Second defect, P...Printed circuit board, L...Land, R0...Evaluation target area, R1...first defect area, R2...evaluation implementation area, R3...second defect area

Claims (9)

評価対象物を撮像して得た撮像画像に基づいて、前記評価対象物に発生している欠陥を評価する欠陥評価方法において、
前記撮像画像から前記評価対象物に発生している欠陥の評価を行う評価対象領域を抽出し、第1欠陥の形状を学習した第1のディープニューラルネットワークを用いて、前記評価対象領域から前記第1欠陥に対応する画素領域である第1欠陥領域を取得し、
前記評価対象領域から前記第1欠陥領域を除外した評価実施領域を設定し、
前記評価実施領域から第2欠陥に対応する画素領域である第2欠陥領域を取得し、
取得した前記第2欠陥領域の属性に基づいて、ルールベースシステムを用いて前記評価対象物に発生している欠陥を評価する欠陥評価方法であって、
前記評価対象物が、基板であり、
前記第1欠陥が、前記基板のランドに形成されたプローブ痕であり、
前記ランドに対応する画素領域を、前記評価対象領域として抽出する欠陥評価方法。
In a defect evaluation method for evaluating defects occurring in the evaluation object based on a captured image obtained by imaging the evaluation object,
An evaluation target area for evaluating defects occurring in the evaluation target object is extracted from the captured image, and a first deep neural network that has learned the shape of the first defect is used to extract the evaluation target area from the evaluation target area . Obtaining a first defect area, which is a pixel area corresponding to one defect,
setting an evaluation implementation area excluding the first defect area from the evaluation target area ;
Obtaining a second defect area that is a pixel area corresponding to the second defect from the evaluation implementation area,
A defect evaluation method for evaluating defects occurring in the evaluation target object using a rule-based system based on the acquired attributes of the second defect area ,
The evaluation target is a substrate,
The first defect is a probe mark formed on a land of the substrate,
A defect evaluation method that extracts a pixel area corresponding to the land as the evaluation target area.
評価対象物を撮像して得た撮像画像に基づいて、前記評価対象物に発生している欠陥を評価する欠陥評価方法において、
前記撮像画像から前記評価対象物に発生している欠陥の評価を行う評価対象領域を抽出し、第1欠陥の形状を学習した第1のディープニューラルネットワークを用いて、前記評価対象領域から前記第1欠陥に対応する画素領域である第1欠陥領域を取得し、
前記評価対象領域から前記第1欠陥領域を除外した評価実施領域を設定し、
前記評価実施領域から第2欠陥に対応する画素領域である第2欠陥領域を取得し、
取得した前記第2欠陥領域の属性に基づいて、ルールベースシステムを用いて前記評価対象物に発生している欠陥を評価する欠陥評価方法であって、
前記第1のディープニューラルネットワークにより前記撮像画像又は前記評価対象領域から前記第1欠陥に対応する画素領域を決定し、決定した画素領域を所定量拡張した領域を前記第1欠陥領域とする欠陥評価方法。
In a defect evaluation method for evaluating defects occurring in the evaluation object based on a captured image obtained by imaging the evaluation object,
An evaluation target area for evaluating defects occurring in the evaluation target object is extracted from the captured image, and a first deep neural network that has learned the shape of the first defect is used to extract the evaluation target area from the evaluation target area . Obtaining a first defect area, which is a pixel area corresponding to one defect,
setting an evaluation implementation area excluding the first defect area from the evaluation target area ;
Obtaining a second defect area that is a pixel area corresponding to the second defect from the evaluation implementation area,
A defect evaluation method for evaluating defects occurring in the evaluation target object using a rule-based system based on the acquired attributes of the second defect area ,
Defect evaluation in which a pixel area corresponding to the first defect is determined from the captured image or the evaluation target area by the first deep neural network, and an area obtained by expanding the determined pixel area by a predetermined amount is set as the first defect area. Method.
評価対象物を撮像して得た撮像画像に基づいて、前記評価対象物に発生している欠陥を評価する欠陥評価方法において、
第1欠陥の形状を学習した第1のディープニューラルネットワークを用いて、前記撮像画像から前記第1欠陥に対応する画素領域である第1欠陥領域を取得し、
前記撮像画像から前記第1欠陥領域を除外した評価実施領域を設定し、
前記評価実施領域から第2欠陥に対応する画素領域である第2欠陥領域を取得し、
取得した前記第2欠陥領域の属性に基づいて、ルールベースシステムを用いて前記評価対象物に発生している欠陥を評価する欠陥評価方法であって、
前記第1欠陥の形状を学習した第1のディープニューラルネットワークを用いて、前記第1欠陥の重心位置に対応する画素領域である重心領域を取得し、前記重心領域を開始点とする領域拡張法を用いて前記第1欠陥領域を取得する欠陥評価方法。
In a defect evaluation method for evaluating defects occurring in the evaluation object based on a captured image obtained by imaging the evaluation object,
Obtaining a first defect area that is a pixel area corresponding to the first defect from the captured image using a first deep neural network that has learned the shape of the first defect;
setting an evaluation implementation area excluding the first defect area from the captured image;
Obtaining a second defect area that is a pixel area corresponding to the second defect from the evaluation implementation area,
A defect evaluation method for evaluating defects occurring in the evaluation target object using a rule-based system based on the acquired attributes of the second defect area ,
A region expansion method that uses a first deep neural network that has learned the shape of the first defect to obtain a centroid region that is a pixel region corresponding to the centroid position of the first defect, and uses the centroid region as a starting point. A defect evaluation method for obtaining the first defect area using.
評価対象物を撮像して得た撮像画像に基づいて、前記評価対象物に発生している欠陥を評価する欠陥評価方法において、
第1欠陥の形状を学習した第1のディープニューラルネットワークを用いて、前記撮像画像から前記第1欠陥に対応する画素領域である第1欠陥領域を取得し、
前記撮像画像から前記第1欠陥領域を除外した評価実施領域を設定し、
前記評価実施領域から第2欠陥に対応する画素領域である第2欠陥領域を取得し、
取得した前記第2欠陥領域の属性に基づいて、ルールベースシステムを用いて前記評価対象物に発生している欠陥を評価する欠陥評価方法であって、
前記第2欠陥の形状を学習した第2のディープニューラルネットワークを用いて、前記第2欠陥の重心位置に対応する画素領域である重心領域を取得し、前記重心領域を開始点とする領域拡張法を用いて前記第2欠陥領域を取得する欠陥評価方法。
In a defect evaluation method for evaluating defects occurring in the evaluation object based on a captured image obtained by imaging the evaluation object,
Obtaining a first defect area that is a pixel area corresponding to the first defect from the captured image using a first deep neural network that has learned the shape of the first defect;
setting an evaluation implementation area excluding the first defect area from the captured image;
Obtaining a second defect area that is a pixel area corresponding to the second defect from the evaluation implementation area,
A defect evaluation method for evaluating defects occurring in the evaluation target object using a rule-based system based on the acquired attributes of the second defect area ,
A region expansion method that uses a second deep neural network that has learned the shape of the second defect to acquire a centroid region that is a pixel region corresponding to the centroid position of the second defect, and uses the centroid region as a starting point. A defect evaluation method for obtaining the second defect area using.
前記撮像画像から、前記ランドの位置を取得し、
事前に形状及び大きさが設定された領域を、前記撮像画像における前記ランドの位置に対応させて、前記評価対象領域とする請求項に記載の欠陥評価方法。
obtaining the position of the land from the captured image;
2. The defect evaluation method according to claim 1 , wherein an area whose shape and size are set in advance is set as the evaluation target area in correspondence with the position of the land in the captured image.
所定の条件を満たした際に、前記第1のディープニューラルネットワークに前記プローブ痕である前記第1欠陥の形状を再学習させ、
前記再学習において、前回の再学習のとき以降の欠陥評価に使用した撮像画像を教師データとして使用する請求項1又は5に記載の欠陥評価方法。
When a predetermined condition is met, causing the first deep neural network to relearn the shape of the first defect that is the probe mark,
6. The defect evaluation method according to claim 1, wherein, in the relearning, captured images used for defect evaluation after the previous relearning are used as training data.
前記領域拡張法において、
検査領域内から前記第1欠陥または前記第2欠陥に対応する画素領域である欠陥候補領域を検出する欠陥候補領域検出ステップと、
検出された前記欠陥候補領域を拡張したものを新たな検査領域とする検査領域更新ステップと、を順次繰り返し実行し、
直近の前記欠陥候補領域検出ステップにおいて検出された前記欠陥候補領域と、その前回の前記欠陥候補領域検出ステップにおいて検出された前記欠陥候補領域との差分領域の大きさに基づいて、前記繰り返しを終了するか否かを判断する請求項またはに記載の欠陥評価方法。
In the region expansion method,
a defect candidate area detection step of detecting a defect candidate area that is a pixel area corresponding to the first defect or the second defect from within the inspection area;
sequentially and repeatedly performing an inspection area updating step in which an expanded area of the detected defect candidate area is set as a new inspection area;
The repetition is terminated based on the size of the difference area between the defect candidate area detected in the most recent defect candidate area detection step and the defect candidate area detected in the previous defect candidate area detection step. 5. The defect evaluation method according to claim 3 or 4 , wherein it is determined whether or not.
前記ルールベースシステムが、前記第2欠陥領域の面積に基づいて前記評価対象物に発生している欠陥を評価する請求項1~のいずれか1項に記載の欠陥評価方法。 8. The defect evaluation method according to claim 1, wherein the rule-based system evaluates defects occurring in the evaluation target object based on the area of the second defect region. 前記評価対象物を撮像して得た前記撮像画像に基づいて、前記評価対象物に発生している欠陥を評価する評価装置に用いられるソフトウエアであった、請求項1~のいずれか1項に記載の欠陥評価方法を実行させるためのプログラム。 Any one of claims 1 to 8 , wherein the software is used in an evaluation device that evaluates defects occurring in the evaluation object based on the captured image obtained by imaging the evaluation object. A program for executing the defect evaluation method described in Section 1.
JP2020202952A 2020-12-07 2020-12-07 Defect evaluation method and program Active JP7453552B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020202952A JP7453552B2 (en) 2020-12-07 2020-12-07 Defect evaluation method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020202952A JP7453552B2 (en) 2020-12-07 2020-12-07 Defect evaluation method and program

Publications (2)

Publication Number Publication Date
JP2022090513A JP2022090513A (en) 2022-06-17
JP7453552B2 true JP7453552B2 (en) 2024-03-21

Family

ID=81990238

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020202952A Active JP7453552B2 (en) 2020-12-07 2020-12-07 Defect evaluation method and program

Country Status (1)

Country Link
JP (1) JP7453552B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003344309A (en) 2002-05-30 2003-12-03 Olympus Optical Co Ltd Method of setting parameter for inspection equipment
JP2012026982A (en) 2010-07-27 2012-02-09 Panasonic Electric Works Sunx Co Ltd Inspection device
JP2020098108A (en) 2018-12-17 2020-06-25 株式会社大林組 Surface defect inspection method
WO2020158630A1 (en) 2019-01-31 2020-08-06 株式会社カネカ Detecting device, learner, computer program, detecting method, and method for generating learner

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003344309A (en) 2002-05-30 2003-12-03 Olympus Optical Co Ltd Method of setting parameter for inspection equipment
JP2012026982A (en) 2010-07-27 2012-02-09 Panasonic Electric Works Sunx Co Ltd Inspection device
JP2020098108A (en) 2018-12-17 2020-06-25 株式会社大林組 Surface defect inspection method
WO2020158630A1 (en) 2019-01-31 2020-08-06 株式会社カネカ Detecting device, learner, computer program, detecting method, and method for generating learner

Also Published As

Publication number Publication date
JP2022090513A (en) 2022-06-17

Similar Documents

Publication Publication Date Title
CN106803244B (en) Defect identification method and system
JP6294529B1 (en) Crack detection processing apparatus and crack detection processing program
US8355562B2 (en) Pattern shape evaluation method
US6925203B1 (en) Position detection apparatus and exposure apparatus
JP4842374B2 (en) Image processing apparatus, image processing method, and image processing program
KR20120068128A (en) Method of detecting defect in pattern and apparatus for performing the method
US9805443B2 (en) Image processing method, image processing apparatus, program, storage medium, production apparatus, and method of producing assembly
US20080205769A1 (en) Apparatus, method and program product for matching with a template
JP2010520622A (en) Method for accurately identifying the edge of an inspection area for an array area formed on a wafer, and a method for binning detected defects in an array area formed on a wafer
KR101359280B1 (en) Pattern matching method, recording medium having pattern matching program recorded thereon, electronic computer, and electronic device testing apparatus
CN115423755A (en) Wafer micromachining structure defect detection method and device, equipment and medium thereof
JP2006222899A (en) Image processing apparatus and image processing method
JP7453552B2 (en) Defect evaluation method and program
JP4432575B2 (en) Pattern image determination method
JP2010091401A (en) Method for assisting data preparation for teacher, and method and device for classifying image
JP2005310805A (en) Pattern searching method
JP4951591B2 (en) Matching method corresponding to disappearance of pattern and inspection apparatus using the same
TW202011255A (en) Contour extraction method, contour extraction device, and non-volatile recording medium
JP2007071791A (en) Defect determination method
KR102542367B1 (en) Method for automatically setting the optimal scan range in a focus variation-based 3D measuring machine
US20240005528A1 (en) Information processing apparatus, learning apparatus, and tracking method
TWI845970B (en) Inspection equipment and measuring equipment
CN117474916B (en) Image detection method, electronic equipment and storage medium
JP7438470B2 (en) Person detection device, person detection method, and person detection program
TWI767458B (en) Pattern matching device, pattern determination system and non-transitory computer readable medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221207

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20230817

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230929

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231003

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231121

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240123

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240219

R150 Certificate of patent or registration of utility model

Ref document number: 7453552

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150