JP7489436B2 - Inspection device and inspection method - Google Patents

Inspection device and inspection method Download PDF

Info

Publication number
JP7489436B2
JP7489436B2 JP2022145315A JP2022145315A JP7489436B2 JP 7489436 B2 JP7489436 B2 JP 7489436B2 JP 2022145315 A JP2022145315 A JP 2022145315A JP 2022145315 A JP2022145315 A JP 2022145315A JP 7489436 B2 JP7489436 B2 JP 7489436B2
Authority
JP
Japan
Prior art keywords
image
inspection
processing unit
inspected
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022145315A
Other languages
Japanese (ja)
Other versions
JP2024040757A (en
Inventor
忠弘 片根
敦史 袖山
望 桐生
和紀 津島
勲 品田
隆浩 日下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Industry and Control Solutions Co Ltd
Original Assignee
Hitachi Industry and Control Solutions Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Industry and Control Solutions Co Ltd filed Critical Hitachi Industry and Control Solutions Co Ltd
Priority to JP2022145315A priority Critical patent/JP7489436B2/en
Priority to PCT/JP2023/022225 priority patent/WO2024057644A1/en
Publication of JP2024040757A publication Critical patent/JP2024040757A/en
Application granted granted Critical
Publication of JP7489436B2 publication Critical patent/JP7489436B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/90Investigating the presence of flaws or contamination in a container or its contents
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Biochemistry (AREA)
  • Analytical Chemistry (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Chemical & Material Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • Image Analysis (AREA)

Description

本発明は、検査装置、および、検査方法に関する。 The present invention relates to an inspection device and an inspection method.

従来、透明容器中に充填された液体中の異物を検査する場合、特許文献1に示すような異物自動検査装置を用いていた。この異物自動検査装置では、透明容器を回転させてから静止させた後、カメラやセンサ等で透明容器内の慣性回転する液体中に浮遊する異物を検出するといった異物検査が行われている。 Conventionally, when inspecting for foreign bodies in liquid filled in a transparent container, an automatic foreign body inspection device such as that shown in Patent Document 1 has been used. In this automatic foreign body inspection device, the transparent container is rotated and then stopped, and then a foreign body inspection is performed by using a camera, sensor, etc. to detect foreign bodies floating in the liquid rotating due to inertia inside the transparent container.

また、この液体充填容器の外観状態を検査する外観検査も行われている。 In addition, a visual inspection is also carried out to check the external appearance of the liquid-filled container.

特開2014-109526号公報JP 2014-109526 A

従来の検査装置は、液体充填容器を回転させてから停止することで、内容液のみが動いた状態で内容液を撮影し、移動しているものの有無を検査することで、異物の有無を検査している。しかし、泡がある場合、泡と異物との区別が困難で、誤検出が多発するという問題がある。 Conventional inspection devices rotate a liquid-filled container and then stop it, photographing the contents while only the contents are moving, and inspecting for the presence of foreign objects by checking whether anything is moving. However, when bubbles are present, it is difficult to distinguish between bubbles and foreign objects, resulting in frequent false positives.

また、液体充填容器の外観検査において、形状の複雑なバイアルのゴム栓部分や、バイアルの肩部付近の水滴付着部分、液面付近などは、製品や環境の影響でばらつきが多く、検査が困難である。この部分は、目視による人手検査を行っていた。よって、このような場合でも十分な精度で機械による外観検査を行うことが求められている。 In addition, when inspecting the appearance of liquid-filled containers, it is difficult to inspect the rubber stoppers of vials that have complex shapes, the areas where water droplets are attached near the shoulders of the vials, and areas near the liquid surface, as these vary greatly due to product and environmental influences. These areas have traditionally been inspected manually by visual inspection. Therefore, there is a demand for machines to be able to perform appearance inspections with sufficient precision even in such cases.

そこで、本発明は、液中異物検査及び外観検査の精度を向上させることを課題とする。 Therefore, the objective of the present invention is to improve the accuracy of in-liquid foreign body inspection and visual inspection.

前記した課題を解決するため、本発明の検査装置は、検査対象物を撮影した映像を画像処理する画像処理部と、前記検査対象物の映像および前記検査対象物が良品と不良品の何れであるかを示す指標を組み合わせた教師データを学習した学習パラメータにより、前記検査対象物の映像に撮影された異物をラベル付けするAI処理部と、前記画像処理部が処理した映像および前記AI処理部がラベル付けした映像に基づき、前記検査対象物が良品と不良品のうち何れであるかを判定する判定部と、を備える。 To solve the above-mentioned problems, the inspection device of the present invention includes an image processing unit that performs image processing on the image of the object to be inspected, an AI processing unit that labels foreign objects captured in the image of the object to be inspected using learning parameters that are learned from teacher data that combines the image of the object to be inspected and an index that indicates whether the object to be inspected is a good product or a defective product, and a judgment unit that judges whether the object to be inspected is a good product or a defective product based on the image processed by the image processing unit and the image labeled by the AI processing unit.

本発明の検査方法は、検査対象物を撮影した映像を、画像処理部が画像処理するステップと、前記検査対象物の映像および前記検査対象物が良品と不良品の何れであるかを示す指標を組み合わせた教師データを学習した学習パラメータにより、AI処理部が、前記検査対象物の映像に撮影された異物をラベル付けするステップと、前記画像処理部が処理した映像および前記AI処理部がラベル付けした映像に基づき、判定部が、前記検査対象物が良品と不良品のうち何れであるかを判定するステップと、を備えることを特徴とする。
その他の手段については、発明を実施するための形態のなかで説明する。
The inspection method of the present invention is characterized by comprising the steps of: an image processing unit performing image processing on an image of an object to be inspected; an AI processing unit labeling foreign objects photographed in the image of the object to be inspected using learning parameters learned from teacher data that combines the image of the object to be inspected and an indicator indicating whether the object to be inspected is a good product or a defective product; and a judgment unit judging whether the object to be inspected is a good product or a defective product based on the image processed by the image processing unit and the image labeled by the AI processing unit.
Other means will be described in the description of the embodiment of the invention.

本発明によれば、外観検査の精度を向上させることが可能となる。また、容器外観検査による死角を減らし、目視による検査部位を減らすことが可能となる。 The present invention makes it possible to improve the accuracy of visual inspection. It also makes it possible to reduce blind spots during container visual inspection and reduce the number of areas that need to be visually inspected.

本実施形態に係る検査装置の構成図である。FIG. 1 is a configuration diagram of an inspection device according to an embodiment of the present invention. 検査装置の台座と照明を示す概念図である。FIG. 1 is a conceptual diagram showing a base and lighting of an inspection device. 検査装置の生産録画時の動作を説明する図である。FIG. 13 is a diagram illustrating the operation of the inspection device during production recording. 検査装置の再生調整時の動作を説明する図である。11A and 11B are diagrams illustrating the operation of the inspection device during regeneration adjustment. 学習環境装置の構成図である。FIG. 2 is a configuration diagram of a learning environment device. AI処理ユニットの学習手順を説明する図である。FIG. 13 is a diagram illustrating the learning procedure of the AI processing unit. AI処理ユニットの学習処理のフローチャートである。13 is a flowchart of the learning process of the AI processing unit. 検査処理のフローチャートである。13 is a flowchart of an inspection process. 黒色異物に係る入力映像である。11 is an input video relating to a black foreign object. 黒色異物に係る入力映像を領域分割して不良箇所を認識した画像である。This is an image in which an input video relating to black foreign matter is divided into regions to recognize defective areas. 白色異物に係る入力映像である。11 is an input image relating to a white foreign object. 白色異物に係る入力映像を領域分割して不良箇所を認識した画像である。This is an image in which an input video of a white foreign object is divided into regions to recognize defective areas. 気泡に係る入力映像である。13 is an input image relating to bubbles. 気泡に係る入力映像を領域分割した画像である。11 is an image obtained by dividing an input video relating to bubbles into regions.

以降、本発明を実施するための形態を、各図を参照して詳細に説明する。
本発明のターゲットとなる第1の事例は、良品状態にバラツキのあるものであり、凍結乾燥剤(ケーキ)上面異物検査等である。良品形状に不良よりも大きなバラツキ(ケーキ割れ等)があるため、不良との判別が困難である。現状課題は、ケーキ割れを不良と誤検知することである。
Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.
The first example that is the target of this invention is an inspection of the top surface of a freeze-dried agent (cake) for foreign matter, which has a large variation in the state of a good product. Since the shape of a good product has a larger variation (cake cracks, etc.) than a defective product, it is difficult to distinguish it from a defective product. The current problem is that the cake cracks are erroneously detected as a defective product.

第2の事例は、検査領域や検出感度に制限がでるものであり、シリンジゴム栓横異物検査等である。形状変化部分(境界部など)に不良がある場合、検査領域や検出感度に制限がでる。現状課題は、不良の見逃しや、境界部分を不良と誤検知することである。 The second example is one in which there are limitations to the inspection area and detection sensitivity, such as inspecting for foreign objects next to a rubber stopper of a syringe. If there is a defect in an area where there is a change in shape (such as a boundary), there are limitations to the inspection area and detection sensitivity. Current issues include overlooking defects and falsely detecting boundary areas as defects.

第3の事例は、検査時の画像が毎回変化するものであり、バイアルのゴム栓内側異物検査等である。回転して検査画像を撮像する為、角度に応じた検査領域設定が必要となる。現状課題は、不良の見逃しや、境界部分を不良と誤検知することである。 The third example is one in which the image changes each time the inspection is performed, such as inspecting the inside of a vial's rubber stopper for foreign objects. Since the inspection image is taken by rotating, it is necessary to set the inspection area according to the angle. Current issues include overlooking defects and falsely detecting boundary areas as defective.

以下、本実施形態は、異物検査装置に係り、アンプル、バイアル等の透過性のある容器中に充填された液体中の異物検査、および、液体充填容器の外観検査の技術を例として説明する。しかし、これに限られず、上記第1から第3の事例に適用してもよく、限定されない。 The following description of this embodiment relates to a foreign body inspection device, and uses as an example a technique for inspecting foreign bodies in liquids filled in permeable containers such as ampoules and vials, and for visual inspection of liquid-filled containers. However, this is not limited to this, and the present invention may also be applied to the first to third cases described above, and is not limited thereto.

図1は、本実施形態に係る検査装置1の構成図である。
検査装置1は、図2に示した検査対象容器8の被検体内の異物、および、検査対象容器8の外観を検査するものである。検査装置1は、カメラ2と、制御部13と、画像処理ユニット3と、AI処理ユニット4と、判定部7とを含んで構成される。
FIG. 1 is a configuration diagram of an inspection device 1 according to the present embodiment.
The inspection device 1 inspects foreign matter inside a test object of an inspection target container 8 shown in Fig. 2 and the external appearance of the inspection target container 8. The inspection device 1 includes a camera 2, a control unit 13, an image processing unit 3, an AI processing unit 4, and a judgment unit 7.

図2に示すように、この検査装置1は、検査対象容器8を回転させる台座11と、検査対象容器8に側方から光を照射する照明12とを含んで構成される。
カメラ2は、検査対象容器8を撮影する。なお、カメラ2は、検査対象物を撮影するものであればよい。検査対象物は、検査対象容器8およびその中の液体に限定されない。制御部13は、カメラ2の輝度補正と検査位置補正により、検査対象物を撮影した映像の条件を揃える。
As shown in FIG. 2, the inspection device 1 includes a base 11 for rotating the inspection target container 8, and a light 12 for irradiating the inspection target container 8 with light from the side.
The camera 2 photographs the container 8 to be inspected. The camera 2 may be any camera capable of photographing the object to be inspected. The object to be inspected is not limited to the container 8 to be inspected and the liquid therein. The control unit 13 adjusts the conditions of the image of the object to be inspected by correcting the brightness and the inspection position of the camera 2.

図1に示すように、画像処理ユニット3は、入力された映像信号にフィルタ処理を施す検査処理部31を備え、カメラ2が撮影した検査対象容器8の映像を画像処理する画像処理部である。これにより、判定部7は、液体内の異物の有無を判定可能となる。AI処理ユニット4は、異物を学習した学習パラメータ41を格納しており、カメラ2による撮影映像に対して、領域分割のAI(Artificial Intelligence)処理を実行するAI処理部である。AI処理ユニット4は、カメラ2が撮影した検査対象容器8の映像および検査対象容器8が良品と不良品のうち何れかを示す指標を組み合わせた教師データを学習した学習パラメータ41を格納する。AI処理ユニット4は、学習パラメータ41を用いて、検査対象容器8の映像に撮影された異物をラベル付けする。ここで異物をラベル付けするとは、AI処理ユニット4が、この異物が撮影されている映像領域に対して、異物であることを示すラベル情報を付与することをいう。 As shown in FIG. 1, the image processing unit 3 is an image processing unit that includes an inspection processing unit 31 that performs filter processing on the input video signal and performs image processing on the image of the container 8 to be inspected captured by the camera 2. This enables the judgment unit 7 to judge the presence or absence of a foreign object in the liquid. The AI processing unit 4 stores learning parameters 41 that have learned foreign objects, and is an AI processing unit that performs AI (Artificial Intelligence) processing of area division on the image captured by the camera 2. The AI processing unit 4 stores learning parameters 41 that have learned teacher data that combines the image of the container 8 to be inspected captured by the camera 2 and an indicator that indicates whether the container 8 to be inspected is a good product or a defective product. The AI processing unit 4 uses the learning parameters 41 to label the foreign object captured in the image of the container 8 to be inspected. Here, labeling the foreign object means that the AI processing unit 4 assigns label information indicating that the foreign object is a foreign object to the image area in which the foreign object is captured.

判定部7は、画像処理ユニット3が処理した映像と、AI処理ユニット4がラベル付けした映像により異物の有無を検査し、更に外観不良の有無を検査する。判定部7は、AI処理した映像により、ピクセルごとに異物か否かを判定可能である。
判定部7は、画像処理ユニット3が処理した映像から第1の異常領域を抽出し、AI処理ユニットがラベル付けした映像から第2の異常領域を抽出する。判定部7は、第1の異常領域と第1の異常領域との論理積により、検査対象容器8およびその中の液体が、良品と不良品のうち何れかを判定する。
The determination unit 7 inspects the presence or absence of foreign objects using the image processed by the image processing unit 3 and the image labeled by the AI processing unit 4, and further inspects the presence or absence of appearance defects. The determination unit 7 can determine whether or not there is a foreign object for each pixel using the AI-processed image.
The determination unit 7 extracts a first abnormal region from the image processed by the image processing unit 3, and extracts a second abnormal region from the image labeled by the AI processing unit. The determination unit 7 determines whether the inspection target container 8 and the liquid therein are good or bad by performing a logical AND between the first abnormal region and the second abnormal region.

検査装置1は、画像処理ユニット3の従来検査と同時に、AI処理ユニット4によるAI処理を実施する。そして、判定部7は、AI処理結果と従来検査結果とを合わせ、両方の不良判定(論理積)で総合判定する。これにより、機械による外観検査の精度を向上させることが可能となる。また、容器外観検査による死角を減らし、目視による検査部位を減らすことが可能となる。また、両方の不良判定(論理積)で総合判定するため、AI処理にて、良品を不良と誤判定することが或る程度まで許される。よって学習工数を低減させることができる。 The inspection device 1 performs AI processing by the AI processing unit 4 at the same time as conventional inspection by the image processing unit 3. The judgment unit 7 then combines the AI processing results with the conventional inspection results and makes an overall judgment based on the defective judgment (logical product) of both. This makes it possible to improve the accuracy of mechanical appearance inspection. It also makes it possible to reduce blind spots in container appearance inspection and reduce the number of areas inspected visually. Furthermore, because an overall judgment is made based on the defective judgment (logical product) of both, it is permissible to a certain extent for the AI processing to erroneously judge good products as defective. This makes it possible to reduce the amount of learning labor required.

なお、判定部7は、AI処理結果と従来検査結果とを合わせ、何れか一方の不良判定(論理和)で総合判定してもよい。この場合、不良を良品と誤判定することが或る程度まで許されるため、学習工数を低減させることができる。 The judgment unit 7 may combine the AI processing results and the conventional inspection results and make an overall judgment by judging either one to be defective (logical sum). In this case, since it is permissible to a certain extent to erroneously judge defective products to be non-defective, it is possible to reduce the amount of learning labor.

また、AI処理を行うためには学習が必要となるが、検査装置1上での学習では再現が困難であり、かつ生産中にパラメータ調整のための学習が並行して実施できないという問題がある。 In addition, learning is necessary to perform AI processing, but there is a problem that it is difficult to reproduce learning on the inspection device 1, and learning for parameter adjustment cannot be performed in parallel during production.

図3に示すように、画像処理ユニット3は、図1に示す検査装置1の録画機能を用いて、カメラ2により撮影した生産中の検査対象容器8の撮影映像を記憶装置6にデジタル録画する。これにより、映像の評価および生産運転しながら、全ての入力映像を録画し、AI学習用の大量データを取得することができる。 As shown in FIG. 3, the image processing unit 3 uses the recording function of the inspection device 1 shown in FIG. 1 to digitally record the images of the containers 8 to be inspected during production captured by the camera 2 in the storage device 6. This makes it possible to record all input images while evaluating the images and operating the production line, and to obtain large amounts of data for AI learning.

図4に示すように、機械運転なしに記憶装置6に録画された映像を再生して、これを画像処理ユニット3が評価して調整することで、検査結果を出力する。この検査結果を人手で修正することにより、教師データを得ることができる。 As shown in Figure 4, the video recorded in the storage device 6 is played back without the machine being operated, and the image processing unit 3 evaluates and adjusts it to output the inspection results. By manually correcting these inspection results, training data can be obtained.

図5に示すように、検査装置1とは別の学習環境装置5により、この撮影映像と教師データを用いて学習部52が学習して学習パラメータ51を生成する。性能確認部53は、学習パラメータ51による検査の性能を確認する。 As shown in FIG. 5, a learning environment device 5 separate from the inspection device 1 uses the captured video and teacher data to generate learning parameters 51 through learning by a learning unit 52. A performance confirmation unit 53 confirms the performance of the inspection using the learning parameters 51.

性能確認部53は、記憶装置6に録画された撮影映像を用いて、従来処理と、AI処理の両方で、学習結果である学習パラメータ51のシミュレーションを実施する。よって、この結果を比較して効果の確認が可能となる。 The performance confirmation unit 53 uses the captured images recorded in the storage device 6 to perform a simulation of the learning parameters 51, which are the learning results, for both conventional processing and AI processing. This makes it possible to compare these results and confirm the effectiveness.

効果が確認出来たら、学習環境装置5は、AI処理の学習結果である学習パラメータ51を、学習パラメータ41として検査装置1に登録する。これにより、この学習結果は、検査装置1に反映される。 Once the effectiveness is confirmed, the learning environment device 5 registers the learning parameters 51, which are the learning results of the AI processing, in the inspection device 1 as learning parameters 41. As a result, the learning results are reflected in the inspection device 1.

AI処理は、人が背景、異物、傷、泡などを指定して学習させる必要がある。工数低減のため、本実施形態では、従来の画像処理ユニット3の機能を用いて背景と異物と汚れ等の情報を抽出し、抽出結果を画面表示する。その画面表示をもとに、画像処理ユニット3の判断に間違いが無いか否かを人が確認する。これにより、比較的容易に教師データを生成可能である。
そして、学習環境装置5は、この教師データを学習する。また、このときに、人の判断を減らすため、学習環境装置5は、一定以下の大きさの異物は無視する、薄いものは良品とするなどの条件を付けることで、判断する枚数を減らすことができる。
AI processing requires that a person specifies the background, foreign objects, scratches, bubbles, etc. for learning. To reduce the number of steps, in this embodiment, information on the background, foreign objects, dirt, etc. is extracted using the functions of the conventional image processing unit 3, and the extracted results are displayed on the screen. Based on the screen display, a person checks whether or not there is an error in the judgment of the image processing unit 3. This makes it relatively easy to generate training data.
The learning environment device 5 then learns this teacher data. At this time, in order to reduce the need for human judgment, the learning environment device 5 can reduce the number of sheets to be judged by setting conditions such as ignoring foreign objects of a certain size or smaller and determining thin ones as non-defective.

図6は、図1に示すAI処理ユニット4の学習手順を説明する図である。
この学習手順は、検査装置1による処理と、学習部52による処理と、性能確認部53による処理とに大別される。
FIG. 6 is a diagram for explaining the learning procedure of the AI processing unit 4 shown in FIG.
This learning procedure is roughly divided into processing by the inspection device 1, processing by the learning unit 52, and processing by the performance confirmation unit 53.

ステップS10にて、検査装置1は、従来の検査処理を実行する。この従来の検査処理の結果と撮影映像は、学習部52に引き渡される。
ステップS11にて、学習部52は、従来の検査処理の結果と、そのときの撮影映像を元に、映像内の要素をラベルとして学習する。この学習結果である学習パラメータ51(図5)は、性能確認部53に引き渡される。
In step S10, the inspection device 1 executes a conventional inspection process. The result of the conventional inspection process and the captured image are passed to the learning unit 52.
In step S11, the learning unit 52 learns elements in the image as labels based on the results of the conventional inspection process and the captured image at that time. The learning results, learning parameters 51 (FIG. 5), are passed to the performance confirmation unit 53.

ステップS12にて、性能確認部53は、評価用映像を用いて、学習パラメータ51(図5)の性能を確認する。ステップS11とS12の処理は、所望の性能が得られるまで繰り返される。ここで所望の性能とは、画像処理ユニット3が誤って不良として判定した泡などを、学習パラメータ51を用いたAI処理が良品として判定し、かつ画像処理ユニット3が正しく不良と判定した異物や傷をAI処理が不良と判定することをいう。実際には良品でありながら、学習パラメータ51を用いたAI処理により、不良として誤判定してもよい。このような誤判定は、判定部7の論理和によって修正可能であり、問題とはならない。これにより、学習部52による学習工数と、この学習部52が学習する教師データの数を減らすことができる。
所望の性能の学習結果が得られたならは、学習環境装置5は、学習結果である学習パラメータ51を検査装置1に登録する。
In step S12, the performance confirmation unit 53 uses the evaluation video to confirm the performance of the learning parameters 51 (FIG. 5). The processes of steps S11 and S12 are repeated until the desired performance is obtained. Here, the desired performance means that bubbles and the like that the image processing unit 3 erroneously judges as defective are judged as good by the AI processing using the learning parameters 51, and foreign bodies and scratches that the image processing unit 3 correctly judges as defective are judged as defective by the AI processing. Although an item is actually a good item, it may be erroneously judged as defective by the AI processing using the learning parameters 51. Such erroneous judgment can be corrected by the logical sum of the judgment unit 7 and does not pose a problem. This can reduce the number of learning steps by the learning unit 52 and the number of teacher data that the learning unit 52 learns.
When a learning result with the desired performance is obtained, the learning environment device 5 registers the learning result, ie, the learning parameter 51, in the inspection device 1.

ステップS13にて、検査装置1は、従来の検査処理とAI処理を並列に実行する。そして、ステップS14にて、判定部7が従来の検査処理の結果とAI処理の結果を評価して総合的に判定する。ステップS15にて、判定部7は、正常な検査対象物を選別すると、一連の学習処理は完了する。 In step S13, the inspection device 1 executes the conventional inspection process and the AI process in parallel. Then, in step S14, the judgment unit 7 evaluates the results of the conventional inspection process and the AI process and makes a comprehensive judgment. In step S15, the judgment unit 7 selects a normal inspection object, and the series of learning processes is completed.

図7は、AI処理ユニット4の学習処理のフローチャートである。このフローチャートは、図6の学習手順を書き換えたものである。
最初、検査装置1は、記憶装置6による録画機能により、データを収集する(ステップS20)。そして、学習環境装置5は、学習によりモデルを生成する(ステップS21)。ここでモデルは、学習パラメータ51によって構成される。
次に作業者は、モデルである学習パラメータ51を検査装置1に反映して検証すると(ステップS22)、実際の生産に適用して(ステップS23)、図7の処理を終了する。
7 is a flowchart of the learning process of the AI processing unit 4. This flowchart is a rewrite of the learning procedure of FIG.
First, the inspection device 1 collects data by using the recording function of the storage device 6 (step S20). Then, the learning environment device 5 generates a model by learning (step S21). Here, the model is configured by the learning parameters 51.
Next, the operator reflects the learning parameters 51, which are the model, in the inspection device 1 and verifies them (step S22), and applies them to actual production (step S23), thereby completing the process of FIG.

図8は、検査処理のフローチャートである。適宜、図1を参照しつつ説明する。
最初、制御部13は、カメラ2の輝度補正を行い(ステップS30)、検査位置補正を行って(ステップS31)、検査対象物を撮影した映像の条件を揃える。ここで検査対象物とは、図2に示した検査対象容器8およびその中の液体である。この映像は、画像処理ユニット3に送られ、併せて図1に示すAI処理ユニット4にも送られる。以下、ステップS32からS34までの処理と、ステップS35からS38までの処理とは、並列に実行される。
8 is a flowchart of the inspection process, which will be described with reference to FIG.
First, the control unit 13 performs brightness correction of the camera 2 (step S30), performs inspection position correction (step S31), and adjusts the conditions of the image of the inspection object. Here, the inspection object is the inspection object container 8 shown in FIG. 2 and the liquid therein. This image is sent to the image processing unit 3, and is also sent to the AI processing unit 4 shown in FIG. 1. Thereafter, the processes from steps S32 to S34 and the processes from steps S35 to S38 are executed in parallel.

図1に示す画像処理ユニット3は、ステップS32からS34までの処理を実行する。画像処理ユニット3は、検査処理部31により、映像にフィルタ処理を施す(ステップS32)。そして、画像処理ユニット3は、濃淡のしきい値による二値化画像を作成し(ステップS33)、ラベル付けによる領域抽出を行う(ステップS34)。 The image processing unit 3 shown in FIG. 1 executes the processes from steps S32 to S34. The image processing unit 3 applies filtering to the image using the inspection processing unit 31 (step S32). The image processing unit 3 then creates a binarized image based on a grayscale threshold (step S33), and performs area extraction by labeling (step S34).

図1に示すAI処理ユニット4は、ステップS35からS38までの処理を実行する。AI処理ユニット4は、学習パラメータ51を元に、異物をラベルごとに分類する(ステップS35)。そしてAI処理ユニット4は、ラベルごとに色または輝度を同じにした映像を作成する(ステップS36)。
そして、AI処理ユニット4は、濃淡のしきい値による二値化画像を作成し(ステップS37)、ラベル付けによる領域抽出を行う(ステップS38)。
1 executes the processes from step S35 to S38. The AI processing unit 4 classifies the foreign objects by label based on the learning parameters 51 (step S35). Then, the AI processing unit 4 creates an image with the same color or brightness for each label (step S36).
Then, the AI processing unit 4 creates a binarized image based on a grayscale threshold value (step S37), and performs area extraction by labeling (step S38).

ステップS39にて、判定部7は、画像処理ユニット3の処理結果と、AI処理ユニット4の処理結果の論理積による判定を実施する。ここで判定部7は、画像処理ユニット3が処理した映像から第1の異常領域を抽出し、AI処理ユニット4がラベル付けした映像から、第2の異常領域を抽出する。そして判定部7は、第1の異常領域と第2の異常領域との論理積により、検査対象物が良品と不良品のうち何れかを判定する。
そして判定部7は、検査対象物を選別すると(ステップS40)、図8の処理を終了する。
In step S39, the determination unit 7 performs a determination based on the logical AND of the processing result of the image processing unit 3 and the processing result of the AI processing unit 4. Here, the determination unit 7 extracts a first abnormal area from the video processed by the image processing unit 3, and extracts a second abnormal area from the video labeled by the AI processing unit 4. Then, the determination unit 7 determines whether the inspection object is a pass or fail based on the logical AND of the first abnormal area and the second abnormal area.
Then, the determination unit 7 selects the object to be inspected (step S40), and ends the process of FIG.

本実施形態の利点は、従来処理内の特徴抽出の1オプションとして追加可能である。従来処理にAI処理を追加し、両方の処理を並列に実施することで、従来処理の結果と合わせた総合判定が可能となる。 The advantage of this embodiment is that it can be added as an option to feature extraction within conventional processing. By adding AI processing to conventional processing and running both processes in parallel, it becomes possible to make a comprehensive judgment that combines the results of the conventional processing.

検査精度を向上させるために、この検査装置1のオペレータは、従来の画像処理とAI処理とを組み合わせ、比較と評価を繰り返す。 To improve inspection accuracy, the operator of this inspection device 1 combines conventional image processing with AI processing and repeatedly compares and evaluates the results.

例えば、図8のフローチャートは、検出した検出した不良から異物等の誤検知を判断するものである。このとき、判定部7は、第1の異常領域と第2の異常領域の論理積にて不良判定にAI処理結果を反映する。
また、未検査エリアに対して、新たなAI処理を追加したい場合がある。このような場合、判定部7は、第1の異常領域と第2の異常領域の論理和にて不良判定にAI処理結果を反映する。
For example, the flowchart in Fig. 8 judges whether a foreign object or the like is erroneously detected based on the detected defects. At this time, the judgment unit 7 reflects the AI processing result in the defect judgment by the logical product of the first abnormal region and the second abnormal region.
In addition, there may be cases where it is desired to add new AI processing to an uninspected area. In such cases, the judgment unit 7 reflects the AI processing result in the defect judgment by performing a logical sum of the first abnormal area and the second abnormal area.

なお、これに限られず、判定部7は、第1の異常領域のうち第1の所定サイズのものと、第2の異常領域の第2の所定サイズのものを合成した結果により、検査対象物が良品と不良品のうち何れかを判定してもよく、限定されない。 However, without being limited to this, the judgment unit 7 may also judge whether the inspection object is a good product or a defective product based on the result of combining the first abnormal area of a first predetermined size and the second abnormal area of a second predetermined size, and is not limited to this.

画像処理ユニット3によって好適に検出可能な異常領域は、サイズが所定値よりも大きなものである。これに対してAI処理は、サイズが小さなものであっても好適に検出可能である。よって、判定部7は、異常領域のサイズに応じて両者の検出結果を選択したのち、両者を合成することで、好適に異常の有無を判定可能である。この場合、AI処理の学習が、サイズが小さなものについて好適に検出可能になった時点で止めることができるため、短時間で学習を終えることができる。 Abnormal areas that can be suitably detected by the image processing unit 3 are those whose size is larger than a predetermined value. In contrast, AI processing can suitably detect even small-sized areas. Therefore, the judgment unit 7 selects the detection results of both depending on the size of the abnormal area, and then combines the two to suitably judge the presence or absence of an abnormality. In this case, the learning of the AI processing can be stopped at the point when small-sized objects can be suitably detected, so learning can be completed in a short time.

図9は、黒色異物に係る入力映像である。映像の中央左寄りに、黒色領域が撮影されている。この黒色領域は、異常領域である。 Figure 9 shows an input image of a black foreign object. A black area is captured on the left side of the center of the image. This black area is an abnormal area.

図10は、図9に示す黒色異物に係る入力映像を領域分割して不良箇所を認識した画像である。
映像の中央左寄りに、他とは異なる色の領域が示されている。これが不良箇所に相当する。
FIG. 10 shows an image in which the input image relating to the black foreign matter shown in FIG. 9 is divided into regions to recognize defective portions.
An area of a different color than the others is shown to the left of the center of the image. This corresponds to the defective area.

図11は、白色異物に係る入力映像である。映像の中央よりやや上寄りに、白色領域が撮影されている。 Figure 11 shows an input image of a white foreign object. A white area is captured slightly above the center of the image.

図12は、図11に示す白色異物に係る入力映像を領域分割して不良箇所を認識した画像である。
映像の中央よりやや上寄りに、他とは異なる色の領域が示されている。これが不良箇所に相当する。
FIG. 12 shows an image in which the input video of the white foreign matter shown in FIG. 11 is divided into regions to recognize defective portions.
A region of a different color than the rest is shown slightly above the center of the image. This corresponds to the defective area.

図13は、気泡に係る入力映像である。映像の中央より左下寄りに、気泡の陰影が示されている。これは不良ではない箇所に相当する。 Figure 13 shows an input image of an air bubble. The shadow of the air bubble is shown to the lower left of the center of the image. This corresponds to an area that is not defective.

図14は、図13に示す気泡に係る入力映像を領域分割した画像である。
映像中には、他とは異なる色の領域は存在しない。よって、この気泡は不良箇所に相当する。
FIG. 14 is an image obtained by dividing the input video relating to the air bubbles shown in FIG. 13 into regions.
There are no areas of different color in the image, so this bubble corresponds to a defect.

以下、本実施形態の適用例を記載する。 The following describes examples of applications of this embodiment.

《第1適用例》
検査装置1をシリンジのゴム栓上の泡と異物の区別に適用し、誤検知を低減させる。具体的には、従来検査で、ゴム栓上に映っているものをすべて検出してラベル付けして、AI処理にて泡と思われるものを検出したものの中から除く。
First Application Example
The inspection device 1 is applied to distinguish bubbles and foreign objects on the rubber stopper of a syringe, reducing false positives. Specifically, in a conventional inspection, all objects reflected on the rubber stopper are detected and labeled, and objects that appear to be bubbles are removed from the detected objects using AI processing.

《第2適用例》
検査装置1を液面に浮遊している泡と異物の区別に適用し、誤検知を低減させる。具体的には、液面の下がり具合をAIが学習し、異物の有無を判断する。また、泡と、検出したい異物の形状とに違いがあれば、これを学習させて泡の検出を除くことで実現される。
Second Application Example
The inspection device 1 is applied to distinguish bubbles floating on the liquid surface from foreign objects, reducing false positives. Specifically, the AI learns the degree to which the liquid surface is lowered and determines whether or not a foreign object is present. Also, if there is a difference between the shape of bubbles and the foreign object to be detected, this can be learned and the detection of bubbles can be eliminated.

《第3適用例》
検査装置1は、胴部(肩部)の空気層部分にある水滴を学習し、傷または汚れと区別する。具体的には、従来検査で空気層部分に映っているものをすべて検出してラベル付けする。そして、AI処理にて、検出したものの中から、水滴と思われるものを除くことで実現される。
<<Third Application Example>>
The inspection device 1 learns about water droplets in the air space of the torso (shoulder) and distinguishes them from scratches or dirt. Specifically, it detects and labels everything that is reflected in the air space in the conventional inspection. Then, it uses AI processing to remove anything that seems to be water droplets from the detected items.

《第4適用例》
検査装置1は、凍結乾燥剤の空気層部分にある水滴を学習し、傷または汚れと区別する。具体的には、従来検査で空気層部分に映っているものをすべて検出してラベル付けする。そして、AI処理にて、検出したものの中から、水滴と思われるものを除くことで実現される。
<<Fourth Application Example>>
The inspection device 1 learns about water droplets in the air layer of the freeze-dried agent and distinguishes them from scratches or dirt. Specifically, it detects and labels everything that appears in the air layer in conventional inspections. Then, AI processing is used to remove anything that appears to be water droplets from the detected objects.

《第5適用例》
検査装置1は、バイアルのゴム栓内側に付着する水滴を学習し、汚れまたは異物と区別する。具体的には、従来検査でゴム栓に映っているものをすべて検出してラベル付けする。そして、水滴と汚れまたは異物との区別は、AI処理にて、検出したものの中から、ゴム栓の影や水滴と思われるものを除くことで実現される。
<<Fifth Application Example>>
The inspection device 1 learns about water droplets adhering to the inside of the rubber stopper of a vial and distinguishes them from dirt or foreign matter. Specifically, it detects and labels everything that is reflected on the rubber stopper in a conventional inspection. Then, the distinction between water droplets and dirt or foreign matter is realized by removing shadows of the rubber stopper and things that seem to be water droplets from the detected objects using AI processing.

(変形例)
本発明は上記した実施形態に限定されるものではなく、様々な変形例が含まれる。例えば上記した実施形態は、本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。ある実施形態の構成の一部を他の実施形態の構成に置き換えることが可能であり、ある実施形態の構成に他の実施形態の構成を加えることも可能である。また、各実施形態の構成の一部について、他の構成の追加・削除・置換をすることも可能である。
(Modification)
The present invention is not limited to the above-described embodiment, and includes various modified examples. For example, the above-described embodiment has been described in detail to clearly explain the present invention, and is not necessarily limited to those having all of the configurations described. It is possible to replace a part of the configuration of one embodiment with the configuration of another embodiment, and it is also possible to add the configuration of another embodiment to the configuration of one embodiment. In addition, it is also possible to add, delete, or replace a part of the configuration of each embodiment with another configuration.

上記の各構成、機能、処理部、処理手段などは、それらの一部または全部を、例えば集積回路などのハードウェアで実現してもよい。上記の各構成、機能などは、プロセッサがそれぞれの機能を実現するプログラムを解釈して実行することにより、ソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイルなどの情報は、メモリ、ハードディスク、SSD(Solid State Drive)などの記録装置、または、フラッシュメモリカード、DVD(Digital Versatile Disk)などの記録媒体に置くことができる。 The above configurations, functions, processing units, processing means, etc. may be realized in part or in whole by hardware such as an integrated circuit. The above configurations, functions, etc. may be realized by software by a processor interpreting and executing a program that realizes each function. Information such as the programs, tables, and files that realize each function can be stored in a recording device such as a memory, a hard disk, or an SSD (Solid State Drive), or on a recording medium such as a flash memory card or a DVD (Digital Versatile Disk).

各実施形態に於いて、制御線や情報線は、説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には、殆ど全ての構成が相互に接続されていると考えてもよい。
本発明の変形例として、例えば、次の(a)~(d)のようなものがある。
(a)本発明は外観検査に限定されず、液中検査に適用してもよい。
(b)本発明の検査対象物は、バイアルおよび凍結乾燥剤に限定されず、アンプル等の容器、および、それ以外の任意のものであってもよい。
(c)本発明は、透明容器に限定されない。
(d)本発明のラベル付け手法は、機械学習により画像中の所望の異物の領域を示すラベル情報を付与するものであればよく、限定されない。
In each embodiment, the control lines and information lines are those that are considered necessary for the explanation, and not all control lines and information lines in the product are necessarily shown. In reality, it may be considered that almost all components are connected to each other.
As modified examples of the present invention, for example, the following (a) to (d) are available.
(a) The present invention is not limited to visual inspection, but may also be applied to inspection in liquid.
(b) The test object of the present invention is not limited to a vial or a freeze-dried agent, but may be a container such as an ampule or any other object.
(c) The present invention is not limited to transparent containers.
(d) The labeling technique of the present invention is not limited as long as it uses machine learning to add label information indicating a desired region of a foreign object in an image.

1 検査装置
2 カメラ
3 画像処理ユニット (画像処理部)
4 AI処理ユニット (AI処理部)
31 検査処理部
41 学習パラメータ
5 学習環境装置
51 学習パラメータ
52 学習部
53 性能確認部
6 記憶装置
7 判定部
8 検査対象容器
1 Inspection device 2 Camera 3 Image processing unit (image processing section)
4 AI processing unit (AI processing section)
31 Inspection processing unit 41 Learning parameters 5 Learning environment device 51 Learning parameters 52 Learning unit 53 Performance confirmation unit 6 Storage device 7 Judgment unit 8 Inspection target container

Claims (6)

検査対象物を撮影した映像を画像処理する画像処理部と、
前記検査対象物の映像および前記検査対象物が良品と不良品の何れであるかを示す指標を組み合わせた教師データを学習した学習パラメータにより、前記検査対象物の映像に撮影された異物をラベル付けするAI処理部と、
前記画像処理部が処理した映像および前記AI処理部がラベル付けした映像に基づき、前記検査対象物が良品と不良品のうち何れであるかを判定する判定部と、
を備えることを特徴とする検査装置。
an image processing unit that processes an image of an object to be inspected;
an AI processing unit that labels foreign objects captured in the image of the object to be inspected using learning parameters that are obtained by learning training data that combines the image of the object to be inspected and an index that indicates whether the object to be inspected is a good product or a defective product;
A determination unit that determines whether the inspection object is a non-defective product or a defective product based on the image processed by the image processing unit and the image labeled by the AI processing unit;
An inspection device comprising:
前記判定部は、前記画像処理部が処理した映像から第1の異常領域を抽出し、前記AI処理部がラベル付けした映像から第2の異常領域を抽出する、
ことを特徴とする請求項1に記載の検査装置。
The determination unit extracts a first abnormal area from the image processed by the image processing unit, and extracts a second abnormal area from the image labeled by the AI processing unit.
2. The inspection apparatus according to claim 1 .
前記判定部は、前記第1の異常領域と前記第2の異常領域との論理積により、前記検査対象物が良品と不良品のうち何れであるかを判定する、
ることを特徴とする請求項2に記載の検査装置。
the determination unit determines whether the inspection object is a non-defective product or a defective product based on a logical AND between the first abnormal region and the second abnormal region.
3. The inspection apparatus according to claim 2,
前記判定部は、前記第1の異常領域と前記第2の異常領域との論理和により、前記検査対象物が良品と不良品のうち何れであるかを判定する、
ことを特徴とする請求項2に記載の検査装置。
the determination unit determines whether the inspection object is a non-defective product or a defective product based on a logical sum of the first abnormal region and the second abnormal region.
3. The inspection apparatus according to claim 2.
前記判定部は、前記第1の異常領域のうち第1の所定サイズのものと、前記第2の異常領域の第2の所定サイズのものを合成した結果により、前記検査対象物が良品と不良品のうち何れかを判定する、
ことを特徴とする請求項2に記載の検査装置。
the determination unit determines whether the inspection object is a good product or a defective product based on a result of combining the first abnormal region having a first predetermined size and the second abnormal region having a second predetermined size.
3. The inspection apparatus according to claim 2.
検査対象物を撮影した映像を、画像処理部が画像処理するステップと、
前記検査対象物の映像および前記検査対象物が良品と不良品の何れであるかを示す指標を組み合わせた教師データを学習した学習パラメータにより、AI処理部が、前記検査対象物の映像に撮影された異物をラベル付けするステップと、
前記画像処理部が処理した映像および前記AI処理部がラベル付けした映像に基づき、判定部が、前記検査対象物が良品と不良品のうち何れであるかを判定するステップと、
を備えることを特徴とする検査方法。
An image processing unit processes an image of an object to be inspected.
An AI processing unit labels a foreign object captured in the image of the object to be inspected using learning parameters obtained by learning training data that combines the image of the object to be inspected and an index indicating whether the object to be inspected is a good product or a defective product;
A step in which a determination unit determines whether the inspection object is a good product or a defective product based on the image processed by the image processing unit and the image labeled by the AI processing unit;
An inspection method comprising:
JP2022145315A 2022-09-13 2022-09-13 Inspection device and inspection method Active JP7489436B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022145315A JP7489436B2 (en) 2022-09-13 2022-09-13 Inspection device and inspection method
PCT/JP2023/022225 WO2024057644A1 (en) 2022-09-13 2023-06-15 Inspection device and inspection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022145315A JP7489436B2 (en) 2022-09-13 2022-09-13 Inspection device and inspection method

Publications (2)

Publication Number Publication Date
JP2024040757A JP2024040757A (en) 2024-03-26
JP7489436B2 true JP7489436B2 (en) 2024-05-23

Family

ID=90274571

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022145315A Active JP7489436B2 (en) 2022-09-13 2022-09-13 Inspection device and inspection method

Country Status (2)

Country Link
JP (1) JP7489436B2 (en)
WO (1) WO2024057644A1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020187656A (en) 2019-05-16 2020-11-19 株式会社キーエンス Image inspection device
CN112763506A (en) 2019-10-17 2021-05-07 智泰科技股份有限公司 Flaw detection method and device with AOI and AI functions
JP2021128406A (en) 2020-02-12 2021-09-02 株式会社モルフォ Analyzer and analyzing method

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7054450B2 (en) * 2018-09-10 2022-04-14 日本電気硝子株式会社 Work inspection method
JP7306933B2 (en) * 2018-09-21 2023-07-11 古河電気工業株式会社 Image determination device, image inspection device, and image determination method
KR102582008B1 (en) * 2021-02-15 2023-09-22 호서대학교 산학협력단 Inspection appratus and contol method thereof

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020187656A (en) 2019-05-16 2020-11-19 株式会社キーエンス Image inspection device
CN112763506A (en) 2019-10-17 2021-05-07 智泰科技股份有限公司 Flaw detection method and device with AOI and AI functions
JP2021128406A (en) 2020-02-12 2021-09-02 株式会社モルフォ Analyzer and analyzing method

Also Published As

Publication number Publication date
WO2024057644A1 (en) 2024-03-21
JP2024040757A (en) 2024-03-26

Similar Documents

Publication Publication Date Title
CA2976769C (en) Model-based methods and apparatus for classifying an interferent in specimens
JP3734512B2 (en) Contact lens appearance inspection method and appearance inspection apparatus
CN111709948B (en) Method and device for detecting defects of container
JP2017049974A (en) Discriminator generator, quality determine method, and program
JPH09292349A (en) Method and device for visual inspection of golf ball
JP4529728B2 (en) Method and apparatus for inspecting foreign matter in container
KR20140091916A (en) Inspection Method For Display Panel
US20240095983A1 (en) Image augmentation techniques for automated visual inspection
JP2021143884A (en) Inspection device, inspection method, program, learning device, learning method, and trained dataset
JP7489436B2 (en) Inspection device and inspection method
CN112666175A (en) Foreign matter inspection device and foreign matter inspection method
JP2017161435A (en) Inspection method of transparent body
JP2710527B2 (en) Inspection equipment for periodic patterns
KR20070101669A (en) Apparatus and mathod for vision inspecting of mounting plate assembly
JP2023137057A (en) Method of generating defect prediction model, bottle appearance inspection method and bottle appearance inspection device
JP6173088B2 (en) Inspection device, inspection method, program, and recording medium
JP2021174194A (en) Learning data processing device, learning device, learning data processing method, and program
JPH04270951A (en) Method for inspecting bottle
JPH1195182A (en) Method for inspecting image quality of liquid crystal display panel
JP2004177238A (en) Method and apparatus for testing appearance
JPH0224322B2 (en)
CN114820428A (en) Image processing method and image processing apparatus
CN115225885A (en) Electronic device and method for inspecting defect of display area of display
JP2022182702A (en) Evaluation program, evaluation method, and information processor
JP2001209793A (en) Method for classifying and detecting pattern defect

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240319

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20240319

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240423

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240513

R150 Certificate of patent or registration of utility model

Ref document number: 7489436

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150