DE102021114705A1 - Inspektionsverfahren und inspektionsmaschine - Google Patents

Inspektionsverfahren und inspektionsmaschine Download PDF

Info

Publication number
DE102021114705A1
DE102021114705A1 DE102021114705.0A DE102021114705A DE102021114705A1 DE 102021114705 A1 DE102021114705 A1 DE 102021114705A1 DE 102021114705 A DE102021114705 A DE 102021114705A DE 102021114705 A1 DE102021114705 A1 DE 102021114705A1
Authority
DE
Germany
Prior art keywords
image
images
inspection
processing device
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102021114705.0A
Other languages
English (en)
Inventor
Shinya Nakashima
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Publication of DE102021114705A1 publication Critical patent/DE102021114705A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/95Investigating the presence of flaws or contamination characterised by the material or shape of the object to be examined
    • G01N21/956Inspecting patterns on the surface of objects
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/245Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures using a plurality of fixed, simultaneously operating transducers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8806Specially adapted optical and illumination features
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • G01N2021/8887Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges based on image processing techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10152Varying illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biochemistry (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Multimedia (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)

Abstract

Eine Inspektionsmaschine umfasst Bildsensoren, die eine dünne Platte abbilden, eine Beleuchtungsvorrichtung, die die dünne Platte mit Licht bestrahlt, und eine Bildverarbeitungsvorrichtung, die ein Bild eines Objekts von Ausgaben der Bildsensoren erzeugt. Die Bildverarbeitungsvorrichtung erzeugt aufgenommene Bilder, die ein Bild in einem gemeinsamen vorbestimmten Bereich der dünnen Platte umfassen, basierend auf den Ausgaben von den Bildsensoren. Die Bildverarbeitungsvorrichtung gewinnt Bilder des Objekts auf der dünnen Platte für jedes der erzeugten aufgenommenen Bilder. Die Bildverarbeitungsvorrichtung verbindet die gewonnenen Bilder des Objekts miteinander basierend auf einer Merkmalsmenge des Objekts, die sich in den Bildern widerspiegelt. Die Bildverarbeitungsvorrichtung kombiniert die verbundenen Bilder des Objekts miteinander.

Description

  • ALLGEMEINER STAND DER TECHNIK
  • 1. Technisches Gebiet
  • Die vorliegende Offenbarung betrifft eine Inspektionsmaschine und ein Inspektionsverfahren für ein Inspektionsobjekt unter Verwendung einer Vielzahl von Bildsensoren, die die Detektionsreproduzierbarkeit und Detektionswahrscheinlichkeit eines Objekts in dem Inspektionsobjekt verbessern.
  • 2. Beschreibung des Standes der Technik
  • Auf den Gebieten von Vorrichtungen, wie beispielsweise Halbleitern, elektronischen Vorrichtungen und wiederaufladbaren Batterien sind Fehlerdetektoren bekannt, die ein Objekt (Fremdkörper, Fehler und dergleichen) in einem Inspektionsobjekt unter Verwendung eines Bildsensors vom photoelektrischen Umwandlungstyp detektieren.
  • In den letzten Jahren ist aufgrund der höheren Präzision und Miniaturisierung von Produkten auf diesen Gebieten die Größe von Fremdkörpern oder Fehlern in dem Inspektionsobjekt kleiner geworden. Produktionseffizienz und Qualitätsverbesserung sind erforderlich und zusammen damit sind die Beschleunigung des Herstellungsverfahrens und die Verbesserung des Ergebnisses erforderlich. Zur Beschleunigung des Herstellungsverfahrens und Verbesserung des Ergebnisses sind eine hohe Auflösung und eine hohe Ansprechempfindlichkeit eines Bildsensors erforderlich.
  • Zur Herstellung eines Bildsensors mit hoher Auflösung und hoher Ansprechempfindlichkeit sind indes hohe Entwicklungskosten und lange Entwicklungszeiten erforderlich. Daher wird in dem Japanischen Patent Nr. 5172162 ein Hochgeschwindigkeitsdetektor durch Anordnen einer Vielzahl von Bildsensoren nebeneinander zur gleichzeitigen Verarbeitung hergestellt.
  • KURZDARSTELLUNG
  • Gemäß einem Ausführungsbeispiel der vorliegenden Erfindung wird eine Inspektionsmaschine bereitgestellt, die ein Inspektionsobjekt durch Detektieren einer Größe eines Objekts in dem Inspektionsobjekt detektiert, wobei die Inspektionsmaschine umfasst: eine Vielzahl von Bildsensoren, die das Inspektionsobjekt abbilden; eine Beleuchtungsvorrichtung, die das Inspektionsobjekt mit Licht bestrahlt; und eine Bildverarbeitungsvorrichtung, die ein Bild des Objekts von Ausgaben der Vielzahl von Bildsensoren erzeugt, wobei die Ausgaben Ergebnisse des Abbildens durch die Vielzahl von Sensoren sind, wobei die Bildverarbeitungsvorrichtung: eine Vielzahl von aufgenommenen Bildern erzeugt, die Bilder eines gemeinsamen vorbestimmten Bereichs des Inspektionsobjekts gemäß den Ausgaben der Vielzahl von Bildsensoren umfassen, Bilder des Objekts in dem Inspektionsobjekt von der Vielzahl von erzeugten aufgenommenen Bildern gewinnt, mindestens zwei der von der Bildverarbeitungsvorrichtung gewonnenen Bilder basierend auf Merkmalsmengen des Objekts, die sich in den gewonnenen Bildern widerspiegeln, miteinander verbindet und die mindestens zwei von der Bildverarbeitungsvorrichtung verbundenen Bilder miteinander kombiniert.
  • Gemäß einem Ausführungsbeispiel der vorliegenden Erfindung wird ein Inspektionsverfahren zum Inspizieren eines Inspektionsobjekts durch Detektieren einer Größe eines Objekts in dem Inspektionsobjekt unter Verwendung einer Inspektionsmaschine bereitgestellt, die eine Vielzahl von Bildsensoren, die das Inspektionsobjekt abbilden, eine Beleuchtungsvorrichtung, die das Inspektionsobjekt mit Licht bestrahlt, und eine Bildverarbeitungsvorrichtung umfasst, die ein Bild des Objekts in dem Inspektionsobjekt von Ausgaben der Vielzahl von Bildsensoren erzeugt, wobei die Ausgaben Ergebnisse der Abbildung durch die Vielzahl von Bildsensoren sind, wobei das Verfahren umfasst: Erzeugen einer Vielzahl von aufgenommenen Bildern, die Bilder eines gemeinsamen vorbestimmten Bereichs des Inspektionsobjekts gemäß den Ausgaben von der Vielzahl von Bildsensoren umfassen; Gewinnen von Bildern des Objekts in dem Inspektionsobjekt von der Vielzahl von erzeugten aufgenommenen Bildern; Verbinden von mindestens zwei beim Gewinnen gewonnenen Bildern miteinander, basierend auf Merkmalsmengen des Objekts, die sich in den gewonnenen Bildern widerspiegeln; und Kombinieren der mindestens zwei beim Verbinden verbundenen Bilder miteinander.
  • Figurenliste
    • 1 ist eine Seitenansicht einer Inspektionsmaschine gemäß dem vorliegenden Ausführungsbeispiel;
    • 2 ist eine Draufsicht der Inspektionsmaschine gemäß dem vorliegenden Ausführungsbeispiel;
    • 3 ist eine Draufsicht, die ein Beispiel für die Anordnung eines Bildsensors in einer Abbildungsvorrichtung gemäß dem vorliegenden Ausführungsbeispiel veranschaulicht;
    • 4 ist ein Ablaufdiagramm zur Veranschaulichung eines Ablaufs eines Bilderzeugungsverfahrens in einer Bilderzeugungsvorrichtung gemäß dem vorliegenden Ausführungsbeispiel;
    • 5A ist eine Ansicht zur Veranschaulichung des Bilderzeugungsverfahrens in der Bildverarbeitungsvorrichtung gemäß dem vorliegenden Ausführungsbeispiel;
    • 5B ist eine Ansicht zur Veranschaulichung des Bilderzeugungsverfahrens in der Bildverarbeitungsvorrichtung gemäß dem vorliegenden Ausführungsbeispiel;
    • 6A ist eine Ansicht zur Veranschaulichung des Bilderzeugungsverfahrens in der Bildverarbeitungsvorrichtung gemäß dem vorliegenden Ausführungsbeispiel;
    • 6B ist eine Ansicht zur Veranschaulichung des Bilderzeugungsverfahrens in der Bildverarbeitungsvorrichtung gemäß dem vorliegenden Ausführungsbeispiel;
    • 7 ist ein Ablaufdiagramm zur Veranschaulichung eines Ablaufs eines Verfahrens zur Gewinnung von Bildern eines Objekts und eines Verfahrens zum Kombinieren von Bildern des Objekts in der Bildverarbeitungsvorrichtung gemäß dem vorliegenden Ausführungsbeispiel;
    • 8 ist eine Ansicht zur Veranschaulichung des Verfahrens zum Kombinieren von Bildern des Objekts in der Bildverarbeitungsvorrichtung gemäß dem vorliegenden Ausführungsbeispiel;
    • 9A ist eine Ansicht, die ein kombiniertes Bild eines Objekts veranschaulicht, das von der Inspektionsmaschine gemäß dem vorliegenden Ausführungsbeispiel ausgegeben wird;
    • 9B ist eine Ansicht, die ein kombiniertes Bild eines Objekts veranschaulicht, das von einer Inspektionsmaschine im Stand der Technik ausgegeben wird; und
    • 10 ist eine Ansicht zur Veranschaulichung einer Beziehung zwischen einem Sensortyp, einem Typ von bewegtem Bild und einem optischen System in der Inspektionsmaschine gemäß dem vorliegenden Ausführungsbeispiel.
  • DETAILLIERTE BESCHREIBUNGEN
  • In dem Japanischen Patent Nr. 5172162 werden zum genauen Detektieren eines Objekts eine Vielzahl von Bildern, die von einem Bildsensor ausgegeben werden, kombiniert, um ein Bild mit hoher Auflösung zu erzeugen. Im Japanischen Patent Nr. 5172162 werden Bilder nach dem Versetzen (Korrigieren) der Positionen einer Vielzahl von Bildern basierend auf der Anordnung von Bildsensoren kombiniert.
  • Wenn indes die Richtung des durch eine Beleuchtungsvorrichtung emittierten Lichts nicht konstant ist oder wenn ein Inspektionsobjekt dreidimensional ist, ist es möglich, dass die Art, auf die das Licht auf das Inspektionsobjekt trifft, nicht konstant ist. In einem solchen Fall kann die Position des Objekts in der Vielzahl der von den Bildsensoren ausgegebenen Bilder in hohem Maße verschoben sein. Daher besteht eine Möglichkeit, dass das Objekt nicht detektiert werden kann, wenn es nicht möglich ist, die Verlagerung der Position des Objekts durch Korrigieren der Positionen der Vielzahl von Bildern basierend auf der Anordnung von Bildsensoren zu korrigieren.
  • Insbesondere, wenn das Inspektionsobjekt inspiziert wird, während das Inspektionsobjekt transportiert wird, ist es wahrscheinlich, dass die Position des Objekts sich verschiebt.
  • Eine Aufgabe der vorliegenden Erfindung besteht darin, die Detektionsreproduzierbarkeit und Detektionswahrscheinlichkeit eines Objekts in einem Inspektionsobjekt in einer Inspektionsmaschine und einem Inspektionsverfahren unter Verwendung einer Vielzahl von Bildsensoren zu verbessern.
  • Nachfolgend wird ein Ausführungsbeispiel der vorliegenden Erfindung im Detail unter Bezugnahme auf Zeichnungen beschrieben. Die folgende Beschreibung eines bevorzugten Ausführungsbeispiels ist rein beispielhaft und ist nicht dazu bestimmt, die vorliegende Erfindung, deren Anwendungen oder Verwendung zu beschränken.
  • 1 veranschaulicht eine Seitenansicht einer Inspektionsmaschine gemäß dem vorliegenden Ausführungsbeispiel und 2 veranschaulicht eine Draufsicht der Inspektionsmaschine gemäß dem vorliegenden Ausführungsbeispiel. Wie in 1 und 2 veranschaulicht, umfasst die Inspektionsmaschine die Abbildungsvorrichtung 1, die Beleuchtungsvorrichtung 2, die Rollen 3 bis 5, den Drehgeber 6 und die Bildverarbeitungsvorrichtung 7. Das Transportband 8 ist um die äußeren Umfänge der Rollen 3 bis 5 gewickelt.
  • Die Inspektionsmaschine inspiziert die dünne Platte S (Inspektionsobjekt), die in der Form einer dünnen Platte ausgestaltet ist. Insbesondere detektiert die Inspektionsmaschine ein Objekt auf der dünnen Platte S. Hier detektiert die Inspektionsmaschine Fehler und Fremdkörper in der dünnen Platte S als ein Objekt. Diese Fehler umfassen nicht nur fehlerhafte oder unzulängliche Abschnitte in der Herstellung der dünnen Platte S, wie beispielsweise einen Kurzschluss oder eine Trennung in der zu inspizierenden Platte S, sondern auch Schäden an der dünnen Platte S (zum Beispiel Kratzspuren, die dadurch verursacht werden, dass die dünne Platte S mit anderen Elementen in Kontakt gelangt). Wenn ein detektiertes Objekt größer als eine vorbestimmte Größe ist, bestimmt die Inspektionsmaschine, dass die dünne Platte S ein Objekt enthält. Die dünne Platte S wird in die durch die durchgezogene Linie in 1 und 2 veranschaulichte Richtung transportiert und dabei auf dem Transportband 8 platziert.
  • Die Abbildungsvorrichtung 1 umfasst eine Vielzahl von Bildsensoren und bildet die dünne Platte S, die durch das Transportband 8 transportiert wird, ab. Hier ist die Abbildungsvorrichtung 1 als ein Zeilensensor zum Abbilden der dünnen Platte S zwischen den Rollen 4 und 5 ausgestaltet. Die Abbildungsvorrichtung 1 überträgt das Pixelsignal, das von dem Bildsensor ausgegeben wird, an die Bildverarbeitungsvorrichtung 7. In der folgenden Beschreibung sind die Abtastrichtung der Abbildungsvorrichtung 1 als eine X-Richtung definiert, die Unterabtastrichtung der Abbildungsvorrichtung 1 als eine Y-Richtung definiert und die Richtung senkrecht zu der X- und der Y-Richtung als eine Z-Richtung definiert.
  • Die Beleuchtungsvorrichtung 2 umfasst zum Beispiel eine Lichtquelle, die aus einer LED, einem Laser, einer Halogenlichtquelle oder dergleichen besteht und die Abtastregion (dünne Platte S) der Abbildungsvorrichtung 1 mit Licht zwischen den Rollen 4 und 5 bestrahlt. Insbesondere ist die Beleuchtungsvorrichtung 2 derart eingerichtet, dass die Lichtbestrahlungsrichtung in einem Winkel von etwa 10° in Bezug auf das Transportband 8 geneigt ist. Das heißt, die Abbildungsvorrichtung 1 und die Beleuchtungsvorrichtung 2 bestehen aus einem optischen Dunkelfeldsystem.
  • Die Rolle 3 wird durch den Antriebsmechanismus 9 gedreht, um das Transportband 8 zu drehen und die dünne Platte S in die Richtung des Pfeils mit der durchgehenden Linie in der Zeichnung zu transportieren. Der Antriebsmechanismus 9 ist zum Beispiel ein Aktor, der mit der Rolle 3 verbunden ist. Der Aktor ist zum Beispiel ein Umlaufmotor.
  • Die Rolle 5 schlängelt sich durch den Antriebsmechanismus 10 mit einer vorbestimmten Geschwindigkeit auf dem Transportband 8 in der X-Richtung (Richtung des Pfeils mit der gestrichelten Linie in 2). Durch das Schlängeln auf dem Transportband 8 in der X-Richtung wird die Position der dünnen Platte S in einem Nachinspektionsprozess durch die Inspektionsmaschine ausgerichtet.
  • Der Antriebsmechanismus 10 ist zum Beispiel ein Aktor, der mit der Rolle 5 verbunden ist, wodurch bewirkt wird, dass die Rolle 5 sich in der X-Richtung hin- und herbewegt.
  • Der Drehgeber 6 detektiert die Drehzahl der Rolle 4 und detektiert den Betrag der Bewegung der dünnen Platte S, die von dem Transportband 8 transportiert wird. Der Drehgeber 6 überträgt den detektierten Bewegungsbetrag der dünnen Platte S an die Bildverarbeitungsvorrichtung 7.
  • Die Bildverarbeitungsvorrichtung 7 ist zum Beispiel ein Computer und erzeugt eine Vielzahl von aufgenommenen Bildern durch das nachfolgend beschriebene Bilderzeugungsverfahren basierend auf dem von der Abbildungsvorrichtung 1 empfangenen Pixelsignal und dem von dem Drehgeber 6 detektierten Bewegungsbetrag der dünnen Platte S. Die Bildverarbeitungsvorrichtung 7 gewinnt die Bilder des Objekts E von der Vielzahl von aufgenommenen, durch das nachfolgend beschriebene Objektgewinnungsverfahren erzeugten Bildern. Die Bildverarbeitungsvorrichtung 7 kombiniert die gewonnenen Bilder des Objekts E durch das nachfolgend beschriebene Bildkombinationsverfahren, um ein kombiniertes Bild des Objekts E zu erzeugen.
  • Über die Abbildungsvorrichtung
  • 3 ist eine Draufsicht, die ein Beispiel für die Anordnung von Bildsensoren in der Abbildungsvorrichtung gemäß dem vorliegenden Ausführungsbeispiel veranschaulicht. Wie in 3 veranschaulicht, umfasst die Abbildungsvorrichtung 1 die Bildsensoren 101 bis 116. Jeder der Bildsensoren 101 besteht 116 aus einer Vielzahl von Pixeln.
  • Hier wird als ein Beispiel ein Fall beschrieben, in dem die Bildverarbeitungsvorrichtung 7 ein kombiniertes Bild eines Objekts aus vier Bildern erzeugt. In dem vorliegenden Ausführungsbeispiel ist die Anzahl Teilungen nx eines Pixels in dem kombinierten Bild in der X-Richtung 2 und die Anzahl Teilungen ny in der Y-Richtung ist 2. Die Auflösung x in der X-Richtung von jedem der pixelbildenden Bildsensoren 101 bis 116 beträgt 42,3 µm und die Auflösung y in der Y-Richtung beträgt 42,3 µm. Die Bildsensoren 101 bis 116 weisen jeweils 432 Pixel (18273,6 µm) in der X-Richtung und ein Pixel (42,3 µm) in der Y-Richtung auf. Zur Verbesserung der Detektionsgenauigkeit des Objekts ist es zu bevorzugen, dass die Vielzahl von zu kombinierenden Bildern durch eine Vielzahl von Bildsensoren erzeugt werden, die sich an Positionen befinden, die um eine Einheit verschoben sind, die kleiner als ein Pixel ist. Die Anzahl Teilungen nx ist ein Index dafür, wie weit die Vielzahl von Bildsensoren von einem Bezugssensor (zum Beispiel dem Bildsensor 101) in der X-Richtung verschoben sind. Wenn zum Beispiel die Anzahl von Teilungen nx gleich 2 ist, bedeutet dies, dass zwei Bildsensoren um 1/2 Pixel (0,5 Pixel) in die X-Richtung verschoben sind. Auf ähnliche Weise gibt die Anzahl Teilungen ny an, wie weit die Vielzahl von Bildsensoren von einem Bezugssensor (zum Beispiel Bildsensor 101) in der Y-Richtung verschoben sind. Wenn zum Beispiel die Anzahl von Teilungen ny gleich 2 ist, bedeutet dies, dass zwei Bildsensoren um 1/2 Pixel (0,5 Pixel) in die Y-Richtung verschoben sind.
  • Der Bildsensor 105 ist an einer Position im Abstand y1 in der Y-Richtung in Bezug auf den Bildsensor 101 verschoben. Der Abstand y1 ist gleich y/ny + a × y. a ist ein Koeffizient (Ganzzahl von 0 oder größer). Der Bildsensor 105 ist mit einem Abstand von 0,5 Pixeln (y/ny), addiert zu a mal die Auflösung y in Bezug auf den Bildsensor 101 angeordnet. Hier ist a = 94. Daher beträgt der Abstand y1 = 3997,35 µm. Der Bildsensor 105 ist an der gleichen Position in der X-Richtung in Bezug auf den Bildsensor 101 angeordnet.
  • Der Bildsensor 109 ist an einer Position angeordnet, wo der Abstand y2 in der Y-Richtung und der Abstand x1 in der X-Richtung in Bezug auf den Bildsensor 101 ist. Der Abstand y2 ist gleich 0 + b × y. Das heißt, der Bildsensor 109 ist mit einem Abstand b mal die Auflösung y in Bezug auf den Bildsensor 101 angeordnet. „0“ bedeutet, dass der Bildsensor 109 um eine Ganzzahl, die ein Vielfaches eines Pixels ist, in der Y-Richtung von dem Bildsensor 101 verschoben ist, und umfasst nicht die Verschiebung des Bruchteils nach dem Dezimalkomma. b ist ein Koeffizient (Ganzzahl von 0 oder größer). Hier ist b = 189. Daher beträgt der Abstand y2 = 7994,7 µm. Der Abstand x1 ist gleich x/nx + c × x. c ist ein Koeffizient (Ganzzahl von 0 oder größer). Hier ist c = 0. Daher beträgt der Abstand x1 = 21,15 µm.
  • Der Bildsensor 113 ist an einer Position angeordnet, wo der Abstand y3 in der Y-Richtung und der Abstand x1 in der X-Richtung in Bezug auf den Bildsensor 101 ist. Der Abstand y3 ist gleich y/ny + d × y. d ist ein Koeffizient (Ganzzahl von 0 oder größer). Hier ist d = 283. Daher beträgt der Abstand y3 = 11992,05 µm.
  • Mit der vorhergehenden Ausgestaltung ist der Bildsensor 105 angeordnet, um von dem Bildsensor 101 um 94,5 Pixel in der Y-Richtung zu verschieben. Der Bildsensor 105 ignoriert den ganzzahligen Abschnitt und ist angeordnet, um von dem Bildsensor 101 um 0,5 Pixel in der Y-Richtung zu verschieben. Der Bildsensor 109 ist angeordnet, um von dem Bildsensor 101 um 0,5 Pixel in der X-Richtung zu verschieben. Der Bildsensor 113 ist angeordnet, um von dem Bildsensor 101 um 0,5 Pixel in der X-Richtung und 283.5 Pixel in der Y-Richtung zu verschieben. Der Bildsensor 113 ignoriert den ganzzahligen Abschnitt und ist angeordnet, um von dem Bildsensor 101 um 0,5 Pixel in der X-Richtung und um 0,5 Pixel in der Y-Richtung zu verschieben.
  • Auf ähnliche Weise sind die Bildsensoren 106, 107 und 108 an Positionen im Abstand y1 in der Y-Richtung in Bezug auf die Bildsensoren 102, 103 beziehungsweise 104 angeordnet. Die Bildsensoren 110, 111 und 112 sind an Positionen angeordnet, wo der Abstand y2 in der Y-Richtung, beziehungsweise der Abstand x1 in der X-Richtung in Bezug auf die Bildsensoren 102, 103 und 104 ist. Die Bildsensoren 114, 115 und 116 sind an Positionen angeordnet, wo der Abstand y3 in der Y-Richtung, beziehungsweise der Abstand x1 in der X-Richtung in Bezug auf die Bildsensoren 102, 103 und 104 ist.
  • Der Bildsensor 102 ist so angeordnet, dass er den Bildsensor 101 in der X-Richtung teilweise überlappt. Hier überlappt der Bildsensor 102 den Bildsensor 101 um 423 µm (für 10 Pixel) in der X-Richtung. In der Y-Richtung ist der Sensor an einer Position im Abstand y4 (im vorliegenden Beispiel 21 Pixel) in Bezug auf den Bildsensor 101 angeordnet. Daher ist der Bildsensor 102 in einem Abstand von 17850,6 µm (422 Pixel) in der X-Richtung und -888,3 µm (21 Pixel) in der Y-Richtung in Bezug auf den Bildsensor 101 angeordnet.
  • Der Bildsensor 103 ist so angeordnet, dass er den Bildsensor 102 in der X-Richtung teilweise überlappt. Hier überlappt der Bildsensor 103 den Bildsensor 102 um 423 µm (für 10 Pixel) in der X-Richtung. In der Y-Richtung ist der Sensor an einer Position im Abstand y4 (21 Pixel) in Bezug auf den Bildsensor 102 angeordnet. Daher ist der Bildsensor 103 in einem Abstand von 17850,6 µm (422 Pixel) in der X-Richtung und 888,3 µm (21 Pixel) in der Y-Richtung in Bezug auf den Bildsensor 102 angeordnet. In der Y-Richtung ist der Sensor an einer Position im Abstand y4 (21 Pixel) in Bezug auf den Bildsensor 102 angeordnet. Der Bildsensor 104 ist so angeordnet, dass er den Bildsensor 103 in der X-Richtung teilweise überlappt. Hier überlappt der Bildsensor 104 den Bildsensor 103 um 423 µm (für 10 Pixel) in der X-Richtung. In der Y-Richtung ist der Sensor an einer Position im Abstand y4 (21 Pixel) in Bezug auf den Bildsensor 103 angeordnet. Daher ist der Bildsensor 104 in einem Abstand von 17850,6 µm (422 Pixel) in der X-Richtung und -888,3 µm (21 Pixel) in der Y-Richtung in Bezug auf den Bildsensor 103 angeordnet.
  • Auf ähnliche Weise sind die Bildsensoren 106, 110 und 114 in einem Abstand von 422 Pixeln in der X-Richtung und einem Abstand von -21 Pixeln in der Y-Richtung in Bezug auf die Bildsensoren 105, 109 beziehungsweise 113 angeordnet. Die Bildsensoren 107, 111 und 115 sind in einem Abstand von 422 Pixeln in der X-Richtung beziehungsweise einem Abstand von 21 Pixeln in der Y-Richtung in Bezug auf die Bildsensoren 106, 110 und 114 angeordnet. Die Bildsensoren 108, 112 und 116 sind in einem Abstand von 422 Pixeln in der X-Richtung und einem Abstand von -21 Pixeln in der Y-Richtung in Bezug auf die Bildsensoren 107, 111, beziehungsweise 115 angeordnet.
  • Art der Erzeugung der aufgenommenen Bilder
  • Das Bilderzeugungsverfahren in der Bildverarbeitungsvorrichtung wird unter Bezugnahme auf 1 bis 6B beschrieben. 4 ist ein Ablaufdiagramm zur Veranschaulichung eines Ablaufs des Bilderzeugungsverfahrens in der Bildverarbeitungsvorrichtung und 5A, 5B, 6A und 6B sind Ansichten zur Veranschaulichung des Bilderzeugungsverfahrens in der Bildverarbeitungsvorrichtung. Insbesondere ist 5A eine Draufsicht, die eine Markierungsposition auf dem Transportband veranschaulicht, 5B ist ein basierend auf Signalen von der Abbildungsvorrichtung 1 aufgenommenes Bild, 6A ist ein aufgenommenes Bild, das in der Y-Richtung versetzt ist, und 6B ist ein aufgenommenes Bild, das in der X-Richtung versetzt ist.
  • In Schritt S1 erzeugt die Bildverarbeitungsvorrichtung 7 ein aufgenommenes Bild der dünnen Platte S basierend auf den Pixelsignalen (den von den Bildsensoren 101 bis 116 ausgegebenen Pixelsignalen), die von der Abbildungsvorrichtung 1 empfangen werden, und dem Bewegungsbetrag der dünnen Platte S, der von dem Drehgeber 6 detektiert wird.
  • Wie in 5A veranschaulicht, sind die Markierungen L1 und L2, die sich in der X-Richtung erstrecken, auf dem Transportband 8 gebildet. Die Bildverarbeitungsvorrichtung 7 empfängt die von den Bildsensoren 101 bis 116 ausgegebenen Pixelsignale und erzeugt aufgenommene Bilder (die Bilder P1 bis P16) vor der Verarbeitung. Die Bilder P1 bis P16 sind Bilder, die jeweils basierend auf den Pixelsignalen der Bildsensoren 101 bis 116 erzeugt werden.
  • Im Schritt S2 versetzt (korrigiert) die Bildverarbeitungsvorrichtung 7 die Position des aufgenommenen Bildes in der Y-Richtung in Bezug auf die Markierungen L1 und L2. Wie in 5B und 6A veranschaulicht, korrigiert die Bildverarbeitungsvorrichtung 7 die Positionen der Bilder P1 bis P16 in der Y-Richtung, derart, dass die Positionen der Markierungen L1 und L2 in der Y-Richtung übereinstimmen.
  • Im Schritt S3 wird die Position des aufgenommenen Bildes in der X-Richtung basierend auf der Anordnung der Bildsensoren 101 bis 116 versetzt (korrigiert). Wie in 6A und 6B veranschaulicht, werden die Positionen der Bilder P1 bis P16 in der X-Richtung basierend auf der Anordnung (Überlappung in der X-Richtung) der Bildsensoren 101 bis 116 in der X-Richtung korrigiert (versetzt). Zum Beispiel überlagert, da die Bildsensoren 101 und 102 einander um 10 Pixel in der X-Richtung überlappen, die Bildverarbeitungsvorrichtung 7 die Bilder P1 und P2 um 10 Pixel in der X-Richtung. An diesem Zeitpunkt weist der überlappende Abschnitt der Bilder P1 und P2 eine Helligkeitsabstufung von entweder einem oder eine gemittelte Helligkeitsabstufung von beiden auf.
  • Hier überlagert die Bildverarbeitungsvorrichtung 7 die Bilder P1 bis P4, P5 bis P8, P9 bis P12 beziehungsweise P13 bis P16 um 10 Pixel in der X-Richtung.
  • Im Schritt S4 gewinnt (erzeugt) die Bildverarbeitungsvorrichtung 7 eine vorbestimmte Region (die in 6B von der strichpunktierten Linie umgebene Region) in Bezug auf jeden der Koordinatenursprünge Oa, Ob, Oc und Od als die aufgenommenen Bilder Pa, Pb, Pc und Pd in den Bildern P1 bis P4, P5 bis P8, P9 bis P12 und P13 bis P16, die in der X-Richtung überlagert sind. Der Koordinatenursprung Ob ist ein Punkt, der um 1/ny Pixel in der Y-Richtung in Bezug auf den Koordinatenursprung Oa (hier 0,5 Pixel in der Y-Richtung) versetzt ist. Der Koordinatenursprung Oc ist ein Punkt, der um 1/nx Pixel in der X-Richtung in Bezug auf den Koordinatenursprung Oa (hier 0,5 Pixel in der X-Richtung) versetzt ist. Der Koordinatenursprung Od ist ein Punkt, der um 1/nx Pixel in der X-Richtung und 1/ny Pixel in der Y-Richtung (hier 0,5 Pixel in der Y-Richtung und 0,5 Pixel in der X-Richtung) in Bezug auf den Koordinatenursprung Oa versetzt ist.
  • Mit dem vorhergehenden Verfahren erzeugt die Bildverarbeitungsvorrichtung 7 vier aufgenommene Bilder Pa bis Pd basierend auf den Pixelsignalen der Bildsensoren 101 bis 116. Über das Verfahren zur Gewinnung der Bilder des Objekts und das Verfahren zum Kombinieren der Bilder des Objekts
  • Ein Verfahren zur Gewinnung eines Bildes eines Objekts und ein Verfahren zum Kombinieren eines Bildes eines Objekts in einer Bildverarbeitungsvorrichtung wird unter Bezugnahme auf 1 bis 9B beschrieben. 7 ist ein Ablaufdiagramm zur Veranschaulichung eines Ablaufs des Verfahrens zur Gewinnung der Bilder des Objekts und des Verfahrens zum Kombinieren der Bilder des Objekts in der Bildverarbeitungsvorrichtung und 8 ist eine Ansicht zur Veranschaulichung des Verfahrens zum Kombinieren der Bilder des Objekts in der Bildverarbeitungsvorrichtung.
  • Als Nächstes gewinnt und kombiniert die Bildverarbeitungsvorrichtung 7 die Bilder des Objekts E basierend auf den aufgenommenen Bildern Pa bis Pd.
  • Im Schritt S5 führt die Bildverarbeitungsvorrichtung 7 Filterverarbeitung auf den Bildern Pa bis Pd als Vorverarbeitung durch. Zum Beispiel führt die Bildverarbeitungsvorrichtung 7 Filterverarbeitung zum Hervorheben des Objekts E (Fehler und Fremdkörper), wie beispielsweise Medianfilterverarbeitung, Glättungsfilterverarbeitung und Vergleichsdifferenzfilterverarbeitung oder Filterverarbeitung zur Beseitigung des Einflusses des Hintergrunds auf den Bildern Pa bis Pd aus.
  • Im Schritt S6 führt die Bildverarbeitungsvorrichtung 7 Binarisierungsverarbeitung auf den Bildern Pa bis Pd durch.
  • Im Schritt S7 gewinnt die Bildverarbeitungsvorrichtung 7 Bilder des Objekts E in den Bildern Pa bis Pd basierend auf einer ersten Merkmalsmenge des Objekts E. Zum Beispiel werden als die erste Merkmalsmenge des Objekts E die Fläche, die Höchstlänge, das Seitenverhältnis, die vertikale Breite, die horizontale Breite, der Binarisierungsschwellenwert (Helligkeitsschwellenwert), die Helligkeitsabstufung (Höchstwert, Mindestwert, Durchschnittswert und dergleichen), der Ausrundungsdurchmesser (Höchstwert, Mindestwert und dergleichen) und die Hauptachsenlänge (Höchstwert, Mindestwert und dergleichen) des Objekts E verwendet. Die Bildverarbeitungsvorrichtung 7 kann Bilddaten der dünnen Platte S, die nicht das Objekt umfasst, als die erste Merkmalsmenge zum Gewinnen der Bilder des Objekts E durch Vergleichen der Bilddaten mit den Bildern Pa bis Pd verwenden. Wenn die Beleuchtungsvorrichtung 2 Licht in einer bestimmten Richtung emittieren kann, kann die Bildverarbeitungsvorrichtung 7 die Lichtkomponente in einer vorbestimmten Richtung als die erste Merkmalsmenge zum Gewinnen des Objekts E verwenden, wenn die Lichtkomponente in der vorbestimmten Richtung einen vorbestimmten Wert überschreitet.
  • Wenn das Objekt E in mehr als einem vorbestimmten Pixel enthalten ist, gewinnt die Bildverarbeitungsvorrichtung 7 Bilder des Objekts E. Hier gewinnt die Bildverarbeitungsvorrichtung 7 Bilder des Objekts E, wenn das Objekt E in zwei oder mehr Pixeln enthalten ist.
  • Im Schritt S8 verknüpft (verbindet) die Bildverarbeitungsvorrichtung 7 die gewonnenen Bilder des Objekts E basierend auf einer zweiten Merkmalsmenge (Merkmalsmenge) des Objekts E. Die zweite Merkmalsmenge des Objekts E ist die Fläche, das Seitenverhältnis, der Schwerpunkt (Schwerpunkt in Fläche, Helligkeitswert des Schwerpunkts und dergleichen), die Mitte oder der Schwerpunkt eines Rechtecks, das in dem Bild des Objekts E umschrieben ist, die Helligkeitsabstufung (Höchstwert, Mindestwert, Durchschnittswert und dergleichen), der Ausrundungsdurchmesser (Höchstwert, Mindestwert und dergleichen) und die Hauptachsenlänge (Höchstwert, Mindestwert und dergleichen) des Objekts E und dergleichen. Hier verknüpft die Bildverarbeitungsvorrichtung 7 die Bilder des Objekts E basierend auf dem Schwerpunkt (Schwerpunkt in Fläche) der Bilder des Objekts E.
  • Wie in 8 veranschaulicht, gewinnt die Bildverarbeitungsvorrichtung 7 die Objekte E1 bis E4 von dem Bild Pa, gewinnt die Objekte E5 bis E8 von dem Bild Pb, gewinnt die Objekte E9 bis E12 von dem Bild Pc und gewinnt die Objekte E13 bis E15 von dem Bild Pd. In diesem Fall verknüpft die Bildverarbeitungsvorrichtung 7 die Bilder der Objekte E1 bis E15 basierend auf entsprechenden Schwerpunkten G1 bis G15 der Objekte E1 bis E15. Insbesondere, wenn die Bilder Pa bis Pd überlagert werden, verknüpft die Bildverarbeitungsvorrichtung 7 die Bilder des Objekts E an der Position, wo der Schwerpunkt übereinstimmt.
  • Hier verknüpft die Bildverarbeitungsvorrichtung 7 die Bilder des Objekts E, wenn die Position des Schwerpunkts des Objekts E innerhalb eines vorbestimmten Bereichs liegt. Der vorbestimmte Bereich beträgt vorzugsweise 5 Pixel (0,1 mm) bis 50 Pixel (1,0 mm) und hier werden 16 Pixel (0,32 mm) eingestellt. Die vorliegende Offenbarung ist indes nicht darauf beschränkt und der vorbestimmte Bereich kann durch Einstellen des Abstands zwischen den Bildsensoren 101 bis 116 groß eingestellt werden.
  • Zuerst verknüpft in 8 die Bildverarbeitungsvorrichtung 7 die Bilder des Objekts E in dem Bild Pa mit den Bildern des Objekts E in den Bildern Pb, Pc und Pd. Insbesondere verknüpft, da die Schwerpunkte G5, G9, und G13 innerhalb des vorbestimmten Bereichs des Schwerpunkts G1 liegen, die Bildverarbeitungsvorrichtung 7 die Bilder der Objekte E1, E5, E9 und E13. Da die Schwerpunkte G6 und G10 innerhalb des vorbestimmten Bereichs des Schwerpunkts G2 liegen, verknüpft die Bildverarbeitungsvorrichtung 7 die Bilder der Objekte E2, E6 und E10. Da der Schwerpunkt G7 innerhalb des vorbestimmten Bereichs des Schwerpunkts G3 liegt, verknüpft die Bildverarbeitungsvorrichtung 7 die Bilder der Objekte E3 und E7.
  • Als Nächstes verknüpft die Bildverarbeitungsvorrichtung 7 das Bild des Objekts im Bild Pb mit dem Bild des Objekts in den Bildern Pc und Pd. Da die Schwerpunkte G11 und G15 innerhalb des vorbestimmten Bereichs des Schwerpunkts G8 liegen, verknüpft die Bildverarbeitungsvorrichtung 7 die Bilder der Objekte E8, E11 und E15.
  • Als Nächstes verknüpft die Bildverarbeitungsvorrichtung 7 das Bild des Objekts im Bild Pc mit dem Bild des Objekts im Bild Pd. In 8 verknüpft die Bildverarbeitungsvorrichtung 7 die Bilder des Objekts E nicht, da unter den Bildern des Objekts E, dessen Schwerpunkt in den Bildern Pc und Pd übereinstimmt, kein Objekt E vorhanden ist, das nicht verknüpft ist.
  • Im Schritt S9 kombiniert die Bildverarbeitungsvorrichtung 7 die Bilder des Objekts E basierend auf einer dritten Merkmalsmenge. Die dritte Merkmalsmenge des Objekts E ist die Fläche, das Seitenverhältnis, der Schwerpunkt des Bildes des Objekts E, der Schwerpunkt des Rechtecks, das das Bild des Objekts E umschreibt, und dergleichen. Hier kombiniert die Bildverarbeitungsvorrichtung 7 die Bilder des Objekts E basierend auf den Schwerpunkten der Bilder des Objekts E.
  • Insbesondere verdoppelt die Bildverarbeitungsvorrichtung 7 die Bildgröße des gewonnenen Objekts E in der X-Richtung beziehungsweise der Y-Richtung. Die Bildverarbeitungsvorrichtung 7 überlagert die verknüpften Bilder des Objekts E um die Schwerpunkte (dritte Merkmalsmenge) der Bilder des Objekts E herum, addiert eine Helligkeitsabstufung für jedes Pixel und mittelt die Werte der Helligkeitsabstufungen.
  • Zum Beispiel erzeugt, da die Bilder der Objekte E1, E5, E9 und E13 in 8 verknüpft sind, die Bildverarbeitungsvorrichtung 7 ein Bild des Objekts E basierend auf den vier Bildern.
  • Im Schritt S10 gibt die Bildverarbeitungsvorrichtung 7 das erzeugte Bild des Objekts E aus (zum Beispiel wird das Bild auf einer Anzeige oder dergleichen angezeigt, die in der Zeichnung veranschaulicht ist). An diesem Zeitpunkt gibt die Bildverarbeitungsvorrichtung 7 das kombinierte Bild des Objekts E aus und gibt die Bilder des Objekts E aus, das nicht verknüpft ist. In 8 gibt die Bildverarbeitungsvorrichtung 7 das kombinierte Bild der Objekte E1, E5, E9 und E13, das kombinierte Bild der Objekte E2, E6 und E10 und die kombinierten Bilder der Objekte E8, E11 und E15 als das kombinierte Bild des Objekts E aus und gibt ein Bild des Objekts E4, ein Bild des Objekts E12 und ein Bild des Objekts E14 als Bilder des Objekts E aus, das nicht verknüpft ist. Die Bildverarbeitungsvorrichtung 7 führt Bildkombinationsverarbeitung auf einer Vielzahl von verknüpften Bildern der Objekte durch, um ein kombiniertes Bild zu erzeugen, und gibt das kombinierte Bild aus. Andererseits überspringt die Bildverarbeitungsvorrichtung 7 die Bildkombinationsverarbeitung der Bilder des unabhängigen Objekts, das nicht verknüpft ist, und gibt die Bilder so aus wie sie sind. Zum Beispiel wird das Bild des Objekts E4 ausgegeben, wie es ist, ohne mit den Bildern der entsprechenden Region der Bilder Pb bis Pd (dem Hintergrundbild, in dem das Objekt nicht vorhanden ist) kombiniert zu werden. Die Qualität des Bildes des Objekts E4 ist höher als die Qualität des kombinierten Bildes des Bildes des Objekts E4 und des Hintergrundbildes. Es ist möglich, die Detektionsgenauigkeit des Objekts E4 durch Ausgeben des Bildes des Objekts E4, wie es ist, zu verbessern.
  • 9A und 9B sind Ansichten, die die Inspektionsmaschine gemäß dem vorliegenden Ausführungsbeispiel und ein kombiniertes Bild des Objekts, das von der Inspektionsmaschine im Stand der Technik ausgebeben wird, vergleichen. Insbesondere ist 9A ein kombiniertes Bild des Objekts, das von der Inspektionsmaschine gemäß dem vorliegenden Ausführungsbeispiel ausgegeben wird, und 9B ist ein kombiniertes Bild des Objekts, das von der Inspektionsmaschine im Stand der Technik ausgegeben wird.
  • In der Inspektionsmaschine im Stand der Technik erzeugt die Bildverarbeitungsvorrichtung 7 die aufgenommenen Bilder Pa bis Pd durch das vorhergehend beschriebene Verfahren zur Erzeugung aufgenommener Bilder. Die Bildverarbeitungsvorrichtung 7 versetzt (korrigiert) die Positionen der aufgenommenen Bilder Pa bis Pd in der X- und Y-Richtung basierend auf der Anordnung der Bildsensoren 101 bis 116, kombiniert die aufgenommenen Bilder Pa bis Pd und gewinnt dann ein Bild des Objekts E.
  • Wie in 9A und 9B veranschaulicht, ist das Bild des Objekts E, das von der Inspektionsmaschine gemäß dem vorliegenden Ausführungsbeispiel ausgegeben wird, deutlicher als das Bild, das von der Inspektionsmaschine im Stand der Technik ausgegeben wird. In der Inspektionsmaschine im Stand der Technik wird der Versatz (Korrektur) durch Anordnen des Bildsensors durchgeführt, aber da die Art, auf die das Licht auf das Inspektionsobjekt trifft, nicht berücksichtigt wird, verschiebt sich die Position des Bildes des Objekts E für jedes der zu kombinierenden aufgenommenen Bilder und das kombinierte Bild des Objekts E wird undeutlich. Im vorliegenden Ausführungsbeispiel hingegen werden, nachdem ein Bild des Objekts E für jedes der aufgenommenen Bilder gewonnen wurde, die gewonnenen Bilder des Objekts E um den Schwerpunkt des Objekts E herum kombiniert. Folglich ist es, da es möglich ist, die Verschiebung der Position der zu kombinierenden Bilder des Objekts E zu verschieben, möglich, das kombinierte Bild des Objekts E deutlich zu machen.
  • Mit der vorhergehenden Ausgestaltung inspiziert die Inspektionsmaschine die dünne Platte S durch Detektieren der Größe des Objekts E auf der dünnen Platte S. Die vorliegende Inspektionsmaschine umfasst die Bildsensoren 101 bis 116, die die dünne Platte S abbilden, die Beleuchtungsvorrichtung 2, die die dünne Platte S mit Licht bestrahlt, und die Bildverarbeitungsvorrichtung 7, die ein Bild des Objekts E von den Ausgaben der Bildsensoren 101 bis 116 erzeugt. Die Bildverarbeitungsvorrichtung 7 erzeugt die aufgenommenen Bilder Pa bis Pd, die ein Bild in einem gemeinsamen vorbestimmten Bereich der dünnen Platte S umfassen, basierend auf den Ausgaben von den Bildsensoren 101 bis 116. Die Bildverarbeitungsvorrichtung 7 gewinnt die Bilder des Objekts E auf der dünnen Platte S für jedes der erzeugten aufgenommenen Bilder Pa bis Pd. Die Bildverarbeitungsvorrichtung 7 verknüpft (verbindet) die gewonnenen Bilder des Objekts E miteinander basierend auf den Schwerpunkten (Merkmalsmenge) des Objekts E, die sich in den Bildern widerspiegeln. Die Bildverarbeitungsvorrichtung 7 kombiniert die verknüpften Bilder des Objekts E miteinander.
  • Gemäß einem Gesichtspunkt der vorliegenden Offenbarung ist es, wie nachfolgend veranschaulicht, in einer Inspektionsmaschine und einem Inspektionsverfahren unter Verwendung einer Vielzahl von Bildsensoren, da es möglich ist, die Größe eines Objekts in einem Inspektionsobjekt zu detektieren, möglich, die Detektionsreproduzierbarkeit und Detektionswahrscheinlichkeit des Objekts in dem Inspektionsobjekt zu verbessern.
  • Wenn die aufgenommenen Bilder Pa bis Pd basierend auf der Anordnung der Bildsensoren 101 bis 116 in Abhängigkeit davon kombiniert werden, wie das Licht auf die dünne Platte S trifft, kann sich die Position des Objekts E für jedes der aufgenommenen Bilder Pa bis Pd wesentlich verschieben. Daher kann die Verschiebung der Position des Objekts E nicht durch Korrigieren der aufgenommenen Bilder Pa bis Pd in Abhängigkeit von der Position des Bildsensors korrigiert werden und das Objekt E kann nicht detektiert werden. In der vorliegenden Inspektionsmaschine wird hingegen ein Bild des Objekts E für jedes der aufgenommenen Bilder Pa bis Pd gewonnen und die gewonnenen Bilder des Objekts E werden miteinander basierend auf der Merkmalsmenge verbunden und kombiniert. Folglich ist es, da die Verschiebung der Position des Objekts E für jedes der aufgenommenen Bilder Pa bis Pd unterdrückt werden kann, möglich, die Bilder des Objekts E genau zu kombinieren, und es ist möglich, die Größe des Objekts in dem Inspektionsobjekt genau zu detektieren. Daher ist es möglich, die Detektionsreproduzierbarkeit und die Detektionswahrscheinlichkeit des Objekts (Fremdkörper oder Fehler) in dem Inspektionsobjekt (dünne Platte S) zu verbessern.
  • Die Bildverarbeitungsvorrichtung 7 gibt ein Bild des Objekts E aus, das nicht verknüpft (nicht verbunden) ist, ohne mit einem Bild eines anderen Objekts E kombiniert zu werden. Dadurch ist es möglich, die Detektionsreproduzierbarkeit und die Detektionswahrscheinlichkeit des Objekts auf dem Inspektionsobjekt (dünne Platte S) zu verbessern.
  • Es wird angenommen, dass jeder der Bildsensoren 101 bis 116 eine Auflösung x in der X-Richtung und eine Auflösung y in der Y-Richtung aufweist. In diesem Fall sind die Bildsensoren 101 bis 104, 105 bis 108, 109 bis 112 beziehungsweise 113 bis 116 für jedes (1/nx) + mx Pixel in der X-Richtung nebeneinander angeordnet. Die Bildsensoren 101, 105, 109 und 113 sind für jedes (1/ny) + py Pixel in der Y-Richtung nebeneinander angeordnet. Die Bildsensoren 102, 106, 110 und 114 sind für jedes (1/ny) + py Pixel in der Y-Richtung nebeneinander angeordnet. Die Bildsensoren 103, 107, 111 und 115 sind für jedes (1/ny) + py Pixel in der Y-Richtung nebeneinander angeordnet. Die Bildsensoren 104, 108, 112 und 116 sind für jedes (1/ny) + py Pixel in der Y-Richtung nebeneinander angeordnet. nx ist indes die Anzahl von Teilungen eines Pixels in der X-Richtung, ny ist die Anzahl von Teilungen eines Pixels in der Y-Richtung und m und p sind ganzzahlige Koeffizienten. Folglich ist es, da ein Pixel in die Anzahl von Teilungen nx in der X-Richtung und die Anzahl von Teilungen ny in der Y-Richtung unterteilt ist, möglich, die Auflösung in der X- und der Y-Richtung der Abbildungsvorrichtung zu verbessern.
  • Andere Ausführungsbeispiele
  • Wie vorhergehend beschrieben, wurde ein Ausführungsbeispiel als ein Beispiel für die Techniken beschrieben, die in der vorliegenden Anmeldung offenbart werden. Die Technik in der vorliegenden Offenbarung ist indes nicht darauf beschränkt und kann auf Ausführungsbeispiele angewandt werden, in denen gegebenenfalls Änderungen, Ersetzungen, Hinzufügungen, Weglassungen und dergleichen vorgenommen werden.
  • In dem vorhergehenden Ausführungsbeispiel bestehen die Abbildungsvorrichtung 1 und die Beleuchtungsvorrichtung 2 aus einem optischen Dunkelfeldsystem, können aber aus einem optischen Hellfeldsystem bestehen. Obgleich die Abbildungsvorrichtung 1 als ein Zeilensensor ausgestaltet ist, kann sie als ein Flächensensor ausgestaltet sein. Die Bildverarbeitungsvorrichtung 7 kann von den Pixelsignalen, die von den Bildsensoren 101 bis 116 ausgegeben werden, ein bewegtes Bild erzeugen oder kann ein unbewegtes Bild erzeugen.
  • 10 ist eine Ansicht zur Veranschaulichung einer Beziehung zwischen einem Typ von Sensor, einem Typ von bewegtem Bild und einem optischen System in der Inspektionsmaschine gemäß dem vorliegenden Ausführungsbeispiel. Ein Abbildungsfehler, der größer ist als die eingestellte Auflösung, ist mit A angegeben, ein Abbildungsfehler, der kleiner als die eingestellte Auflösung bis 1/10 oder größer der eingestellten Auflösung ist, ist mit B angegeben, und ein Abbildungsfehler, der kleiner als 1/10 der eingestellten Auflösung ist, ist mit C angegeben. Wie in 10 veranschaulicht, kann die vorliegende Inspektionsmaschine das deutlichste kombinierte Bild des Objekts E erzeugen, wenn die Abbildungsvorrichtung 1 und die Beleuchtungsvorrichtung 2 aus einem optischen Dunkelfeldsystem bestehen. Grund dafür ist, dass der Hintergrund (Grundebene) des Objekts nicht leuchtet (Helligkeit des Hintergrunds, wo kein Fremdkörper vorhanden ist, weist geringe Abstufungen auf) und das Objekt leuchtet, wenn Licht mit einem geringen Winkel auf das Objekt trifft, derart dass das S/R-Verhältnis (Signal-Rausch-Verhältnis (Helligkeit des Fremdkörpers/Helligkeit des Hintergrunds)) zunimmt. Sogar, wenn die Beleuchtungsvorrichtung 2 aus einem optischen Hellfeldsystem besteht, kann die gleiche Wirkung wie diejenige der vorliegenden Inspektionsmaschine erhalten werden und die gleiche Wirkung kann sogar erhalten werden, wenn ein bewegtes Bild von den Bildsensoren erzeugt wird.
  • Die Bildsensoren der Beleuchtungsvorrichtung 1 sind nicht auf die vorhergehende Anordnung beschränkt. Die Anzahl der Bildsensoren in der Abbildungsvorrichtung 1 ist nicht auf die vorhergehende Anzahl beschränkt.
  • Die Anzahl der Pixel, die jeden Bildsensor bilden, ist nicht auf die vorhergehend beschriebene Anzahl von Pixeln beschränkt.
  • Die aufgenommenen Bilder, die durch die Bildverarbeitungsvorrichtung 7 erzeugt werden, sind nicht auf vier beschränkt. Die Bildverarbeitungsvorrichtung 7 kann mindestens zwei aufgenommene Bilder erzeugen.
  • Das durch die vorliegende Inspektionsmaschine zu inspizierende Inspektionsobjekt ist nicht auf das in der Form einer dünnen Platte ausgestaltete beschränkt.
  • Die Inspektionsmaschine der vorliegenden Offenbarung kann zur Inspektion von Fremdkörpern und Fehlern verwendet werden, die in Elementen enthalten sind, die bei Halbleitern, elektronischen Vorrichtungen, wiederaufladbaren Batterien und dergleichen verwendet werden können.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 5172162 [0004, 0007]

Claims (8)

  1. Inspektionsmaschine, die ein Inspektionsobjekt durch Detektieren einer Größe eines Objekts in dem Inspektionsobjekt detektiert, wobei die Inspektionsmaschine umfasst: eine Vielzahl von Bildsensoren, die das Inspektionsobjekt abbilden; eine Beleuchtungsvorrichtung, die das Inspektionsobjekt mit Licht bestrahlt; und eine Bildverarbeitungsvorrichtung, die ein Bild des Objekts von Ausgaben der Vielzahl von Bildsensoren erzeugt, wobei die Ausgaben Ergebnisse des Abbildens durch die Vielzahl von Sensoren sind, wobei die Bildverarbeitungsvorrichtung eine Vielzahl von aufgenommenen Bildern erzeugt, die Bilder eines gemeinsamen vorbestimmten Bereichs des Inspektionsobjekts gemäß den Ausgaben von der Vielzahl von Bildsensoren umfassen, Bilder des Objekts in dem Inspektionsobjekt von der Vielzahl von erzeugten aufgenommenen Bildern gewinnt, mindestens zwei der von der Bildverarbeitungsvorrichtung gewonnenen Bilder basierend auf Merkmalsmengen des Objekts, die sich in den gewonnenen Bildern widerspiegeln, miteinander verbindet, und die mindestens zwei von der Bildverarbeitungsvorrichtung verbundenen Bilder miteinander kombiniert.
  2. Inspektionsmaschine nach Anspruch 1, wobei die Bildverarbeitungsvorrichtung ferner ein Bild des Objekts ausgibt, das nicht mit einem anderen Bild unter den von der Bildverarbeitungsvorrichtung gewonnenen Bildern verbunden ist.
  3. Inspektionsmaschine nach Anspruch 1 oder 2, wobei jede der Merkmalsmengen ein beliebiges von einer Fläche, einem Seitenverhältnis, einem Schwerpunkt, einer Mitte und einem Schwerpunkt eines Rechtecks, das von dem Objekt umschrieben ist, einer Helligkeitsabstufung, einem Ausrundungsdurchmesser und einer Hauptachsenlänge des Objekts, die sich in einem entsprechenden von den gewonnenen Bildern widerspiegeln, umfasst.
  4. Inspektionsmaschine nach einem der Ansprüche 1 bis 3, wobei die Vielzahl von Bildsensoren einen ersten Bildsensor und einen zweiten Bildsensor umfassen, wobei der zweite Bildsensor mit einem ersten Abstand in einer Abtastrichtung von dem ersten Bildsensor entfernt, in der der erste Bildsensor das Inspektionsobjekt abtastet, und mit einem zweiten Abstand in einer Unterabtastrichtung entfernt angeordnet ist, die eine Richtung senkrecht zur Abtastrichtung ist, und der erste Abstand durch (x/nx) + m × x angegeben ist, der zweite Abstand durch (y/ny) + p × y angegeben ist, wo x eine Auflösung in der Abtastrichtung angibt, y eine Auflösung in der Unterabtastrichtung angibt, nx die Anzahl von Teilungen eines Pixels in der Abtastrichtung ist, ny die Anzahl von Teilungen eines Pixels in der Unterabtastrichtung ist und m und p ganzzahlige Koeffizienten sind.
  5. Inspektionsmaschine nach einem der Ansprüche 1 bis 4, die ferner umfasst: ein Transportband, das das Inspektionsobjekt transportiert; einen ersten Antriebsmechanismus, der das Transportband in einer Unterabtastrichtung senkrecht zu einer Abtastrichtung bewegt, in der die Vielzahl von Bildsensoren das Inspektionsobjekt abtasten; und einen zweiten Antriebsmechanismus, der bewirkt, dass das Transportband sich in der Abtastrichtung hin- und herbewegt, während der erste Antriebsmechanismus das Transportband in der Unterabtastrichtung bewegt.
  6. Inspektionsmaschine nach Anspruch 5, wobei die Vielzahl von Bildsensoren das Inspektionsobjekt abtasten, wenn das Inspektionsobjekt von dem Transportband in der Unterabtastrichtung transportiert wird.
  7. Inspektionsmaschine nach einem der Ansprüche 1 bis 6, wobei die Bildsensoren und die Beleuchtungsvorrichtung aus einem optischen Dunkelfeldsystem bestehen.
  8. Inspektionsverfahren zum Inspizieren eines Inspektionsobjekts durch Detektieren einer Größe eines Objekts in dem Inspektionsobjekt unter Verwendung einer Inspektionsmaschine, die eine Vielzahl von Bildsensoren, die das Inspektionsobjekt abbilden, eine Beleuchtungsvorrichtung, die das Inspektionsobjekt mit Licht bestrahlt, und eine Bildverarbeitungsvorrichtung umfasst, die ein Bild des Objekts in dem Inspektionsobjekt von Ausgaben der Vielzahl von Bildsensoren erzeugt, wobei die Ausgaben Ergebnisse der Abbildung durch die Vielzahl von Bildsensoren sind, wobei das Verfahren umfasst: Erzeugen einer Vielzahl von aufgenommenen Bildern, die Bilder eines gemeinsamen vorbestimmten Bereichs des Inspektionsobjekts gemäß den Ausgaben von der Vielzahl von Bildsensoren umfassen; Gewinnen von Bildern des Objekts in dem Inspektionsobjekt von der Vielzahl von erzeugten aufgenommenen Bildern; Verbinden von mindestens zwei beim Gewinnen gewonnenen Bildern miteinander, basierend auf Merkmalsmengen des Objekts, die sich in den gewonnenen Bildern widerspiegeln; und Kombinieren der mindestens zwei beim Verbinden verbundenen Bilder miteinander.
DE102021114705.0A 2020-06-12 2021-06-08 Inspektionsverfahren und inspektionsmaschine Pending DE102021114705A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020-102355 2020-06-12
JP2020102355A JP2021196242A (ja) 2020-06-12 2020-06-12 検出方法および検出装置

Publications (1)

Publication Number Publication Date
DE102021114705A1 true DE102021114705A1 (de) 2021-12-16

Family

ID=78718879

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102021114705.0A Pending DE102021114705A1 (de) 2020-06-12 2021-06-08 Inspektionsverfahren und inspektionsmaschine

Country Status (4)

Country Link
US (1) US20210390684A1 (de)
JP (1) JP2021196242A (de)
CN (1) CN113804705A (de)
DE (1) DE102021114705A1 (de)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102555250B1 (ko) * 2021-02-03 2023-07-14 (주)인스케이프 이차전지 외관 검사 장치 및 외관 검사 방법

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05172162A (ja) 1991-12-19 1993-07-09 Toyota Motor Corp 半自動変速装置の制御装置

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5172162B2 (ja) * 2006-08-25 2013-03-27 株式会社日立ハイテクノロジーズ 欠陥検査装置
JP4726983B2 (ja) * 2009-10-30 2011-07-20 住友化学株式会社 欠陥検査システム、並びに、それに用いる、欠陥検査用撮影装置、欠陥検査用画像処理装置、欠陥検査用画像処理プログラム、記録媒体、および欠陥検査用画像処理方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05172162A (ja) 1991-12-19 1993-07-09 Toyota Motor Corp 半自動変速装置の制御装置

Also Published As

Publication number Publication date
US20210390684A1 (en) 2021-12-16
CN113804705A (zh) 2021-12-17
JP2021196242A (ja) 2021-12-27

Similar Documents

Publication Publication Date Title
DE112016004904B4 (de) Überprüfungsmethode und Überprüfungsvorrichtung
DE10000364B4 (de) Merkmalbasierende Feststellung von Fehlern
DE102005011237B3 (de) Verfahren zur Bestimmung von Defekten in Bildern
DE3937950C2 (de)
DE112015004721B4 (de) Defektdetektion unter verwendung von strukturinformation
DE2830846A1 (de) Vorrichtung zum ermitteln von fehlern in flaechenhaften mustern, insbesondere in photomasken
DE2929846A1 (de) Opto-elektronisches pruefsystem zur automatischen beschaffenheitspruefung von leiterplatten, deren zwischenprodukte und druckwerkzeuge
EP0085868B1 (de) Vorrichtung zur automatischen optischen Beschaffenheitsprüfung
DE3310341A1 (de) Vorrichtung zum pruefen von negativen
DE102007025304B4 (de) Verfahren zur Verbesserung der Reproduzierbarkeit einer Koordinaten-Messmaschine und deren Genauigkeit
DE102007006525A1 (de) Verfahren und Vorrichtung zur Detektierung von Defekten
EP2929332B1 (de) Inspektionsvorrichtung
DE102020102853A1 (de) Fehlerprüfvorrichtung und -verfahren
DE102021114705A1 (de) Inspektionsverfahren und inspektionsmaschine
DE60026774T2 (de) Defekterkennung mit Verwendung von Grauwertsignaturen
DE202008004430U1 (de) Prüfvorrichtung zum optischen Prüfen von Prüfobjekten
WO2013120679A1 (de) Inspektionsverfahren
DE112021004793T5 (de) Vorrichtung für dreidimensionale Messungen
DE102009010837A1 (de) Verfahren zur Inspektion von Wafern für Solarzellen auf Sägerillen
EP4014027A1 (de) Verfahren und vorrichtung zur analyse einer mehrfachsolarzelle mit zumindest zwei sub-solarzellen mittels lumineszenzstrahlung
DE102007017649A1 (de) Verfahren zum Bestimmen der Fokuslage von mindestens zwei Kanten von Strukturen auf einem Substrat
EP0342318B1 (de) Automatischer Bildschärfeabgleich von Bildröhren
DE102019120858A1 (de) Batteriefolienprüfvorrichtung
DE112018007930T5 (de) Vorrichtung zur dreidimensionalen Messung, Verfahren zur dreidimensionalen Messung
DE20317095U1 (de) Vorrichtung zur Erkennung von Oberflächenfehlern