DE19834718C2 - Digitale Bildverarbeitung für ein Qualitätskontrollsystem - Google Patents

Digitale Bildverarbeitung für ein Qualitätskontrollsystem

Info

Publication number
DE19834718C2
DE19834718C2 DE19834718A DE19834718A DE19834718C2 DE 19834718 C2 DE19834718 C2 DE 19834718C2 DE 19834718 A DE19834718 A DE 19834718A DE 19834718 A DE19834718 A DE 19834718A DE 19834718 C2 DE19834718 C2 DE 19834718C2
Authority
DE
Germany
Prior art keywords
texture
areas
image
sample
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE19834718A
Other languages
English (en)
Other versions
DE19834718A1 (de
Inventor
Andreas Burmeister
Erich Rueckert
Hans Bloss
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Original Assignee
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV filed Critical Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Priority to DE19834718A priority Critical patent/DE19834718C2/de
Publication of DE19834718A1 publication Critical patent/DE19834718A1/de
Application granted granted Critical
Publication of DE19834718C2 publication Critical patent/DE19834718C2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/001Industrial image inspection using an image reference approach
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/30Measuring arrangements characterised by the use of optical techniques for measuring roughness or irregularity of surfaces
    • G01B11/303Measuring arrangements characterised by the use of optical techniques for measuring roughness or irregularity of surfaces using photoelectric detection means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

Die Erfindung befasst sich mit einem Bildverarbeitungsverfahren und einem Verfahren zur automatisierten Klassifikation einer texturierten Oberfläche.
Bei der Qualitätskontrolle industriell gefertigter oder bearbeiteter Oberflächen werden bisher vorwiegend Personen eingesetzt. Ihre Aufgabe ist die visuelle Begutachtung der Oberfläche und die Markierung eventueller Fehler. Gleichzeitig erfolgt oft eine Rückkopplung aus dem Produktions- oder Bearbeitungsprozeß.
Die Schwierigkeit der visuellen Qualitätskontrolle liegt in den Beurteilungsdifferenzen der Kontrolleure begründet. Hier gibt es zum einen Beurteilungsunterschiede zwischen den einzelnen Kontrolleuren als auch zeitliche Schwankungen durch unterschiedliche Tagesformen. Derzeit werden vielfach die Qualitäten von Oberflächen durch Personen kontrolliert und klassifiziert. Hierbei kommt es oft zu einem Driften der Qualität durch Unterscheidungsdifferenzen der unterschiedlichen Kontrolleure. Es spiegelt sich auch die Arbeitszeit und die Ermüdung der Kontrolleure in der Objektivität der Ergebnisse wieder.
Eine automatische Klassifikation in der Produktion erfolgt derzeit entweder durch eine Auswertung von Grauwertbildern oder eine Schwellenwert-Entscheidung von Farbbildern.
Aus der DE 36 39 636 (Robert Massen) ist eine automatische Inspektion von Textilbahnen dem Fachmann zugänglich. Diese Inspektion beruht auf einer in Echtzeit durchgeführten Farbfehler-Erkennung zugleich mit einer in Echtzeit durchgeführten lokalen Strukturfehler-Erkennung und einer bei unsicheren Erkennungsergebnissen eingeschalteten, nicht mehr in Echtzeit durchgeführten zweidimensionalen Bildauswertungen, vgl. dort "Zusammenfassung" sowie Spalte 8, Zeilen 50 bis 70. Diese Fundstelle verwendet demzufolge Schwellenwerte und gehört dem einen zuvor genannten Typ von Bilderkennungsverfahren (mit Schwellenwert-Entscheidung) an. Andererseits ist aus Greenspan, Goodman, Chellappa und Anderson, "Learning Texture Discrimination Rules in a Multiresolution System", IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 16, No. 9, 1994, Seiten 894 bis 901 eine Texturanalyse dem Fachmann ergänzend zugänglich, die unbeaufsichtigt arbeitet, aber eine überwachte Lernphase im statistischen Bereich mit einer neuronalen Netzwerkstheorie beschreibt. Auf der dortigen Seite 900 werden verschiedene Bilder für verschiedene Texturoberflächen zusammengesetzt, ohne allerdings eine Verknüpfung zwischen den spektralen Bildebenen durchzuführen. Jedes Bild ist eine komplette Parzelle, vgl. dort Seite 900, linke Spalte sowie die dortige Fig. 7. Schließlich ist die DE 196 12 465 (Fraunhofer) ein Repräsentant einer automatischen Konfiguration eines Prüfsystems, bei dem Fehler in Texturoberflächen erkannt werden können, unter Bewertung und Neueinstellung der Leistungsfähigkeit eines bereits voreingestellten oder neu eingestellten Systems zur Erkennung.
Eine Problemstellung der Erfindung liegt darin, ein auf ein jeweiliges Bild beschränktes Segmentierungsverfahren zu verbessern und insbesondere eine automatische Klassifikation in der Produktion zu ermöglichen, unabhängig von subjektiven Einflüssen der Betrachter bzw. des Bewerters.
Gelöst wird diese Aufgabe mit einem Verarbeitungsverfahren nach Anspruch 1, bezogen auf die Erkennung von Unregelmäßigkeiten einer texturierten Oberfläche, oder mit einem Verfahren zur automatischen Klassifikation einer solchen Oberfläche (Anspruch 3).
Die Oberflächen werden durch bildgebende Verfahren gewonnen (Anspruch 2). Soweit Stichproben verwendet werden (Anspruch 1, Anspruch 3) entstammen sie einem kontinuierlichen oder diskontinuierlichen Produktionsprozeß, alternativ einer medizinischen Anwendung.
Das hier vorgeschlagene Farbtexturauswertungs-Verfahren ermöglicht nach einer Parametrisierung eine unabhängige Kontrolle texturierter einfarbiger oder farbiger Oberflächen. Als Beispiele werden Holzoberflächen und Dekorfolien genannt. Gleichzeitig eignet sich dieses Verfahren zur allgemeinen Bildauswertung und Bildsegmentierung von Stichproben, die nicht zur Parametrisierung verwendet wurden.
Das Verfahren geht aus vom Verfahren zur (Farb-)Texturauswertung von P. P. Raghu und B. Yegnanarayana, "Segmentation of Gabor-Filtered Textures Using Deterministic Relaxation", IEEE Transactions on Image Processing, Vol. 5, No 12, pp 1625-1636, Dec, 1996. sowie P. P. Raghu and B. Yegnanarayana, "Multispectral Image Classification Using Gabor Filters and Stochastic Relaxation Neural Network", Neural Networks, Vol. 10, No 3, pp 561-572, 1997. Dieses Verfahren wird so erweitert und abgewandelt, daß nicht nur ein und dasselbe Bild teilmanuell segmentiert werden kann, wie bei Raghu/Yegnanarayana, sondern vollständige Datensätze und Bildserien automatisch segmentierbar und klassifizierbar sind.
Das bekannte Verfahren von Raghu/Yegnanarayana zur Segmentierung von digitalen Grau- und Farbbildern arbeitet halbautomatisch auf einem einzelnen Bild und ist nicht zur Behandlung von Stichproben und zur kontinuierlichen Prozeßüberwachung geeignet, da eine Bedienperson für jeden Bildausschnitt die gewünschten Klassen vorgeben muß. Erfindungsgemäß ist das verbessert worden.
Das erfindungsgemäße Verfahren erlaubt nach Erfassen einer Lernstichprobe mit manueller Klassifikation und der Vorgabe der Klassen eine automatisierte Arbeitsweise. Diese Daten werden bei der Prozeßkontrolle mit den aus der Produktion gewonnenen Daten verglichen und eine Klassenzuordnung gut/schlecht getroffen.
Hauptvorteil dieses Verfahrens gegenüber anderen Texturverfahren ist die Adaptionsfähigkeit an die entsprechende Aufgabenstellung. Ein Anwender gibt dem Verfahren die besonderen Eigenschaften einer Oberfläche in Arealen vor und lernt damit die Texturerkennung an.
Das neue Verfahren eignet sich besonders gut für die Klassifikation von farbig texturierten Oberflächen, beispielhaft genannt sind:
Automatische Segmentierung von Einzelbildern oder Bildstichproben ein- oder mehrkanaligen Ursprungs.
Klassifikation von Bildmaterial mit einem oder mehreren Kanälen, d. h. sowohl Grauwert- als auch Farbbilder als auch Multispektralaufnahmen.
Automatische Auswertung mehrkanaliger Satellitenaufnahmen und Luftbilder, hierbei insbesondere im Bereich Land-Use, Kartierungssysteme, Bodenerosion und Verstädterung.
Automatische Klassifikation von Holzwerkstoffen in Gruppen unterschiedlicher Qualitäten.
Automatische Klassifikation und Prozeßsteuerung von Produktionsanlagen zur Herstellung von farbig texturierten Folien und anderen Oberflächen.
Automatische optische Vielteilesortierung.
Automatische Beurteilung von histologischen Gewebeproben.
Automatische Auswertung von durch "channelfusion" hervorgegangenen Datensätzen, z. B. Verschmelzung von sichtbaren Kameradaten (SW- oder Farbkameradaten) mit Ultraschall- oder Röntgenbildern oder Höheninformationsdaten. Die verwendeten Daten können beliebigen Ursprungs sein und ganzzahlige, Fließ- oder Gleitkommawerte haben. Diese unterschiedlichen Daten können dem Verfahren auch verknüpft vorgelegt werden.
Automatische oder überwachte Klassifikation von kontinuierlichen und diskontinuierlichen Prozessen.
Klassifikation der Daten in zwei oder mehrere Klassen, d. h. beliebige Klassenanzahl.
Beispiele erläutern und ergänzen die Erfindung.
Fig. 1 ist ein Verfahrensbeispiel, mit Schaltungsanordnung
Fig. 2 verdeutlicht eine Bildoberfläche 10, aus der Areale 11, 12 . . . ausgewählt sind.
Fig. 3 verdeutlicht die Vorbereitung der Textur-Prototypen.
Fig. 4 veranschaulicht das Verfahren von Fig. 1.
In der Fig. 1 ist ein Verfahrensverlauf spezifiziert. Hierbei dient als "Eingabematerial" entweder ein RGB-Bild 10, ein Multispektralbild, ein Grauwertbild oder beliebige andere durch bildgebende Verfahren gewonnene oder darstellbare Information. Die Textureigenschaften werden durch einen beliebigen Convolver 2 oder ein beliebiges Farb- oder Grauwerttexturverfahren extrahiert. Als Beispiel für mögliche Convolver 2 seien Wavelett-Filterung, Median-Filterung, Mittelwert-Filterung oder Gabor-Filterung genannt.
Hierbei fallen für jeden Bildkanal Zwischenbilder Z an. Die Zwischenbilder 21, 22, 23 werden in einem Wahrscheinlichkeitsprozeß 3 verknüpft und ausgewertet. Hierbei entsteht durch weitere Wahrscheinlichkeitsrechnungen 4, 5, 6, 7 ein segmentiertes Bild 8, bei dem die in der Stichprobe vorhandenen Texturklassen als äquidistant verteilte Grauwertdaten repräsentiert werden. Mit Texturklassen sind in diesem Fall repräsentative Bildareale mit identischen Farb- oder Texturinformationen gemeint.
Diese Grauwertdaten werden anschließend durch einen nachgeschalteten Prozeß 9, der statistische Merkmale, z. B. Mittelwert, etc. oder Grauwerttexturmerkmale, z. B. Laws-Filter-Kernel, extrahiert, ausgewertet, und als Merkmalsvektoren M, d. h. als Texturrepräsentanten des als Eingabematerial dienenden Bildes 10, abgespeichert oder einem nachgeschalteten Klassifikationsprozeß zur Verfügung gestellt.
Die Klassifikation der Merkmale kann z. B. mit einem minimum-distance- Klassifikator (KNN) oder durch einen synergetischen Computer erfolgen.
Die Besonderheit dieses Verfahrens ist die Verallgemeinerung aller bisherigen Textur- und Oberflächenkontrollverfahren. Es bestehen keine Unterschiede mehr zwischen diesen beiden Verfahren. Durch Entfernen einzelner Blöcke kann das Verfahren zu einem Grauwertextraktor modifiziert werden.
Das Verfahren arbeitet in zwei Verfahrensschritten. In einem ersten Schritt, dem Lernmodus, wird das Verfahren konfiguriert. Im zweiten Schritt, dem Arbeitsmodus, liefert das Verfahren als Ergebnis - je nach Einsatzzweck - segmentierte Bilddaten oder Texturmerkmale.
Bei diesem Verfahren gibt es keine Unterschiede zwischen Textur- und Farbmerkmalen. Beides wird gleichrangig bewertet und über die Prototypen verschmolzen.
Ein Einsatz des Verfahrens ist bei Qualitätskontrollverfahren, insbesondere Sichtprüfverfahren oder Auswertung von Bildstichproben oder Bilddatenbanken möglich.
Zur Konfiguration des Verfahrens werden im Lernmodus aus den Bildoberflächen 10 einer Lernstichprobe 30 klassentypische Areale 11, 12, 13, 14 ausgewählt und in einer Parameterdatei abgelegt. Diese Trainingsgebiete genannten Lernareale bilden Textur- Prototypen für den späteren Arbeitsmodus des Verfahrens. Areale 11, 12 und 13, 14 mit identischen Textur- oder Farbeigenschaften werden zu je einer Klasse 11a, 13a zusammengefaßt und liefern einen klassenspezifischen Prototypen.
Aus dem Lernmodus werden die Parametereinstellungen für den Texturextraktor und den Klassenzuweisungsmechanismus in den Arbeitsmodus übernommen.
Die Lernstichprobe 30 wird zur Konfiguration, gründend auf den besonderen Eigenschaften der genannten Objektoberfläche der Lernstichprobe, eingesetzt. Hierbei dienen Regionen 11, 12 einer jeweiligen Oberfläche als Kriterium für die Klassenzugehörigkeit 11a. Regionen mit identischen Eigenschaften werden hierbei zu einer Klasse zusammengefaßt. Die Regionen der Lernstichprobe werden durch ein beliebiges Texturverfahren in Klassen-Prototypen 20 umgesetzt und für die anschließende Klassifikation herangezogen.
Bilddaten, die über ein bildgebendes Verfahren aus texturierten Oberflächen gewonnen werden, werden in einem Arbeitsmodus durch die Texturextraktoren in Zwischenbilder Z überführt. Für jedes Individuum der Bildstichprobe ergeben sich für jeden Farbkanal n und die Anzahl der Texturextraktoren t, also n* t Zwischenbilder.
Durch eine Kette aus drei Wahrscheinlichkeitsprozessen wird eine Klassenzuordnung der Bildinformationen zu den Klassen vorgenommen. Das erste Glied der Kette besteht aus einem Feature-Formation genannten Vergleichsprozeß 3, der die Textur- Prototypen 20 mit dem aktuell gefilterten Bild vergleicht. Anschließend folgen ein Partition- und ein Label-Competition-Prozeß 4, 5, die unter Berücksichtigung der Nachbarpixel die endgültige Klassenzuweisung der Bildoberfläche durchführen und das so segmentierte Bild entrauschen. Hier wird ein neuronales Netz mit einem sogenannten simulated-annealing-Prozeß eingesetzt.
Als Zwischenergebnis wird ein in die Textur- oder Fehlerklassen segmentierte (digitale) Bildoberfläche 8 vorgelegt.
Wird das System zur automatischen Klassifikation eingesetzt, werden in einer Nachlaufrechnung aus dem obigen Zwischenbild Z Textur-Merkmale M extrahiert 9. Diese Merkmale werden in einem Entscheidungsprozeß mit denen der Lernstichprobe 30 verglichen.
Areale einer texturierten Oberfläche mit beliebiger Information können als Prototypen für Bildsegmentierungen und Klassifikationen automatisch zugewiesen und bewertet werden.
Das mit Arealen (Regionen) arbeitende Verfahren erlaubt die Segmentierung von Texturoberflächen und dabei nicht nur die weitere Klassifizierung von vergleichbaren Arealen desselben Bildes, sondern die Möglichkeit, Stichproben anderer Natur, die zuvor nicht eingelernt worden sind, zu klassifizieren und damit nach einer Einlernphase, die manuell sein kann, aber nicht manuell sein muß, weiterhin automatisch zu arbeiten und texturierte Oberflächen beliebiger Herkunft, wie sie eingangs mit ihren weitreichenden Möglichkeiten dargestellt worden sind, zu klassifizieren. Es handelt sich also - nach der Einlernphase mit den zuvor beschriebenen Lernstichproben 30 - um ein vollautomatisch arbeitendes Verfahren, das in kontinuierlichen oder diskontinuierlichen Prozessen einsetzbar ist, das medizinische Aufnahmen auszuwerten vermag und sich auch bei sonstigen Auswertungen von Texturoberflächen vorteilhaft einsetzen läßt. Im Gegensatz zu dem Verfahren von Raghu können Stichproben beliebiger Herkunft zur kontinuierlichen und diskontinuierlichen Prozeßüberwachung herangezogen werden, aus welchen Prozessen die Stichproben stammen. Der Benutzer gibt nicht mehr die gewünschten Klassen für ein jeweiliges Bild vor, um mit dem Klassifizierungsprozeß von Raghu auf demselben Bild Klassifizierungen vornehmen zu können, sondern geht von einer Lernstichprobe 30 aus, in der Areale 11, 12, 13 in Form von Trainingsgebieten definiert werden D, mit denen das System trainiert wird. Die dabei gewonnenen "Prototypen" 20 dienen Vergleichszwecken in einem zuvor beschriebenen, komplexeren Vergleichsprozeß, um Klassenzuordnungen bei beliebigen anderen Stichproben zu erhalten.
Die Lernphase des Systems soll anhand der Fig. 2 und 3 erläutert werden, wobei die Fig. 3 in einer Vergrößerung den Block B,20 darstellt, der in Fig. 1 mit "Lerndaten" bezeichnet ist. Dazu ist in Fig. 2 - nur als Beispiel - eine Gruppe von vier Arealen 11, 12, 13, 14 eingezeichnet, die sich auf einer texturierten Oberfläche 10, dem sogenannten "Bildmaterial" oder der Objektoberfläche oder der histologischen Gewebeprobe oder der mehrkanaligen Satellitenaufnahme oder des durch Kanalfusion hervorgegangenen Bilddatensatzes aus Quellen unterschiedlichster Herkunft befinden. Die Trainingsgebiete 11 bis 14 bilden Textur-Prototypen für den späteren Arbeitsmodus des Verfahrens. Im Beispiel der Fig. 2 sind jeweils zwei Textur- Prototypen als identisch angesehen, aufgrund ihrer Textur oder ihrer Farbe, sie werden zu zwei als Beispiel dargestellten klassenspezifischen Prototypen 11a und 13a zusammengefaßt. Das Areal 11 und das Areal 12 hat beispielsweise dieselbe Farbeigenschaft, während das Areal 13 und das Areal 14 dieselbe Textureigenschaft hat. Es entsteht ein klassenspezifischer Prototyp 11a hinsichtlich einer Farbeigenschaft und es entsteht ein klassenspezifischer Prototyp 13a hinsichtlich einer Textureigenschaft für die texturierte Oberfläche 10 der Fig. 2.
Daraus ergeben sich Lerndaten für k Klassen, wenn die entsprechende Verarbeitung gemäß Fig. 3 vorgenommen wird.
Nach Einlernen in das System kann der Arbeitsmodus erfolgen, wie er in der Fig. 1 als Signalflußplan des auf Arealen basierten Texturverfahrens dargestellt ist und wie er in der Fig. 4 in einer Übersicht bei der Arbeitsweise erläutert ist, wie aus der Bildoberfläche der Textur-Extraktor die Areale (Regionen) extrahiert, wie die Merkmale der Lernstichprobe, der Teststichprobe und der Verifikationsstichprobe ermittelt werden und wie durch die Klassifikationen KNN und RSF (k nearest neighbour und recursive feature selection) gezeigt ist, wobei aus den Ergebnissen eine Rückkopplung auf das Lernmuster erfolgt, das der Lernstichprobe 30 entspricht. Ersichtlich an der Fig. 4 sind auch zwei weitere Textur-Extraktoren, die nicht regionenbasiert sind, der CFE und "Alle" (colour feature extracto r und Grauwertmerkmals-Extraktor).
Das Markieren B, D der in Fig. 3 ersichtlichen und stark vergrößert in der Fig. 2 gezeigten Areale erfolgt von Hand oder automatisiert, z. B. mit am Bildschirm eingezeichneten ziehbaren und vergrößerbaren und verkleinerbaren Quadraten, wodurch eine qualifizierte Lernstichprobe mit Markierung der Regionen entsteht, die als Prototypen der "Fehler" (im Produktionsbetrieb) verwendet werden sollen. Die "Testmuster" in den Regionen bilden die jeweiligen Prototypen der Fehler und werden vergleichbare Textur-Prototypen 11, 12 ermittelt, so bilden sie gemeinsam einen klassenspezifischen Prototypen. Diese Prototypen vergleicht das Verfahren mit jeweiligen Bildausschnitten der weiteren Stichprobe 10 und weist nach einer Segmentierung entsprechende Fehlerklassen zu. Die Kontrolle des Verfahrens wird dadurch erreicht, daß ein externes Steuerprogramm die entsprechenden Daten für die Lernmuster berechnet und dem Merkmalsextraktor, der hier dem rechten Merkmalsextraktor in Fig. 4 entspricht, zur Verfügung stellt. Die Rückkopplung erfolgt anhand des Klassifikationsergebnisses.
Aus Verifikationen hat sich ergeben, daß besonders die histologischen Gewebeproben schwierig zu klassifizieren sind, sie bestehen aus einer komplexen Textur und haben ein schwieriges Kontrastverhältnis. Die Farben sind zumeist lila, gelb sowie rosa, rötlich und weißlich, in welchen Farben histologische Schnitte eingefärbt werden. Mit Bildarealen, die der Segmentierung der texturierten Oberfläche entsprechen, werden nicht nur klassentypische Areale ausgewählt, z. B. bei zwei Klassen jeweils zumindest etwa fünf aktive Bildareale, sondern auch eine Negativabgrenzung vorgenommen, durch Auswahl von Hintergrundarealen, die in jedem Falle eine Textur in dem ausgewählten Areal zeigen, die nicht in positive Klassen einzuordnen ist. Wenn hier auch zumindest etwa fünf Areale ausgewählt werden, konnten bei histologischen Gewebeproben vernünftige Ergebnisse der Klassifizierung erzielt werden. Durch das Markieren lernt das System selbst, vergleichbare Bereiche automatisiert in anderen Stichproben aufzufinden.
Weitere Validierungen des mit Regionen (Arealen) arbeitenden Verfahrens lagen in Bronchialsekret-Stichproben mit 517 Bildern, Schnittholz-Stichproben mit 207 Bildern, Baumrinden-Stichproben mit 380 Bildern und einer Luftbild-Stichprobe. Bei der Schnittholz-Stichprobe ergab sich eine überraschend hohe Erkennungsrate der mit Arealen zuvor eingelernten Prototypen von Fehlern, so daß eine richtige Klassenzuweisung von über 84% verifiziert werden konnte, was einen enormen Fortschritt in der automatischen Holzprüfung durch Texturverfahren darstellt. Zwar konnten in dem Verifizierungsstadium nicht alle Fehler den zutreffenden Klassen zugeordnet werden, aber die vorgenannte Erkennungsrate zeigt bereits für automatisierte Erkennungssysteme eine besonders hohe Zuverlässigkeit.

Claims (4)

1. Bildverarbeitungsverfahren zur Erkennung von Unregelmäßigkeiten einer texturierten Oberfläche, wie Objektoberfläche, Bildinhalt, Bildbedeutung und strukturierte Vielteile, welches Verfahren folgende Merkmale aufweist:
  • a) Auswählen von Arealen (11, 12, 13, 14) der texturierten Oberfläche (10) in einem Lernmodus aus einer Lernstichprobe und Zuordnen dieser Areale als Textur-Prototypen (11a, 13a);
  • b) Extrahieren von Zwischenbildern aus weiteren texturierten Oberflächen einer Stichprobe, die nicht der Lernstichprobe des Lernmodus entspricht;
  • c) Vergleich der extrahierten Zwischenbilder mit den Textur-Prototypen, um in Arealen der texturierten Oberfläche der weiteren Stichprobe Unregelmäßigkeiten zu erkennen.
2. Bildverarbeitungssystem nach Anspruch 1, bei der die Oberflächen durch bildgebende Verfahren gewonnen werden.
3. Verfahren zur automatisierten Klassifikation einer texturierten oder farbigen oder Höheninformation darstellenden Oberfläche (texturierte Oberfläche), bei dem vorgesehen sind:
  • a) Auswählen von Arealen (11, 12, 13, 14) der texturierten Oberfläche (10) in einem Lernmodus und Zuordnen dieser Areale als Textur- Prototypen (11a, 13a);
  • b) Extrahieren von Zwischenbildern aus weiteren texturierten Oberflächen einer Stichprobe, die nicht der Lernstichprobe des Lernmodus entspricht;
  • c) Vergleich der extrahierten Zwischenbilder mit den Textur-Prototypen, um Areale der texturierten Oberfläche der weiteren Stichprobe automatisch zu klassifizieren.
4. Verfahren nach Anspruch 1 oder Anspruch 3, wobei die Stichproben Stichproben eines kontinuierlichen oder diskontinuierlichen Produktionsprozesses oder medizinische Aufnahmen sind.
DE19834718A 1998-07-31 1998-07-31 Digitale Bildverarbeitung für ein Qualitätskontrollsystem Expired - Lifetime DE19834718C2 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE19834718A DE19834718C2 (de) 1998-07-31 1998-07-31 Digitale Bildverarbeitung für ein Qualitätskontrollsystem

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE19834718A DE19834718C2 (de) 1998-07-31 1998-07-31 Digitale Bildverarbeitung für ein Qualitätskontrollsystem

Publications (2)

Publication Number Publication Date
DE19834718A1 DE19834718A1 (de) 2000-02-03
DE19834718C2 true DE19834718C2 (de) 2003-06-12

Family

ID=7876094

Family Applications (1)

Application Number Title Priority Date Filing Date
DE19834718A Expired - Lifetime DE19834718C2 (de) 1998-07-31 1998-07-31 Digitale Bildverarbeitung für ein Qualitätskontrollsystem

Country Status (1)

Country Link
DE (1) DE19834718C2 (de)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10124340A1 (de) 2001-05-18 2002-12-05 Fraunhofer Ges Forschung Verfahren zur Analyse einer biologischen Probe
DE10161737C1 (de) * 2001-12-15 2003-06-12 Basler Ag Verfahren zum optischen Erfassen von lokalen Fehlern in einer periodischen Struktur
US7822259B2 (en) * 2006-05-26 2010-10-26 Areva Np Inc. Method for positive identification of inner surface and outer surface of sample flakes
DE102006052542B4 (de) * 2006-11-06 2008-08-14 Hochschule für angewandte Wissenschaft und Kunst (HAWK) Hildesheim Bilderfassungseinrichtung
DE102014212511A1 (de) * 2014-06-27 2015-12-31 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtungen und Verfahren zur Prüfung einer Oberflächengüte
DE102020206753B4 (de) 2020-05-29 2023-10-19 Carl Zeiss Smt Gmbh Verfahren und Vorrichtung zum Bestimmen eines Kontaminationszustands einer Oberfläche eines Facetten-Elements

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3639636A1 (de) * 1986-11-20 1988-05-26 Robert Prof Dr Ing Massen Automatische inspektion von textilbahnen
DE19612465A1 (de) * 1996-03-28 1997-10-02 Fraunhofer Ges Forschung Automatische Konfiguration von Prüfsystemen

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3639636A1 (de) * 1986-11-20 1988-05-26 Robert Prof Dr Ing Massen Automatische inspektion von textilbahnen
DE19612465A1 (de) * 1996-03-28 1997-10-02 Fraunhofer Ges Forschung Automatische Konfiguration von Prüfsystemen

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
H. GREENSPAN, et al.:"Learning Texture Discrimina-tion Rules in a Multiresolution System", IEEE Transactions on Pattern Analysis and Machine Inte-lligence, Vol. 16, No. 9, 1994, S.894-901 *
P.P. RAGHU, B. YEGNANARAYANA:"Segmentation of Gabor-Filtered Textures using Deterministic Relaxation" IEEE Trans. on Image Processing, Vol.5No. 12, S. 1625-1636, 1996 *
P.P. RAGHU, B.YEGNANARAYANA:"Multispectral Image Classification Using Gabor Filters and Stochastic Relaxation Neural Networks", Neural Networks, Vol.10, No. 3, S. 561-572, 1997 *

Also Published As

Publication number Publication date
DE19834718A1 (de) 2000-02-03

Similar Documents

Publication Publication Date Title
DE19837004C1 (de) Verfahren zum Erkennen von Objekten in digitalisierten Abbildungen
DE60109278T2 (de) Verfahren und Gerät zur Lokalisierung von Schriftzeichen in Bildern aus einer Digitalkamera
EP2130174B1 (de) Verfahren und vorrichtung zur ermittlung einer zellkontur einer zelle
EP1797533B1 (de) Verfahren und vorrichtung zur segmentierung einer digitalen abbildung von zellen
DE112018004661T5 (de) Schattenerkennungsverfahren für ein Überwachungsvideobild, System davon undSchattenentfernungsverfahren
DE102019127282A1 (de) System und Verfahren zum Analysieren einer dreidimensionalen Umgebung durch tiefes Lernen
DE102009023756B4 (de) Verfahren zum Herkunftsnachweis und zur Urheberschaft von Bildern
DE102004063769A1 (de) Verfahren und Einrichtung zur automatischen und quantitativen Erfassung des Anteils von Saatgütern oder Körnerfrüchten bestimmter Qualität
EP1118956A2 (de) Verfahren zur Erkennung von Objekten in Bildern auf der Bildpixelebene
EP2400458B1 (de) Verfahren und Vorrichtung zur Segmentierung von biologischen Zellen in einer Aufnahme
EP3970113A1 (de) Bestimmung eines verschleissgrades eines werkzeugs
DE102021201124A1 (de) Trainieren von bildklassifizierernetzen
DE19834718C2 (de) Digitale Bildverarbeitung für ein Qualitätskontrollsystem
DE19754909C2 (de) Verfahren und Vorrichtung zur Erfassung und Bearbeitung von Abbildungen biologischen Gewebes
DE102020200054A1 (de) Ein Verfahren zum Klassifizieren eines Gefüges eines Werkstoffs, ein Verfahren zum Trainieren eines neuronalen Netzwerks zur Klassifizierung eines Gefüges eines Werkstoffs und ein Computerprogramm
DE112019004112T5 (de) System und verfahren zur analyse mikroskopischer bilddaten und zur erzeugung eines annotierten datensatzes zum training der klassifikatoren
DE10233233A1 (de) Erkennung von Bewegungen (dynamische Gesten) zur berührungslosen und tonlosen Interaktion mit technischen Systemen
DE10234086A1 (de) Verfahren zur Signalauswertung eines elektronischen Bildsensors bei der Mustererkennung von Bildinhalten eines Prüfkörpers
EP1139285B1 (de) Verfahren und Vorrichtung zur Prüfung bzw. Untersuchung von Gegenständen
EP3471056B1 (de) Verfahren zum eingrenzen von zu betrachtenden bildbereichen in bildern
AT511399B1 (de) Verfahren zur automatisierten klassifikation von einschlüssen
EP2113120B1 (de) Vorrichtung und verfahren zum adaptieren eines maskenbildes
DE102005001224A1 (de) Verfahren zur Zuordnung eines digitalen Bildes in eine Klasse eines Klassifizierungssystems
DE102020205535A1 (de) Charakterisierung, Training und Anwendung von Bildklassifikatoren
DE19810162C2 (de) Verfahren zur Bildanalyse nach stochastischen Eigenschaften

Legal Events

Date Code Title Description
ON Later submitted papers
OP8 Request for examination as to paragraph 44 patent law
8304 Grant after examination procedure
8364 No opposition during term of opposition
R071 Expiry of right