DE102014108924B4 - Ein halbüberwachtes Verfahren zum Trainiern eines Hilfsmodells zur Erkennung und Erfassung von Mehrfachmustern - Google Patents

Ein halbüberwachtes Verfahren zum Trainiern eines Hilfsmodells zur Erkennung und Erfassung von Mehrfachmustern Download PDF

Info

Publication number
DE102014108924B4
DE102014108924B4 DE102014108924.3A DE102014108924A DE102014108924B4 DE 102014108924 B4 DE102014108924 B4 DE 102014108924B4 DE 102014108924 A DE102014108924 A DE 102014108924A DE 102014108924 B4 DE102014108924 B4 DE 102014108924B4
Authority
DE
Germany
Prior art keywords
model
pattern
training
procedure according
trained
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102014108924.3A
Other languages
English (en)
Other versions
DE102014108924A1 (de
Inventor
Simon Barker
David J. Michael
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Cognex Corp
Original Assignee
Cognex Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US13/955,120 external-priority patent/US9679224B2/en
Application filed by Cognex Corp filed Critical Cognex Corp
Publication of DE102014108924A1 publication Critical patent/DE102014108924A1/de
Application granted granted Critical
Publication of DE102014108924B4 publication Critical patent/DE102014108924B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)

Abstract

Ein Verfahren zum Trainieren eines Modells zum Erkennen und Erfassen eines Musters in einem Maschinensichtsystem, wobei das Verfahren die folgenden Schritte umfasst:- Bereitstellung eines oder mehrerer Initialtrainingsbilder mit einem Bereich, der ein Muster, das trainiert werden soll, bestimmt, wobei das eine oder die mehreren Trainingsbilder von einer Datenbank geliefert werden, die eine Vielzahl von Trainingsbildern enthält;- Trainieren eines ersten Mustermodells aus dem einen oder mehreren Initialtrainingsbildern;- Iterieren über die verbliebenen Bilder und Auswahl der hoch bewerteten Bilder als Eingabe zum Modelltraining; und- Ausgabe eines trainierten Mustermodells, das Merkmale einschließt, die eine vorher bestimmte Anzahl der Vielzahl von Trainingsbildern gemeinsam haben, wobei das trainierte Mustermodell sich vom ersten Mustermodell unterscheidet.

Description

  • GEBIET DER ERFINDUNG
  • Die vorliegende Erfindung bezieht sich auf eine Maschinenvision, bei der Bilder von Objekten mithilfe einer Kamera oder einer anderen Abbildungsvorrichtung erhalten werden, bei dem die Suche nach einem Zielmuster im Bild der Suche nach dem Muster auf dem Objekt, das dargestellt wird, entspricht.
  • HINTERGRUND DER ERFINDUNG
  • Es ist ein Problem, Maschinenvisionssysteme benutzerfreundlich und einem weiteren Kreis von möglichen Benutzern zugänglich zu machen. Es gibt verschiedene Aspekt, die für Benutzer klar verständlich sind (beispielsweise, wie man einen Satz von Trainingsbildern erzeugt) und was die „Ground Truth“ der Situation ist. Darüber hinaus allerdings ist die Anwendung vieler Aspekte von Training und Laufzeitvorgängen der Maschinenvisionssysteme schwieriger.
  • Bei Maschinenvisionssystemen, bei denen Bilder von Objekten mithilfe einer Kamera oder einer anderen Abbildungsvorrichtung erhalten werden und bei denen ein Muster auf dem Objekts, das abgebildet ist, mithilfe eines Verfahrens gesucht wird, das auf einem Computer oder einer anderen Rechenvorrichtung ausgeführt wird. Wenn ein Satz Bilder gegeben ist, wobei jedes Bild mindestens ein Beispiel eines Zielmusters enthält, aber bei dem sich das Aussehen des Zielmusters ändern kann, kann es auch eine Herausforderung sein, einen minimalen Satz von Modellen zur Mustererkennung und -Erfassung, der für alle Bilder im Bildersatz anwendbar sind, zu identifizieren und zu trainieren, Das Verfahren zur Mustererkennung und -erfassung ist genauer in den US-Patentanmeldungen mit den Nummern 6.408.109, 6.658.145 und 7.016.539 beschrieben. Wird ein Muster erkannt, bestätigt das Verfahren zur Mustererkennung und -erfassung (oder das „Tool“, bzw. Hilfsprogramm), dass das gesichtete Muster tatsächlich das Muster ist, nach dem das Hilfsprogramm sucht, und fixiert dessen Position, Ausrichtung, Maßstab, Schräglauf und Blickwinkel. Ein Beispiel eines solchen Suchhilfprogramms ist das PatMax® von Cognex Corporation in Natick, Massachusetts, USA. Das Verfahren zur Mustererkennung und -erfassung ist ein Verfahren der geometrischen Mustersuche. Die hier beschriebenen Verfahren werden allgemein auf geometrische Mustersuche angewendet.
  • Weitere lernfähige Systeme und Trainingsverfahren zur Mustererkennung und -erfassung in Bildersätzen sind in US 8,144,976 B1 , US 8,457,390 B1 und US 8,315,457 B2 beschrieben.
  • Beispielsweise kann ein Muster aus Elementen, die Kreise und Linien enthalten, bestehen. In Fig. schließt Muster 110 einen Kreis 112 und zwei diesen schneidende Linien 114, 116 ein; Muster 120 schließt einen Kreis 122 und ein Linienpaar 124, 126 ein; und Muster 130 schließt einen Kreis 132 und ein Linienpaar 134, 136 ein. Die Kreise können, was Radius und Liniendicke oder -anzahl betrifft, über den Bildersatz von trainierten Linien variieren. Dies kann insbesondere der Fall auf dem Gebiet von Halbleitern oder anderen Materialien sein, bei denen eine Vielzahl von Schichten auf einem Substrat abgelegt wird, was zu Verzerrungen der Merkmale auf jeder Schicht führen kann. Die Polarität der Muster kann ebenso innerhalb des Bildersatzes variieren (wie im Unterschied zwischen Muster 120 und Muster 130 gezeigt). Die Bilder können auch einen hohen Grad an Rauschen enthalten.
  • Das Problem hat mindestens zwei Komponenten. Erstens besteht der Trainingsbildersatz aus Rauschbildern, so dass es schwierig ist, ein sauberes Modell aus einem einzigen Bild zu trainieren. Zweitens hat das Muster im Trainingsbildersatz ein unterschiedliches Aussehen, was das Trainieren eines einzigen Modells schwierig und während der Laufzeit fehlerhaft macht. Es ist daher Aufgabe der Erfindung, ein verbessertes System und Verfahren vorzuschlagen, welches ein einfaches und fehlerfreies Trainieren eines sauberen Modells auch mit einem verrauschten und unterschiedliche Varianten eines Musters enthaltenden Trainingsbildersatz erlaubt.
  • DARSTELLUNG DER ERFINDUNG
  • Um die Nachteile des Standes der Technik zu überwinden, verwenden die Systeme und Verfahren hier ein Modell zur Mustererkennung und -erfassung, um das Training durchzuführen. Ein Mustersuchmodell ist beispielsweise ein einziges Modell, das aus vielen Trainingsbildern trainiert wird. Bei einigen Ausführungsformen können zusammengesetzte Modelle eingesetzt werden, um entweder die Stabilität über Standardmodelle zur Mustererkennung und -erfassung zu verbessern und/oder um kleine Unterschiede im Aussehen eines Zielbereiches abzubilden. Zur Verbesserung der Stabilität kombinieren zusammengesetzte Modelle Daten von geräuschvollen (und anderweitig verzerrten) Trainingsbildern, die Beispiele von einzelnen darunterliegenden Mustern zeigen, um ein einziges stabiles Modell zu formen. Um das zu erreichen, verwendet ein Trainingselement, welches das Modell zur Mustererkennung und -erfassung einsetzt, die Eingabebilder und eine bekannte relative Lage oder Position (diese ist humanidentifiziert oder computerbestimmt).
  • Um die kleinen Unterschiede im Aussehen eines Zielbereiches zu erklären, wird ein Trainingsverfahren eingesetzt, um einen Satz von Modellen zur Mustererkennung und -Erfassung zu trainieren, der den kompletten Bereich (oder zumindest einen großen Teil des kompletten Bereiches) des Aussehens des Zielmusters im Trainingssatz überspannt. Der Satz von Modellen zur Mustererkennung und -erfassung kann sich entweder als getrennte Beispiele von Mustermodellen zeigen oder als Mehrfachmustermodell. Ein Mehrfachmustermodell ist eine Ansammlung von Modellen zur Mustererkennung und -Erfassung. Die darunterliegenden Modelle können Standardmodelle zur Mustererkennung und -erfassung sein oder ein zusammengesetztes Mustermodell oder eine Kombination von beiden. Das Mehrfachmustermodell ist zum Einsatz bei der Formung von Zielen vorgesehen, deren Aussehen sehr unterschiedlich ist. Das Mehrfachmustermodell kann in verschiedenen modi laufen, um das vorbekannte Wissen des wahrscheinlichen zeitlichen Ablaufes des Aussehens des Modells auszunutzen. Der Einbau von Mehrfachmustermodellen in den Mehrfachmustermodellrahmen kann verwendet werden, um die Menge an Front End Processing zu reduzieren und so schrittweisen Leistungsgewinn über den Lauf von Beispielen separater Mustermodelle zu erhalten. Das Mehrfachmustermodell kann auch Ergebnisse seiner zusammengesetzten Modelle überprüfen, um Überlappung zu filtrieren, wenn beispielsweise Ergebnisse von zwei Modellen mit mehr als einer vom Benutzer bestimmten Schwelle überlappen; dann kann das Mehrfachmustermodell nur das besser passende Ergebnis (oder das mit den mehr Treffern) an den Benutzer zurückschicken.
  • Figurenliste
  • Die untenstehende Erfindungsbeschreibung bezieht sich auf die beigefügten Zeichnungen, von denen
    • 1, bereits beschrieben, drei Beispiele von Bildern zeigt, wobei jedes ein Muster einschließt, gemäß des Verfahrens zur Mustererkennung und -Erfassung;
    • 2 ein schematisches Blockdiagramm eines Masinenvisionssystem zur Ausführung der Grundsätze der vorliegenden Erfindung gemäß eines Ausführungsbeispiels ist;
    • 3 ein Flussdiagramm eines Verfahrens zum Trainieren eines einzelnen Modells zur Mustererkennung und -Erfassung gemäß der Ausführungsbeispiele ist;
    • 4 ein Flussdiagramm eines Verfahrens zum Trainieren eines Mehrfachmustermodells und Messleistung eines gegenwärtig trainierten Ausgabemodells gemäß der Ausführungsbeispiele ist;
    • 5 ein Flussdiagramm eines Verfahrens zum Vorschlag und Einstufen von Kandidaten zur Addition zu der Ansammlung von Ausgabemodellen gemäß der Ausführungsbeispiele ist; und
    • 6 ein Flussdiagramm eines Verfahrens ist, um dem Benutzer den Kandidaten mit den meisten Treffern vorzuschlagen und Mehrfachmustermodelle auszugeben, gemäß der Ausführungsbeispiele.
  • FIGURENBESCHREIBUNG
  • 2 ist ein schematisches Blockdiagramm eines Maschinenvisionssystems 200, das eingesetzt werden kann, um die Grundlagen der vorliegenden Erfindung gemäß eines Ausführungsbeispiels zu trainieren. Das Maschinenvisionssystem 200 schließt eine Erfassungsvorrichtung 205 ein, die ein Bild eines Objektes 210 mit einem oder mehreren Merkmalen 215 erzeugt. Die Erfassungsvorrichtung 205 kann eine herkömmliche Videokamera oder einen Scanner umfassen. Eine solche Videokamera kann ein ladungsgekoppeltes Bauelement (charge coupled device CCD) oder ein anderes System zur Beschaffung entsprechender Bildinformationen sein, wie etwa die wohl bekannten CMOS-Sensoren. Bilddaten (oder Pixel), die von der Erfassungsvorrichtung 205 erzeugt werden, repräsentieren eine Bilddichte, beispielsweise Farbe oder Helligkeit an jedem Punkt in der Szene innerhalb der Auflösung der Erfassungsvorrichtung 205. Die Erfassungsvorrichtung 205 überträgt digitale Bilddaten über einen Kommunikationspfad 220 zu einem Bildanalysesystem 225. Das Bildanalysesystem 225 kann einen herkömmlichen digitalen Datenprozessor umfassen, wie etwa Visionsverarbeitungssysteme von Cognex Corporation. Das Bildanalysesystem 225 kann einen herkömmlichen Mikrocomputer oder ein anderes Beispiel einer Rechenvorrichtung umfassen. Andere Arten von Schnittstellen können eingesetzt werden, einschließlich beispielsweise persönliche Digitalassistenten (PDA) usw. Bei anderen Ausführungsformen kann die Erfassungsvorrichtung Verarbeitungsmöglichkeiten einschließen, um die Funktionen des Bildanalysesystems auszuführen. Bei solchen Ausführungsbeispielen gibt es keinen Bedarf für ein separates Bildanalysesystem. Bei weiteren alternativen Ausführungsbeispielen kann zu Trainingszwecken eine Erfassungsvorrichtung wirksam mit einem Bildanalysesystem verbunden werden. Wenn das Training durchgeführt wurde, kann oder können zum Einsatz während der Laufzeit ein entsprechendes Modell/entsprechende Modelle in der Erfassungsvorrichtung gespeichert werden.
  • Das Bildanalysesystem 225 kann gemäß der Lehren der vorliegenden Erfindung programmiert werden, um ähnliche Merkmale unter der Vielzahl von Bildern zu suchen, um entsprechende Erkennungs- und Erfassungsinformationen zum Trainieren eines Maschinenvisionssystems zu erzeugen. Das Bildanalysesystem 225 kann eine oder mehrere zentrale Verarbeitungseinheiten (Prozessoren) 230, Hauptspeicher 235, Eingabe-/Ausgabesysteme 245 und ein oder mehrere Laufwerke oder eine andere Form der Massenspeicherung 240 aufweisen. Beispielsweise verbindet sich das Eingabe-/Ausgabesystem 245 mit dem Kommunikationspfad 220 zwischen der Erfassungsvorrichtung 205 und dem Bildanalysesystem 225. Das System 225 kann durch Programmierungsanweisungen gemäß der Lehren der vorliegenden Erfindung konfiguriert sein, um die neuartige, durch mehrere Bilder trainierte Mustererkennung und -Erfassung der vorliegenden Erfindung auszuführen. Fachleute werden es zu schätzen wissen, dass alternative Hardware- und/oder Softwarekonfigurationen verwendet werden können, um die Grundlagen der vorliegenden Erfindung umzusetzen. Insbesondere können die Lehren der vorliegenden Erfindung in Software, Hardware, Firmware und/oder all ihren Kombinationen umgesetzt werden. Weiterhin können während der Laufzeit, im Gegensatz zur Trainingszeit, zusätzliche Komponenten ins Maschinenvisionssystem 200 eingefügt werden. Beispielsweise können Objekte 215 auf einem Förderband oder einer anderen Montagelinie usw. gefördert werden.
  • Gemäß eines Ausführungsbeispiels der vorliegenden Erfindung, kann das Maschinenvisionssystem 200 verwendet werden, um das Trainingsmodell für ein Laufzeitmaschinenvisionssystem zu erzeugen. So kann das Maschinenvisionssystem 200 verwendet werden, um ein Trainingsmodell zu erzeugen, das in einer Vielzahl von Maschinenvisionssystemen, die ähnliche Komponenten einsetzen, verwendet werden kann.
  • Darüber hinaus sollte festgehalten werden, dass das Musterelement (oder Mustererkennungs- und -Erfassungselement), wie hier gezeigt und beschrieben, und dessen zugehörige Modelle sich im Allgemeinen innerhalb des Bildanalysesystems 225 befinden. Allerdings kann entsprechend durchschnittlichem Fachwissen die Position und Speicherung der Elemente und Modelle höchst unterschiedlich sein.
  • Es sollte festgehalten werden, dass, während die vorliegende Erfindung mit Bezug auf ein Maschinenvisionssystem 200 beschrieben wird, die Grundsätze der vorliegenden Erfindung bei einer Anzahl von verschiedenen Ausführungsformen eingesetzt werden kann. So sollte der Begriff Maschinenvisionssystem alternative Systeme einschließen. Allgemeiner gesagt, können die Grundprinzipien der vorliegenden Erfindung bei jedem System, das Teilmuster in Bildern erfasst, umgesetzt werden. Eine Ausführungsform kann beispielsweise ein herkömmliches Maschinenvisionssystem betreffen, das eine eigenständige Kamera umfasst, die aktiv mit einem eigenständigem Computer verbunden ist, der so programmiert ist, dass es Bilder usw. verarbeitet. Allerdings können die Grundsätze der vorliegenden Erfindung bei anderen Vorrichtungen und/oder Systemen eingesetzt werden, die Teilmuster in Bildern erfassen. Beispielsweise, ein Visionssensor, wie etwa das Produkt Checker, das von Cognex Corporation bezogen werden kann, oder eine andere Vorrichtung, die Beleuchtungsquellen, Bilderfassungsmöglichkeiten und/oder - Verarbeitungsmöglichkeiten umfasst. Solche Visionssensoren können über getrennte Module, wie etwa ein Cognex Vision View, trainiert und/oder konfiguriert werden. Bei solchen Ausführungsformen kann der Benutzer den Visionssensor mithilfe einer Vielzahl von Teilen anstatt mit einem einzigen Teil trainieren. Der Benutzer kann ein erstes Teil wählen, dieses vor dem Sensor platzieren und dem System mitteilen, dass das Trainingsteil in Position ist. Ein zweites (drittes usw.) Teil kann ähnlich trainiert werden. Der Benutzer kann den Trainingsschritt mithilfe beispielsweise eines grafischen Benutzerinterface (GUI) und/oder Knöpfen oder anderen Kontrolloberflächen, die am Trainingsmodul und/oder am Visionssensor selber angeordnet sind, kontrollieren. Weiterhin kann die Funktion der vorliegenden Erfindung in Handgeräte, drahtlose, kompatible Geräte usw. eingebaut werden. Der Begriff Maschinenvisionssystem sollte also breit ausgelegt werden, damit er all diese Systeme und Geräte umfasst, die ein oder mehrere der Lehren der vorliegenden Erfindung einsetzen können.
  • Trainieren eines einzelnen Modell zur Mustererkennung und -Erfassung
  • Gemäß der Ausführungsbeispiele wird ein Modell zur Mustererkennung und -Erfassung aus vielen Bildern trainiert. Es wird zum Beispiel auf die US Patentanmeldung Nr. 8.315.457 verwiesen, deren Veröffentlichung hier unter Bezugnahme als nützliche Hintergrundinformation für eine genauere Beschreibung des Trainierens eines einzelnen Modells zur Mustererkennung und - erfassung eingeschlossen ist. Zusammengesetzte Modelle können verwendet werden, entweder um Stabilität über Standardmustermodelle zu verbessern oder um kleine Unterschiede im Aussehen eines Zielbereiches abzubilden. Ein hier umgesetztes Trainingselement trainiert einen Satz von Modellen zur Mustererkennung und -erfassung, der das gesamte Spektrum an Aussehen eines Zielbereiches in einem Satz von Trainingsbildern überspannt. Der Modellsatz kann ein einzelnes Modell zur Mustererkennung und -Erfassung oder eine Ansammlung von Modellen sein, die hier „Mehrfachmodell“ des Musters genannt wird. Das Mehrfachmodellelement ist für den Einsatz bei der Abbildung von Zielen vorgesehen, deren Aussehen sehr unterschiedlich ist. Das Mehrfachmodell kann in verschiedenen Modi laufen, um das vorbekannte Wissen über den möglichen Ablauf des Aussehens des Modells auszunutzen.
  • Der hier benutzte Begriff „Trainingselement“ (oder Trainingsmodul) bezieht sich auf die nicht transitorische Ausführung der Schritte, die beim Erzeugen eines Trainingsmodells durchgeführt werden. Das Trainingselement ist Teil eines nicht transitorischen Computerprogramms, das ein (oder mehrere) Programm(e) oder Funktionen enthält, die sich der Ausführung einer bestimmten Aufgabe widmen. Jedes hier beschriebene und gezeigte Element (oder Modul) kann allein oder in Kombination mit anderen Modulen innerhalb des Maschinenvisionssystem eingesetzt werden. Das Trainingselement schafft das Trainingsmodell durch Trainieren eines Modellsatzes, der das ganze Spektrum von Trainingsbildern überspannt, die in der Datenbasis enthalten sind. Zusätzlich bezieht sich der hier benutzte Begriff „Modell zur Mustererkennung und -Erfassung“ oder „Mustermodell“ allgemein auf Mustermodelle, die in der Patentschrift '457 veröffentlicht sind, wenn nichts anderes vermerkt ist.
  • 3 zeigt ein Flussdiagramm des Verfahrens 300, das von einem Trainingselement ausgeführt wird, um gemäß der Ausführungsbeispiele ein einzelnes Modell zur Mustererkennung und - Erfassung zu trainieren. In Schritt 310 ist der Initialschritt zum Algorithmus (der vom Benutzer oder vom Computer geliefert wird) ein Initialtrainingsbild und ein Bereich, der das zu trainierende Muster (ein „interessierender Bereich“) bestimmt, der ebenfalls vom Benutzer oder vom Computer geliefert wird. Das Verfahren 300 nimmt diese Eingabe and trainiert in Schritt 320 ein erstes (Initial-) Modell (P0) zur Mustererkennung und -Erfassung („PatMax“) mithilfe von Trainingsparametern in 325. In Schritt 330 durchläuft das System als Nächstes den Bildersatz (zumindest einen Teil oder einen Teilsatz der verbleibenden Trainingsbilder), wobei das Mustermodell P0 mit dem Bildersatz läuft, der vom Benutzer oder einem Computer geliefert wird und vorher in einer Datenbasis gespeichert war. Das System kann das Modell nach dem ganzen verbleibenden Trainingsbildersatz oder einem Teil des verbleibenden Bildersatzes durchsuchen und speichert die Ergebnistreffer, Positionen und passende Bereichsdaten. In Schritt 340 werden die Ergebnisse nach Treffern sortiert (und falls eine „Ground Truth“ erhalten wird, nach der Genauigkeit). Die „Ground Truth“ kann vom Benutzer geliefert oder vom Computer erzeugt werden. In Schritt 350 gibt das Verfahren das Topbild (Nc-1) ein (wobei Nc ein Parameter ist, der die Anzahl der Bilder bestimmt, die in das zusammengesetzte Modelltraining eingegeben werden) und trainiert in Schritt 360 ein zusammengesetztes Modell mithilfe der Positions- und Bereichsinformationen aus den Ergebnissen, die vorher im Durchlauf von P0 erzeugt wurden.
  • Wie in der US-Patentschrift Nummer 8.315.457 genauer beschrieben wird, wird Mehrfachbildertraining zur Mustererkennung und -Erfassung durchgeführt. Ein Maschinenvisionssystem erhält eine Vielzahl von („N“) Trainingsbildern. Ein Bild wird ausgewählt und die anderen (N-1) Bilder werden dann im Wesentlichen zu dem ausgewähltem Bild erfasst. Die Auswahl und Erfassung wird wiederholt, so dass jedes der N Bilder als das Grundlinienbild verwendet wird. Durch Wiederholung baut das Verfahren für jedes der N Bilder als Grundlinienbild eine Datenbasis von entsprochenen Merkmalen auf, die zum Aufbau eines Modells von Merkmalen genutzt werden kann, die unter den Bildern stabil sind. Dann werden Merkmale, die einen Satz von korrespondierenden Bildmerkmalen darstellen, zum Modell hinzugezählt. Um eine Datenbasis von entsprochenen Merkmalen aufzubauen, kann jedes der Merkmale mithilfe eines Grenzprüfungstools oder anderer herkömmlicher Techniken, entsprochen werden, um den Konturen im Maschinenvisionssystemen zu entsprechen. Beispielsweise sind die Merkmale, die für das Modell ausgewählt wurden, diejenigen, die die maximale Distanz unter den entsprechenden Merkmalen in jedem der Bilder, in denen das Merkmal erscheint, minimiert. Das Merkmal, das zum Modell hinzugefügt werden soll, kann einen Durchschnitt der Merkmale aus jedem der Bilder umfassen, in denen das Merkmal erscheint. Der Prozess geht weiter, bis jedes Merkmal, das eine Schwellenerfordernis erfüllt, erklärt ist. Das aus diesem Prozess folgende Modell stellt die stabilen Merkmale dar, die zumindest in der Schwellennummer der N Trainingsbilder gefunden wird. Dieses Verfahren (beschrieben in der Patentschrift '457) identifiziert die Merkmale, die genügend durch den Beweis der Trainingsbilder, dass sie stabile Merkmale sind, unterstützt werden. Das Modell kann dann verwendet werden, um eine Ausrichtung, Suche oder Prüfungstool mit dem Satz von Merkmalen zu trainieren.
  • Mit Bezug auf 3 kann der Benutzer zusätzliche Modelltrainingsparameter 355 liefern, die bestimmen, welcher Teil der Nc Trainingsbilder ein spezielles Merkmal enthalten muss, damit es in das Ausgabemodell einfließt. Der Teil kann beispielsweise ein Prozentsatz sein, wie etwa 80% bis 90%, doch innerhalb des Durchschnittswissens und abhängig von der speziellen Anwendung, ist dies höchst variabel. Der Benutzer kann auch eine Näherungsschwelle für Merkmalen aus unterschiedlichen Trainingsbildern, die als Treffer angesehen werden, bestimmen.
  • Trainieren eines Mehrfachmodells zur Mustererkennung und -Erfassung
  • 4 zeigt ein Flussdiagramm eines Verfahrens 400 zum Trainieren eines Mehrfachmodells zur Mustererkennung und -Erfassung und misst gemäß der Ausführungsbeispiele Leistung eines gerade trainierten Ausgabemodells. In Schritt 410 sind die Initialeingaben für das Verfahren (im Allgemeinen von einem Benutzer, können aber auch von einem Computer geliefert werden): ein Trainingsbild (I0), ein Bereich R0, der das Ausmaß eines Musters innerhalb des Bildes I0 bestimmt, der Anfang des Musters (O0) innerhalb des Trainingsbildes I0 und ein Satz von Trainingsbildern {I1, I2, ...IN}, der das Spektrum des Aussehens des interessierenden Musters zeigt.
  • Das Verfahren verwendet diese Eingaben in Schritt 420, um ein erstes zusammengesetztes „PatMax“-Mustermodell (PCMOUT0) mithilfe des oben beschriebenen Verfahrens zum Trainieren eines einzelnen Modells zur Mustererkennung und -Erfassung, das in 3 gezeigt ist, gemäß den Parametern 422 des zusammengesetzten Modells zu trainieren. Die Trainingsparameter 424 werden beim Training des Ausgabemodells (TPOUT) verwendet und sind restriktiv genug, um sicher zu stellen, dass das trainierte Modell keine hohe Trefferquote von falschen Suchergebnissen bei der Suche innerhalb des vollen Satzes von Trainingsbildern erzeugt. Wenn der Mehrfachmodellrahmen der Mustererkennung und -Erfassung eingesetzt wird, dann wird PCMOUT 0 zum Ausgabemehrfachmodell PMMOUT hinzugezählt. Wird der Mehrfachmodellrahmen nicht verwendet, dann wird er als das erste Modell zur Mustererkennung und -Erfassung des Ausgabesatzes gespeichert (aus Gründen der Anschaulichkeit wird dies auch PMMOUT genannt).
  • In Schritt 430 verwendet das Verfahren als Nächstes die gleichen Eingaben (aus 410), um ein unterschiedliches (zweites) Modell PCMCAND0 zur Mustererkennung und -Erfassung mithilfe des vorher beschriebenen Algorithmus, der in 3 gezeigt wurde, für ein einzelnes Modell zur Mustererkennung und -Erfassung zu trainieren. Die Mustertrainingsparameter TPCAND 434, die bei diesem Verfahren eingesetzt werden, sind auch diejenigen zum Trainieren eines Modells, das ausschließlich dazu benutzt wird, Kandidaten zum Trainieren weiterer zusammengesetzter Ausgabemodelle zu finden. Diese Trainingsparameter 434 sollten lockerer sein als diejenigen, die zur Erzeugung des Ausgabemodells eingesetzt werden. Die herrschende Voraussetzung ist, dass PCMCAND0 in der Lage ist, ein vielfältigeres Spektrum von Trainingskandidaten vorzuschlagen als es mithilfe des restriktiver trainierten PCMOUT möglich wäre, doch alle falschen Suchergebnisse können vom Benutzer oder automatisch aufgrund von bekannten „Ground Truths“ zurückgewiesen werden. Beim Ausgabemodell kann PCMCAND0 entweder zu einem Mehrfachmodell PMMCAND zur Mustererkennung oder zu einem anderen Typen der Modellansammlung hinzugefügt werden oder in diesem gespeichert werden.
  • Leistungsmessung
  • Bei Schritt 440 muss das System vor dem Beginn des Verfahrens zur Suche von Musterkandidaten und des Trainierens derjenigen, die als „Beste“ (höchste Trefferquote oder am passendsten) angesehen werden, zuerst die Leistung des gerade trainierten Ausgabemodells, d.h. PMMOUT messen. Um die Leistung zu messen, lässt das Verfahren das Modell über den ganzen Testsatz der Bilder laufen und berechnet eine kombinierte Trefferquote, die auf 0 initialisiert wird. Wenn PMMOUT das Muster in einem Bild mit einer Trefferquote (der Trefferquotenbereich liegt zwischen 0 und 1) größer als die vom Benutzer definierte Vertrauensschwelle findet, dann wird dieser Treffer zum kombinierten Ergebnis hinzugefügt. Wenn allerdings PMMOUT das Muster nicht in einem Bild mit einer Trefferquote größer als die vom Benutzer definierte Vertrauensschwelle findet, wird 1 vom kombinierten Ergebnis abgezogen. Andere, ähnliche Ergebnisfunktionen können von Benutzern mit durchschnittlichem Wissen umgesetzt werden und können eine Messung der Ausrichtungsgenauigkeit einschließen, falls „Ground Truth“-Daten vorliegen.
  • Nach der Durchführung der Messung können die verbliebenen Schritte des Verfahrens immer wieder wiederholt werden, und werden so mit der Variablen ,t' bezeichnet. Die 5 und 6 zeigen Flussdiagramme von Verfahren zum Vorschlagen von Kandidatenmodellen gemäß der Ausführungsbeispiele. In 5 hat das Verfahren 500 die Aufgabe, Kandidaten zur Addition zur Ansammlung der Ausgabemodelle PMMOUT(t) vorzuschlagen und einzureihen. In 510 schließen die Eingaben zur Wiederholung (t) Kandidaten und Mehrfachausgabemodelle PMMCAND(t), PMMOUT(t) ein, wobei PMM CAND ( t ) enth a ¨ lt { PCM CAND ( 0 ) , PCM CAND ( 1 ) , , PCM CAND ( t ) }
    Figure DE102014108924B4_0001
    und PMM OUT ( t ) enth a ¨ lt { PCM OUT ( 0 ) , PCM OUT ( 1 ) , , PCM OUT ( t ) }
    Figure DE102014108924B4_0002
  • Im Verfahrensschritt 520 schlägt das Mehrfachkandidatenmodell PMMCAND Kandidaten zur Addition zur Ausgabemodellansammlung PMMOUT(t) vor und reiht sie ein. Um das zu erreichen, lässt man das Mehrfachkandidatenmustermodell PMMCAND(t) auf jedem Trainingsbild Ii laufen. Kommt ein annehmbares Ergebnis zurück (das heißt, eine Stelle ist gefunden, wo das Modell eine höhere Trefferquote erzielt als eine vom Benutzer bestimmte Akzeptanzschwelle), dann werden in Schritt 520 der passende Bereich Ri und Ursprung Oi verwendet, um ein zusammengesetztes Kandidatenmustermodell PCMOUT (i) zu trainieren (wie oben beschrieben unter Beachtung des Trainings eines einzelnen Modells für PMMOUT(t)). Daher wird das zusammengesetzte Kandidatenmodell aus dem Kandidatenbereich Ri vom Bild Ii un den entsprechenden Bereichen der am besten passenden Nc-1 Bilder dieses Kandidatenbildbereiches (Ri des Bildes Ii) trainiert.
  • In Schritt 530 läuft der Prozess durch den Satz von zusammengesetzten Kandidatenmustermodellen und fügt ihn für jeden zuerst zur Ausgabeansammlung PMMOUT(t)→PMMOUT(t), hinzu, misst dann auf gleiche Weise wie oben in Leistungsmessung beschrieben seine Leistung. Nachdem die Trefferquote für die vorgeschlagene Ausweitung zum Mehrfachausgabemodell PMMOUT(t)', erhalten wurde, wird PCMOUT (i) von PMMOUT (t), → PMMOUT(t) entfernt. In Schritt 534 werden die Kandidaten entsprechend dieser Treffer sortiert (das heißt der PCMOUT (i)).
  • Am Ende des Verfahrens 500 hat das System eine Ansammlung von zusammengesetzten Kandidatenmustermodellen in Schritt 540, die alle Trainingsbilder abdecken, bei denen PMMCAND (t) ein annehmbares Ergebnis finden könnte. Das Verfahren stuft diese Modelle entsprechend ihres Grades an Verbesserung an Abdeckung ein, den jedes an die Ansammlung von Ausgabemustermodellen (oder Mehrfachmodellen) PMMOUT(t) liefert. Werden keine Kandidaten gefunden, um die Trefferquote um mehr als eine vom Benutzer definierte Menge zu verbessern, dann kann angenommen werde, dass ein Haltekriterium erfüllt wurde.
  • 6 zeigt ein Verfahren 600 zum Vorschlagen von Kandidatenmodellen und zur Ausgabe von Mehrfachmustermodellen gemäß der Ausführungsbeispiele. In Schritt 620 schlägt das Verfahren dem Benutzer den Kandidaten mit der höchsten Trefferquote vor (beispielsweise durch Anzeigen des interessierenden Bereiches des Kandidaten innerhalb des Kandidatenbildes Ii). In Schritt 622 kann der Benutzer den Kandidaten annehmen oder zurückweisen, oder dem Computer kann gleichermaßen der Kandidat mit der höchsten Trefferquote überlassen werden und der Computer nimmt den Kandidaten aufgrund einer bekannten „Ground Truth“ an oder weist ihn zurück. Wird der Kandidat angenommen, dann kann der Benutzer in Schritt 630 die Gelegenheit bekommen, den Ursprung des neuen Modells für den Fall von leichten Ausrichtungsfehlern in der Ausgabe von PMMCAND(t) anzupassen. Wird der Kandidat in Schritt 624 zurückgewiesen, dann wird der Topkandidat PCMOUT(top) verworfen, und das System schlägt den nächsten Kandidaten in der bestellten Liste vor.
  • Wird der Kandidat angenommen, dann wird bei Schritt 640 das angenommene Kandidatenmodell PCMOUT(accepted) zur gegenwärtigen Ansammlung von Ausgabemodellen PMMOUT(t) -> PMMOUT(t+1) hinzugefügt. Die Ansammlung von Kandidatensuchmodellen (oder Mehrfachmodellen) sollte nun wünschenswerter Weise mit einem ähnlichen Modell auf den neuesten Stand gebracht werden. In Schritt 650 wird das Kandidatenmodell PCMCAND (accepted) vom Bereich Raccepted des Bilds Iaccepted mithilfe von Trainingsparametern TPCAND trainiert. PCMCAND (accepted) wird nun zu PMMCAND(t) → PMMCAND(t+1) in Schritt 660 hinzugefügt. Die Ausgaben zur Wiederholung (t) in Schritt 670 sind das Mehrfachkandidatenmodell PMMCAND(t+1) und das Mehrfachausgabemodell PMMOUT(t+1).
  • Die verschiedenen Ausführungsbeispiele sorgen für die Erzeugung eines Modells zur Mustererkennung und -Erfassung, das jedes Trainingsbild einer Vielzahl von Trainingsbildern durchläuft, um ein Modell zu liefern, das die komplette Datenbasis von Trainingsbildern überspannt (das heisst gültig ist). Das verbessert Stabilität und Effizienz des laufenden Systems.
  • Verschiedene Varianten und Zusätze können gemacht werden, ohne vom Sinn und Inhalt dieser Erfindung abzuweichen. Merkmale jeder der verschiedenen oben beschriebenen Ausführungsformen können mit Merkmalen von anderen beschriebenen Ausführungsformen kombiniert werden, die passend sind, um eine Vielzahl neuer Kombinationen von Merkmalen zusammen mit neuen Ausführungsformen zu liefern. Während weiterhin das oben Gesagte eine Anzahl von verschiedenen Ausführungsformen der Vorrichtung und des Verfahrens der vorliegenden Erfindung beschreibt, ist das, was hier beschrieben wurde, nur ein Beispiel der Anwendung der Grundlagen der vorliegenden Erfindung. Die Begriffe „Verfahren“ und/oder „Pozessor“, wie sie beispielsweise hier benutzt werden, sollten weit gefasst werden, um eine Bandbreite von Funktionen, die auf elektronischer Hardware und/oder Software beruhen, zu umfassen. Auch verschiedene Begriffe von Richtung und Orientierung, die hier benutzt wurden, wie etwa „senkrecht“, „waagerecht“, „auf, „unter“, „unten“, „oben“, Seite“, „vorne“, „hinten“, „links“, „rechts“ und dergleichen, werden nur als relative Übereinkunft und nicht als absolute Orientierung mit Bezug auf ein festes Koordinatensystem, wie etwa Schwerkraft, verwendet. Darüber hinaus kann ein dargestelltes Verfahren oder ein Prozessor mit anderen Verfahren und/oder Prozessoren kombiniert werden oder in verschiedene Hilfsverfahren oder -Prozessoren unterteilt werden. Solche Hilfsverfahren und/oder -Prozessoren können gemäß der Ausführungsbeispiele hier auf verschiedene Weise kombiniert werden. Ebenso wird ausdrücklich in Betracht gezogen, dass alle Funktionen, Verfahren und /oder Prozessoren hier mithilfe elektronischer Hardware, Software, die aus einem nicht transitorischen, computerlesbarem Medium von Programmanweisungen oder einer Kombination von Hardware und Software besteht, umgesetzt werden können. Darüber hinaus wird in Betracht gezogen, dass einige oder alle Verarbeitungsaufgaben des Visionssystems entweder im Hauptmodul oder in einem eigenen Prozessor (z. B. einem Server oder PC), der durch das Schnittstellenmodul wirksam mit dem Hauptmodul über eine drahtlose oder eine Drahtkommunikationsverbindung (Netzwerk) verbunden ist, ausgeführt werden können.

Claims (26)

  1. Ein Verfahren zum Trainieren eines Modells zum Erkennen und Erfassen eines Musters in einem Maschinensichtsystem, wobei das Verfahren die folgenden Schritte umfasst: - Bereitstellung eines oder mehrerer Initialtrainingsbilder mit einem Bereich, der ein Muster, das trainiert werden soll, bestimmt, wobei das eine oder die mehreren Trainingsbilder von einer Datenbank geliefert werden, die eine Vielzahl von Trainingsbildern enthält; - Trainieren eines ersten Mustermodells aus dem einen oder mehreren Initialtrainingsbildern; - Iterieren über die verbliebenen Bilder und Auswahl der hoch bewerteten Bilder als Eingabe zum Modelltraining; und - Ausgabe eines trainierten Mustermodells, das Merkmale einschließt, die eine vorher bestimmte Anzahl der Vielzahl von Trainingsbildern gemeinsam haben, wobei das trainierte Mustermodell sich vom ersten Mustermodell unterscheidet.
  2. Das Verfahren gemäß Anspruch 1, wobei der Schritt des Iterierens das Ausführen des ersten Mustermodells einschließt, um jedes Bild zu bewerten.
  3. Das Verfahren gemäß Anspruch 1, wobei das erste Mustermodell mithilfe eines ersten Satzes von Trainingsparametern und ein zweites Mustermodell mithilfe eines zweiten Satzes von Trainingsparametern trainiert wird.
  4. Das Verfahren gemäß Anspruch 1, wobei die Metrik, die verwendet wird, um Bilder zu bewerten, daraus besteht, eine kombinierte Bewertung, welche auf Null initialisiert wird, zu berechnen, und wenn das erste Mustermodell bestimmt, dass das Muster ein Bild mit einer Bewertung ist, die größer als eine benutzerdefinierte Vertrauensschwelle ist, dann wird diese Bewertung zur kombinierten Bewertung hinzugerechnet, und wenn das erste Kandidatenmustermodell das Muster nicht in einem Bild mit einer Bewertung findet, die größer als eine benutzerdefinierte Vertrauensschwelle ist, dann wird 1 von der kombinierten Bewertung abgezogen.
  5. Das Verfahren gemäß Anspruch 1, wobei jedes Merkmal im trainierten Ausgabemuster in annähernd 80% - 90% der Trainingsbilder erscheint.
  6. Das Verfahren gemäß Anspruch 1, wobei der Bereich, der das Muster, das trainiert werden soll, bestimmt, für jedes Bild durch eine vorherbestimmte „Ground Truth“ gegeben ist.
  7. Das Verfahren gemäß Anspruch 6, wobei die vorherbestimmte „Ground Truth“ für jedes Bild über das Ausführen des ersten Mustermodells gefunden wird.
  8. Das Verfahren gemäß Anspruch 1, weiter umfassend den Schritt des Trainierens eines zweiten Kandidatenmustermodells mit einem zweiten Satz Mustertrainingsparameter, und des Iterierens des zweiten Kandidatenmustermodells über die verbleibenden Trainingsbilder, die in der Datenbank enthalten sind, und das Bewerten von Bewertungen, Stellungen und Übereinstimmungsbereichsdaten für das zweite Kandidatenmustermodell.
  9. Das Verfahren gemäß Anspruch 1, wobei der Schritt des Trainierens des ersten Mustermodells weiter das Bewerten von Bewertungen, Stellungen und Übereinstimmungsbereichsdaten umfasst.
  10. Das Verfahren gemäß Anspruch 1, wobei das erste Kandidatenmustermodell ein zusammengesetztes Modell umfasst.
  11. Das Verfahren gemäß Anspruch 1, wobei das eine oder die mehreren Trainingsbilder, die von der Datenbank zur Verfügung gestellt werden, von einem Computer ausgewählt werden.
  12. Das Verfahren gemäß Anspruch 1, wobei das trainierte Mustermodell eingesetzt wird, um eine Ausrichtung, ein Such- oder Sichtprüfungsprogramm während des laufenden Betriebes des Maschinensichtsystems auszuführen.
  13. Das Verfahren gemäß Anspruch 1, wobei ein Musterursprung als Eingabe zum Training des ersten Mustermodells, zusätzlich zum Trainingsbild und -Bereich, bestimmt wird.
  14. Ein Verfahren zum Trainieren eines Mehrfachmodells zum Erkennen und Erfassen von Mustern, wobei das Verfahren die Schritte umfasst: - Lieferung mindestens eines Anfangstrainingsbildes mit einem Bereich, der ein Muster, das trainiert werden soll, bestimmt, wobei das mindestens eine Bild von einer Datenbank geliefert wird, die eine Vielzahl von Trainingsbildern enthält; - Trainieren eines ersten Mustermodells aus dem Initialtrainingbild und -Bereich und dessen Addition zum ausgegebenen Mehrfachmodell; - Iterieren über die verbliebenen Traingsbilder, so dass für jedes Bild (i) ein zusätzliches Mustermodell trainiert werden kann, (ii) eine Metrik für die Kombination des ersten und zusätzlichen Modells über die verbliebenen Trainingsbilder in der Datenbank bewertet werden kann; - Addition des hoch bewerteten zusätzlichen Mustermodells oder der -Modelle zum ausgegebenen Mehrfachmodell.
  15. Das Verfahren gemäß Anspruch 14, wobei das Trainieren des ersten Mustermodells entsprechend einem ersten Satz von Trainingsparametern für Mustererkennung und -Erfassung ausgeführt wird, und das Trainieren des zweiten Mustermodells gemäß eines zweiten Satzes von Trainingsparametern zur Mustererkennung und -Erfassung ausgeführt wird.
  16. Das Verfahren gemäß Anspruch 14, wobei das erste und/oder zweite Mustermodell ein zusammengesetztes Modell umfasst.
  17. Das Verfahren gemäß Anspruch 14, wobei das zweite Mustermodell durch Lockerung der Freiheitsgrade trainiert wird, wenn Kandidatenbereiche mithilfe des ersten Modells, das trainiert werden soll, erzeugt werden, und dann Verschärfung der Freiheitsgrade, wenn das zweite Mustermodell ausgeführt wird, um festzustellen, ob sich eine Metrik verbessert.
  18. Das Verfahren gemäß Anspruch 17, wobei die Metrik die Bewertung oder die Anzahl an Merkmalsinstanzen umfasst.
  19. Das Verfahren gemäß Anspruch 17, wobei ein zweites Mustermodell aus dem Initialtrainingsbild und dem bestimmten Bereich trainiert wird, aber mit unterschiedlichen Trainingsparametern, so dass das zweite Mustermodell mit höherer Wahrscheinlichkeit verzerrte, verrauschte oder auf irgendeine Weise veränderte Instanzen des Originalmusters findet; Vorschlagen von Kandidatenbereichen mithilfe des zweiten Mustermodells zum Einsatz beim Trainieren zusätzlicher Mustermodelle.
  20. Das Verfahren gemäß Anspruch 14, wobei ein Musterursprung eine zusätzliche Eingabe zum Mustermodelltraining ist.
  21. Das Verfahren gemäß Anspruch 14, wobei das zusätzliche hoch bewertete Mustermodell zuerst einem Benutzer vorgestellt wird, damit er vor einer möglichen Hinzufügung zum ausgegebenen Mehrfachmodell annimmt, ablehnt oder überarbeitet.
  22. Das Verfahren gemäß Anspruch 14, wobei der Benutzer den zusätzlichen Musterursprung ändern kann, bevor er zum ausgegebenen Mehrfachmodell hinzugefügt wird.
  23. Das Verfahren gemäß Anspruch 14 oder 17, wobei der Trainingsprozess für das zusätzliche Mustermodell iterativ wiederholt wird, so dass sich das Mehrfachmodell ausweiten kann, damit es mehr als 2 Mustermodelle enthält.
  24. Das Verfahren gemäß Anspruch 23, wobei eine Stoppbedingung angewendet wird; wobei die Stoppbedingung von der relativen Verbesserung der Metrik abgeleitet ist.
  25. Das Verfahren gemäß Anspruch 14, wobei jedoch eingegebene „Ground Truths“ für jedes der Vielzahl von Bildern in der Datenbank der Trainingsbilder verwendet werden können, um die Positionen der Kandidatenmodelle für den Zusatz zum Mehrfachmodell anzunehmen oder zurückzuweisen und/oder zu korrigieren.
  26. Ein System zur Erzeugung von Modellen zur Erkennung und Erfassung von Mustern, wobei das System umfasst: - Eine Datenbank, die eine Vielzahl von Traingsbildern enthält, wobei mindestens ein Bild einen Bereich aufweist, der ein Muster, das trainiert werden soll, bestimmt; - Ein Traingselement, das ein Modell zur Initialmustererkennung und -Erfassung dadurch trainiert, dass es das Modell zur anfänglichen Mustererkennung und - Erfassung über die Mehrzahl von Traingsbildern iteriert und Bewertungen, Stellungen und Übereinstimmungsbereichsdaten bewertet, um ein trainiertes Modell zu liefern; und - ein Element zur Leistungsmessung, das die Leistung des trainierten Modells über der Vielzahl von Trainingsbildern misst.
DE102014108924.3A 2013-06-28 2014-06-25 Ein halbüberwachtes Verfahren zum Trainiern eines Hilfsmodells zur Erkennung und Erfassung von Mehrfachmustern Active DE102014108924B4 (de)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201361841142P 2013-06-28 2013-06-28
US61/841,142 2013-06-28
US13/955,120 US9679224B2 (en) 2013-06-28 2013-07-31 Semi-supervised method for training multiple pattern recognition and registration tool models
US13/955,120 2013-07-31

Publications (2)

Publication Number Publication Date
DE102014108924A1 DE102014108924A1 (de) 2015-01-15
DE102014108924B4 true DE102014108924B4 (de) 2022-07-21

Family

ID=52107466

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102014108924.3A Active DE102014108924B4 (de) 2013-06-28 2014-06-25 Ein halbüberwachtes Verfahren zum Trainiern eines Hilfsmodells zur Erkennung und Erfassung von Mehrfachmustern

Country Status (1)

Country Link
DE (1) DE102014108924B4 (de)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110895691B (zh) * 2018-09-12 2023-06-23 阿里巴巴集团控股有限公司 图像处理方法、装置及电子设备
CN109977815B (zh) * 2019-03-13 2024-07-12 上海商汤智能科技有限公司 图像质量评价方法及装置、电子设备、存储介质
CN113706475B (zh) * 2021-08-06 2023-07-21 福建自贸试验区厦门片区Manteia数据科技有限公司 基于图像分割的置信度分析方法及装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8144976B1 (en) 2010-12-06 2012-03-27 Seiko Epson Corporation Cascaded face model
US8315457B2 (en) 2007-12-21 2012-11-20 Cognex Corporation System and method for performing multi-image training for pattern recognition and registration
US8457390B1 (en) 2008-10-10 2013-06-04 Cognex Corporation Method and apparatus for training a probe model based machine vision system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8315457B2 (en) 2007-12-21 2012-11-20 Cognex Corporation System and method for performing multi-image training for pattern recognition and registration
US8457390B1 (en) 2008-10-10 2013-06-04 Cognex Corporation Method and apparatus for training a probe model based machine vision system
US8144976B1 (en) 2010-12-06 2012-03-27 Seiko Epson Corporation Cascaded face model

Also Published As

Publication number Publication date
DE102014108924A1 (de) 2015-01-15

Similar Documents

Publication Publication Date Title
DE102015207676B4 (de) Verfahren und Vorrichtung zur Hinderniserkennung auf Basis einer monokularen Kamera
DE102011106050B4 (de) Schattenentfernung in einem durch eine fahrzeugbasierte Kamera erfassten Bild zur Detektion eines freien Pfads
DE102017010210A1 (de) Bild-Matting mittels tiefem Lernen
EP3103060A1 (de) 2d-bildanalysator
DE102016013274A1 (de) Bildverarbeitungsvorrichtung und verfahren zur erkennung eines bilds eines zu erkennenden objekts aus eingabedaten
DE112016004266T5 (de) Verfahren zur Gesichtsausrichtung
DE102016206010B4 (de) Systeme und Verfahren zur Klassifizierung und Angleichung von hochgradig ähnlichen oder selbstähnlichen Mustern
DE102015210442A1 (de) Inspektionsvorrichtung, Inspektionsverfahren und Programm
DE102019100575A1 (de) Verfahren und system zum erzeugen eines bereichsbildes unter verwendung von daten mit geringer tiefe
DE29521937U1 (de) Prüfsystem für bewegtes Material
DE102018102688A1 (de) Bildverarbeitungsvorrichtung, Bildverarbeitungsprogramm und Bildverarbeitungssystem
DE112013004103T5 (de) Verfahren und Vorrichtung zum Erzeugen einer Disparitätskarte
DE112019002848T5 (de) System und verfahren zum auffinden und klassifizieren von mustern in einem bild mit einem bildverarbeitungssystem
EP3528609A1 (de) Ertragsvorhersage für ein kornfeld
DE112019007762T5 (de) Verfahren zum Trainieren eines generativen kontradiktorischen Netzes, modifiziertes Bildgenerierungsmodul und System zum Detektieren von Merkmalen in einem Bild
DE102019104310A1 (de) System und Verfahren zur simultanen Betrachtung von Kanten und normalen bei Bildmerkmalen durch ein Sichtsystem
DE102014108924B4 (de) Ein halbüberwachtes Verfahren zum Trainiern eines Hilfsmodells zur Erkennung und Erfassung von Mehrfachmustern
EP2972073A1 (de) Vorrichtung zur volumetrischen vermessung eines schlachttierkörperobjekts
DE202014010866U1 (de) Spekularitätsbestimmung von Bildern
DE112018001600T5 (de) System und verfahren zur 3d-profilbestimmung unter verwendung einer modellbasierten peak-auswahl
EP2997543B1 (de) Vorrichtung und verfahren zum parametrisieren einer pflanze
DE102012200930A1 (de) Vorrichtung und Verfahren zum Erfassen einer Pflanze vor einem Hintergrund
DE102017009118A1 (de) Bildabgleich für serienbilder
DE102021109386B4 (de) Verfahren zur Korrektur von Tiefenbildern einer Lichtlaufzeitkamera
WO2019183659A1 (de) Inhaltsbasierte bildersuche

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R016 Response to examination communication
R082 Change of representative

Representative=s name: PATENTANWAELTE OLBRICHT, BUCHHOLD, KEULERTZ PA, DE

R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06K0009660000

Ipc: G06V0030194000

R018 Grant decision by examination section/examining division
R082 Change of representative

Representative=s name: PATENTANWAELTE OLBRICHT, BUCHHOLD, KEULERTZ PA, DE

R020 Patent grant now final