DE112021002453T5 - Iteratives trainieren eines modells für maschinelles lernen - Google Patents

Iteratives trainieren eines modells für maschinelles lernen Download PDF

Info

Publication number
DE112021002453T5
DE112021002453T5 DE112021002453.1T DE112021002453T DE112021002453T5 DE 112021002453 T5 DE112021002453 T5 DE 112021002453T5 DE 112021002453 T DE112021002453 T DE 112021002453T DE 112021002453 T5 DE112021002453 T5 DE 112021002453T5
Authority
DE
Germany
Prior art keywords
training data
data sample
new training
computer
program instructions
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112021002453.1T
Other languages
English (en)
Inventor
Alexander VELIZHEV
Martin Rufli
Ralf Kaestner
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
International Business Machines Corp
Original Assignee
International Business Machines Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by International Business Machines Corp filed Critical International Business Machines Corp
Publication of DE112021002453T5 publication Critical patent/DE112021002453T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • G06N5/045Explanation of inference; Explainable artificial intelligence [XAI]; Interpretable artificial intelligence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

Es werden ein durch einen Computer implementiertes Verfahren, ein Computerprogramprodukt und ein Computersystem bereitgestellt. Das Verfahren weist ein Trainieren eines Modells für maschinelles Lernen unter Verwenden eines anfänglichen Satzes von Trainingsdatenproben, ein Empfangen einer neuen Trainingsdatenprobe und ein Vorhersagen eines Label für die neue Trainingsdatenprobe auf. Außerdem weist das Verfahren auf ein Feststellen hin, dass ein Vorhersagequalitätswert für das vorhergesagte Label der neuen Trainingsdatenprobe unter einem vordefinierten Qualitätswert liegt, ein Hinzufügen der neuen Trainingsdatenprobe zum anfänglichen Satz auf, wodurch ein erweiterter Trainingsdatensatz gebildet wird. Das Verfahren weist außerdem ein erneutes Trainieren des Modells für maschinelles Lernen unter Verwenden des erweiterten Trainingsdatensatzes auf.

Description

  • HINTERGRUND
  • Die vorliegende Erfindung betrifft allgemein das Gebiet von maschinellem Lernen und insbesondere das iterative Trainieren eines Modells für maschinelles Lernen.
  • Künstliche Intelligenz (KI) und das Teilgebiet des maschinellen Lernens (ML) sind wachsende Bereiche in der Wissenschaft wie auch in der Datenverarbeitung von Unternehmen. Es werden ständig neue Algorithmen entwickelt, um bessere Vorhersagen durch Systeme für maschinelles Lernen zu erreichen und/oder das Trainieren der zugrundeliegenden Modelle für maschinelles Lernen zu verbessern.
  • Herkömmliche Verfahren für maschinelles Lernen beruhen üblicherweise auf Algorithmen des maschinellen Lernens unter Verwenden eines festen Satzes von Trainingsdaten zusammen mit entsprechenden Kommentaren, um ein allgemeines Modell zu erstellen, das in der Lage ist, Kommentare von bisher ungesehenen neuen Datenproben vorherzusagen.
  • Beispielsweise wird ein Modell für tiefes Lernen (deep learning model) zur Bildklassifizierung mit einem bekannten Satz von Eingabebildern und zugehörigen Bildklassen-Labels trainiert. Später wird dieses Modell sowohl während einer Testphase als auch während einer Produktionsphase verwendet, um Bildklassen-Labels für neue, zuvor ungesehene Bilder vorherzusagen. Selbstverständlich können anstelle von Bildern auch andere Datentypen als Eingabe für Systeme für maschinelles Lernen verwendet werden.
  • Eingabedatenproben können von Datengeneratoren erzeugt werden. Dazu können reale Sensoren (real-world sensors), z.B. Foto- und/oder Videokameras, Mikrofone oder andere Sensoren, Menschen, z.B. Textschreiber, oder Datensimulatoren gehören. Zu Datengeneratoren können auch künstliche Systeme gehören, die darauf abzielen, bestimmte vordefinierte Typen von Datenproben zu erzeugen. Üblicherweise arbeitet ein herkömmliches Datenerkennungsverfahren mit einer festen eindeutigen Anzahl von Trainingsdatenproben, die einen Trainingssatz von Datenproben bilden.
  • Die US-Patentschrift 2014/0 058 983 A1 stellt einen Mechanismus zum Trainieren und Klassifizieren von Daten vor. Das Verfahren umfasst ein Empfangen eines Datensatzes mit mindestens einem ersten Kommentar und mindestens einem zweiten Kommentar. Der erste Kommentar und der zweite Kommentar stellen Merkmale innerhalb des Datensatzes dar. Das Verfahren umfasst außerdem ein Ermitteln eines ersten Bezeichners aus dem ersten Kommentar und eines zweiten Bezeichners aus dem zweiten Kommentar sowie ein Zuordnen des ersten Bezeichners zum zweiten Bezeichner, um einen gemeinsamen Bezeichner zu erzeugen.
  • Die US-Patentschrift 2016/0 078 361 A1 stellt ein Erhalten einer Angabe eines Datendienstes vor, der zum Trainieren eines linearen Vorhersagemodells verwendet werden soll. Das Modell soll Vorhersagen unter Verwenden entsprechender Parameter erzeugen, die einer Mehrzahl von Merkmalen zugehörig sind, die aus Beobachtungsdatensätzen der Datenquelle abgeleitet werden.
  • Es besteht jedoch weiterhin Bedarf an einem besseren Mechanismus für kontinuierliches Lernen, der die Verfügbarkeit von kommentierten und unkommentierten neuen Trainingsdaten berücksichtigt.
  • KURZDARSTELLUNG
  • Gemäß einem Aspekt der vorliegenden Erfindung werden ein durch einen Computer implementiertes Verfahren, ein Computerprogrammprodukt und ein Computersystem bereitgestellt. Zwar werden in den folgenden Abschnitten spezifische Merkmale des durch einen Computer implementierten Verfahrens erläutert, die erläuterten Merkmale können jedoch auch allgemein auf das Computerprogrammprodukt und das Computersystem angewendet werden. Das Verfahren kann ein Trainieren eines Modells für maschinelles Lernen unter Verwenden eines anfänglichen Satzes von Trainingsdatenproben, ein Empfangen einer neuen Trainingsdatenprobe und ein Vorhersagen eines Label für die neue Trainingsdatenprobe aufweisen. Wenn festgestellt wird, dass ein Vorhersagequalitätswert für das vorhergesagte Label der neuen Trainingsdatenprobe unter einem vordefinierten Qualitätswert liegt, kann das Verfahren auch ein Hinzufügen der neuen Trainingsdatenprobe zu dem anfänglichen Satz, wodurch ein erweiterter Trainingsdatensatz gebildet wird, und ein erneutes Trainieren des Modells für maschinelles Lernen unter Verwenden des erweiterten Trainingsdatensatzes aufweisen. Das Verfahren kann auch ein iteratives Wiederholen des Empfangens, des Vorhersagens, des Hinzufügens und des erneuten Trainierens aufweisen, bis eine Stoppbedingung erfüllt ist.
  • Das vorgeschlagene durch einen Computer implementierte Verfahren kann mehrere Vorteile, technische Auswirkungen, Beiträge und/oder Verbesserungen bieten:
  • Das Verfahren kann das Trainieren oder Vortrainieren eines Systems für maschinelles Lernen ohne eine große Anzahl von kommentierten Trainingsdatenproben ermöglichen. In einigen Fällen ist möglicherweise überhaupt kein Kommentar erforderlich. Das System kann kontinuierlich - während einer Trainingsphase - reale Daten (z.B. von Kameras) empfangen, die unkommentiert sein können, um eine Gesamtvorhersagequalität des Systems und des Verfahrens zu verbessern. Dadurch kann eine manuelle Bearbeitung der Trainingsdaten - z.B. ein manuelles Hinzufügen von Labels und/oder Kommentaren - erheblich reduziert werden. Dies kann den Trainingsprozess eines neuronalen Netzes und/oder anderer Systeme für maschinelles Lernen beschleunigen.
  • Insbesondere das Merkmal eines Auswählens neuer Trainingsdatenproben, die Vorhersagewerte von geringer Qualität zeigen, kann dazu verwendet werden, die Vorhersagequalität des gesamten Systems für maschinelles Lernen zu erhöhen. Dies kann erreicht werden, indem versucht wird, eine Klasse erneut zu bestätigen, die unter künstlich veränderten Bedingungen vorhergesagt wurde, d.h. unter Manipulationen, die an der empfangenen neuen Trainingsdatenprobe vorgenommen wurden. Auf diese Weise kann ein kombinierter Vorhersagequalitätswert (aus den verschiedenen Vorhersagezyklen für dieselbe neue Trainingsdatenprobe) erzeugt werden, um den ursprünglich niedrigen Vorhersagequalitätswert erneut zu bestätigen und zu erhöhen.
  • Das Verfahren kann vorteilhaft für Dokumente verwendet werden, die Text und Grafiken aufweisen (z.B. pdf-Dokumente oder anderweitig gescannte Dokumente im Pixel-Format), um eine bessere Interpretierbarkeit der Grafiken oder Darstellungen (z.B. Zeichnungen, Balkendiagramme, x-y-Kurven usw.) in den Dokumenten zu erreichen. Bei den Dokumenten kann es sich um wissenschaftliche Dokumente, Konstruktionsunterlagen, Wartungsunterlagen, Patentschriften und dergleichen handeln.
  • Das Verfahren kann auch vorteilhaft zum Trainieren von Modellen für maschinelles Lernen unter Verwenden eines Computergrafiksimulators (z.B. für Computerspiele) verwendet werden, um bessere Ergebnisse bei der Objekterkennung, Objektsegmentierung oder Segmentierung von Objektinstanzen zu erzielen.
  • Gemäß einer hilfreichen Ausführungsform des Verfahrens kann die Stoppbedingung erfüllt sein, wenn ein vordefinierter Wert für die Trainingszeit erreicht ist, wenn eine vordefinierte Anzahl von Trainingszyklen ausgeführt wurde, wenn eine vordefinierte Anzahl von neuen Trainingsdatenproben verarbeitet wurde oder wenn eine vordefinierte Bedingung für die Gesamtvorhersagequalität erfüllt ist. So kann der kontinuierliche oder iterative Lernprozess gestoppt oder zumindest unterbrochen werden, wenn sehr wenige Vorhersageergebnisse mit niedriger Vorhersagequalität - d.h. unterhalb eines vordefinierten Schwellenwertes - erzeugt werden. Wenn keine Stoppbedingungen definiert oder keine der oben definierten Bedingungen erfüllt sind, kann der kontinuierliche oder iterative Lernprozess unbegrenzt laufen. Dadurch kann die Vorhersagequalität kontinuierlich gesteigert werden.
  • Darüber hinaus kann die Stoppbedingung auch erfüllt sein, wenn innerhalb einer vordefinierten Zeit keine weitere neue Trainingsdatenprobe mit einem Vorhersagequalitätswert unterhalb der vordefinierten Qualität ermittelt wird. Bei der vordefinierten Zeit kann es sich z.B. um eine Stunde, einen Tag, vordefinierte Aktivitätsstunden des Tages, eine Woche oder eine andere geeignete Zeitspanne handeln.
  • Gemäß einer weiteren vorteilhaften Ausführungsform kann das Verfahren auf ein Feststellen hin, dass der Vorhersagequalitätswert für das vorhergesagte Label der neuen Trainingsdatenprobe unter dem vordefinierten Qualitätswert liegt, ein erneutes Bestätigen des vorhergesagten Label der neuen Trainingsdatenprobe durch Anwenden eines Verfahrens für selbstüberwachtes Lernen auf die neue Trainingsdatenprobe aufweisen. Dieses Verfahren für selbstüberwachtes Lernen kann ein Bearbeiten der empfangenen Datenprobe (z.B. eines Bildes) aufweisen, wie beispielsweise Drehen (um einen vordefinierten Winkel oder eine Reihe von Winkeln), Kippen (z.B. horizontal, vertikal, diagonal oder entlang einer anderen Linie) oder Puzzeln und Neuordnen. Nach einem solchen Bearbeiten kann der Vorhersageprozess wiederholt werden, und wenn dieselbe Klasse wie im ersten Fall vorhergesagt wird, wird der Kommentar erneut bestätigt. Im Allgemeinen soll die neue Datenprobe unter verschiedenen Bedingungen immer wieder dieselben Daten von geringer Qualität (oder besser) liefern. Dabei besteht ein Ziel darin, den Vertrauenswert zu verbessern, indem ein kombinierter Vorhersagequalitätswert (z.B. ein Durchschnitt oder gewichteter Durchschnitt) gebildet wird, der über eine Reihe von Bearbeitungen der Probendaten ansteigt. Es sei darauf hingewiesen, dass diese Prozedur nicht erforderlich ist, wenn kommentierte Probendaten zur Verfügung stehen.
  • Das Verfahren für selbstüberwachtes Lernen kann mindestens ein ausgewähltes aus der Gruppe aufweisen, die besteht aus: Drehen der empfangenen neuen Trainingsdatenprobe um einen vordefinierten Drehwinkel und Vorhersagen des Drehwinkels - wobei der vordefinierte Drehwinkel als Kommentar verwendet werden kann -, Kippen der empfangenen neuen Trainingsdatenprobe um einen vordefinierten Kippwinkel und Vorhersagen des Kippwinkels (auch andere mögliche Nicht-Kippwinkel), Neueinfärben der empfangenen neuen Trainingsdatenprobe und Vorhersagen einer Klasse der sich ergebenden neu eingefärbten Trainingsdaten, und/oder Puzzeln der empfangenen neuen Trainingsdatenprobe und Vorhersagen einer ursprünglichen Position einer Kachel der neuen Trainingsdatenprobe. Bei einem Neueinfärben können die Parameter eines oder mehrerer Farbkanäle blockiert oder anderweitig verändert werden (z.B. durch verringerte oder erhöhte Farbintensität).
  • Gemäß einer weiteren wahlweisen Ausführungsform kann das Verfahren außerdem aufweisen: wenn festgestellt wird, dass eine Vorhersagequalität einer empfangenen neuen Trainingsdatenprobe nicht verbessert werden kann - d.h., der kombinierte Wert der statistischen Sicherheit verbessert sich nicht mehr - wird ein Alarmereignis ausgelöst. Dies kann zum Auslösen eines überwachten Lernprozesses verwendet werden, der ein manuelles Kommentieren durch einen menschlichen Kommentator umfasst.
  • Figurenliste
  • Es sei darauf hingewiesen, dass Ausführungsformen der Erfindung unter Bezugnahme auf verschiedene Gegenstände beschrieben werden. Insbesondere werden einige Ausführungsformen unter Bezugnahme auf Ansprüche vom Verfahrenstyp beschrieben, während andere Ausführungsformen unter Bezugnahme auf Ansprüche vom Vorrichtungstyp beschrieben werden. Fachleute werden jedoch aus dem Vorstehenden und der folgenden Beschreibung entnehmen, dass, sofern nicht anders angegeben, neben jeder Kombination von zu einer Art von Gegenstand gehörenden Merkmalen auch jede Kombination zwischen verschiedene Gegenstände betreffenden Merkmalen, insbesondere zwischen Merkmalen der Ansprüche vom Verfahrenstyp und Merkmalen der Ansprüche vom Vorrichtungstyp, als in diesem Dokument offenbart betrachtet wird.
  • Die oben definierten Aspekte und weitere Aspekte der vorliegenden Erfindung gehen aus den im Folgenden zu beschreibenden Beispielen von Ausführungsformen hervor und werden unter Bezugnahme auf die Beispiele von Ausführungsformen erläutert, auf die die Erfindung jedoch nicht beschränkt ist.
  • Bevorzugte Ausführungsformen der Erfindung werden lediglich beispielhaft unter Bezugnahme auf die folgenden Zeichnungen beschrieben:
    • 1 ist ein Ablaufplan, der ein Verfahren zum Trainieren eines Modells für maschinelles Lernen gemäß einer Ausführungsform der vorliegenden Erfindung zeigt;
    • 2 ist ein Ablaufplan, der ein weiteres Verfahren zum Trainieren eines Modells für maschinelles Lernen gemäß einer Ausführungsform der vorliegenden Erfindung zeigt;
    • 3 ist eine Blockschaubildansicht eines Systems zum Trainieren eines Modells für maschinelles Lernen gemäß einer Ausführungsform der vorliegenden Erfindung; und
    • 4 ist eine Blockschaltbildansicht eines Datenverarbeitungssystems 400, das zum Ausführen eines Programmcodes im Zusammenhang mit Verfahren der vorliegenden Erfindung geeignet ist.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Im Zusammenhang mit dieser Beschreibung können die folgenden Konventionen, Begriffe und/oder Ausdrücke verwendet werden:
  • Der Begriff „und/oder“ bezeichnet ein einschließendes „oder“; beispielsweise bedeutet A, B „und/oder“ C, dass A und/oder B und/oder C wahr und zutreffend ist.
  • Der Begriff „Modell für maschinelles Lernen“ kann den Prozess des Erstellens eines Modells bezeichnen, das für maschinelles Lernen verwendet werden kann. Maschinelles Lernen sollte hier als die wissenschaftliche Untersuchung von Algorithmen und den spezifischen Modellen verstanden werden, die Computersysteme verwenden können, um eine bestimmte Aufgabe ohne Verwenden von expliziten Anweisungen, d.h. ohne prozedurales Programmieren, auszuführen. Bei maschinellem Lernen handelt es sich um eine Unterkategorie künstlicher Intelligenz. Üblicherweise wird ein Modell mit einem Satz von bekannten und gelabelten Datenproben trainiert, um z.B. unbekannte Datenproben in die trainierten Klassen zu klassifizieren oder anderweitig zu kategorisieren. Zu Beispielen für zugrundeliegende Technologien für ML-Lernmodelle gehören künstliche neuronale Netze, Random-Forest-Systeme und/oder Entscheidungsbäume. Die Systeme können für Klassifizierungs- oder Regressionsaufgaben verwendet werden. In Ausführungsformen der vorliegenden Erfindung wird der Bedarf an kommentierten Datenproben für ein Trainieren und Entwickeln des ML-Modells erheblich verringert.
  • Der Begriff „anfänglicher Satz von Trainingsdatenproben“ kann eine Anzahl von Datenproben bezeichnen, die für ein erstes Trainieren des Modells für maschinelles Lernen verwendet werden. Dieser anfängliche Satz kann kommentierte oder unkommentierte Proben aufweisen. Es sei darauf hingewiesen, dass der anfängliche Satz von Trainingsdatenproben üblicherweise kommentiert sein kann. Es gibt jedoch auch Fälle, in denen völlig unkommentierte Datensätze als anfänglicher Satz von Trainingsdatenproben verwendet werden können. In jedem Fall ist es sehr hilfreich, zumindest einen auf ein Minimum begrenzten Satz kommentierter Daten zu haben, um die zugrundeliegenden Klassen für die Vorhersage zu definieren.
  • Der Begriff „neue Trainingsdatenprobe“ kann eine Datenprobe bezeichnen, z.B. ein Bild, das zuvor nicht zum Trainieren des Modells für maschinelles Lernen verwendet wurde.
  • Der Begriff „Vorhersagen“ kann die Aktivität eines Modells für maschinelles Lernen bezeichnen. Der Vorhersagewert der vorhergesagten Klasse - insbesondere eines Teils einer vordefinierten Anzahl von Vorhersageklassen - kann für neue, bisher ungesehene Datenproben auf der Grundlage eines zugrundeliegenden trainierten Modells für maschinelles Lernen (z.B. eines Klassifizierermodells) erzeugt werden. Falls ein Modell für maschinelles Lernen zur besseren Interpretierbarkeit von Textdokumenten mit Grafiken und Bildern verwendet wird, kann die Ausgabevorhersage auch als ein Satz von Begrenzungsfeldern (bounding boxes) (z.B. mindestens eines), eine Segmentierungsmaske, ein Satz von Kernpunkten/Orientierungspunkten oder eine andere übergeordnete semantische Darstellung in den im Text enthaltenen Grafiken und/oder Bildern dargestellt werden, die möglicherweise nur in Form von Pixelinformationen (z.B. in PDF) verfügbar sind.
  • Der Begriff ,Stoppkriterium‘ kann eine Bedingung bezeichnen, unter der ein Verfahren oder ein Prozessablauf zu Ende geht.
  • Der Begriff ,Probendatengenerator‘ kann entweder einen künstlichen Datengenerator wie etwa einen Computergrafiksimulator, eine Kamera oder ein Mikrofon oder einen anderen datenerzeugenden Sensor bezeichnen.
  • Der Begriff ,realer Sensor‘ kann jede signalerzeugende Einheit bezeichnen, die Daten aus Szenen aus dem täglichen Leben liefert. Bei solchen Einheiten kann es sich um Kameras für Standbilder oder solche zum Erzeugen kontinuierlicher Datenströme (z.B. Videokameras), Mikrofone für Ton- oder Sprachdaten, Nachrichten-Feeds oder andere Quellen schriftlicher Informationen (darunter z.B. Schaubilder und andere Bilder), chemische Analysesysteme und dergleichen handeln.
  • Der Begriff ‚Qualitätskriterium der Gesamtvorhersage‘ kann einen numerischen Wert bezeichnen, der Vorhersagewerte für ein Label und/oder einen Kommentar für dieselbe Datenprobe unter Verwenden von Variationen der Datenprobe ausdrückt. So kann eine Eingangsprobe als Eingabe zum Vorhersagen einer Klasse verwendet werden; anschließend kann die Eingangsprobe in einer oder mehreren vordefinierten Weisen bearbeitet werden - z.B. kann ein Bild gedreht oder gekippt werden usw. - und die Vorhersage kann wiederholt werden. Dies kann einen anderen Qualitätswert der Gesamtvorhersage für dieselbe vorhergesagte Klasse ergeben. Mehrere solcher Vorhersagen können kombiniert werden - z.B. indem ein durchschnittlicher Vorhersagequalitätswert oder ein gewichteter durchschnittlicher Vorhersagequalitätswert gebildet wird -, um ein Qualitätskriterium der Gesamtvorhersage oder einen Qualitätswert der Gesamtvorhersage (auch als „kombinierter Wert der statistischen Sicherheit“ bezeichnet) zu erstellen.
  • Der Begriff ,Neueinfärben‘ (,re-colorizing‘) kann einen Prozess zum Ändern des Farbschemas für ein vorgegebenes Bild bezeichnen. Für einen oder mehrere der Farbkanäle des Bildes kann die Intensität einer bestimmten Farbe des zugrundeliegenden Farbmodells erhöht oder verringert werden. Üblicherweise kann die Intensität eines oder mehrerer Farbkanäle auf null gesetzt werden. Dieser Prozess wird auch als Falschfarbwiedergabe oder Falschfarbendarstellung bezeichnet.
  • Des Weiteren kann das Modell für maschinelles Lernen zum Neueinfärben in einer Weise trainiert werden, dass es einen Bildfarbkanal anhand eines oder mehrerer anderer Bildkanäle vorhersagt. Zum Beispiel kann ein aus drei Farbkanälen (rot, blau und grün) bestehendes RBG-Bild vorliegen. Es können nur zwei Kanalbilder als Eingabe für das ML-Modell verwendet werden, und das Modell kann den verbleibenden Farbkanal vorhersagen, und es kann ein Vorhersagefehler durch Vergleichen des vorhergesagten Kanals mit dem ursprünglichen Kanal ermittelt werden. Diese Technik kann dabei helfen, das ML-Modell unter Verwenden von nicht gelabelten Daten zu trainieren, da keine Kommentare für diese Aufgabe erforderlich sind. Daher kann diese Technik als ähnlich wie das „Puzzeln“ betrachtet werden.
  • Der Begriff ,Puzzeln‘ kann den Prozess eines Zerschneidens eines Bildes in Teile oder Kacheln (regelmäßige Schnitte oder unregelmäßige asymmetrische Schnitte) und eines Neuordnens der Teile bezeichnen. Anschließend kann das System für maschinelles Lernen die Klasse erneut vorhersagen. Ein Bild kann beispielsweise in 9 Teile zerschnitten werden, und der obere linke Ausschnitt kann z.B. mit dem unteren mittleren Ausschnitt vertauscht werden, der obere linke Ausschnitt kann mit dem mittleren linken Ausschnitt vertauscht werden usw.
  • Der Begriff ,System für tiefes maschinelles Lernen‘ kann z.B. ein neuronales Netz mit einer Mehrzahl von Schichten bezeichnen, die vollständig oder nur teilweise verbunden sein können. Um als System für tiefes maschinelles Lernen zu gelten, sollte die Anzahl der Schichten (einschließlich der Eingabe- und der Ausgabeschicht) weit über 3 liegen. Typische Systeme für tiefes maschinelles Lernen können 10 oder 50 Schichten (oder sogar 200 oder mehr) aufweisen. Bei den Schichten kann es sich um Faltungsschichten und Bündelungsschichten handeln, die in bestimmten Gruppen organisiert sein können.
  • Der Begriff ,Hyperparameter‘ kann einen Satz von Parametern bezeichnen, die die Architektur eines Modells für maschinelles Lernen beschreiben, z.B. die Anzahl von Schichten in einem künstlichen neuronalen Netz, die Art von verwendeten Schichten, die Länge des Eingabedatenvektors, die Anzahl von Klassen für die Vorhersage, die Art von Verbindungen zwischen den Schichten (vollständig oder teilweise verbunden) und einen Betriebsmodus des Systems für maschinelles Lernen.
  • Ein weiterer wichtiger Parameter ist eine Lernrate. Die Lernrate definiert einen Skalierungsfaktor für den Restvektor während einer Rückwärtsausbreitung in einem neuronalen Netz. Es handelt sich dabei um einen sehr kritischen Parameter, und eine Feinabstimmung ist erforderlich. Oft gibt es einen speziellen „Plan“, der definiert, wie sich die Lernrate während eines Trainingsvorgangs ändert.
  • Im Folgenden wird eine ausführliche Beschreibung der Figuren bereitgestellt. Alle Anweisungen in den Figuren sind schematisch. Als Erstes wird ein Ablaufplan gezeigt, der ein durch einen Computer implementiertes Verfahren zum iterativen Trainieren eines Modells für maschinelles Lernen zeigt. Anschließend werden weitere Ausführungsformen sowie Ausführungsformen eines Trainingssystems für ein Modell für maschinelles Lernen beschrieben.
  • 1 ist ein Ablaufplan, der ein Verfahren 100 zum Trainieren eines Modells für maschinelles Lernen gemäß einer Ausführungsform der vorliegenden Erfindung zeigt. Das Verfahren weist ein Trainieren, 102, eines Modells für maschinelles Lernen auf, das durch einen Satz von Hyperparametern definiert ist. Dabei wird ein anfänglicher Satz von Trainingsdatenproben verwendet. Üblicherweise sind mindestens einige kommentierte Datenproben erforderlich, um einige Klassen zu definieren. Es kann jedoch auch andere Fälle geben, in denen nur mit unkommentierten Daten gearbeitet werden kann.
  • Das Verfahren 100 weist ein Empfangen, 104, einer neuen Trainingsdatenprobe und ein Vorhersagen, 106, eines Label oder eines Kommentars für die neue Trainingsdatenprobe auf. Diese mindestens eine neue Trainingsdatenprobe kann kommentiert oder unkommentiert sein. Die Ausführungsformen können jedoch für die unkommentierten neuen Datenproben effektiver sein, da für bereits kommentierte Trainingsdatenproben andere Trainingsprozeduren geeignet sein können. Es sei jedoch darauf hingewiesen, dass das Verfahren 100 in einigen Ausführungsformen auch bei einer Mischung aus kommentierten und unkommentierten neuen Trainingsdatenproben funktionieren kann.
  • Die neuen Trainingsdatenproben können während eines normalen Betriebs des Systems für maschinelles Lernen gesammelt werden, ohne dass zunächst versucht wird, sie als neue Trainingsdaten zu verwenden. Sie können in Abhängigkeit vom Vorhersageverhalten des zugrundeliegenden Systems für maschinelles Lernen zu Trainingsdaten werden, z.B. für diejenigen empfangenen Proben, die eine Vorhersage mit niedriger Vorhersagequalität hervorrufen.
  • Andererseits können die empfangenen neuen Trainingsdaten in einigen Ausführungsformen für eine anfängliche Trainingsprozedur bestimmt sein, und die empfangenen Datenproben sind möglicherweise kein Ergebnis eines Verwendens des Systems für maschinelles Lernen.
  • Wenn festgestellt wird, dass ein Vorhersagequalitätswert für die Label-Vorhersage der neuen Trainingsdatenprobe unter einem vordefinierten Qualitätswert liegt, weist das Verfahren 100 außerdem ein Erweitern, 108, des anfänglichen Satzes von Trainingsdatenproben auf, wodurch ein erweiterter Trainingsdatensatz gebildet wird. Das Verfahren 100 weist außerdem ein Wiederholen, 110, des Trainierens, des Empfangens, des Vorhersagens und des Erweiterns mit dem erweiterten Trainingssatz auf, bis ein Stoppkriterium erfüllt ist, wobei das Modell für maschinelles Lernen iterativ, d.h. kontinuierlich, trainiert wird.
  • 2 ist ein Ablaufplan, der ein weiteres Verfahren 200 zum Trainieren eines Modells für maschinelles Lernen gemäß einer Ausführungsform der vorliegenden Erfindung zeigt. In einem ersten Schritt wird eine anfängliche Anzahl von Trainingsdatenproben ermittelt, 202. Als Nächstes wird eine neues Datenprobe oder Trainingsdatenprobe empfangen, 204. Diese Datenproben werden üblicherweise von einem künstlichen oder realen Datengenerator (nicht gezeigt) erzeugt. Wahlweise (im Ablaufplan als gestricheltes Kästchen gezeigt) kann ein automatischer Kommentierungsprozess stattfinden, 206.
  • Wenn festgestellt wird, 208, dass noch kein trainiertes Modell verfügbar ist - Fall „N“ - werden alle empfangenen Proben dem Trainingsdatensatz hinzugefügt, 210. Wenn bereits ein trainiertes Modell verfügbar ist - Fall „J“ - schätzt, ermittelt oder prognostiziert, 212, eine Datenauswertungseinrichtung die Qualität des vorhergesagten Kommentars für die neu empfangene Trainingsdatenprobe und fügt dem Trainingsdatensatz eine neue Trainingsdatenprobe mit einem niedrigen Vorhersagequalitätswert hinzu, 214.
  • Anschließend wird ermittelt, 216, ob ein Stoppkriterium erfüllt ist. Ist dies der Fall - Fall „J“ - wird der Trainingsprozess gestoppt („Stopp“). Wenn das Stoppkriterium nicht erfüllt ist - Fall „N“ - wird ermittelt, 218, ob eine erwartete Anzahl neuer Trainingsdaten erreicht ist. Ist dies der Fall - Fall „J“ -, wird das Modell mit den neuen Trainingsdatenproben und den automatisch erzeugten (vorhergesagten) Kommentaren trainiert, 220. Anschließend kehrt der Prozess in einer Schleife zum Anfang zurück oder zurück zum Schritt des Ermittelns, ob weitere neu empfangene Trainingsdatenproben mit einer niedrigen Vorhersagequalität (d h. unter einem vordefinierten Vorhersagequalitätswert) vorliegen.
  • Verschiedene Module können den hier beschriebenen Prozess unterstützen: Ein Datengenerator kann in der Lage sein, neue kommentierte Datenproben zu erzeugen. In einer allgemeinen Form erzeugt ein Datengenerator einen kontinuierlichen Strom von kommentierten oder unkommentierten Datenproben. Bei einer Implementierungsform kann es sich um einen Computergrafiksimulator handeln. In diesem Fall wird der Strom kommentierter Datenproben vom Computergrafiksimulator erzeugt. Dieser Simulator kann einen offenen Satz von virtuellen Umgebungen oder virtuellen Welten verwenden. Der Datengenerator hat Zugriff auf virtuelle Instanzen und ihre Eigenschaften in dieser simulierten Umgebung und kann Datenproben in Form von Farbbildern, Bildmasken, Tiefenbildern, Punktwolken, Normalkarten und anderen Darstellungen erzeugen, die für den Simulator gültig sind.
  • Andererseits kann es sich in einigen Ausführungsformen bei dem Datengenerator um einen realen Sensor wie etwa eine Sicherheitskamera mit der optionalen Fähigkeit zum Erzeugen von Kommentaren handeln. Der Datenstromgenerator kann somit als ein Blackbox-System betrachtet werden, das ein Anfordern neuer Datenproben mit optionalen Datenkommentaren ermöglicht.
  • Zweitens kann ein Modelltrainer als ein System für maschinelles Lernen betrachtet werden, das als Eingabe einen Satz von Datenproben mit oder ohne Kommentare nimmt und ein Modell erzeugt, das in der Lage ist, Kommentare für neue Datenproben vorherzusagen. Der Modelltrainer kann beispielsweise als ein System für tiefes maschinelles Lernen dargestellt werden, das Datenproben, (wahlweise) Kommentare und einen Satz von Hyperparametern nimmt, die eine Möglichkeit zum Trainieren des Modells definieren.
  • Als ein Block oder Modul wird eine „Datenauswertungseinrichtung“ („data evaluator“) aktiviert, um Datenproben, Ground-Truth-Datenkommentare (wahlweise) und ein trainiertes Modell als Eingabe zu nehmen, um erwartete Kommentare als Ausgabe zu erzeugen. Die Datenauswertungseinrichtung wird auch aktiviert, um eine Qualität des vorhergesagten Kommentars bzw. der vorhergesagten Kommentare zu schätzen (vorherzusagen oder zu ermitteln). Diese Qualitätseinschätzung kann durch einen Vergleich von vorhergesagten Kommentaren mit der Ground Truth ermittelt werden. Eine andere Möglichkeit, eine Qualität der Vorhersage zu schätzen, ist eine Bewertung der durch das Modell selbst geschätzten Vorhersage.
  • 3 ist eine Blockschaubildansicht eines Systems 300 zum Trainieren eines Modells für maschinelles Lernen gemäß einer Ausführungsform der vorliegenden Erfindung. Das System 300 weist Trainingsmittel - z.B. eine Modelltrainingseinrichtung 302 - z.B. zum Trainieren eines Modells für maschinelles Lernen unter Verwenden eines anfänglichen Satzes von Trainingsdatenproben auf. Es kann auch Empfangsmittel - insbesondere einen Empfänger 304 - zum Empfangen einer neuen Trainingsdatenprobe aus einer Mehrzahl von neuen Trainingsdatenproben aufweisen.
  • Das System 300 weist außerdem Vorhersagemittel - z.B. in Form einer Datenauswertungseinrichtung 306 - zum Vorhersagen eines Label für die neue Trainingsdatenprobe auf. Außerdem kann es Erweiterungsmittel - insbesondere ein Erweiterungsmodul 308 - aufweisen, das/die bei einem positiven Ergebnis von Ermittlungsmitteln zum Ermitteln, ob ein Vorhersagequalitätswert für die Label-Vorhersage der neuen Trainingsdatenprobe unter einem vordefinierten (Vorhersage-)Qualitätswert liegt, aktiviert werden können, um den ursprünglichen Satz zu erweitern, wodurch ein erweiterter Trainingsdatensatz gebildet wird.
  • Das System 300 weist außerdem Auslösemittel (trigger means) - insbesondere ein Auslösemodul 310 -, die zum Auslösen der Trainingsmittel unter Verwenden des erweiterten Trainingsdatensatzes, der Empfangsmittel, der Vorhersagemittel und der Ermittlungsmittel geeignet sind, bis ein Stoppkriterium erfüllt ist, wodurch iterativ ein kontinuierliches Trainieren des Modells für maschinelles Lernen bereitgestellt wird.
  • Ausführungsformen der Erfindung können zusammen mit nahezu jeder Art von Computer implementiert werden, unabhängig davon, ob die Plattform zum Speichern und/oder Ausführen von Programmcode geeignet ist. 4 ist eine Blockschaltbildansicht eines Computersystems 400, das zum Ausführen von Programmcode im Zusammenhang mit den vorgeschlagenen Verfahren geeignet ist.
  • Das Datenverarbeitungssystem 400 ist nur ein Beispiel für ein geeignetes Computersystem und soll keine Einschränkung des Anwendungsbereichs oder der Funktionalität von hierin beschriebenen Ausführungsformen der Erfindung darstellen, unabhängig davon, ob das Datenverarbeitungssystem 400 in der Lage ist, eine der hierin dargelegten Funktionen zu implementieren und/oder auszuführen. Im Datenverarbeitungssystem 400 gibt es Komponenten, die mit zahlreichen anderen Universal- oder Spezial-Datenverarbeitungssystemumgebungen oder -konfigurationen betrieben werden können. Zu Beispielen für allgemein bekannte Datenverarbeitungssysteme, -umgebungen und/oder -konfigurationen, die zum Verwenden mit dem Datenverarbeitungssystem 400 geeignet sein können, gehören Personalcomputersysteme, Servercomputersysteme, Thin-Clients, Thick-Clients, Handheld- oder Laptop-Einheiten, Multiprozessorsysteme, auf Mikroprozessoren beruhende Systeme, Set-Top-Boxen, programmierbare Unterhaltungselektronik, Netzwerk-PCs, Minicomputersysteme, Großrechnersysteme und verteilte Cloud-Computing-Umgebungen, die beliebige der oben genannten Systeme oder Einheiten umfassen, und dergleichen, jedoch ohne auf diese beschränkt zu sein. Das Datenverarbeitungssystem 400 kann im allgemeinen Kontext von durch ein Computersystem ausführbaren Anweisungen wie etwa Programmmodule beschrieben werden, die vom Datenverarbeitungssystem 400 ausgeführt werden. Im Allgemeinen können zu Programmmodulen Routinen, Programme, Objekte, Komponenten, Logik, Datenstrukturen usw. gehören, die bestimmte Aufgaben ausführen oder bestimmte abstrakte Datentypen implementieren. Das Datenverarbeitungssystem 400 kann in verteilten Cloud-Computing-Umgebungen eingesetzt werden, in denen Aufgaben von entfernt angeordneten Verarbeitungseinheiten ausgeführt werden, die über ein Datenübertragungsnetz miteinander verbunden sind. In einer verteilten Cloud-Computing-Umgebung können sich die Programmmodule sowohl in lokalen als auch in entfernt angeordneten Computersystem-Speichermedien befinden, unter anderem in Speichereinheiten.
  • Wie in 4 gezeigt, wird das Datenverarbeitungssystem 400 in Form einer Universal-Datenverarbeitungseinheit gezeigt. Zu den Komponenten des Datenverarbeitungssystems 400 können unter anderem ein oder mehrere Prozessoren oder Verarbeitungseinheiten 402, ein Systemspeicher 404 und ein Bus 406 gehören, der verschiedene Systemkomponenten einschließlich des Systemspeichers 404 mit den Verarbeitungseinheiten 402 verbindet, jedoch ohne auf diese beschränkt zu sein. Der Bus 406 stellt eine oder mehrere von mehreren Arten von Busstrukturen dar, darunter ein Speicherbus oder eine Speichersteuereinheit, ein peripherer Bus, ein beschleunigter Grafikanschluss und ein Prozessor- oder lokaler Bus, der eine aus einer Vielfalt von Busarchitekturen verwendet. Zu diesen Architekturen gehören beispielsweise der ISA-Bus (Industry Standard Architecture), der MCA-Bus (Micro Channel Architecture), der EISA-Bus (Enhanced ISA), der lokale VESA-Bus (Video Electronics Standards Association) und der PCI-Bus (Peripheral Component Interconnects), jedoch ohne auf diese beschränkt zu sein. Das Datenverarbeitungssystem/der Server 400 umfasst üblicherweise eine Mehrzahl von durch ein Computersystem lesbaren Medien. Bei diesen Medien kann es sich um alle verfügbaren Medien handeln, auf die das Datenverarbeitungssystem/der Server 400 zugreifen kann, und dazu gehören sowohl flüchtige als auch nichtflüchtige Medien, austauschbare und nichtaustauschbare Medien.
  • Der Systemspeicher 404 kann durch ein Computersystem lesbare Medien in Form von flüchtigem Speicher umfassen, beispielsweise ein Direktzugriffsspeicher (RAM) 408 und/oder ein Cache 410. Darüber hinaus kann das Datenverarbeitungssystem 400 andere austauschbare/nichtaustauschbare, flüchtige/nichtflüchtige Computersystem-Speichermedien umfassen. Lediglich beispielhaft kann ein Speichersystem 412 zum Lesen und Beschreiben eines nichtaustauschbaren, nichtflüchtigen magnetischen Mediums (nicht gezeigt und üblicherweise als ,Festplatte‘ bezeichnet) bereitgestellt werden. Obwohl nicht gezeigt, können ein Magnetplattenlaufwerk zum Lesen und Beschreiben einer austauschbaren, nichtflüchtigen Magnetplatte (z.B. einer,Diskette‘) und ein optisches Plattenlaufwerk zum Lesen und Beschreiben einer austauschbaren, nichtflüchtigen optischen Platte wie etwa einer CD-ROM, DVD-ROM oder eines anderen optischen Mediums bereitgestellt werden. In solchen Fällen kann jedes über eine oder mehrere Datenträgerschnittstellen mit dem Bus 406 verbunden werden. Wie im Folgenden dargestellt und beschrieben wird, kann der Speicher 404 mindestens ein Programmprodukt mit einem Satz (z.B. mindestens einem) von Programmmodulen umfassen, die so konfiguriert sind, dass sie die Funktionen von Ausführungsformen der Erfindung ausführen.
  • Das Programm/Dienstprogramm mit einem Satz (mindestens einer) von Programmmodulen 416 kann lediglich beispielhaft und ohne Einschränkung im Speicher 404 gespeichert sein, ebenso wie ein Betriebssystem, ein oder mehrere Anwendungsprogramme, andere Programmmodule und Programmdaten. Jedes der Betriebssysteme, ein oder mehrere Anwendungsprogramme, andere Programmmodule und/oder Programmdaten oder eine Kombination daraus können eine Implementierung einer Netzwerkumgebung umfassen. Die Programmmodule 416 führen im Allgemeinen die Funktionen und/oder Verfahren von Ausführungsformen der Erfindung aus, wie sie hierin beschrieben werden.
  • Das Datenverarbeitungssystem 400 kann auch mit einer oder mehreren externen Einheiten 418 Daten austauschen, darunter eine Tastatur, eine Zeigereinheit, eine Anzeige 420 usw.; ein oder mehrere Einheiten, die es einem Benutzer ermöglichen, mit dem Datenverarbeitungssystem 400 zu interagieren; und/oder beliebige Einheiten (z.B. Netzwerkkarte, Modem usw.), die es dem Datenverarbeitungssystem 400 ermöglichen, mit einer oder mehreren anderen Datenverarbeitungseinheiten Daten auszutauschen. Ein solcher Datenaustausch kann über Ein/Ausgabe- (E/A-)Schnittstellen 414 erfolgen. Nach wie vor kann das Datenverarbeitungssystem 400 über einen Netzwerkadapter 422 mit einem oder mehreren Netzwerken wie etwa einem lokalen Netzwerk (LAN), einem allgemeinen Weitverkehrsnetzwerk (WAN) und/oder einem öffentlichen Netzwerk (z.B. dem Internet) Daten austauschen. Wie dargestellt wird, kann der Netzwerkadapter 422 über den Bus 406 mit den anderen Komponenten des Datenverarbeitungssystems 400 Daten austauschen. Es versteht sich von selbst, dass andere Hardware- und/oder Software-Komponenten in Verbindung mit dem Datenverarbeitungssystem 400 verwendet werden können, auch wenn sie nicht gezeigt werden. Zu Beispielen gehören, jedoch ohne auf diese beschränkt zu sein: Mikrocode, Einheitentreiber, redundante Verarbeitungseinheiten, externe Festplattenanordnungen, RAID-Systeme, Bandlaufwerke und Datenarchivierungssysteme usw.
  • Zudem kann das System 300 zum Trainieren eines Modells für maschinelles Lernen mit dem Bussystem 406 verbunden sein.
  • Die Beschreibungen der verschiedenen Ausführungsformen der vorliegenden Erfindung dienen der Veranschaulichung, sollen jedoch nicht erschöpfend oder auf die offenbarten Ausführungsformen beschränkt sein. Viele Modifikationen und Änderungen werden für Fachleute offensichtlich sein, ohne vom Schutzumfang und Gedanken der beschriebenen Ausführungsformen abzuweichen. Die hierin verwendete Terminologie wurde gewählt, um die Grundgedanken der Ausführungsformen, die praktische Anwendung oder die technische Verbesserung gegenüber auf dem Markt erhältlichen Technologien bestmöglich zu erläutern oder um es anderen Fachleuten zu ermöglichen, die hierin offenbarten Ausführungsformen zu verstehen.
  • Die vorliegende Erfindung kann als ein System, ein Verfahren und/oder ein Computerprogrammprodukt verkörpert sein. Das Computerprogrammprodukt kann (ein) durch einen Computer lesbare(s) Speichermedium (oder -medien) mit durch einen Computer lesbaren Programmanweisungen darauf umfassen, um einen Prozessor dazu zu veranlassen, Aspekte der vorliegenden Erfindung auszuführen.
  • Bei dem Medium kann es sich um ein elektronisches, magnetisches, optisches, elektromagnetisches, ein Infrarot- oder ein Halbleitersystem für ein Ausbreitungsmedium handeln. Zu Beispielen eines durch einen Computer lesbaren Mediums können ein Halbleiterspeicher, ein Magnetband, eine austauschbare Computerdiskette, ein Direktzugriffsspeicher (RAM), ein Nur-Lese-Speicher (ROM), eine Festplatte und eine optische Platte gehören. Zu aktuellen Beispielen für optische Platten gehören ein Kompaktspeicherplatte-Nur-Lese-Speicher (CD-ROM), eine wiederbeschreibbare Kompaktspeicherplatte (Compact-Disk-Read-Write, CD-R/W), eine DVD und eine Blu-Ray-Disc.
  • Bei dem durch einen Computer lesbaren Speichermedium kann es sich um eine physische Einheit handeln, die Anweisungen zum Verwenden durch eine Einheit zum Ausführen von Anweisungen behalten und speichern kann. Bei dem durch einen Computer lesbaren Speichermedium kann es sich zum Beispiel um eine elektronische Speichereinheit, eine magnetische Speichereinheit, eine optische Speichereinheit, eine elektromagnetische Speichereinheit, eine Halbleiterspeichereinheit oder jede geeignete Kombination daraus handeln, jedoch ohne auf diese beschränkt zu sein. Zu einer nicht erschöpfenden Liste spezifischerer Beispiele des durch einen Computer lesbaren Speichermediums gehören die Folgenden: eine tragbare Computerdiskette, eine Festplatte, ein Direktzugriffsspeicher (RAM), ein Nur-Lese-Speicher (ROM), ein löschbarer programmierbarer Nur-Lese-Speicher (EPROM oder Flash-Speicher), ein statischer Direktzugriffsspeicher (SRAM), ein tragbarer Kompaktspeicherplatte-Nur-Lese-Speicher (CD-ROM), eine DVD (digital versatile disc), ein Speicher-Stick, eine Diskette, eine mechanisch codierte Einheit wie zum Beispiel Lochkarten oder erhabene Strukturen in einer Rille, auf denen Anweisungen gespeichert sind, und jede geeignete Kombination daraus. Ein durch einen Computer lesbares Speichermedium soll in der Verwendung hierin nicht als flüchtige Signale an sich aufgefasst werden, wie zum Beispiel Funkwellen oder andere sich frei ausbreitende elektromagnetische Wellen, elektromagnetische Wellen, die sich durch einen Wellenleiter oder ein anderes Übertragungsmedium ausbreiten (z.B. ein Lichtwellenleiterkabel durchlaufende Lichtimpulse) oder durch einen Draht übertragene elektronische Signale.
  • Hierin beschriebene, durch einen Computer lesbare Programmanweisungen können von einem durch einen Computer lesbaren Speichermedium auf jeweilige Datenverarbeitungs-/Verarbeitungseinheiten oder über ein Netzwerk wie zum Beispiel das Internet, ein lokales Netzwerk, ein Weitverkehrsnetzwerk und/oder ein drahtloses Netzwerk auf einen externen Computer oder eine externe Speichereinheit heruntergeladen werden. Das Netzwerk kann Kupferübertragungskabel, Lichtwellenübertragungsleiter, drahtlose Übertragung, Leitwegrechner, Firewalls, Vermittlungseinheiten, Gateway-Computer und/oder Edge-Server aufweisen. Eine Netzwerkadapterkarte oder Netzwerkschnittstelle in jeder Datenverarbeitungs-/Verarbeitungseinheit empfängt durch einen Computer lesbare Programmanweisungen aus dem Netzwerk und leitet die durch einen Computer lesbaren Programmanweisungen zum Speichern in einem durch einen Computer lesbaren Speichermedium innerhalb der entsprechenden Datenverarbeitungs-/Verarbeitungseinheit weiter.
  • Bei durch einen Computer lesbaren Programmanweisungen zum Ausführen von Arbeitsschritten der vorliegenden Erfindung kann es sich um Assembler-Anweisungen, ISA-Anweisungen (Instruction-Set-Architecture), Maschinenanweisungen, maschinenabhängige Anweisungen, Mikrocode, Firmware-Anweisungen, zustandssetzende Daten oder entweder Quellcode oder Objektcode handeln, die in einer beliebigen Kombination aus einer oder mehreren Programmiersprachen geschrieben werden, darunter eine objektorientierte Programmsprache wie Smalltalk, C++ o.ä. sowie herkömmliche prozedurale Programmiersprachen wie die Programmiersprache „C“ oder ähnliche Programmiersprachen. Die durch einen Computer lesbaren Programmanweisungen können vollständig auf dem Computer des Benutzers, teilweise auf dem Computer des Benutzers, als eigenständiges Software-Paket, teilweise auf dem Computer des Benutzers und teilweise auf einem entfernt angeordneten Computer oder vollständig auf dem entfernt angeordneten Computer oder Server ausgeführt werden. In letzterem Fall kann der entfernt angeordnete Computer mit dem Computer des Benutzers durch eine beliebige Art Netzwerk verbunden sein, darunter ein lokales Netzwerk (LAN) oder ein Weitverkehrsnetz (WAN), oder die Verbindung kann mit einem externen Computer hergestellt werden (zum Beispiel über das Internet unter Verwendung eines Internet-Dienstanbieters). In einigen Ausführungsformen können elektronische Schaltungen, darunter zum Beispiel programmierbare Logikschaltungen, vor Ort programmierbare Gatter-Anordnungen (FPGA, field programmable gate arrays) oder programmierbare Logikanordnungen (PLA, programmable logic arrays) die durch einen Computer lesbaren Programmanweisungen ausführen, indem sie Zustandsinformationen der durch einen Computer lesbaren Programmanweisungen nutzen, um die elektronischen Schaltungen zu personalisieren, um Aspekte der vorliegenden Erfindung auszuführen.
  • Aspekte der vorliegenden Erfindung sind hierin unter Bezugnahme auf Ablaufpläne und/oder Blockschaubilder bzw. Schaltbilder von Verfahren, Vorrichtungen (Systemen) und Computerprogrammprodukten gemäß Ausführungsformen der Erfindung beschrieben. Es wird darauf hingewiesen, dass jeder Block der Ablaufpläne und/oder der Blockschaubilder bzw. Schaltbilder sowie Kombinationen von Blöcken in den Ablaufplänen und/oder den Blockschaubildern bzw. Schaltbildern mittels durch einen Computer lesbaren Programmanweisungen ausgeführt werden können.
  • Diese durch einen Computer lesbaren Programmanweisungen können einem Prozessor eines Universal-Computers, eines Spezial-Computers oder einer anderen programmierbaren Datenverarbeitungsvorrichtung bereitgestellt werden, um eine Maschine zu erzeugen, so dass die über den Prozessor des Computers bzw. der anderen programmierbaren Datenverarbeitungsvorrichtung ausgeführten Anweisungen ein Mittel zum Umsetzen der in dem Block bzw. den Blöcken der Ablaufpläne und/oder der Blockschaubilder bzw. Schaltbilder festgelegten Funktionen/Schritte erzeugen. Diese durch einen Computer lesbaren Programmanweisungen können auch auf einem durch einen Computer lesbaren Speichermedium gespeichert sein, das einen Computer, eine programmierbare Datenverarbeitungsvorrichtung und/oder andere Einheiten so steuern kann, dass sie auf eine bestimmte Art funktionieren, so dass das durch einen Computer lesbare Speichermedium, auf dem Anweisungen gespeichert sind, ein Herstellungsprodukt aufweist, darunter Anweisungen, welche Aspekte der/des in dem Block bzw. den Blöcken des Ablaufplans und/oder der Blockschaubilder bzw. Schaltbilder angegebenen Funktion/Schritts umsetzen. Die durch einen Computer lesbaren Programmanweisungen können auch auf einen Computer, eine andere programmierbare Datenverarbeitungseinheit oder eine andere Einheit geladen werden, um das Ausführen einer Reihe von Prozessschritten auf dem Computer bzw. der anderen programmierbaren Einheit oder anderen Einheit zu verursachen, um einen auf einem Computer ausgeführten Prozess zu erzeugen, so dass die auf dem Computer, einer anderen programmierbaren Einheit oder einer anderen Einheit ausgeführten Anweisungen die in dem Block bzw. den Blöcken der Ablaufpläne und/oder der Blockschaubilder bzw. Schaltbilder festgelegten Funktionen/Schritte umsetzen.
  • Die durch einen Computer lesbaren Programmanweisungen können auch auf einen Computer, andere programmierbare Datenverarbeitungsvorrichtungen oder eine andere Einheit geladen werden, um das Ausführen einer Reihe von Prozessschritten auf dem Computer, einer anderen programmierbaren Vorrichtung oder anderen Einheit zu verursachen, um einen durch einen Computer implementierten Prozess zu erzeugen, so dass die auf dem Computer, den anderen programmierbaren Vorrichtungen oder einer anderen Einheit ausgeführten Anweisungen die in dem Block bzw. den Blöcken der Ablaufpläne und/oder der Blockschaubilder bzw. Schaltbilder festgelegten Funktionen/Schritte umsetzen.
  • Die Ablaufpläne und/oder Blockschaubilder bzw. Schaltbilder in den Figuren veranschaulichen die Architektur, die Funktionalität und den Betrieb möglicher Ausführungen von Systemen, Verfahren und Computerprogrammprodukten gemäß verschiedenen Ausführungsformen der vorliegenden Erfindung. In diesem Zusammenhang kann jeder Block in den Ablaufplänen oder Blockschaubildern bzw. Schaltbildern ein Modul, ein Segment oder einen Teil von Anweisungen darstellen, die eine oder mehrere ausführbare Anweisungen zum Ausführen der bestimmten logischen Funktion(en) aufweisen. In einigen alternativen Ausführungen können die in dem Block angegebenen Funktionen in einer anderen Reihenfolge als in den Figuren gezeigt stattfinden. Zwei nacheinander gezeigte Blöcke können zum Beispiel in Wirklichkeit im Wesentlichen gleichzeitig ausgeführt werden, oder die Blöcke können manchmal je nach entsprechender Funktionalität in umgekehrter Reihenfolge ausgeführt werden. Es ist ferner anzumerken, dass jeder Block der Blockschaubilder bzw. Schaltbilder und/oder der Ablaufpläne sowie Kombinationen aus Blöcken in den Blockschaubildern bzw. Schaltbildern und/oder den Ablaufplänen durch spezielle auf Hardware beruhende Systeme umgesetzt werden können, welche die festgelegten Funktionen oder Schritte durchführen, oder Kombinationen aus Spezial-Hardware und Computeranweisungen ausführen.
  • Die hierin verwendete Terminologie dient lediglich zum Beschreiben bestimmter Ausführungsformen und soll die Erfindung nicht einschränken. Wie hierin verwendet, sollen die Singularformen „ein(e)“ und „der/die/das“ auch die Pluralformen miteinschließen, sofern aus dem Kontext nicht eindeutig etwas anderes hervorgeht. Außerdem versteht es sich von selbst, dass die Begriffe „aufweist“ und/oder „aufweisen“ bei Verwenden in dieser Beschreibung das Vorhandensein von dargelegten Merkmalen, ganzen Zahlen, Schritten, Arbeitsgängen, Elementen und/oder Komponenten angeben, jedoch das Vorhandensein oder Hinzufügen von einem oder mehreren anderen Merkmalen, ganzen Zahlen, Schritten, Arbeitsgängen, Elementen, Komponenten und/oder Gruppen aus diesen nicht ausschließen.
  • Die entsprechenden Strukturen, Materialien, Schritte und Äquivalente aller Mittel oder Schritte plus Funktionselemente in den nachstehenden Ansprüchen sollen jede Struktur, jedes Material oder jeden Schritt zum Ausführen der Funktion in Kombination mit anderen beanspruchten Elementen umfassen, wie ausdrücklich beansprucht wird. Die Beschreibung der vorliegenden Erfindung dient der Veranschaulichung und Beschreibung, soll jedoch nicht erschöpfend oder auf die Erfindung in der offenbarten Form beschränkt sein. Viele Modifikationen und Änderungen werden für Fachleute offensichtlich sein, ohne vom Schutzumfang und Gedanken der Erfindung abzuweichen. Die Ausführungsformen wurden gewählt und beschrieben, um die Grundgedanken der Erfindung und die praktische Anwendung bestmöglich zu erläutern, und um es anderen Fachleuten zu ermöglichen, die Erfindung für verschiedene Ausführungsformen mit verschiedenen Modifikationen zu verstehen, die für die vorgesehene Verwendung geeignet sind.
  • Einige Ausführungsformen der vorliegenden Erfindung stellen ein durch einen Computer implementiertes Verfahren zum iterativen Trainieren eines Modells für maschinelles Lernen bereit, wobei das Verfahren aufweist: Trainieren eines Modells für maschinelles Lernen unter Verwenden eines anfänglichen Satzes von Trainingsdatenproben, Empfangen einer neuen Trainingsdatenprobe, Vorhersagen eines Label für die neue Trainingsdatenprobe, auf ein Feststellen hin, dass ein Vorhersagequalitätswert für das vorhergesagte Label der neuen Trainingsdatenprobe unter einem vordefinierten Qualitätswert liegt, Erweitern des anfänglichen Satzes, wodurch ein erweiterter Trainingsdatensatz gebildet wird, und Wiederholen des Trainierens mit dem erweiterten Trainingsdatensatz, des Empfangens, des Vorhersagens und des Erweiterns, bis ein Stoppkriterium erfüllt ist, wodurch das Modell für maschinelles Lernen iterativ trainiert wird.
  • In einigen Ausführungsformen weist das Empfangen der neuen Trainingsdatenprobe ein Empfangen der neuen Trainingsdatenprobe von einem Probedatengenerator oder von einem realen Sensor auf.
  • In einigen Ausführungsformen ist das Stoppkriterium erfüllt, wenn ein vordefinierter Trainingszeitwert erreicht ist oder wenn eine vordefinierte Anzahl von Trainingszyklen durchgeführt wurde oder wenn eine vordefinierte Anzahl von neuen Trainingsdatenproben verarbeitet wurde oder wenn ein vordefiniertes Qualitätskriterium der Gesamtvorhersage erfüllt ist oder wenn in einer vordefinierten Zeit keine zusätzliche neue Trainingsdatenprobe mit einem Vorhersagequalitätswert unterhalb des vordefinierten Qualitätswerts ermittelt wurde.
  • In einigen Ausführungsformen weist das Verfahren außerdem auf: wenn festgestellt wird, dass der Vorhersagequalitätswert einer neuen unkommentierten Trainingsdatenprobe unter dem vordefinierten Qualitätswert liegt, erneutes Bestätigen des zugehörigen Vorhersage-Label durch Anwenden eines Verfahrens für selbstüberwachtes Lernen auf die neue Trainingsdatenprobe, um einen kombinierten Wert der statischen Sicherheit für das Label zu erhöhen, dessen Vorhersagequalitätswert unter dem vordefinierten Qualitätswert liegt.
  • In einigen Ausführungsformen weist das Verfahren für selbstüberwachtes Lernen mindestens ein aus der Gruppe ausgewähltes auf, die aufweist: Drehen der empfangenen neuen Trainingsdatenprobe um einen vordefinierten Winkel und Vorhersagen des Drehwinkels, Kippen der empfangenen neuen Trainingsdatenprobe um einen vordefinierten Winkel und Vorhersagen des Kippwinkels, Neueinfärben der empfangenen neuen Trainingsdatenprobe und Vorhersagen der Klasse der neuen neueingefärbten Trainingsdatenprobe, und Puzzeln der empfangenen neuen Trainingsdatenprobe und Vorhersagen einer ursprünglichen Position einer Kachel.
  • In einigen Ausführungsformen wird der Schritt des Wiederholens nur ausgelöst, wenn der erweiterte Trainingsdatensatz um eine vordefinierte Anzahl oder einen vordefinierten Prozentsatz an neuen Trainingsdatenproben gewachsen ist.
  • In einigen Ausführungsformen verwendet das Modell für maschinelles Lernen ein System für tiefes maschinelles Lernen.
  • In einigen Ausführungsformen weist das Verfahren außerdem ein Auslösen eines Alarmereignisses auf, wenn festgestellt wird, dass eine Vorhersagequalität einer empfangenen neuen Trainingsdatenprobe nicht verbessert werden kann.
  • In einigen Ausführungsformen weist das Verfahren für den Fall, dass zwei im Wesentlichen äquivalente reale Sensoren verwendet werden, die einen Abstand zueinander haben und zusammenhängende Datenproben unter verschiedenen Winkeln von einem Objekt aus dem täglichen Leben erzeugen, außerdem ein Verwenden der zusammenhängenden Datenproben zum Anpassen des Modells für maschinelles Lernen in einer Weise auf, dass für beide zusammenhängenden Datenproben identische Vorhersageergebnisse und identische Vorhersagequalitätswerte erzeugt werden.
  • In einigen Ausführungsformen weist der anfängliche Satz von Trainingsdatenproben kommentierte Proben auf.
  • Einige Ausführungsformen der vorliegenden Erfindung stellen ein System zum iterativen Trainieren eines Modells für maschinelles Lernen bereit, wobei das System aufweist: Trainingsmittel zum Trainieren eines Modells für maschinelles Lernen unter Verwenden eines anfänglichen Satzes von Trainingsdatenproben, Empfangsmittel zum Empfangen einer neuen Trainingsdatenprobe, Vorhersagemittel zum Vorhersagen eines Label für die neue Trainingsdatenprobe, Erweiterungsmittel, die bei einem positiven Ergebnis von Ermittlungsmitteln zum Ermitteln, ob ein Vorhersagequalitätswert für die Label-Vorhersage der neuen Trainingsdatenprobe unter einem vordefinierten Qualitätswert liegt, aktivierbar sind, um den anfänglichen Satz zu erweitern, wodurch ein erweiterter Trainingsdatensatz gebildet wird, und Auslösemittel, die zum Auslösen der Trainingsmittel unter Verwenden des erweiterten Trainingsdatensatzes, der Empfangsmittel, der Vorhersagemittel und der Ermittlungsmittel geeignet sind, bis ein Stoppkriterium erfüllt ist, wodurch iterativ ein kontinuierliches Trainieren des Modells für maschinelles Lernen bereitgestellt wird.
  • In einigen Ausführungsformen weist das System außerdem einen Probedatengenerator oder einen realen Sensor zum Erzeugen der neuen Trainingsdatenprobe auf.
  • In einigen Ausführungsformen ist das Stoppkriterium erfüllt, wenn ein vordefinierter Trainingszeitwert erreicht ist oder wenn eine vordefinierte Anzahl von Trainingszyklen durchgeführt wurde oder wenn eine vordefinierte Anzahl von neuen Trainingsdatenproben verarbeitet wurde oder wenn ein vordefiniertes Qualitätskriterium der Gesamtvorhersage erfüllt ist oder wenn in einer vordefinierten Zeit keine zusätzliche neue Trainingsdatenprobe mit einem Vorhersagequalitätswert unterhalb des vordefinierten Qualitätswerts ermittelt wurde.
  • In einigen Ausführungsformen weist das System auf ein Feststellen hin, dass der Vorhersagequalitätswert einer neuen unkommentierten Trainingsdatenprobe unter dem vordefinierten Qualitätswert liegt, außerdem ein Auslösen von Mitteln zum erneuten Bestätigen des zugehörigen Vorhersage-Label durch Anwenden eines Systems für selbstüberwachtes Lernen auf die neue Trainingsdatenprobe auf, um einen kombinierten Wert der statistischen Sicherheit für das Label zu erhöhen, dessen Vorhersagequalitätswert unter dem vordefinierten Qualitätswert liegt.
  • In einigen Ausführungsformen weist das System für selbstüberwachtes Lernen mindestens eine Fähigkeit auf, die aus der Gruppe ausgewählt wird, die aufweist: Drehen der empfangenen neuen Trainingsdatenprobe um einen vordefinierten Winkel und Vorhersagen des Drehwinkels, Kippen der empfangenen neuen Trainingsdatenprobe um einen vordefinierten Winkel und Vorhersagen des Kippwinkels, Neueinfärben der empfangenen neuen Trainingsdatenprobe und Vorhersagen der Klasse der neuen neueingefärbten Datenprobe, und Puzzeln der empfangenen neuen Trainingsdatenprobe und Vorhersagen der ursprünglichen Position einer Kachel.
  • In einigen Ausführungsformen sind die Auslösemittel so ausgelegt, dass sie nur aktiviert werden, wenn der erweiterte Trainingsdatensatz um eine vordefinierte Anzahl oder einen vordefinierten Prozentsatz neuer Trainingsdatenproben gewachsen ist.
  • In einigen Ausführungsformen verwendet das Modell für maschinelles Lernen ein System für tiefes maschinelles Lernen.
  • In einigen Ausführungsformen weist das System außerdem Alarmmittel zum Auslösen eines Alarmereignisses auf, wenn es feststellt, dass eine Vorhersagequalität einer empfangenen Datenprobe nicht verbessert werden kann.
  • In einigen Ausführungsformen verwendet das System in dem Fall, dass zwei im Wesentlichen äquivalente reale Sensoren verwendet werden, die einen Abstand zueinander haben und zusammenhängende Datenproben unter verschiedenen Winkeln von einem Objekt aus dem täglichen Leben erzeugen, die zusammenhängenden Datenproben außerdem zum Anpassen des Modells für maschinelles Lernen in einer Weise, dass für beide zusammenhängenden Datenproben identische Vorhersageergebnisse und identische Vorhersagequalitätswerte erzeugt werden.
  • Einige Ausführungsformen der vorliegenden Erfindung stellen ein Computerprogrammprodukt zum iterativen Trainieren eines Modells für maschinelles Lernen bereit, wobei das Computerprogrammprodukt ein durch einen Computer lesbares Speichermedium mit darin verkörperten Programmanweisungen aufweist, wobei die Programmanweisungen von einem oder mehreren Datenverarbeitungssystemen oder Steuereinheiten ausgeführt werden können, um das eine oder mehrere Datenverarbeitungssysteme zu veranlassen zum: Trainieren eines Modells für maschinelles Lernen unter Verwenden eines anfänglichen Satzes von Trainingsdatenproben, Empfangen einer neuen Trainingsdatenprobe, Vorhersagen eines Label für die neue Trainingsdatenprobe, Erweitern des anfänglichen Satzes, wenn festgestellt wird, dass ein Vorhersagequalitätswert für die Label-Vorhersage der neuen Trainingsdatenprobe unter einem vordefinierten Qualitätswert liegt, wodurch ein erweiterter Trainingsdatensatz gebildet wird, und Wiederholen des Trainierens mit dem erweiterten Trainingsdatensatz, des Empfangens, des Vorhersagens und des Erweiterns, bis ein Stoppkriterium erfüllt ist, wodurch das Modell für maschinelles Lernen iterativ trainiert wird.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 20140058 [0006]
    • US 20160078 [0007]

Claims (20)

  1. Durch einen Computer implementiertes Verfahren, das aufweist: Trainieren eines Modells für maschinelles Lernen unter Verwenden eines anfänglichen Satzes von Trainingsdatenproben; Empfangen einer neuen Trainingsdatenprobe; Vorhersagen eines Label für die neue Trainingsdatenprobe; wenn festgestellt wird, dass eine Vorhersagequalität für das vorhergesagte Label der neuen Trainingsdatenprobe unter einem vordefinierten Qualitätswert liegt, Hinzufügen der neuen Trainingsdatenprobe zum anfänglichen Satz, wodurch ein erweiterter Trainingsdatensatz gebildet wird; und erneutes Trainieren des Modells für maschinelles Lernen unter Verwenden des erweiterten Trainingsdatensatzes.
  2. Durch einen Computer implementiertes Verfahren nach Anspruch 1, das außerdem aufweist: iteratives Wiederholen des Empfangens, des Vorhersagens, des Hinzufügens und des erneuten Trainierens, bis eine Stoppbedingung erfüllt ist.
  3. Durch einen Computer implementiertes Verfahren nach Anspruch 2, wobei die Stoppbedingung erfüllt ist, wenn ein vordefinierter Trainingszeitwert erreicht ist.
  4. Durch einen Computer implementiertes Verfahren nach Anspruch 2, wobei die Stoppbedingung erfüllt ist, wenn eine vordefinierte Anzahl von Trainingszyklen durchgeführt wurde.
  5. Durch einen Computer implementiertes Verfahren nach Anspruch 2, wobei die Stoppbedingung erfüllt ist, wenn eine vordefinierte Anzahl neuer Trainingsdatenproben verarbeitet wurde.
  6. Durch einen Computer implementiertes Verfahren nach Anspruch 2, wobei die Stoppbedingung erfüllt ist, wenn eine vordefinierte Qualitätsbedingung der Gesamtvorhersage erfüllt ist.
  7. Durch einen Computer implementiertes Verfahren nach Anspruch 2, wobei die Stoppbedingung erfüllt ist, wenn in einer vordefinierten Zeit keine weitere neue Trainingsdatenprobe mit einem Vorhersagequalitätswert unterhalb des vordefinierten Qualitätswerts ermittelt wird.
  8. Durch einen Computer implementiertes Verfahren nach Anspruch 1, das außerdem aufweist: wenn festgestellt wird, dass der Vorhersagequalitätswert für das vorhergesagte Label der neuen Trainingsdatenprobe unter dem vordefinierten Qualitätswert liegt, erneutes Bestätigen des vorhergesagten Label der neuen Trainingsdatenprobe durch Anwenden eines Verfahrens für selbstüberwachtes Lernen auf die neue Trainingsdatenprobe.
  9. Durch einen Computer implementiertes Verfahren nach Anspruch 8, wobei das Verfahren für selbstüberwachtes Lernen mindestens ein Verfahren aus der Gruppe umfasst, die besteht aus: Drehen der neuen Trainingsdatenprobe um einen vordefinierten Drehwinkel und Vorhersagen des Drehwinkels; Kippen der neuen Trainingsdatenprobe um einen vordefinierten Kippwinkel und Vorhersagen des Kippwinkels; Neueinfärben der neuen Trainingsdatenprobe und Vorhersagen einer Klasse der sich ergebenden neueingefärbten Trainingsdatenprobe; und Puzzeln der neuen Trainingsdatenprobe und Vorhersagen einer ursprünglichen Position einer Kachel der neuen Trainingsdatenprobe.
  10. Durch einen Computer implementiertes Verfahren nach Anspruch 8, das außerdem aufweist: wenn festgestellt wird, dass der Vorhersagequalitätswert für das vorhergesagte Label der neuen Trainingsdatenprobe nicht verbessert werden kann, Auslösen eines Alarmereignisses.
  11. Computerprogrammprodukt, das ein oder mehrere durch einen Computer lesbare Speichermedien und Programmanweisungen aufweist, die gemeinsam auf dem einen oder den mehreren durch einen Computer lesbaren Speichermedien gespeichert sind, wobei die gespeicherten Programmanweisungen aufweisen: Programmanweisungen zum Trainieren eines Modells für maschinelles Lernen unter Verwenden eines anfänglichen Satzes von Trainingsdatenproben; Programmanweisungen zum Empfangen einer neuen Trainingsdatenprobe; Programmanweisungen zum Vorhersagen eines Label für die neue Trainingsdatenprobe; Programmanweisungen zum Hinzufügen der neuen Trainingsdatenprobe zum anfänglichen Satz, wenn festgestellt wird, dass ein Vorhersagequalitätswert für das vorhergesagte Label der neuen Trainingsdatenprobe unter einem vordefinierten Qualitätswert liegt, wodurch ein erweiterter Trainingsdatensatz gebildet wird; und Programmanweisungen zum erneuten Trainieren des Modells für maschinelles Lernen unter Verwenden des erweiterten Trainingsdatensatzes.
  12. Computerprogrammprodukt nach Anspruch 11, wobei die gespeicherten Programmanweisungen außerdem aufweisen: Programmanweisungen zum iterativen Wiederholen des Empfangens, des Vorhersagens, des Hinzufügens und des erneuten Trainierens, bis eine Stoppbedingung erfüllt ist.
  13. Computerprogrammprodukt nach Anspruch 11, wobei die gespeicherten Programmanweisungen außerdem aufweisen: Programmanweisungen zum erneuten Bestätigen des vorhergesagten Label der neuen Trainingsdatenprobe durch Anwenden eines Verfahrens für selbstüberwachtes Lernen auf die neue Trainingsdatenprobe, wenn festgestellt wird, dass der Vorhersagequalitätswert für das vorhergesagte Label der neuen Trainingsdatenprobe unter dem vordefinierten Qualitätswert liegt.
  14. Computerprogrammprodukt nach Anspruch 13, wobei das Verfahren für selbstüberwachtes Lernen mindestens ein Verfahren umfasst, das aus der Gruppe ausgewählt wird, die besteht aus: Drehen der neuen Trainingsdatenprobe um einen vordefinierten Drehwinkel und Vorhersagen des Drehwinkels; Kippen der neuen Trainingsdatenprobe um einen vordefinierten Kippwinkel und Vorhersagen des Kippwinkels; Neueinfärben der neuen Trainingsdatenprobe und Vorhersagen einer Klasse der sich ergebenden neueingefärbten Trainingsdatenprobe; und Puzzeln der neuen Trainingsdatenprobe und Vorhersagen einer ursprünglichen Position einer Kachel der neuen Trainingsdatenprobe.
  15. Computerprogrammprodukt nach Anspruch 13, wobei die gespeicherten Programmanweisungen außerdem aufweisen: Programmanweisungen zum Auslösen eines Alarmereignisses, wenn festgestellt wird, dass die Vorhersagequalität für das vorhergesagte Label der neuen Trainingsdatenprobe nicht verbessert werden kann.
  16. Computersystem, das aufweist: einen Satz aus einem oder mehreren Prozessoren; und ein durch einen Computer lesbares Speichermedium; wobei: der Satz aus einem oder mehreren Prozessoren so strukturiert, angeordnet, verbunden und/oder programmiert ist, dass er auf dem durch einen Computer lesbaren Speichermedium gespeicherte Programmanweisungen ausführt; und die gespeicherten Programmanweisungen aufweisen: Programmanweisungen zum Trainieren eines Modells für maschinelles Lernen unter Verwenden eines anfänglichen Satzes von Trainingsdatenproben; Programmanweisungen zum Empfangen einer neuen Trainingsdatenprobe; Programmanweisungen zum Vorhersagen eines Label für die neue Trainingsdatenprobe; Programmanweisungen zum Hinzufügen der neuen Trainingsdatenprobe zum anfänglichen Satz, wenn festgestellt wird, dass ein Vorhersagequalitätswert für das vorhergesagte Label der neuen Trainingsdatenprobe unter einem vordefinierten Qualitätswert liegt, wodurch ein erweiterter Trainingsdatensatz gebildet wird; und Programmanweisungen zum erneuten Trainieren des Modells für maschinelles Lernen unter Verwenden des erweiterten Trainingsdatensatzes.
  17. Computersystem nach Anspruch 16, wobei die gespeicherten Programmanweisungen außerdem aufweisen: Programmanweisungen zum iterativen Wiederholen des Empfangens, des Vorhersagens, des Hinzufügens und des erneuten Trainierens, bis eine Stoppbedingung erfüllt ist.
  18. Computersystem nach Anspruch 16, wobei die gespeicherten Programmanweisungen außerdem aufweisen: Programmanweisungen zum erneuten Bestätigen des vorhergesagten Label der neuen Trainingsdatenprobe durch Anwenden eines Verfahrens für selbstüberwachtes Lernen auf die neue Trainingsdatenprobe, wenn festgestellt wird, dass der Vorhersagequalitätswert für das vorhergesagte Label der neuen Trainingsdatenprobe unter dem vordefinierten Qualitätswert liegt.
  19. Computersystem nach Anspruch 18, wobei das Verfahren für selbstüberwachtes Lernen mindestens ein Verfahren umfasst, das aus der Gruppe ausgewählt wird, die besteht aus: Drehen der neuen Trainingsdatenprobe um einen vordefinierten Drehwinkel und Vorhersagen des Drehwinkels; Kippen der neuen Trainingsdatenprobe um einen vordefinierten Kippwinkel und Vorhersagen des Kippwinkels; Neueinfärben der neuen Trainingsdatenprobe und Vorhersagen einer Klasse der sich ergebenden neueingefärbten Trainingsdatenprobe; und Puzzeln der neuen Trainingsdatenprobe und Vorhersagen einer ursprünglichen Position einer Kachel der neuen Trainingsdatenprobe.
  20. Computersystem nach Anspruch 18, wobei die gespeicherten Programmanweisungen außerdem aufweisen: Programmanweisungen zum Auslösen eines Alarmereignisses, wenn festgestellt wird, dass die Vorhersagequalität für das vorhergesagte Label der neuen Trainingsdatenprobe nicht verbessert werden kann.
DE112021002453.1T 2020-04-21 2021-02-10 Iteratives trainieren eines modells für maschinelles lernen Pending DE112021002453T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US16/853,924 US11443242B2 (en) 2020-04-21 2020-04-21 Iterative training of a machine learning model
US16/853,924 2020-04-21
PCT/IB2021/051060 WO2021214558A1 (en) 2020-04-21 2021-02-10 Iterative training of machine learning model

Publications (1)

Publication Number Publication Date
DE112021002453T5 true DE112021002453T5 (de) 2023-02-02

Family

ID=78081771

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112021002453.1T Pending DE112021002453T5 (de) 2020-04-21 2021-02-10 Iteratives trainieren eines modells für maschinelles lernen

Country Status (6)

Country Link
US (1) US11443242B2 (de)
JP (1) JP2023523519A (de)
CN (1) CN115427988A (de)
DE (1) DE112021002453T5 (de)
GB (1) GB2610335A (de)
WO (1) WO2021214558A1 (de)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11443242B2 (en) 2020-04-21 2022-09-13 International Business Machines Corporation Iterative training of a machine learning model
US11657332B2 (en) * 2020-06-12 2023-05-23 Baidu Usa Llc Method for AI model transferring with layer randomization
US11816183B2 (en) * 2020-12-11 2023-11-14 Huawei Cloud Computing Technologies Co., Ltd. Methods and systems for mining minority-class data samples for training a neural network
CN115859122B (zh) * 2023-02-02 2023-06-02 中国电子科技集团公司第十五研究所 一种数据识别方法、自动持续学习模型、装置和设备
CN116432091B (zh) * 2023-06-15 2023-09-26 山东能源数智云科技有限公司 基于小样本的设备故障诊断方法、模型的构建方法及装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140058983A1 (en) 2012-08-23 2014-02-27 Hudek Karl Alexander Systems and methods for training and classifying data
US20160078361A1 (en) 2014-09-11 2016-03-17 Amazon Technologies, Inc. Optimized training of linear machine learning models

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9600776B1 (en) 2013-11-22 2017-03-21 Groupon, Inc. Automated adaptive data analysis using dynamic data quality assessment
US10614373B1 (en) 2013-12-23 2020-04-07 Groupon, Inc. Processing dynamic data within an adaptive oracle-trained learning system using curated training data for incremental re-training of a predictive model
CN104317894B (zh) 2014-10-23 2018-12-21 北京百度网讯科技有限公司 样本标注的确定方法和装置
US9699205B2 (en) 2015-08-31 2017-07-04 Splunk Inc. Network security system
US10692015B2 (en) * 2016-07-15 2020-06-23 Io-Tahoe Llc Primary key-foreign key relationship determination through machine learning
US10706114B2 (en) 2017-11-17 2020-07-07 Facebook, Inc. Systems and methods for using link graphs to demote links to low-quality webpages
US10867510B2 (en) * 2018-04-05 2020-12-15 Toyota Jidosha Kabushiki Kaisha Real-time traffic monitoring with connected cars
US11087173B2 (en) * 2018-12-27 2021-08-10 Beijing Didi Infinity Technology And Development Co., Ltd. Using image pre-processing to generate a machine learning model
US11443242B2 (en) 2020-04-21 2022-09-13 International Business Machines Corporation Iterative training of a machine learning model

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140058983A1 (en) 2012-08-23 2014-02-27 Hudek Karl Alexander Systems and methods for training and classifying data
US20160078361A1 (en) 2014-09-11 2016-03-17 Amazon Technologies, Inc. Optimized training of linear machine learning models

Also Published As

Publication number Publication date
GB2610335A (en) 2023-03-01
US20210326749A1 (en) 2021-10-21
GB202217089D0 (en) 2022-12-28
WO2021214558A1 (en) 2021-10-28
JP2023523519A (ja) 2023-06-06
CN115427988A (zh) 2022-12-02
US11443242B2 (en) 2022-09-13

Similar Documents

Publication Publication Date Title
DE112021002453T5 (de) Iteratives trainieren eines modells für maschinelles lernen
DE102020002964A1 (de) Verwenden eines neuronalen Netzwerks mit einer Zwei-Strom Encoder-Architektur zur Erzeugung digitaler Kompositbilder
DE112018005227T5 (de) Merkmalsextraktion mithilfe von multi-task-lernen
DE112020000584T5 (de) Verfahren für unüberwachte bild-zu-bild-übersetzung mit wenigen aufnahmen
DE112018000349T5 (de) Visuelles Analysesystem für auf einem konvolutionalen neuronalen Netz basierte Klassifizierer
DE102019007196A1 (de) Identifizieren von Zielobjekten unter Nutzung der skalierungsdiversen Segmentierung dienender neuronaler Netzwerke
DE112020000537T5 (de) Verbesserung von fairness durch bestärkendes lernen
DE112017005538T5 (de) Automatisierte Erzeugung von Arbeitsabläufen
DE112018006189T5 (de) Robuste gradienten-gewichtskomprimierungsschemata für deep-learning-anwendungen
DE102020007951A1 (de) Einsetzen eines der Einfärbung dienenden neuronalen Netzwerkes zum Generieren von eingefärbten Bildern auf Grundlage interaktiver Farbkanten
DE112018005205T5 (de) Komprimierung von vollständig verbundenen / wiederkehrenden Schichten von einem oder mehreren tiefen Netzen durch Durchsetzen von räumlicher Lokalität für Gewichtsmatrizen und erwirken von Frequenzkomprimierung
DE112011104487T5 (de) Verfahren und System zur prädiktiven Modellierung
DE10317917A1 (de) System und Verfahren zum Umgrenzen und Klassifizieren von Regionen innerhalb einer graphischen Abbildung
DE112020005610T5 (de) Identifizieren von optimalen gewichtungen zum verbessern einervorhersagegenauigkeit bei methoden für maschinelles lernen
DE112021000392T5 (de) Leistungsfähiges kommentieren der grundwahrheit
DE112020003365T5 (de) Überwachte kreuzmodale wiedergewinnung für zeitreihen und text unter verwendung von multimodalen triplettverlusten
DE112021002867T5 (de) Defektdetektion für eine leiterplattenbaugruppe
DE112019003326T5 (de) Speichererweiterte neuronale netzwerkarchitekturen eines codierers-decodierers
DE102017005964A1 (de) Techniken zum Auswählen von Objekten in Bildern
DE112020001034T5 (de) Seltene fälle berücksichtigende trainingsdaten für künstliche intelligenz
DE112020000545T5 (de) Deep-forest-modell-entwicklung und -training
DE112020005732T5 (de) Erzeugen von trainingsdaten zur objekterkennung
DE102022003003A1 (de) Automatische Fotobearbeitung mittels sprachlicher Anweisung
DE112021006280T5 (de) Generieren von daten auf grundlage von vorab trainierten modellen unter verwendung generierender konkurrierender modelle
DE112021005569T5 (de) Kontradiktorisches, halbüberwachtes one-shot-lernen

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R084 Declaration of willingness to licence