DE102018210003A1 - Method and device for teaching a machine learning model - Google Patents

Method and device for teaching a machine learning model Download PDF

Info

Publication number
DE102018210003A1
DE102018210003A1 DE102018210003.9A DE102018210003A DE102018210003A1 DE 102018210003 A1 DE102018210003 A1 DE 102018210003A1 DE 102018210003 A DE102018210003 A DE 102018210003A DE 102018210003 A1 DE102018210003 A1 DE 102018210003A1
Authority
DE
Germany
Prior art keywords
model
semantic
value
deviation value
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102018210003.9A
Other languages
German (de)
Inventor
Antonios Karatzoglou
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102018210003.9A priority Critical patent/DE102018210003A1/en
Publication of DE102018210003A1 publication Critical patent/DE102018210003A1/en
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/042Knowledge-based neural networks; Logical representations of neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • G06N5/022Knowledge engineering; Knowledge acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Machine Translation (AREA)

Abstract

Die vorliegende Erfindung betrifft ein Verfahren zum Anlernen eines Modells für maschinelles Lernen, mit den Schritten eines Berechnens (S101) eines Lern-Istwertes durch das Modell für maschinelles Lernen auf Basis von Eingabedaten; eines Bestimmens (S102) eines numerischen Abweichungswertes, der eine semantische Abweichung zwischen dem berechneten Lern-Istwert und einem vorgegebenen Lern-Sollwert angibt; und eines Anpassen (S103) des Modells für maschinelles Lernen auf Basis des Abweichungswertes.The present invention relates to a method for teaching a model for machine learning, comprising the steps of calculating (S101) an actual learning value by means of the machine learning model on the basis of input data; determining (S102) a numerical deviation value indicating a semantic deviation between the calculated actual learning value and a predetermined learning target value; and adapting (S103) the machine learning model based on the deviation value.

Description

Die vorliegende Erfindung betrifft ein Verfahren zum Anlernen eines Modells für maschinelles Lernen (Machine Learning Model), ein Computerprogramm und computerlesbares Speichermedium.The present invention relates to a method for teaching a machine learning model, a computer program and computer-readable storage medium.

Stand der TechnikState of the art

Aktuelle Verfahren für maschinelles Lernen (Machine Learning) sind im Vergleich zu wissensbasierten Systemen, die auf strukturierten Wissensmodellen aufbauen, datengetriebene Verfahren (Data-driven vs. Knowledge-driven Systems).Current processes for machine learning (compared to knowledge-based systems based on structured knowledge models) are data-driven processes (data-driven vs. knowledge-driven systems).

Datengetriebene Verfahren speisen das interne Modell mit Daten, um es für eine bestimmte Aufgabe zu trainieren. Dabei weiß das Modell nicht, d.h. der Machine Learner, um welche Daten es sich handelt und in welcher Beziehung die Daten zueinander stehen, mit denen es trainiert wird. Es fehlt die Eigenschaft einer semantischen Interpretation der Daten. Die Maschine versteht daher nicht genau, welcher Art die Daten sind.Data-driven processes feed the internal model with data in order to train it for a specific task. The model does not know, i.e. the machine learner, what the data is and how the data with which it is trained relate to each other. The property of a semantic interpretation of the data is missing. The machine therefore does not understand exactly what the data are.

Die Druckschrift DE 69 217 047 T2 betrifft adaptive Informationsverarbeitungssysteme und neurale Netzwerk-Systeme, die aus einem automatischen organisatorischen Apparat und Verfahren bestehen für die dynamische Aufzeichnung einer Eingabe in eine semantisch kongruente und gleichzeitig gültige korrekte Antwort.The publication DE 69 217 047 T2 relates to adaptive information processing systems and neural network systems which consist of an automatic organizational apparatus and method for the dynamic recording of an input in a semantically congruent and at the same time valid correct answer.

Die Druckschrift DE 69 130 246 T2 betrifft ein Satzbildungsverfahren und -system zur Erzeugung von Sätzen in einer Sprache, wie beispielsweise Japanisch oder Englisch, aus einer semantischen Darstellung, die in das System eingegeben wurde. Dabei kann eine Anordnung angewendet werden, bei der ein neuronales Netz zur Durchführung des Lernens verwendet wird, indem semantische Darstellungen und ein Satz von diesen entsprechenden geeigneten Ausgabesätzen verwendet und eine Bewertung beruhend auf den Ergebnissen des Lernens durchgeführt wird.The publication DE 69 130 246 T2 relates to a sentence formation method and system for generating sentences in a language, such as Japanese or English, from a semantic representation that has been entered into the system. Here, an arrangement can be used in which a neural network is used to carry out the learning, by using semantic representations and a set of suitable output sentences corresponding to these and carrying out an evaluation based on the results of the learning.

Die Druckschrift DE 10 2016 005 407 A1 betrifft ein gemeinsames Tiefenschätzen und semantisches Bezeichnen eines einzelnen Bildes. Semantische Bezeichner und Tiefenwerte werden für jeden Pixel in einer jeweiligen lokalen Segmentierung ebenfalls unter Verwendung von maschinellem Lernen prädiziert, und semantische Bezeichner werden gelernt, um Pixel mit dem Segment lokal mit einem Bezeichner zu versehen bzw. zu taggen.The publication DE 10 2016 005 407 A1 concerns a common depth estimation and semantic labeling of a single image. Semantic identifiers and depth values are also predicted for each pixel in a respective local segmentation using machine learning, and semantic identifiers are learned to locally label pixels with the segment.

Die Druckschrift EP 1 183 619 B1 betrifft ein semantisches Netz, in welchem ein Operieren innerhalb des semantischen Netzes abhängig von einer jeweiligen in dem semantischen Netz vorliegenden Situation durchgeführt wird. Das semantische Netz umfasst sowohl semantische Einheiten, die Beziehungsinhalte besitzen, als auch Verknüpfungseinheiten, die einen Beziehungsinhalt beschreiben, der jeweils zwei semantische Einheiten verknüpft.The publication EP 1 183 619 B1 relates to a semantic network in which an operation within the semantic network is carried out depending on a particular situation in the semantic network. The semantic network comprises both semantic units that have relationship content and link units that describe a relationship content that links two semantic units in each case.

Offenbarung der ErfindungDisclosure of the invention

Vorteile der ErfindungAdvantages of the invention

Ein erster Aspekt betrifft ein Verfahren zum Anlernen eines Modells für maschinelles Lernen, mit den Schritten eines Berechnens eines Lern-Istwertes durch das Modell für maschinelles Lernen auf Basis von Eingabedaten; eines Bestimmens eines numerischen Abweichungswertes, der eine semantische Abweichung zwischen dem berechneten Lern-Istwert und einem vorgegebenen Lern-Sollwert angibt; und eines Anpassens des Modells für maschinelles Lernen auf Basis des Abweichungswertes. Dadurch kann das Anlernen eines Modells für maschinelles Lernen um ein Mehrfaches beschleunigt werden. Durch das Verfahren wird der technische Vorteil einer verbesserten Performanz in Hinsicht auf die Vorhersage-, Klassifikations-, Regressions- oder Erkennungsrate und Genauigkeit, einer geringen Trainingszeit des Modells erreicht.A first aspect relates to a method for teaching a model for machine learning, with the steps of calculating an actual learning value by means of the machine learning model on the basis of input data; determining a numerical deviation value indicating a semantic deviation between the calculated actual learning value and a predetermined learning target value; and adapting the machine learning model based on the deviation value. This can accelerate the learning of a machine learning model many times over. The method achieves the technical advantage of improved performance with regard to the prediction, classification, regression or recognition rate and accuracy, and a short training time for the model.

In einer technisch vorteilhaften Ausführungsform des Verfahrens implementiert das Model ein neuronales Netz. Dadurch wird beispielsweise der technische Vorteil erreicht, dass die Lern-Istwerte auf schnelle Art und Weise erzeugt werden können.In a technically advantageous embodiment of the method, the model implements a neural network. This has the technical advantage, for example, that the actual learning values can be generated quickly.

In einer weiteren technisch vorteilhaften Ausführungsform des Verfahrens wird eine Fehlerrückführung (Back Propagation) durch das neuronale Netz auf Basis des Abweichungswertes durchgeführt. Dadurch wird beispielsweise der technische Vorteil erreicht, dass eine effiziente Anpassung des Modells vorgenommen werden kann.In a further technically advantageous embodiment of the method, error propagation (back propagation) is carried out by the neural network on the basis of the deviation value. This has the technical advantage, for example, that an efficient adaptation of the model can be carried out.

In einer weiteren technisch vorteilhaften Ausführungsform des Verfahrens wird eine Verlustfunktion des neuronalen Netzes durch den Abweichungswert angepasst. Dadurch wird beispielsweise der technische Vorteil erreicht, dass eine einfache und schnelle Anpassung des Modells vorgenommen werden kann.In a further technically advantageous embodiment of the method, a loss function of the neural network is adjusted by the deviation value. This gives the technical advantage, for example, that the model can be adapted quickly and easily.

In einer weiteren technisch vorteilhaften Ausführungsform des Verfahrens wird die Verlustfunktion mit dem Abweichungswert multipliziert. Dadurch wird beispielsweise der technische Vorteil erreicht, dass das Modell mit einem geringen Aufwand angepasst werden kann und sich das Anlernen des Modells beschleunigt.In a further technically advantageous embodiment of the method, the loss function is multiplied by the deviation value. This achieves the technical advantage, for example, that the model can be adapted with little effort and the learning of the model is accelerated.

In einer weiteren technisch vorteilhaften Ausführungsform des Verfahrens gibt der Abweichungswert eine semantische Ähnlichkeit oder semantische Verwandtheit zwischen dem Lern-Istwert und dem Lern-Sollwert an. Dadurch wird beispielsweise der technische Vorteil erreicht, dass das Modell unterschiedliche semantische Konzepte umsetzen kann.In a further technically advantageous embodiment of the method, the Deviation value indicates a semantic similarity or semantic relationship between the actual learning value and the learning target value. This achieves the technical advantage, for example, that the model can implement different semantic concepts.

In einer weiteren technisch vorteilhaften Ausführungsform des Verfahrens wird eine semantische Wissensbasis zum Bestimmen des numerischen Abweichungswertes verwendet. Dadurch wird beispielsweise der technische Vorteil erreicht, dass der Abweichungswert zuverlässig bestimmt werden kann.In a further technically advantageous embodiment of the method, a semantic knowledge base is used to determine the numerical deviation value. This achieves the technical advantage, for example, that the deviation value can be determined reliably.

In einer weiteren technisch vorteilhaften Ausführungsform des Verfahrens ist das Modell für maschinelles Lernen ein probabilistisches Modell und Übergangswahrscheinlichkeiten werden auf Basis des Abweichungswertes angepasst. Dadurch wird beispielsweise der technische Vorteil erreicht, dass ein effizientes Modell zum Berechnen des Lern-Istwertes herangezogen wird.In a further technically advantageous embodiment of the method, the machine learning model is a probabilistic model and transition probabilities are adjusted on the basis of the deviation value. This gives the technical advantage, for example, that an efficient model is used to calculate the actual learning value.

Ein zweiter Aspekt betrifft ein Computerprogramm, umfassend Befehle, die bei der Ausführung des Programms durch einen Computer diesen veranlassen, das Verfahren nach dem ersten Aspekt auszuführen. Dadurch werden die gleichen technischen Vorteile wie durch das Verfahren nach dem ersten Aspekt erreicht.A second aspect relates to a computer program, comprising instructions which, when the program is executed by a computer, cause the computer to carry out the method according to the first aspect. This achieves the same technical advantages as the method according to the first aspect.

Ein dritter Aspekt betrifft ein computerlesbares Speichermedium, umfassend Befehle, die bei der Ausführung durch einen Computer diesen veranlassen, das Verfahren nach dem ersten Aspekt auszuführen. Dadurch werden die gleichen technischen Vorteile wie durch das Verfahren nach dem ersten Aspekt erreicht.A third aspect relates to a computer-readable storage medium, comprising instructions which, when executed by a computer, cause the computer to carry out the method according to the first aspect. This achieves the same technical advantages as the method according to the first aspect.

Ein vierter Aspekt betrifft eine Vorrichtung, die eingerichtet ist, das Verfahren nach dem ersten Aspekt auszuführen. Dadurch werden die gleichen technischen Vorteile wie durch das Verfahren nach dem ersten Aspekt erreicht.A fourth aspect relates to a device which is set up to carry out the method according to the first aspect. This achieves the same technical advantages as the method according to the first aspect.

Ausführungsbeispiele der Erfindung sind in den Zeichnungen dargestellt und in der nachfolgenden Beschreibung näher erläutert. Es zeigen

  • 1 eine schematische Ansicht eines Modells für maschinelles Lernen;
  • 2 eine schematische Ansicht einer semantischen Analyse; und
  • 3 ein Blockdiagramm des Verfahrens.
Embodiments of the invention are shown in the drawings and explained in more detail in the following description. Show it
  • 1 a schematic view of a model for machine learning;
  • 2 a schematic view of a semantic analysis; and
  • 3 a block diagram of the method.

1 zeigt eine schematische Ansicht eines Modells 100 für maschinelles Lernen. Das Modell 100 umfasst ein neuronales Netz 101. Das Modell 100 wird zu einem semantisch verbesserten maschinellen Lernen (Semantic Enhanced Machine Learning - SEML) durch eine semantisch modifizierte Backpropagation (Semantic-Enhanced Backpropagation (SEBP)) verwendet. Dadurch wird eine höhere Transparenz und ein reduzierter Bedarf an Trainingsdaten erreicht. Das neuronale Netz 101 lernt auf diese Weise semantische Beziehungen zwischen den Daten. Intelligente, selbstlernende Systeme können damit schneller, besser und genauer lernen. 1 shows a schematic view of a model 100 for machine learning. The model 100 comprises a neural network 101 , The model 100 is used for a semantically improved machine learning (SEML) through a semantically modified backpropagation (Semantic-Enhanced Backpropagation (SEBP)). This results in a higher transparency and a reduced need for training data. The neural network 101 in this way learns semantic relationships between the data. Intelligent, self-learning systems can learn faster, better and more precisely.

Das neuronale Netz 101 umfasst eine Eingabeschicht 103-1 (Input Layer), ein oder mehrere verarbeitende Schichten 103-2 (Hidden Layer) und eine Ausgabeschicht 103-M (Output Layer). In die Eingabeschicht 103-1 wird ein Eingangsvektor 125 eingegeben, wie beispielsweise ein gegenwärtiger Aufenthaltsort eines Benutzers. Der Eingabevektor 125 wird mittels eines Encoders 109 erzeugt und stellt den Eingabewert 105 binär dar.The neural network 101 includes an input layer 103-1 (Input layer), one or more processing layers 103-2 (Hidden layer) and an output layer 103-M (Output layer). In the input layer 103 - 1 becomes an input vector 125 such as a user's current location. The input vector 125 is by means of an encoder 109 generates and sets the input value 105 represent binary.

Die verarbeitenden Schichten 103-2 agieren als Neuronen mit Aktivierungsfunktion, wie beispielsweise einem Schwellwert (Signum-Funktion), einer Tangens-Hyperbolicus -Funktion, einer Sigmoid-Funktion oder einer ReLU-Funktion (ReLU - Rectified Linear Unit). Der binäre Ausgabevektor 107 des neuronalen Netzes 100 wird durch die Werte der Ausgabeschicht 101-M erhalten. Aus dem Ausgabevektor 107 werden mittels des Decoders 111 die Ausgabedaten 127 erhalten.The processing layers 103-2 act as neurons with an activation function, such as a threshold (signum function), a tangent hyperbolic function, a sigmoid function or a ReLU function (ReLU - Rectified Linear Unit). The binary output vector 107 of the neural network 100 is determined by the values of the output layer 101-M receive. From the output vector 107 are by means of the decoder 111 the output data 127 receive.

Bei der Weiterleitung der Eingabedaten 105 an die nachfolgende verarbeitende Schicht 103-2 werden die jeweiligen Komponenten des Eingangsvektors mit entsprechenden Kantengewichten multipliziert. Dies geschieht ebenfalls bei jeder Weiterleitung an eine nachfolgende Schicht 103-M. Die Kantengewichte einer Schicht 103-1, ..., 103-M sind beispielsweise Fließkommazahlen. Diese Vorwärtsprozessierung der Eingangsdaten durch das neuronale Netz wird als Forward-Propagation bezeichnet.When forwarding the input data 105 to the subsequent processing layer 103-2 the respective components of the input vector are multiplied by corresponding edge weights. This also happens every time it is forwarded to a subsequent layer 103-M , The edge weights of a layer 103-1 , ..., 103-M are, for example, floating point numbers. This forward processing of the input data by the neural network is referred to as forward propagation.

Die Ausgabedaten 127 in Reaktion auf die Eingabedaten 105 stellen den Lern-Istwert des neuronalen Netzes 101 dar. Sobald das neuronale Netz 101 den Lern-Istwert ermittelt hat, wird ein numerischer Abweichungswert 115 bestimmt, der eine semantische Abweichung zwischen dem berechneten Lern-Istwert des neuronalen Netzes 101 und dem vorgegebenen Lern-Sollwert angibt.The output data 127 in response to the input data 105 set the actual learning value of the neural network 101 Once the neural network 101 has determined the actual learning value, becomes a numerical deviation value 115 which determines a semantic deviation between the calculated actual learning value of the neural network 101 and the specified learning target value.

Bei der semantischen Vorhersage (Prädiktion) eines Aufenthaltsortes mittels des Modells 100 soll beispielsweise der semantische Typ (semantische Location) des nächstbesuchten Aufenthaltsortes eines Benutzers vorhergesagt werden. Wird ein gegenwärtiger Aufenthaltsort als Eingabe in das neuronale Netz 101 eingegeben, kann das angelernte neuronale Netz 101 beispielsweise den semantischen Typ des nächsten Aufenthaltsorts des Benutzers vorausberechnen.With the semantic prediction (prediction) of a location using the model 100 For example, the semantic type (semantic location) of a user's next visited location is to be predicted. Will be a current location as input into the neural network 101 entered, the learned neural network 101 for example, predict the semantic type of the user's next location.

Beispielsweise ist ein Benutzer zu einer bestimmten Uhrzeit zuhause. Das Modell 100 soll anhand von gelernten Daten vorhersagen, wo sich der Benutzer als nächstes aufhält. Der nächste Aufenthaltsort könnte beispielsweise ein Fast-Food-Restaurant M sein. Demnach wäre also Fast-Food-Restaurant M als Lokationsklasse der Instanz Fast-Food-Restaurant die korrekte Vorhersagelösung (Ground Truth). For example, a user is at home at a specific time. The model 100 based on learned data to predict where the user will be next. The next location could be a fast food restaurant, for example M his. So that would be fast food restaurant M the correct prediction solution (ground truth) as the location class of the instance of the fast food restaurant.

Bei den heutigen Trainingsverfahren gibt es hierzu zwei Möglichkeiten. Erstens das Modell 100 schätzt richtig, d.h. Fast-Food-Restaurant. In diesem Fall lernt das Modell nichts und es wird mit der nächsten Vorhersage fortgefahren. Zweitens das Modell 100 schätzt falsch, wie beispielsweise „Fitness Studio“ als nächsten Aufenthaltsort des Benutzers. In diesem Fall wird das neuronale Netz 101 entsprechend bestraft, indem dessen Parameter entsprechend rekonfiguriert und aktualisiert werden. Obwohl es um eine semantische Information geht, verstehen aktuelle Vorhersagemodelle, die auf maschinellem Lernen basieren, nicht, worum es bei den semantischen Lokationen geht. Beispielsweise verstehen die Modelle nicht die Zusammenhänge und Bedeutung von „Zuhause“, „Arbeitsplatz“ oder „Restaurant“.With today's training methods, there are two options. First, the model 100 guess right, ie fast food restaurant. In this case, the model learns nothing and continues with the next prediction. Second, the model 100 estimates incorrectly, such as "Gym" as the user's next location. In this case, the neural network 101 punished accordingly by reconfiguring and updating its parameters accordingly. Although semantic information is involved, current predictive models based on machine learning do not understand what semantic locations are all about. For example, the models do not understand the connections and meaning of "home", "workplace" or "restaurant".

Falls das Modell 100 als nächsten Aufenthaltsort jedoch „Chinesisches Restaurant“ schätzen würde, würde es den nächsten Aufenthaltsort des Benutzers ebenfalls falsch vorhersagen. In derzeitigen Modellen 100 wird eine qualitativ gleiche Anpassung („Bestrafung“) des neuronalen Netzes 101 wie im Falle der falschen Vorhersage „Fitness Studio“ vorgenommen.If the model 100 however, if the next location was estimated to be "Chinese restaurant", it would also incorrectly predict the user's next location. In current models 100 becomes a qualitatively equal adaptation ("punishment") of the neural network 101 as in the case of the wrong prediction "Gym".

Allerdings liegt die Vorhersage „chinesisches Restaurant“ semantisch näher an „Fast-Food-Restaurant M“ als an „Fitness Studio“. Beide Vorhersagen gehören zu der Kategorie der „Fast Food Restaurants“. Ein Mensch würde diese Vorhersage des Modells intuitiver, unschärfer (fuzzier) als nah, aber nicht nah genug interpretieren.However, the prediction "Chinese restaurant" is semantically closer to "fast food restaurant" M "Than at" Fitness Studio ". Both predictions belong to the category of "fast food restaurants". A human being would interpret this prediction of the model more intuitively, more vaguely (fuzzier) than close, but not close enough.

Um dieses Wissen in das Modell 100 zurückzuführen, wird die Art der Interbeziehungen der Konzepte durch einen Abweichungswert 115 numerisch repräsentiert, der beispielsweise mit Hilfe einer semantischen Analyse 113 gewonnen wird. Der Abweichungswert 115 gibt den Grad einer semantischen Abweichung zwischen dem berechneten Lern-Istwert („Fitness-Studio“ oder „chinesisches Restaurant“) und dem Lern-Sollwert („Fast Food Restaurant“) an. Im Falle des Lern-Istwertes „Fitness-Studio“ ist der Abweichungswert 115 höher als im Falle des Lern-Istwertes „chinesisches Restaurant“. Auf diese Weise wird die semantische Lokation numerisch kodiert (z.B. binär) und ins Model 100 eingeführt und weiterverarbeitet.To this knowledge in the model 100 The nature of the interrelationship between the concepts is attributed to a deviation value 115 represented numerically, for example with the help of a semantic analysis 113 is won. The deviation value 115 indicates the degree of a semantic deviation between the calculated actual learning value ("fitness studio" or "Chinese restaurant") and the learning target value ("fast food restaurant"). In the case of the actual learning value "fitness studio" is the deviation value 115 higher than in the case of the actual learning value "Chinese restaurant". In this way, the semantic location is numerically encoded (eg binary) and into the model 100 introduced and processed.

Die Information dieser semantischen Ähnlichkeit zwischen dem vorhergesagten Lern-Istwert des Modells 100 und dem tatsächlichen Lern-Sollwert (Ground Truth) kann verwendet werden, um das Training und das Modell 100 schneller zu optimieren. Der Begriff der Semantik bezieht sich auf die Interpretation und das Verstehen der Konzepte und der Beziehungen zwischen diesen. In der Informatik ist die Bestimmung der Semantik in der Regel auf Graph-ähnliche, konzeptuelle und logische Konstrukte (z.B. Knowledge Graphs, Linked Data, Ontologien) angewiesen.The information of this semantic similarity between the predicted actual learning value of the model 100 and the actual learning target (Ground Truth) can be used to train and model 100 optimize faster. The term semantics refers to the interpretation and understanding of the concepts and the relationships between them. In computer science, the determination of semantics is usually dependent on graph-like, conceptual and logical constructs (e.g. knowledge graphs, linked data, ontologies).

Der numerische Abweichungswert 115 wird verwendet, um beispielsweise eine Verlustfunktion (Loss Funktion) 117 oder die Gewichte oder andere Parameter des Modells 100 entsprechend anzupassen und aktualisieren. Bei einem höheren semantischen Abweichungswert 115 wird das Modell 100 stärker angepasst als bei einem niedrigeren Abweichungswert 115. Die Verlustfunktion 117 ist die Funktion, die im Prozess der Modellanpassung minimiert wird. Die Verlustfunktion 117 stellt ein ausgesuchtes Maß der Diskrepanz zwischen den beobachteten Daten und den mit der angepassten Funktion „vorhergesagten“ Daten dar.The numerical deviation value 115 is used to, for example, a loss function 117 or the weights or other parameters of the model 100 adjust and update accordingly. With a higher semantic deviation value 115 becomes the model 100 more adjusted than with a lower deviation value 115 , The loss function 117 is the function that is minimized in the process of model adaptation. The loss function 117 represents a selected measure of the discrepancy between the observed data and the data "predicted" with the adjusted function.

Durch das semantisch verbesserte maschinelle Lernen wird semantisches Wissen in das Modell 100 zurückgegeben. Dabei kann das semantische Wissen Standardwissen sein, Common Sense Knowledge, Expertenwissen, oder persönliches (personalisiertes) Wissen sein, das von den Erfahrungen und Präferenzen des Benutzers beeinflusst wird. Im letzten Fall ist das Verfahren besonders im Bereich der Benutzer-Modellierung (User Modeling) and der Mensch-Computer-Interaction (Human-Computer-Interaction) vorteilhaft.Through semantically improved machine learning, semantic knowledge is incorporated into the model 100 returned. The semantic knowledge can be standard knowledge, common sense knowledge, expert knowledge, or personal (personalized) knowledge that is influenced by the experiences and preferences of the user. In the latter case, the method is particularly advantageous in the area of user modeling and human-computer interaction (human-computer interaction).

2 zeigt eine schematische Ansicht einer semantischen Analyse 113 zur Bestimmung des Abweichungswertes 115. Für die Bestimmung des semantischen Abweichungswertes 115 kann eine semantische Wissensbasis (Knowledge Base) 119, oder semantisches Wissen im Allgemeinen 123 als Informationsquelle in einem selbstlernenden Mechanismus verwendet werden. 2 shows a schematic view of a semantic analysis 113 to determine the deviation value 115 , For the determination of the semantic deviation value 115 can be a semantic knowledge base 119, or semantic knowledge in general 123 be used as a source of information in a self-learning mechanism.

Strukturiertes Wissen, strukturierte Daten oder Informationen können direkt aus externen oder internen Wissens- und Datenbasen verwendet werden. Unstrukturiertes Wissen wird zuerst zu einem strukturierten Konstrukt vorverarbeitet. Der aus den Wissensbasen 119 extrahierte semantische Abweichungswert 115 kann entweder an der Ausgabe 129 des Modells 100 eingesetzt werden, beispielsweise durch semantische Backpropagation. Der extrahierte semantische Abweichungswert 115 kann auch im Kern des Modells 100 eingesetzt werden, beispielsweise durch Anpassung von Modellparametern, wie Gewichten, Übergangswahrscheinlichkeiten oder Hyperparametern von neuronalen Netzen (Filtergröße bei einem Convolutional Neural Network oder Speichergröße eines langen Kurzzeitgedächtnisses (LSTM - Long Short-Term Memory)). Der extrahierte semantische Abweichungswert 115 kann auch an der Eingabe 121 des Modells 100 eingesetzt werden, beispielsweise kann das Modell 100 einen Aufenthaltsort und einen ähnlichsten Aufenthaltsort gleichzeitig als Eingabe haben. Dabei erfolgt eine Extraktion des Abweichungswertes 115 durch Ähnlichkeits- oder Verwandtheitsanalyse oder eine Analyse komplexer Relationen (binary and n-ary Object Relations).Structured knowledge, structured data or information can be used directly from external or internal knowledge and data bases. Unstructured knowledge is first processed into a structured construct. The one from the knowledge bases 119 extracted semantic deviation value 115 can either at the output 129 of the model 100 are used, for example by semantic back propagation. The extracted semantic deviation value 115 can also be at the core of the model 100 are used, for example by adapting Model parameters such as weights, transition probabilities or hyperparameters of neural networks (filter size in a convolutional neural network or memory size of a long short-term memory (LSTM - Long Short-Term Memory)). The extracted semantic deviation value 115 can also at the input 121 of the model 100 can be used, for example, the model 100 have a location and a similar location at the same time as input. The deviation value is extracted 115 through similarity or relatedness analysis or an analysis of complex relations (binary and n-ary object relations).

Für die Bestimmung des Abweichungswertes 115 können mehrere unterschiedliche Metriken für die semantische Ähnlichkeit (Semantic Similarity) verwendet werden. Die semantische Ähnlichkeit kann als Mittel zur Bestimmung des Abweichungswertes 115 und zur Integration vom semantischen Wissen in das Modell 100 für maschinelles Lernen verwendet werden.For the determination of the deviation value 115 Several different semantic similarity metrics can be used. The semantic similarity can be used as a means of determining the deviation value 115 and to integrate semantic knowledge into the model 100 can be used for machine learning.

Allerdings kann auch eine semantische Verwandtheit (Semantic Relatedness) als Mittel zur Bestimmung des Abweichungswertes 115 verwendet werden. Im Konzept der semantischen Verwandtheit sind beispielsweise die Begriffe „Auto“ und „Fahrer“ miteinander eng verwandt, während im Konzept der semantischen Ähnlichkeit die Begriffe „Auto“ und „LKW“ eine hohe Ähnlichkeit aufweisen. Allerdings kann auch auf andere Methoden zum Bestimmen des Abweichungswertes 115 zurückgegriffen werden.However, a semantic relatedness can also be used as a means of determining the deviation value 115 be used. In the concept of semantic relatedness, for example, the terms "car" and "driver" are closely related, while in the concept of semantic similarity the terms "car" and "truck" are very similar. However, other methods of determining the deviation value can also be used 115 be used.

3 zeigt ein Blockdiagramm des Verfahrens zum Anlernen des Modells 100 für maschinelles Lernen. Das Verfahren umfasst den Schritt 101 eines Berechnens des Lern-istwertes durch das Modell 100 für maschinelles Lernen auf Basis von Eingabedaten 105. Anschließend wird in Schritt S102 der numerische Abweichungswert 115 bestimmt, der eine semantische Abweichung zwischen dem berechneten Lern-Istwert und einem Lern-Sollwert angibt. Im Schritt S103 wird das Modell 100 für maschinelles Lernen auf Basis des Abweichungswertes angepasst. 3 shows a block diagram of the method for teaching the model 100 for machine learning. The process includes the step 101 a calculation of the actual learning value by the model 100 for machine learning based on input data 105 , Then in step S102 the numerical deviation value 115 determined, which specifies a semantic deviation between the calculated actual learning value and a learning target value. In step S103 becomes the model 100 adapted for machine learning based on the deviation value.

Beispielsweise kann das Verfahren mit einem künstlichen neuronalen Netz (Artificial Neural Network - ANN), einer Fehlerrückführung (Backpropagation Learning) und einer Lokationsvorhersage (Location Prediction) durchgeführt werden. Im Allgemeinen können jedoch auch andere Modelle verwendet werden, wie beispielsweise probabilistische Modelle.For example, the method can be carried out with an artificial neural network (Artificial Neural Network - ANN), an error feedback (Backpropagation Learning) and a location prediction (Location Prediction). In general, however, other models can also be used, such as probabilistic models.

Das Modell 100 lernt somit anhand des Abweichungswertes 115 zusätzlich semantische Relationen zwischen den jeweiligen Konzepten, die hinter den vorhergesagten Daten stecken. Im Falle von anderen Modellen kann es sich um andere Parameter handeln, wie beispielsweise die Übergangswahrscheinlichkeiten im Fall eines probabilistischen Modells (z.B. Markov oder Bayes).The model 100 thus learns from the deviation value 115 additional semantic relations between the respective concepts that are behind the predicted data. In the case of other models, there may be other parameters, such as the transition probabilities in the case of a probabilistic model (e.g. Markov or Bayes).

Der Gegenstand eines „Autos“ ist optisch und semantisch ähnlicher zum einem „Bus“ als zu einem „Baum“ bei einer optischen Objekterkennung. Der Gegenstand eines „Autos“ ist zwar nicht optisch aber semantisch ähnlicher zum einem „Motorrad“ als zu einem „Baum“. Wenn das Modell 100 viele „Auto“- und wenige „Motorrad“-Trainingsdaten verwendet, hat ein herkömmliches System Probleme bei der Erkennung von Motorrädern. Mit dem verbesserten Verfahren für maschinelles Lernen anhand des semantischen Abweichungswertes ist dies nicht der Fall.The object of a "car" is optically and semantically more similar to a "bus" than to a "tree" for optical object recognition. The object of a "car" is not visually but semantically more similar to a "motorcycle" than to a "tree". If the model 100 Using a lot of "car" and little "motorcycle" training data, a conventional system has problems recognizing motorcycles. This is not the case with the improved method for machine learning based on the semantic deviation value.

Das Verfahren kann auf alle mögliche Klassifikations-, Erkennungs-, Vorhersage- und Regressionsprobleme in der realen Welt übertragen werden. Dies können intelligente (selbst-)lernende Systeme jeglicher Art, unabhängig von einer bestimmten Domäne sein, wie beispielsweise autonomes Fahren, Szenenerkennung oder eine Benutzerinteraktion. Das Verfahren für verbessertes maschinelles Lernen (Semantic-Enhanced Machine Learning - SEML) kann universell verwendet werden, um entsprechende Algorithmen hinsichtlich der Performanz (Klassifikations-, Prädiktions-, Mustererkennungsrate) und der Transparenz zu optimieren.The method can be applied to all possible classification, recognition, prediction and regression problems in the real world. These can be intelligent (self-) learning systems of any kind, regardless of a specific domain, such as autonomous driving, scene recognition or user interaction. The method for improved machine learning (Semantic-Enhanced Machine Learning - SEML) can be used universally to optimize corresponding algorithms with regard to performance (classification, prediction, pattern recognition rate) and transparency.

Das Verfahren kann am Beispiel eines multi-label Klassifikationsproblems, wie beispielsweise der semantischen Ortsvorhersage (Semantic Location Prediction) im Rahmen einer smarten Navigation, beschrieben werden. Das semantische Wissen kann demnach direkt oder indirekt entweder in die Eingabe, in die Ausgabe, oder direkt in das Modell (Transitionsmatrix, Gate sin LSTMs) eingeführt werden.The method can be described using the example of a multi-label classification problem, such as semantic location prediction in the context of smart navigation. The semantic knowledge can therefore be introduced directly or indirectly either into the input, the output, or directly into the model (transition matrix, gate sin LSTMs).

Durch das Verfahren wird der technische Vorteil einer verbesserten Performanz in Hinsicht auf die Vorhersage-, Klassifikations-, Regressions- oder Erkennungsrate und Genauigkeit, einer geringen Trainingszeit erreicht.The method achieves the technical advantage of improved performance in terms of the prediction, classification, regression or recognition rate and accuracy, and a short training time.

Der Schutzbereich der vorliegenden Erfindung ist durch die Ansprüche gegeben und wird durch die in der Beschreibung erläuterten oder den Figuren gezeigten Merkmale nicht beschränkt.The scope of the present invention is given by the claims and is not limited by the features explained in the description or shown in the figures.

Alle in Verbindung mit einzelnen Ausführungsformen der Erfindung erläuterten und gezeigten Merkmale können in unterschiedlicher Kombination in dem erfindungsgemäßen Gegenstand vorgesehen sein, um gleichzeitig deren vorteilhafte Wirkungen zu realisieren.All of the features explained and shown in connection with individual embodiments of the invention can be provided in different combinations in the subject matter of the invention in order to simultaneously realize their advantageous effects.

ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents listed by the applicant has been generated automatically and is only included for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturPatent literature cited

  • DE 69217047 T2 [0004]DE 69217047 T2 [0004]
  • DE 69130246 T2 [0005]DE 69130246 T2 [0005]
  • DE 102016005407 A1 [0006]DE 102016005407 A1 [0006]
  • EP 1183619 B1 [0007]EP 1183619 B1 [0007]

Claims (11)

Verfahren zum Anlernen eines Modells (100) für maschinelles Lernen, mit den Schritten: - Berechnen (S101) eines Lern-Istwertes durch das Modell (100) für maschinelles Lernen auf Basis von Eingabedaten (105); - Bestimmen (S102) eines numerischen Abweichungswertes (115), der eine semantische Abweichung zwischen dem berechneten Lern-Istwert und einem vorgegeben Lern-Sollwert angibt; und - Anpassen (S103) des Modells (100) für maschinelles Lernen auf Basis des Abweichungswertes (117).Method for teaching a model (100) for machine learning, comprising the steps: - Calculating (S101) an actual learning value by means of the machine learning model (100) based on input data (105); - determining (S102) a numerical deviation value (115) which indicates a semantic deviation between the calculated actual learning value and a predetermined learning target value; and - adapting (S103) the model (100) for machine learning on the basis of the deviation value (117). Verfahren nach Anspruch 1, wobei das Modell (100) ein neuronales Netz implementiert.Procedure according to Claim 1 , wherein the model (100) implements a neural network. Verfahren nach Anspruch 2, wobei eine Fehlerrückführung durch das neuronale Netz auf Basis des Abweichungswertes (115) durchgeführt wird.Procedure according to Claim 2 , wherein an error feedback is carried out by the neural network on the basis of the deviation value (115). Verfahren nach Anspruch 3, wobei eine Verlustfunktion (117) des neuronalen Netzes durch den Abweichungswert (115) angepasst wird.Procedure according to Claim 3 , wherein a loss function (117) of the neural network is adjusted by the deviation value (115). Verfahren nach Anspruch 4, wobei die Verlustfunktion (117) mit dem Abweichungswert (115) multipliziert wird.Procedure according to Claim 4 , the loss function (117) being multiplied by the deviation value (115). Verfahren nach einem der vorangehenden Ansprüche, wobei der Abweichungswert (115) eine semantische Ähnlichkeit oder semantische Verwandtheit zwischen dem Lern-Istwert und dem Lern-Sollwert angibt.Method according to one of the preceding claims, wherein the deviation value (115) indicates a semantic similarity or semantic relationship between the actual learning value and the desired learning value. Verfahren nach einem der vorangehenden Ansprüche, wobei eine semantische Wissensbasis zum Bestimmen des numerischen Abweichungswertes (115) verwendet wird.Method according to one of the preceding claims, wherein a semantic knowledge base is used to determine the numerical deviation value (115). Verfahren nach einem der vorangehenden Ansprüche, wobei das Modell (100) für maschinelles Lernen ein probabilistisches Modell (100) ist und Übergangswahrscheinlichkeiten auf Basis des Abweichungswertes (115) angepasst werden.Method according to one of the preceding claims, wherein the machine learning model (100) is a probabilistic model (100) and transition probabilities are adapted on the basis of the deviation value (115). Computerprogramm, umfassend Befehle, die bei der Ausführung des Programms durch einen Computer diesen veranlassen, das Verfahren nach einem der Ansprüche 1 bis 8 auszuführen.Computer program, comprising commands which cause the computer to execute the program, the method according to one of the Claims 1 to 8th perform. Computerlesbares Speichermedium, umfassend Befehle, die bei der Ausführung durch einen Computer diesen veranlassen, das Verfahren nach einem der Ansprüche 1 bis 8 auszuführen.Computer-readable storage medium, comprising instructions which, when executed by a computer, cause the computer to use the method according to one of the Claims 1 to 8th perform. Vorrichtung, die eingerichtet ist, das Verfahren nach einem der Ansprüche 1 bis 8 auszuführen.Device that is set up, the method according to one of the Claims 1 to 8th perform.
DE102018210003.9A 2018-06-20 2018-06-20 Method and device for teaching a machine learning model Withdrawn DE102018210003A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102018210003.9A DE102018210003A1 (en) 2018-06-20 2018-06-20 Method and device for teaching a machine learning model

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102018210003.9A DE102018210003A1 (en) 2018-06-20 2018-06-20 Method and device for teaching a machine learning model

Publications (1)

Publication Number Publication Date
DE102018210003A1 true DE102018210003A1 (en) 2019-12-24

Family

ID=68805870

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018210003.9A Withdrawn DE102018210003A1 (en) 2018-06-20 2018-06-20 Method and device for teaching a machine learning model

Country Status (1)

Country Link
DE (1) DE102018210003A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021170496A1 (en) * 2020-02-28 2021-09-02 Volkswagen Aktiengesellschaft Method for producing at least one electrode for a battery cell

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69217047T2 (en) 1991-04-22 1997-08-14 John Sutherland IMPROVEMENTS IN NEURONAL NETWORKS
DE69130246T2 (en) 1990-08-01 1999-03-18 Canon Kk System for the formation of sentences
EP1183619B1 (en) 1999-04-19 2002-07-24 Definiens AG Situation-dependent operating semantic n-order network
DE102016005407A1 (en) 2015-05-28 2016-12-01 Adobe Systems Incorporated Joint depth estimation and semantic labeling of a single image

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69130246T2 (en) 1990-08-01 1999-03-18 Canon Kk System for the formation of sentences
DE69217047T2 (en) 1991-04-22 1997-08-14 John Sutherland IMPROVEMENTS IN NEURONAL NETWORKS
EP1183619B1 (en) 1999-04-19 2002-07-24 Definiens AG Situation-dependent operating semantic n-order network
DE102016005407A1 (en) 2015-05-28 2016-12-01 Adobe Systems Incorporated Joint depth estimation and semantic labeling of a single image

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Goo, Wonjoon [et.al.]: Taxonomy-Regularized Semantic Deep Convolutional Neural Networks. Computer Vision -- ECCV 2016. Cham : Springer International Publishing, 2016. S. 86-101. - ISBN 978-3-319-46475-6. https://doi.org/10.1007/978-3-319-46475-6_6 [abgerufen am 19.02.2019] *
He, X.; Peng, Y.: Fine-Grained Image Classification via Combining Vision and Language. In: 2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2017, S. 7332-7340. - ISSN 1063-6919. https://doi.org/10.1109/CVPR.2017.775 [abgerufen am 19.02.2019] *
Lei, J.; Guo, Z.; Wang, Y.: Weakly Supervised Image Classification with Coarse and Fine Labels. In: 2017 14th Conference on Computer and Robot Vision (CRV), 2017, S. 240-247. https://doi.org/10.1109/CRV.2017.21 [abgerufen am 19.02.2019] *
Tsai, Y.H.; Huang, L.; Salakhutdinov, R.: Learning Robust Visual-Semantic Embeddings. In: 2017 IEEE International Conference on Computer Vision (ICCV), 2017, S. 3591-3600. - ISSN 2380-7504. https://doi.org/10.1109/ICCV.2017.386 [abgerufen am 19.02.2019] *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021170496A1 (en) * 2020-02-28 2021-09-02 Volkswagen Aktiengesellschaft Method for producing at least one electrode for a battery cell

Similar Documents

Publication Publication Date Title
DE112020000584T5 (en) PROCEDURE FOR UNSUITIZED PICTURE-TO-PICTURE TRANSLATION WITH FEW IMAGES
DE112018005089T5 (en) Inference device, inference method, program and non-transitory tangible computer-readable medium
DE102017213119A1 (en) Method and apparatus for detecting anomalies in a communication network
DE102020210352A1 (en) Method and device for transfer learning between modified tasks
EP3781922A1 (en) Diagnostic system and method for processing data of a motor vehicle
WO2020187591A1 (en) Method and device for controlling a robot
DE102019209457A1 (en) Method for training an artificial neural network, artificial neural network, use of an artificial neural network and a corresponding computer program, machine-readable storage medium and corresponding device
DE102019210507A1 (en) Device and computer-implemented method for processing digital sensor data and training methods therefor
DE102018210003A1 (en) Method and device for teaching a machine learning model
EP3748454B1 (en) Method and device for automatically executing a control function of a vehicle
DE102021005625B3 (en) Method for trajectory prediction and method for automated operation of a vehicle
DE102018218834A1 (en) Method and device for determining a control signal
EP3650964B1 (en) Method for controlling or regulating a technical system
WO2020207786A1 (en) Method, device, and computer program for operating a deep neural network
DE202017105656U1 (en) Predictive measuring system, actuator control system and apparatus for operating the predictive measuring system and / or the actuator control system
WO2022136703A1 (en) Method and system for transforming a start object situation into a target object situation (intuitive tacit solution finding)
DE202021102099U1 (en) Apparatus for processing a knowledge graph embedding
DE102019128223A1 (en) Methods, devices and computer programs
DE102019207911A1 (en) Method, device and computer program for predicting a learning curve
DE102018216172A1 (en) Method for automatically generating a label for training a self-learning system and motor vehicle
DE102020213830A1 (en) Method and system for providing diagnostic information
DE102022112606B3 (en) Computer-implemented method for calibrating a technical system
DE202019102339U1 (en) Device for generating an image
EP3343476A1 (en) Method and device for computer-aided design of a production process for producing a product
DE102021208158A1 (en) Method and device for generating a locally linear model tree

Legal Events

Date Code Title Description
R163 Identified publications notified
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee