DE102018210003A1 - Method and device for teaching a machine learning model - Google Patents
Method and device for teaching a machine learning model Download PDFInfo
- Publication number
- DE102018210003A1 DE102018210003A1 DE102018210003.9A DE102018210003A DE102018210003A1 DE 102018210003 A1 DE102018210003 A1 DE 102018210003A1 DE 102018210003 A DE102018210003 A DE 102018210003A DE 102018210003 A1 DE102018210003 A1 DE 102018210003A1
- Authority
- DE
- Germany
- Prior art keywords
- model
- semantic
- value
- deviation value
- learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/042—Knowledge-based neural networks; Logical representations of neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/02—Knowledge representation; Symbolic representation
- G06N5/022—Knowledge engineering; Knowledge acquisition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/01—Probabilistic graphical models, e.g. probabilistic networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Machine Translation (AREA)
Abstract
Die vorliegende Erfindung betrifft ein Verfahren zum Anlernen eines Modells für maschinelles Lernen, mit den Schritten eines Berechnens (S101) eines Lern-Istwertes durch das Modell für maschinelles Lernen auf Basis von Eingabedaten; eines Bestimmens (S102) eines numerischen Abweichungswertes, der eine semantische Abweichung zwischen dem berechneten Lern-Istwert und einem vorgegebenen Lern-Sollwert angibt; und eines Anpassen (S103) des Modells für maschinelles Lernen auf Basis des Abweichungswertes.The present invention relates to a method for teaching a model for machine learning, comprising the steps of calculating (S101) an actual learning value by means of the machine learning model on the basis of input data; determining (S102) a numerical deviation value indicating a semantic deviation between the calculated actual learning value and a predetermined learning target value; and adapting (S103) the machine learning model based on the deviation value.
Description
Die vorliegende Erfindung betrifft ein Verfahren zum Anlernen eines Modells für maschinelles Lernen (Machine Learning Model), ein Computerprogramm und computerlesbares Speichermedium.The present invention relates to a method for teaching a machine learning model, a computer program and computer-readable storage medium.
Stand der TechnikState of the art
Aktuelle Verfahren für maschinelles Lernen (Machine Learning) sind im Vergleich zu wissensbasierten Systemen, die auf strukturierten Wissensmodellen aufbauen, datengetriebene Verfahren (Data-driven vs. Knowledge-driven Systems).Current processes for machine learning (compared to knowledge-based systems based on structured knowledge models) are data-driven processes (data-driven vs. knowledge-driven systems).
Datengetriebene Verfahren speisen das interne Modell mit Daten, um es für eine bestimmte Aufgabe zu trainieren. Dabei weiß das Modell nicht, d.h. der Machine Learner, um welche Daten es sich handelt und in welcher Beziehung die Daten zueinander stehen, mit denen es trainiert wird. Es fehlt die Eigenschaft einer semantischen Interpretation der Daten. Die Maschine versteht daher nicht genau, welcher Art die Daten sind.Data-driven processes feed the internal model with data in order to train it for a specific task. The model does not know, i.e. the machine learner, what the data is and how the data with which it is trained relate to each other. The property of a semantic interpretation of the data is missing. The machine therefore does not understand exactly what the data are.
Die Druckschrift
Die Druckschrift
Die Druckschrift
Die Druckschrift
Offenbarung der ErfindungDisclosure of the invention
Vorteile der ErfindungAdvantages of the invention
Ein erster Aspekt betrifft ein Verfahren zum Anlernen eines Modells für maschinelles Lernen, mit den Schritten eines Berechnens eines Lern-Istwertes durch das Modell für maschinelles Lernen auf Basis von Eingabedaten; eines Bestimmens eines numerischen Abweichungswertes, der eine semantische Abweichung zwischen dem berechneten Lern-Istwert und einem vorgegebenen Lern-Sollwert angibt; und eines Anpassens des Modells für maschinelles Lernen auf Basis des Abweichungswertes. Dadurch kann das Anlernen eines Modells für maschinelles Lernen um ein Mehrfaches beschleunigt werden. Durch das Verfahren wird der technische Vorteil einer verbesserten Performanz in Hinsicht auf die Vorhersage-, Klassifikations-, Regressions- oder Erkennungsrate und Genauigkeit, einer geringen Trainingszeit des Modells erreicht.A first aspect relates to a method for teaching a model for machine learning, with the steps of calculating an actual learning value by means of the machine learning model on the basis of input data; determining a numerical deviation value indicating a semantic deviation between the calculated actual learning value and a predetermined learning target value; and adapting the machine learning model based on the deviation value. This can accelerate the learning of a machine learning model many times over. The method achieves the technical advantage of improved performance with regard to the prediction, classification, regression or recognition rate and accuracy, and a short training time for the model.
In einer technisch vorteilhaften Ausführungsform des Verfahrens implementiert das Model ein neuronales Netz. Dadurch wird beispielsweise der technische Vorteil erreicht, dass die Lern-Istwerte auf schnelle Art und Weise erzeugt werden können.In a technically advantageous embodiment of the method, the model implements a neural network. This has the technical advantage, for example, that the actual learning values can be generated quickly.
In einer weiteren technisch vorteilhaften Ausführungsform des Verfahrens wird eine Fehlerrückführung (Back Propagation) durch das neuronale Netz auf Basis des Abweichungswertes durchgeführt. Dadurch wird beispielsweise der technische Vorteil erreicht, dass eine effiziente Anpassung des Modells vorgenommen werden kann.In a further technically advantageous embodiment of the method, error propagation (back propagation) is carried out by the neural network on the basis of the deviation value. This has the technical advantage, for example, that an efficient adaptation of the model can be carried out.
In einer weiteren technisch vorteilhaften Ausführungsform des Verfahrens wird eine Verlustfunktion des neuronalen Netzes durch den Abweichungswert angepasst. Dadurch wird beispielsweise der technische Vorteil erreicht, dass eine einfache und schnelle Anpassung des Modells vorgenommen werden kann.In a further technically advantageous embodiment of the method, a loss function of the neural network is adjusted by the deviation value. This gives the technical advantage, for example, that the model can be adapted quickly and easily.
In einer weiteren technisch vorteilhaften Ausführungsform des Verfahrens wird die Verlustfunktion mit dem Abweichungswert multipliziert. Dadurch wird beispielsweise der technische Vorteil erreicht, dass das Modell mit einem geringen Aufwand angepasst werden kann und sich das Anlernen des Modells beschleunigt.In a further technically advantageous embodiment of the method, the loss function is multiplied by the deviation value. This achieves the technical advantage, for example, that the model can be adapted with little effort and the learning of the model is accelerated.
In einer weiteren technisch vorteilhaften Ausführungsform des Verfahrens gibt der Abweichungswert eine semantische Ähnlichkeit oder semantische Verwandtheit zwischen dem Lern-Istwert und dem Lern-Sollwert an. Dadurch wird beispielsweise der technische Vorteil erreicht, dass das Modell unterschiedliche semantische Konzepte umsetzen kann.In a further technically advantageous embodiment of the method, the Deviation value indicates a semantic similarity or semantic relationship between the actual learning value and the learning target value. This achieves the technical advantage, for example, that the model can implement different semantic concepts.
In einer weiteren technisch vorteilhaften Ausführungsform des Verfahrens wird eine semantische Wissensbasis zum Bestimmen des numerischen Abweichungswertes verwendet. Dadurch wird beispielsweise der technische Vorteil erreicht, dass der Abweichungswert zuverlässig bestimmt werden kann.In a further technically advantageous embodiment of the method, a semantic knowledge base is used to determine the numerical deviation value. This achieves the technical advantage, for example, that the deviation value can be determined reliably.
In einer weiteren technisch vorteilhaften Ausführungsform des Verfahrens ist das Modell für maschinelles Lernen ein probabilistisches Modell und Übergangswahrscheinlichkeiten werden auf Basis des Abweichungswertes angepasst. Dadurch wird beispielsweise der technische Vorteil erreicht, dass ein effizientes Modell zum Berechnen des Lern-Istwertes herangezogen wird.In a further technically advantageous embodiment of the method, the machine learning model is a probabilistic model and transition probabilities are adjusted on the basis of the deviation value. This gives the technical advantage, for example, that an efficient model is used to calculate the actual learning value.
Ein zweiter Aspekt betrifft ein Computerprogramm, umfassend Befehle, die bei der Ausführung des Programms durch einen Computer diesen veranlassen, das Verfahren nach dem ersten Aspekt auszuführen. Dadurch werden die gleichen technischen Vorteile wie durch das Verfahren nach dem ersten Aspekt erreicht.A second aspect relates to a computer program, comprising instructions which, when the program is executed by a computer, cause the computer to carry out the method according to the first aspect. This achieves the same technical advantages as the method according to the first aspect.
Ein dritter Aspekt betrifft ein computerlesbares Speichermedium, umfassend Befehle, die bei der Ausführung durch einen Computer diesen veranlassen, das Verfahren nach dem ersten Aspekt auszuführen. Dadurch werden die gleichen technischen Vorteile wie durch das Verfahren nach dem ersten Aspekt erreicht.A third aspect relates to a computer-readable storage medium, comprising instructions which, when executed by a computer, cause the computer to carry out the method according to the first aspect. This achieves the same technical advantages as the method according to the first aspect.
Ein vierter Aspekt betrifft eine Vorrichtung, die eingerichtet ist, das Verfahren nach dem ersten Aspekt auszuführen. Dadurch werden die gleichen technischen Vorteile wie durch das Verfahren nach dem ersten Aspekt erreicht.A fourth aspect relates to a device which is set up to carry out the method according to the first aspect. This achieves the same technical advantages as the method according to the first aspect.
Ausführungsbeispiele der Erfindung sind in den Zeichnungen dargestellt und in der nachfolgenden Beschreibung näher erläutert. Es zeigen
-
1 eine schematische Ansicht eines Modells für maschinelles Lernen; -
2 eine schematische Ansicht einer semantischen Analyse; und -
3 ein Blockdiagramm des Verfahrens.
-
1 a schematic view of a model for machine learning; -
2 a schematic view of a semantic analysis; and -
3 a block diagram of the method.
Das neuronale Netz
Die verarbeitenden Schichten
Bei der Weiterleitung der Eingabedaten
Die Ausgabedaten
Bei der semantischen Vorhersage (Prädiktion) eines Aufenthaltsortes mittels des Modells
Beispielsweise ist ein Benutzer zu einer bestimmten Uhrzeit zuhause. Das Modell
Bei den heutigen Trainingsverfahren gibt es hierzu zwei Möglichkeiten. Erstens das Modell
Falls das Modell
Allerdings liegt die Vorhersage „chinesisches Restaurant“ semantisch näher an „Fast-Food-Restaurant
Um dieses Wissen in das Modell
Die Information dieser semantischen Ähnlichkeit zwischen dem vorhergesagten Lern-Istwert des Modells
Der numerische Abweichungswert
Durch das semantisch verbesserte maschinelle Lernen wird semantisches Wissen in das Modell
Strukturiertes Wissen, strukturierte Daten oder Informationen können direkt aus externen oder internen Wissens- und Datenbasen verwendet werden. Unstrukturiertes Wissen wird zuerst zu einem strukturierten Konstrukt vorverarbeitet. Der aus den Wissensbasen
Für die Bestimmung des Abweichungswertes
Allerdings kann auch eine semantische Verwandtheit (Semantic Relatedness) als Mittel zur Bestimmung des Abweichungswertes
Beispielsweise kann das Verfahren mit einem künstlichen neuronalen Netz (Artificial Neural Network - ANN), einer Fehlerrückführung (Backpropagation Learning) und einer Lokationsvorhersage (Location Prediction) durchgeführt werden. Im Allgemeinen können jedoch auch andere Modelle verwendet werden, wie beispielsweise probabilistische Modelle.For example, the method can be carried out with an artificial neural network (Artificial Neural Network - ANN), an error feedback (Backpropagation Learning) and a location prediction (Location Prediction). In general, however, other models can also be used, such as probabilistic models.
Das Modell
Der Gegenstand eines „Autos“ ist optisch und semantisch ähnlicher zum einem „Bus“ als zu einem „Baum“ bei einer optischen Objekterkennung. Der Gegenstand eines „Autos“ ist zwar nicht optisch aber semantisch ähnlicher zum einem „Motorrad“ als zu einem „Baum“. Wenn das Modell
Das Verfahren kann auf alle mögliche Klassifikations-, Erkennungs-, Vorhersage- und Regressionsprobleme in der realen Welt übertragen werden. Dies können intelligente (selbst-)lernende Systeme jeglicher Art, unabhängig von einer bestimmten Domäne sein, wie beispielsweise autonomes Fahren, Szenenerkennung oder eine Benutzerinteraktion. Das Verfahren für verbessertes maschinelles Lernen (Semantic-Enhanced Machine Learning - SEML) kann universell verwendet werden, um entsprechende Algorithmen hinsichtlich der Performanz (Klassifikations-, Prädiktions-, Mustererkennungsrate) und der Transparenz zu optimieren.The method can be applied to all possible classification, recognition, prediction and regression problems in the real world. These can be intelligent (self-) learning systems of any kind, regardless of a specific domain, such as autonomous driving, scene recognition or user interaction. The method for improved machine learning (Semantic-Enhanced Machine Learning - SEML) can be used universally to optimize corresponding algorithms with regard to performance (classification, prediction, pattern recognition rate) and transparency.
Das Verfahren kann am Beispiel eines multi-label Klassifikationsproblems, wie beispielsweise der semantischen Ortsvorhersage (Semantic Location Prediction) im Rahmen einer smarten Navigation, beschrieben werden. Das semantische Wissen kann demnach direkt oder indirekt entweder in die Eingabe, in die Ausgabe, oder direkt in das Modell (Transitionsmatrix, Gate sin LSTMs) eingeführt werden.The method can be described using the example of a multi-label classification problem, such as semantic location prediction in the context of smart navigation. The semantic knowledge can therefore be introduced directly or indirectly either into the input, the output, or directly into the model (transition matrix, gate sin LSTMs).
Durch das Verfahren wird der technische Vorteil einer verbesserten Performanz in Hinsicht auf die Vorhersage-, Klassifikations-, Regressions- oder Erkennungsrate und Genauigkeit, einer geringen Trainingszeit erreicht.The method achieves the technical advantage of improved performance in terms of the prediction, classification, regression or recognition rate and accuracy, and a short training time.
Der Schutzbereich der vorliegenden Erfindung ist durch die Ansprüche gegeben und wird durch die in der Beschreibung erläuterten oder den Figuren gezeigten Merkmale nicht beschränkt.The scope of the present invention is given by the claims and is not limited by the features explained in the description or shown in the figures.
Alle in Verbindung mit einzelnen Ausführungsformen der Erfindung erläuterten und gezeigten Merkmale können in unterschiedlicher Kombination in dem erfindungsgemäßen Gegenstand vorgesehen sein, um gleichzeitig deren vorteilhafte Wirkungen zu realisieren.All of the features explained and shown in connection with individual embodiments of the invention can be provided in different combinations in the subject matter of the invention in order to simultaneously realize their advantageous effects.
ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents listed by the applicant has been generated automatically and is only included for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturPatent literature cited
- DE 69217047 T2 [0004]DE 69217047 T2 [0004]
- DE 69130246 T2 [0005]DE 69130246 T2 [0005]
- DE 102016005407 A1 [0006]DE 102016005407 A1 [0006]
- EP 1183619 B1 [0007]EP 1183619 B1 [0007]
Claims (11)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102018210003.9A DE102018210003A1 (en) | 2018-06-20 | 2018-06-20 | Method and device for teaching a machine learning model |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102018210003.9A DE102018210003A1 (en) | 2018-06-20 | 2018-06-20 | Method and device for teaching a machine learning model |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102018210003A1 true DE102018210003A1 (en) | 2019-12-24 |
Family
ID=68805870
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102018210003.9A Withdrawn DE102018210003A1 (en) | 2018-06-20 | 2018-06-20 | Method and device for teaching a machine learning model |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102018210003A1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021170496A1 (en) * | 2020-02-28 | 2021-09-02 | Volkswagen Aktiengesellschaft | Method for producing at least one electrode for a battery cell |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE69217047T2 (en) | 1991-04-22 | 1997-08-14 | John Sutherland | IMPROVEMENTS IN NEURONAL NETWORKS |
DE69130246T2 (en) | 1990-08-01 | 1999-03-18 | Canon Kk | System for the formation of sentences |
EP1183619B1 (en) | 1999-04-19 | 2002-07-24 | Definiens AG | Situation-dependent operating semantic n-order network |
DE102016005407A1 (en) | 2015-05-28 | 2016-12-01 | Adobe Systems Incorporated | Joint depth estimation and semantic labeling of a single image |
-
2018
- 2018-06-20 DE DE102018210003.9A patent/DE102018210003A1/en not_active Withdrawn
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE69130246T2 (en) | 1990-08-01 | 1999-03-18 | Canon Kk | System for the formation of sentences |
DE69217047T2 (en) | 1991-04-22 | 1997-08-14 | John Sutherland | IMPROVEMENTS IN NEURONAL NETWORKS |
EP1183619B1 (en) | 1999-04-19 | 2002-07-24 | Definiens AG | Situation-dependent operating semantic n-order network |
DE102016005407A1 (en) | 2015-05-28 | 2016-12-01 | Adobe Systems Incorporated | Joint depth estimation and semantic labeling of a single image |
Non-Patent Citations (4)
Title |
---|
Goo, Wonjoon [et.al.]: Taxonomy-Regularized Semantic Deep Convolutional Neural Networks. Computer Vision -- ECCV 2016. Cham : Springer International Publishing, 2016. S. 86-101. - ISBN 978-3-319-46475-6. https://doi.org/10.1007/978-3-319-46475-6_6 [abgerufen am 19.02.2019] * |
He, X.; Peng, Y.: Fine-Grained Image Classification via Combining Vision and Language. In: 2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2017, S. 7332-7340. - ISSN 1063-6919. https://doi.org/10.1109/CVPR.2017.775 [abgerufen am 19.02.2019] * |
Lei, J.; Guo, Z.; Wang, Y.: Weakly Supervised Image Classification with Coarse and Fine Labels. In: 2017 14th Conference on Computer and Robot Vision (CRV), 2017, S. 240-247. https://doi.org/10.1109/CRV.2017.21 [abgerufen am 19.02.2019] * |
Tsai, Y.H.; Huang, L.; Salakhutdinov, R.: Learning Robust Visual-Semantic Embeddings. In: 2017 IEEE International Conference on Computer Vision (ICCV), 2017, S. 3591-3600. - ISSN 2380-7504. https://doi.org/10.1109/ICCV.2017.386 [abgerufen am 19.02.2019] * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021170496A1 (en) * | 2020-02-28 | 2021-09-02 | Volkswagen Aktiengesellschaft | Method for producing at least one electrode for a battery cell |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE112020000584T5 (en) | PROCEDURE FOR UNSUITIZED PICTURE-TO-PICTURE TRANSLATION WITH FEW IMAGES | |
DE112018005089T5 (en) | Inference device, inference method, program and non-transitory tangible computer-readable medium | |
DE102017213119A1 (en) | Method and apparatus for detecting anomalies in a communication network | |
DE102020210352A1 (en) | Method and device for transfer learning between modified tasks | |
EP3781922A1 (en) | Diagnostic system and method for processing data of a motor vehicle | |
WO2020187591A1 (en) | Method and device for controlling a robot | |
DE102019209457A1 (en) | Method for training an artificial neural network, artificial neural network, use of an artificial neural network and a corresponding computer program, machine-readable storage medium and corresponding device | |
DE102019210507A1 (en) | Device and computer-implemented method for processing digital sensor data and training methods therefor | |
DE102018210003A1 (en) | Method and device for teaching a machine learning model | |
EP3748454B1 (en) | Method and device for automatically executing a control function of a vehicle | |
DE102021005625B3 (en) | Method for trajectory prediction and method for automated operation of a vehicle | |
DE102018218834A1 (en) | Method and device for determining a control signal | |
EP3650964B1 (en) | Method for controlling or regulating a technical system | |
WO2020207786A1 (en) | Method, device, and computer program for operating a deep neural network | |
DE202017105656U1 (en) | Predictive measuring system, actuator control system and apparatus for operating the predictive measuring system and / or the actuator control system | |
WO2022136703A1 (en) | Method and system for transforming a start object situation into a target object situation (intuitive tacit solution finding) | |
DE202021102099U1 (en) | Apparatus for processing a knowledge graph embedding | |
DE102019128223A1 (en) | Methods, devices and computer programs | |
DE102019207911A1 (en) | Method, device and computer program for predicting a learning curve | |
DE102018216172A1 (en) | Method for automatically generating a label for training a self-learning system and motor vehicle | |
DE102020213830A1 (en) | Method and system for providing diagnostic information | |
DE102022112606B3 (en) | Computer-implemented method for calibrating a technical system | |
DE202019102339U1 (en) | Device for generating an image | |
EP3343476A1 (en) | Method and device for computer-aided design of a production process for producing a product | |
DE102021208158A1 (en) | Method and device for generating a locally linear model tree |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R163 | Identified publications notified | ||
R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee |