DE102018220941A1 - Auswertung von Messgrößen mit KI-Modulen unter Berücksichtigung von Messunsicherheiten - Google Patents

Auswertung von Messgrößen mit KI-Modulen unter Berücksichtigung von Messunsicherheiten Download PDF

Info

Publication number
DE102018220941A1
DE102018220941A1 DE102018220941.3A DE102018220941A DE102018220941A1 DE 102018220941 A1 DE102018220941 A1 DE 102018220941A1 DE 102018220941 A DE102018220941 A DE 102018220941A DE 102018220941 A1 DE102018220941 A1 DE 102018220941A1
Authority
DE
Germany
Prior art keywords
module
prediction
uncertainty
output
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102018220941.3A
Other languages
English (en)
Inventor
Di Feng
Lars Rosenbaum
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102018220941.3A priority Critical patent/DE102018220941A1/de
Priority to CN201911219144.5A priority patent/CN111275068A/zh
Publication of DE102018220941A1 publication Critical patent/DE102018220941A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Computational Linguistics (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Databases & Information Systems (AREA)
  • Image Analysis (AREA)

Abstract

Verfahren (100) zum Trainieren eines KI-Moduls (1), welches dazu ausgebildet ist, einen Satz Eingangsgrößen (2) durch eine interne Verarbeitungskette (3) mindestens in eine Vorhersage (41) einer kontinuierlichen Ausgangsgröße zu übersetzen, wobei das Verhalten der internen Verarbeitungskette (3) durch Parameter (31) festgelegt ist, mit den Schritten:• es wird eine vorgegebene Menge von Lern-Sätzen (2a) von Eingangsgrößen (2) in das KI-Modul (1) eingegeben (110);• zu jedem Lern-Satz (2a) wird mit dem KI-Modul (1) eine Vorhersage (41) der kontinuierlichen Ausgangsgröße ermittelt (120);• mit dem KI-Modul (1) wird zusätzlich eine Unsicherheit (42) der Vorhersage (41) ermittelt (130);• die vom KI-Modul (1) gelieferte Vorhersage (41) wird mit einem dem jeweiligen Lern-Satz (2a) der Eingangsgröße (2) zugeordneten Lern-Wert (41a) der Vorhersage verglichen (140);• es wird eine Fehlerfunktion (5) ausgewertet (150), die sowohl von der im Vergleich (140) ermittelten Abweichung (41') der Vorhersage (41) vom Lern-Wert (41a) als auch von der Unsicherheit (42) der Vorhersage (41) abhängt; die Parameter (31) werden dahingehend optimiert (160), dass bei erneuter Eingabe (110) der Lern-Sätze (2a) der Wert der Fehlerfunktion (5) vermindert wird.

Description

  • Die vorliegende Erfindung betrifft die physikalische Messtechnik, bei der eine interessierende Größe durch ein KI-Modul aus Messdaten ausgewertet und somit indirekt gemessen wird.
  • Stand der Technik
  • In vielen Bereichen der Messtechnik ist die letztendlich interessierende Größe keiner unmittelbaren Messung zugänglich, bzw. der Aufwand für eine solche unmittelbare Messung ist zu groß. Die Größe wird dann aus Messdaten anderer Größen, die einer unmittelbaren Messung zugänglich sind, ausgewertet und somit indirekt gemessen.
  • Neuronale Netzwerke sind gut geeignet, um aus sehr hochdimensionalen Messdaten, wie beispielsweise Bilddaten, sehr viel niederdimensionalere Ausgangsgrößen, wie beispielsweise eine Position, Größe oder einen Typ eines Objekts, auszuwerten. Wenn diese Netzwerke mit einer hinreichenden Anzahl unterschiedlicher Situationen trainiert werden, funktioniert die Auswertung auch in völlig neuen, nicht trainierten Situationen. Dies ist beispielsweise für das zumindest teilweise automatisierte Fahren wichtig, da sich bei weitem nicht alle auftretenden Verkehrssituationen vorhersagen lassen.
  • Die US 6,957,203 B2 offenbart ein Verfahren, mit dem bei der Auswertung von Messdaten mit neuronalen Netzwerken die im realen Messbetrieb nicht zu vermeidenden Messunsicherheiten berücksichtigt werden können.
  • Die US 2016/019 459 A1 offenbart, durch bewusste Hinzufügung von Rauschen während des Trainings die Auswertung robuster gegen Messunsicherheiten zu machen.
  • Die EP 3 171 297 A1 beschäftigt sich mit der Klassifikation auf der Basis gelabelter Daten und berücksichtigt menschliche Fehler beim Labeln der „ground truth“.
  • Die EP 1 438 603 B1 offenbart, die Daten mehrerer Sensoren zu fusionieren, um ein Objekt, wie etwa ein Flugzeug, genauer zu lokalisieren.
  • Offenbarung der Erfindung
  • Im Rahmen der Erfindung wurde ein Verfahren zum Trainieren eines KI-Moduls entwickelt. Das KI-Modul ist dazu ausgebildet, einen Satz Eingangsgrößen durch eine interne Verarbeitungskette mindestens in eine Vorhersage einer kontinuierlichen Ausgangsgröße zu übersetzen. Dies schließt nicht aus, dass das KI-Modul aus den gleichen Eingangsgrößen noch weitere Ausgangsgrößen ermittelt. Das KI-Modul kann beispielsweise dazu ausgebildet sein, aus Bilddaten oder anderen physikalischen Messdaten, die durch Beobachtung eines räumlichen Erfassungsbereichs gewonnen wurden, die Entfernung zu einem Objekt als kontinuierliche Ausgangsgröße zu ermitteln und zugleich den Typ dieses Objekts zu klassifizieren. Dies schließt nicht aus, dass alternativ oder in Kombination hierzu auch die kontinuierliche Ausgangsgröße für Klassifikationsaufgaben genutzt wird.
  • Das Verhalten der internen Verarbeitungskette ist durch Parameter festgelegt. Diese Parameter werden während des Trainings gelernt, und auf der Basis der gelernten Parameter arbeitet das KI-Modul im späteren Betrieb.
  • Bei dem Verfahren wird eine vorgegebene Menge von Lern-Sätzen von Eingangsgrößen in das KI-Modul eingegeben. Zu jedem Lern-Satz von Eingangsgrößen wird mit dem KI-Modul eine Vorhersage der kontinuierlichen Ausgangsgröße ermittelt. Mit dem KI-Modul wird nun zusätzlich eine Unsicherheit der Vorhersage ermittelt.
  • Die vom KI-Modul gelieferte Vorhersage wird mit einem dem jeweiligen Lern-Satz der Eingangsgröße zugeordneten Lern-Wert der Vorhersage verglichen. Die Lern-Daten beinhalten also Paare aus je einem Lern-Satz von Eingangsgrößen, der etwa ein Bild sein kann, und einem zugehörigen Lern-Wert der Vorhersage, der etwa eine Entfernung zu einem im Bild sichtbaren Objekt sein kann.
  • Es wird eine Fehlerfunktion ausgewertet, die sowohl von der im besagten Vergleich ermittelten Abweichung der Vorhersage vom Lern-Wert als auch von der Unsicherheit der Vorhersage abhängt. Die Fehlerfunktion beinhaltet also ein beliebiges Maß für die Unsicherheit. Die Parameter der internen Verarbeitungskette des KI-Moduls werden dahingehend optimiert, dass bei erneuter Eingabe der Lern-Sätze von Eingangsgrößen der Wert der Fehlerfunktion vermindert wird. Diese Optimierung kann ein beliebiges Abbruchkriterium haben. Beispielsweise kann die Optimierung beendet werden, wenn der Wert der Fehlerfunktion einen bestimmten Schwellwert unterschreitet. Die Optimierung kann beispielsweise auch dann beendet werden, wenn die Änderung der Fehlerfunktion von einem Durchlauf zum nächsten einen vorgegebenen Schwellwert unterschreitet.
  • Die Parameter der internen Verarbeitungskette werden im Hinblick darauf optimiert, dass bei Eingabe einer vorgegebenen Menge von Lern-Sätzen von Eingangsgrößen der Wert einer Fehlerfunktion minimiert wird.
  • Hierfür muss das KI-Modul lediglich mindestens während des Trainings in der Lage sein, aus dem Satz Eingangsgrößen zusätzlich zu der Vorhersage der kontinuierlichen Ausgangsgröße auch eine Unsicherheit dieser Vorhersage zu ermitteln. Es kann zwar sowohl während des Trainings als auch im späteren Betrieb ein KI-Modul verwendet werden, das auch die Unsicherheit der Vorhersage ermittelt. Dies ist jedoch nicht zwingend erforderlich.
  • Vielmehr ist es beispielsweise auch möglich, dass das KI-Modul nur für die Zwecke des Trainings um die Ausgabe auch der Unsicherheit erweitert wird und dass diese Funktionalität für den späteren Betrieb des KI-Moduls wieder entfernt wird. Dies kann beispielsweise sinnvoll sein, wenn das Training des Systems gegen eine Unsicherheit der Messung gehärtet werden soll, diese Unsicherheit selbst im späteren Betrieb aber nicht benötigt wird. Die fortwährende Ermittlung der Unsicherheit kostet dann nur unnötigen Rechenaufwand und damit Energie.
  • Das Training kann beispielsweise ausgehend von Standardwerten für die Parameter gestartet werden, wie etwa zufälligen Werten. Die Fehlerfunktion wird dann zunächst einen hohen Wert annehmen. Mit einem multivariaten Optimierungsverfahren, etwa einem Gradientenabstiegsverfahren, können die Parameter dann so optimiert werden, dass der Wert der Fehlerfunktion sukzessive immer geringer wird.
  • Dabei kann insbesondere beispielsweise bei jedem Trainingsschritt ein Mittelwert über diejenigen Werte der Fehlerfunktion, die sich für alle Lern-Sätze von Eingangsgrößen aus der vorgegebenen Menge ergeben, in das Gütemaß für die Optimierung eingehen. Dieses Gütemaß kann noch beliebig verfeinert werden, etwa durch Berücksichtigung maximaler oder minimaler Werte der Fehlerfunktion auf der vorgegebenen Menge von Lern-Sätzen.
  • Es wurde erkannt, dass die Berücksichtigung auch des Maßes für die Unsicherheit in der Fehlerfunktion das Training des KI-Moduls speziell gegen solche Unsicherheiten der Messung härten kann, die tatsächlich physikalisch bei der Messung auftreten. Das Training selbst kann beispielsweise rechnergestützt durchgeführt werden. Die Information, welche Unsicherheiten physikalisch auftreten, steckt in den durch physikalische Messung ermittelten Lern-Sätzen von Eingangsgrößen in Verbindung mit den jeweils als „ground truth“ vorgegebenen Lern-Werten der Vorhersage. Beispielsweise kann eine große Anzahl von Bildern, die mit einer bestimmten Kamera aufgenommen sind, in Verbindung mit den tatsächlichen Entfernungen von der Kameraposition, in denen sich jeweils ein Objekt in dem Bild befindet, vorgegeben sein.
  • Dabei kann das Training insbesondere auch berücksichtigen, dass die Unsicherheit nicht für alle mit dem jeweiligen physikalischen Instrument durchgeführten Messungen konstant ist. So kann beispielsweise die Unsicherheit, mit der die Entfernung zu einem Objekt behaftet ist, durchaus von der Entfernung selbst abhängen. Werden beispielsweise Kamerabilder verwendet, so erscheint darin ein Objekt umso kleiner, je weiter es von der Kamera entfernt ist. Es wird dann in den Bildern durch entsprechend weniger Pixel repräsentiert. Auch steigt mit zunehmender Entfernung zur Kamera die Wahrscheinlichkeit, dass ein Objekt teilweise durch ein anderes Objekt abgeschattet wird. Die Unsicherheit kann weiterhin auch von der Situation abhängen. Beispielsweise sind Kamerabilder, die bei dichtem Regen aufgenommen werden, möglicherweise weniger zuverlässig auszuwerten als Kamerabilder, die bei Sonnenschein aufgenommen werden.
  • Das trainierte KI-Modul kann weiterhin genutzt werden, um auch im späteren Betrieb des KI-Moduls fortwährend eine Information über die Unsicherheit zu liefern, mit der die Vorhersage der Ausgangsgröße behaftet ist. Auf diese Weise können die Messunsicherheiten verwendeter Sensoren eingehend studiert und beispielsweise herauskorrigiert werden, um bei der Verfolgung von Objekten eine bessere Genauigkeit zu erzielen. Die Aussage über die Unsicherheit kann insbesondere beispielsweise genutzt werden, um systematisch das Verhalten des verwendeten Sensors und der nachgeschalteten Auswertung unter verschiedenen Umgebungsbedingungen zu untersuchen. Hierbei kann beispielsweise die bereits erwähnte Abhängigkeit der Unsicherheit von der Entfernung zum Sensor näher analysiert werden.
  • Die Aussage über die Unsicherheit kann sowohl während des Trainings als auch im späteren Betrieb des KI-Moduls die Bereinigung der Objekterkennung um Artefakte vereinfachen. Beispielsweise können je nach verwendetem Algorithmus an Stelle eines „wahren“ Objekts scheinbar mehrere dicht benachbarte Objekte mit vergleichbaren Konfidenzen erkannt werden. Liegen diese Objekte so nah beieinander, dass sich die Unsicherheiten ihrer Positionen überlappen, dann ist es plausibel, mehrere Detektionen zu einer Detektion zusammenzufassen.
  • Die hier betrachteten Unsicherheiten können ihre Ursachen beispielsweise im Mechanismus der physikalischen Beobachtung oder im Umfeld zum Zeitpunkt der Beobachtung haben. Derartige Unsicherheiten werden auch aleatorische Unsicherheiten genannt, im Unterschied zu epistemischen Unsicherheiten, die durch die Modellierung mit dem KI-Modul selbst entstehen.
  • In einer besonders vorteilhaften Ausgestaltung wird ein KI-Modul gewählt, das mindestens ein künstliches neuronales Netzwerk, KNN, als interne Verarbeitungskette beinhaltet. Derartige Netzwerke können beispielsweise als Stapelung aufeinanderfolgender Schichten unterschiedlichen Typs ausgebildet sein, wobei der Satz Eingangsgrößen der ersten Schicht als Eingabe zugeführt wird und wobei die Ausgabe einer Schicht jeweils der darauffolgenden Schicht als Eingabe zugeführt wird. Das KNN kann dann Schichten beinhalten, die aus ihrer Eingabe jeweils bestimmte Merkmale erkennen. Beispiele für derartige Schichten sind Faltungsschichten. Das KNN kann zusätzlich Schichten beinhalten, deren Ausgabe eine geringere Dimensionalität hat als ihre Eingabe. Beispiele für derartige Schichten sind Pooling-Schichten. Die Dimensionalität der eingegebenen Daten kann also beim Durchwandern des Netzwerks schrittweise reduziert werden. Auf diese Weise kann insbesondere ein großes Gefälle in Sachen Dimensionalität überwunden werden. So lebt ein Bild mit 512x512 Pixeln in einem Raum mit Dimensionalität 262.144, während eine Entfernung zu einem Objekt allenfalls eine dreidimensionale Größe ist.
  • Die Parameter, die das Verhalten eines KNN festlegen, können beispielsweise Gewichte sein, mit denen verschiedene Aktivierungen eines Neurons untereinander gewichtet werden.
  • In einer weiteren vorteilhaften Ausgestaltung wird ein KI-Modul gewählt, das dazu ausgebildet ist, die Vorhersage, und/oder die Unsicherheit der Vorhersage, im Wege der Regression zu ermitteln. Auf diese Weise kann die Ermittlung der Vorhersage robuster gegen Rauschen in den Eingangsgrößen gemacht werden, wobei die Unterdrückung des Rauschens beim Training des KI-Moduls auf den jeweiligen physikalischen Anwendungsfall spezifisch gelernt wird.
  • In einer besonders vorteilhaften Ausgestaltung wird die Unsicherheit der Vorhersage als Rauschen modelliert, und eine Standardabweichung σ dieses Rauschens wird in die ermittelte Unsicherheit der Vorhersage einbezogen. Die Standardabweichung σ kann dann beispielsweise analog zu der Vorhersage selbst durch Regression ermittelt werden. Zur Berücksichtigung der Unsicherheit ist dann nur ein zusätzlicher Regressor erforderlich. Die angenommene Verteilung des Rauschens kann beispielsweise eine Gauß-Verteilung sein, wobei deren Kovarianzmatrix beispielsweise diagonal oder isotopisch, aber auch voll besetzt sein kann. Die angenommene Verteilung des Rauschens kann beispielsweise auch eine Laplace-Verteilung sein.
  • Die Ermittlung der Standardabweichung σ kann robuster gemacht werden, indem nicht die Standabweichung σ direkt ermittelt wird, sondern ein Logarithmus hiervon. Dieser Logarithmus kann direkt als Maß für die Unsicherheit in die Fehlerfunktion eingehen. Vorteilhaft wird somit eine Fehlerfunktion gewählt, die einen Logarithmus der Standardabweichung σ in einem additiven Term beinhaltet.
  • In einer weiteren vorteilhaften Ausgestaltung umfasst mindestens ein Lern-Satz von Eingangsgrößen, und/oder mindestens ein Lern-Wert der Vorhersage, mindestens einen Messwert einer physikalischen Messgröße. Der Messwert kann insbesondere mit einem Sensor ermittelt werden, der eine physikalische Einwirkung registriert, deren Art und/oder Stärke durch die physikalische Messgröße charakterisiert ist. Das KI-Modul lernt dann die unvermeidlichen Variabilitäten bei der physikalischen Erfassung der Messgröße mit.
  • Die Erfindung bezieht sich auch auf ein Verfahren zum Betreiben eines Kl-Moduls. In einer ersten Phase wird das KI-Modul nach dem beschriebenen Trainingsverfahren trainiert. In einer zweiten Phase werden physikalische Messdaten mit mindestens einem Sensor erfasst. Die physikalischen Messdaten werden als Eingangsgrößen in das KI-Modul eingegeben. Mindestens ein Aktor, der mindestens eine mechanische Bewegung bewirkt, wird abhängig von der vom KI-Modul gelieferten Vorhersage der Ausgangsgröße, und/oder von der Unsicherheit dieser Vorhersage, angesteuert. Die letztendlich bewirkte mechanische Bewegung ist dann der durch die Eingangsgrößen charakterisierten Situation angemessener.
  • Beim Training nach dem beschriebenen Trainingsverfahren entsteht ein Datensatz, mit dem das Verhalten der internen Verarbeitungskette eines KI-Moduls so festgelegt werden kann, dass es bei der konkreten Anwendung, die Gegenstand des Trainings war, im normalen Betrieb genauere Vorhersagen für den Wert der interessierenden kontinuierlichen Ausgangsgröße machen kann. Ein bestehendes KI-Modul lässt sich auch im Nachhinein mit einem derartigen Datensatz aufwerten. Daher ist der Datensatz ein eigenständiges Produkt mit Kundennutzen. Beispielsweise kann als externe Dienstleistung angeboten werden, aus physikalisch gemessenen Sätzen von Eingangsgrößen einen Datensatz von Parametern für das KI-Modul zu ermitteln, der das KI-Modul zu genaueren Vorhersagen befähigt. Daher bezieht sich die Erfindung auch auf einen Datensatz von Parametern, der das Verhalten der internen Verarbeitungskette eines KI-Moduls festlegt und mit dem beschriebenen Trainingsverfahren erhalten wurde.
  • Die Erfindung bezieht sich auch auf ein KI-Modul mit einer internen Verarbeitungskette, deren Verhalten durch Parameter festgelegt ist. Dabei ist das KI-Modul dazu ausgebildet, einen Satz Eingangsgrößen mittels der internen Verarbeitungskette mindestens in eine Vorhersage einer kontinuierlichen Ausgangsgröße zu übersetzen. Es ist ein erstes Ausgangsmodul vorgesehen, das dazu ausgebildet ist, die Vorhersage auszugeben. Zusätzlich ist ein zweites Ausgangsmodul vorgesehen, das dazu ausgebildet ist, eine Unsicherheit der Vorhersage auszugeben.
  • Das erste Ausgangsmodul und das zweite Ausgangsmodul sind parallel geschaltet. Hierunter ist mindestens zu verstehen, dass beide Ausgangsmodule von dem ihr vorgeschalteten Teil der internen Verarbeitungskette des KI-Moduls mit den gleichen Informationen versorgt werden und unabhängig voneinander arbeiten.
  • In einer besonders vorteilhaften Ausgestaltung beinhaltet die interne Verarbeitungskette des KI-Moduls ein künstliches neuronales Netzwerk, KNN, mit einer Vielzahl aufeinanderfolgender Schichten, wobei das erste Ausgabemodul und das zweite Ausgabemodul ihre Eingabe jeweils von der gleichen Schicht des KNN beziehen. Wie zuvor beschrieben, kann dann die den beiden Ausgabemodulen zugeführte Eingabe in ihrer Dimensionalität gegenüber dem ursprünglichen Satz Eingangsgrößen bereits stark reduziert sein. Die Ausgabemodule müssen also kein großes Gefälle in Sachen Dimensionalität mehr überwinden. So ist beispielsweise eine Regression zu einem ein- bis dreidimensionalen Endergebnis für eine Entfernung besser motiviert, wenn sie von Daten mit nicht zu großer Dimensionalität ausgeht.
  • In einer weiteren besonders vorteilhaften Ausgestaltung umfassen das erste Ausgabemodul und das zweite Ausgabemodul jeweils eine oder mehrere Schichten eines KNN. Die Ausgabemodule können beispielsweise jeweils ein eigenes KNN beinhalten, sie können aber auch Teil des KNN in der internen Verarbeitungskette des KI-Moduls sein.
  • Wie zuvor beschrieben, kann das KI-Modul besonders vorteilhaft für Anwendungen genutzt werden, in denen die Eingangsgrößen Messdaten umfassen, die aus der physikalischen Beobachtung eines räumlichen Erfassungsbereichs durch mindestens einen Sensor gewonnen wurden. Dabei umfasst die kontinuierliche Ausgangsgröße, deren Wert durch das KI-Modul vorhergesagt wird, eine Position und/oder Ausdehnung eines Objekts, und/oder eine Position und/oder Ausdehnung einer für die Klassifikation oder Lokalisierung des Objekts vorausgewählten Region. Wie zuvor erläutert, kann das Training das KI-Modul robuster sowohl gegen situationsunabhängiges Sensorrauschen als auch gegen von der jeweiligen Situation abhängige Unsicherheiten machen.
  • Der Sensor kann insbesondere auf einem Fahrzeug montiert sein. Das KI-Modul kann dann beispielsweise dafür genutzt werden, für die Bedürfnisse eines Systems zum zumindest teilweise automatisierten Fahren oder eines Fahrassistenzsystems die Entfernung erkannter Objekte von dem Fahrzeug zu ermitteln. Die Information kann beispielsweise genutzt werden, um die Trajektorien solcher Objekte zu verfolgen und zu beurteilen, ob das Fahrzeug sein Verhalten ändern muss, um mit diesen Trajektorien nicht in Konflikt zu geraten.
  • Wie zuvor erläutert, können die Messdaten insbesondere Bildaufnahmen, Radardaten und/oder LIDAR-Daten umfassen. Diese Messmethoden haben gemeinsam, dass mit zunehmender Entfernung zu einem Objekt häufig weniger Messdaten zur Verfügung stehen, aus denen auf die Entfernung geschlossen werden kann. Dementsprechend wird die Statistik der Messdaten schlechter, was wiederum die Genauigkeit der Entfernungsbestimmung verringert. Wird das beschriebene KI-Modul verwendet, so kann diese Verschlechterung überwacht werden. Dabei muss das KI-Modul gar nicht notwendigerweise mit dem beschriebenen Trainingsverfahren trainiert worden sein. Ist das KI-Modul nicht mit dem beschriebenen Trainingsverfahren trainiert, so ist dennoch zumindest eine Messung der Unsicherheit möglich. Diese Unsicherheit wird allerdings deutlich geringer, wenn das KI-Modul mit dem beschriebenen Trainingsverfahren trainiert wurde.
  • Das Verfahren zum Trainieren kann, wie auch das Verfahren zum Betreiben, insbesondere rechnergestützt ausgeführt werden und somit in einer Software implementiert sein, die ein eigenständiges Produkt mit Kundennutzen darstellt. Die Software verleiht durch das mit ihr ermöglichte Training, ein KI-Modul dahingehend aufzuwerten, dass es aus gegebenen physikalischen Messdaten genauere Vorhersagen einer interessierenden kontinuierlichen Ausgangsgröße ermitteln kann. Daher bezieht sich die Erfindung auch auf Computerprogramm, enthaltend maschinenlesbare Anweisungen, die, wenn sie auf einem Computer, und/oder auf einem Steuergerät, ausgeführt werden, den Computer, bzw. das Steuergerät, dazu veranlassen, eines der beschriebenen Verfahren auszuführen. Ebenso bezieht sich die Erfindung auch auf einen maschinenlesbaren Datenträger und/oder ein Downloadprodukt mit dem Computerprogramm.
  • Weiterhin bezieht sich die Erfindung auch auf ein Steuergerät mit dem Computerprogramm, und/oder mit dem maschinenlesbaren Datenträger und/oder dem Downloadprodukt. Alternativ oder auch in Kombination hierzu kann das Steuergerät auch in beliebiger sonstiger Weise spezifisch zur Ausführung des beschriebenen Verfahrens ausgebildet sein, beispielsweise durch Verkörperung der Funktionalität des Verfahrens in Form von anwendungsspezifischen integrierten Schaltungen (ASICs).
  • Weitere, die Erfindung verbessernde Maßnahmen werden nachstehend gemeinsam mit der Beschreibung der bevorzugten Ausführungsbeispiele der Erfindung anhand von Figuren näher dargestellt.
  • Ausführungsbeispiele
  • Es zeigt:
    • 1 Ausführungsbeispiel des Verfahrens 100;
    • 2 Ausführungsbeispiel des KI-Moduls 1;
    • 3 Beispielhafte Situation, in der das KI-Modul 1 verwendet werden kann;
    • 4 Beispielhafte Situation mit mehreren Objekten 62, 62', 62", über die unterschiedlich sichere Aussagen getroffen werden können.
  • Nach 1 wird in Schritt 110 des Verfahrens 100 eine vorgegebene Menge von Lern-Sätzen 2a von Eingangsgrößen 2 in das KI-Modul 1 eingegeben. In der internen Verarbeitungskette 3 des KI-Moduls 1 wird in Schritt 120 zu jedem Lern-Satz 2a von Eingangsgrößen 2 eine Vorhersage 41 der interessierenden kontinuierlichen Ausgangsgröße ermittelt. Mit dem KI-Modul 1 wird in Schritt 130 zusätzlich eine Unsicherheit 42 der Vorhersage 41 ermittelt.
  • Dies kann, wie in 1 beispielhaft eingezeichnet, ebenfalls innerhalb der internen Verarbeitungskette 3 des KI-Moduls 1 geschehen und somit beim Training des KI-Moduls 1 mit trainiert werden. Es ist jedoch nicht zwingend, dass die Ermittlung der Unsicherheit in der gleichen internen Verarbeitungskette 3 stattfindet, die bereits für die Ermittlung der Vorhersage 41 zuständig ist.
  • Bei der Ermittlung der Unsicherheit 42 in Schritt 130 können, wie in 1 beispielhaft eingezeichnet, die Lern-Sätze 2a und/oder die hieraus gewonnene Vorhersage 41 einzeln oder in beliebig gewichteter Kombination herangezogen werden.
  • In dem in 1 gezeigten Beispiel wird gemäß Block 131 die Unsicherheit als Rauschen modelliert, dessen Standardabweichung σ gemäß Block 132 in die ermittelte Unsicherheit 42 einbezogen wird.
  • In Schritt 140 wird die Vorhersage 41 der kontinuierlichen Ausgangsgröße mit dem Lern-Wert 41a verglichen, der dem jeweiligen Lern-Satz 2a der Eingangsgröße 2 zugeordnet ist. Es wird eine Abweichung 41' bestimmt.
  • In Schritt 150 wird eine Fehlerfunktion 5 ausgewertet, die sowohl von der Abweichung 41' als auch von der Unsicherheit 42 abhängt. Sei beispielsweise L ( M , y ) = y y '
    Figure DE102018220941A1_0001
    eine Fehlerfunktion, die einem hier mit dem Buchstaben M bezeichneten Satz Parameter 31 für die interne Verarbeitungskette 3 des KI-Moduls 1 und einer hier mit dem Buchstaben y bezeichneten Vorhersage 41 einen Wert zuordnet, der der Abweichung 41' der Vorhersage 41 vom hier mit dem Buchstaben y' bezeichneten Lern-Wert 41a entspricht. Mit der Standardabweichung σ des Rauschens kann dieser Ausdruck für die Fehlerfunktion zu einer neuen Fehlerfunktion 5 nach der Vorschrift L ' ( M , y ) = 1 2 σ 2 L ( M , y ) + log σ 2
    Figure DE102018220941A1_0002
    erweitert werden. Diese Fehlerfunktion 5 kann nach Belieben durch Regularisierer, wie beispielsweise L2-Regularisierer oder stochastische Dropouts, angereichert werden. Die Fehlerfunktion 5 kann weiterhin auch auf die Bestimmung eines ganzen Batches Y von n Vorhersagen 41 erweitert werden. Wenn Y = [ y 1 , , y n ]
    Figure DE102018220941A1_0003
    die Netzwerkausgabematrix ist, in der alle Vorhersagen 41=y1,...,yn zusammengefasst sind, dann lässt sich die erweiterte Fehlerfunktion 5 als L ' ( M , Y ) = 1 n i = 1 n ( 1 2 σ 1 2 L ( M , y i ) + log σ 1 2 )
    Figure DE102018220941A1_0004
    schreiben.
  • In Schritt 160 werden im Rahmen der Optimierung neue Werte für die Parameter 31 der internen Verarbeitungskette 3 des KI-Moduls 1 bestimmt mit dem Ziel, dass bei erneuter Eingabe 110 der Lern-Sätze 2a der Wert der Fehlerfunktion 5 vermindert wird.
  • 2 zeigt ein Ausführungsbeispiel des KI-Moduls 1. Die interne Verarbeitungskette 3 des KI-Moduls 1, deren Verhalten durch die Parameter 31 festgelegt ist, umfasst ein künstliches neuronales Netzwerk, KNN, mit einer Vielzahl aufeinanderfolgender Schichten, von denen in 2 nur drei Schichten 3a-3c beispielhaft eingezeichnet sind.
  • Es ist ein erstes Ausgabemodul 4a vorgesehen, das dazu ausgebildet ist, die Vorhersage 41 auszugeben. Es ist ein zweites Ausgabemodul 4b vorgesehen, das dazu ausgebildet ist, die Unsicherheit 42 auszugeben. Beide Ausgabemodule 4a und 4b sind in dem Sinne parallel geschaltet, dass sie ihre Eingabe aus der gleichen Schicht 3c der internen Verarbeitungskette 3 beziehen.
  • Neben den Ausgabemodulen 4a und 4b können noch weitere Ausgabemodule vorgesehen sein, die beispielsweise eine Klassifikation vornehmen. Diese weiteren Ausgabemodule können ihre Eingabe ebenfalls aus der Schicht 3c der internen Verarbeitungskette 3 beziehen, aber auch aus einer anderen Schicht 3a, 3b.
  • 3 zeigt eine beispielhafte Situation, in der das fertig trainierte KI-Modul 1 verwendet werden kann. Das KI-Modul 1 ist hier in einem Fahrzeug 7 verbaut, das auch einen Sensor 61 trägt. Dieser Sensor kann beispielsweise eine Kamera, ein Radar-Sensor oder ein LIDAR-Sensor sein. LIDAR liefert eine räumliche Tiefeninformation und ist daher besonders gut geeignet für die Erkennung dreidimensionaler Objekte. Der Sensor 61 überwacht einen in Fahrtrichtung vor dem Fahrzeug 7 gelegenen Erfassungsbereich 6 und gibt seine Messdaten, hier Intensitätswerte von Bildpixeln, als Eingangsgrößen 2 an das KI-Modul 1 weiter. Das KI-Modul 1 ermittelt hieraus Vorhersagen 41 für interessierende Ausgangsgrößen sowie zugehörige Unsicherheiten 42 dieser Vorhersagen.
  • In dem in 3 gezeigten Beispiel können etwa die Position 62a und/oder die Ausdehnung 62b eines Objekts 62 im Erfassungsbereich 6 interessierende Ausgangsgrößen sein. Es können aber auch beispielsweise die Position 63a und/oder die Position 63b einer für die nähere Klassifikation und/oder Lokalisierung des Objekts 62 vorausgewählten Region 63 interessierende Ausgangsgrößen sein.
  • 4 zeigt eine beispielhafte Situation, in der die Unsicherheit 42, mit der Vorhersagen 41 über Eigenschaften verschiedener Objekte 62, 62', 62" getroffen werden können, für diese Objekte 62, 62', 62" deutlich unterschiedlich ist. Die Objekte 62, 62', 62" sind in diesem Beispiel Fahrzeuge auf einer Fahrbahn 8, gesehen aus der Perspektive eines nachfolgenden, in 4 nicht eingezeichneten Fahrzeugs.
  • Bezüglich des dem nachfolgenden Fahrzeug unmittelbar vorausfahrenden Fahrzeugs 62 sind Vorhersagen 41 mit der geringsten Unsicherheit 42 möglich, da das Fahrzeug 62 gut einsehbar ist. Bezüglich des weiter entfernten Fahrzeugs 62' wird die Unsicherheit 42 bereits größer, da dieses Fahrzeug 62' etwa in einem Kamerabild kleiner erscheint und somit durch weniger Pixel repräsentiert wird. Bezüglich des Fahrzeugs 62" ist die Unsicherheit am größten, da dieses Fahrzeug nicht nur am weitesten entfernt ist, sondern auch durch das Fahrzeug 62' etwa zur Hälfte verdeckt ist, was durch die in 4 gezeichnete teilweise Strichelung des Umrisses des Fahrzeugs 62" angedeutet ist.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 6957203 B2 [0004]
    • US 2016019459 A1 [0005]
    • EP 3171297 A1 [0006]
    • EP 1438603 B1 [0007]

Claims (17)

  1. Verfahren (100) zum Trainieren eines KI-Moduls (1), welches dazu ausgebildet ist, einen Satz Eingangsgrößen (2) durch eine interne Verarbeitungskette (3) mindestens in eine Vorhersage (41) einer kontinuierlichen Ausgangsgröße zu übersetzen, wobei das Verhalten der internen Verarbeitungskette (3) durch Parameter (31) festgelegt ist, mit den Schritten: • es wird eine vorgegebene Menge von Lern-Sätzen (2a) von Eingangsgrößen (2) in das KI-Modul (1) eingegeben (110); • zu jedem Lern-Satz (2a) wird mit dem KI-Modul (1) eine Vorhersage (41) der kontinuierlichen Ausgangsgröße ermittelt (120); • mit dem KI-Modul (1) wird zusätzlich eine Unsicherheit (42) der Vorhersage (41) ermittelt (130); • die vom KI-Modul (1) gelieferte Vorhersage (41) wird mit einem dem jeweiligen Lern-Satz (2a) der Eingangsgröße (2) zugeordneten Lern-Wert (41a) der Vorhersage verglichen (140); • es wird eine Fehlerfunktion (5) ausgewertet (150), die sowohl von der im Vergleich (140) ermittelten Abweichung (41') der Vorhersage (41) vom Lern-Wert (41a) als auch von der Unsicherheit (42) der Vorhersage (41) abhängt; • die Parameter (31) werden dahingehend optimiert (160), dass bei erneuter Eingabe (110) der Lern-Sätze (2a) der Wert der Fehlerfunktion (5) vermindert wird.
  2. Verfahren (100) nach Anspruch 1, wobei ein KI-Modul (1) gewählt wird, das mindestens ein künstliches neuronales Netzwerk, KNN, als interne Verarbeitungskette (3) beinhaltet.
  3. Verfahren (100) nach einem der Ansprüche 1 bis 2, wobei ein KI-Modul (1) gewählt wird, das dazu ausgebildet ist, die Vorhersage (41), und/oder die Unsicherheit (42) der Vorhersage (41), im Wege der Regression zu ermitteln.
  4. Verfahren (100) nach einem der Ansprüche 1 bis 3, wobei die Unsicherheit (42) der Vorhersage (41) als Rauschen modelliert wird (131) und wobei eine Standardabweichung σ dieses Rauschens in die ermittelte Unsicherheit (42) einbezogen wird (132).
  5. Verfahren (100) nach Anspruch 4, wobei eine Fehlerfunktion (5) gewählt wird, die einen Logarithmus der Standardabweichung σ in einem additiven Term beinhaltet.
  6. Verfahren (100) nach einem der Ansprüche 1 bis 5, wobei mindestens ein Lern-Satz (2a) von Eingangsgrößen (2), und/oder mindestens ein Lern-Wert (41a) der Vorhersage, mindestens einen Messwert einer physikalischen Messgröße umfasst.
  7. Verfahren zum Betreiben eines KI-Moduls (1), wobei das KI-Modul (1) in einer ersten Phase mit dem Verfahren (100) nach einem der Ansprüche 1 bis 6 trainiert wird und wobei in einer zweiten Phase • physikalische Messdaten mit mindestens einem Sensor erfasst werden, • die physikalischen Messdaten als Eingangsgrößen (2) in das KI-Modul (1) eingegeben werden und • mindestens ein Aktor, der mindestens eine mechanische Bewegung bewirkt, abhängig von der vom KI-Modul (1) gelieferten Vorhersage (41) der Ausgangsgröße, und/oder von der Unsicherheit (42) dieser Vorhersage (41), angesteuert wird.
  8. Datensatz von Parametern (31), der das Verhalten der internen Verarbeitungskette (3) eines KI-Moduls (1) festlegt, erhalten mit einem Verfahren (100) nach einem der Ansprüche 1 bis 6.
  9. KI-Modul (1) mit einer internen Verarbeitungskette (3), deren Verhalten durch Parameter (31) festgelegt ist, wobei das KI-Modul (1) dazu ausgebildet ist, einen Satz Eingangsgrößen (2) mittels der internen Verarbeitungskette (3) mindestens in eine Vorhersage (41) einer kontinuierlichen Ausgangsgröße zu übersetzen, wobei ein erstes Ausgangsmodul (4a) vorgesehen ist, das dazu ausgebildet ist, die Vorhersage (41) auszugeben, wobei ein zweites Ausgangsmodul (4b) vorgesehen ist, das dazu ausgebildet ist, eine Unsicherheit (42) der Vorhersage (41) auszugeben, und wobei das erste Ausgangsmodul (4a) und das zweite Ausgangsmodul (4b) mindestens dahingehend parallel geschaltet sind, dass beide Ausgangsmodule (4a, 4b) von dem ihr vorgeschalteten Teil der internen Verarbeitungskette (3) des KI-Moduls (1) mit den gleichen Informationen versorgt werden und unabhängig voneinander arbeiten.
  10. KI-Modul (1) nach Anspruch 9, wobei die interne Verarbeitungskette (3) des KI-Moduls (1) ein künstliches neuronales Netzwerk, KNN, mit einer Vielzahl aufeinanderfolgender Schichten (3a-3c) beinhaltet, wobei das erste Ausgabemodul (4a) und das zweite Ausgabemodul (4b) ihre Eingabe jeweils von der gleichen Schicht (3c) des KNN beziehen.
  11. KI-Modul (1) nach Anspruch 10, wobei das erste Ausgabemodul (4a) und das zweite Ausgabemodul (4b) jeweils eine oder mehrere Schichten eines KNN umfassen.
  12. Verwendung eines KI-Moduls (1) nach einem der Ansprüche 9 bis 11, wobei die Eingangsgrößen (2) Messdaten umfassen, die aus der physikalischen Beobachtung eines räumlichen Erfassungsbereichs (6) durch mindestens einen Sensor (61) gewonnen wurden, wobei die kontinuierliche Ausgangsgröße eine Position (62a) und/oder Ausdehnung (62b) eines Objekts (62), und/oder eine Position (63a) und/oder Ausdehnung (63b) einer für die Klassifikation oder Lokalisierung des Objekts (62) vorausgewählten Region (63), umfasst.
  13. Verwendung nach Anspruch 12, wobei der Sensor (61) auf einem Fahrzeug (7) montiert ist.
  14. Verwendung nach einem der Ansprüche 12 bis 13, wobei die Messdaten Bildaufnahmen, Radardaten und/oder LIDAR-Daten umfassen.
  15. Computerprogramm, enthaltend maschinenlesbare Anweisungen, die, wenn sie auf einem Computer, und/oder auf einem Steuergerät, ausgeführt werden, den Computer, bzw. das Steuergerät, dazu veranlassen, ein Verfahren nach einem der Ansprüche 1 bis 7 auszuführen.
  16. Maschinenlesbarer Datenträger und/oder Downloadprodukt mit dem Computerprogramm nach Anspruch 15.
  17. Computer und/oder Steuergerät mit dem Computerprogramm nach Anspruch 15, und/oder mit dem maschinenlesbaren Datenträger und/oder dem Downloadprodukt nach Anspruch 16, und/oder in sonstiger Weise spezifisch ausgebildet zur Ausführung des Verfahrens nach einem der Ansprüche 1 bis 7.
DE102018220941.3A 2018-12-04 2018-12-04 Auswertung von Messgrößen mit KI-Modulen unter Berücksichtigung von Messunsicherheiten Pending DE102018220941A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102018220941.3A DE102018220941A1 (de) 2018-12-04 2018-12-04 Auswertung von Messgrößen mit KI-Modulen unter Berücksichtigung von Messunsicherheiten
CN201911219144.5A CN111275068A (zh) 2018-12-04 2019-12-03 在考虑测量不确定性的情况下利用ki模块评估测量参量

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102018220941.3A DE102018220941A1 (de) 2018-12-04 2018-12-04 Auswertung von Messgrößen mit KI-Modulen unter Berücksichtigung von Messunsicherheiten

Publications (1)

Publication Number Publication Date
DE102018220941A1 true DE102018220941A1 (de) 2020-06-04

Family

ID=70680882

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018220941.3A Pending DE102018220941A1 (de) 2018-12-04 2018-12-04 Auswertung von Messgrößen mit KI-Modulen unter Berücksichtigung von Messunsicherheiten

Country Status (2)

Country Link
CN (1) CN111275068A (de)
DE (1) DE102018220941A1 (de)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021089591A1 (de) 2019-11-08 2021-05-14 Robert Bosch Gmbh Verfahren zum trainieren eines künstlichen neuronalen netzes, computerprogramm, speichermedium, vorrichtung, künstliches neuronales netz und anwendung des künstlichen neuronalen netzes
DE102020207564A1 (de) 2020-06-18 2021-12-23 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren und Vorrichtung zum Trainieren eines Bildklassifikators
DE102020215539A1 (de) 2020-12-09 2022-06-09 Robert Bosch Gesellschaft mit beschränkter Haftung Bestimmung der Robustheit eines Objektdetektors und/oder Klassifikators für Bilddaten
WO2022148570A1 (de) * 2021-01-05 2022-07-14 Volkswagen Aktiengesellschaft Verfahren, computerprogramm und vorrichtung zum betreiben eines ki-moduls

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113378468B (zh) * 2021-06-18 2024-03-29 中国科学院地理科学与资源研究所 多维地学参量的权重优化方法及***

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6957203B2 (en) 1995-09-20 2005-10-18 Pavilion Technologies Method and apparatus for operating a neural network with missing and/or incomplete data
US20160019459A1 (en) 2014-07-18 2016-01-21 University Of Southern California Noise-enhanced convolutional neural networks
EP1438603B1 (de) 2001-10-22 2017-03-22 Honeywell International Inc. Multisensor-daten-fusionstechnik
EP3171297A1 (de) 2015-11-18 2017-05-24 CentraleSupélec Bildsegmentierung mit gemeinsamer randerkennung und objekterkennung mittels tiefen lernens

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6957203B2 (en) 1995-09-20 2005-10-18 Pavilion Technologies Method and apparatus for operating a neural network with missing and/or incomplete data
EP1438603B1 (de) 2001-10-22 2017-03-22 Honeywell International Inc. Multisensor-daten-fusionstechnik
US20160019459A1 (en) 2014-07-18 2016-01-21 University Of Southern California Noise-enhanced convolutional neural networks
EP3171297A1 (de) 2015-11-18 2017-05-24 CentraleSupélec Bildsegmentierung mit gemeinsamer randerkennung und objekterkennung mittels tiefen lernens

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021089591A1 (de) 2019-11-08 2021-05-14 Robert Bosch Gmbh Verfahren zum trainieren eines künstlichen neuronalen netzes, computerprogramm, speichermedium, vorrichtung, künstliches neuronales netz und anwendung des künstlichen neuronalen netzes
DE102020207564A1 (de) 2020-06-18 2021-12-23 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren und Vorrichtung zum Trainieren eines Bildklassifikators
DE102020215539A1 (de) 2020-12-09 2022-06-09 Robert Bosch Gesellschaft mit beschränkter Haftung Bestimmung der Robustheit eines Objektdetektors und/oder Klassifikators für Bilddaten
WO2022148570A1 (de) * 2021-01-05 2022-07-14 Volkswagen Aktiengesellschaft Verfahren, computerprogramm und vorrichtung zum betreiben eines ki-moduls

Also Published As

Publication number Publication date
CN111275068A (zh) 2020-06-12

Similar Documents

Publication Publication Date Title
DE102018220941A1 (de) Auswertung von Messgrößen mit KI-Modulen unter Berücksichtigung von Messunsicherheiten
DE102018128289B4 (de) Verfahren und vorrichtung für eine autonome systemleistung und zur einstufung
EP4193135A1 (de) Computerimplementiertes verfahren zum bereitstellen eines test-verlaufs zu testender verkehrsszenarien
DE102019124018A1 (de) Verfahren zum Optimieren von Tests von Regelsystemen für automatisierte Fahrdynamiksysteme
AT523834B1 (de) Verfahren und System zum Testen eines Fahrerassistenzsystems
DE102019209644A1 (de) Verfahren zum Trainieren eines neuronalen Netzes
DE102019114459A1 (de) Verfahren zum Scannen von Teilbereichen einer Probe mittels eines Rastermikroskops, Computerprogrammprodukt, computerlesbares Medium und System zum Scannen von Teilbereichen einer Probe mittels eines Rastermikroskops
DE102018128890A1 (de) Verfahren und Testvorrichtung zum Testen eines Fahrassistenzsystems für ein Kraftfahrzeug
DE102019204139A1 (de) Training für künstliche neuronale Netzwerke mit besserer Ausnutzung der Lern-Datensätze
DE102017219282A1 (de) Verfahren und Vorrichtung zum automatischen Erzeugen eines künstlichen neuronalen Netzes
DE19718262A1 (de) Verfahren und System zur Generierung eines Prozeßmodells eines technischen Problems
DE102021207613A1 (de) Verfahren zur Qualitätssicherung eines Systems
EP3959660A1 (de) Training trainierbarer module mit lern-daten, deren labels verrauscht sind
EP3576013A1 (de) Abschätzen eines verlaufs eines schienenpfads
DE102021133977A1 (de) Verfahren und System zur Klassifikation von Szenarien eines virtuellen Tests sowie Trainingsverfahren
DE102020205962B3 (de) Vorrichtung und Verfahren zum Betreiben eines Prüfstands
DE102013225768A1 (de) Verfahren und Vorrichtung zum Ermitteln eines LOLIMOT-Modells
DE102013206274A1 (de) Verfahren und Vorrichtung zum Anpassen eines nicht parametrischen Funktionsmodells
DE102017219269A1 (de) Klassifizierung mit automatischer Auswahl aussichtsreicher Lerndaten
WO2021245151A1 (de) Unüberwachtes lernen einer gemeinsamen darstellung von daten von sensoren unterschiedlicher modalität
DE102020208765A1 (de) Bildklassifikator mit variablen rezeptiven Feldern in Faltungsschichten
DE102019217300A1 (de) Verfahren zum Trainieren eines künstlichen neuronalen Netzes, Computerprogramm, Speichermedium, Vorrichtung, künstliches neuronales Netz und Anwendung des künstlichen neuronalen Netzes
DE102019132151A1 (de) Verfahren zum Kalibrieren eines Umfeldsensors eines Fahrzeugs anhand von Daten eines Referenz-Umfeldsensors unter Berücksichtigung von Belegungskarten, Recheneinrichtung sowie Sensorsystem
EP4202779A1 (de) Verfahren und system zur klassifikation von szenarien eines virtuellen tests sowie trainingsverfahren
DE102022201853A1 (de) Erkennung kritischer Verkehrssituationen mit Petri-Netzen