-
Die vorliegende Erfindung betrifft die physikalische Messtechnik, bei der eine interessierende Größe durch ein KI-Modul aus Messdaten ausgewertet und somit indirekt gemessen wird.
-
Stand der Technik
-
In vielen Bereichen der Messtechnik ist die letztendlich interessierende Größe keiner unmittelbaren Messung zugänglich, bzw. der Aufwand für eine solche unmittelbare Messung ist zu groß. Die Größe wird dann aus Messdaten anderer Größen, die einer unmittelbaren Messung zugänglich sind, ausgewertet und somit indirekt gemessen.
-
Neuronale Netzwerke sind gut geeignet, um aus sehr hochdimensionalen Messdaten, wie beispielsweise Bilddaten, sehr viel niederdimensionalere Ausgangsgrößen, wie beispielsweise eine Position, Größe oder einen Typ eines Objekts, auszuwerten. Wenn diese Netzwerke mit einer hinreichenden Anzahl unterschiedlicher Situationen trainiert werden, funktioniert die Auswertung auch in völlig neuen, nicht trainierten Situationen. Dies ist beispielsweise für das zumindest teilweise automatisierte Fahren wichtig, da sich bei weitem nicht alle auftretenden Verkehrssituationen vorhersagen lassen.
-
Die
US 6,957,203 B2 offenbart ein Verfahren, mit dem bei der Auswertung von Messdaten mit neuronalen Netzwerken die im realen Messbetrieb nicht zu vermeidenden Messunsicherheiten berücksichtigt werden können.
-
Die
US 2016/019 459 A1 offenbart, durch bewusste Hinzufügung von Rauschen während des Trainings die Auswertung robuster gegen Messunsicherheiten zu machen.
-
Die
EP 3 171 297 A1 beschäftigt sich mit der Klassifikation auf der Basis gelabelter Daten und berücksichtigt menschliche Fehler beim Labeln der „ground truth“.
-
Die
EP 1 438 603 B1 offenbart, die Daten mehrerer Sensoren zu fusionieren, um ein Objekt, wie etwa ein Flugzeug, genauer zu lokalisieren.
-
Offenbarung der Erfindung
-
Im Rahmen der Erfindung wurde ein Verfahren zum Trainieren eines KI-Moduls entwickelt. Das KI-Modul ist dazu ausgebildet, einen Satz Eingangsgrößen durch eine interne Verarbeitungskette mindestens in eine Vorhersage einer kontinuierlichen Ausgangsgröße zu übersetzen. Dies schließt nicht aus, dass das KI-Modul aus den gleichen Eingangsgrößen noch weitere Ausgangsgrößen ermittelt. Das KI-Modul kann beispielsweise dazu ausgebildet sein, aus Bilddaten oder anderen physikalischen Messdaten, die durch Beobachtung eines räumlichen Erfassungsbereichs gewonnen wurden, die Entfernung zu einem Objekt als kontinuierliche Ausgangsgröße zu ermitteln und zugleich den Typ dieses Objekts zu klassifizieren. Dies schließt nicht aus, dass alternativ oder in Kombination hierzu auch die kontinuierliche Ausgangsgröße für Klassifikationsaufgaben genutzt wird.
-
Das Verhalten der internen Verarbeitungskette ist durch Parameter festgelegt. Diese Parameter werden während des Trainings gelernt, und auf der Basis der gelernten Parameter arbeitet das KI-Modul im späteren Betrieb.
-
Bei dem Verfahren wird eine vorgegebene Menge von Lern-Sätzen von Eingangsgrößen in das KI-Modul eingegeben. Zu jedem Lern-Satz von Eingangsgrößen wird mit dem KI-Modul eine Vorhersage der kontinuierlichen Ausgangsgröße ermittelt. Mit dem KI-Modul wird nun zusätzlich eine Unsicherheit der Vorhersage ermittelt.
-
Die vom KI-Modul gelieferte Vorhersage wird mit einem dem jeweiligen Lern-Satz der Eingangsgröße zugeordneten Lern-Wert der Vorhersage verglichen. Die Lern-Daten beinhalten also Paare aus je einem Lern-Satz von Eingangsgrößen, der etwa ein Bild sein kann, und einem zugehörigen Lern-Wert der Vorhersage, der etwa eine Entfernung zu einem im Bild sichtbaren Objekt sein kann.
-
Es wird eine Fehlerfunktion ausgewertet, die sowohl von der im besagten Vergleich ermittelten Abweichung der Vorhersage vom Lern-Wert als auch von der Unsicherheit der Vorhersage abhängt. Die Fehlerfunktion beinhaltet also ein beliebiges Maß für die Unsicherheit. Die Parameter der internen Verarbeitungskette des KI-Moduls werden dahingehend optimiert, dass bei erneuter Eingabe der Lern-Sätze von Eingangsgrößen der Wert der Fehlerfunktion vermindert wird. Diese Optimierung kann ein beliebiges Abbruchkriterium haben. Beispielsweise kann die Optimierung beendet werden, wenn der Wert der Fehlerfunktion einen bestimmten Schwellwert unterschreitet. Die Optimierung kann beispielsweise auch dann beendet werden, wenn die Änderung der Fehlerfunktion von einem Durchlauf zum nächsten einen vorgegebenen Schwellwert unterschreitet.
-
Die Parameter der internen Verarbeitungskette werden im Hinblick darauf optimiert, dass bei Eingabe einer vorgegebenen Menge von Lern-Sätzen von Eingangsgrößen der Wert einer Fehlerfunktion minimiert wird.
-
Hierfür muss das KI-Modul lediglich mindestens während des Trainings in der Lage sein, aus dem Satz Eingangsgrößen zusätzlich zu der Vorhersage der kontinuierlichen Ausgangsgröße auch eine Unsicherheit dieser Vorhersage zu ermitteln. Es kann zwar sowohl während des Trainings als auch im späteren Betrieb ein KI-Modul verwendet werden, das auch die Unsicherheit der Vorhersage ermittelt. Dies ist jedoch nicht zwingend erforderlich.
-
Vielmehr ist es beispielsweise auch möglich, dass das KI-Modul nur für die Zwecke des Trainings um die Ausgabe auch der Unsicherheit erweitert wird und dass diese Funktionalität für den späteren Betrieb des KI-Moduls wieder entfernt wird. Dies kann beispielsweise sinnvoll sein, wenn das Training des Systems gegen eine Unsicherheit der Messung gehärtet werden soll, diese Unsicherheit selbst im späteren Betrieb aber nicht benötigt wird. Die fortwährende Ermittlung der Unsicherheit kostet dann nur unnötigen Rechenaufwand und damit Energie.
-
Das Training kann beispielsweise ausgehend von Standardwerten für die Parameter gestartet werden, wie etwa zufälligen Werten. Die Fehlerfunktion wird dann zunächst einen hohen Wert annehmen. Mit einem multivariaten Optimierungsverfahren, etwa einem Gradientenabstiegsverfahren, können die Parameter dann so optimiert werden, dass der Wert der Fehlerfunktion sukzessive immer geringer wird.
-
Dabei kann insbesondere beispielsweise bei jedem Trainingsschritt ein Mittelwert über diejenigen Werte der Fehlerfunktion, die sich für alle Lern-Sätze von Eingangsgrößen aus der vorgegebenen Menge ergeben, in das Gütemaß für die Optimierung eingehen. Dieses Gütemaß kann noch beliebig verfeinert werden, etwa durch Berücksichtigung maximaler oder minimaler Werte der Fehlerfunktion auf der vorgegebenen Menge von Lern-Sätzen.
-
Es wurde erkannt, dass die Berücksichtigung auch des Maßes für die Unsicherheit in der Fehlerfunktion das Training des KI-Moduls speziell gegen solche Unsicherheiten der Messung härten kann, die tatsächlich physikalisch bei der Messung auftreten. Das Training selbst kann beispielsweise rechnergestützt durchgeführt werden. Die Information, welche Unsicherheiten physikalisch auftreten, steckt in den durch physikalische Messung ermittelten Lern-Sätzen von Eingangsgrößen in Verbindung mit den jeweils als „ground truth“ vorgegebenen Lern-Werten der Vorhersage. Beispielsweise kann eine große Anzahl von Bildern, die mit einer bestimmten Kamera aufgenommen sind, in Verbindung mit den tatsächlichen Entfernungen von der Kameraposition, in denen sich jeweils ein Objekt in dem Bild befindet, vorgegeben sein.
-
Dabei kann das Training insbesondere auch berücksichtigen, dass die Unsicherheit nicht für alle mit dem jeweiligen physikalischen Instrument durchgeführten Messungen konstant ist. So kann beispielsweise die Unsicherheit, mit der die Entfernung zu einem Objekt behaftet ist, durchaus von der Entfernung selbst abhängen. Werden beispielsweise Kamerabilder verwendet, so erscheint darin ein Objekt umso kleiner, je weiter es von der Kamera entfernt ist. Es wird dann in den Bildern durch entsprechend weniger Pixel repräsentiert. Auch steigt mit zunehmender Entfernung zur Kamera die Wahrscheinlichkeit, dass ein Objekt teilweise durch ein anderes Objekt abgeschattet wird. Die Unsicherheit kann weiterhin auch von der Situation abhängen. Beispielsweise sind Kamerabilder, die bei dichtem Regen aufgenommen werden, möglicherweise weniger zuverlässig auszuwerten als Kamerabilder, die bei Sonnenschein aufgenommen werden.
-
Das trainierte KI-Modul kann weiterhin genutzt werden, um auch im späteren Betrieb des KI-Moduls fortwährend eine Information über die Unsicherheit zu liefern, mit der die Vorhersage der Ausgangsgröße behaftet ist. Auf diese Weise können die Messunsicherheiten verwendeter Sensoren eingehend studiert und beispielsweise herauskorrigiert werden, um bei der Verfolgung von Objekten eine bessere Genauigkeit zu erzielen. Die Aussage über die Unsicherheit kann insbesondere beispielsweise genutzt werden, um systematisch das Verhalten des verwendeten Sensors und der nachgeschalteten Auswertung unter verschiedenen Umgebungsbedingungen zu untersuchen. Hierbei kann beispielsweise die bereits erwähnte Abhängigkeit der Unsicherheit von der Entfernung zum Sensor näher analysiert werden.
-
Die Aussage über die Unsicherheit kann sowohl während des Trainings als auch im späteren Betrieb des KI-Moduls die Bereinigung der Objekterkennung um Artefakte vereinfachen. Beispielsweise können je nach verwendetem Algorithmus an Stelle eines „wahren“ Objekts scheinbar mehrere dicht benachbarte Objekte mit vergleichbaren Konfidenzen erkannt werden. Liegen diese Objekte so nah beieinander, dass sich die Unsicherheiten ihrer Positionen überlappen, dann ist es plausibel, mehrere Detektionen zu einer Detektion zusammenzufassen.
-
Die hier betrachteten Unsicherheiten können ihre Ursachen beispielsweise im Mechanismus der physikalischen Beobachtung oder im Umfeld zum Zeitpunkt der Beobachtung haben. Derartige Unsicherheiten werden auch aleatorische Unsicherheiten genannt, im Unterschied zu epistemischen Unsicherheiten, die durch die Modellierung mit dem KI-Modul selbst entstehen.
-
In einer besonders vorteilhaften Ausgestaltung wird ein KI-Modul gewählt, das mindestens ein künstliches neuronales Netzwerk, KNN, als interne Verarbeitungskette beinhaltet. Derartige Netzwerke können beispielsweise als Stapelung aufeinanderfolgender Schichten unterschiedlichen Typs ausgebildet sein, wobei der Satz Eingangsgrößen der ersten Schicht als Eingabe zugeführt wird und wobei die Ausgabe einer Schicht jeweils der darauffolgenden Schicht als Eingabe zugeführt wird. Das KNN kann dann Schichten beinhalten, die aus ihrer Eingabe jeweils bestimmte Merkmale erkennen. Beispiele für derartige Schichten sind Faltungsschichten. Das KNN kann zusätzlich Schichten beinhalten, deren Ausgabe eine geringere Dimensionalität hat als ihre Eingabe. Beispiele für derartige Schichten sind Pooling-Schichten. Die Dimensionalität der eingegebenen Daten kann also beim Durchwandern des Netzwerks schrittweise reduziert werden. Auf diese Weise kann insbesondere ein großes Gefälle in Sachen Dimensionalität überwunden werden. So lebt ein Bild mit 512x512 Pixeln in einem Raum mit Dimensionalität 262.144, während eine Entfernung zu einem Objekt allenfalls eine dreidimensionale Größe ist.
-
Die Parameter, die das Verhalten eines KNN festlegen, können beispielsweise Gewichte sein, mit denen verschiedene Aktivierungen eines Neurons untereinander gewichtet werden.
-
In einer weiteren vorteilhaften Ausgestaltung wird ein KI-Modul gewählt, das dazu ausgebildet ist, die Vorhersage, und/oder die Unsicherheit der Vorhersage, im Wege der Regression zu ermitteln. Auf diese Weise kann die Ermittlung der Vorhersage robuster gegen Rauschen in den Eingangsgrößen gemacht werden, wobei die Unterdrückung des Rauschens beim Training des KI-Moduls auf den jeweiligen physikalischen Anwendungsfall spezifisch gelernt wird.
-
In einer besonders vorteilhaften Ausgestaltung wird die Unsicherheit der Vorhersage als Rauschen modelliert, und eine Standardabweichung σ dieses Rauschens wird in die ermittelte Unsicherheit der Vorhersage einbezogen. Die Standardabweichung σ kann dann beispielsweise analog zu der Vorhersage selbst durch Regression ermittelt werden. Zur Berücksichtigung der Unsicherheit ist dann nur ein zusätzlicher Regressor erforderlich. Die angenommene Verteilung des Rauschens kann beispielsweise eine Gauß-Verteilung sein, wobei deren Kovarianzmatrix beispielsweise diagonal oder isotopisch, aber auch voll besetzt sein kann. Die angenommene Verteilung des Rauschens kann beispielsweise auch eine Laplace-Verteilung sein.
-
Die Ermittlung der Standardabweichung σ kann robuster gemacht werden, indem nicht die Standabweichung σ direkt ermittelt wird, sondern ein Logarithmus hiervon. Dieser Logarithmus kann direkt als Maß für die Unsicherheit in die Fehlerfunktion eingehen. Vorteilhaft wird somit eine Fehlerfunktion gewählt, die einen Logarithmus der Standardabweichung σ in einem additiven Term beinhaltet.
-
In einer weiteren vorteilhaften Ausgestaltung umfasst mindestens ein Lern-Satz von Eingangsgrößen, und/oder mindestens ein Lern-Wert der Vorhersage, mindestens einen Messwert einer physikalischen Messgröße. Der Messwert kann insbesondere mit einem Sensor ermittelt werden, der eine physikalische Einwirkung registriert, deren Art und/oder Stärke durch die physikalische Messgröße charakterisiert ist. Das KI-Modul lernt dann die unvermeidlichen Variabilitäten bei der physikalischen Erfassung der Messgröße mit.
-
Die Erfindung bezieht sich auch auf ein Verfahren zum Betreiben eines Kl-Moduls. In einer ersten Phase wird das KI-Modul nach dem beschriebenen Trainingsverfahren trainiert. In einer zweiten Phase werden physikalische Messdaten mit mindestens einem Sensor erfasst. Die physikalischen Messdaten werden als Eingangsgrößen in das KI-Modul eingegeben. Mindestens ein Aktor, der mindestens eine mechanische Bewegung bewirkt, wird abhängig von der vom KI-Modul gelieferten Vorhersage der Ausgangsgröße, und/oder von der Unsicherheit dieser Vorhersage, angesteuert. Die letztendlich bewirkte mechanische Bewegung ist dann der durch die Eingangsgrößen charakterisierten Situation angemessener.
-
Beim Training nach dem beschriebenen Trainingsverfahren entsteht ein Datensatz, mit dem das Verhalten der internen Verarbeitungskette eines KI-Moduls so festgelegt werden kann, dass es bei der konkreten Anwendung, die Gegenstand des Trainings war, im normalen Betrieb genauere Vorhersagen für den Wert der interessierenden kontinuierlichen Ausgangsgröße machen kann. Ein bestehendes KI-Modul lässt sich auch im Nachhinein mit einem derartigen Datensatz aufwerten. Daher ist der Datensatz ein eigenständiges Produkt mit Kundennutzen. Beispielsweise kann als externe Dienstleistung angeboten werden, aus physikalisch gemessenen Sätzen von Eingangsgrößen einen Datensatz von Parametern für das KI-Modul zu ermitteln, der das KI-Modul zu genaueren Vorhersagen befähigt. Daher bezieht sich die Erfindung auch auf einen Datensatz von Parametern, der das Verhalten der internen Verarbeitungskette eines KI-Moduls festlegt und mit dem beschriebenen Trainingsverfahren erhalten wurde.
-
Die Erfindung bezieht sich auch auf ein KI-Modul mit einer internen Verarbeitungskette, deren Verhalten durch Parameter festgelegt ist. Dabei ist das KI-Modul dazu ausgebildet, einen Satz Eingangsgrößen mittels der internen Verarbeitungskette mindestens in eine Vorhersage einer kontinuierlichen Ausgangsgröße zu übersetzen. Es ist ein erstes Ausgangsmodul vorgesehen, das dazu ausgebildet ist, die Vorhersage auszugeben. Zusätzlich ist ein zweites Ausgangsmodul vorgesehen, das dazu ausgebildet ist, eine Unsicherheit der Vorhersage auszugeben.
-
Das erste Ausgangsmodul und das zweite Ausgangsmodul sind parallel geschaltet. Hierunter ist mindestens zu verstehen, dass beide Ausgangsmodule von dem ihr vorgeschalteten Teil der internen Verarbeitungskette des KI-Moduls mit den gleichen Informationen versorgt werden und unabhängig voneinander arbeiten.
-
In einer besonders vorteilhaften Ausgestaltung beinhaltet die interne Verarbeitungskette des KI-Moduls ein künstliches neuronales Netzwerk, KNN, mit einer Vielzahl aufeinanderfolgender Schichten, wobei das erste Ausgabemodul und das zweite Ausgabemodul ihre Eingabe jeweils von der gleichen Schicht des KNN beziehen. Wie zuvor beschrieben, kann dann die den beiden Ausgabemodulen zugeführte Eingabe in ihrer Dimensionalität gegenüber dem ursprünglichen Satz Eingangsgrößen bereits stark reduziert sein. Die Ausgabemodule müssen also kein großes Gefälle in Sachen Dimensionalität mehr überwinden. So ist beispielsweise eine Regression zu einem ein- bis dreidimensionalen Endergebnis für eine Entfernung besser motiviert, wenn sie von Daten mit nicht zu großer Dimensionalität ausgeht.
-
In einer weiteren besonders vorteilhaften Ausgestaltung umfassen das erste Ausgabemodul und das zweite Ausgabemodul jeweils eine oder mehrere Schichten eines KNN. Die Ausgabemodule können beispielsweise jeweils ein eigenes KNN beinhalten, sie können aber auch Teil des KNN in der internen Verarbeitungskette des KI-Moduls sein.
-
Wie zuvor beschrieben, kann das KI-Modul besonders vorteilhaft für Anwendungen genutzt werden, in denen die Eingangsgrößen Messdaten umfassen, die aus der physikalischen Beobachtung eines räumlichen Erfassungsbereichs durch mindestens einen Sensor gewonnen wurden. Dabei umfasst die kontinuierliche Ausgangsgröße, deren Wert durch das KI-Modul vorhergesagt wird, eine Position und/oder Ausdehnung eines Objekts, und/oder eine Position und/oder Ausdehnung einer für die Klassifikation oder Lokalisierung des Objekts vorausgewählten Region. Wie zuvor erläutert, kann das Training das KI-Modul robuster sowohl gegen situationsunabhängiges Sensorrauschen als auch gegen von der jeweiligen Situation abhängige Unsicherheiten machen.
-
Der Sensor kann insbesondere auf einem Fahrzeug montiert sein. Das KI-Modul kann dann beispielsweise dafür genutzt werden, für die Bedürfnisse eines Systems zum zumindest teilweise automatisierten Fahren oder eines Fahrassistenzsystems die Entfernung erkannter Objekte von dem Fahrzeug zu ermitteln. Die Information kann beispielsweise genutzt werden, um die Trajektorien solcher Objekte zu verfolgen und zu beurteilen, ob das Fahrzeug sein Verhalten ändern muss, um mit diesen Trajektorien nicht in Konflikt zu geraten.
-
Wie zuvor erläutert, können die Messdaten insbesondere Bildaufnahmen, Radardaten und/oder LIDAR-Daten umfassen. Diese Messmethoden haben gemeinsam, dass mit zunehmender Entfernung zu einem Objekt häufig weniger Messdaten zur Verfügung stehen, aus denen auf die Entfernung geschlossen werden kann. Dementsprechend wird die Statistik der Messdaten schlechter, was wiederum die Genauigkeit der Entfernungsbestimmung verringert. Wird das beschriebene KI-Modul verwendet, so kann diese Verschlechterung überwacht werden. Dabei muss das KI-Modul gar nicht notwendigerweise mit dem beschriebenen Trainingsverfahren trainiert worden sein. Ist das KI-Modul nicht mit dem beschriebenen Trainingsverfahren trainiert, so ist dennoch zumindest eine Messung der Unsicherheit möglich. Diese Unsicherheit wird allerdings deutlich geringer, wenn das KI-Modul mit dem beschriebenen Trainingsverfahren trainiert wurde.
-
Das Verfahren zum Trainieren kann, wie auch das Verfahren zum Betreiben, insbesondere rechnergestützt ausgeführt werden und somit in einer Software implementiert sein, die ein eigenständiges Produkt mit Kundennutzen darstellt. Die Software verleiht durch das mit ihr ermöglichte Training, ein KI-Modul dahingehend aufzuwerten, dass es aus gegebenen physikalischen Messdaten genauere Vorhersagen einer interessierenden kontinuierlichen Ausgangsgröße ermitteln kann. Daher bezieht sich die Erfindung auch auf Computerprogramm, enthaltend maschinenlesbare Anweisungen, die, wenn sie auf einem Computer, und/oder auf einem Steuergerät, ausgeführt werden, den Computer, bzw. das Steuergerät, dazu veranlassen, eines der beschriebenen Verfahren auszuführen. Ebenso bezieht sich die Erfindung auch auf einen maschinenlesbaren Datenträger und/oder ein Downloadprodukt mit dem Computerprogramm.
-
Weiterhin bezieht sich die Erfindung auch auf ein Steuergerät mit dem Computerprogramm, und/oder mit dem maschinenlesbaren Datenträger und/oder dem Downloadprodukt. Alternativ oder auch in Kombination hierzu kann das Steuergerät auch in beliebiger sonstiger Weise spezifisch zur Ausführung des beschriebenen Verfahrens ausgebildet sein, beispielsweise durch Verkörperung der Funktionalität des Verfahrens in Form von anwendungsspezifischen integrierten Schaltungen (ASICs).
-
Weitere, die Erfindung verbessernde Maßnahmen werden nachstehend gemeinsam mit der Beschreibung der bevorzugten Ausführungsbeispiele der Erfindung anhand von Figuren näher dargestellt.
-
Ausführungsbeispiele
-
Es zeigt:
- 1 Ausführungsbeispiel des Verfahrens 100;
- 2 Ausführungsbeispiel des KI-Moduls 1;
- 3 Beispielhafte Situation, in der das KI-Modul 1 verwendet werden kann;
- 4 Beispielhafte Situation mit mehreren Objekten 62, 62', 62", über die unterschiedlich sichere Aussagen getroffen werden können.
-
Nach 1 wird in Schritt 110 des Verfahrens 100 eine vorgegebene Menge von Lern-Sätzen 2a von Eingangsgrößen 2 in das KI-Modul 1 eingegeben. In der internen Verarbeitungskette 3 des KI-Moduls 1 wird in Schritt 120 zu jedem Lern-Satz 2a von Eingangsgrößen 2 eine Vorhersage 41 der interessierenden kontinuierlichen Ausgangsgröße ermittelt. Mit dem KI-Modul 1 wird in Schritt 130 zusätzlich eine Unsicherheit 42 der Vorhersage 41 ermittelt.
-
Dies kann, wie in 1 beispielhaft eingezeichnet, ebenfalls innerhalb der internen Verarbeitungskette 3 des KI-Moduls 1 geschehen und somit beim Training des KI-Moduls 1 mit trainiert werden. Es ist jedoch nicht zwingend, dass die Ermittlung der Unsicherheit in der gleichen internen Verarbeitungskette 3 stattfindet, die bereits für die Ermittlung der Vorhersage 41 zuständig ist.
-
Bei der Ermittlung der Unsicherheit 42 in Schritt 130 können, wie in 1 beispielhaft eingezeichnet, die Lern-Sätze 2a und/oder die hieraus gewonnene Vorhersage 41 einzeln oder in beliebig gewichteter Kombination herangezogen werden.
-
In dem in 1 gezeigten Beispiel wird gemäß Block 131 die Unsicherheit als Rauschen modelliert, dessen Standardabweichung σ gemäß Block 132 in die ermittelte Unsicherheit 42 einbezogen wird.
-
In Schritt 140 wird die Vorhersage 41 der kontinuierlichen Ausgangsgröße mit dem Lern-Wert 41a verglichen, der dem jeweiligen Lern-Satz 2a der Eingangsgröße 2 zugeordnet ist. Es wird eine Abweichung 41' bestimmt.
-
In Schritt
150 wird eine Fehlerfunktion
5 ausgewertet, die sowohl von der Abweichung
41' als auch von der Unsicherheit
42 abhängt. Sei beispielsweise
eine Fehlerfunktion, die einem hier mit dem Buchstaben M bezeichneten Satz Parameter
31 für die interne Verarbeitungskette
3 des KI-Moduls
1 und einer hier mit dem Buchstaben y bezeichneten Vorhersage
41 einen Wert zuordnet, der der Abweichung
41' der Vorhersage
41 vom hier mit dem Buchstaben y' bezeichneten Lern-Wert
41a entspricht. Mit der Standardabweichung
σ des Rauschens kann dieser Ausdruck für die Fehlerfunktion zu einer neuen Fehlerfunktion
5 nach der Vorschrift
erweitert werden. Diese Fehlerfunktion
5 kann nach Belieben durch Regularisierer, wie beispielsweise L
2-Regularisierer oder stochastische Dropouts, angereichert werden. Die Fehlerfunktion
5 kann weiterhin auch auf die Bestimmung eines ganzen Batches Y von n Vorhersagen
41 erweitert werden. Wenn
die Netzwerkausgabematrix ist, in der alle Vorhersagen 41=y
1,...,y
n zusammengefasst sind, dann lässt sich die erweiterte Fehlerfunktion
5 als
schreiben.
-
In Schritt 160 werden im Rahmen der Optimierung neue Werte für die Parameter 31 der internen Verarbeitungskette 3 des KI-Moduls 1 bestimmt mit dem Ziel, dass bei erneuter Eingabe 110 der Lern-Sätze 2a der Wert der Fehlerfunktion 5 vermindert wird.
-
2 zeigt ein Ausführungsbeispiel des KI-Moduls 1. Die interne Verarbeitungskette 3 des KI-Moduls 1, deren Verhalten durch die Parameter 31 festgelegt ist, umfasst ein künstliches neuronales Netzwerk, KNN, mit einer Vielzahl aufeinanderfolgender Schichten, von denen in 2 nur drei Schichten 3a-3c beispielhaft eingezeichnet sind.
-
Es ist ein erstes Ausgabemodul 4a vorgesehen, das dazu ausgebildet ist, die Vorhersage 41 auszugeben. Es ist ein zweites Ausgabemodul 4b vorgesehen, das dazu ausgebildet ist, die Unsicherheit 42 auszugeben. Beide Ausgabemodule 4a und 4b sind in dem Sinne parallel geschaltet, dass sie ihre Eingabe aus der gleichen Schicht 3c der internen Verarbeitungskette 3 beziehen.
-
Neben den Ausgabemodulen 4a und 4b können noch weitere Ausgabemodule vorgesehen sein, die beispielsweise eine Klassifikation vornehmen. Diese weiteren Ausgabemodule können ihre Eingabe ebenfalls aus der Schicht 3c der internen Verarbeitungskette 3 beziehen, aber auch aus einer anderen Schicht 3a, 3b.
-
3 zeigt eine beispielhafte Situation, in der das fertig trainierte KI-Modul 1 verwendet werden kann. Das KI-Modul 1 ist hier in einem Fahrzeug 7 verbaut, das auch einen Sensor 61 trägt. Dieser Sensor kann beispielsweise eine Kamera, ein Radar-Sensor oder ein LIDAR-Sensor sein. LIDAR liefert eine räumliche Tiefeninformation und ist daher besonders gut geeignet für die Erkennung dreidimensionaler Objekte. Der Sensor 61 überwacht einen in Fahrtrichtung vor dem Fahrzeug 7 gelegenen Erfassungsbereich 6 und gibt seine Messdaten, hier Intensitätswerte von Bildpixeln, als Eingangsgrößen 2 an das KI-Modul 1 weiter. Das KI-Modul 1 ermittelt hieraus Vorhersagen 41 für interessierende Ausgangsgrößen sowie zugehörige Unsicherheiten 42 dieser Vorhersagen.
-
In dem in 3 gezeigten Beispiel können etwa die Position 62a und/oder die Ausdehnung 62b eines Objekts 62 im Erfassungsbereich 6 interessierende Ausgangsgrößen sein. Es können aber auch beispielsweise die Position 63a und/oder die Position 63b einer für die nähere Klassifikation und/oder Lokalisierung des Objekts 62 vorausgewählten Region 63 interessierende Ausgangsgrößen sein.
-
4 zeigt eine beispielhafte Situation, in der die Unsicherheit 42, mit der Vorhersagen 41 über Eigenschaften verschiedener Objekte 62, 62', 62" getroffen werden können, für diese Objekte 62, 62', 62" deutlich unterschiedlich ist. Die Objekte 62, 62', 62" sind in diesem Beispiel Fahrzeuge auf einer Fahrbahn 8, gesehen aus der Perspektive eines nachfolgenden, in 4 nicht eingezeichneten Fahrzeugs.
-
Bezüglich des dem nachfolgenden Fahrzeug unmittelbar vorausfahrenden Fahrzeugs 62 sind Vorhersagen 41 mit der geringsten Unsicherheit 42 möglich, da das Fahrzeug 62 gut einsehbar ist. Bezüglich des weiter entfernten Fahrzeugs 62' wird die Unsicherheit 42 bereits größer, da dieses Fahrzeug 62' etwa in einem Kamerabild kleiner erscheint und somit durch weniger Pixel repräsentiert wird. Bezüglich des Fahrzeugs 62" ist die Unsicherheit am größten, da dieses Fahrzeug nicht nur am weitesten entfernt ist, sondern auch durch das Fahrzeug 62' etwa zur Hälfte verdeckt ist, was durch die in 4 gezeichnete teilweise Strichelung des Umrisses des Fahrzeugs 62" angedeutet ist.
-
ZITATE ENTHALTEN IN DER BESCHREIBUNG
-
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
-
Zitierte Patentliteratur
-
- US 6957203 B2 [0004]
- US 2016019459 A1 [0005]
- EP 3171297 A1 [0006]
- EP 1438603 B1 [0007]