DE4240789A1 - Einrichtung zum Bewerten von Situationen oder Szenarien, die mit einer Mehrzahl von Sensoren beobachtet werden - Google Patents

Einrichtung zum Bewerten von Situationen oder Szenarien, die mit einer Mehrzahl von Sensoren beobachtet werden

Info

Publication number
DE4240789A1
DE4240789A1 DE4240789A DE4240789A DE4240789A1 DE 4240789 A1 DE4240789 A1 DE 4240789A1 DE 4240789 A DE4240789 A DE 4240789A DE 4240789 A DE4240789 A DE 4240789A DE 4240789 A1 DE4240789 A1 DE 4240789A1
Authority
DE
Germany
Prior art keywords
linguistic
membership
values
output
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE4240789A
Other languages
English (en)
Other versions
DE4240789C2 (de
Inventor
Uwe Krogmann
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bodenseewerk Geratetechnik GmbH
Original Assignee
Bodenseewerk Geratetechnik GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bodenseewerk Geratetechnik GmbH filed Critical Bodenseewerk Geratetechnik GmbH
Priority to DE4240789A priority Critical patent/DE4240789C2/de
Publication of DE4240789A1 publication Critical patent/DE4240789A1/de
Application granted granted Critical
Publication of DE4240789C2 publication Critical patent/DE4240789C2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4802Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • G06F18/256Fusion techniques of classification results, e.g. of results related to same input data of results relating to different input data, e.g. multimodal recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/043Architecture, e.g. interconnection topology based on fuzzy logic, fuzzy membership or fuzzy inference, e.g. adaptive neuro-fuzzy inference systems [ANFIS]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Fuzzy Systems (AREA)
  • Molecular Biology (AREA)
  • Pure & Applied Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Automation & Control Theory (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Description

Die Erfindung betrifft eine Einrichtung zum Bewerten von Situationen oder Szenarien, die mit einer Mehrzahl von Sensoren beobachtet werden, unter Verwendung wissensbasierter Regeln.
Die "Situation" kann beispielsweise ein zu identifizierendes Objekt sein, das mittels einer Mehrzahl von Sensoren beobachtet wird. Die Sensoren können z. B. bildauflösende Sensoren sein, die in verschiedenen Wellenlängen-Bereichen arbeiten, Radar-Sensoren oder entfernungsmessende Sensoren. Es kann sich aber auch um andere Arten von zu beurteilenden Situationen handeln. Beispielsweise kann es darum gehen, die ordnungsgemäße Funktion einer komplexen Anlage mit einer Mehrzahl von Sensoren zu überwachen.
Die Vermehrfachung von Sensoren bedeutet Redundanz. Damit erhöht sich die Genauigkeit und damit die Zuverlässigkeit. Die Verwendung komplementärer Sensoren erhöht die Sicherheit und die Genauigkeit der Bewertung der Situation. Bei der Verwendung eines einzelnen Sensors erfordert die Beobachtung der Situation eine längere Folge von Signalen, bevor der Sensor eine Bewertung der Situation vornehmen kann. Bei gleichzeitiger Verwendung mehrerer Sensoren könnte die Bewertung der Situation schneller erfolgen, weil gleichzeitig die Informationen von verschiedenen Sensoren verarbeitet werden können. Wenn mehrere Sensoren verwendet werden, können u. U. einfachere und damit billigere Sensoren eingesetzt werden, so daß sich insgesamt eine Verringerung der Gesamtkosten ergibt.
Bei bekannten Vorrichtung zum Bewerten von Situationen oder Szenarien, bei denen die Situation oder das Szenarium mit mehreren Sensoren gleichzeitig beobachtet wird, ist für jeden Sensor ein gesonderter Kanal vorgesehen. In jedem Kanal werden aus dem Sensor-Signal Merkmale gewonnen. Anhand dieser Merkmale erfolgt in jedem Kanal einzeln, unabhängig von den anderen Kanälen, eine Klassifikation. Die durch diese Klassifikation gewonnene "symbolische Information" ist auf einen Prozessor (Experten-System) geschaltet, der regelbasierte Schlußfolgerungen zieht und Entscheidungen trifft. Das Expertensystem liefert dann z. B. bei einem bildverarbeitenden Sensor Informationen über die Objektklasse und die Objektdaten.
Bei einer solchen bekannten Vorrichtung erfolgt die Klassifizierung der Situation aus den Sensor-Daten für jeden Sensor getrennt. Insofern liegen die gleichen Verhältnisse vor wie bei einem einzelnen Sensor. Die Klassifikations-Vektoren der einzelnen Sensor-Kanäle werden in Form symbolischer Information dem Experten-System zugeführt. Das Expertensystem zieht dann unter Verwendung regelbasierter Algorithmen sowie einer Daten- und Wissensbasis Schlußfolgerungen zur Bewertung der Situation. Dabei erfolgt die Überlagerung der Information von den verschiedenen Sensoren erst in der Endstufe der Informations-Verarbeitung.
Der Erfindung liegt die Aufgabe zugrunde, eine Vorrichtung der eingangs genannten Art zu vereinfachen.
Der Erfindung liegt speziell die Aufgabe zugrunde bei einer Vorrichtung der eingangs genannten Art die Zahl der zu berücksichtigenden Merkmale und der durch das Expertensystem anzuwendenden Regeln zu vermindern, die Entscheidungszeit zu verkürzen und die Entscheidungs-Sicherheit zu erhöhen . . Der Erfindung liegt weiter die Aufgabe zugrunde, bei einer Vorrichtung der eingangs genannten Art die Detektions- Wahrscheinlichkeit zu erhöhen und die Falschalarm-Rate zu vermindern.
Erfindungsgemäß werden diese Aufgaben dadurch gelöst, daß
  • (a) aus den Informationen der Sensoren hergeleitete Merkmale auf die Eingänge eines neuronalen Netzes aufgeschaltet sind, das trainiert ist, aus diesen Informationen an Ausgängen einen Klassifikations-Vektor zu erzeugen,
  • (b) erste Speichermittel vorgesehen sind zur Festlegung von Zugehörigkeits-Funktionen, die jeweils in einzelnen, überlappenden Wertebereichen definiert sind und einen Grad der Zugehörigkeit einer Eingangsgröße zu einem dem betreffenden Wertebereich zugeordneten linguistischen Wert angeben,
  • (c) der von dem neuronalen Netz erhaltene Klassifikations- Vektor auf eine mit den ersten Speichermitteln verbundene unscharfe Logikschaltung aufgeschaltet ist zum Umsetzen der Komponenten des Klassifikations-Vektors als Eingangsgrößen in linguistische Werte entsprechend den von den Speichermitteln vorgegebenen Wertebereichen dieser Komponenten und zur Festlegung von Zugehörigkeits-Graden nach Maßgabe der gespeicherten Zugehörigkeits-Funktionen, und
  • (d) zweite Speichermittel zur Festlegung und Speicherung von Regeln zur Verknüpfung von linguistischen Eingangs-Werten zur Bildung jeweils eines linguistischen Ausgangs-Wertes,
  • (e) Mittel zur Bildung der linguistischen Ausgangs-Werte aus den sich aus den Komponenten des Klassifikations-Vektors ergebenden Eingangs-Werten nach Maßgabe der in den zweiten Speichermitteln gespeicherten Regeln,
  • (f) eine Korrelations-Logikschaltung zur Korrelation der Zugehörigkeits-Grade nach Maßgabe der Regeln für die Verknüpfung der linguistischen Eingangs-Werte zur Bildung von Zugehörigkeits-Graden für die linguistischen Ausgangs- Werte,
  • (g) Mittel zur Veränderung von Zugehörigkeits-Funktionen der linguistischen Ausgangs-Werte nach Maßgabe der sich aus den Korrelationen ergebenden Zugehörigkeits-Grade dieser Ausgangs-Werte und
  • (h) Mittel zur Bildung eines die Situationsbewertung wiedergebenden Vektors aus den so veränderten Zugehörigkeits-Funktionen der für die einzelnen Komponenten angesprochenen linguistischen Ausgangswerte vorgesehen sind.
Nach der Erfindung sind die aus den Signalen oder Daten der Sensoren hergeleiteten Merkmale alle auf Eingänge eines gemeinsamen neuronalen Netzes aufgeschaltet. Die Überlagerung der Sensor-Information erfolgt somit in einem frühen Stadium der Informations-Verarbeitung. Das neuronale Netz kann so trainiert werden, daß es unmittelbar aus allen diesen Merkmals-Informationen einen Klassifikations-Vektor liefert. Ein solches neuronales Netz hat den Vorteil, daß es die Problemlösung "erlernt" wird und nicht komplett mathematisch- symbolisch vorgefertigt zu sein braucht. Neuronale Netze sind geeignet, Information unterschiedlicher Sensoren "automatisch" zu bewerten und auch bei Widersprüchen schnell eine zufriedenstellende Lösung zu erreichen. Durch das neuronale Netz können die Informationen der Sensoren auf einfache Weise im Verhältnis zueinander gewichtet werden. Auch unvollständige Informationen können aufgrund von Vorwissen sinnvoll ergänzt werden. Das Ergebnis wird schnell erhalten. Da das neuronale Netz schon einen Klassifikations-Vektor liefert, der auf den Informationen aller Sensoren beruht, hat das Experten-System weniger Eingangsgrößen. Da das Expertensystem nicht die von den einzelnen Sensor-Kanälen gelieferten u. U. unterschiedlichen Klassifikationen miteinander in Einklang zu bringen braucht, benötigt es weniger Regeln für die Entscheidungsfindung. Die Verarbeitung mit unscharfer Logik berücksichtigt die Tatsache, daß der Klassifikations-Vektor prinzipiell unscharf ist. Die Verarbeitung "linguistischer" Werte wie "positiv groß" oder "negativ klein", die den verschiedenen Wertebereichen zugeordnet sind, kann mit vorhandenen integrierten Bausteinen erfolgen.
Ausgestaltungen der Erfindung sind Gegenstand der Unteransprüche.
Ein Ausführungsbeispiel der Erfindung ist nachstehend unter Bezugnahme auf die zugehörigen Zeichnungen näher erläutert.
Fig. 1 zeigt in einem Blockdiagramm den Grundaufbau einer Einrichtung zum Klassieren von Situationen, die mit einer Mehrzahl von Sensoren beobachtet werden, unter Verwendung wissensbasierter Regeln.
Fig. 2 zeigt den Grundaufbau eines bei der Einrichtung von Fig. 1 verwendeten neuronalen Netzes.
Fig. 3 zeigt ein Beispiel von Komponenten des Klassifikations- Vektors, wie sie von dem neuronalen Netz geliefert werden.
Fig. 4 zeigt in einem Blockdiagramm die Verarbeitung des von dem neuronalen Netz gelieferten Klassifikations-Vektors mit Hilfe unscharfer Logik und wissensbasierter Regeln.
Fig. 5 zeigt in einem Blockdiagramm die Verarbeitung der Komponenten des Klassifikations-Vektors.
Fig. 6 zeigt für eine solche Komponente die Wertebereiche der linguistischen Werte und den Verlauf der Zugehörigkeits- Funktion.
Fig. 7 ist ein Blockdiagramm und veranschaulicht die Verarbeitung der linguistischen Eingangs-Werte und der Zugehörigkeits-Grade zu einem linguistischen Ausgangs- Wert und einer für diese geltenden Zugehörigkeits- Funktion, wenn durch die anwendbare Regel mehrere Komponenten des Klassifikations-Vektors mit ihren linguistischen Eingangs-Werten angesprochen sind.
Fig. 8 ist ein Blockdiagramm und veranschaulicht die Bildung einer Ausgangs-Variablen, wenn durch die Komponenten des Klassifikations-Vektors mehrere der Regeln angesprochen werden, die jede einen linguistischen Ausgangswert mit einer Zugehörigkeits-Funktion liefern.
In Fig. 1 sind mit 10 1, 10 2 . . . 10 n verschiedene Sensoren bezeichnet, welche eine bestimmte Situation beobachten, z. B. ein zu klassierendes Objekt. Ein Sensor kann z. B. ein bildauflösender Infrarot-Sensor sein, ein anderer Sensor kann im Millimeterwellen-Bereich arbeiten usw. Aus jedem der Sensoren werden durch merkmalsgewinnende Signalverarbeitungs- Mittel 12 1, 12 2 . . . 12 n bestimmte Merkmale der beobachteten Situation gewonnen. Die so gebildeten Merkmals-Vektoren sind auf ein neuronales Netz 14 aufgeschaltet. Das neuronale Netz 14 liefert an Ausgängen PE1, PE2 . . . PEn einen Klassifikations-Vektor. Dieser Klassifikations-Vektor mit seinen verschiedenen Komponenten ist auf eine Signalverarbeitungs-Anordnung 16 geschaltet. Die Signalverarbeitungs-Anordnung 16 bildet aus den Komponenten des Klassifikations-Vektors anhand von überlappenden Wertebereichen und diesen zugeordneten "Zugehörigkeits- Funktionen" "linguistische" Eingangs-Werte in der Form "groß" "klein" usw. Mit diesen linguistischen Eingangs-Werten werden nach gespeicherten Regeln linguistische Ausgangs-Werte gebildet. Aus diesen linguistischen Ausgangs-Werten liefert die Signalverarbeitungs-Anordnung an einem Ausgang 18 eine Bewertung der beobachteten Situation oder eines beobachteten Szenarios, beispielsweise eine Aussage über eine Objektklasse ("Flugzeug") und Objektdaten (Position, Geschwindigkeit, Abstand).
Die Ausgänge PE1 . . . sind von Prozessor-Elementen gebildet, welche ausgelegt sind, die Summe der Eingangs-Signale zu bilden. Im vorliegenden Fall liegt jedoch an jedem dieser Prozessor-Elemente nur ein Signal an. Die Prozessor-Elemente bilden hier Speicher zur Zwischenspeicherung der Ausgangs- Information.
Fig. 2 zeigt ein Beispiel für das hier verwendete neuronale Netz 14. Das neuronale Netz ist ein "Backpropagation Netzwerk". An Eingängen 18 des neuronalen Netzes 14, die wieder von Prozessor-Elementen gebildet sind, liegen Merkmals- Vektoren 20 der verschiedenen Sensoren 10₁ usw. Jeder der Merkmals-Vektoren hat eine Mehrzahl von Komponenten. Mit 22 sind Prozessor-Einheiten einer ersten Schicht 24 bezeichnet. Jeder Eingang 18 ist mit jeder der Prozessor-Einheiten 22 der ersten Schicht 24 derart verbunden, daß das Eingangs-Signal am Eingang 18 mit einer veränderbaren Wichtung auf die Prozessor- Einheit 22 aufgeschaltet ist. Die Prozessor-Einheiten 22 summieren die gewichteten Signale der Eingänge 18 und liefern ein Ausgangs-Signal nach Maßgabe einer nichtlinearen Funktion, vorzugsweise einer Gauß-Funktion der summierten Eingangs­ signale. Die Ausgangs-Signale der Prozessor-Einheiten 22 sind wiederum gewichtet auf Prozessor-Einheiten 26 einer Ausgangs- Schicht 28 aufgeschaltet. Die Prozessor-Einheiten 22 sind wieder mit jeder Prozessor-Einheit 26 verbunden, derart, daß das Ausgangs-Signal jeder Prozessor-Einheit 22 mit veränderbaren Wichtungen auf jeden der Prozessor-Einheiten 26 als Eingangs-Signale aufgeschaltet sind. Die Prozessor- Einheiten 26 liefern die Ausgangs-Signale des neuronalen Netzes wieder als nichtlineare Funktionen, vorzugsweise als Gauß-Funktionen, der gewichteten Eingangs-Signale. Diese Ausgangs-Signale sind auf die Prozessor-Einheiten PE1, PE2 usw. aufgeschaltet. In einem Trainings-Prozess werden die Gewichte anhand von Paaren von Eingangs- und Ausgangs-Vektoren nach einem bestimmten Algorithmus verändert, so daß das neuronale Netz für die von den Merkmals-Vektoren gebildeten Eingangs-Vektoren die richtigen Klassifikations-Vektoren als Ausgangs-Vektoren liefern. Das ist bekannte Technik und daher hier nicht im einzelnen beschrieben.
Die nichtlinearen Funktionen in dem neuronalen Backpropagation- Netzwerk sind vorzugsweise Gauß-Funktionen. Es hat sich gezeugt, daß sich damit besonders rauscharme Ausgangs-Informationen erhalten lassen. Statt dessen können aber auch in üblicher Weise Sigmoid-Funktionen vorgesehen werden.
In Fig. 3 sind Beispiele für die am Ausgang des neuronalen Netzes erhaltenen Komponenten des Klassifikations-Vektors dargestellt.
Diese Komponenten des Klassifikations-Vektors werden auf die Signalverarbeitungs-Anordnung 16 aufgeschaltet. Ein Blockdiagramm einer solchen Signalverarbeitungs-Anordnung ist in Fig. 4 dargestellt. Die Signalverarbeitungs-Anordnung 16 enthält eine Einrichtung 30 zur Umsetzung der Eingangs- Variablen, d. h. der Komponenten des Klassifikations-Vektors in linguistische Werte. Weiter enthält die Signalverarbeitungs- Anordnung eine "Regel-Basis", d. h. einen Speicher, in welchem Regeln abgelegt werden, nach denen Verknüpfungen von linguistischen Eingangs-Werten linguistische Ausgangs-Werte zugeordnet werden und Inferenz-Mittel, welche nach diesen gespeicherten Regeln aus den von der Einrichtung 30 gelieferten linguistischen Werten linguistische Ausgangs-Werte gebildet werden. Diese Regel-Basis und Inferenz-Mittel sind in Fig. 4 mit 32 bezeichnet. Aus den linguistischen Ausgangs- Werten, die von der Einrichtung 32 geliefert werden, werden durch eine Einrichtung 34 wieder Daten an einem Ausgang 36 gebildet, welche eine Bewertung der beobachteten Situation liefern.
Zur Umsetzung der Komponenten des Klassifikations-Vektors in linguistische Werte sind für jede der Eingangs-Variablen Wertebereiche definiert. Diese Wertebereiche überlappen sich. In jedem der Wertebereiche ist eine Zugehörigkeits-Funktion definiert. Die Komponenten des Klassifikations-Vektors liegen an Eingängen 38 (Fig. 5) an. In einem Speicher 40 sind für jede Eingangs-Variable für verschiedene, sich überlappende Wertebereiche die Zugehörigkeits-Funktionen gespeichert. Eine Logikschaltung 42 erzeugt aus den anliegenden Eingangs- Variablen unter Berücksichtigung der gespeicherten Wertebereiche und Zugehörigkeits-Funktionen linguistische Ausgangswerte. Das ist nachstehend unter Bezugnahme auf Fig. 6 erläutert.
In dem Speicher 40 sind für jede Eingangs-Variable Wertebereiche definiert, denen linguistische Werte: "negativ groß" (NL), "negativ mittel" (NM), "negativ klein" (NS), "null" (ZE), "positiv klein" (PS), "positiv mittel" (PM) und "positiv groß" (PL) zugeordnet sind. Diese Wertebereiche überlappen sich. Das bringt die Unschärfe zum Ausdruck, die bei einer solchen Bewertung auftritt. Man kann bestimmte Werte als "groß" aber auch als "mittel" bezeichnen. Die Grenzen sind da fließend. Diesen fließenden Grenzen wird durch die "Zugehörigkeits-Funktion" Rechnung getragen. Eine solche Zugehörigkeits-Funktion ist in jedem der Wertebereiche definiert. Bei dem in Fig. 6 dargestellten Beispiel sind die graphischen Darstellungen der Zugehörigkeits-Funktionen trapezförmig. Außerhalb der Überlappungs-Bereiche der verschiedenen Wertebereiche haben die Zugehörigkeits- Funktionen den Wert 1,0. Eine Wert der Eingangs-Variablen, der außerhalb der Überlappungs-Bereiche liegt ist eindeutig einem und nur einem Wertebereich und damit linguistischen Wert zugeordnet. In den Überlappungs-Bereichen steigt die Zugehörigkeits-Funktion von dem Wert 0 am äußeren Rande des Wertebereichs bis zu dem Wert 1,0 am inneren Rand des Überlappungs-Bereichs linear an. In Fig. 6 ist die Zugehörigkeits-Funktion für den linguistischen Wert "negativ groß" mit 44 bezeichnet. Der Wertebereich für diesen linguistischen Wert ist zum Negativen hin unbegrenzt. Die Zugehörigkeits-Funktion zeigt daher einen Anstieg zum Negativen hin und bleibt dann konstant auf dem Wert 1,0. Die Zugehörigkeits-Funktion für den linguistischen Wert " negativ mittel" ist mit 46 bezeichnet. Die Zugehörigkeits-Funktion für den linguistischen Wert " negativ klein" ist mit 48 bezeichnet. Die Zugehörigkeits-Funktion für den linguistischen Wert " null" ist mit 50 bezeichnet. Die Zugehörigkeits- Funktion für den linguistischen Wert "positiv klein" ist mit 52 bezeichnet. Die Zugehörigkeits-Funktion für den linguistischen Wert " positiv mittel" ist mit 54 bezeichnet. Die Zugehörigkeits-Funktion für den linguistischen Wert " positiv groß" ist mit 56 bezeichnet. Diese Funktion ist, ähnlich wie die Funktion 44 einseitig, diesmal zum Positiven hin, unbegrenzt.
Statt der "trapezförmigen" Zugehörigkeits-Funktionen können auch andere Verläufe der Zugehörigkeits-Funktionen benutzt werden, beispielsweise Gauß-Funktionen.
Jedem Wert der Eingangs-Variablen, nämlich der betreffenden Komponente des Klassifikations-Vektors, wird nach diesen Funktionen ein linguistischer Ausgangs-Wert zugeordnet. Liegt der Wert der Eingangs-Variablen in einem Überlappungs-Bereich, dann werden dem Wert der Eingangs-Variablen zwei linguistische Ausgangs-Werte zugeordnet. Weiterhin werden den linguistischen Ausgangs-Werten nach den Zugehörigkeits-Funktionen "Zugehörigkeits-Grade" zugeordnet. Der Wert "+10" in Fig. 6 ist beispielsweise mit einem Zugehörigkeits-Grad von 0,3 "null" und mit einem Zugehörigkeits-Grad von ebenfalls 0,3 "positiv klein".
Die so erhaltenen linguistischen Werte sind über Leitungen 58 auf eine Regel-Basis 60 geschaltet. Die Regel-Basis enthält einen Speicher, in welchem Regeln von der Form "Wenn . . . , dann" gespeichert sind. Der "Wenn"-Teil dieser Regeln enthält eine Verknüpfung von linguistischen Eingangs-Werten. Der "Dann"- Teil enthält eine Schlußfolgerung in Form eines linguistischen Ausgangs-Wertes. Eine solche Regel kann beispielsweise die Form haben: "Wenn a = ZE und b = PS und c = NS, dann d = ZE". Wenn wegen der überlappenden Wertebereiche durch einen Wert einer Eingangs-Variablen (Komponente des Klassifikations- Vektors) mehrere Regeln gleichzeitig angesprochen sind, also etwa eine Regel mit "a = ZE" und eine Regel mit "a = PS", dann ergeben sich mehrere solcher linguistischer Ausgangs-Werte.
Die linguistischen Eingangs-Werte sind jeweils mit Zugehörigkeits-Graden behaftet. Aus den Zugehörigkeits-Grade der sich nach den Regeln ergebenden linguistischen Ausgangs- Werte werden nach geeigneten Regeln aus den Zugehörigkeits- Graden der linguistischen Eingangs-Werte bestimmt. Fig. 7 zeigt ein Beispiel hierfür: Eine Regel, wie oben in Fig. 7 angegeben, verknüpft drei Eingangs-Variablen a, b und c, also Komponenten des Klassifikations-Vektors. Die Regel liefert eine Ausgangs- Variable f. Aus den für die verschiedenen Eingangs-Variablen a, b und c geltenden Wertebereichen und Zugehörigkeits- Funktionen 64, 66 bzw. 68 ergeben sich Zugehörigkeits-Grade von mZE(a) = 0,2; mPS(b) = 0,4 und mNS(c) = 0,3. Durch eine Korrelations-Logikschaltung 70 wird daraus ein Zugehörigkeits- Grad für den linguistischen Ausgangs-Wert gebildet. Bei einer UND-Verknüpfung der linguistischen Eingangs-Werte im "Wenn"- Teil der Regel wird als Zugehörigkeits-Grad des linguistischen Ausgangs-Wertes im "Dann"-Teil der Regel der kleinste der Zugehörigkeits-Grade der Eingangs-Werte angenommen. Das entspricht etwa einer Schnittmenge. Bei einer ODER-Verknüpfung in der Regel, würde der größte der Zugehörigkeits-Grade der Eingangs-Werte gewählt. Das entspräche einer Vereinigungsmenge. In Fig. 7 sind die Vorgänge der Bestimmung der linguistischen Eingangs-Werte aus den Eingangs-Variablen a, b und c und die Bestimmung der zugeordneten Zugehörigkeits- Grade ist in Fig. 7 durch die Blocks 72, 74 und 76 dargestellt.
Dem linguistischen Ausgangs-Wert f, im vorliegenden Fall "null" (ZE) ist ebenfalls eine Zugehörigkeits-Funktion 78 zugeordnet. Die Zugehörigkeits-Funktion 78 des Ausgangs-Wertes wird mit dem für den Ausgangs-Wert f = ZE bestimmten Zugehörigkeits- Grad multipliziert. Das liefert eine veränderte Zugehörigkeits-Funktion 80 an einem Ausgang B1. Die Mittel zur Durchführung dieser Operation sind in Fig. 7 durch einen Block 82 dargestellt.
Durch jede der Eingangs-Variablen a, b, c . . . können durch die sich überlappenden Wertebereiche mehrere linguistische Eingangs-Werte erzeugt werden. Dementsprechend können von einem Klassifizierungs-Vektor mehrere Regeln angesprochen und für jede Komponente des Ausgangs-Vektors der Regel-Basis 60 an den Ausgängen 62 mehrere linguistische Ausgangs-Werte erhalten werden.
In diesem Fall wird ein numerischer oder analoger Ausgangs- Wert in der in Fig. 8 dargestellten Weise erhalten. Es sei angenommen, daß als Ergebnis der auf die Eingangs-Variablen und die daraus resultierenden linguistischen Eingangs-Werte angewandten Regeln zwei veränderte Zugehörigkeits-Funktionen 80 und 84 erhalten worden sind. Die veränderte Zugehörigkeits- Funktion 80 ist auf die in Fig. 7 dargestelle Weise durch Multiplikation der Zugehörigkeits-Funktion 78 für f = ZE mit dem Zugehörigkeits-Grad 0,2 entstanden. In entsprechender Weise ist nach einer anderen Regel die veränderte Zugehörigkeits-Funktion 84 an einem Ausgang B2 eines Blocks 85 durch Multiplikation der Zugehörigkeits-Funktion 86 für f = PM mit einem Zugehörigkeits-Grad 0,15 erhalten worden. Die beiden veränderten Zugehörigkeits-Funktionen werden überlagert. Das ist in Fig. 8 durch einen Summierpunkt 88 dargestellt. Es wird dann ein mit den veränderten Zugehörigkeits-Funktionen gewichtetet Mittelwert fK der Ausgangs-Variablen f
gebildet. Die Überlagerung der veränderten Zugehörigkeits- Funktionen ist in Fig. 5 durch den Summierpunkt 88 dargestellt. Die Bildung des gewichteten Mittelwertes ist in Fig. 5 und 8 durch einen Block 90 symbolisiert.
Die erhaltenen Ausgangs-Werte an dem Ausgang 36 (Fig. 4 und 8) liefern eine Bewertung der von den mehreren Sensoren 10 1 bis 10n beobachteten Situation.

Claims (8)

1. Einrichtung zum Bewerten von Situationen oder Szenarien, die mit einer Mehrzahl von Sensoren beobachtet werden, unter Verwendung wissensbasierter Regeln dadurch gekennzeichnet, daß
  • (a) aus den Informationen der Sensoren (10 1 . . . 10 n) hergeleitete Merkmale auf die Eingänge eines neuronalen Netzes (14) aufgeschaltet sind, das trainiert ist, aus diesen Informationen an Ausgängen einen Klassifikations- Vektor zu erzeugen,
  • (b) erste Speichermittel (40) vorgesehen sind zur Festlegung von Zugehörigkeits-Funktionen (44 bis 56; . . . ), die jeweils in einzelnen, überlappenden Wertebereichen definiert sind und einen Grad der Zugehörigkeit einer Eingangsgröße zu einem dem betreffenden Wertebereich zugeordneten linguistischen Wert angeben,
  • (c) der von dem neuronalen Netz (14) erhaltene Klassifikations-Vektor auf eine mit den ersten Speichermitteln (40) verbundene unscharfe Logikschaltung (42) aufgeschaltet ist zum Umsetzen der Komponenten des Klassifikations-Vektors als Eingangsgrößen in linguistische Werte entsprechend den von den ersten Speichermitteln (40) vorgegebenen Wertebereichen dieser Komponenten und zur Festlegung von Zugehörigkeits-Graden nach Maßgabe der gespeicherten Zugehörigkeits-Funktionen, und
  • (d) zweite Speichermittel (60) zur Festlegung und Speicherung von Regeln zur Verknüpfung von linguistischen Eingangs- Werten zur Bildung jeweils eines linguistischen Ausgangs- Wertes,
  • (e) Mittel zur Bildung der linguistischen Ausgangs-Werte aus den sich aus den Komponenten des Klassifikations-Vektors ergebenden Eingangs-Werten nach Maßgabe der in den zweiten Speichermitteln gespeicherten Regeln,
  • (f) eine Korrelations-Logikschaltung (70) zur Korrelation der Zugehörigkeits-Grade nach Maßgabe der Regeln für die Verknüpfung der linguistischen Eingangs-Werte zur Bildung von Zugehörigkeits-Graden für die linguistischen Ausgangs- Werte,
  • (g) Mittel (82) zur Veränderung von Zugehörigkeits-Funktionen der linguistischen Ausgangs-Werte nach Maßgabe der sich aus den Korrelationen ergebenden Zugehörigkeits-Grade dieser Ausgangs-Werte und
  • (h) Mittel (90) zur Bildung eines die Situationsbewertung wiedergebenden Vektors aus den so veränderten Zugehörigkeits-Funktionen der für die einzelnen Komponenten angesprochenen linguistischen Ausgangswerte vorgesehen sind.
2. Vorrichtung nach Anspruch 1, dadurch gekennzeichnet, daß das neuronale Netz (14) ein Backpropagation-Netzwerk ist, bei welchem die nichtlineare Ausgangsfunktion eine Gauß- Funktion ist.
3. Vorrichtung nach Anspruch 1 oder 2, dadurch gekennzeichnet, daß die von den ersten Speichermitteln (40) festgelegten Zugehörigkeits-Funktionen (44 bis 56; . . . ) dargestellt sind durch eine trapezförmige Funktions- Darstellung mit linearem Anstieg bzw. Abfall in den Überlappungsbereichen der benachbarten Wertebereiche.
4. Vorrichtung nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, daß in den zweiten Speichermitteln (60) Regeln in der Form "Wenn . . . dann . . . " gespeichert sind, wobei der "Wenn"-Teil der Regel eine Verknüpfung von linguistischen Eingangs-Werten und der "Dann"-Teil den linguistischen Ausgangs-Wert enthält.
5. Vorrichtung nach Anspruch 4, dadurch gekennzeichnet, daß die Korrelations-Logikschaltung (70) bei einer UND- Verknüpfung der linguistischen Eingangs-Werte den kleinsten der Zugehörigkeits-Grade der linguistischen Eingangs-Werte berücksichtigt.
6. Vorrichtung nach Anspruch 3 oder 4, dadurch gekennzeichnet, daß die Korrelations-Logikschaltung (70) bei einer ODER-Verknüpfung von linguistischen Eingangs- Werten als Zugehörigkeits-Grad des linguistischen Ausgangs-Wertes den größten der Zugehörigkeits-Grade der linguistischen Eingangs-Werte berücksichtigt.
7. Vorrichtung nach einem der Ansprüche 3 bis 6, dadurch gekennzeichnet, daß die Mittel (82) zur Veränderung der Zugehörigkeits-Funktion (78) eines Ausgangs-Wertes (ZE) Mittel enthalten zur Multiplikation dieser Zugehörigkeits- Funktion mit dem Zugehörigkeits-Grad des Ausgangs-Wertes.
8. Vorrichtung nach einem der Ansprüche 3 bis 7, dadurch gekennzeichnet, daß zur Bildung der Komponenten des die Situationsbewertung wiedergebenden Vektors jeweils ein mit den veränderten Zugehörigkeits-Funktionen gewichteter Mittelwert der den Komponenten zugeordneten Ausgangs- Variablen erzeugt wird.
DE4240789A 1992-12-04 1992-12-04 Verfahren zur Identifizierung von Objekten Expired - Fee Related DE4240789C2 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE4240789A DE4240789C2 (de) 1992-12-04 1992-12-04 Verfahren zur Identifizierung von Objekten

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE4240789A DE4240789C2 (de) 1992-12-04 1992-12-04 Verfahren zur Identifizierung von Objekten

Publications (2)

Publication Number Publication Date
DE4240789A1 true DE4240789A1 (de) 1994-06-09
DE4240789C2 DE4240789C2 (de) 2003-08-28

Family

ID=6474367

Family Applications (1)

Application Number Title Priority Date Filing Date
DE4240789A Expired - Fee Related DE4240789C2 (de) 1992-12-04 1992-12-04 Verfahren zur Identifizierung von Objekten

Country Status (1)

Country Link
DE (1) DE4240789C2 (de)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1996027176A1 (en) * 1995-02-28 1996-09-06 Livingstone Legend Enterprises (Proprietary) Limited Vehicle counter
DE19537694A1 (de) * 1995-10-10 1997-04-17 Schenck Ag Carl Verfahren zur Überwachung einer Maschine oder Anlage
DE19914277A1 (de) * 1999-03-20 2000-10-12 Klaus Schuetz Verfahren und Vorrichtung zur Erfassung der Klassen von System- oder Prozeßzuständen
US6658980B1 (en) * 1998-12-12 2003-12-09 British Aerospace Public Limited Co. Combat pilot aid system
US7061401B2 (en) 2003-08-07 2006-06-13 BODENSEEWERK GERäTETECHNIK GMBH Method and apparatus for detecting a flight obstacle
CN111433627A (zh) * 2018-04-05 2020-07-17 谷歌有限责任公司 使用机器学习执行角估计的基于智能设备的雷达***
DE102019105363A1 (de) * 2019-02-09 2020-08-13 Elmos Semiconductor Aktiengesellschaft Verfahren für ein Messsystem im Fahrzeug zur Erkennung und Klassifizierung von Objekten im Umfeld des Fahrzeugs mit Hilfe eines Deep-Learning Verfahrens mit einem selbstlernenden Entscheider
US11693104B2 (en) 2017-12-15 2023-07-04 Google Llc Radar angular ambiguity resolution

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5167005A (en) * 1988-08-19 1992-11-24 Research Development Corporation Of Japan Fuzzy computer
US5303385A (en) * 1989-03-17 1994-04-12 Hitachi, Ltd. Control system having optimality decision means
DE4100500A1 (de) * 1991-01-10 1992-07-16 Bodenseewerk Geraetetech Signalverarbeitungsanordnung zur klassifizierung von objekten aufgrund der signale von sensoren

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5752215A (en) * 1995-02-28 1998-05-12 Livingstone Legend Enterprises (Propiretary) Ltd. Apparatus and method for classifying vehicles using electromagnetic waves and pattern recognition
WO1996027176A1 (en) * 1995-02-28 1996-09-06 Livingstone Legend Enterprises (Proprietary) Limited Vehicle counter
DE19537694A1 (de) * 1995-10-10 1997-04-17 Schenck Ag Carl Verfahren zur Überwachung einer Maschine oder Anlage
US6658980B1 (en) * 1998-12-12 2003-12-09 British Aerospace Public Limited Co. Combat pilot aid system
DE19914277B4 (de) * 1999-03-20 2008-08-14 Schütz, Klaus Verfahren und Vorrichtung zur Erfassung der Klassen von System- oder Prozeßzuständen
DE19914277A1 (de) * 1999-03-20 2000-10-12 Klaus Schuetz Verfahren und Vorrichtung zur Erfassung der Klassen von System- oder Prozeßzuständen
US7061401B2 (en) 2003-08-07 2006-06-13 BODENSEEWERK GERäTETECHNIK GMBH Method and apparatus for detecting a flight obstacle
US11693104B2 (en) 2017-12-15 2023-07-04 Google Llc Radar angular ambiguity resolution
CN111433627A (zh) * 2018-04-05 2020-07-17 谷歌有限责任公司 使用机器学习执行角估计的基于智能设备的雷达***
CN111433627B (zh) * 2018-04-05 2023-09-22 谷歌有限责任公司 使用机器学习执行角估计的基于智能设备的雷达***
DE102019105363A1 (de) * 2019-02-09 2020-08-13 Elmos Semiconductor Aktiengesellschaft Verfahren für ein Messsystem im Fahrzeug zur Erkennung und Klassifizierung von Objekten im Umfeld des Fahrzeugs mit Hilfe eines Deep-Learning Verfahrens mit einem selbstlernenden Entscheider
DE102019105359A1 (de) * 2019-02-09 2020-08-13 Elmos Semiconductor Aktiengesellschaft Verfahren für ein Ultraschallmesssystem im Fahrzeug zur Erkennung und Klassifizierung von Objekten im Umfeld des Fahrzeugs mit Hilfe eines Deep-Learning Verfahrens und einem selbstlernenden Entscheider
DE102019105363B4 (de) * 2019-02-09 2020-10-29 Elmos Semiconductor Se Verfahren für ein Messsystem im Fahrzeug zur Erkennung und Klassifizierung von Objekten im Umfeld des Fahrzeugs mit Hilfe eines Deep-Learning Verfahrens mit einem selbstlernenden Entscheider
DE102019105359B4 (de) * 2019-02-09 2020-10-29 Elmos Semiconductor Se Verfahren für ein Ultraschallmesssystem im Fahrzeug zur Erkennung und Klassifizierung von Objekten im Umfeld des Fahrzeugs mit Hilfe eines Deep-Learning Verfahrens und einem selbstlernenden Entscheider

Also Published As

Publication number Publication date
DE4240789C2 (de) 2003-08-28

Similar Documents

Publication Publication Date Title
DE68927014T2 (de) Assoziatives Musterkonversionssystem und Anpassungsverfahren dafür
DE4436658B4 (de) Vorrichtung und Verfahren zur Störungsuntersuchung
DE69309300T2 (de) Verfahren und vorrichtung zur artikelklassifizierung
DE102007001025B4 (de) Verfahren zur rechnergestützten Steuerung und/oder Regelung eines technischen Systems
DE19531967A1 (de) Verfahren zum Training eines neuronalen Netzes mit dem nicht deterministischen Verhalten eines technischen Systems
DE10296704T5 (de) Fuzzy-Inferenznetzwerk zur Klassifizierung von hochdimensionalen Daten
DE102007014650B3 (de) Verfahren zur rechnergestützten Verarbeitung von in einem Sensornetzwerk erfassten Messwerten
DE3938645C1 (de)
DE4240789A1 (de) Einrichtung zum Bewerten von Situationen oder Szenarien, die mit einer Mehrzahl von Sensoren beobachtet werden
DE2901683A1 (de) Einrichtung zum pruefen von abstaenden zwischen objekten in einem zweidimensionalen quantisierten bild
EP0750764B1 (de) Verfahren und anordnung zur fuzzy-regelung
DE102020201133A1 (de) Verfahren und Vorrichtung zur Modellwertbildung, insbesondere zur Sensordatenfusion
WO2020224925A1 (de) Überwachung eines ki-moduls einer fahrfunktion eines fahrzeugs
DE19537010C2 (de) Lernverfahren und -anordnung zur Nachbildung eines dynamischen Prozesses
DE19703964C1 (de) Verfahren zur Transformation einer zur Nachbildung eines technischen Prozesses dienenden Fuzzy-Logik in ein neuronales Netz
DE4244014A1 (de) Verfahren zum Erkennen und Identifizieren von Fehlern an Sensoren
EP0777881B1 (de) Verfahren zur festlegung des gültigkeitsbereichs für ein künstliches neuronales netzwerk
DE4205903C2 (de) Signalverarbeitungsvorrichtung mit neuronalem Netzwerk
DE69123623T2 (de) Unscharfe Folgerungsanlage
EP0646901A1 (de) Verfahren zur Verarbeitung der Signale eines passiven Infrarot-Detektors und Infrarot-Detektor zur Durchführung des Verfahrens
DE69124813T2 (de) Lernverfahren für Datenverarbeitungsanlage
EP0681234B1 (de) Verfahren zur Fuzzy-Inferenz in einem Fuzzy-Regelkreis
DE102022202218A1 (de) Verfahren und Vorrichtung zum Bestimmen einer Robustheit eines datenbasierten Sensormodells
DE4336921C2 (de) Verfahren und Vorrichtung zur automatischen Schlußfolgerung (Inferenz) für regelbasierte Fuzzy-Systeme
DE69023034T2 (de) Datenverarbeitungssystem.

Legal Events

Date Code Title Description
8110 Request for examination paragraph 44
8125 Change of the main classification

Ipc: G06K 9/66

8304 Grant after examination procedure
8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee