DE4240789A1 - Einrichtung zum Bewerten von Situationen oder Szenarien, die mit einer Mehrzahl von Sensoren beobachtet werden - Google Patents
Einrichtung zum Bewerten von Situationen oder Szenarien, die mit einer Mehrzahl von Sensoren beobachtet werdenInfo
- Publication number
- DE4240789A1 DE4240789A1 DE4240789A DE4240789A DE4240789A1 DE 4240789 A1 DE4240789 A1 DE 4240789A1 DE 4240789 A DE4240789 A DE 4240789A DE 4240789 A DE4240789 A DE 4240789A DE 4240789 A1 DE4240789 A1 DE 4240789A1
- Authority
- DE
- Germany
- Prior art keywords
- linguistic
- membership
- values
- output
- value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/4802—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/254—Fusion techniques of classification results, e.g. of results related to same input data
- G06F18/256—Fusion techniques of classification results, e.g. of results related to same input data of results relating to different input data, e.g. multimodal recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/043—Architecture, e.g. interconnection topology based on fuzzy logic, fuzzy membership or fuzzy inference, e.g. adaptive neuro-fuzzy inference systems [ANFIS]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Fuzzy Systems (AREA)
- Molecular Biology (AREA)
- Pure & Applied Mathematics (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Mathematical Optimization (AREA)
- Mathematical Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Computational Mathematics (AREA)
- Mathematical Physics (AREA)
- Automation & Control Theory (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
Description
Die Erfindung betrifft eine Einrichtung zum Bewerten von
Situationen oder Szenarien, die mit einer Mehrzahl von
Sensoren beobachtet werden, unter Verwendung wissensbasierter
Regeln.
Die "Situation" kann beispielsweise ein zu identifizierendes
Objekt sein, das mittels einer Mehrzahl von Sensoren
beobachtet wird. Die Sensoren können z. B. bildauflösende
Sensoren sein, die in verschiedenen Wellenlängen-Bereichen
arbeiten, Radar-Sensoren oder entfernungsmessende Sensoren. Es
kann sich aber auch um andere Arten von zu beurteilenden
Situationen handeln. Beispielsweise kann es darum gehen, die
ordnungsgemäße Funktion einer komplexen Anlage mit einer
Mehrzahl von Sensoren zu überwachen.
Die Vermehrfachung von Sensoren bedeutet Redundanz. Damit
erhöht sich die Genauigkeit und damit die Zuverlässigkeit. Die
Verwendung komplementärer Sensoren erhöht die Sicherheit und
die Genauigkeit der Bewertung der Situation. Bei der
Verwendung eines einzelnen Sensors erfordert die Beobachtung
der Situation eine längere Folge von Signalen, bevor der
Sensor eine Bewertung der Situation vornehmen kann. Bei
gleichzeitiger Verwendung mehrerer Sensoren könnte die
Bewertung der Situation schneller erfolgen, weil gleichzeitig
die Informationen von verschiedenen Sensoren verarbeitet
werden können. Wenn mehrere Sensoren verwendet werden, können
u. U. einfachere und damit billigere Sensoren eingesetzt
werden, so daß sich insgesamt eine Verringerung der
Gesamtkosten ergibt.
Bei bekannten Vorrichtung zum Bewerten von Situationen oder
Szenarien, bei denen die Situation oder das Szenarium mit
mehreren Sensoren gleichzeitig beobachtet wird, ist für jeden
Sensor ein gesonderter Kanal vorgesehen. In jedem Kanal werden
aus dem Sensor-Signal Merkmale gewonnen. Anhand dieser
Merkmale erfolgt in jedem Kanal einzeln, unabhängig von den
anderen Kanälen, eine Klassifikation. Die durch diese
Klassifikation gewonnene "symbolische Information" ist auf
einen Prozessor (Experten-System) geschaltet, der
regelbasierte Schlußfolgerungen zieht und Entscheidungen
trifft. Das Expertensystem liefert dann z. B. bei einem
bildverarbeitenden Sensor Informationen über die Objektklasse
und die Objektdaten.
Bei einer solchen bekannten Vorrichtung erfolgt die
Klassifizierung der Situation aus den Sensor-Daten für jeden
Sensor getrennt. Insofern liegen die gleichen Verhältnisse vor
wie bei einem einzelnen Sensor. Die Klassifikations-Vektoren
der einzelnen Sensor-Kanäle werden in Form symbolischer
Information dem Experten-System zugeführt. Das Expertensystem
zieht dann unter Verwendung regelbasierter Algorithmen sowie
einer Daten- und Wissensbasis Schlußfolgerungen zur Bewertung
der Situation. Dabei erfolgt die Überlagerung der Information
von den verschiedenen Sensoren erst in der Endstufe der
Informations-Verarbeitung.
Der Erfindung liegt die Aufgabe zugrunde, eine Vorrichtung der
eingangs genannten Art zu vereinfachen.
Der Erfindung liegt speziell die Aufgabe zugrunde bei einer
Vorrichtung der eingangs genannten Art die Zahl der zu
berücksichtigenden Merkmale und der durch das Expertensystem
anzuwendenden Regeln zu vermindern, die Entscheidungszeit zu
verkürzen und die Entscheidungs-Sicherheit zu erhöhen . .
Der Erfindung liegt weiter die Aufgabe zugrunde, bei einer
Vorrichtung der eingangs genannten Art die Detektions-
Wahrscheinlichkeit zu erhöhen und die Falschalarm-Rate zu
vermindern.
Erfindungsgemäß werden diese Aufgaben dadurch gelöst, daß
- (a) aus den Informationen der Sensoren hergeleitete Merkmale auf die Eingänge eines neuronalen Netzes aufgeschaltet sind, das trainiert ist, aus diesen Informationen an Ausgängen einen Klassifikations-Vektor zu erzeugen,
- (b) erste Speichermittel vorgesehen sind zur Festlegung von Zugehörigkeits-Funktionen, die jeweils in einzelnen, überlappenden Wertebereichen definiert sind und einen Grad der Zugehörigkeit einer Eingangsgröße zu einem dem betreffenden Wertebereich zugeordneten linguistischen Wert angeben,
- (c) der von dem neuronalen Netz erhaltene Klassifikations- Vektor auf eine mit den ersten Speichermitteln verbundene unscharfe Logikschaltung aufgeschaltet ist zum Umsetzen der Komponenten des Klassifikations-Vektors als Eingangsgrößen in linguistische Werte entsprechend den von den Speichermitteln vorgegebenen Wertebereichen dieser Komponenten und zur Festlegung von Zugehörigkeits-Graden nach Maßgabe der gespeicherten Zugehörigkeits-Funktionen, und
- (d) zweite Speichermittel zur Festlegung und Speicherung von Regeln zur Verknüpfung von linguistischen Eingangs-Werten zur Bildung jeweils eines linguistischen Ausgangs-Wertes,
- (e) Mittel zur Bildung der linguistischen Ausgangs-Werte aus den sich aus den Komponenten des Klassifikations-Vektors ergebenden Eingangs-Werten nach Maßgabe der in den zweiten Speichermitteln gespeicherten Regeln,
- (f) eine Korrelations-Logikschaltung zur Korrelation der Zugehörigkeits-Grade nach Maßgabe der Regeln für die Verknüpfung der linguistischen Eingangs-Werte zur Bildung von Zugehörigkeits-Graden für die linguistischen Ausgangs- Werte,
- (g) Mittel zur Veränderung von Zugehörigkeits-Funktionen der linguistischen Ausgangs-Werte nach Maßgabe der sich aus den Korrelationen ergebenden Zugehörigkeits-Grade dieser Ausgangs-Werte und
- (h) Mittel zur Bildung eines die Situationsbewertung wiedergebenden Vektors aus den so veränderten Zugehörigkeits-Funktionen der für die einzelnen Komponenten angesprochenen linguistischen Ausgangswerte vorgesehen sind.
Nach der Erfindung sind die aus den Signalen oder Daten der
Sensoren hergeleiteten Merkmale alle auf Eingänge eines
gemeinsamen neuronalen Netzes aufgeschaltet. Die Überlagerung
der Sensor-Information erfolgt somit in einem frühen Stadium
der Informations-Verarbeitung. Das neuronale Netz kann so
trainiert werden, daß es unmittelbar aus allen diesen
Merkmals-Informationen einen Klassifikations-Vektor liefert.
Ein solches neuronales Netz hat den Vorteil, daß es die
Problemlösung "erlernt" wird und nicht komplett mathematisch-
symbolisch vorgefertigt zu sein braucht. Neuronale Netze sind
geeignet, Information unterschiedlicher Sensoren "automatisch"
zu bewerten und auch bei Widersprüchen schnell eine
zufriedenstellende Lösung zu erreichen. Durch das neuronale
Netz können die Informationen der Sensoren auf einfache Weise
im Verhältnis zueinander gewichtet werden. Auch unvollständige
Informationen können aufgrund von Vorwissen sinnvoll ergänzt
werden. Das Ergebnis wird schnell erhalten. Da das neuronale
Netz schon einen Klassifikations-Vektor liefert, der auf den
Informationen aller Sensoren beruht, hat das Experten-System
weniger Eingangsgrößen. Da das Expertensystem nicht die von
den einzelnen Sensor-Kanälen gelieferten u. U.
unterschiedlichen Klassifikationen miteinander in Einklang zu
bringen braucht, benötigt es weniger Regeln für die
Entscheidungsfindung. Die Verarbeitung mit unscharfer Logik
berücksichtigt die Tatsache, daß der Klassifikations-Vektor
prinzipiell unscharf ist. Die Verarbeitung "linguistischer"
Werte wie "positiv groß" oder "negativ klein", die den
verschiedenen Wertebereichen zugeordnet sind, kann mit
vorhandenen integrierten Bausteinen erfolgen.
Ausgestaltungen der Erfindung sind Gegenstand der
Unteransprüche.
Ein Ausführungsbeispiel der Erfindung ist nachstehend unter
Bezugnahme auf die zugehörigen Zeichnungen näher erläutert.
Fig. 1 zeigt in einem Blockdiagramm den Grundaufbau einer
Einrichtung zum Klassieren von Situationen, die mit
einer Mehrzahl von Sensoren beobachtet werden, unter
Verwendung wissensbasierter Regeln.
Fig. 2 zeigt den Grundaufbau eines bei der Einrichtung von
Fig. 1 verwendeten neuronalen Netzes.
Fig. 3 zeigt ein Beispiel von Komponenten des Klassifikations-
Vektors, wie sie von dem neuronalen Netz geliefert
werden.
Fig. 4 zeigt in einem Blockdiagramm die Verarbeitung des von
dem neuronalen Netz gelieferten Klassifikations-Vektors
mit Hilfe unscharfer Logik und wissensbasierter Regeln.
Fig. 5 zeigt in einem Blockdiagramm die Verarbeitung der
Komponenten des Klassifikations-Vektors.
Fig. 6 zeigt für eine solche Komponente die Wertebereiche der
linguistischen Werte und den Verlauf der Zugehörigkeits-
Funktion.
Fig. 7 ist ein Blockdiagramm und veranschaulicht die
Verarbeitung der linguistischen Eingangs-Werte und der
Zugehörigkeits-Grade zu einem linguistischen Ausgangs-
Wert und einer für diese geltenden Zugehörigkeits-
Funktion, wenn durch die anwendbare Regel mehrere
Komponenten des Klassifikations-Vektors mit ihren
linguistischen Eingangs-Werten angesprochen sind.
Fig. 8 ist ein Blockdiagramm und veranschaulicht die Bildung
einer Ausgangs-Variablen, wenn durch die Komponenten des
Klassifikations-Vektors mehrere der Regeln angesprochen
werden, die jede einen linguistischen Ausgangswert mit
einer Zugehörigkeits-Funktion liefern.
In Fig. 1 sind mit 10 1, 10 2 . . . 10 n verschiedene Sensoren
bezeichnet, welche eine bestimmte Situation beobachten, z. B.
ein zu klassierendes Objekt. Ein Sensor kann z. B. ein
bildauflösender Infrarot-Sensor sein, ein anderer Sensor kann
im Millimeterwellen-Bereich arbeiten usw. Aus jedem der
Sensoren werden durch merkmalsgewinnende Signalverarbeitungs-
Mittel 12 1, 12 2 . . . 12 n bestimmte Merkmale der beobachteten
Situation gewonnen. Die so gebildeten Merkmals-Vektoren sind
auf ein neuronales Netz 14 aufgeschaltet. Das neuronale Netz
14 liefert an Ausgängen PE1, PE2 . . . PEn einen
Klassifikations-Vektor. Dieser Klassifikations-Vektor mit
seinen verschiedenen Komponenten ist auf eine
Signalverarbeitungs-Anordnung 16 geschaltet. Die
Signalverarbeitungs-Anordnung 16 bildet aus den Komponenten
des Klassifikations-Vektors anhand von überlappenden
Wertebereichen und diesen zugeordneten "Zugehörigkeits-
Funktionen" "linguistische" Eingangs-Werte in der Form "groß"
"klein" usw. Mit diesen linguistischen Eingangs-Werten werden
nach gespeicherten Regeln linguistische Ausgangs-Werte
gebildet. Aus diesen linguistischen Ausgangs-Werten liefert
die Signalverarbeitungs-Anordnung an einem Ausgang 18 eine
Bewertung der beobachteten Situation oder eines beobachteten
Szenarios, beispielsweise eine Aussage über eine Objektklasse
("Flugzeug") und Objektdaten (Position, Geschwindigkeit,
Abstand).
Die Ausgänge PE1 . . . sind von Prozessor-Elementen gebildet,
welche ausgelegt sind, die Summe der Eingangs-Signale zu
bilden. Im vorliegenden Fall liegt jedoch an jedem dieser
Prozessor-Elemente nur ein Signal an. Die Prozessor-Elemente
bilden hier Speicher zur Zwischenspeicherung der Ausgangs-
Information.
Fig. 2 zeigt ein Beispiel für das hier verwendete neuronale
Netz 14. Das neuronale Netz ist ein "Backpropagation
Netzwerk". An Eingängen 18 des neuronalen Netzes 14, die
wieder von Prozessor-Elementen gebildet sind, liegen Merkmals-
Vektoren 20 der verschiedenen Sensoren 10₁ usw. Jeder der
Merkmals-Vektoren hat eine Mehrzahl von Komponenten. Mit 22
sind Prozessor-Einheiten einer ersten Schicht 24 bezeichnet.
Jeder Eingang 18 ist mit jeder der Prozessor-Einheiten 22 der
ersten Schicht 24 derart verbunden, daß das Eingangs-Signal am
Eingang 18 mit einer veränderbaren Wichtung auf die Prozessor-
Einheit 22 aufgeschaltet ist. Die Prozessor-Einheiten 22
summieren die gewichteten Signale der Eingänge 18 und liefern
ein Ausgangs-Signal nach Maßgabe einer nichtlinearen Funktion,
vorzugsweise einer Gauß-Funktion der summierten Eingangs
signale. Die Ausgangs-Signale der Prozessor-Einheiten 22 sind
wiederum gewichtet auf Prozessor-Einheiten 26 einer Ausgangs-
Schicht 28 aufgeschaltet. Die Prozessor-Einheiten 22 sind
wieder mit jeder Prozessor-Einheit 26 verbunden, derart, daß
das Ausgangs-Signal jeder Prozessor-Einheit 22 mit
veränderbaren Wichtungen auf jeden der Prozessor-Einheiten 26
als Eingangs-Signale aufgeschaltet sind. Die Prozessor-
Einheiten 26 liefern die Ausgangs-Signale des neuronalen
Netzes wieder als nichtlineare Funktionen, vorzugsweise als
Gauß-Funktionen, der gewichteten Eingangs-Signale. Diese
Ausgangs-Signale sind auf die Prozessor-Einheiten PE1, PE2
usw. aufgeschaltet. In einem Trainings-Prozess werden die
Gewichte anhand von Paaren von Eingangs- und Ausgangs-Vektoren
nach einem bestimmten Algorithmus verändert, so daß das
neuronale Netz für die von den Merkmals-Vektoren gebildeten
Eingangs-Vektoren die richtigen Klassifikations-Vektoren als
Ausgangs-Vektoren liefern. Das ist bekannte Technik und daher
hier nicht im einzelnen beschrieben.
Die nichtlinearen Funktionen in dem neuronalen
Backpropagation- Netzwerk sind vorzugsweise Gauß-Funktionen.
Es hat sich gezeugt, daß sich damit besonders rauscharme
Ausgangs-Informationen erhalten lassen. Statt dessen können
aber auch in üblicher Weise Sigmoid-Funktionen vorgesehen
werden.
In Fig. 3 sind Beispiele für die am Ausgang des neuronalen
Netzes erhaltenen Komponenten des Klassifikations-Vektors
dargestellt.
Diese Komponenten des Klassifikations-Vektors werden auf die
Signalverarbeitungs-Anordnung 16 aufgeschaltet. Ein
Blockdiagramm einer solchen Signalverarbeitungs-Anordnung ist
in Fig. 4 dargestellt. Die Signalverarbeitungs-Anordnung 16
enthält eine Einrichtung 30 zur Umsetzung der Eingangs-
Variablen, d. h. der Komponenten des Klassifikations-Vektors in
linguistische Werte. Weiter enthält die Signalverarbeitungs-
Anordnung eine "Regel-Basis", d. h. einen Speicher, in welchem
Regeln abgelegt werden, nach denen Verknüpfungen von
linguistischen Eingangs-Werten linguistische Ausgangs-Werte
zugeordnet werden und Inferenz-Mittel, welche nach diesen
gespeicherten Regeln aus den von der Einrichtung 30
gelieferten linguistischen Werten linguistische Ausgangs-Werte
gebildet werden. Diese Regel-Basis und Inferenz-Mittel sind in
Fig. 4 mit 32 bezeichnet. Aus den linguistischen Ausgangs-
Werten, die von der Einrichtung 32 geliefert werden, werden
durch eine Einrichtung 34 wieder Daten an einem Ausgang 36
gebildet, welche eine Bewertung der beobachteten Situation
liefern.
Zur Umsetzung der Komponenten des Klassifikations-Vektors in
linguistische Werte sind für jede der Eingangs-Variablen
Wertebereiche definiert. Diese Wertebereiche überlappen sich.
In jedem der Wertebereiche ist eine Zugehörigkeits-Funktion
definiert. Die Komponenten des Klassifikations-Vektors liegen
an Eingängen 38 (Fig. 5) an. In einem Speicher 40 sind für jede
Eingangs-Variable für verschiedene, sich überlappende
Wertebereiche die Zugehörigkeits-Funktionen gespeichert. Eine
Logikschaltung 42 erzeugt aus den anliegenden Eingangs-
Variablen unter Berücksichtigung der gespeicherten
Wertebereiche und Zugehörigkeits-Funktionen linguistische
Ausgangswerte. Das ist nachstehend unter Bezugnahme auf Fig. 6
erläutert.
In dem Speicher 40 sind für jede Eingangs-Variable
Wertebereiche definiert, denen linguistische Werte: "negativ
groß" (NL), "negativ mittel" (NM), "negativ klein" (NS),
"null" (ZE), "positiv klein" (PS), "positiv mittel" (PM) und
"positiv groß" (PL) zugeordnet sind. Diese Wertebereiche
überlappen sich. Das bringt die Unschärfe zum Ausdruck, die
bei einer solchen Bewertung auftritt. Man kann bestimmte Werte
als "groß" aber auch als "mittel" bezeichnen. Die Grenzen sind
da fließend. Diesen fließenden Grenzen wird durch die
"Zugehörigkeits-Funktion" Rechnung getragen. Eine solche
Zugehörigkeits-Funktion ist in jedem der Wertebereiche
definiert. Bei dem in Fig. 6 dargestellten Beispiel sind die
graphischen Darstellungen der Zugehörigkeits-Funktionen
trapezförmig. Außerhalb der Überlappungs-Bereiche der
verschiedenen Wertebereiche haben die Zugehörigkeits-
Funktionen den Wert 1,0. Eine Wert der Eingangs-Variablen,
der außerhalb der Überlappungs-Bereiche liegt ist eindeutig
einem und nur einem Wertebereich und damit linguistischen Wert
zugeordnet. In den Überlappungs-Bereichen steigt die
Zugehörigkeits-Funktion von dem Wert 0 am äußeren Rande des
Wertebereichs bis zu dem Wert 1,0 am inneren Rand des
Überlappungs-Bereichs linear an. In Fig. 6 ist die
Zugehörigkeits-Funktion für den linguistischen Wert "negativ
groß" mit 44 bezeichnet. Der Wertebereich für diesen
linguistischen Wert ist zum Negativen hin unbegrenzt. Die
Zugehörigkeits-Funktion zeigt daher einen Anstieg zum
Negativen hin und bleibt dann konstant auf dem Wert 1,0. Die
Zugehörigkeits-Funktion für den linguistischen Wert " negativ
mittel" ist mit 46 bezeichnet. Die Zugehörigkeits-Funktion für
den linguistischen Wert " negativ klein" ist mit 48
bezeichnet. Die Zugehörigkeits-Funktion für den linguistischen
Wert " null" ist mit 50 bezeichnet. Die Zugehörigkeits-
Funktion für den linguistischen Wert "positiv klein" ist mit
52 bezeichnet. Die Zugehörigkeits-Funktion für den
linguistischen Wert " positiv mittel" ist mit 54 bezeichnet.
Die Zugehörigkeits-Funktion für den linguistischen Wert "
positiv groß" ist mit 56 bezeichnet. Diese Funktion ist,
ähnlich wie die Funktion 44 einseitig, diesmal zum Positiven
hin, unbegrenzt.
Statt der "trapezförmigen" Zugehörigkeits-Funktionen können
auch andere Verläufe der Zugehörigkeits-Funktionen benutzt
werden, beispielsweise Gauß-Funktionen.
Jedem Wert der Eingangs-Variablen, nämlich der betreffenden
Komponente des Klassifikations-Vektors, wird nach diesen
Funktionen ein linguistischer Ausgangs-Wert zugeordnet. Liegt
der Wert der Eingangs-Variablen in einem Überlappungs-Bereich,
dann werden dem Wert der Eingangs-Variablen zwei linguistische
Ausgangs-Werte zugeordnet. Weiterhin werden den linguistischen
Ausgangs-Werten nach den Zugehörigkeits-Funktionen
"Zugehörigkeits-Grade" zugeordnet. Der Wert "+10" in Fig. 6 ist
beispielsweise mit einem Zugehörigkeits-Grad von 0,3 "null"
und mit einem Zugehörigkeits-Grad von ebenfalls 0,3 "positiv
klein".
Die so erhaltenen linguistischen Werte sind über Leitungen 58
auf eine Regel-Basis 60 geschaltet. Die Regel-Basis enthält
einen Speicher, in welchem Regeln von der Form "Wenn . . . , dann"
gespeichert sind. Der "Wenn"-Teil dieser Regeln enthält eine
Verknüpfung von linguistischen Eingangs-Werten. Der "Dann"-
Teil enthält eine Schlußfolgerung in Form eines linguistischen
Ausgangs-Wertes. Eine solche Regel kann beispielsweise die
Form haben: "Wenn a = ZE und b = PS und c = NS, dann d = ZE".
Wenn wegen der überlappenden Wertebereiche durch einen Wert
einer Eingangs-Variablen (Komponente des Klassifikations-
Vektors) mehrere Regeln gleichzeitig angesprochen sind, also
etwa eine Regel mit "a = ZE" und eine Regel mit "a = PS", dann
ergeben sich mehrere solcher linguistischer Ausgangs-Werte.
Die linguistischen Eingangs-Werte sind jeweils mit
Zugehörigkeits-Graden behaftet. Aus den Zugehörigkeits-Grade
der sich nach den Regeln ergebenden linguistischen Ausgangs-
Werte werden nach geeigneten Regeln aus den Zugehörigkeits-
Graden der linguistischen Eingangs-Werte bestimmt. Fig. 7 zeigt
ein Beispiel hierfür: Eine Regel, wie oben in Fig. 7 angegeben,
verknüpft drei Eingangs-Variablen a, b und c, also Komponenten
des Klassifikations-Vektors. Die Regel liefert eine Ausgangs-
Variable f. Aus den für die verschiedenen Eingangs-Variablen
a, b und c geltenden Wertebereichen und Zugehörigkeits-
Funktionen 64, 66 bzw. 68 ergeben sich Zugehörigkeits-Grade
von mZE(a) = 0,2; mPS(b) = 0,4 und mNS(c) = 0,3. Durch eine
Korrelations-Logikschaltung 70 wird daraus ein Zugehörigkeits-
Grad für den linguistischen Ausgangs-Wert gebildet. Bei einer
UND-Verknüpfung der linguistischen Eingangs-Werte im "Wenn"-
Teil der Regel wird als Zugehörigkeits-Grad des linguistischen
Ausgangs-Wertes im "Dann"-Teil der Regel der kleinste der
Zugehörigkeits-Grade der Eingangs-Werte angenommen. Das
entspricht etwa einer Schnittmenge. Bei einer ODER-Verknüpfung
in der Regel, würde der größte der Zugehörigkeits-Grade der
Eingangs-Werte gewählt. Das entspräche einer
Vereinigungsmenge. In Fig. 7 sind die Vorgänge der Bestimmung
der linguistischen Eingangs-Werte aus den Eingangs-Variablen
a, b und c und die Bestimmung der zugeordneten Zugehörigkeits-
Grade ist in Fig. 7 durch die Blocks 72, 74 und 76 dargestellt.
Dem linguistischen Ausgangs-Wert f, im vorliegenden Fall "null"
(ZE) ist ebenfalls eine Zugehörigkeits-Funktion 78 zugeordnet.
Die Zugehörigkeits-Funktion 78 des Ausgangs-Wertes wird mit
dem für den Ausgangs-Wert f = ZE bestimmten Zugehörigkeits-
Grad multipliziert. Das liefert eine veränderte
Zugehörigkeits-Funktion 80 an einem Ausgang B1. Die Mittel zur
Durchführung dieser Operation sind in Fig. 7 durch einen Block
82 dargestellt.
Durch jede der Eingangs-Variablen a, b, c . . . können durch die
sich überlappenden Wertebereiche mehrere linguistische
Eingangs-Werte erzeugt werden. Dementsprechend können von
einem Klassifizierungs-Vektor mehrere Regeln angesprochen und
für jede Komponente des Ausgangs-Vektors der Regel-Basis 60 an
den Ausgängen 62 mehrere linguistische Ausgangs-Werte erhalten
werden.
In diesem Fall wird ein numerischer oder analoger Ausgangs-
Wert in der in Fig. 8 dargestellten Weise erhalten. Es sei
angenommen, daß als Ergebnis der auf die Eingangs-Variablen
und die daraus resultierenden linguistischen Eingangs-Werte
angewandten Regeln zwei veränderte Zugehörigkeits-Funktionen
80 und 84 erhalten worden sind. Die veränderte Zugehörigkeits-
Funktion 80 ist auf die in Fig. 7 dargestelle Weise durch
Multiplikation der Zugehörigkeits-Funktion 78 für f = ZE mit
dem Zugehörigkeits-Grad 0,2 entstanden. In entsprechender
Weise ist nach einer anderen Regel die veränderte
Zugehörigkeits-Funktion 84 an einem Ausgang B2 eines Blocks 85
durch Multiplikation der Zugehörigkeits-Funktion 86 für f = PM
mit einem Zugehörigkeits-Grad 0,15 erhalten worden. Die beiden
veränderten Zugehörigkeits-Funktionen werden überlagert. Das
ist in Fig. 8 durch einen Summierpunkt 88 dargestellt. Es wird
dann ein mit den veränderten Zugehörigkeits-Funktionen
gewichtetet Mittelwert fK der Ausgangs-Variablen f
gebildet. Die Überlagerung der veränderten Zugehörigkeits-
Funktionen ist in Fig. 5 durch den Summierpunkt 88 dargestellt.
Die Bildung des gewichteten Mittelwertes ist in Fig. 5 und 8
durch einen Block 90 symbolisiert.
Die erhaltenen Ausgangs-Werte an dem Ausgang 36 (Fig. 4 und 8)
liefern eine Bewertung der von den mehreren Sensoren 10 1 bis
10n beobachteten Situation.
Claims (8)
1. Einrichtung zum Bewerten von Situationen oder Szenarien,
die mit einer Mehrzahl von Sensoren beobachtet werden,
unter Verwendung wissensbasierter Regeln dadurch
gekennzeichnet, daß
- (a) aus den Informationen der Sensoren (10 1 . . . 10 n) hergeleitete Merkmale auf die Eingänge eines neuronalen Netzes (14) aufgeschaltet sind, das trainiert ist, aus diesen Informationen an Ausgängen einen Klassifikations- Vektor zu erzeugen,
- (b) erste Speichermittel (40) vorgesehen sind zur Festlegung von Zugehörigkeits-Funktionen (44 bis 56; . . . ), die jeweils in einzelnen, überlappenden Wertebereichen definiert sind und einen Grad der Zugehörigkeit einer Eingangsgröße zu einem dem betreffenden Wertebereich zugeordneten linguistischen Wert angeben,
- (c) der von dem neuronalen Netz (14) erhaltene Klassifikations-Vektor auf eine mit den ersten Speichermitteln (40) verbundene unscharfe Logikschaltung (42) aufgeschaltet ist zum Umsetzen der Komponenten des Klassifikations-Vektors als Eingangsgrößen in linguistische Werte entsprechend den von den ersten Speichermitteln (40) vorgegebenen Wertebereichen dieser Komponenten und zur Festlegung von Zugehörigkeits-Graden nach Maßgabe der gespeicherten Zugehörigkeits-Funktionen, und
- (d) zweite Speichermittel (60) zur Festlegung und Speicherung von Regeln zur Verknüpfung von linguistischen Eingangs- Werten zur Bildung jeweils eines linguistischen Ausgangs- Wertes,
- (e) Mittel zur Bildung der linguistischen Ausgangs-Werte aus den sich aus den Komponenten des Klassifikations-Vektors ergebenden Eingangs-Werten nach Maßgabe der in den zweiten Speichermitteln gespeicherten Regeln,
- (f) eine Korrelations-Logikschaltung (70) zur Korrelation der Zugehörigkeits-Grade nach Maßgabe der Regeln für die Verknüpfung der linguistischen Eingangs-Werte zur Bildung von Zugehörigkeits-Graden für die linguistischen Ausgangs- Werte,
- (g) Mittel (82) zur Veränderung von Zugehörigkeits-Funktionen der linguistischen Ausgangs-Werte nach Maßgabe der sich aus den Korrelationen ergebenden Zugehörigkeits-Grade dieser Ausgangs-Werte und
- (h) Mittel (90) zur Bildung eines die Situationsbewertung wiedergebenden Vektors aus den so veränderten Zugehörigkeits-Funktionen der für die einzelnen Komponenten angesprochenen linguistischen Ausgangswerte vorgesehen sind.
2. Vorrichtung nach Anspruch 1, dadurch gekennzeichnet, daß
das neuronale Netz (14) ein Backpropagation-Netzwerk ist,
bei welchem die nichtlineare Ausgangsfunktion eine Gauß-
Funktion ist.
3. Vorrichtung nach Anspruch 1 oder 2, dadurch
gekennzeichnet, daß die von den ersten Speichermitteln
(40) festgelegten Zugehörigkeits-Funktionen (44 bis 56;
. . . ) dargestellt sind durch eine trapezförmige Funktions-
Darstellung mit linearem Anstieg bzw. Abfall in den
Überlappungsbereichen der benachbarten Wertebereiche.
4. Vorrichtung nach einem der Ansprüche 1 bis 3, dadurch
gekennzeichnet, daß in den zweiten Speichermitteln (60)
Regeln in der Form "Wenn . . . dann . . . " gespeichert sind, wobei
der "Wenn"-Teil der Regel eine Verknüpfung von
linguistischen Eingangs-Werten und der "Dann"-Teil den
linguistischen Ausgangs-Wert enthält.
5. Vorrichtung nach Anspruch 4, dadurch gekennzeichnet, daß
die Korrelations-Logikschaltung (70) bei einer UND-
Verknüpfung der linguistischen Eingangs-Werte den
kleinsten der Zugehörigkeits-Grade der linguistischen
Eingangs-Werte berücksichtigt.
6. Vorrichtung nach Anspruch 3 oder 4, dadurch
gekennzeichnet, daß die Korrelations-Logikschaltung (70)
bei einer ODER-Verknüpfung von linguistischen Eingangs-
Werten als Zugehörigkeits-Grad des linguistischen
Ausgangs-Wertes den größten der Zugehörigkeits-Grade der
linguistischen Eingangs-Werte berücksichtigt.
7. Vorrichtung nach einem der Ansprüche 3 bis 6, dadurch
gekennzeichnet, daß die Mittel (82) zur Veränderung der
Zugehörigkeits-Funktion (78) eines Ausgangs-Wertes (ZE)
Mittel enthalten zur Multiplikation dieser Zugehörigkeits-
Funktion mit dem Zugehörigkeits-Grad des Ausgangs-Wertes.
8. Vorrichtung nach einem der Ansprüche 3 bis 7, dadurch
gekennzeichnet, daß zur Bildung der Komponenten des die
Situationsbewertung wiedergebenden Vektors jeweils ein mit
den veränderten Zugehörigkeits-Funktionen gewichteter
Mittelwert der den Komponenten zugeordneten Ausgangs-
Variablen erzeugt wird.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE4240789A DE4240789C2 (de) | 1992-12-04 | 1992-12-04 | Verfahren zur Identifizierung von Objekten |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE4240789A DE4240789C2 (de) | 1992-12-04 | 1992-12-04 | Verfahren zur Identifizierung von Objekten |
Publications (2)
Publication Number | Publication Date |
---|---|
DE4240789A1 true DE4240789A1 (de) | 1994-06-09 |
DE4240789C2 DE4240789C2 (de) | 2003-08-28 |
Family
ID=6474367
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE4240789A Expired - Fee Related DE4240789C2 (de) | 1992-12-04 | 1992-12-04 | Verfahren zur Identifizierung von Objekten |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE4240789C2 (de) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO1996027176A1 (en) * | 1995-02-28 | 1996-09-06 | Livingstone Legend Enterprises (Proprietary) Limited | Vehicle counter |
DE19537694A1 (de) * | 1995-10-10 | 1997-04-17 | Schenck Ag Carl | Verfahren zur Überwachung einer Maschine oder Anlage |
DE19914277A1 (de) * | 1999-03-20 | 2000-10-12 | Klaus Schuetz | Verfahren und Vorrichtung zur Erfassung der Klassen von System- oder Prozeßzuständen |
US6658980B1 (en) * | 1998-12-12 | 2003-12-09 | British Aerospace Public Limited Co. | Combat pilot aid system |
US7061401B2 (en) | 2003-08-07 | 2006-06-13 | BODENSEEWERK GERäTETECHNIK GMBH | Method and apparatus for detecting a flight obstacle |
CN111433627A (zh) * | 2018-04-05 | 2020-07-17 | 谷歌有限责任公司 | 使用机器学习执行角估计的基于智能设备的雷达*** |
DE102019105363A1 (de) * | 2019-02-09 | 2020-08-13 | Elmos Semiconductor Aktiengesellschaft | Verfahren für ein Messsystem im Fahrzeug zur Erkennung und Klassifizierung von Objekten im Umfeld des Fahrzeugs mit Hilfe eines Deep-Learning Verfahrens mit einem selbstlernenden Entscheider |
US11693104B2 (en) | 2017-12-15 | 2023-07-04 | Google Llc | Radar angular ambiguity resolution |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5167005A (en) * | 1988-08-19 | 1992-11-24 | Research Development Corporation Of Japan | Fuzzy computer |
US5303385A (en) * | 1989-03-17 | 1994-04-12 | Hitachi, Ltd. | Control system having optimality decision means |
DE4100500A1 (de) * | 1991-01-10 | 1992-07-16 | Bodenseewerk Geraetetech | Signalverarbeitungsanordnung zur klassifizierung von objekten aufgrund der signale von sensoren |
-
1992
- 1992-12-04 DE DE4240789A patent/DE4240789C2/de not_active Expired - Fee Related
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5752215A (en) * | 1995-02-28 | 1998-05-12 | Livingstone Legend Enterprises (Propiretary) Ltd. | Apparatus and method for classifying vehicles using electromagnetic waves and pattern recognition |
WO1996027176A1 (en) * | 1995-02-28 | 1996-09-06 | Livingstone Legend Enterprises (Proprietary) Limited | Vehicle counter |
DE19537694A1 (de) * | 1995-10-10 | 1997-04-17 | Schenck Ag Carl | Verfahren zur Überwachung einer Maschine oder Anlage |
US6658980B1 (en) * | 1998-12-12 | 2003-12-09 | British Aerospace Public Limited Co. | Combat pilot aid system |
DE19914277B4 (de) * | 1999-03-20 | 2008-08-14 | Schütz, Klaus | Verfahren und Vorrichtung zur Erfassung der Klassen von System- oder Prozeßzuständen |
DE19914277A1 (de) * | 1999-03-20 | 2000-10-12 | Klaus Schuetz | Verfahren und Vorrichtung zur Erfassung der Klassen von System- oder Prozeßzuständen |
US7061401B2 (en) | 2003-08-07 | 2006-06-13 | BODENSEEWERK GERäTETECHNIK GMBH | Method and apparatus for detecting a flight obstacle |
US11693104B2 (en) | 2017-12-15 | 2023-07-04 | Google Llc | Radar angular ambiguity resolution |
CN111433627A (zh) * | 2018-04-05 | 2020-07-17 | 谷歌有限责任公司 | 使用机器学习执行角估计的基于智能设备的雷达*** |
CN111433627B (zh) * | 2018-04-05 | 2023-09-22 | 谷歌有限责任公司 | 使用机器学习执行角估计的基于智能设备的雷达*** |
DE102019105363A1 (de) * | 2019-02-09 | 2020-08-13 | Elmos Semiconductor Aktiengesellschaft | Verfahren für ein Messsystem im Fahrzeug zur Erkennung und Klassifizierung von Objekten im Umfeld des Fahrzeugs mit Hilfe eines Deep-Learning Verfahrens mit einem selbstlernenden Entscheider |
DE102019105359A1 (de) * | 2019-02-09 | 2020-08-13 | Elmos Semiconductor Aktiengesellschaft | Verfahren für ein Ultraschallmesssystem im Fahrzeug zur Erkennung und Klassifizierung von Objekten im Umfeld des Fahrzeugs mit Hilfe eines Deep-Learning Verfahrens und einem selbstlernenden Entscheider |
DE102019105363B4 (de) * | 2019-02-09 | 2020-10-29 | Elmos Semiconductor Se | Verfahren für ein Messsystem im Fahrzeug zur Erkennung und Klassifizierung von Objekten im Umfeld des Fahrzeugs mit Hilfe eines Deep-Learning Verfahrens mit einem selbstlernenden Entscheider |
DE102019105359B4 (de) * | 2019-02-09 | 2020-10-29 | Elmos Semiconductor Se | Verfahren für ein Ultraschallmesssystem im Fahrzeug zur Erkennung und Klassifizierung von Objekten im Umfeld des Fahrzeugs mit Hilfe eines Deep-Learning Verfahrens und einem selbstlernenden Entscheider |
Also Published As
Publication number | Publication date |
---|---|
DE4240789C2 (de) | 2003-08-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE68927014T2 (de) | Assoziatives Musterkonversionssystem und Anpassungsverfahren dafür | |
DE4436658B4 (de) | Vorrichtung und Verfahren zur Störungsuntersuchung | |
DE69309300T2 (de) | Verfahren und vorrichtung zur artikelklassifizierung | |
DE102007001025B4 (de) | Verfahren zur rechnergestützten Steuerung und/oder Regelung eines technischen Systems | |
DE19531967A1 (de) | Verfahren zum Training eines neuronalen Netzes mit dem nicht deterministischen Verhalten eines technischen Systems | |
DE10296704T5 (de) | Fuzzy-Inferenznetzwerk zur Klassifizierung von hochdimensionalen Daten | |
DE102007014650B3 (de) | Verfahren zur rechnergestützten Verarbeitung von in einem Sensornetzwerk erfassten Messwerten | |
DE3938645C1 (de) | ||
DE4240789A1 (de) | Einrichtung zum Bewerten von Situationen oder Szenarien, die mit einer Mehrzahl von Sensoren beobachtet werden | |
DE2901683A1 (de) | Einrichtung zum pruefen von abstaenden zwischen objekten in einem zweidimensionalen quantisierten bild | |
EP0750764B1 (de) | Verfahren und anordnung zur fuzzy-regelung | |
DE102020201133A1 (de) | Verfahren und Vorrichtung zur Modellwertbildung, insbesondere zur Sensordatenfusion | |
WO2020224925A1 (de) | Überwachung eines ki-moduls einer fahrfunktion eines fahrzeugs | |
DE19537010C2 (de) | Lernverfahren und -anordnung zur Nachbildung eines dynamischen Prozesses | |
DE19703964C1 (de) | Verfahren zur Transformation einer zur Nachbildung eines technischen Prozesses dienenden Fuzzy-Logik in ein neuronales Netz | |
DE4244014A1 (de) | Verfahren zum Erkennen und Identifizieren von Fehlern an Sensoren | |
EP0777881B1 (de) | Verfahren zur festlegung des gültigkeitsbereichs für ein künstliches neuronales netzwerk | |
DE4205903C2 (de) | Signalverarbeitungsvorrichtung mit neuronalem Netzwerk | |
DE69123623T2 (de) | Unscharfe Folgerungsanlage | |
EP0646901A1 (de) | Verfahren zur Verarbeitung der Signale eines passiven Infrarot-Detektors und Infrarot-Detektor zur Durchführung des Verfahrens | |
DE69124813T2 (de) | Lernverfahren für Datenverarbeitungsanlage | |
EP0681234B1 (de) | Verfahren zur Fuzzy-Inferenz in einem Fuzzy-Regelkreis | |
DE102022202218A1 (de) | Verfahren und Vorrichtung zum Bestimmen einer Robustheit eines datenbasierten Sensormodells | |
DE4336921C2 (de) | Verfahren und Vorrichtung zur automatischen Schlußfolgerung (Inferenz) für regelbasierte Fuzzy-Systeme | |
DE69023034T2 (de) | Datenverarbeitungssystem. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8110 | Request for examination paragraph 44 | ||
8125 | Change of the main classification |
Ipc: G06K 9/66 |
|
8304 | Grant after examination procedure | ||
8364 | No opposition during term of opposition | ||
8339 | Ceased/non-payment of the annual fee |