DE4124501C2 - Neuronales Netz mit automatischer Installation von Zwischenneuronen - Google Patents
Neuronales Netz mit automatischer Installation von ZwischenneuronenInfo
- Publication number
- DE4124501C2 DE4124501C2 DE4124501A DE4124501A DE4124501C2 DE 4124501 C2 DE4124501 C2 DE 4124501C2 DE 4124501 A DE4124501 A DE 4124501A DE 4124501 A DE4124501 A DE 4124501A DE 4124501 C2 DE4124501 C2 DE 4124501C2
- Authority
- DE
- Germany
- Prior art keywords
- neural network
- class
- learning
- feature vector
- neurons
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000013528 artificial neural network Methods 0.000 title claims description 74
- 210000002569 neuron Anatomy 0.000 title claims description 56
- 238000009434 installation Methods 0.000 title description 2
- 239000013598 vector Substances 0.000 claims description 108
- 230000006870 function Effects 0.000 claims description 42
- 238000012360 testing method Methods 0.000 claims description 38
- 238000005259 measurement Methods 0.000 claims description 29
- 238000000034 method Methods 0.000 claims description 26
- 210000004205 output neuron Anatomy 0.000 claims description 25
- 210000002364 input neuron Anatomy 0.000 claims description 19
- 230000008569 process Effects 0.000 claims description 16
- 238000012545 processing Methods 0.000 claims description 11
- 108010076504 Protein Sorting Signals Proteins 0.000 claims description 6
- 230000002950 deficient Effects 0.000 claims description 4
- 230000001537 neural effect Effects 0.000 claims description 4
- 238000012935 Averaging Methods 0.000 claims description 3
- 238000003860 storage Methods 0.000 claims description 3
- 230000015556 catabolic process Effects 0.000 claims description 2
- 230000007547 defect Effects 0.000 claims description 2
- 238000010606 normalization Methods 0.000 claims description 2
- 239000004020 conductor Substances 0.000 claims 1
- 230000007812 deficiency Effects 0.000 claims 1
- 238000001514 detection method Methods 0.000 description 6
- 230000009467 reduction Effects 0.000 description 5
- 230000006399 behavior Effects 0.000 description 3
- 238000005070 sampling Methods 0.000 description 3
- 230000015572 biosynthetic process Effects 0.000 description 2
- 239000006227 byproduct Substances 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 230000005284 excitation Effects 0.000 description 2
- 238000009499 grossing Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 239000000047 product Substances 0.000 description 2
- 238000003892 spreading Methods 0.000 description 2
- 230000007480 spreading Effects 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000003750 conditioning effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000012905 input function Methods 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 238000007620 mathematical function Methods 0.000 description 1
- 238000013178 mathematical model Methods 0.000 description 1
- 230000015654 memory Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000035515 penetration Effects 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 230000007115 recruitment Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 238000004904 shortening Methods 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Neurology (AREA)
- Feedback Control In General (AREA)
- Image Analysis (AREA)
Description
Die Erfindung betrifft ein neuronales Netz, bestehend aus
untereinander netzartig schichtweise
hintereinandergeschalteten Neuronenschichten, von denen
einer Eingangsneuronenschicht über Eingänge Eingangsmuster
jeweils als ein n-dimensionaler Merkmalvektor zuzuführen
sind und deren Eingangsneuronen jeweils mit Eingängen von
Zwischenneuronen einer Zwischenneuronenschicht verbunden
sind, in denen jeweils mittels einer parametrisierten
Klassenfunktion oder Unterklassenfunktion eine
Zugehörigkeit des jeweils vorliegenden Merkmalvektors zu
einer dem jeweiligen Zwischenneuron zugeordneten Klasse oder
Unterklasse zu ermitteln ist, die von den Zwischenneuronen
an Ausgangsneuronen einer Ausgangsneuronenschicht mitgeteilt
werden, deren Ausgangsgrößen einen Ausgangsvektor
repräsentieren, wobei das neuronale Netz an eine
Lernsteuervorrichtung und eine Prüfvorrichtung anschließbar
ist und die Ausgangssignale der Ausgangsneuronen der
Prüfvorrichtung zugeführt sind, die, wenn bei
eingangsseitigem Anliegen eines Lernmerkmalvektors keine
Klassenzugehörigkeit vorliegt oder mehrere
Klassenzugehörigkeiten vorliegen, dieses der
Lernsteuervorrichtung signalisiert, welche abhängig von
diesen Prüfvorrichtungsausgangssignalen den Zwischenneuronen
jeweils mindestens einen geänderten Parameter mindestens
einer der Klassen- oder Unterklassenfunktion zuführt,
welche jeweils die Klassenzugehörigkeit beschreibt und durch
eine Abstandsfunktion bezüglich eines n-dimensionalen
Mittelpunktvektors eines n-dimensional bezüglich seiner
Grenzen parametrisierten Raumausschnittes bestimmt ist, wobei
eine Grenzparametervariation derart vorgenommen ist, daß
alle von einer Vielzahl von jeweils einer der Klassen
zugeordneten Lernmerkmalvektoren in einen der
Raumausschnitte, der nur dieser einen Klasse zugeordnet ist,
verweisen.
Ein derartiges neuronales Netz mit einer Prüf- und
Lernsteuervorrichtung ist aus DE 40 42 139 A1 bekannt. Diese
Vorrichtung dient der Klassifizierung von Merkmalvektoren,
die einer Eingangsneuronenschicht zugeführt werden, deren
Signale über parametrisierte Funktionen an den Klassen
zugeordneten Ausgangsneuronen zugeführt werden. In einem
Lernvorgang werden Merkmalvektoren einer bekannten Klasse
dem neuronalen Netz zugeführt und abhängig von den in der
Prüfvorrichtung ermittelten Abweichungen der Signale an den
Ausgangsneuronen von der bekannten Klasse werden die
Parameter durch die Lernsteuervorrichtung in einer
Zwischenneuronenschicht geändert, so daß eine möglichst
eindeutige Klassifizierung eines Lernmerkmalkollektivs
erfolgt. Das gesamte neuronale Netz besteht aus einer festen
Anzahl von Neuronen, die problemabhängig ausreichend zu
bemessen ist, also i. a. überdimensioniert ist.
Die vorbekannten Neuronen basieren auf Gewichtsfunktionen,
deren Gewichte die veränderbaren Parameter sind. Diese
gewichtsparametrisierten Linearfunktionen zeigen bei
komplexen Problemen ein ungünstiges Abgrenzungsverhalten,
wodurch sie einen hohen Aufwand an Neuronen benötigen und in
jedem Lernschritt, bei dem ein weiterer Lernmerkmalvektor
zugeführt wird, sind sämtliche Ausgangsneuronen betroffen,
deren Werte zur Korrektur an sämtlichen gewichteten
Eingängen der Zwischenneuronen genutzt werden. Dies führt zu
einem hohen Rechenaufwand und zu langen Verarbeitungszeiten
sowie einer schlechten Konvergenz des Lernverhaltens.
Weiterhin ist aus der DE 40 15 791 A1 ein neuronales Netz
mit mindestens einer Neuronenzwischenschicht bekannt, deren
Neuronen in Lernschritten durch Gewichtseinstellungen
zuerst zwischen den Zwischenneuronen und den
Ausgangsneuronen und jeweils anschließend zwischen den
Zwischenneuronen und den Eingangsneuronen auf jeweils ein
eindeutiges Erkennen eines weiteren Lernmerkmalvektors
eingestellt werden. Dies erfordert komplexe Ausgangsneuronen
mit gewichtsgesteuerten Eingängen und es verkompliziert den
Einstellungsprozeß wegen der noch größeren Vielfalt der
Einstellmöglichkeiten.
Ein neuronales Netz ist bekanntlich eine Anordnung von
mathematischen Funktionsgruppen i.a. mehrerer verschiedener
Arten, die in sogenannten gedachten Neuronenschichten
angeordnet sind, wobei die Ausgänge der Neuronen der einen
Schicht jeweils mit den Eingängen der Neuronen der
nachgeordneten Schicht netzartig verknüpft sind. Den
Eingängen werden sogenannte Eingangsmuster, die jeweils aus
einer Menge von Merkmalgrößen bestehen, parallel zugeführt,
und von den Ausgängen der Ausgangsschicht werden den
Eingangsmustern zugehörige Ausgangsmuster, die jeweils aus
einer Menge von Ausgangsgrößen bestehen, abgegeben. Die
mathematischen Verknüpfungsfunktionen der Neuronen werden in
einer sogenannten Lernphase schrittweise derart
parametrisiert, daß zu einer vorgegebenen Anzahl bekannter
Lernmuster bekannte zugehörige Ausgangsmuster entstehen. Die
Verknüpfungsfunktionen bestehen gewöhnlich aus einer Bildung
von Summen aus den parametrisch gewichteten Mustermerkmalen
und aus einer parametrisierten Schwellwertbewertung. Diese
Art der neuronalen Netze haben den Nachteil, daß zum Lernen
eines Musterkollektivs abhängig von dessen Größe sowie der
Unterscheidbarkeit der darin enthaltenen Muster oft eine
sehr große Anzahl von Neuronen, die nicht vorherbestimmbar
ist, zu einer eindeutigen Klassifizierung der Muster in die
Ausgangsmuster erforderlich ist und deshalb ein Überschuß an
Neuronen von vornherein anzusetzen ist, wodurch eine erhöhte
Arbeitszeit und ein vielschrittiger iterativer Lernprozeß
notwendig ist, wenn ein Musterkollektiv neu erlernt werden
soll oder neue Muster hinzugelernt werden sollen.
Es ist Aufgabe der Erfindung, ein neuronales Netz zu
offenbaren, das eine Verringerung der Verarbeitungszeit
eines Musters und eine Verringerung von Lernschrittzahlen
erbringt und eine eindeutige Abbildung eines jeweils
erlernten Musterkollektivs mit einem minimalen
Neuronenaufwand aufweist, sowie Verfahren zur Minimierung
des neuronalen Netzes und eines Lernmerkmalvektorkollektivs.
Diese Aufgabe wird gelöst durch ein neuronales Netz mit
den Merkmalen des Patentanspruchs 1 und ein Minimierungs
verfahren gemäß Patentanspruch 19. Inbesondere ist
die Lösung dadurch gegeben, daß die
Grenzparametervariation, wenn die Prüfvorrichtung keine
Klassenzugehörigkeit signalisiert, jeweils in demjenigen der
Ausgangsneuronen erfolgt, das der Klasse des jeweiligen
Lernmerkmalvektors zugeordnet ist, und die
Grenzparametervariation, wenn die Prüfvorrichtung mehrere
Klassenzugehörigkeiten signalisiert, jeweils in allen den
Ausgangsneuronen erfolgt, die eine Klassenzugehörigkeit des
jeweiligen Lernmerkmalvektors signalisieren, und daß jeweils
dann, wenn die Grenzparametervariation eine eindeutige
Verweisung auf einen der Raumausschnitte der Klasse des
jeweiligen Lernmerkmalvektors nicht erbringt, eine
Aufgliederung eines dieser betreffenden Raumausschnitte in
Unterraumausschnitte erfolgt, indem mindestens jeweils ein
weiteres diesen weiteren Unterraumausschnitt
repräsentierendes Zwischenneuron mit durch den
Lernmerkmalvektor bestimmten Parametern einer weiteren
Unterklassenfunktion installiert und dem Ausgangsneuron
dieser Klasse zugeordnet wird, so daß letztlich von einer
Gesamtheit von Lernmerkmalvektoren jeder nur auf solche
Raum- oder Unterraumausschnitte verweist, die nur einer
einzigen zugehörigen Klasse oder Unterklasse zugeordnet
sind.
Vorteilhafte Ausgestaltungen sind in den Unteransprüchen
angegeben.
Die einzelnen Ausgangssignale des neuronalen Netzes sind
also Binärsignale, die jeweils eine Klassenzugehörigkeit
anzeigen. Die Abstandsfunktion ist vorteilhaft stetig
fallend. Sie kann beispielsweise eine Glockenfunktion, eine
Potenzfunktion oder eine Exponentialfunktion sein.
Als besonders günstig hat sich eine quadratische
Abstandsfunktion des Differenzvektors zwischen dem
Merkmalvektor und dem Mittelpunktvektor ergeben, der ins
Verhältnis zum Quadrat der Länge eines Radiusvektors gesetzt
wird, der die Grenze des betreffenden Raumausschnittes
angibt, wenn ein unterer Schwellwert des
Abstandsfunktionswertes festgelegt ist; somit stellen die
Raumausschnitte n-dimensionale Hyperellipsoide dar, die im
Sonderfall n-dimensionale Kugeln sind, wenn die Achsen
isometrisch sind.
Tritt bei dem Einsatz des aufgrund eines Lernvorganges mit
einem Kollektiv von Lernmerkmalvektoren ausgebildeten
neuronalen Netz zur Klassifizierung unbekannter
Merkmalvektoren eine mehrdeutige oder keine
Klassenzugehörigkeit auf, was jeweils in einer
Nachverarbeitung der Ausgangswerte abgeprüft wird, so wird
zweckmäßig der Schwellwert in Inkrementen innerhalb
vorgegebener Grenzen nach und nach erhöht bzw. erniedrigt,
bis eine eindeutige Klassenzuordnung vorliegt. Der danach
ausgegebene Schwellwert zeigt dem Benutzer den Grad der
Eindeutigkeit der Zuordnung qualitativ an.
Eine vorteilhafte neuartige Ausgestaltung des neuronalen
Netzes besteht darin, daß die Eingangsneuronen eine
Aufbereitung von Eingangssignalen derart vornehmen, daß
zeitliche Signalfolgen parallelisiert und dann als ein
Eingangsvektor genutzt werden. Hierzu wird z. B. der Verlauf
mindestens eines Meßsignales über einen vorgegebenen
Zeitraum, der z. B. einer Funktionsperiode oder einem
Funktionsabschnitt einer Vorrichtung, der die zu
verarbeitenden Meßdaten entnommen worden sind, entspricht,
in kurzen zeitlichen Abständen, also im Zeitmultiplex,
abgetastet und zwischengespeichert. Das Meßsignal wird
vorteilhaft vor oder nach der Abtastung und Speicherung
glättend verarbeitet, was durch die Bildung einer
Einhüllenden von Wechselgrößensignalen und/oder durch eine
Kurzzeitmittelung über mehrere Abtastungen erfolgt. Dadurch
ist es möglich, mit relativ wenigen Stützwerten
Merkmalvektoren zu bilden, die eine hochwertige
Klassifikation erbringen. Die Stützwerte werden vorteilhaft
in einer vorgegebenen Anzahl über den Zeitraum der sich
ergebenden Dauer des Funktionsabschnittes gleichverteilt
gebildet.
Die Meßwertaufbereitung läßt sich i.a., wenn es sich nicht
um eine sehr schnelle Echtzeitverarbeitung handelt, mittels
eines Programmes vornehmen, wenn die Abtastwerte vorab
gespeichert wurden.
Bei der Neuerstellung eines neuronalen Netzes wird jeweils
nach der Zuführung eines Lernmerkmalvektors einer bereits
erlernten Klasse ausgangsseitig von der nachgeschalteten
Prüfvorrichtung ermittelt, ob eine richtige und eine
eindeutige Klassifizierung desselben vorliegt und, falls
dies nicht der Fall ist, wird iterativ eine inkrementale
Änderung mindestens eines der Merkmalraumparameter in
vorgegebenen Grenzen vorgenommen und, falls dies bei
Erreichen der vorgegebenen Grenze noch nicht zu einer
eindeutigen richtigen Klassifizierung führt, wird ein
weiteres Zwischenneuron eingerichtet, mit Parametern
versorgt und mit dem der Klasse des Lernmerkmalvektors
zugeordneten Ausgangsneuron verbunden.
Ist ein abgeschlossenes Lernmerkmalkollektiv erlernt, so
kann das neuronale Netz unabhängig von der Lernvorrichtung
betrieben werden. Die Struktur des neuronalen Netzes und
sein Inhalt sind u. a. durch die Reihenfolge der Zuführung
der Lernmerkmalvektoren eines Kollektivs bestimmt, da von
ihr abhängig mehr oder weniger Unterklassen entstehen, denen
die Zwischenneuronen entsprechen. Es hat sich in praktischen
Versuchen gezeigt, daß das neuronale Netz i.a. dadurch zu
vereinfachen ist, daß nach dem Erlernen eines vollständigen
Kollektivs, das in beliebiger Reihenfolge zugeführt werden
kann, ein Unterkollektiv aus den Mittelpunktvektoren der
Unterklassen gebildet wird und aus diesen ein neuronales
Netz neu erstellt wird, mit dem dann die übrigen
Lernmerkmalvektoren nur klassifiziert werden, wonach nur die
dabei nicht eindeutig und nicht richtig klassifizierten
Lernmerkmalvektoren jeweils in einem folgenden Lernschritt
zugeführt werden. Diese beiden Schritte der Klassifizierung
und des Nachlernens der nicht eindeutig und nicht richtig
klassifizierten Lernmerkmalvektoren führt letztlich, u. U. nach
mehrmaliger Iteration der Neuerstellung des neuronalen
Netzes mit dem reduzierten und gemäß dem Verfahren um die
notwendigen Lernmerkmalvektoren ergänzten Kollektiv, zu
einem vereinfachten aber vollständig klassifizierenden
neuronalen Netz und einem, z. B. für ein späteres Lernen
von Obermengen, verfügbaren verkürzten aber ausreichenden
Lernmerkmalvektorkollektiv.
Eine vorteilhafte Anwendung findet das neuartige neuronale
Netz in Prüfeinrichtungen, wobei die über eine
Funktionsperiode von einem Prüfobjekt gewonnenen Meßsignale
dem neuronalen Netz zu einer Güteklassifikation des
Prüflings zugeführt werden. Bei der Einrichtung einer
solchen Vorrichtung ist es nicht mehr erforderlich, die
einzelnen Fehlerarten eines Produktes in ihren Auswirkungen
auf die Meßwertverläufe zu analysieren und zu kennen, wie
das bei menschlichen Experten oder analytisch arbeitenden
bekannten Vorrichtungen der Fall ist; sondern es genügt, die
Meßwerte von guten Musterobjekten und den verschiedenen
Arten der fehlerbehafteten Musterobjekten über einen
charakteristischen Funktionsabschnitt zu erfassen und in
einer Lernphase unter Zuordnung zu der Fehlerart, die den
Klassenindex bildet, daraus ein neuronales Netz zu
generieren. Darüberhinaus lassen sich die vorbeschriebenen
vorteilhaften Ausgestaltungen auf das neuronale Netz und das
so gewonnene Lernmerkmalvektorkollektiv anwenden. Das
Klassifizierungsvermögen des neuronalen Netzes läßt sich
auch sehr leicht bei Änderungen des Produktes oder bei
Auftreten neuer Fehlerarten ergänzen und erweitern, indem
die Meßwerte von dem geänderten oder fehlerhaften Objekt als
weiterer Lernmerkmalvektor erfaßt und gespeichert werden.
Eine vorteilhafte Anwendung findet das erfindungsgemäße
neuronale Netz in einem Elektromotoren-Güteprüfstand,
wodurch es gelingt, mit einem einfachen Computer und nur
unter Anwendung der hier dargelegten Mittel und ohne
Hinzufügung von speziellem Fachwissen über die Auswirkung
einzelner Fehlerarten auf die Meßdaten, eine volle
Funktionsfähigkeit der Klassifiziereinrichtung zu erbringen,
indem sämtliche bekannten, d. h. denkbaren, Fehlerarten an
den Motoren erkannt und angezeigt werden.
Vorteilhafte Ausgestaltungen der Vorrichtung und der
Verfahrensschritte sind anhand der Fig. 1 bis 5
dargestellt.
Fig. 1 zeigt ein Schema des neuronalen Netzes mit
Lernvorrichtung;
Fig. 2 zeigt einen Ausschnitt des neuronalen Netzes für eine
Zeitmulitplex-Signalaufbereitung;
Fig. 3 zeigt ein Schema einer Klassifikatorbildung;
Fig. 4 zeigt ein Schema einer Klassifikatorvariation;
Fig. 5 zeigt einen Motorenprüfstand mit einem neuronalen
Netz.
Fig. 1 zeigt ein Schema eines neuronalen Netzes mit drei
Stufen. Die Eingangsschicht (NSE) von Neuronen besteht aus
Aufbereitungsschaltungen (NE1x-NE13), die eine Umsetzung
von an den Eingängen (EG1, EG2) eingehenden Größen in
Merkmale des Merkmalvektors vornehmen. Sämtliche Merkmale
der für die Verarbeitungszeit zwischengespeicherten
Merkmalvektoren sind allen Zwischenneuronen (NM1x-NM4) der
verdeckten Neuronenschicht (NSM) zugeführt, in denen die
Klassifizierung nach Klassen bis in die Unterklassen
erfolgt. Die binären Ausgangssignale der Zwischenneuronen
sind der Ausgangsneuronenschicht (NSA) zugeführt, die
jeweils aus Ausgangssignalspeichern mit einer Oder-Schaltung
für die Unterklassenzusammenfassung zu einer Klasse
bestehen, die die Ausgangsneuronen (NA1x-NA3) bilden.
Fig. 2 zeigt einen Ausschnitt in einer besonderen
Ausgestaltung der Eingangsneuronenschicht, indem in einer
Anzahl der Neuronen (NE1-NE3) das jeweils anliegende
Eingangssignal (EG1) mit einer zeitlichen Folge von Takten
(T1-T3) eines durch eine gesteuerte Uhr (CL) geschalteten
Zeitmultiplexers (TM) im Zwischenspeicher (S1-S3)
eingespeichert wird. Von diesen werden die gespeicherten
Werte zu einem Zeitpunkt (TX) nach dem Ende der
Zeitmultiplexabtastung über Und-Funktionen (U1-U3) an die
Zwischenneuronen als die auszuwertenden Merkmale abgegeben.
Das Eingangssignal (EG1) ist zweckmäßig digital umgesetzt,
und die Multiplexerfunktion läßt sich hardwaremäßig oder
durch eine Programmsteuerung erfüllen. Die Funktion der
Anordnung nach Fig. 2 läßt sich auch in einfacher Weise
durch ein Schieberegister erbringen, dem eingangsseitig das
digital umgesetzte Signal zugeführt ist und das mit dem
Zeittakt als Schiebetakt beaufschlagt ist und dessen Inhalt
mit dem Schlußtakt parallel weitergegeben wird. Die Anzahl
der Samplingtakte (T1-T3) und die Dauer eines
Mulitplexerdurchlaufes ist den jeweiligen Erfordernissen
anzupassen, so daß die charakteristischen Verläufe des
Eingangssignales mit ausreichender Auflösung erfaßt werden.
Vor einer Digitalisierung oder auch nach dieser wird das
Eingangssignal vorteilhaft geglättet, wobei der
Glättungszeitraum allenfalls einige Abtasttakte lang ist, um
die charakteristischen Merkmale zu erhalten und andererseits
hochfrequente Störeinflüsse zu beseitigen.
Sind die Eingangssignale Wechselgrößen, so hat es sich als
vorteilhaft und ausreichend erwiesen, von diesen die
Einhüllende zu bilden und nur den so entstehenden wesentlich
niederfrequenteren Größenverlauf zur Merkmalbildung
auszuwerten. Auch die Einhüllendenbildung kann vor oder nach
einer Digitalisierung des Eingangssignales (EG1) erfolgen.
Wird eine Einhüllende programmäßig ausgewertet, so läßt sich
statt einer Zeitmultiplexabfrage in einem festen Raster auch
eine vorgegebene Anzahl von Stützwerten der Einhüllenden
über einen charakteristischen Signalabschnitt bilden und als
Merkmale speichern, wobei die Grenzen des auszuwertenden
Signalabschnittes von dem Eintreten
bestimmter Kriterien des Meßsignales, z. B. von einem
Nulldurchgang, einem Extremwertdurchlauf oder einem
Erreichen von Grenzwerten, abgeleitet werden, also zeitlich
nicht vorherzubestimmen sind.
Sofern mehrere Eingangssignalfolgen in dem neuronalen Netz
ausgewertet werden sollen, können mehrere Anordnungen gemäß
Fig. 2 parallel angeordnet sein und auch zeitlich gestaffelt
mit jeweils einem kleinen Zeitversatz programmäßig betrieben
sein, wobei die Zeitraster der verschiedenen
Signalaufbereitungen auch unterschiedlich sein können.
Die Funktion der Zwischenneuronen läßt sich anhand der
Fig. 3 veranschaulichen, wo in einer Merkmalebene (M1, M2)
kreisförmige Schnitte mit einem Raumausschnitt (U1) einer
ersten Klasse und mit drei Unterraumausschnitt (U2, U3, U4)
einer zweiten Klasse dargestellt sind und die Lage der
jeweils gelernten Merkmalvektoren der beiden Klassen durch
Dreiecke bzw. Quadrate eingezeichnet sind. Die gestrichelt
umschlossenen Bereiche repräsentieren beispielsweise ideale
Klassengrenzen, die überschneidungsfrei sind. Denen nähert
sich bei einem Lernen weiterer Lernmerkmalvektoren die
Unterraumausschnittgrenzziehung an, indem deren Radien verkürzt
oder verlängert werden, die Mittelpunkte verlagert werden
und erforderlichenfalls neue Unterraumausschnitte gebildet werden.
Weiterhin zeigt Fig. 4 einen elliptischen Schnitt eines
Unterraumausschnitte (U) mit der Merkmalebene (M1, M2), bei
dem die Radien (R1, R2), die sich in Richtung der
Merkmalachsen erstrecken, den jeweiligen Erfordernissen
angepaßt verschieden sind. Auf alle Dimensionen eines
Merkmalvektors (M) bezogen, erhält dann der Merkmalraum die
Form eines Hyperellipsoids.
Jeder Unterraumausschnitt ist somit durch die Gesamtheit der
Koordinaten (Wi) des Mittelpunktes und die Gesamtheit der
Radien (Ri) des Hyperellipsoids bestimmt.
Die Lage eines Merkmalvektors (M) mit den Merkmalen Mi
ergibt sich dann aus einer Abstandsfunktion H, aus der sich
dessen Unterklassenzugehörigkeit T durch eine
Grenzwertzusatzbedingung mit einem Grenzwert S in folgender
Weise ergibt:
Bei dem Erzeugen eines neuronalen Netzes werden auf der
Grundlage der Eingangsneuronen in einer
Lernsteuervorrichtung (LV) gemäß Fig. 1 von dieser gesteuert
Lernmerkmalvektoren (ML) jeweils den Zwischenneuronen zur
Klassifizierung zugeführt und die Ausgangssignale der
Ausgangsneuronen von einer Prüfschaltung (PS) bewertet, die
feststellt, ob eine und nur eine Klasse und ggf. die dem
Lernmerkmalvektor (ML) zugehörige Klasse (KL) von dem
neuronalen Netz ausgegeben wird. Tritt dabei eine neue
Klasse auf, für die noch kein Zwischenneuron besteht, so
wird hierfür ein neues installiert, indem zu dem Endpunkt
des betrachteten Lernmerkmalvektors (ML) ein Hyperellipsoid
durch einen Parametersatz Mi, Ri, S festgelegt und
gespeichert wird. Ist die neue Klasse bereits im neuronalen
Netz durch mindestens ein Zwischenneuron repräsentiert,
erfolgt jedoch keine Klassifizierung oder eine
Doppelklassifizierung des eingegebenen Lernmerkmalvektors
(ML), so wird von der Lernsteuervorrichtung (LV) iterativ
eine sukzessiv erweiternde Parametervariation der Neuronen
der betreffenden nicht gefundenen Klassen in jeweils
vorgegebenen Grenzen vorgenommen und, falls dies nicht
erfolgreich war, eine Neuinstallation eines Zwischenneurons
eines Unterraumausschnitts vorgenommen. Liegt andernfalls
eine Falschklassifizierung des Lernmerkmalvektors vor, so
nimmt die Lernsteuervorrichtung (LV) iterativ eine
sukzessive Parametervariation zur Verengung des
Hyperellipsoids in vorgegebenen Grenzen vor, und, falls
dieses Vorgehen nicht erfolgreich war, wird von der
Lernsteuervorrichtung (LV) eine Aufteilung eines betroffenen
Neurons in Zwischenneuronen von Unterraumausschnitten
vorgenommen, die engere Grenzen, also kürzere Radien und
getrennte Mittelpunktkoordinaten aufweisen. Die jeweiligen
Grenzvorgaben für die Variationen der Parameter, nämlich der
Radien und der Mittelpunktkoordinaten, sind dadurch
bestimmt, daß alle bisher gelernten Lernmerkmalvektoren in
den beschriebenen Räumen enthalten sein müssen. Das
jeweilige Maß des Abstandes eines mehreren oder keiner
Klasse zugeordneten Lernmerkmalvektors zu dem Hyperellipsoid
ist zweckmäßig zur Bildung des Inkrementes der
Parameteränderung genutzt, so daß eine schnelle Konvergenz
der Iteration erfolgt.
Bei einer Zuordnung eines Lernmerkmalvektors zu mehreren
Klassen wird zweckmäßig zuerst an den Parametern des Neurons
geändert, das die geringste Grenzabweichung des
Hyperellipsoids zum Lernmerkmalvektorendpunkt zeigt.
Ein Maß der Grenzabweichung GA ergibt sich aus der
Abstandsfunktion H und dem Grenzwert S, der beim Lernvorgang
gewöhnlich zu 1 gesetzt ist, als:
GA = H - S, insbes. GA = H - 1.
Die gezeigte Vorrichtung ist in gleicher Weise für eine
mehrmalige Neuinstallation eines neuronalen Netzes mit einem
reduzierten Lernkollektiv geeignet. Dazu ist ein
Zwischenspeicher (ZS) vorgesehen, worin die verschiedenen
Prüfergebnisse der Prüfvorrichtung (PV) zugeordnet zu den
Lernmerkmalvektoren jeweils gespeichert werden, so daß sie
demgemäß gesteuert in einer anderen Reihenfolge bei einem
erneuten Lernvorgang in ein neu zu erstellendes neuronales
Netz eingespeist werden.
Die Lernmerkmalvektoren können unmittelbar aus
Eingangssignalen durch eine Aufbereitung in den
Eingangsneuronen gewonnen werden, wobei eine bekannte
zugehörige Klassenbezeichnung (Ki) über eine
Eingabevorrichtung (E) in die Lernsteuervorrichtung (LV)
eingegeben wird, in der zugehörig zu dieser
Klassenbezeichnung ein Ausgangsneuron installiert ist oder
wird, falls diese bisher unbekannt war. Das
Lernmerkmalvektorkollektiv kann jedoch vorteilhaft in einem
Vorlauf oder Erstlauf mittels der Eingangsneuronen erstellt
und in dem Zwischenspeicher gespeichert werden, wo es
zusammen mit den zugehörigen Prüfergebnissen zur späteren
Verwendung abgelegt und zu einer späteren Wiederverwendung
oder einer Ausgabe auf der Ausgabevorrichtung (AV)
bereitsteht.
Wenn bekannt ist, daß das neuronale Netz mit großer
Wahrscheinlichkeit alle bekannten Klassen repräsentiert, so
läßt es sich ohne die Lernsteuervorrichtung (LV) verwenden.
Um jedoch auch Merkmalvektoren klassifizieren zu können, die
nicht innerhalb der Hyperellipsoide liegen oder in
Überschneidungsbereichen von Hyperellipsoiden mehrerer
Klassen liegen, ist es vorteilhaft vorgesehen, die
Prüfvorrichtung (PV) an den Ausgangsneuronen zu belassen und
von der Steuervorrichtung die Parameter, vorzugsweise die
Schwellwerte (Sj), vorübergehend in den betroffenen
Zwischenneuronen innerhalb vorgegebener Grenzen variieren zu
lassen, bis sich jeweils eine und zwar eine eindeutige
Klassifizierung ergibt. Als ein Maß für das Zutreffen einer
Klasse nach einer solchen Variation wird dabei zweckmäßig
der zu der Klassifizierung führende Schwellwert (Sj) mit der
Klassenangabe auf eine Ausgabevorrichtung (AV) ausgegeben.
Die Indizes i sind jeweils für die einzelnen Merkmale eines
Merkmalvektors benutzt und die Indizes j sind für die Größen
des jeweils laufenden Lern- oder Merkmalvektors und der
zugehörigen laufenden Größen verwandt.
Fig. 5 zeigt einen Motorprüfstand für Elektromotoren (EM),
der eine Klassifikation von Prüflingen mittels eines
neuronalen Netzes (NN) vornimmt, und der auch zum Erzeugen
der erforderlichen Lernmerkmalmuster geeignet ist, wenn er
mit den jeweils bekannten fehlerhaften Prüflingen betrieben
wird.
An dem Prüfling-Elektromotor (EM) ist hinter einer
Einschaltvorrichtung (ES) der Netzspannung (UN) ein
Spannungsmesser (VM) und ein Strommesser (CM) angeordnet,
deren Meßsignale (UM, IM) den Eingängen (EG1, EG2) des
neuronalen Netzes (NN) zugeführt sind. Weiterhin ist an der
Welle des Motors (EM) ein Drehzahlmesser (TM) angeordnet,
dessen Meßsignal (DM) ebenfalls einem Signaleingang des
neuronalen Netzes (NN) zugeführt ist. Daneben ist es einem
ersten Vergleicher (VS1) zugeführt, dessen Ausgangssignal
bei Erreichen einer ersten vorgegebenen Drehzahl (DV1) durch
die das Ende des Hochlaufens bestimmt ist, die
Einschaltvorrichtung (ES) trennt. In einem zweiten
Vergleicher (VS2) wird die gemessene Drehzahl dann darauf
überwacht, wann sie einen zweiten Grenzwert (DV2)
unterschreitet, wodurch das Ende der Meßwerterfassung durch
eine vorzeitige Abschaltung einer ansonsten eine maximale
Erfassungsdauer bestimmenden Zeitsteuervorrichtung (TC) dem
neuronalen Netz signalisiert wird. Darüberhinaus ist
mindestens ein Schwingungs- und/oder Körperschallmesser (SA)
an dem Prüfling angeordnet, dessen Meßsignal (SM) ebenfalls
dem neuronalen Netz zugeführt ist.
Die Aufbereitung der eingehenden Wechselgrößen (IM, UM, SM)
erfolgt jeweils mit einer Gleichrichtung (GL), und sämtliche
Meßsignale werden einer Filterung (KF) unterworfen.
Letztlich erfolgt eine Multiplexerfassung gemäß Fig. 2 und
eine Stützwertbestimmung sowie eine Normierung der
Stützwerte, die jeweils zu einem Multiplexerdurchlauf
gewonnen wurden. Die Erfassungsdauer der Meßsignale ist
durch das Einschaltsignal (St′) bestimmt, das von der
Einschaltvorrichtung (ES) aus einem Startsignal (St)
abgeleitet ist, und durch die Vergleicherausgangssignale von
den Drehzahlvergleichern (VS1, VS2) zum anderen bestimmt. Es
hat sich gezeigt, daß bei Verwendung handelsüblicher
Komponenten die analogen Meßsignale (IM, UM, SM, DM) über
einen Meßmultiplexer (MM) an einen Analog-Digital-Umsetzer
(ADU) geleitet werden können und mit dem Steuertakt (TT) des
Meßmultiplexers (MM) die verschiedenen digitalisierten
Meßwerte den verschiedenen Eingängen (EG1, EG2 . . .) des
neuronalen Netzes mit Untertakten (TT1, TT2, TT3, TT4)
zugeführt werden können.
Insbesondere ist der neuartige Motorprüfstand durch
folgendes charakterisiert:
- - Anregung des Motors durch eine festgelegte Eingangsfunktion (eingeschaltete Gleich- bzw. Wechselspannung);
- - Betrieb des Motors im Leerlauf (ohne Belastungseinrichtung wie Drehmomentbremse, Lüfterrad oder Schwungscheiben);
- - Datenerfassung von Strom-, Spannungs-, Drehzahl- und Körperschallsignal über Shunt, Spannungsteiler, optischen Aufnehmer und Körperschallaufnehmer oder Laservibrometer;
- - Einschaltdauer bis zur Überschreitung der Betriebsdrehzahl bei intakten Motoren (Enddrehzahl bei Nebenschlußmotoren);
- - Meßwertaufnahme auch während des Auslaufvorgangs zur Erfassung der mechanischen Verluste;
- - Einhüllendenbestimmung bei Wechselgrößen (Strom, Körperschall, Spannung);
- - Verwendung von Kurzzeitmittelwerten zur Unterdrückung von Störungen;
- - Direkte Verwendung der gegebenenfalls gemittelten Stützwerte für die Fehlererkennungsklassifizierung;
- - Einsatz eines neuronalen Netzes zur Fehlererkennungsklassifizierung;
- - Lernverfahren zur Wissenspeicherung von Lernmerkmalvektoren von fehlerhaften Objekten.
Darüber hinaus ist es vorgesehen, als Nebenprodukt aus den
gewonnenen Meßwerten eine Ermittlung von Motorkennlinien
durch eine Bestimmung stationärer Arbeitspunkte des Motors
vorzunehmen und solche Arbeitspunkte auszusuchen, die durch
Drehzahl, Drehmoment, Strom, Wellenleistung, Wirkungsgrad
beschrieben werden. Die Ausgabe dieser gewonnenen Arbeitspunkte
ist z. B. graphisch als Funktion des Stromes, des Drehmoments
oder der Drehzahl aus der Ausgabevorrichtung (AV)
vorgesehen.
Die Arbeitsweise der Motorprüfvorrichtung geschieht in
folgender Weise. Der Rotor des zu untersuchenden Motors wird
durch die eingeschaltete Spannung beschleunigt. Durch die
drehende Bewegung werden Körperschallschwingungen angeregt.
Die Drehzahl und der Strom haben entsprechend des jeweiligen
Motorzustandes einen typischen Verlauf. Diese leicht zu
messenden Größen werden von dem Analog-Digital-Umsetzer (ADU)
in rechnergeeignete Zahlenfolgen umgesetzt. Zur Messung von
Wechselsignalen ist die Bestimmung der Einhüllenden der
Zeitsignale vorgesehen. Diese Aufbereitung kann sowohl durch
eine analoge Signalverarbeitung als auch durch Anwendung
digitaler Algorithmen in einem Rechner erfolgen. Zur
Datenreduktion und Störsignalunterdrückung werden
vorteilhaft Kurzzeitmittelwerte verwendet, die ebenso wie
die eventuell verwendete Einhüllendenbestimmung analog oder
digital realisierbar ist. Diese Stützwerte charakterisieren
den zustandstypischen Zeitverlauf von Stromverlauf und
Körperschwingungen des zu untersuchenden Motores. Sie werden
direkt als die Eingangsgrößen des Klassifikators verwendet.
Insbesondere zur Klassifizierung wird das neuronale Netz
eingesetzt, das durch das spezielle Lernverfahren anhand
weniger Mustermotoren mit den entsprechenden
Produktionsfehlern trainiert wird. Neu zu lernende Muster
können aufgrund des Lernverfahrens unmittelbar in den
Wissensspeicher (die Wissenbasis) mit dem
Lernmerkmalkollektiv aufgenommen werden. Der Lernalgorithmus
erweitert unter Umständen die Anzahl der Neuronen in der
verdeckten Schicht und der Ausgangsschicht des neuronalen Netzes.
Dadurch sind alle bekannten Zustände wiederzuerkennen. Aus
den aufgenommenen Stützwerten der Zeitfunktionen werden
stationäre Arbeitspunkte des zu untersuchenden Motors
ermittelt. Diese sind durch Drehzahl, Drehmoment,
Wellenleistung, Wirkungsgrad und Strom beschreibbar. Eine
graphische Darstellung der Arbeitspunkte liefert die
gewohnten Motorkennlinien als Beleg.
In der automatisierten Fertigung werden Elektromotoren in
großen Stückzahlen hergestellt. Zur Sicherung der Qualität
ist ein möglichst vollständiger Test aller Motoren
notwendig. Die bekannten Verfahren benötigen einige Sekunden
zur Datenaufnahme und sind entweder in der
Aussagesicherheit, was den Fehlertyp betrifft, zu ungenau
oder sie erfordern einen hohen rechentechnischen Aufwand.
Die bekannten nicht modellgestützten Motorprüfvorrichtungen
benötigen eine Belastungseinrichtung des Motors (Bremse).
Mit Hilfe einer elektronischen Steuerung werden festgelegte
Betriebszustände mit einer geregelten Einrichtung angefahren,
und die freien Größen werden dann gemessen. Dieses sind
unter anderem der Strom, der bei einer vorgegebenen
Belastung aufgenommen wird. Anhand der gemessenen Größen
erfolgt eine qualitätsbezogene Aussage durch einen Vergleich
der Meßgrößen mit bekannten Referenzgrößen.
Weiterhin läßt sich der Motor bekanntlich durch ein zu
erstellendes mathematisches Modell beschreiben, dessen
Modellgrößen mit großem Aufwand geschätzt werden müssen.
Hierzu sind Eingangssignale notwendig, die die Beobachtung
und damit die Schätzung aller benötigten Kenngrößen
ermöglichen. Die Schätzung erfolgt mit Hilfe von
Approximationsroutinen. Die Modellparameter stehen in enger
Beziehung zu den realen physikalischen Größen und sind damit
zur detaillierten Fehlererkennung geeignet. Die Fehler an den
Prüflingen werden mit Hilfe von Grenzwertüberschreitungen
oder durch einen Vergleich mit bekannten Referenzwerten
anhand des Modelles ermittelt.
Das neuartige Verfahren verwendet dagegen als Anregungsgröße
z. B. die eingeschaltete Betriebsspannung des Motors, wie sie
bei jedem Betrieb vorkommt. Aufgrund der Konstruktion des
Motors entstehen dadurch typische zeitliche Verläufe des
Stromes und Körperschwingungen. Diese Signale werden
meßtechnisch erfaßt und durch Stützwerte oder Abtastwerte
repräsentiert, mit denen das Analysenetzwerk das
zustandstypische Verhalten wiedererkennt und somit den
Zustand angibt. Treten unbekannte untypische Zustände auf,
so läßt sich das verwendete neuronale Netz nach einem
Lernschritt jeweils entsprechend erweitern, so daß ein
erneutes Auftreten dieses Zustandes wiedererkannt wird.
Gleichzeitig werden als Nebenprodukt aus den Meßgrößen
stationäre Motorbetriebszustände ermittelt, die als
Motorkennlinien angezeigt werden können.
Diese Erfindung ermöglicht wegen der schnellen
Datenaufnahme, die nur über den Hochlauf und Auslauf des
Motors erfolgt, und wegen des geringen numerischen Aufwandes
zur Kennwertermittlung und der Bewertung mit einem
neuronalen Netz einen vollständigen Test aller produzierten
Motoren.
Die Prüfvorrichtung ist unter Anpassung auf eine geeignete
Meßwertaufnahme ohne weiteres für andere Objekte einsetzbar.
Das neuronale Netz läßt sich auch mit anderen
Abstandsfunktionen als der dargestellten realisieren, wobei
darauf zu achten ist, daß diese möglichst stetig fallende,
eindeutige Funktionen sein sollten. Bevorzugt sind
Exponential-, Glockenkurven- oder Potenzfunktionen, bei
denen im Mittelpunkt ein endlicher Wert vorhanden ist und in
einem bestimmten Abstand davon ein relativ steil abfallender
Bereich vorhanden ist.
Das Verfahren zur wiederholenden Erzeugung klassifizierender
Neuronen in einem Netz mit einem jeweils neu sortierten und
reduzierten Lernmerkmalkollektiv stellt eine
eigenständige Erfindung dar, die entsprechend angepaßt auch
für andere klassifizierende Neuronentypen mit anderen
Funktionsinhalten anwendbar ist.
Die Lernschritte für das Lernen einer Stichprobe sind hier
in einer Übersicht nochmals im einzelnen angegeben:
- Für den Merkmalvektor einer Klasse wird in der Lernphase
ein Streubereich in Form eines Hyperellipsoids im
mehrdimensionalen Merkmalraum festgelegt. In einem ersten
Schritt dazu werden alle Radien auf einen zu bestimmenden
Maximalwert festgelegt. Dadurch sind diese Anfangsradien für
alle Richtungen des Vektorraumes gleich groß, man hat eine
Hyperkugel im Merkmalraum.
- Anschließend werden alle folgenden Lernmerkmalvektoren
geprüft, ob sie innerhalb dieses so bestimmten
Streubereiches liegen und damit richtig zugeordnet werden.
Der Streubereich um das erste angelegte Muster kann als
Unterraumausschnitt der Musterklasse aufgefaßt werden.
- Liegt ein Merkmalvektor dieser Klasse außerhalb dieses
ersten Einflußbereiches, so wird ein zweiter
Unterraumausschnitt festgelegt und so weiter, bis alle
Merkmalvektoren einer Klasse gelernt sind.
- Für alle folgenden Klassen wird in derselben Weise
verfahren. Sind die Raumausschnitte der Klassen im
Merkmalraum disjunkt verteilt, so sind keine weiteren
Maßnahmen erforderlich.
- Obwohl die Raumausschnitte der Klassen im
Merkmalraum disjunkt verteilt sein können, kann es trotzdem
zu Kollisionen zwischen Einflußbereichen vom Merkmalvektoren
unterschiedlicher Klassen kommen. In diesem Fall werden die
entsprechenden Radien der betroffenen Unterraumausschnitte
so weit reduziert, bis kein Merkmalvektor einer Klasse mehr
im Einflußbereich einer falschen Klasse liegt. Dies bedeutet
auch, daß Überlappungsbereiche der Raumausschnitte
verschiedener Klassen im Merkmalraum existieren können, in
diesen liegt jedoch kein Merkmalvektor der Lernstichprobe.
- Zusätzlich ist ein minimaler Radiuswert vorgegeben, der
bei einer Radiusverringerung nicht unterschritten werden
darf. Im Grenzfall wird der Minimalwert angenommen.
- Liegt ein Merkmalvektor im Bereich eines falschen
Unterraumausschnitts, so wird nur ein Radius des definierten
Hyperellipsoids reduziert. Dabei handelt es sich um
diejenige Halbachse mit dem kleinsten Winkel zur
Verbindungslinie zwischen dem Unterraummittelpunktvektor und
dem falsch klassifizierten Merkmalvektor. Hatte das
Einflußgebiet noch die durch Initialisierungswerte
vorgegebene Hyperkugelform, so ergibt sich daraus jetzt das
zuvor allgemein definierte Hyperellipsoid.
- Eine andere Behandlung einer Kollision ist die Reduktion
aller Radien um den gleichen Faktor. Dieser wird so
berechnet, daß das vorher falsch klassifizierte Muster
außerhalb des Einflußbereiches der falschen Musterklasse
liegt. In diesem Fall bleibt die initialisierte
Hyperkugelform erhalten, auch hierbei wird der vorgegebene
Minimalwert, der für alle Richtungen gleich ist, beachtet.
- Liegt der Merkmalvektor einer Klasse innerhalb des
Bereiches einer anderen Klasse, wie es bei überlappenden
Clusterbereichen vorkommen kann, und können die Radien der
betroffenen Unterraumausschnitte nicht weiter reduziert
werden, da der vorgegebene Minimalradius erreicht ist, so
muß dieser innerhalb des Raumausschnittes einer anderen
Klasse liegende Einflußbereich gesondert gekennzeichnet
werden. Dies wird durch Einführung zweier verschiedener
Arten von Unterraumausschnitten erreicht. Ein Typ
symbolisiert dabei den Normalfall der nicht überlappenden
Bereiche von verschiedenen Klassen, der andere kennzeichnet
den Fall der Clusterdurchdringung oder -überlappung.
- Durch die Verringerung der Hyperellipsoid-Radien können
Muster, die zuvor der richtigen Klasse zugeordnet wurden,
aus den entsprechenden Einflußbereichen herausfallen. Für
diese Lernmerkmalvektoren müssen dann eigene
Unterraumausschnitte geschaffen werden. Aus diesem Grund
werden die vorstehenden Schritte solange wiederholt, bis
alle zu klassifizierenden Lernmerkmalvektoren den korrekten
Unterraumausschnitten zugeordnet sind und bei einem
Lerndurchlauf keine weitere Verringerung von Radien
stattfindet.
Der Lernvorgang ist damit abgeschlossen. Die Präsentation
der Muster kann in einer beliebigen Reihenfolge, also
klassenunabhängig stattfinden.
Ausgehend von einer bekannten Lernstichprobe, d. h. einem
Lernmerkmalkollektiv, und einer neuen, nachzulernenden
Teststichprobe, d. h. einem weiteren Lernmerkmalkollektiv,
ergibt sich ein für das selbstorganisierende
Klassifikationsnetzwerk gültiges Nachlernverfahren
folgendermaßen aus den Verfahrensschritten:
- Der Klassifikator wird mit der Lernstichprobe trainiert,
die Teststichprobe wird anschließend klassifiziert.
- Bei einer fehlerfreien Klassifikation der Teststichprobe
ist ein Nachlernen nicht notwendig. Ansonsten werden
diejenigen Testmuster, die nicht in den angelegten
Unterraumausschnitten liegen und somit nur durch eine
Abstandsentscheidung zugeordnet werden können, zur
Lernstichprobe hinzugefügt.
- Das Netz wird in den ungelernten Anfangszustand versetzt
und die neue Lernstichprobe gelernt; die Teststichprobe wird
dann klassifiziert.
- Existieren Testmuster außerhalb von gelernten
Unterraumausschnitten, so werden die betreffenden Muster zur
Lernstichprobe hinzugefügt und der vorige Schritt wird
wiederholt.
- Alle Muster sind jetzt eindeutig den zugehörigen
Unterraumausschnitten zugeordnet. Sind alle Muster richtig
klassifiziert, ist das Nachlernen beendet. Treten jedoch
Fehlklassifikationen auf, werden die entsprechenden Muster
zur aktuellen Lernstichprobe hinzugefügt, und die letzten
beiden Schritte werden wiederholt.
Die in der Beschreibung und in den Ansprüchen durchgehend
benutzten Begriffe des allgemeinen Fachsprachgebrauchs:
Lernmuster, Lernmerkmalvektor, Lernmerkmalkollektiv,
Lernvorrichtung und Lernphase, sind so richtig bezeichnet,
wenn diese als Teil der selbstlernenden Gesamtvorrichtung
gesehen werden.
Bei einer anderen Betrachtungsweise, in der das neuronale
Netz getrennt von der Lehrvorrichtung und dem
einzuspeisenden Lehrstoff gesehen wird, sind diese
vorstehenden Begriffe dementsprechend als Lehrmuster,
Lehrmerkmalvektor, Lehrmerkmalkollektiv, Lehrvorrichtung und
Lehrmerkmalvektor zu bezeichnen. Ein grundsätzlicher
Unterschied in der Gesamtanordnung ist damit nicht gegeben.
Claims (20)
1. Neuronales Netz bestehend aus untereinander netzartig
schichtweise hintereinandergeschalteten Neuronenschichten
(NSE, NSM, NSA), von denen einer Eingangsneuronenschicht
(NSE) über Eingänge (EG1, EG2) Eingangsmuster jeweils als
ein n-dimensionaler Merkmalvektor zuzuführen sind und deren
Eingangsneuronen (NE1-NE13) jeweils mit Eingängen von
Zwischenneuronen (NM1-NM4) einer Zwischenneuronenschicht
(NSM) verbunden sind, in denen jeweils mittels einer
parametrisierten Klassenfunktion (T) oder
Unterklassenfunktion (T′) eine Zugehörigkeit des jeweils
vorliegenden Merkmalvektors zu einer dem jeweiligen
Zwischenneuron (NM1-NM4) zugeordneten Klasse oder
Unterklasse zu ermitteln ist, die von den Zwischenneuronen
(NM1-NM4) an Ausgangsneuronen (NA1-NA3) einer
Ausgangsneuronenschicht (NSA) mitgeteilt ist, deren
Ausgangsgrößen einen Ausgangsvektor repräsentieren, wobei
das neuronale Netz an eine Lernsteuervorrichtung (LV) und
eine Prüfvorrichtung (PV) anschließbar ist und die
Ausgangssignale der Ausgangsneuronen (NA1-NA3) der
Prüfvorrichtung (PV) zugeführt sind, die, wenn bei
eingangsseitigem Anliegen eines Lernmerkmalvektors keine
Klassenzugehörigkeit vorliegt oder mehrere
Klassenzugehörigkeiten vorliegen, dieses der
Lernsteuervorrichtung (LV) signalisiert, welche abhängig von
diesen Prüfvorrichtungsausgangssignalen den Zwischenneuronen
(NM1-NM4) jeweils mindestens einen geänderten Parameter
(W, R, S) mindestens einer der Klassen- oder
Unterklassenfunktionen (T, T′) zuführt, welche jeweils die
Klassenzugehörigkeit beschreibt und durch eine
Abstandsfunktion bezüglich eines n-dimensionalen
Mittelpunktvektors (W) eines n-dimensional bezüglich seiner
Grenzen parametrisierten Raumausschnittes (U1; U2-U4)
bestimmt ist, wobei eine Grenzparametervariation derart
vorgenommen ist, daß alle von einer Vielzahl von jeweils
einer den Klassen zugeordneten Lernmerkmalvektoren in einen
der Raumausschnitte (U1; U2-U4), der nur dieser einen
Klasse zugeordnet ist, verweisen,
dadurch gekennzeichnet, daß die Grenzparametervariation,
wenn die Prüfvorrichtung (PV) keine Klassenzugehörigkeit
signalisiert, jeweils in demjenigen der Ausgangsneuronen
(NA1-NA3) erfolgt, das der Klasse des jeweiligen
Lernmerkmalvektors zugeordnet ist, und die
Grenzparametervariation, wenn die Prüfvorrichtung (PV)
mehrere Klassenzugehörigkeiten signalisiert, jeweils in
allen den Ausgangsneuronen (NA1-NA3) erfolgt, die eine
Klassenzugehörigkeit des jeweiligen Lernmerkmalvektors
signalisieren, und daß jeweils dann, wenn die
Grenzparametervariation eine eindeutige Verweisung auf einen
der Raumausschnitte (U1; U2-U4) der Klasse des jeweiligen
Lernmerkmalvektors nicht erbringt, eine Aufgliederung eines
dieser betreffenden Raumausschnitte (U2-U4) in
Unterraumausschnitte (U2; U3; U4) erfolgt, indem mindestens
jeweils ein weiteres diesen weiteren Unterraumausschnitt
(U3) repräsentierendes Zwischenneuron (NM3) mit durch den
Lernmerkmalvektor bestimmten Parametern (W′, R′, S′) einer
weiteren Unterklassenfunktion (T′) installiert und dem
Ausgangsneuron (NA2) dieser Klasse zugeordnet wird, so daß
letztlich von einer Gesamtheit von Lernmerkmalvektoren jeder
nur auf solche Raum- oder Unterraumausschnitte (U1; U2, U3,
U4) verweist, die nur einer einzigen zugehörigen Klasse oder
Unterklasse zugeordnet sind.
2. Neuronales Netz nach Anspruch 1, dadurch
gekennzeichnet, daß jeweils ein Ausgangsneuron (NA1-NA3)
einer der Klassen zugeordnet ist und alle diejenigen
Ausgänge der Zwischenneuronen (NM1-NM4), die jeweils
dieser Klasse zugeordnet sind, durch eine ODER-Verknüpfung
mit diesem Ausgangsneuron (NA1-NA3) verbunden sind.
3. Neuronales Netz nach Anspruch 1, dadurch
gekennzeichnet, daß die Abstandsfunktion eine stetig
fallende Funktion ist.
4. Neuronales Netz nach Anspruch 3, dadurch gekennzeich
net, daß die Abstandsfunktion eine Glockenfunktion, eine
Potenzfunktion oder eine Exponentialfunktion ist.
5. Neuronales Netz nach Anspruch 4, dadurch
gekennzeichnet, daß die Klassenfunktion (T) dadurch bestimmt
ist, daß die Abstandsfunktion eine Summe der quadrierten
Differenzen des Merkmalvektors (M) zum Mittelpunktvektor (W)
dividiert durch das Quadrat der Länge eines Radiusvektors
(R) ist, der vom Mittelpunktvektor (W) über den
Merkmalvektor (M) zur Grenze des Raumausschnittes (U1; U2-
U4) verläuft, und durch einen Vergleich des so gebildeten
Abstandsfunktionswertes mit einem jeweils festgelegten
Schwellwert (S) die Zugehörigkeit des Merkmalvektors (W) zu
dem Raumausschnitt (U1; U2-U4) als Klassenzugehörigkeit
bestimmt ist.
6. Neuronales Netz nach Anspruch 4, dadurch
gekennzeichnet, daß die Raumausschnitte (U1) und die
Unterraumausschnitte (U2, U3, U4) n-dimensionale
Hyperellipsoide darstellen.
7. Neuronales Netz nach Anspruch 6, dadurch
gekennzeichnet, daß die Raumausschnitte (U1) und die
Unterraumausschnitte (U2, U3, U4) n-dimensionale Kugeln
darstellen.
8. Neuronales Netz nach Anspruch 5, dadurch
gekennzeichnet, daß, wenn die Prüfvorrichtung (PV)
signalisiert, daß mehrere Klassenzugehörigkeiten oder keine
Klassenzugehörigkeit des Merkmalvektors vorliegt, der
Schwellwert (S), ausgehend von einem Wert 1, schrittweise
veränderbar ist, bis entweder eine und nur eine
Klassenzugehörigkeit vorliegt oder durch eine weitere
Prüfung in der Prüfvorrichtung (PV) festgestellt ist, daß
die mehreren betreffenden Abstandsfunktionswerte gleich
sind.
9. Neuronales Netz nach Anspruch 8, dadurch
gekennzeichnet, daß zu einer Klassenzugehörigkeit jeweils
der zugehörig gewählte Schwellwert (S) ausgebbar ist.
10. Neuronales Netz nach einem der vorstehenden Ansprüche,
dadurch gekennzeichnet, daß mindestens einer der Eingänge
(EG1, EG2) jeweils mit einer zeitlichen Signalfolge einer
bestimmten Dauer beaufschlagt ist und diese jeweils einer
Gruppe von Eingangsneuronen (NE1-NE13) zugeführt ist,
denen in jeder Gruppe, jeweils über die Dauer einer
Signalfolge verteilt, zeitlich gegeneinander versetzt
Zeitmultiplexsteuersignale zugeführt sind, mittels derer ein
jeweiliger Signalwert der Signalfolge in dem Eingangsneuron
(NE1-NE13) speicherbar ist, der am Ende der Dauer der
Signalfolge als ein Merkmal des Merkmalvektors abgebbar ist.
11. Neuronales Netz nach Anspruch 10, dadurch
gekennzeichnet, daß die Eingangssignale (EG1, EG2) einer
Normierung und/oder einer Mittelwertbildung oder einer
Einhüllendenbildung unterziehbar sind und die jeweils
gespeicherten Merkmale des Merkmalvektors Mittel- oder
Stützwerte der so gemittelten und/oder eingehüllten
Eingangssignale (EG1, EG2) sind.
12. Neuronales Netz nach Anspruch 11, dadurch
gekennzeichnet, daß für die Mittelwertbildung oder
Einhüllenbildung Vorrichtungen zur mehrfachen Abtastung und
Digitalisierung sowie Speicherung der Eingangssignale (EG1,
EG2) während einer Zeitmultiplexsteuersignaldauer und zur
entsprechenden anschließenden digitalen Verarbeitung der
gespeicherten Werte vorgesehen sind.
13. Neuronales Netz nach einem der vorstehenden Ansprüche,
dadurch gekennzeichnet, daß den Eingänge (EG1, EG2) jeweils
ein Strommeßsignal (IM), ein Spannungsmeßsignal (UM), ein
Drehzahlmeßsignal (DM) und ein Körperschallmeßsignal (SM)
für die Dauer eines Hochlaufens und/oder eines Auslaufens
eines Elektromotors (EM) zugeführt sind, von dem diese
genannten Meßsignale (IM, UM, SM, DM) abgenommen sind, und
daß Vorrichtungen vorgesehen sind, um diese Meßsignale
während der Hochlaufdauer im Zeitmultiplex zu erfassen,
deren Einhüllende für Wechselgrößen-Meßsignale (IM, UM, SM)
zu bilden und Kurzzeitmittelwerte für diese und das
Drehzahlmeßsignal (DM) zu bilden und aus den Einhüllenden
und Kurzzeitmittelwerten nach dem Hochlaufen Stützwerte zu
bestimmen, die jeweils den Merkmalvektor bilden, wobei die
Hochlaufdauer durch das Erreichen einer vorgegebenen
Enddrehzahl oder Betriebsdrehzahl oder durch den Ablauf
einer vorgegebenen Zeitspanne bestimmt ist.
14. Neuronales Netz nach Anspruch 13, dadurch
gekennzeichnet, daß die Lernmerkmalvektorern jeweils aus den
Meßsignalen (IM, UM, SM, DM) von mängelfreien und von
einfach oder mehrfach mängelbehafteten Elektromotoren (EM)
aller bekannten Mängelarten während einer Hochlaufdauer
erzeugt sind und diesen Lernmerkmalvektoren jeweils
entsprechende Mängelindizes als die Ausgangsgrößen
zugeordnet sind.
15. Neuronales Netz nach einem der Ansprüche 13 oder 14,
dadurch gekennzeichnet, daß in der Zuleitung des
Elektromotors (EM) eine steuerbare Einschaltvorrichtung (ES)
angeordnet ist und von der Zuleitung die Strom- und
Spannungsmeßsignale (IM, UM) abgenommen und der
Eingangsneuronenschicht (NSE)) zugeführt sind und an der
Motorwelle ein Tachometer (TM) angeordnet ist, dessen
Drehzahlmeßsignal (DM) der Eingangsneuronenschicht (NSE)
zugeführt ist, und daß an dem Motorkörper ein Körperschall-
und/oder Schwingungsaufnehmer (SA) angeordnet ist, dessen
(deren) Schwingungsmeßsignal(e) (SM) der
Eingangsneuronenschicht (NSE) zugeführt ist (sind) und das
Drehzahlmeßsignal (DM) einem Vergleicher (VS1) zugeführt
ist, durch den bei der Überschreitung eines ersten
vorgegebenen Drehzahlvergleichssignales (DV1) die
Einschaltvorrichtung (ES) ausschaltbar und danach bei
Unterschreitung eines zweiten vorgegebenen
Drehzahlvergleichssignales (DV2) ein Signal für das Ende der
Meßwerterfassungsdauer an die Neuronen abgebbar ist.
16. Neuronales Netz nach Anspruch 15, dadurch
gekennzeichnet, daß aus mindestens einem der
Wechselgrößen-Meßsignale (IM, UM, SM) ein Einhüllendensignal
durch eine Signalgleichrichtung (GL) gewinnbar ist, das der
Eingangsneuronenschicht (NSE) zuführbar ist.
17. Neuronales Netz nach Anspruch 15 oder 16, dadurch
gekennzeichnet, daß mindestens eines der Meßsignale (IM, UM,
SM, DM) oder deren Einhüllendensignal über ein
Kurzzeitfilter (KF) der Eingangsneuronenschicht (NSE)
zugeführt ist.
18. Neuronales Netz nach einem der Ansprüche 15 bis 17,
dadurch gekennzeichnet, daß bei einem Mehrphasenelektromotor
von sämtlichen Phasenleitern Strom- und/oder
Spannungsmeßsignale abgenommen und der
Eingangsneuronenschicht (NSE) zugeführt sind.
19. Verfahren zur Minimierung eines neuronalen Netzes und Lernmerkmalvektorkollektivs nach
einem der Ansprüche 1 bis 18, dadurch gekennzeichnet, daß
jeweils nach einem Umsetzen eines ersten vollständigen
Kollektivs von Lernmerkmalvektoren in diese vollständig und
eindeutig klassifizierend parametrisiert und ggf.
aufgegliederte Zwischenneuronen (NM1-NM4) die
Mittelpunktvektoren der Raum- oder Unterraumausschnitte (U1,
U2, U3, U4) als ein neues, reduziertes
Lernmerkmalvektorkollektiv in einem neuen Lernvorgang in ein
neues neuronales Netz umgesetzt werden, dann die übrigen
Lernmerkmalvektoren des ersten Kollektivs in dem neuen
neuronalen Netz klassifiziert werden und dabei diejenigen
Lernmerkmalvektoren ermittelt werden, die keine eindeutige
Klassenzugehörigkeit zeigen, die dann ergänzend dem
reduzierten Lernmerkmalvektorkollektiv hinzugefügt werden
und mit denen weitere Lernschritte durchgeführt werden, bis
diese vollständig und eindeutig klassifizierende
parametrisierte und ggf. aufgegliederte Zwischenneuronen
(NM1-NM4) erbracht haben.
20. Verfahren zur Minimierung eines neuronalen Netzes und
Lernmerkmalvektorkollektivs nach Anspruch 19, dadurch
gekennzeichnet, daß jeweils die Mittelpunktvektoren der
Raum- oder Unterraumausschnitte (U1, U2, U3, U4), die mit
dem reduzierten und ergänzten Lernmerkmalvektorkollektiv
erzeugt wurden, sooft iterativ als jeweils neues reduziertes
Lernmerkmalvektorkollektiv zur Parametrisierung von
Zwischenneuronen (NM1-NM4) eingesetzt werden, bis damit
das erste, vollständige Kollektiv eindeutig klassifizierbar
ist.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE4124501A DE4124501C2 (de) | 1991-07-24 | 1991-07-24 | Neuronales Netz mit automatischer Installation von Zwischenneuronen |
DE4209296A DE4209296A1 (de) | 1991-07-24 | 1992-03-21 | Wort- und wortkettenerkennungssystem auf der basis eines neuronalen netzes mit automatischer zellbildung und -komprimierung sowie nachlernverfahren |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE4124501A DE4124501C2 (de) | 1991-07-24 | 1991-07-24 | Neuronales Netz mit automatischer Installation von Zwischenneuronen |
DE4209296A DE4209296A1 (de) | 1991-07-24 | 1992-03-21 | Wort- und wortkettenerkennungssystem auf der basis eines neuronalen netzes mit automatischer zellbildung und -komprimierung sowie nachlernverfahren |
Publications (2)
Publication Number | Publication Date |
---|---|
DE4124501A1 DE4124501A1 (de) | 1993-01-28 |
DE4124501C2 true DE4124501C2 (de) | 1994-09-15 |
Family
ID=25905785
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE4124501A Expired - Fee Related DE4124501C2 (de) | 1991-07-24 | 1991-07-24 | Neuronales Netz mit automatischer Installation von Zwischenneuronen |
DE4209296A Withdrawn DE4209296A1 (de) | 1991-07-24 | 1992-03-21 | Wort- und wortkettenerkennungssystem auf der basis eines neuronalen netzes mit automatischer zellbildung und -komprimierung sowie nachlernverfahren |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE4209296A Withdrawn DE4209296A1 (de) | 1991-07-24 | 1992-03-21 | Wort- und wortkettenerkennungssystem auf der basis eines neuronalen netzes mit automatischer zellbildung und -komprimierung sowie nachlernverfahren |
Country Status (1)
Country | Link |
---|---|
DE (2) | DE4124501C2 (de) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19509186A1 (de) * | 1995-03-14 | 1996-09-19 | Siemens Ag | Einrichtung zum Entwurf eines neuronalen Netzes sowie neuronales Netz |
DE19634923A1 (de) * | 1996-08-29 | 1998-03-05 | Bruce Boye Cecil O Dr | Linearisierung nichtlinearer technischer Prozesse mit Hilfe eines Abweichungsbeobachter |
DE19720468A1 (de) * | 1997-05-15 | 1998-11-19 | Siemens Ag | Verfahren für ein neuronales Netzwerk zur Darstellung von Abbildungsfunktionen |
DE19808197C2 (de) * | 1998-02-27 | 2001-08-09 | Mtu Aero Engines Gmbh | System und Verfahren zur Diagnose von Triebwerkszuständen |
DE102006000916B3 (de) * | 2005-01-07 | 2007-08-30 | General Motors Corp., Detroit | Vorrichtung und Verfahren zum bewerten eines dynamischen Systems |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10161224A1 (de) * | 2001-12-13 | 2003-06-26 | Deutsche Telekom Ag | Konvertierung einer Pulsfolge |
CN107024331B (zh) * | 2017-03-31 | 2019-07-12 | 中车工业研究院有限公司 | 一种神经网络对列车电机振动在线检测方法 |
DE102018201710A1 (de) * | 2018-02-05 | 2019-08-08 | Robert Bosch Gmbh | Verfahren und Vorrichtung zum Überprüfen einer Funktion eines neuronalen Netzes |
RU2699396C1 (ru) * | 2018-11-19 | 2019-09-05 | Общество С Ограниченной Ответственностью "Инвек" | Нейронная сеть для интерпретирования предложений на естественном языке |
CN109580230A (zh) * | 2018-12-11 | 2019-04-05 | 中国航空工业集团公司西安航空计算技术研究所 | 一种基于bp神经网络的发动机故障诊断方法及装置 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2231760B (en) * | 1989-05-18 | 1994-06-01 | Apple Computer | Neural network for color selection |
US5167006A (en) * | 1989-12-29 | 1992-11-24 | Ricoh Company, Ltd. | Neuron unit, neural network and signal processing method |
-
1991
- 1991-07-24 DE DE4124501A patent/DE4124501C2/de not_active Expired - Fee Related
-
1992
- 1992-03-21 DE DE4209296A patent/DE4209296A1/de not_active Withdrawn
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19509186A1 (de) * | 1995-03-14 | 1996-09-19 | Siemens Ag | Einrichtung zum Entwurf eines neuronalen Netzes sowie neuronales Netz |
DE19634923A1 (de) * | 1996-08-29 | 1998-03-05 | Bruce Boye Cecil O Dr | Linearisierung nichtlinearer technischer Prozesse mit Hilfe eines Abweichungsbeobachter |
DE19634923C2 (de) * | 1996-08-29 | 1999-08-19 | Bruce Boye | Linearisierung nichtlinearer technischer Prozesse mit Hilfe eines Abweichungsbeobachter |
DE19720468A1 (de) * | 1997-05-15 | 1998-11-19 | Siemens Ag | Verfahren für ein neuronales Netzwerk zur Darstellung von Abbildungsfunktionen |
DE19808197C2 (de) * | 1998-02-27 | 2001-08-09 | Mtu Aero Engines Gmbh | System und Verfahren zur Diagnose von Triebwerkszuständen |
DE102006000916B3 (de) * | 2005-01-07 | 2007-08-30 | General Motors Corp., Detroit | Vorrichtung und Verfahren zum bewerten eines dynamischen Systems |
DE102006000916B8 (de) * | 2005-01-07 | 2007-12-13 | General Motors Corp., Detroit | Vorrichtung und Verfahren zum bewerten eines dynamischen Systems |
Also Published As
Publication number | Publication date |
---|---|
DE4124501A1 (de) | 1993-01-28 |
DE4209296A1 (de) | 1993-09-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102006008482B4 (de) | Eingangsvektorbildungsverfahren bei neuronalen Netzwerken zur Auto-Identifikation einer partiellen Entladungsquelle | |
DE69732569T2 (de) | System zur erkennung von störungen von elektromotoren | |
EP2064522B1 (de) | Verfahren und vorrichtung zur überwachung des rauschens eines sensors | |
DE102016102328A1 (de) | System zur Diagnose von Anomalien, Diagnoseverfahren und -vorrichtung | |
DE4124501C2 (de) | Neuronales Netz mit automatischer Installation von Zwischenneuronen | |
DE112018003079T5 (de) | Drehmaschinensystem-Diagnosevorrichtung, Leistungsumsetzvorrichtung, Drehmaschinensystem und Drehmaschinensystem-Diagnoseverfahren | |
DE112020006911T5 (de) | Datenerzeugungsvorrichtung, System für maschinelles Lernen und Bearbeitungszustands-Schätzvorrichtung | |
DE102017122315A1 (de) | Management-system, management-vorrichtung, verfahren zur erfassung eines spindel-fehlers unter verwendung der management-vorrichtung und computerprogramm | |
DE102016007404A1 (de) | Servosteuervorrichtung mit Funktion zur Online-Optimierung der Regelungsverstärkung unter Verwendung einer Bewertungsfunktion | |
DE102019217613A1 (de) | Verfahren zur diagnose eines motorzustands und diagnostisches modellierungsverfahren dafür | |
WO2022033794A1 (de) | Batteriemanagementsystem zum klassifizieren eines batteriemoduls | |
EP3081914B1 (de) | Überwachung einer maschine mit einer rotierenden maschinenkomponente | |
DE69818380T2 (de) | Verfahren zur Überwachung eines mit Beschleunigungssensoren versehenen Planetengetriebes in einem Fortbewegungsmittel, insbesondere in einem Helikopter | |
DE102006000916B3 (de) | Vorrichtung und Verfahren zum bewerten eines dynamischen Systems | |
DE19636074C2 (de) | Lernfähiges Bildverarbeitungssystem zur Klassierung | |
EP4012426A1 (de) | Verfahren zur korrektur eines zeitabhängigen messsignals einer motor-getriebeeinheit sowie verfahren zur erkennung von verschleiss und/oder einer beschädigung derselben mittels dieses korrekturverfahrens | |
DE69019960T2 (de) | Vorrichtung und verfahren zur selbsttätigen rechnung der güte einer elektrischen wicklung. | |
EP3460727A1 (de) | Verfahren zur untersuchung eines funktionsverhaltens eines technischen systems und auswerteeinheit | |
EP4022408A1 (de) | Verfahren und vorrichtung zum analysieren eines ablaufprozesses | |
DE102019107363B4 (de) | Verfahren und System zum Bestimmen einer Eigenschaft einer Maschine, insbesondere einer Werkzeugmaschine, ohne messtechnisches Erfassen der Eigenschaft sowie Verfahren zum Bestimmen eines voraussichtlichen Qualitätszustands eines mit einer Maschine gefertigten Bauteils | |
DE102020213960A1 (de) | Abnormalitäts-Diagnoseverfahren und Abnormalitäts-Diagnosevorrichtung für Vorschubachsenvorrichtung | |
EP1043590A1 (de) | Verfahren und Vorrichtung zur Messung Drehzahl eines Gleichstrom-Kommutatormotors | |
DE102020207449A1 (de) | Verfahren, Computerprogramm und Vorrichtung zum Verarbeiten von Signalen | |
DE4039647A1 (de) | Messwertverarbeitungssystem fuer eine walzwerksanlage | |
EP3664282A1 (de) | Kompensieren von rastmomenten von synchronmotoren |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OP8 | Request for examination as to paragraph 44 patent law | ||
AG | Has addition no. |
Ref country code: DE Ref document number: 4209296 Format of ref document f/p: P |
|
AG | Has addition no. |
Ref country code: DE Ref document number: 4209296 Format of ref document f/p: P |
|
D2 | Grant after examination | ||
8364 | No opposition during term of opposition | ||
8339 | Ceased/non-payment of the annual fee |