DE4124501C2 - Neuronales Netz mit automatischer Installation von Zwischenneuronen - Google Patents

Neuronales Netz mit automatischer Installation von Zwischenneuronen

Info

Publication number
DE4124501C2
DE4124501C2 DE4124501A DE4124501A DE4124501C2 DE 4124501 C2 DE4124501 C2 DE 4124501C2 DE 4124501 A DE4124501 A DE 4124501A DE 4124501 A DE4124501 A DE 4124501A DE 4124501 C2 DE4124501 C2 DE 4124501C2
Authority
DE
Germany
Prior art keywords
neural network
class
learning
feature vector
neurons
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE4124501A
Other languages
English (en)
Other versions
DE4124501A1 (de
Inventor
Dieter Prof Dr Ing Barschdorff
Achim Dipl Ing Bothe
Gerd Dipl Ing Woestenkuehler
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to DE4124501A priority Critical patent/DE4124501C2/de
Priority to DE4209296A priority patent/DE4209296A1/de
Publication of DE4124501A1 publication Critical patent/DE4124501A1/de
Application granted granted Critical
Publication of DE4124501C2 publication Critical patent/DE4124501C2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/16Speech classification or search using artificial neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Neurology (AREA)
  • Feedback Control In General (AREA)
  • Image Analysis (AREA)

Description

Die Erfindung betrifft ein neuronales Netz, bestehend aus untereinander netzartig schichtweise hintereinandergeschalteten Neuronenschichten, von denen einer Eingangsneuronenschicht über Eingänge Eingangsmuster jeweils als ein n-dimensionaler Merkmalvektor zuzuführen sind und deren Eingangsneuronen jeweils mit Eingängen von Zwischenneuronen einer Zwischenneuronenschicht verbunden sind, in denen jeweils mittels einer parametrisierten Klassenfunktion oder Unterklassenfunktion eine Zugehörigkeit des jeweils vorliegenden Merkmalvektors zu einer dem jeweiligen Zwischenneuron zugeordneten Klasse oder Unterklasse zu ermitteln ist, die von den Zwischenneuronen an Ausgangsneuronen einer Ausgangsneuronenschicht mitgeteilt werden, deren Ausgangsgrößen einen Ausgangsvektor repräsentieren, wobei das neuronale Netz an eine Lernsteuervorrichtung und eine Prüfvorrichtung anschließbar ist und die Ausgangssignale der Ausgangsneuronen der Prüfvorrichtung zugeführt sind, die, wenn bei eingangsseitigem Anliegen eines Lernmerkmalvektors keine Klassenzugehörigkeit vorliegt oder mehrere Klassenzugehörigkeiten vorliegen, dieses der Lernsteuervorrichtung signalisiert, welche abhängig von diesen Prüfvorrichtungsausgangssignalen den Zwischenneuronen jeweils mindestens einen geänderten Parameter mindestens einer der Klassen- oder Unterklassenfunktion zuführt, welche jeweils die Klassenzugehörigkeit beschreibt und durch eine Abstandsfunktion bezüglich eines n-dimensionalen Mittelpunktvektors eines n-dimensional bezüglich seiner Grenzen parametrisierten Raumausschnittes bestimmt ist, wobei eine Grenzparametervariation derart vorgenommen ist, daß alle von einer Vielzahl von jeweils einer der Klassen zugeordneten Lernmerkmalvektoren in einen der Raumausschnitte, der nur dieser einen Klasse zugeordnet ist, verweisen.
Ein derartiges neuronales Netz mit einer Prüf- und Lernsteuervorrichtung ist aus DE 40 42 139 A1 bekannt. Diese Vorrichtung dient der Klassifizierung von Merkmalvektoren, die einer Eingangsneuronenschicht zugeführt werden, deren Signale über parametrisierte Funktionen an den Klassen zugeordneten Ausgangsneuronen zugeführt werden. In einem Lernvorgang werden Merkmalvektoren einer bekannten Klasse dem neuronalen Netz zugeführt und abhängig von den in der Prüfvorrichtung ermittelten Abweichungen der Signale an den Ausgangsneuronen von der bekannten Klasse werden die Parameter durch die Lernsteuervorrichtung in einer Zwischenneuronenschicht geändert, so daß eine möglichst eindeutige Klassifizierung eines Lernmerkmalkollektivs erfolgt. Das gesamte neuronale Netz besteht aus einer festen Anzahl von Neuronen, die problemabhängig ausreichend zu bemessen ist, also i. a. überdimensioniert ist.
Die vorbekannten Neuronen basieren auf Gewichtsfunktionen, deren Gewichte die veränderbaren Parameter sind. Diese gewichtsparametrisierten Linearfunktionen zeigen bei komplexen Problemen ein ungünstiges Abgrenzungsverhalten, wodurch sie einen hohen Aufwand an Neuronen benötigen und in jedem Lernschritt, bei dem ein weiterer Lernmerkmalvektor zugeführt wird, sind sämtliche Ausgangsneuronen betroffen, deren Werte zur Korrektur an sämtlichen gewichteten Eingängen der Zwischenneuronen genutzt werden. Dies führt zu einem hohen Rechenaufwand und zu langen Verarbeitungszeiten sowie einer schlechten Konvergenz des Lernverhaltens.
Weiterhin ist aus der DE 40 15 791 A1 ein neuronales Netz mit mindestens einer Neuronenzwischenschicht bekannt, deren Neuronen in Lernschritten durch Gewichtseinstellungen zuerst zwischen den Zwischenneuronen und den Ausgangsneuronen und jeweils anschließend zwischen den Zwischenneuronen und den Eingangsneuronen auf jeweils ein eindeutiges Erkennen eines weiteren Lernmerkmalvektors eingestellt werden. Dies erfordert komplexe Ausgangsneuronen mit gewichtsgesteuerten Eingängen und es verkompliziert den Einstellungsprozeß wegen der noch größeren Vielfalt der Einstellmöglichkeiten.
Ein neuronales Netz ist bekanntlich eine Anordnung von mathematischen Funktionsgruppen i.a. mehrerer verschiedener Arten, die in sogenannten gedachten Neuronenschichten angeordnet sind, wobei die Ausgänge der Neuronen der einen Schicht jeweils mit den Eingängen der Neuronen der nachgeordneten Schicht netzartig verknüpft sind. Den Eingängen werden sogenannte Eingangsmuster, die jeweils aus einer Menge von Merkmalgrößen bestehen, parallel zugeführt, und von den Ausgängen der Ausgangsschicht werden den Eingangsmustern zugehörige Ausgangsmuster, die jeweils aus einer Menge von Ausgangsgrößen bestehen, abgegeben. Die mathematischen Verknüpfungsfunktionen der Neuronen werden in einer sogenannten Lernphase schrittweise derart parametrisiert, daß zu einer vorgegebenen Anzahl bekannter Lernmuster bekannte zugehörige Ausgangsmuster entstehen. Die Verknüpfungsfunktionen bestehen gewöhnlich aus einer Bildung von Summen aus den parametrisch gewichteten Mustermerkmalen und aus einer parametrisierten Schwellwertbewertung. Diese Art der neuronalen Netze haben den Nachteil, daß zum Lernen eines Musterkollektivs abhängig von dessen Größe sowie der Unterscheidbarkeit der darin enthaltenen Muster oft eine sehr große Anzahl von Neuronen, die nicht vorherbestimmbar ist, zu einer eindeutigen Klassifizierung der Muster in die Ausgangsmuster erforderlich ist und deshalb ein Überschuß an Neuronen von vornherein anzusetzen ist, wodurch eine erhöhte Arbeitszeit und ein vielschrittiger iterativer Lernprozeß notwendig ist, wenn ein Musterkollektiv neu erlernt werden soll oder neue Muster hinzugelernt werden sollen.
Es ist Aufgabe der Erfindung, ein neuronales Netz zu offenbaren, das eine Verringerung der Verarbeitungszeit eines Musters und eine Verringerung von Lernschrittzahlen erbringt und eine eindeutige Abbildung eines jeweils erlernten Musterkollektivs mit einem minimalen Neuronenaufwand aufweist, sowie Verfahren zur Minimierung des neuronalen Netzes und eines Lernmerkmalvektorkollektivs.
Diese Aufgabe wird gelöst durch ein neuronales Netz mit den Merkmalen des Patentanspruchs 1 und ein Minimierungs­ verfahren gemäß Patentanspruch 19. Inbesondere ist die Lösung dadurch gegeben, daß die Grenzparametervariation, wenn die Prüfvorrichtung keine Klassenzugehörigkeit signalisiert, jeweils in demjenigen der Ausgangsneuronen erfolgt, das der Klasse des jeweiligen Lernmerkmalvektors zugeordnet ist, und die Grenzparametervariation, wenn die Prüfvorrichtung mehrere Klassenzugehörigkeiten signalisiert, jeweils in allen den Ausgangsneuronen erfolgt, die eine Klassenzugehörigkeit des jeweiligen Lernmerkmalvektors signalisieren, und daß jeweils dann, wenn die Grenzparametervariation eine eindeutige Verweisung auf einen der Raumausschnitte der Klasse des jeweiligen Lernmerkmalvektors nicht erbringt, eine Aufgliederung eines dieser betreffenden Raumausschnitte in Unterraumausschnitte erfolgt, indem mindestens jeweils ein weiteres diesen weiteren Unterraumausschnitt repräsentierendes Zwischenneuron mit durch den Lernmerkmalvektor bestimmten Parametern einer weiteren Unterklassenfunktion installiert und dem Ausgangsneuron dieser Klasse zugeordnet wird, so daß letztlich von einer Gesamtheit von Lernmerkmalvektoren jeder nur auf solche Raum- oder Unterraumausschnitte verweist, die nur einer einzigen zugehörigen Klasse oder Unterklasse zugeordnet sind.
Vorteilhafte Ausgestaltungen sind in den Unteransprüchen angegeben.
Die einzelnen Ausgangssignale des neuronalen Netzes sind also Binärsignale, die jeweils eine Klassenzugehörigkeit anzeigen. Die Abstandsfunktion ist vorteilhaft stetig fallend. Sie kann beispielsweise eine Glockenfunktion, eine Potenzfunktion oder eine Exponentialfunktion sein.
Als besonders günstig hat sich eine quadratische Abstandsfunktion des Differenzvektors zwischen dem Merkmalvektor und dem Mittelpunktvektor ergeben, der ins Verhältnis zum Quadrat der Länge eines Radiusvektors gesetzt wird, der die Grenze des betreffenden Raumausschnittes angibt, wenn ein unterer Schwellwert des Abstandsfunktionswertes festgelegt ist; somit stellen die Raumausschnitte n-dimensionale Hyperellipsoide dar, die im Sonderfall n-dimensionale Kugeln sind, wenn die Achsen isometrisch sind.
Tritt bei dem Einsatz des aufgrund eines Lernvorganges mit einem Kollektiv von Lernmerkmalvektoren ausgebildeten neuronalen Netz zur Klassifizierung unbekannter Merkmalvektoren eine mehrdeutige oder keine Klassenzugehörigkeit auf, was jeweils in einer Nachverarbeitung der Ausgangswerte abgeprüft wird, so wird zweckmäßig der Schwellwert in Inkrementen innerhalb vorgegebener Grenzen nach und nach erhöht bzw. erniedrigt, bis eine eindeutige Klassenzuordnung vorliegt. Der danach ausgegebene Schwellwert zeigt dem Benutzer den Grad der Eindeutigkeit der Zuordnung qualitativ an.
Eine vorteilhafte neuartige Ausgestaltung des neuronalen Netzes besteht darin, daß die Eingangsneuronen eine Aufbereitung von Eingangssignalen derart vornehmen, daß zeitliche Signalfolgen parallelisiert und dann als ein Eingangsvektor genutzt werden. Hierzu wird z. B. der Verlauf mindestens eines Meßsignales über einen vorgegebenen Zeitraum, der z. B. einer Funktionsperiode oder einem Funktionsabschnitt einer Vorrichtung, der die zu verarbeitenden Meßdaten entnommen worden sind, entspricht, in kurzen zeitlichen Abständen, also im Zeitmultiplex, abgetastet und zwischengespeichert. Das Meßsignal wird vorteilhaft vor oder nach der Abtastung und Speicherung glättend verarbeitet, was durch die Bildung einer Einhüllenden von Wechselgrößensignalen und/oder durch eine Kurzzeitmittelung über mehrere Abtastungen erfolgt. Dadurch ist es möglich, mit relativ wenigen Stützwerten Merkmalvektoren zu bilden, die eine hochwertige Klassifikation erbringen. Die Stützwerte werden vorteilhaft in einer vorgegebenen Anzahl über den Zeitraum der sich ergebenden Dauer des Funktionsabschnittes gleichverteilt gebildet.
Die Meßwertaufbereitung läßt sich i.a., wenn es sich nicht um eine sehr schnelle Echtzeitverarbeitung handelt, mittels eines Programmes vornehmen, wenn die Abtastwerte vorab gespeichert wurden.
Bei der Neuerstellung eines neuronalen Netzes wird jeweils nach der Zuführung eines Lernmerkmalvektors einer bereits erlernten Klasse ausgangsseitig von der nachgeschalteten Prüfvorrichtung ermittelt, ob eine richtige und eine eindeutige Klassifizierung desselben vorliegt und, falls dies nicht der Fall ist, wird iterativ eine inkrementale Änderung mindestens eines der Merkmalraumparameter in vorgegebenen Grenzen vorgenommen und, falls dies bei Erreichen der vorgegebenen Grenze noch nicht zu einer eindeutigen richtigen Klassifizierung führt, wird ein weiteres Zwischenneuron eingerichtet, mit Parametern versorgt und mit dem der Klasse des Lernmerkmalvektors zugeordneten Ausgangsneuron verbunden.
Ist ein abgeschlossenes Lernmerkmalkollektiv erlernt, so kann das neuronale Netz unabhängig von der Lernvorrichtung betrieben werden. Die Struktur des neuronalen Netzes und sein Inhalt sind u. a. durch die Reihenfolge der Zuführung der Lernmerkmalvektoren eines Kollektivs bestimmt, da von ihr abhängig mehr oder weniger Unterklassen entstehen, denen die Zwischenneuronen entsprechen. Es hat sich in praktischen Versuchen gezeigt, daß das neuronale Netz i.a. dadurch zu vereinfachen ist, daß nach dem Erlernen eines vollständigen Kollektivs, das in beliebiger Reihenfolge zugeführt werden kann, ein Unterkollektiv aus den Mittelpunktvektoren der Unterklassen gebildet wird und aus diesen ein neuronales Netz neu erstellt wird, mit dem dann die übrigen Lernmerkmalvektoren nur klassifiziert werden, wonach nur die dabei nicht eindeutig und nicht richtig klassifizierten Lernmerkmalvektoren jeweils in einem folgenden Lernschritt zugeführt werden. Diese beiden Schritte der Klassifizierung und des Nachlernens der nicht eindeutig und nicht richtig klassifizierten Lernmerkmalvektoren führt letztlich, u. U. nach mehrmaliger Iteration der Neuerstellung des neuronalen Netzes mit dem reduzierten und gemäß dem Verfahren um die notwendigen Lernmerkmalvektoren ergänzten Kollektiv, zu einem vereinfachten aber vollständig klassifizierenden neuronalen Netz und einem, z. B. für ein späteres Lernen von Obermengen, verfügbaren verkürzten aber ausreichenden Lernmerkmalvektorkollektiv.
Eine vorteilhafte Anwendung findet das neuartige neuronale Netz in Prüfeinrichtungen, wobei die über eine Funktionsperiode von einem Prüfobjekt gewonnenen Meßsignale dem neuronalen Netz zu einer Güteklassifikation des Prüflings zugeführt werden. Bei der Einrichtung einer solchen Vorrichtung ist es nicht mehr erforderlich, die einzelnen Fehlerarten eines Produktes in ihren Auswirkungen auf die Meßwertverläufe zu analysieren und zu kennen, wie das bei menschlichen Experten oder analytisch arbeitenden bekannten Vorrichtungen der Fall ist; sondern es genügt, die Meßwerte von guten Musterobjekten und den verschiedenen Arten der fehlerbehafteten Musterobjekten über einen charakteristischen Funktionsabschnitt zu erfassen und in einer Lernphase unter Zuordnung zu der Fehlerart, die den Klassenindex bildet, daraus ein neuronales Netz zu generieren. Darüberhinaus lassen sich die vorbeschriebenen vorteilhaften Ausgestaltungen auf das neuronale Netz und das so gewonnene Lernmerkmalvektorkollektiv anwenden. Das Klassifizierungsvermögen des neuronalen Netzes läßt sich auch sehr leicht bei Änderungen des Produktes oder bei Auftreten neuer Fehlerarten ergänzen und erweitern, indem die Meßwerte von dem geänderten oder fehlerhaften Objekt als weiterer Lernmerkmalvektor erfaßt und gespeichert werden.
Eine vorteilhafte Anwendung findet das erfindungsgemäße neuronale Netz in einem Elektromotoren-Güteprüfstand, wodurch es gelingt, mit einem einfachen Computer und nur unter Anwendung der hier dargelegten Mittel und ohne Hinzufügung von speziellem Fachwissen über die Auswirkung einzelner Fehlerarten auf die Meßdaten, eine volle Funktionsfähigkeit der Klassifiziereinrichtung zu erbringen, indem sämtliche bekannten, d. h. denkbaren, Fehlerarten an den Motoren erkannt und angezeigt werden.
Vorteilhafte Ausgestaltungen der Vorrichtung und der Verfahrensschritte sind anhand der Fig. 1 bis 5 dargestellt.
Fig. 1 zeigt ein Schema des neuronalen Netzes mit Lernvorrichtung;
Fig. 2 zeigt einen Ausschnitt des neuronalen Netzes für eine Zeitmulitplex-Signalaufbereitung;
Fig. 3 zeigt ein Schema einer Klassifikatorbildung;
Fig. 4 zeigt ein Schema einer Klassifikatorvariation;
Fig. 5 zeigt einen Motorenprüfstand mit einem neuronalen Netz.
Fig. 1 zeigt ein Schema eines neuronalen Netzes mit drei Stufen. Die Eingangsschicht (NSE) von Neuronen besteht aus Aufbereitungsschaltungen (NE1x-NE13), die eine Umsetzung von an den Eingängen (EG1, EG2) eingehenden Größen in Merkmale des Merkmalvektors vornehmen. Sämtliche Merkmale der für die Verarbeitungszeit zwischengespeicherten Merkmalvektoren sind allen Zwischenneuronen (NM1x-NM4) der verdeckten Neuronenschicht (NSM) zugeführt, in denen die Klassifizierung nach Klassen bis in die Unterklassen erfolgt. Die binären Ausgangssignale der Zwischenneuronen sind der Ausgangsneuronenschicht (NSA) zugeführt, die jeweils aus Ausgangssignalspeichern mit einer Oder-Schaltung für die Unterklassenzusammenfassung zu einer Klasse bestehen, die die Ausgangsneuronen (NA1x-NA3) bilden.
Fig. 2 zeigt einen Ausschnitt in einer besonderen Ausgestaltung der Eingangsneuronenschicht, indem in einer Anzahl der Neuronen (NE1-NE3) das jeweils anliegende Eingangssignal (EG1) mit einer zeitlichen Folge von Takten (T1-T3) eines durch eine gesteuerte Uhr (CL) geschalteten Zeitmultiplexers (TM) im Zwischenspeicher (S1-S3) eingespeichert wird. Von diesen werden die gespeicherten Werte zu einem Zeitpunkt (TX) nach dem Ende der Zeitmultiplexabtastung über Und-Funktionen (U1-U3) an die Zwischenneuronen als die auszuwertenden Merkmale abgegeben.
Das Eingangssignal (EG1) ist zweckmäßig digital umgesetzt, und die Multiplexerfunktion läßt sich hardwaremäßig oder durch eine Programmsteuerung erfüllen. Die Funktion der Anordnung nach Fig. 2 läßt sich auch in einfacher Weise durch ein Schieberegister erbringen, dem eingangsseitig das digital umgesetzte Signal zugeführt ist und das mit dem Zeittakt als Schiebetakt beaufschlagt ist und dessen Inhalt mit dem Schlußtakt parallel weitergegeben wird. Die Anzahl der Samplingtakte (T1-T3) und die Dauer eines Mulitplexerdurchlaufes ist den jeweiligen Erfordernissen anzupassen, so daß die charakteristischen Verläufe des Eingangssignales mit ausreichender Auflösung erfaßt werden. Vor einer Digitalisierung oder auch nach dieser wird das Eingangssignal vorteilhaft geglättet, wobei der Glättungszeitraum allenfalls einige Abtasttakte lang ist, um die charakteristischen Merkmale zu erhalten und andererseits hochfrequente Störeinflüsse zu beseitigen.
Sind die Eingangssignale Wechselgrößen, so hat es sich als vorteilhaft und ausreichend erwiesen, von diesen die Einhüllende zu bilden und nur den so entstehenden wesentlich niederfrequenteren Größenverlauf zur Merkmalbildung auszuwerten. Auch die Einhüllendenbildung kann vor oder nach einer Digitalisierung des Eingangssignales (EG1) erfolgen. Wird eine Einhüllende programmäßig ausgewertet, so läßt sich statt einer Zeitmultiplexabfrage in einem festen Raster auch eine vorgegebene Anzahl von Stützwerten der Einhüllenden über einen charakteristischen Signalabschnitt bilden und als Merkmale speichern, wobei die Grenzen des auszuwertenden Signalabschnittes von dem Eintreten bestimmter Kriterien des Meßsignales, z. B. von einem Nulldurchgang, einem Extremwertdurchlauf oder einem Erreichen von Grenzwerten, abgeleitet werden, also zeitlich nicht vorherzubestimmen sind.
Sofern mehrere Eingangssignalfolgen in dem neuronalen Netz ausgewertet werden sollen, können mehrere Anordnungen gemäß Fig. 2 parallel angeordnet sein und auch zeitlich gestaffelt mit jeweils einem kleinen Zeitversatz programmäßig betrieben sein, wobei die Zeitraster der verschiedenen Signalaufbereitungen auch unterschiedlich sein können.
Die Funktion der Zwischenneuronen läßt sich anhand der Fig. 3 veranschaulichen, wo in einer Merkmalebene (M1, M2) kreisförmige Schnitte mit einem Raumausschnitt (U1) einer ersten Klasse und mit drei Unterraumausschnitt (U2, U3, U4) einer zweiten Klasse dargestellt sind und die Lage der jeweils gelernten Merkmalvektoren der beiden Klassen durch Dreiecke bzw. Quadrate eingezeichnet sind. Die gestrichelt umschlossenen Bereiche repräsentieren beispielsweise ideale Klassengrenzen, die überschneidungsfrei sind. Denen nähert sich bei einem Lernen weiterer Lernmerkmalvektoren die Unterraumausschnittgrenzziehung an, indem deren Radien verkürzt oder verlängert werden, die Mittelpunkte verlagert werden und erforderlichenfalls neue Unterraumausschnitte gebildet werden.
Weiterhin zeigt Fig. 4 einen elliptischen Schnitt eines Unterraumausschnitte (U) mit der Merkmalebene (M1, M2), bei dem die Radien (R1, R2), die sich in Richtung der Merkmalachsen erstrecken, den jeweiligen Erfordernissen angepaßt verschieden sind. Auf alle Dimensionen eines Merkmalvektors (M) bezogen, erhält dann der Merkmalraum die Form eines Hyperellipsoids.
Jeder Unterraumausschnitt ist somit durch die Gesamtheit der Koordinaten (Wi) des Mittelpunktes und die Gesamtheit der Radien (Ri) des Hyperellipsoids bestimmt.
Die Lage eines Merkmalvektors (M) mit den Merkmalen Mi ergibt sich dann aus einer Abstandsfunktion H, aus der sich dessen Unterklassenzugehörigkeit T durch eine Grenzwertzusatzbedingung mit einem Grenzwert S in folgender Weise ergibt:
Bei dem Erzeugen eines neuronalen Netzes werden auf der Grundlage der Eingangsneuronen in einer Lernsteuervorrichtung (LV) gemäß Fig. 1 von dieser gesteuert Lernmerkmalvektoren (ML) jeweils den Zwischenneuronen zur Klassifizierung zugeführt und die Ausgangssignale der Ausgangsneuronen von einer Prüfschaltung (PS) bewertet, die feststellt, ob eine und nur eine Klasse und ggf. die dem Lernmerkmalvektor (ML) zugehörige Klasse (KL) von dem neuronalen Netz ausgegeben wird. Tritt dabei eine neue Klasse auf, für die noch kein Zwischenneuron besteht, so wird hierfür ein neues installiert, indem zu dem Endpunkt des betrachteten Lernmerkmalvektors (ML) ein Hyperellipsoid durch einen Parametersatz Mi, Ri, S festgelegt und gespeichert wird. Ist die neue Klasse bereits im neuronalen Netz durch mindestens ein Zwischenneuron repräsentiert, erfolgt jedoch keine Klassifizierung oder eine Doppelklassifizierung des eingegebenen Lernmerkmalvektors (ML), so wird von der Lernsteuervorrichtung (LV) iterativ eine sukzessiv erweiternde Parametervariation der Neuronen der betreffenden nicht gefundenen Klassen in jeweils vorgegebenen Grenzen vorgenommen und, falls dies nicht erfolgreich war, eine Neuinstallation eines Zwischenneurons eines Unterraumausschnitts vorgenommen. Liegt andernfalls eine Falschklassifizierung des Lernmerkmalvektors vor, so nimmt die Lernsteuervorrichtung (LV) iterativ eine sukzessive Parametervariation zur Verengung des Hyperellipsoids in vorgegebenen Grenzen vor, und, falls dieses Vorgehen nicht erfolgreich war, wird von der Lernsteuervorrichtung (LV) eine Aufteilung eines betroffenen Neurons in Zwischenneuronen von Unterraumausschnitten vorgenommen, die engere Grenzen, also kürzere Radien und getrennte Mittelpunktkoordinaten aufweisen. Die jeweiligen Grenzvorgaben für die Variationen der Parameter, nämlich der Radien und der Mittelpunktkoordinaten, sind dadurch bestimmt, daß alle bisher gelernten Lernmerkmalvektoren in den beschriebenen Räumen enthalten sein müssen. Das jeweilige Maß des Abstandes eines mehreren oder keiner Klasse zugeordneten Lernmerkmalvektors zu dem Hyperellipsoid ist zweckmäßig zur Bildung des Inkrementes der Parameteränderung genutzt, so daß eine schnelle Konvergenz der Iteration erfolgt.
Bei einer Zuordnung eines Lernmerkmalvektors zu mehreren Klassen wird zweckmäßig zuerst an den Parametern des Neurons geändert, das die geringste Grenzabweichung des Hyperellipsoids zum Lernmerkmalvektorendpunkt zeigt.
Ein Maß der Grenzabweichung GA ergibt sich aus der Abstandsfunktion H und dem Grenzwert S, der beim Lernvorgang gewöhnlich zu 1 gesetzt ist, als:
GA = H - S, insbes. GA = H - 1.
Die gezeigte Vorrichtung ist in gleicher Weise für eine mehrmalige Neuinstallation eines neuronalen Netzes mit einem reduzierten Lernkollektiv geeignet. Dazu ist ein Zwischenspeicher (ZS) vorgesehen, worin die verschiedenen Prüfergebnisse der Prüfvorrichtung (PV) zugeordnet zu den Lernmerkmalvektoren jeweils gespeichert werden, so daß sie demgemäß gesteuert in einer anderen Reihenfolge bei einem erneuten Lernvorgang in ein neu zu erstellendes neuronales Netz eingespeist werden.
Die Lernmerkmalvektoren können unmittelbar aus Eingangssignalen durch eine Aufbereitung in den Eingangsneuronen gewonnen werden, wobei eine bekannte zugehörige Klassenbezeichnung (Ki) über eine Eingabevorrichtung (E) in die Lernsteuervorrichtung (LV) eingegeben wird, in der zugehörig zu dieser Klassenbezeichnung ein Ausgangsneuron installiert ist oder wird, falls diese bisher unbekannt war. Das Lernmerkmalvektorkollektiv kann jedoch vorteilhaft in einem Vorlauf oder Erstlauf mittels der Eingangsneuronen erstellt und in dem Zwischenspeicher gespeichert werden, wo es zusammen mit den zugehörigen Prüfergebnissen zur späteren Verwendung abgelegt und zu einer späteren Wiederverwendung oder einer Ausgabe auf der Ausgabevorrichtung (AV) bereitsteht.
Wenn bekannt ist, daß das neuronale Netz mit großer Wahrscheinlichkeit alle bekannten Klassen repräsentiert, so läßt es sich ohne die Lernsteuervorrichtung (LV) verwenden. Um jedoch auch Merkmalvektoren klassifizieren zu können, die nicht innerhalb der Hyperellipsoide liegen oder in Überschneidungsbereichen von Hyperellipsoiden mehrerer Klassen liegen, ist es vorteilhaft vorgesehen, die Prüfvorrichtung (PV) an den Ausgangsneuronen zu belassen und von der Steuervorrichtung die Parameter, vorzugsweise die Schwellwerte (Sj), vorübergehend in den betroffenen Zwischenneuronen innerhalb vorgegebener Grenzen variieren zu lassen, bis sich jeweils eine und zwar eine eindeutige Klassifizierung ergibt. Als ein Maß für das Zutreffen einer Klasse nach einer solchen Variation wird dabei zweckmäßig der zu der Klassifizierung führende Schwellwert (Sj) mit der Klassenangabe auf eine Ausgabevorrichtung (AV) ausgegeben. Die Indizes i sind jeweils für die einzelnen Merkmale eines Merkmalvektors benutzt und die Indizes j sind für die Größen des jeweils laufenden Lern- oder Merkmalvektors und der zugehörigen laufenden Größen verwandt.
Fig. 5 zeigt einen Motorprüfstand für Elektromotoren (EM), der eine Klassifikation von Prüflingen mittels eines neuronalen Netzes (NN) vornimmt, und der auch zum Erzeugen der erforderlichen Lernmerkmalmuster geeignet ist, wenn er mit den jeweils bekannten fehlerhaften Prüflingen betrieben wird.
An dem Prüfling-Elektromotor (EM) ist hinter einer Einschaltvorrichtung (ES) der Netzspannung (UN) ein Spannungsmesser (VM) und ein Strommesser (CM) angeordnet, deren Meßsignale (UM, IM) den Eingängen (EG1, EG2) des neuronalen Netzes (NN) zugeführt sind. Weiterhin ist an der Welle des Motors (EM) ein Drehzahlmesser (TM) angeordnet, dessen Meßsignal (DM) ebenfalls einem Signaleingang des neuronalen Netzes (NN) zugeführt ist. Daneben ist es einem ersten Vergleicher (VS1) zugeführt, dessen Ausgangssignal bei Erreichen einer ersten vorgegebenen Drehzahl (DV1) durch die das Ende des Hochlaufens bestimmt ist, die Einschaltvorrichtung (ES) trennt. In einem zweiten Vergleicher (VS2) wird die gemessene Drehzahl dann darauf überwacht, wann sie einen zweiten Grenzwert (DV2) unterschreitet, wodurch das Ende der Meßwerterfassung durch eine vorzeitige Abschaltung einer ansonsten eine maximale Erfassungsdauer bestimmenden Zeitsteuervorrichtung (TC) dem neuronalen Netz signalisiert wird. Darüberhinaus ist mindestens ein Schwingungs- und/oder Körperschallmesser (SA) an dem Prüfling angeordnet, dessen Meßsignal (SM) ebenfalls dem neuronalen Netz zugeführt ist.
Die Aufbereitung der eingehenden Wechselgrößen (IM, UM, SM) erfolgt jeweils mit einer Gleichrichtung (GL), und sämtliche Meßsignale werden einer Filterung (KF) unterworfen. Letztlich erfolgt eine Multiplexerfassung gemäß Fig. 2 und eine Stützwertbestimmung sowie eine Normierung der Stützwerte, die jeweils zu einem Multiplexerdurchlauf gewonnen wurden. Die Erfassungsdauer der Meßsignale ist durch das Einschaltsignal (St′) bestimmt, das von der Einschaltvorrichtung (ES) aus einem Startsignal (St) abgeleitet ist, und durch die Vergleicherausgangssignale von den Drehzahlvergleichern (VS1, VS2) zum anderen bestimmt. Es hat sich gezeigt, daß bei Verwendung handelsüblicher Komponenten die analogen Meßsignale (IM, UM, SM, DM) über einen Meßmultiplexer (MM) an einen Analog-Digital-Umsetzer (ADU) geleitet werden können und mit dem Steuertakt (TT) des Meßmultiplexers (MM) die verschiedenen digitalisierten Meßwerte den verschiedenen Eingängen (EG1, EG2 . . .) des neuronalen Netzes mit Untertakten (TT1, TT2, TT3, TT4) zugeführt werden können.
Insbesondere ist der neuartige Motorprüfstand durch folgendes charakterisiert:
  • - Anregung des Motors durch eine festgelegte Eingangsfunktion (eingeschaltete Gleich- bzw. Wechselspannung);
  • - Betrieb des Motors im Leerlauf (ohne Belastungseinrichtung wie Drehmomentbremse, Lüfterrad oder Schwungscheiben);
  • - Datenerfassung von Strom-, Spannungs-, Drehzahl- und Körperschallsignal über Shunt, Spannungsteiler, optischen Aufnehmer und Körperschallaufnehmer oder Laservibrometer;
  • - Einschaltdauer bis zur Überschreitung der Betriebsdrehzahl bei intakten Motoren (Enddrehzahl bei Nebenschlußmotoren);
  • - Meßwertaufnahme auch während des Auslaufvorgangs zur Erfassung der mechanischen Verluste;
  • - Einhüllendenbestimmung bei Wechselgrößen (Strom, Körperschall, Spannung);
  • - Verwendung von Kurzzeitmittelwerten zur Unterdrückung von Störungen;
  • - Direkte Verwendung der gegebenenfalls gemittelten Stützwerte für die Fehlererkennungsklassifizierung;
  • - Einsatz eines neuronalen Netzes zur Fehlererkennungsklassifizierung;
  • - Lernverfahren zur Wissenspeicherung von Lernmerkmalvektoren von fehlerhaften Objekten.
Darüber hinaus ist es vorgesehen, als Nebenprodukt aus den gewonnenen Meßwerten eine Ermittlung von Motorkennlinien durch eine Bestimmung stationärer Arbeitspunkte des Motors vorzunehmen und solche Arbeitspunkte auszusuchen, die durch Drehzahl, Drehmoment, Strom, Wellenleistung, Wirkungsgrad beschrieben werden. Die Ausgabe dieser gewonnenen Arbeitspunkte ist z. B. graphisch als Funktion des Stromes, des Drehmoments oder der Drehzahl aus der Ausgabevorrichtung (AV) vorgesehen.
Die Arbeitsweise der Motorprüfvorrichtung geschieht in folgender Weise. Der Rotor des zu untersuchenden Motors wird durch die eingeschaltete Spannung beschleunigt. Durch die drehende Bewegung werden Körperschallschwingungen angeregt. Die Drehzahl und der Strom haben entsprechend des jeweiligen Motorzustandes einen typischen Verlauf. Diese leicht zu messenden Größen werden von dem Analog-Digital-Umsetzer (ADU) in rechnergeeignete Zahlenfolgen umgesetzt. Zur Messung von Wechselsignalen ist die Bestimmung der Einhüllenden der Zeitsignale vorgesehen. Diese Aufbereitung kann sowohl durch eine analoge Signalverarbeitung als auch durch Anwendung digitaler Algorithmen in einem Rechner erfolgen. Zur Datenreduktion und Störsignalunterdrückung werden vorteilhaft Kurzzeitmittelwerte verwendet, die ebenso wie die eventuell verwendete Einhüllendenbestimmung analog oder digital realisierbar ist. Diese Stützwerte charakterisieren den zustandstypischen Zeitverlauf von Stromverlauf und Körperschwingungen des zu untersuchenden Motores. Sie werden direkt als die Eingangsgrößen des Klassifikators verwendet. Insbesondere zur Klassifizierung wird das neuronale Netz eingesetzt, das durch das spezielle Lernverfahren anhand weniger Mustermotoren mit den entsprechenden Produktionsfehlern trainiert wird. Neu zu lernende Muster können aufgrund des Lernverfahrens unmittelbar in den Wissensspeicher (die Wissenbasis) mit dem Lernmerkmalkollektiv aufgenommen werden. Der Lernalgorithmus erweitert unter Umständen die Anzahl der Neuronen in der verdeckten Schicht und der Ausgangsschicht des neuronalen Netzes. Dadurch sind alle bekannten Zustände wiederzuerkennen. Aus den aufgenommenen Stützwerten der Zeitfunktionen werden stationäre Arbeitspunkte des zu untersuchenden Motors ermittelt. Diese sind durch Drehzahl, Drehmoment, Wellenleistung, Wirkungsgrad und Strom beschreibbar. Eine graphische Darstellung der Arbeitspunkte liefert die gewohnten Motorkennlinien als Beleg.
In der automatisierten Fertigung werden Elektromotoren in großen Stückzahlen hergestellt. Zur Sicherung der Qualität ist ein möglichst vollständiger Test aller Motoren notwendig. Die bekannten Verfahren benötigen einige Sekunden zur Datenaufnahme und sind entweder in der Aussagesicherheit, was den Fehlertyp betrifft, zu ungenau oder sie erfordern einen hohen rechentechnischen Aufwand.
Die bekannten nicht modellgestützten Motorprüfvorrichtungen benötigen eine Belastungseinrichtung des Motors (Bremse). Mit Hilfe einer elektronischen Steuerung werden festgelegte Betriebszustände mit einer geregelten Einrichtung angefahren, und die freien Größen werden dann gemessen. Dieses sind unter anderem der Strom, der bei einer vorgegebenen Belastung aufgenommen wird. Anhand der gemessenen Größen erfolgt eine qualitätsbezogene Aussage durch einen Vergleich der Meßgrößen mit bekannten Referenzgrößen.
Weiterhin läßt sich der Motor bekanntlich durch ein zu erstellendes mathematisches Modell beschreiben, dessen Modellgrößen mit großem Aufwand geschätzt werden müssen. Hierzu sind Eingangssignale notwendig, die die Beobachtung und damit die Schätzung aller benötigten Kenngrößen ermöglichen. Die Schätzung erfolgt mit Hilfe von Approximationsroutinen. Die Modellparameter stehen in enger Beziehung zu den realen physikalischen Größen und sind damit zur detaillierten Fehlererkennung geeignet. Die Fehler an den Prüflingen werden mit Hilfe von Grenzwertüberschreitungen oder durch einen Vergleich mit bekannten Referenzwerten anhand des Modelles ermittelt.
Das neuartige Verfahren verwendet dagegen als Anregungsgröße z. B. die eingeschaltete Betriebsspannung des Motors, wie sie bei jedem Betrieb vorkommt. Aufgrund der Konstruktion des Motors entstehen dadurch typische zeitliche Verläufe des Stromes und Körperschwingungen. Diese Signale werden meßtechnisch erfaßt und durch Stützwerte oder Abtastwerte repräsentiert, mit denen das Analysenetzwerk das zustandstypische Verhalten wiedererkennt und somit den Zustand angibt. Treten unbekannte untypische Zustände auf, so läßt sich das verwendete neuronale Netz nach einem Lernschritt jeweils entsprechend erweitern, so daß ein erneutes Auftreten dieses Zustandes wiedererkannt wird. Gleichzeitig werden als Nebenprodukt aus den Meßgrößen stationäre Motorbetriebszustände ermittelt, die als Motorkennlinien angezeigt werden können.
Diese Erfindung ermöglicht wegen der schnellen Datenaufnahme, die nur über den Hochlauf und Auslauf des Motors erfolgt, und wegen des geringen numerischen Aufwandes zur Kennwertermittlung und der Bewertung mit einem neuronalen Netz einen vollständigen Test aller produzierten Motoren.
Die Prüfvorrichtung ist unter Anpassung auf eine geeignete Meßwertaufnahme ohne weiteres für andere Objekte einsetzbar.
Das neuronale Netz läßt sich auch mit anderen Abstandsfunktionen als der dargestellten realisieren, wobei darauf zu achten ist, daß diese möglichst stetig fallende, eindeutige Funktionen sein sollten. Bevorzugt sind Exponential-, Glockenkurven- oder Potenzfunktionen, bei denen im Mittelpunkt ein endlicher Wert vorhanden ist und in einem bestimmten Abstand davon ein relativ steil abfallender Bereich vorhanden ist.
Das Verfahren zur wiederholenden Erzeugung klassifizierender Neuronen in einem Netz mit einem jeweils neu sortierten und reduzierten Lernmerkmalkollektiv stellt eine eigenständige Erfindung dar, die entsprechend angepaßt auch für andere klassifizierende Neuronentypen mit anderen Funktionsinhalten anwendbar ist.
Die Lernschritte für das Lernen einer Stichprobe sind hier in einer Übersicht nochmals im einzelnen angegeben:
- Für den Merkmalvektor einer Klasse wird in der Lernphase ein Streubereich in Form eines Hyperellipsoids im mehrdimensionalen Merkmalraum festgelegt. In einem ersten Schritt dazu werden alle Radien auf einen zu bestimmenden Maximalwert festgelegt. Dadurch sind diese Anfangsradien für alle Richtungen des Vektorraumes gleich groß, man hat eine Hyperkugel im Merkmalraum.
- Anschließend werden alle folgenden Lernmerkmalvektoren geprüft, ob sie innerhalb dieses so bestimmten Streubereiches liegen und damit richtig zugeordnet werden. Der Streubereich um das erste angelegte Muster kann als Unterraumausschnitt der Musterklasse aufgefaßt werden.
- Liegt ein Merkmalvektor dieser Klasse außerhalb dieses ersten Einflußbereiches, so wird ein zweiter Unterraumausschnitt festgelegt und so weiter, bis alle Merkmalvektoren einer Klasse gelernt sind.
- Für alle folgenden Klassen wird in derselben Weise verfahren. Sind die Raumausschnitte der Klassen im Merkmalraum disjunkt verteilt, so sind keine weiteren Maßnahmen erforderlich.
- Obwohl die Raumausschnitte der Klassen im Merkmalraum disjunkt verteilt sein können, kann es trotzdem zu Kollisionen zwischen Einflußbereichen vom Merkmalvektoren unterschiedlicher Klassen kommen. In diesem Fall werden die entsprechenden Radien der betroffenen Unterraumausschnitte so weit reduziert, bis kein Merkmalvektor einer Klasse mehr im Einflußbereich einer falschen Klasse liegt. Dies bedeutet auch, daß Überlappungsbereiche der Raumausschnitte verschiedener Klassen im Merkmalraum existieren können, in diesen liegt jedoch kein Merkmalvektor der Lernstichprobe.
- Zusätzlich ist ein minimaler Radiuswert vorgegeben, der bei einer Radiusverringerung nicht unterschritten werden darf. Im Grenzfall wird der Minimalwert angenommen.
- Liegt ein Merkmalvektor im Bereich eines falschen Unterraumausschnitts, so wird nur ein Radius des definierten Hyperellipsoids reduziert. Dabei handelt es sich um diejenige Halbachse mit dem kleinsten Winkel zur Verbindungslinie zwischen dem Unterraummittelpunktvektor und dem falsch klassifizierten Merkmalvektor. Hatte das Einflußgebiet noch die durch Initialisierungswerte vorgegebene Hyperkugelform, so ergibt sich daraus jetzt das zuvor allgemein definierte Hyperellipsoid.
- Eine andere Behandlung einer Kollision ist die Reduktion aller Radien um den gleichen Faktor. Dieser wird so berechnet, daß das vorher falsch klassifizierte Muster außerhalb des Einflußbereiches der falschen Musterklasse liegt. In diesem Fall bleibt die initialisierte Hyperkugelform erhalten, auch hierbei wird der vorgegebene Minimalwert, der für alle Richtungen gleich ist, beachtet.
- Liegt der Merkmalvektor einer Klasse innerhalb des Bereiches einer anderen Klasse, wie es bei überlappenden Clusterbereichen vorkommen kann, und können die Radien der betroffenen Unterraumausschnitte nicht weiter reduziert werden, da der vorgegebene Minimalradius erreicht ist, so muß dieser innerhalb des Raumausschnittes einer anderen Klasse liegende Einflußbereich gesondert gekennzeichnet werden. Dies wird durch Einführung zweier verschiedener Arten von Unterraumausschnitten erreicht. Ein Typ symbolisiert dabei den Normalfall der nicht überlappenden Bereiche von verschiedenen Klassen, der andere kennzeichnet den Fall der Clusterdurchdringung oder -überlappung.
- Durch die Verringerung der Hyperellipsoid-Radien können Muster, die zuvor der richtigen Klasse zugeordnet wurden, aus den entsprechenden Einflußbereichen herausfallen. Für diese Lernmerkmalvektoren müssen dann eigene Unterraumausschnitte geschaffen werden. Aus diesem Grund werden die vorstehenden Schritte solange wiederholt, bis alle zu klassifizierenden Lernmerkmalvektoren den korrekten Unterraumausschnitten zugeordnet sind und bei einem Lerndurchlauf keine weitere Verringerung von Radien stattfindet.
Der Lernvorgang ist damit abgeschlossen. Die Präsentation der Muster kann in einer beliebigen Reihenfolge, also klassenunabhängig stattfinden.
Ausgehend von einer bekannten Lernstichprobe, d. h. einem Lernmerkmalkollektiv, und einer neuen, nachzulernenden Teststichprobe, d. h. einem weiteren Lernmerkmalkollektiv, ergibt sich ein für das selbstorganisierende Klassifikationsnetzwerk gültiges Nachlernverfahren folgendermaßen aus den Verfahrensschritten:
- Der Klassifikator wird mit der Lernstichprobe trainiert, die Teststichprobe wird anschließend klassifiziert.
- Bei einer fehlerfreien Klassifikation der Teststichprobe ist ein Nachlernen nicht notwendig. Ansonsten werden diejenigen Testmuster, die nicht in den angelegten Unterraumausschnitten liegen und somit nur durch eine Abstandsentscheidung zugeordnet werden können, zur Lernstichprobe hinzugefügt.
- Das Netz wird in den ungelernten Anfangszustand versetzt und die neue Lernstichprobe gelernt; die Teststichprobe wird dann klassifiziert.
- Existieren Testmuster außerhalb von gelernten Unterraumausschnitten, so werden die betreffenden Muster zur Lernstichprobe hinzugefügt und der vorige Schritt wird wiederholt.
- Alle Muster sind jetzt eindeutig den zugehörigen Unterraumausschnitten zugeordnet. Sind alle Muster richtig klassifiziert, ist das Nachlernen beendet. Treten jedoch Fehlklassifikationen auf, werden die entsprechenden Muster zur aktuellen Lernstichprobe hinzugefügt, und die letzten beiden Schritte werden wiederholt.
Die in der Beschreibung und in den Ansprüchen durchgehend benutzten Begriffe des allgemeinen Fachsprachgebrauchs: Lernmuster, Lernmerkmalvektor, Lernmerkmalkollektiv, Lernvorrichtung und Lernphase, sind so richtig bezeichnet, wenn diese als Teil der selbstlernenden Gesamtvorrichtung gesehen werden.
Bei einer anderen Betrachtungsweise, in der das neuronale Netz getrennt von der Lehrvorrichtung und dem einzuspeisenden Lehrstoff gesehen wird, sind diese vorstehenden Begriffe dementsprechend als Lehrmuster, Lehrmerkmalvektor, Lehrmerkmalkollektiv, Lehrvorrichtung und Lehrmerkmalvektor zu bezeichnen. Ein grundsätzlicher Unterschied in der Gesamtanordnung ist damit nicht gegeben.

Claims (20)

1. Neuronales Netz bestehend aus untereinander netzartig schichtweise hintereinandergeschalteten Neuronenschichten (NSE, NSM, NSA), von denen einer Eingangsneuronenschicht (NSE) über Eingänge (EG1, EG2) Eingangsmuster jeweils als ein n-dimensionaler Merkmalvektor zuzuführen sind und deren Eingangsneuronen (NE1-NE13) jeweils mit Eingängen von Zwischenneuronen (NM1-NM4) einer Zwischenneuronenschicht (NSM) verbunden sind, in denen jeweils mittels einer parametrisierten Klassenfunktion (T) oder Unterklassenfunktion (T′) eine Zugehörigkeit des jeweils vorliegenden Merkmalvektors zu einer dem jeweiligen Zwischenneuron (NM1-NM4) zugeordneten Klasse oder Unterklasse zu ermitteln ist, die von den Zwischenneuronen (NM1-NM4) an Ausgangsneuronen (NA1-NA3) einer Ausgangsneuronenschicht (NSA) mitgeteilt ist, deren Ausgangsgrößen einen Ausgangsvektor repräsentieren, wobei das neuronale Netz an eine Lernsteuervorrichtung (LV) und eine Prüfvorrichtung (PV) anschließbar ist und die Ausgangssignale der Ausgangsneuronen (NA1-NA3) der Prüfvorrichtung (PV) zugeführt sind, die, wenn bei eingangsseitigem Anliegen eines Lernmerkmalvektors keine Klassenzugehörigkeit vorliegt oder mehrere Klassenzugehörigkeiten vorliegen, dieses der Lernsteuervorrichtung (LV) signalisiert, welche abhängig von diesen Prüfvorrichtungsausgangssignalen den Zwischenneuronen (NM1-NM4) jeweils mindestens einen geänderten Parameter (W, R, S) mindestens einer der Klassen- oder Unterklassenfunktionen (T, T′) zuführt, welche jeweils die Klassenzugehörigkeit beschreibt und durch eine Abstandsfunktion bezüglich eines n-dimensionalen Mittelpunktvektors (W) eines n-dimensional bezüglich seiner Grenzen parametrisierten Raumausschnittes (U1; U2-U4) bestimmt ist, wobei eine Grenzparametervariation derart vorgenommen ist, daß alle von einer Vielzahl von jeweils einer den Klassen zugeordneten Lernmerkmalvektoren in einen der Raumausschnitte (U1; U2-U4), der nur dieser einen Klasse zugeordnet ist, verweisen, dadurch gekennzeichnet, daß die Grenzparametervariation, wenn die Prüfvorrichtung (PV) keine Klassenzugehörigkeit signalisiert, jeweils in demjenigen der Ausgangsneuronen (NA1-NA3) erfolgt, das der Klasse des jeweiligen Lernmerkmalvektors zugeordnet ist, und die Grenzparametervariation, wenn die Prüfvorrichtung (PV) mehrere Klassenzugehörigkeiten signalisiert, jeweils in allen den Ausgangsneuronen (NA1-NA3) erfolgt, die eine Klassenzugehörigkeit des jeweiligen Lernmerkmalvektors signalisieren, und daß jeweils dann, wenn die Grenzparametervariation eine eindeutige Verweisung auf einen der Raumausschnitte (U1; U2-U4) der Klasse des jeweiligen Lernmerkmalvektors nicht erbringt, eine Aufgliederung eines dieser betreffenden Raumausschnitte (U2-U4) in Unterraumausschnitte (U2; U3; U4) erfolgt, indem mindestens jeweils ein weiteres diesen weiteren Unterraumausschnitt (U3) repräsentierendes Zwischenneuron (NM3) mit durch den Lernmerkmalvektor bestimmten Parametern (W′, R′, S′) einer weiteren Unterklassenfunktion (T′) installiert und dem Ausgangsneuron (NA2) dieser Klasse zugeordnet wird, so daß letztlich von einer Gesamtheit von Lernmerkmalvektoren jeder nur auf solche Raum- oder Unterraumausschnitte (U1; U2, U3, U4) verweist, die nur einer einzigen zugehörigen Klasse oder Unterklasse zugeordnet sind.
2. Neuronales Netz nach Anspruch 1, dadurch gekennzeichnet, daß jeweils ein Ausgangsneuron (NA1-NA3) einer der Klassen zugeordnet ist und alle diejenigen Ausgänge der Zwischenneuronen (NM1-NM4), die jeweils dieser Klasse zugeordnet sind, durch eine ODER-Verknüpfung mit diesem Ausgangsneuron (NA1-NA3) verbunden sind.
3. Neuronales Netz nach Anspruch 1, dadurch gekennzeichnet, daß die Abstandsfunktion eine stetig fallende Funktion ist.
4. Neuronales Netz nach Anspruch 3, dadurch gekennzeich­ net, daß die Abstandsfunktion eine Glockenfunktion, eine Potenzfunktion oder eine Exponentialfunktion ist.
5. Neuronales Netz nach Anspruch 4, dadurch gekennzeichnet, daß die Klassenfunktion (T) dadurch bestimmt ist, daß die Abstandsfunktion eine Summe der quadrierten Differenzen des Merkmalvektors (M) zum Mittelpunktvektor (W) dividiert durch das Quadrat der Länge eines Radiusvektors (R) ist, der vom Mittelpunktvektor (W) über den Merkmalvektor (M) zur Grenze des Raumausschnittes (U1; U2- U4) verläuft, und durch einen Vergleich des so gebildeten Abstandsfunktionswertes mit einem jeweils festgelegten Schwellwert (S) die Zugehörigkeit des Merkmalvektors (W) zu dem Raumausschnitt (U1; U2-U4) als Klassenzugehörigkeit bestimmt ist.
6. Neuronales Netz nach Anspruch 4, dadurch gekennzeichnet, daß die Raumausschnitte (U1) und die Unterraumausschnitte (U2, U3, U4) n-dimensionale Hyperellipsoide darstellen.
7. Neuronales Netz nach Anspruch 6, dadurch gekennzeichnet, daß die Raumausschnitte (U1) und die Unterraumausschnitte (U2, U3, U4) n-dimensionale Kugeln darstellen.
8. Neuronales Netz nach Anspruch 5, dadurch gekennzeichnet, daß, wenn die Prüfvorrichtung (PV) signalisiert, daß mehrere Klassenzugehörigkeiten oder keine Klassenzugehörigkeit des Merkmalvektors vorliegt, der Schwellwert (S), ausgehend von einem Wert 1, schrittweise veränderbar ist, bis entweder eine und nur eine Klassenzugehörigkeit vorliegt oder durch eine weitere Prüfung in der Prüfvorrichtung (PV) festgestellt ist, daß die mehreren betreffenden Abstandsfunktionswerte gleich sind.
9. Neuronales Netz nach Anspruch 8, dadurch gekennzeichnet, daß zu einer Klassenzugehörigkeit jeweils der zugehörig gewählte Schwellwert (S) ausgebbar ist.
10. Neuronales Netz nach einem der vorstehenden Ansprüche, dadurch gekennzeichnet, daß mindestens einer der Eingänge (EG1, EG2) jeweils mit einer zeitlichen Signalfolge einer bestimmten Dauer beaufschlagt ist und diese jeweils einer Gruppe von Eingangsneuronen (NE1-NE13) zugeführt ist, denen in jeder Gruppe, jeweils über die Dauer einer Signalfolge verteilt, zeitlich gegeneinander versetzt Zeitmultiplexsteuersignale zugeführt sind, mittels derer ein jeweiliger Signalwert der Signalfolge in dem Eingangsneuron (NE1-NE13) speicherbar ist, der am Ende der Dauer der Signalfolge als ein Merkmal des Merkmalvektors abgebbar ist.
11. Neuronales Netz nach Anspruch 10, dadurch gekennzeichnet, daß die Eingangssignale (EG1, EG2) einer Normierung und/oder einer Mittelwertbildung oder einer Einhüllendenbildung unterziehbar sind und die jeweils gespeicherten Merkmale des Merkmalvektors Mittel- oder Stützwerte der so gemittelten und/oder eingehüllten Eingangssignale (EG1, EG2) sind.
12. Neuronales Netz nach Anspruch 11, dadurch gekennzeichnet, daß für die Mittelwertbildung oder Einhüllenbildung Vorrichtungen zur mehrfachen Abtastung und Digitalisierung sowie Speicherung der Eingangssignale (EG1, EG2) während einer Zeitmultiplexsteuersignaldauer und zur entsprechenden anschließenden digitalen Verarbeitung der gespeicherten Werte vorgesehen sind.
13. Neuronales Netz nach einem der vorstehenden Ansprüche, dadurch gekennzeichnet, daß den Eingänge (EG1, EG2) jeweils ein Strommeßsignal (IM), ein Spannungsmeßsignal (UM), ein Drehzahlmeßsignal (DM) und ein Körperschallmeßsignal (SM) für die Dauer eines Hochlaufens und/oder eines Auslaufens eines Elektromotors (EM) zugeführt sind, von dem diese genannten Meßsignale (IM, UM, SM, DM) abgenommen sind, und daß Vorrichtungen vorgesehen sind, um diese Meßsignale während der Hochlaufdauer im Zeitmultiplex zu erfassen, deren Einhüllende für Wechselgrößen-Meßsignale (IM, UM, SM) zu bilden und Kurzzeitmittelwerte für diese und das Drehzahlmeßsignal (DM) zu bilden und aus den Einhüllenden und Kurzzeitmittelwerten nach dem Hochlaufen Stützwerte zu bestimmen, die jeweils den Merkmalvektor bilden, wobei die Hochlaufdauer durch das Erreichen einer vorgegebenen Enddrehzahl oder Betriebsdrehzahl oder durch den Ablauf einer vorgegebenen Zeitspanne bestimmt ist.
14. Neuronales Netz nach Anspruch 13, dadurch gekennzeichnet, daß die Lernmerkmalvektorern jeweils aus den Meßsignalen (IM, UM, SM, DM) von mängelfreien und von einfach oder mehrfach mängelbehafteten Elektromotoren (EM) aller bekannten Mängelarten während einer Hochlaufdauer erzeugt sind und diesen Lernmerkmalvektoren jeweils entsprechende Mängelindizes als die Ausgangsgrößen zugeordnet sind.
15. Neuronales Netz nach einem der Ansprüche 13 oder 14, dadurch gekennzeichnet, daß in der Zuleitung des Elektromotors (EM) eine steuerbare Einschaltvorrichtung (ES) angeordnet ist und von der Zuleitung die Strom- und Spannungsmeßsignale (IM, UM) abgenommen und der Eingangsneuronenschicht (NSE)) zugeführt sind und an der Motorwelle ein Tachometer (TM) angeordnet ist, dessen Drehzahlmeßsignal (DM) der Eingangsneuronenschicht (NSE) zugeführt ist, und daß an dem Motorkörper ein Körperschall- und/oder Schwingungsaufnehmer (SA) angeordnet ist, dessen (deren) Schwingungsmeßsignal(e) (SM) der Eingangsneuronenschicht (NSE) zugeführt ist (sind) und das Drehzahlmeßsignal (DM) einem Vergleicher (VS1) zugeführt ist, durch den bei der Überschreitung eines ersten vorgegebenen Drehzahlvergleichssignales (DV1) die Einschaltvorrichtung (ES) ausschaltbar und danach bei Unterschreitung eines zweiten vorgegebenen Drehzahlvergleichssignales (DV2) ein Signal für das Ende der Meßwerterfassungsdauer an die Neuronen abgebbar ist.
16. Neuronales Netz nach Anspruch 15, dadurch gekennzeichnet, daß aus mindestens einem der Wechselgrößen-Meßsignale (IM, UM, SM) ein Einhüllendensignal durch eine Signalgleichrichtung (GL) gewinnbar ist, das der Eingangsneuronenschicht (NSE) zuführbar ist.
17. Neuronales Netz nach Anspruch 15 oder 16, dadurch gekennzeichnet, daß mindestens eines der Meßsignale (IM, UM, SM, DM) oder deren Einhüllendensignal über ein Kurzzeitfilter (KF) der Eingangsneuronenschicht (NSE) zugeführt ist.
18. Neuronales Netz nach einem der Ansprüche 15 bis 17, dadurch gekennzeichnet, daß bei einem Mehrphasenelektromotor von sämtlichen Phasenleitern Strom- und/oder Spannungsmeßsignale abgenommen und der Eingangsneuronenschicht (NSE) zugeführt sind.
19. Verfahren zur Minimierung eines neuronalen Netzes und Lernmerkmalvektorkollektivs nach einem der Ansprüche 1 bis 18, dadurch gekennzeichnet, daß jeweils nach einem Umsetzen eines ersten vollständigen Kollektivs von Lernmerkmalvektoren in diese vollständig und eindeutig klassifizierend parametrisiert und ggf. aufgegliederte Zwischenneuronen (NM1-NM4) die Mittelpunktvektoren der Raum- oder Unterraumausschnitte (U1, U2, U3, U4) als ein neues, reduziertes Lernmerkmalvektorkollektiv in einem neuen Lernvorgang in ein neues neuronales Netz umgesetzt werden, dann die übrigen Lernmerkmalvektoren des ersten Kollektivs in dem neuen neuronalen Netz klassifiziert werden und dabei diejenigen Lernmerkmalvektoren ermittelt werden, die keine eindeutige Klassenzugehörigkeit zeigen, die dann ergänzend dem reduzierten Lernmerkmalvektorkollektiv hinzugefügt werden und mit denen weitere Lernschritte durchgeführt werden, bis diese vollständig und eindeutig klassifizierende parametrisierte und ggf. aufgegliederte Zwischenneuronen (NM1-NM4) erbracht haben.
20. Verfahren zur Minimierung eines neuronalen Netzes und Lernmerkmalvektorkollektivs nach Anspruch 19, dadurch gekennzeichnet, daß jeweils die Mittelpunktvektoren der Raum- oder Unterraumausschnitte (U1, U2, U3, U4), die mit dem reduzierten und ergänzten Lernmerkmalvektorkollektiv erzeugt wurden, sooft iterativ als jeweils neues reduziertes Lernmerkmalvektorkollektiv zur Parametrisierung von Zwischenneuronen (NM1-NM4) eingesetzt werden, bis damit das erste, vollständige Kollektiv eindeutig klassifizierbar ist.
DE4124501A 1991-07-24 1991-07-24 Neuronales Netz mit automatischer Installation von Zwischenneuronen Expired - Fee Related DE4124501C2 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE4124501A DE4124501C2 (de) 1991-07-24 1991-07-24 Neuronales Netz mit automatischer Installation von Zwischenneuronen
DE4209296A DE4209296A1 (de) 1991-07-24 1992-03-21 Wort- und wortkettenerkennungssystem auf der basis eines neuronalen netzes mit automatischer zellbildung und -komprimierung sowie nachlernverfahren

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE4124501A DE4124501C2 (de) 1991-07-24 1991-07-24 Neuronales Netz mit automatischer Installation von Zwischenneuronen
DE4209296A DE4209296A1 (de) 1991-07-24 1992-03-21 Wort- und wortkettenerkennungssystem auf der basis eines neuronalen netzes mit automatischer zellbildung und -komprimierung sowie nachlernverfahren

Publications (2)

Publication Number Publication Date
DE4124501A1 DE4124501A1 (de) 1993-01-28
DE4124501C2 true DE4124501C2 (de) 1994-09-15

Family

ID=25905785

Family Applications (2)

Application Number Title Priority Date Filing Date
DE4124501A Expired - Fee Related DE4124501C2 (de) 1991-07-24 1991-07-24 Neuronales Netz mit automatischer Installation von Zwischenneuronen
DE4209296A Withdrawn DE4209296A1 (de) 1991-07-24 1992-03-21 Wort- und wortkettenerkennungssystem auf der basis eines neuronalen netzes mit automatischer zellbildung und -komprimierung sowie nachlernverfahren

Family Applications After (1)

Application Number Title Priority Date Filing Date
DE4209296A Withdrawn DE4209296A1 (de) 1991-07-24 1992-03-21 Wort- und wortkettenerkennungssystem auf der basis eines neuronalen netzes mit automatischer zellbildung und -komprimierung sowie nachlernverfahren

Country Status (1)

Country Link
DE (2) DE4124501C2 (de)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19509186A1 (de) * 1995-03-14 1996-09-19 Siemens Ag Einrichtung zum Entwurf eines neuronalen Netzes sowie neuronales Netz
DE19634923A1 (de) * 1996-08-29 1998-03-05 Bruce Boye Cecil O Dr Linearisierung nichtlinearer technischer Prozesse mit Hilfe eines Abweichungsbeobachter
DE19720468A1 (de) * 1997-05-15 1998-11-19 Siemens Ag Verfahren für ein neuronales Netzwerk zur Darstellung von Abbildungsfunktionen
DE19808197C2 (de) * 1998-02-27 2001-08-09 Mtu Aero Engines Gmbh System und Verfahren zur Diagnose von Triebwerkszuständen
DE102006000916B3 (de) * 2005-01-07 2007-08-30 General Motors Corp., Detroit Vorrichtung und Verfahren zum bewerten eines dynamischen Systems

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10161224A1 (de) * 2001-12-13 2003-06-26 Deutsche Telekom Ag Konvertierung einer Pulsfolge
CN107024331B (zh) * 2017-03-31 2019-07-12 中车工业研究院有限公司 一种神经网络对列车电机振动在线检测方法
DE102018201710A1 (de) * 2018-02-05 2019-08-08 Robert Bosch Gmbh Verfahren und Vorrichtung zum Überprüfen einer Funktion eines neuronalen Netzes
RU2699396C1 (ru) * 2018-11-19 2019-09-05 Общество С Ограниченной Ответственностью "Инвек" Нейронная сеть для интерпретирования предложений на естественном языке
CN109580230A (zh) * 2018-12-11 2019-04-05 中国航空工业集团公司西安航空计算技术研究所 一种基于bp神经网络的发动机故障诊断方法及装置

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2231760B (en) * 1989-05-18 1994-06-01 Apple Computer Neural network for color selection
US5167006A (en) * 1989-12-29 1992-11-24 Ricoh Company, Ltd. Neuron unit, neural network and signal processing method

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19509186A1 (de) * 1995-03-14 1996-09-19 Siemens Ag Einrichtung zum Entwurf eines neuronalen Netzes sowie neuronales Netz
DE19634923A1 (de) * 1996-08-29 1998-03-05 Bruce Boye Cecil O Dr Linearisierung nichtlinearer technischer Prozesse mit Hilfe eines Abweichungsbeobachter
DE19634923C2 (de) * 1996-08-29 1999-08-19 Bruce Boye Linearisierung nichtlinearer technischer Prozesse mit Hilfe eines Abweichungsbeobachter
DE19720468A1 (de) * 1997-05-15 1998-11-19 Siemens Ag Verfahren für ein neuronales Netzwerk zur Darstellung von Abbildungsfunktionen
DE19808197C2 (de) * 1998-02-27 2001-08-09 Mtu Aero Engines Gmbh System und Verfahren zur Diagnose von Triebwerkszuständen
DE102006000916B3 (de) * 2005-01-07 2007-08-30 General Motors Corp., Detroit Vorrichtung und Verfahren zum bewerten eines dynamischen Systems
DE102006000916B8 (de) * 2005-01-07 2007-12-13 General Motors Corp., Detroit Vorrichtung und Verfahren zum bewerten eines dynamischen Systems

Also Published As

Publication number Publication date
DE4124501A1 (de) 1993-01-28
DE4209296A1 (de) 1993-09-23

Similar Documents

Publication Publication Date Title
DE102006008482B4 (de) Eingangsvektorbildungsverfahren bei neuronalen Netzwerken zur Auto-Identifikation einer partiellen Entladungsquelle
DE69732569T2 (de) System zur erkennung von störungen von elektromotoren
EP2064522B1 (de) Verfahren und vorrichtung zur überwachung des rauschens eines sensors
DE102016102328A1 (de) System zur Diagnose von Anomalien, Diagnoseverfahren und -vorrichtung
DE4124501C2 (de) Neuronales Netz mit automatischer Installation von Zwischenneuronen
DE112018003079T5 (de) Drehmaschinensystem-Diagnosevorrichtung, Leistungsumsetzvorrichtung, Drehmaschinensystem und Drehmaschinensystem-Diagnoseverfahren
DE112020006911T5 (de) Datenerzeugungsvorrichtung, System für maschinelles Lernen und Bearbeitungszustands-Schätzvorrichtung
DE102017122315A1 (de) Management-system, management-vorrichtung, verfahren zur erfassung eines spindel-fehlers unter verwendung der management-vorrichtung und computerprogramm
DE102016007404A1 (de) Servosteuervorrichtung mit Funktion zur Online-Optimierung der Regelungsverstärkung unter Verwendung einer Bewertungsfunktion
DE102019217613A1 (de) Verfahren zur diagnose eines motorzustands und diagnostisches modellierungsverfahren dafür
WO2022033794A1 (de) Batteriemanagementsystem zum klassifizieren eines batteriemoduls
EP3081914B1 (de) Überwachung einer maschine mit einer rotierenden maschinenkomponente
DE69818380T2 (de) Verfahren zur Überwachung eines mit Beschleunigungssensoren versehenen Planetengetriebes in einem Fortbewegungsmittel, insbesondere in einem Helikopter
DE102006000916B3 (de) Vorrichtung und Verfahren zum bewerten eines dynamischen Systems
DE19636074C2 (de) Lernfähiges Bildverarbeitungssystem zur Klassierung
EP4012426A1 (de) Verfahren zur korrektur eines zeitabhängigen messsignals einer motor-getriebeeinheit sowie verfahren zur erkennung von verschleiss und/oder einer beschädigung derselben mittels dieses korrekturverfahrens
DE69019960T2 (de) Vorrichtung und verfahren zur selbsttätigen rechnung der güte einer elektrischen wicklung.
EP3460727A1 (de) Verfahren zur untersuchung eines funktionsverhaltens eines technischen systems und auswerteeinheit
EP4022408A1 (de) Verfahren und vorrichtung zum analysieren eines ablaufprozesses
DE102019107363B4 (de) Verfahren und System zum Bestimmen einer Eigenschaft einer Maschine, insbesondere einer Werkzeugmaschine, ohne messtechnisches Erfassen der Eigenschaft sowie Verfahren zum Bestimmen eines voraussichtlichen Qualitätszustands eines mit einer Maschine gefertigten Bauteils
DE102020213960A1 (de) Abnormalitäts-Diagnoseverfahren und Abnormalitäts-Diagnosevorrichtung für Vorschubachsenvorrichtung
EP1043590A1 (de) Verfahren und Vorrichtung zur Messung Drehzahl eines Gleichstrom-Kommutatormotors
DE102020207449A1 (de) Verfahren, Computerprogramm und Vorrichtung zum Verarbeiten von Signalen
DE4039647A1 (de) Messwertverarbeitungssystem fuer eine walzwerksanlage
EP3664282A1 (de) Kompensieren von rastmomenten von synchronmotoren

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
AG Has addition no.

Ref country code: DE

Ref document number: 4209296

Format of ref document f/p: P

AG Has addition no.

Ref country code: DE

Ref document number: 4209296

Format of ref document f/p: P

D2 Grant after examination
8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee