DE19624301A1 - Lernverfahren für ein neuronales Netz - Google Patents

Lernverfahren für ein neuronales Netz

Info

Publication number
DE19624301A1
DE19624301A1 DE19624301A DE19624301A DE19624301A1 DE 19624301 A1 DE19624301 A1 DE 19624301A1 DE 19624301 A DE19624301 A DE 19624301A DE 19624301 A DE19624301 A DE 19624301A DE 19624301 A1 DE19624301 A1 DE 19624301A1
Authority
DE
Germany
Prior art keywords
network
learning
neural network
trained
learning phase
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE19624301A
Other languages
English (en)
Other versions
DE19624301B4 (de
Inventor
Einar Dr Rer Nat Broese
Otto Dr Ing Gramckow
Frank-Oliver Malisch
Martin Dr Ing Schlang
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens AG
Original Assignee
Siemens AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG filed Critical Siemens AG
Priority to DE19624301A priority Critical patent/DE19624301B4/de
Priority to US08/686,792 priority patent/US6745169B1/en
Publication of DE19624301A1 publication Critical patent/DE19624301A1/de
Application granted granted Critical
Publication of DE19624301B4 publication Critical patent/DE19624301B4/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B21MECHANICAL METAL-WORKING WITHOUT ESSENTIALLY REMOVING MATERIAL; PUNCHING METAL
    • B21BROLLING OF METAL
    • B21B37/00Control devices or methods specially adapted for metal-rolling mills or the work produced thereby
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B13/00Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
    • G05B13/02Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
    • G05B13/0265Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion
    • G05B13/027Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion using neural networks only
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Mechanical Engineering (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Automation & Control Theory (AREA)
  • Feedback Control In General (AREA)

Description

Die Erfindung betrifft ein Lernverfahren für ein neuronales Netz zum Regeln oder Steuern eines insbesondere industriellen Prozesses mit sich zeitlich verändernden Parametern.
Neuronale Netze müssen, bevor sie ihre Generalisierungsfä­ higkeit erhalten, zunächst mit Lern- oder Trainingsdaten trainiert werden. Das Sammeln dieser Trainingsdaten ist oft langwierig und mit hohem Aufwand verbunden.
Ein Beispiel hierfür ist das aus der DE-OS 44 16 364 bekannte neuronale Netz, das aus einer Vielzahl von ihm zugeführten vorausberechneten Eingangsgrößen als Netzwerkantwort einen Prozeßparameter berechnet, der zur Voreinstellung eines Sy­ stems zur Regelung eines technischen Prozesses dient. So wird z. B. bei einem Walzprozeß ein Vorhersagewert für die Walz­ kraft in Abhängigkeit von der Walzguttemperatur, der Dicken­ abnahme und anderen material- und anlagenspezifischen Ein­ gangsgrößen berechnet. Der von dem neuronalen Netz nachgebil­ dete Zusammenhang zwischen der Walzkraft und den Eingangsgrö­ ßen wird on-line nach jedem Prozeßablauf, also nach jedem Walzgutdurchlauf, an das reale Prozeßgeschehen angepaßt. Dazu werden die während des Prozeßablaufs gemessenen und anschlie­ ßend nachberechneten Eingangsgrößen und die Walzkraft in ei­ nem Datenpunkt zusammengefaßt, der dann zur Adaption von Pa­ rametern des neuronalen Netzes herangezogen wird. Die Adap­ tion erfolgt mit jedem neu ermittelten Datenpunkt, also on­ line. Die Adaption muß sich durch eine besondere Stabilität aus zeichnen, da sie häufig direkt und ohne Überwachung durch einen Fachmann auf der prozeßausführenden Anlage durchgeführt wird. Daher werden beim on-line Training nur unkritische Pa­ rameter des neuronalen Netzes adaptiert, wobei Adaptionsalgo­ rithmen und Netzstrukturen verwendet werden, die eine Stabi­ lität des Verfahrens gewährleisten; z. B. Minimierung der quadratischen Fehlerfunktion zwischen der Netzwerkantwort und der nachberechneten Walzkraft, wobei die Fehlerfunktion vor­ zugsweise nur ein globales Minimum, aber keine lokalen Minima aufweist.
Damit das bekannte neuronale Netz bereits zu Beginn des on­ line-Trainings zumindest annähernd sinnvolle Walzkraftwerte vorhersagt, kann es anhand eines die Walzkraft in Abhängig­ keit von zufällig vorgegebenen Eingangsgrößen berechnenden Walzkraftmodells vortrainiert werden. Steht ein derartiges Modell nicht zur Verfügung, so kann das für das Vortraining nötige Vorwissen durch das Sammeln von Trainingsdaten bei­ spielsweise auf vergleichbaren Anlagen erworben und in das neuronale Netz eingebracht werden.
Der Erfindung liegt die Aufgabe zugrunde, einen Prozeß mit sich zeitlich verändernden Parametern in bezug auf die Quali­ tät hochwertig zu steuern und zu regeln. Dabei ist es insbe­ sondere bei der Neuinbetriebnahme einer Anlage oder wesentli­ chen Veränderungen einer bestehenden Anlage, die mit neurona­ len Netzen gesteuert wird, wünschenswert, das neuronale Netz in die Lage zu versetzen, ohne Vortraining direkt auf der An­ lage bereits nach wenigen Datenpunkten ein sinnvolles Verhal­ ten zu zeigen. Das gleiche gilt beim Umrüsten einer bestehen­ den Anlage, wenn auf eine vorherige Sammlung von Daten ver­ zichtet werden soll. Ferner sollen Langzeitdriften der Anlage erkannt und kompensiert werden.
Die Aufgabe wird erfindungsgemäß durch ein Lernverfahren für ein neuronales Netz zum Regeln oder Steuern eines insbeson­ dere industriellen Prozesses mit sich zeitlich verändernden Parametern gelöst, wobei das neuronale Netz in zumindest zwei Ausführungen, einem Regel- bzw. Steuernetz, mit dem der Pro­ zeß gesteuert und geregelt wird und das mit aktuellen Prozeß­ daten derart trainiert wird, daß es ein Abbild des aktuellen Prozesses bildet, und einem Hintergrundnetz, das während des Betriebes mit repräsentativen Prozeßdaten derart trainiert wird, daß es ein Abbild des Prozesses über einen längeren Zeitraum gemittelt bildet, ausgeführt wird, wobei das Regel- bzw. Steuernetz nach Ablauf einer bestimmten Lernzeit für das Hintergrundnetz oder aufgrund eines externen Ereignisses durch das Hintergrundnetz ersetzt wird.
Eine weitere Lösung stellt ein Lernverfahren dar, bei dem das Lernen während des Prozeßablaufs in zwei Lernphasen unter­ teilt ist, eine Initiallernphase und eine Betriebslernphase, wobei die Menge der Trainingsdaten, mit denen das neuronale Netz trainiert wird, in der Initiallernphase wächst und die Menge der Trainingsdaten in der Betriebslernphase weitgehend konstant bleibt.
Die Aufgabe wird weiterhin durch das in Patentanspruch 3 an­ gehende Lernverfahren gelöst.
Besonders vorteilhafte Lösung der Aufgabe stellen die in den Patentansprüchen 4 bis 7 angegebenen Lernverfahren dar.
Weitere Vorteile und erfindungsgemäße Einzelheiten ergeben sich aus der nachfolgenden Beschreibung von Ausführungsbei­ spielen, anhand der Zeichnungen und in Verbindung mit den Un­ teransprüchen. Im einzelnen zeigen:
Fig. 1 einen Trainingsablauf eines neuronalen Netzes
Fig. 2 verschiedene Lernphasen eines neuronalen Netzes
Fig. 3 und 4 Beispiele für die bei der zyklisch wiederholten Adaption verwendete Trainingsdatenmenge,
Fig. 5 ein Beispiel für die Trainingsdatenmenge beim Lernen mit exponentiellem Vergessen und
Fig. 6 ein Beispiel für den typischen Fehlerverlauf bei dem erfindungsgemäßen Lernverfahren im Vergleich zu einem Referenz-Lernverfahren,
Fig. 7 ein adaptiv angepaßtes neuronales Netz.
Fig. 1 zeigt den Trainingsablauf eines neuronalen Netzes für die Steuerung und Regelung eines Prozesses bzw. einer Anlage. Das entsprechende neuronale Netz ist in zumindest zwei Aus­ führungen ausgeführt, einem Regel- bzw. Steuernetz, mit dem der Prozeß gesteuert und geregelt wird und das mit aktuellen Prozeßdaten derart trainiert wird, daß es ein Abbild des ak­ tuellen Prozesses bildet, und einem Hintergrundnetz, das wäh­ rend des Betriebes mit repräsentativen Prozeßdaten derart trainiert wird, daß es ein Abbild des Prozesses über einen längeren Zeitraum gemittelt bildet. Das Regel- bzw. Steuer­ netz befindet sich in einem Zustand 5, in dem es den Prozeß­ ablauf regelt bzw. steuert. Gleichzeitig befindet sich das Hintergrundnetz im Training 1. Beim Abschluß 2 des Trainings 1 des Hintergrundnetzes wird es einer Plausibilitätskontrolle 3 unterzogen. Bei einer positiven Plausibilitätskontrolle wird das Regel- und Steuernetz durch das plausible Hinter­ grundnetz ersetzt. Während das alte Hintergrundnetz als neues Regel- bzw. Steuernetz den Prozeßablauf regelt oder steuert, wird durch weiteres Training 1 ein neues Hintergrundnetz er­ zeugt. Das Training eines Hintergrundnetzes kann ständig oder zeitweise erfolgen, wenn ein neues Regel- bzw. Steuernetz be­ nötigt wird. Anstoß für ein neues Hintergrundtraining kann das Verstreichen einer definierten Zeit oder ein externes Er­ eignis, wie z. B. das Walzen eines Walzbandes aus neuem Mate­ rial sein. Ausgangsbasis für ein neues Hintergrundnetz kann ein untrainiertes Rohnetz, ein Regel- bzw. Steuernetz oder ein altes Hintergrundnetz sein.
Fig. 2 zeigt drei verschiedene Trainingsphasen in bezug auf das erfindungsgemäße Lernverfahren für ein neuronales Netz. Die einzelnen Phasen sind eine Vorbetriebstrainingsphase 7, eine Initiallernphase 8 und eine Betriebslernphase 9. In der Vorbetriebslernphase wird das neuronale Netz, das zur Rege­ lung bzw. Steuerung eines vorteilhafterweise industriellen Prozesses eingesetzt werden soll, vorab trainiert. In der Vorbetriebslernphase 7 ist es möglich, durch entsprechende Daten aus anderen, bereits in Betrieb befindlichen Anlagen die Erfahrungen, die in diesen Anlagen gesammelt wurden, zu berücksichtigen. Auf die Vorbetriebslernphase 7 kann jedoch beim erfindungsgemäßen Lernverfahren verzichtet werden. In diesem Fall reicht das durch Datensammlung an der aktuellen Anlage akkumulierte Wissen zum Training des neuronalen Netzes aus. Der Vorbetriebslernphase folgen zwei weitere Lernphasen, die Initiallernphase 8 und die Betriebslernphase 9, die wäh­ rend des Prozeßablaufs erfolgen. Wird auf die Vorbetriebs­ lernphase 7 verzichtet, so existieren nur die beiden Lernpha­ sen Initiallernphase 8 und Betriebslernphase 9. Die Initial­ lernphase 8 ist dadurch gekennzeichnet, daß die Datenbasis der Trainingsdaten anwächst, während die Datenmenge zum Trai­ ning des neuronalen Netzes in der Betriebslernphase 9 weitge­ hend konstant bleibt. Im vorliegenden Ausführungsbeispiel wächst in der Initiallernphase 8 nicht nur die zum Training verwendete Datenbasis, sondern auch das trainierte neuronale Netz selbst. Das heißt, die Anzahl der Knoten in den verdeck­ ten Ebenen bzw. der verdeckten Ebene vergrößert sich.
Diese beiden unterschiedlichen Lernphasen während des Be­ triebs, die Initial- und die Betriebslernphase, sind in Fig. 3 verdeutlicht, in der die Anzahl der zum zyklischen Training des neuronalen Netzes 1 verwendeten Datenpunkte in Abhän­ gigkeit von dem Beitrag dieser Datenpunkte zum Training auf­ getragen sind. Während der Initiallernphase 7 erfolgt das zy­ klisch wiederholte Training mit einer stetig wachsenden Trai­ ningsdatenmenge 15, wobei jedesmal alle von Beginn des Lern­ verfahrens an gespeicherten Datenpunkte verwendet werden. Die Häufigkeit des zyklisch wiederholten Trainings ist ein für die vorgegebene Anwendung zu optimierender Parameter, wobei z. B. nach jedem neuen Datenpunkt, nach einem vorgegebenen prozentualen Anwachsen der Trainingsdatenmenge oder, wenn die Abweichung zwischen den Ausgangsgrößen des neuronalen Netzes und ihren richtigen Werten einen bestimmten Wert übersteigt, eine erneute Adaption erfolgt. Darüberhinaus läßt sich die Größe des neuronalen Netzes in Abhängigkeit von der Größe der vorliegenden Trainingsdatenmenge verändern, wobei mit einem kleinen neuronalen Netz begonnen wird, das im Laufe der Zeit langsam vergrößert wird. Die Festlegung der Netzgröße erfolgt z. B. durch Methoden der "Cross-Validation" oder andere Heuri­ stiken, wie Residualfehler im Eingangsraum.
Nach einer vorgegebenen Zeit oder, wenn die Trainingsdaten­ menge einen vorgegebenen Wert NF erreicht, beginnt die Be­ triebslernphase, in der die Trainingsdatenmenge 10 konstant gehalten wird. Die Größe NF kann statisch sein oder dynamisch beispielsweise durch Techniken der Cross-Validation festge­ legt werden. Die Häufigkeit der zyklisch erfolgenden Adaption sowie die Größe des neuronalen Netzes 1 ist entweder konstant oder wird auf ähnliche Weise bestimmt, wie in der Initial­ lernphase.
Zu Beginn der Inbetriebnahme einer neuronal gesteuerten An­ lage werden in der Regel noch sehr viele Anlagenparameter verändert, um die Anlage zu optimieren. Das suboptimale Ver­ halten direkt nach der Inbetriebnahme sollte aber von dem neuronalen Netz 1 möglichst wieder vergessen werden. Deshalb ist entsprechend der Darstellung in Fig. 4 vorgesehen, die in der Initiallernphase 7 ständig wachsende Trainingsdatenmenge 11 nicht komplett zu verwenden, sondern die ältesten Daten­ punkte sukzessive zu vergessen. Das Wachstum der Trainings­ datenmenge 11 hat dabei natürlich schneller zu erfolgen als das Vergessen. Die Geschwindigkeit des Vergessens kann in Form eines konstanten Bruchteils der Wachstumsrate der Trai­ ningsdatenmenge 11, in Abhängigkeit von der Abweichung zwi­ schen den Ausgangsgrößen des neuronalen Netzes und ihren richtigen Werten oder in Abhängigkeit von dem Expertenwissen des Inbetriebnehmers festgelegt werden.
Fig. 5 zeigt ein Beispiel für eine exponentiell abfallende "natürliche" Vergessensfunktion einer Trainingsdatenmenge 12, die dadurch zustande kommt, daß die Datenpunkte in der Trai­ ningsdatenmenge 12 mit zunehmendem Alter mit einem immer ge­ ringeren Gewichtsfaktor gewichtet werden.
In Fig. 6 ist für das erfindungsgemäße Lernverfahren der ty­ pische Fehlerverlauf 13 des Residualfehlers F des neuronalen Netzes 1 in Abhängigkeit von der Anzahl der zur Verfügung stehenden Datenpunkte N im Vergleich zu dem Fehlerverlauf 14 eines Referenz-Lernverfahrens, hier Vererbungsdatei mit ana­ lytischem Modell im eingeschwungenen Zustand, aufgezeigt.
Fig. 7 zeigt ein neuronales Netz 16, dem eine Mehrzahl von in einem Eingangsvektor x zusammengefaßten Eingangsgrößen zuge­ führt wird und das in Abhängigkeit davon eine, gegebenenfalls ebenfalls mehrdimensionale, Antwort yNN erzeugt. Die Antwort yNN ist von einstellbaren Parametern p₁ und/oder p₂ des neu­ ronalen Netzes 16 abhängig. Das neuronale Netz 16 dient bei dem gezeigten Ausführungsbeispiel dazu, den Zusammenhang zwi­ schen Einflußgrößen eines technischen Prozesses, die durch den Eingangsvektor x repräsentiert werden, und einem Prozeß­ parameter y, repräsentiert durch die Antwort yNN, nachzubil­ den. Ein Beispiel hierfür ist die Vorhersage der Walzkraft in einem Walzprozeß in Abhängigkeit von material- und anlagen­ spezifischen Einflußgrößen, wie unter anderem der Walzgut­ temperatur, der Walzgutfestigkeit, der Walzgutdicke und der Dickenabnahme.
Um den nachzubildenden Zusammenhang zu lernen, und das neuro­ nale Netz 16 an das tatsächliche Prozeßgeschehen anzupassen, werden die Parameter p₁ und/oder p₂ des neuronalen Netzes 16 mit Hilfe von Adaptionsalgorithmen 17 und 18 im Sinne einer Verringerung des Fehlers zwischen der von dem neuronalen Netz 16 gelieferten Antwort yNN und dem tatsächlichen Wert des Prozeßparameters y verändert.
Dabei erfolgt nach jedem n-ten (n 1) Prozeßablauf, also nach jedem Walzgutdurchlauf, mittels des Adaptionsalgorithmus 17 eine on-line-Adaption, indem die während des erfolgten ak­ tuellen Prozeßablaufs gemessenen und nachberechneten Einfluß­ größen Xnach dem neuronalen Netz 16 aufgegeben werden und die daraus resultierende Antwort yNN mit dem ebenfalls gemessenen oder nachberechneten Prozeßparameter y verglichen wird. Nicht plausible Werte oder Meßfehler werden durch die Nachberech­ nung ausgeschieden. In Abhängigkeit von dem dabei ermittelten Fehler y-yNN werden ausgewählte Parameter p₁ des neuronalen Netzes 16 im Sinne einer Fehlerverringerung verändert. Dabei werden unkritische Parameter p₁ und solche Adaptionsalgorith­ men gewählt, die eine Stabilität der on-line-Adaption gewähr­ leisten und es erlauben, schnellen Prozeßzustandsänderungen zu folgen.
Die nach jedem n-ten Walzgutdurchlauf ermittelten Eingangs­ größen des Eingangsvektors x bilden zusammen mit dem gemesse­ nen bzw. nachberechneten Prozeßparameter y, der als Bezugs­ größe für den Vergleich mit der Antwort yNN dient, einen Da­ tenpunkt, der in einer Speichereinrichtung 19 gespeichert wird. Auf der Grundlage einer aus mehreren gespeicherten Da­ tenpunkten gegebenenfalls durch Clustern, Selektieren oder Mitteln gebildeten Trainingsdatenmenge wird in zyklischen Ab­ ständen ein Training des neuronalen Netzes 16 vorgenommen, wobei die Parameter p₁ und p₂ des neuronalen Netzes 16 mit­ tels des Adaptionsalgorithmus 8 adaptiv verändert werden. Die Parameter p₁ und p₂ können dieselben oder teilweise oder ganz unterschiedlich sein. Wird das zyklisch wiederholte Training als Hintergrund-Training durchgeführt, kann auf der Basis be­ liebig großer Trainingsdatenmengen und mit zeitaufwendigen global optimierenden Lernalgorithmen gearbeitet werden.
Nach Abschluß eines Hintergrundtrainings wird das neuronale Netz 16 zuerst einer on-line Adaption mit zumindest einem Teil der der Trainingsdatenmenge zugrundeliegenden Daten­ punkte unterzogen, bevor das neuronale Netz 16 wieder für die Steuerung der Anlage aktiviert wird und mit neuen Datenpunk­ ten on-line weitertrainiert wird. So wird sichergestellt, daß sich das neuronale Netz nach dem globalen Hintergrundtraining sofort wieder an die aktuelle Tagesform der zu steuernden An­ lage anpaßt.

Claims (15)

1. Lernverfahren für ein neuronales Netz zum Regeln oder Steuern eines, insbesondere industriellen, Prozesses mit sich zeitlich verändernden Parametern, wobei das neuronale Netz in zumindest zwei Ausführungen, einem Regel- bzw. Steuernetz, mit dem der Prozeß gesteuert bzw. geregelt wird und das mit aktuellen Prozeßdaten derart trainiert wird, daß es ein Ab­ bild des aktuellen Prozesses bildet, und einem Hintergrund­ netz, das während des Betriebes mit repräsentativen Prozeßda­ ten derart trainiert wird, daß es ein Abbild des Prozesses über einen längeren Zeitraum gemittelt bildet, ausgeführt wird, wobei das Regel- bzw. Steuernetz nach Ablauf einer be­ stimmten Lernzeit für das Hintergrundnetz oder aufgrund eines externen Ereignisses durch das Hintergrundnetz ersetzt wird.
2. Lernverfahren für ein neuronales Netz zum Regeln oder Steuern eines, insbesondere industriellen, Prozesses mit sich zeitlich verändernden Parametern, wobei das Lernen während des Prozeßablaufs in zwei Lernphasen unterteilt, einer Ini­ tiallernphase und einer Betriebslernphase, erfolgt, wobei die Menge der Trainingsdaten, mit denen das neuronale Netz trai­ niert wird, in der Initiallernphase wächst und die Anzahl der Trainingsdaten in der Betriebslernphase weitgehend konstant bleibt.
3. Lernverfahren für ein neuronales Netz zum Regeln oder Steuern eines, insbesondere industriellen, Prozesses mit sich zeitlich verändernden Parametern, wobei sich die Menge der Trainingsdaten, mit denen das neuronale Netz trainiert wird, ändert, und wobei die Größe des neuronalen Netzes an die Men­ ge der Trainingsdaten angepaßt wird.
4. Lernverfahren für ein neuronales Netz zum Regeln oder Steuern eines, insbesondere industriellen, Prozesses mit sich zeitlich verändernden Parametern, wobei das neuronale Netz in zumindest zwei Ausführungen, einem Regel- bzw. Steuernetz mit dem Prozeß gesteuert und geregelt wird und das mit aktuellen Prozeßdaten derart trainiert wird, daß es ein Abbild des ak­ tuellen Prozesses bildet und einem Hintergrundnetz, das wäh­ rend des Betriebes mit repräsentativen Prozeßdaten derart trainiert wird, daß es ein Abbild des Prozesses über einen längeren Zeitraum gemittelt bildet, ausgeführt wird, wobei das Regel- bzw. Steuernetz nach Ablauf einer bestimmten Lern­ zeit für das Hintergrundnetz oder aufgrund eines externen Er­ eignisses durch das Hintergrundnetz ersetzt wird, wobei das Trainieren des Regel- bzw. Steuernetzes während des Prozeß­ ablaufs in zwei Lernphasen unterteilt, einer Initiallernphase und einer Betriebslernphase, erfolgt, wobei die Menge der Trainingsdaten, mit denen das Hintergrundnetz trainiert wird, in der Initiallernphase wächst und die Menge der Trainings­ daten in der Betriebslernphase weitgehend konstant bleibt.
5. Lernverfahren für ein neuronales Netz zum Regeln oder Steuern eines, insbesondere industriellen, Prozesses mit sich zeitlich verändernden Parametern, wobei das neuronale Netz in zumindest zwei Ausführungen, einem Regel- bzw. Steuernetz mit dem Prozeß gesteuert und geregelt wird und das mit aktuellen Prozeßdaten derart trainiert wird, daß es ein Abbild des ak­ tuellen Prozesses bildet und einem Hintergrundnetz, das wäh­ rend des Betriebes mit repräsentativen Prozeßdaten derart trainiert wird, daß es ein Abbild des Prozesses über einen längeren Zeitraum gemittelt bildet, ausgeführt wird, wobei das Regel- bzw. Steuernetz nach Ablauf einer bestimmten Lern­ zeit für das Hintergrundnetz oder aufgrund eines externen Er­ eignisses durch das Hintergrundnetz ersetzt wird und wobei sich die Menge der Trainingsdaten, mit denen das Hintergrund­ netz trainiert wird, ändert und die Größe des Hintergrund­ netzes an die Menge der Trainingsdaten angepaßt wird.
6. Lernverfahren für ein neuronales Netz zum Regeln oder Steuern eines, insbesondere industriellen, Prozesses mit sich zeitlich verändernden Parametern, wobei das Lernen während des Prozeßablaufs in zwei Lernphasen unterteilt, einer Ini­ tiallernphase und einer Betriebslernphase, erfolgt, wobei die Menge der Trainingsdaten, mit denen das neuronale Netz trai­ niert wird, in der Initiallernphase wächst und die Menge der Trainingsdaten in der Betriebslernphase weitgehend konstant und wobei das neuronale Netze in der Initiallernphase mit der Zunahme der Trainingsdaten wächst.
7. Lernverfahren für ein neuronales Netz zum Regeln oder Steuern eines, insbesondere industriellen, Prozesses mit sich zeitlich verändernden Parametern, wobei das neuronale Netz in zumindest zwei Ausführungen, einem Regel- bzw. Steuernetz mit dem Prozeß gesteuert und geregelt wird und das mit aktuellen Prozeßdaten derart trainiert wird, daß es ein Abbild des ak­ tuellen Prozesses bildet, und einem Hintergrundnetz, das wäh­ rend des Betriebes mit repräsentativen Prozeßdaten derart trainiert wird, daß es ein Abbild des Prozesses über einen längeren Zeitraum gemittelt bildet, ausgeführt wird, wobei das Regel- bzw. Steuernetz nach Ablauf einer bestimmten Lern­ zeit für das Hintergrundnetz oder aufgrund eines externen Er­ eignisses durch das Hintergrundnetz ersetzt wird das Training des Regel- bzw. Steuernetzes während des Prozeßablaufs in zwei Lernphasen unterteilt, einer Initiallernphase und einer Betriebslernphase, erfolgt, wobei die Menge der Trainings­ daten, mit denen das Regel- bzw. Steuernetz trainiert wird, in der Betriebslernphase weitgehend konstant bleibt und in der Initiallernphase zunimmt und wobei das Hintergrundnetz in der Initiallernphase mit der Zunahme der Trainingsdaten wächst.
8. Verfahren nach Anspruch 1, 4, 5 oder 7, dadurch gekennzeichnet, daß sich die Lernzeit für das Hintergrundnetz nach den Zeitkonstanten der Parameterver­ änderungen des Prozesses richtet.
9. Verfahren nach Anspruch 1, 4, 5, 7 oder 8, da­ durch gekennzeichnet, daß mehrere Hinter­ grundnetze gleichzeitig, aber zeitlich versetzt, trainiert werden.
10. Verfahren nach Anspruch 1, 4, 5, 7, 8 oder 9, da­ durch gekennzeichnet, daß ein Hinter­ grundnetz vor Übernahme von Steuer- und Regelungsaufgaben auf Plausibilität z. B. durch Durchlaufen eines speziellen Testda­ tensatzes oder durch parallelen Einsatz mit dem Regel- bzw. Steuernetz überprüft wird, wobei die Ausgänge der beiden Net­ ze verglichen werden und einen bestimmten Toleranzwert nicht überschreiten dürfen.
11. Verfahren nach Anspruch 1, 4, 5, 7, 8, 9 oder 10, da­ durch gekennzeichnet, daß das Hinter­ grundnetz vor einem Ersetzen des Regel- bzw. Steuernetzes durch das Hintergrundnetz einem kurzen Training mit aktuellen Prozeßdaten unterzogen wird, so daß es an die aktuelle Tages­ form der zu steuernden Anlage angepaßt ist.
12. Verfahren nach Anspruch 3, 5, 6, 7, 8, 9, 10 oder 11, dadurch gekennzeichnet, daß das Wachstum eines neuronalen Netzes in der Lernphase durch Ein­ fügen von einzelnen Zusatzknoten und Entfernen von Knoten mit sehr geringem Gewicht erfolgt.
13. Einrichtung zur Durchführung des Verfahrens nach einem oder mehreren der Ansprüche 1 bis 12, dadurch ge­ kennzeichnet, daß sie eine Prozeßrecheneinheit aufweist.
14. Einrichtung nach Anspruch 13, dadurch ge­ kennzeichnet, daß die Prozeßrecheneinheit als Einchiprechner, z. B. als Mikrocontroller oder als Mehrchip­ rechner, insbesondere als ein Einplatinenrechner oder als ein Automatisierungsgerät, ausgebildet ist.
15. Einrichtung nach Anspruch 14, dadurch ge­ kennzeichnet, daß das Automatisierungsgerät als speicherprogrammierbare Steuerung, als VME-Bussystem oder als Industrie-PC ausgebildet ist.
DE19624301A 1995-07-27 1996-06-18 Lernverfahren für ein neuronales Netz Expired - Fee Related DE19624301B4 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE19624301A DE19624301B4 (de) 1996-06-18 1996-06-18 Lernverfahren für ein neuronales Netz
US08/686,792 US6745169B1 (en) 1995-07-27 1996-07-26 Learning process for a neural network

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE19624301A DE19624301B4 (de) 1996-06-18 1996-06-18 Lernverfahren für ein neuronales Netz

Publications (2)

Publication Number Publication Date
DE19624301A1 true DE19624301A1 (de) 1998-01-08
DE19624301B4 DE19624301B4 (de) 2006-08-17

Family

ID=7797272

Family Applications (1)

Application Number Title Priority Date Filing Date
DE19624301A Expired - Fee Related DE19624301B4 (de) 1995-07-27 1996-06-18 Lernverfahren für ein neuronales Netz

Country Status (1)

Country Link
DE (1) DE19624301B4 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1408384A1 (de) * 2002-10-09 2004-04-14 STMicroelectronics S.r.l. Anordnung zur Steuerung des Betriebs eines physikalischen Systems wie zum Beispiel einer Brennstoffzelle in elektrischen Fahrzeugen
WO2013083872A1 (en) * 2011-12-09 2013-06-13 Convion Oy Method and arrangement for indicating solid oxide cell operating conditions
WO2013083873A1 (en) * 2011-12-09 2013-06-13 Convion Oy Method and arrangement for diagnosis of solid oxide cells operating conditions

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11447935B2 (en) 2019-04-30 2022-09-20 Deere & Company Camera-based boom control

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0609999A1 (de) * 1993-02-01 1994-08-10 AT&T Corp. Differentialprozessregelung mit künstlichen neuronalen Netzwerken
DE4416364A1 (de) * 1993-05-17 1994-11-24 Siemens Ag Verfahren und Regeleinrichtung zur Regelung eines Prozesses
US5396415A (en) * 1992-01-31 1995-03-07 Honeywell Inc. Neruo-pid controller

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5396415A (en) * 1992-01-31 1995-03-07 Honeywell Inc. Neruo-pid controller
EP0609999A1 (de) * 1993-02-01 1994-08-10 AT&T Corp. Differentialprozessregelung mit künstlichen neuronalen Netzwerken
DE4416364A1 (de) * 1993-05-17 1994-11-24 Siemens Ag Verfahren und Regeleinrichtung zur Regelung eines Prozesses

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Automatica, Bd. 28, Nr. 6, S. 1083-1084, 1992 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1408384A1 (de) * 2002-10-09 2004-04-14 STMicroelectronics S.r.l. Anordnung zur Steuerung des Betriebs eines physikalischen Systems wie zum Beispiel einer Brennstoffzelle in elektrischen Fahrzeugen
WO2013083872A1 (en) * 2011-12-09 2013-06-13 Convion Oy Method and arrangement for indicating solid oxide cell operating conditions
WO2013083873A1 (en) * 2011-12-09 2013-06-13 Convion Oy Method and arrangement for diagnosis of solid oxide cells operating conditions

Also Published As

Publication number Publication date
DE19624301B4 (de) 2006-08-17

Similar Documents

Publication Publication Date Title
DE4433593B4 (de) Verfahren zur Regelung eines Extruders und Vorrichtung dazu
EP2185980B1 (de) Verfahren zur rechnergestützten steuerung und/oder regelung mit hilfe neuronaler netze
DE69219167T2 (de) Steuerungsverfahren für Spannung oder Blindleistung sowie Steuereinrichtung dafür
EP3662418B1 (de) Verfahren und vorrichtung für maschinelles lernen in einer recheneinheit
EP0663632B1 (de) Verfahren und Vorrichtung zur Führung eines Prozesses
DE102004026979A1 (de) Vielfacheingabe- /Vielfachausgabe-Steuer-/Regelblöcke mit nichtlinearen Vorhersagefähigkeiten
DE4338615A1 (de) Verfahren und Vorrichtung zur Führung eines Prozesses in einem geregelten System
DE102012009502A1 (de) Verfahren zum Trainieren eines künstlichen neuronalen Netzes
DE19702951A1 (de) Verfahren und Vorrichtung zur Steuerung der Nitrifikations- und Denitrifikationsphase
DE4131765A1 (de) Regelparameter-verbesserungsverfahren fuer industrielle anlagen
DE102019214548A1 (de) Steuervorrichtung und steuerverfahren
WO2020187591A1 (de) Verfahren und vorrichtung zum ansteuern eines roboters
EP0531712A2 (de) Regler, insbesondere Flugregler
DE19637917C2 (de) Verfahren und Einrichtung zum Entwurf oder zur Steuerung des Prozeßablaufs einer Anlage der Grundstoffindustrie
EP1055180B1 (de) Verfahren und anordnung zum entwurf eines technischen systems
WO2021259980A1 (de) Training eines künstlichen neuronalen netzwerkes, künstliches neuronales netzwerk, verwendung, computerprogramm, speichermedium und vorrichtung
DE19624301A1 (de) Lernverfahren für ein neuronales Netz
DE69808779T2 (de) Verfahren zum vermeiden von windup in pid-reglern durch nichtlineare verstärkung
DE102019206541A1 (de) Verfahren zum Durchführen von computerunterstützten XiL-Simulationen
WO2018091592A1 (de) Einrichtung und verfahren zur bestimmung der parameter einer regeleinrichtung
DE19527521C1 (de) Lernverfahren für ein neuronales Netz
EP1542102A1 (de) Verfahren und Vorrichtung zur suboptimalen Regelung mittels einer Suchstrategie und Verfahren und Vorrichtung zur Gaszerlegung, insbesondere zur Tieftemperatur-Luftzerlegung
DE102020208358A1 (de) Verfahren zur Regelung eines Regelsystems, Trainingsverfahren, Computerprogramm, Speichermedium und Steuereinheit.
EP0700536A1 (de) Regeleinrichtung
DE10041439A1 (de) Automatische Abstimmungseinrichtung für einen Regelkreis basierend auf nicht linearen Schätzern der Abstimmregeln

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8364 No opposition during term of opposition
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee

Effective date: 20130101