DE19832967C1 - Verfahren zur rechnergestützten Ermittlung einer Ausgangsgröße, Verfahren zum rechnergestützten Training eines neuronalen Netzes, Anordnung zur rechnergestützten Ermittlung einer Ausgangsgröße und Anordnung zum rechnergestützten Training eines neuronalen Netzes sowie deren jeweilige Verwendung - Google Patents

Verfahren zur rechnergestützten Ermittlung einer Ausgangsgröße, Verfahren zum rechnergestützten Training eines neuronalen Netzes, Anordnung zur rechnergestützten Ermittlung einer Ausgangsgröße und Anordnung zum rechnergestützten Training eines neuronalen Netzes sowie deren jeweilige Verwendung

Info

Publication number
DE19832967C1
DE19832967C1 DE19832967A DE19832967A DE19832967C1 DE 19832967 C1 DE19832967 C1 DE 19832967C1 DE 19832967 A DE19832967 A DE 19832967A DE 19832967 A DE19832967 A DE 19832967A DE 19832967 C1 DE19832967 C1 DE 19832967C1
Authority
DE
Germany
Prior art keywords
variable
neural network
arrangement according
determined
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE19832967A
Other languages
English (en)
Inventor
Willfried Wienholt
Joachim Bamberger
Martin Schlang
Helmut Liepold
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens AG
Original Assignee
Siemens AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG filed Critical Siemens AG
Priority to DE19832967A priority Critical patent/DE19832967C1/de
Application granted granted Critical
Publication of DE19832967C1 publication Critical patent/DE19832967C1/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

In einem Verfahren zur rechnergestützten Ermittlung einer Ausgangsgröße mittels eines neuronalen Netzes wird eine erste Variable eines Datenpaars, das die erste Variable und eine zweite Variable umfaßt, wobei die erste Variable eine unabhängige Variable und die zweite Variable eine von der ersten Variablen abhängige Variable ist, als Eingangsgröße an ein neuronales Netz angelegt. Unter Verwendung des neuronalen Netzes, das unter Verwendung von Datenpaaren, die mittels eines weiteren neuronalen Netzes generiert werden, trainiert wurde und das die Abbildung der Eingangs- auf die Ausgangsgröße mittels Basisfunktionen durchführt, wird eine Verbunddichte der beiden Variablen geschätzt. Ausgehend von der Verbunddichte wird mittels des neuronalen Netzes der bedingte Erwartungswert der zweiten Variable unter der Bedingung der ersten Variable, der als bestmögliche Schätzung der exakten Lösung gilt, bestimmt.

Description

Die Erfindung betrifft ein Verfahren und eine Anordnung für die rechnergestützte Ermittlung einer Ausgangsgröße unter Verwendung eines zweiten neuronalen Netzes, bei dem das zweite neuronale Netz die Ausgangsgröße mittels Basisfunktionen aus einer an das zweite neuronale Netz angelegten Eingangsgröße ermittelt, sowie deren Verwendung. Ferner betrifft die Erfindung ein Verfahren und eine Anordnung für das rechnergestützte Training eines zweiten neuronalen Netzes, bei dem das zweite neuronale Netz jeweils ein Trainingsdatenpaar mittels Basisfunktionen auf eine Ausgangsgröße abbildet.
In vielen Gebieten der Technik wird das Verhalten eines technischen Systems durch einen Zusammenhang zwischen Eingangsgrößen und einer Ausgangsgröße beschrieben. Dabei werden die Eingangsgrößen des Systems mittels des Zusammenhangs einer Systembeschreibung auf die Ausgangsgröße des Systems abgebildet. Für eine Steuerung und/oder Regelung des technischen Systems ist die Kenntnis der inversen Systembeschreibung, anschaulich darstellbar durch die Fragestellung, welche Eingangsgrößen dem technischen System vorgegeben werden müssen, um eine Ausgangsgröße zu erreichen, notwendig. Für ein komplexes technisches System ist die inverse Systembeschreibung analytisch oftmals nicht bestimmbar. Aus [3] ist bekannt, die inverse Systembeschreibung unter Verwendung eines neuronalen Netzes zu ermitteln.
Ferner ist aus [1] bekannt, daß die Steuerung und/oder Regelung eines technischen Systems, in diesem Fall eine Papierwickelvorrichtung für die Herstellung von Papier, unter Verwendung der inverse Systembeschreibung des technischen Systems durchgeführt wird.
Bei der Herstellung von Papier wird dieses in einer bis zu 10 Meter breiten Bahn auf eine als Tambour bezeichnete Wickelvorrichtung zur Zwischenspeicherung und Weiterverarbeitung aufgewickelt. Der Durchmesser einer aufgewickelten Papierbahn beträgt dabei ca. 1,5 Meter. Bei ihrer weiteren Verarbeitung wird die Papierbahn vom Tambour wieder abgewickelt und durchläuft einen Rollenschneider zur Konfektionierung nach kundenspezifischen Vorgaben. Auf dem Rollenschneider wird die Papierbahn in Papierbahnbreiten unterschiedlicher Breite geschnitten und auf Hülsen gewickelt, welche an Kunden ausgeliefert werden.
Das Abwickeln des Papiers vom Tambour und das erneute Aufwickeln des geschnittenen Papiers auf die Hülsen ist aus mehreren Gründen schwierig:
Das Aufwickeln der Papierbahn auf den Tambour erfolgt unter Zugspannung in horizontaler Richtung und durch Anpressung in radialer Richtung zu dem Tambour. Viskoelastische Effekte des Papiers kommen hier zum Tragen. Durch die bei diesem Aufwickelmechanismus auftretenden Kräfte entstehen im Papier Spannungen. Diese Spannungen führen zu irreversiblen Änderungen der Papiereigenschaften.
Beim Wickelvorgang der Papierbahn vom Tambour auf eine Rolle wird das Papier wiederum tangentialen und radialen Kräften ausgesetzt. Das Ziel dieses Wickelvorgangs ist es, die entstehende Papierrolle in einer optimalen Wickelgüte aufzurollen. Wird das Papier zu fest aufgewickelt, dann ist die im Wickel auftretende Spannung so groß, daß das Papier irreparabel beschädigt und unbrauchbar wird. Sind die Wickelkräfte zu klein bemessen, dann wird das Papier zu locker aufgewickelt. In diesem Fall neigt der Wickel zum Teleskopieren, das heißt, die inneren Lagen können herausrutschen.
Einen hinsichtlich der Wickelgüte optimalen Wickel zu produzieren bedeutet somit, den Wickel zur Vermeidung von Schäden nicht zu fest, aber auch nicht zu locker aufzuwickeln. Da die Materialeigenschaften des gewickelten Papiers sortenspezifisch variieren, handelt es sich bei dem oben dargestellten Wickelmechanismus um ein sehr komplexes Problem.
Als Maß für die Beurteilung der Qualität des entstehenden Wickels und somit der Wickelgüte dient die Wickelhärte. Eine zu der Wickelhärte äquivalente Kenngröße ist die Prozeßgröße mittlere Lagendicke:
Während des Aufrollvorgangs wird die Anzahl aufgewickelter Lagen und die Radiuszunahme bestimmt. Gemittelt über üblicherweise 100 Lagen erhält man so die mittlere Lagendicke. Üblicherweise trägt man die mittlere Lagendicke über den Durchmesser auf. Diese Kurve wird als Aufrollung bezeichnet. Der Verlauf einer solchen Kurve gibt Aufschluß über die Qualität eines Wickels. Da die Kurve starke Schwankungen aufweist, ist eine Interpretation der Kurve hinsichtlich der Qualität des Wickels erschwert. In der Praxis bezeichnet man einen Wickel als optimal gewickelt, wenn die Aufrollkurve mit Ausnahme der ersten 500 Millimeter Durchmesser einen sonst nahezu konstanten Verlauf hat. Zur Beurteilung zieht man den Mittelwert der Kurve heran.
Die Kraft, die während des Abwickelns in horizontaler Richtung auf das Papier bzw. während des Aufwickeln in horizontaler Richtung auf die Papierbahn wirkt, wird als Bahnzug bezeichnet. Die in vertikaler Richtung auf das Papier bzw. auf die Papierbahn wirkende Kraft wird als Linienkraft bezeichnet.
Aus [1] und [2] ist jeweils ein mathematisch funktionaler Zusammenhang zwischen Bahnzug und physikalischen Größen, die den Zustand des aufgewickelten Papiers beschreiben, wie mittlere Lagendicke, Wickelhärte, Tangential- und Radialspannung, bekannt. Die in [1] oder [2] beschriebenen Verfahren weisen aber den Nachteil auf, daß sie für die funktionalen Zusammenhänge idealisierte Wickelbedingungen voraussetzen und damit für den Einsatz im realen Wickelbetrieb nicht geeignet sind. Insbesondere werden weder die Linienkraft noch die mit ihr verknüpften Effekte am Nip, das ist die Stelle, an der das Papier auf den Wickel drückt, berücksichtigt.
Sowohl Linienkraft als auch Bahnzug beeinflussen die Stärke der Kompression während des Wickelvorganges. Der Zusammenhang zwischen der mittleren Lagendicke, dem Bahnzug und der Linienkraft ist aber nur qualitativ beschreibbar. Mit zunehmender Größe des Bahnzugs und der Linienkraft nimmt die Wickelhärte zu. Die mathematische Beschreibung dieses Zusammenhangs kann in folgender Form dargestellt werden:
z = f(x, y) [Gleichung 1]
mit:
z: mittlere Lagendicke,
x: Bahnzug,
y: Linienkraft.
Hinsichtlich der Steuerung einer Wickelvorrichtung unter Berücksichtigung einer angestrebten Wickelgüte ist aber ein quantitativer Zusammenhang zwischen den Steuergrößen Bahnzug und Linienkraft und der Prozeßgröße mittlere Lagendicke notwendig.
Die Lösung dieses Problems beschreibt die inverse Form der oben dargestellten Systembeschreibung [Gleichung 1]
(x, y) = f-1 (z) [Gleichung 2]
unter der Nebenbedingung:
x = g(y). [Gleichung 3]
Die Nebenbedingung ergibt sich daraus, daß die Steuergröße Bahnzug x und die Steuergröße Linienkraft y auf Grund von Geometrie und Verfahrensführung in jedem Einzelfall in einer bestimmten Beziehung zueinander stehen.
Da aber die qualitative Beschreibung entsprechend der Gleichung 1, der Gleichung 2 und der Gleichung 3 unbekannt ist und damit die analytische Beschreibung der inversen Systembeschreibung entsprechend Gleichung 2 nicht bekannt ist, wird eine approximative Lösung gesucht.
Aus [3] ist bekannt, für die Lösung einer inversen Systembeschreibung entsprechend Gleichung 2 ein neuronales Netz zu verwenden. Ferner ist in [3] beschrieben, wie ein neuronales Netz für die Modellierung der bedingten Dichte von Systemgrößen verwendet wird.
Dieses Lösungsverfahren weist jedoch Nachteile auf. Sehr große Datenmengen sind für das Training eines solchen neuronalen Netzes nötig. Auch ist aufgrund der großen Datenmenge die Zeit, die für das Training eines solchen neuronalen Netzes benötigt wird, lang.
Aus [8] ist bekannt, Parameter eines neuronalen Netzes unter Verwendung des EM-Algorithmus durch Minimierung der negativen LogLikelihood zu bestimmen.
Ferner ist aus [5] bekannt, eine Ausgangsgröße eines neuronalen Netzes unter Verwendung von radialen Basisfunktionen zu ermitteln. Ein Nachteil eines solchen neuronalen Netzes mit radialen Basisfunktionen liegt darin, daß große Datenmengen zum Training des neuronalen Netzes notwendig sind, und damit auch die Ungenauigkeit des Verfahrens steigt.
Ferner ist aus [7] bekannt, Parameter eines neuronalen Netzes durch ein sogenanntes Cluster-Verfahren zu initialisieren.
Aus [4] ist eine Approximation unter Verwendung eines neuronalen Netzes bekannt.
Aus [6] ist bekannt, daß ein bedingter Erwartungswert einer ersten Variable unter der Bedingung einer zweiten Variable die beste Schätzung des analytisch exakten Wertes der ersten Variable im Sinne des kleinsten quadratischen Fehlers ist.
Somit liegt der Erfindung das Problem zugrunde, Verfahren und Anordnungen der eingangs genannten Art zu schaffen, um rechnergestützt eine inverse Systembeschreibung schnell und einfach zu ermitteln.
Das Problem wird durch die Verfahren mit den Merkmalen gemäß den unabhängigen Ansprüchen 1 und 15 sowie die Anordnungen mit den Merkmalen gemäß den unabhängigen Ansprüchen 28 und 42 gelöst.
Bei dem Verfahren zur rechnergestützten Ermittlung einer Ausgangsgröße unter Verwendung eines zweiten neuronalen Netzes, bei dem das zweite neuronale Netz die Ausgangsgröße mittels Basisfunktionen aus einer an das zweite neuronale Netz angelegten Eingangsgröße ermittelt, wird eine erste Variable eines Datenpaars, das die unabhängige erste Variable und eine von der ersten Variablen abhängigen zweiten Variable umfaßt, als Eingangsgröße an das zweite neuronale Netz, dessen Abbildung die Eingangsgröße mittels Basisfunktionen auf eine Ausgangsgröße abbildet, angelegt. Der Erwartungswert, der ein bedingter Erwartungswert der zweiten Variable unter der Bedingung der ersten Variable ist, wird als die Ausgangsgröße des zweiten neuronalen Netzes ausgegeben. Das zweite neuronale Netz wurde unter Verwendung von Trainingsdatenpaaren, die mittels eines ersten neuronalen Netzes generiert wurden, trainiert.
Bei dem Verfahren zum rechnergestützten Training eines zweiten neuronalen Netzes, bei dem das zweite neuronale Netz jeweils ein Trainingsdatenpaar mittels Basisfunktionen auf eine Ausgangsgröße abbildet, wird das zweite neuronale Netz unter Verwendung von den Trainingsdatenpaaren, die eine erste und eine zweite Variable umfassen, wobei die erste Variable eine unabhängige Variable und die zweite Variable eine von der ersten Variable abhängige Variable ist, trainiert. Als Zielgröße zum Training des zweiten neuronalen Netzes wird eine Trainingsverbunddichte an das zweite neuronale Netz angelegt. Ein Trainingsdatenpaar wird dadurch bestimmt, daß die erste Variable an ein erstes neuronales Netz angelegt wird und mittels des ersten neuronalen Netzes die zweite Variable bestimmt wird.
Bei der Anordnung zur rechnergestützten Ermittlung einer Ausgangsgröße mit einem zweiten neuronalen Netz, wobei das zweite neuronale Netz derart eingerichtet ist, daß die Ausgangsgröße mittels Basisfunktionen aus einer an das zweite neuronale Netz angelegten Eingangsgröße ermittelbar ist, ist ein Eingang eines ersten neuronalen Netzes, an dem ein Datenpaar, das eine unabhängige erste Variable und eine von der ersten Variablen abhängige zweite Variable umfaßt, anlegbar ist, und ein Ausgang des ersten neuronalen Netzes, an dem die zweite Variable abgreifbar ist, vorgesehen. Weiter ist ein Eingang des zweiten neuronalen Netzes, an dem das Datenpaar anlegbar ist, und ein Ausgang des zweiten neuronalen Netzes, an dem ein Erwartungswert, der ein bedingter Erwartungswert der zweiten Variable unter der Bedingung der ersten Variable ist, als Ausgangsgröße abgreifbar ist, vorgesehen. Das zweite neuronale Netz ist derart eingerichtet, daß das zweite neuronale Netz unter Verwendung von Trainingsdatenpaaren, die mittels des ersten neuronalen Netzes generiert wurden, trainierbar ist.
Die Anordnung zum rechnergestützten Training eines zweiten neuronalen Netzes weist einen Prozessor auf, der derart eingerichtet ist, daß unter Verwendung des zweiten neuronalen Netzes jeweils ein Trainingsdatenpaar mittels Basisfunktionen auf eine Ausgangsgröße abbildbar ist. Im weiteren ist der Prozessor derart eingerichtet, so daß folgende Schritte durchführbar sind:
  • a) das Trainingsdatenpaar, das eine erste Variable und eine zweite Variable umfaßt, wobei die erste Variable eine unabhängige Variable und die zweite Variable eine von der ersten Variablen abhängige Variable ist, wird derart bestimmt, daß die erste Variable an ein erstes neuronale Netz angelegt und mittels des ersten neuronalen Netzes die zweite Variable bestimmt wird;
  • b) eine Trainingsverbunddichte wird als Zielgröße zu dem Training des zweiten neuronalen Netzes verwendet.
Ein besonderer Vorteil der Erfindung liegt im geringen Meßaufwand, der für die Durchführung der Verfahren und/oder für die Entwicklung der Anordnungen gemäß der Erfindung notwendig ist. Der Vorteil ergibt sich dadurch, daß die Trainingsdatenpaare zum Training des zweiten neuronalen Netzes mittels eines ersten neuronalen Netzes generiert und nicht gemessen werden.
Bevorzugte Weiterbildungen der Erfindung ergeben sich aus den abhängigen Ansprüchen.
In einer Weiterbildung ist es vorgesehen, aus dem Erwartungswert, der mittels des zweiten neuronalen Netzes bestimmt wird, die abhängige zweiten Variable zu ermitteln.
Vorzugsweise sind/ist die erste Variable und/oder die zweite Variable mehrdimensionale Vektoren/ein mehrdimensionaler Vektor.
Zur weiteren Vereinfachung ist es ferner in einer Weiterbildung vorgesehen, Parameter des zweiten neuronalen Netzes mittels eines EM-Algorithmus zu bestimmen.
Eine weitere Vereinfachung ergibt sich in einer Ausgestaltung, wenn als Basisfunktionen Gauß-Funktionen verwendet werden.
Vorzugsweise wird unter Verwendung der zweiten Variable und/oder des ersten neuronalen Netzes eine dritte Variable bestimmt. Bevorzugt ist die dritte Variable die erste Variable.
In einer bevorzugten Weiterbildung sind die zweite Variable und die dritte Variable ein weiteres Datenpaar.
Hinsichtlich eines realen Abbildungsverhalten des zweiten neuronalen Netzes ist es vorteilhaft, die Trainingsdatenpaare durch eine Approximation unter Verwendung eines neuronalen Netzes zu ermitteln.
In einer Weiterbildung kann die Anordnung bzw. das Verfahren für eine Regelung einer technischen Anlage eingesetzt werden.
Ebenso kann die Anordnung bzw. das Verfahren für eine Steuerung einer technischen Anlage eingesetzt werden.
Die erste Variable und/oder die zweite Variable können/kann eine Prozeßgröße und/oder eine Steuergröße der technischen Anlage beschreiben.
Zur Erhöhung der Wickelgüte eines durch eine Papierwickelvorrichtung produzierten Papierwickels, ist es vorteilhaft, die Anordnung bzw. das Verfahren zur Regelung und/oder zur Steuerung der Papierwickelvorrichtung einzusetzen.
Besonders einfach ist eine Regelung und/oder eine Steuerung der Papierwickelvorrichtung, wenn die erste Variable eine mittlere Lagendicke und/oder die zweite Variable einen Bahnzug und eine Linienkraft beschreiben/beschreibt.
In einer Weiterbildung hängt die Trainingsverbunddichte von der ersten Variablen und der zweiten Variablen ab.
Ein Ausführungsbeispiel der Erfindung ist in den Fig. 1 bis 4 dargestellt und wird im weiteren näher erläutert.
Es zeigen:
Fig. 1 Schematische Darstellung der Modellierung einer Papierwickelvorrichtung
Fig. 2 Äußere Struktur des zweiten neuronalen Netzes
Fig. 3 Innere Struktur des zweiten neuronalen Netzes
Fig. 4 Schematische Darstellung des Zusammenwirkens des ersten und des zweiten neuronalen Netzes
In Fig. 1 ist schematisch gezeigt, wie eine Weiterbildung der Erfindung zur Modellierung und für die Steuerung bzw. für die Regelung einer Papierwickelvorrichtung eingesetzt wird.
1. Schritt: Messung von Betriebspunkten einer Papierwickelvorrichtung (Schritt 101)
Während des Betriebs einer Papierwickelvorrichtung werden vorgegebene Werte für eine Steuergröße Bahnzug x und eine Steuergröße Linienkraft y an der Papierwickelvorrichtung eingestellt und während eines Wickelvorgangs, bei dem ein kompletter Wickel produziert wird, in etwa konstant gehalten.
Der Variationsbereich der eingestellten Werte für die Steuergröße Bahnzug x liegt zwischen 6 bis 12 N/cm, der Variationsbereich für die Steuergröße Linienkraft y liegt zwischen 17 und 45 N/cm.
Für jeden durch einen vorgegebenen Bahnzug x und eine vorgegebene Linienkraft y an der Papierwickelvorrichtung eingestellten Arbeitspunkt (x, y) wird eine mittlere Lagendicke z eines unter den am Arbeitspunkt (x, y) herrschenden Arbeitsbedingungen produzierten Wickels bestimmt.
Dieses Vorgehen wird für 16 eingestellte Arbeitspunkte (x, y) ausgeführt, so daß 16 Datentripel (x, y, z) bestehend aus den entsprechenden Werten für die Steuergröße Bahnzug x, die Steuergröße Linienkraft y und die Prozeßgröße mittlere Lagendicke z erzeugt werden.
2. Schritt: Modellierung des Systemverhaltens der Papierwickelvorrichtung durch das erste neuronale Netz (Schritt 102)
Mit Hilfe dieser 16 Datentripel (x, y, z) wird ein erstes neuronales Netz trainiert. Als Zielgröße für das Training wird die Prozeßgröße mittlere Lagendicke z verwendet. Das trainierte erste neuronale Netz beschreibt mit ihrer Abbildung das Systemverhalten der Papierwickelvorrichtung entsprechen Gleichung 1:
z = f (x, y) [Gleichung 1]
mit:
z: mittlere Lagendicke,
x: Bahnzug,
y: Linienkraft.
Unter Verwendung des ersten neuronalen Netzes wird eine Approximation, wie aus [4] bekannt ist, durchgeführt.
3. Schritt: Generierung von Trainingsdatenpaaren für das Training des zweiten neuronalen Netzes unter Verwendung des trainierten ersten neuronalen Netzes (Schritt 103)
Mit Hilfe des trainierten ersten neuronalen Netzes werden Trainingsdatenpaare (u, v) für das Training des zweiten neuronalen Netzes generiert.
Die Trainingsdatenpaare (u, v) haben folgende Gestalt:
u = z: Variable für die Prozeßgröße mittlere Lagendicke z
v = (x, y): Variable für den Vektor aus der Steuergröße Bahnzug x und der Steuergröße Linienkraft y
Es werden Werte für die Steuergröße x aus dem Intervall [4; 12] N/cm in Schritten von 0,1 N/cm (81 Werte) und Werte für die Steuergröße y aus dem Intervall [15; 50] N/cm in Schritten von 0,5 N/cm (71) an das erste neuronale Netz angelegt. Das erste neuronale Netz bestimmt für jede Kombination der Steuergröße x und der Steuergröße y aus dem entsprechenden Intervall die entsprechende Prozeßgröße mittlere Lagendicke. Damit werden 5751 (81 Werte für x . 71 Werte für y) Trainingsdatenpaare (u, v) generiert.
4. Schritt: Training des zweiten neuronalen Netzes unter Verwendung der generierten Trainingsdatenpaare (Schritt 104)
Die in dem 3. Schritt generierten Datenpaare werden für das Training des zweiten neuronalen Netzes verwendet. Als Zielgröße für das Training wird die Verbunddichte p(u, v) verwendet.
Die detaillierte Struktur und Funktionsweise des zweiten neuronalen Netzes ist in Fig. 2 und 3 dargestellt.
5. Schritt: Bestimmung von diskreten Arbeitspunkten der Papierwickelvorrichtung für vorgegebene Werte für die Prozeßgröße mittlere Lagendicke z unter Verwendung des trainierten zweiten neuronalen Netzes (Schritt 105)
Unter Verwendung des trainierten zweiten neuronalen Netzes werden für einen vorgegebenen und für eine gewünschte Wickelgüte notwendigen Wert für die Prozeßgröße mittlere Lagendicke z die entsprechenden, an der Papierwickelvorrichtung einstellbaren, Werte für die Steuergröße Bahnzug x und die Steuergröße Linienkraft y ermittelt. Der diskrete Wert für die Steuergröße Bahnzug x und der entsprechende diskrete Wert für die Steuergröße Linienkraft y legt einen diskreten Arbeitspunkt der Papierwickelvorrichtung fest.
Da sich bei einem Wickelvorgang die mittlere Lagendicke z mit Veränderung des Durchmessers des Wickels ändert, werden für vorgegebene mittlere Lagendicken z aus dem Intervall [95; 103] µm entsprechende diskrete Arbeitspunkte (x, y) bestimmt.
6. Schritt: Bestimmung einer kontinuierlichen Arbeitslinie der Papierwickelvorrichtung (Schritt 106)
Für die im 5. Schritt ermittelten diskreten Arbeitspunkte (x, y) wird mittels einer Interpolation mit kubischen Splines eine kontinuierliche Arbeitslinie der Papierwickelvorrichtung bestimmt.
Zur Kontrolle des Verfahrens werden für beliebige Arbeitspunkte (x, y) dieser Arbeitslinie unter Verwendung des ersten neuronalen Netzes entsprechende zweite Werte für die mittlere Lagendicke z bestimmt und diese mit den vorgegebenen mittleren Lagendicken z (siehe 5. Schritt) verglichen.
In Fig. 4 ist schematisch das Zusammenwirken des ersten neuronalen Netzes 401 und des zweiten neuronalen Netzes 402 dargestellt.
Unter Verwendung des ersten neuronalen Netzes 401 werden, wie in Fig. 1 gemäß Schritt 101 und 102 beschrieben ist, Trainingsdatenpaare 403 ermittelt. Unter Verwendung dieser Trainingsdatenpaare 403 wird das zweite neuronale Netz 402 trainiert.
In Fig. 2 ist die Struktur des zweiten neuronalen Netzes dargestellt.
Als Eingangsgröße des zweiten neuronalen Netzes 201 wird die Prozeßgröße mittlere Lagendicke als eine erste Variable u an das zweite neuronale Netz 202 angelegt. Unter Verwendung des zweiten neuronalen Netzes wird die Verbunddichte p(u, v) 203 der Variablen u und einer Variablen v 205, die einen Vektor bestehend aus der Steuergröße Bahnzug und der Steuergröße Linienkraft ist, geschätzt. Aus der Verbunddichte wird der bedingte Erwartungswert E[vIu] 204 der Variablen v unter der Bedingung der Variablen u als Ausgangsgröße des zweiten neuronalen Netzes bestimmt. Der bedingte Erwartungswert E[vIu] 204 der Variablen v unter der Bedingung der Variablen u gilt als die bestmögliche Schätzung für die Steuergrößen Bahnzug und Linienkraft beschrieben durch die zweite Variable v 205, wie aus [6] bekannt ist.
Dabei werden folgende Zusammenhänge verwendet:
Gegeben seien endlich viele Realisierungen D: = [u(i),v(i)]i=1,...,N der ersten Variable u und der zweiten Variable v der Dimension Du bzw. Dv. (u: Prozeßgröße mittlere Lagendicke, v: Vektor für die Steuergröße Bahnzug und Linienkraft). Die Verbunddichte p(u, v) läßt sich unter Verwendung des zweiten neuronalen Netzes 202 mit einer endlichen Anzahl M von Basisfunktionen, mit denen eine Eingangsgröße des zweiten neuronalen Netzes auf eine Ausgangsgröße abgebildet wird, und die als Kerne ø(k) bezeichnet werden, schätzen:
P(k) ist die apriori Wahrscheinlichkeit, daß unter Verwendung des Kerns k der Datensatz (u, v) erzeugt wurde. Die Kerne ϕ(k) bestehen aus einem Produkt eindimensionaler Gauss-Funktionen:
Es gilt:
mit:
µ: Erwartungswert
σ: Varianz
z: Zufallsgröße
p(z; µ, σ): Wahrscheinlichkeitsdichtefunktion
Im weiteren wird angenommen, daß R = (-∞, ∞) gilt. Es läßt sich zeigen, daß bei hinreichend groß gewähltem M die Verbunddichte p(u, v) beliebig genau approximiert werden kann. Die Parameter des zweiten neuronalen Netzes 202 werden mittels des EM-Algorithmus durch Minimierung der negativen LogLikelihood
mit:
i: Index
N: Anzahl der verwendeten Trainingsdaten bestimmt [8].
Bedingt durch die Verwendung eines Produktes von eindimensionalen Gauss-Funktionen hat der EM-Algorithmus eine besonders einfache Struktur.
Die Abbildung des zweiten neuronalen Netzes 202 entspricht einem dreischichtigen neuronalen Netz (Fig. 3): Eine zweite Schicht 301 besteht aus den M Kernen 302. Jeder dieser Kerne erhält als Eingabe den Datensatz (u, v) einer ersten Schicht 303. An Ausgang der zweiten Schicht werden die Kerne mit der zugehörigen apriori Wahrscheinlichkeit gewichtet und ergeben aufsummiert die Verbunddichte p(u, v) 304:
Weiterhin gilt:
mit dv = dv1 ... dvDv
Besteht nun zwischen den Variablen u (Prozeßgröße mittlere Lagendicke) und v (Steuergröße Bahnzug und Steuergröße Linienkraft) ein Zusammenhang derart, daß u die unabhängige und v = f(u) die abhängige Variable ist, dann ist der bedingte Erwartungswert E[v\u] der Variablen v unter der Bedingung der Variablen u der bestmögliche Schätzwert für die Variable v im Sinne des kleinsten quadratischen Fehlers. Der Zusammenhang ist aus [6] bekannt. Mit Hilfe von Bayes' Theorem
mit:
p(u): Wahrscheinlichkeit der Variable u
p(vIu): bedingte Wahrscheinlichkeit der Variable v unter der Bedingung der Variablen u
gilt:
Ist also die Verbunddichte p (u, v) bestimmt, so läßt sich der bedingte Erwartungswert E[vIu] der Variablen v unter der Bedingung der Variablen u mit ihrer Hilfe ermitteln. Das Ergebnis ist ein Schätzwert für die zweite Variable v.
Im folgenden werden einige Varianten zu dem oben beschriebenen Ausführungsbeispiel angegeben:
Gegebenenfalls können Transformationen (Standardisierung, Normierung etc.) der Datensätze vor der Schätzung der Verbunddichte der ersten und der zweiten Variable das Ergebnis positiv beeinflussen. Zuerst werden die Datensätze transformiert. Dann wird die Verbunddichte der ersten und der zweiten Variable und der bedingte Erwartungswert der zweiten Variable unter der Bedingung der ersten Variable ermittelt. Anschließend wird wieder zurücktransformiert.
Durch die Nutzung der Variable v als Startwert für weitere Optimierungsverfahren, kann der Fehler der Variable u in Bezug zu einer vorgegebenen Variable u verringert werden.
Gegebenenfalls können die Parameter des zweiten neuronalen Netzes durch ein Clusterverfahren, z. B. K-Means-Clustering [7], initialisiert werden.
In einer Alternative des oben dargestellten Ausführungsbeispiels können die vorgegebenen mittleren Lagendicken z in einer derart kleinen Schrittweite, wie zum Beispiel 0,01 µm, vorgegeben werden (vgl. 5. Schritt), daß die entsprechenden Arbeitspunkte (x, y) voneinander nur sehr geringfügig hinsichtlich der Steuergröße Bahnzug x und/oder der Steuergröße Linienkraft y abweichen. Damit kann auf die Bestimmung einer kontinuierlichen Arbeitslinie verzichtet werden, und damit kann der 6. Schritt des dargestellten Ausführungsbeispiels entfallen.
In einer weiteren Alternative des oben dargestellten Ausführungsbeispiels können Randbedingungen für die Steuergröße Bahnzug x und die Steuergröße Linienkraft y vorgegeben werden. Durch diese Randbedingungen können die Arbeitspunkte (x, y) der Papierwickelvorrichtung durch jeweils einen vorgegebenen minimalen und maximalen Wert für die Steuergröße Bahnzug x und die Steuergröße Linienkraft y eingeschränkt werden. Somit können von den Kernen des zweiten neuronalen Netzes nur die berücksichtigt werden, die den Randbedingungen genügen.
Gegebenenfalls kann die Arbeitslinie der Papierwickelvorrichtung unter Verwendung eines Diagrams, welches das Betriebsverhalten der Papierwickelvorrichtung, beschrieben durch Datenpunkte aus (Steuergröße Bahnzug x, Steuergröße Linienkraft y, Prozeßgröße mittlere Lagendicke z), mehrdimensional darstellt (Höhenliniendiagram), ermittelt werden. Dazu werden die Trainingsdatenpaare und/oder zusätzliche Datenpaare, die durch Anwendung eines dreidimensionalen Interpolationsverfahrens auf die Trainingsdatenpaare generiert werden können, in einem dreidimensionalen Diagram (Höhenliniendiagram) dargestellt. An der Abszisse und der Ordinate kann die Steuergröße Bahnzug und die Steuergröße Linienkraft y angetragen werden. Die dritte Dimension beschreibt die Prozeßgröße mittlere Lagendicke z.
Die Arbeitslinie der Papierwickelvorrichtung, die durch einen minimalen Startwert und einen maximalen Endwert für die mittlere Lagendicke z begrenzt wird, kann unter Verwendung des Höhenliniendiagrams auf folgende Weise bestimmt werden: Ausgehend von dem Startwert, der als Punkt im Höhenliniendiagram markiert werden kann, wird rechnergestützt die Verbindung zu dem Endwert, der ebenfalls als Punkt im Höhenliniendiagram markiert werden kann, unter der Randbedingung eines minimalen Gradientenanstiegs ermittelt.
Gegebenenfalls kann das erste neuronale Netz eines von mehreren ersten neuronalen Netzen und/oder das zweite neuronale Netz eines von mehreren zweiten neuronalen Netzen sein.
In diesem Dokument sind folgende Veröffentlichungen zitiert:
  • 1. [1]: Wolfermann W., "Mathematischer Zusammenhang zwischen Bahnzugkraft und innerer Spannung beim Wickeln von elastischen Bahnen", Dissertation der Technischen Universität München, 1976.
  • 2. [2]: Schaffrath H.-J., "Über das Kompressions- und Reibverhalten von Papier vor dem Hintergrund des Rollenwickelns", Dissertation der Technischen Universität Darmstadt, 1993.
  • 3. [3]: Neuneier, Ralph, Hergert, F., Finnoff, W., Ormoneit, D.,"Estimation Of Conditional Densities: A Comparison of Neural Network Approaches", Proceedings of the International Conference On Artificial Neural Networks (ICANN) 1994, Sorrent, Italien.
  • 4. [4]: Diercks P., "Curve and Surface Fitting with Splines Monographs on Numerical Analysis", Oxford University Press, 1995.
  • 5. [5]: Zell, A., "Simulation Neuronaler Netze", S. 225-240, Addison-Wesley Publishing Company, 1994
  • 6. [6]: Schlittgen, Rainer und Streitberg, Bernd H. J.,"Zeitreihenanalyse", R. Oldenbourg Verlag, 1994.
  • 7. [7]: Loyd, S. P., "Least Squares Quantization in PCM", IEEE Transactions on Information Theory, Vol. 28, 1982
  • 8. [8]: Dempster, A. P., Laird, N. M., Rubin, D. B.,"Maximum Likelihood from Incomplete Data via the EM Algorithm", pp. 1-38, Royal Statistical Society B, Vol. 39, 1977

Claims (54)

1. Verfahren zur rechnergestützten Ermittlung einer Ausgangsgröße unter Verwendung eines zweiten neuronalen Netzes, bei dem das zweite neuronale Netz die Ausgangsgröße mittels Basisfunktionen aus einer an das zweite neuronale Netz angelegten Eingangsgröße ermittelt, dadurch gekennzeichnet, daß
  • a) das zweite neuronale Netz unter Verwendung von Trainingsdatenpaaren, die unter Verwendung eines ersten neuronalen Netzes generiert wurden, trainiert wurde;
  • b) eine erste Variable eines Datenpaars, das die erste Variable und eine zweite Variable umfaßt, wobei die erste Variable eine unabhängige Variable und die zweite Variable eine von der ersten Variablen abhängige Variable ist, als die Eingangsgröße an das zweite neuronale Netz angelegt wird;
  • c) ein Erwartungswert, der ein bedingter Erwartungswert der zweiten Variable unter der Bedingung der ersten Variable ist, als die Ausgangsgröße des zweiten neuronalen Netzes ermittelt wird.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß die erste Variable und/oder die zweite Variable mehrdimensionale Vektoren sind/ist.
3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, daß unter Verwendung des ersten neuronalen Netzes eine Approximation durchgeführt wird.
4. Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, daß aus dem von dem zweiten neuronalen Netz ausgegeben Erwartungswert die zweite Variable bestimmt wird.
5. Verfahren nach Anspruch 4, dadurch gekennzeichnet, daß unter Verwendung der zweiten Variable und/oder des ersten neuronalen Netzes eine dritte Variable bestimmt wird.
6. Verfahren nach Anspruch 5, dadurch gekennzeichnet, daß die dritte Variable die erste Variable ist.
7. Verfahren nach Anspruch 5 oder 6, dadurch gekennzeichnet, daß die zweite Variable und die dritte Variable ein weiteres Datenpaar sind.
8. Verfahren nach einem der Ansprüche 1 bis 7, dadurch gekennzeichnet, daß als Basisfunktionen eindimensionale Gauß-Funktionen verwendet werden.
9. Verfahren nach einem der Ansprüche 1 bis 8, dadurch gekennzeichnet, daß Parameter des zweiten neuronalen Netzes mittels eines EM-Algorithmus bestimmt werden.
10. Verfahren nach einem der Ansprüche 1 bis 9, dadurch gekennzeichnet, daß die erste und/oder die zweite Variable eine Prozeßgröße und/oder eine Steuergröße einer technischen Anlage sind/ist.
11. Verfahren nach Anspruch 10, dadurch gekennzeichnet, daß die erste und/oder die zweite Variable eine Prozeßgröße und/oder eine Steuergröße einer Papierwickelvorrichtung sind/ist.
12. Verfahren nach Anspruch 11, dadurch gekennzeichnet, daß die erste Variable eine mittlere Lagendicke und/oder die zweite Variable einen Bahnzug und eine Linienkraft beschreiben/beschreibt.
13. Verwendung des Verfahrens nach einem der Ansprüche 1 bis 10 zur Regelung einer technischen Anlage.
14. Verwendung des Verfahrens nach einem der Ansprüche 1 bis 12 zur Regelung einer Papierwickelvorrichtung.
15. Verfahren zum rechnergestützten Training eines zweiten neuronalen Netzes, bei dem das zweite neuronale Netz jeweils ein Trainingsdatenpaar mittels Basisfunktionen auf eine Ausgangsgröße abbildet, dadurch gekennzeichnet, daß
  • a) das Trainingsdatenpaar, das eine erste Variable und eine zweite Variable umfaßt, wobei die erste Variable eine unabhängige Variable und die zweite Variable eine von der ersten Variablen abhängige Variable ist, derart bestimmt wird, daß die erste Variable an ein erstes neuronales Netz angelegt und mittels des ersten neuronalen Netzes die zweite Variable bestimmt wird;
  • b) eine Trainingsverbunddichte als Zielgröße zu dem Training des zweiten neuronalen Netzes verwendet wird.
16. Verfahren nach Anspruch 15, dadurch gekennzeichnet, daß die erste Variable und/oder die zweite Variable mehrdimensionale Vektoren sind/ist.
17. Verfahren nach Anspruch 15 oder 16, dadurch gekennzeichnet, daß die Trainingsverbunddichte von der ersten Variablen und der zweiten Variablen abhängt.
18. Verfahren nach einem der Ansprüche 15 bis 17, dadurch gekennzeichnet, daß unter Verwendung des ersten neuronalen Netzes eine Approximation durchgeführt wird.
19. Verfahren nach einem der Ansprüche 15 bis 18, dadurch gekennzeichnet, daß aus dem von dem zweiten neuronalen Netz ausgegeben Erwartungswert die zweite Variable bestimmt wird.
20. Verfahren nach Anspruch 19, dadurch gekennzeichnet, daß unter Verwendung der zweiten Variable und/oder des ersten neuronalen Netzes eine dritte Variable bestimmt wird.
21. Verfahren nach Anspruch 20, dadurch gekennzeichnet, daß die dritte Variable die erste Variable ist.
22. Verfahren nach Anspruch 20 oder 21, dadurch gekennzeichnet, daß die zweite Variable und die dritte Variable ein weiteres Datenpaar sind.
23. Verfahren nach einem der Ansprüche 15 bis 22, dadurch gekennzeichnet, daß als Basisfunktionen eindimensionale Gauß-Funktionen verwendet werden.
24. Verfahren nach einem der Ansprüche 15 bis 23, dadurch gekennzeichnet, daß Parameter des zweiten neuronalen Netzes mittels eines EM-Algorithmus bestimmt werden.
25. Verfahren nach einem der Ansprüche 15 bis 24, dadurch gekennzeichnet, daß die erste Variable und/oder die zweite Variable eine Prozeßgröße und/oder eine Steuergröße einer technischen Anlage sind/ist.
26. Verfahren nach Anspruch 25, dadurch gekennzeichnet, daß die erste Variable und/oder die zweite Variable eine Prozeßgröße und/oder eine Steuergröße einer Papierwickelvorrichtung sind/ist.
27. Verfahren nach Anspruch 26, dadurch gekennzeichnet, daß die erste Variable eine mittlere Lagendicke und/oder die zweite Variable einen Bahnzug und eine Linienkraft beschreiben/beschreibt.
28. Anordnung zur rechnergestützten Ermittlung einer Ausgangsgröße mit einem zweiten neuronalen Netz, wobei das zweite neuronale Netz derart eingerichtet ist, daß die Ausgangsgröße mittels Basisfunktionen aus einer an das zweite neuronale Netz angelegten Eingangsgröße ermittelbar ist, dadurch gekennzeichnet, daß
  • a) an einem Eingang eines ersten neuronalen Netzes ein Datenpaar, das eine erste und eine zweite Variable umfaßt, wobei die erste Variable eine unabhängige Variable und die zweite Variable eine von der ersten Variable abhängige Variable ist, anlegbar ist;
  • b) an einem Ausgang des ersten neuronalen Netzes die zweite Variable abgreifbar ist;
  • c) an einem Eingang des zweiten neuronalen Netzes das Datenpaar anlegbar ist;
  • d) an einem Ausgang des zweiten neuronalen Netzes ein Erwartungswert, der ein bedingter Erwartungswert der zweiten Variable ist, als die Ausgangsgröße abgreifbar ist;
  • e) das zweite neuronale Netz derart eingerichtet ist, daß das zweite neuronale Netz unter Verwendung von Trainingsdatenpaaren, die unter Verwendung des ersten neuronalen Netzes generiert wurden, trainierbar ist.
29. Anordnung nach Anspruch 28, dadurch gekennzeichnet, daß die erste Variable und/oder die zweite Variable mehrdimensionale Vektoren sind/ist.
30. Anordnung nach Anspruch 28 oder 29, dadurch gekennzeichnet, daß unter Verwendung des ersten neuronalen Netzes eine Approximation durchführbar ist.
31. Anordnung nach einem der Ansprüche 28 bis 30, dadurch gekennzeichnet, daß aus dem von dem zweiten neuronalen Netz ausgegeben Erwartungswert die zweite Variable bestimmbar ist.
32. Anordnung nach Anspruch 31, dadurch gekennzeichnet, daß unter Verwendung der zweiten Variable und/oder des ersten neuronalen Netzes eine dritte Variable bestimmbar ist.
33. Anordnung nach Anspruch 32, dadurch gekennzeichnet, daß die dritte Variable die erste Variable ist.
34. Anordnung nach Anspruch 32 oder 33, dadurch gekennzeichnet, daß die zweite Variable und die dritte Variable ein weiteres Datenpaar sind.
35. Anordnung nach einem der Ansprüche 28 bis 34, dadurch gekennzeichnet, daß als Basisfunktionen eindimensionale Gauß-Funktionen verwendbar sind.
36. Anordnung nach einem der Ansprüche 28 bis 35, dadurch gekennzeichnet, daß Parameter des zweiten neuronalen Netzes mittels eines EM-Algorithmus bestimmbar sind.
37. Anordnung nach einem der Ansprüche 28 bis 36, dadurch gekennzeichnet, daß die erste Variable und/oder die zweite Variable eine Prozeßgröße und/oder Steuergröße einer technischen Anlage sind/ist.
38. Anordnung nach Anspruch 37, dadurch gekennzeichnet, daß die erste Variable und/oder die zweite Variable eine Prozeßgröße und/oder Steuergröße einer Papierwickelvorrichtung sind/ist.
39. Anordnung nach Anspruch 38, dadurch gekennzeichnet, daß die erste Variable eine mittlere Lagendicke und/oder die zweite Variable einen Bahnzug und eine Linienkraft beschreiben/beschreibt.
40. Verwendung der Anordnung nach einem der Ansprüche 28 bis 37 zur Regelung einer technischen Anlage.
41. Verwendung der Anordnung nach einem der Ansprüche 28 bis 39 zur Regelung einer Papierwickelvorrichtung.
42. Anordnung zum rechnergestützten Training eines zweiten neuronalen Netzes mit einem Prozessor, der derart eingerichtet ist, daß unter Verwendung des zweiten neuronalen Netzes jeweils ein Trainingsdatenpaar mittels Basisfunktionen auf eine Ausgangsgröße abbildbar ist, dadurch gekennzeichnet, daß folgende Schritte durchführbar sind:
  • a) das Trainingsdatenpaar, das eine erste Variable und eine zweite Variable umfaßt, wobei die erste Variable eine unabhängige Variable und die zweite Variable eine von der ersten Variablen abhängige Variable ist, wird derart bestimmt, daß die erste Variable an ein erstes neuronales Netz angelegt und mittels des ersten neuronalen Netzes die zweite Variable bestimmt wird;
  • b) eine Trainingsverbunddichte wird als Zielgröße zu dem Training des zweiten neuronalen Netzes verwendet.
43. Anordnung nach Anspruch 42, dadurch gekennzeichnet, daß die erste Variable und/oder die zweite Variable mehrdimensionale Vektoren sind/ist.
44. Anordnung nach Anspruch 42 bis 43, dadurch gekennzeichnet, daß die Trainingsverbunddichte von der ersten Variablen und der zweiten Variablen abhängt.
45. Anordnung nach einem der Ansprüche 42 bis 44, dadurch gekennzeichnet, daß unter Verwendung des ersten neuronalen Netzes eine Approximation durchführbar ist.
46. Anordnung nach einem der Ansprüche 42 bis 45, dadurch gekennzeichnet, daß aus dem von dem zweiten neuronalen Netz ausgegeben Erwartungswert die zweite Variable bestimmbar ist.
47. Anordnung nach Anspruch 46, dadurch gekennzeichnet, daß unter Verwendung der zweiten Variable und/oder des ersten neuronalen Netzes eine dritte Variable bestimmbar ist.
48. Anordnung nach Anspruch 47, dadurch gekennzeichnet, daß die dritte Variable die erste Variable ist.
49. Anordnung nach Anspruch 47 oder 48, dadurch gekennzeichnet, daß die zweite Variable und die dritte Variable ein weiteres Datenpaar sind.
50. Anordnung nach einem der Ansprüche 42 bis 49, dadurch gekennzeichnet, daß als Basisfunktionen eindimensionale Gauß-Funktionen verwendbar sind.
51. Anordnung nach einem der Ansprüche 42 bis 50, dadurch gekennzeichnet, daß Parameter des zweiten neuronalen Netzes mittels eines EM-Algorithmus bestimmbar sind.
52. Anordnung nach einem der Ansprüche 42 bis 51, dadurch gekennzeichnet, daß die erste Variable und/oder die zweite Variable eine Prozeßgröße und/oder Steuergröße einer technischen Anlage sind/ist.
53. Anordnung nach Anspruch 52, dadurch gekennzeichnet, daß die erste Variable und/oder die zweite Variable eine Prozeßgröße und/oder Steuergröße einer Papierwickelvorrichtung sind/ist.
54. Anordnung nach Anspruch 53, dadurch gekennzeichnet, daß die erste Variable eine mittlere Lagendicke und/oder die zweite Variable einen Bahnzug und eine Linienkraft beschreiben/beschreibt.
DE19832967A 1998-07-22 1998-07-22 Verfahren zur rechnergestützten Ermittlung einer Ausgangsgröße, Verfahren zum rechnergestützten Training eines neuronalen Netzes, Anordnung zur rechnergestützten Ermittlung einer Ausgangsgröße und Anordnung zum rechnergestützten Training eines neuronalen Netzes sowie deren jeweilige Verwendung Expired - Fee Related DE19832967C1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE19832967A DE19832967C1 (de) 1998-07-22 1998-07-22 Verfahren zur rechnergestützten Ermittlung einer Ausgangsgröße, Verfahren zum rechnergestützten Training eines neuronalen Netzes, Anordnung zur rechnergestützten Ermittlung einer Ausgangsgröße und Anordnung zum rechnergestützten Training eines neuronalen Netzes sowie deren jeweilige Verwendung

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE19832967A DE19832967C1 (de) 1998-07-22 1998-07-22 Verfahren zur rechnergestützten Ermittlung einer Ausgangsgröße, Verfahren zum rechnergestützten Training eines neuronalen Netzes, Anordnung zur rechnergestützten Ermittlung einer Ausgangsgröße und Anordnung zum rechnergestützten Training eines neuronalen Netzes sowie deren jeweilige Verwendung

Publications (1)

Publication Number Publication Date
DE19832967C1 true DE19832967C1 (de) 2000-04-20

Family

ID=7874917

Family Applications (1)

Application Number Title Priority Date Filing Date
DE19832967A Expired - Fee Related DE19832967C1 (de) 1998-07-22 1998-07-22 Verfahren zur rechnergestützten Ermittlung einer Ausgangsgröße, Verfahren zum rechnergestützten Training eines neuronalen Netzes, Anordnung zur rechnergestützten Ermittlung einer Ausgangsgröße und Anordnung zum rechnergestützten Training eines neuronalen Netzes sowie deren jeweilige Verwendung

Country Status (1)

Country Link
DE (1) DE19832967C1 (de)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6752347B2 (en) * 2000-04-12 2004-06-22 Metso Paper, Inc. Method for improving the operating reliability of a reel-up
WO2006000427A1 (de) * 2004-06-25 2006-01-05 Fev Motorentechnik Gmbh Fahrzeug-steuergerät mit einem neuronalen netz
DE102005010027A1 (de) * 2005-03-04 2006-09-07 Siemens Ag Verfahren zum rechnergestützten Betrieb eines technischen Systems
CN100426158C (zh) * 2005-12-22 2008-10-15 安徽工业大学 基于神经网络逆辨识与逆控制的多变量***的间接解耦方法
US10929993B2 (en) 2017-09-29 2021-02-23 L'oreal Automated imaging system for evaluating the curl of a keratinous substrate

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
Diercks,P.: Curve and Surface Fitting with SplinesMonographs on Numerical Analysis, Oxford University Press, 1995 *
Neuneier, Ralph, Hergert, F.,Finnoff, W., OrmoneitD.: Estimation of Conditional Densities: A Compa- rison of Neural Network Approaches, Proceedings ofthe International Conference On Artificial Neural Networks (ICANN), 1994, Sorrent, Italien *
Schaffrath, H.-J.: Über das Kompressions- und Reibverhalten von Papier vor dem Hintergrund des Rollenwickelns, Dissertation der Technischen Uni- versität Darmstadt, 1993 *
Schlittgen, Rainer u. Streitberg, Bernd H.J.: *
Wolfermann,W.:Mathematischer Zusammenhang zwischenBahnzugkraft und innerer Spannung beim Wickeln vonelastischen Bahnen, Dissertation der Technischen Universität München, 1976 *
Zell, A.: Simulation Neuronaler Netze, S. 225-240,Addison-Wesley Publishing Company, 1994 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6752347B2 (en) * 2000-04-12 2004-06-22 Metso Paper, Inc. Method for improving the operating reliability of a reel-up
WO2006000427A1 (de) * 2004-06-25 2006-01-05 Fev Motorentechnik Gmbh Fahrzeug-steuergerät mit einem neuronalen netz
DE102005010027A1 (de) * 2005-03-04 2006-09-07 Siemens Ag Verfahren zum rechnergestützten Betrieb eines technischen Systems
DE102005010027B4 (de) * 2005-03-04 2007-08-02 Siemens Ag Verfahren zum rechnergestützten Betrieb eines technischen Systems
CN100426158C (zh) * 2005-12-22 2008-10-15 安徽工业大学 基于神经网络逆辨识与逆控制的多变量***的间接解耦方法
US10929993B2 (en) 2017-09-29 2021-02-23 L'oreal Automated imaging system for evaluating the curl of a keratinous substrate

Similar Documents

Publication Publication Date Title
DE69324296T2 (de) Verfahren zur Diagnose eines laufenden Prozesses
DE102016011525B4 (de) Vorrichtung für maschinelles Lernen und Spulen-Produktionsvorrichtung
DE19531692C2 (de) Verfahren zur Beobachtung nicht meßbarer Größen nichtlinearer dynamischer Systeme
EP1037842B1 (de) Verfahren und anordnung zur vorhersage und regelung einer papierwickelkenngrösse bei einer papierwickelvorrichtung
EP3876060B1 (de) Verfahren und recheneinheit zur ursachenanalyse eines anomalen zustandes einer maschine
DE3913381A1 (de) Verfahren zum erzeugen eines kettbaums und baeumvorrichtung
EP1070280B1 (de) Verfahren und anordnung zur neuronalen modellierung einer papierwickelvorrichtung
DE102009019624A1 (de) Verfahren zur Bestimmung wenigstens eines Reglerparameters eines Regelglieds in einem Bahnspannungs-Regelkreis für eine Bearbeitungsmaschine
DE19832967C1 (de) Verfahren zur rechnergestützten Ermittlung einer Ausgangsgröße, Verfahren zum rechnergestützten Training eines neuronalen Netzes, Anordnung zur rechnergestützten Ermittlung einer Ausgangsgröße und Anordnung zum rechnergestützten Training eines neuronalen Netzes sowie deren jeweilige Verwendung
DE69326420T2 (de) Digitale Verarbeitung und Filterung von Signalen
EP0925541B1 (de) Verfahren und vorrichtung zur rechnergestützten generierung mindestens eines künstlichen trainingsdatenvektors für ein neuronales netz
DE10047718A1 (de) Verfahren zur Spracherkennung
EP0670058B1 (de) Verfahren zur stellgliedidentifizierung bei der querprofil-regelung einer kontinuierlich erzeugten materialbahn
DE3685538T2 (de) Integrierende regelung einer abhaengigen variablen in einem system mit mindestens zwei unabhaengigen variablen, die die abhaengige variable beeinflussen.
EP0731913B1 (de) Vorrichtung zur untersuchung des querprofils einer kontinuierlich erzeugten materialbahn
DE102009026987A1 (de) Rollendruckmaschine und Verfahren zum Betreiben dieser
WO1995019591A1 (de) Verfahren und vorrichtung zur führung eines prozesses
DE69518804T2 (de) Prozess-überprüfung in photographischen verfahren
DE19814407B4 (de) Verfahren und Anordnung zur neuronalen Modellierung einer Papierwickelvorrichtung
WO1998007100A1 (de) Rechnergestütztes verfahren zur auswahl von trainingsdaten für ein neuronales netz
DE102020213889A1 (de) Verfahren zum Validieren von Simulationsmodellen
EP1071999B1 (de) Verfahren und anordnung zur rechnergestützten ermittlung einer abbildungsvorschrift
AT501517B1 (de) Verfahren und messausrüstung zur bestimmung der winkelgeschwindigkeitsdifferenz
DE10393725T5 (de) Verfahren zum Steuern eines Aufwicklers inklusive dem Bestimmen von Laufparametern auf der Grundlage von Modellen unter Berücksichtigung eines Abwicklers
EP2050868B1 (de) Regeleinrichtung und Verfahren zur Flächengewichtsregelung in einer Papiermaschine

Legal Events

Date Code Title Description
8100 Publication of patent without earlier publication of application
D1 Grant (no unexamined application published) patent law 81
8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee