DE19832967C1 - Verfahren zur rechnergestützten Ermittlung einer Ausgangsgröße, Verfahren zum rechnergestützten Training eines neuronalen Netzes, Anordnung zur rechnergestützten Ermittlung einer Ausgangsgröße und Anordnung zum rechnergestützten Training eines neuronalen Netzes sowie deren jeweilige Verwendung - Google Patents
Verfahren zur rechnergestützten Ermittlung einer Ausgangsgröße, Verfahren zum rechnergestützten Training eines neuronalen Netzes, Anordnung zur rechnergestützten Ermittlung einer Ausgangsgröße und Anordnung zum rechnergestützten Training eines neuronalen Netzes sowie deren jeweilige VerwendungInfo
- Publication number
- DE19832967C1 DE19832967C1 DE19832967A DE19832967A DE19832967C1 DE 19832967 C1 DE19832967 C1 DE 19832967C1 DE 19832967 A DE19832967 A DE 19832967A DE 19832967 A DE19832967 A DE 19832967A DE 19832967 C1 DE19832967 C1 DE 19832967C1
- Authority
- DE
- Germany
- Prior art keywords
- variable
- neural network
- arrangement according
- determined
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
In einem Verfahren zur rechnergestützten Ermittlung einer Ausgangsgröße mittels eines neuronalen Netzes wird eine erste Variable eines Datenpaars, das die erste Variable und eine zweite Variable umfaßt, wobei die erste Variable eine unabhängige Variable und die zweite Variable eine von der ersten Variablen abhängige Variable ist, als Eingangsgröße an ein neuronales Netz angelegt. Unter Verwendung des neuronalen Netzes, das unter Verwendung von Datenpaaren, die mittels eines weiteren neuronalen Netzes generiert werden, trainiert wurde und das die Abbildung der Eingangs- auf die Ausgangsgröße mittels Basisfunktionen durchführt, wird eine Verbunddichte der beiden Variablen geschätzt. Ausgehend von der Verbunddichte wird mittels des neuronalen Netzes der bedingte Erwartungswert der zweiten Variable unter der Bedingung der ersten Variable, der als bestmögliche Schätzung der exakten Lösung gilt, bestimmt.
Description
Die Erfindung betrifft ein Verfahren und eine Anordnung für die rechnergestützte Ermittlung einer
Ausgangsgröße unter Verwendung eines zweiten neuronalen
Netzes, bei dem das zweite neuronale Netz die Ausgangsgröße
mittels Basisfunktionen aus einer an das zweite neuronale
Netz angelegten Eingangsgröße ermittelt, sowie deren Verwendung. Ferner betrifft die
Erfindung ein Verfahren und eine Anordnung für das rechnergestützte Training eines zweiten
neuronalen Netzes, bei dem das zweite neuronale Netz jeweils
ein Trainingsdatenpaar mittels Basisfunktionen auf eine
Ausgangsgröße abbildet.
In vielen Gebieten der Technik wird das Verhalten eines
technischen Systems durch einen Zusammenhang zwischen
Eingangsgrößen und einer Ausgangsgröße beschrieben. Dabei
werden die Eingangsgrößen des Systems mittels des
Zusammenhangs einer Systembeschreibung auf die Ausgangsgröße
des Systems abgebildet. Für eine Steuerung und/oder Regelung
des technischen Systems ist die Kenntnis der inversen
Systembeschreibung, anschaulich darstellbar durch die
Fragestellung, welche Eingangsgrößen dem technischen System
vorgegeben werden müssen, um eine Ausgangsgröße zu erreichen,
notwendig. Für ein komplexes technisches System ist die
inverse Systembeschreibung analytisch oftmals nicht
bestimmbar. Aus [3] ist bekannt, die inverse
Systembeschreibung unter Verwendung eines neuronalen Netzes
zu ermitteln.
Ferner ist aus [1] bekannt, daß die Steuerung und/oder
Regelung eines technischen Systems, in diesem Fall eine
Papierwickelvorrichtung für die Herstellung von Papier, unter
Verwendung der inverse Systembeschreibung des technischen
Systems durchgeführt wird.
Bei der Herstellung von Papier wird dieses in einer bis zu 10
Meter breiten Bahn auf eine als Tambour bezeichnete
Wickelvorrichtung zur Zwischenspeicherung und
Weiterverarbeitung aufgewickelt. Der Durchmesser einer
aufgewickelten Papierbahn beträgt dabei ca. 1,5 Meter. Bei
ihrer weiteren Verarbeitung wird die Papierbahn vom Tambour
wieder abgewickelt und durchläuft einen Rollenschneider zur
Konfektionierung nach kundenspezifischen Vorgaben. Auf dem
Rollenschneider wird die Papierbahn in Papierbahnbreiten
unterschiedlicher Breite geschnitten und auf Hülsen
gewickelt, welche an Kunden ausgeliefert werden.
Das Abwickeln des Papiers vom Tambour und das erneute
Aufwickeln des geschnittenen Papiers auf die Hülsen ist aus
mehreren Gründen schwierig:
Das Aufwickeln der Papierbahn auf den Tambour erfolgt unter
Zugspannung in horizontaler Richtung und durch Anpressung in
radialer Richtung zu dem Tambour. Viskoelastische Effekte des
Papiers kommen hier zum Tragen. Durch die bei diesem
Aufwickelmechanismus auftretenden Kräfte entstehen im Papier
Spannungen. Diese Spannungen führen zu irreversiblen
Änderungen der Papiereigenschaften.
Beim Wickelvorgang der Papierbahn vom Tambour auf eine Rolle
wird das Papier wiederum tangentialen und radialen Kräften
ausgesetzt. Das Ziel dieses Wickelvorgangs ist es, die
entstehende Papierrolle in einer optimalen Wickelgüte
aufzurollen. Wird das Papier zu fest aufgewickelt, dann ist
die im Wickel auftretende Spannung so groß, daß das Papier
irreparabel beschädigt und unbrauchbar wird. Sind die
Wickelkräfte zu klein bemessen, dann wird das Papier zu
locker aufgewickelt. In diesem Fall neigt der Wickel zum
Teleskopieren, das heißt, die inneren Lagen können
herausrutschen.
Einen hinsichtlich der Wickelgüte optimalen Wickel zu
produzieren bedeutet somit, den Wickel zur Vermeidung von
Schäden nicht zu fest, aber auch nicht zu locker
aufzuwickeln. Da die Materialeigenschaften des gewickelten
Papiers sortenspezifisch variieren, handelt es sich bei dem
oben dargestellten Wickelmechanismus um ein sehr komplexes
Problem.
Als Maß für die Beurteilung der Qualität des entstehenden
Wickels und somit der Wickelgüte dient die Wickelhärte. Eine
zu der Wickelhärte äquivalente Kenngröße ist die Prozeßgröße
mittlere Lagendicke:
Während des Aufrollvorgangs wird die Anzahl aufgewickelter
Lagen und die Radiuszunahme bestimmt. Gemittelt über
üblicherweise 100 Lagen erhält man so die mittlere
Lagendicke. Üblicherweise trägt man die mittlere Lagendicke
über den Durchmesser auf. Diese Kurve wird als Aufrollung
bezeichnet. Der Verlauf einer solchen Kurve gibt Aufschluß
über die Qualität eines Wickels. Da die Kurve starke
Schwankungen aufweist, ist eine Interpretation der Kurve
hinsichtlich der Qualität des Wickels erschwert. In der
Praxis bezeichnet man einen Wickel als optimal gewickelt,
wenn die Aufrollkurve mit Ausnahme der ersten 500 Millimeter
Durchmesser einen sonst nahezu konstanten Verlauf hat. Zur
Beurteilung zieht man den Mittelwert der Kurve heran.
Die Kraft, die während des Abwickelns in horizontaler
Richtung auf das Papier bzw. während des Aufwickeln in
horizontaler Richtung auf die Papierbahn wirkt, wird als
Bahnzug bezeichnet. Die in vertikaler Richtung auf das Papier
bzw. auf die Papierbahn wirkende Kraft wird als Linienkraft
bezeichnet.
Aus [1] und [2] ist jeweils ein mathematisch funktionaler
Zusammenhang zwischen Bahnzug und physikalischen Größen, die
den Zustand des aufgewickelten Papiers beschreiben, wie
mittlere Lagendicke, Wickelhärte, Tangential- und
Radialspannung, bekannt. Die in [1] oder [2] beschriebenen
Verfahren weisen aber den Nachteil auf, daß sie für die
funktionalen Zusammenhänge idealisierte Wickelbedingungen
voraussetzen und damit für den Einsatz im realen
Wickelbetrieb nicht geeignet sind. Insbesondere werden weder
die Linienkraft noch die mit ihr verknüpften Effekte am Nip,
das ist die Stelle, an der das Papier auf den Wickel drückt,
berücksichtigt.
Sowohl Linienkraft als auch Bahnzug beeinflussen die Stärke
der Kompression während des Wickelvorganges. Der Zusammenhang
zwischen der mittleren Lagendicke, dem Bahnzug und der
Linienkraft ist aber nur qualitativ beschreibbar. Mit
zunehmender Größe des Bahnzugs und der Linienkraft nimmt die
Wickelhärte zu. Die mathematische Beschreibung dieses
Zusammenhangs kann in folgender Form dargestellt werden:
z = f(x, y) [Gleichung 1]
mit:
z: mittlere Lagendicke,
x: Bahnzug,
y: Linienkraft.
z: mittlere Lagendicke,
x: Bahnzug,
y: Linienkraft.
Hinsichtlich der Steuerung einer Wickelvorrichtung unter
Berücksichtigung einer angestrebten Wickelgüte ist aber ein
quantitativer Zusammenhang zwischen den Steuergrößen Bahnzug
und Linienkraft und der Prozeßgröße mittlere Lagendicke
notwendig.
Die Lösung dieses Problems beschreibt die inverse Form der
oben dargestellten Systembeschreibung [Gleichung 1]
(x, y) = f-1 (z) [Gleichung 2]
unter der Nebenbedingung:
x = g(y). [Gleichung 3]
Die Nebenbedingung ergibt sich daraus, daß die Steuergröße
Bahnzug x und die Steuergröße Linienkraft y auf Grund von
Geometrie und Verfahrensführung in jedem Einzelfall in einer
bestimmten Beziehung zueinander stehen.
Da aber die qualitative Beschreibung entsprechend der
Gleichung 1, der Gleichung 2 und der Gleichung 3 unbekannt ist
und damit die analytische Beschreibung der inversen
Systembeschreibung entsprechend Gleichung 2 nicht bekannt
ist, wird eine approximative Lösung gesucht.
Aus [3] ist bekannt, für die Lösung einer inversen
Systembeschreibung entsprechend Gleichung 2 ein neuronales
Netz zu verwenden. Ferner ist in [3] beschrieben, wie ein
neuronales Netz für die Modellierung der bedingten Dichte von
Systemgrößen verwendet wird.
Dieses Lösungsverfahren weist jedoch Nachteile auf. Sehr
große Datenmengen sind für das Training eines solchen
neuronalen Netzes nötig. Auch ist aufgrund der großen
Datenmenge die Zeit, die für das Training eines solchen
neuronalen Netzes benötigt wird, lang.
Aus [8] ist bekannt, Parameter eines neuronalen Netzes unter
Verwendung des EM-Algorithmus durch Minimierung der negativen
LogLikelihood zu bestimmen.
Ferner ist aus [5] bekannt, eine Ausgangsgröße eines
neuronalen Netzes unter Verwendung von radialen
Basisfunktionen zu ermitteln. Ein Nachteil eines solchen
neuronalen Netzes mit radialen Basisfunktionen liegt darin,
daß große Datenmengen zum Training des neuronalen Netzes
notwendig sind, und damit auch die Ungenauigkeit des
Verfahrens steigt.
Ferner ist aus [7] bekannt, Parameter eines neuronalen Netzes
durch ein sogenanntes Cluster-Verfahren zu initialisieren.
Aus [4] ist eine Approximation unter Verwendung eines
neuronalen Netzes bekannt.
Aus [6] ist bekannt, daß ein bedingter Erwartungswert einer
ersten Variable unter der Bedingung einer zweiten Variable
die beste Schätzung des analytisch exakten Wertes der ersten
Variable im Sinne des kleinsten quadratischen Fehlers ist.
Somit liegt der Erfindung das Problem zugrunde, Verfahren und Anordnungen
der eingangs genannten Art zu schaffen, um rechnergestützt eine inverse Systembeschreibung schnell und
einfach zu ermitteln.
Das Problem wird durch die Verfahren mit den Merkmalen gemäß
den unabhängigen Ansprüchen 1 und 15 sowie die Anordnungen mit den
Merkmalen gemäß den unabhängigen Ansprüchen 28 und 42 gelöst.
Bei dem Verfahren zur rechnergestützten Ermittlung einer
Ausgangsgröße unter Verwendung eines zweiten neuronalen
Netzes, bei dem das zweite neuronale Netz die Ausgangsgröße
mittels Basisfunktionen aus einer an das zweite neuronale
Netz angelegten Eingangsgröße ermittelt, wird eine erste
Variable eines Datenpaars, das die unabhängige erste Variable
und eine von der ersten Variablen abhängigen zweiten Variable
umfaßt, als Eingangsgröße an das zweite neuronale Netz,
dessen Abbildung die Eingangsgröße mittels Basisfunktionen
auf eine Ausgangsgröße abbildet, angelegt. Der
Erwartungswert, der ein bedingter Erwartungswert der zweiten
Variable unter der Bedingung der ersten Variable ist, wird
als die Ausgangsgröße des zweiten neuronalen Netzes
ausgegeben. Das zweite neuronale Netz wurde unter Verwendung
von Trainingsdatenpaaren, die mittels eines ersten neuronalen
Netzes generiert wurden, trainiert.
Bei dem Verfahren zum rechnergestützten Training eines
zweiten neuronalen Netzes, bei dem das zweite neuronale Netz
jeweils ein Trainingsdatenpaar mittels Basisfunktionen auf
eine Ausgangsgröße abbildet, wird das zweite neuronale Netz
unter Verwendung von den Trainingsdatenpaaren, die eine erste
und eine zweite Variable umfassen, wobei die erste Variable
eine unabhängige Variable und die zweite Variable eine von
der ersten Variable abhängige Variable ist, trainiert. Als
Zielgröße zum Training des zweiten neuronalen Netzes wird
eine Trainingsverbunddichte an das zweite neuronale Netz
angelegt. Ein Trainingsdatenpaar wird dadurch bestimmt, daß
die erste Variable an ein erstes neuronales Netz angelegt
wird und mittels des ersten neuronalen Netzes die zweite
Variable bestimmt wird.
Bei der Anordnung zur rechnergestützten Ermittlung einer
Ausgangsgröße mit einem zweiten neuronalen Netz, wobei das
zweite neuronale Netz derart eingerichtet ist, daß die
Ausgangsgröße mittels Basisfunktionen aus einer an das zweite
neuronale Netz angelegten Eingangsgröße ermittelbar ist, ist
ein Eingang eines ersten neuronalen Netzes, an dem ein
Datenpaar, das eine unabhängige erste Variable und eine von
der ersten Variablen abhängige zweite Variable umfaßt,
anlegbar ist, und ein Ausgang des ersten neuronalen Netzes,
an dem die zweite Variable abgreifbar ist, vorgesehen. Weiter
ist ein Eingang des zweiten neuronalen Netzes, an dem das
Datenpaar anlegbar ist, und ein Ausgang des zweiten
neuronalen Netzes, an dem ein Erwartungswert, der ein
bedingter Erwartungswert der zweiten Variable unter der
Bedingung der ersten Variable ist, als Ausgangsgröße
abgreifbar ist, vorgesehen. Das zweite neuronale Netz ist
derart eingerichtet, daß das zweite neuronale Netz unter
Verwendung von Trainingsdatenpaaren, die mittels des ersten
neuronalen Netzes generiert wurden, trainierbar ist.
Die Anordnung zum rechnergestützten Training eines zweiten
neuronalen Netzes weist einen Prozessor auf, der derart
eingerichtet ist, daß unter Verwendung des zweiten neuronalen
Netzes jeweils ein Trainingsdatenpaar mittels Basisfunktionen
auf eine Ausgangsgröße abbildbar ist. Im weiteren ist der
Prozessor derart eingerichtet, so daß folgende Schritte
durchführbar sind:
- a) das Trainingsdatenpaar, das eine erste Variable und eine zweite Variable umfaßt, wobei die erste Variable eine unabhängige Variable und die zweite Variable eine von der ersten Variablen abhängige Variable ist, wird derart bestimmt, daß die erste Variable an ein erstes neuronale Netz angelegt und mittels des ersten neuronalen Netzes die zweite Variable bestimmt wird;
- b) eine Trainingsverbunddichte wird als Zielgröße zu dem Training des zweiten neuronalen Netzes verwendet.
Ein besonderer Vorteil der Erfindung liegt im geringen
Meßaufwand, der für die Durchführung der Verfahren und/oder
für die Entwicklung der Anordnungen gemäß der Erfindung
notwendig ist. Der Vorteil ergibt sich dadurch, daß die
Trainingsdatenpaare zum Training des zweiten neuronalen
Netzes mittels eines ersten neuronalen Netzes generiert und
nicht gemessen werden.
Bevorzugte Weiterbildungen der Erfindung ergeben sich aus den
abhängigen Ansprüchen.
In einer Weiterbildung ist es vorgesehen, aus dem
Erwartungswert, der mittels des zweiten neuronalen Netzes
bestimmt wird, die abhängige zweiten Variable zu ermitteln.
Vorzugsweise sind/ist die erste Variable und/oder die zweite
Variable mehrdimensionale Vektoren/ein mehrdimensionaler
Vektor.
Zur weiteren Vereinfachung ist es ferner in einer
Weiterbildung vorgesehen, Parameter des zweiten neuronalen
Netzes mittels eines EM-Algorithmus zu bestimmen.
Eine weitere Vereinfachung ergibt sich in einer
Ausgestaltung, wenn als Basisfunktionen Gauß-Funktionen
verwendet werden.
Vorzugsweise wird unter Verwendung der zweiten Variable
und/oder des ersten neuronalen Netzes eine dritte Variable
bestimmt. Bevorzugt ist die dritte Variable die erste
Variable.
In einer bevorzugten Weiterbildung sind die zweite Variable
und die dritte Variable ein weiteres Datenpaar.
Hinsichtlich eines realen Abbildungsverhalten des zweiten
neuronalen Netzes ist es vorteilhaft, die Trainingsdatenpaare
durch eine Approximation unter Verwendung eines neuronalen
Netzes zu ermitteln.
In einer Weiterbildung kann die Anordnung bzw. das Verfahren
für eine Regelung einer technischen Anlage eingesetzt werden.
Ebenso kann die Anordnung bzw. das Verfahren für eine
Steuerung einer technischen Anlage eingesetzt werden.
Die erste Variable und/oder die zweite Variable können/kann
eine Prozeßgröße und/oder eine Steuergröße der technischen
Anlage beschreiben.
Zur Erhöhung der Wickelgüte eines durch eine
Papierwickelvorrichtung produzierten Papierwickels, ist es
vorteilhaft, die Anordnung bzw. das Verfahren zur Regelung
und/oder zur Steuerung der Papierwickelvorrichtung
einzusetzen.
Besonders einfach ist eine Regelung und/oder eine Steuerung
der Papierwickelvorrichtung, wenn die erste Variable eine
mittlere Lagendicke und/oder die zweite Variable einen
Bahnzug und eine Linienkraft beschreiben/beschreibt.
In einer Weiterbildung hängt die Trainingsverbunddichte von
der ersten Variablen und der zweiten Variablen ab.
Ein Ausführungsbeispiel der Erfindung ist in den Fig. 1
bis 4 dargestellt und wird im weiteren näher erläutert.
Es zeigen:
Fig. 1 Schematische Darstellung der Modellierung einer
Papierwickelvorrichtung
Fig. 2 Äußere Struktur des zweiten neuronalen Netzes
Fig. 3 Innere Struktur des zweiten neuronalen Netzes
Fig. 4 Schematische Darstellung des Zusammenwirkens des
ersten und des zweiten neuronalen Netzes
In Fig. 1 ist schematisch gezeigt, wie eine Weiterbildung
der Erfindung zur Modellierung und für die Steuerung bzw. für
die Regelung einer Papierwickelvorrichtung eingesetzt wird.
Während des Betriebs einer Papierwickelvorrichtung werden
vorgegebene Werte für eine Steuergröße Bahnzug x und eine
Steuergröße Linienkraft y an der Papierwickelvorrichtung
eingestellt und während eines Wickelvorgangs, bei dem ein
kompletter Wickel produziert wird, in etwa konstant gehalten.
Der Variationsbereich der eingestellten Werte für die
Steuergröße Bahnzug x liegt zwischen 6 bis 12 N/cm, der
Variationsbereich für die Steuergröße Linienkraft y liegt
zwischen 17 und 45 N/cm.
Für jeden durch einen vorgegebenen Bahnzug x und eine
vorgegebene Linienkraft y an der Papierwickelvorrichtung
eingestellten Arbeitspunkt (x, y) wird eine mittlere
Lagendicke z eines unter den am Arbeitspunkt (x, y)
herrschenden Arbeitsbedingungen produzierten Wickels
bestimmt.
Dieses Vorgehen wird für 16 eingestellte Arbeitspunkte (x, y)
ausgeführt, so daß 16 Datentripel (x, y, z) bestehend aus den
entsprechenden Werten für die Steuergröße Bahnzug x, die
Steuergröße Linienkraft y und die Prozeßgröße mittlere
Lagendicke z erzeugt werden.
Mit Hilfe dieser 16 Datentripel (x, y, z) wird ein erstes
neuronales Netz trainiert. Als Zielgröße für das Training
wird die Prozeßgröße mittlere Lagendicke z verwendet. Das
trainierte erste neuronale Netz beschreibt mit ihrer
Abbildung das Systemverhalten der Papierwickelvorrichtung
entsprechen Gleichung 1:
z = f (x, y) [Gleichung 1]
mit:
z: mittlere Lagendicke,
x: Bahnzug,
y: Linienkraft.
z: mittlere Lagendicke,
x: Bahnzug,
y: Linienkraft.
Unter Verwendung des ersten neuronalen Netzes wird eine
Approximation, wie aus [4] bekannt ist, durchgeführt.
Mit Hilfe des trainierten ersten neuronalen Netzes werden
Trainingsdatenpaare (u, v) für das Training des zweiten
neuronalen Netzes generiert.
Die Trainingsdatenpaare (u, v) haben folgende Gestalt:
u = z: Variable für die Prozeßgröße mittlere Lagendicke z
v = (x, y): Variable für den Vektor aus der Steuergröße Bahnzug x und der Steuergröße Linienkraft y
u = z: Variable für die Prozeßgröße mittlere Lagendicke z
v = (x, y): Variable für den Vektor aus der Steuergröße Bahnzug x und der Steuergröße Linienkraft y
Es werden Werte für die Steuergröße x aus dem Intervall
[4; 12] N/cm in Schritten von 0,1 N/cm (81 Werte) und Werte
für die Steuergröße y aus dem Intervall [15; 50] N/cm in
Schritten von 0,5 N/cm (71) an das erste neuronale Netz
angelegt. Das erste neuronale Netz bestimmt für jede
Kombination der Steuergröße x und der Steuergröße y aus dem
entsprechenden Intervall die entsprechende Prozeßgröße
mittlere Lagendicke. Damit werden 5751 (81 Werte für x . 71
Werte für y) Trainingsdatenpaare (u, v) generiert.
Die in dem 3. Schritt generierten Datenpaare werden für das
Training des zweiten neuronalen Netzes verwendet. Als
Zielgröße für das Training wird die Verbunddichte p(u, v)
verwendet.
Die detaillierte Struktur und Funktionsweise des zweiten
neuronalen Netzes ist in Fig. 2 und 3 dargestellt.
Unter Verwendung des trainierten zweiten neuronalen Netzes
werden für einen vorgegebenen und für eine gewünschte
Wickelgüte notwendigen Wert für die Prozeßgröße mittlere
Lagendicke z die entsprechenden, an der
Papierwickelvorrichtung einstellbaren, Werte für die
Steuergröße Bahnzug x und die Steuergröße Linienkraft y
ermittelt. Der diskrete Wert für die Steuergröße Bahnzug x
und der entsprechende diskrete Wert für die Steuergröße
Linienkraft y legt einen diskreten Arbeitspunkt der
Papierwickelvorrichtung fest.
Da sich bei einem Wickelvorgang die mittlere Lagendicke z mit
Veränderung des Durchmessers des Wickels ändert, werden für
vorgegebene mittlere Lagendicken z aus dem Intervall [95; 103]
µm entsprechende diskrete Arbeitspunkte (x, y) bestimmt.
Für die im 5. Schritt ermittelten diskreten Arbeitspunkte
(x, y) wird mittels einer Interpolation mit kubischen Splines
eine kontinuierliche Arbeitslinie der Papierwickelvorrichtung
bestimmt.
Zur Kontrolle des Verfahrens werden für beliebige
Arbeitspunkte (x, y) dieser Arbeitslinie unter Verwendung des
ersten neuronalen Netzes entsprechende zweite Werte für die
mittlere Lagendicke z bestimmt und diese mit den vorgegebenen
mittleren Lagendicken z (siehe 5. Schritt) verglichen.
In Fig. 4 ist schematisch das Zusammenwirken des ersten
neuronalen Netzes 401 und des zweiten neuronalen Netzes 402
dargestellt.
Unter Verwendung des ersten neuronalen Netzes 401 werden, wie
in Fig. 1 gemäß Schritt 101 und 102 beschrieben ist,
Trainingsdatenpaare 403 ermittelt. Unter Verwendung dieser
Trainingsdatenpaare 403 wird das zweite neuronale Netz 402
trainiert.
In Fig. 2 ist die Struktur des zweiten neuronalen Netzes
dargestellt.
Als Eingangsgröße des zweiten neuronalen Netzes 201 wird die
Prozeßgröße mittlere Lagendicke als eine erste Variable u an
das zweite neuronale Netz 202 angelegt. Unter Verwendung des
zweiten neuronalen Netzes wird die Verbunddichte p(u, v) 203
der Variablen u und einer Variablen v 205, die einen Vektor
bestehend aus der Steuergröße Bahnzug und der Steuergröße
Linienkraft ist, geschätzt. Aus der Verbunddichte wird der
bedingte Erwartungswert E[vIu] 204 der Variablen v unter der
Bedingung der Variablen u als Ausgangsgröße des zweiten
neuronalen Netzes bestimmt. Der bedingte Erwartungswert
E[vIu] 204 der Variablen v unter der Bedingung der Variablen
u gilt als die bestmögliche Schätzung für die Steuergrößen
Bahnzug und Linienkraft beschrieben durch die zweite Variable
v 205, wie aus [6] bekannt ist.
Dabei werden folgende Zusammenhänge verwendet:
Gegeben seien endlich viele Realisierungen
D: = [u(i),v(i)]i=1,...,N der ersten Variable u und der zweiten
Variable v der Dimension Du bzw. Dv. (u: Prozeßgröße mittlere
Lagendicke, v: Vektor für die Steuergröße Bahnzug und
Linienkraft). Die Verbunddichte p(u, v) läßt sich unter
Verwendung des zweiten neuronalen Netzes 202 mit einer
endlichen Anzahl M von Basisfunktionen, mit denen eine
Eingangsgröße des zweiten neuronalen Netzes auf eine
Ausgangsgröße abgebildet wird, und die als Kerne ø(k)
bezeichnet werden, schätzen:
P(k) ist die apriori Wahrscheinlichkeit, daß unter Verwendung
des Kerns k der Datensatz (u, v) erzeugt wurde. Die Kerne ϕ(k)
bestehen aus einem Produkt eindimensionaler Gauss-Funktionen:
Es gilt:
mit:
µ: Erwartungswert
σ: Varianz
z: Zufallsgröße
p(z; µ, σ): Wahrscheinlichkeitsdichtefunktion
µ: Erwartungswert
σ: Varianz
z: Zufallsgröße
p(z; µ, σ): Wahrscheinlichkeitsdichtefunktion
Im weiteren wird angenommen, daß R = (-∞, ∞) gilt. Es läßt sich
zeigen, daß bei hinreichend groß gewähltem M die
Verbunddichte p(u, v) beliebig genau approximiert werden kann.
Die Parameter des zweiten neuronalen Netzes 202 werden
mittels des EM-Algorithmus durch Minimierung der negativen
LogLikelihood
mit:
i: Index
N: Anzahl der verwendeten Trainingsdaten bestimmt [8].
i: Index
N: Anzahl der verwendeten Trainingsdaten bestimmt [8].
Bedingt durch die Verwendung eines Produktes von
eindimensionalen Gauss-Funktionen hat der EM-Algorithmus eine
besonders einfache Struktur.
Die Abbildung des zweiten neuronalen Netzes 202 entspricht
einem dreischichtigen neuronalen Netz (Fig. 3): Eine zweite
Schicht 301 besteht aus den M Kernen 302. Jeder dieser Kerne
erhält als Eingabe den Datensatz (u, v) einer ersten Schicht
303. An Ausgang der zweiten Schicht werden die Kerne mit der
zugehörigen apriori Wahrscheinlichkeit gewichtet und ergeben
aufsummiert die Verbunddichte p(u, v) 304:
Weiterhin gilt:
mit dv = dv1 ... dvDv
mit dv = dv1 ... dvDv
Besteht nun zwischen den Variablen u (Prozeßgröße mittlere
Lagendicke) und v (Steuergröße Bahnzug und Steuergröße
Linienkraft) ein Zusammenhang derart, daß u die unabhängige
und v = f(u) die abhängige Variable ist, dann ist der bedingte
Erwartungswert E[v\u] der Variablen v unter der Bedingung der
Variablen u der bestmögliche Schätzwert für die Variable v im
Sinne des kleinsten quadratischen Fehlers. Der Zusammenhang
ist aus [6] bekannt. Mit Hilfe von Bayes' Theorem
mit:
p(u): Wahrscheinlichkeit der Variable u
p(vIu): bedingte Wahrscheinlichkeit der Variable v unter der Bedingung der Variablen u
gilt:
p(u): Wahrscheinlichkeit der Variable u
p(vIu): bedingte Wahrscheinlichkeit der Variable v unter der Bedingung der Variablen u
gilt:
Ist also die Verbunddichte p (u, v) bestimmt, so läßt sich der
bedingte Erwartungswert E[vIu] der Variablen v unter der
Bedingung der Variablen u mit ihrer Hilfe ermitteln. Das
Ergebnis ist ein Schätzwert für die zweite Variable v.
Im folgenden werden einige Varianten zu dem oben
beschriebenen Ausführungsbeispiel angegeben:
Gegebenenfalls können Transformationen (Standardisierung,
Normierung etc.) der Datensätze vor der Schätzung der
Verbunddichte der ersten und der zweiten Variable das
Ergebnis positiv beeinflussen. Zuerst werden die Datensätze
transformiert. Dann wird die Verbunddichte der ersten und der
zweiten Variable und der bedingte Erwartungswert der zweiten
Variable unter der Bedingung der ersten Variable ermittelt.
Anschließend wird wieder zurücktransformiert.
Durch die Nutzung der Variable v als Startwert für weitere
Optimierungsverfahren, kann der Fehler der Variable u in
Bezug zu einer vorgegebenen Variable u verringert werden.
Gegebenenfalls können die Parameter des zweiten neuronalen
Netzes durch ein Clusterverfahren, z. B. K-Means-Clustering
[7], initialisiert werden.
In einer Alternative des oben dargestellten
Ausführungsbeispiels können die vorgegebenen mittleren
Lagendicken z in einer derart kleinen Schrittweite, wie zum
Beispiel 0,01 µm, vorgegeben werden (vgl. 5. Schritt), daß
die entsprechenden Arbeitspunkte (x, y) voneinander nur sehr
geringfügig hinsichtlich der Steuergröße Bahnzug x und/oder
der Steuergröße Linienkraft y abweichen. Damit kann auf die
Bestimmung einer kontinuierlichen Arbeitslinie verzichtet
werden, und damit kann der 6. Schritt des dargestellten
Ausführungsbeispiels entfallen.
In einer weiteren Alternative des oben dargestellten
Ausführungsbeispiels können Randbedingungen für die
Steuergröße Bahnzug x und die Steuergröße Linienkraft y
vorgegeben werden. Durch diese Randbedingungen können die
Arbeitspunkte (x, y) der Papierwickelvorrichtung durch jeweils
einen vorgegebenen minimalen und maximalen Wert für die
Steuergröße Bahnzug x und die Steuergröße Linienkraft y
eingeschränkt werden. Somit können von den Kernen des zweiten
neuronalen Netzes nur die berücksichtigt werden, die den
Randbedingungen genügen.
Gegebenenfalls kann die Arbeitslinie der
Papierwickelvorrichtung unter Verwendung eines Diagrams,
welches das Betriebsverhalten der Papierwickelvorrichtung,
beschrieben durch Datenpunkte aus (Steuergröße Bahnzug x,
Steuergröße Linienkraft y, Prozeßgröße mittlere Lagendicke
z), mehrdimensional darstellt (Höhenliniendiagram), ermittelt
werden. Dazu werden die Trainingsdatenpaare und/oder
zusätzliche Datenpaare, die durch Anwendung eines
dreidimensionalen Interpolationsverfahrens auf die
Trainingsdatenpaare generiert werden können, in einem
dreidimensionalen Diagram (Höhenliniendiagram) dargestellt.
An der Abszisse und der Ordinate kann die Steuergröße Bahnzug
und die Steuergröße Linienkraft y angetragen werden. Die
dritte Dimension beschreibt die Prozeßgröße mittlere
Lagendicke z.
Die Arbeitslinie der Papierwickelvorrichtung, die durch einen
minimalen Startwert und einen maximalen Endwert für die
mittlere Lagendicke z begrenzt wird, kann unter Verwendung
des Höhenliniendiagrams auf folgende Weise bestimmt werden:
Ausgehend von dem Startwert, der als Punkt im
Höhenliniendiagram markiert werden kann, wird rechnergestützt
die Verbindung zu dem Endwert, der ebenfalls als Punkt im
Höhenliniendiagram markiert werden kann, unter der
Randbedingung eines minimalen Gradientenanstiegs ermittelt.
Gegebenenfalls kann das erste neuronale Netz eines von
mehreren ersten neuronalen Netzen und/oder das zweite
neuronale Netz eines von mehreren zweiten neuronalen Netzen
sein.
In diesem Dokument sind folgende Veröffentlichungen zitiert:
- 1. [1]: Wolfermann W., "Mathematischer Zusammenhang zwischen Bahnzugkraft und innerer Spannung beim Wickeln von elastischen Bahnen", Dissertation der Technischen Universität München, 1976.
- 2. [2]: Schaffrath H.-J., "Über das Kompressions- und Reibverhalten von Papier vor dem Hintergrund des Rollenwickelns", Dissertation der Technischen Universität Darmstadt, 1993.
- 3. [3]: Neuneier, Ralph, Hergert, F., Finnoff, W., Ormoneit, D.,"Estimation Of Conditional Densities: A Comparison of Neural Network Approaches", Proceedings of the International Conference On Artificial Neural Networks (ICANN) 1994, Sorrent, Italien.
- 4. [4]: Diercks P., "Curve and Surface Fitting with Splines Monographs on Numerical Analysis", Oxford University Press, 1995.
- 5. [5]: Zell, A., "Simulation Neuronaler Netze", S. 225-240, Addison-Wesley Publishing Company, 1994
- 6. [6]: Schlittgen, Rainer und Streitberg, Bernd H. J.,"Zeitreihenanalyse", R. Oldenbourg Verlag, 1994.
- 7. [7]: Loyd, S. P., "Least Squares Quantization in PCM", IEEE Transactions on Information Theory, Vol. 28, 1982
- 8. [8]: Dempster, A. P., Laird, N. M., Rubin, D. B.,"Maximum Likelihood from Incomplete Data via the EM Algorithm", pp. 1-38, Royal Statistical Society B, Vol. 39, 1977
Claims (54)
1. Verfahren zur rechnergestützten Ermittlung einer
Ausgangsgröße unter Verwendung eines zweiten neuronalen
Netzes, bei dem das zweite neuronale Netz die Ausgangsgröße
mittels Basisfunktionen aus einer an das zweite neuronale
Netz angelegten Eingangsgröße ermittelt,
dadurch gekennzeichnet, daß
- a) das zweite neuronale Netz unter Verwendung von Trainingsdatenpaaren, die unter Verwendung eines ersten neuronalen Netzes generiert wurden, trainiert wurde;
- b) eine erste Variable eines Datenpaars, das die erste Variable und eine zweite Variable umfaßt, wobei die erste Variable eine unabhängige Variable und die zweite Variable eine von der ersten Variablen abhängige Variable ist, als die Eingangsgröße an das zweite neuronale Netz angelegt wird;
- c) ein Erwartungswert, der ein bedingter Erwartungswert der zweiten Variable unter der Bedingung der ersten Variable ist, als die Ausgangsgröße des zweiten neuronalen Netzes ermittelt wird.
2. Verfahren nach Anspruch 1,
dadurch gekennzeichnet, daß die erste
Variable und/oder die zweite Variable mehrdimensionale
Vektoren sind/ist.
3. Verfahren nach Anspruch 1 oder 2,
dadurch gekennzeichnet, daß unter
Verwendung des ersten neuronalen Netzes eine Approximation
durchgeführt wird.
4. Verfahren nach einem der Ansprüche 1 bis 3,
dadurch gekennzeichnet, daß aus dem
von dem zweiten neuronalen Netz ausgegeben Erwartungswert
die zweite Variable bestimmt wird.
5. Verfahren nach Anspruch 4,
dadurch gekennzeichnet, daß unter
Verwendung der zweiten Variable und/oder des ersten
neuronalen Netzes eine dritte Variable bestimmt wird.
6. Verfahren nach Anspruch 5,
dadurch gekennzeichnet, daß die
dritte Variable die erste Variable ist.
7. Verfahren nach Anspruch 5 oder 6,
dadurch gekennzeichnet, daß die
zweite Variable und die dritte Variable ein weiteres
Datenpaar sind.
8. Verfahren nach einem der Ansprüche 1 bis 7,
dadurch gekennzeichnet, daß als
Basisfunktionen eindimensionale Gauß-Funktionen verwendet
werden.
9. Verfahren nach einem der Ansprüche 1 bis 8,
dadurch gekennzeichnet, daß Parameter
des zweiten neuronalen Netzes mittels eines EM-Algorithmus
bestimmt werden.
10. Verfahren nach einem der Ansprüche 1 bis 9,
dadurch gekennzeichnet, daß die erste
und/oder die zweite Variable eine Prozeßgröße und/oder eine
Steuergröße einer technischen Anlage sind/ist.
11. Verfahren nach Anspruch 10,
dadurch gekennzeichnet, daß die erste
und/oder die zweite Variable eine Prozeßgröße und/oder eine
Steuergröße einer Papierwickelvorrichtung sind/ist.
12. Verfahren nach Anspruch 11,
dadurch gekennzeichnet, daß die erste
Variable eine mittlere Lagendicke und/oder die zweite
Variable einen Bahnzug und eine Linienkraft
beschreiben/beschreibt.
13. Verwendung des Verfahrens nach einem der Ansprüche 1 bis
10 zur Regelung einer technischen Anlage.
14. Verwendung des Verfahrens nach einem der Ansprüche 1 bis
12 zur Regelung einer Papierwickelvorrichtung.
15. Verfahren zum rechnergestützten Training eines zweiten
neuronalen Netzes, bei dem das zweite neuronale Netz
jeweils ein Trainingsdatenpaar mittels Basisfunktionen auf
eine Ausgangsgröße abbildet,
dadurch gekennzeichnet, daß
- a) das Trainingsdatenpaar, das eine erste Variable und eine zweite Variable umfaßt, wobei die erste Variable eine unabhängige Variable und die zweite Variable eine von der ersten Variablen abhängige Variable ist, derart bestimmt wird, daß die erste Variable an ein erstes neuronales Netz angelegt und mittels des ersten neuronalen Netzes die zweite Variable bestimmt wird;
- b) eine Trainingsverbunddichte als Zielgröße zu dem Training des zweiten neuronalen Netzes verwendet wird.
16. Verfahren nach Anspruch 15,
dadurch gekennzeichnet, daß die
erste Variable und/oder die zweite Variable
mehrdimensionale Vektoren sind/ist.
17. Verfahren nach Anspruch 15 oder 16,
dadurch gekennzeichnet, daß die
Trainingsverbunddichte von der ersten Variablen und der
zweiten Variablen abhängt.
18. Verfahren nach einem der Ansprüche 15 bis 17,
dadurch gekennzeichnet, daß unter
Verwendung des ersten neuronalen Netzes eine Approximation
durchgeführt wird.
19. Verfahren nach einem der Ansprüche 15 bis 18,
dadurch gekennzeichnet, daß aus dem
von dem zweiten neuronalen Netz ausgegeben Erwartungswert
die zweite Variable bestimmt wird.
20. Verfahren nach Anspruch 19,
dadurch gekennzeichnet, daß unter
Verwendung der zweiten Variable und/oder des ersten
neuronalen Netzes eine dritte Variable bestimmt wird.
21. Verfahren nach Anspruch 20,
dadurch gekennzeichnet, daß die
dritte Variable die erste Variable ist.
22. Verfahren nach Anspruch 20 oder 21,
dadurch gekennzeichnet, daß die
zweite Variable und die dritte Variable ein weiteres
Datenpaar sind.
23. Verfahren nach einem der Ansprüche 15 bis 22,
dadurch gekennzeichnet, daß als
Basisfunktionen eindimensionale Gauß-Funktionen verwendet
werden.
24. Verfahren nach einem der Ansprüche 15 bis 23,
dadurch gekennzeichnet, daß Parameter
des zweiten neuronalen Netzes mittels eines EM-Algorithmus
bestimmt werden.
25. Verfahren nach einem der Ansprüche 15 bis 24,
dadurch gekennzeichnet, daß die erste
Variable und/oder die zweite Variable eine Prozeßgröße
und/oder eine Steuergröße einer technischen Anlage
sind/ist.
26. Verfahren nach Anspruch 25,
dadurch gekennzeichnet, daß die erste
Variable und/oder die zweite Variable eine Prozeßgröße
und/oder eine Steuergröße einer Papierwickelvorrichtung
sind/ist.
27. Verfahren nach Anspruch 26,
dadurch gekennzeichnet, daß die erste
Variable eine mittlere Lagendicke und/oder die zweite
Variable einen Bahnzug und eine Linienkraft
beschreiben/beschreibt.
28. Anordnung zur rechnergestützten Ermittlung einer
Ausgangsgröße mit einem zweiten neuronalen Netz, wobei das
zweite neuronale Netz derart eingerichtet ist, daß die
Ausgangsgröße mittels Basisfunktionen aus einer an das
zweite neuronale Netz angelegten Eingangsgröße ermittelbar
ist,
dadurch gekennzeichnet, daß
- a) an einem Eingang eines ersten neuronalen Netzes ein Datenpaar, das eine erste und eine zweite Variable umfaßt, wobei die erste Variable eine unabhängige Variable und die zweite Variable eine von der ersten Variable abhängige Variable ist, anlegbar ist;
- b) an einem Ausgang des ersten neuronalen Netzes die zweite Variable abgreifbar ist;
- c) an einem Eingang des zweiten neuronalen Netzes das Datenpaar anlegbar ist;
- d) an einem Ausgang des zweiten neuronalen Netzes ein Erwartungswert, der ein bedingter Erwartungswert der zweiten Variable ist, als die Ausgangsgröße abgreifbar ist;
- e) das zweite neuronale Netz derart eingerichtet ist, daß das zweite neuronale Netz unter Verwendung von Trainingsdatenpaaren, die unter Verwendung des ersten neuronalen Netzes generiert wurden, trainierbar ist.
29. Anordnung nach Anspruch 28,
dadurch gekennzeichnet, daß die erste
Variable und/oder die zweite Variable mehrdimensionale
Vektoren sind/ist.
30. Anordnung nach Anspruch 28 oder 29,
dadurch gekennzeichnet, daß unter
Verwendung des ersten neuronalen Netzes eine Approximation
durchführbar ist.
31. Anordnung nach einem der Ansprüche 28 bis 30,
dadurch gekennzeichnet, daß aus dem
von dem zweiten neuronalen Netz ausgegeben Erwartungswert
die zweite Variable bestimmbar ist.
32. Anordnung nach Anspruch 31,
dadurch gekennzeichnet, daß unter
Verwendung der zweiten Variable und/oder des ersten
neuronalen Netzes eine dritte Variable bestimmbar ist.
33. Anordnung nach Anspruch 32,
dadurch gekennzeichnet, daß die
dritte Variable die erste Variable ist.
34. Anordnung nach Anspruch 32 oder 33,
dadurch gekennzeichnet, daß die
zweite Variable und die dritte Variable ein weiteres
Datenpaar sind.
35. Anordnung nach einem der Ansprüche 28 bis 34,
dadurch gekennzeichnet, daß als
Basisfunktionen eindimensionale Gauß-Funktionen verwendbar
sind.
36. Anordnung nach einem der Ansprüche 28 bis 35,
dadurch gekennzeichnet, daß Parameter
des zweiten neuronalen Netzes mittels eines EM-Algorithmus
bestimmbar sind.
37. Anordnung nach einem der Ansprüche 28 bis 36,
dadurch gekennzeichnet, daß die erste
Variable und/oder die zweite Variable eine Prozeßgröße
und/oder Steuergröße einer technischen Anlage sind/ist.
38. Anordnung nach Anspruch 37,
dadurch gekennzeichnet, daß die erste
Variable und/oder die zweite Variable eine Prozeßgröße
und/oder Steuergröße einer Papierwickelvorrichtung
sind/ist.
39. Anordnung nach Anspruch 38,
dadurch gekennzeichnet, daß die erste
Variable eine mittlere Lagendicke und/oder die zweite
Variable einen Bahnzug und eine Linienkraft
beschreiben/beschreibt.
40. Verwendung der Anordnung nach einem der Ansprüche 28 bis
37 zur Regelung einer technischen Anlage.
41. Verwendung der Anordnung nach einem der Ansprüche 28 bis
39 zur Regelung einer Papierwickelvorrichtung.
42. Anordnung zum rechnergestützten Training eines zweiten
neuronalen Netzes mit einem Prozessor, der derart
eingerichtet ist, daß unter Verwendung des zweiten
neuronalen Netzes jeweils ein Trainingsdatenpaar mittels
Basisfunktionen auf eine Ausgangsgröße abbildbar ist,
dadurch gekennzeichnet, daß folgende
Schritte durchführbar sind:
- a) das Trainingsdatenpaar, das eine erste Variable und eine zweite Variable umfaßt, wobei die erste Variable eine unabhängige Variable und die zweite Variable eine von der ersten Variablen abhängige Variable ist, wird derart bestimmt, daß die erste Variable an ein erstes neuronales Netz angelegt und mittels des ersten neuronalen Netzes die zweite Variable bestimmt wird;
- b) eine Trainingsverbunddichte wird als Zielgröße zu dem Training des zweiten neuronalen Netzes verwendet.
43. Anordnung nach Anspruch 42,
dadurch gekennzeichnet, daß die erste
Variable und/oder die zweite Variable mehrdimensionale
Vektoren sind/ist.
44. Anordnung nach Anspruch 42 bis 43,
dadurch gekennzeichnet, daß die
Trainingsverbunddichte von der ersten Variablen und der
zweiten Variablen abhängt.
45. Anordnung nach einem der Ansprüche 42 bis 44,
dadurch gekennzeichnet, daß unter
Verwendung des ersten neuronalen Netzes eine Approximation
durchführbar ist.
46. Anordnung nach einem der Ansprüche 42 bis 45,
dadurch gekennzeichnet, daß aus dem
von dem zweiten neuronalen Netz ausgegeben Erwartungswert
die zweite Variable bestimmbar ist.
47. Anordnung nach Anspruch 46,
dadurch gekennzeichnet, daß unter
Verwendung der zweiten Variable und/oder des ersten
neuronalen Netzes eine dritte Variable bestimmbar ist.
48. Anordnung nach Anspruch 47,
dadurch gekennzeichnet, daß die
dritte Variable die erste Variable ist.
49. Anordnung nach Anspruch 47 oder 48,
dadurch gekennzeichnet, daß die
zweite Variable und die dritte Variable ein weiteres
Datenpaar sind.
50. Anordnung nach einem der Ansprüche 42 bis 49,
dadurch gekennzeichnet, daß als
Basisfunktionen eindimensionale Gauß-Funktionen verwendbar
sind.
51. Anordnung nach einem der Ansprüche 42 bis 50,
dadurch gekennzeichnet, daß Parameter
des zweiten neuronalen Netzes mittels eines EM-Algorithmus
bestimmbar sind.
52. Anordnung nach einem der Ansprüche 42 bis 51,
dadurch gekennzeichnet, daß die erste
Variable und/oder die zweite Variable eine Prozeßgröße
und/oder Steuergröße einer technischen Anlage sind/ist.
53. Anordnung nach Anspruch 52,
dadurch gekennzeichnet, daß die erste
Variable und/oder die zweite Variable eine Prozeßgröße
und/oder Steuergröße einer Papierwickelvorrichtung
sind/ist.
54. Anordnung nach Anspruch 53,
dadurch gekennzeichnet, daß die erste
Variable eine mittlere Lagendicke und/oder die zweite
Variable einen Bahnzug und eine Linienkraft
beschreiben/beschreibt.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE19832967A DE19832967C1 (de) | 1998-07-22 | 1998-07-22 | Verfahren zur rechnergestützten Ermittlung einer Ausgangsgröße, Verfahren zum rechnergestützten Training eines neuronalen Netzes, Anordnung zur rechnergestützten Ermittlung einer Ausgangsgröße und Anordnung zum rechnergestützten Training eines neuronalen Netzes sowie deren jeweilige Verwendung |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE19832967A DE19832967C1 (de) | 1998-07-22 | 1998-07-22 | Verfahren zur rechnergestützten Ermittlung einer Ausgangsgröße, Verfahren zum rechnergestützten Training eines neuronalen Netzes, Anordnung zur rechnergestützten Ermittlung einer Ausgangsgröße und Anordnung zum rechnergestützten Training eines neuronalen Netzes sowie deren jeweilige Verwendung |
Publications (1)
Publication Number | Publication Date |
---|---|
DE19832967C1 true DE19832967C1 (de) | 2000-04-20 |
Family
ID=7874917
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE19832967A Expired - Fee Related DE19832967C1 (de) | 1998-07-22 | 1998-07-22 | Verfahren zur rechnergestützten Ermittlung einer Ausgangsgröße, Verfahren zum rechnergestützten Training eines neuronalen Netzes, Anordnung zur rechnergestützten Ermittlung einer Ausgangsgröße und Anordnung zum rechnergestützten Training eines neuronalen Netzes sowie deren jeweilige Verwendung |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE19832967C1 (de) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6752347B2 (en) * | 2000-04-12 | 2004-06-22 | Metso Paper, Inc. | Method for improving the operating reliability of a reel-up |
WO2006000427A1 (de) * | 2004-06-25 | 2006-01-05 | Fev Motorentechnik Gmbh | Fahrzeug-steuergerät mit einem neuronalen netz |
DE102005010027A1 (de) * | 2005-03-04 | 2006-09-07 | Siemens Ag | Verfahren zum rechnergestützten Betrieb eines technischen Systems |
CN100426158C (zh) * | 2005-12-22 | 2008-10-15 | 安徽工业大学 | 基于神经网络逆辨识与逆控制的多变量***的间接解耦方法 |
US10929993B2 (en) | 2017-09-29 | 2021-02-23 | L'oreal | Automated imaging system for evaluating the curl of a keratinous substrate |
-
1998
- 1998-07-22 DE DE19832967A patent/DE19832967C1/de not_active Expired - Fee Related
Non-Patent Citations (6)
Title |
---|
Diercks,P.: Curve and Surface Fitting with SplinesMonographs on Numerical Analysis, Oxford University Press, 1995 * |
Neuneier, Ralph, Hergert, F.,Finnoff, W., OrmoneitD.: Estimation of Conditional Densities: A Compa- rison of Neural Network Approaches, Proceedings ofthe International Conference On Artificial Neural Networks (ICANN), 1994, Sorrent, Italien * |
Schaffrath, H.-J.: Über das Kompressions- und Reibverhalten von Papier vor dem Hintergrund des Rollenwickelns, Dissertation der Technischen Uni- versität Darmstadt, 1993 * |
Schlittgen, Rainer u. Streitberg, Bernd H.J.: * |
Wolfermann,W.:Mathematischer Zusammenhang zwischenBahnzugkraft und innerer Spannung beim Wickeln vonelastischen Bahnen, Dissertation der Technischen Universität München, 1976 * |
Zell, A.: Simulation Neuronaler Netze, S. 225-240,Addison-Wesley Publishing Company, 1994 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6752347B2 (en) * | 2000-04-12 | 2004-06-22 | Metso Paper, Inc. | Method for improving the operating reliability of a reel-up |
WO2006000427A1 (de) * | 2004-06-25 | 2006-01-05 | Fev Motorentechnik Gmbh | Fahrzeug-steuergerät mit einem neuronalen netz |
DE102005010027A1 (de) * | 2005-03-04 | 2006-09-07 | Siemens Ag | Verfahren zum rechnergestützten Betrieb eines technischen Systems |
DE102005010027B4 (de) * | 2005-03-04 | 2007-08-02 | Siemens Ag | Verfahren zum rechnergestützten Betrieb eines technischen Systems |
CN100426158C (zh) * | 2005-12-22 | 2008-10-15 | 安徽工业大学 | 基于神经网络逆辨识与逆控制的多变量***的间接解耦方法 |
US10929993B2 (en) | 2017-09-29 | 2021-02-23 | L'oreal | Automated imaging system for evaluating the curl of a keratinous substrate |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE69324296T2 (de) | Verfahren zur Diagnose eines laufenden Prozesses | |
DE102016011525B4 (de) | Vorrichtung für maschinelles Lernen und Spulen-Produktionsvorrichtung | |
DE19531692C2 (de) | Verfahren zur Beobachtung nicht meßbarer Größen nichtlinearer dynamischer Systeme | |
EP1037842B1 (de) | Verfahren und anordnung zur vorhersage und regelung einer papierwickelkenngrösse bei einer papierwickelvorrichtung | |
EP3876060B1 (de) | Verfahren und recheneinheit zur ursachenanalyse eines anomalen zustandes einer maschine | |
DE3913381A1 (de) | Verfahren zum erzeugen eines kettbaums und baeumvorrichtung | |
EP1070280B1 (de) | Verfahren und anordnung zur neuronalen modellierung einer papierwickelvorrichtung | |
DE102009019624A1 (de) | Verfahren zur Bestimmung wenigstens eines Reglerparameters eines Regelglieds in einem Bahnspannungs-Regelkreis für eine Bearbeitungsmaschine | |
DE19832967C1 (de) | Verfahren zur rechnergestützten Ermittlung einer Ausgangsgröße, Verfahren zum rechnergestützten Training eines neuronalen Netzes, Anordnung zur rechnergestützten Ermittlung einer Ausgangsgröße und Anordnung zum rechnergestützten Training eines neuronalen Netzes sowie deren jeweilige Verwendung | |
DE69326420T2 (de) | Digitale Verarbeitung und Filterung von Signalen | |
EP0925541B1 (de) | Verfahren und vorrichtung zur rechnergestützten generierung mindestens eines künstlichen trainingsdatenvektors für ein neuronales netz | |
DE10047718A1 (de) | Verfahren zur Spracherkennung | |
EP0670058B1 (de) | Verfahren zur stellgliedidentifizierung bei der querprofil-regelung einer kontinuierlich erzeugten materialbahn | |
DE3685538T2 (de) | Integrierende regelung einer abhaengigen variablen in einem system mit mindestens zwei unabhaengigen variablen, die die abhaengige variable beeinflussen. | |
EP0731913B1 (de) | Vorrichtung zur untersuchung des querprofils einer kontinuierlich erzeugten materialbahn | |
DE102009026987A1 (de) | Rollendruckmaschine und Verfahren zum Betreiben dieser | |
WO1995019591A1 (de) | Verfahren und vorrichtung zur führung eines prozesses | |
DE69518804T2 (de) | Prozess-überprüfung in photographischen verfahren | |
DE19814407B4 (de) | Verfahren und Anordnung zur neuronalen Modellierung einer Papierwickelvorrichtung | |
WO1998007100A1 (de) | Rechnergestütztes verfahren zur auswahl von trainingsdaten für ein neuronales netz | |
DE102020213889A1 (de) | Verfahren zum Validieren von Simulationsmodellen | |
EP1071999B1 (de) | Verfahren und anordnung zur rechnergestützten ermittlung einer abbildungsvorschrift | |
AT501517B1 (de) | Verfahren und messausrüstung zur bestimmung der winkelgeschwindigkeitsdifferenz | |
DE10393725T5 (de) | Verfahren zum Steuern eines Aufwicklers inklusive dem Bestimmen von Laufparametern auf der Grundlage von Modellen unter Berücksichtigung eines Abwicklers | |
EP2050868B1 (de) | Regeleinrichtung und Verfahren zur Flächengewichtsregelung in einer Papiermaschine |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8100 | Publication of patent without earlier publication of application | ||
D1 | Grant (no unexamined application published) patent law 81 | ||
8364 | No opposition during term of opposition | ||
8339 | Ceased/non-payment of the annual fee |