DE69014613T2 - Genetische synthese von neuronalen netzwerken. - Google Patents

Genetische synthese von neuronalen netzwerken.

Info

Publication number
DE69014613T2
DE69014613T2 DE69014613T DE69014613T DE69014613T2 DE 69014613 T2 DE69014613 T2 DE 69014613T2 DE 69014613 T DE69014613 T DE 69014613T DE 69014613 T DE69014613 T DE 69014613T DE 69014613 T2 DE69014613 T2 DE 69014613T2
Authority
DE
Germany
Prior art keywords
network
projection
units
layer
blueprints
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE69014613T
Other languages
English (en)
Other versions
DE69014613D1 (de
Inventor
Aloke Minneapolis Mn 55417 Guha
Steven A. St. Paul Mn 55108 Harp
Tariq Minneapolis Mn 55410 Samad
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honeywell Inc
Original Assignee
Honeywell Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honeywell Inc filed Critical Honeywell Inc
Publication of DE69014613D1 publication Critical patent/DE69014613D1/de
Application granted granted Critical
Publication of DE69014613T2 publication Critical patent/DE69014613T2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/086Learning methods using evolutionary algorithms, e.g. genetic algorithms or genetic programming
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/12Computing arrangements based on biological models using genetic models
    • G06N3/126Evolutionary algorithms, e.g. genetic algorithms or genetic programming

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Theoretical Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Physiology (AREA)
  • Biomedical Technology (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Genetics & Genomics (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Machine Translation (AREA)
  • Transition And Organic Metals Composition Catalysts For Addition Polymerization (AREA)
  • Medicines Containing Antibodies Or Antigens For Use As Internal Diagnostic Agents (AREA)
  • Stored Programmes (AREA)
  • Devices For Executing Special Programs (AREA)

Description

  • Die vorliegende Erfindung bezieht sich auf ein Verfahren zur Verwendung von Lerntechniken des genetischen Typs im Zusammenhang mit dem Entwurf einer Vielzahl neuronaler Netzwerke, die für spezifische Anwendungen optimiert sind.
  • Vorausgegangene Arbeiten beim Entwurf von neuronalen Netzwerken haben die Schwierigkeit bei der Festlegung einer geeigneten Netzwerkstruktur und guter Werte für die Parameter der Lernregeln für spezifische Anwendungen aufgedeckt.
  • Der genetische Algorithmus ist ein Optimierverfahren, basierend auf der statistischen Auswahl und der Rekombination. Das Verfahren wird inspiriert durch natürliche Auswahl. Wenige Forscher (Dolan & Dyer (1987), Dress & Knisely (1987), Davis (1988), Montana und Davis (1989) und Whitley (1988)) haben genetische Algorithmen in einer begrenzten Weise angewendet, um neuronale Netzwerke für spezifische Probleme zu erzeugen. Beispielsweise verwenden Davis und Montana (1988, 1989) und Whitley (1988) den genetischen Algorithmus, um Gewichtungen einzustellen, wenn eine feste Netzwerkstruktur vorgegeben ist.
  • In der beanspruchten Erfindung ist eine allgemeine Darstellung von neuronalen Netzwerkarchitekturen mit der genetischen Lernstrategie verbunden, um eine flexible Umgebung für den Entwurf von üblichen neuronalen Netzwerken zu schaffen. Ein Konzept, auf dem die Erfindung basiert, ist die Darstellung eines Netzwerkentwurfes als eine "genetische Blaupause", wobei die Rekombination oder Mutation von nacheinander erzeugten Ausgaben solcher Blaupausen in unterschiedlichen aber zueinander bezogenen Netzwerkarchitekturen resultieren.
  • Um die Erfindung zu veranschaulichen, wird hier ein System für die genetische Synthese einer speziellen Klasse von neuronalen Netzwerken beschrieben, die wir verwirklicht haben. Unsere gegenwärtige Verwirklichung ist beschränkt auf Netzwerkstrukturen ohne Rückführungsverbindungen und beinhaltet die Lernregel der rückwärtigen Fortpflanzung. Die Erfindung kann jedoch für beliebige Netzwerkmodelle und Lernregeln verwendet werden.
  • Das vorliegende Verfahren beinhaltet die Verwendung von genetischen algorithmischen Verfahren, um neue neuronale Netzwerke zu entwerfen. Der genetische Algorithmus (GA) ist ein robustes, die Funktion optimierendes Verfahren. Seine Verwendung wird angezeigt über Gradienten- Abstiegstechniken für Probleme, die mit lokalen Minima, Diskontinuitäten, Rauschen oder einer großen Anzahl von Dimensionen beladen sind. Ein nützliches Merkmal des GA liegt darin, daß er extrem gut bewertet und eine erhöhte Anzahl von Dimensionen vergleichsweise wenig Einfluß auf die Leistung besitzt. Der erste Schritt bei der Anwendung des GA auf eine Funktion liegt in der Codierung des Parameterraums einer Folge von (typischerweise binären) Ziffern. Subfolgen in solch einer Darstellung entsprechen Parametern der zu optimierenden Funktion. Eine spezielle Einzel-Bitfolge (d.h. irgendeine Auswahl von 1 oder 0 für jede Position) repräsentiert einen Punkt in dem Parameterraum der Funktion. Der GA zieht eine Population solcher Einzeldarstellungen in Betracht. Die Population zusammen mit dem Wert der Funktion für jede Einzeldarstellung (allgemein als "Brauchbarkeit" bezeichnet), stellt den Zustand der Suche für die optimale Folge dar. Der GA schreitet fort durch implizite Informationscodierung um die Funktion in der Statistik der Population und durch Verwendung dieser Information, um neue Einzeldarstellungen zu bilden. Die Population wird zyklisch erneuert gemäß einem reproduktiven Plan. Jede neue "Generation" der Population wird gebildet, indem zunächst die vorangegangene Generation entsprechend ihrer Brauchbarkeit abgetastet wird; Das für die differentielle Auswahl verwendete Verfahren ist als ein nahezu optimales Verfahren bei der Abtastung des Suchraumes bekannt. Neue Folgen werden gebildet durch Veränderung ausgewählter Einzeldarstellungen mit genetischen Operatoren. Herauszuheben unter diesen ist der Kreuzungsoperator, der synthetisch neue Folgen bildet, indem er Segmente von zwei abgetasteten Einzeldarstellungen miteinander verspleißt.
  • Ein Hauptziel der Erfindung ist die Vorgabe eines neuen Verfahrens für den Entwurf optimierter künstlicher neuronaler Netzwerke wie zuvor erwähnt.
  • Andere Ziele und Vorteile der Erfindung gehen aus der folgenden Beschreibung, den angefügten Ansprüchen und den beigefügten Zeichnungen hervor.
  • Es zeigen:
  • Fig. 1 ein mehrschichtiges neuronales Netzwerk des Typs, der für einen speziellen Zweck gemäß dem Verfahren der vorliegenden Erfindung entworfen werden kann;
  • Fig. 2 schematisch, wie eine Population von "Blaupausen" (Entwürfe für verschiedene neuronale Netzwerke) zyklisch durch den genetischen Algorithmus basierend auf ihrer Brauchbarkeit fortgeschrieben wird;
  • Fig. 3 schematisch ein Beispiel eines dreischichtigen Netzwerkes, welches durch eine Bitfolge-Darstellung gemäß der Erfindung beschrieben werden kann;
  • Fig. 4 eine Bitfolge-Darstellung, die die Ausübung der Erfindung erleichtert;
  • Fig. 5 die Rohanatomie einer Netzwerkdarstellung mit Bereichen oder Schichten 0 bis N;
  • Fig. 6 eine Anordnung von Bereichen (oder Schichten) und sich dazwischen erstreckenden Projektionen;
  • Fig. 7 die räumliche Organisation von Schichten;
  • Fig. 8 und 9 Beispiele für absolute und relative Adressierung für die Festlegung der Zieldestinationen von Projektionen, die sich von einer Schicht zu der anderen Schicht erstrecken;
  • Fig. 10 bis 12 Veranschaulichungsbeispiele der den Bereich festlegenden Subfolge von Fig. 4;
  • Fig. 13a, 13b und 13c Projektionsmerkmale, die sich auf Verbindungen zwischen den Schichten des Netzwerkes beziehen;
  • Fig. 14a, 14b und 14c ein schematisches Beispiel einer spezifischen Netzwerkstruktur, wie sie durch das vorliegende Verfahren erzeugt wird mit unterschiedlichen Detailpegeln;
  • Fig. 15 den grundlegenden reproduktiven Plan, wie er bei Experimenten nach dem vorliegenden Verfahren verwendet wird;
  • Fig. 16a, 16b und 16c ein Beispiel der Wirkungsweise eines genetischen Operators;
  • Fig. 17 die prinzipiellen Datenstrukturen in einem laufenden Verwirklichungsprogramm mit einer zerlegten und verwirklichten Einzeldarstellung; und
  • Fig. 18 bis 21 Leistungskurven, die auf die Lerngeschwindigkeit der Netzwerke bezogen sind.
  • Das vorliegende Verfahren bezieht sich auf den Entwurf von mehrschichtigen künstlichen neuronalen Netzwerken des allgemeinen Typs 10, wie er in Fig. 1 gezeigt ist. Das Netzwerk 10 ist mit drei Schichten (oder Bereichen) 12, 14 und 16 dargestellt, kann aber auch mehr als drei Schichten oder falls gewünscht, auch nur eine Schicht aufweisen. Jede der Schichten besitzt Berechnungseinheiten 18, die über Verbindungen 19 verbunden sind, denen variable Gewichtungen gemäß der Lehre des Standes der Technik zugeordnet sind.
  • In dieser und den anderen Figuren sind Verbindungen in Vorwärts-Zuführrichtung gezeigt. Die Erfindung ist jedoch nicht auf diesen Aufbau beschränkt und Rückführverbindungen können beispielsweise ebenfalls vorgesehen sein.
  • Ferner ist der Umfang des Verfahrens für den Netzwerksentwurf, wie er hier offenbart ist, nicht auf den Entwurf des in Fig. 1 gezeigten Netzwerkes beschränkt.
  • Fig. 2 veranschaulicht schematisch, wie eine Population von Blaupausen 20 (d.h. Bitfolgeentwürfe für unterschiedliche neuronale Netzwerke) zyklisch durch einen genetischen Algorithmus, basierend auf ihrer Brauchbarkeit, fortgeschrieben wird. Die Brauchbarkeit eines Netzwerkes ist ein kombiniertes Maß seines Wertes für das Problem, welche die Lerngeschwindigkeit, die Genauigkeit und Kostenfaktoren, wie beispielsweise die Größe und Komplexität der Netzwerke in Rechnung stellen kann.
  • Das Verfahren beginnt mit einer Population von zufällig erzeugten Bitfolgen 20. Die tatsächliche Anzahl solcher Bitfolgen ist ziemlich beliebig, aber eine Populationsgröße von 30 bis 100 scheint empirisch ein guter Kompromiß zwischen Rechenbelastung, Lerngeschwindigkeit und genetischer Drift zu sein.
  • Lernalgorithmen für neuronales Netzwerk
  • Lernlösungen für neuronale Netzwerke gliedern sich in drei allgemeine Kategorien: unüberwachtes Lernen, verstärktes Lernen und überwachtes Lernen. Beim unüberwachten Lernen empfängt das Netzwerk keine bewertende Rückführung aus der Umgebung; statt dessen bildet es interne Modelle, basierend auf Eigenschaften von empfangenen Eingängen. Beim verstärkten Lernen liefert die Umgebung ein schwaches Bewertungssignal. Beim überwachten Lernen wird der "gewünschte Ausgang" für das Netzwerk zusammen mit jedem Trainingseingang vorgegeben. Das überwachte Lernen, insbesondere die rückwärtige Fortpflanzung wird verwendet, um die Erfindung zu veranschaulichen, wobei aber im Konzept die Erfindung mit jeder Lernlösung verwendet werden kann.
  • Die Gruppe von Ein/Ausgangsbeispielen, die für das überwachte Lernen verwendet wird, wird als Trainingsgruppe bezeichnet. Der Lernalgorithmus kann wie folgt umrissen werden: Für jedes Paar (Trainingseingang, gewünschter Ausgang) in der Trainingsgruppe wird
  • o der Trainingseingang an den Eingang des Netzwerkes angelegt
  • o der Ausgang des Netzwerkes berechnet
  • o wenn der Ausgang des Netzwerkes ungleich dem gewünschten Ausgang ist
  • o so werden die Netzwerkgewichtungen modifiziert.
  • Die gesamte Schleife durch die Trainingsgruppe, die als eine Epoche bezeichnet wird, wird wiederholt ausgeführt. Von zwei Beendigungskriterien wird eines oder beide gewöhnlicherweise verwendet: Es kann eine untere Grenze für den Fehler über eine Epoche und/oder eine Grenze für die Zahl der Epochen geben. Das Trainieren eines Netzwerkes auf diese Weise ist oftmals sehr zeitaufwendig. Bis bessere Lerntechniken verfügbar werden, ist es besser, die Trainingsphase als eine "Off- Line"-Aktivität zu planen. Wenn das Netzwerk einmal trainiert ist, kann es in Benutzung genommen werden. Die Rechenanforderungen eines solchen Netzwerkes während der Betriebsphase können gewöhnlicherweise mit einer nur rudimentären Hardware für viele interessierende Anwendungen erfüllt werden.
  • Die Lernlösung für das neuronale Netzwerk, die wir gegenwärtig implementiert haben, ist der wohlbekannte Algorithmus mit rückwärtiger Fortpflanzung. (Werbos, 1974; Le Cun, 1986; Parker 1985; Rumelhart, Hinton & Williams, 1985).
  • Der Algorithmus mit rückwärtiger Fortpflanzung ist im Anhang B beschrieben.
  • Blaupausen-Darstellungen
  • Die vorliegende Erfindung ist hauptsächlich auf eine Darstellung der Blaupause 20 gerichtet, die sowohl festlegt die Struktur und die Lernregel, die genetischen Algorithmusparameter, die festlegen, wie die genetischen operatoren verwendet werden, um bedeutungsvolle und nützliche Netzwerkstrukturen aufzubauen und die Bewertungsfunktion, die die Brauchbarkeit eines Netzwerkes für eine spezifische Anwendung festlegt.
  • Die Entwicklung einer Bitfolgedarstellung 20 für die neuronale Netzwerkarchitektur eines Netzwerkes 10 ist ein Hauptproblem, mit dem sich das Konzept der Erfindung befaßt. Biologische neuronale Netzwerke werden noch nicht gut genug verstanden, um klare Richtlinien für synthetische Netzwerke vorzugeben und es gibt viele unterschiedliche Wege, um die Organisation und Operation eines Netzwerkes mit Parametern zu versehen.
  • Die Darstellung von Blaupausen oder Bitfolgen 20 für spezialisierte neuronale Netzwerke sollte idealerweise in der Lage sein, alle möglichen "interessierenden" Netzwerke zu umfassen, d.h. jene, die in der Lage sind, nützliche Arbeit zu vollbringen, während fehlerhafte und bedeutungslose Netzwerkstrukturen ausgeschlossen sein sollen. Es ist augenscheinlich vorteilhaft, den kleinstmöglichen Suchraum von Netzwerkarchitekturen zu definieren, der sicher die beste Lösung für ein vorgegebenes Problem umfaßt. Eine wichtige Folgerung aus diesem Ziel im Zusammenhang mit dem genetischen Algorithmus liegt darin, daß das Schema der Darstellung bezüglich der genetischen Operatoren geschlossen sein sollte. Mit anderen Worten sollte die Rekombination oder Mutation von Netzwerk-Blaupausen immer zu neuen bedeutungsvollen Netzwerk-Blaupausen führen. Es gibt einen schwierigen Kompromiß zwischen kräftiger Leistung und Zulassung von fehlerhaften oder nichtinteressierenden Strukturen.
  • Fig. 3 zeigt schematisch ein Beispiel, wie jede Schicht eines dreischichtigen Netzwerkes gemäß der Erfindung durch eine Bitfolgedarstellung beschrieben werden kann, die drei Subfolgen 17 umfaßt. Das Format für eine einzelne Subfolge 17 ist detaillierter in Fig. 4 dargestellt.
  • Die Rohanatomie einer mehrschichtigen Netzwerkdarstellung 20 mit Subfolgeschichten bzw. Bereichen 17 (Bereich 0 bis Bereich N) ist in Fig. 5 veranschaulicht. Konzeptionell sind alle Parameter für ein einzelnes Netzwerk in einer langen Folge von Bits codiert, die die Darstellung 20 von Fig. 5 ist. Die gemusterten Bereiche sind Markierungen, die den Start und das Ende des einzelnen Bereiches bzw. der Schichtesegmente 17 anzeigen.
  • Der Ausdruck Projektion, wie er hier benutzt wird, hat Bezug zu der Gruppierung bzw. Organisation der Verbindungen 19, welche sich zwischen den Berechnungseinheiten 18 der Schichten der Netzwerke, wie beispielsweise in den Netzwerkdarstellungen der Fig. 1 und 3 erstrecken.
  • In Fig. 1 stellen die Eingangsverbindungen zu der Schicht 12 eine einzelne Eingangsprojektion und die Ausgangsverbindungen, die sich von der Schicht 16 nach außen erstrecken, eine einzelne Ausgangsprojektion dar. In gleicher Weise stellen die Verbindungen 19 zwischen den Schichten 12 und 14 eine Einzelprojektion und die Verbindungen 19 zwischen den Schichten 14 und 16 eine Einzelprojektion dar.
  • Ein Beispiel einer Projektionsanordnung für ein spezielles Netzwerk ist in Fig. 6 gezeigt, wobei Projektionen 22 bis 28 für Schichten bzw. Bereiche 31 bis 35 dargestellt sind. Von Interesse ist, daß die Schicht 32 zwei Projektionen 24 und 25 besitzt, die sich zu den Schichten 33 und 34 entsprechend erstrecken. Ferner ist die gegenüberliegende Anordnung von Interesse, wobei die Schicht 35 Projektionen 26 und 27 von den Schichten 33 und 34 entsprechend empfängt.
  • Jede der Projektionen wird durch drei Linien repräsentiert, welche andeuten, daß jede Projektion aus einer vorbestimmten oder gewünschten Vielzahl von Verbindungen 19 besteht, die sich zwischen zwei speziellen Schichten erstrecken.
  • Unter Bezugnahme auf Fig. 4 ist erkennbar, daß eine Schicht- oder Bereichs-Spezifikationssubfolge 17, wie sie in dieser Figur veranschaulicht ist, auf jede der Schichten 12, 14 und 16 des Netzwerkes 10 in Fig. 1 anwendbar ist.
  • Eine Bitfolge 20 ist somit aus einem oder mehreren Segmenten bzw. Subfolgen 17 zusammengesetzt, von denen jede eine Schicht oder einen Bereich und seine nach außen führenden Verbindungen bzw. Projektionen repräsentiert. Jedes Segment ist eine Bereichsspezifikations-Subfolge 17, die aus zwei Teilen besteht:
  • o Eine Bereichs-Parameterspezifikation (APS), die eine feste Länge aufweist und die Parameter des Bereiches bzw. der Schicht durch ihre Adresse, die Anzahl der Einheiten 18 in ihr und durch ihre Organisation angibt.
  • o Ein oder mehrere Projektions- Spezifikationsfelder (PSF), die jeweils eine feste Länge aufweisen. Jedes solches Feld beschreibt eine Verbindung von einer Schicht zu einer anderen Schicht. Da die Anzahl der Schichten in dieser Architektur nicht festgelegt ist (obgleich begrenzt), wird die Länge dieses Feldes mit der Anzahl der erforderlichen Projektionsspezifizierer ansteigen. Eine Projektion (z.B. eine der Projektionen 22 bis 28 in Fig. 6) ist festgelegt durch die Adresse des Zielbereiches, den Verbindungsgrad und die Dimension der Projektion zu dem Bereich, usw.
  • Die Tatsache, daß irgendeine Anzahl von Bereichen 17 vorliegen kann, motiviert die Verwendung von Markierungen mit der Bitfolge, um den Beginn und das Ende von APS und den Beginn von PSF festzulegen. Die Markierungen ermöglichen einem Leseprogramm die Zergliederung irgendeiner wohlgeformten Folge in eine bedeutungsvolle neuronale Netzwerkarchitektur. Die gleichen Markierungen gestatten ferner einem speziellen genetischen Kreuzungsoperator neue Netzwerke aufzudecken, ohne "sinnlose Folgen" zu erzeugen. Die Markierungen werden als "Meta-Struktur" angesehen: sie dienen als ein Rahmenwerk aber sie besitzen tatsächlich keinerlei Bits.
  • Fig. 4 zeigt, wie die APS und PSF in unserer laufenden Darstellung strukturiert sind. Die Teile der Bitfolge, die individuelle Parameter darstellen, sind in der Figur beschriftete Boxen. Sie sind Subfolgen, die aus einer festen Anzahl von Bits bestehen. Parameter, die durch eine Intervallbewertung (z.B. 0, 1, 2, 3, 4) beschrieben werden, ergeben sich unter Verwendung einer Gray- Codierung, wodurch somit Werte, die dicht an der zugrundeliegenden Bewertung liegen, dicht an der Bitfolgedarstellung liegen (Bethke, 1980, Caruana & Schaffer, 1988).
  • In der APS besitzt jeder Bereich bzw. jede Schicht eine Identifikationsnummer, die als ein Name dient. Der Name muß nicht einzigartig unter den Bereichen einer Bitfolge sein. Die Eingangs- und Ausgangsbereiche haben die festen Identifizierer 0 und 7 im vorliegenden Ausführungsbeispiel.
  • Ein Bereich besitzt ferner eine Größe und eine räumliche Organisation. Der "Gesamtgrößen"-Parameter legt fest, wie viele Berechnungseinheiten 18 der Bereich haben wird. Er reicht von 0 bis 7 und wird als der Logarithmus (mit der Basis 2) der tatsächlichen Anzahl von Einheiten interpretiert; wenn beispielsweise die Gesamtgröße 5 ist, so gibt es 32 Einheiten. Die drei "Dimensionsanteil"- Parameter, welche ebenfalls Logarithmen mit der Basis 2 sind, geben eine räumliche Organisation für die Einheiten vor. Die Einheiten der Bereiche können eine 1, 2 oder 3- dimensionale rechteckförmige Ausdehnung besitzen, wie dies in Fig. 7 veranschaulicht ist.
  • Die Motivation für diese Organisation kommt von der Art der Wahrnehmungsprobleme, für welche neuronale Netzwerke augenscheinlich sehr geeignet sind. Beispielsweise kann ein Bildverarbeitungsproblem am besten durch eine Rechteckanordnung behandelt werden, während ein akustisches Interpretationsproblem nach Vektoren verlangen kann. Die Organisation von Einheiten von herkömmlicheren Lösungen wird oftmals implizit vorgegeben. Bei der vorliegenden Erfindung besitzt die Vielzahl der Dimensionen festgelegte Implikationen für die Architektur von Projektionen, wie beispielsweise die Projektionen 22 bis 28 in Fig. 6.
  • Die PSF in einem Bereichsegment der Bitfolge legen fest, wo und wie die Ausgänge von Einheiten in dieser Schicht nach außen führende Verbindungen vorgeben (bzw. versuchen vorzugeben). Das Darstellungsschema setzt keine einfache Pipelinearchitektur voraus, wie dies üblich ist. Fig. 6 zeigt z.B. ein Netzwerk mit fünf Bereichen, bei welchem Projektionen von dem zweiten Bereich abgespalten sind und in dem fünften Bereich wieder vereint werden.
  • Jede PSF zeigt die Identität des Zielbereiches an. Es gibt gegenwärtig zwei Wege, wie diese dies tun kann, die sich durch den Wert eines binären Adressiermodus- Parameters in jeder PSF unterscheiden. Im "Absolut"- Modus wird der Adreßparameter der PSF als ID-Nummer des Zielbereiches genommen. Einige Beispiele der absoluten Adressierung sind in Fig. 8 gezeigt.
  • Der "Relativ"-Modus zeigt an, daß die Adreßbits die Position des Zielbereichs in der Bitfolge relativ zu dem laufenden Bereich speichern. Eine relative Adresse von Null nimmt Bezug auf den Bereich, der unmittelbar auf den folgt, der die Projektion enthält; eine relative Adresse von n bezieht sich auf den n.ten Bereich hinter diesem, wenn dieser existiert. Relative Adressen, die Bereiche hinter dem Ende der Blaupause anzeigen, werden genommen, um auf den endgültigen Bereich der Blaupause - den Ausgangsbereich - hinzuweisen. Einige Beispiele der relativen Adressierung sind in Fig. 9 gezeigt.
  • Der Zweck der unterschiedlichen Adressierschemen liegt darin, die Entwicklung von Beziehungen zwischen den Bereichen zu gestatten und diese aufrechtzuerhalten und zu verallgemeinern bei den Erzeugungen durch den reproduktiven Plan des genetischen Algorithmus. Speziell sind die Adressierschemen entworfen, um zu helfen, daß diese Beziehungen den Kreuzungsoperator entweder intakt oder mit möglichst nützlichen Modifikationen überleben können. Die absolute Adressierung gestattet einer Projektion ein neues Ziel anzuzeigen, unabhängig davon, ob dieses Ziel sich in dem Chromosom eines neuen Individuums entwickelt. Die relative Adressierung hilft Bereichen, die eng in der Bitfolge beieinanderliegen, Projektionen aufrechtzuerhalten, auch dann, wenn sich ihre ID verändert.
  • Bezugnehmend auf die Figuren 10 bis 12 gestatten die Dimensions-Radiusparameter (ebenfalls ein Logarithmus mit der Basis 2) Einheiten in einem Bereich sich nur zu einer lokalisierten Gruppe von Einheiten in dem Zielbereich zu erstrecken. Dieses Merkmal ermöglicht den Zieleinheiten, lokalisierte Wahrnehmungsfelder 29 zu besitzen, die sowohl üblich in biologischen neuronalen Netzwerken sind, als auch höchst wünschenswert vom Standpunkt einer Hardwareverwirklichung sind. Auch innerhalb der Wahrnehmungsfelder 29 beinhalten Projektionen zwischen einem Bereich oder einer Schicht und einem anderen Bereich bzw. einer anderen Schicht nicht notwendigerweise eine volle faktorielle Verbindbarkeit. Der Verbindungs- Dichteparameter für die Projektion kann einen von acht Graden der Verbindbarkeit zwischen 30% und 100% ausbedingen.
  • An diesem Punkt ist es gut zu erwähnen, daß es auf Grund der Größe der Anzahl der beteiligten Einheiten 18 und der Verbindungen 19 beabsichtigt ist, daß in einem typischen System die Anzahl durch ihren Logarithmus repräsentiert wird. In den Figuren 10 bis 12 und 15, die Beispiele der Subfolge 17 zeigen, werden decodierte Zahlen für Darstellungszwecke verwendet, um ein Verständnis der Konzepte zu erleichtern.
  • Projektionen umfassen eine Gruppe gewichteter Verbindungen. Die Gewichte werden durch eine Lernregel während des Trainings des Netzwerkes eingestellt. Parameter sind in der PSF enthalten, um die Lernregel für die Einstellung der Gewichte der Projektion zu steuern. Der Eta-Parameter steuert die Lerngeschwindigkeit in der rückwärtigen Fortpflanzung und kann einen von 8 Werten zwischen 0,1 und 12,8 einnehmen. Eta muß während des Trainings nicht konstant bleiben. Ein getrennter Eta- Neigungsparameter steuert die Geschwindigkeit des exponentiallen Abfalls für Eta als eine Funktion der Trainingsepoche.
  • Ein Beispiel dafür, wie dieses Repräsentationsschema verwendet werden kann, um ein Netzwerk mit drei Schichten festzulegen, ist in Fig. 3 gezeigt.
  • Die ersten und letzten Bereiche bzw. Schichten des Netzwerkes besitzen einen speziellen Status. Der erste Bereich, der Eingangsbereich, repräsentiert die Gruppe von Anschlüssen, die durch die Umgebung des Netzwerks "festgehalten" werden, welche effektiv die Eingangsanregungen sind. Der letzte Bereich ist immer der Ausgangsbereich und besitzt keine Projektionen.
  • Eine Blaupausendarstellung in BNF des neuronalen Netzwerkes ist im Anhang A am Ende der Beschreibung beschrieben. Es sei vermerkt, daß es zukünftige Modifikationen und Zusätze zu dieser gibt.
  • Die Figuren 10 bis 12 zeigen drei Beispiele von Subfolgen 17, welche die Projektions-Spezifizierabschnitte derselben relativ zu dem Radius und den Verbindungs- Dichteparametern veranschaulichen. Diese Figuren zeigen Beispiele von Projektionen 21 von einer Schicht oder einem Bereich 1 zu einer Schicht oder einem Bereich 2. Die Projektion in Fig. 10 ist von einem eindimensionalen Bereich (Bereich 1) zu einem zweidimensionalen Bereich (Bereich 2) und die Projektionen in den Figuren 11 und 12 sind jeweils von einem eindimensionalen Bereich (Bereich 1) zu einem Bereich mit einer anderen Dimension (Bereich 2).
  • In Fig. 10 ist die dargestellte Projektion zu einer 8 x 4-Projektionsanordnung 29 von Berechnungseinheiten 18 und per Übereinkunft soll diese Anordnung einen Radius von 4 in der vertikalen Richtung und einen Radius von 2 in der horizontalen Richtung besitzen. Die Objektanordnung 29 ist symmetrisch relativ zu der Quelleneinheit 18a im Bereich 1 angeordnet. Da jede Einheit innerhalb der Projektionsanordnung 19 verbunden ist, besitzt der Verbindungs-Dichteparameter den Wert 100.
  • Es versteht sich, daß jede der Berechnungseinheiten 18 im Bereich 1 in ähnlicher Weise Verbindungen zu entsprechenden 8 x 4-Projektionsanordnungen von Einheiten im Bereich 2 besitzt, was zu einer wesentlichen Überlappung von Projektionsbereichen und zu einem sehr dichten Verbindungssystem führt.
  • In Fig. 11 erfolgen die Projektionen zu jeder anderen Einheit innerhalb einer linearen Anordnung von 20 Einheiten. Der Radius ist mit 8 angezeigt, aber der Verbindungs-Dichteparameter hat nur einen Wert von 50, da nur die Hälfte der Einheiten innerhalb des Radius miteinander verbunden sind.
  • Fig. 12 ist ähnlich zu Fig. 11 mit der Ausnahme, daß jede Berechnungseinheit in der Anordnung verbunden ist und somit die Verbindungsdichte den Wert 100 besitzt.
  • Die Figuren 11 und 12 sind ähnlich zu Fig. 10, was die Tatsache anbetrifft, daß jede Einheit im Bereich 1 mit einer entsprechenden Projektionsanordnung von Einheiten im Bereich 2 verbunden ist.
  • Mögliche Zieleinheiten einer Projektion von einer vorgegebenen Quelleneinheit werden durch Radien in drei Dimensionen festgelegt. Die Figuren 13a, 13b und 13c sind drei zweidimensionale Beispiele davon.
  • Die Figuren 14a, 14b und 14c geben zusammengenommen ein schematisches Beispiel einer spezifischen Netzwerkstruktur vor, die durch das vorliegende Verfahren erzeugt wird.
  • Anpassung von genetischen Algorithmen
  • Die Version des in dem vorliegenden Verfahren verwendeten genetischen Algorithmus benutzt einen reproduktiven Plan ähnlich zu demjenigen, der durch Holland (1975) als "Typ R" beschrieben wurde. Der Grundplan für die Erzeugung einer jeden neuen Generation ist in Fig. 15 angegeben. Der Abtastalgorithmus basiert auf dem stochastischen universellen Abtastschema von Baker (1987). Dieser wird bevorzugt wegen seiner Leistungsfähigkeit und der fehlenden Vorbelastung. Einige Einzelheiten werden durch das Diagramm nicht gezeigt. Ein endgültiger Schritt wurde hinzugefügt, um sicherzustellen, daß das beste Individuum von der Generation i immer in der Generation i+1 beibehalten wird.
  • Der genetische Algorithmus (GA) selbst besitzt eine Anzahl von Parametern. Gute Werte für diese sind von Bedeutung für den wirksamen Betrieb des Systems. Diese Parameter umfassen die Populationsgröße, die Geschwindigkeiten mit der die verschiedenen genetischen operatoren anzuwenden sind und andere Aspekte der synthetischen Ökologie.
  • Zwei genetische Operatoren sind benutzt worden: Kreuzung und Mutation. Der Kreuzungsoperator tauscht wirksam homologe Segmente aus den Blaupausen von zwei Netzwerken der gegenwärtigen Generation aus, um eine Blaupause für ein Netzwerk in der nächsten Generation zu bilden. In den meisten Anwendungen des genetischen Algorithmus sind homologe Segmente durch absolute Positionen in der Bitfolge identifizierbar. Beispielsweise wird das n.te Bit immer benutzt, um das gleiche Merkmal in irgendeinem Individuum festzulegen. Da die hier vorliegende Darstellung Folgen mit variabler Länge gestattet, wurde ein modifizierter Zweipunkt-Kreuzungsoperator verwendet, der homologe Orte auf zwei Individuen durch Bezugnahme auf Markierungen der Folge festlegte, wie dies zuvor erläutert wurde. Die Entscheidung, eine Zweipunkt- Kreuzung im Gegensatz zu der üblicheren Einzelpunkt- Version zu benutzen, wurde durch den Bericht von Booker (1987) motiviert, der aufzeigte, daß die Off-Line- Leistung, die auf diese Weise erzielt wird, verbessert werden kann.
  • Der Mutationsoperator wurde mit einer niedrigen Geschwindigkeit verwendet, um allelomorphe-alternative Formen des gleichen funktionalen Gens einzuführen bzw. wiedereinzuführen. Gegenwärtige Anwendungen des genetischen Algorithmus haben einen wirksamen Beitrag aus der Mutation mit Geschwindigkeiten in der Größenordnung von 10&supmin;² oder weniger demostriert.
  • Trotz der Tatsache, daß die Bitfolgedarstellung unter Beschränkung auf die beabsichtigten genetischen Operatoren entworfen wurde, ist es noch möglich, daß der GA Individuen erzeugt, die prima facie nicht akzeptierbar sind. Ein dreistes Beispiel würde ein Netzwerkplan darstellen, der keine Verbindungen von Projektionen vom Eingang zum Ausgang besitzt. Subtilere Probleme entstehen aus den Beschränkungen unserer Simulationsfähigkeit. Bei unserer anfänglichen Arbeit hatten wir eine begrenzte Rekursion; Netzwerkpläne mit Rückführung können bei einfacher rückwärtiger Fortpflanzung nicht toleriert werden. Zwei Strategien sind verwendet worden, um die Belastungen durch diese Fehlanpassungen auf ein Minimum zu bringen. Als erstes sucht der reproduktive Plan Individuen mit fatalen Abnormalitäten aus; Individuen mit keiner Wegstrecke vom Eingangs- zum Ausgangsbereich bilden den größten Anteil dieser Gruppe. Als Zweites werden Blaupausen mit geringen Abnormalitäten "gereinigt" bei ihrer Netzwerkverwirklichung, d.h. ihre Defekte werden ausgeschnitten.
  • Die Figuren 16a, 16b und 16c zeigen ein Beispiel, wie der Kreuzungsoperator neue Folgen mit unterschiedlichen Werten für andere Felder als die Eltern bilden kann. Hier wird angenommen, daß die Felder ein einfaches binäres Codierungsschema verwenden.
  • Interpretation von aufgebauten Netzwerken
  • Geeignete Verbesserungen über Generationen können nur verwirklicht werden, wenn die Bewertungsfunktion, die verwendet wird, um die Brauchbarkeit eines Netzwerkes zu messen, geeignet ist. Ein Maß der Brauchbarkeit ist erforderlich für den GA, um immer bessere Netzwerke zu erzeugen. Es ist hilfreich, den Algorithmus als Auswertung der Oberfläche über dem Blaupausen- Darstellungsraum anzusehen, der durch diese Funktion definiert ist bei dem Versuch, die höchsten Spitzen zu lokalisieren.
  • Gemäß den Anforderungen der zuvor erwähnten Bewertungsfunktion haben wir anfänglich die Bewertungsfunktion als eine gewichtete Summe der Leistungsmetriken Pi formuliert. Die Bewertungsfunktion F(i) für das Individuum i kann ausgedrückt werden als:
  • Die Koeffizienten aj können durch den Anwender eingestellt werden, um den gewünschten Charakter des Netzwerkes wiederzugeben. Die Metrik, die bislang betrachtet worden ist, umfaßt Leistungsfaktoren, wie beispielsweise die beobachtete Lerngeschwindigkeit und die Leistung des Netzwerkes bei verrauschten Eingängen und Kostenfaktoren wie beispielsweise die Größe des Netzwerkes und die Anzahl der gebildeten Verbindungen. Wir haben eine Mischung von unterschiedlichen Leistungs- und Kostenfaktoren zugrundegelegt, da Leistungskriterien von Anwendungsfall zu Anwendungsfall variieren. Da die relative Gewichtung eines jeden Faktors modifiziert werden kann, kann die Netzwerkstruktur für verschiedene Optimierungskriterien angepaßt werden. Wenn beispielsweise eines unserer Ziele in dem Aufbau von Netzwerken liegt, die rechnerisch effizient sind, so kann der Größenmetrik eine negative Gewichtung beigegeben werden. Wenn andererseits Genauigkeit und Rauschtoleranz mehr gefordert ist, so wird der Leistung bei verrauschten Eingangsmustern eine höhere Gewichtung beigegeben.
  • Bewertung der GA-Leistung
  • Um Folgerungen bezüglich der Leistung des genetischen Algorithmus (im Gegensatz zu dem Netzwerk selbst) bei der Aufdeckung nützlicher Architekturen machen zu können, benötigen wir irgendeinen Standard, um diese dagegen vergleichen zu können. Dies ist schwierig, da es keine veröffentlichten Daten zu geben scheint, die direkt auf das Problem bezogen sind. Unsere Lösung liegt in dem Ablauf einer Steuerstudie, bei der Netzwerkblaupausen zufällig erzeugt werden, ausgewertet werden und die beste beibehalten wird. Dies wird bewirkt durch einfaches "Abschalten" der genetischen Kreuzungs- und Mutationsoperatoren. Die Zufallsuche ist eine oft verwendete Leistungsbewertung, die andere Suchalgorithmen übertreffen müssen, um ihren Wert zu demonstrieren.
  • Datenstrukturen
  • Die Haupt-Datenstrukturen bei einer gegenwärtigen Verwirklichung der Erfindung sind Objekte, die geschaffen und miteinander bei der Ablaufzeit verbunden werden. Das prominenteste Objekt ist das "Experiment", das die laufende Population, die Vorgeschichte der Leistung über Generationen, sowie verschiedene Steuer- und Schnittstellenparameter beibehält. Die Leistungsvorgeschichte ist eine Liste von Aufzeichnungen, eine pro Generation, die unter anderen Dingen On-Line-, Off-Line-, Mittel- und beste Bewertungen notiert. Die Population umfaßt die Individuen der laufenden Generation, wie dies in Fig. 17 gezeigt ist.
  • Jedes Individuum besitzt eine zugeordnete Blaupause, die als ein Bündel von Bitvektoren gespeichert ist (Bit- Vektoren sind eindimensionale Anordnungen, in denen jedes Element ein Bit im dem Maschinenspeicher besetzt).
  • Die Bit-Vektoren umfassen zwei Arten, Bereiche (APS) und Projektionen (PSF) wie durch die BNF angezeigt. Die Struktur eines jeden Typs ist durch eine Lisp-Form definiert, die die Namen eines jeden Feldes anzeigt und anzeigt, wieviele Bits dieses Feld besetzen sollen. Beispielsweise ist die Projektionsspezifikation wie folgt definiert:
  • (Def-Bit-Vektor PROJEKTION-SPEC
  • (Radius-1 3)
  • (Radius-2 3)
  • (Radius-3 3)
  • (Verbindungs-Dichte 3)
  • (Ziel-Adresse 3)
  • (Adress-Modus 1)
  • (anfängliches-Eta 3)
  • (Eta-Neigung 3))
  • Diese Form definiert automatisch das Zubehör, das erforderlich ist, um den Wert für jeden Parameter aus irgendeinem vorgegebenen Bit-Vektor herauszuziehen. Das Zubehör bewirkt transparent die Gray-Codierung und die Decodierung der Felder. Die meisten Gesamtwerte der Felder werden durch Aufsuchtabellen interpretiert; beispielsweise setzt die Eta-Tabelle die Werte 0...7 in Eta-Werte von 0,1 bis 12,8 um.
  • Genetische Operatoren, wie beispielsweise die Kreuzung und die Mutation modifizieren direkt diese Bit-Vektor- Blaupause, die als Meisterplan für das Individuum angesehen wird. Teile von ihr werden tatsächlich gemeinsam mit ihrem Ursprung benutzt. Die Bit-Vektoren sind jedoch nicht direkt nützlich beim Betrieb eines tatsächlichen neuronalen Netzwerkes. Für dieses muß das Individuum zergliedert, gereinigt und verwirklicht werden.
  • Wenn ein Individuum zergliedert wird, so wird die Form der Bitfolge der Blaupause in ein Netzwerk von Knoten umgesetzt mit einem Bereichsknoten für jeden Bereich und einem Projektionsknoten für jede Projektion. Die Zergliederung bringt die Adressierung zwischen den Bereichen hervor, die durch Projektionen erfolgen und die Knoten weisen Parameterwerte auf, die durch die zugeordneten Bit-Vektoren interpretiert werden. Das Netzwerk bzw. die zergliederte Blaupause ist dem Objekt zugeordnet, das das Individuum repräsentiert.
  • Eine zergliederte Blaupause kann Defekte aufweisen, die eine sinnvolle Interpretation als ein neuronales Netzwerk verhindern. Beispielsweise kann sie Projektionen enthalten mit einem nicht-gültigen Ziel oder Projektionen, die Rückführungsschaltkreise anzeigen, die in der laufenden Implementierung verboten sind. Anstatt geringfügig unvollständige Individuen zu streichen, wird ein Versuch gemacht, sie nach der Zergliederung zu flicken. Der Schritt des Flickens wird als Reinigung bezeichnet. Die Reinigung entfernt baumelnde Knoten und beschneidet Schaltkreise in einem Versuch, ein lebensfähiges Indidviduum zu schaffen, wobei so wenig Änderungen wie möglich vorgenommen werden.
  • Nach der Zergliederung und der Reinigung ist ein Individuum verwirklicht. Die Verwirklichung beinhaltet die Zuteilung und die Auslösung von Vektoren für Einheiten, Gewichtsmatrizen, Maskenmatrizen, Schwellwertvektoren und andere numerische Speicherung. Bezugnahmen auf diese Datenobjekte werden in den Knoten der zergliederten Blaupause des Individuums zurückbehalten.
  • Der Auswerteprozeß
  • Der Zweck der Zergliederungs/Reinigungs/Verwirklichungsfolge liegt in der Vorbereitung für die Auswertung des Individuums, d.h. der Berechnung einer Bewertung. Die Bewertung ist eine gewichtete Summe einer Gruppe von Leistungsmetriken. Die Gewichte können durch den Anwender bei der Ablaufzeit eingestellt werden.
  • Einige dieser Metriken sind unmittelbare Folgen der Verwirklichung, z.B. die Anzahl der Gewichtungen, die Anzahl der Einheiten, die Anzahl der Bereiche und die mittlere Auffächerung. Andere Metriken hängen von der Netzwerkleistung des Individuums bei einem vorgegebenen Problem (wie beispielsweise der Ziffernerkennung) ab. Beispiele solcher Metriken sind: Die Lerngeschwindigkeit des Netzwerkes, seine endgültige Leistung bezüglich der Trainingsgruppe, seine Leistung bei nicht-degradierten Eingängen und bei neuen Eingängen und seine Leistung nach der zeitweiligen Streichung einer zufälligen Abtastung von entweder den Gewichtungen oder den Einheiten des Netzwerkes.
  • Resultate, Analyse und Diskussion
  • Trotz des beschränkten Rahmens der anfänglichen Experimente hat das vorliegende Verfahren vernünftige Netzwerke erzeugt und hat zu beträchtlichen Verbesserungen gegenüber den zufälligen Strukturen bei seiner anfänglichen Erzeugung geführt. In den meisten Fällen sind die erzeugten Netzwerke strukturmäßig ziemlich einfach gewesen.
  • Leistungskriterien
  • Es gibt verschiedene übliche Wege, um die Veränderungen in der Populationsleistung über der Zeit bei genetisch optimierten Systemen zu betrachten und die meisten unserer Diagramme umfassen vier. Da unser reproduktiver Plan durch getrennte Phasen der Reproduktion und der Auswertung verläuft, werden die Datenpunkte tatsächlich am Ende einer jeden Generation aufgezeichnet.
  • Si sei als die Bewertung des i.ten erzeugten Individuums definiert. Die Best-Funktion zeigt die Leistung des besten Individuums an, das durch die GA bis zu einer vorgegebenen Zeit aufgedeckt wurde, d.h.
  • Best(i) = Max [Sj, j=1,...,i]
  • Die Off-Line-Leistung des GA ist der Mittelwert der besten Bewertungen des Individuums, die bis zu einer vorgegebenen Zeit aufgefunden werden:
  • Eine Alternative ist die On-Line-Leistung. Diese ist einfach der Mittelwert aller Bewertungen des Individuums, die bislang ermittelt wurden. Am Ende der Zeit i würde dies sein:
  • Eine weitere interessierende Funktion ist die mittlere Bewertung für alle Individuen in einer vorgegebenen Generation. Wenn Gi die Gruppe von Individuen in der i.ten Generation ist, so gilt:
  • Die On-Line-Leistung ist vielleicht am relevantesten für Systeme, die mit einem Echtzeit-Prozeß zusammenwirken müssen, während die Off-Line-Leistung relevanter für Systeme ist, die nur damit befaßt sind, die beste Verwirklichung zu finden, ohne hierbei auf die Kosten schauen zu müssen. Wenn man beispielsweise auf Pferde wettet, so ist es von Bedeutung, alle schlechten Wetten ebenso wie die Gewinner in Betracht zu ziehen, um das Interesse an der On-Line-Leistung zu motivieren. Wenn man eine Funktion optimiert, so kann das einzige Bedenken die Qualität des besten getesteten Punktes sein, was die Off- Line-Leistung motiviert. Vermerkt man, daß die Funktionen "Best" und Offline" per Definition isoton sind, so können diese nur anwachsen oder konstant über den Verlauf eines Experimentes bleiben aber sie können nicht abfallen.
  • Experiment 1
  • Anwendung: Ziffernerkennung
  • Optimierkriterium: Bereich unter der Lernkurve
  • Populationsgröße: 30
  • Generationen: 60
  • Die mittlere Leistung der Netzwerkpopulation erhöhte sich achtfach von der ersten bis zu der sechzehnten Generation. Das Netzwerk lernte in 48 Epochen zu bewerten.
  • Da nur ein Faktor direkt optimiert war, waren andere, wie beispielsweise die Anzahl der Gewichtungen frei für eine Variation. Das Netzwerk hatte 1481 Gewichtungen. Ein Netzwerk, welches exakt eine Gewichtung hatte zur Verbindung eines jeden Einganges mit einem jeden Ausgang würde nur ein Drittel soviel Gewichtungen haben. Solche Netzwerke wurden ebenfalls erzeugt und diese lernten ebenso perfekt, brauchten aber mehr als zweimal so lang. Die Durchführung dieses Experiments mit 60 Generationen ist durch Fig. 18 zusammengefaßt.
  • In den anfänglichen Generationen lagen verborgene Schichtstrukturen vor. Es lag für uns nicht auf der Hand, daß dieses Problem linear zu trennen ist, bis das Experiment mit der Erzeugung von Strukturen mit zwei Schichten begann, die perfekt lernten. Da verdeckte Schichten für dieses Problem nicht benötigt werden und da die Lerngeschwindigkeiten im allgemeinen herabgemindert werden, wenn verdeckte Schichten einem Netzwerk hinzugefügt werden (obgleich diese Herabminderung sehr viel weniger gravierend bei der modifizierten Regel mit rückwärtiger Fortpflanzung ist, wie wir sie benutzen [Samad, 1988] als bei der ursprünglichen Regel), waren gegen Ende der Simulation Strukturen mit mehrfachen Schichten selten.
  • Um die Leistung des GA beim Aufdecken von besseren Netzwerken auszuwerten, wurde das Problem der Ziffernerkennung wiederholt, wobei der GA gesperrt war. Um dies zu erzielen, wurden zufällige Individuen dort erzeugt, wo eine Kreuzung oder Mutation angewendet worden wäre. Erneut basierten die Bewertungen exklusiv auf dem Bereich unter der Lernkurve. Die Ergebnisse dieses Experiments sind in Fig. 19 dargestellt.
  • Während die zufällige Suche und die GA-Experimente mit sehr ähnlichen Populationen in der Generation 0 begannen, divergierte die Leistung der zwei Algorithmen sehr bald. Insbesondere waren die mittlere Leistung und die On-Line- Leistung des zufälligen Suchalgorithmus deutlich dem GA unterlegen. Dies ist zu erwarten, wenn der GA bei der Beibehaltung einiger der besseren Charakteristiken von einer Generation zu der nächsten erfolgreich ist; das zufällige Suchverfahren ist eingeschränkt auf das Einsammeln von "Verlierern" mit einer ziemlich konstanten Geschwindigkeit. Die Off-Line-Leistung ist bestreitbar ein mehr interessierender Vergleich für dieses Problem zwischen dem GA und der zufälligen Suche. Fig. 20 zeigt die Off-Line-Leistungen, die aus den Figuren 18 und 19 entnommen sind.
  • Noch einmal erneut dominiert die GA-Leistung die zufällige Suche für die Dauer des Experiments. Es könnte argumentiert werden, daß die Lücke keine große ist aber wie vermerkt, sind die Bewertungen normiert. Das beste Netzwerk, das nach 60 Generationen (zufällig) entdeckt wurde, brauchte 67 Epochen, um das Problem zu lernen, während das beste Netzwerk, das durch den GA entdeckt wurde, das Problem in 40 Epochen lernte. Ferner erscheint es wahrscheinlich, daß wir in der Lage sein werden, die Leistung des GA durch geänderte Darstellung und bessere Parameterwerte verbessern zu können, während es keinen Spielraum für eine Verbesserung in der Leistung des zufälligen Suchverfahrens gibt. Schließlich ein Einwand: Wir arbeiten mit einer relativ geringen Population und unsere Experimente sind auf wenige Generationen beschränkt gewesen, so daß alle diese Ergebnisse daher mit Vorsicht interpretiert werden sollten.
  • Experiment 2
  • Anwendung: Ziffernerkennung
  • Optimierkriterien: Mittlere Ausbreitung und korrekter Prozentsatz
  • Populationsgröße: 30
  • Generationen: 20
  • Bei diesem Experiment waren die Kriterien die mittlere Ausbreitung und der korrekte Prozentsatz, die gleich gewichtet waren (0,5). Der Lerngeschwindigkeit wurde kein direkter Einfluß auf die Bewertung gegeben. Der Prozentsatz der korrekten Ziffernidentifikationen nach dem Training wurde bestimmt durch Präsentation einer jeden der zehn Ziffern für das trainierte Netzwerk und durch die Bewertung eines "Treffers", wenn die Ausgangseinheit mit maximalem Wert der korrekten Ziffer entsprach. Die mittlere Ausbreitung ist definiert als das Verhältnis der Anzahl von Gewichtungen zu der Anzahl von Einheiten; dieser Maßstab wird normiert und invertiert, so daß ein großes Verhältnis von Gewichtungen zu Einheiten von einer Bewertung eines Individuums abgezogen wird. Die sich durch dieses Experiment stellende Frage ist die: kann das System die Leistung durch Beschränkung der Ausbreitung verbessern? Es ist eine möglicherweise interessierende Frage für die Entwerfer von neuronaler Netzwerk-Hardware, da hohe Ausbreitungen in Silicium schwierig zu entwerfen sind [die mittlere Ausbreitung ist eine Annäherung einer noch mehr interessierenden Größe: die maximale Ausbreitung.] Unsere anfänglichen Ergebnisse sind in Fig. 21 dargestellt.
  • Die mittlere Ausbreitung in diesem Experiment war 157/48 = 3,27. Dies kann dem für das Experiment 1 gezeigten Netzwerk gegenübergestellt werden, welches eine mittlere Ausbreitung besitzt, die nahezu eine Größenordnung höher liegt.
  • Das Lernen erfolgt ziemlich langsam. Tatsächlich lernte das obige Netzwerk nicht innerhalb des Fehlerschwellwertes, der im voraus als ein Beendigungskriterium für das Training festgelegt worden war. (Ein Lernen innerhalb des Fehlerschwellwertes ist nicht erforderlich, um perfekte Trefferraten zu erzielen). Die Verbindungsstruktur des Netzwerkes verwendet große Wahrnehmungsfelder aber eine geringe Verbindungsdichte. Vom Standpunkt einer Hardwareverwirklichung wäre es besser für kleine Wahrnehmungsfelder zu optimieren, und ein solches Experiment ist beabsichtigt.
  • Maßstab für die Lerngeschwindigkeit
  • Der für die Lerngeschwindigkeit gewählte Maßstab erfordert einige Erläuterung. Auf Grund der beschränkten Rechenressourcen können wir nicht hoffen, alle Netzwerke solange zu trainieren, bis sie eine perfekte Genauigkeit bei einem vorgegebenen Problem oder für diese Angelegenheit für ein vorbestimmtes von Null abweichendes Kriterium erzeugen. In einigen Fällen kann ein Netzwerk Hundert Epochen erfordern, während in anderen Fällen eine Million Epochen ungenügend sein kann. Unser Kompromiß liegt in der Verwendung von zwei Kriterien für das Anhalten der Lernphase. Das Lernen wird bei dem ersten Kriterium angehalten, wenn ein rms-Fehler während der vorangegangenen Epoche niedriger als ein vorgegebener Schwellwert war. Die Lernphase wird bei dem zweiten Kriterium beendet, nachdem eine feste Anzahl von Epochen gezählt worden ist; dieser Schwellwert wird durch den Experimentierer gemäß dem Problem eingestellt, aber er liegt typischerweise zwischen 100 bis 5000 Epochen. Nichtsdestoweniger wünschen wir alle Individuen auf der gleichen Lerngeschwindigkeitsskala zu vergleichen, obgleich ihr Training unterschiedliche Anzahlen von Epochen gedauert haben kann und zu unterschiedlichen endgültigen Genauigkeitspegeln geführt haben kann. Unsere Annäherung liegt in der Integration der rms-Fehlerkurve über der Lernphase für jedes Individuum. Dieser "Bereich unter der Lernkurve" liefert eine Rangfolge, die nahezu unserer Intuition über Lerngeschwindigkeitsskalen entspricht. Niedrige Zahlen verweisen auf eine bessere Leistung.
  • Anhang A Syntax für Blaupausen-Darstellung in BNF:
  • < Blaupausen-Spec> = < Eingangs-Spec> < Mittel-Spec> < Ausgangs-Spec>
  • < Eingangs-Spec> = < Bereichs-Spec> < Projektions-Spec>
  • < Mittel-Spec> = leer < Segment> < Mittel-Spec> < Segment>
  • < Ausgangs-Spec> = < Bereichs-Markierer> < Bereichs-ID> < Dimensions-Subfeld>
  • < Bereichs-Spec> = < Bereichs-Markierer> < Bereichs-ID> < Dimensions-Subfeld> < Lernregel-Spec>
  • < Projektions-Spec> = < Projektions-Markierer> < Projektions-Spec Feld> < Projektions-Spec> < Projektions- Markierer> < Projektions-Spec Feld>
  • < Segment> = < Bereichs-Spec> < Projektions-Spec>
  • < Bereichs-Markierer> = leer
  • < Bereichs-ID> = < Binäre Ziffern>
  • < Dimensions-Subfeld> = < Gesamtgröße> < Dimensions-Spec> < Dimensions-Spec> < Dimensions-Spec>
  • < Lernregel-Spec> = < Eta-Anfangswert> < Eta-Neigungsänderung>
  • < Projektions-Markierer> = leer
  • < Projektions-Spec-Feld> = < Radien der Verbindung> < Verbindungs-Dichte> < Ziel-Adresse> < Ziel-Adressmodus> < Lernregel-Spec>
  • < Binäre Ziffern> = < Binäre Ziffern> < Binäre Ziffer> < Binäre Ziffer>
  • < Obere Grenze> = < Binäre Ziffer> < Binäre Ziffer> < Binäre Ziffer>
  • < Dimensions-Spec> = < Binäre Ziffer> < Binäre Ziffer> < Binäre Ziffer>
  • < Eta-Anfangswert> = < Binäre Ziffer> < Binäre Ziffer> < Binäre Ziffer>
  • < Eta-Neigungsänderung> = < Binäre Ziffer> < Binäre Ziffer> < Binäre Ziffer>
  • < Radien der Verbindung> = < Radius der Verbindung> < Radius der Verbindung> < Radius der Verbindung>
  • < Radius der Verbindung> = < Binäre Ziffer> < Binäre Ziffer> < Binäre Ziffer>
  • < Verbindung-Dichte> = < Binäre Ziffer> < Binäre Ziffer> < Binäre Ziffer>
  • < Ziel-Adresse> = < Binäre Ziffer> < Binäre Ziffer> < Binäre Ziffer>
  • < Ziel-Adressmodus> = < Binäre Ziffer>
  • < Binäre Ziffer> = 011
  • Anhang B Rück-Fortpflanzung
  • Neuronale Netzwerke sind aus zwei primitiven Elementen aufgebaut: Verarbeitungseinheiten und (gerichtete) Verbindungen zwischen den Einheiten. Die Verarbeitungseinheiten sind für sich sehr einfach, aber sie sind reichlich miteinander verbunden. Jede Verbindung besitzt typischerweise ein ihr zugeordnetes real bewertetes Gewicht und dieses Gewicht zeigt die Wirkung des Wertes der Einheit an der Quelle der Verbindung an, die die Einheit an ihrer Bestimmung besitzt. Der Ausgang einer Einheit ist irgendeine Funktion der gewichteten Summe ihrer Eingänge:
  • Wobei oj der Ausgang der Einheit j ist, wij das Gewicht von der Einheit i zu der Einheit j ist und &Theta;j der "Schwellwert" oder das Vorspannungsgewicht für die Einheit j ist. Die Quantität iwijoi-&Theta;j) wird gewöhnlich als Nettoeingang zu der Einheit j bezeichnet und mit dem Symbol netj versehen. Die Form der Gleichung (1), die gewöhnlicherweise mit der rückwärtigen Fortpflanzung verwendet wird, ist die Sigmoid-Funktion:
  • In den meisten Netzwerken mit rückwärtiger Forpflanzung sind die Einheiten in Schichten angeordnet und die Netzwerke sind auf azyklische Netzwerke beschränkt. Es kann gezeigt werden, daß solche "Mehrschicht- Vorwärtsspeisung"-Netzwerke jede Abbildung aus einem mehrdimensionalen kontinuierlichen Eingangsraum in einen mehrdimensionalen kontinuierlichen Ausgangsraum mit beliebig hoher Genauigkeit verwirklichen können (Hecht- Nielsen, 1987; Lippmann, 1987; Lapedes & Farber, 1988).
  • Die Regel, die verwendet wird, um die Gewichte zu modifizieren ist:
  • &Delta;wij = noi&delta;j (3)
  • Dies ist die Standard-Lernregel für die rückwärtige Fortpflanzung. Hierbei ist wij das Gewicht von der Einheit i zu der Einheit j, oi ist der Ausgang der Einheit i, n ist eine Konstante, die die Lerngeschwindigkeit festlegt und &delta;j ist der Fehlerterm für die Einheit j. &delta;j ist unterschiedlich definiert für Einheiten im Ausgangsbereich und für Einheiten in "verdeckten" Bereichen. Für Ausgangseinheiten gilt
  • &delta;j = oj'(tj-oj)
  • wobei oj' die Ableitung von oj in Bezug auf ihren Nettoeingang ist (für die Aktivierungsfunktion von Gleichung (2) ist diese Quantität oj(1-oj)) und tj ist der Zielwert (der "gewünschte Ausgang") für die Einheit j. Für verdeckte Einheiten ist der Zielwert nicht bekannt und der Fehlerterm wird aus den Fehlertermen der nächsten "höheren" Schicht berechnet:
  • Wir haben in unserer laufenden Verwirklichung zwei Erweiterungen für die meisten Verwendungen der Rückfortpflanzung eingeschlossen. Als erstes benutzen wir eine neulich entdeckte Verbesserung von Gleichung (3) (Samad, 1988):
  • &Delta;wij = &eta;(oi+ &delta;i)&delta;j
  • Diese gleichung benutzt den angenommenen Wert der Quelleneinheit eines Gewichtes statt des laufend berechneten Wertes. In einigen Fällen wird ein Lernen erzielt, das um Größenordnungen schneller ist.
  • Als zweites gestatten wir dem Wert von n abzunehmen, wenn das Lernen fortschreitet. Das heißt &eta; ist nunmehr eine Variable und die tatsächlich verwendete Lernregel ist folgende:
  • &Delta;ij = &eta;t(oi+ &delta;i)&delta;j
  • wobei &eta;t der Wert von &eta; an der t.ten Iteration während der Trainingsgruppe ist. Am Ende einer jeden Iteration wird &eta; gemäß folgender Formel geändert:
  • nt+1 = &eta; slope &eta; t
  • wobei &eta;slope ein Parameter ist, der die Abfallrate von &eta; festlegt. Es wurde experimentell beobachtet, daß die Verwendung eines hohen Wertes von &eta; am Anfang und sodann seine allmähliche Abnahme zu einem beträchtlich schnelleren Lernen führt gegenüber der Verwendung einer konstanten &eta;. Sowohl &eta;Neigung und der Anfangswert von &eta;(&eta;o) sind durch die Projektionsspezifikation in der Blaupause vorgegeben.
  • Anhang C Referenzen

Claims (3)

1. Verfahren zur Entwurfssynthese von neuronalen Netzwerken (10), welches die Verwendung eines ausgewählten Lernalgorithmus und eines speziellen zu lernenden Gegenstandes beinhaltet, gekennzeichnet durch die Schritte:
A. Vorgabe einer parametrischen Bitfolgedarstellung (20,17) einer neuronalen Netzwerkarchitektur mit relevanten Parametern einschließlich Lernparametern,
B. Erzeugung einer ersten Generation von Netzwerk- Blaupausen (20), basierend auf der Darstellung, welche gemeinsam einen Wertebereich für jeden der Parameter umfassen,
C. automatische Erzeugung entsprechender neuronaler Netzwerkarchitekturen (10,19), basierend auf der laufenden Generation von Blaupausen,
D. automatisches Trainieren einer jeden Netzwerkarchitektur (10,19), die gegenwärtig im Schritt C definiert sind, über den ausgewählten Lernalgorithmus und den speziellen Gegenstand,
E. Testen einer jeden Netzwerkarchitektur (10,19), die gegenwärtig im Schritt C definiert sind, mit Testmustern (Fig. 2) entsprechend dem speziellen Gegenstand, um die Empfänglichkeit einer jeden gegenwärtig im Schritt C definierten Netzwerkarchitektur auf den Einfluß dieses Trainings zu testen,
F. Ausführung einer Interpretation einer jeden gegenwärtig im Schritt C definierten Netzwerkanalyse nach dem Test derselben bezüglich interessierender Leistungs- und Kostenfaktoren und Zuordnung einer Bewertung zu derselben, die die Ergebnisse der Interpretation darstellt,
G. Auswahl von Kandidaten der gegenwärtig im Schritt C definierten Netzwerkarchitekturen gemäß ausgewählter rationeller Grundlagen und Anwendung wenigstens eines Operators mit diesem, um eine neue Gruppe von Netzwerk- Blaupausen (20) zu erzeugen, die als die laufende Generation von Netzwerk-Blaupausen, basierend auf dieser Darstellung, identifiziert werden sollen, und
H. Rückkehr zum Schritt C und Fortsetzung des Verfahrens.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß der Operator ein genetischer Operator ist.
3. Verfahren zur Entwurfssynthese von neuronalen Netzwerken (10), von denen jedes umfaßt: mehrere Recheneinheiten (18), mehrere hierarchisch angeordnete Schichtbereiche (12,14,16) einschließlich von Eingangs (12)- und Ausgangs- Schichtbereichen (16) und Null oder mehr verdeckten Schichtbereichen (14) dazwischen, wobei jeder der Schichtbereiche durch eine Anzahl der Einheiten (18) definiert ist, Verbindungsmittel (19) zur Verbindung von Ursprungsgruppen dieser Einheiten in den Schichtbereichen (14,16) mit Ausnahme des Ausgangs- Schichtbereiches (16) mit Objektgruppen dieser Einheiten (18) in den Schichtbereichen (12,14) mit Ausnahme des Eingangs-Schichtbereiches, wobei die Verbindungsmittel (19) in als Projektionen (Fig. 10, 11, 12) angesehenen Gruppen gruppiert sind, wobei sich eine jede Projektion von einem der Schichtbereiche zu einem anderen der Schichtbereiche erstreckt und wobei das Verfahren die Verwendung eines ausgewählten Lernalgorithmus und eines speziellen zu erlernenden Gegenstandes beinhaltet und die Schritte umfaßt:
A. Vorgabe eines Sub-Zeichenfolgeformats (20,17) zum Festlegen von jedem der Schichtbereiche, wobei das Format einen ersten Typteil aufweist, der als ein Schichtbereich-Parameterspezifizierer bezeichnet wird und wenigstens einen zweiten Typteil für jede der Projektionen aufweist, der als Projektionsspezifizierer bezeichnet wird,
wobei der erste Typteil einen den Schichtbereich identifizierenden Adressenabschnitt (Bereich ID=), einen Gesamtgrößenabschnitt, der die entsprechende Anzahl der Einheiten desselben vermerkt (Gesamtgröße =) und einen Dimensionsabschnitt, der die durch die Einheiten gebildete Konfiguration vermerkt, aufweist, wobei der zweite Typteil einer der Projektionen gewidmet ist und als Gegenstandsprojektion bezeichnet werden kann und der zweite Typteil umfaßt: einen Zieladressenabschnitt (Ziel =) zur Identifizierung einer der Schichtbereiche, der als Zielschichtbereich bezeichnet werden kann, zu dem die Gegenstandsprojektion gerichtet ist, einen Adressmodusabschnitt (Modus =) für die Gegenstandsprojektion, einen Dimensionsabschnitt (D=) zum Vermerken der Konfiguration eines Objektfeldes für die Gegenstandsprojektion in dem Zielschichtbereich, einen Verbindungsdichteabschnitt (Dichte =) zum Vermerken der Verbindbarkeit der Gegenstandsprojektion mit dem Objektfeld und wenigstens einen Lernregelparameterabschnitt (ETA=),
B. Vorgabe einer parametrischen Bitfolgedarstellung einer neuronalen Netzwerkarchitektur, basierend auf dem Sub-Zeichenfolgeformat mit relevanten Parametern,
C. Erzeugung einer ersten Generation von Netzwerk- Blaupausen (20), basierend auf der Darstellung, welche gemeinsam einen Wertebereich für jeden der Parameter umfassen,
D. automatische Erzeugung entsprechender neuronaler Netzwerkarchitekturen (10), basierend auf der laufenden Generation der Blaupausen,
E. automatisches Training einer jeden Netzwerkarchitektur, die gegenwärtig im Schritt D definiert sind, über den ausgewählten Lernalgorithmus und den speziellen Gegenstand,
F. Test einer jeden Netzwerkarchitektur, die gegenwärtig im Schritt D definiert sind, mit Testmustern (Fig. 2) entsprechend dem speziellen Gegenstand, um die Empfänglichkeit einer jeden gegenwärtig im Schritt D definierten Netzwerkarchitektur auf den Einfluß dieses Trainings zu testen,
G. Ausführung einer Interpretation einer jeden gegenwärtig im Schritt D definierten Netzwerkarchitektur nach dem Test derselben bezüglich interessierender Leistungs- und Kostenfaktoren und Zuordnung einer Bewertung zu derselben, die die Ergebnisse der Interpretation darstellt,
H. Auswahl von Kandidaten der gegenwärtig im Schritt D identifizierten Netzwerkarchitekturen gemäß ausgewählter rationaler Grundlagen und Anwendung wenigstens eines genetischen Operators (Fig. 16) mit diesen, um eine neue Generation von Netzwerk-Blaupausen zu erzeugen, die als die laufende Generation von Netzwerk- Blaupausen, basierend auf dieser Darstellung, identifiziert werden sollen, und
I. Rückkehr zum Schritt D und Fortsetzung des Verfahrens.
DE69014613T 1989-03-28 1990-02-21 Genetische synthese von neuronalen netzwerken. Expired - Fee Related DE69014613T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US07/329,623 US5140530A (en) 1989-03-28 1989-03-28 Genetic algorithm synthesis of neural networks
PCT/US1990/000828 WO1990011568A1 (en) 1989-03-28 1990-02-21 Genetic synthesis of neural networks

Publications (2)

Publication Number Publication Date
DE69014613D1 DE69014613D1 (de) 1995-01-12
DE69014613T2 true DE69014613T2 (de) 1995-06-22

Family

ID=23286268

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69014613T Expired - Fee Related DE69014613T2 (de) 1989-03-28 1990-02-21 Genetische synthese von neuronalen netzwerken.

Country Status (7)

Country Link
US (1) US5140530A (de)
EP (1) EP0465489B1 (de)
JP (1) JP2881711B2 (de)
AT (1) ATE114837T1 (de)
CA (1) CA2050686C (de)
DE (1) DE69014613T2 (de)
WO (1) WO1990011568A1 (de)

Families Citing this family (174)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0310366A (ja) * 1989-05-19 1991-01-17 Philips Gloeilampenfab:Nv 人工ニューラルネットワーク
GB8929146D0 (en) * 1989-12-22 1990-02-28 British Telecomm Neural networks
US5249259A (en) * 1990-01-23 1993-09-28 Massachusetts Institute Of Technology Genetic algorithm technique for designing neural networks
JP2763182B2 (ja) * 1990-06-28 1998-06-11 株式会社東芝 ニューラル・ネットワークの学習方法
EP0468229A3 (en) * 1990-07-27 1994-01-26 Hnc Inc A neural network with expert system functionality
US5259064A (en) * 1991-01-25 1993-11-02 Ricoh Company, Ltd. Signal processing apparatus having at least one neural network having pulse density signals as inputs and outputs
EP0514986B1 (de) * 1991-05-24 1997-12-10 Laboratoires D'electronique Philips S.A.S. Lernverfahren für neuronales Netzwerk und Klassifizieranlage zum Anwenden dieses Verfahrens
US5214746A (en) * 1991-06-17 1993-05-25 Orincon Corporation Method and apparatus for training a neural network using evolutionary programming
JPH05128085A (ja) * 1991-11-08 1993-05-25 Toshiba Corp システム制御の学習方法
US5396415A (en) * 1992-01-31 1995-03-07 Honeywell Inc. Neruo-pid controller
US5394509A (en) * 1992-03-31 1995-02-28 Winston; Patrick H. Data processing system and method for searching for improved results from a process
US5390282A (en) * 1992-06-16 1995-02-14 John R. Koza Process for problem solving using spontaneously emergent self-replicating and self-improving entities
DE69333811T2 (de) * 1992-06-19 2006-05-11 United Parcel Service Of America, Inc. Verfahren und Gerät zur Erzeugung und Einstellung eines Neurones
US5717947A (en) * 1993-03-31 1998-02-10 Motorola, Inc. Data processing system and method thereof
US5651098A (en) * 1993-10-07 1997-07-22 Hitachi Engineering Co., Ltd. Planning method and system
US5568590A (en) * 1993-12-17 1996-10-22 Xaos Tools Image processing using genetic mutation of neural network parameters
US5570292A (en) * 1994-02-14 1996-10-29 Andersen Corporation Integrated method and apparatus for selecting, ordering and manufacturing art glass panels
US5584016A (en) * 1994-02-14 1996-12-10 Andersen Corporation Waterjet cutting tool interface apparatus and method
US5548698A (en) * 1994-02-14 1996-08-20 Andersen Corporation Rule based parametric design apparatus and method
US5914887A (en) * 1994-04-19 1999-06-22 Lsi Logic Corporation Congestion based cost factor computing apparatus for integrated circuit physical design automation system
US6493658B1 (en) 1994-04-19 2002-12-10 Lsi Logic Corporation Optimization processing for integrated circuit physical design automation system using optimally switched fitness improvement algorithms
US5495419A (en) * 1994-04-19 1996-02-27 Lsi Logic Corporation Integrated circuit physical design automation system utilizing optimization process decomposition and parallel processing
US5557533A (en) * 1994-04-19 1996-09-17 Lsi Logic Corporation Cell placement alteration apparatus for integrated circuit chip physical design automation system
US6155725A (en) * 1994-04-19 2000-12-05 Lsi Logic Corporation Cell placement representation and transposition for integrated circuit physical design automation system
US5815403A (en) * 1994-04-19 1998-09-29 Lsi Logic Corporation Fail-safe distributive processing method for producing a highest fitness cell placement for an integrated circuit chip
US5963975A (en) * 1994-04-19 1999-10-05 Lsi Logic Corporation Single chip integrated circuit distributed shared memory (DSM) and communications nodes
US5875117A (en) * 1994-04-19 1999-02-23 Lsi Logic Corporation Simultaneous placement and routing (SPAR) method for integrated circuit physical design automation system
JP3524585B2 (ja) * 1994-08-02 2004-05-10 本田技研工業株式会社 プログラム作成装置
US5774690A (en) * 1995-09-14 1998-06-30 The United States Of America As Represented By The Secetary Of The Navy Method for optimization of element placement in a thinned array
JPH09106348A (ja) * 1995-10-11 1997-04-22 Fujitsu Ltd 学習機能を有する問題解決器
JP3358780B2 (ja) * 1996-02-02 2002-12-24 富士通株式会社 最適解探索装置
US6327582B1 (en) 1996-03-01 2001-12-04 William P. Worzel Method and system for genetic programming
DE19610849C1 (de) * 1996-03-19 1997-10-16 Siemens Ag Verfahren zur iterativen Ermittlung einer optimierten Netzarchitektur eines Neuronalen Netzes durch einen Rechner
IL117588A (en) * 1996-03-20 2000-02-17 Scheme Evolutionary Algorithms Method for determining a stowage plan
US6021369A (en) * 1996-06-27 2000-02-01 Yamaha Hatsudoki Kabushiki Kaisha Integrated controlling system
US5870312A (en) * 1996-06-28 1999-02-09 Lsi Logic Corporation Advanced modular cell placement system with dispersion-driven levelizing system
US6030110A (en) * 1996-06-28 2000-02-29 Lsi Logic Corporation Advanced modular cell placement system with median control and increase in resolution
US5867398A (en) * 1996-06-28 1999-02-02 Lsi Logic Corporation Advanced modular cell placement system with density driven capacity penalty system
US5914888A (en) * 1996-06-28 1999-06-22 Lsi Logic Corporation Advanced modular cell placement system with coarse overflow remover
US5872718A (en) * 1996-06-28 1999-02-16 Lsi Logic Corporation Advanced modular cell placement system
US5844811A (en) * 1996-06-28 1998-12-01 Lsi Logic Corporation Advanced modular cell placement system with universal affinity driven discrete placement optimization
US6067409A (en) * 1996-06-28 2000-05-23 Lsi Logic Corporation Advanced modular cell placement system
US5835381A (en) * 1996-06-28 1998-11-10 Lsi Logic Corporation Advanced modular cell placement system with minimizing maximal cut driven affinity system
US5808899A (en) * 1996-06-28 1998-09-15 Lsi Logic Corporation Advanced modular cell placement system with cell placement crystallization
US5831863A (en) * 1996-06-28 1998-11-03 Lsi Logic Corporation Advanced modular cell placement system with wire length driven affinity system
US5892688A (en) * 1996-06-28 1999-04-06 Lsi Logic Corporation Advanced modular cell placement system with iterative one dimensional preplacement optimization
US5963455A (en) * 1996-06-28 1999-10-05 Lsi Logic Corporation Advanced modular cell placement system with functional sieve optimization technique
US5812740A (en) * 1996-06-28 1998-09-22 Lsi Logic Corporation Advanced modular cell placement system with neighborhood system driven optimization
US5870311A (en) * 1996-06-28 1999-02-09 Lsi Logic Corporation Advanced modular cell placement system with fast procedure for finding a levelizing cut point
US6026223A (en) * 1996-06-28 2000-02-15 Scepanovic; Ranko Advanced modular cell placement system with overlap remover with minimal noise
US6085032A (en) * 1996-06-28 2000-07-04 Lsi Logic Corporation Advanced modular cell placement system with sinusoidal optimization
US6128607A (en) * 1996-07-12 2000-10-03 Nordin; Peter Computer implemented machine learning method and system
US5946673A (en) * 1996-07-12 1999-08-31 Francone; Frank D. Computer implemented machine learning and control system
US5841947A (en) * 1996-07-12 1998-11-24 Nordin; Peter Computer implemented machine learning method and system
GB9614927D0 (en) * 1996-07-16 1996-09-04 British Telecomm Arranging data signals defining a network
US5832466A (en) * 1996-08-12 1998-11-03 International Neural Machines Inc. System and method for dynamic learning control in genetically enhanced back-propagation neural networks
JP3825845B2 (ja) * 1996-09-27 2006-09-27 ヤマハ発動機株式会社 進化的制御方式
US6032139A (en) * 1996-09-27 2000-02-29 Yamaha Hatsudoki Kabushiki Kaisha Electronic controller using genetic evolution techniques suitable for controlling a motor
US5980093A (en) * 1996-12-04 1999-11-09 Lsi Logic Corporation Integrated circuit layout routing using multiprocessing
US20080071588A1 (en) * 1997-12-10 2008-03-20 Eder Jeff S Method of and system for analyzing, modeling and valuing elements of a business enterprise
US5864832A (en) * 1997-01-24 1999-01-26 Hewlett-Packard Company Method and apparatus for selecting higher order terms for a holographic neural network
US6336107B1 (en) * 1997-07-31 2002-01-01 Matsushita Electric Industrial Co., Ltd Method and system of automatic arrangement of composing elements
WO1999012085A2 (en) * 1997-09-04 1999-03-11 Camelot Information Technologies Ltd. Heterogeneous neural networks
GB9805260D0 (en) 1998-03-13 1998-05-06 Ncr Int Inc Method and apparatus to model the variables of a data set
US8044793B2 (en) 2001-03-01 2011-10-25 Fisher-Rosemount Systems, Inc. Integrated device alerts in a process control system
US6975219B2 (en) 2001-03-01 2005-12-13 Fisher-Rosemount Systems, Inc. Enhanced hart device alerts in a process control system
US7206646B2 (en) 1999-02-22 2007-04-17 Fisher-Rosemount Systems, Inc. Method and apparatus for performing a function in a plant using process performance monitoring with process equipment monitoring and control
US7562135B2 (en) 2000-05-23 2009-07-14 Fisher-Rosemount Systems, Inc. Enhanced fieldbus device alerts in a process control system
US6513024B1 (en) * 1999-03-16 2003-01-28 Chou H. Li Self-optimization with interactions
US6523016B1 (en) * 1999-04-12 2003-02-18 George Mason University Learnable non-darwinian evolution
US6434539B1 (en) * 1999-04-20 2002-08-13 Sonetech Corporation Method and apparatus for determining and forming delayed waveforms for forming transmitting or receiving beams for an acoustic system array of transmitting or receiving elements for imaging in non-homogenous/non-uniform mediums
US6289327B1 (en) * 1999-04-20 2001-09-11 Sonetech Corporation Method and apparatus for determining and forming delayed waveforms for forming transmitting or receiving beams for an air acoustic system array of transmitting or receiving elements
US6366895B1 (en) * 1999-04-20 2002-04-02 Sonetech Corporation Method and apparatus for determining and forming delayed waveforms for forming transmitting or receiving beams for a sonar system array of transmitting or receiving elements
US6304864B1 (en) 1999-04-20 2001-10-16 Textwise Llc System for retrieving multimedia information from the internet using multiple evolving intelligent agents
US6941287B1 (en) 1999-04-30 2005-09-06 E. I. Du Pont De Nemours And Company Distributed hierarchical evolutionary modeling and visualization of empirical data
JP3443039B2 (ja) * 1999-06-21 2003-09-02 科学技術振興事業団 ネットワーク推定方法および装置
US6553357B2 (en) * 1999-09-01 2003-04-22 Koninklijke Philips Electronics N.V. Method for improving neural network architectures using evolutionary algorithms
US6424961B1 (en) 1999-12-06 2002-07-23 AYALA FRANCISCO JOSé Adaptive neural learning system
JP2001188768A (ja) * 1999-12-28 2001-07-10 Japan Science & Technology Corp ネットワーク推定方法
US6490573B1 (en) * 2000-04-11 2002-12-03 Philip Chidi Njemanze Neural network for modeling ecological and biological systems
US20020059154A1 (en) * 2000-04-24 2002-05-16 Rodvold David M. Method for simultaneously optimizing artificial neural network inputs and architectures using genetic algorithms
US6907418B2 (en) * 2000-12-21 2005-06-14 Metabiz Co., Ltd. Advertisement servicing system using e-mail arrival notifying program and method therefor
US7043461B2 (en) * 2001-01-19 2006-05-09 Genalytics, Inc. Process and system for developing a predictive model
US6882989B2 (en) * 2001-02-23 2005-04-19 Bbnt Solutions Llc Genetic algorithm techniques and applications
US6954713B2 (en) 2001-03-01 2005-10-11 Fisher-Rosemount Systems, Inc. Cavitation detection in a process plant
DE60206884T2 (de) 2001-03-01 2006-07-27 Fisher-Rosemount Systems, Inc., Austin Gemeinsame Benutzung von Daten iner Prozessanlage
CN100524130C (zh) * 2001-03-01 2009-08-05 费舍-柔斯芒特***股份有限公司 自动工作命令/部件命令生成和跟踪
US7720727B2 (en) 2001-03-01 2010-05-18 Fisher-Rosemount Systems, Inc. Economic calculations in process control system
US7389204B2 (en) * 2001-03-01 2008-06-17 Fisher-Rosemount Systems, Inc. Data presentation system for abnormal situation prevention in a process plant
US8073967B2 (en) 2002-04-15 2011-12-06 Fisher-Rosemount Systems, Inc. Web services-based communications for use with process control systems
US6795798B2 (en) 2001-03-01 2004-09-21 Fisher-Rosemount Systems, Inc. Remote analysis of process control plant data
US6912515B2 (en) * 2001-06-04 2005-06-28 Xerox Corporation Method and system for algorithm synthesis in problem solving
US7409371B1 (en) * 2001-06-04 2008-08-05 Microsoft Corporation Efficient determination of sample size to facilitate building a statistical model
US7162534B2 (en) * 2001-07-10 2007-01-09 Fisher-Rosemount Systems, Inc. Transactional data communications for process control systems
US20030046583A1 (en) * 2001-08-30 2003-03-06 Honeywell International Inc. Automated configuration of security software suites
US6836767B2 (en) 2001-10-03 2004-12-28 International Business Machines Corporation Pipelined hardware implementation of a neural network circuit
US7313550B2 (en) * 2002-03-27 2007-12-25 Council Of Scientific & Industrial Research Performance of artificial neural network models in the presence of instrumental noise and measurement errors
US7139738B2 (en) * 2002-06-27 2006-11-21 Koninklijke Philips Electronics N.V. Face recognition using evolutionary algorithms
US7600234B2 (en) * 2002-12-10 2009-10-06 Fisher-Rosemount Systems, Inc. Method for launching applications
US8935298B2 (en) 2002-12-30 2015-01-13 Fisher-Rosemount Systems, Inc. Integrated navigational tree importation and generation in a process plant
US7493310B2 (en) 2002-12-30 2009-02-17 Fisher-Rosemount Systems, Inc. Data visualization within an integrated asset data system for a process plant
US7152072B2 (en) 2003-01-08 2006-12-19 Fisher-Rosemount Systems Inc. Methods and apparatus for importing device data into a database system used in a process plant
US7493295B2 (en) * 2003-01-17 2009-02-17 Francisco J. Ayala Method, system and computer program for developing cortical algorithms
US7139740B2 (en) * 2003-01-17 2006-11-21 Ayala Francisco J System and method for developing artificial intelligence
US20040158474A1 (en) * 2003-02-06 2004-08-12 Karschnia Robert J. Service facility for providing remote diagnostic and maintenance services to a process plant
US7953842B2 (en) 2003-02-19 2011-05-31 Fisher-Rosemount Systems, Inc. Open network-based data acquisition, aggregation and optimization for use with process control systems
US7103427B2 (en) * 2003-02-28 2006-09-05 Fisher-Rosemont Systems, Inc. Delivery of process plant notifications
US6915235B2 (en) * 2003-03-13 2005-07-05 Csi Technology, Inc. Generation of data indicative of machine operational condition
US7634384B2 (en) 2003-03-18 2009-12-15 Fisher-Rosemount Systems, Inc. Asset optimization reporting in a process plant
WO2004097733A2 (en) * 2003-04-30 2004-11-11 Darwinian Neural Network Industries Ltd Neural networks
US7299415B2 (en) * 2003-06-16 2007-11-20 Fisher-Rosemount Systems, Inc. Method and apparatus for providing help information in multiple formats
US7030747B2 (en) * 2004-02-26 2006-04-18 Fisher-Rosemount Systems, Inc. Method and system for integrated alarms in a process control system
US7676287B2 (en) 2004-03-03 2010-03-09 Fisher-Rosemount Systems, Inc. Configuration system and method for abnormal situation prevention in a process plant
US7079984B2 (en) 2004-03-03 2006-07-18 Fisher-Rosemount Systems, Inc. Abnormal situation prevention in a process plant
US7515977B2 (en) * 2004-03-30 2009-04-07 Fisher-Rosemount Systems, Inc. Integrated configuration system for use in a process plant
US7536274B2 (en) 2004-05-28 2009-05-19 Fisher-Rosemount Systems, Inc. System and method for detecting an abnormal situation associated with a heater
CA2567139A1 (en) 2004-06-12 2005-12-29 Fisher-Rosemount Systems, Inc. System and method for detecting an abnormal situation associated with a process gain of a control loop
US7181654B2 (en) * 2004-09-17 2007-02-20 Fisher-Rosemount Systems, Inc. System and method for detecting an abnormal situation associated with a reactor
US8005647B2 (en) 2005-04-08 2011-08-23 Rosemount, Inc. Method and apparatus for monitoring and performing corrective measures in a process plant using monitoring data with corrective measures data
US9201420B2 (en) 2005-04-08 2015-12-01 Rosemount, Inc. Method and apparatus for performing a function in a process plant using monitoring data with criticality evaluation data
US7370019B2 (en) * 2005-06-23 2008-05-06 Ecole Polytechnique Federal De Lausanne Method and device for evolving a network using a genetic representation
US7272531B2 (en) 2005-09-20 2007-09-18 Fisher-Rosemount Systems, Inc. Aggregation of asset use indices within a process plant
US20070288410A1 (en) * 2006-06-12 2007-12-13 Benjamin Tomkins System and method of using genetic programming and neural network technologies to enhance spectral data
US8606544B2 (en) 2006-07-25 2013-12-10 Fisher-Rosemount Systems, Inc. Methods and systems for detecting deviation of a process variable from expected values
US8145358B2 (en) 2006-07-25 2012-03-27 Fisher-Rosemount Systems, Inc. Method and system for detecting abnormal operation of a level regulatory control loop
US7657399B2 (en) 2006-07-25 2010-02-02 Fisher-Rosemount Systems, Inc. Methods and systems for detecting deviation of a process variable from expected values
US7912676B2 (en) 2006-07-25 2011-03-22 Fisher-Rosemount Systems, Inc. Method and system for detecting abnormal operation in a process plant
EP2392982B1 (de) 2006-09-28 2015-03-25 Fisher-Rosemount Systems, Inc. Verhinderung anomaler Situationen in einem Wärmetauscher
US7917240B2 (en) 2006-09-29 2011-03-29 Fisher-Rosemount Systems, Inc. Univariate method for monitoring and analysis of multivariate data
US8032341B2 (en) 2007-01-04 2011-10-04 Fisher-Rosemount Systems, Inc. Modeling a process using a composite model comprising a plurality of regression models
US8032340B2 (en) 2007-01-04 2011-10-04 Fisher-Rosemount Systems, Inc. Method and system for modeling a process variable in a process plant
US7827006B2 (en) 2007-01-31 2010-11-02 Fisher-Rosemount Systems, Inc. Heat exchanger fouling detection
US20080222065A1 (en) * 2007-03-05 2008-09-11 Sharkbait Enterprises Llc Learning and analysis systems and methods
US10410145B2 (en) * 2007-05-15 2019-09-10 Fisher-Rosemount Systems, Inc. Automatic maintenance estimation in a plant environment
US8301676B2 (en) 2007-08-23 2012-10-30 Fisher-Rosemount Systems, Inc. Field device with capability of calculating digital filter coefficients
US7702401B2 (en) 2007-09-05 2010-04-20 Fisher-Rosemount Systems, Inc. System for preserving and displaying process control data associated with an abnormal situation
US9323247B2 (en) 2007-09-14 2016-04-26 Fisher-Rosemount Systems, Inc. Personalized plant asset data representation and search system
US8055479B2 (en) 2007-10-10 2011-11-08 Fisher-Rosemount Systems, Inc. Simplified algorithm for abnormal situation prevention in load following applications including plugged line diagnostics in a dynamic process
DE102007050434A1 (de) * 2007-10-22 2009-04-23 Henkel Ag & Co. Kgaa Verfahren und Anordnung zum computergestützten Ermitteln mindestens einer Eigenschaft einer Haarcoloration basierend auf einer Formulierung aus chemisch reaktiven und/oder unreaktiven Rohstoffen, Verfahren und Anordnung zum computergestützten Ermitteln einer Formulierung einer Haarcoloration basierend auf chemisch reaktiven und/oder unreaktiven Rohstoffen, und Verfahren und Anordnung zum computergestützten Trainieren eines vorbestimmten Modells zum computergestützten Ermitteln mindestens einer Eigenschaft einer Haarcoloration basierend auf einer Formulierung aus chemisch reaktiven und/oder unreaktiven Rohstoffen
US20090182693A1 (en) * 2008-01-14 2009-07-16 Halliburton Energy Services, Inc. Determining stimulation design parameters using artificial neural networks optimized with a genetic algorithm
US9015093B1 (en) 2010-10-26 2015-04-21 Michael Lamport Commons Intelligent control with hierarchical stacked neural networks
US8775341B1 (en) 2010-10-26 2014-07-08 Michael Lamport Commons Intelligent control with hierarchical stacked neural networks
US9927788B2 (en) 2011-05-19 2018-03-27 Fisher-Rosemount Systems, Inc. Software lockout coordination between a process control system and an asset management system
US9529348B2 (en) 2012-01-24 2016-12-27 Emerson Process Management Power & Water Solutions, Inc. Method and apparatus for deploying industrial plant simulators using cloud computing technologies
JP6102947B2 (ja) * 2012-12-28 2017-03-29 富士通株式会社 画像処理装置及び特徴検出方法
CN103354073B (zh) * 2013-06-13 2016-01-20 南京信息工程大学 一种lcd色偏纠正方法
RU2602973C1 (ru) * 2015-09-30 2016-11-20 Федеральное государственное бюджетное образовательное учреждение высшего образования "Кубанский государственный технологический университет" (ФГБОУ ВО "КубГТУ") Контроллер управления обучением нейронной сети с генетическим алгоритмом
JP6740597B2 (ja) * 2015-11-27 2020-08-19 富士通株式会社 学習方法、学習プログラムおよび情報処理装置
US11250327B2 (en) 2016-10-26 2022-02-15 Cognizant Technology Solutions U.S. Corporation Evolution of deep neural network structures
US10192016B2 (en) * 2017-01-17 2019-01-29 Xilinx, Inc. Neural network based physical synthesis for circuit designs
KR101763869B1 (ko) * 2017-02-16 2017-08-07 주식회사 더디엔에이시스템 뉴로블록체인 콤비네이션을 이용한 인공신경망 모델의 자가 구성 모듈
US11507844B2 (en) 2017-03-07 2022-11-22 Cognizant Technology Solutions U.S. Corporation Asynchronous evaluation strategy for evolution of deep neural networks
US10291268B1 (en) * 2017-07-25 2019-05-14 United States Of America As Represented By Secretary Of The Navy Methods and systems for performing radio-frequency signal noise reduction in the absence of noise models
US11074503B2 (en) 2017-09-06 2021-07-27 SparkCognition, Inc. Execution of a genetic algorithm having variable epoch size with selective execution of a training algorithm
US11106978B2 (en) 2017-09-08 2021-08-31 SparkCognition, Inc. Execution of a genetic algorithm with variable evolutionary weights of topological parameters for neural network generation and training
US10635978B2 (en) 2017-10-26 2020-04-28 SparkCognition, Inc. Ensembling of neural network models
US11250314B2 (en) 2017-10-27 2022-02-15 Cognizant Technology Solutions U.S. Corporation Beyond shared hierarchies: deep multitask learning through soft layer ordering
WO2019118299A1 (en) 2017-12-13 2019-06-20 Sentient Technologies (Barbados) Limited Evolving recurrent networks using genetic programming
US11003994B2 (en) 2017-12-13 2021-05-11 Cognizant Technology Solutions U.S. Corporation Evolutionary architectures for evolution of deep neural networks
US11107024B2 (en) 2018-01-15 2021-08-31 Nmetric, Llc Genetic smartjobs scheduling engine
US11527308B2 (en) 2018-02-06 2022-12-13 Cognizant Technology Solutions U.S. Corporation Enhanced optimization with composite objectives and novelty-diversity selection
US12033079B2 (en) 2018-02-08 2024-07-09 Cognizant Technology Solutions U.S. Corporation System and method for pseudo-task augmentation in deep multitask learning
WO2019165316A1 (en) * 2018-02-23 2019-08-29 The Regents Of The University Of California Architecture to compute sparse neural network
US11055433B2 (en) 2019-01-03 2021-07-06 Bank Of America Corporation Centralized advanced security provisioning platform
US11481639B2 (en) 2019-02-26 2022-10-25 Cognizant Technology Solutions U.S. Corporation Enhanced optimization with composite objectives and novelty pulsation
CA3129731A1 (en) 2019-03-13 2020-09-17 Elliot Meyerson System and method for implementing modular universal reparameterization for deep multi-task learning across diverse domains
CA3131688A1 (en) 2019-03-27 2020-10-01 Olivier Francon Process and system including an optimization engine with evolutionary surrogate-assisted prescriptions
US12026624B2 (en) 2019-05-23 2024-07-02 Cognizant Technology Solutions U.S. Corporation System and method for loss function metalearning for faster, more accurate training, and smaller datasets
US11741370B2 (en) * 2019-08-28 2023-08-29 International Business Machines Corporation Transfer learning based on cross-domain homophily influences
US11475297B2 (en) 2019-08-28 2022-10-18 International Business Machines Corporation Cross-domain homophily quantification for transfer learning
CN111191785B (zh) * 2019-12-20 2023-06-23 沈阳雅译网络技术有限公司 用于命名实体识别的基于拓展搜索空间的结构搜索方法
US20210312297A1 (en) * 2020-04-07 2021-10-07 Cognizant Technology Solutions U.S. Corporation Framework For Interactive Exploration, Evaluation, and Improvement of AI-Generated Solutions
US11775841B2 (en) 2020-06-15 2023-10-03 Cognizant Technology Solutions U.S. Corporation Process and system including explainable prescriptions through surrogate-assisted evolution
CN112507624B (zh) * 2020-12-15 2023-11-10 交通运输部公路科学研究所 一种城际公路出行方式识别模型构建、识别方法及装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
NL269964A (de) * 1961-08-22
US3097349A (en) * 1961-08-28 1963-07-09 Rca Corp Information processing apparatus
US4593367A (en) * 1984-01-16 1986-06-03 Itt Corporation Probabilistic learning element
US4591980A (en) * 1984-02-16 1986-05-27 Xerox Corporation Adaptive self-repairing processor array
US4697242A (en) * 1984-06-11 1987-09-29 Holland John H Adaptive computing system capable of learning and discovery
US4897811A (en) * 1988-01-19 1990-01-30 Nestor, Inc. N-dimensional coulomb neural network which provides for cumulative learning of internal representations
US4935877A (en) * 1988-05-20 1990-06-19 Koza John R Non-linear genetic algorithms for solving problems

Also Published As

Publication number Publication date
DE69014613D1 (de) 1995-01-12
EP0465489A1 (de) 1992-01-15
CA2050686A1 (en) 1990-09-29
EP0465489B1 (de) 1994-11-30
US5140530A (en) 1992-08-18
WO1990011568A1 (en) 1990-10-04
CA2050686C (en) 1999-12-14
JPH04503876A (ja) 1992-07-09
ATE114837T1 (de) 1994-12-15
JP2881711B2 (ja) 1999-04-12

Similar Documents

Publication Publication Date Title
DE69014613T2 (de) Genetische synthese von neuronalen netzwerken.
DE69423228T2 (de) Unüberwachtes klassifizierungsverfahren mit neuronalem netzwerk mit back propagation
DE69126555T2 (de) Verfahren zur Klassifikation in einem hierarchisierten neuronalen Netzwerk
DE3689049T2 (de) Selbstanpassender Prozessor.
DE69612928T2 (de) Rechnersystem mit genetischen Optimierungstechniken
DE3789718T2 (de) Verfahren zur Konstruktion von baumstrukturierten Klassifikatoren.
DE69838181T2 (de) Visualisierung und selbstorganisation multidimensionaler daten durch ausgeglichene orthogonale abbildung
DE3854663T2 (de) Neurorechnersystem zur lösung von optimierungsproblemen.
DE3916328A1 (de) Verfahren und computer zur problemloesung nach nicht-linearer genetischer methode
DE10035043A1 (de) Mehrdimensionale Indexierungsstruktur zur Verwendung mit linearen Optimierungsanfragen
DE19612016A1 (de) Verfahren zur rechnergestützten Geometriemodellierung
EP3736817A1 (de) Überprüfung und/oder verbesserung der konsistenz von datenkennzeichnungen bei der medizinischen bildverarbeitung
EP0901658B1 (de) Verfahren zur optimierung eines fuzzy-regelsatzes durch einen rechner
EP1934895A2 (de) Verfahren zum rechnergestützten lernen eines neuronalen netzes und neuronales netz
DE102021109468A1 (de) Hardware beschleuniger mit analog-inhaltlichem adressierbarem speicher (a-cam) für entscheidungsbaumrechnung
WO2009053137A2 (de) Verfahren zum computergestützten ermitteln mindestens einer eigenschaft einer haarcoloration
DE69802372T4 (de) Klassifizierungssystem und -verfahren mit N-Tuple- oder RAM-basiertem neuronalem Netzwerk
EP0890153B1 (de) Verfahren zur ermittlung von zur entfernung geeigneten gewichten eines neuronalen netzes mit hilfe eines rechners
DE60022398T2 (de) Sequenzgenerator
DE19549300C1 (de) Verfahren zur rechnergestützten Ermittlung einer Bewertungsvariablen eines Bayesianischen Netzwerkgraphen
DE19731499A1 (de) Verfahren und Vorrichtung zur Auswahl von Termen höherer Ordnung für ein holographisches Neuronennetz
WO2020229407A1 (de) Klassifikatorsystem und verfahren zum verteilten erzeugen von klassifikationsmodellen
DE602004013117T2 (de) Reduktion von Angepasstheitsbeurteilungen unter Verwendung von Gruppierungstechniken und Neuronalnetzwerken
DE112021006196T5 (de) Verfahren und einrichtung für visuelles schlussfolgern
EP0952501B1 (de) Verfahren zur datengetriebenen Prozessführung und Prozessoptimierung von technischen Vorgängen

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee