DE2133638C3 - Verfahren zum Betrieb eines lernfähigen Systems aus in Kaskade geschalteten, zur nicht linearen Datenverarbeitung geeigneten lernfähigen Datenverarbeitungseinheiten - Google Patents

Verfahren zum Betrieb eines lernfähigen Systems aus in Kaskade geschalteten, zur nicht linearen Datenverarbeitung geeigneten lernfähigen Datenverarbeitungseinheiten

Info

Publication number
DE2133638C3
DE2133638C3 DE2133638A DE2133638A DE2133638C3 DE 2133638 C3 DE2133638 C3 DE 2133638C3 DE 2133638 A DE2133638 A DE 2133638A DE 2133638 A DE2133638 A DE 2133638A DE 2133638 C3 DE2133638 C3 DE 2133638C3
Authority
DE
Germany
Prior art keywords
signal
register
memory
data processing
address
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired
Application number
DE2133638A
Other languages
English (en)
Other versions
DE2133638B2 (de
DE2133638A1 (de
Inventor
William Clay Dallas Choate
Fredrick James Richardson Taylor
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Texas Instruments Inc
Original Assignee
Texas Instruments Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Texas Instruments Inc filed Critical Texas Instruments Inc
Publication of DE2133638A1 publication Critical patent/DE2133638A1/de
Publication of DE2133638B2 publication Critical patent/DE2133638B2/de
Application granted granted Critical
Publication of DE2133638C3 publication Critical patent/DE2133638C3/de
Expired legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Complex Calculations (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Description

Die Erfindung bezieht sich auf ein Verfahren zum Betrieb eines lernfähigen Systems aus in Kaskade geschalteten, zur nichtlinearen Datenverarbeitung geeigneten, lernfähigen Datenverarbeitungseinheiten mit jeweils einem durch die zu verarbeitenden Eingangssignale adressierbaren Speicherfeld, in dessen Speicherregistera statistische Daten gespeichert werden, die den zu den Eingangssignal gewünschten Antworten entsprechen.
In der Datenverarbeitung gibt es Probleme, bei deren Lösung so viele Daten auftreten und benötigt werden, daß der dazu erforderliche Speicherplatz nicht mehr zur Verfugung gestellt werden kann. Beispielsweise müssen bei der Identifizierung geschriebener Buchstaben oder gesprochener Wörter sehr große Datenmengen gespeichert werden, damit gleiche, iedoch unterschiedlich geschriebene Buchstaben oder gleiche, jedoch unterschiedlich gesprochene Wörter auch sicher erkannt werden können. Die gleichen Schwierigkeiten treten bei allen Arten von Problemstellungen auf, deren mathematische Lösungen nur über umfangreiche Systeme nichtlinearer Gleichungen erhalten werden können.
Die Ausräumung der oben geschilderten Schwierigkeiten ist mit Hilfe von lernfäb' cn Datenverarbeitungssystemen versucht worden, unter denen man Systeme versteht, denen in einer Lernphase Trainingssignale und diesen zugeordnete gewünschte Antworten eingibt, so daß sie in einer Kannphase in der Lage sind, auch auf solche Eingangssignale Antworten abzugeben, die in der Lernphase nicht vorgekommen sind. Der Erfindung liegt nun die Aufgabe zugrunde, ein Verfahren zum Betrieb eines lernfähigen Systems anzugeben, mit dessen Hilfe bei geringem zeitlichem Aufwand für die Lernphase in der Kannphase richtige Antworten auf alle möglichen Eingangssignalc mit großer Genauigkeit erhalten werden können.
Nach der Erfindung wird dies dadurch erreicht,
(1) daß in der Lemphase
(1.1) bei Eingabe eines Trainingssignals dei gewünschten Antwort entsprechende erste statistische Daten in Speichel registern des Speicherfeldes eine r ersten, im Lernbetrieb arbeitenden Datenverarbsitungseinheit gemaß einer Adressierung durch ein vom Trainingssignal abgeleitetes erstes Eingangssignal gespeichert werden,
(1.2) aus den gespeicherten ersten statistischen Daten ein erstes Wahrscheinlichkeitssignal erzeugt wird, das eine erste statistische Schätzung der gewünschten Antwort auf ein zweites Eingangssignal darstellt, das von dem Trainingssignal abgeleitet ist, das der im Kannbetrieb arbeitenden ersten Datenverarbeitungseinheit zur Adressierung ihres Speicherfeldes zugeführt wird,
(1.3) einer gewünschten Antwort entsprechende statistische Daten in Speicherregistern des Speicherfeldes einer zweiten, im Lernbetrieb arbeitenden Datenverarbeitungseinheit gemäß einer Adressierung durch ein drittes Eingangssignal, das neben dem ersten Wahrscheinlichkeitssignal ein ebenfalls von dem Trainingssignal abgeleitetes Eingangssignal enthält, gespeichert werden, und
(2) daß in der Kannphase
(2.1) bei Eingabe eines zu erkennenden Signals aus den gespeicherten ersten statistischen Daten ein erstes Wahrscheinlichkeitssignal erzeugt wird, das eine erste statistische Schätzung der gewünschten Antwort auf das zu erkennende Signal entsprechend
. einem vom zu erkennenden Signal abgeleiteten Eingangssignal darstellt, das der im Kannbetrieb arbeitenden ersten Datenverarbeitungseinheit zur Adressierung ihres Speicherfeldes zugeführt wird,
(2.2) aus den gespeicherten zweiten statistischen Daten ein zweites Wahrscheinlichkeitssignal erzeugt wird, das eine zweite statistische Schätzung der gewünschten Antwort auf das zu erkennende Signal entsprechend einem Eingangssignal darstellt, das neben dem von der ersten Datenverarbeitungseinheit erzeugten ersten Wahrscheinlichkeitssignal ein wdteres, ebenfalls von dem zu erkennenden Signal abgeleitetes Eingangssignal enthält, das zur Adressierung des Speicherfeldes der zweiten, im Kannbetrieb arbeitenden Datenverarbeitungseinheit zugeführt wird.
Bei dem erfindungsgemäßen Verfahren werden einer gewünschten Antwort entsprechende erste statistische Daten im Speicherregister des Speicherfeldes einer ersten Datenverarbeitungseinheit gespeichert, die dabei im Lernbetrieb arbeitet. Die Adressierung der Speicherregister erfolgt dabei durch ein erstes Eingangssignal, das an die erste Datenverarbeitungseinheit angelegt ist. Im naVh-.tcn Schritt arbeitet die erste Datenverarbeitungseinhät bereits im Kannbeilrieb, und sie erzeugt aus den gespeicherten ersten statistischen Daten ein erstes Wahrscheinlichkeitssignal, das eine erste statistische Schätzung der gewünschten Antwort auf ein zweites Eingangssignal darstellt, das ihr zur Adressierung dieses Speicherfeldes zugeführt wird.
Nun werden in den Speicherregistern einer zweiten Datcnverarbeitungscinheit einer gewünschten Antwort entsprechende zweite statistische Daten gespeichert. Die zweite Datenverarbeitungseinheit arbeitet dabei im Lernbetrieb, und die Adressierung ihrer Speicherregister erfolgt durch ein weiteres Eingangs-
5 6
signal, das auch das von der ersten Datenverarbei- erkennt, daß insgesamt k Recheneinheiten vorgesetungseinheit abgegebene erste Wahrscheinlichkeits- hen sind, von denen fünf, nämlich die erste Rechensignale enthält. einheit 10, die zweite Recheneinheit 11, die dritte
In der Kannphase des lernfähigen Systems wird Recheneinheit 12, die {k — l)-te Recheneinheit 13 aus den gespeicherten ersten statistischen Daten ein 5 und die Λ-te Recheneinheit 14 in der Zeichnung darzweites Wahrscheinlichkeitssignal erzeugt, das eine gestellt sind. Die tatsächliche Anzahl von (A)-Emstatistische Schätzung der gewünschten Antwort auf heitcn, die benutzt wird, um ein gegebenes Problem ein zu erkennendes Signal darstellt, das der im Kann- zu lösen, wird einerseits von der Kompliziertheit der betrieb arbeitenden ersten Datenverarbeitungseinheit zu verarbeitenden Signale und andererseits von der zur Adressierung ihres Speicherfeldes zugeführt wird. io gewünschten Genauigkeit bestimmt. Es müssen zu-Nun wird aus den gespeicherten zweiten statistischen mindest zwei in Kaskade geschaltete Recheneinhei-Daten ein tatsächliches Ausgangssignal erzeugt, das ten vorgesehen sein Das in Fig. 1 gezeigte System eine statistische Schätzung der gewünschten Antwort erhält zwei Eingangssignal« U(t) und Z und ein Ausauf ein weiteres Eingangssignal darstellt, das das von gangssignal Xk. Das Signal Z und das Signal Xk der ersten Datenverarbeitungseinheit erzeugte zweite 15 können jeweils von einer Signalmenge gebildet sein; Wahrscheinlichkeitssignal enthält und zur Adressie- sie können auch von Gruppen digitaler oder binärer rung des Speicherfeldes der zweiten, im Kannbetrieb Komponenten eines einzigen Signals gebildet sein, arbeitenden Datenverarbeitungseinheit zugeführt Das Eingangssignal L'(/) ist das normale Eingangswird. Diese zweite statistische Schätzung kommt der signal, das üblicherweise ein Analogsignal, beispielsgewünschten Antwort bereits wesentlich näher als ao weise eine zeitabhängige Funktion ist, es kann jedoch die von der ersten Datenverarbeitungseinheit erzeugte auch ein digitales oder binäres Signal sein. Z entSchätzung. Wie viele Stufen zur nichtlinearen Daten- spricht dem gewünschten Ausgangssignal bzw. der Verarbeitungseinheit geeigneter lernfähiger Datenver- gewünschten Antwort zu dem Eingangssignal 1/(0· arbeitungseinheiten hintereinander geschaltet werden, Xk stellt die Schätzung des Systems für das Ausgangshängt davon ab, welche Anforderungen an die Ge- 25 signal dar und wird als »tatsächliche Antwort« des nauigkeit der gewünschten Antwort gestellt werden. Systems bezeichnet, um es von der »gewünschten
Die gespeicherten statistischen Daten stehen in Antwort« Z zu unterscheiden. Es lassen sich zwei einem solchen Zusammenhang mit der gewünschten Phasen unterscheiden, nämlich eine Lernphase und Antwort, daß aus ihnen ein Signal abgeleitet werden eine Kannrhase. Während der I.ernphase ist ein kann, das die Wahrscheinlichkeit für die Richtigkeit 30 Schalter 17 geschlossen, und dem System wird außer einer bestimmten Antwort auf ein angelegtes Ein dem Signal V(t) die Antwort Z zugeführt,
gangssignal angibt. In einer Weiterbildung der Erh'n- Im allgemeinen ist U(t) ein Analogsignal 16, weidung handelt es sich bei dtn statistischen Daten um dies Information oder Information plus Rauschen Zahlen, die angeben, wie oft in der Lernphase eine enthält, und dieses Signal wird zuerst in einer VorZuordnung von Eingangssignalen zu einer bestimm 35 Verarbeitungseinheit 15 in digitale Form gebracht ten gewünschten Antwort \orgenommen worden ist oder in anderer Weise aufbereitet, um eine Gruppe Als gewünschte Antwort wird da in in der Kannphase von einem oder mehreren Signalen / und ein Signal diejenige Antwort ausgewählt, tue einem bestimmten X0 zu erzeugen. Während der Lernphase des Systems Eingangssignal am häufigsten zugeordnet worden ist. werden der Vorverarbeitungseinheit 15 viele Signale
Die Erfindung wird nun an Hand der Zeichnung 40 U(t) zugeführt, so daß viele entsprechende Sätze von
beispielshalber erläutert. Darin zeigt Signalen / und Signalen X0 erzeugt werden.
Fi g. 1 eine Datenverarbeitungsanordnung zur Die Recheneinheiten 10 bis 14 werden in folgender
Durchführung des erfmdungsge'- 3en Verfahrens, Reihenfolge trainiert:
Fig.2 den Verlauf eines Signals, das ein gespro- Zuerst wird die Recheneinheit 10 trainiert, um
dienes Wort darstellt, zu dessen Erkennen die An- 45 darin erste statistische Daten tu speichern, die einem
Ordnung verwendet werden kann, Eingangssignal abgeleitet sind, welches die Signale
F i g. 3 bis 5 Diagramme zur Erläuterung der Ar- /0 und λ'ο sowie ein Signal Z umfaßt, das der ge-
beitsweise einer Vorverarbeitungseinheit zur Aufbe- wünschten Antwort auf das der Vorverarbeitungsein-
reirung des in Fig.2 dargestellten Signals für die heit 15 zugeführte Signal U(t) entspricht. Wenn die
Anordnung, so Recheneinheit 10 durch Anlegen dieser Signale trai-
F i g. 6 ein Ausführungsbeispiel des inneren Auf- niert worden ist, beginnt ein zweiter Schritt, in dessen
bans einer dar bei der Anordnung verwendeten Verlauf ein zweites Eingangssignal, bestehend aus
Datenverarbeitungseinheiten, einem anderen Signa! /0 und einem anderen Signal
Fig.7 bis 11 den Aufbau eines Speicherfeldes AT0, die von der Eingangsrecheneinheit 15 in Abhän-
eiser Datenverarbeitungseinheit während mehrerer 55 gigkeit von einem zweiten Signal U(t) erzeugt wur-
Lerazykleo, den, an die Recheneinheit 10 angelegt wird. Wahrere Fig. 12 bis 14 den Ablauf der Lernphase für die dieses zweiten Schrittes arbeitet die Recheneinheit 11
ersten drei in Kaskade geschalteten Datenverarbei- bereits in der Kannphase, und sie erzeugt in Abhän
tungseinheiten gemäß einem Ausführungsbeispiel der gigkeit von den in ihr gespeicherten, ersten statisti
Erfindung und 60 sehen Daten ein Wahrscheiolichkeitssignal X1, wel Fig. IS den Ablauf der Lernphase für die A-te ches eine beste statistische Schätzung der Rechen
bzw. die letzte Datenverarbeitungseinheit des in den einheit 10 für eine gewünschte Antwort auf da Fig. 12 bis 14 dargestellten \usfühningsbeispiels zweite Eingangssignal U{t) darstellt. Während eine
sowie dea Ablauf der Kannphase dritten Schrittes wird dann die zweite Recheneinhei
Die einfachste Ausführungsform eines lernfähigen 65 11 in einer der Lemphase entsprechenden Betriebs Rechensystems nut in Kaskade geschalteten Daten- art betrieben and speichert zweite, statistische Daten iii nachfolgend einfach »Re- die auf einem dritten Eingangssignal basieren, we!
i i Fi 1 i M h d Sil d d Vbi
rarbeig g ggg
&eneinheiten« genannt, ist in Fig. 1 gezeigt. Man ches aus dem Signal /,, das von der Vorverarbei
tungseinheil 15 in Abhängiggkeit von dem zweiten geliefert wird, wenn das Signal I11-1 und das Aus-Eingangssignal V(t) erzeugt wird, dem Wahrschein- gangssignal Xk _ v welches von der (k — 1 )-ten Relichkeitssignal X1, welches von der in dt r Kannphase cheneinheit geliefert wird, an sie angelegt werden, arbeitenden ersten Recheneinheit 10 zu dem zweiten kann dann in ein tatsächliches Antwortsignal umge-Eingangssignal U(t) erzeugt wird, und der gewünsch- 5 wandelt werden, welches die Schätzung minimaler ten Antwort Z, auf das zweite Eingangssignal U[t) Entropie bzw. Unsicherheit des ganzen Systems für entspricht, besteht. eine richtige, gewünschte Antwort auf das zu unter-Bei einer Ausführungsform, die nachstehend be- suchende Signal U(t) darstellt. Bei einer Ausfühschrieben werden soll, ist das Signal /0, das in der rungsform, auf die bereits oben Bezug genommen Kannphase von der Recheneinheit 10 benutzt wird, io wurde, besteht das Eingangssignal für die jfe-te Reum das Signal X1 zum Trainieren der Recheneinheit cheneinheit 14 während der Kannphase aus dem 11 zu erzeugen, das um eine Zeiteinheit verzögerte Signal Ikl und dem Ausgangssignal Xk-1 der Eingangssignal Z1, mit welchem die Recheneinheit 11 (k — l)-ten Recheneinheit 13, während die an die trainiert werden soll. Während der gesamten Lern- übrigen Recheneinheiten angelegten Signale/ und A' phase paßt sich die innere Struktur jeder Rechen- 15 gleich dem Signal lk, verzögert jeweils um eine zueinheit an, so daß sich das tatsächliche Ausgangs- sätzliche Zeiteinheit, und dem jeweils durch das Aussignal X jeder Recheneinheit in einem statistischen gangssignal der in der Reihe davorliegenden ReSinne der gewünschten Antwort Z für jedes gegebene cheneinheit gebildeten Signal sind. Eingangssignal U(t) so nahe wie möglich annähert. Nachfolgend wird ein Ausführungsbeispiel be-Die Lernphase dauert an, bis sämtliche Rechen- 20 schrieben, das zur Erkennung eines gesprochenen einheiten in der Kaskade in ähnlicher Weise trainiert Wortes angewendet wird.
worden sind. Das Eingangssignal für die letzte oder In F i g. 2 ist ein typisches Schwingungsmuster Jfc-te Recheneinheit 14 besteht aus den Eingangs- eines gesprochenen Wortes graphisch dargestellt. Dasignalen lk ,, dei gewünschten Antwort Z auf das bei ist die Amplitude des Signals (senkrechte Achse) Signal U(t), von der das Signal Ik , abgeleitet ist, 25 über der Zeit (waagrechte Achse) aufgetragen, und dem Ausgangssignal Xk _ 1 der (k 1 )-ten Re- Die bei dem hier betrachteten Ausführungsbeispiel cheneinheit 13. Die Eingangssignale für jede der verwendete Vorverarbeitungseinheit digitalisiert nun vorangehenden Recheneinheiten bestehen aus ge- zunächst das Analogsignal, indem es die Zeit, welche trennten Signalen / und X, die bei einer Ausfüh- das Signal andauert, in eine feste Anzahl von Zeitrungsform, auf die bereits oben verwiesen wurde, 30 abschnitten« (beispielsweise 1000, obwohl zur Vergleich dem Signal /„ t sind, welches an die Ate einfachung der Darstellung nur 100 dargestellt sind)
aufteilt und dann die Amplitudenwerte in jedem der Zeitabschnitte mißt, wie dies in F i g. 3 gezeigt ist. Nach dieser Aufbereitung bildet das Eingangssignal
35 U(t) eine Gruppe von η diskreten Amplitudenwerten
g g „ t
Recheneinheit 14 angelegt wird, und zwar schrittweise jeweils um eine Zeiteinheit verzögert, sowie aus dem Ausgangssignal Λ' der vorangehenden Recheneinheit.
Wenn alle k Recheneinheiten 10 bis 14 trainiert worden sind, ist das System für ein Arbeiten in der Kannphase bereit, d. h., das System mit den in Kaskade geschalteten Recheneinheiten kann benutzt wer (Uti, U1, U1,
Als nächstes dient die Vorverarbeitungseinheit daden, um tatsächlich aufgetretene Probleme zu lösen. 40 zu, mit jedem der Amplitudenwerte dieses Satzes Dabei wird nun ein Signal U(t), welches untersucht einen Schwellwerttest durchzuführen, um die Werte, werden soll, das Eingangssignal für die Vorverarbei- die Signalinformation enthalten, von denen zu trentungseinheit 15, und aus diesem Signal werden wie- nen, die lediglich auf das Rauschen zurückzuführen derurn eine Gruppe von Signalen / und ein Signa! .V0 sind. Dat>ei wird beispielsweise, wenn der Wert eines erzeugt. Zuerst wird wiederum die Recheneinheit 10 45 der Ampiitudenwerte der Gruppe geringer ist als ein in der Kannphase arbeiten, um mit Hilfe der in ihr Schwellwert, beispielsweise 0,1, dieser Amplitudengespeicherten statistischen Daten ein Wahrscheinlich- wert nur als Rauschen betrachtet und für die weitekeitssignal X1 zu erzeugen, das eine statistische ren RechcnvGrgänge außer acht gelassen. Zusätzlich Schätzung der gewünschten Antwort auf das unter- werden die Amplitudenwerte normiert, so daß nur suchte Signal U(t) darstellt, wenn die Signale /0 und 5° noch Werte zwischen ■+■ 1 und - 1 auftreten, wie -X0, die von der Verarbeitungseinheit 15 für dieses dies Fig. 4 zeigt. Dies wird erreicht, indem sämtliche
Signal U{t) erzeugt wurden, an sie, d. h. an die Recheneinheit 10, angelegt werden. Danach wird die zweite Recheneinheit 11 in der Kannphase betrieben, um mit Hilfe der in ihr gespeicherten statistischen Datea ein zweites Wahrscheinlichkeitssignal X2 zu erzeugen, welches eine bessere statistische Schätzung tier gewünschten Antwort auf das zu untersuchende Signal U(t) darstellt, wenn an die Recheneinheit 11
Ampiitudenwerte durch den Betrag bzw. Absolutwert des größten (positiven oder negativen) Amplitudenwerts geteilt werden. Ein wichtiger Gesichtspunkt bei der Normierung besteht darin, daß das Signaimuster unabhängig von der Lautstärke wird, mit weicher die Worte gesprochen werden. Dies bedeutet, daß für den Fall, daß der Sprecher beim Aussprechen des gleichen Wortes mit unterschied-
die diesem Signal V(t) entsprechenden Signale I2 60 ficher Lsutstärke spricht, die resultierenden, nor- und X1 angelegt werden. Die restlichen Rechenein- mierten Signale im wesentlichen gleich sind und dabeiten in der Kaskade arbeiten in ähnlicher Weise, her leichter erkannt werden können, wobei das Eingangssignal für jede Recheneinheit aus Als nächster Schritt im BerriebsaWauf wird durch
einem von der Vorverarbeitungseinheit 15 gcliefer- die Von erarbeitungseinheit zu jedem der normierten ten Signal/ besteht und aus einem Wahrscheinlich- 65 Amplitudenwerte der Wert »1« addiert, so daß die keitssignal X, welches von der davorliegenden Re- Werte sämtlicher Signale nunmehr in dem Bereich Cheneinheit geliefert wird. Das Wabrscheinlichkeits- von »0« bis »2« Hegen, wie dies m Fig. S dargestellt signal Χ,ρ weiches von der A-ten Recheneinheit 14 ist, und nicht mehr zwischea — 1 and 1.
509534/137
9 10
Bei der hier betrachteten Ausführungsform sind der Wahrscheinlichkeitswerte, die von der jeweils für jede der in Kaskade geschalteten Recheneinheiten vorangehenden Recheneinheit erzeugt und geliefert zwei Eingangskomponenten vorgesehen, die eine werden. Die .Y-Komponente (AT0), die für die erste Adressenschlüsselfunktion bilden. Die erste Kompo- Recheneinheit benutzt wird, muß jedoch von der nente »/« ist dabei lediglich ein digitales Signal, 5 Vorverarbeitungseinheit 15 geliefert werden. Das Siwelches gleich dem Amplitudenwert des Signals in gnal Xn ist dabei so definiert, daß es den Mittelwert dem jeweiligen Zeitabschnitt ist, wobei dieser Ampli- der Amplitude des Eingangssignals für zehn aufeintudenwert auf Werte zwischen »0« und »2« normiert anderfolgende Zeitabschnitte enthält und außerdem ist und anschließend von der Vorverarbeitungseinheil eine Information über die Frequenz des Eingangsauf einen der Werte »0« bis »20« quantisiert wird. io signals, so daß sich für das Signal AT0 aus der folgen-
Füi die zweite und jede weitere Recheneinheit ist den Gleichung ergibt:
die zweite Komponente, die Komponente »X«, einer
2 i/(f)/10 + 20-Zahl derNulldurchgänge in 10Zeitabschnitten
r - T - 10 I
Die Vorverarbeitungseinheit liefert also die Adrcs- anderen Knoten in dem Speicher, die der gleichen
senschlüsselfunktion für die erste Recheneinheit (/„ Knotenuntergruppe angehören. So sind also sämtliche
X0) und die erste Schlüsselkomponente (/, bis lk) fur 20 Knoten einer Knotenuntergruppe über ihre ADP-
jede der folgenden Recheneinheiten. Komponente miteinander verbunden. Diese Verbin-
Die Recheneinheiten weisen einen gleichen inne- düngen nehmen im allgemeinen die Form einer ren Aufbau auf doch bildet sich die Struktur ihres »Kette« von Knoten an, die eine Knotenuntergruppe Speichers erst während der Lernphase aus. Nach bilden; das erste Glied der Kette kann als Eingangs-Ablauf der Lernphase hat wahrscheinlich der Spei- 25 knoten und das letzte Glied als Endknoten bezeichcher jeder Recheneinheit eine andere Struktur. net werden. Der Endknoten kann dabei durch ein
Das Entstehen der grundsätzlichen inneren Struk- unterscheidendes Merkmal seiner /4DP-Komponente tür eines Speicherfeldes einer Recheneinheit soll nun- markiert sein. Ferner kann jeder Knoten üblichermehr unter Bezugnahme auf die Fig. 6 bis 11 be- weise eine Adressenkomponente ADF und weitere schrieben werden. 30 Informationen enthalten. Die /IDF-Komponente ver-
Prinzipiell ist das Speicherfeld in den Rccheiein- bindet einen gegebenen Knoten mit der ihm unterheiten so organisiert, daß es auf mehreren Niveaus geordneten Knotenuntergruppe auf dem nächsten liegende Gruppen von Speicherregistern aufweist. Niveau des Speicherfeldes.
Diese Organisation eines Speichers läßt sich bildlich Während des Be.riebs werden die Knoten des mit einem Baum vergleichen, bei dem, ausgehend von 35 Speicherfeldes nacheinander bearbeitet, wobei jede den Wurzeln, dem untersten Niveau, Verbindungen Operation in der Folge einen Teil eines Pfades durch über Zweige schließlich bis zu den Blättern, dem das Speicherfeld festlegt, und zwar entsprechend der obersten Niveau, führen. Auch in dem Speicherfeld von den jeweils anliegenden Eingangssignalen gebilliegen Speicherregister auf einem untersten Niveau, deten und die erwähnten Komponenten enthaltenden dem ersten Niveau, und Verbindungszweige führen 4° Schlüsselfunktion, und den Zugang zu der richtigen, zu Speicherregistern auf dem obersten Niveau, dem geübten Antwort schafft. Diese Folge von Operatioletzten Niveau. Diese Speicherregister werden dabei nen beginnt bei dem direkt adressierbaren Speichernachfolgend als Knoten bezeichnet. Alle Knoten, aus register auf dem ersten Niveau, und dann wird das denen nur Zweige herausführen, werden als Knoten davon ausgehende, baumförmigp organisierte Speiauf dem ersten Niveau bezeichnet, während alle Kno- 45 cherfeld abgesucht, um zu prüfen, ob sine Kompoten, in die Zweige nur hineinführen, als Knoten auf nente (VAL) der jeweiligen Schlüsselfunktion darin dem letzten Niveau bezeichnet werden. Die Verbin- enthalten ist. Wenn während der Lernphase die düngen zwischen Knoten in unmittelbar aufeinander- Komponente nicht lokalisiert bzw. eingeordnet werfolgenden Niveaus werden als Zweige bezeichnet, den kann, wird die bis dahin bestehende Baumstruk- und mehrere frntereinanderliegende Zweige bilden 50 tür durch Einbeziehung eines weiteren Speicherregieinen Pfad durch das Speicherfeld. Knoten, die am sters erweitert, so daß auch diese Komponente in Ende eines von einem Knoten ausgehenden Zweiges den Speicher aufgenommen werden kann. Jedesmal, liegen, bilden eine Knotenuntergruppe des Knotens, wenn eine solche Folge eingeleitet und vollendet von dem diese Zweige ausgehen. Dieser Knoten wird wird, hat die Recheneinheit einen Trainingszyklns als der die Knotenuntergruppe beherrschende Kno- 55 ausgeführt,
ten angesehen. Bei der vorliegenden Ausführungsfbnn sind die
Wie erwähnt, wird im vorliegenden System ein ersten zwanzig Register des Speichers, wie dies F i g. 6
Knoten durch ein Speicherregister verwirklicht, das zeigt, als direkt adressierbare Speicherregister reser-
aus zumindest zwei Abschnitten besteht, und zwar vien. Jedes Register /(1) bis /(20) ist für einen der
für einen Knotenwert VAL, der in einem dem Kno- 60 zwanzig Werte 1 br· 20 vorgesehen, die die /-Schhls-
ten zugeordneten K^L-Registerabschnitt gespeichert selkomponente annehmen kann. In jedem dieser
wird, aad für eine AdressenfeompoBeate .4DP, die in ersten zwanzig Register ist die Adressenkomponente
dem /4DP-Registerabschmti gesiert wird. Der ADP gespeichert, die in das Register während der
dient der UnterscfeesiuHg eines Knotens Lernphase eingegeben wird, während der die Bairm-
VOQ allen anderen Knoten einer Ksoteofaatergrappe, 65 struktur erzeugt wird. Da die direkt adressierbaren
der er affijehört, »ad eatspäcot «feekt der Schlüssel- Register die Λ DF-Adressenkompcmenten von Regi-
Rb- das Nhreas «fes feweSigea Knotens. stern auf nachfolgenden Niveaus der Bamnstruktur
Die viDP-KoiHfHMieate diest der Menfifsderung der enthalten, können diese direkt adressierbaren Regi-
11 12
ster als Wurzelniveau einer baumförmigen Speicher- Eingangsknotens in den /IDP-Registarabschnitt des anordnung angesehen werden, obwohl keine Ver- letzten verbundenen Knotens auf diesem Niveau geknüpfung über die ADP-Komponenten zwischen den bracht. Folglich wird die Nummer 101 in dem ADP-Registern des Wurzelniveaus besteht. Registerabschnitt des Knotens 101 gespeichert, da
Der eigentliche, baumförmige Teil der Speicher- 5 keine weiteren Knoten im zweiten Niveau mit dem anordnung, bei welchem sowohl VA L- als auch Knoten 101 verbunden sind. Die Schlüsselfunktion /IDP-Komponenten in den Registern gespeichert (1, 60) ist mit dem gewünschten Ausgangssignal Z1 sind, um die Knoten auf dem gleichen Niveau zu ver- verknüpft worden, und somit wird in den Registerknüpfen, wird von der X-Komponente der Schlüssel- abschnitt N1 (Speicheradresse 103) des Knotens 101 funktion angegeben. Betrachtet man die direkt adres- io eine 1 eingeschrieben.
sierbaren /-Register als das Wurzelniveau des Baums, Die Schlüsselfunktion für den zweiten Trainingsdann ist dieses zweite Niveau das letzte Niveau (nach zyklus ist gleich (1, 200) mit einer zugeordneten erder obigen Definition das Blattniveau des Baums). wünschten Antwort Z2. Nach Fig. 8 wird durch die Bei anderen Ausführungsformen könnten zusätzliche erste Schlüsselkomponente 1 erneut direkt der Kno-Schlüsselkomponenten und dementsprechende Zwi- 15 ten 1 adressiert. Die /IDF-Komponente (101) des schenniveaus hinzugenommen werden. Knotens 1 führt nun zunächst zu dem Knoten 101
Das letzte Niveau des Speicherfeldes enthält ferner auf dem zweiten Niveau, wo dann die zweite Schlüs-
eine Vielzahl von Registern mit einem ersten VAL- selkomponente 200 mit der Zahl 60 verglichen wird,
Registerabschnitt und einen zweiten /IDP-Register- die in dem VA L-Registerabschnitt dieses Knotens
abschnitt, wie dies bereits vorstehend erwähnt wurde. 20 gespeichert ist. Da die Schlüsselkomponente 200
Zusätzlich sind für jedes der gewünschten Antwort- nicht mit der Zahl 60 übereinstimmt und da ferner
signale des Systems Z1 bis Zm m Registerabschnitte keine weiteren Knoten in der Knotenuntergruppe
vorgesehen, von denen jeweils einer einem Speicher- erreichbar sind, was durch die /IDP-Komponente
register auf diesem Niveau zugeordnet ist. Diese 1.01 angedeutet wird, die nicht größer ist als die
Registerabschnitte dienen dazu, die Zahl (N) zu 25 Knotennummer 101, wird ein weiterer Knoten zum
speichern, die angibt, wie oft jedes dieser gewünsch- Speicherfeld hinzugefügt. Das nächste, erreichbare
ten Antwortsignale einer von einem Eingangssignal Register hat die Adresse 106, die damit zur nächsten
abgeleiteten Schlüsselfunktion zugeordnet wurde, die Knotennummer wird. Die /IDP-Komponente des
den Weg zu einem solchen Speicherregister auf dem Knotens 101 wird deshalb in 106 umgewandelt, um
letzten Niveau festlegt. 30 den neuen Knoten mit dem letzten Knoten seiner
Die Operationen einer Recheneinheit während der Knotenuntergruppe zu verbinden, und als ADP-
Lernphase werden noch deutlicher, wenn man als Komponente des Knotens 106 wird der Wert 101
spezielle Beispiele einige Trainingszyklen betrachtet. eingeschrieben, der anzeigt, daß der Knoten 101
Bei der Darstellung in F i g. 7 ist beispielsweise ange- der Eingangsknoten der Knotenuntergruppe ist, mit
nommen. daß die Schlüsselfunktion (/, X) für den 35 dem dieser Knoten 106 verbunden ist. Zusätzlich
ersten Trainingszyklus gleich (1, 60) ist und daß die wird, da die Schlüsselfunktion (1, 200) einmal dem
zugeordnete, gewünschte Antwort Z1 ist. Die Blöcke Antwortsignal Z2 zugeordnet wurde, in den Register-
stcllen ein oder mehrere Register dar, die jeweils abschnitt N., (Speicheradresse 109) des Knotens 106
einen Knoten des baumförmigen Speicherfeldes bil- der Wert 1 eingeschrieben.
den, und die eingekreisten Zahlen, die an jedem 40 An Hand der F i g. 9 soll nunmehr ein dritter Traidieser Blöcke vorgesehen sind, bezeichnen den ersten ningszyklus mit der Schlüsselfunktion (2, 30) für ein Registerabschnitt des Knotens (als Knotennummer 1 gewünschtes Antwortsignal Z2 betrachtet werden, bezeichnet) und entsprechend seiner Lage im Spei- Der Knoten 2 wird wegen der ersten Schlüsselkomcherfeld. Vor Beginn des ersten Trainingszyklus sind ponente 2 direkt adressiert. Da bis zu diesem Zeitsämtliche Register leer. Während des ersten Zyklus 45 punkt der Knoten 2 mit keinem Knoten auf dem adressiert der /-Wert 1 direkt den Knoten 1. Bei dem zweiten Niveau verknüpft ist. wird die Adresse des vorliegenden Ausführungsbeispiel werden die Kno- nächsten (über den /4DF-Wert) erreichbaren Regitennummern 21 bis 100 übersprungen, so daß die sters, nämlich des Knotens 111, die Knotenadresse erste erreichbare Registeradresse für das nächste für die Knotenuntergruppe des Knotens 2. Die zweite Niveau, hier das Blattniveau, die Nr. 101 ist. Wie 5° Schlüsselkomponente 30 wird in den VA L-Registerbereits vorstehend diskutiert, verbindet die ADF- abschnitt (Speicheradresse 111) des den Knoten bil-Komponente eines Knotens diesen mit einem Knoten denden Registers eingeschrieben, und da keine andeseiner Knotenuntergruppe auf dem nächsten Niveau ren Knoten dieser Knotenuntei grppe existieren, des Speicberfeldes. Die Zahl 101 ist daher im ADF- wird der /IDP-Registerabschnitt (Speicheradresse Registerabschnitt des Registers gespeichert, welches 55 112) des Knotens 111 auf 111 gesetzt Dieser Schlüsden Knoten 1 bildet. In dem an Hand der F i g. 7 selfunktion war ferner das gewünschte Antwortsignal bis 10 erläuterten Beispiel umfassen die Knoten des Z1 zugeordnet, so daß eine 1 in dem Registerabzweiten Niveaus einen VA L-Registerabschnitt, einen schnitt N9 (Speicheradresse 114) des Knotens 111 ge-/IDP-Registerabschnitt sowie drei ft'-Registerab- speichert wird.
schnitte Nv Nt and Nx, die anzeigen, wievielmal 60 Während des vierten Trainingszyklus, der an Hand
Jedes der gewünschten Ausgangssignale Z1. Ζ» und der Fig. 10 erläutert werden soH, ist die Schlüssel-
Z3, die für drei verschiedene Worte stehen, mit dem funktion wiederum gleich (2,30), dieses Mal jedoch
Knoten zugeordnet wurde. Während der Trainings- mit einem gewünschten Ausgangssignal Z1 verknöpft
zyklen auf dem zweiten Niveau wird dann die zweite Die /-Komponente 2 adressiert direkt den Knoten 2
Schlüsselkomponente 60 m dem F/fL-Registerab- 65 auf dem ersten Niveau. Der Inhalt des ADF-Rep-
schnitt (Speichefadresse IC!) des Knotens 101 ge- sterabschnittes, welches den Knoten 2 bildet, führt
speichert Wenn keine weiteren Knoten in dem zwei- dann zu der Speicheradresse 111, wo die zweite
tea Niveau vorhanden sind, wird die Nummer des Schlüsselkomponente, nämlich die Jf-Komponente
13 M \
30, mit dem Inhalt des IML-Rsgisterabschnitts an /-Komponente und einer ΛΓ-Komponente. Wie vor- >
diesem Knoten verglichen wird, der ebenfalls 30 ist. stehend bereits diskutiert, wird die Schlüsselfunktion |
Es besteht also Übereinstimmung, so daß eine 1 in (I0, X0) für die erste Recheneinheit und die erste |
den Registerabschnitt N1 (Speicheradresse 113) des Schlüsselkomponente (I1 bis /j) für jede weitere Re- *
Knotens 111 eingeschrieben wird, was eine einmalige 5 cheneinheit von der Vorverarbeitungseinheit geliefert. f
Zuordnung der Schlüsselfunktion (2, 30) zu dem ge- Die zweite Schlüsselkomponente (X1 bis Xk) für jede
wünschten Antwortsignal Z1 anzeigt der folgenden Recheneinheiten besteht aus einem
An Hand der Fig. 11 soll nun ein fünfter Trai- Wahrscheinlichkeitswert, der von der in der Kaskade
ningszyklus betrachtet werden, bei welchem ein ge- vorangehenden Recheneinheit geliefert wird. Somit
wünschtes Antwortsignal Z, wiederum der Schlüssel- io wird das Ausgangssignal X1 der ersten Recheneinheit
funktion (1, 200) zugeordnet ist Die erste Schlüssel- die ^-Komponente für die zweite Recheneinheit, das
komponente 1 adressiert direkt den Knoten 1, der die Ausgangssignal X2 der zweiten Recheneinheit wird
^DF-Speicheradresse 101 des Knotens 101 in dem die A"-Komponente für die dritte Recheneinheit usw.,
zweiten Niveau enthält. Die zweite Schlüsselkompo- und schließlich wird das Ausgangssignal ATft.} der
nente 200 wird dann mit dem Inhalt (60) des VAL- 15 (k - l)-ten Recheneinheit die Af-Komponente für die
Registerabschnitts (Speicheradresse 101) des Knotens Ar-te Recheneinheit.
101 verglichen. Die Zahlen 200 und 60 stimmen Wenn nun die erste Recheneinheit unter Verwennicht überein, und da der Inhalt (106) des ADP- dung der Schlüsselfunktion (I0, X0) trainiert wurde, Registerabschnitts (Speicheradresse 102) des Knotens wurde eine Reihe von Knoten in dem letzten Niveau 101 größer als 101 ist, ist erkennbar, daß es in dieser 20 des Speicherfeldes, dieser Recheneinheit geschaffen. Knotenuntergruppe weitere Knoten gibt, die unter- Jedem dieser Knoten sind drei Registerabschnitte zusucht werden müssen. Daher weist der Inhalt des geordnet, in denen festgehalten wird, wievielmal /4DP-Registerabschnitts des Knotens 101 auf den jedes der drei möglichen, gewünschten Antwort-Knoten 106 hin. Die AT-Schlüsselkomponente 200 signale Z1, Z2 und Z3 der Schlüsselfunktion für diewird nun mit der Zahl 200, die in dem VAL-Rcgi- 25 sen Knoten zugeordnet wurde, dies erfolgte während sterabschnitt (Speicheradresse 106) des Knotens 106 der Lernphase für diese Recheneinheit. Die Ausgespeichert ist, verglichen. Es besteht Übereinstim- gangssignale der ersten und der folgenden Rechenmung, und auf Grund der Tatsache, daß das Aus- einheiten, die mit X1 bezeichnet sind, sind Wahrgangssignal Z, zum zweiten Mal der Schlüsselfunk- scheinlichkeiten für die Häufigkeit des Auftretens tion (1, 200) "zugeordnet war, wird zu dem Inhalt 30 der gewünschten Antwort Z1, Z2 und Z3. Somit ergibt des Registerabschnitts N2 (Speicheradresse 109) des sich die Wahrscheinlichkeit, daß eine neue Schlüssel-Knotens 166 eine 1 addiert, so daß sich die Summe 2 funktion, die, in eine trainierte Recheneinheit eingeergibt. führt, zum Antwortsignal wird, Z1 führt aus N1/
Die Lernphase wird, wie oben geschildert, fortge- (N1 + N2 + N3), die Wahrscheinlichkeit, daß sie
setzt, bis die Recheneinheit, für die sie durchgeführt 35 zum Antwortsignal Z3 führt, aus N21 (N1 + N2 + N3)
wird, genügend geübt ist. Es ist jedoch offensichtlich, und die Wahrscheinlichkeit, daß sie zum Antwort-
daß das Erreichen eines ausreichenden Trainings nur signal Z3 führt, aus N31 (N1 + N2 + N3). Die Summe
bedeuten kann, daß lediglich ein kleiner Prozentsatz der drei Wahrscheinlichkeiten
aller möglichen Kombinationen von Eingangssigna-
len und zugeordneten Schlüsselfunktionen durchge- 4° NJ(N1 + N2 + N3) + N2I(N1 + N2 + N3)
spielt wiro. Wenn nämlich während der Lernphase + N3I(N1 + N2 + N3)
zu viele Eingangssignale geprüft werden, kostet dies
zuviel Trainingszeit und zuviel Arbeitszeit während muß gleich 1 sein, und daher ist für den Fall, daß
der Kannphase und außerdem zuviel Speicherplatz. zwei der genannten Wahrscheinlichkeiten bekannt
Wenn andererseits zu wenig Signale untersucht wer- 45 sind, die dritte Wahrscheinlichkeit daraus herleitbar,
den, erhöht sich die Wahrscheinlichkeit, daß dem So ist beispielsweise
System Fehler bei der Klassifizierung unterlagen.
Unter Berücksichtigung der uoigen Kriterien muß ^V(N1 + N2 + N3) gleich
daher ein optimales System gewählt werden, und 1 - [N1Z(N1 + N2 + N3) + N2I(N1 + N2 + N3)].
zwar jeweils im Hinblick auf das zu lösende Problem 50
und ferner unter Berücksichtigung der erforderlichen Zwei der Wahrscheinlichkeiten werden somit für
Genauigkeit. die Bildung der A'-Schlüsselkomponenten für die
Während des anschließenden Rechenbetriebs, d. h. zweite bis zur k-len Recheneinheit benutzt. Die beialso in der Kannphase, werden Schlüsselfunktionen, den ausgewählten Wahrscheinlichkeiten werden zudie von Datensätzen abgeleitet sind, die keine ent- 55 erst quantisiert und dann der nächsten Recheneinsprechenden gewünschten Antwortsignale haben, heit in der Serie als eine Vektorgröße zugeführt. Für durch das Rechensystem geleitet. Dabei werden die das hier betrachtete Ausführungsbeispiel Xt gilt dabei Niveaus der Baumstruktur des Speicherfelds in der folgende Beziehung:
gleichen Weise abgesucht, wie dies während der
Lernphase der Fall ist, wo das Speicherfeld abge- 60 Xi = [NJ(N1 + N2 + N3)
sucht wurde, um festzustellen, ob eine Schlüssel- + 11 ((N2ZN1 + N2 + N3) + I)],. funktion schon früher einmal aufgetreten ist. Während der Kannphase sind es jedoch die /V-Werte, die Das Verfahren, jeder Recheneinheit Eingangsuntersucht werden, d. h. die Häufigkeit des Auftre- information zuzuführen und unabhängig davon eine tens der Antwortsignale Z auf dem letzten Niveau. 65 bestimmte interne Struktur der Speicheranordnung in
Es wurde festgestellt, daß die Schlüsselfunktionen jeder der zur nichtlinearen Datenverarbeitung geeig-
bei dem beschriebenen Ausführungsbeispiel aus zwei noten Recheneinheiten zu erzeugen, ist vorstehend in
Schlüsselkomponenten bestehen, nämlich einer allen Einzelheiten beschrieben. An dieser Stelle soll
fO
nunmehr unter Bezugnahme auf die Fig. 12 bis 15 beschrieben werden, wie die einzelnen das Gesamtsystem bildenden Recheneinheiten in der Lemphase und hi der Kannphase miteinander verbunden werden.
In dem nunmehr zu beschreibenden Ausführungsbeispiel wird für das Trainieren jeder der Recheneinheiten der gleiche Datensatz
(C/tl, Ut2, Ut3... Utn^, U1n)
verwendet Dies wird erreicht, indem jeder der vorangehenden Recheneinheiten der Kaskade eine verzögerte /-Komponente zugeführt wird. Die Verzögerung wird dabei nach rückwärts fortlaufend jeweils um einen Zeitabschnitt erhöht, so daß die /-Komponente, die der ersten Recheneinheit in der Kaskade zugeführt wird, die größte Verzögerung besitzt.
Wie in Fig. 12 dargestellt, wird die erste Recheneinheit 10 mittels eines ganzen Datensatzes trainiert, wobei die Schlüsselfunktionen (Z0(f), X0U)) für t = 0 bis η von einer Vorverarbeitungseinheit geliefert werden, die in dieser Figur nicht dargestellt ist
F i g. 13 zeigt, daß nach Trainieren der ersten Recheneinheit 10 mit dem gesamten Datensatz diese Recheneinheit benutzt wird, um die .Yj-Komponenten der Schlüsselfunktionen für die zweite Recheneinheit 11 zu liefern. Dies wird erreicht, indem der Recheneinheit 10, die nunmehr jedoch bereits in der Kannphase arbeitet, der gesamte Datensatz um eine Zeiteinheit verzögert erneut zugeführt wird. Die Verzögerung wird durch digitale Einrichtungen erreicht, beispielsweise durch ein Schieberegister 20. Das verzögerte Eingangssignal für die Recheneinheit 10 ist somit die Schlüsselfunktion (/.(< — 1), X0(t — I)), wobei I1[I) gleich /0(i) ist. Die .fj-Schlüsselkomponenten, die von der Recheneinheit 10 geliefert werden, und die /j(i)-Schlüsselkomponenten, die von der Eingangsrecheneinheit geliefert werden, bilden dann die Schlüsselfunktionen (Z1(O, ·Χ\) von ί — 1 bis n, die dann für das Trainieren von der zweiten Recheneinheit 11 verwendet werden.
Für das Trainieren der dritten Recheneinheit 12 wird, wie in Fig. 14 gezeigt, erneut der gleiche Datensatz von der Vorverarbeitungseinheit verwendet, um Schlüsselfunktionen (Z„(f), .X0(O) für / = 0 bis η zu erhalten. Da der gleiche Datensatz benutzt wird, gilt Z2(O = Z0(O. Diese Folgen von Z- und X-SchlüsRelkomponenten werden dann zu der ersten Recheneinheit 10 übertragen, und zwar nunmehr um zwei Zeiteinheiten verzögert. Die Recheneinheit 10 läuft während der Zuführung der gesamten Datensatzes in der Kannphase, um die Ausgangssignale X1 für die Zeitabschnitte / 0 bis η zu erzeugen. Als nächstes arbeitet dann die zweite Recheneinheit 11 in der Kannphase, wobei die Z2(0-Schlüsselkomponente, die von der Vorverarbeitungseinheit geliefert wird, diesmal um einen Zeitabschnitt verzögert ist Somit sind die Schlüsselfunktionen, die der zweiten Recheneinheit 11 während des Trainings der dritten Recheneinheit 12 zugeführt werden, gleich (Zä(r — 1), X1) für t = 1 bis n. Die Recheneinheit 11 wird in der Kannphase betrieben, um die Ausgangssignale X2 für die Zeitabschnitte / = 1 bis η zu erzeugen. Somit sind nunmehr die Schlüsselfunktionen, die während des Trainings der dritten Recheneinheit 12
ίο verwendet werden, gleich (Z2(O, -ST2), und zwar für die Zeitabschnitte t — 2 bis n, wobei Z2(O direkt von der Eingangsrecheneinheit und X2 von der zweiten Recheneinheit 11 geliefert wird.
Jede der Recheneinheiten in der Kaskade wird in gleicher Weise trainiert. Die Z-Schlüsselkomponente für die Recheneinheit, welche trainiert wird, ist Z(O, und die Z-Komponente für jede der vorangehenden Recheneinheiten, die jedoch im Kannbetrieb arbeiten, ist die gleiche, nämlich (Z(O), jedoch nach rückwärts fortlaufend um ein zusätzliches Zeitintervall verzögert. Wie Fig. 15 zeigt, wird schließlich die Ä-te Recheneinheit 14 trainiert, indem zunächst der Recheneinheit 10, die in der Kannphase arbeitet, die Schlüsselfunktion (Ik{t - k + 1), X0(t -A-M)) zu-
geführt wird, so daß diese das Ausgangssignal X1 für die zweite Recheneinheit 11 erzeugt. Als nächstes wird der zweiten Recheneinheit 11, die im Kannbetrieb arbeilet, die Schlüsselfunktion
(Ik(t -k + 2), X1)
zugeführt, so daß diese das Ausgangssignal X2 für die dritte Recheneinheit 12 erzeugt. Dieser Prozeß wiederholt sich fortschreitend. Der (k — 1 )-ten Recheneinheit 13, die in der Kannphase arbeitet, wird schließlich die Schlüsselfunktion (Zfc(/ — 1), Xk_2) zugeführt, so daß diese das Ausgangssignal Xk _ x für die /fc-te Recheneinheit 14 erzeugt. Die Recheneinheit 14 wird dann mit der Schlüsselfunktion (Zj6(O, Xk -1) für die Zeitabschnitte t = 1 — k bis η trainiert.
Die Recheneinheiten sind in der Kannphase bei dem vorstehend beschriebenen Gesamtsystem so miteinander verbunden, wie sie für das Trainieren der k-ten Recheneinheit 14 verbunden sind. Wenn das Training der Recheneinheit 14 abgeschlossen ist, arbeitet diese jedoch nunmehr im Kannbetrieb und nicht mehr im Lernbetrieb. Das Ausgangssignal Xk der Recheneinheit 14 beinhaltet die Wahrscheinlichkeit dafür, daß zu einem bestimmten Eingangssignal eine der Antworten Z1, Z2 bzw. Z3 gehört. Bei einigen Ausführungsformen ist das Signal Xk selbst das Ausgangssignal des Gesamtsystems. Bei anderen Ausführungsbeispielen wird derjenige Z-Wert mit der höchsten Wahrscheinlichkeit in der letzten Recheneinheit dann als Ausgangssignal des Systems ausgewählt.
Hierzu 7 Blatt Zeichnungen 509 634/137

Claims (4)

  1. 21
    638
    Patentansprüche:
    L Verfahren zum Betrieb eines lernfähigen Systems aus in Kaskade geschalteten, zur nichtlinearen Datenverarbeitung geeigneten, lernfähigen Datenverarbeitungseinheiten mit jeweils einem durch die zu verarbeitenden Eingangssignale adressierbaren Speicherfeld, in dessen Speicherregistern statistische Daten gespeichert i» werden, die den zu den Eingangssignalen gewünschten Antworten entsprechen, dadurch gekennzeichnet,
    (1) daß in der Lernphase
    (1.1) bei Eingabe eines Trainingssignals (1/(0) der gewünschten Antwort (Z, bis ZJ entsprechende erste statistische Daten (N1 bis Nm) in Speicherregistern des Speicherfeldes einer ersten, im Lernbetrieb arbeitenden Datenverarbeitungseinheit (10) gemäß einer Adressierung durch ein vom Trainingssignal (t/(0) abgeleitetes erstes Eingangssignal (Iv X0) gespeichert werden,
    (1.2) aus den gespeicherten ersten statistischen Daten (N1 bis Nm) ein erstes Wahrscheinlichkeitssignal (A"j) erzeugt wird, das eine erste statistische Schätzung der gewünschten Antwort auf ein zweites Eingangssignal (I0, X0) darstellt, das von dem Trainingssignal (1/(0) abgeleitet ist, das der im Kannbetrieb arbeitenden ersten Datenverarbeit ungseinheit (10) zur Adressierung ihres Speicherfeldes zugeführt wird,
    (1.3) einer gewünschten Antwort (Z1 bis Zn) entsprechende statistische Daten (Nj bis Nn,) in Speicherregistern des Speicherfeldes einer zweiten, im Lernbetrieb arbeitenden Datenverarbeitungseinheit (11) gemäß einer Adressierung durch ein drittes Eingangssignal (Z1, A",), das neben dem ersten Wahrscheinlichkeitssignal (X1) ein ebenfalls von dem Trainingssignal (1/(0) abgeleitetes Eingangssignal (I1) enthält, «gespeichert werden, und
    (2) daß in der Kannphase
    (2.1) bei Eingabe eines zu erkennenden Signals (LZ(O) aus den gespeicherten ersten statistischen Daten ein erstes Wahrscheinlichkeitssignal (A*,) erzeugt wird, das eine erste statistische Schätzung der gewünschten Antwort auf das zu erkennende Signal entsprechend einem vom zu erkennenden Signal abgeleiteten Eingangssignal (In, X0) darstellt, das der im Kannbetrieb arbeitenden ersten Datenverarbeitungseinheit zur Adressierung ihres Speicherfeldes zugeführt wird,
    (2.2) aus den gespeicherten zweiten statistischen Daten ein zweites Wahrscheinlichkeitssignal (AT2) erzeugt wird, das eine zweite statistische Schätzung der gewünschten Antwort auf das zu erkennende Signal ([/(*)) entsprechend einem Eingangssignal (J1, X1) darstellt, das neben dem von der ersten Datenverarbeitungseinheit (10) erzeugten ersten Wahrscheinlichkeitssignal ein weiteres, ebenfalls von dem zu erkennenden Signal abgeleitetes Eingangssignal (I1) enthält, das zur Adressierung des Speicherfeldes der zweiten, im Kannbetrieb arbeitenden Datenverarbeitungseinheit (11) zugeführt wird.
  2. 2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß in jeder Datenverarbeituugseinheit ein Speicherfeld mit bekannter Struktur verwendet wird, bei dem Gruppen zusammengehörender Speicherregister mit jeweils mehreren Registerabschnitten gebildet werden, die auf einer Anzahl von Niveaus liegen, wobei jedem Adressenschlüssel einer aus den Eingangssignalen gebildeten Adressenschlüsselfunktion ein Niveau zugeordnet ist, bei dem in einem ersten Registerabschnitt (VAL) jedes Speicherregisters ein Wert speicherbar ist, der mit dem jeweiligen Wert des dem jeweiligen Niveau des Speicherregisters zugeordneten Adressenschlüssel auf Identität vergleichbar ist, bei dem in einem zweiten Registerabschnitt (ADP) die Adresse eines bei Feststellung einer Nichtübereinstimmung aufrufbaren Speicherregisters desselben Niveaus speicherbar ist, bei dem ein dritter Speicherabschnitt (ADF) die Adresse eines bei Feststellung einer Identität aufrufbaren Speicherregisters des nächsten Niveaus speichert bzw. bei Vorliegen des letzten Adressenschlüssels den gesuchten Registerabschnitt darstellt und bei dem für den Fall, daß für einen bestimmten Adressenscnlüssel noch kein Speicherregister eingestellt ist, das zuletzt untersuchte Speicherregister durch Einstellen der Adresse im zweiten oder im dritten Registerabschnitt mit dem ausgewählten Speicherregister verkettet wird, dessen erster Registerabschnitt (VAL) mit dem Wert des Adrcssenschlüssels gefüllt wird, daß an Hand des Prüfergebnisses, daß der Inhalt des zweiten Registerabschnitts (ADP) eines aufgerufenen Speicherrepisters kleiner oder gleich der Adresse dieses Speicherregisters ist, festgelegt wird, daß es sich um ein letztes zum Identitätsvergleich mit dem Adressenschlüssel zu untersuchendes Speicherregister eines Niveaus handelt, wobei bei der Auswahl eines neuen Speicherregisters jeweils das nicht belegte Speicherregister mit der niedrigsten Adresse verwendet wird und der zweite Registerabschnitt des ausgewählten Speicherregisters mit dem Inhalt des zweiten Regisierabschnitts des zuletzt untersuchten Speicherregisiers gefüllt wird, wenn sich die verketteten Speicherregister im selben Niveau befinden bzw. mit der Adresse des ausgewählten Speicherregisters gefüllt wird, wenn sich das ausgewählte Speicherregister im nächsten Niveau befindet, und daß zur Speicherung der statistischen Daten (N1 bis Nm) weitere Registerabschnitte der Speicherregister aui dctn letzten Niveau verwendet werden.
  3. 3. Verfahren nach Anspruch 2, dadurch ge-
    kennzeichnet, daß bei der Speicherung der ersten statistischen Daten die Zahl akkumuliert und gespeichert wird, die angibt, wie oft jede mögliche gewünschte Antwort dem gleichen ersten Eingangssignal zugeordnet worden ist, und daß bei 5 der Speicherung der zweiten statistischen Daten die Zahl akkumuliert und gespeichert wird, die angibt, wie oft jede mögliche gewünschte Antwort dem gleichen dritten Eingangssignal zugeordnet worden ist.
  4. 4. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, daß wenigstens ein das dritte Eingangssignal enthaltende Signal zur Erzeugung wenigstens eines das zweite Eingangssignal enthaltenden Signals verzögert wird.
DE2133638A 1970-07-06 1971-07-06 Verfahren zum Betrieb eines lernfähigen Systems aus in Kaskade geschalteten, zur nicht linearen Datenverarbeitung geeigneten lernfähigen Datenverarbeitungseinheiten Expired DE2133638C3 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US5261170A 1970-07-06 1970-07-06

Publications (3)

Publication Number Publication Date
DE2133638A1 DE2133638A1 (de) 1972-01-13
DE2133638B2 DE2133638B2 (de) 1975-01-02
DE2133638C3 true DE2133638C3 (de) 1975-08-21

Family

ID=21978737

Family Applications (1)

Application Number Title Priority Date Filing Date
DE2133638A Expired DE2133638C3 (de) 1970-07-06 1971-07-06 Verfahren zum Betrieb eines lernfähigen Systems aus in Kaskade geschalteten, zur nicht linearen Datenverarbeitung geeigneten lernfähigen Datenverarbeitungseinheiten

Country Status (3)

Country Link
US (1) US3702986A (de)
DE (1) DE2133638C3 (de)
GB (1) GB1353936A (de)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3970993A (en) * 1974-01-02 1976-07-20 Hughes Aircraft Company Cooperative-word linear array parallel processor
US3934231A (en) * 1974-02-28 1976-01-20 Dendronic Decisions Limited Adaptive boolean logic element
US4309691A (en) * 1978-02-17 1982-01-05 California Institute Of Technology Step-oriented pipeline data processing system
US4395698A (en) * 1980-08-15 1983-07-26 Environmental Research Institute Of Michigan Neighborhood transformation logic circuitry for an image analyzer system
GB2155217A (en) * 1983-08-22 1985-09-18 Bernard Albert Hunn Mind simulator
US4620286A (en) * 1984-01-16 1986-10-28 Itt Corporation Probabilistic learning element
US4599692A (en) * 1984-01-16 1986-07-08 Itt Corporation Probabilistic learning element employing context drive searching
US4599693A (en) * 1984-01-16 1986-07-08 Itt Corporation Probabilistic learning system
US4593367A (en) * 1984-01-16 1986-06-03 Itt Corporation Probabilistic learning element
US5157595A (en) * 1985-07-19 1992-10-20 El Paso Technologies, Company Distributed logic control system and method
US4884228A (en) * 1986-10-14 1989-11-28 Tektronix, Inc. Flexible instrument control system
US4907170A (en) * 1988-09-26 1990-03-06 General Dynamics Corp., Pomona Div. Inference machine using adaptive polynomial networks
US5579440A (en) * 1993-11-22 1996-11-26 Brown; Robert A. Machine that learns what it actually does
US5995038A (en) * 1998-01-26 1999-11-30 Trw Inc. Wake filter for false alarm suppression and tracking
JP3921367B2 (ja) * 2001-09-26 2007-05-30 日本電気株式会社 データ処理装置および方法、コンピュータプログラム、情報記憶媒体、並列演算装置、データ処理システム
JP3693013B2 (ja) * 2001-12-26 2005-09-07 日本電気株式会社 データ処理システム、アレイ型プロセッサ、データ処理装置、コンピュータプログラム、情報記憶媒体

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3327291A (en) * 1961-09-14 1967-06-20 Robert J Lee Self-synthesizing machine
NL291541A (de) * 1962-04-13
GB1050627A (de) * 1963-12-19 1900-01-01
US3358271A (en) * 1964-12-24 1967-12-12 Ibm Adaptive logic system for arbitrary functions
US3370292A (en) * 1967-01-05 1968-02-20 Raytheon Co Digital canonical filter

Also Published As

Publication number Publication date
US3702986A (en) 1972-11-14
DE2133638B2 (de) 1975-01-02
GB1353936A (en) 1974-05-22
DE2133638A1 (de) 1972-01-13

Similar Documents

Publication Publication Date Title
DE2133638C3 (de) Verfahren zum Betrieb eines lernfähigen Systems aus in Kaskade geschalteten, zur nicht linearen Datenverarbeitung geeigneten lernfähigen Datenverarbeitungseinheiten
DE2451982C2 (de)
DE1901343C3 (de) Datenverarbeitungsanlage zur Ausführung von Mateirenrechnungen
DE3416939A1 (de) Verfahren zur steuerung von betriebseinrichtungen
DE60118973T2 (de) Verfahren zum abfragen einer struktur komprimierter daten
DE2758830A1 (de) Rechenvorrichtung
DE4334294C1 (de) Prozessor für Zeichenketten variabler Länge
DE3111555C2 (de) Verfahren und Vorrichtung zur Informationsspeicherung unter Anwendung früherer Aufzeichnung
EP3707854A1 (de) Verfahren zum verknuepfen eines ersten datenblocks mit einem zweiten datenblock, verfahren zum ueberpruefen der integritaet einer blockchain-struktur, vorrichtung und computerprogrammprodukt
DE2617485C3 (de) Schaltungsanordnung für Datenverarbeitungsanlagen zur Abarbeitung von Mikrobefehlsfolgen
DE2451235C2 (de) Schaltungsanordnung für ein digitales Filter
DE10048478C2 (de) Verfahren zum Zugriff auf eine Speichereinheit bei der Suche nach Teilzeichenfolgen
DE2235802A1 (de) Verfahren und einrichtung zur pruefung nichtlinearer schaltkreise
DE1250489B (de) I Schaltungsanordnung zur Einspei cherung von Leerstellen-Kennworten in einen assoziativen Speicher
DE2426253B2 (de) Vorrichtung zum ziehen der quadratwurzel aus einer binaeren zahl
EP0748467B1 (de) Selbstprogrammierende schaltungsanordnung
EP0417854B1 (de) Verfahren zur Erkennung von N unterschiedlichen Wortketten in einem Sprachsignal
DE3607241A1 (de) Rechner
DE1952020A1 (de) Verfahren und Einrichtung zum Addieren oder Subtrahieren einer Binaerzahl zum oder vom Inhalt eines assoziativen Speichers
DE2064213C3 (de) Verfahren zum Betrieb einer lernfähigen Signalverarbeitungsanordnung in der Kannphase
DE2217500A1 (de) Verfahren und Einrichtung zum Suchen von Schlüsselwörtern in einer elektronischen Datenverarbeitungsanlage
DE4435457A1 (de) Verfahren zum Archivieren von Prozeßdaten
DE1474041C3 (de) Anordnung zum Sortieren von in zufälliger Reihenfolge aufgenommener Informationsbit Gruppen
DE19804603A1 (de) Verfahren zum Ermitteln von Wörtern in einem Sprachsignal
DE2226856A1 (de) Stapelspeicher mit Anzeige der Überschreitung oder des Überlaufs für die Übertragung von Daten in der chronologischen Reihenfolge ihrer Eingabe

Legal Events

Date Code Title Description
C3 Grant after two publication steps (3rd publication)