DE2524734A1 - Informationsverarbeitungssystem mit mindestens einer informationsverarbeitenden baugruppe - Google Patents
Informationsverarbeitungssystem mit mindestens einer informationsverarbeitenden baugruppeInfo
- Publication number
- DE2524734A1 DE2524734A1 DE19752524734 DE2524734A DE2524734A1 DE 2524734 A1 DE2524734 A1 DE 2524734A1 DE 19752524734 DE19752524734 DE 19752524734 DE 2524734 A DE2524734 A DE 2524734A DE 2524734 A1 DE2524734 A1 DE 2524734A1
- Authority
- DE
- Germany
- Prior art keywords
- information processing
- input
- output
- signals
- stations
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000010365 information processing Effects 0.000 title claims description 160
- 230000004044 response Effects 0.000 claims description 179
- 238000012546 transfer Methods 0.000 claims description 122
- 230000006870 function Effects 0.000 claims description 106
- 230000005540 biological transmission Effects 0.000 claims description 100
- 230000008859 change Effects 0.000 claims description 30
- 230000000712 assembly Effects 0.000 claims description 26
- 238000000429 assembly Methods 0.000 claims description 26
- 238000012986 modification Methods 0.000 claims description 25
- 230000004048 modification Effects 0.000 claims description 22
- 230000001419 dependent effect Effects 0.000 claims description 17
- 238000000034 method Methods 0.000 claims description 16
- 239000003990 capacitor Substances 0.000 claims description 13
- 238000009826 distribution Methods 0.000 claims description 12
- 238000012545 processing Methods 0.000 claims description 12
- 230000001404 mediated effect Effects 0.000 claims description 4
- 230000007704 transition Effects 0.000 claims description 4
- 230000001960 triggered effect Effects 0.000 claims description 3
- 230000001629 suppression Effects 0.000 claims description 2
- 238000003672 processing method Methods 0.000 claims 21
- 241000269627 Amphiuma means Species 0.000 claims 1
- 230000002123 temporal effect Effects 0.000 claims 1
- 241000750002 Nestor Species 0.000 description 91
- 239000013598 vector Substances 0.000 description 83
- 238000013507 mapping Methods 0.000 description 18
- 238000004422 calculation algorithm Methods 0.000 description 17
- 230000008569 process Effects 0.000 description 15
- 239000011159 matrix material Substances 0.000 description 13
- 230000000694 effects Effects 0.000 description 12
- 238000010586 diagram Methods 0.000 description 10
- 238000012549 training Methods 0.000 description 9
- 230000003287 optical effect Effects 0.000 description 8
- 241000282326 Felis catus Species 0.000 description 6
- 238000001514 detection method Methods 0.000 description 6
- 230000008901 benefit Effects 0.000 description 5
- 238000000926 separation method Methods 0.000 description 5
- 230000003044 adaptive effect Effects 0.000 description 4
- 230000003321 amplification Effects 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 4
- 230000001343 mnemonic effect Effects 0.000 description 4
- 238000003199 nucleic acid amplification method Methods 0.000 description 4
- 230000015572 biosynthetic process Effects 0.000 description 3
- 238000007599 discharging Methods 0.000 description 2
- 230000002787 reinforcement Effects 0.000 description 2
- 230000000717 retained effect Effects 0.000 description 2
- 238000011144 upstream manufacturing Methods 0.000 description 2
- 229910000859 α-Fe Inorganic materials 0.000 description 2
- 241000331231 Amorphocerini gen. n. 1 DAD-2008 Species 0.000 description 1
- 101150116295 CAT2 gene Proteins 0.000 description 1
- 101100326920 Caenorhabditis elegans ctl-1 gene Proteins 0.000 description 1
- 101100494773 Caenorhabditis elegans ctl-2 gene Proteins 0.000 description 1
- 101100112369 Fasciola hepatica Cat-1 gene Proteins 0.000 description 1
- 101100005271 Neurospora crassa (strain ATCC 24698 / 74-OR23-1A / CBS 708.71 / DSM 1257 / FGSC 987) cat-1 gene Proteins 0.000 description 1
- 101100005280 Neurospora crassa (strain ATCC 24698 / 74-OR23-1A / CBS 708.71 / DSM 1257 / FGSC 987) cat-3 gene Proteins 0.000 description 1
- 101100126846 Neurospora crassa (strain ATCC 24698 / 74-OR23-1A / CBS 708.71 / DSM 1257 / FGSC 987) katG gene Proteins 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 239000000969 carrier Substances 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000002301 combined effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000006735 deficit Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 235000013305 food Nutrition 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 230000008570 general process Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000002955 isolation Methods 0.000 description 1
- 230000005415 magnetization Effects 0.000 description 1
- 230000003446 memory effect Effects 0.000 description 1
- 238000012821 model calculation Methods 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 230000010355 oscillation Effects 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 229920006395 saturated elastomer Polymers 0.000 description 1
- 230000026676 system process Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 230000003313 weakening effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/091—Active learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F7/00—Methods or arrangements for processing data by operating upon the order or content of the data handled
- G06F7/02—Comparing digital values
- G06F7/023—Comparing digital values adaptive, e.g. self learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
- G06N3/065—Analogue means
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Mathematical Analysis (AREA)
- Computational Mathematics (AREA)
- Neurology (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Image Analysis (AREA)
- Character Discrimination (AREA)
- Data Exchanges In Wide-Area Networks (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Transmission Systems Not Characterized By The Medium Used For Transmission (AREA)
- Machine Translation (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
- Image Processing (AREA)
- Multi Processors (AREA)
Description
PATENTANWÄLTE 2 52 A 7
Dipl.-lng. EIDENEIER
Dipl.-Chem. Dr. R U F F Dipl.-lng. J. B EIE R
7 STUTTGART 1 Neckaretraße 5O
Telefon CO7113 22 7O 51
Telex Ο7-23 412 erub d
28. Mai 1975 R/Ho
A 15 519
Anmelderin: The Nestor Corporation
Suite 6100
405 Lexington Avenue NEW YORK, N.Y. 10017 / USA
Informationsverarbeitungssystem mit mindestens einer informationsverarbeitend
en Baugruppe
Die vorliegende Erfindung bezieht sich allgemein auf das Gebiet der anpassungsfähigen Informationsverarbeitungssysteme, auf Systeme also, die auch als Lernmaschinen, Neuronen-Netzwerke,
einstellbare Systeme, selbstorganisierte Systeme und/oder anpassungsfähige Speichersysteme oder
-einrichtungen bekannt sind.
Anpassungsfähige Informationsverarbeitungssysteme sind in
den letzten Jahren in beträchtlichem Umfang untersucht worden. Einige der bemerkenswertesten Systeme sind u.a. das
Adeline- und das Madaline-System des Stanford Electronic Laboratory und das Minos I- und Minos II-System des Stanford
Research Institute. Einige US-Patente, die sich mit anpassungsfähigen Informationsverarbeitungssystemen befassen, sind
das US-Patent Nr. 3 287 649 von Rosenblatt, das US-Patent
509851/0806 - 2 -
A 15 5.19 I -J? -
Nr. 3 408 627 von Kettler et al., das US-Patent Nr. 3 435 von Gerhardt et al., das US-Patent Nr. 3 533 072 von Clapper
und das US-Patent Nr. 3 601 811 von Yoshino. Diese Aufzählung von Fundstellen ist aber lediglich beispielhaft
und beinhaltet nur einen kleinen Teil des bis heute existierenden, umfangreichen Standes der Technik.
Solche bekannten Informationsverarbeitungsysteme arbeiten im
Allgemeinen in der Weise, daß die auf ein gegebenes Eingangssignal ein Antwortsignal erzeugen, das mit einem vorbestimmten
Antwortsignal verglichen wird. Diese bekannten Systeme werden, oft in Abhängigkeit vn der Differenz zwischen dem tatsächlichen
und dem vorbestimmten Antwortsignal, veranlaßt, sich selbst abzuändern oder zu "lernen11, bis das vorbestimmte
Antwortsignal erreicht wird. Der Zweck eines solchen Systems liegt darin, es (mittels eines geeignet en Algorithmus) seinen
eigenen Weg zu einer vorbestimmten Relation:
Eingangssignal ->
Antwortsignal
finden zu lassen.
Zu beachten ist, daß der Ausdruck "Eingangssignal11 in der vorliegenden
Erörterung stets auch die Möglichkeit eines Satzes getrennter Eingangssignale beinhalten soll, die im wesentlichen
gleichzeitig an einen entsprechenden Satz von Eingangsstationen eines Informationsverarbeitungssystems angelegt
werden. In ähnlicher Weise soll der Ausdruck "Antwortsignal" die gesamte Antwort des Systems auf angegebenes Eingangssignal
definieren, auch wenn diese Antwort eine ganze Anzahl einzelner Antwortsignale umfaßt, die im wesentlichen gleichzeitig
an einem Satz von Ausgangsstationen des Systems erscheinen.
Ein typisches bekanntes anpassungsfähiges Informationsverarbeitungssystem
ist in der Pig. 1 dargestellt. Dieses System
509851/0806 ' _ 3 _
A 15 519
enthält als wesentliche Elemente ein Netzwerk von Eingangsstationen 1, 2, 3» ...» N, die ihrerseits mit einer entsprechenden
Anzahl von variablen Gewichtungselementen G1, G , G^,
....Gjj mit veränderbaren Gewichtsfaktoren verbunden sind,
welche im Falle gewichtender Verstärker veränderbare Verstärkungsfaktoren oder im Falle variabler Widerstände variable
Widerstandswerte sein können. Die Ausgangssignale der Gewichtungselemente G werden einem Summierer S zugeführt,
der für das gesamte Netzwerk ein einziges Ausgangssignal erzeugt, das zu der Summe der Ausgangssignale der Gewichtungs
elemente in einem bestimmten Verhältnis steht.
Der Gewichtsfaktor eines jeden Gewichtungs elements G.., G«,
G-*,....β« wird mit Hilfe eines sogenannten "Ausbildungsalgorithmus'*
T gesteuert, der das Netzwerk so einstellt, daß es auf ein bestimmtes Eingangssignal mit einem gewünschten Antwortsignal
antwortet.
Im Betrieb des Netzwerkes wird ein spezielles Signal wiederholt an die Eingangsstationen 1, 2, 3, ... N des Netzwerks
angelegt. Nach jedem Anlegen des speziellen Eingangssignals wird das Antwortsignal des Netzwerks mit einem vorbestimmten
erwünschten Antwortsignal verglichen, beispielsweise mit Hilfe einer Substrahiereinrichtung D, und die Differenz
oder der Abweichungsbetrag in dem Ausbildungsalgorithmus dazu benutzt, die Gewichtsfaktoren der einzelnen Gewichtungeelemente
G1, G?, G^, .....Gjr näher zu bestimmen.
Jedes Anlegen des speziellen Eingangesignals und die nachfolgende
Abänderung der Gewichtungselemente G wird als MAusbildungs-Zyklus"
bezeichnet. Im Verlauf aufeinanderfolgender
Ausbildungszyklen gleicht sich das Ausgangssignal des Netzwerks
immer mehr dem gewünschten Ausgangssignal an, bis das Netzwerk so eingestellt ist, daß es auf das spezielle Eingangssignal,
das das gewünschte Ausgangssignal erzeugen soll, eindeutig
antwortet.
- 4 50985 1/0806
A 15 519 I -A-
Bei den bekannten Informationsverarbeitungssystemen ist besondere Mühe darauf verwendet worden, einen geeigneten
Ausbildungsalgorithmus zu finden, der es einem System ermöglicht, schnell zu "lernen11 oder sich den angelegten Eingangssignalen
schnell anzupassen. Es erübrigt sich, zu erwähnen, daß zahlreiche raffinierte Algorithmen erdacht worden
sindj in allen Fällen ist jedoch der Ausbildungsalgorithmus
in gewisser Weise von dem vorbestimmten Ausgangssignal, das als Antwort auf ein gegebenes Eingangssignal
erzeugt werden soll, abhängig gemacht worden.
Demgegenüber liegt der Erfindung die Aufgabe zugrunde, ein anpassungsfähiges Informationsverarbeitungssystem zu
schaffen, das die Fähigkeit besitzt, sein eigenes, charakteristisches Antwortsignal aif jedes gegebene Eingangssignal
zu erzeugen. Insbesondere ist es ein Ziel der vorliegenden Erfindung, ein System zu schaffen, das die hervorstechende Eigenschaft
besitzt, sich selbst dahingehend abändern zu können, daß es in der Lage ist, ein interne Abbildung eines Eingangssignals auf ein Antwortsignal aufzubauen, die in der Art eines
Speichers oder einea Programms wirkt, ohne daß irgend ein Eingriff von außen oder eine Auswahl hinsichtlich eines gewünschten
Antwortsignals oder der Art des dargebotenen Eingangssignals notwendig wäre.
Die Aufgabe wird erfindungsgemäß durch eine informationsverarbeitende
Baugruppe gelöst, die die Kombination der folgenden Merkmale a) bis d) aufweist:
a) eine Anzahl N von Eingangsstationen 1, 2 j,....,N
zum Empfang jeweils eines von N Eingangs Signalen s..,
b) eine Anzahl η von Ausgangsstationen 1, 2,...,i,...,η,
die jeweils eines von η Antwortsignalen r.. ,Γρ, ·. · »r. ,
....rn abgeben,
- 5 509851/0806
A 15 519 S -# -
c) eine Anshl von Übertragungselementen, deren jedes
eine dieser Eingangsstationen (Eingang j) mit einer der Ausgangsstationen (Ausgang i) koppelt und in
Abhängigkeit von dem Eingang j auftretenden Eingangssignal s· und der Übertragungsfunktion A- . des (zugeordneten)
Übertragungselemente eine Informationsübertragung von dem Eingang j zu dem Ausgang i vermittelt,
d) Einrichtungen, die in einer Lernphase der Übertragungselemente die Übertragungsfunktion A- ■ mindestens eines
der Übertragungselemente in Abhängigkeit von dem Produkt mindestens eines der EingangsSignaIe mit einem der Antwortsignale
um eine Größe
ö A- · — IvS-I, Sp,...S-, ...S-jj >
^I ' Γρι··«·Γ-»·· *^r\'
X J It J 11 I C
X IX
abändern, wobei gemäß einer bevorzugten Ausführungsform der
Erfindung, die Abwandlungen T^ A- ., die die Übertragungs-
x J funktion A- · der Übertragungselemente erfährt, von der Form
«i A. - =mS . ; = /μ s . Υ7 A & sit , worin y^ eine
Pro port ionaütätBkocBtante baaeichnet, sein können.
Diese Art des Ausbildungs (-oder Lern)-Vorganges oder der Selbstabänderung des anpassungsfähigen Informationsverarbeitungssystems
soll im Folgenden als "passives Lernen" oder 'passive Abänderung1* bezeichnet werden.
Die Bedeutung einer solchen Fähigkeit zur passiven Selbstabänderung
eines Systems läßt sich durch Betrachtung eines einfachen Beispiels abschätzen. Wenn es z.B. bei einem solchen
System nicht notwendig ist, von vornherein ein vorbestimmtes gewünschtes Antwortsignal auf ein gegebenes Eingangssignal
zu kennen, ist es möglich, dem System Eingangssignale unbekannten Inhalts zuzuführen und deren Informationsgehalt
- 6 50985 1/0806
A 15 519 C
nach einer Lernperiode durch Betrachtung der Ausgangssignale zu ermitteln. Wenn beispielsweise diese unbekannten
EingangesignaIe zufällige Informationssignale (mit einer
unbekannten Struktur) sein sollten, die im Rauschen verborgen sind, so wird deren unbekannte Struktur dennoch auf die
Antwortsignale abgebildet und durch diese dargestellt werden, da die Struktur der Antwortsignale mit derjenigen der im
Rauschen verborgenen Informationssignale isomorph ist.
Auf diese Weise kann der unbekannte Informationsgehalt irgendeines
Eingangssignales durch ein solches Informationsverarbeitungssystem
entziffert werden.
Bei einer besonders zweckmäßigen Ausführungsform der Erfindung,
bei der eine Signal'quelle vorgesehen ist, die selektiv an mindestens eine der Auagangsstationen ein gewünschtes
Antwortsignal r- . abgibt, durch das die informationsverarbeitende
Baugruppe veranlaßt werden kann, im Verlauf ihrer Arbeitsperiode ein'Scorrektes" Antwortsignal rw zu erzeugen,
ist das Informationsverarbeitungssystem wie die bekannten Systeme in der Lage, auf irgend ein gegebenes Eingangssignal
ein vorbestimmtes Antwortsignal zu erzeugen. Diese Arbeitsweise, die im Folgenden als "aktives Lernen" oder "aktive
Abänderung" bezeichnet werden wird, erfordert seitens ' einer Bedienungsperson Kenntnis des gewünschten Ausgangssignals,
das mit jedem einzelnen Eingangssignal verknifft sein soll.
Die Erfindung hat den Vorteil, daß die Lerngeschwindigkeit des Systems,-d.h., von der Zahl der Darbietungen eines Eingangssignals
her gesehen, die Geschwindigkeit, mit der das System sich selbst dahingehend trainiert, ein bestimmtes Antwortsignal
zu erzeigen, - sehr hoch sein kann. Insbesondere ist es (durch geeignete Wahl des zur Abänderung benutzten
Algorithmus und der Parameter des Systems) auch erreichbar,
50985 1/0806
A 15 519 ? --? -
daß das System anstelle einer linear oder in anderer Weise langsamer zuneh-menden eine exponentiell anwachsende Lerngeschwindigkeit
aufweist. Ein weiterer Vorteil des erfindungsgemäßen anpassungsfähigen Informationsverarbeitungssystems liegt dain, daß es in der Lage ist, als ein verteilter
Speicher, (bei dem Information nicht an einzelnen Speicherplätzen sondern über das System verteilt gespeichert
wird), zu arbeiten und e3 in hohem Maße unempfindlich
gegenüber einem Pehlverhalten einzelner Bauelemente ist.
Das System besitzt dann die Eigenschaften eines selbstorganisierten
Sprechers mit der Fähigkeit, Information allein aufgrund von Erfahrung aufzunehmen. Es kommt hinzu, daß ein
solcher verteilter Speicher im allgemeinen dieselbe Kapazität, Zuverlässigkeit und Genauigkeit wie ein konventioneller
digitaler Computerspeicher (beispielsweise wie ein Ferritkernspeicher), aufweist, bei dem die Information an einem räumlich
festgelegten Ort gespeichert wird.
Ein weiterer Vorteil des erfindungsgemäßen Informationsverarbeitungssystems
besteht darin, daß es eine große Speicherdichte ermöglicht. So ist beispielsweise hervorzuheben, daß
das Informationsverarbeitungssystem aus integrierten Schaltungen aufgebaut seil kann und keine direkten Speicherelemente
wie Ferritkerne benötigt.
Ein besonderer Vorteil der Erfindung ist darin zu sehen, daß sie es auf einfache Weise ermöglicht, ein anpassungsfähiges
Informationsverarbeitungssystem zu schaffen, das eine große
Arbeitsgeschwindigkeit ermöglicht oder, genauer gesagt, ein System, bei dem in einem einzigen elektronischen Arbeitsgang
größenordnungsmäßig 2 Informationsbits abgerufen und/oder verarbeitet werden können (wenn η die Anzahl der Ausgangsstationen
des Systems ist).
509851 /0806
A 15 519 & --& -
Schließlich - und hiermit ist möglicherweise der wichtigste Aspekt der Erfindung zu sehen - bietet diese die Möglichkeit,
ein anpassungsfähiges Informationsverarbeitungssystem zu schaffen, das jede der folgenden Eigenschaften aufweist.
1.) Erkennungsvermögen: Die Fähigkeit, auf ein Ereignis oder
ein Eingangssignal, das von dem System schon zuvor wahrgenommen worden ist, ein starkes Antwortsignal zu erzeugen.
Es ist offensichtlich, daß das Informationsverarbeitungssystem auf ein spezielles Eingangssignal anfänglich
uncharakteristisch antworten wird. Jedoch wird das System nach mehreren aufeinanderfolgenden Darbietungen
dieses Eingangssignals lernen, dasselbe durch Erzeugung eines charakteristischen Antwortsignals zu
"erkennen1*.
2.) Erinnerungsvermögen: Die Fähigkeit, auf jedes von mehreren
speziellen Eingangssignalen ein eindeutiges Antwortsignal zu erzeugen. Diese Fähigkeit ergibt die Speicherfunktion,
da das System wegen dieser Fähigkeit in der Lage ist, ein charakteristisches Antwortsignal an seinen (n) Ausgangsstationen
zu erzeugen, (das größenordnungsmäßig 2n oder mehr Informationsbits umfaßt), wenn an seinem Satz
von Eingangsstationen ein spezielles Eingangssignal empfangen wird.
3.) Verallgemeinerungsvermögen: Die Fähigkeit aus einer Anzahl
unterschiedlicher Ereignisse oder EingangsSignaIe ein
gemeinsames Element herauszuziehen. Insbesondere dann, wenn mehrere verschiedene Eingangssignale nacheinander
dem Informationsverarbeitungssystem zugeführt werden, wird dieses lernen, ein diesen Eingangssignalen gemeinsames
Merkmal zu erkennen. Wenn beispielsweise ein spezielles Informationssignal, das im Rauschen verborgen ist, den
Eingangsstationen des Systems wiederholt zugeführt wird,
509851 /0806 ~ 9 ~
A 15 519 9
so wird das System das Informationssignal herausholen, im Gedächtiis behalten und in der Folge erkennen.
4.) V^rKnU^fuitripypym^mn Die Fähigkeit ein erstes Eingangssignal
bei Empfang eines zweiten wieder aufzurufen, nachdem die beiden EingangsSignaIe dem System mehr oder weniger
gleichzeitig zugeführt worden sind. D.h. wenn zwei EingangssignaIe gleichzeitig angelegt werden, so wird
das System diese Eingangsβignale nicht nur "lernend" aufnehmen,
sondern wird das eine mit dem anderen "verknüpfen".
Daher wird das System zu einem späteren Zeitpunkt in der Lage sein, entweder eines oder beide Eingangssignale
abzurufen, wenn nur eines der Eingangssignale angelegt
wird. Eine solche Fähigkeit zur Verknüpfung kann beispielsweise bei der Analyse unbekannter Signale zum Tragen kommen.
Wenn dem System zwei unbekannte Eingangssignale zugeführt werden, so wird das System in der Lage sein, zu bestimmen,
ob das eine zu dem anderen in irgendeiner Weise in Beziehung steht.
5.) Rekonstruktionsfähigkeit aus Teilen von Eingangssignalen;
Die Fähigkeit, ein vollständiges Eingangssignal aus einem Teil dieses Eingangssignals wieder aufzufinden. Diese Eigenschaft
kann als Fähigkeit zur "Selbst-Verknijfung", d.h. · zur "Verknüpfung" (Assoziation) von Teilen desselben
Signals angesehen werden. Wenn ein spezielles Eingangssignal dem System zugeführt wird, bis es "gelernt" ist,
dann wird das System jeden Teil dieses Signals mit dem vollständigen Signal verkniffen, derart, daß zu einem
späteren Zeitpunkt das Anlegen eines Teil dieses Eingangssignals zu der Erzeugung des vollständigen Signals durch
das System führt (gewöhnlich mit einem verminderten Signal/ Rausch-Verhältnis).
- 10 -
509851 /0806
A 15 519 ^ -OjQ-
Die Erfindung wird im folgenden anhand der Zeichnung beschrieben und erläutert. Es zeigt:
Fig. 1 ein Blockschaltbild eines typischen bekannten Informat
i onsverarbei tungssys t ems,
Pig. 2 ein Blockschaltbild eines Nouveron-Netzwerks nach der Erfindung,
TM Fig. 3 ein Blockschaltbild einer Nestor -Baugruppe mit zahlreichen Nouveron-Netzwerken gemäß Fig. 2. Der
Übersichtlichkeit der Darstellung wegen sind von Summierern der Baugruppe abgehende Rückkopplungsleitungen weggelassen worden,
Fig. 4 ein Blockschaltbild eines eine Nestor-Baugruppe gemäß Fig.3 umfassenden Informationsverarbeitungssystems,
Fig. 5 eine schematische Darstellung der Antwort einer erfindungsgemäßen Nestor-Baugruppe auf ein äußeres
Geflecht von Ereignissen,
Fig. 6 eine schematische Darstellung eines speziellen Arbeitsprinzips
der erfindungsgemäßen Nestor-Baugruppe,
Fig. 7 eine schematische Darstellung des Signalsverlaufs in einer idealen Nestor-Baugruppe nach der Erfindung,
Fig. 8 eine schematische Darstellung eines optisch-akustischen Systems mit mehreren erfindungsgemäßen Nestor-Baugruppen,
Fig. 9 ein Blockschaltbild einer in Verbindung mit der erfindungsgemäßen
Nestor-Baugruppe verwendbaren Einrichtung zur Bestimmung eines Antwortsignals,
Fig. 10 eine schematische Darstellung der Antwort zweier Nestor-Baugruppen auf dasselbe äußere Geflecht von
Ereignissen,
— 11 — 509851/0806
A 15 519 44
Pig. 11 ein Blockschaltbild einer Einrichtung, die in Verbindung mit einer erfindungsgeraäßen Nestor-Baugruppe
zur Erzeugung einer speziellen Art von Antwortsignalen verwendbar ist,
Pig. 12 ein Blockschaltbild eines Teils eines Nouveron-Netzwerkes das ein mit Ladungsspeicherung arbeitendes
Übertragungselement (Mnemonder) gemäß einer bevorzugten Ausführungsform der Erfindung
enthält,
Pig. 13 ein Schaltbild einer Summierschaltung, die in dem
Nouveron-Netzwerk gemäß Fig. 12 verwendbar ist,
Pig. 14 ein Schaltbild eines in dem Nouveron-Netzwerk gemäß Pig. 12 verwendbaren Übertragungselements
(Mnemonders) und
Fig. 15 ein Blockschaltbild einer in dem Nouveron-Netzwerk
gemäß Pig. 12 verwendbaren Einrichtung zur Verarbeitung von Netzwerk-Eingangssignalen mit
Hilfe von Netzwerk-Ausgangssignalen.
Wie eingangs aufgeführt, bildet den Gegenstand der Erfindung eine informationsverarbeitende Baugruppe mit einer Anzahl
von (N) Eingangsstationen 1, 2, ...j,....,N, zum Empfang
jeweils eines der Eingangssignale S.. ,Sp,..., S .,.. .S^, und
mit einer Anzahl (n) von Ausgangsstationen 1, 2, ...i, n,
die jeweils eines von η Antwort Signalen Γι»Γ2»Γχ» r n»- abgeben,
sowie mit einer Anzahl von als Mnemonder bezeichneten Übertragungselementen, die mit jeweils einzelnen, verschiedenen
(oder mehreren Ausgangsstationen einzelne, verschiedene (oder mehrere) Eingangsstationen koppeln. Nach der Erfindung vermittelt
jedes Übertragungselement eine Informationsübertragung von einer Eingangsstation j zu einer Ausgangsstation i in Abhängigkeit
von dem an der Eingangsstation j auftretenden Eingangssignal s. und einer sogenannten "Übertragungsfunktion" A-.
- 12 509851/0806
A 15 519 tZ -
des Übertragungselements. Es sind auch Mittel vorgesehen, die die Matrix der Übertragungsfunktionen der Übertragungselemente
(oder Mnemonder) in Abhängigkeit von dem Produkt mindestens eines der EingangsSignaIe und einem der Antwortsignale der
Baugruppe abändern.
Der Ausdruck "Übertragungsfunktion11, wie er in der Beschreibung
und den Patentansprüchen erscheint, wird in seinem allgemeinen
Sinn verwendet, um eine Funktion zu definieren, die in irgendeiner Weise die Übertragung von Information (ein
Signal) vom Eingang zum Ausgang des Übertragungselements beeinflußt.
Im einfachsten Fall entspricht die Übertragungsfunktion dem Verstärkungsfaktor oder der Verstärkung eines
Übertragungselements; es ist jedoch zu beachten, daß ein am Eingang eines Übertragungselements auftretendes Signal auch
auf andere Weise abgeändert werden kann, um ein geeignetes Ausgangesignal des Übertragungselements zu erzeugen.
In jedem Fall soll das Ausganges ignal s1. eines Übertragungs-
elements als das Produkt seines Eingangssignals sj mit der
Übertragungsfunktion A-· dieses Übertragungselements definiert sein gemäß der Beziehung
Eine Baugruppe der oben beschriebenen Art, die im fo^nden
als Nestor -Baugruppe bezeichnet werden soll, ist in Fig. 3 dargestellt. Diese zeigt eine spezielle Baugruppe, bei der jede
der N Eingangsstationen mit jeder der η Ausgangsstationen
durch ein einzelnes Übertragungselement (©) verbunden ist. Aus Gründen der Übersichtlichkeit sind die von den Summierern
S abgehenden Rückkopplungsleitungen weggelassen worden und nur die mit der Eingangsstation j (Übertragungselemente 1j,
2j,....ij,....,nj) und die mit der Ausgangsstation i (übertragungselemente
i1, i2,.··.ij,...iN) gekoppelten Übertragungselemente
dargestellt. Es versteht sich jedoch, daß in dieser
50 98 5 1/0806 ~ 13 "
A 15 519
Baugruppe eine Anordnung von insgesamt N χ η Übertragungselementen
vorgesehen ist, so daß sich die folgende Matrix von Übertragungsfunktionen ergibt:
lAn1
>An2
>An2
A1N A2N
>AnN
Die spezielle Nestor-Baugruppe, bei der jede der N Eingangsstationen mit jeder der η Ausgangsstationen durch ein einzelnes
Übertragungselement verbunden ist, zeigt das, was als
(N,n)-Verknüpfung bezeichnet wird. In einem praktisch vorkommenden
Fall können eine oder mehrere der durch die Übertragungselemente vermittelten Verbindungen zwischen den Eingangs-
und Ausgangsstationen ohne eine schädliche Beeinträchtigung der Baugruppenfunktion getrennt werden. Die Verbindungen
zwischen den Eingangs- und den Ausgangsstationen über die Übertragungselemente können sogar völlig zufallsverteilt
sein, vorausgesetzt, daß eine genügende Anzahl von Verbindungen (Übertragungselementen) vorhanden ist, um
eine Informationsübertragung vom Eingang zum Ausgang und eine Informationsspeicherung in den Übertragungselementen
zu ermöglichen.
Bei einer bevorzugten Ausführungsform der erfindungsgemäßen
- 14 ■«-
609851/0806
A 15 519
Nestor-Baugruppe ist das Antwortsignal r. an jeder Ausgangsstation
eine lineare Punktion der an die Baugruppe angelegten Eingangssignale, so daß gilt:
r = Σ A1-S
1 1J J
1 1J J
Diese lineare Relation, die in der Fig. 3 durch die Summierer
Σ^, Σο»·····Sj,.....Ση veranschaulicht ist, ist die
einfachste Beziehung, die zu den gewünschten Ergebnissen führt. Es versteht sich jedoch, daß die Nestor-Baugruppe
nicht auf diese lineare Relation beschränkt ist und daß andere bedeutsame Ergebnisse gewonnen werden können, wenn
das Antwortsignal r^ an einer oder mehreren Ausgangsstationen
i nach einer anderen Punktion von den an die Baugruppe angelegten Eingangssignalen abhängig gemacht wird.
Beispielsweise kann das Antwortsignal ri zu dem Produkt der Eingangssignale A- · s. über alle j proportional sein.
ij j
Bei der in der Fig. 3 dargestellten Nestor-Baugruppe kann die
Anzahl N der Eingangsstationen und die Anzahl η der Ausgangsstationen jeweils beliebige Werte annehmen. Die Anzahl der
Eingangsstationen kann diejenige der Ausgangsstationen überschreiten - oder umgekehrt - oder es können beide gleich
sein (N = n). Es versteht sich, daß der Umfang der Information,
die zu irgendeinem Zeitpunkt an den Ausgangsstationen der Nestor-Baugruppe auftreten kann, in der Größenordnung
von 2n Bits oder mehr liegt und daß, je größer der Wert η
ist, desto größer auch das Signal/Rausch-Verhältnis der Baugruppe sein wird. Es ist daher wünschenswert, η ziemlich
groß zu machen, wobei allerdings die Notwendigkeit einer entsprechenden Zunahme der Zahl der Schaltungselemente zu berücksichtigen
ist. Es wird, der Einfachheit halber, in einer späteren Betrachtung angenommen werden, daß η gleich N sein
soll.
- 15 509851 /0806
A 15 519 - Vj -
Die Nestor-Baugruppe gemäß Pig. 3 kann durch eine Anzahl (n) von Summierern Σ· dargestellt oder als aus einer Anzahl
solcher Summierer bestehend angesehen werden, von denen jeder mit einer Anzahl (N) von Eingangsstationen und Übertragungselementen
und einer einzigen Ausgangsstation i verbunden ist.
Eine solche, im folgenden als "Nouveron" bezeichnete Untereinheit
der Nestor-Baugruppe ist in der Fig. 2 dargestellt. Ein Vergleich der Pig. 2 mit der Pig. 3 zeigt, daß die
Nestor-Baugruppe eine Anzahl (n) von Nouverons gemäß Pig. 2 umfaßt.
Wie die Pig. 2 zeigt, erzeugt jedes Nouveron an einer Ausgangsstation
i ein einzelnes Antwortsignal r-. Dieses Antwortsignal wird von dem Summierer^ . des Nouverons jeweils in Abhängigkeit
von Zwischenausgangssignalen s-' ,Sp1,. .s . ·,.. .Sij1»
der N Übertragungselemente i1, i2,...ij,...iN erzeugt.
Wie oben erwähnt, ist es nicht notwendig, daß die Übertragungselemente
der Nestor-Baugruppe jede Eingangsstation mit jeder
Ausgangsstation der Baugruppe koppeln. Demzufolge kann ein der Fig. 2 entsprechendes Nouveron auch weniger als N Übertragungselemente
umfassen, so daß nicht jede einzelne Eingangsstation 1,2,....j,...N mit dem SummiererΣ. gekoppelt
sein wird.
Wie ebenfalls oben ausgeführt worden ist, wird in der Lernphase die Übertragungsfunktion von mindestens einem (und
vorzugsweise allen) der Übertragungselemente ij der Nestor-Baugruppe
in Abhängigkeit von dem Produkt aus mindestens einem der Eingangssignale und mindestens einem der Antwortsignale
der Baugruppe näher bestimmt. Dieser Algorithmus für die Abänderungen £A--, denen die Matrix A der Übertragungsfunktionen
unterworfen ist (abgesehen von einer zu den Eingangsund den AntwortSignalen nicht in Beziehung stehenden gleichförmigen
Abnahme) kann in der folgenden Form geschrieben werden:
- 16 509851/0806
A 15 519 - ϊβ -
wobei es sich versteht, daß die Punktion f auch von nur
einem der Eingangssignale S1,S2,...s.,....sN und nur eine
der Antwortsignale r.. , Γρ». ·. .r. ,... .r abhängig sein kann
Um jede unnötige Komplikation bei der Leitungsführung in
der Nestor-Baugruppe zu vermeiden, wird es vorgezogen, die Abwandlung der Übertragungsfunktion eines Übertragungselements nur von den Eingangs- und Antwortsignalen desjenigen
Nouverons abhängig zu machen, dem das Übertragungselement angehört. Daher werden bei einer bevorzugten Ausführungsform
der Erfindung die Abänderungen, denen die Übertragungsfunktion A. . unterliegt, von dem jeweils mit dem speziellen Übertragungselement
verknüpften Eingangs- und Antwortsignal abhängig gemacht, so daß gilt:
wobei es sich versteht, daß die Punktion f stets von beiden
Variablen s. und r- abhängig sein soll.
Die Punktion f (s-, r·) kann mit Hilfe der Taylor'schen
J ^-
Formel für Punktionen mit mehreren Variablen in eine Reihe
Formel für Punktionen mit mehreren Variablen in eine Reihe
entwickelt werden. Dies ergibt dann:
f (b., T1)^a00 +a01 Sj + al0 tv + a^rs^
+a21 ri β. + a31 r3 s. +... +Σατ^
Die ersten drei Terme sind dabei nicht von unmittelbarem Interesse,
da gefordert wird, daß die Abänderung der A- ■ von dem Produkt des EingangsSignaIs s. mit dem Antwortsignal r· abhängig
sein soll. Es läßt sich beweisen, daß eine Abänderung
- 17 509851 /0806
A 15 519 -H-
der A-, die nur eine Funktion von einem oder mehreren der ersten drei Terme der Taylorentwicklung ist, nicht zu einem
Informationsverarbeitungssystem führt, das die von der
erfindungsgemäßen Nestor-Baugruppe dargebotenen Intelligenzeigenschaften
aufweist.
Der niedrigste Term der Taylorentwicklung, der zu den erwünschten,
erfindungsgemäßen Eigenschaften führt, ist der
vierte Term, nämlich a.. 1 r- s.. Dieser Term (der im folgenden
ausführlich behandelt werden wird, da er einer strengen analytischen Behandlung leicht zuganglich ist,) führt zu einer Abänderung
SA- . der Übertragungsfunktion A. . in folgender Form:
wobeiT^eine Proportionalitätskonstante bezeichnet.
Es versteht sich jedoch, daß auch andere, auf den dritten Term der Taylor-Entwicklung folgende Terme zu bedeutsamen
Ergebnissen führen können, wenn sie in der Nestor-Baugruppe verarbeitet werden. Terme mit geraden Potenzen der Variablen
s. oder r- ermöglichen aber bei den Abänderungen keine
Unterscheidung der Polarität. Terme, die ungerade Potenzen
dieser Variablen enthalten, wie etwa der sechste Term, a^1 r± s-, ermöglichen dagegen eine solche Unterscheidung.
Jeder dieser Terme kann der Nestor-Baugruppe interessante Eigenschaften vermitteln. Da die verschiedenen Terme der
Taylor-Entwicklung den Abwandlungen der ittrix A unterschied
liche Gewichtungen erteilen, können insbesondere diese Gewichtungen mit Vorteil dazu benutzt werden, spezifische erwünschte
Eigenschaften zu erzielen.
- 18 509851 /0806
A 15 519 - \% -
Die Pig. 4 zeigt eine Möglichkeit, wie eine erfindungsgemäße Nestor-Baugruppe in einem anpassungsfähigen Informationsverarbeitungssystem
geschaltet und benutzt werden kann. Die in dieser Pig. dargestellte Nestor-Baugruppe
weist eine (N,N)-Verknüpfungaif, d.h. die Baugruppe umfaßt
N Eingangsstationen und N Ausgangsstationen, und jede Eingangsstation ist, wie in der Pig. 3 dargestellt, mit jeder
Ausgangsstation über ein Übertragungselement verbunden.
Die der Nestor-Baugruppe zugeführten Eingangs Signa Ie s.., Sp,
...s.,...sN charakterisieren ein Ereignis in der Umgebung,
das in der Pig. 4 als "Eingabe" bezeichnet ist. Dieses Ereignis kann ein optisches Ereignis, etwa die Ansicht eines
Bildes, ein akustisches Ereignis, etwa das Hören eines Tones, oder irgend ein beliebiges anderes, vorstellbares oder nicht vorstellbares
Ereignis sein, beispielsweise der Empfang von Strahlungssignalen aus dem Weltraum. Die einzige Anforderung,
die an ein solches Ereignis zu stellen ist, besteht darin, daß es auf irgend eine Weise in eine Anzahl von Eingangssignalen s.,SA|i.Ma. s» übersetzbar ist, die ausreichend
viele Einzelheiten des interessierenden Ereignisses bewahren.
Die EingangsSignaIe s1lso,*.»s. ....sw werden von einem Über-
\ C J , SH
setzer erzeugt, der eine Art von Analyse des Ereignissen durchführt und nach Maßgabe dieser Analyse Signale erzeugt.
Wenn die Eingabe beispielsweise ein optisches Ereignis oder ein "Bild" ist, so kann der Übersetzer dieses Bild in eine
Anzahl von Rasterelementen unterteilen und Signale s..,3p,....
s.,. ...3« erzeugen, die zu der optischen Dichte eines jeden
zugeordneten Rasterelementes im Verhältnis stehen. Wenn die Eingabe in einem akustischen Ereignis besteht, so kann der
Übersetzer eine Fourier-Analyse der akustischen Information durchführen und EingangsSignale S1, s9,...3 .,...sN erzeugen,
die zu der Schallamplitude jeder der Pourierfrequenzen im Verhältnis stehen. Es versteht sich jedoch, daß der in Verbin-
- 19 509851/0806
A 15 519
dung mit der Nestor-Baugruppe zu benutzende Übersetzer beliebig wählbar ist und daß dem Fachmann zahlreiche
Arten geeigneter Übersetzer bekannt sind. Da außerdem der Übersetzer, für sich genommen, nicht Teil dieser Erfindung
ist, soll er im folgenden nicht im einzelnen behandelt werden.
Wie bereits erwähnt, erzeugt die Nestor-Baugruppe als Antwort auf einen Satz von Eingangssignalen s.., S2,....3.,....SjJ
eine Anzahl von Antwortsignalen r.. ,r2, ·.. .r-,. ·. .r .
Gemäß einer bevorzugten Ausführungsform der Erfindung sind
diese Antwortsignale kontinuierliche Variable, d.h.: sie können beliebige Werte zwischen Null und jedem positiven und/oder
negativen Maximalswert annehmen, der durch reale Umweltbedingungen bestimmt ist, die durch den Aufbau der Nestor-Baugruppe
vorgegeben sind. Um bei Bedarf die Nestor-Baugruppe "zwingen" zu können, ein spezielles Antwortsignal abzugeben
(einen Satz einzelner Antwortsignale r1,r2»...r.,...rN), wenn
ein spezielles Eingangssignale (ein Satz einzelner Eingangssignale S1 S2, ... .3-ji.. .sN) dargeboten wird, kann das Informationsverarbeitungssystem
mit einer geeigneten Einrichtung ausgestattet sein, die einzelnen oder sämtlichen Ausgangsstationen
spezifische Antwortsignale (z.B. Spannungen) aufprägt oder zuführt. Auf diese Weise kann die Nestor-Baugruppe
in der als "aktives lernen" bezeichneten Betriebsart betrieben und veranlaßt werden, auf jedes gegebene Eingangssignal
ein vorbestimmtes, erwünschtes Antwortsignal abzugeben.
Bei Bedarf können die Ausgangsstationen 1, 2,...i,...N der Nestor-Baugruppe auch jeweils mit einer Anzahl von Schwellenwerteinrichtungen
T1, T2,....Ti?...Tn wie Schmitt-Trigger oder
dergleichen verbunden sein, die ein Ausgangssignal erzeugen,
- 20 -
50985 1/0806
A 15 519 - 20 -
wenn das ihnen zugeführte Antwortsignal jeweils einen einstellbaren
Schwellenwert 0.. ,Op,... .0. ,... .0„ überschreitet. Diese
Schwellenwerteinrichtungen bewirken, daß das analoge Antwortsignal der Baugruppe in ein digitales Ausgangssignal
umgewandelt wird, das auf einfache Art und Weise weiter verarbeitet werden kann. Diese Schwellenwerteinrichtungen
über zusätzlich eine Entscheidungsfunktion dahingehend aus, ob und wann ein spezielles Antwortsignal erzeugt worden ist.
Die Schwellenwerteinrichtungen T.,, Tp,· · · *^±* · · · ·■% können
auch für eine Betriebsart benutzt werden, die als "Unterdrückungsbetrieb11
bezeichnet werden kann und die den Ausbildungsvorgang
der Nestor-Baugruppe fördert. Wie im folgenden ausführlich dargelegt werden wird, erfordert diese
Betriebsart, daß das Ausgangssignal einer jeden Schwellenwerteinrichtung
auf die Nestor-Baugruppe zurückgekoppelt wird, um alle Summierer mit Ausnahme desjenigen, der das
Antwortsignal erzeugt, abzuschalten.
Auf diese Weise werden alle Antwortsignale r.., Γρ,...Γ|τ
mit Ausnahme desjenigen Antwortsignals unterdrückt werden, das ab Eingangssignal derjenigen Schwellenwerteinrichtung
zugeführt wird, die ein Ausgangssignal erzeugt, Der Vorteil
hierbei besteht darin, daß sich die Nestorbaugruppe selbst rasch dahingehend ausbildet, einen Satz von Antwortsignalen
r^,Γρ,...r.,....r« (und damit auch AusgangesignaIe
der Schwellenwerteinrichtungen T.., Tp,... .T«) zu erzeugen, in
dem nur eines dieser Antwortsignale bei Darbietung eines
gegebenen Satzes von Eingangssignalen s.| ,S2, ·.. .s . sN
von Null verschieden ist.
Die Ausgangsstation der Nestor-Baugruppe oder der Ausgänge
- 21 -
509851/0806
A 15 519
der Schwellenwerteinrichtungen, sofern solche vorgesehen
sind, können mit jeder Art von Ausgabe- oder Verarbeitungsgerät kombiniert werden, je nachdem was für ein Vorgang
in Abhängigkeit von den AntwortSignalen der Baugruppe durchgeführt
werden soll. Wenn die Nestor-Baugruppe beispielsweise dazu benutzt wird, sichtbare Bilder zu identifizieren
(z.B. Scheckunterschriften) so können die Ausgänge der Schwellenwerteinrichtungen einfach mit einer Alarmanlage
verbunden sein, die einer Bedienungsperson Nachricht gibt, wenn ein bestimmtes Bild (z.B. eine echte oder gefälschte
Unterschrift) entdeckt oder nicht entdeckt worden ist.
Wenn die Nestor-Baugruppe beispielsweise als reiner verteilter Speicher (Assoziationsspeicher) benutzt wird, so kann
sie direkt mit einem konventionellen digitalen Computer verbunden werden (d.h. ohne einen getrennten eingangsseitigen
Übersetzer oder ausgangsseitige Schwellenwerteinrichtungen) . Selbstverständlich muß dann an der eingangsseitigen
Verbindungsstelle der Baugruppe ein Digital/ Analogkonverter vorgesehen sein, um die digitale Ausgabe
des Computers in analoge Eingangssignale S1,Sp»··«s« umzuwandeln,
und es muß an der ausgangsseitigen Verbindungsstelle
der Baugruppe ein Analog/Digital-Konverter vorgesehen sein, der die analogen Antwort signale r.. , γ?ι . · · .r^
zur Eingabe in den Computer quantisiert.
Offensichtlich kann die Nestor-Baugruppe für praktisch unendlich
viele Zwecke eingesetzt werden, wobei die zur Mitanwendung kommende spezielle Ausgabe- oder Verarbeitungseinrichtung durch die speziellen Umstände des Einzelfalles
bestimmt sein wird. Da die Ausgabe - oder Verarbeitungseinrichtung für sich allein nicht Teil der Erfindung ist, soll
sie hier auch nicht in weiteren Einzelheiten behandelt werden.
- 22 509851 /0806
A 15 519
Die erfindungsgemäße Nestor-Baugruppe kann auch in einem
Informationsverarbeitungssystem verwendet werden, bei dem mehrere solcher Baugruppen entweder in Reihen - oder in
Parallel- oder in Reihen/Parallelschaltung miteinander verbindunden sind. Beispielsweise können die Ausgangsstationen
zweier Nestor-Baugruppen mit den Eingangs-Stationen einer dritten verbunden sein, derart, daß die
beiden ersten Baugruppen die aus der Umgebung empfangene Information "vorverarbeiten11 können und diese (vorverarbeitete)
Information zur endgültigen Verarbeitung und Speicherung an die dritte Baugruppe abgeben.
Reihen- und Parallelschaltungen von Nestor-Baugruppen können somit die Intelligenz des Informationsverarbeitungssystems
vergrößern.
Die erfindungsgemäße Nestor-Baugruppe kann so aufgebaut sein , daß sie mit einer gewünschten Geschwindigkeit
"lernt". Im Lernbetriebszustand sollten die an den Übertragungsfunktionen
A. ■ der Übertragungselemente vorzu-
nehmenden Änderungen SA. . so definiert sein, wie oben angegeben;
bei einer bevorzugten Ausführungsform der Erfindung sind diese Abänderungen von der folgenden Form:
Durch Einstellen des Wertes Tf beispielsweise, ist es möglich,
die Abänderungs- oder "Lerngeschwindigkeit" der Nestor-Baugruppe zu steuern.
Wenn I^ = 0 (oCA- . = 0) gesetzt wird, ist es auch möglich,
den Lernbetrieb der Baugruppe vollständig "auszuschalten", so daß die Baugruppe als ein reiner - verteilter-Speicher
arbeitet. Die Benutzung der Nestor-Baugruppe in diesem speichernden Zustand, in dem die Übertragungsfunktionen vorbestimmt
und festgelegt sind, ist eines der wesentlichsten Merkmale der vorliegenden Erfindung.
- 23 509851/0806
A 15 319 ^ -,23 -
Die erfLndungsgemäße Nestor-Baugruppe kann auch so
aufgebaut sein, daß sie sowohl mit einer vorbestimmten Geschwindigkeit "vergißt" als auch lernt. Eine
solche Arbeitsweise kann dadurch erreicht werden, daß es den Übertragungsfunktionen A- . ermöglicht wird, beispjelsweise
mit einer konstanten Zerfallsgeschwindigkeit abzunehmen. Im Lernbetrieb ist ein solcher Verlust gespeicherter
Information günstig, da die Nestor-Baugruppe dadurch Einzelheiten ihrer früheren Erfahrung "vergessen"
und somit schneller verallgemeinern kann. Dagegen ist es dann, wenn die Ausbildungsphase der Nestor-Baugruppe abgeschlossen
ist und diese im Speicherbetrieb arbeitet, erwünscht jede Abnahme der Übertragungsfunktionen möglichst auf "Null11
(d.h. auf den bei den zur Verfügung stehenden Bauteilen niedrigst-möglichsten Wert) zu reduzieren, damit die in
der Nestor-Baugruppe gespeicherte Information so lange wie möglich auch ohne Verwendung eines Pufferspeichers
festgehalten werden kann.
Wenn mehrere Nestor-Baugruppen, die in Reihe oder parallel geschaltet sind, benutz werden, so können verschiedene Baugruppen
in verschiedenen Betriebsarten betrieben werden, um innerhalb eines Informationsverarbeitungssystems unterschiedliche
Punktionen auszuführen. Beispielsweise können eine oder mehrere Nestor-Baugruppen in einem informationsverarbeitenden
oder lernenden Betriebszustand betrieben werden (in dem z.B. sowohl^ als auch die Zerfallsgeschwindigkeit ziemlich groß sind), während eine oder
mehrere Nestor-Baugruppen in einem reinen Speicherbetriebszustand benutzt werden (in dem £A- . und die Zerfallsgeschwindigkeit
0 sind). Die Pig. 8 zeigt ein Beispiel ein-es solchen Systems, das aus drei Nestor-Baugruppen
besteht. Aus dieser Figur ist ersichtlich, daß die Zahl der Eingange einer Bank H (Zahl der Eingangsstationen
einer Nestor-Baugruppe mit der Bank H) gleich, größer oder
- 24 509851/0806
A 15 519
kleiner sein kann als die Summe der Ausgänge (Ausgangsstationen von Nestor-Baugruppen mit den Ausgangsstationsbanken
RQ und R.) von Rq und R., und daß jeder Ausgang
von Rq und RA mit einem oder mehreren Eingängen der Bank H
in geordneter oder zufälliger Weise verbunden sein kann.
Schließlich ist darauf hinzuweisen, daß sobald der "Ausbildungsvorgang
einer Nestor-Baugruppe nach einer Arbeitsperiode im Lernbetriebszustand abgeschlossen ist, die Werte
der Übertragungsfunktion A- · gespeichert und zu einer sofortigen
Ausbildung einer weiteren Nestor-Baugruppe benützt werden können. Diese "Sofort-Ausbildung" wird in einfacher
Weise dadurch erreicht, daß die Werte der Übertragungsfunktionen einer Nestor-Baugruppe auf Anfangswerte A^ \A
gesetzt werden, bevor die Baugruppe in Betrieb genommen wird.
Bei einer bevorzugten Ausführungsform der Erfindung ist
das Informationsverarbeitungssystem mit einem üblichen (entweder analogen oder digitalen) Pufferspeicher ausgestattet,
in den die Werte der Übertragungsfunktionen A. . einer ausgebildeten Nestor-Baugruppe eingegeben werden können
und aus dem diese Werte entnommen werden können, wenn die Übertragungsfunktionen derselben oder einer anderen Nestor-Baugruppe
auf ihre Anfangswerte A^0^. . gesetzt werden.
Nachdem der grundsätzliche Aufbau einer Nestor-Baugruppe und eines Informationsverarbeitungssystems nach der Erfindung
dargelegt und beschrieben worden ist, ist es nunmehr notwendig, deren Beschaffenheit und Arbeitsweise
im einzelnen zu untersuchen.
- 25 -
50985 1 /0806
A 15 519
Im folgenden werden zunächst die theoretischen Grundlagen der Erfindung erörtert, im Anschluß daran wird
sodann eine spezielle bevorzugte Ausführungsform der Erfindung beschrieben:
Die Fig. 5 zeigt in schematischer Darstellung eine Nestor-Baugruppe, die einer aus einer Anzahl von "Ereignissen"
gebildeten Umgebung ausgesetzt ist. Dauer und Bereich eines Ereignisses werden letztlich selbstkonsistent
durch die Wechselwirkung zwischen der Umgebung und einem die Nestor-Baugruppe enthaltenden anpassungsfähigen
Informationsverarbeitungssystem definiert. Zum Zweck einer Vereinfachung der Beschreibung soll jedoch
zunächst davon ausgegangen werden, daß ein Ereignis ein genau definierter objektiv erfaßbarer Vorgang sei, und
1 2
es soll demgemäß ein mit e , e ,
es soll demgemäß ein mit e , e ,
Ereignisraum E betrachtet werden.
1 2 λ k es soll demgemäß ein mit e , e , e , ....e bezeichneter
Diese Ereignisse werden durch Meß- und Verarbeitungseinrichtungen des anpassungsfähigen Informationsverarbeitungssystems
mittels einer äußeren Abbildung P auf eine Signalverteilung in dem mit s , s , s ,....s bezeichneten
Eingangssignalraum S der Nestor-Baugruppe abgebildet. Die äußere Abbildung P ist in der Pig. 5 durch einen
doppelten Pfeil bezeichnet. Vorläufig sei angenommen, daß diese Abbildung durch keinerlei Erfahrungswerte abgewandelt
ist.
Obwohl die Abbildung P nicht in allen Einzelheiten beschrieben werden muß, da die spezielle Art der Umsetzung
aus der Umgebung in den EingangssignaIraum S für die vorliegende
Erörterung nicht von Bedeutung ist, soll darauf hingewiesen werden, daß diese äußere Abbildung reichhaltig
509851 /0806
- 26 -
A 15 519 - atf -
und detailliert sein sollte, damit ein genügend großer Betrag der interessierenden Information erhalten bleibt.
Insbesondere sollte der Satz S von Eingangssignalen den Grad der "Verschiedenheit11 zwischen Ereignissen wiederspiegeln,
bzw. den in irgendeiner Hinsicht zwischen zwei oder mehreren Ereignissen vorhandenen Grad der Ähnlichkeit
(oder einer anderen Beziehung der Ereignisse zueinander) .
Es soll daher angenommen werden, daß die äußere Abbildung P von E auf S die wesentliche Eigenschaft besitze,
gewissermaßen die "Nähe11 oder "Isoliertheit" von Ereignissen
zu bewahren.
Es soll nun je ein Satz von Eingangssignalen s, die dem
V-ten eintretenden Ereignis e^ und ein weiterer Satz von
Eingangs signal en s/**, die dem /u-ten eintretenden Ereignis
entsprechen, definiert werden. In dieser Bezeichnung werden zwei Ereignisse ev und e/ auf Sätze s und ar von Eingangssignalen
abgebildet, deren Verschiedenheit zu der Verschiedenheit der ursprünglichen Ereignisse in Beziehung
steht. In einer Vektordarstellung die in der gesamten folgenden Betrachtung verwendet werden soll, führt dies
zu der Vorstellung,; daß zwei Ereignisse, die einander
ebenso ähnlich sind wie etwa eine weiße Katze und eine graue Katze, auf zwei Vektoren abgebildet werden, die annähernd
parallel sind, während zwei Ereignisse, die so verschieden sind, wie etwa der Klang einer Glocke und das
Aussehen von Nahrung, auf Vektoren abgebildet werden, die annähernd orthogonal zueinander sind.
Ist eine Eingangssignalverteilung in den Eingangssignalraum S gegeben, die Folge eines Ereignisses im Ereignisraum
E ist, so geht die weitere Vorstellung dahin, daß diese
- 27 509851 /0806
A 15 519 - Vf -
Signalverteilung durch eine in der Pig. 5 mit einem einfachen Pfeil bezeichnete innere Abbildung A intern
auf einen Satz R von Antwortsignalen abgebildet wird. Diese zweite Art der Abbildung ist in einer Weise abänderungsfähig,
die im folgenden einzeln beschrieben werden soll.
Die tatsächlich zwischen den Eingangsstationen s und den Ausgangsstationen r der Nestor-Baugruppe bestehenden
Verbindungen können zufällig angeordnet und weitschweifig sein, zwischen einer bestimmten Eingangsstation und
einer bestimmten Ausgangastation können zahlreiche oder auch gar keine Verbindungen bestehen. Zum Zwecke der Erörterung
soll jedoch das Netzwerk dahingehend idealisiert sein, daß jede mögliche Vielzahl von Verbindungen zwischen
einer Eingangs- und einer Ausgangsstation durch ein einziges als Mnemonder bezeichnetes Übertragungselement, ersetzt
wird, das die Auswirkung der gesamten Information, die von der Eingangsstation j in der S-Bank auf die Ausgangsstation
i in der R-Bank übertragen wird, logisch zusammenfaßt. Wie die Fig. 6 zeigt, ist jede der N
Eingangsstationen mit jeder der N Ausgangsstationen durch jeweils ein Übertragungselement © verbunden. Die Summierer
arbeiten in der Weise, daß die Antwort oder das Signal an jeder Ausgangsstation beispielsweise das Signal i des
Antwortsignalsatzes R also das Antwortsignal r-, aus den Eingangssignalen s. an allen Eingangsstationen für die
J
Signalverteilung S gemäß der Beziehung
Signalverteilung S gemäß der Beziehung
ri ~~ .L. A- . s . gebildet wird,
3-1 1J 3
wobei A.. die Übertragungsfunktion des ij-ten übertragungselements oder Mnemonders ist. Dies ist die grundlegende Beziehung, die den Einfluß der Eingangssignale in (dem EingangsSignalraum) S auf die Antwortsignale
wobei A.. die Übertragungsfunktion des ij-ten übertragungselements oder Mnemonders ist. Dies ist die grundlegende Beziehung, die den Einfluß der Eingangssignale in (dem EingangsSignalraum) S auf die Antwortsignale
50985 1 /0806
- 28 -
A 15 519 -Οβ-
in (dem Satz von Auagangsantwortsignalen) R beschreibt.
Obwohl ein befriedigendes Funktionieren der Nestor-Baugruppe eine derart spezielle Annahme nicht erfordert,
(d.h.: r- muß nicht eine lineare Punktion aller N Ein gangssignale
sein), erleichtert es die Einfachheit dieser Beziehung, die Ereignisse in einer explizierten analytischen
Form anzugeben.
B. Verknüpfende (assoziierende) Abbildung, Speicherwirkung und logisch· Prozesse.
Die Erfalmng und der Gedächtnis inhalt der Nestor-Baugruppe
werden in internen Abbildungen der Form A gespeichert. Im Gegensatz einer üblichen Speichereinrichtung,
die lokal speichert (ein Ereignis wird an einem speziellen Speicherplatz gespeichert), und nach Speicherplätzen
adressierbar ist, (was etwas zu Inhaltsverzeichnissen oder Ordnern Äquivalentes erfordert), ist das
Gedächtnis (der Speicher) der Nestor-Baugruppe verteilt und nach Inhalt oder Verknüpfung (Assoziation) adressierbar.
Es soll im folgenden gezeigt werden daß die Abbildung A die Eigenschaften eines Speichers haben kann, der nicht
lokal speichert, nach seinem Inhalt adressierbar ist und bei dem "Logik" ein Ergebnis von Verknüpfung und eine
Folge der Beschaffenheit des Speichers selbst ist.
Die Abbildung A läßt sich am einfachsten auf der Basis der abgebildeten Vektoren angeben, die das System verarbeitet
hat. Nach einem bevorzugten Algorithmus kann A definiert werden durch die Beziehung
A = l·* c/UV r' χ S^
- 29 50985 1 /0806
A 15 519 <J
in der die entsprechenden Sätze von Antwortsignalen auf dae
•y-te uni/*-tö Kreigiua äv und ef1 jeweils r^ und
r/1* sind und der Parameter c,uV den Koppelungskoeffizienten
zwischen denV-ten Eingangssignalen s^ und den yu-ten
AntwortSignalen τ/1 bedeutet. Wie aus dem folgenden
hervorgehen wird, wächst der Koeffizient c normalerweise mit der Zeit an, wenn aufeinanderfolgende Ereignisse
e auf die Ein-gangssignale s abgebildet, werden.
Das ij-te Element der Abbildung A beschreibt die Wirkung des Übertragungselements zwischen dem in der S-Bank auftretenden
Eingangssignal s· und dem Antwortsignal r· in der R-Banl
ergibt sich:
ergibt sich:
in der R-Bank. Wenn nur s. von Null verschieden ist,
ri -
«£-» η λ iv) τ· / a y
wegen Α±^ » ^cyuv Γ±/ s^
ist die Wirkung des ij-ten Übertragungselements aus der
gesamten Erfahrung des Systems zusammengesetzt, die sich in dem mit diesem Übertragungselement verknüpften Eingangs-
und Ausgangssignalen wiederspiegelt. Jede Erfahrung oder Verknüpfung (yuV) wird jedoch über die gesamte
Anordnung der NxN Übertragungselemente verteilt gespeichert.
Hierin liegt die wesentliche Bedeutung eines verteilten Speichers. Jedes Ereignis wird über einen großen Teil des
Systems verteilt gespeichet, während an einem bestimmten Ort zahlreiche Ereingnisse überlagert sind.
-30-
509851/0806
A 15 519
30 _2&2_4734
1. Erkennung und Erinnerung
Das grundsätzliche Problem, das sich bei einem verteilten Speicher stellt, die die Adresse und die Genauigkeit des
Abrufs der gespeicherten Ereignisse. Es soll zunächst der Diagonalanteil (A) diagonal der Abbildung A betrachtet
werden, der folgendermaßen definiert ist:
(A) diagonal =*$? =JLj ολΛ) r χ s
Ein willkürliches, auf die EingangsSignaIe abgebildetes
Ereignis e wird in R das Antwortsignal
r = As
erzeugen.
Wenn Erkennung mit der Stärke dieses Antwortsignals r, etwa dem Wert
N
(r, r) ä Σ r?
(r, r) ä Σ r?
(des Skalaprodukts des Vektors r mit sich selbst, d.h. des Quadrats der Länge von r) gleichgesetzt wird, dann
wird die Abbildung A zwischen solchen Ereignissen, die sie enthält (den sv,ν = 1,2,...,k) und anderen Ereignissen,
die von diesen "getrennt" sind, unterscheiden können.
Das in diesem Zusammenhang benutzte Wort "getrennt" erfordert hier eine genauere Definition. Nach einer
von J.A. Anderson, Math.Bio-sciences 8, 137 (1970) bei der Analyse eines verteilten Speichers angestellten
Betrachtung wird angenommen, daß die Vektoren sv voneinander
unabhängig seien und den Forderungen genügen, daß im Mittel
- 31 -
S09851/0806
A 15 519 M
N N19
Σ sV = O und Σ {β*Γ = 1 gelte.
Zwei solcher Vektoren weisen jeweils Komponenten auf, die im Verhältnis zueinander zufällig verteilt sind,
so daß ein neuer Vektor s, der der oben definierten ErkennungsoperationH, dargeboten wird, zu einer rauschähnlichen
Antwort führt, da im Mittel (s"^, s) klein ist.
Die Darbietung eines zuvor wahrgenommenen Eingangs signalvektors, etwa s^ , führt jedoch zu der Antwort
+ Rauschen
Es wird dann gezeigt, daß man zu vernünftigen Signal/ Rausch-Verhältnissen gelangt, wenn die Zahl k der
eingeprägten Ereignisse klein im Vergleich zu N ist.
Wenn getrennte Ereignisse als solche definiert werden,
ι ρ die auf orthogonale Vektoren s , s ,....sk abgebildet
werden, dann iat zweifelsohne eine aus k orthogonalen
12 k
Vektoren s , s ,....s aufgebaute Erkennungsmatrix
Vektoren s , s ,....s aufgebaute Erkennungsmatrix
vii C\)V rV x 3^ in der
12 k zwischen den enthaltenen Vektoren s , s ,....s und
allen von diesen getrennten (zu diesen senkrecht verlau fenden) Vektoren zu unterscheiden.
Des weiteren ist die Antwort der Erkennungsproportion ?£
auf einen zuvor gespeicherten Vektor eindeutig und völlig exakt gegeben durch
- 32 -
50985 1/0806
A 15 519
In diesem speziellen Pall speichert der verteilte Speicher
ebenso genau wie ein Speicher mit örtlich festgelegten Speicherplätzen.
Darüberhinaus kann ein verteilter Speicher, wie von H.C. Longuet-Higgins, Proc.R.Soc.Lond.B., 171,327 (1968)
ausgeführt worden ist, die interessante Eigenschaft besitzen, daß ein vollständiger Antwortvektor r^ abgerufen
wird, auch wenn nur ein Teil des Eingangssignalvektors
s* dargeboten wird. Dies ist auch bei dem hier behandelten verteilten Speicher der Fall.
Es sei sÄ = s* + s£
Wenn nur ein Teil von s , etwa S1 dargeboten wird, so
erhält man
$s* » c^ (s^, s|)r^ + Rauschen.
Das Ergebnis ist dann, mit einem verminderten Koeffizienten,
die vollständige Antwort wie auf den gesamten Vektor s , plus Rauschen.
2. Verknüpfung (Assoziation)
Die Darbietung des Ereignisses e , das den Vektor s erzeugt, führt zu einer Erkennung und Erinnerung, wenn
gilt:
■λ \) Ό τ-*
Ms = er + Rauschen.
Dann können die Nicht-Diagonalglieder
nicht-diagonal -Jf- /U f=V" au1*' x s
- 33 -
5098 51/0806
A 15 519
(Das ZeichenJi soll "Assoziation" bedeuten) dahingehend
interpretiert werden, daß sie zu einer Verknüpfung anfänglich voneinander getrennter Ereignisse führen.
v>
/1
für welche (s ,s ) = 0 gilt.
Denn wegen solcher Gleider wird die Darbietung des Ereignisses ev nicht nur den Vektor r^ erzeugen (was gleich
bedeutend mit der Erkennung des Ereignisses e^ ist) sondern
auch (vielleicht schwacher) den Vektor r/u, der bei der Dar
bietung des Ereignisses e/u entstehen sollte. Wenn beispielsweise
der Antwortsignalvektor r/ eine bestimmte Antwort einleitet(ursprünglich eine Antwort auf das Ereignis
e/u), dann wird auch die Darbietung des Ereignisses eV diese Antwort einleiten, wenn c/uv* 0 ist,
Die Verknüpfungs- (Assoziations-)-Matrix kann daher wie
folgt angegeben werden:
mit "&= (A) diagonal = J] cvv r^ χ
~ V
(Erkennung)
= (A) nicht-diagonal = Σ c
yuV r/^ χ s (Verknüp-7
fung)
Die Koeffizienten c _ . , dann die "direkten" Erkennungsund
Verknüpfungskoeffizienten.
- 34 -
509851/0806
A 15 519 - 34 -
3. Verallgemeinerung
Im praktischen Erfahrungsbereich wären die Ereignisse, denen das System ausgesetzt wurde, im allgemeinen nicht
sehr deutlich getrennt oder in einem statistischen Sinne unabhängig voneinander. Es gibt daher keinen Grund,
zu erwarten, daß alle Vektoren sv , die der Abbildung A
aufgeprägt werden, orthogonal zueinander oder sehr weit voneinander entfernt wären. Vielmehr ist es wahrscheinlich,
d£ oft zahlreiche solcher Vektoren nahe beieinander liegen. Unter solchen Umständen kann ein verteilter
Speicher, wie er in der Abbildung A enthalten ist, verwirrt werden und Fehler machen. Er wird Ereignisse "erkennen"
und "zuordnen", die in Wirklichkeit nie zuvor wahrgenommen oder miteinander veknüpft worden sind.
Zur Veranschaulichung sei angenommen, daß das System einer Klasse von nicht-getrennten Ereignissen (e ...e j : Ie06J ausgesetzt
worden ist, die auf den k Vektoren [s ...s j : {s^l
abgebildet werden. Die Nahe der abgebildeten Ereignisse kann in einem linearen Raum mit Hilfe des Begriffs der
"Gemeinsamkeit" ausgedrückt werden. Die Gemeinsamkeit eines Satzes von Vektoren, wie die der obengenannten
Klasse {s0^ soll als die untere Grenze des inneren Produkts
(su, s ) zweier beliebiger Vektoren dieses Satzes definiert
sein. Speziell ist die Gemeinsamkeit cts01"] eines Satzes
von Vektoren gleich dem Wert P , d.h. C[S04J=T, wenn Γ
die untere Grenze von (su, s ) für alle su und s ausis
ist.
Wenn jede Darbietung eines Ereignisses zu einem Beitrag eines Elementes der Form CyVr χ s zu A (oderfö) führt,
dann ist die Antwort auf ein Auftreten des Vektors s aus dieser Klasse, d.h. wenn su £,{3°^ ist,gegeben durch
- 35 509851/0806
A 15 519 -
_ _7 V/ V Uv u
- r -^,c^r \s , s )- cr
mit (sV, su)>P
Wenn Γ groß genug ist, so wird sich deswegen das Antwortsignal
auf su nicht deutlich von demjenigen auf einem anderen Vektor s aus der Klasse (s0^unterscheiden.
k+1 Wenn dem System ein neues Ereignis e , das zuvor noch
nicht wahrgenommen worden ist, dargeboten wird und dieses Ereignis der Nahe der anderen aus der Klasse <*.
liegt, (Beispielsweise sei angenommen, daß das Ereig-
k+1 k+1
nis e auf dem Vektor s abgebildet wird, der ein Element der Gemeinsamkeit [s^ist), dann wird gemäß 1Rs
ein Antwortsignal erzeugt, das von demjenigen nicht zu verschieden ist, das für einen der Vektoren su ijiß^
k+1 erzeugt wird. Daher wird das Ereignis e erkannt werden, obwohl es zuvor nicht wahrgenommen worden ist.
Dies stellt natürlich möglicherweise einen gravierenden Irrtum dar. Denn der Assoziativ-Speicher erkennt und ordnet
dann Eigenschaften Ereignissen zu, die in dieselbe Klasse wie bereits erkannte Ereignisse fallen. Wenn die Vektoren
s der Klasse in Wirklichkeit von der Form
s = s° + η sind,
wobei der Rauschanteil η zufallsverteilt variiert, dann wird der Anteil s gegebenenfalls deutlicher erkannt
werden als irgendeiner der tatsächlich dargebotenen speziellen Vektoren sv.
- 36 -
50985 1/0806
A 15 519
Auf diese Weise kann beispielsweise ein wiederholt auftretendes Signal aus dem Rauschen herausgeholt werden.
Hier ist explizit etwas verwirklicht, was in freier Ausdrucksweise als "Logik" bezeichnet werden könnte selbstverständlich
aber durchaus nicht logisch ist. Vielmehr könnte das, was eintritt, als das Ergebnis
einer eingebauten Anweisung zur Verallgemeinerung beschrieben werden. Der verknüpfende (Assoziativ-)-Speicher
führt seinem Wesen nach den Schritt
s° + u , s° + u f...,s°+u —»s° aus,
der in Worten als Übergang vom Speziellen (z.B. Katze 1, Katze 2, Katze 3···.) zum Allgemeinen ("Katze") beschrieben
werden kann.
Wie schnell dieser Schritt ausgeführt wird, hängt (wie aus dem nächsten Abschnitt ersichtlich sein wird)
von den Parametern des Systems ab. Durch Änderung dieser Parameter ist es möglich, Abbildungen zu konstruieren,
die sich von solchen, die alle dargebotenen Einzelheiten bewahren, zu solchen umwandeln, die die Einzelheiten
verlieren und nur gemeinsame Elemente, die zentralen Vektoren jeder Klasse, beibehalten.
Zusätzlich zu Fehlern bei der Erkennung macht der verknüpfende (Assoziativ-)-Speicher auch Fehler bei der Verknüpfung.
Wenn beispielsweise alle (oder mehrere) Vektoren der Klasse {s°^mit einer ziemlich großen Gemeinsamkeit mit
einem speziellen Antwortsignalvektor ß verknüpft werden, so daß die Abbildung Ausdrücke der Form
K,
Ω V
4.jCflV>
r*3 χ s mit cm £ 0 für zahlreiche
V= 1,2 ...k
k+1 enthält, dann wird ein neues Ereignis e , das wie im vori-
k+1 gen Beispiel für den Eingangssignalvektor s abgebildet
509851/0806
- 37 -
A 15 519
wird, nicht nur erkannt werden, weil (IRs + , 3ls + )
groß ist, sondern wird auch in derselben Stärke wie irgendein Vektor aus {s^mit dem Antwortsignalvektor r^
gemäß
A = sk+1 = er/9
verknüpft werden.
Wenn Erkennungsfehler zu dem in Worten als Übergang
vom Speziellen zum Allgemeinen bezeichneten Vorgang führen, so könnten Zuordnungsfehler als Übergang von
Einzelheiten zu einer universellen Aussage beschrieben
1 2 werden, derart: Katze miaut, Katze miaut,... ·} alle
Katzen mi au en.
Es gibt selbstverständlich keine "Rechtfertigung11 für
diesen Vorgang. Er vollzieht sich als eine Folge des Aufbaus des Systems. Welche Wirksamkeit es entfaltet,
wird von dem Zustand der Umwelt abhängen, in der sich das System selbst befindet.
Durch eine Folge von Abbildungen der obigen Form (oder durch Rückkopplung des AusgangsSignaIs der Abbildung
A auf sich selbst) erhält man ein Geflecht von Ereignissen und Verknüpfungen:
\^£ * USW.
das sowohl reichhaltig als auch suggestiv ist. Man erkennt leicht die Möglichkeit, daß der Verlauf elektrischer Aktivität
sowohl durch interne Abbildungen der Form A als auch durch die äußere Signaleingabe beeinflußt wird.
- 38 509851 /0806
A 15 519 ^° - 36 -
Dieser Verlauf wurd nicht nur durch direkte Verknüpfungs-(Assoziations-)-Koeffizienten
c , (die, wie im folgenden beschrieben wird, explizit erlernt werden können) bestimmt, sondern auch durch die indirekten Verknüpfungen
als Folge einer Überlappung der abgebildeten Ereignisse, wie es in der Fig. 7 angedeutet ist. Zusätzlich
ist leicht vastellbar, daß es Situationen geben könnte, in denen der direkte Zugriff zu einem Ereignis
oder einer Klasse von Ereignissen verlorengegangen ist ^0TS" = ö in Pig· 7), während das Vorhandensein dieses
Ereignisses oder der Klasse von Ereignissen in A trotzdem den Verlauf elektrischer Aktivität beeinflußt.
4. Trennung von Vektoren
Jeder Zustand in einem verteilten Speicher ist im allgemeinen eine Überlagerung verschiedener Vektoren. Es
muß daher ein Mittel gefunden werden, mit dessen Hilfe Ereignisse (oder Gebilde, auf die sie abgebildet werden)
voneinander unterschieden werden können. Hierzu gibt es verschiedene Möglichkeiten,:
Es ist durchaus nicht schwierig, sich nicht-linear arbeitende
oder Schwellenwert-Einrichtungen vorzustellen, die einen Vektor von einem anderen trennen würden. Aber
das Auftreten eines Vektors der Klasse {s°iführt in
einem verteilten Speicher zu einem Satz von Antworten, die über eine große Zahl von Antwortsignalen r · verteilt
sind, deren jedes weit von dem Schwellenwert entfernt ist. Ein grundlegendes Problem besteht daher darin, auf welche
Weise der Schwellenwert einer einzigen Antwort mit einem solchen verteilten Signal in Verbindung gebracht werden
kann. Wie dies geschehen könnte, wird in einem späteren Abschnitt beschrieben werdgi.
- 39 50985 1/0806
A 15 519
Zusätzlich zu dem Auftreten solcher Schwellenwert-Ausgangssignale läßt sich in gewissem Umfang eine Trennung
dem System eingegebener Signale durch eine tatsächliche Bestimmung derjenigen Bereiche erreichen, in denen diese
Signale auftreten. Beispielsweise könnten optische und akustische Signale einer umfangreichen Verarbeitung unterzogen
werden, bevor sie tatsächlich in einer Nestor-Baugruppe zusammentreffen.
Es ist möglich, die Identifizierung optischer oder
akustischer Signale (als optisch oder akustisch) zuvor stattfinden zu lassen; Verknüpfungen zwischen einem
optischen und einem akustischen Ereignis könnten dann anschließend in einer zweiten Verarbeitungsstufe, die
von der Antwortbank R zu einer zweiten Antwortbank H führt, stattfinden, wie es in der Fig. 8 angeregt ist.
C. Abänderung der Baugruppe, Lernen
Das ij-te Element A-. der verknüpfenden Abbildung A
J- j
1, - Σ c r/u S^ (1)
J /uv /uv '' J
ist eine gewichtete Summe über die 3-!Componenten aller
abgebildeten Signale (Eingangssignalvektoren) s und die i-Komponenten
der Antwortsignalvektoren r/u die für eine Erinnerung und Zuordnung geeignet sind.
Eine solche Abbildung kann beispielsweise dadurch erreicht werden, daß der Gewichtungsfaktor eines jeden
Übertragungselements so eingestellt wird, daß sein Wert gleich dem entsprechenden oben angegebenen Element
A- · ist. Dies ist die einfachste Art, in der die Neator-Baugruppe
betrieben werden kann.
-40-50985 1 /0806
A 15 519 - Λ» -
Eine äußerst wichtige Eigenschaft der Nestor-Baugruppe
ist ihre Fähigkeit zur Selbstabänderung. Wenn die Nestor-Baugruppe in einem Lezrbetriebszustand arbeitet, so ändert
sie die Gewichtungsfaktoren ihrer Übertragungselemente so ab, daß (abgesehen von einer später noch beschriebenen
gleichförmigen Abnahme) gilt:
SA. . ~r,s (2),
J-J -1- J
Diese Änderung 6a. . ist zu dem Produkt aus dem Eingangssignal
s. und dem Antwortsignal r. proportional. Abän-
j J-
derungen der Gewichtungsfaktoren, die nur zu dem Eingangssignal s . oder zu einem unmittelbar am Ausgang eines
Übertragungselemente auftretenden Zwischensignal s.f pro-
portional sind, sind ebenfalls möglich, jedoch führen solche Abänderungen nicht zu den verschiedenen, hier
behandelten Eigenschaften. Das Hinzufügen solcher, durch die obige Proportionalität (2) angegebener Änderungen in
A für alle Verknüpfungen r/0' χ s führt ebenfalls zu einer
Abbildung mit den im vorhergehenden Abschnitt behandelten Eigenschaften.
Um eine Abänderung der Gewichtungsfaktoren A.. gemäß
6A^r/U χ sV (3)
durch einen Selbstabänderungsvorgang der Nestor-Baugruppe
zu erreichen, sollte die Signalverteilung s in der S-Bank und die Signalverteilung s/u in der R-Bank der Nestor-Baugruppe
vorhanden sein, wobei die Eingabe der Signalverteilung s^ durch die Eingangsabbildung P des Ereignisses
e^ erfolgt.
- 41 -
509851/0806
A 15 519 -JA-
Bei dem als"aktives Lernen" bezeichneten Vorgang kann der
Nestor-Baugruppe ein Eingangssignal s^ dargeboten und
die Nestor-Baugruppe "gezwungen" werden, ein "konkretes"
Antwortsignal, etwa r , abzugeben. Dies kann beispielsweise mit einer Einrichtung der in Pig. 9 dargestellten
Art erreicht werden, bei der die erwünschten Antwortsignale r1 A, r2A'* * *riA'*" * *rNA an die AusSangS3'ta'tionen
1, 2,....,j,....,N angelegt werden können, um die Antwortsignale
r.., r2, ...r-,....rN dadurch zu zwingen, diese
erwünschten Werte anzunehmen. Da die Ausgangssignale
in der Nestor-Baugruppe zur Abänderung der Elemente A.· nach der obigen Proportionalität (2) d.h., gemäß <JA· ·= χ.
(wo i\ eine Proportionalitätskonstante ist) benutzt
werden, baut die Nestor-Baugruppe bei wiederholtem Anlegen der Eingangssignale s* sehr schnell eine detaillierte
und genaue Erinnerung des Antwortsignalvektors r an den EingangsSignalvektor s* auf.
Der Begriff "aktives Lernen" beschreibt auch eine Art des Lernens, bei der eine Antwort des Systems auf einen Satz
von Eingangssignalen mit einer erwarteten oder erwünschten
Antwort verglichen und als korrekt oder inkorrekt beurteilt wird. Wenn in diesem Fall dem System ein Eingangssignal
s^ dargeboten wird, kann die hierauf gegebene Antwort r/U des Systems mit der "richtigen Antwort" rü
verglichen werden, und es können die Elemente A-· zu einer schrittweisen Änderung in einer Richtung veranlaßt
werden, die zu einer näher bei r'J liegenden Antwort
führen würde, wenn das Eingangssignal s'*' erneut angelegt
werden würde.
Es ist offensichtlich, daß bei einem aktiv lernenden System deaaen Bedienungsperson die richtige Antwort r auf die
verschiedenen EingangssignaIe s kennen muß. Die Nestor-Baugruppe
ist jedoch noch einer weiteren, als "passives Lernen" bezeichneten Betriebsart fähig, die kein Ein-
- 42 50985 1 /0806
A 15 519 -
greifen einer Bedienungsperson erfordert. Insbesondere ist die Nestor-Baugruppe in der Lage, Merkmale der Umgebung,
der sie ausgesetzt ist, zu identifizieren, zu erkennen, abzurufen, zu verallgemeinern oder zu verknüpfen,
selbst wenn keine vorhergehende Analyse oder Identifizierung dieser Merkmale der äußeren Umgebung durchgeführt
worden ist. Bei dieser Art des Lernens muß die Bedienungsperson nicht einmal Kenntnis von den wesentlichen
Merkmalen der Umgebung besitzen, die von der Nestor-Baugruppe ermittelt und verarbeitet werden sollen.
Um einen Algorithmus zu erhalten, der einen passiven Lernprozeß erzeugt, wird ein Unterschied zwischen der Bildung
einer internen Darstellung von Ereignissen der Außenwelt einerseits und der Erzeugung einer Antwort auf dieses
Ereignis, die mit dem verglichen wird, was in der Außenwelt erwartet oder erwünscht ist, andererseits,
benutzt.
Der einfache aber wesentliche Grundgedanke besteht darin, daß die interne elektrische Aktivität, die in einer bestimmten
Baugruppe das Vorhandensein eines äußeren Ereignisses anzeigt, nicht notwendig dieselbe elektrische
Aktivität ist, die in einer anderen Baugruppe das Vorhandensein desselben Ereignisses anzeigt. Es gibt nichts, was
erfordern würde, daß dasselbe äußere Ereignis durch verschiedene Baugruppen auf dieselben Signalverteilungen gebildet
werden müsse. Ein Ereignis, das durch die eine Baugruppe auf die Signalverteilungen r und s abgebildet
wird, kann in einer anderen Baugruppe auf die Signalverteilungen r1^ und s1^ abgebildet werden. Was gegebenenfalls
für eine Übereinstimmung zwischen Baugruppen hinsichtlich ihrer Beschreibung der Außenwelt erforderlich ist, ist nicht, daß die
abgebildeten elektrischen Signale identisch sind, sondern
- 43 509851/0806
A 15 519 - -43 -
vielmehr, daß das Verhältnis der Signale zueinander und zu Ereignissen in der Außenwelt dasselbe sein
muß. Die Pig. 10 zeigt dieses Prinzip in grafischer Form:
1. Passives Lernen Es sei mit A^ ' die Α-Matrix (d.h.
der Satz der A- 's) nach der Darbietung von t Ereignissen (im"Zeitpunkt" t) bezeichnet:
A(t) =yA(t-D +6A(t) mit
In dieser Gleichung bezeichnetη , wie oben erwähnt, eine
Proportionalitätskonstante, undy eine dimensionale
"Zerfallskonstante", die ein Maß für die gleichförmige Abnahme von Information an jeder Stelle ist, (eine Art
Vergessen). Gewöhnlich gilt 0 <,£<. 1 .
Des weiteren wird ein Parameter £als derjenige Wert in »£
eingeführt, den ^ annimmt, wenn die Eingangssignalvektoren
s nominiert sind.
Der Parameter 6, der ein Maß für die Geschwindigkeit ist,
mit der Veränderungen an den Α-Matrizen vorgenommen werden (also eine Art der Lerngeschwindigkeit), wird in
Modellrechnungen für nominierte Eingangssignalvektoren
t ■ c
s benutzt werden. Die Werte der Parameter tf,% und «^
können nach dem Ermessen des Benutzers eingestellt werden, um erwünschte Systemeigenschaften zu erzielen. Beispielsweise
könnten während einer Periode der Informationsaufnahme (Lernen oder Programmieren) 7? oder £. etwas größer
als 0 (z.B.17 ps£cr ^0) und g* etwas kleiner als 1 sein (z.B.
B0985 1 /0806
A 15 519 -M-
)f ~ 9/io) t so daß das System Information rasch aufnehmen
und Einzelheiten vergessen wird. Nach der Aufnahmeperiode kann es zweckmäßig sein, I^ = £. = 0 undy~1 zu setzen,so daß das
System nicht langer "lernen" sondern für eine beliebige Zeitspanne alle Information, die es aufgenommen hat,
speichern wird.
Bei einer in Betrieb befindlichen Baugruppe ist diese Speicherzeit durch die Zeitkonstantencharakteristik der
Schaltkreise bestimmt. Aus Gründen der Wirtschaftlichkeit
oder der Zweckmäßigkeit können die Zeitkonstanten so gewählt werden, daß eine Speicherung für Zeitspannen
in der Zeit von Minuten bis Stunden möglich ist. Pur eine längere Speicherung könnte man unter solchen Umständen
den Inhalt des verteilten Speichers (beispielsweise die Werte der A- .) in einen Pufferspeicher übertragen
und bei Bedarf zurückübertragen.
Im allgemeinen vergißt ein System, bei dem £<1 ist,
Einzelheiten, hat aber eine größere Fähigkeit zur Verallgemeinerung. Es zeigt sich, daßjf-Werte, die wenig
kleiner oder gleich 1 sind, von größtem Interesse sind.
Um zu verhindern, daß das System in einen Sättigungszustand gelangt, ist es auch zweckmäßig, die Abänderungen
klein zu machen (η = O zuzulassen), wenn das Ausgangssignal
r=As ein bestimmtes Maximum überschreitet, d.h. wenn (r,r)=(As,As^bestimmtes Maximum.
Im folgenden sollen alle Vektoren nominiert sein, d.h. (s, s) = 1, so daß £ nunmehr als konstant dimensionslos
angenommen werden soll.
Wenn nun das Antwortsignal durch
r*= JfA^ 's +rR + r* gegeben ist,
5098S1/D806
- 45 -
A 15 519 - 4-5 -
so erkennt man, daß das gesamte Antwortsignal aus
3 Termen zusammengesetzt ist: einem passiven Antwortet—
1) t
teil ifAv 's , einem aktiven aber statistisch variierenden Term rR und einem aktiven Antwortteil r.. Pur rein passives Lernen soll nur der erste Term betrachtet werden, so daß
teil ifAv 's , einem aktiven aber statistisch variierenden Term rR und einem aktiven Antwortteil r.. Pur rein passives Lernen soll nur der erste Term betrachtet werden, so daß
£A(t) -gr* χ β* =e)TA(t-1)st χ st ist.
Hier sind die Antwortsignale gerade diejenigen, die durch
(t—1)
die existierende Abbildung Av ' erzeugt werden, wenn
der Vektor s in S auf R abgebildet wird, gemäß: Der Algorithmus für passives Lernen lautet dann:
A(t) β A(t-i)(^at x st)
wobei im allgemeinen £ wesentlich kleiner ist als 1.
Bevor irgendwelche äußeren Ereignisse dargeboten worden sind, hat A die Form A*° , die zufällig sein kann. Die
Auswirkung von A^ ' auf die interne Abbildung wird im
folgenden untersucht werden.
Nach diesem Algorithmus hat A nach k Ereignissen die Form:
V= 1
wobei TT ein geordnetes Produkt ist, bei dem die Paktoren
mit niedrigeren Indizes links stehen.
TT0 s(V) = s(1) s(2) s(k).
- 46 -
509351 /0806
A 15 519 - 46 -
Dies kann auch in der Form geschrieben werden: A(k) =tfkA(o)[n£| sVx s*+i2Σ s v x
....+tV χ sk (β1, s2)(s2, s3)(s3, s4)..(sk-1'ak)]
Der Algorithmus für passives Lernen erzeugt auf einen auftretenden
Eingangssignalvektor sv, sein eigenes Antwortsignal A^°'sv , das über A^0' von dem ursprünglichen Zustand
des Netzwerkes und von dem für das Ereignis e^ eingegebenen
Eingangssignalvektor sv abhängt. Wenn beispielsweise sv der einzige dargebotene Vektor ist, so nimmt A
gegebenenfalls die Form Arvrvx sv an
mit pv» A(o)sv
2, Spezialfalie von Αϊ Es soll nun die Form von A für
vierschiedene Spezialfälle dargelegt werden; in allen diesen Fällen wird £ als konstant und klein vorausgesetzt.
a) Wenn die k Vektoren orthogonal sind, wird A: A(k) ^k (a(o)+£a(o) ^8Vx
Mit A^°^sV= rV nimmt der zweite Term die Form des Diagonalanteils
von A an, gemäß
(A) diagonal =&= Σ r^x &
~ V = 1
1 k und wird zur Erkennung der Vektoren s s dienen.
(Zu besaiten ist dabei, daß die zugeordneten Vektoren r
nicht von vornherein gegeben sind, sie werden durch das Netzwerk erzeugt).
50 9851/0806
A 15 519
Wenn £. jedoch klein ist, könnte dies ungeeignet für die
Erkennung sein, da der Erkennungsterm schwach ausgeprägt
wäre. Weiter wird es gewöhnlich zweckmäßiger sein, wenn die Erkennung so eingerichtet ist, daß sie nur dann stattfinden
kann, wenn dasselbe Ereignis mehrfach dargeboten worden ist.
b) Das folgende Beispiel zeigt, daß der Algorithmus für passives Lernen bei wiederholt auftretenden Eingangssignalen desselben Ereignisses Erkennungskoeffizienten
sogar mit exponentieller Geschwindigkeit aufbaut. Wenn derselbe Vektor s°X-mal dargeboten wird, wird A schließlich
C0 ^ίΑ(ο) (1 + eXi 3° χ s°).
A ^
Wenn £ groß genug ist, daß e »1 ist, so wird der Erkennungsterm
schließlich dominieren. Wenn e groß genug ist, kann es wünschenswert sein, den Wert von E so einzustellen,
daß kein weiteres Anwachsen eintritt. Das kann dadurch erreicht werden, daß £. zu einer Punktion des Antwortsignals
auf einen Eingangssignalvektor gemacht wird, derart, daß jenseits eines gewissen Maximalwerts kein weiteres
Anwachsen des Koeffizienten mehr stattfinden kann.
c) Die L,£p,.....£ -malige Darbietung von m orthogonalen
Vektoren führt zu einer einfachen Verallgemeinerung des zweiten Ergebnisses. Wenn^der Einfachheit halber gleich
1 gesetzt wird, ergibt sich:
was gerade einer isolierten, zuordnenden Erkennungs- und
- 48 -
5098b 1 /08Ü6
A 15 519
Abrufmatrix ,, ^
m cvv r χ s entspricht,
wenn
e*v£ = cvv» r ist.
d) Ein Teil der Wirkung der Nicht-Orthogonalität kann
dadurch dargelegt werden, daß das Ergebnis eines Eingangssignals berechnet wird, das aus/mit Rauschen behafteten
Vektoren besteht, die zufällig um einen zentralen Vektor s verteilt gemäß
V ο V
s=s + η
s=s + η
ir bedeute hier einen "stochastischen Vektor" (d.h. einen Vektor, der regellos variiert), dessen Größe verglichen
mit derjenigen von s° gering ist.
Dann ergibt sich,
1+e s° χ s ) wenn
η die mittlere Größe von n^ ist. Man erkennt, daß das
(9)
erzeugte AV/W mit dem zusätzlichen, durch das Rauschen bedingten Faktor gerade in der für die Erkennung von s° geeigneten Form ist. Das wiederholte Darbieten eines mit Rauschen behafteten Vektors der obigen Form führt somit zu einer internen Abbildung die den zentralen Vektor s erkennt. Dies wiederum bietet eine Möglichkeit, ein Signal vom Raumschen zu trennen.
erzeugte AV/W mit dem zusätzlichen, durch das Rauschen bedingten Faktor gerade in der für die Erkennung von s° geeigneten Form ist. Das wiederholte Darbieten eines mit Rauschen behafteten Vektors der obigen Form führt somit zu einer internen Abbildung die den zentralen Vektor s erkennt. Dies wiederum bietet eine Möglichkeit, ein Signal vom Raumschen zu trennen.
3. Struktur des abgebildeten Raumes; Die Gemeinsamkeiten oder getrennten Klassen des äußeren Ereignisraumes E oder
des Eingangssignalraumes S werden dieselben sein wie diejenigen
des durch die Abbildung erzeugten Antwortsignalraumes
R, wenn gilt:
- 49 -
5098b 1 /0806
25^4734
mit r = AN ' s
Dies wird der Pall sein, wenn A ' der Bedingung
(A0') A^0^ = I (I= Identitätsmatrix) (4)
genügt oder wenn
VA (ο) Α («Ο -. ■
Z, ij ik ο jk ist mit o^="· für j=k
i=1 =0 für z$k
da dann folgt, daß
(^ Jh _ ^(o)^ A(o) Δ ν _ ,öl j3n
Dies kann leicht eingerichtet werden. Wenn beispielsweise
A^ ' = I gewählt wird, dann ist die Relation (4)
erfüllt, und der S-Raum wird auf sich selbst abgebildet:
Es ist interessant, festzustellen, daß auch eine zufällige
Matrix A^0' im Mittel die Anforderungen (4) erfüllt. Es
sei angenommen, daß A eine zufällige, symmetrische Matrix ist, und die folgenden Bedingungen erfüllt:
N (o)
S A\ ϊϋ für alle j,
Ί "Λ
N ,. , N für 3+k während
N ,. , N für 3+k während
ür o=k
- 50 -
50985 1 /0806
A 15 519 -
Die Bedingung (4) ist somit erfüllt, daher führt eine wie oben definierte zufällige Matrix A^0' zu einem Antwortsignalraum
mit denselben Gemeinsamkeiten und Klassen wie der ursprüngliche Signalraum.
4. Verknüpfung term e
Außer-Diagonalt-erme oder Zuordnungstenne können wie
folgt erzeugt werden:
Es sei angenommen, daß die Matrix A die folgende Form erreicht habe:
A =£ A(o) svx sV = I rvx s°
V=1 v = 1
Es sollen nun die Ereignisse e0*- und e^ so dargeboten
werden, daß sie "verknüpft" (assoziiert) sind, so daß die Eingangssignalvektoren s°* und s^ zusammen auftreten
oder abgebildet werden.(Die exakten Bedingungen, die zu einer solchen gleichzeitigen Abbildung von s** und s^
führen, werden vom Aufbau des Systems abhängen. Die einfachste vorstellbare Situation ist die, daß die Abbildung
in dem Vektor (s0* + s ß ) besteht, wenn die Ereignisse
e0*· und er dem System in einem genügend kleinen
zeitlichen Abstand voneinander dargeboten werden). Es kann angenommen werden, daß die Ereignisse e0*" und eP
getrennt sind, so daß (s0* , s P ) = ο ist. In der S-Bank
liegt dann, wenn der Vektor der Einfachheit halber normiert ist, der Vektor
V 2 vor.
Nach einer solchen Darbietung der Ereignisse e^und e"
erhält man dann für die Matrix A, wenn wieder der Einfachheit halber "^ = 1 gesetzt wird:
- 51 -
50985 1 /0806
A 15 519
Der zweite Term ergibt dann die Verknüpfung zwischen oi.und/3 mit den Koeffizienten
der im allgemeinen (abgesehen von den speziellen Umständen) als kleiner Koeffizient am günstigsten ist.
Wenn s^und s P nicht wieder miteinander verknüpft auftreten
so bleiben die Koeffizienten C01R oder cß^Cobwohl
auch sie anwachsen, wenn 3U oder s β getrennt dargeboten werden)
klein im Vergleich zu den jeweiligen Erkennungskoeffizienten, cog oder
Wenn jedoch der Vektor =wj\ ( s0*' +sr) mehrfach auftritt,
(beispielsweise Jl. - mal erscheint), dann gilt für den Koeffizienten C0^ des Verknüpfungs-Termes
und dieser wird ebenso groß wie der Erkennungskoeffizient.
Mit den vorigen Ergebnissen ist gezeigt, daß der Eingangssignal- und der Antwortsignalraum zusammen mit der Abbildung
die sie miteinander verknüpft, eine Struktur beinhalten, die zu der ursprünglichen Struktur der äußeren Umgebung
oder des Ereignisraumes E analog ist. Das bedeutet folgendes:
(1) Die Klassen oder Gemeinsamkeiten des Antwortsignalraumes R sind dieselben, wie diejenigen
des Ereignisraumes E oder des Eingangssignalraumes S.
(2) Klassen oder Ereignisse, die im Ereignisraum miteinander verknüpft sind (solche die während
einer Lernperiode in Verbindung miteinander auftreten) werden auch im Antwortsignalraum
miteinander verknüpft, so daß das Auftreten eines
50985 1/0806
- 52 -
A 15 519 - 02 -
einzelnen Repräsentanten, der im Ereignisraum E und damit auch im EingangsSigna!raum S miteinander
verknüpfte Klassen oder Ereignisse nach der Lernperiode dazu führt, daß beide Repräsentanten
der miteinander verknüpften Klassen oder Ereignisse auf den Antwortsignalraum R abgebildet
werden, auch wenn es sich um sehr unterschiedliche Arten von Ereignissen handelt.
5. Trennung von Ereignissen - Schwellenwerteinrichtungen;
Im obigen wurden lineare Abbildungen und Räume behandelt. Ein Zustand ist demzufolge im Allgemeinen eine Überlagerung
verschiedener Vektoren. Um die Ereignisse- oder die Signale, auf die sie abgebildet werden - voneinander
zu unterscheiden, kann eine Schwellenwert- oder eine andere nicht-lineare Einrichtung in das System ein-gefügt werden.
Eine Trennung abgebildeter Signale kann mittels einer Bestimmung derjenigen Ereignisbereiche erfolgen, in denen
diese Signale auftreten. Beispielsweise können, wie es in der Fig. 8 dargestellt ist, optische und akustische
Signale einer Verarbeitung in getrennten Baugruppen unterworfen sein, bevor sie tatsächlich in einer gemeinsamen
Baugruppe zusammentreffen. Die Identifizierung optischer
und akustischer Signale würde dann zuerst durch die Baugruppe erfolgen, in die sie anfänglich eingegeben werden.
Verknüpfungen zwischen einem optischen und akustischen Ereignis würden dann erst in der gemeinsamen Baugruppe
zustande kommen.
Ein Ausführungsbeispiel einer Schwellenwerteinrichtung wird im folgenden beschrieben. Da ein Signal in einem
verteilten Speicher über eine große Anzahl von Eingangsund Ausgangsstationen verteilt ist, könnte auch ein starkes
- 53 -
50985 1/0806
A 15 519 -
Signal (mit einem großen s0*- , s^J-Wert aus Komponenten
s^ zusammengesetzt sein, die jeweils recht klein sind.
Ein grundlegendes Problem ist es daher, wie der Schwellenwert einer einzelnen Einrichtung mit einem solchen
verteilten Signal zu verknüpfen ist. Dieses Problem kann dadurch gelöst werden, daß zu der Haupt-Baugruppe, wie
es in der Pig. 11 dargestellt ist, Schwellenwerteinrichtungen T. Tp, .....T^,...Tn hinzugefügt werden. Beispielsweise
gibt die Schwellenwerteinrichtung T. ein
Il ■*■ r| ihres Eingangssignals r. einen vorbestimmten Wert0i, den Signalschwellenwert
der Einrichtung, überschreitet, wenn also gilt:
> Qi
Es ist wichtig, festzuhalten, daß das Anfangs-Eingangssignal
s0*- entweder ein ursprüngliches Eingangssignal aus
dem Ereignisraum E oder auch das Ausgangssignal einer vorgeschalteten
Baugruppe sein könnte.
Eine wiaterholte Eingabe des Eingangssignals s^(Eingangssignalvektors)
führt zu einem Ausgangssignal r^ (Ausgangssignalvektor)
, das nach den obigen Darlegungen exponentiell anwächst. Im Ergebnis wird daher ein willkürliches
aber wiederholt auftretendes Eingangssignal 3°^ schließlich
eine Schwellenwerteinrichtung aktivieren, die auf dieses Eingangssignal ansprechen wird.
Es ist wichtig festzuhalten, daß
(a) das Eingangssignal nicht von vornherein bekannt sein muß,
(b) das Eingangssignal in statistischem Rauschen verborgen sein kann, und daß
- 54 50985 1/0806
A 15 519 - 54 -
(c) auch nicht von vornherein bekannt sein muß, welche Schwellenwerteinrichtung auf das Signal
s06ansprechen wird. (Nach dem angegebenen Algorithmus
bestimmt die stärkste Komponente des Antwortsignalvektors r0^, welche Schwellenwerteinrichtung
anspricht. Durch eine einfache Abänderung könnte eine bestimmte Schwellenwerteinrichtung
auch so ausgestaltet werden, daß sie auf einen bestimmten Signalvektor anspricht.
Mit zusätzlichen Querverbindungen gemäß Pig. 11 läßt sich erreichen, daß die Aktivierung einer einzelnen Schwellenwerteinrichtung
als Antwort auf einen Signalvektor s04"
ein Antwortsignal der weiteren Schwellenwerteinrichtungen auf diesen Signalvektor s00 unt erdrückt. Wenn der Parameter
während der Aufnahmeperiode kleiner als 1 ist, (#<£l) und
s^ die Schwellenwerteinrichtung T. zum Ansprechen bringt,
dann würde das Antwortsignal auf s^ wegen der kombinierten
Wirkung der Abnahme (wegen"^d) und der Unterdrückung
weiterer AntwortSignalkomponenten so abgewandelt werden,
daß nur die i-te Komponente des AntwortSignalvektors r0*
auf den üingangssignalvektor s06wesentlich größer als 0
bleiben würde. In einem Endzustand würde sich dann ergeben:
s* » r, V^ »Ausgangssignal.
Somit könnte eine einzige Schwellenwerteinrichtung (oder so viele, wie erwünscht sind) auf eine bestimmte
Signalverteilung ansprechen.
- 55 -
609351/0806
A 15 519
Zusätzlich ist es zweckmäßig, die mit dem i-ten Schwellenwertelement verknüpften Übertragungselemente
nicht weiter abzuändern (jedoch eine Abnahme der Übertragungsfunktionen
zuzulassen), wenn dieses i-te Schwellenwertelement ein Ausgangssignal erzeugt, das einen bestimmten
Maximalwert überschreitet. Dies kann dadurch erreicht werden, daß die Abänderungen der oben erwähnten Übertragungselemente
für eine bestimmte Anzahl von Ereignissen beendet werden, so oft das Ausgangssignal des Schwellenwertelements
den bestimmten Maximalwert überschreitet.
Wenn einem solchen System während einer Lernperiode getrennte oder orthogonale Signalvektoren dargeboten werden,
so werden die Schwellenwerteinrichtungen mit der oben erläuterten exponent!eilen Geschwindigkeit durch die
verschiedenen Signalvektoren aktiviert werden. Somit würden beispielsweise N orthogonale, wiederholt auftretende
Signale nach einer Lernperiode in N verschiedenen Schwellenwerteinrichtungen ein Antwortsignal erzeugen.
Auf diese Weise könnten die Schwellenwerteinrichtungen lernen, auf wiederholt auftretende Erscheinungen in der
Umgebung zu antworten, auch wenn diese dem Benutzer nicht bekannt wären.
Eine Zuordnung dieser Einrichtungen zu Ausgangssignalen einer vorgeschalteten Baugruppe würde zusätzlich die
Trennung der oben erwähnten Ereignisse oder Vektoren begünstigen.
Schließlich ist aus der oben gegebenen theoretischen Erläuterung der Erfindung festzuhalten, daß die Nestor-Baugruppe
ein äußerst wirkungsvolles Werkzeug für die Informationsverarbeitung darstellt. Insbesondere bietet
509851/0806 -56-
A 15 519 -ν - 96 -
diese Baugruppe Möglichkeiten der Erkennung, Erinnerung, Verallgemeinerung und Verknüpfung im oben definierten
Sinn, ohne daß die Notwendigkeit menschlicher Mitwirkung bei irgendeinem Entscheidungs- oder Lernprozess
besteht. Im folgenden wird eine bevorzugte Ausführungsform der Nestor-Baugruppe beschrieben, bei der zwar nur
gebräuchliche Bauelemente verwendet sind, die sich aber auch für eine Ausführung in bekannter Mikominiatusierungstechnik
anbietet.
Aus den im vorigen gegebenen baulichen und theoretischen
Erläuterungen der Erfindung #ht hervor, daß die Erfindung
auf vielfältige Art und Weise verwirklicht werden kann. Das folgende ist eine Beschreibung einer gegenwärtig
bevorzugten Ausführungsform eines Gerätes, bei dem die Erfindung verwirklicht ist, wobei lediglich
übliche Bauelemente wie Widerstände, Kondensatoren, Dioden und Transistoren bei diesem Gerät benutzt werden.
Es versteht sich jedoch, daß diese bevorzugte Ausführungsform lediglich zum Zwecke der Erläuterung beschrieben
wird und keine Beschränkung des Gegenstandes der Erfindung beabsichtigt sein soll.
Es sei daran erinnert, daß das i-te informationsverarbeitende
Element oder Nouveron einer Nestor-Baugruppe gemäß Fig. 2 N Eingangsstationen 1, 2,....N umfaßt, die zu
N Übertragungselementen oder Mnemondern i1, i2,...iN führen, die ihrerseits mit einem Summierer Ui verbunden
sind, der ein Antwortsignal r. erzeugt. Das ij-te Übertragungselement
weist die Übertragungsfunktion A. . auf,
J d.h. das Ausgangssignal S.* dieses übertragungselemente
J
ist von der Form s.1 =* A-is., wenn s. das j-te Eingangssignal ist, das der Nestor-Baugruppe zugeführt wird.
ist von der Form s.1 =* A-is., wenn s. das j-te Eingangssignal ist, das der Nestor-Baugruppe zugeführt wird.
- 57 509851/0806
A 15 519 ^ - ¥t -
Bei der zu beschreibenden bevorzugten Ausführungsform der Erfindung sei angenommen, daß die, die Information
tragenden Signale s., s-1 und r. in allen Fällen durch
Spannungswerte dargestellt sein sollen. Auch wenn es eine Wiederholung bedeuten sollte, sei nochmals
darauf hingewiesen, daß die Informationssignale auch
durch andersartige Umwandlungen von elektrischen Signalen aus dem realen Ereignisbereich dargestellt werden können.
Beispielsweise können die Informationssignale auch durch Frequenzen (Impulsfrequenzen oder Frequenzen von sinusförmigen
Schwingungen), Impulsbreiten, Ströme, Magnetfelder, Magnetisierungen oder auch eine Kombination
solcher Größen dargestellt werden.
Geht man jedoch davon aus, daß die Informationssignale durch Spannungen dargestellt werden sollen, dann kann die Übertragungsfunktion
A.. als eine "Verstärkung" (teils als tatsächliche Verstärkung, teils als Abschwächung, teils
auch als Vorzeichenwechsel), insbesondere aber als eine "Verstärkung" angesehen werden, die in Abhängigkeit von
dem Eingangssignal s- des Übertragungselements und dem
Ausgangssignal r. des i-ten Nouverons verändert werden
soll. Nach einem bevorzugten benutzten Algorithmus wird die Abänderungsfunktion durch die folgende Gleichung
beschrieben:
Um einen Verstärker zu schaffen, dessen Verstärkungsgrad durch schrittweise Veränderungen eines zuvor gegebenen Verstärkungsfaktorwertes
besteuert wird, ist es notwendig, die Information über diesen Wert des Verstärkungsfaktors
zu speichern und eine weitere Einrichtung vorzusehen, die zu oder von diesem gespeicherten Wert Änderungsbeträge
509851/0806 58~
A 15 519
addiert oder subtrahiert. Bei der bevorzugten Ausführungsform der Erfindung wird die Speicherung durch ein
Bauelement zur Speicherung einer elektrischen Ladung Q, beispielsweise einen Kondensator, erreicht; die schrittweise
Änderung wird daher bei dieser Ausführungsform mittete einer Einrichtung erzielt, die die Ladung Q von O
auf +Qo oder -Q , den Grenzwerten des Spe-icherelements,
ändert.
Die Fig. 12 zeigt das ij-te Übertragungselement 100 des
i-ten Nouverons 102. Von einer Spannungsquelle 104 wird
über eine Leitung 106 eine Spannung V.. an einen Verstärker
108 angelegt, um dessen Verstärkungsfaktor A-· zu steuern.
X J
Der Verstärker ändert daher das an einer Eingangsleitung
110 als Spannungssignal auftretende Eingangssignal a. ab
und erzeugt an einer Leitung 112 (ala Spannungssignal)
eine Ausgangaspannung s-1 = A. -s·.
j J-Jj
Die Spannung V.., die den Verstärkungsfaktor regelt, wird
J
von einer in dem ij-ten Übertragungselement gespeicherten Ladung
von einer in dem ij-ten Übertragungselement gespeicherten Ladung
Q. . abgeleitet und ist daher zu dieser Ladung Q. ■ proporij ·*- J
tional. Die gestrichelten Linie 114 und 116 der Pig. 12
sollen jeweils anzeigen, daß diese Ladung in Abhängigkeit von einem an der Eingangsleitung 110 auftretenden Eingangssignal
s. und einem an der Ausgangsleitung 118 auftretenden
Antwortsignal r. verändert (vergrößert oder vermindert) werden kann. (Die Leitung 116 ist als zu der Spannungsquelle 104 führend eingezeichnet, um dadurch symbolisch
den Gedanken an eine Abänderung in Abhängigkeit von dem Antwortsignal r- anzudeuten; bei der vorliegenden Ausführungsform
wird das rückgekoppelte Antwortsignal in Wirklichkeit zu einer Einrichtung geleitet, die die Breiten
der Eingangsimpulse, deren Impulshöhen s-, Spt···^^ sind,
verändert^
- 59 -
509851/0806
A 15 519 OJ -W-
Siehe hierzu Pig. 14 und den dazugehörenden Beschreibungsteil. Um die Ladung Q.. und damit die Spannung V..
und den Verstärkungsfaktor A. . = j in Übereinstimmung
1J §t ι"
mit Gleichung (5) abzuändern ist es notwendig, die gespeicherte Lagung Q.. entsprechend dem Produkt r.s. zu verändern.
Dabei ist zu beachten, daß die N Ladungen des i-ten Nouverons (nämlich die Ladungen Qji» Q^ ?» · · · *^ϋ» · · · '^iN ^
im Verhältnis zu den jeweilig empfangenen Eingangssignalen (nämlich s^ S2,....s., sN) und dem gemeinsamen Antwortsignal
τ- des Nouverons abgeändert werden müssen. Um diese gewünschte Abänderung zu erreichen wird als Eingangssignal
s. die Höhe eines Spannungsimpulses 120
verwendet, während die Breite t. dieses Spannungsimpulses proportional zum Betrag!rA des Antwortsignals gemacht
wird. Wenn r<0 ist, so wird der Spannungsimpuls 120
invertiert. Es gilt somit:
Q-j-i^s.t. r. +1 keine Inversion
und —-
*i ^ ri| lril ~ 1 Inversion
*i ^ ri| lril ~ 1 Inversion
Spezielle Schaltkreise im Hinblick auf die in dem Nouveron 102 und dem Übertragungselement 100 stattfindende
Summierung sind in den Fig. 13 und 14 dargestellt. Der Summierer 122 des Nouverons 102 ist in der Fig.
als klassischer Summierschaltkreis dargestellt, mit einem Operationsverstärker 124, der über eine Anzahl gleichdimensionierter
Widerstände 126, 128, 130, 132 jeweils die Zwischensignale s.., Spf...s^,....s« als Eingangssignale empfängt. Der Operationsverstärker 124 ist in
bekannter Weise mit einem Widerstand 134 zusammengeschaltet und erzeugt an einer (Ausgangs-)-Leitung 136
ein Antwortsignal r- das der Summe der verschiedenen
- 60 -
509851 /0806
A 15 519 €0
Zwischensignale S1 1, Sp1,....s .',....Sn 1 proportional ist,
die die Ausgangesignale der einzelnen Übertragungselemente
des Nouverons 102 sind. Das Antwortsignal r. wird über eine Rückkopplungsleitung 138 jedem Übertragungselement
des Nouverons wieder zugeführt. Das in der Pig. 14 dargestellte ij-te Übertragungselement
empfängt das Eingangssignal an der Eingangsleitung 110
und erzeugt sein Ausgangssignal s.1 an der Leitung 112.
j Das ij-te Eingangssignal hat die Form eines Impulses
mit der Amplitude s. (die entweder positiv oder negativ
sein kann) und eine Impulsnormalbreite, die durch die Eingabe- oder Puffereinrichtung bestimmt ist, die das
Übertragungselement 100 das Nouveron 102 und die Nestor-Baugruppe mit der Außenwelt (Umgebung) verbindet. Wie
oben ausgeführt, sind die in Verbindung mit der informationsverarbeitenden Nestor-Baugruppe verwendeten Eingabe-
und Ausgabeeinrichtungen nicht Teil der vorliegenden Erfindung
und werden daher im folgenden nicht im einzelnen beschrieben. Dabei versteht es sich, daß der Aufbau der
Eingabeeinrichtung von der Art der Ereignisse abhängen wird, die in die Nestor-Baugruppe eingegeben werden sollen,
während die Ausgabe-Einrichtung im Hinblick auf die endgültige Zweckbestimmung des Systems konstruiert sein wird,
d.h. im Hinblick auf den Vorgang also, der als Antwort auf die Ausgangssignale der Nestor-Baugruppe eingeleitet
werden soll.
Pur die Zwecke dieser Erörterung möge es genügen zu sagen, daß die Eingabeeinrichtung den Eingangsstationen
1, 2,....j,... .N der Nestor-Baugruppe eine Anzahl von Eingangssignalimpulsen zuführt. Die Eingangssignalimpulse,
die für jedes Ereignis gleichzeitig zugeführt werden, weisen alle eine Impuls-Normalbreite von einigen yum auf
und Amplituden, die jeweils zu den zu verarbeitenden Variablen S1, S2I ...s., SjT proportional sind. Die Amplituden
509851/0806 - 61 -
A 15 519 - JH -
dieser Impulse können auch negativ sein, um negative Werte der Eingangs signale s.., 3ρ,·..·8., ....s« wiederzugeben.
Gemäß Pig. 14 wird ein solcher Eingangssignalimpuls mit der Amplitude s. einem Impulsbreitenmodulator 140 züge-
führt, der gleichzeitig über die Rückkopplungs-Leitung 138 ein Antwortsignal r- ermpfängt, das vom Ausgang eines
in der Pig. 13 dargestellten Summierers Σ abgenommen wird. Das Antwortsignal r. resultiert aus der χ Summation, die
von dem SummiererΣ über die von den Übertragungselementen
abgegebenen Zwischensignale s. ausgeführt wird.
Der Impulsbreitenwandler sendet über eine Leitung 142 einen Impuls aus, der denselben Absolutwert der Amplitude
wie der EingangsSignalimpuls an der Eingangsleitung 110
(jedoch invertiert ist, wenn r. <0) und eine zu der Variablen Jr^ proportionale Impulsbreite t^ aufweist.
Die sn der Leitung 142 auftretenden positiven und negativen Impulse werden verstärkt und mit Hilfe eines
Operationsverstärkers 144 und diesem zugeordneten Widerständen 146, 148 und 150 und Dioden 152 und 154 nach ihrer
Polarität getrennt. Wenn ein an der Leitung 142 auftretender Impuls positiv ist, so wird er als positiver Impuls zu einer
Leitung 156 abgeleitet, ist er negativ, so wird er als negativer Impuls zu einer Leitung 158 gleitet. Gleichgültig
ob der Impuls positiv oder negativ ist, so ist jedenfalls die von der Impulsform begrenzte Fläche (entsprechend t
der grafischen Darstellung) der absoluten Größe des Produkts s. und r- proportional.
Die positiven Impulse an der Leitung 156 werden einem invertierenden Operationsverstärker 160, dem die Wider-
- 62 5098 5 1 /0806
A 15 519 62 -im162,
164 und 166 zugeordnet sind und schließlich der Basis einen pnp-Transistor 168 zugeleitet. Die an der
Basis des Transistors 168 ankommenden Impulse haben dann die geeignete Polarität , um den Transistor zu aktivieren,
und einen Kondensator 170 über einen Widerstand 172 zu laden oder zu entladen. Die Ladungsmenge, die infolge
eines jeden positiven Impulses von den Kondensatoren aufgenommen oder von diesen abgeführt wird, ist dem
Produkt aus der Impulsamplitude, die den wirksamen Leitwert des Transistors 168 bestimmt, und der Impulsbreite,
die die Dauer des Auf- oder Entladevorganges bestimmt, proportional.
Die an der Leitung 158 auftretenden negativen Impulse werden einem weiteren invertierenden Operationsverstärker
174 mit diesem zugeordneten Widerständen 176, 178 und 180 zugeführt. In einer zu der bezüglich des pnp-Transistors
168 beschriebenen analogen Weise sind hierdurch ein npn-Transistor 182 durch invertierte negative (d.h. positive),
der Basis des npn-Transistors zugeführte Impulse aktiviert, Als Folge davon wird der Kondensator 170 über einen Widerstand
184 entladen oder aufgeladen.
Die Ladungsmenge, die infolge eines jeden negativen Impulses von dem Kondensator 170 abgeführt oder aufgenommen
wird, ist dann dem Produkt aus der Impulsamplitude die den wirksamen Leitwert des Transistors 182 bestimmt, und
der Impulsbreite, die die Dauer des Auf- oder Entladungsvorganges bestimmt, proportional.
Als Ergebnis des oben beschriebenen Vorganges ist die von dem Kondensator gespeicherte Ladung Q.. und damit auch
die Große der Spannung V, · die Folge eines anfänglichen
Ladungszustandes, der über eine Leitung 186 erzeugt werden
kann, bevor das Übertragungselement in Betrieb gesetzt
- 63 -
509851/0806
A 15 519 €3 - όβ -
wird, sowie der Gesamtsumme aHpr schrittweisen Zu- und
Abnahmen, die als Folge des wiederholten Anlegens von Impulsen über die Eingangsleitung 110 eintreten. Zu beachten
ist, daß der Kondensator 170 mit beiden Polaritäten geladen werden kann und auch innerhalb der Grenzen
der möglichen positiven und negativen Spannungswerte des
Versorgungsgerätes die Polarität wechseln kann.
Damit das Übertragungselement in der Lage ist, die gespeicherte Information im Verlaufe einer Zeitspanne
zu vergessen, kann der Spannung V.. die Möglichkeit gegeben werden, mit einer geeignete Geschwindigkeit
abzunehmen.
Diese Abnahmegeschwindigkeit steht in Beziehung zu der oben bei der theoretischen Erläuterung der Erfindung
erörterten Zerfallskonstanten ^, wonach eine unendlich lange Abnahmezeit (offener Stromkreis) dem
χ -Wert 1 und eine Abnahmezeit 0 dem Y -Wert 0 äquivalent
ist. Wie oben erwähnt sind in der Praxis #" -Werte in der Nahe von 1 von größtem Interesse, so daß die Zeitkonstante
für diese Abnahme ziemlich groß gemacht werden sollte. Zu diesem Zweck werden geeignete Werte der
Kapazität des Kondensators und des Widerstandes oder der Impedanz aller Bauelemente ausgewählt, die die erwünschten
Zeitkonstanten ergeben.
Schließlich wird die an dem Kondensator 170 anstehende Spannung über eine Leitung 192 an den Steuereingang eines
Verstärkers 194 mit steuerbarem Verstärkungsgrad angelegt. Palis notwendig, kann zwischen den Kondensator 170 und
den Verstärker 194 mit steuerbarem Verstärkungsgrad eine zusätzliche Verstärkerstufe eingefügt werden. Dabei wird wiederum
ein geeignet hoher Eingangswiderstand dieses Verstärkers
509851/080$
CU
A 15 519
gewählt, um die gewünschte Zerfallskonstante X zu erhalten.
Der Verstärker 194 empfängt auch die über die Eingangsleitung 110 ankommenden Eingangsignalimpulse mit der
Amplitude s. und "verstärkt" (der Begriff Verstärkung soll
J
wiederum Verstärkung, Abschwächung und Polaritätswechsel umfassen) diesem Impulse gemäß dem gesteuerten Wert
des Verstärkungsgrades, um an der Leitung 112 Ausgangsimpulse der Amplitude S.1 zu erzeugen.
Die Verarbeitung der Eingangssignale s. mit Hilfe der
summierten Antwortsignale r., wird nun ausführlicher anhand der Pig. 15 betrachtet. Zuerst sei darauf hingewiesen,
daß das Antwortsignal r. positiv, negativ oder Null sein kann und daß, sofern nicht gegenteilige Maßnahmen
getroffen sind, das Antwortsignal r^ wie es am Ausgang des Summierers 122 der Pig. 12 erhalten wird,
in der Form von Impulsen vorliegt. Während diese Signalform im Hinblick auf Verarbeitungseinrichtungen die an
der Ausgangsleitung 136 (ies in der Fig. 13 dargestellten
Summierers) angeschlossen werden sollen, zweckmäßig sein mag, vollzieht sich der Rückkopplungsvorgang bei der
vorliegenden Ausführungsform der Erfindung günstiger, wenn
die Ausgangssignale r- in einer quasikontinuierlichen Form vorliegen. Zu diesem Zweck ist die in den Fig. 13 und 1,4
dargestellte Rückkopplungsleitung 138 gemäß Fig. 15 mit einer Tast- und Halteeinrichtung 196 verbunden. Der Zweck
dieser Einrichtung besteht darin, die Dauer eines jeden Impulses eines Antwortsignals r- um eine Zeitspanne zu verlängern,
die annähernd gleich dem zeitlichen Abstand zwischen aufeinanderfolgenden Impulsen ist, ohne dabei die
Impulsamplitude zu verändern. Wie in der Fig. 15 schematisch dargestellt ist, wird die Tast- und Halteeinrichtung
196 durch die EingangesignaIe (gepulste s.) über einen
Trigger 198 getriggert. (Der Trigger 198 kann, wie dem
Fachmann bekannt ist, Einrichtungen zur Signalverstärkung,
- 65 -
509851/0806
A 15 519
-formling, usw. umfassen). Das impulsförmige Antwortsignal
r. wird dadurch in ein im wesentlichen kontinuierliches, im folgenden mit r.· bezeichnetes Signal mit
sich zeitlich verändernder Amplitude umgewandelt. Dieses Signal r.* wird weiter einem Vollweggleichrichter 200 und
sodann einem Spannungs/lmpulsbreitenwandler 202 zugeführt. Somit ist das dem Spannungs/lmpulsbreitenwandler 202 zugeführte
quasikontinuierliche Signal an der Verzweigungsstelle 204 positiv (oder Null). Der Spannungs/lmpulsbreitenwandler
202 erzeugt, wenn er, wie in der Fig. 15 angedeutet, durch den Trigger 198 getriggert wird, Impulse
von einer Normalhöhe und -breite, die klein ist, verglichen mit der Breite der impulsförmigen Eingangssignale s.. Die Punktion des Signals r.· besteht darin, diese
schmalen (von dem Wandler 202 erzeugten) Impulse im Verhältnis zu der Amplitude des Signals r^' zu verbreitern. Die
von dem Spannungs/lmpulsbreitenwandler 202 erzeugten Impulse (mit konstanter Amplitude) werden, wie in Pig.
dargestellt ist, einer weiteren Tast- und Halte-Einrichtung
206 und einer Torschaltung 208 zugeführt. Die ankommenden Signale s., die anfänglich eine Normalbreite aufweisen,
J
gelangen zuerst in die Tast- und Halte-Einrichtung 206 die diese Impulsbreite auf die zu r·' proportionale Dauer des von dem Spannungs/lmpulsbreitenwandler 202 erzeugten Impulse ausdehnt. Die Eingangssignale gelangen sodann zu der Torschaltung 208, die für dieselbe, ebenfalls durch die Breite der von dem Spannungs/lmpulsbreitenwandler 202 gelieferten Impulse, bestimmte Zeitdauer offengehalten wird. Wenn als Folge einer kleinen r.·-Amplitude die Breite der letztgenannten Impulse bis unter die Impulsnormalbreite der Eingangssignale s. verringert wird, so bleibt die Torschaltung 208 nur für die verminderte Dauer der von dem Spannungs/lmpulsbreitenwandler 202 gelieferten Impulse offen. Diese Öffnungszeit der Torschaltung bestimmt dann
gelangen zuerst in die Tast- und Halte-Einrichtung 206 die diese Impulsbreite auf die zu r·' proportionale Dauer des von dem Spannungs/lmpulsbreitenwandler 202 erzeugten Impulse ausdehnt. Die Eingangssignale gelangen sodann zu der Torschaltung 208, die für dieselbe, ebenfalls durch die Breite der von dem Spannungs/lmpulsbreitenwandler 202 gelieferten Impulse, bestimmte Zeitdauer offengehalten wird. Wenn als Folge einer kleinen r.·-Amplitude die Breite der letztgenannten Impulse bis unter die Impulsnormalbreite der Eingangssignale s. verringert wird, so bleibt die Torschaltung 208 nur für die verminderte Dauer der von dem Spannungs/lmpulsbreitenwandler 202 gelieferten Impulse offen. Diese Öffnungszeit der Torschaltung bestimmt dann
- 66 509851 /0806
A 15 519
die Impulsbreite des Eingangssignals s.. Damit das
algebraische Vorzeichen des Produkts s.r- erhalten bleibt, wie es von der Theorie gefordert wird, wird
das Signal r-· von der Verzweigungsstelle 210 aus (wo es immer noch mit beiden Polaritäten auftritt)
zu einem Schalter 212 geleitet. Durch diesen Schalter wird das eintreffende Signal s., wenn r.' negativ ist,
invertiert und wenn r·1 positiv ist, mit seiner ursprünglichen
Polarität durchgelassen. Der Schalter 212 ist lediglich zur Vereinfachung der nachfolgenden Beschreibung
in der Fig. 15 der Torschaltung 208 nachgeschaltet eingezeichnet. Eine in technischer Hinsicht
vorzuziehende Anordnung für diesen Schalter wäre vor der Tast- und Halte-Einrichtung 206.
Schließlich ist zwischen der Verzweigungsstelle 204 und der Torschaltung 208 eine UND-Schaltung 214 eingefügt,
um den Durchgang des eintreffenden Signals (und damit des Produkts s.r.) zu verhindern, wenn das Signal r.'
so klein ist, daß es eine Impulsbreite zur Folge haben müßte, die geringer wäre als die Normalbreite der von dem
Spannungs/lmpulsbreitenwandler 202 erzeugten Impulse.
Mann erkennt, daß dadurch bei dem Produkt s .r- eine
Unstetigkeit zwischen dem durch die engsten von dem Spannungs/lmpulsbreitenwandler 202 abgegebenen Impulse
bestimmten Wert und Null auftritt. Eine solche Eigenschaft fällt aber lediglich in den Bereich dessen, was
allgemein als Rauschen bezeichnet werden kann, und die Nestor-Baugruppe ist, wie sich aus der Theorie ableiten
läßt, besonders unempfindlich gegen Rauschen oder überhaupt gegen ein unvollkommenes Funktionieren einzelner
Bauelemente. Darüberhinaus liegt es.auf dem Gebiet der elektronischen Schaltungstechnik im Bereich des fachmännischen Könnens, Verbesserungen des Signal/Rausch-
609851/0806
- 67 -
A 15 519 ^
Verhältnisse im Allgemeinen und eine Verminderung der erwähnten Unstetigkeiten im Besonderen, zustande zu
bringen.
Hervorzuheben ist, daß die durch r bestimmten Impulsbreiten und ein gemäß dem Vorzeichen von.w- mögliche
Inversion in gleicher Weise für alle gepulsten Eingangssigna e s s , ...3 gelten, die dem Nouveron zugeführt
werden, da Abänderungen der Übertragungsfunktion A- eines Übertragungselementes (bzw. Verstärkungsgrades)
lediglich von den Eingangssignalen, die dem das Übertragungselement enthaltenden Nouveron zugeführt werden,
und von dem Antwortsignal des Nouverons abhängen.
Daher versorgt der größte Teil der in der Fig. 15 dargestellten
elektronischen Baugruppen, wie der Fachmann ohne weiteres erkennt, gleichzeitig alle Übertragungselemente
eines Nouverons und wird daher für jedes Nouveron nur einmal benötigt.
Damit ist die Beschreibung der speziellen bevorzugten Ausführungsform der Erfindung abgeschlossen. Obwohl diese
Ausführungsform mit Bezug auf elektrische Signale und Ladungen als Träger des Informationsgehalts eines Informationsverarbeitungssystems
beschrieben worden ist, werden sich dem Fachmann auch zahlreiche andere Möglichkeiten
der Signaldarstellung und Informationsspeicherung darbieten. Es versteht sich aus, daß die Erfindung verschieden-e
Abänderungs-, Austausch- und Anpass-ungsmöglichkeiten bietet, die innerhalb des Grundgedankens und
Gegenstandes der Erfindung liegen. Beispielsweise ist es nicht notwendig, daß der Algorithmus für die Abänderungen
- 68 -
S098 b 1 /0806
A 15 519 σο --68 -
der Übertragungsfunktion A der Übertragungselemente auf den 4. Term der Taylor-Reihe, nämlröi den in Gleichung
(5) enthaltenen Term, beschränkt ist, vielmehr können auch andere Terme, wie beispielsweise der 6. Term
zu ebenso wichtigen Ergebnissen führen.
6098b1/0Ö06
Claims (2)
- A 15 519AnsprücheIJ Informationsverarbeitende Baugruppe, gekennzeichnet durch die folgenden Merkmale (a) bis (d):(a) eine Anzahl (N) von Eingangsstationen 1, 2,....j, ..,.N zum Empfang jeweils eines von N Eingangssjgnalen s.., Sp, ... .3 ■, ... .3-^,(b) eine Anzahl (n) von Ausgangsstationen 1, 2,..i,...n, die jeweils eines von η Antwortsignalen r.., r2,...r-, ....r abgeben,(c) eine Anzahl von Übertragungselementen (100), deren jedes eine dieser Eingangsstationen (Eingang j) mit einer der Ausgangsstationen (Ausgang i) koppelt und in Abhängigkeit von dem Eingang j auftretenden EingangssignaIs s. und der Übertragungsfunktion A-· des (zugeordneten) Übertragungselemente eine Informationsübertragung von dem Eingang j zu dem Ausgang i vermittelt,(d) Einrichtungen (138 bis 194), die in einer Lernphase der Übertragungselemente (100) die Übertragungsfunktion A- . mindestens eines der Übertragungselemente in Abhängigkeit von dem Produkt mindestens eines der EingangssignaIe mit einem der Antwortsignale um eine Größeν ο A^ · = ι (S.J , Sg, · · ·s ·, * ·.Sjjι T^, Tg»· · a^2_* · * "**n abändern.
- 2. Informationsverarbeitende Baugruppe nach Anspruch 1, dadurch gekennzeichnet, daß die Anzahl der Ausgangsstationen gleich der Anzahl der Eingangsstationen (n=N) ist.3. Informationsverarbeitende Baugruppe nach Anspruch 1, dadurch gekennzeichnet, daß die Anzahl der Ausgangsstationen kleiner ist als die Anzahl der Eingangsstationen (n<N).509851 /0806- 70 -A 15 519 ty4. Informatiaisverarbeitende Baugruppe nach Anspruch 1, dadurch gekennzeichnet, daß die Anzahl der Ausgangsstationen größer ist als die Anzahl der Eingangsstationen ( n> N).5. Informationsverarbeitende Baugruppe nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, daß mindestens eines der Übertragungselemente (100) mit jeder Eingangsstation gekoppelt ist.6. Informationsverarbeitende Baugruppe nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, daß jede Ausgangsstation mit mindestens einem Übertragungselement (100) gekoppelt ist.7. Informationsverarbeitende Baugruppe nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, daß jede Eingangsstation mit mindestens einer Ausgangsstation duroh ein Übertragungselement (100) gekoppelt ist.8. Informationsverarbeitende Baugruppe nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, daß jede Eingangsstation mit jeder Ausgangsstation durch ein Übertragungselement (100) gekoppelt ist.9. Informationsverarbeitende Baugruppe nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, daß das Ausgangssignal s·' jedes Übertragungselements gleichdem Produkt seiner Übertragungsfunktion A- · mit dem an seinem Eingang angelegten Signal s. ist (s-'=A- -s.).10.Informationsverarbeitende Baugruppe nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, daß die Einrichtungen zur Abänderung der Übertragungsfunktion Einrichtungen zir Abänderung der Übertragungsfunktion eines jeden Übertragungselements umfassen.509851/0806 - 71 -A 15 519 - 74 -11. Informationsverarbeitende Baugruppe nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, daß die Einrichtungen (13S bis 194) zur Abänderung der Übertragungsfunktion Einrichtungen umfassen, die die Übertragungsfunktion A,. mindestens eines Übertragungselementes in Abhängigkeit von dem hieran angelegten Eingangssignal s. und dem Antwortsignal r. an der mit..u idem Übertragungselement gekoppelten Ausgangsstationgemäß <5 A■ ■ = f (s ., r, ) abändern. -*· J J-*-12. Informationsverarbeitende Baugruppe nach Anspruch 11, dadurch gekennzeichnet, daß Einrichtungen zur Abänderung der Übertragungsfunktion A.. aller Übertragungs--*- J elemente vorgesehen sind.13. Informationsverarbeitende Baugruppe nach Anspruch 11 oder 12, dadurch gekennzeichnet, daß die Einrichtungen (138-194) zur Abänderung der Übertragungsfunktion A- . eines Übertragungselementes eine Abänderung in Abhängigkeit von dem Produkt aus dem Eingangssignal s.Ausgangsantwortsignal r- gemäßSA. · = O^ s.r· vermittelt, wobeiTj eine Proportionalitätskonstante ist.14. Informationsverarbeitende Baugruppe nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, daß zwischen jede Ausgangsstation und dem mit dieser gekoppelten Übertragungselement (100) logische Schaltungselemente (122) geschaltet sind, die von den Übertragungselement en Ausgangssignale s.1 empfangen und in Abhängig-keit von diesen ein Antwortsignal r erzeugen.15. Informationsverarbeitende Baugruppe nach Anspruch 14, dadurch gekennzeichnet, daß das Antwortsignal der Summe der an die logischen Schaltungselemente (122) angelegten AusgangssignaIe s1 der Übertragungselemente (100)proportional ist, gemäß1=1 - 72 -ΓΛΛΛΓ·«! < /-, Λ Λ aA 15 519 - T£ -16. Informationsverarbeitende Baugruppe nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, daß eine Anzahl (n) von Schwellenwerteinrichtungen T.. , Tp, •«..Τ.,.,.Τ vorgesehen ist, deren jede mit einer Ausgangsstation verbunden ist und ein Ausgangssignal erzeugt, wenn das an sie angelegte Antwortsignal r. größer als ein Schwellenwert G- ist (γ^>0. oder )ril>0.).17. Informationsverarbeitende Baugruppe nach Anspruch 16, dadurch gekennzeichnet, daß mit den Ausgängen aller Schwellenwerteinrichtungen Signalunterdrückungseinrichtungen verbunden sind, die alle Antwortsignale r1,Tp,.. ..r mit Ausnahme desjenigen unterdrücken, das als Eingangssignal an diejenige Schwellenwerteinrichtung angelegt ist, die ein Ausgangssignal erzeugt.18. Informationaverarbeitende Baugruppe nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, daß eine Signalquelle vorgesehen ist, die selektiv an mindestens eine der Ausgangsstationen ein gewünschtes Antwortsignal riA a*>gibt, durch das die informationsverarbeitende Baugruppe veranlaßt werden kann, im Verlauf ihrer Arbeitsperiode ein "korrektes" Antwortsignal T^ zu erzeugen.19. Informationsverarbeitende Baugruppe nach Anspruch 18, dadurch gekennzeichnet, daß jeder Ausgangsstation ein erwünschtes spezielles Ausgangsantwortsignal r. . zugeführt wird.20. Informationsverarbeitende Baugruppe nach einem der vorhergehenden Ansprüche 1 bis 18, dadurch gekennzeichnet, daß die Einrichtungen (138 bis 194) zur Abänderung der Übertragungsfunktion A-· eine Einrichtung zur Verminderung des Wertes der Übertragungsfunktion Aij mindestens eines Übertragungselementes mit einer vorbestimmten Geschwindigkeit umfassen.- 73 -509851/080 6A 15 519 ?i - *3 -21. Informationsverarbeitende Baugruppe nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, daß die Einrichtungen (138 bis 194) zur Änderung der Übertragungsfunktion A- . eine Einrichtung zur Verminderung des Wertes der Übertragungsfunktion aller Übertragungselemente (100) mit einer vorbestimmten Geschwindigkeit umfassen.22. Informationsverarbeitende Baugruppe nach Anspruch 20 oder 21, dadurch gekennzeichnet, daß der zeitliche Betrag der Abnahme konstant ist, um eine gleichförmige Abnahme zu erzielen.23. Informationsverarbeitende Baugruppe nach einem der vorhergenden Ansprüche, dadurch gekennzeichnet, daß die Eingangssignale a-,Sp»··»s.,...s„ und die Antwortsignale r.,rp>·..r-,...r durch Spannungswerte repräsentiert sind,24. Informationsverarbeitende Baugruppe nach Anspruch 23» dadurch gekennzeichnet, daß jedes Übertragungselement (100) einen Verstärker (108) mit steuerbarem Verstärkungsgrad enthält, und daß die Übertragungsfunktion eines Übertragungselements durch den Verstäriungsgrad repräsentiert ist.25. Informationsverarbeitende Baugruppe nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, daß jedes Übertragungselement Mittel zur Speicherung seiner Übertragungsfunktion enthält.26. Informationsverarbeitende Baugruppe nach Anspruch 25, dadurch gekennzeichnet, daß die Mittel zur Speicherung eine Einrichtung zur Speicherung elektrischer Ladung umfassen.27. Informationsverarbeitende Baugruppe nach Anspruch 26, dadurch gekennzeichnet, daß als Einrichtung zur Spei-- 74 509851/0806A 15 519 ?ll -Sicherung elektrischer Ladung ein Kondensator (170) vorgesehen ist.28. Informationsverarbeitende Baugruppe nach einem der vorhergehenden Ansprüche 25 bis 27, dadurch gekennzeichnet, daß die Einrichtungen (138 bis 194) zur Änderung der Übertragungsfunktion eine Addiereinrichtung umfassen, die dem gespeicherten Übertragungswert A- s die Anderungsschritte ο A- · hinzufügt.-L J29· Informationsverarbeitende Baugruppe nach Anspruch 28, dadurch gekennzeichnet, daß in der Speichereinrichtung (170) des ij-ten Übertragungselements eine Ladung Q....Ogespeichert und für alle Anderungsschritte die Änderung OA-. der Übertragungsfunktion einer entsprechenden Anderung Q.. der gespeicherten Ladung proportional Q- . ist und daß die Einrichtung, die der gespeicherten Übertragungsfunktion Anderungsschritte A.. hinzufügt, einen ersten Impu^eber (19Ο), der einen ersten Impuls mit einer zu dem Eingangssignal s. proportionalen Amplitudeund einer in dem absoluten Wert des Antwortsignals r· proportionalen Breite t- erzeugt, und einen zweiten mit dem ersten verbundenen Impulsgeber (202) umfaßt, der der Ladungsspeichereinrichtung (170) einen zweiten Impuls zuführt, dessen Pulshöhe und -breite der Pulshöhe und -breite des ersten Impulses proportional sind und dessen Polarität gleich ^i. ist.30. Informationsverarbeitendes Element gekennzeichnet durch die folgenden Merkmale (a) bis (d):(a) eine Anzahl von Eingangsstationen 1,2,...j,...N zum Empfang je eines von N Eingangssignalen,(b) eine Ausgangsstation i zur Abgabe eines Antwortsignals r- ,- 75 -S09851 /0806A 15 519 ?5 -(c) eine Anzahl (N) von Übertragungselementen (100), deren jedes eine der Eingangsstationen (Eingang j) mit einer der Ausgangsstationen (Ausgang i) koppelt und in Abhängigkeit von dem Eingang j auftretenden Eingangssignal s . und von der Übertragungsfunktion A.. des Übertragungselementes (100) eine Informations Übertragung von dem Eingang j zu dem Ausgang i vermittelt,(d) Einrichtungen (138 bis 194), die in einer Lernphase der Übertragungselemente (100) die Übertragungsfunktion A-· mindestens eines der Übertragungselemente in Abhängigkeit von dem Produkt mindestens eines der Eingangssignale mit einem der Antwortsignale um eine And e rungs gr ö ß e1J = f(S11S2,....S^,...sN; T1,r2,...γ±,...rn)abändern.31. Informationsverarbeitendes Element nach Anspruch 30, dadurch gekennzeichnet, daß das Ausgangssignal s-' jedes Übertragungselements (100) gleich dem Produkt seiner Übertragungsfunktion A- - mit dem an seinem Eingang angelegten Signal s. ist (s .=A- .s .).J d ■■- d U32. Informationsverarbeitendes Element nach Anspruch 30oder Anspruch 31, dadurch gekennzeichnet, daß die Einrichtungen (138 bis 194) zur Abänderung der Übertragungsfunktion Einrichtungen zur Abänderung der Übertragungsfunktion eines jeden der Übertragungselemente (100) umfassen.33. Informationsverarbeitendes Element nach einem der vorhergehenden Ansprüche 30 bis 32, dadurch gekennzeichnet, daß die Einrichtungen (138 bis 194) zur Abänderung der Übertragungsfunktion Einrichtungen umfassen, die die Übertragungsfunktion A-· mindestens eines Übertragungselementes- 76 5098b 1 /Ü806A 15 519 ?£ - ?6 -(100) in Abhängigkeit von dem hieran angelegten Eingangssignal s· und dem Antwortsignal r. an der Ausgangsstationgemäß 6 A- · = f (s., r.) abändern.
Ij J-*-34. Informationsverarbeitendes Element nach Anspruch 33» dadurch gekennzeichnet, daß Einrichtungen zur Abänderung der Übertragungsfunktion A- · aller ÜbertragungselementeJ- J(100) vorgesehen sind.35. Informationsverarbeitendes Element nach Anspruch 33 oder 34, dadurch gekennzeichnet, daß die Einrichtungen zur Abänderung der Übertragungsfunktion A- . eines Übertra--*- J gungselementes eine Abänderung in Abhängigkeit von demProdukt aus dem Eingangssignal s. Antwortsignal r- gemäß OA- · = \ s - r. vermittelt, wobeiYJ,eine Proportio-■*· «J Jonalitätskonstante ist.36. Informationsverarbeitendes Element nach einem der vorhergehenden Ansprüche 30 bis 35, dadurch gekennzeichnet, daß zwischen jeder Ausgangsstation und dem mit dieser gekoppelten Übertragungselement (100) logische Schaltungselemente (122) geschaltet sind, die von den Übertragungselementen Au s gangs Signale s.1 empfangen und in Abhängigkeitvon diesen das Antwortsignal r. erzeugen.37. Informationsverarbeitendes Element nach Anspruch 36, dadurch gekennzeichnet, daß das Antwortsignal der Summe der an die logischen Schaltungselemente (122) angelegten AusgangsSignaIe s.* der Übertragungselemente (100)proportional ist, gemäß- 77 -£09851/0806A 15 519 7? - ΨΤ -3b. Inforraationsverarbeitendes Element nach einem der vorhergehenden Ansprüche 30 bis 37, dadurch gekennzeichnet, daß mit der Ausgangsstation eine Schwellenwerteinrichtung verbunden ist, die ein Ausgangssignal erzeugt, wenn das an sie angelegte Antwortsignal r. größer ist als ein Schwellenwert Oi(r.>öi oder | rJ > 0^).39. Informationsverarbeitendes Element nach einem der vorhergehenden Ansprüche 30 bis 38, dadurch gekennzeichnet, daß eine Signalquelle vorgesehen ist, die an die Ausgangsstation selektiv ein spezifisches, erwünschtes Antwortsignal r.. anlegt, durch das das informationsverarbeitende Element veranlaßt werden kann, im Verlauf seiner Arbeitsperiode ein "korrektes" Antwortsignal rw zu erzeugen.40. Informationsverarbeitendes Element nach einem der Ansprüche 30 bis 39, dadurch gekennzeichnet, daß die Einrichtungen (138 bis 194) zur Abänderung der Übertragungsfunktion A- - eine Einrichtung zur Verminderung des Wertes der Übertragungsfunktion A-· mindestens eines Übertragungselements (100) mit einer vorbestimmten Geschwindigkeit umfaßt.41. Informationsverarbeitendes Element nach einem der vorhergehenden Ansprüche 30 bis 40, dadurch gekennzeichnet, daß die Einrichtungen (138 bis 194) zur Abänderung der Übertragungsfunktion A- · eine Einrichtung zur Verminderung des Wertes der Übertragungsfunktion A. . aller Übertragungselemente mit einer vorbestimmten Geschwindigkeit umfassen.42. Informationsverarbeitendes Element nach Anspruch 40 oder 41, dadurch gekennzeichnet, daß der zeitliche Betrag der Abnahme konstant ist, um eine gleichförmige Abnahme zu erzielen.- 78 509851/0806A 15 519 7& -43. Informationsverarbeitendes Element nach einem der vorhergehenden Ansprüche 30 bis 42, dadurch gekennzeichnet, daß die Signale S1, s., ... .s .,....s und r, durch Spannungswerte repräsentiert sind.44. Informationsverarbeitendes Element nach einem der vorhergehenden Ansprüche 30 bis 43, dadurch gekennzeichnet, daß jedes Übertragungselement (100) einen Verstärker (108) mit steuerbarem Verstäriungsgrad enthält, und daß die Übertragungsfunktion eines Übertragungselementes durch den Verstärk ungsgrad repräsentiert ist.45. Informationsverarbeitendes Element nach einem der vorhergehenden Ansprüche 19 bis 31, dadurch gekennzeichnet, daß jedes Übertragungselement Mittel zur Speicherung seiner Übertragungsfunktion A. . enthält.46. Informationsverarbeitendes Element nach Anspruch 45, dadurch gekennzeichnet, daß die Mittel zur Speicherung eine Einrichtung zur Speicherung elektrischer Ladung umfassen.47· Informationsverarbeitendes Element nach Anspruch 46, dadurch gekennzeichnet, daß als Einrichtung zur Speicherung elektrischer Ladung ein Kondensator (170) vorgesehen ist.48. Informationsverarbeitendeß Element nach einem der vorhergehenden Ansprüche 45 bis 47, dadurch gekennzeichnet, daß die Einrichtungen zur Änderung der Übertragungsfunktion eine Addiereinrichtung umfassen, die dem gespeicherten Übertragungsfunktionswert A. . die Änderungs-schritte bA. · hinzufügt.
-*- J- 79 -509851 /0806A 15 519 ?349. Informationsverarbeitendes Element nach Anspruch 48, dadurch gekennzeichnet, daß in der Speichereinrichtung des ij—ten Übertragungselements eine Ladung Q.■ gespeichert und für alle Änderungsschritte die Änderung Sä.. der Übertragungsfunktion einer entsprechenden Änderung Q. . der gespeicherten Ladung proportional Q. . ist und daß die Einrichtung, die der gespeicherten Übertragungsfunktion Änderungsschritte A hinzufügt,einen ersten Impulsgeber (140) der einen ersten Impuls mit einer zu dem Eingangssignal s. proportionalen Ampli-J tude und einer in dem absuluten Wert des Antwortsignals r proportionalen Breite t erzeugt, und einen zweiten mit dem ersten verbundenen Impulsgeber (202) umfaßt, der der Ladungsspeichereinrichtung einen zweiten Impuls zuführt, dessen Pulshöhe und -breite der Pulshöhe und -breite des ersten Impulses proportional sind und dessen Polarität gleich __i ist.50. Informationsverarbeitungssystem mit mindestens einerinformationsverarbeitenden Baugruppe nach einem der vorhergehenden Ansprüche 1 bis 29» dadurch gekennzeichnet, daß eine Einrichtung zum Einstellen der Übertragungsfunktion A.· eines jeden Übertragungselements der Baugruppe auf einen gewünschten Wert vorgesehen ist, die in einem einzigen Arbeitsgang einen Lernprozess des Systems ermöglicht.51. Informationsverarbeitungssystem mit mindestens einer informationsverarbeitenden Baugruppe nach einem der vorhergehenden Ansprüche 1 bis 29 oder Anspruch 50, dadurch gekennzeichnet, daß eine Einrichtung zur wahlweisen Unter brechung des Betriebs der Einrichtungen zur Abänderung der Übergangsfunktion vorgesehen ist, so daß die Übertragungsfunktion A - der Übertragungselemente keinen5098b1/0806A 15 519 80 - %Q -Änderungen unterworfen ist und das System als reiner Speicher betreibbar ist.52. Informationsverarbeitungssystem mit mindestens einer informationsverarbeitenden Baugruppe nach einem der vorhergehenden Ansprüche 1 bis 29» 50 oder 51» dadurch gekennzeichnet, daß ein Pufferspeicher zur Speicherung der Übertragungsfunktion eines jeden Übertragungselements (100) und eine Einrichtung zur wahlweisen Übertragung der Übertragungsfunktion A-· eines jeden Übertragungselements in den Pufferspeicher vorgesehen ist, der die Übertragungsfunktionen für einen späteren Gebrauch nach einer Lern- und Einstellperiode der informationsverarbeitenden Baugruppe speichert.53. Informationsverarbeitungssystem mit mindestens einer informationsverarbeitenden Baugruppe nach einem der vorhergehenden Ansprüche 1 bis 29» 50 oder 51, dadurch gekennzeichnet, daß ein Pufferspeicher zur Speicherung einer Anzahl von Übertragungsfunktionen A-· und eine Einrichtung zur selektiven Übertragung einer der Übertragungsfunktionen auf mindestens eines der Übertragungselemente der informationsverarbeitenden Baugruppe vorgesehen ist, die dadurch in einem einzigen Arbeitsgang einstellbar ist.54. Informationsverarbeitungasystem nach Anspruch 53, dadurch gekennzeichnet, daß die Übertragungseinrichtung für die Übertragungsfunktion Mittel zur selektiven Übertragung der Übertragungsfunktion A. . eines jeden Übertragungselements in den Pufferspeicher umfaßt.55· Informationsverarbeitungssystem mit mehreren informationsverarbeitenden Baugruppen nach einem der vorhergehenden Ansprüche 1 bis 29, oder 50 bis 54, dadurch gekennzeichnet, daß Verbindungseinrichtungen vorgesehen sind, die die Ausgangsstation einer ersten Baugruppeinit den Eingangsstationen- 81 50 985 1/0806252473AA 15 519 84 - 9ή -einer weiteren Baugruppe zu einer Hintereinanderschaltung der beiden Baugruppen verbinden.56. Informationsverarbeitungssystem mit mehreren informationsverarbeitenden Baugruppen nach einem der vorhergehenden Ansprüche 1 bis 29 oder 50 bis 54, dadurch gekennzeichnet, daß Verbindungseinrichtungen vrgesehen sind, die die Ausgangsstationen einer ersten Baugruppe mit den Ausgangsstationen einer weiteren Baugruppe zu einer Parallelschaltung der beiden Baugruppen verbinden.57. Informationsverarbeitungssystem mit mehreren informationsverarbeitenden Baugruppen nach einem der vorhergehenden Ansprüche 1 bis 29 oder 50 bis 54, dadurch gekennzeichnet, daß Verbindungseinrichtungen vorgesehen sind, die die Eingangsatationen einer ersten Baugruppe mit den Eingangsstationen einer weiteren Baugruppe zu einer Parallelschaltung der beiden Baugruppen verbinden.56. Informationsverarbeitungssystem nach Anspruch 41, dadurch gekennzeichnet, daß die Ausgangsstation einer ersten informationsverarbeitenden Baugruppe mit den Eingangsstationen einer weiteren informationsverarbeitenden Baugruppe nach einer Zufallsverteilung verbunden sind.59. Informationsverarbeitungssystem nach Anspruch 41, dadurch gekennzeichnet, daß die Ausgangsstationen einer ersten informationsverarbeitenden Baugruppe mit den Eingangsstationen einer weiteren informationsverarbeitenden Baugruppe in einer bestimmten Ordnung verbunden sind, derart, daß jede Ausgangsstation der ersten Baugruppe mit einer Eingangsstation der zweiten Baugruppe verbunden ist.60. Informationsverarbeitungssystem mit mehreren informations-- 82 509851/0806a 15 519 Wverarbeitenden Baugruppen nach einem der vorhergehenden Ansprüche 1 bis 29 oder 50 bis 54, dadurch gekennzeichnet, daß Verbindungseinrichtungen vorgesehen sind, die die Aus^angsstationen mindestens einer ersten Baugruppe mit den fiingangsstationen mindestens einer weiteren Baugruppe zu einer Hintereinanderschaltung mindestens zweier Baugruppen verbinden.61. Informationsverarbeitungssystem nach Anspruch 60, dadurch gekennzeichnet, daß die Gesamtzahl der Ausgangsstationen der mindestens einen ersten informationsverarbeitenden Baugruppe größer ist als die Gesamtzahl der Eingangsstationen der mindestens einen weiteren informations verarbeitend en Baugruppe.62. Informationsverarbeitungssystem nach Anspruch 60, dadurch gekennzeichnet, daß die Gesamtzahl der Ausgangsstationen der mindestens einen ersten informationsverarbeitenden Baugruppe gleich der Gesamtzahl der Eingangsstationen der mindestens einen weiteren informationsverarbeitenden Baugruppe ist.63. Informationsverarbeitungssystem nach Anspruch 60, dadurch gekennzeichnet, daß die Gesamtzahl der Ausgangsstationen der mindestens einen ersten informationsverarbeitenden Baugruppe kleiner ist, als die Gesamtzahl der Eingangsstationen der mindestens einen weiteren inforraationsverarbeitenden Baugruppe.64. Informationsverarbeitungssystem nach einem der vorhergehenden Ansprüche 60 bis 63, dadurch gekennzeichnet, daß die Verbindungseinrichtungen solche umfassen, die die Ausgangsstationen mindestens zweier informationsverarbeitender Baugruppen mit den Eingangsstationen einer weiteren informationsverarbeitendai Baugruppe derart verbinden, daß mindestens zwei informationsverarbeitende- 83 5 09851/0806A 15 519 oj - #3 -Baugruppen mit einer dritten in Reihe geschaltet sind.65. Informationsverarbeitungssystem nach einem der vorhergehenden Ansprüche 60 bis 63, dadurch gekennzeichnet, daß die Verbindungseinrichtungen solche umfassen, die die Ausgangsstationen einer der informationsverarbeitenden Baugruppen mit den Eingangsstationen mindestens zweier weiterer informationsverarbeitender Baugruppen derart verbinden, daß eine informationsverarbeitende Baugruppe mit mindestens zwei weiteren informationsverarbeitenden Baugruppen in Reihe geschaltet ist.66. Verwendung einer informationsverarbeitenden Baugruppe mit einer Anzahl (N) von Eingangsstationen 1, 2,...j,...N zum Empfang je eines von N Eingangssignalen s.,,Sp,..s., ...s„, einer Anzahl (n) von Ausgangsstationen 1, 2,...i, ....n zur Abgabe je eines von η AntwortSignalen r..,rp,..r , ...r und mit einer Anzahl von Übertragungselementen, deren jedes eine der Eingangsstationen (Eingang j) mit einer der Ausgangastationen (Ausgang i) koppelt und in Abhängigkeit von dem an dem Eingang j auftretenden Eingangssignal s. und von der Übertragungsfunktion A. ■ des (jeweils die Kopplung vermittelnden) Ubertragungselements Information vom Eingang j zu dem Ausgang i überträgt, als einen verteilten Speicher (Assoziativspeicher), dadurch gekennzeichnet, daß die Übertragungsfunktion jedes Übertragungselementes (100) auf einen speziellen, erwünschten, gespeicherte Information darstellenden Wert eingestellt, mindestens eines der Eingangssignale S1,s2,...s .,...s^ der zugeordneten Eingangsstation zugeführt utL mindestens eines der Antwortsignale r-,Γρ,.··γ·,··..r an der jeweiligen Ausgangsstation empfangen wird.67. Verwendung einer informationsverarbeitenden Baugruppe gemäß Anspruch 44 oder 66, dadurch gekennzeichnet, daß die- 84 509851 /0808A 15 519 SiAnzahl der Ausgangsalat ionen gleich der Anzahl der Eingangsstationen (n = N) ist.68. Verwendung einer informationsverarbeitenden Baugruppe gemäß Anspruch 44 oder 66, dadurch gekennzeichnet, daß die Anzahl der Ausgangsstationen kleiner als die Anzahl der Eingangsstationen (n<N) ist.69. Verwendung einer informationsverarbeitenden Baugruppe gemäß Anspruch 66 dadurch gekennzeichnet, daß die Anzahl der Ausgangsstationen größer ist als die Anzahl der Eingangsstationen ( n>N).70. Verwendung einer informationsverarbeitenden Baugruppe gemäß einem der vorhergehenden Ansprüche 66 bis 69» dadurch gekennzeichnet, daß mindestens eines der Übertragungselemente (100) mit jeder Eingangsstation gekoppelt ist.71. Verwendung einer informationsverarbeitenden Baugruppe gemäß einem der vorhergehenden Ansprüche 66 bis 70, dadurch gekennzeichnet, daß jede Ausgangsstation mit mindestens einem der Übertragungselemente (100) gekoppelt ist,72. Verwendung einer informationsverarbeitenden Baugruppe gemäß einem der vorhergehenden Ansprüche 66 bis 71, dadurch gekennzeichnet, daß jede Eingangsstation mit mindestens einer Ausgangsstation durch eines der Üvertragungselemente (100) gekoppelt ist.73· Verwendung einer informationsverarbeitenden Baugruppe gemäß einem der vorhergehenden Ansprüche 66 bis 72, dadurch gekennzeichnet, daß jede Eingangsstation mit jeder Ausgangsstation durch ein Übertragungselement gekoppelt ist.- 85 509851 /0806A 15 519 SS -M-74. Verwendung einer informationsverarbeitenden Baugruppe gemäß einem der vorhergehenden Ansprüche 66 bis 73, dadurch gekennzeichnet, daß das Ausgangssignal s.1 jedes Übertragungselements gleich dem Produkt seiner Übertragungsfunktion A- . mit dem an seinem Eingang angelegtenSignal s.· ist (s,1 = A. .s,).
J J -*■ J J75. Verwendung einer informationsverarbeitenden Baugruppe gemäß einem der vorhergehenden Ansprüche 66 bis 74, dadurch gekennzeichnet, daß zwischen jede Ausgangsstation und dem mit dieser gekoppelten Übertragungselement (100) logische Scha.tungselemente geschaltet sind, die von den Übertragungselementen Aus gangs signale s-1empfangen und in Abhängigkeit von diesen ein Antwortsignal r. erzeugen.76. Verwendung einer informationsverarbeitenden Baugruppe gemäß Anspruch 75, dadurch gekennzeichnet, daß das Antwortsignal der Summe der an die logischen Schaltungselemente (122) angelegten Ausgangssignale s.1 der Über-titragungselemente (100) proportional ist gemäßΟ-'77. Informationsverarbeitungsverfahren, gekennzeichnet durch die folgenden Verfahrensschritte (a) bis (d):(a) Empfang einer Anzahl von Eingangssignalen s^Sp,...S-, ... Stj,
O(b) Erzeugung einer Anzahl von Zwischensignalen s,,, s' p, ... .s ? ., .. .s ' j,, deren jedes von jeweils einem der EingangsSignaIe s . und einer zugeordnetenJ
Übertragungsfunktion A . abhängig ist,(c) Erzeugung eines Antwortsignals T1, das von mindestens einem der Zwischensignale s? . abhängig ist und- 86 509851/08068bA 15 519 - Ä6- -(d) in einer Lernphase Abänderung mindestens einer der Übertragungsfunktionen in Abhängigkeit von dem Produkt aus mindestens einem der EingangasignaIes. und dem Antwortsignal r-. J ■*-78. Informationsverarbeitungsverfahren nach Anspruch 77» dadurch gekennzeichnet, daß jedes Zwischensignal s? · gleich dem Produkt aus dem jeweiligen Eingangssignal s«J und der zugeordneten Übertragungsfunktion A- - ist(a·. = A^a3).79. Informationsverarbeitungsverfahren nach Anspruch 77, dadurch gekennzeichnet, daß das Antwortsignal r. von allen Zwischensignalen s? . abhängig ist.80. Informationsverarbeitungsverfahren nach Anspruch 77» dadurch gekennzeichnet, daß das Antwortsignal der Summe mehrerer Zwischensignale s!. proportional ist.81. Informationsverarbeitungsverfahren nach einem der Ansprüche 77 bis 80, dadurch gekennzeichnet, daß das Antwortsignal der Summe aller Zwischensignale s? ■ propor-X. Jtional ist.82. Informationsverarbeitungsverfahren nach Anspruch 77» dadurch gekennzeichnet, daß alle Übertragungsfunktionen A. . in Abhängigkeit von dem Produkt mindestens eines der EingangssignaIe s. mit dem Antwortsignal r. abgeändert werden.83. Informationsverarbeitungsverfahren nach Anspruch 77» dadurch gekennzeichnet, daß di-e Abänderung mindestens einer der Übertragungsfunktionen A- . in Abhängigkeit von dem Produkt des dieser zugeordneten Eingangssignal3 s. mit dem Antwortsignal r. erfolgt.- 87 509851 /0806519 &y84. Inf ormat ionsverarbeitungsverfahren nach Anspruch 83, dadurch gekennzeichnet, daß die Abänderung aller Übertragungsfunktionen A. . in Abhängigkeit von dem Produkt des diesen zugeordneten Eingangssignals s- mit demAntwortsignal r- erfolgt.85. Informationsverarbeitungsverfahren nach Anspruch 77» dadurch gekennzeichnet, daß die Abänderung mindestens einer der Übertragungsfunktionen A- im Verhältnis zu dem Produkt des dieser zugeordneten Eingangssignals s.J mit dem Antwortsignal r. erfolgt.86. Informationsverarveitungsverfahren nach Anspruch 77, dadurch gekennzeichnet, daß die Abänderung aller Übertragungsfunktionen A . im Verhältnis zu dem Produkt des diesen zugeordneten Eingangssignals s. mit demJ Antwortsignal r. erfolgt.87· Informationsverarbeitungsverfahren nach Anspruch 77, dadurch gekennzeichnet, daß eine Anzahl von Antwortsignalen r.,r2,...r,.... r erzeugt wird, deren jedes von mindestens einem der Zwischensignale s?., wobei jι J von 1 bis N läuft, abhängig ist.88. Informationsverarbeitungsverfahren nach Anspruch 87, dadurch gekennzeichnet, daß ,jedes der Antwortsignale r.. ,rp, .. .r. , .. .r von allen Zwischensignalen s?., wobei j von 1 bis N läuft, abhängig ist.89. Informationsverarbeitungsverfahren nach Anspruch 87, dadurch gekennzeichnet, daß jedes Antwortsignal r- zu der Summe einer Anzahl von Zwischensignalen s!. propor—-^- J tional ist.- 88 -5098b 1 /0806A 15 519 σο - θβ -90. Informationsverarbeitungsverfahren nach Anspruch 89, dadurch gekennzeichnet, daß jedes Antwortsignal r· zu der Summe aller Zwischensignale s? . proportional ist, wobei j von 1 bis N läuft.91. Informationsverarbeitungsverfahren nach einem der vorhergehenden Ansprüche 87 bis 90, dadurch gekennzeichnet, daß Antwort3ignale r rQ,...r mit Ausnahme1 ? desjenigen, das einen vorgeschriebenen Schwellenwert überschreitet, unterdrückt werden.92. Informationsverarbeitungsverfahren nach einem der vorhergehenden Ansprüche 87 bis 90, dadurch gekennzeichnet, daß mindestens eines der Antwortsignale reinem speziellen erwünschten Antwortsignal r-. gleichgesetzt wird.93. Informationsverarbeitungsverfahren nach einem der vorhergehenden Ansprüche 87 bis 92, dadurch gekennzeichnet, daß alle Ausgangsantwortsignale r.,r^,...r., ....rN je einem speziellen erwünschten Ausgangsantwortsignal τ.,., Γρ., ... ·γ·., ... ·γ α gleichgesetzt werden.94. Informationsverarbeitungsverfahren nach einem der vorhergehenden Ansprüche 77 bis 93, dadurch gekennzeichnet, daß alle Übertragungsfunktionen A- · in einer Speichereinrichtung gespeichert werden.95. Informationsverarbeitungsverfahren nach Anspruch 94,dadurch gekennzeichnet, daß mindestens eine der gespeicherten Übertragungsfunktionen A. . in einer weiteren Speichereinrichtung gespeichert werden.96. Informationsverarbeitungsverfahren nach Anspruch 94, oder Anspruch 95, dadurch gekennzeichnet, daß alle gespeicherten Übertragungsfunktionen in einer weiteren Speichereinrichtung gespeichert werden.- 89 509851/0806A 15 519 £3 -33-97. Informationsverarbeitungsverfahren nach einem der vorhergehenden Ansprüche 77 bis 96, dadurch gekennzeichnet, daß eine weitere Anzahl von Eingangssignalen2 2 2 2
S1 ,so ,....s. ,....Sn empfangen und eine weiterej η 2 2 2 2 Anzahl von Zwischensignalen s ?.. , s!p ,...s!. , ....s?» , erzeugt wird, deren jedes von jeweils einem der weiteren2
Eingangssi gnale s . und von der jeweils einem der ersten Zwischensignale s? . zugeordneten Übertragungsfunktion A-·1J 2 <Jabhängig ist, und daß ein weiteres Antwortsignal r . erzeugt wird, das von mindestens einem der weiteren Zwischen-signale s1 . . abhängig ist.J. J509851/0806
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US05/477,080 US3950733A (en) | 1974-06-06 | 1974-06-06 | Information processing system |
Publications (3)
Publication Number | Publication Date |
---|---|
DE2524734A1 true DE2524734A1 (de) | 1975-12-18 |
DE2524734B2 DE2524734B2 (de) | 1980-03-20 |
DE2524734C3 DE2524734C3 (de) | 1981-01-08 |
Family
ID=23894450
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE2524734A Expired DE2524734C3 (de) | 1974-06-06 | 1975-06-04 | Informationsverarbeitende Vorrichtung zur Erkennung eines durch einen Satz von Eingangssignalen charakterisierbaren Ereignisses |
Country Status (11)
Country | Link |
---|---|
US (1) | US3950733A (de) |
JP (1) | JPS6012671B2 (de) |
CA (1) | CA1042109A (de) |
CH (1) | CH620307A5 (de) |
DE (1) | DE2524734C3 (de) |
ES (3) | ES436945A1 (de) |
FR (1) | FR2274088A1 (de) |
GB (1) | GB1457338A (de) |
IT (1) | IT1036906B (de) |
MX (1) | MX143269A (de) |
NL (1) | NL176313C (de) |
Families Citing this family (131)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS5272504A (en) * | 1975-12-15 | 1977-06-17 | Fuji Xerox Co Ltd | Device for recognizing word audio |
US4044243A (en) * | 1976-07-23 | 1977-08-23 | Nestor Associates | Information processing system |
US4218733A (en) * | 1978-11-13 | 1980-08-19 | Sybron Corporation | Adaptive gain controller |
US4308522A (en) * | 1979-03-19 | 1981-12-29 | Ncr Corporation | Identity verification apparatus and method |
US4254474A (en) * | 1979-08-02 | 1981-03-03 | Nestor Associates | Information processing system using threshold passive modification |
US4326259A (en) * | 1980-03-27 | 1982-04-20 | Nestor Associates | Self organizing general pattern class separator and identifier |
JPS5752261A (en) * | 1980-09-11 | 1982-03-27 | Canon Inc | Character processor |
US4450530A (en) * | 1981-07-27 | 1984-05-22 | New York University | Sensorimotor coordinator |
US4479241A (en) * | 1981-08-06 | 1984-10-23 | Buckley Bruce S | Self-organizing circuits for automatic pattern recognition and the like and systems embodying the same |
US5297222A (en) * | 1982-05-04 | 1994-03-22 | Hitachi, Ltd. | Image processing apparatus |
JPH0658665B2 (ja) * | 1982-05-21 | 1994-08-03 | 株式会社日立製作所 | イメージ信号処理装置 |
US4518866A (en) * | 1982-09-28 | 1985-05-21 | Psychologics, Inc. | Method of and circuit for simulating neurons |
US4599692A (en) * | 1984-01-16 | 1986-07-08 | Itt Corporation | Probabilistic learning element employing context drive searching |
US4620286A (en) * | 1984-01-16 | 1986-10-28 | Itt Corporation | Probabilistic learning element |
US4599693A (en) * | 1984-01-16 | 1986-07-08 | Itt Corporation | Probabilistic learning system |
US4593367A (en) * | 1984-01-16 | 1986-06-03 | Itt Corporation | Probabilistic learning element |
US4648044A (en) * | 1984-06-06 | 1987-03-03 | Teknowledge, Inc. | Basic expert system tool |
US4697242A (en) * | 1984-06-11 | 1987-09-29 | Holland John H | Adaptive computing system capable of learning and discovery |
JPS619729A (ja) * | 1984-06-26 | 1986-01-17 | Toshiba Corp | 推論システム |
US4660166A (en) * | 1985-01-22 | 1987-04-21 | Bell Telephone Laboratories, Incorporated | Electronic network for collective decision based on large number of connections between signals |
US4760604A (en) * | 1985-02-15 | 1988-07-26 | Nestor, Inc. | Parallel, multi-unit, adaptive, nonlinear pattern class separator and identifier |
US4670848A (en) * | 1985-04-10 | 1987-06-02 | Standard Systems Corporation | Artificial intelligence system |
US4967340A (en) * | 1985-06-12 | 1990-10-30 | E-Systems, Inc. | Adaptive processing system having an array of individually configurable processing components |
US5060277A (en) * | 1985-10-10 | 1991-10-22 | Palantir Corporation | Pattern classification means using feature vector regions preconstructed from reference data |
US5077807A (en) * | 1985-10-10 | 1991-12-31 | Palantir Corp. | Preprocessing means for use in a pattern classification system |
JPH0634236B2 (ja) * | 1985-11-02 | 1994-05-02 | 日本放送協会 | 階層型情報処理方法 |
WO1987003399A1 (en) * | 1985-11-27 | 1987-06-04 | The Trustees Of Boston University | Pattern recognition system |
WO1987003411A1 (en) * | 1985-11-27 | 1987-06-04 | The Trustees Of Boston University | Pattern encoding system |
US4773024A (en) * | 1986-06-03 | 1988-09-20 | Synaptics, Inc. | Brain emulation circuit with reduced confusion |
US4752890A (en) * | 1986-07-14 | 1988-06-21 | International Business Machines Corp. | Adaptive mechanisms for execution of sequential decisions |
GB8619452D0 (en) * | 1986-08-08 | 1986-12-17 | Dobson V G | Signal generating & processing |
US4852018A (en) * | 1987-01-07 | 1989-07-25 | Trustees Of Boston University | Massively parellel real-time network architectures for robots capable of self-calibrating their operating parameters through associative learning |
US5224066A (en) * | 1987-03-16 | 1993-06-29 | Jourjine Alexander N | Method and apparatus for parallel implementation of neural networks |
US5053974A (en) * | 1987-03-31 | 1991-10-01 | Texas Instruments Incorporated | Closeness code and method |
US4881178A (en) * | 1987-05-07 | 1989-11-14 | The Regents Of The University Of Michigan | Method of controlling a classifier system |
US4807168A (en) * | 1987-06-10 | 1989-02-21 | The United States Of America As Represented By The Administrator, National Aeronautics And Space Administration | Hybrid analog-digital associative neural network |
US5526298A (en) * | 1987-06-10 | 1996-06-11 | Hamamatsu Photonics K.K. | Optical associative memory |
US4858147A (en) * | 1987-06-15 | 1989-08-15 | Unisys Corporation | Special purpose neurocomputer system for solving optimization problems |
US4809223A (en) * | 1987-06-18 | 1989-02-28 | West Virginia University | Apparatus and method for long term storage of analog signals |
WO1988010474A1 (en) * | 1987-06-18 | 1988-12-29 | University Of West Virginia | State analog neural network and method of implementing same |
US4914708A (en) * | 1987-06-19 | 1990-04-03 | Boston University | System for self-organization of stable category recognition codes for analog input patterns |
US5133021A (en) * | 1987-06-19 | 1992-07-21 | Boston University | System for self-organization of stable category recognition codes for analog input patterns |
US5251269A (en) * | 1987-07-15 | 1993-10-05 | Research Development Corporation Of Japan | Multi-layer neural network modelled after the striate cortex for recognizing visual patterns |
US5072452A (en) * | 1987-10-30 | 1991-12-10 | International Business Machines Corporation | Automatic determination of labels and Markov word models in a speech recognition system |
US5285522A (en) * | 1987-12-03 | 1994-02-08 | The Trustees Of The University Of Pennsylvania | Neural networks for acoustical pattern recognition |
EP0327817B1 (de) * | 1988-01-11 | 1996-08-28 | Yozan Inc. | Assoziatives Musterkonversionssystem und Anpassungsverfahren dafür |
US4874963A (en) * | 1988-02-11 | 1989-10-17 | Bell Communications Research, Inc. | Neuromorphic learning networks |
US4958375A (en) * | 1988-02-17 | 1990-09-18 | Nestor, Inc. | Parallel, multi-unit, adaptive pattern classification system using inter-unit correlations and an intra-unit class separator methodology |
US4931868A (en) * | 1988-05-31 | 1990-06-05 | Grumman Aerospace Corporation | Method and apparatus for detecting innovations in a scene |
US4893255A (en) * | 1988-05-31 | 1990-01-09 | Analog Intelligence Corp. | Spike transmission for neural networks |
US5050095A (en) * | 1988-05-31 | 1991-09-17 | Honeywell Inc. | Neural network auto-associative memory with two rules for varying the weights |
US4926064A (en) * | 1988-07-22 | 1990-05-15 | Syntonic Systems Inc. | Sleep refreshed memory for neural network |
AU633812B2 (en) * | 1988-08-31 | 1993-02-11 | Fujitsu Limited | Neurocomputer |
US5063601A (en) * | 1988-09-02 | 1991-11-05 | John Hayduk | Fast-learning neural network system for adaptive pattern recognition apparatus |
US4979124A (en) * | 1988-10-05 | 1990-12-18 | Cornell Research Foundation | Adaptive, neural-based signal processor |
US5003490A (en) * | 1988-10-07 | 1991-03-26 | Hughes Aircraft Company | Neural network signal processor |
US4920506A (en) * | 1988-10-07 | 1990-04-24 | Hughes Aircraft Company | Ultra-high speed two-dimensional coordinate transform processor |
US4930099A (en) * | 1988-10-07 | 1990-05-29 | Hughes Aircraft Company | Wavefront vector correlation processor and method |
US5093781A (en) * | 1988-10-07 | 1992-03-03 | Hughes Aircraft Company | Cellular network assignment processor using minimum/maximum convergence technique |
US4914604A (en) * | 1988-10-07 | 1990-04-03 | Hughes Aircraft Company | Processor for analyzing angle-only data |
US5001631A (en) * | 1988-10-07 | 1991-03-19 | Hughes Aircraft Company | Cellular network assignment processor using randomly triggered adaptive cell thresholds |
US4951239A (en) * | 1988-10-27 | 1990-08-21 | The United States Of America As Represented By The Secretary Of The Navy | Artificial neural network implementation |
US4906865A (en) * | 1988-12-09 | 1990-03-06 | Intel Corporation | Sample and hold circuit for temporal associations in a neural network |
US4912652A (en) * | 1988-12-14 | 1990-03-27 | Gte Laboratories Incorporated | Fast neural network training |
US4914603A (en) * | 1988-12-14 | 1990-04-03 | Gte Laboratories Incorporated | Training neural networks |
US4912647A (en) * | 1988-12-14 | 1990-03-27 | Gte Laboratories Incorporated | Neural network training tool |
US4912654A (en) * | 1988-12-14 | 1990-03-27 | Government Systems Corporation Gte | Neural networks learning method |
US4912655A (en) * | 1988-12-14 | 1990-03-27 | Gte Laboratories Incorporated | Adjusting neural networks |
US4912649A (en) * | 1988-12-14 | 1990-03-27 | Gte Government Systems Corporation | Accelerating learning in neural networks |
US4912653A (en) * | 1988-12-14 | 1990-03-27 | Gte Laboratories Incorporated | Trainable neural network |
US4912651A (en) * | 1988-12-14 | 1990-03-27 | Gte Laboratories Incorporated | Speeding learning in neural networks |
JP2676397B2 (ja) * | 1989-01-05 | 1997-11-12 | 株式会社エイ・ティ・アール視聴覚機構研究所 | 動的システムの運動軌道生成方法 |
US4941122A (en) * | 1989-01-12 | 1990-07-10 | Recognition Equipment Incorp. | Neural network image processing system |
US4974169A (en) * | 1989-01-18 | 1990-11-27 | Grumman Aerospace Corporation | Neural network with memory cycling |
US5033020A (en) * | 1989-02-08 | 1991-07-16 | Grumman Aerospace Corporation | Optically controlled information processing system |
US5222195A (en) * | 1989-05-17 | 1993-06-22 | United States Of America | Dynamically stable associative learning neural system with one fixed weight |
US5119469A (en) * | 1989-05-17 | 1992-06-02 | United States Of America | Neural network with weight adjustment based on prior history of input signals |
US5041976A (en) * | 1989-05-18 | 1991-08-20 | Ford Motor Company | Diagnostic system using pattern recognition for electronic automotive control systems |
US4939683A (en) * | 1989-05-19 | 1990-07-03 | Heerden Pieter J Van | Method and apparatus for identifying that one of a set of past or historical events best correlated with a current or recent event |
US5146542A (en) * | 1989-06-15 | 1992-09-08 | General Electric Company | Neural net using capacitive structures connecting output lines and differentially driven input line pairs |
US5479578A (en) * | 1989-06-15 | 1995-12-26 | General Electric Company | Weighted summation circuitry with digitally controlled capacitive structures |
US5274745A (en) * | 1989-07-28 | 1993-12-28 | Kabushiki Kaisha Toshiba | Method of processing information in artificial neural networks |
US5319587A (en) * | 1989-08-07 | 1994-06-07 | Rockwell International Corporation | Computing element for neural networks |
US5361328A (en) * | 1989-09-28 | 1994-11-01 | Ezel, Inc. | Data processing system using a neural network |
JP2724374B2 (ja) * | 1989-10-11 | 1998-03-09 | 株式会社鷹山 | データ処理装置 |
JPH03167655A (ja) * | 1989-11-28 | 1991-07-19 | Toshiba Corp | ニューラルネットワーク |
US5299284A (en) * | 1990-04-09 | 1994-03-29 | Arizona Board Of Regents, Acting On Behalf Of Arizona State University | Pattern classification using linear programming |
JPH0438587A (ja) * | 1990-06-04 | 1992-02-07 | Nec Corp | 入力領域適応型ニューラルネットワーク文字認識装置 |
US5151970A (en) * | 1990-07-02 | 1992-09-29 | General Electric Company | Method of generating, in the analog regime, weighted summations of digital signals |
US5247605A (en) * | 1990-07-02 | 1993-09-21 | General Electric Company | Neural nets supplied synapse signals obtained by digital-to-analog conversion of plural-bit samples |
US5251626A (en) * | 1990-07-03 | 1993-10-12 | Telectronics Pacing Systems, Inc. | Apparatus and method for the detection and treatment of arrhythmias using a neural network |
US5181171A (en) * | 1990-09-20 | 1993-01-19 | Atlantic Richfield Company | Adaptive network for automated first break picking of seismic refraction events and method of operating the same |
US5615305A (en) * | 1990-11-08 | 1997-03-25 | Hughes Missile Systems Company | Neural processor element |
JP3088171B2 (ja) * | 1991-02-12 | 2000-09-18 | 三菱電機株式会社 | 自己組織型パタ−ン分類システム及び分類方法 |
US5239594A (en) * | 1991-02-12 | 1993-08-24 | Mitsubishi Denki Kabushiki Kaisha | Self-organizing pattern classification neural network system |
US5204872A (en) * | 1991-04-15 | 1993-04-20 | Milltech-Hoh, Inc. | Control system for electric arc furnace |
US5263122A (en) * | 1991-04-22 | 1993-11-16 | Hughes Missile Systems Company | Neural network architecture |
US5671335A (en) * | 1991-05-23 | 1997-09-23 | Allen-Bradley Company, Inc. | Process optimization using a neural network |
US5170071A (en) * | 1991-06-17 | 1992-12-08 | Trw Inc. | Stochastic artifical neuron with multilayer training capability |
US5963930A (en) * | 1991-06-26 | 1999-10-05 | Ricoh Company Ltd. | Apparatus and method for enhancing transfer function non-linearities in pulse frequency encoded neurons |
US5226092A (en) * | 1991-06-28 | 1993-07-06 | Digital Equipment Corporation | Method and apparatus for learning in a neural network |
US5337371A (en) * | 1991-08-09 | 1994-08-09 | Matsushita Electric Industrial Co., Ltd. | Pattern classification system |
US10361802B1 (en) | 1999-02-01 | 2019-07-23 | Blanding Hovenweep, Llc | Adaptive pattern recognition based control system and method |
US8352400B2 (en) | 1991-12-23 | 2013-01-08 | Hoffberg Steven M | Adaptive pattern recognition based controller apparatus and method and human-factored interface therefore |
US5299285A (en) * | 1992-01-31 | 1994-03-29 | The United States Of America As Represented By The Administrator, National Aeronautics And Space Administration | Neural network with dynamically adaptable neurons |
US5438629A (en) * | 1992-06-19 | 1995-08-01 | United Parcel Service Of America, Inc. | Method and apparatus for input classification using non-spherical neurons |
DE69333664T2 (de) * | 1992-06-19 | 2005-11-17 | United Parcel Service Of America, Inc. | Verfahren und Gerät zur Einstellung eines Neurons |
GB9214514D0 (en) * | 1992-07-08 | 1992-08-19 | Massachusetts Inst Technology | Information processing |
US5479574A (en) * | 1993-04-01 | 1995-12-26 | Nestor, Inc. | Method and apparatus for adaptive classification |
US6167390A (en) * | 1993-12-08 | 2000-12-26 | 3M Innovative Properties Company | Facet classification neural network |
JPH07239938A (ja) * | 1994-02-28 | 1995-09-12 | Matsushita Electric Ind Co Ltd | 検査方法 |
US7469237B2 (en) * | 1996-05-02 | 2008-12-23 | Cooper David L | Method and apparatus for fractal computation |
US6041322A (en) * | 1997-04-18 | 2000-03-21 | Industrial Technology Research Institute | Method and apparatus for processing data in a neural network |
US7096192B1 (en) | 1997-07-28 | 2006-08-22 | Cybersource Corporation | Method and system for detecting fraud in a credit card transaction over a computer network |
US7403922B1 (en) | 1997-07-28 | 2008-07-22 | Cybersource Corporation | Method and apparatus for evaluating fraud risk in an electronic commerce transaction |
US6052679A (en) * | 1997-09-11 | 2000-04-18 | International Business Machines Corporation | Artificial neural networks including Boolean-complete compartments |
JP4147647B2 (ja) * | 1998-11-09 | 2008-09-10 | ソニー株式会社 | データ処理装置およびデータ処理方法、並びに記録媒体 |
JP4517409B2 (ja) * | 1998-11-09 | 2010-08-04 | ソニー株式会社 | データ処理装置およびデータ処理方法 |
US7966078B2 (en) | 1999-02-01 | 2011-06-21 | Steven Hoffberg | Network media appliance system and method |
US8364136B2 (en) | 1999-02-01 | 2013-01-29 | Steven M Hoffberg | Mobile system, a method of operating mobile system and a non-transitory computer readable medium for a programmable control of a mobile system |
JP4344964B2 (ja) * | 1999-06-01 | 2009-10-14 | ソニー株式会社 | 画像処理装置および画像処理方法 |
US7865427B2 (en) | 2001-05-30 | 2011-01-04 | Cybersource Corporation | Method and apparatus for evaluating fraud risk in an electronic commerce transaction |
JP2003010762A (ja) * | 2001-06-28 | 2003-01-14 | Konica Corp | 塗布装置及び塗布方法 |
US8712942B2 (en) * | 2003-03-24 | 2014-04-29 | AEMEA Inc. | Active element machine computation |
US8010467B2 (en) * | 2003-03-24 | 2011-08-30 | Fiske Software Llc | Active element machine computation |
US7398260B2 (en) * | 2003-03-24 | 2008-07-08 | Fiske Software Llc | Effector machine computation |
US8019705B2 (en) * | 2003-03-24 | 2011-09-13 | Fiske Software, LLC. | Register and active element machines: commands, programs, simulators and translators |
US20060112056A1 (en) * | 2004-09-27 | 2006-05-25 | Accenture Global Services Gmbh | Problem solving graphical toolbar |
US7904398B1 (en) | 2005-10-26 | 2011-03-08 | Dominic John Repici | Artificial synapse component using multiple distinct learning means with distinct predetermined learning acquisition times |
US9152779B2 (en) | 2011-01-16 | 2015-10-06 | Michael Stephen Fiske | Protecting codes, keys and user credentials with identity and patterns |
US10268843B2 (en) | 2011-12-06 | 2019-04-23 | AEMEA Inc. | Non-deterministic secure active element machine |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3275986A (en) * | 1962-06-14 | 1966-09-27 | Gen Dynamics Corp | Pattern recognition systems |
US3408627A (en) * | 1964-12-28 | 1968-10-29 | Texas Instruments Inc | Training adjusted decision system using spatial storage with energy beam scanned read-out |
-
1974
- 1974-06-06 US US05/477,080 patent/US3950733A/en not_active Expired - Lifetime
- 1974-11-07 GB GB4823274A patent/GB1457338A/en not_active Expired
-
1975
- 1975-04-25 ES ES436945A patent/ES436945A1/es not_active Expired
- 1975-04-25 CA CA225,516A patent/CA1042109A/en not_active Expired
- 1975-05-28 IT IT49831/75A patent/IT1036906B/it active
- 1975-06-04 DE DE2524734A patent/DE2524734C3/de not_active Expired
- 1975-06-05 CH CH735975A patent/CH620307A5/fr not_active IP Right Cessation
- 1975-06-05 MX MX158811A patent/MX143269A/es unknown
- 1975-06-05 FR FR7517627A patent/FR2274088A1/fr active Granted
- 1975-06-06 NL NLAANVRAGE7506761,A patent/NL176313C/xx not_active IP Right Cessation
- 1975-06-06 JP JP50068493A patent/JPS6012671B2/ja not_active Expired
-
1976
- 1976-11-16 ES ES453378A patent/ES453378A1/es not_active Expired
- 1976-11-16 ES ES453377A patent/ES453377A1/es not_active Expired
Also Published As
Publication number | Publication date |
---|---|
ES436945A1 (es) | 1977-04-01 |
JPS6012671B2 (ja) | 1985-04-02 |
US3950733A (en) | 1976-04-13 |
NL176313C (nl) | 1985-03-18 |
IT1036906B (it) | 1979-10-30 |
CH620307A5 (de) | 1980-11-14 |
ES453377A1 (es) | 1977-11-16 |
DE2524734C3 (de) | 1981-01-08 |
FR2274088A1 (fr) | 1976-01-02 |
JPS5121749A (de) | 1976-02-21 |
DE2524734B2 (de) | 1980-03-20 |
GB1457338A (en) | 1976-12-01 |
NL7506761A (nl) | 1975-12-09 |
ES453378A1 (es) | 1977-12-16 |
CA1042109A (en) | 1978-11-07 |
FR2274088B1 (de) | 1979-05-25 |
NL176313B (nl) | 1984-10-16 |
MX143269A (es) | 1981-04-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE2524734A1 (de) | Informationsverarbeitungssystem mit mindestens einer informationsverarbeitenden baugruppe | |
DE69115488T2 (de) | Neuronale prozessoren für realwerteingangbearbeitung | |
DE112011101370T5 (de) | Neuronales Netz mit kanonischen gepulsten Neuronen für einen raumzeitlichen Assoziativspeicher | |
DE112020004321T5 (de) | Kontextuelle erdung von phrasen in natürlicher sprache in bildern | |
DE2844156A1 (de) | Verfahren zum verifizieren eines sprechers | |
DE102017218889A1 (de) | Unscharf parametriertes KI-Modul sowie Verfahren zum Betreiben | |
DE102014107028B4 (de) | Verbesserte biometrische Passwortsicherheit | |
DE3938645C1 (de) | ||
DE112020002186T5 (de) | Dnn-training mit asymmetrischen rpu-einheiten | |
EP3843011A1 (de) | System und verfahren zur qualitätszusicherung von datenbasierten modellen | |
DE2133638C3 (de) | Verfahren zum Betrieb eines lernfähigen Systems aus in Kaskade geschalteten, zur nicht linearen Datenverarbeitung geeigneten lernfähigen Datenverarbeitungseinheiten | |
DE1933195A1 (de) | System bzw. Verfahren und Vorrichtung fuer eine Erkennung oder Ablesung von handgeschriebenen und/oder maschinengedruckten Zeichen | |
EP1519301A2 (de) | Vorrichtung zur klassifikation physiologischer Ereignisse | |
DE202023102984U1 (de) | Aufforderung von maschinengelernten Modellen mit Hilfe von Gedankenketten | |
DE2838185C2 (de) | Korrelationseinrichtung in einem Radargerät zum Erfassen eines Radarsignals aus dem Rauschen | |
DE1091783B (de) | Verfahren und Einrichtung zur Darstellung von Schriftzeichen auf dem Bildschirm einer Kathodenstrahlroehre | |
Spoerhase | Hypothetischer Intentionalismus. Rekonstruktion und Kritik | |
DE112017008202T5 (de) | Parsen von regulären Ausdrücken mit gepulsten neuralen Netzwerken | |
DE1807147A1 (de) | Wellenformdetektor | |
DE4330847A1 (de) | Vorrichtung und Verfahren zur Datenverarbeitung | |
EP1359539A2 (de) | Neurodynamisches Modell der Verarbeitung visueller Informationen | |
Hiller et al. | War on Terror revisited? | |
DE3853308T2 (de) | Neurale Berechnung durch zeitliche Konzentration. | |
Friebe et al. | Nicht-Kollaps-Interpretationen der Quantentheorie | |
Reinke | Das Wissenschaftsverständnis der Volkswirtschaftslehre in der Kritik: Implikationen für die Vision einer pluralen Ökonomik |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C3 | Grant after two publication steps (3rd publication) | ||
8327 | Change in the person/name/address of the patent owner |
Owner name: NESTOR, INC., NEW YORK, N.Y., US |
|
8328 | Change in the person/name/address of the agent |
Free format text: RUFF, M., DIPL.-CHEM. DR.RER.NAT. BEIER, J., DIPL.-ING. SCHOENDORF, J., DIPL.-PHYS., PAT.-ANW., 7000 STUTTGART |